JP6348732B2 - 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 - Google Patents

情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 Download PDF

Info

Publication number
JP6348732B2
JP6348732B2 JP2014042871A JP2014042871A JP6348732B2 JP 6348732 B2 JP6348732 B2 JP 6348732B2 JP 2014042871 A JP2014042871 A JP 2014042871A JP 2014042871 A JP2014042871 A JP 2014042871A JP 6348732 B2 JP6348732 B2 JP 6348732B2
Authority
JP
Japan
Prior art keywords
information processing
data
virtual object
processing apparatus
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014042871A
Other languages
English (en)
Other versions
JP2015170018A (ja
Inventor
知美 山根
知美 山根
宏壽 石灰
宏壽 石灰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2014042871A priority Critical patent/JP6348732B2/ja
Priority to US14/630,058 priority patent/US9733896B2/en
Publication of JP2015170018A publication Critical patent/JP2015170018A/ja
Application granted granted Critical
Publication of JP6348732B2 publication Critical patent/JP6348732B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Description

本発明は、情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法に関し、特に例えば、他の装置における入力に応じて所定の画像を表示するための情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法に関する。
従来、カメラ等の撮像手段によって撮像された画像(撮像画像)から所定の撮像対象を検出し、当該撮像対象に応じて仮想オブジェクトを表示する技術がある(例えば、非特許文献1参照)。例えば、非特許文献1には、拡張現実感技術において、カメラによる撮像画像に含まれるマーカに対して画像認識処理を行い、当該マーカが検出された場合に当該マーカ位置に基づいて仮想オブジェクトを撮像画像に合成して表示することが記載されている。
加藤博一,Mark Billinghurst,浅野浩一,橘啓八郎、「マーカー追跡に基づく拡張現実感システムとそのキャリブレーション」、日本バーチャルリアリティ学会論文誌 Vol.4 No.4、1999年
しかしながら、上記非特許文献1に記載の技術は、単に撮像対象に応じた仮想オブジェクトを表示するだけであり、より興趣性を高く仮想オブジェクトを表示するという点では改善の余地がある。
それ故に、本発明の目的は、撮像画像内に仮想オブジェクトを表示する際に、興趣性を高めることができる情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法を提供することである。
上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。
本発明の情報処理システムの一構成例は、現実空間の画像内に仮想オブジェクト画像を表示する情報処理装置と当該情報処理装置と通信可能な他の装置とを含む。他の装置は、制御データ取得手段を備える。制御データ取得手段は、仮想オブジェクト画像を制御する制御データを取得する。情報処理装置または他の装置は、仮想オブジェクト画像設定手段を備える。仮想オブジェクト画像設定手段は、制御データに応じて、仮想オブジェクト画像の表示態様を設定する。他の装置は、送信手段を、さらに備える。送信手段は、仮想オブジェクト画像設定手段が設定した表示態様を示すデータおよび/または制御データを、情報処理装置に送信する。情報処理装置は、撮像画像取得手段、データ取得手段、および表示制御手段を備える。撮像画像取得手段は、撮像装置によって撮像された撮像画像を取得する。データ取得手段は、他の装置から送信されたデータを取得する。表示制御手段は、表示装置に表示される撮像画像内に、表示態様を示すデータに基づいた仮想オブジェクト画像を表示する。
上記によれば、他の装置において取得された制御データに応じて撮像画像内に表示される仮想オブジェクト画像の表示態様が変化するため、興趣性の高い画像を提供することができる。
また、上記制御データ取得手段は、他の装置に対するユーザ入力を示すデータを制御データとして取得してもよい。
上記によれば、他の装置に対するユーザ入力に応じて撮像画像内に表示される仮想オブジェクト画像の表示態様が変化するため、より興趣性の高い画像を提供することができる。
また、上記送信手段は、特定の場所に情報処理装置が位置している場合に、当該情報処理装置に対してデータの送信が可能であってもよい。
上記によれば、情報処理装置のユーザを特定の場所に誘導するための有効な動機付けとなる。
また、上記送信手段は、特定の場所に情報処理装置が位置しており、かつ、当該特定の場所とは別の特定の場所に他の装置が位置している場合に、当該情報処理装置に対してデータの送信が可能であってもよい。
上記によれば、情報処理装置のユーザおよび他の装置のユーザをそれぞれ別の特定の場所に誘導するための有効な動機付けとなる。
また、上記仮想オブジェクト画像設定手段は、特定の場所に情報処理装置が位置している場合、当該場所に対して固有に設定される仮想オブジェクトを表示態様として設定してもよい。
上記によれば、固有に設定される仮想オブジェクトを表示するためには、情報処理装置のユーザが特定の場所を訪れる必要があるため、当該特定の場所にユーザを誘導するための有効な動機付けとなる。
また、上記仮想オブジェクト画像設定手段は、他の装置のユーザによって設定されるユーザキャラクタを表示態様として設定してもよい。
上記によれば、他の装置と通信することによって、他の装置のユーザ固有の仮想オブジェクトを表示することができる。
また、上記情報処理装置は、ユーザ画像取得手段および送信手段を、さらに備えてもよい。ユーザ画像取得手段は、撮像装置または撮像装置とは異なる撮像装置によってリアルタイムで撮像された当該情報処理装置のユーザの画像を取得する。送信手段は、ユーザの画像を示すデータを他の装置へ送信する。上記他の装置は、データ取得手段および表示制御手段を、さらに備えてもよい。データ取得手段は、情報処理装置から送信されたデータを取得する。表示制御手段は、情報処理装置から取得したデータを用いて、当該情報処理装置のユーザの画像を表示装置に表示する。
上記によれば、他の装置側において、情報処理装置のユーザの様子を確認することができる。
また、上記他の装置は、音声入力手段を、さらに備えてもよい。音声入力手段は、他の装置に対する音声入力を取得する。この場合、上記他の装置の送信手段は、当該他の装置に対する音声入力を示すデータを、さらに情報処理装置に送信してもよい。上記情報処理装置のデータ取得手段は、他の装置から送信された当該他の装置に対する音声入力を示すデータを、さらに取得してもよい。上記情報処理装置は、音声出力手段、音声入力手段、および送信手段を、さらに備えてもよい。音声出力手段は、他の装置から送信された音声入力に応じた音声を出力する。音声入力手段は、情報処理装置に対する音声入力を取得する。送信手段は、情報処理装置に対する音声入力を示すデータを、他の装置に送信する。上記他の装置は、データ取得手段および音声出力手段を、さらに備えてもよい。データ取得手段は、情報処理装置から送信された当該情報処理装置に対する音声入力を示すデータを取得する。音声出力手段は、情報処理装置から送信された音声入力に応じた音声を出力する。
上記によれば、音声が双方の装置へ送信されて音声出力されるため、双方の装置を操作するユーザを互いに身近に認識することができる。
また、上記制御データ取得手段は、他の装置に対する音声入力を示すデータを制御データとして取得してもよい。上記仮想オブジェクト画像設定手段は、他の装置に対する音声入力に基づいて仮想オブジェクトの動作を設定し、当該動作に応じた仮想オブジェクト画像の表示態様を設定してもよい。上記他の装置の送信手段は、当該他の装置に対する音声入力を示すデータを、さらに情報処理装置に送信してもよい。上記情報処理装置のデータ取得手段は、他の装置から送信された当該他の装置に対する音声入力を示すデータを、さらに取得してもよい。上記情報処理装置は、音声出力手段を、さらに備えてもよい。音声出力手段は、他の装置から送信された音声入力に応じた音声を出力する。
上記によれば、他の装置への音声入力に応じて仮想オブジェクトの動作を制御することできる。
また、上記送信手段は、特定の場所に設置されている特定のアクセスポイントを介して情報処理装置と通信可能である場合に、当該情報処理装置に対してデータの送信が可能であってもよい。
上記によれば、情報処理装置のユーザを誘導するための特定の場所を、アクセスポイントを特定するだけで当該アクセスポイントの通信可能範囲を用いて設定することができる。
また、本発明は、上記各手段の少なくとも一部を備える情報処理装置、上記各手段の少なくとも一部としてコンピュータを機能させる情報処理プログラムや上記各手段で行われる動作を含む情報処理方法の形態で実施されてもよい。
本発明によれば、他の装置において取得された制御データに応じて撮像画像内に表示される仮想オブジェクト画像の表示態様が変化するため、興趣性の高い画像を提供することができる。
情報処理装置5を含む情報処理システム1aの一例を示すブロック図 情報処理システム1aにおいて、情報処理装置5に仮想キャラクタPCが表示された第1段階の一例を示す図 情報処理システム1aにおいて、情報処理装置5に仮想キャラクタPCが表示された第2段階の一例を示す図 オペレータがオペレータ端末装置200を操作する一例を示す図 複数の情報処理装置5a〜5fを含む情報処理システム1bの他の例を示すブロック図 情報処理システム1bにおいて、アクセスポイントAP1に接続して複数の情報処理装置5a〜5cを操作する様子の一例を示す図 情報処理システム1bにおいて、アクセスポイントAP2に接続して複数の情報処理装置5d〜5fを操作する様子の一例を示す図 情報処理装置5aに仮想キャラクタPCe〜PCfが表示された一例を示す図 情報処理装置5のメモリ56に記憶される主なデータおよびプログラムの一例を示す図 情報処理装置5(CPU55)において実行される情報処理の前半の一例を示すフローチャート 情報処理装置5(CPU55)において実行される情報処理の後半の一例を示すフローチャート
図1を参照して、本発明の一実施形態に係る情報処理プログラムを実行する情報処理装置を含む情報処理システムについて説明する。なお、図1は、情報処理装置5を含む情報処理システム1aの一例を示すブロック図である。図1に示すように、情報処理システム1aは、遠隔配置された情報処理装置5およびオペレータ端末装置200が、アクセスポイントAPおよびネットワーク100を介して接続されて構築される。
情報処理装置5は、無線通信を用いて、アクセスポイントAPを介してネットワーク100に接続可能に構成されている。そして、情報処理装置5は、ネットワーク100を介して、オペレータ端末装置200と接続を確立することによって、オペレータ端末装置200との通信が可能となる。例えば、情報処理装置5は、交換可能なメモリカードや光ディスク等の記録媒体内に記憶された、または、サーバや他の装置から受信されたプログラムを実行可能である。情報処理装置5は、携帯ゲーム装置であってもよく、一般的なパーソナルコンピュータ、携帯電話機、PDA(Personal Digital Assistant)等のデバイスであってもかまわない。
情報処理装置5は、撮像部50、操作部51、LCD52、音声出力部53、音声入力部54、CPU55、メモリ56、プログラム記憶部57、および通信部58等を備える。なお、情報処理装置5は、CPU55を少なくとも含む情報処理装置と他の装置とを含む1以上の装置によって構成されてもよい。
CPU55は、各種の情報処理を実行するための情報処理手段(コンピュータ)の一例である。CPU55は、各種の情報処理として、通信部58を介してオペレータ端末装置200から送信されたデータを受信し、当該データに応じた処理等を実行する機能を有する。また、CPU55は、各種の情報処理として、オペレータ端末装置200へ送信するユーザデータを作成して、通信部58を介して当該ユーザデータを送信する処理等を実行する機能を有する。例えば、CPU55が所定のプログラムを実行することによって、上記機能が実現される。本実施形態においては、情報処理装置5は、特定のアクセスポイントAPを介してのみオペレータ端末装置200と通信可能であり、通信部58を用いて特定のアクセスポイントAPと通信可能となった場合にオペレータ端末装置200と通信を行って情報処理を行う。
また、CPU55は、各種の情報処理として、撮像部50によって撮像された撮像画像や操作部51に対するユーザの操作に応じた処理等を実行する機能を有する。本実施形態においては、撮像部50(外側カメラ501)が撮像した撮像画像内に所定のマーカ画像が含まれる場合、CPU55は、当該マーカ画像の表示位置に基づいた配置位置に仮想キャラクタを当該撮像画像に合成してLCD52に表示する表示制御処理を行う。
メモリ56は、CPU55が上記処理を実行する際に用いる各種のデータを記憶する。メモリ56は、例えばCPU55がアクセス可能なメモリである。
プログラム記憶部57は、プログラムを記憶(格納)する。プログラム記憶部57は、CPU55がアクセス可能な記憶装置(記憶媒体)であればどのようなものであってもよい。例えば、プログラム記憶部57は、CPU55を含む情報処理装置5内に設けられる記憶装置であってもよいし、CPU55を含む情報処理装置5に着脱自在に装着される記憶媒体であってもよい。また、プログラム記憶部57は、CPU55とネットワークを介して接続される記憶装置(サーバ等)であってもよい。CPU55は、プログラムの一部または全部を適宜のタイミングでメモリ56に読み出し、読み出されたプログラムを実行するようにしてもよい。
操作部51は、ユーザによって操作可能な入力装置である。操作部51は、どのような入力装置であってもよい。例えば、操作部51は、操作ボタン、スティック、タッチパネル等の入力装置でもいいし、ジャイロセンサや加速度センサ等の姿勢センサを備えていてもよい。
LCD52は、情報処理装置5が備える表示部の一例であり、CPU55の指示にしたがって画像を表示する。なお、LCD52は、実質的に同一の表示領域を用いて左目用画像と右目用画像とを表示して、立体視可能な表示装置であってもよい。
例えば、撮像部50は、情報処理装置5のハウジング外面に固設され、LCD52の画面奥行方向を撮像方向とする外側カメラ501と、情報処理装置5のハウジング内面に固設され、LCD52の画面手前方向を撮像方向として情報処理装置5のユーザを撮像可能な内側カメラ502とを含む。外側カメラ501および内側カメラ502は、CPU55と接続されており、CPU55の指示にしたがって画像を撮像し、撮像した画像データをCPU55に出力する。外側カメラ501および内側カメラ502は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。なお、レンズは、ズーム機構を有するものでもよい。また、外側カメラ501および/または内側カメラ502は、撮像方向が左右平行となるように固設された2つの撮像部によってステレオカメラを構成してもかまわない。
音声出力部53は、CPU55の指示に応じて音声を出力するスピーカを含む。音声入力部54は、情報処理装置5の外部の音を検出するマイクを含む。音声入力部54によって検知された音声信号は、所定のI/F回路によって所定形式の音声データに変換され、CPU55へ出力される。
オペレータ端末装置200は、一般的なパーソナルコンピュータ等の据置型の情報処理装置で構成され、ネットワーク100を介して通信パケットの送受信を行うことで、特定のアクセスポイントAPと接続する装置(例えば、情報処理装置5)と通信を行う。オペレータ端末装置200は、オペレータ端末装置200のユーザ(オペレータ)によって操作可能であり、情報処理装置5から送信されたユーザデータに応じた処理を行う。例えば、オペレータ端末装置200は、撮像画像に合成して情報処理装置5のLCD52に表示される仮想キャラクタを制御するためのデータを生成して、当該データを特定のアクセスポイントAPと接続する情報処理装置5に送信する処理を行う。また、オペレータ端末装置200は、情報処理装置5から音声出力するための音声データを生成して送信する処理を行う。さらに、オペレータ端末装置200は、情報処理装置5から送信されたユーザデータを受信して、情報処理装置5に対するユーザの操作情報(例えば、情報処理装置5によって撮像された撮像画像情報、情報処理装置5に音声入力された音声入力情報、情報処理装置5の操作部51を操作した操作情報等)を取得する。なお、オペレータ端末装置200は、単一の装置から構成されてもいいし、複数の装置によって構成されてもよい。また、オペレータ端末装置200は、ユーザ(オペレータ)によって仮想キャラクタを制御するための操作が行われているが、オペレータ端末装置200において仮想キャラクタを制御する制御データが取得されればよく、所定のアルゴリズム等に基づいて、オペレータ端末装置200に含まれるシステムが自動制御することによって、仮想キャラクタを制御する制御データが取得されてもよい。
次に、情報処理装置5が行う具体的な処理を説明する前に、図2〜図4を用いて情報処理システム1aにおいて行われる処理の概要の一例について説明する。なお、図2は、情報処理システム1aにおいて、情報処理装置5に仮想キャラクタPCが表示された第1段階の一例を示す図である。図3は、情報処理システム1aにおいて、情報処理装置5に仮想キャラクタPCが表示された第2段階の一例を示す図である。図4は、オペレータがオペレータ端末装置200を操作する一例を示す図である。
図2において、現実世界に配置されている無人の販売機にアクセスポイントAPが設置されている。また、上記販売機の近傍には、マーカMが配置されている。マーカMは、一例として矩形の枠内に所定の図形や文字が描かれている。
情報処理装置5のユーザが撮像部50(典型的には、外側カメラ501)を用いて現実世界を撮像した場合、CPU55は、撮像部50から取得される撮像画像に対して例えばパターンマッチング等の画像処理を行うことによって、当該撮像画像にマーカMが含まれているか否かを判定する。そして、撮像部50によってマーカMが撮像されている場合、現実世界画像としてマーカMが被写体として含まれている撮像画像がLCD52に表示されるとともに、現実世界画像に含まれるマーカ画像Mの表示位置に基づいた位置に仮想キャラクタPC(例えば、販売機で販売している商品を売る店員を模した仮想キャラクタ)がLCD52に合成表示される。
なお、マーカMに向き(前方向、右方向、上方向)を定義して、マーカMの配置方向に基づいた姿勢で仮想キャラクタPCを配置して合成表示してもよい。例えば、仮想キャラクタPCの上方向がマーカMの上方向と一致するとともに、仮想キャラクタPCが撮像部50の方向に向いた姿勢(すなわち、仮想キャラクタPCの正面がLCD52を見るユーザと対向する姿勢)で、マーカMの位置と重畳させてまたはマーカMの位置から所定距離離れた位置に仮想キャラクタPCを配置してもよい。また、マーカMの種類に応じて、当該マーカMに対応して合成表示する仮想キャラクタPCの種類を変化させてもよい。
ここで、本実施例では、撮像画像に合成される仮想キャラクタPCは、アクセスポイントAPを介してオペレータ端末装置200から送信されるデータに基づいて制御される。オペレータ端末装置200は、ネットワーク100を介して、特定のアクセスポイントAPと接続されている。そして、アクセスポイントAPは、情報処理装置5との無線通信が可能となる通信範囲を有している。情報処理装置5がアクセスポイントAPの通信範囲内に進入した場合、情報処理装置5とアクセスポイントAPとの間における無線通信の接続を確立する処理が自動的またはユーザ操作に応じて行われる。そして、情報処理装置5に設定されているユーザデータが、アクセスポイントAPを介して、オペレータ端末装置200へ送信される。
これに対して、オペレータ端末装置200は、アクセスポイントAPと通信を確立した情報処理装置5に対して、仮想キャラクタPCの種類や動作等を制御するデータ(キャラクタデータ)、音声出力部53から出力する音声を制御するデータ(音声データ)、オペレータ端末装置200に対する操作情報を示すデータ(操作データ)等を送信する。例えば、図2の例では、オペレータ端末装置200から送信されたデータに応じて、お辞儀をする店員を模した仮想キャラクタPCがLCD52に表示されるとともに、音声「いらっしゃいませ」が音声出力部53から出力されている。このような場合、オペレータ端末装置200は、仮想キャラクタPCの種類および動作として店員を模した仮想キャラクタがお辞儀するように制御するキャラクタデータと、音声「いらっしゃいませ」を音声出力部53から出力させるための音声データとを情報処理装置5に送信している。これに対して、情報処理装置5の内側カメラ502によって撮像されたユーザの画像(例えば、ユーザの顔を撮像した動画像)を示すデータがユーザデータとして、オペレータ端末装置200へ送信される。
また、図3の例では、オペレータ端末装置200から送信されたデータに応じて、購入を促す動作をする店員を模した仮想キャラクタPCがLCD52に表示されるとともに、音声「いくつ購入しますか?」が音声出力部53から出力されている。このような場合、オペレータ端末装置200は、仮想キャラクタPCの種類および動作として店員を模した仮想キャラクタが購入を促すように制御するキャラクタデータと、音声「いくつ購入しますか?」を音声出力部53から出力させるための音声データとを情報処理装置5に送信している。これに対して、情報処理装置5のユーザは、「3つください。」とユーザ自身が発声している。このようにユーザが発声した音声は、情報処理装置5の音声入力部54によって検出され、当該音声を示す音声データがユーザデータとして、オペレータ端末装置200へ送信される。また、情報処理装置5の内側カメラ502によって撮像されたユーザの画像(例えば、「3つください。」と発声しているユーザの顔を撮像した動画像)を示すデータがユーザデータとして、オペレータ端末装置200へ送信される。
一方、図4に示すように、オペレータ端末装置200のオペレータは、特定のアクセスポイントAPと接続を確立した情報処理装置5のユーザとの間で会話を進めることができる。上述したように、情報処理装置5からはアクセスポイントAPを介してユーザデータが送信されており、オペレータ端末装置200は、当該ユーザデータを受信してユーザ画像やユーザ音声を取得する。そして、オペレータ端末装置200のオペレータは、上記ユーザ画像をモニタに表示するとともにユーザ音声を聴くことによって、情報処理装置5のユーザと情報のやり取りを行う。
例えば、図2に示した状況の場合、オペレータ端末装置200のオペレータは、情報処理装置5が特定のアクセスポイントAPと接続を確立したことを、当該情報処理装置5から送信されたユーザデータによって知る。そして、オペレータ端末装置200のオペレータは、オペレータ端末装置200の音声入力部に「いらっしゃいませ」とオペレータ自身が発声することによって、当該音声を示すデータが情報処理装置5へ送信される。また、オペレータ端末装置200では、情報処理装置5が接続したアクセスポイントAPに応じた仮想キャラクタPCの種類を設定するとともに、オペレータが発声した音声を音声認識することによって、当該音声に適した仮想キャラクタPCの動作を設定する。例えば、オペレータ端末装置200は、音声「いらっしゃいませ」が音声認識されることに応じて、お辞儀動作を仮想キャラクタPCの動作として設定する。そして、オペレータ端末装置200は、設定された仮想キャラクタPCの種類および動作を示すデータを、情報処理装置5へ送信する。
また、図3に示した状況の場合、オペレータ端末装置200のオペレータは、オペレータ端末装置200の音声入力部に「いくつ購入しますか?」とオペレータ自身が発声することによって、当該音声を示すデータが情報処理装置5へ送信される。また、オペレータ端末装置200では、オペレータが発声した音声「いくつ購入しますか?」を音声認識することに応じて、販売を促す動作を仮想キャラクタPCの動作として設定する。そして、オペレータ端末装置200は、設定された仮想キャラクタPCの動作を示すデータを、情報処理装置5へ送信する。また、オペレータ端末装置200のオペレータは、情報処理装置5のユーザが「3つください。」と発声したことを当該情報処理装置5から送信されたユーザデータ(撮像画像データおよび音声データ)によって知ることができる。
なお、仮想キャラクタPCの動作は、オペレータ端末装置200における音声認識以外の方法によって設定されてもよい。例えば、オペレータがオペレータ端末装置200の入力装置(例えば、キーボードやマウス)を操作して、複数の動作選択肢から1つの動作を選択することによって仮想キャラクタPCの動作が設定されてもよい。また、オペレータ端末装置200のモニタに仮想キャラクタPCを表示して上記入力装置の操作に応じて仮想キャラクタPCを動作させることによって、仮想キャラクタPCの動作が設定されてもよい。また、オペレータ端末装置200においてオペレータが文字入力した文字データを認識することによって、仮想キャラクタPCの動作が設定されてもよい。
また、仮想キャラクタPCの動作は、情報処理装置5側で設定されてもよい。例えば、オペレータ端末装置200からオペレータの音声を示す音声データを取得した場合、情報処理装置5が当該音声を音声認識して仮想キャラクタPCの動作を設定してもよい。また、オペレータ端末装置200から仮想キャラクタPCの動作を選択する操作データや仮想キャラクタPCを動作させる操作データを取得した場合、情報処理装置5が当該操作データに応じて仮想キャラクタPCの動作を設定してもよい。
また、仮想キャラクタPCの画像データは、情報処理装置5がアクセスポイントAPと接続されることに応じてオペレータ端末装置200から適宜送信されてもいいし、情報処理装置5に予め格納されていてもかまわない。前者の場合、オペレータ端末装置200側において仮想キャラクタPCの種類および/または動作が設定される毎に、当該種類および/または動作に対応する仮想キャラクタPCの画像データがオペレータ端末装置200から情報処理装置5へ送信される。後者の場合、オペレータ端末装置200側または情報処理装置5において仮想キャラクタPCの種類および/または動作が設定される毎に、予め情報処理装置5に格納された仮想キャラクタPCの画像データから対応する画像データが抽出される。
また、撮像画像からマーカMを検出することによって出現する仮想キャラクタPCは、一例として、オペレータ端末装置200からのキャラクタデータを受信した場合のみLCD52に表示されてもよい。また、他の例として、オペレータ端末装置200からのキャラクタデータを受信した場合のみ特別なキャラクタが仮想キャラクタPCとしてLCD52に表示されてもよい。前者の場合、マーカMを撮像しただけでは仮想キャラクタPCが表示されないため、ユーザは、仮想キャラクタPCを表示するためにはマーカMが設置されているアクセスポイントAPの通信範囲内に行く必要がある。後者の場合も、マーカMを撮像しただけでは特別なキャラクタが仮想キャラクタPCとして表示されないため、ユーザは、特別なキャラクタを表示するためにはマーカMが設置されているアクセスポイントAPの通信範囲内に行く必要がある。したがって、何れの場合も特定のアクセスポイントAPと情報処理装置5とが通信を確立する必要があるため、特定の場所(特定のアクセスポイントAP設置場所)にユーザを誘導するための有効な動機付けとなる。
次に、図5〜図8を参照して、本発明の情報処理プログラムを実行する情報処理装置を含む情報処理システムの他の例について説明する。なお、図5は、複数の情報処理装置5a〜5fを含む情報処理システム1bの他の例を示すブロック図である。図6は、情報処理システム1bにおいて、アクセスポイントAP1に接続して複数の情報処理装置5a〜5cを操作する様子の一例を示す図である。図7は、情報処理システム1bにおいて、アクセスポイントAP2に接続して複数の情報処理装置5d〜5fを操作する様子の一例を示す図である。図8は、情報処理装置5aに仮想キャラクタPCd〜PCfが表示された一例を示す図である。
図5に示すように、情報処理システム1bは、複数の情報処理装置5a〜5cと複数の情報処理装置5d〜5fとが遠隔配置されており、アクセスポイントAP1、アクセスポイントAP2、およびネットワーク100を介してそれぞれの情報処理装置群の間が接続されて構築される。例えば、情報処理装置5a〜5cは、無線通信を用いて、アクセスポイントAP1を介してネットワーク100に接続可能にそれぞれ構成されている。また、情報処理装置5d〜5fは、無線通信を用いて、アクセスポイントAP2を介してネットワーク100に接続可能にそれぞれ構成されている。そして、情報処理装置5a〜5cおよび情報処理装置5d〜5fは、ネットワーク100を介して、他方との接続を確立することによって、互いに無線通信が可能となる。なお、情報処理装置5a〜5fの構成については、それぞれ上述した情報処理装置5と同様であるため、ここでは詳細な説明を省略する。
図6において、現実世界の部屋に特定のアクセスポイントAP1が設置されている。また、アクセスポイントAP1が設置されている部屋には、その机上にマーカMが配置された机が設置されている。マーカMは、一例として矩形の枠内に所定の図形や文字が描かれている。そして、アクセスポイントAP1が設置されている部屋には、情報処理装置5aを操作するユーザAと情報処理装置5bを操作するユーザBと情報処理装置5cを操作するユーザCとが訪れている。
図7において、アクセスポイントAP1が設置されている部屋とは異なる部屋(例えば、アクセスポイントAP1が設置された部屋とは遠隔の部屋や隣接する部屋)に特定のアクセスポイントAP2が設置されている。また、アクセスポイントAP2が設置されている部屋にも、その机上にマーカMが配置された机が設置されている。そして、アクセスポイントAP2が設置されている部屋には、情報処理装置5dを操作するユーザDと情報処理装置5eを操作するユーザEと情報処理装置5fを操作するユーザFとが訪れている。
情報処理装置5a〜5fのユーザA〜Fがそれぞれ撮像部50(典型的には、外側カメラ501)を用いて現実世界を撮像した場合、CPU55は、撮像部50から取得される撮像画像に対して例えばパターンマッチング等の画像処理を行うことによって、当該撮像画像にマーカMが含まれているか否かを判定する。そして、撮像部50によってマーカMが撮像されている場合、現実世界画像としてマーカMが被写体として含まれている撮像画像がLCD52に表示されるとともに、現実世界画像に含まれるマーカ画像Mの表示位置に基づいた位置に仮想キャラクタPCがLCD52に合成表示される。
例えば、図8に示すように、情報処理装置5aのユーザAが外側カメラ501を用いて机上のマーカMを含む現実世界を撮像した場合、現実世界画像に含まれるマーカ画像Mの表示位置に基づいた位置(例えば、マーカMが置かれた机の後方)に仮想キャラクタPCd〜PCfが並んでLCD52に合成表示される。
本実施例では、撮像画像に合成される仮想キャラクタPCは、アクセスポイントAP1およびAP2を介して、他の情報処理装置5から送信されるデータに基づいて制御される。ここで、アクセスポイントAP1およびAP2は、情報処理装置5との無線通信が可能となる通信範囲をそれぞれ有している。情報処理装置5がアクセスポイントAP1の通信範囲内またはアクセスポイントAP2の通信範囲内に進入した場合、情報処理装置5とアクセスポイントAP1またはAP2との間における無線通信の接続を確立する処理が自動的またはユーザ操作に応じて行われる。そして、特定のアクセスポイントAP1と接続した情報処理装置5に設定されているユーザデータが、特定のアクセスポイントAP2と接続した情報処理装置5へ送信される。また、特定のアクセスポイントAP2と接続した情報処理装置5に設定されているユーザデータが、特定のアクセスポイントAP1と接続した情報処理装置5へ送信される。つまり、図5〜図7に示した例では、特定のアクセスポイントAP1と接続した情報処理装置5a〜5cにそれぞれ設定されているユーザデータが、特定のアクセスポイントAP2と接続した情報処理装置5d〜5fに送信され、情報処理装置5d〜5fにそれぞれ設定されているユーザデータが、情報処理装置5a〜5cに送信されることになる。
各情報処理装置5は、送信先となる他の情報処理装置5に対して、仮想キャラクタPCの種類や動作等を制御するデータ(キャラクタデータ)、送信先の情報処理装置5における音声出力部53から出力する音声を制御するデータ(音声データ)、送信元の情報処理装置5における操作情報を示すデータ(操作データ)等をそれぞれ送信する。例えば、図8の例では、情報処理装置5d〜5fから送信されたデータに応じて、情報処理装置5d〜5fのユーザD〜Fをそれぞれ示す仮想キャラクタPCd〜PCfが情報処理装置5aのLCD52に表示されるとともに、全員の音声「はじめまして!」が情報処理装置5aの音声出力部53から出力されている。このような場合、情報処理装置5dは、仮想キャラクタPCdの種類および動作としてユーザD自身のキャラクタとして設定している仮想キャラクタが机の後方に向かって左側に着席するように制御するキャラクタデータと、音声「はじめまして!」を音声出力部53から出力させるための音声データとを情報処理装置5a〜5cにそれぞれ送信している。また、情報処理装置5eは、仮想キャラクタPCeの種類および動作としてユーザE自身のキャラクタとして設定している仮想キャラクタが机の後方の中央に着席するように制御するキャラクタデータと、音声「はじめまして!」を音声出力部53から出力させるための音声データとを情報処理装置5a〜5cにそれぞれ送信している。さらに、情報処理装置5fも、仮想キャラクタPCfの種類および動作としてユーザF自身のキャラクタとして設定している仮想キャラクタが机の後方に向かって右側に着席するように制御するキャラクタデータと、音声「はじめまして!」を音声出力部53から出力させるための音声データとを情報処理装置5a〜5cにそれぞれ送信している。これに対して、情報処理装置5aのユーザAは、「はじめまして!」とユーザA自身が発声している。このようにユーザAが発声した音声は、情報処理装置5aの音声入力部54によって検出され、当該音声を示す音声データがユーザデータとして、情報処理装置5d〜5fへ送信される。また、情報処理装置5aの仮想キャラクタPCaの種類および動作を示すユーザデータ(例えば、ユーザA自身のキャラクタとして設定している仮想キャラクタPCaが机の後方に向かって右側に着席するように制御するキャラクタデータ)が、情報処理装置5d〜5fへ送信される。
このように、アクセスポイントAP1と接続している情報処理装置5a〜5cには、それぞれアクセスポイントAP2と接続している情報処理装置5d〜5fからユーザデータを受信することによって、情報処理装置5d〜5fのユーザD〜Fがそれぞれ自身のキャラクタとして設定している仮想キャラクタPCd〜PCfが机の後方に着席しているような画像がLCD52に表示される。また、情報処理装置5a〜5cの音声出力部53からは、情報処理装置5d〜5fからユーザデータを受信することによって、情報処理装置5d〜5fのユーザD〜Fがそれぞれ発声した音声が出力される。一方、情報処理装置5d〜5fには、それぞれ情報処理装置5a〜5cからユーザデータを受信することによって、情報処理装置5a〜5cのユーザA〜Cがそれぞれ自身のキャラクタとして設定している仮想キャラクタPCa〜PCcが机の後方に着席しているような画像がLCD52に表示されるとともに、ユーザA〜Cがそれぞれ発声した音声が情報処理装置5d〜5fの音声出力部53から出力される。したがって、情報処理装置5を所持した状態で特定のアクセスポイントAP1またはAP2を訪れることによって、別室で情報処理装置5を操作している他のユーザが同じ部屋にいるかのような疑似体験を味わうことができ、複数のユーザが集まる仮想的な会合を開催することができる。また、このようなイベントが可能なアクセスポイントを特定のアクセスポイントAP1およびAP2に絞ることによって、特定の場所(特定のアクセスポイントAP1またはAP2の設置場所)にユーザを誘導するための有効な動機付けとなる。
なお、仮想キャラクタPCの動作は、当該仮想キャラクタPCを設定している送信元の情報処理装置5において、当該情報処理装置5の音声入力部54に入力される音声を音声認識することによって設定されてもよい。例えば、送信元の情報処理装置5a〜5fでは、それぞれユーザA〜Fが発声した音声「はじめまして!」を音声認識することに応じて、挨拶する動作を仮想キャラクタPCa〜PCfの動作としてそれぞれ設定する。そして、送信元の情報処理装置5a〜5fは、それぞれ設定した仮想キャラクタPCa〜PCfの動作を示すデータを、送信先の情報処理装置5へ送信する。
また、仮想キャラクタPCの動作は、音声認識以外の方法によって設定されてもよい。例えば、ユーザA〜Fが情報処理装置5a〜5fの入力装置(例えば、タッチパネルや操作ボタン)を操作して、複数の動作選択肢から1つの動作を選択することによって仮想キャラクタPCa〜PCfの動作が設定されてもよい。また、情報処理装置5a〜5fのLCD52に各ユーザが自身のキャラクタとして設定している仮想キャラクタPCa〜PCfを表示して上記入力装置の操作に応じて仮想キャラクタPCa〜PCfを動作させることによって、仮想キャラクタPCa〜PCfの動作がそれぞれ設定されてもよい。
また、仮想キャラクタPCの動作は、送信先の情報処理装置5側で設定されてもよい。例えば、送信元の情報処理装置5からユーザの音声を示す音声データを取得した場合、送信先の情報処理装置5が当該音声を音声認識して送信元の仮想キャラクタPCの動作を設定してもよい。また、送信元の情報処理装置5から仮想キャラクタPCの動作を選択する操作データや仮想キャラクタPCを動作させる操作データを取得した場合、送信先の情報処理装置5が当該操作データに応じて送信元の仮想キャラクタPCの動作を設定してもよい。
また、1つのマーカMに対して複数の仮想キャラクタPCを配置する場合、その配置位置は、所定の条件によって位置関係が設定されてもいいし、送信元の情報処理装置5の位置関係によって設定されてもよい。第1の例として、仮想キャラクタPCを配置可能な位置を予め複数設定し、所定の順序(例えば、アクセスポイントに接続した順やイベント参加登録した順)に応じて、順次配置位置を割り当てるようにして、各仮想キャラクタPCを現実世界画像に合成する位置を設定する。第2の例として、送信元の情報処理装置5と当該情報処理装置5が撮像しているマーカMとの位置関係をそれぞれ算出し、当該位置関係に基づいて、各仮想キャラクタPCを現実世界画像に合成する位置を設定する。例えば、図6に例示したように情報処理装置5a〜5cの撮像部50が同じマーカMを撮像している場合、撮像部50が撮像した撮像画像からマーカMの画像を検出することによって、現実世界におけるマーカM(被写体)と情報処理装置5a〜5cの撮像部50(カメラ)との位置関係をそれぞれ算出することができる。そして、このような位置関係に基づいて仮想キャラクタPCa〜PCcを配置して、送信先となる情報処理装置5d〜5fに表示する現実世界画像に合成する。
また、仮想キャラクタPCの画像データは、送信元の情報処理装置5から送信先の情報処理装置5へ適宜送信されてもいいし、情報処理装置5に予め格納されていてもかまわない。前者の場合、送信元の情報処理装置5側において仮想キャラクタPCの動作が設定される毎に、当該動作に対応する仮想キャラクタPCの画像データが送信元の情報処理装置5から送信先の情報処理装置5へ送信される。後者の場合、仮想キャラクタPCの種類および/または動作が設定される毎に、当該設定情報に基づいて、送信先の情報処理装置において予め格納された仮想キャラクタPCの画像データから対応する画像データが抽出される。一例として、各情報処理装置5に仮想キャラクタPCのパーツが予め格納されている場合、仮想キャラクタPCの種類および/または動作を設定する際に、各パーツの選択情報および各パーツの位置、方向、大きさを示す情報が設定される。そして、送信先の情報処理装置5において、予め格納されている仮想キャラクタPCのパーツを上記情報に基づいて配置することによって、当該情報に基づいた仮想キャラクタPCの画像データが生成される。
また、仮想キャラクタPCの画像データは、各仮想キャラクタPCを設定しているユーザの画像が利用されてもよい。例えば、仮想キャラクタPCを設定しているユーザの顔画像を当該仮想キャラクタPCの頭部に貼り付けることによって、仮想キャラクタPCの画像データを生成してもよい。この場合、送信元の情報処理装置5からは、内側カメラ502によって撮像された情報処理装置5のユーザの画像(例えば、ユーザの顔を撮像した動画像)を示すデータがユーザデータとして、送信先の情報処理装置5へ送信される。そして、送信先の情報処理装置5において、送信先の情報処理装置5のユーザを示す仮想キャラクタPCの頭部にユーザの画像を貼り付けてLCD52に表示する。このように、各ユーザの実写真を利用して仮想キャラクタPCを生成することによって、別室で情報処理装置5を操作している他のユーザがよりリアルに同じ部屋にいるかのような体験を味わうことができる。
また、上述した情報処理システム1aおよび1bでは、仮想キャラクタPCを現実世界画像内に配置して合成するために現実世界にマーカMを配置しているが、マーカMがなくてもかまわない。第1の例として、マーカMを設置しない場合、現実世界画像内に仮想キャラクタPCを配置するための基準を設ければよく、例えば現実世界における所定の形状や所定の物体(例えば、矩形の机上面)を当該基準としてもよい。この場合、パターンマッチング等の画像処理を行うことによって上記所定の形状や所定の物体を撮像画像から検出し、当該検出された基準に基づいて、現実世界画像内に仮想キャラクタPCを配置することができる。第2の例として、情報処理装置5がGPS(Global Positioning System)機能を有している場合、GPSから取得した位置情報と付加的な情報(例えば、磁気センサによる情報処理装置5の方位を示す情報や加速度センサやジャイロセンサによる情報処理装置5本体の姿勢や動作を示す情報)とを用いて現実世界画像内に仮想キャラクタPCを配置する、いわゆるロケーションベースARを用いてもよい。第3の例として、情報処理装置5がアクセスポイントとの無線通信の際の電波強度を検出する機能を有している場合、当該機能によって検出された各アクセスポイントとの電波強度と各アクセスポイントの設置位置とに基づいて算出されたアクセス位置を上記位置情報として、現実世界画像内に仮想キャラクタPCを配置してもよい。
また、上述した実施例では、他の装置に対するユーザ入力(音声入力、操作入力等)に応じて仮想キャラクタPCの種類や動作が設定されるが、他の表示態様が設定されてもよい。例えば、他の装置に対するユーザ入力に応じて仮想キャラクタPCの大きさ、数、色、濃度、明度等が設定されてもいいし、仮想キャラクタPCの移動パラメータ(例えば、移動速度や移動方向)が設定されてよい。また、現実世界画像内に合成表示される画像は、仮想キャラクタPCでなくてもかまわない。例えば、物や地形等も含む仮想オブジェクトの表示態様が他の装置に対するユーザ入力に応じて設定され、当該表示態様に基づいて現実世界画像内に合成表示されてもよい。
また、上述した実施例では、情報処理装置5とオペレータ端末装置200との間または情報処理装置5の間において、それぞれのユーザが発声した音声を示すデータが双方向に送受信されるが、当該音声を文字データに変換して双方向に送受信されてもよい。この場合、上記文字データに応じた文字画像を受信側装置の表示画面に表示(例えば、仮想キャラクタPCの吹き出し表示)してもよい。また、上記文字データを双方向に送受信する場合、双方の装置においてそれぞれ文字入力されたことによって生成された文字データを送受信してもよい。
また、上述した情報処理システム1aおよび1bでは、現実世界画像(撮像画像)に仮想キャラクタPCの画像を合成する処理を送信先の情報処理装置5(すなわち、合成した画像を表示制御する装置)で行っているが、仮想キャラクタPCを制御している装置側で当該処理を行ってもよい。例えば、送信先の情報処理装置5は、当該装置で撮像された撮像画像を、仮想キャラクタPCを制御している装置(オペレータ端末装置200または情報処理装置5)へ送信する。そして、仮想キャラクタPCを制御している装置は、送信された撮像画像内に仮想キャラクタPCを表示させる合成処理を行って、当該撮像画像を送信した情報処理装置5へ当該合成処理後の画像を送信する。
また、上述した実施例では、特定のアクセスポイントを設定することによって、当該特定のアクセスポイントの通信可能範囲を、ユーザを誘導する特定の場所として設定しているが、他の方法によって特定の場所を設定してもかまわない。一例として、情報処理装置5がGPS機能を有している場合、当該GPS機能によって算出された地球上の位置に基づいて、情報処理装置5が特定の場所からアクセスしているか否かを判定してもよい。他の例として、情報処理装置5がアクセスポイントとの無線通信の際の電波強度を検出する機能を有している場合、当該機能によって検出された各アクセスポイントとの電波強度と各アクセスポイントの設置位置とに基づいて算出されたアクセス位置に基づいて、情報処理装置5が特定の場所からアクセスしているか否かを判定してもよい。
次に、情報処理装置5において行われる処理の詳細を説明する。まず、図9を参照して、処理において用いられる主なデータについて説明する。なお、図9は、情報処理装置5のメモリ56に記憶される主なデータおよびプログラムの一例を示す図である。
図9に示すように、メモリ56のデータ記憶領域には、ユーザデータDa、受信データDb、キャラクタ設定データDc、およびキャラクタ画像データDd等が記憶される。なお、メモリ56には、図9に示すデータの他、実行するアプリケーションで用いるデータ等、処理に必要なデータ等が記憶されてもよい。また、メモリ56のプログラム記憶領域には、情報処理プログラムを構成する各種プログラム群Paが記憶される。
ユーザデータDaは、情報処理装置5のユーザ操作に応じて設定されるデータであり、撮像画像データDa1、音声データDa2、および操作データDa3等を含む。撮像画像データDa1は、撮像部50(外側カメラ501および内側カメラ502)によってリアルタイムに撮像された撮像画像を示すデータであり、撮像される毎に逐次更新される。音声データDa2は、音声入力部54が検出した音声を示すデータである。操作データDa3は、操作部51に対する操作内容を示すデータである。
受信データDbは、他の装置(オペレータ端末装置200や他の情報処理装置5)から受信したデータであり、キャラクタデータDb1、音声データDb2、および操作データDb3等を含む。キャラクタデータDb1は、仮想キャラクタPCの種類や動作を設定するために用いられるデータである。音声データDb2は、他の装置に対して音声入力された音声を示すデータである。操作データDb3は、他の装置を用いて操作入力された操作内容を示すデータである。
キャラクタ設定データDcは、LCD52に表示する仮想キャラクタPCの種類や動作を示すデータである。キャラクタ画像データDdは、仮想キャラクタPCの画像を生成してLCD52に表示するためのデータである。
次に、図10および図11を参照して、情報処理装置5において行われる処理の詳細を説明する。なお、図10は、情報処理装置5(CPU55)において実行される情報処理の前半の一例を示すフローチャートである。図11は、情報処理装置5(CPU55)において実行される情報処理の後半の一例を示すフローチャートである。ここで、図10および図11に示すフローチャートにおいて、上述した情報処理システム1aに含まれる情報処理装置5の処理のうち、撮像画像内に所定のマーカが検出された場合に仮想キャラクタPCを登場させてLCD52に表示する処理について主に説明し、これらの処理と直接関連しない他の処理については詳細な説明を省略する。本実施形態においては、図10および図11に示す一連の処理は、CPU55が、プログラム記憶部57に記憶される情報処理プログラムを実行することによって行われる。
なお、図10および図11に示す情報処理が開始されるタイミングは任意である。例えば、当該情報処理を開始する指示をユーザが行ったことに応じてアクセスポイントとの接続が確立されるとともに、情報処理プログラムの実行が開始されてもよい。このとき、情報処理プログラムは、適宜のタイミングでその一部または全部がメモリ56に読み出され、CPU55によって実行される。これによって、図10および図11に示す一連の処理が開始される。なお、情報処理プログラムは、情報処理装置5内のプログラム記憶部57に予め記憶されているものとする。ただし、他の実施形態においては、情報処理装置5に着脱可能な記憶媒体から取得されてメモリ56に記憶されてもよいし、インターネット等のネットワークを介して他の装置から取得されてメモリ56に記憶されてもよい。
また、図10および図11に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えておよび/または代えて別の処理が実行されてもよい。また、本実施例では、上記フローチャートにおける一部のステップの処理をCPU55が実行し、その他のステップの処理をCPU55以外のプロセッサや専用回路が実行するようにしてもよく、上記フローチャートにおける全部のステップの処理をCPU55以外のプロセッサや専用回路が実行するようにしてもよい。
図10において、CPU55は、情報処理における初期処理を実行し(ステップ81)、次のステップに処理を進める。例えば、CPU55は、上記ステップ81において、当該情報処理で用いられる各パラメータを初期化する。
次に、CPU55は、撮像部50から出力される撮像画像を示す撮像画像データを取得し(ステップ82)、次のステップに処理を進める。例えば、CPU55は、新たに所得した撮像画像を表す撮像画像データをメモリ56に撮像画像データDa1として記憶する。
次に、CPU55は、音声入力部54から入力された音声を示す音声データおよび操作部51に対する操作内容を示す操作データを取得し(ステップ83)、次のステップに処理を進める。例えば、CPU55は、新たに取得した音声データおよび操作データをメモリ56に音声データDa2および操作データDa3としてそれぞれ記憶する。
次に、CPU55は、上記ステップ82で取得した撮像画像データを用いて撮像画像認識処理を行い(ステップ84)、当該撮像画像データが表す撮像画像内にマーカMが含まれているか否かを判定する(ステップ85)。そして、CPU55は、上記撮像画像内にマーカMが含まれている場合、ステップ86に処理を進める。一方、CPU55は、上記撮像画像内にマーカMが含まれていない場合、ステップ91(図11参照)に処理を進める。以下、上記ステップ84およびステップ85で行う撮像画像認識処理の一例について説明する。
例えば、CPU55は、パターンマッチング手法等によって撮像画像データが表す撮像画像(典型的には、外側カメラ501で撮像された撮像画像)に対する画像認識処理を行い、当該撮像画像内にマーカMが含まれているか否かを判定する。そして、CPU55は、撮像画像にマーカMが含まれている場合には、撮像部50の撮像範囲内にマーカMが現実世界で実在していると仮定し、当該撮像画像におけるマーカMの位置および姿勢に基づいて、撮像部50とマーカMとの位置関係を算出する。一例として、CPU55は、上記撮像画像におけるマーカMの位置および/または姿勢を認識することによってマーカ・カメラ変換行列を算出し、当該マーカ・カメラ変換行列を表す画像認識結果データをメモリ56に記憶する。
なお、上記マーカ・カメラ変換行列は、上記撮像画像におけるマーカMの位置および姿勢に基づいて算出される撮像部50の位置および姿勢を反映した行列である。より正確には、マーカ座標系(実世界におけるマーカMの位置を原点とし、マーカMの縦方向、横方向、および法線方向の各方向を各軸とする座標系)で表された座標を、撮像画像におけるマーカMの位置および姿勢に基づいて計算された撮像部50の位置および姿勢を基準とした撮像部座標系で表される座標へと変換するための座標変換行列である。ここで、コンピュータによるAR(Augmented Reality)技術では、マーカ座標系を撮像部座標系に変換する上記マーカ・カメラ変換行列を仮想カメラのビュー行列に指定することにより、現実世界画像(撮像画像)にCG画像(仮想世界画像)を合成することができる。
ステップ86において、CPU55は、画像認識されたマーカMに応じて、出現させる仮想キャラクタPCを表すキャラクタ画像を生成し、ステップ91(図11参照)に処理を進める。例えば、CPU55は、画像認識されたマーカMの種類およびキャラクタデータDb1やキャラクタ設定データDcに設定されている設定情報に応じて、出現させる仮想キャラクタPCの種類および動作を設定する。そして、CPU55は、上記マーカ座標系で定義される仮想空間に仮想キャラクタPCを配置(例えば、マーカ座標系の原点に配置)し、必要に応じて仮想キャラクタPCの大きさを変化させる。なお、キャラクタデータDb1やキャラクタ設定データDcに情報が設定されていない場合、画像認識されたマーカMの種類に応じて予め定められている仮想キャラクタPCを表すキャラクタ画像を生成してもいいし、キャラクタ画像を生成する処理をスキップしてもよい。
例えば、上記ステップ86の処理では、マーカ座標系における鉛直方向(図2や図3で示した例ではマーカ面に沿った現実世界の鉛直方向に対応する方向、図6〜図8で示した例ではマーカ面に垂直な現実世界の鉛直方向に対応する方向)が仮想空間の鉛直方向である定義して、仮想キャラクタPCを仮想空間に配置する。そして、マーカMの前後左右上下方向やキャラクタデータDb1やキャラクタ設定データDcに設定されている設定情報に基づいて、仮想キャラクタPCの前後左右方向を決定する。
そして、CPU55は、仮想カメラから見た仮想キャラクタPCをキャラクタ画像として生成し、メモリ56のキャラクタ画像データDdに記憶する。例えば、CPU55は、上記マーカ・カメラ変換行列を仮想カメラのビュー行列に指定することによって、マーカ座標系で表現されたCGモデル(仮想キャラクタPC)を、現実世界に当該CGモデルが存在する場合にLCD52に表示される場所(例えば、撮像画像におけるマーカMから所定距離離れた位置)と同じ位置に表示することができる。つまり、LCD52に表示される表示画像において、マーカ座標系で定義された仮想空間に配置された仮想キャラクタPCを、現実世界のマーカMに関連して存在しているように表示することができる。
図11に進み、CPU55は、所定のアクセスポイント(例えば、図2や図3を用いた例におけるアクセスポイントAPや、図6〜図8を用いた例におけるアクセスポイントAP1やアクセスポイントAP2)と通信可能か否かを判定する(ステップ91)。例えば、CPU55は、アクセスポイントに接続するための識別子を用いて、いわゆるパッシブスキャンやアクティブスキャンによるアクセスポイントのサーチを行う。次に、CPU55は、所定のアクセスポイントが検出されて当該アクセスポイントとの接続が確立できた場合、当該アクセスポイントを介してデータを送受信する通信相手として設定されている装置(例えば、図2や図3を用いた例におけるオペレータ端末装置200や、図6〜図8を用いた例における送信先となる他の情報処理装置5)を設定して通信を開始して、ステップ92に処理を進める。一方、CPU55は、所定のアクセスポイントが検出されない場合や、所定のアクセスポイントとの接続が確立できない場合、ステップ96に処理を進める。
ステップ92において、CPU55は、設定されている通信相手の装置から送信されたデータを受信して、次のステップに処理を進める。例えば、CPU55は、通信相手の装置から送信されたキャラクタデータ、音声データ、操作データ等を受信し、メモリ56の受信データDbを更新する。
次に、CPU55は、上記ステップ92において受信したデータに応じて、仮想キャラクタ画像を設定し(ステップ93)、次のステップに処理を進める。例えば、CPU55は、受信データDbを参照して、通信相手の装置から送信された仮想キャラクタPCに関する情報(仮想キャラクタPCの種類や動作に関連する情報)を取得し、当該情報に基づいて仮想キャラクタPCの種類、動作、位置等を設定して、キャラクタ設定データDcを更新する。
次に、CPU55は、ユーザデータを設定されている通信相手の装置へ送信し(ステップ94)、次のステップに処理を進める。例えば、CPU55は、ユーザデータDaから送信するデータを抽出して、設定されている通信相手の装置へ当該抽出したデータを送信する処理を行う。
次に、CPU55は、音声出力処理を行って(ステップ95)、ステップ97に処理を進める。例えば、CPU55は、受信データDbに含まれている音声データDb2を参照して、通信相手の装置のユーザが音声入力した音声を示す音声信号を生成する。そして、CPU55は、生成した音声信号を音声出力部53へ出力することによって、通信相手の装置のユーザが音声入力した音声を音声出力部53から出力させる。
一方、所定のアクセスポイントが検出されない場合や、所定のアクセスポイントとの接続が確立できない場合(ステップ91において否定判定された場合)、CPU55は、仮想キャラクタPCに関する設定情報をクリアして(ステップ96)、ステップ97に処理を進める。例えば、CPU55は、仮想キャラクタPCに関する設定情報として、受信データDbおよびキャラクタ設定データDcを消去する。
ステップ97において、CPU55は、合成表示処理を行い、次のステップに処理を進める。例えば、CPU55は、マーカMが撮像されている場合、上記ステップ82で取得した撮像画像(現実世界画像)と上記ステップ86で生成した仮想キャラクタ画像とを合成した表示画像を生成し、当該表示画像をLCD52に表示する。
具体的には、CPU55は、上記ステップ82で取得した撮像画像(典型的には、外側カメラ501が撮像した画像)を、LCD52へ供給すべき画像を一時的に記憶するためのVRAM内の所定の記憶領域(以下、フレームバッファと称す)に描画する。そして、CPU55は、上記ステップ85で肯定判定されている場合、メモリ56に記憶されている仮想キャラクタ画像(すなわち、仮想カメラから見た仮想空間の画像)をフレームバッファに上書きする。これによって、フレームバッファに描画された撮像画像(現実世界画像)に仮想キャラクタ画像が合成される。そして、フレームバッファに描画された画像は、所定のタイミングでLCD52へ供給されて、LCD52に表示されることになる。なお、上記仮想キャラクタ画像においては、仮想空間の背景が透明であり、そのため、現実世界画像に仮想キャラクタ画像を合成することで、現実世界画像上に仮想キャラクタPCが存在するような画像が生成される。なお、CPU55は、上記ステップ85で否定判定されている場合、撮像画像のみをフレームバッファに描画してLCD52に表示する。
次に、CPU55は、処理を終了するか否かを判定する(ステップ98)。処理を終了する条件としては、例えば、ユーザが処理を終了する操作を行ったこと等がある。CPU55は、処理を終了しない場合に上記ステップ82に戻って処理を繰り返し、処理を終了する場合に当該フローチャートによる処理を終了する。以降、ステップ82〜ステップ97の一連の処理は、ステップ98で処理を終了すると判定されるまで繰り返し実行される。
なお、上述した情報処理システム1aおよび1bでは、データを送受信する装置同士がアクセスポイントを介して直接データ通信する態様を用いたが、さらに他の装置(例えば、中継サーバ)等を介してデータ通信されてもかまわない。
また、上述では、1つの情報処理装置5で情報処理を行う場合の処理手順を説明しているが、当該情報処理における処理ステップの少なくとも一部を他の装置で行ってもかまわない。例えば、情報処理装置5がさらに他の装置(例えば、別のサーバ、他のゲーム装置、他の携帯端末)と通信可能に構成されている場合、上記情報処理における処理ステップは、さらに当該他の装置が協働することによって実行してもよい。このように、上記情報処理における処理ステップの少なくとも一部を他の装置で行うことによって、上述した情報処理と同様の処理が可能となる。また、上述した情報処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施形態においては、情報処理装置5のCPU55が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われたが、情報処理装置5が備える専用回路によって上記処理の一部または全部が行われてもよい。
ここで、上述した変形例によれば、いわゆるクラウドコンピューティングのシステム形態や分散型の広域ネットワークおよびローカルネットワークのシステム形態でも本発明を実現することが可能となる。例えば、分散型のローカルネットワークのシステム形態では、据置型の情報処理装置(据置型のゲーム装置)と携帯型の情報処理装置(携帯型のゲーム装置)との間で上記処理を協働により実行することも可能となる。なお、これらのシステム形態では、上述した処理の各ステップの処理をどの装置で行うかについては特に限定されず、どのような処理分担をしたとしても本発明を実現できることは言うまでもない。
また、上述した情報処理で用いられる処理順序、設定値、判定に用いられる条件等は、単なる一例に過ぎず他の順序、値、条件であっても、本実施例を実現できることは言うまでもない。
また、上記各プログラムは、外部メモリ等の外部記憶媒体を通じて情報処理装置5に供給されるだけでなく、有線または無線の通信回線を通じて情報処理装置5に供給されてもよい。また、上記プログラムは、情報処理装置5内部の不揮発性記憶装置に予め記録されていてもよい。なお、上記プログラムを記憶する情報記憶媒体としては、不揮発性メモリの他に、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープ、などでもよい。また、上記プログラムを記憶する情報記憶媒体としては、上記プログラムを記憶する揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。例えば、コンピュータ等に、これらの記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。
以上のように、本発明は、撮像対象に応じた仮想オブジェクトを表示する際に、興趣性を高めること等を目的として、例えば情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法等として有用である。
1…情報処理システム
5…情報処理装置
50…撮像部
501…外側カメラ
502…内側カメラ
51…操作部
52…LCD
53…音声出力部
54…音声入力部
55…CPU
56…メモリ
57…プログラム記憶部
58…通信部
100…ネットワーク
200…オペレータ端末装置

Claims (13)

  1. 現実空間の画像内に仮想オブジェクト画像を表示する情報処理装置と当該情報処理装置と通信可能な他の装置とを含む情報処理システムであって、
    前記他の装置は、前記仮想オブジェクト画像を制御する制御データを取得する制御データ取得手段を備え、
    前記情報処理装置または前記他の装置は、前記制御データに応じて、前記仮想オブジェクト画像の表示態様を設定する仮想オブジェクト画像設定手段を備え、
    前記他の装置は、前記仮想オブジェクト画像設定手段が設定した前記表示態様を示すデータおよび/または前記制御データを、前記情報処理装置に送信する送信手段を、さらに備え、
    前記情報処理装置は、
    撮像装置によって撮像された撮像画像を取得する撮像画像取得手段と、
    前記他の装置から送信されたデータを取得するデータ取得手段と、
    表示装置に表示される前記撮像画像内に、前記表示態様を示すデータに基づいた前記仮想オブジェクト画像を表示する表示制御手段とを備え
    前記送信手段は、特定の場所に前記情報処理装置が位置している場合に、当該情報処理装置に対して前記データの送信が可能であり、
    前記仮想オブジェクト画像設定手段は、前記特定の場所に前記情報処理装置が位置している場合、当該場所に対して固有に設定される仮想オブジェクトを前記表示態様として設定する、情報処理システム。
  2. 前記制御データ取得手段は、前記他の装置に対するユーザ入力を示すデータを前記制御データとして取得する、請求項1に記載の情報処理システム。
  3. 前記送信手段は、前記特定の場所に前記情報処理装置が位置しており、かつ、当該特定の場所とは別の特定の場所に前記他の装置が位置している場合に、当該情報処理装置に対して前記データの送信が可能である、請求項に記載の情報処理システム。
  4. 前記仮想オブジェクト画像設定手段は、前記他の装置のユーザによって設定されるユーザキャラクタを前記表示態様として設定する、請求項1乃至の何れか1つに記載の情報処理システム。
  5. 前記情報処理装置は、
    前記撮像装置または前記撮像装置とは異なる撮像装置によってリアルタイムで撮像された当該情報処理装置のユーザの画像を取得するユーザ画像取得手段と、
    前記ユーザの画像を示すデータを前記他の装置へ送信する送信手段とを、さらに備え、
    前記他の装置は、
    前記情報処理装置から送信されたデータを取得するデータ取得手段と、
    前記情報処理装置から取得したデータを用いて、当該情報処理装置のユーザの画像を表示装置に表示する表示制御手段とを、さらに備える、請求項1乃至の何れか1つに記載の情報処理システム。
  6. 前記他の装置は、前記他の装置に対する音声入力を取得する音声入力手段を、さらに備え、
    前記他の装置の前記送信手段は、当該他の装置に対する音声入力を示すデータを、さらに前記情報処理装置に送信し、
    前記情報処理装置のデータ取得手段は、前記他の装置から送信された当該他の装置に対する前記音声入力を示すデータを、さらに取得し、
    前記情報処理装置は、
    前記他の装置から送信された前記音声入力に応じた音声を出力する音声出力手段と、
    前記情報処理装置に対する音声入力を取得する音声入力手段と、
    前記情報処理装置に対する音声入力を示すデータを、前記他の装置に送信する送信手段とを、さらに備え、
    前記他の装置は、
    前記情報処理装置から送信された当該情報処理装置に対する音声入力を示すデータを取得するデータ取得手段と、
    前記情報処理装置から送信された前記音声入力に応じた音声を出力する音声出力手段とを、さらに備える、請求項1乃至の何れか1つに記載の情報処理システム。
  7. 前記制御データ取得手段は、前記他の装置に対する音声入力を示すデータを前記制御データとして取得し、
    前記仮想オブジェクト画像設定手段は、前記他の装置に対する音声入力に基づいて前記仮想オブジェクトの動作を設定し、当該動作に応じた前記仮想オブジェクト画像の表示態様を設定し、
    前記他の装置の前記送信手段は、当該他の装置に対する音声入力を示すデータを、さらに前記情報処理装置に送信し、
    前記情報処理装置のデータ取得手段は、前記他の装置から送信された当該他の装置に対する前記音声入力を示すデータを、さらに取得し、
    前記情報処理装置は、前記他の装置から送信された前記音声入力に応じた音声を出力する音声出力手段を、さらに備える、請求項1乃至の何れか1つに記載の情報処理システム。
  8. 前記送信手段は、前記特定の場所に設置されている特定のアクセスポイントを介して前記情報処理装置と通信可能である場合に、当該情報処理装置に対して前記データの送信が可能である、請求項に記載の情報処理システム。
  9. 現実空間の画像内に仮想オブジェクト画像を表示する情報処理装置であって、
    撮像装置によって撮像された撮像画像を取得する撮像画像取得手段と、
    前記仮想オブジェクト画像を制御する制御データに基づいて設定された前記仮想オブジェクト画像の表示態様を示すデータを、他の装置から取得するデータ取得手段と、
    表示装置に表示される前記撮像画像内に、前記表示態様を示すデータに基づいた前記仮想オブジェクト画像を表示する表示制御手段とを備え
    前記データ取得手段は、特定の場所に前記情報処理装置が位置している場合に、当該情報処理装置に対して送信されたデータの取得が可能であり、
    前記データ取得手段は、前記特定の場所に前記情報処理装置が位置している場合、当該場所に対して固有に設定される仮想オブジェクトの前記表示態様を示すデータを他の装置から取得する、情報処理装置。
  10. 現実空間の画像内に仮想オブジェクト画像を表示する情報処理装置であって、
    撮像装置によって撮像された撮像画像を取得する撮像画像取得手段と、
    他の装置において取得された前記仮想オブジェクト画像を制御する制御データを取得するデータ取得手段と、
    前記制御データに応じて、前記仮想オブジェクト画像の表示態様を設定する仮想オブジェクト画像設定手段と、
    表示装置に表示される前記撮像画像内に、前記表示態様を示すデータに基づいた前記仮想オブジェクト画像を表示する表示制御手段とを備え
    前記データ取得手段は、特定の場所に前記情報処理装置が位置している場合に、当該情報処理装置に対して送信されたデータの取得が可能であり、
    前記仮想オブジェクト画像設定手段は、前記特定の場所に前記情報処理装置が位置している場合、当該場所に対して固有に設定される仮想オブジェクトを前記表示態様として設定する、情報処理装置。
  11. 現実空間の画像内に仮想オブジェクト画像を表示する情報処理装置に含まれるコンピュータで実行される情報処理プログラムであって、
    前記コンピュータを、
    撮像装置によって撮像された撮像画像を取得する撮像画像取得手段と、
    前記仮想オブジェクト画像を制御する制御データに基づいて設定された前記仮想オブジェクト画像の表示態様を示すデータを、他の装置から取得するデータ取得手段と、
    表示装置に表示される前記撮像画像内に、前記表示態様を示すデータに基づいた前記仮想オブジェクト画像を表示する表示制御手段として機能させ
    前記データ取得手段は、特定の場所に前記情報処理装置が位置している場合に、当該情報処理装置に対して送信されたデータの取得が可能であり、
    前記データ取得手段は、前記特定の場所に前記情報処理装置が位置している場合、当該場所に対して固有に設定される仮想オブジェクトの前記表示態様を示すデータを他の装置から取得する、情報処理プログラム。
  12. 現実空間の画像内に仮想オブジェクト画像を表示する情報処理装置に含まれるコンピュータで実行される情報処理プログラムであって、
    前記コンピュータを、
    撮像装置によって撮像された撮像画像を取得する撮像画像取得手段と、
    他の装置において取得された前記仮想オブジェクト画像を制御する制御データを取得するデータ取得手段と、
    前記制御データに応じて、前記仮想オブジェクト画像の表示態様を設定する仮想オブジェクト画像設定手段と、
    表示装置に表示される前記撮像画像内に、前記表示態様を示すデータに基づいた前記仮想オブジェクト画像を表示する表示制御手段として機能させ
    前記データ取得手段は、特定の場所に前記情報処理装置が位置している場合に、当該情報処理装置に対して送信されたデータの取得が可能であり、
    前記仮想オブジェクト画像設定手段は、前記特定の場所に前記情報処理装置が位置している場合、当該場所に対して固有に設定される仮想オブジェクトを前記表示態様として設定する、情報処理プログラム。
  13. 現実空間の画像内に仮想オブジェクト画像を表示する情報処理装置と当該情報処理装置と通信可能な他の装置とを含む情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される情報処理方法であって、
    他の装置において前記仮想オブジェクト画像を制御する制御データを取得する制御データ取得ステップと、
    前記制御データに応じて、前記仮想オブジェクト画像の表示態様を設定する仮想オブジェクト画像設定ステップと、
    前記仮想オブジェクト画像設定ステップにおいて設定された前記表示態様を示すデータおよび/または前記制御データを、前記情報処理装置に送信する送信ステップと、
    撮像装置によって撮像された撮像画像を取得する撮像画像取得ステップと、
    前記他の装置から送信されたデータを取得するデータ取得ステップと、
    表示装置に表示される前記撮像画像内に、前記表示態様を示すデータに基づいた前記仮想オブジェクト画像を表示する表示制御ステップとを含み、
    前記送信ステップでは、特定の場所に前記情報処理装置が位置している場合に、当該情報処理装置に対して前記データの送信が可能であり、
    前記仮想オブジェクト画像設定ステップでは、前記特定の場所に前記情報処理装置が位置している場合、当該場所に対して固有に設定される仮想オブジェクトが前記表示態様として設定される、情報処理方法。
JP2014042871A 2014-03-05 2014-03-05 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 Active JP6348732B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014042871A JP6348732B2 (ja) 2014-03-05 2014-03-05 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
US14/630,058 US9733896B2 (en) 2014-03-05 2015-02-24 System, apparatus, and method for displaying virtual objects based on data received from another apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014042871A JP6348732B2 (ja) 2014-03-05 2014-03-05 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2015170018A JP2015170018A (ja) 2015-09-28
JP6348732B2 true JP6348732B2 (ja) 2018-06-27

Family

ID=54017661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014042871A Active JP6348732B2 (ja) 2014-03-05 2014-03-05 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法

Country Status (2)

Country Link
US (1) US9733896B2 (ja)
JP (1) JP6348732B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US9690374B2 (en) * 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
EP3242228A1 (en) * 2016-05-02 2017-11-08 Artag SARL Managing the display of assets in augmented reality mode
JP2018111982A (ja) * 2017-01-11 2018-07-19 株式会社不動テトラ 地盤改良用施工管理システム
CN107241644B (zh) * 2017-05-31 2018-09-07 腾讯科技(深圳)有限公司 一种视频直播过程中的图像处理方法和装置
JP7135304B2 (ja) * 2017-11-20 2022-09-13 東京電力ホールディングス株式会社 電柱移設イメージ表示装置、電柱移設イメージ表示方法および電柱移設イメージ表示プログラム
WO2019195830A1 (en) * 2018-04-06 2019-10-10 Rice Robert A Systems and methods for item acquisition by selection of a virtual object placed in a digital environment
JP2020123261A (ja) * 2019-01-31 2020-08-13 株式会社東芝 無線通信装置、方法、およびプログラム
JP2022018733A (ja) * 2020-07-16 2022-01-27 ヤフー株式会社 提供プログラム、提供方法、および提供装置
JP7016438B1 (ja) 2021-03-29 2022-02-18 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248841A (ja) * 2001-12-20 2003-09-05 Matsushita Electric Ind Co Ltd バーチャルテレビ通話装置
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US20080183678A1 (en) * 2006-12-29 2008-07-31 Denise Chapman Weston Systems and methods for personalizing responses to user requests
US8904489B2 (en) * 2009-09-08 2014-12-02 Thomas Varghese Client identification system using video conferencing technology
JP5704963B2 (ja) * 2011-02-25 2015-04-22 任天堂株式会社 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
JP5998777B2 (ja) * 2012-09-12 2016-09-28 ソニー株式会社 情報処理装置と情報処理方法とプログラムおよび情報処理システム
WO2014119098A1 (ja) * 2013-02-01 2014-08-07 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20150254511A1 (en) 2015-09-10
JP2015170018A (ja) 2015-09-28
US9733896B2 (en) 2017-08-15

Similar Documents

Publication Publication Date Title
JP6348732B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
KR102417645B1 (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
US8970623B2 (en) Information processing system, information processing method, information processing device and tangible recoding medium recording information processing program
WO2021184952A1 (zh) 增强现实处理方法及装置、存储介质和电子设备
WO2022227408A1 (zh) 一种虚拟现实交互方法、设备及系统
JP2015502584A (ja) 可搬装置、仮想現実システムおよび方法
CN107436608A (zh) 用于无人机的控制装置及用于导游的系统
JP2020120336A (ja) プログラム、方法、および情報処理装置
JP2018142090A (ja) キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム
KR101641672B1 (ko) 휴대단말기를 이용한 건축 모형 실행의 증강 현실 시스템
JP2014090251A (ja) 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
US11870972B2 (en) Methods, systems and devices supporting real-time shared virtual reality environment
CN108628439A (zh) 信息处理设备、信息处理方法及程序
JP2023551665A (ja) 仮想位置を指示する実世界ビーコン
CN113014960B (zh) 一种在线制作视频的方法、装置及存储介质
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018008096A1 (ja) 情報表示装置およびプログラム
JP6792666B2 (ja) 端末装置、端末装置の制御方法、コンピュータプログラム
JP2021153221A (ja) ドローン撮影映像提供システム、ドローン撮影映像提供システムのプログラム、移動体撮影映像提供システム、移動体撮影映像提供システムのプログラム
JP2019160332A (ja) コンピュータプログラム、端末および方法
US20240112422A1 (en) Communication management server, communication system, and method for managing communication
US11448884B2 (en) Image based finger tracking plus controller tracking
WO2022149496A1 (ja) エンタテインメントシステムおよびロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180601

R150 Certificate of patent or registration of utility model

Ref document number: 6348732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250