JP2023099563A - 情報処理装置およびプログラム - Google Patents
情報処理装置およびプログラム Download PDFInfo
- Publication number
- JP2023099563A JP2023099563A JP2023071747A JP2023071747A JP2023099563A JP 2023099563 A JP2023099563 A JP 2023099563A JP 2023071747 A JP2023071747 A JP 2023071747A JP 2023071747 A JP2023071747 A JP 2023071747A JP 2023099563 A JP2023099563 A JP 2023099563A
- Authority
- JP
- Japan
- Prior art keywords
- character object
- terminal
- data
- character
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】一の端末で表示可能なキャラクタオブジェクトと他の端末で表示可能なキャラクタオブジェクトの組み合わせに応じた形態で複数のキャラクタオブジェクトを動作させること【解決手段】本発明の一実施形態における情報処理装置は、第1端末において表示可能な第1キャラクタオブジェクトと第2端末において表示可能な第2キャラクタオブジェクトとに基づいて、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトの動作形態を決定する決定部と、前記第1端末において撮像された画像に重畳して前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを前記動作形態にしたがって表示させるように、前記第1端末を制御する表示制御部と、を含む。【選択図】図16
Description
本発明は、情報処理装置およびプログラムに関する。
スマートフォンおよびゲーム機などの携帯端末において、拡張現実(AR:Augmented Reality)の技術(以下、AR技術という)が利用されてきている。AR技術は、仮想空間に配置されるオブジェクトと、カメラで現実空間を撮像して得られる画像とを重畳してディスプレイに表示する技術である、この技術によって、仮想空間上のオブジェクトが現実空間に存在するかのように見せることができる。AR技術は、例えば特許文献1に開示されている。
AR技術の適用例として、ユーザが所有する3Dの仮想的なキャラクタオブジェクトを、現実空間に存在するように携帯端末に表示することが行われている。また、ユーザが所有するキャラクタオブジェクトを一人で利用する以外にも、ユーザが他のユーザと連携してキャラクタオブジェクトを利用できるようにすることが望まれている。
本発明の目的の一つは、一の端末で表示可能なキャラクタオブジェクトと他の端末で表示可能なキャラクタオブジェクトの組み合わせに応じた形態で複数のキャラクタオブジェクトを動作させることができる情報処理装置およびプログラムを提供することにある。
本発明の一実施形態によれば、第1端末において表示可能な第1キャラクタオブジェクトと第2端末において表示可能な第2キャラクタオブジェクトとに基づいて、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトの動作形態を決定する決定部と、前記第1端末において撮像された画像に重畳して前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを前記動作形態にしたがって表示させるように、前記第1端末を制御する表示制御部と、を含む情報処理装置が提供される。
前記第1端末と前記第2端末とは所定の関連条件を満たしていてもよい。
前記関連条件は、前記第1端末と前記第2端末とが所定の距離よりも近いことを含んでもよい。
前記関連条件は、前記第1端末において撮像された画像と前記第2端末において撮像された画像とに、同一の対象物が含まれることを含んでもよい。
前記第1端末と前記第2端末とが前記所定の関連条件を満たしていない状態において、前記第1端末において表示可能な前記第1キャラクタオブジェクトは前記動作形態の一部に基づく画像であり、前記第2端末において表示可能な前記第2キャラクタオブジェクトは前記動作形態の一部に基づく画像であってもよい。
前記第1端末と前記第2端末とが前記所定の関連条件を満たしていない状態において、前記第1端末において表示可能な前記第1キャラクタオブジェクトは前記動作形態に含まれない形態に基づく画像であり、前記第2端末において表示可能な前記第2キャラクタオブジェクトは前記動作形態に含まれない形態に基づく画像であってもよい。
前記第2端末において撮像された画像に重畳して前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを前記動作形態にしたがって表示させるように、前記第2端末を制御することをさらに含んでもよい。
前記表示制御部は、前記第1端末において撮像された画像に対して設定された座標系を用いて、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを表示するように前記第1端末を制御し、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを、前記座標系を基準として前記第2端末において撮像された画像に重畳するとともに、前記第1端末への表示と同期して表示するように前記第2端末を制御してもよい。
前記決定部は、前記第1端末において前記第1キャラクタオブジェクトとともに表示可能なアイテムオブジェクトが存在する場合に、さらに前記アイテムオブジェクトに基づいて前記動作形態を決定してもよい。
前記動作形態は、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトの動作形態を規定したデータのうち、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトが用いられている期間の少なくとも一部において規定された動作形態に対応してもよい。
また、本発明の一実施形態によれば、第1端末において表示可能な第1キャラクタオブジェクトと第2端末において表示可能な第2キャラクタオブジェクトとに基づいて、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトの動作形態を決定し、前記第1端末において撮像された画像に重畳して前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを前記動作形態にしたがって表示させるように、前記第1端末を制御することをコンピュータに実行させるためのプログラムが提供される。
本発明の一実施形態によれば、一の端末で表示可能なキャラクタオブジェクトと他の端末で表示可能なキャラクタオブジェクトの組み合わせに応じた形態で複数のキャラクタオブジェクトを動作させることができる情報処理装置およびプログラムを提供することができる。
以下、本発明の一実施形態におけるシステムについて、図面を参照しながら詳細に説明する。以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。
<第1実施形態>
本発明の第1実施形態におけるシステムについて、図面を参照しながら詳細に説明する。
本発明の第1実施形態におけるシステムについて、図面を参照しながら詳細に説明する。
[概要]
図1は、第1実施形態におけるシステムの構成を示すブロック図である。システム1000は、サーバ10(情報処理装置)および通信端末50を含む。サーバ10と通信端末50とは、インターネット等のネットワークNWを介して接続される。この例では、通信端末50はスマートフォンである。なお、通信端末50は、タブレット型端末、携帯ゲーム機等の携帯装置であってもよい。
図1は、第1実施形態におけるシステムの構成を示すブロック図である。システム1000は、サーバ10(情報処理装置)および通信端末50を含む。サーバ10と通信端末50とは、インターネット等のネットワークNWを介して接続される。この例では、通信端末50はスマートフォンである。なお、通信端末50は、タブレット型端末、携帯ゲーム機等の携帯装置であってもよい。
サーバ10は、図1においては、1つの装置として記載しているが、複数の装置で構成されていてもよい。サーバ10は、通信端末50にアプリケーションプログラムを提供し、アプリケーションプログラムを実行する通信端末50に対して各種のサービスを提供する。このアプリケーションプログラムは、サーバ10が接続可能な記録媒体(記憶装置)に記録されている。各種サービスには、以下に説明するキャラクタオブジェクトの動作サービスが含まれる。なお、各種のサービスには、例えば、SNS(ソーシャルネットワーキングサービス)が含まれていてもよい。
通信端末50には、サーバ10からサービスの提供を受けるためのアプリケーションプログラムがインストールされる。このプログラムによれば、通信端末50においてキャラクタオブジェクトをAR技術によって表示させることができる。この例のプログラムでは、さらに、所定の条件を満たしたときには、通信端末50において他のキャラクタオブジェクトをさらに表示するとともに、表示された複数のキャラクタオブジェクトに対して特別な動作をさせたりすることができる。以下、通信端末50の構成について説明する。
[通信端末50のハードウエア構成]
通信端末50は、制御部51、記憶部52、通信部53、位置測定部54、挙動測定部55、撮像部56、表示部57および操作部58を含む。制御部51は、CPUなどの演算処理回路を含むコンピュータの一例である。制御部51は、記憶部52に記憶されたアプリケーションプログラムをCPUにより実行して、各種機能を通信端末50において実現させる。
通信端末50は、制御部51、記憶部52、通信部53、位置測定部54、挙動測定部55、撮像部56、表示部57および操作部58を含む。制御部51は、CPUなどの演算処理回路を含むコンピュータの一例である。制御部51は、記憶部52に記憶されたアプリケーションプログラムをCPUにより実行して、各種機能を通信端末50において実現させる。
記憶部52は、記憶装置を含み、サーバ10からネットワークNW経由でダウンロードしてインストールされたアプリケーションプログラムを記憶する。また、記憶部52には、アプリケーションプログラムが実行されるときに用いられる各種データについても記憶される。なお、このプログラムは、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録した状態で提供されてもよい。この場合には、通信端末50は、記録媒体を接続するためのインターフェイスを含んでいればよい。ここで、記憶媒体とは、通信端末50に含まれる記憶部52とは別の媒体として規定されてもよいし、記憶部52に用いられる媒体であってもよい。
通信部53は、通信モジュールを含み、制御部51の制御によりネットワークNWと接続して、ネットワークNWに接続された他の装置と情報の送受信を行う。位置測定部54は、GPS等の技術を用いて通信端末50の位置を測定し、位置を示す情報(以下、位置情報という場合がある)を制御部51に出力する。挙動測定部55は、加速度センサおよびジャイロセンサ等を含み、通信端末50の挙動を測定し、挙動を示す情報(以下、挙動情報という場合がある)を制御部51に出力する。挙動情報には、例えば、通信端末50の移動量および回転量を特定するための情報が含まれる。なお、地磁気センサ等を併用することによってさらに通信端末50の向きを特定するための情報が、通信端末50において生成されてもよい。
撮像部56は、CCDセンサまたはCMOSセンサを含むカメラであって、撮像範囲の画像を示す情報を制御部51に出力する。画像を示す情報は、静止画および動画のいずれかである。表示部57は、液晶ディスプレイ、有機ELディスプレイなどの表示装置であって、制御部51の制御に基づいて表示領域に各種の画面を表示する。撮像部56と表示部57とは、通信端末50の筐体を介して互いに反対側に配置されている。言い換えると、ユーザが表示部57の表示領域を視認した場合に、撮像部56の撮像範囲が表示領域の先の領域を含むように、撮像部56の撮像範囲と表示部57の表示領域との位置関係が規定されている。この例では、後述するように制御部51の制御によって、表示部57はAR技術を用いた表示(以下、AR表示という場合がある)をすることができる。より具体的には、表示部57は、撮像部56の撮像範囲に対応する画像に対して仮想空間におけるキャラクタオブジェクトを重畳して表示することができる。
操作部58は、この例ではタッチセンサを含み、ユーザが操作した位置に対応した情報を制御部51に出力する。このタッチセンサは、表示部57の表示領域上に設けられている。すなわち、表示部57と操作部58とでタッチパネルが構成されている。
[サーバ10のハードウエア構成]
サーバ10は、制御部11、記憶部12および通信部13を含む。制御部11は、CPUなどの演算処理回路を含むコンピュータの一例である。制御部11は、記憶部12に記憶された制御プログラムをCPUにより実行して、各種機能をサーバ10において実現させる。このように通信端末50において実現される機能、およびサーバ10において実現される機能によって、サーバ10は通信端末50を介してユーザへサービスを提供する。
サーバ10は、制御部11、記憶部12および通信部13を含む。制御部11は、CPUなどの演算処理回路を含むコンピュータの一例である。制御部11は、記憶部12に記憶された制御プログラムをCPUにより実行して、各種機能をサーバ10において実現させる。このように通信端末50において実現される機能、およびサーバ10において実現される機能によって、サーバ10は通信端末50を介してユーザへサービスを提供する。
記憶部12は、記憶装置を含み、制御プログラムを記憶する。また、記憶部12には、制御プログラムが実行されるときに用いられる各種データについても記憶される。なお、このプログラムは、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録した状態で提供されてもよい。この場合には、サーバ10は、記録媒体を接続するためのインターフェイスを含んでいればよい。ここで、記憶媒体とは、サーバ10に含まれる記憶部12とは別の媒体として規定されてもよいし、記憶部12に用いられる媒体であってもよい。
通信部13は、通信モジュールを含み、制御部11の制御によりネットワークNWと接続して、ネットワークNWに接続された他の装置と情報の送受信を行う。この例では、通信部13は、さらにデータベース80とも接続して情報の送受信を行う。データベース80は、サーバ10が提供するサービスに関するデータが登録されている。なお、通信部13は、ネットワークNWを介してデータベース80に接続してもよい。また、データベース80に登録されたデータは、記憶部12に記憶されていてもよい。この場合には、データベース80は存在しなくてもよい。
[データベース80に登録されたデータ]
データベース80に登録されたデータ、すなわち、サーバ10が提供するサービスに関するデータには、アニメーションデータ、動作データ、静止データ、セット対応データおよびユーザ管理データが含まれる。続いて、これらのデータについて説明する。
データベース80に登録されたデータ、すなわち、サーバ10が提供するサービスに関するデータには、アニメーションデータ、動作データ、静止データ、セット対応データおよびユーザ管理データが含まれる。続いて、これらのデータについて説明する。
図2は、第1実施形態におけるアニメーションデータを説明する図である。アニメーションデータは、アニメーション作品を構成するデータである。アニメーションデータは、動画の内容を規定するデータを含み、3種類のキャラクタオブジェクトch1、ch2、ch3に対応する動作データMdCh1、MdCh2、MdCh3および背景BGに対応する背景データBGdを含む。横軸は、動画の開始からの経過時間Tを示す。背景データBGdは、キャラクタオブジェクト以外の仮想空間における動画を示すデータであり、経過時間Tに対応して動画の内容が規定されている。キャラクタオブジェクトは、様々なデータによって規定される。この例では、キャラクタオブジェクトの動作を規定するために、キャラクタの複数の部位(例えば、肩、ひじ、手首等の関節に対応する部位)、および複数の部位間を連結する骨格に関するデータが用いられる。これらのデータによって、キャラクタオブジェクトのポーズ等が規定され、各部位の位置を時間変化させることでキャラクタオブジェクトの動作形態が規定される。また、キャラクタオブジェクトの外観(体表面、髪、服飾等)を規定するデータも用いられる。キャラクタオブジェクトの動作形態が規定される動作データについてさらに詳述する。
キャラクタオブジェクトに対応する動作データMdCh1、MdCh2、MdCh3は、それぞれのキャラクタオブジェクトが登場する期間に対応して、キャラクタオブジェクトの動作を規定している。例えば、キャラクタオブジェクトch1は、期間Sc1aと期間Sc1bにおいて登場し、その期間の動作データMdCh1が規定されている。同様に、キャラクタオブジェクトch2は、期間Sc2aと期間Sc2bにおいて登場し、その期間の動作データMdCh2が規定されている。また、キャラクタオブジェクトch3は、期間Sc3aにおいて登場し、その期間の動作データMdCh3が規定されている。
図3は、第1実施形態における動作データを説明する図である。ここでは、キャラクタオブジェクトch1に対応する動作データMdCh1が例示されている。動作データMdCh1では、キャラクタオブジェクトの複数の部位(Pa、Pb、・・・)に対応する仮想空間における座標が、経過時間Tに対して関連付けられている。経過時間Tが「001:21:35」において、部位PaのX座標、Y座標およびZ座標は、それぞれXa2、Ya2、Za2である。各部位における座標が時間変化することで、仮想空間におけるキャラクタオブジェクトの動作形態が規定される。このようにして、キャラクタオブジェクトの各部位に対応する座標が時間変化することで、キャラクタオブジェクトの動作が表される。すなわち、この動作の内容が動作形態に対応する。
図2に戻って説明を続ける。各キャラクタオブジェクトに対応して、経過時間Tにおける特定のタイミングが規定されている。そのタイミングにおける各部位の座標が静止データとしてデータベース80に登録されている。この例では、キャラクタオブジェクトch1に対応してタイミングt1が規定されている。そのタイミングt1におけるキャラクタオブジェクトch1の各部位の座標を規定した静止データSd1がデータベース80に登録されている。同様に、キャラクタオブジェクトch2、ch3に対応して、それぞれタイミングt4、t7が規定され、静止データSd2、Sd3がデータベース80に登録されている。
図4は、第1実施形態における静止データを説明する図である。ここでは、キャラクタオブジェクトch1に対応する静止データSd1が例示されている。静止データSd1は、各部位Pa、Pb、・・・に対応して、仮想空間における座標が関連付けられている。これは、図3に示す動作データMdCh1において、経過時間Tがt1のとき、すなわち「001:21:35」のときの各部位の座標に対応する。
図2に戻って説明を続ける。複数のキャラクタオブジェクトの登場期間が重複している部分の少なくとも一部において、経過時間Tにおける特定の期間が規定されている。その期間における複数のキャラクタオブジェクトの動作データが、動作データセットとしてデータベース80に登録されている。この例では、キャラクタオブジェクトch1、ch2の組み合わせにおいて、タイミングt2からt3までの特定期間が規定されている。キャラクタオブジェクトch1の動作データMdCh1における特定期間の部分を抽出したデータ、およびキャラクタオブジェクトch2の動作データMdCh2における特定期間の部分を抽出したデータをセットにして、動作データセットMd12としてデータベース80に登録されている。なお、この特定期間は、キャラクタオブジェクトch1、ch2との登場期間が重複している期間の一部ではなく全部としてもよい。
同様に、キャラクタオブジェクトch1、ch3の組み合わせ、キャラクタオブジェクトch2、ch3の組み合わせにおいて、それぞれ、t5からt6までの特定期間、t8からt9までの特定期間が規定され、その特定期間に対応した動作データを含む動作データセットMd13、Md23がデータベース80に登録されている。さらに、3つの組み合わせ、すなわちキャラクタオブジェクトch1、ch2、ch3の組み合わせにおいても同様に、t10からt11までの特定期間が規定され、動作データセットMd123がデータベース80に登録されている。
図5は、第1実施形態におけるセット対応データを説明する図である。セット対応データは、動作データセットとキャラクタオブジェクトの組み合わせとに関して、互いの対応関係を規定している。対応関係は、上述したとおりである。例えば、動作データセットMd13に対して、キャラクタオブジェクトch1、ch3の組み合わせが対応する。上述したように動作データセットMd13は、キャラクタオブジェクトch1、ch3における動作データMdCh1、MdCh3のうち、t5からt6までの特定期間におけるデータを抽出したデータである。
続いて、ユーザ管理データについて説明する。ユーザは、自身が操作する通信端末50の表示部57において、キャラクタオブジェクトch1、ch2、ch3のうち、許可されたキャラクタオブジェクトをAR技術により表示させることができる。ユーザ管理データは、各ユーザに対して許可されたキャラクタオブジェクトを規定したデータである。ユーザとキャラクタオブジェクトとは、例えば、ユーザ識別情報(ユーザID等)とオブジェクト識別情報(オブジェクトID等)とによって関連付けられる。言い換えると、ユーザ管理データは、ユーザの通信端末50において表示可能なキャラクタオブジェクトを規定したデータである。さらに、ユーザ管理データは、ユーザによって所有されるキャラクタオブジェクトを、ユーザ識別情報とオブジェクト識別情報との関連付けによって規定したデータであるともいえる
図6は、第1実施形態におけるユーザ管理データの例を説明する図である。ユーザ管理データは、各ユーザU1、U2、・・・に対して、表示を許可されたキャラクタオブジェクトを規定するデータである。例えば、ユーザU1は、キャラクタオブジェクトch1の表示が許可されている。また、ユーザU4のように、複数のキャラクタオブジェクトch1、ch2の表示が許可される場合もある。以上が、データベース80に登録されているデータについての説明である。
[サービス提供処理]
続いて、サーバ10がユーザに対してサービスを提供する処理について説明する。このサービスは上述したように、キャラクタオブジェクトを動作させるサービスである。まず、これに関連して提供されるサービスについて説明し、その後に、キャラクタオブジェクトの動作サービスについて詳細に説明する。
続いて、サーバ10がユーザに対してサービスを提供する処理について説明する。このサービスは上述したように、キャラクタオブジェクトを動作させるサービスである。まず、これに関連して提供されるサービスについて説明し、その後に、キャラクタオブジェクトの動作サービスについて詳細に説明する。
通信端末50において所定のアプリケーションプログラムを実行することにより、アニメーション作品を視聴することができる視聴サービスがユーザに対して提供される。視聴サービスの提供において、通信端末50がサーバ10に対してアニメーション作品の視聴を要求すると、所定のデータがサーバ10から通信端末50に送信され、そのデータに基づいて通信端末50においてアニメーション作品の視聴が可能になる。この例では、サーバ10は、通信端末50から要求されたアニメーション作品に対応するアニメーションデータをデータベース80から検索し、通信端末50に送信する。通信端末50において、制御部51は、アニメーションデータに基づいて動画データを生成し、動画データに応じた画像を表示部57において表示させる。図2に示すアニメーションデータであれば、背景データBGdに基づいて生成される画像に対して、動作データに従って動作するキャラクタオブジェクトch1、ch2、ch3の画像を重畳することによって、時間の経過に対応した動画データが生成される。
このようなアニメーション作品を視聴すると、例えば、複数のキャラクタオブジェクトからランダムで選択された1つのキャラクタオブジェクトが、自身の通信端末50において表示が許可される。このように選択されたキャラクタオブジェクトは、表示が許可されたキャラクタオブジェクトとしてユーザに対応付けられて、サーバ10によってユーザ管理データに登録される。図6に示すユーザU4のように、複数のキャラクタオブジェクトが表示できるようにしたい場合には、例えば、課金によって実現可能とする。このように、表示が許可されたキャラクタオブジェクトは、通信端末50においてAR技術を用いて表示可能となる。キャラクタオブジェクトの表示例について簡単に説明する。
図7は、第1実施形態における現実空間と撮像方向との関係を説明する図である。撮像対象となる現実空間RSとして、以下の説明では、図7に示す空間を想定する。現実空間RSは、床面Fおよび壁面W1、W2を含む。床面Fには、マーカMRが配置されている。このマーカMRは、向きを示す情報MAを含んでいる。撮像方向としては、図7左側からマーカMRに向かう第1方向AR1と、図7右側からマーカMRに向かう第2方向AR2を定義する。
ここでは、ユーザU1が操作する通信端末50(以下、通信端末50-1という場合がある)において、現実空間RSを第1方向AR1に沿って撮像しながら、キャラクタオブジェクトを表示することを想定する。また、ユーザU1の近くにはユーザU2がいることを想定する。ユーザU2が操作する通信端末50は、以下、通信端末50-2という場合がある。なお、通信端末50とユーザとの関係、すなわち通信端末50を操作するユーザは、アプリケーションプログラムが実行された状態においてログインされたユーザID等の識別情報によって特定される。
図8は、第1実施形態における単数モード(ソロモード)での表示例を説明する図である。通信端末50-1において、アプリケーションプログラムが実行される。これによって、表示部57の表示領域DAには、撮像部56の撮像範囲に含まれる現実空間RSの画像に対して、キャラクタオブジェクトが重畳して表示される。このキャラクタオブジェクトは、ユーザ管理データ(図6)が参照されて決定され、この場合にはユーザU1に対して表示が許可されたキャラクタオブジェクトch1である。また、キャラクタオブジェクトch1の形態は、静止データSd1(図4)にしたがって特定される。静止データSd1が適用される仮想空間における座標系は、マーカMRによって規定される。具体的には、座標の基準となる位置(仮想空間の原点)は、マーカMRによって規定され、X軸方向、Y軸方向およびZ軸方向は、情報MAによって特定される。このとき、マーカMRのサイズに応じて各軸方向の縮尺が規定されてもよい。なお、図8に示す例は、ユーザが表示を許可されたキャラクタオブジェクトが表示可能となっている表示モードを示している。この表示モードをこの例では「単数モード」という。
図8に示す表示領域DAには、さらに、単数モード(ソロモード)から複数モード(マルチモード)に切り替えるための切替ボタンSB1が表示されている。ユーザが切替ボタンSB1を操作すると、表示モードを複数モードに切り替えるための処理が実行される。複数モードは、この例では、通信端末50-1の近くにいる通信端末50を操作するユーザに表示が許可されているキャラクタオブジェクトを、通信端末50-1においてキャラクタオブジェクトch1とともに表示することができる表示モードである。続いて、複数モードによる表示を実現するためのサービスを提供する処理について説明する。
図9は、第1実施形態におけるサービス提供処理(事前設定)の通信フローを説明する図である。まず、ユーザU1の通信端末50-1およびユーザU2の通信端末50-2は、アプリケーションプログラムを実行すると、位置情報を定期的にサーバ10に送信する
(ステップS100)。ここでは、通信端末50-1において、上述のような単数モードによる表示がされているものとする。なお、以下の通信フローの説明において、サーバ10の処理は制御部11の制御によって実行され、通信端末50の処理は制御部51の制御によって実行される。
(ステップS100)。ここでは、通信端末50-1において、上述のような単数モードによる表示がされているものとする。なお、以下の通信フローの説明において、サーバ10の処理は制御部11の制御によって実行され、通信端末50の処理は制御部51の制御によって実行される。
通信端末50-1においてユーザU1が切替ボタンSB1を操作することによって、通信端末50-1は、複数モードに切り替える指示を受け付け(ステップS110)、サーバ10にモード切替を通知する(ステップS120)。サーバ10は、この通知を受け取ると、通信端末50-1から所定の距離より短い範囲に位置する通信端末を操作するユーザを検索する(ステップS130)。この例では、通信端末50-2が通信端末50-1に近い通信端末として特定され、この通信端末50-2のユーザU2が特定される。また、図9には示していないが、この例では、ユーザU3、ユーザU5についても特定されたものとする。サーバ10は、ユーザ選択画面を表示するためのデータを通信端末50-1に送信する(ステップS140)。通信端末50-1は、このデータを受信すると、ユーザ選択画面を表示部57に表示する(ステップS150)。ユーザ選択画面は、検索によって特定されたユーザを提示して、その中から自身(ユーザU1)と組み合わせるユーザを選択させるための画面である。このユーザの選択によって、複数モードにおいて、キャラクタオブジェクトch1とともに表示されるキャラクタオブジェクトが決まる。
図10は、第1実施形態におけるユーザ選択画面を説明する図である。図10に示すユーザ選択画面は、通信端末50-1における表示部57の表示領域DAに表示された例である。ユーザ選択画面には、特定されたユーザU2、U3、U5を選択するための選択ボタンU2B、U3B、U5B、および選択したユーザを決定するための決定ボタンUSBが表示される。ユーザが選択ボタンU2Bを操作すると、図10に示すように未選択のユーザとは異なる表示に変化する。そして、ユーザが決定ボタンUSBを操作すると、選択されたユーザが決定される。
図9に戻って説明を続ける。通信端末50-1は、選択したユーザを示すデータをサーバ10に送信する(ステップS160)。ここでは、ユーザ選択画面においてユーザU2が決定されたものとする。サーバ10は、通信端末50-1において決定されたユーザU2に対応する通信端末50-2に対して、受諾要求画面を表示するためのデータを送信する(ステップS170)。通信端末50-2は、このデータを受信すると、受諾要求画面を表示部57に表示する(ステップS180)。受諾要求画面は、他のユーザによって組み合わせの対象として自身が指定された場合に、それを受諾するか否かを回答するための画面である。
図11は、第1実施形態における選択受諾画面を説明する図である。図11に示す選択受諾画面は、通信端末50-2における表示部57の表示領域DAに表示された例である。選択受諾画面には、他のユーザ(ここではユーザU1)から組み合わせの対象として選択されたこと、およびそれに受諾するか許否するかの意思表示をするためのボタン、すなわち受諾するためのYesボタンYB1および拒否するためのNoボタンNB1が表示される。
ユーザU2が選択受諾画面においてNoボタンNB1を操作すると、通信端末50-2は、拒否回答をサーバ10に送信する。サーバ10は、通信端末50-1に対して組み合わせの対象としてユーザU2が拒否したことを通知する。通信端末50-1は、この通知を受信すると、ユーザU2が拒否したことが表示部57に表示され、表示モードを単数モードに戻す。
一方、ユーザU2が選択受諾画面においてYesボタンYB1を操作すると、通信端末50-2は、受諾回答をサーバ10に送信する。これによって、サーバ10は、通信端末50-1において複数モードでの表示をするための制御を開始する。
図12は、第1実施形態におけるサービス提供処理(複数モード表示制御)の通信フローを説明する図である。サーバ10は、ユーザの組み合わせ(ユーザU1とユーザU2との組み合わせ)に対応する動作データセットを検索する(ステップS210)。具体的には以下のように処理が実行される。まず、サーバ10は、ユーザ管理データを参照して、組み合わせられたユーザに対応するキャラクタオブジェクトを特定する。この例のように、ユーザU1とユーザU2とが組み合わせられた場合には、キャラクタオブジェクトch1、ch2が特定される。続いて、サーバ10は、セット対応データを参照して、キャラクタオブジェクトの組み合わせに対応する動作データセットを検索する。この例のように、キャラクタオブジェクトch1、ch2の組み合わせの場合には、動作データセットMd12が特定される。
サーバ10は、特定した動作データセットMd12およびキャラクタオブジェクトch1、ch2に関連するデータを、通信端末50-1、50-2に送信する(ステップS220)。なお、通信端末50-1がキャラクタオブジェクトch1に関連するデータを既に保持している場合には、動作データセットMd12とキャラクタオブジェクトch2に関連するデータが送信されればよい。同様に、通信端末50-2がキャラクタオブジェクトch2に関連するデータを既に保持している場合には、動作データセットMd12とキャラクタオブジェクトch1に関連するデータが送信されればよい。
通信端末50-1は、サーバ10から動作データセットMd12等の受信が完了すると、再生開始画面を表示する(ステップS230)。再生開始画面は、複数モードに切り替えた通信端末50、この例では通信端末50-1において、複数モードでの再生を開始するための画面である。
図13は、第1実施形態における再生指示画面を説明する図である。図13に示す再生開始画面は、通信端末50-1における表示部57の表示領域DAに表示された例である。再生開始画面には、複数モードでの再生を促す記載、および再生を開始するか保留するかの意思表示をするためのボタン、すなわち再生開始を指示するためのYesボタンYB2および再生を保留するためのLaterボタンNB2が表示される。
ユーザU1が再生開始画面においてLaterボタンNB2を操作すると、所定時間後に再生開始画面が再び表示され、それまでの期間において通信端末50-1において別の処理を実行することができる。
一方、ユーザU1が再生開始画面においてYesボタンYB2を操作すると、通信端末50-1は再生開始指示をサーバ10に送信する(ステップS240)。サーバ10は、この指示を受け取ると、同期信号を通信端末50-1、50-1に送信する(ステップS250)。通信端末50-1は、同期信号を受信すると、キャラクタオブジェクトch1、ch2を動作データセットMd12にしたがって動作させるように、表示部57の表示領域DAに表示する。キャラクタオブジェクトch1、ch2の動作の時間経過は、同期信号によって制御される。
図14は、第1実施形態における複数モードでの表示例(第1方向AR1に沿って撮像した場合)を説明する図である。通信端末50-1における表示部57の表示領域DAには、キャラクタオブジェクトch1、ch2が表示されている。図14に示す例では、複数モードでの表示によってキャラクタオブジェクトch1、ch2の動作の再生が開始されてから所定時間経過した状態を示している。経過時間は、シークバーSKによって示されている。さらに、表示領域DAには複数モードから単数モードへ切り替えるための切替ボタンSB2が表示されている。ユーザは、シークバーSKを操作して再生位置(動作データ内の再生部分)を変化させたり、切替ボタンSB2を操作して複数モードを終了させたりすることができる。
キャラクタオブジェクトch1、ch2は、動作データセットMd12にしたがって動作しているため、図2に示すアニメーションデータのうちt2からt3までの期間の動作が再現される。これによって、アニメーション作品の一部がAR表示によって再現される。ここでは、表示領域DAには、撮像部56の撮像範囲に含まれる現実空間RSの画像に対して、キャラクタオブジェクトch1、ch2が重畳して表示される。動作データセットMd12が適用される仮想空間における座標系は、単数モードの場合と同様である。すなわち、座標の基準となる位置(仮想空間の原点)は、マーカMRによって規定され、X軸方向、Y軸方向およびZ軸方向は、情報MAによって特定される。
この例では、背景は現実空間RSの画像となり、アニメーションデータにおける背景BGは用いられない。なお、半透過画像に加工された背景BGが、さらに現実空間RSの画像に重畳されてもよい。
ここで、複数モードによる表示は通信端末50-1だけで実現されてもよいが、組み合わせた対象となったユーザU2の通信端末50-2においても、通信端末50-1における表示と同じ表示が実現されてもよい。このとき、キャラクタオブジェクトch1、ch2の動作は同期信号によって同期されてもよい。同期信号を用いることによって、通信端末50-1と通信端末50-2とでは、キャラクタオブジェクトch1、ch2の動作を同じ経過時間で表示させることもできる。
図15は、第1実施形態における複数モードでの表示例(第2方向AR2に沿って撮像した場合)を説明する図である。図14においては、通信端末50-1が第1方向AR1に沿って現実空間RSを撮像した場合における表示内容を示した。一方、図15では、通信端末50-2が第2方向AR2に沿って現実空間RSを撮像した場合における表示内容を示している。第2方向AR2から見た場合、マーカMRの向きが異なる。いずれも共通の座標系を用いて表示しているため、図15に示す表示例では、画面に対する仮想空間におけるX軸方向、Y軸方向およびZ軸方向が、図14に示す表示例とは異なっている。この結果、キャラクタオブジェクトch1、ch2の見え方が、通信端末50-1と通信端末50-2とでは異なる。ただし、この例では、同期信号によって、通信端末50-1と通信端末50-2とでは、時間の経過が同期されているため、キャラクタオブジェクトch1、ch2の動作は同じになる。
上述した例では、ユーザU1、U2との組み合わせによってキャラクタオブジェクトch1、ch2をまとめて動作させながら表示部57に表示することができる。この組み合わせは2つに限らず、3つ以上であってもよい。図6に示すユーザ管理データの例では、ユーザU1、U2、U3の組み合わせによれば、キャラクタオブジェクトch1、ch2、ch3をまとめて動作させながら表示させることができる。また、ユーザU3、U4の組み合わせでも同様に、キャラクタオブジェクトch1、ch2、ch3をまとめて動作させながら表示させることができる。なお、ユーザU4によれば、キャラクタオブジェクトch1、ch2の双方の表示が許可されているため、ユーザU4の通信端末50では、いずれか一方を単数モードで表示させてもよいし、双方を複数モードでの表示させることもできる。
このように、各ユーザにおいて表示が許可されているキャラクタオブジェクトが少なくても、他のユーザと協力することで複数のキャラクタオブジェクトをまとめて表示させることができる。このとき、複数のキャラクタオブジェクトの組み合わせることで、単に表示させるだけではなく、単体のキャラクタオブジェクトでは実現できなかった動作をさせて表示部57に表示することもできる。したがって、キャラクタオブジェクトを他のキャラクタオブジェクトと組み合わせて多彩な表現をユーザに対して提供することができるため、ユーザがキャラクタオブジェクトに対する興味を失わないようにすることができる。
[サービス提供処理で用いられる表示制御部の構成]
続いて、図12に示す処理を実現するための機能(表示制御部)構成について、図16を用いて説明する。
続いて、図12に示す処理を実現するための機能(表示制御部)構成について、図16を用いて説明する。
図16は、第1実施形態における表示制御部の構成を示すブロック図である。図16は、サーバ10と通信端末50とによって協働して表示制御部700を実現する例を示している。動作決定部600は、サーバ10において実現される。動作決定部600は、図12に示すステップS210の処理を行う機能を有する。すなわち、動作決定部600は、ユーザ管理データを参照して、複数のユーザに対して表示が許可されたキャラクタオブジェクトを特定し、キャラクタオブジェクトの組み合わせに対応する動作データセットを、セット対応データを参照して特定する。これによって、動作決定部600は、複数のキャラクタオブジェクトの動作を決定する。
表示制御部700は、データ提供部710、動作制御部730および表示重畳部750を含む。データ提供部710は、データベース80から動作データセットに含まれる動作データ、および動作データの適用対象となる複数のキャラクタオブジェクトに関連するデータを読み出して、動作制御部730に提供する。動作制御部730は、各キャラクタオブジェクトに対して、動作データを適用してキャラクタオブジェクトを動作させた画像を生成する。
表示重畳部750は、撮像部56の撮像範囲の画像に対して、動作制御部730が生成した画像を重畳して、表示部57に表示させる。このとき、挙動測定部55の挙動情報を用いて通信端末50の姿勢等により、仮想空間におけるX軸方向、Y軸方向およびZ軸方向を補正してもよい。
第1実施形態では、表示制御部700のうち、サーバ10においてデータ提供部710の機能が実現され、通信端末50において動作制御部730および表示重畳部750の機能が実現される。サーバ10は、データ提供部710における機能、すなわち、動作データセット等を通信端末50に提供することによって、通信端末50において表示されるキャラクタオブジェクトの動作を制御している。
<第2実施形態>
表示制御部700のうち、サーバ10において、データ提供部710および動作制御部730における機能が実現されてもよい。この場合には、サーバ10は、通信端末50に対して、動作データセット等を送信するのではなく、キャラクタオブジェクトを動作させた画像のデータを通信端末50に送信することになる。
表示制御部700のうち、サーバ10において、データ提供部710および動作制御部730における機能が実現されてもよい。この場合には、サーバ10は、通信端末50に対して、動作データセット等を送信するのではなく、キャラクタオブジェクトを動作させた画像のデータを通信端末50に送信することになる。
<第3実施形態>
表示制御部700のうち、サーバ10において全ての機能、すなわち、データ提供部710、動作制御部730および表示重畳部750の機能が実現されてもよい。この場合には、サーバ10は、通信端末50において撮像された画像を取得して、表示重畳部750において用いる。
表示制御部700のうち、サーバ10において全ての機能、すなわち、データ提供部710、動作制御部730および表示重畳部750の機能が実現されてもよい。この場合には、サーバ10は、通信端末50において撮像された画像を取得して、表示重畳部750において用いる。
<第4実施形態>
表示制御部700のうち、通信端末50において全ての機能、すなわち、データ提供部710、動作制御部730および表示重畳部750の機能が実現されてもよい。この場合には、通信端末50は、データ提供部710の機能を実現するために、ネットワークNWを介してデータベース80に接続する。
表示制御部700のうち、通信端末50において全ての機能、すなわち、データ提供部710、動作制御部730および表示重畳部750の機能が実現されてもよい。この場合には、通信端末50は、データ提供部710の機能を実現するために、ネットワークNWを介してデータベース80に接続する。
<変形例>
以上、本発明の一実施形態について説明したが、上述した各実施形態は、互いに組み合わせたり、置換したりして適用することが可能である。また、上述した各実施形態では、以下の通り変形して実施することも可能である。
以上、本発明の一実施形態について説明したが、上述した各実施形態は、互いに組み合わせたり、置換したりして適用することが可能である。また、上述した各実施形態では、以下の通り変形して実施することも可能である。
(1)上述した実施形態では、キャラクタオブジェクト、静止データおよび動作データは、アニメーションデータから抽出して生成されたデータであったが、元になるアニメーションデータが無くてもよい。すなわち、それぞれが、データ提供サービスの実現のために別途生成されたデータであってもよい。
(2)キャラクタオブジェクトの表示を許可されるための過程は、上記実施形態の方法に限られない。いわゆるガチャとよばれる抽選形式で表示が許可されてもよいし、イベント等で配布されるコードにより表示が許可されてもよい。
(3)上述した実施形態では、組み合わせ対象となるユーザは、ユーザ間の距離によって選択可能になっていたが、別の方法により所定の関連条件を満たす場合に組み合わせられてもよい。近い距離にいる組み合わせ対象のユーザは、例えば、画像認識により同一と判定される対象物を撮影している通信端末50のユーザとして特定されてもよいし、近距離無線通信により通信可能な通信端末50のユーザとして特定されてもよい。上記の対象物は、例えば、上述した実施形態で示したマーカMRであってもよいし、それ以外にも撮像範囲に含まれ画像解析によって抽出できる物体であればどのような物体であってもよい。すなわち、所定の関連条件とは、撮像範囲の画像解析により特定の共通情報を持つことであってもよい。なお、組み合わせ対象のユーザは、近い距離にいるとは限らない組み合わせのユーザであってもよく、例えばSNSにおいて友だちとして関連付けられているユーザであってもよい。
(4)上述した実施形態では、キャラクタオブジェクトを表示させるためにマーカMRを用いて仮想空間における座標系を特定していたが、マーカMRを用いる場合に限らない。例えば、V-SLAM(Visual Simultaneous Localization and Mapping)技術を用いることによって、現実空間RSの3次元情報を取得し、仮想空間における座標系と対応付けるようにしてもよい。解析された3次元情報の一部が特徴部分と認識され、特徴部分がマーカMRに代替されてもよい。
(5)上述した実施形態では、キャラクタオブジェクトの組み合わせによって、動作データセットが決定されていたが、さらに別の要素を用いて動作データセットが決定されるようにしてもよい。これによって、同じキャラクタオブジェクトの組み合わせであっても、動作データセットが異なるように規定されてもよい。例えば、特定のキャラクタオブジェクトに対して、そのキャラクタオブジェクトが使用するアイテムオブジェクトを規定する。これによって、組み合わせ対象としてアイテムオブジェクトが存在するか否かで、特定される動作データセットを異ならせるように、セット対応データが規定されてもよい。具体的には、キャラクタオブジェクトch1の表示を許可されたユーザが、キャラクタオブジェクトch1が使用するアイテムオブジェクト(キャラクタオブジェクトch1に関連付けられたアイテムオブジェクト)についても表示を許可されているか否かによって、複数モードで適用される動作データセットが異なる。
(6)上述した実施形態では、それぞれのキャラクタオブジェクトに対応する静止データのタイミングは、他のキャラクタオブジェクトと登場期間が重複しないタイミングとして規定されているが、この限りではない。すなわち、キャラクタオブジェクトに対応する静止データのタイミングは、他のキャラクタオブジェクトと登場期間が重複するタイミングとして規定されてもよいし、さらに、動作データセットに用いられた期間と重複するタイミングとして規定されてもよい。静止データSd1は、例えば、キャラクタオブジェクトch2と登場期間が重複するt2からt3までの期間のいずれかのタイミングの各部位の座標として規定されてもよい。
これによって、静止データSd1は、動作データセットMd12に規定されるキャラクタオブジェクトch1の動作形態の一部を抽出したものとなる。したがって、アニメーションデータのような全体的なデータが無くても静止データを動作データから効率的に生成することができ、また、ユーザにとっては、単数モードで表示されたキャラクタオブジェクトch1の前後の動作を見たいという動機を生じさせることができる。一方、上述した実施形態のように、静止データSd1が動作データセットMd12に規定されるキャラクタオブジェクトch1の動作形態に含まれない形態とすることもできる。この場合には、静止データSd1は動作データセットMd12とは別の動作形態のデータとして生成する必要があるが、ユーザにとっては単数モードでのキャラクタオブジェクトch1とは全く異なる表示を複数モードで楽しむことができる。
(7)上述した実施形態では、単数モードで表示されるキャラクタオブジェクトは静止画像となる静止データが適用されていたが、動画像となる動作データが適用されてもよい。この場合であっても、単数モードと複数モードとで異なる動作データがキャラクタオブジェクトに適用されるようにすればよい。
(8)上述した実施形態は、本発明をキャラクタオブジェクトの動作制御に適用した例を説明したが、本発明はキャラクタオブジェクトだけでなく、3次元形状を有するオブジェクトの動作制御に対しても同様に適用可能である。
10…サーバ、11…制御部、12…記憶部、13…通信部、50,50-1,50-2…通信端末、51…制御部、52…記憶部、53…通信部、54…位置測定部、55…挙動測定部、56…撮像部、57…表示部、58…操作部、80…データベース、600…動作決定部、700…表示制御部、710…データ提供部、730…動作制御部、750…表示重畳部、1000…システム
Claims (10)
- 第1端末において表示可能な第1キャラクタオブジェクトと第2端末において表示可能な第2キャラクタオブジェクトとに基づいて、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトの動作形態を決定する決定部と、
前記第1端末において撮像された画像に重畳して前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを前記動作形態にしたがって表示させるように、前記第1端末を制御する表示制御部と、
を含む情報処理装置。 - 前記第1端末と前記第2端末とは所定の関連条件を満たしている、請求項1に記載の情報処理装置。
- 前記関連条件は、前記第1端末と前記第2端末とが所定の距離よりも近いことを含む、請求項2に記載の情報処理装置。
- 前記関連条件は、前記第1端末において撮像された画像と前記第2端末において撮像された画像とに、同一の対象物が含まれることを含む、請求項2または請求項3に記載の情報処理装置。
- 前記第1端末と前記第2端末とが前記所定の関連条件を満たしていない状態において、前記第1端末において表示可能な前記第1キャラクタオブジェクトは前記動作形態の一部に基づく画像であり、前記第2端末において表示可能な前記第2キャラクタオブジェクトは前記動作形態の一部に基づく画像である、請求項2から請求項4のいずれかに記載の情報処理装置。
- 前記第1端末と前記第2端末とが前記所定の関連条件を満たしていない状態において、前記第1端末において表示可能な前記第1キャラクタオブジェクトは前記動作形態に含まれない形態に基づく画像であり、前記第2端末において表示可能な前記第2キャラクタオブジェクトは前記動作形態に含まれない形態に基づく画像である、請求項2から請求項4のいずれかに記載の情報処理装置。
- 前記第2端末において撮像された画像に重畳して前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを前記動作形態にしたがって表示させるように、前記第2端末を制御することをさらに含む、請求項1から請求項6のいずれかに記載の情報処理装置。
- 前記決定部は、前記第1端末において前記第1キャラクタオブジェクトとともに表示可能なアイテムオブジェクトが存在する場合に、さらに前記アイテムオブジェクトに基づいて前記動作形態を決定することを含む、請求項1から請求項7のいずれかに記載の情報処理装置。
- 前記動作形態は、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトの動作形態を規定したデータのうち、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトが用いられている期間の少なくとも一部において規定された動作形態に対応する、請求項1から請求項8のいずれかに記載の情報処理装置。
- 第1端末において表示可能な第1キャラクタオブジェクトと第2端末において表示可能な第2キャラクタオブジェクトとに基づいて、前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトの動作形態を決定し、
前記第1端末において撮像された画像に重畳して前記第1キャラクタオブジェクトおよび前記第2キャラクタオブジェクトを前記動作形態にしたがって表示させるように、前記第1端末を制御すること
をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023071747A JP2023099563A (ja) | 2019-03-25 | 2023-04-25 | 情報処理装置およびプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019056799A JP7280492B2 (ja) | 2019-03-25 | 2019-03-25 | 情報処理装置、情報処理方法およびプログラム |
JP2023071747A JP2023099563A (ja) | 2019-03-25 | 2023-04-25 | 情報処理装置およびプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019056799A Division JP7280492B2 (ja) | 2019-03-25 | 2019-03-25 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023099563A true JP2023099563A (ja) | 2023-07-13 |
Family
ID=72643343
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019056799A Active JP7280492B2 (ja) | 2019-03-25 | 2019-03-25 | 情報処理装置、情報処理方法およびプログラム |
JP2023071747A Pending JP2023099563A (ja) | 2019-03-25 | 2023-04-25 | 情報処理装置およびプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019056799A Active JP7280492B2 (ja) | 2019-03-25 | 2019-03-25 | 情報処理装置、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7280492B2 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5704962B2 (ja) | 2011-02-25 | 2015-04-22 | 任天堂株式会社 | 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム |
WO2012144389A1 (ja) | 2011-04-20 | 2012-10-26 | Necカシオモバイルコミュニケーションズ株式会社 | 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム |
JP5622704B2 (ja) | 2011-10-21 | 2014-11-12 | 株式会社リアルスタイル | プログラム、情報記憶媒体、画像生成システム、サーバ及びゲーム提供方法 |
JP5995304B2 (ja) | 2011-12-12 | 2016-09-21 | 株式会社バンダイナムコエンターテインメント | プログラム、情報記憶媒体、端末及びサーバ |
JP2014071838A (ja) | 2012-10-01 | 2014-04-21 | Dainippon Printing Co Ltd | 画像処理装置およびカードゲーム具 |
JP6304637B1 (ja) | 2017-01-12 | 2018-04-04 | 株式会社コナミデジタルエンタテインメント | ゲーム制御装置、ゲームシステム、及びプログラム |
-
2019
- 2019-03-25 JP JP2019056799A patent/JP7280492B2/ja active Active
-
2023
- 2023-04-25 JP JP2023071747A patent/JP2023099563A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2020160576A (ja) | 2020-10-01 |
JP7280492B2 (ja) | 2023-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101292463B1 (ko) | 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법 | |
US11154779B2 (en) | Processing device, program, and method | |
CN103197825B (zh) | 图像处理装置和显示控制方法 | |
CN112073764B (zh) | 一种显示设备 | |
KR101329935B1 (ko) | 이종 마커를 이용해서 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법 | |
US20120218298A1 (en) | Information processing system, information processing method, information processing device and tangible recording medium recording information processing program | |
US20090241039A1 (en) | System and method for avatar viewing | |
TW201346640A (zh) | 影像處理裝置及電腦程式產品 | |
JP2007304667A (ja) | ユーザインタフェース装置、ユーザインタフェース方法及びプログラム | |
JP6677890B2 (ja) | 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム | |
JP6656572B1 (ja) | 情報処理装置、表示制御方法および表示制御プログラム | |
CN113301506B (zh) | 信息共享方法、装置、电子设备及介质 | |
US11557103B2 (en) | Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method | |
CA3070736C (en) | Display control apparatus and display control method | |
JP2018142230A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP6822413B2 (ja) | サーバ装置及び情報処理方法、並びにコンピュータ・プログラム | |
JP6632322B2 (ja) | 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム | |
JP2014203175A (ja) | 情報処理装置、情報処理方法及びプログラム。 | |
KR101711822B1 (ko) | 메타 데이터를 이용한 디바이스 원격 제어 장치 및 방법 | |
JP7280492B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2018124746A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP2022014758A (ja) | 情報処理装置及びプログラム | |
CN112822427A (zh) | 视频图像显示控制方法、装置及电子设备 | |
JP2017151632A (ja) | サーバ装置、検索方法およびプログラム | |
US20220141551A1 (en) | Moving image distribution system, moving image distribution method, and moving image distribution program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230509 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230509 |