JP2020075137A - プログラム、情報処理方法及び情報処理装置 - Google Patents

プログラム、情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP2020075137A
JP2020075137A JP2019203247A JP2019203247A JP2020075137A JP 2020075137 A JP2020075137 A JP 2020075137A JP 2019203247 A JP2019203247 A JP 2019203247A JP 2019203247 A JP2019203247 A JP 2019203247A JP 2020075137 A JP2020075137 A JP 2020075137A
Authority
JP
Japan
Prior art keywords
virtual space
image data
space
information
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019203247A
Other languages
English (en)
Other versions
JP7433847B2 (ja
Inventor
関 宏之
Hiroyuki Seki
宏之 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Publication of JP2020075137A publication Critical patent/JP2020075137A/ja
Application granted granted Critical
Publication of JP7433847B2 publication Critical patent/JP7433847B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想空間の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供する。【解決手段】情報処理装置を、撮影データから現実空間の情報を分析する分析手段、分析した前記情報を仮想空間の画像データに反映させる反映手段、前記仮想空間の画像データを表示する表示手段、前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、として機能させるためのプログラムが提供される。【選択図】図14

Description

本開示はプログラム、情報処理方法及び情報処理装置に関する。
近年、VR(仮想現実:Virtual Reality)、AR(拡張現実:Augmented Reality)及びMR(複合現実:Mixed Reality)などの仮想空間を作成する技術の普及に伴い、仮想空間を利用したゲームが増えつつある(例えば特許文献1参照)。
特開2017−144038号公報
VRなどの仮想空間を利用する従来のゲームでは、映像世界への没入感が高く、エンタテイメント性を高める効果があるが、プレイヤに対するエンタテイメント性の更なる向上が期待されている。
本開示は、仮想空間の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供することを課題とする。
本開示の一の態様によれば、情報処理装置を、撮影データから現実空間の情報を分析する分析手段、分析した前記情報を仮想空間の画像データに反映させる反映手段、前記仮想空間の画像データを表示する表示手段、前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、として機能させるためのプログラムが提供される。
一の側面によれば、仮想空間の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。
一実施形態に係る情報処理システムの一例を示す図である。 一実施形態に係る携帯端末のハードウェア構成の一例を示す図である。 一実施形態に係るサーバのハードウェア構成の一例を示す図である。 一実施形態に係る携帯端末の機能構成の一例を示す図である。 一実施形態に係るサーバの機能構成の一例を示す図である。 一実施形態に係る情報処理システムの処理概要の一例を示す図である。 一実施形態に係る情報処理システムの処理概要の一例を示す図である。 制御部の機能構成の一例を示す図である。 サーバ制御部の機能構成の一例を示す図である。 一実施形態に係るS20の処理の一例を示すフローチャートである。 一実施形態に係るS20の処理の一例を示すフローチャートである。 一実施形態に係るS20の処理の一例を示すフローチャートである。 一実施形態に係るS20の処理の一例を示すフローチャートである。 一実施形態に係る照明判定の処理を適用したゲームの一例のフローチャートである。 一実施形態に係る照明判定の処理を適用したゲームの一例の画面イメージ図である。 一実施形態に係る反射特性判定の処理を適用したゲームの一例のフローチャートである。 一実施形態に係る反射特性判定の処理を適用したゲームの一例の画面イメージ図である。
以下、本開示を実施するための形態について図面を参照して説明する。
[情報処理システム]
まず、一実施形態に係る情報処理システム10について、図1を参照して説明する。一実施形態に係る情報処理システム10は、携帯端末20a、20b、20cとサーバ30とが、インターネットやLAN(ローカルエリアネットワーク)などのネットワーク40を介して通信可能に接続された構成である。なお、携帯端末20a、20b、20cは総称して「携帯端末20」とも呼ぶ。
携帯端末20はユーザが操作する情報処理装置の一例である。情報処理装置は撮影機能を有するスマートフォンなどの携帯電話機、携帯ゲーム機、パーソナルコンピュータ、タブレット端末、家庭用ゲーム装置、業務用ゲーム装置等である。撮影機能は、内蔵のカメラにより実現されるものであっても、外付けのカメラにより実現されるものであってもよい。携帯端末20はユーザからの操作をタッチパネル等により受け付け、その操作に応じた情報処理を行う。なお、携帯端末20の個数は3つに限定されるものではなく、3つ以外であってもよい。
サーバ30は携帯端末20との間でデータを送受信することで、後述の各種機能を実現する情報処理装置の一例である。サーバ30は、クラウドコンピュータにより実現してもよい。なお、図1に示したサーバ30の個数は、1つに限定されるものではなく、2つ以上で分散処理してもよい。
図1の情報処理システム10はサーバ30が含まれる例を示したが、サーバ30が行う各種処理を携帯端末20が実現できるのであれば、サーバ30が省略されてもよく、携帯端末20がネットワーク40に接続されていなくてもよい。
図2は、携帯端末20のハードウェア構成の一例を示す図である。携帯端末20は、CPU(Central Processing Unit)121、記憶装置122、通信装置123、入力装置124、表示装置125及び撮影装置126を有する。CPU121は、携帯端末20を制御する。記憶装置122は、例えばROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ、HDD(Hard Disk Drive)やSSD(Solid State Drive)などのストレージである。
通信装置123は、通信を制御するネットワーク回路などの通信デバイスである。入力装置124はタッチパネルのタッチパッド(位置入力装置)、カメラ、マイクなどの入力デバイスである。表示装置125はタッチパネルのディスプレイ、スピーカなどの出力デバイスである。タッチパネルはタッチパッドとディスプレイとを組み合わせることで実現される。撮影装置126はカメラであって、ユーザ操作に応じて撮影を行い、現実空間の撮影データを出力する。
図3は、サーバ30のハードウェア構成の一例を示す図である。サーバ30は、CPU131、記憶装置132及び通信装置133を有する。CPU131は、サーバ30を制御する。記憶装置132は、例えばROMやRAMなどのメモリ、HDDやSSDなどのストレージである。通信装置133は、通信を制御するネットワークカードなどの通信デバイスである。
図4は、携帯端末20の機能構成の一例を示す図である。図4の携帯端末20は、記憶部21、制御部22、操作部23、表示部24、端末側通信部25及び撮影部26を有する。記憶部21は、プログラム27、そのプログラム27が利用するデータなどを記憶している。なお、記憶部21は、記憶装置122により実現されてもよいし、ネットワーク40を介して接続された記憶装置により実現されてもよい。
図4に戻り、制御部22は、携帯端末20の全体の制御を行う。制御部22は、CPU121がプログラム27に記載された処理を実行することにより実現される。操作部23は入力装置124に対するユーザの各種操作を受け付ける。表示部24は表示装置125に例えばゲーム空間などの仮想空間の画像を表示する。なお、操作部23はCPU121が入力装置124を制御することで実現される。また、表示部24は、CPU121が表示装置125を制御することで実現される。
仮想空間の画像は仮想現実の画像に限定するものではなく、拡張現実及び複合現実の画像も含むものとする。制御部22はユーザから受け付けた各種操作に基づき、ゲームなどの処理を進行させる。表示部24は制御部22が生成した後述のような仮想空間の画像を表示する。端末側通信部25は、サーバ30と通信する。端末側通信部25はCPU121がプログラム27に従って通信装置123を制御することで実現される。
図5は、サーバ30の機能構成の一例を示す図である。図5のサーバ30は、記憶部31、サーバ制御部32及びサーバ側通信部33を有する。記憶部31は、サーバプログラム35、そのサーバプログラム35が利用するデータなどを記憶している。なお、記憶部31は記憶装置132により実現されてもよいし、ネットワーク40を介して接続された記憶装置により実現されてもよい。
図5に戻り、サーバ制御部32は、サーバ30の全体の制御を行う。サーバ制御部32は、CPU131がサーバプログラム35に記載された処理を実行することにより実現される。サーバ側通信部33は、携帯端末20と通信する。サーバ側通信部33は、CPU131がサーバプログラム35を実行し、サーバプログラム35に従って通信装置133を制御することで実現される。
[処理概要]
以下、一実施形態に係る情報処理システム10の処理概要について図6及び図7を用いて説明する。図6及び図7は一実施形態に係る情報処理システムの処理概要の一例を示す図である。図6は携帯端末20により実現する処理概要を示している。図6の情報処理システム10の例ではサーバ30が省略されてもよい。図7は携帯端末20及びサーバ30が協働して実現する処理概要を示している。
図6のステップS10においてスマートデバイスなどの携帯端末20を操作するユーザは、撮影部26で現実空間内の人、物体、照明環境などを撮影する。ステップS20において、携帯端末20の制御部22は受信した撮影データから現実空間の情報(人の動きや位置、物体の動き、照明環境、反射特性、弾性、慣性又は位置等)を分析し、分析した情報を表示部24が出力する仮想空間の画像データに反映させる処理を行う。ステップS30において表示部24は、ステップS20で分析された情報が反映された仮想空間の画像データを出力する。
また、図7のステップS10において、スマートデバイスなどの携帯端末20を操作するユーザは、撮影部26で現実空間内の人、物体、照明環境などを撮影する。携帯端末20は撮影データをサーバ30に送信する。
ステップS20において、サーバ30は受信した撮影データから現実空間の情報を分析し、分析した情報を携帯端末20が出力する仮想空間の画像データに反映させる処理を行う。サーバ30は分析した情報を反映させた仮想空間の画像データを携帯端末20に送信する。仮想空間の画像データを受信した携帯端末20はステップS30において、サーバ30から受信した仮想空間の画像データを出力する。
なお、図6及び図7に示した情報処理システム10の処理概要は一例であって、例えばステップS20の「撮影データから現実空間の情報を分析し、分析した情報を仮想空間に反映させる処理」を携帯端末20とサーバ30とで分散して行うようにしてもよい。
図6に示した情報処理システム10の処理概要の場合、携帯端末20の制御部22は例えば図8に示す機能構成である。図8は制御部の機能構成の一例を示す図である。図8の制御部22は分析部50、反映部52、及び進行制御部54を有する。分析部50は撮影データから現実空間の情報を分析する。反映部52は分析した情報を携帯端末20が出力する仮想空間の画像データに反映させる。
進行制御部54は仮想空間の画像を利用するゲームの進行を制御する。進行制御部54は仮想空間の画像データに反映させた、撮影データから分析した現実空間の情報に応じてゲームの進行を制御する。
また、図7に示した情報処理システム10の処理概要の場合、サーバ30のサーバ制御部32は例えば図9に示す機能構成である。図9はサーバ制御部の機能構成の一例を示す図である。図9のサーバ制御部32は分析部60、反映部62、及び進行制御部64を有する。図9の分析部60、反映部62、及び進行制御部64は、図8の分析部50、反映部52、及び進行制御部54と同様であるため、説明を省略する。
[ステップS20の処理の詳細]
以下では、図7に示した情報処理システム10の処理概要の場合の例を説明する。
図10は一実施形態に係るS20の処理の一例を示すフローチャートである。図10は撮影データから、現実空間の情報を分析し、人や物体の動き、反射特性、衣類、弾性、慣性、位置、照明環境などを仮想空間で再現する処理を行う例である。
ステップS51において、サーバ30は受信した撮影データから現実空間の状態(人の動きや位置、物体の動き、反射特性、弾性、慣性又は位置、照明環境等)を分析する処理を行う。ステップS52に進み、サーバ30は分析結果を仮想空間内のキャラクタや物体などのオブジェクトで再現する以下の(1)から(7)の処理を行う。
(1)動き再現
動き再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの動きの適用である。例えば現実空間において直接撮影した情報(人の動きなど)を仮想空間の3Dモデルキャラクタ等のオブジェクトの動きに適用する。
(2)照明再現
照明再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明環境の適用である。例えば現実空間の明るさ、光が差す方向、間接照明の具合などの照明環境を仮想空間内の3Dモデルキャラクタ等のオブジェクトへの照明環境として適用する。
(3)反射特性再現
反射特性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明反射特性の適用である。例えばシャンデリアの反射や光沢のある布地に対する反射などの光の反射の仕方を、3Dモデルキャラクタ等のオブジェクトに適用する。また、反射特性から測定可能な表面材質に基づき、3Dモデルキャラクタ等のオブジェクトの「つるつる感」や「ザラザラ感」の表現に適用する。
(4)衣類再現
衣類再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの衣服への動きの適用である。例えば現実空間において衣服を着た人を動画で撮影し、動画から得られた衣服の揺れ情報を仮想空間の衣服の揺れ(動き)に適用する。例えば麻、絹などの素材による揺れの違いや、布の厚さや重さによる揺れの違いを、仮想空間の衣服の揺れに適用する。
(5)弾性再現
弾性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの弾性の適用である。例えば現実空間においてボールの落下を撮影し、動画から得られたボールの落ち方、弾み方、揺れ方などを、例えば仮想空間の武器に適用することで、武器を落とした時の挙動などを再現できる。また、例えば現実空間においてゼリーが揺れている状態を撮影し、その動画から得られたゼリーの揺れ方を、例えば仮想空間のペットボトルに適用することで、ゼリーのように揺れるペットボトルを仮想空間で再現できる。
(6)慣性再現
慣性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの動き難さの適用である。例えば現実空間において物体の動きを撮影し、動画から得られた物体の動き難さを、仮想空間のオブジェクトの動きに適用することにより、現実空間における物体の動き難さを仮想空間のオブジェクトで再現できる。また、例えば現実空間において回転する物体の動きを撮影し、動画から得られた物体の回転のし難さを、仮想空間のオブジェクトの動きに適用することにより、現実空間における物体の回転のし難さを仮想空間のオブジェクトで再現できる。
(7)位置再現
位置再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置の移動への適用である。例えば現実空間において移動する人やボールを撮影し、動画から得られた人やボールの位置の移動を、仮想空間の3Dモデルキャラクタ等のオブジェクトの位置の移動に適用することにより、現実空間における人やボールなどの位置の移動を仮想空間の3Dモデルキャラクタ等のオブジェクトで再現できる。
図11は一実施形態に係るS20の処理の一例を示すフローチャートである。図11は撮影データから、現実空間の情報を分析し、人や物体の動き、衣類、弾性、慣性などを仮想空間で再適用する処理を行う例である。
ステップS61において、サーバ30は受信した撮影データから現実空間の状態(人の動き、物体の動き、弾性又は慣性等)を分析する処理を行う。ステップS62に進み、サーバ30は分析結果を仮想空間で再適用する以下の(8)から(11)の処理を行う。
(8)動き再適用
動き再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの動きの再適用である。例えば現実空間においてダンスが下手なユーザAとダンスが上手なユーザBとがダンスする様子をそれぞれ撮影する。動画から得られたユーザAのダンスの動きを、ユーザBのダンスの動きで補正した後、仮想空間の3Dモデルキャラクタの動きに適用することにより、ユーザAの個性を残しつつユーザBの上手なダンスの動きで補正されたユーザAのダンスの動きを、仮想空間の3Dモデルキャラクタ等で再現できる。
例えばプレイヤキャラクタが敵キャラクタを爽快になぎ倒す一騎当千のゲーム(いわゆる無双ゲーム)に適用する場合は、ゲームが下手なプレイヤAとゲームが上手なプレイヤBとがゲームをプレイする様子をそれぞれ撮影する。動画から得られたプレイヤAのプレイの動きを、プレイヤBのプレイの動きで補正した後、仮想空間のプレイヤキャラクタの動きに適用することにより、プレイヤAの個性を残しつつプレイヤBの上手なプレイの動きで補正されたプレイヤAのプレイヤの動きを、仮想空間のプレイヤキャラクタ等で再現できる。
(9)衣類再適用
衣類再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等への衣服の動きの再適用である。例えば現実空間においてユーザAの衣服の動き(揺れ)とユーザBの動きとをそれぞれ撮影する。動画から得られたユーザAの衣服の動きの特性とユーザBの動きとを仮想空間の3Dモデルキャラクタに適用することで、ユーザBに合わせて動く仮想空間の3Dモデルキャラクタの衣服の動きを、ユーザAの衣服の動きの特性で再現できる。
(10)弾性再適用
弾性再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの弾性の再適用である。例えば現実空間において鉄球とゼリーの双方が落ちる映像をそれぞれ撮影する。動画から得られた鉄球の動きとゼリーの動きとを仮想空間の鉄球のオブジェクトに適用することで、ゼリーのように揺れながら落ちる鉄球を仮想空間で再現できる。また、例えば動画から得られた人の動きとゼリーの動きとを仮想空間の3Dモデルキャラクタに適用することで、ゼリーのように揺れながら動く3Dモデルキャラクタを仮想空間で再現できる。
(11)慣性再適用
慣性再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの動き難さの再適用である。例えば現実空間で物体Aと物体Bの動きを撮影し、動画から得られた物体Aの動き難さを、仮想空間における物体Bのオブジェクトの動きに適用することにより、現実空間における物体Aの動き難さを仮想空間の物体Bのオブジェクトで再現できる。また、例えば動画から得られた怪獣の動きと人の動きとを仮想空間の3Dモデルキャラクタに適用することで、怪獣のように動く人の3Dモデルキャラクタを仮想空間で再現できる。
図12は一実施形態に係るS20の処理の一例を示すフローチャートである。図12は撮影データから、現実空間の人や物体が指し示す位置を検出し、検出結果により仮想空間の3DモデルキャラクタなどがUI選択の処理を行う例である。
ステップS71において、サーバ30は受信した撮影データから現実空間の状態(人の指先の位置、人が持つ指示棒の先端の位置など)を分析する処理を行う。ステップS72に進み、サーバ30は分析結果を仮想空間のUI選択に適用する以下の(12)及び(13)の処理を行う。
(12)UI選択(単一)
UI選択(単一)は、現実空間の撮影結果に応じた仮想空間内のキャラクタによる単一のUI選択に適用する。例えば現実空間において撮影した人の体の一部(指先など)や人の持つ物体の一部(先端など)の位置を動画像から検出し、検出した位置を仮想空間の例えばポインタの表示位置に適用することにより、現実空間における人の指先の移動で仮想空間の3Dモデルキャラクタによる単一のUIの選択に適用できる。
(13)UI選択(複数)
UI選択(複数)は、現実空間の撮影結果に応じた仮想空間内のキャラクタによる複数のUI選択に適用する。例えば現実空間において撮影した人の体の一部(指先など)や人の持つ物体の一部(先端など)の位置の移動を動画像から検出し、検出した位置の移動を仮想空間の例えばポインタによる範囲選択に適用することにより、現実空間における人の指先の移動で仮想空間の3Dモデルキャラクタによる複数のUIの選択に適用できる。
図13は一実施形態に係るS20の処理の一例を示すフローチャートである。図13は撮影データの分析結果を、仮想空間における判定や動き補正に適用する処理を行う例である。
ステップS81においてサーバ30は撮影データから現実空間の状態(人や物体の動きや位置、照明環境、反射特性等)を分析する処理を行う。ステップS82に進み、サーバ30は分析結果を仮想空間内における判定、又は、動き補正に適用する以下の(14)から(18)の処理を行う。
(14)位置判定
位置判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置による判定への適用である。例えば位置判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置によるゲーム進行に利用できる。例えば現実空間のユーザの移動を「もう少し左に行って」等と指示しながら撮影し、現実空間のユーザの移動と連携して仮想空間のキャラクタ等のオブジェクトを移動させることにより、仮想空間の床スイッチをONしてゲームを進行させる処理が一例として考えられる。
(15)衝突判定
衝突判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクト同士の衝突による判定への適用である。例えば衝突判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクト同士の衝突を、ゲーム進行に利用できる。例えば現実空間で物体を投げる様子を撮影し、動画から得られた物体の動きを仮想空間の3Dモデルキャラクタ等のオブジェクトに適用することで、現実空間に無い別の3Dモデルキャラクタ等のオブジェクトと衝突させてゲームを進行させる処理が一例として考えられる。
(16)照明判定
照明判定は、現実空間の撮影結果に応じた照明環境による判定への適用である。例えば照明判定は、現実空間の撮影結果に応じた照明環境を仮想空間に適用することで、仮想空間の照明環境を指定の照明環境に変化させてゲームを進行させる処理が一例として考えられる。なお、上記した照明判定のゲームへの適用例については後述する。
(17)反射特性判定
反射特性判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明反射特定の判定への適用である。例えば反射特性判定は、仮想空間に「くすんだ鏡」があり、現実空間のキラキラした鏡や磨かれた金属球などの物体を撮影して仮想空間の「くすんだ鏡」に適用してキラキラした鏡に変化させることでゲームを進行させる処理が一例として考えられる。なお、上記した反射特性判定のゲームへの適用例については後述する。
(18)動き補正
動き補正は、現実空間の撮影結果に応じた仮想空間内のキャラクタの動き補正への適用である。例えば動き補正は、現実空間において撮影したプレイヤのパンチの動きなどを仮想空間のキャラクタが再現する際に、プロのボクサーなどのパンチの動きでプレイヤのパンチの動きを補正する。
[照明判定のゲームへの適用例]
図14は一実施形態に係る照明判定の処理を適用したゲームの一例のフローチャートである。図15は一実施形態に係る照明判定の処理を適用したゲームの一例の画面イメージ図である。図14及び図15は暗闇に覆われた仮想空間に現実空間の照明環境を適用することで、隠されたオブジェクトを発見し、そのオブジェクトを用いて進行させるゲーム例を示している。
ステップS100において、携帯端末20は例えば図15(A)に示すような画面1000を表示する。図15(A)の画面1000は、仮想空間1002の照度が低く、仮想空間1002に存在しているオブジェクト(ドア1008、鍵1010など)をユーザが認識できない例を表している。
また、画面1000には、複数の選択肢の中から、仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン1004と、仮想空間1002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン1006と、が設けられている。
仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン1004が押下されると、携帯端末20はステップS102に続いてステップS104に進み、ユーザ操作に応じて現実空間の撮影ができるように撮影装置126を起動する。ユーザは周囲の風景など、照度が高い現実空間を撮影する。
撮影された現実空間の撮影データはサーバ30に送信される。サーバ30はステップS106に進み、受信した現実空間の撮影データから、現実空間の照明環境(照度、光の方向、色など)を計算により分析する。なお、現実空間の撮影データから、現実空間の照明環境を計算する処理は既存の技術を利用すればよい。
ステップS108に進み、サーバ30は分析した現実空間の照明環境を、仮想空間1002の画像データに再適用(反映)させる。ステップS110に進み、サーバ30は仮想空間1002に存在している物体(ドア1008、鍵1010)への照度が、ユーザが物体を認識できる一定範囲内であるか否かを判定する。
仮想空間1002に存在している物体への照度が、ユーザが物体を認識できる一定範囲内であれば、サーバ30は携帯端末20に例えば図15(B)に示すような画面1000を表示させるための仮想空間1002の画像データを送信し、ステップS112の処理に進む。
図15(B)の画面1000は、仮想空間1002の照度が高く、仮想空間1002に存在しているオブジェクト(ドア1008、鍵1010など)をユーザが認識できる例を表している。ドア1008及び鍵1010は、ユーザがゲームを進行させる為に利用する物体の一例である。
ステップS112において、ユーザは携帯端末20に表示された図15(B)の画面1000に存在するドア1008及び鍵1010を認識できるので、鍵1010を使ってドア1008から別の場所に進むなど、ゲームを進行させることができる。
このように、一実施形態に係る照明判定の処理を適用したゲームでは、現実空間の照明環境を仮想空間1002に適用できるので、仮想空間1002の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。
[反射特性判定のゲームへの適用例]
図16は一実施形態に係る反射特性判定の処理を適用したゲームの一例のフローチャートである。図17は一実施形態に係る反射特性判定の処理を適用したゲームの一例の画面イメージ図である。図16及び図17は仮想空間に存在する反射特性の弱いオブジェクトに、現実世界に存在する鏡面反射特性の強い金属などの反射特性を適用することで、そのオブジェクトに当たっている光を反射し、反射した光を用いて進行させるゲーム例を示している。
ステップS200において、携帯端末20は例えば図17(A)に示すような画面2000を表示する。図17(A)の画面2000は、仮想空間2002に存在する鏡のオブジェクト2008の反射特性が、例えば鏡がくすんでいる等の理由で弱く、オブジェクト2008に当たっている光2012が反射できない例を表している。
また、画面2000には、複数の選択肢の中から、仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン2004と、仮想空間2002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン2006と、が設けられている。
仮想空間2002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン2006が押下されると、携帯端末20はステップS202に続いてステップS204に進み、ユーザ操作に応じて現実空間の撮影ができるように撮影装置126を起動する。ユーザは磨かれた金属球や鏡など、反射特性の強い現実空間の物体を撮影する。
撮影された現実空間の撮影データはサーバ30に送信される。サーバ30はステップS206に進み、受信した現実空間の撮影データから、現実空間の物体の反射特性を計算により分析する。なお、現実空間の撮影データから、現実空間の物体の反射特性を計算により分析する処理は、例えば機械学習を利用して撮影データから表面材質を推定する技術などの既存の技術を利用し、推定した表面材質の反射特性を採用すればよい。
ステップS208に進み、サーバ30は分析した現実空間の物体の反射特性を、仮想空間2002の画像データに存在する鏡のオブジェクト2008に再適用(反映)させる。ステップS210に進み、サーバ30は仮想空間1002に存在している鏡のオブジェクト2008の反射特性(反射率)が、光2012を反射できる一定の反射特性を持つか否かを判定する。
仮想空間2002に存在している鏡のオブジェクト2008の反射特性が、光2012を反射できる一定の反射特性を持っていれば、サーバ30は携帯端末20に例えば図17(B)に示すような画面2000を表示させるための仮想空間2002の画像データを送信し、ステップS212の処理に進む。
図17(B)の画面2000は、仮想空間2002に存在する鏡のオブジェクト2008が、くすんでいる状態から磨かれた状態に変わることで反射特性が強くなり、鏡のオブジェクト2008に当たっている光2012が反射できている例を表している。鏡のオブジェクト2008により反射された光2012はオブジェクト2010の輪を通っている例を示している。オブジェクト2008及び2010は、ユーザがゲームを進行させる為に利用する物体の一例である。
ステップS212において、ユーザは携帯端末20に表示された図17(B)の画面2000に存在する鏡のオブジェクト2008の反射特性を変更できるので、鏡で反射させた光2012を別のオブジェクト2010の輪を通す、別のオブジェクトを照らす、などの課題をクリアし、ゲームを進行させることができる。
このように、一実施形態に係る反射特性判定の処理を適用したゲームでは現実空間の物体の反射特性を仮想空間2002のオブジェクト2008に適用することができるので、仮想空間2002の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。
開示した一実施形態に係る情報処理システム10、携帯端末20及びサーバ30は例示であって制限的なものではないと考えられるべきである。上記の実施形態は添付の請求の範囲及びその主旨を逸脱することなく、様々な形態で変形及び改良が可能である。また、上記した複数の実施形態に記載された事項は、矛盾しない範囲で他の構成も取り得ることができ、また、矛盾しない範囲で組み合わせることができる。
また、開示した一実施形態に係る情報処理システム10は、脱出ゲームなどのアドベンチャーゲームにおける謎解きの場面、ロールプレイングゲームにおいて課題をクリアする場面、など、様々なジャンルのゲームに適用できる。
本開示によれば、スマートデバイスなどの携帯端末20で撮影した撮影データから現実空間の情報を分析し、分析した情報を仮想空間に反映(転写)することができる。例えば現実空間の状態(動き、照明環境、反射特性、弾性、慣性、位置など)を仮想空間へ手軽に再現できる新たな仕組みを提供することで、幅広いユーザの体験を豊かにできる。
10 情報処理システム
20 携帯端末
21 記憶部
22 制御部
23 操作部
24 表示部
25 端末側通信部
26 撮影部
27 プログラム
30 サーバ
31 記憶部
32 サーバ制御部
33 サーバ側通信部
35 サーバプログラム
40 ネットワーク
50、60 分析部
52、62 反映部
54、64 進行制御部
1002、2002 仮想空間
1008 ドアのオブジェクト
1010 鍵のオブジェクト
2008 鏡のオブジェクト
2010 輪の形状のあるオブジェクト

Claims (7)

  1. 情報処理装置を、
    撮影データから現実空間の情報を分析する分析手段、
    分析した前記情報を仮想空間の画像データに反映させる反映手段、
    前記仮想空間の画像データを表示する表示手段、
    前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、
    として機能させるためのプログラム。
  2. 前記分析手段は、撮影データから現実空間の照明環境を計算し、
    前記反映手段は、計算した前記照明環境を仮想空間の画像データに適用し、
    前記進行制御手段は、前記仮想空間の画像データに適用した前記照明環境に応じて前記ゲームの進行を制御すること
    を特徴とする請求項1記載のプログラム。
  3. 複数の選択肢の中から、前記仮想空間の照明環境に前記撮影データから計算した前記現実空間の照明環境を適用する操作の選択をユーザから受け付ける操作手段、
    を更に有することを特徴とする請求項2記載のプログラム。
  4. 前記分析手段は、撮影データから現実空間の反射特性を計算し、
    前記反映手段は、計算した前記反射特性を仮想空間の画像データに含まれるオブジェクトに適用し、
    前記進行制御手段は、前記仮想空間の画像データに含まれる前記オブジェクトに適用した前記反射特性に応じて前記ゲームの進行を制御すること
    を特徴とする請求項1記載のプログラム。
  5. 複数の選択肢の中から、前記仮想空間の画像データに含まれる前記オブジェクトに前記撮影データから計算した前記現実空間の反射特性を提供する操作の選択をユーザから受け付ける操作手段、
    を更に有することを特徴とする請求項4記載のプログラム。
  6. 情報処理装置が、
    撮影データから現実空間の情報を分析する分析ステップと、
    分析した前記情報を仮想空間の画像データに反映させる反映ステップと、
    前記仮想空間の画像データを表示する表示ステップと、
    前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御ステップと、
    を実行する情報処理方法。
  7. 撮影データから現実空間の情報を分析する分析手段と、
    分析した前記情報を仮想空間の画像データに反映させる反映手段と、
    前記仮想空間の画像データを表示する表示手段と、
    前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段と、
    を有する情報処理装置。
JP2019203247A 2018-11-09 2019-11-08 プログラム、情報処理方法及び情報処理装置 Active JP7433847B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862757835P 2018-11-09 2018-11-09
US62/757,835 2018-11-09

Publications (2)

Publication Number Publication Date
JP2020075137A true JP2020075137A (ja) 2020-05-21
JP7433847B2 JP7433847B2 (ja) 2024-02-20

Family

ID=70724769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203247A Active JP7433847B2 (ja) 2018-11-09 2019-11-08 プログラム、情報処理方法及び情報処理装置

Country Status (1)

Country Link
JP (1) JP7433847B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113713393A (zh) * 2021-08-27 2021-11-30 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置和存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015931A1 (en) * 2012-07-12 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for processing virtual world
JP2016011874A (ja) * 2014-06-27 2016-01-21 キヤノン株式会社 画像処理装置およびその方法
US20180250585A1 (en) * 2016-12-30 2018-09-06 Verifood, Ltd. System, device and method of running game based on spectrometer data
JP2018143475A (ja) * 2017-03-06 2018-09-20 株式会社スクウェア・エニックス プログラム及びシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015931A1 (en) * 2012-07-12 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for processing virtual world
JP2016011874A (ja) * 2014-06-27 2016-01-21 キヤノン株式会社 画像処理装置およびその方法
US20180250585A1 (en) * 2016-12-30 2018-09-06 Verifood, Ltd. System, device and method of running game based on spectrometer data
JP2018143475A (ja) * 2017-03-06 2018-09-20 株式会社スクウェア・エニックス プログラム及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
竹村治雄: "バーチャルリアリティ(VR)と AR・MRの現状と課題", バーチャルリアリティ学会, JPN6023028901, 27 November 2017 (2017-11-27), pages 48, ISSN: 0005108228 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113713393A (zh) * 2021-08-27 2021-11-30 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置和存储介质及电子设备
CN113713393B (zh) * 2021-08-27 2023-05-30 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置和存储介质及电子设备

Also Published As

Publication number Publication date
JP7433847B2 (ja) 2024-02-20

Similar Documents

Publication Publication Date Title
US10445884B2 (en) Control device for communicating visual information
US10262461B2 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US8502825B2 (en) Avatar email and methods for communicating between real and virtual worlds
US9898675B2 (en) User movement tracking feedback to improve tracking
CN111013142B (zh) 互动效果显示方法、装置、计算机设备及存储介质
JP7050883B2 (ja) 中心窩レンダリングシステムにおける、遅延ライティングの最適化、パーティクルの中心窩適応、及びシミュレーションモデル
US20180357817A1 (en) Information processing method, program, and computer
CN112156464B (zh) 虚拟对象的二维形象展示方法、装置、设备及存储介质
US10166477B2 (en) Image processing device, image processing method, and image processing program
KR20120052228A (ko) 사용자로부터 학습된 입력을 통해 비주얼 형상을 활성화하는 방법
US20180321817A1 (en) Information processing method, computer and program
TW200840626A (en) Game device, method for controlling the game device, and information recording medium
US20210146265A1 (en) Augmented reality system for enhancing the experience of playing with toys
CN114080259A (zh) 程序、方法以及信息终端装置
WO2022267729A1 (zh) 基于虚拟场景的互动方法、装置、设备、介质及程序产品
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN113274729A (zh) 基于虚拟场景的互动观察方法、装置、设备及介质
JP6785325B2 (ja) ゲームプログラム、方法、および情報処理装置
JP7433847B2 (ja) プログラム、情報処理方法及び情報処理装置
CN112156454A (zh) 虚拟对象的生成方法、装置、终端及可读存储介质
CN116964674A (zh) 用于添加对应于视频中检测到的对象运动的视觉效果或音频效果的自动化视频编辑
JP6826626B2 (ja) 視聴プログラム、視聴方法、および視聴端末
JP7356827B2 (ja) プログラム、情報処理方法、及び情報処理装置
CN113633970A (zh) 动作效果的显示方法、装置、设备及介质
CN113713371B (zh) 音乐合成方法、装置、设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230911

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7433847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150