JP7433847B2 - Program, information processing method, and information processing device - Google Patents
Program, information processing method, and information processing device Download PDFInfo
- Publication number
- JP7433847B2 JP7433847B2 JP2019203247A JP2019203247A JP7433847B2 JP 7433847 B2 JP7433847 B2 JP 7433847B2 JP 2019203247 A JP2019203247 A JP 2019203247A JP 2019203247 A JP2019203247 A JP 2019203247A JP 7433847 B2 JP7433847 B2 JP 7433847B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- image data
- space
- information
- real space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 38
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000004458 analytical method Methods 0.000 claims description 24
- 238000005286 illumination Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 230000008859 change Effects 0.000 description 10
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 8
- 235000015110 jellies Nutrition 0.000 description 8
- 239000008274 jelly Substances 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 229910052742 iron Inorganic materials 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 238000004080 punching Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 101100452374 Mus musculus Ikbke gene Proteins 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本開示はプログラム、情報処理方法及び情報処理装置に関する。 The present disclosure relates to a program, an information processing method, and an information processing device.
近年、VR(仮想現実:Virtual Reality)、AR(拡張現実:Augmented Reality)及びMR(複合現実:Mixed Reality)などの仮想空間を作成する技術の普及に伴い、仮想空間を利用したゲームが増えつつある(例えば特許文献1参照)。 In recent years, with the spread of technologies for creating virtual spaces such as VR (Virtual Reality), AR (Augmented Reality), and MR (Mixed Reality), the number of games that use virtual spaces has been increasing. (For example, see Patent Document 1).
VRなどの仮想空間を利用する従来のゲームでは、映像世界への没入感が高く、エンタテイメント性を高める効果があるが、プレイヤに対するエンタテイメント性の更なる向上が期待されている。 Conventional games that utilize virtual spaces such as VR provide a high sense of immersion in the video world and have the effect of increasing entertainment, but further improvements in entertainment for players are expected.
本開示は、仮想空間の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供することを課題とする。 An object of the present disclosure is to provide a new mechanism that improves the entertainment value of a game that uses images in a virtual space.
本開示の一の態様によれば、情報処理装置を、撮影データから現実空間の情報を分析する分析手段、分析した前記情報を仮想空間の画像データに反映させる反映手段、前記仮想空間の画像データを表示する表示手段、前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、として機能させるためのプログラムが提供される。 According to one aspect of the present disclosure, an information processing device includes an analysis unit for analyzing information in a real space from photographed data, a reflection unit for reflecting the analyzed information on image data in a virtual space, and an image data in the virtual space. A program is provided for functioning as a display means for displaying the image data of the virtual space, and a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space.
一の側面によれば、仮想空間の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。 According to one aspect, it is possible to provide a new mechanism that improves the entertainment value of a game that uses images in virtual space.
以下、本開示を実施するための形態について図面を参照して説明する。 Hereinafter, embodiments for implementing the present disclosure will be described with reference to the drawings.
[情報処理システム]
まず、一実施形態に係る情報処理システム10について、図1を参照して説明する。一実施形態に係る情報処理システム10は、携帯端末20a、20b、20cとサーバ30とが、インターネットやLAN(ローカルエリアネットワーク)などのネットワーク40を介して通信可能に接続された構成である。なお、携帯端末20a、20b、20cは総称して「携帯端末20」とも呼ぶ。
[Information processing system]
First, an
携帯端末20はユーザが操作する情報処理装置の一例である。情報処理装置は撮影機能を有するスマートフォンなどの携帯電話機、携帯ゲーム機、パーソナルコンピュータ、タブレット端末、家庭用ゲーム装置、業務用ゲーム装置等である。撮影機能は、内蔵のカメラにより実現されるものであっても、外付けのカメラにより実現されるものであってもよい。携帯端末20はユーザからの操作をタッチパネル等により受け付け、その操作に応じた情報処理を行う。なお、携帯端末20の個数は3つに限定されるものではなく、3つ以外であってもよい。
The
サーバ30は携帯端末20との間でデータを送受信することで、後述の各種機能を実現する情報処理装置の一例である。サーバ30は、クラウドコンピュータにより実現してもよい。なお、図1に示したサーバ30の個数は、1つに限定されるものではなく、2つ以上で分散処理してもよい。
The
図1の情報処理システム10はサーバ30が含まれる例を示したが、サーバ30が行う各種処理を携帯端末20が実現できるのであれば、サーバ30が省略されてもよく、携帯端末20がネットワーク40に接続されていなくてもよい。
Although the
図2は、携帯端末20のハードウェア構成の一例を示す図である。携帯端末20は、CPU(Central Processing Unit)121、記憶装置122、通信装置123、入力装置124、表示装置125及び撮影装置126を有する。CPU121は、携帯端末20を制御する。記憶装置122は、例えばROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ、HDD(Hard Disk Drive)やSSD(Solid State Drive)などのストレージである。
FIG. 2 is a diagram showing an example of the hardware configuration of the
通信装置123は、通信を制御するネットワーク回路などの通信デバイスである。入力装置124はタッチパネルのタッチパッド(位置入力装置)、カメラ、マイクなどの入力デバイスである。表示装置125はタッチパネルのディスプレイ、スピーカなどの出力デバイスである。タッチパネルはタッチパッドとディスプレイとを組み合わせることで実現される。撮影装置126はカメラであって、ユーザ操作に応じて撮影を行い、現実空間の撮影データを出力する。
The
図3は、サーバ30のハードウェア構成の一例を示す図である。サーバ30は、CPU131、記憶装置132及び通信装置133を有する。CPU131は、サーバ30を制御する。記憶装置132は、例えばROMやRAMなどのメモリ、HDDやSSDなどのストレージである。通信装置133は、通信を制御するネットワークカードなどの通信デバイスである。
FIG. 3 is a diagram showing an example of the hardware configuration of the
図4は、携帯端末20の機能構成の一例を示す図である。図4の携帯端末20は、記憶部21、制御部22、操作部23、表示部24、端末側通信部25及び撮影部26を有する。記憶部21は、プログラム27、そのプログラム27が利用するデータなどを記憶している。なお、記憶部21は、記憶装置122により実現されてもよいし、ネットワーク40を介して接続された記憶装置により実現されてもよい。
FIG. 4 is a diagram showing an example of the functional configuration of the
図4に戻り、制御部22は、携帯端末20の全体の制御を行う。制御部22は、CPU121がプログラム27に記載された処理を実行することにより実現される。操作部23は入力装置124に対するユーザの各種操作を受け付ける。表示部24は表示装置125に例えばゲーム空間などの仮想空間の画像を表示する。なお、操作部23はCPU121が入力装置124を制御することで実現される。また、表示部24は、CPU121が表示装置125を制御することで実現される。
Returning to FIG. 4, the
仮想空間の画像は仮想現実の画像に限定するものではなく、拡張現実及び複合現実の画像も含むものとする。制御部22はユーザから受け付けた各種操作に基づき、ゲームなどの処理を進行させる。表示部24は制御部22が生成した後述のような仮想空間の画像を表示する。端末側通信部25は、サーバ30と通信する。端末側通信部25はCPU121がプログラム27に従って通信装置123を制御することで実現される。
Images in virtual space are not limited to images in virtual reality, but also include images in augmented reality and mixed reality. The
図5は、サーバ30の機能構成の一例を示す図である。図5のサーバ30は、記憶部31、サーバ制御部32及びサーバ側通信部33を有する。記憶部31は、サーバプログラム35、そのサーバプログラム35が利用するデータなどを記憶している。なお、記憶部31は記憶装置132により実現されてもよいし、ネットワーク40を介して接続された記憶装置により実現されてもよい。
FIG. 5 is a diagram showing an example of the functional configuration of the
図5に戻り、サーバ制御部32は、サーバ30の全体の制御を行う。サーバ制御部32は、CPU131がサーバプログラム35に記載された処理を実行することにより実現される。サーバ側通信部33は、携帯端末20と通信する。サーバ側通信部33は、CPU131がサーバプログラム35を実行し、サーバプログラム35に従って通信装置133を制御することで実現される。
Returning to FIG. 5, the
[処理概要]
以下、一実施形態に係る情報処理システム10の処理概要について図6及び図7を用いて説明する。図6及び図7は一実施形態に係る情報処理システムの処理概要の一例を示す図である。図6は携帯端末20により実現する処理概要を示している。図6の情報処理システム10の例ではサーバ30が省略されてもよい。図7は携帯端末20及びサーバ30が協働して実現する処理概要を示している。
[Outline of processing]
Hereinafter, an overview of the processing of the
図6のステップS10においてスマートデバイスなどの携帯端末20を操作するユーザは、撮影部26で現実空間内の人、物体、照明環境などを撮影する。ステップS20において、携帯端末20の制御部22は受信した撮影データから現実空間の情報(人の動きや位置、物体の動き、照明環境、反射特性、弾性、慣性又は位置等)を分析し、分析した情報を表示部24が出力する仮想空間の画像データに反映させる処理を行う。ステップS30において表示部24は、ステップS20で分析された情報が反映された仮想空間の画像データを出力する。
In step S10 of FIG. 6, a user operating the
また、図7のステップS10において、スマートデバイスなどの携帯端末20を操作するユーザは、撮影部26で現実空間内の人、物体、照明環境などを撮影する。携帯端末20は撮影データをサーバ30に送信する。
Further, in step S10 of FIG. 7, the user operating the
ステップS20において、サーバ30は受信した撮影データから現実空間の情報を分析し、分析した情報を携帯端末20が出力する仮想空間の画像データに反映させる処理を行う。サーバ30は分析した情報を反映させた仮想空間の画像データを携帯端末20に送信する。仮想空間の画像データを受信した携帯端末20はステップS30において、サーバ30から受信した仮想空間の画像データを出力する。
In step S20, the
なお、図6及び図7に示した情報処理システム10の処理概要は一例であって、例えばステップS20の「撮影データから現実空間の情報を分析し、分析した情報を仮想空間に反映させる処理」を携帯端末20とサーバ30とで分散して行うようにしてもよい。
Note that the processing outline of the
図6に示した情報処理システム10の処理概要の場合、携帯端末20の制御部22は例えば図8に示す機能構成である。図8は制御部の機能構成の一例を示す図である。図8の制御部22は分析部50、反映部52、及び進行制御部54を有する。分析部50は撮影データから現実空間の情報を分析する。反映部52は分析した情報を携帯端末20が出力する仮想空間の画像データに反映させる。
In the case of the processing outline of the
進行制御部54は仮想空間の画像を利用するゲームの進行を制御する。進行制御部54は仮想空間の画像データに反映させた、撮影データから分析した現実空間の情報に応じてゲームの進行を制御する。
The
また、図7に示した情報処理システム10の処理概要の場合、サーバ30のサーバ制御部32は例えば図9に示す機能構成である。図9はサーバ制御部の機能構成の一例を示す図である。図9のサーバ制御部32は分析部60、反映部62、及び進行制御部64を有する。図9の分析部60、反映部62、及び進行制御部64は、図8の分析部50、反映部52、及び進行制御部54と同様であるため、説明を省略する。
Furthermore, in the case of the processing overview of the
[ステップS20の処理の詳細]
以下では、図7に示した情報処理システム10の処理概要の場合の例を説明する。
[Details of processing in step S20]
An example of the processing outline of the
図10は一実施形態に係るS20の処理の一例を示すフローチャートである。図10は撮影データから、現実空間の情報を分析し、人や物体の動き、反射特性、衣類、弾性、慣性、位置、照明環境などを仮想空間で再現する処理を行う例である。 FIG. 10 is a flowchart illustrating an example of the process of S20 according to an embodiment. FIG. 10 is an example of processing to analyze real space information from photographic data and reproduce the movement of people and objects, reflection characteristics, clothing, elasticity, inertia, position, lighting environment, etc. in virtual space.
ステップS51において、サーバ30は受信した撮影データから現実空間の状態(人の動きや位置、物体の動き、反射特性、弾性、慣性又は位置、照明環境等)を分析する処理を行う。ステップS52に進み、サーバ30は分析結果を仮想空間内のキャラクタや物体などのオブジェクトで再現する以下の(1)から(7)の処理を行う。
In step S51, the
(1)動き再現
動き再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの動きの適用である。例えば現実空間において直接撮影した情報(人の動きなど)を仮想空間の3Dモデルキャラクタ等のオブジェクトの動きに適用する。
(1) Movement Reproduction Movement reproduction is the application of movement to an object such as a character in a virtual space in accordance with the result of photographing the real space. For example, information directly captured in real space (such as the movement of a person) is applied to the movement of an object such as a 3D model character in virtual space.
(2)照明再現
照明再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明環境の適用である。例えば現実空間の明るさ、光が差す方向、間接照明の具合などの照明環境を仮想空間内の3Dモデルキャラクタ等のオブジェクトへの照明環境として適用する。
(2) Lighting Reproduction Lighting reproduction is the application of a lighting environment to an object such as a character in a virtual space according to the result of photographing a real space. For example, the lighting environment such as the brightness of the real space, the direction of light, and the condition of indirect lighting is applied as the lighting environment to an object such as a 3D model character in the virtual space.
(3)反射特性再現
反射特性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明反射特性の適用である。例えばシャンデリアの反射や光沢のある布地に対する反射などの光の反射の仕方を、3Dモデルキャラクタ等のオブジェクトに適用する。また、反射特性から測定可能な表面材質に基づき、3Dモデルキャラクタ等のオブジェクトの「つるつる感」や「ザラザラ感」の表現に適用する。
(3) Reflection characteristic reproduction Reflection characteristic reproduction is the application of illumination reflection characteristics to an object such as a character in a virtual space according to the result of photographing the real space. For example, the way light is reflected, such as reflection from a chandelier or reflection from shiny cloth, is applied to an object such as a 3D model character. Furthermore, it is applied to express the "smoothness" or "roughness" of objects such as 3D model characters based on the surface material that can be measured from the reflection characteristics.
(4)衣類再現
衣類再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの衣服への動きの適用である。例えば現実空間において衣服を着た人を動画で撮影し、動画から得られた衣服の揺れ情報を仮想空間の衣服の揺れ(動き)に適用する。例えば麻、絹などの素材による揺れの違いや、布の厚さや重さによる揺れの違いを、仮想空間の衣服の揺れに適用する。
(4) Clothes Reproduction Clothes reproduction is the application of movement to the clothes of an object such as a character in a virtual space in accordance with the photographic result of the real space. For example, a video of a person wearing clothes is taken in real space, and information about the movement of the clothes obtained from the video is applied to the movement of the clothes in virtual space. For example, the differences in sway due to materials such as linen and silk, as well as the differences in sway due to the thickness and weight of cloth, are applied to the sway of clothes in virtual space.
(5)弾性再現
弾性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの弾性の適用である。例えば現実空間においてボールの落下を撮影し、動画から得られたボールの落ち方、弾み方、揺れ方などを、例えば仮想空間の武器に適用することで、武器を落とした時の挙動などを再現できる。また、例えば現実空間においてゼリーが揺れている状態を撮影し、その動画から得られたゼリーの揺れ方を、例えば仮想空間のペットボトルに適用することで、ゼリーのように揺れるペットボトルを仮想空間で再現できる。
(5) Elastic Reproduction Elastic reproduction is the application of elasticity to an object such as a character in a virtual space according to the result of photographing the real space. For example, by photographing a falling ball in real space and applying the way the ball falls, bounces, and swings obtained from the video to a weapon in virtual space, the behavior of a dropped weapon can be recreated. can. In addition, for example, by taking a picture of jelly shaking in real space and applying the way the jelly shakes obtained from that video to, for example, a plastic bottle in virtual space, it is possible to create a plastic bottle that shakes like jelly in virtual space. It can be reproduced with
(6)慣性再現
慣性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの動き難さの適用である。例えば現実空間において物体の動きを撮影し、動画から得られた物体の動き難さを、仮想空間のオブジェクトの動きに適用することにより、現実空間における物体の動き難さを仮想空間のオブジェクトで再現できる。また、例えば現実空間において回転する物体の動きを撮影し、動画から得られた物体の回転のし難さを、仮想空間のオブジェクトの動きに適用することにより、現実空間における物体の回転のし難さを仮想空間のオブジェクトで再現できる。
(6) Inertial reproduction Inertial reproduction is the application of difficulty in movement to objects such as characters in virtual space according to the result of shooting in real space. For example, by photographing the movement of an object in real space and applying the difficulty of object movement obtained from the video to the movement of the object in virtual space, the difficulty of movement of the object in real space is reproduced with the object in virtual space. can. For example, by photographing the movement of a rotating object in real space and applying the difficulty of rotating the object obtained from the video to the movement of the object in virtual space, we can measure the difficulty of rotating the object in real space. can be reproduced with objects in virtual space.
(7)位置再現
位置再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置の移動への適用である。例えば現実空間において移動する人やボールを撮影し、動画から得られた人やボールの位置の移動を、仮想空間の3Dモデルキャラクタ等のオブジェクトの位置の移動に適用することにより、現実空間における人やボールなどの位置の移動を仮想空間の3Dモデルキャラクタ等のオブジェクトで再現できる。
(7) Position Reproduction Position reproduction is an application to the movement of the position of an object such as a character in a virtual space according to the result of photographing the real space. For example, by photographing a person or a ball moving in real space and applying the movement of the position of the person or ball obtained from the video to the movement of the position of an object such as a 3D model character in virtual space, it is possible to It is possible to reproduce the movement of the position of objects such as or balls using objects such as 3D model characters in virtual space.
図11は一実施形態に係るS20の処理の一例を示すフローチャートである。図11は撮影データから、現実空間の情報を分析し、人や物体の動き、衣類、弾性、慣性などを仮想空間で再適用する処理を行う例である。 FIG. 11 is a flowchart illustrating an example of the process of S20 according to an embodiment. FIG. 11 is an example of processing in which real space information is analyzed from photographic data and the movement of people and objects, clothing, elasticity, inertia, etc. are reapplied in virtual space.
ステップS61において、サーバ30は受信した撮影データから現実空間の状態(人の動き、物体の動き、弾性又は慣性等)を分析する処理を行う。ステップS62に進み、サーバ30は分析結果を仮想空間で再適用する以下の(8)から(11)の処理を行う。
In step S61, the
(8)動き再適用
動き再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの動きの再適用である。例えば現実空間においてダンスが下手なユーザAとダンスが上手なユーザBとがダンスする様子をそれぞれ撮影する。動画から得られたユーザAのダンスの動きを、ユーザBのダンスの動きで補正した後、仮想空間の3Dモデルキャラクタの動きに適用することにより、ユーザAの個性を残しつつユーザBの上手なダンスの動きで補正されたユーザAのダンスの動きを、仮想空間の3Dモデルキャラクタ等で再現できる。
(8) Motion reapplication Motion reapplication is the reapplication of motion to another object, such as another character, in the virtual space in accordance with the photographing result of the real space. For example, user A, who is bad at dancing, and user B, who is good at dancing, are each photographed dancing in real space. By correcting user A's dance movements obtained from the video with user B's dance movements, and then applying it to the movements of the 3D model character in virtual space, user A's individuality is preserved while user B's skill is improved. User A's dance movement corrected by the dance movement can be reproduced with a 3D model character or the like in a virtual space.
例えばプレイヤキャラクタが敵キャラクタを爽快になぎ倒す一騎当千のゲーム(いわゆる無双ゲーム)に適用する場合は、ゲームが下手なプレイヤAとゲームが上手なプレイヤBとがゲームをプレイする様子をそれぞれ撮影する。動画から得られたプレイヤAのプレイの動きを、プレイヤBのプレイの動きで補正した後、仮想空間のプレイヤキャラクタの動きに適用することにより、プレイヤAの個性を残しつつプレイヤBの上手なプレイの動きで補正されたプレイヤAのプレイヤの動きを、仮想空間のプレイヤキャラクタ等で再現できる。 For example, when applied to a game of Ikki Tousen where a player character exhilaratingly defeats an enemy character (a so-called Musou game), a player A who is bad at the game and a player B who is good at the game are each photographed playing the game. Player A's play movements obtained from the video are corrected with Player B's play movements, and then applied to the movement of the player character in the virtual space to improve Player B's skillful play while preserving Player A's individuality. The movement of player A corrected by the movement can be reproduced with the player character in the virtual space.
(9)衣類再適用
衣類再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等への衣服の動きの再適用である。例えば現実空間においてユーザAの衣服の動き(揺れ)とユーザBの動きとをそれぞれ撮影する。動画から得られたユーザAの衣服の動きの特性とユーザBの動きとを仮想空間の3Dモデルキャラクタに適用することで、ユーザBに合わせて動く仮想空間の3Dモデルキャラクタの衣服の動きを、ユーザAの衣服の動きの特性で再現できる。
(9) Clothes reapplication Clothes reapplication is reapplying the movement of clothes to another character in the virtual space according to the photographing result of the real space. For example, the movement (sway) of user A's clothing and the movement of user B are each photographed in real space. By applying the movement characteristics of user A's clothes obtained from the video and the movements of user B to the 3D model character in the virtual space, the movement of the clothes of the 3D model character in the virtual space that moves in accordance with user B, This can be reproduced using the movement characteristics of user A's clothes.
(10)弾性再適用
弾性再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの弾性の再適用である。例えば現実空間において鉄球とゼリーの双方が落ちる映像をそれぞれ撮影する。動画から得られた鉄球の動きとゼリーの動きとを仮想空間の鉄球のオブジェクトに適用することで、ゼリーのように揺れながら落ちる鉄球を仮想空間で再現できる。また、例えば動画から得られた人の動きとゼリーの動きとを仮想空間の3Dモデルキャラクタに適用することで、ゼリーのように揺れながら動く3Dモデルキャラクタを仮想空間で再現できる。
(10) Re-application of elasticity Re-application of elasticity is re-application of elasticity to another object such as another character in the virtual space according to the photographing result of the real space. For example, images of both a falling iron ball and a jelly are shot in real space. By applying the movement of the iron ball and the jelly obtained from the video to the iron ball object in virtual space, it is possible to reproduce a falling iron ball shaking like jelly in virtual space. Further, by applying, for example, the movement of a person and the movement of a jelly obtained from a video to a 3D model character in a virtual space, a 3D model character that moves while shaking like a jelly can be reproduced in the virtual space.
(11)慣性再適用
慣性再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの動き難さの再適用である。例えば現実空間で物体Aと物体Bの動きを撮影し、動画から得られた物体Aの動き難さを、仮想空間における物体Bのオブジェクトの動きに適用することにより、現実空間における物体Aの動き難さを仮想空間の物体Bのオブジェクトで再現できる。また、例えば動画から得られた怪獣の動きと人の動きとを仮想空間の3Dモデルキャラクタに適用することで、怪獣のように動く人の3Dモデルキャラクタを仮想空間で再現できる。
(11) Re-application of inertia Re-application of inertia is re-applying the difficulty of movement to another object such as another character in the virtual space in accordance with the photographing result of the real space. For example, by photographing the movement of object A and object B in real space and applying the difficulty of movement of object A obtained from the video to the movement of object B in virtual space, the movement of object A in real space can be calculated. The difficulty can be reproduced using object B in virtual space. Furthermore, for example, by applying the movements of a monster and the movements of a person obtained from a video to a 3D model character in a virtual space, a 3D model character of a person that moves like a monster can be reproduced in the virtual space.
図12は一実施形態に係るS20の処理の一例を示すフローチャートである。図12は撮影データから、現実空間の人や物体が指し示す位置を検出し、検出結果により仮想空間の3DモデルキャラクタなどがUI選択の処理を行う例である。 FIG. 12 is a flowchart illustrating an example of the process of S20 according to an embodiment. FIG. 12 is an example in which a position pointed to by a person or object in real space is detected from photographic data, and a 3D model character or the like in virtual space performs UI selection processing based on the detection result.
ステップS71において、サーバ30は受信した撮影データから現実空間の状態(人の指先の位置、人が持つ指示棒の先端の位置など)を分析する処理を行う。ステップS72に進み、サーバ30は分析結果を仮想空間のUI選択に適用する以下の(12)及び(13)の処理を行う。
In step S71, the
(12)UI選択(単一)
UI選択(単一)は、現実空間の撮影結果に応じた仮想空間内のキャラクタによる単一のUI選択に適用する。例えば現実空間において撮影した人の体の一部(指先など)や人の持つ物体の一部(先端など)の位置を動画像から検出し、検出した位置を仮想空間の例えばポインタの表示位置に適用することにより、現実空間における人の指先の移動で仮想空間の3Dモデルキャラクタによる単一のUIの選択に適用できる。
(12) UI selection (single)
UI selection (single) applies to a single UI selection by a character in the virtual space according to the photographing result in the real space. For example, the position of a part of a person's body (such as a fingertip) or a part of an object held by a person (such as a tip) photographed in real space is detected from a video image, and the detected position is set as the display position of a pointer in virtual space, for example. By applying this method, it is possible to select a single UI by a 3D model character in a virtual space by moving a person's fingertip in a real space.
(13)UI選択(複数)
UI選択(複数)は、現実空間の撮影結果に応じた仮想空間内のキャラクタによる複数のUI選択に適用する。例えば現実空間において撮影した人の体の一部(指先など)や人の持つ物体の一部(先端など)の位置の移動を動画像から検出し、検出した位置の移動を仮想空間の例えばポインタによる範囲選択に適用することにより、現実空間における人の指先の移動で仮想空間の3Dモデルキャラクタによる複数のUIの選択に適用できる。
(13) UI selection (multiple)
UI selection (plurality) is applied to a plurality of UI selections by a character in the virtual space according to the photographing result of the real space. For example, the movement of a part of a person's body (such as a fingertip) or a part of an object held by a person (such as a tip) photographed in real space is detected from a video image, and the movement of the detected position is transferred to a pointer in virtual space, for example. By applying this method to range selection, it is possible to select multiple UIs using a 3D model character in virtual space by moving a person's fingertip in real space.
図13は一実施形態に係るS20の処理の一例を示すフローチャートである。図13は撮影データの分析結果を、仮想空間における判定や動き補正に適用する処理を行う例である。 FIG. 13 is a flowchart illustrating an example of the process of S20 according to an embodiment. FIG. 13 is an example of processing in which the analysis results of photographic data are applied to determination and motion correction in virtual space.
ステップS81においてサーバ30は撮影データから現実空間の状態(人や物体の動きや位置、照明環境、反射特性等)を分析する処理を行う。ステップS82に進み、サーバ30は分析結果を仮想空間内における判定、又は、動き補正に適用する以下の(14)から(18)の処理を行う。
In step S81, the
(14)位置判定
位置判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置による判定への適用である。例えば位置判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置によるゲーム進行に利用できる。例えば現実空間のユーザの移動を「もう少し左に行って」等と指示しながら撮影し、現実空間のユーザの移動と連携して仮想空間のキャラクタ等のオブジェクトを移動させることにより、仮想空間の床スイッチをONしてゲームを進行させる処理が一例として考えられる。
(14) Position Determination Position determination is applied to determination based on the position of an object such as a character in a virtual space according to the result of photographing the real space. For example, position determination can be used to advance a game based on the position of an object such as a character in a virtual space according to the result of photographing the real space. For example, by photographing the movement of a user in real space while instructing them to move a little further to the left, etc., and moving objects such as characters in virtual space in conjunction with the movement of the user in real space, the floor of virtual space can be An example of the process is to turn on a switch and proceed with the game.
(15)衝突判定
衝突判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクト同士の衝突による判定への適用である。例えば衝突判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクト同士の衝突を、ゲーム進行に利用できる。例えば現実空間で物体を投げる様子を撮影し、動画から得られた物体の動きを仮想空間の3Dモデルキャラクタ等のオブジェクトに適用することで、現実空間に無い別の3Dモデルキャラクタ等のオブジェクトと衝突させてゲームを進行させる処理が一例として考えられる。
(15) Collision Determination Collision determination is applied to determination based on collision between objects such as characters in a virtual space according to the result of photographing the real space. For example, in the collision determination, collisions between objects such as characters in the virtual space according to the photographed results of the real space can be used to advance the game. For example, by filming an object being thrown in real space and applying the movement of the object obtained from the video to an object such as a 3D model character in virtual space, it can collide with another object such as a 3D model character that is not in real space. An example of this is processing to advance the game.
(16)照明判定
照明判定は、現実空間の撮影結果に応じた照明環境による判定への適用である。例えば照明判定は、現実空間の撮影結果に応じた照明環境を仮想空間に適用することで、仮想空間の照明環境を指定の照明環境に変化させてゲームを進行させる処理が一例として考えられる。なお、上記した照明判定のゲームへの適用例については後述する。
(16) Illumination Judgment Illumination judgment is applied to judgment based on the lighting environment according to the result of photographing the real space. For example, an example of lighting determination may be a process in which the lighting environment in the virtual space is changed to a specified lighting environment by applying the lighting environment according to the photographing result of the real space to the virtual space, and the game progresses. Note that an application example of the above-described lighting determination to a game will be described later.
(17)反射特性判定
反射特性判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明反射特定の判定への適用である。例えば反射特性判定は、仮想空間に「くすんだ鏡」があり、現実空間のキラキラした鏡や磨かれた金属球などの物体を撮影して仮想空間の「くすんだ鏡」に適用してキラキラした鏡に変化させることでゲームを進行させる処理が一例として考えられる。なお、上記した反射特性判定のゲームへの適用例については後述する。
(17) Reflection Characteristic Determination Reflection characteristic determination is applied to determining the specificity of illumination reflection on objects such as characters in virtual space according to the photographing results of real space. For example, to determine reflection characteristics, there is a "dull mirror" in virtual space, and an object such as a sparkling mirror or a polished metal ball in real space is photographed and applied to the "dull mirror" in virtual space to make it sparkle. An example of processing that advances the game by changing it into a mirror can be considered. Note that an example of application of the above-mentioned reflection characteristic determination to a game will be described later.
(18)動き補正
動き補正は、現実空間の撮影結果に応じた仮想空間内のキャラクタの動き補正への適用である。例えば動き補正は、現実空間において撮影したプレイヤのパンチの動きなどを仮想空間のキャラクタが再現する際に、プロのボクサーなどのパンチの動きでプレイヤのパンチの動きを補正する。
(18) Motion Correction Motion correction is an application to correcting the movement of a character in a virtual space in accordance with the result of photographing the real space. For example, in motion correction, when a character in a virtual space reproduces the player's punching movement photographed in the real space, the player's punching movement is corrected using the punching movement of a professional boxer or the like.
[照明判定のゲームへの適用例]
図14は一実施形態に係る照明判定の処理を適用したゲームの一例のフローチャートである。図15は一実施形態に係る照明判定の処理を適用したゲームの一例の画面イメージ図である。図14及び図15は暗闇に覆われた仮想空間に現実空間の照明環境を適用することで、隠されたオブジェクトを発見し、そのオブジェクトを用いて進行させるゲーム例を示している。
[Example of application of lighting judgment to games]
FIG. 14 is a flowchart of an example of a game to which the lighting determination process according to the embodiment is applied. FIG. 15 is a screen image diagram of an example of a game to which the lighting determination process according to the embodiment is applied. FIGS. 14 and 15 show an example of a game in which a hidden object is discovered by applying the lighting environment of the real space to a virtual space covered in darkness, and the game progresses using the hidden object.
ステップS100において、携帯端末20は例えば図15(A)に示すような画面1000を表示する。図15(A)の画面1000は、仮想空間1002の照度が低く、仮想空間1002に存在しているオブジェクト(ドア1008、鍵1010など)をユーザが認識できない例を表している。
In step S100, the
また、画面1000には、複数の選択肢の中から、仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン1004と、仮想空間1002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン1006と、が設けられている。
The
仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン1004が押下されると、携帯端末20はステップS102に続いてステップS104に進み、ユーザ操作に応じて現実空間の撮影ができるように撮影装置126を起動する。ユーザは周囲の風景など、照度が高い現実空間を撮影する。
When the "change lighting environment"
撮影された現実空間の撮影データはサーバ30に送信される。サーバ30はステップS106に進み、受信した現実空間の撮影データから、現実空間の照明環境(照度、光の方向、色など)を計算により分析する。なお、現実空間の撮影データから、現実空間の照明環境を計算する処理は既存の技術を利用すればよい。
The photographed data of the real space is transmitted to the
ステップS108に進み、サーバ30は分析した現実空間の照明環境を、仮想空間1002の画像データに再適用(反映)させる。ステップS110に進み、サーバ30は仮想空間1002に存在している物体(ドア1008、鍵1010)への照度が、ユーザが物体を認識できる一定範囲内であるか否かを判定する。
Proceeding to step S108, the
仮想空間1002に存在している物体への照度が、ユーザが物体を認識できる一定範囲内であれば、サーバ30は携帯端末20に例えば図15(B)に示すような画面1000を表示させるための仮想空間1002の画像データを送信し、ステップS112の処理に進む。
If the illuminance of an object existing in the
図15(B)の画面1000は、仮想空間1002の照度が高く、仮想空間1002に存在しているオブジェクト(ドア1008、鍵1010など)をユーザが認識できる例を表している。ドア1008及び鍵1010は、ユーザがゲームを進行させる為に利用する物体の一例である。
A
ステップS112において、ユーザは携帯端末20に表示された図15(B)の画面1000に存在するドア1008及び鍵1010を認識できるので、鍵1010を使ってドア1008から別の場所に進むなど、ゲームを進行させることができる。
In step S112, the user can recognize the
このように、一実施形態に係る照明判定の処理を適用したゲームでは、現実空間の照明環境を仮想空間1002に適用できるので、仮想空間1002の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。
In this way, in a game to which the lighting determination process according to the embodiment is applied, the lighting environment of the real space can be applied to the
[反射特性判定のゲームへの適用例]
図16は一実施形態に係る反射特性判定の処理を適用したゲームの一例のフローチャートである。図17は一実施形態に係る反射特性判定の処理を適用したゲームの一例の画面イメージ図である。図16及び図17は仮想空間に存在する反射特性の弱いオブジェクトに、現実世界に存在する鏡面反射特性の強い金属などの反射特性を適用することで、そのオブジェクトに当たっている光を反射し、反射した光を用いて進行させるゲーム例を示している。
[Example of application of reflection characteristic judgment to games]
FIG. 16 is a flowchart of an example of a game to which reflection characteristic determination processing according to an embodiment is applied. FIG. 17 is a screen image diagram of an example of a game to which reflection characteristic determination processing according to an embodiment is applied. Figures 16 and 17 show that by applying the reflection characteristics of metals with strong specular reflection characteristics existing in the real world to objects with weak reflection characteristics existing in virtual space, the light hitting the object is reflected. This shows an example of a game that uses light to progress.
ステップS200において、携帯端末20は例えば図17(A)に示すような画面2000を表示する。図17(A)の画面2000は、仮想空間2002に存在する鏡のオブジェクト2008の反射特性が、例えば鏡がくすんでいる等の理由で弱く、オブジェクト2008に当たっている光2012が反射できない例を表している。
In step S200, the
また、画面2000には、複数の選択肢の中から、仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン2004と、仮想空間2002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン2006と、が設けられている。
The
仮想空間2002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン2006が押下されると、携帯端末20はステップS202に続いてステップS204に進み、ユーザ操作に応じて現実空間の撮影ができるように撮影装置126を起動する。ユーザは磨かれた金属球や鏡など、反射特性の強い現実空間の物体を撮影する。
When the "change reflection characteristics"
撮影された現実空間の撮影データはサーバ30に送信される。サーバ30はステップS206に進み、受信した現実空間の撮影データから、現実空間の物体の反射特性を計算により分析する。なお、現実空間の撮影データから、現実空間の物体の反射特性を計算により分析する処理は、例えば機械学習を利用して撮影データから表面材質を推定する技術などの既存の技術を利用し、推定した表面材質の反射特性を採用すればよい。
The photographed data of the real space is transmitted to the
ステップS208に進み、サーバ30は分析した現実空間の物体の反射特性を、仮想空間2002の画像データに存在する鏡のオブジェクト2008に再適用(反映)させる。ステップS210に進み、サーバ30は仮想空間1002に存在している鏡のオブジェクト2008の反射特性(反射率)が、光2012を反射できる一定の反射特性を持つか否かを判定する。
Proceeding to step S208, the
仮想空間2002に存在している鏡のオブジェクト2008の反射特性が、光2012を反射できる一定の反射特性を持っていれば、サーバ30は携帯端末20に例えば図17(B)に示すような画面2000を表示させるための仮想空間2002の画像データを送信し、ステップS212の処理に進む。
If the
図17(B)の画面2000は、仮想空間2002に存在する鏡のオブジェクト2008が、くすんでいる状態から磨かれた状態に変わることで反射特性が強くなり、鏡のオブジェクト2008に当たっている光2012が反射できている例を表している。鏡のオブジェクト2008により反射された光2012はオブジェクト2010の輪を通っている例を示している。オブジェクト2008及び2010は、ユーザがゲームを進行させる為に利用する物体の一例である。
In the
ステップS212において、ユーザは携帯端末20に表示された図17(B)の画面2000に存在する鏡のオブジェクト2008の反射特性を変更できるので、鏡で反射させた光2012を別のオブジェクト2010の輪を通す、別のオブジェクトを照らす、などの課題をクリアし、ゲームを進行させることができる。
In step S212, the user can change the reflection characteristics of the
このように、一実施形態に係る反射特性判定の処理を適用したゲームでは現実空間の物体の反射特性を仮想空間2002のオブジェクト2008に適用することができるので、仮想空間2002の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。
In this way, in a game to which the reflection characteristic determination process according to the embodiment is applied, the reflection characteristics of an object in the real space can be applied to the
開示した一実施形態に係る情報処理システム10、携帯端末20及びサーバ30は例示であって制限的なものではないと考えられるべきである。上記の実施形態は添付の請求の範囲及びその主旨を逸脱することなく、様々な形態で変形及び改良が可能である。また、上記した複数の実施形態に記載された事項は、矛盾しない範囲で他の構成も取り得ることができ、また、矛盾しない範囲で組み合わせることができる。
The
また、開示した一実施形態に係る情報処理システム10は、脱出ゲームなどのアドベンチャーゲームにおける謎解きの場面、ロールプレイングゲームにおいて課題をクリアする場面、など、様々なジャンルのゲームに適用できる。
Further, the
本開示によれば、スマートデバイスなどの携帯端末20で撮影した撮影データから現実空間の情報を分析し、分析した情報を仮想空間に反映(転写)することができる。例えば現実空間の状態(動き、照明環境、反射特性、弾性、慣性、位置など)を仮想空間へ手軽に再現できる新たな仕組みを提供することで、幅広いユーザの体験を豊かにできる。
According to the present disclosure, information in the real space can be analyzed from photographic data photographed by the
10 情報処理システム
20 携帯端末
21 記憶部
22 制御部
23 操作部
24 表示部
25 端末側通信部
26 撮影部
27 プログラム
30 サーバ
31 記憶部
32 サーバ制御部
33 サーバ側通信部
35 サーバプログラム
40 ネットワーク
50、60 分析部
52、62 反映部
54、64 進行制御部
1002、2002 仮想空間
1008 ドアのオブジェクト
1010 鍵のオブジェクト
2008 鏡のオブジェクト
2010 輪の形状のあるオブジェクト
10
Claims (6)
撮影データから現実空間の情報を分析する分析手段、
分析した前記情報を仮想空間の画像データに反映させる反映手段、
前記仮想空間の画像データを表示する表示手段、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、として機能させ、
前記分析手段は、前記撮影データから現実空間の照明環境を計算し、
前記反映手段は、計算した前記照明環境を前記仮想空間の画像データに適用し、
前記進行制御手段は、前記仮想空間の画像データに適用した前記照明環境に応じて前記ゲームの進行を制御し、
前記情報処理装置を、複数の選択肢の中から、前記仮想空間の前記照明環境に前記撮影データから計算した前記現実空間の前記照明環境を適用する操作の選択をユーザから受け付ける操作手段として更に機能させるためのプログラム。 information processing equipment,
Analysis means for analyzing real space information from photographic data,
a reflection means for reflecting the analyzed information on image data of the virtual space;
display means for displaying image data of the virtual space;
functioning as a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space ;
The analysis means calculates the lighting environment of the real space from the photographic data,
The reflecting means applies the calculated lighting environment to the image data of the virtual space,
The progress control means controls the progress of the game according to the lighting environment applied to the image data of the virtual space,
The information processing device is further caused to function as an operation means for accepting from a user a selection of an operation for applying the illumination environment of the real space calculated from the photographic data to the illumination environment of the virtual space from among a plurality of options. A program for
撮影データから現実空間の情報を分析する分析手段、
分析した前記情報を仮想空間の画像データに反映させる反映手段、
前記仮想空間の画像データを表示する表示手段、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、として機能させ、
前記分析手段は、前記撮影データから現実空間の反射特性を計算し、
前記反映手段は、計算した前記反射特性を前記仮想空間の画像データに含まれるオブジェクトに適用し、
前記進行制御手段は、前記仮想空間の画像データに含まれる前記オブジェクトに適用した前記反射特性に応じて前記ゲームの進行を制御し、
前記情報処理装置を、複数の選択肢の中から、前記仮想空間の画像データに含まれる前記オブジェクトに前記撮影データから計算した前記現実空間の前記反射特性を提供する操作の選択をユーザから受け付ける操作手段として更に機能させるためのプログラム。 information processing equipment,
Analysis means for analyzing real space information from photographic data,
a reflection means for reflecting the analyzed information on image data of the virtual space;
display means for displaying image data of the virtual space;
functioning as a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space ;
The analysis means calculates reflection characteristics of the real space from the photographic data,
The reflection means applies the calculated reflection characteristic to an object included in the image data of the virtual space,
The progress control means controls the progress of the game according to the reflection characteristic applied to the object included in the image data of the virtual space,
Operating means for operating the information processing device to accept from a user a selection of an operation for providing the reflection characteristic of the real space calculated from the photographic data to the object included in the image data of the virtual space, from among a plurality of options. A program to further function as a .
撮影データから現実空間の情報を分析する分析ステップと、
分析した前記情報を仮想空間の画像データに反映させる反映ステップと、
前記仮想空間の画像データを表示する表示ステップと、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御ステップと、を実行し、
前記分析ステップは、前記撮影データから現実空間の照明環境を計算し、
前記反映ステップは、計算した前記照明環境を前記仮想空間の画像データに適用し、
前記進行制御ステップは、前記仮想空間の画像データに適用した前記照明環境に応じて前記ゲームの進行を制御し、
前記情報処理装置が、
複数の選択肢の中から、前記仮想空間の前記照明環境に前記撮影データから計算した前記現実空間の前記照明環境を適用する操作の選択をユーザから受け付ける操作ステップを更に実行する、
情報処理方法。 The information processing device
an analysis step for analyzing real space information from the photographic data;
a reflection step of reflecting the analyzed information on image data of the virtual space;
a display step of displaying image data of the virtual space;
a progress control step of controlling the progress of the game according to the information reflected in the image data of the virtual space ;
The analysis step calculates the lighting environment of the real space from the photographic data,
The reflecting step applies the calculated lighting environment to the image data of the virtual space,
The progress control step controls the progress of the game according to the lighting environment applied to the image data of the virtual space,
The information processing device
further performing an operation step of accepting from a user a selection of an operation for applying the illumination environment of the real space calculated from the photographic data to the illumination environment of the virtual space from among the plurality of options ;
Information processing method.
分析した前記情報を仮想空間の画像データに反映させる反映手段と、
前記仮想空間の画像データを表示する表示手段と、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段と、
を有し、
前記分析手段は、前記撮影データから現実空間の照明環境を計算し、
前記反映手段は、計算した前記照明環境を前記仮想空間の画像データに適用し、
前記進行制御手段は、前記仮想空間の画像データに適用した前記照明環境に応じて前記ゲームの進行を制御し、
複数の選択肢の中から、前記仮想空間の前記照明環境に前記撮影データから計算した前記現実空間の前記照明環境を適用する操作の選択をユーザから受け付ける操作手段を更に有する、
情報処理装置。 an analysis means for analyzing real space information from photographic data;
a reflection means for reflecting the analyzed information on image data of a virtual space;
Display means for displaying image data of the virtual space;
a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space;
has
The analysis means calculates the lighting environment of the real space from the photographic data,
The reflecting means applies the calculated lighting environment to the image data of the virtual space,
The progress control means controls the progress of the game according to the lighting environment applied to the image data of the virtual space,
further comprising an operation means for accepting from a user a selection of an operation for applying the illumination environment of the real space calculated from the photographic data to the illumination environment of the virtual space from among a plurality of options;
Information processing device.
撮影データから現実空間の情報を分析する分析ステップと、
分析した前記情報を仮想空間の画像データに反映させる反映ステップと、
前記仮想空間の画像データを表示する表示ステップと、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御ステップと、を実行し、
前記分析ステップは、前記撮影データから現実空間の反射特性を計算し、
前記反映ステップは、計算した前記反射特性を前記仮想空間の画像データに含まれるオブジェクトに適用し、
前記進行制御ステップは、前記仮想空間の画像データに含まれる前記オブジェクトに適用した前記反射特性に応じて前記ゲームの進行を制御し、
前記情報処理装置が、
複数の選択肢の中から、前記仮想空間の画像データに含まれる前記オブジェクトに前記撮影データから計算した前記現実空間の前記反射特性を提供する操作の選択をユーザから受け付ける操作ステップを更に実行する、
情報処理方法。 The information processing device
an analysis step for analyzing real space information from the photographic data;
a reflection step of reflecting the analyzed information on image data of the virtual space;
a display step of displaying image data of the virtual space;
a progress control step of controlling the progress of the game according to the information reflected in the image data of the virtual space ;
The analysis step calculates reflection characteristics of real space from the photographic data,
The reflecting step applies the calculated reflection characteristic to an object included in the image data of the virtual space,
The progress control step controls the progress of the game according to the reflection characteristics applied to the object included in the image data of the virtual space,
The information processing device
further performing an operation step of accepting from a user a selection of an operation for providing the object included in the image data of the virtual space with the reflection characteristic of the real space calculated from the photographic data, from among a plurality of options ;
Information processing method.
分析した前記情報を仮想空間の画像データに反映させる反映手段と、
前記仮想空間の画像データを表示する表示手段と、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段と、
を有し、
前記分析手段は、前記撮影データから現実空間の反射特性を計算し、
前記反映手段は、計算した前記反射特性を前記仮想空間の画像データに含まれるオブジェクトに適用し、
前記進行制御手段は、前記仮想空間の画像データに含まれる前記オブジェクトに適用した前記反射特性に応じて前記ゲームの進行を制御し、
複数の選択肢の中から、前記仮想空間の画像データに含まれる前記オブジェクトに前記撮影データから計算した前記現実空間の前記反射特性を提供する操作の選択をユーザから受け付ける操作手段を更に有する、
情報処理装置。 an analysis means for analyzing real space information from photographic data;
a reflection means for reflecting the analyzed information on image data of a virtual space;
Display means for displaying image data of the virtual space;
a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space;
has
The analysis means calculates reflection characteristics of the real space from the photographic data,
The reflection means applies the calculated reflection characteristic to an object included in the image data of the virtual space,
The progress control means controls the progress of the game according to the reflection characteristic applied to the object included in the image data of the virtual space,
further comprising an operation means for accepting from a user a selection of an operation for providing the object included in the image data of the virtual space with the reflection characteristic of the real space calculated from the photographic data, from among a plurality of options;
Information processing device.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862757835P | 2018-11-09 | 2018-11-09 | |
US62/757,835 | 2018-11-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020075137A JP2020075137A (en) | 2020-05-21 |
JP7433847B2 true JP7433847B2 (en) | 2024-02-20 |
Family
ID=70724769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019203247A Active JP7433847B2 (en) | 2018-11-09 | 2019-11-08 | Program, information processing method, and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7433847B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113713393B (en) * | 2021-08-27 | 2023-05-30 | 腾讯科技(深圳)有限公司 | Virtual prop control method and device, storage medium and electronic equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140015931A1 (en) | 2012-07-12 | 2014-01-16 | Samsung Electronics Co., Ltd. | Method and apparatus for processing virtual world |
JP2016011874A (en) | 2014-06-27 | 2016-01-21 | キヤノン株式会社 | Image processor and method thereof |
US20180250585A1 (en) | 2016-12-30 | 2018-09-06 | Verifood, Ltd. | System, device and method of running game based on spectrometer data |
JP2018143475A (en) | 2017-03-06 | 2018-09-20 | 株式会社スクウェア・エニックス | Program and system |
-
2019
- 2019-11-08 JP JP2019203247A patent/JP7433847B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140015931A1 (en) | 2012-07-12 | 2014-01-16 | Samsung Electronics Co., Ltd. | Method and apparatus for processing virtual world |
JP2016011874A (en) | 2014-06-27 | 2016-01-21 | キヤノン株式会社 | Image processor and method thereof |
US20180250585A1 (en) | 2016-12-30 | 2018-09-06 | Verifood, Ltd. | System, device and method of running game based on spectrometer data |
JP2018143475A (en) | 2017-03-06 | 2018-09-20 | 株式会社スクウェア・エニックス | Program and system |
Non-Patent Citations (1)
Title |
---|
竹村治雄,バーチャルリアリティ(VR)と AR・MRの現状と課題,バーチャルリアリティ学会,2017年11月27日,スライド48,URL: <https://www.kenzai.or.jp/past/kouryu/image/52-01.pdf>,[令和5年7月7日検索日] |
Also Published As
Publication number | Publication date |
---|---|
JP2020075137A (en) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6912661B2 (en) | Rendering of virtual hand poses based on detected manual input | |
JP5669336B2 (en) | 3D viewpoint and object designation control method and apparatus using pointing input | |
CN111013142B (en) | Interactive effect display method and device, computer equipment and storage medium | |
US20170354864A1 (en) | Directional Interface Object | |
TW200840626A (en) | Game device, method for controlling the game device, and information recording medium | |
JP6509955B2 (en) | INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING DEVICE | |
JP7369674B2 (en) | Programs, methods and viewing devices | |
US20180321817A1 (en) | Information processing method, computer and program | |
CN112156464A (en) | Two-dimensional image display method, device and equipment of virtual object and storage medium | |
CN114080259A (en) | Program, method, and information terminal device | |
CN111672106B (en) | Virtual scene display method and device, computer equipment and storage medium | |
JP6737941B1 (en) | Program, method, and viewing terminal | |
JP6785325B2 (en) | Game programs, methods, and information processing equipment | |
JP7433847B2 (en) | Program, information processing method, and information processing device | |
JP4433579B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP6513241B1 (en) | PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD | |
CN112156454B (en) | Virtual object generation method and device, terminal and readable storage medium | |
CN111651616B (en) | Multimedia resource generation method, device, equipment and medium | |
JP2020179184A (en) | Game program, method, and information processor | |
CN111338487B (en) | Feature switching method and device in virtual environment, terminal and readable storage medium | |
JP6722316B1 (en) | Distribution program, distribution method, computer, and viewing terminal | |
JP6770603B2 (en) | Game programs, game methods, and information terminals | |
EP2560382A2 (en) | Game apparatus, control method for game apparatus, information recording medium, and program | |
CN112169321A (en) | Mode determination method, device, equipment and readable storage medium | |
JP2020166726A (en) | Viewing program, viewing method, and viewing terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230911 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7433847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |