JP7433847B2 - Program, information processing method, and information processing device - Google Patents

Program, information processing method, and information processing device Download PDF

Info

Publication number
JP7433847B2
JP7433847B2 JP2019203247A JP2019203247A JP7433847B2 JP 7433847 B2 JP7433847 B2 JP 7433847B2 JP 2019203247 A JP2019203247 A JP 2019203247A JP 2019203247 A JP2019203247 A JP 2019203247A JP 7433847 B2 JP7433847 B2 JP 7433847B2
Authority
JP
Japan
Prior art keywords
virtual space
image data
space
information
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019203247A
Other languages
Japanese (ja)
Other versions
JP2020075137A (en
Inventor
宏之 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Games Co Ltd
Original Assignee
Koei Tecmo Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Games Co Ltd filed Critical Koei Tecmo Games Co Ltd
Publication of JP2020075137A publication Critical patent/JP2020075137A/en
Application granted granted Critical
Publication of JP7433847B2 publication Critical patent/JP7433847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本開示はプログラム、情報処理方法及び情報処理装置に関する。 The present disclosure relates to a program, an information processing method, and an information processing device.

近年、VR(仮想現実:Virtual Reality)、AR(拡張現実:Augmented Reality)及びMR(複合現実:Mixed Reality)などの仮想空間を作成する技術の普及に伴い、仮想空間を利用したゲームが増えつつある(例えば特許文献1参照)。 In recent years, with the spread of technologies for creating virtual spaces such as VR (Virtual Reality), AR (Augmented Reality), and MR (Mixed Reality), the number of games that use virtual spaces has been increasing. (For example, see Patent Document 1).

特開2017-144038号公報JP 2017-144038 Publication

VRなどの仮想空間を利用する従来のゲームでは、映像世界への没入感が高く、エンタテイメント性を高める効果があるが、プレイヤに対するエンタテイメント性の更なる向上が期待されている。 Conventional games that utilize virtual spaces such as VR provide a high sense of immersion in the video world and have the effect of increasing entertainment, but further improvements in entertainment for players are expected.

本開示は、仮想空間の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供することを課題とする。 An object of the present disclosure is to provide a new mechanism that improves the entertainment value of a game that uses images in a virtual space.

本開示の一の態様によれば、情報処理装置を、撮影データから現実空間の情報を分析する分析手段、分析した前記情報を仮想空間の画像データに反映させる反映手段、前記仮想空間の画像データを表示する表示手段、前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、として機能させるためのプログラムが提供される。 According to one aspect of the present disclosure, an information processing device includes an analysis unit for analyzing information in a real space from photographed data, a reflection unit for reflecting the analyzed information on image data in a virtual space, and an image data in the virtual space. A program is provided for functioning as a display means for displaying the image data of the virtual space, and a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space.

一の側面によれば、仮想空間の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。 According to one aspect, it is possible to provide a new mechanism that improves the entertainment value of a game that uses images in virtual space.

一実施形態に係る情報処理システムの一例を示す図である。FIG. 1 is a diagram illustrating an example of an information processing system according to an embodiment. 一実施形態に係る携帯端末のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of a mobile terminal according to an embodiment. 一実施形態に係るサーバのハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a server according to an embodiment. 一実施形態に係る携帯端末の機能構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a functional configuration of a mobile terminal according to an embodiment. 一実施形態に係るサーバの機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of a server according to an embodiment. 一実施形態に係る情報処理システムの処理概要の一例を示す図である。FIG. 1 is a diagram illustrating an example of a processing outline of an information processing system according to an embodiment. 一実施形態に係る情報処理システムの処理概要の一例を示す図である。FIG. 1 is a diagram illustrating an example of a processing outline of an information processing system according to an embodiment. 制御部の機能構成の一例を示す図である。It is a figure showing an example of the functional composition of a control part. サーバ制御部の機能構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional configuration of a server control unit. 一実施形態に係るS20の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of S20 concerning one embodiment. 一実施形態に係るS20の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of S20 concerning one embodiment. 一実施形態に係るS20の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of S20 concerning one embodiment. 一実施形態に係るS20の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of S20 concerning one embodiment. 一実施形態に係る照明判定の処理を適用したゲームの一例のフローチャートである。2 is a flowchart of an example of a game to which lighting determination processing according to an embodiment is applied. 一実施形態に係る照明判定の処理を適用したゲームの一例の画面イメージ図である。FIG. 3 is a screen image diagram of an example of a game to which lighting determination processing according to an embodiment is applied. 一実施形態に係る反射特性判定の処理を適用したゲームの一例のフローチャートである。2 is a flowchart of an example of a game to which reflection characteristic determination processing according to an embodiment is applied. 一実施形態に係る反射特性判定の処理を適用したゲームの一例の画面イメージ図である。FIG. 3 is a screen image diagram of an example of a game to which reflection characteristic determination processing according to an embodiment is applied.

以下、本開示を実施するための形態について図面を参照して説明する。 Hereinafter, embodiments for implementing the present disclosure will be described with reference to the drawings.

[情報処理システム]
まず、一実施形態に係る情報処理システム10について、図1を参照して説明する。一実施形態に係る情報処理システム10は、携帯端末20a、20b、20cとサーバ30とが、インターネットやLAN(ローカルエリアネットワーク)などのネットワーク40を介して通信可能に接続された構成である。なお、携帯端末20a、20b、20cは総称して「携帯端末20」とも呼ぶ。
[Information processing system]
First, an information processing system 10 according to an embodiment will be described with reference to FIG. 1. The information processing system 10 according to one embodiment has a configuration in which mobile terminals 20a, 20b, and 20c and a server 30 are communicably connected via a network 40 such as the Internet or a LAN (local area network). Note that the mobile terminals 20a, 20b, and 20c are also collectively referred to as the "mobile terminal 20."

携帯端末20はユーザが操作する情報処理装置の一例である。情報処理装置は撮影機能を有するスマートフォンなどの携帯電話機、携帯ゲーム機、パーソナルコンピュータ、タブレット端末、家庭用ゲーム装置、業務用ゲーム装置等である。撮影機能は、内蔵のカメラにより実現されるものであっても、外付けのカメラにより実現されるものであってもよい。携帯端末20はユーザからの操作をタッチパネル等により受け付け、その操作に応じた情報処理を行う。なお、携帯端末20の個数は3つに限定されるものではなく、3つ以外であってもよい。 The mobile terminal 20 is an example of an information processing device operated by a user. The information processing device includes a mobile phone such as a smartphone with a photographing function, a portable game machine, a personal computer, a tablet terminal, a home game device, an arcade game device, and the like. The photographing function may be realized by a built-in camera or an external camera. The mobile terminal 20 receives operations from the user through a touch panel or the like, and performs information processing according to the operations. Note that the number of mobile terminals 20 is not limited to three, and may be other than three.

サーバ30は携帯端末20との間でデータを送受信することで、後述の各種機能を実現する情報処理装置の一例である。サーバ30は、クラウドコンピュータにより実現してもよい。なお、図1に示したサーバ30の個数は、1つに限定されるものではなく、2つ以上で分散処理してもよい。 The server 30 is an example of an information processing device that implements various functions described below by transmitting and receiving data to and from the mobile terminal 20. The server 30 may be realized by a cloud computer. Note that the number of servers 30 shown in FIG. 1 is not limited to one, and distributed processing may be performed using two or more.

図1の情報処理システム10はサーバ30が含まれる例を示したが、サーバ30が行う各種処理を携帯端末20が実現できるのであれば、サーバ30が省略されてもよく、携帯端末20がネットワーク40に接続されていなくてもよい。 Although the information processing system 10 in FIG. 1 shows an example in which the server 30 is included, the server 30 may be omitted as long as the mobile terminal 20 can implement the various processes performed by the server 30. 40 may not be connected.

図2は、携帯端末20のハードウェア構成の一例を示す図である。携帯端末20は、CPU(Central Processing Unit)121、記憶装置122、通信装置123、入力装置124、表示装置125及び撮影装置126を有する。CPU121は、携帯端末20を制御する。記憶装置122は、例えばROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ、HDD(Hard Disk Drive)やSSD(Solid State Drive)などのストレージである。 FIG. 2 is a diagram showing an example of the hardware configuration of the mobile terminal 20. The mobile terminal 20 includes a CPU (Central Processing Unit) 121, a storage device 122, a communication device 123, an input device 124, a display device 125, and a photographing device 126. CPU 121 controls mobile terminal 20 . The storage device 122 is, for example, a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory), or a storage such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

通信装置123は、通信を制御するネットワーク回路などの通信デバイスである。入力装置124はタッチパネルのタッチパッド(位置入力装置)、カメラ、マイクなどの入力デバイスである。表示装置125はタッチパネルのディスプレイ、スピーカなどの出力デバイスである。タッチパネルはタッチパッドとディスプレイとを組み合わせることで実現される。撮影装置126はカメラであって、ユーザ操作に応じて撮影を行い、現実空間の撮影データを出力する。 The communication device 123 is a communication device such as a network circuit that controls communication. The input device 124 is an input device such as a touch pad (position input device) of a touch panel, a camera, or a microphone. The display device 125 is an output device such as a touch panel display or a speaker. A touch panel is realized by combining a touch pad and a display. The photographing device 126 is a camera that photographs in response to user operations and outputs photographic data of real space.

図3は、サーバ30のハードウェア構成の一例を示す図である。サーバ30は、CPU131、記憶装置132及び通信装置133を有する。CPU131は、サーバ30を制御する。記憶装置132は、例えばROMやRAMなどのメモリ、HDDやSSDなどのストレージである。通信装置133は、通信を制御するネットワークカードなどの通信デバイスである。 FIG. 3 is a diagram showing an example of the hardware configuration of the server 30. The server 30 includes a CPU 131, a storage device 132, and a communication device 133. CPU 131 controls server 30 . The storage device 132 is, for example, a memory such as ROM or RAM, or a storage such as HDD or SSD. The communication device 133 is a communication device such as a network card that controls communication.

図4は、携帯端末20の機能構成の一例を示す図である。図4の携帯端末20は、記憶部21、制御部22、操作部23、表示部24、端末側通信部25及び撮影部26を有する。記憶部21は、プログラム27、そのプログラム27が利用するデータなどを記憶している。なお、記憶部21は、記憶装置122により実現されてもよいし、ネットワーク40を介して接続された記憶装置により実現されてもよい。 FIG. 4 is a diagram showing an example of the functional configuration of the mobile terminal 20. The mobile terminal 20 in FIG. 4 includes a storage section 21, a control section 22, an operation section 23, a display section 24, a terminal-side communication section 25, and a photographing section 26. The storage unit 21 stores a program 27, data used by the program 27, and the like. Note that the storage unit 21 may be realized by the storage device 122 or may be realized by a storage device connected via the network 40.

図4に戻り、制御部22は、携帯端末20の全体の制御を行う。制御部22は、CPU121がプログラム27に記載された処理を実行することにより実現される。操作部23は入力装置124に対するユーザの各種操作を受け付ける。表示部24は表示装置125に例えばゲーム空間などの仮想空間の画像を表示する。なお、操作部23はCPU121が入力装置124を制御することで実現される。また、表示部24は、CPU121が表示装置125を制御することで実現される。 Returning to FIG. 4, the control unit 22 performs overall control of the mobile terminal 20. The control unit 22 is realized by the CPU 121 executing the processing described in the program 27. The operation unit 23 receives various user operations on the input device 124. The display unit 24 displays, for example, an image of a virtual space such as a game space on the display device 125. Note that the operation unit 23 is realized by the CPU 121 controlling the input device 124. Further, the display unit 24 is realized by the CPU 121 controlling the display device 125.

仮想空間の画像は仮想現実の画像に限定するものではなく、拡張現実及び複合現実の画像も含むものとする。制御部22はユーザから受け付けた各種操作に基づき、ゲームなどの処理を進行させる。表示部24は制御部22が生成した後述のような仮想空間の画像を表示する。端末側通信部25は、サーバ30と通信する。端末側通信部25はCPU121がプログラム27に従って通信装置123を制御することで実現される。 Images in virtual space are not limited to images in virtual reality, but also include images in augmented reality and mixed reality. The control unit 22 advances processing such as a game based on various operations received from the user. The display unit 24 displays an image of a virtual space generated by the control unit 22 as described below. The terminal side communication unit 25 communicates with the server 30. The terminal side communication unit 25 is realized by the CPU 121 controlling the communication device 123 according to the program 27.

図5は、サーバ30の機能構成の一例を示す図である。図5のサーバ30は、記憶部31、サーバ制御部32及びサーバ側通信部33を有する。記憶部31は、サーバプログラム35、そのサーバプログラム35が利用するデータなどを記憶している。なお、記憶部31は記憶装置132により実現されてもよいし、ネットワーク40を介して接続された記憶装置により実現されてもよい。 FIG. 5 is a diagram showing an example of the functional configuration of the server 30. The server 30 in FIG. 5 includes a storage section 31, a server control section 32, and a server-side communication section 33. The storage unit 31 stores a server program 35, data used by the server program 35, and the like. Note that the storage unit 31 may be realized by the storage device 132 or may be realized by a storage device connected via the network 40.

図5に戻り、サーバ制御部32は、サーバ30の全体の制御を行う。サーバ制御部32は、CPU131がサーバプログラム35に記載された処理を実行することにより実現される。サーバ側通信部33は、携帯端末20と通信する。サーバ側通信部33は、CPU131がサーバプログラム35を実行し、サーバプログラム35に従って通信装置133を制御することで実現される。 Returning to FIG. 5, the server control unit 32 performs overall control of the server 30. The server control unit 32 is realized by the CPU 131 executing processing described in the server program 35. The server-side communication unit 33 communicates with the mobile terminal 20. The server-side communication unit 33 is realized by the CPU 131 executing the server program 35 and controlling the communication device 133 according to the server program 35.

[処理概要]
以下、一実施形態に係る情報処理システム10の処理概要について図6及び図7を用いて説明する。図6及び図7は一実施形態に係る情報処理システムの処理概要の一例を示す図である。図6は携帯端末20により実現する処理概要を示している。図6の情報処理システム10の例ではサーバ30が省略されてもよい。図7は携帯端末20及びサーバ30が協働して実現する処理概要を示している。
[Outline of processing]
Hereinafter, an overview of the processing of the information processing system 10 according to one embodiment will be described using FIGS. 6 and 7. 6 and 7 are diagrams illustrating an example of a processing outline of an information processing system according to an embodiment. FIG. 6 shows an outline of processing realized by the mobile terminal 20. In the example of the information processing system 10 in FIG. 6, the server 30 may be omitted. FIG. 7 shows an outline of processing realized by the cooperation of the mobile terminal 20 and the server 30.

図6のステップS10においてスマートデバイスなどの携帯端末20を操作するユーザは、撮影部26で現実空間内の人、物体、照明環境などを撮影する。ステップS20において、携帯端末20の制御部22は受信した撮影データから現実空間の情報(人の動きや位置、物体の動き、照明環境、反射特性、弾性、慣性又は位置等)を分析し、分析した情報を表示部24が出力する仮想空間の画像データに反映させる処理を行う。ステップS30において表示部24は、ステップS20で分析された情報が反映された仮想空間の画像データを出力する。 In step S10 of FIG. 6, a user operating the mobile terminal 20 such as a smart device photographs people, objects, lighting environments, etc. in the real space using the photographing unit 26. In step S20, the control unit 22 of the mobile terminal 20 analyzes real space information (movement and position of a person, movement of an object, lighting environment, reflection characteristics, elasticity, inertia, position, etc.) from the received photographic data. A process is performed to reflect the obtained information in the image data of the virtual space output by the display unit 24. In step S30, the display unit 24 outputs image data of the virtual space on which the information analyzed in step S20 is reflected.

また、図7のステップS10において、スマートデバイスなどの携帯端末20を操作するユーザは、撮影部26で現実空間内の人、物体、照明環境などを撮影する。携帯端末20は撮影データをサーバ30に送信する。 Further, in step S10 of FIG. 7, the user operating the mobile terminal 20 such as a smart device photographs people, objects, lighting environments, etc. in the real space using the photographing unit 26. The mobile terminal 20 transmits the photographing data to the server 30.

ステップS20において、サーバ30は受信した撮影データから現実空間の情報を分析し、分析した情報を携帯端末20が出力する仮想空間の画像データに反映させる処理を行う。サーバ30は分析した情報を反映させた仮想空間の画像データを携帯端末20に送信する。仮想空間の画像データを受信した携帯端末20はステップS30において、サーバ30から受信した仮想空間の画像データを出力する。 In step S20, the server 30 analyzes real space information from the received photographic data, and performs processing to reflect the analyzed information in the virtual space image data output by the mobile terminal 20. The server 30 transmits virtual space image data reflecting the analyzed information to the mobile terminal 20. The mobile terminal 20 that has received the virtual space image data outputs the virtual space image data received from the server 30 in step S30.

なお、図6及び図7に示した情報処理システム10の処理概要は一例であって、例えばステップS20の「撮影データから現実空間の情報を分析し、分析した情報を仮想空間に反映させる処理」を携帯端末20とサーバ30とで分散して行うようにしてもよい。 Note that the processing outline of the information processing system 10 shown in FIGS. 6 and 7 is an example, and for example, the process of "analyzing information in the real space from photographic data and reflecting the analyzed information in the virtual space" in step S20 may be performed in a distributed manner between the mobile terminal 20 and the server 30.

図6に示した情報処理システム10の処理概要の場合、携帯端末20の制御部22は例えば図8に示す機能構成である。図8は制御部の機能構成の一例を示す図である。図8の制御部22は分析部50、反映部52、及び進行制御部54を有する。分析部50は撮影データから現実空間の情報を分析する。反映部52は分析した情報を携帯端末20が出力する仮想空間の画像データに反映させる。 In the case of the processing outline of the information processing system 10 shown in FIG. 6, the control unit 22 of the mobile terminal 20 has the functional configuration shown in FIG. 8, for example. FIG. 8 is a diagram showing an example of the functional configuration of the control section. The control section 22 in FIG. 8 includes an analysis section 50, a reflection section 52, and a progress control section 54. The analysis unit 50 analyzes real space information from the photographic data. The reflection unit 52 reflects the analyzed information on the image data of the virtual space output by the mobile terminal 20.

進行制御部54は仮想空間の画像を利用するゲームの進行を制御する。進行制御部54は仮想空間の画像データに反映させた、撮影データから分析した現実空間の情報に応じてゲームの進行を制御する。 The progress control unit 54 controls the progress of a game that uses images in virtual space. The progress control unit 54 controls the progress of the game according to the information of the real space analyzed from the photographed data and reflected in the image data of the virtual space.

また、図7に示した情報処理システム10の処理概要の場合、サーバ30のサーバ制御部32は例えば図9に示す機能構成である。図9はサーバ制御部の機能構成の一例を示す図である。図9のサーバ制御部32は分析部60、反映部62、及び進行制御部64を有する。図9の分析部60、反映部62、及び進行制御部64は、図8の分析部50、反映部52、及び進行制御部54と同様であるため、説明を省略する。 Furthermore, in the case of the processing overview of the information processing system 10 shown in FIG. 7, the server control unit 32 of the server 30 has the functional configuration shown in FIG. 9, for example. FIG. 9 is a diagram showing an example of the functional configuration of the server control section. The server control unit 32 in FIG. 9 includes an analysis unit 60, a reflection unit 62, and a progress control unit 64. The analysis section 60, the reflection section 62, and the progress control section 64 in FIG. 9 are the same as the analysis section 50, the reflection section 52, and the progress control section 54 in FIG. 8, so a description thereof will be omitted.

[ステップS20の処理の詳細]
以下では、図7に示した情報処理システム10の処理概要の場合の例を説明する。
[Details of processing in step S20]
An example of the processing outline of the information processing system 10 shown in FIG. 7 will be described below.

図10は一実施形態に係るS20の処理の一例を示すフローチャートである。図10は撮影データから、現実空間の情報を分析し、人や物体の動き、反射特性、衣類、弾性、慣性、位置、照明環境などを仮想空間で再現する処理を行う例である。 FIG. 10 is a flowchart illustrating an example of the process of S20 according to an embodiment. FIG. 10 is an example of processing to analyze real space information from photographic data and reproduce the movement of people and objects, reflection characteristics, clothing, elasticity, inertia, position, lighting environment, etc. in virtual space.

ステップS51において、サーバ30は受信した撮影データから現実空間の状態(人の動きや位置、物体の動き、反射特性、弾性、慣性又は位置、照明環境等)を分析する処理を行う。ステップS52に進み、サーバ30は分析結果を仮想空間内のキャラクタや物体などのオブジェクトで再現する以下の(1)から(7)の処理を行う。 In step S51, the server 30 performs a process of analyzing the state of the real space (movement and position of a person, movement of an object, reflection characteristics, elasticity, inertia or position, lighting environment, etc.) from the received photographic data. Proceeding to step S52, the server 30 performs the following processes (1) to (7) to reproduce the analysis results with objects such as characters and objects in the virtual space.

(1)動き再現
動き再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの動きの適用である。例えば現実空間において直接撮影した情報(人の動きなど)を仮想空間の3Dモデルキャラクタ等のオブジェクトの動きに適用する。
(1) Movement Reproduction Movement reproduction is the application of movement to an object such as a character in a virtual space in accordance with the result of photographing the real space. For example, information directly captured in real space (such as the movement of a person) is applied to the movement of an object such as a 3D model character in virtual space.

(2)照明再現
照明再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明環境の適用である。例えば現実空間の明るさ、光が差す方向、間接照明の具合などの照明環境を仮想空間内の3Dモデルキャラクタ等のオブジェクトへの照明環境として適用する。
(2) Lighting Reproduction Lighting reproduction is the application of a lighting environment to an object such as a character in a virtual space according to the result of photographing a real space. For example, the lighting environment such as the brightness of the real space, the direction of light, and the condition of indirect lighting is applied as the lighting environment to an object such as a 3D model character in the virtual space.

(3)反射特性再現
反射特性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明反射特性の適用である。例えばシャンデリアの反射や光沢のある布地に対する反射などの光の反射の仕方を、3Dモデルキャラクタ等のオブジェクトに適用する。また、反射特性から測定可能な表面材質に基づき、3Dモデルキャラクタ等のオブジェクトの「つるつる感」や「ザラザラ感」の表現に適用する。
(3) Reflection characteristic reproduction Reflection characteristic reproduction is the application of illumination reflection characteristics to an object such as a character in a virtual space according to the result of photographing the real space. For example, the way light is reflected, such as reflection from a chandelier or reflection from shiny cloth, is applied to an object such as a 3D model character. Furthermore, it is applied to express the "smoothness" or "roughness" of objects such as 3D model characters based on the surface material that can be measured from the reflection characteristics.

(4)衣類再現
衣類再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの衣服への動きの適用である。例えば現実空間において衣服を着た人を動画で撮影し、動画から得られた衣服の揺れ情報を仮想空間の衣服の揺れ(動き)に適用する。例えば麻、絹などの素材による揺れの違いや、布の厚さや重さによる揺れの違いを、仮想空間の衣服の揺れに適用する。
(4) Clothes Reproduction Clothes reproduction is the application of movement to the clothes of an object such as a character in a virtual space in accordance with the photographic result of the real space. For example, a video of a person wearing clothes is taken in real space, and information about the movement of the clothes obtained from the video is applied to the movement of the clothes in virtual space. For example, the differences in sway due to materials such as linen and silk, as well as the differences in sway due to the thickness and weight of cloth, are applied to the sway of clothes in virtual space.

(5)弾性再現
弾性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの弾性の適用である。例えば現実空間においてボールの落下を撮影し、動画から得られたボールの落ち方、弾み方、揺れ方などを、例えば仮想空間の武器に適用することで、武器を落とした時の挙動などを再現できる。また、例えば現実空間においてゼリーが揺れている状態を撮影し、その動画から得られたゼリーの揺れ方を、例えば仮想空間のペットボトルに適用することで、ゼリーのように揺れるペットボトルを仮想空間で再現できる。
(5) Elastic Reproduction Elastic reproduction is the application of elasticity to an object such as a character in a virtual space according to the result of photographing the real space. For example, by photographing a falling ball in real space and applying the way the ball falls, bounces, and swings obtained from the video to a weapon in virtual space, the behavior of a dropped weapon can be recreated. can. In addition, for example, by taking a picture of jelly shaking in real space and applying the way the jelly shakes obtained from that video to, for example, a plastic bottle in virtual space, it is possible to create a plastic bottle that shakes like jelly in virtual space. It can be reproduced with

(6)慣性再現
慣性再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの動き難さの適用である。例えば現実空間において物体の動きを撮影し、動画から得られた物体の動き難さを、仮想空間のオブジェクトの動きに適用することにより、現実空間における物体の動き難さを仮想空間のオブジェクトで再現できる。また、例えば現実空間において回転する物体の動きを撮影し、動画から得られた物体の回転のし難さを、仮想空間のオブジェクトの動きに適用することにより、現実空間における物体の回転のし難さを仮想空間のオブジェクトで再現できる。
(6) Inertial reproduction Inertial reproduction is the application of difficulty in movement to objects such as characters in virtual space according to the result of shooting in real space. For example, by photographing the movement of an object in real space and applying the difficulty of object movement obtained from the video to the movement of the object in virtual space, the difficulty of movement of the object in real space is reproduced with the object in virtual space. can. For example, by photographing the movement of a rotating object in real space and applying the difficulty of rotating the object obtained from the video to the movement of the object in virtual space, we can measure the difficulty of rotating the object in real space. can be reproduced with objects in virtual space.

(7)位置再現
位置再現は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置の移動への適用である。例えば現実空間において移動する人やボールを撮影し、動画から得られた人やボールの位置の移動を、仮想空間の3Dモデルキャラクタ等のオブジェクトの位置の移動に適用することにより、現実空間における人やボールなどの位置の移動を仮想空間の3Dモデルキャラクタ等のオブジェクトで再現できる。
(7) Position Reproduction Position reproduction is an application to the movement of the position of an object such as a character in a virtual space according to the result of photographing the real space. For example, by photographing a person or a ball moving in real space and applying the movement of the position of the person or ball obtained from the video to the movement of the position of an object such as a 3D model character in virtual space, it is possible to It is possible to reproduce the movement of the position of objects such as or balls using objects such as 3D model characters in virtual space.

図11は一実施形態に係るS20の処理の一例を示すフローチャートである。図11は撮影データから、現実空間の情報を分析し、人や物体の動き、衣類、弾性、慣性などを仮想空間で再適用する処理を行う例である。 FIG. 11 is a flowchart illustrating an example of the process of S20 according to an embodiment. FIG. 11 is an example of processing in which real space information is analyzed from photographic data and the movement of people and objects, clothing, elasticity, inertia, etc. are reapplied in virtual space.

ステップS61において、サーバ30は受信した撮影データから現実空間の状態(人の動き、物体の動き、弾性又は慣性等)を分析する処理を行う。ステップS62に進み、サーバ30は分析結果を仮想空間で再適用する以下の(8)から(11)の処理を行う。 In step S61, the server 30 performs a process of analyzing the state of the real space (movement of a person, movement of an object, elasticity, inertia, etc.) from the received photographic data. Proceeding to step S62, the server 30 performs the following processes (8) to (11) to reapply the analysis results in the virtual space.

(8)動き再適用
動き再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの動きの再適用である。例えば現実空間においてダンスが下手なユーザAとダンスが上手なユーザBとがダンスする様子をそれぞれ撮影する。動画から得られたユーザAのダンスの動きを、ユーザBのダンスの動きで補正した後、仮想空間の3Dモデルキャラクタの動きに適用することにより、ユーザAの個性を残しつつユーザBの上手なダンスの動きで補正されたユーザAのダンスの動きを、仮想空間の3Dモデルキャラクタ等で再現できる。
(8) Motion reapplication Motion reapplication is the reapplication of motion to another object, such as another character, in the virtual space in accordance with the photographing result of the real space. For example, user A, who is bad at dancing, and user B, who is good at dancing, are each photographed dancing in real space. By correcting user A's dance movements obtained from the video with user B's dance movements, and then applying it to the movements of the 3D model character in virtual space, user A's individuality is preserved while user B's skill is improved. User A's dance movement corrected by the dance movement can be reproduced with a 3D model character or the like in a virtual space.

例えばプレイヤキャラクタが敵キャラクタを爽快になぎ倒す一騎当千のゲーム(いわゆる無双ゲーム)に適用する場合は、ゲームが下手なプレイヤAとゲームが上手なプレイヤBとがゲームをプレイする様子をそれぞれ撮影する。動画から得られたプレイヤAのプレイの動きを、プレイヤBのプレイの動きで補正した後、仮想空間のプレイヤキャラクタの動きに適用することにより、プレイヤAの個性を残しつつプレイヤBの上手なプレイの動きで補正されたプレイヤAのプレイヤの動きを、仮想空間のプレイヤキャラクタ等で再現できる。 For example, when applied to a game of Ikki Tousen where a player character exhilaratingly defeats an enemy character (a so-called Musou game), a player A who is bad at the game and a player B who is good at the game are each photographed playing the game. Player A's play movements obtained from the video are corrected with Player B's play movements, and then applied to the movement of the player character in the virtual space to improve Player B's skillful play while preserving Player A's individuality. The movement of player A corrected by the movement can be reproduced with the player character in the virtual space.

(9)衣類再適用
衣類再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等への衣服の動きの再適用である。例えば現実空間においてユーザAの衣服の動き(揺れ)とユーザBの動きとをそれぞれ撮影する。動画から得られたユーザAの衣服の動きの特性とユーザBの動きとを仮想空間の3Dモデルキャラクタに適用することで、ユーザBに合わせて動く仮想空間の3Dモデルキャラクタの衣服の動きを、ユーザAの衣服の動きの特性で再現できる。
(9) Clothes reapplication Clothes reapplication is reapplying the movement of clothes to another character in the virtual space according to the photographing result of the real space. For example, the movement (sway) of user A's clothing and the movement of user B are each photographed in real space. By applying the movement characteristics of user A's clothes obtained from the video and the movements of user B to the 3D model character in the virtual space, the movement of the clothes of the 3D model character in the virtual space that moves in accordance with user B, This can be reproduced using the movement characteristics of user A's clothes.

(10)弾性再適用
弾性再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの弾性の再適用である。例えば現実空間において鉄球とゼリーの双方が落ちる映像をそれぞれ撮影する。動画から得られた鉄球の動きとゼリーの動きとを仮想空間の鉄球のオブジェクトに適用することで、ゼリーのように揺れながら落ちる鉄球を仮想空間で再現できる。また、例えば動画から得られた人の動きとゼリーの動きとを仮想空間の3Dモデルキャラクタに適用することで、ゼリーのように揺れながら動く3Dモデルキャラクタを仮想空間で再現できる。
(10) Re-application of elasticity Re-application of elasticity is re-application of elasticity to another object such as another character in the virtual space according to the photographing result of the real space. For example, images of both a falling iron ball and a jelly are shot in real space. By applying the movement of the iron ball and the jelly obtained from the video to the iron ball object in virtual space, it is possible to reproduce a falling iron ball shaking like jelly in virtual space. Further, by applying, for example, the movement of a person and the movement of a jelly obtained from a video to a 3D model character in a virtual space, a 3D model character that moves while shaking like a jelly can be reproduced in the virtual space.

(11)慣性再適用
慣性再適用は、現実空間の撮影結果に応じた仮想空間内の別キャラクタ等の別オブジェクトへの動き難さの再適用である。例えば現実空間で物体Aと物体Bの動きを撮影し、動画から得られた物体Aの動き難さを、仮想空間における物体Bのオブジェクトの動きに適用することにより、現実空間における物体Aの動き難さを仮想空間の物体Bのオブジェクトで再現できる。また、例えば動画から得られた怪獣の動きと人の動きとを仮想空間の3Dモデルキャラクタに適用することで、怪獣のように動く人の3Dモデルキャラクタを仮想空間で再現できる。
(11) Re-application of inertia Re-application of inertia is re-applying the difficulty of movement to another object such as another character in the virtual space in accordance with the photographing result of the real space. For example, by photographing the movement of object A and object B in real space and applying the difficulty of movement of object A obtained from the video to the movement of object B in virtual space, the movement of object A in real space can be calculated. The difficulty can be reproduced using object B in virtual space. Furthermore, for example, by applying the movements of a monster and the movements of a person obtained from a video to a 3D model character in a virtual space, a 3D model character of a person that moves like a monster can be reproduced in the virtual space.

図12は一実施形態に係るS20の処理の一例を示すフローチャートである。図12は撮影データから、現実空間の人や物体が指し示す位置を検出し、検出結果により仮想空間の3DモデルキャラクタなどがUI選択の処理を行う例である。 FIG. 12 is a flowchart illustrating an example of the process of S20 according to an embodiment. FIG. 12 is an example in which a position pointed to by a person or object in real space is detected from photographic data, and a 3D model character or the like in virtual space performs UI selection processing based on the detection result.

ステップS71において、サーバ30は受信した撮影データから現実空間の状態(人の指先の位置、人が持つ指示棒の先端の位置など)を分析する処理を行う。ステップS72に進み、サーバ30は分析結果を仮想空間のUI選択に適用する以下の(12)及び(13)の処理を行う。 In step S71, the server 30 performs a process of analyzing the state of the real space (the position of a person's fingertip, the position of the tip of a pointing stick held by a person, etc.) from the received photographic data. Proceeding to step S72, the server 30 performs the following processes (12) and (13) to apply the analysis result to UI selection in the virtual space.

(12)UI選択(単一)
UI選択(単一)は、現実空間の撮影結果に応じた仮想空間内のキャラクタによる単一のUI選択に適用する。例えば現実空間において撮影した人の体の一部(指先など)や人の持つ物体の一部(先端など)の位置を動画像から検出し、検出した位置を仮想空間の例えばポインタの表示位置に適用することにより、現実空間における人の指先の移動で仮想空間の3Dモデルキャラクタによる単一のUIの選択に適用できる。
(12) UI selection (single)
UI selection (single) applies to a single UI selection by a character in the virtual space according to the photographing result in the real space. For example, the position of a part of a person's body (such as a fingertip) or a part of an object held by a person (such as a tip) photographed in real space is detected from a video image, and the detected position is set as the display position of a pointer in virtual space, for example. By applying this method, it is possible to select a single UI by a 3D model character in a virtual space by moving a person's fingertip in a real space.

(13)UI選択(複数)
UI選択(複数)は、現実空間の撮影結果に応じた仮想空間内のキャラクタによる複数のUI選択に適用する。例えば現実空間において撮影した人の体の一部(指先など)や人の持つ物体の一部(先端など)の位置の移動を動画像から検出し、検出した位置の移動を仮想空間の例えばポインタによる範囲選択に適用することにより、現実空間における人の指先の移動で仮想空間の3Dモデルキャラクタによる複数のUIの選択に適用できる。
(13) UI selection (multiple)
UI selection (plurality) is applied to a plurality of UI selections by a character in the virtual space according to the photographing result of the real space. For example, the movement of a part of a person's body (such as a fingertip) or a part of an object held by a person (such as a tip) photographed in real space is detected from a video image, and the movement of the detected position is transferred to a pointer in virtual space, for example. By applying this method to range selection, it is possible to select multiple UIs using a 3D model character in virtual space by moving a person's fingertip in real space.

図13は一実施形態に係るS20の処理の一例を示すフローチャートである。図13は撮影データの分析結果を、仮想空間における判定や動き補正に適用する処理を行う例である。 FIG. 13 is a flowchart illustrating an example of the process of S20 according to an embodiment. FIG. 13 is an example of processing in which the analysis results of photographic data are applied to determination and motion correction in virtual space.

ステップS81においてサーバ30は撮影データから現実空間の状態(人や物体の動きや位置、照明環境、反射特性等)を分析する処理を行う。ステップS82に進み、サーバ30は分析結果を仮想空間内における判定、又は、動き補正に適用する以下の(14)から(18)の処理を行う。 In step S81, the server 30 performs processing to analyze the state of the real space (movement and position of people and objects, lighting environment, reflection characteristics, etc.) from the photographic data. Proceeding to step S82, the server 30 performs the following processes (14) to (18) to apply the analysis result to determination or motion correction in the virtual space.

(14)位置判定
位置判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置による判定への適用である。例えば位置判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトの位置によるゲーム進行に利用できる。例えば現実空間のユーザの移動を「もう少し左に行って」等と指示しながら撮影し、現実空間のユーザの移動と連携して仮想空間のキャラクタ等のオブジェクトを移動させることにより、仮想空間の床スイッチをONしてゲームを進行させる処理が一例として考えられる。
(14) Position Determination Position determination is applied to determination based on the position of an object such as a character in a virtual space according to the result of photographing the real space. For example, position determination can be used to advance a game based on the position of an object such as a character in a virtual space according to the result of photographing the real space. For example, by photographing the movement of a user in real space while instructing them to move a little further to the left, etc., and moving objects such as characters in virtual space in conjunction with the movement of the user in real space, the floor of virtual space can be An example of the process is to turn on a switch and proceed with the game.

(15)衝突判定
衝突判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクト同士の衝突による判定への適用である。例えば衝突判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクト同士の衝突を、ゲーム進行に利用できる。例えば現実空間で物体を投げる様子を撮影し、動画から得られた物体の動きを仮想空間の3Dモデルキャラクタ等のオブジェクトに適用することで、現実空間に無い別の3Dモデルキャラクタ等のオブジェクトと衝突させてゲームを進行させる処理が一例として考えられる。
(15) Collision Determination Collision determination is applied to determination based on collision between objects such as characters in a virtual space according to the result of photographing the real space. For example, in the collision determination, collisions between objects such as characters in the virtual space according to the photographed results of the real space can be used to advance the game. For example, by filming an object being thrown in real space and applying the movement of the object obtained from the video to an object such as a 3D model character in virtual space, it can collide with another object such as a 3D model character that is not in real space. An example of this is processing to advance the game.

(16)照明判定
照明判定は、現実空間の撮影結果に応じた照明環境による判定への適用である。例えば照明判定は、現実空間の撮影結果に応じた照明環境を仮想空間に適用することで、仮想空間の照明環境を指定の照明環境に変化させてゲームを進行させる処理が一例として考えられる。なお、上記した照明判定のゲームへの適用例については後述する。
(16) Illumination Judgment Illumination judgment is applied to judgment based on the lighting environment according to the result of photographing the real space. For example, an example of lighting determination may be a process in which the lighting environment in the virtual space is changed to a specified lighting environment by applying the lighting environment according to the photographing result of the real space to the virtual space, and the game progresses. Note that an application example of the above-described lighting determination to a game will be described later.

(17)反射特性判定
反射特性判定は、現実空間の撮影結果に応じた仮想空間内のキャラクタ等のオブジェクトへの照明反射特定の判定への適用である。例えば反射特性判定は、仮想空間に「くすんだ鏡」があり、現実空間のキラキラした鏡や磨かれた金属球などの物体を撮影して仮想空間の「くすんだ鏡」に適用してキラキラした鏡に変化させることでゲームを進行させる処理が一例として考えられる。なお、上記した反射特性判定のゲームへの適用例については後述する。
(17) Reflection Characteristic Determination Reflection characteristic determination is applied to determining the specificity of illumination reflection on objects such as characters in virtual space according to the photographing results of real space. For example, to determine reflection characteristics, there is a "dull mirror" in virtual space, and an object such as a sparkling mirror or a polished metal ball in real space is photographed and applied to the "dull mirror" in virtual space to make it sparkle. An example of processing that advances the game by changing it into a mirror can be considered. Note that an example of application of the above-mentioned reflection characteristic determination to a game will be described later.

(18)動き補正
動き補正は、現実空間の撮影結果に応じた仮想空間内のキャラクタの動き補正への適用である。例えば動き補正は、現実空間において撮影したプレイヤのパンチの動きなどを仮想空間のキャラクタが再現する際に、プロのボクサーなどのパンチの動きでプレイヤのパンチの動きを補正する。
(18) Motion Correction Motion correction is an application to correcting the movement of a character in a virtual space in accordance with the result of photographing the real space. For example, in motion correction, when a character in a virtual space reproduces the player's punching movement photographed in the real space, the player's punching movement is corrected using the punching movement of a professional boxer or the like.

[照明判定のゲームへの適用例]
図14は一実施形態に係る照明判定の処理を適用したゲームの一例のフローチャートである。図15は一実施形態に係る照明判定の処理を適用したゲームの一例の画面イメージ図である。図14及び図15は暗闇に覆われた仮想空間に現実空間の照明環境を適用することで、隠されたオブジェクトを発見し、そのオブジェクトを用いて進行させるゲーム例を示している。
[Example of application of lighting judgment to games]
FIG. 14 is a flowchart of an example of a game to which the lighting determination process according to the embodiment is applied. FIG. 15 is a screen image diagram of an example of a game to which the lighting determination process according to the embodiment is applied. FIGS. 14 and 15 show an example of a game in which a hidden object is discovered by applying the lighting environment of the real space to a virtual space covered in darkness, and the game progresses using the hidden object.

ステップS100において、携帯端末20は例えば図15(A)に示すような画面1000を表示する。図15(A)の画面1000は、仮想空間1002の照度が低く、仮想空間1002に存在しているオブジェクト(ドア1008、鍵1010など)をユーザが認識できない例を表している。 In step S100, the mobile terminal 20 displays a screen 1000 as shown in FIG. 15(A), for example. A screen 1000 in FIG. 15A represents an example in which the illuminance of the virtual space 1002 is low and the user cannot recognize objects (door 1008, key 1010, etc.) existing in the virtual space 1002.

また、画面1000には、複数の選択肢の中から、仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン1004と、仮想空間1002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン1006と、が設けられている。 The screen 1000 also includes a "change lighting environment" button 1004 that accepts the user's selection of an operation to change the lighting environment of the virtual space 1002 from among multiple options, and a A "Change reflection characteristics" button 1006 is provided to accept from the user a selection of an operation for changing the reflection characteristics.

仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン1004が押下されると、携帯端末20はステップS102に続いてステップS104に進み、ユーザ操作に応じて現実空間の撮影ができるように撮影装置126を起動する。ユーザは周囲の風景など、照度が高い現実空間を撮影する。 When the "change lighting environment" button 1004, which accepts a user's selection of an operation for changing the lighting environment of the virtual space 1002, is pressed, the mobile terminal 20 proceeds to step S104 following step S102, and changes the lighting environment according to the user's operation. The photographing device 126 is activated so that the space can be photographed. A user photographs a real space with high illuminance, such as a surrounding landscape.

撮影された現実空間の撮影データはサーバ30に送信される。サーバ30はステップS106に進み、受信した現実空間の撮影データから、現実空間の照明環境(照度、光の方向、色など)を計算により分析する。なお、現実空間の撮影データから、現実空間の照明環境を計算する処理は既存の技術を利用すればよい。 The photographed data of the real space is transmitted to the server 30. The server 30 proceeds to step S106, and analyzes the illumination environment (illuminance, direction of light, color, etc.) of the real space by calculation from the received photographic data of the real space. Note that existing technology may be used for the process of calculating the illumination environment of the real space from the photographic data of the real space.

ステップS108に進み、サーバ30は分析した現実空間の照明環境を、仮想空間1002の画像データに再適用(反映)させる。ステップS110に進み、サーバ30は仮想空間1002に存在している物体(ドア1008、鍵1010)への照度が、ユーザが物体を認識できる一定範囲内であるか否かを判定する。 Proceeding to step S108, the server 30 reapplies (reflects) the analyzed lighting environment of the real space to the image data of the virtual space 1002. Proceeding to step S110, the server 30 determines whether the illuminance of the objects (door 1008, key 1010) existing in the virtual space 1002 is within a certain range that allows the user to recognize the objects.

仮想空間1002に存在している物体への照度が、ユーザが物体を認識できる一定範囲内であれば、サーバ30は携帯端末20に例えば図15(B)に示すような画面1000を表示させるための仮想空間1002の画像データを送信し、ステップS112の処理に進む。 If the illuminance of an object existing in the virtual space 1002 is within a certain range that allows the user to recognize the object, the server 30 causes the mobile terminal 20 to display a screen 1000 as shown in FIG. 15(B), for example. The image data of the virtual space 1002 is transmitted, and the process proceeds to step S112.

図15(B)の画面1000は、仮想空間1002の照度が高く、仮想空間1002に存在しているオブジェクト(ドア1008、鍵1010など)をユーザが認識できる例を表している。ドア1008及び鍵1010は、ユーザがゲームを進行させる為に利用する物体の一例である。 A screen 1000 in FIG. 15B represents an example in which the illuminance of the virtual space 1002 is high and the user can recognize objects (door 1008, key 1010, etc.) existing in the virtual space 1002. The door 1008 and the key 1010 are examples of objects that the user uses to advance the game.

ステップS112において、ユーザは携帯端末20に表示された図15(B)の画面1000に存在するドア1008及び鍵1010を認識できるので、鍵1010を使ってドア1008から別の場所に進むなど、ゲームを進行させることができる。 In step S112, the user can recognize the door 1008 and the key 1010 that are present on the screen 1000 of FIG. can proceed.

このように、一実施形態に係る照明判定の処理を適用したゲームでは、現実空間の照明環境を仮想空間1002に適用できるので、仮想空間1002の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。 In this way, in a game to which the lighting determination process according to the embodiment is applied, the lighting environment of the real space can be applied to the virtual space 1002, so a new method that improves the entertainment value of the game that uses images of the virtual space 1002 can be created. We can provide a mechanism.

[反射特性判定のゲームへの適用例]
図16は一実施形態に係る反射特性判定の処理を適用したゲームの一例のフローチャートである。図17は一実施形態に係る反射特性判定の処理を適用したゲームの一例の画面イメージ図である。図16及び図17は仮想空間に存在する反射特性の弱いオブジェクトに、現実世界に存在する鏡面反射特性の強い金属などの反射特性を適用することで、そのオブジェクトに当たっている光を反射し、反射した光を用いて進行させるゲーム例を示している。
[Example of application of reflection characteristic judgment to games]
FIG. 16 is a flowchart of an example of a game to which reflection characteristic determination processing according to an embodiment is applied. FIG. 17 is a screen image diagram of an example of a game to which reflection characteristic determination processing according to an embodiment is applied. Figures 16 and 17 show that by applying the reflection characteristics of metals with strong specular reflection characteristics existing in the real world to objects with weak reflection characteristics existing in virtual space, the light hitting the object is reflected. This shows an example of a game that uses light to progress.

ステップS200において、携帯端末20は例えば図17(A)に示すような画面2000を表示する。図17(A)の画面2000は、仮想空間2002に存在する鏡のオブジェクト2008の反射特性が、例えば鏡がくすんでいる等の理由で弱く、オブジェクト2008に当たっている光2012が反射できない例を表している。 In step S200, the mobile terminal 20 displays a screen 2000 as shown in FIG. 17(A), for example. A screen 2000 in FIG. 17A shows an example in which the reflection characteristics of a mirror object 2008 existing in a virtual space 2002 are weak, for example because the mirror is dull, and the light 2012 hitting the object 2008 cannot be reflected. There is.

また、画面2000には、複数の選択肢の中から、仮想空間1002の照明環境を変化させる操作の選択をユーザから受け付ける「照明環境を変化」ボタン2004と、仮想空間2002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン2006と、が設けられている。 The screen 2000 also includes a "Change lighting environment" button 2004 that accepts the user's selection of an operation to change the lighting environment of the virtual space 1002 from among multiple options, and a A “change reflection characteristics” button 2006 is provided to accept a selection of an operation for changing reflection characteristics from the user.

仮想空間2002に存在しているオブジェクトの反射特性を変化させる操作の選択をユーザから受け付ける「反射特性を変化」ボタン2006が押下されると、携帯端末20はステップS202に続いてステップS204に進み、ユーザ操作に応じて現実空間の撮影ができるように撮影装置126を起動する。ユーザは磨かれた金属球や鏡など、反射特性の強い現実空間の物体を撮影する。 When the "change reflection characteristics" button 2006, which accepts from the user a selection of an operation for changing the reflection characteristics of an object existing in the virtual space 2002, is pressed, the mobile terminal 20 proceeds to step S204 following step S202, The photographing device 126 is activated to photograph the real space in response to the user's operation. Users photograph objects in real space that have strong reflective properties, such as polished metal balls or mirrors.

撮影された現実空間の撮影データはサーバ30に送信される。サーバ30はステップS206に進み、受信した現実空間の撮影データから、現実空間の物体の反射特性を計算により分析する。なお、現実空間の撮影データから、現実空間の物体の反射特性を計算により分析する処理は、例えば機械学習を利用して撮影データから表面材質を推定する技術などの既存の技術を利用し、推定した表面材質の反射特性を採用すればよい。 The photographed data of the real space is transmitted to the server 30. The server 30 proceeds to step S206, and analyzes the reflection characteristics of objects in the real space by calculation from the received photographic data of the real space. Note that the process of calculating and analyzing the reflection characteristics of objects in real space from shooting data in real space uses existing technology, such as technology that uses machine learning to estimate surface materials from shooting data. It is sufficient to adopt the reflection characteristics of the surface material.

ステップS208に進み、サーバ30は分析した現実空間の物体の反射特性を、仮想空間2002の画像データに存在する鏡のオブジェクト2008に再適用(反映)させる。ステップS210に進み、サーバ30は仮想空間1002に存在している鏡のオブジェクト2008の反射特性(反射率)が、光2012を反射できる一定の反射特性を持つか否かを判定する。 Proceeding to step S208, the server 30 reapplies (reflects) the analyzed reflection characteristics of the object in the real space to the mirror object 2008 existing in the image data of the virtual space 2002. Proceeding to step S210, the server 30 determines whether the reflection characteristic (reflectance) of the mirror object 2008 existing in the virtual space 1002 has a certain reflection characteristic that can reflect the light 2012.

仮想空間2002に存在している鏡のオブジェクト2008の反射特性が、光2012を反射できる一定の反射特性を持っていれば、サーバ30は携帯端末20に例えば図17(B)に示すような画面2000を表示させるための仮想空間2002の画像データを送信し、ステップS212の処理に進む。 If the mirror object 2008 existing in the virtual space 2002 has a certain reflection characteristic that can reflect the light 2012, the server 30 displays a screen on the mobile terminal 20, for example, as shown in FIG. 17(B). The image data of the virtual space 2002 for displaying the virtual space 2000 is transmitted, and the process proceeds to step S212.

図17(B)の画面2000は、仮想空間2002に存在する鏡のオブジェクト2008が、くすんでいる状態から磨かれた状態に変わることで反射特性が強くなり、鏡のオブジェクト2008に当たっている光2012が反射できている例を表している。鏡のオブジェクト2008により反射された光2012はオブジェクト2010の輪を通っている例を示している。オブジェクト2008及び2010は、ユーザがゲームを進行させる為に利用する物体の一例である。 In the screen 2000 of FIG. 17(B), the reflection characteristics of the mirror object 2008 existing in the virtual space 2002 change from a dull state to a polished state, and the light 2012 hitting the mirror object 2008 becomes more intense. This shows an example of reflection. An example is shown in which the light 2012 reflected by the mirror object 2008 passes through the ring of the object 2010. Objects 2008 and 2010 are examples of objects that the user uses to progress the game.

ステップS212において、ユーザは携帯端末20に表示された図17(B)の画面2000に存在する鏡のオブジェクト2008の反射特性を変更できるので、鏡で反射させた光2012を別のオブジェクト2010の輪を通す、別のオブジェクトを照らす、などの課題をクリアし、ゲームを進行させることができる。 In step S212, the user can change the reflection characteristics of the mirror object 2008 that exists on the screen 2000 of FIG. You can progress through the game by completing tasks such as passing through objects or illuminating other objects.

このように、一実施形態に係る反射特性判定の処理を適用したゲームでは現実空間の物体の反射特性を仮想空間2002のオブジェクト2008に適用することができるので、仮想空間2002の画像を利用するゲームのエンタテイメント性を向上させる新たな仕組みを提供できる。 In this way, in a game to which the reflection characteristic determination process according to the embodiment is applied, the reflection characteristics of an object in the real space can be applied to the object 2008 in the virtual space 2002. It is possible to provide a new mechanism to improve the entertainment quality of

開示した一実施形態に係る情報処理システム10、携帯端末20及びサーバ30は例示であって制限的なものではないと考えられるべきである。上記の実施形態は添付の請求の範囲及びその主旨を逸脱することなく、様々な形態で変形及び改良が可能である。また、上記した複数の実施形態に記載された事項は、矛盾しない範囲で他の構成も取り得ることができ、また、矛盾しない範囲で組み合わせることができる。 The information processing system 10, mobile terminal 20, and server 30 according to the disclosed embodiment should be considered to be illustrative and not restrictive. The embodiments described above can be modified and improved in various ways without departing from the scope and spirit of the appended claims. Moreover, the matters described in the plurality of embodiments described above can be adopted in other configurations within a consistent range, and can be combined within a consistent range.

また、開示した一実施形態に係る情報処理システム10は、脱出ゲームなどのアドベンチャーゲームにおける謎解きの場面、ロールプレイングゲームにおいて課題をクリアする場面、など、様々なジャンルのゲームに適用できる。 Further, the information processing system 10 according to the disclosed embodiment can be applied to games of various genres, such as a mystery-solving scene in an adventure game such as an escape game, and a task-clearing scene in a role-playing game.

本開示によれば、スマートデバイスなどの携帯端末20で撮影した撮影データから現実空間の情報を分析し、分析した情報を仮想空間に反映(転写)することができる。例えば現実空間の状態(動き、照明環境、反射特性、弾性、慣性、位置など)を仮想空間へ手軽に再現できる新たな仕組みを提供することで、幅広いユーザの体験を豊かにできる。 According to the present disclosure, information in the real space can be analyzed from photographic data photographed by the mobile terminal 20 such as a smart device, and the analyzed information can be reflected (transcribed) in the virtual space. For example, by providing a new mechanism that can easily reproduce the conditions of real space (movement, lighting environment, reflection characteristics, elasticity, inertia, position, etc.) in virtual space, it can enrich the experience of a wide range of users.

10 情報処理システム
20 携帯端末
21 記憶部
22 制御部
23 操作部
24 表示部
25 端末側通信部
26 撮影部
27 プログラム
30 サーバ
31 記憶部
32 サーバ制御部
33 サーバ側通信部
35 サーバプログラム
40 ネットワーク
50、60 分析部
52、62 反映部
54、64 進行制御部
1002、2002 仮想空間
1008 ドアのオブジェクト
1010 鍵のオブジェクト
2008 鏡のオブジェクト
2010 輪の形状のあるオブジェクト
10 Information processing system 20 Mobile terminal 21 Storage unit 22 Control unit 23 Operation unit 24 Display unit 25 Terminal side communication unit 26 Photographing unit 27 Program 30 Server 31 Storage unit 32 Server control unit 33 Server side communication unit 35 Server program 40 Network 50, 60 Analysis section 52, 62 Reflection section 54, 64 Progress control section 1002, 2002 Virtual space 1008 Door object 1010 Key object 2008 Mirror object 2010 Ring-shaped object

Claims (6)

情報処理装置を、
撮影データから現実空間の情報を分析する分析手段、
分析した前記情報を仮想空間の画像データに反映させる反映手段、
前記仮想空間の画像データを表示する表示手段、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、として機能させ
前記分析手段は、前記撮影データから現実空間の照明環境を計算し、
前記反映手段は、計算した前記照明環境を前記仮想空間の画像データに適用し、
前記進行制御手段は、前記仮想空間の画像データに適用した前記照明環境に応じて前記ゲームの進行を制御し、
前記情報処理装置を、複数の選択肢の中から、前記仮想空間の前記照明環境に前記撮影データから計算した前記現実空間の前記照明環境を適用する操作の選択をユーザから受け付ける操作手段として更に機能させるためのプログラム。
information processing equipment,
Analysis means for analyzing real space information from photographic data,
a reflection means for reflecting the analyzed information on image data of the virtual space;
display means for displaying image data of the virtual space;
functioning as a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space ;
The analysis means calculates the lighting environment of the real space from the photographic data,
The reflecting means applies the calculated lighting environment to the image data of the virtual space,
The progress control means controls the progress of the game according to the lighting environment applied to the image data of the virtual space,
The information processing device is further caused to function as an operation means for accepting from a user a selection of an operation for applying the illumination environment of the real space calculated from the photographic data to the illumination environment of the virtual space from among a plurality of options. A program for
情報処理装置を、
撮影データから現実空間の情報を分析する分析手段、
分析した前記情報を仮想空間の画像データに反映させる反映手段、
前記仮想空間の画像データを表示する表示手段、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段、として機能させ
前記分析手段は、前記撮影データから現実空間の反射特性を計算し、
前記反映手段は、計算した前記反射特性を前記仮想空間の画像データに含まれるオブジェクトに適用し、
前記進行制御手段は、前記仮想空間の画像データに含まれる前記オブジェクトに適用した前記反射特性に応じて前記ゲームの進行を制御し、
前記情報処理装置を、複数の選択肢の中から、前記仮想空間の画像データに含まれる前記オブジェクトに前記撮影データから計算した前記現実空間の前記反射特性を提供する操作の選択をユーザから受け付ける操作手段として更に機能させるためのプログラム。
information processing equipment,
Analysis means for analyzing real space information from photographic data,
a reflection means for reflecting the analyzed information on image data of the virtual space;
display means for displaying image data of the virtual space;
functioning as a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space ;
The analysis means calculates reflection characteristics of the real space from the photographic data,
The reflection means applies the calculated reflection characteristic to an object included in the image data of the virtual space,
The progress control means controls the progress of the game according to the reflection characteristic applied to the object included in the image data of the virtual space,
Operating means for operating the information processing device to accept from a user a selection of an operation for providing the reflection characteristic of the real space calculated from the photographic data to the object included in the image data of the virtual space, from among a plurality of options. A program to further function as a .
情報処理装置が、
撮影データから現実空間の情報を分析する分析ステップと、
分析した前記情報を仮想空間の画像データに反映させる反映ステップと、
前記仮想空間の画像データを表示する表示ステップと、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御ステップと、を実行し、
前記分析ステップは、前記撮影データから現実空間の照明環境を計算し、
前記反映ステップは、計算した前記照明環境を前記仮想空間の画像データに適用し、
前記進行制御ステップは、前記仮想空間の画像データに適用した前記照明環境に応じて前記ゲームの進行を制御し、
前記情報処理装置が、
複数の選択肢の中から、前記仮想空間の前記照明環境に前記撮影データから計算した前記現実空間の前記照明環境を適用する操作の選択をユーザから受け付ける操作ステップ更に実行する
情報処理方法。
The information processing device
an analysis step for analyzing real space information from the photographic data;
a reflection step of reflecting the analyzed information on image data of the virtual space;
a display step of displaying image data of the virtual space;
a progress control step of controlling the progress of the game according to the information reflected in the image data of the virtual space ;
The analysis step calculates the lighting environment of the real space from the photographic data,
The reflecting step applies the calculated lighting environment to the image data of the virtual space,
The progress control step controls the progress of the game according to the lighting environment applied to the image data of the virtual space,
The information processing device
further performing an operation step of accepting from a user a selection of an operation for applying the illumination environment of the real space calculated from the photographic data to the illumination environment of the virtual space from among the plurality of options ;
Information processing method.
撮影データから現実空間の情報を分析する分析手段と、
分析した前記情報を仮想空間の画像データに反映させる反映手段と、
前記仮想空間の画像データを表示する表示手段と、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段と、
を有し、
前記分析手段は、前記撮影データから現実空間の照明環境を計算し、
前記反映手段は、計算した前記照明環境を前記仮想空間の画像データに適用し、
前記進行制御手段は、前記仮想空間の画像データに適用した前記照明環境に応じて前記ゲームの進行を制御し、
複数の選択肢の中から、前記仮想空間の前記照明環境に前記撮影データから計算した前記現実空間の前記照明環境を適用する操作の選択をユーザから受け付ける操作手段を更に有する、
情報処理装置。
an analysis means for analyzing real space information from photographic data;
a reflection means for reflecting the analyzed information on image data of a virtual space;
Display means for displaying image data of the virtual space;
a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space;
has
The analysis means calculates the lighting environment of the real space from the photographic data,
The reflecting means applies the calculated lighting environment to the image data of the virtual space,
The progress control means controls the progress of the game according to the lighting environment applied to the image data of the virtual space,
further comprising an operation means for accepting from a user a selection of an operation for applying the illumination environment of the real space calculated from the photographic data to the illumination environment of the virtual space from among a plurality of options;
Information processing device.
情報処理装置が、
撮影データから現実空間の情報を分析する分析ステップと、
分析した前記情報を仮想空間の画像データに反映させる反映ステップと、
前記仮想空間の画像データを表示する表示ステップと、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御ステップと、を実行し、
前記分析ステップは、前記撮影データから現実空間の反射特性を計算し、
前記反映ステップは、計算した前記反射特性を前記仮想空間の画像データに含まれるオブジェクトに適用し、
前記進行制御ステップは、前記仮想空間の画像データに含まれる前記オブジェクトに適用した前記反射特性に応じて前記ゲームの進行を制御し、
前記情報処理装置が、
複数の選択肢の中から、前記仮想空間の画像データに含まれる前記オブジェクトに前記撮影データから計算した前記現実空間の前記反射特性を提供する操作の選択をユーザから受け付ける操作ステップ更に実行する
情報処理方法。
The information processing device
an analysis step for analyzing real space information from the photographic data;
a reflection step of reflecting the analyzed information on image data of the virtual space;
a display step of displaying image data of the virtual space;
a progress control step of controlling the progress of the game according to the information reflected in the image data of the virtual space ;
The analysis step calculates reflection characteristics of real space from the photographic data,
The reflecting step applies the calculated reflection characteristic to an object included in the image data of the virtual space,
The progress control step controls the progress of the game according to the reflection characteristics applied to the object included in the image data of the virtual space,
The information processing device
further performing an operation step of accepting from a user a selection of an operation for providing the object included in the image data of the virtual space with the reflection characteristic of the real space calculated from the photographic data, from among a plurality of options ;
Information processing method.
撮影データから現実空間の情報を分析する分析手段と、
分析した前記情報を仮想空間の画像データに反映させる反映手段と、
前記仮想空間の画像データを表示する表示手段と、
前記仮想空間の画像データに反映させた前記情報に応じてゲームの進行を制御する進行制御手段と、
を有し、
前記分析手段は、前記撮影データから現実空間の反射特性を計算し、
前記反映手段は、計算した前記反射特性を前記仮想空間の画像データに含まれるオブジェクトに適用し、
前記進行制御手段は、前記仮想空間の画像データに含まれる前記オブジェクトに適用した前記反射特性に応じて前記ゲームの進行を制御し、
複数の選択肢の中から、前記仮想空間の画像データに含まれる前記オブジェクトに前記撮影データから計算した前記現実空間の前記反射特性を提供する操作の選択をユーザから受け付ける操作手段を更に有する、
情報処理装置。
an analysis means for analyzing real space information from photographic data;
a reflection means for reflecting the analyzed information on image data of a virtual space;
Display means for displaying image data of the virtual space;
a progress control means for controlling the progress of the game according to the information reflected in the image data of the virtual space;
has
The analysis means calculates reflection characteristics of the real space from the photographic data,
The reflection means applies the calculated reflection characteristic to an object included in the image data of the virtual space,
The progress control means controls the progress of the game according to the reflection characteristic applied to the object included in the image data of the virtual space,
further comprising an operation means for accepting from a user a selection of an operation for providing the object included in the image data of the virtual space with the reflection characteristic of the real space calculated from the photographic data, from among a plurality of options;
Information processing device.
JP2019203247A 2018-11-09 2019-11-08 Program, information processing method, and information processing device Active JP7433847B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862757835P 2018-11-09 2018-11-09
US62/757,835 2018-11-09

Publications (2)

Publication Number Publication Date
JP2020075137A JP2020075137A (en) 2020-05-21
JP7433847B2 true JP7433847B2 (en) 2024-02-20

Family

ID=70724769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203247A Active JP7433847B2 (en) 2018-11-09 2019-11-08 Program, information processing method, and information processing device

Country Status (1)

Country Link
JP (1) JP7433847B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113713393B (en) * 2021-08-27 2023-05-30 腾讯科技(深圳)有限公司 Virtual prop control method and device, storage medium and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015931A1 (en) 2012-07-12 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for processing virtual world
JP2016011874A (en) 2014-06-27 2016-01-21 キヤノン株式会社 Image processor and method thereof
US20180250585A1 (en) 2016-12-30 2018-09-06 Verifood, Ltd. System, device and method of running game based on spectrometer data
JP2018143475A (en) 2017-03-06 2018-09-20 株式会社スクウェア・エニックス Program and system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015931A1 (en) 2012-07-12 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for processing virtual world
JP2016011874A (en) 2014-06-27 2016-01-21 キヤノン株式会社 Image processor and method thereof
US20180250585A1 (en) 2016-12-30 2018-09-06 Verifood, Ltd. System, device and method of running game based on spectrometer data
JP2018143475A (en) 2017-03-06 2018-09-20 株式会社スクウェア・エニックス Program and system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
竹村治雄,バーチャルリアリティ(VR)と AR・MRの現状と課題,バーチャルリアリティ学会,2017年11月27日,スライド48,URL: <https://www.kenzai.or.jp/past/kouryu/image/52-01.pdf>,[令和5年7月7日検索日]

Also Published As

Publication number Publication date
JP2020075137A (en) 2020-05-21

Similar Documents

Publication Publication Date Title
JP6912661B2 (en) Rendering of virtual hand poses based on detected manual input
JP5669336B2 (en) 3D viewpoint and object designation control method and apparatus using pointing input
CN111013142B (en) Interactive effect display method and device, computer equipment and storage medium
US20170354864A1 (en) Directional Interface Object
TW200840626A (en) Game device, method for controlling the game device, and information recording medium
JP6509955B2 (en) INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING DEVICE
JP7369674B2 (en) Programs, methods and viewing devices
US20180321817A1 (en) Information processing method, computer and program
CN112156464A (en) Two-dimensional image display method, device and equipment of virtual object and storage medium
CN114080259A (en) Program, method, and information terminal device
CN111672106B (en) Virtual scene display method and device, computer equipment and storage medium
JP6737941B1 (en) Program, method, and viewing terminal
JP6785325B2 (en) Game programs, methods, and information processing equipment
JP7433847B2 (en) Program, information processing method, and information processing device
JP4433579B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP6513241B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
CN112156454B (en) Virtual object generation method and device, terminal and readable storage medium
CN111651616B (en) Multimedia resource generation method, device, equipment and medium
JP2020179184A (en) Game program, method, and information processor
CN111338487B (en) Feature switching method and device in virtual environment, terminal and readable storage medium
JP6722316B1 (en) Distribution program, distribution method, computer, and viewing terminal
JP6770603B2 (en) Game programs, game methods, and information terminals
EP2560382A2 (en) Game apparatus, control method for game apparatus, information recording medium, and program
CN112169321A (en) Mode determination method, device, equipment and readable storage medium
JP2020166726A (en) Viewing program, viewing method, and viewing terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230911

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7433847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150