JP2018102901A - Game processing program and information processing device - Google Patents

Game processing program and information processing device Download PDF

Info

Publication number
JP2018102901A
JP2018102901A JP2017180995A JP2017180995A JP2018102901A JP 2018102901 A JP2018102901 A JP 2018102901A JP 2017180995 A JP2017180995 A JP 2017180995A JP 2017180995 A JP2017180995 A JP 2017180995A JP 2018102901 A JP2018102901 A JP 2018102901A
Authority
JP
Japan
Prior art keywords
game
parameter
shape
unit
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017180995A
Other languages
Japanese (ja)
Inventor
史也 加藤
Fumiya Kato
史也 加藤
亘平 熊崎
Kohei Kumazaki
亘平 熊崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to US15/787,914 priority Critical patent/US20180178129A1/en
Publication of JP2018102901A publication Critical patent/JP2018102901A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a game processing program capable of selecting one favorite choice among a plurality of choices by using one object, and an information processing device.SOLUTION: The game processing program causes a computer to execute processing for photographing an object by using an infrared sensor, and specifying a parameter about a game on the basis of at least either the shape or the luminance of the photographed object with reference to a storage part which associates at least either a plurality of shapes or luminance of the object with the parameter about the game.SELECTED DRAWING: Figure 5

Description

本発明は、ゲーム処理プログラム及び情報処理装置に関する。   The present invention relates to a game processing program and an information processing apparatus.

ディスプレイにゲームの映像を表示させ、操作ボタンを操作してゲームをプレイすることが可能なゲーム機器が知られている(例えば、特許文献1参照)。また、ハンドジェスチャやQR(Quick Response)コード(登録商標)を撮影し、撮影したジェスチャやコードを用いてゲームを行うことが可能なゲームの技術が知られている(例えば、特許文献2,3参照)。   There is known a game machine capable of displaying a video of a game on a display and operating an operation button to play the game (see, for example, Patent Document 1). In addition, there is known a game technology that can photograph a hand gesture or a QR (Quick Response) code (registered trademark) and play a game using the photographed gesture or code (for example, Patent Documents 2 and 3). reference).

米国特許出願公開第2016/0361640号公報US Patent Application Publication No. 2016/0361640 特開2016−57779号公報Japanese Patent Laid-Open No. 2006-57779 特開2012−176115号公報JP 2012-176115 A

しかしながら、上記技術は、1つのジェスチャに応じて1つのゲーム処理が実行される。また、1つのQRコード(登録商標)に応じて1つのゲーム処理が実行される。つまり、1つの対象物に対して1つの処理が行われる。   However, in the above technique, one game process is executed according to one gesture. Further, one game process is executed according to one QR code (registered trademark). That is, one process is performed on one object.

そこで、一側面では、本発明は、1つの対象物を用いて、複数の選択肢の中から好みの一つを選択することを目的とする。   Thus, in one aspect, an object of the present invention is to select one of a plurality of options using a single object.

一つの案では、赤外線センサを用いて対象物を撮影し、対象物の複数の形状及び輝度の少なくともいずれかとゲームに関するパラメータを関連付けた記憶部を参照して、撮影した前記対象物の形状及び輝度の少なくともいずれかに基づきゲームに関するパラメータを特定する、処理をコンピュータに実行させるためのゲーム処理プログラムが提供される。   In one proposal, an object is photographed using an infrared sensor, and the shape and brightness of the photographed object are referenced with reference to a storage unit that associates at least one of the plurality of shapes and brightness of the object with a parameter relating to the game. A game processing program for specifying a parameter relating to a game based on at least one of the above and causing a computer to execute a process is provided.

一側面によれば、1つの対象物を用いて、複数の選択肢の中から好みの一つを選択することができる。   According to one aspect, it is possible to select one of a plurality of options using a single object.

一実施形態に係るゲーム機器の一例を説明するための図。The figure for demonstrating an example of the game device which concerns on one Embodiment. 一実施形態に係るゲーム機器のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the game device which concerns on one Embodiment. 一実施形態に係るゲーム機器の機能構成の一例を示す図。The figure which shows an example of a function structure of the game device which concerns on one Embodiment. 一実施形態に係るパラメータテーブルの一例を示す図。The figure which shows an example of the parameter table which concerns on one Embodiment. 一実施形態に係る赤外線カメラによる撮影とパラメータの表示の一例を示す図。The figure which shows an example of imaging | photography with the infrared camera which concerns on one Embodiment, and the display of a parameter. 一実施形態に係るゲーム処理の一例を示すフローチャート。The flowchart which shows an example of the game process which concerns on one Embodiment. 一実施形態に係るゲーム処理によるキャラクタの作成の一例を示す図。The figure which shows an example of creation of the character by the game process which concerns on one Embodiment. 一実施形態に係るパラメータテーブルの他の例を示す図。The figure which shows the other example of the parameter table which concerns on one Embodiment. 一実施形態に係る赤外線カメラによる撮影とパラメータの表示の他の例を示す図。The figure which shows the other example of imaging | photography with the infrared camera which concerns on one Embodiment, and the display of a parameter. 一実施形態に係るゲーム処理の応用例1を示すフローチャート。The flowchart which shows the application example 1 of the game process which concerns on one Embodiment. 一実施形態に係る赤外線カメラによる撮影とゲーム処理の応用例1を示す図。The figure which shows the application example 1 of imaging | photography with the infrared camera which concerns on one Embodiment, and a game process. 一実施形態に係る赤外線カメラによる撮影とゲーム処理の応用例1を示す図。The figure which shows the application example 1 of imaging | photography with the infrared camera which concerns on one Embodiment, and a game process. 一実施形態に係るゲーム処理の応用例2を示すフローチャート。The flowchart which shows the application example 2 of the game process which concerns on one Embodiment. 一実施形態に係る赤外線カメラによる撮影とゲーム処理の応用例2を示す図。The figure which shows the application example 2 of imaging | photography and game processing with the infrared camera which concerns on one Embodiment. 一実施形態に係るゲーム処理の応用例3を示すフローチャート。The flowchart which shows the application example 3 of the game processing which concerns on one Embodiment. 一実施形態に係る赤外線カメラによる撮影とゲーム処理の応用例3を示す図。The figure which shows the application example 3 of imaging | photography with the infrared camera which concerns on one Embodiment, and a game process.

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[ゲーム機器]
まず、本発明の一実施形態に係るゲーム機器10の一例について、図1を参照しながら説明する。ゲーム機器10は、図1(a)に示すように、コントローラ1として機能する本体4を有する。本体4は、矩形状であり、ユーザが片手又は両手で把持可能な大きさである。本体4は、ディスプレイ32を有する。ディスプレイ32としては、例えば、液晶表示装置や有機EL表示装置が用いられてもよい。
[Game equipment]
First, an example of the game machine 10 according to an embodiment of the present invention will be described with reference to FIG. The game machine 10 has a main body 4 that functions as the controller 1 as shown in FIG. The main body 4 has a rectangular shape and is a size that can be held by a user with one hand or both hands. The main body 4 has a display 32. As the display 32, for example, a liquid crystal display device or an organic EL display device may be used.

コントローラ1は、下側に位置する操作ボタン2と、上側に位置する赤外線カメラ34とを有する。ユーザ(プレイヤ)は、コントローラ1の操作ボタンを操作して、ディスプレイ32に表示されたゲームを行うことができる。   The controller 1 has an operation button 2 located on the lower side and an infrared camera 34 located on the upper side. The user (player) can play the game displayed on the display 32 by operating the operation buttons of the controller 1.

コントローラ1は、図1(b)に示すように、赤外線カメラ34を対象物Ojに向け、所定の角度及び所定の位置で赤外線を対象物Ojに照射する。コントローラ1は、対象物Ojから反射する赤外線による対象物Ojの画像を本体4側へ送信するようになっている。   As shown in FIG. 1B, the controller 1 directs the infrared camera 34 toward the object Oj and irradiates the object Oj with infrared rays at a predetermined angle and a predetermined position. The controller 1 transmits an image of the object Oj by infrared rays reflected from the object Oj to the main body 4 side.

対象物Ojの画像を受信すると、本体4内のCPUは、対象物Ojの画像を解析する。このとき、撮影した対象物Ojの画像を解析して得られる形状及び輝度は、対象物Ojの撮影箇所や撮影方向(撮影角度)によって異なる。よって、同一の対象物Ojを撮影しても、対象物Ojの撮影箇所及び撮影方向から、その対象物Ojの画像に含まれる対象物Ojの形状や輝度に応じて異なるパラメータが特定される。このようにして、赤外線カメラ34が撮影した対象物Ojの形状及び輝度に応じて特定のパラメータが抽出されると、図1(b)に示すように特定されたパラメータがディスプレイ32に表示される。また、ユーザが、赤外線カメラ34を動かして対象物Ojの撮影箇所や撮影方向を変更すると、これに応じて特定されるパラメータが変更し、変更されたパラメータがディスプレイ32に表示される。   When the image of the object Oj is received, the CPU in the main body 4 analyzes the image of the object Oj. At this time, the shape and brightness obtained by analyzing the image of the captured object Oj vary depending on the shooting location and shooting direction (shooting angle) of the object Oj. Therefore, even if the same object Oj is photographed, different parameters are specified according to the shape and brightness of the object Oj included in the image of the object Oj from the photographing location and the photographing direction of the object Oj. In this way, when specific parameters are extracted according to the shape and brightness of the object Oj taken by the infrared camera 34, the specified parameters are displayed on the display 32 as shown in FIG. . Further, when the user moves the infrared camera 34 and changes the shooting location and shooting direction of the object Oj, the parameters specified in accordance with this change, and the changed parameters are displayed on the display 32.

なお、本実施形態に係るゲーム機器10は、ダウンロードしたゲーム処理プログラム及びゲームデータに基づき、ゲームを実行する情報処理装置の一例である。ゲーム機器10は、パーソナルコンピュータ、タブレットコンピュータ、スマートフォン等であってもよい。   Note that the game device 10 according to the present embodiment is an example of an information processing apparatus that executes a game based on a downloaded game processing program and game data. The game device 10 may be a personal computer, a tablet computer, a smartphone, or the like.

本実施形態に係るゲーム機器10では、コントローラ1は2つ又は3つ以上であってもよい。ゲーム機器10は、ディスプレイ32、赤外線カメラ34及び操作ボタン2が設けられていれば、コントローラ1と本体4とが着脱可能であってもよい。   In the game device 10 according to the present embodiment, the number of controllers 1 may be two or three or more. As long as the game apparatus 10 is provided with the display 32, the infrared camera 34, and the operation button 2, the controller 1 and the main body 4 may be detachable.

[ゲーム機器のハードウェア構成]
次に、ゲーム機器10のハードウェア構成の一例について、図2を参照しながら説明する。本実施形態に係るゲーム機器10は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)23及びHDD(Hard Disk Drive)24を有する。
[Hardware configuration of game machine]
Next, an example of the hardware configuration of the game apparatus 10 will be described with reference to FIG. The game device 10 according to the present embodiment includes a central processing unit (CPU) 21, a read only memory (ROM) 22, a random access memory (RAM) 23, and a hard disk drive (HDD) 24.

また、ゲーム機器10は、グラフィックカード25、外部I/F26、通信I/F27、入力I/F28、プロジェクタ29、タッチパネル31、ディスプレイ32、スピーカ33及び赤外線カメラ34を有する。各部はバスで相互に接続されている。   The game device 10 also includes a graphic card 25, an external I / F 26, a communication I / F 27, an input I / F 28, a projector 29, a touch panel 31, a display 32, a speaker 33, and an infrared camera 34. Each part is connected to each other by a bus.

ROM22は、電源を切っても内部データを保持することができる不揮発性の半導体メモリである。RAM23は、プログラムやデータを一時保持する揮発性の半導体メモリである。ROM22及びRAM23には、プログラム及びデータが格納されている。   The ROM 22 is a nonvolatile semiconductor memory that can retain internal data even when the power is turned off. The RAM 23 is a volatile semiconductor memory that temporarily stores programs and data. The ROM 22 and the RAM 23 store programs and data.

HDD24は、プログラムやデータを格納している不揮発性の記憶装置である。HDD24には、ゲーム機器10の全体を制御する基本ソフトウェア及びアプリケーションソフトウェアのプログラムが格納されてもよい。HDD24には、各種のデータベースが格納されてもよい。本実施形態では、HDD24に、基本処理プログラム、ゲーム処理プログラム等の各種のプログラム及び各種のデータが格納されている。   The HDD 24 is a non-volatile storage device that stores programs and data. The HDD 24 may store basic software and application software programs that control the entire game device 10. Various databases may be stored in the HDD 24. In the present embodiment, the HDD 24 stores various programs such as a basic processing program and a game processing program, and various data.

CPU21は、ROM22やHDD24から各種プログラム及び各種データをRAM23上に読み出し、各種の処理を実行することで、ゲーム機器10の全体の制御やゲーム機器10に搭載された機能を実現する。   The CPU 21 reads various programs and various data from the ROM 22 and the HDD 24 onto the RAM 23 and executes various processes, thereby realizing overall control of the game device 10 and functions installed in the game device 10.

外部I/F26は、ゲーム機器10を外部装置に接続するインターフェースである。外部装置には、記憶媒体26aなどがある。これにより、ゲーム機器10は、外部I/F26を介して記憶媒体26aの読み取り及び書き込みを行うことができる。記憶媒体26aの一例としては、CD(Compact Disk)、DVD(Digital Versatile Disk)、SDメモリカード(SD Memory card)又はUSBメモリ(Universal Serial Bus memory)等が挙げられる。   The external I / F 26 is an interface that connects the game machine 10 to an external device. The external device includes a storage medium 26a. Thereby, the game device 10 can read and write the storage medium 26 a via the external I / F 26. Examples of the storage medium 26a include a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card (SD Memory card), or a USB memory (Universal Serial Bus memory).

例えば、ゲーム機器10には、ゲーム処理プログラム等が格納された記憶媒体26aを装着することが可能である。これらのプログラムは、外部I/F26により読み出されて、RAM23に読み込まれる。   For example, the game machine 10 can be loaded with a storage medium 26a in which a game processing program or the like is stored. These programs are read by the external I / F 26 and read into the RAM 23.

CPU21は、RAM23に読み込まれたゲーム処理プログラムを処理し、グラフィックカード25にゲームの進行に応じた画像の出力を指示する。グラフィックカード25は、指示に従い画面に表示するゲームの画像処理を行い、ゲーム画像をディスプレイ32に描画させる。グラフィックカード25から出力される画像の一フレーム時間は、例えば1/30〜1/60秒である。グラフィックカード25は、フレーム単位で1枚の画像の描画を実行する。すなわち、一秒間に30回〜60回のフレームの画像が描画される。   The CPU 21 processes the game processing program read into the RAM 23 and instructs the graphic card 25 to output an image according to the progress of the game. The graphic card 25 performs image processing of the game displayed on the screen according to the instruction, and causes the display 32 to draw the game image. One frame time of an image output from the graphic card 25 is, for example, 1/30 to 1/60 seconds. The graphic card 25 executes drawing of one image for each frame. That is, an image of 30 to 60 frames per second is drawn.

また、CPU21は、RAM23に読み込まれた上記の各種プログラムを処理し、ゲームの進行に応じてスピーカ33から所定の音を出力させる。通信I/F27は、ゲーム機器10をネットワークに接続するインターフェースである。通信I/F27は、アンテナを有する通信ユニットを介して他の機器と通信を行う。   Further, the CPU 21 processes the various programs read into the RAM 23 and outputs predetermined sounds from the speaker 33 as the game progresses. The communication I / F 27 is an interface for connecting the game device 10 to a network. The communication I / F 27 communicates with other devices via a communication unit having an antenna.

入力I/F28は、コントローラ1等の入力機器に接続するインターフェースである。コントローラ1は、操作ボタン2を有する。ユーザは、コントローラ1を用いてゲーム操作を行う。例えば、ユーザは、操作ボタン2を操作することでプレイヤキャラクタPCに所定の動作を行わせることができる。コントローラ1は方向キー3を有し、ユーザは、方向キー3を操作することでプレイヤキャラクタPCを所定の方向に移動させるようにしてもよい。   The input I / F 28 is an interface connected to an input device such as the controller 1. The controller 1 has an operation button 2. The user performs a game operation using the controller 1. For example, the user can cause the player character PC to perform a predetermined action by operating the operation button 2. The controller 1 may have a direction key 3, and the user may move the player character PC in a predetermined direction by operating the direction key 3.

入力I/F28は、ユーザがコントローラ1を用いて行った入力操作に基づく入力情報をRAM23に格納させる。また、ユーザが、コントローラ1を操作してゲームの開始を指示したとき、入力I/F28が、その指示情報を入力することによりゲーム処理が開始される。   The input I / F 28 causes the RAM 23 to store input information based on an input operation performed by the user using the controller 1. When the user operates the controller 1 to instruct the start of the game, the input I / F 28 inputs the instruction information to start the game process.

赤外線カメラ34は、レンズと、光(赤外線又は近赤外線)に感光する受光素子とを有する。赤外線カメラ34は、赤外線に感光する受光素子を縦横に複数並べたイメージセンサを有し、当該イメージセンサの各受光素子が、赤外線カメラ34から出射され、対象物Ojを反射する赤外線を受光して電気信号に変換することで2次元の赤外線画像を出力する。赤外線カメラ34は、対象物を撮影する赤外線センサの一例である。   The infrared camera 34 includes a lens and a light receiving element that is sensitive to light (infrared rays or near infrared rays). The infrared camera 34 has an image sensor in which a plurality of light receiving elements that are sensitive to infrared light are arranged vertically and horizontally. Each light receiving element of the image sensor receives infrared light that is emitted from the infrared camera 34 and reflects the object Oj. A two-dimensional infrared image is output by converting it into an electrical signal. The infrared camera 34 is an example of an infrared sensor that captures an object.

プロジェクタ29は、可視光を射出する光源を有し、当該光源からの光を用いて文字や画像等を投影面に投影する。タッチパネル31は、ディスプレイ32の画面上に設けられ、ユーザによってタッチされた画面上の位置を検出する。タッチパネル31としては、例えば、静電容量方式、抵抗膜方式等、任意のものが用いられる。   The projector 29 has a light source that emits visible light, and projects characters, images, and the like on the projection plane using light from the light source. The touch panel 31 is provided on the screen of the display 32, and detects the position on the screen touched by the user. As the touch panel 31, for example, an arbitrary one such as a capacitance method or a resistance film method is used.

かかる構成のゲーム機器10において、CPU21が、ゲームに関する各種の演算処理を実行すると、入力I/F28はCPU21からの指示に従いRAM23に記憶されているゲームのデータをメモリカード28aに保存させる。また、入力I/F28は、メモリカード28aに保存されている中断時のゲームのデータを読み出してRAM23に転送する処理を行う。   In the game device 10 having such a configuration, when the CPU 21 executes various arithmetic processes relating to the game, the input I / F 28 stores the game data stored in the RAM 23 in the memory card 28a in accordance with instructions from the CPU 21. Further, the input I / F 28 performs a process of reading the game data at the time of interruption stored in the memory card 28 a and transferring it to the RAM 23.

なお、本実施形態では、ゲーム機器10を据え置き型の状態にセットした場合には、赤外線カメラ34及びタッチパネル31等の機能は使用できないようになっている。ただし、この場合に、赤外線カメラ34及びタッチパネル31等の機能を使用できるようにしてもよい。   In the present embodiment, when the game device 10 is set in a stationary state, functions such as the infrared camera 34 and the touch panel 31 cannot be used. However, in this case, functions such as the infrared camera 34 and the touch panel 31 may be used.

[ゲーム機器の機能構成]
次に、本実施形態に係るゲーム機器10の機能構成の一例について、図3を参照しながら説明する。ゲーム機器10は、ゲーム実行部9、受付部11、撮影部12、記憶部13、特定部14、作成部15、グラフィック処理部16、サウンド処理部17、表示部18、音出力部19及び通信部20を有する。
[Functional configuration of game device]
Next, an example of a functional configuration of the game machine 10 according to the present embodiment will be described with reference to FIG. The game machine 10 includes a game execution unit 9, a reception unit 11, a photographing unit 12, a storage unit 13, a specification unit 14, a creation unit 15, a graphic processing unit 16, a sound processing unit 17, a display unit 18, a sound output unit 19, and communication. Part 20.

受付部11は、ユーザのゲーム操作を受け付ける。例えば、受付部11は、コントローラ1の操作ボタン2の操作を受け付ける。ゲーム実行部9は、ゲーム処理プログラムに従いゲーム処理を実行する。本実施形態にて実行されるゲームは、単独でプレイするゲームであってもよいし、通信接続されている他のユーザと共同でプレイする通信ゲームであってもよい。   The reception unit 11 receives a user's game operation. For example, the reception unit 11 receives an operation of the operation button 2 of the controller 1. The game execution unit 9 executes game processing according to the game processing program. The game executed in the present embodiment may be a game that is played alone, or may be a communication game that is played jointly with other users connected via communication.

撮影部12は、赤外線カメラ34を用いて特定の対象物を撮影する。記憶部13は、パラメータテーブル131及びゲーム処理プログラム132を記憶する。パラメータテーブル131には、対象物の複数の形状及び輝度とゲームに関するパラメータとが関連付けて記憶されている。   The photographing unit 12 photographs a specific object using the infrared camera 34. The storage unit 13 stores a parameter table 131 and a game processing program 132. In the parameter table 131, a plurality of shapes and luminances of the object and parameters relating to the game are stored in association with each other.

図4に、一実施形態に係るパラメータテーブル131の一例を示す。図4のパラメータテーブル131では、対象物131aが「馬」であり、馬の複数の形状131b及び輝度131cのそれぞれに対応してパラメータ131dが記憶されている。ここでは、馬の対象物の形状131bとして、「顔」、「頭」、「背中」、「腹」、「前足」、「後ろ足」、「尻」、「首」等が記憶され、各形状における輝度131cが「高」、「低」の場合のそれぞれに応じて異なるパラメータ131dが記憶されている。   FIG. 4 shows an example of the parameter table 131 according to an embodiment. In the parameter table 131 of FIG. 4, the object 131 a is “horse”, and parameters 131 d are stored corresponding to each of the plurality of shapes 131 b and the luminance 131 c of the horse. Here, “face”, “head”, “back”, “belly”, “front foot”, “back foot”, “butt”, “neck”, etc. are stored as the shape 131b of the horse object. Different parameters 131d are stored depending on the case where the luminance 131c is “high” and “low”.

特定部14は、パラメータテーブル131を参照して、撮影した対象物Ojの形状及び輝度の少なくともいずれかに基づきゲームに関するパラメータを特定する。例えば、特定部14は、撮影した馬の対象物Ojの形状が「顔」、輝度が「高」の場合、図4のパラメータテーブル131を参照して、パラメータを統率「75」、武勇「48」、知略「36」と特定する。   The identifying unit 14 refers to the parameter table 131 and identifies a parameter related to the game based on at least one of the shape and brightness of the photographed object Oj. For example, when the shape of the photographed horse object Oj is “face” and the luminance is “high”, the specifying unit 14 refers to the parameter table 131 of FIG. ”And the abbreviation“ 36 ”.

対象物Ojの撮影位置によって対象物の形状や輝度は変化する。対象物Ojの撮影角度によっても対象物の形状や輝度は変化する。よって、赤外線カメラ34が対象物Ojを撮影する際の姿勢や向き、赤外線カメラ34と対象物Ojとの距離によって、撮影する画像に含まれる対象物Ojの形状及び画像の輝度を変えることで、パラメータを変化させることができる。   The shape and brightness of the object vary depending on the shooting position of the object Oj. The shape and brightness of the object also change depending on the shooting angle of the object Oj. Therefore, by changing the shape of the object Oj included in the image to be photographed and the brightness of the image according to the posture and direction when the infrared camera 34 captures the object Oj and the distance between the infrared camera 34 and the object Oj, Parameters can be changed.

なお、対象物Ojは、動物に限らない。対象物Ojは、人の身体の部位、人以外の動物の部位、動的な物体又は静的な物体のいずれかであってもよい。例えば、対象物Ojは、人の手、足、口等の人間の身体の部位であってもよいし、ペット等の動物の足、しっぽ等の部位であってもよい。また、対象物Ojは、ゲームに登場するキャラクタのフィギュア等の静的な物体や、ロボット等の動的な物体であってもよい。対象物Ojは、二次元の物体であってもよいし、三次元の物体であってもよい。ただし、対象物Ojが人の手であると、手の形からイメージする概念に合致するパラメータをパラメータテーブル131に設定することで、手の形により特定されるパラメータの予見性を高めることができるため好ましい。   The object Oj is not limited to animals. The object Oj may be any one of a human body part, a non-human animal part, a dynamic object, or a static object. For example, the object Oj may be a part of a human body such as a human hand, foot, or mouth, or may be a part of an animal foot such as a pet or a tail. The target object Oj may be a static object such as a figure of a character appearing in the game, or a dynamic object such as a robot. The object Oj may be a two-dimensional object or a three-dimensional object. However, if the object Oj is a human hand, by setting parameters in the parameter table 131 that match the concept imaged from the shape of the hand, the predictability of the parameter specified by the shape of the hand can be improved. Therefore, it is preferable.

また、武将キャラクタを作成する場合、パラメータテーブル131のパラメータは、図4の武将キャラクタのパラメータを示す統率や武勇や知略であることが好ましいが、これに限らない。パラメータの他の例としては、ゲームで使用される攻撃や防御のHPのレベルやゲームに反映する背景の明暗の程度、ゲームで利用可能なサイン、武器等であってもよい。   Moreover, when creating a military commander character, it is preferable that the parameter of the parameter table 131 is a command, a hero, or a tactic indicating the parameters of the military commander character in FIG. 4, but is not limited thereto. Other examples of parameters may include the level of attack or defense HP used in the game, the degree of background contrast reflected in the game, signs and weapons that can be used in the game.

ユーザが赤外線カメラ34を用いて対象物を撮影すると、表示部18は、対象物の形状や輝度に応じて特定されるパラメータを、リアルタイムに表示する。なお、「対象物を撮影する」には、ユーザが赤外線カメラ34のシャッタを押して対象物の画像が得られる場合だけでなく、単に赤外線カメラ34を対象物に向けただけでパラメータが表示されるような場合も含み得る。   When the user photographs an object using the infrared camera 34, the display unit 18 displays parameters specified according to the shape and brightness of the object in real time. It should be noted that in “shooting an object”, parameters are displayed not only when the user presses the shutter of the infrared camera 34 to obtain an image of the object, but also by simply pointing the infrared camera 34 toward the object. Such cases may also be included.

例えば、立体的な馬のフィギュアが対象物Ojの場合にパラメータを設定する例について説明する。図5に示すように、ユーザは、コントローラ1に設けられた赤外線カメラ34を使用して対象物Ojを前方や後方や斜めや横から撮影する。   For example, an example in which parameters are set when a three-dimensional horse figure is the object Oj will be described. As shown in FIG. 5, the user uses the infrared camera 34 provided in the controller 1 to photograph the object Oj from the front, rear, diagonal, or side.

まず、ユーザが、図5の上図の(1)に示す位置で、赤外線カメラ34を使用して対象物Ojを前方斜め右側から撮影すると、特定部14は、パラメータテーブル131を参照して、撮影された対象物Ojの画像から対象物Ojの形状及び輝度を解析する。ただし、画像に含まれる対象物Ojの形状だけを解析してもよいし、対象物Ojの輝度だけを解析してもよい。   First, when the user captures the object Oj from the front diagonal right side using the infrared camera 34 at the position shown in (1) in the upper diagram of FIG. 5, the specifying unit 14 refers to the parameter table 131, The shape and brightness of the object Oj are analyzed from the captured image of the object Oj. However, only the shape of the object Oj included in the image may be analyzed, or only the luminance of the object Oj may be analyzed.

このとき、対象物Ojの形状が「首」、輝度が「高」と解析されると、特定部14は、パラメータテーブル131を参照して、形状131bが「首」、輝度131cが「高」に紐付けられた統率「48」、武勇「90」、知略「45」のパラメータ131dを特定する。この結果、図5(a)に示すように、表示部18は、特定された率「48」、武勇「90」、知略「45」のパラメータをディスプレイ32に表示する。図5(a)では、パラメータとともに対象物Oj等が表示されているが、パラメータのみを表示してもよい。   At this time, when the shape of the object Oj is analyzed as “neck” and the luminance is “high”, the specifying unit 14 refers to the parameter table 131 and the shape 131b is “neck” and the luminance 131c is “high”. The parameter 131d of the command “48”, the hero “90”, and the wisdom “45” associated with each other is specified. As a result, as shown in FIG. 5A, the display unit 18 displays the parameters of the specified rate “48”, heroic “90”, and knowledge “45” on the display 32. In FIG. 5A, the object Oj and the like are displayed together with the parameters, but only the parameters may be displayed.

続けて、ユーザが、図5の上図の(2)に示す位置で、赤外線カメラ34を使用して対象物Ojを前方から撮影すると、特定部14は、パラメータテーブル131を参照して、撮影された対象物Ojの画像から対象物Ojの形状と輝度を解析する。   Subsequently, when the user photographs the object Oj from the front using the infrared camera 34 at the position shown in (2) in the upper diagram of FIG. 5, the specifying unit 14 refers to the parameter table 131 and captures the image. The shape and brightness of the target object Oj are analyzed from the image of the target object Oj.

このとき、対象物Ojの形状が「顔」、輝度が「高」と解析されると、特定部14は、パラメータテーブル131を参照して、形状131bが「顔」、輝度131cが「高」に紐付けた統率「75」、武勇「48」、知略「36」のパラメータ131dを特定する。この結果、表示部18は、図5(a)に表示したパラメータから、図5(b)に示す統率「75」、武勇「48」、知略「36」のパラメータに、リアルタイムに表示が変更される。   At this time, when the shape of the object Oj is analyzed as “face” and the luminance is “high”, the specifying unit 14 refers to the parameter table 131 and the shape 131b is “face” and the luminance 131c is “high”. The parameter 131d of the command “75”, the hero “48”, and the wisdom “36” associated with each other is specified. As a result, the display unit 18 changes the display in real time from the parameter displayed in FIG. 5A to the parameters of the command “75”, the hero “48”, and the knowledge “36” shown in FIG. 5B. The

続けて、ユーザが、図5の上図の(3)に示すように、赤外線カメラ34を使用して対象物Ojを後方から撮影すると、特定部14は、パラメータテーブル131を参照して、撮影された対象物Ojの画像から対象物Ojの形状と輝度を解析する。   Subsequently, when the user captures the object Oj from behind using the infrared camera 34 as shown in (3) of the upper diagram of FIG. 5, the specifying unit 14 refers to the parameter table 131 and captures the image. The shape and brightness of the target object Oj are analyzed from the image of the target object Oj.

例えば、対象物Ojの形状が「尻」、輝度が「高」と解析されると、特定部14は、パラメータテーブル131を参照して、形状131bが「尻」、輝度131cが「高」に紐付けた統率「58」、武勇「17」、知略「99」のパラメータ131dを特定する。この結果、表示部18は、図5(b)に表示したパラメータから、図5(c)に示す特定された統率「58」、武勇「17」、知略「99」のパラメータに、リアルタイムに表示が変更される。   For example, when the shape of the object Oj is analyzed as “butt” and the luminance is “high”, the specifying unit 14 refers to the parameter table 131 and sets the shape 131b to “butt” and the luminance 131c to “high”. The parameters 131d of the associated command “58”, hero “17”, and knowledge “99” are specified. As a result, the display unit 18 displays in real time from the parameters displayed in FIG. 5B to the parameters of the specified command “58”, hero “17”, and knowledge “99” shown in FIG. 5C. Is changed.

ユーザは、表示されているパラメータを確認しながら赤外線カメラ34を動かし、望むパラメータが表示されたとき、シャッターボタン34aを押下する。これにより、シャッターボタン34aを押下されたときのパラメータが選択される。   The user moves the infrared camera 34 while confirming the displayed parameters, and when the desired parameters are displayed, presses the shutter button 34a. Thereby, the parameter when the shutter button 34a is pressed is selected.

作成部15は、選択された武将キャラクタのパラメータに基づき武将キャラクタを作成する。例えば、図5(a)に示すパラメータが表示されているときにシャッターボタン34aが押下された場合、作成部15は、統率「48」、武勇「90」、知略「45」のパラメータを有する、武勇に優れた武将キャラクタを作成する。   The creation unit 15 creates a military commander character based on the parameters of the selected military commander character. For example, when the shutter button 34a is pressed while the parameters shown in FIG. 5A are displayed, the creation unit 15 has parameters of command “48”, heroic “90”, and knowledge “45”. Create a warrior character with excellent heroism.

一方、図5(b)に示すパラメータが表示されているときにシャッターボタン34aが押下された場合、作成部15は、統率「75」、武勇「48」、知略「36」のパラメータを有する、統率に優れた武将キャラクタを作成する。   On the other hand, when the shutter button 34a is pressed while the parameters shown in FIG. 5B are displayed, the creation unit 15 has parameters of command “75”, hero “48”, and knowledge “36”. Create a military commander with excellent command.

さらに、図5(c)に示すパラメータが表示されているときにシャッターボタン34aが押下された場合、作成部15は、統率「58」、武勇「17」、知略「99」のパラメータの知略に優れた武将キャラクタを作成する。   Further, when the shutter button 34a is pressed while the parameters shown in FIG. 5C are displayed, the creation unit 15 uses the command parameters of command “58”, hero “17”, and command “99”. Create an excellent military commander character.

グラフィック処理部16は、表示部18に接続され、ゲーム実行部9から描画命令が出力されると、表示部18にビデオ信号を出力する。これにより、表示部18は、ゲームの進行に合わせてゲームの画像を表示する。   The graphic processing unit 16 is connected to the display unit 18, and outputs a video signal to the display unit 18 when a drawing command is output from the game execution unit 9. Thereby, the display part 18 displays the image of a game according to progress of a game.

サウンド処理部17は、音出力部19に接続され、ゲーム実行部9からサウンド出力の指示命令が出力されると、音出力部19にサウンド信号を出力する。これにより、音出力部19は、ゲームの進行に応じた音声及びサウンドを出力する。通信部20は、他の機器と通信を行う。   The sound processing unit 17 is connected to the sound output unit 19, and outputs a sound signal to the sound output unit 19 when a sound output instruction command is output from the game execution unit 9. Thereby, the sound output part 19 outputs the audio | voice and sound according to progress of a game. The communication unit 20 communicates with other devices.

なお、記憶部13の機能は、例えば図2に示すROM22、RAM23、HDD24又はネットワークを介してゲーム機器10に接続されるクラウド上の記憶装置等により実現される。受付部11の機能は、例えば入力I/F28又は外部I/F26により実現される。撮影部12の機能は、例えば赤外線カメラ34により実現される。   Note that the function of the storage unit 13 is realized by, for example, the ROM 22, the RAM 23, the HDD 24, or a storage device on the cloud connected to the game machine 10 via the network as shown in FIG. The function of the reception unit 11 is realized by the input I / F 28 or the external I / F 26, for example. The function of the imaging unit 12 is realized by the infrared camera 34, for example.

ゲーム実行部9、特定部14、作成部15及びサウンド処理部17の機能は、例えば、ゲーム処理プログラム132がCPU21に実行させる処理により実現される。   The functions of the game execution unit 9, the specification unit 14, the creation unit 15, and the sound processing unit 17 are realized by, for example, processing that the game processing program 132 causes the CPU 21 to execute.

グラフィック処理部16の機能は、例えばグラフィックカード25により実現される。表示部18の機能は、例えばディスプレイ32により実現される。音出力部19の機能は、例えばスピーカ33により実現される。   The function of the graphic processing unit 16 is realized by the graphic card 25, for example. The function of the display unit 18 is realized by the display 32, for example. The function of the sound output unit 19 is realized by the speaker 33, for example.

通信部20の機能は、例えば通信I/F27により実現される。例えばパラメータテーブル131がクラウド上の記憶装置に記憶されている場合、通信部20は、クラウド上の記憶装置から必要な情報を受信する。   The function of the communication unit 20 is realized by the communication I / F 27, for example. For example, when the parameter table 131 is stored in a storage device on the cloud, the communication unit 20 receives necessary information from the storage device on the cloud.

なお、図3は機能に着目したブロック図を描いており、これらの機能ブロックで示した各部は、ハードウェアのみ、ソフトウェアのみ、またはハードウェアとソフトウェアとの組合せによって実現することができる。   Note that FIG. 3 is a block diagram focusing on functions, and each unit shown in these functional blocks can be realized by hardware only, software only, or a combination of hardware and software.

[武将キャラクタのパラメータ設定/ゲーム処理]
次に、本実施形態に係る武将キャラクタのパラメータ設定とゲーム処理の一例について、図6を参照して説明する。図6は、一実施形態に係るパラメータの設定とゲーム処理の一例を示したフローチャートである。
[Commander parameter setting / game processing]
Next, an example of parameter setting and game processing of the military commander character according to the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating an example of parameter setting and game processing according to an embodiment.

ユーザが、赤外線カメラ34を対象物Ojに向け、赤外線を対象物Ojに照射すると、撮影部12は、赤外線が照射された角度で、照射された位置の対象物Ojから反射した反射光を受光素子が受光することにより、対象物Ojを撮影する(ステップS10)。次に、特定部14は、撮影した対象物Ojの画像から形状及び輝度を解析する(ステップS12)。次に、特定部14は、形状および輝度に応じたパラメータを特定する(ステップS14)。このとき、特定部14は、パラメータテーブル131を参照して、撮影した画像から解析した対象物Ojの形状と輝度に関連付けられたパラメータを特定する。   When the user directs the infrared camera 34 toward the object Oj and irradiates the object Oj with the infrared light, the photographing unit 12 receives the reflected light reflected from the object Oj at the irradiated position at the angle irradiated with the infrared light. When the element receives light, the object Oj is photographed (step S10). Next, the specifying unit 14 analyzes the shape and luminance from the captured image of the object Oj (step S12). Next, the specifying unit 14 specifies a parameter corresponding to the shape and brightness (step S14). At this time, the identifying unit 14 refers to the parameter table 131 and identifies a parameter associated with the shape and brightness of the object Oj analyzed from the captured image.

次に、表示部18は、特定したパラメータを表示する(ステップS16)。次に、作成部15は、シャッターボタン34aが押されたか否かを判定する(ステップS18)。ユーザによりシャッターボタン34aが押されなかった場合、シャッターボタン34aは押されていないと判定し、ステップ10に戻る。撮影部12は、この時点で赤外線カメラ34が向けられた位置及び角度にて、再度、対象物Ojを撮影する(ステップS10)。次に、特定部14は、今回撮影した対象物Ojの画像から形状及び輝度を解析し(ステップS12)、その形状および輝度に応じたパラメータを特定する(ステップS14)。次に、表示部18は、特定したパラメータを表示する(ステップS16)。このようにして、ユーザは、赤外線カメラ34を向けた対象物Ojの位置や角度を変えることで、変化するパラメータの数値を確認し、作成したい武将キャラクタに適合した、好みのパラメータが表示されたときにシャッターボタン34aを押す。   Next, the display unit 18 displays the specified parameters (step S16). Next, the creating unit 15 determines whether or not the shutter button 34a has been pressed (step S18). If the shutter button 34a is not pressed by the user, it is determined that the shutter button 34a has not been pressed, and the process returns to step 10. The imaging unit 12 captures the object Oj again at the position and angle at which the infrared camera 34 is directed at this time (step S10). Next, the specifying unit 14 analyzes the shape and luminance from the image of the object Oj photographed this time (step S12), and specifies parameters according to the shape and luminance (step S14). Next, the display unit 18 displays the specified parameters (step S16). In this way, the user confirms the numerical value of the changing parameter by changing the position and angle of the object Oj to which the infrared camera 34 is directed, and the desired parameter suitable for the military commander character to be created is displayed. Sometimes the shutter button 34a is pressed.

作成部15は、シャッターボタン34aが押されたか否かを判定し(ステップS18)、シャッターボタン34aが押されるまで、ステップS10〜S18の処理が繰り返される。シャッターボタン34aが押されたとき、作成部15は、表示されているパラメータに応じた武将キャラクタを作成する(ステップS20)。   The creation unit 15 determines whether or not the shutter button 34a has been pressed (step S18), and the processes of steps S10 to S18 are repeated until the shutter button 34a is pressed. When the shutter button 34a is pressed, the creation unit 15 creates a military commander character corresponding to the displayed parameter (step S20).

例えば、ユーザは、図7の武将キャラクタの作成画面にて、図7(a)に一例を示すように、武将キャラクタの性別、髪、輪郭、眉、防具等、それぞれに複数のパターンが用意されているパーツから、好みのパーツを選択することができる。その際、ユーザは、図7(a)の右側に示すように、武将キャラクタの出来上がり予想図を確認しながら、各パーツを選択することができる。   For example, as shown in FIG. 7 (a), the user prepares a plurality of patterns for the sex, hair, contour, eyebrows, armor, and the like of the military commander character on the screen for creating the military commander character of FIG. You can select the part you want from the parts that you have. At that time, as shown on the right side of FIG. 7A, the user can select each part while confirming the predicted figure of the military commander character.

なお、キャラクタの作成では、図7(a)に示す武将キャラクタの統率、武勇、知略だけでなく、武将キャラクタの他の特性を示すパラメータを、赤外線カメラ34を用いて対象物Ojを撮影することで設定してもよい。また、武将キャラクタだけでなく、図7(b)に示す軍団に所属する兵士キャラクタのHP、防具、色等を、赤外線カメラ34を用いて対象物Ojを撮影することで設定してもよい。   In the creation of the character, the object Oj is imaged using the infrared camera 34 with parameters indicating other characteristics of the military commander character as well as the commander's command, heroism, and knowledge of the military commander character shown in FIG. It may be set with. Further, not only the military commander character but also the HP, armor, color, etc. of the soldier character belonging to the corps shown in FIG. 7B may be set by photographing the object Oj using the infrared camera 34.

図6に戻り、ゲーム実行部9は、作成したキャラクタを登場させて、所望のゲームを実行し(ステップS22)、本処理を終了する。   Returning to FIG. 6, the game execution unit 9 causes the created character to appear, executes the desired game (step S <b> 22), and ends this process.

以上に説明したように、本実施形態では、ユーザは、赤外線カメラ34の姿勢や位置、赤外線カメラ34と対象物Ojとの距離を変えることで、撮影する対象物Ojの形状及び輝度に紐付けられたパラメータをリアルタイムに表示することができる。そして、ユーザは、作成したい武将キャラクタに適合した、好みのパラメータが表示されたときにシャッターボタン34aを押すことで、所望のパラメータを持つ武将キャラクタを作成することができる。特に、本実施形態では、ユーザは、1つの対象物Ojに対して、赤外線カメラ34から異なる方向や異なる位置に赤外線を照射することで、異なるパラメータを有する武将キャラクタを作成させることができる。この結果、ユーザは1つの対象物を様々な形状や輝度で撮影することにより、特定可能な異なるパラメータのうちのいずれかのパラメータの設定を行わせることができる。   As described above, in the present embodiment, the user associates the shape and brightness of the object Oj to be photographed by changing the posture and position of the infrared camera 34 and the distance between the infrared camera 34 and the object Oj. The displayed parameters can be displayed in real time. Then, the user can create a military commander character having a desired parameter by pressing the shutter button 34a when a favorite parameter suitable for the military commander character to be created is displayed. In particular, in this embodiment, the user can create a military commander character having different parameters by irradiating one object Oj with infrared rays in different directions and different positions from the infrared camera 34. As a result, the user can set one of the different parameters that can be specified by photographing one object with various shapes and brightness.

[武将キャラクタのパラメータ設定の他の例]
次に、本実施形態に係る武将キャラクタのパラメータ設定とゲーム処理の他の例について説明する。図8は、一実施形態に係るパラメータテーブル131の他の例を示す。図9は、一実施形態に係る赤外線カメラ34による撮影とパラメータの表示の他の例を示す。
[Other examples of military character parameter settings]
Next, other examples of parameter setting and game processing of the military commander character according to the present embodiment will be described. FIG. 8 shows another example of the parameter table 131 according to an embodiment. FIG. 9 shows another example of shooting and parameter display by the infrared camera 34 according to an embodiment.

図8のパラメータテーブル131では、対象物131aが「手」について、複数の形状131b及び輝度131cのそれぞれに対応してパラメータ131dが記憶されている。ここでは、手の対象物の形状131bに、「グー」の手、「親指を上に立てる」手、「チョキ」の手、「親指を下に向ける」手、「親指と人差し指で丸を作る」手等が記憶されている。また、各形状に対して輝度131cが「高」、「中」、「低」の場合に応じたパラメータ131dがそれぞれ記憶されている。   In the parameter table 131 of FIG. 8, when the object 131a is “hand”, the parameter 131d is stored corresponding to each of the plurality of shapes 131b and the luminance 131c. Here, the shape of the object 131b of the hand is made a circle with "Goo" hand, "Turn up thumb" hand, "Cheap" hand, "Turn thumb down" hand, "Thumb and index finger" "Hands etc. are memorized. Also, parameters 131d corresponding to the cases where the luminance 131c is “high”, “medium”, and “low” are stored for each shape.

特定部14は、パラメータテーブル131を参照して、撮影した対象物Ojである手の形状及び輝度の少なくともいずれかに基づきゲームに関するパラメータを特定する。例えば、ユーザが赤外線カメラ34で撮影する手を「グー」にしたとき、特定部14は、図8のパラメータテーブル131を参照して、形状が「グー」であって輝度が「高」に紐付けられたパラメータ131dを特定する。この結果、統率「75」、武勇「96」、知略「77」のパラメータが特定される。この結果、表示部18は、図9の左側に示すように、特定された統率「75」、武勇「96」、知略「77」のパラメータを表示する。   The identifying unit 14 refers to the parameter table 131 and identifies a game-related parameter based on at least one of the shape and brightness of the hand that is the captured object Oj. For example, when the user makes the hand shooting with the infrared camera 34 “goo”, the specifying unit 14 refers to the parameter table 131 in FIG. 8 and the shape is “goo” and the brightness is “high”. The attached parameter 131d is specified. As a result, parameters of the command “75”, the hero “96”, and the knowledge “77” are specified. As a result, as shown on the left side of FIG. 9, the display unit 18 displays the parameters of the specified command “75”, hero “96”, and knowledge “77”.

その後、ユーザが赤外線カメラ34で撮影する手を「親指を上に立てる」ように変更したとき、特定部14は、パラメータテーブル131を参照して、形状が「親指を上に立てる」であって輝度が「中」に紐付けられたパラメータ131dを特定する。この結果、統率「18」、武勇「83」、知略「66」のパラメータが特定される。この結果、表示部18は、図9の右側に示すように、表示するパラメータを、統率「18」、武勇「83」、知略「66」にリアルタイムに変更する。   After that, when the user changes the hand to be photographed by the infrared camera 34 to “put the thumb up”, the specifying unit 14 refers to the parameter table 131 and the shape is “put the thumb up”. The parameter 131d associated with the brightness “medium” is specified. As a result, the parameters of the command “18”, the hero “83”, and the knowledge “66” are specified. As a result, as shown on the right side of FIG. 9, the display unit 18 changes the parameters to be displayed in real time to the command “18”, the hero “83”, and the knowledge “66”.

図8のパラメータテーブル131を用いて、対象物Ojにユーザの手を用いた場合の、本実施形態に係るパラメータの設定及びゲーム処理については、図6に示すフローチャートを参照して説明した内容と同じであるため、ここでは説明を省略する。   The parameter setting and game processing according to the present embodiment when the user's hand is used for the object Oj using the parameter table 131 of FIG. 8 are the same as those described with reference to the flowchart shown in FIG. Since they are the same, the description is omitted here.

以上に説明したように、本実施形態では、ユーザは、赤外線カメラ34を用いて撮影する手の形状や角度を変えることで、変化するパラメータの数値を確認し、作成したい武将キャラクタに適合した、好みのパラメータが表示されたときにシャッターボタン34aを押す。このようにして特定されたパラメータにより、武将キャラクタを作成することができる。特に、本実施形態では、ユーザは、1つの手を様々な形状にすることで、赤外線カメラ34を用いて撮影した手の形状や輝度に応じて、武将キャラクタの複数のパラメータを表示させることができる。これにより、ユーザは表示されたパラメータから所望のパラメータを選択し、武将キャラクタを作成することができる。このようにして、ユーザは1つの対象物に対して特定される異なるパラメータのうちのいずれかのパラメータの設定を行わせることができる。   As described above, in the present embodiment, the user confirms the numerical value of the changing parameter by changing the shape and angle of the hand to be photographed using the infrared camera 34, and matches the military commander character to be created. When the desired parameter is displayed, the shutter button 34a is pressed. A military commander character can be created with the parameters specified in this way. In particular, in this embodiment, the user can display a plurality of parameters of the military commander character according to the shape and brightness of the hand photographed using the infrared camera 34 by making one hand into various shapes. it can. Thereby, the user can select a desired parameter from the displayed parameters and create a military commander character. In this way, the user can set any one of the different parameters specified for one object.

特に、対象物Ojが人の手であると、手の形からイメージする概念に合致するパラメータをパラメータテーブル131に設定することで、手の形により特定されるパラメータの予見性を高めることができる。   In particular, when the object Oj is a human hand, by setting parameters in the parameter table 131 that match the concept imaged from the shape of the hand, the predictability of the parameters specified by the shape of the hand can be improved. .

例えば、「親指を上に立てる」手のときは、「親指を下に向ける」手のときよりも運気が上がっている概念があるため、より良好な数値のパラメータをパラメータテーブル131に設定してもよい。   For example, there is a concept that the hand of “holding the thumb up” is more fortunate than the hand of “turning the thumb down”, so a better numerical parameter is set in the parameter table 131. Also good.

[ゲーム処理の応用例1]
以下、本実施形態に係るゲーム処理の応用例1について、図10を参照して説明する。図10は、一実施形態に係るゲーム処理の応用例1を示すフローチャートである。ここでは、パラメータが「ゲームに反映する背景の明暗の程度」であり、パラメータは撮影した対象物Ojの画像から輝度のみに基づいて特定される。
[Game processing application example 1]
Hereinafter, an application example 1 of the game processing according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an application example 1 of game processing according to an embodiment. Here, the parameter is “the degree of contrast of the background reflected in the game”, and the parameter is specified based on only the luminance from the image of the photographed object Oj.

ユーザが、赤外線カメラ34を対象物Ojに向け、赤外線を対象物Ojに照射すると、撮影部12は、赤外線が照射された角度で、照射された位置の対象物Ojから反射した反射光を受光し、これにより対象物Ojを撮影する(ステップS10)。次に、特定部14は、撮影した対象物Ojの画像から輝度を解析する(ステップS30)。次に、特定部14は、輝度とパラメータが関連付けられたパラメータテーブルを参照して、特定された輝度に関連付けられたパラメータを特定する。(ステップS32)。   When the user directs the infrared camera 34 toward the object Oj and irradiates the object Oj with the infrared light, the photographing unit 12 receives the reflected light reflected from the object Oj at the irradiated position at the angle irradiated with the infrared light. Thus, the object Oj is photographed (step S10). Next, the specifying unit 14 analyzes the luminance from the captured image of the object Oj (step S30). Next, the specifying unit 14 specifies a parameter associated with the specified luminance with reference to a parameter table in which the luminance and the parameter are associated. (Step S32).

次に、表示部18は、特定したパラメータを表示する(ステップS16)。次に、作成部15は、シャッターボタン34aが押されたか否かを判定する(ステップS18)。ユーザによりシャッターボタン34aが押されなかった場合、ステップ10に戻り、ステップS10以降の処理が繰り返される。   Next, the display unit 18 displays the specified parameters (step S16). Next, the creating unit 15 determines whether or not the shutter button 34a has been pressed (step S18). When the shutter button 34a is not pressed by the user, the process returns to step 10 and the processes after step S10 are repeated.

ユーザは、赤外線カメラ34を向けた対象物Ojの位置や角度を変えることで、変化するパラメータの数値を確認し、適当なタイミングでシャッターボタン34aを押す。   The user checks the numerical value of the changing parameter by changing the position and angle of the object Oj toward the infrared camera 34, and presses the shutter button 34a at an appropriate timing.

シャッターボタン34aが押されたとき、作成部15は、表示されているパラメータに応じてゲームの背景の明るさを調整し、表示部18は、調整した背景にてゲームを表示する(ステップS34)。ゲーム実行部9は、ユーザの望む時間帯の背景を描画し、所望のゲームを実行し(ステップS22)、本処理を終了する。   When the shutter button 34a is pressed, the creating unit 15 adjusts the brightness of the background of the game according to the displayed parameter, and the display unit 18 displays the game with the adjusted background (step S34). . The game execution unit 9 draws the background of the time zone desired by the user, executes the desired game (step S22), and ends this process.

例えば、ユーザは、赤外線カメラ34を手で覆った状態で撮影が行われたとする。このとき、特定部14は、撮影した対象物Ojの画像から輝度が「低」であると解析し、輝度とパラメータが関連付けられたパラメータテーブルを参照して、特定された輝度に関連付けられた「背景を暗くする」パラメータを特定する。   For example, it is assumed that the user has taken a picture with the infrared camera 34 covered with a hand. At this time, the specifying unit 14 analyzes that the luminance is “low” from the captured image of the object Oj, and refers to the parameter table in which the luminance and the parameter are associated with each other. Identify the “darken background” parameter.

これにより、ゲームの一場面にて、図11(a)に示すように、実行されるゲームの背景が暗くなり、夜の場面にすることができる。これにより、ゲームの雰囲気を変えることができる。夜の場面に対応してゲームのストーリを変え、ユーザにゲームの意外性を与えてもよい。   Accordingly, as shown in FIG. 11A, the background of the game to be executed becomes dark at one scene of the game, and a night scene can be obtained. Thereby, the atmosphere of a game can be changed. The story of the game may be changed corresponding to the night scene to give the user an unexpectedness of the game.

また、例えば、ユーザは、赤外線カメラ34を手で覆った状態からその手を離した状態に変えたときに撮影が行われたとする。このとき、特定部14は、撮影した対象物Ojの画像から輝度が「高」であると解析し、輝度とパラメータが関連付けられたパラメータテーブルを参照して、特定された輝度に関連付けられた「背景を明るくする」パラメータを特定する。   In addition, for example, it is assumed that photographing is performed when the user changes the state in which the infrared camera 34 is covered with a hand from the state in which the hand is released. At this time, the specifying unit 14 analyzes that the luminance is “high” from the captured image of the object Oj, refers to the parameter table in which the luminance and the parameter are associated, and associates “ Identify the “lighten background” parameter.

これにより、ゲームの一場面にて、図11(b)に示すように、実行されるゲームの背景が明るくなり、昼間の場面にすることができる。これにより、ゲームの雰囲気を変えることができる。昼間の場面に対応してゲームのストーリを変えてもよい。   Thereby, as shown in FIG.11 (b) in the scene of a game, the background of the game performed becomes bright and it can be set as a daytime scene. Thereby, the atmosphere of a game can be changed. The game story may be changed according to the daytime scene.

以上に説明したように、本実施形態の応用例1では、赤外線カメラ34を手で覆ったり、その手を赤外線カメラ34から離したりすることで、撮影された画像の輝度を変化させ、変化する輝度に応じて変化するパラメータからゲームの背景を変えることができる。   As described above, in the application example 1 of the present embodiment, the brightness of the photographed image is changed and changed by covering the infrared camera 34 with a hand or moving the hand away from the infrared camera 34. The background of the game can be changed from a parameter that changes according to the brightness.

なお、例えば、ユーザが、赤外線カメラ34から手を離した状態で撮影が行われると、図12(a)に示す昼間の戦いの場面にしたり、赤外線カメラ34を手で覆った状態で撮影が行われると、図12(b)に示す戦いの合間の夜の場面にしたりしてもよい。パラメータは、「ゲームに反映する背景の明暗の程度」だけでなく、場面に関する情報を含んでもよい。   Note that, for example, when shooting is performed with the user releasing his hand from the infrared camera 34, shooting is performed in a daytime battle scene illustrated in FIG. 12A or with the infrared camera 34 covered with his hand. If performed, it may be a night scene between battles shown in FIG. The parameter may include not only the “degree of background brightness reflected in the game” but also information regarding the scene.

攻撃色や攻撃表示の範囲を、赤外線カメラ34を手で覆った状態と、その手を離した状態で撮影が行われるときの、赤外線カメラ34が撮影した画像の輝度に基づき変化させてもよい。   The range of the attack color and the attack display may be changed based on the brightness of the image captured by the infrared camera 34 when the infrared camera 34 is covered with the hand and when the hand is released. .

[ゲーム処理の応用例2]
次に、本実施形態に係るゲーム処理の応用例2について、図13を参照して説明する。図13は、一実施形態に係るゲーム処理の応用例2を示すフローチャートである。ユーザが、赤外線カメラ34を対象物Ojの手に向けた状態で、撮影部12が対象物Ojを撮影すると(ステップS10)、特定部14は、撮影した対象物Ojの画像から手の形状を解析する(ステップS40)。次に、特定部14は、形状とパラメータが関連付けられたパラメータテーブルを参照して、解析した形状に関連付けられたパラメータを特定する。(ステップS42)。ここでは、パラメータが「ゲームシーンで表示される画像の形状」であり、パラメータは撮影した画像の対象物Ojの形状のみに基づいて特定される。
[Game processing application example 2]
Next, application example 2 of the game processing according to the present embodiment will be described with reference to FIG. FIG. 13 is a flowchart showing an application example 2 of game processing according to an embodiment. When the imaging unit 12 captures the object Oj with the infrared camera 34 facing the hand of the object Oj (step S10), the specifying unit 14 changes the shape of the hand from the captured image of the object Oj. Analysis is performed (step S40). Next, the specifying unit 14 specifies a parameter associated with the analyzed shape with reference to a parameter table in which the shape and the parameter are associated with each other. (Step S42). Here, the parameter is “the shape of the image displayed in the game scene”, and the parameter is specified based only on the shape of the object Oj of the photographed image.

次に、表示部18は、特定したパラメータを表示する(ステップS16)。次に、作成部15は、シャッターボタン34aが押されたか否かを判定する(ステップS18)。ユーザによりシャッターボタン34aが押されなかった場合、ステップ10に戻り、ステップS10以降の処理が繰り返される。   Next, the display unit 18 displays the specified parameters (step S16). Next, the creating unit 15 determines whether or not the shutter button 34a has been pressed (step S18). When the shutter button 34a is not pressed by the user, the process returns to step 10 and the processes after step S10 are repeated.

ユーザは、赤外線カメラ34を向けた対象物Ojの手の位置や角度を変えることで、変化するパラメータ(手の形状(例えば、ピース)そのものや、手の形状を文字化又は数値化した表示)の表示を確認する。ユーザは、所望のパラメータが表示されたときにシャッターボタン34aを押す。   The user changes parameters by changing the position and angle of the hand of the object Oj facing the infrared camera 34 (the shape of the hand (for example, a piece) itself or a display in which the shape of the hand is converted into text or numerical values). Check the display. The user presses the shutter button 34a when a desired parameter is displayed.

シャッターボタン34aが押されたとき、作成部15は、表示されているパラメータに応じてキャラクタの手の画像を取得し、表示部18は、取得した手の画像をゲームに反映させて表示する(ステップS44)。ゲーム実行部9は、手の画像を反映させたゲームを実行し(ステップS22)、本処理を終了する。   When the shutter button 34a is pressed, the creation unit 15 acquires an image of the character's hand according to the displayed parameters, and the display unit 18 reflects the acquired image of the hand in the game and displays the image ( Step S44). The game execution unit 9 executes a game reflecting the hand image (step S22), and ends the process.

例えば、図14(a)に示すように、ユーザが手でピースした状態で、赤外線カメラ34を用いてピースする手の撮影が行われるとする。このとき、特定部14は、撮影した対象物Ojの画像から形状が「ピースする手」であると解析し、形状とパラメータが関連付けられたパラメータテーブルを参照して、特定された形状に関連付けられた「キャッチャーのピースサイン」のパラメータを特定する。   For example, as shown in FIG. 14A, it is assumed that the user hands a piece with the infrared camera 34 while the user pieces with the hand. At this time, the specifying unit 14 analyzes that the shape is “a piece-making hand” from the captured image of the object Oj, refers to the parameter table in which the shape and the parameter are associated, and is associated with the identified shape. Identify the "Catcher Peace Sign" parameter.

これにより、ゲームの一場面にて、図14(b)に一例を示すように、実行される野球ゲームのキャッチャーのサインRが下向きのピースのサインになり、これにより、野球ゲームにおいてピッチャーが投げる球を指示することができる。これにより、ユーザがあたかもキャッチャーになってピッチャーに指示を与えている感覚をユーザに与えることができる。   Thereby, in one scene of the game, as shown in an example in FIG. 14B, the catcher sign R of the baseball game to be executed becomes a sign of a downward piece, whereby the pitcher throws in the baseball game. A sphere can be indicated. Thereby, it is possible to give the user a sense that the user is acting as a catcher and giving instructions to the pitcher.

[ゲーム処理の応用例3]
次に、本実施形態に係るゲーム処理の応用例3について、図15を参照して説明する。図15は、一実施形態に係るゲーム処理の応用例3を示すフローチャートである。ここでのパラメータは、「ゲームシーンで表示されるキャラクタのポーズ(動き)」である。
ゲームの抜刀シーンにおいて、ユーザが、コントローラ1を鞘と見立て、鞘に収まっている刀を抜こうとするポーズをしたとき、撮影部12は、そのポーズを撮影する(ステップS10)。次に、特定部14は、撮影した画像の形状及び輝度を解析する(ステップS12)。次に、特定部14は、形状及び輝度とパラメータが関連付けられたパラメータテーブルを参照して、特定された形状及び輝度に関連付けられたパラメータを特定する。(ステップS14)。なお、撮影した画像の輝度のみを解析し、解析結果の輝度からパラメータを特定してもよい。
[Application example 3 of game processing]
Next, application example 3 of the game processing according to the present embodiment will be described with reference to FIG. FIG. 15 is a flowchart illustrating an application example 3 of game processing according to an embodiment. The parameter here is “a pose (movement) of a character displayed in a game scene”.
In the game sword scene, when the user poses the controller 1 as a sheath and tries to remove the sword contained in the sheath, the photographing unit 12 photographs the pose (step S10). Next, the specifying unit 14 analyzes the shape and brightness of the captured image (step S12). Next, the identifying unit 14 identifies a parameter associated with the identified shape and brightness with reference to a parameter table in which the shape and brightness are associated with the parameter. (Step S14). Note that only the luminance of the captured image may be analyzed, and the parameter may be specified from the luminance of the analysis result.

次に、表示部18は、特定したパラメータを表示する(ステップS16)。次に、作成部15は、シャッターボタン34aが押されたか否かを判定する(ステップS18)。ユーザによりシャッターボタン34aが押されなかった場合、ステップ10に戻り、ステップS10以降の処理が繰り返される。   Next, the display unit 18 displays the specified parameters (step S16). Next, the creating unit 15 determines whether or not the shutter button 34a has been pressed (step S18). When the shutter button 34a is not pressed by the user, the process returns to step 10 and the processes after step S10 are repeated.

一方、シャッターボタン34aが押されたとき、作成部15は、表示されているパラメータに応じてキャラクタのポーズを作成する(ステップS50)。表示部18は、作成したポーズでキャラクタを表示する(ステップS52)。ゲーム実行部9は、ポーズを終了するかを判定し(ステップS54)、終了すると判定された場合には本処理を終了し、終了しないと判定された場合には、ステップS10に戻り、ステップS10以降の処理を繰り返す。   On the other hand, when the shutter button 34a is pressed, the creating unit 15 creates a character pose according to the displayed parameter (step S50). The display unit 18 displays the character with the created pose (step S52). The game execution unit 9 determines whether or not to end the pose (step S54). If it is determined to end, this process ends. If it is determined not to end, the process returns to step S10, and step S10. The subsequent processing is repeated.

これによれば、例えば、図16(a)に示すように、スタート時のキャラクタの状態に対して、ユーザがコントローラ1を鞘と見立て、刃が鞘に収まっている刀を抜こうとするポーズをしたとき、ユーザの右手が赤外線カメラ34の近い位置に置かれる。これにより、赤外線カメラ34が撮影する画像はやや暗くなる。よって、画像の輝度がやや暗い場合に対応するパラメータを、図16(b)に一例を示すようなポーズに設定しておくことで、ゲームの一場面にて、図16(b)に一例を示すように、キャラクタがポーズをとる場面を表現できる。   According to this, for example, as shown in FIG. 16A, with respect to the state of the character at the start, the user considers the controller 1 as a scabbard, and poses to pull out the sword whose blade is in the scabbard. The user's right hand is placed near the infrared camera 34. Thereby, the image which the infrared camera 34 image | photographs becomes a little dark. Therefore, by setting the parameter corresponding to the case where the luminance of the image is slightly dark in a pose as shown in FIG. 16B, an example is shown in FIG. As shown, the scene where the character poses can be expressed.

ユーザが、コントローラ1を鞘と見立て、刃が鞘に収まっている刀を抜こうとするポーズをした後、左手に持ったコントローラ1から右手を徐々に離していくと、赤外線カメラ34が感知する明暗が暗から明に変化する。   The user perceives the controller 1 as a sheath, poses a sword whose blade is contained in the sheath, and then gradually releases the right hand from the controller 1 held in the left hand, the infrared camera 34 senses. The brightness changes from dark to bright.

この状態で、ステップS10〜S18、S50、S52の処理が実行されると、例えば、図16(b)から図16(c)や図16(d)に示すように、表示されるポーズが変わる。つまり、ユーザがコントローラを鞘と見立て、刃を鞘から徐々に抜こうとするポーズをしたとき、赤外線カメラ34が撮影する画像は徐々に明るくなる。画像の輝度が明るくなるにつれ、それに対応するパラメータを、図16(c)や図16(d)のようなポーズに設定しておくことで、ゲームの一場面にて、キャラクタが、図16(c)から図16(d)のポーズに徐々に移行する抜刀シーンを表現できる。これにより、ユーザ自身があたかも武士になって刀を用いて戦う感覚をユーザに与えることができる。   When the processing of steps S10 to S18, S50, and S52 is executed in this state, the displayed pose changes, for example, as shown in FIGS. 16 (b) to 16 (c) and 16 (d). . That is, when the user assumes the controller as a sheath and poses to gradually remove the blade from the sheath, the image captured by the infrared camera 34 gradually becomes brighter. As the brightness of the image increases, the corresponding parameter is set to a pose as shown in FIG. 16C or FIG. 16D, so that the character in FIG. It is possible to express a sword scene that gradually shifts from c) to the pose shown in FIG. Thereby, it is possible to give the user a feeling that the user himself becomes a samurai and fights using the sword.

以上、上記実施形態、その他の例及び応用例1−応用例3について説明した。本実施形態に係るゲーム処理プログラム及び情報処理装置によれば、1つの対象物に対して異なる処理のうちのいずれかを行わせることができる。   The embodiment, other examples, and application examples 1 to 3 have been described above. According to the game processing program and the information processing apparatus according to the present embodiment, one of the different processes can be performed on one object.

以上、ゲーム処理プログラム及び情報処理装置を上記実施形態により説明したが、本発明に係るゲーム処理プログラム及び情報処理装置は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。   Although the game processing program and the information processing apparatus have been described in the above embodiment, the game processing program and the information processing apparatus according to the present invention are not limited to the above embodiment, and various modifications are possible within the scope of the present invention. And improvements are possible. In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range.

例えば、上記実施形態では、歴史シミュレーションゲームにおいて、武将キャラクタを作成する場合等について説明したが、キャラクタの作成は、武将に限らず、ユーザのペットを撮影することで、ペットの撮影位置や撮影角度、撮影時の明るさ等に応じてゲームに登場するペットのキャラクタのパラメータを特定することができる。   For example, in the above-described embodiment, the case where a military commander character is created in the history simulation game has been described. However, the creation of the character is not limited to the military commander, and the pet's shooting position and shooting angle can be taken by shooting the user's pet. The parameters of the pet character appearing in the game can be specified according to the brightness at the time of shooting.

また、パラメータテーブル131のパラメータにはメッセージを設定してもよい。例えば、ユーザの「親指を上に立てる」手が撮影されたとき、パラメータテーブル131のパラメータに設定された「すごいね!」のメッセージが表示されてもよい。   A message may be set as a parameter in the parameter table 131. For example, when the user's “put thumb up” hand is photographed, a message “Wow!” Set as a parameter in the parameter table 131 may be displayed.

1 コントローラ
2 操作ボタン
4 本体
9 ゲーム実行部
10 ゲーム機器
11 受付部
12 撮影部
13 記憶部
14 特定部
15 作成部
16 グラフィック処理部
17 サウンド処理部
18 表示部
19 音出力部
20 通信部
21 CPU
22 ROM
23 RAM
24 HDD
25 グラフィックカード
26 外部I/F
26a 記憶媒体
27 通信I/F
28 入力I/F
28a メモリカード
29 プロジェクタ
30 マイク
31 タッチパネル
32 ディスプレイ
33 スピーカ
34 赤外線カメラ
34a シャッターボタン
131 パラメータテーブル
132 ゲーム処理プログラム
Oj 対象物
DESCRIPTION OF SYMBOLS 1 Controller 2 Operation button 4 Main body 9 Game execution part 10 Game equipment 11 Reception part 12 Image | photographing part 13 Memory | storage part 14 Specific | specification part 15 Creation part 16 Graphic processing part 17 Sound processing part 18 Display part 19 Sound output part 20 Communication part 21 CPU
22 ROM
23 RAM
24 HDD
25 Graphic card 26 External I / F
26a Storage medium 27 Communication I / F
28 Input I / F
28a Memory Card 29 Projector 30 Microphone 31 Touch Panel 32 Display 33 Speaker 33 Infrared Camera 34a Shutter Button 131 Parameter Table 132 Game Processing Program Oj Object

一つの案では、赤外線センサを用いて対象物を撮影し、対象物の複数の形状及び輝度と、ゲームに関するパラメータと、を関連付けた記憶部を参照して、撮影した前記対象物の形状及び輝度に基づきゲームに関するパラメータを特定する、処理をコンピュータに実行させるためのゲーム処理プログラムが提供される。 In one proposal, by photographing the object using the infrared sensor, with reference and a plurality of shape and brightness of the object, and parameters related to the game, a storage unit which associates the shape and bright of the object photographed A game processing program for specifying a parameter relating to the game based on the degree and causing the computer to execute the processing is provided.

Claims (7)

赤外線センサを用いて対象物を撮影し、
対象物の複数の形状及び輝度の少なくともいずれかとゲームに関するパラメータを関連付けた記憶部を参照して、撮影した前記対象物の形状及び輝度の少なくともいずれかに基づきゲームに関するパラメータを特定する、
処理をコンピュータに実行させるためのゲーム処理プログラム。
Take an image of an object using an infrared sensor,
With reference to a storage unit that associates at least one of a plurality of shapes and brightness of an object with a parameter relating to the game, the parameter relating to the game is specified based on at least one of the shape and brightness of the photographed object.
A game processing program for causing a computer to execute processing.
前記赤外線センサから出力される赤外線の前記対象物への照射位置及び照射方向の少なくともいずれかを変えて前記対象物を撮影したときの、撮影した前記対象物の形状及び輝度の少なくともいずれかに基づき前記パラメータを特定し、
赤外線の前記対象物への照射位置及び照射方向の少なくともいずれかを変えたことに応じて、前記特定したパラメータを変化させて表示する、
請求項1に記載のゲーム処理プログラム。
Based on at least one of the shape and brightness of the photographed object when photographing the object while changing at least one of the irradiation position and the irradiation direction of the infrared ray output from the infrared sensor. Identify the parameters,
In response to changing at least one of the irradiation position and the irradiation direction of the object of infrared rays, the specified parameter is changed and displayed.
The game processing program according to claim 1.
前記対象物は、人の身体の部位、人以外の動物の部位、動的な物体又は静的な物体のいずれかである、
請求項1又は2に記載のゲーム処理プログラム。
The object is a human body part, a non-human animal part, a dynamic object, or a static object.
The game processing program according to claim 1 or 2.
前記対象物は、人の手である、
請求項3に記載のゲーム処理プログラム。
The object is a human hand,
The game processing program according to claim 3.
前記人の手の動作の変化による、撮影した前記手の形状及び輝度の少なくともいずれかの変化に応じて、前記特定したパラメータを変化させて表示する、
請求項4に記載のゲーム処理プログラム。
According to a change in at least one of the shape and brightness of the photographed hand due to a change in the movement of the person's hand, the specified parameter is changed and displayed.
The game processing program according to claim 4.
前記パラメータは、ゲームのキャラクタに関するパラメータ、ゲームのシーンに関するパラメータ、メッセージに関するパラメータ、ゲームにおける指示に関するパラメータ、又はゲームの条件に関するパラメータのいずれかである、
請求項1〜5のいずれか一項に記載のゲーム処理プログラム。
The parameter is one of a parameter related to a game character, a parameter related to a game scene, a parameter related to a message, a parameter related to an instruction in the game, or a parameter related to a game condition.
The game processing program as described in any one of Claims 1-5.
赤外線センサを用いて対象物を撮影する撮影部と、
対象物の複数の形状及び輝度の少なくともいずれかとゲームに関するパラメータを関連付けた記憶部を参照して、撮影した前記対象物の形状及び輝度の少なくともいずれかに基づきゲームに関するパラメータを特定する特定部と、
を有する情報処理装置。
An imaging unit for imaging an object using an infrared sensor;
A specifying unit for specifying a parameter relating to a game based on at least one of the shape and luminance of the photographed object with reference to a storage unit that associates at least one of a plurality of shapes and luminances of the object with parameters relating to the game;
An information processing apparatus.
JP2017180995A 2016-12-27 2017-09-21 Game processing program and information processing device Pending JP2018102901A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/787,914 US20180178129A1 (en) 2016-12-27 2017-10-19 Recording medium storing game processing program and data processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016252887 2016-12-27
JP2016252887 2016-12-27

Publications (1)

Publication Number Publication Date
JP2018102901A true JP2018102901A (en) 2018-07-05

Family

ID=62785773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017180995A Pending JP2018102901A (en) 2016-12-27 2017-09-21 Game processing program and information processing device

Country Status (1)

Country Link
JP (1) JP2018102901A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165881A (en) * 1992-09-30 1994-06-14 Casio Comput Co Ltd Electronic game device and image processor
JP2001286674A (en) * 2000-04-06 2001-10-16 Sharp Corp Electronic device
JP2005169062A (en) * 2003-12-08 2005-06-30 Renbao Computer Industry Co Ltd Method for changing object and object type using image data
JP2006326021A (en) * 2005-05-27 2006-12-07 Dainippon Printing Co Ltd Fighting video game apparatus, fighting management server, program, and recording medium
JP2009101122A (en) * 2007-03-26 2009-05-14 Ricoh Co Ltd Information processing apparatus, information processing method, information processing program, and storage medium storing information processing program
JP2016057780A (en) * 2014-09-08 2016-04-21 嘉泰 小笠原 Electronic device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165881A (en) * 1992-09-30 1994-06-14 Casio Comput Co Ltd Electronic game device and image processor
JP2001286674A (en) * 2000-04-06 2001-10-16 Sharp Corp Electronic device
JP2005169062A (en) * 2003-12-08 2005-06-30 Renbao Computer Industry Co Ltd Method for changing object and object type using image data
JP2006326021A (en) * 2005-05-27 2006-12-07 Dainippon Printing Co Ltd Fighting video game apparatus, fighting management server, program, and recording medium
JP2009101122A (en) * 2007-03-26 2009-05-14 Ricoh Co Ltd Information processing apparatus, information processing method, information processing program, and storage medium storing information processing program
JP2016057780A (en) * 2014-09-08 2016-04-21 嘉泰 小笠原 Electronic device

Similar Documents

Publication Publication Date Title
US10445917B2 (en) Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
US20210011682A1 (en) Systems and methods for providing audio to a user based on gaze input
CN106383587B (en) Augmented reality scene generation method, device and equipment
US9143880B2 (en) Systems and methods for providing audio to a user based on gaze input
US10313481B2 (en) Information processing method and system for executing the information method
US20190026950A1 (en) Program executed on a computer for providing virtual space, method and information processing apparatus for executing the program
US20200122025A1 (en) Shooting game control method and game system
JP5285901B2 (en) Card game device, card game program
US10860089B2 (en) Method of suppressing VR sickness, system for executing the method, and information processing device
US20180356880A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US20190043263A1 (en) Program executed on a computer for providing vertual space, method and information processing apparatus for executing the program
JP6470374B1 (en) Program and information processing apparatus executed by computer to provide virtual reality
US20180059788A1 (en) Method for providing virtual reality, program for executing the method on computer, and information processing apparatus
US20190114841A1 (en) Method, program and apparatus for providing virtual experience
JP6306678B1 (en) Method executed by computer to present object in virtual space, program causing computer to execute the method, and computer apparatus
US20180129274A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
JP4218963B2 (en) Information extraction method, information extraction apparatus, and recording medium
JP6921789B2 (en) Programs and methods that are executed on the computer that provides the virtual space, and information processing devices that execute the programs.
JP6276460B1 (en) Program, system, and method for providing game
JP2018102901A (en) Game processing program and information processing device
US20180239420A1 (en) Method executed on computer for providing virtual space to head mount device, program for executing the method on the computer, and computer apparatus
US11882172B2 (en) Non-transitory computer-readable medium, information processing method and information processing apparatus
JP2022020686A (en) Information processing method, program, and computer
JP6856572B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP6966939B2 (en) Information processing device, control program and control method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180828