JP2015231445A - Program and image generating device - Google Patents

Program and image generating device Download PDF

Info

Publication number
JP2015231445A
JP2015231445A JP2014119125A JP2014119125A JP2015231445A JP 2015231445 A JP2015231445 A JP 2015231445A JP 2014119125 A JP2014119125 A JP 2014119125A JP 2014119125 A JP2014119125 A JP 2014119125A JP 2015231445 A JP2015231445 A JP 2015231445A
Authority
JP
Japan
Prior art keywords
hmd
image
input
virtual
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014119125A
Other languages
Japanese (ja)
Other versions
JP6629499B2 (en
Inventor
恩田 明生
Akio Onda
明生 恩田
一正 小関
Kazumasa Koseki
一正 小関
永司 岩田
Eiji Iwata
永司 岩田
亮介 大畑
Ryosuke Ohata
亮介 大畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2014119125A priority Critical patent/JP6629499B2/en
Publication of JP2015231445A publication Critical patent/JP2015231445A/en
Application granted granted Critical
Publication of JP6629499B2 publication Critical patent/JP6629499B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To achieve a new technique for improving usability when achieving gesture input using an HMD.SOLUTION: In a scene where gesture input is required, a body 24 to be selected correlated with operation contents of the gesture input is displayed on a display screen of an HMD while being fixed or nearly fixed to a predetermined position in a visual field. The body 24 to be selected is re-displayed by remaining in the visual field even if players 2 shake their heads. Thus, selection contents and targets of the gesture input are not missed.

Description

本発明は、コンピュータに表示制御させるためのプログラム等に関する。   The present invention relates to a program for causing a computer to control display.

頭部装着型ディスプレイであるヘッドマウントディスプレイ(Head Mounted Display:以下「HMD」)は、臨場感と迫力の有る映像体験を提供するためのキーデバイスとして知られている。例えば、遊園地等のアトラクションやビデオゲームなどに採用する技術が知られている(例えば、特許文献1〜特許文献3を参照)。   A head mounted display (hereinafter referred to as “HMD”), which is a head-mounted display, is known as a key device for providing a realistic and powerful video experience. For example, techniques employed for attractions such as amusement parks and video games are known (see, for example, Patent Documents 1 to 3).

また、HMDを用いながらユーザのジェスチャーを認識する技術も知られるところである(例えば、特許文献4を参照)。   A technique for recognizing a user's gesture while using an HMD is also known (see, for example, Patent Document 4).

特開平5−305181号公報Japanese Patent Laid-Open No. 5-305181 特開2000−210468号公報JP 2000-210468 A 特開2003−125313号公報JP 2003-125313 A 特開2012−181809号公報JP 2012-181809 A

本発明は、HMDを使用してジェスチャー入力を実現する際のユーザビリティを向上させる新たな技術の実現を目的とする。   An object of the present invention is to realize a new technique for improving usability when realizing gesture input using an HMD.

上述した課題を解決するための第1の発明は、ユーザの頭部に装着されるHMD(Head Mounted Display)と、前記ユーザの手或いは当該ユーザが把持するポインティングデバイス(以下包括して「操作指示物」という)及び前記HMDを含む実空間を撮影するために設置された撮像手段(例えば、図1の測距センサユニット1100、カラーイメージセンサ1104)とに接続されたコンピュータを、
前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における、前記実空間中の前記操作指示物の位置に対応する仮想位置を算出する算出手段(例えば、図9の処理部200、ゲーム演算部202、手位置算出部214、図12のステップS4)、
前記仮想空間中の所与の位置に入力判定体(例えば、図6の被選択体24)を配置する入力判定体配置制御手段(例えば、図9のプレーヤ補助制御部220、被選択体制御部228、立体視画像生成制御部232、図14のステップS112)、
前記仮想位置と、前記入力判定体の配置位置とに基づき、前記入力判定体への入力を判定する入力判定手段(例えば、図9のプレーヤ補助制御部220、ジェスチャー入力判定部238、図14のステップS170〜S172)、
として機能させるためのプログラムである。
A first invention for solving the above-described problems includes an HMD (Head Mounted Display) worn on a user's head and a pointing device held by the user's hand or the user (hereinafter collectively referred to as “operation instruction”). A computer connected to imaging means (for example, a distance measuring sensor unit 1100 and a color image sensor 1104 in FIG. 1) installed to take an image of a real space including the HMD.
Calculation means for calculating a virtual position corresponding to the position of the operation instruction in the real space in a virtual space that is a display image space of the HMD, using a photographed image of the imaging means (for example, the process of FIG. 9). Unit 200, game calculation unit 202, hand position calculation unit 214, step S4 in FIG.
Input determination object arrangement control means (for example, the player auxiliary control unit 220 and the selected object control unit in FIG. 9) that arranges the input determination object (for example, the selection object 24 in FIG. 6) at a given position in the virtual space. 228, stereoscopic image generation control unit 232, step S112 in FIG. 14),
Based on the virtual position and the arrangement position of the input determination body, input determination means for determining an input to the input determination body (for example, the player auxiliary control unit 220, the gesture input determination unit 238 in FIG. 9, and FIG. 14). Steps S170 to S172),
It is a program to make it function as.

入力判定体とは、ジェスチャー入力を要求する際にユーザにジェスチャーの目安として提供する表示体である。例えば、手の位置の到達目標位置や到達目標領域であったり、動作開始ポイントから終了ポイント、更にはそれら両ポイント間を結ぶ動作軌跡、などを示すもの、ガイドなどのことである。到達目標位置や到達目標領域を示す意味で表示する場合には、ユーザの立場からすれば入力判定体は選択操作の対象と映るので“被選択体”と呼び換えることができる。勿論、ジェスチャー入力を要求する状況によっては、それがゲーム中に登場するキャラクタや背景物などを兼ねても良い。   The input determination body is a display body that is provided to the user as a standard for gestures when requesting gesture input. For example, a target position or a target area of the hand position, an operation start point to an end point, and an operation trajectory connecting these two points, a guide, or the like. In the case of displaying in the sense of indicating the target position and target area, from the user's standpoint, the input determination object appears to be the object of the selection operation and can be called “selected object”. Of course, depending on the situation where the gesture input is requested, it may also serve as a character or background object appearing during the game.

第1の発明によれば、ジェスチャー入力する内容が割り当てられた入力判定体を、HMDの表示画面内に表示させることができる。ジェスチャー入力に慣れないと、どのようにジェスチャーすればその場で望まれている入力ができるか分かり難いものであるが、ユーザは入力判定体をジェスチャー入力の案内として利用できるので、スムーズにその時要求されているジェスチャー入力ができるようになる。つまり、HMDを使用してジェスチャー入力を実現する際のユーザビリティを向上させることが可能となる。   According to the first invention, the input determination body to which the content for gesture input is assigned can be displayed in the display screen of the HMD. If you are not familiar with gesture input, it is difficult to understand how you can make the desired input on the spot, but the user can use the input judgment body as a guide for gesture input, so it will be requested smoothly at that time Will be able to input gestures. That is, it is possible to improve usability when realizing gesture input using the HMD.

第2の発明は、前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段(例えば、図9のHMD位置姿勢算出部210、図12のステップS4)、
前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像を生成する仮想空間画像生成手段(例えば、図9の立体視画像生成制御部232、図12のステップS15)、として前記コンピュータを更に機能させ、
前記入力判定体配置制御手段は、前記視界の変化に追従して当該視界内の所与の位置に前記入力判定体を配置させる第1の発明のプログラムである。
The second invention is an HMD position / orientation determination means for determining the position and / or orientation of the HMD in the real space (for example, the HMD position / orientation calculation unit 210 in FIG. 9 and step S4 in FIG. 12),
Virtual space image generation means for generating an image of the virtual space whose field of view changes according to the position and / or orientation of the HMD determined by the HMD position and orientation determination means as the image of the virtual space to be displayed on the HMD (For example, the stereoscopic image generation control unit 232 in FIG. 9 and step S15 in FIG. 12), the computer is further functioned,
The input determination object arrangement control means is a program according to the first aspect of the invention that arranges the input determination object at a given position in the view following the change in the view.

もし、入力判定体が仮想空間に対して固定位置に表示されると、ユーザが首を振ると入力判定体が視界外に外れてしまい、ゲーム内容によっては入力判定体が視界外に外れたままとなり、ユーザが操作入力するべきタイミングであることを失念することにもなりかねない。例えば、FPS(ファーストパーソンシューティングゲーム)などではそうしたシチュエーションになりかねない。しかし、第2の発明によれば、ユーザがHMDを被って首を振ったとしても入力判定体はHMDの視界内に表示されるのでそうした心配はなくなる。   If the input determination object is displayed at a fixed position with respect to the virtual space, the input determination object will be out of sight when the user shakes his / her head. Depending on the game content, the input determination object may remain out of sight. Therefore, the user may forget that it is time to input an operation. For example, in FPS (First Person Shooting Game), such a situation may occur. However, according to the second invention, even if the user wears the HMD and shakes his / her head, the input determination body is displayed in the field of view of the HMD, so that there is no such worry.

しかし、その一方でゲーム内容によっては入力判定体が仮想空間の所定位置にあった方が都合が良い場合もある。例えば、アドベンチャーゲームで秘密の部屋の鍵を解錠するための番号や操作を入力する場面がこれに該当するといえるであろう。   However, depending on the content of the game, it may be more convenient for the input determination body to be at a predetermined position in the virtual space. For example, it may be said that this is the case where a number or operation for unlocking a secret room key is input in an adventure game.

よって、第3の発明として、前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段、前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像を生成する仮想空間画像生成手段、として前記コンピュータを更に機能させ、前記入力判定体配置制御手段は、前記視界の変化に関わらず、前記入力判定体の配置位置を前記仮想空間中の所定位置とする、第1の発明のプログラムを構成してもよい。   Therefore, as a third invention, an HMD position / posture determination unit that determines the position and / or posture of the HMD in the real space, and an image of the virtual space that is displayed on the HMD are determined by the HMD position / posture determination unit. The computer further functions as a virtual space image generation unit that generates an image of the virtual space in which the field of view changes according to the position and / or posture of the HMD, and the input determination object arrangement control unit includes the field of view The program according to the first aspect of the present invention may be configured such that the position where the input determination body is arranged is a predetermined position in the virtual space, regardless of the change in the number.

第4の発明は、前記仮想空間画像生成手段が、前記仮想空間内にキャラクタ(例えば,図5の案内キャラクタ20)を配置した画像を生成し、前記入力判定体配置制御手段は、前入力判定体を前記キャラクタに付随させる、第3の発明のプログラムである。   According to a fourth aspect of the invention, the virtual space image generation means generates an image in which a character (for example, the guide character 20 in FIG. 5) is placed in the virtual space, and the input determination body placement control means is a front input determination. It is a program of the 3rd invention which makes a body accompany a character.

第4の発明によれば、例えば、キャラクタからの質問に対する返答をジェスチャー入力する場面などに好適である。   According to the fourth invention, for example, it is suitable for a scene where a response to a question from a character is input by gesture.

第5の発明は、前記入力判定体配置制御手段が、所与の条件を満たした場合に、前記入力判定体の付随表示を中断して当該視界中の所定位置に前記入力判定体を位置させる、第4の発明のプログラムである。   According to a fifth aspect of the present invention, when the input determination object arrangement control means satisfies a given condition, the incident determination display of the input determination object is interrupted and the input determination object is positioned at a predetermined position in the field of view. The program of the fourth invention.

第5の発明によれば、入力判定体は視界内の所定位置にいわば固定表示(視界内に残存表示)されるので、ユーザビリティに優れる。   According to the fifth aspect, since the input determination body is fixedly displayed (remaining display in the field of view) at a predetermined position in the field of view, the usability is excellent.

例えば、第6の発明として、前記入力判定体配置制御手段が、前記キャラクタが前記視界内に位置した後、前記視界外となった場合を前記所与の条件を満たした場合とする、第5の発明のプログラムを構成することもできる。   For example, as a sixth invention, when the input determining body arrangement control means satisfies the given condition when the character is outside the field of view after being positioned within the field of view, It is also possible to configure the program of the invention.

この場合、キャラクタが一旦視界内に位置する場合を条件にして適用すれば、そのあとユーザが首を振って当該キャラクタが視界外(画面外)となったとしても、入力判定体が常に視界内に維持されるので入力判定体を見失わず、また入力を要求されていることを忘れずにすむ。   In this case, if it is applied on the condition that the character is once in the field of view, the input determination body is always in the field of view even if the user shakes his / her head and the character is out of the field of view (out of the screen). Therefore, it is not necessary to lose sight of the input judgment object and to remember that the input is requested.

第7の発明は、前記仮想位置に、前記操作指示物の前記実空間中の位置に対応する位置であることを示す指示オブジェクト(例えば、図5の左手オブジェクト14、右手オブジェクト16)を前記HMDに表示させる指示オブジェクト表示制御手段(例えば、図9の手オブジェクト制御部226、図12のステップS4、図13のステップS52)、
として前記コンピュータを機能させるための第2〜第6の何れかの発明のプログラムである。
According to a seventh aspect of the present invention, an instruction object (for example, the left hand object 14 or the right hand object 16 in FIG. 5) indicating that the virtual instruction position is a position corresponding to the position of the operation instruction object in the real space is provided in the HMD. Instruction object display control means (for example, hand object control unit 226 in FIG. 9, step S4 in FIG. 12, step S52 in FIG. 13) to be displayed on
As a program according to any one of the second to sixth inventions for causing the computer to function.

第7の発明によれば、実空間中の操作指示物の位置に対応する仮想空間の位置に、指示オブジェクトを表示させることができる。よって、指示オブジェクトの表示を頼りに操作指示物を入力判定体に近づけるといったジェスチャー入力がし易くなる。   According to the seventh aspect, the pointing object can be displayed at the position of the virtual space corresponding to the position of the operation pointing object in the real space. Therefore, it becomes easy to perform a gesture input such that the operation instruction object is brought close to the input determination body depending on the display of the instruction object.

第8の発明は、前記入力判定手段が、前記入力判定体の表示位置と前記指示オブジェクトの表示位置との相対位置関係に基づいて前記入力判定体への入力を判定する(例えば、図14のステップS170〜S172)、第6の発明のプログラムである。   In an eighth aspect of the invention, the input determination means determines an input to the input determination body based on a relative positional relationship between the display position of the input determination body and the display position of the pointing object (for example, FIG. 14 Steps S170 to S172) are the programs of the sixth invention.

第8の発明によれば、ユーザは入力判定体に操作指示物を近づけたり、入力判定体に操作指示物を向けることで、当該入力判定体への入力が可能となり、優れたユーザビリティを実現できる。   According to the eighth invention, the user can input to the input determination object by bringing the operation instruction object close to the input determination object or directing the operation instruction object to the input determination object, thereby realizing excellent usability. .

第9の発明は、前記HMDからみて、前記仮想位置が前記仮想空間において隠れた位置となる場合に、当該指示オブジェクトを表出させるように画像処理する第1の画像処理手段(例えば、図9の表出処理部230、図14のステップS122)として前記コンピュータを更に機能させるための第7又は第8の発明のプログラムである。   According to a ninth aspect of the present invention, when viewed from the HMD, when the virtual position is a hidden position in the virtual space, first image processing means (for example, FIG. 9) performs image processing so that the pointing object is exposed. 14 is a program according to the seventh or eighth invention for causing the computer to further function as the expression processing unit 230, step S122 in FIG.

第9の発明によれば、指示オブジェクトの視認性を向上できる。   According to the ninth aspect, the visibility of the pointing object can be improved.

第10の発明は、前記HMDからみて、前記入力判定体が前記仮想空間において隠れた位置となる場合に、当該入力判定体を表出させるように画像処理する第2の画像処理手段(例えば、図9の表出処理部230、図14のステップS120)として前記コンピュータを更に機能させるための第2〜第9の何れかの発明のプログラムである。   According to a tenth aspect of the present invention, when viewed from the HMD, when the input determination body is in a hidden position in the virtual space, second image processing means (for example, performing image processing so that the input determination body is exposed) 9 is a program according to any one of the second to ninth inventions for causing the computer to further function as the expression processing unit 230 in FIG. 9 and step S120 in FIG.

第10の発明によれば、入力判定体の視認性を向上できる。   According to the tenth aspect, the visibility of the input determination body can be improved.

第11の発明は、前記仮想空間画像生成手段が、前記仮想空間内にキャラクタを配置した画像を生成し、
前記仮想位置に基づいて前記キャラクタに対する操作入力を判定するキャラクタ対象操作入力判定手段(例えば、図9のジェスチャー入力判定部238、図12のステップS8)、
前記入力判定体が表示されているときには前記キャラクタ対象操作入力判定手段を無効とし、表示されていないときに前記キャラクタ対象操作入力判定手段を有効とする手段(例えば、図9の対キャラクタジェスチャー入力無効化制御部240、図13のステップS94、図14のステップS174)、として前記コンピュータを機能させるための第2〜第10の何れかの発明のプログラムである。
In an eleventh aspect of the invention, the virtual space image generation means generates an image in which characters are arranged in the virtual space,
Character target operation input determination means for determining operation input to the character based on the virtual position (for example, gesture input determination unit 238 in FIG. 9, step S8 in FIG. 12),
Means for invalidating the character target operation input determining means when the input determining body is displayed, and means for validating the character target operation input determining means when not displaying (for example, invalid character gesture input in FIG. 9) 13 is a program according to any one of the second to tenth inventions for causing the computer to function as the control unit 240, step S94 in FIG. 13, and step S174 in FIG.

第11の発明によれば、仮想空間内に入力判定体以外にもジェスチャー入力の対象が存在する場合に、入力判定体以外へのジェスチャー入力を無効化することで、入力判定体への入力を優先させるとともに意図しない入力を防止することができる。   According to the eleventh aspect, when there is a gesture input target other than the input determination object in the virtual space, the input to the input determination object is disabled by invalidating the gesture input to other than the input determination object. It is possible to prioritize and prevent unintended input.

実空間の座標系と仮想空間の座標系との関係に関しては、第12の発明として、前記実空間に対応するように前記仮想空間の座標系を初期設定する座標系初期設定手段(例えば、図16の座標系初期設定部204)、として前記コンピュータを更に機能させるための第1〜第11の何れかの発明のプログラムを構成すると好適である。   With regard to the relationship between the coordinate system of the real space and the coordinate system of the virtual space, as a twelfth invention, a coordinate system initial setting means (for example, a diagram) for initializing the coordinate system of the virtual space to correspond to the real space. It is preferable that the program of any one of the first to eleventh inventions for further functioning the computer is configured as 16 coordinate system initial setting units 204).

例えば、第13の発明として、前記座標系初期設定手段は、前記撮像手段の撮影画像中の前記操作指示物の位置を参照して、前記初期設定を実行する、第12の発明のプログラムを構成すると、操作指示の精度が向上するので更に好適である。   For example, as a thirteenth invention, the coordinate system initial setting means configures the program according to the twelfth invention, wherein the initial setting is executed with reference to the position of the operation instruction object in the captured image of the imaging means. This is more preferable because the accuracy of the operation instruction is improved.

また、HMDと操作指示物の相対位置関係を、実空間と仮想空間とで同じように制御する場合に限らず、第14の発明として、前記算出手段が、前記実空間中の前記HMDと前記操作指示物との相対位置関係に基づいて、前記仮想位置を補正する仮想位置補正手段(例えば、図16の仮想位置補正部206)を有する、第1〜第13の何れかの発明のプログラムを構成するとしてもよい。   Further, the invention is not limited to the case where the relative positional relationship between the HMD and the operation instruction object is controlled in the same manner in the real space and the virtual space. As a fourteenth invention, the calculation means includes the HMD in the real space and the A program according to any one of the first to thirteenth inventions, comprising virtual position correcting means (for example, virtual position correcting unit 206 in FIG. 16) for correcting the virtual position based on a relative positional relationship with an operation instruction. It may be configured.

更には、第15の発明として、前記仮想位置補正手段が、前記HMDの向きを基準にした前記相対位置関係が所定の補正条件を満たした場合に、当該補正条件に対応付けられた補正演算に従って前記仮想位置を補正する、第14の発明のプログラムを構成することができる。   Further, as a fifteenth aspect of the invention, when the relative position relationship based on the orientation of the HMD satisfies a predetermined correction condition, the virtual position correction unit follows a correction calculation associated with the correction condition. A program according to a fourteenth aspect of the invention for correcting the virtual position can be configured.

第16の発明は、ユーザの頭部に装着されるHMDと、操作指示物及び前記HMDを含む実空間を撮影するために設置された撮像手段とに接続され、前記HMDに表示させる画像を生成するための画像生成装置であって、
前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における、前記実空間中の前記操作指示物の位置に対応する仮想位置を算出する算出手段(例えば、図1の制御基板1050、図9の処理部200、ゲーム演算部202、手位置算出部214、図12のステップS4)と、
前記仮想空間中の所与の位置に入力判定体を配置する入力判定体配置制御手段(例えば、図1の制御基板1050、図9のプレーヤ補助制御部220、被選択体制御部228、立体視画像生成制御部232、図14のステップS112)と、
前記仮想位置と、前記入力判定体の配置位置とに基づき、前記入力判定体への入力を判定する入力判定手段(例えば、図1の制御基板1050、図9のプレーヤ補助制御部220、ジェスチャー入力判定部238、図14のステップS170〜S172)と、
を備えた画像生成装置である。
A sixteenth aspect of the invention is connected to an HMD mounted on a user's head and an imaging unit installed to photograph a real space including the operation instruction object and the HMD, and generates an image to be displayed on the HMD. An image generation apparatus for performing
A calculation unit that calculates a virtual position corresponding to the position of the operation instruction in the real space in a virtual space that is a display image space of the HMD, using the captured image of the imaging unit (for example, the control in FIG. 1). A substrate 1050, the processing unit 200 in FIG. 9, the game calculation unit 202, the hand position calculation unit 214, and step S4 in FIG.
Input determination object arrangement control means for arranging an input determination object at a given position in the virtual space (for example, control board 1050 in FIG. 1, player auxiliary control unit 220 in FIG. 9, selected object control unit 228, stereoscopic view) The image generation control unit 232, step S112 in FIG. 14, and
Based on the virtual position and the arrangement position of the input determination body, input determination means for determining an input to the input determination body (for example, the control board 1050 in FIG. 1, the player auxiliary control unit 220 in FIG. 9, gesture input) Determination unit 238, steps S170 to S172 in FIG.
Is an image generating apparatus.

第16の発明によれば、第1の発明と同様の効果が得られる。   According to the sixteenth aspect, the same effect as in the first aspect can be obtained.

ゲームシステムの構成例を示す図。The figure which shows the structural example of a game system. ゲームコントローラの構成例を示す図。The figure which shows the structural example of a game controller. ヘッドセットの構成の一例を示す図。The figure which shows an example of a structure of a headset. 測距空間の座標系と測距・認識される要素について説明する図。The figure explaining the coordinate system of ranging space and the element which measures and is recognized. HMDに表示させるプ立体視画像(ゲーム画像)を生成するための仮想空間と、仮想空間に配置されるオブジェクトとの一例を示す図。The figure which shows an example of the virtual space for producing | generating the stereoscopic vision image (game image) displayed on HMD, and the object arrange | positioned in virtual space. (1)HMDに表示される立体視画像(ゲーム画像;ゲーム画面)の例と、(2)その時の現実世界におけるプレーヤ及びその周囲の状態と、を示す図。(1) The figure which shows the example of the stereoscopic vision image (game image; game screen) displayed on HMD, and (2) the player in the real world at that time, and its surrounding state. (1)HMDに表示される立体視画像(ゲーム画像;ゲーム画面)の例と、(2)その時の現実世界におけるプレーヤ及びその周囲の状態と、を示す図。(1) The figure which shows the example of the stereoscopic vision image (game image; game screen) displayed on HMD, and (2) the player in the real world at that time, and its surrounding state. (1)HMDに表示される立体視画像(ゲーム画像;ゲーム画面)の例と、(2)その時の現実世界におけるプレーヤ及びその周囲の状態と、を示す図。(1) The figure which shows the example of the stereoscopic vision image (game image; game screen) displayed on HMD, and (2) the player in the real world at that time, and its surrounding state. ゲームシステムの機能構成例を示す機能ブロック図。The functional block diagram which shows the function structural example of a game system. 記憶部が記憶するプログラムやデータの例を示す図。The figure which shows the example of the program and data which a memory | storage part memorize | stores. 仮想空間制御データのデータ構成例を示す図。The figure which shows the data structural example of virtual space control data. ゲームシステムにおける処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process in a game system. プレーヤ補助処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a player assistance process. 図13より続くフローチャート。14 is a flowchart continued from FIG. ゲームシステムの構成の変形例を示す図。The figure which shows the modification of a structure of a game system. 機能構成の変形例を示す図。The figure which shows the modification of a function structure. HMDに表示させる立体視画像(ゲーム画像)を生成するための仮想空間と、仮想空間に配置されるオブジェクトとの変形例を示す図。The figure which shows the modification of the virtual space for producing | generating the stereoscopic vision image (game image) displayed on HMD, and the object arrange | positioned in virtual space.

図1は、本実施形態におけるゲームシステムの構成の一例を示す図である。
本実施形態のゲームシステム1000は、ゲーム装置本体1002と、タッチパネル1004と、測距センサユニット1100と、ゲームコントローラ1200と、HMD1310を搭載したヘッドセット1300と、を含む。HMD1310は、非透過型(没入型とも称される)のHMDとして説明するが、半透過型や透過型のHMDであってもよい。
FIG. 1 is a diagram illustrating an example of a configuration of a game system in the present embodiment.
A game system 1000 according to the present embodiment includes a game apparatus main body 1002, a touch panel 1004, a distance measuring sensor unit 1100, a game controller 1200, and a headset 1300 equipped with an HMD 1310. The HMD 1310 will be described as a non-transmissive (also referred to as an immersive) HMD, but may be a transflective or transmissive HMD.

ゲーム装置本体1002は、コンピュータの一種であって制御基板1050を内蔵する。   The game apparatus main body 1002 is a kind of computer and incorporates a control board 1050.

制御基板1050は、例えば、
1)CPU(Central Processing Unit)1051やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、
2)VRAMやRAM,ROM等の各種ICメモリ1052、
3)タッチパネル1004や測距センサユニット1100、ゲームコントローラ1200、ヘッドセット1300などの周辺機器と無線或いは有線により通信接続するための通信モジュール1053、
4)タッチパネル1004などのドライバ回路1054、などを搭載する。
なお、制御基板1050の一部又は全部をASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)で構成するとしてもよい。
The control board 1050 is, for example,
1) Various microprocessors such as CPU (Central Processing Unit) 1051, GPU (Graphics Processing Unit), DSP (Digital Signal Processor),
2) Various IC memories 1052, such as VRAM, RAM, ROM,
3) A communication module 1053 for wireless or wired communication connection with peripheral devices such as the touch panel 1004, the distance measuring sensor unit 1100, the game controller 1200, and the headset 1300,
4) A driver circuit 1054 such as a touch panel 1004 is mounted.
Note that part or all of the control board 1050 may be configured by an application specific integrated circuit (ASIC) or a field-programmable gate array (FPGA).

そして、ゲーム装置本体1002は、制御基板1050でICメモリ1052に記憶されているプログラムおよびデータを読み出して演算処理することにより、ゲームシステム1000を統合的に制御して、ビデオゲームを実行させることができる。   Then, the game apparatus main body 1002 reads the program and data stored in the IC memory 1052 by the control board 1050 and performs arithmetic processing, thereby controlling the game system 1000 in an integrated manner and executing a video game. it can.

タッチパネル1004は、タッチパネルを装備したビデオモニタであって、プレーヤ2の概ね正面に配置される。   The touch panel 1004 is a video monitor equipped with a touch panel, and is disposed almost in front of the player 2.

測距センサユニット1100は、例えばタッチパネル1004の上部に、当該モニタの表示面正面方向へ向けて、ヘッドセット1300及びゲームコントローラ1200を撮影範囲に含めるように固定設置される。そして、タッチパネル1004の前方に存在するプレーヤ2やその周辺の物体の画像を撮影し、画像データをゲーム装置本体1002へ出力することできる。更に、当該画像を画像解析することでプレーヤ2やその周辺の物体までの距離を算出し、距離情報をゲーム装置本体1002へ出力することができる。なお、図中の引き出し図は、測距センサユニット1100の正面図である。   The distance measuring sensor unit 1100 is fixedly installed, for example, on the upper part of the touch panel 1004 so that the headset 1300 and the game controller 1200 are included in the shooting range in the front direction of the display surface of the monitor. Then, an image of the player 2 existing in front of the touch panel 1004 and surrounding objects can be taken, and the image data can be output to the game apparatus main body 1002. Further, by analyzing the image, the distance to the player 2 and surrounding objects can be calculated, and the distance information can be output to the game apparatus main body 1002. Note that the drawing in the drawing is a front view of the distance measuring sensor unit 1100.

具体的には、測距センサユニット1100は、例えば、赤外線(IR)を前方へ照射する赤外線照射器1102と、前方の物体からの赤外線反射画像を撮影することができるカラーイメージセンサ1104と、赤外線反射画像を解析して物体までの相対距離等を算出したり画像認識処理を行う単数又は複数のLSI1106とを搭載する。カラーイメージセンサ1104は、撮像手段の一種である。   Specifically, the distance measuring sensor unit 1100 includes, for example, an infrared irradiator 1102 that irradiates infrared (IR) forward, a color image sensor 1104 that can capture an infrared reflected image from a front object, and infrared rays. One or a plurality of LSIs 1106 for analyzing the reflected image and calculating the relative distance to the object and performing image recognition processing are mounted. The color image sensor 1104 is a kind of imaging means.

測距センサユニット1100は、カラーイメージセンサ1104で撮影した画像から、ゲームコントローラ1200やヘッドセット1300、プレーヤ2の身体の各部を画像認識して撮影された画像内の代表点位置を判定する。そして、代表点位置までを測距することができる。こうした測距は、公知のIR式測距センサ技術により実現することができる。
なお、測距センサユニット1100で採用する測距技術はIR式に限らず適宜採用することができる。例えば、左右のカラーイメージセンサ1104を用いてステレオ撮影し、視差から距離を算出するとしてもよい。
The ranging sensor unit 1100 determines the representative point position in the captured image by recognizing each part of the body of the game controller 1200, the headset 1300, and the player 2 from the image captured by the color image sensor 1104. Then, the distance up to the representative point position can be measured. Such distance measurement can be realized by a known IR distance sensor technology.
It should be noted that the distance measuring technique employed in the distance measuring sensor unit 1100 is not limited to the IR type and can be employed as appropriate. For example, stereo shooting may be performed using the left and right color image sensors 1104, and the distance may be calculated from the parallax.

また、測距センサユニット1100には、公知の6軸センサ1108が搭載されている。
6軸センサ1108は、測距センサユニット1100の前後(カラーイメージセンサ1104の光軸方向)・左右・上下の3軸方向の移動や各軸周りの回転を検出するモーショントレースのための公知のセンサであって、例えば、3軸方向の加速度と3軸周りの角速度とを検出する。或いは3軸方向の加速度と東西南北の地磁気方向を検出するとしてもよい。6軸センサ1108による検出結果から、測距空間の座標系の深度方向軸(Z軸)の向きが分かるようになる。
The distance measuring sensor unit 1100 is equipped with a known 6-axis sensor 1108.
The 6-axis sensor 1108 is a known sensor for motion tracing that detects movement in the front and rear (the optical axis direction of the color image sensor 1104), left and right, and up and down of the distance measuring sensor unit 1100, and rotation around each axis. Thus, for example, the acceleration in the three-axis direction and the angular velocity around the three axes are detected. Alternatively, the acceleration in the triaxial direction and the geomagnetic direction in the east, west, south, and north may be detected. From the detection result by the 6-axis sensor 1108, the direction of the depth direction axis (Z-axis) of the coordinate system of the ranging space can be known.

また、測距センサユニット1100は、ゲーム装置本体1002と通信接続するための通信モジュールや、バッテリーなどを適宜搭載するものとする。   The distance measuring sensor unit 1100 is appropriately equipped with a communication module for communicating with the game apparatus main body 1002, a battery, and the like.

図2は、ゲームコントローラ1200の構成例を示す図である。
本実施形態のゲームコントローラ1200は、両手で把持して用いることを前提としてデザインされている。勿論、銃型コントローラのように片手での把持を前提としてデザインするとしてもよい。
ゲームコントローラ1200は、その外面に発光マーカ1202が設けられている。また、スピーカ1204と、バイブレータ1206と、6軸センサ1208と、コントローラ基板1250と、図示されないバッテリー等を内蔵する。
FIG. 2 is a diagram illustrating a configuration example of the game controller 1200.
The game controller 1200 of the present embodiment is designed on the assumption that it is held and used with both hands. Of course, it may be designed on the premise of holding with one hand like a gun-type controller.
The game controller 1200 is provided with a light emitting marker 1202 on its outer surface. A speaker 1204, a vibrator 1206, a six-axis sensor 1208, a controller board 1250, a battery (not shown), and the like are incorporated.

発光マーカ1202は、例えばLED等により実現され、コントローラ基板1250により発光制御される。通常は、常時点灯である。   The light emitting marker 1202 is realized by, for example, an LED or the like, and light emission is controlled by the controller board 1250. Usually, it is always on.

6軸センサ1208は、ゲームコントローラ1200の前後(X2軸)・左右(Y2軸)・上下(Z2軸)の3軸方向の移動や各軸周りの回転(Φc、θc、Ψc)を検出するモーショントレースのための公知のセンサであって、例えば、3軸方向の加速度と3軸周りの角速度とを検出する。或いは3軸方向の加速度と東西南北の地磁気方向を検出するとしてもよい。   The 6-axis sensor 1208 detects motion of the game controller 1200 in the front and rear (X2 axis), left and right (Y2 axis), and up and down (Z2 axis) movements and rotations (Φc, θc, Ψc) around each axis. A well-known sensor for tracing, for example, detects acceleration in three axial directions and angular velocity around three axes. Alternatively, the acceleration in the triaxial direction and the geomagnetic direction in the east, west, south, and north may be detected.

コントローラ基板1250は、CPU1251や、ICメモリ1252、通信モジュール1253、インターフェース回路1254などを搭載し、ゲームコントローラ1200の動作制御や外部との通信を制御する。インターフェース回路1254は、スピーカ1204やバイブレータ1206への制御信号の出力や、操作ボタンスイッチ1260や方向入力キー1262、ジョイスティック1264などからの信号の入力を制御する。   The controller board 1250 includes a CPU 1251, an IC memory 1252, a communication module 1253, an interface circuit 1254, and the like, and controls operation control of the game controller 1200 and communication with the outside. The interface circuit 1254 controls output of control signals to the speaker 1204 and the vibrator 1206 and input of signals from the operation button switch 1260, the direction input key 1262, the joystick 1264, and the like.

図3は、本実施形態におけるヘッドセット1300の構成例を示す図であって、(1)正面図、(2)側面図に相当する。
ヘッドセット1300は、プレーヤ2が頭部に装着する装備であって、画像と音声の情報をプレーヤ2に視聴可能に提供するとともに、ヘッドトラッキングを実現するための頭部の位置や姿勢を検出する機能を有する。例えば、ヘッドセット1300は、ヘッドホン1302と、HMD1310(頭部装着ディスプレイ:Head Mounted Display)と、ヘッドセット基板1350と、を有する。
FIG. 3 is a diagram illustrating a configuration example of the headset 1300 in the present embodiment, and corresponds to (1) a front view and (2) a side view.
The headset 1300 is equipment that the player 2 wears on the head, provides image and sound information to the player 2 so as to be viewable, and detects the position and posture of the head for realizing head tracking. It has a function. For example, the headset 1300 includes headphones 1302, an HMD 1310 (Head Mounted Display), and a headset substrate 1350.

ヘッドホン1302は、いわゆる密閉型のステレオヘッドホンとすると好適である。   The headphones 1302 are preferably so-called sealed stereo headphones.

HMD1310は、提供する視野角が人の視野角に相当する非透過型・没入型のヘッドマウントディスプレイおよびそのドライバ回路により実現できる。
例えば、ヘッドセット基板1350から画像信号を受信する通信ICと、受信した画像信号に基づく画像を装着者の両眼に肉眼の視野角相当で見せる画像表示デバイス及び光学素子と、6軸センサ1308と、6軸センサ1308で検出した頭部の加速度や姿勢の情報を算出処理するICチップ1309と、ゲーム装置本体1002と通信接続するための通信モジュール1352と、を含む。これらの一部は、ヘッドセット基板1350に含まれるとしてもよい。
The HMD 1310 can be realized by a non-transmissive / immersive head-mounted display whose viewing angle corresponds to a human viewing angle and its driver circuit.
For example, a communication IC that receives an image signal from the headset substrate 1350, an image display device and an optical element that display an image based on the received image signal to the eyes of the wearer with a visual angle equivalent to the naked eye, a six-axis sensor 1308, , An IC chip 1309 for calculating information on head acceleration and posture detected by the 6-axis sensor 1308, and a communication module 1352 for communication connection with the game apparatus main body 1002. Some of these may be included in the headset substrate 1350.

6軸センサ1308は、HMD1310すなわちプレーヤ2の頭部の前後(X3軸)・左右(Y3軸)・上下(Z3軸)の3軸の移動や各軸周りの回転(Φh、θh、Ψh)を検出するモーショントレースのための公知のセンサであって、例えば、3軸方向の加速度と3軸周りの角速度とを検出する。或いは3軸方向の加速度と東西南北の地磁気方向を検出するとしてもよい。   The 6-axis sensor 1308 moves the HMD 1310, that is, the front and rear (X3 axis), left and right (Y3 axis), and upper and lower (Z3 axis) of the head of the player 2 and rotation (Φh, θh, Ψh) around each axis. This is a known sensor for detecting a motion trace, and detects, for example, acceleration in three axis directions and angular velocity around the three axes. Alternatively, the acceleration in the triaxial direction and the geomagnetic direction in the east, west, south, and north may be detected.

ヘッドセット基板1350は、ヘッドセット1300の各部と接続され当該ヘッドセットにおける各種演算処理と、外部とのデータ通信制御に係る処理を行う制御基板である。例えば、CPUやICメモリ、画像処理LSI、通信IC、インターフェース回路などにより実現できる。   The headset substrate 1350 is a control substrate that is connected to each part of the headset 1300 and performs various arithmetic processing in the headset and processing related to data communication control with the outside. For example, it can be realized by a CPU, an IC memory, an image processing LSI, a communication IC, an interface circuit, or the like.

また、HMD1310の正面3箇所に発光マーカ1312が設けられている。発光マーカ1312は、例えばLED等により実現され、ヘッドセット基板1350により発光制御される。通常は、常時点灯である。発光マーカ1312は、測距センサユニット1100のカラーイメージセンサ1104で撮影した画像からHMD1310の存在と位置を認識するためのマーカとして利用される。   Further, light emitting markers 1312 are provided at three locations on the front surface of the HMD 1310. The light emitting marker 1312 is realized by, for example, an LED or the like, and light emission is controlled by the headset substrate 1350. Usually, it is always on. The light emitting marker 1312 is used as a marker for recognizing the presence and position of the HMD 1310 from an image captured by the color image sensor 1104 of the distance measuring sensor unit 1100.

図4は、測距空間の座標系と測距・認識される要素について説明する図である。
測距空間の座標系は、測距センサユニット1100を座標原点とし、カラーイメージセンサ1104の光軸方向を深度軸(Z軸)とする。そして、スケールは実空間と同様に設定されている。測距空間は実空間でもあるが、測距センサユニット1100の設置姿勢に応じて座標系の各軸方向が定義される。測距センサユニット1100の設置姿勢は、6軸センサ1108の検知結果から判断される。勿論、6軸センサ1109の検知結果から実空間の水平方向及び鉛直方向を求めることができるため、測距空間の座標軸の方向も、水平方向及び鉛直方向に沿って設定することが可能である。
FIG. 4 is a diagram for explaining the coordinate system of the distance measurement space and the elements to be measured / recognized.
In the coordinate system of the distance measurement space, the distance measurement sensor unit 1100 is the origin of coordinates, and the optical axis direction of the color image sensor 1104 is the depth axis (Z axis). The scale is set in the same way as in real space. Although the distance measurement space is also a real space, each axis direction of the coordinate system is defined according to the installation posture of the distance measurement sensor unit 1100. The installation posture of the distance measurement sensor unit 1100 is determined from the detection result of the 6-axis sensor 1108. Of course, since the horizontal direction and the vertical direction of the real space can be obtained from the detection result of the six-axis sensor 1109, the direction of the coordinate axis of the distance measuring space can also be set along the horizontal direction and the vertical direction.

本実施形態のゲームシステム1000では、測距センサユニット1100による測距によって測距空間における、HMD1310の位置Phと、ゲームコントローラ1200の位置Pcと、プレーヤ2の右手位置Pr及び左手位置Plとを随時(例えば100ms間隔などの所定周期で)得ることができる。   In the game system 1000 of the present embodiment, the position Ph of the HMD 1310, the position Pc of the game controller 1200, the right hand position Pr and the left hand position Pl of the player 2 in the distance measurement space by distance measurement by the distance measurement sensor unit 1100 are as necessary. (For example, with a predetermined period such as an interval of 100 ms).

具体的には、測距センサユニット1100のカラーイメージセンサ1104で撮影された画像から、HMD1310の発光マーカ1312を認識することで、HMD1310の存在を認識し、画像座標系における発光マーカ1312が写っている位置と、当該位置の測距結果とからHMD1310の位置Phを決定する。測距センサユニット1100を基準とする発光マーカ1312の相対位置関係、相対距離、大きさから位置Phを割り出すとしても良い。ゲームコントローラ1200についても同様に、画像座標系における発光マーカ1202が写っている位置と、当該位置の測距結果とからゲームコントローラ1200の位置Pcを決定することができる。   Specifically, the presence of the HMD 1310 is recognized by recognizing the light emitting marker 1312 of the HMD 1310 from the image taken by the color image sensor 1104 of the distance measuring sensor unit 1100, and the light emitting marker 1312 in the image coordinate system is captured. The position Ph of the HMD 1310 is determined from the current position and the distance measurement result of the position. The position Ph may be determined from the relative positional relationship, relative distance, and size of the light emitting marker 1312 with the distance measuring sensor unit 1100 as a reference. Similarly, for the game controller 1200, the position Pc of the game controller 1200 can be determined from the position where the light emitting marker 1202 appears in the image coordinate system and the distance measurement result at the position.

また、カラーイメージセンサ1104で撮影された画像中の複数の発光マーカ1312それぞれの大きさ・傾き・変形や、各発光マーカ1312を結んでできる図形の大きさ・傾き・変形から、HMD1310の姿勢(Φh、θh、Ψh)、換言すれば、HMD1310を装着したプレーヤの視線方向(顔の正面方向)を検出することができる。そして、HMD1310の6軸センサ1308により位置Phにおける姿勢や姿勢の変化を知ることができる。ゲームコントローラ1200についても同様で、カラーイメージセンサ1104で撮影された画像中の発光マーカ1202それぞれの大きさ・傾き・変形や、各発光マーカ1202を結んでできる図形の大きさ・傾き・変形からゲームコントローラ1200の姿勢(Φc、θc、Ψc)を検出することができる。また、ゲームコントローラ1200の6軸センサ1208により位置Pcにおける姿勢や姿勢の変化を知ることができる。   Further, from the size / inclination / deformation of each of the plurality of light emitting markers 1312 in the image photographed by the color image sensor 1104 and the size / inclination / deformation of the figure formed by connecting the respective light emitting markers 1312, the orientation of the HMD 1310 ( [Phi] h, [theta] h, [Psi] h), in other words, the line-of-sight direction (front direction of the face) of the player wearing the HMD 1310 can be detected. Then, the posture at the position Ph and a change in the posture can be known by the 6-axis sensor 1308 of the HMD 1310. The same applies to the game controller 1200. From the size / tilt / deformation of each light emitting marker 1202 in the image taken by the color image sensor 1104, and the size / tilt / deformation of the figure formed by connecting each light emitting marker 1202 to the game. The attitude (Φc, θc, Ψc) of the controller 1200 can be detected. Further, the 6-axis sensor 1208 of the game controller 1200 can know the posture at the position Pc and the change in the posture.

なお、6軸センサ1308や6軸センサ1208が地磁気センサなどを含んで構成され、地磁気方向を基準とした姿勢を検出できるならば、発光マーカ1312や発光マーカ1202を用いた姿勢算出の補正情報として利用したり、発光マーカ1312や発光マーカ1202を利用せずに姿勢算出を実現することができる。   If the 6-axis sensor 1308 or 6-axis sensor 1208 includes a geomagnetic sensor or the like and can detect an attitude based on the geomagnetic direction, it can be used as correction information for attitude calculation using the light emitting marker 1312 and the light emitting marker 1202. The posture calculation can be realized without using the light emitting marker 1312 or the light emitting marker 1202.

ジェスチャー入力の際の操作指示物となる左手位置Pl及び右手位置Prは、カラーイメージセンサ1104で撮影された画像から左手、右手が写っている部分を画像認識し、当該画像部分の位置座標と、当該位置座標に係る測距結果とから決定される。なお、手の画像認識は形状認識などの公知技術を適宜用いて実現できる。   The left hand position Pl and the right hand position Pr, which are operation instructions at the time of gesture input, recognize from the image captured by the color image sensor 1104 an image of a portion where the left hand and the right hand are captured, and position coordinates of the image portion, It is determined from the distance measurement result relating to the position coordinates. Note that hand image recognition can be realized by appropriately using a known technique such as shape recognition.

そして、本実施形態のゲームシステム1000は、これらのパラメータ値に基づいて、家庭用据置型ゲーム装置でHMDを使用する際の不便を改善し、ユーザビリティを向上させる。具体的には、ヘッドセット1300を装着した状態で、且つゲームコントローラ1200が把持されない場合に、ヘッドセット1300を装着して外界の様子を確認できない状態であっても、比較的容易にゲームコントローラ1200を見つけて手に持てるように案内をしてプレーヤを補助する。   And the game system 1000 of this embodiment improves inconvenience at the time of using HMD with a home stationary game device based on these parameter values, and improves usability. Specifically, when the headset 1300 is worn and the game controller 1200 is not gripped, the game controller 1200 is relatively easy even when the headset 1300 is worn and the state of the outside world cannot be confirmed. Assisting the player by finding and guiding the player to hold it.

〔原理の説明〕
容易にゲームコントローラ1200を見つけて手に持てるようにする案内の1つが、HMD1310による案内表示の実施である。
[Description of Principle]
One of the guides for easily finding the game controller 1200 and holding it in the hand is the guidance display by the HMD 1310.

図5は、HMD1310にて表示させるプレーヤ補助表示用の立体視画像を生成するためのプレーヤ補助表示用仮想3次元空間と当該空間に配置されるオブジェクトとの例を示す図である。   FIG. 5 is a diagram illustrating an example of a player auxiliary display virtual three-dimensional space for generating a stereoscopic image for player auxiliary display displayed on the HMD 1310 and objects arranged in the space.

本実施形態では、プレーヤ補助表示用仮想3次元空間は、実空間の水平方向及び鉛直方向に沿って座標軸方向を定めた座標系で定義され、スケールも実空間と同様に設定される。また、座標原点は、測距空間の原点と同じ位置とする。プレーヤ補助表示用仮想3次元空間は仮想空間の一例であり、以下適宜「仮想空間」と略称する。HMD1310に表示するゲーム画像を生成するために、HMD1310用の仮想視点(仮想ステレオカメラ10)を基準とする視点座標系の仮想空間を別途設けるとしてもよい。また、プレーヤ補助表示用仮想3次元空間は、例えば、プレーヤが昆虫等のミクロの世界に入り込んだようなゲームを楽しむ場合には、実空間と異なるスケールとしてもよいことは勿論である。   In this embodiment, the player auxiliary display virtual three-dimensional space is defined by a coordinate system in which coordinate axis directions are determined along the horizontal direction and the vertical direction of the real space, and the scale is set in the same manner as the real space. The coordinate origin is the same position as the origin of the distance measurement space. The player auxiliary display virtual three-dimensional space is an example of a virtual space, and is hereinafter abbreviated as “virtual space” as appropriate. In order to generate a game image to be displayed on the HMD 1310, a viewpoint coordinate system virtual space based on the virtual viewpoint for the HMD 1310 (virtual stereo camera 10) may be provided separately. In addition, the player auxiliary display virtual three-dimensional space may of course have a different scale from the real space, for example, when the player enjoys a game that enters a micro world such as an insect.

プレーヤ補助表示用仮想3次元空間には、空間の方向感覚を補うために適宜床や壁、天井などの背景オブジェクト4と、仮想ステレオカメラ10と、コントローラオブジェクト12と、方向案内オブジェクト13と、左手オブジェクト14と、右手オブジェクト16とが配置される。また、操作入力を促すなどのプレーヤ2に向けた何らかの操作案内表示を行う場合には、案内キャラクタ20や、案内表示パネル22、被選択体24の各オブジェクトが配置される。   In the player auxiliary display virtual three-dimensional space, a background object 4 such as a floor, a wall, and a ceiling, a virtual stereo camera 10, a controller object 12, a direction guide object 13, and a left-hand object are appropriately added to supplement the sense of direction of the space. 14 and the right hand object 16 are arranged. Further, when some kind of operation guidance display directed to the player 2 such as prompting an operation input is performed, the guidance character 20, the guidance display panel 22, and the selected object 24 are arranged.

仮想ステレオカメラ10は、HMD1310にて立体視画像を生成するための左右一組の仮想カメラ群である。当該セットの右側カメラで撮影したプレーヤ補助表示用仮想3次元空間のレンダリング画像がHMD1310の右眼用の画像となり、左側カメラで撮影したレンダリング画像が左眼用の画像となる。   The virtual stereo camera 10 is a set of left and right virtual cameras for generating a stereoscopic image by the HMD 1310. The rendering image of the player auxiliary display virtual three-dimensional space photographed by the right camera of the set becomes an image for the right eye of the HMD 1310, and the rendered image photographed by the left camera becomes an image for the left eye.

仮想ステレオカメラ10は、測距座標系から仮想空間の座標系に適宜座標変換されたHMD1310の位置Ph’に配置される。そして、仮想ステレオカメラ10の撮影画角は人の肉眼と同程度に設定され、光軸の方向はHMD1310の6軸センサ1308にて検出された前後軸(X3軸:図3)の方向とし、光軸周りの回転は6軸センサ1308にて検出された前後軸周りの回転と同一となるように制御される。つまり、仮想ステレオカメラ10はプレーヤ2の頭部の動きをトレースするように制御される。こうした機能は、公知のHMDに係るヘッドトラッキング技術を利用することができる。   The virtual stereo camera 10 is disposed at a position Ph ′ of the HMD 1310 that is appropriately coordinate-converted from the distance measurement coordinate system to the coordinate system of the virtual space. The shooting angle of view of the virtual stereo camera 10 is set to the same level as the human eye, and the direction of the optical axis is the direction of the front-rear axis (X3 axis: FIG. 3) detected by the 6-axis sensor 1308 of the HMD 1310. The rotation around the optical axis is controlled to be the same as the rotation around the front-rear axis detected by the 6-axis sensor 1308. That is, the virtual stereo camera 10 is controlled to trace the movement of the head of the player 2. For such a function, a known head tracking technology related to the HMD can be used.

コントローラオブジェクト12は、ゲームコントローラ1200の存在位置を示すオブジェクト(第1の案内表示の第1形態)であって、例えばゲームコントローラ1200を簡略化したデザインを有する。そして、測距座標系から仮想空間の座標系に適宜座標変換されたゲームコントローラ1200の位置Pc’に配置される。コントローラオブジェクト12の大きさは、実物のゲームコントローラ1200と同じまたは同程度とする。   The controller object 12 is an object (first form of the first guidance display) indicating the position where the game controller 1200 is present, and has a simplified design of the game controller 1200, for example. And it arrange | positions in the position Pc 'of the game controller 1200 by which coordinate conversion was suitably carried out from the ranging coordinate system to the coordinate system of virtual space. The size of the controller object 12 is the same as or similar to that of the real game controller 1200.

方向案内オブジェクト13は、仮想空間においてコントローラオブジェクト12の位置を指し示すように制御されるオブジェクト(第1の案内表示の第2形態)である。HMD1310の視界内(撮影画角内)に、コントローラオブジェクト12が入らない場合に、HMD1310の視界内の所定位置に表示されるように配置位置が自動調節される。具体的には、HMD1310の表示画面の周部であって、ゲームコントローラ1200の位置PC’に最近接する位置に方向案内オブジェクト13が配置表示される(図6参照)。   The direction guidance object 13 is an object (second form of the first guidance display) that is controlled so as to point to the position of the controller object 12 in the virtual space. When the controller object 12 does not enter the field of view of the HMD 1310 (within the shooting angle of view), the arrangement position is automatically adjusted so that it is displayed at a predetermined position in the field of view of the HMD 1310. Specifically, the direction guidance object 13 is arranged and displayed at a position closest to the position PC ′ of the game controller 1200 on the periphery of the display screen of the HMD 1310 (see FIG. 6).

左手オブジェクト14及び右手オブジェクト16は、本実施形態におけるジェスチャー入力の操作指示物である手の実空間(測距空間)中の位置に対応する仮想空間中の位置を示す指示オブジェクトであり、容易にゲームコントローラ1200を手に取れるようにするための第2の案内表示である。具体的には、左手オブジェクト14及び右手オブジェクト16は、それぞれ測距座標系から仮想空間の座標系に適宜座標変換されたプレーヤ2の左手位置Pl’及び右手位置Pr’に配置制御される。つまり、左手オブジェクト14及び右手オブジェクト16は、それぞれプレーヤ2の左手及び右手の動きをトレースする。   The left hand object 14 and the right hand object 16 are pointing objects indicating positions in the virtual space corresponding to positions in the real space (ranging space) of the hand, which is an operation instruction for gesture input in the present embodiment. It is the 2nd guidance display for making it possible to take game controller 1200. Specifically, the left-hand object 14 and the right-hand object 16 are controlled to be placed at the left-hand position Pl ′ and the right-hand position Pr ′ of the player 2 that are appropriately coordinate-converted from the distance measurement coordinate system to the coordinate system of the virtual space, respectively. That is, the left hand object 14 and the right hand object 16 trace the movements of the left hand and the right hand of the player 2, respectively.

案内キャラクタ20や、案内表示パネル22、被選択体24は、仮想ステレオカメラ10から見て奥側、言うなればプレーヤ2の正面方向に配置される。   The guide character 20, the guide display panel 22, and the selected object 24 are arranged on the back side as viewed from the virtual stereo camera 10, that is, in the front direction of the player 2.

仮想ステレオカメラ10の位置や視線方向が変化したとしても(すなわち、ヘッドセット1300が装着された頭部を動かしたとしても)、案内キャラクタ20及び案内表示パネル22の仮想空間における配置位置は変化しない。特に、案内キャラクタ20は仮想空間中を移動し得るが、案内表示パネル22は仮想空間中の固定位置に配置されるものとする。
案内表示パネル22は、操作入力の目的や操作入力を促すテキストや図を表示する、例えば板状オブジェクトある。
Even if the position or line-of-sight direction of the virtual stereo camera 10 changes (that is, even if the head on which the headset 1300 is worn is moved), the arrangement positions of the guide character 20 and the guide display panel 22 in the virtual space do not change. . In particular, the guide character 20 can move in the virtual space, but the guide display panel 22 is arranged at a fixed position in the virtual space.
The guidance display panel 22 is, for example, a plate-like object that displays the purpose of the operation input or text or a diagram that prompts the operation input.

被選択体24は、例えば選択操作アイコンに相当し、対応付けられている選択肢を示すテキストや図を表示する。被選択体24の配置位置は、仮想ステレオカメラ10の撮影画角内(すまわちHMD1310で見える視界内)において固定または略固定となるように自動制御される(詳細は後述)。被選択体24のデザインは、適宜設定可能であるが、本実施形態では案内キャラクタ20の台詞を表示する“吹き出し”に相当するデザインとする。   The selection target 24 corresponds to, for example, a selection operation icon, and displays text or a figure indicating the associated options. The arrangement position of the selected object 24 is automatically controlled so as to be fixed or substantially fixed within the shooting angle of view of the virtual stereo camera 10 (that is, within the field of view seen by the HMD 1310) (details will be described later). The design of the selected object 24 can be set as appropriate, but in the present embodiment, the design corresponds to a “speech balloon” that displays the dialogue of the guide character 20.

図6〜図8は、(1)HMD1310で表示される立体視画像(ゲーム画像;ゲーム画面)の例と、(2)その時の現実世界におけるプレーヤ2とその周囲の状態と、を示す図である。
図6〜図8に示す画像は、ゲーム開始前の準備段階にあって、プレーヤ2が両手でヘッドセット1300を装着し、タッチパネル1004すなわち正面を向いた状態で見ることができる。
6 to 8 are diagrams showing (1) an example of a stereoscopic image (game image; game screen) displayed on the HMD 1310, and (2) the player 2 in the real world at that time and the surrounding state. is there.
The images shown in FIGS. 6 to 8 are in a preparatory stage before the start of the game, and can be viewed with the player 2 wearing the headset 1300 with both hands and facing the touch panel 1004, that is, the front.

仮想空間の座標原点付近に案内キャラクタ20や、案内表示パネル22、被選択体24が初期配置されるため(図5参照)、図6に示すように仮想ステレオカメラ10の立体視画像(ゲーム画面)W2の中央正面に、これらが表示される。このうち、被選択体24は、必ずゲーム画面の所定位置に表示されるように、仮想ステレオカメラ10の視線方向に追従して、仮想空間中の位置が調整される(図8参照)。   Since the guide character 20, the guidance display panel 22, and the selected object 24 are initially arranged near the coordinate origin of the virtual space (see FIG. 5), a stereoscopic image (game screen) of the virtual stereo camera 10 as shown in FIG. ) These are displayed in front of the center of W2. Among these, the position in the virtual space is adjusted following the direction of the line of sight of the virtual stereo camera 10 so that the selected object 24 is always displayed at a predetermined position on the game screen (see FIG. 8).

この段階ではまだプレーヤ2はゲームコントローラ1200を把持していないので、プレーヤ2の手の位置によっては図6(1)に示すように左手オブジェクト14及び右手オブジェクト16が表示され得る。そして、この状態の仮想ステレオカメラ10からは、コントローラオブジェクト12が撮影画角内に入らないので(図6(2)参照)、第1の案内表示として方向案内オブジェクト13が画面内に表示される(図6(1)参照)。   At this stage, since the player 2 has not yet held the game controller 1200, the left-hand object 14 and the right-hand object 16 can be displayed as shown in FIG. Since the controller object 12 does not fall within the shooting angle of view from the virtual stereo camera 10 in this state (see FIG. 6B), the direction guidance object 13 is displayed on the screen as the first guidance display. (See FIG. 6 (1)).

プレーヤ2はゲームコントローラ1200を未だ手にしていないが、自身の手の位置により操作入力をすることができる。
図6(1)の例では、プレーヤ2にゲーム開始の意志確認を要求している。ゲームコントローラ1200を手にとってゲームを始める意志があれば左の被選択体24を手で触れるつもりで左側奥方へ腕を伸ばせばよい。左腕を延ばすに従い左手オブジェクト14が移動表示され、図7(1)に示す立体視画像(ゲーム画像)W4のように、左の被選択体24に到達または所定距離まで近接すると、左手オブジェクト14の表示形態が別の表示形態に切り換えられる。図7(1)の例では、表示色が変更されている。そして、その状態が所定時間維持或いは所定動作(例えば、その場で手を振る動作をする)と、左手オブジェクト14が左の被選択体24を選択入力したと判定され、左の被選択体24に対応づけられている選択肢の入力が確定する。つまり、ゲームプレイする意志がジェスチャー入力される。なお、図7(1)において、方向案内オブジェクト13は、別の形態の例を示している。
Although the player 2 has not yet held the game controller 1200, the player 2 can input an operation based on the position of his / her hand.
In the example of FIG. 6A, the player 2 is requested to confirm the intention to start the game. If there is an intention to start the game with the game controller 1200 in hand, the arm may be extended to the left side in an attempt to touch the left selected object 24 with the hand. As the left arm is extended, the left hand object 14 is moved and displayed. As shown in the stereoscopic image (game image) W4 shown in FIG. The display form is switched to another display form. In the example of FIG. 7A, the display color is changed. Then, when the state is maintained for a predetermined time or a predetermined action (for example, a hand is shaken on the spot), it is determined that the left hand object 14 has selected and input the left selection object 24, and the left selection object 24 is selected. The input of the option associated with is confirmed. That is, the intention to play the game is input by gesture. In FIG. 7A, the direction guide object 13 shows another example.

図7(1)の状態から、プレーヤ2が方向案内オブジェクト13を参考にして首を左方向に回転させれば、仮想空間における仮想ステレオカメラ10の向きも左方向に回転することとなる。HMD1310には、図8(1)の立体視画像(ゲーム画面)W6が表示されることになる。   If the player 2 rotates the neck leftward with reference to the direction guide object 13 from the state of FIG. 7A, the direction of the virtual stereo camera 10 in the virtual space also rotates leftward. The HMD 1310 displays the stereoscopic image (game screen) W6 of FIG.

図6(1)や図7(1)で表示されていた方向案内オブジェクト13は、図8(1)の状態でコントローラオブジェクト12が仮想ステレオカメラ10の撮影範囲に入ったことで仮想空間から消去され、立体視画像(ゲーム画面)W6からは消えることになる。つまり、第1の案内表示が、方向案内オブジェクト13からコントローラオブジェクト12に切り替えられることになる。   The direction guidance object 13 displayed in FIG. 6A and FIG. 7A is erased from the virtual space when the controller object 12 enters the shooting range of the virtual stereo camera 10 in the state of FIG. Then, it disappears from the stereoscopic image (game screen) W6. That is, the first guidance display is switched from the direction guidance object 13 to the controller object 12.

被選択体24は、立体視画像(ゲーム画面)の所定位置に固定的に表示されるので見失うことはない。また、被選択体24には、プレーヤ2のゲームプレイポジションにおける正面方向(タッチパネル1004の方向)を示す正面方向ガイド部25(図8(1)の例では、吹き出しの指示部分(引き出し部分))が用意されており、プレーヤ2が首を振ったとしても正面方向を見失うことはない。   Since the selected object 24 is fixedly displayed at a predetermined position of the stereoscopic image (game screen), it is not lost. Further, the selection target 24 includes a front direction guide portion 25 (in the example of FIG. 8A, a drawing instruction portion (drawing portion)) indicating the front direction (direction of the touch panel 1004) at the game play position of the player 2. Is prepared, and even if the player 2 shakes his / her head, the front direction is not lost.

プレーヤ2の頭の向き(すなわち、仮想ステレオカメラ10の視線方向)によっては、コントローラオブジェクト12の一部又は全部が被選択体24などの他オブジェクトの背後に隠れるケースも起こり得る。他オブジェクトは特に限定されない。例えば、案内キャラクタ20や案内表示パネル22、背景を構成するオブジェクトなども含まれる。そしてその場合、コントローラオブジェクト12の表出処理を行う。具体的には、コントローラオブジェクト12を隠しているオブジェクトを、図8(1)のように半透明表示するか、コントローラオブジェクト12が見えるように当該隠しオブジェクトのモデルを一時的に変更する。例えば、のぞき穴を作る、角を削ると言った具合である。図8(1)の例では、被選択体24が隠しオブジェクトとなる。   Depending on the orientation of the head of the player 2 (that is, the line-of-sight direction of the virtual stereo camera 10), a case where a part or all of the controller object 12 is hidden behind another object such as the selected object 24 may occur. Other objects are not particularly limited. For example, the guide character 20, the guide display panel 22, and objects constituting the background are also included. In this case, the controller object 12 is exposed. Specifically, the object that hides the controller object 12 is displayed semi-transparently as shown in FIG. 8A, or the model of the hidden object is temporarily changed so that the controller object 12 can be seen. For example, you might make a peephole or cut a corner. In the example of FIG. 8A, the selected object 24 is a hidden object.

本実施形態では、仮想空間の水平方向及び鉛直方向はプレーヤ2が居る現実世界(実空間)と同じとし、スケールも現実世界(実空間)と同じとしている。そして、仮想ステレオカメラ10の撮影画角は肉眼に合わせてある。よって、プレーヤ2(ユーザ)にとって、HMD1310で見える立体視画像は、距離感が現実と同じ仮想現実の画像として認識される。よって、プレーヤ2は、コントローラオブジェクト12が見えている位置へ向けて腕を伸ばせば、容易にゲームコントローラ1200に手が届く。手が届くまでの過程においても、腕を延ばすのに伴って左手オブジェクト14(または右手オブジェクト16)が立体視画像内で移動表示されて最新の手の位置を示すので、普通に物を取る感覚で容易にゲームコントローラ1200を手に取ることができる。   In the present embodiment, the horizontal direction and the vertical direction of the virtual space are the same as the real world (real space) where the player 2 is located, and the scale is also the same as the real world (real space). The shooting angle of view of the virtual stereo camera 10 is matched to the naked eye. Therefore, for the player 2 (user), the stereoscopic image seen by the HMD 1310 is recognized as a virtual reality image having the same sense of distance as the reality. Therefore, the player 2 can easily reach the game controller 1200 by extending his arm toward the position where the controller object 12 is visible. Even in the process of reaching the hand, as the arm is extended, the left hand object 14 (or the right hand object 16) is moved and displayed in the stereoscopic image to indicate the latest hand position. The game controller 1200 can be easily picked up.

また、本実施形態では、ゲームコントローラ1200への案内は、こうした立体視によるものの他にゲームコントローラ1200のバイブレーションと、ヘッドホン1302による信号音(案内音)とにより複合的に提供される。   In this embodiment, the guidance to the game controller 1200 is provided in combination with the vibration of the game controller 1200 and the signal sound (guidance sound) from the headphones 1302 in addition to such stereoscopic vision.

具体的には、図6(2)に示すように、ゲームコントローラ1200が把持されていないと判断されると、バイブレータ1206(図2参照)を作動させてゲームコントローラ1200を振動させる。把持されていないことを検出する条件は、例えば、1)6軸センサ1208で検出される信号が所定時間以上変化しない、2)所定時間以上操作ボタンスイッチ1260などからの操作入力が検出されない、3)ゲームコントローラ1200の位置Pcから左手位置Plや右手位置Prまでの相対距離が基準値以上離れた、と言った条件の単独又は組合せとすることができる。   Specifically, as shown in FIG. 6B, when it is determined that the game controller 1200 is not gripped, the vibrator 1206 (see FIG. 2) is operated to vibrate the game controller 1200. The conditions for detecting that the robot is not gripped are, for example, 1) the signal detected by the 6-axis sensor 1208 does not change for a predetermined time or longer, and 2) the operation input from the operation button switch 1260 or the like is not detected for a predetermined time or longer. ) It can be a single or a combination of the conditions that the relative distance from the position Pc of the game controller 1200 to the left hand position Pl or the right hand position Pr is more than the reference value.

ゲームコントローラ1200が振動することにより発する音で、プレーヤ2はゲームコントローラ1200がどちらの方向にあるか知る手がかりとなる。また、手が触れると振動でゲームコントローラ1200であると直ぐに分かるので都合が良い。   The sound generated by the vibration of the game controller 1200 provides a clue for the player 2 to know which direction the game controller 1200 is. In addition, it is convenient that the game controller 1200 is immediately recognized by vibration when touched by a hand.

また、ヘッドホン1302からは、HMD1310の位置Phから見たゲームコントローラ1200の位置Pcの方向から音が聞こえるように信号音をサラウンドで放音する。
サラウンド機能そのものは、公知技術により実現される。プレーヤ2は、信号音の聞こえてくる方向からゲームコントローラ1200がどちらにあるかを聴覚的に知り、ゲームコントローラ1200を見つけ出して手に取ることが可能となる。このとき、手の位置(右手位置Pr,左手位置Pl)と、ゲームコントローラ1200の位置Pcとの相対距離に応じて、音量や音高を変化させたり、パルス音であればその周期を変化させるなどの音制御を行うと一層好適である。
The headphone 1302 emits a signal sound in surround so that sound can be heard from the direction of the position Pc of the game controller 1200 as viewed from the position Ph of the HMD 1310.
The surround function itself is realized by a known technique. The player 2 audibly knows where the game controller 1200 is from the direction in which the signal sound can be heard, finds the game controller 1200, and can pick it up. At this time, the volume or pitch is changed according to the relative distance between the hand position (right hand position Pr, left hand position Pl) and the position Pc of the game controller 1200, or the period of the pulse sound is changed. It is more suitable to perform sound control such as.

〔機能構成の説明〕
次に、本実施形態を実現するための機能構成例について説明する。
図9は、本実施形態におけるゲームシステム1000の機能構成例を示す機能ブロック図である。本実施形態におけるゲームシステム1000は、操作入力部100と、処理部200と、音出力部390と、画像表示部392と、通信部394と、コントローラ発振部396と、記憶部500とを備える。図9において、ゲーム装置本体1002の主要な機能ブロックは、操作入力部100、音出力部390、画像表示部392及びコントローラ発振部396を除いた構成となる。
[Description of functional configuration]
Next, a functional configuration example for realizing the present embodiment will be described.
FIG. 9 is a functional block diagram illustrating a functional configuration example of the game system 1000 according to the present embodiment. The game system 1000 according to the present embodiment includes an operation input unit 100, a processing unit 200, a sound output unit 390, an image display unit 392, a communication unit 394, a controller oscillation unit 396, and a storage unit 500. In FIG. 9, main functional blocks of the game apparatus main body 1002 have a configuration excluding the operation input unit 100, the sound output unit 390, the image display unit 392, and the controller oscillation unit 396.

操作入力部100は、各種操作を入力するための手段である。ジョイスティック、プッシュスイッチ、レバー、ボリューム、ペダルスイッチ、キーボード、マウス、トラックパッド、トラックボール、ジェスチャー入力装置など、公知の操作入力デバイスにより実現できる。本実施形態では、タッチパネル1004、ゲームコントローラ1200がこれに該当する(図1参照)。   The operation input unit 100 is a means for inputting various operations. It can be realized by a known operation input device such as a joystick, a push switch, a lever, a volume, a pedal switch, a keyboard, a mouse, a track pad, a track ball, and a gesture input device. In the present embodiment, the touch panel 1004 and the game controller 1200 correspond to this (see FIG. 1).

そして、本実施形態の操作入力部100には、頭部姿勢変化検出部102と、測距部104と、が含まれる。   The operation input unit 100 of the present embodiment includes a head posture change detection unit 102 and a distance measurement unit 104.

頭部姿勢変化検出部102は、プレーヤ2の頭部の姿勢及び姿勢の変化を検出し、検出信号を処理部200へ出力する。例えば、ジャイロや加速度センサを用いたり、イメージセンサで撮影画像から人の頭部を認識するなどの公知のヘッドトラッキング技術などにより実現できる。本実施形態では、ヘッドセット1300に内蔵されたHMD1310(図3参照)、より具体的には6軸センサ1308とICチップ1309がこれに該当する。HMD1310の姿勢を測距センサユニット1100で撮影した画像処理から求める構成であれば、測距センサユニット1100もこれに該当すると言える。   The head posture change detection unit 102 detects the posture and posture change of the player 2 and outputs a detection signal to the processing unit 200. For example, it can be realized by a known head tracking technique such as using a gyroscope or an acceleration sensor, or recognizing a human head from a captured image by an image sensor. In the present embodiment, the HMD 1310 (see FIG. 3) built in the headset 1300, more specifically, the 6-axis sensor 1308 and the IC chip 1309 correspond to this. It can be said that the distance measuring sensor unit 1100 corresponds to this as long as the configuration is obtained from the image processing of the HMD 1310 taken by the distance measuring sensor unit 1100.

測距部104は、所定周期でプレーヤ2およびその周辺の様子を撮影し、存在する物体までの距離を測定し、撮影した画像データや測距結果を逐次処理部200へ出力する。本実施形態では、測距センサユニット1100が該当する(図1参照)。   The ranging unit 104 captures the player 2 and its surroundings at a predetermined cycle, measures the distance to the existing object, and outputs the captured image data and the ranging result to the sequential processing unit 200. In the present embodiment, the distance measuring sensor unit 1100 corresponds (see FIG. 1).

処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC(特定用途向け集積回路)、FPGA、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100などからの入力信号に基づいて各種の演算処理を実行して、ゲームシステム1000の動作を統合的に制御する。本実施形態では制御基板1050がこれに該当する(図1参照)。   The processing unit 200 is realized by electronic components such as a microprocessor such as a CPU and a GPU, an ASIC (Application Specific Integrated Circuit), an FPGA, and an IC memory, and includes each function unit including the operation input unit 100 and the storage unit 500. Data input / output control between Then, various arithmetic processes are executed based on predetermined programs, data, and input signals from the operation input unit 100, and the operation of the game system 1000 is integratedly controlled. In the present embodiment, the control board 1050 corresponds to this (see FIG. 1).

そして、処理部200は、ゲーム演算部202と、音信号生成部290と、画像信号生成部292と、通信制御部294とを含む。   The processing unit 200 includes a game calculation unit 202, a sound signal generation unit 290, an image signal generation unit 292, and a communication control unit 294.

ゲーム演算部202は、ゲームプレイに係る各種処理を実行する。
例えば、
1)仮想空間に背景オブジェクトとプレーヤキャラクタオブジェクトと仮想ステレオカメラ10とを配置する処理、
2)操作入力部100からの操作入力信号に基づいてプレーヤキャラクタオブジェクトの動作を制御する処理、
3)頭部姿勢変化検出部102からの検出情報に基づいて仮想ステレオカメラ10の姿勢をプレーヤ2の頭部の姿勢変化に連動させて、仮想ステレオカメラ10で撮影したゲーム空間の画像をレンダリングしHMD1310にて立体視画像として表示させる処理、
4)ゲーム終了の判定処理、
5)ゲーム成績の算出処理、
6)計時処理、などを行うことができる。勿論、ゲーム内容に応じてこれら以外の処理を適宜実行することができる。
The game calculation unit 202 executes various processes related to game play.
For example,
1) Processing for arranging a background object, a player character object, and a virtual stereo camera 10 in a virtual space;
2) processing for controlling the movement of the player character object based on the operation input signal from the operation input unit 100;
3) Based on the detection information from the head posture change detection unit 102, the virtual stereo camera 10 is linked with the posture change of the head of the player 2 and the game space image captured by the virtual stereo camera 10 is rendered. Processing to display as a stereoscopic image on the HMD 1310;
4) Game end determination process,
5) Game score calculation processing,
6) Timekeeping processing can be performed. Of course, other processes can be executed as appropriate according to the game content.

そして、本実施形態のゲーム演算部202は、HMDを用いる上でのユーザビリティ向上を目的として、HMD位置姿勢算出部210と、コントローラ位置姿勢算出部212と、手位置算出部214と、コントローラ把持判定部216と、プレーヤ補助制御部220と、を有する。   Then, the game calculation unit 202 of the present embodiment has an HMD position / orientation calculation unit 210, a controller position / orientation calculation unit 212, a hand position calculation unit 214, and a controller gripping determination for the purpose of improving usability in using the HMD. A unit 216 and a player auxiliary control unit 220.

HMD位置姿勢算出部210は、実空間におけるHMD1310の位置と姿勢を所定周期(例えば、10ms毎)で随時算出する。本実施形態では、測距部104で得られた画像や測距結果からHMD1310(或いはプレーヤ2の頭部)の位置Phを算出し、頭部姿勢変化検出部102からの検出情報に基づいて姿勢(Φh、θh、Ψh)を得る。
位置Phを求める方法は、適宜公知技術を用いることができる。例えば、測距部104で得られた画像に写っているHMD1310の3つの発光マーカ1312を抽出し、それらの中間位置の画像内の座標からX軸座標値及びY軸座標値を得て、その座標値に対応する測距結果からZ軸座標値を決定するとしてもよい。また、姿勢については、カラーイメージセンサ1104で撮影した画像から、発光マーカ1312や、HMD1310の正面や側面にプリントされている所定の幾何パターンをそれぞれ画像認識して算出する公知技術を用いるとしてもよい。
The HMD position / orientation calculation unit 210 calculates the position and orientation of the HMD 1310 in real space as needed at predetermined intervals (for example, every 10 ms). In the present embodiment, the position Ph of the HMD 1310 (or the head of the player 2) is calculated from the image obtained by the distance measurement unit 104 and the distance measurement result, and the posture is based on the detection information from the head posture change detection unit 102. (Φh, θh, Ψh) is obtained.
As a method for obtaining the position Ph, a known technique can be used as appropriate. For example, three light emitting markers 1312 of the HMD 1310 shown in the image obtained by the distance measuring unit 104 are extracted, and the X-axis coordinate value and the Y-axis coordinate value are obtained from the coordinates in the intermediate position image. The Z-axis coordinate value may be determined from the distance measurement result corresponding to the coordinate value. As for the posture, a known technique for recognizing and calculating a predetermined geometric pattern printed on the front and side surfaces of the light emitting marker 1312 and the HMD 1310 from an image photographed by the color image sensor 1104 may be used. .

コントローラ位置姿勢算出部212は、ゲームコントローラ1200の位置Pcを所定周期(例えば、10ms毎)で随時算出する。本実施形態では、測距部104で得られた画像や測距結果からゲームコントローラ1200の位置Pcを算出する。
位置Pcを求める方法は、適宜公知技術を用いることができる。例えば、測距部104で得られた画像に写っているゲームコントローラ1200の2つの発光マーカ1202を抽出し、抽出された位置の中間位置の画像内の座標からX軸座標値及びY軸座標値を得て、その座標値に対応する測距結果からZ軸座標値を決定するとしてもよい。或いは、カラーイメージセンサ1104で撮影した画像からゲームコントローラ1200を画像認識して決定するとしてもよい。
The controller position / orientation calculation unit 212 calculates the position Pc of the game controller 1200 at any given time (for example, every 10 ms). In the present embodiment, the position Pc of the game controller 1200 is calculated from the image obtained by the distance measuring unit 104 and the distance measurement result.
As a method for obtaining the position Pc, a known technique can be used as appropriate. For example, two light emitting markers 1202 of the game controller 1200 shown in the image obtained by the distance measuring unit 104 are extracted, and the X-axis coordinate value and the Y-axis coordinate value are determined from the coordinates in the image at the intermediate position of the extracted position. And the Z-axis coordinate value may be determined from the distance measurement result corresponding to the coordinate value. Alternatively, the game controller 1200 may be determined by recognizing the image from an image captured by the color image sensor 1104.

手位置算出部214は、HMD1310の表示画像空間となる仮想空間(プレーヤ補助表示用仮想3次元空間)における、現実空間中のジェスチャー入力用の操作指示物の位置に対応する仮想位置を算出する。本実施形態では、プレーヤ2の左手位置Plと右手位置Prとを所定周期(例えば、10ms毎)で随時算出する。つまり、プレーヤ2の手の位置をトラッキングする。
手位置(左手、右手の仮想位置)を算出する方法は、適宜公知技術を用いることができる。例えば、カラーイメージセンサ1104で撮影した画像から人の手を画像認識し、認識した画像の座標からX軸座標値及びY軸座標値を得て、その座標値に対応する手までの測距結果からZ軸座標値を決定するとしてもよい。
The hand position calculation unit 214 calculates a virtual position corresponding to the position of the operation input object for gesture input in the real space in a virtual space (player auxiliary display virtual three-dimensional space) serving as a display image space of the HMD 1310. In the present embodiment, the left hand position Pl and the right hand position Pr of the player 2 are calculated as needed at predetermined intervals (for example, every 10 ms). That is, the position of the hand of the player 2 is tracked.
As a method for calculating the hand position (the virtual position of the left hand and the right hand), a known technique can be used as appropriate. For example, a human hand is image-recognized from an image captured by the color image sensor 1104, an X-axis coordinate value and a Y-axis coordinate value are obtained from the coordinates of the recognized image, and a distance measurement result up to the hand corresponding to the coordinate value The Z-axis coordinate value may be determined from

コントローラ把持判定部216は、プレーヤ2がゲームコントローラ1200を手に持っているかを判定する。把持されていることを検知するとも換言できる。判定方法・検知方法は適宜選択可能である。例えば、所定時間(例えば5秒間)操作入力が無い場合や、ゲームコントローラ1200の姿勢変化が所定時間(例えば5秒間)無い場合に把持されていないと判定するとしてもよい。もしゲームコントローラ1200の把持部に静電容量を検出するセンサを搭載できるならば、人の手の接触に伴う静電容量の変化から把持されているか否かを検知するとしてもよい。   The controller grip determination unit 216 determines whether the player 2 has the game controller 1200 in hand. In other words, it can be detected that it is gripped. The determination method / detection method can be selected as appropriate. For example, when there is no operation input for a predetermined time (for example, 5 seconds), or when there is no change in the posture of the game controller 1200 for a predetermined time (for example, 5 seconds), it may be determined that it is not gripped. If a sensor for detecting the electrostatic capacity can be mounted on the grip portion of the game controller 1200, it may be detected whether or not the sensor is gripped from a change in the electrostatic capacity due to the contact of a human hand.

プレーヤ補助制御部220は、HMDを使用する際の不便を改善し、ユーザビリティを向上するための主たる制御を行う。
本実施形態では、仮想ステレオカメラ制御部221と、コントローラオブジェクト制御部222と、方向案内オブジェクト制御部224と、手オブジェクト制御部226と、被選択体制御部228と、表出処理部230と、立体視画像生成制御部232と、コントローラ振動制御部234と、擬似サラウンド制御部236と、ジェスチャー入力判定部238と、対キャラクタジェスチャー入力無効化制御部240と、を含む。
The player auxiliary control unit 220 performs main control for improving inconvenience when using the HMD and improving usability.
In the present embodiment, the virtual stereo camera control unit 221, the controller object control unit 222, the direction guidance object control unit 224, the hand object control unit 226, the selected object control unit 228, the expression processing unit 230, A stereoscopic image generation control unit 232, a controller vibration control unit 234, a pseudo surround control unit 236, a gesture input determination unit 238, and an anti-character gesture input invalidation control unit 240 are included.

仮想ステレオカメラ制御部221は、仮想空間における仮想ステレオカメラ10の位置と姿勢を、実空間におけるHMD1310の位置と姿勢に対応するように制御する。すなわち、実空間におけるHMD1310を被ったプレーヤ2の頭の位置と視線方向(つまり顔正面方向)に連動・追従するように仮想ステレオカメラ10の位置と姿勢を制御する。   The virtual stereo camera control unit 221 controls the position and posture of the virtual stereo camera 10 in the virtual space so as to correspond to the position and posture of the HMD 1310 in the real space. That is, the position and posture of the virtual stereo camera 10 are controlled so as to interlock and follow the head position and the line-of-sight direction (that is, the face front direction) of the player 2 wearing the HMD 1310 in real space.

コントローラオブジェクト制御部222は、仮想空間にコントローラオブジェクト12を配置し、その表示形態を制御する。表示形態は、ゲームコントローラ1200とプレーヤ2の手との相対距離が所定の近接条件を満たすまでは標準の形態に設定し、近接条件を満たすと表示形態を特別な形態に変更する。   The controller object control unit 222 arranges the controller object 12 in the virtual space and controls its display form. The display form is set to a standard form until the relative distance between the game controller 1200 and the hand of the player 2 satisfies a predetermined proximity condition, and when the proximity condition is satisfied, the display form is changed to a special form.

方向案内オブジェクト制御部224は、仮想空間に方向案内オブジェクト13を配置して、その移動と姿勢を制御する。具体的には、常にHMD1310の視界(ゲーム画面)の所定位置に留まるように方向案内オブジェクト13の位置を制御し、HMD1310から見たゲームコントローラ1200の方向を指すようにその姿勢を制御する。   The direction guidance object control unit 224 arranges the direction guidance object 13 in the virtual space and controls its movement and posture. Specifically, the position of the direction guide object 13 is controlled so that it always stays at a predetermined position in the field of view (game screen) of the HMD 1310, and the posture is controlled so as to indicate the direction of the game controller 1200 viewed from the HMD 1310.

手オブジェクト制御部226は、仮想空間に左手オブジェクト14と右手オブジェクト16を配置して、その移動を制御する。具体的には、実空間におけるHMD1310に対する左手位置、右手位置それぞれの相対位置に対応する仮想空間の位置に、左手オブジェクト14と右手オブジェクト16とが位置するように制御する。   The hand object control unit 226 arranges the left hand object 14 and the right hand object 16 in the virtual space, and controls their movement. Specifically, control is performed so that the left hand object 14 and the right hand object 16 are positioned at positions in the virtual space corresponding to the relative positions of the left hand position and the right hand position with respect to the HMD 1310 in the real space.

被選択体制御部228は、ジェスチャー入力を要求する際にユーザがジェスチャーの目安とすることのできる表示体を表示制御する。結果的には、この表示体とプレーヤの手などの操作指示物との位置関係でジェスチャー入力が判定されるので、“入力判定体”を表示制御すると言い換えることできる。本実施形態では、操作入力内容が対応付けられた被選択体24を入力判定体の一種として用いて、案内キャラクタ20の“吹き出し”として仮想空間に配置し、プレーヤの手の到達目標位置とする。そして、常にHMD1310の視界(ゲーム画面)の所定位置に留まるように被選択体24の位置を制御する一方で、被選択体24の正面を仮想ステレオカメラ10へ向けるように制御する。また、正面方向ガイド部25が仮想空間の所定位置(例えば座標原点位置)の方向を指し示すように制御する。本実施形態では、正面方向ガイド部25の先端を案内キャラクタ20の所定位置に固定して、被選択体24と一続きとなるようにオブジェクトを変形制御することで、あたかも“吹き出し”が伸び縮み自在でありながら常に案内キャラクタ20を指し示しているように見える。   The selected body control unit 228 controls display of a display body that the user can use as a standard of gesture when requesting gesture input. As a result, since the gesture input is determined based on the positional relationship between the display body and the operation instruction object such as the player's hand, it can be said that the display control is performed on the “input determination body”. In the present embodiment, the selected object 24 associated with the operation input content is used as a kind of input determination object, and is arranged in the virtual space as a “speech balloon” of the guide character 20 to be the target reaching position of the player's hand. . Then, the position of the selected body 24 is controlled so that it always stays at a predetermined position in the field of view (game screen) of the HMD 1310, while the front of the selected body 24 is controlled to face the virtual stereo camera 10. Further, the front direction guide unit 25 performs control so as to indicate the direction of a predetermined position (for example, the coordinate origin position) in the virtual space. In this embodiment, by fixing the tip of the front direction guide portion 25 at a predetermined position of the guide character 20 and controlling the deformation of the object so as to be continuous with the selected object 24, it is as if the “balloon” expands and contracts. Although it is free, it always seems to point to the guide character 20.

なお、被選択体24の表示形態はゲーム内容等に応じて適宜設定可能である。例えば、手の動作開始ポイントから終了ポイント、更にはそれら両ポイント間を結ぶ動作軌跡のガイド、などとすることができる。勿論、それがゲーム中に登場するキャラクタや背景物などを兼ねても良い。   The display form of the selected object 24 can be set as appropriate according to the game content and the like. For example, it may be a hand movement start point to an end point, or a movement locus guide connecting the two points. Of course, it may also serve as a character or background that appears in the game.

表出処理部230は、仮想ステレオカメラ10とコントローラオブジェクト12の間に他のオブジェクトがあって、コントローラオブジェクト12の一部又は全部が当該他オブジェクトの背後になって見えなくなる場合に、コントローラオブジェクト12が見えるように表出させる画像処理をして可視化する。例えば、コントローラオブジェクト12を隠している他オブジェクトを半透明化したり、他オブジェクトにのぞき穴を開けるなどのオブジェクトモデルの変更などを行う。   When there is another object between the virtual stereo camera 10 and the controller object 12 and part or all of the controller object 12 is hidden behind the other object, the exposure processing unit 230 becomes invisible. Visualization is performed by image processing that makes it appear so that it can be seen. For example, the object model is changed such that another object hiding the controller object 12 is made translucent or a peephole is made in the other object.

また、同様に仮想ステレオカメラ10と被選択体24との間に他のオブジェクトがあって、被選択体24の一部又は全部が当該他オブジェクトの背後になって見えなくなる場合に、被選択体24が見えるように画像処理をして可視化する。   Similarly, when there is another object between the virtual stereo camera 10 and the selected object 24 and a part or all of the selected object 24 is not visible behind the other object, the selected object. The image is processed and visualized so that 24 can be seen.

また、同様に仮想ステレオカメラ10と左手オブジェクト14や右手オブジェクト16と言った指示オブジェクトの間に他のオブジェクトがあって、指示オブジェクトの一部又は全部が当該他オブジェクトの背後になって見えなくなる場合も指示オブジェクトが見えるように画像処理をして可視化する。   Similarly, when there is another object between the virtual stereo camera 10 and the pointing object such as the left hand object 14 or the right hand object 16, and part or all of the pointing object is behind the other object and cannot be seen. The image is processed and visualized so that the pointing object can be seen.

立体視画像生成制御部232は、HMD1310の位置や姿勢に応じて視界が変化する仮想空間の画像を生成するための制御を行う。具体的には、仮想ステレオカメラ10の左右のカメラで撮影した仮想空間の画像をレンダリングしてHMD1310の左眼用及び右眼用の画像とする。つまりゲーム画像(ゲーム画面)となる立体視画像を生成させる。立体視画像生成制御部232は、仮想空間画像生成手段の一例である。   The stereoscopic image generation control unit 232 performs control for generating an image of a virtual space in which the field of view changes according to the position and orientation of the HMD 1310. Specifically, images of the virtual space taken by the left and right cameras of the virtual stereo camera 10 are rendered into the left-eye and right-eye images of the HMD 1310. That is, a stereoscopic image to be a game image (game screen) is generated. The stereoscopic image generation control unit 232 is an example of a virtual space image generation unit.

コントローラ振動制御部234は、プレーヤ2がゲームコントローラ1200を把持していないときに、ゲームコントローラ1200を振動させる制御を行う。   The controller vibration control unit 234 performs control to vibrate the game controller 1200 when the player 2 is not holding the game controller 1200.

擬似サラウンド制御部236は、プレーヤ2がゲームコントローラ1200を把持していないときに、HMD1310から見たゲームコントローラ1200の方向から信号音が聞こえてくるようにステレオ音声を疑似的にサラウンド化する。本実施形態では、ヘッドホン1302にてプレーヤ2に音声を提供するので、公知の擬似サラウンド技術、バーチャルサラウンド技術を適宜利用することができる。   The pseudo surround control unit 236 artificially surrounds stereo sound so that a signal sound can be heard from the direction of the game controller 1200 viewed from the HMD 1310 when the player 2 is not holding the game controller 1200. In the present embodiment, since the sound is provided to the player 2 by the headphones 1302, the known pseudo surround technology and virtual surround technology can be appropriately used.

ジェスチャー入力判定部238は、操作指示物である左手または右手の仮想位置(左手位置Pl、右手位置Pr)と、仮想空間内のオブジェクトの配置位置とに基づいて、当該オブジェクトへの操作入力を判定する。
本実施形態では、仮想空間中の操作指示物の位置と、被選択体24の配置位置とに基づき、被選択体24の選択入力を判定することができる。具体的には、仮想空間における左手位置Pl’又は右手位置Pr’と、被選択体24の配置位置との関係が到達判定条件を満たす場合に、当該被選択体24に対応づけられる選択入力を確定判定する。同様に、ジェスチャー入力判定部238は、案内キャラクタ20に対するジェスチャー入力を判定することができる。
The gesture input determination unit 238 determines an operation input to the object based on the virtual position (left hand position Pl, right hand position Pr) of the left hand or the right hand, which is the operation instruction, and the arrangement position of the object in the virtual space. To do.
In the present embodiment, the selection input of the selected object 24 can be determined based on the position of the operation instruction object in the virtual space and the arrangement position of the selected object 24. Specifically, when the relationship between the left hand position Pl ′ or the right hand position Pr ′ in the virtual space and the arrangement position of the selected object 24 satisfies the arrival determination condition, a selection input associated with the selected object 24 is input. Judgment is made. Similarly, the gesture input determination unit 238 can determine a gesture input for the guide character 20.

対キャラクタジェスチャー入力無効化制御部240は、被選択体24が配置・表示されているときには仮想空間内に配置されているキャラクタ(例えば、図5の案内キャラクタ20)を対象とするジェスチャー入力(例えば、案内キャラクタ20をなでて機嫌をとるなどの操作入力)の判定を無効とし、被選択体24が配置・表示されていないときに有効とする。換言すると、被選択体24の他に仮想空間内に配置されたジェスチャー入力の対象を一時的に操作対象外として、優先されるべき被選択体24へのジェスチャー入力のみを許可し、それ以外のオブジェクトへの意図しない・望まれないジェスチャー入力を防止する。   When the selected object 24 is arranged and displayed, the character-to-character gesture input invalidation control unit 240 performs gesture input (for example, a guide character 20 in FIG. 5) as a target (for example, the guide character 20 in FIG. 5). The determination of an operation input such as stroking the guide character 20 is invalid, and is valid when the selected object 24 is not arranged or displayed. In other words, in addition to the selected object 24, the gesture input target arranged in the virtual space is temporarily excluded from the operation target, and only the gesture input to the selected target object 24 to be prioritized is permitted. Prevents unintended and undesired gesture input on objects.

音信号生成部290は、例えばデジタルシグナルプロセッサ(DSP)などのマイクロプロセッサやその制御プログラムなどの公知技術によって実現され、ゲーム演算部202による処理結果に基づいて効果音やBGM、各種操作音などを含むゲーム音の音信号を生成し音出力部390に出力する。   The sound signal generation unit 290 is realized by a known technique such as a microprocessor such as a digital signal processor (DSP) and its control program, and generates sound effects, BGM, various operation sounds, and the like based on the processing result by the game calculation unit 202. A sound signal including the game sound is generated and output to the sound output unit 390.

音出力部390は、音信号生成部290から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。本実施形態では、ヘッドセット1300に搭載されているヘッドホン1302がこれに該当する(図3参照)。   The sound output unit 390 is realized by a device that outputs sound effects, BGM, and the like based on the sound signal input from the sound signal generation unit 290. In the present embodiment, the headphones 1302 mounted on the headset 1300 correspond to this (see FIG. 3).

画像信号生成部292は、立体視画像生成制御部232で生成された画像データや、ゲームシステム1000の設定画面に係る画像データ等の画像信号を画像表示部392へ出力することができる。   The image signal generation unit 292 can output image signals such as image data generated by the stereoscopic image generation control unit 232 and image data related to the setting screen of the game system 1000 to the image display unit 392.

画像信号生成部392は、画像信号生成部292から入力される画像信号に基づいて各種画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクターといった画像表示装置によって実現できる。本実施形態ではタッチパネル1004(図1参照)や、HMD1310(図3参照)が該当する。   The image signal generation unit 392 displays various images based on the image signal input from the image signal generation unit 292. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), or a projector. In the present embodiment, the touch panel 1004 (see FIG. 1) and the HMD 1310 (see FIG. 3) are applicable.

通信制御部294は、データ通信に係るデータ処理を実行し、通信部394を介して外部装置とのデータのやりとりを実現する。   The communication control unit 294 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 394.

通信部394は、例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、通信網を介して外部のサーバシステム等と接続して通信を実現する。また、ゲームコントローラ1200等の無線接続機器との間の無線通信を実現する。   The communication unit 394 is realized by, for example, a wireless communication device, a modem, a TA (terminal adapter), a cable communication cable jack, a control circuit, and the like, and communicates with an external server system via a communication network. Realize. In addition, wireless communication with a wireless connection device such as the game controller 1200 is realized.

コントローラ発振部396は、ゲーム演算部202から出力される振動制御信号に従って、ゲームコントローラ1200を振動させる。本実施形態では、バイブレータ1206及びコントローラ基板1250がこれに該当する(図2参照)。   The controller oscillation unit 396 causes the game controller 1200 to vibrate according to the vibration control signal output from the game calculation unit 202. In the present embodiment, the vibrator 1206 and the controller board 1250 correspond to this (see FIG. 2).

記憶部500は、処理部200にゲームシステム1000を統合的に制御させるための諸機能を実現するためのプログラムや各種データ等を記憶する。また、処理部200の作業領域として用いられ、操作入力部100から入力されたデータを一時的に記憶したり、処理部200が実行した演算結果などを一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。本実施形態ではICメモリ1052がこれに該当する(図1参照)。   The storage unit 500 stores programs and various data for realizing various functions for causing the processing unit 200 to control the game system 1000 in an integrated manner. Further, it is used as a work area of the processing unit 200, temporarily stores data input from the operation input unit 100, and temporarily stores calculation results executed by the processing unit 200. This function is realized by, for example, an IC memory such as a RAM and a ROM, a magnetic disk such as a hard disk, and an optical disk such as a CD-ROM and DVD. In this embodiment, the IC memory 1052 corresponds to this (see FIG. 1).

図10は、本実施形態の記憶部500が記憶するプログラムやデータの例を示す図である。記憶部500は、システムプログラム501と、ゲーム演算プログラム502と、ゲーム初期設定データ510と、プレイデータ520とを記憶する。勿論、これら以外の情報も適宜記憶することができる。   FIG. 10 is a diagram illustrating an example of programs and data stored in the storage unit 500 according to the present embodiment. The storage unit 500 stores a system program 501, a game calculation program 502, game initial setting data 510, and play data 520. Of course, other information can be stored as appropriate.

システムプログラム501は、処理部200が読み出して実行することで、ゲームシステム1000にコンピュータとして必要な基本的な入出力機能を実現させる。
ゲーム演算プログラム502は、処理部200にゲーム演算部202としての機能を実現させるためのプログラムである。
The system program 501 is read and executed by the processing unit 200, thereby causing the game system 1000 to realize basic input / output functions necessary as a computer.
The game calculation program 502 is a program for causing the processing unit 200 to realize the function as the game calculation unit 202.

ゲーム初期設定データ510は、ゲーム空間や、ゲームルール、ゲームに登場する各種オブジェクトを定義する各種初期設定データが格納されている。   The game initial setting data 510 stores game space, game rules, and various initial setting data that define various objects appearing in the game.

プレイデータ520は、プレーヤ補助制御のためのデータや、ゲーム進行状況を記述する各種データを格納する。本実施形態では、実空間である測距空間における、HMD位置座標521(HMD1310の位置Ph)と、HMD姿勢データ522と、コントローラ位置座標523(ゲームコントローラ1200の位置Pc)と、左手位置座標525(左手位置Pl)と、右手位置座標526(右手位置Pr)とを含む。また、仮想空間制御データ630を含む。勿論、これら以外の情報も適宜含めることができる。   The play data 520 stores data for player auxiliary control and various data describing the game progress status. In the present embodiment, the HMD position coordinates 521 (the position Ph of the HMD 1310), the HMD attitude data 522, the controller position coordinates 523 (the position Pc of the game controller 1200), and the left-hand position coordinates 525 in the distance measurement space that is a real space. (Left hand position Pl) and right hand position coordinates 526 (right hand position Pr). Also, virtual space control data 630 is included. Of course, information other than these can be included as appropriate.

仮想空間制御データ630は、ゲーム空間を構成する仮想3次元空間(仮想空間)のデータであり、プレーヤ補助表示用のオブジェクトを配置管理するデータを含む。例えば、図11に示すように、仮想ステレオカメラ制御データ602と、コントローラオブジェクト制御データ604と、方向案内オブジェクト制御データ606と、左手オブジェクト制御データ608と、右手オブジェクト制御データ610と、案内キャラクタ制御データ612と、案内表示パネル制御データ614と、被選択体制御データ616と、を含む。勿論、これら以外の情報も適宜含めることができる。   The virtual space control data 630 is data of a virtual three-dimensional space (virtual space) constituting the game space, and includes data for managing the arrangement of the player auxiliary display objects. For example, as shown in FIG. 11, virtual stereo camera control data 602, controller object control data 604, direction guidance object control data 606, left hand object control data 608, right hand object control data 610, guidance character control data. 612, guidance display panel control data 614, and selected object control data 616. Of course, information other than these can be included as appropriate.

[動作の説明]
図12は、ゲームシステム1000における処理の流れを説明するためのフローチャートであって、ゲーム演算プログラム502を実行することにより実現される。
[Description of operation]
FIG. 12 is a flowchart for explaining the flow of processing in the game system 1000, and is realized by executing the game calculation program 502.

先ず、ゲームシステム1000のゲーム装置本体1002は、タッチパネル1004、測距センサユニット1100、ゲームコントローラ1200、ヘッドセット1300の各機器の機器認証を行う(ステップS2)。   First, the game apparatus main body 1002 of the game system 1000 performs device authentication of each device of the touch panel 1004, the distance measuring sensor unit 1100, the game controller 1200, and the headset 1300 (step S2).

機器認証が済む事で、測距センサユニット1100からはカラーイメージセンサ1104により随時所定周期で撮影された画像データと当該画像に基づく測距結果とがゲーム装置本体1002へ逐次入力される。また、ゲームコントローラ1200からは6軸センサ1208による検出結果が、ヘッドセット1300からはHMD1310の6軸センサ1308よる検出結果が、それぞれゲーム装置本体1002へ所定周期で入力される。   By completing the device authentication, the distance measurement sensor unit 1100 sequentially inputs image data photographed at a predetermined cycle by the color image sensor 1104 and a distance measurement result based on the image to the game apparatus main body 1002. Further, a detection result by the 6-axis sensor 1208 from the game controller 1200 and a detection result by the 6-axis sensor 1308 of the HMD 1310 are input from the headset 1300 to the game apparatus main body 1002 at a predetermined cycle.

次に、ゲーム装置本体1002は、測距センサユニット1100から入力された画像や測距結果に基づいて、HMD1310の位置Phと、ゲームコントローラ1200の位置Pcと、プレーヤ2の左手位置Pl及び右手位置Prとを所定周期で随時算出する処理を開始する(ステップS4)。つまり、これらの各要素の実空間内におけるトラッキングが開始される。   Next, the game apparatus main body 1002 determines the position Ph of the HMD 1310, the position Pc of the game controller 1200, the left hand position Pl and the right hand position of the player 2 based on the image and the distance measurement result input from the distance measurement sensor unit 1100. A process for calculating Pr at any time in a predetermined cycle is started (step S4). That is, tracking of each of these elements in the real space is started.

また、ゲームコントローラ1200がプレーヤ2の手に把持されているかを所定周期で随時判定する処理を開始し(ステップS6)、ジェスチャー入力の判定を開始する(ステップS8)。   Further, a process for determining at any time whether or not the game controller 1200 is held by the hand of the player 2 is started at a predetermined cycle (step S6), and determination of a gesture input is started (step S8).

次いで、ゲーム装置本体1002は、タッチパネル1004に起動画面を表示させ、ゲーム開始の操作入力を待機する。ゲームコントローラ1200から所定のゲーム開始操作が入力されると(ステップS10)、ゲーム装置本体1002は、プレーヤ2へ向けてヘッドセット1300を装着するように促す案内をタッチパネル1004にて表示させる(ステップS12)。そして、ゲームプレイの意志確認の受付を開始するとともに(ステップS14)、仮想ステレオカメラ10を仮想空間の初期位置に配置して仮想ステレオカメラ10で撮影した仮想空間の様子を元にした立体視画像をHMD1310にて表示させる制御を開始し(ステップS15)、プレーヤ補助処理を実行する(ステップS16)。   Next, the game apparatus body 1002 displays a startup screen on the touch panel 1004 and waits for an operation input for starting the game. When a predetermined game start operation is input from the game controller 1200 (step S10), the game apparatus main body 1002 displays guidance for prompting the player 2 to wear the headset 1300 on the touch panel 1004 (step S12). ). Then, the acceptance of confirmation of the intention to play the game is started (step S14), and the stereoscopic image based on the state of the virtual space photographed by the virtual stereo camera 10 with the virtual stereo camera 10 placed at the initial position of the virtual space. Is displayed on the HMD 1310 (step S15), and player assist processing is executed (step S16).

図13〜図14は、プレーヤ補助処理の流れを説明するためのフローチャートである。
図13に示すように、プレーヤ補助処理では、ゲーム装置本体1002はプ仮想空間制御データ630(図11参照)を生成し、HMD1310の実空間での位置・姿勢に連動するように仮想空間における仮想ステレオカメラ10の移動と姿勢の制御を開始する(ステップS50)。
13 to 14 are flowcharts for explaining the flow of the player auxiliary process.
As shown in FIG. 13, in the player assistance process, the game apparatus main body 1002 generates virtual space control data 630 (see FIG. 11), and the virtual space in the virtual space is linked to the position / posture of the HMD 1310 in the real space. Control of the movement and posture of the stereo camera 10 is started (step S50).

また、仮想空間内に左手オブジェクト14及び右手オブジェクト16(図5参照)を配置し、プレーヤ2の左手・右手それぞれの実空間での位置・姿勢に連動するように仮想空間でのそれらのオブジェクトの移動・姿勢制御を開始する(ステップS52)。   Further, a left hand object 14 and a right hand object 16 (see FIG. 5) are arranged in the virtual space, and the objects 2 in the virtual space are linked to the positions and postures of the left hand and right hand of the player 2 in the real space. The movement / posture control is started (step S52).

次に、ゲームコントローラ1200がプレーヤ2に把持されていない場合(ステップS60のNO)、ゲーム装置本体1002は、仮想空間内にコントローラオブジェクト12(図5参照)を配置し、ゲームコントローラ1200の実空間での位置・姿勢に連動するように当該オブジェクトの仮想空間での移動・姿勢制御を開始する(ステップS62)。   Next, when the game controller 1200 is not held by the player 2 (NO in step S60), the game apparatus main body 1002 places the controller object 12 (see FIG. 5) in the virtual space, and the real space of the game controller 1200. The movement / posture control of the object in the virtual space is started so as to be interlocked with the position / posture at (step S62).

そして、コントローラオブジェクト12の表示形態調整を開始する(ステップS64)。
具体的には、コントローラオブジェクト12と左手オブジェクト14との相対距離、及びコントローラオブジェクト12と右手オブジェクト16との相対距離をそれぞれ算出し、小さい方の相対距離に応じてコントローラオブジェクト12の表示形態(例えば、表示カラーの変更、明滅パターン、表示サイズの変更など)を設定・変更する。
Then, the display form adjustment of the controller object 12 is started (step S64).
Specifically, the relative distance between the controller object 12 and the left hand object 14 and the relative distance between the controller object 12 and the right hand object 16 are respectively calculated, and the display form of the controller object 12 (for example, according to the smaller relative distance) , Change display color, blink pattern, change display size, etc.).

次に、ゲームシステム1000のゲーム装置本体1002は、方向案内オブジェクト13の表示要否判定と、その判定結果に応じて当該オブジェクトの配置/配置解除を開始する(ステップS66)。   Next, the game apparatus body 1002 of the game system 1000 starts determining whether or not to display the direction guidance object 13 and starts arranging / releasing the object according to the determination result (step S66).

具体的には、コントローラオブジェクト12が仮想ステレオカメラ10の撮影範囲内に入っているかを判定する。そして、もし撮影範囲に入っていなければ、方向案内オブジェクト13を表示要と見なし、即座に当該撮影範囲内の所定領域にコントローラオブジェクト12を指し示す方向案内オブジェクト13を配置する。換言すれば、HMD1310の向き又は視界に応じて、方向案内オブジェクト13の配置位置と姿勢とを制御する。反対に撮影範囲に入っていなければ、方向案内オブジェクト13を表示不要と見なし、方向案内オブジェクト13は配置せず、配置済みであれば即座に配置を解除する。   Specifically, it is determined whether the controller object 12 is within the shooting range of the virtual stereo camera 10. If it is not within the shooting range, the direction guidance object 13 is regarded as requiring display, and the direction guidance object 13 pointing to the controller object 12 is immediately placed in a predetermined area within the shooting range. In other words, the arrangement position and orientation of the direction guide object 13 are controlled according to the direction or field of view of the HMD 1310. On the other hand, if it is not within the shooting range, the direction guidance object 13 is regarded as unnecessary to be displayed, and the direction guidance object 13 is not arranged.

また、これに伴って表示形態を、仮想ステレオカメラ10に最寄りの左手オブジェクト14又は右手オブジェクト16との距離に応じて逐次変更制御するものとする。例えば、表示色を変更したり、寸法比率(例えば、矢印の長さ)を変更するなどとしてもよい。矢印のみのデザインであれば、距離が遠いほど矢印の数を増やして、コントローラオブジェクト12の方向へ向けて直列に配置するとしてもよい。   Along with this, it is assumed that the display form is successively changed and controlled according to the distance from the left hand object 14 or the right hand object 16 nearest to the virtual stereo camera 10. For example, the display color may be changed, or the dimensional ratio (for example, the length of an arrow) may be changed. If the design includes only arrows, the number of arrows may be increased as the distance increases, and the arrows may be arranged in series toward the controller object 12.

次に、ゲーム装置本体1002は、ヘッドホン1302での信号音の擬似サラウンド出力を開始する(ステップS68)。
具体的には、HMD1310からゲームコントローラ1200への相対方向と相対距離を算出し、ヘッドホン1302にて相対方向から相対距離に応じてパターン変更される信号音が聞こえてくるように擬似サラウンド制御する。
Next, the game apparatus body 1002 starts pseudo-surround output of signal sound through the headphones 1302 (step S68).
Specifically, the relative direction and the relative distance from the HMD 1310 to the game controller 1200 are calculated, and pseudo surround control is performed so that a signal sound whose pattern is changed according to the relative distance from the relative direction is heard by the headphones 1302.

次いで、ゲーム装置本体1002は、ゲームコントローラ1200での振動制御を開始する(ステップS70)。振動パターンや振動強度は、コントローラオブジェクト12と左手オブジェクト14または右手オブジェクト16との相対距離に応じて設定・変更するとしてもよい。   Next, the game apparatus body 1002 starts vibration control by the game controller 1200 (step S70). The vibration pattern and the vibration intensity may be set / changed according to the relative distance between the controller object 12 and the left hand object 14 or the right hand object 16.

次に、案内表示が必要であるかを判定する。ステップS14にてゲームプレイの意志確認の操作入力の受付を開始しているので、ここでは案内表示が必要と判断される。
そして、案内表示が必要であれば(ステップS90のYES)、ゲーム装置本体1002は、仮想ステレオカメラ10の正面、具体的には仮想ステレオカメラ10からみた奥行方向において仮想ステレオカメラ10と仮想空間の座標原点との間に案内キャラクタ20及び案内表示パネル22を配置する(ステップS92:図5参照)。ちなみに、ステップS14にてゲームプレイの意志確認の操作入力の受付を開始しているので、案内表示パネル22には意志確認のための操作入力を促すテキストが表示される(図6参照)。
Next, it is determined whether guidance display is necessary. Since the acceptance of the operation input for confirming the intention to play the game is started in step S14, it is determined here that the guidance display is necessary.
If guidance display is necessary (YES in step S90), the game apparatus main body 1002 has a virtual stereo camera 10 and a virtual space in front of the virtual stereo camera 10, specifically in the depth direction viewed from the virtual stereo camera 10. A guide character 20 and a guide display panel 22 are arranged between the coordinate origin (step S92: see FIG. 5). Incidentally, since the acceptance of the operation input for confirming the game play is started in step S14, the guidance display panel 22 displays a text prompting the operation input for confirming the will (see FIG. 6).

更に、ゲーム装置本体1002は、案内キャラクタ20へのジェスチャー入力の判定を無効化する(ステップS94)。これにより、被選択体24へのジェスチャー入力のつもりが、意図しない案内キャラクタ20に対する操作入力と誤認されることがなくなる。   Furthermore, the game apparatus body 1002 invalidates the determination of the gesture input to the guide character 20 (step S94). Thereby, the intention of the gesture input to the selected object 24 is not mistaken for the operation input to the unintended guide character 20.

図14のフローチャートに移って、次に、ゲーム装置本体1002は選択操作の入力が必要であるかを判定する。ステップS14にてゲームプレイの意志確認の操作入力の受付を開始しているので、ここでは肯定判断される。
そして、肯定の場合(ステップS110のYES)、ゲーム装置本体1002は仮想空間内に、選択肢に対応付けられた被選択体24を配置する(ステップS112)。具体的には、本実施形態の被選択体24は“吹き出し”型をしているので、吹き出しの引き出し部の先端を案内キャラクタ20近傍に設定し、吹き出しの本体部分を、案内キャラクタ20の脇に位置するように設定する(図6参照)。
Moving to the flowchart of FIG. 14, the game apparatus body 1002 next determines whether or not an input of a selection operation is necessary. Since acceptance of an operation input for confirming the intention to play the game is started in step S14, an affirmative determination is made here.
If the result is affirmative (YES in step S110), the game apparatus main body 1002 places the selected object 24 associated with the option in the virtual space (step S112). Specifically, since the selected object 24 of this embodiment has a “balloon” shape, the tip of the balloon drawer is set near the guide character 20, and the main body of the balloon is placed beside the guide character 20. (Refer to FIG. 6).

次いで、ゲーム装置本体1002は、仮想ステレオカメラ10の位置や姿勢の変化に応じた被選択体24の移動制御と、正面方向ガイド部25の変形制御とを行う(ステップS114)。すなわち、被選択体24が立体視画像(ゲーム画面)の所定位置に固定的に表示されるように移動制御し、被選択体24の正面が常に仮想ステレオカメラ10に向くように制御する。また、正面方向ガイド部25が、案内キャラクタ20の脇から伸びて被選択体24に連結しているように変形制御する。   Next, the game apparatus main body 1002 performs movement control of the selected object 24 according to changes in the position and posture of the virtual stereo camera 10 and deformation control of the front direction guide unit 25 (step S114). That is, movement control is performed so that the selected object 24 is fixedly displayed at a predetermined position of the stereoscopic image (game screen), and control is performed so that the front surface of the selected object 24 always faces the virtual stereo camera 10. Further, deformation control is performed so that the front direction guide portion 25 extends from the side of the guide character 20 and is connected to the selection target 24.

なお、ステップS114は、仮想ステレオカメラ10の位置や姿勢の変化が所与の条件を満たす場合にはスキップするとしてもよい。例えば、仮想ステレオカメラ10の正面(HMD1310の正面方向)が、現実空間の前後方向(測距センサユニット1100の正面方向)から左右90°以上になった場合にスキップする、或いは制御を直前の状態で保持するとしてもよい。   Note that step S114 may be skipped when a change in the position or orientation of the virtual stereo camera 10 satisfies a given condition. For example, when the front of the virtual stereo camera 10 (the front direction of the HMD 1310) is 90 ° or more left and right from the front-rear direction of the real space (the front direction of the distance measuring sensor unit 1100), it is skipped or the control is performed immediately before It may be held by.

そして、その被選択体24毎に、最寄りの左手オブジェクト14または右手オブジェクト16との相対距離に応じた表示形態の自動調整を開始する(ステップS116)。
具体的には、被選択体24と、左手オブジェクト14または右手オブジェクト16との相対距離が、当該被選択体24を選択した(到達した)とみなす所定の近接条件を満たさなければ、標準の表示形態とし、近接条件を満たした場合に選択されたことを通知するための特別な表示形態とする。
Then, for each selected object 24, automatic adjustment of the display form according to the relative distance from the nearest left hand object 14 or right hand object 16 is started (step S116).
Specifically, if the relative distance between the selected object 24 and the left-hand object 14 or the right-hand object 16 does not satisfy a predetermined proximity condition that the selected object 24 is selected (reached), the standard display Form, and a special display form for notifying selection when the proximity condition is satisfied.

次に、ゲーム装置本体1002は、コントローラオブジェクト12の一部又は全体を仮想ステレオカメラ10から見て隠している他オブジェクトを検出し、該当する他オブジェクトが有る場合に背後に隠されるコントローラオブジェクト12を表出させて可視化する画像処理(表出処理)を開始する(ステップS118)。
具体的には、他オブジェクトの一部又は全体を半透明化表示したり、或いは、他オブジェクトのモデルの一部を非表示にしたり変形させて背後に隠れているコントローラオブジェクト12を表出させる。
Next, the game apparatus main body 1002 detects another object that hides a part or the whole of the controller object 12 from the virtual stereo camera 10, and if there is a corresponding other object, the controller device 12 is hidden behind the controller object 12. Image processing (display processing) to be visualized is started (step S118).
Specifically, a part or the whole of the other object is displayed in a semi-transparent manner, or a part of the model of the other object is hidden or deformed to display the controller object 12 hidden behind.

また、ゲーム装置本体1002は、被選択体24の一部又は全体を仮想ステレオカメラ10から見て隠している他オブジェクトを検出し、該当する他オブジェクトが有る場合に背後に隠される被選択体24を表出させて可視化する画像処理(表出処理)を開始する(ステップS120)。
更に同様にして、左手オブジェクト14及び右手オブジェクト16についても、これらの一部又は全体を仮想ステレオカメラ10から見て隠している他オブジェクトを検出し、該当する他オブジェクトが有る場合に背後に隠される左手オブジェクト14及び右手オブジェクト16を表出させて可視化する画像処理(表出処理)を開始する(ステップS122)。
In addition, the game apparatus main body 1002 detects another object that hides a part or the whole of the selected object 24 when viewed from the virtual stereo camera 10, and the selected object 24 that is hidden behind when there is a corresponding other object. The image processing (expressing process) for displaying and visualizing is started (step S120).
In the same manner, the left hand object 14 and the right hand object 16 are also hidden behind the other object that is detected when other objects that are partially or entirely hidden from the virtual stereo camera 10 are detected. Image processing (display processing) for displaying the left hand object 14 and the right hand object 16 for visualization is started (step S122).

ここで、プレーヤ2の視界には図6(1)〜図8(1)で示したようなゲーム画像が見えることになる。
次いで、ジェスチャー入力による選択入力を判定する(ステップS170)。本実施形態では左手オブジェクト14又は右手オブジェクト16が、何れかの被選択体24に到達するとジェスチャーにより選択入力されたと判定する。もし、選択入力がYES/NOのように2択であれば、HMD1310の視界の左右方向にそれぞれYES,NO(或いは選択肢)を割り当てておいて、左手オブジェクト14又は右手オブジェクト16によって、視界の左右何れの領域で所定のモーション(例えば、手を前に突き出す、手を振るなど)がなされたか、或いは、じゃんけんのチョキのように手を所定の形態にしたか、などを判定するとしてもよい。
Here, the game images as shown in FIGS. 6A to 8A can be seen in the field of view of the player 2.
Next, selection input by gesture input is determined (step S170). In the present embodiment, when the left hand object 14 or the right hand object 16 reaches one of the selected bodies 24, it is determined that the input is made by a gesture. If the selection input is two choices such as YES / NO, YES and NO (or options) are assigned to the left and right directions of the field of view of the HMD 1310, respectively, and the left and right fields of view are changed by the left hand object 14 or the right hand object 16. It may be determined in which area a predetermined motion (for example, a hand is pushed forward, a hand is shaken), or a hand is in a predetermined form like a bark.

そして、もし選択入力されたと判定されたならば(ステップS170のYES)、ゲーム装置本体1002は該当する被選択体24に対応する選択肢の入力を確定する(ステップS172)。また、この際、該当する被選択体24の表示形態を所定形態に変更してプレーヤ2に選択肢の入力確定を通知する。   If it is determined that the selection has been input (YES in step S170), the game apparatus body 1002 determines the input of the option corresponding to the corresponding selection target 24 (step S172). Further, at this time, the display form of the corresponding selected object 24 is changed to a predetermined form, and the player 2 is notified of the choice input.

そして、被選択体24の表示を解除して、案内キャラクタ20へのジェスチャー入力の判定を有効化する(ステップS174)。なお、被選択体24が複数有る場合には、ステップS170で到達判定された被選択体24を最後に画面から消すようにすると、プレーヤがどの被選択体24を選択したかを明示する効果が生まれて好適である。また、被選択体24が1つの場合(例えば確認ボタンとしての被選択体24)でも同様にステップS172〜S174を実行することができる。   And the display of the to-be-selected body 24 is cancelled | released, and the determination of the gesture input to the guidance character 20 is validated (step S174). If there are a plurality of selected objects 24, the selected object 24 determined to be reached in step S170 is erased from the screen at the end, and the effect of clearly indicating which selected object 24 the player has selected is obtained. Born and suitable. Further, even when there is one selected object 24 (for example, the selected object 24 as a confirmation button), steps S172 to S174 can be executed similarly.

次に、プレーヤ補助処理を開始してからゲームコントローラ1200がプレーヤ2により把持されていることが検知されたならば(ステップS180のYES)、ゲーム装置本体1002はゲームコントローラ1200での振動発生と、ヘッドホン1302での擬似サラウンド出力とを終了し(ステップS182)、プレーヤ補助処理を終了する。   Next, if it is detected that the game controller 1200 is gripped by the player 2 after starting the player assisting process (YES in step S180), the game apparatus body 1002 generates vibrations in the game controller 1200, The pseudo surround output from the headphones 1302 is terminated (step S182), and the player auxiliary process is terminated.

図12に戻って、ステップS16を終了した状態で、プレーヤ2はヘッドセット1300を頭部に装着し、手にはゲームコントローラ1200を把持した状態になっている。つまり、ゲームプレイのための準備が整っている。
よって、ゲーム装置本体1002は、次にゲームプレイの制御を開始して、HMD1310にてゲーム画面を表示させる制御と、ヘッドホン1302にてゲーム音を放音させる制御とを開始させる(ステップS200)。
Returning to FIG. 12, in a state where step S16 is completed, the player 2 wears the headset 1300 on the head and holds the game controller 1200 in the hand. In other words, it is ready for game play.
Therefore, the game apparatus main body 1002 starts control of game play next, and starts control for displaying the game screen on the HMD 1310 and control for emitting the game sound with the headphones 1302 (step S200).

ゲーム装置本体1002は、ゲームプレイ中も周期的にプレーヤ補助発動条件が満たされているか判定する。プレーヤ補助発動条件は、ゲーム内容に応じて適宜設定可能であるが、本実施形態ではゲームコントローラ1200が把持されていない場合、キーボードなどのゲームコントローラ1200以外の機器による操作入力が行われた場合、プレーヤ2の手によるジェスチャー入力が必要とされる場合、などの単独又は組合せにより設定される。   The game apparatus body 1002 periodically determines whether or not the player auxiliary activation condition is satisfied even during game play. The player auxiliary activation condition can be set as appropriate according to the content of the game. However, in the present embodiment, when the game controller 1200 is not held, when an operation input is performed by a device other than the game controller 1200 such as a keyboard, When gesture input by the hand of the player 2 is required, it is set by a single or a combination.

そして、プレーヤ補助発動条件が満たされているならば(ステップS202のYES)、プレーヤ補助処理を再度実行する(ステップS204)。   If the player assistance trigger condition is satisfied (YES in step S202), the player assistance process is executed again (step S204).

プレーヤ補助発動条件を満たさず、或いは、プレーヤ補助処理の後、ゲーム進行状況が所定のゲーム終了条件を満たすまで、プレーヤ補助発動条件を満たせばプレーヤ補助処理を実行し、ゲーム終了条件を満たすと(ステップS210のYES)、ゲーム装置本体1002は一連の処理を終了する。   If the player auxiliary activation condition is satisfied until the player auxiliary activation condition is satisfied, or if the player auxiliary activation condition is satisfied until the game progress condition satisfies a predetermined game completion condition after the player auxiliary processing is not satisfied, In step S210, YES), the game apparatus body 1002 ends the series of processes.

以上、本実施形態によれば、第1にゲーム装置等でHMDを使用する際の不便を改善し、ユーザビリティを向上することができる。
すなわち、プレーヤ2がゲームコントローラ1200を把持していない状態が検知されると、HMD1310にはヘッドトラッキングされたプレーヤの視点位置から見た仮想空間の立体視画像がゲーム画像として写し出される。そして、その立体視画像では、ユーザ視点から見たゲームコントローラ1200の位置にコントローラオブジェクト12が表示されるとともに、モーショントレースされるプレーヤの左手オブジェクト14及び右手オブジェクト16が表示される。よって、プレーヤはHMDを被って外界の様子が見えない状態であっても、立体視画像の仮想空間がいわば仮想現実空間となるため、ゲームコントローラ1200の有る場所に手をのばし容易に手に取ることができる。手探りでコントローラを探すような不便さが解消される。
As described above, according to the present embodiment, first, inconvenience when using the HMD with a game device or the like can be improved, and usability can be improved.
That is, when it is detected that the player 2 is not holding the game controller 1200, a stereoscopic image of the virtual space viewed from the viewpoint position of the player that has been head-tracked is displayed on the HMD 1310 as a game image. In the stereoscopic image, the controller object 12 is displayed at the position of the game controller 1200 viewed from the user's viewpoint, and the left hand object 14 and the right hand object 16 of the player to be motion-traced are displayed. Therefore, even if the player wears the HMD and cannot see the appearance of the outside world, the virtual space of the stereoscopic image becomes a virtual reality space, so that the player can easily reach out to the place where the game controller 1200 is located. be able to. The inconvenience of searching for a controller by groping is eliminated.

また、ゲームコントローラ1200がHMD1310の視界外にある場合には、方向案内オブジェクト13がどちらに首を回せばゲームコントローラ1200が見えるようになるか示すので、これを頼りにすればゲームコントローラ1200が何処にあっても容易に手に取ることができる。しかも、コントローラオブジェクト12が他オブジェクトの背後に隠れるような場合でも、自動的に他オブジェクトを半透明化したり切抜きするなど表出処理が行われコントローラオブジェクト12がプレーヤから見えるようになるので、すぐに見つけることができる。   Further, when the game controller 1200 is outside the field of view of the HMD 1310, the direction guide object 13 indicates which direction the game controller 1200 can be seen by turning the neck. Can be easily picked up. Moreover, even when the controller object 12 is hidden behind another object, the other object is automatically rendered semi-transparent or cut out, and the controller object 12 becomes visible to the player. Can be found.

また、本実施形態によれば、第2にHMDを使用してジェスチャー入力を実現する際のユーザビリティを向上させることができる。
すなわち、ヘッドトラッキングされたHMD1310に表示される立体視画像には、ジェスチャー入力する内容が割り当てられた被選択体24が、プレーヤが頭の向きを変えても同じ又は略同じ位置に残存表示される。ジェスチャー入力に慣れないと、どのようにジェスチャーすればその場で望まれている入力ができるか分かり難いものであるが、ユーザは被選択体をジェスチャー操作の案内として利用できるので、スムーズにその時要求されるジェスチャー入力ができるようになる。
Moreover, according to this embodiment, the usability at the time of implement | achieving gesture input using 2nd HMD can be improved 2ndly.
That is, in the stereoscopic image displayed on the head-tracked HMD 1310, the selected object 24 to which the content of gesture input is assigned remains displayed at the same or substantially the same position even if the player changes the head direction. . If you are not familiar with gesture input, it is difficult to understand how you can make the desired input on the spot, but the user can use the selected object as a guide for gesture operation, so it will be requested smoothly at that time Gesture input will be possible.

また、左手オブジェクト14や右手オブジェクト16が被選択体24に到達するとジェスチャー入力が確定される。よって、左手オブジェクト14や右手オブジェクト16と、被選択体24との位置関係から、誰でも容易にその時要求されるジェスチャー入力ができるようになる。   Further, when the left hand object 14 or the right hand object 16 reaches the selected body 24, the gesture input is confirmed. Therefore, from the positional relationship between the left hand object 14 or the right hand object 16 and the selected body 24, anyone can easily perform the gesture input required at that time.

しかも、被選択体24が他オブジェクトの背後に隠れるような場合でも、自動的に他オブジェクトを半透明化したり切り抜きするなどの表出処理が行われて、被選択体24がプレーヤから見えるようになるので、すぐに見つけることができる。
また、仮想空間内に被選択体以外にもジェスチャー入力の対象が存在する場合に、被選択体以外へのジェスチャー入力を無効化することで、被選択体への入力を優先させるとともに意図しない入力を防止することができる。
In addition, even when the selected object 24 is hidden behind the other object, the other object is automatically rendered translucent or cut out so that the selected object 24 can be seen by the player. So you can find it right away.
In addition, when there is a gesture input target other than the selected object in the virtual space, the input to the selected object is given priority and unintended input by invalidating the gesture input to other than the selected object. Can be prevented.

〔変形例〕
なお、本発明の実施形態は上記に限らず、適宜構成要素の追加・省略・変更が可能である。
[Modification]
Note that the embodiment of the present invention is not limited to the above, and it is possible to add, omit, and change components as appropriate.

[その1]
例えば、上記実施形態では、HMDを装着すると中からは外を見る事ができない非透過型HMDとして説明したが、ゲームの内容によって必ずしも非透過型HMDである必要は無い。例えば、半透過型のHMDに対しても本発明は適用可能であり上記実施形態と同様の効果を得ることができる。
[Part 1]
For example, in the above-described embodiment, the non-transparent HMD that cannot be seen from the inside when the HMD is mounted has been described. However, the non-transparent HMD is not necessarily required depending on the content of the game. For example, the present invention can be applied to a transflective HMD, and the same effects as those of the above embodiment can be obtained.

[その2]
また、ヘッドセット1300それ自体が、例えば、姿勢検出可能なセンサを搭載したメガネ型やゴーグル型のウェアラブルコンピュータであって、ゲーム装置本体1002を兼ねる構成としてもよい。更に言えば、上記実施形態のゲームシステム1000は、HMDを備えるコンピュータであれば家庭用据置型を想定したゲーム装置に限らず、遊園地や博物館などの施設に設置されるHMDを用いたアトラクション装置、HMDを装着して行う航空機やヘリコプターなどの操縦シミュレーション装置、HMDを装着してスタジオ内で実物のゴルフクラブでスイングするなどしてスポーツを仮想体験するスポーツシミュレーション装置など、その他の形態の装置でもよい。
[Part 2]
Further, the headset 1300 itself may be, for example, a glasses-type or goggles-type wearable computer equipped with a sensor capable of detecting a posture, and may also serve as the game apparatus main body 1002. Furthermore, if the game system 1000 of the said embodiment is a computer provided with HMD, it will not be a game device assumed to be a home stationary type, but an attraction device using an HMD installed in a facility such as an amusement park or a museum. Other types of devices, such as aircraft and helicopter operation simulation devices that are equipped with HMDs, and sports simulation devices that are equipped with HMDs to swing sports with real golf clubs in the studio. Good.

[その3]
また、上記実施形態ではスタンドアローンのゲームシステム1000を例示したが、図15に示すように、クライアント・サーバ型のゲームシステム1000で実現するとしてもよい。この場合、上記実施形態におけるゲーム演算部202(図9参照)は、通信回線9を介して接続されるサーバシステム1900にて実現され、当該構成におけるゲーム装置本体1002は、所定のクライアントプログラムを実行することで、操作入力部100からの入力信号をサーバシステム1900へ逐次送信する機能と、サーバシステム1900から受信したデータに基づいて画像をHMD1310にて表示させる機能及びヘッドホン1302にて音出力させる機能とを実現する。つまり、ユーザ端末としての制御機能を担うようになる。
[Part 3]
In the above embodiment, the stand-alone game system 1000 is exemplified, but as shown in FIG. 15, it may be realized by a client-server game system 1000. In this case, the game calculation unit 202 (see FIG. 9) in the above embodiment is realized by a server system 1900 connected via the communication line 9, and the game apparatus body 1002 in the configuration executes a predetermined client program. By doing so, a function of sequentially transmitting an input signal from the operation input unit 100 to the server system 1900, a function of displaying an image on the HMD 1310 based on data received from the server system 1900, and a function of outputting sound through the headphones 1302 And realize. That is, it comes to have a control function as a user terminal.

[その4]
また、上記実施形態では、HMD1310の姿勢を検知する方法は、測距センサユニット1100で撮影した画像と、HMD1310の6軸センサ1308の検出結果を用いる構成としたがこれに限らない。
例えば、図15に示すように、HMD1310に前方の外界を撮影するために赤外線撮影可能なイメージセンサ1320を姿勢検知用センサとして追加し、測距センサユニット1100では赤外線照射器1102を所定の配置関係で複数配置する。そして、コントローラ位置姿勢算出部212を、コントローラ捕捉検出手段とする。具体的には、赤外線照射器1102を実空間中の所定位置に設置される固定マーカと見なして、測距センサユニット1100による撮影画像中にこの赤外線照射器1102が写っていればゲームコントローラ1200が写っていると判定し、当該撮影画像から赤外線照射器1102の撮像位置(距離を含む)を求め、各赤外線照射器1102の位置関係の回転や変形、各赤外線照射器1102間の距離、写っている赤外線照射器1102の大きさなどから、イメージセンサ1320の位置を基準としたHMD1310の位置Phおよび姿勢を幾何的に逆算して求める。そして、プレーヤ補助制御部220のコントローラオブジェクト制御部222が、コントローラ捕捉検出部208の検出結果に応じてコントローラオブジェクト12を仮想空間に配置して所定の報知制御を行うようにすればよい。つまり、コントローラオブジェクト制御部222を捕捉時報知制御部として機能させればよい。報知の方法は、表示・音出力・振動など、適宜の方法で実現できる。
[Part 4]
In the above embodiment, the method of detecting the attitude of the HMD 1310 is configured to use an image captured by the distance measuring sensor unit 1100 and a detection result of the 6-axis sensor 1308 of the HMD 1310, but is not limited thereto.
For example, as shown in FIG. 15, an image sensor 1320 capable of infrared imaging is added to the HMD 1310 as an attitude detection sensor in order to capture the front outside world, and the ranging sensor unit 1100 has an infrared illuminator 1102 in a predetermined arrangement relationship. Place multiple. The controller position / orientation calculation unit 212 is used as a controller capture detection unit. Specifically, if the infrared illuminator 1102 is regarded as a fixed marker installed at a predetermined position in the real space, and the infrared illuminator 1102 is reflected in an image captured by the distance measuring sensor unit 1100, the game controller 1200 is displayed. It is determined that the image is captured, the imaging position (including the distance) of the infrared irradiator 1102 is obtained from the captured image, the positional relationship between each infrared irradiator 1102 is rotated or deformed, and the distance between the infrared irradiators 1102 is reflected. The position Ph and the posture of the HMD 1310 with respect to the position of the image sensor 1320 are calculated geometrically from the size of the infrared irradiator 1102 that is present. Then, the controller object control unit 222 of the player auxiliary control unit 220 may perform predetermined notification control by placing the controller object 12 in the virtual space according to the detection result of the controller capture detection unit 208. That is, the controller object control unit 222 may function as a capture notification control unit. The notification method can be realized by an appropriate method such as display / sound output / vibration.

[その5]
また、上記実施形態では、ゲームコントローラ1200の位置Pcは、測距空間の座標系(図4参照)における位置座標で記述したが、これに限らない。
例えば、ゲームコントローラ1200の位置Pcを認識空間におけるHMD1310の位置PhとHMD1310の姿勢(換言すれば、HMD1310を被ったプレーヤ2の視点と視線方向と)に基づく相対位置で記述する構成とすることも可能であり、上記実施形態の記述を適宜そのように読み替えることができる。
[Part 5]
Moreover, in the said embodiment, although the position Pc of the game controller 1200 was described by the position coordinate in the coordinate system (refer FIG. 4) of a ranging space, it is not restricted to this.
For example, the position Pc of the game controller 1200 may be described as a relative position based on the position Ph of the HMD 1310 in the recognition space and the attitude of the HMD 1310 (in other words, the viewpoint of the player 2 wearing the HMD 1310 and the line-of-sight direction). It is possible, and the description of the above embodiment can be appropriately read as such.

[その6]
また、上記実施形態では、被選択体24をHMD1310の視界内所定領域にて仮想ステレオカメラ10に対向するように配置し、HMD1310の位置や姿勢に応じて移動制御や姿勢制御を行うこととしたが、当該移動制御や姿勢制御を省略して、案内表示パネル22と同様に、HMD1310の位置や姿勢が変化しても、仮想空間の所定位置に所定姿勢で配置することとしてもよい。上記実施形態では、FPS(ファーストパーソンシューティング)のように、ヘッドトラッキングが激しく、ともすれば被選択体24を見失いそうになるゲーム内容に好適であるが、逆に、例えばアドベンチャーゲームで秘密の部屋の鍵を解錠するための番号や操作を入力するといった内容を含むゲームでは、被選択体24が仮想空間の所定位置に動かずに固定配置され、HMD1310が当該所定位置の方向を向いたときにのみその視界内に現れるほうが好適である。
[Part 6]
Moreover, in the said embodiment, the to-be-selected body 24 is arrange | positioned so that it may oppose the virtual stereo camera 10 in the predetermined area | region in the visual field of HMD1310, and we decided to perform movement control and attitude | position control according to the position and attitude | position of HMD1310. However, the movement control and the posture control may be omitted, and similarly to the guidance display panel 22, even if the position and posture of the HMD 1310 change, it may be arranged in a predetermined posture in the virtual space. In the above-described embodiment, the head tracking is intense, such as FPS (First Person Shooting), which is suitable for a game content that is likely to lose sight of the selected object 24, but conversely, for example, a secret room in an adventure game. In a game including contents such as inputting a number and an operation for unlocking the key, the selected object 24 is fixedly arranged without moving to a predetermined position in the virtual space, and the HMD 1310 faces the direction of the predetermined position. It is preferable that only appear in the field of view.

勿論、何れかの方式を選択しなければならいものではなく、両方の方式を採用してもよい。その場合、記憶部500(図9参照)に選択入力イベントを定義するデータを記憶させ、当該データにて被選択体24毎に選択入力内容とともに配置位置を固定するか否かを示す情報を対応づけておき、被選択体制御部228(図9参照)がこれに従って被選択体24の配置や姿勢(向き)を制御すれば良い。   Of course, it is not necessary to select either method, and both methods may be adopted. In that case, data defining a selection input event is stored in the storage unit 500 (see FIG. 9), and information indicating whether or not the arrangement position is fixed together with the selection input contents for each selected object 24 corresponds to the data. In addition, the selected object control unit 228 (see FIG. 9) may control the arrangement and posture (orientation) of the selected object 24 according to this.

[その7]
また、上記実施形態では、ジェスチャー入力に係る操作指示物としてプレーヤ2の手を用いる構成としたが、ゲーム内容によっては何らかのポインティングデバイスを用いるとしてもよい。ポインティングデバイスは、公知の銃型コントローラ(いわゆる「ガンコン」)や、公知のスティック型モーションコントローラなどを用いるとしてもよい。この場合、銃型コントローラやスティック型モーションコントローラの先端には、発光マーカ1312(図3参照)に相当するマーカを設け、これを測距センサユニット1100で撮影することで、先端位置を検出し、搭載される6軸センサで姿勢変化を検出する構成とすると好適である。勿論、その場合、ポインティングデバイスはゲームコントローラ1200を兼ねても良い。
[Part 7]
In the above embodiment, the player 2's hand is used as the operation instruction for the gesture input, but some pointing device may be used depending on the game content. As the pointing device, a known gun-type controller (so-called “Gankon”), a known stick-type motion controller, or the like may be used. In this case, a marker corresponding to the light emitting marker 1312 (see FIG. 3) is provided at the tip of the gun-type controller or stick-type motion controller, and the tip position is detected by photographing this with the distance measuring sensor unit 1100. It is preferable that the mounted 6-axis sensor detects the posture change. Of course, in that case, the pointing device may also serve as the game controller 1200.

[その8]
また、上記実施形態では、HMD1310に表示する画像を立体視画像として説明したが、平面視画像としてもよい。その場合、仮想ステレオカメラ10の左右の仮想カメラの中間位置に1台の仮想カメラを配置して、仮想ステレオカメラ10の代わりに利用してもよいし、左右の仮想カメラの何れか一方を利用してもよい。
[Part 8]
Moreover, although the image displayed on HMD1310 was demonstrated as a stereoscopic vision image in the said embodiment, it is good also as a planar vision image. In that case, one virtual camera may be arranged at an intermediate position between the left and right virtual cameras of the virtual stereo camera 10 and used instead of the virtual stereo camera 10, or one of the left and right virtual cameras is used. May be.

[その9]
また、上記実施形態では、仮想空間の座標系(図5参照)の座標原点を測距空間(実空間)の座標系(図4参照)の座標原点としたがこれに限らない。
例えば、図16に示すように、ゲーム演算部202に、現実空間に対応するように仮想空間の座標系を初期設定する座標系初期設定部204を設けるとしてもよい。そして、座標系初期設定部204は、トラッキング開始時点の測距センサユニット1100による測距結果に基づくHMD1310の位置Phを仮想空間の座標原点とし、トラッキング開始時点のHMD1310の姿勢に座標軸を合わせ、実空間の座標系と仮想空間の座標系とを同タイミングでマッチングしてイニシャライズする。
[Part 9]
In the above embodiment, the coordinate origin of the coordinate system (see FIG. 5) of the virtual space is the coordinate origin of the coordinate system (see FIG. 4) of the ranging space (real space), but the present invention is not limited to this.
For example, as shown in FIG. 16, the game calculation unit 202 may be provided with a coordinate system initial setting unit 204 that initially sets the coordinate system of the virtual space so as to correspond to the real space. The coordinate system initial setting unit 204 sets the position Ph of the HMD 1310 based on the distance measurement result by the distance measurement sensor unit 1100 at the tracking start time as the coordinate origin of the virtual space, aligns the coordinate axis with the attitude of the HMD 1310 at the tracking start time, The space coordinate system and the virtual space coordinate system are matched and initialized at the same timing.

或いは、図17に示すように、トラッキング開始時点の測距センサユニット1100による測距結果に基づく左手位置Pl及び右手位置Prの中間点を仮想空間の座標原点VOとし、トラッキング開始時点のHMD1310の姿勢に座標軸を合わせるとしてもよい。
座標系の定義において、実空間と仮想空間とで前後および左右が反転する場合には、測距結果を仮想空間中のオブジェクトに反映させるときに(例えば、左手位置Plに基づいて、左手オブジェクト14をモーショントレースさせる場合など)には適宜座標変換するものとする。
Alternatively, as shown in FIG. 17, the intermediate point between the left hand position Pl and the right hand position Pr based on the distance measurement result by the distance measurement sensor unit 1100 at the time of tracking start is set as the coordinate origin VO of the virtual space, and the attitude of the HMD 1310 at the time of tracking start. The coordinate axis may be aligned with.
In the definition of the coordinate system, when the front and rear and the left and right are reversed in the real space and the virtual space, when the distance measurement result is reflected on the object in the virtual space (for example, based on the left hand position Pl, the left hand object 14 When performing a motion trace, etc.), coordinate conversion should be performed as appropriate.

[その10]
また、上記実施形態では、トラッキングやモーショントレースのスケールを、実空間中のHMD1310の位置Phと、操作指示物(左手位置Plや右手位置Pr)との相対位置関係に基づいて補正する機能を追加してもよい。
具体的には、図16に示すように、仮想位置補正部206を設ける。この仮想位置補正部206は、HMD1310の向きを基準にした相対位置関係が所定の補正条件を満たした場合に、当該補正条件に対応付けられた補正演算に従って仮想位置を補正する。
より具体的には、補正条件としては、測距センサユニット1100の正面方向(実空間の前後方向)に対して、HMD1310の正面が左90°以上、または右90°以上の場合に、左90°以上ならば左手位置Plのモーショントレースのスケールを所定倍率だけ上げる、右90°以上ならば右手位置Prのモーショントレースのスケールを所定倍率だけ上げるとしてもよい。
[Part 10]
In the above embodiment, a function for correcting the scale of tracking or motion trace based on the relative positional relationship between the position Ph of the HMD 1310 in the real space and the operation instruction (left hand position Pl or right hand position Pr) is added. May be.
Specifically, as shown in FIG. 16, a virtual position correction unit 206 is provided. When the relative positional relationship based on the orientation of the HMD 1310 satisfies a predetermined correction condition, the virtual position correction unit 206 corrects the virtual position according to a correction calculation associated with the correction condition.
More specifically, as a correction condition, when the front surface of the HMD 1310 is 90 ° to the left or 90 ° to the right with respect to the front direction of the distance measuring sensor unit 1100 (the front-rear direction of the real space), the left 90 If it is more than 0 °, the scale of the motion trace at the left hand position Pl may be increased by a predetermined magnification, and if it is 90 ° or more at the right, the scale of the motion trace at the right hand position Pr may be increased by a predetermined magnification.

2…プレーヤ
10…仮想ステレオカメラ
12…コントローラオブジェクト
13…方向案内オブジェクト
14…左手オブジェクト
16…右手オブジェクト
20…案内キャラクタ
22…案内表示パネル
24…被選択体
25…正面方向ガイド部
100…操作入力部
102…頭部姿勢変化検出部
104…測距部
200…処理部
202…ゲーム演算部
210…HMD位置姿勢算出部
212…コントローラ位置姿勢算出部
214…手位置算出部
216…コントローラ把持判定部
220…プレーヤ補助制御部
221…仮想ステレオカメラ制御部
222…コントローラオブジェクト制御部
224…方向案内オブジェクト制御部
226…手オブジェクト制御部
228…被選択体制御部
230…表出処理部
232…立体視画像生成制御部
234…コントローラ振動制御部
236…擬似サラウンド制御部
238…ジェスチャー入力判定部
240…対キャラクタジェスチャー入力無効化制御部
396…コントローラ発振部
500…記憶部
502…ゲーム演算プログラム
510…ゲーム初期設定データ
520…プレイデータ
521…HMD位置座標
522…HMD姿勢データ
523…コントローラ位置座標
525…左手位置座標
526…右手位置座標
602…仮想ステレオカメラ制御データ
604…コントローラオブジェクト制御データ
606…方向案内オブジェクト制御データ
608…左手オブジェクト制御データ
610…右手オブジェクト制御データ
612…案内キャラクタ制御データ
614…案内表示パネル制御データ
616…被選択体制御データ
630…仮想空間制御データ
1000…ゲームシステム
1002…ゲーム装置本体
1050…制御基板
1100…測距センサユニット
1104…カラーイメージセンサ
1200…ゲームコントローラ
1206…バイブレータ
1208…6軸センサ
1250…コントローラ基板
1300…ヘッドセット
1302…ヘッドホン
1308…6軸センサ
1310…HMD
1312…発光マーカ
1320…イメージセンサ
Ph…HMDの位置
Pc…ゲームコントローラの位置
Pl…左手位置
Pr…右手位置
DESCRIPTION OF SYMBOLS 2 ... Player 10 ... Virtual stereo camera 12 ... Controller object 13 ... Direction guide object 14 ... Left hand object 16 ... Right hand object 20 ... Guide character 22 ... Guide display panel 24 ... Selected object 25 ... Front direction guide part 100 ... Operation input part DESCRIPTION OF SYMBOLS 102 ... Head posture change detection part 104 ... Distance measuring part 200 ... Processing part 202 ... Game operation part 210 ... HMD position / orientation calculation part 212 ... Controller position / orientation calculation part 214 ... Hand position calculation part 216 ... Controller gripping determination part 220 ... Player auxiliary control unit 221 ... Virtual stereo camera control unit 222 ... Controller object control unit 224 ... Direction guidance object control unit 226 ... Hand object control unit 228 ... Selected object control unit 230 ... Expression processing unit 232 ... Stereoscopic image generation control Part 234 Controller vibration control unit 236... Pseudo surround control unit 238 .. gesture input determination unit 240... Character gesture input invalidation control unit 396 .. controller oscillation unit 500 .. storage unit 502 .. game calculation program 510. 521 ... HMD position coordinates 522 ... HMD posture data 523 ... Controller position coordinates 525 ... Left hand position coordinates 526 ... Right hand position coordinates 602 ... Virtual stereo camera control data 604 ... Controller object control data 606 ... Direction guidance object control data 608 ... Left hand object control Data 610 ... Right hand object control data 612 ... Guidance character control data 614 ... Guidance display panel control data 616 ... Selected object control data 630 ... Virtual space control Data 1000 ... Game system 1002 ... Game device main body 1050 ... Control board 1100 ... Ranging sensor unit 1104 ... Color image sensor 1200 ... Game controller 1206 ... Vibrator 1208 ... 6-axis sensor 1250 ... Controller board 1300 ... Headset 1302 ... Headphone 1308 ... 6-axis sensor 1310 ... HMD
1312 ... Light emitting marker 1320 ... Image sensor Ph ... HMD position Pc ... Game controller position Pl ... Left hand position Pr ... Right hand position

Claims (16)

ユーザの頭部に装着されるHMD(Head Mounted Display)と、前記ユーザの手或いは当該ユーザが把持するポインティングデバイス(以下包括して「操作指示物」という)及び前記HMDを含む実空間を撮影するために設置された撮像手段とに接続されたコンピュータを、
前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における、前記実空間中の前記操作指示物の位置に対応する仮想位置を算出する算出手段、
前記仮想空間中の所与の位置に入力判定体を配置する入力判定体配置制御手段、
前記仮想位置と、前記入力判定体の配置位置とに基づき、前記入力判定体への入力を判定する入力判定手段、
として機能させるためのプログラム。
Photographing a real space including the HMD (Head Mounted Display) worn on the user's head, the user's hand or a pointing device (hereinafter collectively referred to as “operation instruction”) held by the user, and the HMD. A computer connected to the imaging means installed for
A calculation unit that calculates a virtual position corresponding to the position of the operation instruction in the real space in a virtual space that is a display image space of the HMD, using a captured image of the imaging unit;
An input determination object arrangement control means for arranging an input determination object at a given position in the virtual space;
An input determination means for determining an input to the input determination body based on the virtual position and an arrangement position of the input determination body;
Program to function as.
前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段、
前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像を生成する仮想空間画像生成手段、
として前記コンピュータを更に機能させ、
前記入力判定体配置制御手段は、前記視界の変化に追従して当該視界内の所与の位置に前記入力判定体を配置させる、
請求項1に記載のプログラム。
HMD position and orientation determination means for determining the position and / or orientation of the HMD in the real space;
Virtual space image generation means for generating an image of the virtual space whose field of view changes according to the position and / or orientation of the HMD determined by the HMD position and orientation determination means as the image of the virtual space to be displayed on the HMD ,
Further functioning the computer as
The input determination object arrangement control means arranges the input determination object at a given position in the view following the change in the view.
The program according to claim 1.
前記HMDの前記実空間中の位置及び/又は姿勢を判定するHMD位置姿勢判定手段、
前記HMDに表示させる前記仮想空間の画像として、前記HMD位置姿勢判定手段により判定された前記HMDの位置及び/又は姿勢に応じて視界が変化する前記仮想空間の画像を生成する仮想空間画像生成手段、
として前記コンピュータを更に機能させ、
前記入力判定体配置制御手段は、前記視界の変化に関わらず、前記入力判定体の配置位置を前記仮想空間中の所定位置とする、
請求項1に記載のプログラム。
HMD position and orientation determination means for determining the position and / or orientation of the HMD in the real space;
Virtual space image generation means for generating an image of the virtual space whose field of view changes according to the position and / or orientation of the HMD determined by the HMD position and orientation determination means as the image of the virtual space to be displayed on the HMD ,
Further functioning the computer as
The input determination object arrangement control means sets the arrangement position of the input determination object as a predetermined position in the virtual space regardless of the change in the field of view.
The program according to claim 1.
前記仮想空間画像生成手段は、前記仮想空間内にキャラクタを配置した画像を生成し、
前記入力判定体配置制御手段は、前記入力判定体を前記キャラクタに付随させる、
請求項3に記載のプログラム。
The virtual space image generation means generates an image in which characters are arranged in the virtual space,
The input determination body arrangement control means causes the input determination body to accompany the character.
The program according to claim 3.
前記入力判定体配置制御手段は、所与の条件を満たした場合に、前記入力判定体の付随表示を中断して当該視界中の所定位置に前記入力判定体を位置させる、
請求項4に記載のプログラム。
The input determination body arrangement control means, when a given condition is satisfied, interrupts the accompanying display of the input determination body and positions the input determination body at a predetermined position in the field of view.
The program according to claim 4.
前記入力判定体配置制御手段は、前記キャラクタが前記視界内に位置した後、前記視界外となった場合を前記所与の条件を満たした場合とする、
請求項5に記載のプログラム。
The input determination body arrangement control means, when the character is located within the field of view and then outside the field of view, when the given condition is satisfied,
The program according to claim 5.
前記仮想位置に、前記操作指示物の前記実空間中の位置に対応する位置であることを示す指示オブジェクトを前記HMDに表示させる指示オブジェクト表示制御手段、
として前記コンピュータを機能させるための請求項2〜6の何れか一項に記載のプログラム。
Pointing object display control means for causing the HMD to display a pointing object indicating that the virtual pointing position is a position corresponding to the position of the operation pointing object in the real space;
The program as described in any one of Claims 2-6 for functioning the said computer as.
前記入力判定手段は、前記入力判定体の表示位置と前記指示オブジェクトの表示位置との相対位置関係に基づいて前記入力判定体への入力を判定する、
請求項7に記載のプログラム。
The input determination means determines an input to the input determination body based on a relative positional relationship between a display position of the input determination body and a display position of the pointing object;
The program according to claim 7.
前記HMDからみて、前記仮想位置が前記仮想空間において隠れた位置となる場合に、当該指示オブジェクトを表出させるように画像処理する第1の画像処理手段として前記コンピュータを更に機能させるための請求項7又は8に記載のプログラム。   The said computer is further functioned as a 1st image processing means to image-process so that the said pointing object may be exposed when the said virtual position turns into a hidden position in the said virtual space seeing from the said HMD. The program according to 7 or 8. 前記HMDからみて、前記入力判定体が前記仮想空間において隠れた位置となる場合に、当該入力判定体を表出させるように画像処理する第2の画像処理手段として前記コンピュータを更に機能させるための請求項2〜9の何れか一項に記載のプログラム。   For further causing the computer to function as second image processing means for performing image processing so that the input determination object is exposed when the input determination object is in a hidden position in the virtual space when viewed from the HMD. The program as described in any one of Claims 2-9. 前記仮想空間画像生成手段は、前記仮想空間内にキャラクタを配置した画像を生成し、
前記仮想位置に基づいて前記キャラクタに対する操作入力を判定するキャラクタ対象操作入力判定手段、
前記入力判定体が表示されているときには前記キャラクタ対象操作入力判定手段を無効とし、表示されていないときに前記キャラクタ対象操作入力判定手段を有効とする手段、
として前記コンピュータを機能させるための請求項2〜10の何れか一項に記載のプログラム。
The virtual space image generation means generates an image in which characters are arranged in the virtual space,
Character target operation input determining means for determining an operation input to the character based on the virtual position;
Means for invalidating the character target operation input determining means when the input determining body is displayed, and enabling the character target operation input determining means when not being displayed;
The program as described in any one of Claims 2-10 for functioning the said computer as.
前記実空間に対応するように前記仮想空間の座標系を初期設定する座標系初期設定手段、
として前記コンピュータを更に機能させるための請求項1〜11の何れか一項に記載のプログラム。
A coordinate system initial setting means for initial setting the coordinate system of the virtual space so as to correspond to the real space;
The program as described in any one of Claims 1-11 for making the said computer further function as.
前記座標系初期設定手段は、前記撮像手段の撮影画像中の前記操作指示物の位置を参照して、前記初期設定を実行する、
請求項12に記載のプログラム。
The coordinate system initial setting means refers to the position of the operation instruction object in the captured image of the imaging means, and executes the initial setting.
The program according to claim 12.
前記算出手段は、前記実空間中の前記HMDと前記操作指示物との相対位置関係に基づいて、前記仮想位置を補正する仮想位置補正手段を有する、
請求項1〜13の何れか一項に記載のプログラム。
The calculation means includes virtual position correction means for correcting the virtual position based on a relative positional relationship between the HMD and the operation instruction in the real space.
The program as described in any one of Claims 1-13.
前記仮想位置補正手段は、前記HMDの向きを基準にした前記相対位置関係が所定の補正条件を満たした場合に、当該補正条件に対応付けられた補正演算に従って前記仮想位置を補正する、
請求項14に記載のプログラム。
The virtual position correcting unit corrects the virtual position according to a correction calculation associated with the correction condition when the relative positional relationship based on the orientation of the HMD satisfies a predetermined correction condition.
The program according to claim 14.
ユーザの頭部に装着されるHMDと、操作指示物及び前記HMDを含む実空間を撮影するために設置された撮像手段とに接続され、前記HMDに表示させる画像を生成するための画像生成装置であって、
前記撮像手段の撮影画像を用いて、前記HMDの表示画像空間となる仮想空間における、前記実空間中の前記操作指示物の位置に対応する仮想位置を算出する算出手段と、
前記仮想空間中の所与の位置に入力判定体を配置する入力判定体配置制御手段と、
前記仮想位置と、前記入力判定体の配置位置とに基づき、前記入力判定体への入力を判定する入力判定手段と、
を備えた画像生成装置。
An image generation apparatus for generating an image to be displayed on the HMD, connected to an HMD mounted on a user's head and an imaging unit installed to capture an operation instruction object and a real space including the HMD Because
A calculation unit that calculates a virtual position corresponding to the position of the operation instruction in the real space in a virtual space that is a display image space of the HMD, using a captured image of the imaging unit;
An input determination object arrangement control means for arranging an input determination object at a given position in the virtual space;
Input determining means for determining an input to the input determining body based on the virtual position and an arrangement position of the input determining body;
An image generation apparatus comprising:
JP2014119125A 2014-06-09 2014-06-09 Program and image generation device Active JP6629499B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014119125A JP6629499B2 (en) 2014-06-09 2014-06-09 Program and image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014119125A JP6629499B2 (en) 2014-06-09 2014-06-09 Program and image generation device

Publications (2)

Publication Number Publication Date
JP2015231445A true JP2015231445A (en) 2015-12-24
JP6629499B2 JP6629499B2 (en) 2020-01-15

Family

ID=54933342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014119125A Active JP6629499B2 (en) 2014-06-09 2014-06-09 Program and image generation device

Country Status (1)

Country Link
JP (1) JP6629499B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5981591B1 (en) * 2015-03-17 2016-08-31 株式会社コロプラ Computer program and computer system for controlling object operations in an immersive virtual space
KR101679779B1 (en) 2016-04-18 2016-11-25 김종만 3D Motion Input Apparatus for Virtual Reality Device
KR101779569B1 (en) 2016-04-18 2017-09-19 김종만 Input Apparatus Interlocking Virtual Reality Device
WO2017183822A1 (en) * 2016-04-18 2017-10-26 김종만 Three-dimensional motion input apparatus for virtual reality device
JP2018032132A (en) * 2016-08-23 2018-03-01 株式会社コロプラ Method and device for assisting communication in virtual space and program enabling computer to execute method
WO2018051969A1 (en) * 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system, processing method, and information storage medium
JP2018045459A (en) * 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system and program
JP2018061666A (en) * 2016-10-12 2018-04-19 株式会社カプコン Game program and game device
JP2018061667A (en) * 2016-10-12 2018-04-19 株式会社カプコン Game program and game device
JP6330072B1 (en) * 2017-03-08 2018-05-23 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
JP2018136944A (en) * 2018-02-22 2018-08-30 株式会社バンダイナムコエンターテインメント Simulation system and program
US10365784B2 (en) 2017-03-08 2019-07-30 Colopl, Inc. Information processing method and apparatus for executing the information processing method
JP2020511709A (en) * 2017-02-10 2020-04-16 ソニー・インタラクティブエンタテインメント エルエルシー Paired local and global user interfaces for an enhanced augmented reality experience
JP7016438B1 (en) 2021-03-29 2022-02-18 グリー株式会社 Information processing systems, information processing methods and computer programs
US11521354B2 (en) 2020-08-03 2022-12-06 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123018A (en) * 2007-11-15 2009-06-04 Canon Inc Image processor and image processing method
JP2012048568A (en) * 2010-08-27 2012-03-08 Canon Inc Information processing unit and method
JP2012048656A (en) * 2010-08-30 2012-03-08 Canon Inc Image processing apparatus, and image processing method
JP2012075482A (en) * 2010-09-30 2012-04-19 Sega Corp Image processing program and computer-readable recording medium
JP2012181809A (en) * 2011-03-03 2012-09-20 Panasonic Corp Apparatus controller, apparatus control method, apparatus control program and integrated circuit
JP2013190941A (en) * 2012-03-13 2013-09-26 Nikon Corp Information input output device, and head-mounted display device
JP2013258614A (en) * 2012-06-13 2013-12-26 Sony Computer Entertainment Inc Image generation device and image generation method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123018A (en) * 2007-11-15 2009-06-04 Canon Inc Image processor and image processing method
JP2012048568A (en) * 2010-08-27 2012-03-08 Canon Inc Information processing unit and method
JP2012048656A (en) * 2010-08-30 2012-03-08 Canon Inc Image processing apparatus, and image processing method
JP2012075482A (en) * 2010-09-30 2012-04-19 Sega Corp Image processing program and computer-readable recording medium
JP2012181809A (en) * 2011-03-03 2012-09-20 Panasonic Corp Apparatus controller, apparatus control method, apparatus control program and integrated circuit
JP2013190941A (en) * 2012-03-13 2013-09-26 Nikon Corp Information input output device, and head-mounted display device
JP2013258614A (en) * 2012-06-13 2013-12-26 Sony Computer Entertainment Inc Image generation device and image generation method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
入江 英嗣 外9名: "AirTarget:光学シースルー方式HMDとマーカレス画像認識による高可搬性実世界志向インタフェー", 情報処理学会 論文誌(ジャーナル) VOL.55 NO.4 [ONLINE], JPN6018025860, 15 April 2014 (2014-04-15), JP, pages 1415 - 1427, ISSN: 0004015698 *
梶山 隼 外2名: "ユーザの姿勢検出と透過型HMDを用いたゲームエクスペリエンス拡張システム", 情報処理学会 研究報告 モバイルコンピューティングとユビキタス通信(MBL) 2014−MBL−07, JPN6018025858, 10 March 2014 (2014-03-10), JP, pages 1 - 7, ISSN: 0004015699 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5981591B1 (en) * 2015-03-17 2016-08-31 株式会社コロプラ Computer program and computer system for controlling object operations in an immersive virtual space
WO2016148072A1 (en) * 2015-03-17 2016-09-22 株式会社 コロプラ Computer program and computer system for controlling object manipulation in immersive virtual space
JP2016173698A (en) * 2015-03-17 2016-09-29 株式会社コロプラ Computer program and computer system for controlling object operation in immersive virtual space
US9721396B2 (en) 2015-03-17 2017-08-01 Colopl, Inc. Computer and computer system for controlling object manipulation in immersive virtual space
KR101679779B1 (en) 2016-04-18 2016-11-25 김종만 3D Motion Input Apparatus for Virtual Reality Device
KR101779569B1 (en) 2016-04-18 2017-09-19 김종만 Input Apparatus Interlocking Virtual Reality Device
WO2017183822A1 (en) * 2016-04-18 2017-10-26 김종만 Three-dimensional motion input apparatus for virtual reality device
JP2018032132A (en) * 2016-08-23 2018-03-01 株式会社コロプラ Method and device for assisting communication in virtual space and program enabling computer to execute method
JP2018045458A (en) * 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system and program
JP2018045459A (en) * 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system and program
WO2018051969A1 (en) * 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system, processing method, and information storage medium
WO2018051970A1 (en) * 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system, processing method, and information storage medium
CN109690633B (en) * 2016-09-14 2023-02-28 株式会社万代南梦宫娱乐 Simulation system, processing method, and information storage medium
CN109716397B (en) * 2016-09-14 2022-12-16 株式会社万代南梦宫娱乐 Simulation system, processing method, and information storage medium
US11094106B2 (en) 2016-09-14 2021-08-17 Bandai Namco Entertainment Inc. Simulation system, processing method, and information storage medium for changing a display object in response to a movement of a field of view
CN109690633A (en) * 2016-09-14 2019-04-26 株式会社万代南梦宫娱乐 Simulation system, processing method and information storage medium
CN109716397A (en) * 2016-09-14 2019-05-03 株式会社万代南梦宫娱乐 Simulation system, processing method and information storage medium
US10744411B2 (en) 2016-09-14 2020-08-18 Bandai Namco Entertainment Inc. Simulation system, processing method, and information storage medium
JP2018061666A (en) * 2016-10-12 2018-04-19 株式会社カプコン Game program and game device
JP2018061667A (en) * 2016-10-12 2018-04-19 株式会社カプコン Game program and game device
JP2020511709A (en) * 2017-02-10 2020-04-16 ソニー・インタラクティブエンタテインメント エルエルシー Paired local and global user interfaces for an enhanced augmented reality experience
US10599286B2 (en) 2017-03-08 2020-03-24 Colopl, Inc. Information processing method and apparatus for executing the information processing method
US10365784B2 (en) 2017-03-08 2019-07-30 Colopl, Inc. Information processing method and apparatus for executing the information processing method
US10936149B2 (en) 2017-03-08 2021-03-02 Colopl, Inc. Information processing method and apparatus for executing the information processing method
JP2018147378A (en) * 2017-03-08 2018-09-20 株式会社コロプラ Information processing method, apparatus, and program for implementing that information processing method in computer
JP6330072B1 (en) * 2017-03-08 2018-05-23 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
JP2018136944A (en) * 2018-02-22 2018-08-30 株式会社バンダイナムコエンターテインメント Simulation system and program
US11521354B2 (en) 2020-08-03 2022-12-06 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium
JP7016438B1 (en) 2021-03-29 2022-02-18 グリー株式会社 Information processing systems, information processing methods and computer programs
JP2022152443A (en) * 2021-03-29 2022-10-12 グリー株式会社 Information processing system, information processing method and computer program

Also Published As

Publication number Publication date
JP6629499B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
JP6355978B2 (en) Program and image generation apparatus
JP6629499B2 (en) Program and image generation device
US10764565B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP6684559B2 (en) Program and image generation device
JP6396027B2 (en) Program and game device
US11865448B2 (en) Information processing apparatus and user guide presentation method
JP6021296B2 (en) Display control program, display control device, display control system, and display control method
JP2012115414A (en) Game device, method of providing game, game program, and game system
US8684837B2 (en) Information processing program, information processing system, information processing apparatus, and information processing method
JP2024050696A (en) Information processing device, user guide presentation method, and head-mounted display
CN115298732A (en) System and method for multi-user virtual and augmented reality
JP6227732B1 (en) Method and apparatus for supporting input in virtual space, and program causing computer to execute the method
JP2010142404A (en) Game program, and game apparatus
JP2018049629A (en) Method and device for supporting input in virtual space and program for causing computer to execute the method
JP5945297B2 (en) GAME PROGRAM AND GAME DEVICE
JP2018028765A (en) Method for providing virtual space, program, and recording medium
WO2022124135A1 (en) Game program, game processing method, and game device
JP2018028900A (en) Method, program, and recording medium for providing virtual space
JP2022090964A (en) Game program, game processing method, and game device
JP2022090965A (en) Game program, game processing method, and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191205

R150 Certificate of patent or registration of utility model

Ref document number: 6629499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250