JP2012178060A - Program, information storage medium and stereoscopic image generation device - Google Patents

Program, information storage medium and stereoscopic image generation device Download PDF

Info

Publication number
JP2012178060A
JP2012178060A JP2011040941A JP2011040941A JP2012178060A JP 2012178060 A JP2012178060 A JP 2012178060A JP 2011040941 A JP2011040941 A JP 2011040941A JP 2011040941 A JP2011040941 A JP 2011040941A JP 2012178060 A JP2012178060 A JP 2012178060A
Authority
JP
Japan
Prior art keywords
balloon
character
indicator
game
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011040941A
Other languages
Japanese (ja)
Inventor
Shinobu Futamura
忍 二村
Hiroshi Otsuka
裕 大塚
Motohisa Ishii
源久 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2011040941A priority Critical patent/JP2012178060A/en
Publication of JP2012178060A publication Critical patent/JP2012178060A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve new utterance display using a "balloon" in a video game using a stereoscopic image.SOLUTION: A balloon object 6 is composed of a balloon body 61 in which utterance content 5 is displayed and a balloon indicator 62 indicating a correspondence relation between the part of the balloon body and an utterance character 2, and the balloon indicator 62 is arranged between the balloon body 61 and the utterance character 2 such that a depth position gradually changes. Even when the balloon body 61 is arranged at the nearest part of a camera coordinate system Zc axial direction (depth direction) of a left virtual camera C1 and a right virtual camera C2, the balloon indicator 62 is arranged between the balloon body 61 and the utterance character 2 so that it is possible to clearly display a correspondence relation between the "balloon" and the utterance character while maintaining easiness to view the utterance content of the "balloon".

Description

本発明は、コンピュータに、キャラクタが配置された仮想三次元空間を所与の視点から見た立体視用画像を生成させるためのプログラム等に関する。   The present invention relates to a program for causing a computer to generate a stereoscopic image in which a virtual three-dimensional space in which a character is arranged is viewed from a given viewpoint.

近年、立体視画像(ステレオグラム、3D映像などとも呼ばれる)を表示できるディスプレイ(テレビを含む)が普及しつつある。それに伴い、ビデオゲームを立体視に対応させるための技術が提案されるようになった。
例えば、左眼用立体視画像及び右眼用立体視画像を生成するための左右の仮想カメラの距離を調整可能とし、立体視の迫力ある映像をそのままに、長時間立体視した場合の疲労感を低減する手法などが提案されている(例えば、特許文献1参照)。
In recent years, displays (including televisions) capable of displaying stereoscopic images (also referred to as stereograms, 3D images, etc.) are becoming widespread. Along with this, a technique for making a video game compatible with stereoscopic vision has been proposed.
For example, it is possible to adjust the distance between the left and right virtual cameras for generating the left-eye stereoscopic image and the right-eye stereoscopic image, and the fatigue feeling when viewing stereoscopic images for a long time without changing the powerful stereoscopic image. A technique for reducing the above has been proposed (see, for example, Patent Document 1).

特開2011−24637号公報JP 2011-24637 A

さて、平面視画像(非立体視画像の意;左右両眼に共通に見せる画像)をベースとしたビデオゲームでは通用していた手法を立体視画像にそのまま適用しようとすると、必ずしも適当とは言い難いケースが散見される。例えば、ゲーム内に登場するキャラクタなどが発言した内容を表示する場合などに使用されるいわゆる「吹き出し」がその一つである。   Now, it is not always appropriate to apply a technique that has been used in video games based on planar images (meaning non-stereoscopic images; images shared by both left and right eyes) to stereoscopic images. Difficult cases are seen. For example, a so-called “speech balloon” that is used when displaying the content of a character or the like appearing in a game is one of them.

例えば、RPG(ロールプレイングゲーム)などで、予め用意された会話シーンを再現する場合、当該シーンに登場するキャラクタの台詞文字を「吹き出し」で表示するのが一般的である。「吹き出し」は、ゲームを進める上で大変重要な情報を表示するものであるから、表示優先度は一番高く、ゲーム画面内にどれにも隠されることなく最も手前に表示されるのが一般的である。つまり、隠蔽処理におけるプライオリティが最も高く、常に見えている状態にされる。平面視画像をベースとしたビデオゲームであれば、「吹き出し」は発言しているキャラクタ(発言キャラクタ)の像の上に重ねて配置するか、当該像の近傍に配置すればその目的を果たすことができた。   For example, when reproducing a conversation scene prepared in advance in RPG (role playing game) or the like, it is common to display the dialogue characters of characters appearing in the scene as “speech balloons”. “Speech balloon” displays information that is very important for advancing the game, so it has the highest display priority and is generally displayed in the foreground without being hidden in the game screen. Is. That is, the priority in the concealment process is the highest and is always visible. In a video game based on a planar image, the “speech balloon” can be placed over the image of the speaking character (speaking character) or in the vicinity of the image. I was able to.

一方、立体視画像の場合、当然のことながらゲーム画面を生成するための視点となる左右の仮想カメラから発言キャラクタまでには固有の奥行が存在することになる。
「吹き出し」の役割からすると、表示の優先度は平面視画像をベースとしたビデオゲームのときと同様に一番高くあって、なお且つ、表示位置は発言キャラクタと同じ或いは発言キャラクタ近傍であるのが望ましい。しかし、立体視画像では、これらに加えて、奥行位置を決めなければならない。この「吹き出し」の奥行位置の決め方としては、表示優先度と矛盾しないように最も手前に持ってくるか、あるいは、発言者の奥行き位置の近傍に合わせるか、の2通りが考えられる。しかしながら、これらの方法では、立体画像の見易さという点において、問題が発生する可能性がある。
On the other hand, in the case of a stereoscopic image, there is naturally a unique depth from the left and right virtual cameras serving as viewpoints for generating the game screen to the comment character.
From the role of “speech balloon”, the priority of display is the highest as in the video game based on a planar image, and the display position is the same as or near the speaking character. Is desirable. However, in the stereoscopic image, in addition to these, the depth position must be determined. There are two ways to determine the depth position of this “speech balloon”: to bring it to the forefront so as not to contradict the display priority, or to match the depth position of the speaker. However, these methods may cause a problem in terms of ease of viewing a stereoscopic image.

例えば、前者、すなわち、「吹き出し」の奥行き位置を、表示優先度と矛盾しないように、最も手前に持ってくる方法では、「吹き出し」を板ポリゴンとして構成し、左仮想カメラC1及び右仮想カメラC2に最も近い仮想面(例えば前方クリップ面や、その直ぐ後ろの仮想面、表示画面と一致する仮想面等)の奥行情報を与えることになる。「吹き出し」およびその中のテキスト情報のみに注目すれば、奥行位置を表示画面近傍にするのが、最も見やすい。しかし、この方法では、「吹き出し」が最も手前に来るようにしたいわけであるから、その他のオブジェクトは、すべて「吹き出し」が存在する面よりも奥側に表示する必要がある。つまり、発言キャラクタよりもカメラ座標系Zc軸方向の奥行方向手前側に「吹き出し」を配置する。しかし、この方法では、発言キャラクタよりも随分と手前に「吹き出し」が配置される場合もあり、発言キャラクタの奥行情報と「吹き出し」の奥行情報との差が大きくなる、いわゆる「視差の乖離」が生じ、「吹き出し」と発言キャラクタを同時あるいは交互に見ようとするのが、見づらくなる原因となる。   For example, in the method of bringing the depth position of the “balloon” to the foremost side so as not to contradict the display priority, the “balloon” is configured as a plate polygon, and the left virtual camera C1 and the right virtual camera Depth information of the virtual plane closest to C2 (for example, the front clip plane, the virtual plane immediately behind it, the virtual plane that matches the display screen, etc.) is given. Focusing only on the “speech balloon” and the text information in it, it is easiest to see the depth position near the display screen. However, in this method, since it is desired that the “speech balloon” comes to the foremost side, all other objects need to be displayed behind the surface on which the “speech balloon” exists. In other words, the “speech balloon” is arranged in front of the speaking character in the depth direction in the camera coordinate system Zc axis direction. However, in this method, a “speech balloon” may be placed in front of the comment character, and the difference between the depth information of the comment character and the depth information of the “speech balloon” increases, so-called “parallax deviation”. If you try to see the “speech balloon” and the talking character simultaneously or alternately, it becomes difficult to see.

では、後者の方法、すなわち、「吹き出し」の奥行情報を、発言キャラクタに合わせれば良いかというとそうとは言えない。左右の仮想カメラと「吹き出し」との間に他のオブジェクトが配置され、隠れてしまう(隠蔽)という不具合が生じ得る。この場合には、吹き出しの内部にあるテキストの情報を、読むことができなくなる恐れがある。そこで、「吹き出し」の奥行位置は発言者に合わせた上で、表示優先度としては「吹き出し」を優先する、すなわち、奥行の位置関係では、「吹き出し」よりも手前に別のオブジェクトが重なっているのに、「吹き出し」が手前の別オブジェクトを覆い隠しているような表現が考えられる。この場合、あたかも吹き出しが、手前側のオブジェクトに埋まって見える。しかも、片方の目には、埋まっているように見える部分が、他方の眼には、埋まっていないように見える、といった「視野闘争」が生じ、結果として、実際にはありえないような不自然な埋まり方に見える。これは、「奥行・隠蔽矛盾」と呼ばれ、見にくさの原因となる。   Then, it cannot be said that the latter method, that is, whether the depth information of the “speech balloon” should be matched with the comment character. There may be a problem that other objects are arranged between the left and right virtual cameras and the “speech balloon” and are hidden (hidden). In this case, there is a possibility that the text information inside the balloon cannot be read. Therefore, the depth position of the “speech balloon” is matched to the speaker, and “speech balloon” is given priority as the display priority. In other words, in the positional relationship of the depth, another object overlaps in front of the “speech balloon”. However, it can be considered that the “speech balloon” covers and hides another object in front. In this case, the balloon appears to be buried in the near object. Moreover, a “field-of-view struggle” occurs in which one eye appears to be buried, while the other eye appears to be unfilled. It looks like it ’s buried. This is called “depth / concealment contradiction” and causes difficulty in viewing.

本発明は、こうした事情を鑑みてなされたものであり、立体視画像を用いたビデオゲームにおいて、「吹き出し」を用いた新たな発言表示を実現することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to realize a new remark display using a “speech balloon” in a video game using a stereoscopic image.

以上の課題を解決するための第1の形態は、コンピュータに、キャラクタが配置された仮想三次元空間を所与の視点から見た立体視用画像を生成させるためのプログラムであって、
吹き出し本体(例えば、図3の吹き出し本体61)を、前記吹き出し本体を配置する際の前記視点に基づく奥行位置の基準面又は基準域を定めた奥行配置基準に従った奥行位置(例えば、図3の本体配置基準面12)に配置する本体部配置手段(例えば、図6の処理部200、ゲーム演算部210、吹き出し管理部220、本体制御部222、図12のステップS42)、
前記本体部配置手段により配置された吹き出し本体と前記キャラクタとの対応関係を示す吹き出し指示体(例えば、図3の吹き出し指示体62、指示体連結部63)を、当該吹き出し本体と前記キャラクタとの間を結ぶように奥行方向に沿って配置する指示体配置手段(例えば、図6の処理部200、ゲーム演算部210、吹き出し管理部220、指示体制御部224、図12のステップS50)、として前記コンピュータを機能させるためのプログラムである。
A first form for solving the above problems is a program for causing a computer to generate a stereoscopic image in which a virtual three-dimensional space in which a character is arranged is viewed from a given viewpoint,
The balloon body (for example, the balloon body 61 in FIG. 3) has a depth position (for example, FIG. 3) according to a depth arrangement reference that defines a reference plane or a reference area of the depth position based on the viewpoint when the balloon body is disposed. Main body arrangement reference plane 12) (for example, the processing unit 200 in FIG. 6, the game calculation unit 210, the balloon management unit 220, the main body control unit 222, step S42 in FIG. 12),
A balloon indicator (for example, the balloon indicator 62 and the indicator linking part 63 in FIG. 3) indicating the correspondence between the balloon body arranged by the body part arranging means and the character is connected between the balloon body and the character. As indicator arrangement means (for example, the processing unit 200, the game calculation unit 210, the balloon management unit 220, the indicator control unit 224, and step S50 in FIG. 12) arranged along the depth direction so as to connect each other. A program for causing the computer to function.

また、別形態として、キャラクタが配置された仮想三次元空間を所与の視点から見た立体視用画像を生成する立体視画像生成装置であって、吹き出し本体を、前記吹き出し本体を配置する際の前記視点に基づく奥行位置の基準面又は基準域を定めた奥行配置基準に従った奥行位置に配置する本体部配置手段と、前記本体部配置手段により配置された吹き出し本体と前記キャラクタとの対応関係を示す吹き出し指示体を、当該吹き出し本体と前記キャラクタとの間を結ぶように奥行方向に沿って配置する指示体配置手段と、を備えた立体視画像生成装置(例えば、図1の家庭用ゲーム装置1200)を構成することができる。   According to another aspect of the present invention, there is provided a stereoscopic image generating apparatus for generating a stereoscopic image in which a virtual three-dimensional space in which a character is arranged is viewed from a given viewpoint, wherein the balloon main body is arranged with the balloon main body. Correspondence between the character body and the body part disposing means arranged at the depth position in accordance with the depth arrangement standard defining the reference plane or reference area of the depth position based on the viewpoint, and the body part arranging means A stereoscopic image generating device (for example, for home use in FIG. 1), comprising: a pointer arrangement unit that arranges a balloon indicator indicating a relationship along the depth direction so as to connect the balloon main body and the character. Game device 1200) can be configured.

第1の形態等によれば、「吹き出し」を、発言の内容が表示される吹き出し本体の部分と、当該吹き出し本体とキャラクタとの対応関係を示す吹き出し指示体とで構成し、吹き出し指示体を、吹き出し本体とキャラクタとの間を結ぶように奥行方向に沿って配置することができる。
つまり、「吹き出し」の本体部分と、発言キャラクタとを、仮想カメラのカメラ座標系の奥行方向に離して配置することとなっても、吹き出し指示体が奥行位置の異なる両者間を結ぶようにして配置されるので「視差の乖離」を解消することができる。立体視画像を用いたビデオゲームにおいても「吹き出し」の発言内容の見やすさを維持しつつ、「吹き出し」と発言キャラクタとの対応関係を明確に表示することができる。
According to the first form or the like, the “speech balloon” is composed of a part of the speech balloon body in which the content of the speech is displayed, and a speech balloon indicator that indicates the correspondence between the speech balloon body and the character. And it can arrange | position along a depth direction so that a balloon main body and a character may be tied.
In other words, even if the body part of the “speech balloon” and the comment character are arranged away from each other in the depth direction of the camera coordinate system of the virtual camera, the speech balloon indicator is connected between the different depth positions. Since it is arranged, “parallax deviation” can be eliminated. Even in a video game using a stereoscopic image, the correspondence between the “speech balloon” and the speech character can be clearly displayed while maintaining the visibility of the speech content of the “speech balloon”.

「吹き出し」のデザインに関しては、第2の形態として、前記指示体配置手段が、前記吹き出し指示体を、前記吹き出し本体の周部所定位置から前記キャラクタに向けて奥行方向に徐々に屈曲させた板状体で配置構成する、ように前記コンピュータを機能させるための第1の形態のプログラムを構成することができる。   With regard to the design of “speech balloon”, as a second form, the indicator placement means is a board in which the speech balloon indicator is gradually bent in the depth direction from a predetermined peripheral position of the speech balloon body toward the character. The program of the 1st form for functioning the said computer can be comprised so that it may arrange | position and comprise in a shape.

第2の形態によれば、第1の形態と同様の効果が得られるとともに、吹き出し本体から吹き出し指示体、そして発言キャラクタへの視線誘導がスムーズになり「吹き出し」が見やすくなる。   According to the second mode, the same effects as those of the first mode can be obtained, and the line-of-sight guidance from the balloon body to the balloon indicator and the speaking character can be made smooth and the “balloon” can be easily seen.

更には、第3の形態として、前記指示体配置手段が、前記吹き出し本体に近い側に最大屈曲部が位置するように前記板状体を配置構成する、ように前記コンピュータを機能させるための第2の形態のプログラムを構成することができる。   Further, as a third form, the indicator arranging means arranges and configures the plate-like body so that the maximum bent portion is located on the side close to the blowing body. Two types of programs can be configured.

第3の形態によれば、第2の形態と同様の効果が得られるとともに、「吹き出し」のデザインが、吹き出し本体から吹き出し指示体が延設されているタイプにおいて、デザイン性を向上できるとともに、視線誘導がより効果的になる。   According to the third embodiment, the same effect as the second embodiment can be obtained, and the design of the “speech balloon” can improve the design in the type in which the speech balloon indicator is extended from the balloon body. Gaze guidance becomes more effective.

「吹き出し」のデザインを、吹き出し本体と吹き出し指示体とが分離しているタイプを採用する場合には、第4の形態として、前記指示体配置手段が、前記吹き出し本体と前記キャラクタとの間に、複数の小指示体(図13,図14の小指示体64a,64b,・・・)を異なる奥行位置に離散的に配置することで前記吹き出し指示体を配置構成する、ように前記コンピュータを機能させるための第2の形態のプログラムを構成すると好適である。このタイプの吹き出しは、キャラクタの「発言」でなく、声に出さない「思惑(モノローグ)」を示す場合等にしばしば用いられる。   When adopting a type in which the balloon body and the balloon indicator are separated from each other as a fourth embodiment, as the fourth form, the pointer arrangement means is provided between the balloon body and the character. The computer is arranged such that a plurality of small indicators (small indicators 64a, 64b,... In FIGS. 13 and 14) are discretely arranged at different depth positions to arrange the balloon indicators. It is preferable to configure a program of the second form for functioning. This type of speech balloon is often used to indicate a “speculation (monologue)” that is not spoken, rather than a “speech” of a character.

また、更なるデザイン性の向上や視線誘導の効果向上を望むならば、第5の形態として、前記指示体配置手段が、前記複数の小指示体の配置間隔を前記吹き出し本体に近い方が狭くなるように配置する、ように前記コンピュータを機能させるための第4の形態のプログラムを構成すると好適である。   Further, if it is desired to further improve the design and the effect of the line-of-sight guidance, as a fifth form, the indicator arrangement means narrows the arrangement interval of the plurality of small indicators closer to the balloon body. It is preferable to configure the fourth form of the program for causing the computer to function as described above.

更に、吹き出し指示体のデザインに着目し、ここに多様性を持たせたいと考えるならば、第6の形態として、前記指示体配置手段が、前記吹き出し本体のサイズ及び/又は前記キャラクタのサイズに応じて前記吹き出し指示体の形態を変更して配置する、ように前記コンピュータを機能させるための第1〜第5の何れかの形態のプログラムを構成すると好適である。   Furthermore, if attention is paid to the design of the balloon indicator and it is desired to provide diversity, the indicator arrangement means may have a size of the balloon body and / or a size of the character as a sixth embodiment. Accordingly, it is preferable to configure a program of any one of the first to fifth modes for causing the computer to function such that the form of the balloon indicator is changed and arranged accordingly.

また、そうしてデザイン性の向上や視線誘導の効果向上を図りつつも、吹き出し指示体との近接部分が強調されるのを適度に抑制したい場合には、第7の形態として、前記吹き出し指示体と前記キャラクタとの奥行方向の相対的な位置関係に応じて、前記吹き出し指示体の配色を変更する配色変更手段(例えば、図6の処理部200、ゲーム演算部210、吹き出し管理部220、図8の標準配色データ514e、図12のステップS42)、として前記コンピュータを更に機能させるための第1〜第6の何れか形態のプログラムを構成すると好適である。   In addition, in the case where it is desired to moderately suppress the enhancement of the proximity portion with the balloon indicator while improving the design and improving the effect of the line-of-sight guidance, the balloon instruction is provided as a seventh form. According to the relative positional relationship between the body and the character in the depth direction, color arrangement changing means for changing the color arrangement of the balloon indicator (for example, the processing unit 200, the game calculation unit 210, the balloon management unit 220 in FIG. 6, As the standard color arrangement data 514e in FIG. 8 and step S42 in FIG. 12, it is preferable to configure any one of the first to sixth programs for further functioning the computer.

また、「吹き出し」よりも仮想カメラ側になんらかのオブジェクトが存在するケースにおいても吹き出し本体の視認性を高く保持するためには、第8の形態として、前記吹き出し本体と他のオブジェクトとの位置関係に基づいて、前記視点から見て前記他のオブジェクトの一部又は全部が前記吹き出し本体に隠れるか否かを判定する隠蔽判定手段(例えば、図6の処理部200、ゲーム演算部210、吹き出し管理部220、図17のステップS76)、
前記隠蔽判定手段により隠れると判定された場合に、前記立体視用画像の生成時に、前記吹き出し本体の輪郭の視認性を低下させるために所定のぼかし処理を施して前記吹き出し本体を描画する本体部描画手段(例えば、図6の処理部200、立体視画像生成部261、図17のステップS78)、として前記コンピュータを更に機能させるための第1〜第7の何れかの形態のプログラムを構成すると好適である。
In order to maintain high visibility of the speech balloon body even in the case where some object is present on the virtual camera side than “speech balloon”, as an eighth embodiment, the positional relationship between the speech balloon body and other objects is used. Based on the concealment determination means for determining whether or not part or all of the other object is hidden in the balloon body as viewed from the viewpoint (for example, the processing unit 200, the game calculation unit 210, the balloon management unit in FIG. 6). 220, step S76 in FIG.
A body portion that renders the balloon body by performing a predetermined blurring process to reduce the visibility of the outline of the balloon body when generating the stereoscopic image when it is determined to be hidden by the concealment determining means As a drawing means (for example, the processing unit 200 in FIG. 6, the stereoscopic image generation unit 261, and step S <b> 78 in FIG. 17), any one of the first to seventh programs for further functioning the computer is configured. Is preferred.

更には、第9の形態として、吹き出し内容部を、前記視点から見て前記吹き出し本体と重なる位置であって、奥行位置が、前記吹き出し内容部を配置する際の前記視点に基づく奥行位置の基準面又は基準域を定めた内容部奥行配置基準に従った奥行位置に配置する内容部配置手段、として前記コンピュータを更に機能させるための第1〜第8の何れかの形態のプログラムを構成することもできる。   Furthermore, as a ninth aspect, the balloon content part is a position overlapping the balloon body when viewed from the viewpoint, and the depth position is a reference for the depth position based on the viewpoint when the balloon content part is arranged. A program according to any one of the first to eighth modes for causing the computer to further function as a content portion arrangement unit that arranges at a depth position in accordance with a content portion depth arrangement standard that defines a surface or a reference area. You can also.

第9の形態によれば、第1〜第8の形態の何れかと同様の効果を奏するとともに、立体視したときの「吹き出し」としての体裁を保ちつつ、「吹き出し」で示される吹き出し内容部(例えば、発言の台詞)と、吹き出し本体とをゲーム空間内の異なる奥行に配置することができる。吹き出し内容部を、発言キャラクタ近傍の奥行位置に配置すれば、吹き出し内容部に眼のピント位置を合わせたまま、ピント調整することなく吹き出しの主となるキャラクタをスムーズに見ることができる。   According to the ninth form, while having the same effect as any of the first to eighth forms, and maintaining the appearance as a “speech balloon” when viewed stereoscopically, the speech balloon content part ( For example, the speech line) and the balloon body can be arranged at different depths in the game space. If the balloon content part is arranged at a depth position in the vicinity of the speech character, the main character of the balloon can be seen smoothly without adjusting the focus while keeping the focus position of the eye in the balloon content part.

尚、この場合の描画順に関しては、第10の形態として、前記奥行配置基準が、前記奥行配置基準と前記キャラクタの奥行位置との間の奥行位置を定めており、前記吹き出し本体の描画の後に前記吹き出し内容部を描画する内容部描画手段、として前記コンピュータを更に機能させるための第9の形態のプログラムを構成することができる。   Regarding the drawing order in this case, as a tenth form, the depth arrangement reference defines a depth position between the depth arrangement reference and the character's depth position, and after drawing of the balloon body A ninth form of program for causing the computer to further function as a content portion drawing means for drawing the balloon content portion can be configured.

また、「吹き出し」によってプレーヤに示す内容に関して、第11の形態として、前記吹き出し内容部は、所与の画像(例えば、プレーヤ画像など)を少なくとも含み、前記本体部配置手段及び前記内容部配置手段が、前記視点に基づく前記キャラクタの奥行位置に応じて前記吹き出し本体及び前記吹き出し内容部の大きさを変化させて配置構成する、ように前記コンピュータを機能させるための第9又は第10の形態のプログラムを構成することができる。   In addition, regarding the contents indicated to the player by “speech balloon”, as an eleventh form, the balloon content part includes at least a given image (for example, a player image), and the main body part placement unit and the content part placement unit Of the ninth or tenth mode for causing the computer to function in such a manner that the size of the balloon main body and the balloon content portion is changed according to the depth position of the character based on the viewpoint. A program can be configured.

第11の形態によれば、第9又は第10の形態と同様の効果が得られるとともに、任意の画像を吹き出しの内容として表示できる。例えば、プレーヤ自身の画像を吹き出しの内容として表示できるので、プレーヤ同士の親近感を高めることができる。   According to the eleventh aspect, the same effect as in the ninth or tenth aspect can be obtained, and an arbitrary image can be displayed as the content of the balloon. For example, since the player's own image can be displayed as the contents of the balloon, the friendliness between the players can be enhanced.

第12の形態は、第1〜第11の何れかの形態のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。第12の発明によれば、第1〜第11の何れかの形態のプログラムをコンピュータに読み取らせて実行させることによって、コンピュータに第1〜第11の形態の何れかと同様の効果を発揮させることができる。   The twelfth aspect is a computer-readable information storage medium storing the program of any one of the first to eleventh aspects. The “information storage medium” mentioned here includes, for example, a magnetic disk, an optical disk, an IC memory, and the like. According to the twelfth invention, by causing the computer to read and execute the program of any one of the first to eleventh forms, causing the computer to exert the same effect as any of the first to eleventh forms. Can do.

立体視画像生成装置である据置型の家庭用ゲーム装置のシステム構成の一例を示す図。The figure which shows an example of the system configuration | structure of the stationary household game device which is a stereoscopic vision image generation apparatus. ゲーム画面例を示す図。The figure which shows the example of a game screen. 吹き出しオブジェクトの表示手法の原理を説明するための図。The figure for demonstrating the principle of the display method of a balloon object. プレーヤキャラクタが発言キャラクタであるとの前提で、吹き出しオブジェクトと発言キャラクタとの相対位置関係を示す正面図。The front view which shows the relative positional relationship of a balloon object and a speech character on the assumption that a player character is a speech character. プレーヤキャラクタが発言キャラクタであるとの前提で、吹き出しオブジェクトと発言キャラクタとの相対位置関係を示す正側面図。The front view which shows the relative positional relationship of a balloon object and a speech character on the assumption that a player character is a speech character. 機能構成の一例を示す機能ブロック図。The functional block diagram which shows an example of a function structure. キャラクタ初期設定データのデータ構成の一例を示す図。The figure which shows an example of the data structure of character initial setting data. 吹き出しテンプレートデータのデータ構成の一例を示す図。The figure which shows an example of a data structure of balloon template data. 発言イベント設定データのデータ構成の一例を示す図。The figure which shows an example of a data structure of remark event setting data. プレイデータのデータ構成の一例を示す図。The figure which shows an example of the data structure of play data. 主たる処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the main processes. 吹き出し管理処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a balloon management process. 吹き出しオブジェクトの第1の変形例を用いたゲーム画面例を示す図。The figure which shows the example of a game screen using the 1st modification of a balloon object. 吹き出しオブジェクトの第1の変形例の表示原理を説明するための図。The figure for demonstrating the display principle of the 1st modification of a balloon object. 吹き出しオブジェクトの第1の変形例を扱うための吹き出し管理処理の変形例の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the modification of the balloon management process for handling the 1st modification of a balloon object. 吹き出しオブジェクトの第2の変形例を用いたゲーム画面例を示す図。The figure which shows the example of a game screen using the 2nd modification of a balloon object. イベント空間ゲーム空間画像生成処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of an event space game space image generation process. 発言内容の表示手法の変形例を説明するための図。The figure for demonstrating the modification of the display method of an utterance content. 発言内容の表示手法の変形例を説明するための図。The figure for demonstrating the modification of the display method of an utterance content. 家庭用ゲーム装置のシステム構成の変形例を示す図。The figure which shows the modification of the system configuration | structure of a household game device. チャットに吹き出しを用いたゲーム画面例を示す図。The figure which shows the example of a game screen which used the speech balloon for chat. チャット吹き出し管理処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of chat speech balloon management processing.

〔第1実施形態〕
本発明を適用した第1実施形態として、立体視画像生成装置の1つである据置型の家庭用ゲーム装置において、立体視画像をベースとしたビデオゲームであって、キャラクタがゲームストーリに則した発言や会話をする自動の発言イベントが挿入されるRPG(ロールプレイングゲーム)を実行する例を挙げる。
尚、本発明が適用できるゲームジャンルはRPGに限るものではなく、立体視画像で表現されるビデオゲームであって発言イベント等の演出などで「吹き出し」を利用するビデオゲームであれば、シューティングゲームや、アクションゲーム、音楽ゲーム、戦略シミュレーションゲーム、仮想生物の育成ゲームなどその他のジャンルでも良い。また、その際「吹き出し」を利用する形態も、本実施形態でこれから説明するイベントでの利用に限らない。また、「吹き出し」で表示する内容は、発言内容の表示に限らず、例えば説明文や解説文、注釈の表示を目的としても良い。つまり、本実施形態をいわゆる「引き出し」にも同様に適用できる。
[First Embodiment]
As a first embodiment to which the present invention is applied, in a stationary home game device that is one of stereoscopic image generation devices, a video game based on a stereoscopic image, in which a character follows a game story An example of executing an RPG (role playing game) in which an automatic speech event for speech or conversation is inserted will be given.
Note that the game genre to which the present invention can be applied is not limited to RPG, and is a shooting game as long as it is a video game that is represented by a stereoscopic image and uses a “speech balloon” to produce a speech event or the like. Other genres such as an action game, a music game, a strategy simulation game, and a virtual creature training game may also be used. In this case, the form using the “balloon” is not limited to the use in the event described in the present embodiment. Further, the content displayed by the “speech balloon” is not limited to the display of the content of the remarks, and may be for the purpose of displaying, for example, an explanatory text, an explanatory text, and an annotation. That is, the present embodiment can be similarly applied to a so-called “drawer”.

[ゲーム装置の構成]
図1は、本実施形態における立体視画像生成装置である据置型の家庭用ゲーム装置のシステム構成の一例を示す図である。据置型の家庭用ゲーム装置1200は、ゲーム装置本体1201と、立体視画像を表示できるビデオモニタ1220と、ゲームコントローラ1230とを備える。
[Configuration of game device]
FIG. 1 is a diagram illustrating an example of a system configuration of a stationary home-use game device that is a stereoscopic image generation device according to the present embodiment. The stationary home game device 1200 includes a game device main body 1201, a video monitor 1220 that can display a stereoscopic image, and a game controller 1230.

ゲーム装置本体1201は、例えば制御ユニット1210と、光学ディスク1202やメモリカード1204といった情報記憶媒体の読み取り装置1206,1208とを備える。そして、家庭用ゲーム装置1200は、光学ディスク1202やメモリカード1204からゲームプログラム及び各種設定データを読み出し、ゲームコントローラ1230に為される操作入力等に基づいて制御ユニット1210が各種のゲーム演算を実行してビデオゲームを実行する。   The game apparatus main body 1201 includes, for example, a control unit 1210 and information storage medium reading devices 1206 and 1208 such as an optical disk 1202 and a memory card 1204. Then, the home game device 1200 reads the game program and various setting data from the optical disk 1202 and the memory card 1204, and the control unit 1210 executes various game operations based on operation inputs made by the game controller 1230. Run video games.

制御ユニット1210は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリなどの電気電子素子を備え、家庭用ゲーム装置1200の各部を制御する。   The control unit 1210 includes various microprocessors such as a CPU (Central Processing Unit), GPU (Graphics Processing Unit), and DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), and electric and electronic elements such as an IC memory. Each part of the game device 1200 is controlled.

また、制御ユニット1210は、通信装置1212と、近距離無線通信モジュール1214とを備える。
通信装置1212は、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1と有線又は無線接続し、外部装置との間でデータ通信を実現する。近距離無線通信モジュール1214は、近距離無線を介して複数のゲームコントローラ1230などの付属機器との間でデータの送受信を実現する。近距離無線の形式としては、例えばBluetooth(登録商標)やUWB(超広帯域無線)、無線LANなどが適宜適用可能である。
The control unit 1210 includes a communication device 1212 and a short-range wireless communication module 1214.
The communication device 1212 is wired or wirelessly connected to a communication line 1 such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network) to realize data communication with an external device. The short-range wireless communication module 1214 realizes data transmission / reception with a plurality of accessory devices such as a plurality of game controllers 1230 via short-range wireless. As a short-range wireless format, for example, Bluetooth (registered trademark), UWB (ultra-wide band wireless), wireless LAN, or the like can be applied as appropriate.

そして、制御ユニット1210は、ゲームコントローラ1230から受信した操作入力信号に基づいて左眼用の3DCG(左眼用の視点となる仮想カメラでゲーム空間内を撮影した画像)と右眼用の3DCG(右眼用の視点となる仮想カメラでゲーム空間内を撮影した画像)とを元にして、それらに各種情報表示体を付加した左眼用立体視画像と右眼用立体視画像を生成し、またゲーム音を生成してビデオゲームを実行する。   Then, the control unit 1210, based on the operation input signal received from the game controller 1230, 3DCG for the left eye (image taken in the game space with a virtual camera serving as the viewpoint for the left eye) and 3DCG for the right eye ( A left-eye stereoscopic image and a right-eye stereoscopic image in which various information display bodies are added to them based on a virtual camera that is a viewpoint for the right eye). In addition, a game sound is generated and a video game is executed.

生成された立体視画像に基づく映像信号やゲーム音に基づく音信号は、信号ケーブル1209で接続されたビデオモニタ1220(ディスプレイモニタ、音声信号やビデオ信号などの外部入力が可能なテレビを含む意)に出力される。尚、左眼用立体視画像と右眼用立体視画像は、ビデオモニタ1220で採用される立体視方式に適合した画像として生成され、それらに基づく映像信号の送出方式も、ビデオモニタ1220で採用される立体視方式に適合したものとする。   The video signal based on the generated stereoscopic image and the sound signal based on the game sound are connected to a video monitor 1220 connected via a signal cable 1209 (including a display monitor and a television capable of external input such as an audio signal and a video signal). Is output. Note that the left-eye stereoscopic image and the right-eye stereoscopic image are generated as images suitable for the stereoscopic system adopted by the video monitor 1220, and a video signal transmission method based on them is also adopted by the video monitor 1220. It shall be suitable for the stereoscopic viewing method.

ビデオモニタ1220は、立体視画像(一般に「3次元映像」とも呼ばれる立体感を与える映像)を所定の原理に基づいて表示する画像表示装置である。
本実施形態では、ビデオモニタ1220には、画像を表示するフラットパネルディスプレイ1222と、音声を放音出力するスピーカ1224と、液晶シャッター方式に分類される立体視メガネ1226と、当該メガネに制御信号を送信するためのIRエミッター1228とを備える。
The video monitor 1220 is an image display device that displays a stereoscopic image (a video that gives a stereoscopic effect generally called “three-dimensional video”) based on a predetermined principle.
In this embodiment, the video monitor 1220 includes a flat panel display 1222 that displays an image, a speaker 1224 that outputs sound, a stereoscopic glasses 1226 that are classified as a liquid crystal shutter system, and a control signal for the glasses. IR emitter 1228 for transmitting.

プレーヤは、立体視メガネ1226を装着し、ビデオモニタ1220のフラットパネルディスプレイ1222に表示される左眼用立体視画像や右眼用立体視画像を見つつ、スピーカ1224から放音されるゲーム音を聞きながらゲームコントローラ1230で各種操作を入力してゲームを楽しむ。   The player wears stereoscopic glasses 1226, and plays the game sound emitted from the speaker 1224 while viewing the left-eye stereoscopic image and the right-eye stereoscopic image displayed on the flat panel display 1222 of the video monitor 1220. While listening, the game controller 1230 inputs various operations to enjoy the game.

尚、ビデオモニタ1220の立体視の原理は、適宜設定可能である。もし、裸眼立体視方式を採用する場合には、立体視メガネ1226及びIRエミッター1228を省略することができる。   Note that the principle of stereoscopic viewing of the video monitor 1220 can be set as appropriate. If the autostereoscopic method is employed, the stereoscopic glasses 1226 and the IR emitter 1228 can be omitted.

ゲームコントローラ1230は、内蔵するコントローラ制御ユニット1260を中心に、各種入力デバイス及び出力デバイスをローカルバス回路によって接続しており、コントローラ制御ユニット1260によって各デバイス間の入出力を制御する。   The game controller 1230 connects various input devices and output devices by a local bus circuit with a built-in controller control unit 1260 as a center, and the controller control unit 1260 controls input / output between the devices.

入力デバイスとしては、例えば選択の決定やキャンセル、タイミングの入力などに用いられるプッシュボタン1232と、図で言うところの上下左右の各方向を単独入力するための方向入力キー1234と、操作方向と操作量とを同時に入力することのできる右アナログレバー1236及び左アナログレバー1238とを備える。   As input devices, for example, push buttons 1232 used for selection decision and cancellation, timing input, and the like, direction input keys 1234 for individually inputting each of the up, down, left and right directions in the figure, the operation direction and the operation A right analog lever 1236 and a left analog lever 1238 capable of inputting the amount simultaneously.

コントローラ制御ユニット1260は、例えば、CPUやローカルバス回路におけるデータ通信を制御するバスコントローラICなどの各種マイクロチップやICメモリなどの電子部品、及びゲーム装置本体1201の近距離無線通信モジュール1214と無線通信を実現する近距離無線通信モジュール1262、などを搭載する。   The controller control unit 1260 wirelessly communicates with various microchips such as a bus controller IC that controls data communication in a CPU or a local bus circuit, an electronic component such as an IC memory, and the short-range wireless communication module 1214 of the game apparatus main body 1201. A short-range wireless communication module 1262 that realizes the above is mounted.

そして、コントローラ制御ユニット1260は、ローカルバス回路を介して各種入力デバイスから送信された信号に基づいて操作入力信号を生成し、生成した操作入力信号を近距離無線通信モジュール1262でゲーム装置本体1201へ送信する。また、スピーカやバイブレータなどの出力デバイスを搭載する構成では、近距離無線通信モジュール1262によって、ゲーム装置本体1201から送出された出力信号を受信した場合には、受信した出力信号に対応づけられている出力デバイスへ制御信号を生成、送出することができる。尚、コントローラ制御ユニット1260及び各部が必要とする電力は、ゲームコントローラ1230に内蔵されたバッテリー(非図示)から供給される。   Then, the controller control unit 1260 generates an operation input signal based on signals transmitted from various input devices via the local bus circuit, and the generated operation input signal is transmitted to the game apparatus main body 1201 by the short-range wireless communication module 1262. Send. Further, in a configuration in which an output device such as a speaker or a vibrator is mounted, when an output signal sent from the game apparatus main body 1201 is received by the short-range wireless communication module 1262, the output signal is associated with the received output signal. A control signal can be generated and sent to the output device. The electric power required by the controller control unit 1260 and each unit is supplied from a battery (not shown) built in the game controller 1230.

尚、ゲーム実行に必要なプログラム及び各種設定データは、通信装置1212を介して通信回線1に接続し、外部装置からダウンロードして取得する構成であっても良い。ここで言う、通信回線とは、データ授受が可能な通信路を意味する。すなわち、通信回線とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。   The program and various setting data necessary for game execution may be connected to the communication line 1 via the communication device 1212 and downloaded from an external device. Here, the communication line means a communication path through which data can be exchanged. That is, the communication line includes a dedicated line (dedicated cable) for direct connection, a LAN (Local Area Network) such as Ethernet (registered trademark), and a communication network such as a telephone communication network, a cable network, and the Internet. In addition, the communication method may be wired or wireless.

[ゲームの概要説明]
図2は、本実施形態におけるゲーム画面例を示す図である。本実施形態のRPGのゲーム画面は、ゲームプレイ中に主に表示されるメインゲーム画面W2と、発言イベント時に限定的に表示される発言イベント画面W4とを含む。
[Overview of the game]
FIG. 2 is a diagram illustrating an example of a game screen in the present embodiment. The RPG game screen of the present embodiment includes a main game screen W2 that is mainly displayed during game play, and a speech event screen W4 that is displayed limitedly during a speech event.

メインゲーム画面W2は、左眼用立体視画像と右眼用立体視画像を、ビデオモニタ1220で所定周期で切り換え表示することにより、立体視メガネ1226を装着したプレーヤに見える画面である。図示の例は平面的な画像として示しているが、プレーヤには立体感ある映像として視認されるものとする。   The main game screen W2 is a screen that is visible to the player wearing the stereoscopic glasses 1226 by switching and displaying the left-eye stereoscopic image and the right-eye stereoscopic image on the video monitor 1220 at a predetermined cycle. Although the illustrated example is shown as a planar image, it is assumed that the player visually recognizes a stereoscopic image.

仮想三次元空間には、背景オブジェクト3(例えば、地面の凹凸を構成する地面オブジェクトや、空を描いたテクスチャが内面に適用される半球状の天球オブジェクト)が配置されてゲーム空間内が形成され、そこにプレーヤキャラクタ2や、NPC(ノンプレーヤキャラクタ)である敵4となるキャラクタオブジェクトが配置される。
メインゲーム画面W2を見せるための左眼用立体視画像は、プレーヤキャラクタ2とその周囲の様子を左眼用の視点となる左仮想カメラで撮影した3DCG、すなわち左眼用ゲーム空間画像をベースに、左眼用の所定位置(左仮想カメラから所定の奥行位置情報を示すように所定の両眼視差分を考慮した位置)に、プレーヤキャラクタ2のヒットポイント表示20や、敵4に関する情報表示欄21(図の例では、「吹き出し」の一種である「引き出し」形態で表示)などの2Dスプライト画像が合成されて生成される。右眼用立体視画像についても、同様に右眼用の視点となる右仮想カメラで撮影した3DCG(右眼用ゲーム空間画像)に、右眼用の所定位置にヒットポイント表示20や、情報表示欄21などを合成して生成される。
In the virtual three-dimensional space, a background object 3 (for example, a ground object that forms an uneven surface of the ground or a hemispherical celestial object to which a texture depicting the sky is applied to the inner surface) is arranged to form the game space. A character object to be the player character 2 and the enemy 4 which is an NPC (non-player character) is arranged there.
The left-eye stereoscopic image for displaying the main game screen W2 is based on 3DCG obtained by photographing the player character 2 and the surroundings with the left virtual camera as the left-eye viewpoint, that is, based on the left-eye game space image. , A hit point display 20 of the player character 2 and an information display field regarding the enemy 4 at a predetermined position for the left eye (a position in consideration of a predetermined binocular parallax so as to indicate predetermined depth position information from the left virtual camera) 2D sprite images such as 21 (displayed in a “drawer” form, which is a kind of “speech balloon” in the example in the figure), are generated by being synthesized. Similarly for the right-eye stereoscopic image, the hit point display 20 and the information display at a predetermined position for the right eye are displayed on the 3DCG (right-eye game space image) captured by the right virtual camera as the right-eye viewpoint. It is generated by synthesizing the column 21 and the like.

発言イベント画面W4も、メインゲーム画面W2と同様に左眼用立体視画像と右眼用立体視画像を、ビデオモニタ1220で所定周期で切り換え表示されることにより、立体視メガネ1226を掛けたプレーヤには立体的に見える画面である。   Similarly to the main game screen W2, the speech event screen W4 is also displayed by switching between the left-eye stereoscopic image and the right-eye stereoscopic image on the video monitor 1220 at a predetermined cycle, and thereby the player wearing the stereoscopic glasses 1226. Is a three-dimensional screen.

発言イベント画面W4を生成する際には、所定の発言イベントのシーンの構成を定義するデータに従って、メインゲーム画面W2を撮影するためのメインゲーム空間とは別に、イベント用のゲーム空間(イベント空間)が形成され、そこに当該イベントに係わるキャラクタのオブジェクト(図2の例では、プレーヤキャラクタ2と、NPC7のオブジェクト)と、吹き出しオブジェクト6とが配置される。そして、イベント空間内に設置された左仮想カメラC1及び右仮想カメラC2で、イベント空間内を撮影して左ゲーム空間画像及び右ゲーム空間画像が生成される。
尚、メインゲーム空間のキャラクタをそのまま使って発言イベントを実行する場合には、イベント空間の設定を省略しても良いのは勿論である。
When generating the speech event screen W4, an event game space (event space) separate from the main game space for shooting the main game screen W2 according to data defining the scene configuration of a predetermined speech event Are formed, and character objects related to the event (in the example of FIG. 2, player character 2 and NPC 7 object) and a balloon object 6 are arranged therein. Then, the left virtual camera C1 and the right virtual camera C2 installed in the event space shoot the event space to generate a left game space image and a right game space image.
Of course, when the speech event is executed using the character in the main game space as it is, the setting of the event space may be omitted.

「発言イベント」は、ゲームを盛り上げるためにゲームの途中途中で自動的に挿入される演出イベントであって、ゲーム中に発言イベント毎に指定されたイベント発動条件を満たすと実行される。発言イベントに係わるキャラクタの位置、動作、発言内容、及び左右の仮想カメラの位置や姿勢、画角などは、ゲーム制作者によって予め設定されている。つまり、所定のシナリオに従って自動的に実行される。そして、イベントが終了すると、メインゲーム画面W2の表示に戻る。   The “speech event” is an effect event that is automatically inserted in the middle of the game to make the game exciting, and is executed when an event triggering condition specified for each speech event is satisfied during the game. The position of the character related to the speech event, the motion, the content of the speech, the positions and orientations of the left and right virtual cameras, the angle of view, and the like are preset by the game creator. That is, it is automatically executed according to a predetermined scenario. When the event ends, the display returns to the main game screen W2.

発言イベントの中心は、ゲームに登場するキャラクタの発言であり、会話形式であったり、単独での心情の吐露であったりする。そして、発言内容5(図示の例では台詞文字)は、当該発言をしたキャラクタと視覚的に対応づけされる「吹き出し」つまり吹き出しオブジェクト6によって表示する。   The center of a speech event is a speech of a character appearing in the game, which may be a conversational form or a single emotional discharge. The speech content 5 (the dialogue character in the illustrated example) is displayed by a “speech balloon”, that is, a speech balloon object 6 that is visually associated with the character that made the speech.

例えば、図2で示す発言イベント画面W4の例では、NPC7の肩越しに、プレーヤキャラクタ2のオブジェクトが映され、プレーヤキャラクタ2の発言内容が、プレーヤキャラクタ2に対応づけられる吹き出しオブジェクト6により表示されている。図示された形態の吹き出しオブジェクト6では、角状に引き出された部分がプレーヤキャラクタ2に向かって形成されており、吹き出しオブジェクト6で示される発言内容がプレーヤキャラクタ2に対応づけられていること、すなわちプレーヤキャラクタ2が発言キャラクタであることを示している。   For example, in the example of the speech event screen W4 shown in FIG. 2, the object of the player character 2 is displayed over the shoulder of the NPC 7, and the content of the speech of the player character 2 is displayed by a balloon object 6 associated with the player character 2. Yes. In the balloon object 6 in the form shown in the figure, the angularly drawn portion is formed toward the player character 2, and the content of the speech indicated by the balloon object 6 is associated with the player character 2, that is, It shows that the player character 2 is a speaking character.

図3は、吹き出しオブジェクト6の表示原理を説明するための図であって、ゲーム空間の斜視図に相当する。図4及び図5は、プレーヤキャラクタ2が発言キャラクタであるとの前提で、吹き出しオブジェクト6と発言キャラクタとの相対位置関係を示す正面図及び側面図に相当する。   FIG. 3 is a diagram for explaining the display principle of the balloon object 6 and corresponds to a perspective view of the game space. 4 and 5 correspond to a front view and a side view showing a relative positional relationship between the balloon object 6 and the speaking character on the assumption that the player character 2 is a speaking character.

これらの図に示すように、本実施形態の吹き出しオブジェクト6は、厚さが無い又は薄い板状ポリゴンの集合であって、発言内容5が主に示される吹き出し本体61と、当該吹き出し本体から延出されてプレーヤキャラクタ2(図の例における発言キャラクタ)に向けられる吹き出し指示体62とで構成される。そして、吹き出し指示体62は、吹き出し本体61との連結箇所を構成する指示体連結部63を有する。   As shown in these drawings, the balloon object 6 of the present embodiment is a set of plate-like polygons having no thickness or a thin thickness, and a balloon main body 61 in which the remark content 5 is mainly shown, and extending from the balloon main body. And a balloon indicator 62 directed to the player character 2 (speaking character in the example in the figure). The balloon indicator 62 has an indicator coupling portion 63 that constitutes a coupling location with the balloon body 61.

具体的には、本実施形態の吹き出し本体61は、四隅の頂点P1〜P4により定義される矩形状の板ポリゴンである。吹き出しオブジェクト6が新規に配置される場合、当初、吹き出し本体61は、発言イベントに登場するキャラクタ等の何れのオブジェクトよりも左仮想カメラC1及び右仮想カメラC2に近い本体配置基準面12上に配置される。この本体配置基準面12は、仮想カメラのカメラ座標系Zc軸(画面奥行方向)に対して直角を成す平面である。
尚、その後更に、吹き出し本体61の面の向きを、面法線ベクトルVnが(図5参照)、左仮想カメラC1又は右仮想カメラC2、或いはそれらの中間点(立体視画像を生成しない場合ならば視点が配置されるであろう位置)に向くように調整するとしても良い。
Specifically, the balloon body 61 of the present embodiment is a rectangular plate polygon defined by vertices P1 to P4 at four corners. When the balloon object 6 is newly arranged, the balloon main body 61 is initially arranged on the main body arrangement reference plane 12 closer to the left virtual camera C1 and the right virtual camera C2 than any object such as a character appearing in the speech event. Is done. The main body arrangement reference plane 12 is a plane that is perpendicular to the camera coordinate system Zc axis (screen depth direction) of the virtual camera.
Further, after that, the direction of the surface of the balloon body 61 is determined by the surface normal vector Vn (see FIG. 5), the left virtual camera C1 or the right virtual camera C2, or an intermediate point thereof (if a stereoscopic image is not generated). For example, it may be adjusted so as to face the position where the viewpoint will be arranged.

また、吹き出し本体61の配置位置に関しては、本体配置基準面12のように、奥行位置の基準面を定義するのではなく所定の奥行幅を持った基準域を定義し、当該基準域内に配置する構成としても良い。また、本体配置基準面12は、一つに限らずカメラ座標系Zc軸方向に相互に近接した多層状に複数用意するとしても良い。   As for the arrangement position of the balloon main body 61, a reference area having a predetermined depth width is defined instead of defining a reference plane for the depth position, as in the main body arrangement reference plane 12, and arranged within the reference area. It is good also as a structure. Further, the main body arrangement reference surface 12 is not limited to one, and a plurality of main body arrangement reference surfaces 12 may be prepared in a multilayer shape close to each other in the camera coordinate system Zc axis direction.

吹き出し指示体62は、吹き出し本体61の下端部に連結される矩形ポリゴンからなる指示体連結部63と、当該指示体連結部63の下端部と指示体先端頂点P9によって定義される三角形の板ポリゴンとを備える。   The balloon indicator 62 is a triangular plate polygon defined by an indicator coupling part 63 composed of a rectangular polygon coupled to the lower end of the balloon body 61, and the lower end of the indicator coupling part 63 and the indicator tip apex P9. With.

具体的には、指示体連結部63は、四隅の頂点P5〜P8で定義される板ポリゴンであって、上端の2つの頂点P5,P6は、吹き出し本体61の下辺、左右中央付近に設定されている。下端の2つの頂点P7,P8の左右間隔は上端の2つの頂点P5,P6の左右間隔よりも狭くなる相対位置関係を有し、且つ仮想カメラから見ると上端の2つの頂点P5,P6よりもすこし奧側に設定される。つまり、吹き出し指示体62の最大屈曲部が吹き出し本体61に近い側に位置するように、複数の指示体連結部63の相対角度が設定される。よって、図5で示すように、左仮想カメラC1及び右仮想カメラC2のカメラ座標系Zc軸に対して側方から見ると、吹き出し指示体62は、吹き出し本体61に対して指示体連結部63でカメラ座標系奥行方向の奧側へ屈曲された格好となる。   Specifically, the indicator connecting portion 63 is a plate polygon defined by four corner vertices P5 to P8, and the two upper vertices P5 and P6 are set near the lower side and the center of the left and right of the balloon body 61. ing. The left and right vertices P7 and P8 have a relative positional relationship in which the left and right vertices are narrower than the left and right vertices P5 and P6. Set to a little bit side. That is, the relative angles of the plurality of indicator coupling portions 63 are set so that the maximum bent portion of the balloon indicator 62 is positioned on the side closer to the balloon body 61. Therefore, as shown in FIG. 5, when viewed from the side with respect to the camera coordinate system Zc axis of the left virtual camera C <b> 1 and the right virtual camera C <b> 2, the balloon indicator 62 is connected to the balloon coupling unit 63 with respect to the balloon body 61. With the camera coordinate system, it looks like it is bent to the heel side in the depth direction.

吹き出し指示体62の先端部分は、指示体連結部63の下端の2つの頂点P7,P8と、指示体先端頂点P9によって定義される三角形の板ポリゴンである。   The tip portion of the balloon indicator 62 is a triangular plate polygon defined by the two vertices P7 and P8 at the lower end of the indicator connecting portion 63 and the indicator tip vertex P9.

図4及び図5に示すように、吹き出し指示体62の指示体先端頂点P9は、指示体連結部63の上端に設定されている指示体基点70と、発言キャラクタの発声箇所に予め設定されている発声基準点72とを結ぶ直線L1と、当該発声基準点72から所定半径rの球形境界面74との交点に設定される。   As shown in FIGS. 4 and 5, the indicator tip apex P <b> 9 of the balloon indicator 62 is set in advance at the indicator base point 70 set at the upper end of the indicator connecting portion 63 and the utterance location of the speaking character. It is set at the intersection of a straight line L1 connecting the utterance reference point 72 and the spherical boundary surface 74 having a predetermined radius r from the utterance reference point 72.

発声基準点72は、発言キャラクタが発声する箇所の基準点である。図の例では、プレーヤキャラクタ2を人型としているので、その頭部中心に設けてあるが、発言キャラクタのデザインに応じて適宜設定する。   The utterance reference point 72 is a reference point of a place where the utterance character utters. In the example shown in the figure, the player character 2 is a humanoid, so it is provided at the center of the head, but is set as appropriate according to the design of the comment character.

球形境界面74は、吹き出しオブジェクト6の吹き出し指示体62が、発言キャラクタに近接する限界面の役割を果たす。よって、その半径rは、発言キャラクタになり得るキャラクタ毎に適宜定義されている。   The spherical boundary surface 74 serves as a limit surface where the balloon indicator 62 of the balloon object 6 is close to the speaking character. Therefore, the radius r is appropriately defined for each character that can be a speaking character.

また、指示体連結部63の下端の2つの頂点P7,P8は、吹き出しオブジェクト6が新規配置された当初段階では吹き出し本体61の左右中心線L3からそれぞれ等距離に設定される。しかし、指示体先端頂点P9が設定されると、吹き出し本体61の左右中心線L3から指示体先端頂点P9の左右オフセット距離D2に応じた距離だけ、吹き出し本体61の左右中心線L3から見た指示体先端頂点P9の配置方向にオフセットされる。
この結果、指示体連結部63の部分によって、吹き出し指示体62は、吹き出し本体61と、カメラ座標系Zc軸方向(奥行方向)ならびにXc軸方向(左右方向)に滑らかに接続することとなる。
Further, the two vertices P7 and P8 at the lower end of the indicator connecting portion 63 are set at equal distances from the left and right center line L3 of the balloon body 61 at the initial stage when the balloon object 6 is newly arranged. However, when the indicator tip vertex P9 is set, the instruction viewed from the left / right center line L3 of the balloon body 61 by a distance corresponding to the left / right offset distance D2 of the indicator tip vertex P9 from the left / right center line L3 of the balloon body 61 is set. It is offset in the arrangement direction of the body tip vertex P9.
As a result, the balloon indicator 62 is smoothly connected to the balloon main body 61 in the camera coordinate system Zc-axis direction (depth direction) and the Xc-axis direction (left-right direction) by the portion of the indicator coupling portion 63.

尚、一つの吹き出しオブジェクト6における指示体連結部63の構成数は、図示した一つの例に限らず、吹き出し指示体62の先端に向けて屈曲角度を徐々に変化させた複数の指示体連結部により配置構成するとしても良い。この場合、吹き出し本体61と吹き出し指示体62との連結関係が、より滑らかに見えるようになる。   Note that the number of constituents of the indicator connection unit 63 in one balloon object 6 is not limited to the illustrated example, but a plurality of indicator connection units in which the bending angle is gradually changed toward the tip of the balloon indicator 62. The arrangement may be made by In this case, the connection relationship between the balloon body 61 and the balloon indicator 62 appears to be smoother.

このように、本実施形態の吹き出しオブジェクト6の表示方法によれば、吹き出しオブジェクト6を、吹き出し本体61と吹き出し指示体62とで構成し、その吹き出し本体61をイベントに係わるキャラクタのオブジェクトのどれよりも仮想カメラに近い位置に配置できる。発言イベント画面W4となる左眼用立体視画像及び右眼用立体視画像では、吹き出しオブジェクト6が最も手前に表示されるので、発言イベントにおける重要な情報を見やすく表示することができる。その一方で、吹き出し本体61からは指示体連結部63を介して、吹き出し指示体62が発言キャラクタを指し示すように、カメラ座標系奧方向に延設される。よって、立体視画像をベースとしたビデオゲームでも、吹き出しオブジェクト6にて表示される発言内容5が何れのキャラクタによるものかが一目で分る。   Thus, according to the display method of the balloon object 6 of the present embodiment, the balloon object 6 is constituted by the balloon body 61 and the balloon indicator 62, and the balloon body 61 is any of the character objects related to the event. Can also be placed near the virtual camera. In the left-eye stereoscopic image and the right-eye stereoscopic image serving as the speech event screen W4, the balloon object 6 is displayed in the foreground, so that important information in the speech event can be easily displayed. On the other hand, the balloon body 61 is extended in the camera coordinate system heel direction so that the balloon indicator 62 points to the remarking character via the indicator coupling portion 63. Therefore, even in a video game based on a stereoscopic image, it can be seen at a glance which character the utterance content 5 displayed on the balloon object 6 is.

[機能ブロックの説明]
図6は、本実施形態における機能構成の一例を示す機能ブロック図である。同図に示すように本実施形態では、家庭用ゲーム装置1200は、操作入力部100と、処理部200と、音出力部350と、立体視画像表示部361と、通信部370と、記憶部500とを備える。
[Description of functional block]
FIG. 6 is a functional block diagram illustrating an example of a functional configuration according to the present embodiment. As shown in the figure, in this embodiment, the consumer game device 1200 includes an operation input unit 100, a processing unit 200, a sound output unit 350, a stereoscopic image display unit 361, a communication unit 370, and a storage unit. 500.

操作入力部100は、プレーヤによって為された各種の操作入力に応じて操作入力信号を処理部200に出力する。図1では、ゲームコントローラ1230が操作入力部100に該当する。   The operation input unit 100 outputs an operation input signal to the processing unit 200 in accordance with various operation inputs made by the player. In FIG. 1, the game controller 1230 corresponds to the operation input unit 100.

処理部200は、例えばマイクロプロセッサやASIC(特定用途向け集積回路)、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500をはじめ各機能部との間でデータの入出力を行うとともに、所定のプログラムやデータ、操作入力部100からの操作入力信号に基づいて各種の演算処理を実行して、据置型の家庭用ゲーム装置1200の動作を制御する。図1では、ゲーム装置本体1201に内蔵された制御ユニット1210が処理部200に該当する。
そして本実施形態における処理部200は、ゲーム演算部210と、音生成部250と、立体視画像生成部261と、通信制御部270とを備える。
The processing unit 200 is realized by electronic components such as a microprocessor, an ASIC (application specific integrated circuit), and an IC memory, and inputs / outputs data to / from each functional unit such as the operation input unit 100 and the storage unit 500. At the same time, various arithmetic processes are executed based on predetermined programs and data, and operation input signals from the operation input unit 100 to control the operation of the stationary home game device 1200. In FIG. 1, the control unit 1210 built in the game apparatus main body 1201 corresponds to the processing unit 200.
The processing unit 200 in this embodiment includes a game calculation unit 210, a sound generation unit 250, a stereoscopic image generation unit 261, and a communication control unit 270.

ゲーム演算部210は、ビデオゲームを実行するための各種処理を実行する。例えば、ゲーム空間設定部212を備え、仮想三次元空間内に背景オブジェクト3を配置してゲーム空間(メインゲーム空間、イベント用のゲーム空間(イベント空間))を形成し、そこにプレーヤキャラクタ2や敵4、NPC7などのキャラクタオブジェクトを配置する処理をする。   The game calculation unit 210 executes various processes for executing a video game. For example, the game space setting unit 212 is provided, the background object 3 is arranged in the virtual three-dimensional space to form a game space (main game space, event game space (event space)), and the player character 2 or A process of arranging character objects such as the enemy 4 and the NPC 7 is performed.

そして、キャラクタ動作制御部214を備え、プレーヤキャラクタ2のオブジェクトを操作入力部100からの操作入力に応じて動作させる処理、及び敵4やNPC7のオブジェクトを自動的に移動及び動作させるいわゆるAI制御をする処理を実行する。   A character motion control unit 214 is provided, and processing for moving the object of the player character 2 in accordance with an operation input from the operation input unit 100 and so-called AI control for automatically moving and moving the object of the enemy 4 or the NPC 7 are performed. Execute the process.

また、仮想カメラ制御部216を備え、ゲーム空間(メインゲーム空間、イベント用のゲーム空間(イベント空間))に設置された左仮想カメラC1及び右仮想カメラC2の位置や姿勢、画角など撮影パラメータを自動制御する処理を実行する。   In addition, the virtual camera control unit 216 is provided, and shooting parameters such as the position, posture, and angle of view of the left virtual camera C1 and the right virtual camera C2 installed in the game space (main game space, event game space (event space)). Executes the process of automatically controlling

その他、ゲーム演算部210は、プレーヤキャラクタ2と敵4のエンカウント判定、エンカウントした敵4との交戦処理、交戦によるダメージの反映処理、勝敗の判定処理などを実行する。また、適宜カウンタ、タイマーに係る計時処理、フラグ設定など、ビデオゲームの実行に必要な各種処理を実行することができる。尚、ビデオゲームの進行制御に関する処理は、公知のビデオゲーム(本実施形態であればRPG)のそれと同様にして実現できる。   In addition, the game calculation unit 210 performs an encounter determination between the player character 2 and the enemy 4, a battle process between the enemies 4 that has been counted, a process for reflecting damage due to the battle, a process for determining a win / loss. In addition, various processes necessary for the execution of the video game, such as a counter, a timer process relating to a timer, and a flag setting, can be executed as appropriate. The process related to the progress control of the video game can be realized in the same manner as that of a known video game (RPG in this embodiment).

また、本実施形態のゲーム演算部210は、更に発言イベント管理部218を有し、ゲーム進行状況が、発言イベント毎に用意されている発動条件を満たすか否かを判定する。   In addition, the game calculation unit 210 of the present embodiment further includes a speech event management unit 218, and determines whether or not the game progress condition satisfies a triggering condition prepared for each speech event.

発言イベント管理部218によって、イベント発動条件を満たすと判定された発言イベントがあれば、ゲーム演算部210は、当該イベントを発動し進行制御を開始する。
イベントの進行を開始すると、発動したイベント内容に応じて、ゲーム空間設定部212でイベント空間を形成し、キャラクタ動作制御部214でイベント空間内のキャラクタの動作制御し、仮想カメラ制御部216でイベント空間内の左仮想カメラC1及び右仮想カメラC2を制御する。
If there is a speech event determined by the speech event management unit 218 to satisfy the event triggering condition, the game calculation unit 210 triggers the event and starts progress control.
When the progress of the event is started, an event space is formed by the game space setting unit 212 according to the contents of the triggered event, the character motion control unit 214 controls the movement of the character in the event space, and the virtual camera control unit 216 controls the event. The left virtual camera C1 and the right virtual camera C2 in the space are controlled.

そして、引き出し管理部220によって、発言イベントで配置される吹き出しオブジェクト6の管理を実行する。本実施形態における引き出し管理部220は、更に本体制御部222と、指示体制御部224と、連結制御部226と、発言内容制御部228とを有する。   Then, the drawer management unit 220 executes management of the balloon objects 6 arranged in the speech event. The drawer management unit 220 in this embodiment further includes a main body control unit 222, an indicator control unit 224, a connection control unit 226, and a statement content control unit 228.

本体制御部222は、吹き出し本体61を配置する際の仮想カメラ(ゲーム空間画像生成のための視点)に基づく奥行位置の基準面又は基準域を定めた奥行配置基準(例えば、図3の本体配置基準面12)に従って、吹き出し本体61の奥行位置を定める。そして、吹き出し本体61のサイズの決定、向きの調整などに関する処理を行う。
具体的には、発言毎に定義される左仮想カメラC1及び右仮想カメラC2のカメラ座標系の所定奥行位置に、新たな吹き出しオブジェクト6の吹き出し本体四隅の頂点P1〜P4を、テンプレート通り設定する。
もし、吹き出し本体61の面の向きを仮想カメラに向けたい場合には、例えば、吹き出し本体61の面法線ベクトルが左仮想カメラC1、右仮想カメラC2、又はその中間位置の何れかを向くように、吹き出し本体61の向きを補正するとしても良い。
The main body control unit 222 is a depth arrangement reference (for example, the main body arrangement shown in FIG. 3) that defines a reference plane or reference area for the depth position based on a virtual camera (viewpoint for generating a game space image) when the balloon main body 61 is arranged. The depth position of the blowing body 61 is determined according to the reference plane 12). Then, processing related to determination of the size of the balloon body 61, adjustment of the orientation, and the like is performed.
Specifically, the vertices P1 to P4 at the four corners of the balloon body of the new balloon object 6 are set according to the template at predetermined depth positions in the camera coordinate system of the left virtual camera C1 and the right virtual camera C2 defined for each statement. .
If the direction of the surface of the balloon body 61 is to be directed to the virtual camera, for example, the surface normal vector of the balloon body 61 is directed to the left virtual camera C1, the right virtual camera C2, or any of the intermediate positions thereof. In addition, the orientation of the balloon body 61 may be corrected.

指示体制御部224は、吹き出し本体61と発言キャラクタとの対応関係を示す吹き出し指示体62を配置する。具体的には、吹き出しオブジェクト6のテンプレートで吹き出し本体に対して所定位置に配置される指示体先端頂点P9(図4参照)を、吹き出し本体61から発言キャラクタを向いたライン上で、当該発言キャラクタの発声部位から所定距離離れた位置に移動し調整する。
また、吹き出し指示体62の指示体先端頂点P9側の部分を次のように処理してもよい。すなわち、吹き出し指示体62の奥行位置が発言キャラクタに近づくほど透明度が高くなるように吹き出し指示体部分の透明度を設定する。こうすることで、吹き出し指示体62がぼんやりと発言キャラクタを指し示しているように表現でき、ゲーム画面に表れる視覚的な世界観を阻害することが無い。
The indicator control unit 224 arranges a balloon indicator 62 that indicates the correspondence between the balloon body 61 and the comment character. Specifically, an indicator tip apex P9 (see FIG. 4) arranged at a predetermined position with respect to the balloon body in the template of the balloon object 6 is placed on the line from the balloon body 61 toward the speaking character. Move to a position away from the utterance site by a predetermined distance.
Further, the portion on the indicator tip apex P9 side of the balloon indicator 62 may be processed as follows. That is, the transparency of the balloon indicator part is set so that the transparency becomes higher as the depth position of the balloon indicator 62 approaches the speaking character. In this way, the balloon indicator 62 can be expressed as if it is silently pointing to the speaking character, and does not hinder the visual view of the world that appears on the game screen.

連結制御部226は、指示体連結部63の形状を、吹き出し本体61と吹き出し指示体62の先端位置の相対位置関係に応じて調整し、両者をスムーズに連結し、あたかも吹き出し本体61から吹き出し指示体62が一体的且つ滑らかに発言キャラクタに向けて延出・屈曲しているかのように見せる。
具体的には、指示体連結部63の下端2つの頂点P7,P8の左右位置を、吹き出しオブジェクト6のテンプレートで指示された位置から、指示体先端頂点P9に近づけるようにオフセットする。
The connection control unit 226 adjusts the shape of the indicator coupling unit 63 according to the relative positional relationship between the tip positions of the balloon body 61 and the balloon indicator 62, and smoothly connects the two. The body 62 is shown to be integrated and smoothly extended and bent toward the speaking character.
Specifically, the left and right vertices P7 and P8 of the lower end of the indicator connecting portion 63 are offset from the position indicated by the template of the balloon object 6 so as to approach the indicator tip vertex P9.

発言内容制御部228は、発言内容5を吹き出しオブジェクト6で表示させるための補助処理を実行する。例えば、当該台詞のテキストをテクスチャに合成することで、吹き出しオブジェクト6に適用されるテクスチャを生成する。   The speech content control unit 228 executes auxiliary processing for displaying the speech content 5 with the balloon object 6. For example, the texture applied to the balloon object 6 is generated by synthesizing the text of the dialogue with the texture.

また、ゲーム演算部210は、システム時刻計時部248を含む。システム時刻計時部248は、CPUの内部クロックを利用して各種タイマーなどの計時処理を実行する。   In addition, the game calculation unit 210 includes a system time counter 248. The system timekeeping unit 248 executes timekeeping processing such as various timers using the internal clock of the CPU.

その他、ゲーム演算部210は、ゲーム進行に必要な情報処理(例えば、外部装置から受信した情報のデコード、テクスチャの展開、ヒット判定、フラグ設定など)や、ビデオゲームの実行に必要な各種処理を実行することができる。   In addition, the game calculation unit 210 performs information processing necessary for the progress of the game (for example, decoding of information received from an external device, texture development, hit determination, flag setting, etc.) and various processes necessary for executing the video game. Can be executed.

音生成部250は、例えばデジタルシグナルプロセッサ(DSP)や、音声合成ICなどのプロセッサ、音声ファイル再生可能なオーディオコーデック等によって実現され、ゲーム演算部210による処理結果に基づいてゲームに係る効果音やBGM、各種操作音の音信号を生成し、音出力部350に出力する。尚、発言内容を音声で再生する構成では、吹き出しオブジェクト6の表示に応じて、発言内容を読み上げる音声をデコードするとしても良い。   The sound generation unit 250 is realized by, for example, a digital signal processor (DSP), a processor such as a voice synthesis IC, an audio codec that can play back an audio file, and the like. BGM and sound signals of various operation sounds are generated and output to the sound output unit 350. In the configuration in which the content of the speech is reproduced by sound, the sound that reads out the content of the speech may be decoded according to the display of the balloon object 6.

音出力部350は、音生成部250から入力される音信号に基づいて効果音やBGM等を音出力するための装置である。図1ではビデオモニタ1220のスピーカ1224がこれに該当する。   The sound output unit 350 is a device for outputting sound effects, BGM, and the like based on the sound signal input from the sound generation unit 250. In FIG. 1, the speaker 1224 of the video monitor 1220 corresponds to this.

立体視画像生成部261は、例えば、デジタルシグナルプロセッサ(DSP)などのプロセッサ、その制御プログラム、フレームバッファ等の描画フレーム用ICメモリ等によって実現される。立体視画像生成部261は、所定の画像生成タイミング(例えば1/240秒)で左仮想カメラC1を視点とするゲーム空間の画像を元にした左眼用立体視画像と、右仮想カメラC2を視点とするゲーム空間の画像を元にした右眼用立体視画像を交互に生成し、生成した立体視画像の画像信号を立体視画像表示部361に出力する。
尚、ビデオモニタ1220の立体視表示原理によっては、適宜、左眼用立体視画像及び右眼用立体視画像を同時生成し、同時出力するものとする。
The stereoscopic image generation unit 261 is realized by, for example, a processor such as a digital signal processor (DSP), a control program thereof, a drawing frame IC memory such as a frame buffer, and the like. The stereoscopic image generation unit 261 generates a left-eye stereoscopic image based on a game space image with the left virtual camera C1 as a viewpoint and a right virtual camera C2 at a predetermined image generation timing (for example, 1/240 seconds). The right-eye stereoscopic image based on the game space image as the viewpoint is generated alternately, and the generated stereoscopic image signal is output to the stereoscopic image display unit 361.
Note that, depending on the stereoscopic display principle of the video monitor 1220, the left-eye stereoscopic image and the right-eye stereoscopic image are appropriately generated and output simultaneously.

立体視画像表示部361は、立体視画像生成部261から入力される画像信号に基づいて立体視可能にゲーム画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置と、当該画像表示装置の立体視原理に対応した立体視メガネ及びそれに制御信号を送信する送信機などによって実現できる。図1ではビデオモニタ1220のフラットパネルディスプレイ1222、立体視メガネ1226、IRエミッター1228が該当する。   The stereoscopic image display unit 361 displays a game image in a stereoscopic manner based on the image signal input from the stereoscopic image generation unit 261. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), a projector, or a head mounted display, stereoscopic glasses corresponding to the stereoscopic vision principle of the image display device, and a transmitter that transmits a control signal thereto. In FIG. 1, the flat panel display 1222, the stereoscopic glasses 1226, and the IR emitter 1228 of the video monitor 1220 correspond.

通信制御部270は、データ通信に係るデータ処理を実行し、通信部370を介して外部装置とのデータのやりとりを実現する。   The communication control unit 270 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 370.

通信部370は、通信回線1と物理レベルで接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図1では通信装置1212がこれに該当する。   The communication unit 370 connects to the communication line 1 at a physical level to realize communication. For example, it is realized by a wireless communication device, a modem, a TA (terminal adapter), a cable communication cable jack, a control circuit, and the like, and the communication device 1212 corresponds to this in FIG.

記憶部500は、処理部200に家庭用ゲーム装置1200を統合的に制御させるための諸機能を実現するためのプログラムや、ビデオゲームの進行を実行するためのプログラム、各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。   The storage unit 500 stores a program for realizing various functions for causing the processing unit 200 to control the consumer game device 1200 in an integrated manner, a program for executing a video game, various data, and the like. Further, it is used as a work area of the processing unit 200, and temporarily stores calculation results executed by the processing unit 200 according to various programs, input data input from the operation input unit 100, and the like. This function is realized by, for example, an IC memory such as a RAM and a ROM, a magnetic disk such as a hard disk, and an optical disk such as a CD-ROM and DVD.

本実施形態の記憶部500は、システムプログラム501と、ゲームプログラム502と、メインゲーム空間設定データ510と、キャラクタ初期設定データ512と、吹き出しテンプレートデータ514と、発言イベント設定データ520とを予め記憶している。また、ゲームの準備や進行、並びに画像生成に伴って随時生成や更新が行われるデータとして、プレイデータ524と、システム時刻590とを記憶する。また、記憶部500は、立体視画像生成部261の記憶領域としても利用されるので、左眼用立体視画像及び右眼用立体視画像を生成する過程で使用する画像データを適宜記憶することができる。   The storage unit 500 of the present embodiment stores a system program 501, a game program 502, main game space setting data 510, character initial setting data 512, balloon template data 514, and speech event setting data 520 in advance. ing. In addition, play data 524 and system time 590 are stored as data that is generated and updated as needed in accordance with game preparation and progress and image generation. The storage unit 500 is also used as a storage area of the stereoscopic image generation unit 261. Therefore, the storage unit 500 appropriately stores image data used in the process of generating the left-eye stereoscopic image and the right-eye stereoscopic image. Can do.

システムプログラム501は、家庭用ゲーム装置1200のコンピュータとしての入出力の基本機能を実現するためのプログラムである。ゲームプログラム502は、処理部200が読み出して実行することによってゲーム演算部210としてゲーム進行制御するための諸機能を実現させるためのアプリケーションソフトである。尚、ゲームプログラム502は、システムプログラム501の一部として組み込まれた構成であっても良い。   The system program 501 is a program for realizing input / output basic functions as a computer of the consumer game device 1200. The game program 502 is application software for realizing various functions for controlling the game progress as the game calculation unit 210 by being read and executed by the processing unit 200. The game program 502 may be configured as a part of the system program 501.

メインゲーム空間設定データ510は、仮想三次元空間にメインゲーム画面W2の撮影に使用するメインゲーム空間を構成するための背景オブジェクト3のモデルデータや、テクスチャデータ、モーションデータ、配置位置座標、などの情報をオブジェクト毎に格納する。   The main game space setting data 510 includes model data, texture data, motion data, arrangement position coordinates, etc. of the background object 3 for configuring the main game space used for photographing the main game screen W2 in the virtual three-dimensional space. Store information for each object.

キャラクタ初期設定データ512は、プレーヤキャラクタ2や敵4、発言イベントに登場するNPC7などのキャラクタとなるオブジェクトのモデルデータや、テクスチャデータ、様々な動作を実現するための複数のモーションデータセット(例えば、モーションIDとそれに対応するモーションデータを含む)、配置位置座標、移動パターン、装備品の初期設定、などの情報をオブジェクト毎に格納する。   The character initial setting data 512 includes model data of objects that are characters such as the player character 2, the enemy 4, and the NPC 7 appearing in the speech event, texture data, and a plurality of motion data sets for realizing various operations (for example, (Including motion ID and motion data corresponding to the motion ID), arrangement position coordinates, movement pattern, initial setting of equipment, and the like are stored for each object.

具体的には、図7に示すように、キャラクタ毎にキャラクタデータセット512aを格納する。一つのキャラクタデータセット512aには、キャラクタID512b、キャラクタモデルデータ512c、キャラクタテクスチャデータ512dなどとともに、当該キャラクタのローカル座標系における発声基準点72の座標値である発声基準点座標512eと、球形境界面74の半径rを示す境界面半径512fと、を格納する。   Specifically, as shown in FIG. 7, a character data set 512a is stored for each character. One character data set 512a includes a character ID 512b, character model data 512c, character texture data 512d, and the like, an utterance reference point coordinate 512e which is a coordinate value of the utterance reference point 72 in the local coordinate system of the character, and a spherical boundary surface. The boundary surface radius 512f indicating the radius r of 74 is stored.

吹き出しテンプレートデータ514は、吹き出しオブジェクト6の雛形を定義するデータを格納する。例えば、本実施形態では、図8に示すように、(1)吹き出し本体61の形状を決定する頂点(P1〜P4)のローカル座標系座標値を含む標準吹き出し本体頂点座標514aと、(2)指示体連結部63の形状を決定する頂点(P5〜P8)のローカル座標系座標値を含む標準指示体連結部頂点座標514bと、(3)吹き出し指示体62の先端位置(P9)のローカル座標系座標値である標準指示体先端頂点座標514cと、(4)指示体基点70のローカル座標系座標値である標準指示体基点座標514dと、(5)吹き出しオブジェクト6に適用されるテクスチャなどの配色情報や、透明度パターンなど、吹き出しオブジェクト6の標準とされる表示形態を定義する標準配色データ514eとを格納する。   The balloon template data 514 stores data defining the template of the balloon object 6. For example, in the present embodiment, as shown in FIG. 8, (1) standard balloon body vertex coordinates 514a including local coordinate system coordinate values of vertices (P1 to P4) that determine the shape of the balloon body 61, and (2) Standard indicator connecting portion vertex coordinates 514b including local coordinate system coordinate values of the vertices (P5 to P8) for determining the shape of the indicator connecting portion 63, and (3) the local coordinates of the tip position (P9) of the balloon indicator 62 Standard indicator tip vertex coordinates 514 c that are system coordinate values, (4) Standard indicator base point coordinates 514 d that are local coordinate system coordinate values of the indicator base point 70, and (5) Texture applied to the balloon object 6, etc. Standard color arrangement data 514e that defines a standard display form of the balloon object 6 such as color arrangement information and a transparency pattern is stored.

例えば、標準指示体連結部頂点座標514bについては、吹き出し本体61の左右中心線L3(図4参照)からの距離で定義している。
また例えば、標準配色データ514eは、吹き出し指示体62と、発言キャラクタとのカメラ座標系Zc軸(画面奥行方向)の相対的な位置関係に応じて配色が決まるように設定されている。例えば、相対的な距離が長いほど、青みを帯びるように、或いは暗色になるように設定してもよい。また、透明度パターンは、吹き出し指示体62の奥行位置が発言キャラクタに近づくほど透明度が高くなるように吹き出し指示体部分の透明度が設定されている。更には、最大透明度を、吹き出し本体61と発言キャラクタとの奥行方向の相対的な位置関係に応じて高まるように設定すると、距離感を視覚的に表現できるのでより好適である。
For example, the standard indicator connecting portion vertex coordinate 514b is defined by the distance from the left and right center line L3 (see FIG. 4) of the balloon body 61.
Further, for example, the standard color arrangement data 514e is set such that the color arrangement is determined according to the relative positional relationship between the balloon indicator 62 and the speech character in the camera coordinate system Zc axis (screen depth direction). For example, the longer the relative distance, the more bluish or darker the color may be set. Further, the transparency of the balloon indicator is set so that the transparency of the transparency pattern increases as the depth position of the balloon indicator 62 approaches the speaking character. Furthermore, it is more preferable that the maximum transparency is set so as to increase in accordance with the relative positional relationship between the balloon body 61 and the comment character in the depth direction, since a sense of distance can be visually expressed.

尚、本実施形態では吹き出しオブジェクト6は、1種類として説明するので吹き出しテンプレートデータ514は一つであるが、複数種類の吹き出しオブジェクト6を使い分ける時には、各種類毎に同様のデータを用意すると良い。   In this embodiment, since the balloon object 6 is described as one type, the number of the balloon template data 514 is one. However, when a plurality of types of balloon objects 6 are used properly, similar data may be prepared for each type.

発言イベント設定データ520は、キャラクタの発言が伴うイベントを定義する。例えば、図9に示すように、イベント毎にイベントデータセット522を格納する。一つのイベントデータセット522には、発言ID522aと、イベント発動条件522bと、発言キャラクタID522cと、発言内容522dと、表示制限時間522eと、イベント空間設定データ522fと、吹き出し種類522jとを格納する。   The speech event setting data 520 defines an event accompanied by a character's speech. For example, as shown in FIG. 9, an event data set 522 is stored for each event. One event data set 522 stores a speech ID 522a, an event triggering condition 522b, a speech character ID 522c, a speech content 522d, a display time limit 522e, event space setting data 522f, and a balloon type 522j.

イベント発動条件522bは、当該イベントが発生するための条件を定義する。例えば、ゲーム開始からの経過時間、プレーヤキャラクタ2のゲーム空間内での位置、特定アイテムの所持、特定の敵4やダンジョンの攻略、ある発言イベントの終了など、適宜設定することができる。   The event trigger condition 522b defines a condition for the event to occur. For example, the elapsed time from the start of the game, the position of the player character 2 in the game space, possession of a specific item, capture of a specific enemy 4 or dungeon, end of a certain speech event, etc. can be set as appropriate.

発言内容522dは、発言内容を表示するための情報である。例えば、台詞、キャラクタの特定の表情を表す画像などの画像データ、シンボルマーク、など適宜設定することができる。   The statement content 522d is information for displaying the statement content. For example, dialogue, image data such as an image representing a specific expression of a character, a symbol mark, and the like can be set as appropriate.

表示制限時間522eは、当該発言内容を表示するための吹き出しオブジェクト6が配置されてから消されるまでの時間を定義する。   The display time limit 522e defines the time from when the balloon object 6 for displaying the content of the message is arranged until it is deleted.

イベント空間設定データ522fは、発言イベント画面W4を生成するための専用のゲーム空間(イベント空間)を形成するための情報を格納する。例えば、発言イベントが行われる場所を形成する背景オブジェクトの配置情報、発言イベントに登場するキャラクタの種類とそのオブジェクトの配置位置や姿勢、モーション制御データといったキャラクタの配置情報を含む。また、撮影パラメータ522gと、吹き出し本体配置基準情報522hとを含む。   The event space setting data 522f stores information for forming a dedicated game space (event space) for generating the speech event screen W4. For example, it includes the arrangement information of the background object that forms the place where the speech event is performed, the character placement information such as the type of character appearing in the speech event, the placement position and posture of the object, and motion control data. In addition, it includes shooting parameters 522g and balloon body arrangement reference information 522h.

撮影パラメータ522gは、当該発言イベントの発言イベント画面W4を撮影するための左仮想カメラC1及び右仮想カメラC2の配置位置、姿勢、画角、それらの時間変化を定義するデータなどを格納する。   The shooting parameter 522g stores the arrangement position, posture, angle of view, and data defining time changes of the left virtual camera C1 and the right virtual camera C2 for shooting the utterance event screen W4 of the utterance event.

吹き出し本体配置基準情報522hは、当該発言イベントの発言イベント画面W4を撮影するための左仮想カメラC1及び右仮想カメラC2に対する、吹き出しオブジェクト6の配置位置を決定するための情報を格納する。例えば、配置可能な本体配置基準面12(図3参照)を定義する情報などである。   The balloon main body arrangement reference information 522h stores information for determining the arrangement position of the balloon object 6 with respect to the left virtual camera C1 and the right virtual camera C2 for photographing the speech event screen W4 of the speech event. For example, it is information that defines the dispositionable main body placement reference plane 12 (see FIG. 3).

吹き出し種類522jは、吹き出しオブジェクト6を複数種類の中から選択して利用できる構成である場合に、当該発言イベントで使用する種類を指定する。   The balloon type 522j specifies the type to be used in the speech event when the balloon object 6 is configured to be selected from a plurality of types.

尚、イベントデータセット522は、単独の発言を定義する形式、映像表現用語で言うところのカット単位で定義する構成に限らない。例えば、イベントの時間経過に応じて切り換えられる複数の発言とその実行タイミングを時系列に組み合わせ指定するスクリプト形式とし、映像表現用語で言うところのシーン単位で定義する構成としても良い。   The event data set 522 is not limited to a format that defines a single statement, and a configuration that is defined in units of cuts in terms of video expression terms. For example, a script format may be used in which a plurality of utterances switched in accordance with the passage of time of an event and their execution timing are specified in time series, and may be defined in units of scenes in terms of video expression terms.

プレイデータ524は、現在実行中のゲーム進行状況を示す各種パラメータ値を格納する。具体的には、例えば図10に示すように、左右フラグ525と、メインゲーム空間ステータスデータ526と、イベント空間ステータスデータ528とを含む。   The play data 524 stores various parameter values indicating the progress of the game currently being executed. Specifically, for example, as shown in FIG. 10, a left / right flag 525, main game space status data 526, and event space status data 528 are included.

左右フラグ525は、今回の画像生成タイミングにおいて、左右何れの立体視画像を生成するかを示す。例えば、「1」が左、「0」が右をそれぞれ示し、画像生成タイミング毎に切り換えられる。   The left / right flag 525 indicates which of the left and right stereoscopic images is to be generated at the current image generation timing. For example, “1” indicates the left and “0” indicates the right, and is switched at every image generation timing.

メインゲーム空間ステータスデータ526は、メインゲーム画面W2を撮影するために用意されたメインゲーム空間(第1のゲーム空間)の情報を格納する。例えば、メインゲーム空間専用のキャラクタステータスデータ532と、左仮想カメラ制御データ534と、右仮想カメラ制御データ536とを含む。   The main game space status data 526 stores information on the main game space (first game space) prepared for shooting the main game screen W2. For example, character status data 532 dedicated to the main game space, left virtual camera control data 534, and right virtual camera control data 536 are included.

キャラクタステータスデータ532は、プレーヤキャラクタ2や敵4などのキャラクタオブジェクト毎に用意され、対応するキャラクタオブジェクトの状態を示すデータ、例えば、位置座標、姿勢、移動速度、適用中のテクスチャデータやモーションの制御データ、ヒットポイントなどを格納し、キャラクタ動作制御部214により逐次更新される。   The character status data 532 is prepared for each character object such as the player character 2 and the enemy 4 and is used for data indicating the state of the corresponding character object, for example, position coordinates, posture, moving speed, applied texture data and motion control. Data, hit points, and the like are stored and updated sequentially by the character motion control unit 214.

左仮想カメラ制御データ534と、右仮想カメラ制御データ536は、左仮想カメラC1及び右仮想カメラC2の状態を示すパラメータ値や、撮影条件を示すパラメータ値を格納する。例えば、仮想カメラの配置位置、視線方向、撮影画角、絞り値、フィルタ種類、などを格納する。これらのデータは、仮想カメラ制御部216により逐次更新される。   The left virtual camera control data 534 and the right virtual camera control data 536 store parameter values indicating the states of the left virtual camera C1 and the right virtual camera C2, and parameter values indicating shooting conditions. For example, the virtual camera arrangement position, line-of-sight direction, shooting angle of view, aperture value, filter type, and the like are stored. These data are sequentially updated by the virtual camera control unit 216.

イベント空間ステータスデータ528は、発言イベント画面W4を生成するために用意されたイベント空間(第2のゲーム空間)の情報を格納する。例えば、イベント空間専用に、キャラクタステータスデータ532と、左仮想カメラ制御データ534と、右仮想カメラ制御データ536とを含む。そして、イベント空間ステータスデータ528は更に、吹き出し管理データ540を含む。   The event space status data 528 stores information on an event space (second game space) prepared for generating the speech event screen W4. For example, character status data 532, left virtual camera control data 534, and right virtual camera control data 536 are included exclusively for the event space. Event space status data 528 further includes balloon management data 540.

吹き出し管理データ540は、吹き出しオブジェクト6の配置や表示に関する各種パラメータを格納し、吹き出し管理部220により配置される吹き出しオブジェクト6それぞれに対して吹き出しデータセット542が生成され更新される。そして、当該吹き出しオブジェクト6の配置解除とともに削除される。   The balloon management data 540 stores various parameters related to the arrangement and display of the balloon object 6, and a balloon data set 542 is generated and updated for each balloon object 6 arranged by the balloon management unit 220. And it deletes with the arrangement | positioning cancellation | release of the said balloon object 6. FIG.

一つの吹き出しデータセット542は、吹き出しオブジェクト6を識別するための吹き出しID544と、当該吹き出しオブジェクトに対応づけられる発言イベントを識別するための発言ID546と、当該吹き出しオブジェクトに対応づけられるキャラクタオブジェクトを識別するための吹き出し対応キャラクタID548と、当該吹き出しオブジェクトがゲーム空間内に配置されたタイミングを示す配置開始システム時刻550とを含む。   One speech balloon data set 542 identifies a speech balloon ID 544 for identifying the speech balloon object 6, a speech ID 546 for identifying a speech event associated with the speech balloon object, and a character object associated with the speech balloon object. And a placement start system time 550 indicating the timing at which the speech balloon object is placed in the game space.

更に、吹き出しオブジェクト6の大きさ、姿勢、向きなどを決める情報として、吹き出し本体61及び指示連結部63の外形・向きを決めるための、吹き出し本体頂点座標552と、指示体連結部頂点座標554とを含む。前者には頂点P1〜P4の座標値、後者には頂点P5〜P8の座標値が格納される。   Further, as information for determining the size, posture, orientation, and the like of the balloon object 6, balloon body vertex coordinates 552, indicator joint section vertex coordinates 554 for determining the outer shape / direction of the balloon body 61 and the instruction coupling section 63, including. The former stores coordinate values of vertices P1 to P4, and the latter stores coordinate values of vertices P5 to P8.

また更に、吹き出しデータセット542は、指示体基点70の座標値を格納する指示体基点座標556と、吹き出し指示体62の先端位置(指示体先端頂点P9)の座標値を格納する指示体先端頂点座標558と、吹き出しオブジェクト6に適用される吹き出しテクスチャ560とを格納する。   Still further, the balloon data set 542 includes a pointer base point coordinate 556 that stores the coordinate value of the pointer base point 70 and a pointer tip vertex that stores the coordinate value of the tip position (pointer tip vertex P9) of the balloon indicator 62. The coordinates 558 and the balloon texture 560 applied to the balloon object 6 are stored.

吹き出しテクスチャ560には、吹き出しテンプレートデータ514の標準配色データ514e(図8参照)で定義されたテクスチャに、発言ID546に対応する発言内容522d(図9参照)が合成されたテクスチャが格納される。   In the balloon texture 560, a texture in which the message content 522d (see FIG. 9) corresponding to the message ID 546 is combined with the texture defined by the standard color arrangement data 514e (see FIG. 8) of the balloon template data 514 is stored.

尚、記憶部500には、ゲームの進行や画像生成に係る処理を実行するに当たり必要となる各種データ(例えば、タイマー値やカウンタ、座標変換行列、テクスチャ、Zバッファなど)も適宜記憶されるものとする。   Note that the storage unit 500 also stores various data (for example, timer values, counters, coordinate transformation matrices, textures, Z buffers, etc.) necessary for executing processing related to game progress and image generation as appropriate. And

[処理の流れの説明]
次に、本実施形態における処理の流れについて説明する。ここで説明する一連の処理の流れは、処理部200がシステムプログラム501を実行中に、ゲームプログラム502を実行することによって実現される。
[Description of process flow]
Next, the flow of processing in this embodiment will be described. A series of processing flow described here is realized by executing the game program 502 while the processing unit 200 is executing the system program 501.

図11は、本実施形態における主たる処理の流れを説明するためのフローチャートである。処理部200は先ず、メインゲーム画面W2でフィールドタイプのRPGを実行するためのメインゲーム空間を準備する(ステップS2)。
すなわち、メインゲーム空間設定データ510及びキャラクタ初期設定データ512を参照して、仮想三次元空間にメインゲーム空間を構成するための背景オブジェクト3を配置し、そこにプレーヤキャラクタ2、敵4等のキャラクタオブジェクトを初期配置する。そして、キャラクタについては、キャラクタステータスデータ532が生成され、逐次更新を開始する。更に、仮想三次元空間内に、左仮想カメラC1及び右仮想カメラC2を配置し、左仮想カメラ制御データ534及び右仮想カメラ制御データ536を生成して、逐次更新を開始する。また更に、左右フラグ525を初期化する。これらの設定情報は、プレイデータ524にメインゲーム空間ステータスデータ526として記憶・管理される。
FIG. 11 is a flowchart for explaining the main processing flow in the present embodiment. First, the processing unit 200 prepares a main game space for executing field type RPG on the main game screen W2 (step S2).
That is, referring to the main game space setting data 510 and the character initial setting data 512, the background object 3 for configuring the main game space is arranged in the virtual three-dimensional space, and characters such as the player character 2 and the enemy 4 are arranged there. Initial placement of the object. Then, for the character, character status data 532 is generated, and sequential updating is started. Further, the left virtual camera C1 and the right virtual camera C2 are arranged in the virtual three-dimensional space, the left virtual camera control data 534 and the right virtual camera control data 536 are generated, and sequential updating is started. Furthermore, the left / right flag 525 is initialized. Such setting information is stored and managed in the play data 524 as main game space status data 526.

ゲームを開始したならば(ステップS8)、以降、処理部200はステップS10〜S92を所定の画像生成タイミングの周期、つまりビデオモニタ1220で左眼用立体視画像と右目用立体視画像を表示する周期で繰り返し実行する。   If the game is started (step S8), then the processing unit 200 displays steps S10 to S92 in a predetermined image generation timing cycle, that is, the left-eye stereoscopic image and the right-eye stereoscopic image on the video monitor 1220. Executes repeatedly at intervals.

具体的には、処理部200は、発言イベント設定データ520(図9参照)を参照して、イベント発動条件522bを満たしているかを判定する。つまり、発動条件を満たす発言イベントが有るかを判定する(ステップS10)。   Specifically, the processing unit 200 refers to the utterance event setting data 520 (see FIG. 9) and determines whether the event triggering condition 522b is satisfied. That is, it is determined whether there is a speech event that satisfies the trigger condition (step S10).

否定の場合(ステップS10のYES)、処理部200は、メインゲーム空間ステータスデータ526で記述されるメインゲーム空間について、メインゲーム画面W2で示すようなフィールドタイプのRPGを実行するために、オブジェクト毎の動作制御を実行する(ステップS12)。
例えば、操作入力部100からの操作入力信号に応じてプレーヤキャラクタ2のオブジェクトの動作を制御し、所謂AI制御により敵4の動作を制御する。もし、背景オブジェクト3にも動きが設定されているならば、その自動制御もここで実行されるものとする。
If the result is negative (YES in step S10), the processing unit 200 executes, for each object, the field type RPG as shown in the main game screen W2 for the main game space described by the main game space status data 526. The operation control is executed (step S12).
For example, the movement of the object of the player character 2 is controlled according to an operation input signal from the operation input unit 100, and the movement of the enemy 4 is controlled by so-called AI control. If the background object 3 is also set to move, its automatic control is also executed here.

次いで、処理部200は、メインゲーム空間の左仮想カメラC1及び右仮想カメラC2の自動制御を行う(ステップS14)。例えば、プレーヤキャラクタ2を常に撮影画角内に収めるようにして両仮想カメラの位置や姿勢(視線方向等)、画角などを制御する。
もしゲーム画面を一人称視点で構成する場合には、操作入力部100からの操作入力信号に応じて左仮想カメラC1及び右仮想カメラC2の位置や姿勢、移動速度などを変更する。
Next, the processing unit 200 performs automatic control of the left virtual camera C1 and the right virtual camera C2 in the main game space (step S14). For example, the position and posture (such as the line-of-sight direction) and the angle of view of both virtual cameras are controlled so that the player character 2 is always within the shooting angle of view.
If the game screen is configured from the first person viewpoint, the positions, postures, movement speeds, and the like of the left virtual camera C1 and the right virtual camera C2 are changed according to the operation input signal from the operation input unit 100.

次いで、処理部200は、メインゲーム画面W2のためにゲーム空間画像生成処理を実行する(ステップS16)。
具体的には、左右フラグ525を参照して、今回の画像生成タイミングで生成するべき画像が左眼用立体視画像であれば、メインゲーム空間内の左仮想カメラC1でメインゲーム空間の様子を撮影した画像をレンダリングして左眼用ゲーム空間画像を生成する。また、生成するべき画像が右眼用立体視画像であれば、メインゲーム空間内の右仮想カメラC2でゲーム空間の様子を撮影した画像をレンダリングし、右目用ゲーム空間画像を生成する。
Next, the processing unit 200 executes a game space image generation process for the main game screen W2 (step S16).
Specifically, referring to the left / right flag 525, if the image to be generated at the current image generation timing is a left-eye stereoscopic image, the left virtual camera C1 in the main game space indicates the state of the main game space. The captured image is rendered to generate a left-eye game space image. If the image to be generated is a right-eye stereoscopic image, an image obtained by photographing the state of the game space with the right virtual camera C2 in the main game space is rendered to generate a right-eye game space image.

次いで、処理部200は生成した左眼用ゲーム空間画像又は右眼用ゲーム空間画像に、ヒットポイント表示20や情報表示欄21などの各種情報表示体を合成して、最終的な左目用立体視画像又は右目用立体視画像を生成し、立体視画像表示部361に表示させる(ステップS18)。   Next, the processing unit 200 synthesizes various information display bodies such as the hit point display 20 and the information display column 21 with the generated left-eye game space image or right-eye game space image to obtain the final left-eye stereoscopic view. An image or a right-eye stereoscopic image is generated and displayed on the stereoscopic image display unit 361 (step S18).

次に、処理部200は今回の画像生成タイミングにおけるメインゲーム空間内でのゲーム進行の結果の判定処理を実行する(ステップS20)。例えば、プレーヤキャラクタ2と敵4との交戦結果の判定、それに伴うヒットポイント値の更新などを行う。   Next, the processing unit 200 executes a determination process of the result of the game progress in the main game space at the current image generation timing (step S20). For example, the result of the battle between the player character 2 and the enemy 4 is determined and the hit point value is updated accordingly.

そして、ゲーム進行の判定結果が、所定のゲーム終了条件を満たしていなければ(ステップS22のNO)、左右フラグ525の切り換え処理(ステップS24)や、適宜画像生成タイミングのタイミング同期処理を実行した後、ステップS10に戻る。   If the game progress determination result does not satisfy the predetermined game end condition (NO in step S22), the left / right flag 525 switching process (step S24) or the timing synchronization process of the image generation timing as appropriate is executed. Return to step S10.

さて、ステップS10で、イベント発動条件522bを満たしている発言イベントがあると判定された場合、つまり発言イベントが発生したと判定された場合(ステップS10のYES)、処理部200はイベント発動条件522bを満たしている発言イベントを実行するためのイベント空間を初期化する(ステップS30)。
具体的には、イベント発動条件522bを満たしていると判定されたイベントデータセット522のイベント空間設定データ522fを参照して(図9参照)、イベント空間ステータスデータ528を生成する(図10参照)。図3の例で言えば、発言イベント画面W4を生成するためのイベント空間を用意し、そこにイベントに登場する発言キャラクタ(プレーヤキャラクタ2)やNPC7、左仮想カメラC1並びに右仮想カメラC2等を配置することになる。
そして、処理部200は吹き出し管理処理を実行する(ステップS32)。
When it is determined in step S10 that there is a speech event that satisfies the event triggering condition 522b, that is, when it is determined that a speech event has occurred (YES in step S10), the processing unit 200 sets the event triggering condition 522b. An event space for executing a speech event satisfying the above is initialized (step S30).
Specifically, the event space status data 528 is generated (see FIG. 10) by referring to the event space setting data 522f of the event data set 522 determined to satisfy the event triggering condition 522b (see FIG. 10). . In the example of FIG. 3, an event space for generating the speech event screen W4 is prepared, and the speech character (player character 2) appearing in the event, the NPC 7, the left virtual camera C1, the right virtual camera C2, etc. Will be placed.
And the process part 200 performs a balloon management process (step S32).

尚、発言イベント実行中に、イベントに登場するキャラクタが動作するように設定されている場合には、ステップS32を実行する前に、それらキャラクタのオブジェクトの動作制御処理(ステップS12に相当)を適宜加えると良い。   If the characters appearing in the event are set to move during the execution of the speech event, the object object motion control process (corresponding to step S12) is appropriately performed before executing step S32. It is good to add.

図12は、本実施形態における吹き出し管理処理の流れを説明するためのフローチャートである。同処理では、処理部200は先ず、ステップS10にてイベント発動条件522bを満たしたと判定された発言イベント用に、吹き出しオブジェクト6が既に配置されているかを判定する(ステップS40)。
吹き出し管理データ540(図10参照)内に、ステップS10にてイベント発動条件522bを満たしたと判定された発言イベントの発言IDと合致する発言ID546の吹き出しデータセット542が有れば肯定判定し、なければ否定判定する。
FIG. 12 is a flowchart for explaining the flow of the balloon management process in this embodiment. In this process, the processing unit 200 first determines whether or not the balloon object 6 has already been arranged for the utterance event determined to satisfy the event triggering condition 522b in step S10 (step S40).
If the speech balloon management data 540 (see FIG. 10) includes the speech balloon data set 542 having the speech ID 546 that matches the speech ID of the speech event determined to satisfy the event triggering condition 522b in step S10, the determination is positive. A negative decision.

もし、ステップS40が否定ならば(ステップS40のNO)、処理部200は次に、ステップS10にてイベント発動条件522bを満たしたと判定されたイベントデータセット522を参照して、吹き出し本体配置基準情報522hに基づく吹き出し本体配置基準面12を求め、そこに吹き出しテンプレートデータ514(図8参照)で設定されたままの新たな吹き出しオブジェクト6を配置する(ステップS42)。これに伴い、プレイデータ524の吹き出し管理データ540には、新たな吹き出しデータセット542が生成される。配置開始システム時刻550には、その時のシステム時刻590が格納される。   If step S40 is negative (NO in step S40), the processing unit 200 next refers to the event data set 522 determined to satisfy the event triggering condition 522b in step S10, and the balloon body placement reference information The balloon main body arrangement reference plane 12 based on 522h is obtained, and the new balloon object 6 as set in the balloon template data 514 (see FIG. 8) is arranged there (step S42). Accordingly, a new balloon data set 542 is generated in the balloon management data 540 of the play data 524. The arrangement start system time 550 stores the system time 590 at that time.

そして、処理部200は、吹き出しテンプレートデータ514の標準配色データ514eと、ステップS10にてイベント発動条件522bを満たしたと判定されたイベントデータセット522とを参照して、吹き出し本体61の部分に発言内容522dを合成した吹き出しテクスチャを生成する(ステップS44;図10参照)。   Then, the processing unit 200 refers to the standard color arrangement data 514e of the balloon template data 514 and the event data set 522 determined to satisfy the event triggering condition 522b in step S10, and the content of the message in the balloon main body 61 portion. A speech balloon texture obtained by combining 522d is generated (step S44; see FIG. 10).

尚、吹き出しテンプレートデータ514の標準配色データ514eに、透明度の設定が含まれている場合には、これが適用されるものとする。例えば、吹き出し本体61の部分は不透明又は僅かに透明に設定し、吹き出し指示体62の先端に向かう程、透明度が高まるようにしても良い。つまり、吹き出し管理部220は、奥行位置が発言キャラクタに近づくほど透明度が高くなるように吹き出し指示体62の透明度を設定する透明度設定部として機能するとしても良い。   If the standard color arrangement data 514e of the balloon template data 514 includes a transparency setting, this is applied. For example, the portion of the balloon body 61 may be set to be opaque or slightly transparent, and the transparency may be increased toward the tip of the balloon indicator 62. That is, the speech balloon management unit 220 may function as a transparency setting unit that sets the transparency of the speech balloon indicator 62 so that the transparency becomes higher as the depth position is closer to the comment character.

尚、吹き出しオブジェクト6が既に配置済であれば(ステップS40のYES)、ステップS42とS44はスキップされる。   If the balloon object 6 has already been placed (YES in step S40), steps S42 and S44 are skipped.

次いで、処理部200は、吹き出し本体61の縦横の幅を、発言内容522dに応じて最適化する(ステップS48)。
具体的は、発言内容522dが台詞のテキストであれば、その文字数に応じて所定の関数で縦横の幅を決定し、吹き出し本体61の四隅の頂点P1〜P4の位置を補正する。もし、発言内容522dが画像であれば、当該画像のサイズよりも吹き出し本体61が一回り大きくなるように頂点P1〜P4の位置を補正する。尚、これに伴い、吹き出し本体61の下端所定相対位置に設けられる指示体基点70(図4参照)の位置も補正・変更されることとなる。
Next, the processing unit 200 optimizes the vertical and horizontal widths of the balloon main body 61 according to the message content 522d (step S48).
Specifically, if the remark content 522d is a line text, the vertical and horizontal widths are determined by a predetermined function according to the number of characters, and the positions of the vertices P1 to P4 at the four corners of the balloon body 61 are corrected. If the remark content 522d is an image, the positions of the vertices P1 to P4 are corrected so that the balloon body 61 is slightly larger than the size of the image. Along with this, the position of the indicator base point 70 (see FIG. 4) provided at the lower end predetermined relative position of the blowing body 61 is also corrected and changed.

次に、処理部200は、指示体先端頂点P9を、吹き出しテンプレートデータ514で設定されたままの位置から、発言キャラクタを差し示すのに適当な位置へ最適化する(ステップS50)。具体的には、発言キャラクタのキャラクタデータセット512a(図7参照)を参照して、現在の指示体基点70から当該発言キャラクタの発声基準点座標512eで示される発声基準点72とを結ぶ直線L1を求め、更に発声基準点72から境界面半径512fの球形境界面74を求める。そして、直線L1と球形境界面74との交点を求め、そこへ指示体先端頂点P9の位置を変更する。   Next, the processing unit 200 optimizes the indicator tip apex P9 from the position set in the balloon template data 514 to an appropriate position for indicating the speaking character (step S50). Specifically, referring to the character data set 512a of the speaking character (see FIG. 7), a straight line L1 that connects the current indicator base point 70 to the utterance reference point 72 indicated by the utterance reference point coordinate 512e of the utterance character. And a spherical boundary surface 74 having a boundary surface radius 512f from the utterance reference point 72. And the intersection of the straight line L1 and the spherical boundary surface 74 is calculated | required, and the position of the indicator front-end | tip vertex P9 is changed there.

次いで、処理部200は、吹き出し本体61の左右中心線L3から、最適化された指示体先端頂点P9までの左右オフセット距離D2(図4参照)を算出し(ステップS52)、指示体連結部63の下端の2つの頂点P7,P8を、指示体先端頂点P9のある左方向又は右方向へ、左右オフセット距離D2に応じた量だけオフセットする(ステップS54)。これにより、吹き出しオブジェクト6の外形を、吹き出し指示体62が指示体連結部63でカメラ座標系奧方向及び左右に段階的に屈曲しているように設定できる。   Next, the processing unit 200 calculates a left-right offset distance D2 (see FIG. 4) from the left-right center line L3 of the balloon body 61 to the optimized indicator tip apex P9 (step S52), and the indicator connection unit 63. The two vertices P7 and P8 at the lower end of the pointer are offset leftward or rightward with the indicator tip vertex P9 by an amount corresponding to the left-right offset distance D2 (step S54). Thereby, the outline of the balloon object 6 can be set so that the balloon indicator 62 is bent stepwise in the camera coordinate system heel direction and right and left at the indicator coupling portion 63.

次いで、処理部200は、既に配置済の吹き出しオブジェクト6の配置開始システム時刻550を参照して、配置開始から、発言ID546が合致するイベントデータセット522の表示制限時間522e(図9参照)が既に経過している吹き出しオブジェクト6を抽出してこれの表示を解除し(ステップS56)、吹き出し管理処理を終了する。   Next, the processing unit 200 refers to the arrangement start system time 550 of the balloon object 6 that has already been arranged, and since the arrangement start, the display time limit 522e (see FIG. 9) of the event data set 522 that matches the message ID 546 has already been obtained. The balloon object 6 that has passed is extracted and the display thereof is canceled (step S56), and the balloon management process is terminated.

図11のフローチャートに戻って、吹き出し管理処理を終了したならば、処理部200は次に、左右フラグ525を参照して、今回の画像生成タイミングで生成するべき画像が左眼用立体視画像であれば、イベント空間内の左仮想カメラC1でイベント空間の様子を撮影した画像をレンダリングして左眼用ゲーム空間画像を生成する。また、生成するべき画像が右眼用立体視画像であれば、イベント空間内の右仮想カメラC2でゲーム空間の様子を撮影した画像をレンダリングし、右眼用ゲーム空間画像を生成する(ステップS70)。   Returning to the flowchart of FIG. 11, when the balloon management process is completed, the processing unit 200 refers to the left / right flag 525 and the image to be generated at the current image generation timing is a left-eye stereoscopic image. If there is, a left eye game space image is generated by rendering an image obtained by photographing the event space with the left virtual camera C1 in the event space. Further, if the image to be generated is a right-eye stereoscopic image, an image obtained by photographing the state of the game space with the right virtual camera C2 in the event space is rendered to generate a right-eye game space image (step S70). ).

次いで、処理部200は生成した左眼用ゲーム空間画像又は右眼用ゲーム空間画像に、ヒットポイント表示20や情報表示欄21などの各種情報表示体を合成して、最終的な左眼用立体視画像又は右眼用立体視画像を生成し、立体視画像表示部361に表示させる(ステップS88)。   Next, the processing unit 200 synthesizes various information display bodies such as the hit point display 20 and the information display column 21 with the generated left-eye game space image or right-eye game space image, thereby obtaining the final left-eye three-dimensional image. A visual image or a right-eye stereoscopic image is generated and displayed on the stereoscopic image display unit 361 (step S88).

つぎに、ステップS10にてイベント発動条件522bを満たしたと判定されたイベントが終了したかを判定する(ステップS90)。例えば、単独の発言が行われるイベントであれば、吹き出しオブジェクト6の配置開始から表示制限時間522e(図9参照)が経過したら、終了と見なされる。また、発言内容522dが複数用意されていて、時間経過とともに切り換えできる構成の場合には、最後の発言内容の配置開始から表示制限時間522eが経過したら、終了と見なすと良い。   Next, it is determined whether or not the event determined to satisfy the event triggering condition 522b in step S10 has ended (step S90). For example, in the case of an event in which a single statement is made, it is regarded as an end when the display time limit 522e (see FIG. 9) has elapsed since the start of the placement of the balloon object 6. Further, in the case where a plurality of comment contents 522d are prepared and can be switched over time, when the display limit time 522e elapses from the start of the arrangement of the last comment contents, it may be regarded as the end.

そして、もし発言イベントが終了していなければ(ステップS90のNO)、処理部200は、左右フラグ525の切り換え処理(ステップS92)や、画像生成タイミングのタイミング同期処理を実行した後、ステップS32に戻る。
反対に、発言イベントが終了したと判定された場合には(ステップS90のYES)、処理部200はステップS22に処理を移行する。
If the speech event has not ended (NO in step S90), the processing unit 200 executes the left / right flag 525 switching process (step S92) and the image generation timing synchronization process, and then proceeds to step S32. Return.
Conversely, if it is determined that the speech event has ended (YES in step S90), the processing unit 200 shifts the processing to step S22.

ゲームが進行して、やがてメインゲーム空間におけるゲーム進行状況が所定のゲーム終了条件を満たすに至ると(ステップS22のYES)、処理部200はエンディング処理を実行して(ステップS110)、一連の処理を終了する。   When the game progresses and the game progress in the main game space eventually satisfies a predetermined game end condition (YES in step S22), the processing unit 200 executes an ending process (step S110), and a series of processes Exit.

尚、左眼用立体視画像と右眼用立体視画像とを交互に生成する場合を説明したが、ビデオモニタ1220が採用する立体視表示方式によっては、それらを同時に生成するようにしてもよい。具体的には、ステップS16にて左眼用ゲーム空間画像と右眼用ゲーム空間画像をともに生成し、続くステップS18では左眼用立体視画像と右目用立体視画像とをともに生成するとすれば良い。ステップS70及びS88についても同様である。   Although the case where the left-eye stereoscopic image and the right-eye stereoscopic image are alternately generated has been described, depending on the stereoscopic display method employed by the video monitor 1220, they may be generated simultaneously. . Specifically, it is assumed that both the left-eye game space image and the right-eye game space image are generated in step S16, and the left-eye stereoscopic image and the right-eye stereoscopic image are generated in the subsequent step S18. good. The same applies to steps S70 and S88.

以上、本実施形態によれば、立体視画像を用いたビデオゲームにおいて、発言内容をプレーヤから見て手前に配置しても、ゲーム空間内のキャラクタの空間配置関係に矛盾せず、見やすい発言表示を実現することができる。   As described above, according to the present embodiment, in a video game using a stereoscopic image, even if the content of a message is arranged in front of the player, the message display is easy to see without contradicting the spatial arrangement relationship of characters in the game space. Can be realized.

尚、本実施形態における「吹き出し」に係る処理は、表示内容を示す本体(吹き出し本体61に相当する主体部分)と、当該内容とゲーム空間内のオブジェクトを対応づける指示体(吹き出し指示体62に相当する指向性をもつ部分)とを有する構成の表示体であれば、発言内容の表示以外にも同様に適用できる。   Note that the processing related to “speech balloon” in the present embodiment includes a main body indicating the display content (a main part corresponding to the speech balloon main body 61) and an indicator (corresponding to the speech balloon indicator 62) that associates the content with an object in the game space. If the display body has a configuration having a corresponding directivity portion, the display body can be similarly applied to the display other than the display of the content of speech.

例えば、図2では、敵4の情報表示欄21は、当該敵の情報を表示するための文章やマークなどを表示する「引き出し」の形態で示している。この「引き出し」は、「吹き出し」の一種と言える。よって、本実施形態における「吹き出し」に係る処理を、吹き出し指示体62が、棒線とその先端に描かれる円(丸)と見なせば、情報表示欄21にも同様に適用できる。   For example, in FIG. 2, the information display field 21 of the enemy 4 is shown in the form of “drawer” that displays text, marks, etc. for displaying the information of the enemy. This “drawer” is a kind of “speech balloon”. Therefore, the processing related to “speech balloon” in the present embodiment can be similarly applied to the information display column 21 if the speech balloon indicator 62 is regarded as a bar and a circle (circle) drawn at the tip thereof.

その場合、発言イベント設定データ520に相当する「情報表示設定データ」なるものを用意しておく。より詳しくは、当該情報表示設定データでは、発言イベント設定データ520で言うところの発言ID522aに代えて情報IDを格納し、イベント発動条件522bを、所定の情報表示操作入力に設定する。また、発言キャラクタID522cを当該情報が表示される対象キャラクタIDとし、発言内容522dに表示する文章やマークなどを格納すると良い。そして、所定の情報表示操作の入力を検知したならば、処理部200が、吹き出し管理処理と同様にして「引き出し管理処理」なる処理を実行すると良い。   In this case, what is called “information display setting data” corresponding to the speech event setting data 520 is prepared. More specifically, in the information display setting data, the information ID is stored instead of the message ID 522a as described in the message event setting data 520, and the event activation condition 522b is set to a predetermined information display operation input. Further, the remark character ID 522c may be a target character ID for displaying the information, and a sentence or a mark to be displayed in the remark content 522d may be stored. If an input of a predetermined information display operation is detected, the processing unit 200 may execute a process called “drawer management process” in the same manner as the balloon management process.

〔変形例の説明〕
以上、本発明を適用した実施形態について説明したが、本発明の実施形態はこれに限るものではなく、適宜構成要素の追加・省略・変更を加えることができる。
[Description of Modification]
Although the embodiment to which the present invention is applied has been described above, the embodiment of the present invention is not limited to this, and additions, omissions, and changes of components can be added as appropriate.

[その1]
例えば、立体視画像生成装置として据置型の家庭用ゲーム装置1200を例示したが、業務用ゲーム装置、携帯型ゲーム装置、パソコン、アプリケーションソフトを実行することのできる多機能携帯電話機(いわゆるスマートフォン)やタブレット型情報端末装置、音楽プレーヤ、カーナビなどでも良く、立体視画像を生成する機能を有する装置には同様に適用することができる。
また、プレーヤが操作するゲーム端末とサーバシステムとが通信接続されて構成されたゲームシステムにおいて、そのサーバシステムを立体視画像生成装置として、本発明を適用することとしてもよい。その場合、プレーヤの操作情報をもとに、サーバシステムが立体視画像を生成して、ゲーム端末に送信する。
[Part 1]
For example, a stationary home game device 1200 is exemplified as the stereoscopic image generation device, but a multi-function mobile phone (so-called smartphone) capable of executing a business game device, a portable game device, a personal computer, and application software, A tablet-type information terminal device, a music player, a car navigation system, or the like may be used, and can be similarly applied to a device having a function of generating a stereoscopic image.
Further, in a game system configured by communication connection between a game terminal operated by a player and a server system, the present invention may be applied to the server system as a stereoscopic image generation device. In this case, the server system generates a stereoscopic image based on the operation information of the player and transmits it to the game terminal.

更には、ビデオゲームが実行可能な装置を本発明の立体視画像生成装置として実現する場合、専用のゲームプログラムを実行する形態に限らない。例えば、専用のゲームプログラムに代えて、ウェブブラウザプログラム、及びスクリプト制御によりウェブブラウザ上でインタラクティブな表示を実現するためのプラグインを実行し、いわゆるブラウザゲームとしてビデオゲームを実現する構成でも同様に適用できる。すなわち、この場合には、端末装置に対してブラウザゲームを実行するためのプログラムや画像データを提供するサーバシステムが本発明の立体視画像生成装置となる。   Furthermore, when a device capable of executing a video game is realized as the stereoscopic image generating device of the present invention, it is not limited to a mode in which a dedicated game program is executed. For example, instead of a dedicated game program, a web browser program and a plug-in for realizing interactive display on the web browser by script control are executed, and the same applies to a configuration in which a video game is realized as a so-called browser game it can. That is, in this case, a server system that provides a program and image data for executing a browser game to the terminal device is the stereoscopic image generation device of the present invention.

また、立体視画像を表示する装置(立体視表示装置;上記実施形態ではビデオモニタ1220)で採用される立体視の方式は、上記実施形態の他の方式であってもかまわない。例えば、2眼式、多眼式や空間像方式(いわゆるインテグラル方式や、フラクショナル・ビュー方式等」)等でも良い。また、採用する立体視の方式によっては、視差方向は水平方向のみに限られるものでなく、垂直方向にも視差を持つ方式であっても良く、メガネ式、裸眼式、スコープ式等の種類も問わない。更には、立体視の方式は、空間内に立体的に配置されたスクリーン、もしくは空間内を動的に移動するスクリーンに投影する方式であってもかまわないし、空間内に立体的に配置された光源群、もしくは空間内を動的に移動する光源群による方式であってもかまわない。また、それらの立体視表示装置による映像を、鏡やハーフミラーで反射させて用いてもかまわない。また、ヘッドトラッキングやアイトラッキング、ジャイロセンサー等を用いて、画面と視聴者の位置関係を取得し、それを立体視映像にフィードバックさせても良い。   Further, the stereoscopic viewing method employed in the device for displaying a stereoscopic image (stereoscopic display device; in the above embodiment, the video monitor 1220) may be another method in the above embodiment. For example, a binocular system, a multi-view system, an aerial image system (a so-called integral system, a fractional view system, etc.) may be used. In addition, depending on the stereoscopic method adopted, the parallax direction is not limited to the horizontal direction, but may be a method having a parallax in the vertical direction as well. It doesn't matter. Furthermore, the stereoscopic viewing method may be a method of projecting onto a screen that is three-dimensionally arranged in the space or a screen that dynamically moves in the space, and may be three-dimensionally arranged in the space. A method using a light source group or a light source group that dynamically moves in space may be used. In addition, the images obtained by these stereoscopic display devices may be reflected by a mirror or a half mirror. In addition, the positional relationship between the screen and the viewer may be acquired using head tracking, eye tracking, a gyro sensor, or the like, and may be fed back to the stereoscopic video.

[その2]
また、上記実施形態においては、吹き出しオブジェクト6の吹き出し本体61を、視点から見て最も手前に配置するとして説明してきたが、必ずしもそれに限定されるものではない。例えば、発言イベント画面W4として、前景となるオブジェクトを配置して、当該前景越しのカメラアングルを採用する場合には、吹き出しオブジェクト6の吹き出し本体61を、前景となるオブジェクトよりも視点から見て奧に配置することもできる。
具体的には、前者の例では、イベントデータセット522の吹き出し本体配置基準情報522h(図9参照)にて、例えば本体配置基準面12(図3参照)を、前景となるオブジェクトの配置位置より仮想カメラから見て奧側に設定すると良い。
[Part 2]
In the above embodiment, the balloon body 61 of the balloon object 6 has been described as being disposed closest to the viewpoint as viewed from the viewpoint. However, the present invention is not necessarily limited thereto. For example, when the foreground object is arranged as the speech event screen W4 and the camera angle over the foreground is adopted, the balloon body 61 of the balloon object 6 is viewed from the viewpoint rather than the foreground object. It can also be arranged.
Specifically, in the former example, in the balloon main body arrangement reference information 522h (see FIG. 9) of the event data set 522, for example, the main body arrangement reference plane 12 (see FIG. 3) is determined from the arrangement position of the object as the foreground. This should be set to the heel side when viewed from the virtual camera.

[その3]
また、吹き出しオブジェクト6のデザインは、上記実施形態で例示した「標準タイプ」に限らず、適宜設定することができる。
例えば、図13の発言イベント画面W4b、及び図14の原理説明図にて示すように、この場合の発言キャラクタであるプレーヤキャラクタ2の心情や口に出さない考えを明かすモノローグを発言内容とする場合には、吹き出しオブジェクト6を、吹き出し本体61と、複数の小指示体64a,64b,・・・で構成される指示体群64とで構成したデザインとしても良い。指示体群64は、「標準タイプ」の吹き出しオブジェクト6における吹き出し指示体62に相当する。こうしたデザインの吹き出しオブジェクト6を「モノローグタイプ」と呼ぶ。
[Part 3]
The design of the balloon object 6 is not limited to the “standard type” exemplified in the above embodiment, and can be set as appropriate.
For example, as shown in the speech event screen W4b of FIG. 13 and the principle explanatory diagram of FIG. 14, the content of the speech is a monologue that reveals the emotion of the player character 2 that is the speech character in this case and the thoughts that are not spoken. Alternatively, the balloon object 6 may be configured by a balloon body 61 and a pointer group 64 including a plurality of small pointers 64a, 64b,. The indicator group 64 corresponds to the balloon indicator 62 in the “standard type” balloon object 6. The balloon object 6 having such a design is called a “monologue type”.

具体的には、先ず、吹き出しテンプレートデータ514(図8参照)を、吹き出しオブジェクトのデザイン毎に用意しておく。「モノローグタイプ」の吹き出しテンプレートデータ514には、大小複数の小指示体64a,64b,・・・の形状、サイズの設定を含むようにする。   Specifically, balloon template data 514 (see FIG. 8) is prepared for each balloon object design. The “monologue type” balloon template data 514 includes settings of the shape and size of a plurality of small indicators 64a, 64b,.

そして、処理部200が、上記実施形態の吹き出し管理処理に代えて、図15で示す吹き出し管理処理Bを実行する構成とする。具体的には、ステップS40〜S48は上記実施形態の吹き出し管理処理と同様であるが、吹き出し管理処理Bでは、ステップS50に次いで、新たに配置した吹き出しオブジェクト6の種類を判別する(ステップS51)。判別では、例えばステップS10でイベント発動条件522bを満たしたと判定された発言イベントのイベントデータセット522の吹き出し種類522jを参照する(図9参照)。   And it is set as the structure which the process part 200 performs instead of the balloon management process of the said embodiment, the balloon management process B shown in FIG. Specifically, steps S40 to S48 are the same as the balloon management process of the above embodiment, but in the balloon management process B, the type of the newly placed balloon object 6 is determined after step S50 (step S51). . In the discrimination, for example, the balloon type 522j of the event data set 522 of the utterance event determined to satisfy the event triggering condition 522b in step S10 is referred (see FIG. 9).

そして、「モノローグタイプ」が指定されている場合には(ステップS51の「モノローグタイプ」)、処理部200は、指示体基点70から発言キャラクタの発声基準点72を結ぶ直線L1に沿って、指示体基点側からサイズの大きい小指示体を順次配置する(ステップS53)。この時、小指示体の相互間隔は、仮想カメラ側が狭く、奧へ行く程広くすると好適である。また、配置した複数の小指示体64a,64b,・・・それぞれの面法線ベクトルVna,Vnb,…(図14参照)は吹き出し本体61と同じ方向を向くようにする。   If “monologue type” is designated (“monologue type” in step S51), the processing unit 200 designates along the straight line L1 that connects the utterance character's utterance reference point 72 to the indicator base point 70. Small indicators having a large size are sequentially arranged from the body base point side (step S53). At this time, it is preferable that the mutual interval between the small indicators is narrow on the virtual camera side and widened toward the heel. Further, the surface normal vectors Vna, Vnb,... (See FIG. 14) of the plurality of arranged small indicators 64a, 64b,.

[その4]
また、吹き出しオブジェクト6の輪郭表現は、上記実施形態のように明確な輪郭を持った表現に限らない。例えば、図16の発言イベント画面W4cに示すように、吹き出しオブジェクト6の輪郭部に「ぼかし」を施す構成としても良い。「ぼかし」は、例えば輪郭部ほど透明度が高くなるように設定することで実現できる。尚、図16では、「ぼかし」を、吹き出し本体61の輪郭を背景より薄い網掛けした長円で囲うことで表現している。
[Part 4]
Further, the outline expression of the balloon object 6 is not limited to an expression having a clear outline as in the above embodiment. For example, as shown in the utterance event screen W4c in FIG. 16, the outline portion of the balloon object 6 may be “blurred”. “Blur” can be realized, for example, by setting the contour portion to have higher transparency. In FIG. 16, “blur” is expressed by enclosing the outline of the balloon body 61 with an oval that is shaded from the background.

具体的には、上記実施形態のステップS70(図11参照)に代えて、図17で示すような処理を実行する。
同処理において、処理部200は先ず、左右フラグ525に応じてイベント空間の左仮想カメラC1又は右仮想カメラC2を視点として選択し(ステップS72)、左眼用ゲーム空間画像又は右眼用ゲーム空間画像を生成する(ステップS74)。
Specifically, instead of step S70 (see FIG. 11) in the above embodiment, a process as shown in FIG. 17 is executed.
In this process, the processing unit 200 first selects the left virtual camera C1 or the right virtual camera C2 in the event space as a viewpoint according to the left / right flag 525 (step S72), and the left eye game space image or the right eye game space. An image is generated (step S74).

次いで、処理部200は、吹き出し本体61と他のオブジェクトとの位置関係に基づいて、視点、つまり左仮想カメラC1及び右仮想カメラC2から見て、他のオブジェクトの一部又は全部が吹き出し本体61によって隠れるか否かの判定、すなわち隠蔽判定を実行する(ステップS76)。そして、隠蔽判定により隠れると判定された場合には(ステップS76のYES)、処理部200は、他のオブジェクトの一部又は全部を隠す吹き出し本体61の輪郭の視認性を低下させるために所定のぼかし処理を実行し(ステップS78)、イベント空間ゲーム空間画像生成処理を終了する。   Next, based on the positional relationship between the balloon main body 61 and other objects, the processing unit 200 determines that a part or all of the other objects are part of the balloon main body 61 as viewed from the viewpoint, that is, the left virtual camera C1 and the right virtual camera C2. The determination of whether or not to hide, that is, the hiding determination is executed (step S76). If it is determined that the object is hidden by the concealment determination (YES in step S76), the processing unit 200 performs a predetermined process in order to reduce the visibility of the outline of the balloon body 61 that hides part or all of the other objects. The blurring process is executed (step S78), and the event space game space image generation process is terminated.

つまり、立体視用画像の生成時に、吹き出し本体61の輪郭の視認性を低下させる処理を施して吹き出し本体61を描画する。   That is, when the stereoscopic image is generated, the balloon body 61 is drawn by performing a process of reducing the visibility of the outline of the balloon body 61.

或いは、ステップS76〜S78に相当するステップを、吹き出し管理処理又は吹き出し管理処理BのステップS44(図12、図15参照)の前に実行し、当該ステップで肯定判定された場合には、ステップS44にて、吹き出し本体61の輪郭部の透明度を高めるように設定するとしても良い。   Alternatively, steps corresponding to steps S76 to S78 are executed before step S44 (see FIGS. 12 and 15) of the balloon management process or balloon management process B, and if an affirmative determination is made in that step, step S44 is performed. Thus, the transparency of the outline of the balloon body 61 may be set to be increased.

[その5]
また、上記実施形態では、吹き出しオブジェクト6の内容である発言内容5を、吹き出しオブジェクト6のテクスチャに合成する構成としたが、これに限らない。
例えば、図18に示すように、本体配置基準面12よりもカメラ座標系手前に、吹き出し本体61と平行な発言内容配置基準面14を設定し、当該基準面に沿って、仮想カメラから見て吹き出し本体61と重なる位置に、発言内容5が透明な板に描かれた板ポリゴン16を配置するとして良い。発言内容配置基準面14は、面でなく、奥行方向に所定の幅を有する領域(基準域)としてもよい。
[Part 5]
Moreover, in the said embodiment, although it was set as the structure which synthesize | combines the statement content 5 which is the content of the balloon object 6 with the texture of the balloon object 6, it is not restricted to this.
For example, as shown in FIG. 18, a speech content arrangement reference plane 14 parallel to the balloon main body 61 is set in front of the camera arrangement reference system 12 relative to the main body arrangement reference plane 12, and viewed from the virtual camera along the reference plane. A plate polygon 16 in which the content 5 of speech is drawn on a transparent plate may be arranged at a position overlapping the balloon body 61. The statement content arrangement reference surface 14 may be a region (reference region) having a predetermined width in the depth direction instead of a surface.

具体的には、ステップS44を省略する(図12又は図15参照)。
その一方で、吹き出し管理部220が、ステップS48とステップS50との間で、(1)本体配置基準面12から仮想カメラ側に所定の距離だけ手前で、吹き出し本体61と平行な発言内容配置基準面14を、内容部奥行配置基準を満たす面として設定するステップと、(2)それに続いて、発言内容配置基準面14に、発言内容5が描かれる板ポリゴン16が重なるようにして配置するステップと、を実行するように構成すると良い。
Specifically, step S44 is omitted (see FIG. 12 or FIG. 15).
On the other hand, the speech balloon management unit 220 (1) between the steps S48 and S50, (1) a speech content placement reference parallel to the speech blower body 61, a predetermined distance from the body placement reference plane 12 to the virtual camera side. A step of setting the surface 14 as a surface satisfying the content part depth arrangement criterion, and (2) a step of arranging the surface 14 so that the board polygon 16 on which the statement content 5 is drawn overlaps the statement content arrangement reference surface 14. It is better to configure to execute.

つまり、吹き出し管理部220を、イベント空間のゲーム空間画像を生成する視点から見て吹き出し本体61と重なる位置であって、奥行位置が、発言内容5(吹き出し内容部)を配置する際の当該視点に基づく奥行位置の基準面又は基準域を定めた内容部奥行配置基準に従った奥行位置(発言内容配置基準面14の位置)に配置する機能部として更に機能させると良い。   That is, the balloon management unit 220 is a position that overlaps the balloon body 61 when viewed from the viewpoint of generating the game space image of the event space, and the depth position is the viewpoint when the speech content 5 (balloon content unit) is arranged. It is preferable to further function as a functional unit that is arranged at a depth position (a position of the statement content arrangement reference plane 14) in accordance with a content part depth arrangement reference that defines a reference plane or a reference area of the depth position based on.

或いは、図19に示すように、本体配置基準面12よりもカメラ座標系奧側であって、発言キャラクタであるプレーヤキャラクタ2の少し手前に発言内容配置基準面14(14b)を設定し、そこに発言内容5が描かれる板ポリゴン16を配置しつつ、当該板ポリゴンの隠蔽処理におけるプライオリティを最も高く設定するとしても良い。   Alternatively, as shown in FIG. 19, the statement content arrangement reference plane 14 (14b) is set on the camera coordinate system side of the main body arrangement reference plane 12 and slightly before the player character 2 as the comment character. It is also possible to set the highest priority in the concealment processing of the plate polygon while arranging the plate polygon 16 in which the content 5 of speech is drawn.

つまり、吹き出し管理部220を、吹き出し本体61の配置基準面の奥行位置と発言キャラクタの奥行位置との間の奥行位置で、且つ視点から見た吹き出し本体61の像と重なる位置に吹き出し内容物(板ポリゴン16)を配置し、吹き出し本体61の描画の後に吹き出し内容部を描画する機能部として働かせる。   In other words, the balloon management unit 220 sets the balloon contents (in the depth position between the depth position of the arrangement reference plane of the balloon main body 61 and the depth position of the comment character, at a position overlapping the image of the balloon main body 61 as viewed from the viewpoint. A plate polygon 16) is arranged and functions as a function unit for drawing a balloon content part after drawing of the balloon body 61.

この場合、発言内容5の奥行情報が、発言キャラクタ(図19の例では、プレーヤキャラクタ2)の奥行情報と近接する。従って、眼の焦点調節を発言内容5に合わせたまま、注目点を発言キャラクタが描画されている位置にずらすだけで発言キャラクタをはっきりと見ることができるようになる。
この場合、[その4]で説明した吹き出しオブジェクト6の輪郭部の「ぼかし」処理を加えると更に好適である。
In this case, the depth information of the statement content 5 is close to the depth information of the statement character (player character 2 in the example of FIG. 19). Therefore, the remark character can be clearly seen only by shifting the attention point to the position where the remark character is drawn while keeping the focus adjustment of the eyes in accordance with the remark content 5.
In this case, it is more preferable to add the “blurring” process for the outline of the balloon object 6 described in [Part 4].

[その6]
また、吹き出しオブジェクト6は予め用意された演出用イベントでのみ利用可能なものではなく、チャット機能でも利用できる。また、吹き出しオブジェクト6の内容として任意の画像、例えばプレーヤ自身の画像等を使用することもできる。
[Part 6]
Further, the balloon object 6 can be used not only for a production event prepared in advance but also for a chat function. Further, an arbitrary image such as an image of the player itself can be used as the content of the balloon object 6.

具体的には、立体視画像生成装置として、図20に示すような据置型の家庭用ゲーム装置1200Fを構成する。当該装置は、第1実施形態の据置型の家庭用ゲーム装置1200をベースとして、プレーヤ自身を撮影するイメージセンサモジュール1227と、マイク1272とヘッドホン1274を一体に備えたチャット用のヘッドセット1270とを備える。そして、据置型の家庭用ゲーム装置1200Fは、通信回線1を介して、他プレーヤが使用する同様の他の据置型の家庭用ゲーム装置とデータ通信を実現し、所謂通信プレイができるものとする。   Specifically, a stationary home game device 1200F as shown in FIG. 20 is configured as a stereoscopic image generation device. The apparatus is based on the stationary home-use game apparatus 1200 of the first embodiment, and includes an image sensor module 1227 for photographing the player himself, and a chat headset 1270 integrally including a microphone 1272 and headphones 1274. Prepare. The stationary home game device 1200F realizes data communication with another similar home game device used by another player via the communication line 1, and can perform so-called communication play. .

プレーヤは、立体視メガネ1226と、ヘッドセット1270を装着してゲームプレイする。ゲーム中に、ゲームコントローラ1230で所定のチャット操作開始操作を入力すると、プレーヤが発した音声信号と、イメージセンサモジュール1227で撮影したプレーヤの画像が、通信回線1を介して他の据置型の家庭用ゲーム装置に送信される。反対に、他の家庭用ゲーム装置でチャット操作開始操作が入力されれば、他プレーヤが発した音声とプレーヤの画像と音声の信号を受信できる。つまり、通信プレイ型のビデオゲームにおいて、音声とプレーヤ画像を用いたチャット機能を実現できる。尚、こうした音声と画像をチャット情報として利用する技術は、公知のチャット関連技術を適宜用いることで実現できる。   The player wears stereoscopic glasses 1226 and a headset 1270 to play a game. When a predetermined chat operation start operation is input by the game controller 1230 during the game, an audio signal generated by the player and an image of the player captured by the image sensor module 1227 are transmitted to another stationary home via the communication line 1. Sent to the game device. On the other hand, if a chat operation start operation is input in another home game device, it is possible to receive a sound produced by another player, a player image, and a sound signal. That is, in a communication play type video game, a chat function using sound and a player image can be realized. Note that the technology of using such voice and image as chat information can be realized by appropriately using a known chat related technology.

そして、上記実施形態に、他の家庭用ゲーム装置から受信した音声はビデオモニタ1220のスピーカ1224で再生し、受信したプレーヤ画像を吹き出しオブジェクト6の内容としてフラットパネルディスプレイ1222で立体視表示する機能を追加することができる。   In the above embodiment, the audio received from the other home game device is reproduced by the speaker 1224 of the video monitor 1220, and the received player image is stereoscopically displayed on the flat panel display 1222 as the contents of the balloon object 6. Can be added.

ゲーム中にチャット可能なビデオゲームとして、例えば、通信プレイ型のFPS(ファーストパーソンシューティング)ゲームを実行するとするならば、例えば、図21に示すようなゲーム画面W6を表示するものとする。
すなわち、ゲーム画面W6は、第1実施形態のメインゲーム画面W2と同様に、左眼用立体視画像と右眼立体視画像とによって立体視メガネ1226を装着したプレーヤに立体視感を与えることができる。プレーヤは、他プレーヤと協力してゲームフィールド内の敵4を全て駆逐することを目指す。図の例では、ゲーム画面W6内に他プレーヤが操作する他プレーヤキャラクタ30,32が映っている。そして、他プレーヤのゲーム装置からチャット情報を受信すると、対応する他プレーヤキャラクタに対応づけられる吹き出しオブジェクト6が表示され、その中に当該他プレーヤの画像34が表示される。
For example, if a communication play type FPS (First Person Shooting) game is executed as a video game that can be chatted during the game, for example, a game screen W6 as shown in FIG. 21 is displayed.
That is, the game screen W6 can give a stereoscopic effect to the player wearing the stereoscopic glasses 1226 by using the left-eye stereoscopic image and the right-eye stereoscopic image, similarly to the main game screen W2 of the first embodiment. it can. The player aims to destroy all enemies 4 in the game field in cooperation with other players. In the illustrated example, other player characters 30 and 32 operated by other players are shown in the game screen W6. When the chat information is received from the game device of another player, the balloon object 6 associated with the corresponding other player character is displayed, and the image 34 of the other player is displayed therein.

より具体的には、吹き出し本体配置基準情報522h(図9参照)と同様のデータ(「チャット用本体配置基準情報」と呼ぶ)を独立して記憶部500に記憶させておく。
当該データは、チャット用の吹き出しオブジェクト6に適用される「チャット用吹き出し本体配置基準面」(図3の本体配置基準面12に相当する)をメインゲーム空間内に設定するための条件を設定する。
More specifically, data similar to the balloon main body arrangement reference information 522h (see FIG. 9) (referred to as “chat main arrangement reference information”) is stored in the storage unit 500 independently.
The data sets a condition for setting a “chat balloon main body arrangement reference plane” (corresponding to the main body arrangement reference plane 12 of FIG. 3) applied to the chat balloon object 6 in the main game space. .

「チャット用吹き出し本体配置基準面」そのものは、メインゲーム空間に配置され、仮想カメラのカメラ座標系Zc軸方向(奥行方向)の位置関係は、上記実施形態における本体配置基準面12と同様であり、仮想カメラに対して最も手前に設定される。   The “chat balloon main body arrangement reference plane” itself is arranged in the main game space, and the positional relationship in the camera coordinate system Zc axis direction (depth direction) of the virtual camera is the same as that of the main body arrangement reference plane 12 in the above embodiment. , It is set closest to the virtual camera.

また、チャット用の吹き出しオブジェクト6に対応づけて用意される吹き出しデータセット542(図10参照)では、発言ID546が省略され、代わりにチャット情報の送信元のゲーム装置IDを格納する。また、吹き出し対応キャラクタID548には、当該送信元のゲーム装置に対応づけられる他プレーヤキャラクタ(図21の例では、他プレーヤキャラクタ30,32)のIDが格納される。   Also, in the speech balloon data set 542 (see FIG. 10) prepared in association with the chat speech balloon object 6, the speech ID 546 is omitted, and the game apparatus ID that is the source of chat information is stored instead. Further, the balloon-corresponding character ID 548 stores the IDs of other player characters (in the example of FIG. 21, the other player characters 30 and 32) associated with the transmission source game device.

そして、処理部200は、ゲームプレイ中にチャット情報を受信した場合に、図22に示すチャット吹き出し管理処理を実行する。同処理では、処理部200は先ず、今回受信したチャット情報に対応づけられるオブジェクト6が既に配置されているかを判定する(ステップS200)。例えば、吹き出し管理データ540内に、今回受信したチャット情報の送信元のゲーム装置IDを含む吹き出しデータセット542が有れば肯定判定し、なければ否定判定する。   And the process part 200 performs the chat balloon management process shown in FIG. 22, when chat information is received during a game play. In this process, the processing unit 200 first determines whether or not the object 6 associated with the chat information received this time has already been arranged (step S200). For example, if the balloon management data 540 includes the balloon data set 542 including the game apparatus ID that is the transmission source of the chat information received this time, an affirmative determination is made, and if not, a negative determination is made.

もし、ステップS200が否定ならば(ステップS200のNO)、処理部200は次に、「チャット用本体配置基準情報」に基づいて「チャット用吹き出し本体配置基準面」をゲーム空間内に求め、そこに吹き出しテンプレートデータ514で設定されたままの新たな吹き出しオブジェクト6を配置する(ステップS202)。   If step S200 is negative (NO in step S200), the processing unit 200 next obtains a “chat body position reference plane for chat” in the game space based on the “chat body position reference information”, and there A new speech balloon object 6 that is set in the speech balloon template data 514 is placed in (Step S202).

もし、今回受信したチャット情報に対応づけられる吹き出しオブジェクト6が既に配置済であれば(ステップS200のYES)、ステップS202はスキップされる。   If the balloon object 6 associated with the chat information received this time has already been placed (YES in step S200), step S202 is skipped.

次いで、処理部200は、今回受信したチャット情報に含まれるプレーヤ画像を所定のサイズにトリミング処理し(ステップS206)、チャット用の吹き出しオブジェクト6の縦横の幅をトリミング後のプレーヤ画像に最適化した適当な幅とする(ステップS208)。そして、吹き出しテンプレートデータ514の標準配色データ514eを参照して、吹き出し本体61の部分に、トリミング後のプレーヤ画像を合成して、吹き出しテクスチャ560(図10参照)を生成する(ステップS210)。   Next, the processing unit 200 trims the player image included in the chat information received this time to a predetermined size (step S206), and optimizes the vertical and horizontal widths of the chat balloon object 6 to the player image after trimming. An appropriate width is set (step S208). Then, with reference to the standard color arrangement data 514e of the balloon template data 514, the trimmed player image is combined with the balloon body 61 to generate a balloon texture 560 (see FIG. 10) (step S210).

次に、処理部200は、指示体先端頂点P9を、発言キャラクタを差し示すのに適当な位置へ最適化する(ステップS212)。
具体的には、発言キャラクタには、今回受信したチャット情報の送信元のゲーム装置IDに対応づけられる他プレーヤキャラクタが設定されていることになるので、キャラクタ初期設定データ512の中から、当該発言キャラクタとされる他プレーヤキャラクタに対応するキャラクタデータセット512a(図7参照)を参照し、当該発言キャラクタとされる他プレーヤキャラクタにおける発声基準点座標512eで示される発声基準点72を求める。そして、現在の指示体基点70から発声基準点72とを結ぶ直線L1を求め、更に発声基準点72から境界面半径512fの球形境界面74を求め、直線L1と球形境界面74との交点へ指示体先端頂点P9の位置を変更する。
Next, the processing unit 200 optimizes the indicator tip apex P9 to an appropriate position for indicating the speaking character (step S212).
Specifically, since another player character associated with the game apparatus ID that is the transmission source of the chat information received this time is set for the comment character, the comment character is set from the character initial setting data 512. With reference to a character data set 512a (see FIG. 7) corresponding to the other player character to be the character, the utterance reference point 72 indicated by the utterance reference point coordinate 512e in the other player character to be the utterance character is obtained. Then, a straight line L1 connecting the current indicator base point 70 to the utterance reference point 72 is obtained, and a spherical boundary surface 74 having a boundary surface radius 512f is obtained from the utterance reference point 72, and the intersection of the straight line L1 and the spherical boundary surface 74 is obtained. The position of the indicator tip apex P9 is changed.

次いで、処理部200は、チャット用の吹き出しオブジェクト6の吹き出し本体61の左右中心線L3から、最適化された指示体先端頂点P9までの左右オフセット距離D2(図4参照)を算出し(ステップS214)、指示体連結部63の下端の2つの頂点P7,P8を、指示体先端頂点P9のある左方向又は右方向へ、左右オフセット距離D2に応じた量だけオフセットする(ステップS216)。   Next, the processing unit 200 calculates a left / right offset distance D2 (see FIG. 4) from the left / right center line L3 of the balloon body 61 of the chat balloon object 6 to the optimized indicator tip apex P9 (step S214). ), The two vertices P7 and P8 at the lower end of the indicator connecting portion 63 are offset to the left or right where the indicator tip apex P9 is located by an amount corresponding to the left-right offset distance D2 (step S216).

尚、配置済のチャット用の吹き出しオブジェクト6については、適宜チャット発言が終了したのを判定して表示解除するものとする。例えば、同一送信元のゲーム装置IDからのチャット情報の更新が所定時間以上為されない場合に、当該ゲーム装置IDに対応づけられているチャット用の吹き出しオブジェクト6の表示を解除するとしても良い。
また、チャット用の吹き出しオブジェクト6の表示制御については、変形例のその1〜その5を適用することができる。
In addition, it is determined that the chat speech balloon object 6 that has been arranged is appropriately terminated after the chat utterance has ended. For example, when the chat information from the same game device ID is not updated for a predetermined time or longer, the display of the chat balloon object 6 associated with the game device ID may be canceled.
As for display control of the speech balloon object 6 for chatting, the first to fifth examples of modifications can be applied.

[その7]
また、上記実施形態では、吹き出し指示体62の形態要素の一つである長さを、キャラクタのサイズに応じて最適化された発生基準点座標512e及び境界面半径512fに応じて、キャラクタ別に最適化して表示する例を示したが、吹き出し指示体62の形態は、その他の要素について可変する構成としてもよい。
[Part 7]
In the above embodiment, the length, which is one of the form elements of the balloon indicator 62, is optimized for each character according to the generation reference point coordinates 512e and the boundary radius 512f optimized according to the character size. In the example shown in FIG. 1, the balloon indicator 62 may be configured to be variable with respect to other elements.

例えば、上記実施形態における指示体連結部63の幅は、吹き出しテンプレートデータ514の標準指示体連結部頂点座標514bにより固定されているが、吹き出し本体61の横幅や縦幅に応じて可変するとしてもよい。具体的には、吹き出し本体61の左右中心線L3(図4参照)から頂点P5〜P8までの左右距離を、吹き出し本体61の横幅や縦幅を変数とする関数で定義することとし、ステップS48(図12参照)にて、吹き出しオブジェクト6の縦横の幅を発言内容5に応じて最適化した後に、最適化された吹き出し本体61の横幅や縦幅をもとに当該関数に従って指示体連結部63の幅を最適化するステップを設ける。この場合、例えば、吹き出し本体61の横幅や縦幅がある基準値までは、横幅や縦幅の増大に応じて指示体連結部63の幅も増大させるが、吹き出し本体61の横幅や縦幅が当該基準値以上になるとそれ以上の指示体連結部63の幅の増加率を抑制したり、増加させないようにすると、バランスの良い「吹き出し」を作ることができる。
また例えば、指示体連結部63の数を、吹き出し本体61の横幅や縦幅、キャラクタのサイズが大きい程、多くなるように設定するのも、吹き出しのデザインに多様性を持たせる意味で好適である。
勿論、吹き出し指示体62の形態を変更する要素は、これらの何れか単独で用いてもよいし、複数を適宜組み合わせるとしてもよい。
For example, the width of the indicator connecting portion 63 in the above embodiment is fixed by the standard indicator connecting portion vertex coordinates 514b of the balloon template data 514, but may vary depending on the horizontal width and vertical width of the balloon main body 61. Good. Specifically, the left-right distance from the left-right center line L3 (see FIG. 4) of the balloon body 61 to the vertices P5 to P8 is defined by a function having the horizontal width and the vertical width of the balloon body 61 as variables. (Refer to FIG. 12), after optimizing the vertical and horizontal widths of the balloon object 6 according to the statement content 5, the indicator connecting unit according to the function based on the optimized horizontal and vertical widths of the balloon body 61 A step for optimizing the width of 63 is provided. In this case, for example, the width of the indicator connecting portion 63 is increased in accordance with the increase in the horizontal width or the vertical width until the horizontal width or the vertical width of the balloon main body 61 reaches a certain reference value. If the rate of increase in the width of the indicator connecting portion 63 beyond this reference value is suppressed or not increased, a well-balanced “balloon” can be created.
In addition, for example, it is preferable to set the number of the indicator connection parts 63 so as to increase as the horizontal width and vertical width of the balloon main body 61 and the character size increase. is there.
Of course, the element which changes the form of the balloon indicator 62 may be used either alone or in combination.

2…プレーヤキャラクタ
5…発言内容
6…吹き出しオブジェクト
61…吹き出し本体
62…吹き出し指示体
63…指示体連結部
12…本体配置基準面
200…処理部
210…ゲーム演算部
212…ゲーム空間設定部
218…発言イベント管理部
220…吹き出し管理部
222…本体制御部
224…指示体制御部
226…連結制御部
228…発言内容制御部
261…立体視画像生成部
361…立体視画像表示部
500…記憶部
502…ゲームプログラム
514…吹き出しテンプレートデータ
520…発言イベント設定データ
522…イベントデータセット
522a…発言ID
522b…イベント発動条件
522c…発言キャラクタID
522d…発言内容
522f…イベント空間設定データ
522h…本体配置基準情報
524…プレイデータ
540…吹き出し管理データ
542…吹き出しデータセット
544…吹き出しID
546…発言ID
548…吹き出し対応キャラクタID
552…本体頂点座標
554…指示体連結部頂点座標
556…指示基点座標
558…指示体先端頂点座標
C1…左仮想カメラ
C2…右仮想カメラ
P9…指示体先端頂点
W2…メインゲーム画面
W4…発言イベント画面
1200…家庭用ゲーム装置
1201…ゲーム装置本体
1210…制御ユニット
1220…ビデオモニタ
1226…立体視メガネ
2 ... Player character 5 ... Message content 6 ... Balloon object 61 ... Balloon body 62 ... Balloon indicator 63 ... Indicator connection part 12 ... Main body arrangement reference plane 200 ... Processing part 210 ... Game calculation part 212 ... Game space setting part 218 ... Speech event management unit 220 ... balloon management unit 222 ... body control unit 224 ... indicator control unit 226 ... connection control unit 228 ... speech content control unit 261 ... stereoscopic image generation unit 361 ... stereoscopic image display unit 500 ... storage unit 502 ... game program 514 ... balloon template data 520 ... speech event setting data 522 ... event data set 522a ... speech ID
522b ... Event trigger condition 522c ... Speaking character ID
522d ... content of statement 522f ... event space setting data 522h ... main body arrangement reference information 524 ... play data 540 ... balloon management data 542 ... balloon data set 544 ... balloon ID
546 ... Statement ID
548 ... Balloon compatible character ID
552... Body vertex coordinates 554. Pointer connecting portion vertex coordinates 556. Pointer reference point coordinates 558. Pointer tip vertex coordinates C1. Left virtual camera C2. Right virtual camera P9 ... Pointer tip vertex W2 ... Main game screen W4. Screen 1200 ... Home game device 1201 ... Game device main body 1210 ... Control unit 1220 ... Video monitor 1226 ... Stereoscopic glasses

Claims (13)

コンピュータに、キャラクタが配置された仮想三次元空間を所与の視点から見た立体視用画像を生成させるためのプログラムであって、
吹き出し本体を、前記吹き出し本体を配置する際の前記視点に基づく奥行位置の基準面又は基準域を定めた奥行配置基準に従った奥行位置に配置する本体部配置手段、
前記本体部配置手段により配置された吹き出し本体と前記キャラクタとの対応関係を示す吹き出し指示体を、当該吹き出し本体と前記キャラクタとの間を結ぶように奥行方向に沿って配置する指示体配置手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to generate a stereoscopic image in which a virtual three-dimensional space in which characters are arranged is viewed from a given viewpoint,
A main body arrangement means for arranging a balloon main body at a depth position in accordance with a depth arrangement standard that defines a reference plane or reference area of a depth position based on the viewpoint when the balloon main body is arranged;
A pointer arrangement means for arranging a balloon indicator indicating a correspondence relationship between the balloon main body and the character arranged by the main body arrangement means along the depth direction so as to connect the balloon main body and the character;
A program for causing the computer to function as
前記指示体配置手段が、前記吹き出し指示体を、前記吹き出し本体の周部所定位置から前記キャラクタに向けて奥行方向に徐々に屈曲させた板状体で配置構成する、
ように前記コンピュータを機能させるための請求項1に記載のプログラム。
The indicator arrangement means arranges and configures the balloon indicator with a plate-like body that is gradually bent in the depth direction from the predetermined position on the periphery of the balloon body toward the character.
The program according to claim 1 for causing the computer to function.
前記指示体配置手段が、前記吹き出し本体に近い側に最大屈曲部が位置するように前記板状体を配置構成する、
ように前記コンピュータを機能させるための請求項2に記載のプログラム。
The indicator arrangement means arranges and configures the plate-like body so that the maximum bent portion is located on the side close to the blowing body.
The program according to claim 2 for causing the computer to function.
前記指示体配置手段が、前記吹き出し本体と前記キャラクタとの間に、複数の小指示体を異なる奥行位置に離散的に配置することで前記吹き出し指示体を配置構成する、
ように前記コンピュータを機能させるための請求項2に記載のプログラム。
The indicator arrangement means arranges and configures the balloon indicator by discretely arranging a plurality of small indicators at different depth positions between the balloon main body and the character.
The program according to claim 2 for causing the computer to function.
前記指示体配置手段が、前記複数の小指示体の配置間隔を前記吹き出し本体に近い方が狭くなるように配置する、
ように前記コンピュータを機能させるための請求項4に記載のプログラム。
The indicator arrangement means arranges the arrangement interval of the plurality of small indicators so that the one closer to the balloon main body is narrower,
The program according to claim 4 for causing the computer to function as described above.
前記指示体配置手段が、前記吹き出し本体のサイズ及び/又は前記キャラクタのサイズに応じて前記吹き出し指示体の形態を変更して配置する、
ように前記コンピュータを機能させるための請求項1〜5の何れか一項に記載のプログラム。
The indicator arrangement means changes and arranges the form of the balloon indicator according to the size of the balloon main body and / or the size of the character.
The program according to any one of claims 1 to 5 for causing the computer to function as described above.
前記吹き出し指示体と前記キャラクタとの奥行方向の相対的な位置関係に応じて、前記吹き出し指示体の配色を変更する配色変更手段、
として前記コンピュータを更に機能させるための請求項1〜6の何れか一項に記載のプログラム。
Color arrangement changing means for changing the color arrangement of the balloon indicator according to the relative positional relationship between the balloon indicator and the character in the depth direction;
The program as described in any one of Claims 1-6 for making the said computer further function as.
前記吹き出し本体と他のオブジェクトとの位置関係に基づいて、前記視点から見て前記他のオブジェクトの一部又は全部が前記吹き出し本体に隠れるか否かを判定する隠蔽判定手段、
前記隠蔽判定手段により隠れると判定された場合に、前記立体視用画像の生成時に、前記吹き出し本体の輪郭の視認性を低下させるために所定のぼかし処理を施して前記吹き出し本体を描画する本体部描画手段、
として前記コンピュータを更に機能させるための請求項1〜7の何れか一項に記載のプログラム。
A concealment determining means for determining whether or not a part or all of the other object is hidden by the balloon body as viewed from the viewpoint based on the positional relationship between the balloon body and the other object.
A body portion that renders the balloon body by performing a predetermined blurring process to reduce the visibility of the outline of the balloon body when generating the stereoscopic image when it is determined to be hidden by the concealment determining means Drawing means,
The program as described in any one of Claims 1-7 for making the said computer further function as.
吹き出し内容部を、前記視点から見て前記吹き出し本体と重なる位置であって、奥行位置が、前記吹き出し内容部を配置する際の前記視点に基づく奥行位置の基準面又は基準域を定めた内容部奥行配置基準に従った奥行位置に配置する内容部配置手段、
として前記コンピュータを更に機能させるための請求項1〜8の何れか一項に記載のプログラム。
A content part that defines the speech bubble content part as viewed from the viewpoint and overlaps the speech bubble body, and the depth position defines a reference plane or reference area of the depth position based on the viewpoint when the speech content part is arranged Content placement means for placing at a depth position according to the depth placement criteria,
The program as described in any one of Claims 1-8 for making the said computer further function as.
前記奥行配置基準が、前記奥行配置基準と前記キャラクタの奥行位置との間の奥行位置を定めており、
前記吹き出し本体の描画の後に前記吹き出し内容部を描画する内容部描画手段、
として前記コンピュータを更に機能させるための請求項9に記載のプログラム。
The depth placement reference defines a depth position between the depth placement reference and the depth position of the character;
Content part drawing means for drawing the balloon content part after drawing of the balloon body;
The program according to claim 9 for causing the computer to further function as:
前記吹き出し内容部は、所与のプレーヤ画像を少なくとも含み、
前記本体部配置手段及び前記内容部配置手段が、前記視点に基づく前記キャラクタの奥行位置に応じて前記吹き出し本体及び前記吹き出し内容部の大きさを変化させて配置構成する、
ように前記コンピュータを機能させるための請求項9又は10に記載のプログラム。
The balloon content part includes at least a given player image,
The main body portion arranging means and the content portion arranging means are arranged and configured by changing the size of the balloon main body and the balloon content portion according to the depth position of the character based on the viewpoint.
The program according to claim 9 or 10 for causing the computer to function as described above.
請求項1〜11の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-11. キャラクタが配置された仮想三次元空間を所与の視点から見た立体視用画像を生成する立体視画像生成装置であって、
吹き出し本体を、前記吹き出し本体を配置する際の前記視点に基づく奥行位置の基準面又は基準域を定めた奥行配置基準に従った奥行位置に配置する本体部配置手段と、
前記本体部配置手段により配置された吹き出し本体と前記キャラクタとの対応関係を示す吹き出し指示体を、当該吹き出し本体と前記キャラクタとの間を結ぶように奥行方向に沿って配置する指示体配置手段と、
を備えた立体視画像生成装置。
A stereoscopic image generation device for generating a stereoscopic image in which a virtual three-dimensional space in which a character is arranged is viewed from a given viewpoint,
A main body arrangement means for arranging a balloon main body at a depth position in accordance with a depth arrangement standard that defines a reference plane or reference area of a depth position based on the viewpoint when the balloon main body is arranged;
A pointer placement means for placing a balloon indicator indicating the correspondence between the balloon body and the character placed by the body portion placement means along the depth direction so as to connect the balloon body and the character; ,
A stereoscopic image generating apparatus comprising:
JP2011040941A 2011-02-25 2011-02-25 Program, information storage medium and stereoscopic image generation device Withdrawn JP2012178060A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011040941A JP2012178060A (en) 2011-02-25 2011-02-25 Program, information storage medium and stereoscopic image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011040941A JP2012178060A (en) 2011-02-25 2011-02-25 Program, information storage medium and stereoscopic image generation device

Publications (1)

Publication Number Publication Date
JP2012178060A true JP2012178060A (en) 2012-09-13

Family

ID=46979858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011040941A Withdrawn JP2012178060A (en) 2011-02-25 2011-02-25 Program, information storage medium and stereoscopic image generation device

Country Status (1)

Country Link
JP (1) JP2012178060A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015144836A (en) * 2013-02-27 2015-08-13 株式会社スクウェア・エニックス Video game processing device and video game processing program
JP2018117658A (en) * 2017-01-23 2018-08-02 株式会社カプコン Game program and game system
JP2019017755A (en) * 2017-07-19 2019-02-07 株式会社カプコン Game program and game system
US10252161B2 (en) 2013-02-27 2019-04-09 Kabushiki Kaisha Square Enix Video game processing program and video game processing method
JP2022041095A (en) * 2020-08-31 2022-03-11 株式会社スクウェア・エニックス Balloon generation program, and video game processing system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015144836A (en) * 2013-02-27 2015-08-13 株式会社スクウェア・エニックス Video game processing device and video game processing program
US10252161B2 (en) 2013-02-27 2019-04-09 Kabushiki Kaisha Square Enix Video game processing program and video game processing method
JP2018117658A (en) * 2017-01-23 2018-08-02 株式会社カプコン Game program and game system
JP2019017755A (en) * 2017-07-19 2019-02-07 株式会社カプコン Game program and game system
JP2022041095A (en) * 2020-08-31 2022-03-11 株式会社スクウェア・エニックス Balloon generation program, and video game processing system
JP7157781B2 (en) 2020-08-31 2022-10-20 株式会社スクウェア・エニックス Speech bubble generator and video game processing system
JP2023002617A (en) * 2020-08-31 2023-01-10 株式会社スクウェア・エニックス Balloon generation program and video game processing system
US11766617B2 (en) 2020-08-31 2023-09-26 Square Enix Co., Ltd. Non-transitory medium and video game processing system
JP7392074B2 (en) 2020-08-31 2023-12-05 株式会社スクウェア・エニックス Speech bubble generation program and video game processing system

Similar Documents

Publication Publication Date Title
US10478724B2 (en) Game device, processing method, and information storage medium
US9278281B2 (en) Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
JP5627973B2 (en) Program, apparatus, system and method for game processing
JP5643617B2 (en) Image processing program, image processing apparatus, image processing method, and image processing system
US9789401B2 (en) Game device, game system, and information storage medium
US9196078B2 (en) System and methods for displaying virtual space including a silhouette image
US9737814B2 (en) Computer readable medium storing image processing program of synthesizing images
JP2019175323A (en) Simulation system and program
JP2012174237A (en) Display control program, display control device, display control system and display control method
JP2011258160A (en) Program, information storage medium and image generation system
JP2003107603A (en) Stereophonic image generating device, stereophonic image generation information and information storage medium
US20100118273A1 (en) Method of making printed material for stereoscopic viewing, and printed material for stereoscopic viewing
JP5689637B2 (en) Stereoscopic display control program, stereoscopic display control system, stereoscopic display control apparatus, and stereoscopic display control method
JP5738077B2 (en) Display control program, display device, display system, and display control method
JP2013054569A (en) Information processing program, information processor, information processing system, and information processing method
JP2012178060A (en) Program, information storage medium and stereoscopic image generation device
JP2019152899A (en) Simulation system and program
JP2011186566A (en) Game device, control method for game device, and program
JP5876983B2 (en) Display control program, display control device, display control method, and display control system
JP5698028B2 (en) Program and stereoscopic image generation apparatus
JP6794390B2 (en) Simulation system and program
JP2012141819A (en) Image processing system, image processing program, image processing method and image processing device
JP2020107251A (en) Image generation system and program
JP2016001476A (en) Display control program, display control device, display control system and display control method
JP5649846B2 (en) Program and image generation system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513