JP2009070076A - Program, information storage medium, and image generation device - Google Patents

Program, information storage medium, and image generation device Download PDF

Info

Publication number
JP2009070076A
JP2009070076A JP2007236891A JP2007236891A JP2009070076A JP 2009070076 A JP2009070076 A JP 2009070076A JP 2007236891 A JP2007236891 A JP 2007236891A JP 2007236891 A JP2007236891 A JP 2007236891A JP 2009070076 A JP2009070076 A JP 2009070076A
Authority
JP
Japan
Prior art keywords
sub
screen
image
touch panel
panel display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007236891A
Other languages
Japanese (ja)
Inventor
Yukinobu Yamamoto
幸延 山本
Hidefumi Aoki
英史 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2007236891A priority Critical patent/JP2009070076A/en
Publication of JP2009070076A publication Critical patent/JP2009070076A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an information storage medium and an image generation device for achieving totally new image representation using a touch panel display. <P>SOLUTION: This image generation device is provided with a contact position acquisition part for acquiring the contact position TP of a transparent object TOB when a contact event in which the transparent object TOB is brought into contact with a touch panel display 190 occurs; a sub-picture control part for performing processing to make a display region corresponding to the acquired contact position TP generate a sub-picture SB when the contact event occurs; and a picture generation part. The sub-picture control part performs processing to make the display region corresponding to the contact position generate the sub-picture SB whose size is set so that the sub-picture image to be viewed through the transparent object TOB can be displayed in the outline region of the transparent object TOB when the touch panel display 190 and the transparent object TOB are top-viewed. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体及び画像生成装置に関する。   The present invention relates to a program, an information storage medium, and an image generation apparatus.

従来より、タッチパネルディスプレイを有する携帯型ゲーム装置などの画像生成装置が知られている。この画像生成装置では、タッチパネルディスプレイへのタッチ操作によって、プレーヤは操作情報を入力できる。具体的には、タッチパネルディスプレイ上に操作指示を行うための様々なアイコンを表示しておく。そしてプレーヤは、スタイラスペンや指により、これらのアイコンにタッチすることで、自身が所望する操作情報を入力する。   Conventionally, an image generation device such as a portable game device having a touch panel display is known. In this image generation apparatus, the player can input operation information by a touch operation on the touch panel display. Specifically, various icons for performing operation instructions are displayed on the touch panel display. Then, the player touches these icons with a stylus pen or a finger to input operation information desired by the player.

しかしながら、これまでのタッチパネルディスプレイ型の画像生成装置では、タッチ操作は、操作情報の入力のためにだけ使用され、タッチ操作を用いた映像効果の演出は考えられていなかった。またタッチ操作は、指やスタイラスペンにより行われ、それ以外の物体によるタッチ操作は想定されていなかった。
特開2006−122164号公報
However, in conventional touch panel display type image generation apparatuses, the touch operation is used only for inputting operation information, and the production of the video effect using the touch operation has not been considered. The touch operation is performed with a finger or a stylus pen, and touch operations with other objects are not assumed.
JP 2006-122164 A

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、タッチパネルディスプレイを用いたこれまでにない画像表現を実現できるプログラム、情報記憶媒体及び画像生成装置を提供することにある。   The present invention has been made in view of the problems as described above, and an object of the present invention is to provide a program, an information storage medium, and an image generation apparatus that can realize an unprecedented image expression using a touch panel display. There is to do.

本発明は、タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、前記サブ画面制御部は、前記タッチパネルディスプレイ及び前記透明物体を平面視した場合における前記透明物体の輪郭領域内に、前記透明物体を介して見える前記サブ画面の画像が表示されるように、そのサイズが設定された前記サブ画面を、前記接触位置に対応する前記表示領域に発生させる処理を行う画像生成装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   The present invention is an image generation device that generates an image displayed on a touch panel display, and acquires a contact position of the transparent object when a contact event occurs in which the transparent object contacts the touch panel display. A sub screen control unit that performs processing for generating a sub screen in a display area corresponding to the acquired touch position when the touch event occurs, and generates an image including the image of the sub screen. And the image generation unit for displaying on the touch panel display, and the sub-screen control unit is visible through the transparent object in an outline region of the transparent object when the touch panel display and the transparent object are viewed in plan view. In order to display the image of the sub screen, the sub screen whose size is set is moved to the contact position. It relates to an image generating apparatus which performs the process of generating the display area response. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明によれば、透明物体の接触イベントが発生すると、その接触位置が取得され、接触位置に対応する表示領域にサブ画面が発生する。そして発生したサブ画面の画像を含む画像が生成される。従って、透明物体を置く前には存在していなかったサブ画面画像が、透明物体を置くことで出現するようになり、これまでにない画像表現を実現できる。そして本発明では、平面視における透明物体の輪郭領域内に、透明物体を介して見えるサブ画面画像が表示されるように、サブ画面のサイズが設定される。従って、あたかも透明物体の内部にサブ画面画像が映し出されたかのように見える画像表現を実現できる。   According to the present invention, when a contact event of a transparent object occurs, the contact position is acquired, and a sub screen is generated in a display area corresponding to the contact position. Then, an image including the generated image of the sub screen is generated. Therefore, the sub-screen image that did not exist before placing the transparent object appears when the transparent object is placed, and an unprecedented image expression can be realized. In the present invention, the size of the sub screen is set so that the sub screen image seen through the transparent object is displayed in the outline region of the transparent object in plan view. Therefore, it is possible to realize an image expression that looks as if the sub-screen image is projected inside the transparent object.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面の画像上に前記サブ画面を発生させ、前記タッチパネルディスプレイから前記透明物体が離れる離隔イベントが発生した場合に、発生した前記サブ画面を非表示にする処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, when the contact event occurs, the sub screen control unit generates the sub screen on the image of the main screen of the touch panel display, and When the separation event in which the transparent object is separated from the touch panel display occurs, a process of hiding the generated sub screen may be performed.

このようにすれば、透明物体を取り外した場合に、サブ画面は非表示になるため、種明かしが直ぐにわかってしまう事態等を防止できる。   In this way, when the transparent object is removed, the sub-screen is not displayed, so that it is possible to prevent a situation in which the identification is immediately known.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では前記サブ画面制御部は、前記接触イベントが発生した場合に、前記サブ画面に表示される文章をスクロールさせるテロップ処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub screen control unit may perform a telop process for scrolling a text displayed on the sub screen when the contact event occurs.

このようにすれば、サブ画面を小さなサイズに設定した場合でも、多くの文字数の文章を透明物体を介して表示することが可能になる。   In this way, even when the sub-screen is set to a small size, it is possible to display a sentence with a large number of characters via the transparent object.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面の拡大画像を前記サブ画面に表示する処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub screen control unit performs a process of displaying an enlarged image of the main screen of the touch panel display on the sub screen when the contact event occurs. You may go.

このようにすれば、透明物体をタッチパネルディスプレイに接触させるだけで、メイン画面の詳細な拡大画像をサブ画面を介して表示できるようになる。   In this way, a detailed enlarged image of the main screen can be displayed via the sub screen simply by bringing the transparent object into contact with the touch panel display.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面に表示されるべきキャラクタの拡大画像を前記サブ画面に表示する処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub screen control unit displays an enlarged image of the character to be displayed on the main screen of the touch panel display when the touch event occurs. You may perform the process displayed on a screen.

このようにすれば、透明物体をタッチパネルディスプレイに接触させるだけで、メイン画面のキャラクタの拡大画像をサブ画面を介して表示できるようになる。   In this way, an enlarged image of the character on the main screen can be displayed via the sub screen simply by bringing the transparent object into contact with the touch panel display.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記メイン画面での前記接触位置に応じて、異なったキャラクタの拡大画像を前記サブ画面に表示する処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub-screen control unit performs a process of displaying enlarged images of different characters on the sub-screen according to the contact position on the main screen. You may go.

このようにすれば、透明物体をタッチパネルディスプレイに接触させて、メイン画面のキャラクタを探すという楽しみを提供できる。   In this way, it is possible to provide a pleasure of searching for a character on the main screen by bringing a transparent object into contact with the touch panel display.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面に表示されるキャラクタの透過表現画像を前記サブ画面に表示する処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub-screen control unit displays a transparent expression image of a character displayed on the main screen of the touch panel display when the contact event occurs. You may perform the process displayed on a screen.

このようにすれば、透明物体をタッチパネルディスプレイに接触させるだけで、メイン画面のキャラクタの透過表現画像をサブ画面を介して表示できるようになる。   In this way, the transparent representation image of the character on the main screen can be displayed via the sub screen simply by bringing the transparent object into contact with the touch panel display.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記メイン画面に表示される前記キャラクタの画像よりも小さなサイズの前記透過表現画像を前記サブ画面に表示する処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub-screen control unit displays the transparent representation image having a size smaller than the character image displayed on the main screen on the sub-screen. Processing may be performed.

このようにすれば、キャラクタの画像と、透明物体を介して映る透過表現画像との位置関係に矛盾が生じず、不自然さのない画像を表示できる。   In this way, there is no contradiction in the positional relationship between the character image and the transparent expression image reflected through the transparent object, and an image with no unnaturalness can be displayed.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記タッチパネルディスプレイのメイン画面に表示されるべきキャラクタと前記接触位置とが一致したと判断された場合に、前記キャラクタの説明画像が表示されるサブ画面を発生させてもよい。   In the image generation device, the program, and the information storage medium according to the present invention, when the sub-screen control unit determines that the character to be displayed on the main screen of the touch panel display matches the contact position, A sub-screen on which an explanation image of the character is displayed may be generated.

このような説明画像のサブ画面を表示すれば、キャラクタを探してその説明を見るという図鑑等のような楽しみを、提供することができる。   Displaying such a sub-screen of explanation images can provide enjoyment such as a picture book of searching for a character and viewing the explanation.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記接触イベントが発生した後、所与のタイムラグ期間が経過した後に、前記表示領域に前記サブ画面を発生させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub screen control unit generates the sub screen in the display area after a given time lag period has elapsed after the contact event has occurred. You may perform the process to make.

このようにすれば、透明物体が置かれていない状態で、タッチパネルディスプレイに指等でタッチして直ぐに離した場合に、サブ画面は表示されないため、種明かしがわかってしまう事態等を防止できる。   In this way, when the transparent object is not placed and the touch panel display is touched with a finger or the like and then released immediately, the sub-screen is not displayed, so that it is possible to prevent a situation where the secret is known.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記接触イベントが発生した場合に、前記接触位置から離れた場所に設定された前記表示領域に前記サブ画面を発生させ、前記サブ画面が発生した後、前記サブ画面を前記接触位置に向かって移動させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, when the touch event occurs, the sub screen control unit displays the sub screen in the display area set at a place away from the touch position. After the sub screen is generated, a process of moving the sub screen toward the contact position may be performed.

このようにすれば、透明物体を置いた時に、透明物体の中心にサブ画面画像が突然現れるのではなく、サブ画面画像が徐々に例えば中心に向かって移動しながら現れるという画像表現を実現できる。   In this way, when a transparent object is placed, it is possible to realize an image expression in which the sub screen image does not suddenly appear at the center of the transparent object but appears gradually moving toward the center, for example.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記接触イベントが発生した後、前記接触位置が移動した場合に、移動する前記接触位置に追従するように、前記サブ画面を移動させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub-screen control unit may follow the moving contact position when the contact position moves after the contact event occurs. A process for moving the sub-screen may be performed.

このようにすれば、透明物体の輪郭領域内に表示されるサブ画面画像も、透明物体の移動に追従させることが可能になる。   In this way, the sub-screen image displayed in the outline area of the transparent object can also follow the movement of the transparent object.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、プレーヤのゲーム成績を演算するゲーム成績演算部を含み(ゲーム成績演算部としてコンピュータを機能させ)、前記ゲーム成績演算部は、前記接触イベントが発生して、前記サブ画面が発生した後に、プレーヤが操作部を用いて所与の操作情報を入力した場合に、入力された操作情報に基づいてプレーヤのゲーム成績を演算してもよい。   The image generation device, the program, and the information storage medium according to the present invention include a game score calculation unit that calculates a game score of a player (a computer is caused to function as the game score calculation unit), and the game score calculation unit includes the contact score calculation unit. When an event occurs and the sub-screen is generated, when the player inputs given operation information using the operation unit, the game result of the player may be calculated based on the input operation information. .

このようにすれば、接触イベントの発生により、単にサブ画面画像が出現するだけではなく、プレーヤがゲーム操作を行うことで、プレーヤのゲーム成績も演算されるようになる。   In this way, the occurrence of the contact event not only causes the sub screen image to appear, but the player's game results are also calculated by the player performing a game operation.

また本発明は、タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、プレーヤのゲーム成績を演算するゲーム成績演算部とを含み、前記ゲーム成績演算部は、前記接触イベントが発生して、前記サブ画面が発生した後に、プレーヤが操作部を用いて所与の操作情報を入力した場合に、入力された操作情報に基づいてプレーヤのゲーム成績を演算する画像生成装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   In addition, the present invention is an image generation device that generates an image displayed on a touch panel display, and acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display. And, when the touch event occurs, generates a sub screen control unit that performs processing to generate a sub screen in the display area corresponding to the acquired touch position, and generates an image including the image of the sub screen, An image generation unit for displaying on the touch panel display; and a game result calculation unit for calculating a game result of the player, wherein the game result calculation unit is configured such that after the touch event occurs and the sub screen is generated, the player When a player inputs given operation information using the operation unit, the player's game performance is displayed based on the input operation information. It relates to an image generating device for. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面における前記接触位置での拡大画像を前記サブ画面に表示する処理を行い、前記ゲーム成績演算部は、前記接触イベントが発生して、前記サブ画面が発生した後に、プレーヤがシューティング操作を行った場合に、前記拡大画像に表示されるキャラクタに対するシューティングについてのプレーヤのゲーム成績を演算してもよい。   In the image generation device, the program, and the information storage medium according to the present invention, when the contact event occurs, the sub screen control unit displays an enlarged image at the contact position on the main screen of the touch panel display. When the player performs a shooting operation after the touch event occurs and the sub-screen is generated, the game score calculation unit performs shooting for the character displayed in the enlarged image. The player's game results may be calculated.

このようにすれば、これまでにないシューティングゲームのゲーム処理を実現できる。   In this way, game processing of a shooting game that has never been possible can be realized.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部を含み(通信処理部としてコンピュータを機能させ)、前記サブ画面制御部は、前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記サブ画面を発生させる処理を行ってもよい。   In addition, the image generation device, the program, and the information storage medium according to the present invention include a communication processing unit that performs processing for receiving game play information of another player who plays a game on another image generation device via a network (communication processing). And the sub screen control unit may perform processing for generating the sub screen based on the received game play information of the other player when the contact event occurs. .

このようにすれば、通信処理との組み合わせにより、これまでにないゲーム処理を実現できる。   In this way, an unprecedented game process can be realized by a combination with the communication process.

また本発明は、タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部とを含み、前記サブ画面制御部は、前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記サブ画面を発生させる処理を行う画像生成装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   In addition, the present invention is an image generation device that generates an image displayed on a touch panel display, and acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display. And, when the touch event occurs, generates a sub screen control unit that performs processing to generate a sub screen in the display area corresponding to the acquired touch position, and generates an image including the image of the sub screen, An image generation unit for displaying on the touch panel display; and a communication processing unit for performing processing for receiving game play information of another player playing a game on another image generation device via a network. When the contact event occurs, the sub-image is based on the received game play information of the other player. It relates to an image generating apparatus for performing a process of generating. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記サブ画面制御部は、前記他のプレーヤのゲームプレイ情報に基づいて、前記他のプレーヤの視点から見える画像が表示された前記サブ画面を発生させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the sub screen control unit displays the sub screen on which an image viewed from the viewpoint of the other player is displayed based on the game play information of the other player. Processing for generating a screen may be performed.

このようにすれば、プレーヤは、他のプレーヤから見て、プレーヤ側がどのように見えるのかを覗き見することができ、これまでにない画像表現を実現できる。   In this way, the player can look into what the player looks like when viewed from other players, and can realize an image expression that has never existed before.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に、本実施形態の画像生成装置の外観図を示す。ここでは画像生成装置の一例として携帯型ゲーム装置を示している。なお本実施形態が適用される画像生成装置は、このような携帯型ゲーム装置に限定されず、例えば携帯型ゲーム装置以外のゲーム装置、携帯型情報端末、携帯電話機などのタッチパネルディスプレイを有する種々の電子機器に適用できる。
1. Configuration FIG. 1 is an external view of an image generation apparatus according to this embodiment. Here, a portable game device is shown as an example of the image generation device. Note that the image generation apparatus to which the present embodiment is applied is not limited to such a portable game apparatus, but includes various touch panel displays such as game apparatuses other than the portable game apparatus, portable information terminals, and mobile phones. Applicable to electronic equipment.

図1の画像生成装置は、第1のディスプレイであるタッチパネルディスプレイ190と、第2のディスプレイであるディスプレイ191を有する。また操作部として機能する方向指示キー(十字キー)300、操作ボタン302や、音出力部として機能するスピーカ304、306を有する。また情報記憶媒体として機能するICカード310(ゲームカード、ゲームカートリッジ)が着脱自在に装着されるカードスロット312を有する。このICカード310には、ゲームプログラム(ゲームデータ)が記憶される。なおスタイラスペン320は、タッチパネルディスプレイ190へのタッチ操作を、プレーヤ(ユーザ)の指の代わりに行うためのものである。   The image generation apparatus in FIG. 1 includes a touch panel display 190 that is a first display and a display 191 that is a second display. In addition, a direction instruction key (cross key) 300 that functions as an operation unit, an operation button 302, and speakers 304 and 306 that function as sound output units are provided. Further, it has a card slot 312 in which an IC card 310 (game card, game cartridge) functioning as an information storage medium is detachably mounted. The IC card 310 stores a game program (game data). The stylus pen 320 is used to perform a touch operation on the touch panel display 190 instead of a player (user) finger.

タッチパネルディスプレイ190、ディスプレイ191には種々の画像(ゲーム画像、表示物)が表示される。例えばキャラクタ、サブ画面、背景画像などが表示される。これらのタッチパネルディスプレイ190、ディスプレイ191は、TFTなどのカラー液晶ディスプレイにより構成できる。そしてタッチパネルディスプレイ190では、カラー液晶ディスプレイの上面(或いは下面)にタッチパネルが一体的に形成されており、これによりタッチ操作による操作入力が可能になる。   Various images (game images, display objects) are displayed on the touch panel display 190 and the display 191. For example, a character, a sub screen, a background image, and the like are displayed. The touch panel display 190 and the display 191 can be configured by a color liquid crystal display such as a TFT. In the touch panel display 190, a touch panel is integrally formed on the upper surface (or lower surface) of the color liquid crystal display, thereby enabling operation input by a touch operation.

図2に本実施形態の画像生成装置の機能ブロック図の例を示す。なお本実施形態の画像生成装置は図2の構成要素(各部)の一部を省略した構成としてもよい。   FIG. 2 shows an example of a functional block diagram of the image generation apparatus of the present embodiment. Note that the image generation apparatus of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 2 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、或いはジョイスティックなどにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a direction instruction key, an operation button, a joystick, or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、ICカード(メモリーカード)、光ディスク(CD、DVD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an IC card (memory card), optical disk (CD, DVD), HDD (hard disk drive), or It can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

タッチパネルディスプレイ190(第1のディスプレイ)は、プレーヤ(ユーザ)が種々の操作を行ったり、本実施形態により生成された画像を表示するためのものであり、例えば、LCD、有機ELなどのディスプレイと、それに一体的に形成されたタッチパネルなどにより実現できる。タッチパネル方式としては、抵抗膜方式(4線式、5線式)、静電容量結合方式、超音波表面弾性波方式、赤外線走査方式などがある。またタッチパネルディスプレイ190には、タッチ位置(接触位置)を、同時に1点のみ検出可能な1点検出型と、同時に複数点を検出可能な複数点検出型がある。   The touch panel display 190 (first display) is for a player (user) to perform various operations and to display an image generated according to the present embodiment. For example, the touch panel display 190 is a display such as an LCD or an organic EL. It can be realized by a touch panel formed integrally therewith. Examples of the touch panel method include a resistive film method (4-wire type, 5-wire type), a capacitive coupling method, an ultrasonic surface acoustic wave method, and an infrared scanning method. Further, the touch panel display 190 includes a one-point detection type that can detect only one point of touch position (contact position) at the same time, and a multi-point detection type that can detect a plurality of points simultaneously.

ディスプレイ191(第2のディスプレイ)は、本実施形態により生成された画像を表示するためのものであり、例えばLCD、有機ELなどのディスプレイにより実現できる。なおディスプレイ191としてタッチパネル式のディスプレイを用いてもよい。   The display 191 (second display) is for displaying an image generated by the present embodiment, and can be realized by a display such as an LCD or an organic EL. Note that a touch panel display may be used as the display 191.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォン端子などにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, a headphone terminal, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。この補助記憶装置194は脱着自在になっているが、内蔵されるものであってもよい。この補助記憶装置194は、ゲームの途中結果などのセーブデータや、プレーヤ(ユーザ)の個人的な画像データや音楽データなどを保存するために使用される。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card. The auxiliary storage device 194 is detachable, but may be built-in. The auxiliary storage device 194 is used to save save data such as the game midway results, personal image data and music data of the player (user), and the like.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (storage unit 170) via the network and the communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、接触位置取得部102、サブ画面制御部103、キャラクタ制御部104、ゲーム演算部106、ゲーム成績演算部108、通信処理部110、画像生成部120、音生成部130を含む。なおこれらの一部(例えばゲーム演算部、ゲーム成績演算部)を省略する構成としてもよい。   The processing unit 100 includes a contact position acquisition unit 102, a sub screen control unit 103, a character control unit 104, a game calculation unit 106, a game result calculation unit 108, a communication processing unit 110, an image generation unit 120, and a sound generation unit 130. In addition, it is good also as a structure which abbreviate | omits these (for example, a game calculating part, a game results calculating part).

接触位置取得部102は、タッチパネルディスプレイ190に物体(透明物体、指、スタイラスペン等)が接触(タッチ)した場合に、その接触位置(タッチ位置)を取得する処理を行う。例えば本実施形態では、タッチパネルディスプレイ190に透明物体(透過物体)が接触する接触イベント(タッチイベント)が発生すると、透明物体の接触位置を取得する。具体的には接触位置取得部102は、タッチパネルディスプレイ190(タッチパネル)から送られて来る接触位置のデータ(座標データ)を1フレームごとにポーリングして取得する。そして取得された接触位置のデータは、例えば所与の期間が経過するまで接触位置記憶部171に一次記憶される。   When an object (a transparent object, a finger, a stylus pen, or the like) contacts (touches) the touch panel display 190, the contact position acquisition unit 102 performs processing for acquiring the contact position (touch position). For example, in the present embodiment, when a contact event (touch event) in which a transparent object (transparent object) contacts the touch panel display 190 occurs, the contact position of the transparent object is acquired. Specifically, the contact position acquisition unit 102 polls and acquires contact position data (coordinate data) sent from the touch panel display 190 (touch panel) for each frame. The acquired contact position data is primarily stored in the contact position storage unit 171 until, for example, a given period elapses.

サブ画面制御部103は、サブ画面(移動体)の発生制御、移動制御、表示制御などの種々の制御処理を行う。例えば、接触イベントなどのイベント発生時にサブ画面を発生させたり、離隔イベントなどのイベント発生時にサブ画面を消滅させたり、サブ画面を移動させたり、サブ画面の表示や表示位置を画像生成部120に指示する処理を行う。即ち、発生したサブ画面を、サブ画面情報記憶部162のサブ画面管理リスト163に登録したり、サブ画面管理リスト163を画像生成部120等に転送したり、消滅したサブ画面をサブ画面管理リスト163から削除するなどの処理を行う。   The sub screen control unit 103 performs various control processes such as sub screen (moving body) generation control, movement control, and display control. For example, a sub screen is generated when an event such as a contact event occurs, a sub screen is erased when an event such as a separation event occurs, a sub screen is moved, and the display and display position of the sub screen are displayed in the image generation unit 120. Perform the process of instructing. That is, the generated sub-screen is registered in the sub-screen management list 163 of the sub-screen information storage unit 162, the sub-screen management list 163 is transferred to the image generation unit 120, and the disappeared sub-screen is displayed in the sub-screen management list. Processing such as deletion from H.163 is performed.

サブ画面制御部103は、サブ画面を移動させるための処理を行う。即ちタッチパネルディスプレイ190や操作部160を用いてプレーヤが入力した操作データや、プログラムや、各種データなどに基づいて、サブ画面を移動させる処理を行う。更に具体的には、サブ画面の移動情報(位置、速度、或いは加速度)を、1フレーム(1/60秒)毎に順次求める処理を行う。なおフレームは、オブジェクトの移動制御処理や動作制御処理や画像生成処理を行う時間の単位である。   The sub screen control unit 103 performs a process for moving the sub screen. That is, a process of moving the sub screen is performed based on operation data, a program, various data, and the like input by the player using the touch panel display 190 or the operation unit 160. More specifically, processing for sequentially obtaining sub-screen movement information (position, velocity, or acceleration) every frame (1/60 second) is performed. Note that a frame is a unit of time for performing object movement control processing, motion control processing, and image generation processing.

サブ画面制御部103によるサブ画面制御により求められたサブ画面の位置、速度等の移動情報は、サブ画面情報記憶部162のサブ画面移動情報記憶部164に記憶される。またサブ画面の表示制御の際に使用されるサブ画面の画像情報は、サブ画面情報記憶部162のサブ画面画像記憶部165に記憶される。   Movement information such as the position and speed of the sub screen obtained by the sub screen control by the sub screen control unit 103 is stored in the sub screen movement information storage unit 164 of the sub screen information storage unit 162. Further, the sub screen image information used in the sub screen display control is stored in the sub screen image storage unit 165 of the sub screen information storage unit 162.

そして本実施形態では、サブ画面制御部103は、タッチパネルディスプレイ190に透明物体(広義には物体)が接触(タッチ)する接触イベント(タッチイベント)が発生した場合に、取得された接触位置に対応する表示領域(接触位置により特定される表示領域、サブ画面発生領域)に、サブ画面を発生させる処理(表示する処理)を行う。例えばそのサブ画面を、表示すべきサブ画面としてサブ画面管理リスト163に登録したり、或いは、サブ画面管理リスト163におけるそのサブ画面の表示フラグをオンにする。   In this embodiment, the sub-screen control unit 103 responds to the acquired contact position when a touch event (touch event) in which a transparent object (object in a broad sense) touches (touches) the touch panel display 190 occurs. A process of generating a sub screen (a process of displaying) is performed on the display area (display area specified by the contact position, sub screen generation area). For example, the sub screen is registered in the sub screen management list 163 as a sub screen to be displayed, or the display flag of the sub screen in the sub screen management list 163 is turned on.

具体的にはサブ画面制御部103は、透明物体の輪郭領域内(外形形状領域内)に、透明物体(透過物体)を介して見えるサブ画面の画像(サブ画面内の画像又はその主要部)が表示されるように、そのサイズ(スケール)が設定されたサブ画面を、接触位置に対応する表示領域に発生させる処理(表示する処理)を行う。ここで、輪郭領域は、タッチパネルディスプレイ190及び透明物体(タッチパネルディスプレイに接触した状態での透明物体)を平面視した場合(画面に対して垂直な視線で見た場合)における透明物体の輪郭(外形形状)により特定される領域である。   Specifically, the sub-screen control unit 103 displays a sub-screen image (image in the sub-screen or its main part) that can be seen through the transparent object (transparent object) in the contour region (outer shape region) of the transparent object. Is performed (a process of displaying) the sub-screen having the size (scale) set in the display area corresponding to the contact position. Here, the contour region is the contour (outer shape) of the transparent object when the touch panel display 190 and the transparent object (transparent object in contact with the touch panel display) are viewed in plan (when viewed from a line of sight perpendicular to the screen). It is an area specified by (shape).

またサブ画面制御部103は、接触イベントが発生した場合に、タッチパネルディスプレイ190のメイン画面の画像上(背景画像上)にサブ画面を発生させる処理(表示する処理)を行う。そしてタッチパネルディスプレイ190から透明物体(物体)が離れる離隔イベントが発生した場合に、発生したサブ画面を非表示にする処理(消去する処理)を行う。   Further, the sub screen control unit 103 performs processing (processing for displaying) a sub screen on the image (background image) of the main screen of the touch panel display 190 when a contact event occurs. And when the separation event which a transparent object (object) leaves | separates from the touch panel display 190 generate | occur | produces, the process (process to erase | eliminate) which does not display the produced | generated subscreen is performed.

またサブ画面制御部103は、接触イベントが発生した場合に、サブ画面の画像を変化させる処理を行う。具体的には例えばサブ画面に表示される文章(文字)をスクロールさせるテロップ処理を行う。   Further, the sub screen control unit 103 performs a process of changing the image of the sub screen when a contact event occurs. Specifically, for example, a telop process for scrolling a sentence (character) displayed on the sub-screen is performed.

またサブ画面制御部103は、接触イベントが発生した場合に、タッチパネルディスプレイ190のメイン画面の拡大画像をサブ画面に表示する処理を行う。例えばメイン画面での接触位置における拡大画像を、サブ画面に表示する。具体的には、メイン画面に表示されるべきキャラクタの拡大画像をサブ画面に表示する。この場合に、メイン画面での接触位置に応じて、異なったキャラクタ(異なった種類のキャラクタ)の拡大画像をサブ画面に表示(描画)してもよい。なお、メイン画面に表示されるべきキャラクタとは、メイン画面に実際に表示されるキャラクタや、実際にはメイン画面には表示されていないが、その位置に存在することが想定されているキャラクタである。   Further, the sub screen control unit 103 performs processing for displaying an enlarged image of the main screen of the touch panel display 190 on the sub screen when a contact event occurs. For example, an enlarged image at the contact position on the main screen is displayed on the sub screen. Specifically, an enlarged image of the character to be displayed on the main screen is displayed on the sub screen. In this case, enlarged images of different characters (different types of characters) may be displayed (drawn) on the sub screen in accordance with the contact position on the main screen. The character to be displayed on the main screen is a character that is actually displayed on the main screen or a character that is not actually displayed on the main screen but is assumed to exist at that position. is there.

またサブ画面制御部103は、接触イベントが発生した場合に、タッチパネルディスプレイ190のメイン画面に表示されるキャラクタの透過表現画像をサブ画面に表示する処理を行う。具体的には、メイン画面に表示されるキャラクタの画像よりも小さなサイズの透過表現画像をサブ画面に表示する。そしてこの小さなサイズの透過表現画像は、球体等の透明物体のレンズ効果等により拡大されて表示されることで、メイン画面に表示されるキャラクタと同じサイズになる。なお透過表現画像は、キャラクタの内部を透過した場合に見えることが想定される画像であり、例えばキャラクタが動物である場合には、その骨格や内臓の画像である。またキャラクタが、ロボットや機械である場合には、その内部構造の画像である。   Further, the sub-screen control unit 103 performs processing for displaying a transparent expression image of the character displayed on the main screen of the touch panel display 190 on the sub-screen when a contact event occurs. Specifically, a transparent representation image having a size smaller than that of the character image displayed on the main screen is displayed on the sub screen. The small-size transmission representation image is enlarged and displayed due to the lens effect of a transparent object such as a sphere, so that it has the same size as the character displayed on the main screen. The transparent expression image is an image that is assumed to be visible when the inside of the character is transmitted. For example, when the character is an animal, it is an image of its skeleton or internal organs. Further, when the character is a robot or a machine, it is an image of its internal structure.

またサブ画面制御部103は、タッチパネルディスプレイ190のメイン画面に表示されるべきキャラクタと接触位置とが一致したと判断された場合に、そのキャラクタの説明画像が表示されるサブ画面を発生させる。この場合の説明画像は、タッチパネルディスプレイ190に表示されるが、ディスプレイ191(第2のディスプレイ)に表示してもよい。   In addition, when it is determined that the character to be displayed on the main screen of the touch panel display 190 and the contact position match, the sub screen control unit 103 generates a sub screen on which an explanation image of the character is displayed. The explanation image in this case is displayed on the touch panel display 190, but may be displayed on the display 191 (second display).

なお描画バッファ176の第1の描画バッファ177には、タッチパネルディスプレイのメイン画面画像(背景画像等)が描画される。一方、第2の描画バッファ178には、サブ画面画像(透過表現画像)が描画される。例えばテロップ処理を行う場合には、この第2の描画バッファ178を利用して文章のスクロール処理を行えばよい。   Note that a main screen image (background image or the like) of the touch panel display is drawn in the first drawing buffer 177 of the drawing buffer 176. On the other hand, a sub-screen image (transparent expression image) is drawn in the second drawing buffer 178. For example, when performing a telop process, a text scroll process may be performed using the second drawing buffer 178.

そしてサブ画面制御部103は、接触位置に基づいて、第2の描画バッファ178での画像の切り取り領域(矩形領域)を特定する。そして特定された切り取り領域の画像をサブ画面画像として、接触位置に対応する表示領域に表示する処理を行う。例えば切り取り領域の画像を、第1の描画バッファ177における接触位置に対応する表示領域に描画する。   Then, the sub-screen control unit 103 identifies an image cut-out area (rectangular area) in the second drawing buffer 178 based on the contact position. And the process which displays the image of the specified cutting area on the display area corresponding to a contact position as a subscreen image is performed. For example, the image of the cut area is drawn on the display area corresponding to the contact position in the first drawing buffer 177.

またサブ画面制御部103は、接触イベントが発生した後、接触位置が移動した場合に、移動する接触位置に追従するように、サブ画面を移動させる処理を行う。例えば接触位置(タッチ位置)の移動方向に対応する方向(同一方向)にサブ画面を移動させる。この場合に、接触位置の移動距離(移動速度)よりも短い移動距離(遅い移動速度)で、接触位置に追従するように、サブ画面を移動させることが望ましい。また接触位置が移動するにつれて、サブ画面を非表示にする処理(徐々に非表示にする処理、透明にする処理)を行ってもよい。   Further, the sub screen control unit 103 performs a process of moving the sub screen so as to follow the moving contact position when the contact position moves after the contact event occurs. For example, the sub screen is moved in a direction (same direction) corresponding to the moving direction of the contact position (touch position). In this case, it is desirable to move the sub screen so as to follow the contact position with a movement distance (slow movement speed) shorter than the movement distance (movement speed) of the contact position. Further, as the contact position moves, a process of hiding the sub-screen (a process of gradually hiding it, a process of making it transparent) may be performed.

キャラクタ制御部104は、キャラクタ(移動体)の発生制御、移動・動作制御、表示制御などの種々の制御処理を行う。具体的には、発生したキャラクタを、キャラクタ情報記憶部172のキャラクタ管理リスト173(オブジェクトリスト)に登録したり、キャラクタ管理リスト173を画像生成部120等に転送したり、消滅したキャラクタをキャラクタ管理リスト173から削除するなどの処理を行う。なおキャラクタは、例えば動物(人間、虫)、植物などの生き物や、惑星、星などの天体や、車、飛行機、船などの乗り物等を表す2次元又は3次元オブジェクトである。キャラクタは、2次元オブジェクトの場合には例えばドット画像により表すことができ、3次元オブジェクトの場合には例えば複数のポリゴン(プリミティブ面)により表すことができる。   The character control unit 104 performs various control processes such as character (moving object) generation control, movement / motion control, and display control. Specifically, the generated character is registered in the character management list 173 (object list) of the character information storage unit 172, the character management list 173 is transferred to the image generation unit 120 or the like, and the disappeared character is managed by the character management. Processing such as deletion from the list 173 is performed. The character is, for example, a two-dimensional or three-dimensional object representing a creature such as an animal (human, insect) or a plant, a celestial body such as a planet or a star, a vehicle such as a car, an airplane, or a ship. A character can be represented by, for example, a dot image in the case of a two-dimensional object, and can be represented by, for example, a plurality of polygons (primitive surfaces) in the case of a three-dimensional object.

キャラクタ制御部104は、2次元又は3次元のオブジェクト空間であるゲームフィールドにおいてキャラクタ(2次元又は3次元のオブジェクト)を移動させるための処理を行う。即ちタッチパネルディスプレイ190や操作部160を用いてプレーヤが入力した操作データや、プログラム(移動アルゴリズム)や、各種データ(オブジェクトリスト)などに基づいて、キャラクタを移動させる処理を行う。更に具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)を、1フレーム(1/60秒)毎に順次求める処理を行う。またキャラクタ制御部104は、キャラクタを動作させるための処理も行うことができる。即ちタッチパネルディスプレイ190や操作部160を用いてプレーヤが入力した操作データや、プログラム(動作アルゴリズム)や、各種データ(アニメーションデータ、モーションデータ)などに基づいて、キャラクタを動作(アニメーション、モーション)させる処理を行う。更に具体的には、キャラクタの動作情報(アニメーション情報、或いは各パーツオブジェクトの位置、回転角度)を、1フレーム(1/60秒)毎に順次求める処理を行う。   The character control unit 104 performs processing for moving a character (two-dimensional or three-dimensional object) in a game field that is a two-dimensional or three-dimensional object space. That is, processing for moving the character is performed based on operation data input by the player using the touch panel display 190 or the operation unit 160, a program (movement algorithm), various data (object list), and the like. More specifically, a process of sequentially obtaining character movement information (position, rotation angle, speed, or acceleration) for each frame (1/60 second) is performed. The character control unit 104 can also perform processing for moving the character. That is, a process for moving a character (animation, motion) based on operation data input by the player using the touch panel display 190 or the operation unit 160, a program (motion algorithm), various data (animation data, motion data), or the like. I do. More specifically, a process of sequentially obtaining character motion information (animation information or the position and rotation angle of each part object) every frame (1/60 seconds) is performed.

キャラクタ制御部104によるキャラクタ制御により求められたキャラクタの位置、回転角度、速度等の移動情報は、キャラクタ情報記憶部172のキャラクタ移動情報記憶部174に記憶される。またキャラクタの表示制御の際に使用されるキャラクタの画像情報(ドット画像、ポリゴンデータ等)は、キャラクタ情報記憶部172のキャラクタ画像記憶部175に記憶される。   Movement information such as the position, rotation angle, and speed of the character determined by the character control by the character control unit 104 is stored in the character movement information storage unit 174 of the character information storage unit 172. Character image information (dot image, polygon data, etc.) used in character display control is stored in the character image storage unit 175 of the character information storage unit 172.

ゲーム演算部106はゲーム画像やゲーム音を生成するためのゲーム演算処理を行う。ゲーム演算処理としては、ゲームの内容やゲームモードを決定する処理、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 106 performs game calculation processing for generating game images and game sounds. The game calculation process includes a process for determining the content and game mode of the game, a process for starting the game when the game start condition is satisfied, a process for proceeding with the game, or a game when the game end condition is satisfied. There is a process to finish.

ゲーム成績演算部108はプレーヤのゲーム成績(得点、ポイント、勝敗)の演算処理を行う。例えば、接触イベントが発生して、サブ画面が発生した後(サブ画面を表示した後)に、プレーヤが操作部160(例えば操作ボタン、十字キー)を用いて所与の操作情報を入力した場合(ゲーム操作を行った場合)に、入力された操作情報に基づいてプレーヤのゲーム成績を演算する。   The game score calculation unit 108 calculates the player's game score (scores, points, wins / losses). For example, after a touch event occurs and a sub screen is generated (after the sub screen is displayed), the player inputs given operation information using the operation unit 160 (for example, an operation button or a cross key). When a game operation is performed, the player's game score is calculated based on the input operation information.

具体的にはサブ画面制御部103は、接触イベントが発生した場合に、タッチパネルディスプレイ190のメイン画面における接触位置での拡大画像をサブ画面に表示する。そして例えば接触イベントが発生して、サブ画面が発生した後に、プレーヤが操作部160を用いてシューティング操作を行った場合に、拡大画像に表示されるキャラクタに対するシューティングについてのプレーヤのゲーム成績を演算する。   Specifically, when a touch event occurs, sub screen control unit 103 displays an enlarged image at the touch position on the main screen of touch panel display 190 on the sub screen. For example, when a player performs a shooting operation using the operation unit 160 after a contact event occurs and a sub-screen is generated, the player's game score for shooting a character displayed in the enlarged image is calculated. .

通信処理部110は、他の画像生成装置(ゲーム装置)でゲームプレイする他のプレーヤのゲームプレイ情報(キャラクタ情報、プレイ操作情報、操作履歴情報、ゲーム成績情報、或いは個人情報等)をネットワーク(インターネット、LAN)を介して受信するための処理を行う。具体的には、例えば通信部196が受信したゲームプレイ情報を、記憶部170等を介して取得する。或いは、自身のプレーヤのゲームプレイ情報をネットワークを介して他の画像生成装置に送信するための処理を行う。具体的には、送信すべきゲームプレイ情報を用意して、通信部196に対して送信を指示する。   The communication processing unit 110 transmits game play information (character information, play operation information, operation history information, game result information, personal information, etc.) of other players who play a game on another image generation device (game device) over a network ( A process for receiving via the Internet or LAN is performed. Specifically, for example, game play information received by the communication unit 196 is acquired via the storage unit 170 or the like. Alternatively, a process for transmitting game play information of the player's own player to another image generation apparatus via the network is performed. Specifically, game play information to be transmitted is prepared, and the communication unit 196 is instructed to transmit.

そしてサブ画面制御部103は、接触イベントが発生した場合に、受信した他のプレーヤのゲームプレイ情報に基づいて、サブ画面を発生させる処理(表示する処理)を行う。具体的には、例えば他のプレーヤのゲームプレイ情報(視点情報等)に基づいて、他のプレーヤの視点から見える画像が表示されたサブ画面を発生させる処理を行う。或いは、接触位置と、ゲームプレイ情報に含まれる他のプレーヤのキャラクタの位置とを比較し、これらが一致した場合に、接触位置に対応する表示領域に、他のプレーヤのキャラクタが表示されたサブ画面を発生させる処理を行う。この場合に、他のプレーヤのキャラクタに対するヒット処理(破壊表現処理)などを行ってもよい。   Then, the sub screen control unit 103 performs a process of generating a sub screen (a process of displaying) based on the received game play information of the other player when a contact event occurs. Specifically, for example, based on game play information (viewpoint information, etc.) of another player, a process of generating a sub-screen on which an image seen from the viewpoint of the other player is displayed is performed. Alternatively, when the contact position is compared with the position of the character of another player included in the game play information, and the two match, the sub-character in which the character of the other player is displayed in the display area corresponding to the contact position. Performs processing to generate a screen. In this case, hit processing (destructive expression processing) or the like for characters of other players may be performed.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて、描画バッファ176への画像の描画処理を行い、これにより画像を生成して、タッチパネルディスプレイ190やディスプレイ191に出力する。この場合、画像生成部120が生成する画像は、いわゆる2次元画像であってもよいし、3次元画像であってもよい。そして3次元画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を描画バッファ176(フレームバッファ、中間バッファなどのピクセル単位で画像情報を記憶できるバッファ。VRAM)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   The image generation unit 120 performs image drawing processing on the drawing buffer 176 based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image, and the touch panel display 190 and the display It outputs to 191. In this case, the image generated by the image generation unit 120 may be a so-called two-dimensional image or a three-dimensional image. When generating a three-dimensional image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and based on the processing result, drawing data (primitive The position coordinates of the vertices of the surface, texture coordinates, color data, normal vectors or α values) are created. Based on the drawing data (primitive surface data), the perspective transformation (geometric processing) object (one or a plurality of primitive surfaces) is stored in the drawing buffer 176 (frame buffer, intermediate buffer, etc.) as pixel information. Can be drawn in a VRAM). Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

そして本実施形態では画像生成部120は、サブ画面画像を含む画像を生成して、タッチパネルディスプレイ190に表示する。或いは、接触イベントが発生して、サブ画面が発生した場合に、サブ画面に表示されるキャラクタの説明画像を生成する。   In the present embodiment, the image generation unit 120 generates an image including the sub screen image and displays the image on the touch panel display 190. Alternatively, when a touch event occurs and a sub screen is generated, an explanation image of a character displayed on the sub screen is generated.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

2.本実施形態の手法
2.1 透明物体を用いた隠し絵表現
従来の画像生成装置では、タッチパネルディスプレイ190は、タッチ操作により操作情報を入力するために使用されるのが一般的であった。またタッチ操作は、指やスタイラスペンにより行われ、それ以外の物体によるタッチ操作は想定されていなかった。
2. 2. Technique of Present Embodiment 2.1 Hidden Picture Expression Using Transparent Object In conventional image generation apparatuses, the touch panel display 190 is generally used for inputting operation information by a touch operation. The touch operation is performed with a finger or a stylus pen, and touch operations with other objects are not assumed.

本実施形態では、タッチパネルディスプレイ190に例えば球体の透明物体を置いてその内部を覗くと、それまで見えなかったはずの画像が見えるという隠し絵表現に、タッチパネルディスプレイ190を利用している。   In the present embodiment, the touch panel display 190 is used for a hidden picture expression in which, for example, when a spherical transparent object is placed on the touch panel display 190 and the inside of the transparent object is viewed, an image that should not have been seen can be seen.

即ち図3(A)では、タッチパネルディスプレイ190に、メイン画面の画像として例えば背景画像(真っ黒の画像や真っ白の画像を含む)が表示されている。そして図3(B)に示すように、水晶玉をイメージした球体の透明物体TOBをタッチパネルディスプレイ190に置いて、図3(B)の接触位置TPにおいて透明物体TOBがタッチパネルディスプレイ190に接触すると、隠し絵である文章等のサブ画面画像が透明物体TOBの内部に浮かび上がって見える画像が表示される。即ち図3(A)では存在しなかったサブ画面画像が、透明物体TOBを置くことで突然出現するため、プレーヤは、何故このようなサブ画面画像が出現したのか、その理由を理解できず、驚きを感じる。これにより、従来にはないインタラクティブな映像効果を提供できる。   That is, in FIG. 3A, for example, a background image (including a black image and a white image) is displayed on the touch panel display 190 as an image of the main screen. Then, as shown in FIG. 3 (B), when the transparent object TOB of the spherical shape imaged of a crystal ball is placed on the touch panel display 190 and the transparent object TOB contacts the touch panel display 190 at the contact position TP in FIG. 3 (B), An image is displayed in which a sub-screen image such as a text which is a hidden picture appears inside the transparent object TOB. That is, since the sub-screen image that did not exist in FIG. 3A suddenly appears by placing the transparent object TOB, the player cannot understand why the sub-screen image appeared, I feel surprised. As a result, an interactive video effect that is not available in the past can be provided.

次に、図4を用いて本実施形態の手法の原理について説明する。図4では、透明物体TOBがタッチパネルディスプレイ190上に置かれて、タッチパネルディスプレイ190に透明物体TOBが接触する接触イベントが発生している。この場合に本実施形態では、接触位置取得部102が、透明物体TOBの接触位置TPを取得する。即ちタッチパネルディスプレイ190上での接触位置TPの座標を取得する。   Next, the principle of the method of this embodiment will be described with reference to FIG. In FIG. 4, the transparent object TOB is placed on the touch panel display 190, and a touch event in which the transparent object TOB contacts the touch panel display 190 is generated. In this case, in the present embodiment, the contact position acquisition unit 102 acquires the contact position TP of the transparent object TOB. That is, the coordinates of the contact position TP on the touch panel display 190 are acquired.

このように接触イベントが発生すると、サブ画面制御部103は、取得された接触位置TPに対応する表示領域(TPによりその位置が特定される領域、TPを含む領域、或いはTPから所与の距離だけ離れた領域)に、文章等が書かれたサブ画面SBを発生させる。例えば接触位置TPを含む表示領域にサブ画面画像を表示する。すると、このサブ画面画像が透明物体TOBのレンズ効果により拡大されてプレーヤに表示される。例えば透明物体TOBが球体である場合には、約3倍に拡大されて表示される。   When the touch event occurs in this way, the sub screen control unit 103 displays the display area corresponding to the acquired touch position TP (the area whose position is specified by the TP, the area including the TP, or the given distance from the TP. A sub-screen SB on which a sentence or the like is written is generated in a region separated by a distance. For example, the sub screen image is displayed in the display area including the contact position TP. Then, the sub screen image is enlarged by the lens effect of the transparent object TOB and displayed on the player. For example, when the transparent object TOB is a sphere, it is enlarged and displayed about three times.

この場合に本実施形態では、タッチパネルディスプレイ190上には、人間の指で隠れてしまう程度の小さなサイズのサブ画面画像を表示する。例えば16×16ピクセル程度(或いは1cm×1cm以下)のサブ画面画像を表示する。   In this case, in the present embodiment, a sub-screen image having a small size that is hidden by a human finger is displayed on the touch panel display 190. For example, a sub-screen image of about 16 × 16 pixels (or 1 cm × 1 cm or less) is displayed.

具体的には、図3(B)のようにタッチパネルディスプレイ190及び透明物体TOBを平面視した場合における透明物体TOBの輪郭領域をERとする。透明物体TOBが球体である場合には、輪郭領域ERは円領域になる。この場合にサブ画面制御部103は、輪郭領域ER内に、透明物体TOBを介して見えるサブ画面画像(少なくともその主要部の画像、文字)が表示されるように、そのサイズが設定されたサブ画面SBを、接触位置TPに表示する。   Specifically, the outline area of the transparent object TOB when the touch panel display 190 and the transparent object TOB are viewed in plan as shown in FIG. When the transparent object TOB is a sphere, the contour area ER is a circular area. In this case, the sub-screen control unit 103 sets the size of the sub-screen so that the sub-screen image (at least the main part image and characters) seen through the transparent object TOB is displayed in the contour region ER. The screen SB is displayed at the contact position TP.

このようにすれば、図3(B)に示すようにサブ画面画像が透明物体TOBの輪郭領域ERからはみ出ずに表示されるため、あたかも透明物体TOBの内部にサブ画面画像が映し出されたかのような錯覚をプレーヤに与えることができる。またサブ画面SBをこのような小さなサイズに設定すれば、サブ画面画像の突然の発生を不思議に思ったプレーヤが、透明物体TOBを取り外して、図3(A)の接触位置TPに指でタッチした場合にも、サブ画面画像が指に隠れて見えないため、種明かしが直ぐにわかってしまう事態を防止できる。   In this way, as shown in FIG. 3B, the sub-screen image is displayed without protruding from the outline region ER of the transparent object TOB, so that it appears as if the sub-screen image is projected inside the transparent object TOB. Illusion can be given to the player. If the sub screen SB is set to such a small size, the player who is wondering about the sudden occurrence of the sub screen image removes the transparent object TOB and touches the contact position TP in FIG. In this case, since the sub-screen image is hidden behind the finger and cannot be seen, it is possible to prevent a situation where the secret is immediately known.

また本実施形態では、サブ画面制御部103は、プレーヤが透明物体TOBを取り外して、タッチパネルディスプレイ190から透明物体TOBが離れる離隔イベントが発生すると、発生したサブ画面SBを非表示(消去)にする。即ち図3(A)のように、接触位置TPにサブ画面画像が表示されないようにする。これにより、透明物体TOBをタッチパネルディスプレイ190に置くと、画像が表示され、取り外すと画像が消えるという映像効果を実現できる。このようにすれば、サブ画面画像の突然の発生を不思議に思ったプレーヤが、透明物体TOBを取り外した場合に、図3(A)のようにサブ画面SBは非表示になっているため、種明かしが直ぐにわかってしまう事態を防止できる。   In the present embodiment, the sub screen control unit 103 hides (deletes) the generated sub screen SB when the player removes the transparent object TOB and a separation event that causes the transparent object TOB to leave the touch panel display 190 occurs. . That is, as shown in FIG. 3A, the sub screen image is prevented from being displayed at the contact position TP. Accordingly, it is possible to realize a video effect that an image is displayed when the transparent object TOB is placed on the touch panel display 190 and disappears when the transparent object TOB is removed. In this way, when the player who is wondering about the sudden occurrence of the sub screen image removes the transparent object TOB, the sub screen SB is not displayed as shown in FIG. It is possible to prevent a situation where the secret is immediately known.

以上の本実施形態の手法によれば、透明物体TOBとして例えば球体を使用しているため、透明物体TOBが置かれた地点の画像(映像)を約3倍に拡大して映し出すことができる。また、球体の透明物体TOBとタッチパネルディスプレイ190との接触により、透明物体TOBを置いた位置の座標を、タッチパネルディスプレイ190の機能を利用して、簡単に取得できる。   According to the method of the present embodiment described above, for example, a sphere is used as the transparent object TOB, so that an image (video) of a point where the transparent object TOB is placed can be enlarged and projected about three times. Further, by the contact between the spherical transparent object TOB and the touch panel display 190, the coordinates of the position where the transparent object TOB is placed can be easily obtained using the function of the touch panel display 190.

また、指やスタイラスペンなどの不透明物体でタッチすると、接触位置TP付近の画像が指やスタイラスペンにより隠れて、見えなくなってしまう。これに対して、本実施形態のように透明物体TOBを使用すれば、接触位置TP付近の画像が隠れてしまうことがなく、図3(B)のようなサブ画面画像をプレーヤに見せることができる。   Further, when an opaque object such as a finger or a stylus pen is touched, an image near the contact position TP is hidden by the finger or the stylus pen and cannot be seen. On the other hand, if the transparent object TOB is used as in this embodiment, the image near the contact position TP is not hidden, and the sub-screen image as shown in FIG. 3B can be shown to the player. it can.

また透明物体TOBには、ある程度の重さ(例えば80g以上)があるため、押すという積極的な操作をしなくても、透明物体TOBをタッチパネルディスプレイ190に置くだけで、接触位置TP付近の座標を取得できる。また球体の透明物体TOBを用いれば、転がりによる軌跡も取得できる。   Further, since the transparent object TOB has a certain weight (for example, 80 g or more), the coordinates near the contact position TP can be obtained by simply placing the transparent object TOB on the touch panel display 190 without performing an aggressive operation of pressing. Can be obtained. If a spherical transparent object TOB is used, a trajectory due to rolling can also be acquired.

次に本実施形態の手法を実現する具体的な処理について図5、図6を用いて説明する。図5のA1に示す背景画像(メイン画面画像)をIM1とし、A2に示すサブ画面画像をIM2とする。この背景画像IM1は図2の第1の描画バッファ177に描画され、サブ画面画像IM2は第2の描画バッファ178に描画される。   Next, specific processing for realizing the method of the present embodiment will be described with reference to FIGS. The background image (main screen image) shown in A1 of FIG. 5 is IM1, and the sub-screen image shown in A2 is IM2. The background image IM1 is drawn in the first drawing buffer 177 in FIG. 2, and the sub-screen image IM2 is drawn in the second drawing buffer 178.

そして図5のA3に示すように、タッチパネルディスプレイ190に透明物体TOBが接触して、タッチパネル入力があった時にだけ、接触位置TPの座標を中心とした場所(表示領域)にサブ画面画像IM2を配置して表示する。即ち背景画像IM1上の接触位置TPに対応する位置にサブ画面画像IM2を描画する。   And as shown to A3 of FIG. 5, only when the transparent object TOB contacts the touch panel display 190 and there is a touch panel input, the sub screen image IM2 is displayed at a place (display area) centered on the coordinates of the contact position TP. Arrange and display. That is, the sub-screen image IM2 is drawn at a position corresponding to the contact position TP on the background image IM1.

すると、図5のA4に示すように、透明物体TOBを通して見ることで、レンズ効果によって画像が約3倍に拡大されて見えるようになる。また透明物体TOBを持ち上げて、タッチパネル入力がなくなると同時に、サブ画面画像IM2は消去される。   Then, as shown by A4 in FIG. 5, when viewed through the transparent object TOB, the image is enlarged about three times by the lens effect. In addition, the transparent object TOB is lifted, and the touch screen input disappears, and at the same time, the sub screen image IM2 is deleted.

なお接触イベントが発生してタッチパネル入力があった際に、瞬時にサブ画面画像IM2を表示してもよいが、サブ画面画像IM2のスケールを、例えば0.0から1.0に徐々に変化させたり、サブ画面画像IM2の透明度を、例えば0.0(透明)から1.0(不透明)に徐々に変化させることで、演出的な効果をより高めることができる。   When the touch event occurs and the touch panel is input, the sub screen image IM2 may be displayed instantaneously. However, the scale of the sub screen image IM2 is gradually changed from 0.0 to 1.0, for example. Or by gradually changing the transparency of the sub-screen image IM2 from, for example, 0.0 (transparent) to 1.0 (opaque), it is possible to further enhance the effect.

図6は本実施形態の手法の処理を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the processing of the method of this embodiment.

まずタッチパネルディスプレイ190のメイン画面画像である背景画像を描画する(ステップS1)。そして透明物体(水晶玉)TOBがタッチパネルディスプレイ190に接触したか否か(接触イベントが発生したか否か)を判断する(ステップS2)。そして接触した場合には、タッチパネルディスプレイ190の接触位置(タッチ位置)TPを取得する(ステップS3)。即ちタッチパネルディスプレイ190から出力される接触位置TPの座標を取得する。   First, a background image that is a main screen image of the touch panel display 190 is drawn (step S1). Then, it is determined whether or not the transparent object (crystal ball) TOB has touched the touch panel display 190 (whether or not a contact event has occurred) (step S2). If contact is made, a touch position (touch position) TP of the touch panel display 190 is acquired (step S3). That is, the coordinates of the contact position TP output from the touch panel display 190 are acquired.

次に、所与のタイムラグ期間が経過したか否かを判断する(ステップS4)。そして経過した場合には、メイン画面画像(背景画像)上の接触位置TPに対応する表示領域にサブ画面画像を描画する(ステップS5)。そして、必要であればサブ画面画像の変化処理(映像演出処理)を行う(ステップS6)。即ち、例えばサブ画面画像のテロップ処理(スクロール処理)、アニメーション処理、拡大処理、或いは透明度変化処理などを行う。   Next, it is determined whether or not a given time lag period has elapsed (step S4). When the time has elapsed, the sub screen image is drawn in the display area corresponding to the contact position TP on the main screen image (background image) (step S5). If necessary, sub-screen image change processing (video effect processing) is performed (step S6). That is, for example, sub-screen image telop processing (scroll processing), animation processing, enlargement processing, or transparency change processing is performed.

次に透明物体TOBがタッチパネルディスプレイ190から離れたか否か(離隔イベントが発生したか否か)を判断する(ステップS7)。離れていない場合にはステップS6に戻りサブ画面画像の変化処理を継続する。一方、離れた場合には、サブ画面画像を非表示(消去)にして(ステップS8)、ステップS2に戻る。   Next, it is determined whether or not the transparent object TOB has left the touch panel display 190 (whether or not a separation event has occurred) (step S7). If not, the process returns to step S6 to continue the sub-screen image change process. On the other hand, if it is away, the sub-screen image is hidden (erased) (step S8), and the process returns to step S2.

図6のステップS4、S5では、接触イベントが発生した後、所与のタイムラグ期間が経過した後に、表示領域にサブ画面SBを発生させている。即ちサブ画面SBの発生を、接触イベント発生時から一定時間だけ遅らせている。   In steps S4 and S5 in FIG. 6, the sub-screen SB is generated in the display area after a given time lag period has elapsed after the contact event has occurred. That is, the generation of the sub screen SB is delayed by a certain time from the time of occurrence of the contact event.

例えば図3(B)のようにサブ画面画像が突然に現れたことを不思議に思ったプレーヤが、透明物体TOBを取り外して、図3(A)の接触位置TPに指でタッチしたとする。この場合に、図4に示すようにタッチパネルディスプレイ190に表示されるサブ画面画像のサイズは小さいため、サブ画面画像のほとんどはプレーヤの指に隠れてしまう。しかしながら、プレーヤが直ぐに指を離してしまうと、指に隠れていたサブ画面画像が見えてしまい、種明かしが直ぐにわかってしまう。   For example, it is assumed that a player who wonders that a sub-screen image suddenly appears as shown in FIG. 3B removes the transparent object TOB and touches the contact position TP shown in FIG. In this case, as shown in FIG. 4, since the size of the sub screen image displayed on the touch panel display 190 is small, most of the sub screen images are hidden by the player's finger. However, if the player immediately lifts his / her finger, the sub-screen image hidden behind the finger will be seen, and the secret will be immediately known.

この点、図6のステップS4のようにタイムラグ期間経過後にサブ画面画像を表示するようにすれば、プレーヤが接触位置TPに指でタッチした後に直ぐに離したとしても、サブ画面画像は未だ表示されていないため、種明かしがわかってしまう事態を防止できる。   In this regard, if the sub screen image is displayed after the time lag period has elapsed as in step S4 of FIG. 6, even if the player touches the contact position TP with a finger and then releases it immediately, the sub screen image is still displayed. Therefore, it is possible to prevent a situation where the secret is known.

なおタイムラグ期間経過後にサブ画面を出現させる手法の代わりに、接触イベント発生後、徐々にサブ画面を大きくしたり、透明から不透明にする手法を採用してもよい。   Instead of the method of causing the sub screen to appear after the lapse of the time lag period, a method of gradually increasing the sub screen after the occurrence of the contact event or making the sub screen transparent to opaque may be employed.

2.2 画像変化処理
図6のステップS6では、接触イベントが発生した後(ステップS2)、サブ画面制御部103は、サブ画面画像を変化させる処理を行っている。例えば図7(A)、図7(B)では、接触イベントが発生した場合に、サブ画面画像を変化させる処理として、サブ画面に表示される文章をスクロールさせるテロップ処理を行っている。
2.2 Image Change Processing In step S6 of FIG. 6, after a touch event occurs (step S2), the sub screen control unit 103 performs a process of changing the sub screen image. For example, in FIGS. 7A and 7B, when a touch event occurs, telop processing for scrolling a sentence displayed on the sub screen is performed as processing for changing the sub screen image.

図7(A)、図7(B)では、本実施形態の手法により水晶玉占いを実現している。例えば図7(A)では、プレーヤが透明物体TOBをタッチパネルディスプレイ190に置き、接触イベントが発生すると、まず、「運命の人は」と書かれたサブ画面SBが表示される。そして、その後、図7(B)に示すように文章が順次スクロールして、例えば「運命の人はあなたのすぐそばに居ます」という占いが文字テロップによりプレーヤに伝えられる。この場合に、プレーヤが違うタイミングで透明物体TOBをタッチパネルディスプレイ190に置くと、今度は、例えば「あなたの今日のラッキーカラーはオレンジです」、「あなたの愛が彼にはちょっと重いかも」というように、置くタイミングに応じて異なる占いの言葉がテロップ表示される。これによりプレーヤは水晶玉占いを疑似体験できる。   In FIGS. 7A and 7B, crystal ball fortune-telling is realized by the method of this embodiment. For example, in FIG. 7A, when the player places the transparent object TOB on the touch panel display 190 and a contact event occurs, first, a sub-screen SB on which “the fate is” is displayed. After that, as shown in FIG. 7B, the sentences are sequentially scrolled, and for example, a fortune telling that “the fate is right next to you” is transmitted to the player by the text telop. In this case, if the player places the transparent object TOB on the touch panel display 190 at a different timing, for example, “Your lucky color is today's orange” or “Your love may be a little heavy on him” In addition, different fortune-telling words are displayed in telop depending on the timing of placement. This allows the player to simulate a crystal ball fortune-telling.

例えば図4では、サブ画面画像が透明物体TOBの輪郭領域ER内に収まるように、サブ画面SBを小さなサイズに設定している。従って、サブ画面SBのピクセル数は少なく、多くの文章を一度にサブ画面SBに描くことは難しい。特に携帯型ゲーム装置では、タッチパネルディスプレイ190の解像度(ピクセル数)はそれほど高くないのが一般的であるため、サブ画面画像が輪郭領域ER内に収まるようにサブ画面SBのサイズを小さくすると、一度に表示できる文字数は限られる。   For example, in FIG. 4, the sub screen SB is set to a small size so that the sub screen image fits within the outline region ER of the transparent object TOB. Accordingly, the number of pixels on the sub screen SB is small, and it is difficult to draw many sentences on the sub screen SB at one time. In particular, in a portable game device, since the resolution (number of pixels) of the touch panel display 190 is generally not so high, once the size of the sub screen SB is reduced so that the sub screen image fits in the outline region ER, The number of characters that can be displayed on is limited.

この点、図7(A)、図7(B)のように、時間経過に応じて文章をスクロールさせるテロップ処理を行えば、サブ画面SBのサイズが小さい場合でも、多くの文字数の文章を透明物体TOBを介してプレーヤに提示することが可能になる。   In this regard, as shown in FIGS. 7 (A) and 7 (B), if a telop process is performed to scroll a sentence as time elapses, a sentence with a large number of characters is transparent even if the size of the sub-screen SB is small. It becomes possible to present to the player via the object TOB.

なおサブ画面画像を変化させる処理は、図7(A)、図7(B)のようなテロップ処理に限定されず、サブ画面画像のアニメーション処理を行ってもよい。例えばサブ画面に描いたキャラクタをアニメーションさせる処理を行ってもよい。具体的には、アニメーション用の複数のキャラクタ画像を、サブ画面SBに順次描画してアニメーション処理を実現する。   The processing for changing the sub screen image is not limited to the telop processing as shown in FIGS. 7A and 7B, and animation processing of the sub screen image may be performed. For example, a process of animating a character drawn on the sub screen may be performed. Specifically, animation processing is realized by sequentially drawing a plurality of character images for animation on the sub-screen SB.

或いは、接触イベントが発生した後、サブ画面SBのサイズを徐々に大きくする処理を行ってもよい。例えばサブ画面SBを非常に小さなサイズ(例えば1×1ピクセル)から、図4のサイズ(例えば16×16ピクセル)に変化させる。このようにすれば、タイムラグ期間経過後にサブ画面SBを発生させる手法と同様の効果を得ることができる。即ち、プレーヤが、透明物体TOBを取り外して、接触位置TPに指でタッチした後に直ぐに離したとしても、サブ画面画像は非常に小さなサイズ(1×1ピクセル)で表示されるため、種明かしがわかってしまう事態を防止できる。   Alternatively, after the contact event occurs, a process of gradually increasing the size of the sub screen SB may be performed. For example, the sub screen SB is changed from a very small size (for example, 1 × 1 pixel) to the size in FIG. 4 (for example, 16 × 16 pixels). In this way, it is possible to obtain the same effect as the method of generating the sub screen SB after the time lag period has elapsed. That is, even if the player removes the transparent object TOB and touches the contact position TP with his / her finger and then releases it immediately, the sub screen image is displayed in a very small size (1 × 1 pixel), so the secret is known. Can be prevented.

なお、接触イベント発生時に図4のサイズでサブ画面SBを表示した後、更にサブ画面SBのサイズを大きくする処理を行ってもよい。このようにすれば、出現したサブ画面SBのサイズが透明物体TOB内で更に大きくなって行くという映像表現を実現できる。   In addition, after the sub screen SB is displayed with the size of FIG. 4 when the contact event occurs, a process of further increasing the size of the sub screen SB may be performed. In this way, it is possible to realize a video expression that the size of the appearing sub-screen SB is further increased in the transparent object TOB.

また接触イベントが発生した後、サブ画面画像を、透明度の高い状態から透明度の低い状態に変化させる処理を行ってもよい。具体的には、例えばサブ画面画像を完全な透明状態から不透明状態に変化させる。このようにすれば、タイムラグ期間経過後にサブ画面SBを発生させる手法と同様の効果を得ることができる。即ち、プレーヤが、透明物体TOBを取り外して、接触位置TPに指でタッチした後に直ぐに離したとしても、サブ画面画像は透明な状態で表示されているため、種明かしがわかってしまう事態を防止できる。   Further, after the contact event occurs, a process of changing the sub-screen image from a state with high transparency to a state with low transparency may be performed. Specifically, for example, the sub screen image is changed from a completely transparent state to an opaque state. In this way, it is possible to obtain the same effect as the method of generating the sub screen SB after the time lag period has elapsed. That is, even if the player removes the transparent object TOB and touches the contact position TP with his / her finger and then releases it immediately, the sub-screen image is displayed in a transparent state, so that it is possible to prevent an unclear situation. .

なお、接触イベントの発生後(例えばタイムラグ期間経過後)、サブ画面画像を例えば半透明状態で表示し、その後、サブ画面画像を徐々に不透明にしてもよい。このようにすれば、出現したサブ画面画像が透明物体TOB内において、徐々にその姿が現れてくるという映像表現を実現できる。   Note that after the occurrence of a contact event (for example, after the time lag period has elapsed), the sub screen image may be displayed in a semi-transparent state, for example, and then the sub screen image may be gradually made opaque. In this way, it is possible to realize a video expression in which the appearing sub-screen image gradually appears in the transparent object TOB.

またサブ画面画像の透明状態(半透明状態)を変化させる処理は、例えばα値を用いたαブレンディングなどにより実現できる。即ち、サブ画面画像を、透明度の高い状態から透明度の低い状態に変化させる場合には、サブ画面画像のα値を、透明度の高いα値から透明度の低いα値に変化させながら、背景画像とのαブレンディングを行えばよい。   Further, the process of changing the transparent state (semi-transparent state) of the sub-screen image can be realized by, for example, α blending using an α value. That is, when the sub screen image is changed from a state with high transparency to a state with low transparency, the α value of the sub screen image is changed from the α value with high transparency to the α value with low transparency, and the background image and Α blending may be performed.

なお接触イベント発生後に行う画像変化処理として、ピクセル入れ替え処理、ピクセル平均化処理等のサブ画面画像に対する様々な画像フィルタリング処理を行ってもよい。   Note that as the image change process performed after the occurrence of the contact event, various image filtering processes for the sub-screen image such as a pixel replacement process and a pixel averaging process may be performed.

或いは、接触イベントが発生した後、接触位置TPが移動した場合に、接触位置TPの移動に応じてサブ画面画像を変化させてもよい。例えば接触位置TPの移動距離や移動速度に基づいてサブ画面画像を変化させてもよい。   Alternatively, when the contact position TP moves after the contact event occurs, the sub screen image may be changed according to the movement of the contact position TP. For example, the sub screen image may be changed based on the moving distance or moving speed of the contact position TP.

2.3 拡大画像
次に、本実施形態を適用した拡大画像の表示手法について説明する。例えば図8(A)では、タッチパネルディスプレイ190に対して、惑星や星が見える夜空が描かれたメイン画面画像が表示されている。
2.3 Enlarged Image Next, an enlarged image display method to which the present embodiment is applied will be described. For example, in FIG. 8A, a main screen image on which a night sky where planets and stars can be seen is drawn is displayed on the touch panel display 190.

そしてプレーヤが透明物体TOB(或いは指、スタイラスペン等の物体)をタッチパネルディスプレイ190に置いて、TOBが接触位置TPに接触する接触イベントが発生すると、図8(B)に示すように惑星(土星)の画像がTOBを介して見えるようになる。即ち接触インベントが発生した場合に、図9(A)に示すようにタッチパネルディスプレイ190のメイン画面(夜空の画像)の拡大画像を、接触位置TPに発生したサブ画面SBに表示することで、図8(B)に示すような画像表現が実現される。   When the player places a transparent object TOB (or an object such as a finger or a stylus pen) on the touch panel display 190 and a contact event occurs in which the TOB contacts the contact position TP, a planet (Saturn) is displayed as shown in FIG. ) Can be seen through the TOB. That is, when a contact event occurs, an enlarged image of the main screen (night sky image) of the touch panel display 190 is displayed on the sub-screen SB generated at the contact position TP as shown in FIG. Image representation as shown in FIG. 8 (B) is realized.

具体的には接触インベントが発生した場合に、タッチパネルディスプレイ190のメイン画面に表示されるべきキャラクタの拡大画像をサブ画面SBに表示する。即ち図8(A)の夜空のメイン画面では、惑星や星が、メイン画面に表示されるべきキャラクタになる。従って、図9(A)では、メイン画面に表示されるべき惑星の拡大画像をサブ画面SBに表示し、図9(B)では、メイン画面に表示されるべき星の拡大画像をサブ画面SBに表示する。   Specifically, when a contact event occurs, an enlarged image of a character to be displayed on the main screen of touch panel display 190 is displayed on sub screen SB. That is, on the main screen in the night sky of FIG. 8A, planets and stars become characters to be displayed on the main screen. Accordingly, in FIG. 9A, an enlarged image of the planet to be displayed on the main screen is displayed on the sub screen SB, and in FIG. 9B, an enlarged image of the star to be displayed on the main screen is displayed on the sub screen SB. To display.

この場合に、メイン画面での接触位置TPに応じて異なったキャラクタ(異なった種類のキャラクタ)の拡大画像を、サブ画面SBに表示する。例えば図9(A)の接触位置TPでは惑星のキャラクタの拡大画像を表示し、図9(B)の接触位置TPでは星のキャラクタの拡大画像を表示する。即ち接触位置TPとキャラクタの存在位置を比較し、接触位置と一致する存在位置のキャラクタを表示する。   In this case, enlarged images of different characters (different types of characters) are displayed on the sub screen SB according to the contact position TP on the main screen. For example, an enlarged image of the planet character is displayed at the contact position TP in FIG. 9A, and an enlarged image of the star character is displayed at the contact position TP in FIG. 9B. That is, the contact position TP is compared with the presence position of the character, and the character at the presence position that matches the contact position is displayed.

このようにすれば、プレーヤに対して、夜空を眺めて色々な惑星や星を探索して発見するという楽しみを与えることができる。   In this way, it is possible to give the player the pleasure of searching for and discovering various planets and stars by looking at the night sky.

なお図8(A)のメイン画面画像に対して、例えばサイズが極めて小さな惑星、星等のキャラクタを予め表示しておき、そのキャラクタに透明物体TOBが接触した場合に、図8(B)のようにそのキャラクタの拡大画像を表示してもよい。或いは、図8(A)のメイン画面画像には、拡大画像に対応する惑星、星等については表示しないようにしてもよい。   For example, when a character such as a very small planet or a star is displayed in advance on the main screen image of FIG. 8A and the transparent object TOB comes into contact with the character, the image of FIG. Thus, an enlarged image of the character may be displayed. Alternatively, the main screen image in FIG. 8A may not display planets, stars, and the like corresponding to the enlarged image.

また本実施形態の拡大画像表示手法の適用例は図8(A)〜図9(B)に限定されない。例えばロールプレイングゲームやアクションゲームにおいて、メイン画面画像としてドア及びその鍵穴の画像を表示しておき、鍵穴の位置に透明物体TOB(物体)が接触した場合に、その拡大画像を表示してもよい。即ち、鍵穴の向こうに見える風景やそこにいるキャラクタの画像を表示する。このようにすることで、透明物体TOBを介して鍵穴の向こう側を覗くという、これまでにないゲーム表現を実現できる。   Moreover, the application example of the enlarged image display method of this embodiment is not limited to FIG. 8 (A)-FIG. 9 (B). For example, in a role playing game or an action game, an image of a door and its keyhole may be displayed as a main screen image, and an enlarged image may be displayed when a transparent object TOB (object) comes into contact with the keyhole position. . That is, an image of a landscape that is visible beyond the keyhole and an image of a character in the landscape are displayed. By doing so, it is possible to realize an unprecedented game expression of looking through the transparent object TOB beyond the keyhole.

2.4 透過表現画像
次に、本実施形態を適用した透過表現画像の表示手法について説明する。例えば図10(A)では、タッチパネルディスプレイ190に対して、人間のキャラクタCHが描かれたメイン画面画像が表示されている。
2.4 Transparent expression image Next, a display method of a transparent expression image to which the present embodiment is applied will be described. For example, in FIG. 10A, a main screen image on which a human character CH is drawn is displayed on the touch panel display 190.

そしてプレーヤが透明物体TOB(物体)をタッチパネルディスプレイ190に置いて、TOBが接触位置TPに接触する接触イベントが発生すると、図10(B)に示すように、キャラクタCHの透過表現画像である骨格画像がTOBを介して見えるようになる。即ち接触インベントが発生した場合に、図11(A)に示すように、メイン画面に表示されるキャラクタCHの透過表現画像を、接触位置TPに発生したサブ画面SBに表示することで、図10(B)に示すような画像表現が実現される。   When the player places the transparent object TOB (object) on the touch panel display 190 and a contact event occurs in which the TOB contacts the contact position TP, as shown in FIG. 10B, a skeleton that is a transparent expression image of the character CH. The image becomes visible through the TOB. That is, when a contact event occurs, as shown in FIG. 11A, the transmission representation image of the character CH displayed on the main screen is displayed on the sub-screen SB generated at the contact position TP. Image representation as shown in (B) is realized.

この場合に本実施形態では、図11(A)、図11(B)に示すように、メイン画面に表示されるキャラクタCHの画像よりも小さなサイズの透過表現画像を、サブ画面SBに表示している。   In this case, in this embodiment, as shown in FIGS. 11A and 11B, a transparent representation image having a size smaller than the image of the character CH displayed on the main screen is displayed on the sub screen SB. ing.

例えば図11(A)でサブ画面SBに表示される透過表現画像は、キャラクタCHの骨格を表す画像であるが、キャラクタCHのサイズに比べて、小さな骨格の画像が表示されている。また図11(B)では、接触位置TPはキャラクタCHの肩の位置ではないが、肩の位置の骨格画像を表示している。   For example, the transparent expression image displayed on the sub-screen SB in FIG. 11A is an image representing the skeleton of the character CH, but a skeleton image smaller than the size of the character CH is displayed. In FIG. 11B, the contact position TP is not the shoulder position of the character CH, but a skeleton image of the shoulder position is displayed.

即ち、球体の透明物体TOBを用いると、図4に示すように画像が約3倍に拡大される。従って、キャラクタCHの透過表現画像として、キャラクタCHと同じサイズの透過表現画像をサブ画面SBに表示してしまうと、メイン画面に映るキャラクタCHの画像と、透明物体TOBを介して映る透過表現画像との位置関係に矛盾が生じ、不自然な画像が生成されてしまう。   That is, when a spherical transparent object TOB is used, the image is enlarged about three times as shown in FIG. Therefore, if a transparent representation image having the same size as the character CH is displayed on the sub screen SB as the transparent representation image of the character CH, the image of the character CH reflected on the main screen and the transparent representation image reflected via the transparent object TOB are displayed. And the positional relationship between the two is inconsistent and an unnatural image is generated.

この点、本実施形態では、キャラクタCHの画像よりも小さなサイズ透過表現画像をサブ画面SBに表示しているため、図10(A)に示すように、メイン画面に映るキャラクタCHの画像と、透明物体TOBを介して映る透過表現画像との位置関係に矛盾が生じず、不自然さのない画像が表示される。従って、あたかもキャラクタCHの体内を覗いているかのように見える画像を表示でき、これまでにない画像表現を実現できる。   In this regard, in the present embodiment, since the size-transparent representation image smaller than the character CH image is displayed on the sub screen SB, as shown in FIG. 10A, the character CH image displayed on the main screen, An image having no unnaturalness is displayed without any contradiction in the positional relationship with the transparent expression image reflected through the transparent object TOB. Therefore, it is possible to display an image that looks as if it is looking into the body of the character CH, and an image expression that has never been achieved can be realized.

なお本実施形態の透過表現画像表示手法の適用例は図10(A)〜図11(B)に限定されない。例えば骨格ではなくて、内蔵が見える透過表現画像を表示してもよいし、服の透過表現画像を表示してもよい。或いは車や飛行機などの機械の内部が見える透過表現画像を表示してもよい。   In addition, the application example of the transmission expression image display method of this embodiment is not limited to FIG. 10 (A)-FIG. 11 (B). For example, instead of the skeleton, a transparent expression image in which the built-in can be seen may be displayed, or a transparent expression image of clothes may be displayed. Or you may display the transmission expression image which can see the inside of machines, such as a car and an airplane.

次に本実施形態の手法を実現する具体的な処理について図12を用いて説明する。図12において、B1に示すメイン画面画像をIM1とし、B2、B3に示すサブ画面画像である透過表現画像をIM2、IM3とする。ここで透過表現画像IM2は、メイン画面画像IM1と等倍の絵柄画像になっており、透過表現画像IM3は、メイン画面画像を1/3倍に縮小した絵柄画像になっている。このメイン画面画像IM1は図2の第1の描画バッファ177に描画され、サブ画面画像である透過表現画像IM2、IM3は第2の描画バッファ178に描画される。   Next, specific processing for realizing the method of the present embodiment will be described with reference to FIG. In FIG. 12, the main screen image shown in B1 is IM1, and the transparent representation images that are sub-screen images shown in B2 and B3 are IM2 and IM3. Here, the transmissive expression image IM2 is a picture image that is the same size as the main screen image IM1, and the transmissive expression image IM3 is a picture image that is reduced to 1/3 times the main screen image. The main screen image IM1 is drawn in the first drawing buffer 177 in FIG. 2, and the transparent representation images IM2 and IM3 that are sub-screen images are drawn in the second drawing buffer 178.

そして図12のB4、B5に示すように、タッチパネルディスプレイ190に透明物体TOBが接触して、タッチパネル入力があった時にだけ、接触位置TPの座標を中心とした場所(表示領域)に、透過表現画像IM2、IM3を表示(配置)する。即ちメイン画面画像IM1上の接触位置TPに対応する位置に透過表現画像IM2、IM3を描画する。   Then, as shown in B4 and B5 of FIG. 12, only when the transparent object TOB comes into contact with the touch panel display 190 and there is a touch panel input, a transparent expression is displayed in a place (display area) centered on the coordinates of the contact position TP. Images IM2 and IM3 are displayed (arranged). That is, the transparent representation images IM2 and IM3 are drawn at positions corresponding to the contact position TP on the main screen image IM1.

すると、図12のB6、B7に示すように、透明物体TOBを通して見ることで、レンズ効果によって画像が約3倍に拡大されて見えるようになる。また透明物体TOBを持ち上げて、タッチパネル入力がなくなると同時に、透過表現画像IM2、IM3は消去される。   Then, as shown in B6 and B7 of FIG. 12, when viewed through the transparent object TOB, the image is seen to be magnified about three times by the lens effect. In addition, the transparent object TOB is lifted and the touch panel input disappears, and at the same time, the transmission representation images IM2 and IM3 are deleted.

この場合に、図12のB6とB7を比較すれば明らかなように、縮小された透過表現画像IM3を用いれば、キャラクタCHとその透過表現画像との間の位置関係に矛盾が生じるのを防止できる。   In this case, as apparent from a comparison between B6 and B7 in FIG. 12, the use of the reduced transmission representation image IM3 prevents inconsistency in the positional relationship between the character CH and the transmission representation image. it can.

なお、この場合に、位置関係の矛盾を無くすために、透過表現画像IM3の表示位置を、接触位置TPの座標に応じてスクロールさせる処理を行うことが望ましい。即ち図11(A)、図11(B)に示すように、接触位置TPの座標に応じて、サブ画面SBの表示位置を変更することが望ましい。   In this case, it is desirable to perform a process of scrolling the display position of the transparent expression image IM3 according to the coordinates of the contact position TP in order to eliminate the contradiction in the positional relationship. That is, as shown in FIGS. 11A and 11B, it is desirable to change the display position of the sub-screen SB according to the coordinates of the contact position TP.

2.5 説明画像の表示
次に、本実施形態を適用した説明画像の表示手法について説明する。例えば図13(A)では、タッチパネルディスプレイ190に対して、虫が生息する森が描かれた背景画像が表示されている。
2.5 Description Image Display Next, a description image display method to which the present embodiment is applied will be described. For example, in FIG. 13A, a background image on which a forest inhabiting insects is drawn is displayed on the touch panel display 190.

そしてプレーヤが透明物体TOB(物体)をタッチパネルディスプレイ190に置いて、TOBが接触位置TPに接触する接触イベントが発生すると、蝶のキャラクタ画像がTOBを介して見えるようになる。即ち図14(A)に示すように接触位置TPに蝶のキャラクタCHを発生させることで、図13(B)に示すような画像表現が実現される。   When the player places the transparent object TOB (object) on the touch panel display 190 and a contact event occurs in which the TOB contacts the contact position TP, the butterfly character image becomes visible through the TOB. That is, by generating a butterfly character CH at the contact position TP as shown in FIG. 14A, an image representation as shown in FIG. 13B is realized.

この場合、プレーヤが、図13(A)とは異なる位置に透明物体TOB(物体)を接触させると、接触位置に応じて、例えばカマキリ、カブトムシなどの異なった種類の虫のキャラクタCHが発生して、表示されるようになる。   In this case, when the player touches the transparent object TOB (object) at a position different from that in FIG. 13A, different types of insect characters CH such as mantis and beetle are generated according to the contact position. Will be displayed.

このようにすれば、プレーヤに対して、森の中を探索して色々な虫を発見するという楽しみを与えることができる。なお図13(A)では蝶等のキャラクタは表示されていないが、例えばサイズが極めて小さな蝶等のキャラクタを背景画像上に予め表示しておき、そのキャラクタに透明物体TOBが接触した場合に、図13(B)のようにそのキャラクタの拡大画像を表示するような演出効果にしてもよい。このようすれば、虫の採集をプレーヤに対して擬似的に体験させることが可能になる。   In this way, it is possible to give the player the pleasure of searching the forest and finding various insects. In FIG. 13A, a character such as a butterfly is not displayed. However, for example, when a character such as a butterfly having a very small size is displayed in advance on the background image and the transparent object TOB comes into contact with the character, An effect of displaying an enlarged image of the character as shown in FIG. This makes it possible for the player to experience the insect collection in a simulated manner.

また図13(B)、図14(A)では、接触イベントが発生して、虫のキャラクタCHが発生した場合に、そのキャラクタCHの説明画像(キャラクタの特徴等を説明する画像)が表示されるサブ画面SBを発生させている。具体的には、タッチパネルディスプレイ190のメイン画面に表示されるべきキャラクタと接触位置TPとが一致したと判断された場合に、そのキャラクタの説明画像が表示されるサブ画面SBを発生させる。   Further, in FIGS. 13B and 14A, when a contact event occurs and an insect character CH is generated, an explanatory image of the character CH (an image explaining the characteristics of the character) is displayed. The sub screen SB is generated. Specifically, when it is determined that the character to be displayed on the main screen of touch panel display 190 matches the touch position TP, a sub-screen SB on which an explanatory image of the character is displayed is generated.

このような説明画像のサブ画面SBを表示すれば、虫を探してその説明を見るという図鑑のような楽しみを、プレーヤに与えることができる。即ちプレーヤは、虫の画像のみならず、その虫がどのような種類の虫で、どのような特徴を持つのかを知ることができ、プレーヤの知的好奇心を満足させることができる。   Displaying such an explanation image sub-screen SB can give the player an enjoyment like a picture book of searching for insects and viewing their explanations. That is, the player can know not only the image of the worm but also what kind of insect the worm is and what characteristics it has, and can satisfy the player's intellectual curiosity.

なお図14(B)に示すように、キャラクタCHが発生した場合に、発生したキャラクタCHの説明画像193を生成して、ディスプレイ191(第2のディスプレイ)に表示してもよい。このように、ディスプレイ191に説明画像193を表示すれば、プレーヤは、透明物体TOBを介さずに直接に説明画像を見て読むことができるため、プレーヤの利便性を向上できる。   As shown in FIG. 14B, when a character CH occurs, an explanation image 193 of the generated character CH may be generated and displayed on the display 191 (second display). In this way, if the explanation image 193 is displayed on the display 191, the player can directly see and read the explanation image without using the transparent object TOB, so that the convenience of the player can be improved.

なお説明画像の生成手法は図13(A)〜図14(B)の手法に限定されない。例えば魚(キャラクタ)が泳いでいる画像を生成し、泳いでいる魚に対して透明物体(或いは物体)でタッチすると、その魚の名前、大きさ等の説明画像のサブ画面を表示したり、その魚の内臓や骨などを表す透過表現画像を、説明画像のサブ画面として表示してもよい。   Note that the method of generating the explanation image is not limited to the method of FIGS. 13A to 14B. For example, when an image of a fish (character) swimming is generated and the swimming fish is touched with a transparent object (or object), a sub-screen of an explanatory image such as the name and size of the fish is displayed. A transmission expression image representing the internal organs and bones of fish may be displayed as a sub-screen of the explanation image.

図15に、図13(A)〜図14(B)の手法を実現する処理のフローチャートを示す。   FIG. 15 shows a flowchart of processing for realizing the methods of FIGS. 13 (A) to 14 (B).

まず図13(A)に示すような森を表す背景画像を描画する(ステップS11)。そして透明物体TOB(物体)がタッチパネルディスプレイ190に接触したか否かを判断する(ステップS12)。そして接触した場合には、タッチパネルディスプレイ190の接触位置TPを取得する(ステップS13)。   First, a background image representing a forest as shown in FIG. 13A is drawn (step S11). Then, it is determined whether or not the transparent object TOB (object) has touched the touch panel display 190 (step S12). If contact is made, the touch position TP of the touch panel display 190 is acquired (step S13).

次に、接触位置TPにキャラクタCHが存在するか否かを判断する(ステップS14)。そして存在する場合には、その接触位置TPにそのキャラクタCH及びその説明画像のサブ画面SBを表示する(ステップS15)。即ち図13(A)の接触位置TPには蝶のキャラクタCHが存在するため、図13(B)ではその蝶のキャラクタCH及びその説明画像が透明物体TOBを介して表示されるようになる。   Next, it is determined whether or not the character CH exists at the contact position TP (step S14). If it exists, the character CH and the sub-screen SB of the explanation image are displayed at the contact position TP (step S15). That is, since the butterfly character CH exists at the contact position TP in FIG. 13A, the butterfly character CH and its explanation image are displayed via the transparent object TOB in FIG. 13B.

次に、第2のディスプレイ191に、出現したキャラクタCHの説明画像を表示する(ステップS16)。例えば図14(B)では、蝶のキャラクタCHの説明画像が表示されている。   Next, an explanatory image of the appearing character CH is displayed on the second display 191 (step S16). For example, in FIG. 14B, an explanatory image of the butterfly character CH is displayed.

次に透明物体TOBがタッチパネルディスプレイ190から離れたか否かを判断する(ステップS17)。そして離れた場合には、キャラクタCH及び説明画像のサブ画面を非表示にして(ステップS18)、ステップS12に戻る。   Next, it is determined whether or not the transparent object TOB has left the touch panel display 190 (step S17). When the user leaves, the character CH and the explanation image sub-screen are hidden (step S18), and the process returns to step S12.

2.6 サブ画面の移動処理
サブ画面SBの表示領域は、接触位置TPを中心とする領域であってもよいが、接触位置から所与の距離だけ離れた表示領域にサブ画面SBを発生させてもよい。
2.6 Sub-Screen Movement Processing The display area of the sub-screen SB may be an area centered on the contact position TP, but the sub-screen SB is generated in a display area that is a given distance away from the contact position. May be.

例えば図16(A)では、サブ画面制御部103は、接触位置TPへの透明物体TOBの接触イベントが発生した場合に、接触位置TPから離れた場所に設定された表示領域にサブ画面SBを発生させている。そして図16(B)に示すように、サブ画面SBが発生した後、サブ画面SBを接触位置TPに向かって移動させる処理を行う。   For example, in FIG. 16A, when the contact event of the transparent object TOB to the contact position TP occurs, the sub screen control unit 103 displays the sub screen SB in the display area set at a location away from the contact position TP. Is generated. Then, as shown in FIG. 16B, after the sub screen SB is generated, the sub screen SB is moved toward the contact position TP.

このようにすれば、透明物体TOBを置いた時に、TOBの中心にサブ画面画像が突然現れるのではなく、サブ画面画像がTOBの輪郭付近から中心に向かって移動しながら現れるという映像効果を実現できる。また、透明物体TOBの接触位置TPとは異なる位置からサブ画面画像が現れるため、接触位置TPへの接触イベントによりサブ画面SBが発生させたということが、プレーヤに気づかれず、種明かしがわかってしまう事態を防止できる。   In this way, when the transparent object TOB is placed, the sub screen image does not suddenly appear in the center of the TOB, but the sub screen image appears while moving from the vicinity of the outline of the TOB toward the center. it can. Further, since the sub screen image appears from a position different from the contact position TP of the transparent object TOB, the player is not aware that the sub screen SB is generated by the contact event to the contact position TP, and the secret is known. The situation can be prevented.

また図17(A)では、接触イベントが発生した後、接触位置TPが移動している。そしてこの場合には、サブ画面制御部103は、移動する接触位置TPに追従するように、サブ画面SBを移動させる処理を行う。具体的には図16(B)のように接触位置TPにサブ画面SBが移動した後、図17(A)のようにプレーヤが透明物体TOBを例えば左側に動かすと、これに伴いサブ画面SBも左側に移動する。   In FIG. 17A, the contact position TP is moved after the contact event occurs. In this case, the sub screen control unit 103 performs a process of moving the sub screen SB so as to follow the moving contact position TP. Specifically, after the sub screen SB moves to the contact position TP as shown in FIG. 16B, when the player moves the transparent object TOB to the left side, for example, as shown in FIG. 17A, the sub screen SB is accompanied accordingly. Also move to the left.

このようにすれば、透明物体TOBの輪郭領域ER内に表示されるサブ画面画像も、透明物体TOBの移動に追従して移動するようになる。従って、あたかも透明物体TOBの中に占いの文章が存在していて、透明物体TOBの移動に伴い移動しているかのように見え、リアルな映像表現を実現できる。   In this way, the sub-screen image displayed in the outline area ER of the transparent object TOB also moves following the movement of the transparent object TOB. Therefore, a fortune-telling sentence exists in the transparent object TOB, and it looks as if it moves as the transparent object TOB moves, so that a realistic video expression can be realized.

また図17(B)では、サブ画面制御部103は、接触位置TPが移動するにつれて、サブ画面SBを非表示にする処理を行っている。即ち接触位置TPを、図16(B)の位置から長い距離移動させると、サブ画面SBが徐々に非表示になる。例えば図16(B)のように接触位置TPが左側に移動した場合には、サブ画面SBの右側部分から徐々に非表示にする。逆に、接触位置TPが右側に移動した場合には、サブ画面SBの左部分から徐々に非表示にする。   In FIG. 17B, the sub screen control unit 103 performs a process of hiding the sub screen SB as the contact position TP moves. That is, when the contact position TP is moved a long distance from the position shown in FIG. 16B, the sub-screen SB is gradually hidden. For example, when the contact position TP moves to the left as shown in FIG. 16B, the display gradually disappears from the right portion of the sub-screen SB. Conversely, when the contact position TP moves to the right side, it is gradually hidden from the left part of the sub-screen SB.

このようにすれば、透明物体TOBを大きく移動させた場合には、TOB内に見えるサブ画面画像は消えるようになる。具体的には図17(A)のように透明物体TOB(接触位置TP)を左側に動かすと、サブ画面画像はTOB内において右側に移動する。そして透明物体TOBを更に左側に動かすと、サブ画面画像がTOB内の右側の輪郭に到達した後、その右側部分から徐々に消えて行く画像表現を実現できる。   In this way, when the transparent object TOB is largely moved, the sub-screen image that can be seen in the TOB disappears. Specifically, as shown in FIG. 17A, when the transparent object TOB (contact position TP) is moved to the left side, the sub-screen image moves to the right side in the TOB. When the transparent object TOB is further moved to the left side, after the sub-screen image reaches the right outline in the TOB, it is possible to realize an image expression that gradually disappears from the right side portion.

例えば、透明物体TOBを左側に移動した場合に、図17(B)のようにサブ画面SBも左側に移動させると共に非表示にする手法を採用しないと、透明物体TOBを大きく左側に移動させた時に、TOBの下に存在したサブ画面SBが、TOBの右側に現れて表示されてしまい、種明かしがわかってしまう。この点、図17(B)の手法によれば、サブ画面SBが非表示になるため、このような事態を防止できる。   For example, when the transparent object TOB is moved to the left side, the transparent object TOB is largely moved to the left side unless the method of moving the sub screen SB to the left side and hiding it as shown in FIG. At times, the sub-screen SB that exists under the TOB appears and appears on the right side of the TOB, and the secret is known. In this regard, according to the method of FIG. 17B, the sub-screen SB is not displayed, and thus such a situation can be prevented.

以上のように本実施形態では、接触イベントが発生した場合に、図18(A)のように接触位置TPから離れた場所にサブ画面SBを発生する。その後、図18(B)に示すように、発生したサブ画面SBを接触位置TPに向かって移動させる。   As described above, in the present embodiment, when a contact event occurs, the sub screen SB is generated at a location away from the contact position TP as shown in FIG. Thereafter, as shown in FIG. 18B, the generated sub-screen SB is moved toward the contact position TP.

また図18(C)に示すように、接触位置TPを移動させると、TPに追従するようにサブ画面SBを移動させる。例えば接触位置TPが左側に移動した場合には、サブ画面SBも左側に移動し、接触位置TPが右側に移動した場合には、サブ画面SBも右側に移動する。   Also, as shown in FIG. 18C, when the contact position TP is moved, the sub-screen SB is moved so as to follow TP. For example, when the contact position TP moves to the left side, the sub screen SB also moves to the left side. When the contact position TP moves to the right side, the sub screen SB also moves to the right side.

この場合に図18(C)に示すように、接触位置TPの移動距離Lよりも短い移動距離L/N(N>1)で、サブ画面SBを移動させることが望ましい。或いは接触位置TPの移動速度よりも遅い移動速度でサブ画面SBを移動させる。   In this case, as shown in FIG. 18C, it is desirable to move the sub screen SB at a movement distance L / N (N> 1) shorter than the movement distance L of the contact position TP. Alternatively, the sub screen SB is moved at a movement speed slower than the movement speed of the contact position TP.

このようにすれば、透明物体TOBを例えば左側に移動させた場合に、サブ画面画像が、TOBの中心から右側の輪郭に向かって移動して見える映像表現を実現できる。そして、透明物体TOBを更に左側に移動させた場合に、図18(D)のようにサブ画面SBを非表示にすれば、図17(B)のように透明物体TOBの右側の輪郭からサブ画面画像が徐々に消えて行く映像表現を実現できる。   In this way, when the transparent object TOB is moved, for example, to the left side, it is possible to realize a video expression in which the sub-screen image appears to move from the center of the TOB toward the right contour. When the transparent object TOB is further moved to the left side and the sub-screen SB is hidden as shown in FIG. 18D, the sub-object is subtracted from the right outline of the transparent object TOB as shown in FIG. It is possible to realize video expression in which the screen image gradually disappears.

2.7 ゲーム成績の演算
次に、本実施形態を適用したゲーム成績の演算手法について説明する。例えば図19(A)では、プレーヤが透明物体TOB(或いは物体)をタッチパネルディスプレイ190に接触させて、接触イベントが発生すると、図19(B)に示すように、サブ画面SBが発生して表示される。
2.7 Game Score Calculation Next, a game score calculation method to which the present embodiment is applied will be described. For example, in FIG. 19A, when a touch event occurs when the player touches the touch panel display 190 with the transparent object TOB (or object), a sub screen SB is generated and displayed as shown in FIG. Is done.

具体的には図19(A)では、接触位置TPはビルの窓付近であり、この場合には図19(B)に示すように、この接触位置TP付近の拡大画像が生成される。そして、サブ画面SBには、窓の向こうにいるキャラクタCHの画像が表示される。   Specifically, in FIG. 19A, the contact position TP is near the building window. In this case, as shown in FIG. 19B, an enlarged image near the contact position TP is generated. Then, an image of the character CH over the window is displayed on the sub screen SB.

そして、このようにサブ画面SBが発生した後に、プレーヤが操作部を用いて操作情報を入力すると、入力された操作情報に基づいてプレーヤのゲーム成績が演算される。具体的には図19(B)では、プレーヤは、操作ボタン302を押して、キャラクタCHを銃等でシューティングする指示を行っている。そして、キャラクタCHにショット(弾丸)がヒットすると、プレーヤの得点が加算されるゲーム成績演算が行われる。   Then, after the sub screen SB is generated in this manner, when the player inputs operation information using the operation unit, the game result of the player is calculated based on the input operation information. Specifically, in FIG. 19B, the player presses the operation button 302 to give an instruction to shoot the character CH with a gun or the like. When a shot (bullet) hits the character CH, a game score calculation is performed in which the player's score is added.

このように図19(A)、図19(B)の手法によれば、接触イベントの発生により、単にサブ画面SBが出現するだけではなく、プレーヤがゲーム操作を行うことで、プレーヤのゲーム成績も演算されるようになり、インタラクティブなゲームを実現できる。   As described above, according to the methods shown in FIGS. 19A and 19B, not only the sub screen SB appears due to the occurrence of the contact event, but also the player performs the game operation, so that the game results of the player Can be calculated, and interactive games can be realized.

なお本実施形態のゲーム成績演算手法は図19(A)、図19(B)に限定されない。例えば接触イベント発生によりサブ画面SBが出現した後、サブ画面SBに表示されたクイズに答えたり、出現したサブ画面SBに表示されるキャラクタやカードとの対戦ゲームを行うことなどにより、ゲーム成績を演算してもよい。   Note that the game score calculation method of the present embodiment is not limited to FIGS. 19 (A) and 19 (B). For example, after the sub-screen SB appears due to the occurrence of a contact event, the game results can be obtained by answering quizzes displayed on the sub-screen SB, playing a game against a character or a card displayed on the sub-screen SB, etc. You may calculate.

図20に、図19(A)、図19(B)の手法を実現する処理のフローチャートを示す。   FIG. 20 shows a flowchart of processing for realizing the method of FIGS. 19 (A) and 19 (B).

まず図19(A)に示すようなビル等が描かれた背景画像を描画する(ステップS21)。そして透明物体TOB(物体)がタッチパネルディスプレイ190に接触したか否かを判断し(ステップS22)、接触した場合には、タッチパネルディスプレイ190の接触位置TPを取得する(ステップS23)。   First, a background image on which a building or the like as shown in FIG. 19A is drawn is drawn (step S21). Then, it is determined whether or not the transparent object TOB (object) is in contact with the touch panel display 190 (step S22). If the transparent object TOB (object) is in contact, the contact position TP of the touch panel display 190 is acquired (step S23).

次に、図19(B)に示すように接触位置TPの拡大画像のサブ画面SBを生成して、キャラクタCHを表示する(ステップS24)。そしてプレーヤが、シューティング等の所与の操作を行った否かを判断し(ステップS25)、行った場合には、プレーヤの得点等のゲーム成績を演算する(ステップS26)。   Next, as shown in FIG. 19B, an enlarged image sub-screen SB at the contact position TP is generated and the character CH is displayed (step S24). Then, it is determined whether or not the player has performed a given operation such as shooting (step S25). If so, game results such as the player's score are calculated (step S26).

2.8 通信処理
次に、本実施形態を適用した通信処理手法について説明する。図21に本実施形態の通信処理手法を実現するゲームシステムの構成例を示す。このゲームシステムは、複数の画像生成装置(ゲーム装置、ゲーム端末、情報端末)20-1〜20-nと、これらの画像生成装置装置20-1〜20-nにネットワーク12を介して接続されるサーバ10を含む。ここで、ネットワーク12(通信回線)は、データ授受が可能な通信路を意味する。即ち、ネットワーク12は、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。
2.8 Communication Processing Next, a communication processing method to which this embodiment is applied will be described. FIG. 21 shows a configuration example of a game system that realizes the communication processing method of the present embodiment. This game system is connected to a plurality of image generation devices (game device, game terminal, information terminal) 20-1 to 20-n and these image generation device devices 20-1 to 20-n via a network 12. Server 10 is included. Here, the network 12 (communication line) means a communication path through which data can be exchanged. That is, the network 12 includes a communication network such as a telephone communication network, a cable network, and the Internet in addition to a LAN using a dedicated line (dedicated cable) or Ethernet (registered trademark) for direct connection. The method is not limited to wired / wireless.

サーバ(ゲームサーバ)10は、各種処理を実行する処理部、各種プログラムやデータを記憶する記憶部、ネットワーク12を介したデータの送受信のための通信部等を有する公知のサーバコンピュータシステムにより構成できる。このサーバ10は、例えば画像生成装置の製造メーカやゲームソフトの制作メーカが提供(設置)し、ゲームシステムの全体制御、各種データやネットワークゲームの管理等を行う。   The server (game server) 10 can be configured by a known server computer system having a processing unit that executes various processes, a storage unit that stores various programs and data, a communication unit for transmitting and receiving data via the network 12, and the like. . This server 10 is provided (installed) by, for example, an image generation device manufacturer or game software production manufacturer, and performs overall control of the game system, management of various data and network games, and the like.

画像生成装置20-1〜20-nは、プレーヤがゲームプレイを行うための装置(端末)であり、各種処理を実行する処理部、各種プログラムやデータを記憶する記憶部、プレーヤが操作入力を行うための操作部、ゲーム画面等を表示するための表示部、ゲーム音等を出力する音出力部、ネットワーク12を介したデータの送受信のための通信部等を有する公知のコンピュータシステムにより構成できる。例えば、画像生成装置20-1〜20-nとしては、家庭に設置される家庭用ゲーム装置、店舗に設置される業務用ゲーム装置、携帯型ゲーム装置、或いは携帯電話機などの携帯端末装置等により実現できる。そして画像生成装置20-1〜20-nでプレイするプレーヤは、サーバ10にアクセスしてログインすることにより、サーバ10より提供される各種のサービス(オンライン・ネットワーク・サービス)を受けることができる。   The image generation devices 20-1 to 20-n are devices (terminals) for the player to play a game. The image generation devices 20-1 to 20-n are a processing unit that executes various processes, a storage unit that stores various programs and data, and an operation input by the player. It can be configured by a known computer system having an operation unit for performing, a display unit for displaying a game screen, a sound output unit for outputting game sounds, a communication unit for transmitting and receiving data via the network 12, and the like. . For example, as the image generation devices 20-1 to 20-n, a home game device installed in a home, an arcade game device installed in a store, a portable game device, or a mobile terminal device such as a mobile phone, etc. realizable. Players playing with the image generation apparatuses 20-1 to 20-n can receive various services (online network services) provided by the server 10 by accessing the server 10 and logging in.

図21のようなゲームシステムにより、例えば画像生成装置20-1が有する通信処理部110は、他の画像生成装置20-2においてゲームプレイする他のプレーヤのゲームプレイ情報をネットワーク12を介して受信することができる。   With the game system as shown in FIG. 21, for example, the communication processing unit 110 included in the image generation device 20-1 receives game play information of another player who plays a game on the other image generation device 20-2 via the network 12. can do.

ここでゲームプレイ情報は、プレーヤのゲームプレイにより得られる情報であり、例えばキャラクタの情報、ゲームプレイの操作情報や操作履歴情報、プレーヤのゲーム成績情報、或いはプレーヤの個人情報等である。またキャラクタ情報は、キャラクタの位置、回転角度(方向)又は速度等の移動情報、キャラクタの体力、ヒットポイント又はステータス等のパラメータ情報、キャラクタに関して発生したイベント情報、或いはキャラクタの画像情報などである。またゲームプレイの操作情報や操作履歴情報は、操作部160を用いてプレーヤが入力した操作情報や、その操作情報の履歴情報である。またプレーヤのゲーム成績情報は、プレーヤの得点、ポイント又は勝敗等の情報であり、プレーヤの個人情報は、プレーヤの名前、ニックネーム、性別、又は年齢等の情報である。   Here, the game play information is information obtained by the game play of the player, such as character information, game play operation information and operation history information, player game result information, or player personal information. The character information includes movement information such as the character's position, rotation angle (direction) or speed, parameter information such as the character's physical strength, hit points or status, event information generated for the character, or character image information. The game play operation information and operation history information are operation information input by the player using the operation unit 160 and history information of the operation information. Further, the player's game result information is information such as the player's score, points, or win / loss, and the player's personal information is information such as the player's name, nickname, sex, or age.

そして本実施形態では、サブ画面制御部103は、接触イベントが発生した場合に、受信した他のプレーヤのゲームプレイ情報に基づいて、サブ画面を発生させる処理を行う。例えば、接触位置に対応する表示位置にサブ画面を発生させる。具体的には、他のプレーヤのキャラクタの位置情報に基づいて、その位置に対応するゲームフィールド上の位置に他のプレーヤのキャラクタが描かれたサブ画面を発生させる。或いは他のプレーヤの操作情報や操作履歴情報に基づいて、サブ画面を発生させたり、移動させたりする。或いは他のプレーヤのゲーム成績情報に基づいて、サブ画面を発生させたり、消滅させたりする。   In this embodiment, the sub-screen control unit 103 performs processing for generating a sub-screen based on the received game play information of another player when a contact event occurs. For example, the sub screen is generated at the display position corresponding to the contact position. Specifically, based on the position information of the character of the other player, a sub-screen in which the character of the other player is drawn at a position on the game field corresponding to the position is generated. Alternatively, the sub screen is generated or moved based on the operation information and operation history information of other players. Alternatively, the sub screen is generated or disappeared based on the game result information of other players.

例えば図22(A)、図22(B)は、本実施形態の手法を潜水艦対戦ゲームに適用した場合の例である。   For example, FIG. 22 (A) and FIG. 22 (B) are examples when the method of the present embodiment is applied to a submarine battle game.

プレーヤのタッチパネルディスプレイ190には、海の背景画像が表示されている。そしてプレーヤの攻撃ターンになると、ネットワークを介して、他のプレーヤが操作する潜水艦のキャラクタCHの位置情報を受信する。そして、プレーヤは、透明物体TOB(或いは指、スタイラスペン等の物体)を操作して、海の下に他のプレーヤの潜水艦キャラクタCHが隠れていないかを探索する。   A sea background image is displayed on the touch panel display 190 of the player. When the player's attack turn comes, the position information of the character CH of the submarine operated by another player is received via the network. Then, the player operates the transparent object TOB (or an object such as a finger or a stylus pen) to search for another player's submarine character CH under the sea.

具体的には、プレーヤが操作する透明物体TOB(物体)が接触位置TPに接触した場合に、接触位置TPと、受信により得られた他のプレーヤが操作する潜水艦キャラクタCHの位置とを比較する。そして接触位置TPと潜水艦キャラクタCHの位置とが一致すると、サブ画面制御部103は、図22(B)に示すように、海面に隠れていた他のプレーヤの潜水艦キャラクタCHが描かれたサブ画面SBを発生させる。更に具体的には、潜水艦キャラクタCHにプレーヤの魚雷が命中して、破壊される演出画像を生成する。このようにすれば、いわゆる潜水艦による魚雷戦ゲームを実現できるようになる。   Specifically, when the transparent object TOB (object) operated by the player contacts the contact position TP, the contact position TP is compared with the position of the submarine character CH operated by another player obtained by reception. . When the contact position TP and the position of the submarine character CH coincide with each other, the sub-screen control unit 103 displays the sub-screen on which the submarine character CH of another player hidden on the sea surface is drawn as shown in FIG. SB is generated. More specifically, the player's torpedo hits the submarine character CH to generate an effect image that is destroyed. In this way, a so-called torpedo battle game with a submarine can be realized.

図23に、図22(A)、図22(B)の手法を実現する処理のフローチャートを示す。   FIG. 23 shows a flowchart of processing for realizing the method of FIGS. 22 (A) and 22 (B).

まず図22(A)に示すような海等が描かれた背景画像を描画する(ステップS31)。また他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報(他のプレーヤの情報)をネットワークを介して受信する(ステップS32)。   First, a background image on which a sea or the like as shown in FIG. 22A is drawn is drawn (step S31). Further, the game play information (information of other players) of other players who play the game with other image generation devices is received via the network (step S32).

次に、透明物体TOB(物体)がタッチパネルディスプレイ190に接触したか否かを判断し(ステップS33)、接触した場合には、タッチパネルディスプレイ190の接触位置TPを取得する(ステップS34)。そして接触位置TPと他のプレーヤのキャラクタCH(潜水艦)の位置が一致したか否かを判断し(ステップS35)、一致した場合には、図22(B)に示すように、破壊された他のプレーヤのキャラクタCHが表示されたサブ画面SBを接触位置TPに発生させて表示する(ステップS36)。   Next, it is determined whether or not the transparent object TOB (object) has touched the touch panel display 190 (step S33). If the transparent object TOB (object) has touched, the contact position TP of the touch panel display 190 is acquired (step S34). Then, it is determined whether or not the contact position TP and the position of the character CH (submarine) of the other player coincide with each other (step S35). If they coincide, as shown in FIG. The sub screen SB on which the player's character CH is displayed is generated and displayed at the contact position TP (step S36).

なお本実施形態の通信処理手法は図22(A)〜図23の手法に限定されない。例えばサブ画面制御部103は、他のプレーヤのゲームプレイ情報に基づいて、他のプレーヤの視点から見える画像が表示されたサブ画面を発生させる処理を行ってもよい。   Note that the communication processing method of the present embodiment is not limited to the method shown in FIGS. For example, the sub screen control unit 103 may perform a process of generating a sub screen on which an image that can be seen from the viewpoint of another player is displayed based on the game play information of the other player.

例えば図24(A)では、プレーヤが操作するキャラクタCH1と、他のプレーヤが操作するキャラクタCH2が対戦している。この場合、プレーヤの画像生成装置(ゲーム装置)と他のプレーヤの画像生成装置は、図21に示すようにネットワーク12やサーバ10を介して通信接続されている。そして、プレーヤの視点位置や視線方向などのゲームプレイ情報が送受信される。   For example, in FIG. 24A, a character CH1 operated by a player and a character CH2 operated by another player are fighting. In this case, the image generation device (game device) of the player and the image generation device of another player are connected for communication via the network 12 or the server 10 as shown in FIG. Then, game play information such as the player's viewpoint position and line-of-sight direction is transmitted and received.

そしてプレーヤが、タッチパネルディスプレイ190の接触位置に透明物体TOB(物体)を接触させると、図24(B)に示すようなサブ画面SBが発生する。そして、サブ画面SBには、受信した他のプレーヤの視点情報に基づいて、他のプレーヤの視点から見える画像が表示される。即ち他のプレーヤから見えるプレーヤ側の画像であるキャラクタCH1の画像が表示される。   Then, when the player brings the transparent object TOB (object) into contact with the touch position of the touch panel display 190, a sub-screen SB as shown in FIG. Then, on the sub screen SB, an image that can be seen from the viewpoint of the other player is displayed based on the received viewpoint information of the other player. That is, an image of the character CH1, which is a player-side image that can be seen by other players, is displayed.

このようにすれば、プレーヤは、他のプレーヤから見て、自身のキャラクタCH1がどのように見えるのかを覗き見することができ、これまでにない画像表現を実現できる。   In this way, the player can look into how his / her character CH1 looks when viewed from other players, and can realize an image expression that has never been seen before.

なお図24(A)、図24(B)はキャラクタの対戦ゲームの例であるが、例えばレーシングゲームや飛行機ゲームに適用した場合には、他のプレーヤの運転席やコックピットの視点から見える画像を、サブ画面SBに表示すればよい。   FIGS. 24A and 24B are examples of character battle games. For example, when applied to a racing game or an airplane game, images that can be seen from the driver's seat or cockpit of other players are displayed. It may be displayed on the sub screen SB.

2.9 透明物体
次に、本実施形態で使用される透明物体(物体)の種々の例について説明する。図25(A)は球体形状の透明物体の例である。この透明物体としては、例えば直径40mm前後の透明なアクリル球、ガラス球、ゴム球などを使用できる。なお透明物体は無色であってもよいし、有色であってもよい。また透明物体は完全な透明である必要はなく、半透明であってもよい。
2.9 Transparent Object Next, various examples of the transparent object (object) used in the present embodiment will be described. FIG. 25A shows an example of a spherical transparent object. As this transparent object, for example, a transparent acrylic sphere, glass sphere, rubber sphere or the like having a diameter of around 40 mm can be used. The transparent object may be colorless or colored. The transparent object does not need to be completely transparent, and may be translucent.

図25(B)は、レンズ形状又は半球形状の透明物体の例である。このように透明物体は必ずしも球体である必要はなく、少なくともタッチパネルディスプレイと接触する部分が曲面であればよい。   FIG. 25B is an example of a lens-shaped or hemispherical transparent object. As described above, the transparent object does not necessarily have to be a sphere, and at least a portion in contact with the touch panel display may be a curved surface.

図25(C)は、柱体形状の透明物体の例である。図25(C)では、柱体形状の透明物体のうち、タッチパネルディスプレイに接触する部分である底面がレンズ形状になっている。なお柱体は、円柱であってもよいし、三角柱や四角柱などの角柱であってもよい。   FIG. 25C illustrates an example of a columnar transparent object. In FIG. 25C, the bottom surface, which is a portion that contacts the touch panel display, of the columnar transparent object has a lens shape. The column body may be a cylinder or a prism such as a triangular prism or a quadrangular prism.

図25(D)は筒形状の透明物体(物体)の例である。図25(D)では、例えば筒形状の真ん中の穴を介して、タッチパネルディスプレイに表示されたサブ画面画像が映し出される。この場合に、例えば筒の底面部分に、少なくとも2つの突起を設ければ、2つの突起の中点が、タッチパネルディスプレイの接触位置(タッチ位置)として取得されることになる。   FIG. 25D shows an example of a cylindrical transparent object (object). In FIG. 25D, the sub-screen image displayed on the touch panel display is displayed through, for example, a cylindrical hole in the middle. In this case, for example, if at least two protrusions are provided on the bottom surface portion of the cylinder, the midpoint of the two protrusions is acquired as the touch position (touch position) of the touch panel display.

また透明物体が例えば柱体形状等である場合に、図25(E)、図25(F)に示すように、その底面に少なくとも2つの突起を設ける。このようにしても、2つの突起の中点が、タッチパネルディスプレイの接触位置(タッチ位置)として取得されることになる。   Further, when the transparent object has, for example, a columnar shape, at least two protrusions are provided on the bottom surface thereof as shown in FIGS. Even in this way, the midpoint of the two protrusions is acquired as the contact position (touch position) of the touch panel display.

例えば図26(A)、図26(B)では、キャラクタ等を模したフィギュア(透明物体、物体)が、タッチパネルディスプレイ190に置かれている。この場合に、図26(A)のフィギュアの底面には図25(E)に示すような突起が設けられ、図26(B)のフィギュアの底面には図25(F)に示すような突起が設けられている。そしてフィギュアを置いた場合の向きを固定したとすると、同じ円内に置いた場合でも、図25(E)の突起を有する図26(A)のフィギュアを置いた場合の接触位置と、図25(F)の突起を有する図26(B)のフィギュアを置いた場合の接触位置は、異なった位置になる。従って、この接触位置を判定することで、どのような形状のフィギュアが置かれたのかを判定できる。また、この接触位置を判定することで、例えばタッチパネルディスプレイ190に発生させるサブ画面画像の種類や、サブ画面画像の発生のさせ方を異ならせるなどの制御も可能になる。例えば図26(A)のロボットを模したフィギュアを置いた場合には、このフィギュアに対応したロボットのキャラクタが表示されたサブ画面を発生させたり、図26(B)のウサギを模したフィギュアを置いた場合には、このフィギュアに対応したウサギのキャラクタが表示されたサブ画面を発生させたりすることが可能になる。   For example, in FIGS. 26A and 26B, a figure (transparent object, object) imitating a character or the like is placed on the touch panel display 190. In this case, a projection as shown in FIG. 25E is provided on the bottom of the figure in FIG. 26A, and a projection as shown in FIG. 25F is provided on the bottom of the figure in FIG. Is provided. If the orientation when the figure is placed is fixed, even if the figure is placed in the same circle, the contact position when the figure of FIG. When the figure of FIG. 26 (B) having the protrusion of (F) is placed, the contact position is different. Therefore, by determining the contact position, it is possible to determine what shape the figure is placed on. Further, by determining the contact position, for example, it is possible to perform control such as different types of sub-screen images to be generated on the touch panel display 190 and different ways of generating the sub-screen images. For example, when a figure imitating the robot in FIG. 26A is placed, a sub-screen on which the robot character corresponding to the figure is displayed is generated, or a figure imitating the rabbit in FIG. When placed, it is possible to generate a sub-screen on which a rabbit character corresponding to this figure is displayed.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語(物体等)として引用された用語(透明物体等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms (transparent objects, etc.) cited as broad or synonymous terms (objects, etc.) in the description in the specification or drawings are replaced with broad terms or synonyms in other descriptions in the specification or drawings. Can do.

また、サブ画面の発生手法、表示手法、制御手法や、ゲーム成績の演算手法や、通信処理手法なども、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含むことができる。例えば図5〜図26(B)等で説明した手法においては、図4で説明したようなサブ画面のサイズ設定を行わない変形実施も可能である。また透明物体の代わりに物体を用いて接触位置を取得する手法を採用することも可能である。   Further, the sub-screen generation method, display method, control method, game result calculation method, communication processing method, and the like are not limited to those described in the present embodiment, and methods equivalent to these are also included in the scope of the present invention. Can be included. For example, in the method described with reference to FIGS. 5 to 26B and the like, a modification in which the size of the sub-screen is not set as described in FIG. 4 is possible. It is also possible to adopt a method of acquiring a contact position using an object instead of a transparent object.

また本発明は、本実施形態で説明したゲーム以外にも種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、携帯型ゲーム装置、多数のプレーヤが参加する大型アトラクション、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成装置に適用できる。   Further, the present invention can be applied to various games other than the game described in the present embodiment. In addition, the present invention also provides various kinds of images such as a business game device, a home game device, a portable game device, a large attraction in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. Applicable to generators.

本実施形態の画像生成装置の外観図の例。The example of the external view of the image generation apparatus of this embodiment. 本実施形態の画像生成装置の機能ブロック図の例。The example of a functional block diagram of the image generation device of this embodiment. 図3(A)、図3(B)は本実施形態により生成される画像の例。3A and 3B show examples of images generated by this embodiment. 本実施形態の手法の原理を説明するための図。The figure for demonstrating the principle of the method of this embodiment. 本実施形態の手法を実現する具体的な処理を説明するための図。The figure for demonstrating the specific process which implement | achieves the method of this embodiment. 本実施形態の具体的な処理のフローチャート。The flowchart of the specific process of this embodiment. 図7(A)、図7(B)は画像変化手法の説明図。7A and 7B are explanatory diagrams of the image change method. 図8(A)、図8(B)は拡大画像表示手法の説明図。8A and 8B are explanatory diagrams of an enlarged image display method. 図9(A)、図9(B)は拡大画像表示手法の説明図。9A and 9B are explanatory diagrams of an enlarged image display method. 図10(A)、図10(B)は透過表現画像表示手法の説明図。FIGS. 10A and 10B are explanatory diagrams of a transmission expression image display method. 図11(A)、図11(B)は透過表現画像表示手法の説明図。FIG. 11A and FIG. 11B are explanatory diagrams of a transmission expression image display method. 透過表現画像表示手法の説明図。Explanatory drawing of the transmission expression image display method. 図13(A)、図13(B)は説明画像表示手法の説明図。13A and 13B are explanatory diagrams of an explanatory image display method. 図14(A)、図14(B)は説明画像表示手法の説明図。14A and 14B are explanatory diagrams of an explanatory image display method. 説明画像生成手法の処理のフローチャート。The flowchart of the process of a description image generation method. 図16(A)、図16(B)はサブ画面の移動手法の説明図。FIG. 16A and FIG. 16B are explanatory diagrams of a sub-screen moving method. 図17(A)、図17(B)はサブ画面の移動手法の説明図。FIG. 17A and FIG. 17B are explanatory diagrams of a sub-screen moving method. 図18(A)〜図18(D)はサブ画面の移動手法の説明図。18A to 18D are explanatory diagrams of a sub-screen moving method. 図19(A)、図19(B)はゲーム成績演算手法の説明図。FIG. 19A and FIG. 19B are explanatory diagrams of the game result calculation method. ゲーム成績演算手法の処理のフローチャート。The flowchart of the process of a game results calculation method. 本実施形態のゲームシステムの構成例。The structural example of the game system of this embodiment. 図22(A)、図22(B)は通信処理手法の説明図。22A and 22B are explanatory diagrams of a communication processing method. 通信処理手法の処理のフローチャート。The flowchart of the process of a communication processing method. 図24(A)、図24(B)は通信処理手法の他の例の説明図。24A and 24B are explanatory diagrams of another example of the communication processing method. 図25(A)〜図25(F)は透明物体の種々の例。25A to 25F show various examples of transparent objects. 図26(A)、図26(B)は本実施形態のフィギュアへの適用例。FIG. 26 (A) and FIG. 26 (B) are application examples of the present embodiment to the figure.

符号の説明Explanation of symbols

100 処理部、102 接触位置取得部、103 サブ画面制御部、
104 キャラクタ制御部、106 ゲーム演算部、108 ゲーム成績演算部、
110 通信処理部、120 画像生成部、130 音生成部、
160 操作部、162 サブ画面情報記憶部、163 サブ画面管理リスト、
164 サブ画面移動情報記憶部、165 サブ画面画像記憶部、
170 記憶部、171 接触位置記憶部、
172 キャラクタ情報記憶部、173 キャラクタ管理リスト、
174 キャラクタ移動情報記憶部、175 キャラクタ画像記憶部、
176 描画バッファ、177 第1の描画バッファ、178 第2の描画バッファ、
190 タッチパネルディスプレイ、191 ディスプレイ、192 音出力部、
194 補助記憶装置、196 通信部
100 processing unit, 102 contact position acquisition unit, 103 sub-screen control unit,
104 character control unit, 106 game calculation unit, 108 game result calculation unit,
110 communication processing unit, 120 image generation unit, 130 sound generation unit,
160 operation unit, 162 sub-screen information storage unit, 163 sub-screen management list,
164 sub-screen movement information storage unit, 165 sub-screen image storage unit,
170 storage unit, 171 contact position storage unit,
172 character information storage unit, 173 character management list,
174 Character movement information storage unit, 175 character image storage unit,
176 drawing buffer, 177 first drawing buffer, 178 second drawing buffer,
190 touch panel display, 191 display, 192 sound output unit,
194 Auxiliary storage device, 196 communication unit

Claims (22)

タッチパネルディスプレイに表示される画像を生成する画像生成装置のためのプログラムであって、
前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、
前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部として、
コンピュータを機能させ、
前記サブ画面制御部は、
前記タッチパネルディスプレイ及び前記透明物体を平面視した場合における前記透明物体の輪郭領域内に、前記透明物体を介して見える前記サブ画面の画像が表示されるように、そのサイズが設定された前記サブ画面を、前記接触位置に対応する前記表示領域に発生させる処理を行うことを特徴とするプログラム。
A program for an image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the transparent object when a contact event occurs in contact with the transparent object on the touch panel display;
A sub-screen control unit that performs processing to generate a sub-screen in a display area corresponding to the acquired touch position when the touch event occurs;
As an image generation unit that generates an image including an image of the sub screen and displays the image on the touch panel display,
Make the computer work,
The sub-screen control unit
The sub screen whose size is set so that an image of the sub screen seen through the transparent object is displayed in an outline region of the transparent object when the touch panel display and the transparent object are viewed in plan Is generated in the display area corresponding to the contact position.
請求項1において、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面の画像上に前記サブ画面を発生させ、前記タッチパネルディスプレイから前記透明物体が離れる離隔イベントが発生した場合に、発生した前記サブ画面を非表示にする処理を行うことを特徴とするプログラム。
In claim 1,
The sub-screen control unit
When the touch event occurs, the sub screen is generated on the image of the main screen of the touch panel display, and when the separation event that the transparent object is separated from the touch panel display occurs, the generated sub screen is not displayed. A program characterized by performing processing for display.
請求項1又は2において、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、前記サブ画面に表示される文章をスクロールさせるテロップ処理を行うことを特徴とするプログラム。
In claim 1 or 2,
The sub-screen control unit
A program for performing a telop process for scrolling a sentence displayed on the sub-screen when the contact event occurs.
請求項1乃至3のいずれかにおいて、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面の拡大画像を前記サブ画面に表示する処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The sub-screen control unit
A program that performs processing for displaying an enlarged image of a main screen of the touch panel display on the sub-screen when the contact event occurs.
請求項1乃至4のいずれかにおいて、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面に表示されるべきキャラクタの拡大画像を前記サブ画面に表示する処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The sub-screen control unit
A program that performs processing for displaying an enlarged image of a character to be displayed on the main screen of the touch panel display on the sub-screen when the contact event occurs.
請求項5において、
前記サブ画面制御部は、
前記メイン画面での前記接触位置に応じて、異なったキャラクタの拡大画像を前記サブ画面に表示する処理を行うことを特徴とするプログラム。
In claim 5,
The sub-screen control unit
The program which performs the process which displays the enlarged image of a different character on the said sub screen according to the said contact position in the said main screen.
請求項1乃至6のいずれかにおいて、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面に表示されるキャラクタの透過表現画像を前記サブ画面に表示する処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 6.
The sub-screen control unit
A program for performing a process of displaying a transparent expression image of a character displayed on a main screen of the touch panel display on the sub screen when the contact event occurs.
請求項7において、
前記サブ画面制御部は、
前記メイン画面に表示される前記キャラクタの画像よりも小さなサイズの前記透過表現画像を前記サブ画面に表示する処理を行うことを特徴とするプログラム。
In claim 7,
The sub-screen control unit
The program which performs the process which displays the said transparent representation image of a size smaller than the image of the said character displayed on the said main screen on the said sub screen.
請求項1乃至8のいずれかにおいて、
前記サブ画面制御部は、
前記タッチパネルディスプレイのメイン画面に表示されるべきキャラクタと前記接触位置とが一致したと判断された場合に、前記キャラクタの説明画像が表示されるサブ画面を発生させることを特徴とするプログラム。
In any one of Claims 1 thru | or 8.
The sub-screen control unit
A program for generating a sub-screen on which an explanatory image of the character is displayed when it is determined that the character to be displayed on the main screen of the touch panel display matches the contact position.
請求項1乃至9のいずれかにおいて、
前記サブ画面制御部は、
前記接触イベントが発生した後、所与のタイムラグ期間が経過した後に、前記表示領域に前記サブ画面を発生させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 9,
The sub-screen control unit
A program for generating the sub-screen in the display area after a predetermined time lag period has elapsed after the contact event has occurred.
請求項1乃至10のいずれかにおいて、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、前記接触位置から離れた場所に設定された前記表示領域に前記サブ画面を発生させ、前記サブ画面が発生した後、前記サブ画面を前記接触位置に向かって移動させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 10.
The sub-screen control unit
When the touch event occurs, the sub screen is generated in the display area set at a location away from the touch position, and after the sub screen is generated, the sub screen is moved toward the touch position. A program characterized by performing processing to be performed.
請求項1乃至11のいずれかにおいて、
前記サブ画面制御部は、
前記接触イベントが発生した後、前記接触位置が移動した場合に、移動する前記接触位置に追従するように、前記サブ画面を移動させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 11,
The sub-screen control unit
A program for performing a process of moving the sub screen so as to follow the moving contact position when the contact position moves after the contact event occurs.
請求項1乃至12のいずれかにおいて、
プレーヤのゲーム成績を演算するゲーム成績演算部として、
コンピュータを機能させ、
前記ゲーム成績演算部は、
前記接触イベントが発生して、前記サブ画面が発生した後に、プレーヤが操作部を用いて所与の操作情報を入力した場合に、入力された操作情報に基づいてプレーヤのゲーム成績を演算することを特徴とするプログラム。
In any one of Claims 1 to 12,
As a game score calculator that calculates the player's game score,
Make the computer work,
The game score calculation unit
When the player inputs given operation information using the operation unit after the contact event has occurred and the sub-screen has occurred, the player's game score is calculated based on the input operation information. A program characterized by
タッチパネルディスプレイに表示される画像を生成する画像生成装置のためのプログラムであって、
前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、
前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、
プレーヤのゲーム成績を演算するゲーム成績演算部として、
コンピュータを機能させ、
前記ゲーム成績演算部は、
前記接触イベントが発生して、前記サブ画面が発生した後に、プレーヤが操作部を用いて所与の操作情報を入力した場合に、入力された操作情報に基づいてプレーヤのゲーム成績を演算することを特徴とするプログラム。
A program for an image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display;
A sub-screen control unit that performs processing to generate a sub-screen in a display area corresponding to the acquired touch position when the touch event occurs;
An image generating unit that generates an image including an image of the sub screen and displays the image on the touch panel display;
As a game score calculator that calculates the player's game score,
Make the computer work,
The game score calculation unit
When the player inputs given operation information using the operation unit after the contact event has occurred and the sub-screen has occurred, the player's game results are calculated based on the input operation information. A program characterized by
請求項13又は14において、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面における前記接触位置での拡大画像を前記サブ画面に表示する処理を行い、
前記ゲーム成績演算部は、
前記接触イベントが発生して、前記サブ画面が発生した後に、プレーヤがシューティング操作を行った場合に、前記拡大画像に表示されるキャラクタに対するシューティングについてのプレーヤのゲーム成績を演算することを特徴とするプログラム。
In claim 13 or 14,
The sub-screen control unit
When the contact event occurs, a process of displaying an enlarged image at the contact position on the main screen of the touch panel display on the sub-screen,
The game score calculation unit
When the player performs a shooting operation after the contact event has occurred and the sub-screen has been generated, the game result of the player for shooting against the character displayed in the enlarged image is calculated. program.
請求項1乃至15のいずれかにおいて、
他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部として、
コンピュータを機能させ、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記サブ画面を発生させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 15,
As a communication processing unit that performs processing for receiving game play information of another player who plays a game on another image generation device via a network,
Make the computer work,
The sub-screen control unit
A program for generating the sub-screen based on the received game play information of the other player when the contact event occurs.
タッチパネルディスプレイに表示される画像を生成する画像生成装置のためのプログラムであって、
前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、
前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、
他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部として、
コンピュータを機能させ、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記サブ画面を発生させる処理を行うことを特徴とするプログラム。
A program for an image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display;
A sub-screen control unit that performs processing to generate a sub-screen in a display area corresponding to the acquired touch position when the touch event occurs;
An image generating unit that generates an image including an image of the sub screen and displays the image on the touch panel display;
As a communication processing unit that performs processing for receiving game play information of another player who plays a game on another image generation device via a network,
Make the computer work,
The sub-screen control unit
A program for generating the sub-screen based on the received game play information of the other player when the contact event occurs.
請求項16又は17において、
前記サブ画面制御部は、
前記他のプレーヤのゲームプレイ情報に基づいて、前記他のプレーヤの視点から見える画像が表示された前記サブ画面を発生させる処理を行うことを特徴とするプログラム。
In claim 16 or 17,
The sub-screen control unit
A program for performing processing for generating the sub-screen on which an image seen from the viewpoint of the other player is displayed based on the game play information of the other player.
請求項1乃至18のいずれかのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   A computer-readable information storage medium storing the program according to claim 1. タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、
前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、
前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、
前記サブ画面制御部は、
前記タッチパネルディスプレイ及び前記透明物体を平面視した場合における前記透明物体の輪郭領域内に、前記透明物体を介して見える前記サブ画面の画像が表示されるように、そのサイズが設定された前記サブ画面を、前記接触位置に対応する前記表示領域に発生させる処理を行うことを特徴とする画像生成装置。
An image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the transparent object when a contact event occurs in contact with the transparent object on the touch panel display;
A sub-screen control unit that performs processing to generate a sub-screen in a display area corresponding to the acquired touch position when the touch event occurs;
An image generation unit that generates an image including an image of the sub screen and displays the image on the touch panel display;
The sub-screen control unit
The sub screen whose size is set so that an image of the sub screen seen through the transparent object is displayed in an outline region of the transparent object when the touch panel display and the transparent object are viewed in plan The image generating apparatus is characterized by performing processing for generating the image in the display area corresponding to the contact position.
タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、
前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、
前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、
プレーヤのゲーム成績を演算するゲーム成績演算部とを含み、
前記ゲーム成績演算部は、
前記接触イベントが発生して、前記サブ画面が発生した後に、プレーヤが操作部を用いて所与の操作情報を入力した場合に、入力された操作情報に基づいてプレーヤのゲーム成績を演算することを特徴とする画像生成装置。
An image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display;
A sub-screen control unit that performs processing to generate a sub-screen in a display area corresponding to the acquired touch position when the touch event occurs;
An image generating unit that generates an image including an image of the sub screen and displays the image on the touch panel display;
A game score calculation unit for calculating a player's game score,
The game score calculation unit
When the player inputs given operation information using the operation unit after the contact event has occurred and the sub-screen has occurred, the player's game results are calculated based on the input operation information. An image generation apparatus characterized by the above.
タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、
前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にサブ画面を発生させる処理を行うサブ画面制御部と、
前記サブ画面の画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、
他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部とを含み、
前記サブ画面制御部は、
前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記サブ画面を発生させる処理を行うことを特徴とする画像生成装置。
An image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display;
A sub-screen control unit that performs processing to generate a sub-screen in a display area corresponding to the acquired touch position when the touch event occurs;
An image generating unit that generates an image including an image of the sub screen and displays the image on the touch panel display;
A communication processing unit that performs processing for receiving game play information of another player playing a game on another image generation device via a network,
The sub-screen control unit
An image generating apparatus that performs processing for generating the sub-screen based on the received game play information of the other player when the contact event occurs.
JP2007236891A 2007-09-12 2007-09-12 Program, information storage medium, and image generation device Withdrawn JP2009070076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007236891A JP2009070076A (en) 2007-09-12 2007-09-12 Program, information storage medium, and image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007236891A JP2009070076A (en) 2007-09-12 2007-09-12 Program, information storage medium, and image generation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012001554A Division JP5479503B2 (en) 2012-01-06 2012-01-06 Program, information storage medium, and image generation apparatus

Publications (1)

Publication Number Publication Date
JP2009070076A true JP2009070076A (en) 2009-04-02

Family

ID=40606271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007236891A Withdrawn JP2009070076A (en) 2007-09-12 2007-09-12 Program, information storage medium, and image generation device

Country Status (1)

Country Link
JP (1) JP2009070076A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2253361A2 (en) 2009-05-18 2010-11-24 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Game apparatus, game program and information recording medium
JP2012099093A (en) * 2010-10-08 2012-05-24 Ag Ltd Input device, program, data processing method, and data processor for touch pad
JP2013519427A (en) * 2010-02-12 2013-05-30 ブルーサイド・インコーポレイテッド Character information synchronization method by data type classification
JP2015014995A (en) * 2013-07-08 2015-01-22 桑原 雅人 Display device, display method, program, and display system
JP2015146079A (en) * 2014-01-31 2015-08-13 株式会社バンダイ information providing system and information providing program
JP2015210379A (en) * 2014-04-25 2015-11-24 株式会社ソニー・コンピュータエンタテインメント Image fusion system, information processor, information terminal and information processing method
JP2018161437A (en) * 2017-03-27 2018-10-18 株式会社コロプラ Game program, method and information processor
JP2019136132A (en) * 2018-02-06 2019-08-22 株式会社コーエーテクモゲームス Program, information processing method and information processing device
WO2023087903A1 (en) * 2021-11-19 2023-05-25 腾讯科技(深圳)有限公司 Game screen display method and apparatus, storage medium, and electronic device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8231466B2 (en) 2009-05-18 2012-07-31 Kabushiki Kaisha Square Enix Game apparatus, game program and information recording medium
EP2253361A2 (en) 2009-05-18 2010-11-24 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Game apparatus, game program and information recording medium
JP2015180326A (en) * 2010-02-12 2015-10-15 ブルーサイド・インコーポレイテッド Method for synchronizing character information according to data-type classification
JP2013519427A (en) * 2010-02-12 2013-05-30 ブルーサイド・インコーポレイテッド Character information synchronization method by data type classification
JP2012099093A (en) * 2010-10-08 2012-05-24 Ag Ltd Input device, program, data processing method, and data processor for touch pad
JP2014029712A (en) * 2010-10-08 2014-02-13 Ag Ltd Touch tool system and program for the same
JP2015014995A (en) * 2013-07-08 2015-01-22 桑原 雅人 Display device, display method, program, and display system
JP2015146079A (en) * 2014-01-31 2015-08-13 株式会社バンダイ information providing system and information providing program
US10022645B2 (en) 2014-01-31 2018-07-17 Bandai Co., Ltd. Information providing system and information providing program
JP2015210379A (en) * 2014-04-25 2015-11-24 株式会社ソニー・コンピュータエンタテインメント Image fusion system, information processor, information terminal and information processing method
JP2018161437A (en) * 2017-03-27 2018-10-18 株式会社コロプラ Game program, method and information processor
JP2019136132A (en) * 2018-02-06 2019-08-22 株式会社コーエーテクモゲームス Program, information processing method and information processing device
WO2023087903A1 (en) * 2021-11-19 2023-05-25 腾讯科技(深圳)有限公司 Game screen display method and apparatus, storage medium, and electronic device

Similar Documents

Publication Publication Date Title
JP6306442B2 (en) Program and game system
JP6691351B2 (en) Program and game system
KR101659424B1 (en) Computer peripheral display and communication device providing an adjunct 3d user interface
JP5832666B2 (en) Augmented reality representation across multiple devices
JP2009070076A (en) Program, information storage medium, and image generation device
WO2019155889A1 (en) Simulation system, processing method, and information storage medium
JP2019139424A (en) Simulation system and program
JP2020018745A (en) Game system and program
JP6785325B2 (en) Game programs, methods, and information processing equipment
JP6726322B1 (en) Game program, method, and information processing device
JP5479503B2 (en) Program, information storage medium, and image generation apparatus
CN112494958B (en) Method, system, equipment and medium for converting words by voice
JP2020179184A (en) Game program, method, and information processor
CN109416614A (en) Application program controlling program, application control method and application control system
JP6622832B2 (en) Program and game system
WO2023071808A1 (en) Virtual scene-based graphic display method and apparatus, device, and medium
JP6419268B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6826626B2 (en) Viewing program, viewing method, and viewing terminal
JP6722316B1 (en) Distribution program, distribution method, computer, and viewing terminal
JP2009066124A (en) Program, information storage medium and image generator
Sakamoto et al. Human interaction issues in a digital-physical hybrid world
JP7412613B1 (en) Information processing systems and programs
JP7412617B1 (en) Information processing systems and programs
JP7354466B1 (en) Information processing systems and programs
WO2022137375A1 (en) Method, computer-readable medium, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120110