JP2009066124A - Program, information storage medium and image generator - Google Patents

Program, information storage medium and image generator Download PDF

Info

Publication number
JP2009066124A
JP2009066124A JP2007236694A JP2007236694A JP2009066124A JP 2009066124 A JP2009066124 A JP 2009066124A JP 2007236694 A JP2007236694 A JP 2007236694A JP 2007236694 A JP2007236694 A JP 2007236694A JP 2009066124 A JP2009066124 A JP 2009066124A
Authority
JP
Japan
Prior art keywords
character
image
contact position
contact
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007236694A
Other languages
Japanese (ja)
Inventor
Yukinobu Yamamoto
幸延 山本
Hidefumi Aoki
英史 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2007236694A priority Critical patent/JP2009066124A/en
Publication of JP2009066124A publication Critical patent/JP2009066124A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program capable of achieving image expression unlike before while using a touch panel display, and to provide an information storage medium and an image generator. <P>SOLUTION: The image generator includes: a contact position acquisition part for acquiring the contact position TP of a transparent object TOB when a contact event that the transparent object TOB comes in contact with the touch panel display 190 is generated; a character control part for performing the processing of generating a character CH in a display area corresponding to the acquired contact position TP when the contact event is generated; and an image generation part. The character control part performs such processing that the character CH whose size is set so that the image of the character CH visible through the transparent object TOB is displayed inside the contour area of the transparent object TOB in the case of plane vision of the touch panel display 190 and the transparent object TOB, is generated in the display area corresponding to the contact position. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体及び画像生成装置に関する。   The present invention relates to a program, an information storage medium, and an image generation apparatus.

従来より、タッチパネルディスプレイを有する携帯型ゲーム装置などの画像生成装置が知られている。この画像生成装置では、タッチパネルディスプレイへのタッチ操作によって、プレーヤは操作情報を入力できる。具体的には、タッチパネルディスプレイ上に操作指示を行うための様々なアイコンを表示しておく。そしてプレーヤは、スタイラスペンや指により、これらのアイコンにタッチすることで、自身が所望する操作情報を入力する。   Conventionally, an image generation device such as a portable game device having a touch panel display is known. In this image generation apparatus, the player can input operation information by a touch operation on the touch panel display. Specifically, various icons for performing operation instructions are displayed on the touch panel display. Then, the player touches these icons with a stylus pen or a finger to input operation information desired by the player.

しかしながら、これまでのタッチパネルディスプレイ型の画像生成装置では、タッチ操作は、操作情報の入力のためにだけ使用され、タッチ操作を用いた映像効果の演出は考えられていなかった。またタッチ操作は、指やスタイラスペンにより行われ、それ以外の物体によるタッチ操作は想定されていなかった。
特開2006−122164号公報
However, in conventional touch panel display type image generation apparatuses, the touch operation is used only for inputting operation information, and the production of the video effect using the touch operation has not been considered. The touch operation is performed with a finger or a stylus pen, and touch operations with other objects are not assumed.
JP 2006-122164 A

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、タッチパネルディスプレイを用いたこれまでにない画像表現を実現できるプログラム、情報記憶媒体及び画像生成装置を提供することにある。   The present invention has been made in view of the problems as described above, and an object of the present invention is to provide a program, an information storage medium, and an image generation apparatus that can realize an unprecedented image expression using a touch panel display. There is to do.

本発明は、タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、前記キャラクタ制御部は、前記タッチパネルディスプレイ及び前記透明物体を平面視した場合における前記透明物体の輪郭領域内に、前記透明物体を介して見える前記キャラクタの画像が表示されるように、そのサイズが設定された前記キャラクタを、前記接触位置に対応する前記表示領域に発生させる処理を行う画像生成装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   The present invention is an image generation device that generates an image displayed on a touch panel display, and acquires a contact position of the transparent object when a contact event occurs in which the transparent object contacts the touch panel display. A touch panel that generates an image including an image of the character, a character control unit that performs processing for generating a character in a display area corresponding to the acquired touch position when the touch event occurs, An image generation unit for displaying on the display, wherein the character control unit is an image of the character that is seen through the transparent object in an outline region of the transparent object when the touch panel display and the transparent object are viewed in plan. The character whose size is set so that It relates to an image generating apparatus which performs the process of generating the display region corresponding to the contact position. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明によれば、透明物体の接触イベントが発生すると、その接触位置が取得され、接触位置に対応する表示領域にキャラクタが発生する。そして発生したキャラクタの画像を含む画像が生成される。従って、透明物体を置く前には存在していなかったキャラクタが、透明物体を置くことで出現するようになり、これまでにない画像表現を実現できる。そして本発明では、平面視における透明物体の輪郭領域内に、透明物体を介して見えるキャラクタの画像が表示されるように、キャラクタのサイズが設定される。従って、あたかも透明物体の内部にキャラクタが映し出されたかのように見える画像表現を実現できる。   According to the present invention, when a contact event of a transparent object occurs, the contact position is acquired, and a character is generated in a display area corresponding to the contact position. Then, an image including the generated character image is generated. Therefore, a character that did not exist before placing the transparent object appears by placing the transparent object, and an unprecedented image expression can be realized. In the present invention, the character size is set so that an image of the character seen through the transparent object is displayed in the outline region of the transparent object in plan view. Therefore, it is possible to realize an image expression that looks as if the character is projected inside the transparent object.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面の画像上に前記キャラクタを発生させ、前記タッチパネルディスプレイから前記透明物体が離れる離隔イベントが発生した場合に、発生した前記キャラクタを非表示にする処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit generates the character on an image of a main screen of the touch panel display when the touch event occurs, and the touch panel display When a separation event occurs that causes the transparent object to leave, a process of hiding the generated character may be performed.

このようにすれば、透明物体を取り外した場合に、キャラクタは非表示になるため、種明かしが直ぐにわかってしまう事態等を防止できる。   In this way, when the transparent object is removed, the character is hidden, so that it is possible to prevent a situation where the secret is immediately known.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触イベントが発生した後、所与のタイムラグ期間が経過した後に、前記表示領域に前記キャラクタを発生させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit generates the character in the display area after a given time lag period has elapsed after the contact event has occurred. May be performed.

このようにすれば、透明物体が置かれていない状態で、タッチパネルディスプレイに指等でタッチして直ぐに離した場合に、キャラクタは表示されないため、種明かしがわかってしまう事態等を防止できる。   In this way, when a transparent object is not placed and the touch panel display is touched with a finger or the like and then released immediately, the character is not displayed, so that it is possible to prevent a situation where the secret is known.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触イベントが発生した場合に、前記接触位置から離れた場所に設定された前記表示領域に前記キャラクタを発生させ、前記キャラクタが発生した後、前記キャラクタを前記接触位置に向かって移動させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, when the contact event occurs, the character control unit generates the character in the display area set at a place away from the contact position. Then, after the character is generated, a process of moving the character toward the contact position may be performed.

このようにすれば、透明物体を置いた時に、透明物体の中心にキャラクタが突然現れるのではなく、キャラクタが徐々に例えば中心に向かって移動しながら現れるという画像表現を実現できる。   In this way, when a transparent object is placed, it is possible to realize an image expression in which the character does not suddenly appear at the center of the transparent object but appears gradually moving, for example, toward the center.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触イベントが発生した後、前記接触位置が移動した場合に、移動する前記接触位置に追従するように、前記キャラクタを移動させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit may follow the moving contact position when the contact position moves after the contact event occurs. You may perform the process which moves the said character.

このようにすれば、透明物体の輪郭領域内に表示されるキャラクタ画像も、透明物体の移動に追従させることが可能になる。   In this way, the character image displayed in the outline area of the transparent object can also follow the movement of the transparent object.

また本発明は、タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、前記キャラクタ制御部は、前記接触イベントが発生した後、前記接触位置が移動した場合に、移動する前記接触位置に追従するように、前記キャラクタを移動させる処理を行う画像生成装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   The present invention is also an image generation device that generates an image displayed on a touch panel display, and obtains a contact position of the transparent object when a contact event occurs in which the transparent object contacts the touch panel display. An acquisition unit, a character control unit that performs a process of generating a character in a display area corresponding to the acquired contact position when the contact event occurs, and an image including an image of the character, An image generation unit that displays on a touch panel display, and the character control unit moves the character so as to follow the moving contact position when the contact position moves after the contact event occurs. The present invention relates to an image generation apparatus that performs processing. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触位置の移動距離よりも短い移動距離で、前記キャラクタを移動させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit may perform a process of moving the character with a movement distance shorter than the movement distance of the contact position.

このようにすれば、透明物体を例えば第1の方向に移動させた場合に、キャラクタ画像が、透明物体の例えば中心から第1の方向側の輪郭に向かって移動して見える画像表現を実現できる。   In this way, when the transparent object is moved in the first direction, for example, it is possible to realize an image expression in which the character image appears to move from the center of the transparent object toward the contour on the first direction side, for example. .

また本発明に係る画像生成総津、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触位置が移動するにつれて、前記キャラクタを非表示にする処理を行ってもよい。   In the image generation Sotsu, the program, and the information storage medium according to the present invention, the character control unit may perform a process of hiding the character as the contact position moves.

このようにすれば、透明物体を大きく移動させた場合等に、透明物体内に見えるキャラクタ画像が自然に消える画像表現を実現できる。   In this way, it is possible to realize an image representation in which the character image that appears in the transparent object disappears naturally when the transparent object is moved greatly.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触イベントが発生した後、前記キャラクタの画像を変化させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit may perform a process of changing the character image after the contact event occurs.

このようにすれば、透明物体内にキャラクタが出現した後、出現したキャラクタの画像が変化して見える画像表現を実現できる。   In this way, it is possible to realize an image representation in which after the character appears in the transparent object, the image of the appearing character changes.

また本発明は、タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、前記キャラクタ制御部は、前記接触イベントが発生した後、前記キャラクタの画像を変化させる処理を行う画像生成装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   The present invention is also an image generation device that generates an image displayed on a touch panel display, and obtains a contact position of the transparent object when a contact event occurs in which the transparent object contacts the touch panel display. An acquisition unit, a character control unit that performs a process of generating a character in a display area corresponding to the acquired contact position when the contact event occurs, and an image including an image of the character, An image generation unit that displays on a touch panel display, and the character control unit relates to an image generation apparatus that performs a process of changing an image of the character after the contact event occurs. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触イベントが発生した後、前記キャラクタのアニメーション処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit may perform animation processing of the character after the contact event occurs.

このようにすれば、透明物体内のキャラクタが、アニメーションにより動いて見える効果的な画像表現を実現できる。   In this way, it is possible to realize an effective image expression in which the character in the transparent object appears to move by animation.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記キャラクタ制御部は、前記接触イベントが発生した後、前記キャラクタのサイズを徐々に大きくする処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit may perform a process of gradually increasing the size of the character after the contact event occurs. Good.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記接触イベントが発生した後、前記キャラクタを、透明度の高い状態から透明度の低い状態に変化させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, after the contact event occurs, the character may be changed from a state with high transparency to a state with low transparency.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触イベントが発生した後、前記接触位置が移動した場合に、前記接触位置の移動に応じて前記キャラクタの画像を変化させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit may change the character according to the movement of the contact position when the contact position moves after the contact event occurs. You may perform the process which changes an image.

このようにすれば、接触位置の移動に伴い、キャラクタの画像が変化するようになり、これまでにない画像表現を実現できる。   In this way, the image of the character changes with the movement of the contact position, and an unprecedented image expression can be realized.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタは3次元オブジェクトにより構成され、前記画像生成部は、前記接触イベントが発生した後、前記接触位置が移動した場合に、前記接触位置の移動に応じて前記キャラクタを見る視点が変化する画像を生成してもよい。   Further, in the image generation device, the program, and the information storage medium according to the present invention, the character is configured by a three-dimensional object, and the image generation unit is configured to perform the operation when the contact position moves after the contact event occurs. You may produce | generate the image from which the viewpoint which sees the said character changes according to the movement of a contact position.

このようにすれば、透明物体内に映し出されるキャラクタの3次元的な見え方が変化するようになる。   In this way, the three-dimensional appearance of the character displayed in the transparent object changes.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記画像生成部は、前記接触イベントが発生して、前記キャラクタが発生した場合に、前記キャラクタの説明画像を生成してもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the image generation unit may generate an explanatory image of the character when the contact event occurs and the character is generated.

このような説明画像を表示すれば、キャラクタを探してその説明を見るという図鑑等のような楽しみを、提供することができる。   If such an explanatory image is displayed, a pleasure such as a picture book of searching for a character and viewing the explanation can be provided.

また本発明は、タッチパネルディスプレイに表示される画像を生成する画像生成装置のであって、前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、前記画像生成部は、前記接触イベントが発生して、前記キャラクタが発生した場合に、前記キャラクタの説明画像を生成する画像生成装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   In addition, the present invention is an image generation device that generates an image displayed on a touch panel display, and that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display. A character control unit that performs a process of generating a character in a display area corresponding to the acquired touch position when the touch event occurs, and an image including the character image, and the touch panel display The image generation unit is related to an image generation device that generates an explanatory image of the character when the character is generated when the contact event occurs. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、画像生成装置が、前記タッチパネルディスプレイの他に第2のディスプレイを有し、前記画像生成部は、前記キャラクタが発生した場合に、前記キャラクタの前記説明画像を生成して、前記第2のディスプレイに表示してもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the image generation device includes a second display in addition to the touch panel display, and the image generation unit The explanation image of the character may be generated and displayed on the second display.

このようにすれば、透明物体を介さずに直接に説明画像を見ることが可能になる。   In this way, it is possible to see the explanation image directly without passing through the transparent object.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、プレーヤのゲーム成績を演算するゲーム成績演算部を含み(ゲーム成績演算部としてコンピュータを機能させ)、前記ゲーム成績演算部は、前記接触イベントが発生して、前記キャラクタが発生した後に、プレーヤが操作部を用いて所与の操作情報を入力した場合に、入力された操作情報に基づいてプレーヤのゲーム成績を演算してもよい。   The image generation device, the program, and the information storage medium according to the present invention include a game score calculation unit that calculates a game score of a player (a computer is caused to function as the game score calculation unit), and the game score calculation unit includes the contact score calculation unit. When the player inputs given operation information using the operation unit after the event has occurred and the character has occurred, the game result of the player may be calculated based on the input operation information.

このようにすれば、接触イベントの発生により、単にキャラクタが出現するだけではなく、プレーヤがゲーム操作を行うことで、プレーヤのゲーム成績も演算されるようになる。   In this way, the occurrence of a contact event not only causes a character to appear, but the player's game results are also calculated when the player performs a game operation.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部を含み(通信処理部としてコンピュータを機能させ)、前記キャラクタ制御部は、前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記接触位置に対応する前記表示領域に前記他のプレーヤのキャラクタを発生させる処理を行ってもよい。   In addition, the image generation device, the program, and the information storage medium according to the present invention include a communication processing unit that performs processing for receiving game play information of another player who plays a game on another image generation device via a network (communication processing) The character control unit, when the contact event occurs, the character control unit, based on the received game play information of the other player, displays the other area in the display area corresponding to the contact position. Processing for generating a player character may be performed.

このようにすれば、通信処理との組み合わせにより、これまでにないゲーム処理を実現できる。   In this way, an unprecedented game process can be realized by a combination with the communication process.

また本発明は、タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部とを含み、前記キャラクタ制御部は、前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記接触位置に対応する前記表示領域に前記他のプレーヤのキャラクタを発生させる処理を行う画像生成装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   In addition, the present invention is an image generation device that generates an image displayed on a touch panel display, and acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display. A character control unit that performs a process of generating a character in a display area corresponding to the acquired touch position when the touch event occurs, and an image including the character image, and the touch panel display An image generation unit to be displayed, and a communication processing unit that performs a process of receiving game play information of another player who plays a game on another image generation device via a network, and the character control unit includes the contact event Based on the received game play information of the other player. It said related to the image generating device performing a display region processing for generating character of the other player corresponding to the contact position. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

また本発明に係る画像生成装置、プログラム及び情報記憶媒体では、前記キャラクタ制御部は、前記接触位置と前記他のプレーヤのキャラクタの位置とが一致した場合に、前記他のプレーヤのキャラクタを発生させる処理を行ってもよい。   In the image generation device, the program, and the information storage medium according to the present invention, the character control unit generates the character of the other player when the contact position matches the character position of the other player. Processing may be performed.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に、本実施形態の画像生成装置の外観図を示す。ここでは画像生成装置の一例として携帯型ゲーム装置を示している。なお本実施形態が適用される画像生成装置は、このような携帯型ゲーム装置に限定されず、例えば携帯型ゲーム装置以外のゲーム装置、携帯型情報端末、携帯電話機などのタッチパネルディスプレイを有する種々の電子機器に適用できる。
1. Configuration FIG. 1 is an external view of an image generation apparatus according to this embodiment. Here, a portable game device is shown as an example of the image generation device. Note that the image generation apparatus to which the present embodiment is applied is not limited to such a portable game apparatus, but includes various touch panel displays such as game apparatuses other than the portable game apparatus, portable information terminals, and mobile phones. Applicable to electronic equipment.

図1の画像生成装置は、第1のディスプレイであるタッチパネルディスプレイ190と、第2のディスプレイであるディスプレイ191を有する。また操作部として機能する方向指示キー(十字キー)300、操作ボタン302や、音出力部として機能するスピーカ304、306を有する。また情報記憶媒体として機能するICカード310(ゲームカード、ゲームカートリッジ)が着脱自在に装着されるカードスロット312を有する。このICカード310には、ゲームプログラム(ゲームデータ)が記憶される。なおスタイラスペン320は、タッチパネルディスプレイ190へのタッチ操作を、プレーヤ(ユーザ)の指の代わりに行うためのものである。   The image generation apparatus in FIG. 1 includes a touch panel display 190 that is a first display and a display 191 that is a second display. In addition, a direction instruction key (cross key) 300 that functions as an operation unit, an operation button 302, and speakers 304 and 306 that function as sound output units are provided. Further, it has a card slot 312 in which an IC card 310 (game card, game cartridge) functioning as an information storage medium is detachably mounted. The IC card 310 stores a game program (game data). The stylus pen 320 is used to perform a touch operation on the touch panel display 190 instead of a player (user) finger.

タッチパネルディスプレイ190、ディスプレイ191には種々の画像(ゲーム画像、表示物)が表示される。例えばキャラクタ、サブ画面、背景画像などが表示される。これらのタッチパネルディスプレイ190、ディスプレイ191は、TFTなどのカラー液晶ディスプレイにより構成できる。そしてタッチパネルディスプレイ190では、カラー液晶ディスプレイの上面(或いは下面)にタッチパネルが一体的に形成されており、これによりタッチ操作による操作入力が可能になる。   Various images (game images, display objects) are displayed on the touch panel display 190 and the display 191. For example, a character, a sub screen, a background image, and the like are displayed. The touch panel display 190 and the display 191 can be configured by a color liquid crystal display such as a TFT. In the touch panel display 190, a touch panel is integrally formed on the upper surface (or lower surface) of the color liquid crystal display, thereby enabling operation input by a touch operation.

図2に本実施形態の画像生成装置の機能ブロック図の例を示す。なお本実施形態の画像生成装置は図2の構成要素(各部)の一部を省略した構成としてもよい。   FIG. 2 shows an example of a functional block diagram of the image generation apparatus of the present embodiment. Note that the image generation apparatus of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 2 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、或いはジョイスティックなどにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a direction instruction key, an operation button, a joystick, or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、ICカード(メモリーカード)、光ディスク(CD、DVD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an IC card (memory card), optical disk (CD, DVD), HDD (hard disk drive), or It can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

タッチパネルディスプレイ190(第1のディスプレイ)は、プレーヤ(ユーザ)が種々の操作を行ったり、本実施形態により生成された画像を表示するためのものであり、例えば、LCD、有機ELなどのディスプレイと、それに一体的に形成されたタッチパネルなどにより実現できる。タッチパネル方式としては、抵抗膜方式(4線式、5線式)、静電容量結合方式、超音波表面弾性波方式、赤外線走査方式などがある。またタッチパネルディスプレイ190には、タッチ位置(接触位置)を、同時に1点のみ検出可能な1点検出型と、同時に複数点を検出可能な複数点検出型がある。   The touch panel display 190 (first display) is for a player (user) to perform various operations and to display an image generated according to the present embodiment. For example, the touch panel display 190 is a display such as an LCD or an organic EL. It can be realized by a touch panel formed integrally therewith. Examples of the touch panel method include a resistive film method (4-wire type, 5-wire type), a capacitive coupling method, an ultrasonic surface acoustic wave method, and an infrared scanning method. Further, the touch panel display 190 includes a one-point detection type that can detect only one point of touch position (contact position) at the same time, and a multi-point detection type that can detect a plurality of points simultaneously.

ディスプレイ191(第2のディスプレイ)は、本実施形態により生成された画像を表示するためのものであり、例えばLCD、有機ELなどのディスプレイにより実現できる。なおディスプレイ191としてタッチパネル式のディスプレイを用いてもよい。   The display 191 (second display) is for displaying an image generated by the present embodiment, and can be realized by a display such as an LCD or an organic EL. Note that a touch panel display may be used as the display 191.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォン端子などにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, a headphone terminal, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。この補助記憶装置194は脱着自在になっているが、内蔵されるものであってもよい。この補助記憶装置194は、ゲームの途中結果などのセーブデータや、プレーヤ(ユーザ)の個人的な画像データや音楽データなどを保存するために使用される。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card. The auxiliary storage device 194 is detachable, but may be built-in. The auxiliary storage device 194 is used to save save data such as the game midway results, personal image data and music data of the player (user), and the like.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (storage unit 170) via the network and the communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、接触位置取得部102、キャラクタ制御部104、ゲーム演算部106、ゲーム成績演算部108、通信処理部110、画像生成部120、音生成部130を含む。なおこれらの一部(例えばゲーム演算部、ゲーム成績演算部)を省略する構成としてもよい。   The processing unit 100 includes a contact position acquisition unit 102, a character control unit 104, a game calculation unit 106, a game result calculation unit 108, a communication processing unit 110, an image generation unit 120, and a sound generation unit 130. In addition, it is good also as a structure which abbreviate | omits these (for example, a game calculating part, a game results calculating part).

接触位置取得部102は、タッチパネルディスプレイ190に物体(透明物体、指、スタイラスペン等)が接触(タッチ)した場合に、その接触位置(タッチ位置)を取得する処理を行う。例えば本実施形態では、タッチパネルディスプレイ190に透明物体(透過物体)が接触する接触イベント(タッチイベント)が発生すると、透明物体の接触位置を取得する。具体的には接触位置取得部102は、タッチパネルディスプレイ190(タッチパネル)から送られて来る接触位置のデータ(座標データ)を1フレームごとにポーリングして取得する。そして取得された接触位置のデータは、例えば所与の期間が経過するまで接触位置記憶部171に一次記憶される。   When an object (a transparent object, a finger, a stylus pen, or the like) contacts (touches) the touch panel display 190, the contact position acquisition unit 102 performs processing for acquiring the contact position (touch position). For example, in the present embodiment, when a contact event (touch event) in which a transparent object (transparent object) contacts the touch panel display 190 occurs, the contact position of the transparent object is acquired. Specifically, the contact position acquisition unit 102 polls and acquires contact position data (coordinate data) sent from the touch panel display 190 (touch panel) for each frame. The acquired contact position data is primarily stored in the contact position storage unit 171 until, for example, a given period elapses.

キャラクタ制御部104は、キャラクタ(移動体)の発生制御、移動・動作制御、表示制御などの種々の制御処理を行う。例えば、接触イベントなどのイベント発生時にキャラクタを発生させたり、離隔イベントなどのイベント発生時にキャラクタを消滅させたり、キャラクタを2次元又は3次元のオブジェクト空間において移動・動作させたり、キャラクタの表示や表示位置を画像生成部120に指示する処理を行う。即ち、発生したキャラクタを、キャラクタ情報記憶部172のキャラクタ管理リスト173(オブジェクトリスト)に登録したり、キャラクタ管理リスト173を画像生成部120等に転送したり、消滅したキャラクタをキャラクタ管理リスト173から削除するなどの処理を行う。なおキャラクタは、例えば動物(人間、虫)、植物などの生き物や、惑星、星などの天体や、車、飛行機、船などの乗り物等を表す2次元又は3次元オブジェクトである。キャラクタは、2次元オブジェクトの場合には例えばドット画像により表すことができ、3次元オブジェクトの場合には例えば複数のポリゴン(プリミティブ面)により表すことができる。   The character control unit 104 performs various control processes such as character (moving object) generation control, movement / motion control, and display control. For example, a character is generated when an event such as a contact event occurs, a character is extinguished when an event such as a separation event occurs, a character is moved or operated in a two-dimensional or three-dimensional object space, and a character is displayed or displayed A process of instructing the position to the image generation unit 120 is performed. That is, the generated character is registered in the character management list 173 (object list) of the character information storage unit 172, the character management list 173 is transferred to the image generation unit 120, and the disappeared character is stored in the character management list 173. Perform processing such as deleting. The character is, for example, a two-dimensional or three-dimensional object representing a creature such as an animal (human, insect) or a plant, a celestial body such as a planet or a star, a vehicle such as a car, an airplane, or a ship. A character can be represented by, for example, a dot image in the case of a two-dimensional object, and can be represented by, for example, a plurality of polygons (primitive surfaces) in the case of a three-dimensional object.

キャラクタ制御部104は、2次元又は3次元のオブジェクト空間であるゲームフィールドにおいてキャラクタ(2次元又は3次元のオブジェクト)を移動させるための処理を行う。即ちタッチパネルディスプレイ190や操作部160を用いてプレーヤが入力した操作データや、プログラム(移動アルゴリズム)や、各種データ(オブジェクトリスト)などに基づいて、キャラクタを移動させる処理を行う。更に具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)を、1フレーム(1/60秒)毎に順次求める処理を行う。またキャラクタ制御部104は、キャラクタを動作させるための処理も行うことができる。即ちタッチパネルディスプレイ190や操作部160を用いてプレーヤが入力した操作データや、プログラム(動作アルゴリズム)や、各種データ(アニメーションデータ、モーションデータ)などに基づいて、キャラクタを動作(アニメーション、モーション)させる処理を行う。更に具体的には、キャラクタの動作情報(アニメーション情報、或いは各パーツオブジェクトの位置、回転角度)を、1フレーム(1/60秒)毎に順次求める処理を行う。なおフレームは、オブジェクトの移動制御処理や動作制御処理や画像生成処理を行う時間の単位である。   The character control unit 104 performs processing for moving a character (two-dimensional or three-dimensional object) in a game field that is a two-dimensional or three-dimensional object space. That is, processing for moving the character is performed based on operation data input by the player using the touch panel display 190 or the operation unit 160, a program (movement algorithm), various data (object list), and the like. More specifically, a process of sequentially obtaining character movement information (position, rotation angle, speed, or acceleration) for each frame (1/60 second) is performed. The character control unit 104 can also perform processing for moving the character. That is, a process for moving a character (animation, motion) based on operation data input by the player using the touch panel display 190 or the operation unit 160, a program (motion algorithm), various data (animation data, motion data), or the like. I do. More specifically, a process of sequentially obtaining character motion information (animation information or the position and rotation angle of each part object) every frame (1/60 seconds) is performed. Note that a frame is a unit of time for performing object movement control processing, motion control processing, and image generation processing.

キャラクタ制御部104によるキャラクタ制御により求められたキャラクタの位置、回転角度、速度等の移動情報は、キャラクタ情報記憶部172のキャラクタ移動情報記憶部174に記憶される。またキャラクタの表示制御の際に使用されるキャラクタの画像情報(ドット画像、ポリゴンデータ等)は、キャラクタ情報記憶部172のキャラクタ画像記憶部175に記憶される。   Movement information such as the position, rotation angle, and speed of the character determined by the character control by the character control unit 104 is stored in the character movement information storage unit 174 of the character information storage unit 172. Character image information (dot image, polygon data, etc.) used in character display control is stored in the character image storage unit 175 of the character information storage unit 172.

そして本実施形態では、キャラクタ制御部104は、タッチパネルディスプレイ190に透明物体(広義には物体)が接触(タッチ)する接触イベント(タッチイベント)が発生した場合に、取得された接触位置に対応する表示領域(接触位置により特定される表示領域、キャラクタ発生領域)に、キャラクタを発生させる処理(表示する処理)を行う。例えばそのキャラクタを、表示すべきキャラクタとしてキャラクタ管理リスト173に登録したり、或いは、キャラクタ管理リスト173におけるそのキャラクタの表示フラグをオンにする。   In the present embodiment, the character control unit 104 corresponds to the acquired touch position when a touch event (touch event) in which a transparent object (object in a broad sense) touches (touches) the touch panel display 190 occurs. A process of generating a character (a process of displaying) is performed in the display area (display area specified by the contact position, character generation area). For example, the character is registered in the character management list 173 as a character to be displayed, or the display flag of the character in the character management list 173 is turned on.

具体的にはキャラクタ制御部104は、透明物体の輪郭領域内(外形形状領域内)に、透明物体(透過物体)を介して見えるキャラクタの画像(キャラクタの画像の主要部)が表示されるように、そのサイズ(スケール)が設定されたキャラクタを、接触位置に対応する表示領域に発生させる処理(表示する処理)を行う。ここで、輪郭領域は、タッチパネルディスプレイ190及び透明物体(タッチパネルディスプレイに接触した状態での透明物体)を平面視した場合(画面に対して垂直な視線で見た場合)における透明物体の輪郭(外形形状)により特定される領域である。   Specifically, the character control unit 104 displays a character image (main part of the character image) that is visible through the transparent object (transparent object) in the outline region (outer shape region) of the transparent object. Then, a process of generating (displaying) the character having the set size (scale) in the display area corresponding to the contact position is performed. Here, the contour region is the contour (outer shape) of the transparent object when the touch panel display 190 and the transparent object (transparent object in contact with the touch panel display) are viewed in plan (when viewed from a line of sight perpendicular to the screen). It is an area specified by (shape).

またキャラクタ制御部104は、接触イベントが発生した場合に、タッチパネルディスプレイ190のメイン画面の画像上(背景画像上)にキャラクタを発生させる処理(表示する処理)を行う。そしてタッチパネルディスプレイ190から透明物体(物体)が離れる離隔イベントが発生した場合に、発生したキャラクタを非表示にする処理(消去する処理)を行う。   Further, the character control unit 104 performs processing (processing to display) a character on the image (background image) of the main screen of the touch panel display 190 when a contact event occurs. And when the separation event which a transparent object (object) leaves | separates from the touchscreen display 190 generate | occur | produces, the process (process to erase | eliminate) which does not display the produced | generated character is performed.

またキャラクタ制御部104は、接触イベントが発生した後、接触位置が移動した場合に、移動する接触位置に追従するように、キャラクタを移動させる処理を行う。例えば接触位置(タッチ位置)の移動方向に対応する方向(同一方向)にキャラクタを移動させる。この場合に、接触位置の移動距離(移動速度)よりも短い移動距離(遅い移動速度)で、接触位置に追従するように、キャラクタを移動させることが望ましい。また接触位置が移動するにつれて、キャラクタを非表示にする処理(徐々に非表示にする処理、透明にする処理)を行ってもよい。   Further, the character control unit 104 performs a process of moving the character so as to follow the moving contact position when the contact position moves after the contact event occurs. For example, the character is moved in a direction (same direction) corresponding to the moving direction of the contact position (touch position). In this case, it is desirable to move the character so as to follow the contact position with a movement distance (slow movement speed) shorter than the movement distance (movement speed) of the contact position. In addition, as the contact position moves, a process of hiding the character (a process of gradually hiding and a process of making it transparent) may be performed.

またキャラクタ制御部104は、接触イベントが発生した後、キャラクタの画像を変化させる処理(画像変更処理)を行う。例えば接触イベントが発生した後、キャラクタのアニメーション処理(モーション処理を含む)を行ったり、キャラクタのサイズを徐々に大きくする処理(スケーリング処理)を行ったり、透明度の高い状態から透明度の低い状態に変化させる処理(徐々に不透明にする処理)を行ったりする。   In addition, the character control unit 104 performs a process of changing the character image (image changing process) after the contact event occurs. For example, after a touch event occurs, the character's animation processing (including motion processing) is performed, the character's size is gradually increased (scaling processing), or the state changes from a highly transparent state to a lowly transparent state. Or a process for making it gradually opaque.

ゲーム演算部106はゲーム画像やゲーム音を生成するためのゲーム演算処理を行う。ゲーム演算処理としては、ゲームの内容やゲームモードを決定する処理、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 106 performs game calculation processing for generating game images and game sounds. The game calculation process includes a process for determining the content and game mode of the game, a process for starting the game when the game start condition is satisfied, a process for proceeding with the game, or a game when the game end condition is satisfied. There is a process to finish.

ゲーム成績演算部108はプレーヤのゲーム成績(得点、ポイント、勝敗)の演算処理を行う。例えば、接触イベントが発生して、キャラクタが発生した後(キャラクタを表示した後)に、プレーヤが操作部160(例えば操作ボタン、十字キー)を用いて所与の操作情報を入力した場合(ゲーム操作を行った場合)に、入力された操作情報に基づいてプレーヤのゲーム成績を演算する。例えば接触イベントが発生して、キャラクタが発生した後に、プレーヤが操作部160を用いてシューティング操作を行った場合に、発生したキャラクタに対するシューティングについてのプレーヤのゲーム成績を演算する。   The game score calculation unit 108 calculates the player's game score (scores, points, wins / losses). For example, when a contact event occurs and a character is generated (after the character is displayed), the player inputs given operation information using the operation unit 160 (for example, an operation button or a cross key) (game) When the operation is performed), the player's game score is calculated based on the input operation information. For example, when a player performs a shooting operation using the operation unit 160 after a contact event has occurred and a character has been generated, the player's game score for shooting with respect to the generated character is calculated.

通信処理部110は、他の画像生成装置(ゲーム装置)でゲームプレイする他のプレーヤのゲームプレイ情報(キャラクタ情報、プレイ操作情報、操作履歴情報、ゲーム成績情報、或いは個人情報等)をネットワーク(インターネット、LAN)を介して受信するための処理を行う。具体的には、例えば通信部196が受信したゲームプレイ情報を、記憶部170等を介して取得する。或いは、自身のプレーヤのゲームプレイ情報をネットワークを介して他の画像生成装置に送信するための処理を行う。具体的には、送信すべきゲームプレイ情報を用意して、通信部196に対して送信を指示する。   The communication processing unit 110 transmits game play information (character information, play operation information, operation history information, game result information, personal information, etc.) of other players who play a game on another image generation device (game device) over a network ( A process for receiving via the Internet or LAN is performed. Specifically, for example, game play information received by the communication unit 196 is acquired via the storage unit 170 or the like. Alternatively, a process for transmitting game play information of the player's own player to another image generation apparatus via the network is performed. Specifically, game play information to be transmitted is prepared, and the communication unit 196 is instructed to transmit.

そしてキャラクタ制御部104は、接触イベントが発生した場合に、受信した他のプレーヤのゲームプレイ情報に基づいて、他のプレーヤのキャラクタを発生させる処理(表示する処理)を行う。具体的には、接触位置と、ゲームプレイ情報に含まれる他のプレーヤのキャラクタの位置とを比較する。そしてこれらが一致した場合に、接触位置に対応する表示領域に、他のプレーヤのキャラクタを発生させる処理を行う。この場合に、他のプレーヤのキャラクタに対するヒット処理(破壊表現処理)などを行ってもよい。   Then, when a contact event occurs, the character control unit 104 performs processing (processing for displaying) a character of another player based on the received game play information of the other player. Specifically, the contact position is compared with the positions of other player characters included in the game play information. If they match, a process for generating a character of another player in the display area corresponding to the contact position is performed. In this case, hit processing (destructive expression processing) or the like for characters of other players may be performed.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて、描画バッファ176への画像の描画処理を行い、これにより画像を生成して、タッチパネルディスプレイ190やディスプレイ191に出力する。この場合、画像生成部120が生成する画像は、いわゆる2次元画像であってもよいし、3次元画像であってもよい。そして3次元画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を描画バッファ176(フレームバッファ、中間バッファなどのピクセル単位で画像情報を記憶できるバッファ。VRAM)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   The image generation unit 120 performs image drawing processing on the drawing buffer 176 based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image, and the touch panel display 190 and the display It outputs to 191. In this case, the image generated by the image generation unit 120 may be a so-called two-dimensional image or a three-dimensional image. When generating a three-dimensional image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and based on the processing result, drawing data (primitive The position coordinates of the vertices of the surface, texture coordinates, color data, normal vectors or α values) are created. Based on the drawing data (primitive surface data), the perspective transformation (geometric processing) object (one or a plurality of primitive surfaces) is stored in the drawing buffer 176 (frame buffer, intermediate buffer, etc.) as pixel information. Can be drawn in a VRAM). Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

そして本実施形態では画像生成部120は、キャラクタの画像を含む画像を生成して、タッチパネルディスプレイ190に表示する。例えば画像生成部120は、接触イベントが発生した後、接触位置が移動した場合に、接触位置の移動に応じてキャラクタを見る視点(視点位置、視線方向)が変化する画像を生成する。或いは、接触イベントが発生して、キャラクタが発生した場合に、キャラクタの説明画像を生成する。この場合に説明画像は、タッチパネルディスプレイ190に表示してもよいが、ディスプレイ191(第2のディスプレイ)に表示してもよい。   In this embodiment, the image generation unit 120 generates an image including a character image and displays the image on the touch panel display 190. For example, when the contact position moves after the contact event occurs, the image generation unit 120 generates an image in which the viewpoint (viewpoint position, line-of-sight direction) for viewing the character changes according to the movement of the contact position. Alternatively, when a contact event occurs and a character is generated, an explanation image of the character is generated. In this case, the explanation image may be displayed on the touch panel display 190 or may be displayed on the display 191 (second display).

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

2.本実施形態の手法
2.1 透明物体を用いた隠し絵表現
従来の画像生成装置では、タッチパネルディスプレイ190は、タッチ操作により操作情報を入力するために使用されるのが一般的であった。またタッチ操作は、指やスタイラスペンにより行われ、それ以外の物体によるタッチ操作は想定されていなかった。
2. 2. Technique of Present Embodiment 2.1 Hidden Picture Expression Using Transparent Object In conventional image generation apparatuses, the touch panel display 190 is generally used for inputting operation information by a touch operation. The touch operation is performed with a finger or a stylus pen, and touch operations with other objects are not assumed.

本実施形態では、タッチパネルディスプレイ190に例えば球体の透明物体を置いてその内部を覗くと、それまで見えなかったはずのキャラクタが見えるという隠し絵表現に、タッチパネルディスプレイ190を利用している。   In the present embodiment, the touch panel display 190 is used for a hidden picture expression in which, for example, when a spherical transparent object is placed on the touch panel display 190 and the inside of the transparent object is viewed, a character that should not have been seen until then can be seen.

即ち図3(A)では、タッチパネルディスプレイ190に、メイン画面の画像として例えば背景画像(真っ黒の画像や真っ白の画像を含む)が表示されている。そして図3(B)に示すように、水晶玉をイメージした球体の透明物体TOBをタッチパネルディスプレイ190に置いて、図3(B)の接触位置TPにおいて透明物体TOBがタッチパネルディスプレイ190に接触すると、隠し絵であるキャラクタCHが透明物体TOBの内部に浮かび上がって見える画像が表示される。即ち図3(A)では存在しなかったキャラクタCHが、透明物体TOBを置くことで突然出現するため、プレーヤは、何故キャラクタCHが出現したのか、その理由を理解できず、驚きを感じる。これにより、従来にはないインタラクティブな映像効果を提供できる。   That is, in FIG. 3A, for example, a background image (including a black image and a white image) is displayed on the touch panel display 190 as an image of the main screen. Then, as shown in FIG. 3 (B), when the transparent object TOB of the spherical shape imaged of a crystal ball is placed on the touch panel display 190 and the transparent object TOB contacts the touch panel display 190 at the contact position TP in FIG. 3 (B), An image is displayed in which the character CH, which is a hidden picture, appears to float inside the transparent object TOB. That is, since the character CH that did not exist in FIG. 3A suddenly appears when the transparent object TOB is placed, the player cannot understand why the character CH has appeared and feels surprise. As a result, an interactive video effect that is not available in the past can be provided.

次に、図4を用いて本実施形態の手法の原理について説明する。図4では、透明物体TOBがタッチパネルディスプレイ190上に置かれて、タッチパネルディスプレイ190に透明物体TOBが接触する接触イベントが発生している。この場合に本実施形態では、接触位置取得部102が、透明物体TOBの接触位置TPを取得する。即ちタッチパネルディスプレイ190上での接触位置TPの座標を取得する。   Next, the principle of the method of this embodiment will be described with reference to FIG. In FIG. 4, the transparent object TOB is placed on the touch panel display 190, and a touch event in which the transparent object TOB contacts the touch panel display 190 is generated. In this case, in the present embodiment, the contact position acquisition unit 102 acquires the contact position TP of the transparent object TOB. That is, the coordinates of the contact position TP on the touch panel display 190 are acquired.

このように接触イベントが発生すると、キャラクタ制御部104は、取得された接触位置TPに対応する表示領域(TPによりその位置が特定される領域、TPを含む領域、或いはTPから所与の距離だけ離れた領域)にキャラクタCHを発生させる。例えば接触位置TPを含む表示領域にキャラクタCHの画像を表示する。すると、このキャラクタCHの画像が透明物体TOBのレンズ効果により拡大されてプレーヤに表示される。例えば透明物体TOBが球体である場合には、約3倍に拡大されて表示される。   When the contact event occurs in this way, the character control unit 104 displays the display area corresponding to the acquired contact position TP (the area whose position is specified by the TP, the area including the TP, or the given distance from the TP. A character CH is generated in a remote area. For example, an image of the character CH is displayed in the display area including the contact position TP. Then, the image of the character CH is enlarged by the lens effect of the transparent object TOB and displayed on the player. For example, when the transparent object TOB is a sphere, it is enlarged and displayed about three times.

この場合に本実施形態では、タッチパネルディスプレイ190上には、人間の指で隠れてしまう程度の小さなサイズのキャラクタCHを表示する。例えば16×16ピクセル程度(或いは1cm×1cm以下)のキャラクタCHを表示する。   In this case, in the present embodiment, a character CH having a small size that is hidden by a human finger is displayed on the touch panel display 190. For example, a character CH of about 16 × 16 pixels (or 1 cm × 1 cm or less) is displayed.

具体的には、図3(B)のようにタッチパネルディスプレイ190及び透明物体TOBを平面視した場合における透明物体TOBの輪郭領域をERとする。透明物体TOBが球体である場合には、輪郭領域ERは円領域になる。この場合にキャラクタ制御部104は、輪郭領域ER内に、透明物体TOBを介して見えるキャラクタCHの画像(少なくともキャラクタの主要部の画像)が表示されるように、そのサイズが設定されたキャラクタCHを、接触位置TPに表示する。   Specifically, the outline area of the transparent object TOB when the touch panel display 190 and the transparent object TOB are viewed in plan as shown in FIG. When the transparent object TOB is a sphere, the contour area ER is a circular area. In this case, the character control unit 104 sets the character CH whose size is set so that an image of the character CH (at least an image of the main part of the character) seen through the transparent object TOB is displayed in the contour region ER. Is displayed at the contact position TP.

このようにすれば、図3(B)に示すようにキャラクタCHが透明物体TOBの輪郭領域ERからはみ出ずに表示されるため、あたかも透明物体TOBの内部にキャラクタCHが映し出されたかのような錯覚をプレーヤに与えることができる。またキャラクタCHをこのような小さなサイズに設定すれば、キャラクタCHの突然の発生を不思議に思ったプレーヤが、透明物体TOBを取り外して、図3(A)の接触位置TPに指でタッチした場合にも、キャラクタCHが指に隠れて見えないため、種明かしが直ぐにわかってしまう事態を防止できる。   In this way, as shown in FIG. 3B, the character CH is displayed without protruding from the outline region ER of the transparent object TOB, so that the illusion is as if the character CH was projected inside the transparent object TOB. Can be provided to the player. If the character CH is set to such a small size, a player who is wondering about the sudden occurrence of the character CH removes the transparent object TOB and touches the contact position TP in FIG. In addition, since the character CH is hidden behind the finger and cannot be seen, it is possible to prevent the situation where the secret is immediately known.

また本実施形態では、キャラクタ制御部104は、プレーヤが透明物体TOBを取り外して、タッチパネルディスプレイ190から透明物体TOBが離れる離隔イベントが発生すると、発生したキャラクタCHを非表示(消去)にする。即ち図3(A)のように、接触位置TPにキャラクタCHが表示されないようにする。これにより、透明物体TOBをタッチパネルディスプレイ190に置くと、画像が表示され、取り外すと画像が消えるという映像効果を実現できる。このようにすれば、キャラクタCHの突然の発生を不思議に思ったプレーヤが、透明物体TOBを取り外した場合に、図3(A)のようにキャラクタCHは非表示になっているため、種明かしが直ぐにわかってしまう事態を防止できる。   In the present embodiment, when the player removes the transparent object TOB and a separation event in which the transparent object TOB leaves the touch panel display 190 occurs, the character control unit 104 hides (erases) the generated character CH. That is, as shown in FIG. 3A, the character CH is not displayed at the contact position TP. Accordingly, it is possible to realize a video effect that an image is displayed when the transparent object TOB is placed on the touch panel display 190 and disappears when the transparent object TOB is removed. In this way, when a player who is wondering about the sudden occurrence of the character CH removes the transparent object TOB, the character CH is not displayed as shown in FIG. It is possible to prevent situations that are immediately known.

以上の本実施形態の手法によれば、透明物体TOBとして例えば球体を使用しているため、透明物体TOBが置かれた地点の画像(映像)を約3倍に拡大して映し出すことができる。また、球体の透明物体TOBとタッチパネルディスプレイ190との接触により、透明物体TOBを置いた位置の座標を、タッチパネルディスプレイ190の機能を利用して、簡単に取得できる。   According to the method of the present embodiment described above, for example, a sphere is used as the transparent object TOB, so that an image (video) of a point where the transparent object TOB is placed can be enlarged and projected about three times. Further, by the contact between the spherical transparent object TOB and the touch panel display 190, the coordinates of the position where the transparent object TOB is placed can be easily obtained using the function of the touch panel display 190.

また、指やスタイラスペンなどの不透明物体でタッチすると、接触位置TP付近の画像が指やスタイラスペンにより隠れて、見えなくなってしまう。これに対して、本実施形態のように透明物体TOBを使用すれば、接触位置TP付近の画像が隠れてしまうことがなく、図3(B)のようなキャラクタ画像をプレーヤに見せることができる。   Further, when an opaque object such as a finger or a stylus pen is touched, an image near the contact position TP is hidden by the finger or the stylus pen and cannot be seen. On the other hand, if the transparent object TOB is used as in this embodiment, the image near the contact position TP is not hidden, and a character image as shown in FIG. 3B can be shown to the player. .

また透明物体TOBには、ある程度の重さ(例えば80g以上)があるため、押すという積極的な操作をしなくても、透明物体TOBをタッチパネルディスプレイ190に置くだけで、接触位置TP付近の座標を取得できる。また球体の透明物体TOBを用いれば、転がりによる軌跡も取得できる。   Further, since the transparent object TOB has a certain weight (for example, 80 g or more), the coordinates near the contact position TP can be obtained by simply placing the transparent object TOB on the touch panel display 190 without performing an aggressive operation of pressing. Can be obtained. If a spherical transparent object TOB is used, a trajectory due to rolling can also be acquired.

次に本実施形態の手法を実現する具体的な処理について図5、図6を用いて説明する。図5のA1に示す背景画像(メイン画面画像)をIM1とし、A2に示すキャラクタ画像をIM2とする。この背景画像IM1は図2の第1の描画バッファ177に描画され、キャラクタ画像IM2は第2の描画バッファ178に描画される。   Next, specific processing for realizing the method of the present embodiment will be described with reference to FIGS. The background image (main screen image) shown in A1 of FIG. 5 is IM1, and the character image shown in A2 is IM2. The background image IM1 is drawn in the first drawing buffer 177 in FIG. 2, and the character image IM2 is drawn in the second drawing buffer 178.

そして図5のA3に示すように、タッチパネルディスプレイ190に透明物体TOBが接触して、タッチパネル入力があった時にだけ、接触位置TPの座標を中心とした場所(表示領域)にキャラクタ画像IM2を配置して表示する。即ち背景画像IM1上の接触位置TPに対応する位置にキャラクタ画像IM2を描画する。   Then, as shown in A3 of FIG. 5, the character image IM2 is arranged at a location (display area) centered on the coordinates of the contact position TP only when the transparent object TOB comes into contact with the touch panel display 190 and there is a touch panel input. And display. That is, the character image IM2 is drawn at a position corresponding to the contact position TP on the background image IM1.

すると、図5のA4に示すように、透明物体TOBを通して見ることで、レンズ効果によって画像が約3倍に拡大されて見えるようになる。また透明物体TOBを持ち上げて、タッチパネル入力がなくなると同時に、キャラクタ画像IM2は消去される。   Then, as shown by A4 in FIG. 5, when viewed through the transparent object TOB, the image is enlarged about three times by the lens effect. In addition, the transparent object TOB is lifted and the touch panel input disappears, and at the same time, the character image IM2 is deleted.

なお接触イベントが発生してタッチパネル入力があった際に、瞬時にキャラクタ画像IM2を表示してもよいが、キャラクタ画像IM2のスケールを、例えば0.0から1.0に徐々に変化させたり、キャラクタ画像IM2の透明度を、例えば0.0(透明)から1.0(不透明)に徐々に変化させることで、演出的な効果をより高めることができる。   When the touch event occurs and the touch panel is input, the character image IM2 may be displayed instantaneously. However, the scale of the character image IM2 is gradually changed from 0.0 to 1.0, for example, By gradually changing the transparency of the character image IM2 from, for example, 0.0 (transparent) to 1.0 (opaque), it is possible to further enhance the effect.

図6は本実施形態の手法の処理を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the processing of the method of this embodiment.

まずタッチパネルディスプレイ190のメイン画面画像である背景画像を描画する(ステップS1)。そして透明物体(水晶玉)TOBがタッチパネルディスプレイ190に接触したか否か(接触イベントが発生したか否か)を判断する(ステップS2)。そして接触した場合には、タッチパネルディスプレイ190の接触位置(タッチ位置)TPを取得する(ステップS3)。即ちタッチパネルディスプレイ190から出力される接触位置TPの座標を取得する。   First, a background image that is a main screen image of the touch panel display 190 is drawn (step S1). Then, it is determined whether or not the transparent object (crystal ball) TOB has touched the touch panel display 190 (whether or not a contact event has occurred) (step S2). If contact is made, a touch position (touch position) TP of the touch panel display 190 is acquired (step S3). That is, the coordinates of the contact position TP output from the touch panel display 190 are acquired.

次に、所与のタイムラグ期間が経過したか否かを判断する(ステップS4)。そして経過した場合には、メイン画面画像(背景画像)上の接触位置TPに対応する表示領域にキャラクタ画像を描画する(ステップS5)。そしてキャラクタ画像の変化処理(映像演出処理)を行う(ステップS6)。即ち後述するように、キャラクタCHのアニメーション処理、拡大処理、或いは透明度変化処理などを行う。   Next, it is determined whether or not a given time lag period has elapsed (step S4). When the time has elapsed, a character image is drawn in the display area corresponding to the contact position TP on the main screen image (background image) (step S5). Then, a character image change process (video effect process) is performed (step S6). That is, as will be described later, animation processing, enlargement processing, or transparency change processing of the character CH is performed.

次に透明物体TOBがタッチパネルディスプレイ190から離れたか否か(離隔イベントが発生したか否か)を判断する(ステップS7)。離れていない場合にはステップS6に戻りキャラクタ画像の変化処理を継続する。一方、離れた場合には、キャラクタ画像を非表示(消去)にして(ステップS8)、ステップS2に戻る。   Next, it is determined whether or not the transparent object TOB has left the touch panel display 190 (whether or not a separation event has occurred) (step S7). If not, the process returns to step S6 to continue the character image change process. On the other hand, if it is away, the character image is hidden (erased) (step S8), and the process returns to step S2.

図6のステップS4、S5では、接触イベントが発生した後、所与のタイムラグ期間が経過した後に、表示領域にキャラクタCHを発生させている。即ちキャラクタCHの発生を、接触イベント発生時から一定時間だけ遅らせている。   In steps S4 and S5 in FIG. 6, after a contact event occurs, a character CH is generated in the display area after a given time lag period has elapsed. That is, the generation of the character CH is delayed by a certain time from the time when the contact event occurs.

例えば図3(B)のようにキャラクタCHが突然に現れたことを不思議に思ったプレーヤが、透明物体TOBを取り外して、図3(A)の接触位置TPに指でタッチしたとする。この場合に、図4に示すようにタッチパネルディスプレイ190に表示されるキャラクタCHのサイズは小さいため、キャラクタCHのほとんどはプレーヤの指に隠れてしまう。しかしながら、プレーヤが直ぐに指を離してしまうと、指に隠れていたキャラクタCHが見えてしまい、種明かしが直ぐにわかってしまう。   For example, it is assumed that a player who wonders that the character CH suddenly appears as shown in FIG. 3B removes the transparent object TOB and touches the contact position TP shown in FIG. In this case, as shown in FIG. 4, since the size of the character CH displayed on the touch panel display 190 is small, most of the character CH is hidden behind the player's finger. However, if the player releases his / her finger immediately, the character CH hidden behind the finger will be seen, and the secret will be immediately known.

この点、図6のステップS4のようにタイムラグ期間経過後にキャラクタCHを表示するようにすれば、プレーヤが接触位置TPに指でタッチした後に直ぐに離したとしても、キャラクタCHは未だ表示されていないため、種明かしがわかってしまう事態を防止できる。   In this regard, if the character CH is displayed after the elapse of the time lag period as in step S4 in FIG. 6, even if the player touches the contact position TP with a finger and then releases it immediately, the character CH is not displayed yet. Therefore, it is possible to prevent a situation where the secret is known.

なおタイムラグ期間経過後にキャラクタCHを出現させる手法の代わりに、接触イベント発生後、徐々にキャラクタCHを大きくしたり、透明から不透明にする手法を採用してもよい。   Instead of the method of causing the character CH to appear after the lapse of the time lag period, a method of gradually increasing the character CH after the occurrence of the contact event or making the character CH from transparent to opaque may be employed.

2.2 キャラクタの移動処理
キャラクタCHの表示領域は、接触位置TPを中心とする領域であってもよいが、接触位置から所与の距離だけ離れた表示領域にキャラクタCHを発生させてもよい。
2.2 Character Movement Processing The character CH display area may be an area centered on the contact position TP, but the character CH may be generated in a display area that is separated from the contact position by a given distance. .

例えば図7(A)では、キャラクタ制御部104は、接触位置TPへの透明物体TOBの接触イベントが発生した場合に、接触位置TPから離れた場所に設定された表示領域にキャラクタCHを発生させている。そして図7(B)に示すように、キャラクタCHが発生した後、キャラクタCHを接触位置TPに向かって移動させる処理を行う。   For example, in FIG. 7A, the character control unit 104 causes the character CH to be generated in a display area set at a location away from the contact position TP when a contact event of the transparent object TOB to the contact position TP occurs. ing. Then, as shown in FIG. 7B, after the character CH is generated, a process of moving the character CH toward the contact position TP is performed.

このようにすれば、透明物体TOBを置いた時に、TOBの中心にキャラクタCHが突然現れるのではなく、キャラクタCHがTOBの輪郭付近から中心に向かって移動しながら現れるという映像効果を実現できる。また、透明物体TOBの接触位置TPとは異なる位置からキャラクタCHが現れるため、接触位置TPへの接触イベントによりキャラクタCHが発生させたということが、プレーヤに気づかれず、種明かしがわかってしまう事態を防止できる。   In this way, when the transparent object TOB is placed, the video effect that the character CH does not suddenly appear at the center of the TOB but appears while moving from the vicinity of the outline of the TOB toward the center can be realized. Further, since the character CH appears from a position different from the contact position TP of the transparent object TOB, the situation that the character CH is generated by the contact event to the contact position TP is not noticed by the player and the secret is known. Can be prevented.

また図8(A)では、接触イベントが発生した後、接触位置TPが移動している。そしてこの場合には、キャラクタ制御部104は、移動する接触位置TPに追従するように、キャラクタCHを移動させる処理を行う。具体的には図7(B)のように接触位置TPにキャラクタCHが移動した後、図8(A)のようにプレーヤが透明物体TOBを例えば左側に動かすと、これに伴いキャラクタCHも左側に移動する。   In FIG. 8A, the contact position TP is moved after the contact event occurs. In this case, the character control unit 104 performs a process of moving the character CH so as to follow the moving contact position TP. Specifically, after the character CH moves to the contact position TP as shown in FIG. 7B, when the player moves the transparent object TOB to the left side, for example, as shown in FIG. Move to.

このようにすれば、透明物体TOBの輪郭領域ER内に表示されるキャラクタ画像も、透明物体TOBの移動に追従して移動するようになる。従って、あたかも透明物体TOBの中にキャラクタCHが存在していて、透明物体TOBの移動に伴いキャラクタCHも移動しているかのように見え、リアルな映像表現を実現できる。   In this way, the character image displayed in the contour area ER of the transparent object TOB also moves following the movement of the transparent object TOB. Therefore, it appears as if the character CH exists in the transparent object TOB, and the character CH moves as the transparent object TOB moves, and a realistic video expression can be realized.

また図8(B)では、キャラクタ制御部104は、接触位置TPが移動するにつれて、キャラクタCHを非表示にする処理を行っている。即ち接触位置TPを、図7(B)の位置から長い距離移動させると、キャラクタCHが徐々に非表示になる。例えば図7(B)のように接触位置TPが左側に移動した場合には、キャラクタCHの右側部分から徐々に非表示にする。逆に、接触位置TPが右側に移動した場合には、キャラクタCHの左部分から徐々に非表示にする。   In FIG. 8B, the character control unit 104 performs a process of hiding the character CH as the contact position TP moves. That is, when the contact position TP is moved a long distance from the position shown in FIG. 7B, the character CH is gradually hidden. For example, when the contact position TP moves to the left as shown in FIG. 7B, the character CH is gradually hidden from the right portion. Conversely, when the contact position TP moves to the right side, the character CH is gradually hidden from the left portion.

このようにすれば、透明物体TOBを大きく移動させた場合には、TOB内に見えるキャラクタ画像は消えるようになる。具体的には図8(A)のように透明物体TOB(接触位置TP)を左側に動かすと、キャラクタ画像はTOB内において右側に移動する。そして透明物体TOBを更に左側に動かすと、キャラクタ画像がTOB内の右側の輪郭に到達した後、その右側部分から徐々に消えて行く画像表現を実現できる。   In this way, when the transparent object TOB is moved greatly, the character image that appears in the TOB disappears. Specifically, as shown in FIG. 8A, when the transparent object TOB (contact position TP) is moved to the left, the character image moves to the right in the TOB. When the transparent object TOB is further moved to the left side, it is possible to realize an image expression in which the character image gradually disappears from the right side portion after reaching the right outline in the TOB.

例えば、透明物体TOBを左側に移動した場合に、図8(B)のようにキャラクタCHも左側に移動させると共に非表示にする手法を採用しないと、透明物体TOBを大きく左側に移動させた時に、TOBの下に存在したキャラクタCHが、TOBの右側に現れて表示されてしまい、種明かしがわかってしまう。この点、図8(B)の手法によれば、キャラクタCHが非表示になるため、このような事態を防止できる。   For example, when the transparent object TOB is moved to the left side and the character CH is also moved to the left side as shown in FIG. 8B and the method of hiding the character CH is not adopted, the transparent object TOB is moved largely to the left side. The character CH existing under the TOB appears and appears on the right side of the TOB, and the secret is known. In this regard, according to the method of FIG. 8B, the character CH is not displayed, and thus such a situation can be prevented.

以上のように本実施形態では、接触イベントが発生した場合に、図9(A)のように接触位置TPから離れた場所にキャラクタCHを発生する。その後、図9(B)に示すように、発生したキャラクタCHを接触位置TPに向かって移動させる。   As described above, in the present embodiment, when a contact event occurs, the character CH is generated at a location away from the contact position TP as shown in FIG. Thereafter, as shown in FIG. 9B, the generated character CH is moved toward the contact position TP.

また図9(C)に示すように、接触位置TPを移動させると、TPに追従するようにキャラクタCHを移動させる。例えば接触位置TPが左側に移動した場合には、キャラクタCHも左側に移動し、接触位置TPが右側に移動した場合には、キャラクタCHも右側に移動する。   Further, as shown in FIG. 9C, when the contact position TP is moved, the character CH is moved so as to follow TP. For example, when the contact position TP moves to the left, the character CH also moves to the left, and when the contact position TP moves to the right, the character CH also moves to the right.

この場合に図9(C)に示すように、接触位置TPの移動距離Lよりも短い移動距離L/N(N>1)で、キャラクタCHを移動させることが望ましい。或いは接触位置TPの移動速度よりも遅い移動速度でキャラクタCHを移動させる。   In this case, as shown in FIG. 9C, it is desirable to move the character CH at a movement distance L / N (N> 1) shorter than the movement distance L of the contact position TP. Alternatively, the character CH is moved at a moving speed slower than the moving speed of the contact position TP.

このようにすれば、透明物体TOBを例えば左側に移動させた場合に、キャラクタ画像が、TOBの中心から右側の輪郭に向かって移動して見える映像表現を実現できる。そして、透明物体TOBを更に左側に移動させた場合に、図9(D)のようにキャラクタCHを非表示にすれば、図8(B)のように透明物体TOBの右側の輪郭からキャラクタCHが徐々に消えて行く映像表現を実現できる。   In this way, when the transparent object TOB is moved to the left side, for example, it is possible to realize a video expression in which the character image appears to move from the center of the TOB toward the right outline. If the character CH is not displayed as shown in FIG. 9D when the transparent object TOB is further moved to the left side, the character CH appears from the right outline of the transparent object TOB as shown in FIG. 8B. It is possible to realize video expression that disappears gradually.

2.3 画像変化処理
図6のステップS6では、接触イベントが発生した後(ステップS2)、キャラクタ制御部104は、キャラクタCHの画像を変化させる処理を行っている。
2.3 Image Change Process In step S6 of FIG. 6, after a contact event occurs (step S2), the character control unit 104 performs a process of changing the image of the character CH.

例えば図10(A)では、透明物体TOBをタッチパネルディスプレイ190に置くと、TOBの輪郭領域ER内に、後ろ向きで立っているキャラクタCHの画像が映し出される。そしてその後、時間が経過すると、図10(B)に示すようにキャラクタCHがこちら側に振り向くアニメーション処理が行われる。このようにすれば、透明物体TOB内のキャラクタCHが、あたかも生きているかのように見える効果的な映像表現を実現できる。   For example, in FIG. 10A, when the transparent object TOB is placed on the touch panel display 190, an image of the character CH standing backward is displayed in the outline area ER of the TOB. After that, when time passes, an animation process is performed in which the character CH turns to the near side as shown in FIG. In this way, it is possible to realize an effective video expression in which the character CH in the transparent object TOB looks as if it is alive.

この場合のアニメーション処理は、キャラクタCHを2次元画像で表現する場合には、キャラクタCHのアニメーションを実現するための複数のキャラクタ画像(ドット画像)を、接触位置TPの表示領域に順次表示することで実現できる。またキャラクタCHを3次元画像で表現する場合には、アニメーション処理は、複数のポリゴンで構成されるキャラクタCHのモーション処理を行うことで実現できる。具体的にはキャラクタCHを構成する各パーツオブジェクト(スケルトンを構成する骨)の位置又は回転角度等を含むモーションデータをモーションデータ記憶部(図示せず)に記憶しておき、このモーションデータの再生処理を行えばよい。   In the animation processing in this case, when the character CH is expressed by a two-dimensional image, a plurality of character images (dot images) for realizing the animation of the character CH are sequentially displayed in the display area of the contact position TP. Can be realized. When the character CH is expressed by a three-dimensional image, the animation process can be realized by performing a motion process of the character CH composed of a plurality of polygons. Specifically, motion data including the position or rotation angle of each part object (bone constituting the skeleton) constituting the character CH is stored in a motion data storage unit (not shown), and the motion data is reproduced. What is necessary is just to process.

なおキャラクタCHの画像変化処理は図10(A)、図10(B)のようなアニメーション処理には限定されない。例えばキャラクタ制御部104は、図11(A)に示すように、接触イベントが発生した後、キャラクタCHのサイズを徐々に大きくする処理を行ってもよい。   Note that the image change processing of the character CH is not limited to the animation processing as shown in FIGS. 10 (A) and 10 (B). For example, as shown in FIG. 11A, the character control unit 104 may perform a process of gradually increasing the size of the character CH after the contact event occurs.

具体的には、キャラクタCHを非常に小さなサイズ(例えば1×1ピクセル)から、図4のサイズ(例えば16×16ピクセル)に変化させる。このようにすれば、タイムラグ期間経過後にキャラクタCHを発生させる手法と同様の効果を得ることができる。即ち、プレーヤが、透明物体TOBを取り外して、接触位置TPに指でタッチした後に直ぐに離したとしても、キャラクタCHは非常に小さなサイズ(1×1ピクセル)で表示されるため、種明かしがわかってしまう事態を防止できる。   Specifically, the character CH is changed from a very small size (for example, 1 × 1 pixel) to the size in FIG. 4 (for example, 16 × 16 pixels). In this way, it is possible to obtain the same effect as the method of generating the character CH after the time lag period has elapsed. That is, even if the player removes the transparent object TOB and touches the contact position TP with his / her finger and then releases it immediately, the character CH is displayed in a very small size (1 × 1 pixel), so the secret is known. Can be prevented.

なお、接触イベント発生時に図4のサイズでキャラクタCHを表示した後、更にキャラクタCHのサイズを大きくする処理を行ってもよい。このようにすれば、出現したキャラクタCHが透明物体TOB内で更に大きくなって行くという映像表現を実現できる。   Note that after the character CH is displayed in the size of FIG. 4 when a contact event occurs, a process of further increasing the size of the character CH may be performed. In this way, it is possible to realize a video expression that the appearing character CH becomes larger in the transparent object TOB.

またキャラクタ制御部104は、図11(B)に示すように、接触イベントが発生した後、キャラクタCHを、透明度の高い状態から透明度の低い状態に変化させる処理を行ってもよい。   Further, as shown in FIG. 11B, the character control unit 104 may perform a process of changing the character CH from a state with high transparency to a state with low transparency after a contact event occurs.

具体的には、例えばキャラクタCHを完全な透明状態から不透明状態に変化させる。このようにすれば、タイムラグ期間経過後にキャラクタCHを発生させる手法と同様の効果を得ることができる。即ち、プレーヤが、透明物体TOBを取り外して、接触位置TPに指でタッチした後に直ぐに離したとしても、キャラクタCHは透明な状態で表示されているため、種明かしがわかってしまう事態を防止できる。   Specifically, for example, the character CH is changed from a completely transparent state to an opaque state. In this way, it is possible to obtain the same effect as the method of generating the character CH after the time lag period has elapsed. That is, even if the player removes the transparent object TOB and touches the contact position TP with his / her finger and then releases it immediately, the character CH is displayed in a transparent state, so that it is possible to prevent a situation where the secret is known.

なお、接触イベントの発生後(例えばタイムラグ期間経過後)、キャラクタCHを例えば半透明状態で表示し、その後、キャラクタCHを徐々に不透明にしてもよい。このようにすれば、出現したキャラクタCHが透明物体TOB内において、徐々にその姿が現れてくるという映像表現を実現できる。   Note that after the occurrence of the contact event (for example, after the time lag period elapses), the character CH may be displayed in a semi-transparent state, for example, and then the character CH may be gradually made opaque. In this way, it is possible to realize a video expression in which the appearing character CH gradually appears in the transparent object TOB.

またキャラクタCHの透明状態(半透明状態)を変化させる処理は、例えばα値を用いたαブレンディングなどにより実現できる。即ち、キャラクタCHを、透明度の高い状態から透明度の低い状態に変化させる場合には、キャラクタCHのα値を、透明度の高いα値から透明度の低いα値に変化させながら、背景画像とのαブレンディングを行えばよい。   Further, the process of changing the transparent state (semi-transparent state) of the character CH can be realized by, for example, α blending using an α value. That is, when the character CH is changed from a state with high transparency to a state with low transparency, the α value of the character CH is changed from the α value with high transparency to the α value with low transparency, while the α value with the background image is changed. Blending may be performed.

なお接触イベント発生後に行うキャラクタCHの画像変化処理は、図10(A)〜図11(B)のようなアニメーション処理、拡大処理、透明状態変化処理に限定されず、種々の処理を想定できる。例えば、ピクセル入れ替え処理、ピクセル平均化処理等のキャラクタCHに対する様々な画像フィルタリング処理を行ってもよい。   Note that the image change process of the character CH performed after the occurrence of the contact event is not limited to the animation process, the enlargement process, and the transparent state change process as shown in FIGS. 10A to 11B, and various processes can be assumed. For example, various image filtering processes for the character CH such as a pixel replacement process and a pixel averaging process may be performed.

或いは、接触イベントが発生した後、接触位置TPが移動した場合に、接触位置TPの移動に応じてキャラクタCHの画像を変化させてもよい。例えば接触位置TPの移動距離や移動速度に基づいてキャラクタCHの画像を変化させる。或いは、接触イベントが発生した後、接触位置TPが移動した場合に記接触位置の移動に応じてキャラクタCHを見る視点が変化する画像を生成する。   Alternatively, when the contact position TP moves after the contact event occurs, the image of the character CH may be changed according to the movement of the contact position TP. For example, the image of the character CH is changed based on the moving distance and moving speed of the contact position TP. Alternatively, when the contact position TP moves after the contact event occurs, an image is generated in which the viewpoint for viewing the character CH changes according to the movement of the contact position.

例えば図12(A)では、透明物体TOBを介してキューブのキャラクタCHの画像が映し出されている。即ち、図12(B)の接触位置TPに透明物体TOBが接触した場合に、接触位置TPにキャラクタCHの画像を表示することで、図12(A)のような画像が表示される。   For example, in FIG. 12A, an image of the cube character CH is projected via the transparent object TOB. That is, when the transparent object TOB comes into contact with the contact position TP in FIG. 12B, an image as shown in FIG. 12A is displayed by displaying the image of the character CH at the contact position TP.

そして、その後、プレーヤが透明物体TOBを動かして、接触位置TPが移動すると、図13(A)に示すように、キャラクタCHを見る視点を変化させた画像が生成される。即ち図14に示すように、接触位置TPに応じて、その視点位置や視線方向が変化する視点VPから見えるキャラクタ画像を生成する。   After that, when the player moves the transparent object TOB and the contact position TP moves, an image in which the viewpoint for viewing the character CH is changed is generated as shown in FIG. That is, as shown in FIG. 14, a character image that is visible from a viewpoint VP whose viewpoint position or line-of-sight direction changes according to the contact position TP is generated.

このようにすれば、接触位置TPの移動に伴い、透明物体TOB内に映し出されるキューブのキャラクタCHの3次元的な見え方が変化するようになり、これまでにない映像表現を実現できる。   In this way, as the contact position TP moves, the three-dimensional appearance of the cube character CH projected in the transparent object TOB changes, and an unprecedented video expression can be realized.

2.4 説明画像の表示
次に、本実施形態を適用した説明画像の表示手法について説明する。例えば図15(A)では、タッチパネルディスプレイ190に対して、虫が生息する森が描かれた背景画像が表示されている。
2.4 Display of Description Image Next, a description image display method to which the present embodiment is applied will be described. For example, in FIG. 15A, a background image on which a forest inhabiting insects is drawn is displayed on the touch panel display 190.

そしてプレーヤが透明物体TOB(或いは指、スタイラスペン等の物体)をタッチパネルディスプレイ190に置いて、TOBが接触位置TPに接触する接触イベントが発生すると、図15(B)に示すように蝶のキャラクタ画像がTOBを介して見えるようになる。即ち図16(A)に示すように接触位置TPに蝶のキャラクタCHを発生させることで、図15(B)に示す画像表現が実現される。   When the player places a transparent object TOB (or an object such as a finger or a stylus pen) on the touch panel display 190 and a contact event occurs in which the TOB touches the contact position TP, a butterfly character as shown in FIG. The image becomes visible through the TOB. That is, by generating a butterfly character CH at the contact position TP as shown in FIG. 16A, the image representation shown in FIG. 15B is realized.

この場合、プレーヤが、図15(A)とは異なる位置に透明物体TOB(広義には物体)を接触させると、接触位置に応じて、例えばカマキリ、カブトムシなどの異なった種類の虫のキャラクタCHが発生して、表示されるようになる。   In this case, when the player touches the transparent object TOB (object in a broad sense) at a position different from that in FIG. 15A, different types of insect characters CH such as mantis and beetle, for example, according to the contact position. Will be displayed.

このようにすれば、プレーヤに対して、森の中を探索して色々な虫を発見するという楽しみを与えることができる。なお図15(A)では蝶等のキャラクタは表示されていないが、例えばサイズが極めて小さな蝶等のキャラクタを背景画像上に予め表示しておき、そのキャラクタに透明物体TOBが接触した場合に、図15(B)のようにそのキャラクタの拡大画像を表示するような演出効果にしてもよい。このようすれば、虫の採集をプレーヤに対して擬似的に体験させることが可能になる。   In this way, it is possible to give the player the pleasure of searching the forest and finding various insects. In FIG. 15A, a character such as a butterfly is not displayed. For example, when a character such as a butterfly having a very small size is displayed in advance on the background image and the transparent object TOB comes into contact with the character, The effect may be such that an enlarged image of the character is displayed as shown in FIG. This makes it possible for the player to experience the insect collection in a simulated manner.

また接触イベントが発生して、虫のキャラクタCHが発生した場合に、画像生成部120がそのキャラクタCHの説明画像(キャラクタの特徴等を説明する画像)を生成してもよい。例えば図16(B)では画像生成部120は、キャラクタCHが発生した場合に、発生したキャラクタCHの説明画像193を生成して、ディスプレイ191(第2のディスプレイ)に表示している。なおディスプレイ191ではなく、例えばタッチパネルディスプレイ190に表示されるキャラクタCHの近くにサブ画面を発生し、そのサブ画面に説明画像を表示してもよい。   In addition, when a contact event occurs and an insect character CH occurs, the image generation unit 120 may generate an explanatory image of the character CH (an image explaining the characteristics of the character). For example, in FIG. 16B, when the character CH is generated, the image generation unit 120 generates an explanatory image 193 of the generated character CH and displays it on the display 191 (second display). For example, instead of the display 191, a sub screen may be generated near the character CH displayed on the touch panel display 190, and an explanation image may be displayed on the sub screen.

このような説明画像193を表示すれば、虫を探してその説明を見るという図鑑のような楽しみを、プレーヤに与えることができる。即ちプレーヤは、図15(B)のような虫の画像のみならず、図16(B)のように、その虫がどのような種類の虫で、どのような特徴を持つのかを知ることができ、プレーヤの知的好奇心を満足させることができる。また図16(B)のようにディスプレイ191に説明画像193を表示すれば、プレーヤは、透明物体TOBを介さずに直接に説明画像を見て読むことができる。即ち読みやすい説明画像を表示できるため、プレーヤの利便性を向上できる。   By displaying the explanation image 193 like this, it is possible to give the player an enjoyment like a picture book of looking for an insect and viewing the explanation. That is, the player can know not only the insect image as shown in FIG. 15B but also what kind of insect is the insect and what characteristics it has as shown in FIG. 16B. And can satisfy the player's intellectual curiosity. Further, when the explanation image 193 is displayed on the display 191 as shown in FIG. 16B, the player can directly see and read the explanation image without using the transparent object TOB. That is, since an easy-to-read explanation image can be displayed, the convenience of the player can be improved.

なお説明画像の生成手法は図15(A)〜図16(B)の手法に限定されない。例えば魚(キャラクタ)が泳いでいる画像を生成し、泳いでいる魚に対して透明物体(或いは物体)でタッチすると、その魚の名前、大きさ等の説明画像を表示したり、その魚の内臓や骨などを表す透過表現画像を、説明画像として表示してもよい。   The description image generation method is not limited to the method shown in FIGS. For example, when an image of a fish (character) swimming is generated and the swimming fish is touched with a transparent object (or object), an explanation image such as the name and size of the fish is displayed, or the internal organs of the fish A transmission expression image representing a bone or the like may be displayed as an explanation image.

図17に、図15(A)〜図16(B)の手法を実現する処理のフローチャートを示す。   FIG. 17 shows a flowchart of processing for realizing the methods of FIGS. 15 (A) to 16 (B).

まず図15(A)に示すような森を表す背景画像を描画する(ステップS11)。そして透明物体TOB(物体)がタッチパネルディスプレイ190に接触したか否かを判断する(ステップS12)。そして接触した場合には、タッチパネルディスプレイ190の接触位置TPを取得する(ステップS13)。   First, a background image representing a forest as shown in FIG. 15A is drawn (step S11). Then, it is determined whether or not the transparent object TOB (object) has touched the touch panel display 190 (step S12). If contact is made, the touch position TP of the touch panel display 190 is acquired (step S13).

次に、接触位置TPにキャラクタCHが存在するか否かを判断する(ステップS14)。そして存在する場合には、その接触位置TPにそのキャラクタCHを表示する(ステップS15)。即ち図15(A)の接触位置TPには蝶のキャラクタCHが存在するため、図15(B)ではその蝶のキャラクタCHが透明物体TOBを介して表示されるようになる。   Next, it is determined whether or not the character CH exists at the contact position TP (step S14). If it exists, the character CH is displayed at the contact position TP (step S15). That is, since the butterfly character CH exists at the contact position TP in FIG. 15A, the butterfly character CH is displayed via the transparent object TOB in FIG. 15B.

次に、第2のディスプレイ191に、出現したキャラクタCHの説明画像を表示する(ステップS16)。例えば図16(B)では、蝶のキャラクタCHの説明画像が表示されている。   Next, an explanatory image of the appearing character CH is displayed on the second display 191 (step S16). For example, in FIG. 16B, an explanatory image of a butterfly character CH is displayed.

次に透明物体TOBがタッチパネルディスプレイ190から離れたか否かを判断する(ステップS17)。そして離れた場合には、キャラクタCHを非表示にして(ステップS18)、ステップS12に戻る。   Next, it is determined whether or not the transparent object TOB has left the touch panel display 190 (step S17). If it is away, the character CH is hidden (step S18), and the process returns to step S12.

2.5 ゲーム成績の演算
次に、本実施形態を適用したゲーム成績の演算手法について説明する。例えば図18(A)では、プレーヤが透明物体TOB(或いは物体)をタッチパネルディスプレイ190に接触させて、接触イベントが発生すると、図18(B)に示すように、キャラクタCHが発生して表示される。
2.5 Game Score Calculation Next, a game score calculation method to which the present embodiment is applied will be described. For example, in FIG. 18A, when the player touches the touch panel display 190 with the transparent object TOB (or object) and a contact event occurs, a character CH is generated and displayed as shown in FIG. The

具体的には図18(A)では、接触位置TPはビルの窓付近であり、この場合には図18(B)に示すように、この接触位置TP付近の拡大画像が生成される。そして窓の向こうにいるキャラクタCHの画像が表示される。   Specifically, in FIG. 18A, the contact position TP is near the building window. In this case, as shown in FIG. 18B, an enlarged image near the contact position TP is generated. An image of the character CH beyond the window is displayed.

そして、このようにキャラクタCHが発生した後に、プレーヤが操作部を用いて操作情報を入力すると、入力された操作情報に基づいてプレーヤのゲーム成績が演算される。具体的には図18(B)では、プレーヤは、操作ボタン302を押して、キャラクタCHを銃等でシューティングする指示を行っている。そして、キャラクタCHにショット(弾丸)がヒットすると、プレーヤの得点が加算されるゲーム成績演算が行われる。   Then, after the character CH is generated in this way, when the player inputs operation information using the operation unit, the game result of the player is calculated based on the input operation information. Specifically, in FIG. 18B, the player presses the operation button 302 to give an instruction to shoot the character CH with a gun or the like. When a shot (bullet) hits the character CH, a game score calculation is performed in which the player's score is added.

このように図18(A)、図18(B)の手法によれば、接触イベントの発生により、単にキャラクタCHが出現するだけではなく、プレーヤがゲーム操作を行うことで、プレーヤのゲーム成績も演算されるようになり、インタラクティブなゲームを実現できる。   As described above, according to the methods shown in FIGS. 18A and 18B, not only the character CH appears due to the occurrence of the contact event, but also the game performance of the player is improved by the player performing the game operation. Calculations can be made and interactive games can be realized.

なお本実施形態のゲーム成績演算手法は図18(A)、図18(B)に限定されない。例えば接触イベント発生によりキャラクタCHが出現した後、キャラクタCHが出したクイズに答えたり、出現したキャラクタCHと対戦(格闘)することなどにより、ゲーム成績を演算してもよい。   Note that the game score calculation method of the present embodiment is not limited to FIGS. 18 (A) and 18 (B). For example, after the appearance of the character CH due to the occurrence of a contact event, the game results may be calculated by answering a quiz issued by the character CH or playing (fighting) with the appearing character CH.

図19に、図18(A)、図18(B)の手法を実現する処理のフローチャートを示す。   FIG. 19 shows a flowchart of processing for realizing the method of FIGS. 18 (A) and 18 (B).

まず図18(A)に示すようなビル等が描かれた背景画像を描画する(ステップS21)。そして透明物体TOB(物体)がタッチパネルディスプレイ190に接触したか否かを判断し(ステップS22)、接触した場合には、タッチパネルディスプレイ190の接触位置TPを取得する(ステップS23)。   First, a background image on which a building or the like as shown in FIG. 18A is drawn is drawn (step S21). Then, it is determined whether or not the transparent object TOB (object) is in contact with the touch panel display 190 (step S22). If the transparent object TOB (object) is in contact, the contact position TP of the touch panel display 190 is acquired (step S23).

次に、図18(B)に示すように接触位置TPの拡大画像を生成して、キャラクタCHを表示する(ステップS24)。そしてプレーヤが、シューティング等の所与の操作を行った否かを判断し(ステップS25)、行った場合には、プレーヤの得点等のゲーム成績を演算する(ステップS26)。   Next, as shown in FIG. 18B, an enlarged image of the contact position TP is generated and the character CH is displayed (step S24). Then, it is determined whether or not the player has performed a given operation such as shooting (step S25). If so, game results such as the player's score are calculated (step S26).

2.6 通信処理
次に、本実施形態を適用した通信処理手法について説明する。図20に本実施形態の通信処理手法を実現するゲームシステムの構成例を示す。このゲームシステムは、複数の画像生成装置(ゲーム装置、ゲーム端末、情報端末)20-1〜20-nと、これらの画像生成装置装置20-1〜20-nにネットワーク12を介して接続されるサーバ10を含む。ここで、ネットワーク12(通信回線)は、データ授受が可能な通信路を意味する。即ち、ネットワーク12は、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。
2.6 Communication Processing Next, a communication processing method to which the present embodiment is applied will be described. FIG. 20 shows a configuration example of a game system that realizes the communication processing method of the present embodiment. This game system is connected to a plurality of image generation devices (game device, game terminal, information terminal) 20-1 to 20-n and these image generation device devices 20-1 to 20-n via a network 12. Server 10 is included. Here, the network 12 (communication line) means a communication path through which data can be exchanged. That is, the network 12 includes a communication network such as a telephone communication network, a cable network, and the Internet in addition to a LAN using a dedicated line (dedicated cable) or Ethernet (registered trademark) for direct connection. The method is not limited to wired / wireless.

サーバ(ゲームサーバ)10は、各種処理を実行する処理部、各種プログラムやデータを記憶する記憶部、ネットワーク12を介したデータの送受信のための通信部等を有する公知のサーバコンピュータシステムにより構成できる。このサーバ10は、例えば画像生成装置の製造メーカやゲームソフトの制作メーカが提供(設置)し、ゲームシステムの全体制御、各種データやネットワークゲームの管理等を行う。   The server (game server) 10 can be configured by a known server computer system having a processing unit that executes various processes, a storage unit that stores various programs and data, a communication unit for transmitting and receiving data via the network 12, and the like. . This server 10 is provided (installed) by, for example, an image generation device manufacturer or game software production manufacturer, and performs overall control of the game system, management of various data and network games, and the like.

画像生成装置20-1〜20-nは、プレーヤがゲームプレイを行うための装置(端末)であり、各種処理を実行する処理部、各種プログラムやデータを記憶する記憶部、プレーヤが操作入力を行うための操作部、ゲーム画面等を表示するための表示部、ゲーム音等を出力する音出力部、ネットワーク12を介したデータの送受信のための通信部等を有する公知のコンピュータシステムにより構成できる。例えば、画像生成装置20-1〜20-nとしては、家庭に設置される家庭用ゲーム装置、店舗に設置される業務用ゲーム装置、携帯型ゲーム装置、或いは携帯電話機などの携帯端末装置等により実現できる。そして画像生成装置20-1〜20-nでプレイするプレーヤは、サーバ10にアクセスしてログインすることにより、サーバ10より提供される各種のサービス(オンライン・ネットワーク・サービス)を受けることができる。   The image generation devices 20-1 to 20-n are devices (terminals) for the player to play a game. The image generation devices 20-1 to 20-n are a processing unit that executes various processes, a storage unit that stores various programs and data, and an operation input by the player. It can be configured by a known computer system having an operation unit for performing, a display unit for displaying a game screen, a sound output unit for outputting game sounds, a communication unit for transmitting and receiving data via the network 12, and the like. . For example, as the image generation devices 20-1 to 20-n, a home game device installed in a home, an arcade game device installed in a store, a portable game device, or a mobile terminal device such as a mobile phone, etc. realizable. Players playing with the image generation apparatuses 20-1 to 20-n can receive various services (online network services) provided by the server 10 by accessing the server 10 and logging in.

図20のようなゲームシステムにより、例えば画像生成装置20-1が有する通信処理部110は、他の画像生成装置20-2においてゲームプレイする他のプレーヤのゲームプレイ情報をネットワーク12を介して受信することができる。   With the game system as shown in FIG. 20, for example, the communication processing unit 110 included in the image generation device 20-1 receives game play information of another player who plays a game in the other image generation device 20-2 via the network 12. can do.

ここでゲームプレイ情報は、プレーヤのゲームプレイにより得られる情報であり、例えばキャラクタの情報、ゲームプレイの操作情報や操作履歴情報、プレーヤのゲーム成績情報、或いはプレーヤの個人情報等である。またキャラクタ情報は、キャラクタの位置、回転角度(方向)又は速度等の移動情報、キャラクタの体力、ヒットポイント又はステータス等のパラメータ情報、キャラクタに関して発生したイベント情報、或いはキャラクタの画像情報などである。またゲームプレイの操作情報や操作履歴情報は、操作部160を用いてプレーヤが入力した操作情報や、その操作情報の履歴情報である。またプレーヤのゲーム成績情報は、プレーヤの得点、ポイント又は勝敗等の情報であり、プレーヤの個人情報は、プレーヤの名前、ニックネーム、性別、又は年齢等の情報である。   Here, the game play information is information obtained by the game play of the player, such as character information, game play operation information and operation history information, player game result information, or player personal information. The character information includes movement information such as the character's position, rotation angle (direction) or speed, parameter information such as the character's physical strength, hit points or status, event information generated for the character, or character image information. The game play operation information and operation history information are operation information input by the player using the operation unit 160 and history information of the operation information. Further, the player's game result information is information such as the player's score, points, or win / loss, and the player's personal information is information such as the player's name, nickname, sex, or age.

そして本実施形態では、キャラクタ制御部104は、接触イベントが発生した場合に、受信した他のプレーヤのゲームプレイ情報に基づいて、接触位置に対応する表示位置に他のプレーヤのキャラクタを発生させる処理を行う。例えば、他のプレーヤのキャラクタの位置情報に基づいて、その位置に対応するゲームフィールド上の位置に他のプレーヤのキャラクタを発生させる。或いは他のプレーヤの操作情報や操作履歴情報に基づいて、他のプレーヤのキャラクタを発生させたり、移動させたりする。或いは他のプレーヤのゲーム成績情報に基づいて、他のプレーヤのキャラクタを発生させたり、消滅させたりする。   In the present embodiment, when a contact event occurs, the character control unit 104 generates a character of another player at a display position corresponding to the contact position based on the received game play information of the other player. I do. For example, based on the position information of the character of another player, the character of the other player is generated at a position on the game field corresponding to the position. Alternatively, the characters of other players are generated or moved based on the operation information and operation history information of other players. Alternatively, the other player's character is generated or disappeared based on the game result information of the other player.

例えば図21(A)、図21(B)は、本実施形態の手法を潜水艦対戦ゲームに適用した場合の例である。   For example, FIG. 21 (A) and FIG. 21 (B) are examples when the method of the present embodiment is applied to a submarine battle game.

プレーヤのタッチパネルディスプレイ190には、海の背景画像が表示されている。そしてプレーヤの攻撃ターンになると、ネットワークを介して、他のプレーヤが操作する潜水艦のキャラクタCHの位置情報を受信する。そして、プレーヤは、透明物体TOB(或いは指、スタイラスペン等の物体)を操作して、海の下に他のプレーヤの潜水艦キャラクタCHが隠れていないかを探索する。   A sea background image is displayed on the touch panel display 190 of the player. When the player's attack turn comes, the position information of the character CH of the submarine operated by another player is received via the network. Then, the player operates the transparent object TOB (or an object such as a finger or a stylus pen) to search for another player's submarine character CH under the sea.

具体的には、プレーヤが操作する透明物体TOB(物体)が接触位置TPに接触した場合に、接触位置TPと、受信により得られた他のプレーヤが操作する潜水艦キャラクタCHの位置とを比較する。そして接触位置TPと潜水艦キャラクタCHの位置とが一致すると、キャラクタ制御部104は、図21(B)に示すように、海面に隠れていた他のプレーヤの潜水艦キャラクタCHを発生させる。更に具体的には、潜水艦キャラクタCHにプレーヤの魚雷が命中して、破壊される演出画像を生成する。このようにすれば、いわゆる潜水艦による魚雷戦ゲームを実現できるようになる。   Specifically, when the transparent object TOB (object) operated by the player contacts the contact position TP, the contact position TP is compared with the position of the submarine character CH operated by another player obtained by reception. . When the contact position TP and the position of the submarine character CH coincide with each other, the character control unit 104 generates the submarine character CH of another player hidden on the sea surface as shown in FIG. More specifically, the player's torpedo hits the submarine character CH to generate an effect image that is destroyed. In this way, a so-called torpedo battle game with a submarine can be realized.

図22に、図21(A)、図21(B)の手法を実現する処理のフローチャートを示す。   FIG. 22 shows a flowchart of processing for realizing the method of FIGS. 21 (A) and 21 (B).

まず図21(A)に示すような海等が描かれた背景画像を描画する(ステップS31)。また他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報(他のプレーヤの情報)をネットワークを介して受信する(ステップS32)。   First, a background image on which a sea or the like as shown in FIG. 21A is drawn is drawn (step S31). Further, the game play information (information of other players) of other players who play the game with other image generation devices is received via the network (step S32).

次に、透明物体TOB(物体)がタッチパネルディスプレイ190に接触したか否かを判断し(ステップS33)、接触した場合には、タッチパネルディスプレイ190の接触位置TPを取得する(ステップS34)。そして接触位置TPと他のプレーヤのキャラクタCH(潜水艦)の位置が一致したか否かを判断し(ステップS35)、一致した場合には、図21(B)に示すように、破壊された他のプレーヤのキャラクタCHを接触位置TPに発生させて表示する(ステップS36)。   Next, it is determined whether or not the transparent object TOB (object) has touched the touch panel display 190 (step S33). If the transparent object TOB (object) has touched, the contact position TP of the touch panel display 190 is acquired (step S34). Then, it is determined whether or not the contact position TP and the position of the character CH (submarine) of the other player coincide with each other (step S35). If they coincide, as shown in FIG. Is generated and displayed at the contact position TP (step S36).

2.7 透明物体
次に、本実施形態で使用される透明物体(物体)の種々の例について説明する。図23(A)は球体形状の透明物体の例である。この透明物体としては、例えば直径40mm前後の透明なアクリル球、ガラス球、ゴム球などを使用できる。なお透明物体は無色であってもよいし、有色であってもよい。また透明物体は完全な透明である必要はなく、半透明であってもよい。
2.7 Transparent Object Next, various examples of the transparent object (object) used in the present embodiment will be described. FIG. 23A shows an example of a spherical transparent object. As this transparent object, for example, a transparent acrylic sphere, glass sphere, rubber sphere or the like having a diameter of around 40 mm can be used. The transparent object may be colorless or colored. The transparent object does not need to be completely transparent, and may be translucent.

図23(B)は、レンズ形状又は半球形状の透明物体の例である。このように透明物体は必ずしも球体である必要はなく、少なくともタッチパネルディスプレイと接触する部分が曲面であればよい。   FIG. 23B shows an example of a lens-shaped or hemispherical transparent object. As described above, the transparent object does not necessarily have to be a sphere, and at least a portion in contact with the touch panel display may be a curved surface.

図23(C)は、柱体形状の透明物体の例である。図23(C)では、柱体形状の透明物体のうち、タッチパネルディスプレイに接触する部分である底面がレンズ形状になっている。なお柱体は、円柱であってもよいし、三角柱や四角柱などの角柱であってもよい。   FIG. 23C is an example of a columnar transparent object. In FIG. 23C, the bottom surface, which is a portion that contacts the touch panel display, of the columnar transparent object has a lens shape. The column body may be a cylinder or a prism such as a triangular prism or a quadrangular prism.

図23(D)は筒形状の透明物体(物体)の例である。図23(D)では、例えば筒形状の真ん中の穴を介して、タッチパネルディスプレイに表示されたキャラクタ画像が映し出される。この場合に、例えば筒の底面部分に、少なくとも2つの突起を設ければ、2つの突起の中点が、タッチパネルディスプレイの接触位置(タッチ位置)として取得されることになる。   FIG. 23D shows an example of a cylindrical transparent object (object). In FIG. 23D, for example, a character image displayed on the touch panel display is displayed through a cylindrical hole in the middle. In this case, for example, if at least two protrusions are provided on the bottom surface portion of the cylinder, the midpoint of the two protrusions is acquired as the touch position (touch position) of the touch panel display.

また透明物体が例えば柱体形状等である場合に、図23(E)、図23(F)に示すように、その底面に少なくとも2つの突起を設ける。このようにしても、2つの突起の中点が、タッチパネルディスプレイの接触位置(タッチ位置)として取得されることになる。   Further, when the transparent object has a columnar shape, for example, at least two protrusions are provided on the bottom surface thereof as shown in FIGS. Even in this way, the midpoint of the two protrusions is acquired as the contact position (touch position) of the touch panel display.

例えば図24(A)、図24(B)では、キャラクタ等を模したフィギュア(透明物体、物体)が、タッチパネルディスプレイ190に置かれている。この場合に、図24(A)のフィギュアの底面には図23(E)に示すような突起が設けられ、図24(B)のフィギュアの底面には図23(F)に示すような突起が設けられている。そしてフィギュアを置いた場合の向きを固定したとすると、同じ円内に置いた場合でも、図23(E)の突起を有する図24(A)のフィギュアを置いた場合の接触位置と、図23(F)の突起を有する図24(B)のフィギュアを置いた場合の接触位置は、異なった位置になる。従って、この接触位置を判定することで、どのような形状のフィギュアが置かれたのかを判定できる。また、この接触位置を判定することで、例えばタッチパネルディスプレイ190に発生させるキャラクタの種類や、キャラクタの発生のさせ方を異ならせるなどの制御も可能になる。例えば図24(A)のロボットを模したフィギュアを置いた場合には、このフィギュアに対応したロボットのキャラクタを発生させたり、図24(B)のウサギを模したフィギュアを置いた場合には、このフィギュアに対応したウサギのキャラクタを発生させたりすることが可能になる。   For example, in FIGS. 24A and 24B, a figure (transparent object, object) imitating a character or the like is placed on the touch panel display 190. In this case, a projection as shown in FIG. 23 (E) is provided on the bottom of the figure in FIG. 24 (A), and a projection as shown in FIG. 23 (F) is provided on the bottom of the figure in FIG. 24 (B). Is provided. If the orientation when the figure is placed is fixed, even if the figure is placed in the same circle, the contact position when the figure of FIG. The contact position when the figure of FIG. 24 (B) having the protrusion of (F) is placed is different. Therefore, by determining the contact position, it is possible to determine what shape the figure is placed on. Further, by determining the contact position, for example, it is possible to perform control such as changing the type of character generated on the touch panel display 190 and the manner in which the character is generated. For example, when a figure imitating the robot of FIG. 24A is placed, a robot character corresponding to this figure is generated, or when a figure imitating the rabbit of FIG. 24B is placed, It is possible to generate a rabbit character corresponding to this figure.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語(物体等)として引用された用語(透明物体等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms (transparent objects, etc.) cited as broad or synonymous terms (objects, etc.) in the description in the specification or drawings are replaced with broad terms or synonyms in other descriptions in the specification or drawings. Can do.

また、キャラクタの発生手法、表示手法、制御手法や、ゲーム成績の演算手法や、通信処理手法なども、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含むことができる。例えば図5〜図24(B)等で説明した手法においては、図4で説明したようなキャラクタのサイズ設定を行わない変形実施も可能である。また透明物体の代わりに物体を用いて接触位置を取得する手法を採用することも可能である。   Further, the character generation method, the display method, the control method, the game result calculation method, the communication processing method, and the like are not limited to those described in this embodiment, and methods equivalent to these are also within the scope of the present invention. Can be included. For example, in the method described with reference to FIGS. 5 to 24B and the like, it is possible to perform a modification in which the character size setting is not performed as described with reference to FIG. It is also possible to adopt a method of acquiring a contact position using an object instead of a transparent object.

また本発明は、本実施形態で説明したゲーム以外にも種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、携帯型ゲーム装置、多数のプレーヤが参加する大型アトラクション、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成装置に適用できる。   Further, the present invention can be applied to various games other than the game described in the present embodiment. In addition, the present invention also provides various kinds of images such as a business game device, a home game device, a portable game device, a large attraction in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. Applicable to generators.

本実施形態の画像生成装置の外観図の例。The example of the external view of the image generation apparatus of this embodiment. 本実施形態の画像生成装置の機能ブロック図の例。The example of a functional block diagram of the image generation device of this embodiment. 図3(A)、図3(B)は本実施形態により生成される画像の例。3A and 3B show examples of images generated by this embodiment. 本実施形態の手法の原理を説明するための図。The figure for demonstrating the principle of the method of this embodiment. 本実施形態の手法を実現する具体的な処理を説明するための図。The figure for demonstrating the specific process which implement | achieves the method of this embodiment. 本実施形態の具体的な処理のフローチャート。The flowchart of the specific process of this embodiment. 図7(A)、図7(B)はキャラクタ移動手法の説明図。7A and 7B are explanatory diagrams of the character moving method. 図8(A)、図8(B)はキャラクタ移動手法の説明図。8A and 8B are explanatory diagrams of the character moving method. 図9(A)〜図9(D)はキャラクタ移動手法の説明図。9A to 9D are explanatory diagrams of the character moving method. 図10(A)、図10(B)は画像変化手法の説明図。10A and 10B are explanatory diagrams of the image change method. 図11(A)、図11(B)は画像変化手法の説明図。11A and 11B are explanatory diagrams of the image change method. 図12(A)、図12(B)は視点変化による画像変化手法の説明図。FIG. 12A and FIG. 12B are explanatory diagrams of an image change method based on a viewpoint change. 視点変化による画像変化手法の説明図。Explanatory drawing of the image change method by a viewpoint change. 視点変化による画像変化手法の説明図。Explanatory drawing of the image change method by a viewpoint change. 図15(A)、図15(B)は説明画像生成手法の説明図。FIG. 15A and FIG. 15B are explanatory diagrams of a description image generation method. 図16(A)、図16(B)は説明画像生成手法の説明図。FIGS. 16A and 16B are explanatory diagrams of an explanation image generation method. 説明画像生成手法の処理のフローチャート。The flowchart of the process of a description image generation method. 図18(A)、図18(B)はゲーム成績演算手法の説明図。18 (A) and 18 (B) are explanatory diagrams of the game result calculation method. ゲーム成績演算手法の処理のフローチャート。The flowchart of the process of a game results calculation method. 本実施形態のゲームシステムの構成例。The structural example of the game system of this embodiment. 図21(A)、図21(B)は通信処理手法の説明図。21A and 21B are explanatory diagrams of a communication processing method. 通信処理手法の処理のフローチャート。The flowchart of the process of a communication processing method. 図23(A)〜図23(F)は透明物体の種々の例。23A to 23F show various examples of transparent objects. 図24(A)、図24(B)は本実施形態のフィギュアへの適用例。FIG. 24A and FIG. 24B are application examples to the figure of this embodiment.

符号の説明Explanation of symbols

100 処理部、102 接触位置取得部、104 キャラクタ制御部、
106 ゲーム演算部、108 ゲーム成績演算部、110 通信処理部、
120 画像生成部、130 音生成部、
160 操作部、170 記憶部、171 接触位置記憶部、
172 キャラクタ情報記憶部、173 キャラクタ管理リスト、
174 キャラクタ移動情報記憶部、175 キャラクタ画像記憶部、
176 描画バッファ、177 第1の描画バッファ、178 第2の描画バッファ、
190 タッチパネルディスプレイ、191 ディスプレイ、192 音出力部、
194 補助記憶装置、196 通信部
100 processing unit, 102 contact position acquisition unit, 104 character control unit,
106 game calculation unit, 108 game result calculation unit, 110 communication processing unit,
120 image generators, 130 sound generators,
160 operation unit, 170 storage unit, 171 contact position storage unit,
172 character information storage unit, 173 character management list,
174 Character movement information storage unit, 175 character image storage unit,
176 drawing buffer, 177 first drawing buffer, 178 second drawing buffer,
190 touch panel display, 191 display, 192 sound output unit,
194 Auxiliary storage device, 196 communication unit

Claims (28)

タッチパネルディスプレイに表示される画像を生成する画像生成装置のためのプログラムであって、
前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部として、
コンピュータを機能させ、
前記キャラクタ制御部は、
前記タッチパネルディスプレイ及び前記透明物体を平面視した場合における前記透明物体の輪郭領域内に、前記透明物体を介して見える前記キャラクタの画像が表示されるように、そのサイズが設定された前記キャラクタを、前記接触位置に対応する前記表示領域に発生させる処理を行うことを特徴とするプログラム。
A program for an image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the transparent object when a contact event occurs in contact with the transparent object on the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
As an image generation unit that generates an image including the image of the character and displays the image on the touch panel display,
Make the computer work,
The character control unit
In the outline area of the transparent object when the touch panel display and the transparent object are viewed in plan, the character whose size is set so that the image of the character seen through the transparent object is displayed, The program which performs the process generated in the said display area corresponding to the said contact position.
請求項1において、
前記キャラクタ制御部は、
前記接触イベントが発生した場合に、前記タッチパネルディスプレイのメイン画面の画像上に前記キャラクタを発生させ、前記タッチパネルディスプレイから前記透明物体が離れる離隔イベントが発生した場合に、発生した前記キャラクタを非表示にする処理を行うことを特徴とするプログラム。
In claim 1,
The character control unit
When the touch event occurs, the character is generated on the image of the main screen of the touch panel display, and the generated character is hidden when a separation event occurs in which the transparent object is separated from the touch panel display. A program characterized by performing processing.
請求項1又は2において、
前記キャラクタ制御部は、
前記接触イベントが発生した後、所与のタイムラグ期間が経過した後に、前記表示領域に前記キャラクタを発生させる処理を行うことを特徴とするプログラム。
In claim 1 or 2,
The character control unit
A program for generating the character in the display area after a given time lag period has elapsed after the contact event has occurred.
請求項1乃至3のいずれかにおいて、
前記キャラクタ制御部は、
前記接触イベントが発生した場合に、前記接触位置から離れた場所に設定された前記表示領域に前記キャラクタを発生させ、前記キャラクタが発生した後、前記キャラクタを前記接触位置に向かって移動させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The character control unit
When the contact event occurs, the character is generated in the display area set at a location away from the contact position, and the character is moved toward the contact position after the character is generated. A program characterized by being performed.
請求項1乃至4のいずれかにおいて、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記接触位置が移動した場合に、移動する前記接触位置に追従するように、前記キャラクタを移動させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The character control unit
A program for performing a process of moving the character so as to follow the moving contact position when the contact position moves after the contact event occurs.
タッチパネルディスプレイに表示される画像を生成する画像生成装置のためのプログラムであって、
前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部として、
コンピュータを機能させ、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記接触位置が移動した場合に、移動する前記接触位置に追従するように、前記キャラクタを移動させる処理を行うことを特徴とするプログラム。
A program for an image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the transparent object when a contact event occurs in contact with the transparent object on the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
As an image generation unit that generates an image including the image of the character and displays the image on the touch panel display,
Make the computer work,
The character control unit
A program for performing a process of moving the character so as to follow the moving contact position when the contact position moves after the contact event occurs.
請求項5又は6において、
前記キャラクタ制御部は、
前記接触位置の移動距離よりも短い移動距離で、前記キャラクタを移動させる処理を行うことを特徴とするプログラム。
In claim 5 or 6,
The character control unit
The program which performs the process which moves the said character by the movement distance shorter than the movement distance of the said contact position.
請求項5乃至7のいずれかにおいて、
前記キャラクタ制御部は、
前記接触位置が移動するにつれて、前記キャラクタを非表示にする処理を行うことを特徴とするプログラム。
In any of claims 5 to 7,
The character control unit
The program which performs the process which hides the said character as the said contact position moves.
請求項1乃至8のいずれかにおいて、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記キャラクタの画像を変化させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 8.
The character control unit
A program for performing a process of changing an image of the character after the contact event occurs.
タッチパネルディスプレイに表示される画像を生成する画像生成装置のためのプログラムであって、
前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部として、
コンピュータを機能させ、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記キャラクタの画像を変化させる処理を行うことを特徴とするプログラム。
A program for an image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the transparent object when a contact event occurs in contact with the transparent object on the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
As an image generation unit that generates an image including the image of the character and displays the image on the touch panel display,
Make the computer work,
The character control unit
A program for performing a process of changing an image of the character after the contact event occurs.
請求項9又は10において、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記キャラクタのアニメーション処理を行うことを特徴とするプログラム。
In claim 9 or 10,
The character control unit
A program for performing animation processing of the character after the contact event has occurred.
請求項9乃至11のいずれかにおいて、
前記キャラクタ制御部は、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記キャラクタのサイズを徐々に大きくする処理を行うことを特徴とするプログラム。
In any of claims 9 to 11,
The character control unit
The character control unit
A program for gradually increasing the size of the character after the contact event has occurred.
請求項9乃至12のいずれかにおいて、
前記接触イベントが発生した後、前記キャラクタを、透明度の高い状態から透明度の低い状態に変化させる処理を行うことを特徴とするプログラム。
In any of claims 9 to 12,
A program for performing a process of changing the character from a high transparency state to a low transparency state after the contact event has occurred.
請求項9乃至13のいずれかにおいて、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記接触位置が移動した場合に、前記接触位置の移動に応じて前記キャラクタの画像を変化させる処理を行うことを特徴とするプログラム。
In any of claims 9 to 13,
The character control unit
A program for performing a process of changing an image of the character in accordance with movement of the contact position when the contact position moves after the contact event occurs.
請求項14において、
前記キャラクタは3次元オブジェクトにより構成され、
前記画像生成部は、
前記接触イベントが発生した後、前記接触位置が移動した場合に、前記接触位置の移動に応じて前記キャラクタを見る視点が変化する画像を生成することを特徴とするプログラム。
In claim 14,
The character is composed of a three-dimensional object,
The image generation unit
A program for generating an image in which a viewpoint for viewing the character changes according to movement of the contact position when the contact position moves after the contact event occurs.
請求項1乃至15のいずれかにおいて、
前記画像生成部は、
前記接触イベントが発生して、前記キャラクタが発生した場合に、前記キャラクタの説明画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 15,
The image generation unit
A program for generating an explanation image of the character when the character is generated when the contact event occurs.
タッチパネルディスプレイに表示される画像を生成する画像生成装置のためのプログラムであって、
前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部として、
コンピュータを機能させ、
前記画像生成部は、
前記接触イベントが発生して、前記キャラクタが発生した場合に、前記キャラクタの説明画像を生成することを特徴とするプログラム。
A program for an image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
As an image generation unit that generates an image including the image of the character and displays the image on the touch panel display,
Make the computer work,
The image generation unit
A program for generating an explanation image of the character when the character is generated when the contact event occurs.
請求項16又は17において、
画像生成装置が、前記タッチパネルディスプレイの他に第2のディスプレイを有し、
前記画像生成部は、
前記キャラクタが発生した場合に、前記キャラクタの前記説明画像を生成して、前記第2のディスプレイに表示することを特徴とするプログラム。
In claim 16 or 17,
The image generation apparatus has a second display in addition to the touch panel display,
The image generation unit
When the character is generated, the explanation image of the character is generated and displayed on the second display.
請求項1乃至18のいずれかにおいて、
プレーヤのゲーム成績を演算するゲーム成績演算部として、
コンピュータを機能させ、
前記ゲーム成績演算部は、
前記接触イベントが発生して、前記キャラクタが発生した後に、プレーヤが操作部を用いて所与の操作情報を入力した場合に、入力された操作情報に基づいてプレーヤのゲーム成績を演算することを特徴とするプログラム。
In any one of Claims 1 thru | or 18.
As a game score calculator that calculates the player's game score,
Make the computer work,
The game score calculation unit
When the player inputs given operation information using the operation unit after the contact event has occurred and the character has occurred, the game result of the player is calculated based on the input operation information. A featured program.
請求項1乃至19のいずれかにおいて、
他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部として、
コンピュータを機能させ、
前記キャラクタ制御部は、
前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記接触位置に対応する前記表示領域に前記他のプレーヤのキャラクタを発生させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 19.
As a communication processing unit that performs processing for receiving game play information of another player who plays a game on another image generation device via a network,
Make the computer work,
The character control unit
When the contact event occurs, processing for generating a character of the other player in the display area corresponding to the contact position is performed based on the received game play information of the other player. program.
タッチパネルディスプレイに表示される画像を生成する画像生成装置のためのプログラムであって、
前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、
他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部として、
コンピュータを機能させ、
前記キャラクタ制御部は、
前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記接触位置に対応する前記表示領域に前記他のプレーヤのキャラクタを発生させる処理を行うことを特徴とするプログラム。
A program for an image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
An image generation unit that generates an image including an image of the character and displays the image on the touch panel display;
As a communication processing unit that performs processing for receiving game play information of another player who plays a game on another image generation device via a network,
Make the computer work,
The character control unit
When the contact event occurs, processing for generating a character of the other player in the display area corresponding to the contact position is performed based on the received game play information of the other player. program.
請求項21において、
前記キャラクタ制御部は、
前記接触位置と前記他のプレーヤのキャラクタの位置とが一致した場合に、前記他のプレーヤのキャラクタを発生させる処理を行うことを特徴とするプログラム。
In claim 21,
The character control unit
A program for performing a process of generating a character of the other player when the contact position matches the character position of the other player.
請求項1乃至22のいずれかのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   A computer-readable information storage medium storing the program according to any one of claims 1 to 22. タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、
前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、
前記キャラクタ制御部は、
前記タッチパネルディスプレイ及び前記透明物体を平面視した場合における前記透明物体の輪郭領域内に、前記透明物体を介して見える前記キャラクタの画像が表示されるように、そのサイズが設定された前記キャラクタを、前記接触位置に対応する前記表示領域に発生させる処理を行うことを特徴とする画像生成装置。
An image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the transparent object when a contact event occurs in contact with the transparent object on the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
An image generating unit that generates an image including an image of the character and displays the image on the touch panel display;
The character control unit
In the outline area of the transparent object when the touch panel display and the transparent object are viewed in plan, the character whose size is set so that the image of the character seen through the transparent object is displayed, An image generating apparatus that performs processing to be generated in the display area corresponding to the contact position.
タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、
前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記接触位置が移動した場合に、移動する前記接触位置に追従するように、前記キャラクタを移動させる処理を行うことを特徴とする画像生成装置。
An image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the transparent object when a contact event occurs in contact with the transparent object on the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
An image generating unit that generates an image including an image of the character and displays the image on the touch panel display;
The character control unit
An image generating apparatus that performs a process of moving the character so as to follow the moving contact position when the contact position moves after the contact event occurs.
タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、
前記タッチパネルディスプレイに透明物体が接触する接触イベントが発生した場合に、前記透明物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、
前記キャラクタ制御部は、
前記接触イベントが発生した後、前記キャラクタの画像を変化させる処理を行うことを特徴とする画像生成装置。
An image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the transparent object when a contact event occurs in contact with the transparent object on the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
An image generating unit that generates an image including an image of the character and displays the image on the touch panel display;
The character control unit
An image generating apparatus that performs a process of changing an image of the character after the contact event occurs.
タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、
前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部とを含み、
前記画像生成部は、
前記接触イベントが発生して、前記キャラクタが発生した場合に、前記キャラクタの説明画像を生成することを特徴とする画像生成装置。
An image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
An image generating unit that generates an image including an image of the character and displays the image on the touch panel display;
The image generation unit
An image generating apparatus that generates an explanatory image of the character when the character is generated when the contact event occurs.
タッチパネルディスプレイに表示される画像を生成する画像生成装置であって、
前記タッチパネルディスプレイに物体が接触する接触イベントが発生した場合に、前記物体の接触位置を取得する接触位置取得部と、
前記接触イベントが発生した場合に、取得された前記接触位置に対応する表示領域にキャラクタを発生させる処理を行うキャラクタ制御部と、
前記キャラクタの画像を含む画像を生成して、前記タッチパネルディスプレイに表示する画像生成部と、
他の画像生成装置でゲームプレイする他のプレーヤのゲームプレイ情報をネットワークを介して受信する処理を行う通信処理部とを含み、
前記キャラクタ制御部は、
前記接触イベントが発生した場合に、受信した前記他のプレーヤのゲームプレイ情報に基づいて、前記接触位置に対応する前記表示領域に前記他のプレーヤのキャラクタを発生させる処理を行うことを特徴とする画像生成装置。
An image generation device that generates an image displayed on a touch panel display,
A contact position acquisition unit that acquires a contact position of the object when a contact event occurs in which the object contacts the touch panel display;
A character control unit that performs processing for generating a character in a display area corresponding to the acquired contact position when the contact event occurs;
An image generation unit that generates an image including an image of the character and displays the image on the touch panel display;
A communication processing unit that performs processing for receiving game play information of another player playing a game on another image generation device via a network,
The character control unit
When the contact event occurs, processing for generating a character of the other player in the display area corresponding to the contact position is performed based on the received game play information of the other player. Image generation device.
JP2007236694A 2007-09-12 2007-09-12 Program, information storage medium and image generator Pending JP2009066124A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007236694A JP2009066124A (en) 2007-09-12 2007-09-12 Program, information storage medium and image generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007236694A JP2009066124A (en) 2007-09-12 2007-09-12 Program, information storage medium and image generator

Publications (1)

Publication Number Publication Date
JP2009066124A true JP2009066124A (en) 2009-04-02

Family

ID=40603023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007236694A Pending JP2009066124A (en) 2007-09-12 2007-09-12 Program, information storage medium and image generator

Country Status (1)

Country Link
JP (1) JP2009066124A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010264164A (en) * 2009-05-18 2010-11-25 Square Enix Co Ltd Game device, program for game and information recording media

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010264164A (en) * 2009-05-18 2010-11-25 Square Enix Co Ltd Game device, program for game and information recording media

Similar Documents

Publication Publication Date Title
JP6306442B2 (en) Program and game system
JP6691351B2 (en) Program and game system
KR101659424B1 (en) Computer peripheral display and communication device providing an adjunct 3d user interface
US11738270B2 (en) Simulation system, processing method, and information storage medium
JP2009070076A (en) Program, information storage medium, and image generation device
Xu et al. Pre-patterns for designing embodied interactions in handheld augmented reality games
JP2015506032A (en) Augmented reality representation across multiple devices
JP2018109835A (en) Simulation system and its program
JP7367915B2 (en) Program, information processing method, and information processing device
Joselli et al. An architecture for game interaction using mobile
JP2019139424A (en) Simulation system and program
JP2020018745A (en) Game system and program
CN112494958B (en) Method, system, equipment and medium for converting words by voice
JP5479503B2 (en) Program, information storage medium, and image generation apparatus
CN112221135B (en) Picture display method, device, equipment and storage medium
JP6622832B2 (en) Program and game system
JP6419268B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019049987A (en) Information processing method, device, and program for causing computer to execute the method
JP2009066124A (en) Program, information storage medium and image generator
JP6826626B2 (en) Viewing program, viewing method, and viewing terminal
JP6722316B1 (en) Distribution program, distribution method, computer, and viewing terminal
JP2018171309A (en) Simulation system and program
JP7412613B1 (en) Information processing systems and programs
JP7412617B1 (en) Information processing systems and programs
JP7354466B1 (en) Information processing systems and programs