JPH06315552A - Game machine - Google Patents

Game machine

Info

Publication number
JPH06315552A
JPH06315552A JP5106967A JP10696793A JPH06315552A JP H06315552 A JPH06315552 A JP H06315552A JP 5106967 A JP5106967 A JP 5106967A JP 10696793 A JP10696793 A JP 10696793A JP H06315552 A JPH06315552 A JP H06315552A
Authority
JP
Japan
Prior art keywords
player
face
display
displayed
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5106967A
Other languages
Japanese (ja)
Inventor
Teruo Ohira
輝雄 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TAIHEI GIKEN KOGYO KK
Original Assignee
TAIHEI GIKEN KOGYO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TAIHEI GIKEN KOGYO KK filed Critical TAIHEI GIKEN KOGYO KK
Priority to JP5106967A priority Critical patent/JPH06315552A/en
Publication of JPH06315552A publication Critical patent/JPH06315552A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8029Fighting without shooting

Abstract

PURPOSE:To provide the game machine by which a player can set freely physiognomy of a game object. CONSTITUTION:In a ROM of the game machine 1, partial face image data for making a contour of each part of the face are stored in advance, and displayed successively on a display 17. When a player selects each partial face image by a sending switvh 15 and a selecting switch 16, a face image 18 is synthesized, based thereon. When the player strikes a hitting body 7, as for its hit, magnitude and a position are detected by each pressure sensitive sensor 10, 11a, 11b, 12, 13a and 13b. A CPU processes the partial face image for constituting the face image 18 in order to set it to a bruised state, based on a detection signal in accordance with a processing program. The face image being in the bruised state corresponding to the hit is displayed on the display 17.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は遊技場等に設置される遊
技機に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game machine installed in a game arcade or the like.

【0002】[0002]

【従来の技術】従来、遊技場等に設置される遊技機に
は、遊技者が遊技機を相手として腕相撲やボクシング等
を行って自分の腕力、技量を評価、比較して楽しむもの
がある。この種の遊技機としては例えば、腕相撲ゲーム
機(実開昭63−169187)やボクシングゲーム機
(特開平1−274780)が本出願人により提案され
ている。これらの遊技機はいずれも遊技者が遊技機に設
けられた腕や打撃バックを相手として予め用意された評
価基準により自分の力や技量を試すものである。さら
に、遊技機に設けられたディスプレーに予め用意された
仮想の対戦相手を映して、この対戦相手を遊技者の力や
動作に応じて動作させることにより遊技者の興味をかき
立てるようになっている。遊技者は対戦の結果をディス
プレー上に表示される映像によっても知ることができ
る。遊技者はこの対戦相手を見ながら遊技を行うことに
より対戦を楽しむとともにストレスを解消することがで
きるようになっている。
2. Description of the Related Art Conventionally, there is a game machine installed in a game arcade or the like, in which a player performs arm wrestling, boxing or the like against the game machine to evaluate and compare his or her own strength and skill. As this type of game machine, for example, an arm-wrestling game machine (Shokai 63-169187) and a boxing game machine (Japanese Patent Laid-Open No. 1-274780) have been proposed by the applicant. In each of these gaming machines, a player tests his or her strength and skill based on an evaluation standard prepared in advance against an arm provided on the gaming machine or a hitting back. Furthermore, a virtual opponent prepared in advance is displayed on a display provided on the gaming machine, and the opponent is operated according to the strength and movement of the player to arouse the interest of the player. . The player can also know the result of the battle from the image displayed on the display. By playing the game while watching this opponent, the player can enjoy the battle and can alleviate stress.

【0003】[0003]

【発明が解決しようとする課題】ところが、これらの遊
技機において遊技者はディスプレーに表示された予め用
意された対戦相手を相手として力又は技量を試し勝敗を
競うことだけしか行うことができなかった。従って、数
回使用するだけで飽きてしまい又ストレスを十分に解消
することはできなかった。
However, in these gaming machines, the player can only test the strength or skill against the opponent prepared in advance on the display and compete for victory or defeat. . Therefore, it was not possible to fully get rid of the stress and tiredness only by using it several times.

【0004】本発明は上記問題点を解決するためになさ
れたものであって、その目的は遊技者が自由に遊技対象
の人相を設定することができる遊技機を提供することに
ある。
The present invention has been made to solve the above problems, and an object thereof is to provide a gaming machine in which a player can freely set a human aspect of a game object.

【0005】[0005]

【課題を解決するための手段】本発明は上記問題点を解
決するため、遊技者が想定する対象者の顔面画像データ
を入力するための第1の入力手段と、前記第1の入力手
段から入力された顔面画像データに基づいた顔面画像が
表示される表示手段と、遊技者が操作を加えるための第
2の入力手段と、前記第2の入力手段に加えられた操作
に基づいて、前記表示手段に表示された顔面画像を画面
処理する画像処理手段とからなることをその要旨とす
る。
In order to solve the above problems, the present invention comprises a first input means for inputting facial image data of a target person assumed by a player, and the first input means. Based on display means for displaying a face image based on the input face image data, second input means for the player to perform an operation, and operation based on the operation applied to the second input means. The gist of the invention is that the image processing means screen-processes the face image displayed on the display means.

【0006】又、前記第1の入力手段は打撲対象となる
人の顔面画像データを入力するための入力手段であり、
前記第2の入力手段は遊技者により打撃が加えられる的
体と、該的体に加えられた打撃の大きさと位置を検出す
る検出手段とからなり、前記表示手段は前記入力手段に
より入力された顔面データに基づいて打撲対象となる人
の顔面画像が写し出されるディスプレーであり、前記画
像処理手段は前記検出手段が検出した力の大きさと位置
に応じた打撲状況を作るべく、前記ディスプレーに映し
出された人の顔面画像を画面処理することが好ましい。
Further, the first input means is an input means for inputting face image data of a person to be bruised,
The second input means is composed of a target object that is hit by the player, and detection means for detecting the size and position of the hit applied to the target object, and the display means is input by the input means. It is a display in which a facial image of a person to be bruised is projected based on the facial data, and the image processing means is projected on the display in order to create a bruising situation according to the magnitude and position of the force detected by the detecting means. It is preferable to screen-process the facial image of the person.

【0007】又、前記的体は人間の疑似頭部であるとよ
い。又、前記入力手段は顔面の部分の画像である複数の
予め用意された部分顔面画像データを記憶する記憶手段
と、該記憶手段に記憶される部分顔面画像データから遊
技者が打撲対象となる人の顔面に似た部分顔面データを
選択するための選択手段とからなることが好ましい。
The target body may be a human pseudo head. Further, the input means is a storage means for storing a plurality of pre-prepared partial facial image data which are images of a facial portion, and a person to be bruised by the player from the partial facial image data stored in the storage means. It is preferable that the image forming apparatus further comprises a selecting unit for selecting partial facial data similar to the facial image.

【0008】[0008]

【作用】従って、本発明によれば遊技者が想定する対象
者の顔面画像データを第1の入力手段により入力する
と、その顔面画像データに基づいた顔面画像が表示手段
に表示される。そして、遊技者が第2の入力手段に操作
を加えると、その操作に基づいて画像処理手段が顔面画
像を画面処理する。
Therefore, according to the present invention, when the face image data of the subject assumed by the player is input by the first input means, the face image based on the face image data is displayed on the display means. When the player operates the second input means, the image processing means screen-processes the face image based on the operation.

【0009】又、遊技者が想定する打撲対象となる人の
顔面画像データを入力手段により入力すると、その顔面
画像データに基づいた顔面画像がディスプレーに表示さ
れる。そして、遊技者が的体に打撃を加えると検出手段
が加えられた打撃の大きさと位置を検出する。すると画
像処理手段が検出手段が検出した打撃の大きさと位置と
に基づいてディスプレーに表示された顔面画像を画面処
理する。
Further, when the facial image data of the person who is supposed to be hit by the player is input by the input means, the facial image based on the facial image data is displayed on the display. Then, when the player hits the target, the detection means detects the size and position of the hit. Then, the image processing means screen-processes the face image displayed on the display based on the size and position of the hit detected by the detection means.

【0010】又、遊技者が想定する打撲対象となる人の
顔面画像データを入力手段により入力すると、その顔面
データに基づいた顔面画像がディスプレーに表示され
る。そして、遊技者が疑似頭部である的体に打撃を加え
ると検出手段が加えられた打撃の大きさと位置を検出す
る。すると画像処理手段が検出手段が検出した打撃の大
きさと位置とに基づいてディスプレーに表示された顔面
画像を画面処理する。
Further, when the facial image data of the person who is supposed to be bruised by the player is inputted by the input means, the facial image based on the facial data is displayed on the display. Then, when the player hits the target body which is the pseudo head, the detection means detects the size and position of the hit. Then, the image processing means screen-processes the face image displayed on the display based on the size and position of the hit detected by the detection means.

【0011】又、遊技者は予め用意されて記憶手段に記
憶される複数の部分顔面画像データの中から、打撲対象
となる人の顔面を合成するために必要な部分顔面画像デ
ータを選択手段により選択する。すると、選択された部
分顔面画像データにより合成される顔面画像がディスプ
レーに表示される。そして、遊技者が的体に打撃を加え
ると検出手段が加えられた打撃の大きさと位置を検出す
る。すると画像処理手段が検出手段が検出した打撃の大
きさと位置とに基づいてディスプレーに表示された顔面
画像を画面処理する。
Further, the player selects, from the plurality of partial face image data prepared in advance and stored in the storage means, the partial face image data necessary for synthesizing the face of the person to be bruised by the selecting means. select. Then, the face image combined with the selected partial face image data is displayed on the display. Then, when the player hits the target, the detection means detects the size and position of the hit. Then, the image processing means screen-processes the face image displayed on the display based on the size and position of the hit detected by the detection means.

【0012】[0012]

【実施例】以下、本発明を具体化した一実施例として遊
技機を図1〜図10に従って説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A gaming machine as an embodiment embodying the present invention will be described below with reference to FIGS.

【0013】図1に示すように、本発明の遊技機1の基
台2の前部には上面卓2aが設けられ、この上面卓2a
の中央部には収容穴2bが形成されている。この収容穴
2bの前方には回動ブロック3が図2に示すようにその
両側に固設された回動軸3aにより軸支され、同軸3a
を中心として後方に回動可能に設けられている。回動ブ
ロック3の上面には台座4が固設されている。台座4に
はコイルバネ5が固着されている。さらに、コイルバネ
5の上部には取付板6が固着されている。取付板6の上
面には的体としての打撃体7が固設されている。この打
撃体7は人間の頭部に似た形状に形成されている。そし
て、打撃体7の表皮の内側にはクッション材が配置され
ており、打撃の際に遊技者が手を傷めることがないよう
になっている。そして、回動ブロック3が回動軸3aを
中心として図示しない駆動機構により後方に回動する
と、図2に2点鎖線で示すように、打撃体7が前記収容
穴2bに収容されるようになっている。
As shown in FIG. 1, an upper table 2a is provided at the front of the base 2 of the gaming machine 1 of the present invention, and the upper table 2a is provided.
An accommodation hole 2b is formed in the central portion of the. In front of the accommodation hole 2b, a rotary block 3 is pivotally supported by rotary shafts 3a fixed on both sides thereof as shown in FIG.
Is provided so as to be rotatable rearward. A pedestal 4 is fixedly mounted on the upper surface of the rotating block 3. A coil spring 5 is fixed to the pedestal 4. Further, a mounting plate 6 is fixed to the upper part of the coil spring 5. A hitting body 7 as a target is fixedly mounted on the upper surface of the mounting plate 6. The hitting body 7 is formed in a shape similar to a human head. Then, a cushioning material is arranged inside the outer skin of the hitting body 7 so that the player is not injured when hitting. Then, when the rotating block 3 is rotated backward about the rotating shaft 3a by a drive mechanism (not shown), the impacting body 7 is housed in the housing hole 2b as shown by a two-dot chain line in FIG. Has become.

【0014】打撃体7の前面内部には検出手段としての
鼻部感圧センサ10、眼部感圧センサ11a,11b、
口部感圧センサ12、頬部感圧センサ13a,13bが
それぞれ配設されている。各感圧センサは打撃により与
えられた圧力を感知して出力する。
Inside the front surface of the striking body 7, a nose pressure sensor 10 and eye pressure sensors 11a and 11b as detecting means are provided.
The mouth pressure sensor 12 and the cheek pressure sensors 13a and 13b are provided, respectively. Each pressure-sensitive sensor detects and outputs the pressure applied by the impact.

【0015】打撃体7は、図3に示すように、支柱8に
固定され、さらに支柱8を介して取付板6に支持固定さ
れている。支柱8の下端部は取付板6の下方に延出して
おり、その先端にはユニバーサルジョイント9が設けら
れている。ユニバーサルジョイント9の他端は、台座4
に固着されている。すなわち、打撃体7は台座4に対し
て全方向に傾斜することができ、コイルバネ5により原
位置に復帰するようになってる。
As shown in FIG. 3, the striking body 7 is fixed to a supporting column 8 and further supported and fixed to the mounting plate 6 via the supporting column 8. The lower end of the column 8 extends below the mounting plate 6, and a universal joint 9 is provided at the tip thereof. The other end of the universal joint 9 has a base 4
Is stuck to. That is, the hitting body 7 can be tilted in all directions with respect to the pedestal 4, and is returned to the original position by the coil spring 5.

【0016】図1に示すように、上面卓2aの前部には
遊技者がコインを入れるコインシュータ14が設けら
れ、コインシュータ14の内部には所定の金額によりオ
ンするコインシュータスイッチ14a(図4参照)が設
けられている。さらに、選択手段としての送りスイッチ
15及び選択スイッチ16が配設されている。
As shown in FIG. 1, a coin shooter 14 into which a player inserts coins is provided in the front part of the top table 2a, and a coin shooter switch 14a (FIG. 4) is provided. Further, a feed switch 15 and a selection switch 16 as selection means are provided.

【0017】又、図1に示すように、基台2の後方には
垂直部2cが設けられており、この垂直部2c前面中央
部にはディスプレー17が設けられている。このディス
プレー17には顔面画像18及びメッセージ19が表示
される。さらに、基台2の内部には画像処理手段として
のマイクロコンピュータCが配置されている。
As shown in FIG. 1, a vertical portion 2c is provided behind the base 2, and a display 17 is provided at the center of the front surface of the vertical portion 2c. A face image 18 and a message 19 are displayed on the display 17. Further, inside the base 2, a microcomputer C as an image processing means is arranged.

【0018】次に、遊技機1の電気的構成を図4に従っ
て説明する。コインシュータスイッチ14aは所定のコ
インが投入されるとオン信号をマイクロコンピュータC
のCPU20に出力する。送りスイッチ15及び選択ス
イッチ16は遊技者が押すとオン信号をそれぞれCPU
20に出力する。又、鼻部感圧センサ10、眼部感圧セ
ンサ11a,11b、口部感圧センサ12、頬部感圧セ
ンサ13a,13bは打撃体7に加えられる打撃を感知
して、その打撃の大きさに応じた検出信号をA/D変換
器21a〜21fを介してそれぞれマイクロコンピュー
タCのCPU20に出力する。
Next, the electrical construction of the gaming machine 1 will be described with reference to FIG. The coin shooter switch 14a sends an ON signal to the microcomputer C when a predetermined coin is inserted.
To the CPU 20. When the player pushes the feed switch 15 and the selection switch 16, an ON signal is sent to each CPU.
Output to 20. In addition, the nose pressure sensor 10, the eye pressure sensors 11a and 11b, the mouth pressure sensor 12, and the cheek pressure sensors 13a and 13b sense the impact applied to the impact body 7 and determine the magnitude of the impact. A detection signal corresponding to the output is output to the CPU 20 of the microcomputer C via the A / D converters 21a to 21f.

【0019】CPU20には記憶手段としてのROM2
2が接続されている。ROM22は遊技機1の制御プロ
グラム(遊技時間を含む)を記憶する。又、ROM22
はディスプレー17に表示される顔面画像18の顔、
眼、眉毛、鼻、唇、髪等の顔面部分を表す部分顔面画像
を作るための部分顔面画像データを記憶する。図5
(a)〜(c),図6(a)〜(c)に示すように、こ
の部分顔面画像データはそれぞれの顔面部分のデータが
複数個用意され、それぞれ部分顔面画像データ群を構成
している。
The CPU 20 has a ROM 2 as a storage means.
2 is connected. The ROM 22 stores a control program of the gaming machine 1 (including a game time). Also, ROM22
Is the face of the facial image 18 displayed on the display 17,
Partial facial image data for creating partial facial images representing facial parts such as eyes, eyebrows, nose, lips, and hair is stored. Figure 5
As shown in (a) to (c) and FIGS. 6 (a) to (c), this partial facial image data is prepared by preparing a plurality of data of each facial portion, and forming respective partial facial image data groups. There is.

【0020】すなわち、ROM22には図5(a)に示
すように3種類の顔の輪郭18aのデータ、図5(b)
に示すように4種類の眼の輪郭のデータ、図5(c)に
示すように4種類の眉毛の輪郭18cのデータが記憶さ
れている。又、図6(a)に示すように3種類の鼻の輪
郭18dのデータ、図6(b)に示すように3種類の唇
の輪郭18eのデータ、図6(c)に示すように3種類
の髪の輪郭18fのデータがそれぞれ記憶されている。
さらに、ROM22はそれぞれの部分顔面画像データに
基づいて打撃を受けた状態の部分顔面画像を作るための
演算プログラムを記憶する。又、ROM22は遊技者に
対するメッセージ19及び部分顔面画像の名称である
「OUTLINE」、「EYE」等の部分顔面名称を記
憶する。
That is, as shown in FIG. 5A, the ROM 22 stores data of three types of facial contours 18a, and FIG.
Data of four types of eye contours are stored as shown in FIG. 5, and data of four types of eyebrow outlines 18c are stored as shown in FIG. Further, as shown in FIG. 6A, data of three kinds of nose contours 18d, data of three kinds of lip contours 18e as shown in FIG. 6B, and three data as shown in FIG. 6C. Data of each type of hair contour 18f is stored.
Further, the ROM 22 stores a calculation program for creating a partial face image in a hit state based on each partial face image data. The ROM 22 also stores the message 19 to the player and the partial face names such as "OUTLINE" and "EYE" which are the names of the partial face images.

【0021】又、CPU20にはRAM23が接続され
ている。このRAM23は遊技者がそれぞれの部分顔面
画像データ群から選択した部分顔面画像データを一時的
に記憶する。又、演算プログラムにより処理された打撃
を受けた状態の部分顔面画像データを記憶する。
A RAM 23 is connected to the CPU 20. This RAM 23 temporarily stores the partial facial image data selected by the player from each partial facial image data group. Further, the partial face image data in the state of being hit, which is processed by the arithmetic program, is stored.

【0022】一方、CPU20の出力側にはディスプレ
ー駆動回路24を介してディスプレー17が接続され、
又、モータ駆動回路25を介して打撃体7を固設した回
動ブロック3を回動する回動用モータ26が接続されて
いる。そして、CPU20はディスプレー駆動回路24
を介してディスプレー17を駆動する。又、CPU20
はモータ駆動回路25を介して回動用モータ26を駆動
する。
On the other hand, the display 17 is connected to the output side of the CPU 20 through a display drive circuit 24.
Further, a rotation motor 26 for rotating the rotation block 3 having the impacting body 7 fixed thereto is connected via a motor drive circuit 25. Then, the CPU 20 uses the display drive circuit 24.
The display 17 is driven via. Also, the CPU 20
Drives a rotating motor 26 via a motor drive circuit 25.

【0023】CPU20はROM22に記憶された制御
プログラムに基づいて、ディスプレー17にメッセージ
19、部分顔面名称及び顔面画像18を表示する。すな
わち、送りスイッチ15及び選択スイッチ16の操作に
基づいて各輪郭18a〜18fの部分顔面画像データを
順次入れ換える。そして、例えば3種類の顔の輪郭18
aから1つを選択すると、次の例えば4種類の眼の輪郭
18bの部分顔面画像を順次表示する。選択された各輪
郭18a〜18fの部分顔面画像はRAM23に記憶さ
れる。そして、選択した各輪郭18a〜18fの部分顔
面画像データを合成して1つの顔面画像18をディスプ
レー17上で作り上げる。
The CPU 20 displays the message 19, the partial face name and the face image 18 on the display 17 based on the control program stored in the ROM 22. That is, the partial face image data of the contours 18a to 18f are sequentially replaced based on the operation of the feed switch 15 and the selection switch 16. Then, for example, three types of face contours 18
When one is selected from a, the following partial facial images of, for example, four types of eye contours 18b are sequentially displayed. The partial facial images of the selected contours 18a to 18f are stored in the RAM 23. Then, the partial face image data of the selected contours 18 a to 18 f are combined to create one face image 18 on the display 17.

【0024】又、CPU20は鼻部感圧センサ10、眼
部感圧センサ11a,11b、口部感圧センサ12、頬
部感圧センサ13a,13bの検出信号に基づいて、R
AM23に記憶された部分顔面画像データを処理する。
この演算プログラムはそれぞれの感圧センサ10,11
a,11b,12,13a,13bの検出レベルに応じ
て、対応する輪郭18a〜18fの部分顔面画像をレベ
ルに応じた打撲状態とするようになっている。すなわ
ち、前記の合成して作った顔面画像18を打撲状態の顔
面画像18にしてディスプレー17上に表示する。
Further, the CPU 20 detects the R based on the detection signals of the nose pressure sensor 10, the eye pressure sensors 11a and 11b, the mouth pressure sensor 12, and the cheek pressure sensors 13a and 13b.
The partial facial image data stored in the AM 23 is processed.
This calculation program is used for the pressure sensitive sensors 10 and 11 respectively.
Depending on the detection level of a, 11b, 12, 13a, 13b, the partial facial images of the corresponding contours 18a to 18f are brought into a bruised state according to the level. That is, the face image 18 created by the above synthesis is displayed as a face image 18 in a bruised state on the display 17.

【0025】又、CPU20は制御プログラムに基づい
て、遊技の開始時に回動用モータ26を駆動して打撃体
7を直立させる。そして、遊技の終了時には回動用モー
タ26を駆動して打撃体7を原位置に復帰させる。
Further, the CPU 20 drives the turning motor 26 at the start of the game to make the hitting body 7 stand upright based on the control program. Then, at the end of the game, the rotation motor 26 is driven to return the hitting body 7 to the original position.

【0026】次に、上記のように構成された遊技機の作
用について説明する。コインシュータ14に所定の金額
のコインが投入されるとコインシュータスイッチ14a
が作動してオン信号をマイクロコンピュータCに出力す
る。CPU20はオン信号に基づいてROM22に記憶
された制御プログラムを実行する。先ずCPU20はR
OM22に記憶される複数の部分顔面画像データ群から
顔の輪郭18aをつくるために部分顔面画像データ群を
読み出す。そして、図7(a)に示すように、ディスプ
レー17に順次顔の輪郭18aを表す部分顔面画像とし
て表示する。この部分顔面画像は顔面の部分毎にディス
プレー17の対応する位置に表示される。同時に、CP
U20は表示された部分顔面画像の上部にその部分顔面
名称、例えば「OUTLINE」を表示する。又、CP
U20は表示された部分顔面名称の上部に例えば「SE
LECT?OK?」というメッセージを表示する。
Next, the operation of the gaming machine configured as described above will be described. When a predetermined amount of coins are inserted into the coin shooter 14, the coin shooter switch 14a
Operates to output an ON signal to the microcomputer C. The CPU 20 executes the control program stored in the ROM 22 based on the ON signal. First, the CPU 20
The partial facial image data group is read in order to form the contour 18a of the face from the plural partial facial image data groups stored in the OM 22. Then, as shown in FIG. 7A, the images are sequentially displayed on the display 17 as partial facial images showing the outline 18a of the face. This partial facial image is displayed at the corresponding position on the display 17 for each facial portion. At the same time, CP
U20 displays the partial face name, for example, "OUTLINE", on the displayed partial facial image. Also, CP
U20 is, for example, “SE
LECT? OK? Message is displayed.

【0027】遊技者は希望する人に似た顔の輪郭18a
の部分顔面画像が表示された場合、選択スイッチ16を
オンする。すると、ディスプレー17に表示されている
顔の輪郭18aの部分顔面画像が表示され続ける。又、
表示された顔の輪郭18aが似ていないと判断した場合
は送りスイッチ15をオンする。すると、別の顔の輪郭
18aの部分顔面画像データが取り出されて、ディスプ
レー17にその部分顔面画像データによる顔の輪郭18
aが表示される。遊技者は再び新たに表示された部分断
面画像の取捨選択を行う。
The player has a facial contour 18a similar to the desired person.
When the partial facial image of is displayed, the selection switch 16 is turned on. Then, the partial facial image of the contour 18a of the face displayed on the display 17 continues to be displayed. or,
When it is determined that the displayed face contours 18a are not similar, the feed switch 15 is turned on. Then, the partial facial image data of another facial contour 18a is extracted and displayed on the display 17 by the partial facial image data 18a.
a is displayed. The player again selects the newly displayed partial cross-sectional image.

【0028】顔の輪郭18aの部分顔面画像データが選
択されると、CPU20はROM22から眼の輪郭18
bの部分顔面画像データ群を読み出す。そして、読み出
した部分顔面画像データ群から順に部分顔面画像データ
を取り出し、図7(b)に示すように、ディスプレー1
7に順次眼の輪郭18bを表す部分顔面画像として表示
する。この部分顔面画像は既に表示されている顔の輪郭
18aの眼の位置に表示される。同時に、CPU20は
顔の輪郭18aの上部にその部分顔面名称である「EY
E」を表示する。又、CPU20は表示された部分顔面
名称「EYE」の上部に「SELECT?OK?」のメ
ッセージを表示する。
When the partial facial image data of the contour 18a of the face is selected, the CPU 20 reads the contour 18 of the eye from the ROM 22.
The partial facial image data group of b is read. Then, the partial facial image data is sequentially taken out from the read partial facial image data group, and as shown in FIG.
7 are sequentially displayed as partial facial images showing the outline 18b of the eye. This partial facial image is displayed at the position of the eyes of the contour 18a of the face that has already been displayed. At the same time, the CPU 20 adds the partial face name "EY" to the upper portion of the face outline 18a.
"E" is displayed. Further, the CPU 20 displays a message "SELECT? OK?" Above the displayed partial face name "EYE".

【0029】遊技者は希望する人に似た眼の輪郭18b
の部分顔面画像が表示された場合、選択スイッチ16を
オンする。するとディスプレー17に表示されている眼
の輪郭18bが表示され続ける。又、表示された眼の輪
郭18bが似ていないと判断した場合は送りスイッチ1
5をオンする。すると別の眼の輪郭18bの部分顔面画
像データが取り出されて、ディスプレー17にその部分
顔面画像データによる眼の輪郭18bが表示される。遊
技者は再び新たに表示された部分顔面画像の取捨選択を
行う。
The player has an eye contour 18b similar to the desired person.
When the partial facial image of is displayed, the selection switch 16 is turned on. Then, the outline 18b of the eye displayed on the display 17 continues to be displayed. When it is determined that the displayed eye contours 18b are not similar, the feed switch 1
Turn on 5. Then, the partial facial image data of another contour 18b of the eye is taken out, and the contour 18b of the eye based on the partial facial image data is displayed on the display 17. The player again selects the newly displayed partial facial image.

【0030】同様にして、例えばCPU20はROM2
2から唇の輪郭18cの部分顔面画像データ群を読み出
す。そして、読み出した部分顔面画像データ群から順に
部分顔面画像データを取り出し、図8(a)に示すよう
に、ディスプレー17に順次唇の輪郭18cを表す部分
顔面画像として表示する。遊技者は表示される唇の輪郭
18cの中から希望する人に似た唇の輪郭18cを選択
する。
Similarly, for example, the CPU 20 has the ROM 2
The partial facial image data group of the lip contour 18c is read out from 2. Then, the partial facial image data is sequentially taken out from the read partial facial image data group, and as shown in FIG. 8A, the partial facial image data sequentially displaying the lip contour 18c is displayed on the display 17. The player selects a lip outline 18c similar to a desired person from the displayed lip outlines 18c.

【0031】こうして遊技者は次々と表示される顔面各
部の輪郭を選択していくことにより、最終的にディスプ
レー17に希望する人の顔面画像18を合成する。する
と、CPU20は、図8(b)に示すように、全ての部
分顔面画像データ群からの選択が終了するとCPU20
は顔面の合成が終了したと判断して、ディスプレー17
に合成された顔面画像18の上部にメッセージ19例え
ば「START!」の表示を行う。
In this way, the player selects the contours of the face portions that are displayed one after another, thereby finally synthesizing the face image 18 of the desired person on the display 17. Then, as shown in FIG. 8B, the CPU 20 finishes the selection from all the partial facial image data groups, and then the CPU 20
Decides that the face synthesis is complete and displays 17
The message 19 such as "START!"

【0032】そして、CPU20はモータ駆動回路25
を介して回動用モータ26を駆動し回動ブロック3を回
動して打撃体7を直立させる。遊技者は自分が打撃しよ
うとする希望する人の顔をディスプレー17上に合成し
終わると同時に打撃体7が遊技者に向かって起き上がっ
てくるため、闘争心がかき立てられる。
The CPU 20 has a motor drive circuit 25.
The rotation motor 26 is driven via the to rotate the rotation block 3 to erect the hitting body 7. Since the player finishes synthesizing the face of the person who wants to hit on the display 17 at the same time, the hitting body 7 rises up toward the player, so that the player is agitated.

【0033】遊技者は直立した打撃体7に対してディス
プレー17に合成した希望する人の顔面を想定して打撃
を加える。遊技者により打撃体7に加えられた打撃は各
感圧センサ10,11a,11b,12,13a,13
bによりその大きさと位置が検出される。各感圧センサ
10,11a,11b,12,13a,13bは検出し
た打撃に応じた検出信号をA/D変換器21a〜21f
に出力する。A/D変換器21a〜21fは検出信号を
デジタル信号に変換してCPU20に出力する。
The player hits the standing hitting body 7 by assuming the face of the desired person combined with the display 17 and hitting it. The hit given to the hitting body 7 by the player is the pressure-sensitive sensor 10, 11a, 11b, 12, 13a, 13
Its size and position are detected by b. Each of the pressure-sensitive sensors 10, 11a, 11b, 12, 13a, 13b outputs a detection signal corresponding to the detected impact to the A / D converters 21a-21f.
Output to. The A / D converters 21a to 21f convert the detection signal into a digital signal and output it to the CPU 20.

【0034】例えば遊技者が打撃体7の右眼部分に打撃
を加えると眼部感圧センサ11aが圧力を感知して打撃
の強さに応じた検出信号をA/D変換器21bを介して
CPU20に出力する。CPU20は処理プログラムに
従って、検出信号のレベルに応じて顔面画像18を構成
する右眼部分の部分顔面画像を打撲状態とすべく処理す
る。すると、ディスプレー17には、図9(a)に示す
ように、遊技者が打撃体7の右眼部分に与えた打撃に応
じた右眼部分となった打撲状況としての顔面画像18A
が表示される。
For example, when the player hits the right eye portion of the hitting body 7, the eye pressure sensor 11a senses the pressure and a detection signal corresponding to the strength of the hit is sent via the A / D converter 21b. Output to the CPU 20. According to the processing program, the CPU 20 processes the partial facial image of the right eye portion forming the facial image 18 according to the level of the detection signal so as to bring it into a bruised state. Then, on the display 17, as shown in FIG. 9A, a facial image 18A as a bruise situation in which the player has hit the right eye portion of the hitting body 7 with the right eye portion corresponding to the hit
Is displayed.

【0035】又、遊技者が打撃体7の鼻部分に打撃を加
えると眼部感圧センサ10が圧力を感知して打撃の強さ
に応じた検出信号をA/D変換器21aを介してCPU
20に出力する。CPU20は処理プログラムに従っ
て、検出信号のレベルに応じて顔面画像18を構成する
鼻部分の部分顔面画像を打撲状態とすべく処理する。す
ると、ディスプレー17には、図9(b)に示すよう
に、右眼部に加えて遊技者が打撃体7の鼻部分に与えた
打撃に応じた鼻部分となった打撲状況としての顔面画像
18Bが表示される。
When the player hits the nose portion of the hitting body 7, the eye pressure sensor 10 senses the pressure and a detection signal corresponding to the strength of the hitting is sent via the A / D converter 21a. CPU
Output to 20. In accordance with the processing program, the CPU 20 processes the partial facial image of the nose portion forming the facial image 18 according to the level of the detection signal so as to bring it into a bruised state. Then, on the display 17, as shown in FIG. 9B, a facial image as a bruise situation in which the nose portion corresponds to the hit given to the nose portion of the hitting body 7 by the player in addition to the right eye portion. 18B is displayed.

【0036】さらに、遊技者が打撃体7の左頬部分に打
撃を加えると頬部感圧センサ13bが圧力を感知して打
撃の強さに応じた検出信号をA/D変換器21fを介し
てCPU20に出力する。CPU20は処理プログラム
に従って、検出信号のレベルに応じて顔面画像18を構
成する左頬部分の部分顔面画像を打撲状態とすべく処理
する。すると、ディスプレー17には、図10(a)に
示すように、右眼及び鼻に加えて遊技者が打撃体7の左
頬部分に与えた打撃に応じた左頬部分となった打撲状態
としての顔面画像18Cが表示される。
Further, when the player hits the left cheek portion of the hitting body 7, the cheek pressure sensitive sensor 13b senses the pressure and a detection signal corresponding to the strength of the hit is sent via the A / D converter 21f. Output to the CPU 20. According to the processing program, the CPU 20 processes the partial facial image of the left cheek portion that constitutes the facial image 18 according to the level of the detection signal so as to bring it into a bruised state. Then, as shown in FIG. 10A, the display 17 shows a bruised state in which the player has left cheeks corresponding to the left cheeks of the striking body 7 in addition to the right eye and nose. The face image 18C of is displayed.

【0037】ついで、遊技者が打撃体7の口部分に打撃
を加えると口部感圧センサ12が圧力を感知して打撃の
強さに応じた検出信号をA/D変換器21dを介してC
PU20に出力する。CPU20は処理プログラムに従
って、検出信号のレベルに応じて顔面画像18を構成す
る口部分の部分顔面画像を打撲状態とすべく部分顔面画
像データを処理する。すると、ディスプレー17には、
図10(b)に示すように、右眼、鼻及び左頬に加えて
遊技者が打撃体7の口部分に与えた打撃に応じた口部と
なった打撲状況としての顔面画像18Dが表示される。
Then, when the player hits the mouth of the hitting body 7, the mouth pressure sensor 12 senses the pressure and a detection signal corresponding to the strength of the hit is sent via the A / D converter 21d. C
Output to PU20. According to the processing program, the CPU 20 processes the partial facial image data so as to bring the partial facial image of the mouth portion forming the facial image 18 into a bruised state according to the level of the detection signal. Then, on the display 17,
As shown in FIG. 10B, a face image 18D is displayed as a bruise situation in which the player has a mouth corresponding to the hit given to the mouth of the hitting body 7 in addition to the right eye, the nose and the left cheek. To be done.

【0038】そして、遊技開始からの所定の時間が経過
するとCPU20は回動用モータ20を駆動して打撃体
7を回動し、元の収容穴2bに収容する。そして、ディ
スプレー17には例えば「END」というメッセージの
表示がなされ一回の遊技が終了する。
After a lapse of a predetermined time from the start of the game, the CPU 20 drives the rotating motor 20 to rotate the hitting body 7 and stores it in the original housing hole 2b. Then, for example, a message "END" is displayed on the display 17, and one game ends.

【0039】以上詳述したように、本実施例の遊技機1
によれば、顔面の部分となる部分顔面画像がその部分ご
とに順次ディスプレー17に表示される。遊技者は順次
表示される部分顔面画像の中から希望する人の顔を合成
するために必要な部分顔面画像を選択する。そして、デ
ィスプレー17上に希望する人の顔を合成する。次に、
打撃体7を希望する人に見立てて殴打すると、ディスプ
レー17上に合成された顔面画像18には打撃体7が受
けた打撃に応じた打撲状態が形成される。
As described above in detail, the gaming machine 1 of this embodiment
According to the above, the partial facial image which becomes the facial portion is sequentially displayed on the display 17 for each portion. The player selects a partial facial image necessary for synthesizing a desired person's face from the partial facial images sequentially displayed. Then, the face of the desired person is synthesized on the display 17. next,
When the hitting body 7 is beaten like a person who desires it, a bruised state corresponding to the hit given to the hitting body 7 is formed in the face image 18 synthesized on the display 17.

【0040】従って、遊技者は自由に対戦相手を好みの
似顔に設定して遊技を行うことができる。そして、この
遊技を行うことにより、遊技者は主として人間関係にお
いて蓄積されたストレスを効果的に解消することができ
る。特に、腕力の弱い女性、社会的弱者、いじめにあっ
ている者等が、仮想の現実の中で相手に対する反撃を体
験することができるため、ストレスを解消して精神衛生
を良好に保つことができる。
Therefore, the player can freely play the game by setting the opponent as a favorite face. Then, by playing this game, the player can effectively eliminate the stress accumulated mainly in human relationships. In particular, women with weak physical strength, socially vulnerable people, people who are bullied, etc. can experience counterattack against the other party in a virtual reality, so stress can be relieved and good mental health can be maintained. it can.

【0041】又、人間の疑似頭部である打撃体7を殴打
することで、打撲状態の顔面画像18をリアルに体験す
ることができる。又、予め用意された顔面各部の輪郭1
8a〜18fを作る部分顔面画像データ群から似た部分
顔面画像を選択するだけで、容易に望む顔面画像18を
合成することができる。
Further, by striking the impacting body 7 which is a pseudo human head, the bruised face image 18 can be realistically experienced. In addition, the contours 1 of the face parts prepared in advance
The desired facial image 18 can be easily combined only by selecting a similar partial facial image from the partial facial image data group for making 8a to 18f.

【0042】又、現実に実行することができない暴力を
打撃体7を対象として一方的に実行し、ディスプレー1
7に表現した対象者の顔面の受けるダメージを見るとい
う体験をすることができる。従って、社会的に許される
暴力の限界を現実の社会関係の中で実行することなく体
験し知ることができるため、自己の暴力性を抑制するこ
とができる。
In addition, the violence that cannot be executed in reality is unilaterally executed for the striker 7 and the display 1
You can experience the damage shown on the subject's face expressed in 7. Therefore, it is possible to experience and know the limit of socially permissible violence without executing it in the actual social relationship, so that it is possible to suppress self violence.

【0043】尚、本発明は上記実施例に限定されるもの
ではなく、発明の趣旨を逸脱しない範囲で例えば次のよ
うに構成することもできる。 (1) 上記実施例では、第2の入力手段を打撃体7と
して、ディスプレー17に表示した顔面画像18に一方
的に打撲状態を作り出すようにした。しかし、本発明を
その他対戦ゲームに於いて実施してもよい。すなわち、
第2の入力手段を例えば腕相撲等の相手となる腕とし、
対戦に応じた表情をディスプレーの顔面画像に作り出す
ようにしてもよい。勿論、その他のゲーム機器に応用し
てもよい。
The present invention is not limited to the above embodiments, but may be configured as follows, for example, without departing from the spirit of the invention. (1) In the above embodiment, the second input means is the striking body 7, and the face image 18 displayed on the display 17 is unilaterally bruised. However, the present invention may be implemented in other competitive games. That is,
The second input means is, for example, an arm to be a partner of arm wrestling,
A facial expression according to the battle may be created on the face image of the display. Of course, it may be applied to other game machines.

【0044】(2) 上記実施例では、第2の入力手段
を打撃体7として遊技者が手で直接接触することにより
入力した。しかし、遊技者が声等により入力するように
し、入力した声に応じた表情を表示するようにしてもよ
い。
(2) In the above embodiment, the second input means is the striking body 7 and the player directly inputs it by hand. However, the player may input by voice or the like, and the facial expression according to the input voice may be displayed.

【0045】(3) 上記実施例では、第2の入力手段
である打撃体7に遊技者が打撃を与えることにより入力
した。しかし、打撃以外の直接接触により入力するよう
にし、その直接接触に応じた表情を表示するようにして
もよい。
(3) In the above embodiment, the player makes an input by hitting the hitting body 7 which is the second input means. However, the input may be made by direct contact other than hitting, and the facial expression according to the direct contact may be displayed.

【0046】(4) 上記実施例では、的体を人間の疑
似頭部に形成するとともにディスプレー17に顔面画像
18を表示して遊技を行った。しかし、的体を上半身又
は全身等としその顔面画像を表示手段により立体的に表
示するようにしてもよい。
(4) In the above embodiment, the target body is formed on the pseudo human head and the face image 18 is displayed on the display 17 to play the game. However, the target body may be the upper body or the whole body, and the face image thereof may be three-dimensionally displayed by the display means.

【0047】(5) 上記実施例では、的体を人間の疑
似頭部として遊技者が手を使って打撃を与えるようにし
たが、足、肘等他の部分により打撃を与えるようにして
もよい。さらに道具を使用して打撃を与えるようにして
もよい。
(5) In the above-mentioned embodiment, the player uses the hand as a pseudo human head to give a hit, but the hit may be given by other parts such as the foot and elbow. Good. Further, a tool may be used to give a hit.

【0048】(6) 上記実施例では、遊技者が殴打し
ようとする対象者を予め用意された部分顔面画像から選
択して対象者に似た顔面画像18を合成するようにし
た。しかし、対象者の写真や似顔絵を入力し、その入力
したデータに基づいて顔面画像18をディスプレー17
に表示するようにしてもよい。
(6) In the above embodiment, the player selects the target person to be beaten from the partial facial image prepared in advance and synthesizes the facial image 18 similar to the target person. However, the photograph or portrait of the subject is input, and the facial image 18 is displayed 17 based on the input data.
May be displayed on the screen.

【0049】(7) 上記実施例では、的体に加えられ
る打撃の大きさと位置を検出するために、的体の複数の
位置に圧力センサ10,11a,11b,12,13
a,13bを設けた。しかし、打撃の大きさを的体内部
の圧力を検出する圧力センサにより測定したり、又、打
撃の位置を的体の打撃による傾きを検出するリミットス
イッチ等により測定する等、他の検出手段を用いるよう
にしても勿論よい。
(7) In the above embodiment, the pressure sensors 10, 11a, 11b, 12, 13 are provided at a plurality of positions on the target body in order to detect the size and position of the hit applied to the target body.
a and 13b are provided. However, other detection means, such as measuring the magnitude of the impact with a pressure sensor that detects the pressure inside the target body, or the position of the impact with a limit switch that detects the inclination of the target body due to the impact, etc. Of course, it may be used.

【0050】[0050]

【発明の効果】以上詳述したように本発明によれば、遊
技者が自由に遊技対象の人相を設定することができると
いう優れた効果を奏する。
As described above in detail, according to the present invention, the excellent effect that the player can freely set the human appearance of the game object is achieved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例としての遊技機を示す概略斜
視図である。
FIG. 1 is a schematic perspective view showing a gaming machine as one embodiment of the present invention.

【図2】打撃体が回動する状態を示す説明図である。FIG. 2 is an explanatory diagram showing a state in which a hitting body rotates.

【図3】打撃体が支持される状態を示す説明図である。FIG. 3 is an explanatory view showing a state in which a hitting body is supported.

【図4】電気的構成を示すブロック図である。FIG. 4 is a block diagram showing an electrical configuration.

【図5】(a)は顔の輪郭の部分顔面画像群であり、
(b)は眼の輪郭の部分顔面画像であり、(c)は眉毛
の輪郭の部分顔面画像群である。
FIG. 5A is a partial facial image group of a contour of a face,
(B) is a partial facial image of the outline of the eye, and (c) is a partial facial image group of the outline of the eyebrows.

【図6】(a)は鼻の輪郭の部分顔面画像群であり、
(b)は唇の輪郭の部分顔面画像であり、(c)は髪の
輪郭の部分顔面画像群である。
FIG. 6A is a partial facial image group of the contour of the nose,
(B) is a partial facial image of the contour of the lips, and (c) is a partial facial image group of the contour of the hair.

【図7】(a)は顔の輪郭が表示された状態を示すディ
スプレー画像であり、(b)はさらに眼の輪郭が表示さ
れた状態を示すディスプレー画像である。
7A is a display image showing a state in which a contour of a face is displayed, and FIG. 7B is a display image showing a state in which a contour of an eye is further displayed.

【図8】(a)は口の輪郭が表示された状態を示すディ
スプレー画像であり、(b)はさらに髪の輪郭が表示さ
れ顔が完成した状態を示すディスプレー画像である。
FIG. 8A is a display image showing a state where a contour of a mouth is displayed, and FIG. 8B is a display image showing a state where a contour of hair is further displayed and a face is completed.

【図9】(a)は右目部分がダメージを受けた状態を示
すディスプレー画像であり、(b)はさらに鼻部分がダ
メージを受けた状態を示すディスプレー画像である。
9A is a display image showing a state in which the right eye portion is damaged, and FIG. 9B is a display image showing a state in which the nose portion is further damaged.

【図10】(a)はさらに左頬部分がダメージを受けた
状態を示すディスプレー画像であり、(b)はさらに口
部分がダメージを受けるとともに遊技時間が終了した状
態を示すディスプレー画像である。
10A is a display image showing a state in which the left cheek portion is further damaged, and FIG. 10B is a display image showing a state in which the mouth portion is further damaged and the game time ends.

【符号の説明】[Explanation of symbols]

7…的体としての打撃体、10…検出手段としての鼻部
感圧センサ、11a,11b…検出手段としての眼部感
圧センサ、12…検出手段としての口部感圧センサ、1
3a,13b…検出手段としての頬部感圧センサ、15
…入力手段及び選択手段としての送りスイッチ、16…
入力手段及び選択手段としての選択スイッチ、17…表
示手段としてのディスプレー、18…顔面画像、18a
〜18f…顔面データとしての輪郭、18A〜18D…
打撲状況としての顔面画像、20…画像処理手段として
のCPU、21…画像処理手段及び記憶手段としてのR
OM、22…画像処理手段としてのRAM。
Reference numeral 7 ... Hitting body as a target body, 10 ... Nose pressure sensor as detecting means, 11a, 11b ... Eye pressure sensor as detecting means, 12 ... Oral pressure sensor as detecting means, 1
3a, 13b ... Cheek pressure-sensitive sensor as detecting means, 15
... Feed switch as input means and selection means, 16 ...
Selection switches as input means and selection means, 17 ... Display as display means, 18 ... Face image, 18a
-18f ... outline as face data, 18A-18D ...
Facial image as bruised situation, 20 ... CPU as image processing means, 21 ... R as image processing means and storage means
OM, 22 ... RAM as image processing means.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 遊技者が想定する顔面画像データ(18
a〜18f)を適宜選択して入力するための第1の入力
手段(15,16)と、 前記第1の入力手段(15,16)から入力された顔面
画像データ(18a〜18f)に基づいた顔面画像(1
8)が表示される表示手段(17)と、 遊技者が遊技のために操作する第2の入力手段(7,1
0,11a,11b,12,13a,13b)と、 前記第2の入力手段(7,10,11a,11b,1
2,13a,13b)の操作に基づいて、前記表示手段
(17)に表示された顔面画像(18)を画面処理する
画像処理手段(20,21,22,23)とからなるこ
とを特徴とする遊技機。
1. A face image data (18) assumed by a player.
a to 18f) are appropriately selected based on first input means (15, 16) and face image data (18a to 18f) input from the first input means (15, 16). Face image (1
Display means (17) for displaying 8) and second input means (7, 1) operated by the player for the purpose of playing the game.
0, 11a, 11b, 12, 13a, 13b) and the second input means (7, 10, 11a, 11b, 1)
2, 13a, 13b), and image processing means (20, 21, 22, 23) for screen-processing the face image (18) displayed on the display means (17). A gaming machine to do.
【請求項2】 前記第1の入力手段(15,16)は打
撲対象となる人の顔面画像データ(18a〜18f)を
入力するための入力手段(15,16)であり、 前記第2の入力手段(7,10,11a,11b,1
2,13a,13b)は遊技者により打撃が加えられる
的体(7)と、該的体(7)に加えられた打撃の大きさ
と位置を検出する検出手段(10,11a,11b,1
2,13a,13b)とからなり、 前記表示手段(17)は前記入力手段(15,16)に
より入力された顔面データ(18a〜18f)に基づい
て打撲対象となる人の顔面画像(18)が写し出される
ディスプレー(17)であり、 前記画像処理手段(20,21,22,23)は前記検
出手段(10,11a,11b,12,13a,13
b)が検出した力の大きさと位置に応じた打撲状況(1
8A〜18D)を作るべく、前記ディスプレー(17)
に映し出された人の顔面画像(18)を画面処理するこ
とを特徴とする請求項1に記載の遊技機。
2. The first input means (15, 16) is an input means (15, 16) for inputting facial image data (18a-18f) of a person to be bruised, and the second input means (15, 16). Input means (7, 10, 11a, 11b, 1
2, 13a, 13b) are target bodies (7) to which the player gives a hit, and detection means (10, 11a, 11b, 1) for detecting the size and position of the hit given to the target (7).
2, 13a, 13b), and the display means (17) is based on the face data (18a-18f) input by the input means (15, 16), and a face image (18) of a person to be bruised. The image processing means (20, 21, 22, 23) includes the detection means (10, 11a, 11b, 12, 13a, 13).
bruise condition (1) according to the magnitude and position of the force detected by b)
8A-18D), the display (17)
The game machine according to claim 1, wherein the face image (18) of the person displayed on the screen is processed.
【請求項3】 前記的体(7)は人間の疑似頭部である
ことを特徴とする請求項2に記載の遊技機。
3. The gaming machine according to claim 2, wherein the target body (7) is a pseudo human head.
【請求項4】 前記入力手段は顔面の各部分の画像であ
って、複数の予め用意された部分顔面データ(18a〜
18f)を記憶する記憶手段(21)と、 該記憶手段(21)に記憶される部分顔面データ(18
a〜18f)から遊技者が打撲対象となる人の顔面に似
た部分顔面データ(18a〜18f)を選択するための
選択手段(15,16)とからなることを特徴とする請
求項2に記載の遊技機。
4. The input means is an image of each part of the face, and comprises a plurality of previously prepared partial face data (18a ...
Storage means (21) for storing 18f), and partial facial data (18) stored in the storage means (21).
The selection means (15, 16) for selecting partial facial data (18a-18f) similar to the face of a person to be bruised by the player from (a-18f). The game machine described.
JP5106967A 1993-05-07 1993-05-07 Game machine Pending JPH06315552A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5106967A JPH06315552A (en) 1993-05-07 1993-05-07 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5106967A JPH06315552A (en) 1993-05-07 1993-05-07 Game machine

Publications (1)

Publication Number Publication Date
JPH06315552A true JPH06315552A (en) 1994-11-15

Family

ID=14447091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5106967A Pending JPH06315552A (en) 1993-05-07 1993-05-07 Game machine

Country Status (1)

Country Link
JP (1) JPH06315552A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124966A (en) * 2008-11-26 2010-06-10 Kyoraku Sangyo Kk Game machine
JP2010124972A (en) * 2008-11-26 2010-06-10 Kyoraku Sangyo Kk Game machine
JP2010124965A (en) * 2008-11-26 2010-06-10 Kyoraku Sangyo Kk Game machine
JP2010124962A (en) * 2008-11-26 2010-06-10 Kyoraku Sangyo Kk Game machine
JP2011528978A (en) * 2008-07-26 2011-12-01 ペレッター,マイケル,ジェー. System for sensing human movement and use of the system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011528978A (en) * 2008-07-26 2011-12-01 ペレッター,マイケル,ジェー. System for sensing human movement and use of the system
JP2010124966A (en) * 2008-11-26 2010-06-10 Kyoraku Sangyo Kk Game machine
JP2010124972A (en) * 2008-11-26 2010-06-10 Kyoraku Sangyo Kk Game machine
JP2010124965A (en) * 2008-11-26 2010-06-10 Kyoraku Sangyo Kk Game machine
JP2010124962A (en) * 2008-11-26 2010-06-10 Kyoraku Sangyo Kk Game machine

Similar Documents

Publication Publication Date Title
US7331856B1 (en) Game apparatus, input device used in game apparatus and storage medium
KR100858400B1 (en) Sensing ball game machine
KR100460619B1 (en) Game Apparatus and Game System
JP3422752B2 (en) VIDEO GAME DEVICE, NEW PRACTICE CREATION METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING NEW PRACTICE CREATION PROGRAM
JP3910656B2 (en) Motion determination apparatus and method
JP2003205051A (en) Exercise supporter
JP2003085591A (en) Motion data, game information, information recording medium, and game device
US20010016511A1 (en) Entertainment system, entertainment apparatus, recording medium, and program
JP3699415B2 (en) Character training program, character training method, and video game apparatus
JPH06315552A (en) Game machine
US7131907B2 (en) System and method for superimposing an image on another image in a video game
JP3053391B1 (en) Video game apparatus, video game play control method, and readable recording medium on which the method is recorded
JPH0722611B2 (en) Boxing game machine
JP4132501B2 (en) Game device
JP2001232061A (en) Game device and information storage medium
JP3736589B2 (en) Action determination device, action determination method, battle game machine, and medium in battle game machine
JP4085303B2 (en) Image display control device and program
JP3841658B2 (en) Game machine
JP2006192080A (en) Game machine, game method, control program, and readable recording medium
JP2001198356A (en) Game method, equipment and recording medium
JPH0884755A (en) Body function training apparatus
JP4753147B2 (en) Image processing apparatus and program
KR200189310Y1 (en) Virtual reality boxing game system
KR200323972Y1 (en) The boxing game machine
KR200192183Y1 (en) Electron dancing game machine combine with boxing prictice