JPH05111579A - Method for playing video game - Google Patents
Method for playing video gameInfo
- Publication number
- JPH05111579A JPH05111579A JP4027442A JP2744292A JPH05111579A JP H05111579 A JPH05111579 A JP H05111579A JP 4027442 A JP4027442 A JP 4027442A JP 2744292 A JP2744292 A JP 2744292A JP H05111579 A JPH05111579 A JP H05111579A
- Authority
- JP
- Japan
- Prior art keywords
- character
- voice
- operator
- video game
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/02—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
- G09B7/04—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/47—Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6063—Methods for processing data by generating or executing the game program for sound processing
- A63F2300/6072—Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/63—Methods for processing data by generating or executing the game program for controlling the execution of the game in time
- A63F2300/632—Methods for processing data by generating or executing the game program for controlling the execution of the game in time by branching, e.g. choosing one of several possible story developments at a given point in time
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、ゲームをする人すなわ
ち操作者である1人の人間と、異なる場所に設定された
異なる場面のビデオ・スクリーン上の2つの対話アニメ
・キャラクターとの間で音声対話を擬態するビデオゲー
ム方法に関する。例えば、1つのキャラクターは野生動
物達と野原におり、第2のキャラクターは屋内の制御室
にいる。BACKGROUND OF THE INVENTION The present invention relates to a person who is a person who plays a game, that is, an operator, and two interactive animated characters on a video screen of different scenes set in different places. The present invention relates to a video game method that mimics voice interaction. For example, one character is in the field with wild animals and a second character is in an indoor control room.
【0002】[0002]
【発明の、構成、作用、効果】1つの場面における1つ
のアニメ・キャラクターが他の異なる場面における第2
のキャラクターに話しかけ、後者がこれに応答すると
き、この2つの場面の動画が交互に現れ、両画面の動作
が同時に起こっているような錯覚を起こさせる。壁また
は同様な区画物をビデオ・スクリーンに表示してこの場
面の区別を強調してもよい。これらのキャラクターは、
異なる場面に空間的に隔てられているため、この例では
各自相対して話すことはできない。その代わり彼等は、
電話あるいは送受信ラジオのような音声伝達装置を通し
て、あるいは窓やドアや管のような壁の開口部分を通し
て、あるいは人間であるゲーム操作者のような媒介者を
通して対話しているように表示される。[Structure, Action, and Effect of the Invention] One anime character in one scene is second in another scene.
When the latter responds to this character, the video of these two scenes alternates, creating the illusion that both screen actions are occurring at the same time. A wall or similar parcel may be displayed on the video screen to emphasize the distinction of this scene. These characters are
Because they are spatially separated in different scenes, they cannot speak in this example. Instead, they
It is displayed as if it were interacting through a voice transmission device such as a telephone or radio transceiver, or through an opening in a wall such as a window, door or tube, or through an intermediary such as a human game operator.
【0003】操作者達は、1つのキャラクターが話す言
葉を直接制御することにより、またはスクリーン上のキ
ャラクター達と話す第3のスクリーン外のキャラクター
の役割を演じることにより間接的に場面間の対話に参加
することができる。各操作者は2以上の語句または動作
を表示する手持ち式制御器を持っている。操作者は選択
された語句または動作の隣にあるボタンを押すか、カー
ソルを移動させて応答する。すると、アニメ・キャラク
ターは人間の操作者または他のキャラクターの1つに話
しかけられたかのように行動するか、言語で応答する。
実際に会話する必要はない。このため、操作者はこれら
のキャラクターとの対話や冒険に現に参加しているとい
う錯覚を起こす。The operators indirectly engage in dialogue between scenes by directly controlling the words spoken by one character or by playing the role of a third off-screen character that speaks with the characters on the screen. You can participate. Each operator has a handheld controller that displays two or more words or actions. The operator responds by pressing a button or moving the cursor next to the selected phrase or action. The animated character then acts as if spoken to by a human operator or one of the other characters, or responds verbally.
You don't have to actually talk. This creates the illusion that the operator is actually participating in a dialogue or adventure with these characters.
【0004】平行モンタージュ付き対話ビデオゲーム
は、アニメ映画の特徴の幾つかを備えている。映画用語
では、望む効果を得るために数カットを連続して編集す
ることをモンタージュと言う。モンタージュには、数種
類ある。平行モンタージュは、同時性の錯覚を与えるめ
に2つのカットまたは場面を交互に交差させて編集する
ことである。例えば、追跡場面では、モンタージュは追
跡者と被追跡者のカットが交替する。異なる場面のキャ
ラクター達が電話あるいは送受信ラジオ、あるいはドア
を通して対話する場合、あるいは別の場面における他の
キャラクターが言うのを聞くか、実行することを見るか
して1人のキャラクターが別の場面のキャラクターに遠
隔的に支配される場合に、この同時性の錯覚は重要であ
る。例えば、1場面における1人のキャラクターが窓を
通して、またはテレビのモニター等で別のキャラクター
を見ていれば、別のキャラクターの言動に影響されるで
あろう。本発明では画像シーケンスが2つの全く異なる
場面の間を行きつ戻りつ現れ、両場面の動作が同時に起
こっているという錯覚を起こさせる。代わりに、分割ス
クリーンの配置で両場面を同時に表示してもよい。Interactive video games with parallel montage provide some of the features of animated movies. In cinematic terms, montage is the continuous editing of several cuts to get the desired effect. There are several types of montages. Parallel montage is the editing of two alternating cuts or scenes to give the illusion of concurrency. For example, in a chase scene, the montage alternates between the tracker and the tracked person. When characters in different scenes talk over the phone, receive and transmit radio, or through the door, or watch other characters in different scenes say or see what they do, one character in another scene This illusion of concurrency is important when the character is remotely controlled. For example, if one character in a scene is watching another character through a window or on a TV monitor, etc., the behavior of another character will be affected. In the present invention, the image sequence appears back and forth between two completely different scenes, creating the illusion that the motions of both scenes are occurring simultaneously. Alternatively, a split screen arrangement may be used to display both scenes simultaneously.
【0005】[0005]
【実施例】図1を参照するに、本発明の一実施例におい
て、ビデオゲームシステムは、1人以上のゲーム操作者
に対して、テレビまたはビデオのスクリーン上に1つの
動画化された画像シーケンスを表示する。各操作者は、
液晶表示器の隣に3つの押し釦を備えた手持ち式制御器
28を持つ。数秒間隔で択一的な単語、語句、文、また
は他の言語表現が制御器28に表示され、アニメ・キャ
ラクターに「言う」べき事柄を操作者に選択させるか、
キャラクター達が相互にまたは操作者に言うべき事柄を
選択させる。操作者の制御器に液晶表示器がない場合
は、同等の言語表現がテレビまたはビデオのスクリーン
に表示されるので、操作者は1つ以上の押し釦を押して
手動で選択する。アニメ・キャラクターが話す毎に、当
然その口は相応する音声と同時に唇をふさわしい形に動
かす。DESCRIPTION OF THE PREFERRED EMBODIMENT Referring to FIG. 1, in one embodiment of the present invention, a video game system provides one animated sequence of images on a television or video screen for one or more game operators. Is displayed. Each operator
Next to the liquid crystal display is a handheld controller 28 with three push buttons. Alternate words, phrases, sentences, or other linguistic expressions at intervals of a few seconds are displayed on the controller 28 to allow the operator to select what the anime character should say.
Let the characters choose what to say to each other or the operator. If the operator's controller does not have a liquid crystal display, the equivalent linguistic representation is displayed on the screen of the television or video, so the operator manually selects by pressing one or more pushbuttons. Each time an anime character speaks, the mouth naturally moves the lips in a suitable shape at the same time as the corresponding voice.
【0006】恐竜場面11が始まると、ビデオゲームシ
ステムは、2つのアニメ・キャラクター12,13と近
くの恐竜とを表示する。キャラクター12は、スクリー
ン外の、引き続き表示される別のタイム・マシーン場面
19における第3のキャラクター22に対して、手持ち
式ラジオ様装置31で話しかける。キャラクター12
は、「恐竜が僕達を見たぞ」という言葉10をラジオ様
装置31に言う。次に、制御器28は、キャラクター1
2が次に言うことのできる択一的な言葉の3つの選択文
15を操作者に表示する。操作者の手17は、「ビーム
で僕達を元の位置へ」という言葉を選択するために押し
釦16を押しているところを示す。ゲームシステムは、
そのときに選択された言葉をキャラクター12の音声1
4で発生する(例示のため、漫画の吹出しとして表示さ
れている)。When the dinosaur scene 11 begins, the video game system displays two animated characters 12, 13 and a nearby dinosaur. The character 12 speaks with a handheld radio-like device 31 to a third character 22 in another continuously displayed time machine scene 19, which is off screen. Character 12
Tells the radio-like device 31 the word 10 "A dinosaur saw us". Next, the controller 28 controls the character 1
2 displays to the operator three selection sentences 15 of alternative words that can be said next. The operator's hand 17 shows the push button 16 being pushed to select the word "return us to the original position with the beam". The game system is
The word selected at that time is the voice 1 of the character 12.
4 (displayed as a comic balloon for illustration purposes).
【0007】ゲームシステムは、次に場面19を表示す
るが、そこではキャラクター22が音声により、また時
間を経て恐竜場面のキャラクター12と交信することが
できるタイム・トラベル・マシーン32の運転者になっ
ている。キャラクター22は、ビデオ・モニター等でキ
ャラクター12および13を見ることができる。キャラ
クター22は、「もう一度僕達を照らしてくれ」という
言葉に対し、キャラクター22のものとはっきりわかる
声の音声18で応答する。そのとき制御器28は、キャ
ラクター22が次に言うことのできる、3つの新しい択
一的な文20を表示する。操作者は、釦を押すことによ
り「君達をわきへ移動させてもいいよ」という言葉を選
択する。次に、ゲームシステムは、この選択された言葉
を言うキャラクター22の音声21を発生する。The game system then displays the scene 19, where the character 22 becomes the driver of the time travel machine 32 who can communicate with the character 12 of the dinosaur scene by voice and over time. ing. The character 22 can see the characters 12 and 13 on a video monitor or the like. The character 22 responds to the word "illuminate us again" with a voice sound 18 clearly recognizable as that of the character 22. The controller 28 then displays three new alternative sentences 20, which the character 22 can say next. The operator selects the word "You may move aside" by pressing the button. The game system then produces the voice 21 of the character 22 saying the selected word.
【0008】図2を参照するに、表示は、キャラクター
12および13が深刻な危険にさらされてキャラクター
13がいつでも話せる状態にある恐竜の場面11に戻
る。制御器は、次に、キャラクター13が言うことので
きる3つの択一的な文23を表示する。操作者は「早く
僕達を移動させてくれ」という言葉を選択する。ゲーム
システムは、次にキャラクター13の音声24を発生す
る。Referring to FIG. 2, the display returns to scene 11 of a dinosaur in which characters 12 and 13 are at serious risk and character 13 is ready to speak. The controller then displays three alternative sentences 23 that the character 13 can say. The operator selects the word "move us fast". The game system then produces the voice 24 of the character 13.
【0009】図3を参照するに、ゲームシステムは今度
はタイム・マシーン場面19を再度表示するが、そこで
はキャラクター22が音声25で図2の要求に答える。
ゲームシステムは、次に、恐竜場面11に戻る。そこで
は、他の場面19におけるキャラクター22の動作の結
果、キャラクター12,13が消えたところであるか
ら、恐竜の顔に驚きの表情が表れる。Referring to FIG. 3, the game system now displays the time machine scene 19 again, where the character 22 responds with a voice 25 to the request of FIG.
The game system then returns to dinosaur scene 11. There, as a result of the action of the character 22 in the other scene 19, the characters 12, 13 have just disappeared, so a surprised expression appears on the face of the dinosaur.
【0010】異なる筋を例示する図4を参照するに、ゲ
ームシステムは3つの場面を連続して表示する。その中
で、人間の操作者17は、タイム・マシーン場面19の
キャラクター22とテント場面34のキャラクター12
との間の媒介者として行動する。このシーケンスの最初
の場面11では、キャラクター達は危険を察知し、キャ
ラクター13がタイム・マシーン場面19のキャラクタ
ー22に救助27を求め、場面19のキャラクター22
がそれに応答29している。次に、制御器28は、テン
ト場面34でキャラクター12が言う3つの択一的な文
を表示する。操作者17は「乗物など見えないよ」を選
択し、それからキャラクター12がそれを声の吹き出し
30のように話す。次に、ゲームシステムは、恐竜の場
面11を表示する。その中で、深刻な危険にさらされた
キャラクター13が、吹き出し33の言葉を話す。Referring to FIG. 4, which illustrates the different lines, the game system displays three scenes in succession. Among them, the human operator 17 is the character 22 of the time machine scene 19 and the character 12 of the tent scene 34.
Act as an intermediary between In scene 11 at the beginning of this sequence, the characters detect danger and character 13 seeks rescue 27 from character 22 in time machine scene 19 and character 22 in scene 19
Has responded to it 29. The controller 28 then displays the three alternative sentences the character 12 says in the tent scene 34. The operator 17 selects "I can't see a vehicle" and then the character 12 speaks it like a speech bubble 30. Next, the game system displays the dinosaur scene 11. Among them, the seriously endangered character 13 speaks the words of the speech bubble 33.
【0011】これらの例におけるキャラクター12,1
3,22は、操作者が制御する操作者制御キャラクター
である。1人,2人または3人の操作者が3つのアニメ
・キャラクターの役を演ずる。Characters 12, 1 in these examples
3 and 22 are operator control characters controlled by the operator. One, two or three operators play the role of three anime characters.
【0012】操作者が制御器28の釦16を押すとき、
ゲームシステムは、選択文を話す音声を発生してもよ
く、制御器28上に指定された動作をしてもよい。釦1
6は、アニメ・キャラクターの話した前言に対する擬態
の言語応答を選択し、制御器28上に示された前記選択
された擬態言語応答に相当する新しい択一的な文を含む
新対話シーケンスをも選択する。その結果として生じる
選択された対話シーケンスには、操作者の選択した口頭
による応答への返答となる言葉を話すアニメ・キャラク
ターの顔と声が含まれる。When the operator pushes the button 16 of the controller 28,
The gaming system may generate a voice that speaks the selected sentence and may perform the action specified on the controller 28. Button 1
6 selects a mimicking linguistic response to the preface spoken by the anime character, and also includes a new dialogue sequence shown on the controller 28 which includes a new alternative sentence corresponding to the selected mimicking linguistic response. select. The resulting selected dialogue sequence includes the face and voice of an anime character who speaks words in response to an operator-selected verbal response.
【0013】音声伝達装置を示す場合は、電話または送
受信ラジオまたは他の音声伝達装置をラジオ様の装置3
1の代用としてもよい。伝達装置を示す必要はない。2
以上の異なる場面におけるキャラクター同士の様々な会
話は、ドア、壁、屋根、床、車体等の空隙を通して話し
合うキャラクターにより行ってもよい。映像シーケンス
には壁その他の場面区画物を明示する必要はない。When referring to a voice transmitting device, a telephone or a transmitting / receiving radio or other voice transmitting device is a radio-like device 3
It may be substituted for 1. It is not necessary to show the transmission device. Two
Various conversations between the characters in the different scenes described above may be performed by the characters who talk through a space such as a door, a wall, a roof, a floor, and a vehicle body. It is not necessary to specify walls or other scene demarcations in the video sequence.
【0014】各アニメ・キャラクターは、動画化された
漫画、デジタル化されたライヴ・アクション、アナログ
・ライヴ・アクション、妖精等、またはそれらの合成さ
れた映像でもよく、操作者制御であってもなくてもよ
い。Each anime character may be an animated cartoon, a digitized live action, an analog live action, a fairy, etc., or a composite image thereof, and it is not controlled by an operator. May be.
【0015】ここで用いる「場面」なる語は、実質的に
同一の場所を示すビデオの映像シーケンスを意味する。
1場面の細部や背景部分は、同一の場面の状態で、スク
ロール、パン、スケール、回転、ズーム等の方法で変化
させてもよい。The term "scene" as used herein refers to a video sequence of video showing substantially the same location.
The details and the background portion of one scene may be changed by scrolling, panning, scaling, rotating, zooming or the like in the same scene.
【0016】時空旅行のストーリーは、ここでは一例と
してあげたにすぎず、平行モンタージュ場面を使用する
他のゲーム・ストーリーに置き換えてもよい。例えば、
追跡場面は、操作者が悪人を追って車を運転している善
人と話し、かつ電話ボックスから警察に電話している残
された別の善人とも話す警察電話場面と平行進行するこ
ともできる。警察の派遣者場面は、操作者がこの対話で
言うべき言葉を選択する電話ボックス場面と次に交替し
てもよい。警察の派遣者場面は、次に操作者が再び対話
のいくつかを選択するパトロール・カー場面と交替して
もよい。操作者は、スクリーン外の役を演じることによ
り、二つの平行な場面間の媒介者を演じてもよい。別の
例は、救助に向かう場面と平行の事故場面である。これ
らの場面は空間的には隔てられているが、時間的には平
行して進行している。操作者は、再び、媒介者として、
あるいは事故場面における犠牲者のいる場面および救助
に向かうキャラクターのいる場面のそれぞれで対話する
2つの操作者制御キャラクターとして行動してもよい。The space-time travel story is provided here only as an example and may be replaced by other game stories that use parallel montage scenes. For example,
The chase scene can also run in parallel with a police phone scene in which the operator talks to the good man driving the bad guy and driving with the remaining good man who is calling the police from the telephone booth. The police dispatch scene may then alternate with a telephone box scene where the operator selects the words to say in this dialogue. The police dispatch scene may then be replaced with a patrol car scene where the operator again selects some of the dialogues. The operator may act as an intermediary between two parallel scenes by acting outside the screen. Another example is an accident scene parallel to the rescue scene. These scenes are spatially separated, but progress in parallel in time. The operator again, as an intermediary,
Alternatively, it may act as two operator-controlled characters that interact with each other in the scene of the victim and the scene of the character heading to the rescue in the accident scene.
【0017】2方向または3方向の対話は、平行モンタ
ージュでどのようにでも組み合わせられる。例えば、キ
ャラクター12は、別の場面でキャラクター22と話す
キャラクター13と話してもよく、キャラクター22は
最初の場面でキャラクター12または13と話すキャラ
クター22に話しかけてもよい。その際操作者は、1つ
のキャラクターがする動作を選択しながら言うべき言葉
を手動で選択することによって、3人のキャラクターの
いずれの役を演じてもよい。同様に、キャラクター13
が別の場面のキャラクター22に話しかけ、キャラクタ
ー22が最初の場面のキャラクター12に話しかけ、キ
ャラクター12がキャラクター13に話しかけてもよ
い。キャラクター22はキャラクター13に話しかける
別の場面のキャラクター12に話しかけるが、操作者は
そのキャラクター22に話しかけるスクリーン外のキャ
ラクターの役を演じてもよい。それとも、キャラクター
12は別の場面でキャラクター22に話しかけるキャラ
クター13に話しかけるが、操作者はそのキャラクター
12に話しかけてもよい。Two-way or three-way dialogues can be combined in any parallel montage. For example, the character 12 may speak to the character 13 who speaks with the character 22 in another scene, and the character 22 may speak to the character 22 who speaks with the character 12 or 13 in the first scene. At that time, the operator may play any of the three characters by manually selecting the words to be said while selecting the action to be performed by one character. Similarly, character 13
May talk to the character 22 in another scene, the character 22 may talk to the character 12 in the first scene, and the character 12 may talk to the character 13. Although the character 22 speaks to the character 12 in another scene that speaks to the character 13, the operator may act as an off-screen character that speaks to the character 22. Alternatively, the character 12 speaks to the character 13 who speaks to the character 22 in another scene, but the operator may speak to the character 12.
【0018】操作者は、押し釦、回転ノブ、圧力感知
膜、接近感知パッドまたはスクリーン・オーバーレイ、
ライトペン、光感知器、ジョイスティック、マウス、ト
ラックボールのような各種入力装置のいずれかを使用し
て、カーソルまたは照準用十字線を移動させるか、強調
された選択部、図像、対話文等の間をスクロールしなが
ら、制御器28に選択を入力することができる。The operator may select a push button, rotary knob, pressure sensitive membrane, proximity sensitive pad or screen overlay,
Use any of a variety of input devices such as light pens, photosensors, joysticks, mice, and trackballs to move the cursor or aiming crosshair, or to highlight highlighted selections, icons, dialogues, etc. Selections can be entered into the controller 28 while scrolling through.
【0019】本発明に関し、独特の実施例について説明
したが、本発明は種々の形に変形することができる。Although a unique embodiment has been described with respect to the invention, the invention can be modified in various ways.
【図1】本発明の方法を実施するビデオゲームシステム
の一実施例を示す図であって、第1の場面における2つ
のキャラクターと、第2の場面における1つのキャラク
ターとが、1つのラジオ様装置とを使用して時空を経て
相互に対話する(時空旅行場面の)動画化された漫画映
画的な対話ゲームの2つの場面を示す図であり、1人以
上の操作者(釦を押している手が示されている)が、キ
ャラクターの言葉のいくつかを選択する状態を示す。FIG. 1 is a diagram showing an embodiment of a video game system for carrying out the method of the present invention, in which two characters in the first scene and one character in the second scene are in one radio mode. FIG. 3 shows two scenes of a animated cartoon-like interactive game (of a space-time travel scene) that interacts with each other through space-time using a device, where one or more operators (buttons are pressed) The hand is shown) indicates that you are selecting some of the character's words.
【図2】本発明の方法を実施するビデオゲームシステム
の他の場面を示す図であって、アニメ・キャラクターの
1つがスクリーン外のキャラクターに対して言葉で命令
を与えることにより危険に反応する、図1に続く場面を
示す図であり、その命令は実際には操作者(釦を押して
いる手が示されている)が選択したものである。FIG. 2 illustrates another scene of a video game system implementing the method of the present invention, wherein one of the animated characters reacts dangerously by giving verbal commands to the character off screen. It is a figure which shows the scene following FIG. 1, and the command was actually selected by the operator (the hand pushing the button is shown).
【図3】本発明の方法を実施するビデオゲームシステム
の他の場面を示す図であって、第3のアニメ・キャラク
ターが図2の言葉による命令に反応して行動する、第2
の場面に続く2つの場面を示す図であり、その後第3の
キャラクターの動作、すなわち驚いた恐竜の効果を示す
場面が続く。FIG. 3 illustrates another scene of a video game system implementing the method of the present invention, wherein a third animated character acts in response to the verbal command of FIG.
It is a figure which shows two scenes following the scene of, and is followed by the scene which shows the action of the 3rd character, ie, the effect of the surprised dinosaur.
【図4】本発明の方法を実施するビデオゲームシステム
の他の場面を示す図であって、3つの場面とそれらの場
面における3つのキャラクターの間で交わされる対話を
示す図である。FIG. 4 illustrates another scene of a video game system implementing the method of the present invention, showing three scenes and the interaction between the three characters in those scenes.
11,19,34 場面 12,13 22 対話キャラクター 16 押し釦 17 操作者の手 28 制御器 31 ラジオ様装置 32 タイム・トラベル・マシーン 11, 19, 34 Scenes 12, 13 22 Dialogue character 16 Push button 17 Operator's hand 28 Controller 31 Radio-like device 32 Time travel machine
Claims (10)
場面における明らかに異なる声を有する2以上の対話キ
ャラクターとの間で音声対話を擬態するビデオゲーム方
法であって、第1の対話アニメ・キャラクターを示す第
1場面の動画的画像を発生し、第1の音声を前記第1の
対話キャラクターの声で発生し、前記第1の音声に応答
する複数の択一的言語表現を操作者に対して表示し、言
語表現が前記操作者により前記複数の択一的言語表現か
ら選択されたことの指示を前記操作者から受け、前記第
1の場面とは実質的に異なる第2の場面における第2の
対話キャラクターのアニメ画像を発生し、前記選択され
た言語表現に対して表現するか応答する第2の対話キャ
ラクターの声で第2の音声を発生する、ことを含むビデ
オゲーム方法。1. A video game method for simulating a voice dialogue between a game operator and two or more dialogue characters having distinctly different voices in substantially different scenes, the first dialogue. Generate a moving image of a first scene showing an anime character, generate a first voice in the voice of the first dialogue character, and manipulate a plurality of alternative language expressions responsive to the first voice. A second language message that is substantially different from the first scene, and receives an instruction from the operator that the language expression has been selected from the plurality of alternative language expressions by the operator. Generating an animated image of a second interactive character in the scene and generating a second voice with the voice of the second interactive character expressing or responding to the selected linguistic expression. ..
ラクターの1つが行う択一的動作を示唆する、請求項1
に記載のビデオゲーム方法。2. The alternative linguistic representations suggest alternative actions performed by one of the characters.
The video game method described in.
り、前記第2のキャラクターは前記第1の音声に対して
前記第1のキャラクターを救助する動作をすることによ
って応じる、請求項1に記載のビデオゲーム方法。3. The first character is in a dangerous state, and the second character responds to the first voice by performing an action to rescue the first character. Video game methods.
のキャラクターが前記第1のキャラクターを救助し得る
択一的方法を示唆する、請求項1に記載のビデオゲーム
方法。4. The plurality of alternative language expressions are the second
The video game method of claim 1, wherein the character of (1) suggests an alternative way in which the first character can be rescued.
声は、前記第2のキャラクターに救助を要請する、請求
項4に記載のビデオゲーム方法。5. The video game method of claim 4, wherein the first voice of the first character requests the second character for rescue.
声は、前記第1のキャラクターに救助を申し出る、請求
項4に記載のビデオゲーム方法。6. The video game method of claim 4, wherein the second voice of the second character offers rescue to the first character.
話しかける前記第1および第2のキャラクターを示し、
前記第3のキャラクターの第3の音声は前記第1および
第2のキャラクターの音声に応答する、請求項1に記載
のビデオゲーム方法。7. The animated image shows the first and second characters speaking to a third character,
The video game method of claim 1, wherein the third voice of the third character is responsive to the voices of the first and second characters.
電話、送受信ラジオ等、相互に対話する状態を示す、請
求項1に記載のビデオゲーム方法。8. The first and second characters are
The video game method according to claim 1, wherein the video game method indicates a state of mutual interaction such as a telephone call and a transmission / reception radio.
空を経て相互に対話する状態を示す、請求項8に記載の
ビデオゲーム方法。9. The video game method according to claim 8, wherein the first and second characters show a state of interacting with each other through space-time.
る場面における明らかに異なる声を有する2以上の対話
アニメ・キャラクターとの間で音声対話を擬態するビデ
オゲーム方法であって、第1の対話キャラクターが実質
的に異なる第2の場面で後に示される第2のキャラクタ
ーに話しかける状態を示す第1のキャラクターの動画的
画像を発生し、第1の複数の択一的言語表現を操作者に
対して表示し、第1の言語表現が前記操作者により前記
複数の択一的言語表現から選択されたことの指示を前記
操作者から受け、前記選択された第1の言語表現に対し
て表現するか応答する前記第1の対話キャラクターの声
で第1の音声を発生し、前記第2の場面における前記第
2のキャラクターの動画的画像を発生し、前記第1の音
声に応答する第2の複数の択一的言語表現を操作者に対
して表示し、第2の言語表現が操作者によって前記複数
の択一的言語表現から選択されたことの指示を前記操作
者から受け、前記選択された第2の言語表現に対して表
現するか応答する前記第2の対話キャラクターの声で第
2の音声を発生する、ことを含むビデオゲーム方法。10. A video game method for mimicking a voice interaction between a game operator and two or more interactive animated characters having distinctly different voices in substantially different scenes, the method comprising: Of the first plurality of alternative linguistic expressions by generating a moving image of the first character showing a state in which the interactive character of the second character speaks to the second character in a second scene that is substantially different from the first character. To the selected first language expression by receiving an instruction from the operator that the first language expression has been selected from the plurality of alternative language expressions by the operator. Producing a first voice in the voice of the first interactive character expressing or responding, producing a moving image of the second character in the second scene, and responding to the first voice. 2's Displaying a plurality of alternative language expressions to the operator, receiving an instruction from the operator that the second language expression is selected from the plurality of alternative language expressions by the operator, and selecting the second language expression from the operator. Producing a second voice with the voice of the second interactive character expressing or responding to a second linguistic expression.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US75635691A | 1991-09-09 | 1991-09-09 | |
US756,356 | 1991-09-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05111579A true JPH05111579A (en) | 1993-05-07 |
Family
ID=25043116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4027442A Pending JPH05111579A (en) | 1991-09-09 | 1992-01-20 | Method for playing video game |
Country Status (3)
Country | Link |
---|---|
JP (1) | JPH05111579A (en) |
AU (1) | AU2393092A (en) |
WO (1) | WO1993004748A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5553864A (en) | 1992-05-22 | 1996-09-10 | Sitrick; David H. | User image integration into audiovisual presentation system and methodology |
US5890123A (en) * | 1995-06-05 | 1999-03-30 | Lucent Technologies, Inc. | System and method for voice controlled video screen display |
US7827488B2 (en) | 2000-11-27 | 2010-11-02 | Sitrick David H | Image tracking and substitution system and methodology for audio-visual presentations |
CN111790153A (en) * | 2019-10-18 | 2020-10-20 | 厦门雅基软件有限公司 | Object display method and device, electronic equipment and computer-readable storage medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0016314A1 (en) * | 1979-02-05 | 1980-10-01 | Best, Robert MacAndrew | Method and apparatus for voice dialogue between a video picture and a human |
US4846693A (en) * | 1987-01-08 | 1989-07-11 | Smith Engineering | Video based instructional and entertainment system using animated figure |
EP0557444A1 (en) * | 1990-11-14 | 1993-09-01 | Best, Robert MacAndrew | Talking video games |
-
1992
- 1992-01-20 JP JP4027442A patent/JPH05111579A/en active Pending
- 1992-07-16 AU AU23930/92A patent/AU2393092A/en not_active Withdrawn
- 1992-07-16 WO PCT/US1992/006030 patent/WO1993004748A1/en not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
AU2393092A (en) | 1993-04-05 |
WO1993004748A1 (en) | 1993-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5393070A (en) | Talking video games with parallel montage | |
JP2784409B2 (en) | Video game method and apparatus | |
US5393073A (en) | Talking video games | |
US5393071A (en) | Talking video games with cooperative action | |
Cassell et al. | Fully embodied conversational avatars: Making communicative behaviors autonomous | |
EP1262955B1 (en) | System and method for menu-driven voice contol of characters in a game environment | |
Paulos et al. | PRoP: Personal roving presence | |
US5835715A (en) | Interactive theater and feature presentation system | |
US8082499B2 (en) | Graphical interface for interactive dialog | |
EP1669932A1 (en) | Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer readable recording medium where the program is recorded | |
JP2005182843A (en) | Operation method of virtual reality circuit | |
JP2002011243A (en) | Storage medium, program, entertainment system and entertainment device | |
KR20000070998A (en) | System for obtaining assistance in operating an apparatus | |
IJsselsteijn | History of telepresence | |
JPH05111579A (en) | Method for playing video game | |
US6982716B2 (en) | User interface for interactive video productions | |
Nakatsu et al. | Interactive movie system with multi-person participation and anytime interaction capabilities | |
JPH05228260A (en) | Method for dialogic video game by joint operation | |
KR200179150Y1 (en) | System for chatting on a network | |
JP2001249924A (en) | Automatic interactive explanation device, automatic interactive explanation method and recording medium having execution program of the method recorded thereon | |
JP2011033837A (en) | Interaction support device, interaction support device, and program | |
JPH05293252A (en) | Dialog video game method utilizing sound contrast | |
JP7216379B1 (en) | Control system, control method and program | |
JP2001296877A (en) | Program executing device which conducts voice conversation and its program | |
Fries et al. | Using an Animated Talking Character in a Web-Based City Guide Demonstrator |