JPH05228260A - Method for dialogic video game by joint operation - Google Patents

Method for dialogic video game by joint operation

Info

Publication number
JPH05228260A
JPH05228260A JP4209471A JP20947192A JPH05228260A JP H05228260 A JPH05228260 A JP H05228260A JP 4209471 A JP4209471 A JP 4209471A JP 20947192 A JP20947192 A JP 20947192A JP H05228260 A JPH05228260 A JP H05228260A
Authority
JP
Japan
Prior art keywords
character
voice
operator
dialogue
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4209471A
Other languages
Japanese (ja)
Inventor
Robert M Best
マキャンドルー ベスト ロバート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPH05228260A publication Critical patent/JPH05228260A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • G09B7/04Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • A63F13/245Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/47Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/632Methods for processing data by generating or executing the game program for controlling the execution of the game in time by branching, e.g. choosing one of several possible story developments at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8088Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game involving concurrently several players in a non-networked game, e.g. on the same game console

Abstract

PURPOSE: To execute co-operation with the interaction between an operator and an animation character, by mimicking the voice interaction between at least two interactive animation characters having voices different from each other, and the operator of a game machine. CONSTITUTION: A video game system generates, for example, plural animation sequences 21, 25, 28 indicating three animation characters occupied with rescue activity in cooperation, onto a video screen 11, and each character has the proper voice. When the sequence 21 is started, the characters 18 and 30 are in the dangerous state, and the character 17 trys to help them. The character 17 tells an opinion on the rescue activity, by speaking the words indicated by a voice balloon 20. When the operator 12 selects one of the alternative words by a controller 31, the amination is changed to the sequence 25, and the selected words is uttered by the voice of an operator control character 30. Then the character 18 grasps a rope, and then speaks the words programmed in advance, with the voice of the character 18.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ゲームをする人である
1以上の操作者と、テレビジョン・スクリーンすなわち
ビデオ・スクリーン上の1以上の対話アニメ・キャラク
ターとの間で音声対話を擬態する共同動作の対話ビデオ
ゲーム方法に関する。
FIELD OF THE INVENTION The present invention mimics a voice interaction between one or more operators who are gamers and one or more interactive animated characters on a television or video screen. A collaborative interactive video game method.

【0002】[0002]

【発明の、構成、作用、効果】2以上のアニメ・キャラ
クターは、共同動作を実行し、何をするかについて話し
合う。キャラクターは、互いに話し、またキャラクター
がすることおよび言うことについて直接的または間接的
に制御する操作者に対して話しかける。画像および声
は、レーザ・ディスク、半導体メモリ等から読み出され
たデジタル・データを基に発生される。各操作者は、複
数の押しボタンを備えかつ2以上の可変の語句すなわち
文を表示する軽量の制御器を有する。操作者は、選択さ
れた文すなわち語句の隣りのボタンを押すことにより、
キャラクターの言うことに対して応答する。アニメ・キ
ャラクターは、次いで、操作者により話されたようにま
たは操作者が選択した言葉を言うように、選択文に対し
口答でまたは動作で応答する。しかし、キャラクター
は、制御器に表示された言葉に対応する選択された動作
を実行するようにしてもよい。実際に会話をする必要は
ない。従って、操作者は、共同活動に巻き込まれてキャ
ラクターと音声対話を有する幻覚を覚える。
Composition, Actions, and Effects of the Invention Two or more anime characters perform joint actions and discuss what to do. The characters speak to each other and to operators who directly or indirectly control what the characters do and say. Images and voices are generated based on digital data read from a laser disk, semiconductor memory or the like. Each operator has a lightweight controller with multiple push buttons and displaying two or more variable words or sentences. By pressing the button next to the selected sentence or phrase, the operator
Respond to what the character says. The anime character then verbally or verbally responds to the selected sentence, as spoken by the operator or as saying the operator-selected word. However, the character may perform a selected action corresponding to the word displayed on the controller. You don't have to have a conversation. Therefore, the operator feels a hallucination having a voice interaction with the character, involved in a joint activity.

【0003】役割演技法ビデオゲームにおけるキャラク
ターとしては、操作者により制御されるいわゆる操作者
制御キャラクターと、操作者により制御されないいわゆ
る非操作者キャラクターとの2種類がある。操作者制御
キャラクターは、操作者のアニメ部分であり、また操作
者が選択したことを実行する。非操作者キャラクター
は、操作者により直接的には制御されないが、操作者に
より選択された動作に応答するかもしくは操作者制御キ
ャラクターが行うことまたは言うことに応答することに
より、操作者により間接的に影響される。非操作者キャ
ラクターは、操作者または操作者制御キャラクターの言
ったことに基づいて異なる択一的行為を実行するように
プログラムされている。場面は、いつも異なることを言
う非操作者キャラクターと、場面が繰り返される度に異
なる操作者用の択一的応答とを所定期間繰り返してもよ
い。
There are two types of characters in the role-playing technique video game: a so-called operator-controlled character controlled by the operator and a so-called non-operator character not controlled by the operator. The operator-controlled character is the animation part of the operator and also carries out what the operator has selected. The non-operator character is not directly controlled by the operator, but is indirectly controlled by the operator by responding to the action selected by the operator or by responding to or doing what the operator-controlled character does. Be affected by. The non-operator character is programmed to perform different alternative actions based on what the operator or operator-controlled character said. The scene may repeat a non-operator character who always says different things and an alternative response for a different operator each time the scene is repeated for a predetermined period of time.

【0004】2人用ゲームにおいては一方の操作者に対
して表示されたメニューが他方の操作者用のメニューと
異なってもよいことから、手持ち式すなわち携帯式の制
御器はメニューをビデオ・スクリーンに表示することが
好ましい。楽しみの一部は、他の操作者が何を選択して
いるかを知らない操作者がいることである。また、ビデ
オ・スクリーン上のメニューは、操作者が真のキャラク
ターと話しているという幻覚を中断する。従って、本発
明の好ましい実施例においては、メニュー毎の押しボタ
ンまたは同等物を有する手持ち式メニュー表示制御器を
利用する。本発明は、また、言っていることを他の操作
者が知り得るように、選択された言葉を復唱する模擬音
声を利用する。
In a two-player game, the menu displayed to one operator may be different than the menu for the other operator, so that a handheld or portable controller may display the menu on a video screen. It is preferable to display in. Part of the fun is that some operators do not know what other operators are choosing. Also, the menu on the video screen breaks the illusion that the operator is talking to the true character. Therefore, the preferred embodiment of the present invention utilizes a handheld menu display controller with pushbuttons or equivalents for each menu. The present invention also utilizes a simulated voice that recites the selected words so that other operators can know what they are saying.

【0005】押しボタン、回転ノブ、圧力感知部材、接
近感知パッド、スクリーン・オーバーレイ、ライト・ペ
ン、光感知器、ジョイ・スティック、マウス、トラック
・ボール、移動可能のカーソルまたは十字線、強調され
た選択部を経るスクロール、話言葉等、各種入力装置を
手持ち式制御器に適用してもよい。
Push buttons, rotary knobs, pressure sensitive members, proximity sensitive pads, screen overlays, light pens, light sensors, joysticks, mice, trackballs, moveable cursors or crosshairs, highlighted Various input devices such as scrolling through the selection unit and spoken language may be applied to the handheld controller.

【0006】[0006]

【実施例】図1を参照するに、本発明の一実施例におい
て、ビデオゲーム・システムは、共同して救助活動に従
事する3つのアニメ・キャラクターを示す複数の動画シ
ーケンスすなわち画像シーケンス21,25,28をテ
レビ・スクリーンすなわちビデオ・スクリーン11上に
発生する。各キャラクターは、特有の声を有する。シー
ケンス21が始まると、キャラクター18,30は危険
状態にあり、キャラクター17はそれを救助すべく試み
ている。キャラクター17は、漫画の吹出しである声バ
ルーン20に示す言葉を話すことにより、救助活動にお
ける意見を述べる。人間である操作者12は、この実施
例においては、液晶表示器22上の対応するメニュー事
項の隣りに配置された3つの押しボタン14を備える携
帯式すなわち手持ち式の制御器31(図2に完全に示
す)を持っている。2以上の択一的応答文すなわち択一
的語句は、表示器22に表示されており、また3つの押
しボタン14の一つとそれぞれ関係付けられている。操
作者12の手は、操作者により制御される操作者制御キ
ャラクター30が話すべき語句の一つを選択するために
ボタン14の一つを押す状態にいある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Referring to FIG. 1, in one embodiment of the present invention, a video game system includes a plurality of animated or image sequences 21, 25 showing three animated characters working together in a rescue operation. , 28 on the television or video screen 11. Each character has a unique voice. When sequence 21 begins, characters 18 and 30 are in danger and character 17 is trying to rescue it. The character 17 expresses his opinion in the rescue operation by speaking the words shown in the voice balloon 20 which is a balloon of the manga. The human operator 12, in this embodiment, has a portable or hand-held controller 31 (see FIG. 2) with three push buttons 14 located next to corresponding menu items on the liquid crystal display 22. Have fully shown). Two or more alternative response sentences or alternative phrases are displayed on the display 22 and are respectively associated with one of the three push buttons 14. The hand of the operator 12 is in a state of pressing one of the buttons 14 in order to select one of the words to be spoken by the operator-controlled character 30 controlled by the operator.

【0007】操作者12が押すべきボタンを決定する
間、継続する画像シーケンス(図示せず)は、ロープを
引き上げることを試みるキャラクターまたはロープをよ
じ登ることを試みるキャラクターを有する同じ場面を示
し続ける。
While the operator 12 decides which button to press, a continuing image sequence (not shown) continues to show the same scene with a character attempting to raise the rope or a character attempting to climb the rope.

【0008】操作者12が表示された択一的語句の一つ
を選択すると、動画はシーケンス25に変化し、選択さ
れた語句は操作者により選択された言葉を復唱する操作
者制御キャラクター30の声で発生される。この音声を
バルーン23に示す(この実施例においては、「トム、
ロープをつかんで」である。)。トムは、キャラクター
18であり、またシーケンス21においてはキャラクタ
ー30の足首にぶら下がっている。キャラクター30が
バルーン23内の選択された語句を言った後、キャラク
ター18はロープをつかみ、次いで選択された語句用と
して予めプログラムされた言葉「わかった」をキャラク
ター18の声で応答すべく言う。このようなキャラクタ
ー18の音声をバルーン24内に示す。キャラクター1
8の動作は、選択された語句用として予めプログラムさ
れている。操作者12が択一的語句の他の一つを選択す
ると、キャラクター18は異なる動作をし、異なる応答
語を話す。
When the operator 12 selects one of the displayed alternative words, the animation changes to a sequence 25, and the selected word or phrase of the operator-controlled character 30 that repeats the word selected by the operator. Generated by voice. This voice is shown in the balloon 23 (in this embodiment, "Tom,
Grab the rope. " ). Tom is the character 18 and in sequence 21 hangs on the ankle of character 30. After the character 30 says the selected phrase in the balloon 23, the character 18 grabs the rope and then tells the character 18 to respond with the pre-programmed word "I understand" for the selected phrase. The voice of the character 18 is shown in the balloon 24. Character 1
Action 8 is pre-programmed for the selected phrase. When the operator 12 selects another one of the alternative words, the character 18 behaves differently and speaks a different answer word.

【0009】ビデオゲーム・システムは、次に、ロープ
をよじ登るキャラクター18を示す動画シーケンスを発
生する。このよじ登りシーケンスは、図示されていな
い。キャラクター18がシーケンス28においてキャラ
クター17に到達すると、キャラクター17は、バルー
ン27におけるように「腕をつかんで」とキャラクター
17の声で言い、救助活動が続けられる。従って、アニ
メ・キャラクターは、共同して救助活動を実行し、ま
た、動作および音声を一以上の操作者により直接的にま
たは間接的に制御されつつ、これらの動作に関して話
す。キャラクター17により話される言葉を、キャラク
ター17用の択一的語句の第2のメニュー(図示せず)
中から操作者が選択するようにしてもよい。この操作者
は、図5に示す第2の操作者10であってもよい。
The video game system then generates an animated sequence showing the character 18 climbing the rope. This climbing sequence is not shown. When the character 18 reaches the character 17 in sequence 28, the character 17 says "grabbing his arm" in the voice of the character 17, as in the balloon 27, and the rescue operation continues. Thus, the animated characters speak jointly to perform rescue operations and talk about these movements, with their movements and voices being directly or indirectly controlled by one or more operators. A second menu of alternative words for character 17 (not shown) for words spoken by character 17.
The operator may select from among them. This operator may be the second operator 10 shown in FIG.

【0010】シーケンス28の後、ビデオゲーム・シス
テムは、操作者がキャラクターの動作と音声とを上記図
1について記載したように直接的または間接的に制御す
る他の動画シーケンスを次々に発生する。
After sequence 28, the video game system in turn generates other animation sequences in which the operator directly or indirectly controls the motion and voice of the character as described with respect to FIG. 1 above.

【0011】図1のゲームの変形例である図7に示すゲ
ーム方法を以下に説明する。
A game method shown in FIG. 7, which is a modification of the game shown in FIG. 1, will be described below.

【0012】各ゲームを開始する前に、各操作者は、演
じることを希望するキャラクターを選択してもよい。こ
れの代わりに、操作者により制御される各操作者制御キ
ャラクターと、「だれがこのキャラクターを演じること
を希望しますか?」という質問とをキャラクター毎にビ
デオ・スクリーン上に表示してもよい。ビデオゲーム・
システムは、次いで、そのキャラクター用の択一的語句
がそのキャラクターを演じる操作者(この実施例では、
キャラクター30を演じる操作者12)用の制御器にだ
け表示されるように、いずれの制御器31が応答をする
かを記録する。操作者は、また、ビデオ・スクリーン上
に常に表示されないビデオ・スクリーン外の操作者制御
キャラクターを演じ、ビデオ・スクリーン上のキャラク
ターと対話をすることを選んでもよい。
Before starting each game, each operator may select a character he wishes to play. Alternatively, each operator-controlled character controlled by the operator and the question "Who wants to play this character?" May be displayed for each character on the video screen. .. video game·
The system then causes the alternative phrase for that character to be the operator who plays that character (in this example,
Record which controller 31 responds so that it is only displayed on the controller for the operator 12) who plays the character 30. The operator may also choose to play an operator-controlled character outside the video screen that is not always displayed on the video screen and interact with the character on the video screen.

【0013】図2を参照するに、本発明の他の実施例に
おいて、ビデオゲーム・システムは、2以上の動画化さ
れた対話キャラクター17,18をビデオ・スクリーン
11に表示する。この実施例において、キャラクター1
7は、操作者12が制御する操作者制御キャラクターで
ある。操作者12は、キャラクター17の役を演じ、ま
たキャラクター18に対しおよびキャラクター17を介
してゲーム内における他のキャラクターに対し話をする
ことができる。操作者12は、図2に明瞭化のために拡
大して示す液晶表示器22の隣りに3つの押しボタン1
4を備える手持ち式の制御器31を持っている。ビデオ
ゲーム・システムは、3つの択一的応答文を表示器22
上に表示する。操作者12は、表示された応答文の一つ
(この実施例においては「もう一度、キスして」)を、
選択されかつ表示された応答文と共同する押しボタン1
4で選択する。次いで、表示器22から選択された言葉
がキャラクター17用の音声15で言われる。キャラク
ター17の言葉は、キャラクター17の言葉に対して音
声16で応答するキャラクター18に向けられる。
Referring to FIG. 2, in another embodiment of the invention, a video game system displays two or more animated interactive characters 17, 18 on video screen 11. In this example, character 1
7 is an operator-controlled character controlled by the operator 12. The operator 12 can play the role of the character 17 and can talk to the character 18 and through the character 17 to other characters in the game. The operator 12 has three pushbuttons 1 next to the liquid crystal display 22 shown enlarged in FIG. 2 for clarity.
It has a hand-held controller 31 with four. The video game system displays three alternative response sentences on the display 22.
Display on top. The operator 12 inputs one of the displayed response sentences (“kiss again” in this embodiment).
Pushbutton 1 associated with the selected and displayed response
Select with 4. Then, the word selected from the display 22 is spoken in the voice 15 for the character 17. The words of character 17 are directed to character 18 who responds with voice 16 to the words of character 17.

【0014】2つのキャラクター17,18は、逆のシ
ーケンスで応答させてもよい。すなわち、操作者制御キ
ャラクター17が操作者12により指示されたように応
答することができるように、操作者により制御されない
非操作者キャラクター18が最初に何かを言うようにし
てもよい。例えば、操作者12が「もう一度、キスし
て」を選択した後、表示された択一的言葉の1つではな
い前もって必要な言葉「何をしてほしいの?」をキャラ
クター18が言い、次いでキャラクター18が言ったこ
とに対する応答として「もう一度、キスして」とキャラ
クター17が答えるようにしてもよい。このような反転
は、より自然な対話とすることができる。
The two characters 17, 18 may be made to respond in the reverse sequence. That is, the non-operator character 18 not controlled by the operator may say something first so that the operator controlled character 17 can respond as instructed by the operator 12. For example, after the operator 12 selects "Kiss me again", the character 18 says the necessary word "What do you want me to do?" Which is not one of the displayed alternative words, and then As a response to what the character 18 has said, the character 17 may reply "Kiss me again". Such inversion can be a more natural dialogue.

【0015】声またはサブ・タイトルは、無言の観念、
赤ちゃんや動物のように話せないキャラクターの観念、
または生気のない対象物を表現することに利用してもよ
い。図2に示す雲状のバルーン19は、キャラクター1
7の有音の語句15に応答して口を動かさないで発生さ
れたキャラクター18の無言の考えを表す。無言の考え
のための音声は、一般的な有音の声でないように操作者
に表示すべく電子的に変換してもよい。例えば、無言の
考えは、可聴周波数の音に変換する前に、音声データを
電子的またはデジタル的に編集することにより中空音ま
たは振動音さらにはささやき音に変換することができ
る。
A voice or subtitle is a silent idea,
The idea of a character that can't speak like babies and animals,
Alternatively, it may be used to represent an inanimate object. The cloud-shaped balloon 19 shown in FIG.
7 represents a silent thought of a character 18 generated without moving his mouth in response to a spoken phrase 15 of 7. Speech for silent thoughts may be electronically converted for display to the operator as if it were not a typical voiced voice. For example, the silent idea can be converted into hollow or vibrating sounds and even whispering sounds by electronically or digitally editing the audio data before converting it to audio frequencies.

【0016】図3を参照するに、キャラクター17,1
8がキスのような共同動作をするとき、キャラクターの
一方は、図示の動作に応答して、図2に示すシーケンス
に先立って言われたことまたは実行された動作に応答し
て、もしくは表示器22から選択された語句に応答して
言われたことまたは実行された動作に応答して、口を動
かして話してもよいし、雲状バルーン29に示すように
口を動かさないでまたは口を同期させないで発生すべく
無言で考えてもよい。
Referring to FIG. 3, the characters 17, 1
When eight perform a kiss-like co-action, one of the characters responds to the action shown, to what was said or performed prior to the sequence shown in FIG. 2, or to the indicator. In response to what is said or performed in response to the phrase selected from 22, the mouth may be moved and spoken, as indicated by the cloud balloon 29, or the mouth not moved. You may silently think that it should occur without synchronizing.

【0017】図4を参照するに、本発明の他の実施例に
おいて、ビデオゲーム・システムは、ビルディングの外
側の出っ張りから指により吊り下がっているキャラクタ
ー18を示す動画的な画像シーケンスをビデオ・スクリ
ーンに表示している。屋上にいる友人達は、キャラクタ
ー18に到達するには不十分な長さのロープをキャラク
ター18に投げている。この出っ張り吊り下がり状態は
図5に示す次の場面に続き、そこでは2つのアニメ・キ
ャラクターがキャラクター18の危険状態に関して、互
いにおよび1以上の操作者と交互に対話している。
Referring to FIG. 4, in another embodiment of the present invention, a video game system displays a moving image sequence showing a character 18 hanging with a finger from a ledge on the outside of a building. Is displayed. Friends on the roof are throwing a rope on character 18 that is not long enough to reach character 18. This ledge-hanging condition continues to the next scene shown in FIG. 5, where two animated characters are interacting with each other and with one or more operators regarding the danger of character 18.

【0018】図5を参照するに、画像シーケンス21,
25,28は、2つの対話キャラクターが図4に示すキ
ャラクターを救助する方法を相談している屋上場面であ
る。1以上の操作者は、答えかつ質問をしまたは操作者
による次の入力を導く意見を述べる対話キャラクター
に、言葉、語句、文等を言うことにより、話し合いに参
加する。表示器22に示された択一的語句は、語句20
に対して保留された課題に対し提案すべき解決法であ
る。操作者10が「119番を呼びなさい」に対応する
押しボタン14を圧下すると、一方のキャラクターは、
シーケンス25において、他方のキャラクターに質問2
3を有音ですることにより応答し、他方のキャラクター
は操作者に対し質問24を有音でする。質問24は、ま
た、表示器22上の択一的動作26によってなされる。
操作者12が「ロープをおろしなさい。」に対応するボ
タン14を圧下すると、キャラクターは選択された動作
に対する意見としてシーケンス28における語句27を
有音で述べる。従って、擬態された言葉の対話は、同じ
場面の中でいくつかの言葉を変更することにより継続す
ることができる。
Referring to FIG. 5, the image sequence 21,
25 and 28 are rooftop scenes in which two dialogue characters are discussing how to rescue the character shown in FIG. One or more operators participate in the discussion by saying words, phrases, sentences, etc. to an interactive character who answers and asks questions or states an opinion that guides the operator's next input. The alternative phrase shown on the display 22 is the phrase 20.
It is a solution that should be proposed for the issues that have been held for. When the operator 10 depresses the push button 14 corresponding to "call 119", one character
Question 2 to the other character in sequence 25
Responding by speaking 3 with voice, the other character speaking the question 24 to the operator. The inquiry 24 is also made by an alternative action 26 on the display 22.
When the operator 12 depresses the button 14 corresponding to "down the rope.", The character voices the phrase 27 in sequence 28 as an opinion for the selected action. Thus, the mimicked word dialogue can continue by changing several words in the same scene.

【0019】図4に示すキャラクター18の救助法の課
題が操作者により解決された後、図5のキャラクターの
一方、例えばキャラクター17は、救助において生じる
動作を示してもよい。このような動作は、図1における
画像シーケンス28と同様の動画的な画像シーケンス内
のビルディングの屋上越しにキャラクター18を助ける
キャラクター17を含む。
After the rescue problem of the character 18 shown in FIG. 4 has been solved by the operator, one of the characters in FIG. 5, eg, the character 17, may show the motion that occurs in the rescue. Such actions include the character 17 helping the character 18 over the roof of the building in an animated image sequence similar to the image sequence 28 in FIG.

【0020】第6図を参照するに、本発明の他の実施例
において、ビデオゲーム・システムは、共同して野球競
技をしている2つのアニメ・キャラクター37,38を
示す複数の動画シーケンス33,34,35をビデオ・
スクリーン11に表示する。両キャラクターは、それぞ
れ特有の声を発生する。シーケンス33が始まると、キ
ャラクター37はキャラクター38に向けてボールを投
げようとしており、キャラクター38はそのボールをバ
ットで打とうとしている。キャラクター37は、共同動
作を実行すべくキャラクター38の技量を批評するバル
ーン40に示す言葉を話す。この実施例において、操作
者12は、択一的応答用の言葉を表示する表示器22の
隣りに3つの押しボタン14を備える手持ち式の制御器
31を持っている。操作者12の手は、択一的語句の一
つを選択すべく一つのボタン14を押すように示されて
いる。操作者12が一つの語句を選択すると、選択され
た語句に対応する言葉がキャラクター38の声で発生さ
れる。このような言葉をバルーン41に示す。
Referring to FIG. 6, in another embodiment of the present invention, a video game system includes a plurality of animated sequences 33 showing two animated characters 37, 38 playing a baseball game together. , 34, 35 video
Display on the screen 11. Both characters generate their own unique voices. When sequence 33 begins, character 37 is about to throw a ball at character 38, and character 38 is about to hit the ball with a bat. The character 37 speaks the words shown on the balloon 40 which criticizes the skill of the character 38 to perform the joint action. In this embodiment, the operator 12 has a hand-held controller 31 with three push buttons 14 next to a display 22 which displays words for alternative responses. The hand of the operator 12 is shown pushing a button 14 to select one of the alternative phrases. When the operator 12 selects one word, the word corresponding to the selected word is generated in the voice of the character 38. Such words are shown in the balloon 41.

【0021】次に、動画は、ボールを投げているキャラ
クター37を示すシーケンス34に変化し、そこでキャ
ラクター37は共同活動における自身の行動についての
意見を述べる。この音声をバルーン42に示す。
The video then changes to a sequence 34 showing the character 37 throwing the ball, where the character 37 provides an opinion about his behavior in a joint activity. This voice is shown in the balloon 42.

【0022】動画は、次いで、ボールをバットで打つキ
ャラクター38を示すシーケンス35に変化する。キャ
ラクター38が空振りをすると、キャラクター38はこ
の野球競技の実行結果に関する意見を述べる。このよう
な音声をバルーン43に示す。従って、キャラクター3
7,38は、動作と音声とを操作者により直接的にまた
は間接的に制御されつつ、共同動作とこれらの動作に関
する対話を実行する。バルーン43におけるキャラクタ
ーの言葉は、キャラクター38が言うべき択一的語句の
第2のメニュー(図示せず)から操作者が選択してもよ
いし、表示器22の択一的語句からキャラクター38に
より話すべく操作者により選択された語句を基にゲーム
システムにより自動的に選択するようにしてもよい。
The animation then changes to a sequence 35 showing a character 38 hitting the ball with a bat. When the character 38 makes a blank swing, the character 38 gives an opinion on the execution result of this baseball game. Such a voice is shown in the balloon 43. Therefore, character 3
7, 38 execute joint actions and dialogues regarding these actions while the actions and voices are directly or indirectly controlled by the operator. The word of the character in the balloon 43 may be selected by the operator from a second menu (not shown) of alternative words that the character 38 should say, or the word of the character on the display 22 may be changed by the character 38. The game system may automatically select based on the phrase selected by the operator to speak.

【0023】キャラクター37,38の動作は、キャラ
クターが言う語句に応じて異なる。例えば、キャラクタ
ー38がいら立つような意見を言う場合、キャラクター
37は挑戦的な態度と不快そうな顔で両手を腰に当て、
同様に失礼な意見で応じ、それから野球競技を再開する
ようにしてもよい。キャラクター17は、キャラクター
が言うことと異なる球種のボールを投げてもよい。ま
た、キャラクター18は、キャラクターが言うことと異
なるようにバットを振ってもよい。共同動作は、操作者
の入力に応じて変化し、映画フィルムのように変化不能
には固定されない。従って、制御器31における操作者
による選択は、キャラクターが言うことと実行する動作
とに影響を与える。
The actions of the characters 37, 38 differ depending on the words they say. For example, when the character 38 makes an annoying opinion, the character 37 puts his hands on his hips with a challenging attitude and an uncomfortable face,
You may also respond with a rude opinion and then resume the baseball game. The character 17 may throw a ball of a ball type different from what the character says. Further, the character 18 may swing the bat differently from what the character says. The collaborative action changes in response to operator input and is not fixed immutably as in motion picture film. Therefore, the selection made by the operator in the controller 31 influences what the character says and the action to be performed.

【0024】図7を参照するに、本発明の他の実施例に
おいて、ビデオゲーム・システムは、共同して救助活動
をする3つの対話キャラクターを示す動画シーケンス2
1,25,28をビデオ・スクリーン11に発生する。
このゲームは、操作者12が図7に示す3つのキャラク
ター17,18,30のいずれが話す言葉をも直接制御
しない点で図1に示すゲームと異なる。図7に示す操作
者12により選択された言葉は、3つのキャラクターの
いずれの声とも異なる声で話される。
Referring to FIG. 7, in another embodiment of the present invention, a video game system includes a video sequence 2 showing three interactive characters working together in a rescue operation.
1, 25, 28 are generated on the video screen 11.
This game differs from the game shown in FIG. 1 in that the operator 12 does not directly control the words spoken by any of the three characters 17, 18, 30 shown in FIG. The word selected by the operator 12 shown in FIG. 7 is spoken in a voice different from any voice of the three characters.

【0025】シーケンス21が始まると、キャラクター
18,30は危険状態にあり、またキャラクター17は
それを救助すべく試みている。キャラクター17は、声
バルーン20に示す言葉を話し、救助活動における意見
を述べる。2以上の択一的応答は、表示器22に表示さ
れており、3つの押しボタン14の1つと共同する。操
作者12の手は、押しボタン14の1つを圧下すること
により、操作者側の会話を提供すべく択一的応答の1つ
を選択する。選択された語句は、キャラクターによらな
いで、または操作者の代理者であってスクリーン以外の
操作者制御キャラクターに発音させてもよい。
At the beginning of sequence 21, characters 18 and 30 are in danger and character 17 is attempting to rescue them. The character 17 speaks the words shown on the voice balloon 20 and gives an opinion on the rescue operation. Two or more alternative responses are displayed on the display 22 and are associated with one of the three pushbuttons 14. The operator's 12 hand selects one of the alternative responses to provide the operator's conversation by depressing one of the push buttons 14. The selected phrase may be pronounced independently of the character or by an operator-controlled character other than the screen, which is a surrogate for the operator.

【0026】操作者が表示された択一的応答の1つを選
択すると、動画がシーケンス25に変化し、また選択さ
れた文が発生される。この音声(図示の例では、「ト
ム、ロームをつかんで」)をバルーン32に示す。トム
は、キャラクター18であり、次いでロープをつかむ。
操作者12が、異なる択一的応答を選択すると、異なる
または同じキャラクターが選択された動作を実行する。
キャラクター30は、次いで、この動作に対してまたは
バルーン32の操作者の代理者の語句に対してバルーン
23に示す応答語句をキャラクター30の声で応答す
る。キャラクター30により使用される言葉は、選択さ
れた語句用の予めプログラムされた言葉である。バルー
ン23の言葉は、この実施例においてはバルーン32の
語句と同じではない。操作者12が他の択一的語句を選
択すると、キャラクター30は異なる動作をし、異なる
応答をする。
When the operator selects one of the displayed alternative responses, the animation changes to sequence 25 and the selected sentence is generated. This voice (in the illustrated example, “grabbing Tom, Rohm”) is shown on the balloon 32. Tom is a character 18 and then grabs the rope.
If the operator 12 selects a different alternative response, a different or the same character will perform the selected action.
The character 30 then responds with the voice of the character 30 the response phrase shown in the balloon 23 to this action or to the phrase of the agent of the operator of the balloon 32. The words used by the character 30 are pre-programmed words for the selected phrase. The wording of balloon 23 is not the same as the wording of balloon 32 in this embodiment. When the operator 12 selects another alternative phrase, the character 30 behaves differently and responds differently.

【0027】キャラクター30がバルーン23における
言葉を話すことによって応答した後、ビデオゲーム・シ
ステムは、ロープをよじ登るキャラクター、またはバル
ーン23の言葉により指示された動作を実行するキャラ
クターを示す動画シーケンスを発生する。このよじ登り
シーケンスは図示しない。キャラクター30がシーケン
ス28においてキャラクター17に到達すると、キャラ
クター17はバルーン27におけるように「腕をつかん
で」という言葉を言い、救助活動が続けられる。従っ
て、アニメ・キャラクターは、動作と音声とを1以上の
操作者により直接的にまたは間接的に制御されつつ、救
助活動を共同して実行し、これらの動作に関して対話す
る。キャラクター17による言葉は、キャラクター17
用の他の択一的語句(図示せず)から操作者が選択する
ようにしてもよい。この操作者は、図5に示す第2の操
作者であってもよい。
After the character 30 responds by speaking the words in the balloon 23, the video game system generates an animated sequence showing the character climbing the rope or performing the action indicated by the words of the balloon 23. .. This climbing sequence is not shown. When the character 30 reaches the character 17 in sequence 28, the character 17 says "grab your arm" as in the balloon 27 and the rescue operation continues. Thus, the animated characters jointly perform rescue activities and interact with these actions, with the actions and sounds controlled directly or indirectly by one or more operators. The words by character 17 are
The operator may select from other alternative words (not shown) for use. This operator may be the second operator shown in FIG.

【0028】背景場面に対して動くことができる異なる
アニメ・キャラクターを各背景場面に利用することがで
きるように、背景場面用のデジタル・アニメ・データ
を、各キャラクター用のデジタル・アニメ・データとは
別に記憶してもよい。同様に、場面を変化させることな
く多くの異なる語句を各キャラクターが言えるように、
デジタル化された音声データをアニメ・データから独立
させてもよい。好ましい実施例においては、アニメ・キ
ャラクター・ビデオ音声シーケンスおよび誘導語句シー
ケンスは、別々に記憶されたデジタル・データから独立
的に発生される。1つの場面に使用されない対話データ
を、その後、同じまたは異なるキャラクターを有する異
なる場面で使用してもよい。音声データは、各キャラク
ターが予めプログラムされた多くの言葉すなわち語句を
話すことができるように、いくつかの特有の言葉の音
素、語、文または言葉の、コード・シーケンスまたは圧
縮化デジタル記録から構成してもよい。同様に、各アニ
メ・キャラクターの身体用のデジタル・データは、動く
唇、顔面、および身振り等のスプリット・データから分
離して記憶してもよく、それにより各キャラクターおよ
びその特有の言葉を会話に応じて異なる動きの唇と同期
させることができる。各キャラクター用のデジタル・デ
ータは、身体、唇、表現、身振り、および音声と組合せ
てもよい。
The digital animation data for the background scene and the digital animation data for each character are used so that different anime characters that can move with respect to the background scene can be used for each background scene. It may be stored separately. Similarly, each character can say many different phrases without changing the scene,
The digitized voice data may be independent of the animation data. In the preferred embodiment, the animated character video audio sequence and the inductive phrase sequence are independently generated from separately stored digital data. Interaction data that is not used in one scene may then be used in different scenes with the same or different characters. Speech data consists of code sequences or compressed digital recordings of phonemes, words, sentences or words of some unique words, so that each character can speak many pre-programmed words or phrases. You may. Similarly, the physical digital data for each animated character may be stored separately from the split data such as moving lips, face, and gestures, which allows each character and its unique language to be spoken. Depending on the lips of different movements can be synchronized. The digital data for each character may be combined with body, lips, expressions, gestures, and voice.

【0029】操作者が図1,2,5,6,7に示すボタ
ン14の1つを圧下すると、ゲームシステムは、選択さ
れた語句を話す音声を操作者の代わりに発生する。アニ
メ・キャラクターは、次いで、発生された音声が操作者
により話されたものとして応答する。操作者が実際に話
す言葉を選択するから、対話者である操作者が聞く言葉
は操作者の発音よりも操作者の指によって話され始め
る、と言う事実に操作者は速やかに適応することができ
る。選択された言葉を復唱する模擬音声は、他の各操作
者がスクリーン上のキャラクターに対し言うことを各操
作者が聞くことができる多人数用のゲームにとって重要
である。複数のボタン14の1つを押すことは、アニメ
・キャラクターによりすでに話された言葉に対する言語
応答を選択し、また表示器22に表示された言語応答に
対応する新たな対話シーケンスを選択することになる。
選択された対話シーケンスは、操作者が選択した言語応
答に対して応答する言葉を話すアニメ・キャラクターの
顔と声とを含む。
When the operator depresses one of the buttons 14 shown in FIGS. 1, 2, 5, 6, 7 the game system produces a voice speaking the selected phrase on behalf of the operator. The animated character then responds as if the sound produced was spoken by the operator. Since the operator selects the words to actually speak, the operator can quickly adapt to the fact that the words heard by the operator who is the interlocutor begin to be spoken by the operator's finger rather than the operator's pronunciation. it can. The simulated voice that recites the selected word is important for multiplayer games where each operator can hear what each other operator says to the character on the screen. Depressing one of the plurality of buttons 14 selects a verbal response to a word already spoken by the animated character and also selects a new dialogue sequence corresponding to the verbal response displayed on the display 22. Become.
The selected dialogue sequence comprises the face and voice of an anime character who speaks words in response to the operator's selected verbal response.

【0030】本発明の実施例においては、表示器22に
表示された各メニュー用の押しボタン14を有する手持
ち式制御器31と、ビデオ・スクリーンにサブタイトル
を表示することを回避すべく模擬音声とを利用する。し
かし、メニューは、これを制御器の表示器の代わりにビ
デオ・スクリーンに表示し、表示器を備えない手持ち式
制御器を利用する操作者により選択するようにしてもよ
い。
In the preferred embodiment of the present invention, a handheld controller 31 having a push button 14 for each menu displayed on the display 22 and a simulated voice to avoid displaying the subtitle on the video screen. To use. However, the menu may be displayed on the video screen instead of the control's display and selected by the operator utilizing a handheld control without the display.

【0031】各キャラクターは、アニメ映画、デジタル
化された活動的な動作、アナログ化された活動的な動
作、スプリット等とすることができ、また操作者が制御
してもよいし、しなくてもよい。本発明における言葉
「言語表現」は、多くの語、言葉、句、文、付加的な語
句、呪文、主要語、主要語の組合せ、記号等を意味し、
また、「何」、「うーん」、笑い声、悲鳴等、意味のあ
る人の音声を意味する。本発明におけるキスとは、一方
のキャラクターの唇が他方のキャラクターの唇または他
の身体部分に触れることを意味する。
Each character may be an animated movie, digitized active action, analogized active action, split, etc., and may or may not be controlled by the operator. Good. The term "linguistic expression" in the present invention means many words, words, phrases, sentences, additional words, spells, main words, combinations of main words, symbols, etc.,
Further, it means a meaningful voice of a person, such as "what", "hmm", laughter, scream, etc. Kissing in the context of the present invention means that the lips of one character touch the lips of another character or other body part.

【0032】本発明における用語「共同動作」は、救
助、追跡、操作、ボール・ゲーム、抱擁、他の擬態ゲー
ム、他の内容、他の活動等、友好的なビデオ・キャラク
ター間の動作、対抗するビデオ・キャラクター間の競争
動作または競技動作等を包含するように広い意味で使用
されている。
In the present invention, the term "cooperative action" refers to actions, such as rescue, tracking, manipulating, ball games, hugs, other mimicry games, other contents, other activities, etc., between friendly video characters. It is used in a broad sense to include competing motions or competitive motions between playing video characters.

【0033】我々は、誰でも生まれながらに、話しかけ
たり話しかけられたりしたい、という欲求を持ってい
る。他の人々が話すのを聞き、それによって彼らの感情
を一緒に体験することも我々が生まれながらに持ってい
る欲求であり、この欲求は音声が必要不可欠な映画やテ
レビに利用されてきた。人間である操作者が劇映画のよ
うに人間の感情を刺激するアニメ・キャラクターとの対
話に参加できる対話ビデオゲームは、、いつも変わらず
人を惹きつけるであろう。なぜならば、それらは、他人
と話したい、という人間の基本的な欲求を満足させるか
らである。
We all have a desire to speak and be spoken by nature. It is also our innate desire to hear other people speak and thereby experience their emotions together, which has been used in movies and television where audio is essential. Interactive video games that allow human operators to participate in dialogues with animated characters that inspire human emotions, such as feature films, will always attract people. Because they satisfy the basic human desire to talk to others.

【0034】本発明に関し、独特の実施例について説明
したが、本発明は種々の形に変更することができる。
Although a unique embodiment has been described with respect to the invention, the invention can be modified in various ways.

【図面の簡単な説明】[Brief description of drawings]

【図1】1人の操作者と3つのアニメ・キャラクターと
で行うアニメ映画対話ゲームを示す図であって1つのキ
ャラクターが危険状態にある他の2つのキャラクターを
助ける共同救助活動について対話しつつその救助活動を
実行するゲームを示す図である。
FIG. 1 is a diagram showing an animation movie dialogue game played by one operator and three anime characters, while talking about joint rescue activities in which one character helps two other characters in danger. It is a figure which shows the game which performs the rescue operation.

【図2】共同動作について互いに対話をする2つのアニ
メ・キャラクターと1人の操作者とで行う対話ゲームに
おける抱擁シーケンスを示す図である。
FIG. 2 is a diagram showing a hug sequence in an interactive game performed by two animated characters and one operator who interact with each other about a joint action.

【図3】アニメ映画キャラクターが図2において対話し
た共同動作を実行する図2の対話ゲームにおけるキス・
シーケンスを示す図である。
FIG. 3 is a kiss in the interactive game of FIG.
It is a figure which shows a sequence.

【図4】対話映画キャラクターが操作者による即時の動
作を必要とする対話ゲームにおける出っ張り吊り下がり
場面を示す図である。
FIG. 4 is a diagram showing a protrusion hanging scene in an interactive game in which an interactive movie character requires an immediate action by an operator.

【図5】2つのアニメ・キャラクターが図4に示す危険
状態に関して互いにおよび操作者と対話する対話ゲーム
における対話シーケンスを示す図である。
5 is a diagram showing a dialogue sequence in an interactive game in which two anime characters interact with each other and an operator regarding the dangerous state shown in FIG.

【図6】共同動作について対話しつつその共同動作を実
行する2つのアニメ・キャラクターと1人の操作者とで
野球競技をする対話ゲームを示す図である。
FIG. 6 is a diagram showing a dialogue game in which a baseball game is performed by two anime characters who perform a joint action while having a dialogue about the joint action and one operator.

【図7】共同救助活動について対話しつつその救助活動
を実行する3つのアニメ・キャラクターと1人の操作者
とで行う対話ゲームを示す図である。
FIG. 7 is a diagram showing a dialogue game played by three animated characters and one operator who perform a rescue operation while having a dialogue about the joint rescue operation.

【符号の説明】[Explanation of symbols]

12 操作者 17,18,30,37,38 アニメ・キャラクター 14 押しボタン 22 表示器 31 制御器 12 Operator 17, 18, 30, 37, 38 Anime character 14 Push button 22 Display 31 Control device

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 互いに異なる声を有する2以上の対話ア
ニメ・キャラクターとゲーム器の操作者との間で音声対
話を擬態する共同動作対話ビデオゲーム方法であって、
共同動作を実行する第1および第2の対話キャラクター
を示す動画的な画像を発生し、前記共同動作に関して前
記第2の対話キャラクターに話す第1の音声を前記第1
の対話キャラクターの声で発生し、前記第1の音声に応
答する複数の択一的言語表現を操作者に対して表示し、
前記複数の択一的言語表現から言語表現が前記操作者に
より選択されたことの指示を操作者から受け、選択され
た言語表現に応答する第2の音声を前記第2の対話キャ
ラクターの声で発生し、前記キャラクターの1つが前記
第2の音声に応答して動作を実行することを示す動画的
な画像を発生することを含む、共同動作の対話ビデオゲ
ーム方法。
1. A collaborative dialogue video game method for simulating a voice dialogue between two or more dialogue anime characters having different voices and an operator of a game device, comprising:
Producing a moving image showing first and second interactive characters performing a collaborative action, the first voice speaking to the second interactive character regarding the collaborative action being the first voice.
And displaying to the operator a plurality of alternative language expressions that occur in the voice of the dialogue character and respond to the first voice,
The operator receives an instruction from the operator that a language expression has been selected by the operator from the plurality of alternative language expressions, and a second voice that is responsive to the selected language expression is the voice of the second dialogue character. A collaborative interactive video game method comprising: generating an animated image that occurs and indicates that one of the characters performs an action in response to the second voice.
【請求項2】 前記第2の音声は、選択された言語表現
と異なる言葉を使用して選択された言語表現に応答す
る、請求項1に記載の方法。
2. The method of claim 1, wherein the second voice is responsive to the selected linguistic expression using a word that is different than the selected linguistic expression.
【請求項3】 前記第2の音声は、選択された言語表現
の言葉を言う、請求項1に記載の方法。
3. The method of claim 1, wherein the second voice refers to words of a selected verbal expression.
【請求項4】 前記共同動作は、1つのキャラアクタが
危険状態にある他のキャラクターを助けることを含む、
請求項1に記載の方法。
4. The collaborative action includes assisting one character actor with another character in danger.
The method of claim 1.
【請求項5】 前記共同動作は、1つのキャラクターが
他のキャラクターに向けてボールを前進させることを含
む、請求項1に記載の方法。
5. The method of claim 1, wherein the joint action includes one character advancing a ball toward another character.
【請求項6】 前記共同動作は、1つのキャラクターが
他のキャラクターと抱擁またはキスをすることを含む、
請求項1に記載の方法。
6. The collaborative action includes one character hugging or kissing another character,
The method of claim 1.
【請求項7】 いくつかの対話キャラクターは、アニメ
映画である、請求項1に記載の方法。
7. The method of claim 1, wherein some of the interactive characters are animated movies.
【請求項8】 前記対話キャラクターのいくつかの動画
的な画像は、生物のデジタル化された画像から発生され
る、請求項1に記載の方法。
8. The method of claim 1, wherein some animated images of the interactive character are generated from digitized images of living things.
【請求項9】 互いに異なる声を有する2以上の対話ア
ニメ・キャラクターとゲーム器の操作者との間で音声対
話を擬態する共同動作の対話ビデオゲーム方法であっ
て、共同動作を実行する第1および第2の対話キャラク
ターを示す動画的な画像を発生し、前記共同動作に関す
る複数の択一的言語表現を操作者に対して表示し、前記
複数の択一的言語表現から言語表現が操作者により選択
されたことの指示を操作者から受け、選択された言語表
現に応答する第1の音声を前記第1の対話キャラクター
の声で発生し、前記第1の音声に応答する第2の音声を
前記対話第2の対話キャラクターの声で発生することを
含む、共同動作の対話ビデオゲーム方法。
9. A dialogue video game method of collaborative action for simulating a voice dialogue between two or more dialogue animation characters having different voices and an operator of a game device, the first collaborative action executing method. And a plurality of alternative linguistic expressions relating to the joint action are displayed to the operator by generating a moving image showing the second dialogue character, and the linguistic expression from the plurality of alternative linguistic expressions is displayed by the operator. A second voice that receives an instruction from the operator that the selected voice expression is selected by the operator, generates a first voice that responds to the selected language expression in the voice of the first dialogue character, and that responds to the first voice. A dialogue motion video game method of collaborative action, comprising: generating the voice of the dialogue second dialogue character.
【請求項10】 前記第1の音声は、選択された言語表
現の言葉と異なる声を使用して選択された言語表現に応
答する、請求項9に記載の方法。
10. The method of claim 9, wherein the first voice is responsive to the selected linguistic expression using a voice that is different from the language of the selected linguistic expression.
【請求項11】 前記第1の音声は、選択された言語表
現の言葉を言う、請求項9に記載の方法。
11. The method of claim 9, wherein the first voice refers to a word of a selected verbal expression.
【請求項12】 前記共同動作は、1つのキャラクター
が危険状態にある他のキャラクターを助けることを含
む、請求項9に記載の方法。
12. The method of claim 9, wherein the collaborative action includes assisting one character with another character in danger.
【請求項13】 前記共同動作は、1つのキャラクター
が他のキャラクターに向けてボールを前進させることを
含む、請求項9に記載の方法。
13. The method of claim 9, wherein the joint action includes one character advancing a ball toward another character.
【請求項14】 前記共同動作は、1つのキャラクター
が他のキャラクターと抱擁またはキスをすることを含
む、請求項9に記載の方法。
14. The method of claim 9, wherein the collaborative action includes one character hugging or kissing another character.
【請求項15】 いくつかの対話キャラクターは、アニ
メ映画である、請求項9に記載の方法。
15. The method of claim 9, wherein some of the interactive characters are animated movies.
【請求項16】 前記キャラクターのいくつかの動画的
な画像は、生物のデジタル化された画像から発生され
る、請求項1に記載の方法。
16. The method of claim 1, wherein some animated images of the character are generated from digitized images of living things.
【請求項17】 互いに異なる声を有する2以上の対話
アニメ・キャラクターとゲーム器の操作者との間で音声
対話を擬態する共同動作の対話ビデオゲーム方法であっ
て、危険状態にさらされた危険キャラクターを示す動画
的な画像を発生し、前記危険キャラクターを危険状態か
ら助けるべく共同動作を実行する第1および第2の対話
キャラクターを示す動画的な画像を発生し、前記共同動
作に関して前記第2の対話キャラクターに話す第1の音
声を前記第1の対話キャラクターの声で発生し、前記第
1の音声に応答する複数の択一的言語表現を操作者に対
して表示して複数の択一的動作を提案し、前記複数の択
一的言語表現から言語表現が前記操作者により選択され
たことの指示を操作者から受け、選択された言語表現に
応答する第2の音声を第2の対話キャラクターの声で発
生し、前記キャラクターの1つが前記危険キャラクター
を危険状態から助けるように選択された言語表現により
提案された動作を実行することを示す動画的な画像を発
生することを含む、共同動作の対話ビデオゲーム方法。
17. A collaborative dialogue video game method for simulating a voice dialogue between two or more dialogue anime characters having different voices and an operator of a game device, the danger being exposed to a dangerous state. Generating a moving image showing a character and generating a moving image showing first and second interactive characters performing a joint action to help the dangerous character from a dangerous state, the second moving image relating to the joint action. Generating a first voice speaking to the dialogue character of the first dialogue character in the voice of the first dialogue character, and displaying a plurality of alternative language expressions responsive to the first voice to the operator to display a plurality of choices. Second voice that proposes a physical action, receives an instruction from the operator that the language expression has been selected by the operator from the plurality of alternative language expressions, and responds to the selected language expression. In a voice of a second interactive character to generate an animated image showing that one of the characters performs the action suggested by the linguistic expression selected to help the dangerous character out of danger. A collaborative interactive video game method including:
【請求項18】 前記第2の音声は、選択された言語表
現と異なる言葉を使用して選択された言語表現に応答す
る、請求項17に記載の方法。
18. The method of claim 17, wherein the second voice is responsive to the selected linguistic expression using a word that is different than the selected linguistic expression.
【請求項19】 前記第2の音声は、選択された言語表
現の言葉を言う、請求項17に記載の方法。
19. The method of claim 17, wherein the second voice refers to words of a selected verbal expression.
【請求項20】 互いに異なる声を有する2以上の対話
アニメ・キャラクターとゲーム器の操作者との間で相互
作用を擬態する共同動作の対話ビデオゲーム方法であっ
て、一連の動作を実行しつつ共同動作を実行する第1お
よび第2の対話キャラクターを示す動画的な画像を発生
し、前記共同動作に関して第1の音声を前記第1の対話
キャラクターの声で発生し、複数の択一的動作の1つを
実行すべく第2の対話キャラクターを促す第1の対話キ
ャラクターの動作を示す動画的な画像を発生し、前記複
数の択一的動作から所定の動作が前記操作者により選択
されたことの指示を操作者から受け、選択された動作を
実行する第2の対話キャラクターを示す動画的な画像を
発生し、選択された動作に関して第1の対話キャラクタ
ーに話す第2の音声を第2の対話キャラクターの声で発
生することを含む、共同動作の対話ビデオゲーム方法。
20. A collaborative interactive video game method for simulating an interaction between two or more interactive anime characters having different voices and an operator of a game device, wherein a series of actions are executed. Generating a moving image showing first and second interactive characters performing a joint action, producing a first voice in the voice of the first interactive character for the joint action, and a plurality of alternative actions; One of the plurality of alternative actions is selected by the operator to generate a moving image showing the action of the first interactive character that prompts the second interactive character to perform one of the A second voice that receives an instruction from the operator to generate a moving image showing the second interactive character performing the selected action and speaks to the first interactive character regarding the selected action. And a voice of a second interactive character.
【請求項21】 前記共同動作は、1つのキャラクター
が危険状態にある他のキャラクターを助けることを含
む、請求項20に記載の方法。
21. The method of claim 20, wherein the collaborative action includes assisting one character with another character in danger.
【請求項22】 前記共同動作は、1つのキャラクター
が他のキャラクターに向けてボールを前進させることを
含む、請求項20に記載のゲーム方法。
22. The game method of claim 20, wherein the collaborative action includes one character advancing a ball toward another character.
【請求項23】 前記共同動作は、1つのキャラクター
が他のキャラクターと抱擁またはキスをすることを含
む、請求項20に記載の方法。
23. The method of claim 20, wherein the collaborative action includes one character hugging or kissing another character.
【請求項24】 いくつかの対話キャラクターは、アニ
メ映画である、請求項20に記載の方法。
24. The method of claim 20, wherein some of the interactive characters are animated movies.
【請求項25】 前記対話キャラクターのいくつかの動
画的な画像は、生物のデジタル化された画像から発生さ
れる、請求項20に記載の方法。
25. The method of claim 20, wherein some animated images of the interactive character are generated from digitized images of living things.
【請求項26】 互いに異なる声を有する2以上の対話
アニメ・キャラクターとゲーム器の操作者との間で音声
対話を擬態する共同動作の対話ビデオゲーム方法であっ
て、共同動作を実行する第1および第2の対話キャラク
ターを示す動画的な画像を発生し、前記共同動作に関し
て前記第2の対話キャラクターに話す第1の音声を前記
第1の対話キャラクターの声で発生し、前記第1の音声
に応答して言うべき第2の対話キャラクター用の複数の
択一的言語表現を操作者に対して表示し、前記複数の択
一的言語表現から言語表現が前記操作者により選択され
たことの指示を操作者から受け、選択された言語表現に
応答する第2の音声を第2の対話キャラクターの声で発
生し、キャラクターの1つが前記第2の対話キャラクタ
ー用の操作者により指示された択一的言語表現の特定の
1つに応答して複数の動作の選択された1つの動作を実
行することを示す動画的な画像を発生することを含む、
共同動作の対話ビデオゲーム方法。
26. A collaborative dialogue video game method for simulating a voice dialogue between two or more dialogue animation characters having different voices and an operator of a game device, wherein the first collaborative movement is performed. And generating a moving image showing a second dialogue character, producing a first voice in the voice of the first dialogue character to speak to the second dialogue character in relation to the collaborative action, the first voice A plurality of alternative linguistic expressions for the second interactive character to be displayed in response to the operator, the linguistic expression being selected by the operator from the plurality of alternative linguistic expressions. An instruction is received from the operator and a second voice is generated in the voice of the second dialogue character in response to the selected language expression, one of the characters being produced by the operator for the second dialogue character. Generating an animated image showing performing a selected one of a plurality of actions in response to a particular one of the indicated alternative language expressions.
A collaborative interactive video game method.
JP4209471A 1992-01-31 1992-07-15 Method for dialogic video game by joint operation Pending JPH05228260A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US83037992A 1992-01-31 1992-01-31
US830,379 1992-01-31

Publications (1)

Publication Number Publication Date
JPH05228260A true JPH05228260A (en) 1993-09-07

Family

ID=25256873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4209471A Pending JPH05228260A (en) 1992-01-31 1992-07-15 Method for dialogic video game by joint operation

Country Status (3)

Country Link
JP (1) JPH05228260A (en)
AU (1) AU3132793A (en)
WO (1) WO1993014844A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5393073A (en) * 1990-11-14 1995-02-28 Best; Robert M. Talking video games
WO1996003190A1 (en) * 1994-07-24 1996-02-08 Austel Licensing Gmbh Interactive system with programmable toys
JP3127084B2 (en) * 1994-08-11 2001-01-22 シャープ株式会社 Electronic secretary system
US7730403B2 (en) 2006-03-27 2010-06-01 Microsoft Corporation Fonts with feelings
US8095366B2 (en) 2006-03-27 2012-01-10 Microsoft Corporation Fonts with feelings

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0016314A1 (en) * 1979-02-05 1980-10-01 Best, Robert MacAndrew Method and apparatus for voice dialogue between a video picture and a human
US4846693A (en) * 1987-01-08 1989-07-11 Smith Engineering Video based instructional and entertainment system using animated figure
US4847699A (en) * 1987-07-16 1989-07-11 Actv, Inc. Method for providing an interactive full motion synched compatible audio/visual television display

Also Published As

Publication number Publication date
WO1993014844A1 (en) 1993-08-05
AU3132793A (en) 1993-09-01

Similar Documents

Publication Publication Date Title
US5393071A (en) Talking video games with cooperative action
US5393072A (en) Talking video games with vocal conflict
AU652209B2 (en) Talking video games
US5393073A (en) Talking video games
US5393070A (en) Talking video games with parallel montage
US6529875B1 (en) Voice recognizer, voice recognizing method and game machine using them
CN108182830B (en) Robot, robot control device, method, system, and storage medium
JP2012527311A (en) Method and apparatus for controlling a player character dialog of a video game on a computer readable storage medium
Duval et al. SpokeIt: building a mobile speech therapy experience
US20210043106A1 (en) Technology based learning platform for persons having autism
JPH05228260A (en) Method for dialogic video game by joint operation
JP3179626B2 (en) Voice game console
Larsen et al. Multi modal user interaction in an automatic pool trainer
Hedeshy et al. All birds must fly: The experience of multimodal hands-free gaming with gaze and nonverbal voice synchronization
Casasanto et al. Virtual reality
JPH05293252A (en) Dialog video game method utilizing sound contrast
JP2018175461A (en) Response interface and interaction training system
WO1993004748A1 (en) Video game with interactive audiovisual dialogue
Rehm et al. From Chatterbots to Natural Interaction--Face to Face Communication with Embodied Conversational Agents
Sharp Conversational Analysis of Turn-Taking in a Dungeons & Dragons Game Session
de Oliveira A multiplayer voice-enabled game platform
Lauer Gaze and voice driven hands free gaming
Ahmad An emotion and memory model for social robots: A long-term interaction
JP2001296877A (en) Program executing device which conducts voice conversation and its program
Lintuaho IBM Watson in a game project