WO2000053281A1 - Dispositif d'animal virtuel et support d'enregistrement de son programme de commande - Google Patents

Dispositif d'animal virtuel et support d'enregistrement de son programme de commande Download PDF

Info

Publication number
WO2000053281A1
WO2000053281A1 PCT/JP2000/001290 JP0001290W WO0053281A1 WO 2000053281 A1 WO2000053281 A1 WO 2000053281A1 JP 0001290 W JP0001290 W JP 0001290W WO 0053281 A1 WO0053281 A1 WO 0053281A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
stimulus
recognition
virtual
stored
Prior art date
Application number
PCT/JP2000/001290
Other languages
English (en)
French (fr)
Inventor
Yasumichi Kaneko
Original Assignee
Namco, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco, Ltd. filed Critical Namco, Ltd.
Priority to JP2000603769A priority Critical patent/JP4250340B2/ja
Publication of WO2000053281A1 publication Critical patent/WO2000053281A1/ja

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/302Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device specially adapted for receiving control signals not targeted to a display device or game input means, e.g. vibrating driver's seat, scent dispenser
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8058Virtual breeding, e.g. tamagotchi
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Definitions

  • the present invention relates to a pet-type toy imitating an animal or the like, or a pet-type game machine using a display imitating an animal or the like.
  • the present invention solves the above-mentioned problems in the conventional pet-type toys, and forms a specific relationship between the operator or the owner and the virtual pet. A feeling closer to the real pet It is intended to provide a virtual socket device capable of obtaining the information.
  • the present invention also provides a recording medium storing a control program for the virtual device.
  • a virtual pet device is a virtual pet device configured to appropriately respond to an external stimulus, comprising: input means for inputting an external stimulus; Recognizing means for recognizing the stimulus input by the means, and control means for controlling a response operation of the apparatus based on the recognition result of the recognizing means, wherein the control means analyzes the input stimulus. And identifying the individual who has input the stimulus.
  • the input means can be a voice input device.
  • the operator can be identified by a voice uttered by the operator, for example, a phrase.
  • the input means may be an image input device. That In this case, the operator can be identified by, for example, the face image of the operator.
  • An unspecified number of stimulus input persons are provided so as to be identifiable, and storage means is provided for storing the recognition frequency of each input user corresponding to the input, so that only the input persons having a high recognition frequency are responded to. It is suitable. With this configuration, the voices or face images of an unspecified number of operators are individually recognized, and the operator who has the highest frequency of recognition is determined. It is possible to respond, and the relationship between a specific operator and the virtual machine can be made closer. In the case of inputting a voice, for example, a phrase, regarding the recognition frequency, if the frequency is individually stored for each recognized phrase, an individual correspondence can be constructed for each phrase.
  • an unspecified number of stimulus input persons are provided so as to be identifiable, and storage means for storing the recognition frequency of each input user corresponding to the input is provided, so that it does not respond to an input whose recognition frequency has relatively decreased. It is preferable that such a configuration is adopted. With this configuration, it is possible to stop responding to an input whose relative recognition frequency has decreased, and the effect of forgetting knowledge (memory) similar to that of a real creature occurs. The feeling can be improved. In addition, for example, re-education (increase in frequency) of a phrase as a speech input causes the virtual dot to respond again, so that more satisfaction can be obtained and effective. It is.
  • a storage means is provided so as to be able to identify an unspecified number of stimulus input persons, and has storage means for storing a recognition frequency for each input user corresponding to the input.
  • the input whose number has relatively decreased may be sequentially deleted.
  • the apparatus is provided so as to be able to identify an unspecified number of stimulus input persons, and has storage means for storing the recognition frequency of each input user corresponding to the input. It is preferable that the operation can be changed. With this configuration, for example, the same phrase can be made to react differently depending on the degree of recognition of the phrase or the difference in operator, and a more realistic virtual dot can be provided. it can.
  • storage means for storing the input time for each stimulus input person, and to change the response operation according to the elapsed time from the last input date and time.
  • the recording medium storing the control program of the virtual kit according to the present invention recognizes a signal input from the stimulus input means as a stimulus, controls a response operation based on the recognition result, and A program for controlling the analysis of the recognized stimulus to identify the individual who has input the stimulus is stored.
  • the recording medium recognizes an audio signal as an input signal as a stimulus. It can store a program that controls to recognize.
  • the recording medium can store a program for controlling an image signal as an input signal to be recognized as a stimulus.
  • the recording medium identifies an unspecified number of stimulus input persons by stimulus analysis and stores the recognition frequency of each input user corresponding to the input, so that only the input persons having a high recognition frequency can recognize the input frequency. You can store a program that controls to respond.
  • the recording medium identifies an unspecified number of stimulus input persons by stimulus analysis and stores the recognition frequency of each input user corresponding to the input, and the recognition frequency relatively decreased.
  • a program that controls not to respond to input can be stored.
  • the recording medium identifies an unspecified number of stimulus input persons by stimulus analysis and stores the recognition frequency of each input user corresponding to the input, and the recognition frequency relatively decreased.
  • a program that controls the input to be deleted sequentially can be stored.
  • the recording medium identifies an unspecified number of stimulus input persons by stimulus analysis and stores the recognition frequency of each input user corresponding to the input, and according to the input user and the recognition frequency.
  • a program that controls the response to the same input can be stored.
  • the recording medium identifies an unspecified number of stimulus users by stimulus analysis and stores the input date and time of each input user corresponding to the input, and stores the time and date elapsed from the last input date and time.
  • a program for controlling the response operation to be changed accordingly can be stored.
  • the recording medium has a combination of a plurality of preset basic operations and phrases corresponding to each operation, and newly establishes a relationship with a phrase corresponding to a series of operations combining the basic operations.
  • a program that can be set so that it can be set can be stored.
  • the input is, for example, a word or the like if the input means is a voice input device, or a face image if the input means is an image input device.
  • FIG. 1 is an external view showing a virtual kit according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the control unit provided in the virtual pet body.
  • FIG. 3 is a flowchart showing control for generating a specific relationship between an operator and a virtual pet in the embodiment of the present invention. [Embodiment for carrying out the invention]
  • FIG. 1 shows the appearance of an example of a virtual kit according to the present invention.
  • the virtual pet according to the present embodiment is configured in the shape of a stuffed dog, and a main body (body) 1 is provided with an eye 2, a mouth 3, a tail 4, and the like.
  • the main body 1 has a built-in control unit described later.
  • an operation mechanism such as moving the dog's head or shaking the tail can be provided, and each mechanism can be controlled by the control unit.
  • FIG. 2 is a block diagram illustrating a configuration of a control unit provided in the main body 1.
  • the control unit includes a voice recognition unit 20, an event execution unit 30, an image recognition unit 40, and the like with a control device 10 at the center.
  • the control device 10 includes, in addition to the CPU 11, a ROM, a RAM (not shown) and the like. Further, a speaker database 12 and an image database 13 are provided in the control device 11. These databases can be stored in memory or other storage means.
  • the speech recognition section 20 is provided with a dictionary 21 for speech recognition. Then, the voice input from the voice input device (microphone) 22 is recognized.
  • the voice recognition unit 20 is connected to the control device 10 and outputs a recognized voice to the control device 10 and receives a control signal from the control device 10.
  • the speech recognition dictionary 21 may be updated by a command from the control device 10.
  • the voice recognition dictionary 21 may be provided so as to be exchangeable.
  • the microphone 22 can be installed at an appropriate position of the stuffed dog in FIG. 1, but is preferably arranged near the head or the precordial region.
  • the event execution unit 30 stores an event list 31 (the event list stores a list of events that can execute the virtual kit of the present embodiment).
  • the event output of a sound (onomatopoeic sound) or voice, or an operation through an operation mechanism (not shown), for example, setting an appropriate event such as moving a neck or waving a tail. can do.
  • the image recognition unit 40 includes an image processing device 41.
  • the image processing device 41 processes an image input from the image input device 42 and sends the output to the control device 10.
  • a CCD camera is used as the image input device 42, and the image input device 42 is positioned at the position of the eye 2 in FIG. Can be placed.
  • the speaker database 12 in the present embodiment is for identifying the operator who has spoken to the main body 1, and Table 1 below shows a configuration example of the speaker database.
  • the voice of the operator input from the voice input device 22 is recognized by the voice recognition unit 20, and as shown in Table 1, gender data based on gender estimation and age data based on age estimation are used. (Children or adults)
  • Built-in dictionary 21 Rank-based data of similarity by comparing with the dictionary 1, Recognition of the relevant phrase indicating the number of recognitions of the phrase corresponding to the pre-registered words (here, words 1 to 5) Frequency data, date and time data indicating the date and time of the last recognition of the speaker, etc. are stored and constructed as a database. Table 1 also shows the corresponding image data.
  • Table 2 below shows an example of the configuration of the optional image database.
  • Image database Image data Face size Eye spacing Relative relationship between eyes, nose, mouth Image 1 Small Narrow pattern A 1 Image 2 Small Normal Turn B 1 Image 3 Large Wide Pattern B 2 Image 4 Medium Normal Pattern B 1
  • the image database is constructed by processing an image input from the image input device 42 in the image processing device 41 and based on the image data sent from the image recognition section 40 to the control device 10.
  • it is composed of data such as the size of the speaker's face, the distance between eyes, and the pattern of the relative relationship between eyes, nose, and mouth.
  • the speaker image data stored in the image database is stored as an image corresponding to each speaker in the speaker database.
  • a specific partner can be recognized (recognized by an image) and barked, even if the owner does not consciously perform input. If there is an entity such as a pet robot, the virtual pet can take spontaneous actions such as approaching the side.
  • the recognition frequency at the time of input is stored as in the case of voice recognition, and virtual recognition is performed according to the contact frequency of the operator. It is possible to make a difference in the response of the kit. For example, it is possible to make a difference in response, such as voluntarily approaching an operator with a high recognition frequency and barking to an operator with a low recognition frequency.
  • a specific relationship between the speaker (operator) and the virtual pet that is, the real pet and the owner
  • the voices of an unspecified number of speakers talking to the virtual unit are individually identified, and the speaker with the highest recognition frequency is determined. Only responds to speakers who have contacted (talked to) frequently.
  • the control for generating a specific relationship between the speaker (operator) and the virtual pet will be described with reference to the flowchart of FIG.
  • a speaker speaks to a virtual unit
  • the speaker's voice is sampled. That is, the analog voice input from the microphone 22 is subjected to pre-processing such as band limiting and noise reduction as necessary to be digitally converted (step 1). Then, features required for speech recognition and speaker estimation are extracted (step 2).
  • speech recognition processing is performed based on the speech recognition dictionary 21 to determine whether the result is a valid recognition result (step 3).
  • the validity / invalidity determination here is made by checking whether a valid word corresponding to the event list 31 has been input. If it is determined that the phrase is invalid, execute an event to notify the speaker that the phrase is invalid, and then wait for the input of a new phrase.
  • An event corresponding to an invalid phrase includes, for example, a “heading” action.
  • the gender and age, which are the criteria for speaker identification, are estimated, the overall similarity is calculated, and this is used as speaker estimation data (step 4). .
  • the calculated speaker estimation data is compared with reference to the speaker database 1 If the speaker does not correspond to an existing speaker in the base, the speaker estimation data is registered in the speaker database 12 as a new speaker (step 5).
  • the recognition frequency of the corresponding phrase (the phrase corresponding to the spoken word) of the corresponding speaker (or a new speaker in the case of a new speaker) in the speaker database 12 is updated (step 6). .
  • the event corresponding to the recognized word / phrase is executed (step 7).
  • the event occurrence conditions are: 1: when the recognition frequency reaches a certain threshold or more, 2: when the recognition frequency reaches the maximum for each speaker for each phrase, etc. Set according to.
  • the speaker database 12 since the last recognition date and time for each speaker is recorded in the speaker database 12, it may be longer than the current time. For example, settings such as changing the behavior of the virtual pet (changing the event) are also possible.
  • the recognition frequency of the input user is generally high, normal operation is performed when the elapsed time from the last recognition date and time is short, and when the input is long, the owner is overjoyed when returning from a small trip. Excessive movement is performed, and when it is extremely long, warning actions such as barking and groaning as if the owner were forgotten are performed.
  • the normal operation is performed in the same manner as in the above case (when the recognition frequency of the input user is high overall).
  • a warning action is performed as if the owner had been forgotten earlier than in the above case, and when the elapsed time is extremely long, the action of ignoring the input (non-operation) is performed. Let it.
  • the operation may be spontaneous, such as sneaking lonely when the non-input state continues to some extent.
  • the last recognition date and time may be stored for each word. It is also possible to set different events to be executed even for the same word, depending on the recognition frequency of the word or the difference in the input user. For example, when a speaker with a low degree of recognition calls out “good morning”, only a single voice response "one” is answered, and a speaker with a high degree of recognition recognizes "good morning”. When a call is made, it is possible to make settings such as responding with a “shake tail” event and “one, one, one”. Also, since the recognition frequency area of the speaker database 12 is finite, if the overflow eventually occurs and 1 is set as the condition in step 7, an event actually occurs. I'm gone.
  • the recognition frequency of each of these effective events (the recognition frequency of the phrase that caused the effective event) is readjusted, and those with a relatively low recognition frequency become invalid again.
  • the speaker database 12 is adjusted such as the frequency or threshold value adjustment (step 8), and the next speech input is waited for.
  • a substance such as a stuffed toy
  • it can be configured as an electronic stick displayed on display means.
  • those electronic kits can take the form of operating on dedicated game machines or general-purpose computers.
  • the stimulus given to the virtual pet is not limited to voice, but may be, for example, an image by an image input device (such as an operator's face), a contact using a micro switch sensor, or the like.
  • Various input signals can be input via key input from the operation unit or via remote control or communication.
  • the configuration of the database for identifying the operator is not limited to the example of the present embodiment, and can be configured with any content.
  • the setting of recognition words is not limited.
  • the events executed in response to those events are not limited to sound output and operation, Light emission, oscillation, etc. can be set arbitrarily.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Toys (AREA)

Description

明細書 仮想ぺッ ト装置及びその制御プログラム記録媒体 〔技術分野〕
本発明は、 動物等の形を模したペッ ト型玩具、 あるいは動物等 の形態を模した表示を用いたペッ ト型ゲーム機に関する。
〔背景技術〕
動物を模したぬいぐるみ本体内に、 口や尻尾等を動かす機構な どを備えたペッ ト型の玩具がある。
また、 表示部に画像と して表示されたペッ トに対し、 擬似的に 餌を与えるなどして飼育する携帯型電子ペッ ト玩具も知られてい る。
しかしながら、 従来のぬいぐるみ型のぺッ ト玩具においては、 電池やぜんまい等を動力源と して特定の操作に対応して動作する ものが様々な形態で存在するものの、 これらは機械的に単純な反 応を繰り返すに過ぎなかった。
また、 近年流行した電子ぺッ ト玩具においては、 携帯型ゆえに 所持者とその内部に存在する仮想べッ ト との一体感は存在するが その玩具自体が他人の手に渡った場合には特定の飼育者 (所有 者) という概念自体があいまいになってしま う。
このよ うな従来のペッ ト型玩具においては、 実際の (本物の) ペッ ト と飼主との関係に見られるよ うな感情の交流といったもの を体感する こ とはできず、 操作者あるいは所持者と仮想ぺッ ト と の間に特定の関係が形成されないとい う 問題があつた。
本発明は、 従来のぺッ ト型玩具における上述の問題を解決し、 操作者あるいは所持者と仮想ぺッ ト との間に特定の関係を形成し. よ り 実物のぺッ トに近い感覚を得るこ とのでき る仮想ぺッ ト装置 を提供する ものである。
また、 本発明は、その仮想ぺッ ト装置の制御プロ グラムを格納 した記録媒体を提供するものである。
〔発明の開示〕
本発明にかかる仮想ペッ ト装置は、 外部からの刺激に対して適 切な応答をするよ う構成された仮想ぺッ ト装置であって、 外部か らの刺激を入力する入力手段と、 該入力手段よ り入力された刺激 を認識する認識手段と、 該認識手段の認識結果に基づい 装置の 応答動作を制御する制御手段と を有し、 前記制御手段は、 前記入 力された刺激を解析して、 該刺激を入力 した個人を識別するこ と を特徴とする。 本発明によれば、 操作者による刺激を解析するこ とでその刺激を発生した個人を識別し、 仮想ぺッ ト と操作者との 間に特定の関係を構築する こ と によって、 両者の間に本物のぺッ ト と飼主間の関係に似た濃密な関係を演出する こ とが可能になる, 前記入力手段を音声入力装置とする こ とができる。その場合は、 操作者が発した音声、 例えば語句によ り操作者を識別するこ とが できる。
また、 前記入力手段を画像入力装置とする こ とができる。 その 場合は、例えば、操作者の顔画像等によ り操作者を識別するこ とが でき る。
そして、 不特定多数の刺激入力者を識別可能に設けられ、 入力 に対応する入力者毎の認識度数を記憶する記憶手段を有し、 認識 頻度の高い入力者のみに応答するよ う に構成する と好適である。 この構成によ り 、不特定多数の操作者の音声あるいは顔画像等を 個別に認識し、 認識頻度の高い操作者を判定する こ とによって最 も頻繁に仮想ペッ トに接触した操作者にのみ応答させるこ とがで き、 特定の操作者と仮想ぺッ ト との関係をよ り緊密なものとする こ とができ る。 音声例えば語句を入力とする場合、認識頻度に関 して、 認識された語句単位に個別に頻度を記憶してやれば、 各語 句毎に個別の対応関係を構築するこ とができる。
また、 不特定多数の刺激入力者を識別可能に設けられ、 入力に 対応する入力者毎の認識度数を記憶する記憶手段を有し、 認識度 数が相対的に低下した入力には応答しないよ う構成される と好適 である。 この構成によ り 、相対的な認識度数が低下した入力に対 して応答しなく なるよ う にでき、 実際の生物と同様な知識 (記憶) の忘却とい う作用が発生する こ とで現実感を向上させるこ とがで きる。 また、 例えば、音声入力と しての語句を再教育する (度数 を増加させる)こ とで再び仮想ぺッ トが応答するよ う になるため、 よ り満足感を得るこ とができ効果的である。
また、 不特定多数の刺激入力者を識別可能に設けられ、 入力に 対応する入力者毎の認識度数を記憶する記憶手段を有し、 認識度 数が相対的に低下した入力を順次抹消するよ う構成してもよい。 さ らに、 不特定多数の刺激入力者を識別可能に設けられ、 入力 に対応する入力者毎の認識度数を記憶する記憶手段を有し、 入力 者及び認識度数に応じて同一の入力に対する応答動作を変更可能 に構成する と好適である。 この構成によ り、例えば語句の認識度 数や操作者の違いによって、 同じ語句でも異なる反応を示すよ う にするこ と もでき、 よ り現実感のある仮想ぺッ トを提供すること ができる。
また、 刺激入力者毎に入力のョ時を記憶する記憶手段を有し、 最終入力日時からの経過時間に応じて応答動作を変更させると好 適である。
また、 予め設定された複数の基本動作と各動作に対応する語句 の組み合わせを有し、 前記基本動作を組み合わせた一連の動作に 対応する語句との関係を新たに設定可能に構成すると好適である c これによ り 、 基本動作の複数の組み合わせと新たな語句との対応 を設定でき、 さ らに複雑な応答動作が可能となる。 このため、 あ たかも実際のぺッ トを仕付けるよ うな感覚を得ることができる。
また、 本発明に係る仮想ぺッ トの制御プログラムを格納した記 録媒体は、刺激入力手段から入力された信号を刺激と して認識し、 該認識結果に基づいて応答動作を制御すると ともに、 前記認識し た刺激を解析して該刺激を入力した個人を識別するよ う制御する プログラムを格納したことを特徴とする。
その記録媒体には、 入力信号と しての音声信号を刺激と して認 識するよ う制御するプログラムを格納するこ とができる。
また、 その記録媒体には、 入力信号と しての画像信号を刺激と して認識するよ う制御するプログラムを格納することができる。 また、 その記録媒体には、 刺激解析によ り不特定多数の刺激入 力者を識別すると と もに、 入力に対応する入力者毎の認識度数を 記憶し、 認識頻度の高い入力者のみに応答するよ う制御するプロ グラムを格納することができる。
また、 その記録媒体には、 刺激解析によ り不特定多数の刺激入 力者を識別すると と もに、 入力に対応する入力者毎の認識度数を 記憶し、 認識度数が相対的に低下した入力には応答しないよ う制 御するプログラムを格納することができる。
また、 その記録媒体には、 刺激解析によ り不特定多数の刺激入 力者を識別すると と もに、 入力に対応する入力者毎の認識度数を 記憶し、 認識度数が相対的に低下した入力を順次抹消するよ う制 御するプログラムを格納することができる。
また、 その記録媒体には、 刺激解析によ り不特定多数の刺激入 力者を識別すると と もに、 入力に対応する入力者毎の認識度数を 記憶し、 入力者及び認識度数に応じて同一の入力に対する応答動 作を変更するよ う制御するプログラムを格納するこ とができる。
また、 その記録媒体には、 刺激解析によ り不特定多数の刺激入 力者を識別すると と もに、 入力に対応する入力者毎の入力日時を 記憶し、最終入力日時からの経過時間に応じて応答動作を変更す るよ う制御するプログラムを格納することができる。 また、 その記録媒体には、 予め設定された複数の基本動作と各 動作に対応する語句の組み合わせを有し、 前記基本動作を組み合 わせた一連の動作に対応する語句と の関係を新たに設定可能なよ う制御するプロ グラムを格納する こ とができる。
なお、 上記入力と は、例えば、 入力手段が音声入力装置であれ ば語句等であ り 、画像入力装置であれば顔画像等である。
〔図面の簡単な説明〕
図 1 は、本発明の一実施形態の仮想ぺッ トを示す外観図である。 図 2は仮想ペッ ト本体内に設けられた制御部の構成を示すブ口 ック図である。
図 3 は、 発明の実施形態における、 操作者と仮想ペッ ト間に特 定の関係を発生させるための制御を示すフローチャー トである。 〔発明を実施するための実施形態〕
図 1 は、本発明にかかる仮想ぺッ トの一例の外観を示している。 この図に示すよ う に、 本実施形態の仮想ペッ トは犬のぬいぐるみ 形状に構成され、 本体 (胴体) 1 に目 2、 口 3 、 尻尾 4等が設け られている。 本体 1 内には、 後述する制御部が内蔵されている。 また、 犬の頭部を動かしたり尻尾を振らせたり などの図示しない 動作機構を設け、各機構を制御部によって制御する こ とができる。
図 2は、 本体 1 内に設けられた制御部の構成を示すブロ ック図 である。 この図に示すよ う に、 本実施形態における制御部は、 制 御装置 1 0 を中心に音声認識部 2 0、 ィベン ト実行部 3 0及ぴ画 像認識部 4 0等から構成される。 制御装置 1 0 は、 C P U 1 1 のほか図示しない R O M, R A M 等を備えている。 また、 制御装置 1 1 内には話者データベース 1 2及び画像データベース 1 3 が設けられている。 これらのデータ ベースはメ モ リ その他の記憶手段に格納するこ とができる。
音声認識部 2 0 には音声認識用の辞書 2 1 が設けられている。 そ して、 音声入力装置 (マイ ク) 2 2から入力された音声を認識 する。 音声認識部 2 0 は制御装置 1 0 に接続され、 認識した音声 を制御装置 1 0 に出力 した り 、 制御信号を制御装置 1 0から受け 取った りする。 なお、 音声認識用辞書 2 1 の更新を制御装置 1 0 からの指令で行えるよ う に構成するこ と もできる。 あるいは、 音 声認識用辞書 2 1 を交換可能に設けても良い。 また、 マイ ク 2 2 は、 図 1 における犬のぬいぐるみの適宜位置に設置できるが、 頭 部または前胸部辺 り に配置するのが好適である。
イベン ト実行部 3 0 にはイベン ト リ ス ト 3 1 が格納されている ( イベン ト リ ス トには、 本実施形態の仮想ぺッ トが実行できるィべ ン ト の リ ス ト が格納される。 イベン ト の具体例と しては、 音 (擬 音) または音声の出力、 あるいは図示しない動作機構を介した動 作、 例えば、 首を動かす、 尻尾を振るなど適宜のイベン トを設定 する こ とができ る。
本実施形態では画像認識部 4 0には、 画像処理装置 4 1 が含ま れる。 画像処理装置 4 1 は、 画像入力装置 4 2から入力された画 像を処理し、 その出力を制御装置 1 0 に送る。 画像入力装置 4 2 と して、 例えば C C Dカメ ラを用い、 図 1 における 目 2の位置に 配置する こ とができ る。
と ころで、 本実施形態における話者データベース 1 2は、 本体 1 に話し掛けた操作者を識別するためのものであ り 、 次の表 1 に 話者データベースの構成例を示す。
【表 1 】
話者データベース
Figure imgf000010_0001
本実施形態では、 音声入力装置 2 2から入力した操作者の声を 音声認識部 2 0で認識し、 この表 1 に示すよ う に、 男女の推定に よる性別データ、年齢の推定による年齢データ (小児または大人) 内蔵辞書 2 1 との比較による類似度のランク別データ、 あらかじ め登録された語句 (こ こでは語句 1 〜語句 5 ) に該当する語句の 認識回数を示す該当語句の認識度数データ、 その話者を最後に認 識した日時を表す日時データ等が蓄積され、 データベース と して 構築される。 なお、 表 1 には、 対応する画像データ も示してある。
次の表 2は、 ォプショ ンの画像データベースの構成例を示すも のである。
【表 2 】
画像データべース 画像データ 顔の大き さ 目の間隔 目、 鼻、 口の相対関係 画像 1 小 狭い パターン A 1 画像 2 小 普通 ノ、。ターン B 1 画像 3 大 広い パターン B 2 画像 4 中 普通 パターン B 1
画像データべ一スは、 画像入力装置 4 2 から入力された画像を 画像処理装置 4 1 で処理し、 画像認識部 4 0から制御装置 1 0 に 送られた画像データを元に構築される。 こ こでは一例と して、 話 者の顔の大き さ、 目 の間隔、 目 · 鼻 · 口の相対関係のパターン等 のデータによ り構成されている。 この画像データベースに格納さ れた話者の画像データは、 上記話者データベース内で個々の話者 に対応する画像と して格納される。 本実施形態の仮想ペッ トでは、 画像認識を用いた場合は、 所持 者が意識して入力を行わなく ても、特定の相手を認識 (画像によ る認識) して吠えた り 、例えば、 ペッ ト ロボッ トのよ う な実体が ある場合には、 側に近寄った りするなど、 仮想ペッ ト側からの自 発的な行動が可能になる。 さ らに、 スィ ッチやセンサなどを用い た入力を合わせるこ とによ り 、音声認識と同様、入力が有った際の 認識度数を記憶し、操作者の接触頻度に応じて仮想ぺッ トの応答 に差をつけるこ とが可能になる。 例えば、認識度数が高い操作者 に対しては自発的に近寄り 、低い操作者に対しては吠えるなど、応 答に差をつける こ とができ る。 と ころで、 本実施形態の仮想ぺッ トにおいては、 話者 (操作者) と仮想ペッ ト間に特定の関係、 すなわち、 本物のペッ ト と飼主の 間における交流を模した感覚を生じさせるため、 仮想ぺッ トに向 かって話し掛ける不特定多数の話者の音声を個別に識別し、 認識 頻度の高い話者を判定する こ と によって、 もっ と も頻繁に接触し た (話し掛けた) 話者にのみ応答する よ う にしている。 以下、 そ の話者 (操作者) と仮想ペッ ト間に特定の関係を発生させるため の制御について図 3 のフローチヤ一トを参照して説明する。
図 3 のフローチャー トにおいて、 話者が仮想ぺッ トに話し掛け る と、 その話者の音声がサンプリ ングされる。 すなわち、 マイ ク 2 2から入力 したアナロ グ音声に対し、 必要に応じて帯域制限や ノイズ削減などの前処理を行ってディ ジタル変換する (ステップ 1 ) 。 そして、 音声認識及び話者の推定に必要な特徴の抽出を行 う (ステップ 2 ) 。 次に、 音声認識用辞書 2 1 に基づいて音声認 識処理を行い、 有効な認識結果か否かを判断する (ステップ 3 ) 。 ここでの有効 //無効の判定には、 ィベン ト リ ス ト 3 1 に対応した 有効な語句が入力されたかどう かでチェ ックを行っている。 無効 な語句と判定された場合は無効な語句であるこ と を話者に知らせ るイベン トを実行した後、 新たな語句の入力を待つ。 無効な語句 に対応するィベン ト と しては、 例えば「首をかしげる」動作などが ある。
ステップ 2で抽出された特徴データから、 話者特定の基準とな る男女の推定や年齢の推定を行い、 総合的な類似度を算出し、 こ れを話者推定データ とする (ステップ 4 ) 。 その算出された話者 推定データを、 話者データベース 1 2 を参照して比較し、 データ ベース内に既存する話者に該当 しない場合は新規な話者と して話 者データベース 1 2 に話者推定データを登録する (ステ ップ 5 ) 。
そ して、 話者データベース 1 2 における該当話者 (新規な話者 の場合は新規話者) の該当する語句 (話し掛けた言葉に該当する 語句) の認識度数を更新する (ステ ップ 6 ) 。
その認識された該当語句がイベン ト発生条件を満たしていれば. 認識した語句に対応するイベン トを実行する (ステ ップ 7 ) 。 こ こで、 イベン ト発生条件と しては、 ① : ある閾値以上の認識度数 に達した場合、 ② : 語句毎の各話者の う ちで最大の認識度数に達 した場合、 等を用途に応じて設定する。
前述の表 1 に示す話者データベースの場合、 ①の条件で閾値が 1 0のと きは、 話者 1 に対しては語句 1 、 語句 2及び語句 4が有 効 (イベン ト発生条件を満たす) とな り 、 話者 2 に対しては語句 1及び語句 5が有効と な り 、 話者 3 に対しては語句 3 のみのィべ ン トが有効となる。 同様に、 条件②の場合には、 語句 1 について は話者 1 が、 語句 2 については話者 1 が、 語句 3 については話者 3 が、 語句 4 については話者 1 が、 語句 5 については話者 2が、 それぞれ有効と なる。
これらの条件は、 語句毎に設定するこ と も、 全ての語句に共通 にする こ と も、 また、 両者の条件を同時に満たした場合のみ有効 (イベン ト発生) になるよ う に設定するこ と も可能である。
さ らに、 話者データベース 1 2 には各話者毎の最終認識日時が 記録されているので、 現在時刻に対して長期間経過している場合 には仮想ペッ トの挙動を変化させる (イベン トを変更する) など の設定も可能である。
例えば、入力者の認識度数が総合的に高い場合、最終認識日時か らの経過時間が短いと きは通常動作、長いと きは飼主が小旅行か ら帰宅したと きに過剰に喜ぶよ う な過剰動作をさせ、極めて長い と きは飼主を忘れて しまったかのよ う に吠えた り 唸るなどの警戒 動作をさせる。
あるいは、 入力者の認識度数が総合的に低い場合、最終認識日 時からの経過時間が短いと きは上記の場合 (入力者の認識度数が 総合的に高い場合) と同様に通常の動作をさせる力 経過時間が 長いと きは上記の場合よ り も早く飼主を忘れてしまったかのよ う に警戒動作をさせ、経過時間が極めて長いと きには入力を無視す る動作 (非動作) をさせる。
また、 入力者の認識度数が総合的に高い場合は、無入力状態が ある程度継続したと きには、寂しそ う に鳴く など、自発的に動作さ せても良い。
なお、 最終認識日 時を語句毎に記憶するよ う にしても良い。 また、 語句の認識度数や入力者の違いによって、 同一の語句で も異なるィベン トを実行するよ う に設定するこ と もできる。 例え ば、 認識度数の低い話者が「おはよ う」と声を掛けたと きは「ワ ン」 と一声応答するだけにし、 認識度数の高い話者が「おはよ う」と声 を掛けたと きは「尻尾を振る」イベン ト と 「ワ ン、 ワン、 ワ ン」 と 応答するなどの設定が可能である。 そ して、 話者データベース 1 2 の認識度数のエ リ アは有限なの で、 いずれオーバーフローし、 ステ ップ 7 における条件と して① が設定されていた場合は実際にはィベン トが発生しなく なって し ま う。 また、 全ての語句が閾値を超えて しま う と、 誰のどんな語 句 (条件②を除く ) にも反応するよ う になって しまい、 話者とぺ ッ ト間の特定関係が失われる恐れがある。 このよ う な状況を回避 するため、 これらの各有効イベン トの認識度数 (有効イベン トを 発生させた語句の認識度数) を再調整し、 認識度数の比較的少な いものは再度無効になる よ う に、 度数または閾値の調整等、 話者 データベース 1 2 の調整を行って (ステップ 8 ) 、 次の音声入力 を待つ。
と ころで、本実施形態の仮想ぺッ トは犬と して構成されており 、 ぺッ ト と しての基本動作と認識語句の組み合わせと して予め次の よ う な対応を設定してある。 語句 : 「お手」 =動作 : "手 (前 足) を上げる "
語句 : 「お座り 」 =動作 : "座る "
語句 : 「お廻 り 」 =動作 : "廻る "
語句 : 「ワ ン」 =動作 : "吠える "
また、 これらの基本動作の複数の組み合わせと新たな語句 (言 葉) との対応を設定でき るよ う に構成するこ とで、 さ らに複雑な 動作を行わせる こ とが可能になる。 例えば、 「 3回廻ってワ ン」 という語句に対しては、 "廻る " 動作を 3 回行った後に "吠える " 動作を行う こ とができ るよ う になる。 このよ う な新規の対応 (語 句と動作の対応) が構築される こ と は、 従来の犬のぬいぐるみ玩 具に単純に動作のセ ッティ ングをする よ う な作業ではなく 、 あた かも本物のぺッ トを仕付ける よ う な感覚を得るこ とが可能になる 以上、 本発明を図示の実施形態によ り説明 したが、 本発明はこ の実施形態に限定される ものではない。 例えば仮想ぺッ トの外観 は犬に限らず、 猫、 パンダ等の動物や、 漫画 · アニメ等のキャラ ク タなど任意に設定する こ とができる。 また、 ぬいぐるみなどの よ う に実体を持つも のではなく 、 表示手段上に表示された電子べ ッ ト と して構成する こ と も可能である。 当然、 それらの電子ぺッ トは専用のゲーム機又は汎用のパソ コ ン上で動作する形態を取る こ とができ る。 その場合には、 図 3 のフローチャー トに示す処理 を主体と した制御プロ グラムを格納した記録媒体、 例えば C D— R O Mゃカセ ッ ト型の R O Mなどを専用のゲーム機又は汎用のパ ソコンにセ ッ ト し、 格納されたゲームプロ グラムを実行するこ と ができ る。
さ らに、 仮想ペッ トに与える刺激と しては音声に限らず、 例え ば画像入力装置による画像 (操作者の顔など) や、 マイ ク ロ スィ ツチ · センサ等を用いた接触、 あるいは、 操作部からのキー入力 やリ モコ ン ·通信等を介した各種の入力信号による こ とができる。
また、 操作者を識別するためのデータベースの構成内容も本実 施形態の例に限らず、 任意の内容で構成するこ とができる。 もち ろん、 認識語句の設定などは限定されるものではない。 また、 そ れらに対応して実行されるイベン ト も、音の出力や動作に限らず、 発光、 発振等任意に設定できる ものである。 さ らに、 電子ペッ ト においては、 形態 · 色の変化や成長あるいは友人 · 恋人の形成や 子供の誕生、 ぺッ トの居住環境の変化など、 多様な形でのィベン ト発生を考える こ とができ る。

Claims

請求の範囲
1 . 外部からの刺激に対して適切な応答をするよ う構成された仮 想ぺッ ト装置であって、
外部からの刺激を入力する入力手段と、 該入力手段よ り入力さ れた刺激を認識する認識手段と、 該認識手段の認識結果に基づい て装置の応答動作を制御する制御手段と を有し、
前記制御手段は、 前記入力された刺激を解析して、 該刺激を入 力した個人を識別するこ と を特徴とする仮想ぺッ ト装置。
2 . 前記入力手段が音声入力装置である こ と を特徴とする請求項 1 に記載の仮想べッ ト装置。
3 . 前記入力手段が画像入力装置である こ と を特徴とする請求項 1 に記載の仮想べッ ト装置。
4 . 不特定多数の刺激入力者を識別可能に設けられ、 入力に対応 する入力者毎の認識度数を記憶する記憶手段を有し、 認識頻度の 高い入力者のみに応答するこ と を特徴とする請求項 1 乃至 3 に記 載の仮想べッ ト装置。
5 . 不特定多数の刺激入力者を識別可能に設けられ、 入力に対応 する入力者毎の認識度数を記憶する記憶手段を有し、 認識度数が 相対的に低下した入力には応答しないよ う構成されたこ と を特徴 とする、 請求項 1 乃至 3 に記載の仮想ペッ ト装置。
6 . 不特定多数の刺激入力者を識別可能に設けられ、 入力に対応 する入力者毎の認識度数を記憶する記憶手段を有し、 認識度数が 相対的に低下した入力を順次抹消する こ と を特徴とする、 請求項
1 乃至 3 に記載の仮想ぺッ ト装置。
7 . 不特定多数の刺激入力者を識別可能に設けられ、 入力に対応 する入力者毎の認識度数を記憶する記憶手段を有し、 入力者及び 認識度数に応じて同一の入力に対する応答動作を変更可能なこ と を特徴とする、 請求項 1 乃至 3 に記載の仮想ペッ ト装置。
8 . 刺激入力者毎に入力の日時を記憶する記憶手段を有し、最終 入力 日時からの経過時間に応じて応答動作を変更させるこ と を特 徴とする、請求項 1 乃至 3 に記載の仮想ぺッ ト装置。
9 . 予め設定された複数の基本動作と各動作に対応する語句の組 み合わせを有し、 前記基本動作を組み合わせた一連の動作に対応 する語句との関係を新たに設定可能なこ と を特徴とする、 請求項 2に記載の仮想べッ ト装置。
1 0 . 外部からの刺激に対して適切な応答をする仮想ぺッ トの制 御プログラムを格納した記録媒体であって、
刺激入力手段から入力された信号を刺激と して認識し、 該認識 結果に基づいて応答動作を制御する と と もに、
前記認識した刺激を解析して該刺激を入力 した個人を識別する よ う制御するプロ グラムを格納した記録媒体。
1 1 . 前記入力信号と しての音声信号を刺激と して認識するよ う 制御するプロダラムを格納した、 請求項 1 0 に記載の記録媒体。
1 2 . 前記入力信号と しての画像信号を刺激と して認識するよ う 制御するプログラムを格納した、 請求項 1 0 に記載の記録媒体。
1 3 . 前記刺激解析によ り 不特定多数の刺激入力者を識別する と と もに、 入力に対応する入力者毎の認識度数を記憶し、 認識頻度 の高い入力者のみに応答する よ う制御するプログラムを格納した, 請求項 1 0乃至 1 2 に記載の記録媒体。
1 4 . 前記刺激解析によ り 不特定多数の刺激入力者を識別する と と もに、 入力に対応する入力者毎の認識度数を記憶し、 認識度数 が相対的に低下した入力には応答しないよ う制御するプロ グラム を格納した、 請求項 1 0乃至 1 2 に記載の記録媒体。
1 5 . 前記刺激解析によ り 不特定多数の刺激入力者を識別する と と もに、 入力に対応する入力者毎の認識度数を記憶し、 認識度数 が相対的に低下した入力を順次抹消するよ う制御するプログラム を格納した、 請求項 1 0乃至 1 2 に記載の記録媒体。
1 6 . 前記刺激解析によ り 不特定多数の刺激入力者を識別する と と もに、 入力に対応する入力者毎の認識度数を記憶し、 入力者及 び認識度数に応じて同一の入力に対する応答動作を変更するよ う 制御するプロ グラムを格納した、 請求項 1 0乃至 1 2に記載の記 録媒体。
1 7 . 前記刺激解析によ り 不特定多数の刺激入力者を識別する と と もに、 入力に対応する入力者毎の入力日時を記憶し、最終入力 日時からの経過時間に応じて応答動作を変更するよ う制御するプ ロ グラムを格納した、 請求項 1 0乃至 1 2 に記載の記録媒体。
1 8 . 予め設定された複数の基本動作と各動作に対応する語句の 組み合わせを有し、 前記基本動作を組み合わせた一連の動作に対 応する語句との関係を新たに設定可能なよ う制御するプロ グラム を格納した、 請求項 1 1 に記載の記録媒体。
PCT/JP2000/001290 1999-03-05 2000-03-03 Dispositif d'animal virtuel et support d'enregistrement de son programme de commande WO2000053281A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000603769A JP4250340B2 (ja) 1999-03-05 2000-03-03 仮想ペット装置及びその制御プログラム記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP5902999 1999-03-05
JP11/59029 1999-03-05

Publications (1)

Publication Number Publication Date
WO2000053281A1 true WO2000053281A1 (fr) 2000-09-14

Family

ID=13101467

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/001290 WO2000053281A1 (fr) 1999-03-05 2000-03-03 Dispositif d'animal virtuel et support d'enregistrement de son programme de commande

Country Status (3)

Country Link
US (1) US6772121B1 (ja)
JP (1) JP4250340B2 (ja)
WO (1) WO2000053281A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002166378A (ja) * 2000-11-30 2002-06-11 Sony Corp ロボット装置
JP2003062777A (ja) * 2001-08-22 2003-03-05 Honda Motor Co Ltd 自律行動ロボット
WO2003019475A1 (fr) * 2001-08-23 2003-03-06 Sony Corporation Appareil robotique, procede de reconnaissance faciale, et appareil de reconnaissance faciale
EP1324243A1 (en) * 2000-09-29 2003-07-02 Sony Corporation Agent system, agent selling method, information providing device, and data recorded medium
JP2004126784A (ja) * 2002-09-30 2004-04-22 P To Pa:Kk 画像表示装置、画像表示方法及びプログラム
JP2004126941A (ja) * 2002-10-02 2004-04-22 P To Pa:Kk 画像表示装置、画像表示方法及びプログラム
WO2006030533A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 生理的刺激飽和手段を備えた模擬生物装置
US7025657B2 (en) 2000-12-15 2006-04-11 Yamaha Corporation Electronic toy and control method therefor
WO2016068262A1 (ja) * 2014-10-29 2016-05-06 京セラ株式会社 コミュニケーションロボット

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1151016C (zh) * 1999-11-30 2004-05-26 索尼公司 机器人设备及其控制方法,和机器人性格判别方法
US7081033B1 (en) 2000-03-07 2006-07-25 Hasbro, Inc. Toy figure for use with multiple, different game systems
KR100779978B1 (ko) * 2000-09-12 2007-11-27 소니 가부시끼 가이샤 정보제공시스템, 정보제공장치 및 정보제공방법과데이터기록매체
TW528976B (en) * 2000-09-12 2003-04-21 Sony Corp Information providing system, information providing apparatus and information providing method as well as data recording medium
JP4687936B2 (ja) * 2001-03-22 2011-05-25 ソニー株式会社 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
US20040002790A1 (en) * 2002-06-28 2004-01-01 Paul Senn Sensitive devices and sensitive applications
US7883420B2 (en) 2005-09-12 2011-02-08 Mattel, Inc. Video game systems
US8930463B2 (en) * 2007-07-09 2015-01-06 Yahoo! Inc. Super-emoticons
CN101119209A (zh) * 2007-09-19 2008-02-06 腾讯科技(深圳)有限公司 虚拟宠物系统和虚拟宠物聊天方法、装置
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
US8412662B2 (en) * 2009-06-04 2013-04-02 Motorola Mobility Llc Method and system of interaction within both real and virtual worlds
CN112738537A (zh) * 2020-12-24 2021-04-30 珠海格力电器股份有限公司 一种虚拟宠物交互方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344486U (ja) * 1989-09-04 1991-04-25
JPH0349140U (ja) * 1989-09-21 1991-05-13
JPH08202679A (ja) * 1995-01-23 1996-08-09 Sony Corp ロボット
JPH10328422A (ja) * 1997-05-29 1998-12-15 Omron Corp 自動応答玩具
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4451911A (en) 1982-02-03 1984-05-29 Mattel, Inc. Interactive communicating toy figure device
JPS6055985A (ja) * 1983-09-05 1985-04-01 株式会社トミー 音声認識玩具
JPH07113833B2 (ja) 1985-01-21 1995-12-06 カシオ計算機株式会社 返答語選択制御装置
JPH0783794B2 (ja) 1986-03-28 1995-09-13 株式会社ナムコ 対話型玩具
JPH067746Y2 (ja) 1987-03-20 1994-03-02 株式会社タカラ ぬいぐるみ玩具
US4923428A (en) * 1988-05-05 1990-05-08 Cal R & D, Inc. Interactive talking toy
JP3044486B2 (ja) 1991-01-30 2000-05-22 株式会社リコー ベアリングホルダの取付方法
DE69328275T2 (de) * 1992-06-18 2000-09-28 Seiko Epson Corp Spracherkennungssystem
JP3179626B2 (ja) 1993-05-07 2001-06-25 株式会社リコー 音声ゲーム機
JP3254994B2 (ja) * 1995-03-01 2002-02-12 セイコーエプソン株式会社 音声認識対話装置および音声認識対話処理方法
JPH1033830A (ja) 1996-04-26 1998-02-10 Namco Ltd ゲーム装置及び情報記憶媒体
JP3049140U (ja) 1997-07-28 1998-06-02 敬一 箸蔵 情報処理玩具
US20020042713A1 (en) * 1999-05-10 2002-04-11 Korea Axis Co., Ltd. Toy having speech recognition function and two-way conversation for dialogue partner

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344486U (ja) * 1989-09-04 1991-04-25
JPH0349140U (ja) * 1989-09-21 1991-05-13
JPH08202679A (ja) * 1995-01-23 1996-08-09 Sony Corp ロボット
JPH10328422A (ja) * 1997-05-29 1998-12-15 Omron Corp 自動応答玩具
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Akira TACHI et al., "Robot Kougaku Handbook", Colona Sha, 20 October 1990, pages 450-456, 712-717. *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1324243A4 (en) * 2000-09-29 2005-08-24 Sony Corp AGENT SYSTEM, METHOD FOR SELLING AGENT, DEVICE PROVIDING INFORMATION, AND DATA CARRIER
EP1324243A1 (en) * 2000-09-29 2003-07-02 Sony Corporation Agent system, agent selling method, information providing device, and data recorded medium
JP2002166378A (ja) * 2000-11-30 2002-06-11 Sony Corp ロボット装置
US7025657B2 (en) 2000-12-15 2006-04-11 Yamaha Corporation Electronic toy and control method therefor
JP2003062777A (ja) * 2001-08-22 2003-03-05 Honda Motor Co Ltd 自律行動ロボット
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
WO2003019475A1 (fr) * 2001-08-23 2003-03-06 Sony Corporation Appareil robotique, procede de reconnaissance faciale, et appareil de reconnaissance faciale
US7369686B2 (en) 2001-08-23 2008-05-06 Sony Corporation Robot apparatus, face recognition method, and face recognition apparatus
JP2004126784A (ja) * 2002-09-30 2004-04-22 P To Pa:Kk 画像表示装置、画像表示方法及びプログラム
JP2004126941A (ja) * 2002-10-02 2004-04-22 P To Pa:Kk 画像表示装置、画像表示方法及びプログラム
WO2006030533A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 生理的刺激飽和手段を備えた模擬生物装置
WO2016068262A1 (ja) * 2014-10-29 2016-05-06 京セラ株式会社 コミュニケーションロボット
JPWO2016068262A1 (ja) * 2014-10-29 2017-08-10 京セラ株式会社 コミュニケーションロボット

Also Published As

Publication number Publication date
US6772121B1 (en) 2004-08-03
JP4250340B2 (ja) 2009-04-08

Similar Documents

Publication Publication Date Title
WO2000053281A1 (fr) Dispositif d'animal virtuel et support d'enregistrement de son programme de commande
US10702991B2 (en) Apparatus, robot, method and recording medium having program recorded thereon
US7065490B1 (en) Voice processing method based on the emotion and instinct states of a robot
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
JP7173031B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP3273550B2 (ja) 自動応答玩具
JP2002358095A (ja) 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体
JP4687936B2 (ja) 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
EP1113417A2 (en) Apparatus, method and recording medium for speech synthesis
JP2002189488A (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP2003255991A (ja) 対話制御システム、対話制御方法及びロボット装置
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
CN111475206B (zh) 用于唤醒可穿戴设备的方法及装置
JP2020057300A (ja) 識別装置、ロボット、識別方法及びプログラム
JP3930389B2 (ja) ロボット発話中の動作プログラム生成装置及びロボット
JP4250635B2 (ja) 仮想ペット装置及びその制御プログラム記録媒体
US20220288791A1 (en) Information processing device, information processing method, and program
KR20180082777A (ko) 노년층을 위한 교감 로봇시스템
WO2020116356A1 (ja) ロボット、音声合成プログラム、及び音声出力方法
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2001154693A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JPH06142342A (ja) 音声認識玩具
JP3919726B2 (ja) 学習装置及びその方法
JP2004045591A (ja) 音声認識方法及び特定話者音響辞書の提供方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US