JP2001357413A - Animation conversation system and server to be used for it - Google Patents

Animation conversation system and server to be used for it

Info

Publication number
JP2001357413A
JP2001357413A JP2000176677A JP2000176677A JP2001357413A JP 2001357413 A JP2001357413 A JP 2001357413A JP 2000176677 A JP2000176677 A JP 2000176677A JP 2000176677 A JP2000176677 A JP 2000176677A JP 2001357413 A JP2001357413 A JP 2001357413A
Authority
JP
Japan
Prior art keywords
message
person
animation
image data
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000176677A
Other languages
Japanese (ja)
Inventor
Tokio Kamimura
時男 上村
Yuzuru Tanaka
譲 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2000176677A priority Critical patent/JP2001357413A/en
Priority to US09/878,207 priority patent/US6943794B2/en
Publication of JP2001357413A publication Critical patent/JP2001357413A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To remotely speak with an actual or virtual person imaged by a computer. SOLUTION: A client 2 is provided with a device for inputting the first message for the virtual person, etc., from a user, a means for transmitting it, a means for receiving the second message and the face animation of the person, etc., for the user from the person, etc., an output device 22b for outputting the second message and a display device 22a for displaying the face animation. A server 3 is provided with a face picture database, a means for receiving the first message, a means for generating the second message, a means for generating operation controlling data for controlling the timing of outputting the second message and the operation of face picture data to be coincident, a means for generating the face animation based on the operation control data and the face picture data and a means for transmitting them.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータによ
って仮想した実在または架空の人物等との会話を行える
ようにしたアニメーション会話システムに関し、特に、
ユーザがクライアントからネットワークを介してサーバ
にアクセスし、遠隔的に会話を行えるようにしたアニメ
ーション会話システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an animation conversation system that enables a computer to converse with a virtual or imaginary person or the like.
The present invention relates to an animation conversation system that allows a user to access a server from a client via a network and to have a remote conversation.

【0002】[0002]

【従来の技術】近年、コンピュータによって仮想された
実在または架空の人物、動物、人形、またはキャラクタ
などとコミュニケーションを取ることのできる技術が、
研究され開発されている。
2. Description of the Related Art In recent years, a technology capable of communicating with a real or fictional person, animal, doll, or character virtualized by a computer has been developed.
Researched and developed.

【0003】例えば、特開平11−212934号に
は、仮想空間において飼育される生命体に対して、マウ
スまたはキーボードなどの入力装置を操作してコマンド
を入力し、所定の動作をさせる技術が開示されている。
これによると、仮想ペットに食事を与え、または仮想ペ
ットを寝かせ、褒め、叱り、または遊ばすなど、本物の
ペットと同じような世話を、コンピュータによって行
う。このような世話により、仮想ペットは成長し、ユー
ザは、表示装置またはスピーカなどから出力される画像
または音声によって仮想ペットの成長を確認しながら、
ペットの飼育を体験することができる。また、ネットワ
ークを介して遠隔的に仮想ペットを飼育することもでき
る。
[0003] For example, Japanese Patent Application Laid-Open No. H11-212934 discloses a technique of operating a mouse or a keyboard or the like to input a command to a living creature bred in a virtual space and performing a predetermined operation. Have been.
According to this, a computer performs the same care as a real pet, such as feeding a virtual pet or sleeping, praising, scolding, or playing the virtual pet. With such care, the virtual pet grows, and the user confirms the growth of the virtual pet while confirming the growth of the virtual pet by an image or sound output from a display device or a speaker.
You can experience pet breeding. It is also possible to breed virtual pets remotely via a network.

【0004】生命体の音声と画像との出力のタイミング
を合わせる方法には、例えば、特開平10−31246
7号に記載の音声を画像に合わせて出力する方法、特開
平10−293860号に記載された画像を音声に合わ
せて出力する方法などがある。これらの方法によって、
画像が動作するアニメーションを作成し、アニメーショ
ンに同期して音声を出力することもできるので、ユーザ
は、出力される画像と音声とをリアルに感じ取ることが
できる。その他、実写映像を基にアニメーションを作成
する方法として、実写映像の認識によるアニメーション
合成技術がある(NTT技術ジャーナル 1998.1
2 p98〜106)。係る技術は、1枚の写真から自
動的に似顔絵を作成し、その似顔絵を基に、目、口の開
閉状態の異なる表情、喜怒哀楽の表情を自動作成し、音
声などに同期して似顔絵アニメーションを合成する方法
である。
[0004] A method of matching the output timing of the sound and image of a living body is disclosed in, for example, Japanese Patent Application Laid-Open No. 10-31246.
No. 7, there is a method of outputting a sound in accordance with an image, and a method of outputting an image in accordance with a sound described in JP-A-10-293860. By these methods,
Since the animation in which the image operates can be created and the sound can be output in synchronization with the animation, the user can feel the output image and the sound in a realistic manner. In addition, as a method of creating an animation based on a live-action video, there is an animation synthesis technique based on recognition of a live-action video (NTT Technical Journal 1998. 1).
2 p98-106). This technology automatically creates a caricature from a single photo, and based on the caricature, automatically creates facial expressions with different eyes, mouth open / closed states, and emotions, emotions, and sorrows. This is a method of synthesizing animation.

【0005】[0005]

【発明が解決しようとする課題】上に述べた特開平11
−212934号の技術では、ネットワークを介して遠
隔的に仮想ペットとコミュニケーションを取ることがで
きる。しかし、この従来の技術は、ユーザが入力装置か
ら入力するコマンドによって仮想ペットが制御され、表
示面に表示されるものであって、ユーザが仮想ペットに
対して取り得るコミュニケーションのパターンは限られ
ている。例えば、仮想ペットと会話を行うことはでき
ず、リアリティのあるコミュニケーションを取ることは
できない。
SUMMARY OF THE INVENTION The above-mentioned Japanese Patent Application Laid-Open No.
In the technology of -212934, communication with a virtual pet can be remotely performed via a network. However, in this conventional technique, a virtual pet is controlled by a command input by a user from an input device and is displayed on a display surface, and communication patterns that the user can take with the virtual pet are limited. I have. For example, they cannot talk to a virtual pet and cannot communicate with reality.

【0006】また、特開平10−312467号に記載
のアニメーションの作成技術は、例えば、ある人物が話
をするときの動きのアニメーションを作成することがで
きるが、人物からユーザへ向かって一方的に出力される
ものにすぎず、ユーザと人物とが会話を行うことはでき
ない。
The animation creation technology described in Japanese Patent Application Laid-Open No. H10-312467 can create, for example, an animation of a motion when a certain person speaks. This is only output, and the user and the person cannot have a conversation.

【0007】本発明は、コンピュータによって仮想した
実在または架空の人物等との会話を遠隔的に行うことの
できるシステム、サーバ、およびクライアントを提供す
ることを目的とする。
[0007] It is an object of the present invention to provide a system, a server, and a client capable of remotely communicating with a real or fictional person or the like virtualized by a computer.

【0008】[0008]

【課題を解決するための手段】本発明に係るシステム
は、実在または架空の人物、動物、人形、またはキャラ
クタなどをコンピュータによって仮想し、これら人物等
との会話を行えるようにしたアニメーション会話システ
ムであって、クライアントおよびサーバを有し、前記ク
ライアントには、ユーザから前記人物等へのメッセージ
である第一のメッセージを入力する入力装置と、当該第
一のメッセージを送信する手段と、前記人物等からユー
ザへのメッセージである第二のメッセージおよび前記人
物等の顔アニメーションを受信する手段と、当該第二の
メッセージをユーザに出力する出力装置と、当該顔アニ
メーションを表示する表示装置とが設けられ、前記サー
バには、前記人物等の顔画像データを記憶した記憶手段
と、前記第一のメッセージを受信する手段と、前記第二
のメッセージを生成する手段と、前記第二のメッセージ
に合わせて顔画像データを動作させる動作制御データを
生成する手段と、当該動作制御データおよび前記顔画像
データに基づいて前記顔アニメーションを生成する手段
と、前記第二のメッセージおよび前記顔アニメーション
を送信する手段とが設けられている。
A system according to the present invention is an animation conversation system in which a real or imaginary person, animal, doll, character, or the like is virtualized by a computer, and a conversation with such a person or the like can be performed. An input device for inputting a first message, which is a message from a user to the person or the like, a means for transmitting the first message, the client or the server, Means for receiving a second message, which is a message to the user, and a face animation of the person or the like, an output device for outputting the second message to the user, and a display device for displaying the face animation. The server stores face image data of the person or the like; and the first message. Means for receiving a message, means for generating the second message, means for generating operation control data for operating face image data in accordance with the second message, and the operation control data and the face image. Means for generating the face animation based on the data and means for transmitting the second message and the face animation are provided.

【0009】他の形態として、サーバからクライアント
に顔画像データを送信するようにし、クライアントにお
いて、受信した顔画像データに基づいて顔アニメーショ
ンを生成する手段を設ける。
In another embodiment, the face image data is transmitted from the server to the client, and the client has means for generating a face animation based on the received face image data.

【0010】さらに他の形態として、クライアントに顔
画像データを記憶する記憶手段を設け、クライアントに
おいて、その記憶手段から顔画像データを抽出する。顔
画像データとして、好ましくは、人物の頭部、または
口、目、鼻、耳などの構成部分、および皮膚、筋肉、骨
格などが動作可能なように構造化された3次元モデルが
用いられる。人物として、俳優、歌手、その他の芸能人
またはスター、スポーツ選手、政治家などの有名人、ユ
ーザの先祖、歴史上の人物など、種々の実在または架空
の人物を用いることができる。また人物のみでなく、動
物、人形、または漫画のキャラクタなどを用いることも
可能である。
As still another form, a storage means for storing face image data is provided in a client, and the face image data is extracted from the storage means in the client. As the face image data, a three-dimensional model structured such that the head of the person or components such as the mouth, eyes, nose, and ears, and the skin, muscle, skeleton, and the like can operate is preferably used. Various real or fictional characters such as actors, singers, other entertainers or celebrities such as stars, athletes, politicians, ancestors of users, and historical characters can be used as the characters. In addition, not only a person but also an animal, a doll, or a cartoon character can be used.

【0011】[0011]

【発明の実施の形態】以下に示す3つの実施形態におい
て、種々の人物HMNをコンピュータによって仮想し、
その中からユーザが選択した人物HMNと会話を行える
ようにしたアニメーション会話システム1を例として説
明する。 〔第一の実施形態〕図1は本発明に係る第一の実施形態
のアニメーション会話システム1の全体の構成を示すブ
ロック図、図2はクライアント2の磁気ディスク装置2
7に記憶されるプログラムなどの例を示す図、図3はサ
ーバ3の磁気ディスク装置37に記憶されるプログラム
などの例を示す図、図4はサーバ3の磁気ディスク装置
37に設けられるデータベースなどの例を示す図、図5
は人物HMNの一覧表LSTの例を示す図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following three embodiments, various persons HMN are virtualized by a computer,
An animation conversation system 1 in which a user can have a conversation with a person HMN selected from among them will be described as an example. [First Embodiment] FIG. 1 is a block diagram showing the overall configuration of an animation conversation system 1 according to a first embodiment of the present invention, and FIG.
7 is a diagram showing an example of a program stored in the magnetic disk device 37 of the server 3, FIG. 3 is a diagram showing an example of a program stored in the magnetic disk device 37 of the server 3, and FIG. FIG. 5 showing an example of
Is a diagram illustrating an example of a list LST of persons HMN.

【0012】図1に示すように、アニメーション会話シ
ステム1は、クライアント2、サーバ3、およびネット
ワーク4などから構成される。クライアント2は、処理
装置21、表示装置22a、スピーカ22b、マウス2
3a、キーボード23b、マイク23c、通信制御装置
24、CD−ROM装置25、フロッピィディスク装置
26、および磁気ディスク装置27などから構成され
る。
As shown in FIG. 1, an animation conversation system 1 includes a client 2, a server 3, a network 4, and the like. The client 2 includes a processing device 21, a display device 22a, a speaker 22b, a mouse 2
3a, a keyboard 23b, a microphone 23c, a communication control device 24, a CD-ROM device 25, a floppy disk device 26, a magnetic disk device 27, and the like.

【0013】処理装置21は、CPU21a、RAM2
1b、およびROM21cなどから構成され、クライア
ントにおける一連の処理を実行する。RAM21bには
プログラムまたはデータなどが一時的に記憶され、RO
M21cにはプログラムおよびクライアントのハードウ
ェアの設定情報などが記憶される。CPU21aは、そ
れらのプログラムを実行する。
The processing device 21 includes a CPU 21a, a RAM 2
1b, a ROM 21c, and the like, and executes a series of processing in the client. A program or data is temporarily stored in the RAM 21b.
The M21c stores programs and setting information of client hardware. The CPU 21a executes those programs.

【0014】表示装置22aは、人物HMNの顔のアニ
メーションを表示し、後述する文字データTXT2を表
示によってユーザに出力する。スピーカ22bは、後述
する音声データSND2を音声でユーザに出力する。マ
ウス23aおよびキーボード23bは、ユーザから人物
HMNへのメッセージである第一のメッセージMG1の
入力、またはクライアント2の操作などに用いられる。
マイク23cは、第一のメッセージMG1を音声によっ
て入力する。
The display device 22a displays an animation of the face of the person HMN, and outputs character data TXT2 to be described later to the user. The speaker 22b outputs audio data SND2 described later to the user as audio. The mouse 23a and the keyboard 23b are used for inputting a first message MG1 that is a message from the user to the person HMN, operating the client 2, and the like.
Microphone 23c inputs first message MG1 by voice.

【0015】通信制御装置24は、第一のメッセージM
G1、人物HMNからユーザへのメッセージである第二
のメッセージMG2、後述する顔アニメーションデータ
FAD、その他のデータの送受信を制御する。CD−R
OM装置25、フロッピィディスク装置26、および磁
気ディスク装置27は、データおよびプログラムを記憶
する。
The communication control device 24 sends the first message M
G1, a second message MG2 that is a message from the person HMN to the user, transmission and reception of face animation data FAD described later, and other data are controlled. CD-R
The OM device 25, the floppy disk device 26, and the magnetic disk device 27 store data and programs.

【0016】サーバ3は、処理装置31、表示装置3
2、マウス33a、キーボード33b、通信制御装置3
4、CD−ROM装置35、フロッピィディスク装置3
6、および磁気ディスク装置37などから構成される。
The server 3 includes a processing device 31 and a display device 3
2, mouse 33a, keyboard 33b, communication control device 3
4, CD-ROM device 35, floppy disk device 3
6 and a magnetic disk device 37.

【0017】処理装置31は、CPU31a、RAM3
1b、およびROM31cなどから構成される。処理装
置31それ自体の構成および機能は上に述べた処理装置
21と同様である。通信制御装置34は、第一のメッセ
ージMG1、第二のメッセージMG2、顔アニメーショ
ンデータFAD、その他のデータの送受信を制御する。
The processing device 31 includes a CPU 31a, a RAM 3
1b, a ROM 31c, and the like. The configuration and functions of the processing device 31 itself are the same as those of the processing device 21 described above. The communication control device 34 controls transmission and reception of the first message MG1, the second message MG2, the face animation data FAD, and other data.

【0018】ネットワーク4は、公衆回線、専用線、L
AN、無線回線、またはインターネットなどによって構
成される。クライアント2とサーバ3は、ネットワーク
4を介して接続される。
The network 4 includes a public line, a dedicated line,
It is configured by an AN, a wireless line, the Internet or the like. The client 2 and the server 3 are connected via a network 4.

【0019】第一のメッセージMG1は、マイク23c
から入力された音声データSND1、またはキーボード
33bなどから入力された文字データTXT1などであ
る。第二のメッセージMG2は、音声データSND2ま
たは文字データTXT2などである。顔アニメーション
データFADは、人物HMNの顔の連続的な動作の画像
によって構成される顔アニメーションの情報である。
The first message MG1 is transmitted to the microphone 23c.
, Or character data TXT1 input from the keyboard 33b or the like. The second message MG2 is audio data SND2, character data TXT2, or the like. The face animation data FAD is information of a face animation composed of images of a continuous motion of the face of the person HMN.

【0020】図2に示すように、クライアント2の磁気
ディスク装置27には、クライアント2の基本プログラ
ムであるOS2s、アニメーション会話システム1のク
ライアント側のアプリケーションプログラムであるクラ
イアント会話プログラム2p、クライアント会話プログ
ラム2pに必要なデータ2dなどが記憶されている。ク
ライアント会話プログラム2pは、基本操作処理2b
s、その他の処理を行う。基本操作処理2bsは、OS
2sとの連携、人物HMNの選択に関する処理、および
第一のメッセージMG1の入力処理などを行うプロセス
である。これらのプログラムおよびデータは、適宜、R
AM21bにロードされ、CPU21aによって実行さ
れる。
As shown in FIG. 2, the magnetic disk device 27 of the client 2 includes an OS 2s which is a basic program of the client 2, a client conversation program 2p which is an application program on the client side of the animation conversation system 1, and a client conversation program 2p. Is stored. The client conversation program 2p performs basic operation processing 2b
s, perform other processing. The basic operation process 2bs is executed by the OS
This is a process for performing processing relating to the selection of the person HMN, cooperation with 2s, input processing of the first message MG1, and the like. These programs and data are appropriately
It is loaded on the AM 21b and executed by the CPU 21a.

【0021】図3に示すように、サーバ3の磁気ディス
ク装置37には、サーバ3の基本プログラムであるOS
3s、アニメーション会話システム1のサーバ側のアプ
リケーションプログラムであるサーバ会話プログラム3
p、サーバ会話プログラム3pに必要な情報であるデー
タ3dなどが記憶されている。
As shown in FIG. 3, an OS which is a basic program of the server 3 is installed in the magnetic disk device 37 of the server 3.
3s, server conversation program 3 which is an application program on the server side of animation conversation system 1
p, data 3d as information necessary for the server conversation program 3p and the like are stored.

【0022】サーバ会話プログラム3pは、基本操作処
理3bs、言語認識会話エンジンEG1およびアニメー
ションエンジンEG2によって構成される。基本操作処
理3bsは、OS3sとの連携、言語認識会話エンジン
EG1およびアニメーションエンジンEG2などを統括
して制御するプロセスである。
The server conversation program 3p includes a basic operation processing 3bs, a language recognition conversation engine EG1, and an animation engine EG2. The basic operation process 3bs is a process for coordinating with the OS 3s and controlling the language recognition conversation engine EG1 and the animation engine EG2.

【0023】言語認識会話エンジンEG1は、言語認識
処理3gnおよび会話生成処理3kiを行うシステムで
あり、それ自体は公知である。言語認識処理3gnは、
音声データSND1を分析して、日本語または英語など
の自然言語によって表現される文字データTXTaを抽
出するプロセスである。会話生成処理3kiは、音声デ
ータSND2または文字データTXT2を生成するプロ
セスである。
The language recognition conversation engine EG1 is a system that performs a language recognition process 3gn and a conversation generation process 3ki, and is known per se. The language recognition process 3gn
This is a process of analyzing the voice data SND1 and extracting character data TXTa expressed in a natural language such as Japanese or English. The conversation generation process 3ki is a process of generating the voice data SND2 or the character data TXT2.

【0024】音声データSND2を作成するために、そ
れぞれの人物HMNについて、本人または代替となる人
の音声データを予め取得しておく。それらの音声データ
に基づいて、会話生成処理3kiにより音声合成が行わ
れる。
In order to create the voice data SND2, voice data of the person or a substitute person is obtained in advance for each person HMN. Based on the voice data, voice synthesis is performed by a conversation generation process 3ki.

【0025】アニメーションエンジンEG2は、動作制
御処理3dsおよびアニメーション生成処理3anを行
う。動作制御処理3dsは、動作制御データDSDを生
成する。動作制御データDSDとは、第二のメッセージ
MG2がスピーカ22bまたは表示装置22aに出力さ
れるタイミングに合わせて人物HMNの顔画像データF
GDが動作するように制御するための制御情報である。
アニメーション生成処理3anは、動作制御データDS
Dおよび顔画像データFGDに基づいて、顔アニメーシ
ョンデータFADを生成するプロセスである。
The animation engine EG2 performs an operation control process 3ds and an animation generation process 3an. The operation control processing 3ds generates operation control data DSD. The operation control data DSD refers to the face image data F of the person HMN in accordance with the timing at which the second message MG2 is output to the speaker 22b or the display device 22a.
This is control information for controlling the GD to operate.
The animation generation processing 3an includes the operation control data DS
This is a process of generating face animation data FAD based on D and face image data FGD.

【0026】これらのプログラムは、適宜、RAM31
bにロードされ、CPU31aによって実行される。ま
た、これらの処理で用いられる第一のメッセージMG
1、顔画像データFGD、第二のメッセージMG2、動
作制御データDSD、および顔アニメーションデータF
ADなども、必要に応じてRAM31bに一時的に記憶
される。
These programs are appropriately stored in the RAM 31
b and is executed by the CPU 31a. Also, the first message MG used in these processes
1. Face image data FGD, second message MG2, operation control data DSD, and face animation data F
AD and the like are also temporarily stored in the RAM 31b as needed.

【0027】図4に示すように、磁気ディスク装置37
には、顔画像データベースFDB、人物情報データベー
スHDB、および会話データベースKDBが設けられて
いる。
As shown in FIG. 4, the magnetic disk drive 37
Is provided with a face image database FDB, a person information database HDB, and a conversation database KDB.

【0028】顔画像データベースFDBには顔画像デー
タFGDが、人物情報データベースHDBには各人物H
MNに関する性別、性格、年齢などの情報である人物情
報HMJが、会話データベースKDBには会話文を生成
するための文法および単語である文章情報BNJおよび
単語情報TNJが、それぞれ蓄積されている。
The face image data FGD is stored in the face image database FDB, and each person H is stored in the person information database HDB.
Person information HMJ, which is information such as gender, personality, age, etc., relating to the MN is stored in the conversation database KDB, and grammar for generating a conversation sentence and sentence information BNJ and word information TNJ, which are words, are stored.

【0029】顔画像データFGDは、人物HMNの頭部
を、口、目、鼻、耳などの構成部分、および皮膚、筋
肉、骨格などが動作可能なように構造化された3次元モ
デルによって表現したデータである(図8参照)。人物
HMNとして、俳優、歌手、その他の芸能人またはスタ
ー、スポーツ選手、政治家などの有名人、ユーザの先
祖、歴史上の人物など、種々の実在または架空の人物を
用いることができる。また人物のみでなく、動物、人
形、または漫画のキャラクタなどを用いることも可能で
ある。
The face image data FGD expresses the head of the person HMN by a three-dimensional model structured such that constituent parts such as mouth, eyes, nose, and ears, and skin, muscle, and skeleton can operate. This is the data obtained (see FIG. 8). Various real or fictional characters such as actors, singers, other entertainers or celebrities such as stars, athletes, politicians, ancestors of users, and historical characters can be used as the person HMN. In addition, not only a person but also an animal, a doll, or a cartoon character can be used.

【0030】このような顔画像データFGDは、次に示
す種々の公知の方法により作成することができる。例え
ば、まず、次に示す方法によって3次元データを取得す
る。 (1)2次元で撮影された通常の顔写真に基づいて構造
化顔画像を推定する方法。 (2)2次元の複数枚の画像、およびそれを最影したカ
メラと被写体との位置関係を示すデータから3次元形状
を算出する方法(ステレオ撮影法)。 (3)3次元計測装置を用いて人物または像を3次元測
定する方法。 (4)3次元CGキャラクターを新規に作成する方法。
Such face image data FGD can be created by the following various known methods. For example, first, three-dimensional data is obtained by the following method. (1) A method of estimating a structured face image based on a normal face photograph taken in two dimensions. (2) A method of calculating a three-dimensional shape from a plurality of two-dimensional images and data indicating a positional relationship between a camera and a subject which has projected the two-dimensional images (stereo imaging method). (3) A method of three-dimensionally measuring a person or an image using a three-dimensional measuring device. (4) A method of newly creating a three-dimensional CG character.

【0031】次に、取得した3次元データを、構造化さ
れた3次元モデルに変換する。変換の方法として、例え
ば、特開平8−297751号、特開平11−3284
40号などに開示された方法、本出願人が提案する特願
2000−90629号などを用いることができる。
Next, the obtained three-dimensional data is converted into a structured three-dimensional model. As a conversion method, for example, JP-A-8-297751, JP-A-11-3284
For example, a method disclosed in Japanese Patent Application No. 40-200 or Japanese Patent Application No. 2000-90629 proposed by the present applicant can be used.

【0032】このようにして、例えば皮膚の3次元モデ
ルを作成する。そして、皮膚の3次元モデルに、筋肉お
よび骨格を付けてさらに構造化しておけばなおよい。図
5に示すように、一覧表LSTは、ユーザの会話の相手
となる複数の人物HMNを格納したデータベースであっ
て、各人物HMNを識別するための人物番号NUM、そ
の人物番号NUMに対応する人物の名称である人物名N
AMまたは顔の画像の例を示すサンプル画像SMPなど
のフィールドを有する。人物HMN1、人物HMN2な
どのように、複数の人物HMNに関するデータが保存さ
れている。
Thus, for example, a three-dimensional model of the skin is created. Then, it is more preferable that the three-dimensional skin model is further structured by attaching a muscle and a skeleton. As shown in FIG. 5, the list LST is a database storing a plurality of persons HMN with which the user has a conversation, and corresponds to a person number NUM for identifying each person HMN and the person number NUM. Person name N, which is the name of the person
It has a field such as a sample image SMP showing an example of an AM or a face image. Data about a plurality of persons HMN, such as a person HMN1 and a person HMN2, is stored.

【0033】次に、人物HMNとの会話を行う際に、ア
ニメーション会話システム1で行われる処理および操作
について、フローチャートを参照して説明する。図6は
第一の実施形態におけるアニメーション会話システム1
の処理の流れを示すフローチャート、図7は顔アニメー
ションデータFADおよび第二のメッセージMG2を生
成する処理の流れを示すフローチャート、図8は顔画像
データFGD1の例を示す図である。
Next, processing and operations performed in the animation conversation system 1 when a conversation with the person HMN is performed will be described with reference to a flowchart. FIG. 6 shows an animation conversation system 1 according to the first embodiment.
7 is a flowchart showing a flow of a process for generating the face animation data FAD and the second message MG2, and FIG. 8 is a diagram showing an example of the face image data FGD1.

【0034】図6に示すように、まず、クライアント2
において、会話の相手となる人物HMNを、マウス23
aまたはキーボード23bを操作して一覧表LSTから
選択する(#11)。このとき、選択された人物HMN
についての人物番号NUMがサーバ3へ送信される。な
お、一覧表LSTは、ネットワーク4を介してサーバ3
から提供されてもよいし、図1に示すように予め磁気デ
ィスク装置27に保存されていてもよいし、CD−RO
Mまたはフロッピィディスクなどの媒体によって提供さ
れてもよい。
As shown in FIG. 6, first, the client 2
, The person HMN to be a conversation partner is
a or the keyboard 23b to select from the list LST (# 11). At this time, the selected person HMN
Is transmitted to the server 3. The list LST is stored in the server 3 via the network 4.
May be provided in advance, may be stored in the magnetic disk device 27 in advance as shown in FIG.
It may be provided by a medium such as an M or a floppy disk.

【0035】サーバ3において、会話の開始前における
人物HMNのアニメーションを生成する。まず、受信し
た人物番号NUMのデータに対応する顔画像データFG
Dおよび人物情報HMJが、顔画像データベースFDB
および人物情報データベースHDBから抽出される(#
12)。
The server 3 generates an animation of the person HMN before the conversation starts. First, face image data FG corresponding to the received data of the person number NUM
D and the person information HMJ are stored in the face image database FDB.
And extracted from the person information database HDB (#
12).

【0036】次に、抽出された顔画像データFGDおよ
び人物情報HMJに基づいて、顔アニメーションデータ
FADが生成され(#13)、クライアント2へ送信さ
れる(#14)。クライアント2において、受信した顔
アニメーションデータFADが、人物HMNの初期状態
として表示装置22aに表示される(#15)。
Next, based on the extracted face image data FGD and the person information HMJ, face animation data FAD is generated (# 13) and transmitted to the client 2 (# 14). In the client 2, the received face animation data FAD is displayed on the display device 22a as the initial state of the person HMN (# 15).

【0037】なお、顔アニメーションデータFADの生
成とともに第二のメッセージMG2を生成し、それらを
クライアント2へ送信し、クライアント2において顔ア
ニメーションデータFADを表示するとともに第二のメ
ッセージMG2をスピーカ22bから出力してもよい。
A second message MG2 is generated together with the generation of the face animation data FAD, transmitted to the client 2, the face animation data FAD is displayed on the client 2, and the second message MG2 is output from the speaker 22b. May be.

【0038】顔アニメーションデータFADおよび第二
のメッセージMG2の生成方法については、後で説明す
る。ユーザは、表示装置22aに表示された人物HMN
を見て、その人物HMNに話し掛ける。すなわち、クラ
イアント2において、第一のメッセージMG1がマイク
23cまたはキーボード23bなどによって入力され、
入力された第一のメッセージMG1がサーバ3へ送信さ
れる(#16)。
The method of generating the face animation data FAD and the second message MG2 will be described later. The user is the person HMN displayed on the display device 22a.
And talk to the person HMN. That is, in the client 2, the first message MG1 is input by the microphone 23c, the keyboard 23b, or the like,
The input first message MG1 is transmitted to the server 3 (# 16).

【0039】なお、ステップ#13ないし#15を省略
し、最初にユーザから問いかけるようにしてもよい。サ
ーバ3において、受信した第一のメッセージMG1、顔
画像データFGDおよび人物情報HMJなどに基づい
て、次の顔アニメーションデータFADおよび第二のメ
ッセージMG2が生成され(#17)、生成されたデー
タがクライアント2に送信される(#18)。
Steps # 13 to # 15 may be omitted, and the user may ask first. In the server 3, the next face animation data FAD and the second message MG2 are generated based on the received first message MG1, face image data FGD, person information HMJ, and the like (# 17), and the generated data is It is transmitted to the client 2 (# 18).

【0040】クライアント2において、顔アニメーショ
ンデータFADおよび第二のメッセージMG2が、表示
装置22aまたはスピーカ22bによって出力される
(#19)。
In the client 2, the face animation data FAD and the second message MG2 are output by the display device 22a or the speaker 22b (# 19).

【0041】人物HMNとの会話を中止するための切断
要求が出された場合は(#20でイエス)、処理は終了
し、切断要求が出されていない場合は、ステップ#16
に戻り、ユーザと人物HMNとの会話(対話)が繰り返
される。
If a disconnection request for canceling the conversation with the person HMN has been issued (Yes in # 20), the process ends, and if no disconnection request has been issued, step # 16 is performed.
And the conversation (dialogue) between the user and the person HMN is repeated.

【0042】ここで、ステップ#13およびステップ#
17で行われるアニメーションなどの生成方法について
説明する。本実施形態で用いられる顔画像データFGD
は、口、目、鼻、耳などの構成部分、および皮膚、筋
肉、骨格などを動作可能に構造化して構成した3次元モ
デルである。
Here, step # 13 and step #
A method of generating an animation or the like performed in step 17 will be described. Face image data FGD used in the present embodiment
Is a three-dimensional model in which components such as the mouth, eyes, nose, and ears, and skin, muscle, and skeleton are operably structured.

【0043】図8に示す顔画像データFGD1では、皮
膚の3次元モデルが示されている。皮膚の3次元モデル
は、人物HMNの顔(頭部)の皮膚を構成する多数のポ
リゴン、および、顔の動きを制御するための複数の制御
点PNTからなる。
The face image data FGD1 shown in FIG. 8 shows a three-dimensional model of the skin. The three-dimensional skin model is composed of a large number of polygons forming the skin of the face (head) of the person HMN, and a plurality of control points PNT for controlling the movement of the face.

【0044】図7に示すように、サーバ3において、受
信した第一のメッセージMG1の認識を行う(#3
1)。第一のメッセージMG1が文字データTXT1か
らなる場合は、言語認識処理3gnを実行する必要はな
い。第一のメッセージMG1が音声データSND1から
なる場合は、言語認識会話エンジンEG1によって言語
認識処理3gnを実行し、文字データTXTaを生成す
る。ただし、ステップ#13のように第一のメッセージ
を受信していない場合、または会話が所定時間途切れた
場合は、ステップ#31を省略する。
As shown in FIG. 7, the server 3 recognizes the received first message MG1 (# 3).
1). When the first message MG1 is composed of the character data TXT1, it is not necessary to execute the language recognition processing 3gn. When the first message MG1 is composed of the voice data SND1, the language recognition processing engine 3 executes language recognition processing 3gn to generate character data TXTa. However, if the first message has not been received as in step # 13, or if the conversation has been interrupted for a predetermined time, step # 31 is omitted.

【0045】第一のメッセージMG2に返答するため
に、第二のメッセージMG2を生成する。すなわち、言
語認識会話エンジンEG1によって会話生成処理3ki
を実行し、文字データTXT2を生成し(#32)、生
成された文字データTXT2から音声データSND2を
生成する(#33)。
To reply to the first message MG2, a second message MG2 is generated. That is, the conversation generation processing 3ki is performed by the language recognition conversation engine EG1.
Is performed to generate character data TXT2 (# 32), and audio data SND2 is generated from the generated character data TXT2 (# 33).

【0046】文字データTXT2の生成は、文字データ
TXTaまたはTXT1、文章情報BNJおよび単語情
報TNJなどを参照して行われる。例えば、文字データ
TXTaまたはTXT1が「お元気ですか」という問い
かけである場合に、人物情報HMJを参照して、人物H
MNが係る問いかけに応答しそうな文章情報BNJを会
話データベースKDBから抽出し、単語情報TNJを文
章情報BNJに当てはめて、「はい、元気です、あなた
はお元気ですか」または「はい、しかし少し疲れていま
す、あなたは大丈夫ですか」などの文字データTXT2
を生成する。
The generation of character data TXT2 is performed with reference to character data TXTa or TXT1, text information BNJ, word information TNJ, and the like. For example, when the character data TXTa or TXT1 is a question “How are you?”, The person H
MN extracts sentence information BNJ likely to respond to such a question from the conversation database KDB, and applies word information TNJ to sentence information BNJ. , Are you all right? "
Generate

【0047】文字データTXT2から音声データSND
2への変換は公知の技術を用いればよい。ただし、ステ
ップ#13のように第一のメッセージを受信していない
場合、または会話が所定時間途切れた場合は、ステップ
#32において、人物情報HMJ、文章情報BNJおよ
び単語情報TNJなどを参照し、人物HMNがユーザへ
問いかけるような文字データTXT2を生成する。例え
ば、「こんにちは」、「どうしたの」などである。
From character data TXT2 to audio data SND
A known technique may be used for conversion to 2. However, when the first message is not received as in step # 13 or when the conversation is interrupted for a predetermined time, in step # 32, the personal information HMJ, the text information BNJ, the word information TNJ, etc. are referred to, The character data TXT2 that the person HMN asks the user is generated. For example, "Hello", and the like, "What 'was."

【0048】アニメーションエンジンEG2によって、
動作制御データDSDを生成し(#34)、顔アニメー
ションデータFADを生成する(#35)。動作制御デ
ータDSDは、動作制御処理3dsを実行することによ
って得られる。
By the animation engine EG2,
The motion control data DSD is generated (# 34), and the face animation data FAD is generated (# 35). The operation control data DSD is obtained by executing the operation control processing 3ds.

【0049】例えば、従来の技術の項で述べた特開平1
0−293860号の技術を用いると、顔画像データF
GDを音声データSND2に同期させることができる。
そして、アニメーション生成処理3anを実行すること
によって、動作制御データDSDに基づいて顔画像デー
タFGDを動作させ、顔アニメーションデータFADを
生成する。
For example, Japanese Unexamined Patent Publication No.
Using the technology of No. 0-293860, face image data F
GD can be synchronized with audio data SND2.
Then, by executing the animation generation processing 3an, the face image data FGD is operated based on the operation control data DSD, and the face animation data FAD is generated.

【0050】図8に示す顔画像データFGD1の場合に
は、制御点PNTを制御することによって顔画像データ
FGDを動作させる。顔アニメーションデータFADを
送信するには、例えばMPEGなどの種々の符号化方式
を用いて圧縮すればよい。
In the case of the face image data FGD1 shown in FIG. 8, the face image data FGD is operated by controlling the control point PNT. In order to transmit the face animation data FAD, compression may be performed using various encoding methods such as MPEG.

【0051】上述のように、第一の実施形態では、顔ア
ニメーションデータFADをサーバ3により生成してク
ライアント2に送信することにより、クライアント2で
はそれを受信して表示するだけでよくなり、性能または
仕様が低いためにアニメーション生成の処理が困難なク
ライアント2であっても、人物HMNとの会話を行うこ
とが可能となる。 〔第二の実施形態〕第二の実施形態において、アニメー
ション会話システムの全体の構成は第一の実施形態の場
合と同様である。しかし、クライアント2およびサーバ
3の各磁気ディスク装置27,37に記憶されるプログ
ラム、および処理装置21,31による処理内容が第一
の実施形態の場合と異なる。
As described above, in the first embodiment, the face animation data FAD is generated by the server 3 and transmitted to the client 2, so that the client 2 only needs to receive and display it, and the performance is improved. Alternatively, even if the client 2 has difficulty in generating animations due to low specifications, conversation with the person HMN can be performed. [Second Embodiment] In the second embodiment, the overall configuration of the animation conversation system is the same as in the first embodiment. However, the programs stored in the magnetic disk devices 27 and 37 of the client 2 and the server 3 and the processing contents of the processing devices 21 and 31 are different from those of the first embodiment.

【0052】すなわち、第一の実施形態では、サーバ3
の顔画像データベースFDBから抽出した顔画像データ
FGDを、サーバ3のRAM31bまたは磁気ディスク
装置37に一時的に記憶したが、第二の実施形態では、
顔画像データFGDをクライアント2に送信し、クライ
アント2のRAM21bまたは磁気ディスク装置27に
一時的に記憶する。そして、クライアント2の側におい
て、サーバ3から送信される動作制御データDSDに基
づいて、顔アニメーションデータFADを生成する。
That is, in the first embodiment, the server 3
The face image data FGD extracted from the face image database FDB is temporarily stored in the RAM 31b of the server 3 or the magnetic disk device 37. However, in the second embodiment,
The face image data FGD is transmitted to the client 2 and is temporarily stored in the RAM 21 b or the magnetic disk device 27 of the client 2. Then, the client 2 generates the face animation data FAD based on the operation control data DSD transmitted from the server 3.

【0053】図9は第二の実施形態における磁気ディス
ク装置27に記憶されているプログラムなどの例を示す
図、図10は第二の実施形態における磁気ディスク装置
37に記憶されているプログラムなどの例を示す図であ
る。
FIG. 9 is a diagram showing an example of programs stored in the magnetic disk device 27 in the second embodiment, and FIG. 10 is a diagram showing programs and the like stored in the magnetic disk device 37 in the second embodiment. It is a figure showing an example.

【0054】これらの図において、第一の実施形態の場
合と同じ機能を有する部分には同じ符号を付して説明を
省略しまたは簡略化する。以下同様である。図9に示す
ように、磁気ディスク装置27には、人物HMNの顔の
アニメーションを生成する手段であるアニメーション生
成処理3an、サーバ3から送信された顔画像データF
GDおよび動作制御データDSDが記憶される。
In these figures, parts having the same functions as in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted or simplified. The same applies hereinafter. As shown in FIG. 9, the magnetic disk device 27 stores an animation generation process 3an, which is a means for generating an animation of the face of the person HMN, and the face image data F transmitted from the server 3.
GD and operation control data DSD are stored.

【0055】図10に示すように、磁気ディスク装置3
7に記憶されるサーバ会話プログラム3pは、第一の実
施形態と同様に、基本操作処理3bs、言語認識会話エ
ンジンEG1、およびアニメーションエンジンEG2に
よって構成される。ただし、アニメーションエンジンE
G2は、動作制御処理3dsを行うが、アニメーション
生成処理は行わない。
As shown in FIG. 10, the magnetic disk drive 3
The server conversation program 3p stored in 7 includes a basic operation processing 3bs, a language recognition conversation engine EG1, and an animation engine EG2, as in the first embodiment. However, animation engine E
G2 performs the operation control processing 3ds, but does not perform the animation generation processing.

【0056】次に、人物HMNとの会話を行う際に、ア
ニメーション会話システム1で行われる処理および操作
について、フローチャートを参照して説明する。図11
は第二の実施形態におけるアニメーション会話システム
1の処理の流れを示すフローチャート、図12は動作制
御データDSDおよび第二のメッセージMG2を生成す
る処理の流れを示すフローチャートである。
Next, processing and operations performed by the animation conversation system 1 when conducting a conversation with the person HMN will be described with reference to flowcharts. FIG.
Is a flowchart showing a processing flow of the animation conversation system 1 in the second embodiment, and FIG. 12 is a flowchart showing a processing flow of generating the operation control data DSD and the second message MG2.

【0057】図11に示すように、クライアント2にお
いて、会話の相手となる人物HMNを一覧表LSTから
選択する(#41)。このとき、選択された人物HMN
についての人物番号NUMがサーバ3へ送信される。人
物番号NUMを受信したサーバ3は、対応する顔画像デ
ータFGDを顔画像データベースFDBから読み出し、
クライアント2へ送信する(#42)。このような会話
のための前処理は、背景処理として自動的に行われる。
As shown in FIG. 11, the client 2 selects a person HMN to be a conversation partner from the list LST (# 41). At this time, the selected person HMN
Is transmitted to the server 3. The server 3 that has received the person number NUM reads the corresponding face image data FGD from the face image database FDB,
The data is transmitted to the client 2 (# 42). Such preprocessing for conversation is automatically performed as background processing.

【0058】サーバ3において、動作制御データDSD
が生成され(#43)、クライアント2へ送信される
(#44)。クライアント2において、顔画像データF
GDを動作制御データDSDに基づいて動作させ、これ
によって顔アニメーションデータFADを生成し、これ
と同時に表示装置22aに表示する(#45)。
In the server 3, the operation control data DSD
Is generated (# 43) and transmitted to the client 2 (# 44). In the client 2, the face image data F
The GD is operated based on the operation control data DSD, thereby generating the face animation data FAD and, at the same time, displaying it on the display device 22a (# 45).

【0059】なお、サーバ3において、動作制御データ
DSDの生成とともに第二のメッセージMG2を生成
し、それらをクライアント2へ送信し、クライアント2
において顔アニメーションデータFADを表示するとと
もに第二のメッセージMG2をスピーカ22bから出力
してもよい。
The server 3 generates the second message MG2 together with the generation of the operation control data DSD, transmits them to the client 2, and transmits the second message MG2 to the client 2.
May display the face animation data FAD and output the second message MG2 from the speaker 22b.

【0060】クライアント2において、第一のメッセー
ジMG1が入力され、サーバ3へ送信される(#4
6)。サーバ3において、第一のメッセージMG1およ
び人物情報HMJなどに基づいて、動作制御データDS
Dおよび第二のメッセージMG2が生成され(#4
7)、生成されたデータがクライアント2へ送信される
(#48)。
In the client 2, the first message MG1 is input and transmitted to the server 3 (# 4).
6). In the server 3, based on the first message MG1 and the person information HMJ, the operation control data DS
D and the second message MG2 are generated (# 4
7), the generated data is transmitted to the client 2 (# 48).

【0061】そして、顔画像データFGDを動作制御デ
ータDSDに基づいて動作させながら表示装置22aに
出力し、これと同期して第二のメッセージMG2を表示
装置22aまたはスピーカ22bへ出力する(#4
9)。
Then, the face image data FGD is output to the display device 22a while operating based on the operation control data DSD, and the second message MG2 is output to the display device 22a or the speaker 22b in synchronization with the operation (# 4).
9).

【0062】切断要求が出されるまで、ユーザと人物H
MNとの会話が繰り返される(#46〜50)。ここ
で、図12を参照して、ステップ#43およびステップ
#47で行われる動作制御データなどの生成方法につい
て説明する。
Until the disconnection request is issued, the user and the person H
The conversation with the MN is repeated (# 46 to # 50). Here, a method of generating operation control data and the like performed in steps # 43 and # 47 will be described with reference to FIG.

【0063】サーバ3において、受信した第一のメッセ
ージMG1の認識を行う(#61)。文字データTXT
2を生成し(#62)、生成された文字データTXT2
から音声データSND2を生成し、第二のメッセージM
G2を生成する(#63)。そして、アニメーションエ
ンジンEG2によって、動作制御データDSDを生成す
る(#64)。
The server 3 recognizes the received first message MG1 (# 61). Character data TXT
2 (# 62), and the generated character data TXT2
Generates the voice data SND2 from the second message M
G2 is generated (# 63). Then, the operation control data DSD is generated by the animation engine EG2 (# 64).

【0064】上述のように、第二の実施形態では、サー
バ3で抽出した顔画像データFGDをクライアント2に
送信し、クライアント2において、動作制御データDS
Dに基づいて顔画像データFGDを動作させてアニメー
ションを生成する。これにより、サーバ3とクライアン
ト2との間のデータ通信量を減少させ、高速なアニメー
ションの表示が可能となる。 〔第三の実施形態〕第三の実施形態において、アニメー
ション会話システムの全体の構成は第二の実施形態の場
合と同様である。磁気ディスク装置27,37に記憶さ
れるプログラムの内容は、図9および図10に示す第二
の実施形態の場合と大体同じである。しかし、クライア
ント2およびサーバ3の各磁気ディスク装置27,37
に記憶されるデータが第二の実施形態の場合と異なり、
これによる処理内容が若干異なる。
As described above, in the second embodiment, the face image data FGD extracted by the server 3 is transmitted to the client 2, and the operation control data DS
The animation is generated by operating the face image data FGD based on D. As a result, the amount of data communication between the server 3 and the client 2 is reduced, and a high-speed animation can be displayed. [Third Embodiment] In the third embodiment, the overall configuration of the animation conversation system is the same as in the second embodiment. The contents of the programs stored in the magnetic disk devices 27 and 37 are almost the same as those of the second embodiment shown in FIGS. However, each of the magnetic disk devices 27 and 37 of the client 2 and the server 3
Is different from the case of the second embodiment,
The processing contents are slightly different.

【0065】すなわち、第二の実施形態では、顔画像デ
ータベースFDBについてもクライアント2に設け、ク
ライアント2において、顔画像データFGDの抽出およ
び一時記憶、および顔アニメーションデータの生成を行
う。サーバ3は、クライアント2から送信される第一の
メッセージMG1に基づいて、動作制御データDSDお
よび第二のメッセージMG2の生成を行う。
That is, in the second embodiment, the face image database FDB is also provided in the client 2, and the client 2 performs extraction and temporary storage of the face image data FGD and generation of face animation data. The server 3 generates the operation control data DSD and the second message MG2 based on the first message MG1 transmitted from the client 2.

【0066】図13は、第三の実施形態におけるクライ
アント2の磁気ディスク装置27およびサーバ3の磁気
ディスク装置37に設けられているデータベースなどの
例を示す図である。
FIG. 13 is a diagram showing an example of a database and the like provided in the magnetic disk device 27 of the client 2 and the magnetic disk device 37 of the server 3 in the third embodiment.

【0067】図13に示すように、顔画像データベース
FDBは、サーバ3の磁気ディスク装置37には設けら
れておらず、クライアント2の磁気ディスク装置27の
みに設けられている。
As shown in FIG. 13, the face image database FDB is not provided in the magnetic disk device 37 of the server 3, but is provided only in the magnetic disk device 27 of the client 2.

【0068】第三の実施形態におけるアニメーション会
話システム1の処理内容は、第二の実施形態についての
図11のフローチャートとほぼ同じである。次に相違点
のみについて説明する。
The processing content of the animation conversation system 1 in the third embodiment is almost the same as the flowchart in FIG. 11 for the second embodiment. Next, only the differences will be described.

【0069】図11のステップ#42において、顔画像
データFGDを、クライアント2の磁気ディスク装置2
7に設けられている顔画像データベースFDBから読み
出し、そのまま一時的に記憶する。他への送信は行わな
い。その他の処理は同じである。
In step # 42 of FIG. 11, the face image data FGD is
7 and is temporarily stored as it is. It does not send to others. Other processes are the same.

【0070】上述のように、第三の実施形態では、顔画
像データベースFDBをクライアント2の磁気ディスク
装置2に設けることにより、サーバ3から顔画像データ
FGDを送信する必要がなくなり、会話の開始までに要
する時間を短縮することが可能となる。
As described above, in the third embodiment, the face image database FDB is provided in the magnetic disk device 2 of the client 2, so that it is not necessary to transmit the face image data FGD from the server 3, and until the start of conversation. Can be shortened.

【0071】上に説明した3つの実施形態のように、サ
ーバ3によって第二のメッセージMG2を生成すること
により、クライアント2の処理の負荷を軽減させて、遠
隔的に人物HMNとの会話をすることができる。
As in the above-described three embodiments, the server 3 generates the second message MG2, thereby reducing the processing load on the client 2 and having a remote conversation with the person HMN. be able to.

【0072】顔画像データFGDが3次元的に構造化さ
れているため、顔の動きや感情表現が豊かであり且つ自
然である。ユーザの話し掛けを理解した顔アニメーショ
ンが、3次元画像による感情表現と音声とを交えて返事
をしてくれるので、ユーザは双方向対話を楽しむことが
できる。
Since the face image data FGD is three-dimensionally structured, facial movements and emotional expressions are rich and natural. Since the face animation that understands the user's speech responds with the emotion expression and the sound expressed by the three-dimensional image, the user can enjoy the interactive conversation.

【0073】また、人物HMNを選択することにより、
歴史上の人物や血縁の故人との対話サービスを実現する
ことができる。例えば、顔画像データベースFDBの中
から人物HMNとして「ご先祖」を選択することによっ
て、ユーザは今は亡きご先祖の顔アニメーションとの対
話を日常的に楽しむことができる。
By selecting the person HMN,
A dialogue service with a historical person or a deceased relative can be realized. For example, by selecting “ancestor” as the person HMN from the face image database FDB, the user can enjoy daily conversation with the face animation of the deceased ancestor.

【0074】人物HMNが実在の有名人である場合に、
有名人の実生活を煩わせることなく、有名人と多数のフ
ァンとの対話を実現することができる。言語認識会話エ
ンジンEG1において、先祖、有名人、歴史上の人物な
どのように、人物HMNの種類に応じて会話の内容を設
定しておくことによって、ユーザと人物HMNとの間で
内容のある会話を行うことができる。
If the person HMN is a real celebrity,
A conversation between a celebrity and many fans can be realized without disturbing the real life of the celebrity. In the language recognition conversation engine EG1, by setting the conversation content according to the type of the person HMN, such as an ancestor, a celebrity, a historical person, etc., a conversation with the content between the user and the person HMN is made. It can be performed.

【0075】しかも、サーバ3を常時稼動させておくこ
とにより、ユーザは、時間および場所を問うことなく、
人物HMNとの会話を楽しむことができる。また、会話
データベースKDBのメンテナンスをサーバ3で行うこ
とができるので、クライアント2で特別なメンテナンス
を行うことなく、最新の話題や流行の言葉などに容易に
対応することができる。
Further, by keeping the server 3 running at all times, the user does not need to ask the time and place,
A conversation with the person HMN can be enjoyed. Further, since the maintenance of the conversation database KDB can be performed by the server 3, the client 2 can easily cope with the latest topics and popular words without performing special maintenance.

【0076】上に述べた実施形態においては、人物HM
Nの音声の生成をサーバ3によって行ったが、文字デー
タTXT2のみをサーバ3で生成し、音声データSND
2をクライアント2で生成してもよい。
In the embodiment described above, the person HM
N is generated by the server 3, but only the character data TXT2 is generated by the server 3 and the voice data SND is generated.
2 may be generated by the client 2.

【0077】上に述べた実施形態において、サーバ3お
よびクライアント2として、ワークステーションまたは
パーソナルコンピュータなどを用いることができる。ま
た、クライアント3としては、通信機能を有した機器、
例えば、携帯電話機、モバイル機器、その他の種々の機
器を用いることができる。
In the embodiment described above, a workstation or a personal computer can be used as the server 3 and the client 2. Further, as the client 3, a device having a communication function,
For example, a mobile phone, a mobile device, and various other devices can be used.

【0078】その他、アニメーション会話システム1の
全体または各部の構成、回路、処理内容、処理順序、会
話の内容などは、本発明の趣旨に沿って適宜変更するこ
とができる。
In addition, the configuration, circuit, processing contents, processing order, conversation contents, etc. of the whole or each part of the animation conversation system 1 can be appropriately changed in accordance with the gist of the present invention.

【0079】[0079]

【発明の効果】本発明によると、コンピュータによって
仮想した実在または架空の人物等との会話を遠隔的に行
うことができる。サーバによって第二のメッセージを生
成するので、クライアントの処理の負荷を軽減させるこ
とができる。
According to the present invention, a conversation with a virtual or real person or a virtual person can be remotely performed by a computer. Since the second message is generated by the server, the processing load on the client can be reduced.

【0080】請求項2の発明によると、データ通信量を
減少させ、高速なアニメーションの表示を行うことがで
きる。請求項3の発明によると、会話の開始までに要す
る時間を短縮することができる。
According to the second aspect of the present invention, the amount of data communication can be reduced, and a high-speed animation can be displayed. According to the third aspect of the present invention, the time required until the start of the conversation can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るアニメーション会話システムの全
体の構成を示すブロック図である。
FIG. 1 is a block diagram showing the overall configuration of an animation conversation system according to the present invention.

【図2】第一の実施形態におけるクライアント側に記憶
されているプログラムを示す図である。
FIG. 2 is a diagram showing a program stored on a client side in the first embodiment.

【図3】第一の実施形態におけるサーバ側に記憶されて
いるプログラムを示す図である。
FIG. 3 is a diagram showing a program stored in a server according to the first embodiment.

【図4】サーバの磁気ディスク装置に設けられているデ
ータベースを示す図である。
FIG. 4 is a diagram showing a database provided in a magnetic disk device of the server.

【図5】人物の一覧表の例を示す図である。FIG. 5 is a diagram showing an example of a list of persons.

【図6】第一の実施形態におけるアニメーション会話シ
ステムの処理の流れを示すフローチャートである。
FIG. 6 is a flowchart illustrating a flow of processing of the animation conversation system according to the first embodiment.

【図7】顔アニメーションデータおよび第二のメッセー
ジを生成する処理の流れを示すフローチャートである。
FIG. 7 is a flowchart illustrating a flow of processing for generating face animation data and a second message.

【図8】顔画像データの例を示す図である。FIG. 8 is a diagram illustrating an example of face image data.

【図9】第二の実施形態におけるクライアント側に記憶
されているプログラムを示す図である。
FIG. 9 is a diagram showing a program stored on the client side in the second embodiment.

【図10】第二の実施形態におけるサーバ側に記憶され
ているプログラムを示す図である。
FIG. 10 is a diagram illustrating a program stored in a server according to the second embodiment.

【図11】第二の実施形態におけるアニメーション会話
システムの処理の流れを示すフローチャートである。
FIG. 11 is a flowchart illustrating a flow of processing of the animation conversation system according to the second embodiment.

【図12】動作制御データおよび第二のメッセージを生
成する処理の流れを示すフローチャートである。
FIG. 12 is a flowchart illustrating a flow of processing for generating operation control data and a second message.

【図13】第三の実施形態におけるクライアントおよび
サーバのそれぞれの磁気ディスク装置に記憶されている
データベースを示す図である。
FIG. 13 is a diagram illustrating databases stored in respective magnetic disk devices of a client and a server according to the third embodiment.

【符号の説明】[Explanation of symbols]

1 アニメーション会話システム 2 クライアント 21 処理装置 22a 表示装置(出力装置) 22b スピーカ(出力装置) 23a マウス(入力装置) 23b キーボード(入力装置) 23c マイク(入力装置) 24 通信制御装置 3 サーバ 31 処理装置 34 通信制御装置 FDB 顔画像データベース(記憶手段) EG1 言語認識会話エンジン(第二のメッセージを生
成する手段) EG2 アニメーションエンジン(動作制御データを生
成する手段、顔アニメーションを生成する手段) 3an アニメーション生成処理(顔アニメーションを
生成する手段) 4 ネットワーク HMN 人物 MG1 第一のメッセージ MG2 第二のメッセージ FAD 顔アニメーションデータ
DESCRIPTION OF SYMBOLS 1 Animation conversation system 2 Client 21 Processing device 22a Display device (output device) 22b Speaker (output device) 23a Mouse (input device) 23b Keyboard (input device) 23c Microphone (input device) 24 Communication control device 3 Server 31 Processing device 34 Communication control device FDB Face image database (storage means) EG1 Language recognition conversation engine (means for generating second message) EG2 Animation engine (means for generating operation control data, means for generating face animation) 3an animation generation processing ( Means for generating a face animation) 4 Network HMN Person MG1 First message MG2 Second message FAD Face animation data

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/14 G10L 3/00 571U Fターム(参考) 5B050 BA08 BA12 CA07 CA08 EA24 FA10 5C064 AA06 AB04 AC05 AC06 AC12 AC16 AC17 AD08 AD09 AD13 5D015 KK02 KK04 LL06 LL08 5D045 AA20 AB26 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/14 G10L 3/00 571U F-term (Reference) 5B050 BA08 BA12 CA07 CA08 EA24 FA10 5C064 AA06 AB04 AC05 AC06 AC12 AC16 AC17 AD08 AD09 AD13 5D015 KK02 KK04 LL06 LL08 5D045 AA20 AB26

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】実在または架空の人物、動物、人形、また
はキャラクタなどをコンピュータによって仮想し、これ
ら人物等との会話を行えるようにしたアニメーション会
話システムであって、 クライアントおよびサーバを有し、 前記クライアントには、ユーザから前記人物等へのメッ
セージである第一のメッセージを入力する入力装置と、
当該第一のメッセージを送信する手段と、前記人物等か
らユーザへのメッセージである第二のメッセージおよび
前記人物等の顔アニメーションを受信する手段と、当該
第二のメッセージをユーザに出力する出力装置と、当該
顔アニメーションを表示する表示装置とが設けられ、 前記サーバには、前記人物等の顔画像データを記憶した
記憶手段と、前記第一のメッセージを受信する手段と、
前記第二のメッセージを生成する手段と、前記第二のメ
ッセージに合わせて顔画像データを動作させる動作制御
データを生成する手段と、当該動作制御データおよび前
記顔画像データに基づいて前記顔アニメーションを生成
する手段と、前記第二のメッセージおよび前記顔アニメ
ーションを送信する手段とが設けられている、 ことを特徴とするアニメーション会話システム。
1. An animation conversation system in which a real or imaginary person, animal, doll, character, or the like is virtualized by a computer so that a conversation with the person or the like can be made, comprising: a client and a server; An input device for inputting a first message, which is a message from the user to the person or the like, to the client,
Means for transmitting the first message, means for receiving a second message that is a message from the person or the like to the user and face animation of the person or the like, and an output device that outputs the second message to the user And a display device for displaying the face animation, wherein the server has storage means for storing face image data of the person or the like, and means for receiving the first message,
Means for generating the second message; means for generating operation control data for operating face image data in accordance with the second message; and generating the face animation based on the operation control data and the face image data. An animation conversation system, comprising: means for generating; and means for transmitting the second message and the face animation.
【請求項2】実在または架空の人物、動物、人形、また
はキャラクタなどをコンピュータによって仮想し、これ
ら人物等との会話を行えるようにしたアニメーション会
話システムであって、 クライアントおよびサーバを有し、 前記クライアントには、ユーザから前記人物等へのメッ
セージである第一のメッセージを入力する入力装置と、
当該第一のメッセージを送信する手段と、前記人物等か
らユーザへのメッセージである第二のメッセージをユー
ザに出力する出力装置と、当該第二のメッセージ、前記
人物等の顔を画像データ化した顔画像データ、および当
該第二のメッセージに合わせて顔画像データを動作させ
る動作制御データを受信する手段と、当該動作制御デー
タおよび当該顔画像データに基づいて前記人物等の顔ア
ニメーションを生成する手段と、当該顔アニメーション
を表示する表示装置とが設けられ、 前記サーバには、前記顔画像データを記憶した記憶手段
と、前記第一のメッセージを受信する手段と、前記第二
のメッセージを生成する手段と、前記動作制御データを
生成する手段と、前記第二のメッセージおよび前記動作
制御データを送信する手段とが設けられている、 ことを特徴とするアニメーション会話システム。
2. An animation conversation system in which a real or imaginary person, animal, doll, character, or the like is virtualized by a computer so that a conversation with the person or the like can be made, comprising: a client and a server; An input device for inputting a first message, which is a message from the user to the person or the like, to the client,
Means for transmitting the first message, an output device for outputting a second message, which is a message from the person or the like to the user, to the user, and the second message, the face of the person or the like as image data Means for receiving face image data and operation control data for operating the face image data in accordance with the second message, and means for generating a face animation of the person or the like based on the operation control data and the face image data And a display device for displaying the face animation. The server includes a storage unit that stores the face image data, a unit that receives the first message, and generates the second message. Means, means for generating the operation control data, and means for transmitting the second message and the operation control data. An animated conversation system characterized by:
【請求項3】実在または架空の人物、動物、人形、また
はキャラクタなどをコンピュータによって仮想し、これ
ら人物等との会話を行えるようにしたアニメーション会
話システムであって、 クライアントおよびサーバを有し、 前記クライアントには、前記人物等の顔画像データを記
憶した記憶手段と、ユーザから前記人物等へのメッセー
ジである第一のメッセージを入力する入力装置と、当該
第一のメッセージを送信する手段と、前記人物等からユ
ーザへのメッセージである第二のメッセージをユーザに
出力する出力装置と、当該第二のメッセージ、前記顔画
像データ、および当該第二のメッセージに合わせて顔画
像データを動作させる動作制御データを受信する手段
と、当該動作制御データおよび当該顔画像データに基づ
いて前記人物等の顔アニメーションを生成する手段と、
当該顔アニメーションを表示する表示装置とが設けら
れ、 前記サーバには、前記第一のメッセージを受信する手段
と、前記第二のメッセージを生成する手段と、前記動作
制御データを生成する手段と、前記第二のメッセージお
よび前記動作制御データを送信する手段とが設けられて
いる、 ことを特徴とするアニメーション会話システム。
3. An animation conversation system in which a real or imaginary person, animal, doll, character, or the like is virtualized by a computer so that a conversation with the person or the like can be made, comprising: a client and a server; The client has a storage unit that stores face image data of the person or the like, an input device that inputs a first message that is a message from the user to the person or the like, and a unit that transmits the first message. An output device that outputs to the user a second message that is a message from the person or the like to the user, and an operation of operating the second message, the face image data, and the face image data in accordance with the second message Means for receiving control data; and the person or the like based on the operation control data and the face image data. Means for generating a face animation,
A display device for displaying the face animation is provided; the server includes a unit that receives the first message, a unit that generates the second message, and a unit that generates the operation control data. Means for transmitting the second message and the operation control data, the system comprising: an animation conversation system;
【請求項4】実在または架空の人物、動物、人形、また
はキャラクタなどをコンピュータによって仮想し、これ
ら人物等との会話を行えるようにしたアニメーション会
話システムに用いられるサーバであって、 前記人物等の顔画像データを記憶した記憶手段と、 ユーザから前記人物等へのメッセージである第一のメッ
セージを受信する手段と、 前記人物等からユーザへのメッセージである第二のメッ
セージを生成する手段と、 前記第二のメッセージの出力に合わせて顔画像データを
動作させる動作制御データを生成する手段と、 前記動作制御データおよび前記顔画像データに基づいて
前記顔アニメーションを生成する手段と、 前記第二のメッセージおよび前記顔アニメーションを送
信する手段と、 を有してなることを特徴とするサーバ。
4. A server used in an animation conversation system in which a real or imaginary person, animal, doll, character, or the like is virtualized by a computer so that a conversation with the person or the like can be performed. Storage means for storing face image data, means for receiving a first message that is a message from a user to the person or the like, means for generating a second message that is a message from the person or the like to the user, Means for generating operation control data for operating the face image data in accordance with the output of the second message; means for generating the face animation based on the operation control data and the face image data; Means for transmitting a message and the face animation.
【請求項5】実在または架空の人物、動物、人形、また
はキャラクタなどをコンピュータによって仮想し、これ
ら人物等との会話を行えるようにしたアニメーション会
話システムに用いられるサーバであって、 前記人物等の顔画像データを記憶した記憶手段と、 ユーザから前記人物等へのメッセージである第一のメッ
セージを受信する手段と、 前記人物等からユーザへのメッセージである第二のメッ
セージを生成する手段と、 前記第二のメッセージの出力に合わせて顔画像データを
動作させる動作制御データを生成する手段と、 前記第二のメッセージおよび前記動作制御データを送信
する手段と、 を有してなることを特徴とするサーバ。
5. A server used in an animation conversation system in which a real or imaginary person, animal, doll, character, or the like is virtualized by a computer so that a conversation with the person or the like can be performed. Storage means for storing face image data, means for receiving a first message that is a message from a user to the person or the like, means for generating a second message that is a message from the person or the like to the user, Means for generating operation control data for operating the face image data in accordance with the output of the second message; and means for transmitting the second message and the operation control data. Server to do.
【請求項6】実在または架空の人物、動物、人形、また
はキャラクタなどをコンピュータによって仮想し、これ
ら人物等との会話を行えるようにしたアニメーション会
話システムに用いられるサーバであって、 ユーザから前記人物等へのメッセージである第一のメッ
セージを受信する手段と、 前記人物等からユーザへのメッセージである第二のメッ
セージを生成する手段と、 前記第二のメッセージの出力に合わせて前記人物等の顔
画像データを動作させる動作制御データを生成する手段
と、 前記第二のメッセージおよび前記動作制御データを送信
する手段と、 を有してなることを特徴とするサーバ。
6. A server used in an animation conversation system in which a real or imaginary person, animal, doll, character, or the like is virtualized by a computer so that a conversation with the person or the like can be performed. Means for receiving a first message that is a message to the like, means for generating a second message that is a message from the person or the like to the user, and the person or the like according to the output of the second message A server comprising: means for generating operation control data for operating face image data; and means for transmitting the second message and the operation control data.
【請求項7】実在または架空の人物、動物、人形、また
はキャラクタなどをコンピュータによって仮想し、これ
ら人物等との会話を行えるようにしたアニメーション会
話システムに用いられるクライアントであって、 ユーザから前記人物等へのメッセージである第一のメッ
セージを入力する入力装置と、 当該第一のメッセージを送信する手段と、 前記人物等からユーザへのメッセージである第二のメッ
セージをユーザに出力する出力装置と、 前記第二のメッセージ、前記人物等の顔を画像データ化
した顔画像データ、および前記第二のメッセージの出力
に合わせて顔画像データを動作させる動作制御データを
受信する手段と、 前記動作制御データおよび前記顔画像データに基づいて
前記人物等の顔アニメーションを生成する手段と、 前記顔アニメーションを表示する表示装置と、 を有してなることを特徴とするクライアント。
7. A client used in an animation conversation system in which a real or fictional person, animal, doll, character, or the like is virtualized by a computer so that a conversation with the person or the like can be performed. An input device that inputs a first message that is a message to the like, a unit that transmits the first message, and an output device that outputs a second message that is a message from the person or the like to the user to the user Means for receiving the second message, face image data obtained by converting the face of the person or the like into image data, and operation control data for operating the face image data in accordance with the output of the second message; Means for generating a face animation of the person or the like based on data and the face image data; Clients characterized by comprising a, a display device for displaying the animation.
【請求項8】前記顔画像データは、動作可能に構造化さ
れた3次元モデルであり、 前記顔アニメーションを生成する手段は、前記動作制御
データに基づいて3次元モデルの構造化された部分を動
作させる、 請求項1、2、3、4、または7のいずれかに記載のシ
ステム、サーバ、またはクライアント。
8. The face image data is a three-dimensional model structured to be operable, and the means for generating a face animation converts a structured part of the three-dimensional model based on the motion control data. The system, server, or client according to any of claims 1, 2, 3, 4, or 7.
JP2000176677A 2000-06-13 2000-06-13 Animation conversation system and server to be used for it Pending JP2001357413A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000176677A JP2001357413A (en) 2000-06-13 2000-06-13 Animation conversation system and server to be used for it
US09/878,207 US6943794B2 (en) 2000-06-13 2001-06-12 Communication system and communication method using animation and server as well as terminal device used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000176677A JP2001357413A (en) 2000-06-13 2000-06-13 Animation conversation system and server to be used for it

Publications (1)

Publication Number Publication Date
JP2001357413A true JP2001357413A (en) 2001-12-26

Family

ID=18678375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000176677A Pending JP2001357413A (en) 2000-06-13 2000-06-13 Animation conversation system and server to be used for it

Country Status (1)

Country Link
JP (1) JP2001357413A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219908A (en) * 2013-05-10 2014-11-20 株式会社Nttドコモ Information processing system and information processing apparatus
CN112669846A (en) * 2021-03-16 2021-04-16 深圳追一科技有限公司 Interactive system, method, device, electronic equipment and storage medium
JP2021086415A (en) * 2019-11-28 2021-06-03 有限会社クロマニヨン Virtual person interaction system, video generation method, and video generation program
JP6993034B1 (en) 2021-05-14 2022-01-13 Aiインフルエンサー株式会社 Content playback method and content playback system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219908A (en) * 2013-05-10 2014-11-20 株式会社Nttドコモ Information processing system and information processing apparatus
JP2021086415A (en) * 2019-11-28 2021-06-03 有限会社クロマニヨン Virtual person interaction system, video generation method, and video generation program
CN112669846A (en) * 2021-03-16 2021-04-16 深圳追一科技有限公司 Interactive system, method, device, electronic equipment and storage medium
JP6993034B1 (en) 2021-05-14 2022-01-13 Aiインフルエンサー株式会社 Content playback method and content playback system
JP2022175923A (en) * 2021-05-14 2022-11-25 Aiインフルエンサー株式会社 Content reproduction method and content reproduction system

Similar Documents

Publication Publication Date Title
US6943794B2 (en) Communication system and communication method using animation and server as well as terminal device used therefor
JP7408048B2 (en) Anime character driving method and related device based on artificial intelligence
JP6019108B2 (en) Video generation based on text
CN110286756A (en) Method for processing video frequency, device, system, terminal device and storage medium
CN110400251A (en) Method for processing video frequency, device, terminal device and storage medium
US20180157901A1 (en) Method and system for incorporating contextual and emotional visualization into electronic communications
Thiebaux et al. Smartbody: Behavior realization for embodied conversational agents
EP1269465B1 (en) Character animation
US20020024519A1 (en) System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character
CN110413841A (en) Polymorphic exchange method, device, system, electronic equipment and storage medium
WO2001046947A1 (en) Voice-controlled animation system
CN111383642B (en) Voice response method based on neural network, storage medium and terminal equipment
KR20220094008A (en) Apparatus and method for creating content based on digital human using artificial intelligence
JP2023026448A (en) Communication support program, communication support method, communication support system, terminal device, and nonverbal expression program
WO2011083978A2 (en) System and method for providing utterances and emotional expressions of a character
JP6796762B1 (en) Virtual person dialogue system, video generation method, video generation program
CN111939558A (en) Method and system for driving virtual character action by real-time voice
KR20240038941A (en) Method and system for generating avatar based on text
CN117523088A (en) Personalized three-dimensional digital human holographic interaction forming system and method
CN110189404B (en) Virtual face modeling method based on real face image
CN113314104A (en) Interactive object driving and phoneme processing method, device, equipment and storage medium
JP2001357413A (en) Animation conversation system and server to be used for it
Lokesh et al. Computer Interaction to human through photorealistic facial model for inter-process communication
JP2001357414A (en) Animation communicating method and system, and terminal equipment to be used for it
Altarawneh et al. Leveraging Cloud-based Tools to Talk with Robots.

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704