JP2000349920A - Intention transmitter - Google Patents

Intention transmitter

Info

Publication number
JP2000349920A
JP2000349920A JP11154284A JP15428499A JP2000349920A JP 2000349920 A JP2000349920 A JP 2000349920A JP 11154284 A JP11154284 A JP 11154284A JP 15428499 A JP15428499 A JP 15428499A JP 2000349920 A JP2000349920 A JP 2000349920A
Authority
JP
Japan
Prior art keywords
listener
robot
speaker
voice
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11154284A
Other languages
Japanese (ja)
Other versions
JP3526785B2 (en
Inventor
Tomio Watanabe
富夫 渡辺
Hiromoto Ogawa
浩基 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INTERROBOT Inc
Original Assignee
INTERROBOT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INTERROBOT Inc filed Critical INTERROBOT Inc
Priority to JP15428499A priority Critical patent/JP3526785B2/en
Publication of JP2000349920A publication Critical patent/JP2000349920A/en
Application granted granted Critical
Publication of JP3526785B2 publication Critical patent/JP3526785B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain an intention transmitter for people, with which smoother and more intimate communication of intention can be attained by utilizing body gesture, on the basis of common share of a conversation rhythm. SOLUTION: This intention transmitter consists of a voice transmission reception section 9, a common use robot 2, a listener control section 4, a talker control section 3. The voice transmission reception section 9 transits/receives a voice signal such as conversation, the common use robot 2 behaves a head nodding, a mouth opening a winding, or a gesture in response to the voice signal, the hearer control section 4 decides the behavior of the common use robot 2 as a listener from the voice signal sent through the transmission reception section 9 to activate the common use robot 2, then the talker control section 3 decides the behavior of the common use robot 2 as a talker from the voice signal received by the transmission reception section 9 to activate the common use robot 2.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、話し手と聞き手と
の役割が入れ代わりながら続けられる対人間の意思疎
通、例えば電話器を通じた会話がより円滑又は親密にな
るようにする意思伝達装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a communication device in which the roles of a speaker and a listener are exchanged, and interpersonal communication is continued, for example, a conversation through a telephone becomes smoother or more intimate.

【0002】[0002]

【従来の技術】話し手と聞き手との役割が入れ代わりな
がら続けられる対人間の会話には、直接対面してのほ
か、互いに姿を見ることなく音声のみでなされる場合、
例えば電話器を通じた会話がある。会話が互いの意思疎
通を図るものであるとすれば、言葉で意思を伝えること
ができるので、電話器を通じた会話は、必要かつ十分な
会話と見ることができる。現代では、必須の意思疎通手
段として、電話器は広く普及している。しかし、一方で
は人が得る外部情報の多くが視覚であるという事実があ
り、音声だけの電話器は不十分として、近年では、相手
方を視覚化できる電話器、いわゆるテレビ電話器が提案
されている。テレビ電話器は、相手の姿を映像信号によ
り音声信号と共に受信して画像表示装置に相手を写し出
す電話器で、既に実用化され、利用されている。
2. Description of the Related Art Interpersonal conversations in which the roles of a speaker and a listener are continued with each other being performed in a face-to-face manner or when only voice is performed without seeing each other,
For example, there is a conversation through a telephone. If the conversation is intended to communicate with each other, the communication can be conveyed in words, so that the conversation through the telephone can be regarded as a necessary and sufficient conversation. In the modern era, telephones have become widespread as an essential means of communication. However, on the other hand, there is a fact that much of the external information obtained by humans is visual, and telephones using only voice are insufficient.In recent years, telephones that can visualize the other party, so-called video telephones, have been proposed. . 2. Description of the Related Art A video telephone is a telephone that receives a figure of a partner together with a sound signal by a video signal and projects the partner on an image display device, and has already been put to practical use and used.

【0003】テレビ電話器の画像はもちろん平面であ
り、相手の姿を認識できるが、到底通常の会話のように
相手と対面しているという感じが得られない。そこで、
会話の実感を高める手段として、音声信号に応じて動く
ロボットを備えた電話器、「電話器通達装置」(特公平06-
034489号)が提案されている。この「電話器通達装置」
は、音声信号を入力としてモータを駆動し、目(瞼)又は
口を開閉することにより、あたかもロボットが話してい
る印象を与え、会話の実感を高める。ロボットは、必ず
しも音声と適切な対応関係で目(瞼)又は口を開閉するわ
けではないが、平面画像と異なり、聞き手と同じ空間で
ロボットが話しているかのように与える印象が、より会
話しやすい雰囲気を創り出すのである。
[0003] The image of the videophone is, of course, a plane, and the appearance of the other party can be recognized. However, the user cannot feel that he or she is facing the other party as in ordinary conversation. Therefore,
As a means to enhance the feeling of conversation, a telephone equipped with a robot that moves in response to voice signals, the "telephone notification device" (Tokuhei 06-
No. 034489) has been proposed. This "telephone notification device"
By driving a motor with an audio signal as an input and opening and closing the eyes (eyelids) or mouth, it gives the impression that the robot is talking and enhances the feeling of conversation. The robot does not necessarily open and close the eyes (eyelids) or mouth in an appropriate correspondence with the voice, but unlike a planar image, the impression that the robot gives as if the robot is talking in the same space as the listener is more conversative. It creates an easy atmosphere.

【0004】[0004]

【発明が解決しようとする課題】会話による意思疎通
は、単に音声だけでなく、頭の頷き動作、口の開閉動
作、目の瞬き動作、又は身体の身振り動作等、各種挙動
を互いに認識しながら会話のリズムを共有し、互いが相
手を自分の話の中へと引き込む(これを身体的引き込み
現象又は単に引き込み現象と呼ぶ)ことにより、より円
滑又は親密になる。上記ロボットを用いた特公平06-034
489号の「電話器通達装置」は、前記引き込み現象の発現
を期待して、ロボットに動きを付加している。ところ
が、音声信号を入力としてモータの駆動により得られる
目(瞼)又は口の開閉は、会話のリズムと無関係な動作で
あるから引き込み現象が発現せず、円滑又は親密な意思
疎通が望みにくい欠点がある。
The communication by conversation is performed not only by voice but also by recognizing various behaviors such as a nodding operation of a head, an opening / closing operation of a mouth, a blinking operation of an eye, and a gesturing operation of a body. By sharing the rhythm of the conversation and drawing each other into their own talk (this is called a physical entrainment phenomenon or simply entrainment phenomenon), they become smoother or more intimate. Tokiko using the above robot
No. 489, "Telephone notification device" adds motion to the robot in hopes of the occurrence of the pull-in phenomenon. However, the opening and closing of the eyes (eyelids) or mouth obtained by driving the motor with a voice signal as an input is an operation unrelated to the rhythm of conversation, so the pull-in phenomenon does not appear, and it is difficult to expect smooth or intimate communication. There is.

【0005】また、特公平06-034489号の「電話器通達装
置」は、あくまで話し手の代わりとしてロボットが話し
ている印象を与えるものである。つまり、話し手の話に
対して反応するものではない。このために、話し手とし
て前記「電話器通達装置」を使用した場合、従来の電話器
と変わりがない。これでは、引き込み現象は望むべくも
なく、特公平06-034489号の「電話器通達装置」は立体的
なテレビ電話器の域を出ていない。そこで、引き込み現
象を利用して、より円滑又は親密な意思疎通を図ること
のできる電話器、更には電話器に限らず、話し手と聞き
手との役割が入れ代わりながら続けられる対人間の意思
伝達装置を構築すべく、検討した。
[0005] The "telephone notification device" disclosed in Japanese Patent Publication No. 06-034489 gives the impression that a robot is speaking on behalf of a speaker. That is, it does not respond to the speaker's story. Therefore, when the "telephone notification device" is used as a speaker, there is no difference from the conventional telephone. In this case, the pull-in phenomenon is unlikely, and the "telephone notification device" of Japanese Patent Publication No. 06-034489 is not out of the range of a three-dimensional video telephone. Therefore, telephones that can achieve smoother or more intimate communication by utilizing the pull-in phenomenon, and furthermore, not only telephones, but also interpersonal communication devices in which roles of a speaker and a listener can be continued while being replaced. We considered to build.

【0006】[0006]

【課題を解決するための手段】検討の結果開発したもの
が、音声送受信部と、聞き手ロボット及び聞き手制御部
と、又は話し手ロボット及び話し手制御部とから構成さ
れ、音声送受信部は会話等の音声信号を送受信し、聞き
手ロボット又は話し手ロボットはこの音声信号に応答し
て頭の頷き動作、口の開閉動作、目の瞬き動作、又は身
体の身振り動作の挙動をし、聞き手制御部は送信部を通
じて送信される音声信号から聞き手ロボットの挙動を決
定してこの聞き手ロボットを作動させ、話し手制御部は
受信部で受信した音声信号から話し手ロボットの挙動を
決定してこの話し手ロボットを作動させる意思伝達装置
(ロボット個別型)である。
SUMMARY OF THE INVENTION As a result of the examination, what has been developed is composed of a voice transmitting / receiving unit, a listener robot and a listener controller, or a speaker robot and a speaker controller. The listener robot or the talker robot responds to this voice signal by performing a nodding operation of the head, an opening and closing operation of the mouth, a blinking of the eyes, or a gesture of the body in response to the voice signal. The behavior of the listener robot is determined based on the transmitted voice signal, and the listener robot is operated. The speaker control unit determines the behavior of the speaker robot based on the voice signal received by the receiver and operates the speaker robot.
(Individual robot type).

【0007】この意思伝達装置(ロボット個別型)は、例
えば電話器に聞き手ロボット又は話し手ロボットを付設
し、受話器に向かって話す声(音声信号)を受けて聞き手
ロボットを作動させたり、受信した声(音声信号)を受け
て話し手ロボットを作動させる。聞き手ロボットは、話
し手としての本人の声を受け、あたかも相手が目前で話
を聞いてくれているように挙動する。これにより、本人
と聞き手ロボットの間に擬似的な会話のリズムの共有が
実現し、聞き手ロボットに対する本人の引き込み現象が
発現し、本人が話しやすい雰囲気の醸成を図る。話し手
ロボットは、電話回線を通じて受信した話し手としての
相手の声を受け、あたかも相手が目前で話しているよう
に挙動する。これにより、話し手ロボットを媒介とした
本人と相手との間で会話のリズムの共有が実現し、相手
に対する本人の引き込み現象を発現して、会話の実感を
高める。
This communication device (individual robot type) is provided, for example, with a listener robot or a talker robot attached to a telephone, receiving a voice (voice signal) speaking toward a receiver, operating the listener robot, or receiving a voice. Activate the speaker robot in response to the (voice signal). The listener robot receives the voice of the speaker as a speaker, and behaves as if the other party is listening in front of him. As a result, the rhythm of the pseudo conversation is shared between the person and the listener robot, and the phenomenon of the person being drawn into the listener robot appears, thereby creating an atmosphere in which the person can easily talk. The speaker robot receives the voice of the other party as the speaker received through the telephone line, and behaves as if the other party is talking at hand. As a result, sharing of the rhythm of the conversation between the person and the partner through the speaker robot is realized, and the phenomenon of the person being drawn into the partner is expressed, thereby enhancing the feeling of the conversation.

【0008】ロボット個別型は、話し手又は聞き手に個
別のロボットを割り当てている。しかし、より実際の会
話に近い状態を現出するには、話し手であり、聞き手で
もあるロボットが望ましい。そこで、音声送受信部と、
共用ロボットと、聞き手制御部及び話し手制御部とから
構成され、音声送受信部は会話等の音声信号を送受信
し、共用ロボットはこの音声信号に応答して頭の頷き動
作、口の開閉動作、目の瞬き動作、又は身体の身振り動
作の挙動をし、聞き手制御部は送信部を通じて送信され
る音声信号から聞き手としての共用ロボットの挙動を決
定してこの共用ロボットを作動させ、話し手制御部は受
信部で受信した音声信号から話し手としての共用ロボッ
トの挙動を決定してこの共用ロボットを作動させる意思
伝達装置(ロボット共用型)を開発した。
[0008] The individual robot type assigns an individual robot to a speaker or a listener. However, a robot that is both a speaker and a listener is desirable in order to produce a state closer to an actual conversation. Therefore, a voice transmitting and receiving unit,
The shared robot is composed of a shared robot, a listener control unit and a talker control unit, and the voice transmitting / receiving unit transmits and receives voice signals such as conversations. The shared robot responds to the voice signal, nodding the head, opening and closing the mouth, and controlling the eyes. Blinking or body gesture behavior, the listener control unit determines the behavior of the shared robot as a listener from the audio signal transmitted through the transmission unit, activates this shared robot, and the speaker control unit receives The behavior of the shared robot as a speaker was determined from the voice signal received by the section, and a communication device (robot shared type) for operating this shared robot was developed.

【0009】共用ロボットは、話し手としての本人の声
(音声信号)を受けて、あたかも相手が目前で話を聞いて
くれているように挙動する。また、電話回線を通じて受
信した話し手としての相手の声(音声信号)を受けて、あ
たかも相手が目前で話しているように挙動する。こうし
て、共用ロボットを相手とした会話のリズムの共有が実
現し、共用ロボットを媒介とした引き込み現象を発現し
て、会話の実感を高めるのである。
[0009] A shared robot is a person's voice as a speaker
In response to the (voice signal), it behaves as if the other party is listening in front of you. In addition, it receives the voice (voice signal) of the other party as a speaker received through the telephone line, and behaves as if the other party is talking at hand. In this way, sharing of the rhythm of the conversation with the shared robot is realized, and a pull-in phenomenon is mediated by the shared robot, thereby enhancing the feeling of the conversation.

【0010】ロボット個別型及び共用型は、3次元の挙
動を示すロボットを用いているが、会話のリズムの共有
は平面動画によっても可能である。そこで、音声送受信
部と、聞き手表示部及び聞き手制御部、又は話し手表示
部及び話し手制御部とから構成され、音声送受信部は会
話等の音声信号を送受信し、聞き手表示部又は話し手表
示部はこの音声信号に応答して頭の頷き動作、口の開閉
動作、目の瞬き動作、又は身体の身振り動作の挙動をす
る擬似聞き手を聞き手表示部又は擬似話し手を話し手表
示部に表示し、聞き手制御部は送信部を通じて送信され
る音声信号から擬似聞き手の挙動を決定して聞き手表示
部に表示したこの擬似聞き手を動かし、話し手制御部は
受信部で受信した音声信号から擬似話し手の挙動を決定
して話し手表示部に表示したこの擬似話し手を動かす意
思伝達装置(画像個別型)を開発した。
The individual robot type and the shared type use a robot that exhibits a three-dimensional behavior, but the rhythm of conversation can be shared by a plane moving image. Therefore, a voice transmission / reception unit and a listener display unit and a listener control unit, or a speaker display unit and a speaker control unit are configured, and the voice transmission / reception unit transmits and receives a voice signal such as a conversation. Displaying a pseudo-listener or a pseudo-speaker on a listener display or a speaker display which behaves in a nodding operation of a head, an opening / closing operation of a mouth, a blinking operation of an eye, or a gesture operation of a body in response to a voice signal, and a listener control unit Determines the behavior of the pseudo-listener from the audio signal transmitted through the transmission unit, moves the pseudo-listener displayed on the listener display unit, and the speaker control unit determines the behavior of the pseudo-listener from the audio signal received by the reception unit. We developed a communication device (individual image type) for moving the pseudo speaker displayed on the speaker display unit.

【0011】この画像個別型では、例えば電話器に聞き
手表示部又は話し手表示部を付設して、受話器に向かっ
て話す声(音声信号)を受けて聞き手表示部に表示する擬
似聞き手を動かしたり、受信した声(音声信号)を受けて
話し手表示部に表示する擬似話し手を動かす。ここに、
擬似聞き手又は擬似話し手は人間を模写した擬似人格モ
デルであり、アニメーションやCGを用いる。相手の声
(音声信号)の周波数領域に応じて、男性モデルと女性モ
デルとを表示分けしてもよい。擬似聞き手は、話し手と
しての本人の声を受け、あたかも相手が目前で話を聞い
てくれているように動く。これにより、擬似聞き手に対
する本人の引き込み現象が発現し、本人が話しやすい雰
囲気の醸成を図る。擬似話し手は、電話回線を通じて受
信した話し手としての相手の声を受け、あたかも相手が
目前で話しているように動く。これにより、擬似話し手
を媒介とした本人と相手との間で会話のリズムの共有が
実現し、相手に対する本人の引き込み現象を発現して、
会話の実感を高める。
In the individual image type, for example, a listener display unit or a speaker display unit is attached to a telephone so that a pseudo-listener that receives a voice (voice signal) spoken toward a receiver and displays it on the listener display unit can be moved. Upon receiving the voice (voice signal), the pseudo speaker to be displayed on the speaker display is moved. here,
The pseudo listener or the pseudo speaker is a pseudo personality model imitating a human, and uses animation or CG. Opponent's voice
The male model and the female model may be displayed separately according to the frequency domain of the (voice signal). The pseudo-listener receives the voice of the speaker as a speaker, and moves as if the other party is listening in front of him. As a result, a phenomenon in which the person himself / herself is drawn into the pseudo listener is developed, and an atmosphere in which the person himself / herself can easily speak is created. The pseudo speaker receives the voice of the other party as the speaker received through the telephone line, and moves as if the other party is talking at hand. As a result, sharing of the rhythm of conversation between the person and the partner through the pseudo speaker is realized, and the person's attraction to the partner is expressed,
Improve the conversation.

【0012】平面動画を用いた意思伝達装置では、擬似
話し手及び擬似聞き手を同一空間内に個別表示できれ
ば、空間の共有という視覚効果が、対面で会話している
ような感覚をもたらす。そこで、音声送受信部と、共用
表示部と、聞き手制御部及び話し手制御部とから構成さ
れ、音声送受信部は会話等の音声信号を送受信し、共用
表示部はこの音声信号に応答して頭の頷き動作、口の開
閉動作、目の瞬き動作、又は身体の身振り動作の挙動を
する擬似話し手及び擬似聞き手を同一空間内に個別表示
し、聞き手制御部は送信部を通じて送信される音声信号
から擬似聞き手の挙動を決定して前記共用表示部に表示
したこの擬似聞き手を動かし、話し手制御部は受信部で
受信した音声信号から擬似話し手の挙動を決定して共用
表示部に表示したこの擬似話し手を動かす意思伝達装置
(画像共用型)を開発した。
In a communication device using a plane moving image, if a pseudo speaker and a pseudo listener can be individually displayed in the same space, the visual effect of sharing the space gives a sense of having a face-to-face conversation. Therefore, it is composed of a voice transmitting and receiving unit, a common display unit, a listener control unit and a talker control unit, and the voice transmitting and receiving unit transmits and receives voice signals such as conversations. The pseudo-speaker and the pseudo-listener who perform the nodding operation, the opening and closing operation of the mouth, the blinking of the eyes, or the gesture of the body are individually displayed in the same space, and the listener control unit simulates from the voice signal transmitted through the transmission unit. The behavior of the pseudo-listener is determined and the pseudo-listener displayed on the shared display unit is moved, and the speaker control unit determines the behavior of the pseudo-speaker from the audio signal received by the reception unit and displays the pseudo speaker displayed on the shared display unit. Communication device to move
(Image sharing type) was developed.

【0013】共用表示部は、同一空間(同一画面)内に擬
似話し手及び擬似聞き手を個別表示することにより、共
用表示部内の仮想空間において、相手と空間を共有しな
がら話している感じを醸成する。こうして、擬似話し手
及び擬似聞き手を媒介とした会話のリズムの共有が実現
し、本人及び相手との間で相互の引き込み現象を発現
し、会話の実感を高める。この場合、共用表示部におけ
る擬似聞き手及び擬似話し手の表示形態については様々
ある。例えば、同じ大きさの擬似聞き手及び擬似話し手
を対面関係で横並びにするものが考えられる。好ましく
は、擬似聞き手及び擬似話し手を奥行き方向に並べ、擬
似聞き手は奥行き方向、擬似話し手は手前方向に向けて
おくとよい。
The shared display unit creates a feeling of talking while sharing the space with the other party in the virtual space in the shared display unit by individually displaying the pseudo speaker and the pseudo listener in the same space (same screen). . In this way, the sharing of the rhythm of the conversation through the simulated speaker and the simulated listener is realized, and a mutual entrainment phenomenon is developed between the person and the partner, thereby enhancing the feeling of the conversation. In this case, there are various display modes for the pseudo listener and the pseudo speaker on the shared display unit. For example, a simulated listener and a simulated speaker of the same size may be arranged side by side in a face-to-face relationship. Preferably, the dummy listener and the dummy speaker are arranged in the depth direction, with the dummy listener facing the depth direction and the dummy speaker facing the near side.

【0014】上記各意思伝達装置では、ロボット又は擬
似人格が代表する話し手又は聞き手により、本人及び相
手との間の会話のリズムを共有することで、互いに引き
込み現象を発現し、より円滑又は親密な会話を実現す
る。このため、話し手ロボット、聞き手ロボット、話し
手としての共用ロボット、聞き手としての共用ロボッ
ト、擬似話し手、又は擬似聞き手(以下、話し手ロボッ
ト等)の挙動の制御方法が重要となる。本発明では、話
し手ロボット等の挙動は、頭の頷き動作、口の開閉動
作、目の瞬き動作又は身体の身振り動作の選択的な組み
合わせからなり、頷き動作タイミングは音声信号のON/O
FFから推定される頷き予測値が予め定めた頷き閾値を越
えた時点とし、瞬き動作タイミングは前記頷き作動作タ
イミングを起点として経時的に指数分布させた時点と
し、口の開閉動作は音声信号の変化に従い、そして身体
の身振り動作は音声信号の変化に従う又は身体の身振り
動作タイミングは音声信号のON/OFFから推定される頷き
予測値が予め定めた身振り閾値を越えた時点とする。
In each of the communication devices described above, the rhythm of the conversation between the person and the other party is shared by the speaker or the listener represented by the robot or the pseudo-personal character, so that the phenomenon of being attracted to each other is exhibited, and a smoother or more intimate communication is achieved. Realize the conversation. For this reason, a method of controlling the behavior of a speaker robot, a listener robot, a shared robot as a speaker, a shared robot as a listener, a pseudo-speaker, or a pseudo-listener (hereinafter referred to as a talker robot) becomes important. In the present invention, the behavior of the speaker robot or the like includes a selective combination of a head nodding operation, a mouth opening / closing operation, a blinking eye operation, or a body gesturing operation.
The time at which the predicted value of the nod estimated from the FF exceeds a predetermined nod threshold, the time of the blinking operation is the time at which the exponential distribution is performed over time starting from the time of the nodding operation, and the opening and closing operation of the mouth is performed based on the audio signal. According to the change, the gesture of the body follows the change of the audio signal, or the timing of the gesture of the body is the time when the predicted value of the nod estimated from ON / OFF of the audio signal exceeds a predetermined gesture threshold.

【0015】話し手ロボット等の挙動の選択的な組み合
わせは、自由である。例えば、話し手となる挙動の場
合、頷き動作は不自然なので、頷き動作タイミングに頭
は動かさず、この頷き動作タイミングに基づく目の瞬き
動作のみを図る。身体の身振り動作は、頷き動作タイミ
ングを得るアルゴリズムにおいて、頷き閾値より低い値
の身振り閾値を用いて身振り動作タイミングを得る。ま
た、身振り動作は音声信号の変化に従って可動部位を駆
動したり、音声信号に応じて身体の可動部位を選択する
又は予め定めた動作パターン(可動部位の組み合わせ及
び各部の動作量)を選択するとよい。身振り動作におけ
る可動部位又は動作パターンの選択は、頷き動作と身振
り動作との連繋を自然なものにする。このように、本発
明では、口の開閉動作を除き、頷き動作を中心に話し手
ロボット等の挙動を図る。
[0015] The selective combination of the behavior of the speaker robot and the like is free. For example, in the case of the behavior as a speaker, since the nodding operation is unnatural, the head is not moved at the nodding operation timing, and only the blinking of the eyes based on the nodding operation timing is attempted. In the body gesture operation, in the algorithm for obtaining the nod operation timing, the gesture operation timing is obtained using a gesture threshold value lower than the nod threshold value. In addition, the gesture motion may drive a movable part according to a change in the audio signal, select a movable part of the body according to the audio signal, or select a predetermined operation pattern (combination of the movable part and the amount of operation of each part). . Selection of a movable part or a motion pattern in the gesture motion makes the connection between the nod motion and the gesture motion natural. As described above, in the present invention, the behavior of the talker robot or the like is aimed at focusing on the nodding motion except for the opening / closing operation of the mouth.

【0016】ここで、頷き動作タイミングは、音声信号
と頷き動作とを線形又は非線形に結合して得られる予測
モデル、例えばMAモデルやニューラルネットワークモデ
ルから得られる頷き予測値(前後に頭部が動く頷きの予
測値、このほか頭部の他の動きを対象とする汎用的な頭
部予測値をも含む)を、予め定めた頷き閾値と比較する
アルゴリズムにより決定する。このアルゴリズムは、音
声信号を経時的な電気信号のON/OFFとして捉えて、この
経時的な電気信号のON/OFFから頷き動作タイミングや身
振り動作タイミングを導き出す。単なる電気信号のON/O
FFを主な基礎とするので計算量が少なく、各制御部に比
較的安価なパソコンを用いても即応性を失わない。そし
て、この電気信号のON/OFFは会話のリズムに起因するも
のであり、引き込み現象を発現しやすい利点がある。こ
のような引き込み現象の発言という観点から鑑みれば、
前記ON/OFFに加えて、経時的な電気信号の変化を示す韻
律や抑揚をも併せて考慮してもよい。
Here, the nodding operation timing is a prediction model obtained by linearly or non-linearly combining the voice signal and the nodding operation, for example, a nod prediction value (head moving forward and backward) obtained from an MA model or a neural network model. The predicted value of the nod, and also the general predicted value of the head for other head movements) are determined by an algorithm for comparison with a predetermined nod threshold. This algorithm captures an audio signal as ON / OFF of an electric signal over time, and derives a nodding operation timing and a gesture operation timing from the ON / OFF of the electric signal over time. ON / O for simple electric signals
Since it is based on FF, the amount of calculation is small, and responsiveness is not lost even if a relatively inexpensive personal computer is used for each control unit. The ON / OFF of the electric signal is attributable to the rhythm of the conversation, and has an advantage that the pull-in phenomenon easily occurs. From the standpoint of remarks about the pull-in phenomenon,
In addition to the ON / OFF, prosody and intonation indicating a change in the electric signal over time may be considered together.

【0017】本発明に挙げた各意思伝達装置は、各装置
内で音声信号を処理してロボット又は擬似人格を動かす
ものであり、実際に送受信するのは音声信号を基本とす
る。このため、異なる意思伝達装置間、例えば、ロボッ
ト個別型とロボット共用型とを、ロボット個別型聞き手
モデルとロボット個別型話し手モデルとを、ロボット共
用型と動画共用型とを接続する等も可能である。また、
音声信号を扱えれば本発明の効果を得ることができるの
で、留守電のメッセージ再生にも利用できる。更に、フ
ァックス、手紙又は電子メールで送られる文書(データ
信号)から音声合成して、相手が本人に向かって話して
いる雰囲気を醸成することもできる。すなわち、上記各
意思伝達装置において、音声送受信部に代えてデータ送
受信部とデータ変換部とから構成され、データ送受信部
は文書等のデータ信号を送受信し、データ変換部は前記
データ送受信部で送受信したデータ信号から音声信号を
合成し、この音声信号を話し手制御部又は聞き手制御部
に供する。本発明は、音声信号を経時的な電気信号のON
/OFFとして捉え、頷き動作タイミング等を導き出すの
で、たとえ合成した声(音声信号)であっても適切な挙動
を得ることが容易で、会話のリズムの共有、そして引き
込み現象を発現できる。
Each communication device described in the present invention processes a voice signal in each device to move a robot or a simulated personality, and the actual transmission and reception is based on the voice signal. For this reason, it is also possible to connect between different communication devices, for example, a robot individual type and a robot shared type, a robot individual type listener model and a robot individual type speaker model, and a robot shared type and a video sharing type. is there. Also,
If the voice signal can be handled, the effects of the present invention can be obtained, so that the present invention can be used for voicemail message playback. Furthermore, speech synthesis can be performed from a document (data signal) sent by fax, letter, or e-mail to create an atmosphere in which the other party is speaking to the person. In other words, in each of the communication devices described above, a data transmission / reception unit and a data conversion unit are used instead of the voice transmission / reception unit. The data transmission / reception unit transmits / receives data signals such as documents, and the data conversion unit transmits / receives the data signals. An audio signal is synthesized from the obtained data signal, and this audio signal is supplied to a talker control unit or a listener control unit. The present invention turns on the audio signal over time to turn on the electrical signal.
Since it is regarded as / OFF and the nodding operation timing is derived, it is easy to obtain appropriate behavior even with a synthesized voice (voice signal), and it is possible to share the rhythm of conversation and to exhibit a pull-in phenomenon.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施形態につい
て、図を参照しながら説明する。図1は本発明を電話器
に適用したロボット共用型意思伝達装置1同士を接続し
た例の構成図、図2は同装置に用いる共用ロボット2の
一例を表した正面図、図3は話し手制御部3における制
御フローであり、図4は聞き手制御部4における制御フ
ローである。本発明の意思伝達装置は、対面した対人間
よりも、互いの姿を見ることができない対人間での会話
を円滑又は親密にすることに適している。そこで、以下
では主として電話器に適用した場合を例に挙げる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example in which a robot shared type communication device 1 in which the present invention is applied to a telephone is connected, FIG. 2 is a front view showing an example of a shared robot 2 used in the device, and FIG. FIG. 4 is a control flow in the listener control unit 4. INDUSTRIAL APPLICABILITY The communication device of the present invention is more suitable for facilitating or intimate conversation between humans who cannot see each other than humans facing each other. In the following, a case where the present invention is mainly applied to a telephone will be described as an example.

【0019】図1に示した意思伝達装置1は、話し手又
は聞き手として振る舞う共用ロボット2と、話し手制御
部3、聞き手制御部4及び音声送受信部9とから構成す
る。このうち、各制御部3,4及び音声送受信部9は、
一体としてコンピュータにより構成してもよいし、従来
の電話器を音声送受信部9として別途コンピュータによ
る各制御部3,4を追加する構成であってもよい。各制
御部3,4いずれかのみを設けるか、各制御部3,4を個
別に作動停止できる構成であれば、話し手制御部3及び
話し手ロボット5のみのロボット個別型話し手モデルの
意思伝達装置6(後掲図5参照)、聞き手制御部4及び聞
き手ロボット7のみのロボット個別型聞き手モデルの意
思伝達装置8(後掲図6参照)となる。
The communication device 1 shown in FIG. 1 comprises a shared robot 2 acting as a speaker or a listener, a speaker controller 3, a listener controller 4, and a voice transmitting / receiving unit 9. Of these, each of the control units 3 and 4 and the voice transmitting / receiving unit 9
The computer may be integrally formed, or a conventional telephone may be added as the voice transmitting / receiving unit 9 and the control units 3 and 4 may be separately added by a computer. If only one of the control units 3 and 4 is provided, or if the control units 3 and 4 can be individually deactivated, the robot-individual speaker model intention communication device 6 including only the speaker control unit 3 and the speaker robot 5 can be used. (See FIG. 5 below), a robot-individual listener model intention communication device 8 (see FIG. 6 shown later) consisting only of the listener control unit 4 and the listener robot 7.

【0020】図1中破線内が本発明の意思伝達装置1に
相当し、従来同様の電話器の機能は音声送受信部9が担
う。本人(図1中左)の声(音声信号)は受話器から、相手
(図1中右)の声(音声信号)は電話回線を通じて聞き手制
御部4及び話し手制御部3に入力される。ここで、入力
された音声信号が本人の声(音声信号)ならば聞き手制御
部4が働き、共用ロボット2は聞き手ロボットとして振
る舞う。また、音声信号が相手の声(音声信号)ならば、
話し手制御部3が働いて、共用ロボット2は話し手ロボ
ットとして振る舞う。本例における共用ロボット2は、
図2に見られるように、上半身のみで、頭(首)10、腕1
1、腰12が動き、目(瞼)13及び口14が開閉する。各部の
駆動源には、エアシリンダ、モータ等(図示せず)を適宜
利用でき、これら駆動源を聞き手制御部4又は話し手制
御部3が制御する。
The broken line in FIG. 1 corresponds to the communication device 1 of the present invention, and the function of the telephone as in the prior art is performed by the voice transmitting / receiving unit 9. The voice (voice signal) of the person (left in FIG. 1) is transmitted from the receiver to the other party
The voice (voice signal) (right in FIG. 1) is input to the listener control unit 4 and the talker control unit 3 through a telephone line. Here, if the input voice signal is the voice of the person (voice signal), the listener control unit 4 operates, and the shared robot 2 behaves as a listener robot. Also, if the voice signal is the voice of the other party (voice signal),
The talker control unit 3 works, and the shared robot 2 behaves as a talker robot. The shared robot 2 in this example is
As can be seen in FIG. 2, only the upper body, head (neck) 10, arm 1
1. The waist 12 moves, and the eyes (eyelids) 13 and the mouth 14 open and close. An air cylinder, a motor, or the like (not shown) can be appropriately used as a drive source of each unit, and the listener control unit 4 or the talker control unit 3 controls these drive sources.

【0021】話し手としての共用ロボット2の制御は、
図3に示す制御フローに沿う。電話回線を通じて送受信
部9に送られてきた相手の声(音声信号)は、受話器を通
じて本人へと送られるほか、話し手制御部3に送られ
る。本発明の特徴は、音声信号を時系列的な電気信号の
ON/OFFとして捉え、この電気信号のON/OFFから頷き動作
タイミングを判断し、ロボット2の各部9,10,11,12,1
3,14を動作させる(図2参照)点にある。このために、ま
ず音声信号から頷き動作タイミングの推定を図る(頷き
推定)。本例では、頷き動作を広く頭部の動作として捉
え、音声信号と前記頷き動作とを線形結合する予測モデ
ルとしてMAモデルを用いている。この頷き推定では、経
時的に変化する音声信号に基づいて、刻々と変化する頷
き予測値(本例では頭部の動作として捉えているので、
特に頭部予測値と呼ぶこともできる)がリアルタイムに
計算される。ここで、頷き予測値と予め設定した頷き閾
値とを比較し、頷き予測値が頷き閾値を越えた場合を頷
き動作タイミングとし、音声信号の変化に従って頭10の
可動を作動させ、頭10を動かす(図2参照)。
The control of the shared robot 2 as a speaker is as follows.
It follows the control flow shown in FIG. The voice (voice signal) of the other party sent to the transmission / reception unit 9 via the telephone line is sent to the person himself / herself via the receiver and also sent to the talker control unit 3. The feature of the present invention is that audio signals are converted into time-series electrical signals.
It is regarded as ON / OFF, and the nod operation timing is determined from ON / OFF of the electric signal, and each part 9, 10, 11, 12, 1, 1 of the robot 2 is determined.
3 and 14 (see FIG. 2). For this purpose, the nod operation timing is first estimated from the audio signal (nod estimation). In this example, the nodding motion is widely regarded as a head motion, and the MA model is used as a prediction model that linearly combines the voice signal and the nodding motion. In this nod estimation, a nod prediction value that changes every moment based on an audio signal that changes with time (in this example, it is considered as a head movement,
In particular, it can also be called a head prediction) is calculated in real time. Here, the predicted nod value is compared with a preset nod threshold, and when the predicted nod value exceeds the nod threshold, the nod operation timing is set, and the movement of the head 10 is operated according to a change in the voice signal to move the head 10. (See FIG. 2).

【0022】話し手としてのロボット2は、頷き動作は
不自然であるために実行せず、得られた頷き動作タイミ
ングを目13の瞬き動作に利用する。具体的には、最初に
得られた頷き動作タイミングと同時に最初の瞬き動作タ
イミングを設定し、以後は最初の瞬き動作タイミング
(=最初の頷き動作タイミング)を起点として、経時的に
指数分布させた次回以降の瞬き動作タイミングを得る。
このように、頭10の頷き動作を基準としながら、頭10の
頷き動作から独立した制御アルゴリズムを用いること
で、自然な瞬き動作を実現できる。口14の開閉動作は、
音声信号を入力とするエアシリンダ又はモータの駆動に
より実現する。
The robot 2 as a speaker does not execute the nodding operation because it is unnatural, and uses the obtained nodding operation timing for the blinking operation of the eye 13. Specifically, the first blink operation timing is set at the same time as the nod operation timing obtained first, and thereafter, the first blink operation timing
Starting from (= first nodding operation timing), blinking operation timings of the next and subsequent times, which are exponentially distributed with time, are obtained.
As described above, by using the control algorithm independent of the nodding operation of the head 10 while using the nodding operation of the head 10 as a reference, a natural blinking operation can be realized. The opening and closing operation of the mouth 14
This is realized by driving an air cylinder or a motor that receives an audio signal.

【0023】身振り動作は、基本的には頷き推定と同じ
アルゴリズムを用いるが、頷き閾値よりも低い身振り閾
値を用いることで、頷き動作よりも頻繁に実行する。加
えて、本例では、腕11、腰12等の身体各部の可動部位を
組み合わせた動作パターンを予め複数作っておき、これ
ら複数の動作パターンの中から身振り動作タイミング毎
に動作パターンを選択して実行している。また、腕11に
ついては、音声信号の変化に従って腕11の可動部を作動
させると、身振り動作に強弱をつけることができて好ま
しい。このような動作パターンの選択は、身振り動作を
自然に見せる。このほか、可動部位を選択して個別又は
連係して作動させてもよい。更に、音声信号を言語解析
して、言葉の意味付けによる身振り動作の制御も考えら
れる。
The gesture operation basically uses the same algorithm as the nod estimation, but uses the gesture threshold lower than the nod threshold to execute the gesture more frequently than the nod operation. In addition, in this example, a plurality of motion patterns in which the movable parts of the body parts such as the arms 11 and the waist 12 are combined are prepared in advance, and the motion pattern is selected from the plurality of motion patterns for each gesture motion timing. Running. Further, with regard to the arm 11, it is preferable to operate the movable part of the arm 11 in accordance with a change in the audio signal, since it is possible to add strength to the gesture motion. Such a selection of the motion pattern makes the gesture look natural. In addition, a movable part may be selected and operated individually or in cooperation. Furthermore, it is also conceivable to control the gesturing operation by giving a meaning to words by analyzing the language of the voice signal.

【0024】聞き手としての共用ロボット2の制御は、
図4に示す制御フローに沿う。受話器を通じて送受信部
に送られた本人の声(音声信号)は、電話回線により相手
の意思伝達装置1における送受信部9へと送られ、相手
の受話器(図示せず)及び聞き手制御部4それぞれへ分岐
する。基本的には、話し手制御部3における制御フロー
と同一であるが、聞き手制御部4では、会話のリズムを
共有して引き込み現象を発現させるため、必要な頭10の
頷き動作を実行すると共に、不自然な振る舞いとなる口
14の開閉動作は実施しない。話し手と聞き手とでは同じ
音声信号でも振る舞いが異なると考えられるため、各制
御部3,4における頷き閾値や身振り閾値は異なる数値
であってもよい。また、装置としてのコストを考えた場
合、話し手制御部3と聞き手制御部4を兼用し、音声信
号の入力の区別に従って、内部的に制御フローを使い分
けるようにしてもよい。
The control of the shared robot 2 as a listener is as follows.
It follows the control flow shown in FIG. The person's voice (voice signal) sent to the transmission / reception unit via the receiver is sent to the transmission / reception unit 9 of the communication device 1 of the other party via the telephone line, and is sent to the receiver (not shown) and the listener control unit 4 of the other party, respectively. Branch. Basically, the control flow is the same as the control flow in the speaker control unit 3, but the listener control unit 4 executes the necessary nodding operation of the head 10 in order to share the rhythm of the conversation and develop the entrainment phenomenon. Mouth that behaves unnaturally
The opening and closing operation of 14 is not performed. Since the behavior is considered to be different even for the same voice signal between the speaker and the listener, the nodding threshold and the gesture threshold in each of the control units 3 and 4 may have different numerical values. In consideration of the cost of the apparatus, the speaker control unit 3 and the listener control unit 4 may be shared, and the control flow may be internally used according to the distinction of the input of the audio signal.

【0025】図1に示した例は、図1中右に位置する相
手が話し手となり、図1中左に位置する本人が聞き手の
場合を想定している。共用ロボット2、話し手制御部
3、聞き手制御部4及び音声送受信部9からなるロボッ
ト共用型意思伝達装置1は、図1から明らかなように対
称構造で配置されているので、本人が話し手となり、相
手が聞き手となれば、音声信号の流れ(図1中矢印)は逆
になる。この例では、共用ロボット2を用いて話し手及
び聞き手を切り替えているため、本人と相手とが同時に
話し始めた場合、話し手制御部3と聞き手制御部4とが
同時に作動することも考えられる。この場合、いずれの
制御フローが優先するかを予め決めておけばよい。
The example shown in FIG. 1 is based on the assumption that the other party located on the right in FIG. 1 is the speaker and the person located on the left in FIG. 1 is the listener. The robot shared type communication device 1 including the shared robot 2, the speaker control unit 3, the listener control unit 4, and the voice transmission / reception unit 9 is arranged in a symmetrical structure as is clear from FIG. When the other party becomes the listener, the flow of the audio signal (arrow in FIG. 1) is reversed. In this example, since the speaker and the listener are switched using the shared robot 2, when the person and the other party start talking at the same time, the speaker controller 3 and the listener controller 4 may be operated at the same time. In this case, which control flow has priority may be determined in advance.

【0026】図5はロボット個別型話し手モデルの意思
伝達装置6の構成図であり、図6はロボット個別型聞き
手モデルの意思伝達装置7の構成図である。本発明は、
会話のリズムを共有することで会話当事者が互いに引き
込み現象を発現し、円滑又は親密な会話を実現すること
を目的としている。これは、話し手又は聞き手となる共
用ロボットを用いることで最も達成されるが、話し手ロ
ボット又は聞き手ロボットのみでも引き込み現象を発現
させ、実感のより高い会話を実現することができる。話
し手ロボット5のみを用いた場合(図5)、相手を目前に
して話を聞く感覚をもたらして、話し手ロボット5を媒
介として本人を相手に引き込む。また、聞き手ロボット
7のみを用いた場合(図6)、本人が聞き手ロボット7を
相手に見立てて会話のリズムを作り出し、相手を引き込
みやすい話(会話のリズムに乗せやすい話)をすることが
できる。
FIG. 5 is a configuration diagram of a communication device 6 of a robot individual type speaker model, and FIG. 6 is a configuration diagram of a communication device 7 of a robot individual type listener model. The present invention
An object of the present invention is to realize a smooth or intimate conversation by sharing conversation rhythms so that conversation parties express a phenomenon of being attracted to each other. This is most achieved by using a shared robot that is a speaker or a listener. However, even a speaker robot or a listener robot alone can exhibit a pull-in phenomenon and realize a more realistic conversation. When only the talker robot 5 is used (FIG. 5), the sense of listening to the talk is brought in front of the talker, and the talker robot 5 is used as a medium to draw the person into the talker. In addition, when only the listener robot 7 is used (FIG. 6), the person himself / herself creates a conversation rhythm by considering the listener robot 7 as a partner, and can speak easily (a story easy to put on the conversation rhythm). .

【0027】本発明の意思伝達装置は、ロボットを用い
た上記各システムに限らず構築することは可能であり、
また様々な応用も考えられる。図7は画像共用型意思伝
達装置15,15同士を接続した例の構成図、図8はロボッ
ト共用型意思伝達装置1と画像共用型意思伝達装置15と
を接続した例の構成図、図9は音声信号に代えて電子メ
ール等のデータ信号を送受信するパソコンにロボット個
別型話し手モデルの意思伝達装置6を適用した例の構成
図、図10はロボット個別型話し手モデルの意思伝達装置
6に留守電機能を付加した例の構成図であり、図11はロ
ボット個別型聞き手モデルの意思伝達装置8を音声入力
装置として応用した例の構成図である。
The communication device of the present invention can be constructed without being limited to the above-described respective systems using a robot.
Various applications are also conceivable. FIG. 7 is a configuration diagram of an example in which the image sharing type communication devices 15 and 15 are connected to each other. FIG. 8 is a configuration diagram of an example in which the robot sharing type communication device 1 and the image sharing type communication device 15 are connected. Is a block diagram of an example in which the personal communication device 6 of the individual robot model is applied to a personal computer that transmits and receives a data signal such as an electronic mail instead of a voice signal. FIG. FIG. 11 is a block diagram of an example in which the communication device 8 of the robot individual type listener model is applied as a voice input device.

【0028】図7の例は、図1相当の意思伝達装置にお
いて、共用ロボットを共用表示部16に置き換えたもの
で、話し手又は聞き手の制御フローは同一である。本人
側の共用表示部16には、本人を手前に奥行き方向に向け
て(画面上は背面が映る)、相手を奥側に手前方向に向け
て(画面上は正面を向く)、両者を同一画面内に表示して
いる。本例では、更に奥行き感を表現するために、手前
に位置する本人を大きく、奥に位置する相手を小さく表
示している。相手側の共用表示部16では前記表示関係が
逆になる。画像個別型意思伝達装置の場合、相手を模し
た擬似人格(擬似話し手又は擬似聞き手)を単一表示し、
正面を向ける。話し手制御部3又は聞き手制御部4は、
上述の制御フローに従って、アニメーション表示された
本人又は相手を模した擬似人格を動かす。共用表示部16
はモニタや液晶ディスプレイを用いて構成する仮想的な
会話の共有空間であり、本人又は相手それぞれが各共用
表示部16を見ることによって会話のリズムを共有し、引
き込み現象を発現させる。この点が、単に相手を表示す
るテレビ電話と異なる。
In the example of FIG. 7, the shared robot is replaced with the shared display unit 16 in the communication device of FIG. 1, and the control flow of the speaker or the listener is the same. In the shared display section 16 on the principal side, the principal is directed toward the depth direction (the back is reflected on the screen), the opponent is directed toward the depth side toward the front (the screen is facing the front), and both are the same. It is displayed on the screen. In this example, in order to further express the sense of depth, the person located in front is displayed large, and the partner located in the back is displayed small. In the shared display unit 16 on the other side, the display relationship is reversed. In the case of an image individual communication device, a pseudo personality (a pseudo speaker or a pseudo listener) imitating the other party is displayed in a single display,
Turn to the front. The speaker control unit 3 or the listener control unit 4
In accordance with the above-described control flow, a pseudo personality imitating the person or the partner displayed as an animation is moved. Shared display 16
Is a virtual conversation sharing space formed by using a monitor or a liquid crystal display, in which the person or the partner shares the rhythm of the conversation by looking at each of the shared display sections 16 and causes a pull-in phenomenon. This is different from a videophone that simply displays the other party.

【0029】各例は、電話器への本発明の適用例であ
り、受話器又は電話回線を通じて入力される音声信号に
対応してそれぞれロボット又は表示部内の擬似人格(話
し手又は聞き手)を動かす。しかし、装置間の送受信は
従来の電話器と同じ音声信号であり、本発明の様々なタ
イプの意思伝達装置だけでなく、従来の電話器と意思伝
達装置とを接続することもできる。例えば、図8に見ら
れるように、ロボット共用型意思伝達装置1と画像共用
型意思伝達装置15との間でも、会話することができる。
また、図示を省略するが、ロボット個別型意思伝達装置
における話し手モデル又は聞き手モデルとロボット共用
型意思伝達装置との間、更にはロボット個別型話し手モ
デルの意思伝達装置と画像個別型話し手モデルの意思伝
達装置との間等、様々の組み合わせが考えられる。これ
ら異種類の意思伝達装置又は従来の電話器との接続にあ
っては、それぞれの装置構成に従って、本人又は相手に
引き込み現象を発現させるのである。
Each example is an application example of the present invention to a telephone, and moves a robot or a pseudo-personality (speaker or listener) in a display unit in response to a voice signal input through a receiver or a telephone line, respectively. However, the transmission and reception between the devices is the same audio signal as the conventional telephone, and not only the various types of communication devices of the present invention but also the conventional telephone and the communication device can be connected. For example, as shown in FIG. 8, a conversation can be made between the robot shared type communication device 1 and the image shared type communication device 15.
Although not shown, between the speaker model or the listener model in the robot individual type communication device and the robot shared type communication device, furthermore, the robot individual type speaker model communication device and the image individual type speaker model intention Various combinations are possible, such as between a transmission device. In connection with these different types of communication devices or conventional telephones, the person or the other party develops a pull-in phenomenon according to the configuration of each device.

【0030】このほか、本発明の意思伝達装置は、音声
信号を取り扱う点に着目して、更に広範囲の利用が創造
できる。図9は電子メールを送受信するパソコンにロボ
ット個別型話し手モデルの意思伝達装置6を適用し、受
信したメール内容(データ信号)から音声合成して話し手
ロボット5を動かしながらメールを読み上げる例の構成
図、図10は留守電機能を有する電話器にロボット個別型
話し手モデルの意思伝達装置6を適用し、録音しておい
た音声信号を再生しながら話し手ロボット5を動かす例
の構成図である。いずれも、音声信号を直接的ではな
く、音声合成(図9)又は録音しておいた音声信号の再生
(図10)といった間接的な利用である。
In addition, the communication device of the present invention can be used in a wider range by focusing on handling audio signals. FIG. 9 is a block diagram showing an example in which the robot-individual speaker model communication device 6 is applied to a personal computer that sends and receives e-mails, synthesizes voice from received mail contents (data signals), and reads out mails while moving the speaker robot 5. FIG. 10 is a configuration diagram of an example in which the robot-individual speaker model intention communication device 6 is applied to a telephone having a telephone answering function, and the speaker robot 5 is moved while reproducing the recorded voice signal. In each case, the audio signal is not direct, but is synthesized by speech (Fig. 9) or the playback of the recorded audio signal.
(Fig. 10).

【0031】現在、インターネット上での電子メールの
やり取りが盛んになっている。この電子メールは、パソ
コンからテキストデータを入力し、データ信号として送
受信して、ディスプレイ上で読む利用形態が通常であ
る。本発明は、図9に見られるように、データ送受信部
18にて受信した電子メールをデータ変換部19において音
声合成して読み上げると共に、音声合成によって得られ
た音声信号を用いて話し手ロボット5を動かすのであ
る。この例では、破線内がコンピュータから構成する意
思伝達装置6に相当し、各部はハード的又はソフト的に
構成する。ディスプレイ上で黙読する従来の電子メール
とは異なり、声をもって読み上げられると共に、話し手
ロボット5が動くことにより引き込み現象を発現させ、
より会話の実感を伴う電子メールによる意思伝達を可能
にする。話し手制御部3における制御フローは、図2に
見られるように、音声信号を電気信号のON/OFFとして捉
えるので、音声合成による抑揚が少し不自然な機械的な
音声信号であっても、話し手ロボット5の振る舞いを不
自然にしない。こうして、話し手ロボット5の存在は、
音声合成をより実感のある会話の一部として再現する効
果を有する。
At present, the exchange of electronic mails on the Internet is active. This e-mail is usually used by inputting text data from a personal computer, transmitting and receiving the data as a data signal, and reading the data on a display. The present invention, as seen in FIG.
The e-mail received at 18 is voice-synthesized by the data conversion unit 19 and read out, and the speaker robot 5 is moved using the voice signal obtained by the voice synthesis. In this example, the inside of the broken line corresponds to the communication device 6 constituted by a computer, and each section is constituted by hardware or software. Unlike the conventional e-mail that reads silently on the display, the e-mail is read out with a voice, and at the same time, the entrainment phenomenon is caused by the movement of the speaker robot 5,
Enables communication by e-mail with a sense of conversation. As shown in FIG. 2, the control flow in the speaker control unit 3 captures a voice signal as ON / OFF of an electric signal. The behavior of the robot 5 is not unnatural. Thus, the existence of the speaker robot 5 is
This has the effect of reproducing speech synthesis as part of a more realistic conversation.

【0032】このように、時間的にずれのある場合で
も、本発明の意思伝達装置を利用すれば、音声信号を媒
介として会話の実感を伴う意思伝達が可能になる。図10
の例は、基本構成は図5のシステム構成と変わらない
が、相手からの送られた音声信号を一度音声記憶部17に
録音し、後ほど録音した音声信号を再生しながら話し手
ロボット5を動かすことで、時間的にずれた意思伝達に
おける会話の実感を高めるようにしている。いわゆる留
守電機能への本発明の適用である。従来の留守電機能
は、相手方において対話者のいない一方話になり、実感
のある意思伝達が難しかったが、本発明を利用すれば、
引き込み現象を発現してより親密な意思伝達を可能にす
る。本例の意思伝達装置6は、通信回線を接続しない単
独形態で使用することにより、いわゆる伝言装置として
利用できる。
As described above, even when there is a time lag, using the communication device of the present invention makes it possible to communicate with a sense of conversation through voice signals. FIG.
In the example, the basic configuration is the same as the system configuration of FIG. 5, but the voice signal sent from the other party is once recorded in the voice storage unit 17, and the speaker robot 5 is moved while reproducing the voice signal recorded later. In such a case, the actual feeling of the conversation in the timely communication is enhanced. This is an application of the present invention to a so-called answering machine function. The conventional answering machine function was a one-way conversation without a talker on the other side, and it was difficult to communicate with a sense of realization.
Express a pull-in phenomenon and enable more intimate communication. The communication device 6 of this example can be used as a so-called message device by using the communication device 6 alone without connecting a communication line.

【0033】特殊な応用例として、音声入力装置への本
発明の適用を挙げることができる。図11は電子メールを
送受信するパソコンにロボット個別型聞き手モデルの意
思伝達装置8を適用し、本人の声(音声信号)から電子メ
ールのメール内容(データ信号)を音声入力する際に、本
人の声によって聞き手ロボット7を動かす例の構成図で
ある。この例では、破線内がコンピュータから構成する
意思伝達装置8に相当し、各部はハード的又はソフト的
に構成する。図9の例とは逆に、送信する電子メールの
作成の際に、テキストデータ(データ信号)を音声信号か
ら作成する音声入力方式とし、この音声信号に従って聞
き手ロボット7を動かす。電子メールを作成する本人
は、聞き手ロボット7の動きによってあたかも会話をし
ているように感覚にとらわる引き込み現象を受け、実際
の会話に近い雰囲気の中で電子メールを作成することが
できる。データ信号の送受信をなくせば、聞き手ロボッ
ト7は、本人の声に反応する玩具のように振る舞うこと
もできる。
As a special application, the present invention can be applied to a voice input device. FIG. 11 shows a personal computer that sends and receives e-mails, to which the robot-individual listener model's intention communication device 8 is applied, and when the voice content (data signal) of the e-mail is input from the voice (voice signal) of the user, It is a block diagram of the example which moves the listener robot 7 by voice. In this example, the inside of the broken line corresponds to the communication device 8 constituted by a computer, and each unit is constituted by hardware or software. Contrary to the example of FIG. 9, when creating an e-mail to be transmitted, a text input (data signal) is used as a voice input method for generating from a voice signal, and the listener robot 7 is moved according to the voice signal. The person who creates the e-mail suffers from a pull-in phenomenon that feels like a conversation by the movement of the listener robot 7, and can create the e-mail in an atmosphere close to the actual conversation. By eliminating the transmission and reception of data signals, the listener robot 7 can behave like a toy that responds to the voice of the listener.

【0034】[0034]

【発明の効果】本発明の意思伝達装置により、電話のよ
うに音声信号のやりとりだけの会話において、会話のリ
ズムの共有を実現し、引き込み現象を発現させて、より
円滑又は親密な意思疎通を図ることができるようにな
る。会話のリズムが共有できず、引き込み現象が発現し
ない会話では、会話自体がつまらなくなるだけでなく、
本来伝達したい意思さえも十分に伝達できなくなった
り、つい言い忘れてしまったりする虞がある。本発明の
意思伝達装置は、対話者それぞれに積極的な発言を促す
ことで、十分な意思伝達を図り、言い忘れのない会話を
実現できるのである。
According to the communication device of the present invention, in a conversation in which only a voice signal is exchanged like a telephone, sharing of the rhythm of the conversation is realized, and a pull-in phenomenon is developed to realize smoother or more intimate communication. You can plan. In conversations where the rhythm of the conversation cannot be shared and the pull-in phenomenon does not appear, not only does the conversation itself become boring,
There is a risk that even the intention to communicate originally cannot be sufficiently communicated, or that it may be forgotten. The communication device of the present invention can achieve a sufficient communication and realize a conversation without forgetting by encouraging each person to talk positively.

【0035】会話を、話し手と聞き手との役割が入れ代
わりながら続けられる対人間の意思疎通と捉えることに
より、話し手及び聞き手それぞれに適切に会話のリズム
の共有を図り、引き込み現象をもたらすことができる。
そして、このように話し手と聞き手とを分離することに
よって、本発明の応用範囲を、留守電、メール等の送受
信、音声入力又は声に反応する玩具等にまで拡大するこ
とができる。相手が存在しない場合や、時間的なずれが
ある場合には、本発明の意思伝達装置は、よりよい意思
伝達を促す補助装置として働き、いわゆる一方話的な会
話を減らすことができるのである。
By treating conversation as interpersonal communication in which the roles of the speaker and the listener are exchanged, the rhythm of the conversation can be appropriately shared by the speaker and the listener, and a pull-in phenomenon can be brought about.
By separating the speaker and the listener in this way, the application range of the present invention can be extended to an answering machine, transmission / reception of e-mails, voice input or a toy that responds to voice. When there is no partner or when there is a time lag, the communication device of the present invention functions as an auxiliary device for promoting better communication, and can reduce so-called one-way conversation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を電話器に適用したロボット共用型意思
伝達装置同士を接続した例の構成図である。
FIG. 1 is a configuration diagram of an example in which robot shared type communication devices in which the present invention is applied to a telephone are connected to each other.

【図2】同装置に用いるロボットの一例を表した正面図
である。
FIG. 2 is a front view illustrating an example of a robot used in the apparatus.

【図3】話し手制御部における制御フローチャートであ
る。
FIG. 3 is a control flowchart in a speaker control unit.

【図4】聞き手制御部における制御フローチャートであ
る。
FIG. 4 is a control flowchart in a listener control unit.

【図5】ロボット個別型話し手モデルの意思伝達装置の
構成図である。
FIG. 5 is a configuration diagram of a communication device of a robot individual type speaker model.

【図6】ロボット個別型聞き手モデルの意思伝達装置の
構成図である。
FIG. 6 is a configuration diagram of a communication device of a robot individual type listener model.

【図7】画像共用型の意思伝達装置同士を接続した例の
構成図である。
FIG. 7 is a configuration diagram of an example in which image sharing type communication devices are connected to each other.

【図8】ロボット共用型意思伝達装置と画像共用型意思
伝達装置とを接続した例の構成図である。
FIG. 8 is a configuration diagram of an example in which a robot shared type communication device and an image shared type communication device are connected.

【図9】音声信号に代えて電子メール等のデータ信号を
送受信するパソコンにロボット個別型話し手モデルの意
思伝達装置を適用した例の構成図である。
FIG. 9 is a configuration diagram of an example in which a personal communication device of a robot individual type speaker model is applied to a personal computer that transmits and receives a data signal such as an electronic mail instead of a voice signal.

【図10】ロボット個別型話し手モデルの意思伝達装置に
留守電機能を付加した例の構成図である。
FIG. 10 is a configuration diagram of an example in which an answering machine function is added to a communication device of a robot individual type speaker model.

【図11】ロボット個別型聞き手モデルの意思伝達装置を
音声入力装置として応用した例の構成図である。
FIG. 11 is a configuration diagram of an example in which a communication device of a robot individual type listener model is applied as a voice input device.

【符号の説明】 1 ロボット共用型意思伝達装置 2 共用ロボット 3 話し手制御部 4 聞き手制御部 5 話し手ロボット 6 ロボット個別型話し手モデルの意思伝達装置 7 聞き手ロボット 8 ロボット個別型聞き手モデルの意思伝達装置 9 音声送受信部 15 画像共用型意思伝達装置 16 共用表示部 17 音声記憶部 18 データ送受信部 19 データ変換部[Description of Signs] 1 robot shared type communication device 2 shared robot 3 speaker control unit 4 listener control unit 5 speaker robot 6 robot individual communication model of speaker model 7 listener robot 8 robot communication device of individual robot model 9 Voice transmission / reception unit 15 Image sharing type communication device 16 Shared display unit 17 Voice storage unit 18 Data transmission / reception unit 19 Data conversion unit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 音声送受信部と、聞き手ロボット及び聞
き手制御部と、又は話し手ロボット及び話し手制御部と
から構成され、音声送受信部は会話等の音声信号を送受
信し、聞き手ロボット又は話し手ロボットは該音声信号
に応答して頭の頷き動作、口の開閉動作、目の瞬き動
作、又は身体の身振り動作の挙動をし、聞き手制御部は
送信部を通じて送信される音声信号から聞き手ロボット
の挙動を決定して該聞き手ロボットを作動させ、話し手
制御部は受信部で受信した音声信号から話し手ロボット
の挙動を決定して該話し手ロボットを作動させることを
特徴とする意思伝達装置。
1. A voice transmission / reception unit, a listener robot and a listener control unit, or a speaker robot and a speaker control unit, wherein the voice transmission / reception unit transmits and receives a voice signal such as a conversation, and the listener robot or the speaker robot receives the voice signal. In response to the voice signal, the head nods, opens and closes, blinks the eyes, or gestures of the body, and the listener control unit determines the behavior of the listener robot from the voice signal transmitted through the transmitter. And a speaker control unit that determines the behavior of the talker robot from the voice signal received by the receiving unit and activates the talker robot.
【請求項2】 音声送受信部と、共用ロボットと、聞き
手制御部及び話し手制御部とから構成され、音声送受信
部は会話等の音声信号を送受信し、共用ロボットは該音
声信号に応答して頭の頷き動作、口の開閉動作、目の瞬
き動作、又は身体の身振り動作の挙動をし、聞き手制御
部は送信部を通じて送信される音声信号から聞き手とし
ての共用ロボットの挙動を決定して該共用ロボットを作
動させ、話し手制御部は受信部で受信した音声信号から
話し手としての共用ロボットの挙動を決定して該共用ロ
ボットを作動させることを特徴とする意思伝達装置。
2. A voice transmission / reception unit, a shared robot, a listener control unit and a talker control unit, wherein the voice transmission / reception unit transmits and receives a voice signal such as a conversation, and the shared robot responds to the voice signal to control the head. Nodding operation, opening and closing operation of the mouth, blinking of the eyes, or gesture of the body, the listener control unit determines the behavior of the shared robot as a listener from the voice signal transmitted through the transmission unit and performs the shared operation. A communication device for operating a robot, wherein the speaker control unit determines the behavior of the shared robot as a speaker from the voice signal received by the receiving unit and operates the shared robot.
【請求項3】 音声送受信部と、聞き手表示部及び聞き
手制御部、又は話し手表示部及び話し手制御部とから構
成され、音声送受信部は会話等の音声信号を送受信し、
聞き手表示部又は話し手表示部は該音声信号に応答して
頭の頷き動作、口の開閉動作、目の瞬き動作、又は身体
の身振り動作の挙動をする擬似聞き手を聞き手表示部又
は擬似話し手を話し手表示部に表示し、聞き手制御部は
送信部を通じて送信される音声信号から擬似聞き手の挙
動を決定して聞き手表示部に表示した該擬似聞き手を動
かし、話し手制御部は受信部で受信した音声信号から擬
似話し手の挙動を決定して話し手表示部に表示した該擬
似話し手を動かすことを特徴とする意思伝達装置。
3. A voice transmitting / receiving unit and a listener display unit and a listener control unit, or a speaker display unit and a speaker control unit, wherein the voice transmitting / receiving unit transmits and receives a voice signal such as a conversation,
The listener display unit or the speaker display unit responds to the audio signal, and performs a nodding operation of the head, an opening / closing operation of the mouth, a blinking operation of an eye, or a behavior of a body gesture operation. Displayed on the display unit, the listener control unit determines the behavior of the pseudo-listener from the voice signal transmitted through the transmission unit, moves the pseudo-listener displayed on the listener display unit, and the speaker control unit controls the voice signal received by the reception unit. A behavior of the pseudo-speaker determined on the basis of the pseudo-speaker and moving the pseudo-speaker displayed on the speaker display unit.
【請求項4】 音声送受信部と、共用表示部と、聞き手
制御部及び話し手制御部とから構成され、音声送受信部
は会話等の音声信号を送受信し、共用表示部は該音声信
号に応答して頭の頷き動作、口の開閉動作、目の瞬き動
作、又は身体の身振り動作の挙動をする擬似話し手及び
擬似聞き手を同一空間内に個別表示し、聞き手制御部は
送信部を通じて送信される音声信号から擬似聞き手の挙
動を決定して前記共用表示部に表示した該擬似聞き手を
動かし、話し手制御部は受信部で受信した音声信号から
擬似話し手の挙動を決定して共用表示部に表示した該擬
似話し手を動かすことを特徴とする意思伝達装置。
4. An audio transmission / reception unit, a common display unit, a listener control unit and a speaker control unit, wherein the audio transmission / reception unit transmits and receives audio signals such as conversations, and the common display unit responds to the audio signals. A pseudo-speaker and a pseudo-hearing person who perform nodding of the head, opening and closing of the mouth, blinking of the eyes, or gesturing of the body are individually displayed in the same space, and the listener control unit transmits the voice transmitted through the transmission unit. The behavior of the pseudo-listener is determined from the signal and the pseudo-listener displayed on the shared display unit is moved, and the speaker control unit determines the behavior of the pseudo-listener from the audio signal received by the receiving unit and displays the behavior on the shared display unit. A communication device characterized by moving a pseudo talker.
【請求項5】 話し手ロボット、聞き手ロボット、話し
手としての共用ロボット、聞き手としての共用ロボッ
ト、擬似話し手、又は擬似聞き手の挙動は、頭の頷き動
作、口の開閉動作、目の瞬き動作又は身体の身振り動作
の選択的な組み合わせからなり、頷き動作タイミングは
音声信号のON/OFFから推定される頷き予測値が予め定め
た頷き閾値を越えた時点とし、瞬き動作タイミングは前
記頷き作動作タイミングを起点として経時的に指数分布
させた時点とし、口の開閉動作は音声信号の変化に従
い、身体の身振り動作は音声信号の変化に従う又は身体
の身振り動作タイミングは音声信号のON/OFFから推定さ
れる頷き予測値が予め定めた身振り閾値を越えた時点と
することを特徴とする請求項1、2、3又は4記載の意
思伝達装置。
5. The behavior of a speaker robot, a listener robot, a shared robot as a speaker, a shared robot as a listener, a pseudo-speaker, or a pseudo-listener is a nodding operation of a head, an opening / closing operation of a mouth, a blinking operation of an eye, or a movement of a body. It consists of a selective combination of gesture motions, the nod operation timing is the time when the nod prediction value estimated from ON / OFF of the audio signal exceeds a predetermined nod threshold, and the blink operation timing starts from the nod operation timing The opening and closing movement of the mouth follows the change of the voice signal, the gesture of the body follows the change of the voice signal, or the timing of the gesture of the body nods estimated from the ON / OFF of the voice signal. 5. The communication device according to claim 1, wherein the time when the predicted value exceeds a predetermined gesture threshold value.
【請求項6】 音声送受信部に代えてデータ送受信部と
データ変換部とから構成され、データ送受信部は文書等
のデータ信号を送受信し、データ変換部は前記データ送
受信部で送受信したデータ信号から音声信号を合成し、
該音声信号を話し手制御部又は聞き手制御部に供するこ
とを特徴とする請求項1、2、3又は4記載の意思伝達
装置。
6. A data transmission / reception unit and a data conversion unit in place of the voice transmission / reception unit, wherein the data transmission / reception unit transmits / receives a data signal such as a document, and the data conversion unit converts a data signal transmitted / received by the data transmission / reception unit. Synthesize the audio signal,
5. The communication device according to claim 1, wherein the voice signal is supplied to a speaker control unit or a listener control unit.
JP15428499A 1999-06-01 1999-06-01 Communication device Expired - Fee Related JP3526785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15428499A JP3526785B2 (en) 1999-06-01 1999-06-01 Communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15428499A JP3526785B2 (en) 1999-06-01 1999-06-01 Communication device

Publications (2)

Publication Number Publication Date
JP2000349920A true JP2000349920A (en) 2000-12-15
JP3526785B2 JP3526785B2 (en) 2004-05-17

Family

ID=15580795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15428499A Expired - Fee Related JP3526785B2 (en) 1999-06-01 1999-06-01 Communication device

Country Status (1)

Country Link
JP (1) JP3526785B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328693A (en) * 2001-05-03 2002-11-15 Sony Corp Robot system, robot apparatus and its control method
JP2003108502A (en) * 2001-09-28 2003-04-11 Interrobot Inc Physical media communication system
JP2005251133A (en) * 2004-03-08 2005-09-15 Okayama Prefecture Method and system for physical pull-in appealing to tactile sense
JP2007129626A (en) * 2005-11-07 2007-05-24 Advanced Telecommunication Research Institute International System for conversation between remote places
JP2007216363A (en) * 2006-02-20 2007-08-30 Saitama Univ Communication robot
US7778726B2 (en) 2004-02-10 2010-08-17 Tokyo Institute Of Technology Nonlinear controller and nonlinear control method
JP2017191390A (en) * 2016-04-12 2017-10-19 ロボットスタート株式会社 Communication system, communication log collection system, server, and communication method
JP2019208167A (en) * 2018-05-30 2019-12-05 公立大学法人首都大学東京 Telepresence system
JP2021064299A (en) * 2019-10-16 2021-04-22 株式会社サイバーエージェント Control system, terminal device, control method, and computer program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634489B2 (en) * 1986-01-22 1994-05-02 株式会社トミー Telephone notification device
JPH07302351A (en) * 1994-05-09 1995-11-14 Canon Inc Picture and voice response equipment and method therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634489B2 (en) * 1986-01-22 1994-05-02 株式会社トミー Telephone notification device
JPH07302351A (en) * 1994-05-09 1995-11-14 Canon Inc Picture and voice response equipment and method therefor

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328693A (en) * 2001-05-03 2002-11-15 Sony Corp Robot system, robot apparatus and its control method
JP4666194B2 (en) * 2001-05-03 2011-04-06 ソニー株式会社 Robot system, robot apparatus and control method thereof
JP2003108502A (en) * 2001-09-28 2003-04-11 Interrobot Inc Physical media communication system
US7778726B2 (en) 2004-02-10 2010-08-17 Tokyo Institute Of Technology Nonlinear controller and nonlinear control method
JP2005251133A (en) * 2004-03-08 2005-09-15 Okayama Prefecture Method and system for physical pull-in appealing to tactile sense
JP2007129626A (en) * 2005-11-07 2007-05-24 Advanced Telecommunication Research Institute International System for conversation between remote places
JP4735965B2 (en) * 2005-11-07 2011-07-27 株式会社国際電気通信基礎技術研究所 Remote communication system
JP4512830B2 (en) * 2006-02-20 2010-07-28 国立大学法人埼玉大学 Communication robot
JP2007216363A (en) * 2006-02-20 2007-08-30 Saitama Univ Communication robot
JP2017191390A (en) * 2016-04-12 2017-10-19 ロボットスタート株式会社 Communication system, communication log collection system, server, and communication method
JP2019208167A (en) * 2018-05-30 2019-12-05 公立大学法人首都大学東京 Telepresence system
JP7106097B2 (en) 2018-05-30 2022-07-26 東京都公立大学法人 telepresence system
JP2021064299A (en) * 2019-10-16 2021-04-22 株式会社サイバーエージェント Control system, terminal device, control method, and computer program

Also Published As

Publication number Publication date
JP3526785B2 (en) 2004-05-17

Similar Documents

Publication Publication Date Title
JP3212578B2 (en) Physical voice reaction toy
US8121653B2 (en) Methods and apparatus for autonomously managing communications using an intelligent intermediary
US8135128B2 (en) Animatronic creatures that act as intermediaries between human users and a telephone system
Watanabe Human-entrained embodied interaction and communication technology
US20100156781A1 (en) Eye gaze control during avatar-based communication
JP2004289254A (en) Videophone terminal
WO2022079933A1 (en) Communication supporting program, communication supporting method, communication supporting system, terminal device, and nonverbal expression program
CN110609620A (en) Human-computer interaction method and device based on virtual image and electronic equipment
JP2001216530A (en) Method and device for designating, controlling and changing social primitive of animation character
JP3526785B2 (en) Communication device
EP3664425A1 (en) Method and device for generating and displaying an electronic avatar
US20020015037A1 (en) Human-machine interface apparatus
Garau Selective fidelity: Investigating priorities for the creation of expressive avatars
CN114995636A (en) Multi-modal interaction method and device
JP2003108502A (en) Physical media communication system
JP2017079004A (en) Agent dialogue system
JP4709598B2 (en) Call terminal with avatar display function
JP2003516049A (en) Personality-based intelligent camera system
Chandrasiri et al. Internet communication using real-time facial expression analysis and synthesis
JP4896118B2 (en) Video phone terminal
US20160316054A1 (en) Communication device, method, and program
JP2005057431A (en) Video phone terminal apparatus
JP2021086474A (en) Avatar control system
WO2022215725A1 (en) Information processing device, program, and information processing method
WO2024062779A1 (en) Information processing device, information processing system, and information processing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110227

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110227

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees