JP2003345727A - Device for transmitting feeling - Google Patents

Device for transmitting feeling

Info

Publication number
JP2003345727A
JP2003345727A JP2002150690A JP2002150690A JP2003345727A JP 2003345727 A JP2003345727 A JP 2003345727A JP 2002150690 A JP2002150690 A JP 2002150690A JP 2002150690 A JP2002150690 A JP 2002150690A JP 2003345727 A JP2003345727 A JP 2003345727A
Authority
JP
Japan
Prior art keywords
emotion
expression
sentence
unit
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002150690A
Other languages
Japanese (ja)
Inventor
Masahito Takuhara
雅人 宅原
Shintaro Kumano
信太郎 熊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002150690A priority Critical patent/JP2003345727A/en
Publication of JP2003345727A publication Critical patent/JP2003345727A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a feelings transmitting device for enabling an electronic sentence originator to add a feeling transmission element corresponding to a feeling into a sentence in addition to character expression and also for enabling a person reading the electronic sentence to feel the feeling transmission element added to contents of the sentence as feeling transmission expression by means of the senses of sight and hearing. <P>SOLUTION: When an operating part (10) of the feelings transmitting device controls an output part (30) so as to output a sentence with a code being a feeling transmission element inserted thereinto, the operating part (10) extracts the code being the feeling transmission element, refers to feeling expression data (55), retrieves feeling transmission expression associated with the code being the feeling transmission element and controls a representing part so as to perform the feeling transmission expression. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、感情伝達装置に関
し、特に電子メール入力時に感情を伝達するための要素
をメールに含め、電子メール再生時に感情を伝達するた
めの要素から感情を伝達するための表現を実施する感情
伝達装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an emotion transmitting device, and more particularly, to a method for transmitting an emotion from an element for transmitting an emotion when reproducing an electronic mail by including an element for transmitting an emotion when an electronic mail is input. The present invention relates to an emotion transmission device that implements the expression.

【0002】[0002]

【従来の技術】インターネットやイントラネット等のネ
ットワークを通じて、電子メール等の電子情報が送受信
されている。従来電子メールを入力する手段として、キ
ーボード入力、音声を文字に置換する音声入力が一般的
である。また、電子メールを提示する手段としては、モ
ニタでの文章表示、印刷による表示、音声合成による発
音表示等が一般的である。
2. Description of the Related Art Electronic information such as electronic mail is transmitted and received through networks such as the Internet and an intranet. 2. Description of the Related Art Conventionally, as a means for inputting an electronic mail, a keyboard input and a voice input for replacing voice with characters are generally used. As a means for presenting an e-mail, sentence display on a monitor, display by printing, pronunciation display by voice synthesis, and the like are common.

【0003】電子メールの送受信で送信者の感情を受信
者に伝達するためには、送信者が感情を込めた文章を作
成し、受信者はその文章から送信者の感情を推察するし
かなく、送信者の伝えたい感情が受信者に十分に伝わら
ない場合がある。
In order to transmit the sentiment of the sender to the receiver by sending and receiving e-mail, the sender must create a sentence containing the sentiment, and the receiver must infer the sentiment of the sender from the sentence. In some cases, the sentiment of the sender is not sufficiently transmitted to the recipient.

【0004】また、電子メールは通常、決められたフォ
ントの中から選択された文字を使用するため、手書きの
手紙などに比べ感情の伝達が難しい場合がある。さら
に、電子メール上で感情を表現する方法は、文章や記号
に限られ表現するのに限界がある。
[0004] Further, since an e-mail usually uses characters selected from predetermined fonts, it may be more difficult to convey emotions than a handwritten letter or the like. Furthermore, the method of expressing emotions on an e-mail is limited to sentences and symbols, and there is a limit in expressing them.

【0005】近年、携帯電話などの小さい画面上の提示
スペースで感情を表現するために、顔文字などの記号が
使用される場合がある。また、コンピュータ等で使用可
能な文字として、トンパ(東巴)文字などの象形文字が
使用される場合がある。このような象形文字は、主に感
覚的に感情や意味を伝達するのに用いられる場合が多
い。
[0005] In recent years, symbols such as emoticons are sometimes used to express emotions in a presentation space on a small screen such as a mobile phone. In addition, hieroglyphs such as tompa characters may be used as characters that can be used in a computer or the like. Such hieroglyphs are often used mainly to convey emotions and meanings in a sensory manner.

【0006】音声メールや画像メールによる情報伝達を
使用すれば、文章だけの場合より感情の表現方法が増え
るが、通信するデータ量が大幅に増加してしまう。
[0006] When information transmission by voice mail or image mail is used, the method of expressing emotions is increased as compared with the case of only text, but the amount of data to be communicated is greatly increased.

【0007】容易な入力で、送信者から受信者に多様な
感情の伝達が可能な感情伝達装置が求められる。
[0007] There is a need for an emotion transmission device capable of transmitting various emotions from a sender to a receiver with easy input.

【0008】[0008]

【発明が解決しようとする課題】電子文章の作成者が、
文章中に文字表現に加えて感情を表現する感情伝達要素
を加えるができる感情伝達装置、及び、電子文章を読む
者が、文章の内容に加えられた感情伝達要素を、感情伝
達表現として視覚や聴覚等の手段で感じることができる
感情伝達装置が望まれる。
[Problems to be Solved by the Invention] The creator of the electronic sentence
An emotion transmission device that can add an emotion transmission element that expresses an emotion in addition to a character expression in a sentence, and a person who reads an electronic sentence can use the emotion transmission element added to the contents of the sentence as a visual or emotional expression as an emotion transmission expression. An emotion transmission device that can be sensed by means such as hearing is desired.

【0009】[0009]

【課題を解決するための手段】以下に、[発明の実施の
形態]で使用する番号・符号を用いて、課題を解決する
ための手段を説明する。これらの番号・符号は、[特許
請求の範囲]の記載と[発明の実施の形態]の記載との
対応関係を明らかにするために付加されたものである
が、[特許請求の範囲]に記載されている発明の技術的
範囲の解釈に用いてはならない。
Means for solving the problem will be described below using the numbers and symbols used in the embodiments of the present invention. These numbers and symbols are added to clarify the correspondence between the description of [Claims] and the description of [Embodiments of the Invention]. It should not be used to interpret the technical scope of the described invention.

【0010】本発明による感情伝達装置は、入力者によ
り文章が入力される入力部(60)と、文章を入力する
入力者の感情表現を検出するセンサ(20)と、感情表
現と既定のコードとを対応付けるデータを含む感情表現
データ(55)を記憶する記憶部(50)と、演算部
(10)と、を備える。ここで、既定のコードは、実施
例で使用される感情伝達要素に対応する。入力者が入力
部(60)で文章を入力している時に、センサ(20)
は入力者の感情表現を検出し、演算部(10)は、感情
表現データ(55)を参照して、検出された感情表現に
対応付けられた感情伝達要素であるコードを検索し、文
章に検索された感情伝達要素であるコードを挿入する。
[0010] An emotion transmitting device according to the present invention comprises an input section (60) for inputting a sentence by an input person, a sensor (20) for detecting an emotion expression of the input person who inputs the sentence, an emotion expression and a predetermined code. A storage unit (50) for storing emotion expression data (55) including data for associating with the operation unit, and an operation unit (10). Here, the predetermined code corresponds to the emotion transmission element used in the embodiment. When the input user is inputting a sentence in the input unit (60), the sensor (20)
Detects the emotional expression of the input person, and the arithmetic unit (10) searches the emotional expression data (55) for a code that is an emotion transfer element associated with the detected emotional expression, and adds the code to the sentence. Inserts a code that is a sentiment element that was found.

【0011】上記に記載された感情伝達装置は、さら
に、送信部(70)を備える。上記文章は電子メールの
文章であり、送信部(70)は、感情伝達要素であるコ
ードが挿入された電子メールを送信する。
[0011] The emotion transmission device described above further includes a transmission section (70). The sentence is an e-mail sentence, and the transmission unit (70) transmits the e-mail in which a code that is an emotion transmission element is inserted.

【0012】上記に記載された感情伝達装置において、
感情表現は、表情、顔色、視線方向、瞬き回数・頻度、
瞳孔の開き、発話内容、声のトーン、話す速さ、声色、
話す間合い、身振り、体温の変化、動悸、発汗、皮膚電
位、呼吸の変化、脳波、脈拍、血圧のいずれか、もしく
はいずれかの組合わせである。
In the emotion transmission device described above,
Emotional expressions include facial expression, complexion, gaze direction, number of blinks / frequency,
Pupil opening, utterance content, voice tone, speaking speed, timbre,
Talking time, gesture, change in body temperature, palpitations, sweating, skin potential, change in breathing, brain wave, pulse, blood pressure, or any combination thereof.

【0013】本発明による感情伝達装置は、文章を出力
する出力部(30)と、感情を表す動作である感情伝達
表現を実施する表現部(30、40)と、文章に挿入さ
れる既定のコードと感情伝達表現とを関連付ける情報を
含む感情表現データ(54)を記憶する記憶部(50)
と、演算部(10)と、を備える。ここで、既定のコー
ドは、実施例で使用される感情伝達要素に対応する。ま
た表現部は、出力装置(30)もしくは動作装置(4
0)のいずれか、または両方である。演算部(10)
は、感情伝達要素であるコードが挿入された文章を出力
部(30)で出力するように制御する時に、感情伝達要
素であるコードを抽出し、感情表現データ(55)を参
照して、感情伝達要素であるコードに対応付けられた感
情伝達表現を検索し、表現部(30、40)が感情伝達
表現を実施するように制御する。
An emotion transmitting device according to the present invention includes an output unit (30) for outputting a sentence, an expression unit (30, 40) for performing an emotion transmitting expression which is an operation representing an emotion, and a predetermined unit inserted into the sentence. A storage unit (50) for storing emotion expression data (54) including information for associating a code with an emotional expression expression;
And an operation unit (10). Here, the predetermined code corresponds to the emotion transmission element used in the embodiment. In addition, the expression unit includes the output device (30) or the operation device (4
0) or both. Arithmetic unit (10)
Extracts a code that is an emotion transmission element and controls the sentence in which the sentence in which the code that is the emotion transmission element is inserted is output from the output unit (30), and refers to the emotion expression data (55) to express the emotion. An emotion transfer expression associated with the code as the transfer element is searched, and the expression units (30, 40) are controlled so as to execute the emotion transfer expression.

【0014】本発明による感情伝達装置は、文章を出力
する出力部(30)と、感情を表す動作である感情伝達
表現を実施する表現部(30、40)と、文章に使用さ
れる特定の言葉と感情伝達表現とを関連付ける情報を含
む感情表現データ(55)を記憶する記憶部(50)
と、演算部(10)と、を備える。ここで、特定の言葉
は、実施例で使用される感情伝達要素に対応する。また
表現部は、出力装置(30)もしくは動作装置(40)
のいずれか、または両方である。演算部(10)は、特
定の言葉が使用された文章を出力部(30)で出力する
ように制御する時に、特定の言葉を抽出し、感情表現デ
ータを参照して、特定の言葉に対応付けられた感情伝達
表現を検索し、表現部(30、40)が感情伝達表現を
実施するように制御する。
An emotion transmitting device according to the present invention comprises: an output unit (30) for outputting a sentence; an expression unit (30, 40) for executing an emotion transmitting expression which is an operation representing an emotion; A storage unit (50) for storing emotion expression data (55) including information for associating a word with an emotion transfer expression;
And an operation unit (10). Here, the specific word corresponds to the emotional communication element used in the embodiment. The expression unit is an output device (30) or an operation device (40)
Either or both. When controlling the output unit (30) to output a sentence in which a specific word is used, the arithmetic unit (10) extracts the specific word, refers to the emotion expression data, and responds to the specific word. The attached sentence expression is searched, and the expression units (30, 40) are controlled to execute the sentence expression.

【0015】上記に記載された感情伝達装置は、さら
に、受信部(70)を備える。上記文章は電子メールの
文章であり、受信部(70)は、電子メールを受信す
る。
[0015] The emotion transmission device described above further includes a receiving unit (70). The text is a text of an electronic mail, and the receiving unit (70) receives the electronic mail.

【0016】上記に記載された感情伝達装置において、
表現部は、表情に相当する表示を行なう表示部(31、
33)、目に擬制される発光部(33)、音声を発生す
るスピーカ(32)、手(42,43)・足(41)・
首(2)・本体(3)に相当する部分、図形を表示する
モニタ(31)のいずれか、もしくはいずれかの組合わ
せである。
In the emotion transmission device described above,
The expression unit includes a display unit (31,
33), a light emitting part (33) simulated by the eyes, a speaker (32) for generating sound, hands (42, 43), feet (41),
One of the part corresponding to the neck (2) and the body (3), the monitor (31) for displaying a graphic, or any combination thereof.

【0017】上記に記載された感情伝達装置において、
感情伝達表現は、表示部の表情に相当する表示、顔に相
当する部分の色の変化、メール表示色の変化、目に擬制
される発光部の視線方向・瞬き(点滅)頻度・大きさ・
色、点滅や色の変化、スピーカの発生する音声のトー
ン、話す速さ、声色、間合い、音楽(効果音を含む)、
手・足・首・本体の動き、モニタに表示された図形の変
化のいずれか、もしくはいずれかの組合わせである。
In the emotion transmitting device described above,
The expression of emotional communication is the display corresponding to the expression on the display unit, the color change of the part corresponding to the face, the change of the mail display color, the gaze direction, blinking (flashing) frequency, size,
Color, blinking or color change, the tone of the sound generated by the speaker, the speed of speaking, the tone, the interval, the music (including sound effects),
The movement of the hand, the foot, the neck, the main body, and the change of the graphic displayed on the monitor, or any combination thereof.

【0018】[0018]

【発明の実施の形態】添付図面を参照して、本発明によ
る感情伝達装置の実施の形態を以下に説明する。本発明
の感情伝達装置は、電子メールを送受信することができ
るロボット1に代表される。本発明のロボット1は、電
子メールの送受信機能を有する。電子メールの送信者
は、ロボット1を使用して、電子メールをキー入力もし
くは音声入力をすることができる。さらに、ロボット1
を使用して電子メールを作成する場合、送信者が電子メ
ールの文章に、感情伝達要素を自動的または意識的に含
ませることができる。感情伝達要素は、送信者が自ら電
子メールに含める他、ロボット1が送信者の意識的もし
くは無意識的な感情表現を検出して電子メール中に織り
込まれる場合がある。ロボット1が受信した電子メール
を受信者に提示する場合、電子メールに織り込まれてい
る感情伝達要素を抽出し、感情伝達要素に対応付けられ
ている感情伝達表現をロボット1が実施して、文章内容
に加えて送信者の感情を受信者に伝達することができ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an emotion transmitting device according to the present invention will be described below with reference to the accompanying drawings. The emotion transmission device of the present invention is represented by a robot 1 capable of transmitting and receiving an electronic mail. The robot 1 of the present invention has an e-mail transmission / reception function. The sender of the e-mail can use the robot 1 to input the e-mail by key input or voice input. In addition, robot 1
When creating an email using, the sender can automatically or consciously include an emotional communication element in the email text. In addition to the sender's own inclusion in the e-mail, the robot 1 may detect the conscious or unconscious emotional expression of the sender and incorporate it into the e-mail. When presenting the e-mail received by the robot 1 to the recipient, the robot 1 extracts an emotion transfer element woven into the e-mail, implements an emotion transfer expression associated with the emotion transfer element, and outputs a sentence. In addition to content, the sender's emotions can be communicated to the recipient.

【0019】ここで、以下に本実施の形態で使用される
語の定義を行なう。『感情表現』は、電子メール入力
者、文章作成者などの人間が、感情に関連して行なう行
動もしくは生理的変化で、表情、顔色、視線方向、瞬き
回数・頻度、瞳孔の開き、発話内容、声のトーン、話す
速さ、声色、話す間合い、身振り、体温の変化、動悸、
発汗、皮膚電位、呼吸の変化、脳波、脈拍、血圧を含
む。また、人間が入力する感情を表す文章の内容、顔文
字などの記号も含まれる。『感情伝達要素』は、感情表
現に対応して、文章中に織り込まれる不可視もしくは可
視の既定のコード、文字、記号(以下、既定のコード)
である。人間が文章中に使用する感情を表す言葉、顔文
字なども感情伝達要素として使用される場合がある。
『感情伝達表現』は、電子メールを再現するロボット1
が感情伝達要素に対応して行なう動作や表現で、表情に
相当する表示、顔に相当する部分の色の変化、目に擬制
される箇所の視線方向・瞬き(点滅)頻度・大きさ・
色、音声のトーン、話す速さ、声色、間合い、音楽(効
果音を含む)、手・足・首・本体の動き、メール表示色
の変化、発光部の点滅や色を含む。
Here, the terms used in the present embodiment will be defined below. "Emotional expression" is the behavior or physiological changes performed by humans, such as e-mailers and text creators, related to their emotions, including facial expressions, complexion, gaze direction, number and frequency of blinks, pupil opening, and utterance content. , Voice tone, speaking speed, timbre, speaking pauses, gestures, changes in body temperature, palpitations,
Includes sweating, skin potential, changes in breathing, brain waves, pulse, blood pressure. It also includes the contents of sentences expressing emotions input by humans, and symbols such as emoticons. "Emotional transmission element" is an invisible or visible default code, character, or symbol (hereinafter, default code) that is woven into a sentence in response to an emotional expression
It is. Words expressing emotions used in human sentences, emoticons, and the like may also be used as emotion transmission elements.
"Emotional expression" is a robot 1 that reproduces e-mail
Are the actions and expressions performed in response to the emotional communication elements, such as the display corresponding to the expression, the color change of the part corresponding to the face, the gaze direction, blinking (blinking) frequency, size,
Includes color, tone of voice, speaking speed, voice tone, pause, music (including sound effects), hand / foot / neck / body movements, changes in mail display colors, blinking and colors of light emitting parts.

【0020】図1にロボット1の、外観の例を示す。図
1に示されるロボット1は、頭部2、胴部3を持ち、カ
メラ21、マイク22、モニタ31、スピーカ32、ア
ーム42、移動機構41、ハンド43、通信装置70等
を具備しているロボット1が例示されている。
FIG. 1 shows an example of the appearance of the robot 1. The robot 1 shown in FIG. 1 has a head 2 and a trunk 3, and includes a camera 21, a microphone 22, a monitor 31, a speaker 32, an arm 42, a moving mechanism 41, a hand 43, a communication device 70, and the like. The robot 1 is illustrated.

【0021】ロボット1は、人間の各部に対応した位置
に、同様の機能を持つセンサや出力装置を備えること
が、人とのコミュニケーションをとる上で好ましい。ま
た、ロボット1が人間に近い外観を持ち、人間と同じよ
うな動作をすることができることが、人の感情を表現す
る時に、人間が行なうようなジェスチャーを行なうこと
ができるため好ましい。具体的には、頭部2の人の目に
対応する位置にカメラ21を備え、口の位置にスピーカ
32を備え、耳の位置にマイク22を備えることであ
る。また、人間の腕のように肩および肘に可動部を持
ち、手振りや踊りができることである。人はロボット1
の顔の部分を見てロボット1に話し掛けるため、ロボッ
ト1の顔に相当する位置にカメラ21を備えることで、
対面する人の顔の画像を撮影することができる。人間に
近い構成を持つことで、ロボット1を使用する人は、ロ
ボット1に親近感を持ち、ロボット1を人と擬制して扱
うようになる。特に、介護に使用されるロボット1にお
いては、使用者に親近感を持たれ、家族や友人のように
感じられるロボット1が望まれる。
It is preferable that the robot 1 be provided with sensors and output devices having similar functions at positions corresponding to various parts of the human in order to communicate with humans. In addition, it is preferable that the robot 1 has an appearance similar to that of a human and can perform the same motion as a human, because a gesture performed by a human can be performed when expressing a human emotion. Specifically, the camera 21 is provided at a position corresponding to the human eye of the head 2, the speaker 32 is provided at the mouth, and the microphone 22 is provided at the position of the ear. In addition, it has a movable part on the shoulder and elbow like a human arm, and can perform hand gestures and dance. Human is robot 1
The camera 21 is provided at a position corresponding to the face of the robot 1 in order to talk to the robot 1 while looking at the face of the robot 1.
An image of the face of the person facing can be taken. By having a configuration close to a human, a person who uses the robot 1 has a feeling of closeness to the robot 1 and treats the robot 1 as if it were a human. In particular, in the case of the robot 1 used for nursing care, it is desired that the robot 1 be able to give the user a sense of closeness and feel like a family or a friend.

【0022】図2にロボット1の構成を示す。ロボット
1は、演算装置10、センサ20、出力装置30、動作
装置40、記憶装置50、入力装置60、通信装置70
を具備する。
FIG. 2 shows the configuration of the robot 1. The robot 1 includes an arithmetic device 10, a sensor 20, an output device 30, an operation device 40, a storage device 50, an input device 60, a communication device 70
Is provided.

【0023】演算装置10は、機能的には中央演算部1
1、センサ情報処理部12、出力装置制御部13、動作
装置制御部14、通信情報処理部17を具備する。演算
装置10の上記各部は機能上の分類であり、装置の構成
は単数もしくは複数のCPUを具備するコンピュータに
代表される。
The arithmetic unit 10 is functionally the central processing unit 1
1, a sensor information processing unit 12, an output device control unit 13, an operation device control unit 14, and a communication information processing unit 17. The above-described units of the arithmetic device 10 are classified according to functions, and the configuration of the device is represented by a computer having one or more CPUs.

【0024】センサ情報処理部12は、センサ20が検
出した情報を処理し、中央演算部11に送信する。セン
サ情報処理部12はセンサ20の種類により、個別に構
成されてもよい。具体的には、カメラ21には画像処理
部が対応し、マイク22には音声処理部が対応する等で
ある。
The sensor information processing section 12 processes information detected by the sensor 20 and transmits the processed information to the central processing section 11. The sensor information processing unit 12 may be individually configured depending on the type of the sensor 20. Specifically, the camera 21 corresponds to an image processing unit, the microphone 22 corresponds to an audio processing unit, and so on.

【0025】出力装置制御部13は、中央演算部11が
決定した出力に関する指令に対応して、出力装置30の
制御を行なう。出力装置制御部13は、出力装置30に
より、個別に構成されてもよい。動作装置制御部14
は、中央演算部11が決定した動作に関する指令に対応
して、動作装置40の制御を行なう。動作装置制御部1
4は、動作装置40の種類により、個別に構成されても
よい。
The output device control unit 13 controls the output device 30 in accordance with the output command determined by the central processing unit 11. The output device control unit 13 may be individually configured by the output device 30. Operating device control unit 14
Controls the operation device 40 in response to the command regarding the operation determined by the central processing unit 11. Operating device control unit 1
4 may be individually configured according to the type of the operation device 40.

【0026】センサ20は、カメラ21、マイク22、
赤外線センサ23、重量感知器24、触覚感知器25、
姿勢感知器26などに代表され、ロボット1に要求され
る機能に合わせ、必要なセンサが、単数または複数選択
されて装着される。
The sensor 20 includes a camera 21, a microphone 22,
Infrared sensor 23, weight sensor 24, tactile sensor 25,
One or a plurality of necessary sensors are selected and mounted according to the function required for the robot 1 as represented by the posture sensor 26 and the like.

【0027】カメラ21はCCDカメラに代表され、ロ
ボット1の移動時に経路上の障害物を検出するための撮
影、人を探索するための撮影などをする。さらに、カメ
ラ21は、電子メールを作成する送信者の外見上の感情
表現(表情・視線方向・瞬き回数/頻度・瞳孔・身振り
などの表現、顔色などの生理的変化などを含む)を検出
するための撮影を行なう。カメラ21で撮影された画像
は、センサ情報処理部12で画像処理される。
The camera 21 is typified by a CCD camera, and performs photographing for detecting obstacles on the route and photographing for searching for a person when the robot 1 moves. Further, the camera 21 detects an external emotional expression (including an expression such as a facial expression, a gaze direction, the number of blinks / frequency, a pupil and a gesture, and a physiological change such as a complexion) of the sender who creates the e-mail. For shooting. The image captured by the camera 21 is subjected to image processing by the sensor information processing unit 12.

【0028】マイク22は、人の声を含む音声を検出
し、電子メールの音声入力に使用される。また、その他
の命令の音声入力、周辺の情報収集等にも使用される。
マイク22から入力された音声から、入力者の音声によ
る感情表現(音声のトーン・話す速さ・声色・話す間合
い等)が検出される。
The microphone 22 detects a voice including a human voice and is used for voice input of an electronic mail. It is also used for voice input of other commands, gathering information about the surroundings, and the like.
From the voice input from the microphone 22, emotional expressions (voice tones, speaking speed, voice color, pauses, etc.) of the voice of the input person are detected.

【0029】赤外線センサ23は、2点間の赤外線が切
断されることにより人や物の存在を確認するセンサや、
温度差により人の存在等を検出する赤外線カメラに代表
される。赤外線カメラは、電子メール送信者の体温の変
化、顔部分の温度の変化等を含む生理的変化による感情
表現を検出することもできる。
The infrared sensor 23 detects the presence of a person or an object by cutting off infrared rays between two points,
It is represented by an infrared camera that detects the presence of a person or the like based on a temperature difference. The infrared camera can also detect emotional expressions due to physiological changes including changes in the body temperature of the e-mail sender, changes in the temperature of the face, and the like.

【0030】重量感知器24は、ロボット1が物を持っ
たときに重さを感知したり、物を持っていることを検出
したりする。触覚感知器25は、物にぶつかったこと
や、持っている物の固さ、もしくは使用者に撫でられ
た、または、叩かれたことを検知する。また、指紋など
を検出する機能を有することもできる。触覚感知器25
は、入力者のロボット1に対する動作を感情表現として
検出することもできる。姿勢感知器26は、ロボット1
が自身の姿勢を感知し、感知結果は移動時などの姿勢制
御に使用される。
The weight sensor 24 senses weight when the robot 1 has an object, and detects that the robot 1 has an object. The tactile sensor 25 detects that the object has hit the object, the hardness of the object being held, or the fact that the user has stroked or hit the object. Further, a function of detecting a fingerprint or the like can be provided. Tactile sensor 25
Can also detect the motion of the input person with respect to the robot 1 as an emotional expression. The posture sensor 26 is the robot 1
Senses its own attitude, and the sensing result is used for attitude control such as when moving.

【0031】その他、使用者の生理的変化を検出するセ
ンサが使用される場合がある。具体的には、脈拍計、皮
膚電位計、脳波計、血圧計などである。これらのセンサ
で検出された生理的変化も感情表現として、入力者の感
情を予測するのに使用される場合がある。
In some cases, a sensor for detecting a physiological change of the user is used. Specifically, it is a pulse meter, a skin electrometer, an electroencephalograph, a sphygmomanometer, or the like. Physiological changes detected by these sensors may also be used as emotional expressions to predict the emotions of the input person.

【0032】出力装置30は、モニタ31、スピーカ3
2、発光部33、印刷部34などに代表され、ロボット
1の機能に合わせ、必要な出力装置が単数または複数選
択されて装着される。
The output device 30 includes a monitor 31 and a speaker 3
2. One or a plurality of necessary output devices are selected and mounted according to the function of the robot 1 as represented by the light emitting unit 33, the printing unit 34, and the like.

【0033】モニタ31は、液晶ディスプレイ等に代表
され、電子メールの表示を行なう。また、その他の情報
の表示を行なうことができる。ロボット1は、モニタ3
1に表示される画像により、感情伝達表現することがで
きる。具体的には、顔の表情を表示して感情を表現した
り、キャラクターを表示して、キャラクターの動きによ
り感情を表現したりすることである。
The monitor 31 is typified by a liquid crystal display and displays electronic mail. Further, other information can be displayed. The robot 1 has a monitor 3
The image displayed in 1 can express emotional expression. More specifically, the expression of a face is displayed to express an emotion, or the character is displayed to express an emotion by the movement of the character.

【0034】スピーカ32は、音声や音楽を出力する。
スピーカ32は、音声による情報提示やロボット1の会
話に使用される。スピーカ32により、合成音による電
子メールの音声提示を行なうこともできる。この場合、
感情伝達表現として合成音のトーンや速さ、声色、間合
い等の変化を付けることができる。また、感情伝達表現
として、効果音や音楽を出力することもできる。
The speaker 32 outputs voice and music.
The speaker 32 is used for presenting information by voice and talking with the robot 1. The speaker 32 can also present the voice of the e-mail using the synthesized sound. in this case,
Changes such as tone, speed, tone, and time of synthesized sounds can be added as emotional expressions. In addition, sound effects and music can be output as emotional expressions.

【0035】発光部33は、ロボット1の顔に当たる部
分に設置されるLEDなどに代表される。顔を形成する
LEDは、ロボット1の状態表示や感情伝達表現などに
用いられる。感情伝達表現として、ロボット1の顔の位
置に取り付けられたLEDを、さまざまに点灯させて、
顔の表情を表現したり、発光部33の点滅速度を変化さ
せて急いでいる様子などを表現することができる。
The light emitting section 33 is represented by an LED or the like installed at a portion corresponding to the face of the robot 1. The LEDs forming the face are used for displaying the state of the robot 1 and expressing emotions. The LED attached to the position of the face of the robot 1 is illuminated in various ways as an emotional expression,
It is possible to express a facial expression, or to change the blinking speed of the light emitting unit 33 to express a hurry.

【0036】印刷部34は、電子メールの内容などを受
信者が印刷するようロボット1に命令した場合、命令さ
れた範囲を印刷するために使用される。
When the receiver instructs the robot 1 to print the contents of the electronic mail and the like, the printing unit 34 is used to print the instructed range.

【0037】動作装置40は、移動機構41、アーム4
2、ハンド43、本体・首の動作機構44に代表され、
ロボット1の機能に合わせ、必要な動作装置が単数また
は複数選択されて装着される。
The operating device 40 includes a moving mechanism 41, an arm 4
2, represented by the hand 43, the body / neck movement mechanism 44,
One or a plurality of necessary operating devices are selected and mounted according to the function of the robot 1.

【0038】移動機構41は、ロボット1が移動するた
めの機構で、2足歩行用脚、4足歩行用脚、その他の移
動用脚、車輪、クローラ等に代表され、ロボット1が移
動する場所や移動スピードに合わせて選択される。移動
機構41は、動きによる感情伝達表現の実施にも使用さ
れる場合がある。具体的には、喜びを表す時に、ぐるぐ
る走りまわったり、飛び跳ねたり、喜びの踊りを踊った
りすることである。
The moving mechanism 41 is a mechanism for moving the robot 1, and is represented by a bipedal leg, a quadrupedal leg, other moving legs, wheels, a crawler, etc., and is a place where the robot 1 moves. Or according to the moving speed. The moving mechanism 41 may also be used to carry out emotional expression by motion. Specifically, when expressing joy, it means running around, jumping, or dancing joy.

【0039】アーム42は、人の腕に相当する機能を有
し、ロボット1の本体に可動的に取り付けられる。アー
ム42の先端にハンド43が取り付けられる。アーム4
2は、動きによる感情伝達表現の実施に使用される。具
体的には、喜びを表す時に、万歳をしたり、ガッツポー
ズをしたり、ハイタッチをしたり、喜びの踊りを踊った
りすることである。ハンド43は、アーム42の先に取
り付けられ、物を掴む機能を有する。ハンド43も、動
きによる感情伝達表現の実施に使用される。
The arm 42 has a function corresponding to a human arm, and is movably attached to the main body of the robot 1. The hand 43 is attached to the tip of the arm 42. Arm 4
No. 2 is used to carry out emotional expression by movement. Specifically, when expressing joy, it means hurling, doing guts poses, giving a high five, or dancing joy. The hand 43 is attached to the tip of the arm 42 and has a function of grasping an object. The hand 43 is also used to carry out emotional expression by movement.

【0040】本体・首の動作機構44は、本体または首
を振ったり、回したりする機構で、方向転換、会話して
いる人の方へ向きの変更、センサ20の向きを変更する
ために使用される。本体・首の動作機構44も、動きに
よる感情伝達表現の実施に使用される。具体的には、否
定を表現するために首を横に振ったり、肯定を表現する
ために首を縦に振ったりすることである。
The main body / neck movement mechanism 44 is a mechanism for shaking or rotating the main body or the neck, and is used to change the direction, change the direction toward the person who is talking, and change the direction of the sensor 20. Is done. The body / neck movement mechanism 44 is also used to carry out emotional expression by movement. More specifically, the user shakes his / her head to express negation or shakes his / her head vertically to express affirmation.

【0041】記憶装置50は、動作履歴51、通信情報
52、地図/領域情報53、個人認証データ54、感情
表現データ55、などのデータから、移動ロボットに要
求される機能に合わせ、必要なデータを記憶している。
The storage device 50 stores necessary data in accordance with the function required for the mobile robot from data such as an operation history 51, communication information 52, map / area information 53, personal authentication data 54, and emotion expression data 55. I remember.

【0042】動作履歴51は、ロボット1が行なった動
作を時間毎に記録したデータである。動作履歴により行
動パターンやルーチンの行動を認識し、効率よい行動パ
ターンを学習することに利用できる。通信情報52は、
電子メールなどの受信履歴及び内容、担当する人のメー
ルアドレス、メールサーバ情報、アドレス帖などの通信
に関する情報を含む。地図/領域情報53は、ロボット
1が移動するエリアの地図情報、担当する人に関連付け
られた場所、物の位置、障害物情報などの情報を含む。
地図/領域情報53は、ロボット1が移動したときに得
られる情報により、順次更新されることが好ましい。
The operation history 51 is data in which the operation performed by the robot 1 is recorded for each time. It can be used to recognize an action pattern or a routine action based on the operation history and learn an efficient action pattern. The communication information 52 includes
Includes information related to communication, such as reception history and contents of e-mails and the like, e-mail addresses of persons in charge, mail server information, and address tables. The map / area information 53 includes information such as map information of an area where the robot 1 moves, a place associated with a person in charge, a position of an object, and obstacle information.
It is preferable that the map / area information 53 be sequentially updated with information obtained when the robot 1 moves.

【0043】個人認証データ54は、個人認証に使用さ
れるデータ、具体的には顔、指紋、手形、虹彩、声紋、
体型(骨格)などの特徴量、もしくは、暗証番号、ID
カード等に記憶された磁気もしくは電気的な情報などの
IDデータと、個人名を関連付ける情報を含む。個人認
証は、中央演算部11が、個人認証データ54と、セン
サ20で入手した特徴量やIDデータを基に行なう。使
用されるデータは、単数、もしくはいずれかの組合せに
より行なわれる。個人認証は、ロボット1が電子メール
を受信した時に、提示する相手を確認するために行なわ
れる場合がある。
The personal authentication data 54 includes data used for personal authentication, specifically, face, fingerprint, handprint, iris, voiceprint,
Features such as body type (skeleton), or PIN, ID
It includes information that associates ID data such as magnetic or electrical information stored on a card or the like with a personal name. The personal authentication is performed by the central processing unit 11 based on the personal authentication data 54 and the feature amount and ID data obtained by the sensor 20. The data used is performed singly or in any combination. The personal authentication may be performed when the robot 1 receives the e-mail to confirm the partner to be presented.

【0044】感情表現データ55は、感情表現と感情伝
達要素、感情伝達要素と感情伝達表現を関連付けるデー
タである。感情表現データには、ロボット1がセンサ2
0で感知した送信者の感情表現と電子メールに織り込む
感情伝達要素を関連付ける使用者感情データと、ロボッ
ト1が電子メールから抽出した感情伝達要素と感情伝達
表現を関連付けるロボット感情データの2種類がある。
ロボット1は、電子メールの送受信を行なうので、入力
時に使用される使用者感情データと出力時に使用される
ロボット感情データの両方記憶していることが好まし
い。
The emotion expression data 55 is data for associating the emotion expression with the emotion transmission element and the emotion transmission element with the emotion transmission expression. In the emotion expression data, the robot 1 has the sensor 2
There are two types of user emotion data, which associates the emotional expression of the sender sensed with 0 and the emotional communication element incorporated in the electronic mail, and robot emotional data which associates the emotional communication element extracted from the electronic mail with the emotional communication expression. .
Since the robot 1 sends and receives e-mails, it is preferable to store both user emotion data used at the time of input and robot emotion data used at the time of output.

【0045】入力装置60は、スイッチ61、キー6
2、カード読取装置63に代表され、ロボット1の機能
に合わせ、必要な入力装置が単数または複数選択されて
装着される。スイッチ61は、電源や各種設定などを入
力するスイッチである。複数のキー62がキーボード等
を形成し、暗証番号の入力や各種設定、命令を入力する
ことができる。また、使用者は、キー62で電子メール
の入力をすることができる。カード読取装置63は、個
人認証時に、IDカードの磁気や電気的信号を読み取る
ために使用される場合がある。
The input device 60 includes a switch 61 and a key 6
2. One or a plurality of necessary input devices are selected and mounted according to the function of the robot 1, as represented by the card reader 63. The switch 61 is a switch for inputting power, various settings, and the like. The plurality of keys 62 form a keyboard or the like, and can input a personal identification number, various settings, and instructions. Further, the user can input an e-mail with the key 62. The card reader 63 may be used to read the magnetic or electrical signals of the ID card during personal authentication.

【0046】通信装置70は、送受信部71を具備し、
インターネットやイントラネットを通じて、電子メール
等の情報を送受信できる。通信は、無線通信であること
が好ましい。無線通信でない場合でも、ロボット1は通
常待機中は、特定の端子でネットワークに接続してお
り、移動するときは、接続を切り離すように構成するこ
ともできる。
The communication device 70 includes a transmission / reception unit 71,
Information such as e-mail can be transmitted and received via the Internet or an intranet. Preferably, the communication is a wireless communication. Even in the case of non-wireless communication, the robot 1 is normally connected to the network at a specific terminal during standby, and may be configured to disconnect when moving.

【0047】(実施の形態1)図3を参照して、送信者
が受信者へ本発明のロボット1を使用して電子メールを
送信する時の送信者に使用されるロボット1の動作、お
よび、受信者がロボット1を使用して電子メールを見る
時の受信者に使用されるロボット1の動作が説明され
る。送信者に使用されるロボット1と受信者に使用され
るロボット1は別々のロボットで同様のメール入力機能
および再生機能をもつ。ここでは、送信者側ロボットを
ロボット1a、受信者側ロボットをロボット1bとして
区別する。但し、2台のロボットは全く同じである必要
はなく、設定やタイプの違いによる保有する機能の相
違、使用者の設定や学習により、それぞれの別の機能や
個性を持つ場合がある。
(Embodiment 1) Referring to FIG. 3, operation of robot 1 used by sender when sender sends electronic mail to receiver using robot 1 of the present invention, and The operation of the robot 1 used by the recipient when the recipient views the e-mail using the robot 1 will be described. The robot 1 used for the sender and the robot 1 used for the receiver are separate robots and have the same mail input function and reproduction function. Here, the sender robot is identified as the robot 1a, and the receiver robot is identified as the robot 1b. However, the two robots do not need to be exactly the same, and may have different functions and individualities depending on the differences in the functions possessed by the different settings and types, and the settings and learning of the user.

【0048】送信者が、ロボット1aの入力装置60ま
たはセンサ20を使用して電子メールの送信内容を入力
する(SA1)。入力は、文字に変換される音声入力の
場合と、キー入力の場合がある。ロボット1aは、入力
中の送信者をセンサ20で観察し、送信者の感情表現を
検出する(SA2)。演算装置10は、センサ20で検
出した感情表現を、感情表現データ55を参照して、感
情伝達要素に変換する。感情伝達要素は既定のコード等
で表される。演算装置10は、感情伝達要素を、送信者
がその感情表現をした時に入力した電子メールの文章中
に、不可視のコードで挿入する(SA3)。ロボット1
aは、ネットワークを介して、通信装置70で受信者へ
電子メールを送信する(SA4)。
The sender uses the input device 60 or the sensor 20 of the robot 1a to input the transmission contents of the e-mail (SA1). The input may be a voice input converted to a character or a key input. The robot 1a observes the input sender with the sensor 20, and detects the emotional expression of the sender (SA2). The arithmetic device 10 converts the emotion expression detected by the sensor 20 into an emotion transmission element with reference to the emotion expression data 55. The emotion transmission element is represented by a predetermined code or the like. Arithmetic device 10 inserts the emotion transmission element into the text of the e-mail input when the sender expressed the emotion using an invisible code (SA3). Robot 1
“a” transmits an e-mail to the recipient by the communication device 70 via the network (SA4).

【0049】感情伝達要素が不可視のコードで挿入され
ることにより、受信者が電子メールを読む時に障害にな
らず、また、受信者側のロボット1bもしくは端末に感
情伝達要素を再現できる機能が無くても受信者が電子メ
ールを読む時に障害にならない。
Since the emotion transmitting element is inserted in an invisible code, the receiver does not have an obstacle when reading the e-mail, and the receiver 1b or the terminal has no function of reproducing the emotion transmitting element. It does not hinder the recipient from reading the email.

【0050】ロボット1bは、電子メールを受信する
(SB1)。ロボット1bは、演算装置10で、受信し
た電子メール内の感情伝達要素を抽出する(SB2)。
ロボット1bは、抽出した感情伝達要素から、感情表現
データ55’を参照して、感情伝達表現を検索する(S
B3)。ロボット1bは、電子メールを受信者に提示し
ながら動作装置40や出力装置30で感情伝達表現を実
施する(SB4)。ロボット1bによる電子メールの提
示は、受信者の選択により、モニタ31での表示でも、
スピーカ32からの合成音による音声提示でもすること
ができる。
The robot 1b receives the electronic mail (SB1). The robot 1b causes the arithmetic unit 10 to extract an emotion transmission element in the received e-mail (SB2).
The robot 1b searches for the emotional communication expression from the extracted emotional communication element by referring to the emotional expression data 55 '(S
B3). The robot 1b performs an emotional communication expression using the operation device 40 or the output device 30 while presenting the electronic mail to the recipient (SB4). The presentation of the e-mail by the robot 1b can be performed on the monitor 31 depending on the recipient's selection.
It is also possible to present a voice by a synthesized sound from the speaker 32.

【0051】ここで、ロボット1aが記憶している感情
表現データ55とロボット1bが記憶している感情表現
データ55’は、同じ感情伝達要素を含むことが好まし
い。さらに、感情伝達要素を介して変換される感情表現
と感情伝達表現は、同じ感情を表すものであることが好
ましい。但し、ロボット1aの感情表現データ55とロ
ボット1bの感情表現データ55’は、全く同じ必要は
なく、ロボットの機能や使用者の好みによって、感情伝
達表現などを変更することもできる。従って、同じ内容
のメールを複数人に送付した場合、それぞれの受信者の
ロボット1bが、全く同じ感情伝達表現をしない場合が
あってもよい。
Here, it is preferable that the emotion expression data 55 stored by the robot 1a and the emotion expression data 55 'stored by the robot 1b include the same emotion transmission element. Further, it is preferable that the emotional expression and the emotional expression that are converted via the emotional communication element represent the same emotion. However, the emotion expression data 55 of the robot 1a and the emotion expression data 55 ′ of the robot 1b do not need to be exactly the same, and the emotion expression can be changed according to the function of the robot and the preference of the user. Therefore, when an e-mail with the same content is sent to a plurality of persons, the robot 1b of each recipient may not express the same emotional expression.

【0052】(実施の形態2)図4を参照して、送信者
が受信者へ本発明のロボット1を使用して電子メールを
送信する時、送信者に使用されるロボット1の動作、お
よび、受信者がロボット1を使用して電子メールを見る
時、受信者に使用されるロボット1の動作が説明され
る。本実施の形態では、送信者が意識的に電子メールに
感情伝達要素を挿入する場合が説明される。送信者に使
用されるロボット1aと受信者に使用されるロボット1
bは別々のロボットで同様のメール入力機能および再生
機能を持つ。ここでは、送信者側ロボット1をロボット
1a、受信者側ロボット1をロボット1bとして区別す
る。ただし、本実施例ではロボット1aは通常の端末で
もよい。
(Embodiment 2) Referring to FIG. 4, when a sender sends an e-mail to a recipient using robot 1 of the present invention, the operation of robot 1 used by the sender and The operation of the robot 1 used by the recipient when the recipient views the e-mail using the robot 1 will be described. In the present embodiment, a case will be described in which the sender intentionally inserts an emotion transmission element into an electronic mail. Robot 1a used for sender and robot 1 used for receiver
b is a separate robot having the same mail input function and reproduction function. Here, the sender robot 1 is distinguished as the robot 1a, and the receiver robot 1 is identified as the robot 1b. However, in this embodiment, the robot 1a may be a normal terminal.

【0053】送信者が、ロボット1aを使用して、入力
装置60またはセンサ20から電子メールの送信内容を
入力する(SC1)。入力は、文字に変換される音声入
力の場合と、キー入力の場合がある。送信者は、電子メ
ールを入力しながら感情伝達要素を入力する。感情伝達
要素の入力は、決められた括弧などの中に、既定のコー
ド等を入力することにより行なわれる。感情伝達要素を
送信者が記憶する、もしくは表などを参照しながら感情
伝達要素を入力することは、入力の効率がよくないの
で、簡潔に入力できる機能があることが好ましい。具体
的には、感情伝達要素入力用に文字を感情伝達要素に変
換する機能や、画面上に感情、または、ロボット1bが
実行する感情伝達表現を表すイラストなどを提示して、
それを文章の入力したい箇所で選択することにより感情
伝達要素を入力する機能を付加することなどである。ま
た、すでに多く使用されている顔文字などを感情伝達要
素として使用できるように構成することもできる。
The sender uses the robot 1a to input the contents of the e-mail from the input device 60 or the sensor 20 (SC1). The input may be a voice input converted to a character or a key input. The sender inputs the emotional communication element while inputting the e-mail. The input of the emotion transmission element is performed by inputting a predetermined code or the like in predetermined parentheses or the like. Since it is not efficient for the sender to memorize the emotional communication element or to input the emotional communication element while referring to a table or the like, it is preferable that the sender has a function that can simply input the element. Specifically, a function for converting a character to an emotion transmission element for inputting an emotion transmission element, an emotion on the screen, or an illustration representing an emotion transmission expression executed by the robot 1b is presented.
A function of inputting an emotional communication element by selecting it at a place where the user wants to input a sentence is added. It is also possible to configure so that emoticons and the like that are already frequently used can be used as emotion transmission elements.

【0054】ロボット1aは、ネットワークとを介し
て、受信者へ電子メールを送信する(SC3)。
The robot 1a sends an e-mail to the recipient via the network (SC3).

【0055】ロボット1bの動作は、実施の形態1と同
様である。ロボット1bは、電子メールを受信する(S
B1)。ロボット1bは受信した電子メール内の感情伝
達要素を抽出する(SB2)。ロボット1bは、抽出し
た感情伝達要素から、感情表現データ55’を参照し
て、感情伝達表現を検索する(SB3)。ロボット1b
は、電子メールを受信者に提示しながら感情伝達表現を
実施する(SB4)。
The operation of the robot 1b is the same as in the first embodiment. The robot 1b receives the e-mail (S
B1). The robot 1b extracts an emotion transmission element in the received e-mail (SB2). The robot 1b searches for the emotional communication expression from the extracted emotional communication element by referring to the emotional expression data 55 '(SB3). Robot 1b
Performs an emotional communication expression while presenting an electronic mail to the recipient (SB4).

【0056】上記のように、送信者が感情伝達表現を入
力できることにより、自由に、かつ、好きな感情伝達要
素を、電子メールに挿入することができる。また、本実
施例では、送信者のロボット1aは、ロボット1である
必要はなく、どんな端末からでも入力することができ
る。
As described above, since the sender can input the emotional expression, the user can freely and freely insert an emotional expression element into the electronic mail. In this embodiment, the sender's robot 1a does not need to be the robot 1 and can be input from any terminal.

【0057】(実施の形態3)図5を参照して、送信者
が受信者へ本発明のロボット1aを使用して電子メール
を送信する時、送信者に使用されるロボット1aの動
作、および、受信者がロボット1bを使用して電子メー
ルを見る時、受信者に使用されるロボット1bの動作が
説明される。本実施の形態では、送信者が電子メールに
感情伝達要素を挿入しない場合でロボット1bが感情伝
達表現を実施する場合が説明される。送信者に使用され
るロボット1aと受信者に使用されるロボット1bは別
々のロボットで同様のメール入力機能及び再生機能を持
つ。ここでは、送信者側ロボット1をロボット1a、受
信者側ロボット1をロボット1bとして区別する。ただ
し、本実施例ではロボット1aは通常の端末でもよい。
(Embodiment 3) Referring to FIG. 5, when a sender sends an e-mail to a receiver using robot 1a of the present invention, the operation of robot 1a used by the sender, and The operation of the robot 1b used by the recipient when the recipient views the e-mail using the robot 1b will be described. In the present embodiment, a case will be described in which the robot 1b performs an emotion transfer expression when the sender does not insert an emotion transfer element into the electronic mail. The robot 1a used for the sender and the robot 1b used for the receiver are separate robots and have the same mail input function and reproduction function. Here, the sender robot 1 is distinguished as the robot 1a, and the receiver robot 1 is identified as the robot 1b. However, in this embodiment, the robot 1a may be a normal terminal.

【0058】本実施の形態では、送信者およびロボット
1aは電子メールに、とくべつに感情伝達要素を挿入し
ない。送信者は、普通に電子メールを入力する(SD
1)。ロボット1aは、電子メールを送信する(SD
2)。送信者側は、従来と同じ様に電子メールを送信す
るので、従来の端末を使用できる。
In the present embodiment, the sender and the robot 1a do not particularly insert an emotion transmission element into the electronic mail. The sender normally enters an e-mail (SD
1). The robot 1a sends an e-mail (SD
2). Since the sender sends the e-mail in the same manner as in the related art, the conventional terminal can be used.

【0059】ロボット1bは、電子メールを受信する
(SB1)。ロボット1bは受信した電子メール内の感
情伝達要素を抽出する(SB2)。ここでの、感情伝達
要素は、送信者が電子メール中に使用した感情を表す言
葉である。具体的には、「嬉しい」「悲しい」「喜ぶ」
「怒る」「好きだ」「嫌いだ」「疲れた」などの言葉で
ある。また、「愛」「恋」などの言葉も感情伝達要素と
して使用できる。ロボット1bは、抽出した感情伝達要
素から、感情表現データ55’を参照して、感情伝達表
現を検索する(SB3)。ロボット1bは、電子メール
を受信者に提示しながら感情伝達表現を実施する(SB
4)。
The robot 1b receives the electronic mail (SB1). The robot 1b extracts an emotion transmission element in the received e-mail (SB2). Here, the emotion transmission element is a word representing the emotion used by the sender in the e-mail. Specifically, "happy", "sad", "pleased"
These words are "angry,""like,""dislike," and "tired." Words such as "love" and "love" can also be used as emotional communication elements. The robot 1b searches for the emotional communication expression from the extracted emotional communication element by referring to the emotional expression data 55 '(SB3). The robot 1b performs the emotional communication expression while presenting the e-mail to the recipient (SB
4).

【0060】上記の実施例のように、電子メールの文章
中に使用される言葉を感情伝達要素として使用すること
により、送信者は入力時に特に既定のコード等を入力す
る必要はない。また、受信者は、どんな文章も、感情伝
達表現付で見ることができる。
As in the above embodiment, by using words used in the sentence of the e-mail as the emotional communication element, the sender does not need to input a predetermined code or the like when inputting. In addition, the recipient can see any sentence with an emotional expression.

【0061】上記の3つの実施例の他、付帯的な機能と
して以下の機能を付加することができる。ロボット1b
に、メールの送信者の声や性格等の個人情報を、事前に
入力しておき、それに基づきロボットが行なう感情伝達
表現を変化させる機能である。具体的には、事前に甲さ
んの年齢、受信者との関係、性別、性格、声、癖などの
個人データを入力する。ロボット1bは、電子メールを
受信した時、送信者を確認し、甲さんであれば、甲さん
の個人データを検索し、個人データにより修正された感
情伝達表現を行なう。これにより、ロボット1bの感情
表現を送信者本人の感情表現により近づけるけることが
できる。受信者は、送信者をよりイメージすることがで
きる。
In addition to the above three embodiments, the following functions can be added as additional functions. Robot 1b
The function is to input personal information such as the voice and character of the sender of the mail in advance, and to change the expression of emotional communication performed by the robot based on the personal information. Specifically, personal data such as the age of Kou, the relationship with the recipient, gender, personality, voice, and habit are input in advance. When receiving the e-mail, the robot 1b confirms the sender, and if it is Mr. Ko, retrieves the personal data of Mr. Ko and performs an emotional communication expression modified by the personal data. Thereby, the emotional expression of the robot 1b can be made closer to the emotional expression of the sender. The recipient can more image the sender.

【0062】本発明は、ロボット1に限られず、通常の
パソコンなどのメール端末でもよい。この場合、ジェス
チャーなどを行なう機能がないため、画面表示や音声表
示で感情伝達表現を行なう。
The present invention is not limited to the robot 1, but may be an ordinary mail terminal such as a personal computer. In this case, since there is no function of performing a gesture or the like, emotional expression is performed by screen display or voice display.

【0063】さらに、感情伝達要素を挿入するのは電子
メールの文章に限られず、電子的に製作される文章であ
れば、通常のワードプロッセッサプログラムで作成する
文章でもよい。この場合、文章が開かれることで感情伝
達表現が行なわれる。
Further, the insertion of the emotion transmission element is not limited to the sentence of the e-mail, but may be a sentence created by an ordinary word processor program as long as the sentence is electronically created. In this case, the sentence is opened to perform the emotional communication expression.

【0064】上記のように、ロボット1bが感情表現す
ることにより、文字では伝達できない視覚や聴覚感情を
視覚や聴覚等で伝達することができる。
As described above, when the robot 1b expresses emotions, visual and auditory emotions that cannot be transmitted by characters can be transmitted by sight and hearing.

【0065】上記実施例では、ロボット1aが送信用、
ロボット1bが受信用に使用されているが、各ロボット
1a、1bが送信用および受信用の機能を有し、どちら
の用途でも使用できる。
In the above embodiment, the robot 1a is used for transmission,
Although the robot 1b is used for reception, the robots 1a and 1b have functions for transmission and reception, and can be used for both purposes.

【0066】[0066]

【発明の効果】本発明の感情伝達装置は、電子文章の作
成者が、文章中に文字表現に加えて感情に対応する感情
伝達要素を加えることができ、また、電子文章を読む者
が、文章の内容に加えられた感情伝達要素を、感情伝達
表現として視覚や聴覚等の手段で感じることができる。
According to the emotion transmission device of the present invention, the creator of the electronic text can add an emotion transmission element corresponding to the emotion in addition to the character expression in the text. The emotional communication element added to the contents of the sentence can be sensed by means such as sight and hearing as an emotional communication expression.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明のロボットの外観の例を示す。FIG. 1 shows an example of the appearance of a robot of the present invention.

【図2】図2は本発明のロボットの構成を示す。FIG. 2 shows a configuration of a robot according to the present invention.

【図3】図3は本発明のロボットが感情を伝達する電子
メールを作成し、提示するフローを示す。
FIG. 3 shows a flow in which the robot of the present invention creates and presents an e-mail for transmitting an emotion.

【図4】図4は本発明のロボットが感情を伝達する電子
メールを作成し、提示する別の形態のフローを示す。
FIG. 4 shows a flow of another form in which the robot of the present invention creates and presents an e-mail for transmitting an emotion.

【図5】図5は本発明のロボットが感情を伝達する電子
メールを作成し、提示する別の形態のフローを示す。
FIG. 5 shows a flow of another form in which the robot of the present invention creates and presents an e-mail for transmitting an emotion.

【符号の説明】[Explanation of symbols]

1、1a、1b ロボット 2 頭部 3 胴部 10 演算装置 11 中央演算部 12 センサ情報処理部 13 出力装置制御部 14 動作装置制御部 17 通信情報処理部 20 センサ 21 カメラ 22 マイク 23 赤外線センサ 24 重量感知器 25 触覚感知器 26 姿勢感知器 30 出力装置 31 モニタ 32 スピーカ 33 発光部 34 印刷部 40 動作装置 41 移動機構 42 アーム 43 ハンド 44 本体/首動作機構 50 記憶装置 51 動作履歴 52 通信情報 53 地図/領域情報 54 個人認証データ 55 感情表現データ 60 入力装置 61 スイッチ 62 キー 70 通信装置 71 送受信部 1, 1a, 1b robot 2 head 3 torso 10 arithmetic unit 11 Central processing unit 12 Sensor information processing unit 13 Output device controller 14 Operating device controller 17 Communication information processing unit 20 sensors 21 Camera 22 microphone 23 Infrared sensor 24 Weight Sensor 25 Tactile sensor 26 Attitude sensor 30 Output device 31 monitor 32 speakers 33 Light emitting unit 34 Printing Department 40 Operating device 41 Moving mechanism 42 arm 43 hands 44 Main body / neck movement mechanism 50 storage devices 51 Operation history 52 Communication information 53 Map / Area Information 54 Personal authentication data 55 Emotional expression data 60 input device 61 switch 62 keys 70 Communication device 71 Transceiver

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】入力者により文章が入力される入力部と、 前記文章を入力する入力者の感情表現を検出するセンサ
と、 前記感情表現と既定のコードとを対応付けるデータを含
む感情表現データを記憶する記憶部と、 演算部と、を備え、 前記入力者が前記入力部で文章を入力している時に、前
記センサは前記入力者の感情表現を検出し、 前記演算部は、前記感情表現データを参照して検出され
た前記感情表現に対応付けられた前記コードを検索し、
前記文章に検索された前記コードを挿入する、 感情伝達装置。
1. An input unit to which a sentence is input by an input person, a sensor for detecting an emotion expression of the input person who inputs the sentence, and emotion expression data including data for associating the emotion expression with a predetermined code. A storage unit for storing; and a calculation unit, wherein the sensor detects an emotion expression of the input person when the input person is inputting a sentence with the input unit, Searching for the code associated with the emotional expression detected by referring to the data,
An emotion transmission device for inserting the searched code into the sentence.
【請求項2】請求項1に記載された感情伝達装置におい
て、 さらに、送信部を備え、 前記文章は電子メールの文章であり、 前記送信部は、前記コードが挿入された電子メールを送
信する、 感情伝達装置。
2. The emotion transmission device according to claim 1, further comprising a transmission unit, wherein the text is a text of an electronic mail, and the transmission unit transmits the electronic mail in which the code is inserted. , Emotion transmission device.
【請求項3】請求項1または2のいずれかに記載された
感情伝達装置において、 前記感情表現は、表情、顔色、視線方向、瞬き回数・頻
度、瞳孔の開き、発話内容、声のトーン、話す速さ、声
色、話す間合い、身振り、体温の変化、動悸、発汗、皮
膚電位、呼吸の変化、脳波、脈拍、血圧のいずれか、も
しくはいずれかの組合わせである、 感情伝達装置。
3. The emotion transmission device according to claim 1, wherein the emotion expression includes an expression, a complexion, a gaze direction, the number of blinks / frequency, a pupil opening, an utterance content, a voice tone, An emotional communication device that is one or a combination of speaking speed, timbre, speaking interval, gesture, changes in body temperature, palpitations, sweating, skin potential, changes in breathing, brain waves, pulse, and blood pressure.
【請求項4】文章を出力する出力部と、 感情を表す動作である感情伝達表現を実施する表現部
と、 文章に挿入される既定のコードと前記感情伝達表現とを
関連付ける情報を含む感情表現データを記憶する記憶部
と演算部と、を備え、 前記演算部は、前記コードが挿入された文章を前記出力
部で出力するように制御する時に、前記コードを抽出
し、前記感情表現データを参照して、前記コードに対応
付けられた前記感情伝達表現を検索し、前記表現部が前
記感情伝達表現を実施するように制御する、 感情伝達装置。
4. An output unit for outputting a sentence, an expression unit for performing an emotion transfer expression that is an operation representing an emotion, and an emotion expression including information for associating a predetermined code inserted in the sentence with the emotion transfer expression. A storage unit for storing data and an operation unit, the operation unit, when controlling to output the sentence in which the code is inserted to the output unit, extract the code, the emotion expression data An emotion transmission device that references the emotion transmission expression associated with the code, and controls the expression unit to execute the emotion transmission expression.
【請求項5】文章を出力する出力部と、 感情を表す動作である感情伝達表現を実施する表現部
と、 文章に使用される特定の言葉と前記感情伝達表現とを関
連付ける情報を含む感情表現データを記憶する記憶部
と、 演算部と、を備え、 前記演算部は、前記特定の言葉が使用された文章を前記
出力部で出力するように制御する時に、前記特定の言葉
を抽出し、前記感情表現データを参照して、前記特定の
言葉に対応付けられた前記感情伝達表現を検索し、前記
表現部が前記感情伝達表現を実施するように制御する、 感情伝達装置。
5. An output unit for outputting a sentence, an expression unit for performing an emotion-conveying expression, which is an operation representing an emotion, and an emotion expression including information for associating a specific word used in a sentence with the emotion-conveying expression. A storage unit that stores data; and an operation unit, wherein the operation unit extracts the specific word when controlling to output a sentence in which the specific word is used by the output unit, An emotion transmission device that searches for the emotion transmission expression associated with the specific word with reference to the emotion expression data, and controls the expression unit to execute the emotion transmission expression.
【請求項6】請求項4もしくは5のいずれかに記載され
た感情伝達装置において、 さらに、受信部を備え、 前記文章は電子メールの文章であり、 前記受信部は、前記電子メールを受信する、 感情伝達装置。
6. The emotion transmitting device according to claim 4, further comprising a receiving unit, wherein the sentence is a sentence of an e-mail, and wherein the receiving unit receives the e-mail. , Emotion transmission device.
【請求項7】請求項4〜6のいずれかに記載された感情
伝達装置において、前記表現部は、表情に相当する表示
を行なう表示部、目に擬制される発光部、音声を発生す
るスピーカ、手・足・首・本体に相当する部分、図形を
表示するモニタのいずれか、もしくはいずれかの組合わ
せである、 感情伝達装置。
7. An emotion transmitting device according to claim 4, wherein said expression section includes a display section for displaying a display corresponding to a facial expression, a light emitting section imitating eyes, and a speaker for generating voice. An emotion transmission device, which is a part corresponding to a hand, a foot, a neck, a main body, a monitor for displaying a graphic, or a combination of any of them.
【請求項8】請求項7に記載された感情伝達装置におい
て、 前記感情伝達表現は、前記表示部の表情に相当する表
示、顔に相当する部分の色の変化、メール表示色の変
化、前記目に擬制される発光部の視線方向・瞬き(点
滅)頻度・大きさ・色、点滅や色の変化、前記スピーカ
の発生する音声のトーン、話す速さ、声色、間合い、音
楽(効果音を含む)、前記手・足・首・本体の動き、前
記モニタに表示された図形の変化のいずれか、もしくは
いずれかの組合わせである、 感情伝達装置。
8. The emotion transmission device according to claim 7, wherein the emotion transmission expression is a display corresponding to an expression of the display unit, a color change of a portion corresponding to a face, a change of a mail display color, Eye-gaze direction, blinking (blinking) frequency, size, color, blinking and color change of the light emitting part simulated by eyes, tone of voice generated by the speaker, speaking speed, voice color, interval, music (effects And the movement of the hand, the foot, the neck, the main body, and the change of the graphic displayed on the monitor, or any combination thereof.
JP2002150690A 2002-05-24 2002-05-24 Device for transmitting feeling Withdrawn JP2003345727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002150690A JP2003345727A (en) 2002-05-24 2002-05-24 Device for transmitting feeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002150690A JP2003345727A (en) 2002-05-24 2002-05-24 Device for transmitting feeling

Publications (1)

Publication Number Publication Date
JP2003345727A true JP2003345727A (en) 2003-12-05

Family

ID=29768483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002150690A Withdrawn JP2003345727A (en) 2002-05-24 2002-05-24 Device for transmitting feeling

Country Status (1)

Country Link
JP (1) JP2003345727A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352154A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device of reactively operating to feeling condition
JP2005352151A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device and method to output music in accordance with human emotional condition
US7707268B2 (en) 2004-04-07 2010-04-27 Sony Corporation Information-processing apparatus, information-processing methods and programs
JP2012191662A (en) * 2012-06-15 2012-10-04 Casio Comput Co Ltd Electronic data editing device, electronic data editing method and program
US8315652B2 (en) 2007-05-18 2012-11-20 Immersion Corporation Haptically enabled messaging
JP2016224761A (en) * 2015-06-01 2016-12-28 日本電信電話株式会社 Robot, emotion expressing method, and emotion expressing program
JPWO2019160104A1 (en) * 2018-02-16 2021-01-07 日本電信電話株式会社 Non-verbal information generator, non-verbal information generation model learning device, method, and program
JP2021510851A (en) * 2018-01-26 2021-04-30 上海智臻智能網絡科技股▲ふん▼有限公司Shanghai Xiaoi Robot Technology Co.,Ltd. Intelligent interaction methods, devices, computer devices and computer readable storage media
CN113643584A (en) * 2021-08-16 2021-11-12 中国人民解放军陆军特色医学中心 Robot for training doctor-patient communication ability and working method thereof
US11404063B2 (en) 2018-02-16 2022-08-02 Nippon Telegraph And Telephone Corporation Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs
WO2023243431A1 (en) * 2022-06-15 2023-12-21 ソニーグループ株式会社 Nursing-care robot, method for controlling nursing-care robot, and information processing device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7707268B2 (en) 2004-04-07 2010-04-27 Sony Corporation Information-processing apparatus, information-processing methods and programs
JP2005352151A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device and method to output music in accordance with human emotional condition
JP4627154B2 (en) * 2004-06-10 2011-02-09 独立行政法人情報通信研究機構 Music output device and music output method according to human emotional state
JP2005352154A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device of reactively operating to feeling condition
US9197735B2 (en) 2007-05-18 2015-11-24 Immersion Corporation Haptically enabled messaging
US8315652B2 (en) 2007-05-18 2012-11-20 Immersion Corporation Haptically enabled messaging
JP2014017823A (en) * 2007-05-18 2014-01-30 Immersion Corp Haptic content in text message
KR101490092B1 (en) 2007-05-18 2015-02-04 임머숀 코퍼레이션 Haptical content in a text message
KR101491189B1 (en) 2007-05-18 2015-02-06 임머숀 코퍼레이션 Haptical content in a text message
JP2012191662A (en) * 2012-06-15 2012-10-04 Casio Comput Co Ltd Electronic data editing device, electronic data editing method and program
JP2016224761A (en) * 2015-06-01 2016-12-28 日本電信電話株式会社 Robot, emotion expressing method, and emotion expressing program
JP2021510851A (en) * 2018-01-26 2021-04-30 上海智臻智能網絡科技股▲ふん▼有限公司Shanghai Xiaoi Robot Technology Co.,Ltd. Intelligent interaction methods, devices, computer devices and computer readable storage media
US11373641B2 (en) 2018-01-26 2022-06-28 Shanghai Xiaoi Robot Technology Co., Ltd. Intelligent interactive method and apparatus, computer device and computer readable storage medium
JPWO2019160104A1 (en) * 2018-02-16 2021-01-07 日本電信電話株式会社 Non-verbal information generator, non-verbal information generation model learning device, method, and program
US11404063B2 (en) 2018-02-16 2022-08-02 Nippon Telegraph And Telephone Corporation Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs
JP7140984B2 (en) 2018-02-16 2022-09-22 日本電信電話株式会社 Nonverbal information generation device, nonverbal information generation model learning device, method, and program
CN113643584A (en) * 2021-08-16 2021-11-12 中国人民解放军陆军特色医学中心 Robot for training doctor-patient communication ability and working method thereof
WO2023243431A1 (en) * 2022-06-15 2023-12-21 ソニーグループ株式会社 Nursing-care robot, method for controlling nursing-care robot, and information processing device

Similar Documents

Publication Publication Date Title
JP4085926B2 (en) Information processing terminal and communication system
US11354511B2 (en) Information processing device, information processing method, and recording medium
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
Rovers et al. HIM: A framework for haptic instant messaging
JP2005237561A (en) Information processing device and method
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
WO2022079933A1 (en) Communication supporting program, communication supporting method, communication supporting system, terminal device, and nonverbal expression program
CN107004414A (en) Message processing device, information processing method and program
JP2003345727A (en) Device for transmitting feeling
Park et al. Designing across senses: A multimodal approach to product design
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
JP2013511087A (en) How to create virtual facial expressions
US11550470B2 (en) Grammar dependent tactile pattern invocation
JP2021051693A (en) Utterance system, utterance recommendation device, utterance recommendation program, and utterance recommendation method
JP6990472B1 (en) A system for communicating with people and a program for that purpose
Anson Assistive technology for people with disabilities
Mulgund et al. Human/machine interface modalities for soldier systems technologies
CN111819565A (en) Data conversion system, data conversion method, and program
US20240161651A1 (en) Sign to speech device
WO2022215725A1 (en) Information processing device, program, and information processing method
Teyssier Anthropomorphic devices for affective touch communication
Deneke Enabling people with motor impairments to get around in 360° video experiences: Concept and prototype of an adaptable control systemEnabling people with motor impairments to get around in 360° video experiences: Concept and prototype of an adaptable control system
Gamboa Montero Acoustic-based Smart Tactile Sensing in Social Robots
JP2022165335A (en) Communication system and coaching system
WO2023196671A1 (en) Techniques for neuromuscular-signal-based detection of in-air hand gestures for text production and modification, and systems, wearable devices, and methods for using these techniques

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802