JP2003345727A - Device for transmitting feeling - Google Patents

Device for transmitting feeling

Info

Publication number
JP2003345727A
JP2003345727A JP2002150690A JP2002150690A JP2003345727A JP 2003345727 A JP2003345727 A JP 2003345727A JP 2002150690 A JP2002150690 A JP 2002150690A JP 2002150690 A JP2002150690 A JP 2002150690A JP 2003345727 A JP2003345727 A JP 2003345727A
Authority
JP
Japan
Prior art keywords
emotion
unit
expression
emotional
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002150690A
Other languages
Japanese (ja)
Inventor
Shintaro Kumano
Masahito Takuhara
雅人 宅原
信太郎 熊野
Original Assignee
Mitsubishi Heavy Ind Ltd
三菱重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Ind Ltd, 三菱重工業株式会社 filed Critical Mitsubishi Heavy Ind Ltd
Priority to JP2002150690A priority Critical patent/JP2003345727A/en
Publication of JP2003345727A publication Critical patent/JP2003345727A/en
Application status is Withdrawn legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a feelings transmitting device for enabling an electronic sentence originator to add a feeling transmission element corresponding to a feeling into a sentence in addition to character expression and also for enabling a person reading the electronic sentence to feel the feeling transmission element added to contents of the sentence as feeling transmission expression by means of the senses of sight and hearing. <P>SOLUTION: When an operating part (10) of the feelings transmitting device controls an output part (30) so as to output a sentence with a code being a feeling transmission element inserted thereinto, the operating part (10) extracts the code being the feeling transmission element, refers to feeling expression data (55), retrieves feeling transmission expression associated with the code being the feeling transmission element and controls a representing part so as to perform the feeling transmission expression. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、感情伝達装置に関し、特に電子メール入力時に感情を伝達するための要素をメールに含め、電子メール再生時に感情を伝達するための要素から感情を伝達するための表現を実施する感情伝達装置に関する。 BACKGROUND OF THE INVENTION The present invention relates to emotional transmission device, in particular including the write elements for transmitting emotion when e-mail input, for transmitting the emotion from the element for transmitting emotion when e-mail retrieval about emotion transmission apparatus for carrying out the representation.

【0002】 [0002]

【従来の技術】インターネットやイントラネット等のネットワークを通じて、電子メール等の電子情報が送受信されている。 Through the Background of the Invention Internet or an intranet or the like of the network, electronic information such as e-mail is sent and received. 従来電子メールを入力する手段として、キーボード入力、音声を文字に置換する音声入力が一般的である。 As means for inputting the conventional e-mail, voice input to substitute keyboard input, voice character is common. また、電子メールを提示する手段としては、モニタでの文章表示、印刷による表示、音声合成による発音表示等が一般的である。 As the means for presenting the e-mail, text displayed on the monitor, display by print, has sound generation display due speech synthesis is common.

【0003】電子メールの送受信で送信者の感情を受信者に伝達するためには、送信者が感情を込めた文章を作成し、受信者はその文章から送信者の感情を推察するしかなく、送信者の伝えたい感情が受信者に十分に伝わらない場合がある。 [0003] In order to convey the emotion of the sender to the recipient at the sending and receiving of e-mail, create a text that the sender was emotion, the recipient is not only to infer the emotion of the sender from the sentence, there is a case in which emotion you want to tell the sender does not sufficiently transmitted to the recipient.

【0004】また、電子メールは通常、決められたフォントの中から選択された文字を使用するため、手書きの手紙などに比べ感情の伝達が難しい場合がある。 [0004] In addition, the e-mail is usually, in order to use the selected character from the determined font, it may be difficult transmission of emotion compared to such as handwritten letter. さらに、電子メール上で感情を表現する方法は、文章や記号に限られ表現するのに限界がある。 In addition, how to express emotion on the e-mail is limited to text and symbols there is a limit to represent.

【0005】近年、携帯電話などの小さい画面上の提示スペースで感情を表現するために、顔文字などの記号が使用される場合がある。 [0005] In recent years, in order to express the feelings in the presentation space on a small screen, such as a mobile phone, there is a case in which symbols such as emoticons are used. また、コンピュータ等で使用可能な文字として、トンパ(東巴)文字などの象形文字が使用される場合がある。 Further, as an available character in a computer or the like, there are cases where pictographic characters such Tompa (AzumaTomomi) characters are used. このような象形文字は、主に感覚的に感情や意味を伝達するのに用いられる場合が多い。 Such hieroglyphics are often mainly sensuously used to convey emotion and meaning.

【0006】音声メールや画像メールによる情報伝達を使用すれば、文章だけの場合より感情の表現方法が増えるが、通信するデータ量が大幅に増加してしまう。 [0006] By using the information transfer by voice mail and image e-mail, but representation of emotion increases than in the case of the sentence only, the amount of data communication is increased significantly.

【0007】容易な入力で、送信者から受信者に多様な感情の伝達が可能な感情伝達装置が求められる。 [0007] In an easy input, emotion transmission device capable of transmitting a variety of emotions determined from a sender to a receiver.

【0008】 [0008]

【発明が解決しようとする課題】電子文章の作成者が、 Is the creator of electronic text [0008],
文章中に文字表現に加えて感情を表現する感情伝達要素を加えるができる感情伝達装置、及び、電子文章を読む者が、文章の内容に加えられた感情伝達要素を、感情伝達表現として視覚や聴覚等の手段で感じることができる感情伝達装置が望まれる。 In addition to character representations in the text added emotional transfer element representing emotions can emotion transmission, and those who read the electronic text is the emotion transmission element which is added to the contents of a sentence, Ya visual as emotional transfer expression emotion transmission is desired can be felt by means of the hearing, and the like.

【0009】 [0009]

【課題を解決するための手段】以下に、[発明の実施の形態]で使用する番号・符号を用いて、課題を解決するための手段を説明する。 The following SUMMARY OF THE INVENTION, using numerals and symbols used in the embodiment of the invention, illustrating the means for solving the problems. これらの番号・符号は、[特許請求の範囲]の記載と[発明の実施の形態]の記載との対応関係を明らかにするために付加されたものであるが、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。 These numerals and symbols are the but those added to clarify the correspondence between the description of the description of the claims] Embodiment of the invention] [claims] It should not be used to interpret the technical scope of the invention as described.

【0010】本発明による感情伝達装置は、入力者により文章が入力される入力部(60)と、文章を入力する入力者の感情表現を検出するセンサ(20)と、感情表現と既定のコードとを対応付けるデータを含む感情表現データ(55)を記憶する記憶部(50)と、演算部(10)と、を備える。 [0010] Emotion transmission device according to the present invention includes an input unit which text is input by the inputting person and (60), a sensor for detecting the emotional expression of the input person inputs the sentence (20), emotional expressions and default code a storage unit for storing feeling expression data (55) containing data for associating the bets (50), calculation unit (10), the. ここで、既定のコードは、実施例で使用される感情伝達要素に対応する。 Here, default code corresponds to the emotion transfer element used in the examples. 入力者が入力部(60)で文章を入力している時に、センサ(20) When the input person is entering text in the input section (60), the sensor (20)
は入力者の感情表現を検出し、演算部(10)は、感情表現データ(55)を参照して、検出された感情表現に対応付けられた感情伝達要素であるコードを検索し、文章に検索された感情伝達要素であるコードを挿入する。 Detects the emotion of input person, calculation unit (10) refers to the emotion data (55), searches the code is emotional transfer element associated with the detected emotional expression, the text inserting code is retrieved emotion transmission element.

【0011】上記に記載された感情伝達装置は、さらに、送信部(70)を備える。 [0011] Emotion transmission device described above further includes the transmission unit (70). 上記文章は電子メールの文章であり、送信部(70)は、感情伝達要素であるコードが挿入された電子メールを送信する。 The above text is the text of the electronic mail, the transmission unit (70) transmits the e-mail the code is inserted is emotional transfer element.

【0012】上記に記載された感情伝達装置において、 [0012] In the emotion transmission apparatus described above,
感情表現は、表情、顔色、視線方向、瞬き回数・頻度、 Emotional expression, facial expression, complexion, line-of-sight direction, blinking number of times, frequency,
瞳孔の開き、発話内容、声のトーン、話す速さ、声色、 Opening of the pupil, speech content, tone of voice, the speed at which speak, tone of voice,
話す間合い、身振り、体温の変化、動悸、発汗、皮膚電位、呼吸の変化、脳波、脈拍、血圧のいずれか、もしくはいずれかの組合わせである。 Talking Maai, gestures, changes in body temperature, palpitations, sweating, skin potential, changes in breathing, brain waves, heart rate, or blood pressure, or is any combination.

【0013】本発明による感情伝達装置は、文章を出力する出力部(30)と、感情を表す動作である感情伝達表現を実施する表現部(30、40)と、文章に挿入される既定のコードと感情伝達表現とを関連付ける情報を含む感情表現データ(54)を記憶する記憶部(50) [0013] Emotion transmission device according to the present invention, an output unit for outputting the sentence (30), the expression unit to implement the emotion transmission representation is an operation representing the feelings (30, 40), the default to be inserted in the text storage unit for storing feeling expression data (54) containing information for associating the code and emotional transmitting representation (50)
と、演算部(10)と、を備える。 When provided arithmetic unit (10), the. ここで、既定のコードは、実施例で使用される感情伝達要素に対応する。 Here, default code corresponds to the emotion transfer element used in the examples. また表現部は、出力装置(30)もしくは動作装置(4 The expression unit, the output device (30) or the operating device (4
0)のいずれか、または両方である。 0), or both. 演算部(10) Arithmetic unit (10)
は、感情伝達要素であるコードが挿入された文章を出力部(30)で出力するように制御する時に、感情伝達要素であるコードを抽出し、感情表現データ(55)を参照して、感情伝達要素であるコードに対応付けられた感情伝達表現を検索し、表現部(30、40)が感情伝達表現を実施するように制御する。 , When controlled so as to output a sentence which is emotional transfer element code is inserted at the output (30), extracts the code that is emotional transfer element, with reference to the emotion data (55), emotional Find the emotion transmission representation associated with the code is transmitted element, expression unit (30, 40) is controlled to perform the emotion transmission representation.

【0014】本発明による感情伝達装置は、文章を出力する出力部(30)と、感情を表す動作である感情伝達表現を実施する表現部(30、40)と、文章に使用される特定の言葉と感情伝達表現とを関連付ける情報を含む感情表現データ(55)を記憶する記憶部(50) [0014] Emotion transmission device according to the present invention, an output unit for outputting the sentence (30), the expression unit to implement the emotion transmission representation is an operation representing the feelings (30, 40), specific for use in the sentence storage unit for storing feeling expression data (55) containing information for associating the words and emotions transmitting representation (50)
と、演算部(10)と、を備える。 When provided arithmetic unit (10), the. ここで、特定の言葉は、実施例で使用される感情伝達要素に対応する。 Here, a particular word corresponds to the emotion transfer element used in the examples. また表現部は、出力装置(30)もしくは動作装置(40) The expression unit, the output device (30) or the operation unit (40)
のいずれか、または両方である。 A, or both. 演算部(10)は、特定の言葉が使用された文章を出力部(30)で出力するように制御する時に、特定の言葉を抽出し、感情表現データを参照して、特定の言葉に対応付けられた感情伝達表現を検索し、表現部(30、40)が感情伝達表現を実施するように制御する。 Arithmetic unit (10), when controlled so as to output a sentence which a particular word was used in the output section (30) extracts a specific language with reference to the emotion data, corresponding to a specific language Tagged searching emotion transfer representation, representation unit (30, 40) is controlled to perform the emotion transmission representation.

【0015】上記に記載された感情伝達装置は、さらに、受信部(70)を備える。 The emotion transmission device described above further includes the receiving unit (70). 上記文章は電子メールの文章であり、受信部(70)は、電子メールを受信する。 The above text is the text of the electronic mail, the receiving unit (70) receives an e-mail.

【0016】上記に記載された感情伝達装置において、 [0016] In the emotion transmission apparatus described above,
表現部は、表情に相当する表示を行なう表示部(31、 Expression unit, a display unit (31 that performs display corresponding to the expression,
33)、目に擬制される発光部(33)、音声を発生するスピーカ(32)、手(42,43)・足(41)・ 33), the light emitting unit that is constructive to the eye (33), a speaker for generating a sound (32), hands (42, 43), the foot (41)
首(2)・本体(3)に相当する部分、図形を表示するモニタ(31)のいずれか、もしくはいずれかの組合わせである。 A portion corresponding to the neck (2) body (3), one of the monitors (31) for displaying a graphic, or is any combination.

【0017】上記に記載された感情伝達装置において、 [0017] In the emotion transmission apparatus described above,
感情伝達表現は、表示部の表情に相当する表示、顔に相当する部分の色の変化、メール表示色の変化、目に擬制される発光部の視線方向・瞬き(点滅)頻度・大きさ・ Emotion transfer representation display corresponding to the facial expression of the display unit, the color change of a portion corresponding to the face, the mail display color change in the line-of-sight direction and the blink of the light emitting portion to be constructive to the eye (flashing) the frequency, size,
色、点滅や色の変化、スピーカの発生する音声のトーン、話す速さ、声色、間合い、音楽(効果音を含む)、 (Including sound effects) color, change of blinking, color, and sound of the tone generated by the speaker, fast talking, tone of voice, Maai, music,
手・足・首・本体の動き、モニタに表示された図形の変化のいずれか、もしくはいずれかの組合わせである。 Hands, feet, neck, body of the movement, one of the changes in the figure, which is displayed on the monitor, or is any combination.

【0018】 [0018]

【発明の実施の形態】添付図面を参照して、本発明による感情伝達装置の実施の形態を以下に説明する。 Referring to DETAILED DESCRIPTION OF THE INVENTION accompanying drawings, an embodiment of the emotion transmission device according to the present invention will be described below. 本発明の感情伝達装置は、電子メールを送受信することができるロボット1に代表される。 Emotion transmission device of the present invention is represented in the robot 1 can transmit and receive e-mail. 本発明のロボット1は、電子メールの送受信機能を有する。 Robot 1 of the present invention have an e-mail transmission and reception function. 電子メールの送信者は、ロボット1を使用して、電子メールをキー入力もしくは音声入力をすることができる。 The sender of the e-mail, it is possible to use the robot 1, the e-mail key input or voice input. さらに、ロボット1 In addition, the robot 1
を使用して電子メールを作成する場合、送信者が電子メールの文章に、感情伝達要素を自動的または意識的に含ませることができる。 A situation in which you want to create an e-mail by using, in the text of the sender's e-mail, can be included in the emotion transfer element to automatically or consciously. 感情伝達要素は、送信者が自ら電子メールに含める他、ロボット1が送信者の意識的もしくは無意識的な感情表現を検出して電子メール中に織り込まれる場合がある。 Emotion transmission element, in addition to the sender to include himself in the e-mail, there is a case where the robot 1 is woven in an e-mail to detect a conscious or unconscious emotional representation of the sender. ロボット1が受信した電子メールを受信者に提示する場合、電子メールに織り込まれている感情伝達要素を抽出し、感情伝達要素に対応付けられている感情伝達表現をロボット1が実施して、文章内容に加えて送信者の感情を受信者に伝達することができる。 When presenting the e-mail that the robot 1 receives the recipient extracts the emotion transmission elements that are woven into the email, the emotion transmission representation associated with the emotional transfer element implemented robot 1, sentence it is possible to transmit the feeling of the sender to the recipient in addition to the contents.

【0019】ここで、以下に本実施の形態で使用される語の定義を行なう。 [0019] Here, a definition of the word used in the embodiment below. 『感情表現』は、電子メール入力者、文章作成者などの人間が、感情に関連して行なう行動もしくは生理的変化で、表情、顔色、視線方向、瞬き回数・頻度、瞳孔の開き、発話内容、声のトーン、話す速さ、声色、話す間合い、身振り、体温の変化、動悸、 "Emotional expression" is, e-mail input person, a human, such as a sentence creator, behavioral or physiological changes carried out in relation to the emotion, open facial expression, complexion, line-of-sight direction, blinking number of times, frequency, of the pupil, the speech content , tone of voice, speaking speed, tone of voice, speak Maai, gestures, body temperature changes in, palpitations,
発汗、皮膚電位、呼吸の変化、脳波、脈拍、血圧を含む。 Sweating, including skin potential, changes in breathing, brain waves, heart rate, blood pressure. また、人間が入力する感情を表す文章の内容、顔文字などの記号も含まれる。 In addition, the contents of the text that represents the emotion a human being input, also includes symbols such as emoticons. 『感情伝達要素』は、感情表現に対応して、文章中に織り込まれる不可視もしくは可視の既定のコード、文字、記号(以下、既定のコード) "Emotion transfer element", corresponding to the emotional expression, invisible or visible default code is woven in the text, characters, symbols (hereinafter, default code)
である。 It is. 人間が文章中に使用する感情を表す言葉、顔文字なども感情伝達要素として使用される場合がある。 Human beings there is a case in which words representing the emotion to be used in the text, as well, such as emoticons are used as emotional transfer element.
『感情伝達表現』は、電子メールを再現するロボット1 "Emotion transmission representation", the robot 1 to reproduce the e-mail
が感情伝達要素に対応して行なう動作や表現で、表情に相当する表示、顔に相当する部分の色の変化、目に擬制される箇所の視線方向・瞬き(点滅)頻度・大きさ・ There in behavior or expressions performed in response to emotional transfer element, a display corresponding to the facial expression, the color change of a portion corresponding to the face, eyes gaze direction, blink locations to be constructive to (flashing) the frequency, size,
色、音声のトーン、話す速さ、声色、間合い、音楽(効果音を含む)、手・足・首・本体の動き、メール表示色の変化、発光部の点滅や色を含む。 Including color, sound of the tone, speed to speak, tone of voice, Maai, music (including sound effects), hands, feet, neck, body movement, mail display color change of, blinking and color of the light-emitting portion.

【0020】図1にロボット1の、外観の例を示す。 [0020] Figure 1 shows a robot 1, an example of appearance. 図1に示されるロボット1は、頭部2、胴部3を持ち、カメラ21、マイク22、モニタ31、スピーカ32、アーム42、移動機構41、ハンド43、通信装置70等を具備しているロボット1が例示されている。 Robot 1 shown in Figure 1, the head 2 has a barrel 3, a camera 21, a microphone 22, a monitor 31, a speaker 32, an arm 42, the movement mechanism 41, the hand 43 is provided with a communication device 70 such as a robot 1 is illustrated.

【0021】ロボット1は、人間の各部に対応した位置に、同様の機能を持つセンサや出力装置を備えることが、人とのコミュニケーションをとる上で好ましい。 The robot 1 is in a position corresponding to the human of each part, it is equipped with a sensor or output device with similar functionality, preferable for to communicate with people. また、ロボット1が人間に近い外観を持ち、人間と同じような動作をすることができることが、人の感情を表現する時に、人間が行なうようなジェスチャーを行なうことができるため好ましい。 It also has an appearance close robot 1 to the human, it could be a similar operation as humans, when expressing the emotions of human, preferably possible to perform the gesture as humans do. 具体的には、頭部2の人の目に対応する位置にカメラ21を備え、口の位置にスピーカ32を備え、耳の位置にマイク22を備えることである。 Specifically, a camera 21 at a position corresponding to the human eye's head 2, a speaker 32 on the position of the mouth is to comprise a microphone 22 to the position of the ear. また、人間の腕のように肩および肘に可動部を持ち、手振りや踊りができることである。 Also, like a human arm having a movable portion on the shoulder and elbow, it is that it is hand motion and dancing. 人はロボット1 People robot 1
の顔の部分を見てロボット1に話し掛けるため、ロボット1の顔に相当する位置にカメラ21を備えることで、 Because talking watching part of the face in the robot 1, by a camera 21 at a position corresponding to the face of the robot 1,
対面する人の顔の画像を撮影することができる。 It is possible to capture an image of the face-to-face to people of the face. 人間に近い構成を持つことで、ロボット1を使用する人は、ロボット1に親近感を持ち、ロボット1を人と擬制して扱うようになる。 By having the configuration close to human beings, people who use the robot 1 has a sense of intimacy to the robot 1, so dealing with fiction the robot 1 person and. 特に、介護に使用されるロボット1においては、使用者に親近感を持たれ、家族や友人のように感じられるロボット1が望まれる。 In particular, in the robot 1 to be used for long-term care is have a sense of closeness to the user, the robot 1 feels like family and friends is desired.

【0022】図2にロボット1の構成を示す。 [0022] FIG. 2 shows the configuration of the robot 1. ロボット1は、演算装置10、センサ20、出力装置30、動作装置40、記憶装置50、入力装置60、通信装置70 Robot 1, computing device 10, sensor 20, output device 30, operation unit 40, a storage device 50, an input device 60, the communication device 70
を具備する。 Comprising a.

【0023】演算装置10は、機能的には中央演算部1 The arithmetic unit 10 is functionally the central processing unit 1
1、センサ情報処理部12、出力装置制御部13、動作装置制御部14、通信情報処理部17を具備する。 1, the sensor information processing section 12, an output controller 13, the operation device control unit 14 comprises a communication processing unit 17. 演算装置10の上記各部は機能上の分類であり、装置の構成は単数もしくは複数のCPUを具備するコンピュータに代表される。 Corresponding parts of the arithmetic unit 10 is a classification of functional configuration of the apparatus is represented in a computer having a single or a plurality of CPU.

【0024】センサ情報処理部12は、センサ20が検出した情報を処理し、中央演算部11に送信する。 The sensor information processing section 12 processes information sensor 20 detects and transmits to the central processing unit 11. センサ情報処理部12はセンサ20の種類により、個別に構成されてもよい。 The sensor information processing section 12 depending on the type of sensor 20 may be configured separately. 具体的には、カメラ21には画像処理部が対応し、マイク22には音声処理部が対応する等である。 Specifically, the camera 21 corresponds the image processing unit, the microphone 22 is equal to the voice processing unit correspond.

【0025】出力装置制御部13は、中央演算部11が決定した出力に関する指令に対応して、出力装置30の制御を行なう。 The output device control section 13 in response to an instruction related to the output of the central processing unit 11 is determined, it controls the output device 30. 出力装置制御部13は、出力装置30により、個別に構成されてもよい。 The output device control section 13, the output device 30 may be configured separately. 動作装置制御部14 Operation device control unit 14
は、中央演算部11が決定した動作に関する指令に対応して、動作装置40の制御を行なう。 In response to commands on the operation of the central processing unit 11 is determined, it controls the operation unit 40. 動作装置制御部1 Operation device control unit 1
4は、動作装置40の種類により、個別に構成されてもよい。 4, the type of operation unit 40 may be configured separately.

【0026】センサ20は、カメラ21、マイク22、 [0026] The sensor 20, camera 21, microphone 22,
赤外線センサ23、重量感知器24、触覚感知器25、 Infrared sensor 23, weight sensor 24, the tactile sensor 25,
姿勢感知器26などに代表され、ロボット1に要求される機能に合わせ、必要なセンサが、単数または複数選択されて装着される。 Are typified the attitude sensor 26, match the required function to the robot 1, the necessary sensors are mounted one or more selected with.

【0027】カメラ21はCCDカメラに代表され、ロボット1の移動時に経路上の障害物を検出するための撮影、人を探索するための撮影などをする。 [0027] The camera 21 is represented by a CCD camera, imaging for detecting an obstacle on the path during the movement of the robot 1, to shoot the like for searching a human. さらに、カメラ21は、電子メールを作成する送信者の外見上の感情表現(表情・視線方向・瞬き回数/頻度・瞳孔・身振りなどの表現、顔色などの生理的変化などを含む)を検出するための撮影を行なう。 Further, the camera 21 detects the emotional expressions on the sender's appearance to create an e-mail (facial expression, gaze direction, blink the number / frequency, pupil-gesture expressions such as, including physiological changes, such as complexion) carry out the shooting for. カメラ21で撮影された画像は、センサ情報処理部12で画像処理される。 Image captured by the camera 21 are subjected to image processing by the sensor information processing section 12.

【0028】マイク22は、人の声を含む音声を検出し、電子メールの音声入力に使用される。 [0028] The microphone 22 detects the sound, including the human voice, is used for voice input of the e-mail. また、その他の命令の音声入力、周辺の情報収集等にも使用される。 The audio input of other instructions are also used around the collect information.
マイク22から入力された音声から、入力者の音声による感情表現(音声のトーン・話す速さ・声色・話す間合い等)が検出される。 From the voice input from the microphone 22, emotional expression according to an input's voice (speaking tone of voice speed, tone of voice, speaking Maai etc.) is detected.

【0029】赤外線センサ23は、2点間の赤外線が切断されることにより人や物の存在を確認するセンサや、 The infrared sensor 23, the sensor and to confirm the presence of people or objects by infrared between two points is disconnected,
温度差により人の存在等を検出する赤外線カメラに代表される。 Typified by an infrared camera to detect the presence or the like of a person due to the temperature difference. 赤外線カメラは、電子メール送信者の体温の変化、顔部分の温度の変化等を含む生理的変化による感情表現を検出することもできる。 Infrared cameras, change in body temperature of the email sender, can be detected emotional expression by physiological changes including changes in the temperature of the face portion.

【0030】重量感知器24は、ロボット1が物を持ったときに重さを感知したり、物を持っていることを検出したりする。 The weight sensing unit 24, or to sense the weight when the robot 1 with an object, or to detect that it has an object. 触覚感知器25は、物にぶつかったことや、持っている物の固さ、もしくは使用者に撫でられた、または、叩かれたことを検知する。 Tactile sensor 25, and to hit the object, hardness of those that have, or are stroked to a user, or to detect that it has been hit. また、指紋などを検出する機能を有することもできる。 It is also possible to have a function of detecting a fingerprint. 触覚感知器25 Tactile sensor 25
は、入力者のロボット1に対する動作を感情表現として検出することもできる。 It is also capable of detecting the operation to the robot 1 of the input person as emotional expression. 姿勢感知器26は、ロボット1 Posture sensor 26, the robot 1
が自身の姿勢を感知し、感知結果は移動時などの姿勢制御に使用される。 There senses its orientation, the sensing result is used for attitude control, such as when moving.

【0031】その他、使用者の生理的変化を検出するセンサが使用される場合がある。 [0031] Other, sometimes sensor for detecting a physiological change of the user is used. 具体的には、脈拍計、皮膚電位計、脳波計、血圧計などである。 Specifically, pulse meter, skin electrometer, electroencephalograph, and the like sphygmomanometer. これらのセンサで検出された生理的変化も感情表現として、入力者の感情を予測するのに使用される場合がある。 Physiological changes detected by these sensors as well emotional expression, it may be used to predict the emotion of input person.

【0032】出力装置30は、モニタ31、スピーカ3 The output device 30, a monitor 31, a speaker 3
2、発光部33、印刷部34などに代表され、ロボット1の機能に合わせ、必要な出力装置が単数または複数選択されて装着される。 2, the light emitting portion 33, is typified in the printing unit 34, match the functions of the robot 1, the required output device is attached is single or multiple selection.

【0033】モニタ31は、液晶ディスプレイ等に代表され、電子メールの表示を行なう。 The monitor 31 is represented by a liquid crystal display or the like, to display the e-mail. また、その他の情報の表示を行なうことができる。 Further, it is possible to display other information. ロボット1は、モニタ3 The robot 1, the monitor 3
1に表示される画像により、感情伝達表現することができる。 The image displayed on the 1, can be emotional transmitting representation. 具体的には、顔の表情を表示して感情を表現したり、キャラクターを表示して、キャラクターの動きにより感情を表現したりすることである。 To be more specific, or to express the emotion to display the facial expressions, to display the character, is to or to express feelings by the movement of the character.

【0034】スピーカ32は、音声や音楽を出力する。 The speaker 32 outputs the sound and music.
スピーカ32は、音声による情報提示やロボット1の会話に使用される。 Speaker 32 is used in a conversation of the information presentation and the robot 1 by voice. スピーカ32により、合成音による電子メールの音声提示を行なうこともできる。 The speaker 32 may also perform audio presentation of the e-mail by the synthesized sound. この場合、 in this case,
感情伝達表現として合成音のトーンや速さ、声色、間合い等の変化を付けることができる。 Emotion synthesized sound of the tone and speed as the transfer expression, tone of voice, it can be given a change in such Maai. また、感情伝達表現として、効果音や音楽を出力することもできる。 In addition, it is also possible to output as emotional transfer representation, the sound effects and music.

【0035】発光部33は、ロボット1の顔に当たる部分に設置されるLEDなどに代表される。 The light emitting portion 33, represented by a LED which is placed in a portion which corresponds to the face of the robot 1. 顔を形成するLEDは、ロボット1の状態表示や感情伝達表現などに用いられる。 LED to form a face is used, such as status and emotional transmission representation of the robot 1. 感情伝達表現として、ロボット1の顔の位置に取り付けられたLEDを、さまざまに点灯させて、 As emotional transmitting representation, the LED attached to the position of the face of the robot 1, variously lit,
顔の表情を表現したり、発光部33の点滅速度を変化させて急いでいる様子などを表現することができる。 Or represent facial expressions, such as how in a hurry by changing the blinking speed of the light-emitting portion 33 can be expressed.

【0036】印刷部34は、電子メールの内容などを受信者が印刷するようロボット1に命令した場合、命令された範囲を印刷するために使用される。 The printing unit 34, if the recipient and the text of the electronic mail is commanded to the robot 1 to print, is used to print instructions range.

【0037】動作装置40は、移動機構41、アーム4 The operation device 40, the movement mechanism 41, the arm 4
2、ハンド43、本体・首の動作機構44に代表され、 2, hand 43, is represented by the operating mechanism 44 of the body, neck,
ロボット1の機能に合わせ、必要な動作装置が単数または複数選択されて装着される。 On the capabilities of the robot 1, the required operation device is mounted is s selected.

【0038】移動機構41は、ロボット1が移動するための機構で、2足歩行用脚、4足歩行用脚、その他の移動用脚、車輪、クローラ等に代表され、ロボット1が移動する場所や移動スピードに合わせて選択される。 The moving mechanism 41 is a mechanism for the robot 1 moves, two-legged walking leg, 4-legged walking leg, the other for moving the legs of the wheel, is represented in the crawler and the like, where the robot 1 moves It is selected and in accordance with the movement speed. 移動機構41は、動きによる感情伝達表現の実施にも使用される場合がある。 Moving mechanism 41 may be also be used in the practice of the emotional transfer expression by motion. 具体的には、喜びを表す時に、ぐるぐる走りまわったり、飛び跳ねたり、喜びの踊りを踊ったりすることである。 More specifically, when representing the joy, or around and round and round running, jumping, is to dancing the dance of joy.

【0039】アーム42は、人の腕に相当する機能を有し、ロボット1の本体に可動的に取り付けられる。 The arm 42 has a function corresponding to the arm of a human, it is mounted movably on the body of the robot 1. アーム42の先端にハンド43が取り付けられる。 Hand 43 is attached to the distal end of the arm 42. アーム4 Arm 4
2は、動きによる感情伝達表現の実施に使用される。 2 is used in the practice of the emotional transfer expression by motion. 具体的には、喜びを表す時に、万歳をしたり、ガッツポーズをしたり、ハイタッチをしたり、喜びの踊りを踊ったりすることである。 More specifically, when representing the joy, or ten thousand years old, or the guts pose, or a high-touch, it is to dancing the dance of joy. ハンド43は、アーム42の先に取り付けられ、物を掴む機能を有する。 Hand 43 is attached to the tip of the arm 42 has a function of grasping an object. ハンド43も、動きによる感情伝達表現の実施に使用される。 Hand 43 is also used in the practice of the emotional transfer expression by motion.

【0040】本体・首の動作機構44は、本体または首を振ったり、回したりする機構で、方向転換、会話している人の方へ向きの変更、センサ20の向きを変更するために使用される。 [0040] The operation mechanism 44 of the body, neck, or shaking the body or neck, in the mechanism that you turn, used in order to change direction change, reorientation towards the person who is talking, the orientation of the sensor 20 It is. 本体・首の動作機構44も、動きによる感情伝達表現の実施に使用される。 Operating mechanism 44 of the body, neck are also used in the practice of the emotional transfer expression by motion. 具体的には、否定を表現するために首を横に振ったり、肯定を表現するために首を縦に振ったりすることである。 Specifically, or shook his head to express negation is to or shaken his or her head vertically to represent a positive.

【0041】記憶装置50は、動作履歴51、通信情報52、地図/領域情報53、個人認証データ54、感情表現データ55、などのデータから、移動ロボットに要求される機能に合わせ、必要なデータを記憶している。 The storage device 50, operation history 51, the communication information 52, the map / area information 53, individual authentication data 54, the data such as emotional expression data 55, fit the required functionality to the mobile robot, the required data stores.

【0042】動作履歴51は、ロボット1が行なった動作を時間毎に記録したデータである。 The operation history 51 is data that records the operation robot 1 is performed every time. 動作履歴により行動パターンやルーチンの行動を認識し、効率よい行動パターンを学習することに利用できる。 We recognize the behavior of the action pattern or routine by the operation history can be utilized to learn the efficient behavior pattern. 通信情報52は、 Communication information 52,
電子メールなどの受信履歴及び内容、担当する人のメールアドレス、メールサーバ情報、アドレス帖などの通信に関する情報を含む。 Including reception history and content, such as e-mail, the responsible person of the e-mail address, the mail server information, the information related to communication, such as address pledge. 地図/領域情報53は、ロボット1が移動するエリアの地図情報、担当する人に関連付けられた場所、物の位置、障害物情報などの情報を含む。 Map / area information 53 includes map information of the area where the robot 1 is moved, the location associated with the person in charge, the position of the object, information such as obstacle information.
地図/領域情報53は、ロボット1が移動したときに得られる情報により、順次更新されることが好ましい。 Map / area information 53, the information obtained when the robot 1 is moved, it is preferable to sequentially updated.

【0043】個人認証データ54は、個人認証に使用されるデータ、具体的には顔、指紋、手形、虹彩、声紋、 The personal authentication data 54, data to be used for personal authentication, specifically face, fingerprint, notes, iris, voice print,
体型(骨格)などの特徴量、もしくは、暗証番号、ID Characteristic quantities such as type (skeleton), or personal identification number, ID
カード等に記憶された磁気もしくは電気的な情報などのIDデータと、個人名を関連付ける情報を含む。 Including the ID data, such as magnetic or electrical information stored in the card, the information associating the personal name. 個人認証は、中央演算部11が、個人認証データ54と、センサ20で入手した特徴量やIDデータを基に行なう。 Individual authentication, the central processing unit 11, the personal authentication data 54, performs on the basis of the feature amount and ID data obtained by the sensor 20. 使用されるデータは、単数、もしくはいずれかの組合せにより行なわれる。 The data used is carried out by single or any combination. 個人認証は、ロボット1が電子メールを受信した時に、提示する相手を確認するために行なわれる場合がある。 Personal authentication, there is a case where the robot 1 is when you receive an e-mail, is done presented in order to verify the person you want to.

【0044】感情表現データ55は、感情表現と感情伝達要素、感情伝達要素と感情伝達表現を関連付けるデータである。 The emotion data 55 is data associating emotional and emotion transmission element, emotion transfer element and feelings transmitted representation. 感情表現データには、ロボット1がセンサ2 The emotional expression data, the robot 1 sensor 2
0で感知した送信者の感情表現と電子メールに織り込む感情伝達要素を関連付ける使用者感情データと、ロボット1が電子メールから抽出した感情伝達要素と感情伝達表現を関連付けるロボット感情データの2種類がある。 A user emotion data that associates an emotion transmission element woven into the sender's emotional expression and email sensed by 0, there are two types of robot emotion data robot 1 associates emotion transfer element and feelings transmitted representation extracted from an e-mail .
ロボット1は、電子メールの送受信を行なうので、入力時に使用される使用者感情データと出力時に使用されるロボット感情データの両方記憶していることが好ましい。 Robot 1, since transmit and receive e-mail, it is preferable that the both stored in the robot emotion data used for output and the user emotion data used for input.

【0045】入力装置60は、スイッチ61、キー6 [0045] The input device 60, a switch 61, key 6
2、カード読取装置63に代表され、ロボット1の機能に合わせ、必要な入力装置が単数または複数選択されて装着される。 2, typified by the card reader 63, on the capabilities of the robot 1, the required input device is attached is single or multiple selection. スイッチ61は、電源や各種設定などを入力するスイッチである。 Switch 61 is a switch for inputting a power supply and various settings. 複数のキー62がキーボード等を形成し、暗証番号の入力や各種設定、命令を入力することができる。 A plurality of keys 62 form a keyboard or the like, the input and various settings PIN, may enter commands. また、使用者は、キー62で電子メールの入力をすることができる。 In addition, the user, can be the input of e-mail in the key 62. カード読取装置63は、個人認証時に、IDカードの磁気や電気的信号を読み取るために使用される場合がある。 Card reader 63, at the time of individual authentication, and may be used to read the magnetic or electrical signals of the ID card.

【0046】通信装置70は、送受信部71を具備し、 The communication device 70 comprises a transceiver 71,
インターネットやイントラネットを通じて、電子メール等の情報を送受信できる。 Through the Internet or intranet, send and receive information, such as e-mail. 通信は、無線通信であることが好ましい。 Communication is preferably wireless communication. 無線通信でない場合でも、ロボット1は通常待機中は、特定の端子でネットワークに接続しており、移動するときは、接続を切り離すように構成することもできる。 Even if it is not the wireless communication, the robot 1 is normally waiting, are connected to the network at a particular terminal, when moving, it may also be configured to disconnect the connection.

【0047】(実施の形態1)図3を参照して、送信者が受信者へ本発明のロボット1を使用して電子メールを送信する時の送信者に使用されるロボット1の動作、および、受信者がロボット1を使用して電子メールを見る時の受信者に使用されるロボット1の動作が説明される。 [0047] With reference to FIG. 3 (first embodiment), the operation of the robot 1 used for the sender when the sender sends an email using the robot 1 of the present invention to a recipient, and , recipient operation of the robot 1, which is used in the recipient's time to see the e-mail using the robot 1 will be described. 送信者に使用されるロボット1と受信者に使用されるロボット1は別々のロボットで同様のメール入力機能および再生機能をもつ。 Robot 1 used for the recipient and the robot 1 used for the sender has the same mail input and playback functions in separate robot. ここでは、送信者側ロボットをロボット1a、受信者側ロボットをロボット1bとして区別する。 Here, distinguishes sender Robot 1a, the receiver-side robot as robot 1b. 但し、2台のロボットは全く同じである必要はなく、設定やタイプの違いによる保有する機能の相違、使用者の設定や学習により、それぞれの別の機能や個性を持つ場合がある。 However, the two robots need not be exactly the same, there are cases where the difference in function held by the difference of the configuration and type, the user's setting and learning, with different features and personality of each.

【0048】送信者が、ロボット1aの入力装置60またはセンサ20を使用して電子メールの送信内容を入力する(SA1)。 The sender inputs the transmission contents of the e-mail using the input device 60 or sensor 20 of the robot 1a (SA1). 入力は、文字に変換される音声入力の場合と、キー入力の場合がある。 Input, in the case of voice input is converted to a character, there is a case of a key input. ロボット1aは、入力中の送信者をセンサ20で観察し、送信者の感情表現を検出する(SA2)。 Robot 1a, the sender in the input observed by sensor 20, for detecting the emotional expression of the sender (SA2). 演算装置10は、センサ20で検出した感情表現を、感情表現データ55を参照して、感情伝達要素に変換する。 Arithmetic unit 10, the emotion detected by sensor 20, with reference to the emotion data 55 is converted into emotional transfer element. 感情伝達要素は既定のコード等で表される。 Emotion transmission element is represented by the default code, and the like. 演算装置10は、感情伝達要素を、送信者がその感情表現をした時に入力した電子メールの文章中に、不可視のコードで挿入する(SA3)。 Arithmetic unit 10, the emotion transmission element, in the text in the email entered when the sender the emotion is inserted in invisible codes (SA3). ロボット1 Robot 1
aは、ネットワークを介して、通信装置70で受信者へ電子メールを送信する(SA4)。 a via the network, to send an e-mail to the recipient at communication device 70 (SA4).

【0049】感情伝達要素が不可視のコードで挿入されることにより、受信者が電子メールを読む時に障害にならず、また、受信者側のロボット1bもしくは端末に感情伝達要素を再現できる機能が無くても受信者が電子メールを読む時に障害にならない。 [0049] By emotional transmission element is inserted in the invisible codes, not an obstacle when the recipient reads the e-mail, also without the ability to reproduce the emotional transfer element to the receiver side of the robot 1b or terminal It does not become an obstacle when the recipient has read the e-mail also.

【0050】ロボット1bは、電子メールを受信する(SB1)。 The robot 1b receives an e-mail (SB1). ロボット1bは、演算装置10で、受信した電子メール内の感情伝達要素を抽出する(SB2)。 Robot 1b is a computing device 10, extracts the emotion transmission element in the received e-mail (SB2).
ロボット1bは、抽出した感情伝達要素から、感情表現データ55'を参照して、感情伝達表現を検索する(S Robot 1b from the extracted emotional transfer element, with reference to the emotion data 55 ', searches the emotion transmission representation (S
B3)。 B3). ロボット1bは、電子メールを受信者に提示しながら動作装置40や出力装置30で感情伝達表現を実施する(SB4)。 Robot 1b performs the emotion transmission represented in the power unit 40 and the output device 30 while presenting the e-mail to the recipient (SB4). ロボット1bによる電子メールの提示は、受信者の選択により、モニタ31での表示でも、 Presentation of e-mail by the robot 1b is, by the selection of the recipient, also in the display of the monitor 31,
スピーカ32からの合成音による音声提示でもすることができる。 It can also be a voice presentation by the synthesized sound from the speaker 32.

【0051】ここで、ロボット1aが記憶している感情表現データ55とロボット1bが記憶している感情表現データ55'は、同じ感情伝達要素を含むことが好ましい。 [0051] Here, emotion data 55 emotion expression data 55 and the robot 1b robot 1a is stored is stored 'preferably includes the same emotional transfer element. さらに、感情伝達要素を介して変換される感情表現と感情伝達表現は、同じ感情を表すものであることが好ましい。 Furthermore, emotion and feelings transmitting representation is converted via an emotion transmission element is preferably represent the same emotion. 但し、ロボット1aの感情表現データ55とロボット1bの感情表現データ55'は、全く同じ必要はなく、ロボットの機能や使用者の好みによって、感情伝達表現などを変更することもできる。 However, the emotion expression data 55 emotion expression data 55 and the robot 1b of the robot 1a 'is not exactly the same need, by preference functions and the user of the robot may be modified such as emotional transfer representation. 従って、同じ内容のメールを複数人に送付した場合、それぞれの受信者のロボット1bが、全く同じ感情伝達表現をしない場合があってもよい。 Therefore, if you send an e-mail with the same content to a plurality of persons, each of the recipient of the robot 1b is, there may be a case that not exactly the same emotion transmission representation.

【0052】(実施の形態2)図4を参照して、送信者が受信者へ本発明のロボット1を使用して電子メールを送信する時、送信者に使用されるロボット1の動作、および、受信者がロボット1を使用して電子メールを見る時、受信者に使用されるロボット1の動作が説明される。 [0052] With reference to FIG. 4 (Embodiment 2), when sending e-mail using the robot 1 of the present invention sender to the recipient, the operation of the robot 1 used for the sender, and , the recipient when you see the e-mail using the robot 1, the operation of the robot 1, which is used in the recipient is described. 本実施の形態では、送信者が意識的に電子メールに感情伝達要素を挿入する場合が説明される。 In this embodiment, if the sender is consciously insert the emotional transfer element to the electronic mail is described. 送信者に使用されるロボット1aと受信者に使用されるロボット1 Robot used to the recipient a robot 1a used for the sender 1
bは別々のロボットで同様のメール入力機能および再生機能を持つ。 b has the same mail input and playback functions in separate robot. ここでは、送信者側ロボット1をロボット1a、受信者側ロボット1をロボット1bとして区別する。 Here, distinguishes the sender-side robot 1 robot 1a, the receiver-side robot 1 as a robot 1b. ただし、本実施例ではロボット1aは通常の端末でもよい。 However, the robot 1a in this embodiment may be a normal terminal.

【0053】送信者が、ロボット1aを使用して、入力装置60またはセンサ20から電子メールの送信内容を入力する(SC1)。 [0053] sender, using the robot 1a, inputs transmission content of the e-mail from the input device 60 or sensor 20 (SC1). 入力は、文字に変換される音声入力の場合と、キー入力の場合がある。 Input, in the case of voice input is converted to a character, there is a case of a key input. 送信者は、電子メールを入力しながら感情伝達要素を入力する。 The sender, to enter the emotional transmission elements while inputting the e-mail. 感情伝達要素の入力は、決められた括弧などの中に、既定のコード等を入力することにより行なわれる。 Input emotional transmission element, in such a determined parentheses is performed by inputting the default code, and the like. 感情伝達要素を送信者が記憶する、もしくは表などを参照しながら感情伝達要素を入力することは、入力の効率がよくないので、簡潔に入力できる機能があることが好ましい。 Storing sender emotion transmission element, or entering a reference while emotional transfer elements such as tables, since the efficiency of the input is not good, it is preferable that the ability to concisely input. 具体的には、感情伝達要素入力用に文字を感情伝達要素に変換する機能や、画面上に感情、または、ロボット1bが実行する感情伝達表現を表すイラストなどを提示して、 Specifically, functions and to convert characters to emotional transfer element for emotional transfer element input, feelings on a screen, or the like presents illustrations representing the emotion transmission representation robot 1b runs,
それを文章の入力したい箇所で選択することにより感情伝達要素を入力する機能を付加することなどである。 And the like by adding a function of inputting an emotion transmission element by selecting it in the location to be entered in the text. また、すでに多く使用されている顔文字などを感情伝達要素として使用できるように構成することもできる。 It is also possible to configure such emoticons that are already widely used for use as emotional transmission element.

【0054】ロボット1aは、ネットワークとを介して、受信者へ電子メールを送信する(SC3)。 [0054] robot 1a, via a network, to send an e-mail to the recipient (SC3).

【0055】ロボット1bの動作は、実施の形態1と同様である。 [0055] Operation of the robot 1b is the same as the first embodiment. ロボット1bは、電子メールを受信する(S Robot 1b receives an e-mail (S
B1)。 B1). ロボット1bは受信した電子メール内の感情伝達要素を抽出する(SB2)。 Robot 1b extracts emotion transmission element in the received e-mail (SB2). ロボット1bは、抽出した感情伝達要素から、感情表現データ55'を参照して、感情伝達表現を検索する(SB3)。 Robot 1b from the extracted emotional transfer element, with reference to the emotion data 55 ', searches the emotion transmission representation (SB3). ロボット1b Robot 1b
は、電子メールを受信者に提示しながら感情伝達表現を実施する(SB4)。 Performs the emotion transmission representation while presenting an e-mail to the recipient (SB4).

【0056】上記のように、送信者が感情伝達表現を入力できることにより、自由に、かつ、好きな感情伝達要素を、電子メールに挿入することができる。 [0056] As described above, by the sender can enter the emotional transmission representation, freely, and, a favorite emotion transfer element, can be inserted into an e-mail. また、本実施例では、送信者のロボット1aは、ロボット1である必要はなく、どんな端末からでも入力することができる。 Further, in this embodiment, the sender of the robot 1a need not be the robot 1 can be input from any terminal.

【0057】(実施の形態3)図5を参照して、送信者が受信者へ本発明のロボット1aを使用して電子メールを送信する時、送信者に使用されるロボット1aの動作、および、受信者がロボット1bを使用して電子メールを見る時、受信者に使用されるロボット1bの動作が説明される。 [0057] With reference to FIG. 5 (Embodiment 3), when sending e-mail sender using the robot 1a of the present invention to a recipient, the operation of the robot 1a used in the sender, and , the recipient when you see the e-mail using the robot 1b, the operation of the robot 1b to be used to the recipient is described. 本実施の形態では、送信者が電子メールに感情伝達要素を挿入しない場合でロボット1bが感情伝達表現を実施する場合が説明される。 In this embodiment, the robot 1b if the sender does not insert an emotion transmission element to the electronic mail is described may be implemented emotion transfer representation. 送信者に使用されるロボット1aと受信者に使用されるロボット1bは別々のロボットで同様のメール入力機能及び再生機能を持つ。 Robot 1b used to the recipient a robot 1a used for the sender with the same email input and playback functions in separate robot. ここでは、送信者側ロボット1をロボット1a、受信者側ロボット1をロボット1bとして区別する。 Here, distinguishes the sender-side robot 1 robot 1a, the receiver-side robot 1 as a robot 1b. ただし、本実施例ではロボット1aは通常の端末でもよい。 However, the robot 1a in this embodiment may be a normal terminal.

【0058】本実施の形態では、送信者およびロボット1aは電子メールに、とくべつに感情伝達要素を挿入しない。 [0058] In this embodiment, the sender and the robot 1a to e-mail, not inserted emotional transfer element specially. 送信者は、普通に電子メールを入力する(SD The sender, normally enter the e-mail (SD
1)。 1). ロボット1aは、電子メールを送信する(SD Robot 1a sends an e-mail (SD
2)。 2). 送信者側は、従来と同じ様に電子メールを送信するので、従来の端末を使用できる。 The sender side, and transmits the same way in an e-mail with the conventional, traditional terminal can be used.

【0059】ロボット1bは、電子メールを受信する(SB1)。 [0059] robot 1b receives an e-mail (SB1). ロボット1bは受信した電子メール内の感情伝達要素を抽出する(SB2)。 Robot 1b extracts emotion transmission element in the received e-mail (SB2). ここでの、感情伝達要素は、送信者が電子メール中に使用した感情を表す言葉である。 Here, the emotional transfer element is a word that the sender is representing the emotion that was used in the e-mail. 具体的には、「嬉しい」「悲しい」「喜ぶ」 More specifically, "happy," "sad," "pleased"
「怒る」「好きだ」「嫌いだ」「疲れた」などの言葉である。 It is the word, such as "angry," "I like", "I hate", "tired". また、「愛」「恋」などの言葉も感情伝達要素として使用できる。 In addition, words such as "love", "love" can also be used as emotional transfer element. ロボット1bは、抽出した感情伝達要素から、感情表現データ55'を参照して、感情伝達表現を検索する(SB3)。 Robot 1b from the extracted emotional transfer element, with reference to the emotion data 55 ', searches the emotion transmission representation (SB3). ロボット1bは、電子メールを受信者に提示しながら感情伝達表現を実施する(SB Robot 1b performs the emotion transmission representation while presenting an e-mail to the recipient (SB
4)。 4).

【0060】上記の実施例のように、電子メールの文章中に使用される言葉を感情伝達要素として使用することにより、送信者は入力時に特に既定のコード等を入力する必要はない。 [0060] As in the above embodiments, by using the term used in the electronic mail text as emotional transmission element, the sender need not entering their default code or the like at the time of input. また、受信者は、どんな文章も、感情伝達表現付で見ることができる。 In addition, the recipient, any sentence can also be seen in with emotion transmission representation.

【0061】上記の3つの実施例の他、付帯的な機能として以下の機能を付加することができる。 [0061] Another three embodiments described above, it can be added the following functions as additional functions. ロボット1b Robot 1b
に、メールの送信者の声や性格等の個人情報を、事前に入力しておき、それに基づきロボットが行なう感情伝達表現を変化させる機能である。 To, personal information such as the sender of the voice and personality of the mail, and then enter in advance, which is a function of changing the emotion transmission representation in which the robot is done on the basis of it. 具体的には、事前に甲さんの年齢、受信者との関係、性別、性格、声、癖などの個人データを入力する。 More specifically, prior to the age of Jia's, relationship with the recipient, enter gender, personality, voice, personal data, such as a habit. ロボット1bは、電子メールを受信した時、送信者を確認し、甲さんであれば、甲さんの個人データを検索し、個人データにより修正された感情伝達表現を行なう。 Robot 1b is, when you receive an e-mail, check the sender, if the Party's, search the personal data of Jia's, performed a modified emotion transmission expressed by the personal data. これにより、ロボット1bの感情表現を送信者本人の感情表現により近づけるけることができる。 As a result, it is possible Keru bring the emotion representation of the robot 1b by emotional expressions of the sender's identity. 受信者は、送信者をよりイメージすることができる。 The recipient can more images sender.

【0062】本発明は、ロボット1に限られず、通常のパソコンなどのメール端末でもよい。 [0062] The present invention is not limited to the robot 1, it may be by e-mail terminal, such as a normal PC. この場合、ジェスチャーなどを行なう機能がないため、画面表示や音声表示で感情伝達表現を行なう。 In this case, since there is no function to perform such a gesture, performing emotion transmission represented in the screen display and audio display.

【0063】さらに、感情伝達要素を挿入するのは電子メールの文章に限られず、電子的に製作される文章であれば、通常のワードプロッセッサプログラムで作成する文章でもよい。 [0063] In addition, the present invention is not limited to the text of the electronic mail is to insert the emotion transfer element, if the sentence is electronically produced, may be in the text to create a normal word processor plot program. この場合、文章が開かれることで感情伝達表現が行なわれる。 In this case, emotional transmission expressed by the sentence is opened is performed.

【0064】上記のように、ロボット1bが感情表現することにより、文字では伝達できない視覚や聴覚感情を視覚や聴覚等で伝達することができる。 [0064] As described above, by the robot 1b is emotional expressions can convey a visual or auditory feelings which can not be transmitted in character visually or hearing, or the like.

【0065】上記実施例では、ロボット1aが送信用、 [0065] In the above embodiment, the robot 1a is for transmission,
ロボット1bが受信用に使用されているが、各ロボット1a、1bが送信用および受信用の機能を有し、どちらの用途でも使用できる。 Although the robot 1b are used for reception, each robot 1a, 1b has a function for receiving and transmission, it can be used in both applications.

【0066】 [0066]

【発明の効果】本発明の感情伝達装置は、電子文章の作成者が、文章中に文字表現に加えて感情に対応する感情伝達要素を加えることができ、また、電子文章を読む者が、文章の内容に加えられた感情伝達要素を、感情伝達表現として視覚や聴覚等の手段で感じることができる。 [Effect of the Invention] emotion transmission device of the present invention, the creator of electronic text, in addition to character representations in the text can be added emotion transmission element corresponding to the emotion, and a person to read the electronic text, emotion transfer element which is added to the contents of the text, can be felt by means of visual or hearing such as emotional transfer representation.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】図1は本発明のロボットの外観の例を示す。 FIG. 1 shows an example of the external appearance of a robot of the present invention.

【図2】図2は本発明のロボットの構成を示す。 Figure 2 shows the structure of a robot of the present invention.

【図3】図3は本発明のロボットが感情を伝達する電子メールを作成し、提示するフローを示す。 Figure 3 shows a flow robot according to the present invention will create an e-mail to transmit the emotion presented.

【図4】図4は本発明のロボットが感情を伝達する電子メールを作成し、提示する別の形態のフローを示す。 Figure 4 creates an e-mail the robot to transmit the emotion of the present invention, showing the flow of another form of presenting.

【図5】図5は本発明のロボットが感情を伝達する電子メールを作成し、提示する別の形態のフローを示す。 Figure 5 shows the flow of another form of a robot of the present invention to create an e-mail to transmit the emotion, presents.

【符号の説明】 DESCRIPTION OF SYMBOLS

1、1a、1b ロボット2 頭部3 胴部10 演算装置11 中央演算部12 センサ情報処理部13 出力装置制御部14 動作装置制御部17 通信情報処理部20 センサ21 カメラ22 マイク23 赤外線センサ24 重量感知器25 触覚感知器26 姿勢感知器30 出力装置31 モニタ32 スピーカ33 発光部34 印刷部40 動作装置41 移動機構42 アーム43 ハンド44 本体/首動作機構50 記憶装置51 動作履歴52 通信情報53 地図/領域情報54 個人認証データ55 感情表現データ60 入力装置61 スイッチ62 キー70 通信装置71 送受信部 1, 1a, 1b robot 2 head 3 trunk portion 10 computing unit 11 central processing unit 12 the sensor information processing section 13 infrared sensor 24 wt output device control unit 14 operates the apparatus control unit 17 the communication information processing unit 20 sensor 21 camera 22 microphone 23 sensor 25 tactile sensor 26 and orientation sensor 30 output device 31 monitor 32 speaker 33 light emitting unit 34 the printing unit 40 operation unit 41 moving mechanism 42 arm 43 hand 44 body / head operation mechanism 50 storage device 51 operation history 52 communication information 53 map / area information 54 the personal identification data 55 emotion data 60 input device 61 switch 62 key 70 communication device 71 receiving portion

Claims (8)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】入力者により文章が入力される入力部と、 前記文章を入力する入力者の感情表現を検出するセンサと、 前記感情表現と既定のコードとを対応付けるデータを含む感情表現データを記憶する記憶部と、 演算部と、を備え、 前記入力者が前記入力部で文章を入力している時に、前記センサは前記入力者の感情表現を検出し、 前記演算部は、前記感情表現データを参照して検出された前記感情表現に対応付けられた前記コードを検索し、 And 1. A input the sentence is inputted by the inputting person, a sensor for detecting the emotional expression of the input person to enter the sentence, the emotion data including data associating the emotional expression and the default code comprising a storage unit for storing for an operational unit, and when the input person is entering text in the input unit, wherein the sensor detects the emotional expressions of the input person, the arithmetic unit, the emotion by searching the code associated with the emotional expression which is detected by referring to the data,
    前記文章に検索された前記コードを挿入する、 感情伝達装置。 Inserting the code retrieved in the text, emotion transmission.
  2. 【請求項2】請求項1に記載された感情伝達装置において、 さらに、送信部を備え、 前記文章は電子メールの文章であり、 前記送信部は、前記コードが挿入された電子メールを送信する、 感情伝達装置。 2. A emotion transmission device according to claim 1, further comprising a transmission unit, the sentence is the text of the electronic mail, the transmission unit transmits the e-mail in which the code is inserted , emotion transmission device.
  3. 【請求項3】請求項1または2のいずれかに記載された感情伝達装置において、 前記感情表現は、表情、顔色、視線方向、瞬き回数・頻度、瞳孔の開き、発話内容、声のトーン、話す速さ、声色、話す間合い、身振り、体温の変化、動悸、発汗、皮膚電位、呼吸の変化、脳波、脈拍、血圧のいずれか、もしくはいずれかの組合わせである、 感情伝達装置。 3. A emotion transmission device according to claim 1 or 2, wherein the emotional expression is expression, complexion, gaze direction, blink count-frequency opening of the pupil, the speech contents, tone of voice, talking fast, tone of voice, talking Maai, gestures, body temperature, and palpitations, sweating, skin potential, changes in respiration, brain waves, heart rate, or blood pressure, or is any combination, emotion transmission.
  4. 【請求項4】文章を出力する出力部と、 感情を表す動作である感情伝達表現を実施する表現部と、 文章に挿入される既定のコードと前記感情伝達表現とを関連付ける情報を含む感情表現データを記憶する記憶部と演算部と、を備え、 前記演算部は、前記コードが挿入された文章を前記出力部で出力するように制御する時に、前記コードを抽出し、前記感情表現データを参照して、前記コードに対応付けられた前記感情伝達表現を検索し、前記表現部が前記感情伝達表現を実施するように制御する、 感情伝達装置。 Emotional expressions including 4. A output unit for outputting a sentence, and a representation unit for performing the emotional transfer representation is an operation indicating emotion, information associating a default code that is inserted in the text and the emotional transmitting representation comprising a a calculation unit storage unit that stores data, wherein the calculation unit, the sentence which the code is inserted in controlling to output by the output unit, extracts the code, the emotion data referring to, by searching the emotion transmission representation associated with the code, the expression unit is controlled so as to implement the emotion transmission representation, emotion transmission.
  5. 【請求項5】文章を出力する出力部と、 感情を表す動作である感情伝達表現を実施する表現部と、 文章に使用される特定の言葉と前記感情伝達表現とを関連付ける情報を含む感情表現データを記憶する記憶部と、 演算部と、を備え、 前記演算部は、前記特定の言葉が使用された文章を前記出力部で出力するように制御する時に、前記特定の言葉を抽出し、前記感情表現データを参照して、前記特定の言葉に対応付けられた前記感情伝達表現を検索し、前記表現部が前記感情伝達表現を実施するように制御する、 感情伝達装置。 Emotional expressions containing 5. An output unit for outputting a sentence, and a representation unit for performing the emotional transfer representation is an operation indicating emotion, information associating a particular term used in the text and the emotional transmitting representation comprising a storage unit for storing data, a calculating unit, wherein the calculation unit, the sentence said specific language is used to control such that output by the output unit extracts the specific language, with reference to the emotion expression data, searches the emotion transmission representation associated with the particular word, the expression unit is controlled so as to implement the emotion transmission representation, emotion transmission.
  6. 【請求項6】請求項4もしくは5のいずれかに記載された感情伝達装置において、 さらに、受信部を備え、 前記文章は電子メールの文章であり、 前記受信部は、前記電子メールを受信する、 感情伝達装置。 6. The emotion transmission device according to claim 4 or 5, further comprising a receiving unit, the sentence is the text of the electronic mail, the receiver receives the e-mail , emotion transmission device.
  7. 【請求項7】請求項4〜6のいずれかに記載された感情伝達装置において、前記表現部は、表情に相当する表示を行なう表示部、目に擬制される発光部、音声を発生するスピーカ、手・足・首・本体に相当する部分、図形を表示するモニタのいずれか、もしくはいずれかの組合わせである、 感情伝達装置。 In emotion transmission device according to any one of claims 7 claims 4 to 6, wherein the expression unit is a display unit that performs display corresponding to facial expression, the light emitting unit that is constructive to the eye, a speaker for generating a sound , the portion corresponding to the feet and hands, neck, body, either monitor for displaying a graphic, or is any combination, emotion transmission.
  8. 【請求項8】請求項7に記載された感情伝達装置において、 前記感情伝達表現は、前記表示部の表情に相当する表示、顔に相当する部分の色の変化、メール表示色の変化、前記目に擬制される発光部の視線方向・瞬き(点滅)頻度・大きさ・色、点滅や色の変化、前記スピーカの発生する音声のトーン、話す速さ、声色、間合い、音楽(効果音を含む)、前記手・足・首・本体の動き、前記モニタに表示された図形の変化のいずれか、もしくはいずれかの組合わせである、 感情伝達装置。 8. The emotion transmission device according to claim 7, wherein the emotion transmission representation display corresponding to the expression of the display unit, the color change of a portion corresponding to the face, the mail display color change in the eye gaze direction, blink of the light emitting portion to be fictitious (flashing) the frequency, size, color, flashing or color changes, audio tones generated by the speaker, the speed of speaking, tone of voice, Maai, music (sound effect including), the feet and hands, neck, body motion, change in any of the displayed graphic on the monitor, or is any combination, emotion transmission.
JP2002150690A 2002-05-24 2002-05-24 Device for transmitting feeling Withdrawn JP2003345727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002150690A JP2003345727A (en) 2002-05-24 2002-05-24 Device for transmitting feeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002150690A JP2003345727A (en) 2002-05-24 2002-05-24 Device for transmitting feeling

Publications (1)

Publication Number Publication Date
JP2003345727A true JP2003345727A (en) 2003-12-05

Family

ID=29768483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002150690A Withdrawn JP2003345727A (en) 2002-05-24 2002-05-24 Device for transmitting feeling

Country Status (1)

Country Link
JP (1) JP2003345727A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352154A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device of reactively operating to feeling condition
JP2005352151A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device and method to output music in accordance with human emotional condition
US7707268B2 (en) 2004-04-07 2010-04-27 Sony Corporation Information-processing apparatus, information-processing methods and programs
JP2012191662A (en) * 2012-06-15 2012-10-04 Casio Comput Co Ltd Electronic data editing device, electronic data editing method and program
JP2014017823A (en) * 2007-05-18 2014-01-30 Immersion Corp Haptic content in text message
JP2016224761A (en) * 2015-06-01 2016-12-28 日本電信電話株式会社 Robot, emotion expressing method, and emotion expressing program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7707268B2 (en) 2004-04-07 2010-04-27 Sony Corporation Information-processing apparatus, information-processing methods and programs
JP2005352154A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device of reactively operating to feeling condition
JP2005352151A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device and method to output music in accordance with human emotional condition
JP4627154B2 (en) * 2004-06-10 2011-02-09 独立行政法人情報通信研究機構 Music output device and music output method according to human emotional state
JP2014017823A (en) * 2007-05-18 2014-01-30 Immersion Corp Haptic content in text message
KR101490092B1 (en) 2007-05-18 2015-02-04 임머숀 코퍼레이션 Haptical content in a text message
KR101491189B1 (en) 2007-05-18 2015-02-06 임머숀 코퍼레이션 Haptical content in a text message
US9197735B2 (en) 2007-05-18 2015-11-24 Immersion Corporation Haptically enabled messaging
JP2012191662A (en) * 2012-06-15 2012-10-04 Casio Comput Co Ltd Electronic data editing device, electronic data editing method and program
JP2016224761A (en) * 2015-06-01 2016-12-28 日本電信電話株式会社 Robot, emotion expressing method, and emotion expressing program

Similar Documents

Publication Publication Date Title
Lateiner Sardonic Smile: nonverbal behavior in Homeric epic
Featherstone Body, image and affect in consumer culture
Latta et al. A conceptual virtual reality model
Mann Wearable computing: Toward humanistic intelligence
CN106537290B (en) The system and method for the eyeball signal based on biomethanics interacted with true and virtual objects
Carmigniani et al. Augmented reality: an overview
US6731307B1 (en) User interface/entertainment device that simulates personal interaction and responds to user&#39;s mental state and/or personality
Sharma et al. Toward multimodal human–computer interface
MacLean Designing with haptic feedback
US6750848B1 (en) More useful man machine interfaces and applications
Quashie The sovereignty of quiet: Beyond resistance in Black culture
O'Neill The communicative body: Studies in communicative philosophy, politics, and sociology
EP1326445A2 (en) Virtual television phone apparatus
KR20170018930A (en) Methods and systems for creating virtual and augmented reality
JP3953024B2 (en) Emotion calculation device, emotion calculation method, and portable communication device
CN1237505C (en) User interface/entertainment equipment of imitating human interaction and loading relative external database using relative data
EP1415218B1 (en) Environment-responsive user interface / entertainment device that simulates personal interaction
Sebe et al. Multimodal emotion recognition
Lenay et al. Sensory substitution: Limits and perspectives
EP1533678A1 (en) Physical feedback channel for entertaining or gaming environments
EP1460588A2 (en) Videophone Terminal
US20050187437A1 (en) Information processing apparatus and method
US20170123492A1 (en) Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
Rovers et al. HIM: a framework for haptic instant messaging
US20070049792A1 (en) Remotely located pleasure devices

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802