JP2005244375A - Communication apparatus, communication method, communication program, and communication system employing this apparatus - Google Patents

Communication apparatus, communication method, communication program, and communication system employing this apparatus Download PDF

Info

Publication number
JP2005244375A
JP2005244375A JP2004048843A JP2004048843A JP2005244375A JP 2005244375 A JP2005244375 A JP 2005244375A JP 2004048843 A JP2004048843 A JP 2004048843A JP 2004048843 A JP2004048843 A JP 2004048843A JP 2005244375 A JP2005244375 A JP 2005244375A
Authority
JP
Japan
Prior art keywords
user
communication
unit
call
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004048843A
Other languages
Japanese (ja)
Other versions
JP3953468B2 (en
Inventor
Kazuya Hiyamizu
一也 冷水
Masakazu Asano
昌和 浅野
Masahiko Hashimoto
昌彦 橋本
Hirokazu Genno
広和 源野
Toru Sakurai
徹 桜井
Sadahiko Takada
定彦 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Sanyo Electric Co Ltd
Sanyo Electric Co Ltd
Original Assignee
Tokyo Sanyo Electric Co Ltd
Tottori Sanyo Electric Co Ltd
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Sanyo Electric Co Ltd, Tottori Sanyo Electric Co Ltd, Sanyo Electric Co Ltd filed Critical Tokyo Sanyo Electric Co Ltd
Priority to JP2004048843A priority Critical patent/JP3953468B2/en
Publication of JP2005244375A publication Critical patent/JP2005244375A/en
Application granted granted Critical
Publication of JP3953468B2 publication Critical patent/JP3953468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication apparatus, a communication method, and a communication program capable of acquiring living body information depending on a communication opposite party and to provide a communication system employing the apparatus. <P>SOLUTION: A user operates an input operation section 11 to activate a control section 10, which controls operations of a wireless communication section 30 and an antenna 31. Thus, the user can make a conversation with the communication opposite party and transmit / receive information with respect to electronic mail to / from the communication opposite party. When the user uses the input operation section 11 of a mobile phone 100 to make operations related to communication to the communication opposite party (speech opposite party) or the user makes a communication with the communication opposite party by using the wireless communication section 30 and the antenna 31, the control section 10 controls a physiological amount data measurement section 20, that is, electrodes 20a, 20d, a thermistor 20b, and a photosensor 20c so as to detect living body information of the user. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、種々の情報の授受を行うための通信装置、通信方法、通信プログラムおよびそれを用いた通信システムに関する。   The present invention relates to a communication device, a communication method, a communication program, and a communication system using the same for transferring various information.

近年、ストレスに代表されるように人間の心理状態に対する注目が高まっている。それとともに、手軽に心理状態を推定し、推定された心理状態に応じて使用者の心理状態をより安定した状態に誘導するための装置が案出されている。   In recent years, attention has been focused on human psychological state as represented by stress. At the same time, an apparatus has been devised for easily estimating a psychological state and guiding the user's psychological state to a more stable state in accordance with the estimated psychological state.

例えば、皮膚電気抵抗値に基づいてストレス状態を測定し、測定されたストレス状態をセンターサーバとの間で送受信することにより使用者のストレス度合いを推定し、推定されたストレス度合いに基づいて使用者へのリラックス情報を提示する携帯通信機が提案されている(例えば、特許文献1参照)。
特開2003−153905号公報
For example, the stress state is measured based on the skin electrical resistance value, the user's stress level is estimated by transmitting / receiving the measured stress state to / from the center server, and the user is based on the estimated stress level. There has been proposed a portable communication device that presents relaxation information to the user (see, for example, Patent Document 1).
JP 2003-153905 A

ところで、人間の心理状態は様々な局面で変化する。特に、人間の心理状態は外部からの影響を受けやすい。例えば、人間は、嫌悪感を有する他人と会話する場合と好意を有する他人と会話する場合とでは、心理状態が異なる。   By the way, human psychological state changes in various aspects. In particular, the human psychological state is susceptible to external influences. For example, human beings have different psychological states when talking with others who have disgust and when talking with others who have a favor.

しかしながら、上記の携帯通信機では、会話の相手に依存して変化するストレス状態を測定することはできない。   However, the portable communication device described above cannot measure a stress state that changes depending on the conversation partner.

また、上記の携帯通信機では、医者等の診断者との会話により得られる診断結果に基づくアドバイスを受けることは困難である。   In the above portable communication device, it is difficult to receive advice based on a diagnosis result obtained by a conversation with a doctor or other diagnostician.

さらに、人間の生体情報の測定は使用者が測定状態にあることを意識しないように行うことが好ましい。しかしながら、上記の携帯通信機では、使用者は皮膚電気抵抗値の測定時に、入力手段の下部に設けられた電極に指を置く必要がある。したがって、使用者は自己が皮膚電気抵抗値の測定を行っていることを意識せざるを得ない。   Furthermore, it is preferable that the measurement of human biological information is performed so that the user is not conscious of being in the measurement state. However, in the portable communication device described above, the user needs to place a finger on the electrode provided at the lower part of the input means when measuring the skin electrical resistance value. Therefore, the user must be aware that he / she is measuring the skin electrical resistance value.

本発明の目的は、通信相手に依存する生体情報を取得可能な通信装置、通信方法、通信プログラムおよびそれを用いた通信システムを提供することである。   An object of the present invention is to provide a communication device, a communication method, a communication program, and a communication system using the same that can acquire biological information that depends on a communication partner.

本発明の他の目的は、診断者との会話による診断結果に基づくアドバイスを容易に取得することができる通信システムを提供することである。   Another object of the present invention is to provide a communication system that can easily obtain advice based on a diagnosis result by a conversation with a diagnostician.

本発明の他の目的は、使用者が意識することなく生体情報を簡単に検出することができる通信装置を提供することである。   Another object of the present invention is to provide a communication device that can easily detect biological information without the user being aware of it.

第1の発明に係る通信装置は、情報の通信を行う通信手段と、通信手段による通信に関連する操作を行うために使用者により操作される操作手段と、使用者の生体情報を検出するための検出手段と、操作手段の操作に基づいて通信手段の動作を制御するとともに、使用者による操作手段の操作時または通信手段による通信時に使用者の生体情報を検出するように検出手段を制御する制御手段とを備えるものである。   A communication device according to a first aspect of the present invention is a communication device for communicating information, an operation device operated by a user to perform an operation related to communication by the communication device, and detecting biometric information of the user. And the operation of the communication means based on the operation of the operation means, and the detection means is controlled so as to detect the biological information of the user when the operation means is operated by the user or during communication by the communication means. And a control means.

本発明に係る通信装置においては、使用者による操作手段の操作に基づいて制御手段により通信手段の動作が制御される。また、使用者が通信装置の操作手段により任意の相手に対する通信に関連する操作を行っているときまたは使用者が通信手段により任意の相手に通信を行っているときに、使用者の生体情報が検出されるように検出手段が制御手段により制御される。したがって、使用者が意識する相手に依存する生体情報を取得することができる。   In the communication apparatus according to the present invention, the operation of the communication means is controlled by the control means based on the operation of the operation means by the user. In addition, when the user performs an operation related to communication with an arbitrary partner using the operation unit of the communication device or when the user performs communication with the other party using the communication unit, the biometric information of the user is stored. The detection means is controlled by the control means so as to be detected. Therefore, it is possible to acquire biometric information that depends on the partner conscious of the user.

通信手段は、情報として音声を音声信号として送信および受信する通話手段を含み、制御手段は、通話手段による使用者の通話時に使用者の生体情報を検出するように検出手段を制御してもよい。   The communication unit may include a call unit that transmits and receives a voice as an audio signal as information, and the control unit may control the detection unit so as to detect the user's biological information when the user calls by the call unit. .

この場合、使用者が通話手段により任意の通話相手と音声による通話を行っているときに、使用者の生体情報が検出される。それにより、通話相手に依存する生体情報を取得することができる。   In this case, the user's biometric information is detected when the user is making a voice call with any other party using the calling means. Thereby, the biometric information depending on the call partner can be acquired.

通信装置は、通話手段による使用者の発声時を判別する判別手段をさらに備え、制御手段は、通話手段による使用者の発声時に使用者の生体情報を検出するように検出手段を制御してもよい。   The communication apparatus further includes a determining unit that determines when the user speaks by the calling unit, and the control unit controls the detecting unit to detect the user's biological information when the user speaks by the calling unit. Good.

この場合、通話手段による使用者の発声時が判別手段により判別され、使用者の発声時に使用者の生体情報が検出される。それにより、通話相手および通話内容に依存する生体情報を取得することができる。   In this case, the time when the user speaks by the calling means is determined by the determining means, and the biometric information of the user is detected when the user speaks. Thereby, biometric information depending on the other party and the content of the call can be acquired.

通信装置は、通話手段により受信された音声信号に基づいて通話相手からの質問を示す音声を判別する判別手段をさらに備え、制御手段は、判別手段により質問を示す音声が判別されたときに使用者の生体情報を検出するように検出手段を制御してもよい。   The communication device further includes a determination unit that determines a voice indicating a question from the other party based on the voice signal received by the calling unit, and the control unit is used when the voice indicating the question is determined by the determination unit. The detection means may be controlled so as to detect the biological information of the person.

この場合、通話手段により受信された音声信号に基づいて通話相手からの質問を示す音声が判別手段により判別され、質問を示す音声が判別されたときに使用者の生体情報が検出される。それにより、通話相手および通話内容に依存する生体情報を取得することができる。   In this case, based on the audio signal received by the calling means, the sound indicating the question from the other party is determined by the determining means, and the user's biological information is detected when the sound indicating the question is determined. Thereby, biometric information depending on the other party and the content of the call can be acquired.

通信手段は、情報として電子メールをデータ信号として送信および受信する電子メール通信手段を含み、操作手段は、電子メールの作成、送信、受信または閲覧するための操作を行う電子メール操作部を含み、制御手段は、使用者による電子メール操作部の操作時に使用者の生体情報を検出するように検出手段を制御してもよい。   The communication means includes an e-mail communication means for transmitting and receiving an e-mail as a data signal as information, and the operation means includes an e-mail operation unit for performing an operation for creating, transmitting, receiving or browsing an e-mail, The control means may control the detection means so as to detect the user's biological information when the user operates the electronic mail operation unit.

この場合、使用者が電子メール操作部を操作することにより任意の相手に送信する電子メールの作成または送信を行っているとき、または任意の相手からの電子メールを受信または閲覧しているときに、使用者の生体情報が検出される。それにより、電子メールの相手または電子メールの内容に依存する生体情報を取得することができる。   In this case, when the user is creating or sending an e-mail to be sent to any other party by operating the e-mail operation unit, or when receiving or viewing an e-mail from any other party The biometric information of the user is detected. Thereby, biometric information depending on the partner of the e-mail or the content of the e-mail can be acquired.

通信装置は、検出手段により検出された生体情報に基づいて使用者の心理状態を推定する推定手段と、推定手段により推定された使用者の心理状態を示す情報を電子メール操作部により作成される電子メールに挿入する挿入手段とをさらに備えてもよい。   The communication device creates an estimation unit that estimates the user's psychological state based on the biological information detected by the detection unit, and information indicating the user's psychological state estimated by the estimation unit is created by the e-mail operation unit. You may further provide the insertion means inserted in an electronic mail.

この場合、検出手段により検出された生体情報に基づいて使用者の心理状態が推定手段により推定される。そして、推定された使用者の心理状態を示す情報が電子メール操作部により作成される電子メールに挿入手段により挿入される。その結果、使用者の心理状態を示す情報が挿入された電子メールが相手に送信される。   In this case, the psychological state of the user is estimated by the estimation unit based on the biological information detected by the detection unit. Then, information indicating the estimated psychological state of the user is inserted by the inserting unit into the e-mail created by the e-mail operation unit. As a result, an electronic mail in which information indicating the user's psychological state is inserted is transmitted to the other party.

通信装置は、検出手段により検出された生体情報に基づいて使用者の心理状態を推定する推定手段をさらに備えてもよい。   The communication apparatus may further include an estimation unit that estimates a user's psychological state based on the biological information detected by the detection unit.

この場合、検出手段により検出された生体情報に基づいて使用者の心理状態が推定手段により推定される。それにより、通信相手に依存した使用者の心理状態を認識することができる。   In this case, the psychological state of the user is estimated by the estimation unit based on the biological information detected by the detection unit. Thereby, the user's psychological state depending on the communication partner can be recognized.

推定手段は、検出手段により検出された生体情報に基づいて使用者の心理状態として使用者の緊張度合いを推定してもよい。   The estimation means may estimate the degree of tension of the user as the user's psychological state based on the biological information detected by the detection means.

この場合、検出手段により検出された生体情報に基づいて使用者の緊張度合いが推定手段により推定される。それにより、通信相手に依存した使用者の緊張度合いを認識することができる。   In this case, the degree of tension of the user is estimated by the estimation unit based on the biological information detected by the detection unit. Thereby, the user's degree of tension depending on the communication partner can be recognized.

推定手段は、検出手段により検出された生体情報に基づいて使用者の心理状態として使用者のうそを推定してもよい。   The estimation means may estimate the user's lie as the user's psychological state based on the biological information detected by the detection means.

この場合、検出手段により検出された生体情報に基づいて使用者のうそが推定手段により推定される。それにより、通信相手に依存した使用者のうそを認識することができる。   In this case, the user's lie is estimated by the estimation means based on the biological information detected by the detection means. Thereby, the user's lie depending on the communication partner can be recognized.

推定手段は、検出手段により検出された生体情報に基づいて使用者の心理状態として使用者の喜怒哀楽を推定してもよい。   The estimation means may estimate the user's emotions as the user's psychological state based on the biological information detected by the detection means.

この場合、検出手段により検出された生体情報に基づいて使用者の喜怒哀楽が推定手段により推定される。それにより、通信相手に依存した使用者の喜怒哀楽を認識することができる。   In this case, the user's emotions are estimated by the estimation unit based on the biological information detected by the detection unit. Thereby, the user's emotions depending on the communication partner can be recognized.

通信装置は、推定手段により推定された使用者の心理状態を示す情報を音声として出力する音声出力手段をさらに備えてもよい。   The communication apparatus may further include a voice output unit that outputs information indicating the user's psychological state estimated by the estimation unit as a voice.

この場合、推定手段により推定された使用者の心理状態を示す情報が音声出力手段により音声として出力される。それにより、使用者は、通信相手に依存する心理状態を容易に認識することができる。   In this case, information indicating the user's psychological state estimated by the estimating means is output as sound by the sound output means. Thereby, the user can easily recognize the psychological state depending on the communication partner.

通信装置は、推定手段により推定された使用者の心理状態を示す情報を表示する表示手段をさらに備えてもよい。   The communication apparatus may further include display means for displaying information indicating the user's psychological state estimated by the estimation means.

この場合、推定手段により推定された使用者の心理状態を示す情報が表示手段により表示される。それにより、使用者は、通信相手に依存する心理状態を容易に認識することができる。   In this case, information indicating the psychological state of the user estimated by the estimation unit is displayed by the display unit. Thereby, the user can easily recognize the psychological state depending on the communication partner.

通信装置は、推定手段により推定された使用者の心理状態を変化させるための情報を出力する情報出力手段をさらに備えてもよい。   The communication apparatus may further include an information output unit that outputs information for changing the psychological state of the user estimated by the estimation unit.

この場合、推定手段により推定された使用者の心理状態に基づいて使用者の心理状態を変化させるための情報が情報出力手段により出力される。それにより、通信相手に依存する使用者の心理状態を変化させることができる。   In this case, information for changing the user's psychological state based on the user's psychological state estimated by the estimating unit is output by the information output unit. Thereby, the user's psychological state depending on the communication partner can be changed.

通信装置は、推定手段により推定された使用者の心理状態を相手ごとに記憶する記憶手段をさらに備えてもよい。   The communication apparatus may further include a storage unit that stores the psychological state of the user estimated by the estimation unit for each partner.

この場合、推定手段により推定された使用者の心理状態が記憶手段により相手ごとに記憶される。それにより、使用者は、記憶手段の記憶内容に基づいて相手に依存する心理状態および心理状態の履歴を容易に確認することができる。   In this case, the psychological state of the user estimated by the estimation unit is stored for each partner by the storage unit. Thereby, the user can easily confirm the psychological state depending on the partner and the history of the psychological state based on the stored contents of the storage unit.

通信手段は、着信時に使用者に着信を認識されるための着信動作を行い、制御手段は、記憶手段に記憶された使用者の心理状態に基づいて通信手段による着信動作を制御していもよい。   The communication unit may perform an incoming operation for the user to recognize the incoming call when the incoming call is received, and the control unit may control the incoming operation by the communication unit based on the user's psychological state stored in the storage unit. .

この場合、記憶手段に記憶された使用者の心理状態に基づいて通信手段による着信動作が制御される。それにより、使用者は、着信時に発信相手に依存する心理状態を着信動作により容易に認識することができる。   In this case, the incoming call operation by the communication means is controlled based on the psychological state of the user stored in the storage means. Thereby, the user can easily recognize the psychological state depending on the caller at the time of the incoming call by the incoming call operation.

通信装置は、環境状態を示す環境情報を取得する取得手段と、取得手段により取得された環境情報に基づいて検出手段により検出された使用者の生体情報の変化状態を補正する補正手段とをさらに備えてもよい。ここで変化状態とは、例えば変化量、変化の勾配、ある特定時間内における変化量の累積、変化のばらつき等がある。   The communication apparatus further includes an acquisition unit that acquires environmental information indicating an environmental state, and a correction unit that corrects the change state of the user's biological information detected by the detection unit based on the environmental information acquired by the acquisition unit. You may prepare. Here, the change state includes, for example, a change amount, a change gradient, a cumulative change amount within a specific time, a variation variation, and the like.

この場合、環境状態を示す環境情報が取得手段により取得され、取得された環境情報に基づいて検出された使用者の生体情報の変化量等が補正手段により補正される。それにより、環境状態に応じて変化する使用者の生体情報の変化量等を正確に取得することができるとともに、使用者の心理状態の推定精度を向上することができる。   In this case, the environmental information indicating the environmental state is acquired by the acquiring unit, and the change amount of the user's biological information detected based on the acquired environmental information is corrected by the correcting unit. Thereby, while being able to acquire correctly the variation | change_quantity etc. of the user's biometric information which changes according to an environmental state, the estimation precision of a user's psychological state can be improved.

通信装置は、検出手段による生体情報の検出時に使用者の音声を記録する音声記録手段をさらに備えてもよい。   The communication apparatus may further include a voice recording unit that records the voice of the user when the biological information is detected by the detection unit.

この場合、検出手段による生体情報の検出時に使用者の音声が音声記録手段により記録される。それにより、使用者は、相手に依存する使用者の音声の状態を記録内容に基づいて容易に把握することができる。   In this case, the user's voice is recorded by the voice recording means when the biological information is detected by the detection means. Accordingly, the user can easily grasp the state of the user's voice depending on the other party based on the recorded content.

通信装置は、検出手段により検出された生体情報が所定のしきい値を超えたか否かを判定する判定手段をさらに備え、音声記録手段は、判定手段により生体情報が所定のしきい値を超えたと判定された場合に、しきい値を超えた時点を含む所定時間の使用者の音声を記録してもよい。   The communication device further includes a determination unit that determines whether or not the biological information detected by the detection unit exceeds a predetermined threshold, and the voice recording unit includes the biological information that exceeds the predetermined threshold by the determination unit. If it is determined that the user's voice has been exceeded, the user's voice for a predetermined time including the time when the threshold value is exceeded may be recorded.

この場合、検出手段により検出された生体情報が所定のしきい値を超えたか否かが判定手段により判定され、生体情報が所定のしきい値を超えたと判定された場合に、しきい値を超えた時点を含む所定時間の使用者の音声が音声記録手段により記録される。それにより、使用者は、相手に依存して生体情報が大きく反応した場合の音声の状態を記録内容により容易に把握することができる。   In this case, the determination means determines whether or not the biological information detected by the detection means exceeds a predetermined threshold value, and if the biological information exceeds the predetermined threshold value, the threshold value is set. The voice recording means records the user's voice for a predetermined time including the time when the time is exceeded. Thereby, the user can easily grasp the state of the sound when the biometric information greatly reacts depending on the other party from the recorded contents.

第2の発明に係る通信装置の動作方法は、情報の通信を行う通信手段および通信手段による通信に関連する操作を行うために使用者により操作される操作手段とを備えた通信装置の動作方法であって、操作手段の操作に基づいて通信手段の動作を制御するとともに、使用者による操作手段の操作時または通信手段による通信時に使用者の生体情報を検出するものである。   An operation method of a communication apparatus according to a second aspect of the invention includes a communication means for communicating information and an operation means operated by a user to perform an operation related to communication by the communication means. The operation of the communication means is controlled based on the operation of the operation means, and the user's biological information is detected when the user operates the operation means or when the communication means communicates.

本発明に係る通信装置の動作方法においては、使用者による操作手段の操作に基づいて通信手段の動作が制御される。また、使用者が通信装置の操作手段により任意の相手に対する通信に関連する操作を行っているときまたは使用者が通信手段により任意の相手に通信を行っているときに、使用者の生体情報が検出されるように検出手段が制御される。したがって、通信相手に依存する生体情報を取得することができる。   In the operation method of the communication device according to the present invention, the operation of the communication unit is controlled based on the operation of the operation unit by the user. In addition, when the user performs an operation related to communication with an arbitrary partner using the operation unit of the communication device or when the user performs communication with the other party using the communication unit, the biometric information of the user is stored. The detection means is controlled so as to be detected. Therefore, it is possible to acquire biological information that depends on the communication partner.

第3の発明に係る通信プログラムは、情報の通信を行う通信手段および通信手段による通信に関連する操作を行うために使用者により操作される操作手段、操作手段の操作に基づいて通信手段を制御する処理装置を備えた通信装置に用いられ、処理装置により実行可能な通信プログラムであって、操作手段の操作に基づいて通信手段の動作を制御する処理と、操作手段の操作時または通信手段による通信時に使用者の生体情報を検出する処理とを、処理装置に実行させるものである。   A communication program according to a third aspect of the invention is a communication means for communicating information, an operation means operated by a user to perform an operation related to communication by the communication means, and controls the communication means based on the operation of the operation means. A communication program that can be executed by the processing device and that controls the operation of the communication means based on the operation of the operation means, and when the operation means is operated or by the communication means The processing device executes processing for detecting the user's biological information during communication.

本発明に係る通信プログラムによれば、使用者による操作手段の操作に基づいて通信手段の動作が制御される。また、使用者が通信装置の操作手段により任意の相手に対する通信に関連する操作を行っているときまたは使用者が通信手段により任意の相手に通信を行っているときに、使用者の生体情報が検出されるように検出手段が制御される。したがって、通信相手に依存する生体情報を取得することができる。   According to the communication program of the present invention, the operation of the communication unit is controlled based on the operation of the operation unit by the user. In addition, when the user performs an operation related to communication with an arbitrary partner using the operation unit of the communication device or when the user performs communication with the other party using the communication unit, the biometric information of the user is stored. The detection means is controlled so as to be detected. Therefore, it is possible to acquire biological information that depends on the communication partner.

第4の発明に係る通信システムは、使用者用の第1の通信装置と、診断者用の第2の通信装置と、診断者用の情報処理装置とを備え、第1の通信装置は、第2の通信装置との通話および情報処理装置との情報の通信を行う通信手段と、通信手段による第2の通信装置との通話時に使用者の生体情報を検出するための検出手段とを備え、通信手段は、検出手段により検出される生体情報に基づく情報を情報処理装置に送信し、第2の通信装置または情報処理装置は、情報処理装置により受信された情報に基づく診断者のアドバイスを第1の通信装置に送信するものである。   A communication system according to a fourth aspect of the present invention includes a first communication device for a user, a second communication device for a diagnostician, and an information processing device for the diagnostician. Communication means for performing communication with the second communication device and information communication with the information processing device, and detection means for detecting biometric information of the user when the communication means communicates with the second communication device. The communication unit transmits information based on the biological information detected by the detection unit to the information processing device, and the second communication device or the information processing device receives advice from the diagnostician based on the information received by the information processing device. It is transmitted to the first communication device.

本発明に係る通信システムにおいては、使用者が第1の通信装置の通信手段により第2の通信装置を有する診断者と通話を行っているときに、検出手段により使用者の生体情報が検出される。そして、通信手段による診断者との通話中または通話終了後に、検出された生体情報に基づく情報が通信手段により情報処理装置に送信される。それにより、診断者は、情報処理装置に送信された情報に基づいて使用者の健康状態を診断することができる。ここで、健康状態とは、身体面での健康状態と精神面での健康状態との両方を含み、以下では、単に健康状態と記述する。   In the communication system according to the present invention, when the user is making a call with the diagnostician having the second communication device by the communication means of the first communication device, the biometric information of the user is detected by the detection means. The Then, information based on the detected biological information is transmitted to the information processing apparatus by the communication unit during or after the call with the diagnostician by the communication unit. Thereby, the diagnostician can diagnose the health condition of the user based on the information transmitted to the information processing apparatus. Here, the health condition includes both a physical health condition and a mental health condition. Hereinafter, the health condition is simply referred to as a health condition.

診断者は、診断結果に基づくアドバイスを第2の通信装置による通話または情報処理装置による情報の通信により第1の通信装置に送信することができる。それにより、使用者は、診断者との会話による診断結果に基づくアドバイスを容易に受けることができる。   The diagnostician can transmit the advice based on the diagnosis result to the first communication device by a call by the second communication device or information communication by the information processing device. Thereby, the user can easily receive advice based on the diagnosis result by the conversation with the diagnostician.

なお、第2の通信装置と情報処理装置とが一体的に設けられてもよい。   Note that the second communication device and the information processing device may be provided integrally.

第5の発明に係る通信装置は、情報の通信を行う通信手段と、通信手段による通信に関連する操作を行うために使用者により操作される操作手段と、使用者の生体情報を検出するための検出手段と、通信手段、操作手段および検出手段を一体的に保持する筐体とを備え、筐体は、前面部、背面部、一方の側面部および他方の側面部を有するとともに一方の側面部、背面部および他方の側面部を片手で保持可能に形成され、操作手段は前面部に設けられ、検出手段は一方の側面部に設けられたものである。   A communication apparatus according to a fifth aspect of the present invention is a communication device for communicating information, an operation device operated by a user to perform an operation related to communication by the communication device, and detecting biometric information of the user. And a casing that integrally holds the communication means, the operation means, and the detection means. The casing has a front surface portion, a back surface portion, one side surface portion, and the other side surface portion, and one side surface. And the other side surface portion can be held with one hand, the operation means is provided on the front surface portion, and the detection means is provided on one side surface portion.

本発明に係る通信装置においては、使用者による操作手段の操作に基づいて制御手段により通信手段の動作が制御される。使用者は、通信装置の筐体を片手で保持しつつ他の手で操作手段を操作することができる。このとき、使用者の手が筐体の側面部の検出手段に触れることにより使用者の生体情報が検出される。   In the communication apparatus according to the present invention, the operation of the communication means is controlled by the control means based on the operation of the operation means by the user. The user can operate the operating means with the other hand while holding the housing of the communication apparatus with one hand. At this time, a user's hand touches the detection means of the side part of a housing | casing, and a user's biometric information is detected.

したがって、使用者が意識することなく生体情報を簡単に検出することができる。   Therefore, it is possible to easily detect biological information without the user being aware of it.

なお、筐体の前面部、背面部、一方の側面部および他方の側面部は、それぞれ平面状に限らず、曲面状に形成されてもよく、前面部、背面部、一方の側面部および他方の側面部のうち2以上が曲面で連続していてもよい。   The front part, the rear part, the one side part, and the other side part of the housing are not limited to a flat shape, and may be formed in a curved shape. The front part, the rear part, one side part, and the other Two or more of the side portions may be continuous with a curved surface.

本発明に係る通信装置、通信方法、通信プログラムによれば、使用者による操作手段の操作に基づいて制御手段により通信手段の動作が制御される。また、使用者が通信装置の操作手段により任意の相手に対する通信に関連する操作を行っているときまたは使用者が通信手段により任意の相手に通信を行っているときに、使用者の生体情報が検出されるように検出手段が制御手段により制御される。したがって、使用者が意識する相手に依存する生体情報を取得することができる。   According to the communication device, the communication method, and the communication program according to the present invention, the operation of the communication unit is controlled by the control unit based on the operation of the operation unit by the user. In addition, when the user performs an operation related to communication with an arbitrary partner using the operation unit of the communication device or when the user performs communication with the other party using the communication unit, the biometric information of the user is stored. The detection means is controlled by the control means so as to be detected. Therefore, it is possible to acquire biometric information that depends on the partner conscious of the user.

また、本発明に係る通信システムによれば、使用者が第1の通信装置の通信手段により第2の通信装置を有する診断者と通話を行っているときに、検出手段により使用者の生体情報が検出される。そして、通信手段による診断者との通話中または通話終了後に、検出された生体情報に基づく情報が通信手段により情報処理装置に送信される。それにより、診断者は、情報処理装置に送信された情報に基づいて使用者の健康状態を診断することができる。   Further, according to the communication system according to the present invention, when the user makes a call with the diagnostician having the second communication device by the communication means of the first communication device, the biometric information of the user is detected by the detection means. Is detected. Then, information based on the detected biological information is transmitted to the information processing apparatus by the communication unit during or after the call with the diagnostician by the communication unit. Thereby, the diagnostician can diagnose the health condition of the user based on the information transmitted to the information processing apparatus.

診断者は、診断結果に基づくアドバイスを第2の通信装置による通話または情報処理装置による情報の通信により第1の通信装置に送信することができる。それにより、使用者は、診断者との会話による診断結果に基づくアドバイスを容易に受けることができる。   The diagnostician can transmit the advice based on the diagnosis result to the first communication device by a call by the second communication device or information communication by the information processing device. Thereby, the user can easily receive advice based on the diagnosis result by the conversation with the diagnostician.

さらに、本発明に係る通信装置によれば、使用者による操作手段の操作に基づいて制御手段により通信手段の動作が制御される。使用者は、通信装置の筐体を片手で保持しつつ他の手で操作手段を操作することができる。このとき、使用者の手が筐体の側面部の検出手段に触れることにより使用者の生体情報が検出される。   Further, according to the communication device of the present invention, the operation of the communication unit is controlled by the control unit based on the operation of the operation unit by the user. The user can operate the operating means with the other hand while holding the housing of the communication apparatus with one hand. At this time, a user's hand touches the detection means of the side part of a housing | casing, and a user's biometric information is detected.

したがって、使用者が意識することなく生体情報を簡単に検出することができる。   Therefore, it is possible to easily detect biological information without the user being aware of it.

以下、本発明の一実施の形態に係る通信装置、通信方法、通信プログラムおよびそれを用いた通信システムについて説明する。下記では、本発明の一実施の形態に係る通信装置の一例として、携帯電話機について説明する。以下の説明に係る携帯電話機は、本来の電話の機能に加えて、使用者の生体情報を検出する機能を有する。   Hereinafter, a communication device, a communication method, a communication program, and a communication system using the communication device according to an embodiment of the present invention will be described. In the following, a mobile phone will be described as an example of a communication apparatus according to an embodiment of the present invention. The mobile phone according to the following description has a function of detecting the user's biological information in addition to the original telephone function.

なお、以下の説明において、通信とは、音声による通話、電子メールの送受信およびインターネットを介してのサイトへの接続を含む。   In the following description, communication includes voice calls, transmission / reception of electronic mail, and connection to a site via the Internet.

ここで、使用者の生体情報とは、使用者の音声に関する音声データおよび使用者の皮膚温度、脈拍、GSR(皮膚電気反射)等の客観的に測定可能な生理量データから得られる生体に関する情報である。以下の説明において、生理量データは使用者の皮膚温度、脈拍およびGSRの測定結果である。   Here, the user's biological information is information related to the living body obtained from voice data related to the user's voice and objectively measurable physiological quantity data such as the user's skin temperature, pulse, and GSR (skin electrical reflection). It is. In the following description, physiological data is a measurement result of a user's skin temperature, pulse and GSR.

(第1の実施の形態)
図1は第1の実施の形態に係る携帯電話機の外観図である。図1に示すように本実施の形態に係る携帯電話機100は、第1の筐体1および第2の筐体2から形成されている。第1の筐体1および第2の筐体2はともに略直方体形状を有し、第1の筐体1の下端と第2の筐体2の上端とがヒンジ3により接続されている。これにより、第1の筐体1は、ヒンジ3を中心として、第2の筐体2に対して矢印の方向に折り畳み可能である。
(First embodiment)
FIG. 1 is an external view of a mobile phone according to the first embodiment. As shown in FIG. 1, a mobile phone 100 according to the present embodiment is formed of a first housing 1 and a second housing 2. Both the first casing 1 and the second casing 2 have a substantially rectangular parallelepiped shape, and the lower end of the first casing 1 and the upper end of the second casing 2 are connected by a hinge 3. Thereby, the first housing 1 can be folded in the direction of the arrow with respect to the second housing 2 around the hinge 3.

第1の筐体1および第2の筐体2の折り畳み時に互いに対向する側の面を前面と呼ぶ。また、第1の筐体1および第2の筐体2の前面と反対側の面を背面と呼ぶ。   A surface on the side facing each other when the first housing 1 and the second housing 2 are folded is referred to as a front surface. A surface opposite to the front surface of the first housing 1 and the second housing 2 is referred to as a back surface.

図1(a)に示すように、第1の筐体1の前面中央には後述の各種情報を表示するためのメイン表示部13が設けられている。メイン表示部13の上部には、通話用スピーカ15bが設けられている。メイン表示部13は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイ等からなる。なお、メイン表示部13は画像または文字等を表示できるものであれば、これらに限定されない。   As shown in FIG. 1A, a main display unit 13 for displaying various types of information described later is provided at the front center of the first housing 1. On the upper part of the main display unit 13, a speaker 15b for call is provided. The main display unit 13 includes, for example, a liquid crystal display or an organic electroluminescence display. The main display unit 13 is not limited to these as long as it can display images, characters, and the like.

一方、第2の筐体2の前面中央には入力操作部11が設けられている。入力操作部11は、複数の数字ボタン、複数の動作設定ボタン、カーソルボタンKKおよび決定ボタンKS等を含む。使用者が入力操作部11を操作することにより携帯電話機100が所定の動作を行う。入力操作部11の下部には、マイクロホン16が設けられている。   On the other hand, an input operation unit 11 is provided in the center of the front surface of the second housing 2. The input operation unit 11 includes a plurality of numeric buttons, a plurality of operation setting buttons, a cursor button KK, a determination button KS, and the like. When the user operates the input operation unit 11, the mobile phone 100 performs a predetermined operation. A microphone 16 is provided below the input operation unit 11.

第2の筐体2の側面には生理量データ測定部20が設けられている。図1(a)においては、第2の筐体2の両側面に使用者のGSRを測定するための2つの電極20a,20dが設けられている。また、第2の筐体2の一側面には、電極20aとともに、使用者の皮膚温度を測定するためのサーミスタ20bおよび使用者の脈拍を測定するためのフォトセンサ20cが設けられている。   A physiological data measurement unit 20 is provided on the side surface of the second housing 2. In FIG. 1A, two electrodes 20 a and 20 d for measuring a user's GSR are provided on both side surfaces of the second housing 2. In addition, on one side surface of the second housing 2, a thermistor 20b for measuring the user's skin temperature and a photosensor 20c for measuring the user's pulse are provided together with the electrode 20a.

本実施の形態では、生理量データ測定部20は第2の筐体2の両側面に設けられているが、設ける方法はこれに限らない。例えば、両側面のうち、一方のみに生理量データ測定部20が設けられてもよい。   In the present embodiment, the physiological data measuring unit 20 is provided on both side surfaces of the second housing 2, but the method of providing the physiological data measuring unit 20 is not limited to this. For example, the physiological data measuring unit 20 may be provided on only one of both side surfaces.

図1(b)に示すように、第1の筐体1の背面中央には発光動作を行うサブ表示部14が設けられている。サブ表示部14は、例えば、LED(発光ダイオード)等からなる。なお、サブ表示部14は発光するものであれば、これに限定されない。   As shown in FIG. 1B, a sub display unit 14 that performs a light emission operation is provided in the center of the back surface of the first housing 1. The sub display unit 14 includes, for example, an LED (light emitting diode). The sub display unit 14 is not limited to this as long as it emits light.

サブ表示部14の上部には電荷結合素子(以下、CCDと略記する。)カメラ17が設けられている。第1の筐体1の背面上端側には2つのスピーカ15aが設けられている。また、第2の筐体2の背面上端側にはアンテナ31が設けられている。   A charge coupled device (hereinafter abbreviated as CCD) camera 17 is provided above the sub display unit 14. Two speakers 15 a are provided on the upper rear side of the first housing 1. An antenna 31 is provided on the upper rear side of the second housing 2.

生体情報の検出時においては、使用者が第2の筐体2を把持することにより生理量データが測定される。すなわち、使用者の指または手のひらが電極20a,20d、サーミスタ20bおよびフォトセンサ20cに触れることにより、使用者のGSR、皮膚温度および脈拍が測定される。また、使用者がマイクロホン16を通じて会話することにより、音声データが得られる。   At the time of detection of biological information, physiological data is measured by the user holding the second casing 2. That is, when the user's finger or palm touches the electrodes 20a and 20d, the thermistor 20b, and the photosensor 20c, the user's GSR, skin temperature, and pulse are measured. Also, voice data can be obtained by the user having a conversation through the microphone 16.

図2は第1の実施の形態に係る携帯電話機100の構成を示すブロック図である。図2に示すように、本実施の形態に係る携帯電話機100は、制御部10、入力操作部11、メモリ12、メイン表示部13、サブ表示部14、スピーカ15a、通話用スピーカ15b、マイクロホン16、CCDカメラ17、信号処理部18、生理量データ測定部20、無線通信部30およびアンテナ31を含む。また、スピーカ15a、通話用スピーカ15b、マイクロホン16の各々に対応してアンプan1,an2,an3が設けられている。   FIG. 2 is a block diagram showing a configuration of the mobile phone 100 according to the first embodiment. As shown in FIG. 2, the mobile phone 100 according to the present embodiment includes a control unit 10, an input operation unit 11, a memory 12, a main display unit 13, a sub display unit 14, a speaker 15a, a call speaker 15b, and a microphone 16. A CCD camera 17, a signal processing unit 18, a physiological data measurement unit 20, a wireless communication unit 30, and an antenna 31. In addition, amplifiers an1, an2, and an3 are provided corresponding to the speaker 15a, the call speaker 15b, and the microphone 16, respectively.

制御部10は、例えば、CPU(中央演算処理装置)またはマイクロコンピュータ等からなり、上記各構成部の動作を制御する。入力操作部11は、使用者の操作に基づく指令信号を制御部10に与える。メモリ12は、例えば、フラッシュメモリ等の不揮発性メモリまたはSRAM(スタティックランダムアクセスメモリ)等の揮発性メモリおよびそのデータを保持するためのデータ保持用電源等からなる。メモリ12には複数の情報が記憶される。メモリ12の内部構成については後述する。   The control unit 10 includes, for example, a CPU (Central Processing Unit) or a microcomputer, and controls the operation of each of the above components. The input operation unit 11 gives a command signal based on a user's operation to the control unit 10. The memory 12 includes, for example, a nonvolatile memory such as a flash memory or a volatile memory such as an SRAM (Static Random Access Memory) and a data holding power source for holding the data. The memory 12 stores a plurality of information. The internal configuration of the memory 12 will be described later.

なお、制御部10またはメモリ12のいずれかにおいては、携帯電話機本来の機能に関するシステムプログラムおよび後述の通信プログラムが記憶されている。ここで、携帯電話機本来の機能とは、例えば、使用者が通話するための機能、使用者が電子メールの作成、送信および受信を行うための機能ならびに使用者がインターネットを介して所望のサイトへアクセスするための機能等である。   In either the control unit 10 or the memory 12, a system program related to the original function of the mobile phone and a communication program described later are stored. Here, the original function of the mobile phone is, for example, a function for a user to make a call, a function for a user to create, send and receive an e-mail, and a user to a desired site via the Internet. It is a function for accessing.

メイン表示部13は制御部10からの指令信号に基づいて表示動作が制御される。また、サブ表示部14は制御部10からの指令信号に基づいて発光動作が制御される。   The display operation of the main display unit 13 is controlled based on a command signal from the control unit 10. The sub display unit 14 is controlled in light emission operation based on a command signal from the control unit 10.

スピーカ15aはアンプan1を介して与えられる電気信号に基づいて各種音声を出力する。通話用スピーカ15bはアンプan2を介して与えられる電気信号に基づいて各種音声を出力する。マイクロホン16は、使用者の音声に基づく電気信号を生成する。生成された電気信号はアンプan3を介して信号処理部18およびメモリ12等に与えられる。CCDカメラ17は制御部10からの指令信号に基づいて撮像動作が制御される。   The speaker 15a outputs various sounds based on an electric signal given through the amplifier an1. The call speaker 15b outputs various sounds based on the electric signal given through the amplifier an2. The microphone 16 generates an electrical signal based on the user's voice. The generated electric signal is given to the signal processing unit 18 and the memory 12 through the amplifier an3. The imaging operation of the CCD camera 17 is controlled based on a command signal from the control unit 10.

信号処理部18においては、他の構成部から与えられる信号の形式の変換等が行われる。例えば、信号処理部18は、生理量データ測定部20により測定されたアナログ形式の生理量データをデジタル形式の生理量データに変換する。   In the signal processing unit 18, conversion of the format of signals given from other components is performed. For example, the signal processing unit 18 converts analog physiological data measured by the physiological data measuring unit 20 into digital physiological data.

上述のように、生理量データ測定部20は電極20a,20d、サーミスタ20bおよびフォトセンサ20cを含む。電極20a,20dにより使用者のGSRが測定され、サーミスタ20bにより使用者の皮膚温度が測定され、フォトセンサ20cにより使用者の脈拍が測定される。測定された生理量データは信号処理部18に与えられる。   As described above, the physiological data measurement unit 20 includes the electrodes 20a and 20d, the thermistor 20b, and the photosensor 20c. The GSR of the user is measured by the electrodes 20a and 20d, the skin temperature of the user is measured by the thermistor 20b, and the pulse of the user is measured by the photosensor 20c. The measured physiological quantity data is given to the signal processing unit 18.

無線通信部30は、アンテナ31を介して上述の生理量データ、音声データおよび電子メールに関するデータ等の無線通信を行う。   The wireless communication unit 30 performs wireless communication such as the above-described physiological data, voice data, and data related to electronic mail via the antenna 31.

図3は図2のメモリ12の内部構成の一例を示す図である。メモリ12は、動作設定記憶部121、心理状態推定テーブル格納部122、個人情報データ格納部123、履歴データ格納部124、音声解析テーブル格納部125および補正データ記憶部126を含む。   FIG. 3 is a diagram showing an example of the internal configuration of the memory 12 of FIG. The memory 12 includes an operation setting storage unit 121, a psychological state estimation table storage unit 122, a personal information data storage unit 123, a history data storage unit 124, a voice analysis table storage unit 125, and a correction data storage unit 126.

メモリ12内の上記格納部および記憶部の詳細について図4〜図7に基づき説明する。   Details of the storage unit and the storage unit in the memory 12 will be described with reference to FIGS.

図4は図3の動作設定記憶部121に記憶される内容の一例を示す図である。図4では、動作設定記憶部121の記憶内容の一例として、携帯電話機100の着信時動作設定テーブルが表されている。   FIG. 4 is a diagram showing an example of contents stored in the operation setting storage unit 121 of FIG. In FIG. 4, as an example of the contents stored in the operation setting storage unit 121, an incoming call operation setting table of the mobile phone 100 is shown.

図4の着信時動作設定テーブルでは、通信相手ごとに予め着信時のメロディパターン、発光パターンおよび表示パターンが設定されている。   In the incoming call operation setting table of FIG. 4, a melody pattern, a light emission pattern, and a display pattern for incoming calls are set in advance for each communication partner.

ここで、メロディパターンとは着信時に図2のスピーカ15aが出力する音声のパターンをいい、発光パターンとは着信時に図2のサブ表示部14が発光するパターンをいい、表示パターンとは着信時に図2のメイン表示部13が表示するパターンをいう。   Here, the melody pattern refers to a voice pattern output from the speaker 15a in FIG. 2 when an incoming call is received, and the light emission pattern refers to a pattern in which the sub display unit 14 in FIG. 2 emits light when an incoming call is received. 2 is a pattern displayed on the main display unit 13.

これら着信時のメロディパターン、発光パターンおよび表示パターンの組合せが着信時動作グループP1,P2に分類されている。   Combinations of these incoming melody patterns, light emission patterns, and display patterns are classified into incoming call operation groups P1 and P2.

図4の例では、着信時動作グループがP1の場合、メロディパターンとして「パンパカパーン」が設定され、発光パターンとして「緑色を点灯」が設定され、表示パターンとして「いつもの調子で話しましょう」が設定されている。また、着信時動作グループがP2の場合、メロディパターンとして「ブーブーブー」が設定され、発光パターンとして「赤色を点灯」が設定され、表示パターンとして「リラックスして話して下さいね」が設定されている。   In the example of FIG. 4, when the incoming call operation group is P1, “Pampakapan” is set as the melody pattern, “Lit green” is set as the light emission pattern, and “Let's talk in the normal tone” as the display pattern. Is set. Also, when the incoming call operation group is P2, “boo boo” is set as the melody pattern, “red light” is set as the light emission pattern, and “Please speak relaxedly” as the display pattern. .

ここで、着信時動作グループは、通信相手と通信した場合の過去の通信履歴から通信相手ごとに算出される後述の心理状態レベル履歴平均に基づいて決定される。例えば、図4では、ある通信相手と通信した場合の心理状態レベル履歴平均の値が2以下の場合に、その通信相手に着信時動作グループとしてP1が設定され、ある通信相手と通信した場合の心理状態レベル履歴平均の値が3以上の場合に、その通信相手に着信時動作グループとしてP2が設定される。   Here, the incoming call operation group is determined based on a psychological state level history average, which will be described later, calculated for each communication partner from the past communication history when communicating with the communication partner. For example, in FIG. 4, when the average psychological state level history value when communicating with a certain communication partner is 2 or less, P1 is set as the incoming call operation group for that communication partner, and communication with a certain communication partner is performed. When the average value of the psychological state level history is 3 or more, P2 is set as an incoming call operation group for the communication partner.

図2の制御部10は、上述のように動作設定記憶部121に記憶された着信時動作設定テーブルに基づいて上記各構成部の動作を制御する。これにより、制御部10は、携帯電話機100の着信時に、図4の着信時動作設定テーブルに基づいて通信相手に応じたスピーカ15a、サブ表示部14およびメイン表示部13の動作制御を行う。また、制御部10は着信時動作設定テーブルの内容の更新も行う。更新動作については後述する。   The control unit 10 shown in FIG. 2 controls the operation of each of the components based on the incoming call operation setting table stored in the operation setting storage unit 121 as described above. Thereby, the control part 10 performs operation control of the speaker 15a, the sub display part 14, and the main display part 13 according to a communication partner based on the incoming call operation setting table of FIG. The control unit 10 also updates the contents of the incoming call operation setting table. The update operation will be described later.

図5は図3の心理状態推定テーブル格納部122に記憶される内容の一例を示す図である。図5では、心理状態推定テーブル格納部122の記憶内容の一例として、生理量データ測定部20により測定される生理量データに基づいて使用者の心理状態(緊張の度合い)を推定するための心理状態推定テーブルが表されている。   FIG. 5 is a diagram showing an example of contents stored in the psychological state estimation table storage unit 122 of FIG. In FIG. 5, as an example of the contents stored in the psychological state estimation table storage unit 122, psychology for estimating the user's psychological state (degree of tension) based on physiological data measured by the physiological data measurement unit 20. A state estimation table is shown.

ここで、図5において、使用者の緊張の度合いは心理状態レベル1〜6として表されている。図5の例では、心理状態レベルが小さくなるにつれて使用者の緊張の度合いが高い。例えば、心理状態レベル1は使用者が非常に緊張していることを表し、心理状態レベル2は使用者が緊張していることを表し、心理状態レベル3は使用者がやや緊張していることを表す。   Here, in FIG. 5, the degree of tension of the user is expressed as psychological state levels 1 to 6. In the example of FIG. 5, the user's degree of tension is higher as the psychological state level is smaller. For example, psychological state level 1 indicates that the user is very nervous, psychological state level 2 indicates that the user is nervous, and psychological state level 3 indicates that the user is slightly nervous. Represents.

また、心理状態レベル4は使用者が普通の状態であることを表し、心理状態レベル5は使用者がリラックスしていることを表し、心理状態レベル6は使用者が非常にリラックスしていることを表す。これら心理状態レベルは、測定された生理量データ、すなわち、使用者のGSR、皮膚温度および脈拍の単位時間あたりの変化量の組合せに基づき分類されている。   The psychological state level 4 indicates that the user is in a normal state, the psychological state level 5 indicates that the user is relaxed, and the psychological state level 6 indicates that the user is very relaxed. Represents. These psychological state levels are classified based on measured physiological data, that is, a combination of a user's GSR, skin temperature, and change per unit time of pulse.

変化量の組合せは、GSR、皮膚温度および脈拍の変化量の各々について設定された基準値に対する測定値の大小関係に基づき決定される。   The combination of the change amounts is determined based on the magnitude relationship of the measurement values with respect to the reference values set for each of the GSR, skin temperature, and pulse change amounts.

図5においては、上記の変化量の組合せを決定するために、GSRの変化量について3つの基準値α,β,γが設定されている。これら基準値α,β,γは、α,β,γの順に大きい。また、皮膚温度および脈拍の変化量の基準値として0が設定されている。   In FIG. 5, three reference values α, β, and γ are set for the amount of change in GSR in order to determine the combination of the amounts of change. These reference values α, β, and γ are larger in the order of α, β, and γ. Also, 0 is set as a reference value for the amount of change in skin temperature and pulse.

GSR、皮膚温度および脈拍の変化量の組合せによる心理状態レベルの分類の一例を説明する。   An example of classification of psychological state levels by a combination of GSR, skin temperature, and pulse variation will be described.

例えば、GSRの変化量ΔGが基準値γ以上であり、皮膚温度の変化量ΔTが0未満であり、かつ、脈拍の変化量ΔHが0以上である場合、心理状態レベルが1に分類されている。   For example, if the GSR change amount ΔG is greater than or equal to the reference value γ, the skin temperature change amount ΔT is less than 0, and the pulse change amount ΔH is greater than or equal to 0, the psychological state level is classified as 1. Yes.

また、GSRの変化量ΔGが基準値α以下であり、皮膚温度の変化量ΔTが0以上であり、かつ、脈拍の変化量ΔHが0未満である場合、心理状態レベルが6に分類されている。   When the GSR change amount ΔG is equal to or less than the reference value α, the skin temperature change amount ΔT is 0 or more, and the pulse change amount ΔH is less than 0, the psychological state level is classified as 6. Yes.

図2の制御部10は、上述のように心理状態推定テーブル格納部122に記憶された心理状態推定テーブルおよび生理量データ測定部20により測定された使用者のGSR、皮膚温度および脈拍の生理量データに基づいて使用者の心理状態レベルを推定する。   The control unit 10 in FIG. 2 uses the psychological state estimation table stored in the psychological state estimation table storage unit 122 and the physiological data of the user's GSR, skin temperature, and pulse measured by the physiological data measurement unit 20 as described above. The user's psychological state level is estimated based on the data.

なお、上記の基準値α,β,γは予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。   The reference values α, β, and γ may be set by setting specific values in advance, or may be set for each user according to characteristics such as the health condition and personality of each user. .

図6は、図3の個人情報データ格納部123に記憶される内容の一例を示す図である。図6では、個人情報データ格納部123の記憶内容の一例として、使用者の通信相手の個人情報データが表されている。   FIG. 6 is a diagram showing an example of contents stored in the personal information data storage unit 123 of FIG. In FIG. 6, personal information data of the communication partner of the user is shown as an example of the contents stored in the personal information data storage unit 123.

図6の個人情報データにおいては、使用者の通信相手ごとに、通信相手の性別、使用者と通信相手との関係および通信相手の電話番号が対応付けされている。なお、個人情報データには、これら、性別、関係および電話番号に加えて、通信相手ごとに通信相手の電子メールアドレスが対応付けされてもよい。   In the personal information data of FIG. 6, for each communication partner of the user, the gender of the communication partner, the relationship between the user and the communication partner, and the telephone number of the communication partner are associated. The personal information data may be associated with the communication partner's e-mail address for each communication partner in addition to the gender, relationship, and telephone number.

図2の制御部10は、上述のように個人情報データ格納部123に記憶された個人情報データに基づいて着信時または電子メール受信時等にその発信元の通信相手を特定することができる。すなわち、携帯電話機100の着信時において、その発信元から通信相手の電話番号のデータが送られる場合に、制御部10は上記個人情報データに基づいて通信相手を識別することができる。   The control unit 10 in FIG. 2 can specify the communication partner of the transmission source when receiving an incoming call or when receiving an e-mail based on the personal information data stored in the personal information data storage unit 123 as described above. That is, when the mobile phone 100 receives an incoming call, the control unit 10 can identify the communication partner based on the personal information data.

図7は、図3の履歴データ格納部124に記憶される内容の一例を示す図である。図7では、履歴データ格納部124の記憶内容の一例として、使用者の通信相手ごとに、使用者とその通信相手との間で行われた過去の通信に関する情報が対応付けされた履歴データが表されている。   FIG. 7 is a diagram illustrating an example of contents stored in the history data storage unit 124 of FIG. In FIG. 7, as an example of the contents stored in the history data storage unit 124, history data in which information related to past communication performed between the user and the communication partner is associated with each communication partner of the user. It is represented.

図7によれば、使用者とその通信相手との間で行われた過去の通信に関する情報は、例えば、使用者の過去の通信時に推定された心理状態レベルの履歴の平均(以下、心理状態レベル履歴平均と呼ぶ。)および使用者の過去の通信の記録である。ここでは、通信相手ごとに対応付けされた過去の通信の記録は、前回の通信時の通信日時、通信時間、通信時に推定された心理状態レベルおよび通信時の音声データである。なお、音声データの記憶方法については、他の実施の形態において後述する。   According to FIG. 7, the information regarding the past communication performed between the user and the communication partner is, for example, the average of the history of the psychological state level estimated at the time of the user's past communication (hereinafter referred to as the psychological state). Called level history average.) And a record of the user's past communications. Here, the past communication records associated with each communication partner are the communication date and time, the communication time, the psychological state level estimated at the time of communication, and the voice data at the time of communication. Note that a method for storing audio data will be described later in another embodiment.

図7の例では、通信相手AAに心理状態レベル履歴平均として6が対応付けされている。これは、使用者と通信相手AAとの過去の通信時に使用者の心理状態が平均して心理状態レベル6、すなわち、非常にリラックスしている状態であったことを表している。また、通信相手AAに対する過去の通信の記録は、前回の通信時の通信日時が○月△日□時▽分であり、通信時間が○分であり、通信時に推定された心理状態が心理状態レベル5であることを表している。さらに、通信相手AAの前回の通信時の音声データAA1が記憶されていることを表している。   In the example of FIG. 7, 6 is associated with the communication partner AA as the psychological state level history average. This represents that the average psychological state of the user during the past communication between the user and the communication partner AA was a psychological state level 6, that is, a very relaxed state. In addition, the past communication record for the communication partner AA is that the communication date and time at the previous communication is ○ month △ day □ hour ▽ minutes, the communication time is ○ minutes, and the psychological state estimated at the time of communication is the psychological state Indicates that it is level 5. Furthermore, the voice data AA1 at the time of the previous communication of the communication partner AA is stored.

これにより、図2の制御部10は、履歴データ格納部124に記憶された履歴データに基づいて通信相手ごとに使用者の過去の心理状態レベル履歴平均および過去の通信の記録を特定することができる。   Thereby, the control unit 10 in FIG. 2 can specify the user's past psychological state level history average and past communication records for each communication partner based on the history data stored in the history data storage unit 124. it can.

本実施の形態において制御部10は、使用者が通信を行うごとに図7の履歴データの内容を更新する。そして、制御部10は更新された履歴データに基づいて図4の着信時動作設定テーブルの内容を更新する。その結果、本実施の形態に係る携帯電話機100は、使用者の通信相手に応じた各種動作を行う。   In the present embodiment, the control unit 10 updates the contents of the history data in FIG. 7 every time the user performs communication. Then, the control unit 10 updates the contents of the incoming call operation setting table of FIG. 4 based on the updated history data. As a result, the mobile phone 100 according to the present embodiment performs various operations according to the communication partner of the user.

なお、制御部10は、図2のメイン表示部13、サブ表示部14、スピーカ15aおよび通話用スピーカ15b等を制御し、履歴データの内容を表示または音声出力してもよい。この場合、使用者は通信相手ごとに過去の通信に関する情報を知ることができる。   The control unit 10 may control the main display unit 13, the sub display unit 14, the speaker 15a, the call speaker 15b, and the like in FIG. In this case, the user can know information related to past communication for each communication partner.

図3の音声解析テーブル格納部125には、使用者の通信時の音声データを解析するためのテーブルが記憶されている。また、補正データ記憶部126には使用者の生理量データを周囲の環境に応じて補正するためのテーブルが記憶されている。これら音声解析テーブル格納部125および補正データ記憶部126に記憶される内容の詳細については他の実施の形態において後述する。   The voice analysis table storage unit 125 in FIG. 3 stores a table for analyzing voice data during user communication. The correction data storage unit 126 stores a table for correcting the physiological data of the user according to the surrounding environment. Details of the contents stored in the speech analysis table storage unit 125 and the correction data storage unit 126 will be described later in other embodiments.

図8および図9は、使用者が第1の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。   FIG. 8 and FIG. 9 are diagrams illustrating examples of contents displayed on the main display unit 13 when the user uses the mobile phone 100 according to the first embodiment.

使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。   The user operates the input operation unit 11 of the mobile phone 100 when making a call.

図8(a)は、使用者が所望の相手に電話をかけた場合(発信時)のメイン表示部13の表示例を表す。図8(b)は、使用者の携帯電話機100に電話がかかってきた場合(着信時)のメイン表示部13の表示例を表す。メイン表示部13には、発信または着信の旨および電話番号が表示される。   FIG. 8A shows a display example of the main display unit 13 when the user makes a call to a desired partner (when making a call). FIG. 8B shows a display example of the main display unit 13 when a call is made to the user's mobile phone 100 (when receiving a call). The main display unit 13 displays a call origination or incoming call and a telephone number.

携帯電話機100のメイン表示部13が図8(a)の表示状態において、使用者が入力操作部11を操作することにより、または、使用者からの発信を受けた相手が自己の携帯電話機を操作することにより、通話が可能となる。   When the main display unit 13 of the mobile phone 100 is in the display state of FIG. 8A, the user operates the input operation unit 11 or the other party who receives a call from the user operates his / her mobile phone. By doing so, a call becomes possible.

図8(c)は、通話中のメイン表示部13の表示例を表す。メイン表示部13には使用者が通話している際に現在の通話時間が表示され、使用者の生体情報を検出している旨が表示される。その後、使用者またはその通話相手が携帯電話機100の入力操作部11を操作することにより通話が終了する。   FIG. 8C shows a display example of the main display unit 13 during a call. The main display unit 13 displays the current call time when the user is talking, and displays that the user's biometric information is detected. Thereafter, when the user or the other party operates the input operation unit 11 of the mobile phone 100, the call is terminated.

図9(d)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話終了時に使用者の通話時間が表示され、通話中に検出された生体情報に基づいて推定される使用者の心理状態が表示される。   FIG. 9D shows a display example of the main display unit 13 when the user ends the call. The main display unit 13 displays the user's call time when the user's call ends, and displays the user's psychological state estimated based on the biological information detected during the call.

図2の制御部10は、メイン表示部13により図9(d)の通話時間および心理状態を表示した後、通話中に検出された生体情報に基づいて上述の着信時動作設定テーブルの内容を更新する。そして、更新された着信時動作設定テーブルの内容をメイン表示部13に表示する。   The control unit 10 in FIG. 2 displays the call time and psychological state in FIG. 9D by the main display unit 13, and then stores the contents of the above-described incoming call operation setting table based on the biological information detected during the call. Update. Then, the updated contents of the incoming call operation setting table are displayed on the main display unit 13.

図9(e)は、図9(d)の表示後にメイン表示部13に表示される着信時動作設定テーブルの内容の表示例である。これにより、使用者は携帯電話機100の着信時の動作を知ることができる。   FIG. 9E is a display example of the contents of the incoming call operation setting table displayed on the main display unit 13 after the display of FIG. Thereby, the user can know the operation at the time of the incoming call of the mobile phone 100.

図9(e)の例では、使用者は、図4の着信時動作設定テーブルとして、通話相手(図4においては通信相手)ABに着信時動作グループP1が設定されたことを知ることができる。   In the example of FIG. 9 (e), the user can know that the incoming call operation group P1 is set in the call partner (communication partner in FIG. 4) AB as the incoming call operation setting table of FIG. .

図9(f)は、上記の設定が行われた後、再度、使用者が通話相手ABに電話をかけた場合(発信時)のメイン表示部13の表示例を表す。図9(g)は、上記の設定が行われた後、使用者の携帯電話機100に通話相手ABから電話がかかってきた場合(着信時)のメイン表示部13の表示例を表す。   FIG. 9F illustrates a display example of the main display unit 13 when the user calls the call partner AB again (at the time of outgoing call) after the above setting is performed. FIG. 9G illustrates a display example of the main display unit 13 when a call is received from the call partner AB to the user's mobile phone 100 after the above setting is performed (when receiving a call).

特定の通話相手に対して着信時動作グループの設定がなされた場合、メイン表示部13には、着信時動作グループにより定められた表示パターン(例えば、図4の表示パターン等)、発信または着信の旨および電話番号が表示される。   When an incoming call operation group is set for a specific call partner, the main display unit 13 displays a display pattern (for example, the display pattern shown in FIG. 4) determined by the incoming call operation group, and whether a call is received or received Message and phone number are displayed.

例えば、特定の通話相手に対する過去の心理状態が常に「非常に緊張している」状態であると推定されていた場合、その相手に対する発信時およびその相手からの着信時には、メイン表示部13にはリラックスして話すべき旨が表示される。   For example, if it is estimated that the past psychological state for a specific call partner is always “very tense”, the main display unit 13 displays the call to the other party and the incoming call from the other party. A message that you should relax and talk is displayed.

本実施の形態に係る通信プログラムについて説明する。図10および図11は、第1の実施の形態に係る通信プログラムの一例を示すフローチャートである。   A communication program according to the present embodiment will be described. 10 and 11 are flowcharts illustrating an example of the communication program according to the first embodiment.

本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。   According to the communication program according to the present embodiment, the control unit 10 in FIG. 2 operates as follows.

初めに、図2の制御部10は、使用者による入力操作部11の操作により他の電話機に対して発信する旨の指令信号を受けたか否かを判別する(ステップS10)。この場合の指令信号には通信相手の電話番号が含まれる。   First, the control unit 10 in FIG. 2 determines whether or not a command signal indicating that a call is to be made to another telephone is received by the operation of the input operation unit 11 by the user (step S10). The command signal in this case includes the telephone number of the communication partner.

制御部10は発信する旨の指令信号を受けた場合、その指令信号に基づいて通信相手を識別する(ステップS11)。   When the control unit 10 receives a command signal for transmission, the control unit 10 identifies a communication partner based on the command signal (step S11).

次に、制御部10は発信先の通信相手に対応する表示パターンをメイン表示部13に表示し、通信相手に対応する発光パターンで図2のサブ表示部14を発光させる(ステップS12)。そして、制御部10は、通信相手から応答があったか否かを判別する(ステップS13)。制御部10は、応答があった場合、生理量データの測定を開始する(ステップS18)。   Next, the control unit 10 displays a display pattern corresponding to the communication partner of the transmission destination on the main display unit 13, and causes the sub display unit 14 of FIG. 2 to emit light with the light emission pattern corresponding to the communication partner (step S12). And the control part 10 discriminate | determines whether there was a response from the communicating party (step S13). When there is a response, the control unit 10 starts measuring physiological data (step S18).

一方、制御部10は、上記ステップS10において発信する旨の指令信号を受けない場合、他の電話機からの着信があるか否かを判別する(ステップS14)。この場合の他の電話機から送信されるデータには通信相手の電話番号が含まれる。   On the other hand, the control part 10 discriminate | determines whether there exists any incoming call from another telephone, when the command signal to the effect of transmitting in step S10 is not received (step S14). In this case, the data transmitted from the other telephone includes the telephone number of the communication partner.

制御部10は、他の電話機からの着信がない場合、上記ステップS10の動作を繰り返す。一方、制御部10は、他の電話機からの着信があった場合、他の電話機から送信されるデータに基づいて通信相手を識別する(ステップS15)。   When there is no incoming call from another telephone, the control unit 10 repeats the operation of step S10. On the other hand, when there is an incoming call from another telephone, the control unit 10 identifies a communication partner based on the data transmitted from the other telephone (step S15).

次に、制御部10は発信先の通信相手に対応する表示パターンをメイン表示部13に表示させ、通信相手に対応する発光パターンで図2のサブ表示部14を発光させ、通信相手に対応するメロディパターンでスピーカ15aから音声を出力させる(ステップS16)。そこで、制御部10は、使用者が入力操作部11を操作することにより、その着信に対して応答する旨の指令信号を受けたか否かを判別する(ステップS17)。制御部10は、応答があった場合、上記ステップS18の動作を行う。   Next, the control unit 10 causes the main display unit 13 to display a display pattern corresponding to the communication partner of the transmission destination, and causes the sub display unit 14 of FIG. 2 to emit light with the light emission pattern corresponding to the communication partner, thereby corresponding to the communication partner. Voice is output from the speaker 15a with a melody pattern (step S16). Therefore, the control unit 10 determines whether or not a command signal for responding to the incoming call has been received by the user operating the input operation unit 11 (step S17). When there is a response, the control unit 10 performs the operation of step S18.

制御部10は、上記ステップS18の動作を行いつつ、通信が終了したか否かを判別する(ステップS19)。   The control unit 10 determines whether or not the communication has ended while performing the operation of step S18 (step S19).

制御部10は、通信が終了しない場合、上記ステップS18の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定を停止し、測定された生理量データに基づいて通信中の心理状態を推定する(ステップS20)。その後、制御部10は、推定された使用者の通信中の心理状態をメイン表示部13に表示する(ステップS21)。   Control part 10 repeats operation of the above-mentioned step S18, when communication does not end. On the other hand, when the communication is completed, the control unit 10 stops the measurement of physiological data, and estimates the psychological state during communication based on the measured physiological data (step S20). Thereafter, the control unit 10 displays the estimated psychological state during communication of the user on the main display unit 13 (step S21).

最後に、制御部10は、識別された通信相手および心理状態の推定結果に基づいて履歴データの内容を更新する(ステップS22)。そして、制御部10は、更新された履歴データの内容に基づいて着信時動作設定テーブルの内容を更新する(ステップS23)。ステップS23の動作を終了した制御部10は、再び上記ステップS10の動作を繰り返す。   Finally, the control unit 10 updates the contents of the history data based on the identified communication partner and psychological state estimation results (step S22). And the control part 10 updates the content of the operation setting table at the time of an incoming call based on the content of the updated log | history data (step S23). The control part 10 which complete | finished the operation | movement of step S23 repeats the operation | movement of the said step S10 again.

ここで、図7の履歴データの内容の更新動作について説明する。上記ステップS22において、制御部10は測定された生理量データに基づき推定された心理状態レベルを履歴データ格納部124に記憶する。そして、制御部10は通信相手ごとに記憶された過去の心理状態レベルおよび現在推定された心理状態レベルから、その通信相手との通信時における心理状態レベルの平均値を算出する。このように算出された平均値が、上述の心理状態レベル履歴平均である。   Here, the update operation of the contents of the history data in FIG. 7 will be described. In step S22, the control unit 10 stores the psychological state level estimated based on the measured physiological data in the history data storage unit 124. And the control part 10 calculates the average value of the psychological state level at the time of communication with the communication partner from the past psychological state level memorize | stored for every communication partner and the currently estimated psychological state level. The average value calculated in this way is the above-described psychological state level history average.

また、制御部10は、現在行われた通信の内容(例えば、通信時の通信日時、通信時間、通信時に推定された心理状態レベルおよび通信時の音声データ等)に基づいて過去の通信の記録を更新する。   In addition, the control unit 10 records past communication based on the contents of the communication that is currently performed (for example, communication date and time during communication, communication time, psychological state level estimated during communication, voice data during communication, and the like). Update.

これにより、通信が行われるごとに制御部10により、図7の履歴データの内容が更新される。   Thus, the contents of the history data in FIG. 7 are updated by the control unit 10 every time communication is performed.

以上、本実施の形態に係る通信装置においては、使用者による入力操作部11の操作に基づいて制御部10により携帯電話機100の各構成部の動作が制御される。また、使用者が携帯電話機100の入力操作部11により通信相手(通話相手)に対する通信に関連する操作を行っているときまたは使用者が無線通信部30およびアンテナ31により通信相手に通信を行っているときに、使用者の生体情報が検出されるように生理量データ測定部20、すなわち、電極20a,20d、サーミスタ20bおよびフォトセンサ20cが制御部10により制御される。したがって、使用者が意識する通信相手に依存する生体情報を取得することができる。   As described above, in the communication device according to the present embodiment, the operation of each component of mobile phone 100 is controlled by control unit 10 based on the operation of input operation unit 11 by the user. Further, when the user performs an operation related to communication with the communication partner (calling partner) with the input operation unit 11 of the mobile phone 100 or when the user communicates with the communication partner with the wireless communication unit 30 and the antenna 31. The physiological data measuring unit 20, that is, the electrodes 20a and 20d, the thermistor 20b, and the photosensor 20c are controlled by the control unit 10 so that the user's biological information is detected. Therefore, it is possible to acquire biometric information that depends on the communication partner that the user is aware of.

また、本実施の形態では、使用者が無線通信部30およびアンテナ31を通じて任意の通話相手と音声による通話を行っているときに、使用者の生体情報が検出される。それにより、通話相手に依存する生体情報を取得することができる。   In the present embodiment, the user's biological information is detected when the user is making a voice call with any other party through the wireless communication unit 30 and the antenna 31. Thereby, the biometric information depending on the call partner can be acquired.

本実施の形態においては、生理量データ測定部20により検出された生体情報に基づいて使用者の心理状態が制御部10により推定される。それにより、通信相手に依存した使用者の心理状態を認識することができる。   In the present embodiment, the control unit 10 estimates the user's psychological state based on the biological information detected by the physiological data measurement unit 20. Thereby, the user's psychological state depending on the communication partner can be recognized.

また、生理量データ測定部20により検出された生体情報に基づいて使用者の緊張度合いが制御部10により推定される。それにより、通信相手に依存した使用者の緊張度合いを認識することができる。   Further, the control unit 10 estimates the degree of tension of the user based on the biological information detected by the physiological data measurement unit 20. Thereby, the user's degree of tension depending on the communication partner can be recognized.

その上、本実施の形態においては、制御部10により推定された使用者の心理状態を示す情報がメイン表示部13により表示される。それにより、使用者は、通信相手に依存する心理状態を容易に認識することができる。   In addition, in the present embodiment, information indicating the psychological state of the user estimated by the control unit 10 is displayed on the main display unit 13. Thereby, the user can easily recognize the psychological state depending on the communication partner.

また、本実施の形態では、制御部10により推定された使用者の心理状態がメモリ12の履歴データ格納部124により通信相手ごとに記憶される。それにより、使用者は、記憶手段の記憶内容に基づいて通信相手に依存する心理状態および心理状態の履歴を容易に確認することができる。   In the present embodiment, the user's psychological state estimated by the control unit 10 is stored for each communication partner by the history data storage unit 124 of the memory 12. Thereby, the user can easily confirm the psychological state depending on the communication partner and the history of the psychological state based on the stored contents of the storage unit.

さらに、本実施の形態では、メモリ12に記憶された使用者の心理状態に基づいて携帯電話機100の着信動作が制御される。それにより、使用者は、着信時に通信相手に依存する心理状態を着信動作により容易に認識することができる。   Furthermore, in the present embodiment, the incoming call operation of mobile phone 100 is controlled based on the user's psychological state stored in memory 12. Thereby, the user can easily recognize the psychological state depending on the communication partner at the time of the incoming call by the incoming call operation.

本実施の形態に係る携帯電話機100においては、第2の筐体2の側面に生理量データ測定部20(電極20a,20dおよびフォトセンサ20c)が設けられている。これにより、使用者は、第2の筐体2を片手で保持しつつ他の手で入力操作部11を操作することができる。このとき、使用者の手が第2の筐体2の側面の生理量データ測定部20に触れることにより使用者の生体情報が検出される。   In mobile phone 100 according to the present embodiment, physiological data measurement unit 20 (electrodes 20a and 20d and photosensor 20c) is provided on the side surface of second casing 2. Thus, the user can operate the input operation unit 11 with the other hand while holding the second housing 2 with one hand. At this time, when the user's hand touches the physiological data measurement unit 20 on the side surface of the second housing 2, the user's biological information is detected.

したがって、使用者が意識することなく生体情報を簡単に検出することができる。   Therefore, it is possible to easily detect biological information without the user being aware of it.

なお、第2の筐体2の前面、背面、一方の側面および他方の側面は、それぞれ平面状に限らず、曲面状に形成されてもよく、前面、背面、一方の側面および他方の側面のうち2以上が曲面で連続していてもよい。   In addition, the front surface, the back surface, the one side surface, and the other side surface of the second housing 2 are not limited to a flat shape, and may be formed in a curved shape. The front surface, the back surface, the one side surface, and the other side surface Two or more of them may be continuous with a curved surface.

図1に示すように、本実施の形態に係る携帯電話機100の生理量データ測定部20は、電極20a,20d、サーミスタ20b、フォトセンサ20cを含むが、電極20a,20d、サーミスタ20b、フォトセンサ20cの全てを含む形態に限られるものではない。例えば、生理量データ測定部20は電極20a,20d、フォトセンサ20cを含んでもよいし、電極20a,20dのみを含んでもよい。この場合、検出される生理量データに応じて上述の心理状態推定テーブルを設定する必要がある。   As shown in FIG. 1, the physiological data measurement unit 20 of the mobile phone 100 according to the present embodiment includes electrodes 20a and 20d, a thermistor 20b, and a photosensor 20c, but the electrodes 20a and 20d, the thermistor 20b, and the photosensor. It is not restricted to the form containing all of 20c. For example, the physiological data measuring unit 20 may include the electrodes 20a and 20d and the photosensor 20c, or may include only the electrodes 20a and 20d. In this case, it is necessary to set the above-described psychological state estimation table according to the detected physiological data.

また、生理量データ測定部20は使用者の生理量データとしてGSR、皮膚温度、脈拍を測定するが、測定する生理量データはGSR、皮膚温度、脈拍に限られるものではない。例えば、心拍、血圧、血流量、呼吸などでもよい。この場合も、検出される生理量データに応じて上述の心理状態推定テーブルを設定する必要がある。   The physiological data measurement unit 20 measures GSR, skin temperature, and pulse as user's physiological data, but the physiological data to be measured is not limited to GSR, skin temperature, and pulse. For example, heart rate, blood pressure, blood flow, breathing, etc. may be used. Also in this case, it is necessary to set the above-described psychological state estimation table according to the detected physiological data.

上記では、心理状態の推定をするために図5の心理状態推定テーブルを用いたが、生体情報に基づく使用者の心理状態の推定は、図5の心理状態推定テーブルを用いることに限定されない。生体情報を用いるのであれば、生理量データのみを用いて他の推定テーブルにより使用者の心理状態を推定してもよいし、音声データのみを用いて使用者の心理状態を推定してもよい。さらに、他の実施の形態において後述するが、生理量データおよび音声データをともに用いて使用者の心理状態を推定してもよい。   In the above description, the psychological state estimation table of FIG. 5 is used to estimate the psychological state. However, the estimation of the user's psychological state based on the biological information is not limited to using the psychological state estimation table of FIG. If biometric information is used, the user's psychological state may be estimated using other estimation tables using only physiological data, or the user's psychological state may be estimated using only voice data. . Further, as will be described later in another embodiment, the psychological state of the user may be estimated using both physiological data and audio data.

また、上記では、心理状態として使用者の緊張の度合いを推定しているが、これに限らず、他の実施の形態において後述するが、生体情報に基づいて使用者のうそを推定したり、喜怒哀楽を推定してもよい。この場合、使用者は自己の心理状態について様々な情報を得ることができる。   Further, in the above, the degree of tension of the user is estimated as a psychological state, but not limited to this, as described later in other embodiments, the user's lie is estimated based on biological information, You may estimate emotions. In this case, the user can obtain various information about his / her psychological state.

さらに、上記では、使用者の携帯電話機100による通話中に、その通話時間を通じて生体情報を検出しているが、生体情報の検出はこれに限られない。他の実施の形態において後述するが、例えば、携帯電話機100は、使用者の通話中でかつ使用者が質問に対して回答している場合にのみ生体情報を検出してもよい。この場合、使用者は自己の回答時の生体情報に基づいて心理状態を推定することで、その回答時または発声時の自己の心理状態について様々な情報を得ることができる。   Furthermore, in the above description, the biological information is detected through the call time during a call by the user's mobile phone 100, but the detection of the biological information is not limited thereto. As will be described later in another embodiment, for example, the mobile phone 100 may detect biometric information only when the user is in a call and the user answers the question. In this case, the user can obtain various information on the psychological state at the time of answer or utterance by estimating the psychological state based on the biological information at the time of his / her answer.

携帯電話機100は、通話中でなくても、使用者の生体情報を検出してもよい。他の実施の形態において後述するが、例えば、携帯電話機100は使用者が電子メールを作成する際に使用者の生体情報を検出してもよい。この場合、使用者は自己の特定の通信相手への電子メールの作成時の心理状態についての情報を得ることができる。   The mobile phone 100 may detect the user's biometric information even when not in a call. As will be described later in another embodiment, for example, the mobile phone 100 may detect the biological information of the user when the user creates an e-mail. In this case, the user can obtain information about the psychological state at the time of creating an e-mail to his / her specific communication partner.

他の実施の形態において後述するが、携帯電話機100は、検出された生体情報または推定された心理状態についての情報を他の通信装置に送信してもよい。   As will be described later in another embodiment, the mobile phone 100 may transmit the detected biological information or information about the estimated psychological state to another communication device.

(第2の実施の形態)
第2の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Second Embodiment)
The mobile phone 100 according to the second embodiment has the same configuration and operation as the mobile phone 100 according to the first embodiment except for the following points.

本実施の形態に係る携帯電話機100には、図3の音声解析テーブル格納部125に後述の音声解析テーブルおよび心理状態調整テーブルが記憶されている。   Mobile phone 100 according to the present embodiment stores a voice analysis table and a psychological state adjustment table, which will be described later, in voice analysis table storage unit 125 of FIG.

携帯電話機100は、使用者の会話を音声データとして録音する。そして、携帯電話機100は、録音された音声データを解析することによりパラメータとして、発音のトーン(音調)、抑揚およびジッタ(かすれ具合)を得る。なお、パラメータは、トーン、抑揚およびジッタに限られず、発音の大きさまたは発音の速度等であってもよい。   The mobile phone 100 records the user's conversation as voice data. Then, the cellular phone 100 obtains a tone of tone (tone), intonation and jitter (smoothness) as parameters by analyzing the recorded voice data. Note that the parameters are not limited to tone, inflection, and jitter, but may be the magnitude of pronunciation or the speed of pronunciation.

本実施の形態において、図2の制御部10は、得られたパラメータ(発音のトーン、抑揚およびジッタ等)および音声解析テーブルに基づいてその音声データに関する後述の音声レベルを決定する。   In the present embodiment, the control unit 10 in FIG. 2 determines a later-described sound level related to the sound data based on the obtained parameters (tone of tone generation, inflection, jitter, etc.) and the sound analysis table.

制御部10は決定された音声レベルおよび心理状態調整テーブルに基づいて後述の心理状態レベル調整値を決定する。そして、制御部10は、決定された心理状態レベル調整値に基づいて生理量データにより推定された上述の心理状態レベルの調整を行う。その結果、本実施の形態に係る携帯電話機100においては、生理量データおよび音声データをともに用いることにより使用者の心理状態を推定することができる。   The control unit 10 determines a psychological state level adjustment value, which will be described later, based on the determined sound level and psychological state adjustment table. And the control part 10 adjusts the above-mentioned psychological state level estimated by the physiological data based on the determined psychological state level adjustment value. As a result, in cellular phone 100 according to the present embodiment, the user's psychological state can be estimated by using both physiological data and voice data.

なお、生理量データにより推定された心理状態レベルを音声データを用いて調整せずに、生理量データおよび音声データに基づいて使用者の心理状態を推定してもよい。   Note that the psychological state of the user may be estimated based on the physiological data and the voice data without adjusting the psychological state level estimated from the physiological data using the voice data.

さらに、本実施の形態において、制御部10は調整された心理状態レベルおよび後述のリラックス動作設定テーブルに基づいて図2の各構成部の動作を制御する。これにより、使用者は携帯電話機100により自己の心理状態に応じた緊張の弛緩が促される。以下、使用者に対する緊張の弛緩をリラクゼーションと呼ぶ。   Furthermore, in this Embodiment, the control part 10 controls operation | movement of each structure part of FIG. 2 based on the adjusted psychological state level and the below-mentioned relaxation operation | movement setting table. Accordingly, the user is prompted to relax the tension according to his / her psychological state by the mobile phone 100. Hereinafter, relaxation of the tension to the user is referred to as relaxation.

音声解析テーブルおよび心理状態調整テーブルについて説明する。図12は、図3の音声解析テーブル格納部125に記憶される内容の一例を示す図である。   The voice analysis table and the psychological state adjustment table will be described. FIG. 12 is a diagram illustrating an example of contents stored in the voice analysis table storage unit 125 of FIG.

以下の説明において、音声解析テーブル格納部125には図12に示す音声解析テーブルおよび心理状態調整テーブルに加えて、音声データを解析することにより得られる発音のトーン、抑揚およびジッタの各々について所定の基準値が記憶されている。   In the following description, in addition to the voice analysis table and the psychological state adjustment table shown in FIG. 12, the voice analysis table storage unit 125 has predetermined tone for each tone, inflection, and jitter obtained by analyzing voice data. A reference value is stored.

図12(a)は、音声解析テーブル格納部125に記憶される音声解析テーブルの一例を表す。図12(a)によれば、音声レベルが、音声データより得られる発音のトーン、抑揚およびジッタの各々の所定の基準値に対する大小関係に基づいて1〜8に分類されている。   FIG. 12A shows an example of a voice analysis table stored in the voice analysis table storage unit 125. According to FIG. 12A, the sound level is classified into 1 to 8 on the basis of the magnitude relationship with respect to the predetermined reference values of the tone, inflection, and jitter obtained from the sound data.

上述の各種基準値は、それぞれ予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。   The various reference values described above may be set by determining specific values in advance, or may be set for each user according to characteristics such as the health condition and personality of each user.

ここで、音声レベルは、音声データから推定される使用者の緊張の度合いを表す。図12(a)の例において、使用者の緊張の度合いは音声レベルが小さくなるにつれて大きいことを表す。   Here, the voice level represents the degree of tension of the user estimated from the voice data. In the example of FIG. 12A, the degree of tension of the user is shown to increase as the sound level decreases.

例えば、トーンが基準値以上であり、抑揚が基準値以上であり、かつ、ジッタが基準値以上である場合、音声レベルは使用者が非常に緊張している旨を示す1に分類される。   For example, if the tone is above the reference value, the inflection is above the reference value, and the jitter is above the reference value, the audio level is classified as 1 indicating that the user is very nervous.

図12(b)は、音声解析テーブル格納部125に記憶される心理状態調整テーブルの一例を表す。図12(b)によれば、心理状態調整テーブルにおいては、上述の音声レベルに応じて心理状態レベル調整値−1、0および1が対応付けられている。この心理状態レベル調整値は、制御部10が生理量データおよび図5の心理状態推定テーブルに基づいて推定された心理状態レベルを調整するために用いられる。   FIG. 12B shows an example of a psychological state adjustment table stored in the voice analysis table storage unit 125. According to FIG.12 (b), in the psychological state adjustment table, psychological state level adjustment value -1, 0, and 1 are matched according to the above-mentioned audio | voice level. The psychological state level adjustment value is used by the control unit 10 to adjust the psychological state level estimated based on the physiological quantity data and the psychological state estimation table of FIG.

例えば、制御部10は、図12(a)の音声解析テーブルに基づいて音声レベルが1であると決定した場合、図12(b)の心理状態レベル調整テーブルに基づいて心理状態レベル調整値を−1として決定する。これにより、制御部10は、生理量データおよび図5の心理状態推定テーブルに基づいて推定された心理状態レベルを−1で調整する。生理量データにより推定された心理状態レベルが4の場合、調整後の心理状態レベルは3となる。   For example, when the control unit 10 determines that the sound level is 1 based on the sound analysis table of FIG. 12A, the control unit 10 sets the psychological state level adjustment value based on the psychological state level adjustment table of FIG. Determine as -1. Thereby, the control part 10 adjusts the mental state level estimated based on physiological quantity data and the mental state estimation table of FIG. 5 by -1. When the psychological state level estimated from the physiological data is 4, the adjusted psychological state level is 3.

リラックス動作設定テーブルについて説明する。図13は、図3の動作設定記憶部121に記憶される内容の一例を示す図である。ここでは、動作設定記憶部121に記憶される内容の一例として、リラックス動作設定テーブルが表されている。   The relaxation operation setting table will be described. FIG. 13 is a diagram illustrating an example of contents stored in the operation setting storage unit 121 of FIG. Here, as an example of content stored in the motion setting storage unit 121, a relaxed motion setting table is represented.

図13のリラックス動作設定テーブルでは、上述の調整後の心理状態レベルごとにメッセージ表示パターン、画像表示パターンおよびリラックス音楽パターンが設定されている。   In the relaxing operation setting table of FIG. 13, a message display pattern, an image display pattern, and a relaxing music pattern are set for each adjusted psychological state level.

ここで、メッセージ表示パターンとは使用者へのリラクゼーション時に図2のメイン表示部13が表示する文字のパターンをいい、画像表示パターンとは使用者へのリラクゼーション時に図2のメイン表示部13が表示する画像のパターンをいい、リラックス音楽パターンとは使用者へのリラクゼーション時に図2のスピーカ15aが再生する音声(音楽)のパターンをいう。   Here, the message display pattern is a character pattern displayed on the main display unit 13 in FIG. 2 during relaxation to the user, and the image display pattern is displayed on the main display unit 13 in FIG. 2 during relaxation to the user. The relaxed music pattern is a sound (music) pattern that is reproduced by the speaker 15a of FIG. 2 during the relaxation to the user.

図13の例では、推定される心理状態レベル1に対して、メッセージ表示パターンとして「深呼吸〜一休みいれてリラーックス」が設定され、画像表示パターンとして「自然の風景」が設定され、リラックス音楽パターンとして「せせらぎの音」が設定されている。   In the example of FIG. 13, for the estimated psychological state level 1, “deep breath to rest and relax” is set as the message display pattern, “natural landscape” is set as the image display pattern, and the relaxation music pattern “Buzzing sound” is set.

図14および図15は、使用者が第2の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。   14 and 15 are diagrams illustrating examples of contents displayed on the main display unit 13 when the user uses the mobile phone 100 according to the second embodiment.

使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。   The user operates the input operation unit 11 of the mobile phone 100 when making a call.

図14(a)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話時間が表示されるとともに終了ボタン131およびメンタルボタン132が表示される。   FIG. 14A shows a display example of the main display unit 13 when the user ends the call. The main display unit 13 displays the user's call time and also displays an end button 131 and a mental button 132.

ここで、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131およびメンタルボタン132の選択を行うことができる。   Here, the user can select the end button 131 and the mental button 132 by operating the cursor button KK and the determination button KS of FIG.

図14(b)は、使用者がメンタルボタン132を選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話中に検出された生体情報に基づいて推定される使用者の心理状態が表示されるとともに終了ボタン131、一言ボタン132aおよび音楽ボタン132bが表示される。   FIG. 14B shows a display example of the main display unit 13 when the user selects the mental button 132. The main display unit 13 displays the user's psychological state estimated based on the biological information detected during the user's call, and also displays an end button 131, a word button 132a, and a music button 132b. .

使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131、一言ボタン132aおよび音楽ボタン132bの選択を行うことができる。   The user can select the end button 131, the word button 132a, and the music button 132b by operating the cursor button KK, the determination button KS, and the like in FIG.

図15(c)は、使用者が一言ボタン132aを選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の緊張を弛緩するためのメッセージ表示パターンが表示されるとともに終了ボタン131および音楽ボタン132bが表示される。   FIG. 15C shows a display example of the main display unit 13 when the user selects the word button 132a. The main display unit 13 displays a message display pattern for relaxing the user's tension, and an end button 131 and a music button 132b.

使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131および音楽ボタン132bの選択を行うことができる。   The user can select the end button 131 and the music button 132b by operating the cursor button KK, the determination button KS, and the like shown in FIG.

図15(d)は、使用者が音楽ボタン132bを選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の緊張を弛緩するための画像表示パターンが表示されるとともに終了ボタン131および一言ボタン132aが表示される。   FIG. 15D illustrates a display example of the main display unit 13 when the user selects the music button 132b. The main display unit 13 displays an image display pattern for relaxing the user's tension, and an end button 131 and a word button 132a.

使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131および音楽ボタン132bの選択を行うことができる。   The user can select the end button 131 and the music button 132b by operating the cursor button KK, the determination button KS, and the like shown in FIG.

また、メイン表示部13が図15(d)の表示状態においては、図2のスピーカ15aから所定のリラックス音楽パターンが再生される。   Further, when the main display unit 13 is in the display state of FIG. 15D, a predetermined relaxing music pattern is reproduced from the speaker 15a of FIG.

上記において、使用者が図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131を選択した場合、使用者へのリラクゼーション、すなわちメッセージ表示パターンまたは画像表示パターンの表示動作およびリラックス音楽パターンの再生動作は終了する。   In the above, when the user selects the end button 131 by operating the cursor button KK, the determination button KS or the like of FIG. 1, the relaxation to the user, that is, the display operation of the message display pattern or the image display pattern and the relaxing music. The pattern reproduction operation ends.

なお、使用者の通話終了前(例えば、発信時、着信時および通話時)において、メイン表示部13には図8(a),(b),(c)に示す内容が表示されてもよい。   Note that the contents shown in FIGS. 8A, 8 </ b> B, and 8 </ b> C may be displayed on the main display unit 13 before the end of the user's call (for example, at the time of outgoing call, incoming call, and call). .

また、本実施の形態において、使用者へのリラクゼーションは第1の実施の形態に示すように通信相手(通話相手)ごとに設定されてもよいし、通信相手ごとに設定されなくてもよい。   In the present embodiment, the relaxation to the user may be set for each communication partner (call partner) as shown in the first embodiment, or may not be set for each communication partner.

本実施の形態に係る通信プログラムについて説明する。図16〜図18は、第2の実施の形態に係る通信プログラムの一例を示すフローチャートである。   A communication program according to the present embodiment will be described. 16 to 18 are flowcharts illustrating an example of a communication program according to the second embodiment.

本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。   According to the communication program according to the present embodiment, the control unit 10 in FIG. 2 operates as follows.

初めに、図2の制御部10は、使用者による入力操作部11の操作によりリラックスモードをオンする旨の指令信号を受けたか否かを判別する(ステップS30)。リラックスモードのオンとは、携帯電話機100が使用者にリラクゼーションを促す機能を動作させる旨をいう。   First, the control unit 10 in FIG. 2 determines whether or not a command signal for turning on the relaxation mode is received by the operation of the input operation unit 11 by the user (step S30). Turning on the relax mode means that the mobile phone 100 operates a function that prompts the user to relax.

制御部10は、リラックスモードをオンする旨の指令信号を受けた場合、使用者が入力操作部11を操作することにより他の電話機に対する発信の旨の指令信号を受けたか否かを判別する(ステップS31)。   When receiving a command signal for turning on the relaxation mode, the control unit 10 determines whether or not the user has received a command signal for sending to another telephone by operating the input operation unit 11 ( Step S31).

制御部10は、発信の旨の指令信号を受けた場合、その指令信号に基づく所定の動作を行い、通信相手から応答があったか否かを判別する(ステップS33)。制御部10は、応答があった場合、生理量データの測定および音声データの録音を開始する(ステップS34)。   When the control unit 10 receives a command signal for transmission, the control unit 10 performs a predetermined operation based on the command signal, and determines whether or not there is a response from the communication partner (step S33). When there is a response, the control unit 10 starts measuring physiological data and recording voice data (step S34).

制御部10は、上記ステップS31において発信する旨の指令信号を受けない場合、他の電話機からの着信があるか否かを判別する(ステップS32)。   When the control unit 10 does not receive the command signal for sending in step S31, the control unit 10 determines whether there is an incoming call from another telephone (step S32).

制御部10は、他の電話機からの着信がない場合、上記ステップS30の動作を繰り返す。一方、制御部10は他の電話機からの着信があった場合、その着信に基づく所定の動作を行い、着信に対して応答があったか否かを判別する(ステップS33)。制御部10は、応答があった場合、上記ステップS34の動作を行う。   When there is no incoming call from another telephone, the control unit 10 repeats the operation of step S30. On the other hand, when there is an incoming call from another telephone, the control unit 10 performs a predetermined operation based on the incoming call and determines whether or not there is a response to the incoming call (step S33). When there is a response, the control unit 10 performs the operation of step S34.

制御部10は上記ステップS34の動作を行いつつ、通信が終了したか否かを判別する(ステップS35)。   The control unit 10 determines whether or not the communication has ended while performing the operation of step S34 (step S35).

制御部10は、通信が終了しない場合、上記ステップS34の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了する(ステップS35b)。   When the communication does not end, the control unit 10 repeats the operation of step S34. On the other hand, when the communication ends, the control unit 10 ends the measurement of physiological data and the recording of voice data (step S35b).

次に、制御部10は、使用者が入力操作部11を操作することによりメンタルボタン132が選択されたか否かを判別する(ステップS36)。制御部10は、メンタルボタン132が選択された場合、測定された生理量データおよび録音された音声データに基づいて使用者の通信中の心理状態を推定する(ステップS37)。そして、制御部10は、推定結果、すなわち、使用者の心理状態をメイン表示部13に表示する(ステップS38)。   Next, the control unit 10 determines whether or not the mental button 132 has been selected by the user operating the input operation unit 11 (step S36). When the mental button 132 is selected, the control unit 10 estimates the psychological state during communication of the user based on the measured physiological data and the recorded voice data (step S37). And the control part 10 displays an estimation result, ie, a user's psychological state, on the main display part 13 (step S38).

続いて、制御部10は、使用者が入力操作部11を操作することにより一言ボタン132aが選択されたか否かを判別する(ステップS39)。   Subsequently, the control unit 10 determines whether or not the word button 132a is selected by the user operating the input operation unit 11 (step S39).

制御部10は、一言ボタン132aが選択されなかった場合、使用者の入力操作部11の操作により音楽ボタン132bが選択されたか否かを判別する(ステップS41)。一方、制御部10は、上記ステップS39において、一言ボタンが選択された場合、図3の動作設定記憶部121に記憶されたリラックス動作設定テーブルに基づくメッセージ表示パターンをメイン表示部13に表示する(ステップS40)。そして、制御部10は、上記ステップS41の動作を行う。   When the word button 132a is not selected, the control unit 10 determines whether or not the music button 132b is selected by the user's operation on the input operation unit 11 (step S41). On the other hand, when the word button is selected in step S39, the control unit 10 displays a message display pattern based on the relaxation operation setting table stored in the operation setting storage unit 121 of FIG. 3 on the main display unit 13. (Step S40). And the control part 10 performs operation | movement of the said step S41.

上記ステップS41において、制御部10は、音楽ボタンが選択されなかった場合、使用者が入力操作部11を操作することにより終了ボタン131が選択されたか否かを判別する(ステップS43)。一方、制御部10は、音楽ボタン132bが選択された場合、図3の動作設定記憶部121に記憶されたリラックス動作設定テーブルに基づく画像表示パターンをメイン表示部13に表示し、リラックス音楽パターンをスピーカ15aから再生する(ステップS42)。そして、制御部10は、上記ステップS43の動作を行う。   In step S41, when the music button is not selected, the control unit 10 determines whether or not the end button 131 is selected by the user operating the input operation unit 11 (step S43). On the other hand, when the music button 132b is selected, the control unit 10 displays an image display pattern based on the relaxation operation setting table stored in the operation setting storage unit 121 of FIG. 3 on the main display unit 13, and displays the relaxation music pattern. It reproduces | regenerates from the speaker 15a (step S42). And the control part 10 performs operation | movement of the said step S43.

上記ステップS43において、制御部10は、終了ボタン131が選択された場合、上記一連の動作を終了する。一方、制御部10は、終了ボタンが選択されなかった場合、上記ステップS39の動作を繰り返す。   In step S43, when the end button 131 is selected, the control unit 10 ends the series of operations. On the other hand, when the end button is not selected, the control unit 10 repeats the operation in step S39.

ところで、上記ステップS36において、制御部10はメンタルボタン132が選択されなかった場合、上記ステップS43の動作を行う。   Incidentally, in step S36, when the mental button 132 is not selected, the control unit 10 performs the operation of step S43.

また、制御部10は、上記ステップS30において、リラックスモードがオンしない場合、上記ステップS31と同様に、制御部10は、使用者が入力操作部11を操作することにより他の電話機に対する発信の旨の指令信号を受けたか否かを判別する(ステップS50)。   If the relax mode is not turned on in step S30, the control unit 10 makes a call to another telephone by the user operating the input operation unit 11 as in step S31. It is determined whether or not a command signal is received (step S50).

制御部10は、発信の旨の指令信号を受けた場合、その指令信号に基づく所定の動作を行い、通信相手から応答があったか否かを判別する(ステップS52)。次に、制御部10は、通信相手から応答があった場合、通信が終了したか否かを判別する(ステップS53)。制御部10は、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。   When the control unit 10 receives a command signal to the effect of transmission, it performs a predetermined operation based on the command signal, and determines whether or not there is a response from the communication partner (step S52). Next, the control part 10 discriminate | determines whether communication was complete | finished, when there exists a response from a communication other party (step S53). When communication is completed, control unit 10 ends the communication program according to the present embodiment.

上記ステップS50において、制御部10は、発信の旨の指令信号を受けない場合、他の電話機からの着信があるか否かを判別する(ステップS51)。   In step S50, when the control unit 10 does not receive a command signal for calling, it determines whether there is an incoming call from another telephone (step S51).

制御部10は、着信があった場合、その着信に対する所定の動作を行い、上記ステップS52の動作を行う。一方、制御部10は、上記ステップS51において、着信がない場合、上記ステップS30の動作を繰り返す。   When there is an incoming call, the control unit 10 performs a predetermined operation for the incoming call and performs the operation of step S52. On the other hand, when there is no incoming call in step S51, the control unit 10 repeats the operation of step S30.

以上、本実施の形態においては、制御部10により推定された使用者の心理状態に基づいて使用者の緊張を緩和させるための使用者へのリラクゼーションに関する情報がメイン表示部13により表示され、スピーカ15aにより音声出力される。それにより、通信相手に依存する使用者の緊張が緩和される。   As mentioned above, in this Embodiment, the information regarding the relaxation to a user for relieving a user's tension based on the user's mental state estimated by the control part 10 is displayed by the main display part 13, and a speaker The sound is output by 15a. Thereby, the tension of the user depending on the communication partner is alleviated.

上記では、心理状態の推定をするために図5の心理状態推定テーブルおよび図12の心理状態調整テーブルを用いたが、生体情報に基づく使用者の心理状態の推定は、図5の心理状態推定テーブルおよび図12の心理状態調整テーブルを用いることに限定されない。生体情報を用いるのであれば、生理量データのみを用いて他の推定テーブルにより使用者の心理状態を推定してもよいし、音声データのみを用いて使用者の心理状態を推定してもよい。   In the above description, the psychological state estimation table of FIG. 5 and the psychological state adjustment table of FIG. 12 are used to estimate the psychological state. It is not limited to using a table and the psychological state adjustment table of FIG. If biometric information is used, the user's psychological state may be estimated using other estimation tables using only physiological data, or the user's psychological state may be estimated using only voice data. .

また、上記では、心理状態として使用者の緊張の度合いを推定しているが、これに限らず、他の実施の形態において後述するが、生体情報に基づいて使用者のうそを推定したり、喜怒哀楽を推定してもよい。この場合、使用者は自己の心理状態について様々な情報を得ることができる。   Further, in the above, the degree of tension of the user is estimated as a psychological state, but not limited to this, as described later in other embodiments, the user's lie is estimated based on biological information, You may estimate emotions. In this case, the user can obtain various information about his / her psychological state.

さらに、上記では、携帯電話機100は、使用者の緊張の度合いを心理状態として推定し、推定された心理状態に基づいて使用者へのリラクゼーションを行うが、リラクゼーションの方法は上記に限定されない。   Furthermore, in the above, the mobile phone 100 estimates the degree of tension of the user as a psychological state and performs relaxation on the user based on the estimated psychological state, but the relaxation method is not limited to the above.

例えば、携帯電話機100は、推定された心理状態に基づいて図13のメッセージ表示パターンを表示することのみにより使用者へのリラクゼーションを行ってもよいし、図13の画像表示パターンを表示することのみにより使用者へのリラクゼーションを行ってもよいし、図13のリラックス音楽パターンを再生することのみにより使用者へのリラクゼーションを行ってもよい。   For example, the mobile phone 100 may perform relaxation for the user only by displaying the message display pattern of FIG. 13 based on the estimated psychological state, or only display the image display pattern of FIG. The user may be relaxed or the user may be relaxed only by playing the relaxing music pattern of FIG.

本実施の形態では、心理状態の変化としてリラクゼーションを行っているが、心理状態の変化はこれに限らない。例えば、携帯電話機100は、使用者の気分の落ち込みを解消するために、使用者の気分を活性化させるための情報を出力してもよい。これにより、使用者の気分の活性化が図られる。   In the present embodiment, relaxation is performed as a change in the psychological state, but the change in the psychological state is not limited to this. For example, the mobile phone 100 may output information for activating the user's mood in order to eliminate the depression of the user's mood. Thereby, activation of a user's mood is achieved.

(第3の実施の形態)
第3の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Third embodiment)
The mobile phone 100 according to the third embodiment has the same configuration and operation as the mobile phone 100 according to the first embodiment except for the following points.

本実施の形態に係る携帯電話機100には、図3の動作設定記憶部121に後述のなごみ動作設定テーブルが記憶されている。   In cellular phone 100 according to the present embodiment, an operation setting storage unit 121 shown in FIG.

本実施の形態において、携帯電話機100は、使用者の通話中に使用者の生体情報として生理量データを測定し、測定された生理量データに基づいて使用者の心理状態を推定する。   In the present embodiment, the mobile phone 100 measures physiological data as the user's biological information during the user's call, and estimates the user's psychological state based on the measured physiological data.

そして、携帯電話機100は、使用者の通話中に推定された心理状態および後述のなごみ動作設定テーブルに基づいて使用者の心理状態に応じて使用者の心理状態をなごませるように動作する。以下、携帯電話機100の使用者の心理状態をなごませる動作をなごみ動作と呼ぶ。なごみ動作については後述する。   Then, the mobile phone 100 operates so as to mitigate the user's psychological state according to the user's psychological state based on the psychological state estimated during the user's call and a dust operation setting table described later. Hereinafter, an operation for relaxing the psychological state of the user of the mobile phone 100 is referred to as a “smudge operation”. The nagomi operation will be described later.

なごみ動作設定テーブルについて説明する。図19は、図3の動作設定記憶部121に記憶される内容の一例を示す図である。ここでは、動作設定記憶部121に記憶される内容の一例として、なごみ動作設定テーブルが表されている。   The nagomi operation setting table will be described. FIG. 19 is a diagram illustrating an example of contents stored in the operation setting storage unit 121 of FIG. Here, a garbage operation setting table is shown as an example of the contents stored in the operation setting storage unit 121.

図19のなごみ動作設定テーブルでは、生理量データに基づいて推定される心理状態レベルごとになごみ音楽パターンおよびなごみことばパターンが設定されている。   In the garbage operation setting table of FIG. 19, a garbage music pattern and a garbage word pattern are set for each psychological state level estimated based on physiological data.

ここで、なごみ音楽パターンとは使用者に対するなごみ動作時に図2の通話用スピーカ15bが再生する音声のパターンをいい、なごみことばパターンとは使用者に対するなごみ動作時に図2の通話用スピーカ15bが再生する音声のパターンをいう。   Here, the nagomi music pattern refers to a voice pattern that is reproduced by the call speaker 15b in FIG. 2 when the user performs a deaf operation, and the nagomi word pattern is reproduced by the call speaker 15b in FIG. This is a voice pattern.

図19の例では、推定される心理状態レベル1および心理状態レベル2に対して、なごみ音楽パターンとして「せせらぎの音」が設定され、なごみことばパターンとして「ひといき、いれよう!」が設定されている。また、推定される心理状態レベル3および心理状態レベル4に対して、なごみことばパターンとして「ハイ、深呼吸して」が設定されている。   In the example of FIG. 19, for the estimated psychological state level 1 and psychological state level 2, “buzzing sound” is set as the nagomi music pattern, and “hidden, let's go!” Is set as the nagomi word pattern. ing. For the estimated psychological state level 3 and psychological state level 4, “high, take a deep breath” is set as the nagomi word pattern.

図20は、使用者が第3の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。   FIG. 20 is a diagram illustrating an example of contents displayed on the main display unit 13 when the user uses the mobile phone 100 according to the third embodiment.

使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。   The user operates the input operation unit 11 of the mobile phone 100 when making a call.

図20(a)は、使用者の通話中に、通話用スピーカ15bからなごみ音楽パターンが再生される場合のメイン表示部13の表示例を表す。メイン表示部13には、なごみ音楽パターンおよびなごみことばパターンが再生されている旨が表示されるとともに音量ボタン134およびオフボタン135が表示される。   FIG. 20A shows a display example of the main display unit 13 in a case where a music music pattern is reproduced from the call speaker 15b during a user's call. The main display unit 13 displays that a music music pattern and a music word pattern are being reproduced, and displays a volume button 134 and an off button 135.

図20(b)は、使用者の通話中に、通話用スピーカ15bからなごみことばパターンが再生される場合のメイン表示部13の表示例を表す。メイン表示部13には、なごみ音楽パターンが再生されている旨が表示されるとともに音量ボタン134およびオフボタン135が表示される。   FIG. 20B shows a display example of the main display unit 13 when a small word pattern is reproduced from the call speaker 15b during a user's call. The main display unit 13 displays that the music music pattern is being played, and displays a volume button 134 and an off button 135.

図20(a)および図20(b)において、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより音量ボタン134およびオフボタン135の選択を行うことができる。   20A and 20B, the user can select the volume button 134 and the off button 135 by operating the cursor button KK, the determination button KS, and the like shown in FIG.

ここで、使用者は入力操作部11を操作することにより音量ボタン134を選択した場合、通話用スピーカ15bから再生されるなごみ音楽パターンおよびなごみことばパターンの音量の設定を行うことができる。   Here, when the user selects the volume button 134 by operating the input operation unit 11, the user can set the volume of the music music pattern and the music word pattern reproduced from the call speaker 15 b.

一方、使用者は入力操作部11を操作することによりオフボタン135を選択した場合、携帯電話機100の使用者へのなごみ動作を終了させることができる。   On the other hand, when the user selects the off button 135 by operating the input operation unit 11, the user's operation of the mobile phone 100 can be terminated.

図20(c)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話時間が表示されるとともに、なごみ動作を継続するか否かの問いかけ、はいボタン136aおよびいいえボタン136bが表示される。   FIG. 20C illustrates a display example of the main display unit 13 when the user ends the call. The main display unit 13 displays the user's call time, and asks whether or not to continue the garbage operation, and displays a yes button 136a and a no button 136b.

使用者は、メイン表示部13に表示されるなごみ動作を継続するか否かの問いかけに対して、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより、はいボタン136aおよびいいえボタン136bのいずれかを選択する。   The user operates the cursor button KK and the decision button KS of FIG. 1 in response to the question as to whether or not to continue the garbage operation displayed on the main display unit 13, and thereby the yes button 136a and the no button 136b. Select one of the following.

使用者は入力操作部11を操作することによりはいボタン136aを選択した場合、携帯電話機100のなごみ動作を継続させることができる。一方、使用者は入力操作部11を操作することによりいいえボタン136bを選択した場合、携帯電話機100のなごみ動作を終了させることができる。   When the user selects the yes button 136 a by operating the input operation unit 11, it is possible to continue the garbage operation of the mobile phone 100. On the other hand, when the user selects the No button 136 b by operating the input operation unit 11, the garbage operation of the mobile phone 100 can be terminated.

図20(d)および図20(e)は、メイン表示部13が図20(c)の表示状態において、使用者がはいボタン136aを選択した場合のメイン表示部13の表示例を表す。   20D and 20E show display examples of the main display unit 13 when the user selects the YES button 136a when the main display unit 13 is in the display state of FIG. 20C.

図20(d)において、メイン表示部13には、通話用スピーカ15bからなごみ音楽パターンおよびなごみことばパターンが再生されている旨が表示されるとともに終了ボタン131が表示される。この場合、使用者は通話用スピーカ15bから再生されるなごみ音楽パターンおよびなごみことばパターンを聞くことができる。   In FIG. 20D, the main display unit 13 displays that the music music pattern and the word pattern are being reproduced from the call speaker 15b, and also displays an end button 131. In this case, the user can listen to the trash music pattern and the trash word pattern reproduced from the call speaker 15b.

図20(e)において、メイン表示部13には、通話用スピーカ15bからなごみことばパターンが再生されている旨が表示されるとともに終了ボタン131が表示される。この場合、使用者は通話用スピーカ15bから再生されるなごみことばパターンを聞くことができる。   In FIG. 20 (e), the main display unit 13 displays that a speech word pattern is being reproduced from the call speaker 15b and also displays an end button 131. In this case, the user can hear the dirty word pattern reproduced from the call speaker 15b.

使用者はメイン表示部13が図20(c)の表示状態において、使用者が図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131を選択した場合、携帯電話機100のなごみ動作を終了させることができる。   When the user selects the end button 131 by operating the cursor button KK, the enter button KS, or the like of FIG. 1 while the main display unit 13 is in the display state of FIG. The operation can be terminated.

なお、使用者の通話前(例えば、発信時および着信時)において、メイン表示部13には図8(a),(b)に示す内容が表示されてもよい。   Note that the contents shown in FIGS. 8A and 8B may be displayed on the main display unit 13 before the user calls (for example, at the time of outgoing and incoming calls).

また、本実施の形態において、使用者へのなごみ動作は第1の実施の形態に示すように通信相手ごとに設定されてもよいし、通信相手ごとに設定されなくてもよい。   Further, in the present embodiment, the garbage operation for the user may be set for each communication partner as shown in the first embodiment, or may not be set for each communication partner.

本実施の形態に係る通信プログラムについて説明する。図21〜図23は、第3の実施の実施の形態に係る通信プログラムの一例を示すフローチャートである。   A communication program according to the present embodiment will be described. 21 to 23 are flowcharts illustrating an example of a communication program according to the third embodiment.

本実施の形態に係る通信プグラムによれば、図2の制御部10は次のように動作する。   According to the communication program according to the present embodiment, the control unit 10 in FIG. 2 operates as follows.

初めに、図2の制御部10は、使用者による入力操作部11の操作によりなごみモードをオンする旨の指令信号を受けたか否かを判別する(ステップS60)。なごみモードのオンとは、携帯電話機100が上述のなごみ動作を行うことが可能な状態にすることをいう。   First, the control unit 10 of FIG. 2 determines whether or not a command signal for turning on the dust mode is received by the operation of the input operation unit 11 by the user (step S60). The turning on of the garbage mode means that the mobile phone 100 is in a state where the above-described garbage operation can be performed.

制御部10は、なごみモードをオンする旨の指令信号を受けた場合、第2の実施の形態において説明したステップS31〜ステップS33と同様の動作を行う(ステップS61〜S63)。   When receiving a command signal for turning on the dust mode, the control unit 10 performs the same operation as Steps S31 to S33 described in the second embodiment (Steps S61 to S63).

上記ステップS63において、制御部10は、応答があった場合、生理量データの測定を開始する(ステップS64)。   In step S63, when there is a response, the control unit 10 starts measuring physiological data (step S64).

制御部10は、所定の時間が経過することにより、測定された生理量データに基づいて使用者の通信中の心理状態を推定する(ステップS65)。これにより、使用者の心理状態が図5の心理状態レベル1〜6のいずれかに分類される。   The control unit 10 estimates the psychological state during the communication of the user based on the measured physiological quantity data when a predetermined time elapses (step S65). Thereby, a user's psychological state is classified into either of the psychological state levels 1 to 6 in FIG.

次に、制御部10は、使用者の心理状態レベルが1または2であるか否かを判別する(ステップS66)。制御部10は、使用者の心理状態レベルが1または2である場合、図19のなごみ動作設定テーブルに基づいてなごみことばパターンおよびなごみ音楽パターンを通話用スピーカ15bから再生する(ステップS67)。   Next, the control part 10 discriminate | determines whether a user's psychological state level is 1 or 2 (step S66). When the psychological state level of the user is 1 or 2, the control unit 10 reproduces the trash word pattern and the trash music pattern from the call speaker 15b based on the trash operation setting table of FIG. 19 (step S67).

制御部10は、上記ステップS67の動作の後または使用者の心理状態レベルが1または2でない場合、使用者の心理状態レベルが3または4であるか否かを判別する(ステップS68)。制御部10は、使用者の心理状態レベルが3または4である場合、図19のなごみ動作設定テーブルに基づいてなごみことばパターンを通話用スピーカ15bから再生する(ステップS69)。   After the operation of step S67 or when the user's psychological state level is not 1 or 2, the control unit 10 determines whether or not the user's psychological state level is 3 or 4 (step S68). When the psychological state level of the user is 3 or 4, the control unit 10 reproduces the word pattern from the call speaker 15b based on the character operation setting table of FIG. 19 (step S69).

次に、制御部10は、上記ステップS69の動作の後または使用者の心理状態レベルが3または4でない場合、通信が終了したか否かを判別する(ステップS70)。   Next, after the operation of step S69 or when the user's psychological state level is not 3 or 4, the control unit 10 determines whether or not the communication has ended (step S70).

制御部10は、通信が終了しない場合、上記ステップS64の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定を終了する(ステップS70b)。   Control part 10 repeats operation of the above-mentioned step S64, when communication does not end. On the other hand, when the communication ends, the control unit 10 ends the measurement of physiological data (step S70b).

続いて、制御部10は、使用者に対するなごみ動作を継続するか否かの問いかけをメイン表示部13に表示する(ステップS71)。そして、制御部10は、使用者が入力操作部11を操作することによりはいボタン136aが選択されたか否かを判別する(ステップS72)。   Subsequently, the control unit 10 displays on the main display unit 13 an inquiry as to whether or not to continue the dirt operation for the user (step S71). And the control part 10 discriminate | determines whether the yes button 136a was selected by the user operating the input operation part 11 (step S72).

制御部10は、はいボタンが選択された場合、図19のなごみ動作設定テーブルに基づいてなごみ音楽パターンおよびなごみことばパターンを通話用スピーカ15bから再生する(ステップS73)。   When the Yes button is selected, the control unit 10 reproduces the music music pattern and the word message pattern from the call speaker 15b based on the character operation setting table of FIG. 19 (step S73).

その後、制御部10は、使用者が入力操作部11を操作することにより終了ボタン131が選択されたか否かを判別する(ステップS74)。制御部10は、終了ボタンが選択されなかった場合、上記ステップS73の動作を繰り返す。一方、制御部10は、終了ボタン131が選択された場合、本実施の形態に係る通信プログラムを終了する。   Thereafter, the control unit 10 determines whether or not the end button 131 is selected by the user operating the input operation unit 11 (step S74). When the end button is not selected, the control unit 10 repeats the operation in step S73. On the other hand, when the end button 131 is selected, the control unit 10 ends the communication program according to the present embodiment.

上記ステップS72において、制御部10は、はいボタン136aが選択されなかった場合、使用者が入力操作部11を操作することによりいいえボタン136bが選択されたか否かを判別する(ステップS75)。制御部10は、いいえボタン136bが選択されない場合、上記ステップS72の動作を繰り返す。一方、制御部10はいいえボタン136bが選択された場合、本実施の形態に係る通信プログラムを終了する。   In step S72, when the yes button 136a is not selected, the control unit 10 determines whether or not the no button 136b is selected by the user operating the input operation unit 11 (step S75). When the No button 136b is not selected, the control unit 10 repeats the operation of Step S72. On the other hand, when the No button 136b is selected, the control unit 10 ends the communication program according to the present embodiment.

また、制御部10は、上記ステップS60において、なごみモードがオンしない場合、第2の実施の形態のステップS50〜S53と同様の動作を行う(ステップS80〜S83)。この場合、制御部10は、上記ステップS83において、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。   Moreover, the control part 10 performs the operation | movement similar to step S50-S53 of 2nd Embodiment, when the dust mode does not turn on in said step S60 (steps S80-S83). In this case, the control unit 10 ends the communication program according to the present embodiment when the communication is ended in step S83.

以上、本実施の形態においては、生理量データ測定部20および制御部10により推定された使用者の心理状態を示す情報が通話用スピーカ15bにより音声として出力される。それにより、使用者は、通信相手に依存する心理状態を容易に認識することができる。   As described above, in the present embodiment, information indicating the user's psychological state estimated by the physiological data measurement unit 20 and the control unit 10 is output as voice by the call speaker 15b. Thereby, the user can easily recognize the psychological state depending on the communication partner.

また、本実施の形態においては、制御部10により推定された使用者の心理状態に基づいて使用者の緊張を緩和させるための情報(なごみに関する情報)が通話用スピーカ15bから音声出力される。それにより、通信相手に依存する使用者の緊張が緩和される。   Further, in the present embodiment, information for relieving the user's tension based on the user's psychological state estimated by the control unit 10 (information related to nagging) is output from the call speaker 15b. Thereby, the tension of the user depending on the communication partner is alleviated.

上記では、第1の実施の形態と同様に心理状態として使用者の緊張の度合いを推定しているが、これに限らず、他の実施の形態において後述するが、生体情報に基づいて使用者のうそを推定したり、喜怒哀楽を推定してもよい。この場合、使用者は自己の心理状態について様々な情報を得ることができる。そして、図19のなごみ設定テーブルに代えて、推定される内容に応じた動作を設定しておくことにより、使用者は通話時に推定結果に応じたリラクゼーションまたは携帯電話機100の動作によるなごみを得ることができる。   In the above, the degree of tension of the user is estimated as a psychological state as in the first embodiment. However, the present invention is not limited to this, but will be described later in other embodiments. A lie may be estimated, or emotions may be estimated. In this case, the user can obtain various information about his / her psychological state. Then, in place of the garbage setting table of FIG. 19, by setting an operation according to the estimated content, the user can obtain relaxation according to the estimation result during the call or garbage due to the operation of the mobile phone 100. Can do.

携帯電話機100は、通話中でなくても、使用者の生体情報を検出してもよい。他の実施の形態において後述するが、例えば、携帯電話機100は使用者が電子メールを作成する際に使用者の生体情報を検出してもよい。この場合、使用者は自己の特定の通信相手への電子メールの作成時の心理状態についての情報を得ることができる。さらに、この場合、携帯電話機100が電子メールの作成時の心理状態に応じてなごみ動作を行うので、使用者は電子メールの作成時に緊張の度合いが高くなったときでも、なごみを得ることができる。   The mobile phone 100 may detect the user's biometric information even when not in a call. As will be described later in another embodiment, for example, the mobile phone 100 may detect the user's biometric information when the user creates an e-mail. In this case, the user can obtain information about the psychological state at the time of creating an e-mail to his / her specific communication partner. Further, in this case, since the mobile phone 100 performs a rubbing operation according to the psychological state at the time of creating the e-mail, the user can obtain the rubbish even when the degree of tension increases at the time of creating the e-mail. .

(第4の実施の形態)
第4の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Fourth embodiment)
The mobile phone 100 according to the fourth embodiment has the same configuration and operation as the mobile phone 100 according to the first embodiment except for the following points.

本実施の形態に係る携帯電話機100は、使用者の心理状態として、喜怒哀楽の度合いを推定する。使用者の喜怒哀楽の度合いの推定は、使用者の生理量データおよび音声データの解析結果に基づいて行う。   Mobile phone 100 according to the present embodiment estimates the degree of emotions as the user's psychological state. The degree of emotion of the user is estimated based on the analysis result of the user's physiological data and voice data.

本実施の形態では、生理量データとしてGSRが用いられる。音声データとしては、第2の実施の形態で説明したように録音された使用者の会話の音声が用いられる。   In the present embodiment, GSR is used as physiological data. As the voice data, the voice of the user's conversation recorded as described in the second embodiment is used.

図24は、使用者の喜怒哀楽の度合いを推定するためのデータの抽出方法を説明するための図である。   FIG. 24 is a diagram for explaining a data extraction method for estimating the degree of emotion of the user.

図24に示すように、携帯電話機100は使用者の通話開始から通話終了までの使用者のGSRおよび音声データを記憶する。そして、携帯電話機100は、得られた音声データに基づいて使用者が発声した時間を特定する。これにより特定される時間を発声期間と呼ぶ。   As shown in FIG. 24, the mobile phone 100 stores the user's GSR and voice data from the start of the user's call to the end of the call. Then, the mobile phone 100 specifies the time when the user uttered based on the obtained audio data. The time specified by this is called an utterance period.

携帯電話機100は、特定された発声期間の前後に所定の時間を付加することにより、記憶された音声データおよびGSRのうち解析対象とする時間を決定する。これにより決定される時間を解析対象期間と呼ぶ。図24では、解析対象期間が符号TT1および符号TT2で表されている。   The mobile phone 100 determines a time to be analyzed from the stored voice data and GSR by adding a predetermined time before and after the specified utterance period. The time determined by this is called an analysis target period. In FIG. 24, the analysis target period is represented by a code TT1 and a code TT2.

携帯電話機100は、決定された解析対象期間TT1,TT2の各々において、音声データの解析を行う。その結果、携帯電話機100は、解析対象期間TT1,TT2の各々における音声データのパラメータとして、発音のトーン、抑揚およびジッタを得る。なお、以下の説明において、トーン、抑揚およびジッタの解析結果は数値化されているものとする。   The mobile phone 100 analyzes the audio data in each of the determined analysis target periods TT1 and TT2. As a result, the cellular phone 100 obtains the tone, inflection, and jitter of the pronunciation as the parameters of the audio data in each of the analysis target periods TT1 and TT2. In the following description, it is assumed that the analysis results of tone, inflection, and jitter are quantified.

また、携帯電話機100は、決定された解析対象期間TT1,TT2の各々において、GSRの解析を行う。この解析は、解析対象期間TT1,TT2の各々において、測定されたGSRの最大値から最小値までの差分値を算出することにより行う。以下、この差分値をGSR差分値と呼ぶ。   In addition, the mobile phone 100 performs GSR analysis in each of the determined analysis target periods TT1 and TT2. This analysis is performed by calculating a difference value from the maximum value to the minimum value of the measured GSR in each of the analysis target periods TT1 and TT2. Hereinafter, this difference value is referred to as a GSR difference value.

図24では、解析対象期間TT1,TT2ごとに算出されるGSR差分値が、それぞれ矢印ΔGm1および矢印ΔGm2で表されている。   In FIG. 24, the GSR difference values calculated for each analysis target period TT1, TT2 are represented by arrows ΔGm1 and ΔGm2, respectively.

本実施の形態に係る携帯電話機100には、図3の心理状態推定テーブル格納部122に後述の生理量感情推定テーブル、音声感情推定テーブル、感情推定基準テーブルおよびポイント決定テーブルが記憶されている。   In cellular phone 100 according to the present embodiment, psychological state estimation table storage section 122 in FIG. 3 stores a physiological emotion estimation table, a voice emotion estimation table, an emotion estimation reference table, and a point determination table, which will be described later.

携帯電話機100は、決定された解析対象期間ごとに、生理量データを解析することにより得られる上述のGSR差分値および生理量推定テーブルに基づいて後述の感情レベルを決定する。また、携帯電話機100は、決定された解析対象期間ごとに、音声データを解析することにより得られる上述の発音のトーン、抑揚およびジッタおよび音声感情推定テーブルに基づいて後述の感情レベルを決定する。   The cellular phone 100 determines an emotion level, which will be described later, based on the above-described GSR difference value and physiological quantity estimation table obtained by analyzing physiological data for each determined analysis target period. In addition, the mobile phone 100 determines an emotion level, which will be described later, based on the above-described pronunciation tone, inflection and jitter, and speech emotion estimation table obtained by analyzing the speech data for each determined analysis target period.

その後、携帯電話機100は、GSR差分値、トーン、抑揚およびジッタの各々に基づいて決定された複数の感情レベル、感情推定基準テーブルならびにポイント決定テーブルに基づいて使用者の喜怒哀楽の度合いを推定する。   Thereafter, the mobile phone 100 estimates the degree of emotion of the user based on the plurality of emotion levels determined based on the GSR difference value, tone, inflection, and jitter, the emotion estimation reference table, and the point determination table. To do.

生理量感情推定テーブルおよび音声感情推定テーブルについて説明する。図25は、図3の心理状態推定テーブル格納部122および音声解析テーブル格納部125に記憶される内容の一例を示す図である。ここでは、心理状態推定テーブル格納部122および音声解析テーブル格納部125に記憶される内容の一例として、生理量感情推定テーブルおよび音声感情推定テーブルが表されている。   The physiological emotion estimation table and the voice emotion estimation table will be described. 25 is a diagram illustrating an example of contents stored in the psychological state estimation table storage unit 122 and the voice analysis table storage unit 125 of FIG. Here, as an example of contents stored in the psychological state estimation table storage unit 122 and the voice analysis table storage unit 125, a physiological quantity emotion estimation table and a voice emotion estimation table are represented.

図25(a)は心理状態推定テーブル格納部122に記憶される生理量感情推定テーブルの一例を表す。上述のように、測定された使用者のGSRに基づいてGSR差分値が算出される。生理量感情推定テーブルにより算出されたGSR差分値に基づいて使用者の喜怒哀楽の度合いを推定するための感情レベルが決定される。感情レベルの決定は、所定の基準値に対するGSR差分値の大小関係に基づき決定される。   FIG. 25A shows an example of a physiological emotion estimation table stored in the psychological state estimation table storage unit 122. As described above, the GSR difference value is calculated based on the measured GSR of the user. An emotion level for estimating the degree of emotion of the user is determined based on the GSR difference value calculated by the physiological emotion estimation table. The emotion level is determined based on the magnitude relationship of the GSR difference value with respect to a predetermined reference value.

図25(a)においては、GSR差分値ΔGmについて3つの基準値Kα,Kβ,Kγが設定されている。これら基準値Kα,Kβ,Kγは、Kα,Kβ,Kγの順に大きい。   In FIG. 25A, three reference values Kα, Kβ, and Kγ are set for the GSR difference value ΔGm. These reference values Kα, Kβ, and Kγ are larger in the order of Kα, Kβ, and Kγ.

GSR差分値ΔGmによる感情レベルの決定の一例を説明する。図25(a)によれば、例えば、GSR差分値ΔGmが基準値Kγ以上である場合、感情レベル3が決定され、GSR差分値ΔGmが基準値Kβ以上であり、かつ、基準値Kγ未満である場合にも、感情レベル3が決定される。   An example of determination of the emotion level based on the GSR difference value ΔGm will be described. According to FIG. 25A, for example, when the GSR difference value ΔGm is greater than or equal to the reference value Kγ, the emotion level 3 is determined, and the GSR difference value ΔGm is greater than or equal to the reference value Kβ and less than the reference value Kγ. Even in some cases, emotion level 3 is determined.

また、GSR差分値ΔGmが基準値Kα以上であり、かつ、基準値Kβ未満である場合、感情レベル1が決定され、GSR差分値ΔGmが基準値Kα未満である場合、感情レベル2が決定される。   When the GSR difference value ΔGm is equal to or greater than the reference value Kα and less than the reference value Kβ, the emotion level 1 is determined. When the GSR difference value ΔGm is less than the reference value Kα, the emotion level 2 is determined. The

図25(b)は音声解析テーブル格納部125に記憶される音声感情推定テーブルの一例を表す。上述のように、使用者の音声データを解析することにより得られるトーン、抑揚およびジッタに基づいて使用者の喜怒哀楽の度合いを推定するための感情レベルが決定される。感情レベルの決定は、トーン、抑揚およびジッタの各々について行われ、予め設定された基準値に対するトーン、抑揚およびジッタの大小関係に基づき決定される。この場合、所定の基準値はトーン、抑揚およびジッタの各々について設定されている。   FIG. 25B shows an example of a voice emotion estimation table stored in the voice analysis table storage unit 125. As described above, the emotion level for estimating the degree of emotion of the user is determined based on the tone, intonation, and jitter obtained by analyzing the user's voice data. The emotion level is determined for each of tone, inflection, and jitter, and is determined based on the magnitude relationship of tone, inflection, and jitter with respect to a preset reference value. In this case, the predetermined reference value is set for each of tone, inflection, and jitter.

図25(b)においては、トーンTOについて3つの基準値Lα,Lβ,Lγが設定されている。これら基準値Lα,Lβ,Lγは、Lα,Lβ,Lγの順に大きい。また、抑揚YOについて3つの基準値Mα,Mβ,Mγが設定されている。これら基準値Mα,Mβ,Mγは、Mα,Mβ,Mγの順に大きい。さらに、ジッタGIについて3つの基準値Nα,Nβ,Nγが設定されている。これら基準値Nα,Nβ,Nγは、Nα,Nβ,Nγの順に大きい。   In FIG. 25B, three reference values Lα, Lβ, and Lγ are set for the tone TO. These reference values Lα, Lβ, Lγ are larger in the order of Lα, Lβ, Lγ. In addition, three reference values Mα, Mβ, and Mγ are set for the intonation YO. These reference values Mα, Mβ, Mγ are larger in the order of Mα, Mβ, Mγ. Further, three reference values Nα, Nβ, and Nγ are set for the jitter GI. These reference values Nα, Nβ, Nγ are larger in the order of Nα, Nβ, Nγ.

トーンTOによる感情レベルの決定の一例を説明する。図25(b)によれば、例えば、トーンTOが基準値Lγ以上である場合、感情レベル3が決定され、トーンTOが基準値Lβ以上であり、かつ、基準値Lγ未満である場合にも、感情レベル3が決定される。   An example of emotion level determination by tone TO will be described. According to FIG. 25B, for example, when the tone TO is greater than or equal to the reference value Lγ, the emotion level 3 is determined, and when the tone TO is greater than or equal to the reference value Lβ and less than the reference value Lγ. Emotion level 3 is determined.

また、トーンTOが基準値Lα以上であり、かつ、基準値Lβ未満である場合、感情レベル1が決定され、トーンTOが基準値Lα未満である場合、感情レベル3が決定される。   Further, when the tone TO is greater than or equal to the reference value Lα and less than the reference value Lβ, the emotion level 1 is determined, and when the tone TO is less than the reference value Lα, the emotion level 3 is determined.

感情推定基準テーブルおよびポイント決定テーブルについて説明する。図26は、図3の心理状態推定テーブル格納部122に記憶される内容の一例を示す図である。ここでは、心理状態推定テーブル格納部122に記憶される内容の一例として、感情推定基準テーブルおよびポイント決定テーブルが表されている。   The emotion estimation reference table and the point determination table will be described. FIG. 26 is a diagram illustrating an example of contents stored in the psychological state estimation table storage unit 122 of FIG. Here, as an example of contents stored in the psychological state estimation table storage unit 122, an emotion estimation reference table and a point determination table are represented.

図26(a)は心理状態推定テーブル格納部122に記憶される感情推定基準テーブルの一例を表す。   FIG. 26A shows an example of an emotion estimation reference table stored in the psychological state estimation table storage unit 122.

図26(a)においては、GSR差分値、トーン、抑揚およびジッタの各々に基づいて決定される感情レベルの組合せが、感情として、喜び、怒り、哀しみおよび楽しみの4つのグループに分類されている。このような、図26(a)における感情レベルの組合せを基準組合せと呼ぶ。   In FIG. 26 (a), combinations of emotion levels determined based on GSR difference values, tones, intonations, and jitters are classified into four groups of emotions: joy, anger, sadness, and enjoyment. . Such a combination of emotion levels in FIG. 26A is referred to as a reference combination.

この基準組合せの一例を説明する。図26(a)によれば、例えば、喜びについての基準組合せは、GSR差分値に基づく感情レベルが3であり、トーンに基づく感情レベルが3であり、抑揚に基づく感情レベルが3であり、ジッタに基づく感情レベルが3である。   An example of this reference combination will be described. According to FIG. 26 (a), for example, in the reference combination for pleasure, the emotion level based on the GSR difference value is 3, the emotion level based on the tone is 3, the emotion level based on inflection is 3, The emotion level based on jitter is 3.

このように定められた喜び、怒り、哀しみおよび楽しみの4つの基準組合せは、その後、測定により得られたGSR差分値ならびに音声データの解析により得られたトーン、抑揚およびジッタに基づく感情レベルの組合せ(以下、測定組合せと呼ぶ。)とそれぞれ比較される。   The four standard combinations of joy, anger, sadness and enjoyment thus defined are then a combination of emotional levels based on GSR difference values obtained by measurement and tone, inflection and jitter obtained by analysis of speech data. (Hereinafter referred to as measurement combination).

基準組合せと測定組合せとの比較時においては、組み合わされた感情レベルごとの比較が行われる。そして、比較の結果として後述のポイントが決定される。   At the time of comparison between the reference combination and the measurement combination, comparison is performed for each combined emotion level. Then, the points described later are determined as a result of the comparison.

図26(b)は心理状態推定テーブル格納部122に記憶されるポイント決定テーブルの一例を表す。図26(b)においては、基準組合せと測定組合せとの比較時の感情レベルの差異に応じたポイントが設定されている。   FIG. 26B shows an example of a point determination table stored in the psychological state estimation table storage unit 122. In FIG. 26 (b), points are set according to the difference in emotion level when comparing the reference combination and the measurement combination.

基準組合せの各感情レベルと測定組合せの対応する感情レベルとを比較する場合を想定する。図26(b)によれば、その比較の結果、基準組合せの感情レベルと測定組合せの感情レベルとの間で差異がない場合、ポイントが30として決定される。また、感情レベルの差異が1の場合、ポイントが20として決定される。さらに、感情レベルの差異が2の場合、ポイントが10として決定され、感情レベルの差異が3の場合、ポイントが0として決定される。   Assume that each emotion level of the reference combination is compared with the corresponding emotion level of the measurement combination. According to FIG. 26B, if there is no difference between the emotion level of the reference combination and the emotion level of the measurement combination as a result of the comparison, the point is determined as 30. If the difference in emotion level is 1, the point is determined as 20. Further, when the emotion level difference is 2, the point is determined as 10, and when the emotion level difference is 3, the point is determined as 0.

図27は測定組合せから喜怒哀楽の度合いを推定する場合の一例を説明するための図である。   FIG. 27 is a diagram for explaining an example in which the degree of emotion is estimated from the measurement combination.

図27(a)は測定組合せの一例を表す。図27(a)では、GSR差分値に基づく感情レベルが3であり、トーンに基づく感情レベルが3であり、抑揚に基づく感情レベルが3であり、ジッタに基づく感情レベルが3である旨が表されている。   FIG. 27A shows an example of a measurement combination. In FIG. 27A, the emotion level based on the GSR difference value is 3, the emotion level based on tone is 3, the emotion level based on inflection is 3, and the emotion level based on jitter is 3. It is represented.

上述のように、喜怒哀楽の度合いの推定時において、図27(a)で表される測定組合せは、図26(a)で表される感情推定基準テーブルの喜び、怒り、哀しみおよび楽しみの4つの基準組合せとそれぞれ比較される。そして、測定組合せと基準組合せとの比較結果および図26(b)のポイント決定テーブルに基づいて後述の測定結果ポイントテーブルが作成される。測定結果ポイントテーブルは個人情報データ格納部123に記憶される。   As described above, at the time of estimating the degree of emotions, the measurement combination shown in FIG. 27 (a) is the joy, anger, sadness and enjoyment of the emotion estimation reference table shown in FIG. 26 (a). Each of the four reference combinations is compared. Then, a measurement result point table to be described later is created based on the comparison result between the measurement combination and the reference combination and the point determination table in FIG. The measurement result point table is stored in the personal information data storage unit 123.

図27(b)は測定結果ポイントテーブルの一例を表す。図27(b)においては、図27(a)で表される測定組合せの各感情レベルと図26(a)の基準組合せの各感情レベルとの比較結果ならびに図26(b)のポイント設定テーブルに基づいて、喜び、怒り、哀しみおよび楽しみについてのポイントの組合せが表されている。   FIG. 27B shows an example of the measurement result point table. In FIG. 27 (b), the comparison result of each emotion level of the measurement combination represented in FIG. 27 (a) and each emotion level of the reference combination of FIG. 26 (a) and the point setting table of FIG. 26 (b). On the basis of a combination of points about joy, anger, sadness and fun.

ポイントの組合せの一例として、喜びに関するポイントの組合せについて説明する。   As an example of the combination of points, a combination of points related to pleasure will be described.

上述のように、図27(a)の測定組合せでは、GSR差分値に基づく感情レベルが3であり、トーンに基づく感情レベルが3であり、抑揚に基づく感情レベルが3であり、ジッタに基づく感情レベルが3である。一方、図26(a)の喜びの基準組合せでは、GSR差分値に基づく感情レベルが3であり、トーンに基づく感情レベルが3であり、抑揚に基づく感情レベルが3であり、ジッタに基づく感情レベルが3である。   As described above, in the measurement combination of FIG. 27A, the emotion level based on the GSR difference value is 3, the emotion level based on the tone is 3, the emotion level based on the inflection is 3, and based on jitter Emotion level is 3. On the other hand, in the joy standard combination of FIG. 26A, the emotion level based on the GSR difference value is 3, the emotion level based on the tone is 3, the emotion level based on the inflection is 3, and the emotion based on jitter Level is 3.

したがって、これらをそれぞれ比較すると、全ての感情レベルが同一である。その結果、図27(a)で表される測定組合せの各感情レベルと図26(a)で表される基準組合せの各感情レベルとの差異が全て0となる。   Therefore, when these are compared with each other, all emotion levels are the same. As a result, the difference between each emotion level of the measurement combination represented in FIG. 27A and each emotion level of the reference combination represented in FIG.

ここで、図26(b)のポイント決定テーブルによれば、測定組合せの感情レベルと基準組合せの感情レベルとの差異が0の場合、ポイントが30として決定される。   Here, according to the point determination table of FIG. 26B, when the difference between the emotion level of the measurement combination and the emotion level of the reference combination is 0, 30 points are determined.

したがって、この場合、図27(b)で表されるように、喜びに関するポイントの組合せでは、GSR差分値に基づくポイントが30に決定され、トーンに基づくポイントが30に決定され、抑揚に基づくポイントが30に決定され、ジッタに基づくポイントが30に決定される。   Therefore, in this case, as shown in FIG. 27B, in the combination of points relating to pleasure, the point based on the GSR difference value is determined to be 30, the point based on the tone is determined to be 30, and the point based on inflection Is determined to be 30, and a jitter based point is determined to be 30.

同様に、怒り、悲しみおよび楽しみについても測定組合せの各感情レベルと基準組合せの各感情レベルとの比較が行われる。その結果、ポイントの組合せがそれぞれ決定される。   Similarly, for anger, sadness, and enjoyment, each emotion level of the measurement combination is compared with each emotion level of the reference combination. As a result, each combination of points is determined.

図27(b)に表されるように、決定されたポイントは各組合せごとに合計される。   As shown in FIG. 27B, the determined points are summed for each combination.

すなわち、喜びに関するポイントの組合せでは、GSR差分値に基づくポイント30、トーンに基づくポイント30、抑揚に基づくポイント30およびジッタに基づくポイント30が合計され、合計値120が算出される。一方、図27(b)によれば、怒りに関するポイントの組合せでは、合計値90が算出される。他方、哀しみに関するポイントの組合せでは、合計値40が算出される。さらに、楽しみに関するポイントの組合せでは、合計値100が算出される。   That is, in the combination of points relating to pleasure, the point 30 based on the GSR difference value, the point 30 based on the tone, the point 30 based on the inflection, and the point 30 based on the jitter are summed, and a total value 120 is calculated. On the other hand, according to FIG. 27B, the total value 90 is calculated for the combination of points related to anger. On the other hand, the total value 40 is calculated for the combination of points concerning sadness. Furthermore, a total value of 100 is calculated for combinations of points related to enjoyment.

最後に、算出された合計値の減算処理が行われる。本実施の形態では、喜びに関するポイントの合計値から怒りに関するポイントの合計値の減算処理が行われ、楽しみに関するポイントの合計値から哀しみに関するポイントの合計値の減算処理が行われる。   Finally, the calculated total value is subtracted. In the present embodiment, the total value of points related to anger is subtracted from the total value of points related to pleasure, and the total value of points related to sadness is subtracted from the total value of points related to pleasure.

その結果、携帯電話機100は、使用者の喜怒哀楽の度合いを、喜びと怒りとの関係および哀しみと楽しみとの関係により推定することができる。図27(c)は、上記の動作により得られる使用者の喜怒哀楽の度合いを表すグラフの一例である。   As a result, the mobile phone 100 can estimate the degree of emotion of the user based on the relationship between joy and anger and the relationship between sadness and enjoyment. FIG. 27C is an example of a graph representing the degree of emotion of the user obtained by the above operation.

以上に示す使用者の喜怒哀楽の度合いの推定動作は、使用者の通話時に抽出された解析対象期間ごとに行われる。そして、解析対象期間が複数存在する場合、複数の推定結果に基づいて、さらに、その平均値が算出される。その結果、使用者は自己の通話時における喜怒哀楽の度合いを知ることができる。   The above-described estimation operation of the degree of emotion of the user is performed for each analysis target period extracted at the time of the user's call. When there are a plurality of analysis target periods, the average value is further calculated based on the plurality of estimation results. As a result, the user can know the degree of emotions during his / her call.

本実施の形態では、上述のように使用者の喜怒哀楽の度合いを推定するために、生理量感情推定テーブル、音声感情推定テーブル、感情推定基準テーブルおよびポイント決定テーブルを用いているが、これに限らず、使用者の通話中の喜怒哀楽の度合いを推定することができるのであれば、他のテーブルを用いて上記の推定動作を行ってもよい。   In the present embodiment, as described above, the physiological emotion estimation table, the voice emotion estimation table, the emotion estimation reference table, and the point determination table are used to estimate the degree of emotion of the user. However, the estimation operation described above may be performed using another table as long as it can estimate the degree of emotion during the call.

また、上記では、使用者の喜怒哀楽の度合いを推定するためにパラメータとして、GSR差分値、トーン、抑揚およびジッタを用いているが、使用者の喜怒哀楽の度合いを推定できるのであれば、パラメータはこれらに限られない。例えば、生理量データとして皮膚温度および脈拍等を用いてもよいし、GSR測定値に基づいて所定の解析を行うことにより得られる他の値を用いてもよい。   In the above description, the GSR difference value, tone, intonation, and jitter are used as parameters for estimating the degree of emotion of the user. However, if the degree of emotion of the user can be estimated. The parameters are not limited to these. For example, skin temperature and pulse may be used as physiological data, or other values obtained by performing a predetermined analysis based on GSR measurement values may be used.

さらに、喜怒哀楽の推定に用いるパラメータの数は上記に限定されない。喜怒哀楽の推定に用いるパラメータをより多く用いることにより、使用者の喜怒哀楽の度合いの推定結果の精度が向上する。   Furthermore, the number of parameters used for estimation of emotions is not limited to the above. By using more parameters used for estimating emotions, the accuracy of the estimation result of the degree of emotions of the user is improved.

上記では、使用者の喜怒哀楽の度合いを推定するために使用者の発声期間から解析対象期間を設定しているが、これに限らず、使用者の通話時間中の全ての生理量データおよび音声データに基づいて喜怒哀楽の度合いを推定してもよい。   In the above, in order to estimate the degree of emotion of the user, the analysis target period is set from the user's utterance period, but not limited to this, all physiological data during the user's call time and The degree of emotions may be estimated based on the voice data.

上述の各種基準値は、それぞれ予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。   The various reference values described above may be set by determining specific values in advance, or may be set for each user according to characteristics such as the health condition and personality of each user.

図28は、使用者が第4の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。以下の説明において、携帯電話機100が使用者の通話中の喜怒哀楽の度合いを推定する動作を喜怒哀楽動作と呼ぶ。   FIG. 28 is a diagram illustrating an example of contents displayed on the main display unit 13 when the user uses the mobile phone 100 according to the fourth embodiment. In the following description, an operation in which the mobile phone 100 estimates the degree of emotions during a user's call is referred to as emotions.

図28(a)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話時間が表示されるとともに、終了ボタン131および喜怒哀楽ボタン180が表示される。   FIG. 28A shows a display example of the main display unit 13 when the user ends the call. The main display unit 13 displays the call time of the user, and also displays an end button 131 and an emotional button 180.

図28(b)は、メイン表示部13が図28(a)の表示状態において、使用者が喜怒哀楽ボタン180を選択した場合のメイン表示部13の表示例を表す。   FIG. 28B shows a display example of the main display unit 13 when the user selects the emotion button 180 in the display state of FIG.

図28(b)において、メイン表示部13には、喜びと怒りの度合いからなる縦軸および悲しみと楽しみの度合いからなる横軸を有するグラフが表示されるとともに終了ボタン131が表示される。グラフ中には、使用者の通話中における喜怒哀楽の度合いの推定値がプロットされている。それにより、使用者は自己の通話中の喜怒哀楽の度合いを知ることができる。   In FIG. 28 (b), the main display unit 13 displays a graph having a vertical axis composed of the degree of joy and anger and a horizontal axis composed of the degree of sadness and pleasure, and an end button 131. In the graph, an estimated value of the degree of emotions during the user's call is plotted. Thereby, the user can know the degree of emotions during his / her call.

使用者はメイン表示部13が図28(a),(b)の表示状態において、使用者が図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131を選択した場合、携帯電話機100の喜怒哀楽動作を終了させることができる。   When the user selects the end button 131 by operating the cursor button KK, the enter button KS, or the like of FIG. 1 while the main display unit 13 is in the display state of FIGS. The emotional operation of the telephone 100 can be terminated.

なお、使用者の通話前(例えば、発信時および着信時)において、メイン表示部13には図8(a),(b)の内容が表示されてもよい。   Note that the contents of FIGS. 8A and 8B may be displayed on the main display unit 13 before the user's call (for example, at the time of outgoing and incoming calls).

さらに、携帯電話機100は、使用者の通話中で、かつ、使用者の発声期間ごとに上記の喜怒哀楽動作を行うことにより、リアルタイムに図28(b)の内容を表示してもよい。   Furthermore, the mobile phone 100 may display the contents of FIG. 28B in real time by performing the above-described emotions during the user's call and for each user's utterance period.

上記の図28(b)においては、グラフ中のプロットされた点が通話中の複数の発声期間ごとに推定された使用者の喜怒哀楽の度合いの平均値を示す。しかしながら、これに限らず、図28(b)においては、使用者の通話時の発声期間ごとの推定内容が、全てプロットされてもよい。この場合、メモリ12には、使用者の通話時の発声期間ごとの推定内容および音声データがプロットと対応付けて記憶されてもよい。ここで、使用者が特定のプロットを選択することにより、メイン表示部13が推定内容を表示し、通話用スピーカ15bが音声データを出力するように設定しておくことで、使用者は自己の発声時の喜怒哀楽の度合いを再確認することができる。   In FIG. 28 (b), the plotted points in the graph indicate the average value of the degree of emotion of the user estimated for each of a plurality of speaking periods during a call. However, the present invention is not limited to this, and in FIG. 28 (b), all the estimated contents for each utterance period during a user's call may be plotted. In this case, the memory 12 may store the estimated content and voice data for each utterance period during the user's call in association with the plot. Here, when the user selects a specific plot, the main display unit 13 displays the estimated contents, and the call speaker 15b is set to output the audio data, so that the user can select his / her own plot. The degree of emotions at the time of speaking can be reconfirmed.

図28(b)では、使用者の喜怒哀楽の度合いの推定結果を表示するために二次元のグラフが用いられているが、喜び、怒り、哀しみおよび楽しみの度合いについての推定結果を、各々棒グラフ状で表してもよい。   In FIG. 28 (b), a two-dimensional graph is used to display the estimation result of the degree of joy, anger, and emotion of the user. The estimation results for the degree of joy, anger, sadness, and enjoyment are respectively shown. It may be represented as a bar graph.

また、本実施の形態では、使用者の喜怒哀楽の度合いを推定するために、図26(a)において、喜び、怒り、哀しみおよび楽しみについての基準組合せを設定しているが、これに限らず、驚き、恐れ、不安および愛情等、様々な感情についても上述の基準組合せを設定してもよい。この場合、使用者はより様々な感情についての情報を得ることができる。   Further, in the present embodiment, in order to estimate the degree of emotion of the user, the reference combination for joy, anger, sadness, and enjoyment is set in FIG. Instead, the above-described reference combination may be set for various emotions such as surprise, fear, anxiety and affection. In this case, the user can obtain information on various emotions.

本実施の形態に係る通信プログラムについて説明する。図29〜図31は、第4の実施の形態に係る通信プログラムの一例を示すフローチャートである。   A communication program according to the present embodiment will be described. 29 to 31 are flowcharts illustrating an example of a communication program according to the fourth embodiment.

本実施の形態に係る通信プログラムによれば図2の制御部10は次のように動作する。   According to the communication program according to the present embodiment, the control unit 10 in FIG. 2 operates as follows.

初めに、図2の制御部10は、使用者による入力操作部11の操作により喜怒哀楽モードをオンする旨の指令信号を受けたか否かを判別する(ステップS100)。喜怒哀楽モードのオンとは、携帯電話機100が上述の喜怒哀楽動作を行うことが可能な状態にすることをいう。   First, the control unit 10 in FIG. 2 determines whether or not a command signal for turning on the emotional mode is received by the operation of the input operation unit 11 by the user (step S100). Turning on the emotional mode means that the mobile phone 100 is in a state where the cellular phone 100 can perform the emotional and emotional operation described above.

制御部10は、喜怒哀楽モードをオンする旨の指令信号を受けた場合、第2の実施の形態で説明したステップS31〜ステップS33と同様の動作を行う(ステップS101〜S103)。上記ステップS103において、制御部10は、応答があった場合、生理量データの測定および音声データの録音を開始する(ステップS104)。   When the control unit 10 receives a command signal to turn on the emotion mode, the control unit 10 performs the same operations as those in steps S31 to S33 described in the second embodiment (steps S101 to S103). In step S103, when there is a response, the control unit 10 starts measuring physiological data and recording voice data (step S104).

次に、制御部10は、通信が終了したか否かを判別する(ステップS105)。制御部10は、通信が終了しない場合、上記ステップS104の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了する(ステップS106)。   Next, the control unit 10 determines whether or not the communication has ended (step S105). When the communication is not terminated, the control unit 10 repeats the operation in step S104. On the other hand, when the communication is completed, the control unit 10 ends the measurement of physiological data and the recording of voice data (step S106).

続いて、制御部10は、録音された音声データに基づいて使用者の発声を識別する(ステップS107)。そして、制御部10は、使用者の発声があるか否かを判別する(ステップS108)。   Subsequently, the control unit 10 identifies the user's utterance based on the recorded voice data (step S107). And the control part 10 discriminate | determines whether there exists a user's utterance (step S108).

制御部10は、使用者の発声がある場合、使用者の発声の時間を特定し、発声ごとに上述の解析対象期間を設定する(ステップS109)。   When there is a user's utterance, the control unit 10 specifies the time of the user's utterance and sets the above-described analysis target period for each utterance (step S109).

制御部10は、設定された解析対象期間ごとに、測定された生理量データおよび録音された音声データに基づいて使用者の発声時における喜怒哀楽の度合いを推定する(ステップS110)。   The control unit 10 estimates the degree of emotion at the time of the user's utterance based on the measured physiological data and the recorded voice data for each set analysis target period (step S110).

そして、制御部10は、推定された一または複数の喜怒哀楽の度合いに基づいて、通話中の喜怒哀楽の度合いの平均値を算出する(ステップS111)。   Then, the control unit 10 calculates an average value of the degree of emotions during the call based on the estimated degree of emotions (step S111).

これにより、制御部10は、推定された通話中の喜怒哀楽の度合いをメイン表示部13に表示する(ステップS112)。最後に、制御部10は、図3の履歴データ格納部124に推定された喜怒哀楽の度合いを履歴データとして記憶する(ステップS113)。これにより、制御部10は、本実施の形態に係る通信プログラムを終了する。   Thereby, the control unit 10 displays the estimated degree of emotion during the call on the main display unit 13 (step S112). Finally, the control unit 10 stores the degree of emotions and emotions estimated in the history data storage unit 124 of FIG. 3 as history data (step S113). Thereby, the control part 10 complete | finishes the communication program which concerns on this Embodiment.

また、制御部10は、上記ステップS108において、使用者の発声がない場合、本実施の形態に係る通信プログラムを終了する。   Moreover, the control part 10 complete | finishes the communication program which concerns on this Embodiment, when there is no user utterance in said step S108.

制御部10は、上記ステップS100において、喜怒哀楽モードがオンしない場合、第2の実施の形態のステップS50〜S53と同様の動作を行う(ステップS120〜S123)。制御部10は、上記ステップS123において、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。   In step S100, if the emotion mode is not turned on, the control unit 10 performs the same operation as steps S50 to S53 of the second embodiment (steps S120 to S123). When the communication ends in step S123, the control unit 10 ends the communication program according to the present embodiment.

上記の本実施の形態に係る通信プログラムにおいては、ステップS113の動作により使用者の通話ごとに推定された喜怒哀楽の度合いが履歴データとして図3の履歴データ格納部124に記憶される。これにより、使用者は、履歴データ格納部124から履歴データを呼び出すことにより過去の通話時における自己の喜怒哀楽についての情報を得ることができる。   In the communication program according to the present embodiment described above, the degree of emotional emotion estimated for each user call by the operation in step S113 is stored as history data in the history data storage unit 124 of FIG. Thus, the user can obtain information about his / her emotions during past calls by calling the history data from the history data storage unit 124.

なお、上記では、図28の説明においてメイン表示部13に表示される終了ボタン131および喜怒哀楽ボタン180の使用者による操作に基づく動作について説明を省略しているが、制御部10は使用者が図28の終了ボタン131を選択することにより通信プログラムを終了させ、使用者が喜怒哀楽ボタン180を選択することにより推定された喜怒哀楽の度合いをメイン表示部13に表示させる。   In the above description, in the description of FIG. 28, the description of the operation based on the operation by the user of the end button 131 and the emotion button 180 displayed on the main display unit 13 is omitted. 28 terminates the communication program by selecting the end button 131 in FIG. 28, and causes the main display unit 13 to display the degree of emotion that is estimated when the user selects the emotion button 180.

さらに、上記では、携帯電話機100は推定された喜怒哀楽の度合いを履歴データとして記憶するとしているが、携帯電話機100は推定された喜怒哀楽の度合いを履歴データとして記憶しなくてもよい。   Further, in the above description, the mobile phone 100 stores the estimated degree of emotions and emotions as history data, but the mobile phone 100 may not store the estimated degree of emotions and emotions as history data.

以上、本実施の形態においては、通話用スピーカ15bに対する使用者の発声期間(解析対象期間)が制御部10により判別され、使用者の発声期間に使用者の生体情報が検出される。それにより、通話相手および通話内容に依存する生体情報を取得することができる。   As described above, in the present embodiment, the control unit 10 determines the user's utterance period (analysis target period) for the telephone speaker 15b, and the user's biometric information is detected during the user's utterance period. Thereby, biometric information depending on the other party and the content of the call can be acquired.

また、本実施の形態においては、生理量データ測定部20および通話用スピーカ15bにより検出された生体情報に基づいて使用者の喜怒哀楽の度合いが制御部10により推定される。それにより、通信相手に依存した使用者の喜怒哀楽を認識することができる。   In the present embodiment, the control unit 10 estimates the degree of emotion of the user based on the biological information detected by the physiological data measurement unit 20 and the speaker 15b for calling. Thereby, the user's emotions depending on the communication partner can be recognized.

上記では、喜怒哀楽の度合いを推定をするために図25の生理量感情推定テーブルおよび音声感情推定テーブルならびに図26の感情推定基準テーブルおよびポイント決定テーブルを用いたが、生体情報を用いるのであれば、生理量データのみを用いて他の推定テーブルにより使用者の喜怒哀楽の度合いを推定してもよいし、音声データのみを用いて他の推定テーブルにより使用者の喜怒哀楽に度合いを推定してもよい。   In the above description, the physiological emotion estimation table and the voice emotion estimation table of FIG. 25 and the emotion estimation reference table and point determination table of FIG. 26 are used to estimate the degree of emotion. For example, the user's emotion level may be estimated by using only other physiological data and other estimation tables. Alternatively, the user's emotion level may be estimated by using only voice data. It may be estimated.

また、上記では、心理状態として使用者の発声時における喜怒哀楽の度合いを推定しているが、これに限らず、生体情報に基づいて使用者のうそを推定したり、緊張の度合いを推定してもよい。この場合、使用者は発声時の自己の心理状態について様々な情報を得ることができる。   In the above, the degree of emotions at the time of the user's utterance is estimated as the psychological state, but not limited to this, the user's lie is estimated based on biological information, or the degree of tension is estimated. May be. In this case, the user can obtain various information about his / her psychological state at the time of speaking.

携帯電話機100は、通話中でなくても、使用者の生体情報を検出し、検出された生体情報に基づいて喜怒哀楽の度合いを推定してもよい。他の実施の形態において後述するが、例えば、携帯電話機100は使用者が電子メールを作成する際に使用者の生体情報を検出してもよい。この場合、使用者は自己の特定の通信相手への電子メールの作成時の喜怒哀楽の度合いについての情報を得ることができる。   The mobile phone 100 may detect the user's biometric information and estimate the degree of emotions based on the detected biometric information even when the phone call is not in progress. As will be described later in another embodiment, for example, the mobile phone 100 may detect the user's biometric information when the user creates an e-mail. In this case, the user can obtain information about the degree of emotions when composing an e-mail to his / her specific communication partner.

他の実施の形態において後述するが、携帯電話機100は、検出された生体情報または推定された喜怒哀楽の度合いについての情報を他の通信装置に送信してもよい。   As will be described later in another embodiment, the mobile phone 100 may transmit the detected biological information or information about the estimated degree of emotions to other communication devices.

本実施の形態において、上記各テーブルに設定される値は、第1の実施の形態に示すように通信相手(通話相手)ごとに設定されてもよいし、通信相手ごとに設定されなくてもよい。   In the present embodiment, the values set in the respective tables may be set for each communication partner (call partner) as shown in the first embodiment, or may not be set for each communication partner. Good.

(第5の実施の形態)
第5の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Fifth embodiment)
The mobile phone 100 according to the fifth embodiment has the same configuration and operation as the mobile phone 100 according to the first embodiment except for the following points.

本実施の形態に係る携帯電話機100には、図3の動作設定記憶部121に後述のメール動作設定テーブルが記憶されている。   Mobile phone 100 according to the present embodiment stores a mail operation setting table (to be described later) in operation setting storage unit 121 in FIG.

携帯電話機100は電子メールの作成時における使用者の生理量データを測定する。そして、携帯電話機100は第1の実施の形態と同様に、測定された生理量データおよび図5の心理状態推定テーブルに基づいて使用者の電子メールの作成時の心理状態を推定する。   The cellular phone 100 measures the physiological data of the user at the time of creating the e-mail. Then, similarly to the first embodiment, the mobile phone 100 estimates the psychological state at the time of creating the user's e-mail based on the measured physiological data and the psychological state estimation table of FIG.

さらに、本実施の形態に係る携帯電話機100は、使用者により作成された電子メールに心理状態に応じた所定の絵文字を追加したり、所定の画像および音楽等のファイルを添付したりすることができる。   Furthermore, the mobile phone 100 according to the present embodiment can add predetermined pictograms corresponding to the psychological state or attach files such as predetermined images and music to the e-mail created by the user. it can.

メール動作設定テーブルについて説明する。図32は、図3の動作設定記憶部121に記憶される内容の一例を示す図である。図32のテーブルは、動作設定記憶部121に記憶されるメール動作設定テーブルの一例を表す。   The mail operation setting table will be described. FIG. 32 is a diagram illustrating an example of contents stored in the operation setting storage unit 121 of FIG. The table in FIG. 32 represents an example of a mail operation setting table stored in the operation setting storage unit 121.

図32によれば、携帯電話機100が作成された電子メールの文中に追加する感情文字および作成された電子メールに添付する感情画像が、測定された生理量データおよび図5の心理状態推定テーブルにより決定される心理状態レベルごとに分類されている。   According to FIG. 32, the emotion character added to the text of the email created by the mobile phone 100 and the emotion image attached to the created email are based on the measured physiological data and the psychological state estimation table of FIG. It is classified according to the determined psychological state level.

例えば、心理状態レベル1に対する感情文字として、「(^^);ヘ(^^);ヘ」、「ドキッ(◎。◎)ドキッ」、「(ヘ_ヘ;)」および「(”Q”)」等が対応付けられている。また、心理状態レベル1に対する感情画像として、人間が非常に緊張している旨を連想させる画像および緊張の度合いを波で表した画像等が対応付けられている。   For example, as emotional characters for psychological state level 1, "(^^); F (^^); F", "Doki (◎. ◎) DOK", "(F_F;)" and "(" Q " ) "Or the like. Further, as an emotion image for the psychological state level 1, an image reminiscent of a person being very nervous, an image representing the degree of tension as a wave, and the like are associated with each other.

例えば、携帯電話機100は、使用者の電子メールの作成時に測定された生理量データおよび図5の心理状態推定テーブルに基づいて使用者の電子メールの作成時における心理状態レベルが1であると決定した場合、図32のメール動作設定テーブルに基づいて電子メールに「(^^);ヘ(^^);ヘ」というような感情文字を追加したり、非常に緊張している旨を連想させる画像を添付したりする。これにより、本実施の形態に係る携帯電話機100は、使用者の心理状態に応じた電子メールを通信相手に送信することができる。それにより、使用者は電子メールの作成時おける自己の心理状態を通信相手に伝えることができる。   For example, the cellular phone 100 determines that the psychological state level at the time of creating the user's e-mail is 1 based on the physiological data measured at the time of creating the user's e-mail and the psychological state estimation table of FIG. In this case, emotional characters such as “(^^); f (^^); f” are added to the e-mail based on the mail operation setting table of FIG. 32, or it is reminiscent of being very nervous. Attach an image. Thereby, the mobile phone 100 according to the present embodiment can transmit an e-mail according to the psychological state of the user to the communication partner. Thereby, the user can tell the communication partner his / her psychological state at the time of e-mail creation.

図33および図34は、使用者が第5の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。   FIGS. 33 and 34 are diagrams illustrating an example of contents displayed on the main display unit 13 when the user uses the mobile phone 100 according to the fifth embodiment.

使用者は、電子メールを作成する場合に携帯電話機100の入力操作部11を操作する。   The user operates the input operation unit 11 of the mobile phone 100 when creating an e-mail.

図33(a)は、使用者が電子メールの作成を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の作成した電子メールの内容が表示されるとともに送信ボタン140、編集ボタン141およびサブボタン142が表示される。   FIG. 33A shows a display example of the main display unit 13 when the user finishes creating the e-mail. The main display unit 13 displays the contents of the e-mail created by the user and displays a send button 140, an edit button 141, and a sub button 142.

ここで、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより、送信ボタン140、編集ボタン141およびサブボタン142の選択を行うことができる。   Here, the user can select the transmission button 140, the edit button 141, and the sub button 142 by operating the cursor button KK, the determination button KS, and the like of FIG.

図33(b)は、使用者が送信ボタン140を選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の電子メールの作成中に検出された生体情報に基づいて推定される使用者の心理状態が新たなウィンドウ13Sに表示されるとともに、感情追加ボタン140aおよび感情追加なしボタン140bが表示される。   FIG. 33B shows a display example of the main display unit 13 when the user selects the transmission button 140. The main display unit 13 displays the psychological state of the user estimated based on the biological information detected during the creation of the user's e-mail in a new window 13S, as well as an emotion addition button 140a and an emotion addition A none button 140b is displayed.

使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより、感情追加ボタン140aおよび感情追加なしボタン140bの選択を行うことができる。   The user can select the emotion addition button 140a and the no emotion addition button 140b by operating the cursor button KK and the determination button KS of FIG.

図34(c)は、使用者が感情追加ボタン140aを選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、新たなウィンドウ13Sに使用者が作成した電子メールに図32の感情画像を添付して電子メールを送信をした旨が表示されるとともに終了ボタン131、編集ボタン141およびサブボタン142が表示される。   FIG. 34C shows a display example of the main display unit 13 when the user selects the emotion addition button 140a. The main display unit 13 displays that the e-mail is sent with the emotion image shown in FIG. 32 attached to the e-mail created by the user in a new window 13S, and includes an end button 131, an edit button 141, and a sub A button 142 is displayed.

図34(d)は、使用者が感情追加ボタン140aを選択した場合のメイン表示部の他の表示例を表す。メイン表示部13には、新たなウィンドウ13Sに使用者が作成した電子メールに図32の感情文字を追加して電子メールを送信した旨が表示されるとともに終了ボタン131、編集ボタン141およびサブボタン142が表示される。   FIG. 34D shows another display example of the main display unit when the user selects the emotion addition button 140a. The main display unit 13 displays a message indicating that the emotional character of FIG. 32 has been added to the e-mail created by the user in a new window 13S and that the e-mail has been transmitted, and also includes an end button 131, an edit button 141, and a sub button. 142 is displayed.

ここで、メイン表示部13の図34(c),(d)の表示状態において、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131、編集ボタン141およびサブボタン142の選択を行うことができる。   Here, in the display state of FIGS. 34C and 34D on the main display unit 13, the user operates the cursor button KK and the determination button KS of FIG. The sub button 142 can be selected.

図34(e)は、使用者の作成した電子メールを受信した通信相手の携帯電話機100のメイン表示部13の表示例を表す。使用者が作成した電子メールに感情画像を添付して送信した場合、その電子メールを受信する通信相手のメイン表示部13には、使用者により作成された電子メールの内容、使用者により作成された電子メールに添付された画像144、返信ボタン143、編集ボタン141およびサブボタン142が表示される。   FIG. 34E shows a display example of the main display unit 13 of the mobile phone 100 of the communication partner who has received the electronic mail created by the user. When an emotional image is attached to an e-mail created by the user and sent, the main display unit 13 of the communication partner that receives the e-mail receives the contents of the e-mail created by the user and is created by the user. An image 144 attached to the e-mail, a reply button 143, an edit button 141, and a sub button 142 are displayed.

図34(f)は、使用者の作成した電子メールを受信した通信相手の携帯電話機100のメイン表示部13の他の表示例を表す。図34(d)に示すように、使用者が作成した電子メールに感情文字を追加して送信した場合、その送信を受信した通信相手のメイン表示部13には、使用者により作成された電子メールの内容、使用者により作成された電子メールに追加された感情文字145、返信ボタン143、編集ボタン141およびサブボタン142が表示される。   FIG. 34F shows another display example of the main display unit 13 of the mobile phone 100 of the communication partner who has received the electronic mail created by the user. As shown in FIG. 34 (d), when an emotional character is added to an e-mail created by the user and transmitted, the main display unit 13 of the communication partner that received the transmission displays the e-mail created by the user. The contents of the mail, emotion characters 145 added to the electronic mail created by the user, a reply button 143, an edit button 141, and a sub button 142 are displayed.

図34(e),(f)において、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより返信ボタン143、編集ボタン141およびサブボタン142の選択を行うことができる。   In FIGS. 34E and 34F, the user can select the reply button 143, the edit button 141, and the sub button 142 by operating the cursor button KK, the determination button KS, and the like in FIG.

上記において、使用者が編集ボタン141を選択した場合、使用者は自己の作成する電子メールの内容を編集することができる。また、使用者がサブボタン142を選択した場合、使用者は他の機能(例えば、通信相手の電子メールアドレスの個人情報データへの登録等)を行うことができる。   In the above, when the user selects the edit button 141, the user can edit the content of the e-mail created by the user. Further, when the user selects the sub button 142, the user can perform other functions (for example, registration of the electronic mail address of the communication partner in the personal information data).

また、使用者が終了ボタン131を選択した場合、使用者は携帯電話機100の電子メールの作成動作および送信動作を終了させることができる。さらに、使用者が返信ボタン143を選択した場合、受信した電子メールに対する返信用の電子メールを作成することができる。   When the user selects the end button 131, the user can end the e-mail creation operation and transmission operation of the mobile phone 100. Furthermore, when the user selects the reply button 143, a reply e-mail for the received e-mail can be created.

本実施の形態に係る通信プログラムについて説明する。図35および図36は、第5の実施の形態に係る通信プログラムの一例を示すフローチャートである。   A communication program according to the present embodiment will be described. 35 and 36 are flowcharts illustrating an example of a communication program according to the fifth embodiment.

本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。   According to the communication program according to the present embodiment, the control unit 10 in FIG. 2 operates as follows.

初めに、図2に制御部10は、使用者による入力操作部11の操作により感情メールモードをオンする旨の指令信号を受けたか否かを判別する(ステップS200)。感情メールモードのオンとは、携帯電話機100が使用者により作成された電子メールに使用者の心理状態に応じた感情文字を追加したり、感情画像を添付したりする機能を動作させる旨をいう。   First, in FIG. 2, the control unit 10 determines whether or not a command signal for turning on the emotion mail mode is received by the operation of the input operation unit 11 by the user (step S200). “Emotion mail mode on” means that the mobile phone 100 activates a function of adding emotion characters according to a user's psychological state or attaching an emotion image to an email created by the user. .

制御部10は感情メールモードをオンする旨の指令信号を受けた場合、使用者が入力操作部11を操作することによる電子メールの作成が開始されたか否かを判別する(ステップS201)。   When the control unit 10 receives a command signal to turn on the emotion mail mode, the control unit 10 determines whether or not creation of an e-mail is started by the user operating the input operation unit 11 (step S201).

制御部10は、使用者の電子メールの作成が開始された場合、生理量データの測定を開始する(ステップS202)。   When the creation of the user's email is started, the control unit 10 starts measuring physiological data (step S202).

続いて、制御部10は使用者が入力操作部11を操作することにより送信ボタン140が選択されたか否かを判別する(ステップS203)。制御部10は、送信ボタン140が選択された場合、生理量データの測定を終了し、測定された生理量データに基づいて使用者の電子メールの作成中の心理状態を推定する(ステップS204)。   Subsequently, the control unit 10 determines whether or not the transmission button 140 is selected by the user operating the input operation unit 11 (step S203). When the transmission button 140 is selected, the control unit 10 ends the measurement of physiological data, and estimates the psychological state during creation of the user's e-mail based on the measured physiological data (step S204). .

そして、制御部10は、使用者の心理状態の推定結果をメイン表示部13に表示する(ステップS205)。ここで、制御部10は、使用者が感情追加ボタン140aが選択されたか否かを判別する(ステップS206)。   And the control part 10 displays the estimation result of a user's psychological state on the main display part 13 (step S205). Here, the control unit 10 determines whether or not the user has selected the emotion addition button 140a (step S206).

制御部10は、感情追加ボタン140aが選択された場合、推定された使用者の心理状態および図32のメール動作設定テーブルに基づいて作成された電子メールに追加する感情文字または作成された電子メールに添付する感情画像を選択する(ステップS207)。   When the emotion addition button 140a is selected, the control unit 10 adds the emotion character to be added to the email created based on the estimated psychological state of the user and the email operation setting table of FIG. 32 or the created email. The emotion image to be attached to is selected (step S207).

ここで、制御部10による感情文字および感情画像の選択は、通信相手に応じて予め特定の感情文字および感情画像を設定しておくことにより行ってもよい。また、制御部10は、使用者の入力操作部11の操作に基づいて、感情文字および感情画像の選択を行ってもよい。   Here, the selection of emotion characters and emotion images by the control unit 10 may be performed by setting specific emotion characters and emotion images in advance according to the communication partner. Moreover, the control part 10 may select an emotion character and an emotion image based on operation of the input operation part 11 of a user.

その後、制御部10は、作成された電子メールへの感情文字の追加または感情画像の添付を行う(ステップS208)。最後に、制御部10は、使用者により作成された電子メールの送信を行う(ステップS210)。これにより、本実施の形態に係る通信プログラムが終了する。   Thereafter, the control unit 10 adds an emotion character or attaches an emotion image to the created e-mail (step S208). Finally, the control unit 10 transmits an e-mail created by the user (step S210). Thereby, the communication program according to the present embodiment ends.

なお、上記ステップS206において、感情追加ボタン140aが選択されなかった場合、制御部10は感情追加なしボタン140bが選択されたか否かを判別する(ステップS209)。制御部10は、感情追加なしボタン140bが選択されなかった場合、上記ステップS206の動作を繰り返す。一方、制御部10は、感情追加なしボタン140bが選択された場合、上記ステップS210の動作を行う。   When the emotion addition button 140a is not selected in step S206, the control unit 10 determines whether or not the emotion addition no button 140b is selected (step S209). When the no emotion addition button 140b is not selected, the control unit 10 repeats the operation of step S206. On the other hand, when the no emotion addition button 140b is selected, the control unit 10 performs the operation of step S210.

また、制御部10は、上記ステップS200において感情メールモードがオンしない場合、上記ステップS201と同様に制御部10は、使用者が入力操作部11を操作することにより電子メールの作成が開始されたか否かを判別する(ステップS220)。ここで、制御部10は、電子メールの作成が開始されない場合、上記ステップS200の動作を繰り返す。一方、制御部10は、電子メールの作成が開始された場合、送信ボタン140が選択されたか否かを判別する(ステップS221)。   In addition, when the emotion mail mode is not turned on in step S200, the control unit 10 determines whether the control unit 10 has started creating an e-mail when the user operates the input operation unit 11 as in step S201. It is determined whether or not (step S220). Here, the control part 10 repeats the operation | movement of the said step S200, when creation of an email is not started. On the other hand, when the creation of the e-mail is started, the control unit 10 determines whether or not the send button 140 has been selected (step S221).

制御部10は、送信ボタン140が選択された場合、上記ステップS210の動作を行う、そして、制御部10は、本実施の形態に係る通信プログラムを終了する。   When the transmission button 140 is selected, the control unit 10 performs the operation of step S210, and the control unit 10 ends the communication program according to the present embodiment.

以上、本実施の形態においては、使用者が入力操作部11を操作することにより任意の相手に送信する電子メールの作成を行っているときに、使用者の生体情報が検出される。それにより、電子メールの相手または電子メールの内容に依存する生体情報を取得することができる。   As described above, in the present embodiment, when the user operates the input operation unit 11 to create an e-mail to be transmitted to an arbitrary partner, the biometric information of the user is detected. Thereby, biometric information depending on the partner of the e-mail or the content of the e-mail can be acquired.

なお、上記の例では、携帯電話機100は、使用者のメール作成時の生体情報を検出しているが、これに限らず、携帯電話機100は、使用者の電子メール送信時の生体情報を検出してもよい。さらに、携帯電話機100は、電子メールが受信されたとき、および、受信された電子メールを閲覧しているときの使用者の生体情報を検出してもよい。   In the above example, the mobile phone 100 detects the biometric information when the user's mail is created. However, the present invention is not limited to this, and the mobile phone 100 detects the biometric information when the user's e-mail is transmitted. May be. Furthermore, the mobile phone 100 may detect the user's biometric information when an e-mail is received and when the received e-mail is being browsed.

この場合、使用者の電子メールの送信時、電子メールの受信時および受信された電子メールの閲覧時の使用者の生体情報が検出されることにより、携帯電話機100は、電子メールの相手または電子メールの内容に依存する使用者の生体情報を取得することができる。   In this case, when the user's biological information is detected when the user's e-mail is transmitted, when the e-mail is received, and when the received e-mail is viewed, the mobile phone 100 can detect the e-mail partner or the e-mail. The biometric information of the user depending on the contents of the mail can be acquired.

また、本実施の形態においては、生理量データ測定部20により検出された生体情報に基づいて使用者の心理状態が制御部10により推定される。そして、推定された使用者の心理状態を示す情報が入力操作部11により作成される電子メールに制御部10により挿入される。その結果、使用者の心理状態を示す情報が挿入された電子メールが通信相手に送信される。   In the present embodiment, the control unit 10 estimates the user's psychological state based on the biological information detected by the physiological data measurement unit 20. Then, information indicating the estimated psychological state of the user is inserted into the e-mail created by the input operation unit 11 by the control unit 10. As a result, an electronic mail in which information indicating the user's psychological state is inserted is transmitted to the communication partner.

本実施の形態においては、図32に示した心理状態レベルに応じて感情文字および感情画像が設定されているが、これに限らず、使用者の緊張の度合い、使用者のうその発声または使用者の喜怒哀楽等の種々の心理状態の推定結果に応じて、感情文字および感情画像が設定されてもよい。この場合、使用者は自己の心理状態についての様々な情報を通信相手に伝えることができる。   In the present embodiment, emotion characters and emotion images are set according to the psychological state level shown in FIG. 32, but not limited to this, the degree of tension of the user, the utterance or use of the user's lie Emotion characters and emotion images may be set in accordance with the estimation results of various psychological states such as the person's emotions. In this case, the user can convey various information about his / her psychological state to the communication partner.

図32のメール動作設定テーブルにおいては、使用者により作成された電子メールに追加する感情文字および電子メールに添付する感情画像が設定されているが、これに限らず、メール動作設定テーブルには、例えば、使用者の心理状態に応じて特定の音楽パターンが設定されてもよい。この場合、作成された電子メールに使用者の心理状態に応じた音楽パターンが添付されることにより、使用者は、自己の心理状態についての情報を音楽により通信相手に伝えることができる。   In the mail operation setting table of FIG. 32, emotion characters to be added to the email created by the user and emotion images to be attached to the email are set, but not limited to this, For example, a specific music pattern may be set according to the psychological state of the user. In this case, by attaching a music pattern corresponding to the user's psychological state to the created electronic mail, the user can convey information about his / her psychological state to the communication partner using music.

上記では、心理状態レベルを決定するために図5の心理状態推定テーブルを用いたが、生体情報に基づく使用者の心理状態の推定は、図5の心理状態推定テーブルを用いることに限定されない。生体情報を用いるのであれば、生理量データのみを用いて他の推定テーブルにより心理状態レベルを決定してもよいし、電子メール作成時に使用者の音声データを取得して、その音声データを用いて心理状態レベルを決定してもよい。さらに、生理量データおよび音声データをともに用いて心理状態レベルを決定してもよい。   In the above description, the psychological state estimation table of FIG. 5 is used to determine the psychological state level. However, the estimation of the user's psychological state based on the biological information is not limited to using the psychological state estimation table of FIG. If biometric information is used, the psychological state level may be determined using other estimation tables using only physiological data, or the user's voice data is obtained at the time of e-mail creation and the voice data is used. The psychological state level may be determined. Furthermore, the psychological state level may be determined using both physiological data and voice data.

携帯電話機100は、電子メールの作成中でなくても、通話中に使用者の生体情報を検出してもよい。この場合、例えば、携帯電話機100が、使用者の通話後に、使用者の心理状態に関する感情文字が追加された電子メールまたは感情画像の添付された電子メールをその通信相手に送信することにより、使用者は通話中の自己の心理状態についての様々な情報を通信相手に伝えることができる。   The mobile phone 100 may detect the user's biometric information during a call even if the e-mail is not being created. In this case, for example, after the user's call, the mobile phone 100 transmits an e-mail to which an emotion character related to the user's psychological state is added or an e-mail to which an emotion image is attached to the communication partner. A person can convey various information about his / her psychological state during a call to a communication partner.

(第6の実施の形態)
第6の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Sixth embodiment)
The mobile phone 100 according to the sixth embodiment has the same configuration and operation as the mobile phone 100 according to the first embodiment except for the following points.

本実施の形態に係る携帯電話機100は、使用者の通話中の生理量データを測定するとともに、心理状態を推定する。また、本実施の形態に係る携帯電話機100は、使用者の通話中の音声データを録音し、測定された使用者の生理量データに基づいて録音された音声データの中から特定の期間の音声データを抽出し、記憶することができる。これにより、使用者は特定の期間の音声データ(通話内容)を再生することができる。   Mobile phone 100 according to the present embodiment measures physiological data during a user's call and estimates a psychological state. In addition, the mobile phone 100 according to the present embodiment records voice data during a user's call, and the voice data for a specific period is recorded from the voice data recorded based on the measured physiological data of the user. Data can be extracted and stored. Thereby, the user can reproduce | regenerate the audio | voice data (call content) of a specific period.

ここで、特定の期間とは、例えば、使用者の生理量データが特定の状態となる場合、すなわち、その生理量データに基づいて心理状態が緊張していると推定される場合の期間をいう。なお、この特定の期間は、使用者が緊張している期間に限られない。   Here, the specific period means, for example, a period when the physiological data of the user is in a specific state, that is, when the psychological state is estimated to be tense based on the physiological data. . In addition, this specific period is not restricted to the period when the user is tense.

本実施の形態では、第1の実施の形態で説明したように、生理量データとしてGSR、皮膚温度および脈拍が用いられる。音声データとしては、第2の実施の形態で説明したように、録音された使用者の会話の音声が用いられる。   In the present embodiment, as described in the first embodiment, GSR, skin temperature, and pulse are used as physiological data. As the audio data, as described in the second embodiment, the recorded voice of the user's conversation is used.

図37は、使用者の通話中の生理量データの変化に基づいて特定の期間の音声データを抽出する方法を説明するための図である。図37に示すように、携帯電話機100は、使用者の通話終了時において、使用者の通話開始から通話終了までの使用者の皮膚温度、GSRおよび音声データを記憶している。   FIG. 37 is a diagram for explaining a method of extracting voice data for a specific period based on changes in physiological data during a user's call. As shown in FIG. 37, the mobile phone 100 stores the user's skin temperature, GSR, and voice data from the start of the user's call to the end of the call when the user's call ends.

ここで、本実施の形態において、図3の心理状態推定テーブル格納部122には、図5の心理状態推定テーブルに関する各種基準値の他、後述の特定通話期間を検出するための皮膚温度およびGSRについての基準値TTH,GTHが記憶されている。   Here, in the present embodiment, the psychological state estimation table storage unit 122 of FIG. 3 stores various reference values related to the psychological state estimation table of FIG. The reference values TTH and GTH for are stored.

携帯電話機100は、測定された皮膚温度およびGSR測定値と基準値TTH,GTHの各々とを比較する。測定された皮膚温度と基準値TTHとの比較時において、携帯電話機100は図37に示すように、測定値が基準値TTHよりも低くなる場合の期間を皮膚温低下期間Sa1〜Sa3として特定する。   The mobile phone 100 compares the measured skin temperature and GSR measurement values with the reference values TTH and GTH. At the time of comparison between the measured skin temperature and the reference value TTH, as shown in FIG. 37, the mobile phone 100 specifies periods when the measured value is lower than the reference value TTH as skin temperature lowering periods Sa1 to Sa3. .

一般に、人間は皮膚温度が低い場合に緊張状態である可能性が高いとされている。したがって、皮膚温低下期間Sa1〜Sa3において、使用者は緊張した状態にあると推定される。   In general, it is considered that a human is likely to be in a tension state when the skin temperature is low. Therefore, it is estimated that the user is in a tense state during the skin temperature decrease period Sa1 to Sa3.

一方、測定されたGSRと基準値GTHとの比較時において、携帯電話機100は、図37に示すようにGSR測定値が基準値GTHを超える期間をGSR検出期間Ga1,Ga2として特定する。   On the other hand, at the time of comparison between the measured GSR and the reference value GTH, the mobile phone 100 specifies a period in which the GSR measurement value exceeds the reference value GTH as GSR detection periods Ga1 and Ga2, as shown in FIG.

一般に、人間はGSRが高い場合に緊張状態である可能性が高いとされている。したがって、GSR検出期間Ga1,Ga2においては、使用者は緊張した状態にあると推定される。   In general, it is considered that a person is likely to be in a tension state when the GSR is high. Therefore, it is estimated that the user is in a tense state during the GSR detection periods Ga1 and Ga2.

ここで、本実施の形態では、精度よく使用者の緊張状態を検出するために上記の特定された皮膚温低下期間Sa1〜Sa3とGSR検出期間Ga1,Ga2との重複期間を検出する。そして、携帯電話機100は、検出された皮膚温低下期間Sa1〜Sa3とGSR検出期間Ga1,Ga2との重複期間に基づいて、通話開始から通話終了までの全体の音声データADTの中から特定通話期間AD1,AD2の音声データを抽出する。なお、図37に示すように、特定通話期間AD1,AD2において、符号et1,et2で表される期間は上記の重複期間の前後に余裕を見て付加される付加期間である。この付加期間et1および付加期間et2の長さは、それぞれ同一であってもよいし、互いに異なってもよい。このような付加期間et1,et2を設定することにより携帯電話機100は、使用者の緊張時の前後における音声データも抽出することができる。   Here, in this Embodiment, in order to detect a user's tension state accurately, the overlap period of said specified skin temperature fall period Sa1-Sa3 and GSR detection period Ga1, Ga2 is detected. Then, the mobile phone 100 uses the overlapping period of the detected skin temperature decrease periods Sa1 to Sa3 and the GSR detection periods Ga1 and Ga2 to select a specific call period from the entire voice data ADT from the start of the call to the end of the call. Extract voice data of AD1 and AD2. As shown in FIG. 37, in the specific call periods AD1 and AD2, the periods indicated by the symbols et1 and et2 are additional periods that are added with a margin before and after the overlap period. The lengths of the additional period et1 and the additional period et2 may be the same or different from each other. By setting such additional periods et1 and et2, the mobile phone 100 can also extract audio data before and after the user is nervous.

特定通話期間AD1,AD2の音声データは、例えば図3の履歴データ格納部124に履歴データとして記憶されてもよい。この場合、使用者は履歴データを呼び出すことにより自己の通話中における緊張時の通話内容を再生することができる。   The voice data of the specific call periods AD1, AD2 may be stored as history data in the history data storage unit 124 of FIG. 3, for example. In this case, the user can reproduce the content of the call at the time of tension during the call by calling the history data.

図38は、使用者が第6の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。   FIG. 38 is a diagram illustrating an example of contents displayed on the main display unit 13 when the user uses the mobile phone 100 according to the sixth embodiment.

使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。   The user operates the input operation unit 11 of the mobile phone 100 when making a call.

図38(a)は、通話中のメイン表示部13の表示例を表す。メイン表示部13には使用者が通話している際に現在の通話時間が表示され、使用者の生体情報を検出している旨および音声データを録音している旨が表示される。   FIG. 38A shows a display example of the main display unit 13 during a call. The main display unit 13 displays the current call time when the user is talking, indicating that the user's biometric information is being detected and recording voice data.

図38(b)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話時間、使用者の通話中に検出された生体情報に基づいて推定される使用者の心理状態、終了ボタン131および再生ボタン150,151が表示される。   FIG. 38B illustrates a display example of the main display unit 13 when the user ends the call. The main display unit 13 displays a user's call time, a user's psychological state estimated based on biometric information detected during the user's call, an end button 131 and playback buttons 150 and 151.

ここで、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131および再生ボタン150,151の選択を行うことができる。   Here, the user can select the end button 131 and the reproduction buttons 150 and 151 by operating the cursor button KK and the determination button KS of FIG.

図38(b)における2つの再生ボタン150,151は、使用者の通話時に検出される上述の特定通話期間AD1,AD2の数に対応している。   The two playback buttons 150 and 151 in FIG. 38 (b) correspond to the number of the above-mentioned specific call periods AD1 and AD2 that are detected during the user's call.

図38(c)は、メイン表示部13が図38(b)の表示状態において、使用者が再生ボタン150,151を選択した場合のメイン表示部13の表示例および通話用スピーカ15bからの再生内容の一例を表す。図38(c)において、メイン表示部13の表示内容は、図38(b)で表される表示内容と同様である。しかしながら、再生ボタン150,151が選択されると、通話用スピーカ15bから上述の特定通話期間AD1,AD2において録音された音声データが再生される。   FIG. 38C shows a display example of the main display unit 13 and playback from the call speaker 15b when the user selects the playback buttons 150 and 151 when the main display unit 13 is in the display state of FIG. An example of the contents is shown. In FIG. 38C, the display content of the main display unit 13 is the same as the display content shown in FIG. However, when the playback buttons 150 and 151 are selected, the voice data recorded in the above-described specific call periods AD1 and AD2 is played from the call speaker 15b.

上記において、使用者が図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131を選択した場合、使用者への音声データの再生動作は終了する。   In the above, when the user selects the end button 131 by operating the cursor button KK, the enter button KS, or the like of FIG. 1, the reproduction operation of the audio data to the user ends.

なお、上述のような特定通話期間の音声データの再生は、通話終了直後に限らず、使用者の過去の音声データをメモリ12の履歴データ格納部124に記憶しておき、任意の時点で、記憶された音声データを呼び出すことにより上述のような特定通話期間の音声データの再生が行われてもよい。この場合、使用者は、図3の履歴データ格納部124に記憶された過去の音声データを、図1の入力操作部11を操作することにより呼び出し、再生することができる。   The reproduction of the audio data during the specific call period as described above is not limited to immediately after the call ends, but the user's past audio data is stored in the history data storage unit 124 of the memory 12, and at any point in time, The voice data of the specific call period as described above may be reproduced by calling the stored voice data. In this case, the user can call and reproduce the past audio data stored in the history data storage unit 124 of FIG. 3 by operating the input operation unit 11 of FIG.

この場合の音声データの履歴データ格納部124への記憶は、第1の実施の形態と同様に通信相手ごとに行われてもよい。   In this case, the storage of the voice data in the history data storage unit 124 may be performed for each communication partner as in the first embodiment.

本実施の形態に係る通信プログラムについて説明する。図39〜図41は第6の実施の形態に係る通信プログラムの一例を示すフローチャートである。本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。   A communication program according to the present embodiment will be described. 39 to 41 are flowcharts showing an example of a communication program according to the sixth embodiment. According to the communication program according to the present embodiment, the control unit 10 in FIG. 2 operates as follows.

初めに、図2の制御部10は、使用者による入力操作部11の操作により他の電話機に対して発信する旨の指令信号を受けたか否かを判別する(ステップS300)。制御部10は、発信する旨の指令信号を受けた場合、通信相手から応答があったか否かを判別する(ステップS301)。制御部10は、応答があった場合、生理量データの測定および音声データの録音を開始する(ステップS304)。   First, the control unit 10 in FIG. 2 determines whether or not a command signal indicating that a call is to be made to another telephone is received by the operation of the input operation unit 11 by the user (step S300). When the control unit 10 receives a command signal for transmission, the control unit 10 determines whether or not there is a response from the communication partner (step S301). When there is a response, the control unit 10 starts measuring physiological data and recording voice data (step S304).

一方、制御部10は、上記ステップS300において、発信する旨の指令信号を受けない場合、他の電話機からの着信があるか否かを判別する(ステップS302)。制御部10は、着信がない場合、上記ステップS300の動作を繰り返す。一方、制御部10は、他の電話機からの着信があった場合、その着信に対して応答する旨の指令信号を受けたか否か判別する(ステップS303)。制御部10は応答があった場合、上記ステップS304の動作を行う。   On the other hand, when the control unit 10 does not receive a command signal to make a call in step S300, the control unit 10 determines whether there is an incoming call from another telephone (step S302). When there is no incoming call, the control unit 10 repeats the operation of step S300. On the other hand, when there is an incoming call from another telephone, the control unit 10 determines whether or not a command signal for responding to the incoming call has been received (step S303). When there is a response, the control unit 10 performs the operation of step S304.

制御部10は、上記ステップS304の動作を行った後、通信が終了したか否かを判別する(ステップS305)。   After performing the operation of step S304, the control unit 10 determines whether or not the communication has ended (step S305).

制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了する(ステップS306)。   When the communication is completed, the control unit 10 ends the measurement of physiological data and the recording of voice data (step S306).

そして、制御部10は、測定された生理量データのうち、皮膚温度およびGSRの測定結果がともに各々に対応して設定された基準値TTH,GTHを超えたか否かを判別する(ステップS307)。制御部10は、皮膚温度およびGSRの測定結果がともに基準値TTH,GTHを超えない場合、後述のステップS310の動作を行う。   And the control part 10 discriminate | determines whether the measurement value of skin temperature and GSR exceeded reference value TTH and GTH set corresponding to each among the measured physiological quantity data (step S307). . When both the skin temperature and the GSR measurement results do not exceed the reference values TTH and GTH, the control unit 10 performs an operation of step S310 described later.

制御部10は、皮膚温度およびGSRの測定結果がともに基準値TTH,GTHを超えた場合、特定通話期間を決定する(ステップS308)。そして、制御部10は、特定通話期間の音声データを抽出する(ステップS309)。   When both the skin temperature and GSR measurement results exceed the reference values TTH and GTH, the control unit 10 determines a specific call period (step S308). And the control part 10 extracts the audio | voice data of a specific call period (step S309).

その後、制御部10は、測定された生理量データおよび図5の心理状態推定テーブルに基づいて使用者の通信中の心理状態を推定し(ステップS310)、推定された使用者の通信中の心理状態をメイン表示部13に表示する(ステップS311)。   Thereafter, the control unit 10 estimates the psychological state during communication of the user based on the measured physiological quantity data and the psychological state estimation table of FIG. 5 (step S310), and the estimated psychological state during communication of the user. The state is displayed on the main display unit 13 (step S311).

制御部10は、上記ステップS311の動作時において、使用者が入力操作部11を操作することにより再生ボタン150,151が選択されたか否かを判別する(ステップS312)。制御部10は、再生ボタン150,151が選択された場合、上記ステップS309において抽出された音声データを通話用スピーカ15bから再生する(ステップS313)。一方、制御部10は再生ボタン150,151が選択されなかった場合、または、上記ステップS313の動作後に、使用者が入力操作部11を操作することにより終了ボタン131が選択されたか否かを判別する(ステップS314)。   The control unit 10 determines whether or not the playback buttons 150 and 151 are selected by the user operating the input operation unit 11 during the operation of step S311 (step S312). When the reproduction buttons 150 and 151 are selected, the control unit 10 reproduces the voice data extracted in step S309 from the call speaker 15b (step S313). On the other hand, the control unit 10 determines whether or not the end button 131 has been selected by the user operating the input operation unit 11 when the playback buttons 150 and 151 are not selected or after the operation of step S313. (Step S314).

制御部10は、終了ボタン131が選択された場合、通信相手、心理状態の推定結果および抽出された音声データに基づいて図7の履歴データの内容を更新する(ステップS315)。これにより、本実施の形態に係る通信プログラムが終了する。   When the end button 131 is selected, the control unit 10 updates the content of the history data in FIG. 7 based on the communication partner, the psychological state estimation result, and the extracted voice data (step S315). Thereby, the communication program according to the present embodiment ends.

なお、本例では、第1の実施の形態と同様に、制御部10は発信時または着信時において、通信相手についての情報を取得することにより特定の通信相手を識別しているものとする。   In this example, as in the first embodiment, it is assumed that the control unit 10 identifies a specific communication partner by acquiring information about the communication partner at the time of outgoing or incoming.

本実施の形態において、上記ステップS310に示すような通話中全体における使用者の心理状態を推定しなくてもよい。   In the present embodiment, it is not necessary to estimate the user's psychological state during the entire call as shown in step S310.

上記の説明において、特定通話期間を決定するために測定された皮膚温度およびGSRに対して設定される基準値は、予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。   In the above description, the reference values set for the skin temperature and the GSR measured to determine the specific call period may be set by setting a specific value in advance, and each user's health It may be set for each user according to characteristics such as state and personality.

(第6の実施の形態における他の通信プログラムの例)
上記第6の実施の形態に係る通信プログラムは上述の図39〜図41の説明によるものに限られない。以下、第6の実施の形態に係る通信プログラムの他の例について説明する。図42〜図44は第6の実施の形態に係る通信プログラムの他の例を示すフローチャートである。図42〜図44に示される通信プログラムによれば、図2の制御部10は、次のように動作する。
(Examples of other communication programs in the sixth embodiment)
The communication program according to the sixth embodiment is not limited to the one described with reference to FIGS. Hereinafter, another example of the communication program according to the sixth embodiment will be described. 42 to 44 are flowcharts showing other examples of the communication program according to the sixth embodiment. According to the communication program shown in FIGS. 42 to 44, the control unit 10 in FIG. 2 operates as follows.

初めに、図2の制御部10は、上述のステップS300〜S303と同様の動作を行う(ステップS320〜S323)。   First, the control unit 10 in FIG. 2 performs the same operation as the above-described steps S300 to S303 (steps S320 to S323).

制御部10は、ステップS321,S323において、応答があった場合、音声データの録音を開始し(ステップS324)、生理量データの測定を開始する(ステップS325)。   When there is a response in steps S321 and S323, the control unit 10 starts recording voice data (step S324) and starts measuring physiological data (step S325).

そして、制御部10は、予め定められた反応判定期間が経過したか否かを判別する(ステップS326)。反応判定期間とは、使用者が緊張しているか否かを判定するための期間である。   And the control part 10 discriminate | determines whether the predetermined reaction determination period passed (step S326). The reaction determination period is a period for determining whether or not the user is nervous.

制御部10は、反応判定期間が経過していない場合、上記ステップS325の動作を繰り返す。一方、制御部10は、反応判定期間が経過した場合、測定された生理量データのうち、皮膚温度およびGSRの測定結果がともに各々に対応して設定された基準値を超えたか否かを判別する(ステップS327)。   When the reaction determination period has not elapsed, the control unit 10 repeats the operation of step S325. On the other hand, when the reaction determination period has elapsed, the control unit 10 determines whether or not the skin temperature and the GSR measurement results of the measured physiological quantity data both exceed the reference values set in correspondence with each other. (Step S327).

制御部10は、皮膚温度およびGSR測定値がともに基準値を超えた場合、さらに所定の期間音声データの録音を継続し(ステップS328)、所定の期間が経過することにより音声データの録音を終了する(ステップS329)。一方、制御部10は、皮膚温度およびGSRがともに基準値を超えない場合、音声データの録音を終了し、反応判定期間に録音した音声データを消去する(ステップS330)。   When both the skin temperature and the GSR measurement value exceed the reference values, the control unit 10 continues recording the audio data for a predetermined period (step S328), and ends the audio data recording when the predetermined period elapses. (Step S329). On the other hand, when both the skin temperature and the GSR do not exceed the reference values, the control unit 10 ends the recording of the sound data and deletes the sound data recorded during the reaction determination period (step S330).

制御部10は、上記ステップS329の動作の後、または、上記ステップS330の動作の後、通信が終了したか否かを判別する(ステップS331)。   The controller 10 determines whether or not the communication has ended after the operation of step S329 or after the operation of step S330 (step S331).

制御部10は、通信が終了しない場合、上記ステップS324の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定を終了し(ステップS331b)、測定された生理量データに基づいて通信中の心理状態を推定する(ステップS332)。その後、制御部10は、推定された使用者の通信中の心理状態をメイン表示部13に表示する(ステップS333)。   When the communication is not terminated, the control unit 10 repeats the operation in step S324. On the other hand, when the communication is completed, the control unit 10 ends the measurement of physiological data (step S331b), and estimates the psychological state during communication based on the measured physiological data (step S332). Thereafter, the control unit 10 displays the estimated psychological state during communication of the user on the main display unit 13 (step S333).

そして、制御部10は、上述のステップS312〜S315と同様の動作を行う(ステップS334〜S337)。これにより、第6の実施の形態の他の例としての通信プログラムが終了する。   And the control part 10 performs the operation | movement similar to the above-mentioned step S312-S315 (step S334-S337). As a result, the communication program as another example of the sixth embodiment ends.

上述の図42〜図44に基づき説明した通信プログラムによれば、使用者の通話全体の音声データを録音する必要がないので、図2のメモリ12に記憶されるデータの容量が低減され、無駄のないデータ処理を行うことができる。   According to the communication program described with reference to FIGS. 42 to 44 described above, since it is not necessary to record the voice data of the entire user's call, the capacity of data stored in the memory 12 of FIG. Data processing can be performed.

以上、本実施の形態においては、制御部10による生体情報の検出時に使用者の音声データが使用者のメモリ12に記憶される。それにより、使用者は、相手に依存する使用者の音声の状態を記憶内容に基づいて容易に把握することができる。   As described above, in the present embodiment, the user's voice data is stored in the user's memory 12 when the control unit 10 detects the biological information. Thereby, the user can easily grasp the state of the user's voice depending on the other party based on the stored content.

また、本実施の形態においては、制御部10により検出された生理量データ(皮膚温度およびGSR)が各種基準値を超えたか否かが制御部10により判別され、生理量データが基準値を超えたと判別された場合に、基準値を超えた時点を含む特定通話期間の使用者の音声データがメモリ12に記憶される。それにより、使用者は、相手に依存して生体情報が大きく反応した場合の音声の状態を記憶内容により容易に把握することができる。   In the present embodiment, the control unit 10 determines whether or not the physiological data (skin temperature and GSR) detected by the control unit 10 exceeds various reference values, and the physiological data exceeds the reference value. If it is determined that the voice data of the user has been exceeded, the voice data of the user during the specific call period including the time point exceeding the reference value is stored in the memory 12. Thereby, the user can easily grasp the state of the voice when the biological information greatly reacts depending on the other party based on the stored content.

上記では、特定通話期間を決定するために、生理量データのうち皮膚温度およびGSRを用いているが、これに限らず、特定通話期間を決定するためのパラメータとしては、皮膚温度のみを用いてもよいし、GSRのみを用いてもよいし、脈拍のみを用いてもよいし、これらの組み合わせを用いてもよい。   In the above, skin temperature and GSR are used in the physiological data to determine the specific call period. However, the present invention is not limited to this, and only the skin temperature is used as a parameter for determining the specific call period. Alternatively, only GSR may be used, only pulse may be used, or a combination thereof may be used.

また、生理量データに限らず、生体情報であれば、音声データを解析することにより得られるトーン、抑揚およびジッタを用いてもよい。なお、この場合、各々のパラメータごとに基準値を設定する。   Further, not only physiological data but also biological information, tone, inflection and jitter obtained by analyzing voice data may be used. In this case, a reference value is set for each parameter.

本実施の形態においては、生体情報の基準値に対する大小関係により、特定通話期間を決定しているが、これに限らず、特定通話期間の決定は、携帯電話機100による心理状態の推定結果に応じて行われてもよい。   In the present embodiment, the specific call period is determined based on the magnitude relationship with respect to the reference value of the biometric information. It may be done.

携帯電話機100は、通話中でなくても、使用者の生体情報を検出してもよい。例えば、携帯電話機100は使用者が電子メールを作成する際に使用者の生体情報を検出してもよい。この場合、使用者は自己の特定の通信相手への電子メールの作成時の心理状態についての情報を得ることができる。そして、使用者の電子メールの作成時に生体情報が所定の基準値を超えた場合に使用者の電子メールの内容や音声データを記録してもよい。   The mobile phone 100 may detect the user's biometric information even when not in a call. For example, the mobile phone 100 may detect the user's biometric information when the user creates an e-mail. In this case, the user can obtain information about the psychological state at the time of creating an e-mail to his / her specific communication partner. Then, when the biometric information exceeds a predetermined reference value when the user's e-mail is created, the contents of the user's e-mail and voice data may be recorded.

他の実施の形態において後述するが、携帯電話機100は、抽出された音声データまたは推定された心理状態についての情報を他の通信装置に送信してもよい。   As will be described later in another embodiment, the mobile phone 100 may transmit the extracted voice data or information about the estimated psychological state to another communication device.

(第7の実施の形態)
第7の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Seventh embodiment)
The mobile phone 100 according to the seventh embodiment has the same configuration and operation as the mobile phone 100 according to the first embodiment except for the following points.

本実施の形態に係る携帯電話機100には、図3の音声解析テーブル格納部125に後述の質問識別テーブルが記憶されている。   Mobile phone 100 according to the present embodiment stores a later-described question identification table in voice analysis table storage unit 125 in FIG.

携帯電話機100は、質問識別テーブルに基づいて、使用者の通話時における通話相手の質問を識別し、その質問に対する使用者の回答がうそであるか否かを判定することができる。   Based on the question identification table, the mobile phone 100 can identify the question of the other party at the time of the user's call, and can determine whether or not the user's answer to the question is a lie.

本実施の形態では、生理量データとしてGSRが用いられる。音声データとしては、上述の各実施の形態と同様に録音された使用者の会話の音声が用いられる。   In the present embodiment, GSR is used as physiological data. As the voice data, the voice of the user's conversation recorded as in the above-described embodiments is used.

図45は、図3の音声解析テーブル格納部125に記憶される内容の一例および使用者の回答がうそであるか否かの判定方法を説明するための図である。   FIG. 45 is a diagram for explaining an example of contents stored in the voice analysis table storage unit 125 of FIG. 3 and a method for determining whether or not a user's answer is a lie.

初めに、質問識別テーブルについて説明する。図45(a)には、図3の音声解析テーブル格納部125に記憶される質問識別テーブルの一例が表されている。図45(a)の例では、携帯電話機100が、通話相手の発声のうち、語尾の抑揚が上昇し、かつ、語尾の単語が「ですか」の場合に質問であると識別し、その他の場合に質問ではないと識別する旨が表されている。これにより、本実施の形態に係る携帯電話機100は、通話中における通話相手の発声が質問であるか否かを識別することができる。   First, the question identification table will be described. FIG. 45A shows an example of a question identification table stored in the voice analysis table storage unit 125 of FIG. In the example of FIG. 45 (a), the mobile phone 100 identifies a question when the inflection of the utterance of the other party is increased and the ending word is “Is?”, And the other In some cases, it indicates that it is not a question. Thereby, mobile phone 100 according to the present embodiment can identify whether or not the utterance of the other party during a call is a question.

図45(b)に示すように、携帯電話機100は、通話相手の発声および質問識別テーブルに基づいて質問Qu1,Qu2を識別した場合、その質問Qu1,Qu2に対する使用者の回答Ans1,Ans2を識別する。   As shown in FIG. 45 (b), when the mobile phone 100 identifies the questions Qu1 and Qu2 based on the call partner's utterance and the question identification table, it identifies the user's responses Ans1 and Ans2 to the questions Qu1 and Qu2. To do.

そして、携帯電話機100は、図45(c)に示すように使用者の回答Ans1,Ans2として識別された期間のGSR測定値が所定の基準値GTHを超えたか否かを判別する。   Then, the mobile phone 100 determines whether or not the GSR measurement value in the period identified as the user's answers Ans1 and Ans2 exceeds a predetermined reference value GTH as shown in FIG. 45 (c).

携帯電話機100は、GSR測定値が所定の基準値GTHを超えた場合、その測定時に対応する使用者の回答Ans1がうそであると判定する。また、携帯電話機100は、GSR測定値が所定の基準値GTHを超えない場合、その測定時に対応する使用者の回答Ans2が本当であると判定する。   When the GSR measurement value exceeds the predetermined reference value GTH, the mobile phone 100 determines that the user's answer Ans1 corresponding to the measurement is a lie. Further, when the GSR measurement value does not exceed the predetermined reference value GTH, the mobile phone 100 determines that the user's answer Ans2 corresponding to the measurement is true.

一般に、人間はGSRが高い場合に緊張状態である可能性が高いとされている。したがって、GSR測定値が所定の基準値GTHを超えた場合、使用者はうその回答をすることによる緊張状態にあると推定される。なお、上記の基準値GTHは予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。   In general, it is considered that a person is likely to be in a tension state when the GSR is high. Therefore, when the GSR measurement value exceeds the predetermined reference value GTH, it is estimated that the user is in a tension state by answering a lie. The reference value GTH may be set by determining a specific value in advance, or may be set for each user according to characteristics such as the health condition and personality of each user.

上述の携帯電話機100による通話相手の質問の識別、使用者の回答の識別およびその回答がうそか否かの判定を含む一連の動作をうそ判定動作と呼ぶ。   A series of operations including identification of the other party's question, identification of the user's answer and determination of whether or not the answer is a lie by the mobile phone 100 described above is called a lie determination operation.

本実施の形態に係る携帯電話機100は、上記うそ判定動作を行うとともに、使用者の回答がうそか否かの判定時に、その判定結果を使用者に通知するための後述のうそ回答時動作を行う。また、携帯電話機100は、使用者の通話終了時に、その通話中における回答のうその数はどれほどであったかという診断結果を使用者に通知するための後述のうそ診断時動作を行う。   The mobile phone 100 according to the present embodiment performs the above-described lie determination operation and also performs a lie response operation described later for notifying the user of the determination result when determining whether or not the user's response is a lie. Do. In addition, when the user's call ends, the mobile phone 100 performs a lie diagnosis operation described later for notifying the user of a diagnosis result indicating how many lies the answer is during the call.

うそ回答時動作およびうそ診断時動作は、以下に説明するうそ通知動作設定テーブルに基づき行われる。以下、使用者の回答がうそと判定されるときをうそ回答時と呼び、使用者の通話が終了して使用者の通話中の回答のうその数が診断されるときをうそ診断時と呼ぶ。   The lie response operation and the lie diagnosis operation are performed based on a lie notification operation setting table described below. Hereinafter, the time when the user's answer is determined to be a lie is referred to as a lie answer, and the time when the user's call is completed and the number of lies in the user's answer is diagnosed is referred to as a lie diagnosis time. .

うそ通知動作設定テーブルについて説明する。図46は、図3の動作設定記憶部121に記憶されるうそ通知動作設定テーブルの一例を示す図である。   The lie notification operation setting table will be described. 46 is a diagram showing an example of a lie notification operation setting table stored in the operation setting storage unit 121 of FIG.

図46では、うそ回答時およびうそ診断時の各々に対してうそメロディパターン、うそ発光パターンおよびうそ表示パターンの組合わせが分類されている。例えば、うそ発声時の場合、うそメロディパターンとして「ブーブー」が設定され、うそ発光パターンとして「赤色を点灯」が設定され、うそ表示パターンとして「うそをついています」が設定されている。   In FIG. 46, combinations of a lie melody pattern, a lie emission pattern, and a lie display pattern are classified for each of the lie answer time and the lie diagnosis time. For example, in the case of a lie utterance, “boo boo” is set as the lie melody pattern, “red light” is set as the lie light emission pattern, and “lie lie” is set as the lie display pattern.

これにより、携帯電話機100はうそ回答時およびうそ診断時に上記の各パターンに基づく動作を行う。それにより、使用者は自己のうその回答を知ることができる。   Thereby, the mobile phone 100 performs an operation based on each of the above patterns at the time of a lie answer and a lie diagnosis. Thereby, the user can know the answer of his / her lie.

図46に示すように、本実施の形態では、使用者の通話中のうその数に応じて上述のうそ診断時動作を行うためのうそレベルが設定されている。例えば、使用者が通話中に3度回答した場合にそれらの全ての回答がうそであると判定されるとうそレベル1が決定され、3度の回答のうち2度の回答がうそである場合にうそレベル2が決定され、3度の回答のうち1度の回答がうそである場合にうそレベル3が決定される。   As shown in FIG. 46, in the present embodiment, a lie level for performing the above-described lie diagnosis operation is set according to the number of lies during a user's call. For example, when the user answers three times during a call, if it is determined that all those answers are lies, lie level 1 is determined, and two of the three answers are lies Lie level 2 is determined, and lie level 3 is determined when one of the three answers is a lie.

うそレベルの決定方法は特に限定されない。例えば、上記の他、通話中の全ての回答回数に対するうその回答回数の比率に応じて定められてもよい。また、うそレベルのレベルの数も上記に限定されない。   The method for determining the lie level is not particularly limited. For example, in addition to the above, it may be determined in accordance with the ratio of the number of times of lies to the total number of answers during a call. Further, the number of lie levels is not limited to the above.

うそ診断時においては、うそレベルごとにうそメロディパターン、うそ発光パターンおよびうそ表示パターンの組合わせが分類されている。例えば、うそ診断時のうそレベル3に対しては、うそメロディパターンとして「ブーブー」が設定され、うそ発光パターンとして「赤色を点灯」が設定され、うそ表示パターンとして、うその数が多いことを棒グラフで表したうそレベルメータおよび「大うそつきー!」のコメントが設定されている。   At the time of lie diagnosis, combinations of lie melody patterns, lie light emission patterns, and lie display patterns are classified for each lie level. For example, for lie level 3 at the time of lie diagnosis, “boo boo” is set as the lie melody pattern, “red light” is set as the lie emission pattern, and there are many lies as the lie display pattern. A lie level meter represented by a bar graph and a comment “Large liar!” Are set.

これにより、携帯電話機100はうそ診断時にうそレベルの決定結果に基づいて上記の各パターンの動作を行う。それにより、使用者は自己の通話中におけるうその回答回数を知ることができる。   Thereby, the mobile phone 100 performs the above-described operation of each pattern based on the determination result of the lie level at the time of lie diagnosis. Thereby, the user can know the number of times the lie is answered during the call.

ここで、本実施の形態に係る携帯電話機100においては、上記のように、使用者の回答時にその回答のうそまたは本当のみを判定しなくてもよい。後述するように、携帯電話機100は使用者の回答時に、その回答のうその度合いを判定してもよい。この場合、うそ通知動作設定テーブルの設定内容は上記と異なる。   Here, in the mobile phone 100 according to the present embodiment, as described above, it is not necessary to determine only the lie or true of the answer when the user answers. As will be described later, the mobile phone 100 may determine the degree of the lie of the answer when the user answers. In this case, the setting contents of the lie notification operation setting table are different from the above.

この場合のうその度合いの判定方法およびこの判定時に用いられるうそ通知動作設定テーブルの一例について説明する。   An example of the determination method of the lie level in this case and an example of the lie notification operation setting table used at the time of this determination will be described.

図47は使用者の回答のうその度合いを判定するための判定方法を説明するための図および図3の動作設定記憶部121に記憶されるうそ通知動作設定テーブルの他の例を示す図である。   47 is a diagram for explaining a determination method for determining the degree of a user's answer lie and a diagram illustrating another example of a lie notification operation setting table stored in the operation setting storage unit 121 of FIG. is there.

図47(a)に、使用者の回答のうその度合いを判定するための判定方法が表されている。本例では、使用者の回答時のGSRの測定結果を2つの基準値GTH1,GTH2でレベル分けする。それにより、GSRの測定結果と2つの基準値GTH1,GTH2との大小関係に基づいて、使用者の回答ごとにその回答のうその度合いを示すうそ度レベルを決定する。なお、図47に示すように、2つの基準値GTH1,GTH2は、この順に大きい。これにより、本例では、うそ度レベルは1〜3に分けられている。   FIG. 47A shows a determination method for determining the degree of lie of the user's answer. In this example, the GSR measurement result at the time of the user's answer is divided into levels by two reference values GTH1 and GTH2. Thereby, a lie level indicating the degree of lie of the answer is determined for each user's answer based on the magnitude relationship between the GSR measurement result and the two reference values GTH1 and GTH2. As shown in FIG. 47, the two reference values GTH1 and GTH2 are larger in this order. Thereby, in this example, the lie level is divided into 1-3.

例えば、使用者の回答時におけるGSR測定値が基準値GTH1,GTH2をともに超える場合、その回答のうそ度レベルは最も大きい3となる。また、使用者の回答時におけるGSR測定値が基準値GTH1,GTH2の間にある場合、その回答のうそ度レベルは中程度を示す2となる。   For example, when the GSR measurement value at the time of the user's answer exceeds both the reference values GTH1 and GTH2, the answer lie level is 3 which is the highest. Further, when the GSR measurement value at the time of the user's answer is between the reference values GTH1 and GTH2, the lie level of the answer is 2, which indicates a medium level.

図47(b)に、上記のうそ度レベルに基づくうそ通知動作設定テーブルの一例が表されている。図47(b)には、うそ回答時における上述のうそ度レベルに応じてうそメロディパターン、うそ発光パターンおよびうそ表示パターンの組合わせが分類されている。   FIG. 47B shows an example of a lie notification operation setting table based on the lie level described above. In FIG. 47 (b), combinations of lie melody patterns, lie light emission patterns, and lie display patterns are classified according to the above-mentioned lie level at the time of a lie answer.

例えば、うそ回答時のうそ度レベル2に対しては、うそメロディパターンとして「ピロリロー」が設定され、うそ発光パターンとして「青色を点灯」が設定され、うそ表示パターンとしてうその度合いが中程度であることを棒グラフで表したうそレベルメータが設定されている。   For example, for the lie level 2 at the time of a lie answer, “Pillariro” is set as the lie melody pattern, “Lit blue” is set as the lie light emission pattern, and the lie level is moderate as the lie display pattern. A lie level meter is set to show that there is a bar graph.

これにより、携帯電話機100はうそ回答時にうそ度レベルに基づいて上記の各パターンの動作を行う。それにより、使用者は通話相手の質問に対する回答時に自己の回答のうその度合いを知ることができる。   As a result, the mobile phone 100 performs the above-described pattern operations based on the lie level when answering a lie. As a result, the user can know the degree of lie of his / her answer when answering the question of the other party.

ところで、本実施の形態において、携帯電話機100は使用者の通話中のうその診断結果を履歴データとして、図3の履歴データ格納部124に記憶する。図48は、過去のうその診断結果を含む履歴データの一例を示す図である。   By the way, in the present embodiment, the mobile phone 100 stores the diagnosis result of the lie during a user's call as history data in the history data storage unit 124 of FIG. FIG. 48 is a diagram showing an example of history data including past lie diagnosis results.

図48に示すように、本実施の形態では通信相手ごとに過去のうその診断結果が履歴データの一部として図3の履歴データ格納部124に記憶されている。これにより、使用者は履歴データを呼び出すことにより、特定の通信相手に対する過去のうその診断結果を知ることができる。   As shown in FIG. 48, in the present embodiment, the past diagnosing results for each communication partner are stored in the history data storage unit 124 of FIG. 3 as part of the history data. Thereby, the user can know the past diagnosis result of a lie for a specific communication partner by calling the history data.

例えば、図48の履歴データには、通信相手AAに対応して、上述の第1の実施の形態の図7において説明した内容とともに過去のうその診断結果がうそレベル1として記憶されている。   For example, in the history data of FIG. 48, the diagnosis result of the past lie is stored as the lie level 1 together with the contents described in FIG. 7 of the first embodiment, corresponding to the communication partner AA.

以下の説明において、図3の動作設定記憶部121には図46のうそ通知動作設定テーブルが記憶されているものとする。したがって、携帯電話機100は、使用者の通話時に使用者の回答のうそまたは本当を判定し、うそ診断時に、その通話中のうその回答回数を判定してもよい。   In the following description, it is assumed that the lie notification operation setting table of FIG. 46 is stored in the operation setting storage unit 121 of FIG. Therefore, the mobile phone 100 may determine whether the user's answer is a lie or true during the user's call, and may determine the number of times the lie is answered during the call when the lie is diagnosed.

図49および図50は、使用者が第7の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。   49 and 50 are diagrams illustrating an example of contents displayed on the main display unit 13 when the user uses the mobile phone 100 according to the seventh embodiment.

使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。   The user operates the input operation unit 11 of the mobile phone 100 when making a call.

図49(a)は、使用者の通話中のメイン表示部13の表示例を表す。メイン表示部13には、使用者が通話している際に現在の通話時間が表示され、使用者の生体情報を検出している旨が表示される。使用者の通話中に使用者の回答がうそであると判定された場合、メイン表示部13の表示が切り替わる。   FIG. 49A shows a display example of the main display unit 13 during a user call. The main display unit 13 displays the current call time when the user is making a call and displays that the user's biometric information is detected. When it is determined that the user's answer is a lie during the user's call, the display on the main display unit 13 is switched.

図49(b)は、通話中であって、使用者の回答がうそであると判定された場合にメイン表示部13に表示される内容の一例を表す図である。メイン表示部13には、現在の通話時間および生体情報を検出している旨が表示されるとともに、使用者の回答がうそである旨のうそ表示パターンが表示される。   FIG. 49B is a diagram illustrating an example of contents displayed on the main display unit 13 when it is determined that the user's answer is a lie during a call. The main display unit 13 displays that the current call time and biometric information are detected, and displays a lie display pattern indicating that the user's answer is a lie.

このメイン表示部13の表示状態においては、図46のうそ回答時のうそ発光パターン「赤色を点灯」でサブ表示部14が発光するとともに、図46のうそ回答時のうそメロディパターン「ブーブー」でスピーカ15aが音声出力する。   In the display state of the main display unit 13, the sub display unit 14 emits light with the lie emission pattern “lit red” at the time of a lie response in FIG. 46, and the lie melody pattern “boo-boo” at the time of a lie response in FIG. 46. The speaker 15a outputs sound.

使用者またはその通話相手が携帯電話機100の入力操作部11を操作することにより通話が終了する。   When the user or the other party operates the input operation unit 11 of the mobile phone 100, the call ends.

図49(c)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。通話終了とともに、携帯電話機100は上述のうそ診断動作を行う。その結果、メイン表示部13には、使用者の通話時間が表示されるとともに、使用者の通話中のうその回答回数を棒グラフで表したうそレベルメータおよび「なかなかうそつき!?」のコメントが表示される。なお、図49(c)の表示例では、使用者のうそレベルは2であると診断されている。さらに、メイン表示部13には終了ボタン131およびバツボタン160が表示されている。   FIG. 49C shows a display example of the main display unit 13 when the user ends the call. At the end of the call, the mobile phone 100 performs the lie diagnosis operation described above. As a result, the main display unit 13 displays the user's call time, and also displays a lie level meter that represents the number of times the user's lie is answered during a call, and a comment “Little liar !?”. Is done. In the display example of FIG. 49C, it is diagnosed that the user's lie level is 2. Further, an end button 131 and a cross button 160 are displayed on the main display unit 13.

このメイン表示部13の表示状態においては、図46のうそ診断時のうそ発光パターン「青色を点灯」でサブ表示部14が発光するとともに、図46のうそ回答時のうそメロディパターン「ピロリロー」でスピーカ15aが音声出力する。   In the display state of the main display unit 13, the sub display unit 14 emits light with the lie emission pattern “lights blue” at the time of lie diagnosis in FIG. 46, and the lie melody pattern “Pyrrolillo” at the time of lie response in FIG. 46. The speaker 15a outputs sound.

一方、図3の動作設定記憶部121に図47のうそ通知動作設定テーブルが記憶されている場合、制御部10は、使用者の通話中に回答のうその度合いを判定し、うそ通知動作設定テーブルに基づく動作を行う。   On the other hand, when the lie notification operation setting table of FIG. 47 is stored in the operation setting storage unit 121 of FIG. 3, the control unit 10 determines the degree of lie during the user's call and determines the lie notification operation setting. Perform table-based operations.

図50(d)は、図3の動作設定記憶部121に図47のうそ通知動作設定テーブルが記憶されている場合の使用者の通話中におけるメイン表示部13の表示例を表す。   FIG. 50D illustrates a display example of the main display unit 13 during a user call when the lie notification operation setting table of FIG. 47 is stored in the operation setting storage unit 121 of FIG.

メイン表示部13には、使用者の通話時間が表示されるとともに、使用者の通話中の回答のうその度合いの判定結果を棒グラフで表したうそレベルメータが表示される。なお、図50(d)の表示例では、使用者のうそレベルは2であると診断されている。さらに、メイン表示部13には終了ボタン131およびバツボタン160が表示されている。   The main display unit 13 displays a call time of the user and a lie level meter that represents a determination result of a degree of a lie of an answer during the call of the user by a bar graph. In the display example of FIG. 50D, it is diagnosed that the user's lie level is 2. Further, an end button 131 and a cross button 160 are displayed on the main display unit 13.

このメイン表示部13の表示状態においては、図47(b)のうそ回答時のうそ発光パターン「青色を点灯」でサブ表示部14が発光するとともに、図46のうそ回答時のうそメロディパターン「ピロリロー」でスピーカ15aが音声出力する。   In the display state of the main display unit 13, the sub display unit 14 emits light in the lie emission pattern “light blue” at the time of a lie response in FIG. 47B, and the lie melody pattern “at the time of a lie response in FIG. The speaker 15a outputs a sound in “Pylori low”.

メイン表示部13の図49(c)および図50(d)の表示状態において、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより、終了ボタン131およびバツボタン160のいずれかを選択することができる。   49 (c) and 50 (d) on the main display unit 13, the user operates either the cursor button KK, the enter button KS, or the like in FIG. Can be selected.

使用者が入力操作部11を操作することにより終了ボタン131を選択した場合、上述のうそ判定動作、うそ回答時動作およびうそ診断時動作が終了する。   When the user selects the end button 131 by operating the input operation unit 11, the above-described lie determination operation, lie response operation, and lie diagnosis operation are ended.

ここで、本実施の形態に係る携帯電話機100は使用者の通話終了後に、判定された使用者の回答のうその度合いまたはうその回答回数等に応じて、メイン表示部13にバツゲームに関する情報を表示してもよい。   Here, the mobile phone 100 according to the present embodiment displays information about the cross game on the main display unit 13 in accordance with the determined degree of the user's answer or the number of times of the answer after the user's call ends. It may be displayed.

図50(e)は、使用者がバツボタン160を選択した場合のメイン表示部13の表示例である。図50(e)によれば、メイン表示部13には、使用者の回答のうその度合いまたはうその回答回数等に応じたコメント「なかなかうそつきなあなた!!」が表示され、バツゲームとしてのコメント「隣の人の肩たたきをしてください」が表示されている。   FIG. 50E is a display example of the main display unit 13 when the user selects the cross button 160. According to FIG. 50 (e), the main display unit 13 displays a comment “Your liar you!” According to the degree of the user's answer or the number of answers, and the comment as a cross game. “Put the next person on the shoulder” is displayed.

また、図50(e)においても終了ボタン131が表示されているが、上記同様に、使用者が入力操作部11を操作することにより終了ボタン131を選択した場合、うそ判定動作、うそ回答時動作およびうそ診断時動作が終了する。   In FIG. 50E, the end button 131 is also displayed. Similarly to the above, when the user selects the end button 131 by operating the input operation unit 11, a lie determination operation and a lie answer time are displayed. Operation and operation during lie diagnosis are completed.

本実施の形態に係る通信プログラムについて説明する。図51〜図53は第7の実施の形態に係る通信プログラムの一例を示すフローチャートである。なお、このフローチャートによれば、携帯電話機100は使用者の回答がうそか否かを判定し、通話終了時にうその回答回数に基づくうそ診断を行うことができる。   A communication program according to the present embodiment will be described. 51 to 53 are flowcharts showing an example of a communication program according to the seventh embodiment. According to this flowchart, the mobile phone 100 can determine whether or not the user's answer is a lie, and can perform a lie diagnosis based on the number of lies at the end of the call.

本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。   According to the communication program according to the present embodiment, the control unit 10 in FIG. 2 operates as follows.

初めに、図2の制御部10は、使用者による入力操作部11の操作によりうそ発見モードをオンする旨の指令信号を受けたか否かを判別する(ステップS400)。うそ発見モードのオンとは、携帯電話機100が上述のうそ判定動作、うそ回答時動作およびうそ診断時動作を行うことが可能な状態にすることをいう。   First, the control unit 10 of FIG. 2 determines whether or not a command signal for turning on the lie discovery mode is received by the operation of the input operation unit 11 by the user (step S400). Turning on the lie discovery mode means that the mobile phone 100 is in a state where it can perform the above-described lie determination operation, lie response operation, and lie diagnosis operation.

制御部10は、うそ発見モードをオンする旨の指令信号を受けた場合、第2の実施の形態で説明したステップS31〜ステップS33と同様の動作を行う(ステップS401〜S403)。上記ステップS403において、制御部10は、応答があった場合、生理量データの測定および通信相手の音声データの解析を開始する(ステップS404)。   When receiving a command signal to turn on the lie discovery mode, the control unit 10 performs the same operations as those in steps S31 to S33 described in the second embodiment (steps S401 to S403). In step S403, when there is a response, the control unit 10 starts measuring physiological data and analyzing voice data of the communication partner (step S404).

その後、制御部10は、通信相手が発声し、かつ、その発声が質問であるか否かを図45の質問識別テーブルに基づき識別する(ステップS405)。そして、制御部10は、通信相手の発生が質問であると判別した場合、使用者が回答したか否かを識別する(ステップS406)。ここで、制御部10は、使用者が回答した場合、使用者の回答時のGSR測定値が基準値GHTを超えたか否かを判別する(ステップS407)。   Thereafter, the control unit 10 identifies whether the communication partner utters and whether the utterance is a question based on the question identification table of FIG. 45 (step S405). When determining that the occurrence of the communication partner is a question, the control unit 10 identifies whether or not the user has answered (Step S406). Here, when the user answers, the control unit 10 determines whether or not the GSR measurement value at the time of the user's answer exceeds the reference value GHT (step S407).

制御部10は、使用者の回答時のGSR測定値が基準値GHTを超えた場合、その使用者の回答をうそと判定し、その旨を一時的に図2のメモリ12に記憶する(ステップS408)。   When the GSR measurement value at the time of the user's answer exceeds the reference value GHT, the control unit 10 determines that the user's answer is a lie, and temporarily stores the fact in the memory 12 of FIG. S408).

そして、制御部10は、図46のうそ通知動作設定テーブルのうそ回答時に対応するうそ表示パターンをメイン表示部13に表示させ、うそ回答時に対応するうそ発光パターンで図2のサブ表示部14を発光させ、うそ回答時に対応するメロディパターンでスピーカ15aから音声を出力させる(ステップS409)。   Then, the control unit 10 causes the main display unit 13 to display the lie display pattern corresponding to the lie answer in the lie notification operation setting table of FIG. 46, and displays the sub display unit 14 of FIG. 2 with the lie emission pattern corresponding to the lie answer. The light is emitted, and the sound is output from the speaker 15a with the melody pattern corresponding to the lie answer (step S409).

次いで、制御部10は通信が終了したか否かを判別する(ステップS411)。ここで、上記ステップS407において、制御部10は、使用者の回答時のGSR測定値が基準値GHTを超えない場合、その使用者の回答を本当と判定し、その旨を一時的に図2のメモリ12に記憶する(ステップS410)。そして、制御部10は上記ステップS411の動作を行う。   Next, the control unit 10 determines whether or not communication has ended (step S411). Here, in step S407, when the GSR measurement value at the time of the user's answer does not exceed the reference value GHT, the control unit 10 determines that the user's answer is true, and temporarily indicates that fact in FIG. (Step S410). And the control part 10 performs operation | movement of the said step S411.

制御部10は、通信が終了しない場合、上記ステップS404の動作を繰り返す。一方、制御部10は、通信が終了した場合、上記ステップS408およびステップS410においてメモリ12に一時的に記憶された内容に基づいてうその回答回数および本当の回答回数を算出し、上述のうそレベルを確定する(ステップS412)。   When the communication is not terminated, the control unit 10 repeats the operation in step S404. On the other hand, when the communication is completed, the control unit 10 calculates the number of lies and the number of true replies based on the contents temporarily stored in the memory 12 in steps S408 and S410, and the lie level described above. Is determined (step S412).

これにより、制御部10は、確定されたうそレベルおよび図46のうそ通知動作設定テーブルに基づいて、確定されたうそレベルに対応するうそ表示パターンをメイン表示部13に表示させ、確定されたうそレベルに対応するうそ発光パターンで図2のサブ表示部14を発光させ、確定されたうそレベルに対応するメロディパターンでスピーカ15aから音声を出力させる(ステップS413)。   As a result, the control unit 10 causes the main display unit 13 to display a lie display pattern corresponding to the confirmed lie level based on the confirmed lie level and the lie notification operation setting table of FIG. The sub display unit 14 of FIG. 2 emits light with the lie light emission pattern corresponding to the level, and the sound is output from the speaker 15a with the melody pattern corresponding to the confirmed lie level (step S413).

最後に、制御部10は、図3の履歴データ格納部124に、確定されたうそレベルを履歴データとして記憶する(ステップS414)。これにより、制御部10は、本実施の形態に係る通信プログラムを終了する。   Finally, the control unit 10 stores the determined lie level as history data in the history data storage unit 124 of FIG. 3 (step S414). Thereby, the control part 10 complete | finishes the communication program which concerns on this Embodiment.

制御部10は、上記ステップS100において、うそ発見モードがオンしない場合、第2の実施の形態のステップS50〜S53と同様の動作を行う(ステップS420〜S423)。制御部10は、上記ステップS423において、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。   When the lie discovery mode is not turned on in step S100, the control unit 10 performs the same operation as steps S50 to S53 of the second embodiment (steps S420 to S423). When the communication ends in step S423, the control unit 10 ends the communication program according to the present embodiment.

上記の本実施の形態に係る通信プログラムにおいては、ステップS414の動作により使用者の通話ごとに確定されたうそレベルが履歴データとして図3の履歴データ格納部124に記憶される。これにより、使用者は、履歴データ格納部124から履歴データを呼び出すことにより過去の通話時における自己の回答についての情報を得ることができる。   In the communication program according to the present embodiment, the lie level determined for each user call by the operation in step S414 is stored as history data in the history data storage unit 124 of FIG. As a result, the user can obtain information about his / her answer during a past call by calling the history data from the history data storage unit 124.

なお、上記では、図49および図50の説明においてメイン表示部13に表示される終了ボタン131およびバツボタン160の使用者による操作に基づく動作については省略しているが、制御部10は上記図49および図50説明のように使用者が終了ボタン131を選択することにより通信プログラムを終了させ、使用者がバツボタン160を選択することにより確定されたうそレベルに応じたバツゲームに関するコメントをメイン表示部13に表示させる動作を行う。   In the above description, in the description of FIG. 49 and FIG. 50, the operation based on the operation by the user of the end button 131 and the cross button 160 displayed on the main display unit 13 is omitted. As shown in FIG. 50, the user selects the end button 131 to end the communication program, and the user selects the cross button 160 to comment on the cross game according to the lie level determined by the user. The operation to display is performed.

さらに、上記では、携帯電話機100は確定されたうそレベルを履歴データとして記憶するとしているが、携帯電話機100は確定されたうそレベルを履歴データとして記憶しなくてもよい。   Furthermore, in the above description, the mobile phone 100 stores the determined lie level as history data. However, the mobile phone 100 may not store the determined lie level as history data.

以上、本実施の形態においては、無線通信部30およびアンテナ31により受信された音声データに基づいて通話相手からの質問を示す音声データが制御部10により識別され、質問を示す音声データが識別されたときに使用者の生体情報が検出される。それにより、通話相手および通話内容に依存する生体情報を取得することができる。   As described above, in the present embodiment, the voice data indicating the question from the other party is identified by the control unit 10 based on the voice data received by the wireless communication unit 30 and the antenna 31, and the voice data indicating the question is identified. The user's biological information is detected. Thereby, biometric information depending on the other party and the content of the call can be acquired.

また、本実施の形態においては、生理量データ測定部20により検出された生体情報に基づいて使用者のうそが推定手段により推定される。それにより、通信相手に依存した使用者のうそを認識することができる。   In the present embodiment, the lie of the user is estimated by the estimation unit based on the biological information detected by the physiological data measurement unit 20. Thereby, the user's lie depending on the communication partner can be recognized.

上述の基準値GTH,GTH1,GTH2は通信相手ごとに設定されてもよい。   The reference values GTH, GTH1, and GTH2 described above may be set for each communication partner.

本実施の形態では、使用者の回答のうそを判定するために、生理量データとしてGSRのみが用いられているが、これに限らず、使用者の回答のうそを判定するためのパラメータとしては、皮膚温度のみを用いてもよいし、GSRのみを用いてもよいし、脈拍のみを用いてもよいし、これらの組み合わせを用いてもよい。   In the present embodiment, only GSR is used as physiological data in order to determine the user's answer lie. However, the present invention is not limited to this, and the parameters for determining the user's answer lie are as follows. Only the skin temperature may be used, only GSR may be used, only the pulse may be used, or a combination of these may be used.

また、生理量データに限らず、生体情報であれば、音声データを解析することにより得られるトーン、抑揚およびジッタを用いてもよい。なお、この場合、各々のパラメータごとに基準値を設定する。   Further, not only physiological data but also biological information, tone, inflection and jitter obtained by analyzing voice data may be used. In this case, a reference value is set for each parameter.

上記では、使用者の携帯電話機100による通話中で、かつ使用者の回答中に限り、GSR測定値に基づく使用者のうその判定を行っているが、これに限らず、使用者の通話時間を通じて、通話全体のGSRに基づき使用者の通話中のうその度合いを判定してもよい。この場合、使用者は通話全体の自己の発言時の生体情報に基づいてうその度合いの判定を行うことで、その通話時全体を通してうそに関する様々な情報を得ることができる。   In the above description, the user's lie is determined based on the GSR measurement value only during the call by the user's mobile phone 100 and during the user's answer. The degree of lie during the call of the user may be determined based on the GSR of the entire call. In this case, the user can obtain various information related to the lie throughout the call by determining the degree of the lie based on the biological information at the time of his / her speech of the entire call.

携帯電話機100は、通話中でなくても、使用者の生体情報を検出してもよい。例えば、携帯電話機100は使用者が電子メールによる質問に対して、使用者が回答する場合の生体情報を検出してもよい。この場合、その生体情報に基づいて、質問に対する回答の電子メールのうその度合いを判定することができる。さらに、判定された内容を回答の電子メールに添付して送信してもよい。この場合、使用者は回答の電子メールを作成する時のうその度合いについての情報を得ることができる。   The mobile phone 100 may detect the user's biometric information even when not in a call. For example, the mobile phone 100 may detect biometric information when the user answers a question by e-mail. In this case, it is possible to determine the degree of lie in the e-mail of the answer to the question based on the biometric information. Further, the determined content may be transmitted as an attachment to the reply e-mail. In this case, the user can obtain information on the degree of lie when creating the reply e-mail.

他の実施の形態において後述するが、携帯電話機100は、検出された生体情報または推定された心理状態についての情報を他の通信装置に送信してもよい。   As will be described later in another embodiment, the mobile phone 100 may transmit the detected biological information or information about the estimated psychological state to another communication device.

さらに、上記では、使用者の通話中に回答がうそか否かの判定を行い、使用者の通話後にその通話中におけるうその回答回数についての診断を行っているが、これらの動作は必ずしもともに行われる必要はない。携帯電話機100は、使用者の通話中における回答のうそか否かの判定のみを行ってもよいし、使用者の通話時のうその回答回数についての診断のみを行ってもよい。   Furthermore, in the above, it is determined whether or not the answer is a lie during the user's call, and after the user's call, a diagnosis is made regarding the number of times the lie is answered during the call. There is no need to be done. The mobile phone 100 may only determine whether or not the answer is a lie during the user's call, or may perform only a diagnosis regarding the number of lies during the user's call.

(第8の実施の形態)
第8の実施の形態に係る通信システムについて説明する。本実施の形態に係る通信システムは第1の実施の形態に係る携帯電話機100、診断者用電話機および診断者用コンピュータを含む。
(Eighth embodiment)
A communication system according to the eighth embodiment will be described. The communication system according to the present embodiment includes a mobile phone 100, a diagnostician phone, and a diagnostician computer according to the first embodiment.

図54は、第8の実施の形態に係る通信システムの概要を説明するための図である。本実施の形態に係る通信システム700によれば、使用者(本実施の形態では、患者と呼ぶ。)は携帯電話機100を用いて医者、カウンセラー等の診断者と通話することにより、その通話時の生体情報を診断者に送信することができる。そして、診断者は、送信された生体情報に対するアドバイスを診断コンピュータにより患者に送信することができる。   FIG. 54 is a diagram for explaining the outline of the communication system according to the eighth embodiment. According to the communication system 700 according to the present embodiment, a user (referred to as a patient in the present embodiment) uses the mobile phone 100 to talk to a doctor, a counselor, or other diagnostician, and at the time of the call. The biometric information can be transmitted to the diagnostician. And the diagnostician can transmit the advice with respect to the transmitted biometric information to the patient by the diagnostic computer.

図54(a)は、患者PAと診断者DOとの間で通話がなされている様子を表す。図54(a)に示すように、患者PAは携帯電話機100を用いている。また、診断者DOは診断用電話機100Xを用いている。患者PAと診断者DOとの通話時において、携帯電話機100は使用者の生体情報を検出する。   FIG. 54A shows a state in which a call is made between the patient PA and the diagnostician DO. As shown in FIG. 54A, the patient PA uses a mobile phone 100. The diagnostician DO uses the diagnostic telephone 100X. At the time of a call between the patient PA and the diagnostician DO, the mobile phone 100 detects the biological information of the user.

ここでは、携帯電話機100は、生体情報として第1の実施の形態に示すように患者PAの生理量データ(GSR、皮膚温度および脈拍等)を測定してもよいし、第2の実施の形態に示すように音声データを解析することにより得られるパラメータ(トーン、抑揚およびジッタ等)を測定してもよい。   Here, the mobile phone 100 may measure physiological data (GSR, skin temperature, pulse, etc.) of the patient PA as biometric information as shown in the first embodiment, or the second embodiment. As shown in FIG. 5, parameters (tone, inflection, jitter, etc.) obtained by analyzing the voice data may be measured.

図54(b)は、患者PAと診断者DOとの通話終了時の様子を表す。通話終了時において、患者PAの携帯電話機100は、通話中に検出された生体情報、すなわち、患者PAの生理量データおよび音声データを、例えば、電子メールDA1により診断者DOの診断コンピュータ100PCへ送信する。これにより、診断者DOは送信された電子メールDA1に基づいて、患者PAの生体情報を診断コンピュータ100PCにより確認することができる。   FIG. 54B shows a state at the end of a call between the patient PA and the diagnostician DO. At the end of the call, the cellular phone 100 of the patient PA transmits the biological information detected during the call, that is, the physiological data and voice data of the patient PA to the diagnostic computer 100PC of the diagnostician DO, for example, by e-mail DA1. To do. Thereby, the diagnostician DO can confirm the biological information of the patient PA by the diagnostic computer 100PC based on the transmitted email DA1.

そして、診断者DOは患者PAの生体情報およびその生体情報が検出された通話中の通話内容に基づいて患者PAの健康状態を分析することができる。   Then, the diagnostician DO can analyze the health state of the patient PA based on the biological information of the patient PA and the content of the call during the call in which the biological information is detected.

図54(c)は、診断者DOが患者PAに対して健康状態に関するアドバイスを行う様子を表す。診断者DOは、患者PAの健康状態を分析するとともに、その健康状態に対するアドバイスを診断コンピュータ100PCを用いて電子メールDA2により患者PAの携帯電話機100に送信する。   FIG. 54 (c) shows a state in which the diagnostician DO provides advice regarding the health condition to the patient PA. The diagnostician DO analyzes the health condition of the patient PA, and transmits advice on the health condition to the cellular phone 100 of the patient PA using the diagnostic computer 100PC by the electronic mail DA2.

このように、本実施の形態に係る通信システム700によれば、診断者DOは通話中の患者PAの生体情報および通話内容に基づいて患者PAの健康状態を分析することができるので、患者PAへ健康状態に関する正確なアドバイスを行うことができる。一方、患者PAは送信された電子メールDA2に基づいて、自己の健康状態に関する正確なアドバイスを得ることができる。   As described above, according to the communication system 700 according to the present embodiment, the diagnostician DO can analyze the health state of the patient PA based on the biological information and the content of the call of the patient PA who is talking. Can provide accurate advice on health status. On the other hand, the patient PA can obtain accurate advice on his / her health condition based on the transmitted email DA2.

図55および図56は、患者PAが第8の実施の形態に係る通信システム700の携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。   FIGS. 55 and 56 are diagrams illustrating an example of contents displayed on the main display unit 13 when the patient PA uses the mobile phone 100 of the communication system 700 according to the eighth embodiment.

患者PAは、通話を行う場合に携帯電話機100の入力操作部11を操作する。   The patient PA operates the input operation unit 11 of the mobile phone 100 when making a call.

図55(a)は、患者PAが診断者DOに電話をかけた場合(発信時)の携帯電話機100のメイン表示部13の表示例を表す。メイン表示部13には、携帯電話機100が診断者DO(図55(a)では、ストレス診断窓口)の診断用電話機100Xへ発信している旨および診断用電話機100Xの電話番号が表示される。   FIG. 55A shows a display example of the main display unit 13 of the mobile phone 100 when the patient PA calls the diagnostician DO (at the time of outgoing call). The main display unit 13 displays that the mobile phone 100 is making a call to the diagnostic telephone 100X of the diagnostician DO (in FIG. 55A, a stress diagnostic window) and the telephone number of the diagnostic telephone 100X.

図55(b)は、患者PAと診断者DOとの通話中の携帯電話機100のメイン表示部13の表示例を表す。メイン表示部13には、現在の通話時間が表示され、患者PAの生体情報を検出している旨が表示される。   FIG. 55B shows a display example of the main display unit 13 of the mobile phone 100 during a call between the patient PA and the diagnostician DO. The main display unit 13 displays the current call time and indicates that the biological information of the patient PA is being detected.

図56(c)は、患者PAと診断者DOとの間で通話が終了した場合の携帯電話機100のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話終了時に患者PAの通話時間が表示されるとともに通話中に検出された生体情報に関するデータを診断者DOに送信する旨が表示され、中止ボタン190が表示される。   FIG. 56C shows a display example of the main display unit 13 of the mobile phone 100 when the call is terminated between the patient PA and the diagnostician DO. The main display unit 13 displays the call time of the patient PA at the end of the user's call, displays that the data related to the biometric information detected during the call is transmitted to the diagnostician DO, and displays a cancel button 190. Is done.

患者PAは携帯電話機100の入力操作部11を操作することにより中止ボタン190を選択することができる。患者PAが中止ボタン190を選択した場合、診断者DOへのデータの送信動作およびメイン表示部13の表示動作が中止される。   The patient PA can select the cancel button 190 by operating the input operation unit 11 of the mobile phone 100. When the patient PA selects the cancel button 190, the data transmission operation to the diagnostician DO and the display operation of the main display unit 13 are stopped.

患者PAが中止ボタン190を選択しない場合には、診断者DOに対して生体情報に関するデータが電子メールにより送信される。   When the patient PA does not select the cancel button 190, data relating to biological information is transmitted to the diagnostician DO by e-mail.

図56(d)は、通話終了後に診断者DOからアドバイスに関するデータを受信した携帯電話機100のメイン表示部13の表示例を表す。   FIG. 56D shows a display example of the main display unit 13 of the mobile phone 100 that has received advice-related data from the diagnostician DO after the call ends.

この場合、図56(d)に示すようにメイン表示部13には、受信した電子メールの旨、受信メールの内容、返信ボタン143、編集ボタン141およびサブボタン142が表示される。   In this case, as shown in FIG. 56 (d), the main display unit 13 displays the received electronic mail, the contents of the received mail, a reply button 143, an edit button 141, and a sub button 142.

これにより、患者PAは自己の生体情報および診断者DOとの通話内容に基づく自己の健康状態に関するアドバイスを得ることができる。   As a result, the patient PA can obtain advice on his / her health based on his / her biological information and the contents of the call with the diagnostician DO.

なお、図56(d)において、返信ボタン143、編集ボタン141およびサブボタン142についての各種機能は、第5の実施の形態で説明した通りである。   In FIG. 56D, the various functions of the reply button 143, the edit button 141, and the sub button 142 are as described in the fifth embodiment.

上記のように、通話中に検出された患者PAの生体情報を、通話終了後に自動的に診断者DOに送信する携帯電話機100の動作をストレス診断動作と呼ぶ。   As described above, the operation of the mobile phone 100 that automatically transmits the biometric information of the patient PA detected during the call to the diagnostician DO after the call ends is referred to as a stress diagnosis operation.

本実施の形態に係る通信プログラムについて説明する。図57および図58は第8の実施の形態に係る通信プログラムの一例を示すフローチャートである。   A communication program according to the present embodiment will be described. 57 and 58 are flowcharts showing an example of a communication program according to the eighth embodiment.

本実施の形態に係る通信プログラムによれば、図2の携帯電話機100の制御部10は、次のように動作する。   According to the communication program according to the present embodiment, control unit 10 of mobile phone 100 in FIG. 2 operates as follows.

初めに、携帯電話機100の制御部10は、使用者による入力操作部11の操作によりストレス診断モードをオンする旨の指令信号を受けたか否かを判別する(ステップS500)。ストレス診断モードのオンとは、携帯電話機100が上述のストレス診断動作を行うことが可能な状態にすることをいう。   First, the control unit 10 of the mobile phone 100 determines whether or not a command signal for turning on the stress diagnosis mode is received by the operation of the input operation unit 11 by the user (step S500). Turning on the stress diagnosis mode means that the mobile phone 100 is in a state where the above-described stress diagnosis operation can be performed.

制御部10は、ストレス診断モードをオンする旨の指令信号を受けた場合、患者PAが入力操作部11を操作することにより診断者DOの診断用電話機100Xに対する発信の旨の指令信号を受けたか否かを判別する(ステップS501)。   When the control unit 10 receives a command signal to turn on the stress diagnosis mode, has the patient PA received the command signal to transmit to the diagnostic telephone 100X of the diagnostician DO by operating the input operation unit 11? It is determined whether or not (step S501).

制御部10は、発信の旨の指令信号を受けた場合、その指令信号に基づく所定の動作を行い、診断者DOから応答があったか否かを判別する(ステップS502)。制御部10は、応答があった場合、生体情報の検出、すなわち、生理量データの測定および音声データの録音を行う(ステップS503)。   When receiving a command signal for transmission, the control unit 10 performs a predetermined operation based on the command signal and determines whether or not there is a response from the diagnostician DO (step S502). When there is a response, the control unit 10 detects biological information, that is, measures physiological data and records voice data (step S503).

その後、制御部10は通信が終了したか否かを判別する(ステップS504)。制御部10は、通信が終了しない場合、上記ステップS503の動作を繰り返す。   Thereafter, the control unit 10 determines whether or not the communication is finished (step S504). When the communication is not terminated, the control unit 10 repeats the operation in step S503.

一方、制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了し、測定された生理量データおよび録音された音声データを診断者DOの診断コンピュータ100PCに送信する(ステップS505)。これにより、本実施の形態に係る通信プログラムによる携帯電話機100の動作が終了する。   On the other hand, when the communication is completed, the control unit 10 ends the measurement of the physiological data and the recording of the voice data, and transmits the measured physiological data and the recorded voice data to the diagnostic computer 100PC of the diagnostician DO. (Step S505). Thereby, operation | movement of the mobile telephone 100 by the communication program which concerns on this Embodiment is complete | finished.

なお、本実施の形態に係る通信システム700において、携帯電話機100は、上記ステップS500〜S505の一連の動作の後、生理量データおよび音声データに基づく診断者DOの健康状態に関するアドバイスを受信する。   In the communication system 700 according to the present embodiment, the mobile phone 100 receives advice regarding the health condition of the diagnostician DO based on the physiological data and the voice data after the series of operations in steps S500 to S505.

ところで、携帯電話機100の制御部10は、上記ステップS500において、ストレス診断モードがオンしない場合、患者PAが入力操作部11を操作することにより診断者DOの診断用電話機100Xに対する発信の旨の指令信号を受けたか否かを判別する(ステップS510)。   By the way, if the stress diagnosis mode is not turned on in step S500, the control unit 10 of the mobile phone 100 operates the input operation unit 11 when the patient PA operates, and instructs the diagnosis telephone DO to make a call to the diagnosis phone 100X. It is determined whether or not a signal has been received (step S510).

そして、制御部10は、発信の旨の指令信号を受けた場合、その指令信号に基づく所定の動作を行い、診断者DOから応答があったか否かを判別する(ステップS511)。その後、制御部10は、診断者DOから応答があった場合、通信が終了したか否かを判別する(ステップS512)。制御部10は、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。   And control part 10, when receiving a command signal to the effect of transmission, performs a predetermined operation based on the command signal and determines whether or not there is a response from diagnostician DO (step S511). Thereafter, when there is a response from the diagnostician DO, the control unit 10 determines whether or not the communication has ended (step S512). When communication is completed, control unit 10 ends the communication program according to the present embodiment.

なお、上記では診断者DOは患者PAへのアドバイスを電子メールを用いて携帯電話機100に送信しているが、これに限らず、診断者DOは患者PAへのアドバイスを直接携帯電話機100を用いて伝えてもよい。   In the above description, the diagnostician DO transmits advice to the patient PA to the mobile phone 100 using e-mail. However, the diagnosis DO is not limited to this, and the diagnostician DO uses the mobile phone 100 directly to give advice to the patient PA. You may tell.

(第8の実施の形態における他の通信プログラムの例)
上記第8の実施の形態に係る通信プログラムは上述の図57および図58の説明によるものに限られない。以下、第8の実施の形態に係る通信プログラムの他の例について説明する。
(Examples of other communication programs in the eighth embodiment)
The communication program according to the eighth embodiment is not limited to the one described with reference to FIGS. 57 and 58 described above. Hereinafter, another example of the communication program according to the eighth embodiment will be described.

図59は、他の通信プログラムを用いた場合の第8の実施の形態に係る通信システムの概要を説明するための図である。この場合の通信システム700bによれば、患者PAは携帯電話機100を用いて診断者と通話することにより、その通話時の生体情報をその通話中に診断者DOに送信することができる。   FIG. 59 is a diagram for explaining the outline of the communication system according to the eighth embodiment when another communication program is used. According to the communication system 700b in this case, the patient PA can transmit the biological information at the time of the call to the diagnostician DO during the call by calling the diagnostician using the mobile phone 100.

図59(a)は、患者PAと診断者DOとの間で通話が開始される様子を表す。図59(a)に示すように、患者PAは携帯電話機100を用いている。また、診断者DOは診断用電話機100Xを用いている。   FIG. 59A shows a state where a call is started between the patient PA and the diagnostician DO. As shown in FIG. 59 (a), the patient PA uses a mobile phone 100. The diagnostician DO uses the diagnostic telephone 100X.

図59(b)は、患者PAと診断者DOとの通話時の様子を表す。患者PAと診断者DOとの通話時において、携帯電話機100は使用者の生体情報を検出する。ここで、携帯電話機100は、診断者DOの診断用電話機100Xに対して通話に関するデータの送受信を行うとともに、検出された生体情報を電子メールDA1として診断者DOの診断コンピュータ100PCへ送信する。   FIG. 59B shows a state during a call between the patient PA and the diagnostician DO. At the time of a call between the patient PA and the diagnostician DO, the mobile phone 100 detects the biological information of the user. Here, the cellular phone 100 transmits / receives data related to the call to / from the diagnostic telephone 100X of the diagnostician DO and transmits the detected biological information as an electronic mail DA1 to the diagnostic computer 100PC of the diagnostician DO.

これにより、診断者DOは、患者PAとの通話中に、電子メールDA1に基づいて患者PAの生体情報を診断コンピュータ100PCにより確認することができる。それにより、診断者DOは患者PAの生体情報およびその生体情報の検出された通話中の通話内容に基づいて患者PAの健康状態を分析することができる。   Thereby, the diagnostician DO can confirm the biological information of the patient PA by the diagnostic computer 100PC based on the electronic mail DA1 during the call with the patient PA. Thereby, the diagnostician DO can analyze the health state of the patient PA based on the biometric information of the patient PA and the content of the call during the call in which the biometric information is detected.

図59(c)は、診断者DOが患者PAに対して健康状態に関するアドバイスを行う様子を表す。診断者DOは、患者PAの健康状態を分析するとともに、その健康状態に対するアドバイスを診断コンピュータ100PCを用いて電子メールDA2により患者PAの携帯電話機100に送信する。   FIG. 59 (c) shows a state in which the diagnostician DO gives advice on the health condition to the patient PA. The diagnostician DO analyzes the health condition of the patient PA, and transmits advice on the health condition to the cellular phone 100 of the patient PA using the diagnostic computer 100PC by the electronic mail DA2.

このように、本実施の形態に係る通信システム700bにおいても、診断者DOは通話中の患者PAの生体情報および通話内容に基づいて患者PAの健康状態を分析することができるので、患者PAへ健康状態に関する正確なアドバイスを行うことができる。一方、患者PAは送信された電子メールDA2に基づいて、自己の健康状態に関する正確なアドバイスを得ることができる。   As described above, also in the communication system 700b according to the present embodiment, the diagnostician DO can analyze the health state of the patient PA based on the biometric information and the content of the call of the patient PA who is talking. Provide accurate advice on health status. On the other hand, the patient PA can obtain accurate advice on his / her health condition based on the transmitted email DA2.

本例に係る通信プログラムについて説明する。図60は第8の実施の形態に係る通信プログラムの他の例を示すフローチャートである。   A communication program according to this example will be described. FIG. 60 is a flowchart showing another example of the communication program according to the eighth embodiment.

本例の通信プログラムによれば、図2の携帯電話機100の制御部10は、次のように動作する。   According to the communication program of this example, the control unit 10 of the mobile phone 100 in FIG. 2 operates as follows.

初めに、制御部10は、上記ステップS500〜S502の動作を行う。そして、制御部10は、上記ステップS502において応答があった場合、生体情報の検出、すなわち、生理量データの測定および音声データの録音を行うとともに、測定された生理量データおよび録音された音声データを診断者DOの診断コンピュータ100PCに送信する(ステップS520)。   First, the control unit 10 performs the operations in steps S500 to S502. When there is a response in step S502, the control unit 10 detects biological information, that is, measures physiological data and records voice data, and measures the measured physiological data and recorded voice data. Is transmitted to the diagnostic computer 100PC of the diagnostician DO (step S520).

その後、制御部10は通信が終了したか否かを判別する(ステップS521)。制御部10は、通信が終了しない場合、上記ステップS520の動作を繰り返す。   Thereafter, the control unit 10 determines whether or not communication has ended (step S521). When the communication is not terminated, the control unit 10 repeats the operation of step S520.

一方、制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了し、生理量データおよび音声データの診断コンピュータ100PCへの送信動作を終了する(ステップS522)。これにより、本例に係る通信プログラムによる携帯電話機100の動作が終了する。   On the other hand, when the communication is completed, the control unit 10 ends the measurement of the physiological data and the recording of the voice data, and ends the operation of transmitting the physiological data and the voice data to the diagnostic computer 100PC (step S522). Thereby, the operation of the mobile phone 100 by the communication program according to the present example ends.

なお、上記通信システム700bにおいても、携帯電話機100は、上記ステップS500〜S502,S520〜S522の一連の動作の後、生理量データおよび音声データに基づく診断者DOの健康状態に関するアドバイスを受信する。   In the communication system 700b as well, the mobile phone 100 receives advice regarding the health condition of the diagnostician DO based on the physiological data and voice data after the series of operations in steps S500 to S502 and S520 to S522.

携帯電話機100の制御部10は、上記ステップS500において、ストレス診断モードがオンしない場合、上記ステップS510〜S512と同様の動作を行う。   When the stress diagnosis mode is not turned on in step S500, the control unit 10 of the mobile phone 100 performs the same operation as in steps S510 to S512.

なお、上記では診断者DOは患者PAへのアドバイスを電子メールを用いて携帯電話機100に送信しているが、これに限らず、診断者DOは患者PAへのアドバイスを直接携帯電話機100を用いて伝えてもよい。   In the above description, the diagnostician DO transmits advice to the patient PA to the mobile phone 100 using e-mail. However, the diagnosis DO is not limited to this, and the diagnostician DO uses the mobile phone 100 directly to give advice to the patient PA. You may tell.

以上、本実施の形態に係る通信システム700,700bにおいては、患者PAが携帯電話機100の無線通信部30およびアンテナ31により診断用電話機100Xを有する診断者DOと通話を行っているときに、生理量データ測定部20、通話用スピーカ15bおよび制御部10により使用者の生体情報が検出される。そして、無線通信部30およびアンテナ31による診断者DOとの通話中または通話終了後に、検出された生体情報に基づく情報が無線通信部30およびアンテナ31により診断コンピュータ100PCに送信される。それにより、診断者DOは、診断コンピュータ100PCに送信された情報に基づいて使用者の健康状態を分析することができる。   As described above, in the communication systems 700 and 700b according to the present embodiment, when the patient PA is talking with the diagnostician DO having the diagnostic telephone 100X using the wireless communication unit 30 and the antenna 31 of the mobile phone 100, The biometric information of the user is detected by the quantity data measuring unit 20, the call speaker 15b, and the control unit 10. Then, during or after the call with the diagnostician DO by the wireless communication unit 30 and the antenna 31, information based on the detected biological information is transmitted to the diagnostic computer 100PC by the wireless communication unit 30 and the antenna 31. Thereby, the diagnostician DO can analyze the health condition of the user based on the information transmitted to the diagnostic computer 100PC.

診断者は、分析結果に基づくアドバイスを診断用電話機100Xによる通話または診断コンピュータ100PCによる情報の通信により携帯電話機100に送信することができる。それにより、患者PAは、診断者DOとの会話による分析結果に基づくアドバイスを容易に受けることができる。   The diagnostician can transmit advice based on the analysis result to the mobile phone 100 by a telephone call by the diagnostic telephone 100X or information communication by the diagnostic computer 100PC. Thereby, the patient PA can easily receive advice based on the analysis result by the conversation with the diagnostician DO.

なお、診断用電話機100Xと診断コンピュータ100PCとが一体的に設けられてもよい。   The diagnostic telephone 100X and the diagnostic computer 100PC may be provided integrally.

なお、本実施の形態では、使用者として患者PAを想定し、通信相手として診断者DOを想定しているが、使用者と通信相手との関係はこれに限られない。   In the present embodiment, patient PA is assumed as the user and diagnostician DO is assumed as the communication partner, but the relationship between the user and the communication partner is not limited to this.

(第9の実施の形態)
第9の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Ninth embodiment)
The mobile phone 100 according to the ninth embodiment has the same configuration and operation as the mobile phone 100 according to the first embodiment except for the following points.

本実施の形態に係る携帯電話機100には、図3の補正データ記憶部126に後述の補正テーブルが記憶されている。   In mobile phone 100 according to the present embodiment, a correction table described later is stored in correction data storage section 126 in FIG.

携帯電話機100は、第1の実施の形態と同様に、使用者の通話中に生体情報を検出する。ここで、本実施の形態では、検出された生体情報のうち、生理量データのGSR測定値が、補正テーブルにより補正される。その結果、携帯電話機100は環境状態に影響を受けることなく、使用者の心理状態(緊張の度合い)を正確に推定することができる。   Similar to the first embodiment, the mobile phone 100 detects biometric information during a user call. Here, in the present embodiment, the GSR measurement value of the physiological data among the detected biological information is corrected by the correction table. As a result, the mobile phone 100 can accurately estimate the user's psychological state (degree of tension) without being affected by the environmental state.

補正テーブルについて説明する。図61は、図3の補正データ記憶部126に記憶される内容の一例を示す図である。   The correction table will be described. 61 is a diagram showing an example of contents stored in the correction data storage unit 126 of FIG.

図61の補正テーブルにおいては、携帯電話機100の使用地域および使用時期ごとにGSR測定値補正量CP1〜CP3,CQ1〜CQ3,CR1〜CR3が設定されている。   In the correction table of FIG. 61, GSR measurement value correction amounts CP1 to CP3, CQ1 to CQ3, and CR1 to CR3 are set for each use region and use time of the mobile phone 100.

一般に、GSR測定値は環境状態に応じて変化すると考えられており、環境状態として気温が低い場合にはGSRは低くなり、気温が高い場合にはGSRは高くなるとされている。   In general, it is considered that the GSR measurement value changes according to the environmental state. When the temperature is low as the environmental state, the GSR is low, and when the temperature is high, the GSR is high.

上記のGSR測定値補正量は、例えば、CP1,CP2,CP3の順に小さく、CQ1,CQ2,CQ3の順に小さく、CR1,CR2,CR3の順に小さく設定される。また、GSR測定値補正量は、CP1,CQ1,CR1の順に小さく、CP2,CQ2,CR2の順に小さく、CP3,CQ3,CR3の順に小さく設定される。   For example, the GSR measurement value correction amount is set to be smaller in the order of CP1, CP2, and CP3, smaller in the order of CQ1, CQ2, and CQ3, and smaller in the order of CR1, CR2, and CR3. Further, the GSR measurement value correction amount is set to be smaller in the order of CP1, CQ1, and CR1, smaller in the order of CP2, CQ2, and CR2, and smaller in the order of CP3, CQ3, and CR3.

例えば、使用地域「北海道」においては、使用時期「春」にGSR測定値補正量CP2が対応付けられ、使用時期「夏」にGSR測定値補正量CP3が対応付けられ、使用時期「秋」にGSR測定値補正量CP2が対応付けられ、使用時期「冬」にGSR測定値補正量CP1が対応付けられる。   For example, in the use region “Hokkaido”, the GSR measurement value correction amount CP2 is associated with the use period “spring”, the GSR measurement value correction amount CP3 is associated with the use period “summer”, and the use period “autumn”. The GSR measurement value correction amount CP2 is associated, and the use period “winter” is associated with the GSR measurement value correction amount CP1.

これにより、使用者が北海道で春に携帯電話機100を使用する際には、図20の生理量データ測定部20によるGSR測定値が図61の補正テーブルに基づいてGSR測定値補正量CP2で補正される。その結果、携帯電話機100は補正されたGSR測定値に基づいて正確に使用者の心理状態の推定を行うことができる。   Accordingly, when the user uses the mobile phone 100 in spring in Hokkaido, the GSR measurement value by the physiological data measurement unit 20 in FIG. 20 is corrected by the GSR measurement value correction amount CP2 based on the correction table in FIG. Is done. As a result, the mobile phone 100 can accurately estimate the user's psychological state based on the corrected GSR measurement value.

上記において、携帯電話機100は通信基地局からの情報に基づいて使用地域を特定してもよい。また、携帯電話機100は、制御部10が現在の年月日および時分についての管理機能を有することにより、使用時期を特定してもよい。   In the above, the mobile phone 100 may specify the usage region based on information from the communication base station. In addition, the mobile phone 100 may specify the use time when the control unit 10 has a management function for the current date and time.

ここで、携帯電話機100による使用地域の特定方法について説明する。図62は、第9の実施の形態に係る携帯電話機100が使用地域を特定する方法の一例を示す図である。   Here, a method of specifying the area of use by the mobile phone 100 will be described. FIG. 62 is a diagram illustrating an example of a method for the mobile phone 100 according to the ninth embodiment to specify a usage region.

図62に示すように、通信基地局800は、例えば、無線通信部810、アンテナ811、制御部820および基地局通信装置830を含む。通信基地局800は、無線通信部810およびアンテナ811を通じて使用者の携帯電話機100と通信が可能であり、各種情報の送受信を行うことができる。   As illustrated in FIG. 62, the communication base station 800 includes, for example, a radio communication unit 810, an antenna 811, a control unit 820, and a base station communication device 830. The communication base station 800 can communicate with the user's mobile phone 100 through the wireless communication unit 810 and the antenna 811, and can transmit and receive various types of information.

制御部820は、CPU等を含み、無線通信部810および基地局通信装置830の動作を制御する。基地局通信装置830は、公衆回線網900に接続されている。   Control unit 820 includes a CPU and the like, and controls operations of radio communication unit 810 and base station communication device 830. Base station communication apparatus 830 is connected to public line network 900.

例えば、使用者が携帯電話機100を用いて他の電話機と通話する場合、使用者の音声データは、通信基地局800および公衆回線網900を通じて他の電話機に送られる。   For example, when a user makes a call with another telephone using the mobile phone 100, the voice data of the user is sent to the other telephone through the communication base station 800 and the public line network 900.

通信基地局800は、各地域ごとに複数設置されている。携帯電話機100の使用時において、携帯電話機100は複数の通信基地局800のうち近くに位置する通信基地局800と通信を行う。   A plurality of communication base stations 800 are installed for each region. When the mobile phone 100 is used, the mobile phone 100 communicates with a communication base station 800 located nearby among the plurality of communication base stations 800.

そして、各々の通信基地局800は自己の所在地に関する情報を使用者の携帯電話機100に送信することができる。これにより、携帯電話機100は通信基地局800からの所在地に関する情報に基づいて使用地域を特定することができる。   Each communication base station 800 can transmit information regarding its own location to the user's mobile phone 100. As a result, the mobile phone 100 can specify the area of use based on the information regarding the location from the communication base station 800.

しかしながら、使用地域の特定方法は上記に限られず、使用者の図2の入力操作部11の操作により行われてもよい。   However, the method of specifying the use area is not limited to the above, and may be performed by the user's operation of the input operation unit 11 of FIG.

本実施の形態では、補正テーブルの一例として、GSR測定値補正量について説明したが、これに限らず、補正テーブルには、使用者の生理量データから得られる皮膚温度および脈拍についての補正量が設定されてもよい。この場合、複数の生理量データについて、各々の測定値が補正されるので、心理状態の推定がより正確となる。   In the present embodiment, the GSR measurement value correction amount has been described as an example of the correction table. However, the correction table is not limited to this, and the correction amount for the skin temperature and pulse obtained from the physiological data of the user is included in the correction table. It may be set. In this case, since each measurement value is corrected for a plurality of physiological data, the estimation of the psychological state becomes more accurate.

補正テーブルには、使用者の音声データを解析して得られるトーン、抑揚およびジッタの各々についての補正量が設定されてもよい。これにより、携帯電話機100が音声データに基づいて使用者の心理状態を推定する場合に音声データにより得られるパラメータの補正が行われるので、心理状態の推定がより正確となる。   In the correction table, correction amounts for each of tone, inflection, and jitter obtained by analyzing user's voice data may be set. Thereby, when the mobile phone 100 estimates the user's psychological state based on the audio data, the correction of the parameter obtained from the audio data is performed, so that the estimation of the psychological state becomes more accurate.

上記では、携帯電話機100の使用地域および使用時期に基づいてGSR補正量の設定を行っているが、これに限らず、図1の携帯電話機100に気温センサを設け、気温センサにより得られる測定値に基づいてGSR補正量の設定を行ってもよい。   In the above description, the GSR correction amount is set based on the use region and use time of the mobile phone 100. However, the present invention is not limited to this, and a temperature value is provided in the mobile phone 100 of FIG. The GSR correction amount may be set based on the above.

本実施の形態において、補正テーブルに基づいて生理量データの測定値を補正しているが、これに限らず、第1の実施の形態の心理状態レベルを環境状態に応じて補正してもよい。   In the present embodiment, the measurement value of the physiological data is corrected based on the correction table. However, the present invention is not limited to this, and the psychological state level of the first embodiment may be corrected according to the environmental state. .

上述のGSR測定値補正量は、それぞれ予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。   The above-mentioned GSR measurement value correction amount may be set by determining a specific value in advance, or may be set for each user according to characteristics such as the health state and personality of each user.

上記第1〜第8の実施の形態に係る携帯電話機100においても、上記と同様に生理量データまたは心理状態レベルを補正してもよい。この場合、第1〜第8の実施の形態に係る携帯電話機100には、使用者の心理状態(緊張の度合い、喜怒哀楽の度合いおよびうその度合い等)を推定するために用いる生理量データおよび音声データの解析結果に応じて、各々に対応する補正テーブルが設定されることが好ましい。   Also in the mobile phone 100 according to the first to eighth embodiments, physiological data or psychological state levels may be corrected in the same manner as described above. In this case, the cellular phone 100 according to the first to eighth embodiments has physiological data used for estimating a user's psychological state (degree of tension, degree of emotion, lie, etc.). It is preferable that a correction table corresponding to each is set according to the analysis result of the audio data.

以上、本実施の形態においては、環境状態に関する情報が制御部10,無線通信部30およびアンテナ31により取得され、取得された情報に基づいて検出された使用者の生体情報が制御部10により補正される。それにより、環境状態に応じて変化する使用者の生体情報を正確に取得することができる。その結果、携帯電話機100は、正確な生体情報に基づいて、正確に使用者の心理状態を推定することができる。   As described above, in the present embodiment, information on the environmental state is acquired by the control unit 10, the wireless communication unit 30, and the antenna 31, and the biological information of the user detected based on the acquired information is corrected by the control unit 10. Is done. Thereby, it is possible to accurately acquire the biological information of the user that changes according to the environmental state. As a result, the mobile phone 100 can accurately estimate the user's psychological state based on accurate biological information.

以上、第1〜第9の実施の形態において、携帯電話機100は通信装置に相当し、無線通信部30およびアンテナ31は通信手段に相当し、入力操作部11は操作手段に相当し、信号処理部18、生理量データ測定部20、電極20a,20d、サーミスタ20b、フォトセンサ20cおよび通話用スピーカ15bは検出手段に相当する。   As described above, in the first to ninth embodiments, the mobile phone 100 corresponds to a communication device, the wireless communication unit 30 and the antenna 31 correspond to a communication unit, the input operation unit 11 corresponds to an operation unit, and signal processing. The unit 18, the physiological data measurement unit 20, the electrodes 20a and 20d, the thermistor 20b, the photosensor 20c, and the call speaker 15b correspond to detection means.

また、制御部10は制御手段に相当し、通話用スピーカ15b、マイクロホン16、信号処理部18、無線通信部30およびアンテナ31は通話手段に相当し、制御部10は判別手段に相当し、制御部10、無線通信部30およびアンテナ31は電子メール通信手段に相当し、入力操作部11およびメイン表示部13は電子メール操作部に相当する。   The control unit 10 corresponds to a control unit, the call speaker 15b, the microphone 16, the signal processing unit 18, the wireless communication unit 30, and the antenna 31 correspond to a call unit, and the control unit 10 corresponds to a determination unit. The unit 10, the wireless communication unit 30, and the antenna 31 correspond to an e-mail communication unit, and the input operation unit 11 and the main display unit 13 correspond to an e-mail operation unit.

さらに、制御部10は推定手段に相当し、制御部10は挿入手段に相当し、スピーカ15aおよび通話用スピーカ15bは音声出力手段に相当し、メイン表示部13およびサブ表示部14は表示手段に相当し、メイン表示部13、スピーカ15aおよび通話用スピーカ15bは情報出力手段に相当し、メモリ12および履歴データ格納部124は記憶手段に相当する。   Further, the control unit 10 corresponds to estimation means, the control unit 10 corresponds to insertion means, the speaker 15a and the call speaker 15b correspond to audio output means, and the main display unit 13 and the sub display unit 14 serve as display means. Correspondingly, the main display unit 13, the speaker 15a, and the call speaker 15b correspond to an information output unit, and the memory 12 and the history data storage unit 124 correspond to a storage unit.

その上、制御部10、無線通信部30およびアンテナ31は取得手段に相当し、制御部10は補正手段に相当し、メモリ12は音声記録手段に相当し、制御部10は判定手段に相当する。   In addition, the control unit 10, the wireless communication unit 30, and the antenna 31 correspond to an acquisition unit, the control unit 10 corresponds to a correction unit, the memory 12 corresponds to an audio recording unit, and the control unit 10 corresponds to a determination unit. .

また、携帯電話機100は第1の通信装置に相当し、診断用電話機100Xは第2の通信装置に相当し、診断コンピュータ100PCは情報処理装置に相当し、通信システム700,700bは通信システムに相当し、第2の筐体2は筐体に相当する。   The mobile phone 100 corresponds to the first communication device, the diagnostic telephone 100X corresponds to the second communication device, the diagnostic computer 100PC corresponds to the information processing device, and the communication systems 700 and 700b correspond to the communication system. The second housing 2 corresponds to the housing.

本発明は、通信相手に依存する使用者の心理状態の推定等に有効に利用可能である。   The present invention can be effectively used for estimating a user's psychological state depending on a communication partner.

第1の実施の形態に係る携帯電話機の外観図である。1 is an external view of a mobile phone according to a first embodiment. 第1の実施の形態に係る携帯電話機の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone which concerns on 1st Embodiment. 図2のメモリの内部構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of an internal configuration of a memory in FIG. 2. 図3の動作設定記憶部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the operation | movement setting memory | storage part of FIG. 図3の心理状態推定テーブル格納部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the psychological state estimation table storage part of FIG. 図3の個人情報データ格納部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the personal information data storage part of FIG. 図3の履歴データ格納部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the historical data storage part of FIG. 使用者が第1の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 1st Embodiment. 使用者が第1の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 1st Embodiment. 第1の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 1st Embodiment. 第1の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 1st Embodiment. 図3の音声解析テーブル格納部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the audio | voice analysis table storage part of FIG. 図3の動作設定記憶部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the operation | movement setting memory | storage part of FIG. 使用者が第2の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 2nd Embodiment. 使用者が第2の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 2nd Embodiment. 第2の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 2nd Embodiment. 第2の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 2nd Embodiment. 第2の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 2nd Embodiment. 図3の動作設定記憶部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the operation | movement setting memory | storage part of FIG. 使用者が第3の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 3rd Embodiment. 第3の実施の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 3rd Embodiment. 第3の実施の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 3rd Embodiment. 第3の実施の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 3rd Embodiment. 使用者の喜怒哀楽の度合いを推定するためのデータの抽出方法を説明するための図である。It is a figure for demonstrating the extraction method of the data for estimating the degree of emotion of a user. 図3の心理状態推定テーブル格納部および音声解析テーブル格納部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the psychological state estimation table storage part and speech analysis table storage part of FIG. 図3の心理状態推定テーブル格納部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the psychological state estimation table storage part of FIG. 測定により得られたGSR差分値ならびに音声データの解析により得られたトーン、抑揚およびジッタの組合せから喜怒哀楽の度合いを推定する場合の一例を説明するための図である。It is a figure for demonstrating an example in the case of estimating the degree of emotions from the combination of the GSR difference value obtained by the measurement, and the tone, the inflection, and the jitter obtained by the analysis of the voice data. 使用者が第4の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 4th Embodiment. 第4の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 4th Embodiment. 第4の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 4th Embodiment. 第4の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 4th Embodiment. 図3の動作設定記憶部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the operation | movement setting memory | storage part of FIG. 使用者が第5の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 5th Embodiment. 使用者が第5の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 5th Embodiment. 第5の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 5th Embodiment. 第5の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 5th Embodiment. 使用者の通話中の生理量データの変化に基づいて特定の期間の音声データを抽出する方法を説明するための図である。It is a figure for demonstrating the method to extract the audio | voice data of a specific period based on the change of the physiological data during a user's telephone call. 使用者が第6の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 6th Embodiment. 第6の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 6th Embodiment. 第6の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 6th Embodiment. 第6の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 6th Embodiment. 第6の実施の形態に係る通信プログラムの他の例を示すフローチャートである。It is a flowchart which shows the other example of the communication program which concerns on 6th Embodiment. 第6の実施の形態に係る通信プログラムの他の例を示すフローチャートである。It is a flowchart which shows the other example of the communication program which concerns on 6th Embodiment. 第6の実施の形態に係る通信プログラムの他の例を示すフローチャートである。It is a flowchart which shows the other example of the communication program which concerns on 6th Embodiment. 図3の音声解析テーブル格納部に記憶される内容の一例および使用者の回答がうそであるか否かの判定方法を説明するための図である。It is a figure for demonstrating an example of the content memorize | stored in the audio | voice analysis table storage part of FIG. 3, and the determination method whether a user's answer is a lie. 図3の動作設定記憶部に記憶されるうそ通知動作設定テーブルの一例を示す図である。It is a figure which shows an example of the lie notification operation | movement setting table memorize | stored in the operation | movement setting memory | storage part of FIG. 使用者の回答のうその度合いを判定するための判定方法を説明するための図および図3の動作設定記憶部に記憶されるうそ通知動作設定テーブルの他の例を示す図である。It is a figure for demonstrating the determination method for determining the lie degree of a user's answer, and the figure which shows the other example of the lie notification operation | movement setting table memorize | stored in the operation | movement setting memory | storage part of FIG. 過去のうその診断結果を含む履歴データの一例を示す図である。It is a figure which shows an example of the historical data containing the diagnosis result of the past lie. 使用者が第7の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 7th Embodiment. 使用者が第7の実施の形態に係る携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a user uses the mobile telephone which concerns on 7th Embodiment. 第7の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 7th Embodiment. 第7の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 7th Embodiment. 第7の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 7th Embodiment. 第8の実施の形態に係る通信システムの概要を説明するための図である。It is a figure for demonstrating the outline | summary of the communication system which concerns on 8th Embodiment. 患者が第8の実施の形態に係る通信システムの携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a patient uses the mobile phone of the communication system which concerns on 8th Embodiment. 患者が第8の実施の形態に係る通信システムの携帯電話機を使用する場合にメイン表示部に表示される内容の一例を表す図である。It is a figure showing an example of the content displayed on a main display part, when a patient uses the mobile phone of the communication system which concerns on 8th Embodiment. 第8の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 8th Embodiment. 第8の実施の形態に係る通信プログラムの一例を示すフローチャートである。It is a flowchart which shows an example of the communication program which concerns on 8th Embodiment. 他の通信プログラムを用いた場合の第8の実施の形態に係る通信システムの概要を説明するための図である。It is a figure for demonstrating the outline | summary of the communication system which concerns on 8th Embodiment at the time of using another communication program. 第8の実施の形態に係る通信プログラムの他の例を示すフローチャートである。It is a flowchart which shows the other example of the communication program which concerns on 8th Embodiment. 図3の補正データ記憶部に記憶される内容の一例を示す図である。It is a figure which shows an example of the content memorize | stored in the correction data memory | storage part of FIG. 第9の実施の形態に係る携帯電話機が使用地域を特定する方法の一例を示す図である。It is a figure which shows an example of the method in which the mobile telephone which concerns on 9th Embodiment specifies a use area.

符号の説明Explanation of symbols

1 第1の筐体
2 第2の筐体
10 制御部
11 入力操作部
12 メモリ
13 メイン表示部
14 サブ表示部
15a スピーカ
15b 通話用スピーカ
16 マイクロホン
18 信号処理部
20 生理量データ測定部
20a,20d 電極
20b サーミスタ
20c フォトセンサ
30 無線通信部
31 アンテナ
100 携帯電話機
100X 診断用電話機
100PC 診断コンピュータ
124 履歴データ格納部
700,700b 通信システム
DESCRIPTION OF SYMBOLS 1 1st housing | casing 2 2nd housing | casing 10 Control part 11 Input operation part 12 Memory 13 Main display part 14 Sub display part 15a Speaker 15b Speaker for calling 16 Microphone 18 Signal processing part 20 Physiological data measurement part 20a, 20d Electrode 20b Thermistor 20c Photosensor 30 Wireless communication unit 31 Antenna 100 Mobile phone 100X Diagnosis phone 100PC Diagnosis computer 124 History data storage unit 700, 700b Communication system

Claims (22)

情報の通信を行う通信手段と、
前記通信手段による通信に関連する操作を行うために使用者により操作される操作手段と、
使用者の生体情報を検出するための検出手段と、
前記操作手段の操作に基づいて前記通信手段の動作を制御するとともに、使用者による前記操作手段の操作時または前記通信手段による通信時に使用者の生体情報を検出するように前記検出手段を制御する制御手段とを備えることを特徴とする通信装置。
A communication means for communicating information;
Operation means operated by a user to perform operations related to communication by the communication means;
Detection means for detecting the biological information of the user;
The operation of the communication unit is controlled based on the operation of the operation unit, and the detection unit is controlled to detect the biological information of the user when the user operates the operation unit or when the communication unit communicates. And a communication device.
前記通信手段は、前記情報として音声を音声信号として送信および受信する通話手段を含み、
前記制御手段は、前記通話手段による使用者の通話時に使用者の生体情報を検出するように前記検出手段を制御することを特徴とする請求項1記載の通信装置。
The communication means includes call means for transmitting and receiving voice as the information as the information,
The communication device according to claim 1, wherein the control unit controls the detection unit so as to detect the biological information of the user when the user calls by the calling unit.
前記通話手段による使用者の発声時を判別する判別手段をさらに備え、
前記制御手段は、前記通話手段による使用者の発声時に使用者の生体情報を検出するように前記検出手段を制御することを特徴とする請求項2記載の通信装置。
A discriminating means for discriminating when the user utters the calling means;
3. The communication apparatus according to claim 2, wherein the control unit controls the detection unit so as to detect the biological information of the user when the user speaks by the calling unit.
前記通話手段により受信された音声信号に基づいて通話相手からの質問を示す音声を判別する判別手段をさらに備え、
前記制御手段は、前記判別手段により質問を示す音声が判別されたときに使用者の生体情報を検出するように前記検出手段を制御することを特徴とする請求項2または3記載の通信装置。
A discriminating unit for discriminating a voice indicating a question from the other party on the basis of the voice signal received by the calling unit;
4. The communication apparatus according to claim 2, wherein the control unit controls the detection unit so as to detect a user's biological information when a voice indicating a question is determined by the determination unit.
前記通信手段は、前記情報として電子メールをデータ信号として送信および受信する電子メール通信手段を含み、
前記操作手段は、電子メールの作成、送信、受信または閲覧するための操作を行う電子メール操作部を含み、
前記制御手段は、使用者による前記電子メール操作部の操作時に使用者の生体情報を検出するように前記検出手段を制御することを特徴とする請求項1〜4のいずれかに記載の通信装置。
The communication means includes an electronic mail communication means for transmitting and receiving an electronic mail as the data signal as the information,
The operation means includes an e-mail operation unit that performs an operation for creating, sending, receiving or browsing an e-mail,
The communication device according to claim 1, wherein the control unit controls the detection unit so as to detect a user's biological information when the user operates the electronic mail operation unit. .
前記検出手段により検出された生体情報に基づいて使用者の心理状態を推定する推定手段と、
前記推定手段により推定された前記使用者の心理状態を示す情報を前記電子メール操作部により作成される電子メールに挿入する挿入手段とをさらに備えたことを特徴とする請求項5記載の通信装置。
Estimating means for estimating the psychological state of the user based on the biological information detected by the detecting means;
6. The communication apparatus according to claim 5, further comprising an insertion unit that inserts information indicating the psychological state of the user estimated by the estimation unit into an e-mail created by the e-mail operation unit. .
前記検出手段により検出された生体情報に基づいて使用者の心理状態を推定する推定手段をさらに備えることを特徴とする請求項1〜5のいずれかに記載の通信装置。 The communication apparatus according to claim 1, further comprising an estimation unit that estimates a user's psychological state based on the biological information detected by the detection unit. 前記推定手段は、前記検出手段により検出された生体情報に基づいて前記使用者の心理状態として使用者の緊張度合いを推定することを特徴とする請求項7記載の通信装置。 The communication device according to claim 7, wherein the estimation unit estimates a degree of tension of the user as the psychological state of the user based on the biological information detected by the detection unit. 前記推定手段は、前記検出手段により検出された生体情報に基づいて前記使用者の心理状態として使用者のうそを推定することを特徴とする請求項7または8記載の通信装置。 The communication device according to claim 7, wherein the estimation unit estimates a user's lie as a psychological state of the user based on the biological information detected by the detection unit. 前記推定手段は、前記検出手段により検出された生体情報に基づいて前記使用者の心理状態として使用者の喜怒哀楽を推定することを特徴とする請求項7〜9のいずれかに記載の通信装置。 10. The communication according to claim 7, wherein the estimation unit estimates a user's emotions as a psychological state of the user based on the biological information detected by the detection unit. apparatus. 前記推定手段により推定された前記使用者の心理状態を示す情報を音声として出力する音声出力手段をさらに備えたことを特徴とする請求項7〜10のいずれかに記載の通信装置。 The communication apparatus according to any one of claims 7 to 10, further comprising voice output means for outputting information indicating the psychological state of the user estimated by the estimation means as voice. 前記推定手段により推定された前記使用者の心理状態を示す情報を表示する表示手段をさらに備えたことを特徴とする請求項7〜11のいずれかに記載の通信装置。 The communication apparatus according to claim 7, further comprising display means for displaying information indicating the psychological state of the user estimated by the estimation means. 前記推定手段により推定された前記使用者の心理状態を変化させるための情報を出力する情報出力手段をさらに備えたことを特徴とする請求項7〜12のいずれかに記載の通信装置。 The communication apparatus according to claim 7, further comprising an information output unit that outputs information for changing the psychological state of the user estimated by the estimation unit. 前記推定手段により推定された前記使用者の心理状態を相手ごとに記憶する記憶手段をさらに備えたことを特徴とする請求項7〜13のいずれかに記載の通信装置。 The communication apparatus according to claim 7, further comprising a storage unit that stores the psychological state of the user estimated by the estimation unit for each partner. 前記通信手段は、着信時に使用者に着信を認識されるための着信動作を行い、
前記制御手段は、前記記憶手段に記憶された前記使用者の心理状態に基づいて前記通信手段による着信動作を制御することを特徴とする請求項14記載の通信装置。
The communication means performs an incoming call operation for the user to recognize the incoming call when receiving an incoming call,
15. The communication device according to claim 14, wherein the control unit controls an incoming call operation by the communication unit based on a mental state of the user stored in the storage unit.
環境状態を示す環境情報を取得する取得手段と、
前記取得手段により取得された環境情報に基づいて前記検出手段により検出された前記使用者の生体情報の変化状態を補正する補正手段とをさらに備えたことを特徴とする請求項1〜15のいずれかに記載の通信装置。
An acquisition means for acquiring environmental information indicating an environmental state;
The correction means which corrects the change state of the user's biological information detected by the detection means based on the environmental information acquired by the acquisition means, further comprising: A communication device according to claim 1.
前記検出手段による生体情報の検出時に使用者の音声を記録する音声記録手段をさらに備えたことを特徴とする請求項1〜16のいずれかに記載の通信装置。 The communication apparatus according to claim 1, further comprising a voice recording unit that records a voice of a user when the biological information is detected by the detection unit. 前記検出手段により検出された生体情報が所定のしきい値を超えたか否かを判定する判定手段をさらに備え、
前記音声記録手段は、前記判定手段により生体情報が所定のしきい値を超えたと判定された場合に、しきい値を超えた時点を含む所定時間の使用者の音声を記録することを特徴とする請求項17記載の通信装置。
A determination means for determining whether or not the biological information detected by the detection means exceeds a predetermined threshold;
The voice recording unit records a user's voice for a predetermined time including a time point when the threshold value is exceeded when the determination unit determines that the biological information exceeds a predetermined threshold value. The communication device according to claim 17.
情報の通信を行う通信手段および前記通信手段による通信に関連する操作を行うために使用者により操作される操作手段とを備えた通信装置の動作方法であって、
前記操作手段の操作に基づいて前記通信手段の動作を制御するとともに、使用者による前記操作手段の操作時または前記通信手段による通信時に使用者の生体情報を検出することを特徴とする通信装置の動作方法。
An operation method of a communication apparatus comprising: a communication unit that communicates information; and an operation unit that is operated by a user to perform an operation related to communication by the communication unit,
An operation of the communication unit is controlled based on an operation of the operation unit, and biometric information of the user is detected when the user operates the operation unit or communicates with the communication unit. How it works.
情報の通信を行う通信手段および前記通信手段による通信に関連する操作を行うために使用者により操作される操作手段、前記操作手段の操作に基づいて前記通信手段を制御する処理装置を備えた通信装置に用いられ、前記処理装置により実行可能な通信プログラムであって、
前記操作手段の操作に基づいて前記通信手段の動作を制御する処理と、
前記操作手段の操作時または前記通信手段による通信時に使用者の生体情報を検出する処理とを、前記処理装置に実行させることを特徴とする通信プログラム。
Communication comprising: a communication means for communicating information; an operation means operated by a user to perform an operation related to communication by the communication means; and a processing device for controlling the communication means based on an operation of the operation means A communication program used in an apparatus and executable by the processing apparatus,
Processing for controlling the operation of the communication means based on the operation of the operation means;
A communication program that causes the processing device to execute a process of detecting biometric information of a user when the operation means is operated or when communication is performed by the communication means.
使用者用の第1の通信装置と、
診断者用の第2の通信装置と、
診断者用の情報処理装置とを備え、
前記第1の通信装置は、
前記第2の通信装置との通話および前記情報処理装置との情報の通信を行う通信手段と、
前記通信手段による前記第2の通信装置との通話時に使用者の生体情報を検出するための検出手段とを備え、
前記通信手段は、前記検出手段により検出される生体情報に基づく情報を前記情報処理装置に送信し、
前記第2の通信装置または前記情報処理装置は、前記情報処理装置により受信された情報に基づく診断者のアドバイスを前記第1の通信装置に送信することを特徴とする通信システム。
A first communication device for a user;
A second communication device for a diagnostician;
An information processing device for a diagnostician,
The first communication device is:
Communication means for communicating with the second communication device and communicating information with the information processing device;
Detecting means for detecting biometric information of a user during a call with the second communication device by the communication means;
The communication means transmits information based on biological information detected by the detection means to the information processing apparatus,
The communication system, wherein the second communication device or the information processing device transmits a diagnosis person's advice based on information received by the information processing device to the first communication device.
情報の通信を行う通信手段と、
前記通信手段による通信に関連する操作を行うために使用者により操作される操作手段と、
使用者の生体情報を検出するための検出手段と、
前記通信手段、前記操作手段および前記検出手段を一体的に保持する筐体とを備え、
前記筐体は、前面部、背面部、一方の側面部および他方の側面部を有するとともに前記一方の側面部、前記背面部および前記他方の側面部を片手で保持可能に形成され、
前記操作手段は前記前面部に設けられ、前記検出手段は前記一方の側面部に設けられたことを特徴とする通信装置。
A communication means for communicating information;
Operation means operated by a user to perform operations related to communication by the communication means;
Detection means for detecting the biological information of the user;
A housing that integrally holds the communication means, the operation means, and the detection means;
The housing has a front surface portion, a back surface portion, one side surface portion and the other side surface portion, and is formed so that the one side surface portion, the back surface portion and the other side surface portion can be held with one hand,
The communication device according to claim 1, wherein the operation means is provided on the front surface portion, and the detection means is provided on the one side surface portion.
JP2004048843A 2004-02-25 2004-02-25 COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME Expired - Fee Related JP3953468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004048843A JP3953468B2 (en) 2004-02-25 2004-02-25 COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004048843A JP3953468B2 (en) 2004-02-25 2004-02-25 COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007045787A Division JP2007202174A (en) 2007-02-26 2007-02-26 Communication apparatus, method and program, and communication system using same

Publications (2)

Publication Number Publication Date
JP2005244375A true JP2005244375A (en) 2005-09-08
JP3953468B2 JP3953468B2 (en) 2007-08-08

Family

ID=35025674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004048843A Expired - Fee Related JP3953468B2 (en) 2004-02-25 2004-02-25 COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME

Country Status (1)

Country Link
JP (1) JP3953468B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200159A (en) * 2006-01-30 2007-08-09 Nec Corp Message generation support method and mobile terminal
JP2007296169A (en) * 2006-05-01 2007-11-15 Agi:Kk Mental condition judging apparatus, and program
JP2008073456A (en) * 2006-09-25 2008-04-03 Toshiba Corp Biological information measuring system, measuring device, biological information measuring method and biological information measuring program
JP2010508596A (en) * 2006-11-01 2010-03-18 ポリディグム カンパニー リミテッド Message icon combination method
JP2010167014A (en) * 2009-01-21 2010-08-05 Kddi Corp Method and device for estimating feeling
EP2540220A1 (en) * 2011-06-29 2013-01-02 LG Electronics Inc. Mobile terminal and method for measuring bioelectric signals thereof
JP2013093718A (en) * 2011-10-25 2013-05-16 Nec Commun Syst Ltd Communication terminal, and system, method and program for emotion transfer
JP2013206320A (en) * 2012-03-29 2013-10-07 Lassic Co Ltd Multi-modal type tracking system and its program
JP2015050470A (en) * 2013-08-29 2015-03-16 京セラ株式会社 Terminal device and speech communication data processing method
JP2016021063A (en) * 2014-07-14 2016-02-04 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation Image concentration guiding apparatus and image concentration guiding method using the same
JP2019168810A (en) * 2018-03-22 2019-10-03 富士ゼロックス株式会社 Information management device and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200159A (en) * 2006-01-30 2007-08-09 Nec Corp Message generation support method and mobile terminal
JP2007296169A (en) * 2006-05-01 2007-11-15 Agi:Kk Mental condition judging apparatus, and program
JP4704952B2 (en) * 2006-05-01 2011-06-22 株式会社エイ・ジー・アイ Mental state determination device and program
JP2008073456A (en) * 2006-09-25 2008-04-03 Toshiba Corp Biological information measuring system, measuring device, biological information measuring method and biological information measuring program
JP2010508596A (en) * 2006-11-01 2010-03-18 ポリディグム カンパニー リミテッド Message icon combination method
JP2010167014A (en) * 2009-01-21 2010-08-05 Kddi Corp Method and device for estimating feeling
EP2540220A1 (en) * 2011-06-29 2013-01-02 LG Electronics Inc. Mobile terminal and method for measuring bioelectric signals thereof
US9198585B2 (en) 2011-06-29 2015-12-01 Lg Electronics Inc. Mobile terminal and method of measuring bioelectric signals thereof
JP2013093718A (en) * 2011-10-25 2013-05-16 Nec Commun Syst Ltd Communication terminal, and system, method and program for emotion transfer
JP2013206320A (en) * 2012-03-29 2013-10-07 Lassic Co Ltd Multi-modal type tracking system and its program
JP2015050470A (en) * 2013-08-29 2015-03-16 京セラ株式会社 Terminal device and speech communication data processing method
JP2016021063A (en) * 2014-07-14 2016-02-04 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation Image concentration guiding apparatus and image concentration guiding method using the same
US10203753B2 (en) 2014-07-14 2019-02-12 Nhn Entertainment Corporation Video immersion inducing apparatus and video immersion inducing method using the apparatus
JP2019168810A (en) * 2018-03-22 2019-10-03 富士ゼロックス株式会社 Information management device and program
JP7131006B2 (en) 2018-03-22 2022-09-06 富士フイルムビジネスイノベーション株式会社 Information management device and program

Also Published As

Publication number Publication date
JP3953468B2 (en) 2007-08-08

Similar Documents

Publication Publication Date Title
CN106024014B (en) A kind of phonetics transfer method, device and mobile terminal
US9503824B2 (en) Method for adjusting parameters of a hearing aid functionality provided in a consumer electronics device
US8489062B2 (en) System and method for sending an emergency message selected from among multiple emergency message types from a wireless communications device
US8621348B2 (en) Customizing haptic effects on an end user device
CN105915831B (en) Audio recording apparatus, audio recording method and recording medium
JP3953468B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME
CN102037716A (en) Method and system for automatically updating avatar status to indicate user&#39;s status
US20040147814A1 (en) Determination of emotional and physiological states of a recipient of a communicaiton
US20180268821A1 (en) Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user
US20020082007A1 (en) Method and system for expressing affective state in communication by telephone
US7242952B2 (en) Portable terminal device and method of generating call sound
JP2007202174A (en) Communication apparatus, method and program, and communication system using same
US20090268919A1 (en) Method and apparatus to measure hearing ability of user of mobile device
CN111723855A (en) Learning knowledge point display method, terminal equipment and storage medium
JP5254487B1 (en) Portable information terminal, shadow voice management method, and computer program
CN108553905A (en) Data feedback method, terminal and computer storage media based on game application
JP4251889B2 (en) Hearing aid selection system
KR200260160Y1 (en) Key tone upgrading/outputting system
CN109951504A (en) Information-pushing method, device, terminal and storage medium
JP2005242499A (en) Communication system and information processing method
JP6217003B2 (en) Terminal device, sleep behavior recording method, and sleep behavior recording program
JP4232453B2 (en) Call voice text conversion system
JP2020149024A (en) Dialogue adaptation device, dialogue adaptation method, program, and storage medium
Azzini et al. Automated spoken dialog system for home care and data acquisition from chronic patients
JP2012004885A (en) Voice speech terminal device, voice speech system, and voice speech method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees