JP2005244375A - Communication apparatus, communication method, communication program, and communication system employing this apparatus - Google Patents
Communication apparatus, communication method, communication program, and communication system employing this apparatus Download PDFInfo
- Publication number
- JP2005244375A JP2005244375A JP2004048843A JP2004048843A JP2005244375A JP 2005244375 A JP2005244375 A JP 2005244375A JP 2004048843 A JP2004048843 A JP 2004048843A JP 2004048843 A JP2004048843 A JP 2004048843A JP 2005244375 A JP2005244375 A JP 2005244375A
- Authority
- JP
- Japan
- Prior art keywords
- user
- communication
- unit
- call
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 title claims abstract description 435
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000008451 emotion Effects 0.000 claims description 187
- 238000001514 detection method Methods 0.000 claims description 55
- 238000003745 diagnosis Methods 0.000 claims description 43
- 238000012937 correction Methods 0.000 claims description 35
- 230000008859 change Effects 0.000 claims description 22
- 230000010365 information processing Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 17
- 230000007613 environmental effect Effects 0.000 claims description 16
- 230000006996 mental state Effects 0.000 claims description 4
- 238000003780 insertion Methods 0.000 claims description 3
- 230000037431 insertion Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 89
- 238000004458 analytical method Methods 0.000 description 48
- 238000010586 diagram Methods 0.000 description 35
- 230000004044 response Effects 0.000 description 33
- 238000013500 data storage Methods 0.000 description 32
- 230000036541 health Effects 0.000 description 28
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 27
- 230000033001 locomotion Effects 0.000 description 21
- 239000010813 municipal solid waste Substances 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 18
- 230000001413 cellular effect Effects 0.000 description 14
- 230000002996 emotional effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000002040 relaxant effect Effects 0.000 description 8
- 102100037473 Glutathione S-transferase A1 Human genes 0.000 description 6
- 102100037478 Glutathione S-transferase A2 Human genes 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 6
- 101001026125 Homo sapiens Glutathione S-transferase A1 Proteins 0.000 description 6
- 101001026115 Homo sapiens Glutathione S-transferase A2 Proteins 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000003340 mental effect Effects 0.000 description 6
- 239000000428 dust Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 230000003862 health status Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 101100282917 Fundulus heteroclitus cga gene Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000004630 mental health Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
Description
本発明は、種々の情報の授受を行うための通信装置、通信方法、通信プログラムおよびそれを用いた通信システムに関する。 The present invention relates to a communication device, a communication method, a communication program, and a communication system using the same for transferring various information.
近年、ストレスに代表されるように人間の心理状態に対する注目が高まっている。それとともに、手軽に心理状態を推定し、推定された心理状態に応じて使用者の心理状態をより安定した状態に誘導するための装置が案出されている。 In recent years, attention has been focused on human psychological state as represented by stress. At the same time, an apparatus has been devised for easily estimating a psychological state and guiding the user's psychological state to a more stable state in accordance with the estimated psychological state.
例えば、皮膚電気抵抗値に基づいてストレス状態を測定し、測定されたストレス状態をセンターサーバとの間で送受信することにより使用者のストレス度合いを推定し、推定されたストレス度合いに基づいて使用者へのリラックス情報を提示する携帯通信機が提案されている(例えば、特許文献1参照)。
ところで、人間の心理状態は様々な局面で変化する。特に、人間の心理状態は外部からの影響を受けやすい。例えば、人間は、嫌悪感を有する他人と会話する場合と好意を有する他人と会話する場合とでは、心理状態が異なる。 By the way, human psychological state changes in various aspects. In particular, the human psychological state is susceptible to external influences. For example, human beings have different psychological states when talking with others who have disgust and when talking with others who have a favor.
しかしながら、上記の携帯通信機では、会話の相手に依存して変化するストレス状態を測定することはできない。 However, the portable communication device described above cannot measure a stress state that changes depending on the conversation partner.
また、上記の携帯通信機では、医者等の診断者との会話により得られる診断結果に基づくアドバイスを受けることは困難である。 In the above portable communication device, it is difficult to receive advice based on a diagnosis result obtained by a conversation with a doctor or other diagnostician.
さらに、人間の生体情報の測定は使用者が測定状態にあることを意識しないように行うことが好ましい。しかしながら、上記の携帯通信機では、使用者は皮膚電気抵抗値の測定時に、入力手段の下部に設けられた電極に指を置く必要がある。したがって、使用者は自己が皮膚電気抵抗値の測定を行っていることを意識せざるを得ない。 Furthermore, it is preferable that the measurement of human biological information is performed so that the user is not conscious of being in the measurement state. However, in the portable communication device described above, the user needs to place a finger on the electrode provided at the lower part of the input means when measuring the skin electrical resistance value. Therefore, the user must be aware that he / she is measuring the skin electrical resistance value.
本発明の目的は、通信相手に依存する生体情報を取得可能な通信装置、通信方法、通信プログラムおよびそれを用いた通信システムを提供することである。 An object of the present invention is to provide a communication device, a communication method, a communication program, and a communication system using the same that can acquire biological information that depends on a communication partner.
本発明の他の目的は、診断者との会話による診断結果に基づくアドバイスを容易に取得することができる通信システムを提供することである。 Another object of the present invention is to provide a communication system that can easily obtain advice based on a diagnosis result by a conversation with a diagnostician.
本発明の他の目的は、使用者が意識することなく生体情報を簡単に検出することができる通信装置を提供することである。 Another object of the present invention is to provide a communication device that can easily detect biological information without the user being aware of it.
第1の発明に係る通信装置は、情報の通信を行う通信手段と、通信手段による通信に関連する操作を行うために使用者により操作される操作手段と、使用者の生体情報を検出するための検出手段と、操作手段の操作に基づいて通信手段の動作を制御するとともに、使用者による操作手段の操作時または通信手段による通信時に使用者の生体情報を検出するように検出手段を制御する制御手段とを備えるものである。 A communication device according to a first aspect of the present invention is a communication device for communicating information, an operation device operated by a user to perform an operation related to communication by the communication device, and detecting biometric information of the user. And the operation of the communication means based on the operation of the operation means, and the detection means is controlled so as to detect the biological information of the user when the operation means is operated by the user or during communication by the communication means. And a control means.
本発明に係る通信装置においては、使用者による操作手段の操作に基づいて制御手段により通信手段の動作が制御される。また、使用者が通信装置の操作手段により任意の相手に対する通信に関連する操作を行っているときまたは使用者が通信手段により任意の相手に通信を行っているときに、使用者の生体情報が検出されるように検出手段が制御手段により制御される。したがって、使用者が意識する相手に依存する生体情報を取得することができる。 In the communication apparatus according to the present invention, the operation of the communication means is controlled by the control means based on the operation of the operation means by the user. In addition, when the user performs an operation related to communication with an arbitrary partner using the operation unit of the communication device or when the user performs communication with the other party using the communication unit, the biometric information of the user is stored. The detection means is controlled by the control means so as to be detected. Therefore, it is possible to acquire biometric information that depends on the partner conscious of the user.
通信手段は、情報として音声を音声信号として送信および受信する通話手段を含み、制御手段は、通話手段による使用者の通話時に使用者の生体情報を検出するように検出手段を制御してもよい。 The communication unit may include a call unit that transmits and receives a voice as an audio signal as information, and the control unit may control the detection unit so as to detect the user's biological information when the user calls by the call unit. .
この場合、使用者が通話手段により任意の通話相手と音声による通話を行っているときに、使用者の生体情報が検出される。それにより、通話相手に依存する生体情報を取得することができる。 In this case, the user's biometric information is detected when the user is making a voice call with any other party using the calling means. Thereby, the biometric information depending on the call partner can be acquired.
通信装置は、通話手段による使用者の発声時を判別する判別手段をさらに備え、制御手段は、通話手段による使用者の発声時に使用者の生体情報を検出するように検出手段を制御してもよい。 The communication apparatus further includes a determining unit that determines when the user speaks by the calling unit, and the control unit controls the detecting unit to detect the user's biological information when the user speaks by the calling unit. Good.
この場合、通話手段による使用者の発声時が判別手段により判別され、使用者の発声時に使用者の生体情報が検出される。それにより、通話相手および通話内容に依存する生体情報を取得することができる。 In this case, the time when the user speaks by the calling means is determined by the determining means, and the biometric information of the user is detected when the user speaks. Thereby, biometric information depending on the other party and the content of the call can be acquired.
通信装置は、通話手段により受信された音声信号に基づいて通話相手からの質問を示す音声を判別する判別手段をさらに備え、制御手段は、判別手段により質問を示す音声が判別されたときに使用者の生体情報を検出するように検出手段を制御してもよい。 The communication device further includes a determination unit that determines a voice indicating a question from the other party based on the voice signal received by the calling unit, and the control unit is used when the voice indicating the question is determined by the determination unit. The detection means may be controlled so as to detect the biological information of the person.
この場合、通話手段により受信された音声信号に基づいて通話相手からの質問を示す音声が判別手段により判別され、質問を示す音声が判別されたときに使用者の生体情報が検出される。それにより、通話相手および通話内容に依存する生体情報を取得することができる。 In this case, based on the audio signal received by the calling means, the sound indicating the question from the other party is determined by the determining means, and the user's biological information is detected when the sound indicating the question is determined. Thereby, biometric information depending on the other party and the content of the call can be acquired.
通信手段は、情報として電子メールをデータ信号として送信および受信する電子メール通信手段を含み、操作手段は、電子メールの作成、送信、受信または閲覧するための操作を行う電子メール操作部を含み、制御手段は、使用者による電子メール操作部の操作時に使用者の生体情報を検出するように検出手段を制御してもよい。 The communication means includes an e-mail communication means for transmitting and receiving an e-mail as a data signal as information, and the operation means includes an e-mail operation unit for performing an operation for creating, transmitting, receiving or browsing an e-mail, The control means may control the detection means so as to detect the user's biological information when the user operates the electronic mail operation unit.
この場合、使用者が電子メール操作部を操作することにより任意の相手に送信する電子メールの作成または送信を行っているとき、または任意の相手からの電子メールを受信または閲覧しているときに、使用者の生体情報が検出される。それにより、電子メールの相手または電子メールの内容に依存する生体情報を取得することができる。 In this case, when the user is creating or sending an e-mail to be sent to any other party by operating the e-mail operation unit, or when receiving or viewing an e-mail from any other party The biometric information of the user is detected. Thereby, biometric information depending on the partner of the e-mail or the content of the e-mail can be acquired.
通信装置は、検出手段により検出された生体情報に基づいて使用者の心理状態を推定する推定手段と、推定手段により推定された使用者の心理状態を示す情報を電子メール操作部により作成される電子メールに挿入する挿入手段とをさらに備えてもよい。 The communication device creates an estimation unit that estimates the user's psychological state based on the biological information detected by the detection unit, and information indicating the user's psychological state estimated by the estimation unit is created by the e-mail operation unit. You may further provide the insertion means inserted in an electronic mail.
この場合、検出手段により検出された生体情報に基づいて使用者の心理状態が推定手段により推定される。そして、推定された使用者の心理状態を示す情報が電子メール操作部により作成される電子メールに挿入手段により挿入される。その結果、使用者の心理状態を示す情報が挿入された電子メールが相手に送信される。 In this case, the psychological state of the user is estimated by the estimation unit based on the biological information detected by the detection unit. Then, information indicating the estimated psychological state of the user is inserted by the inserting unit into the e-mail created by the e-mail operation unit. As a result, an electronic mail in which information indicating the user's psychological state is inserted is transmitted to the other party.
通信装置は、検出手段により検出された生体情報に基づいて使用者の心理状態を推定する推定手段をさらに備えてもよい。 The communication apparatus may further include an estimation unit that estimates a user's psychological state based on the biological information detected by the detection unit.
この場合、検出手段により検出された生体情報に基づいて使用者の心理状態が推定手段により推定される。それにより、通信相手に依存した使用者の心理状態を認識することができる。 In this case, the psychological state of the user is estimated by the estimation unit based on the biological information detected by the detection unit. Thereby, the user's psychological state depending on the communication partner can be recognized.
推定手段は、検出手段により検出された生体情報に基づいて使用者の心理状態として使用者の緊張度合いを推定してもよい。 The estimation means may estimate the degree of tension of the user as the user's psychological state based on the biological information detected by the detection means.
この場合、検出手段により検出された生体情報に基づいて使用者の緊張度合いが推定手段により推定される。それにより、通信相手に依存した使用者の緊張度合いを認識することができる。 In this case, the degree of tension of the user is estimated by the estimation unit based on the biological information detected by the detection unit. Thereby, the user's degree of tension depending on the communication partner can be recognized.
推定手段は、検出手段により検出された生体情報に基づいて使用者の心理状態として使用者のうそを推定してもよい。 The estimation means may estimate the user's lie as the user's psychological state based on the biological information detected by the detection means.
この場合、検出手段により検出された生体情報に基づいて使用者のうそが推定手段により推定される。それにより、通信相手に依存した使用者のうそを認識することができる。 In this case, the user's lie is estimated by the estimation means based on the biological information detected by the detection means. Thereby, the user's lie depending on the communication partner can be recognized.
推定手段は、検出手段により検出された生体情報に基づいて使用者の心理状態として使用者の喜怒哀楽を推定してもよい。 The estimation means may estimate the user's emotions as the user's psychological state based on the biological information detected by the detection means.
この場合、検出手段により検出された生体情報に基づいて使用者の喜怒哀楽が推定手段により推定される。それにより、通信相手に依存した使用者の喜怒哀楽を認識することができる。 In this case, the user's emotions are estimated by the estimation unit based on the biological information detected by the detection unit. Thereby, the user's emotions depending on the communication partner can be recognized.
通信装置は、推定手段により推定された使用者の心理状態を示す情報を音声として出力する音声出力手段をさらに備えてもよい。 The communication apparatus may further include a voice output unit that outputs information indicating the user's psychological state estimated by the estimation unit as a voice.
この場合、推定手段により推定された使用者の心理状態を示す情報が音声出力手段により音声として出力される。それにより、使用者は、通信相手に依存する心理状態を容易に認識することができる。 In this case, information indicating the user's psychological state estimated by the estimating means is output as sound by the sound output means. Thereby, the user can easily recognize the psychological state depending on the communication partner.
通信装置は、推定手段により推定された使用者の心理状態を示す情報を表示する表示手段をさらに備えてもよい。 The communication apparatus may further include display means for displaying information indicating the user's psychological state estimated by the estimation means.
この場合、推定手段により推定された使用者の心理状態を示す情報が表示手段により表示される。それにより、使用者は、通信相手に依存する心理状態を容易に認識することができる。 In this case, information indicating the psychological state of the user estimated by the estimation unit is displayed by the display unit. Thereby, the user can easily recognize the psychological state depending on the communication partner.
通信装置は、推定手段により推定された使用者の心理状態を変化させるための情報を出力する情報出力手段をさらに備えてもよい。 The communication apparatus may further include an information output unit that outputs information for changing the psychological state of the user estimated by the estimation unit.
この場合、推定手段により推定された使用者の心理状態に基づいて使用者の心理状態を変化させるための情報が情報出力手段により出力される。それにより、通信相手に依存する使用者の心理状態を変化させることができる。 In this case, information for changing the user's psychological state based on the user's psychological state estimated by the estimating unit is output by the information output unit. Thereby, the user's psychological state depending on the communication partner can be changed.
通信装置は、推定手段により推定された使用者の心理状態を相手ごとに記憶する記憶手段をさらに備えてもよい。 The communication apparatus may further include a storage unit that stores the psychological state of the user estimated by the estimation unit for each partner.
この場合、推定手段により推定された使用者の心理状態が記憶手段により相手ごとに記憶される。それにより、使用者は、記憶手段の記憶内容に基づいて相手に依存する心理状態および心理状態の履歴を容易に確認することができる。 In this case, the psychological state of the user estimated by the estimation unit is stored for each partner by the storage unit. Thereby, the user can easily confirm the psychological state depending on the partner and the history of the psychological state based on the stored contents of the storage unit.
通信手段は、着信時に使用者に着信を認識されるための着信動作を行い、制御手段は、記憶手段に記憶された使用者の心理状態に基づいて通信手段による着信動作を制御していもよい。 The communication unit may perform an incoming operation for the user to recognize the incoming call when the incoming call is received, and the control unit may control the incoming operation by the communication unit based on the user's psychological state stored in the storage unit. .
この場合、記憶手段に記憶された使用者の心理状態に基づいて通信手段による着信動作が制御される。それにより、使用者は、着信時に発信相手に依存する心理状態を着信動作により容易に認識することができる。 In this case, the incoming call operation by the communication means is controlled based on the psychological state of the user stored in the storage means. Thereby, the user can easily recognize the psychological state depending on the caller at the time of the incoming call by the incoming call operation.
通信装置は、環境状態を示す環境情報を取得する取得手段と、取得手段により取得された環境情報に基づいて検出手段により検出された使用者の生体情報の変化状態を補正する補正手段とをさらに備えてもよい。ここで変化状態とは、例えば変化量、変化の勾配、ある特定時間内における変化量の累積、変化のばらつき等がある。 The communication apparatus further includes an acquisition unit that acquires environmental information indicating an environmental state, and a correction unit that corrects the change state of the user's biological information detected by the detection unit based on the environmental information acquired by the acquisition unit. You may prepare. Here, the change state includes, for example, a change amount, a change gradient, a cumulative change amount within a specific time, a variation variation, and the like.
この場合、環境状態を示す環境情報が取得手段により取得され、取得された環境情報に基づいて検出された使用者の生体情報の変化量等が補正手段により補正される。それにより、環境状態に応じて変化する使用者の生体情報の変化量等を正確に取得することができるとともに、使用者の心理状態の推定精度を向上することができる。 In this case, the environmental information indicating the environmental state is acquired by the acquiring unit, and the change amount of the user's biological information detected based on the acquired environmental information is corrected by the correcting unit. Thereby, while being able to acquire correctly the variation | change_quantity etc. of the user's biometric information which changes according to an environmental state, the estimation precision of a user's psychological state can be improved.
通信装置は、検出手段による生体情報の検出時に使用者の音声を記録する音声記録手段をさらに備えてもよい。 The communication apparatus may further include a voice recording unit that records the voice of the user when the biological information is detected by the detection unit.
この場合、検出手段による生体情報の検出時に使用者の音声が音声記録手段により記録される。それにより、使用者は、相手に依存する使用者の音声の状態を記録内容に基づいて容易に把握することができる。 In this case, the user's voice is recorded by the voice recording means when the biological information is detected by the detection means. Accordingly, the user can easily grasp the state of the user's voice depending on the other party based on the recorded content.
通信装置は、検出手段により検出された生体情報が所定のしきい値を超えたか否かを判定する判定手段をさらに備え、音声記録手段は、判定手段により生体情報が所定のしきい値を超えたと判定された場合に、しきい値を超えた時点を含む所定時間の使用者の音声を記録してもよい。 The communication device further includes a determination unit that determines whether or not the biological information detected by the detection unit exceeds a predetermined threshold, and the voice recording unit includes the biological information that exceeds the predetermined threshold by the determination unit. If it is determined that the user's voice has been exceeded, the user's voice for a predetermined time including the time when the threshold value is exceeded may be recorded.
この場合、検出手段により検出された生体情報が所定のしきい値を超えたか否かが判定手段により判定され、生体情報が所定のしきい値を超えたと判定された場合に、しきい値を超えた時点を含む所定時間の使用者の音声が音声記録手段により記録される。それにより、使用者は、相手に依存して生体情報が大きく反応した場合の音声の状態を記録内容により容易に把握することができる。 In this case, the determination means determines whether or not the biological information detected by the detection means exceeds a predetermined threshold value, and if the biological information exceeds the predetermined threshold value, the threshold value is set. The voice recording means records the user's voice for a predetermined time including the time when the time is exceeded. Thereby, the user can easily grasp the state of the sound when the biometric information greatly reacts depending on the other party from the recorded contents.
第2の発明に係る通信装置の動作方法は、情報の通信を行う通信手段および通信手段による通信に関連する操作を行うために使用者により操作される操作手段とを備えた通信装置の動作方法であって、操作手段の操作に基づいて通信手段の動作を制御するとともに、使用者による操作手段の操作時または通信手段による通信時に使用者の生体情報を検出するものである。 An operation method of a communication apparatus according to a second aspect of the invention includes a communication means for communicating information and an operation means operated by a user to perform an operation related to communication by the communication means. The operation of the communication means is controlled based on the operation of the operation means, and the user's biological information is detected when the user operates the operation means or when the communication means communicates.
本発明に係る通信装置の動作方法においては、使用者による操作手段の操作に基づいて通信手段の動作が制御される。また、使用者が通信装置の操作手段により任意の相手に対する通信に関連する操作を行っているときまたは使用者が通信手段により任意の相手に通信を行っているときに、使用者の生体情報が検出されるように検出手段が制御される。したがって、通信相手に依存する生体情報を取得することができる。 In the operation method of the communication device according to the present invention, the operation of the communication unit is controlled based on the operation of the operation unit by the user. In addition, when the user performs an operation related to communication with an arbitrary partner using the operation unit of the communication device or when the user performs communication with the other party using the communication unit, the biometric information of the user is stored. The detection means is controlled so as to be detected. Therefore, it is possible to acquire biological information that depends on the communication partner.
第3の発明に係る通信プログラムは、情報の通信を行う通信手段および通信手段による通信に関連する操作を行うために使用者により操作される操作手段、操作手段の操作に基づいて通信手段を制御する処理装置を備えた通信装置に用いられ、処理装置により実行可能な通信プログラムであって、操作手段の操作に基づいて通信手段の動作を制御する処理と、操作手段の操作時または通信手段による通信時に使用者の生体情報を検出する処理とを、処理装置に実行させるものである。 A communication program according to a third aspect of the invention is a communication means for communicating information, an operation means operated by a user to perform an operation related to communication by the communication means, and controls the communication means based on the operation of the operation means. A communication program that can be executed by the processing device and that controls the operation of the communication means based on the operation of the operation means, and when the operation means is operated or by the communication means The processing device executes processing for detecting the user's biological information during communication.
本発明に係る通信プログラムによれば、使用者による操作手段の操作に基づいて通信手段の動作が制御される。また、使用者が通信装置の操作手段により任意の相手に対する通信に関連する操作を行っているときまたは使用者が通信手段により任意の相手に通信を行っているときに、使用者の生体情報が検出されるように検出手段が制御される。したがって、通信相手に依存する生体情報を取得することができる。 According to the communication program of the present invention, the operation of the communication unit is controlled based on the operation of the operation unit by the user. In addition, when the user performs an operation related to communication with an arbitrary partner using the operation unit of the communication device or when the user performs communication with the other party using the communication unit, the biometric information of the user is stored. The detection means is controlled so as to be detected. Therefore, it is possible to acquire biological information that depends on the communication partner.
第4の発明に係る通信システムは、使用者用の第1の通信装置と、診断者用の第2の通信装置と、診断者用の情報処理装置とを備え、第1の通信装置は、第2の通信装置との通話および情報処理装置との情報の通信を行う通信手段と、通信手段による第2の通信装置との通話時に使用者の生体情報を検出するための検出手段とを備え、通信手段は、検出手段により検出される生体情報に基づく情報を情報処理装置に送信し、第2の通信装置または情報処理装置は、情報処理装置により受信された情報に基づく診断者のアドバイスを第1の通信装置に送信するものである。 A communication system according to a fourth aspect of the present invention includes a first communication device for a user, a second communication device for a diagnostician, and an information processing device for the diagnostician. Communication means for performing communication with the second communication device and information communication with the information processing device, and detection means for detecting biometric information of the user when the communication means communicates with the second communication device. The communication unit transmits information based on the biological information detected by the detection unit to the information processing device, and the second communication device or the information processing device receives advice from the diagnostician based on the information received by the information processing device. It is transmitted to the first communication device.
本発明に係る通信システムにおいては、使用者が第1の通信装置の通信手段により第2の通信装置を有する診断者と通話を行っているときに、検出手段により使用者の生体情報が検出される。そして、通信手段による診断者との通話中または通話終了後に、検出された生体情報に基づく情報が通信手段により情報処理装置に送信される。それにより、診断者は、情報処理装置に送信された情報に基づいて使用者の健康状態を診断することができる。ここで、健康状態とは、身体面での健康状態と精神面での健康状態との両方を含み、以下では、単に健康状態と記述する。 In the communication system according to the present invention, when the user is making a call with the diagnostician having the second communication device by the communication means of the first communication device, the biometric information of the user is detected by the detection means. The Then, information based on the detected biological information is transmitted to the information processing apparatus by the communication unit during or after the call with the diagnostician by the communication unit. Thereby, the diagnostician can diagnose the health condition of the user based on the information transmitted to the information processing apparatus. Here, the health condition includes both a physical health condition and a mental health condition. Hereinafter, the health condition is simply referred to as a health condition.
診断者は、診断結果に基づくアドバイスを第2の通信装置による通話または情報処理装置による情報の通信により第1の通信装置に送信することができる。それにより、使用者は、診断者との会話による診断結果に基づくアドバイスを容易に受けることができる。 The diagnostician can transmit the advice based on the diagnosis result to the first communication device by a call by the second communication device or information communication by the information processing device. Thereby, the user can easily receive advice based on the diagnosis result by the conversation with the diagnostician.
なお、第2の通信装置と情報処理装置とが一体的に設けられてもよい。 Note that the second communication device and the information processing device may be provided integrally.
第5の発明に係る通信装置は、情報の通信を行う通信手段と、通信手段による通信に関連する操作を行うために使用者により操作される操作手段と、使用者の生体情報を検出するための検出手段と、通信手段、操作手段および検出手段を一体的に保持する筐体とを備え、筐体は、前面部、背面部、一方の側面部および他方の側面部を有するとともに一方の側面部、背面部および他方の側面部を片手で保持可能に形成され、操作手段は前面部に設けられ、検出手段は一方の側面部に設けられたものである。 A communication apparatus according to a fifth aspect of the present invention is a communication device for communicating information, an operation device operated by a user to perform an operation related to communication by the communication device, and detecting biometric information of the user. And a casing that integrally holds the communication means, the operation means, and the detection means. The casing has a front surface portion, a back surface portion, one side surface portion, and the other side surface portion, and one side surface. And the other side surface portion can be held with one hand, the operation means is provided on the front surface portion, and the detection means is provided on one side surface portion.
本発明に係る通信装置においては、使用者による操作手段の操作に基づいて制御手段により通信手段の動作が制御される。使用者は、通信装置の筐体を片手で保持しつつ他の手で操作手段を操作することができる。このとき、使用者の手が筐体の側面部の検出手段に触れることにより使用者の生体情報が検出される。 In the communication apparatus according to the present invention, the operation of the communication means is controlled by the control means based on the operation of the operation means by the user. The user can operate the operating means with the other hand while holding the housing of the communication apparatus with one hand. At this time, a user's hand touches the detection means of the side part of a housing | casing, and a user's biometric information is detected.
したがって、使用者が意識することなく生体情報を簡単に検出することができる。 Therefore, it is possible to easily detect biological information without the user being aware of it.
なお、筐体の前面部、背面部、一方の側面部および他方の側面部は、それぞれ平面状に限らず、曲面状に形成されてもよく、前面部、背面部、一方の側面部および他方の側面部のうち2以上が曲面で連続していてもよい。 The front part, the rear part, the one side part, and the other side part of the housing are not limited to a flat shape, and may be formed in a curved shape. The front part, the rear part, one side part, and the other Two or more of the side portions may be continuous with a curved surface.
本発明に係る通信装置、通信方法、通信プログラムによれば、使用者による操作手段の操作に基づいて制御手段により通信手段の動作が制御される。また、使用者が通信装置の操作手段により任意の相手に対する通信に関連する操作を行っているときまたは使用者が通信手段により任意の相手に通信を行っているときに、使用者の生体情報が検出されるように検出手段が制御手段により制御される。したがって、使用者が意識する相手に依存する生体情報を取得することができる。 According to the communication device, the communication method, and the communication program according to the present invention, the operation of the communication unit is controlled by the control unit based on the operation of the operation unit by the user. In addition, when the user performs an operation related to communication with an arbitrary partner using the operation unit of the communication device or when the user performs communication with the other party using the communication unit, the biometric information of the user is stored. The detection means is controlled by the control means so as to be detected. Therefore, it is possible to acquire biometric information that depends on the partner conscious of the user.
また、本発明に係る通信システムによれば、使用者が第1の通信装置の通信手段により第2の通信装置を有する診断者と通話を行っているときに、検出手段により使用者の生体情報が検出される。そして、通信手段による診断者との通話中または通話終了後に、検出された生体情報に基づく情報が通信手段により情報処理装置に送信される。それにより、診断者は、情報処理装置に送信された情報に基づいて使用者の健康状態を診断することができる。 Further, according to the communication system according to the present invention, when the user makes a call with the diagnostician having the second communication device by the communication means of the first communication device, the biometric information of the user is detected by the detection means. Is detected. Then, information based on the detected biological information is transmitted to the information processing apparatus by the communication unit during or after the call with the diagnostician by the communication unit. Thereby, the diagnostician can diagnose the health condition of the user based on the information transmitted to the information processing apparatus.
診断者は、診断結果に基づくアドバイスを第2の通信装置による通話または情報処理装置による情報の通信により第1の通信装置に送信することができる。それにより、使用者は、診断者との会話による診断結果に基づくアドバイスを容易に受けることができる。 The diagnostician can transmit the advice based on the diagnosis result to the first communication device by a call by the second communication device or information communication by the information processing device. Thereby, the user can easily receive advice based on the diagnosis result by the conversation with the diagnostician.
さらに、本発明に係る通信装置によれば、使用者による操作手段の操作に基づいて制御手段により通信手段の動作が制御される。使用者は、通信装置の筐体を片手で保持しつつ他の手で操作手段を操作することができる。このとき、使用者の手が筐体の側面部の検出手段に触れることにより使用者の生体情報が検出される。 Further, according to the communication device of the present invention, the operation of the communication unit is controlled by the control unit based on the operation of the operation unit by the user. The user can operate the operating means with the other hand while holding the housing of the communication apparatus with one hand. At this time, a user's hand touches the detection means of the side part of a housing | casing, and a user's biometric information is detected.
したがって、使用者が意識することなく生体情報を簡単に検出することができる。 Therefore, it is possible to easily detect biological information without the user being aware of it.
以下、本発明の一実施の形態に係る通信装置、通信方法、通信プログラムおよびそれを用いた通信システムについて説明する。下記では、本発明の一実施の形態に係る通信装置の一例として、携帯電話機について説明する。以下の説明に係る携帯電話機は、本来の電話の機能に加えて、使用者の生体情報を検出する機能を有する。 Hereinafter, a communication device, a communication method, a communication program, and a communication system using the communication device according to an embodiment of the present invention will be described. In the following, a mobile phone will be described as an example of a communication apparatus according to an embodiment of the present invention. The mobile phone according to the following description has a function of detecting the user's biological information in addition to the original telephone function.
なお、以下の説明において、通信とは、音声による通話、電子メールの送受信およびインターネットを介してのサイトへの接続を含む。 In the following description, communication includes voice calls, transmission / reception of electronic mail, and connection to a site via the Internet.
ここで、使用者の生体情報とは、使用者の音声に関する音声データおよび使用者の皮膚温度、脈拍、GSR(皮膚電気反射)等の客観的に測定可能な生理量データから得られる生体に関する情報である。以下の説明において、生理量データは使用者の皮膚温度、脈拍およびGSRの測定結果である。 Here, the user's biological information is information related to the living body obtained from voice data related to the user's voice and objectively measurable physiological quantity data such as the user's skin temperature, pulse, and GSR (skin electrical reflection). It is. In the following description, physiological data is a measurement result of a user's skin temperature, pulse and GSR.
(第1の実施の形態)
図1は第1の実施の形態に係る携帯電話機の外観図である。図1に示すように本実施の形態に係る携帯電話機100は、第1の筐体1および第2の筐体2から形成されている。第1の筐体1および第2の筐体2はともに略直方体形状を有し、第1の筐体1の下端と第2の筐体2の上端とがヒンジ3により接続されている。これにより、第1の筐体1は、ヒンジ3を中心として、第2の筐体2に対して矢印の方向に折り畳み可能である。
(First embodiment)
FIG. 1 is an external view of a mobile phone according to the first embodiment. As shown in FIG. 1, a
第1の筐体1および第2の筐体2の折り畳み時に互いに対向する側の面を前面と呼ぶ。また、第1の筐体1および第2の筐体2の前面と反対側の面を背面と呼ぶ。
A surface on the side facing each other when the
図1(a)に示すように、第1の筐体1の前面中央には後述の各種情報を表示するためのメイン表示部13が設けられている。メイン表示部13の上部には、通話用スピーカ15bが設けられている。メイン表示部13は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイ等からなる。なお、メイン表示部13は画像または文字等を表示できるものであれば、これらに限定されない。
As shown in FIG. 1A, a
一方、第2の筐体2の前面中央には入力操作部11が設けられている。入力操作部11は、複数の数字ボタン、複数の動作設定ボタン、カーソルボタンKKおよび決定ボタンKS等を含む。使用者が入力操作部11を操作することにより携帯電話機100が所定の動作を行う。入力操作部11の下部には、マイクロホン16が設けられている。
On the other hand, an
第2の筐体2の側面には生理量データ測定部20が設けられている。図1(a)においては、第2の筐体2の両側面に使用者のGSRを測定するための2つの電極20a,20dが設けられている。また、第2の筐体2の一側面には、電極20aとともに、使用者の皮膚温度を測定するためのサーミスタ20bおよび使用者の脈拍を測定するためのフォトセンサ20cが設けられている。
A physiological
本実施の形態では、生理量データ測定部20は第2の筐体2の両側面に設けられているが、設ける方法はこれに限らない。例えば、両側面のうち、一方のみに生理量データ測定部20が設けられてもよい。
In the present embodiment, the physiological
図1(b)に示すように、第1の筐体1の背面中央には発光動作を行うサブ表示部14が設けられている。サブ表示部14は、例えば、LED(発光ダイオード)等からなる。なお、サブ表示部14は発光するものであれば、これに限定されない。
As shown in FIG. 1B, a
サブ表示部14の上部には電荷結合素子(以下、CCDと略記する。)カメラ17が設けられている。第1の筐体1の背面上端側には2つのスピーカ15aが設けられている。また、第2の筐体2の背面上端側にはアンテナ31が設けられている。
A charge coupled device (hereinafter abbreviated as CCD)
生体情報の検出時においては、使用者が第2の筐体2を把持することにより生理量データが測定される。すなわち、使用者の指または手のひらが電極20a,20d、サーミスタ20bおよびフォトセンサ20cに触れることにより、使用者のGSR、皮膚温度および脈拍が測定される。また、使用者がマイクロホン16を通じて会話することにより、音声データが得られる。
At the time of detection of biological information, physiological data is measured by the user holding the
図2は第1の実施の形態に係る携帯電話機100の構成を示すブロック図である。図2に示すように、本実施の形態に係る携帯電話機100は、制御部10、入力操作部11、メモリ12、メイン表示部13、サブ表示部14、スピーカ15a、通話用スピーカ15b、マイクロホン16、CCDカメラ17、信号処理部18、生理量データ測定部20、無線通信部30およびアンテナ31を含む。また、スピーカ15a、通話用スピーカ15b、マイクロホン16の各々に対応してアンプan1,an2,an3が設けられている。
FIG. 2 is a block diagram showing a configuration of the
制御部10は、例えば、CPU(中央演算処理装置)またはマイクロコンピュータ等からなり、上記各構成部の動作を制御する。入力操作部11は、使用者の操作に基づく指令信号を制御部10に与える。メモリ12は、例えば、フラッシュメモリ等の不揮発性メモリまたはSRAM(スタティックランダムアクセスメモリ)等の揮発性メモリおよびそのデータを保持するためのデータ保持用電源等からなる。メモリ12には複数の情報が記憶される。メモリ12の内部構成については後述する。
The
なお、制御部10またはメモリ12のいずれかにおいては、携帯電話機本来の機能に関するシステムプログラムおよび後述の通信プログラムが記憶されている。ここで、携帯電話機本来の機能とは、例えば、使用者が通話するための機能、使用者が電子メールの作成、送信および受信を行うための機能ならびに使用者がインターネットを介して所望のサイトへアクセスするための機能等である。
In either the
メイン表示部13は制御部10からの指令信号に基づいて表示動作が制御される。また、サブ表示部14は制御部10からの指令信号に基づいて発光動作が制御される。
The display operation of the
スピーカ15aはアンプan1を介して与えられる電気信号に基づいて各種音声を出力する。通話用スピーカ15bはアンプan2を介して与えられる電気信号に基づいて各種音声を出力する。マイクロホン16は、使用者の音声に基づく電気信号を生成する。生成された電気信号はアンプan3を介して信号処理部18およびメモリ12等に与えられる。CCDカメラ17は制御部10からの指令信号に基づいて撮像動作が制御される。
The
信号処理部18においては、他の構成部から与えられる信号の形式の変換等が行われる。例えば、信号処理部18は、生理量データ測定部20により測定されたアナログ形式の生理量データをデジタル形式の生理量データに変換する。
In the
上述のように、生理量データ測定部20は電極20a,20d、サーミスタ20bおよびフォトセンサ20cを含む。電極20a,20dにより使用者のGSRが測定され、サーミスタ20bにより使用者の皮膚温度が測定され、フォトセンサ20cにより使用者の脈拍が測定される。測定された生理量データは信号処理部18に与えられる。
As described above, the physiological
無線通信部30は、アンテナ31を介して上述の生理量データ、音声データおよび電子メールに関するデータ等の無線通信を行う。
The
図3は図2のメモリ12の内部構成の一例を示す図である。メモリ12は、動作設定記憶部121、心理状態推定テーブル格納部122、個人情報データ格納部123、履歴データ格納部124、音声解析テーブル格納部125および補正データ記憶部126を含む。
FIG. 3 is a diagram showing an example of the internal configuration of the
メモリ12内の上記格納部および記憶部の詳細について図4〜図7に基づき説明する。
Details of the storage unit and the storage unit in the
図4は図3の動作設定記憶部121に記憶される内容の一例を示す図である。図4では、動作設定記憶部121の記憶内容の一例として、携帯電話機100の着信時動作設定テーブルが表されている。
FIG. 4 is a diagram showing an example of contents stored in the operation setting
図4の着信時動作設定テーブルでは、通信相手ごとに予め着信時のメロディパターン、発光パターンおよび表示パターンが設定されている。 In the incoming call operation setting table of FIG. 4, a melody pattern, a light emission pattern, and a display pattern for incoming calls are set in advance for each communication partner.
ここで、メロディパターンとは着信時に図2のスピーカ15aが出力する音声のパターンをいい、発光パターンとは着信時に図2のサブ表示部14が発光するパターンをいい、表示パターンとは着信時に図2のメイン表示部13が表示するパターンをいう。
Here, the melody pattern refers to a voice pattern output from the
これら着信時のメロディパターン、発光パターンおよび表示パターンの組合せが着信時動作グループP1,P2に分類されている。 Combinations of these incoming melody patterns, light emission patterns, and display patterns are classified into incoming call operation groups P1 and P2.
図4の例では、着信時動作グループがP1の場合、メロディパターンとして「パンパカパーン」が設定され、発光パターンとして「緑色を点灯」が設定され、表示パターンとして「いつもの調子で話しましょう」が設定されている。また、着信時動作グループがP2の場合、メロディパターンとして「ブーブーブー」が設定され、発光パターンとして「赤色を点灯」が設定され、表示パターンとして「リラックスして話して下さいね」が設定されている。 In the example of FIG. 4, when the incoming call operation group is P1, “Pampakapan” is set as the melody pattern, “Lit green” is set as the light emission pattern, and “Let's talk in the normal tone” as the display pattern. Is set. Also, when the incoming call operation group is P2, “boo boo” is set as the melody pattern, “red light” is set as the light emission pattern, and “Please speak relaxedly” as the display pattern. .
ここで、着信時動作グループは、通信相手と通信した場合の過去の通信履歴から通信相手ごとに算出される後述の心理状態レベル履歴平均に基づいて決定される。例えば、図4では、ある通信相手と通信した場合の心理状態レベル履歴平均の値が2以下の場合に、その通信相手に着信時動作グループとしてP1が設定され、ある通信相手と通信した場合の心理状態レベル履歴平均の値が3以上の場合に、その通信相手に着信時動作グループとしてP2が設定される。 Here, the incoming call operation group is determined based on a psychological state level history average, which will be described later, calculated for each communication partner from the past communication history when communicating with the communication partner. For example, in FIG. 4, when the average psychological state level history value when communicating with a certain communication partner is 2 or less, P1 is set as the incoming call operation group for that communication partner, and communication with a certain communication partner is performed. When the average value of the psychological state level history is 3 or more, P2 is set as an incoming call operation group for the communication partner.
図2の制御部10は、上述のように動作設定記憶部121に記憶された着信時動作設定テーブルに基づいて上記各構成部の動作を制御する。これにより、制御部10は、携帯電話機100の着信時に、図4の着信時動作設定テーブルに基づいて通信相手に応じたスピーカ15a、サブ表示部14およびメイン表示部13の動作制御を行う。また、制御部10は着信時動作設定テーブルの内容の更新も行う。更新動作については後述する。
The
図5は図3の心理状態推定テーブル格納部122に記憶される内容の一例を示す図である。図5では、心理状態推定テーブル格納部122の記憶内容の一例として、生理量データ測定部20により測定される生理量データに基づいて使用者の心理状態(緊張の度合い)を推定するための心理状態推定テーブルが表されている。
FIG. 5 is a diagram showing an example of contents stored in the psychological state estimation
ここで、図5において、使用者の緊張の度合いは心理状態レベル1〜6として表されている。図5の例では、心理状態レベルが小さくなるにつれて使用者の緊張の度合いが高い。例えば、心理状態レベル1は使用者が非常に緊張していることを表し、心理状態レベル2は使用者が緊張していることを表し、心理状態レベル3は使用者がやや緊張していることを表す。
Here, in FIG. 5, the degree of tension of the user is expressed as
また、心理状態レベル4は使用者が普通の状態であることを表し、心理状態レベル5は使用者がリラックスしていることを表し、心理状態レベル6は使用者が非常にリラックスしていることを表す。これら心理状態レベルは、測定された生理量データ、すなわち、使用者のGSR、皮膚温度および脈拍の単位時間あたりの変化量の組合せに基づき分類されている。
The
変化量の組合せは、GSR、皮膚温度および脈拍の変化量の各々について設定された基準値に対する測定値の大小関係に基づき決定される。 The combination of the change amounts is determined based on the magnitude relationship of the measurement values with respect to the reference values set for each of the GSR, skin temperature, and pulse change amounts.
図5においては、上記の変化量の組合せを決定するために、GSRの変化量について3つの基準値α,β,γが設定されている。これら基準値α,β,γは、α,β,γの順に大きい。また、皮膚温度および脈拍の変化量の基準値として0が設定されている。 In FIG. 5, three reference values α, β, and γ are set for the amount of change in GSR in order to determine the combination of the amounts of change. These reference values α, β, and γ are larger in the order of α, β, and γ. Also, 0 is set as a reference value for the amount of change in skin temperature and pulse.
GSR、皮膚温度および脈拍の変化量の組合せによる心理状態レベルの分類の一例を説明する。 An example of classification of psychological state levels by a combination of GSR, skin temperature, and pulse variation will be described.
例えば、GSRの変化量ΔGが基準値γ以上であり、皮膚温度の変化量ΔTが0未満であり、かつ、脈拍の変化量ΔHが0以上である場合、心理状態レベルが1に分類されている。 For example, if the GSR change amount ΔG is greater than or equal to the reference value γ, the skin temperature change amount ΔT is less than 0, and the pulse change amount ΔH is greater than or equal to 0, the psychological state level is classified as 1. Yes.
また、GSRの変化量ΔGが基準値α以下であり、皮膚温度の変化量ΔTが0以上であり、かつ、脈拍の変化量ΔHが0未満である場合、心理状態レベルが6に分類されている。 When the GSR change amount ΔG is equal to or less than the reference value α, the skin temperature change amount ΔT is 0 or more, and the pulse change amount ΔH is less than 0, the psychological state level is classified as 6. Yes.
図2の制御部10は、上述のように心理状態推定テーブル格納部122に記憶された心理状態推定テーブルおよび生理量データ測定部20により測定された使用者のGSR、皮膚温度および脈拍の生理量データに基づいて使用者の心理状態レベルを推定する。
The
なお、上記の基準値α,β,γは予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。 The reference values α, β, and γ may be set by setting specific values in advance, or may be set for each user according to characteristics such as the health condition and personality of each user. .
図6は、図3の個人情報データ格納部123に記憶される内容の一例を示す図である。図6では、個人情報データ格納部123の記憶内容の一例として、使用者の通信相手の個人情報データが表されている。
FIG. 6 is a diagram showing an example of contents stored in the personal information
図6の個人情報データにおいては、使用者の通信相手ごとに、通信相手の性別、使用者と通信相手との関係および通信相手の電話番号が対応付けされている。なお、個人情報データには、これら、性別、関係および電話番号に加えて、通信相手ごとに通信相手の電子メールアドレスが対応付けされてもよい。 In the personal information data of FIG. 6, for each communication partner of the user, the gender of the communication partner, the relationship between the user and the communication partner, and the telephone number of the communication partner are associated. The personal information data may be associated with the communication partner's e-mail address for each communication partner in addition to the gender, relationship, and telephone number.
図2の制御部10は、上述のように個人情報データ格納部123に記憶された個人情報データに基づいて着信時または電子メール受信時等にその発信元の通信相手を特定することができる。すなわち、携帯電話機100の着信時において、その発信元から通信相手の電話番号のデータが送られる場合に、制御部10は上記個人情報データに基づいて通信相手を識別することができる。
The
図7は、図3の履歴データ格納部124に記憶される内容の一例を示す図である。図7では、履歴データ格納部124の記憶内容の一例として、使用者の通信相手ごとに、使用者とその通信相手との間で行われた過去の通信に関する情報が対応付けされた履歴データが表されている。
FIG. 7 is a diagram illustrating an example of contents stored in the history
図7によれば、使用者とその通信相手との間で行われた過去の通信に関する情報は、例えば、使用者の過去の通信時に推定された心理状態レベルの履歴の平均(以下、心理状態レベル履歴平均と呼ぶ。)および使用者の過去の通信の記録である。ここでは、通信相手ごとに対応付けされた過去の通信の記録は、前回の通信時の通信日時、通信時間、通信時に推定された心理状態レベルおよび通信時の音声データである。なお、音声データの記憶方法については、他の実施の形態において後述する。 According to FIG. 7, the information regarding the past communication performed between the user and the communication partner is, for example, the average of the history of the psychological state level estimated at the time of the user's past communication (hereinafter referred to as the psychological state). Called level history average.) And a record of the user's past communications. Here, the past communication records associated with each communication partner are the communication date and time, the communication time, the psychological state level estimated at the time of communication, and the voice data at the time of communication. Note that a method for storing audio data will be described later in another embodiment.
図7の例では、通信相手AAに心理状態レベル履歴平均として6が対応付けされている。これは、使用者と通信相手AAとの過去の通信時に使用者の心理状態が平均して心理状態レベル6、すなわち、非常にリラックスしている状態であったことを表している。また、通信相手AAに対する過去の通信の記録は、前回の通信時の通信日時が○月△日□時▽分であり、通信時間が○分であり、通信時に推定された心理状態が心理状態レベル5であることを表している。さらに、通信相手AAの前回の通信時の音声データAA1が記憶されていることを表している。
In the example of FIG. 7, 6 is associated with the communication partner AA as the psychological state level history average. This represents that the average psychological state of the user during the past communication between the user and the communication partner AA was a
これにより、図2の制御部10は、履歴データ格納部124に記憶された履歴データに基づいて通信相手ごとに使用者の過去の心理状態レベル履歴平均および過去の通信の記録を特定することができる。
Thereby, the
本実施の形態において制御部10は、使用者が通信を行うごとに図7の履歴データの内容を更新する。そして、制御部10は更新された履歴データに基づいて図4の着信時動作設定テーブルの内容を更新する。その結果、本実施の形態に係る携帯電話機100は、使用者の通信相手に応じた各種動作を行う。
In the present embodiment, the
なお、制御部10は、図2のメイン表示部13、サブ表示部14、スピーカ15aおよび通話用スピーカ15b等を制御し、履歴データの内容を表示または音声出力してもよい。この場合、使用者は通信相手ごとに過去の通信に関する情報を知ることができる。
The
図3の音声解析テーブル格納部125には、使用者の通信時の音声データを解析するためのテーブルが記憶されている。また、補正データ記憶部126には使用者の生理量データを周囲の環境に応じて補正するためのテーブルが記憶されている。これら音声解析テーブル格納部125および補正データ記憶部126に記憶される内容の詳細については他の実施の形態において後述する。
The voice analysis
図8および図9は、使用者が第1の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。
FIG. 8 and FIG. 9 are diagrams illustrating examples of contents displayed on the
使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。
The user operates the
図8(a)は、使用者が所望の相手に電話をかけた場合(発信時)のメイン表示部13の表示例を表す。図8(b)は、使用者の携帯電話機100に電話がかかってきた場合(着信時)のメイン表示部13の表示例を表す。メイン表示部13には、発信または着信の旨および電話番号が表示される。
FIG. 8A shows a display example of the
携帯電話機100のメイン表示部13が図8(a)の表示状態において、使用者が入力操作部11を操作することにより、または、使用者からの発信を受けた相手が自己の携帯電話機を操作することにより、通話が可能となる。
When the
図8(c)は、通話中のメイン表示部13の表示例を表す。メイン表示部13には使用者が通話している際に現在の通話時間が表示され、使用者の生体情報を検出している旨が表示される。その後、使用者またはその通話相手が携帯電話機100の入力操作部11を操作することにより通話が終了する。
FIG. 8C shows a display example of the
図9(d)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話終了時に使用者の通話時間が表示され、通話中に検出された生体情報に基づいて推定される使用者の心理状態が表示される。
FIG. 9D shows a display example of the
図2の制御部10は、メイン表示部13により図9(d)の通話時間および心理状態を表示した後、通話中に検出された生体情報に基づいて上述の着信時動作設定テーブルの内容を更新する。そして、更新された着信時動作設定テーブルの内容をメイン表示部13に表示する。
The
図9(e)は、図9(d)の表示後にメイン表示部13に表示される着信時動作設定テーブルの内容の表示例である。これにより、使用者は携帯電話機100の着信時の動作を知ることができる。
FIG. 9E is a display example of the contents of the incoming call operation setting table displayed on the
図9(e)の例では、使用者は、図4の着信時動作設定テーブルとして、通話相手(図4においては通信相手)ABに着信時動作グループP1が設定されたことを知ることができる。 In the example of FIG. 9 (e), the user can know that the incoming call operation group P1 is set in the call partner (communication partner in FIG. 4) AB as the incoming call operation setting table of FIG. .
図9(f)は、上記の設定が行われた後、再度、使用者が通話相手ABに電話をかけた場合(発信時)のメイン表示部13の表示例を表す。図9(g)は、上記の設定が行われた後、使用者の携帯電話機100に通話相手ABから電話がかかってきた場合(着信時)のメイン表示部13の表示例を表す。
FIG. 9F illustrates a display example of the
特定の通話相手に対して着信時動作グループの設定がなされた場合、メイン表示部13には、着信時動作グループにより定められた表示パターン(例えば、図4の表示パターン等)、発信または着信の旨および電話番号が表示される。
When an incoming call operation group is set for a specific call partner, the
例えば、特定の通話相手に対する過去の心理状態が常に「非常に緊張している」状態であると推定されていた場合、その相手に対する発信時およびその相手からの着信時には、メイン表示部13にはリラックスして話すべき旨が表示される。
For example, if it is estimated that the past psychological state for a specific call partner is always “very tense”, the
本実施の形態に係る通信プログラムについて説明する。図10および図11は、第1の実施の形態に係る通信プログラムの一例を示すフローチャートである。 A communication program according to the present embodiment will be described. 10 and 11 are flowcharts illustrating an example of the communication program according to the first embodiment.
本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。
According to the communication program according to the present embodiment, the
初めに、図2の制御部10は、使用者による入力操作部11の操作により他の電話機に対して発信する旨の指令信号を受けたか否かを判別する(ステップS10)。この場合の指令信号には通信相手の電話番号が含まれる。
First, the
制御部10は発信する旨の指令信号を受けた場合、その指令信号に基づいて通信相手を識別する(ステップS11)。
When the
次に、制御部10は発信先の通信相手に対応する表示パターンをメイン表示部13に表示し、通信相手に対応する発光パターンで図2のサブ表示部14を発光させる(ステップS12)。そして、制御部10は、通信相手から応答があったか否かを判別する(ステップS13)。制御部10は、応答があった場合、生理量データの測定を開始する(ステップS18)。
Next, the
一方、制御部10は、上記ステップS10において発信する旨の指令信号を受けない場合、他の電話機からの着信があるか否かを判別する(ステップS14)。この場合の他の電話機から送信されるデータには通信相手の電話番号が含まれる。
On the other hand, the
制御部10は、他の電話機からの着信がない場合、上記ステップS10の動作を繰り返す。一方、制御部10は、他の電話機からの着信があった場合、他の電話機から送信されるデータに基づいて通信相手を識別する(ステップS15)。
When there is no incoming call from another telephone, the
次に、制御部10は発信先の通信相手に対応する表示パターンをメイン表示部13に表示させ、通信相手に対応する発光パターンで図2のサブ表示部14を発光させ、通信相手に対応するメロディパターンでスピーカ15aから音声を出力させる(ステップS16)。そこで、制御部10は、使用者が入力操作部11を操作することにより、その着信に対して応答する旨の指令信号を受けたか否かを判別する(ステップS17)。制御部10は、応答があった場合、上記ステップS18の動作を行う。
Next, the
制御部10は、上記ステップS18の動作を行いつつ、通信が終了したか否かを判別する(ステップS19)。
The
制御部10は、通信が終了しない場合、上記ステップS18の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定を停止し、測定された生理量データに基づいて通信中の心理状態を推定する(ステップS20)。その後、制御部10は、推定された使用者の通信中の心理状態をメイン表示部13に表示する(ステップS21)。
最後に、制御部10は、識別された通信相手および心理状態の推定結果に基づいて履歴データの内容を更新する(ステップS22)。そして、制御部10は、更新された履歴データの内容に基づいて着信時動作設定テーブルの内容を更新する(ステップS23)。ステップS23の動作を終了した制御部10は、再び上記ステップS10の動作を繰り返す。
Finally, the
ここで、図7の履歴データの内容の更新動作について説明する。上記ステップS22において、制御部10は測定された生理量データに基づき推定された心理状態レベルを履歴データ格納部124に記憶する。そして、制御部10は通信相手ごとに記憶された過去の心理状態レベルおよび現在推定された心理状態レベルから、その通信相手との通信時における心理状態レベルの平均値を算出する。このように算出された平均値が、上述の心理状態レベル履歴平均である。
Here, the update operation of the contents of the history data in FIG. 7 will be described. In step S22, the
また、制御部10は、現在行われた通信の内容(例えば、通信時の通信日時、通信時間、通信時に推定された心理状態レベルおよび通信時の音声データ等)に基づいて過去の通信の記録を更新する。
In addition, the
これにより、通信が行われるごとに制御部10により、図7の履歴データの内容が更新される。
Thus, the contents of the history data in FIG. 7 are updated by the
以上、本実施の形態に係る通信装置においては、使用者による入力操作部11の操作に基づいて制御部10により携帯電話機100の各構成部の動作が制御される。また、使用者が携帯電話機100の入力操作部11により通信相手(通話相手)に対する通信に関連する操作を行っているときまたは使用者が無線通信部30およびアンテナ31により通信相手に通信を行っているときに、使用者の生体情報が検出されるように生理量データ測定部20、すなわち、電極20a,20d、サーミスタ20bおよびフォトセンサ20cが制御部10により制御される。したがって、使用者が意識する通信相手に依存する生体情報を取得することができる。
As described above, in the communication device according to the present embodiment, the operation of each component of
また、本実施の形態では、使用者が無線通信部30およびアンテナ31を通じて任意の通話相手と音声による通話を行っているときに、使用者の生体情報が検出される。それにより、通話相手に依存する生体情報を取得することができる。
In the present embodiment, the user's biological information is detected when the user is making a voice call with any other party through the
本実施の形態においては、生理量データ測定部20により検出された生体情報に基づいて使用者の心理状態が制御部10により推定される。それにより、通信相手に依存した使用者の心理状態を認識することができる。
In the present embodiment, the
また、生理量データ測定部20により検出された生体情報に基づいて使用者の緊張度合いが制御部10により推定される。それにより、通信相手に依存した使用者の緊張度合いを認識することができる。
Further, the
その上、本実施の形態においては、制御部10により推定された使用者の心理状態を示す情報がメイン表示部13により表示される。それにより、使用者は、通信相手に依存する心理状態を容易に認識することができる。
In addition, in the present embodiment, information indicating the psychological state of the user estimated by the
また、本実施の形態では、制御部10により推定された使用者の心理状態がメモリ12の履歴データ格納部124により通信相手ごとに記憶される。それにより、使用者は、記憶手段の記憶内容に基づいて通信相手に依存する心理状態および心理状態の履歴を容易に確認することができる。
In the present embodiment, the user's psychological state estimated by the
さらに、本実施の形態では、メモリ12に記憶された使用者の心理状態に基づいて携帯電話機100の着信動作が制御される。それにより、使用者は、着信時に通信相手に依存する心理状態を着信動作により容易に認識することができる。
Furthermore, in the present embodiment, the incoming call operation of
本実施の形態に係る携帯電話機100においては、第2の筐体2の側面に生理量データ測定部20(電極20a,20dおよびフォトセンサ20c)が設けられている。これにより、使用者は、第2の筐体2を片手で保持しつつ他の手で入力操作部11を操作することができる。このとき、使用者の手が第2の筐体2の側面の生理量データ測定部20に触れることにより使用者の生体情報が検出される。
In
したがって、使用者が意識することなく生体情報を簡単に検出することができる。 Therefore, it is possible to easily detect biological information without the user being aware of it.
なお、第2の筐体2の前面、背面、一方の側面および他方の側面は、それぞれ平面状に限らず、曲面状に形成されてもよく、前面、背面、一方の側面および他方の側面のうち2以上が曲面で連続していてもよい。
In addition, the front surface, the back surface, the one side surface, and the other side surface of the
図1に示すように、本実施の形態に係る携帯電話機100の生理量データ測定部20は、電極20a,20d、サーミスタ20b、フォトセンサ20cを含むが、電極20a,20d、サーミスタ20b、フォトセンサ20cの全てを含む形態に限られるものではない。例えば、生理量データ測定部20は電極20a,20d、フォトセンサ20cを含んでもよいし、電極20a,20dのみを含んでもよい。この場合、検出される生理量データに応じて上述の心理状態推定テーブルを設定する必要がある。
As shown in FIG. 1, the physiological
また、生理量データ測定部20は使用者の生理量データとしてGSR、皮膚温度、脈拍を測定するが、測定する生理量データはGSR、皮膚温度、脈拍に限られるものではない。例えば、心拍、血圧、血流量、呼吸などでもよい。この場合も、検出される生理量データに応じて上述の心理状態推定テーブルを設定する必要がある。
The physiological
上記では、心理状態の推定をするために図5の心理状態推定テーブルを用いたが、生体情報に基づく使用者の心理状態の推定は、図5の心理状態推定テーブルを用いることに限定されない。生体情報を用いるのであれば、生理量データのみを用いて他の推定テーブルにより使用者の心理状態を推定してもよいし、音声データのみを用いて使用者の心理状態を推定してもよい。さらに、他の実施の形態において後述するが、生理量データおよび音声データをともに用いて使用者の心理状態を推定してもよい。 In the above description, the psychological state estimation table of FIG. 5 is used to estimate the psychological state. However, the estimation of the user's psychological state based on the biological information is not limited to using the psychological state estimation table of FIG. If biometric information is used, the user's psychological state may be estimated using other estimation tables using only physiological data, or the user's psychological state may be estimated using only voice data. . Further, as will be described later in another embodiment, the psychological state of the user may be estimated using both physiological data and audio data.
また、上記では、心理状態として使用者の緊張の度合いを推定しているが、これに限らず、他の実施の形態において後述するが、生体情報に基づいて使用者のうそを推定したり、喜怒哀楽を推定してもよい。この場合、使用者は自己の心理状態について様々な情報を得ることができる。 Further, in the above, the degree of tension of the user is estimated as a psychological state, but not limited to this, as described later in other embodiments, the user's lie is estimated based on biological information, You may estimate emotions. In this case, the user can obtain various information about his / her psychological state.
さらに、上記では、使用者の携帯電話機100による通話中に、その通話時間を通じて生体情報を検出しているが、生体情報の検出はこれに限られない。他の実施の形態において後述するが、例えば、携帯電話機100は、使用者の通話中でかつ使用者が質問に対して回答している場合にのみ生体情報を検出してもよい。この場合、使用者は自己の回答時の生体情報に基づいて心理状態を推定することで、その回答時または発声時の自己の心理状態について様々な情報を得ることができる。
Furthermore, in the above description, the biological information is detected through the call time during a call by the user's
携帯電話機100は、通話中でなくても、使用者の生体情報を検出してもよい。他の実施の形態において後述するが、例えば、携帯電話機100は使用者が電子メールを作成する際に使用者の生体情報を検出してもよい。この場合、使用者は自己の特定の通信相手への電子メールの作成時の心理状態についての情報を得ることができる。
The
他の実施の形態において後述するが、携帯電話機100は、検出された生体情報または推定された心理状態についての情報を他の通信装置に送信してもよい。
As will be described later in another embodiment, the
(第2の実施の形態)
第2の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Second Embodiment)
The
本実施の形態に係る携帯電話機100には、図3の音声解析テーブル格納部125に後述の音声解析テーブルおよび心理状態調整テーブルが記憶されている。
携帯電話機100は、使用者の会話を音声データとして録音する。そして、携帯電話機100は、録音された音声データを解析することによりパラメータとして、発音のトーン(音調)、抑揚およびジッタ(かすれ具合)を得る。なお、パラメータは、トーン、抑揚およびジッタに限られず、発音の大きさまたは発音の速度等であってもよい。
The
本実施の形態において、図2の制御部10は、得られたパラメータ(発音のトーン、抑揚およびジッタ等)および音声解析テーブルに基づいてその音声データに関する後述の音声レベルを決定する。
In the present embodiment, the
制御部10は決定された音声レベルおよび心理状態調整テーブルに基づいて後述の心理状態レベル調整値を決定する。そして、制御部10は、決定された心理状態レベル調整値に基づいて生理量データにより推定された上述の心理状態レベルの調整を行う。その結果、本実施の形態に係る携帯電話機100においては、生理量データおよび音声データをともに用いることにより使用者の心理状態を推定することができる。
The
なお、生理量データにより推定された心理状態レベルを音声データを用いて調整せずに、生理量データおよび音声データに基づいて使用者の心理状態を推定してもよい。 Note that the psychological state of the user may be estimated based on the physiological data and the voice data without adjusting the psychological state level estimated from the physiological data using the voice data.
さらに、本実施の形態において、制御部10は調整された心理状態レベルおよび後述のリラックス動作設定テーブルに基づいて図2の各構成部の動作を制御する。これにより、使用者は携帯電話機100により自己の心理状態に応じた緊張の弛緩が促される。以下、使用者に対する緊張の弛緩をリラクゼーションと呼ぶ。
Furthermore, in this Embodiment, the
音声解析テーブルおよび心理状態調整テーブルについて説明する。図12は、図3の音声解析テーブル格納部125に記憶される内容の一例を示す図である。
The voice analysis table and the psychological state adjustment table will be described. FIG. 12 is a diagram illustrating an example of contents stored in the voice analysis
以下の説明において、音声解析テーブル格納部125には図12に示す音声解析テーブルおよび心理状態調整テーブルに加えて、音声データを解析することにより得られる発音のトーン、抑揚およびジッタの各々について所定の基準値が記憶されている。
In the following description, in addition to the voice analysis table and the psychological state adjustment table shown in FIG. 12, the voice analysis
図12(a)は、音声解析テーブル格納部125に記憶される音声解析テーブルの一例を表す。図12(a)によれば、音声レベルが、音声データより得られる発音のトーン、抑揚およびジッタの各々の所定の基準値に対する大小関係に基づいて1〜8に分類されている。
FIG. 12A shows an example of a voice analysis table stored in the voice analysis
上述の各種基準値は、それぞれ予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。 The various reference values described above may be set by determining specific values in advance, or may be set for each user according to characteristics such as the health condition and personality of each user.
ここで、音声レベルは、音声データから推定される使用者の緊張の度合いを表す。図12(a)の例において、使用者の緊張の度合いは音声レベルが小さくなるにつれて大きいことを表す。 Here, the voice level represents the degree of tension of the user estimated from the voice data. In the example of FIG. 12A, the degree of tension of the user is shown to increase as the sound level decreases.
例えば、トーンが基準値以上であり、抑揚が基準値以上であり、かつ、ジッタが基準値以上である場合、音声レベルは使用者が非常に緊張している旨を示す1に分類される。 For example, if the tone is above the reference value, the inflection is above the reference value, and the jitter is above the reference value, the audio level is classified as 1 indicating that the user is very nervous.
図12(b)は、音声解析テーブル格納部125に記憶される心理状態調整テーブルの一例を表す。図12(b)によれば、心理状態調整テーブルにおいては、上述の音声レベルに応じて心理状態レベル調整値−1、0および1が対応付けられている。この心理状態レベル調整値は、制御部10が生理量データおよび図5の心理状態推定テーブルに基づいて推定された心理状態レベルを調整するために用いられる。
FIG. 12B shows an example of a psychological state adjustment table stored in the voice analysis
例えば、制御部10は、図12(a)の音声解析テーブルに基づいて音声レベルが1であると決定した場合、図12(b)の心理状態レベル調整テーブルに基づいて心理状態レベル調整値を−1として決定する。これにより、制御部10は、生理量データおよび図5の心理状態推定テーブルに基づいて推定された心理状態レベルを−1で調整する。生理量データにより推定された心理状態レベルが4の場合、調整後の心理状態レベルは3となる。
For example, when the
リラックス動作設定テーブルについて説明する。図13は、図3の動作設定記憶部121に記憶される内容の一例を示す図である。ここでは、動作設定記憶部121に記憶される内容の一例として、リラックス動作設定テーブルが表されている。
The relaxation operation setting table will be described. FIG. 13 is a diagram illustrating an example of contents stored in the operation setting
図13のリラックス動作設定テーブルでは、上述の調整後の心理状態レベルごとにメッセージ表示パターン、画像表示パターンおよびリラックス音楽パターンが設定されている。 In the relaxing operation setting table of FIG. 13, a message display pattern, an image display pattern, and a relaxing music pattern are set for each adjusted psychological state level.
ここで、メッセージ表示パターンとは使用者へのリラクゼーション時に図2のメイン表示部13が表示する文字のパターンをいい、画像表示パターンとは使用者へのリラクゼーション時に図2のメイン表示部13が表示する画像のパターンをいい、リラックス音楽パターンとは使用者へのリラクゼーション時に図2のスピーカ15aが再生する音声(音楽)のパターンをいう。
Here, the message display pattern is a character pattern displayed on the
図13の例では、推定される心理状態レベル1に対して、メッセージ表示パターンとして「深呼吸〜一休みいれてリラーックス」が設定され、画像表示パターンとして「自然の風景」が設定され、リラックス音楽パターンとして「せせらぎの音」が設定されている。
In the example of FIG. 13, for the estimated
図14および図15は、使用者が第2の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。
14 and 15 are diagrams illustrating examples of contents displayed on the
使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。
The user operates the
図14(a)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話時間が表示されるとともに終了ボタン131およびメンタルボタン132が表示される。
FIG. 14A shows a display example of the
ここで、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131およびメンタルボタン132の選択を行うことができる。
Here, the user can select the
図14(b)は、使用者がメンタルボタン132を選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話中に検出された生体情報に基づいて推定される使用者の心理状態が表示されるとともに終了ボタン131、一言ボタン132aおよび音楽ボタン132bが表示される。
FIG. 14B shows a display example of the
使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131、一言ボタン132aおよび音楽ボタン132bの選択を行うことができる。
The user can select the
図15(c)は、使用者が一言ボタン132aを選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の緊張を弛緩するためのメッセージ表示パターンが表示されるとともに終了ボタン131および音楽ボタン132bが表示される。
FIG. 15C shows a display example of the
使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131および音楽ボタン132bの選択を行うことができる。
The user can select the
図15(d)は、使用者が音楽ボタン132bを選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の緊張を弛緩するための画像表示パターンが表示されるとともに終了ボタン131および一言ボタン132aが表示される。
FIG. 15D illustrates a display example of the
使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131および音楽ボタン132bの選択を行うことができる。
The user can select the
また、メイン表示部13が図15(d)の表示状態においては、図2のスピーカ15aから所定のリラックス音楽パターンが再生される。
Further, when the
上記において、使用者が図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131を選択した場合、使用者へのリラクゼーション、すなわちメッセージ表示パターンまたは画像表示パターンの表示動作およびリラックス音楽パターンの再生動作は終了する。
In the above, when the user selects the
なお、使用者の通話終了前(例えば、発信時、着信時および通話時)において、メイン表示部13には図8(a),(b),(c)に示す内容が表示されてもよい。
Note that the contents shown in FIGS. 8A, 8 </ b> B, and 8 </ b> C may be displayed on the
また、本実施の形態において、使用者へのリラクゼーションは第1の実施の形態に示すように通信相手(通話相手)ごとに設定されてもよいし、通信相手ごとに設定されなくてもよい。 In the present embodiment, the relaxation to the user may be set for each communication partner (call partner) as shown in the first embodiment, or may not be set for each communication partner.
本実施の形態に係る通信プログラムについて説明する。図16〜図18は、第2の実施の形態に係る通信プログラムの一例を示すフローチャートである。 A communication program according to the present embodiment will be described. 16 to 18 are flowcharts illustrating an example of a communication program according to the second embodiment.
本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。
According to the communication program according to the present embodiment, the
初めに、図2の制御部10は、使用者による入力操作部11の操作によりリラックスモードをオンする旨の指令信号を受けたか否かを判別する(ステップS30)。リラックスモードのオンとは、携帯電話機100が使用者にリラクゼーションを促す機能を動作させる旨をいう。
First, the
制御部10は、リラックスモードをオンする旨の指令信号を受けた場合、使用者が入力操作部11を操作することにより他の電話機に対する発信の旨の指令信号を受けたか否かを判別する(ステップS31)。
When receiving a command signal for turning on the relaxation mode, the
制御部10は、発信の旨の指令信号を受けた場合、その指令信号に基づく所定の動作を行い、通信相手から応答があったか否かを判別する(ステップS33)。制御部10は、応答があった場合、生理量データの測定および音声データの録音を開始する(ステップS34)。
When the
制御部10は、上記ステップS31において発信する旨の指令信号を受けない場合、他の電話機からの着信があるか否かを判別する(ステップS32)。
When the
制御部10は、他の電話機からの着信がない場合、上記ステップS30の動作を繰り返す。一方、制御部10は他の電話機からの着信があった場合、その着信に基づく所定の動作を行い、着信に対して応答があったか否かを判別する(ステップS33)。制御部10は、応答があった場合、上記ステップS34の動作を行う。
When there is no incoming call from another telephone, the
制御部10は上記ステップS34の動作を行いつつ、通信が終了したか否かを判別する(ステップS35)。
The
制御部10は、通信が終了しない場合、上記ステップS34の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了する(ステップS35b)。
When the communication does not end, the
次に、制御部10は、使用者が入力操作部11を操作することによりメンタルボタン132が選択されたか否かを判別する(ステップS36)。制御部10は、メンタルボタン132が選択された場合、測定された生理量データおよび録音された音声データに基づいて使用者の通信中の心理状態を推定する(ステップS37)。そして、制御部10は、推定結果、すなわち、使用者の心理状態をメイン表示部13に表示する(ステップS38)。
Next, the
続いて、制御部10は、使用者が入力操作部11を操作することにより一言ボタン132aが選択されたか否かを判別する(ステップS39)。
Subsequently, the
制御部10は、一言ボタン132aが選択されなかった場合、使用者の入力操作部11の操作により音楽ボタン132bが選択されたか否かを判別する(ステップS41)。一方、制御部10は、上記ステップS39において、一言ボタンが選択された場合、図3の動作設定記憶部121に記憶されたリラックス動作設定テーブルに基づくメッセージ表示パターンをメイン表示部13に表示する(ステップS40)。そして、制御部10は、上記ステップS41の動作を行う。
When the
上記ステップS41において、制御部10は、音楽ボタンが選択されなかった場合、使用者が入力操作部11を操作することにより終了ボタン131が選択されたか否かを判別する(ステップS43)。一方、制御部10は、音楽ボタン132bが選択された場合、図3の動作設定記憶部121に記憶されたリラックス動作設定テーブルに基づく画像表示パターンをメイン表示部13に表示し、リラックス音楽パターンをスピーカ15aから再生する(ステップS42)。そして、制御部10は、上記ステップS43の動作を行う。
In step S41, when the music button is not selected, the
上記ステップS43において、制御部10は、終了ボタン131が選択された場合、上記一連の動作を終了する。一方、制御部10は、終了ボタンが選択されなかった場合、上記ステップS39の動作を繰り返す。
In step S43, when the
ところで、上記ステップS36において、制御部10はメンタルボタン132が選択されなかった場合、上記ステップS43の動作を行う。
Incidentally, in step S36, when the
また、制御部10は、上記ステップS30において、リラックスモードがオンしない場合、上記ステップS31と同様に、制御部10は、使用者が入力操作部11を操作することにより他の電話機に対する発信の旨の指令信号を受けたか否かを判別する(ステップS50)。
If the relax mode is not turned on in step S30, the
制御部10は、発信の旨の指令信号を受けた場合、その指令信号に基づく所定の動作を行い、通信相手から応答があったか否かを判別する(ステップS52)。次に、制御部10は、通信相手から応答があった場合、通信が終了したか否かを判別する(ステップS53)。制御部10は、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。
When the
上記ステップS50において、制御部10は、発信の旨の指令信号を受けない場合、他の電話機からの着信があるか否かを判別する(ステップS51)。
In step S50, when the
制御部10は、着信があった場合、その着信に対する所定の動作を行い、上記ステップS52の動作を行う。一方、制御部10は、上記ステップS51において、着信がない場合、上記ステップS30の動作を繰り返す。
When there is an incoming call, the
以上、本実施の形態においては、制御部10により推定された使用者の心理状態に基づいて使用者の緊張を緩和させるための使用者へのリラクゼーションに関する情報がメイン表示部13により表示され、スピーカ15aにより音声出力される。それにより、通信相手に依存する使用者の緊張が緩和される。
As mentioned above, in this Embodiment, the information regarding the relaxation to a user for relieving a user's tension based on the user's mental state estimated by the
上記では、心理状態の推定をするために図5の心理状態推定テーブルおよび図12の心理状態調整テーブルを用いたが、生体情報に基づく使用者の心理状態の推定は、図5の心理状態推定テーブルおよび図12の心理状態調整テーブルを用いることに限定されない。生体情報を用いるのであれば、生理量データのみを用いて他の推定テーブルにより使用者の心理状態を推定してもよいし、音声データのみを用いて使用者の心理状態を推定してもよい。 In the above description, the psychological state estimation table of FIG. 5 and the psychological state adjustment table of FIG. 12 are used to estimate the psychological state. It is not limited to using a table and the psychological state adjustment table of FIG. If biometric information is used, the user's psychological state may be estimated using other estimation tables using only physiological data, or the user's psychological state may be estimated using only voice data. .
また、上記では、心理状態として使用者の緊張の度合いを推定しているが、これに限らず、他の実施の形態において後述するが、生体情報に基づいて使用者のうそを推定したり、喜怒哀楽を推定してもよい。この場合、使用者は自己の心理状態について様々な情報を得ることができる。 Further, in the above, the degree of tension of the user is estimated as a psychological state, but not limited to this, as described later in other embodiments, the user's lie is estimated based on biological information, You may estimate emotions. In this case, the user can obtain various information about his / her psychological state.
さらに、上記では、携帯電話機100は、使用者の緊張の度合いを心理状態として推定し、推定された心理状態に基づいて使用者へのリラクゼーションを行うが、リラクゼーションの方法は上記に限定されない。
Furthermore, in the above, the
例えば、携帯電話機100は、推定された心理状態に基づいて図13のメッセージ表示パターンを表示することのみにより使用者へのリラクゼーションを行ってもよいし、図13の画像表示パターンを表示することのみにより使用者へのリラクゼーションを行ってもよいし、図13のリラックス音楽パターンを再生することのみにより使用者へのリラクゼーションを行ってもよい。
For example, the
本実施の形態では、心理状態の変化としてリラクゼーションを行っているが、心理状態の変化はこれに限らない。例えば、携帯電話機100は、使用者の気分の落ち込みを解消するために、使用者の気分を活性化させるための情報を出力してもよい。これにより、使用者の気分の活性化が図られる。
In the present embodiment, relaxation is performed as a change in the psychological state, but the change in the psychological state is not limited to this. For example, the
(第3の実施の形態)
第3の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Third embodiment)
The
本実施の形態に係る携帯電話機100には、図3の動作設定記憶部121に後述のなごみ動作設定テーブルが記憶されている。
In
本実施の形態において、携帯電話機100は、使用者の通話中に使用者の生体情報として生理量データを測定し、測定された生理量データに基づいて使用者の心理状態を推定する。
In the present embodiment, the
そして、携帯電話機100は、使用者の通話中に推定された心理状態および後述のなごみ動作設定テーブルに基づいて使用者の心理状態に応じて使用者の心理状態をなごませるように動作する。以下、携帯電話機100の使用者の心理状態をなごませる動作をなごみ動作と呼ぶ。なごみ動作については後述する。
Then, the
なごみ動作設定テーブルについて説明する。図19は、図3の動作設定記憶部121に記憶される内容の一例を示す図である。ここでは、動作設定記憶部121に記憶される内容の一例として、なごみ動作設定テーブルが表されている。
The nagomi operation setting table will be described. FIG. 19 is a diagram illustrating an example of contents stored in the operation setting
図19のなごみ動作設定テーブルでは、生理量データに基づいて推定される心理状態レベルごとになごみ音楽パターンおよびなごみことばパターンが設定されている。 In the garbage operation setting table of FIG. 19, a garbage music pattern and a garbage word pattern are set for each psychological state level estimated based on physiological data.
ここで、なごみ音楽パターンとは使用者に対するなごみ動作時に図2の通話用スピーカ15bが再生する音声のパターンをいい、なごみことばパターンとは使用者に対するなごみ動作時に図2の通話用スピーカ15bが再生する音声のパターンをいう。
Here, the nagomi music pattern refers to a voice pattern that is reproduced by the
図19の例では、推定される心理状態レベル1および心理状態レベル2に対して、なごみ音楽パターンとして「せせらぎの音」が設定され、なごみことばパターンとして「ひといき、いれよう!」が設定されている。また、推定される心理状態レベル3および心理状態レベル4に対して、なごみことばパターンとして「ハイ、深呼吸して」が設定されている。
In the example of FIG. 19, for the estimated
図20は、使用者が第3の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。
FIG. 20 is a diagram illustrating an example of contents displayed on the
使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。
The user operates the
図20(a)は、使用者の通話中に、通話用スピーカ15bからなごみ音楽パターンが再生される場合のメイン表示部13の表示例を表す。メイン表示部13には、なごみ音楽パターンおよびなごみことばパターンが再生されている旨が表示されるとともに音量ボタン134およびオフボタン135が表示される。
FIG. 20A shows a display example of the
図20(b)は、使用者の通話中に、通話用スピーカ15bからなごみことばパターンが再生される場合のメイン表示部13の表示例を表す。メイン表示部13には、なごみ音楽パターンが再生されている旨が表示されるとともに音量ボタン134およびオフボタン135が表示される。
FIG. 20B shows a display example of the
図20(a)および図20(b)において、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより音量ボタン134およびオフボタン135の選択を行うことができる。
20A and 20B, the user can select the
ここで、使用者は入力操作部11を操作することにより音量ボタン134を選択した場合、通話用スピーカ15bから再生されるなごみ音楽パターンおよびなごみことばパターンの音量の設定を行うことができる。
Here, when the user selects the
一方、使用者は入力操作部11を操作することによりオフボタン135を選択した場合、携帯電話機100の使用者へのなごみ動作を終了させることができる。
On the other hand, when the user selects the
図20(c)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話時間が表示されるとともに、なごみ動作を継続するか否かの問いかけ、はいボタン136aおよびいいえボタン136bが表示される。
FIG. 20C illustrates a display example of the
使用者は、メイン表示部13に表示されるなごみ動作を継続するか否かの問いかけに対して、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより、はいボタン136aおよびいいえボタン136bのいずれかを選択する。
The user operates the cursor button KK and the decision button KS of FIG. 1 in response to the question as to whether or not to continue the garbage operation displayed on the
使用者は入力操作部11を操作することによりはいボタン136aを選択した場合、携帯電話機100のなごみ動作を継続させることができる。一方、使用者は入力操作部11を操作することによりいいえボタン136bを選択した場合、携帯電話機100のなごみ動作を終了させることができる。
When the user selects the
図20(d)および図20(e)は、メイン表示部13が図20(c)の表示状態において、使用者がはいボタン136aを選択した場合のメイン表示部13の表示例を表す。
20D and 20E show display examples of the
図20(d)において、メイン表示部13には、通話用スピーカ15bからなごみ音楽パターンおよびなごみことばパターンが再生されている旨が表示されるとともに終了ボタン131が表示される。この場合、使用者は通話用スピーカ15bから再生されるなごみ音楽パターンおよびなごみことばパターンを聞くことができる。
In FIG. 20D, the
図20(e)において、メイン表示部13には、通話用スピーカ15bからなごみことばパターンが再生されている旨が表示されるとともに終了ボタン131が表示される。この場合、使用者は通話用スピーカ15bから再生されるなごみことばパターンを聞くことができる。
In FIG. 20 (e), the
使用者はメイン表示部13が図20(c)の表示状態において、使用者が図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131を選択した場合、携帯電話機100のなごみ動作を終了させることができる。
When the user selects the
なお、使用者の通話前(例えば、発信時および着信時)において、メイン表示部13には図8(a),(b)に示す内容が表示されてもよい。
Note that the contents shown in FIGS. 8A and 8B may be displayed on the
また、本実施の形態において、使用者へのなごみ動作は第1の実施の形態に示すように通信相手ごとに設定されてもよいし、通信相手ごとに設定されなくてもよい。 Further, in the present embodiment, the garbage operation for the user may be set for each communication partner as shown in the first embodiment, or may not be set for each communication partner.
本実施の形態に係る通信プログラムについて説明する。図21〜図23は、第3の実施の実施の形態に係る通信プログラムの一例を示すフローチャートである。 A communication program according to the present embodiment will be described. 21 to 23 are flowcharts illustrating an example of a communication program according to the third embodiment.
本実施の形態に係る通信プグラムによれば、図2の制御部10は次のように動作する。
According to the communication program according to the present embodiment, the
初めに、図2の制御部10は、使用者による入力操作部11の操作によりなごみモードをオンする旨の指令信号を受けたか否かを判別する(ステップS60)。なごみモードのオンとは、携帯電話機100が上述のなごみ動作を行うことが可能な状態にすることをいう。
First, the
制御部10は、なごみモードをオンする旨の指令信号を受けた場合、第2の実施の形態において説明したステップS31〜ステップS33と同様の動作を行う(ステップS61〜S63)。
When receiving a command signal for turning on the dust mode, the
上記ステップS63において、制御部10は、応答があった場合、生理量データの測定を開始する(ステップS64)。
In step S63, when there is a response, the
制御部10は、所定の時間が経過することにより、測定された生理量データに基づいて使用者の通信中の心理状態を推定する(ステップS65)。これにより、使用者の心理状態が図5の心理状態レベル1〜6のいずれかに分類される。
The
次に、制御部10は、使用者の心理状態レベルが1または2であるか否かを判別する(ステップS66)。制御部10は、使用者の心理状態レベルが1または2である場合、図19のなごみ動作設定テーブルに基づいてなごみことばパターンおよびなごみ音楽パターンを通話用スピーカ15bから再生する(ステップS67)。
Next, the
制御部10は、上記ステップS67の動作の後または使用者の心理状態レベルが1または2でない場合、使用者の心理状態レベルが3または4であるか否かを判別する(ステップS68)。制御部10は、使用者の心理状態レベルが3または4である場合、図19のなごみ動作設定テーブルに基づいてなごみことばパターンを通話用スピーカ15bから再生する(ステップS69)。
After the operation of step S67 or when the user's psychological state level is not 1 or 2, the
次に、制御部10は、上記ステップS69の動作の後または使用者の心理状態レベルが3または4でない場合、通信が終了したか否かを判別する(ステップS70)。
Next, after the operation of step S69 or when the user's psychological state level is not 3 or 4, the
制御部10は、通信が終了しない場合、上記ステップS64の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定を終了する(ステップS70b)。
続いて、制御部10は、使用者に対するなごみ動作を継続するか否かの問いかけをメイン表示部13に表示する(ステップS71)。そして、制御部10は、使用者が入力操作部11を操作することによりはいボタン136aが選択されたか否かを判別する(ステップS72)。
Subsequently, the
制御部10は、はいボタンが選択された場合、図19のなごみ動作設定テーブルに基づいてなごみ音楽パターンおよびなごみことばパターンを通話用スピーカ15bから再生する(ステップS73)。
When the Yes button is selected, the
その後、制御部10は、使用者が入力操作部11を操作することにより終了ボタン131が選択されたか否かを判別する(ステップS74)。制御部10は、終了ボタンが選択されなかった場合、上記ステップS73の動作を繰り返す。一方、制御部10は、終了ボタン131が選択された場合、本実施の形態に係る通信プログラムを終了する。
Thereafter, the
上記ステップS72において、制御部10は、はいボタン136aが選択されなかった場合、使用者が入力操作部11を操作することによりいいえボタン136bが選択されたか否かを判別する(ステップS75)。制御部10は、いいえボタン136bが選択されない場合、上記ステップS72の動作を繰り返す。一方、制御部10はいいえボタン136bが選択された場合、本実施の形態に係る通信プログラムを終了する。
In step S72, when the
また、制御部10は、上記ステップS60において、なごみモードがオンしない場合、第2の実施の形態のステップS50〜S53と同様の動作を行う(ステップS80〜S83)。この場合、制御部10は、上記ステップS83において、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。
Moreover, the
以上、本実施の形態においては、生理量データ測定部20および制御部10により推定された使用者の心理状態を示す情報が通話用スピーカ15bにより音声として出力される。それにより、使用者は、通信相手に依存する心理状態を容易に認識することができる。
As described above, in the present embodiment, information indicating the user's psychological state estimated by the physiological
また、本実施の形態においては、制御部10により推定された使用者の心理状態に基づいて使用者の緊張を緩和させるための情報(なごみに関する情報)が通話用スピーカ15bから音声出力される。それにより、通信相手に依存する使用者の緊張が緩和される。
Further, in the present embodiment, information for relieving the user's tension based on the user's psychological state estimated by the control unit 10 (information related to nagging) is output from the
上記では、第1の実施の形態と同様に心理状態として使用者の緊張の度合いを推定しているが、これに限らず、他の実施の形態において後述するが、生体情報に基づいて使用者のうそを推定したり、喜怒哀楽を推定してもよい。この場合、使用者は自己の心理状態について様々な情報を得ることができる。そして、図19のなごみ設定テーブルに代えて、推定される内容に応じた動作を設定しておくことにより、使用者は通話時に推定結果に応じたリラクゼーションまたは携帯電話機100の動作によるなごみを得ることができる。
In the above, the degree of tension of the user is estimated as a psychological state as in the first embodiment. However, the present invention is not limited to this, but will be described later in other embodiments. A lie may be estimated, or emotions may be estimated. In this case, the user can obtain various information about his / her psychological state. Then, in place of the garbage setting table of FIG. 19, by setting an operation according to the estimated content, the user can obtain relaxation according to the estimation result during the call or garbage due to the operation of the
携帯電話機100は、通話中でなくても、使用者の生体情報を検出してもよい。他の実施の形態において後述するが、例えば、携帯電話機100は使用者が電子メールを作成する際に使用者の生体情報を検出してもよい。この場合、使用者は自己の特定の通信相手への電子メールの作成時の心理状態についての情報を得ることができる。さらに、この場合、携帯電話機100が電子メールの作成時の心理状態に応じてなごみ動作を行うので、使用者は電子メールの作成時に緊張の度合いが高くなったときでも、なごみを得ることができる。
The
(第4の実施の形態)
第4の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Fourth embodiment)
The
本実施の形態に係る携帯電話機100は、使用者の心理状態として、喜怒哀楽の度合いを推定する。使用者の喜怒哀楽の度合いの推定は、使用者の生理量データおよび音声データの解析結果に基づいて行う。
本実施の形態では、生理量データとしてGSRが用いられる。音声データとしては、第2の実施の形態で説明したように録音された使用者の会話の音声が用いられる。 In the present embodiment, GSR is used as physiological data. As the voice data, the voice of the user's conversation recorded as described in the second embodiment is used.
図24は、使用者の喜怒哀楽の度合いを推定するためのデータの抽出方法を説明するための図である。 FIG. 24 is a diagram for explaining a data extraction method for estimating the degree of emotion of the user.
図24に示すように、携帯電話機100は使用者の通話開始から通話終了までの使用者のGSRおよび音声データを記憶する。そして、携帯電話機100は、得られた音声データに基づいて使用者が発声した時間を特定する。これにより特定される時間を発声期間と呼ぶ。
As shown in FIG. 24, the
携帯電話機100は、特定された発声期間の前後に所定の時間を付加することにより、記憶された音声データおよびGSRのうち解析対象とする時間を決定する。これにより決定される時間を解析対象期間と呼ぶ。図24では、解析対象期間が符号TT1および符号TT2で表されている。
The
携帯電話機100は、決定された解析対象期間TT1,TT2の各々において、音声データの解析を行う。その結果、携帯電話機100は、解析対象期間TT1,TT2の各々における音声データのパラメータとして、発音のトーン、抑揚およびジッタを得る。なお、以下の説明において、トーン、抑揚およびジッタの解析結果は数値化されているものとする。
The
また、携帯電話機100は、決定された解析対象期間TT1,TT2の各々において、GSRの解析を行う。この解析は、解析対象期間TT1,TT2の各々において、測定されたGSRの最大値から最小値までの差分値を算出することにより行う。以下、この差分値をGSR差分値と呼ぶ。
In addition, the
図24では、解析対象期間TT1,TT2ごとに算出されるGSR差分値が、それぞれ矢印ΔGm1および矢印ΔGm2で表されている。 In FIG. 24, the GSR difference values calculated for each analysis target period TT1, TT2 are represented by arrows ΔGm1 and ΔGm2, respectively.
本実施の形態に係る携帯電話機100には、図3の心理状態推定テーブル格納部122に後述の生理量感情推定テーブル、音声感情推定テーブル、感情推定基準テーブルおよびポイント決定テーブルが記憶されている。
In
携帯電話機100は、決定された解析対象期間ごとに、生理量データを解析することにより得られる上述のGSR差分値および生理量推定テーブルに基づいて後述の感情レベルを決定する。また、携帯電話機100は、決定された解析対象期間ごとに、音声データを解析することにより得られる上述の発音のトーン、抑揚およびジッタおよび音声感情推定テーブルに基づいて後述の感情レベルを決定する。
The
その後、携帯電話機100は、GSR差分値、トーン、抑揚およびジッタの各々に基づいて決定された複数の感情レベル、感情推定基準テーブルならびにポイント決定テーブルに基づいて使用者の喜怒哀楽の度合いを推定する。
Thereafter, the
生理量感情推定テーブルおよび音声感情推定テーブルについて説明する。図25は、図3の心理状態推定テーブル格納部122および音声解析テーブル格納部125に記憶される内容の一例を示す図である。ここでは、心理状態推定テーブル格納部122および音声解析テーブル格納部125に記憶される内容の一例として、生理量感情推定テーブルおよび音声感情推定テーブルが表されている。
The physiological emotion estimation table and the voice emotion estimation table will be described. 25 is a diagram illustrating an example of contents stored in the psychological state estimation
図25(a)は心理状態推定テーブル格納部122に記憶される生理量感情推定テーブルの一例を表す。上述のように、測定された使用者のGSRに基づいてGSR差分値が算出される。生理量感情推定テーブルにより算出されたGSR差分値に基づいて使用者の喜怒哀楽の度合いを推定するための感情レベルが決定される。感情レベルの決定は、所定の基準値に対するGSR差分値の大小関係に基づき決定される。
FIG. 25A shows an example of a physiological emotion estimation table stored in the psychological state estimation
図25(a)においては、GSR差分値ΔGmについて3つの基準値Kα,Kβ,Kγが設定されている。これら基準値Kα,Kβ,Kγは、Kα,Kβ,Kγの順に大きい。 In FIG. 25A, three reference values Kα, Kβ, and Kγ are set for the GSR difference value ΔGm. These reference values Kα, Kβ, and Kγ are larger in the order of Kα, Kβ, and Kγ.
GSR差分値ΔGmによる感情レベルの決定の一例を説明する。図25(a)によれば、例えば、GSR差分値ΔGmが基準値Kγ以上である場合、感情レベル3が決定され、GSR差分値ΔGmが基準値Kβ以上であり、かつ、基準値Kγ未満である場合にも、感情レベル3が決定される。
An example of determination of the emotion level based on the GSR difference value ΔGm will be described. According to FIG. 25A, for example, when the GSR difference value ΔGm is greater than or equal to the reference value Kγ, the
また、GSR差分値ΔGmが基準値Kα以上であり、かつ、基準値Kβ未満である場合、感情レベル1が決定され、GSR差分値ΔGmが基準値Kα未満である場合、感情レベル2が決定される。
When the GSR difference value ΔGm is equal to or greater than the reference value Kα and less than the reference value Kβ, the
図25(b)は音声解析テーブル格納部125に記憶される音声感情推定テーブルの一例を表す。上述のように、使用者の音声データを解析することにより得られるトーン、抑揚およびジッタに基づいて使用者の喜怒哀楽の度合いを推定するための感情レベルが決定される。感情レベルの決定は、トーン、抑揚およびジッタの各々について行われ、予め設定された基準値に対するトーン、抑揚およびジッタの大小関係に基づき決定される。この場合、所定の基準値はトーン、抑揚およびジッタの各々について設定されている。
FIG. 25B shows an example of a voice emotion estimation table stored in the voice analysis
図25(b)においては、トーンTOについて3つの基準値Lα,Lβ,Lγが設定されている。これら基準値Lα,Lβ,Lγは、Lα,Lβ,Lγの順に大きい。また、抑揚YOについて3つの基準値Mα,Mβ,Mγが設定されている。これら基準値Mα,Mβ,Mγは、Mα,Mβ,Mγの順に大きい。さらに、ジッタGIについて3つの基準値Nα,Nβ,Nγが設定されている。これら基準値Nα,Nβ,Nγは、Nα,Nβ,Nγの順に大きい。 In FIG. 25B, three reference values Lα, Lβ, and Lγ are set for the tone TO. These reference values Lα, Lβ, Lγ are larger in the order of Lα, Lβ, Lγ. In addition, three reference values Mα, Mβ, and Mγ are set for the intonation YO. These reference values Mα, Mβ, Mγ are larger in the order of Mα, Mβ, Mγ. Further, three reference values Nα, Nβ, and Nγ are set for the jitter GI. These reference values Nα, Nβ, Nγ are larger in the order of Nα, Nβ, Nγ.
トーンTOによる感情レベルの決定の一例を説明する。図25(b)によれば、例えば、トーンTOが基準値Lγ以上である場合、感情レベル3が決定され、トーンTOが基準値Lβ以上であり、かつ、基準値Lγ未満である場合にも、感情レベル3が決定される。
An example of emotion level determination by tone TO will be described. According to FIG. 25B, for example, when the tone TO is greater than or equal to the reference value Lγ, the
また、トーンTOが基準値Lα以上であり、かつ、基準値Lβ未満である場合、感情レベル1が決定され、トーンTOが基準値Lα未満である場合、感情レベル3が決定される。
Further, when the tone TO is greater than or equal to the reference value Lα and less than the reference value Lβ, the
感情推定基準テーブルおよびポイント決定テーブルについて説明する。図26は、図3の心理状態推定テーブル格納部122に記憶される内容の一例を示す図である。ここでは、心理状態推定テーブル格納部122に記憶される内容の一例として、感情推定基準テーブルおよびポイント決定テーブルが表されている。
The emotion estimation reference table and the point determination table will be described. FIG. 26 is a diagram illustrating an example of contents stored in the psychological state estimation
図26(a)は心理状態推定テーブル格納部122に記憶される感情推定基準テーブルの一例を表す。
FIG. 26A shows an example of an emotion estimation reference table stored in the psychological state estimation
図26(a)においては、GSR差分値、トーン、抑揚およびジッタの各々に基づいて決定される感情レベルの組合せが、感情として、喜び、怒り、哀しみおよび楽しみの4つのグループに分類されている。このような、図26(a)における感情レベルの組合せを基準組合せと呼ぶ。 In FIG. 26 (a), combinations of emotion levels determined based on GSR difference values, tones, intonations, and jitters are classified into four groups of emotions: joy, anger, sadness, and enjoyment. . Such a combination of emotion levels in FIG. 26A is referred to as a reference combination.
この基準組合せの一例を説明する。図26(a)によれば、例えば、喜びについての基準組合せは、GSR差分値に基づく感情レベルが3であり、トーンに基づく感情レベルが3であり、抑揚に基づく感情レベルが3であり、ジッタに基づく感情レベルが3である。 An example of this reference combination will be described. According to FIG. 26 (a), for example, in the reference combination for pleasure, the emotion level based on the GSR difference value is 3, the emotion level based on the tone is 3, the emotion level based on inflection is 3, The emotion level based on jitter is 3.
このように定められた喜び、怒り、哀しみおよび楽しみの4つの基準組合せは、その後、測定により得られたGSR差分値ならびに音声データの解析により得られたトーン、抑揚およびジッタに基づく感情レベルの組合せ(以下、測定組合せと呼ぶ。)とそれぞれ比較される。 The four standard combinations of joy, anger, sadness and enjoyment thus defined are then a combination of emotional levels based on GSR difference values obtained by measurement and tone, inflection and jitter obtained by analysis of speech data. (Hereinafter referred to as measurement combination).
基準組合せと測定組合せとの比較時においては、組み合わされた感情レベルごとの比較が行われる。そして、比較の結果として後述のポイントが決定される。 At the time of comparison between the reference combination and the measurement combination, comparison is performed for each combined emotion level. Then, the points described later are determined as a result of the comparison.
図26(b)は心理状態推定テーブル格納部122に記憶されるポイント決定テーブルの一例を表す。図26(b)においては、基準組合せと測定組合せとの比較時の感情レベルの差異に応じたポイントが設定されている。
FIG. 26B shows an example of a point determination table stored in the psychological state estimation
基準組合せの各感情レベルと測定組合せの対応する感情レベルとを比較する場合を想定する。図26(b)によれば、その比較の結果、基準組合せの感情レベルと測定組合せの感情レベルとの間で差異がない場合、ポイントが30として決定される。また、感情レベルの差異が1の場合、ポイントが20として決定される。さらに、感情レベルの差異が2の場合、ポイントが10として決定され、感情レベルの差異が3の場合、ポイントが0として決定される。 Assume that each emotion level of the reference combination is compared with the corresponding emotion level of the measurement combination. According to FIG. 26B, if there is no difference between the emotion level of the reference combination and the emotion level of the measurement combination as a result of the comparison, the point is determined as 30. If the difference in emotion level is 1, the point is determined as 20. Further, when the emotion level difference is 2, the point is determined as 10, and when the emotion level difference is 3, the point is determined as 0.
図27は測定組合せから喜怒哀楽の度合いを推定する場合の一例を説明するための図である。 FIG. 27 is a diagram for explaining an example in which the degree of emotion is estimated from the measurement combination.
図27(a)は測定組合せの一例を表す。図27(a)では、GSR差分値に基づく感情レベルが3であり、トーンに基づく感情レベルが3であり、抑揚に基づく感情レベルが3であり、ジッタに基づく感情レベルが3である旨が表されている。 FIG. 27A shows an example of a measurement combination. In FIG. 27A, the emotion level based on the GSR difference value is 3, the emotion level based on tone is 3, the emotion level based on inflection is 3, and the emotion level based on jitter is 3. It is represented.
上述のように、喜怒哀楽の度合いの推定時において、図27(a)で表される測定組合せは、図26(a)で表される感情推定基準テーブルの喜び、怒り、哀しみおよび楽しみの4つの基準組合せとそれぞれ比較される。そして、測定組合せと基準組合せとの比較結果および図26(b)のポイント決定テーブルに基づいて後述の測定結果ポイントテーブルが作成される。測定結果ポイントテーブルは個人情報データ格納部123に記憶される。
As described above, at the time of estimating the degree of emotions, the measurement combination shown in FIG. 27 (a) is the joy, anger, sadness and enjoyment of the emotion estimation reference table shown in FIG. 26 (a). Each of the four reference combinations is compared. Then, a measurement result point table to be described later is created based on the comparison result between the measurement combination and the reference combination and the point determination table in FIG. The measurement result point table is stored in the personal information
図27(b)は測定結果ポイントテーブルの一例を表す。図27(b)においては、図27(a)で表される測定組合せの各感情レベルと図26(a)の基準組合せの各感情レベルとの比較結果ならびに図26(b)のポイント設定テーブルに基づいて、喜び、怒り、哀しみおよび楽しみについてのポイントの組合せが表されている。 FIG. 27B shows an example of the measurement result point table. In FIG. 27 (b), the comparison result of each emotion level of the measurement combination represented in FIG. 27 (a) and each emotion level of the reference combination of FIG. 26 (a) and the point setting table of FIG. 26 (b). On the basis of a combination of points about joy, anger, sadness and fun.
ポイントの組合せの一例として、喜びに関するポイントの組合せについて説明する。 As an example of the combination of points, a combination of points related to pleasure will be described.
上述のように、図27(a)の測定組合せでは、GSR差分値に基づく感情レベルが3であり、トーンに基づく感情レベルが3であり、抑揚に基づく感情レベルが3であり、ジッタに基づく感情レベルが3である。一方、図26(a)の喜びの基準組合せでは、GSR差分値に基づく感情レベルが3であり、トーンに基づく感情レベルが3であり、抑揚に基づく感情レベルが3であり、ジッタに基づく感情レベルが3である。 As described above, in the measurement combination of FIG. 27A, the emotion level based on the GSR difference value is 3, the emotion level based on the tone is 3, the emotion level based on the inflection is 3, and based on jitter Emotion level is 3. On the other hand, in the joy standard combination of FIG. 26A, the emotion level based on the GSR difference value is 3, the emotion level based on the tone is 3, the emotion level based on the inflection is 3, and the emotion based on jitter Level is 3.
したがって、これらをそれぞれ比較すると、全ての感情レベルが同一である。その結果、図27(a)で表される測定組合せの各感情レベルと図26(a)で表される基準組合せの各感情レベルとの差異が全て0となる。 Therefore, when these are compared with each other, all emotion levels are the same. As a result, the difference between each emotion level of the measurement combination represented in FIG. 27A and each emotion level of the reference combination represented in FIG.
ここで、図26(b)のポイント決定テーブルによれば、測定組合せの感情レベルと基準組合せの感情レベルとの差異が0の場合、ポイントが30として決定される。 Here, according to the point determination table of FIG. 26B, when the difference between the emotion level of the measurement combination and the emotion level of the reference combination is 0, 30 points are determined.
したがって、この場合、図27(b)で表されるように、喜びに関するポイントの組合せでは、GSR差分値に基づくポイントが30に決定され、トーンに基づくポイントが30に決定され、抑揚に基づくポイントが30に決定され、ジッタに基づくポイントが30に決定される。 Therefore, in this case, as shown in FIG. 27B, in the combination of points relating to pleasure, the point based on the GSR difference value is determined to be 30, the point based on the tone is determined to be 30, and the point based on inflection Is determined to be 30, and a jitter based point is determined to be 30.
同様に、怒り、悲しみおよび楽しみについても測定組合せの各感情レベルと基準組合せの各感情レベルとの比較が行われる。その結果、ポイントの組合せがそれぞれ決定される。 Similarly, for anger, sadness, and enjoyment, each emotion level of the measurement combination is compared with each emotion level of the reference combination. As a result, each combination of points is determined.
図27(b)に表されるように、決定されたポイントは各組合せごとに合計される。 As shown in FIG. 27B, the determined points are summed for each combination.
すなわち、喜びに関するポイントの組合せでは、GSR差分値に基づくポイント30、トーンに基づくポイント30、抑揚に基づくポイント30およびジッタに基づくポイント30が合計され、合計値120が算出される。一方、図27(b)によれば、怒りに関するポイントの組合せでは、合計値90が算出される。他方、哀しみに関するポイントの組合せでは、合計値40が算出される。さらに、楽しみに関するポイントの組合せでは、合計値100が算出される。
That is, in the combination of points relating to pleasure, the
最後に、算出された合計値の減算処理が行われる。本実施の形態では、喜びに関するポイントの合計値から怒りに関するポイントの合計値の減算処理が行われ、楽しみに関するポイントの合計値から哀しみに関するポイントの合計値の減算処理が行われる。 Finally, the calculated total value is subtracted. In the present embodiment, the total value of points related to anger is subtracted from the total value of points related to pleasure, and the total value of points related to sadness is subtracted from the total value of points related to pleasure.
その結果、携帯電話機100は、使用者の喜怒哀楽の度合いを、喜びと怒りとの関係および哀しみと楽しみとの関係により推定することができる。図27(c)は、上記の動作により得られる使用者の喜怒哀楽の度合いを表すグラフの一例である。
As a result, the
以上に示す使用者の喜怒哀楽の度合いの推定動作は、使用者の通話時に抽出された解析対象期間ごとに行われる。そして、解析対象期間が複数存在する場合、複数の推定結果に基づいて、さらに、その平均値が算出される。その結果、使用者は自己の通話時における喜怒哀楽の度合いを知ることができる。 The above-described estimation operation of the degree of emotion of the user is performed for each analysis target period extracted at the time of the user's call. When there are a plurality of analysis target periods, the average value is further calculated based on the plurality of estimation results. As a result, the user can know the degree of emotions during his / her call.
本実施の形態では、上述のように使用者の喜怒哀楽の度合いを推定するために、生理量感情推定テーブル、音声感情推定テーブル、感情推定基準テーブルおよびポイント決定テーブルを用いているが、これに限らず、使用者の通話中の喜怒哀楽の度合いを推定することができるのであれば、他のテーブルを用いて上記の推定動作を行ってもよい。 In the present embodiment, as described above, the physiological emotion estimation table, the voice emotion estimation table, the emotion estimation reference table, and the point determination table are used to estimate the degree of emotion of the user. However, the estimation operation described above may be performed using another table as long as it can estimate the degree of emotion during the call.
また、上記では、使用者の喜怒哀楽の度合いを推定するためにパラメータとして、GSR差分値、トーン、抑揚およびジッタを用いているが、使用者の喜怒哀楽の度合いを推定できるのであれば、パラメータはこれらに限られない。例えば、生理量データとして皮膚温度および脈拍等を用いてもよいし、GSR測定値に基づいて所定の解析を行うことにより得られる他の値を用いてもよい。 In the above description, the GSR difference value, tone, intonation, and jitter are used as parameters for estimating the degree of emotion of the user. However, if the degree of emotion of the user can be estimated. The parameters are not limited to these. For example, skin temperature and pulse may be used as physiological data, or other values obtained by performing a predetermined analysis based on GSR measurement values may be used.
さらに、喜怒哀楽の推定に用いるパラメータの数は上記に限定されない。喜怒哀楽の推定に用いるパラメータをより多く用いることにより、使用者の喜怒哀楽の度合いの推定結果の精度が向上する。 Furthermore, the number of parameters used for estimation of emotions is not limited to the above. By using more parameters used for estimating emotions, the accuracy of the estimation result of the degree of emotions of the user is improved.
上記では、使用者の喜怒哀楽の度合いを推定するために使用者の発声期間から解析対象期間を設定しているが、これに限らず、使用者の通話時間中の全ての生理量データおよび音声データに基づいて喜怒哀楽の度合いを推定してもよい。 In the above, in order to estimate the degree of emotion of the user, the analysis target period is set from the user's utterance period, but not limited to this, all physiological data during the user's call time and The degree of emotions may be estimated based on the voice data.
上述の各種基準値は、それぞれ予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。 The various reference values described above may be set by determining specific values in advance, or may be set for each user according to characteristics such as the health condition and personality of each user.
図28は、使用者が第4の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。以下の説明において、携帯電話機100が使用者の通話中の喜怒哀楽の度合いを推定する動作を喜怒哀楽動作と呼ぶ。
FIG. 28 is a diagram illustrating an example of contents displayed on the
図28(a)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話時間が表示されるとともに、終了ボタン131および喜怒哀楽ボタン180が表示される。
FIG. 28A shows a display example of the
図28(b)は、メイン表示部13が図28(a)の表示状態において、使用者が喜怒哀楽ボタン180を選択した場合のメイン表示部13の表示例を表す。
FIG. 28B shows a display example of the
図28(b)において、メイン表示部13には、喜びと怒りの度合いからなる縦軸および悲しみと楽しみの度合いからなる横軸を有するグラフが表示されるとともに終了ボタン131が表示される。グラフ中には、使用者の通話中における喜怒哀楽の度合いの推定値がプロットされている。それにより、使用者は自己の通話中の喜怒哀楽の度合いを知ることができる。
In FIG. 28 (b), the
使用者はメイン表示部13が図28(a),(b)の表示状態において、使用者が図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131を選択した場合、携帯電話機100の喜怒哀楽動作を終了させることができる。
When the user selects the
なお、使用者の通話前(例えば、発信時および着信時)において、メイン表示部13には図8(a),(b)の内容が表示されてもよい。
Note that the contents of FIGS. 8A and 8B may be displayed on the
さらに、携帯電話機100は、使用者の通話中で、かつ、使用者の発声期間ごとに上記の喜怒哀楽動作を行うことにより、リアルタイムに図28(b)の内容を表示してもよい。
Furthermore, the
上記の図28(b)においては、グラフ中のプロットされた点が通話中の複数の発声期間ごとに推定された使用者の喜怒哀楽の度合いの平均値を示す。しかしながら、これに限らず、図28(b)においては、使用者の通話時の発声期間ごとの推定内容が、全てプロットされてもよい。この場合、メモリ12には、使用者の通話時の発声期間ごとの推定内容および音声データがプロットと対応付けて記憶されてもよい。ここで、使用者が特定のプロットを選択することにより、メイン表示部13が推定内容を表示し、通話用スピーカ15bが音声データを出力するように設定しておくことで、使用者は自己の発声時の喜怒哀楽の度合いを再確認することができる。
In FIG. 28 (b), the plotted points in the graph indicate the average value of the degree of emotion of the user estimated for each of a plurality of speaking periods during a call. However, the present invention is not limited to this, and in FIG. 28 (b), all the estimated contents for each utterance period during a user's call may be plotted. In this case, the
図28(b)では、使用者の喜怒哀楽の度合いの推定結果を表示するために二次元のグラフが用いられているが、喜び、怒り、哀しみおよび楽しみの度合いについての推定結果を、各々棒グラフ状で表してもよい。 In FIG. 28 (b), a two-dimensional graph is used to display the estimation result of the degree of joy, anger, and emotion of the user. The estimation results for the degree of joy, anger, sadness, and enjoyment are respectively shown. It may be represented as a bar graph.
また、本実施の形態では、使用者の喜怒哀楽の度合いを推定するために、図26(a)において、喜び、怒り、哀しみおよび楽しみについての基準組合せを設定しているが、これに限らず、驚き、恐れ、不安および愛情等、様々な感情についても上述の基準組合せを設定してもよい。この場合、使用者はより様々な感情についての情報を得ることができる。 Further, in the present embodiment, in order to estimate the degree of emotion of the user, the reference combination for joy, anger, sadness, and enjoyment is set in FIG. Instead, the above-described reference combination may be set for various emotions such as surprise, fear, anxiety and affection. In this case, the user can obtain information on various emotions.
本実施の形態に係る通信プログラムについて説明する。図29〜図31は、第4の実施の形態に係る通信プログラムの一例を示すフローチャートである。 A communication program according to the present embodiment will be described. 29 to 31 are flowcharts illustrating an example of a communication program according to the fourth embodiment.
本実施の形態に係る通信プログラムによれば図2の制御部10は次のように動作する。
According to the communication program according to the present embodiment, the
初めに、図2の制御部10は、使用者による入力操作部11の操作により喜怒哀楽モードをオンする旨の指令信号を受けたか否かを判別する(ステップS100)。喜怒哀楽モードのオンとは、携帯電話機100が上述の喜怒哀楽動作を行うことが可能な状態にすることをいう。
First, the
制御部10は、喜怒哀楽モードをオンする旨の指令信号を受けた場合、第2の実施の形態で説明したステップS31〜ステップS33と同様の動作を行う(ステップS101〜S103)。上記ステップS103において、制御部10は、応答があった場合、生理量データの測定および音声データの録音を開始する(ステップS104)。
When the
次に、制御部10は、通信が終了したか否かを判別する(ステップS105)。制御部10は、通信が終了しない場合、上記ステップS104の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了する(ステップS106)。
Next, the
続いて、制御部10は、録音された音声データに基づいて使用者の発声を識別する(ステップS107)。そして、制御部10は、使用者の発声があるか否かを判別する(ステップS108)。
Subsequently, the
制御部10は、使用者の発声がある場合、使用者の発声の時間を特定し、発声ごとに上述の解析対象期間を設定する(ステップS109)。
When there is a user's utterance, the
制御部10は、設定された解析対象期間ごとに、測定された生理量データおよび録音された音声データに基づいて使用者の発声時における喜怒哀楽の度合いを推定する(ステップS110)。
The
そして、制御部10は、推定された一または複数の喜怒哀楽の度合いに基づいて、通話中の喜怒哀楽の度合いの平均値を算出する(ステップS111)。
Then, the
これにより、制御部10は、推定された通話中の喜怒哀楽の度合いをメイン表示部13に表示する(ステップS112)。最後に、制御部10は、図3の履歴データ格納部124に推定された喜怒哀楽の度合いを履歴データとして記憶する(ステップS113)。これにより、制御部10は、本実施の形態に係る通信プログラムを終了する。
Thereby, the
また、制御部10は、上記ステップS108において、使用者の発声がない場合、本実施の形態に係る通信プログラムを終了する。
Moreover, the
制御部10は、上記ステップS100において、喜怒哀楽モードがオンしない場合、第2の実施の形態のステップS50〜S53と同様の動作を行う(ステップS120〜S123)。制御部10は、上記ステップS123において、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。
In step S100, if the emotion mode is not turned on, the
上記の本実施の形態に係る通信プログラムにおいては、ステップS113の動作により使用者の通話ごとに推定された喜怒哀楽の度合いが履歴データとして図3の履歴データ格納部124に記憶される。これにより、使用者は、履歴データ格納部124から履歴データを呼び出すことにより過去の通話時における自己の喜怒哀楽についての情報を得ることができる。
In the communication program according to the present embodiment described above, the degree of emotional emotion estimated for each user call by the operation in step S113 is stored as history data in the history
なお、上記では、図28の説明においてメイン表示部13に表示される終了ボタン131および喜怒哀楽ボタン180の使用者による操作に基づく動作について説明を省略しているが、制御部10は使用者が図28の終了ボタン131を選択することにより通信プログラムを終了させ、使用者が喜怒哀楽ボタン180を選択することにより推定された喜怒哀楽の度合いをメイン表示部13に表示させる。
In the above description, in the description of FIG. 28, the description of the operation based on the operation by the user of the
さらに、上記では、携帯電話機100は推定された喜怒哀楽の度合いを履歴データとして記憶するとしているが、携帯電話機100は推定された喜怒哀楽の度合いを履歴データとして記憶しなくてもよい。
Further, in the above description, the
以上、本実施の形態においては、通話用スピーカ15bに対する使用者の発声期間(解析対象期間)が制御部10により判別され、使用者の発声期間に使用者の生体情報が検出される。それにより、通話相手および通話内容に依存する生体情報を取得することができる。
As described above, in the present embodiment, the
また、本実施の形態においては、生理量データ測定部20および通話用スピーカ15bにより検出された生体情報に基づいて使用者の喜怒哀楽の度合いが制御部10により推定される。それにより、通信相手に依存した使用者の喜怒哀楽を認識することができる。
In the present embodiment, the
上記では、喜怒哀楽の度合いを推定をするために図25の生理量感情推定テーブルおよび音声感情推定テーブルならびに図26の感情推定基準テーブルおよびポイント決定テーブルを用いたが、生体情報を用いるのであれば、生理量データのみを用いて他の推定テーブルにより使用者の喜怒哀楽の度合いを推定してもよいし、音声データのみを用いて他の推定テーブルにより使用者の喜怒哀楽に度合いを推定してもよい。 In the above description, the physiological emotion estimation table and the voice emotion estimation table of FIG. 25 and the emotion estimation reference table and point determination table of FIG. 26 are used to estimate the degree of emotion. For example, the user's emotion level may be estimated by using only other physiological data and other estimation tables. Alternatively, the user's emotion level may be estimated by using only voice data. It may be estimated.
また、上記では、心理状態として使用者の発声時における喜怒哀楽の度合いを推定しているが、これに限らず、生体情報に基づいて使用者のうそを推定したり、緊張の度合いを推定してもよい。この場合、使用者は発声時の自己の心理状態について様々な情報を得ることができる。 In the above, the degree of emotions at the time of the user's utterance is estimated as the psychological state, but not limited to this, the user's lie is estimated based on biological information, or the degree of tension is estimated. May be. In this case, the user can obtain various information about his / her psychological state at the time of speaking.
携帯電話機100は、通話中でなくても、使用者の生体情報を検出し、検出された生体情報に基づいて喜怒哀楽の度合いを推定してもよい。他の実施の形態において後述するが、例えば、携帯電話機100は使用者が電子メールを作成する際に使用者の生体情報を検出してもよい。この場合、使用者は自己の特定の通信相手への電子メールの作成時の喜怒哀楽の度合いについての情報を得ることができる。
The
他の実施の形態において後述するが、携帯電話機100は、検出された生体情報または推定された喜怒哀楽の度合いについての情報を他の通信装置に送信してもよい。
As will be described later in another embodiment, the
本実施の形態において、上記各テーブルに設定される値は、第1の実施の形態に示すように通信相手(通話相手)ごとに設定されてもよいし、通信相手ごとに設定されなくてもよい。 In the present embodiment, the values set in the respective tables may be set for each communication partner (call partner) as shown in the first embodiment, or may not be set for each communication partner. Good.
(第5の実施の形態)
第5の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Fifth embodiment)
The
本実施の形態に係る携帯電話機100には、図3の動作設定記憶部121に後述のメール動作設定テーブルが記憶されている。
携帯電話機100は電子メールの作成時における使用者の生理量データを測定する。そして、携帯電話機100は第1の実施の形態と同様に、測定された生理量データおよび図5の心理状態推定テーブルに基づいて使用者の電子メールの作成時の心理状態を推定する。
The
さらに、本実施の形態に係る携帯電話機100は、使用者により作成された電子メールに心理状態に応じた所定の絵文字を追加したり、所定の画像および音楽等のファイルを添付したりすることができる。
Furthermore, the
メール動作設定テーブルについて説明する。図32は、図3の動作設定記憶部121に記憶される内容の一例を示す図である。図32のテーブルは、動作設定記憶部121に記憶されるメール動作設定テーブルの一例を表す。
The mail operation setting table will be described. FIG. 32 is a diagram illustrating an example of contents stored in the operation setting
図32によれば、携帯電話機100が作成された電子メールの文中に追加する感情文字および作成された電子メールに添付する感情画像が、測定された生理量データおよび図5の心理状態推定テーブルにより決定される心理状態レベルごとに分類されている。
According to FIG. 32, the emotion character added to the text of the email created by the
例えば、心理状態レベル1に対する感情文字として、「(^^);ヘ(^^);ヘ」、「ドキッ(◎。◎)ドキッ」、「(ヘ_ヘ;)」および「(”Q”)」等が対応付けられている。また、心理状態レベル1に対する感情画像として、人間が非常に緊張している旨を連想させる画像および緊張の度合いを波で表した画像等が対応付けられている。
For example, as emotional characters for
例えば、携帯電話機100は、使用者の電子メールの作成時に測定された生理量データおよび図5の心理状態推定テーブルに基づいて使用者の電子メールの作成時における心理状態レベルが1であると決定した場合、図32のメール動作設定テーブルに基づいて電子メールに「(^^);ヘ(^^);ヘ」というような感情文字を追加したり、非常に緊張している旨を連想させる画像を添付したりする。これにより、本実施の形態に係る携帯電話機100は、使用者の心理状態に応じた電子メールを通信相手に送信することができる。それにより、使用者は電子メールの作成時おける自己の心理状態を通信相手に伝えることができる。
For example, the
図33および図34は、使用者が第5の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。
FIGS. 33 and 34 are diagrams illustrating an example of contents displayed on the
使用者は、電子メールを作成する場合に携帯電話機100の入力操作部11を操作する。
The user operates the
図33(a)は、使用者が電子メールの作成を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の作成した電子メールの内容が表示されるとともに送信ボタン140、編集ボタン141およびサブボタン142が表示される。
FIG. 33A shows a display example of the
ここで、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより、送信ボタン140、編集ボタン141およびサブボタン142の選択を行うことができる。
Here, the user can select the
図33(b)は、使用者が送信ボタン140を選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の電子メールの作成中に検出された生体情報に基づいて推定される使用者の心理状態が新たなウィンドウ13Sに表示されるとともに、感情追加ボタン140aおよび感情追加なしボタン140bが表示される。
FIG. 33B shows a display example of the
使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより、感情追加ボタン140aおよび感情追加なしボタン140bの選択を行うことができる。
The user can select the
図34(c)は、使用者が感情追加ボタン140aを選択した場合のメイン表示部13の表示例を表す。メイン表示部13には、新たなウィンドウ13Sに使用者が作成した電子メールに図32の感情画像を添付して電子メールを送信をした旨が表示されるとともに終了ボタン131、編集ボタン141およびサブボタン142が表示される。
FIG. 34C shows a display example of the
図34(d)は、使用者が感情追加ボタン140aを選択した場合のメイン表示部の他の表示例を表す。メイン表示部13には、新たなウィンドウ13Sに使用者が作成した電子メールに図32の感情文字を追加して電子メールを送信した旨が表示されるとともに終了ボタン131、編集ボタン141およびサブボタン142が表示される。
FIG. 34D shows another display example of the main display unit when the user selects the
ここで、メイン表示部13の図34(c),(d)の表示状態において、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131、編集ボタン141およびサブボタン142の選択を行うことができる。
Here, in the display state of FIGS. 34C and 34D on the
図34(e)は、使用者の作成した電子メールを受信した通信相手の携帯電話機100のメイン表示部13の表示例を表す。使用者が作成した電子メールに感情画像を添付して送信した場合、その電子メールを受信する通信相手のメイン表示部13には、使用者により作成された電子メールの内容、使用者により作成された電子メールに添付された画像144、返信ボタン143、編集ボタン141およびサブボタン142が表示される。
FIG. 34E shows a display example of the
図34(f)は、使用者の作成した電子メールを受信した通信相手の携帯電話機100のメイン表示部13の他の表示例を表す。図34(d)に示すように、使用者が作成した電子メールに感情文字を追加して送信した場合、その送信を受信した通信相手のメイン表示部13には、使用者により作成された電子メールの内容、使用者により作成された電子メールに追加された感情文字145、返信ボタン143、編集ボタン141およびサブボタン142が表示される。
FIG. 34F shows another display example of the
図34(e),(f)において、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより返信ボタン143、編集ボタン141およびサブボタン142の選択を行うことができる。
In FIGS. 34E and 34F, the user can select the
上記において、使用者が編集ボタン141を選択した場合、使用者は自己の作成する電子メールの内容を編集することができる。また、使用者がサブボタン142を選択した場合、使用者は他の機能(例えば、通信相手の電子メールアドレスの個人情報データへの登録等)を行うことができる。
In the above, when the user selects the
また、使用者が終了ボタン131を選択した場合、使用者は携帯電話機100の電子メールの作成動作および送信動作を終了させることができる。さらに、使用者が返信ボタン143を選択した場合、受信した電子メールに対する返信用の電子メールを作成することができる。
When the user selects the
本実施の形態に係る通信プログラムについて説明する。図35および図36は、第5の実施の形態に係る通信プログラムの一例を示すフローチャートである。 A communication program according to the present embodiment will be described. 35 and 36 are flowcharts illustrating an example of a communication program according to the fifth embodiment.
本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。
According to the communication program according to the present embodiment, the
初めに、図2に制御部10は、使用者による入力操作部11の操作により感情メールモードをオンする旨の指令信号を受けたか否かを判別する(ステップS200)。感情メールモードのオンとは、携帯電話機100が使用者により作成された電子メールに使用者の心理状態に応じた感情文字を追加したり、感情画像を添付したりする機能を動作させる旨をいう。
First, in FIG. 2, the
制御部10は感情メールモードをオンする旨の指令信号を受けた場合、使用者が入力操作部11を操作することによる電子メールの作成が開始されたか否かを判別する(ステップS201)。
When the
制御部10は、使用者の電子メールの作成が開始された場合、生理量データの測定を開始する(ステップS202)。
When the creation of the user's email is started, the
続いて、制御部10は使用者が入力操作部11を操作することにより送信ボタン140が選択されたか否かを判別する(ステップS203)。制御部10は、送信ボタン140が選択された場合、生理量データの測定を終了し、測定された生理量データに基づいて使用者の電子メールの作成中の心理状態を推定する(ステップS204)。
Subsequently, the
そして、制御部10は、使用者の心理状態の推定結果をメイン表示部13に表示する(ステップS205)。ここで、制御部10は、使用者が感情追加ボタン140aが選択されたか否かを判別する(ステップS206)。
And the
制御部10は、感情追加ボタン140aが選択された場合、推定された使用者の心理状態および図32のメール動作設定テーブルに基づいて作成された電子メールに追加する感情文字または作成された電子メールに添付する感情画像を選択する(ステップS207)。
When the
ここで、制御部10による感情文字および感情画像の選択は、通信相手に応じて予め特定の感情文字および感情画像を設定しておくことにより行ってもよい。また、制御部10は、使用者の入力操作部11の操作に基づいて、感情文字および感情画像の選択を行ってもよい。
Here, the selection of emotion characters and emotion images by the
その後、制御部10は、作成された電子メールへの感情文字の追加または感情画像の添付を行う(ステップS208)。最後に、制御部10は、使用者により作成された電子メールの送信を行う(ステップS210)。これにより、本実施の形態に係る通信プログラムが終了する。
Thereafter, the
なお、上記ステップS206において、感情追加ボタン140aが選択されなかった場合、制御部10は感情追加なしボタン140bが選択されたか否かを判別する(ステップS209)。制御部10は、感情追加なしボタン140bが選択されなかった場合、上記ステップS206の動作を繰り返す。一方、制御部10は、感情追加なしボタン140bが選択された場合、上記ステップS210の動作を行う。
When the
また、制御部10は、上記ステップS200において感情メールモードがオンしない場合、上記ステップS201と同様に制御部10は、使用者が入力操作部11を操作することにより電子メールの作成が開始されたか否かを判別する(ステップS220)。ここで、制御部10は、電子メールの作成が開始されない場合、上記ステップS200の動作を繰り返す。一方、制御部10は、電子メールの作成が開始された場合、送信ボタン140が選択されたか否かを判別する(ステップS221)。
In addition, when the emotion mail mode is not turned on in step S200, the
制御部10は、送信ボタン140が選択された場合、上記ステップS210の動作を行う、そして、制御部10は、本実施の形態に係る通信プログラムを終了する。
When the
以上、本実施の形態においては、使用者が入力操作部11を操作することにより任意の相手に送信する電子メールの作成を行っているときに、使用者の生体情報が検出される。それにより、電子メールの相手または電子メールの内容に依存する生体情報を取得することができる。
As described above, in the present embodiment, when the user operates the
なお、上記の例では、携帯電話機100は、使用者のメール作成時の生体情報を検出しているが、これに限らず、携帯電話機100は、使用者の電子メール送信時の生体情報を検出してもよい。さらに、携帯電話機100は、電子メールが受信されたとき、および、受信された電子メールを閲覧しているときの使用者の生体情報を検出してもよい。
In the above example, the
この場合、使用者の電子メールの送信時、電子メールの受信時および受信された電子メールの閲覧時の使用者の生体情報が検出されることにより、携帯電話機100は、電子メールの相手または電子メールの内容に依存する使用者の生体情報を取得することができる。
In this case, when the user's biological information is detected when the user's e-mail is transmitted, when the e-mail is received, and when the received e-mail is viewed, the
また、本実施の形態においては、生理量データ測定部20により検出された生体情報に基づいて使用者の心理状態が制御部10により推定される。そして、推定された使用者の心理状態を示す情報が入力操作部11により作成される電子メールに制御部10により挿入される。その結果、使用者の心理状態を示す情報が挿入された電子メールが通信相手に送信される。
In the present embodiment, the
本実施の形態においては、図32に示した心理状態レベルに応じて感情文字および感情画像が設定されているが、これに限らず、使用者の緊張の度合い、使用者のうその発声または使用者の喜怒哀楽等の種々の心理状態の推定結果に応じて、感情文字および感情画像が設定されてもよい。この場合、使用者は自己の心理状態についての様々な情報を通信相手に伝えることができる。 In the present embodiment, emotion characters and emotion images are set according to the psychological state level shown in FIG. 32, but not limited to this, the degree of tension of the user, the utterance or use of the user's lie Emotion characters and emotion images may be set in accordance with the estimation results of various psychological states such as the person's emotions. In this case, the user can convey various information about his / her psychological state to the communication partner.
図32のメール動作設定テーブルにおいては、使用者により作成された電子メールに追加する感情文字および電子メールに添付する感情画像が設定されているが、これに限らず、メール動作設定テーブルには、例えば、使用者の心理状態に応じて特定の音楽パターンが設定されてもよい。この場合、作成された電子メールに使用者の心理状態に応じた音楽パターンが添付されることにより、使用者は、自己の心理状態についての情報を音楽により通信相手に伝えることができる。 In the mail operation setting table of FIG. 32, emotion characters to be added to the email created by the user and emotion images to be attached to the email are set, but not limited to this, For example, a specific music pattern may be set according to the psychological state of the user. In this case, by attaching a music pattern corresponding to the user's psychological state to the created electronic mail, the user can convey information about his / her psychological state to the communication partner using music.
上記では、心理状態レベルを決定するために図5の心理状態推定テーブルを用いたが、生体情報に基づく使用者の心理状態の推定は、図5の心理状態推定テーブルを用いることに限定されない。生体情報を用いるのであれば、生理量データのみを用いて他の推定テーブルにより心理状態レベルを決定してもよいし、電子メール作成時に使用者の音声データを取得して、その音声データを用いて心理状態レベルを決定してもよい。さらに、生理量データおよび音声データをともに用いて心理状態レベルを決定してもよい。 In the above description, the psychological state estimation table of FIG. 5 is used to determine the psychological state level. However, the estimation of the user's psychological state based on the biological information is not limited to using the psychological state estimation table of FIG. If biometric information is used, the psychological state level may be determined using other estimation tables using only physiological data, or the user's voice data is obtained at the time of e-mail creation and the voice data is used. The psychological state level may be determined. Furthermore, the psychological state level may be determined using both physiological data and voice data.
携帯電話機100は、電子メールの作成中でなくても、通話中に使用者の生体情報を検出してもよい。この場合、例えば、携帯電話機100が、使用者の通話後に、使用者の心理状態に関する感情文字が追加された電子メールまたは感情画像の添付された電子メールをその通信相手に送信することにより、使用者は通話中の自己の心理状態についての様々な情報を通信相手に伝えることができる。
The
(第6の実施の形態)
第6の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Sixth embodiment)
The
本実施の形態に係る携帯電話機100は、使用者の通話中の生理量データを測定するとともに、心理状態を推定する。また、本実施の形態に係る携帯電話機100は、使用者の通話中の音声データを録音し、測定された使用者の生理量データに基づいて録音された音声データの中から特定の期間の音声データを抽出し、記憶することができる。これにより、使用者は特定の期間の音声データ(通話内容)を再生することができる。
ここで、特定の期間とは、例えば、使用者の生理量データが特定の状態となる場合、すなわち、その生理量データに基づいて心理状態が緊張していると推定される場合の期間をいう。なお、この特定の期間は、使用者が緊張している期間に限られない。 Here, the specific period means, for example, a period when the physiological data of the user is in a specific state, that is, when the psychological state is estimated to be tense based on the physiological data. . In addition, this specific period is not restricted to the period when the user is tense.
本実施の形態では、第1の実施の形態で説明したように、生理量データとしてGSR、皮膚温度および脈拍が用いられる。音声データとしては、第2の実施の形態で説明したように、録音された使用者の会話の音声が用いられる。 In the present embodiment, as described in the first embodiment, GSR, skin temperature, and pulse are used as physiological data. As the audio data, as described in the second embodiment, the recorded voice of the user's conversation is used.
図37は、使用者の通話中の生理量データの変化に基づいて特定の期間の音声データを抽出する方法を説明するための図である。図37に示すように、携帯電話機100は、使用者の通話終了時において、使用者の通話開始から通話終了までの使用者の皮膚温度、GSRおよび音声データを記憶している。
FIG. 37 is a diagram for explaining a method of extracting voice data for a specific period based on changes in physiological data during a user's call. As shown in FIG. 37, the
ここで、本実施の形態において、図3の心理状態推定テーブル格納部122には、図5の心理状態推定テーブルに関する各種基準値の他、後述の特定通話期間を検出するための皮膚温度およびGSRについての基準値TTH,GTHが記憶されている。
Here, in the present embodiment, the psychological state estimation
携帯電話機100は、測定された皮膚温度およびGSR測定値と基準値TTH,GTHの各々とを比較する。測定された皮膚温度と基準値TTHとの比較時において、携帯電話機100は図37に示すように、測定値が基準値TTHよりも低くなる場合の期間を皮膚温低下期間Sa1〜Sa3として特定する。
The
一般に、人間は皮膚温度が低い場合に緊張状態である可能性が高いとされている。したがって、皮膚温低下期間Sa1〜Sa3において、使用者は緊張した状態にあると推定される。 In general, it is considered that a human is likely to be in a tension state when the skin temperature is low. Therefore, it is estimated that the user is in a tense state during the skin temperature decrease period Sa1 to Sa3.
一方、測定されたGSRと基準値GTHとの比較時において、携帯電話機100は、図37に示すようにGSR測定値が基準値GTHを超える期間をGSR検出期間Ga1,Ga2として特定する。
On the other hand, at the time of comparison between the measured GSR and the reference value GTH, the
一般に、人間はGSRが高い場合に緊張状態である可能性が高いとされている。したがって、GSR検出期間Ga1,Ga2においては、使用者は緊張した状態にあると推定される。 In general, it is considered that a person is likely to be in a tension state when the GSR is high. Therefore, it is estimated that the user is in a tense state during the GSR detection periods Ga1 and Ga2.
ここで、本実施の形態では、精度よく使用者の緊張状態を検出するために上記の特定された皮膚温低下期間Sa1〜Sa3とGSR検出期間Ga1,Ga2との重複期間を検出する。そして、携帯電話機100は、検出された皮膚温低下期間Sa1〜Sa3とGSR検出期間Ga1,Ga2との重複期間に基づいて、通話開始から通話終了までの全体の音声データADTの中から特定通話期間AD1,AD2の音声データを抽出する。なお、図37に示すように、特定通話期間AD1,AD2において、符号et1,et2で表される期間は上記の重複期間の前後に余裕を見て付加される付加期間である。この付加期間et1および付加期間et2の長さは、それぞれ同一であってもよいし、互いに異なってもよい。このような付加期間et1,et2を設定することにより携帯電話機100は、使用者の緊張時の前後における音声データも抽出することができる。
Here, in this Embodiment, in order to detect a user's tension state accurately, the overlap period of said specified skin temperature fall period Sa1-Sa3 and GSR detection period Ga1, Ga2 is detected. Then, the
特定通話期間AD1,AD2の音声データは、例えば図3の履歴データ格納部124に履歴データとして記憶されてもよい。この場合、使用者は履歴データを呼び出すことにより自己の通話中における緊張時の通話内容を再生することができる。
The voice data of the specific call periods AD1, AD2 may be stored as history data in the history
図38は、使用者が第6の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。
FIG. 38 is a diagram illustrating an example of contents displayed on the
使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。
The user operates the
図38(a)は、通話中のメイン表示部13の表示例を表す。メイン表示部13には使用者が通話している際に現在の通話時間が表示され、使用者の生体情報を検出している旨および音声データを録音している旨が表示される。
FIG. 38A shows a display example of the
図38(b)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話時間、使用者の通話中に検出された生体情報に基づいて推定される使用者の心理状態、終了ボタン131および再生ボタン150,151が表示される。
FIG. 38B illustrates a display example of the
ここで、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131および再生ボタン150,151の選択を行うことができる。
Here, the user can select the
図38(b)における2つの再生ボタン150,151は、使用者の通話時に検出される上述の特定通話期間AD1,AD2の数に対応している。
The two
図38(c)は、メイン表示部13が図38(b)の表示状態において、使用者が再生ボタン150,151を選択した場合のメイン表示部13の表示例および通話用スピーカ15bからの再生内容の一例を表す。図38(c)において、メイン表示部13の表示内容は、図38(b)で表される表示内容と同様である。しかしながら、再生ボタン150,151が選択されると、通話用スピーカ15bから上述の特定通話期間AD1,AD2において録音された音声データが再生される。
FIG. 38C shows a display example of the
上記において、使用者が図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより終了ボタン131を選択した場合、使用者への音声データの再生動作は終了する。
In the above, when the user selects the
なお、上述のような特定通話期間の音声データの再生は、通話終了直後に限らず、使用者の過去の音声データをメモリ12の履歴データ格納部124に記憶しておき、任意の時点で、記憶された音声データを呼び出すことにより上述のような特定通話期間の音声データの再生が行われてもよい。この場合、使用者は、図3の履歴データ格納部124に記憶された過去の音声データを、図1の入力操作部11を操作することにより呼び出し、再生することができる。
The reproduction of the audio data during the specific call period as described above is not limited to immediately after the call ends, but the user's past audio data is stored in the history
この場合の音声データの履歴データ格納部124への記憶は、第1の実施の形態と同様に通信相手ごとに行われてもよい。
In this case, the storage of the voice data in the history
本実施の形態に係る通信プログラムについて説明する。図39〜図41は第6の実施の形態に係る通信プログラムの一例を示すフローチャートである。本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。
A communication program according to the present embodiment will be described. 39 to 41 are flowcharts showing an example of a communication program according to the sixth embodiment. According to the communication program according to the present embodiment, the
初めに、図2の制御部10は、使用者による入力操作部11の操作により他の電話機に対して発信する旨の指令信号を受けたか否かを判別する(ステップS300)。制御部10は、発信する旨の指令信号を受けた場合、通信相手から応答があったか否かを判別する(ステップS301)。制御部10は、応答があった場合、生理量データの測定および音声データの録音を開始する(ステップS304)。
First, the
一方、制御部10は、上記ステップS300において、発信する旨の指令信号を受けない場合、他の電話機からの着信があるか否かを判別する(ステップS302)。制御部10は、着信がない場合、上記ステップS300の動作を繰り返す。一方、制御部10は、他の電話機からの着信があった場合、その着信に対して応答する旨の指令信号を受けたか否か判別する(ステップS303)。制御部10は応答があった場合、上記ステップS304の動作を行う。
On the other hand, when the
制御部10は、上記ステップS304の動作を行った後、通信が終了したか否かを判別する(ステップS305)。
After performing the operation of step S304, the
制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了する(ステップS306)。
When the communication is completed, the
そして、制御部10は、測定された生理量データのうち、皮膚温度およびGSRの測定結果がともに各々に対応して設定された基準値TTH,GTHを超えたか否かを判別する(ステップS307)。制御部10は、皮膚温度およびGSRの測定結果がともに基準値TTH,GTHを超えない場合、後述のステップS310の動作を行う。
And the
制御部10は、皮膚温度およびGSRの測定結果がともに基準値TTH,GTHを超えた場合、特定通話期間を決定する(ステップS308)。そして、制御部10は、特定通話期間の音声データを抽出する(ステップS309)。
When both the skin temperature and GSR measurement results exceed the reference values TTH and GTH, the
その後、制御部10は、測定された生理量データおよび図5の心理状態推定テーブルに基づいて使用者の通信中の心理状態を推定し(ステップS310)、推定された使用者の通信中の心理状態をメイン表示部13に表示する(ステップS311)。
Thereafter, the
制御部10は、上記ステップS311の動作時において、使用者が入力操作部11を操作することにより再生ボタン150,151が選択されたか否かを判別する(ステップS312)。制御部10は、再生ボタン150,151が選択された場合、上記ステップS309において抽出された音声データを通話用スピーカ15bから再生する(ステップS313)。一方、制御部10は再生ボタン150,151が選択されなかった場合、または、上記ステップS313の動作後に、使用者が入力操作部11を操作することにより終了ボタン131が選択されたか否かを判別する(ステップS314)。
The
制御部10は、終了ボタン131が選択された場合、通信相手、心理状態の推定結果および抽出された音声データに基づいて図7の履歴データの内容を更新する(ステップS315)。これにより、本実施の形態に係る通信プログラムが終了する。
When the
なお、本例では、第1の実施の形態と同様に、制御部10は発信時または着信時において、通信相手についての情報を取得することにより特定の通信相手を識別しているものとする。
In this example, as in the first embodiment, it is assumed that the
本実施の形態において、上記ステップS310に示すような通話中全体における使用者の心理状態を推定しなくてもよい。 In the present embodiment, it is not necessary to estimate the user's psychological state during the entire call as shown in step S310.
上記の説明において、特定通話期間を決定するために測定された皮膚温度およびGSRに対して設定される基準値は、予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。 In the above description, the reference values set for the skin temperature and the GSR measured to determine the specific call period may be set by setting a specific value in advance, and each user's health It may be set for each user according to characteristics such as state and personality.
(第6の実施の形態における他の通信プログラムの例)
上記第6の実施の形態に係る通信プログラムは上述の図39〜図41の説明によるものに限られない。以下、第6の実施の形態に係る通信プログラムの他の例について説明する。図42〜図44は第6の実施の形態に係る通信プログラムの他の例を示すフローチャートである。図42〜図44に示される通信プログラムによれば、図2の制御部10は、次のように動作する。
(Examples of other communication programs in the sixth embodiment)
The communication program according to the sixth embodiment is not limited to the one described with reference to FIGS. Hereinafter, another example of the communication program according to the sixth embodiment will be described. 42 to 44 are flowcharts showing other examples of the communication program according to the sixth embodiment. According to the communication program shown in FIGS. 42 to 44, the
初めに、図2の制御部10は、上述のステップS300〜S303と同様の動作を行う(ステップS320〜S323)。
First, the
制御部10は、ステップS321,S323において、応答があった場合、音声データの録音を開始し(ステップS324)、生理量データの測定を開始する(ステップS325)。
When there is a response in steps S321 and S323, the
そして、制御部10は、予め定められた反応判定期間が経過したか否かを判別する(ステップS326)。反応判定期間とは、使用者が緊張しているか否かを判定するための期間である。
And the
制御部10は、反応判定期間が経過していない場合、上記ステップS325の動作を繰り返す。一方、制御部10は、反応判定期間が経過した場合、測定された生理量データのうち、皮膚温度およびGSRの測定結果がともに各々に対応して設定された基準値を超えたか否かを判別する(ステップS327)。
When the reaction determination period has not elapsed, the
制御部10は、皮膚温度およびGSR測定値がともに基準値を超えた場合、さらに所定の期間音声データの録音を継続し(ステップS328)、所定の期間が経過することにより音声データの録音を終了する(ステップS329)。一方、制御部10は、皮膚温度およびGSRがともに基準値を超えない場合、音声データの録音を終了し、反応判定期間に録音した音声データを消去する(ステップS330)。
When both the skin temperature and the GSR measurement value exceed the reference values, the
制御部10は、上記ステップS329の動作の後、または、上記ステップS330の動作の後、通信が終了したか否かを判別する(ステップS331)。
The
制御部10は、通信が終了しない場合、上記ステップS324の動作を繰り返す。一方、制御部10は、通信が終了した場合、生理量データの測定を終了し(ステップS331b)、測定された生理量データに基づいて通信中の心理状態を推定する(ステップS332)。その後、制御部10は、推定された使用者の通信中の心理状態をメイン表示部13に表示する(ステップS333)。
When the communication is not terminated, the
そして、制御部10は、上述のステップS312〜S315と同様の動作を行う(ステップS334〜S337)。これにより、第6の実施の形態の他の例としての通信プログラムが終了する。
And the
上述の図42〜図44に基づき説明した通信プログラムによれば、使用者の通話全体の音声データを録音する必要がないので、図2のメモリ12に記憶されるデータの容量が低減され、無駄のないデータ処理を行うことができる。
According to the communication program described with reference to FIGS. 42 to 44 described above, since it is not necessary to record the voice data of the entire user's call, the capacity of data stored in the
以上、本実施の形態においては、制御部10による生体情報の検出時に使用者の音声データが使用者のメモリ12に記憶される。それにより、使用者は、相手に依存する使用者の音声の状態を記憶内容に基づいて容易に把握することができる。
As described above, in the present embodiment, the user's voice data is stored in the user's
また、本実施の形態においては、制御部10により検出された生理量データ(皮膚温度およびGSR)が各種基準値を超えたか否かが制御部10により判別され、生理量データが基準値を超えたと判別された場合に、基準値を超えた時点を含む特定通話期間の使用者の音声データがメモリ12に記憶される。それにより、使用者は、相手に依存して生体情報が大きく反応した場合の音声の状態を記憶内容により容易に把握することができる。
In the present embodiment, the
上記では、特定通話期間を決定するために、生理量データのうち皮膚温度およびGSRを用いているが、これに限らず、特定通話期間を決定するためのパラメータとしては、皮膚温度のみを用いてもよいし、GSRのみを用いてもよいし、脈拍のみを用いてもよいし、これらの組み合わせを用いてもよい。 In the above, skin temperature and GSR are used in the physiological data to determine the specific call period. However, the present invention is not limited to this, and only the skin temperature is used as a parameter for determining the specific call period. Alternatively, only GSR may be used, only pulse may be used, or a combination thereof may be used.
また、生理量データに限らず、生体情報であれば、音声データを解析することにより得られるトーン、抑揚およびジッタを用いてもよい。なお、この場合、各々のパラメータごとに基準値を設定する。 Further, not only physiological data but also biological information, tone, inflection and jitter obtained by analyzing voice data may be used. In this case, a reference value is set for each parameter.
本実施の形態においては、生体情報の基準値に対する大小関係により、特定通話期間を決定しているが、これに限らず、特定通話期間の決定は、携帯電話機100による心理状態の推定結果に応じて行われてもよい。 In the present embodiment, the specific call period is determined based on the magnitude relationship with respect to the reference value of the biometric information. It may be done.
携帯電話機100は、通話中でなくても、使用者の生体情報を検出してもよい。例えば、携帯電話機100は使用者が電子メールを作成する際に使用者の生体情報を検出してもよい。この場合、使用者は自己の特定の通信相手への電子メールの作成時の心理状態についての情報を得ることができる。そして、使用者の電子メールの作成時に生体情報が所定の基準値を超えた場合に使用者の電子メールの内容や音声データを記録してもよい。
The
他の実施の形態において後述するが、携帯電話機100は、抽出された音声データまたは推定された心理状態についての情報を他の通信装置に送信してもよい。
As will be described later in another embodiment, the
(第7の実施の形態)
第7の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Seventh embodiment)
The
本実施の形態に係る携帯電話機100には、図3の音声解析テーブル格納部125に後述の質問識別テーブルが記憶されている。
携帯電話機100は、質問識別テーブルに基づいて、使用者の通話時における通話相手の質問を識別し、その質問に対する使用者の回答がうそであるか否かを判定することができる。
Based on the question identification table, the
本実施の形態では、生理量データとしてGSRが用いられる。音声データとしては、上述の各実施の形態と同様に録音された使用者の会話の音声が用いられる。 In the present embodiment, GSR is used as physiological data. As the voice data, the voice of the user's conversation recorded as in the above-described embodiments is used.
図45は、図3の音声解析テーブル格納部125に記憶される内容の一例および使用者の回答がうそであるか否かの判定方法を説明するための図である。
FIG. 45 is a diagram for explaining an example of contents stored in the voice analysis
初めに、質問識別テーブルについて説明する。図45(a)には、図3の音声解析テーブル格納部125に記憶される質問識別テーブルの一例が表されている。図45(a)の例では、携帯電話機100が、通話相手の発声のうち、語尾の抑揚が上昇し、かつ、語尾の単語が「ですか」の場合に質問であると識別し、その他の場合に質問ではないと識別する旨が表されている。これにより、本実施の形態に係る携帯電話機100は、通話中における通話相手の発声が質問であるか否かを識別することができる。
First, the question identification table will be described. FIG. 45A shows an example of a question identification table stored in the voice analysis
図45(b)に示すように、携帯電話機100は、通話相手の発声および質問識別テーブルに基づいて質問Qu1,Qu2を識別した場合、その質問Qu1,Qu2に対する使用者の回答Ans1,Ans2を識別する。
As shown in FIG. 45 (b), when the
そして、携帯電話機100は、図45(c)に示すように使用者の回答Ans1,Ans2として識別された期間のGSR測定値が所定の基準値GTHを超えたか否かを判別する。
Then, the
携帯電話機100は、GSR測定値が所定の基準値GTHを超えた場合、その測定時に対応する使用者の回答Ans1がうそであると判定する。また、携帯電話機100は、GSR測定値が所定の基準値GTHを超えない場合、その測定時に対応する使用者の回答Ans2が本当であると判定する。
When the GSR measurement value exceeds the predetermined reference value GTH, the
一般に、人間はGSRが高い場合に緊張状態である可能性が高いとされている。したがって、GSR測定値が所定の基準値GTHを超えた場合、使用者はうその回答をすることによる緊張状態にあると推定される。なお、上記の基準値GTHは予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。 In general, it is considered that a person is likely to be in a tension state when the GSR is high. Therefore, when the GSR measurement value exceeds the predetermined reference value GTH, it is estimated that the user is in a tension state by answering a lie. The reference value GTH may be set by determining a specific value in advance, or may be set for each user according to characteristics such as the health condition and personality of each user.
上述の携帯電話機100による通話相手の質問の識別、使用者の回答の識別およびその回答がうそか否かの判定を含む一連の動作をうそ判定動作と呼ぶ。
A series of operations including identification of the other party's question, identification of the user's answer and determination of whether or not the answer is a lie by the
本実施の形態に係る携帯電話機100は、上記うそ判定動作を行うとともに、使用者の回答がうそか否かの判定時に、その判定結果を使用者に通知するための後述のうそ回答時動作を行う。また、携帯電話機100は、使用者の通話終了時に、その通話中における回答のうその数はどれほどであったかという診断結果を使用者に通知するための後述のうそ診断時動作を行う。
The
うそ回答時動作およびうそ診断時動作は、以下に説明するうそ通知動作設定テーブルに基づき行われる。以下、使用者の回答がうそと判定されるときをうそ回答時と呼び、使用者の通話が終了して使用者の通話中の回答のうその数が診断されるときをうそ診断時と呼ぶ。 The lie response operation and the lie diagnosis operation are performed based on a lie notification operation setting table described below. Hereinafter, the time when the user's answer is determined to be a lie is referred to as a lie answer, and the time when the user's call is completed and the number of lies in the user's answer is diagnosed is referred to as a lie diagnosis time. .
うそ通知動作設定テーブルについて説明する。図46は、図3の動作設定記憶部121に記憶されるうそ通知動作設定テーブルの一例を示す図である。
The lie notification operation setting table will be described. 46 is a diagram showing an example of a lie notification operation setting table stored in the operation setting
図46では、うそ回答時およびうそ診断時の各々に対してうそメロディパターン、うそ発光パターンおよびうそ表示パターンの組合わせが分類されている。例えば、うそ発声時の場合、うそメロディパターンとして「ブーブー」が設定され、うそ発光パターンとして「赤色を点灯」が設定され、うそ表示パターンとして「うそをついています」が設定されている。 In FIG. 46, combinations of a lie melody pattern, a lie emission pattern, and a lie display pattern are classified for each of the lie answer time and the lie diagnosis time. For example, in the case of a lie utterance, “boo boo” is set as the lie melody pattern, “red light” is set as the lie light emission pattern, and “lie lie” is set as the lie display pattern.
これにより、携帯電話機100はうそ回答時およびうそ診断時に上記の各パターンに基づく動作を行う。それにより、使用者は自己のうその回答を知ることができる。
Thereby, the
図46に示すように、本実施の形態では、使用者の通話中のうその数に応じて上述のうそ診断時動作を行うためのうそレベルが設定されている。例えば、使用者が通話中に3度回答した場合にそれらの全ての回答がうそであると判定されるとうそレベル1が決定され、3度の回答のうち2度の回答がうそである場合にうそレベル2が決定され、3度の回答のうち1度の回答がうそである場合にうそレベル3が決定される。
As shown in FIG. 46, in the present embodiment, a lie level for performing the above-described lie diagnosis operation is set according to the number of lies during a user's call. For example, when the user answers three times during a call, if it is determined that all those answers are lies,
うそレベルの決定方法は特に限定されない。例えば、上記の他、通話中の全ての回答回数に対するうその回答回数の比率に応じて定められてもよい。また、うそレベルのレベルの数も上記に限定されない。 The method for determining the lie level is not particularly limited. For example, in addition to the above, it may be determined in accordance with the ratio of the number of times of lies to the total number of answers during a call. Further, the number of lie levels is not limited to the above.
うそ診断時においては、うそレベルごとにうそメロディパターン、うそ発光パターンおよびうそ表示パターンの組合わせが分類されている。例えば、うそ診断時のうそレベル3に対しては、うそメロディパターンとして「ブーブー」が設定され、うそ発光パターンとして「赤色を点灯」が設定され、うそ表示パターンとして、うその数が多いことを棒グラフで表したうそレベルメータおよび「大うそつきー!」のコメントが設定されている。
At the time of lie diagnosis, combinations of lie melody patterns, lie light emission patterns, and lie display patterns are classified for each lie level. For example, for
これにより、携帯電話機100はうそ診断時にうそレベルの決定結果に基づいて上記の各パターンの動作を行う。それにより、使用者は自己の通話中におけるうその回答回数を知ることができる。
Thereby, the
ここで、本実施の形態に係る携帯電話機100においては、上記のように、使用者の回答時にその回答のうそまたは本当のみを判定しなくてもよい。後述するように、携帯電話機100は使用者の回答時に、その回答のうその度合いを判定してもよい。この場合、うそ通知動作設定テーブルの設定内容は上記と異なる。
Here, in the
この場合のうその度合いの判定方法およびこの判定時に用いられるうそ通知動作設定テーブルの一例について説明する。 An example of the determination method of the lie level in this case and an example of the lie notification operation setting table used at the time of this determination will be described.
図47は使用者の回答のうその度合いを判定するための判定方法を説明するための図および図3の動作設定記憶部121に記憶されるうそ通知動作設定テーブルの他の例を示す図である。
47 is a diagram for explaining a determination method for determining the degree of a user's answer lie and a diagram illustrating another example of a lie notification operation setting table stored in the operation setting
図47(a)に、使用者の回答のうその度合いを判定するための判定方法が表されている。本例では、使用者の回答時のGSRの測定結果を2つの基準値GTH1,GTH2でレベル分けする。それにより、GSRの測定結果と2つの基準値GTH1,GTH2との大小関係に基づいて、使用者の回答ごとにその回答のうその度合いを示すうそ度レベルを決定する。なお、図47に示すように、2つの基準値GTH1,GTH2は、この順に大きい。これにより、本例では、うそ度レベルは1〜3に分けられている。 FIG. 47A shows a determination method for determining the degree of lie of the user's answer. In this example, the GSR measurement result at the time of the user's answer is divided into levels by two reference values GTH1 and GTH2. Thereby, a lie level indicating the degree of lie of the answer is determined for each user's answer based on the magnitude relationship between the GSR measurement result and the two reference values GTH1 and GTH2. As shown in FIG. 47, the two reference values GTH1 and GTH2 are larger in this order. Thereby, in this example, the lie level is divided into 1-3.
例えば、使用者の回答時におけるGSR測定値が基準値GTH1,GTH2をともに超える場合、その回答のうそ度レベルは最も大きい3となる。また、使用者の回答時におけるGSR測定値が基準値GTH1,GTH2の間にある場合、その回答のうそ度レベルは中程度を示す2となる。 For example, when the GSR measurement value at the time of the user's answer exceeds both the reference values GTH1 and GTH2, the answer lie level is 3 which is the highest. Further, when the GSR measurement value at the time of the user's answer is between the reference values GTH1 and GTH2, the lie level of the answer is 2, which indicates a medium level.
図47(b)に、上記のうそ度レベルに基づくうそ通知動作設定テーブルの一例が表されている。図47(b)には、うそ回答時における上述のうそ度レベルに応じてうそメロディパターン、うそ発光パターンおよびうそ表示パターンの組合わせが分類されている。 FIG. 47B shows an example of a lie notification operation setting table based on the lie level described above. In FIG. 47 (b), combinations of lie melody patterns, lie light emission patterns, and lie display patterns are classified according to the above-mentioned lie level at the time of a lie answer.
例えば、うそ回答時のうそ度レベル2に対しては、うそメロディパターンとして「ピロリロー」が設定され、うそ発光パターンとして「青色を点灯」が設定され、うそ表示パターンとしてうその度合いが中程度であることを棒グラフで表したうそレベルメータが設定されている。
For example, for the
これにより、携帯電話機100はうそ回答時にうそ度レベルに基づいて上記の各パターンの動作を行う。それにより、使用者は通話相手の質問に対する回答時に自己の回答のうその度合いを知ることができる。
As a result, the
ところで、本実施の形態において、携帯電話機100は使用者の通話中のうその診断結果を履歴データとして、図3の履歴データ格納部124に記憶する。図48は、過去のうその診断結果を含む履歴データの一例を示す図である。
By the way, in the present embodiment, the
図48に示すように、本実施の形態では通信相手ごとに過去のうその診断結果が履歴データの一部として図3の履歴データ格納部124に記憶されている。これにより、使用者は履歴データを呼び出すことにより、特定の通信相手に対する過去のうその診断結果を知ることができる。
As shown in FIG. 48, in the present embodiment, the past diagnosing results for each communication partner are stored in the history
例えば、図48の履歴データには、通信相手AAに対応して、上述の第1の実施の形態の図7において説明した内容とともに過去のうその診断結果がうそレベル1として記憶されている。
For example, in the history data of FIG. 48, the diagnosis result of the past lie is stored as the
以下の説明において、図3の動作設定記憶部121には図46のうそ通知動作設定テーブルが記憶されているものとする。したがって、携帯電話機100は、使用者の通話時に使用者の回答のうそまたは本当を判定し、うそ診断時に、その通話中のうその回答回数を判定してもよい。
In the following description, it is assumed that the lie notification operation setting table of FIG. 46 is stored in the operation setting
図49および図50は、使用者が第7の実施の形態に係る携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。
49 and 50 are diagrams illustrating an example of contents displayed on the
使用者は、通話を行う場合に携帯電話機100の入力操作部11を操作する。
The user operates the
図49(a)は、使用者の通話中のメイン表示部13の表示例を表す。メイン表示部13には、使用者が通話している際に現在の通話時間が表示され、使用者の生体情報を検出している旨が表示される。使用者の通話中に使用者の回答がうそであると判定された場合、メイン表示部13の表示が切り替わる。
FIG. 49A shows a display example of the
図49(b)は、通話中であって、使用者の回答がうそであると判定された場合にメイン表示部13に表示される内容の一例を表す図である。メイン表示部13には、現在の通話時間および生体情報を検出している旨が表示されるとともに、使用者の回答がうそである旨のうそ表示パターンが表示される。
FIG. 49B is a diagram illustrating an example of contents displayed on the
このメイン表示部13の表示状態においては、図46のうそ回答時のうそ発光パターン「赤色を点灯」でサブ表示部14が発光するとともに、図46のうそ回答時のうそメロディパターン「ブーブー」でスピーカ15aが音声出力する。
In the display state of the
使用者またはその通話相手が携帯電話機100の入力操作部11を操作することにより通話が終了する。
When the user or the other party operates the
図49(c)は、使用者が通話を終了した場合のメイン表示部13の表示例を表す。通話終了とともに、携帯電話機100は上述のうそ診断動作を行う。その結果、メイン表示部13には、使用者の通話時間が表示されるとともに、使用者の通話中のうその回答回数を棒グラフで表したうそレベルメータおよび「なかなかうそつき!?」のコメントが表示される。なお、図49(c)の表示例では、使用者のうそレベルは2であると診断されている。さらに、メイン表示部13には終了ボタン131およびバツボタン160が表示されている。
FIG. 49C shows a display example of the
このメイン表示部13の表示状態においては、図46のうそ診断時のうそ発光パターン「青色を点灯」でサブ表示部14が発光するとともに、図46のうそ回答時のうそメロディパターン「ピロリロー」でスピーカ15aが音声出力する。
In the display state of the
一方、図3の動作設定記憶部121に図47のうそ通知動作設定テーブルが記憶されている場合、制御部10は、使用者の通話中に回答のうその度合いを判定し、うそ通知動作設定テーブルに基づく動作を行う。
On the other hand, when the lie notification operation setting table of FIG. 47 is stored in the operation setting
図50(d)は、図3の動作設定記憶部121に図47のうそ通知動作設定テーブルが記憶されている場合の使用者の通話中におけるメイン表示部13の表示例を表す。
FIG. 50D illustrates a display example of the
メイン表示部13には、使用者の通話時間が表示されるとともに、使用者の通話中の回答のうその度合いの判定結果を棒グラフで表したうそレベルメータが表示される。なお、図50(d)の表示例では、使用者のうそレベルは2であると診断されている。さらに、メイン表示部13には終了ボタン131およびバツボタン160が表示されている。
The
このメイン表示部13の表示状態においては、図47(b)のうそ回答時のうそ発光パターン「青色を点灯」でサブ表示部14が発光するとともに、図46のうそ回答時のうそメロディパターン「ピロリロー」でスピーカ15aが音声出力する。
In the display state of the
メイン表示部13の図49(c)および図50(d)の表示状態において、使用者は、図1のカーソルボタンKKおよび決定ボタンKS等を操作することにより、終了ボタン131およびバツボタン160のいずれかを選択することができる。
49 (c) and 50 (d) on the
使用者が入力操作部11を操作することにより終了ボタン131を選択した場合、上述のうそ判定動作、うそ回答時動作およびうそ診断時動作が終了する。
When the user selects the
ここで、本実施の形態に係る携帯電話機100は使用者の通話終了後に、判定された使用者の回答のうその度合いまたはうその回答回数等に応じて、メイン表示部13にバツゲームに関する情報を表示してもよい。
Here, the
図50(e)は、使用者がバツボタン160を選択した場合のメイン表示部13の表示例である。図50(e)によれば、メイン表示部13には、使用者の回答のうその度合いまたはうその回答回数等に応じたコメント「なかなかうそつきなあなた!!」が表示され、バツゲームとしてのコメント「隣の人の肩たたきをしてください」が表示されている。
FIG. 50E is a display example of the
また、図50(e)においても終了ボタン131が表示されているが、上記同様に、使用者が入力操作部11を操作することにより終了ボタン131を選択した場合、うそ判定動作、うそ回答時動作およびうそ診断時動作が終了する。
In FIG. 50E, the
本実施の形態に係る通信プログラムについて説明する。図51〜図53は第7の実施の形態に係る通信プログラムの一例を示すフローチャートである。なお、このフローチャートによれば、携帯電話機100は使用者の回答がうそか否かを判定し、通話終了時にうその回答回数に基づくうそ診断を行うことができる。
A communication program according to the present embodiment will be described. 51 to 53 are flowcharts showing an example of a communication program according to the seventh embodiment. According to this flowchart, the
本実施の形態に係る通信プログラムによれば、図2の制御部10は、次のように動作する。
According to the communication program according to the present embodiment, the
初めに、図2の制御部10は、使用者による入力操作部11の操作によりうそ発見モードをオンする旨の指令信号を受けたか否かを判別する(ステップS400)。うそ発見モードのオンとは、携帯電話機100が上述のうそ判定動作、うそ回答時動作およびうそ診断時動作を行うことが可能な状態にすることをいう。
First, the
制御部10は、うそ発見モードをオンする旨の指令信号を受けた場合、第2の実施の形態で説明したステップS31〜ステップS33と同様の動作を行う(ステップS401〜S403)。上記ステップS403において、制御部10は、応答があった場合、生理量データの測定および通信相手の音声データの解析を開始する(ステップS404)。
When receiving a command signal to turn on the lie discovery mode, the
その後、制御部10は、通信相手が発声し、かつ、その発声が質問であるか否かを図45の質問識別テーブルに基づき識別する(ステップS405)。そして、制御部10は、通信相手の発生が質問であると判別した場合、使用者が回答したか否かを識別する(ステップS406)。ここで、制御部10は、使用者が回答した場合、使用者の回答時のGSR測定値が基準値GHTを超えたか否かを判別する(ステップS407)。
Thereafter, the
制御部10は、使用者の回答時のGSR測定値が基準値GHTを超えた場合、その使用者の回答をうそと判定し、その旨を一時的に図2のメモリ12に記憶する(ステップS408)。
When the GSR measurement value at the time of the user's answer exceeds the reference value GHT, the
そして、制御部10は、図46のうそ通知動作設定テーブルのうそ回答時に対応するうそ表示パターンをメイン表示部13に表示させ、うそ回答時に対応するうそ発光パターンで図2のサブ表示部14を発光させ、うそ回答時に対応するメロディパターンでスピーカ15aから音声を出力させる(ステップS409)。
Then, the
次いで、制御部10は通信が終了したか否かを判別する(ステップS411)。ここで、上記ステップS407において、制御部10は、使用者の回答時のGSR測定値が基準値GHTを超えない場合、その使用者の回答を本当と判定し、その旨を一時的に図2のメモリ12に記憶する(ステップS410)。そして、制御部10は上記ステップS411の動作を行う。
Next, the
制御部10は、通信が終了しない場合、上記ステップS404の動作を繰り返す。一方、制御部10は、通信が終了した場合、上記ステップS408およびステップS410においてメモリ12に一時的に記憶された内容に基づいてうその回答回数および本当の回答回数を算出し、上述のうそレベルを確定する(ステップS412)。
When the communication is not terminated, the
これにより、制御部10は、確定されたうそレベルおよび図46のうそ通知動作設定テーブルに基づいて、確定されたうそレベルに対応するうそ表示パターンをメイン表示部13に表示させ、確定されたうそレベルに対応するうそ発光パターンで図2のサブ表示部14を発光させ、確定されたうそレベルに対応するメロディパターンでスピーカ15aから音声を出力させる(ステップS413)。
As a result, the
最後に、制御部10は、図3の履歴データ格納部124に、確定されたうそレベルを履歴データとして記憶する(ステップS414)。これにより、制御部10は、本実施の形態に係る通信プログラムを終了する。
Finally, the
制御部10は、上記ステップS100において、うそ発見モードがオンしない場合、第2の実施の形態のステップS50〜S53と同様の動作を行う(ステップS420〜S423)。制御部10は、上記ステップS423において、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。
When the lie discovery mode is not turned on in step S100, the
上記の本実施の形態に係る通信プログラムにおいては、ステップS414の動作により使用者の通話ごとに確定されたうそレベルが履歴データとして図3の履歴データ格納部124に記憶される。これにより、使用者は、履歴データ格納部124から履歴データを呼び出すことにより過去の通話時における自己の回答についての情報を得ることができる。
In the communication program according to the present embodiment, the lie level determined for each user call by the operation in step S414 is stored as history data in the history
なお、上記では、図49および図50の説明においてメイン表示部13に表示される終了ボタン131およびバツボタン160の使用者による操作に基づく動作については省略しているが、制御部10は上記図49および図50説明のように使用者が終了ボタン131を選択することにより通信プログラムを終了させ、使用者がバツボタン160を選択することにより確定されたうそレベルに応じたバツゲームに関するコメントをメイン表示部13に表示させる動作を行う。
In the above description, in the description of FIG. 49 and FIG. 50, the operation based on the operation by the user of the
さらに、上記では、携帯電話機100は確定されたうそレベルを履歴データとして記憶するとしているが、携帯電話機100は確定されたうそレベルを履歴データとして記憶しなくてもよい。
Furthermore, in the above description, the
以上、本実施の形態においては、無線通信部30およびアンテナ31により受信された音声データに基づいて通話相手からの質問を示す音声データが制御部10により識別され、質問を示す音声データが識別されたときに使用者の生体情報が検出される。それにより、通話相手および通話内容に依存する生体情報を取得することができる。
As described above, in the present embodiment, the voice data indicating the question from the other party is identified by the
また、本実施の形態においては、生理量データ測定部20により検出された生体情報に基づいて使用者のうそが推定手段により推定される。それにより、通信相手に依存した使用者のうそを認識することができる。
In the present embodiment, the lie of the user is estimated by the estimation unit based on the biological information detected by the physiological
上述の基準値GTH,GTH1,GTH2は通信相手ごとに設定されてもよい。 The reference values GTH, GTH1, and GTH2 described above may be set for each communication partner.
本実施の形態では、使用者の回答のうそを判定するために、生理量データとしてGSRのみが用いられているが、これに限らず、使用者の回答のうそを判定するためのパラメータとしては、皮膚温度のみを用いてもよいし、GSRのみを用いてもよいし、脈拍のみを用いてもよいし、これらの組み合わせを用いてもよい。 In the present embodiment, only GSR is used as physiological data in order to determine the user's answer lie. However, the present invention is not limited to this, and the parameters for determining the user's answer lie are as follows. Only the skin temperature may be used, only GSR may be used, only the pulse may be used, or a combination of these may be used.
また、生理量データに限らず、生体情報であれば、音声データを解析することにより得られるトーン、抑揚およびジッタを用いてもよい。なお、この場合、各々のパラメータごとに基準値を設定する。 Further, not only physiological data but also biological information, tone, inflection and jitter obtained by analyzing voice data may be used. In this case, a reference value is set for each parameter.
上記では、使用者の携帯電話機100による通話中で、かつ使用者の回答中に限り、GSR測定値に基づく使用者のうその判定を行っているが、これに限らず、使用者の通話時間を通じて、通話全体のGSRに基づき使用者の通話中のうその度合いを判定してもよい。この場合、使用者は通話全体の自己の発言時の生体情報に基づいてうその度合いの判定を行うことで、その通話時全体を通してうそに関する様々な情報を得ることができる。
In the above description, the user's lie is determined based on the GSR measurement value only during the call by the user's
携帯電話機100は、通話中でなくても、使用者の生体情報を検出してもよい。例えば、携帯電話機100は使用者が電子メールによる質問に対して、使用者が回答する場合の生体情報を検出してもよい。この場合、その生体情報に基づいて、質問に対する回答の電子メールのうその度合いを判定することができる。さらに、判定された内容を回答の電子メールに添付して送信してもよい。この場合、使用者は回答の電子メールを作成する時のうその度合いについての情報を得ることができる。
The
他の実施の形態において後述するが、携帯電話機100は、検出された生体情報または推定された心理状態についての情報を他の通信装置に送信してもよい。
As will be described later in another embodiment, the
さらに、上記では、使用者の通話中に回答がうそか否かの判定を行い、使用者の通話後にその通話中におけるうその回答回数についての診断を行っているが、これらの動作は必ずしもともに行われる必要はない。携帯電話機100は、使用者の通話中における回答のうそか否かの判定のみを行ってもよいし、使用者の通話時のうその回答回数についての診断のみを行ってもよい。
Furthermore, in the above, it is determined whether or not the answer is a lie during the user's call, and after the user's call, a diagnosis is made regarding the number of times the lie is answered during the call. There is no need to be done. The
(第8の実施の形態)
第8の実施の形態に係る通信システムについて説明する。本実施の形態に係る通信システムは第1の実施の形態に係る携帯電話機100、診断者用電話機および診断者用コンピュータを含む。
(Eighth embodiment)
A communication system according to the eighth embodiment will be described. The communication system according to the present embodiment includes a
図54は、第8の実施の形態に係る通信システムの概要を説明するための図である。本実施の形態に係る通信システム700によれば、使用者(本実施の形態では、患者と呼ぶ。)は携帯電話機100を用いて医者、カウンセラー等の診断者と通話することにより、その通話時の生体情報を診断者に送信することができる。そして、診断者は、送信された生体情報に対するアドバイスを診断コンピュータにより患者に送信することができる。
FIG. 54 is a diagram for explaining the outline of the communication system according to the eighth embodiment. According to the
図54(a)は、患者PAと診断者DOとの間で通話がなされている様子を表す。図54(a)に示すように、患者PAは携帯電話機100を用いている。また、診断者DOは診断用電話機100Xを用いている。患者PAと診断者DOとの通話時において、携帯電話機100は使用者の生体情報を検出する。
FIG. 54A shows a state in which a call is made between the patient PA and the diagnostician DO. As shown in FIG. 54A, the patient PA uses a
ここでは、携帯電話機100は、生体情報として第1の実施の形態に示すように患者PAの生理量データ(GSR、皮膚温度および脈拍等)を測定してもよいし、第2の実施の形態に示すように音声データを解析することにより得られるパラメータ(トーン、抑揚およびジッタ等)を測定してもよい。
Here, the
図54(b)は、患者PAと診断者DOとの通話終了時の様子を表す。通話終了時において、患者PAの携帯電話機100は、通話中に検出された生体情報、すなわち、患者PAの生理量データおよび音声データを、例えば、電子メールDA1により診断者DOの診断コンピュータ100PCへ送信する。これにより、診断者DOは送信された電子メールDA1に基づいて、患者PAの生体情報を診断コンピュータ100PCにより確認することができる。
FIG. 54B shows a state at the end of a call between the patient PA and the diagnostician DO. At the end of the call, the
そして、診断者DOは患者PAの生体情報およびその生体情報が検出された通話中の通話内容に基づいて患者PAの健康状態を分析することができる。 Then, the diagnostician DO can analyze the health state of the patient PA based on the biological information of the patient PA and the content of the call during the call in which the biological information is detected.
図54(c)は、診断者DOが患者PAに対して健康状態に関するアドバイスを行う様子を表す。診断者DOは、患者PAの健康状態を分析するとともに、その健康状態に対するアドバイスを診断コンピュータ100PCを用いて電子メールDA2により患者PAの携帯電話機100に送信する。
FIG. 54 (c) shows a state in which the diagnostician DO provides advice regarding the health condition to the patient PA. The diagnostician DO analyzes the health condition of the patient PA, and transmits advice on the health condition to the
このように、本実施の形態に係る通信システム700によれば、診断者DOは通話中の患者PAの生体情報および通話内容に基づいて患者PAの健康状態を分析することができるので、患者PAへ健康状態に関する正確なアドバイスを行うことができる。一方、患者PAは送信された電子メールDA2に基づいて、自己の健康状態に関する正確なアドバイスを得ることができる。
As described above, according to the
図55および図56は、患者PAが第8の実施の形態に係る通信システム700の携帯電話機100を使用する場合にメイン表示部13に表示される内容の一例を表す図である。
FIGS. 55 and 56 are diagrams illustrating an example of contents displayed on the
患者PAは、通話を行う場合に携帯電話機100の入力操作部11を操作する。
The patient PA operates the
図55(a)は、患者PAが診断者DOに電話をかけた場合(発信時)の携帯電話機100のメイン表示部13の表示例を表す。メイン表示部13には、携帯電話機100が診断者DO(図55(a)では、ストレス診断窓口)の診断用電話機100Xへ発信している旨および診断用電話機100Xの電話番号が表示される。
FIG. 55A shows a display example of the
図55(b)は、患者PAと診断者DOとの通話中の携帯電話機100のメイン表示部13の表示例を表す。メイン表示部13には、現在の通話時間が表示され、患者PAの生体情報を検出している旨が表示される。
FIG. 55B shows a display example of the
図56(c)は、患者PAと診断者DOとの間で通話が終了した場合の携帯電話機100のメイン表示部13の表示例を表す。メイン表示部13には、使用者の通話終了時に患者PAの通話時間が表示されるとともに通話中に検出された生体情報に関するデータを診断者DOに送信する旨が表示され、中止ボタン190が表示される。
FIG. 56C shows a display example of the
患者PAは携帯電話機100の入力操作部11を操作することにより中止ボタン190を選択することができる。患者PAが中止ボタン190を選択した場合、診断者DOへのデータの送信動作およびメイン表示部13の表示動作が中止される。
The patient PA can select the cancel
患者PAが中止ボタン190を選択しない場合には、診断者DOに対して生体情報に関するデータが電子メールにより送信される。
When the patient PA does not select the cancel
図56(d)は、通話終了後に診断者DOからアドバイスに関するデータを受信した携帯電話機100のメイン表示部13の表示例を表す。
FIG. 56D shows a display example of the
この場合、図56(d)に示すようにメイン表示部13には、受信した電子メールの旨、受信メールの内容、返信ボタン143、編集ボタン141およびサブボタン142が表示される。
In this case, as shown in FIG. 56 (d), the
これにより、患者PAは自己の生体情報および診断者DOとの通話内容に基づく自己の健康状態に関するアドバイスを得ることができる。 As a result, the patient PA can obtain advice on his / her health based on his / her biological information and the contents of the call with the diagnostician DO.
なお、図56(d)において、返信ボタン143、編集ボタン141およびサブボタン142についての各種機能は、第5の実施の形態で説明した通りである。
In FIG. 56D, the various functions of the
上記のように、通話中に検出された患者PAの生体情報を、通話終了後に自動的に診断者DOに送信する携帯電話機100の動作をストレス診断動作と呼ぶ。
As described above, the operation of the
本実施の形態に係る通信プログラムについて説明する。図57および図58は第8の実施の形態に係る通信プログラムの一例を示すフローチャートである。 A communication program according to the present embodiment will be described. 57 and 58 are flowcharts showing an example of a communication program according to the eighth embodiment.
本実施の形態に係る通信プログラムによれば、図2の携帯電話機100の制御部10は、次のように動作する。
According to the communication program according to the present embodiment,
初めに、携帯電話機100の制御部10は、使用者による入力操作部11の操作によりストレス診断モードをオンする旨の指令信号を受けたか否かを判別する(ステップS500)。ストレス診断モードのオンとは、携帯電話機100が上述のストレス診断動作を行うことが可能な状態にすることをいう。
First, the
制御部10は、ストレス診断モードをオンする旨の指令信号を受けた場合、患者PAが入力操作部11を操作することにより診断者DOの診断用電話機100Xに対する発信の旨の指令信号を受けたか否かを判別する(ステップS501)。
When the
制御部10は、発信の旨の指令信号を受けた場合、その指令信号に基づく所定の動作を行い、診断者DOから応答があったか否かを判別する(ステップS502)。制御部10は、応答があった場合、生体情報の検出、すなわち、生理量データの測定および音声データの録音を行う(ステップS503)。
When receiving a command signal for transmission, the
その後、制御部10は通信が終了したか否かを判別する(ステップS504)。制御部10は、通信が終了しない場合、上記ステップS503の動作を繰り返す。
Thereafter, the
一方、制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了し、測定された生理量データおよび録音された音声データを診断者DOの診断コンピュータ100PCに送信する(ステップS505)。これにより、本実施の形態に係る通信プログラムによる携帯電話機100の動作が終了する。
On the other hand, when the communication is completed, the
なお、本実施の形態に係る通信システム700において、携帯電話機100は、上記ステップS500〜S505の一連の動作の後、生理量データおよび音声データに基づく診断者DOの健康状態に関するアドバイスを受信する。
In the
ところで、携帯電話機100の制御部10は、上記ステップS500において、ストレス診断モードがオンしない場合、患者PAが入力操作部11を操作することにより診断者DOの診断用電話機100Xに対する発信の旨の指令信号を受けたか否かを判別する(ステップS510)。
By the way, if the stress diagnosis mode is not turned on in step S500, the
そして、制御部10は、発信の旨の指令信号を受けた場合、その指令信号に基づく所定の動作を行い、診断者DOから応答があったか否かを判別する(ステップS511)。その後、制御部10は、診断者DOから応答があった場合、通信が終了したか否かを判別する(ステップS512)。制御部10は、通信が終了した場合、本実施の形態に係る通信プログラムを終了する。
And control
なお、上記では診断者DOは患者PAへのアドバイスを電子メールを用いて携帯電話機100に送信しているが、これに限らず、診断者DOは患者PAへのアドバイスを直接携帯電話機100を用いて伝えてもよい。
In the above description, the diagnostician DO transmits advice to the patient PA to the
(第8の実施の形態における他の通信プログラムの例)
上記第8の実施の形態に係る通信プログラムは上述の図57および図58の説明によるものに限られない。以下、第8の実施の形態に係る通信プログラムの他の例について説明する。
(Examples of other communication programs in the eighth embodiment)
The communication program according to the eighth embodiment is not limited to the one described with reference to FIGS. 57 and 58 described above. Hereinafter, another example of the communication program according to the eighth embodiment will be described.
図59は、他の通信プログラムを用いた場合の第8の実施の形態に係る通信システムの概要を説明するための図である。この場合の通信システム700bによれば、患者PAは携帯電話機100を用いて診断者と通話することにより、その通話時の生体情報をその通話中に診断者DOに送信することができる。
FIG. 59 is a diagram for explaining the outline of the communication system according to the eighth embodiment when another communication program is used. According to the
図59(a)は、患者PAと診断者DOとの間で通話が開始される様子を表す。図59(a)に示すように、患者PAは携帯電話機100を用いている。また、診断者DOは診断用電話機100Xを用いている。
FIG. 59A shows a state where a call is started between the patient PA and the diagnostician DO. As shown in FIG. 59 (a), the patient PA uses a
図59(b)は、患者PAと診断者DOとの通話時の様子を表す。患者PAと診断者DOとの通話時において、携帯電話機100は使用者の生体情報を検出する。ここで、携帯電話機100は、診断者DOの診断用電話機100Xに対して通話に関するデータの送受信を行うとともに、検出された生体情報を電子メールDA1として診断者DOの診断コンピュータ100PCへ送信する。
FIG. 59B shows a state during a call between the patient PA and the diagnostician DO. At the time of a call between the patient PA and the diagnostician DO, the
これにより、診断者DOは、患者PAとの通話中に、電子メールDA1に基づいて患者PAの生体情報を診断コンピュータ100PCにより確認することができる。それにより、診断者DOは患者PAの生体情報およびその生体情報の検出された通話中の通話内容に基づいて患者PAの健康状態を分析することができる。 Thereby, the diagnostician DO can confirm the biological information of the patient PA by the diagnostic computer 100PC based on the electronic mail DA1 during the call with the patient PA. Thereby, the diagnostician DO can analyze the health state of the patient PA based on the biometric information of the patient PA and the content of the call during the call in which the biometric information is detected.
図59(c)は、診断者DOが患者PAに対して健康状態に関するアドバイスを行う様子を表す。診断者DOは、患者PAの健康状態を分析するとともに、その健康状態に対するアドバイスを診断コンピュータ100PCを用いて電子メールDA2により患者PAの携帯電話機100に送信する。
FIG. 59 (c) shows a state in which the diagnostician DO gives advice on the health condition to the patient PA. The diagnostician DO analyzes the health condition of the patient PA, and transmits advice on the health condition to the
このように、本実施の形態に係る通信システム700bにおいても、診断者DOは通話中の患者PAの生体情報および通話内容に基づいて患者PAの健康状態を分析することができるので、患者PAへ健康状態に関する正確なアドバイスを行うことができる。一方、患者PAは送信された電子メールDA2に基づいて、自己の健康状態に関する正確なアドバイスを得ることができる。
As described above, also in the
本例に係る通信プログラムについて説明する。図60は第8の実施の形態に係る通信プログラムの他の例を示すフローチャートである。 A communication program according to this example will be described. FIG. 60 is a flowchart showing another example of the communication program according to the eighth embodiment.
本例の通信プログラムによれば、図2の携帯電話機100の制御部10は、次のように動作する。
According to the communication program of this example, the
初めに、制御部10は、上記ステップS500〜S502の動作を行う。そして、制御部10は、上記ステップS502において応答があった場合、生体情報の検出、すなわち、生理量データの測定および音声データの録音を行うとともに、測定された生理量データおよび録音された音声データを診断者DOの診断コンピュータ100PCに送信する(ステップS520)。
First, the
その後、制御部10は通信が終了したか否かを判別する(ステップS521)。制御部10は、通信が終了しない場合、上記ステップS520の動作を繰り返す。
Thereafter, the
一方、制御部10は、通信が終了した場合、生理量データの測定および音声データの録音を終了し、生理量データおよび音声データの診断コンピュータ100PCへの送信動作を終了する(ステップS522)。これにより、本例に係る通信プログラムによる携帯電話機100の動作が終了する。
On the other hand, when the communication is completed, the
なお、上記通信システム700bにおいても、携帯電話機100は、上記ステップS500〜S502,S520〜S522の一連の動作の後、生理量データおよび音声データに基づく診断者DOの健康状態に関するアドバイスを受信する。
In the
携帯電話機100の制御部10は、上記ステップS500において、ストレス診断モードがオンしない場合、上記ステップS510〜S512と同様の動作を行う。
When the stress diagnosis mode is not turned on in step S500, the
なお、上記では診断者DOは患者PAへのアドバイスを電子メールを用いて携帯電話機100に送信しているが、これに限らず、診断者DOは患者PAへのアドバイスを直接携帯電話機100を用いて伝えてもよい。
In the above description, the diagnostician DO transmits advice to the patient PA to the
以上、本実施の形態に係る通信システム700,700bにおいては、患者PAが携帯電話機100の無線通信部30およびアンテナ31により診断用電話機100Xを有する診断者DOと通話を行っているときに、生理量データ測定部20、通話用スピーカ15bおよび制御部10により使用者の生体情報が検出される。そして、無線通信部30およびアンテナ31による診断者DOとの通話中または通話終了後に、検出された生体情報に基づく情報が無線通信部30およびアンテナ31により診断コンピュータ100PCに送信される。それにより、診断者DOは、診断コンピュータ100PCに送信された情報に基づいて使用者の健康状態を分析することができる。
As described above, in the
診断者は、分析結果に基づくアドバイスを診断用電話機100Xによる通話または診断コンピュータ100PCによる情報の通信により携帯電話機100に送信することができる。それにより、患者PAは、診断者DOとの会話による分析結果に基づくアドバイスを容易に受けることができる。
The diagnostician can transmit advice based on the analysis result to the
なお、診断用電話機100Xと診断コンピュータ100PCとが一体的に設けられてもよい。
The
なお、本実施の形態では、使用者として患者PAを想定し、通信相手として診断者DOを想定しているが、使用者と通信相手との関係はこれに限られない。 In the present embodiment, patient PA is assumed as the user and diagnostician DO is assumed as the communication partner, but the relationship between the user and the communication partner is not limited to this.
(第9の実施の形態)
第9の実施の形態に係る携帯電話機100は、以下の点を除き第1の実施の形態に係る携帯電話機100と同様の構成および動作を有する。
(Ninth embodiment)
The
本実施の形態に係る携帯電話機100には、図3の補正データ記憶部126に後述の補正テーブルが記憶されている。
In
携帯電話機100は、第1の実施の形態と同様に、使用者の通話中に生体情報を検出する。ここで、本実施の形態では、検出された生体情報のうち、生理量データのGSR測定値が、補正テーブルにより補正される。その結果、携帯電話機100は環境状態に影響を受けることなく、使用者の心理状態(緊張の度合い)を正確に推定することができる。
Similar to the first embodiment, the
補正テーブルについて説明する。図61は、図3の補正データ記憶部126に記憶される内容の一例を示す図である。
The correction table will be described. 61 is a diagram showing an example of contents stored in the correction
図61の補正テーブルにおいては、携帯電話機100の使用地域および使用時期ごとにGSR測定値補正量CP1〜CP3,CQ1〜CQ3,CR1〜CR3が設定されている。
In the correction table of FIG. 61, GSR measurement value correction amounts CP1 to CP3, CQ1 to CQ3, and CR1 to CR3 are set for each use region and use time of the
一般に、GSR測定値は環境状態に応じて変化すると考えられており、環境状態として気温が低い場合にはGSRは低くなり、気温が高い場合にはGSRは高くなるとされている。 In general, it is considered that the GSR measurement value changes according to the environmental state. When the temperature is low as the environmental state, the GSR is low, and when the temperature is high, the GSR is high.
上記のGSR測定値補正量は、例えば、CP1,CP2,CP3の順に小さく、CQ1,CQ2,CQ3の順に小さく、CR1,CR2,CR3の順に小さく設定される。また、GSR測定値補正量は、CP1,CQ1,CR1の順に小さく、CP2,CQ2,CR2の順に小さく、CP3,CQ3,CR3の順に小さく設定される。 For example, the GSR measurement value correction amount is set to be smaller in the order of CP1, CP2, and CP3, smaller in the order of CQ1, CQ2, and CQ3, and smaller in the order of CR1, CR2, and CR3. Further, the GSR measurement value correction amount is set to be smaller in the order of CP1, CQ1, and CR1, smaller in the order of CP2, CQ2, and CR2, and smaller in the order of CP3, CQ3, and CR3.
例えば、使用地域「北海道」においては、使用時期「春」にGSR測定値補正量CP2が対応付けられ、使用時期「夏」にGSR測定値補正量CP3が対応付けられ、使用時期「秋」にGSR測定値補正量CP2が対応付けられ、使用時期「冬」にGSR測定値補正量CP1が対応付けられる。 For example, in the use region “Hokkaido”, the GSR measurement value correction amount CP2 is associated with the use period “spring”, the GSR measurement value correction amount CP3 is associated with the use period “summer”, and the use period “autumn”. The GSR measurement value correction amount CP2 is associated, and the use period “winter” is associated with the GSR measurement value correction amount CP1.
これにより、使用者が北海道で春に携帯電話機100を使用する際には、図20の生理量データ測定部20によるGSR測定値が図61の補正テーブルに基づいてGSR測定値補正量CP2で補正される。その結果、携帯電話機100は補正されたGSR測定値に基づいて正確に使用者の心理状態の推定を行うことができる。
Accordingly, when the user uses the
上記において、携帯電話機100は通信基地局からの情報に基づいて使用地域を特定してもよい。また、携帯電話機100は、制御部10が現在の年月日および時分についての管理機能を有することにより、使用時期を特定してもよい。
In the above, the
ここで、携帯電話機100による使用地域の特定方法について説明する。図62は、第9の実施の形態に係る携帯電話機100が使用地域を特定する方法の一例を示す図である。
Here, a method of specifying the area of use by the
図62に示すように、通信基地局800は、例えば、無線通信部810、アンテナ811、制御部820および基地局通信装置830を含む。通信基地局800は、無線通信部810およびアンテナ811を通じて使用者の携帯電話機100と通信が可能であり、各種情報の送受信を行うことができる。
As illustrated in FIG. 62, the
制御部820は、CPU等を含み、無線通信部810および基地局通信装置830の動作を制御する。基地局通信装置830は、公衆回線網900に接続されている。
例えば、使用者が携帯電話機100を用いて他の電話機と通話する場合、使用者の音声データは、通信基地局800および公衆回線網900を通じて他の電話機に送られる。
For example, when a user makes a call with another telephone using the
通信基地局800は、各地域ごとに複数設置されている。携帯電話機100の使用時において、携帯電話機100は複数の通信基地局800のうち近くに位置する通信基地局800と通信を行う。
A plurality of
そして、各々の通信基地局800は自己の所在地に関する情報を使用者の携帯電話機100に送信することができる。これにより、携帯電話機100は通信基地局800からの所在地に関する情報に基づいて使用地域を特定することができる。
Each
しかしながら、使用地域の特定方法は上記に限られず、使用者の図2の入力操作部11の操作により行われてもよい。
However, the method of specifying the use area is not limited to the above, and may be performed by the user's operation of the
本実施の形態では、補正テーブルの一例として、GSR測定値補正量について説明したが、これに限らず、補正テーブルには、使用者の生理量データから得られる皮膚温度および脈拍についての補正量が設定されてもよい。この場合、複数の生理量データについて、各々の測定値が補正されるので、心理状態の推定がより正確となる。 In the present embodiment, the GSR measurement value correction amount has been described as an example of the correction table. However, the correction table is not limited to this, and the correction amount for the skin temperature and pulse obtained from the physiological data of the user is included in the correction table. It may be set. In this case, since each measurement value is corrected for a plurality of physiological data, the estimation of the psychological state becomes more accurate.
補正テーブルには、使用者の音声データを解析して得られるトーン、抑揚およびジッタの各々についての補正量が設定されてもよい。これにより、携帯電話機100が音声データに基づいて使用者の心理状態を推定する場合に音声データにより得られるパラメータの補正が行われるので、心理状態の推定がより正確となる。
In the correction table, correction amounts for each of tone, inflection, and jitter obtained by analyzing user's voice data may be set. Thereby, when the
上記では、携帯電話機100の使用地域および使用時期に基づいてGSR補正量の設定を行っているが、これに限らず、図1の携帯電話機100に気温センサを設け、気温センサにより得られる測定値に基づいてGSR補正量の設定を行ってもよい。
In the above description, the GSR correction amount is set based on the use region and use time of the
本実施の形態において、補正テーブルに基づいて生理量データの測定値を補正しているが、これに限らず、第1の実施の形態の心理状態レベルを環境状態に応じて補正してもよい。 In the present embodiment, the measurement value of the physiological data is corrected based on the correction table. However, the present invention is not limited to this, and the psychological state level of the first embodiment may be corrected according to the environmental state. .
上述のGSR測定値補正量は、それぞれ予め特定の値を定めることにより設定されてもよいし、各使用者の健康状態および性格等の特徴に応じて使用者ごとに設定されてもよい。 The above-mentioned GSR measurement value correction amount may be set by determining a specific value in advance, or may be set for each user according to characteristics such as the health state and personality of each user.
上記第1〜第8の実施の形態に係る携帯電話機100においても、上記と同様に生理量データまたは心理状態レベルを補正してもよい。この場合、第1〜第8の実施の形態に係る携帯電話機100には、使用者の心理状態(緊張の度合い、喜怒哀楽の度合いおよびうその度合い等)を推定するために用いる生理量データおよび音声データの解析結果に応じて、各々に対応する補正テーブルが設定されることが好ましい。
Also in the
以上、本実施の形態においては、環境状態に関する情報が制御部10,無線通信部30およびアンテナ31により取得され、取得された情報に基づいて検出された使用者の生体情報が制御部10により補正される。それにより、環境状態に応じて変化する使用者の生体情報を正確に取得することができる。その結果、携帯電話機100は、正確な生体情報に基づいて、正確に使用者の心理状態を推定することができる。
As described above, in the present embodiment, information on the environmental state is acquired by the
以上、第1〜第9の実施の形態において、携帯電話機100は通信装置に相当し、無線通信部30およびアンテナ31は通信手段に相当し、入力操作部11は操作手段に相当し、信号処理部18、生理量データ測定部20、電極20a,20d、サーミスタ20b、フォトセンサ20cおよび通話用スピーカ15bは検出手段に相当する。
As described above, in the first to ninth embodiments, the
また、制御部10は制御手段に相当し、通話用スピーカ15b、マイクロホン16、信号処理部18、無線通信部30およびアンテナ31は通話手段に相当し、制御部10は判別手段に相当し、制御部10、無線通信部30およびアンテナ31は電子メール通信手段に相当し、入力操作部11およびメイン表示部13は電子メール操作部に相当する。
The
さらに、制御部10は推定手段に相当し、制御部10は挿入手段に相当し、スピーカ15aおよび通話用スピーカ15bは音声出力手段に相当し、メイン表示部13およびサブ表示部14は表示手段に相当し、メイン表示部13、スピーカ15aおよび通話用スピーカ15bは情報出力手段に相当し、メモリ12および履歴データ格納部124は記憶手段に相当する。
Further, the
その上、制御部10、無線通信部30およびアンテナ31は取得手段に相当し、制御部10は補正手段に相当し、メモリ12は音声記録手段に相当し、制御部10は判定手段に相当する。
In addition, the
また、携帯電話機100は第1の通信装置に相当し、診断用電話機100Xは第2の通信装置に相当し、診断コンピュータ100PCは情報処理装置に相当し、通信システム700,700bは通信システムに相当し、第2の筐体2は筐体に相当する。
The
本発明は、通信相手に依存する使用者の心理状態の推定等に有効に利用可能である。 The present invention can be effectively used for estimating a user's psychological state depending on a communication partner.
1 第1の筐体
2 第2の筐体
10 制御部
11 入力操作部
12 メモリ
13 メイン表示部
14 サブ表示部
15a スピーカ
15b 通話用スピーカ
16 マイクロホン
18 信号処理部
20 生理量データ測定部
20a,20d 電極
20b サーミスタ
20c フォトセンサ
30 無線通信部
31 アンテナ
100 携帯電話機
100X 診断用電話機
100PC 診断コンピュータ
124 履歴データ格納部
700,700b 通信システム
DESCRIPTION OF
Claims (22)
前記通信手段による通信に関連する操作を行うために使用者により操作される操作手段と、
使用者の生体情報を検出するための検出手段と、
前記操作手段の操作に基づいて前記通信手段の動作を制御するとともに、使用者による前記操作手段の操作時または前記通信手段による通信時に使用者の生体情報を検出するように前記検出手段を制御する制御手段とを備えることを特徴とする通信装置。 A communication means for communicating information;
Operation means operated by a user to perform operations related to communication by the communication means;
Detection means for detecting the biological information of the user;
The operation of the communication unit is controlled based on the operation of the operation unit, and the detection unit is controlled to detect the biological information of the user when the user operates the operation unit or when the communication unit communicates. And a communication device.
前記制御手段は、前記通話手段による使用者の通話時に使用者の生体情報を検出するように前記検出手段を制御することを特徴とする請求項1記載の通信装置。 The communication means includes call means for transmitting and receiving voice as the information as the information,
The communication device according to claim 1, wherein the control unit controls the detection unit so as to detect the biological information of the user when the user calls by the calling unit.
前記制御手段は、前記通話手段による使用者の発声時に使用者の生体情報を検出するように前記検出手段を制御することを特徴とする請求項2記載の通信装置。 A discriminating means for discriminating when the user utters the calling means;
3. The communication apparatus according to claim 2, wherein the control unit controls the detection unit so as to detect the biological information of the user when the user speaks by the calling unit.
前記制御手段は、前記判別手段により質問を示す音声が判別されたときに使用者の生体情報を検出するように前記検出手段を制御することを特徴とする請求項2または3記載の通信装置。 A discriminating unit for discriminating a voice indicating a question from the other party on the basis of the voice signal received by the calling unit;
4. The communication apparatus according to claim 2, wherein the control unit controls the detection unit so as to detect a user's biological information when a voice indicating a question is determined by the determination unit.
前記操作手段は、電子メールの作成、送信、受信または閲覧するための操作を行う電子メール操作部を含み、
前記制御手段は、使用者による前記電子メール操作部の操作時に使用者の生体情報を検出するように前記検出手段を制御することを特徴とする請求項1〜4のいずれかに記載の通信装置。 The communication means includes an electronic mail communication means for transmitting and receiving an electronic mail as the data signal as the information,
The operation means includes an e-mail operation unit that performs an operation for creating, sending, receiving or browsing an e-mail,
The communication device according to claim 1, wherein the control unit controls the detection unit so as to detect a user's biological information when the user operates the electronic mail operation unit. .
前記推定手段により推定された前記使用者の心理状態を示す情報を前記電子メール操作部により作成される電子メールに挿入する挿入手段とをさらに備えたことを特徴とする請求項5記載の通信装置。 Estimating means for estimating the psychological state of the user based on the biological information detected by the detecting means;
6. The communication apparatus according to claim 5, further comprising an insertion unit that inserts information indicating the psychological state of the user estimated by the estimation unit into an e-mail created by the e-mail operation unit. .
前記制御手段は、前記記憶手段に記憶された前記使用者の心理状態に基づいて前記通信手段による着信動作を制御することを特徴とする請求項14記載の通信装置。 The communication means performs an incoming call operation for the user to recognize the incoming call when receiving an incoming call,
15. The communication device according to claim 14, wherein the control unit controls an incoming call operation by the communication unit based on a mental state of the user stored in the storage unit.
前記取得手段により取得された環境情報に基づいて前記検出手段により検出された前記使用者の生体情報の変化状態を補正する補正手段とをさらに備えたことを特徴とする請求項1〜15のいずれかに記載の通信装置。 An acquisition means for acquiring environmental information indicating an environmental state;
The correction means which corrects the change state of the user's biological information detected by the detection means based on the environmental information acquired by the acquisition means, further comprising: A communication device according to claim 1.
前記音声記録手段は、前記判定手段により生体情報が所定のしきい値を超えたと判定された場合に、しきい値を超えた時点を含む所定時間の使用者の音声を記録することを特徴とする請求項17記載の通信装置。 A determination means for determining whether or not the biological information detected by the detection means exceeds a predetermined threshold;
The voice recording unit records a user's voice for a predetermined time including a time point when the threshold value is exceeded when the determination unit determines that the biological information exceeds a predetermined threshold value. The communication device according to claim 17.
前記操作手段の操作に基づいて前記通信手段の動作を制御するとともに、使用者による前記操作手段の操作時または前記通信手段による通信時に使用者の生体情報を検出することを特徴とする通信装置の動作方法。 An operation method of a communication apparatus comprising: a communication unit that communicates information; and an operation unit that is operated by a user to perform an operation related to communication by the communication unit,
An operation of the communication unit is controlled based on an operation of the operation unit, and biometric information of the user is detected when the user operates the operation unit or communicates with the communication unit. How it works.
前記操作手段の操作に基づいて前記通信手段の動作を制御する処理と、
前記操作手段の操作時または前記通信手段による通信時に使用者の生体情報を検出する処理とを、前記処理装置に実行させることを特徴とする通信プログラム。 Communication comprising: a communication means for communicating information; an operation means operated by a user to perform an operation related to communication by the communication means; and a processing device for controlling the communication means based on an operation of the operation means A communication program used in an apparatus and executable by the processing apparatus,
Processing for controlling the operation of the communication means based on the operation of the operation means;
A communication program that causes the processing device to execute a process of detecting biometric information of a user when the operation means is operated or when communication is performed by the communication means.
診断者用の第2の通信装置と、
診断者用の情報処理装置とを備え、
前記第1の通信装置は、
前記第2の通信装置との通話および前記情報処理装置との情報の通信を行う通信手段と、
前記通信手段による前記第2の通信装置との通話時に使用者の生体情報を検出するための検出手段とを備え、
前記通信手段は、前記検出手段により検出される生体情報に基づく情報を前記情報処理装置に送信し、
前記第2の通信装置または前記情報処理装置は、前記情報処理装置により受信された情報に基づく診断者のアドバイスを前記第1の通信装置に送信することを特徴とする通信システム。 A first communication device for a user;
A second communication device for a diagnostician;
An information processing device for a diagnostician,
The first communication device is:
Communication means for communicating with the second communication device and communicating information with the information processing device;
Detecting means for detecting biometric information of a user during a call with the second communication device by the communication means;
The communication means transmits information based on biological information detected by the detection means to the information processing apparatus,
The communication system, wherein the second communication device or the information processing device transmits a diagnosis person's advice based on information received by the information processing device to the first communication device.
前記通信手段による通信に関連する操作を行うために使用者により操作される操作手段と、
使用者の生体情報を検出するための検出手段と、
前記通信手段、前記操作手段および前記検出手段を一体的に保持する筐体とを備え、
前記筐体は、前面部、背面部、一方の側面部および他方の側面部を有するとともに前記一方の側面部、前記背面部および前記他方の側面部を片手で保持可能に形成され、
前記操作手段は前記前面部に設けられ、前記検出手段は前記一方の側面部に設けられたことを特徴とする通信装置。 A communication means for communicating information;
Operation means operated by a user to perform operations related to communication by the communication means;
Detection means for detecting the biological information of the user;
A housing that integrally holds the communication means, the operation means, and the detection means;
The housing has a front surface portion, a back surface portion, one side surface portion and the other side surface portion, and is formed so that the one side surface portion, the back surface portion and the other side surface portion can be held with one hand,
The communication device according to claim 1, wherein the operation means is provided on the front surface portion, and the detection means is provided on the one side surface portion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004048843A JP3953468B2 (en) | 2004-02-25 | 2004-02-25 | COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004048843A JP3953468B2 (en) | 2004-02-25 | 2004-02-25 | COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007045787A Division JP2007202174A (en) | 2007-02-26 | 2007-02-26 | Communication apparatus, method and program, and communication system using same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005244375A true JP2005244375A (en) | 2005-09-08 |
JP3953468B2 JP3953468B2 (en) | 2007-08-08 |
Family
ID=35025674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004048843A Expired - Fee Related JP3953468B2 (en) | 2004-02-25 | 2004-02-25 | COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3953468B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007200159A (en) * | 2006-01-30 | 2007-08-09 | Nec Corp | Message generation support method and mobile terminal |
JP2007296169A (en) * | 2006-05-01 | 2007-11-15 | Agi:Kk | Mental condition judging apparatus, and program |
JP2008073456A (en) * | 2006-09-25 | 2008-04-03 | Toshiba Corp | Biological information measuring system, measuring device, biological information measuring method and biological information measuring program |
JP2010508596A (en) * | 2006-11-01 | 2010-03-18 | ポリディグム カンパニー リミテッド | Message icon combination method |
JP2010167014A (en) * | 2009-01-21 | 2010-08-05 | Kddi Corp | Method and device for estimating feeling |
EP2540220A1 (en) * | 2011-06-29 | 2013-01-02 | LG Electronics Inc. | Mobile terminal and method for measuring bioelectric signals thereof |
JP2013093718A (en) * | 2011-10-25 | 2013-05-16 | Nec Commun Syst Ltd | Communication terminal, and system, method and program for emotion transfer |
JP2013206320A (en) * | 2012-03-29 | 2013-10-07 | Lassic Co Ltd | Multi-modal type tracking system and its program |
JP2015050470A (en) * | 2013-08-29 | 2015-03-16 | 京セラ株式会社 | Terminal device and speech communication data processing method |
JP2016021063A (en) * | 2014-07-14 | 2016-02-04 | エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation | Image concentration guiding apparatus and image concentration guiding method using the same |
JP2019168810A (en) * | 2018-03-22 | 2019-10-03 | 富士ゼロックス株式会社 | Information management device and program |
-
2004
- 2004-02-25 JP JP2004048843A patent/JP3953468B2/en not_active Expired - Fee Related
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007200159A (en) * | 2006-01-30 | 2007-08-09 | Nec Corp | Message generation support method and mobile terminal |
JP2007296169A (en) * | 2006-05-01 | 2007-11-15 | Agi:Kk | Mental condition judging apparatus, and program |
JP4704952B2 (en) * | 2006-05-01 | 2011-06-22 | 株式会社エイ・ジー・アイ | Mental state determination device and program |
JP2008073456A (en) * | 2006-09-25 | 2008-04-03 | Toshiba Corp | Biological information measuring system, measuring device, biological information measuring method and biological information measuring program |
JP2010508596A (en) * | 2006-11-01 | 2010-03-18 | ポリディグム カンパニー リミテッド | Message icon combination method |
JP2010167014A (en) * | 2009-01-21 | 2010-08-05 | Kddi Corp | Method and device for estimating feeling |
EP2540220A1 (en) * | 2011-06-29 | 2013-01-02 | LG Electronics Inc. | Mobile terminal and method for measuring bioelectric signals thereof |
US9198585B2 (en) | 2011-06-29 | 2015-12-01 | Lg Electronics Inc. | Mobile terminal and method of measuring bioelectric signals thereof |
JP2013093718A (en) * | 2011-10-25 | 2013-05-16 | Nec Commun Syst Ltd | Communication terminal, and system, method and program for emotion transfer |
JP2013206320A (en) * | 2012-03-29 | 2013-10-07 | Lassic Co Ltd | Multi-modal type tracking system and its program |
JP2015050470A (en) * | 2013-08-29 | 2015-03-16 | 京セラ株式会社 | Terminal device and speech communication data processing method |
JP2016021063A (en) * | 2014-07-14 | 2016-02-04 | エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation | Image concentration guiding apparatus and image concentration guiding method using the same |
US10203753B2 (en) | 2014-07-14 | 2019-02-12 | Nhn Entertainment Corporation | Video immersion inducing apparatus and video immersion inducing method using the apparatus |
JP2019168810A (en) * | 2018-03-22 | 2019-10-03 | 富士ゼロックス株式会社 | Information management device and program |
JP7131006B2 (en) | 2018-03-22 | 2022-09-06 | 富士フイルムビジネスイノベーション株式会社 | Information management device and program |
Also Published As
Publication number | Publication date |
---|---|
JP3953468B2 (en) | 2007-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106024014B (en) | A kind of phonetics transfer method, device and mobile terminal | |
US9503824B2 (en) | Method for adjusting parameters of a hearing aid functionality provided in a consumer electronics device | |
US8489062B2 (en) | System and method for sending an emergency message selected from among multiple emergency message types from a wireless communications device | |
US8621348B2 (en) | Customizing haptic effects on an end user device | |
CN105915831B (en) | Audio recording apparatus, audio recording method and recording medium | |
JP3953468B2 (en) | COMMUNICATION DEVICE, COMMUNICATION METHOD, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM USING THE SAME | |
CN102037716A (en) | Method and system for automatically updating avatar status to indicate user's status | |
US20040147814A1 (en) | Determination of emotional and physiological states of a recipient of a communicaiton | |
US20180268821A1 (en) | Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user | |
US20020082007A1 (en) | Method and system for expressing affective state in communication by telephone | |
US7242952B2 (en) | Portable terminal device and method of generating call sound | |
JP2007202174A (en) | Communication apparatus, method and program, and communication system using same | |
US20090268919A1 (en) | Method and apparatus to measure hearing ability of user of mobile device | |
CN111723855A (en) | Learning knowledge point display method, terminal equipment and storage medium | |
JP5254487B1 (en) | Portable information terminal, shadow voice management method, and computer program | |
CN108553905A (en) | Data feedback method, terminal and computer storage media based on game application | |
JP4251889B2 (en) | Hearing aid selection system | |
KR200260160Y1 (en) | Key tone upgrading/outputting system | |
CN109951504A (en) | Information-pushing method, device, terminal and storage medium | |
JP2005242499A (en) | Communication system and information processing method | |
JP6217003B2 (en) | Terminal device, sleep behavior recording method, and sleep behavior recording program | |
JP4232453B2 (en) | Call voice text conversion system | |
JP2020149024A (en) | Dialogue adaptation device, dialogue adaptation method, program, and storage medium | |
Azzini et al. | Automated spoken dialog system for home care and data acquisition from chronic patients | |
JP2012004885A (en) | Voice speech terminal device, voice speech system, and voice speech method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050901 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070424 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110511 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |