JP2010199741A - Portable telephone terminal device - Google Patents

Portable telephone terminal device Download PDF

Info

Publication number
JP2010199741A
JP2010199741A JP2009039736A JP2009039736A JP2010199741A JP 2010199741 A JP2010199741 A JP 2010199741A JP 2009039736 A JP2009039736 A JP 2009039736A JP 2009039736 A JP2009039736 A JP 2009039736A JP 2010199741 A JP2010199741 A JP 2010199741A
Authority
JP
Japan
Prior art keywords
mobile phone
terminal device
phone terminal
volume
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009039736A
Other languages
Japanese (ja)
Other versions
JP5251588B2 (en
Inventor
Kenichi Tsuboya
賢一 坪谷
Yoshiyuki Imai
佳之 今井
Shuichi Abe
秀一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009039736A priority Critical patent/JP5251588B2/en
Publication of JP2010199741A publication Critical patent/JP2010199741A/en
Application granted granted Critical
Publication of JP5251588B2 publication Critical patent/JP5251588B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem that a call originator and a call terminator both cannot discriminate whether originating information can be correctly transmitted to a terminating side when speaking using a portable telephone terminal device, and cannot smoothly advance communication. <P>SOLUTION: The portable telephone terminal device allows both parties to recognize that the originating information is not transmitted by comparing a sound volume of an originating voice with a surrounding sound volume of a disturbing sound, noise, etc., near an own terminal, discriminating whether an originated voice is correctly transmitted to a parter side, and transmitting the discrimination result to the originating side and the terminating side. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、携帯電話端末装置に関する。本発明は、例えば発話した情報が受話側に伝達されていない状態を検出することができる携帯電話端末装置に適用することもできる。   The present invention relates to a mobile phone terminal device. The present invention can also be applied to, for example, a mobile phone terminal device that can detect a state where spoken information is not transmitted to the receiving side.

携帯電話端末を使用した音声による情報伝達は、周囲の騒音や、携帯電話端末と無線基地局との間における電波状態の影響等を受けやすく、発話側からの情報を受話側に正確に伝達できない場合がある。   Information transmission by voice using a mobile phone terminal is easily affected by ambient noise, radio wave conditions between the mobile phone terminal and the radio base station, etc., and information from the utterance side cannot be accurately transmitted to the reception side There is a case.

この問題に対して、既存の携帯電話システムでは、ノイズキャンセリング機能や欠落した受話音声の補完等により、受話音声の品質を高め、受話者の認識率を向上させる技術が広く知られている。   In order to solve this problem, in the existing mobile phone system, a technology for improving the quality of the received voice and improving the recognition rate of the receiver by using a noise canceling function or complementing the missing received voice is widely known.

例えば、無線基地局と携帯電話端末との電波状態が悪く、携帯電話端末間の無線伝送路上で、発話した音声情報が欠落し、欠落した状態で受話側に伝達された場合に、受話側の携帯電話端末にて欠落した音声情報を補完するという技術が知られている(例えば、特許文献1参照)。   For example, if the radio wave condition between a radio base station and a mobile phone terminal is poor and the voice information spoken on the radio transmission path between the mobile phone terminals is lost and transmitted to the receiver in the missing state, There is known a technique of complementing missing voice information in a mobile phone terminal (see, for example, Patent Document 1).

また、無線基地局と携帯電話端末装置間との電波状態に応じて、発話した情報自体が相手側に到達したか否かを判断し、電波状態が悪く、相手側に発話した情報が到達しなかった場合に、その旨を携帯電話端末装置のユーザに通知するという技術が知られている(例えば、特許文献2参照)。   Also, depending on the radio wave condition between the wireless base station and the mobile phone terminal device, it is determined whether the spoken information itself has reached the other party, and the radio wave condition is poor, and the information spoken to the other party has arrived. There is known a technique of notifying the user of the mobile phone terminal device of the fact that there is no such change (see, for example, Patent Document 2).

特開2002−330233号公報JP 2002-330233 A 特開平10−164187号公報Japanese Patent Laid-Open No. 10-164187

しかしながら、上述した従来の技術では、発話した情報が受話側に正しく伝達できているか否かを発話側で判断することができず、コミュニケーションを円滑に進めることができないという問題があった。   However, the conventional technology described above has a problem in that it is impossible for the utterance side to determine whether or not the uttered information is correctly transmitted to the receiving side, and communication cannot proceed smoothly.

例えば、受話音声の品質を高め、認識確率を向上させても、受話側の受話音声がクリアになるだけで、発話側は、発話した情報が受話側に正しく伝達できているか否かを判断することはできない。   For example, even if the quality of the received voice is improved and the recognition probability is improved, only the received voice on the receiving side is cleared, and the uttering side determines whether or not the spoken information can be correctly transmitted to the receiving side. It is not possible.

同様に、無線伝送路上で欠落した音声を受話側の携帯電話端末装置で補完しても、例えば、携帯電話端末装置から出力された音声が、受話者の耳に到達するまでの間に、受話者の周囲環境の騒音やノイズ等の周辺音により、かき消された場合、受話側は、発話した情報を正しく認識することができない。   Similarly, even if the voice that is missing on the wireless transmission path is supplemented by the mobile phone terminal device on the receiving side, for example, the voice output from the mobile phone terminal device is received before the voice reaches the ear of the listener. If the sound is erased by ambient noise such as noise or noise in the surrounding environment of the person, the receiving side cannot correctly recognize the spoken information.

したがって、発話側は、受話側が発話した情報を認識できていない状況にも関わらず、通話し続けてしまい、話者間での誤解等招き、円滑にコミュニケーションを進めることができない。   Therefore, the speaking side continues to talk despite the situation in which the information spoken by the receiving side is not recognized, causing misunderstandings between the speakers, and cannot smoothly communicate.

また、電波状態が良好で、発話した情報が相手側に到達したとしても、到達した情報に発話した情報のみならず周囲の雑音も含まれていた場合に、受話側は、発話した情報を正しく認識することができない。   In addition, even if the signal condition is good and the spoken information reaches the other party, if the received information includes not only the spoken information but also the surrounding noise, the receiver side correctly sets the spoken information. It cannot be recognized.

この場合においても、発話側は、受話側が通話情報を認識できていないにも関わらず、受話側に一方的に発話し続けてしまう可能性がある。その結果、話者間での誤解やトラブルが発生しやすく、円滑にコミュニケーションを進めることができない。   Even in this case, the utterance side may continue to unilaterally speak to the receiving side even though the receiving side has not recognized the call information. As a result, misunderstandings and troubles between speakers are likely to occur and communication cannot proceed smoothly.

本件開示の装置は、円滑なコミュニケーションの実現を図ることを目的とする。   The apparatus disclosed herein is intended to achieve smooth communication.

上述した課題を解決し、目的を達成するため、携帯電話端末装置は、自携帯電話端末装置の利用者により入力された音声の音量と、前記携帯電話端末装置周辺の音量を含む周辺音の音量とを比較して、前記利用者の音声が相手側の携帯電話端末装置に正しく伝達されているか否かを判断する発話音量判断手段と、前記発話音量判断手段の判断結果を出力する出力手段とを備えたことを要件とする。   In order to solve the above-described problems and achieve the object, the mobile phone terminal device has a volume of peripheral sounds including a volume of audio input by a user of the mobile phone terminal device and a volume around the mobile phone terminal device. Utterance volume judgment means for judging whether or not the user's voice is correctly transmitted to the other party's mobile phone terminal device, and output means for outputting the judgment result of the utterance volume judgment means As a requirement.

本件開示の携帯電話端末装置によれば、円滑なコミュニケーションの実現を図ることができる。   According to the mobile phone terminal device disclosed herein, it is possible to achieve smooth communication.

図1は、実施例1の概要を説明するための図である。FIG. 1 is a diagram for explaining the outline of the first embodiment. 図2は、実施例1に係る携帯電話端末装置システムについて説明するための図である。FIG. 2 is a diagram for explaining the mobile phone terminal system according to the first embodiment. 図3は、実施例1に係る携帯電話端末装置の構成を示す図である。FIG. 3 is a diagram illustrating the configuration of the mobile phone terminal apparatus according to the first embodiment. 図4は、発話音量判断部が行う判断動作を説明するための図である。FIG. 4 is a diagram for explaining a determination operation performed by the speech volume determination unit. 図5は、音量比較判断部が行う判断動作を説明するための図である。FIG. 5 is a diagram for explaining a determination operation performed by the volume comparison determination unit. 図6は、双方が同時に発話したか否かの判断動作を説明するための図である。FIG. 6 is a diagram for explaining an operation of determining whether or not both parties speak at the same time. 図7は、応答があるか否かの判断動作を説明するための図である。FIG. 7 is a diagram for explaining an operation for determining whether or not there is a response. 図8は、発話音声が受話側に伝達できているか否かを判断するフローチャートである。FIG. 8 is a flowchart for determining whether or not the uttered voice has been transmitted to the receiver side. 図9は、受話音声が受話側に伝達できているか否かを判断するフローチャートである。FIG. 9 is a flowchart for determining whether or not the received voice can be transmitted to the receiving side. 図10は、双方が同時に発話した場合を判断するフローチャートである。FIG. 10 is a flowchart for determining a case where both uttered simultaneously. 図11は、発話後の無応答時間を判断するフローチャートである。FIG. 11 is a flowchart for determining the no-response time after utterance. 図12は、実施例2の概要を説明するための図である。FIG. 12 is a diagram for explaining the outline of the second embodiment. 図13は、実施例2に係る携帯電話端末装置の構成を示す図である。FIG. 13 is a diagram illustrating the configuration of the mobile phone terminal according to the second embodiment. 図14は、テキスト比較部316cの処理について説明するための図である。FIG. 14 is a diagram for explaining the processing of the text comparison unit 316c. 図15は、実施例2に係る携帯電話端末装置の処理を示すフローチャートである。FIG. 15 is a flowchart illustrating processing of the mobile phone terminal according to the second embodiment. 図16は、発話情報の不伝達を判断するプログラムを実行する携帯電話端末装置のハードウェア構成を示す図である。FIG. 16 is a diagram illustrating a hardware configuration of a mobile phone terminal device that executes a program for determining non-transmission of speech information.

以下に添付図面を参照して、この発明に係る携帯電話端末装置の好適な実施の形態を詳細に説明する。   Exemplary embodiments of a mobile phone terminal according to the present invention will be explained below in detail with reference to the accompanying drawings.

まず、実施例1に係る携帯電話端末装置の概要について説明する。実施例1に係る携帯電話端末装置は、発話した情報が受話側に伝達できているか否かを判断し、その判断結果を発話者と受話者に通知する。   First, the outline | summary of the mobile telephone terminal device based on Example 1 is demonstrated. The mobile phone terminal according to the first embodiment determines whether or not the uttered information can be transmitted to the receiver, and notifies the speaker and the receiver of the determination result.

図1は、実施例1の概要を説明するための図である。図1では、まず、話者10が携帯電話機100aを使用し、話者20が携帯電話機100bを使用し、通話している。そして、話者10が、携帯電話機100aに発話する(ステップS1)。なお、以下、説明の便宜上、話者10を発話者10とし、話者20を受話者20とする。   FIG. 1 is a diagram for explaining the outline of the first embodiment. In FIG. 1, first, the speaker 10 uses the mobile phone 100a and the speaker 20 uses the mobile phone 100b to make a call. Then, the speaker 10 speaks to the mobile phone 100a (step S1). Hereinafter, for convenience of explanation, it is assumed that the speaker 10 is the speaker 10 and the speaker 20 is the receiver 20.

その後、携帯電話機100aは、発話した情報が受話者20に正しく伝達できていないと判断した場合に、その判断結果を検出する。そして、携帯電話機100aは、その判断結果を発話者10に通知するとともに、携帯電話機100bを介し、受話者20にも通知する(ステップS2)。   Thereafter, when the mobile phone 100a determines that the uttered information cannot be correctly transmitted to the receiver 20, the mobile phone 100a detects the determination result. The mobile phone 100a notifies the speaker 10 of the determination result and also notifies the receiver 20 via the mobile phone 100b (step S2).

このように、携帯電話端末装置が、相手側に発話した情報が正しく伝達できていないと判断した場合、その判断結果を発話側と受話側に通知することで、双方で、発話した情報の不伝達を認識することが可能となる。   As described above, when the mobile phone terminal device determines that the information uttered to the other party cannot be transmitted correctly, the mobile phone terminal device notifies the utterance side and the receiving side of the determination result. It becomes possible to recognize the transmission.

その結果、発話者に対して、相手に正しく情報伝達を行うための措置を採るよう促すことができる。例えば、周囲の雑音が少ない場所に移動することや、再度発話をするといったことが挙げられる。   As a result, it is possible to prompt the speaker to take measures for correctly transmitting information to the other party. For example, moving to a place where the surrounding noise is low, or speaking again.

そして、情報が正しく伝達されないことによる話者間の不安やトラブルを軽減し、円滑なコミュニケーションを実現することができる。   In addition, it is possible to reduce anxiety and trouble between speakers due to information not being transmitted correctly, and to realize smooth communication.

次に、実施例1の前提となる携帯電話端末装置システムの構成について説明する。図2は、実施例1に係る携帯電話端末装置システムについて説明するための図である。図1には、電話網200を介して、携帯電話機100aおよび携帯電話機100bが相互に通話を行う例を示している。   Next, the configuration of the mobile phone terminal system that is the premise of the first embodiment will be described. FIG. 2 is a diagram for explaining the mobile phone terminal system according to the first embodiment. FIG. 1 shows an example in which the mobile phone 100a and the mobile phone 100b communicate with each other via the telephone network 200.

電話網200は、携帯電話機100aおよび携帯電話機100bに、通話情報を伝送する手段で、基地局200aと、基地局200bと、交換機200cと、交換機200dと、交換機200eとを有する。   The telephone network 200 is means for transmitting call information to the mobile phone 100a and the mobile phone 100b, and includes a base station 200a, a base station 200b, an exchange 200c, an exchange 200d, and an exchange 200e.

そして、電話網200に含まれる各種装置は、携帯電話機100aや携帯電話機100bが、発話した情報の不伝達を検出した場合に、その旨を相手側の携帯電話機に通知する機能を具備する。   Various devices included in the telephone network 200 have a function of notifying the other party's mobile phone when the mobile phone 100a or the mobile phone 100b detects non-transmission of spoken information.

次に、実施例1に係る携帯電話端末装置の構成について説明する。図3は、実施例1に係る携帯電話端末装置の構成を示す図である。図3に示すように、携帯電話端末装置100は、マイク101と、スピーカ113と、無線部114と、制御部115とを有する。   Next, the configuration of the mobile phone terminal according to the first embodiment will be described. FIG. 3 is a diagram illustrating the configuration of the mobile phone terminal apparatus according to the first embodiment. As illustrated in FIG. 3, the mobile phone terminal device 100 includes a microphone 101, a speaker 113, a wireless unit 114, and a control unit 115.

マイク101は、発話者が発話した音声や、周辺の雑音や騒音、ノイズといった周辺音を取得し、発話音変換部102に取得した情報を入力する手段である。   The microphone 101 is a means for acquiring voices uttered by a speaker and peripheral sounds such as peripheral noise, noise, and noise, and inputting the acquired information to the utterance sound conversion unit 102.

スピーカ113は、発話した情報が受話側に伝達できていない状況を示す音声の再生や、通話情報が示す音声を再生する手段である。   The speaker 113 is a means for reproducing sound indicating a situation where the uttered information cannot be transmitted to the receiving side, or reproducing sound indicated by the call information.

無線部114は、携帯電話端末装置で行う通常の無線通信機能の他に、本発明に密接に関連するものとして、通話先の携帯電話端末装置使用者に対して、発話した情報が受話者に伝達できていない旨を示す情報を出力する手段である。   In addition to the normal wireless communication function performed by the mobile phone terminal device, the wireless unit 114 is closely related to the present invention. It is a means for outputting information indicating that it cannot be transmitted.

制御部115は、携帯電話端末装置100のユーザが発話した情報を各種制御する手段で、発話音変換部102と、人語判断部103と、発話音量判断部104と、受話音変換部105と、人語判断部106と、音量比較判断部107と、受話/発話監視・判断部108と、ユーザ通知部109と、通話先通知部110と、ディスプレイ制御部111と、バイブレータ制御部112とを有する。   The control unit 115 is a means for variously controlling information uttered by the user of the mobile phone terminal device 100. The utterance sound conversion unit 102, the human language determination unit 103, the utterance volume determination unit 104, and the reception sound conversion unit 105 The human language determination unit 106, the volume comparison determination unit 107, the reception / utterance monitoring / determination unit 108, the user notification unit 109, the call destination notification unit 110, the display control unit 111, and the vibrator control unit 112 Have.

発話音変換部102は、マイク101から入力された情報を、携帯電話端末装置100が取扱う形式に変換し、変換した情報を人語判断部103や発話音量判断部104または音量比較判断部107に入力する手段である。   The utterance sound conversion unit 102 converts information input from the microphone 101 into a format handled by the mobile phone terminal device 100, and converts the converted information to the human language determination unit 103, the utterance volume determination unit 104, or the volume comparison determination unit 107. It is a means to input.

人語判断部103は、発話音変換部102から入力された情報に言語情報が含まれているか否かを判断する手段である。この言語情報とは、「あ」や「い」といった言葉そのものを示す言葉情報と、その「あ」や「い」といった言葉情報が有する音量(以下、言葉音量とする)とを含んだ情報である。   The human language determination unit 103 is a unit that determines whether or not language information is included in the information input from the utterance sound conversion unit 102. This linguistic information is information including the word information indicating the word itself such as “A” and “I” and the volume (hereinafter referred to as the word volume) of the word information such as “A” and “I”. is there.

そして、言語情報が含まれている場合、人語判断部103は、入力された情報から、発話者の言語情報を抽出し、抽出した言語情報を発話音量判断部104や受話/発話監視・判断部108に入力する。   If language information is included, the human language determination unit 103 extracts the language information of the speaker from the input information, and uses the extracted language information as the utterance volume determination unit 104 or the received / utterance monitoring / determination. Input to the unit 108.

発話音量判断部104は、発話音変換部102と人語判断部103とから入力された情報に基づいて、発話した情報が受話側に伝達できているか否かを判断し、発話した情報が受話側に伝達できていないと判断した場合に、その判断結果をユーザ通知部109へ入力する手段である。   The utterance volume determination unit 104 determines whether or not the uttered information is transmitted to the receiving side based on the information input from the utterance sound conversion unit 102 and the human language determination unit 103, and the uttered information is received. This means is a means for inputting the determination result to the user notification unit 109 when it is determined that it cannot be transmitted to the user side.

この発話音量判断部104が行う判断動作について図3および図4を用いて説明する。図4は、発話音量判断部が行う判断動作を説明するための図である。なお、図4に示した携帯電話機100aおよび携帯電話機100bは、図3に示した携帯電話端末装置100に相当するものとし、説明の便宜上、携帯電話機100aを発話側端末装置、携帯電話機100bを受話側端末装置として、図示する。   The determination operation performed by the speech volume determination unit 104 will be described with reference to FIGS. FIG. 4 is a diagram for explaining a determination operation performed by the speech volume determination unit. Note that the mobile phone 100a and the mobile phone 100b shown in FIG. 4 correspond to the mobile phone terminal device 100 shown in FIG. 3, and for convenience of explanation, the mobile phone 100a is used as an utterance side terminal device and the mobile phone 100b is used as a receiver. It is illustrated as a side terminal device.

まず、発話者10が、携帯電話機100aを使用して発話した際に、マイク101に対して、発話者10の音声と、騒音やノイズといった周辺音等とが入力される(ステップS10)。   First, when the speaker 10 speaks using the mobile phone 100a, the voice of the speaker 10 and ambient sounds such as noise and noise are input to the microphone 101 (step S10).

その後、発話音量判断部104は、発話音変換部102からマイク101に入力された情報を受け取り、受け取った情報が有する音量を全体音量として保持する。したがって、この全体音量とは、マイク101に入力される音量(発話者の音声が有する音量や、騒音やノイズといった周辺音等とを合わせた音量)を示す。   Thereafter, the utterance volume determination unit 104 receives the information input to the microphone 101 from the utterance sound conversion unit 102, and holds the volume of the received information as the entire volume. Therefore, this total volume indicates the volume input to the microphone 101 (the volume combined with the volume of the voice of the speaker and the surrounding sounds such as noise and noise).

一方、発話音量判断部104は、人語判断部103から言語情報を受け取った場合、受け取った言語情報に含まれる言葉音量を発話音量として保持する。   On the other hand, when the utterance volume determination unit 104 receives language information from the human language determination unit 103, the utterance volume determination unit 104 holds the word volume included in the received language information as the utterance volume.

そして、発話音量判断部104は、全体音量と発話音量とを比較し、発話音量が十分に大きいか否かを判断し、発話音量が十分に大きいと判断できなかった場合に、発話した情報が受話者20に伝達できていないと判断する(ステップS11)。   Then, the utterance volume determination unit 104 compares the overall volume with the utterance volume, determines whether the utterance volume is sufficiently high, and if the utterance volume cannot be determined to be sufficiently high, It is determined that the message cannot be transmitted to the listener 20 (step S11).

上述したステップS11にて示した判断は、例えば、以下に示す式(1)と閾値Xとを用いて説明するものとする。   The determination shown in step S11 described above will be described using, for example, the following equation (1) and threshold value X.

式(1);(発話音量A/全体音量B)≦X(定数)   Formula (1); (speech volume A / total volume B) ≦ X (constant)

式(1)によれば、発話音量判断部104は、発話音量A(単位;デシベル)を全体音量B(単位;デシベル)で割った値が、定数X以下であれば、発話音量が十分に大きいと判断しない。   According to Expression (1), the speech volume determination unit 104 determines that the speech volume is sufficient if the value obtained by dividing the speech volume A (unit: decibel) by the total volume B (unit: decibel) is equal to or less than the constant X. Not determined to be large.

一方、発話音量判断部104は、発話音量Aを全体音量Bで割った値が、定数Xを超えていた場合に、発話音量が十分に大きいと判断する。なお、上述した定数Xは、携帯電話端末装置を使用して通話が成立する閾値を示し、任意に設定することができるものとする。   On the other hand, the utterance volume determination unit 104 determines that the utterance volume is sufficiently high when the value obtained by dividing the utterance volume A by the overall volume B exceeds a constant X. The constant X described above indicates a threshold value for establishing a call using the mobile phone terminal device, and can be arbitrarily set.

例えば、閾値Xを0.6として、発話音量が50db、全体音量が100dbであれば、式(1)より、発話音量判断部104は、発話音量が十分に大きいとは判断せずに、発話した情報が受話者20に伝達できていないと判断する。   For example, when the threshold value X is 0.6, the utterance volume is 50 db, and the overall volume is 100 db, the utterance volume determination unit 104 does not determine that the utterance volume is sufficiently high from Equation (1), It is determined that the received information cannot be transmitted to the listener 20.

50/100(=0.5)≦0.6   50/100 (= 0.5) ≦ 0.6

そして、発話した情報が受話者20に伝達できていなかったと判断した場合に、携帯電話機100aは、その判断結果を、発話者10に、後述する使用者への通知部109を介して通知する。一方、受話者20に対しても、後述する通話先通知部110を介して通知する(ステップS12)。   When the mobile phone 100a determines that the uttered information has not been transmitted to the receiver 20, the mobile phone 100a notifies the speaker 10 of the determination result via the user notification unit 109 described later. On the other hand, the receiver 20 is also notified via a call destination notification unit 110 described later (step S12).

次に、図3の説明に戻り、受話音変換部105について説明する。受話音変換部105は、無線部114を経由し、スピーカ113で再生された受話音声を携帯電話端末装置100が取扱う形式に変換し、変換した情報を人語判断部106に入力する手段である。   Next, returning to the description of FIG. 3, the received sound conversion unit 105 will be described. The received sound conversion unit 105 is a unit that converts the received voice reproduced by the speaker 113 into a format handled by the mobile phone terminal device 100 via the wireless unit 114 and inputs the converted information to the human language determination unit 106. .

人語判断部106は、受話音変換部105から受け取った情報に、言語情報が含まれているか否かを判断する手段である。そして、言語情報が含まれていた場合、言語情報を抽出し、抽出した言語情報を音量比較判断部107や受話/発話監視・判断部108に入力する。   The human language determination unit 106 is a unit that determines whether or not the information received from the received sound conversion unit 105 includes language information. When the language information is included, the language information is extracted, and the extracted language information is input to the volume comparison determination unit 107 and the received / utterance monitoring / determination unit 108.

音量比較判断部107は、発話音変換部102と人語判断部106とから入力された情報に基づいて、受話音声が正しく受話側に伝達できたか否かを判断し、受話音声が受話側に伝達できていないと判断した場合に、その判断結果をユーザ通知部109へ入力する手段である。   The volume comparison determination unit 107 determines whether the received voice has been correctly transmitted to the receiver side based on the information input from the utterance sound conversion unit 102 and the human language determination unit 106, and the received voice is transmitted to the receiver side. A means for inputting the determination result to the user notification unit 109 when it is determined that the information cannot be transmitted.

この音量比較判断部107が行う判断動作について図3および図5を用いて説明する。図5は、音量比較判断部が行う判断動作を説明するための図である。なお、図5に示した携帯電話機100aおよび携帯電話機100bは、図3に示した携帯電話端末装置100に相当するものとし、説明の便宜上、携帯電話機100aを発話側端末、携帯電話機100bを受話側端末として、図示する。   The determination operation performed by the volume comparison determination unit 107 will be described with reference to FIGS. FIG. 5 is a diagram for explaining a determination operation performed by the volume comparison determination unit. Note that the mobile phone 100a and the mobile phone 100b shown in FIG. 5 correspond to the mobile phone terminal device 100 shown in FIG. 3, and for convenience of explanation, the mobile phone 100a is the utterance side terminal and the mobile phone 100b is the receiving side. It is illustrated as a terminal.

まず、発話者10が携帯電話機100aを使用して発話し、発話した情報が、電話網200(図2参照)を介して、携帯電話機100bに到達する(ステップS20)。   First, the speaker 10 speaks using the mobile phone 100a, and the spoken information reaches the mobile phone 100b via the telephone network 200 (see FIG. 2) (step S20).

その後、発話した情報が、受話音変換部105を介し、人語判断部106に入力される。また、携帯電話機100bの周囲雑音が、マイク101を介し、発話音変換部102に入力される(ステップS21)。   Thereafter, the spoken information is input to the human language determination unit 106 via the received sound conversion unit 105. In addition, ambient noise of the mobile phone 100b is input to the utterance sound conversion unit 102 via the microphone 101 (step S21).

続いて、音量比較判断部107は、発話音変換部102から入力される騒音やノイズといった周辺音等を受け取り、受け取った周辺音等が含む音量を周囲雑音量として保持する。また、音量比較判断部107は、人語判断部106から言語情報に含まれる言葉音量を受け取り、その言葉音量が示す音量を受話音量として保持する。   Subsequently, the volume comparison determination unit 107 receives ambient sounds such as noise and noise input from the utterance sound conversion unit 102, and holds the volume included in the received ambient sounds as an ambient noise amount. Further, the volume comparison determination unit 107 receives the word volume included in the language information from the human language determination unit 106, and holds the volume indicated by the word volume as the reception volume.

そして、音量比較判断部107は、周囲雑音量と受話音量とを比較し、受話音量が十分に大きいか否かを判断し、受話音量が十分に大きいと判断できなかった場合に、受話音声が受話者20に伝達できていないと判断する(ステップS22)。   The volume comparison / determination unit 107 compares the ambient noise amount with the received volume, determines whether the received volume is sufficiently high, and if the received volume cannot be determined to be sufficiently high, It is determined that the message cannot be transmitted to the listener 20 (step S22).

上述したステップS22にて示した判断は、例えば、以下に示す式(2)と閾値Yとを用いて説明するものとする。   The determination shown in step S22 described above will be described using, for example, the following equation (2) and threshold value Y.

式(2);(受話音量C/周囲雑音量D)≦Y(定数)   Expression (2); (receiving volume C / ambient noise amount D) ≦ Y (constant)

式(2)によれば、音量比較判断部107は、受話音量C(単位;デシベル)を周囲雑音量D(単位;デシベル)で割った値が、定数Y以下であれば、受話音量が十分に大きいと判断しない。   According to Equation (2), the volume comparison / determination unit 107 is sufficient if the value obtained by dividing the received volume C (unit: decibel) by the ambient noise amount D (unit: decibel) is equal to or less than the constant Y. It is not judged that it is big.

一方、音量比較判断部107は、受話音量Cを周囲雑音量Dで割った値が、定数Yを超えていた場合に、受話音量が十分に大きいと判断する。なお、上述した定数Yは、携帯電話端末装置を使用して通話が成立する閾値を示し、任意に設定することができるものとする。   On the other hand, when the value obtained by dividing the reception volume C by the ambient noise amount D exceeds the constant Y, the volume comparison determination unit 107 determines that the reception volume is sufficiently high. The constant Y described above indicates a threshold value for establishing a call using the mobile phone terminal device, and can be arbitrarily set.

例えば、閾値Yを0.7として、受話音量が40db、周囲雑音量が100dbであれば、式(2)より、音量比較判断部107は、受話音量が十分に大きいとは判断せずに、受話音声が受話者20に伝達できていないと判断する。   For example, if the threshold Y is 0.7, the received sound volume is 40 db, and the ambient noise amount is 100 db, the volume comparison determination unit 107 does not determine that the received sound volume is sufficiently large from the equation (2), It is determined that the received voice cannot be transmitted to the listener 20.

40/100(=0.4)≦0.7   40/100 (= 0.4) ≦ 0.7

そして、受話音声が受話者20に伝達できていないと判断した場合に、携帯電話機100bは、その判断結果を、受話者20に、使用者への通知部109を介して通知する。一方、発話者10に対しても、通話先通知部110を介して通知する(ステップS23)。   When it is determined that the received voice cannot be transmitted to the listener 20, the mobile phone 100b notifies the receiver 20 of the determination result via the notification unit 109 to the user. On the other hand, the speaker 10 is also notified through the call destination notification unit 110 (step S23).

次に、図3の説明に戻り、受話/発話監視・判断部108について説明する。受話/発話監視・判断部108は、通話中の双方が同時に発話した場合、あるいは発話完了から一定時間経過後、受話側の応答がない場合に、発話した情報が受話側に伝達できていないと判断し、その判断結果をユーザ通知部109へ入力する手段である。   Next, returning to the description of FIG. 3, the reception / utterance monitoring / determination unit 108 will be described. The reception / utterance monitoring / determination unit 108 determines that the spoken information cannot be transmitted to the receiving side when both parties are speaking at the same time or when there is no response from the receiving side after a certain time has elapsed since the completion of the speaking. This is means for making a determination and inputting the determination result to the user notification unit 109.

まず、受話/発話監視・判断部108が、通話中の双方が同時に発話したか否かを判断する動作について図3および図6を用いて説明する。図6は、双方が同時に発話したか否かの判断動作を説明するための図である。   First, an operation in which the reception / speech monitoring / determination unit 108 determines whether or not both parties are speaking at the same time will be described with reference to FIGS. 3 and 6. FIG. FIG. 6 is a diagram for explaining an operation of determining whether or not both parties speak at the same time.

なお、図6の説明において、便宜的に携帯電話機100aを発話側の端末、携帯電話機100bを受話側の端末とし、受話者20が発話している最中に、発話者10から発話があった場合を例に挙げて説明する。   In the description of FIG. 6, for convenience, the mobile phone 100 a is set as the utterance side terminal and the mobile phone 100 b is set as the receiving side terminal. A case will be described as an example.

まず、発話者10の発話情報が、電話網200(図2参照)を介して、携帯電話機100bに到達する。そして、発話した情報は、受話音変換部105にスピーカ113を介して入力される。   First, the speech information of the speaker 10 reaches the mobile phone 100b via the telephone network 200 (see FIG. 2). Then, the uttered information is input to the received sound conversion unit 105 via the speaker 113.

続いて、人語判断部106は、発話者10が発話した情報から言語情報(例えば、「あ」)を抽出し、抽出した言語情報を受話/発話監視・判断部108に入力する(ステップS30)。   Subsequently, the language determination unit 106 extracts language information (for example, “A”) from the information uttered by the speaker 10 and inputs the extracted language information to the reception / utterance monitoring / determination unit 108 (step S30). ).

一方、受話者20が発話すると、発話情報が発話音変換部102に入力され、人語判断部103は、受話者20が発話した情報から言語情報(例えば「い」)を抽出し、抽出した言語情報を受話/発話監視・判断部108に入力する(ステップS31)。   On the other hand, when the listener 20 speaks, the speech information is input to the speech sound conversion unit 102, and the human language determination unit 103 extracts language information (for example, “I”) from the information spoken by the receiver 20 and extracts it. Language information is input to the received / utterance monitoring / determination unit 108 (step S31).

その後、受話/発話監視・判断部108は、言語情報「あ」を受け取った時点から、言語情報「い」を受け取るまでの間隔を監視し、監視した結果、間隔が一定値以下(例えば、T秒以下;Tは自然数)である場合に、「ほぼ同時に発話された」と判断する。   Thereafter, the reception / utterance monitoring / determination unit 108 monitors the interval from the time when the language information “A” is received until the language information “I” is received. As a result of the monitoring, the interval is less than or equal to a certain value (for example, T If it is equal to or less than a second; T is a natural number), it is determined that “spoken almost simultaneously”.

したがって、受話/発話監視・判断部108は、発話者10の発話情報が受話者20に伝達できていないと判断し、その判断結果をユーザ通知部109へ入力する(ステップS32)。   Therefore, the reception / utterance monitoring / determination unit 108 determines that the utterance information of the speaker 10 cannot be transmitted to the receiver 20, and inputs the determination result to the user notification unit 109 (step S32).

そして、発話した情報が正しく伝達できていないと判断した場合に、携帯電話機100bは、その判断結果を、受話者20に対して、ユーザ通知部109を介して通知する。一方、発話者10に対しても、通話先通知部110を介して通知する(ステップS33)。   When it is determined that the spoken information cannot be transmitted correctly, the mobile phone 100b notifies the receiver 20 of the determination result via the user notification unit 109. On the other hand, the speaker 10 is also notified via the call destination notification unit 110 (step S33).

次に、受話/発話監視・判断部108が、発話側の発話が終了してから一定時間経過後に、受話側の応答があるか否かを判断する動作について図3および図7を用いて説明する。図7は、応答があるか否かの判断動作を説明するための図である。   Next, an operation in which the reception / utterance monitoring / determination unit 108 determines whether or not there is a response on the receiving side after a lapse of a certain time after the utterance on the speaking side is completed will be described with reference to FIGS. 3 and 7. To do. FIG. 7 is a diagram for explaining an operation for determining whether or not there is a response.

なお、図7に示した携帯電話機100aおよび携帯電話機100bは、図3に示した携帯電話端末装置100に相当するものとし、説明の便宜上、携帯電話機100aを発話側端末、携帯電話機100bを受話側端末として、図示する。   Note that the mobile phone 100a and the mobile phone 100b shown in FIG. 7 correspond to the mobile phone terminal device 100 shown in FIG. 3, and for convenience of explanation, the mobile phone 100a is the utterance side terminal and the mobile phone 100b is the reception side. It is illustrated as a terminal.

まず、発話者10が発話した情報が、携帯電話機100bに到達し、無線部114を介して、受話音変換部105に入力される。そして、人語判断部106は、言語情報(例えば、「あ」)を抽出し、抽出した言語情報を受話/発話監視・判断部108に入力する(ステップS40)。   First, information uttered by the speaker 10 reaches the mobile phone 100 b and is input to the received sound conversion unit 105 via the wireless unit 114. Then, the human language determination unit 106 extracts language information (for example, “A”), and inputs the extracted language information to the received / utterance monitoring / determination unit 108 (step S40).

その後、受話/発話監視・判断部108は、言語情報「あ」を受け取った後に、人語判断部103から言語情報を受け取るまでの時間を監視する(ステップS41)。   After that, the reception / utterance monitoring / determination unit 108 monitors the time until the language information is received from the human language determination unit 103 after receiving the language information “A” (step S41).

監視した結果、一定値以上(例えば、N秒間以上;Nは自然数)、人語判断部103から受話/発話監視・判断部108に言語情報の入力が無かった場合に、受話/発話監視・判断部108は、受話者20が発話者10の発話情報を上の空で聞いていたと考え、発話した情報が正しく伝達されていないと判断する(ステップS42)。   As a result of monitoring, if there is no input of linguistic information from the human language determination unit 103 to the reception / speech monitoring / determination unit 108 when a certain value or more (for example, N seconds or more; N is a natural number), the reception / utterance monitoring / determination The unit 108 considers that the receiver 20 was listening to the utterance information of the speaker 10 in the sky, and determines that the uttered information has not been correctly transmitted (step S42).

そして、音量比較判断部107は、ステップS42の判断結果を、ユーザ通知部109へ入力し、携帯電話機100bは、ステップS42にて得た判断結果を、受話者20に対して、ユーザ通知部109を介して通知する。一方、発話者10に対しても、通話先通知部110を介して通知する(ステップS43)。   Then, the volume comparison determination unit 107 inputs the determination result in step S42 to the user notification unit 109, and the mobile phone 100b gives the determination result obtained in step S42 to the user notification unit 109. Notify via On the other hand, the speaker 10 is also notified via the call destination notification unit 110 (step S43).

次に、図3の説明に戻り、ユーザ通知部109について説明する。ユーザ通知部109は、「発話した情報が受話側に伝達できていない状況」あるいは、「受話した情報が受話側に伝達できていない状況」を携帯電話端末装置の使用者に、その旨を通知する手段である。   Next, returning to the description of FIG. 3, the user notification unit 109 will be described. The user notification unit 109 notifies the user of the mobile phone terminal device of “a situation where the spoken information cannot be transmitted to the receiver” or “a situation where the received information cannot be transmitted to the receiver”. It is means to do.

具体的には、発話音量判断部104や受話/発話監視・判断部108が「発話した情報が受話側に伝達できていない状況である」と判断した場合、あるいは音量比較判断部107が、「受話した情報が受話側に伝達できていない状況である」と判断した場合に、その旨を示す情報を通話先通知部110と、ディスプレイ制御部111と、バイブレータ制御部112、スピーカ113に入力する。   Specifically, when the utterance volume determination unit 104 or the reception / utterance monitoring / determination unit 108 determines that “the information that has been uttered cannot be transmitted to the reception side”, or the volume comparison determination unit 107 “ When it is determined that the received information cannot be transmitted to the receiving side, information indicating that is input to the call destination notification unit 110, the display control unit 111, the vibrator control unit 112, and the speaker 113. .

例えば、携帯電話端末装置100が発話側の携帯電話端末装置として使用された場合、ユーザ通知部109は、発話した情報が受話者(例えば、受話者20;図2参照)に伝達できていない旨を示す情報をディスプレイやバイブレータの動作等を通じて発話者(例えば、発話者10;図2参照)へ通知する。   For example, when the mobile phone terminal device 100 is used as a mobile phone terminal device on the utterance side, the user notification unit 109 is not able to transmit the uttered information to the receiver (for example, the receiver 20; see FIG. 2). Is notified to the speaker (for example, the speaker 10; see FIG. 2) through the operation of the display or the vibrator.

一方、受話側の携帯電話端末として使用された場合、ユーザ通知部109は、受話した情報が受話者(例えば、受話者20;図2参照)に伝達できていない旨を示す情報をディスプレイへの表示やバイブレータの動作を通じて受話者20へ通知する。   On the other hand, when used as a mobile phone terminal on the receiving side, the user notification unit 109 displays information indicating that the received information cannot be transmitted to the receiver (for example, the receiver 20; see FIG. 2) on the display. The receiver 20 is notified through the display and the operation of the vibrator.

通話先通知部110は、ユーザ通知部109からの通知を受けて、「発話した情報が受話側に伝達できていない状況」を示す情報を通話先の携帯電話端末装置へ通知する手段である。   In response to the notification from the user notification unit 109, the call destination notification unit 110 is a means for notifying the mobile phone terminal device of the call destination of information indicating “a situation where the spoken information cannot be transmitted to the receiver”.

例えば、携帯電話端末装置100が発話者側の携帯電話端末装置として使用された場合、通話先通知部110は、発話した情報が受話者(例えば、受話者20;図2参照)に伝達できていない旨を示す情報を電話網200経由で受話者に対して通知する。   For example, when the mobile phone terminal device 100 is used as a mobile phone terminal device on the speaker side, the call destination notification unit 110 can transmit the uttered information to the receiver (for example, the receiver 20; see FIG. 2). Information indicating the absence is notified to the receiver via the telephone network 200.

また、上述したように発話者側の端末装置として使用され、「受話した情報が受話側に伝達できていない状況」を無線部114より、取得した場合は、ユーザ通知部109は、その判断結果を発話者へ通知する。   In addition, as described above, when the wireless unit 114 obtains the “situation where received information cannot be transmitted to the receiver” from the wireless unit 114, the user notification unit 109 determines the result of the determination. To the speaker.

一方、受話側の携帯電話端末装置として使用された場合に、通話先通知部110は、受話した情報が受話者に伝達できていない旨を示す情報を電話網200経由で発話者(例えば、発話者10;図2参照)に対して通知する。   On the other hand, when used as a mobile phone terminal device on the receiver side, the callee notification unit 110 provides information indicating that the received information cannot be transmitted to the receiver via the telephone network 200 (for example, an utterance). Person 10; see FIG. 2).

また、上述したように受話者側の端末として使用され、「発話した情報が受話側に伝達できていない状況」を無線部114より、取得した場合は、ユーザ通知部109は、その判断結果を受話者へ通知する。   Further, as described above, when the wireless unit 114 obtains the “situation where the spoken information cannot be transmitted to the receiver” from the wireless unit 114, the user notification unit 109 displays the determination result. Notify the listener.

ディスプレイ制御部111は、携帯電話端末のディスプレイに対して、「発話した情報が受話側に伝達できていない状況」を示す情報表示を行う手段である。   The display control unit 111 is a means for displaying information indicating “a situation in which spoken information cannot be transmitted to the receiver” on the display of the mobile phone terminal.

バイブレータ制御部112は、ユーザ通知部109からの通知を受けて、携帯電話端末装置のバイブレータに対して、「発話した情報が受話側に伝達できていない状況」を示す動作命令を行う手段である。   The vibrator control unit 112 is a means for receiving an instruction from the user notification unit 109 and issuing an operation command indicating “a situation where spoken information cannot be transmitted to the receiver” to the vibrator of the mobile phone terminal device. .

次に、携帯電話端末100が、発話音声と発話側の周囲雑音とを比較して、発話した情報が相手側に伝達できているか否かを判断する処理手順について説明する。図8は、発話音声が受話側に伝達できているか否かを判断するフローチャートである。   Next, a description will be given of a processing procedure in which the mobile phone terminal 100 compares the uttered voice and the ambient noise on the utterance side to determine whether or not the uttered information can be transmitted to the other side. FIG. 8 is a flowchart for determining whether or not the uttered voice has been transmitted to the receiver side.

まず、発話情報と周辺音等が携帯電話端末装置100に入力される(ステップS100)。その後、発話音量判断部104は、発話音変換部102から入力される情報を全体音量として保持する(ステップS101)。   First, utterance information, ambient sound, and the like are input to the mobile phone terminal device 100 (step S100). Thereafter, the utterance volume determination unit 104 holds the information input from the utterance sound conversion unit 102 as the overall volume (step S101).

続いて、人語判断部103が、発話音変換部102より受け取った情報から言語情報を抽出する(ステップS102)。そして、人語判断部103は、発話音量判断部104に抽出した情報を入力する(ステップS103)。   Subsequently, the human language determination unit 103 extracts language information from the information received from the utterance sound conversion unit 102 (step S102). The human language determination unit 103 then inputs the extracted information to the utterance volume determination unit 104 (step S103).

その後、発話音量判断部104は、人語判断部103が抽出した情報に含まれる言葉音量を発話音量として保持し(ステップS104)、保持している全体音量と発話音量とを比較し、発話音量が十分に大きいか否かを判断し(ステップS105)、十分に大きいと判断した場合(ステップS106、Yes)、ステップS100に戻る。   Thereafter, the utterance volume determination unit 104 holds the word volume included in the information extracted by the human language determination unit 103 as the utterance volume (step S104), compares the held overall volume with the utterance volume, and determines the utterance volume. Is determined to be sufficiently large (step S105), and if it is determined to be sufficiently large (step S106, Yes), the process returns to step S100.

一方、十分に大きくないと判断した場合(ステップS106、No)、発話音量判断部104は、発話した情報が受話者に伝達できていないと判断する。そして、発話者と受話者に対して、その判断結果を通知する(ステップS107)。   On the other hand, when it is determined that the volume is not sufficiently large (No in step S106), the utterance volume determination unit 104 determines that the uttered information cannot be transmitted to the receiver. Then, the determination result is notified to the speaker and the receiver (step S107).

このフローチャートによれば、発話者および受話者は、発話した情報が相手に伝達できないことを双方で認識することができ、発話者と受話者に対して相手側に情報を正しく伝達するための措置を採るように促すことができ、円滑なコミュニケーションの実現を図ることが可能になる。   According to this flowchart, the speaker and receiver can both recognize that the spoken information cannot be transmitted to the other party, and measures for correctly transmitting the information to the other party to the speaker and receiver. Can be encouraged to achieve smooth communication.

次に、携帯電話端末装置100が、受話音声と受話側の周囲雑音とを比較して、受話音声が受話者に伝達できているか否かを判断する処理手順について説明する。図9は、受話音声が受話側に伝達できているか否かを判断するフローチャートである。   Next, a processing procedure in which the mobile phone terminal device 100 determines whether or not the received voice can be transmitted to the receiver by comparing the received voice and the ambient noise on the receiver side will be described. FIG. 9 is a flowchart for determining whether or not the received voice can be transmitted to the receiving side.

まず、受話情報と携帯電話端末装置100の騒音やノイズ等を含む周辺音が携帯電話端末装置100に入力される(ステップS200)。その後、音量比較判断部107は、発話音変換部102から入力される情報が示す音量を周囲雑音量として保持する(ステップS201)。   First, the reception information and the ambient sound including noise and noise of the mobile phone terminal device 100 are input to the mobile phone terminal device 100 (step S200). Thereafter, the volume comparison determination unit 107 holds the volume indicated by the information input from the utterance sound conversion unit 102 as the amount of ambient noise (step S201).

続いて、人語判断部106が、受話音変換部105より受け取った情報から言語情報を抽出する(ステップS202)。そして、人語判断部106は、音量比較判断部107に抽出した情報を入力する(ステップS203)。   Subsequently, the human language determination unit 106 extracts language information from the information received from the received sound conversion unit 105 (step S202). Then, the human language determination unit 106 inputs the extracted information to the volume comparison determination unit 107 (step S203).

音量比較判断部107は、人語判断部106が抽出した情報に含まれる言葉音量を受話音量として保持し(ステップS204)、保持している周囲雑音量と受話音量とを比較して受話音量が十分に大きいか否かを判断し(ステップS205)、十分に大きいと判断した場合(ステップS206、Yes)、ステップS200に戻る。   The volume comparison determination unit 107 holds the word volume included in the information extracted by the human language determination unit 106 as the reception volume (step S204), and compares the stored ambient noise amount with the reception volume to determine the reception volume. It is determined whether it is sufficiently large (step S205), and when it is determined that it is sufficiently large (step S206, Yes), the process returns to step S200.

一方、十分に大きくないと判断した場合(ステップS206、No)、音量比較判断部107は、受話音声が受話者に伝達できていないと判断する。そして、発話者と受話者に対して、その判断結果を通知する(ステップS207)。   On the other hand, when it is determined that the volume is not sufficiently high (No at Step S206), the volume comparison determination unit 107 determines that the received voice cannot be transmitted to the receiver. Then, the determination result is notified to the speaker and the receiver (step S207).

このフローチャートによれば、発話者および受話者は、受話音声が受話者に伝達できていないことを双方で認識することができ、発話者に相手側に対して正しく情報伝達を行うための措置を採るように促すことができる。また、受話者に対しても、正確に受話できるような措置を採るように促すことができる。したがって、発話者および受話者はコミュニケーションを円滑に進めるための措置を採ることができるようになる。   According to this flowchart, the speaker and the receiver can both recognize that the received voice has not been transmitted to the receiver, and take measures to correctly transmit information to the other party to the speaker. Can be encouraged to take. In addition, it is possible to prompt the listener to take measures so that the user can accurately receive the call. Therefore, the speaker and the listener can take measures to facilitate communication.

次に、双方が同時に発話した場合における携帯電話端末装置100の処理手順について説明する。図10は、双方が同時に発話した場合を判断するフローチャートである。   Next, a processing procedure of the mobile phone terminal device 100 when both speak simultaneously will be described. FIG. 10 is a flowchart for determining a case where both uttered simultaneously.

まず、発話者が発話した情報が、電話網200(図2参照)を介して、携帯電話端末装置100に到達する。そして、発話者からの情報が、受話音変換部105に無線部114を介し、入力される。一方、受話者が発話すると、発話情報が発話音変換部102に入力される(ステップS300)。   First, information uttered by a speaker reaches the mobile phone terminal device 100 via the telephone network 200 (see FIG. 2). Then, information from the speaker is input to the received sound conversion unit 105 via the wireless unit 114. On the other hand, when the receiver speaks, speech information is input to the speech conversion unit 102 (step S300).

続いて、人語判断部106は、発話者が発話した情報から言語情報「あ」を抽出し、抽出した言語情報(例えば「あ」)を受話/発話監視・判断部108に入力する(ステップS301)。   Subsequently, the human language determination unit 106 extracts language information “A” from the information spoken by the speaker, and inputs the extracted language information (for example, “A”) to the received / utterance monitoring / determination unit 108 (Step S1). S301).

また、受話者が発話すると、受話者の発話情報が発話音変換部102に入力され、人語判断部103は、受話者が受話した情報から言語情報(例えば「い」)を抽出し、抽出した言語情報「い」を受話/発話監視・判断部108に入力する(ステップS302)。   Further, when the listener speaks, the utterance information of the listener is input to the utterance sound conversion unit 102, and the language determination unit 103 extracts and extracts language information (for example, “I”) from the information received by the listener. The language information “I” is input to the reception / utterance monitoring / determination unit 108 (step S302).

その後、受話/発話監視・判断部108は、言語情報「あ」を受け取った時点から、言語情報「い」を受け取るまでの間隔が一定値以下であるか判断する(ステップS303)。判断結果、間隔が一定値以下(ステップS304、Yes)である場合に、「ほぼ同時に発話された」と判断する。   Thereafter, the reception / utterance monitoring / determination unit 108 determines whether or not the interval from the reception of the language information “A” to the reception of the language information “I” is equal to or less than a predetermined value (step S303). As a result of the determination, if the interval is equal to or smaller than a certain value (step S304, Yes), it is determined that “spoken almost simultaneously”.

そして、携帯電話端末装置100は、ステップS304にて得た判断結果を、受話者にユーザ通知部109を介して通知する。一方、発話者に対しても、通話先通知部110を介して、受話者に通知する(ステップS305)。   Then, the cellular phone terminal device 100 notifies the receiver of the determination result obtained in step S304 via the user notification unit 109. On the other hand, the speaker is also notified to the receiver via the call destination notification unit 110 (step S305).

一方、間隔が一定値を越えていた場合に(ステップS304、No)、「ほぼ同時に発話された」と判断せず、ステップS300へ移行する。   On the other hand, if the interval exceeds a certain value (step S304, No), it is not determined that “spoken almost simultaneously”, and the process proceeds to step S300.

このフローチャートによれば、発話者および受話者が同時に発話した場合に、発話した情報が受話者に伝達できていないことを双方で認識することができ、発話者および受話者はコミュニケーションを円滑に進めるための措置を採ることができるようになる。   According to this flowchart, when the speaker and the listener speak at the same time, both sides can recognize that the spoken information cannot be transmitted to the receiver, and the speaker and the listener can smoothly communicate. To be able to take measures to

次に、発話側の発話が終了してから一定時間経過後に、携帯電話端末装置100が、受話側の応答があるか否かを判断する処理手順について説明する。図11は、発話後の無応答時間を判断するフローチャートである。   Next, a description will be given of a processing procedure in which the mobile phone terminal device 100 determines whether or not there is a response on the receiving side after a lapse of a certain time from the end of the speaking side. FIG. 11 is a flowchart for determining the no-response time after utterance.

まず、発話者の発話した情報が、携帯電話端末装置100に到達し、受話音変換部105に入力される(ステップS400)。   First, information uttered by the speaker reaches the mobile phone terminal device 100 and is input to the received sound conversion unit 105 (step S400).

そして、人語判断部106は、言語情報(例えば、「あ」)を抽出し(ステップS401)、抽出した言語情報を受話/発話監視・判断部108に入力する(ステップS402)。   Then, the language determination unit 106 extracts language information (for example, “A”) (step S401), and inputs the extracted language information to the reception / utterance monitoring / determination unit 108 (step S402).

その後、受話/発話監視・判断部108は、言語情報「あ」を受け取った後に、受話者の発話に係る言語情報を人語判断部103から受け取るまでの時間を監視する(ステップS403)。   Thereafter, the reception / speech monitoring / determination unit 108 monitors the time until the language information related to the utterance of the receiver is received from the human language determination unit 103 after receiving the language information “A” (step S403).

監視した結果、人語判断部103から言語情報の入力が一定期間なく、一定値以上(一定期間の経過)であれば(ステップS404、Yes)、受話/発話監視・判断部108は、「正しく情報が伝達されていない可能性がある」と判断し、その判断結果を受話者と発話者に対して通知する(ステップS405)。   As a result of the monitoring, if the language information is not input from the human language determination unit 103 for a certain period and exceeds a certain value (elapse of a certain period) (Yes in step S404), the received / utterance monitoring / determination unit 108 determines that “correctly It is determined that there is a possibility that information is not transmitted ", and the determination result is notified to the receiver and the speaker (step S405).

一方、人語判断部103から言語情報の入力が、一定期間内に受話/発話監視・判断部108に対してされた場合(ステップS404、No)、ステップS400へ移行する。   On the other hand, when the language information is input from the human language determination unit 103 to the reception / speech monitoring / determination unit 108 within a certain period (step S404, No), the process proceeds to step S400.

このフローチャートによれば、発話側の発話が終了してから一定時間経過後に、受話側の応答が無い場合に、携帯電話端末装置100は、発話した情報が正しく伝達できていないと判断することができ、その判断結果を受話者および発話者に通知することで、発話者および受話者はコミュニケーションを円滑に進めるための措置を採ることができるようになる。   According to this flowchart, the mobile phone terminal device 100 can determine that the uttered information cannot be correctly transmitted when there is no response on the receiving side after a lapse of a certain time from the end of the speaking on the speaking side. In addition, by notifying the listener and the speaker of the determination result, the speaker and the speaker can take measures to facilitate communication.

上述してきたように、実施例1に係る携帯電話端末装置は、発話した情報の不伝達について判断し、その判断結果を発話者および受話者に通知することで、発話した情報が受話者に伝達できていないことを双方で認識することができ、発話者および受話者はコミュニケーションを円滑に進めるための措置を採ることができるようになる。   As described above, the mobile phone terminal according to the first embodiment determines the non-transmission of spoken information and notifies the speaker and the listener of the determination result, thereby transmitting the spoken information to the receiver. It is possible for both parties to recognize that this is not possible, and for the speaker and receiver to take measures to facilitate communication.

ところで、上述してきたように実施例1によれば、発話した情報が相手側に伝達されていない場合を判断する例について説明したが、発話した情報が相手側に正しく伝達されている場合についても、携帯電話端末装置100は判断することができ、その判断結果を発話者および受話者に対しても通知することができる。   Incidentally, as described above, according to the first embodiment, the example in which the spoken information is not transmitted to the other party has been described. However, the case where the spoken information is correctly transmitted to the other party is also described. The mobile phone terminal device 100 can make a determination, and can notify the speaker and receiver of the determination result.

例えば、図3で示した発話音量判断部104が、全体音量と発話音量とを比較して、発話音量が全体音量に対して十分に大きい場合は、発話した情報が相手側に正しく伝達されていると判断し、その判断結果をユーザ通知部109や通話先通知部110を介して、発話者および受話者に通知することができる。   For example, when the utterance volume determination unit 104 shown in FIG. 3 compares the overall volume and the utterance volume, and the utterance volume is sufficiently larger than the overall volume, the spoken information is correctly transmitted to the other party. The determination result can be notified to the speaker and the receiver via the user notification unit 109 and the call destination notification unit 110.

その結果、発話側は、相手側に発話した情報が正しく伝達できている旨を認識することが可能となり、周囲の雑音等が少ない場所に移動することや、再度発話をするといったことをすることなく、安心して通話することができる。   As a result, the utterance side can recognize that the information uttered to the other side is correctly transmitted, and can move to a place where there is little ambient noise, etc., or utter again. You can talk with confidence.

そして、発話した情報が相手側に伝達されていないことを判断する場合と同様に、情報が正しく伝達されないことによる人間関係のトラブル発生の抑止や話者の不安を軽減し、円滑なコミュニケーションの実現を図ることができる。   As in the case where it is determined that the spoken information is not transmitted to the other party, smooth communication is achieved by reducing the occurrence of human-related troubles due to information not being transmitted correctly and reducing speaker anxiety. Can be achieved.

次に、実施例2に係る携帯電話端末装置の概要について説明する。実施例2に係る携帯電話端末装置は、受話側の携帯電話端末装置として使用された際に、受話側の周囲雑音等の影響により、通話情報が欠落しているか否かを判断し、欠落していると判断した場合は、発話者にアラーム音を通知する。   Next, an outline of the mobile phone terminal device according to the second embodiment will be described. When the mobile phone terminal device according to the second embodiment is used as a receiver-side mobile phone terminal device, the mobile phone terminal device determines whether or not call information is missing due to the influence of ambient noise on the receiver side. If it is determined that the alarm sound is detected, an alarm sound is notified to the speaker.

図12は、実施例2の概要を説明するための図である。図12では、まず、話者10が携帯電話機300aを使用し、話者20が携帯電話機300bを使用し、通話している。そして、話者10が、携帯電話機300aに、「9時集合」と発話した場合を例に挙げる(ステップS50)。なお、以下、説明の便宜上、話者10を発話者10とし、話者20を受話者20とする。   FIG. 12 is a diagram for explaining the outline of the second embodiment. In FIG. 12, first, the speaker 10 uses the mobile phone 300a and the speaker 20 uses the mobile phone 300b to make a call. Then, a case where the speaker 10 speaks “set at 9 o'clock” to the mobile phone 300a is described as an example (step S50). Hereinafter, for convenience of explanation, it is assumed that the speaker 10 is the speaker 10 and the speaker 20 is the receiver 20.

その後、発話者10の発話した情報「9時集合」が、電話網200(図2参照)を介して、携帯電話機300bに到達し、携帯電話機300bのスピーカを介して、受話者20の耳までに到達する。   Thereafter, the information “9 o'clock set” spoken by the speaker 10 reaches the mobile phone 300b via the telephone network 200 (see FIG. 2), and reaches the ear of the receiver 20 via the speaker of the mobile phone 300b. To reach.

この間、例えば、携帯電話機300b内の集音部(図示省略)が、携帯電話機300bの周囲雑音等を取得した場合、その取得した周囲雑音等の影響を受け、「9時集合」がかき消された状態で受話者20の耳に伝達された場合に(ステップS51)、携帯電話機300bは、発話者10が発話した情報が、欠落した状態で受話者20に伝達されたと判断し、携帯電話機300aに「欠落アラーム」を通知する(ステップS52)。   During this time, for example, when the sound collecting unit (not shown) in the mobile phone 300b acquires the ambient noise of the mobile phone 300b, the “9 o'clock set” has been drowned due to the influence of the acquired ambient noise and the like. When the information is transmitted to the ear of the listener 20 in the state (step S51), the mobile phone 300b determines that the information spoken by the speaker 10 has been transmitted to the receiver 20 in a missing state, and transmits the information to the mobile phone 300a. A “missing alarm” is notified (step S52).

したがって、この欠落アラームとは、発話者の発話した情報が、受話側の周囲雑音等の影響を受け、欠落した状態で受話者の耳に到達したことを示すアラームを指すものとする。   Therefore, this missing alarm refers to an alarm indicating that information uttered by a speaker has been affected by ambient noise on the receiving side and has reached the ear of the receiver in a missing state.

このように、携帯電話機300bが、発話した情報の欠落を示す「欠落アラーム」を発話者に通知することで、発話者の方で、自ら発話した情報が受話者に正しく伝達されていないことを認識することができる。   In this way, the mobile phone 300b notifies the speaker of the “missing alarm” indicating the absence of spoken information, so that the information spoken by the speaker is not correctly transmitted to the receiver. Can be recognized.

次に、実施例2に係る携帯電話端末装置の構成について説明する。図13は、実施例2に係る携帯電話端末装置の構成を示すブロック図である。なお、図13の携帯電話端末装置300は、図12に示した携帯電話機300aおよび携帯電話機300bに相当するものとするが、説明の便宜上、携帯電話端末装置300が受話側の携帯電話機300bとして使用された場合を例に挙げて以下説明する。   Next, the configuration of the mobile phone terminal device according to the second embodiment will be described. FIG. 13 is a block diagram illustrating the configuration of the mobile phone terminal according to the second embodiment. 13 corresponds to the mobile phone 300a and the mobile phone 300b shown in FIG. 12, but for convenience of explanation, the mobile phone terminal device 300 is used as the mobile phone 300b on the receiving side. This will be described below by taking the case as an example.

図13に示すように、携帯電話端末装置300は、メモリ301と、CPU(Central Processing Unit)302と、スピーカ303と、モニターマイク304と、表示部318とを有する。   As illustrated in FIG. 13, the mobile phone terminal device 300 includes a memory 301, a CPU (Central Processing Unit) 302, a speaker 303, a monitor microphone 304, and a display unit 318.

メモリ301は、CPU302が使用する各種データなど記憶する記憶手段で、CPU302は、メモリ301から各種データを読み出して各種処理を実行する中央処理部である。   The memory 301 is a storage unit that stores various data used by the CPU 302. The CPU 302 is a central processing unit that reads various data from the memory 301 and executes various processes.

具体的処理として、発話音声のテキスト化と、発話音声と携帯電話端末装置300の周囲雑音等とが混在した情報のテキスト化とを行い、これらテキスト化した情報に基づいて、発話音声が欠落しているか否かを判断し、欠落していると判断した場合は、欠落アラームを発話側の携帯電話端末装置に通知を行う。   As specific processing, the speech is converted into text, and the information including mixed speech and ambient noise of the mobile phone terminal 300 is converted into text, and the speech is lost based on the text information. If it is determined that it is missing, a missing alarm is notified to the mobile phone terminal device on the utterance side.

そして、CPU302は、無線制御部310と、呼制御部311と、スピーカ制御部312と、モニターマイク制御部313と、音声認識エンジン314と、音声認識エンジン315と、欠落アラーム部316と、アラーム音生成部317とを有する。   Then, the CPU 302 performs a wireless control unit 310, a call control unit 311, a speaker control unit 312, a monitor microphone control unit 313, a voice recognition engine 314, a voice recognition engine 315, a missing alarm unit 316, and an alarm sound. And a generation unit 317.

無線制御部310は、発話音声の取得や、アラーム音生成部317が生成した欠落アラームおよび欠落した情報が示すテキストデータを発話側の携帯電話機300a(図12参照)に出力する手段である。   The wireless control unit 310 is a means for acquiring utterance voice, outputting the missing alarm generated by the alarm sound generation unit 317 and the text data indicated by the missing information to the mobile phone 300a on the utterance side (see FIG. 12).

呼制御部311は、発話音声や所定のテキストデータの入出力制御、欠落アラームの作成要求や出力を行う手段である。例えば、呼制御部311は、無線制御部310が取得した発話音声をスピーカ制御部312と欠落アラーム部316とに出力する。さらに、音声認識エンジン314および音声認識エンジン315がテキスト化した情報に基づいて、所定のテキストデータを無線制御部310や表示部318に出力する。   The call control unit 311 is means for performing input / output control of speech voice and predetermined text data, and a creation request and output of a missing alarm. For example, the call control unit 311 outputs the uttered voice acquired by the wireless control unit 310 to the speaker control unit 312 and the missing alarm unit 316. Further, predetermined text data is output to the wireless control unit 310 and the display unit 318 based on the information converted into text by the speech recognition engine 314 and the speech recognition engine 315.

スピーカ制御部312は、呼制御部311から入力された発話音声をスピーカ303に出力する手段である。   The speaker control unit 312 is means for outputting the uttered voice input from the call control unit 311 to the speaker 303.

モニターマイク制御部313は、モニターマイク304が取得した情報を欠落アラーム部316に出力する手段である。なお、上述したように、このモニターマイク304が取得する情報は、発話音声と、携帯電話端末装置300の周辺騒音やノイズ等を含む周辺音とが混在した情報とする。   The monitor microphone control unit 313 is means for outputting information acquired by the monitor microphone 304 to the missing alarm unit 316. Note that, as described above, the information acquired by the monitor microphone 304 is information in which the uttered voice and the peripheral sound including the peripheral noise and noise of the mobile phone terminal device 300 are mixed.

音声認識エンジン314は、欠落アラーム部316を介して、呼制御部311に入力された発話音声を音声認識によりテキスト化し、テキスト化されたデータをテキストデータAとして保持する手段である。また、欠落アラーム部316の要求に応じて、テキストデータAを欠落アラーム部316に出力する。   The speech recognition engine 314 is a means for converting the speech speech input to the call control unit 311 into text by speech recognition via the missing alarm unit 316 and holding the text data as text data A. Further, the text data A is output to the missing alarm unit 316 in response to a request from the missing alarm unit 316.

音声認識エンジン315は、欠落アラーム部316を介して、モニターマイク制御部313に入力された発話音声と携帯電話端末装置300の周囲音等とが混在した情報を音声認識によりテキスト化し、テキスト化されたデータをテキストデータBとして保持する手段である。また、欠落アラーム部316の要求に応じて、テキストデータBを欠落アラーム部316に出力する。   The voice recognition engine 315 converts the mixed information of the speech voice input to the monitor microphone control unit 313 and the ambient sound of the mobile phone terminal device 300 through the missing alarm unit 316 into text by voice recognition and converts the information into text. Means for holding the data as text data B. Further, the text data B is output to the missing alarm unit 316 in response to a request from the missing alarm unit 316.

欠落アラーム部316は、音声認識エンジン314と、音声認識エンジン315とが変換したテキストデータAとテキストデータBとをあらかじめ定められた所定間隔に基づいて、比較を行い、比較したテキストデータ間に差分が発生しているか否かを判断する手段である。なお、この「差分」とは、比較するテキストデータの一致率が所定値以下の場合を示すものとする。   The missing alarm unit 316 compares the text data A and the text data B converted by the speech recognition engine 314 and the speech recognition engine 315 based on a predetermined interval, and the difference between the compared text data This is means for determining whether or not the above has occurred. The “difference” indicates a case where the matching rate of the text data to be compared is a predetermined value or less.

さらに、欠落アラーム部316は、差分が発生していると判断した場合に、欠落アラームの生成を呼制御部311に要求する手段で、タイマー316a、テキスト入出力制御部316bと、テキスト比較部316cとを有する。   Further, when the missing alarm unit 316 determines that a difference has occurred, the missing alarm unit 316 requests the call control unit 311 to generate a missing alarm, and includes a timer 316a, a text input / output control unit 316b, and a text comparison unit 316c. And have.

タイマー316aは、時間情報を生成し、生成した時間情報をテキスト入出力制御部316bに出力する手段である。生成する時間情報は、1秒、3秒、5秒といった例が挙げられる。   The timer 316a is means for generating time information and outputting the generated time information to the text input / output control unit 316b. Examples of the time information to be generated include 1 second, 3 seconds, and 5 seconds.

テキスト入出力制御部316bは、音声認識エンジン314と音声認識エンジン315とに、各種テキストデータの取得要求を同時に行い、取得した各種テキストデータをテキスト比較部316cに出力する手段である。なお、タイマー316aが生成する時間情報に基づき、テキスト入出力制御部316bは、周期的(例えば、5秒間)に、各種テキストデータの取得要求を行うものとする。   The text input / output control unit 316b is a unit that simultaneously requests the voice recognition engine 314 and the voice recognition engine 315 to acquire various text data and outputs the acquired various text data to the text comparison unit 316c. Note that the text input / output control unit 316b makes various text data acquisition requests periodically (for example, for 5 seconds) based on the time information generated by the timer 316a.

そして、テキスト入出力制御部316bが、音声認識エンジン314からテキストデータA、また、音声エンジン315からテキストデータBを取得した場合は、取得したテキストデータAとテキストBとをテキスト比較部316cに出力する。   When the text input / output control unit 316b acquires the text data A from the speech recognition engine 314 and the text data B from the speech engine 315, the text input / output control unit 316b outputs the acquired text data A and text B to the text comparison unit 316c. To do.

テキスト比較部316cは、テキスト入出力制御部316bから取得した各種テキストデータを比較して、比較したテキストデータ間に、差分が発生したか否かを判断し、その判断結果に基づいて、発話音声が欠落して受話者に届いたか否かを判断する手段である。   The text comparison unit 316c compares the various text data acquired from the text input / output control unit 316b, determines whether or not a difference has occurred between the compared text data, and based on the determination result, the speech voice Is a means for determining whether or not the message has arrived at the receiver.

さらに、テキスト比較部316cは、発話音声に欠落が発生したと判断した場合に、欠落アラームの生成要求と、欠落した箇所に相当するテキストデータの出力を呼制御部311に対して行う手段である。   Further, the text comparison unit 316c is a unit that, when it is determined that a missing voice has occurred, generates a missing alarm request and outputs text data corresponding to the missing part to the call control unit 311. .

テキスト比較部316cが行う処理について、具体的に図を挙げて説明する。図14は、テキスト比較部316cの処理について説明するための図である。図14の上段は、テキストデータが一致した場合を示し、一方、下段は、テキストデータに差分が発生した場合を示すものとする。   The processing performed by the text comparison unit 316c will be specifically described with reference to the drawings. FIG. 14 is a diagram for explaining the processing of the text comparison unit 316c. The upper part of FIG. 14 shows the case where the text data matches, while the lower part shows the case where a difference occurs in the text data.

図14の上段に示すように、発話音声の示すテキストデータAが、「9時集合」の場合を例に挙げ、テキスト比較部316cが行う処理を説明する。まず、テキスト比較部316cが、テキスト入出力制御部316bからテキストデータAとして「9時集合」を取得する。   As illustrated in the upper part of FIG. 14, the process performed by the text comparison unit 316c will be described by taking as an example the case where the text data A indicated by the speech is “9 o'clock set”. First, the text comparison unit 316c acquires “9 o'clock set” as the text data A from the text input / output control unit 316b.

同様に、テキスト比較部316cが、テキスト入出力制御部316bからテキストデータBとして「9時集合」を取得した場合に、テキストデータAとテキストデータBとが一致することから、差分は発生しない。   Similarly, when the text comparison unit 316c acquires “9 o'clock set” as the text data B from the text input / output control unit 316b, the text data A and the text data B match, so no difference occurs.

したがって、テキスト比較部316cは、発話音声の欠落は発生しないで、受話者に届いたと判断し、欠落アラームの生成要求を呼制御部311に対して行わない。   Therefore, the text comparison unit 316c determines that the speech has not been lost and has arrived at the receiver, and does not make a call to the call control unit 311 to generate a missing alarm.

一方、図14の下段に示すように、テキスト比較部316cが、テキスト入出力制御部316bからテキストデータAとして「9時集合」を取得し、テキストデータBとして「ガガガ集合」を取得した場合に、テキストデータAとテキストデータBとを比較すると、テキストデータAとテキストデータBとに共通するテキストデータは、「集合」で、「9時」は、テキストデータAにしか含んでおらず、「ガガガ」は、テキストデータBにしか含んでいない。   On the other hand, as shown in the lower part of FIG. 14, when the text comparison unit 316 c acquires “9 o'clock set” as text data A and “gagaga set” as text data B from the text input / output control unit 316 b. When the text data A and the text data B are compared, the text data common to the text data A and the text data B is “set”, and “9:00” is included only in the text data A. "GAGAGA" is included only in the text data B.

したがって、テキスト比較部316cは、テキストデータAとテキストデータBとの間に、差分が発生していると判断する。そして、テキスト比較部316cは、差分が発生していると判断した場合に、発話音声が欠落した状態で受話者に届いたと判断し、欠落アラームの生成要求を呼制御部311に対して行なうとともに、欠落したテキストデータ「9時」を呼制御部311に出力する。   Therefore, the text comparison unit 316c determines that a difference has occurred between the text data A and the text data B. When the text comparison unit 316c determines that a difference has occurred, the text comparison unit 316c determines that the speech has arrived at the receiver in a state in which the utterance is missing, and makes a request for generating a missing alarm to the call control unit 311. The missing text data “9:00” is output to the call control unit 311.

また、このとき、欠落したテキストデータ「9時」を受け取った呼制御部311は、無線制御部310を介して、発話側の携帯電話機300aにテキストデータ「9時」を送信する。その後、携帯電話機300aは、自装置の表示部(図示省略)に「9時」を表示する。   At this time, the call control unit 311 that has received the missing text data “9 o'clock” transmits the text data “9 o'clock” to the mobile phone 300a on the utterance side via the radio control unit 310. After that, the cellular phone 300a displays “9:00” on the display unit (not shown) of its own device.

さらに、呼制御部311は、欠落したテキストデータ「9時」を表示部318に対しても出力する。   Further, the call control unit 311 outputs the missing text data “9:00” to the display unit 318 as well.

なお、テキスト比較部316cは、各種テキストデータの差分が発生するか否かを判断していることから、音声認識エンジン314および音声認識エンジン315がテキスト化する精度(音声認識精度)に左右されず、テキスト比較316cは、各種テキストデータの差分について判断することが可能なものとする。   Note that the text comparison unit 316c determines whether or not a difference between various types of text data occurs, and thus is not affected by the accuracy of the speech recognition engine 314 and the speech recognition engine 315 (text recognition accuracy). The text comparison 316c can determine the difference between various text data.

次に、図13の説明に戻り、アラーム音生成部317について説明する。アラーム音生成部317は、呼制御部311から欠落アラームの生成要求に応じて、欠落アラームを生成し、生成した欠落アラームを呼制御部311に出力する手段である。   Next, returning to the description of FIG. 13, the alarm sound generation unit 317 will be described. The alarm sound generation unit 317 is a unit that generates a missing alarm in response to a missing alarm generation request from the call control unit 311 and outputs the generated missing alarm to the call control unit 311.

スピーカ303は、図12に示した発話者10の方で発話した発話情報の音声(以下、発話音声とする)を出力する手段である。具体的には、CPU302から出力された発話音声を受話者20に対して出力する。   The speaker 303 is means for outputting speech information speech (hereinafter referred to as speech speech) spoken by the speaker 10 shown in FIG. Specifically, the uttered voice output from the CPU 302 is output to the listener 20.

モニターマイク304は、スピーカ303より出力された発話音声や、携帯電話端末装置300の周囲雑音やノイズ等を含む周辺音等を取得する手段で、スピーカ303に隣接する。なお、モニターマイク304は、スピーカ303に隣接する他、スピーカ303と一体化させても良いものとする。   The monitor microphone 304 is a means for acquiring speech sound output from the speaker 303, ambient sounds including ambient noise of the mobile phone terminal device 300, and the like, and is adjacent to the speaker 303. Note that the monitor microphone 304 is adjacent to the speaker 303 and may be integrated with the speaker 303.

表示部318は、欠落したテキストデータ(例えば、「9時」;図14参照)を呼制御部311の要求に応じて表示する手段である。   The display unit 318 is means for displaying missing text data (for example, “9 o'clock”; see FIG. 14) in response to a request from the call control unit 311.

次に、携帯電話端末装置300が行う処理について説明する。図15は、携帯電話端末装置300の処理を示すフローチャートである。   Next, processing performed by the mobile phone terminal device 300 will be described. FIG. 15 is a flowchart showing processing of the mobile phone terminal device 300.

まず、発話者10が発話した発話音声が、音声認識エンジン314に、呼制御部311から入力され(ステップS500)、音声認識エンジン314は、入力された発話音声に対して、音声認識によるテキスト変換を開始する(ステップS501)。   First, the utterance voice uttered by the speaker 10 is input to the voice recognition engine 314 from the call control unit 311 (step S500), and the voice recognition engine 314 performs text conversion by voice recognition on the input utterance voice. Is started (step S501).

続いて、モニターマイク304が取得した情報が、音声認識エンジン315に、モニターマイク制御部313から入力され(ステップS502)、音声認識エンジン315は、入力された情報に対して、音声認識によるテキスト変換を開始する(ステップS503)。   Subsequently, the information acquired by the monitor microphone 304 is input from the monitor microphone control unit 313 to the voice recognition engine 315 (step S502), and the voice recognition engine 315 converts the input information into text by voice recognition. Is started (step S503).

その後、テキスト入出力制御部316bが、タイマー316aが生成する時間情報に基づいて、所定時間(例えば、5秒)が経過したか否かを判断し、5秒経過していた場合(ステップS504、Yes)、ステップS505へ移行する。一方、5秒経過していない場合(ステップS504、No)、ステップS503へ移行する。   Thereafter, the text input / output control unit 316b determines whether or not a predetermined time (for example, 5 seconds) has elapsed based on the time information generated by the timer 316a, and when 5 seconds have elapsed (step S504, Yes), the process proceeds to step S505. On the other hand, if 5 seconds have not elapsed (step S504, No), the process proceeds to step S503.

そして、テキスト入出力制御部316bは、音声認識エンジン314と音声認識エンジン315とに対して、音声認識により変換されたテキストデータの取得を要求する(ステップS505)。   Then, the text input / output control unit 316b requests the speech recognition engine 314 and the speech recognition engine 315 to acquire text data converted by speech recognition (step S505).

その後、音声認識エンジン314は、変換したテキストデータ(例えば、テキストデータA)をテキスト入出力制御部316bに出力する。一方、音声認識エンジン315は、変換したテキストデータ(たとえば、テキストデータB)をテキスト入出力制御部316bに出力する。   Thereafter, the speech recognition engine 314 outputs the converted text data (for example, text data A) to the text input / output control unit 316b. On the other hand, the speech recognition engine 315 outputs the converted text data (for example, text data B) to the text input / output control unit 316b.

その後、テキスト比較部316cは、テキスト入出力制御部316bからテキストデータAを取得し(ステップS506)、さらに、テキストデータBを取得する(ステップS507)。そして、テキスト比較部316cは、テキスト入出力制御部316bから取得したテキストデータAとテキストデータBとを比較する(ステップS508)。   Thereafter, the text comparison unit 316c acquires the text data A from the text input / output control unit 316b (step S506), and further acquires the text data B (step S507). Then, the text comparison unit 316c compares the text data A acquired from the text input / output control unit 316b with the text data B (step S508).

続いて、テキスト比較部316cが、テキストデータAとテキストデータBとに差分があると判断した場合(ステップS509、Yes)、呼制御部311は、アラーム音生成部317が生成した欠落アラームを発話側に通知する(ステップS510)。   Subsequently, when the text comparison unit 316c determines that there is a difference between the text data A and the text data B (step S509, Yes), the call control unit 311 utters the missing alarm generated by the alarm sound generation unit 317. (Step S510).

一方、テキスト比較部316cが、差分がないと判断した場合(ステップS509、No)、ステップS511に移行する。   On the other hand, when the text comparison unit 316c determines that there is no difference (No in step S509), the process proceeds to step S511.

そして、通話が終了される場合(ステップS511、Yes)、音声認識が終了する(ステップS512)。一方、通話が終了されない場合(ステップS511、No)、ステップS504に移行する。   When the call is terminated (step S511, Yes), the voice recognition is terminated (step S512). On the other hand, if the call is not terminated (No at step S511), the process proceeds to step S504.

このフローチャートによれば、携帯電話端末装置300が、発話音声が欠落した状態で受話側の耳に伝達されたと判断した場合、「欠落アラーム」を発話側に通知することで、発話者の方で発話した情報が受話者に正しく伝達されていないことを認識することができる。   According to this flowchart, when the mobile phone terminal device 300 determines that the speech has been transmitted to the ear on the receiving side in a state in which the speech is missing, it notifies the speaker of the “missing alarm” by the speaker. It can be recognized that the spoken information is not correctly transmitted to the receiver.

上述してきたように、実施例2に係る携帯電話端末装置300は、発話した情報が欠落した状態で受話者の耳に到達した場合に、発話した情報の「欠落アラーム」を発話側の携帯電話端末装置に通知することで、発話者は、自分の発話した情報が相手に対し、欠落して伝達された旨を把握することができ、発話者はコミュニケーションを円滑に進めるための措置を採ることができるようになる。   As described above, when the mobile phone terminal device 300 according to the second embodiment reaches the listener's ear in a state where the spoken information is missing, the mobile phone on the utterance side notifies the “missing alarm” of the spoken information. By notifying the terminal device, the speaker can grasp that the information he / she spoke is missing and transmitted to the other party, and the speaker should take measures to facilitate communication. Will be able to.

なお、これまで、実施例1と実施例2とを例に挙げ、別々に説明してきたが、実施例1に示す携帯電話端末装置100と、実施例2に示す携帯電話端末装置300との各処理部を組合せて構成しても良いものとする。   Heretofore, the first embodiment and the second embodiment have been described as examples, and have been described separately. However, each of the mobile phone terminal device 100 shown in the first embodiment and the mobile phone terminal device 300 shown in the second embodiment is described. The processing units may be combined.

ところで、実施例1及び2において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部あるいは一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種データを含む情報については、特記する場合を除いて任意に変更することができる。   By the way, among the processes described in the first and second embodiments, all or part of the processes described as being automatically performed can be manually performed, or have been described as being manually performed. All or part of the processing can be automatically performed by a known method. In addition, the information including the processing procedure, control procedure, specific name, and various data shown in the above document and drawings can be arbitrarily changed unless otherwise specified.

また、図3に示した携帯電話端末装置100や図13に示した携帯電話端末装置300の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of the cellular phone terminal device 100 shown in FIG. 3 and the cellular phone terminal device 300 shown in FIG. 13 is functionally conceptual, and it is necessary that the components are not physically configured as illustrated. do not do. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Furthermore, each processing function performed by each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.

図16は、発話情報の不伝達を判断するプログラムを実行する携帯電話端末装置のハードウェア構成を示す図である。図16に示すように、この携帯電話端末装置400は、マイク401、無線通信部402、音声変換部403、記憶領域404、CPU(Central Processing Unit)405、バイブレータ406、ディスプレイ407、スピーカ408をバス409で接続している。   FIG. 16 is a diagram illustrating a hardware configuration of a mobile phone terminal device that executes a program for determining non-transmission of speech information. As shown in FIG. 16, the cellular phone terminal device 400 has a microphone 401, a wireless communication unit 402, a voice conversion unit 403, a storage area 404, a CPU (Central Processing Unit) 405, a vibrator 406, a display 407, and a speaker 408 as a bus. 409 is connected.

そして、記憶領域404には、CPU405によって利用されるデータを含んだ各種データ404a、上述した携帯電話端末装置100の発話音量と全体音量とを比較判断する機能と同様の機能を発揮する発話音量判断プログラム404b、受話音量と周囲音量を比較判断する機能と同様の機能を発揮する音量比較判断プログラム404c、発話情報や受話情報から言語情報に係る情報を抽出する機能と同様の機能を発揮する人語判断プログラム404d、発話者と受話者が同時に発話したかの判断、あるいは発話後の無応答時間を判断する機能と同様の機能発揮する受話/発話監視プログラム404e、発話した音声が欠落したか否かを判断する欠落アラームプログラム404fが記憶されている。   In the storage area 404, various data 404a including data used by the CPU 405, and an utterance volume determination that exhibits the same function as the above-described function of comparing and determining the utterance volume and the overall volume of the mobile phone terminal device 100 described above. Human language that performs the same function as the program 404b, the volume comparison / determination program 404c that performs the same function as the function that compares and determines the received sound volume and the surrounding sound volume, and the function that extracts language information from the utterance information and the received information Judgment program 404d, whether the speaker and the listener have spoken at the same time, or the reception / speech monitoring program 404e that performs the same function as the function of judging the non-response time after utterance, whether the spoken voice is missing A missing alarm program 404f for judging the above is stored.

そして、CPU405が、発話音量判断プログラム404b、音量比較判断プログラム404c、人語判断プログラム404d、受話/発話監視プログラム404e、欠落アラームプログラム404fをそれぞれ読み出して実行することにより、発話音量判断プロセス405a、音量比較判断プロセス405b、人語判断プロセス405c、受話/発話監視プロセス405d、欠落アラームプロセス405eがそれぞれ起動される。ここで、発話音量判断プロセス405aは、図3に示した発話音量判断部104に対応し、音量比較判断プロセス405bは図3に示した音量比較判断部107に対応し、人語判断プロセス405cは図3に示した人語判断部103、人語判断部106に対応し、受話/発話監視プロセス405dは、受話/発話監視・判断部108に対応し、欠落アラームプロセス405eは、図13に示した欠落アラーム部316に対応する。   Then, the CPU 405 reads and executes the utterance volume determination program 404b, the volume comparison determination program 404c, the human language determination program 404d, the received / utterance monitoring program 404e, and the missing alarm program 404f, thereby executing the utterance volume determination process 405a, the volume. The comparison determination process 405b, the human language determination process 405c, the received / utterance monitoring process 405d, and the missing alarm process 405e are activated. Here, the speech volume determination process 405a corresponds to the speech volume determination unit 104 shown in FIG. 3, the volume comparison determination process 405b corresponds to the volume comparison determination unit 107 shown in FIG. 3, and the human language determination process 405c The speech / utterance monitoring process 405d corresponds to the speech / utterance monitoring / determination unit 108, and the missing alarm process 405e corresponds to the personal language determination unit 103 and human language determination unit 106 shown in FIG. Corresponds to the missing alarm unit 316.

なお、各種データ404aには、例えば、発話音量判断プロセス405aに利用される発話音量や全体音量といったデータが一例として挙げられる。そして、CPU405は、各種データ404aを読み出して、記憶領域404に一時的に格納し、記憶領域404に格納された各種データ404aに基づいて「発話した情報が相手側に正しく伝達できているか否か」の判断処理を行う。   Examples of the various data 404a include data such as an utterance volume and an overall volume used for the utterance volume determination process 405a. Then, the CPU 405 reads out the various data 404a, temporarily stores it in the storage area 404, and based on the various data 404a stored in the storage area 404, “whether or not the uttered information is correctly transmitted to the other party”. Is performed.

ところで、図16に示した発話音量判断プログラム404b、音量比較判断プログラム404c、人語判断プログラム404d、受話/発話監視プログラム404e、欠落アラームプログラム404fは、必ずしも最初から携帯電話端末装置400が有する記憶領域に記憶させておく必要はない。たとえば、SDカードなどの「可搬用の物理媒体」に記憶させておき、携帯電話端末装置が発話音量判断プログラム404b、音量比較判断プログラム404c、人語判断プログラム404d、受話/発話監視プログラム404e、欠落アラームプログラム404fを読み出して実行するようにしても良い。   By the way, the utterance volume determination program 404b, the volume comparison determination program 404c, the human language determination program 404d, the received / utterance monitoring program 404e, and the missing alarm program 404f shown in FIG. There is no need to remember. For example, the data is stored in a “portable physical medium” such as an SD card, and the mobile phone terminal device has a speech volume determination program 404b, a volume comparison determination program 404c, a language determination program 404d, a received / speech monitoring program 404e, missing. The alarm program 404f may be read and executed.

上記の実施例を含む実施形態に関し、更に以下の付記を開示する。   The following additional notes are further disclosed with respect to the embodiments including the above examples.

(付記1)自携帯電話端末装置の利用者により入力された音声の音量と、前記携帯電話端末装置周辺の音量を含む周辺音量とを比較して、前記利用者の音声が相手側の携帯電話端末装置に正しく伝達されているか否かを判断する発話音量判断手段と、
前記発話音量判断手段の判断結果を出力する出力手段と
を有する携帯電話端末装置。
(Supplementary Note 1) The volume of the voice input by the user of the mobile phone terminal device is compared with the peripheral volume including the volume around the mobile phone terminal device, and the voice of the user is compared with the mobile phone on the other side. An utterance volume determination means for determining whether or not it is correctly transmitted to the terminal device;
A mobile phone terminal device comprising: output means for outputting a judgment result of the utterance volume judgment means.

(付記2)前記発話音量判断手段の判断結果を前記相手側の携帯電話端末装置に出力し、当該携帯電話端末装置の利用者に前記判断結果を通知する通知手段を更に有する付記1に記載の携帯電話端末装置。 (Supplementary note 2) The supplementary note 1, further comprising notification means for outputting the judgment result of the utterance volume judgment means to the counterpart mobile phone terminal device and notifying the user of the mobile phone terminal device of the judgment result Mobile phone terminal device.

(付記3)前記通知手段は、アラームやバイブレータまたはディスプレイ表示にて、前記利用者に前記判断結果を通知する付記2に記載の携帯電話端末装置。 (Additional remark 3) The said notification means is a mobile telephone terminal device of Additional remark 2 which notifies the said determination result to the said user by an alarm, a vibrator, or a display display.

(付記4)前記発話音量判断手段が、自携帯電話端末装置の利用者の音声が相手側の携帯電話端末装置に正しく伝達されていると判断した場合に、前記出力手段は、前記判断結果を出力する付記1、2または3に記載の携帯電話端末装置。 (Supplementary Note 4) When the speech volume determination unit determines that the voice of the user of the mobile phone terminal device is correctly transmitted to the mobile phone terminal device on the other side, the output unit displays the determination result. 4. The mobile phone terminal device according to appendix 1, 2 or 3 for output.

(付記5)相手側の携帯電話端末装置の利用者により入力された音声を取得し、取得した音声の音量と、自携帯電話端末装置周辺の音量を含む周辺音量とを比較して、前記相手側の携帯電話端末装置に入力された利用者の音声が自携帯電話端末装置の利用者に正しく伝わっているか否かを判断する音量比較判断手段と、
前記音量比較判断手段の判断結果を出力する出力手段と
を有する携帯電話端末装置。
(Additional remark 5) The audio | voice input by the user of the other party's portable telephone terminal device is acquired, the volume of the acquired voice is compared with the peripheral volume including the volume around the own portable telephone terminal device, Volume comparison determination means for determining whether the user's voice input to the mobile phone terminal device on the side is correctly transmitted to the user of the mobile phone terminal device;
A mobile phone terminal device comprising: output means for outputting a judgment result of the volume comparison judgment means.

(付記6)前記音量比較判断手段の判断結果を前記相手側の携帯電話端末装置に出力し、当該携帯電話端末装置の利用者に前記判断結果を通知する通知手段を更に有する付記5に記載の携帯電話端末装置。 (Supplementary note 6) The supplementary note 5, further comprising notification means for outputting the judgment result of the volume comparison judgment means to the counterpart mobile phone terminal device and notifying the user of the mobile phone terminal device of the judgment result. Mobile phone terminal device.

(付記7)前記通知手段は、アラームやバイブレータまたはディスプレイ表示にて、前記利用者に前記判断結果を通知する付記6に記載の携帯電話端末装置。 (Additional remark 7) The said notification means is a mobile telephone terminal device of Additional remark 6 which notifies the said determination result to the said user by an alarm, a vibrator, or a display display.

(付記8)前記音量比較判断手段が、自携帯電話端末装置の利用者の音声が相手側の携帯電話端末装置に正しく伝達されていると判断した場合に、前記出力手段は、前記判断結果を出力する付記5、6または7に記載の携帯電話端末装置。 (Supplementary Note 8) When the volume comparison determination unit determines that the voice of the user of the mobile phone terminal device is correctly transmitted to the mobile phone terminal device on the other side, the output unit displays the determination result. 8. The mobile phone terminal device according to appendix 5, 6 or 7 for outputting.

(付記9)前記相手側の携帯電話端末装置から自携帯電話端末装置に入力された音声を第1の文字情報に変換する第1変換手段と、前記相手側の携帯電話端末装置から自携帯電話端末装置に入力された音声が出力された際に、出力された音声を自携帯電話端末装置周辺の周辺音と共に取得し、取得した音を第2の文字情報に変換する第2変換手段と、前記第1の文字情報と前記第2の文字情報とを比較し、比較結果に基づいて、前記相手側の携帯電話端末装置からの音声が自携帯電話端末装置の利用者に正しく伝わっているか否かを判断する判断手段を更に有する付記5〜8のいずれか一つに記載の携帯電話端末装置。 (Additional remark 9) The 1st conversion means which converts into a 1st character information the audio | voice input into the own mobile phone terminal device from the said other party's mobile phone terminal device, and the said mobile phone terminal device from the said other party mobile phone terminal device A second conversion means for acquiring the output sound together with surrounding sounds around the mobile phone terminal device when the sound input to the terminal device is output, and converting the acquired sound into second character information; The first character information is compared with the second character information, and whether or not the voice from the counterpart mobile phone terminal device is correctly transmitted to the user of the mobile phone terminal device based on the comparison result The mobile phone terminal device according to any one of appendices 5 to 8, further comprising a determination unit that determines whether or not.

(付記10)前記判断手段は、前記第1の文字情報と前記第2の文字情報とを基にして、前記第1の文字情報に存在し、かつ、前記第2の文字情報に存在しない文字情報を判断し、判断結果を前記相手側の携帯電話端末装置に通知する付記5〜9のいずれか一つに記載の携帯電話端末装置。 (Additional remark 10) The said judgment means exists in the said 1st character information based on the said 1st character information and the said 2nd character information, and the character which does not exist in the said 2nd character information 10. The mobile phone terminal device according to any one of appendices 5 to 9, wherein information is determined and a determination result is notified to the counterpart mobile phone terminal device.

(付記11)前記判断手段による判断結果を前記相手側の携帯電話端末装置および/または自携帯電話端末装置に表示する表示手段を更に有する付記5〜10のいずれか一つに記載の携帯電話端末装置。 (Supplementary note 11) The mobile phone terminal according to any one of supplementary notes 5 to 10, further comprising display means for displaying a determination result by the determination means on the counterpart mobile phone terminal device and / or the own mobile phone terminal device. apparatus.

(付記12)発話と受話とが同時に行われたか否かにより、自携帯電話端末装置の利用者の音声が前記相手側の携帯電話端末装置に正しく伝達されているか否かを判断する受話/発話判断手段を更に有する付記1〜11のいずれか一つに記載の携帯電話端末装置。 (Supplementary note 12) Reception / speech for determining whether or not the voice of the user of the mobile phone terminal device is correctly transmitted to the mobile phone terminal device on the other side depending on whether the speech and the reception are performed simultaneously The mobile phone terminal device according to any one of appendices 1 to 11, further comprising a determination unit.

(付記13)前記受話/発話判断手段は、自携帯電話端末装置の利用者による音声入力が完了してから所定時間経過しても、前記相手側の携帯電話端末装置に利用者の音声が入力されない場合に、自携帯電話端末装置の利用者の音声が当該相手側の携帯電話端末装置に正しく伝達されていないと判断する付記1〜12のいずれか一つに記載の携帯電話端末装置。 (Additional remark 13) The said voice / utterance judging means inputs the voice of the user to the mobile phone terminal device on the other side even if a predetermined time has passed after the voice input by the user of the mobile phone terminal device is completed. If not, the mobile phone terminal device according to any one of appendices 1 to 12, which determines that the voice of the user of the mobile phone terminal device is not correctly transmitted to the mobile phone terminal device on the other side.

(付記14)携帯電話端末装置の通話情報を伝送する装置において、前記付記1〜13に記載の携帯電話端末装置から前記携帯電話端末装置に入力された音声が相手側の携帯電話端末装置に伝達できていないことを示す情報が通知された場合に、当該通知された情報を前記相手側の携帯電話端末装置に伝送する伝送手段を備えた伝送装置。 (Supplementary Note 14) In a device for transmitting call information of a mobile phone terminal device, voice input from the mobile phone terminal device according to any of Supplementary Notes 1 to 13 to the mobile phone terminal device is transmitted to the mobile phone terminal device on the other side. A transmission device comprising a transmission means for transmitting the notified information to the mobile phone terminal device on the other party side when information indicating that the information is not made is notified.

(付記15)携帯電話端末装置が、
前記携帯電話端末装置の利用者により入力された音声の音量と、前記携帯電話端末装置周辺の音量を含む周辺音量とを記憶装置に記憶する記憶ステップと、
前記記憶装置に記憶された前記音声の音量と、前記周辺音量とを比較して、前記利用者の音声が相手側の携帯電話端末装置に正しく伝達されているか否かを判断する発話音量判断ステップと、
前記発話音量判断ステップの判断結果を出力する出力ステップと
を有する通話伝達の判断方法。
(Supplementary Note 15) The mobile phone terminal device
A storage step of storing, in a storage device, a volume of a voice input by a user of the mobile phone terminal device and a peripheral volume including a volume around the mobile phone terminal device;
An utterance volume determination step of comparing the volume of the voice stored in the storage device with the peripheral volume to determine whether or not the user's voice is correctly transmitted to the counterpart mobile phone terminal device When,
An output step for outputting a determination result of the utterance volume determination step.

(付記16)携帯電話端末装置に、
前記携帯電話端末装置の利用者により入力された音声の音量と、前記携帯電話端末装置周辺の音量を含む周辺音量とを記憶装置に記憶する記憶手順と、
前記記憶装置に記憶された前記音声と、前記周辺音量とを比較して、当該利用者の音声が相手側の携帯電話端末装置に正しく伝達されているか否かを判断する発話音量判断手順と、
前記発話音量判断手順の判断結果を出力する出力手順と
を実行させる通話伝達の判断プログラム。
(Supplementary note 16)
A storage procedure for storing, in a storage device, a volume of voice input by a user of the mobile phone terminal device and a peripheral volume including a volume around the mobile phone terminal device;
An utterance volume determination procedure for comparing the voice stored in the storage device with the peripheral volume and determining whether the user's voice is correctly transmitted to the other party's mobile phone terminal device;
An output procedure for outputting a determination result of the speech volume determination procedure.

10 発話者
20 受話者
100、300、400 携帯電話端末装置
100a、100b、300a、300b 携帯電話機
200 電話網
200a、200b 基地局
200c、200d、200e 交換機
101、301 マイク
102 発話音変換部
103、106 人語判断部
104 発話音量判断部
105 受話音変換部
107 音量比較判断部
108 受話/発話監視・判断部
109 ユーザ通知部
110 通話先通知部
111 ディスプレイ制御部
112 バイブレータ制御部
113、303、408 スピーカ
114 無線部
115 制御部
301 メモリ
302、405 CPU
304 モニターマイク
310 無線制御部
311 呼制御部
312 スピーカ制御部
313 モニターマイク制御部
314、315 音声認識エンジン
316 欠落アラーム部
316a タイマー
316b テキスト入出力制御部
316c テキスト比較部
317 アラーム音生成部
318 表示部
401 マイク
402 無線通信部
403 音声変換部
404 記憶領域
404a 各種データ
404b 発話音量判断プログラム
404c 音量比較判断プログラム
404d 人語判断プログラム
404e 受話/発話監視プログラム
404f 欠落アラームプログラム
405a 発話音量判断プロセス
405b 音量比較判断プロセス
405c 人語判断プロセス
405d 受話/発話監視プロセス
405e 欠落アラームプロセス
406 バイブレータ
407 ディスプレイ
409 バス
DESCRIPTION OF SYMBOLS 10 Speaker 20 Receiver 100, 300, 400 Mobile phone terminal device 100a, 100b, 300a, 300b Mobile phone 200 Telephone network 200a, 200b Base station 200c, 200d, 200e Switch 101, 301 Microphone 102 Speech sound conversion unit 103, 106 Human language determination unit 104 Speech volume determination unit 105 Received sound conversion unit 107 Volume comparison determination unit 108 Received / utterance monitoring / determination unit 109 User notification unit 110 Call destination notification unit 111 Display control unit 112 Vibrator control unit 113, 303, 408 Speaker 114 Wireless unit 115 Control unit 301 Memory 302, 405 CPU
304 monitor microphone 310 wireless control unit 311 call control unit 312 speaker control unit 313 monitor microphone control unit 314, 315 speech recognition engine 316 missing alarm unit 316a timer 316b text input / output control unit 316c text comparison unit 317 alarm sound generation unit 318 display unit 401 Microphone 402 Wireless communication unit 403 Voice conversion unit 404 Storage area 404a Various data 404b Speech volume determination program 404c Volume comparison determination program 404d Human language determination program 404e Speech / speech monitoring program 404f Missing alarm program 405a Speech volume determination process 405b Volume comparison determination Process 405c Human language determination process 405d Speech / utterance monitoring process 405e Missing alarm process 406 Vibrator 4 7 display 409 bus

Claims (10)

自携帯電話端末装置の利用者により入力された音声の音量と、前記携帯電話端末装置周辺の音量を含む周辺音量とを比較して、前記利用者の音声が相手側の携帯電話端末装置に正しく伝達されているか否かを判断する発話音量判断手段と、
前記発話音量判断手段の判断結果を出力する出力手段と
を有する携帯電話端末装置。
By comparing the volume of the voice input by the user of the mobile phone terminal device with the peripheral volume including the volume around the mobile phone terminal device, the voice of the user is correctly transmitted to the mobile phone terminal device on the other side. Utterance volume judgment means for judging whether or not it is transmitted,
A mobile phone terminal device comprising: output means for outputting a judgment result of the utterance volume judgment means.
前記発話音量判断手段の判断結果を前記相手側の携帯電話端末装置に出力し、当該携帯電話端末装置の利用者に前記判断結果を通知する通知手段を更に有する請求項1に記載の携帯電話端末装置。   2. The mobile phone terminal according to claim 1, further comprising a notification unit that outputs a determination result of the utterance volume determination unit to the mobile phone terminal device of the other party and notifies the user of the mobile phone terminal device of the determination result. apparatus. 相手側の携帯電話端末装置の利用者により入力された音声を取得し、取得した音声の音量と、自携帯電話端末周辺の音量を含む周辺音量とを比較して、前記相手側の携帯電話端末装置に入力された利用者の音声が自携帯電話端末装置の利用者に正しく伝わっているか否かを判断する音量比較判断手段と、
前記音量比較判断手段の判断結果を出力する出力手段と
を有する携帯電話端末装置。
The voice input by the user of the other party's mobile phone terminal device is acquired, and the volume of the acquired voice is compared with the peripheral volume including the volume around the own mobile phone terminal, and the other party's mobile phone terminal Volume comparison judgment means for judging whether or not the voice of the user input to the device is correctly transmitted to the user of the mobile phone terminal device;
A mobile phone terminal device comprising: output means for outputting a judgment result of the volume comparison judgment means.
前記音量比較判断手段の判断結果を前記相手側の携帯電話端末装置に出力し、当該携帯電話端末装置の利用者に前記判断結果を通知する通知手段を更に有する請求項3に記載の携帯電話端末装置。   The mobile phone terminal according to claim 3, further comprising notification means for outputting the determination result of the volume comparison determination means to the counterpart mobile phone terminal device and notifying the user of the mobile phone terminal device of the determination result. apparatus. 前記相手側の携帯電話端末装置から自携帯電話端末装置に入力された音声を第1の文字情報に変換する第1変換手段と、前記相手側の携帯電話端末装置から自携帯電話端末装置に入力された音声が出力された際に、出力された音声を自携帯電話端末装置周辺の周辺音と共に取得し、取得した音を第2の文字情報に変換する第2変換手段と、前記第1の文字情報と前記第2の文字情報とを比較し、比較結果に基づいて、前記相手側の携帯電話端末装置からの音声が自携帯電話端末装置の利用者に正しく伝わっているか否かを判断する判断手段を更に有する請求項3または4に記載の携帯電話端末装置。   First conversion means for converting voice input from the counterpart mobile phone terminal device to the first mobile phone terminal device to first character information, and input from the counterpart mobile phone terminal device to the mobile phone terminal device Second output means for acquiring the output sound together with ambient sounds around the mobile phone terminal device when the output sound is output, and converting the acquired sound into second character information; The character information is compared with the second character information, and based on the comparison result, it is determined whether or not the voice from the other party's mobile phone terminal device is correctly transmitted to the user of the own mobile phone terminal device. 5. The mobile phone terminal device according to claim 3, further comprising a determination unit. 前記判断手段は、前記第1の文字情報と前記第2の文字情報とを基にして、前記第1の文字情報に存在し、かつ、前記第2の文字情報に存在しない文字情報を判断し、判断結果を前記相手側の携帯電話端末装置に通知する請求項3、4または5に記載の携帯電話端末装置。   The determination means determines character information that exists in the first character information and does not exist in the second character information, based on the first character information and the second character information. 6. The mobile phone terminal device according to claim 3, 4 or 5, wherein the determination result is notified to the mobile phone terminal device on the other side. 前記判断手段による判断結果を前記相手側の携帯電話端末装置および/または自携帯電話端末装置に表示する表示手段を更に有する請求項3〜6のいずれか一つに記載の携帯電話端末装置。   The mobile phone terminal device according to any one of claims 3 to 6, further comprising display means for displaying a determination result by the determination means on the counterpart mobile phone terminal device and / or the own mobile phone terminal device. 発話と受話とが同時に行われたか否かにより、自携帯電話端末装置の利用者の音声が前記相手側の携帯電話端末装置に正しく伝達されているか否かを判断する受話/発話判断手段を更に有する請求項1〜7のいずれか一つに記載の携帯電話端末装置。   A receiving / speech judging means for judging whether or not the voice of the user of the mobile phone terminal device is correctly transmitted to the mobile phone terminal device on the other side according to whether or not the utterance and the receiving speech are performed simultaneously; The mobile phone terminal device according to any one of claims 1 to 7. 前記受話/発話判断手段は、自携帯電話端末装置の利用者による音声入力が完了してから所定時間経過しても、前記相手側の携帯電話端末装置に利用者の音声が入力されない場合に、自携帯電話端末装置の利用者の音声が当該相手側の携帯電話端末装置に正しく伝達されていないと判断する請求項1〜8のいずれか一つに記載の携帯電話端末装置。   The reception / speech determination means, when the user's voice is not input to the other party's mobile phone terminal device even after a predetermined time has elapsed after the voice input by the user of the mobile phone terminal device is completed, The mobile phone terminal device according to any one of claims 1 to 8, wherein it is determined that the voice of the user of the mobile phone terminal device is not correctly transmitted to the mobile phone terminal device on the other side. 携帯電話端末装置が、
前記携帯電話端末装置の利用者により入力された音声の音量と、前記携帯電話端末装置周辺の音量を含む周辺音量とを記憶装置に記憶する記憶ステップと、
前記記憶装置に記憶された前記音声の音量と、前記周辺音量とを比較して、前記利用者の音声が相手側の携帯電話端末装置に正しく伝達されているか否かを判断する発話音量判断ステップと、
前記発話音量判断ステップの判断結果を出力する出力ステップと
を有する通話伝達の判断方法。
The mobile phone terminal device
A storage step of storing, in a storage device, a volume of a voice input by a user of the mobile phone terminal device and a peripheral volume including a volume around the mobile phone terminal device;
An utterance volume determination step of comparing the volume of the voice stored in the storage device with the peripheral volume to determine whether or not the user's voice is correctly transmitted to the counterpart mobile phone terminal device When,
An output step for outputting a determination result of the utterance volume determination step.
JP2009039736A 2009-02-23 2009-02-23 Mobile phone terminal device and method for determining call transmission Expired - Fee Related JP5251588B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009039736A JP5251588B2 (en) 2009-02-23 2009-02-23 Mobile phone terminal device and method for determining call transmission

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009039736A JP5251588B2 (en) 2009-02-23 2009-02-23 Mobile phone terminal device and method for determining call transmission

Publications (2)

Publication Number Publication Date
JP2010199741A true JP2010199741A (en) 2010-09-09
JP5251588B2 JP5251588B2 (en) 2013-07-31

Family

ID=42824039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009039736A Expired - Fee Related JP5251588B2 (en) 2009-02-23 2009-02-23 Mobile phone terminal device and method for determining call transmission

Country Status (1)

Country Link
JP (1) JP5251588B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175237A (en) * 2011-02-18 2012-09-10 Nec Corp Sound switching device, program, and method
JP2014509467A (en) * 2011-01-11 2014-04-17 イナ インダストリー パートナーシップ インスティテュート Audio signal quality measurement on mobile devices
JP2014072753A (en) * 2012-09-28 2014-04-21 Fujitsu Ltd Warning report program, communication terminal device and warning report method
JP2018133648A (en) * 2017-02-14 2018-08-23 富士通株式会社 Telephone call log acquisition method
JP2019515520A (en) * 2016-02-29 2019-06-06 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Telecommunications apparatus, telecommunications system, method of operating a telecommunications apparatus, and computer program product

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60261238A (en) * 1984-06-08 1985-12-24 Nissan Motor Co Ltd Carborne telephone set
JPH07307697A (en) * 1994-05-13 1995-11-21 Nec Corp Communication equipment
JPH07321729A (en) * 1994-05-23 1995-12-08 Nippondenso Co Ltd Communication equipment
JPH10164187A (en) * 1996-10-03 1998-06-19 Kokusai Electric Co Ltd Portable terminal equipment
JPH10336305A (en) * 1997-05-30 1998-12-18 Saitama Nippon Denki Kk Portable telephone set
JPH114481A (en) * 1997-06-11 1999-01-06 Kokusai Electric Co Ltd Portable terminal equipment
JP2002330233A (en) * 2001-05-07 2002-11-15 Sony Corp Equipment and method for communication, recording medium and program
JP2004015167A (en) * 2002-06-04 2004-01-15 Sharp Corp Mobile phone
JP2004289579A (en) * 2003-03-24 2004-10-14 Kyocera Corp Wireless communication terminal and wireless communication system
JP2004320451A (en) * 2003-04-16 2004-11-11 Nippon Telegr & Teleph Corp <Ntt> Voice loss control method, voice loss controller, and voice loss control program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60261238A (en) * 1984-06-08 1985-12-24 Nissan Motor Co Ltd Carborne telephone set
JPH07307697A (en) * 1994-05-13 1995-11-21 Nec Corp Communication equipment
JPH07321729A (en) * 1994-05-23 1995-12-08 Nippondenso Co Ltd Communication equipment
JPH10164187A (en) * 1996-10-03 1998-06-19 Kokusai Electric Co Ltd Portable terminal equipment
JPH10336305A (en) * 1997-05-30 1998-12-18 Saitama Nippon Denki Kk Portable telephone set
JPH114481A (en) * 1997-06-11 1999-01-06 Kokusai Electric Co Ltd Portable terminal equipment
JP2002330233A (en) * 2001-05-07 2002-11-15 Sony Corp Equipment and method for communication, recording medium and program
JP2004015167A (en) * 2002-06-04 2004-01-15 Sharp Corp Mobile phone
JP2004289579A (en) * 2003-03-24 2004-10-14 Kyocera Corp Wireless communication terminal and wireless communication system
JP2004320451A (en) * 2003-04-16 2004-11-11 Nippon Telegr & Teleph Corp <Ntt> Voice loss control method, voice loss controller, and voice loss control program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014509467A (en) * 2011-01-11 2014-04-17 イナ インダストリー パートナーシップ インスティテュート Audio signal quality measurement on mobile devices
US9300694B2 (en) 2011-01-11 2016-03-29 INHA—Industry Partnership Institute Audio signal quality measurement in mobile device
US9729602B2 (en) 2011-01-11 2017-08-08 Inha-Industry Partnership Institute Audio signal quality measurement in mobile device
JP2012175237A (en) * 2011-02-18 2012-09-10 Nec Corp Sound switching device, program, and method
JP2014072753A (en) * 2012-09-28 2014-04-21 Fujitsu Ltd Warning report program, communication terminal device and warning report method
JP2019515520A (en) * 2016-02-29 2019-06-06 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Telecommunications apparatus, telecommunications system, method of operating a telecommunications apparatus, and computer program product
US11122157B2 (en) 2016-02-29 2021-09-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Telecommunication device, telecommunication system, method for operating a telecommunication device, and computer program
JP2018133648A (en) * 2017-02-14 2018-08-23 富士通株式会社 Telephone call log acquisition method

Also Published As

Publication number Publication date
JP5251588B2 (en) 2013-07-31

Similar Documents

Publication Publication Date Title
US9571638B1 (en) Segment-based queueing for audio captioning
JP5701916B2 (en) Method and system for writing a telephone conversation into text
JP6402748B2 (en) Spoken dialogue apparatus and utterance control method
JP2011022600A (en) Method for operating speech recognition system
WO2013182118A1 (en) Transmission method and device for voice data
EP3217638B1 (en) Transferring information from a sender to a recipient during a telephone call under noisy environment
US10504538B2 (en) Noise reduction by application of two thresholds in each frequency band in audio signals
JP5251588B2 (en) Mobile phone terminal device and method for determining call transmission
EP1804237A1 (en) System and method for personalized text to voice synthesis
JP2017138536A (en) Voice processing device
JP2009178783A (en) Communication robot and its control method
US10540983B2 (en) Detecting and reducing feedback
JP2010103751A (en) Method for preventing prohibited word transmission, telephone for preventing prohibited word transmission, and server for preventing prohibited word transmission
US11516599B2 (en) Personal hearing device, external acoustic processing device and associated computer program product
JP2007006363A (en) Telephone set
JP2019184809A (en) Voice recognition device and voice recognition method
JP2010010856A (en) Noise cancellation device, noise cancellation method, noise cancellation program, noise cancellation system, and base station
WO2018207482A1 (en) Utterance control device, electronic apparatus, program and control method for utterance control device
KR100298317B1 (en) Communication method for portable phone
US11610596B2 (en) Adjustment method of sound output and electronic device performing the same
WO2019143436A1 (en) Transcription of communications
WO2021025074A1 (en) Group calling system, group calling method, and program
JP5321687B2 (en) Voice communication device
JP5853540B2 (en) Voice communication apparatus and program
JP6790619B2 (en) Utterance judgment device, utterance judgment system, program and utterance judgment method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Ref document number: 5251588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees