JP2014233000A - Communication apparatus and method for changing voice output - Google Patents

Communication apparatus and method for changing voice output Download PDF

Info

Publication number
JP2014233000A
JP2014233000A JP2013113216A JP2013113216A JP2014233000A JP 2014233000 A JP2014233000 A JP 2014233000A JP 2013113216 A JP2013113216 A JP 2013113216A JP 2013113216 A JP2013113216 A JP 2013113216A JP 2014233000 A JP2014233000 A JP 2014233000A
Authority
JP
Japan
Prior art keywords
speaker
communication device
output destination
voice
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013113216A
Other languages
Japanese (ja)
Other versions
JP6062803B2 (en
Inventor
岡田 誠
Makoto Okada
誠 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013113216A priority Critical patent/JP6062803B2/en
Publication of JP2014233000A publication Critical patent/JP2014233000A/en
Application granted granted Critical
Publication of JP6062803B2 publication Critical patent/JP6062803B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To improve convenience of a user without compelling an excessive processing load on a server.SOLUTION: In a communication apparatus 100 in a group communication system capable of three-party calling through a communication network, a control unit 50 of the communication apparatus identifies a speaker, and performs control to change voice output so that voice spoken by a specified speaker is more easily heard than voice spoken by another speaker.

Description

本発明は、例えば、通信網を介して3者通話が可能なグループ通話システムに用いて好適な通信機器、および音声出力変更方法に関する。   The present invention relates to a communication device suitable for use in, for example, a group call system capable of three-party calls via a communication network, and an audio output change method.

従来、複数の人が同時に会話することが可能なグループ通話サービスが電話会社のサービスの一つとして運用されている。このグループ通話サービスによれば、例えば、話者の一人の周囲が高騒音環境にいた場合、その騒音が全ての話者に伝わるため聞き取りにくい、あるいは複数人が同時に話した場合聞き取りにくいという問題が発生する。   2. Description of the Related Art Conventionally, a group call service that allows a plurality of people to talk simultaneously is operated as one of telephone company services. According to this group call service, for example, when one of the speakers is in a high noise environment, it is difficult to hear because the noise is transmitted to all the speakers, or difficult to hear when multiple people speak at the same time. Occur.

この問題を解決するために、例えば、特許文献1に、サーバが、端末毎に異なる受話音声信号を予め接続する端末毎に最適化されたレベルに調整して送信することで、聞き取りが容易なグループ通話を実現する技術が開示されている。   In order to solve this problem, for example, in Japanese Patent Application Laid-Open No. H10-228688, the server can easily listen by adjusting the received voice signal different for each terminal to a level optimized for each terminal connected in advance. A technique for realizing a group call is disclosed.

特開2010−50695号公報JP 2010-50695 A

上記した特許文献1に開示された技術によれば、高騒音環境下にあっても騒音に邪魔されることなく、確実に音声通話による相互連絡や確認が可能な通話システムを提供することができるとされている。しかしながら、サーバにおける処理が複雑化して、かつ、端末側では、騒音が入り込むことを抑制する耳穴挿入形のマイクイヤホンや、騒音処理装置を備えた全二重通信に対応する防雑ヘッドセットが必要になり、ユーザの利便性を損なうといった問題が新たに発生する。   According to the technique disclosed in Patent Document 1 described above, it is possible to provide a call system that can reliably perform mutual communication and confirmation by voice call without being disturbed by noise even in a high noise environment. It is said that. However, the processing in the server is complicated, and on the terminal side, an ear hole insertion type microphone earphone that suppresses noise from entering and a dustproof headset that supports full duplex communication equipped with a noise processing device are required. As a result, a new problem that the convenience of the user is impaired occurs.

また、通話している相手が高騒音環境にいた場合、通話している相手の声が聞き取りにくいという問題は、グループ通話サービスに限らず、一対一の通話でも起こりうる。   Further, when the other party is in a high noise environment, the problem that it is difficult to hear the other party's voice can occur not only in the group call service but also in a one-to-one call.

本発明は上記した課題を解決するためになされたものであり、サーバに過大な処理負担を強いることなく、ユーザの利便性向上をはかった、通信機器、および音声出力変更方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a communication device and an audio output change method that improve the convenience of the user without imposing an excessive processing burden on the server. Objective.

上記した課題を解決するために本発明の第1の態様に係る通信機器は、話者を特定し、前記特定された話者により発話される音声の出力先および出力特性の少なくとも一方を変更する制御を行う制御部、を有することを特徴とする。   In order to solve the above-described problem, the communication device according to the first aspect of the present invention specifies a speaker and changes at least one of an output destination and an output characteristic of a voice uttered by the specified speaker. It has a control part which controls.

本発明の第2の態様に係る通信機器の音声出力変更方法は、話者を特定するステップと、前記特定された話者により発話される音声の出力先および出力特性の少なくとも一方を変更するステップと、を有することを特徴とする。   The communication apparatus audio output changing method according to the second aspect of the present invention includes a step of specifying a speaker and a step of changing at least one of an output destination and an output characteristic of an audio uttered by the specified speaker. It is characterized by having.

本発明の一態様によれば、サーバに過大な処理負担を強いることなく、ユーザの利便性向上をはかった、通信機器、および音声出力変更方法を提供することができる。   According to one embodiment of the present invention, it is possible to provide a communication device and an audio output change method that improve user convenience without imposing an excessive processing burden on a server.

本発明の実施の形態に係る通信機器の外観を示す斜視図である。It is a perspective view which shows the external appearance of the communication apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る通信機器の外観を示す前面図である。It is a front view which shows the external appearance of the communication apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る通信機器の外観を示す裏面図である。It is a back view which shows the external appearance of the communication apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る通信機器の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the communication apparatus which concerns on embodiment of this invention. VoIP通信を用いたグループ通話サービスの一例を示す図である。It is a figure which shows an example of the group call service using VoIP communication. 図5のグループ通話サービスにおける発呼シーケンスを示す図である。It is a figure which shows the calling sequence in the group call service of FIG. 本発明の実施形態に係る通信機器の通話中における第三者への発信方法と音声出力先設定画面の一例を示す図である。It is a figure which shows an example of the transmission method to the third party in the call of the communication apparatus which concerns on embodiment of this invention, and an audio output destination setting screen. 本発明の実施形態に係る通信機器の通話中における音声出力先設定画面の一例を示す図である。It is a figure which shows an example of the audio | voice output destination setting screen during the telephone call of the communication apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る通信機器の音声処理シーケンスを示す図である。It is a figure which shows the audio | voice processing sequence of the communication apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る通信機器のIPアドレス−音声出力先リストの作成動作を示すフローチャートである。It is a flowchart which shows the preparation operation | movement of the IP address-voice output destination list | wrist of the communication apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る通信機器の音声出力先切り替え動作を示すフローチャートである。It is a flowchart which shows the audio | voice output destination switching operation | movement of the communication apparatus which concerns on embodiment of this invention.

以下、添付図面を参照して、本発明を実施するための形態(以下、本実施形態という)について詳細に説明する。なお、本実施形態の説明の全体を通して同じ要素には同じ番号を付している。   DESCRIPTION OF EMBODIMENTS Hereinafter, a mode for carrying out the present invention (hereinafter referred to as this embodiment) will be described in detail with reference to the accompanying drawings. Note that the same numbers are assigned to the same elements throughout the description of the present embodiment.

(実施形態の構成)
図1〜3は、それぞれ、本実施形態に係る通信機器100の外観を示す斜視図、前面図及び裏面図である。なお、本実施形態に係る通信機器100は、例えば、携帯電話機である。
(Configuration of the embodiment)
1 to 3 are a perspective view, a front view, and a back view, respectively, showing the appearance of the communication device 100 according to the present embodiment. Note that the communication device 100 according to the present embodiment is, for example, a mobile phone.

図1に示されるように、通信機器100は、カバーパネル1とケース部分2を備えており、カバーパネル1とケース部分2とが組み合わされることによって、平面視で略長方形の板状を成す機器ケース3が構成されている。   As shown in FIG. 1, a communication device 100 includes a cover panel 1 and a case portion 2, and a device that forms a substantially rectangular plate shape in plan view by combining the cover panel 1 and the case portion 2. Case 3 is configured.

カバーパネル1は、平面視において略長方形を成しており、通信機器100の前面部分における、周縁部分以外の部分を構成している。カバーパネル1は、例えば、透明のガラスあるいは透明のアクリル樹脂で形成されている。ケース部分2は、通信機器100の前面部分に周縁部分、側面部分及び裏面部分を構成している。ケース部分2は、例えばポリカーボネート樹脂で形成されている。   The cover panel 1 has a substantially rectangular shape in plan view, and constitutes a part other than the peripheral part in the front part of the communication device 100. The cover panel 1 is made of, for example, transparent glass or transparent acrylic resin. The case part 2 constitutes a peripheral part, a side part and a back part on the front part of the communication device 100. The case portion 2 is made of, for example, polycarbonate resin.

カバーパネル1には、表示部分1aが設けられ、文字、記号、図形等の各種情報が表示される。表示部分1aは例えば平面視で長方形を成している。カバーパネル1における、表示部分1aを取り囲む周縁部分1bは、例えばフィルム等が貼られることによって黒色となっており、情報が表示されない非表示部分になっている。カバーパネル1の内側主面には後述するタッチパネル53が貼り付けられており、使用者は、カバーパネル1の表示部分1aを指等で操作することによって、通信機器100に対して各種指示を与えることができる。   The cover panel 1 is provided with a display portion 1a for displaying various information such as characters, symbols and figures. The display portion 1a has, for example, a rectangular shape in plan view. The peripheral part 1b surrounding the display part 1a in the cover panel 1 is black by applying a film or the like, for example, and is a non-display part where no information is displayed. A touch panel 53 to be described later is attached to the inner main surface of the cover panel 1, and the user gives various instructions to the communication device 100 by operating the display portion 1a of the cover panel 1 with a finger or the like. be able to.

機器ケース3の内部には、複数の操作ボタン54aを備えるスイッチ部54が設けられている。各操作ボタン54aは、いわゆる「ハードキー」であって、その表面が、カバーパネル1の外側主面10の下側端図から露出している。カバーパネル1の下側端部には、複数の操作ボタン54aを露出させるための穴があけられている。また、図2に示されるように、機器ケース3の内部には、後述する圧電振動素子55aが設けられている。また
、圧電振動素子55a近傍には、通常スピーカ56(第1のスピーカ)が設けられている。なお、圧電振動素子55aを使用した伝導スピーカ55は、通常スピーカ56よりも発話される音声が聞き取りやすい。詳細は後述する。
Inside the device case 3, a switch unit 54 including a plurality of operation buttons 54a is provided. Each operation button 54 a is a so-called “hard key”, and its surface is exposed from the lower end view of the outer main surface 10 of the cover panel 1. A hole for exposing the plurality of operation buttons 54a is formed in the lower end portion of the cover panel 1. Further, as shown in FIG. 2, a piezoelectric vibration element 55 a described later is provided inside the device case 3. A normal speaker 56 (first speaker) is provided in the vicinity of the piezoelectric vibration element 55a. Note that the conduction speaker 55 using the piezoelectric vibration element 55 a is easier to hear the spoken voice than the normal speaker 56. Details will be described later.

なお、本実施形態の通信機器100では、「ハードキー」である操作ボタン54aが備えられているが、この各操作ボタン54aの個数は適宜変更しうるし、各操作ボタン54aが備えられていない通信機器100であってもよい。   Note that the communication device 100 according to the present embodiment includes the operation buttons 54a that are “hard keys”. However, the number of the operation buttons 54a may be changed as appropriate, and communication that does not include the operation buttons 54a. The device 100 may be used.

図3に示されるように、通信機器100の裏面101、言い換えれば機器ケース3の裏面には、マイク穴21があけられている。また通信機器100の裏面101からは、後述する撮像部58が有する撮像レンズ58aが露出している。   As shown in FIG. 3, a microphone hole 21 is formed on the back surface 101 of the communication device 100, in other words, on the back surface of the device case 3. An imaging lens 58 a included in an imaging unit 58 described later is exposed from the back surface 101 of the communication device 100.

図4は、本実施形態に係る通信機器100の電気的構成を示すブロック図である。図4に示されるように、通信機器100は、制御部50、無線通信部51、表示パネル52(表示部)、タッチパネル53(操作部)、スイッチ部54、圧電振動素子による伝導スピーカ55(第2のスピーカ)、通常スピーカ56(第1のスピーカ)、マイク57、撮像部58、音声処理部59、及び電池60を備えており、これらの構成要素は、機器ケース3内に収められている。   FIG. 4 is a block diagram showing an electrical configuration of the communication device 100 according to the present embodiment. As illustrated in FIG. 4, the communication device 100 includes a control unit 50, a wireless communication unit 51, a display panel 52 (display unit), a touch panel 53 (operation unit), a switch unit 54, and a conduction speaker 55 (first unit). 2 speaker), a normal speaker 56 (first speaker), a microphone 57, an imaging unit 58, an audio processing unit 59, and a battery 60. These components are housed in the device case 3. .

制御部50は、CPU50a及び記憶部50b等を備えており、通信機器100の他の構成要素を制御することによって、通信機器100の動作を統括的に管理する。記憶部50bは、ROM及びRAM等で構成されている。制御部50は、CPU50aが記憶部50b内の各種プログラムを実行することによって、様々な機能を実行する。例えば、制御部50(CPU50a)は、話者を特定し、特定された話者により発話される音声を他の話者に比べて聞き取りやすくするように音声出力を変更する。   The control unit 50 includes a CPU 50a, a storage unit 50b, and the like, and comprehensively manages the operation of the communication device 100 by controlling other components of the communication device 100. The storage unit 50b includes a ROM, a RAM, and the like. The control unit 50 executes various functions by the CPU 50a executing various programs in the storage unit 50b. For example, the control unit 50 (CPU 50a) specifies a speaker and changes the voice output so that the voice uttered by the specified speaker is easier to hear than other speakers.

このとき、制御部50は、特定された話者により発話される音声の音量を変更制御してもよい。また、特定された話者により発話される音声の音声信号処理を変更制御してもよい。また、特定された話者に対して伝導スピーカ55を割り当てて出力先を変更してもよい。制御部50は、通話中に表示パネル52に表示される話者特定画面にしたがいタッチパネル53を操作することによって特定される話者の情報を取り込んで出力先を切り替えてもよい。話者特定画面は、話者を特定して音声の出力先や出力特性などを変更することができる画面である。制御部50は、通話中に表示パネル52に話者特定画面を表示させ、特定の話者を選択して出力先を切り替えるタッチ操作が行われたことを検出すると、特定された話者に対して出力先を切り替えることができる。   At this time, the control unit 50 may change and control the volume of the voice uttered by the specified speaker. Further, the voice signal processing of the voice uttered by the specified speaker may be changed and controlled. Alternatively, the conductive speaker 55 may be assigned to the specified speaker to change the output destination. The controller 50 may switch the output destination by taking in the information of the speaker specified by operating the touch panel 53 according to the speaker specifying screen displayed on the display panel 52 during the call. The speaker specifying screen is a screen on which a speaker can be specified and the output destination and output characteristics of the voice can be changed. When the control unit 50 displays a speaker specific screen on the display panel 52 during a call and detects that a touch operation for selecting a specific speaker and switching an output destination is performed, the control unit 50 responds to the specified speaker. To switch the output destination.

あるいは、制御部50は、図示省略したIP(Internet Protocol)ネットワーク網等の通信網を介して到来するパケットに含まれるアドレスにより話者を特定して出力先を切り替えてもよい。この場合、例えば電話帳の画面を利用することにより、話者毎に予め出力先を設定しておくことができる。通信網を介してパケットが到来すると、そのパケットに含まれるアドレスによって話者を特定し、その話者に対応する(予め設定しておいた)出力先に話者からの音声を出力することができる。   Alternatively, the control unit 50 may switch the output destination by specifying a speaker by an address included in a packet arriving via a communication network such as an IP (Internet Protocol) network not shown. In this case, for example, an output destination can be set in advance for each speaker by using a screen of a telephone directory. When a packet arrives via the communication network, the speaker is specified by the address included in the packet, and the voice from the speaker is output to an output destination corresponding to the speaker (set in advance). it can.

無線通信部51は、通信機器100とは別の携帯電話機、あるいはIPネットワークに接続されたウェブサーバ等の通信装置からの信号を基地局経由でアンテナ51aを介して受信する。無線通信部51は、受信信号に対して増幅処理及びダウンコンバートを行って制御部50に出力する。このとき制御部50は、入力される受信信号に対して復調処理等を行って、当該受信信号に含まれる、音声や音楽などを示す音信号などを取得する。また無線通信部51は、制御部50で生成された、音信号等を含む送信信号に対してアップコンバート及び増幅処理を行って、処理後の送信信号をアンテナ51aから無線送信する。
アンテナ51aからの送信信号は、図示省略した基地局を通じて、通信機器100とは別の携帯電話機、あるいはインターネットに接続された通信装置で受信される。
The wireless communication unit 51 receives a signal from a communication device such as a mobile phone different from the communication device 100 or a web server connected to the IP network via the base station via the antenna 51a. The wireless communication unit 51 performs amplification processing and down-conversion on the received signal and outputs the result to the control unit 50. At this time, the control unit 50 performs a demodulation process or the like on the input reception signal, and acquires a sound signal indicating voice or music included in the reception signal. The wireless communication unit 51 performs up-conversion and amplification processing on the transmission signal including the sound signal generated by the control unit 50, and wirelessly transmits the processed transmission signal from the antenna 51a.
A transmission signal from the antenna 51a is received through a base station (not shown) by a mobile phone different from the communication device 100 or a communication device connected to the Internet.

表示パネル52(表示部)は、例えば、液晶表示パネルあるいは有機ELパネルであって、制御部50によって制御されることによって、文字、記号、図形などの各種情報を表示する。表示パネル52に表示される情報は、カバーパネル1の表示部分1aに表示されることによって、当該情報は通信機器100の使用者に視認可能となる。   The display panel 52 (display unit) is, for example, a liquid crystal display panel or an organic EL panel, and displays various types of information such as characters, symbols, and figures by being controlled by the control unit 50. The information displayed on the display panel 52 is displayed on the display portion 1 a of the cover panel 1, so that the information can be visually recognized by the user of the communication device 100.

タッチパネル53(操作部)は、例えば、投影型静電容量方式のタッチパネルであって、カバーパネル1の表示部分1aに対する使用者の操作を検出する。タッチパネル53は、カバーパネル1の内側主面に貼り付けられており、互いに対向配置されたシート状の2つの電極センサーを備えている。2つの電極センサーは透明粘着性シートによって貼り合わされている。   The touch panel 53 (operation unit) is, for example, a projected capacitive touch panel, and detects a user operation on the display portion 1 a of the cover panel 1. The touch panel 53 is affixed to the inner main surface of the cover panel 1 and includes two sheet-like electrode sensors arranged to face each other. The two electrode sensors are bonded together with a transparent adhesive sheet.

一方の電極センサーには、それぞれがX軸方向(例えば通信機器100の左右方向)に沿って延在し、かつ互いに平行に配置された複数の細長いX電極が形成されている。他方の電極センサーには、それぞれがY軸方向(例えば通信機器100の上下方向)に沿って延在し、かつ互いに平行に配置された複数の細長いY電極が形成されている。カバーパネル1の表示部分1aに対して使用者の指が接触すると、その接触箇所の下にあるX電極及びY電極の間の静電容量が変化することによって、タッチパネル53においてカバーパネル1の表示部分1aに対する操作が検出される。タッチパネル53において生じる、X電極及びY電極の間の静電容量変化は制御部50に伝達され、制御部50は当該静電容量変化に基づいてカバーパネル1の表示部分1aに対して行われた操作の内容を特定し、それに応じた動作を行う。   One electrode sensor is formed with a plurality of elongated X electrodes that extend along the X-axis direction (for example, the left-right direction of the communication device 100) and are arranged in parallel to each other. The other electrode sensor is formed with a plurality of elongated Y electrodes that extend along the Y-axis direction (for example, the vertical direction of the communication device 100) and are arranged in parallel to each other. When a user's finger contacts the display portion 1a of the cover panel 1, the capacitance between the X electrode and the Y electrode under the contact portion changes, so that the display on the cover panel 1 is displayed on the touch panel 53. An operation on the part 1a is detected. The capacitance change between the X electrode and the Y electrode that occurs in the touch panel 53 is transmitted to the control unit 50, and the control unit 50 is performed on the display portion 1a of the cover panel 1 based on the capacitance change. Identify the content of the operation and perform actions accordingly.

スイッチ部54は、複数の操作ボタン54aのそれぞれについて、当該操作ボタン54aが使用者によって押下されると、当該操作ボタン54aが押下されたことを示す操作信号を制御部50に出力する。制御部50は、入力される操作信号に基づいて、複数の操作ボタン54aのうちのどの操作ボタン54aが操作されたかを特定し、操作された操作ボタン54aに応じた動作を行う。   For each of the plurality of operation buttons 54a, when the operation button 54a is pressed by the user, the switch unit 54 outputs an operation signal indicating that the operation button 54a has been pressed to the control unit 50. Based on the input operation signal, the control unit 50 identifies which operation button 54a of the plurality of operation buttons 54a has been operated, and performs an operation according to the operated operation button 54a.

伝導スピーカ55は、受話音を通信機器100の使用者に伝える圧電振動素子を使用したスピーカである。伝導スピーカ55は、圧電振動素子55aとカバーパネル1とで構成される。圧電振動素子55aは、制御部50から与えられる駆動電圧によって振動させられる。制御部50は、受話音を示す音信号に基づいて駆動電圧を生成し、当該駆動電圧を圧電振動素子55aに印加する。圧電振動素子55aが、制御部50によって受話音を示す音信号に基づいて振動させられることによって、カバーパネル1が音信号に基づいて振動し、その結果、通信機器100の使用者に受話音が伝達される。このように、制御部50は、音信号に基づいて圧電振動素子55aを振動させる駆動部としても機能する。使用者は、耳をカバーパネル1に接触させることによって、明瞭に音声を聞くことができる。   The conduction speaker 55 is a speaker using a piezoelectric vibration element that transmits a received sound to a user of the communication device 100. The conduction speaker 55 includes a piezoelectric vibration element 55 a and the cover panel 1. The piezoelectric vibration element 55a is vibrated by a drive voltage supplied from the control unit 50. The control unit 50 generates a drive voltage based on a sound signal indicating the received sound, and applies the drive voltage to the piezoelectric vibration element 55a. The piezoelectric vibrating element 55a is vibrated based on the sound signal indicating the received sound by the control unit 50, so that the cover panel 1 vibrates based on the sound signal. As a result, the user of the communication device 100 receives the received sound. Communicated. Thus, the control unit 50 also functions as a drive unit that vibrates the piezoelectric vibration element 55a based on the sound signal. The user can hear the sound clearly by bringing his / her ear into contact with the cover panel 1.

なお、通常スピーカ56は、制御部50からの電気的な音信号を音に変換して出力する。また、マイク57は、通信機器100の外部から入力される音を電気的な音信号に変換して制御部50に出力する。通信機器100の外部からの音は、当該通信機器100の裏面101に設けられたマイク穴21から当該通信機器100の内部に取り込まれて、マイク57に入力される。   The normal speaker 56 converts the electrical sound signal from the control unit 50 into sound and outputs the sound. The microphone 57 converts sound input from the outside of the communication device 100 into an electrical sound signal and outputs the electrical sound signal to the control unit 50. Sound from the outside of the communication device 100 is taken into the communication device 100 from the microphone hole 21 provided on the back surface 101 of the communication device 100 and input to the microphone 57.

撮像部58は、撮像レンズ58a及び撮像素子などで構成されており、制御部50による制御に基づいて、静止画像及び動画像を撮像する。撮像素子は、CCDやCMOSなどのイメージセンサである。   The imaging unit 58 includes an imaging lens 58 a and an imaging element, and captures still images and moving images based on control by the control unit 50. The image sensor is an image sensor such as a CCD or CMOS.

音声処理部59は、マイク57を介して入力される音声信号や、通常スピーカ56や伝導スピーカ55から出力される音声信号の入出力処理を行う。すなわち、マイク57から入力される音声を増幅し、アナログ−デジタル変換を行い、更に符号化等の信号処理を施し、デジタルの音声データに変換して制御部50に出力する。また、制御部50から出力される音声データに復号化、デジタル−アナログ変換、増幅等の信号処理を施し、アナログの音声信号に変換して通常スピーカ56あるいは伝導スピーカ55に出力する。なお、音声処理部59は、通常スピーカ56あるいは伝導スピーカ55に出力される音声信号の音量調整も行うことができる。   The audio processing unit 59 performs input / output processing of an audio signal input through the microphone 57 and an audio signal output from the normal speaker 56 or the conduction speaker 55. That is, the audio input from the microphone 57 is amplified, analog-to-digital converted, and further subjected to signal processing such as encoding, converted into digital audio data, and output to the control unit 50. In addition, the audio data output from the control unit 50 is subjected to signal processing such as decoding, digital-analog conversion, amplification, and the like, converted into an analog audio signal, and output to the normal speaker 56 or the conduction speaker 55. Note that the audio processing unit 59 can also adjust the volume of the audio signal output to the normal speaker 56 or the conduction speaker 55.

なお、電池60は、通信機器100の電源を出力する。電池60から出力された電源は、通信機器100が備える制御部50や無線通信部51などに含まれる各電子部品に対して供給される。   The battery 60 outputs a power source for the communication device 100. The power output from the battery 60 is supplied to each electronic component included in the control unit 50, the wireless communication unit 51, and the like included in the communication device 100.

(実施形態の動作)
以下、図1〜図4に示す本実施形態に係る通信機器100の動作について、図5〜図11を参照しながら詳細に説明する。
(Operation of the embodiment)
Hereinafter, the operation of the communication device 100 according to the present embodiment illustrated in FIGS. 1 to 4 will be described in detail with reference to FIGS.

まず、グループ通話サービスについて、図5を用いて説明する。図5に示すように、VoIP(Voice over IP)通話において、話者Aは、司会者である話者Bと、話者Cと
の間でグループ通話により会議を行うシーンを想定する。話者Aから話者B,Cへ発呼する手順は、例えば、図6に示す発呼シーケンスにしたがう。具体的に、話者Aは、話者Bに対して発信し(ステップS1)、話者Bから応答を受信することにより通話が開始される(ステップS2)。その後、話者Aは話者Bと二者通話中に(ステップS3)、話者Cに対して発信して(ステップS4)、話者Cから応答を得ることにより(ステップS5)、話者Cとも通話を開始することにより三者通話が実現される(ステップS6)。
First, the group call service will be described with reference to FIG. As shown in FIG. 5, in a VoIP (Voice over IP) call, it is assumed that a speaker A performs a conference by a group call between a speaker B who is a moderator and a speaker C. The procedure for making a call from the speaker A to the speakers B and C follows, for example, the call sequence shown in FIG. Specifically, the speaker A transmits to the speaker B (step S1), and a call is started by receiving a response from the speaker B (step S2). Thereafter, during a two-party call with speaker B (step S3), speaker A transmits to speaker C (step S4) and obtains a response from speaker C (step S5). A three-party call is realized by starting a call with C (step S6).

図5に示す、話者Aが話者Bと通話中に、話者Cとの通話を開始する際の発信方法が図7(a)に示されている。図7(a)に示すように、話者Aは、表示パネル52に表示される「Contacts」ボタンを押下することで電話帳アプリを起動し、話者C(京セラ花子)を選択することで三者通話が開始されるものとする。なお、このとき、通話は継続される。本実施形態に係る通信機器100では、通話中にいずれの話者に伝導スピーカ55を割り当てるかについての設定を行うことができる。なお、伝導スピーカ55から出力される音声は、通常スピーカ56から出力される音声より聞き取りやすいことは上記した通りである。   FIG. 7A shows a calling method when the speaker A starts a call with the speaker C while the speaker A is in a call with the speaker B shown in FIG. As shown in FIG. 7A, the speaker A activates the phone book application by pressing the “Contacts” button displayed on the display panel 52, and selects the speaker C (Kyocera Hanako). A three-way call shall be initiated. At this time, the call is continued. In the communication device 100 according to the present embodiment, it is possible to make a setting as to which speaker the conductive speaker 55 is assigned during a call. Note that the sound output from the conduction speaker 55 is easier to hear than the sound output from the normal speaker 56 as described above.

通話中、特定の話者の音声出力先を通常スピーカ56から伝導スピーカ55に変更する場合の設定画面を図7(b)に示している。三者通話中、話者Aが、図7(a)に示す表示パネル52に表示された「SP」ボタンを押下することで、図7(b)に示す音声出力設定ダイアログに遷移する。ここで、話者Aが、音声出力設定ダイアログに選択項目として表示された伝導スピーカ55もしくは通常スピーカ56のいずれかを選択することで、話者B(京セラ太郎)の音声出力先を任意に切り替えることが可能である。   FIG. 7B shows a setting screen when the voice output destination of a specific speaker is changed from the normal speaker 56 to the conductive speaker 55 during a call. During the three-party call, when the speaker A presses the “SP” button displayed on the display panel 52 shown in FIG. 7A, the state transits to the audio output setting dialog shown in FIG. 7B. Here, when the speaker A selects either the conduction speaker 55 or the normal speaker 56 displayed as a selection item in the audio output setting dialog, the audio output destination of the speaker B (Taro Kyocera) is arbitrarily switched. It is possible.

また、図7(b)に示す音声出力設定ダイアログに遷移することなく、表示パネルに52に表示されたアイコンをタッチすることにより、伝導スピーカ55もしくは通常スピーカ56の切り替えが行われてもよい。例えば、図8に示された画面において、話者Bのスピーカボタン(実線で囲まれている)は、話者Bにより発話される音声が伝導スピーカ55によって出力される、すなわち出力先が伝導スピーカ55であることを示している。また、話者Cのスピーカボタン(破線で囲まれている)は、話者Cにより発話される音声が通常スピーカ56によって出力される、すなわち出力先が通常スピーカ56であることを
示している。
Further, the conductive speaker 55 or the normal speaker 56 may be switched by touching an icon displayed on the display panel 52 without transitioning to the audio output setting dialog shown in FIG. For example, in the screen shown in FIG. 8, the speaker button of the speaker B (enclosed by a solid line) is that the voice uttered by the speaker B is output by the conductive speaker 55, that is, the output destination is the conductive speaker. 55. The speaker button of the speaker C (enclosed by a broken line) indicates that the voice uttered by the speaker C is output by the normal speaker 56, that is, the output destination is the normal speaker 56.

図8に示された画面において、話者Bのスピーカボタンがタッチされると、スピーカボタンの表示が、出力先が通常スピーカ56であることを示す表示(図8における話者Cのスピーカボタンの表示)に切り替わるとともに、話者Bにより発話される音声の出力先が伝導スピーカ55から通常スピーカ56に切り替わる。一方、話者Cのスピーカボタンがタッチされると、スピーカボタンの表示が、出力先が伝導スピーカ55であることを示す表示(図8における話者Bのスピーカボタンの表示)に切り替わるとともに、話者Bにより発話される音声の出力先が通常スピーカ56から伝導スピーカ55に切り替わる。なお、図8に示したスピーカボタンの表示は一例である。ユーザが、出力先のスピーカを確認することができるように、異なる出力先を示す複数のスピーカボタンの間で、色、形状、大きさ、デザイン等の少なくとも一つを異ならせればよい。   When the speaker button of speaker B is touched on the screen shown in FIG. 8, the display of the speaker button indicates that the output destination is the normal speaker 56 (the speaker button of speaker C in FIG. 8). And the output destination of the voice uttered by the speaker B is switched from the conduction speaker 55 to the normal speaker 56. On the other hand, when the speaker button of the speaker C is touched, the display of the speaker button is switched to a display indicating that the output destination is the conductive speaker 55 (display of the speaker button of the speaker B in FIG. 8) and The output destination of the voice uttered by the person B is switched from the normal speaker 56 to the conduction speaker 55. In addition, the display of the speaker button shown in FIG. 8 is an example. What is necessary is just to change at least one of a color, a shape, a magnitude | size, a design, etc. between several speaker buttons which show a different output destination so that a user can confirm the speaker of an output destination.

なお、通話前に予め出力先を設定しておくことも可能である。この場合、伝導スピーカ55を割り当てる相手先の名前を予め登録しておくことで実現が可能であり、通信機器100は、相手先の名前に割り当てられたIPアドレスを持つIPパケットを受信した場合に、伝導スピーカ55から音声出力を行う。   It is also possible to set an output destination in advance before a call. In this case, this can be realized by registering in advance the name of the other party to which the conductive speaker 55 is assigned, and the communication device 100 receives the IP packet having the IP address assigned to the name of the other party. Then, sound is output from the conduction speaker 55.

図9に、本実施形態に係る通信機器100の音声処理シーケンスが示されている。図9によれば、通信機器100は、音声を発信する上り処理では、(a)マイク57から収音した入力音声を、(b)A/D変換し、(c)エコーキャンセラを通して(d)音声圧縮した後、(e)IPパケットに組立て、(f)IPネットワークにパケットデータが出力される。逆に、音声を受信する下り処理では、(h)IPパケットのIPデータから音声データを伸長し、(c)エコーキャンセラを通し、(j)D/A変換する。(i)並行してIPヘッダを参照して話者を特定する。そして、(k)音声出力先を切り替え、(l)伝導スピーカ55、(m)または通常スピーカ56音声出力する。   FIG. 9 shows an audio processing sequence of the communication device 100 according to the present embodiment. According to FIG. 9, the communication device 100 performs (b) A / D conversion on input sound collected from the microphone 57 and (c) passes through an echo canceller (d) in uplink processing for transmitting sound. After voice compression, (e) an IP packet is assembled, and (f) packet data is output to the IP network. Conversely, in downlink processing for receiving voice, (h) voice data is decompressed from IP data of an IP packet, (c) is passed through an echo canceller, and (j) is D / A converted. (I) The speaker is specified by referring to the IP header in parallel. Then, (k) the audio output destination is switched, and (l) the conduction speaker 55, (m) or the normal speaker 56 is output.

以下、本実施形態に係る通信機器100の動作について、図10、図11のフローチャートを参照しながら詳細に説明する。   Hereinafter, the operation of the communication device 100 according to the present embodiment will be described in detail with reference to the flowcharts of FIGS. 10 and 11.

まず、図10を参照して本実施形態に係る通信機器100の音声出力先の設定動作から説明する。最初に、制御部50(CPU50a)は、無線通信部51により通話を開始すると(ステップS101“YES”)、IPパケットのヘッダ部を参照して話者のIPアドレスを取得し(ステップS102)、話者に応じて設定された音声出力先を取得する(ステップ103)。ここで、特に設定されていなければ音声出力先として第1スピーカである通常スピーカ56を設定する。そして、CPU50aは、そのIPアドレスと音声出力先との対応情報を記憶部50bの所定の領域に割り当てられて記憶されているIPアドレス−音声出力先リストに追加する(ステップS104)。   First, the setting operation of the audio output destination of the communication device 100 according to the present embodiment will be described with reference to FIG. First, when the control unit 50 (CPU 50a) starts a call by the wireless communication unit 51 (step S101 “YES”), the IP address of the speaker is acquired by referring to the header portion of the IP packet (step S102). The voice output destination set according to the speaker is acquired (step 103). Here, if not set, the normal speaker 56 as the first speaker is set as the audio output destination. Then, the CPU 50a adds the correspondence information between the IP address and the voice output destination to the IP address-voice output destination list stored in the predetermined area of the storage unit 50b (step S104).

続いてCPU50aは、次の話者の情報を確認する(ステップS105)。具体的には、IPパケットのヘッダ部を参照して上記と同じ動作を繰り返しIPアドレス−音声出力先リストに追加する操作を行う。以上の動作を通話に必要な確認対象の話者が無くなるまで(ステップS106“YES”)繰り返し実行する。このようにしてIPアドレスより音声出力先を切り替えるため、記憶部50bの所定の領域に作成されたIPアドレス−音声出力先リストを割り当て、記憶しておくものとする。なお、この動作は通話開始直後のみならず、出力先変更時にも動的に実行する。   Subsequently, the CPU 50a confirms information on the next speaker (step S105). Specifically, referring to the header portion of the IP packet, the same operation as described above is repeatedly performed to add to the IP address-voice output destination list. The above operation is repeatedly executed until there is no confirmation target speaker necessary for the call (step S106 “YES”). In order to switch the audio output destination based on the IP address in this way, the IP address-audio output destination list created in a predetermined area of the storage unit 50b is assigned and stored. This operation is dynamically executed not only immediately after the start of a call but also when the output destination is changed.

次に、図11を参照して本実施形態に係る通信機器100の音声出力先切り替え動作を説明する。図11において、制御部50(CPU50a)は、まず、無線通信部51を介してIPパケットを受信すると(ステップS201)、そのIPヘッダ部からIPアドレ
スを取得し(ステップS202)、そのIPアドレスに基づき、記憶部50aの所定の領域に記憶されているIPアドレス−音声出力先リストを参照して音声出力先を特定する(ステップS203)。
Next, an audio output destination switching operation of the communication device 100 according to the present embodiment will be described with reference to FIG. In FIG. 11, when the control unit 50 (CPU 50a) first receives an IP packet via the wireless communication unit 51 (step S201), the control unit 50 (CPU 50a) obtains an IP address from the IP header portion (step S202). Based on the IP address-audio output destination list stored in the predetermined area of the storage unit 50a, the audio output destination is specified (step S203).

続いてCPU50aは、通話中の音声出力先の設定変更の有無を判定し(ステップS204)、設定変更がなければ(ステップS204“YES”)、特定された音声出力先に対して受信したIPパケットのデータ部に含まれる音声出力情報を送信することにより、伝導スピーカ55または通常スピーカ56を介して音声出力する(ステップS205)。一方、変更があれば(ステップS204“NO”)、その変更に伴う音声出力先を切り替えて音声出力情報を送信することにより、その切り替え先である伝導スピーカ55または通常スピーカ56を介して音声出力する(ステップS206)。なお、通話中の音声出力先の設定変更があった場合、その変更はIPアドレス−音声出力先リストに反映されるが、リストを参照するタイミングの後で出力先の設定変更が行われる場合もあるため、CPU50aは、ステップ204において、音声出力先の変更があったか否かを判断する。   Subsequently, the CPU 50a determines whether or not the setting of the voice output destination during a call has been changed (step S204), and if there is no setting change (step S204 "YES"), the IP packet received for the specified voice output destination By transmitting the audio output information included in the data portion, audio is output through the conduction speaker 55 or the normal speaker 56 (step S205). On the other hand, if there is a change (step S204 “NO”), the audio output destination associated with the change is switched and the audio output information is transmitted, so that the audio is output via the conduction speaker 55 or the normal speaker 56 that is the switching destination. (Step S206). If there is a change in the setting of the voice output destination during a call, the change is reflected in the IP address-voice output destination list. However, the setting of the output destination may be changed after the timing of referring to the list. Therefore, in step 204, the CPU 50a determines whether or not the audio output destination has been changed.

(実施形態の効果)
以上説明のように本実施形態に係る通信機器100によれば、制御部50は、話者を特定し、特定された話者により発話される音声を他の話者に比べて聞き取りやすくするように音声出力を変更する。したがって、特定された話者の発話を聞き取りやすくすることができ、また、話者の特定、および音声出力の変更は通信機器100内部で実行されるため、サーバに処理負担を強いることなくユーザの利便性向上をはかることができる。このとき、制御部50は、特定された話者に対して、第1のスピーカ(通常スピーカ56)よりも発話される音声が聞き取りやすい第2のスピーカ(伝導スピーカ55)を割り当てて出力先を変更する。このため、簡単な仕組みで特定された話者の発話を聞き取りやすくすることができる。
(Effect of embodiment)
As described above, according to the communication device 100 according to the present embodiment, the control unit 50 identifies a speaker and makes it easier to hear the voice uttered by the identified speaker than other speakers. Change the audio output to. Therefore, it is possible to make it easy to hear the utterance of the specified speaker, and since the speaker specification and the change of the voice output are executed inside the communication device 100, the user's processing can be performed without imposing a processing burden on the server. Convenience can be improved. At this time, the control unit 50 assigns a second speaker (conduction speaker 55) that is easier to hear the voice spoken than the first speaker (normal speaker 56) to the specified speaker, and sets the output destination. change. For this reason, it is possible to make it easier to hear the utterance of the speaker specified by a simple mechanism.

また、本実施形態に係る通信機器100によれば、制御部50は、通話中に表示部(表示パネル52)に表示される話者特定画面にしたがい操作部(タッチパネル53)を操作することによって特定される話者の情報を取り込んで出力先を切り替える。したがって、ユーザは、GUI(Graphical User Interface)による案内で出力先の設定を容易に実現できるため、利便性が向上する。なお、制御部50は、通信網(IPネットワーク)を介して到来するIPパケットに含まれるアドレスにより話者を特定して出力先を切り替えてもよい。   Further, according to the communication device 100 according to the present embodiment, the control unit 50 operates the operation unit (touch panel 53) according to the speaker specifying screen displayed on the display unit (display panel 52) during a call. Takes in the information of the specified speaker and switches the output destination. Therefore, the user can easily set the output destination by guidance using a GUI (Graphical User Interface), and convenience is improved. Note that the control unit 50 may switch the output destination by specifying a speaker based on an address included in an IP packet that arrives via a communication network (IP network).

なお、制御部50は、音声出力の変更にあたり、音声処理部59を制御することにより、特定された話者により発話される音声の音量を変更するか、特定された話者により発話される音声の音声信号処理を変更してもよい。例えば、特定された話者より発話される音声の音量の大きくする、特定された話者より発話される音声を強調若しくは補正するといった処理を行ってもよい。   Note that the control unit 50 controls the audio processing unit 59 to change the sound volume spoken by the specified speaker or the voice spoken by the specified speaker when changing the voice output. The audio signal processing may be changed. For example, processing such as increasing the volume of the voice uttered by the specified speaker or emphasizing or correcting the voice uttered by the specified speaker may be performed.

本実施形態に係る通信機器100は、通信網を介して3者通話が可能なグループ通話システムにおいて、例えば、周囲が高騒音環境化にいる人や会議中の司会者(主催者)の声は第2のスピーカ(伝導スピーカ55)を割り当て、他の出席者の声は第1のスピーカ(通常スピーカ56)を割り当てることで特に顕著な効果が得られる。なお、本実施形態に係る通信機器100として、携帯電話機のみ例示したが、他に、スマートフォン、タブレット端末、PDA(Personal Digital Assistants)、ゲーム機、あるいはPC(Personal Computer)等、インターネット接続環境を有する全ての通信機器100への
適用が可能である。
In the communication device 100 according to the present embodiment, in a group call system in which a three-party call is possible via a communication network, for example, the voice of a person who is in a high noise environment or a moderator (organizer) during a meeting is By assigning the second speaker (conduction speaker 55) and assigning the voices of other attendees to the first speaker (normal speaker 56), a particularly remarkable effect can be obtained. In addition, although only the mobile phone is illustrated as the communication device 100 according to the present embodiment, there are other Internet connection environments such as a smartphone, a tablet terminal, a PDA (Personal Digital Assistants), a game machine, or a PC (Personal Computer). Application to all communication devices 100 is possible.

また、本実施形態においては、グループ通信システムにおける通信機器100の動作を
説明したが、グループ通話システムに限らず、通常の一対一の通話においても同様に動作可能である。すなわち、一対一の通話においても、通信機器100は、IPアドレスや通話中の画面操作によって話者を特定し、その特定された話者により発話される音声の出力先および出力特性の少なくとも一方を変更することができる。
In the present embodiment, the operation of the communication device 100 in the group communication system has been described. However, the present invention is not limited to the group call system, and can be similarly operated in a normal one-to-one call. That is, even in a one-to-one call, the communication device 100 specifies a speaker by an IP address or a screen operation during a call, and at least one of an output destination and output characteristics of a voice uttered by the specified speaker. Can be changed.

以上、本発明の好ましい実施形態について詳述したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。またその様な変更、または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although preferred embodiment of this invention was explained in full detail, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiments. Further, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

50…制御部、50a…CPU、50b…記憶部、51…無線通信部、52…表示パネル(表示部)、53…タッチパネル(操作部)、54…スイッチ部、55…伝導スピーカ(第2のスピーカ)、56…通常スピーカ(第1のスピーカ)、57…マイク、58…撮像部、59…音声処理部、60…電池、100…通信機器   DESCRIPTION OF SYMBOLS 50 ... Control part, 50a ... CPU, 50b ... Memory | storage part, 51 ... Wireless communication part, 52 ... Display panel (display part), 53 ... Touch panel (operation part), 54 ... Switch part, 55 ... Conductive speaker (2nd Speaker), 56 ... Normal speaker (first speaker), 57 ... Microphone, 58 ... Imaging unit, 59 ... Audio processing unit, 60 ... Battery, 100 ... Communication equipment

Claims (7)

話者を特定し、前記特定された話者により発話される音声の出力先および出力特性の少なくとも一方を変更する制御を行う制御部、
を有することを特徴とする通信機器。
A control unit that performs control to identify a speaker and change at least one of an output destination and an output characteristic of speech uttered by the identified speaker;
A communication device comprising:
前記制御部は、
前記特定された話者により発話される音声の音量を変更することを特徴とする請求項1記載の通信機器。
The controller is
The communication device according to claim 1, wherein a volume of a voice uttered by the specified speaker is changed.
前記制御部は、
前記特定された話者により発話される音声の音声信号処理を変更することを特徴とする請求項1記載の通信機器。
The controller is
The communication apparatus according to claim 1, wherein voice signal processing of voice uttered by the identified speaker is changed.
第1のスピーカと、第2のスピーカと、を更に有し、
前記制御部は、
前記特定された話者に対して前記第2のスピーカを割り当てて出力先を変更することを特徴とする請求項1記載の通信機器。
A first speaker; and a second speaker;
The controller is
The communication apparatus according to claim 1, wherein the second speaker is assigned to the specified speaker to change an output destination.
操作部と、表示部と、を更に有し、
前記制御部は、
通話中に前記表示部に所定の画面を表示し、前記操作部によって前記話者を特定し、前記出力先を切り替えるための所定の操作が行われると、前記特定された話者について前記出力先を切り替えることを特徴とする請求項1乃至請求項4のいずれか記載の通信機器。
An operation unit and a display unit;
The controller is
When a predetermined operation for displaying a predetermined screen on the display unit during a call, specifying the speaker by the operation unit, and switching the output destination is performed, the output destination for the specified speaker The communication device according to claim 1, wherein the communication device is switched.
前記制御部は、
前記通信網を介して到来するパケットに含まれるアドレスにより前記話者を特定して前記出力先を切り替えることを特徴とする請求項1乃至請求項4のいずれか記載の通信機器。
The controller is
5. The communication apparatus according to claim 1, wherein the output destination is switched by specifying the speaker based on an address included in a packet arriving via the communication network.
通信機器の音声出力変更方法であって、
話者を特定するステップと、
前記特定された話者により発話される音声の出力先および出力特性の少なくとも一方を変更するステップと、
を有することを特徴とする通信機器における音声出力変更方法。
A method for changing the audio output of a communication device,
Identifying the speaker,
Changing at least one of an output destination and an output characteristic of speech uttered by the specified speaker;
A method for changing an audio output in a communication device, comprising:
JP2013113216A 2013-05-29 2013-05-29 Communication device and audio output change method Expired - Fee Related JP6062803B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013113216A JP6062803B2 (en) 2013-05-29 2013-05-29 Communication device and audio output change method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013113216A JP6062803B2 (en) 2013-05-29 2013-05-29 Communication device and audio output change method

Publications (2)

Publication Number Publication Date
JP2014233000A true JP2014233000A (en) 2014-12-11
JP6062803B2 JP6062803B2 (en) 2017-01-18

Family

ID=52126151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013113216A Expired - Fee Related JP6062803B2 (en) 2013-05-29 2013-05-29 Communication device and audio output change method

Country Status (1)

Country Link
JP (1) JP6062803B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148780A (en) * 2018-02-28 2019-09-05 シャープ株式会社 Voice output device, voice output method and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1056626A (en) * 1996-08-13 1998-02-24 Hitachi Software Eng Co Ltd Video conference system
JP2001024746A (en) * 1999-07-06 2001-01-26 Fujitsu I-Network Systems Ltd Telephone set incorporating conference speech function
JP2007049358A (en) * 2005-08-09 2007-02-22 Casio Hitachi Mobile Communications Co Ltd Portable terminal and program
JP2007124253A (en) * 2005-10-27 2007-05-17 Toshiba Corp Information processor and control method
US20080037749A1 (en) * 2006-07-31 2008-02-14 Larry Raymond Metzger Adjusting audio volume in a conference call environment
JP2008271415A (en) * 2007-04-24 2008-11-06 Hitachi Kokusai Electric Inc Received voice output apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1056626A (en) * 1996-08-13 1998-02-24 Hitachi Software Eng Co Ltd Video conference system
JP2001024746A (en) * 1999-07-06 2001-01-26 Fujitsu I-Network Systems Ltd Telephone set incorporating conference speech function
JP2007049358A (en) * 2005-08-09 2007-02-22 Casio Hitachi Mobile Communications Co Ltd Portable terminal and program
JP2007124253A (en) * 2005-10-27 2007-05-17 Toshiba Corp Information processor and control method
US20080037749A1 (en) * 2006-07-31 2008-02-14 Larry Raymond Metzger Adjusting audio volume in a conference call environment
JP2008271415A (en) * 2007-04-24 2008-11-06 Hitachi Kokusai Electric Inc Received voice output apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148780A (en) * 2018-02-28 2019-09-05 シャープ株式会社 Voice output device, voice output method and program
JP6998796B2 (en) 2018-02-28 2022-01-18 シャープ株式会社 Audio output device, audio output method and program

Also Published As

Publication number Publication date
JP6062803B2 (en) 2017-01-18

Similar Documents

Publication Publication Date Title
JP5738797B2 (en) Portable terminal device, program, and sound output control method
JP5894831B2 (en) Mobile terminal device, program, and control method for mobile terminal device
US9253303B2 (en) Signal processing apparatus and storage medium
CN104038625A (en) Automatic routing of call audio at incoming call
JP2012161068A (en) Communication terminal having bone conduction function
WO2013121631A1 (en) Mobile phone
JP3225366U (en) Earphone storage case device
JP4056518B2 (en) Portable information terminal, display control method thereof, and program
JP2008181365A (en) Portable device
KR101954774B1 (en) Method for providing voice communication using character data and an electronic device thereof
JP2011125015A (en) Apparatus and method for recognizing earphone mounting in portable terminal
CN111225103B (en) Call method, terminal and storage medium
JP6587918B2 (en) Electronic device, electronic device control method, electronic device control apparatus, control program, and electronic device system
US10334364B2 (en) Transducer control based on position of an apparatus
JP2015171056A (en) intercom system
WO2021031715A1 (en) Incoming call processing method, and electronic apparatus
JP6062803B2 (en) Communication device and audio output change method
Pering Taming of the ring: context specific social mediation for communication devices
KR101449751B1 (en) Mobile Equipment Having Function Of Providing Touch Feedback During Video Call And Method For Providing Touch Feedback During Video Call
CN105306656B (en) Call message leaving method, apparatus and system
JP6151482B2 (en) Communication system, communication terminal, communication method, and reception method
KR101750557B1 (en) Method of providing user interface for video communication and video communication dvice using the same
WO2017163513A1 (en) Information processing terminal, wristwatch terminal, and control method and control program for said information processing terminal and said wristwatch terminal
TWI410143B (en) Headphone and mobile phone system
JP4093972B2 (en) Touch panel display device and electronic device including the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161215

R150 Certificate of patent or registration of utility model

Ref document number: 6062803

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees