JP2020065140A - Audio processing device, method, program, and mobile terminal - Google Patents

Audio processing device, method, program, and mobile terminal Download PDF

Info

Publication number
JP2020065140A
JP2020065140A JP2018195295A JP2018195295A JP2020065140A JP 2020065140 A JP2020065140 A JP 2020065140A JP 2018195295 A JP2018195295 A JP 2018195295A JP 2018195295 A JP2018195295 A JP 2018195295A JP 2020065140 A JP2020065140 A JP 2020065140A
Authority
JP
Japan
Prior art keywords
voice input
function
voice
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018195295A
Other languages
Japanese (ja)
Other versions
JP2020065140A5 (en
Inventor
中村 文宣
Fuminori Nakamura
文宣 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018195295A priority Critical patent/JP2020065140A/en
Publication of JP2020065140A publication Critical patent/JP2020065140A/en
Publication of JP2020065140A5 publication Critical patent/JP2020065140A5/en
Pending legal-status Critical Current

Links

Images

Abstract

To achieve a plurality of different functions capable of being executed on the basis of a voice input via voice input means in a highly convenient manner.SOLUTION: The audio processing device includes: voice input means; first processing means for executing a first function on the basis of a voice input through the voice input means; second processing means for executing a second function different from the first function on the basis of the voice input through the voice input means; and control means for suppressing the first function when the second function is executed by the second processing means in a state in which a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function.SELECTED DRAWING: Figure 3

Description

本開示は、音声処理装置、方法、プログラム、及び携帯端末に関する。   The present disclosure relates to a voice processing device, a method, a program, and a mobile terminal.

従来、電子機器において、音声通話や音声認識といった音声入力に関する種々の機能が利用されている(例えば、特許文献1参照)。   BACKGROUND ART Conventionally, various functions related to voice input such as voice call and voice recognition have been used in electronic devices (for example, refer to Patent Document 1).

特開2015−4703号公報JP, 2005-4703, A

しかしながら、音声入力手段を介して入力される音声に基づいて複数の異なる機能を実行可能な場合、ある一の機能の実行状態等において、別の機能を実行する場合がありうる。かかる場合に、別の機能のための音声入力が当該ある一の機能に影響すると、ユーザの利便性が低下する場合がありうる。   However, when a plurality of different functions can be executed based on the voice input through the voice input unit, another function may be executed in the execution state of a certain function or the like. In such a case, if the voice input for another function affects the certain one function, the convenience of the user may be reduced.

そこで、本発明は、音声入力手段を介して入力される音声に基づいて実行可能な複数の異なる機能を利便性の高い態様で成立させることを目的とする。   Therefore, it is an object of the present invention to establish a plurality of different functions that can be executed based on a voice input via a voice input unit in a highly convenient manner.

上記目的を達成するために、本発明の1つの側面では、音声入力手段と、
前記音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行する第2処理手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、前記第2処理手段により前記第2機能が実行される場合に、前記第1機能を抑制する制御手段とを備える、音声処理装置が提供される。
In order to achieve the above object, in one aspect of the present invention, a voice input means,
First processing means for executing a first function based on a voice input via the voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means,
The second function is operated by the second processing means in a state in which a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. There is provided a voice processing device comprising: a control unit that suppresses the first function when being executed.

1つの側面では、本発明によれば、音声入力手段を介して入力される音声に基づいて実行可能な複数の異なる機能を利便性の高い態様で成立させることが可能となる。   In one aspect, according to the present invention, it is possible to establish a plurality of different functions that can be executed based on a voice input via the voice input unit in a highly convenient manner.

一実施例による電子機器を含む音声処理装置の構成を概略的に示す図である。It is a figure which shows schematically the structure of the audio processing apparatus containing the electronic device by one Example. 一実施例による電子機器の概略図である。FIG. 6 is a schematic diagram of an electronic device according to an embodiment. 電子機器のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of an electronic device. 携帯端末の処理装置のハードウェア構成の一例を示す図である。It is a figure showing an example of hardware constitutions of a processor of a personal digital assistant. 携帯端末の処理装置の機能構成の一例を示す図である。It is a figure showing an example of functional composition of a processor of a personal digital assistant. 電子機器により実行される処理の一例を示す概略フローチャートである。It is a schematic flowchart which shows an example of the process performed by an electronic device. 図6に示す処理に関連して携帯端末により実行される処理の一例を示す概略フローチャートである。7 is a schematic flowchart showing an example of processing executed by a mobile terminal in association with the processing shown in FIG. 6.

以下、添付図面を参照しながら各実施例について詳細に説明する。   Hereinafter, each embodiment will be described in detail with reference to the accompanying drawings.

図1は、一実施例による電子機器1を含む音声処理装置10の構成を概略的に示す図である。   FIG. 1 is a diagram schematically showing a configuration of a voice processing device 10 including an electronic device 1 according to an embodiment.

音声処理装置10は、電子機器1と、ヘッドセット2と、携帯端末3とを含む。以下、ユーザとは、音声処理装置10のユーザを指す。音声処理装置10のユーザは、電子機器1のユーザでもあり、ヘッドセット2のユーザでもあり、携帯端末3のユーザでもある。ただし、電子機器1のユーザと、ヘッドセット2及び携帯端末3のユーザとは、異なる場合があってもよい。   The voice processing device 10 includes an electronic device 1, a headset 2, and a mobile terminal 3. Hereinafter, the user refers to the user of the voice processing device 10. The user of the voice processing device 10 is also the user of the electronic device 1, the user of the headset 2, and the user of the mobile terminal 3. However, the user of the electronic device 1 may be different from the user of the headset 2 and the mobile terminal 3.

電子機器1は、ヘッドセット2及び携帯端末3に対してそれぞれ双方向通信が可能である。この双方向の通信の形態は、例えば無線通信である。   The electronic device 1 is capable of bidirectional communication with the headset 2 and the mobile terminal 3, respectively. The form of this bidirectional communication is, for example, wireless communication.

ヘッドセット2及び携帯端末3は、互いに双方向通信が可能である。この双方向の通信の形態は、無線通信であってもよいし、有線通信であってもよい。   The headset 2 and the mobile terminal 3 are capable of bidirectional communication with each other. The form of this bidirectional communication may be wireless communication or wire communication.

(電子機器)
図2は、一実施例による電子機器1の概略図である。図2に示すように、本実施例の電子機器1は、ウエアラブル端末であり、腕時計型の装置(スマートウォッチ等)として構成されている。なお、変形例では、電子機器1は、ユーザに付帯可能な他の形態であってもよい。
(Electronics)
FIG. 2 is a schematic diagram of the electronic device 1 according to an embodiment. As shown in FIG. 2, the electronic device 1 of the present embodiment is a wearable terminal and is configured as a wristwatch type device (smartwatch or the like). In addition, in a modification, the electronic device 1 may be in another form that can be attached to the user.

電子機器1は、第1表示部18及び第2表示部24(後述)を備えており、第1表示部18の上に第2表示部24が積層されている。さらに、第2表示部24の上には、後述するタッチパネル17が設けられている。このため、電子機器1においては、第1表示部18の表示に第2表示部24の表示を重ね合わせて表示することが可能であるとともに、表示内容にタッチ操作することが可能となっている。以下では、電子機器1のユーザは、典型的には、電子機器1を腕に装着して使用する。   The electronic device 1 includes a first display unit 18 and a second display unit 24 (described later), and the second display unit 24 is stacked on the first display unit 18. Further, a touch panel 17 described later is provided on the second display unit 24. Therefore, in the electronic device 1, it is possible to display the display of the second display section 24 on the display of the first display section 18 in an overlapping manner, and it is possible to perform a touch operation on the display content. . In the following, a user of the electronic device 1 typically wears the electronic device 1 on his / her arm for use.

図3は、電子機器1のハードウェア構成を示すブロック図である。図3に示すように、電子機器1は、CPU(CENTRAL PROCESSING UNIT)11と、ROM(READ ONLY MEMORY)12と、RAM(RANDOM ACCESS MEMORY)13と、記憶部14と、RTC(REAL TIME CLOCK)部15と、ドライブ16と、タッチパネル17と、第1表示部18と、第1入力部19と、ブルートゥース(登録商標)用アンテナ20と、ブルートゥースモジュール21と、無線LAN(LOCAL AREA NETWORK)アンテナ22と、無線LANモジュール23と、第2表示部24と、脈拍センサ25と、地磁気センサ26と、加速度センサ27と、ジャイロセンサ28と、照度センサ29と、第2入力部30と、GPS(GLOBAL POSITIONING SYSTEM)アンテナ31と、GPSモジュール32と、を備えている。   FIG. 3 is a block diagram showing the hardware configuration of the electronic device 1. As shown in FIG. 3, the electronic device 1 includes a CPU (CENTRAL PROCESSING UNIT) 11, a ROM (READ ONLY MEMORY) 12, a RAM (RANDOM ACCESS MEMORY) 13, a storage unit 14, and an RTC (REAL TIME CLOCK). The unit 15, the drive 16, the touch panel 17, the first display unit 18, the first input unit 19, the Bluetooth (registered trademark) antenna 20, the Bluetooth module 21, and the wireless LAN (LOCAL AREA NETWORK) antenna 22. , The wireless LAN module 23, the second display unit 24, the pulse sensor 25, the geomagnetic sensor 26, the acceleration sensor 27, the gyro sensor 28, the illuminance sensor 29, the second input unit 30, and the GPS (GLOBAL). POSI A TIONING SYSTEM antenna 31 and a GPS module 32 are provided.

CPU11は、第1CPU11Aと、第2CPU11Bとによって構成される。第1CPU11Aは、各種演算処理を行い、OS(OPERATING SYSTEM)の処理を実行することにより、電子機器1におけるスマートフォンに類する機能を制御する。本実施例において、第1CPU11Aは、ブルートゥースモジュール21あるいは無線LANモジュール23を介して受信した電子メールの着信や気象情報に関するメッセージ等を第1表示部18に表示させたり、タッチパネル17を介して入力される操作を受け付けたりする。また、第1CPU11Aは、第1入力部19を介して入力される音声を認識したり、その他、スマートフォンに類する機能として実装された各種機能に係る処理を行ったりする。   The CPU 11 is composed of a first CPU 11A and a second CPU 11B. The first CPU 11A controls various functions similar to a smartphone in the electronic device 1 by performing various arithmetic processes and executing OS (OPERATING SYSTEM) processes. In the present embodiment, the first CPU 11A causes the first display unit 18 to display an incoming message of an electronic mail received via the Bluetooth module 21 or the wireless LAN module 23, a message regarding weather information, etc., or is input via the touch panel 17. Accept operations that In addition, the first CPU 11A recognizes a voice input via the first input unit 19 and performs other processes related to various functions implemented as functions similar to a smartphone.

また、本実施例において、第1CPU11Aは、RTC部15から所定タイミングで時刻信号を取得する。   Further, in the present embodiment, the first CPU 11A acquires the time signal from the RTC unit 15 at a predetermined timing.

第2CPU11Bは、特定のプログラムの処理を実行することにより、第2表示部24に対する表示の指示を行ったり、各種センサの検出結果を取得したり、その他、腕時計の機能として実装された各種機能に係る処理を行ったりする。本実施例において、第2CPU11Bは、第1CPU11Aから入力された時刻信号を基準として、時刻を計算したり、時刻、曜日あるいは日付等を第2表示部24に表示させたりする。第2CPU11Bが実行する特定のプログラムの処理(時刻の計算等)は、第1CPU11Aが実行するOSの処理に比べて単純な動作であることから処理負荷が小さく、低消費電力で実行可能である。また、そのため、第2CPU11Bに要求されるハードウェアのスペックは、第1CPU11Aに比べて低いもので足りる。   The second CPU 11B executes a process of a specific program to instruct display on the second display unit 24, obtains detection results of various sensors, and other various functions implemented as functions of the wristwatch. Such processing is performed. In the present embodiment, the second CPU 11B calculates the time based on the time signal input from the first CPU 11A and causes the second display unit 24 to display the time, the day of the week, the date, and the like. The processing of a specific program executed by the second CPU 11B (calculation of time, etc.) is a simple operation compared to the processing of the OS executed by the first CPU 11A, so the processing load is small and it can be executed with low power consumption. Therefore, the hardware specifications required for the second CPU 11B are lower than those for the first CPU 11A.

ROM12は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出しが可能であり、第1CPU11A及び第2CPU11Bが実行する種々のプログラムや初期設定データを格納する。例えば、ROM12は、第1CPU11Aが実行するOSのプログラムやOSの管理下で実行される各種プログラム、あるいは、第2CPU11Bが実行する特定のプログラム(ここでは、腕時計の機能を実現する組み込み用プログラム)のプログラムを格納する。   The ROM 12 can read data from each of the first CPU 11A and the second CPU 11B, and stores various programs executed by the first CPU 11A and the second CPU 11B and initial setting data. For example, the ROM 12 stores an OS program executed by the first CPU 11A, various programs executed under the control of the OS, or a specific program executed by the second CPU 11B (here, a built-in program that realizes a watch function). Store the program.

RAM13は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出し及び書き込みが可能であり、第1CPU11A及び第2CPU11Bに作業用のメモリ空間を提供し、作業用の一時データを記憶する。例えば、RAM13は、第1CPU11AがOSを実行する際のシステム領域やワークエリアを提供したり、第2CPU11Bが特定のプログラムを実行する際の記憶領域を提供したりする。   The RAM 13 can read and write data from the first CPU 11A and the second CPU 11B, respectively, provides a work memory space to the first CPU 11A and the second CPU 11B, and stores temporary data for work. For example, the RAM 13 provides a system area and a work area when the first CPU 11A executes the OS, and a storage area when the second CPU 11B executes a specific program.

記憶部14は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出し及び書き込みが可能な不揮発性のメモリであり、例えば、フラッシュメモリやEEPROM(ELECTRICALLY ERASABLE AND PROGRAMMABLE READ ONLY MEMORY)である。記憶部14には、スマートフォンに類する各種機能や腕時計の機能等において生成された各種データ(各種設定内容のデータ等)が記憶される。   The storage unit 14 is a non-volatile memory capable of reading and writing data from the first CPU 11A and the second CPU 11B, and is, for example, a flash memory or an EEPROM (ELECTRICALLY ERASABLE AND PROGRAMMABLE READ ONLY MEMORY). The storage unit 14 stores various data (various setting contents data, etc.) generated by various functions similar to smartphones, wristwatch functions, and the like.

RTC部15は、時刻信号を生成する。   The RTC unit 15 generates a time signal.

ドライブ16には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア41が適宜装着される。リムーバブルメディア41は、各種センサによって検出されたデータ等の各種データを記憶することができる。   A removable medium 41 including a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 16. The removable medium 41 can store various data such as data detected by various sensors.

タッチパネル17は、第2表示部24の表示画面上に設けられた静電容量方式または抵抗膜式等のタッチパネルである。タッチパネル17は、操作面に対するユーザのタッチ操作位置と操作内容とを検出して当該操作に応じた信号を発生させて、入力信号として第1CPU11Aに出力する。   The touch panel 17 is a capacitance type or resistance film type touch panel provided on the display screen of the second display unit 24. The touch panel 17 detects the user's touch operation position on the operation surface and the operation content, generates a signal corresponding to the operation, and outputs the signal to the first CPU 11A as an input signal.

第1表示部18は、有機ELディスプレイ(OLED)によって構成され、第1CPU11Aの制御に従って、各種情報を表示画面に表示する。   The first display unit 18 is composed of an organic EL display (OLED), and displays various information on the display screen under the control of the first CPU 11A.

第1入力部19は、音声を電気信号に変換するマイクを備え、入力された音声(操作のための音声コマンド等)を示す信号を第1CPU11Aに出力する。   The first input unit 19 includes a microphone that converts voice into an electric signal, and outputs a signal indicating the input voice (voice command for operation or the like) to the first CPU 11A.

ブルートゥース用アンテナ20は、ブルートゥースの規格に基づく電磁波を送受信するアンテナであり、例えばモノポールアンテナ等によって構成される。ブルートゥース用アンテナ20は、ブルートゥースモジュール21から入力された無線通信の電気信号を電磁波として送信したり、受信した電磁波を電気信号に変換してブルートゥースモジュール21に出力したりする。   The Bluetooth antenna 20 is an antenna that transmits and receives electromagnetic waves based on the Bluetooth standard, and is configured by, for example, a monopole antenna or the like. The Bluetooth antenna 20 transmits an electric signal for wireless communication input from the Bluetooth module 21 as an electromagnetic wave or converts the received electromagnetic wave into an electric signal and outputs the electric signal to the Bluetooth module 21.

ブルートゥースモジュール21は、第1CPU11Aの指示に従って、ブルートゥース用アンテナ20を介して他の装置に信号を送信する。また、ブルートゥースモジュール21は、他の装置から送信された信号を受信し、受信した信号が示す情報を第1CPU11Aに出力する。無線LANアンテナ22は、無線LANモジュール23によって利用される無線通信に対応した周波数の電波を受信可能なアンテナであり、例えばループアンテナやロッドアンテナによって構成される。無線LANアンテナ22は、無線LANモジュール23から入力された無線通信の電気信号を電磁波として送信したり、受信した電磁波を電気信号に変換して無線LANモジュール23に出力したりする。   The Bluetooth module 21 transmits a signal to another device via the Bluetooth antenna 20 according to an instruction from the first CPU 11A. The Bluetooth module 21 also receives a signal transmitted from another device and outputs information indicated by the received signal to the first CPU 11A. The wireless LAN antenna 22 is an antenna capable of receiving a radio wave of a frequency corresponding to wireless communication used by the wireless LAN module 23, and is configured by, for example, a loop antenna or a rod antenna. The wireless LAN antenna 22 transmits an electric signal for wireless communication input from the wireless LAN module 23 as an electromagnetic wave or converts the received electromagnetic wave into an electric signal and outputs the electric signal to the wireless LAN module 23.

無線LANモジュール23は、第1CPU11Aの指示に従って、無線LANアンテナ22を介して他の装置に信号を送信する。また、無線LANモジュール23は、他の装置から送信された信号を受信し、受信した信号が示す情報を第1CPU11Aに出力する。   The wireless LAN module 23 transmits a signal to another device via the wireless LAN antenna 22 according to an instruction from the first CPU 11A. The wireless LAN module 23 also receives a signal transmitted from another device and outputs information indicated by the received signal to the first CPU 11A.

第2表示部24は、部分的にまたは全体的に光を透過可能なPN(POLYMER NETWORK)液晶ディスプレイから構成され、第2CPU11Bの制御に従って、各種情報を表示画面に表示(ここではセグメント表示)する。   The second display unit 24 is composed of a PN (POLYMER NETWORK) liquid crystal display capable of transmitting light partially or wholly, and displays various information on the display screen (here, segment display) under the control of the second CPU 11B. .

本実施例において、第2表示部24であるPN液晶ディスプレイは、例えば、上述した第1表示部18である有機ELディスプレイの表示画面上に積層されている。このPN液晶ディスプレイは、電位が掛けられていない部位では液晶分子が不規則に並び、光を反射するようになっている。つまり、この電位が掛けられていない部位において、PN液晶ディスプレイによる表示がなされることとなる。一方、電位が掛けられた部位では、液晶分子が表示画面に対して垂直に整列するので、光を透過可能となっている。つまり、この電位が掛けられた部位では、上述の有機ELディスプレイからの光を透過可能となるので、当該PN液晶ディスプレイを介して当該有機ELディスプレイによる表示を視認することができる。すなわち、電子機器1の表示領域では、第1表示部18による表示に第2表示部24による表示を重ね合わせた状態で表示することができるようになっている。   In this embodiment, the PN liquid crystal display that is the second display unit 24 is stacked on the display screen of the organic EL display that is the first display unit 18 described above, for example. In this PN liquid crystal display, liquid crystal molecules are irregularly arranged in a portion where no electric potential is applied, and light is reflected. In other words, the PN liquid crystal display is used for display in a portion where this potential is not applied. On the other hand, at the portion to which the electric potential is applied, the liquid crystal molecules are aligned vertically with respect to the display screen, so that light can be transmitted. That is, since the light from the above-mentioned organic EL display can be transmitted through the portion to which this potential is applied, the display by the organic EL display can be visually recognized through the PN liquid crystal display. That is, in the display area of the electronic device 1, the display by the first display unit 18 and the display by the second display unit 24 can be displayed in a superimposed state.

脈拍センサ25は、電子機器1の裏面側(ユーザの腕に面する側)に設置され、電子機器1が装着されたユーザの脈拍を検出する。脈拍センサ25は、検出した脈拍を第2CPU11Bに出力する。   The pulse sensor 25 is installed on the back side of the electronic device 1 (the side facing the user's arm) and detects the pulse of the user wearing the electronic device 1. The pulse sensor 25 outputs the detected pulse to the second CPU 11B.

地磁気センサ26は、地磁気の方向を検出し、検出した地磁気の方向を示す情報を第2CPU11Bに出力する。   The geomagnetic sensor 26 detects the direction of the geomagnetism and outputs information indicating the detected direction of the geomagnetism to the second CPU 11B.

加速度センサ27は、電子機器1における3軸方向の加速度を検出し、検出した加速度を示す情報を第2CPU11Bに出力する。   The acceleration sensor 27 detects acceleration in the three-axis directions in the electronic device 1 and outputs information indicating the detected acceleration to the second CPU 11B.

ジャイロセンサ28は、電子機器1における3軸方向の角速度を検出し、検出した角速度を示す情報を第2CPU11Bに出力する。   The gyro sensor 28 detects the angular velocities of the electronic device 1 in the three-axis directions and outputs information indicating the detected angular velocities to the second CPU 11B.

照度センサ29は、第1表示部18の裏面側の所定箇所に設置され、電子機器1の表示領域における明るさ(照度)を検出し、検出した明るさを示す情報を第2CPU11Bに出力する。   The illuminance sensor 29 is installed at a predetermined position on the back surface side of the first display unit 18, detects the brightness (illuminance) in the display area of the electronic device 1, and outputs information indicating the detected brightness to the second CPU 11B.

第2入力部30は、各種ボタンで構成され、ユーザの指示操作に応じて各種情報を入力する。   The second input unit 30 is composed of various buttons and inputs various information in accordance with a user's instruction operation.

GPSアンテナ31は、GPSにおける衛星から発信される電波を受信して電気信号に変換し、変換した電気信号(以下、「GPS信号」と称する)をGPSモジュール32に出力する。   The GPS antenna 31 receives a radio wave transmitted from a satellite in GPS, converts it into an electric signal, and outputs the converted electric signal (hereinafter, referred to as “GPS signal”) to the GPS module 32.

GPSモジュール32は、GPSアンテナ31から入力されたGPS信号に基づいて、電子機器1の位置(緯度、経度、高度)及びGPSによって示される現在時刻を検出する。また、GPSモジュール32は、検出した位置及び現在時刻を示す情報を第2CPU11Bに出力する。   The GPS module 32 detects the position (latitude, longitude, altitude) of the electronic device 1 and the current time indicated by GPS, based on the GPS signal input from the GPS antenna 31. The GPS module 32 also outputs information indicating the detected position and the current time to the second CPU 11B.

なお、図3に示す構成は、あくまで一例であり、多様な変更が可能である。例えば、電子機器1は第1表示部18と第2表示部24とを備えるものとしたが、それに限らず、電子機器1は第1表示部18のみを備えるものであってもよい。また、表示内容が表示される第1表示部18がOLEDで構成されるが、液晶ディスプレイ等の他の表示手段で構成されてもよい。また、電子機器1のCPU11は第1CPU11Aと第2CPU11Bとからなるものとしたが、それに限らず、CPU11は第1CPU11Aの機能と第2CPU11Bの機能の両方を備える1つのCPUであってもよい。また、無線LANモジュール23、ジャイロセンサ28、照度センサ29、GPSモジュール32等が省略されてもよい。   The configuration shown in FIG. 3 is merely an example, and various changes can be made. For example, although the electronic device 1 includes the first display unit 18 and the second display unit 24, the electronic device 1 may include only the first display unit 18 without being limited to this. Further, although the first display unit 18 for displaying the display content is composed of the OLED, it may be composed of other display means such as a liquid crystal display. Further, although the CPU 11 of the electronic device 1 is composed of the first CPU 11A and the second CPU 11B, the CPU 11 is not limited to this, and the CPU 11 may be one CPU having both the functions of the first CPU 11A and the second CPU 11B. Further, the wireless LAN module 23, the gyro sensor 28, the illuminance sensor 29, the GPS module 32, etc. may be omitted.

本実施例では、以下でも詳説するが、電子機器1は、第1CPU11A(第2処理手段の一例)が、第1入力部19(第2音声入力手段の一例)を介して入力される音声を認識する。なお、音声認識方法自体は広く知られており、任意の音声認識エンジンが使用されてもよい。電子機器1は、音声認識に基づく音声認識機能を実行する。音声認識機能は、例えば音声入力による検索機能である。例えば、電子機器1は、音声入力待ち状態において、ユーザが「〇〇」と発呼すれば、「〇〇」に関連するウェブサイト等を探索し表示する。電子機器1は、音声認識機能の状態を表す状態情報を、ブルートゥースモジュール21を介して携帯端末3に送信する。   In the present embodiment, as will be described in detail below, in the electronic device 1, the first CPU 11A (an example of a second processing unit) outputs a voice input via the first input unit 19 (an example of a second voice input unit). recognize. The voice recognition method itself is widely known, and any voice recognition engine may be used. The electronic device 1 executes a voice recognition function based on voice recognition. The voice recognition function is, for example, a search function by voice input. For example, the electronic device 1 searches for and displays a website or the like related to "OO" when the user calls "OO" while waiting for a voice input. The electronic device 1 transmits the state information indicating the state of the voice recognition function to the mobile terminal 3 via the Bluetooth module 21.

本実施例では、一例として、状態情報は、音声認識機能の実行状態、音声入力待ち状態、又は非作動状態のいずれかを表す。音声認識機能の実行状態とは、第1CPU11Aが音声認識処理を実行している状態であり、音声の入力中や、入力された音声の認識中を含む。音声入力待ち状態は、音声が入力されると直ちに第1CPU11Aが音声認識処理を開始できる状態(音声認識機能の実行待ち状態)である。音声入力待ち状態は、非作動状態において、ユーザからの入力操作によって移行される。例えば、音声入力待ち状態は、非作動状態において、ユーザが所定操作を行った場合や、所定の発話(例えば「OK、〇〇」といった発話)を行った場合等に、移行されてよい。また、音声入力待ち状態は、音声認識機能の実行状態が終了すると形成(移行)されてよい。すなわち、音声入力待ち状態は、音声認識機能の実行状態と音声認識機能の実行状態との間に形成されてよい。非作動状態は、音声が入力されたとしても第1CPU11Aが音声認識処理を実行しえない状態(音声認識機能が停止した状態)である。例えば、音声認識機能が実行状態又は音声入力待ち状態であるときには、第1表示部18等には、音声認識機能用の画面が出力される。この場合、音声認識機能用の画面が他の画面に遷移すると、音声認識機能の状態が実行状態又は音声入力待ち状態から非作動状態に移行したことになる。   In the present embodiment, as an example, the state information represents one of a voice recognition function execution state, a voice input waiting state, and a non-operation state. The execution state of the voice recognition function is a state in which the first CPU 11A is executing the voice recognition process, and includes a state where the voice is being input and a state where the input voice is being recognized. The voice input waiting state is a state in which the first CPU 11A can start the voice recognition process immediately after the voice is input (waiting state for executing the voice recognition function). The voice input waiting state is shifted by an input operation from the user in the non-operating state. For example, the voice input waiting state may be transferred when the user performs a predetermined operation or makes a predetermined utterance (for example, utterance such as “OK, XX”) in the non-operation state. The voice input waiting state may be formed (shifted) when the execution state of the voice recognition function ends. That is, the voice input waiting state may be formed between the voice recognition function execution state and the voice recognition function execution state. The non-operating state is a state in which the first CPU 11A cannot execute the voice recognition process even if voice is input (state in which the voice recognition function is stopped). For example, when the voice recognition function is in the execution state or the voice input waiting state, the screen for the voice recognition function is output to the first display unit 18 and the like. In this case, when the screen for the voice recognition function is changed to another screen, the state of the voice recognition function is changed from the execution state or the voice input waiting state to the non-operation state.

(ヘッドセット)
ヘッドセット2は、ユーザの頭に装着される。ヘッドセット2は、ヘッドセットマイク(図示せず)を有し、ヘッドセット2を装着したユーザの発話に応じた音声信号を携帯端末3に送信する。例えば、ヘッドセット2は、ブルートゥースモジュール(図示せず)を備え、ブルートゥース通信により携帯端末3に音声信号を送信する。
(headset)
The headset 2 is worn on the user's head. The headset 2 has a headset microphone (not shown), and transmits to the mobile terminal 3 an audio signal according to the utterance of the user wearing the headset 2. For example, the headset 2 includes a Bluetooth module (not shown) and transmits an audio signal to the mobile terminal 3 by Bluetooth communication.

ヘッドセット2は、携帯端末3と協動して、ユーザによる音声通話を可能とする。すなわち、ユーザは、携帯端末3のマイクやスピーカの代わりに、携帯端末3に接続されるヘッドセット2のマイクやスピーカを介して、携帯端末3での音声通話を行うことができる。   The headset 2 cooperates with the mobile terminal 3 to enable a voice call by the user. That is, the user can make a voice call on the mobile terminal 3 via the microphone and the speaker of the headset 2 connected to the mobile terminal 3, instead of the microphone and the speaker of the mobile terminal 3.

(携帯端末)
携帯端末3は、任意の電子機器であり、例えばスマートフォンやタブレット、ゲーム機のような携帯可能な端末であってもよい。変形例では、携帯端末3は、携帯型でなくてよく、例えばパーソナルコンピュータのような固定の端末であってもよい。本実施例では、一例として、携帯端末3は、通話機能と、ブルートゥースモジュールによる通信機能とを有する。
(Mobile device)
The mobile terminal 3 is an arbitrary electronic device, and may be a portable terminal such as a smartphone, a tablet, or a game machine. In a modified example, the mobile terminal 3 need not be a portable type, and may be a fixed terminal such as a personal computer. In the present embodiment, as an example, the mobile terminal 3 has a call function and a communication function using a Bluetooth module.

図4は、携帯端末3の処理装置100のハードウェア構成の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a hardware configuration of the processing device 100 of the mobile terminal 3.

図4に示す例では、処理装置100は、制御部101、主記憶部102、補助記憶部103、ドライブ装置104、ネットワークI/F部106、入力部107、及び出力部108を含む。   In the example illustrated in FIG. 4, the processing device 100 includes a control unit 101, a main storage unit 102, an auxiliary storage unit 103, a drive device 104, a network I / F unit 106, an input unit 107, and an output unit 108.

制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力部107や記憶装置からデータを受け取り、演算、加工した上で、記憶装置などに出力する。   The control unit 101 is an arithmetic device that executes a program stored in the main storage unit 102 or the auxiliary storage unit 103, receives data from the input unit 107 or the storage device, calculates and processes the data, and then outputs the data to the storage device or the like. To do.

主記憶部102は、ROM(READ ONLY MEMORY)やRAM(RANDOM ACCESS MEMORY)などである。主記憶部102は、制御部101が実行する基本ソフトウェアであるOS(OPERATING SYSTEM)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 102 is a ROM (READ ONLY MEMORY), a RAM (RANDOM ACCESS MEMORY), or the like. The main storage unit 102 is a storage device that stores or temporarily stores programs and data such as OS (OPERATING SYSTEM) which is basic software executed by the control unit 101 and application software.

補助記憶部103は、HDD(HARD DISK DRIVE)やSSD(SOLID STATE DRIVE)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 103 is an HDD (HARD DISK DRIVE) or SSD (SOLID STATE DRIVE), and is a storage device that stores data related to application software and the like.

ドライブ装置104は、記録媒体105、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。   The drive device 104 reads the program from the recording medium 105, for example, a flexible disk, and installs it in the storage device.

記録媒体105は、所定のプログラムを格納する。この記録媒体105に格納されたプログラムは、ドライブ装置104を介して処理装置100にインストールされる。インストールされた所定のプログラムは、処理装置100により実行可能となる。   The recording medium 105 stores a predetermined program. The program stored in the recording medium 105 is installed in the processing device 100 via the drive device 104. The installed predetermined program can be executed by the processing device 100.

ネットワークI/F部106は、有線及び/又は無線回線などのデータ伝送路により構築されたネットワークを介して接続された通信機能を有する周辺機器と処理装置100とのインターフェースである。   The network I / F unit 106 is an interface between the processing device 100 and a peripheral device having a communication function connected via a network constructed by a data transmission path such as a wired and / or wireless line.

入力部107は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、マウスやタッチパッド等を有する。入力部107は、また、音声通話用等のマイクを含む。   The input unit 107 includes a keyboard provided with cursor keys, numeral inputs and various function keys, a mouse, a touch pad, and the like. The input unit 107 also includes a microphone for voice communication.

出力部108は、音声通話用等のスピーカを含む。   The output unit 108 includes a speaker for voice communication.

なお、図4に示す例において、以下で説明する各種処理等は、プログラムを処理装置100に実行させることで実現することができる。また、プログラムを記録媒体105に記録し、このプログラムが記録された記録媒体105を処理装置100に読み取らせて、以下で説明する各種処理等を実現させることも可能である。なお、記録媒体105は、様々なタイプの記録媒体を用いることができる。例えば、記録媒体105は、CD(COMPACT DISC)−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等であってよい。   In the example illustrated in FIG. 4, various processes described below can be realized by causing the processing device 100 to execute a program. Further, it is also possible to record the program on the recording medium 105 and cause the processing device 100 to read the recording medium 105 on which the program is recorded to realize various processes described below. Various types of recording media can be used as the recording medium 105. For example, the recording medium 105 is a recording medium such as a CD (COMPACT DISC) -ROM, a flexible disk or a magneto-optical disk for recording information optically, electrically or magnetically, or an information such as a ROM or a flash memory. It may be a semiconductor memory or the like for electrically recording

図5は、携帯端末3の処理装置100の機能構成の一例を示す図である。   FIG. 5 is a diagram illustrating an example of a functional configuration of the processing device 100 of the mobile terminal 3.

携帯端末3の処理装置100は、通話機能実行部301(第1処理手段の一例)と、状態情報取得部302(取得手段の一例)と、通話機能制御部303(制御手段の一例)とを含む。通話機能実行部301、状態情報取得部302、及び通話機能制御部303は、図4の制御部101が記憶装置(例えば図4の主記憶部102)内の1つ以上のプログラムを実行することで実現できる。   The processing device 100 of the mobile terminal 3 includes a call function execution unit 301 (an example of a first processing unit), a state information acquisition unit 302 (an example of an acquisition unit), and a call function control unit 303 (an example of a control unit). Including. The call function execution unit 301, the state information acquisition unit 302, and the call function control unit 303 are such that the control unit 101 in FIG. 4 executes one or more programs in the storage device (for example, the main storage unit 102 in FIG. 4). Can be achieved with.

通話機能実行部301は、携帯端末3における通話機能を実行する。例えば、通話機能実行部301は、着信や発呼に応じて通話機能を開始する。通話機能実行部301は、通話機能の実行中、入力部107又はヘッドセット2を介して入力される音声信号(ユーザの発話に応じた音声信号)を、通話相手に係る無線通信装置(図示せず)に送信するとともに、通話相手に係る無線通信装置からの音声信号を、出力部108を介して出力する。なお、通話機能実行部301は、ハンズフリー機能として、携帯端末3に接続された他の機器(例えば車載機器等)を介して、通話機能を実行してもよい。なお、通話機能は広く知られており、ここではこれ以上詳細に説明しない。   The call function execution unit 301 executes a call function in the mobile terminal 3. For example, the call function executing unit 301 starts a call function in response to an incoming call or a call. During execution of the call function, the call function execution unit 301 receives a voice signal (voice signal corresponding to the user's utterance) input via the input unit 107 or the headset 2 as a wireless communication device (not shown). And the audio signal from the wireless communication device related to the other party is output via the output unit 108. Note that the call function executing unit 301 may execute the call function via another device (for example, an in-vehicle device or the like) connected to the mobile terminal 3 as a hands-free function. The call function is widely known and will not be described in further detail here.

状態情報取得部302は、電子機器1から状態情報を取得する。状態情報取得部302は、電子機器1のブルートゥースモジュール21との通信を介して状態情報を取得してよい。状態情報は、上述のように、電子機器1の音声認識機能の状態を表し、具体的には、音声認識機能の実行状態、音声入力待ち状態、又は非作動状態のいずれかを表す。   The status information acquisition unit 302 acquires status information from the electronic device 1. The state information acquisition unit 302 may acquire the state information via communication with the Bluetooth module 21 of the electronic device 1. The state information represents the state of the voice recognition function of the electronic device 1, as described above, and specifically represents either the execution state of the voice recognition function, the voice input waiting state, or the non-operation state.

通話機能制御部303は、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が実行状態又は音声入力待ち状態を表す状態情報を状態情報取得部302が取得した場合に、通話機能実行部301による通話機能を抑制する。すなわち、通話機能制御部303は、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が実行状態又は音声入力待ち状態である場合は、通話機能実行部301による通話機能を抑制する。なお、変形例では、通話機能制御部303は、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が実行状態である場合は、通話機能実行部301による通話機能を抑制するが、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が音声入力待ち状態である場合は、通話機能実行部301による通話機能を抑制しない又は抑制度合いを小さくすることとしてもよい。
通話機能の実行状態とは、通話機能の作動状態と実質的に同義であり、音声入力中や、音声入力待ち状態を含む。なお、音声入力中とは、当該音声入力に係る音声信号を相手側に送信する処理の実行中を含む概念である。なお、変形例では、通話機能の実行状態のうちの、音声入力中のみ、電子機器1の音声認識機能が実行状態又は音声入力待ち状態であることに起因して通話機能実行部301による通話機能を抑制することとしてもよい。
通話機能の抑制とは、通常的な通話機能に対して何らかの機能の抑制がある限り任意である。ただし、通話機能の抑制は、好ましくは、通話相手との通話自体を維持しつつ、通話相手に係る無線通信装置(図示せず)への音声信号の送信を抑制することである。この場合、通話機能の抑制中は、通話相手には、携帯端末3側での音声(携帯端末3のユーザの発話等)が聞こえないか又は聞こえ難くなる。これにより、電子機器1の音声認識機能に対するユーザの発話内容(例えば音声検索のための発話内容)が、通話相手に伝わってしまうことを防止できる。
The call function control unit 303, when the state information acquisition unit 302 acquires the state information indicating the state in which the voice recognition function of the electronic device 1 is in the execution state or the voice input waiting state in the state in which the call function execution unit 301 executes the call function. , The call function by the call function execution unit 301 is suppressed. That is, when the voice recognition function of the electronic device 1 is in the execution state or the voice input waiting state in the call function execution state of the call function execution unit 301, the call function control unit 303 causes the call function execution unit 301 to perform the call function. Suppress. In the modification, the call function control unit 303 causes the call function execution unit 301 to execute the call function when the voice recognition function of the electronic device 1 is in the execution state of the call function execution unit 301. Although suppressed, when the voice recognition function of the electronic device 1 is in a voice input waiting state in the call function execution state of the call function execution unit 301, the call function performed by the call function execution unit 301 is not suppressed or the degree of suppression is reduced. It may be done.
The execution state of the call function is substantially synonymous with the operation state of the call function, and includes a voice inputting state and a voice input waiting state. It should be noted that “during voice input” is a concept including execution of a process of transmitting a voice signal related to the voice input to the other party. In the modification, the call function execution unit 301 calls the call function due to the voice recognition function of the electronic device 1 being in the execution state or the voice input waiting state only during voice input of the call function execution states. May be suppressed.
The suppression of the call function is arbitrary as long as there is some function suppression to the normal call function. However, the suppression of the call function is preferably to suppress the transmission of the voice signal to the wireless communication device (not shown) related to the call partner while maintaining the call itself with the call partner. In this case, while the call function is being suppressed, the other party of the call does not hear or is hard to hear the voice (the utterance of the user of the mobile terminal 3) on the mobile terminal 3 side. This can prevent the user's utterance content (e.g., utterance content for voice search) for the voice recognition function of the electronic device 1 from being transmitted to the other party.

本実施例では、一例として、通話機能の抑制は、ヘッドセット2から入力される音声信号の音量を最小化(すなわちミュート)することにより実現される。この場合、簡易な音量調整処理によって通話機能の抑制を実現できる。なお、変形例では、通話機能の抑制は、ヘッドセット2との接続の切断(一時的な切断)により実現されてもよいし、ヘッドセット2から入力される音声信号を加工することにより実現されてもよいし、ヘッドセット2から入力される音声信号に代えて所定の保留音の信号を、通話相手に係る無線通信装置(図示せず)に送信することにより実現されてもよい。   In the present embodiment, as an example, the suppression of the call function is realized by minimizing (that is, muting) the volume of the audio signal input from the headset 2. In this case, the call function can be suppressed by a simple volume adjustment process. In the modification, the suppression of the call function may be realized by disconnecting (temporarily disconnecting) the connection with the headset 2 or by processing an audio signal input from the headset 2. Alternatively, it may be realized by transmitting a predetermined hold tone signal instead of the voice signal input from the headset 2 to a wireless communication device (not shown) associated with the other party.

このように、本実施例によれば、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が実行状態又は音声入力待ち状態である場合は、通話機能実行部301による通話機能が抑制されるので、電子機器1の音声認識機能に対するユーザの発話内容が、通話相手に伝わってしまうことを防止できる。   As described above, according to the present embodiment, when the voice recognition function of the electronic device 1 is in the execution state or the voice input waiting state in the execution state of the call function by the call function execution unit 301, the call function execution unit 301 executes Since the call function is suppressed, it is possible to prevent the user's utterance content for the voice recognition function of the electronic device 1 from being transmitted to the other party.

例えば、ユーザが音声通話中に音声認識による検索機能を用いる場合、検索のためのユーザの発声が音声通話機能の方に(ヘッドセット2を介して)拾われてしまい、音声通話が阻害されてしまうというおそれがある。この点、本実施例によれば、かかる不都合を防止できる。すなわち、ユーザは、わざわざヘッドセット2を外したり、音声通話を切断したりすることなく、音声通話中に、通話相手に発話内容(及びそれの基づく検索内容)が伝わらない態様で電子機器1の音声認識機能を利用できる。   For example, when the user uses the search function by voice recognition during a voice call, the user's utterance for the search is picked up by the voice call function (via the headset 2), and the voice call is disturbed. There is a risk that it will end up. In this respect, according to the present embodiment, such inconvenience can be prevented. That is, the user does not have to bother to take off the headset 2 or disconnect the voice call, and the utterance content (and the search content based on the utterance content) is not transmitted to the other party during the voice call. The voice recognition function can be used.

このようにして、本実施例によれば、ヘッドセット2及び第1入力部19を介して入力される音声に基づいて実行可能な複数の異なる機能(すなわち携帯端末3の通話機能と電子機器1の音声認識機能)を利便性の高い態様で成立させることが可能となる。   In this way, according to this embodiment, a plurality of different functions that can be executed based on the voice input via the headset 2 and the first input unit 19 (that is, the call function of the mobile terminal 3 and the electronic device 1). Voice recognition function) can be established in a highly convenient manner.

(動作例)
次に、音声処理装置10の動作例について、図6以降の概略フローチャートを参照して説明する。以降の処理フロー図(フローチャート)においては、各ステップの入力と出力の関係を損なわない限り、各ステップの処理順序を入れ替えてもよい。
(Operation example)
Next, an operation example of the voice processing device 10 will be described with reference to the schematic flowcharts of FIG. 6 and subsequent figures. In the subsequent processing flow charts (flowcharts), the processing order of each step may be changed as long as the relationship between the input and output of each step is not impaired.

図6は、電子機器1により実行される処理の一例を示す概略フローチャートである。図6に示す処理は、携帯端末3と電子機器1との間で通信(ブルートゥースモジュール21による通信)が確立され、かつ、電子機器1とヘッドセット2との間で同様に通信が確立された状態において実行される。   FIG. 6 is a schematic flowchart showing an example of processing executed by the electronic device 1. In the process shown in FIG. 6, the communication (communication by the Bluetooth module 21) is established between the mobile terminal 3 and the electronic device 1, and the communication is similarly established between the electronic device 1 and the headset 2. Executed in the state.

ステップS600では、電子機器1は、音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行したか否かを判定する。判定結果が“YES”の場合(すなわち音声認識機能の状態が非作動状態から実行状態に移行した場合、又は、音声認識機能の状態が非作動状態から音声入力待ち状態に移行した場合)、ステップS602に進み、それ以外の場合は、ステップS604に進む。   In step S600, the electronic device 1 determines whether the state of the voice recognition function is changed from the non-operation state to the execution state or the voice input waiting state. If the determination result is “YES” (that is, the state of the voice recognition function is changed from the non-operation state to the execution state, or the state of the voice recognition function is changed from the non-operation state to the voice input waiting state), the step The process proceeds to S602, and otherwise, proceeds to step S604.

ステップS602では、電子機器1は、状態情報(移行後の実行状態又は音声入力待ち状態を表す)を携帯端末3に送信する。   In step S602, the electronic device 1 transmits the state information (representing the execution state after transition or the voice input waiting state) to the mobile terminal 3.

ステップS604では、電子機器1は、音声認識機能の状態が実行状態又は音声入力待ち状態から非作動状態に移行したか否かを判定する。判定結果が“YES”の場合(すなわち音声認識機能の状態が実行状態から非作動状態に移行した場合、又は、音声認識機能の状態が音声入力待ち状態から非作動状態に移行した場合)、ステップS606に進み、それ以外の場合は、そのまま終了する。   In step S604, the electronic device 1 determines whether the state of the voice recognition function is changed from the execution state or the voice input waiting state to the non-operation state. If the determination result is “YES” (that is, the state of the voice recognition function is changed from the execution state to the non-operation state, or the state of the voice recognition function is changed from the voice input waiting state to the non-operation state), the step The process proceeds to S606, and in other cases, the process ends.

ステップS606では、電子機器1は、状態情報(移行後の非作動状態を表す)を携帯端末3に送信する。   In step S606, the electronic device 1 transmits the state information (representing the non-operating state after the transition) to the mobile terminal 3.

図6に示す処理によれば、電子機器1は、音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行した場合と、音声認識機能の状態が実行状態又は音声入力待ち状態から非作動状態に移行した場合に、移行後の状態を示す状態情報を携帯端末3に送信できる。これにより、状態情報を所定周期ごとに携帯端末3に送信する場合に比べて、通信負荷を低減できる。ただし、変形例では、電子機器1は、状態情報を所定周期ごとに携帯端末3に送信してもよい。   According to the process shown in FIG. 6, the electronic device 1 has the case where the state of the voice recognition function is changed from the non-operation state to the execution state or the voice input waiting state, and the state of the voice recognition function is the execution state or the voice input waiting state. When the state is shifted to the non-operating state, the state information indicating the state after the shift can be transmitted to the mobile terminal 3. As a result, the communication load can be reduced as compared with the case where the state information is transmitted to the mobile terminal 3 in every predetermined cycle. However, in a modification, the electronic device 1 may transmit the state information to the mobile terminal 3 in every predetermined cycle.

図7は、図6に示す処理に関連して携帯端末3により実行される処理の一例を示す概略フローチャートである。   FIG. 7 is a schematic flowchart showing an example of processing executed by the mobile terminal 3 in association with the processing shown in FIG.

ステップS700では、携帯端末3は、音声通話中であるか否かを判定する。判定結果が“YES”の場合、ステップS702に進み、それ以外の場合は、そのまま終了する。   In step S700, the mobile terminal 3 determines whether or not a voice call is in progress. If the determination result is “YES”, the process proceeds to step S702, and if not, the process ends.

ステップS702では、携帯端末3は、状態情報を電子機器1から受信したか否かを判定する。判定結果が“YES”の場合、ステップS704に進み、それ以外の場合は、そのまま終了する。   In step S702, the mobile terminal 3 determines whether the status information is received from the electronic device 1. If the determination result is “YES”, the process proceeds to step S704, and if not, the process ends.

ステップS704では、携帯端末3は、ステップS702で得た状態情報が、音声認識機能の実行状態又は音声入力待ち状態を示すか否かを判定する。判定結果が“YES”の場合、ステップS706に進み、それ以外の場合(すなわち、ステップS702で得た状態情報が、音声認識機能の非作動状態を示す場合)、ステップS708に進む。   In step S704, the mobile terminal 3 determines whether the state information obtained in step S702 indicates the execution state of the voice recognition function or the voice input waiting state. If the determination result is “YES”, the process proceeds to step S706, and if not (that is, the state information obtained in step S702 indicates the non-operation state of the voice recognition function), the process proceeds to step S708.

ステップS706では、携帯端末3は、ヘッドセット2から入力される音声信号の音量を最小化(すなわちミュート)する。   In step S706, the mobile terminal 3 minimizes (that is, mute) the volume of the audio signal input from the headset 2.

ステップS708では、携帯端末3は、ヘッドセット2から入力される音声信号の音量が最小化された状態を解除する。すなわち、携帯端末3は、ヘッドセット2から入力される音声信号の音量を通常値に復帰させる。   In step S708, the mobile terminal 3 cancels the state where the volume of the audio signal input from the headset 2 is minimized. That is, the mobile terminal 3 restores the volume of the audio signal input from the headset 2 to the normal value.

図7に示す処理によれば、音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行すると、ヘッドセット2から入力される音声信号の音量が最小化される。これにより、上述のように、電子機器1の音声認識機能に対するユーザの発話内容(例えば音声検索のための発話内容)が、通話相手に伝わってしまうことを防止できる。また、その後、音声通話中、電子機器1の音声認識機能の状態が実行状態又は音声入力待ち状態から非作動状態に移行すると、ヘッドセット2から入力される音声信号の音量が最小化された状態が解除される。これにより、通常通り、ヘッドセット2から入力される音声信号が通話相手の無線通信装置(図示せず)に送信される状態となる。このようにして、音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態においてのみ、ヘッドセット2から入力される音声信号の音量を最小化することができる。この結果、ヘッドセット2から入力される音声信号が通話相手の無線通信装置(図示せず)に送信されない状態が過剰に長く継続してしまうことを、防止して、ユーザの利便性を高めることができる。   According to the processing shown in FIG. 7, when the state of the voice recognition function of the electronic device 1 shifts from the non-operation state to the execution state or the voice input waiting state during the voice call, the volume of the voice signal input from the headset 2 is changed. Be minimized. As a result, it is possible to prevent the user's utterance content (e.g., utterance content for voice search) for the voice recognition function of the electronic device 1 from being transmitted to the other party as described above. After that, during the voice call, when the state of the voice recognition function of the electronic device 1 shifts from the execution state or the voice input waiting state to the inactive state, the volume of the voice signal input from the headset 2 is minimized. Is released. As a result, the voice signal input from the headset 2 is normally transmitted to the wireless communication device (not shown) of the other party. In this way, during a voice call, the volume of the voice signal input from the headset 2 can be minimized only when the state of the voice recognition function of the electronic device 1 is from the non-operation state to the execution state or the voice input waiting state. it can. As a result, it is possible to prevent the voice signal input from the headset 2 from not being transmitted to the wireless communication device (not shown) of the other party for a long period of time, thereby improving the convenience of the user. You can

ところで、ユーザがヘッドセット2を利用していなければ、基本的には、音声認識機能に対する発話内容がヘッドセット2を介して音声信号として携帯端末3に送信されることや、それに伴い、音声認識機能に対する発話内容が通話相手に伝わってしまうことはない。このため、図6及び図7に示す処理は、上述のように、電子機器1とヘッドセット2との間で通信が確立された状態において実行される。ただし、携帯端末3と電子機器1が比較的近い位置にあると、ヘッドセット2を利用していない場合でも、音声認識機能に対する発話内容がヘッドセット2を介して音声信号として携帯端末3に送信されることや、それに伴い、音声認識機能に対する発話内容が通話相手に伝わってしまうことが生じうる。従って、変形例では、電子機器1とヘッドセット2との間で通信が確立されていない場合でも、図6及び図7に示す処理が実行されてもよい。   By the way, if the user is not using the headset 2, basically, the utterance content for the voice recognition function is transmitted to the mobile terminal 3 as a voice signal via the headset 2, and the voice recognition is accompanied by the transmission. The utterance content for the function is not transmitted to the other party. Therefore, the processes shown in FIGS. 6 and 7 are executed in a state where communication is established between the electronic device 1 and the headset 2 as described above. However, when the mobile terminal 3 and the electronic device 1 are relatively close to each other, the utterance content for the voice recognition function is transmitted to the mobile terminal 3 as a voice signal through the headset 2 even when the headset 2 is not used. And accordingly, the utterance content for the voice recognition function may be transmitted to the other party. Therefore, in the modification, the processes shown in FIGS. 6 and 7 may be executed even when the communication is not established between the electronic device 1 and the headset 2.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。   Although the respective embodiments have been described in detail above, the present invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope of the claims. Further, it is possible to combine all or a plurality of the constituent elements of the above-described embodiments.

例えば、上述した実施例は、2つの物理的に離れた電子機器1と携帯端末3のそれぞれにおける音声機能間の干渉防止に関するものであるが、これに限られない。例えば、電子機器1が、音声認識機能に加えて通話機能を有する場合、電子機器1における当該2つの音声機能(音声認識機能及び通話機能)に対しても適用可能である。この場合も同様に、電子機器1を介した音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行すると、入力部107を介して入力される音声による音声信号について、通話機能での利用が禁止され、音声認識機能での利用だけが許可されてよい。   For example, the above-described embodiment relates to prevention of interference between voice functions of the two electronic devices 1 and the mobile terminal 3 which are physically separated from each other, but is not limited thereto. For example, when the electronic device 1 has a call function in addition to the voice recognition function, it can be applied to the two voice functions (voice recognition function and call function) in the electronic device 1. Also in this case, similarly, during a voice call through the electronic device 1, when the state of the voice recognition function of the electronic device 1 shifts from the inactive state to the execution state or the voice input waiting state, the input is performed via the input unit 107. The voice signal may be prohibited from being used in the call function and may be permitted only in the voice recognition function.

また、上述した実施例では、電子機器1と携帯端末3のそれぞれにおける通話機能と音声認識機能間の干渉防止に関するものであるが、これに限られない。例えば、電子機器1と携帯端末3のそれぞれにおける音声認識機能間の干渉防止にも適用可能である。例えば、電子機器1においては英語による発話用の音声認識機能が実行可能であり、携帯端末3においては日本語による発話用の音声認識機能が実行可能である場合、2つの音声認識機能間で解消が生じうるためである。例えば、ユーザが、電子機器1に対して英語の発話により音声認識機能を実行させた後、携帯端末3において日本語による発話により音声認識機能を実行させて、両者を比較したい場合を想定する。この場合、携帯端末3に対する日本語による発話によって電子機器1の音声認識機能が実行されてしまうと、英語の発話により検索結果が消えてしまい、比較できなくなる不都合が生じる。この点、上述のような実施例を適用すれば、携帯端末3に対する日本語による発話によって電子機器1の音声認識機能が実行されることを防止できるので、かかる不都合を防止できる。   Further, although the above-described embodiment relates to prevention of interference between the call function and the voice recognition function in each of the electronic device 1 and the mobile terminal 3, the invention is not limited to this. For example, it is also applicable to prevent interference between the voice recognition functions of the electronic device 1 and the mobile terminal 3. For example, in the case where the electronic device 1 can execute the voice recognition function for utterance in English and the mobile terminal 3 can execute the voice recognition function for utterance in Japanese, it is solved between the two voice recognition functions. This can occur. For example, it is assumed that the user causes the electronic device 1 to execute the voice recognition function by uttering English and then causes the mobile terminal 3 to execute the voice recognition function by uttering in Japanese to compare the two. In this case, if the voice recognition function of the electronic device 1 is executed by the utterance in Japanese to the mobile terminal 3, the search result disappears due to the utterance in English, and there is an inconvenience that comparison becomes impossible. In this respect, if the above-described embodiment is applied, it is possible to prevent the voice recognition function of the electronic device 1 from being executed by the utterance in Japanese to the mobile terminal 3, so that such an inconvenience can be prevented.

また、上述した実施例では、携帯端末3側で、ヘッドセット2から入力される音声信号の音量を最小化(すなわちミュート)するが、これに限られない。すなわち、ヘッドセット2が携帯端末3に送信する音声信号の音量を最小化してもよいし、音声信号の送信を一時的に禁止してもよい。
また、上述した実施例では、音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行すると、ヘッドセット2から入力される音声信号の音量が最小化され、通話機能が抑制されるが、これに限られない。例えば、音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行するが、音声認識機能に対する発話が検出された後にヘッドセット2から入力される音声信号の音量が最小化されることにより、通話機能が抑制されてもよい。なお、音声認識機能に対する発話は、例えば、所定音量以上のレベルの音声が第1入力部19を介して入力されることによって検出される。
Further, in the above-described embodiment, the volume of the audio signal input from the headset 2 is minimized (that is, muted) on the mobile terminal 3 side, but the present invention is not limited to this. That is, the volume of the audio signal transmitted by the headset 2 to the mobile terminal 3 may be minimized, or the transmission of the audio signal may be temporarily prohibited.
Further, in the above-described embodiment, when the state of the voice recognition function of the electronic device 1 shifts from the non-operation state to the execution state or the voice input waiting state during the voice call, the volume of the voice signal input from the headset 2 becomes the minimum. However, the call function is suppressed, but not limited to this. For example, during a voice call, the state of the voice recognition function of the electronic device 1 shifts from the inactive state to the running state or the voice input waiting state, but the voice input from the headset 2 after the utterance for the voice recognition function is detected. The call function may be suppressed by minimizing the volume of the signal. The utterance for the voice recognition function is detected, for example, by inputting a voice having a level equal to or higher than a predetermined volume through the first input unit 19.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
音声入力手段と、
前記音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行する第2処理手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、前記第2処理手段により前記第2機能が実行される場合に、前記第1機能を抑制する制御手段とを備える、音声処理装置。
<請求項2>
前記制御手段は、前記第1機能を抑制している際に、前記第2機能が停止された場合に、前記第1機能を抑制する制御を解除する、請求項1に記載の音声処理装置。
<請求項3>
前記制御手段は、前記第1機能を抑制している際に、前記第2処理手段を動作させる前記音声入力手段への音声入力が検出されない場合に、前記第1機能を抑制する制御を解除する、請求項1に記載の音声処理装置。
<請求項4>
前記制御手段は、前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、ユーザからの入力操作によって前記第2処理手段による前記第2機能の実行待ち状態である場合に、前記第1機能を抑制する、請求項1〜3のうちのいずれか1項に記載の音声処理装置。
<請求項5>
前記音声入力手段は、互いに異なる第1音声入力手段及び第2音声入力手段を含み、
前記第1処理手段は、前記第1音声入力手段及び前記第2音声入力手段のうちの、前記第1音声入力手段を介して入力される音声に基づいて前記第1機能を実行し、
前記第2処理手段は、前記第1音声入力手段及び前記第2音声入力手段のうちの、前記第2音声入力手段を介して入力される音声に基づいて前記第2機能を実行する、請求項1〜4のうちのいずれか1項に記載の音声処理装置。
<請求項6>
前記第1機能を抑制することは、前記第1音声入力手段を介して入力される音声を遮断すること、前記第1音声入力手段を介して入力される音声の音量を低減すること、又は、前記第1音声入力手段を介して入力される音声を他の機器に送信しないことを含む、請求項5に記載の音声処理装置。
<請求項7>
前記第1音声入力手段は、ヘッドセットマイクである、請求項5又は6に記載の音声処理装置。
<請求項8>
前記第1機能は、音声通話機能である、請求項1〜7のうちのいずれか1項に記載の音声処理装置。
<請求項9>
前記第2機能は、音声検索機能である、請求項1〜8のうちのいずれか1項に記載の音声処理装置。
<請求項10>
音声入力手段を介して入力される音声に基づいて第1機能を実行し、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行し、
前記第1機能を実行させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において前記第2機能を実行する場合に、前記第1機能を抑制することを含む、コンピュータにより実行される方法。
<請求項11>
音声入力手段を介して入力される音声に基づいて第1機能を実行し、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行し、
前記第1機能を実行させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において前記第2機能を実行する場合に、前記第1機能を抑制する
処理をコンピュータに実行させるプログラム。
<請求項12>
音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて前記第1機能とは異なる第2機能を実行する第2処理手段であって、他の機器に設けられる第2処理手段から、前記第2機能の状態を表す状態情報を取得する取得手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能の音声入力待ちの状態において、前記第2機能の実行状態又は前記第2機能の音声入力待ちの状態を表す前記状態情報を前記取得手段が取得した場合に、前記第1機能を抑制する制御手段とを備える、携帯端末。
Hereinafter, the inventions described in the claims attached to the application of this application will be additionally described. The claim numbers listed in the appendices are as set forth in the claims initially attached to the application for this application.
<Claim 1>
Voice input means,
First processing means for executing a first function based on a voice input via the voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means,
The second function is operated by the second processing means in a state in which a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. A voice processing device, comprising: a control unit that suppresses the first function when executed.
<Claim 2>
The audio processing device according to claim 1, wherein the control unit cancels the control for suppressing the first function when the second function is stopped while suppressing the first function.
<Claim 3>
The control means cancels the control for suppressing the first function when the voice input to the voice input means for operating the second processing means is not detected while suppressing the first function. The audio processing device according to claim 1.
<Claim 4>
The control means operates in response to an input operation from a user in a state where a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. The voice processing device according to claim 1, wherein the first function is suppressed when the second processing unit is in a state of waiting for execution of the second function.
<Claim 5>
The voice input unit includes a first voice input unit and a second voice input unit which are different from each other,
The first processing means executes the first function based on a voice input via the first voice input means of the first voice input means and the second voice input means,
The second processing means executes the second function based on a voice input via the second voice input means of the first voice input means and the second voice input means. The voice processing device according to any one of 1 to 4.
<Claim 6>
Suppressing the first function includes blocking a voice input via the first voice input unit, reducing a volume of a voice input via the first voice input unit, or The voice processing apparatus according to claim 5, further comprising: not transmitting a voice input via the first voice input unit to another device.
<Claim 7>
The voice processing device according to claim 5, wherein the first voice input unit is a headset microphone.
<Claim 8>
The voice processing device according to claim 1, wherein the first function is a voice call function.
<Claim 9>
The voice processing device according to claim 1, wherein the second function is a voice search function.
<Claim 10>
Performing the first function based on the voice input through the voice input means,
Performing a second function different from the first function based on the voice input through the voice input unit,
When the second function is executed in a state where a voice input to the voice input unit for executing the first function is detected or in a voice input waiting state for executing the first function, the first function A computer-implemented method that includes suppressing functionality.
<Claim 11>
Performing the first function based on the voice input through the voice input means,
Performing a second function different from the first function based on the voice input through the voice input unit,
When the second function is executed while the voice input to the voice input unit for executing the first function is detected or in the state of waiting for voice input to execute the first function, the first function is executed. A program that causes a computer to execute processing that suppresses functions.
<Claim 12>
First processing means for executing a first function based on a voice input via a voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means, the second processing means being provided in another device, the second processing means Acquisition means for acquiring status information indicating the status of the function,
In a state in which a voice input to the voice input unit for operating the first processing unit is detected or in a state of waiting for a voice input of the first function, an execution state of the second function or a voice input of the second function A mobile terminal, comprising: a control unit that suppresses the first function when the acquisition unit acquires the state information indicating a waiting state.

1 電子機器
2 ヘッドセット
3 携帯端末
11A 第1CPU
11B 第2CPU
14 記憶部
15 RTC部
16 ドライブ
17 タッチパネル
18 第1表示部
19 第1入力部
20 ブルートゥース用アンテナ
21 ブルートゥースモジュール
22 無線LANアンテナ
23 無線LANモジュール
24 第2表示部
25 脈拍センサ
26 地磁気センサ
27 加速度センサ
28 ジャイロセンサ
29 照度センサ
30 第2入力部
31 GPSアンテナ
32 GPSモジュール
41 リムーバブルメディア
107 入力部
108 出力部
301 通話機能実行部
302 状態情報取得部
303 通話機能制御部
1 Electronic Device 2 Headset 3 Mobile Terminal 11A First CPU
11B Second CPU
14 storage unit 15 RTC unit 16 drive 17 touch panel 18 first display unit 19 first input unit 20 Bluetooth antenna 21 Bluetooth module 22 wireless LAN antenna 23 wireless LAN module 24 second display unit 25 pulse sensor 26 geomagnetic sensor 27 acceleration sensor 28 Gyro sensor 29 Illuminance sensor 30 Second input unit 31 GPS antenna 32 GPS module 41 Removable media 107 Input unit 108 Output unit 301 Call function execution unit 302 State information acquisition unit 303 Call function control unit

Claims (12)

音声入力手段と、
前記音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行する第2処理手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、前記第2処理手段により前記第2機能が実行される場合に、前記第1機能を抑制する制御手段とを備える、音声処理装置。
Voice input means,
First processing means for executing a first function based on a voice input via the voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means,
The second function is operated by the second processing means in a state in which a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. A voice processing device, comprising: a control unit that suppresses the first function when executed.
前記制御手段は、前記第1機能を抑制している際に、前記第2機能が停止された場合に、前記第1機能を抑制する制御を解除する、請求項1に記載の音声処理装置。   The audio processing device according to claim 1, wherein the control unit cancels the control for suppressing the first function when the second function is stopped while suppressing the first function. 前記制御手段は、前記第1機能を抑制している際に、前記第2処理手段を動作させる前記音声入力手段への音声入力が検出されない場合に、前記第1機能を抑制する制御を解除する、請求項1に記載の音声処理装置。   The control means cancels the control for suppressing the first function when the voice input to the voice input means for operating the second processing means is not detected while suppressing the first function. The audio processing device according to claim 1. 前記制御手段は、前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、ユーザからの入力操作によって前記第2処理手段による前記第2機能の実行待ち状態である場合に、前記第1機能を抑制する、請求項1〜3のうちのいずれか1項に記載の音声処理装置。   The control means operates in response to an input operation from a user in a state where a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. The voice processing device according to claim 1, wherein the first function is suppressed when the second processing unit is in a state of waiting for execution of the second function. 前記音声入力手段は、互いに異なる第1音声入力手段及び第2音声入力手段を含み、
前記第1処理手段は、前記第1音声入力手段及び前記第2音声入力手段のうちの、前記第1音声入力手段を介して入力される音声に基づいて前記第1機能を実行し、
前記第2処理手段は、前記第1音声入力手段及び前記第2音声入力手段のうちの、前記第2音声入力手段を介して入力される音声に基づいて前記第2機能を実行する、請求項1〜4のうちのいずれか1項に記載の音声処理装置。
The voice input unit includes a first voice input unit and a second voice input unit which are different from each other,
The first processing means executes the first function based on a voice input via the first voice input means of the first voice input means and the second voice input means,
The second processing means executes the second function based on a voice input via the second voice input means of the first voice input means and the second voice input means. The voice processing device according to any one of 1 to 4.
前記第1機能を抑制することは、前記第1音声入力手段を介して入力される音声を遮断すること、前記第1音声入力手段を介して入力される音声の音量を低減すること、又は、前記第1音声入力手段を介して入力される音声を他の機器に送信しないことを含む、請求項5に記載の音声処理装置。   Suppressing the first function includes blocking a voice input via the first voice input unit, reducing a volume of a voice input via the first voice input unit, or The voice processing apparatus according to claim 5, further comprising: not transmitting a voice input via the first voice input unit to another device. 前記第1音声入力手段は、ヘッドセットマイクである、請求項5又は6に記載の音声処理装置。   The voice processing device according to claim 5, wherein the first voice input unit is a headset microphone. 前記第1機能は、音声通話機能である、請求項1〜7のうちのいずれか1項に記載の音声処理装置。   The voice processing device according to claim 1, wherein the first function is a voice call function. 前記第2機能は、音声検索機能である、請求項1〜8のうちのいずれか1項に記載の音声処理装置。   The voice processing device according to claim 1, wherein the second function is a voice search function. 音声入力手段を介して入力される音声に基づいて第1機能を実行し、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行し、
前記第1機能を実行させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において前記第2機能を実行する場合に、前記第1機能を抑制することを含む、コンピュータにより実行される方法。
Performing the first function based on the voice input through the voice input means,
Performing a second function different from the first function based on the voice input through the voice input unit,
When the second function is executed in a state where a voice input to the voice input unit for executing the first function is detected or in a voice input waiting state for executing the first function, the first function A computer-implemented method that includes suppressing functionality.
音声入力手段を介して入力される音声に基づいて第1機能を実行し、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行し、
前記第1機能を実行させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において前記第2機能を実行する場合に、前記第1機能を抑制する
処理をコンピュータに実行させるプログラム。
Performing the first function based on the voice input through the voice input means,
Performing a second function different from the first function based on the voice input through the voice input unit,
When the second function is executed in a state where a voice input to the voice input unit for executing the first function is detected or in a voice input waiting state for executing the first function, the first function A program that causes a computer to execute processing that suppresses functions.
音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて前記第1機能とは異なる第2機能を実行する第2処理手段であって、他の機器に設けられる第2処理手段から、前記第2機能の状態を表す状態情報を取得する取得手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能の音声入力待ちの状態において、前記第2機能の実行状態又は前記第2機能の音声入力待ちの状態を表す前記状態情報を前記取得手段が取得した場合に、前記第1機能を抑制する制御手段とを備える、携帯端末。
First processing means for executing a first function based on a voice input via a voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means, the second processing means being provided in another device, the second processing means Acquisition means for acquiring status information indicating the status of the function,
In a state in which a voice input to the voice input unit for operating the first processing unit is detected or in a state of waiting for a voice input of the first function, an execution state of the second function or a voice input of the second function A mobile terminal, comprising: a control unit that suppresses the first function when the acquisition unit acquires the state information indicating a waiting state.
JP2018195295A 2018-10-16 2018-10-16 Audio processing device, method, program, and mobile terminal Pending JP2020065140A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018195295A JP2020065140A (en) 2018-10-16 2018-10-16 Audio processing device, method, program, and mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018195295A JP2020065140A (en) 2018-10-16 2018-10-16 Audio processing device, method, program, and mobile terminal

Publications (2)

Publication Number Publication Date
JP2020065140A true JP2020065140A (en) 2020-04-23
JP2020065140A5 JP2020065140A5 (en) 2021-11-18

Family

ID=70388404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018195295A Pending JP2020065140A (en) 2018-10-16 2018-10-16 Audio processing device, method, program, and mobile terminal

Country Status (1)

Country Link
JP (1) JP2020065140A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112114A1 (en) * 2021-12-14 2023-06-22 パイオニア株式会社 Communication system, information processing device, information processing method, program, and recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002257574A (en) * 2001-03-01 2002-09-11 Mitsubishi Electric Corp Onboard information device
WO2010070781A1 (en) * 2008-12-16 2010-06-24 三菱電機株式会社 Navigation device
JP2013142903A (en) * 2012-01-09 2013-07-22 Samsung Electronics Co Ltd Video system and method for controlling the same
WO2014103035A1 (en) * 2012-12-28 2014-07-03 株式会社レイトロン Voice recognition device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002257574A (en) * 2001-03-01 2002-09-11 Mitsubishi Electric Corp Onboard information device
WO2010070781A1 (en) * 2008-12-16 2010-06-24 三菱電機株式会社 Navigation device
JP2013142903A (en) * 2012-01-09 2013-07-22 Samsung Electronics Co Ltd Video system and method for controlling the same
WO2014103035A1 (en) * 2012-12-28 2014-07-03 株式会社レイトロン Voice recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112114A1 (en) * 2021-12-14 2023-06-22 パイオニア株式会社 Communication system, information processing device, information processing method, program, and recording medium

Similar Documents

Publication Publication Date Title
US9620126B2 (en) Electronic device, control method, and control program
KR101331346B1 (en) Electronic apparatus
US9232035B2 (en) Electronic device for preventing leakage of received sound
KR102534354B1 (en) System navigation bar display control method, graphical user interface and electronic device
KR20150122561A (en) Devices and Methods of processing an incoming call in the devices
KR102075117B1 (en) User device and operating method thereof
KR20150037066A (en) Display method of electronic apparatus and electronic appparatus thereof
CN106161756B (en) Mobile terminal and control method of mobile terminal
JP2016062615A (en) Mobile terminal and control method therefor
US10054763B2 (en) Optical position sensing with temperature calibration
US20130190057A1 (en) Mobile communication device engaged in a call,
CN110851823B (en) Data access method, device, terminal and storage medium
EP2784442A2 (en) Azimuth correction method and electronic device therefor
CN106302982B (en) Mobile terminal and method for controlling the same
JP2020065140A (en) Audio processing device, method, program, and mobile terminal
CN110266875B (en) Prompt message display method and electronic equipment
KR20150019061A (en) Method for wireless pairing and electronic device thereof
CN113408989B (en) Automobile data comparison method and device and computer storage medium
JP7251589B2 (en) Notification control device, notification control method and notification control program
CN111145723B (en) Method, device, equipment and storage medium for converting audio
KR20140128814A (en) A portable terminal and a method for operating it
JP2019175159A (en) Electronic apparatus, voice input sensitivity control method, and voice input sensitivity control program
JP7468737B2 (en) Electronic device, audio input sensitivity control method, and audio input sensitivity control program
JP2017050632A (en) Electronic apparatus, control method, and control program
KR102120449B1 (en) Method for operating application and electronic device thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207