JP2020065140A - Audio processing device, method, program, and mobile terminal - Google Patents
Audio processing device, method, program, and mobile terminal Download PDFInfo
- Publication number
- JP2020065140A JP2020065140A JP2018195295A JP2018195295A JP2020065140A JP 2020065140 A JP2020065140 A JP 2020065140A JP 2018195295 A JP2018195295 A JP 2018195295A JP 2018195295 A JP2018195295 A JP 2018195295A JP 2020065140 A JP2020065140 A JP 2020065140A
- Authority
- JP
- Japan
- Prior art keywords
- voice input
- function
- voice
- state
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、音声処理装置、方法、プログラム、及び携帯端末に関する。 The present disclosure relates to a voice processing device, a method, a program, and a mobile terminal.
従来、電子機器において、音声通話や音声認識といった音声入力に関する種々の機能が利用されている(例えば、特許文献1参照)。 BACKGROUND ART Conventionally, various functions related to voice input such as voice call and voice recognition have been used in electronic devices (for example, refer to Patent Document 1).
しかしながら、音声入力手段を介して入力される音声に基づいて複数の異なる機能を実行可能な場合、ある一の機能の実行状態等において、別の機能を実行する場合がありうる。かかる場合に、別の機能のための音声入力が当該ある一の機能に影響すると、ユーザの利便性が低下する場合がありうる。 However, when a plurality of different functions can be executed based on the voice input through the voice input unit, another function may be executed in the execution state of a certain function or the like. In such a case, if the voice input for another function affects the certain one function, the convenience of the user may be reduced.
そこで、本発明は、音声入力手段を介して入力される音声に基づいて実行可能な複数の異なる機能を利便性の高い態様で成立させることを目的とする。 Therefore, it is an object of the present invention to establish a plurality of different functions that can be executed based on a voice input via a voice input unit in a highly convenient manner.
上記目的を達成するために、本発明の1つの側面では、音声入力手段と、
前記音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行する第2処理手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、前記第2処理手段により前記第2機能が実行される場合に、前記第1機能を抑制する制御手段とを備える、音声処理装置が提供される。
In order to achieve the above object, in one aspect of the present invention, a voice input means,
First processing means for executing a first function based on a voice input via the voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means,
The second function is operated by the second processing means in a state in which a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. There is provided a voice processing device comprising: a control unit that suppresses the first function when being executed.
1つの側面では、本発明によれば、音声入力手段を介して入力される音声に基づいて実行可能な複数の異なる機能を利便性の高い態様で成立させることが可能となる。 In one aspect, according to the present invention, it is possible to establish a plurality of different functions that can be executed based on a voice input via the voice input unit in a highly convenient manner.
以下、添付図面を参照しながら各実施例について詳細に説明する。 Hereinafter, each embodiment will be described in detail with reference to the accompanying drawings.
図1は、一実施例による電子機器1を含む音声処理装置10の構成を概略的に示す図である。
FIG. 1 is a diagram schematically showing a configuration of a
音声処理装置10は、電子機器1と、ヘッドセット2と、携帯端末3とを含む。以下、ユーザとは、音声処理装置10のユーザを指す。音声処理装置10のユーザは、電子機器1のユーザでもあり、ヘッドセット2のユーザでもあり、携帯端末3のユーザでもある。ただし、電子機器1のユーザと、ヘッドセット2及び携帯端末3のユーザとは、異なる場合があってもよい。
The
電子機器1は、ヘッドセット2及び携帯端末3に対してそれぞれ双方向通信が可能である。この双方向の通信の形態は、例えば無線通信である。
The
ヘッドセット2及び携帯端末3は、互いに双方向通信が可能である。この双方向の通信の形態は、無線通信であってもよいし、有線通信であってもよい。
The
(電子機器)
図2は、一実施例による電子機器1の概略図である。図2に示すように、本実施例の電子機器1は、ウエアラブル端末であり、腕時計型の装置(スマートウォッチ等)として構成されている。なお、変形例では、電子機器1は、ユーザに付帯可能な他の形態であってもよい。
(Electronics)
FIG. 2 is a schematic diagram of the
電子機器1は、第1表示部18及び第2表示部24(後述)を備えており、第1表示部18の上に第2表示部24が積層されている。さらに、第2表示部24の上には、後述するタッチパネル17が設けられている。このため、電子機器1においては、第1表示部18の表示に第2表示部24の表示を重ね合わせて表示することが可能であるとともに、表示内容にタッチ操作することが可能となっている。以下では、電子機器1のユーザは、典型的には、電子機器1を腕に装着して使用する。
The
図3は、電子機器1のハードウェア構成を示すブロック図である。図3に示すように、電子機器1は、CPU(CENTRAL PROCESSING UNIT)11と、ROM(READ ONLY MEMORY)12と、RAM(RANDOM ACCESS MEMORY)13と、記憶部14と、RTC(REAL TIME CLOCK)部15と、ドライブ16と、タッチパネル17と、第1表示部18と、第1入力部19と、ブルートゥース(登録商標)用アンテナ20と、ブルートゥースモジュール21と、無線LAN(LOCAL AREA NETWORK)アンテナ22と、無線LANモジュール23と、第2表示部24と、脈拍センサ25と、地磁気センサ26と、加速度センサ27と、ジャイロセンサ28と、照度センサ29と、第2入力部30と、GPS(GLOBAL POSITIONING SYSTEM)アンテナ31と、GPSモジュール32と、を備えている。
FIG. 3 is a block diagram showing the hardware configuration of the
CPU11は、第1CPU11Aと、第2CPU11Bとによって構成される。第1CPU11Aは、各種演算処理を行い、OS(OPERATING SYSTEM)の処理を実行することにより、電子機器1におけるスマートフォンに類する機能を制御する。本実施例において、第1CPU11Aは、ブルートゥースモジュール21あるいは無線LANモジュール23を介して受信した電子メールの着信や気象情報に関するメッセージ等を第1表示部18に表示させたり、タッチパネル17を介して入力される操作を受け付けたりする。また、第1CPU11Aは、第1入力部19を介して入力される音声を認識したり、その他、スマートフォンに類する機能として実装された各種機能に係る処理を行ったりする。
The
また、本実施例において、第1CPU11Aは、RTC部15から所定タイミングで時刻信号を取得する。
Further, in the present embodiment, the
第2CPU11Bは、特定のプログラムの処理を実行することにより、第2表示部24に対する表示の指示を行ったり、各種センサの検出結果を取得したり、その他、腕時計の機能として実装された各種機能に係る処理を行ったりする。本実施例において、第2CPU11Bは、第1CPU11Aから入力された時刻信号を基準として、時刻を計算したり、時刻、曜日あるいは日付等を第2表示部24に表示させたりする。第2CPU11Bが実行する特定のプログラムの処理(時刻の計算等)は、第1CPU11Aが実行するOSの処理に比べて単純な動作であることから処理負荷が小さく、低消費電力で実行可能である。また、そのため、第2CPU11Bに要求されるハードウェアのスペックは、第1CPU11Aに比べて低いもので足りる。
The
ROM12は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出しが可能であり、第1CPU11A及び第2CPU11Bが実行する種々のプログラムや初期設定データを格納する。例えば、ROM12は、第1CPU11Aが実行するOSのプログラムやOSの管理下で実行される各種プログラム、あるいは、第2CPU11Bが実行する特定のプログラム(ここでは、腕時計の機能を実現する組み込み用プログラム)のプログラムを格納する。
The
RAM13は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出し及び書き込みが可能であり、第1CPU11A及び第2CPU11Bに作業用のメモリ空間を提供し、作業用の一時データを記憶する。例えば、RAM13は、第1CPU11AがOSを実行する際のシステム領域やワークエリアを提供したり、第2CPU11Bが特定のプログラムを実行する際の記憶領域を提供したりする。
The
記憶部14は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出し及び書き込みが可能な不揮発性のメモリであり、例えば、フラッシュメモリやEEPROM(ELECTRICALLY ERASABLE AND PROGRAMMABLE READ ONLY MEMORY)である。記憶部14には、スマートフォンに類する各種機能や腕時計の機能等において生成された各種データ(各種設定内容のデータ等)が記憶される。
The
RTC部15は、時刻信号を生成する。
The
ドライブ16には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア41が適宜装着される。リムーバブルメディア41は、各種センサによって検出されたデータ等の各種データを記憶することができる。
A
タッチパネル17は、第2表示部24の表示画面上に設けられた静電容量方式または抵抗膜式等のタッチパネルである。タッチパネル17は、操作面に対するユーザのタッチ操作位置と操作内容とを検出して当該操作に応じた信号を発生させて、入力信号として第1CPU11Aに出力する。
The
第1表示部18は、有機ELディスプレイ(OLED)によって構成され、第1CPU11Aの制御に従って、各種情報を表示画面に表示する。
The
第1入力部19は、音声を電気信号に変換するマイクを備え、入力された音声(操作のための音声コマンド等)を示す信号を第1CPU11Aに出力する。
The
ブルートゥース用アンテナ20は、ブルートゥースの規格に基づく電磁波を送受信するアンテナであり、例えばモノポールアンテナ等によって構成される。ブルートゥース用アンテナ20は、ブルートゥースモジュール21から入力された無線通信の電気信号を電磁波として送信したり、受信した電磁波を電気信号に変換してブルートゥースモジュール21に出力したりする。
The
ブルートゥースモジュール21は、第1CPU11Aの指示に従って、ブルートゥース用アンテナ20を介して他の装置に信号を送信する。また、ブルートゥースモジュール21は、他の装置から送信された信号を受信し、受信した信号が示す情報を第1CPU11Aに出力する。無線LANアンテナ22は、無線LANモジュール23によって利用される無線通信に対応した周波数の電波を受信可能なアンテナであり、例えばループアンテナやロッドアンテナによって構成される。無線LANアンテナ22は、無線LANモジュール23から入力された無線通信の電気信号を電磁波として送信したり、受信した電磁波を電気信号に変換して無線LANモジュール23に出力したりする。
The
無線LANモジュール23は、第1CPU11Aの指示に従って、無線LANアンテナ22を介して他の装置に信号を送信する。また、無線LANモジュール23は、他の装置から送信された信号を受信し、受信した信号が示す情報を第1CPU11Aに出力する。
The
第2表示部24は、部分的にまたは全体的に光を透過可能なPN(POLYMER NETWORK)液晶ディスプレイから構成され、第2CPU11Bの制御に従って、各種情報を表示画面に表示(ここではセグメント表示)する。
The
本実施例において、第2表示部24であるPN液晶ディスプレイは、例えば、上述した第1表示部18である有機ELディスプレイの表示画面上に積層されている。このPN液晶ディスプレイは、電位が掛けられていない部位では液晶分子が不規則に並び、光を反射するようになっている。つまり、この電位が掛けられていない部位において、PN液晶ディスプレイによる表示がなされることとなる。一方、電位が掛けられた部位では、液晶分子が表示画面に対して垂直に整列するので、光を透過可能となっている。つまり、この電位が掛けられた部位では、上述の有機ELディスプレイからの光を透過可能となるので、当該PN液晶ディスプレイを介して当該有機ELディスプレイによる表示を視認することができる。すなわち、電子機器1の表示領域では、第1表示部18による表示に第2表示部24による表示を重ね合わせた状態で表示することができるようになっている。
In this embodiment, the PN liquid crystal display that is the
脈拍センサ25は、電子機器1の裏面側(ユーザの腕に面する側)に設置され、電子機器1が装着されたユーザの脈拍を検出する。脈拍センサ25は、検出した脈拍を第2CPU11Bに出力する。
The
地磁気センサ26は、地磁気の方向を検出し、検出した地磁気の方向を示す情報を第2CPU11Bに出力する。
The
加速度センサ27は、電子機器1における3軸方向の加速度を検出し、検出した加速度を示す情報を第2CPU11Bに出力する。
The
ジャイロセンサ28は、電子機器1における3軸方向の角速度を検出し、検出した角速度を示す情報を第2CPU11Bに出力する。
The
照度センサ29は、第1表示部18の裏面側の所定箇所に設置され、電子機器1の表示領域における明るさ(照度)を検出し、検出した明るさを示す情報を第2CPU11Bに出力する。
The
第2入力部30は、各種ボタンで構成され、ユーザの指示操作に応じて各種情報を入力する。
The
GPSアンテナ31は、GPSにおける衛星から発信される電波を受信して電気信号に変換し、変換した電気信号(以下、「GPS信号」と称する)をGPSモジュール32に出力する。
The
GPSモジュール32は、GPSアンテナ31から入力されたGPS信号に基づいて、電子機器1の位置(緯度、経度、高度)及びGPSによって示される現在時刻を検出する。また、GPSモジュール32は、検出した位置及び現在時刻を示す情報を第2CPU11Bに出力する。
The
なお、図3に示す構成は、あくまで一例であり、多様な変更が可能である。例えば、電子機器1は第1表示部18と第2表示部24とを備えるものとしたが、それに限らず、電子機器1は第1表示部18のみを備えるものであってもよい。また、表示内容が表示される第1表示部18がOLEDで構成されるが、液晶ディスプレイ等の他の表示手段で構成されてもよい。また、電子機器1のCPU11は第1CPU11Aと第2CPU11Bとからなるものとしたが、それに限らず、CPU11は第1CPU11Aの機能と第2CPU11Bの機能の両方を備える1つのCPUであってもよい。また、無線LANモジュール23、ジャイロセンサ28、照度センサ29、GPSモジュール32等が省略されてもよい。
The configuration shown in FIG. 3 is merely an example, and various changes can be made. For example, although the
本実施例では、以下でも詳説するが、電子機器1は、第1CPU11A(第2処理手段の一例)が、第1入力部19(第2音声入力手段の一例)を介して入力される音声を認識する。なお、音声認識方法自体は広く知られており、任意の音声認識エンジンが使用されてもよい。電子機器1は、音声認識に基づく音声認識機能を実行する。音声認識機能は、例えば音声入力による検索機能である。例えば、電子機器1は、音声入力待ち状態において、ユーザが「〇〇」と発呼すれば、「〇〇」に関連するウェブサイト等を探索し表示する。電子機器1は、音声認識機能の状態を表す状態情報を、ブルートゥースモジュール21を介して携帯端末3に送信する。
In the present embodiment, as will be described in detail below, in the
本実施例では、一例として、状態情報は、音声認識機能の実行状態、音声入力待ち状態、又は非作動状態のいずれかを表す。音声認識機能の実行状態とは、第1CPU11Aが音声認識処理を実行している状態であり、音声の入力中や、入力された音声の認識中を含む。音声入力待ち状態は、音声が入力されると直ちに第1CPU11Aが音声認識処理を開始できる状態(音声認識機能の実行待ち状態)である。音声入力待ち状態は、非作動状態において、ユーザからの入力操作によって移行される。例えば、音声入力待ち状態は、非作動状態において、ユーザが所定操作を行った場合や、所定の発話(例えば「OK、〇〇」といった発話)を行った場合等に、移行されてよい。また、音声入力待ち状態は、音声認識機能の実行状態が終了すると形成(移行)されてよい。すなわち、音声入力待ち状態は、音声認識機能の実行状態と音声認識機能の実行状態との間に形成されてよい。非作動状態は、音声が入力されたとしても第1CPU11Aが音声認識処理を実行しえない状態(音声認識機能が停止した状態)である。例えば、音声認識機能が実行状態又は音声入力待ち状態であるときには、第1表示部18等には、音声認識機能用の画面が出力される。この場合、音声認識機能用の画面が他の画面に遷移すると、音声認識機能の状態が実行状態又は音声入力待ち状態から非作動状態に移行したことになる。
In the present embodiment, as an example, the state information represents one of a voice recognition function execution state, a voice input waiting state, and a non-operation state. The execution state of the voice recognition function is a state in which the
(ヘッドセット)
ヘッドセット2は、ユーザの頭に装着される。ヘッドセット2は、ヘッドセットマイク(図示せず)を有し、ヘッドセット2を装着したユーザの発話に応じた音声信号を携帯端末3に送信する。例えば、ヘッドセット2は、ブルートゥースモジュール(図示せず)を備え、ブルートゥース通信により携帯端末3に音声信号を送信する。
(headset)
The
ヘッドセット2は、携帯端末3と協動して、ユーザによる音声通話を可能とする。すなわち、ユーザは、携帯端末3のマイクやスピーカの代わりに、携帯端末3に接続されるヘッドセット2のマイクやスピーカを介して、携帯端末3での音声通話を行うことができる。
The
(携帯端末)
携帯端末3は、任意の電子機器であり、例えばスマートフォンやタブレット、ゲーム機のような携帯可能な端末であってもよい。変形例では、携帯端末3は、携帯型でなくてよく、例えばパーソナルコンピュータのような固定の端末であってもよい。本実施例では、一例として、携帯端末3は、通話機能と、ブルートゥースモジュールによる通信機能とを有する。
(Mobile device)
The
図4は、携帯端末3の処理装置100のハードウェア構成の一例を示す図である。
FIG. 4 is a diagram illustrating an example of a hardware configuration of the
図4に示す例では、処理装置100は、制御部101、主記憶部102、補助記憶部103、ドライブ装置104、ネットワークI/F部106、入力部107、及び出力部108を含む。
In the example illustrated in FIG. 4, the
制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力部107や記憶装置からデータを受け取り、演算、加工した上で、記憶装置などに出力する。
The
主記憶部102は、ROM(READ ONLY MEMORY)やRAM(RANDOM ACCESS MEMORY)などである。主記憶部102は、制御部101が実行する基本ソフトウェアであるOS(OPERATING SYSTEM)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
The
補助記憶部103は、HDD(HARD DISK DRIVE)やSSD(SOLID STATE DRIVE)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
The
ドライブ装置104は、記録媒体105、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。
The
記録媒体105は、所定のプログラムを格納する。この記録媒体105に格納されたプログラムは、ドライブ装置104を介して処理装置100にインストールされる。インストールされた所定のプログラムは、処理装置100により実行可能となる。
The
ネットワークI/F部106は、有線及び/又は無線回線などのデータ伝送路により構築されたネットワークを介して接続された通信機能を有する周辺機器と処理装置100とのインターフェースである。
The network I /
入力部107は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、マウスやタッチパッド等を有する。入力部107は、また、音声通話用等のマイクを含む。
The
出力部108は、音声通話用等のスピーカを含む。
The
なお、図4に示す例において、以下で説明する各種処理等は、プログラムを処理装置100に実行させることで実現することができる。また、プログラムを記録媒体105に記録し、このプログラムが記録された記録媒体105を処理装置100に読み取らせて、以下で説明する各種処理等を実現させることも可能である。なお、記録媒体105は、様々なタイプの記録媒体を用いることができる。例えば、記録媒体105は、CD(COMPACT DISC)−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等であってよい。
In the example illustrated in FIG. 4, various processes described below can be realized by causing the
図5は、携帯端末3の処理装置100の機能構成の一例を示す図である。
FIG. 5 is a diagram illustrating an example of a functional configuration of the
携帯端末3の処理装置100は、通話機能実行部301(第1処理手段の一例)と、状態情報取得部302(取得手段の一例)と、通話機能制御部303(制御手段の一例)とを含む。通話機能実行部301、状態情報取得部302、及び通話機能制御部303は、図4の制御部101が記憶装置(例えば図4の主記憶部102)内の1つ以上のプログラムを実行することで実現できる。
The
通話機能実行部301は、携帯端末3における通話機能を実行する。例えば、通話機能実行部301は、着信や発呼に応じて通話機能を開始する。通話機能実行部301は、通話機能の実行中、入力部107又はヘッドセット2を介して入力される音声信号(ユーザの発話に応じた音声信号)を、通話相手に係る無線通信装置(図示せず)に送信するとともに、通話相手に係る無線通信装置からの音声信号を、出力部108を介して出力する。なお、通話機能実行部301は、ハンズフリー機能として、携帯端末3に接続された他の機器(例えば車載機器等)を介して、通話機能を実行してもよい。なお、通話機能は広く知られており、ここではこれ以上詳細に説明しない。
The call
状態情報取得部302は、電子機器1から状態情報を取得する。状態情報取得部302は、電子機器1のブルートゥースモジュール21との通信を介して状態情報を取得してよい。状態情報は、上述のように、電子機器1の音声認識機能の状態を表し、具体的には、音声認識機能の実行状態、音声入力待ち状態、又は非作動状態のいずれかを表す。
The status
通話機能制御部303は、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が実行状態又は音声入力待ち状態を表す状態情報を状態情報取得部302が取得した場合に、通話機能実行部301による通話機能を抑制する。すなわち、通話機能制御部303は、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が実行状態又は音声入力待ち状態である場合は、通話機能実行部301による通話機能を抑制する。なお、変形例では、通話機能制御部303は、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が実行状態である場合は、通話機能実行部301による通話機能を抑制するが、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が音声入力待ち状態である場合は、通話機能実行部301による通話機能を抑制しない又は抑制度合いを小さくすることとしてもよい。
通話機能の実行状態とは、通話機能の作動状態と実質的に同義であり、音声入力中や、音声入力待ち状態を含む。なお、音声入力中とは、当該音声入力に係る音声信号を相手側に送信する処理の実行中を含む概念である。なお、変形例では、通話機能の実行状態のうちの、音声入力中のみ、電子機器1の音声認識機能が実行状態又は音声入力待ち状態であることに起因して通話機能実行部301による通話機能を抑制することとしてもよい。
通話機能の抑制とは、通常的な通話機能に対して何らかの機能の抑制がある限り任意である。ただし、通話機能の抑制は、好ましくは、通話相手との通話自体を維持しつつ、通話相手に係る無線通信装置(図示せず)への音声信号の送信を抑制することである。この場合、通話機能の抑制中は、通話相手には、携帯端末3側での音声(携帯端末3のユーザの発話等)が聞こえないか又は聞こえ難くなる。これにより、電子機器1の音声認識機能に対するユーザの発話内容(例えば音声検索のための発話内容)が、通話相手に伝わってしまうことを防止できる。
The call
The execution state of the call function is substantially synonymous with the operation state of the call function, and includes a voice inputting state and a voice input waiting state. It should be noted that “during voice input” is a concept including execution of a process of transmitting a voice signal related to the voice input to the other party. In the modification, the call
The suppression of the call function is arbitrary as long as there is some function suppression to the normal call function. However, the suppression of the call function is preferably to suppress the transmission of the voice signal to the wireless communication device (not shown) related to the call partner while maintaining the call itself with the call partner. In this case, while the call function is being suppressed, the other party of the call does not hear or is hard to hear the voice (the utterance of the user of the mobile terminal 3) on the
本実施例では、一例として、通話機能の抑制は、ヘッドセット2から入力される音声信号の音量を最小化(すなわちミュート)することにより実現される。この場合、簡易な音量調整処理によって通話機能の抑制を実現できる。なお、変形例では、通話機能の抑制は、ヘッドセット2との接続の切断(一時的な切断)により実現されてもよいし、ヘッドセット2から入力される音声信号を加工することにより実現されてもよいし、ヘッドセット2から入力される音声信号に代えて所定の保留音の信号を、通話相手に係る無線通信装置(図示せず)に送信することにより実現されてもよい。
In the present embodiment, as an example, the suppression of the call function is realized by minimizing (that is, muting) the volume of the audio signal input from the
このように、本実施例によれば、通話機能実行部301による通話機能の実行状態において、電子機器1の音声認識機能が実行状態又は音声入力待ち状態である場合は、通話機能実行部301による通話機能が抑制されるので、電子機器1の音声認識機能に対するユーザの発話内容が、通話相手に伝わってしまうことを防止できる。
As described above, according to the present embodiment, when the voice recognition function of the
例えば、ユーザが音声通話中に音声認識による検索機能を用いる場合、検索のためのユーザの発声が音声通話機能の方に(ヘッドセット2を介して)拾われてしまい、音声通話が阻害されてしまうというおそれがある。この点、本実施例によれば、かかる不都合を防止できる。すなわち、ユーザは、わざわざヘッドセット2を外したり、音声通話を切断したりすることなく、音声通話中に、通話相手に発話内容(及びそれの基づく検索内容)が伝わらない態様で電子機器1の音声認識機能を利用できる。
For example, when the user uses the search function by voice recognition during a voice call, the user's utterance for the search is picked up by the voice call function (via the headset 2), and the voice call is disturbed. There is a risk that it will end up. In this respect, according to the present embodiment, such inconvenience can be prevented. That is, the user does not have to bother to take off the
このようにして、本実施例によれば、ヘッドセット2及び第1入力部19を介して入力される音声に基づいて実行可能な複数の異なる機能(すなわち携帯端末3の通話機能と電子機器1の音声認識機能)を利便性の高い態様で成立させることが可能となる。
In this way, according to this embodiment, a plurality of different functions that can be executed based on the voice input via the
(動作例)
次に、音声処理装置10の動作例について、図6以降の概略フローチャートを参照して説明する。以降の処理フロー図(フローチャート)においては、各ステップの入力と出力の関係を損なわない限り、各ステップの処理順序を入れ替えてもよい。
(Operation example)
Next, an operation example of the
図6は、電子機器1により実行される処理の一例を示す概略フローチャートである。図6に示す処理は、携帯端末3と電子機器1との間で通信(ブルートゥースモジュール21による通信)が確立され、かつ、電子機器1とヘッドセット2との間で同様に通信が確立された状態において実行される。
FIG. 6 is a schematic flowchart showing an example of processing executed by the
ステップS600では、電子機器1は、音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行したか否かを判定する。判定結果が“YES”の場合(すなわち音声認識機能の状態が非作動状態から実行状態に移行した場合、又は、音声認識機能の状態が非作動状態から音声入力待ち状態に移行した場合)、ステップS602に進み、それ以外の場合は、ステップS604に進む。
In step S600, the
ステップS602では、電子機器1は、状態情報(移行後の実行状態又は音声入力待ち状態を表す)を携帯端末3に送信する。
In step S602, the
ステップS604では、電子機器1は、音声認識機能の状態が実行状態又は音声入力待ち状態から非作動状態に移行したか否かを判定する。判定結果が“YES”の場合(すなわち音声認識機能の状態が実行状態から非作動状態に移行した場合、又は、音声認識機能の状態が音声入力待ち状態から非作動状態に移行した場合)、ステップS606に進み、それ以外の場合は、そのまま終了する。
In step S604, the
ステップS606では、電子機器1は、状態情報(移行後の非作動状態を表す)を携帯端末3に送信する。
In step S606, the
図6に示す処理によれば、電子機器1は、音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行した場合と、音声認識機能の状態が実行状態又は音声入力待ち状態から非作動状態に移行した場合に、移行後の状態を示す状態情報を携帯端末3に送信できる。これにより、状態情報を所定周期ごとに携帯端末3に送信する場合に比べて、通信負荷を低減できる。ただし、変形例では、電子機器1は、状態情報を所定周期ごとに携帯端末3に送信してもよい。
According to the process shown in FIG. 6, the
図7は、図6に示す処理に関連して携帯端末3により実行される処理の一例を示す概略フローチャートである。
FIG. 7 is a schematic flowchart showing an example of processing executed by the
ステップS700では、携帯端末3は、音声通話中であるか否かを判定する。判定結果が“YES”の場合、ステップS702に進み、それ以外の場合は、そのまま終了する。
In step S700, the
ステップS702では、携帯端末3は、状態情報を電子機器1から受信したか否かを判定する。判定結果が“YES”の場合、ステップS704に進み、それ以外の場合は、そのまま終了する。
In step S702, the
ステップS704では、携帯端末3は、ステップS702で得た状態情報が、音声認識機能の実行状態又は音声入力待ち状態を示すか否かを判定する。判定結果が“YES”の場合、ステップS706に進み、それ以外の場合(すなわち、ステップS702で得た状態情報が、音声認識機能の非作動状態を示す場合)、ステップS708に進む。
In step S704, the
ステップS706では、携帯端末3は、ヘッドセット2から入力される音声信号の音量を最小化(すなわちミュート)する。
In step S706, the
ステップS708では、携帯端末3は、ヘッドセット2から入力される音声信号の音量が最小化された状態を解除する。すなわち、携帯端末3は、ヘッドセット2から入力される音声信号の音量を通常値に復帰させる。
In step S708, the
図7に示す処理によれば、音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行すると、ヘッドセット2から入力される音声信号の音量が最小化される。これにより、上述のように、電子機器1の音声認識機能に対するユーザの発話内容(例えば音声検索のための発話内容)が、通話相手に伝わってしまうことを防止できる。また、その後、音声通話中、電子機器1の音声認識機能の状態が実行状態又は音声入力待ち状態から非作動状態に移行すると、ヘッドセット2から入力される音声信号の音量が最小化された状態が解除される。これにより、通常通り、ヘッドセット2から入力される音声信号が通話相手の無線通信装置(図示せず)に送信される状態となる。このようにして、音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態においてのみ、ヘッドセット2から入力される音声信号の音量を最小化することができる。この結果、ヘッドセット2から入力される音声信号が通話相手の無線通信装置(図示せず)に送信されない状態が過剰に長く継続してしまうことを、防止して、ユーザの利便性を高めることができる。
According to the processing shown in FIG. 7, when the state of the voice recognition function of the
ところで、ユーザがヘッドセット2を利用していなければ、基本的には、音声認識機能に対する発話内容がヘッドセット2を介して音声信号として携帯端末3に送信されることや、それに伴い、音声認識機能に対する発話内容が通話相手に伝わってしまうことはない。このため、図6及び図7に示す処理は、上述のように、電子機器1とヘッドセット2との間で通信が確立された状態において実行される。ただし、携帯端末3と電子機器1が比較的近い位置にあると、ヘッドセット2を利用していない場合でも、音声認識機能に対する発話内容がヘッドセット2を介して音声信号として携帯端末3に送信されることや、それに伴い、音声認識機能に対する発話内容が通話相手に伝わってしまうことが生じうる。従って、変形例では、電子機器1とヘッドセット2との間で通信が確立されていない場合でも、図6及び図7に示す処理が実行されてもよい。
By the way, if the user is not using the
以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。 Although the respective embodiments have been described in detail above, the present invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope of the claims. Further, it is possible to combine all or a plurality of the constituent elements of the above-described embodiments.
例えば、上述した実施例は、2つの物理的に離れた電子機器1と携帯端末3のそれぞれにおける音声機能間の干渉防止に関するものであるが、これに限られない。例えば、電子機器1が、音声認識機能に加えて通話機能を有する場合、電子機器1における当該2つの音声機能(音声認識機能及び通話機能)に対しても適用可能である。この場合も同様に、電子機器1を介した音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行すると、入力部107を介して入力される音声による音声信号について、通話機能での利用が禁止され、音声認識機能での利用だけが許可されてよい。
For example, the above-described embodiment relates to prevention of interference between voice functions of the two
また、上述した実施例では、電子機器1と携帯端末3のそれぞれにおける通話機能と音声認識機能間の干渉防止に関するものであるが、これに限られない。例えば、電子機器1と携帯端末3のそれぞれにおける音声認識機能間の干渉防止にも適用可能である。例えば、電子機器1においては英語による発話用の音声認識機能が実行可能であり、携帯端末3においては日本語による発話用の音声認識機能が実行可能である場合、2つの音声認識機能間で解消が生じうるためである。例えば、ユーザが、電子機器1に対して英語の発話により音声認識機能を実行させた後、携帯端末3において日本語による発話により音声認識機能を実行させて、両者を比較したい場合を想定する。この場合、携帯端末3に対する日本語による発話によって電子機器1の音声認識機能が実行されてしまうと、英語の発話により検索結果が消えてしまい、比較できなくなる不都合が生じる。この点、上述のような実施例を適用すれば、携帯端末3に対する日本語による発話によって電子機器1の音声認識機能が実行されることを防止できるので、かかる不都合を防止できる。
Further, although the above-described embodiment relates to prevention of interference between the call function and the voice recognition function in each of the
また、上述した実施例では、携帯端末3側で、ヘッドセット2から入力される音声信号の音量を最小化(すなわちミュート)するが、これに限られない。すなわち、ヘッドセット2が携帯端末3に送信する音声信号の音量を最小化してもよいし、音声信号の送信を一時的に禁止してもよい。
また、上述した実施例では、音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行すると、ヘッドセット2から入力される音声信号の音量が最小化され、通話機能が抑制されるが、これに限られない。例えば、音声通話中、電子機器1の音声認識機能の状態が非作動状態から実行状態又は音声入力待ち状態に移行するが、音声認識機能に対する発話が検出された後にヘッドセット2から入力される音声信号の音量が最小化されることにより、通話機能が抑制されてもよい。なお、音声認識機能に対する発話は、例えば、所定音量以上のレベルの音声が第1入力部19を介して入力されることによって検出される。
Further, in the above-described embodiment, the volume of the audio signal input from the
Further, in the above-described embodiment, when the state of the voice recognition function of the
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
音声入力手段と、
前記音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行する第2処理手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、前記第2処理手段により前記第2機能が実行される場合に、前記第1機能を抑制する制御手段とを備える、音声処理装置。
<請求項2>
前記制御手段は、前記第1機能を抑制している際に、前記第2機能が停止された場合に、前記第1機能を抑制する制御を解除する、請求項1に記載の音声処理装置。
<請求項3>
前記制御手段は、前記第1機能を抑制している際に、前記第2処理手段を動作させる前記音声入力手段への音声入力が検出されない場合に、前記第1機能を抑制する制御を解除する、請求項1に記載の音声処理装置。
<請求項4>
前記制御手段は、前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、ユーザからの入力操作によって前記第2処理手段による前記第2機能の実行待ち状態である場合に、前記第1機能を抑制する、請求項1〜3のうちのいずれか1項に記載の音声処理装置。
<請求項5>
前記音声入力手段は、互いに異なる第1音声入力手段及び第2音声入力手段を含み、
前記第1処理手段は、前記第1音声入力手段及び前記第2音声入力手段のうちの、前記第1音声入力手段を介して入力される音声に基づいて前記第1機能を実行し、
前記第2処理手段は、前記第1音声入力手段及び前記第2音声入力手段のうちの、前記第2音声入力手段を介して入力される音声に基づいて前記第2機能を実行する、請求項1〜4のうちのいずれか1項に記載の音声処理装置。
<請求項6>
前記第1機能を抑制することは、前記第1音声入力手段を介して入力される音声を遮断すること、前記第1音声入力手段を介して入力される音声の音量を低減すること、又は、前記第1音声入力手段を介して入力される音声を他の機器に送信しないことを含む、請求項5に記載の音声処理装置。
<請求項7>
前記第1音声入力手段は、ヘッドセットマイクである、請求項5又は6に記載の音声処理装置。
<請求項8>
前記第1機能は、音声通話機能である、請求項1〜7のうちのいずれか1項に記載の音声処理装置。
<請求項9>
前記第2機能は、音声検索機能である、請求項1〜8のうちのいずれか1項に記載の音声処理装置。
<請求項10>
音声入力手段を介して入力される音声に基づいて第1機能を実行し、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行し、
前記第1機能を実行させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において前記第2機能を実行する場合に、前記第1機能を抑制することを含む、コンピュータにより実行される方法。
<請求項11>
音声入力手段を介して入力される音声に基づいて第1機能を実行し、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行し、
前記第1機能を実行させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において前記第2機能を実行する場合に、前記第1機能を抑制する
処理をコンピュータに実行させるプログラム。
<請求項12>
音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて前記第1機能とは異なる第2機能を実行する第2処理手段であって、他の機器に設けられる第2処理手段から、前記第2機能の状態を表す状態情報を取得する取得手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能の音声入力待ちの状態において、前記第2機能の実行状態又は前記第2機能の音声入力待ちの状態を表す前記状態情報を前記取得手段が取得した場合に、前記第1機能を抑制する制御手段とを備える、携帯端末。
Hereinafter, the inventions described in the claims attached to the application of this application will be additionally described. The claim numbers listed in the appendices are as set forth in the claims initially attached to the application for this application.
<Claim 1>
Voice input means,
First processing means for executing a first function based on a voice input via the voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means,
The second function is operated by the second processing means in a state in which a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. A voice processing device, comprising: a control unit that suppresses the first function when executed.
<Claim 2>
The audio processing device according to
<Claim 3>
The control means cancels the control for suppressing the first function when the voice input to the voice input means for operating the second processing means is not detected while suppressing the first function. The audio processing device according to
<Claim 4>
The control means operates in response to an input operation from a user in a state where a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. The voice processing device according to
<Claim 5>
The voice input unit includes a first voice input unit and a second voice input unit which are different from each other,
The first processing means executes the first function based on a voice input via the first voice input means of the first voice input means and the second voice input means,
The second processing means executes the second function based on a voice input via the second voice input means of the first voice input means and the second voice input means. The voice processing device according to any one of 1 to 4.
<Claim 6>
Suppressing the first function includes blocking a voice input via the first voice input unit, reducing a volume of a voice input via the first voice input unit, or The voice processing apparatus according to claim 5, further comprising: not transmitting a voice input via the first voice input unit to another device.
<Claim 7>
The voice processing device according to claim 5, wherein the first voice input unit is a headset microphone.
<Claim 8>
The voice processing device according to
<Claim 9>
The voice processing device according to
<Claim 10>
Performing the first function based on the voice input through the voice input means,
Performing a second function different from the first function based on the voice input through the voice input unit,
When the second function is executed in a state where a voice input to the voice input unit for executing the first function is detected or in a voice input waiting state for executing the first function, the first function A computer-implemented method that includes suppressing functionality.
<Claim 11>
Performing the first function based on the voice input through the voice input means,
Performing a second function different from the first function based on the voice input through the voice input unit,
When the second function is executed while the voice input to the voice input unit for executing the first function is detected or in the state of waiting for voice input to execute the first function, the first function is executed. A program that causes a computer to execute processing that suppresses functions.
<Claim 12>
First processing means for executing a first function based on a voice input via a voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means, the second processing means being provided in another device, the second processing means Acquisition means for acquiring status information indicating the status of the function,
In a state in which a voice input to the voice input unit for operating the first processing unit is detected or in a state of waiting for a voice input of the first function, an execution state of the second function or a voice input of the second function A mobile terminal, comprising: a control unit that suppresses the first function when the acquisition unit acquires the state information indicating a waiting state.
1 電子機器
2 ヘッドセット
3 携帯端末
11A 第1CPU
11B 第2CPU
14 記憶部
15 RTC部
16 ドライブ
17 タッチパネル
18 第1表示部
19 第1入力部
20 ブルートゥース用アンテナ
21 ブルートゥースモジュール
22 無線LANアンテナ
23 無線LANモジュール
24 第2表示部
25 脈拍センサ
26 地磁気センサ
27 加速度センサ
28 ジャイロセンサ
29 照度センサ
30 第2入力部
31 GPSアンテナ
32 GPSモジュール
41 リムーバブルメディア
107 入力部
108 出力部
301 通話機能実行部
302 状態情報取得部
303 通話機能制御部
1
11B Second CPU
14
Claims (12)
前記音声入力手段を介して入力される音声に基づいて第1機能を実行する第1処理手段と、
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行する第2処理手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において、前記第2処理手段により前記第2機能が実行される場合に、前記第1機能を抑制する制御手段とを備える、音声処理装置。 Voice input means,
First processing means for executing a first function based on a voice input via the voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means,
The second function is operated by the second processing means in a state in which a voice input to the voice input means for operating the first processing means is detected or in a voice input waiting state for executing the first function. A voice processing device, comprising: a control unit that suppresses the first function when executed.
前記第1処理手段は、前記第1音声入力手段及び前記第2音声入力手段のうちの、前記第1音声入力手段を介して入力される音声に基づいて前記第1機能を実行し、
前記第2処理手段は、前記第1音声入力手段及び前記第2音声入力手段のうちの、前記第2音声入力手段を介して入力される音声に基づいて前記第2機能を実行する、請求項1〜4のうちのいずれか1項に記載の音声処理装置。 The voice input unit includes a first voice input unit and a second voice input unit which are different from each other,
The first processing means executes the first function based on a voice input via the first voice input means of the first voice input means and the second voice input means,
The second processing means executes the second function based on a voice input via the second voice input means of the first voice input means and the second voice input means. The voice processing device according to any one of 1 to 4.
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行し、
前記第1機能を実行させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において前記第2機能を実行する場合に、前記第1機能を抑制することを含む、コンピュータにより実行される方法。 Performing the first function based on the voice input through the voice input means,
Performing a second function different from the first function based on the voice input through the voice input unit,
When the second function is executed in a state where a voice input to the voice input unit for executing the first function is detected or in a voice input waiting state for executing the first function, the first function A computer-implemented method that includes suppressing functionality.
前記音声入力手段を介して入力される音声に基づいて、前記第1機能とは異なる第2機能を実行し、
前記第1機能を実行させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能を実行するための音声入力待ちの状態において前記第2機能を実行する場合に、前記第1機能を抑制する
処理をコンピュータに実行させるプログラム。 Performing the first function based on the voice input through the voice input means,
Performing a second function different from the first function based on the voice input through the voice input unit,
When the second function is executed in a state where a voice input to the voice input unit for executing the first function is detected or in a voice input waiting state for executing the first function, the first function A program that causes a computer to execute processing that suppresses functions.
前記音声入力手段を介して入力される音声に基づいて前記第1機能とは異なる第2機能を実行する第2処理手段であって、他の機器に設けられる第2処理手段から、前記第2機能の状態を表す状態情報を取得する取得手段と、
前記第1処理手段を動作させる前記音声入力手段への音声入力が検出されている状態又は前記第1機能の音声入力待ちの状態において、前記第2機能の実行状態又は前記第2機能の音声入力待ちの状態を表す前記状態情報を前記取得手段が取得した場合に、前記第1機能を抑制する制御手段とを備える、携帯端末。 First processing means for executing a first function based on a voice input via a voice input means,
Second processing means for executing a second function different from the first function based on a voice input via the voice input means, the second processing means being provided in another device, the second processing means Acquisition means for acquiring status information indicating the status of the function,
In a state in which a voice input to the voice input unit for operating the first processing unit is detected or in a state of waiting for a voice input of the first function, an execution state of the second function or a voice input of the second function A mobile terminal, comprising: a control unit that suppresses the first function when the acquisition unit acquires the state information indicating a waiting state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195295A JP2020065140A (en) | 2018-10-16 | 2018-10-16 | Audio processing device, method, program, and mobile terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195295A JP2020065140A (en) | 2018-10-16 | 2018-10-16 | Audio processing device, method, program, and mobile terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020065140A true JP2020065140A (en) | 2020-04-23 |
JP2020065140A5 JP2020065140A5 (en) | 2021-11-18 |
Family
ID=70388404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018195295A Pending JP2020065140A (en) | 2018-10-16 | 2018-10-16 | Audio processing device, method, program, and mobile terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020065140A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023112114A1 (en) * | 2021-12-14 | 2023-06-22 | パイオニア株式会社 | Communication system, information processing device, information processing method, program, and recording medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002257574A (en) * | 2001-03-01 | 2002-09-11 | Mitsubishi Electric Corp | Onboard information device |
WO2010070781A1 (en) * | 2008-12-16 | 2010-06-24 | 三菱電機株式会社 | Navigation device |
JP2013142903A (en) * | 2012-01-09 | 2013-07-22 | Samsung Electronics Co Ltd | Video system and method for controlling the same |
WO2014103035A1 (en) * | 2012-12-28 | 2014-07-03 | 株式会社レイトロン | Voice recognition device |
-
2018
- 2018-10-16 JP JP2018195295A patent/JP2020065140A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002257574A (en) * | 2001-03-01 | 2002-09-11 | Mitsubishi Electric Corp | Onboard information device |
WO2010070781A1 (en) * | 2008-12-16 | 2010-06-24 | 三菱電機株式会社 | Navigation device |
JP2013142903A (en) * | 2012-01-09 | 2013-07-22 | Samsung Electronics Co Ltd | Video system and method for controlling the same |
WO2014103035A1 (en) * | 2012-12-28 | 2014-07-03 | 株式会社レイトロン | Voice recognition device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023112114A1 (en) * | 2021-12-14 | 2023-06-22 | パイオニア株式会社 | Communication system, information processing device, information processing method, program, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9620126B2 (en) | Electronic device, control method, and control program | |
KR101331346B1 (en) | Electronic apparatus | |
US9232035B2 (en) | Electronic device for preventing leakage of received sound | |
KR102534354B1 (en) | System navigation bar display control method, graphical user interface and electronic device | |
KR20150122561A (en) | Devices and Methods of processing an incoming call in the devices | |
KR102075117B1 (en) | User device and operating method thereof | |
KR20150037066A (en) | Display method of electronic apparatus and electronic appparatus thereof | |
CN106161756B (en) | Mobile terminal and control method of mobile terminal | |
JP2016062615A (en) | Mobile terminal and control method therefor | |
US10054763B2 (en) | Optical position sensing with temperature calibration | |
US20130190057A1 (en) | Mobile communication device engaged in a call, | |
CN110851823B (en) | Data access method, device, terminal and storage medium | |
EP2784442A2 (en) | Azimuth correction method and electronic device therefor | |
CN106302982B (en) | Mobile terminal and method for controlling the same | |
JP2020065140A (en) | Audio processing device, method, program, and mobile terminal | |
CN110266875B (en) | Prompt message display method and electronic equipment | |
KR20150019061A (en) | Method for wireless pairing and electronic device thereof | |
CN113408989B (en) | Automobile data comparison method and device and computer storage medium | |
JP7251589B2 (en) | Notification control device, notification control method and notification control program | |
CN111145723B (en) | Method, device, equipment and storage medium for converting audio | |
KR20140128814A (en) | A portable terminal and a method for operating it | |
JP2019175159A (en) | Electronic apparatus, voice input sensitivity control method, and voice input sensitivity control program | |
JP7468737B2 (en) | Electronic device, audio input sensitivity control method, and audio input sensitivity control program | |
JP2017050632A (en) | Electronic apparatus, control method, and control program | |
KR102120449B1 (en) | Method for operating application and electronic device thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221007 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230207 |