JP2010130223A - Voice activation system and voice activation method - Google Patents
Voice activation system and voice activation method Download PDFInfo
- Publication number
- JP2010130223A JP2010130223A JP2008301496A JP2008301496A JP2010130223A JP 2010130223 A JP2010130223 A JP 2010130223A JP 2008301496 A JP2008301496 A JP 2008301496A JP 2008301496 A JP2008301496 A JP 2008301496A JP 2010130223 A JP2010130223 A JP 2010130223A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- terminal device
- voice recognition
- unit
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、車載装置を用いて携帯端末装置の音声操作を行う音声操作システムおよび音声操作方法に関し、特に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる音声操作システムおよび音声操作方法に関する。 The present invention relates to a voice operation system and a voice operation method for performing voice operation of a mobile terminal device using an in-vehicle device, and in particular, a driver who is driving can safely perform voice operation of the mobile terminal device, and passengers The present invention also relates to a voice operation system and a voice operation method that can easily perform voice operation on a predetermined portable terminal device.
GPS(Global Positioning System)を利用したカーナビゲーションシステムの普及に伴い、車両には、ナビゲーション機能を有する車載装置が搭載される場合が多くなってきた。同時に、運転中のドライバーが安全に操作できることも必要不可欠となってきている。 With the spread of car navigation systems using GPS (Global Positioning System), in-vehicle devices having a navigation function are often mounted on vehicles. At the same time, it is indispensable that the driving driver can operate safely.
たとえば、音声でナビゲーション機能の操作ができるように、入力された音声を認識し、文字データに変換する音声認識エンジンを搭載する車載装置もあるが、車載装置の高価格化を招くため、ユーザにとって好ましいものではない。 For example, there is an in-vehicle device equipped with a speech recognition engine that recognizes input speech and converts it into character data so that the navigation function can be operated by speech. It is not preferable.
一方、携帯電話などの携帯端末装置は、低価格でありながら、音声認識エンジンを搭載するものや、ナビゲーション機能を搭載するものも普及してきている。また、ブルートゥース(登録商標)などの近距離無線通信機能を搭載する携帯端末装置も普及してきている。 On the other hand, portable terminal devices such as mobile phones are becoming inexpensive, and those equipped with a speech recognition engine and those equipped with a navigation function have become widespread. In addition, portable terminal devices equipped with a short-range wireless communication function such as Bluetooth (registered trademark) have also become widespread.
これらのことから、かかる近距離無線通信機能で携帯端末装置と車載装置とを連携させ、携帯端末装置側の機能を車載装置側で利用する取り組みもなされている。これにより、車載装置の低価格化を図ることが可能となる。 For these reasons, efforts have been made to link the mobile terminal device and the vehicle-mounted device with such a short-range wireless communication function and to use the function on the mobile terminal device side on the vehicle-mounted device side. This makes it possible to reduce the price of the in-vehicle device.
たとえば、特許文献1には、携帯端末装置の画面に表示される表示画面を車載装置へ送信し、車載装置のディスプレイに対して携帯端末装置で生成された表示画面を表示する技術が開示されている。
For example,
しかしながら、特許文献1の連携システムでは、車載装置の操作画面を用いて携帯端末装置を遠隔操作しようとするものであるが、携帯端末装置を音声操作できないという問題があった。
However, in the linkage system of
たとえば、車載装置に音声認識エンジンが搭載されておらず、ドライバーの携帯端末装置には音声認識エンジンが搭載されている場合について、説明する。 For example, a case where a voice recognition engine is not mounted on an in-vehicle device and a voice recognition engine is mounted on a driver's mobile terminal device will be described.
この場合、ドライバーは、運転中に携帯端末装置を操作することが法律で禁じられていることから、携帯端末装置に触れることができない。このため、車載装置から携帯端末装置の音声認識エンジンを利用することは不可能である。 In this case, since the driver is prohibited by law from operating the portable terminal device during driving, the driver cannot touch the portable terminal device. For this reason, it is impossible to use the speech recognition engine of the mobile terminal device from the in-vehicle device.
また、ドライバーの携帯端末装置にナビゲーション機能が搭載されていて、同乗者の携帯端末装置にはナビゲーション機能が搭載されていない場合に、同乗者が、ドライバーの携帯端末装置を操作して、ナビゲーション機能を利用してもよい。 In addition, when the driver's mobile terminal device has a navigation function and the passenger's mobile terminal device does not have a navigation function, the passenger operates the driver's mobile terminal device to operate the navigation function. May be used.
しかし、携帯端末装置にはアドレス帳、発着信履歴やメール及びその履歴などの個人のプライバシーに関する情報を有するので、所有者以外が操作するのは、好ましいものではない。 However, since the mobile terminal device has information on personal privacy such as an address book, outgoing / incoming call history, mail, and the history thereof, it is not preferable that it is operated by a person other than the owner.
これらのことから、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーでも安全に音声操作することができるとともに、同乗者の携帯端末装置からでも、ドライバーの携帯端末装置に搭載するアプリケーションを操作することができる音声操作システムおよび音声操作方法をいかにして実現するかが大きな課題となっている。 For these reasons, when operating a mobile terminal device using an in-vehicle device, a driver who is driving can safely perform a voice operation, and even from a passenger's mobile terminal device, the driver's mobile terminal device can be operated. How to realize a voice operation system and a voice operation method capable of operating an installed application has become a major issue.
この発明は、上述した従来技術による問題点を解消するためになされたものであり、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる音声操作システムおよび音声操作方法を提供することを目的とする。 The present invention has been made to solve the above-described problems caused by the prior art, and when operating a mobile terminal device using an in-vehicle device, a voice driver of the mobile terminal device can safely operate even when the driver is driving. It is an object of the present invention to provide a voice operation system and a voice operation method in which a passenger can easily voice-operate a predetermined portable terminal device.
上述した課題を解決し、目的を達成するため、本発明は、車載装置を用いて携帯端末装置の音声操作を行う音声操作システムであって、利用者が発する音声を入力する音声入力手段と、前記音声を音声認識する音声認識手段と、前記音声認識手段による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行手段とを備え、前記車載装置は、前記音声入力手段、前記音声認識手段ならびに前記コマンド実行手段が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶手段と、前記振分情報に基づいて前記音声入力手段からの出力を前記音声認識手段へ、前記音声認識手段からの出力を前記コマンド実行手段へ、それぞれ振り分ける振分手段とを備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention is a voice operation system that performs voice operation of a mobile terminal device using an in-vehicle device, and a voice input unit that inputs voice uttered by a user; Voice recognition means for recognizing the voice, and command execution means for executing the operation command after converting a voice recognition result by the voice recognition means into an operation command, the in-vehicle device includes the voice input means, Based on the distribution information, distribution information storage means for storing distribution information associated with a device identifier for identifying the device, whether the voice recognition unit and the command execution unit exist in the device. Distribution means for distributing the output from the voice input means to the voice recognition means, and the output from the voice recognition means to the command execution means. And features.
本発明によれば、利用者が発する音声を入力し、入力した音声を音声認識し、音声認識した音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行する。車載装置は、音声入力手段、音声認識手段ならびにコマンド実行手段が装置内に存在するか否かを、装置を識別する装置識別子と対応付けた振分情報を記憶し、振分情報に基づいて音声入力手段からの出力を音声認識手段へ、音声認識手段からの出力をコマンド実行手段へ、それぞれ振り分けることができる音声操作システムおよび音声操作方法を提供することができるという効果を奏する。 According to the present invention, a voice uttered by a user is input, the input voice is voice-recognized, and the voice recognition result obtained by voice recognition is converted into an operation command, and then the operation command is executed. The in-vehicle device stores distribution information in which whether or not the voice input unit, the voice recognition unit, and the command execution unit are present in the device is associated with a device identifier for identifying the device, and the voice is based on the distribution information. There is an effect that it is possible to provide a voice operation system and a voice operation method that can distribute the output from the input means to the voice recognition means and the output from the voice recognition means to the command execution means.
以下に添付図面を参照して、本発明にかかる音声操作システムおよび音声操作方法の好適な実施例を詳細に説明する。なお、以下では、自動車に搭載されるDA(display Audio)と呼ばれる車載装置と、携帯端末装置とが、近距離無線通信機能で連携する音声操作システムについて説明することとする。 Exemplary embodiments of a voice operation system and a voice operation method according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, a voice operation system in which an in-vehicle device called DA (display Audio) mounted on a vehicle and a mobile terminal device cooperate with each other by a short-range wireless communication function will be described.
ここで、DAとは、表示機能やオーディオ再生機能、携帯端末装置との通信機能といった基礎的な機能のみを実装し、携帯端末装置と連携することで多機能化する車載装置のことを指す。 Here, DA refers to an in-vehicle device that is mounted with only basic functions such as a display function, an audio playback function, and a communication function with a mobile terminal device, and becomes multi-functional by cooperating with the mobile terminal device.
また、以下では、本発明にかかる音声操作システムの概要について図1を用いて説明した後に、本発明にかかる音声操作システムについての実施例を図2〜図16を用いて説明することとする。 In the following, an outline of the voice operation system according to the present invention will be described with reference to FIG. 1, and then an embodiment of the voice operation system according to the present invention will be described with reference to FIGS. 2 to 16.
携帯端末装置と車載装置とを連携させる従来の操作システムでは、ドライバーの携帯端末装置にナビゲーション機能が搭載されていても、自身の携帯端末装置を操作することができなかった。 In a conventional operation system in which a portable terminal device and an in-vehicle device are linked, even if the driver's portable terminal device is equipped with a navigation function, the user's own portable terminal device cannot be operated.
そこで、今回の本発明にかかる音声操作装置および音声操作システムでは、音声操作によって携帯端末装置に搭載されたナビゲーション機能などのアプリケーション(以下、単に「アプリケーション」と記載する)を操作する。 Therefore, in the voice operation device and the voice operation system according to the present invention, an application (hereinafter simply referred to as “application”) such as a navigation function installed in the mobile terminal device is operated by voice operation.
図1は、本実施例にかかる音声操作システムの概要を示す図である。同図上部の表に示すように、車載装置は、音声認識エンジンならびにアプリケーションが装置内に存在するか否かおよび結果出力表示先を指定する情報等を、装置を識別する装置識別子と対応付けて振分情報として記憶している。 FIG. 1 is a diagram illustrating an outline of a voice operation system according to the present embodiment. As shown in the table at the top of the figure, the in-vehicle device associates the voice recognition engine and whether or not the application exists in the device and the information specifying the result output display destination with the device identifier for identifying the device. It is stored as distribution information.
この場合、音声認識エンジンは、装置識別子が「333」である装置に搭載されており、ナビゲーション機能のアプリケーションは、装置識別子が「222」である装置に搭載されており、音声認識結果は、装置識別子が「111」である装置に出力するように設定されている場合について説明する。 In this case, the voice recognition engine is mounted on a device whose device identifier is “333”, and the application of the navigation function is mounted on a device whose device identifier is “222”. A case will be described in which the setting is made to output to a device whose identifier is “111”.
たとえば、装置識別子が「222」と割り当てられた同乗者の携帯端末Aのマイクから、同乗者が「目的地 自宅」というコマンドを発した場合(同図の(1)参照)、装置識別子が「111」と割り当てられたDAに入力音声データが送信される。 For example, when the passenger issues a command “destination home” from the microphone of the portable terminal A of the passenger assigned with the device identifier “222” (see (1) in FIG. 5), the device identifier is “ The input voice data is transmitted to the DA assigned “111”.
そして、DAは、音声認識エンジンがどの装置に存在するかの振分情報に基づいて、入力音声データを送信する。この場合、装置識別子が「333」と割り当てられたドライバーの携帯端末Bに入力音声データを送信する(同図の(2)参照)。 Then, the DA transmits the input voice data based on the distribution information indicating in which device the voice recognition engine is present. In this case, the input voice data is transmitted to the portable terminal B of the driver assigned with the device identifier “333” (see (2) in the figure).
携帯端末Bに搭載された音声認識エンジンは、受信した入力音声データを音声認識して(同図の(3)参照)、「目的地 自宅」という文字列に変換した音声認識結果をDAに送信する(同図の(4)参照)。 The voice recognition engine installed in the portable terminal B recognizes the received input voice data (see (3) in the figure), and sends the voice recognition result converted to the character string “destination home” to the DA. (Refer to (4) in the figure).
一方、音声認識結果を受信したDAは、振分情報の結果出力表示先の装置情報に基づいて、音声認識結果を表示する。この場合、DAのディスプレイに音声認識結果「目的地 自宅」というコマンド文字列を表示する(同図の(5)参照)。 On the other hand, the DA that has received the voice recognition result displays the voice recognition result based on the device information of the result output display destination of the distribution information. In this case, the command character string “Destination Home” is displayed on the DA display (see (5) in the figure).
そして、同乗者は、表示された音声認識結果に対して、再び携帯端末Aのマイクから応答を行う。この場合、音声認識結果が正しかったので、同乗者は「OK」と発して、応答を行う(同図の(6)参照)。 Then, the passenger responds to the displayed voice recognition result again from the microphone of the portable terminal A. In this case, since the voice recognition result is correct, the passenger issues “OK” and responds (see (6) in FIG. 6).
その後、入力音声データはDAに送信され、DAでは、上述した(2)〜(4)までの音声認識処理と同様に、「OK」の入力音声データを、携帯端末Bに搭載された音声認識エンジンによって文字列に変換し、携帯端末Bは、音声認識結果をDAに送信する。 Thereafter, the input voice data is transmitted to the DA, and the DA recognizes the input voice data of “OK” as the voice recognition mounted on the portable terminal B in the same manner as the voice recognition processes (2) to (4) described above. The character is converted into a character string by the engine, and the portable terminal B transmits the voice recognition result to DA.
そして、DAは、アプリケーションがどの装置に存在するかの振分情報に基づいて、コマンド文字列を送信する。この場合、携帯端末Aにアプリケーションが存在するので、DAは、携帯端末Aにコマンド文字列を送信する。 Then, the DA transmits a command character string based on distribution information indicating in which device the application exists. In this case, since the application exists in the mobile terminal A, the DA transmits a command character string to the mobile terminal A.
一方、携帯端末Aでは、受信したコマンド文字列「目的地 自宅」に基づいて、目的地が「自宅」である、地図の表示や経路案内を行うなどの処理を実行する(同図の(7)参照)。 On the other hand, in the portable terminal A, processing such as displaying a map or performing route guidance, where the destination is “home”, based on the received command character string “destination home” is executed ((7 in the figure)). )reference).
なお、ここでは、音声入力を同乗者の携帯端末Aのマイクから行うようにしたが、DAに搭載されたマイクを、ハンズフリーのマイクに接続して、ドライバーがコマンドを発してもよい。 Here, voice input is performed from the microphone of the passenger's portable terminal A. However, the driver may issue a command by connecting a microphone mounted on the DA to a hands-free microphone.
このように、音声認識エンジンおよびアプリケーションが、いずれかの携帯端末装置に存在する場合に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる。 As described above, when the voice recognition engine and the application exist in any one of the portable terminal devices, the driver can safely operate the voice of the portable terminal device, and the passenger can also perform the predetermined portable terminal. The device can be easily operated by voice.
次に、図2を用いて、本実施例にかかる音声操作システムの装置構成について説明する。図2は、本実施例にかかる音声操作システムの装置構成パターンを示す図である。 Next, the apparatus configuration of the voice operation system according to the present embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an apparatus configuration pattern of the voice operation system according to the present embodiment.
実施例1では、同図の(A)に示すように、車両には、マイク、スピーカーおよびアプリケーションを搭載した携帯端末装置と音声認識エンジンを搭載した携帯端末装置とが存在し、それぞれDAと通信処理ができる装置構成の場合を説明する。 In the first embodiment, as shown in FIG. 5A, the vehicle includes a portable terminal device equipped with a microphone, a speaker, and an application, and a portable terminal device equipped with a voice recognition engine, each communicating with DA. A case of an apparatus configuration capable of processing will be described.
実施例2では、同図の(B)に示すように、車両には、マイク、ディスプレイを搭載した携帯端末装置と、音声認識エンジンを搭載した携帯端末装置と、アプリケーションを搭載した携帯端末装置とが存在し、それぞれDAと通信処理ができる装置構成の場合を説明する。 In the second embodiment, as shown in FIG. 5B, the vehicle includes a portable terminal device equipped with a microphone and a display, a portable terminal device equipped with a voice recognition engine, and a portable terminal device equipped with an application. In the following, a case will be described in which there is a device configuration capable of communicating with DA.
実施例3では、同図の(C)に示すように、車両には、アプリケーションおよび音声認識エンジンを搭載した携帯端末装置が存在し、マイクおよびタッチパネルディスプレイを搭載したDAと通信処理ができる装置構成の場合を説明する。 In Example 3, as shown in (C) of the figure, the vehicle has a portable terminal device equipped with an application and a voice recognition engine, and can perform communication processing with a DA equipped with a microphone and a touch panel display. The case of will be described.
以下では、本発明にかかる音声操作システムおよび音声操作方法の実施例1について図3〜図8を用いて詳細に説明する。図3は、実施例1にかかる音声操作システムの構成を示すブロック図である。同図に示すように、音声操作システムは、車載装置10と、携帯端末装置20と、携帯端末装置30とを含んでいる。
Hereinafter, a first embodiment of the voice operation system and the voice operation method according to the present invention will be described in detail with reference to FIGS. FIG. 3 is a block diagram of the configuration of the voice operation system according to the first embodiment. As shown in FIG. 1, the voice operation system includes an in-
まず、車載装置10の構成について説明する。同図に示すように、車載装置10は、近距離通信部11と、記憶部12と、制御部13とを備えている。また、記憶部12は、振分情報12aをさらに備えており、制御部13は、受信部13aと、振分部13bとをさらに備えている。
First, the configuration of the in-
近距離通信部11は、ブルートゥース(登録商標)などの近距離無線通信を用いて携帯端末装置20および携帯端末装置30との通信リンクをそれぞれ確立するとともに、確立した各通信リンクを用いて車載装置10/各携帯端末装置間の通信処理を行う。
The short-range communication unit 11 establishes communication links with the mobile
ここで、ブルートゥース(Bluetooth:登録商標)とは、2.4GHzの周波数帯を用いて半径数10m程度の無線通信を行う近距離無線通信規格であり、近年では、携帯電話やパーソナルコンピュータなどの電子機器に広く適用されている。 Here, Bluetooth (registered trademark) is a short-range wireless communication standard for performing wireless communication with a radius of about 10 m using a 2.4 GHz frequency band. In recent years, electronic devices such as mobile phones and personal computers are used. Widely applied to equipment.
なお、実施例1では、ブルートゥース(登録商標)を用いて車載装置10/各携帯端末装置間の通信を行う場合について説明するが、Wi−Fi(ワイファイ:登録商標)、ZigBee(ジグビー:登録商標)といった他の無線通信規格を用いることとしてもよい。また、車載装置10/各携帯端末装置間の通信を有線通信で行うこととしてもよい。
In addition, although Example 1 demonstrates the case where communication between in-
記憶部12は、不揮発性RAM(Random Access Memory)や、HDD(Hard Disk Drive)等で構成される記憶部であり、振分情報12aを記憶する。
The
振分情報12aは、音声認識エンジンならびにアプリケーションが装置内に存在するか否か、音声入力元装置および音声認識結果出力先装置を指定する情報を、装置を識別する装置識別子と対応付けられた情報であり、記憶部12へ蓄積される。
The
記憶部12に蓄積された振分情報12aは、DAのディスプレイ等から設定の変更を行うことができる。なお、振分情報12aの詳細な項目の説明については、図4を用いて、後述することとする。
The
受信部13aは、近距離通信部11経由で携帯端末装置20および携帯端末装置30から入力音声データおよび音声認識結果データを受信し、受信した各種データを、振分部13bへ渡す処理を行う処理部である。
The receiving
振分部13bは、受信部13aから各種データを受信し、受信したデータを、振分情報12aに基づいて、近距離通信部11経由で携帯端末装置20および携帯端末装置30へ送信する処理を行う処理部である。
The
次に、携帯端末装置20の構成について説明する。同図に示すように、携帯端末装置20は、車載装置10との通信を行う近距離通信部21と、マイク22と、スピーカー23と、操作コマンド情報24と、音声入力部25と、音声出力部26と、アプリケーション27とを備えている。
Next, the configuration of the mobile
なお、実際の携帯端末装置20では、図示した機能部以外の機能部(例えば、操作部、表示部など)を有するが、図3では、実施例1にかかる携帯端末装置20の特徴を説明するために必要な構成要素のみを抜粋している。
Note that the actual mobile
近距離通信部21は、車載装置10の近距離通信部11と同様に、ブルートゥース(登録商標)などの近距離無線通信を用いて車載装置10との通信リンクを確立するとともに、確立した通信リンクを用いて携帯端末装置20/車載装置10間の通信処理を行う。
The short-
マイク22は、音声を電気信号に変換する機器であり、変換した電気信号を音声データとして音声入力部25へ渡す。スピーカー23は、音声出力部26からの電気信号である音声データを物理振動に変えて、音として再生する機器である。
The microphone 22 is a device that converts sound into an electric signal, and passes the converted electric signal to the sound input unit 25 as sound data. The
操作コマンド情報24は、アプリケーション27が実行可能な形式に変換されたコマンド(以下、「操作コマンド」と記載する)毎に、操作コマンドに対応付けられたコマンド文字列および操作コマンドの実行制限を設定しておく情報が、不揮発性RAM等に記憶される。操作コマンド情報24については、図5を用いて、後述することとする。 The operation command information 24 sets a command character string associated with an operation command and an execution limit of the operation command for each command converted into a format executable by the application 27 (hereinafter referred to as “operation command”). Information to be stored is stored in a nonvolatile RAM or the like. The operation command information 24 will be described later with reference to FIG.
音声入力部25は、マイク22からの入力音声データを近距離通信部21へ渡す処理を行う処理部である。音声出力部26は、近距離通信部21経由で受信した音声データをスピーカー23へ渡す処理を行う処理部である。
The voice input unit 25 is a processing unit that performs processing to pass input voice data from the microphone 22 to the short-
アプリケーション27は、携帯端末装置20上で動作するアプリケーションである。ここで、アプリケーションとしては、GPS(Global Positioning System)アンテナを用いた現在位置を取得し、現在位置と地図情報を重ねあわせて目的地までの経路案内を行うナビアプリや、楽曲などの音楽を再生する音楽再生アプリなどがある。
The
アプリケーション27では、近距離通信部21経由で受信したコマンド文字列に基づいて、携帯端末装置20上で動作するために、装置内部で処理が実行可能な操作コマンドに変換して、変換したコマンドおよび操作コマンド情報24に基づいて、処理を実行する。
In the
つづいて、携帯端末装置30の構成について説明する。同図に示すように、携帯端末装置30は、車載装置10との通信を行う近距離通信部31と、音声認識部32と、結果生成部33とを備えている。
Next, the configuration of the mobile
なお、実際の携帯端末装置30では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図3では、実施例1にかかる携帯端末装置30の特徴を説明するために必要な構成要素のみを抜粋している。
Note that the actual mobile
近距離通信部31は、近距離通信部21と同様であるので、ここでは説明を省略する。音声認識部32は、近距離通信部31経由で受信した入力音声データのノイズ除去等、解析しやすい音声データに調整してから、人間の話す音声言語を解析し、文字列データとして取り出す(以下、「音声認識する」と記載する)処理処理を行う処理部である。
The short-
結果生成部33は、音声認識部32で認識した音声認識結果を、結果表示用に画像データまたは結果音声出力用に音声データに変換する処理を行う処理部である。 The result generation unit 33 is a processing unit that performs processing to convert the speech recognition result recognized by the speech recognition unit 32 into image data for result display or speech data for result speech output.
なお、本発明請求項記載の車載装置は車載装置10、携帯端末装置は携帯端末装置20および携帯端末装置30、音声入力手段はマイク22および音声入力部25、音声認識手段は音声認識部32、コマンド実行手段はアプリケーション27、振分手段は振分部13bに相当するものである。
The in-vehicle device according to the present invention is the in-
次に、振分情報12aについて、図4を用いて、詳細に説明する。図4は、振分情報を示す図である。同図に示すように、振分情報12aは、装置識別子毎に、「音声認識」項目、「アプリケーション」項目、「入力優先順位」項目、「出力表示」項目および「出力音声」項目の情報を含んでいて、DAのディスプレイに表示をして、設定の変更を行うことができる。
Next, the
装置識別子は、装置を識別する装置識別子であり、DAが、通信処理を行う各装置を認識した際に、所定の装置識別子を割り当てる。「音声認識」項目は、音声認識エンジンが装置内に存在するか否かを示す情報である。 The device identifier is a device identifier for identifying a device, and assigns a predetermined device identifier when the DA recognizes each device that performs communication processing. The “voice recognition” item is information indicating whether or not a voice recognition engine exists in the apparatus.
「アプリケーション」項目は、アプリケーションが装置内に存在するか否かを示す情報である。「入力優先順位」項目は、各装置から同時に音声を発せられた場合、どの装置の音声を優先で処理するかを、DAが判定する為の情報である。 The “application” item is information indicating whether an application exists in the apparatus. The “input priority” item is information used by the DA to determine which device's sound is to be processed with priority when sound is simultaneously emitted from each device.
たとえば、装置識別子「222」および装置識別子「444」である装置から、同時に音声が発せられた場合、装置識別子「222」の「入力優先順位」は「1」であり、また、装置識別子「444」の「入力優先順位」は「3」であることから、DAは、優先順位の高い装置識別子「222」の装置からの音声に対して処理を行うこととする。 For example, when sound is simultaneously emitted from the devices having the device identifier “222” and the device identifier “444”, the “input priority” of the device identifier “222” is “1”, and the device identifier “444”. Since “input priority” of “3” is “3”, the DA performs processing on the voice from the device with the device identifier “222” having a higher priority.
「出力表示」項目は、音声認識結果を表示する装置の設定を行う。たとえば、音声入力された装置がいずれであっても、装置識別子「111」である装置のディスプレイに表示しようとする場合、装置識別子「111」の「出力表示」項目に「a」と設定する。 In the “output display” item, a device for displaying the voice recognition result is set. For example, in order to display on the display of the device having the device identifier “111” regardless of the device to which voice is input, “a” is set in the “output display” item of the device identifier “111”.
また、音声入力された携帯端末装置のディスプレイに表示しようとする場合には、所定の携帯端末装置の「出力表示」項目に「b」と設定しておくと、「b」と設定された携帯端末装置の中から、音声入力された携帯端末装置のディスプレイに表示する。 In addition, when displaying on the display of the mobile terminal device that has been voice-input, if “b” is set in the “output display” item of the predetermined mobile terminal device, the mobile phone set as “b” It displays on the display of the portable terminal device into which the voice was inputted from among the terminal devices.
さらに、指定したすべての携帯端末装置のディスプレイに表示しようとする場合には、所定の携帯端末装置の「出力表示」項目に「c」と設定しておくと、「c」と設定された携帯端末装置すべてのディスプレイに表示する。 Furthermore, when displaying on the display of all the specified portable terminal devices, if “c” is set in the “output display” item of the predetermined portable terminal device, the portable device set to “c” is set. Display on the display of all terminal devices.
「出力音声」項目は、音声認識結果を音声によって出力する装置の設定を行う。これも、「出力表示」項目と同様で、音声入力された装置がいずれであっても、音声認識結果を音声出力する端末には、「出力音声」項目に「a」を設定する。 The “output voice” item sets a device that outputs a voice recognition result by voice. This is the same as the “output display” item, and “a” is set in the “output voice” item for a terminal that outputs the voice recognition result by voice regardless of the device to which the voice is input.
また、音声入力された携帯端末装置に音声出力しようとする場合、所定の携帯端末装置の「出力音声」項目に「b」と設定し、指定したすべての携帯端末装置に音声出力しようとする場合、所定の携帯端末装置の「出力音声」項目に「c」と設定する。 Also, when trying to output sound to a mobile terminal device that has been input by voice, setting “b” in the “output audio” item of a predetermined mobile terminal device and attempting to output sound to all specified mobile terminal devices Then, “c” is set in the “output voice” item of the predetermined portable terminal device.
ここでは、「出力表示」項目および「出力音声」項目の設定を、「a」、「b」および「c」としたが、他の文字や数値等で表現することとしてもよい。 Here, the “output display” item and the “output audio” item are set to “a”, “b”, and “c”, but may be expressed by other characters, numerical values, or the like.
また、この振分情報12aは、DAのディスプレイに表示して設定の変更を行えるようにしたが、DAが、振分情報12aを所定の携帯端末装置に送信して、受信した携帯端末装置で、設定の変更を行えるようにしてもよい。
The
次に、操作コマンド情報24について、図5を用いて、詳細に説明する。図5は、操作コマンド変更画面を示す図である。同図の表に示すように、操作コマンド情報24は、操作コマンド毎に、「文字列」項目、「使用」項目の情報を含んでいる。 Next, the operation command information 24 will be described in detail with reference to FIG. FIG. 5 is a diagram showing an operation command change screen. As shown in the table of the figure, the operation command information 24 includes information on a “character string” item and a “use” item for each operation command.
「文字列」項目は、操作コマンドに対応付けられた、コマンド文字列である。「文字列」項目のコマンド文字列を音声入力すると、対応する操作コマンドがアプリケーション27で実行される。
The “character string” item is a command character string associated with the operation command. When the command character string of the “character string” item is input by voice, the corresponding operation command is executed by the
「使用」項目は、コマンドの操作制限を設定しておく情報であり、操作コマンドが音声操作によって実行してもよいか否かを設定しておく。たとえば、「コマンド:30」の「音楽 再生」を「使用不可」(ここでは「×」)に設定しておくと、「音楽 再生」と音声入力された場合には、「音楽 再生」に対応する操作は実行されない。 The “use” item is information for setting a command operation limit, and sets whether or not the operation command may be executed by voice operation. For example, if “music playback” of “command: 30” is set to “unusable” (“×” in this case), “music playback” is supported when “music playback” is input. The operation to be performed is not executed.
アプリケーション27が搭載されている携帯端末装置20には、たとえば、同図下部に示すように、「追加」ボタン、「更新」ボタンおよび「終了」ボタンを備えた操作コマンドの設定画面によって、操作コマンドを設定することができる。
For example, as shown in the lower part of the figure, the mobile
「追加」ボタンが押下されると、操作コマンド情報24に新規に操作コマンドを登録することができる。また、「更新」ボタンが押下されると、操作コマンド情報24を変更した後、操作コマンドを更新することができる。 When the “Add” button is pressed, a new operation command can be registered in the operation command information 24. When the “update” button is pressed, the operation command can be updated after the operation command information 24 is changed.
具体的には、同図に示すように、「コマンド:10」のコマンド文字列は「OK」に設定されているが、「実行」または「はい」等の他のコマンド文字列に変更することによって、「実行」または「はい」と音声入力することで、「コマンド:10」が実行される。 Specifically, as shown in the figure, the command character string “command: 10” is set to “OK”, but it should be changed to another command character string such as “execute” or “yes”. , “Command: 10” is executed by voice input of “execute” or “yes”.
「終了」ボタンが押下されると、操作コマンドの設定処理を終了する。なお、携帯端末装置20の出荷時に、あらかじめアプリケーションで使用される共通の操作コマンドを初期設定しておくこととしてもよい。
When the “Finish” button is pressed, the operation command setting process is terminated. Note that, at the time of shipment of the mobile
ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報12aの設定状態を、図6に示す。図6は、実施例1にかかる振分情報を示す図である。
Here, FIG. 6 shows the setting state of the
この場合、車載装置10は、装置識別子「111」に割り当てられ、同乗者の携帯端末を携帯端末装置20とすると、装置識別子「222」に割り当てられ、ドライバーの携帯端末を携帯端末装置30とすると、装置識別子「333」に割り当てられているものとする。
In this case, if the in-
音声認識エンジンは、携帯端末装置30に搭載されており、アプリケーションは携帯端末装置20に搭載されている。「入力優先順位」は、携帯端末装置20が「1」、車載装置10が「2」と設定されているものとする。また、音声認識結果は、携帯端末装置20から、音声によって出力するよう設定されているものとして、以下を説明する。
The voice recognition engine is mounted on the mobile
まず、音声操作システムが行う操作コマンド入力処理手順について、図7を用いて説明する。図7は、実施例1にかかる操作コマンド入力処理手順を示すシーケンス図である。 First, an operation command input processing procedure performed by the voice operation system will be described with reference to FIG. FIG. 7 is a sequence diagram of the operation command input processing procedure according to the first embodiment.
車載装置10では、まず、図示しない車載装置10に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。
In the in-
同図に示すように、同乗者が、携帯端末装置20から、コマンド文字列を音声入力すると(ステップS101)、携帯端末装置20は、近距離通信部21を経由して、入力音声データを車載装置10へ送る。
As shown in the figure, when a passenger inputs a command character string by voice from the portable terminal device 20 (step S101), the portable
そして、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置30と判定し(ステップS102)、近距離通信部11を経由して、入力音声データをステップS102で判定した携帯端末装置30へ送る。
Then, the allocating
一方、携帯端末装置30の音声認識部32は、受信した入力音声データを、音声認識して(ステップS103)、コマンド文字列に変換し、さらに、結果生成部33では、音声出力用にコマンド文字列の音声データを生成して(ステップS104)、近距離通信部31を経由して、音声データおよびコマンド文字列を車載装置10に送る。
On the other hand, the voice recognition unit 32 of the portable
その後、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識結果の出力先装置およびアプリケーションの搭載されている装置を共に携帯端末装置20と判定し(ステップS105)、近距離通信部11を経由して、音声データおよびコマンド文字列を携帯端末装置20に送る。
Thereafter, the
そして、携帯端末装置20は、受信した音声データをスピーカー23によって出力し(ステップS106)、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS107)。
Then, the mobile
図7の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図8を用いて説明する。図8は、実施例1にかかる結果確認処理手順を示すシーケンス図である。 A result confirmation processing procedure performed by the voice operation system following the processing procedure of FIG. 7 will be described with reference to FIG. FIG. 8 is a sequence diagram of the result confirmation processing procedure according to the first embodiment.
同図に示すように、同乗者が、携帯端末装置20から、確認文字列を音声入力すると(ステップS201)、携帯端末装置20は、近距離通信部21を経由して、入力音声データを車載装置10へ送る。
As shown in the figure, when the passenger inputs the confirmation character string by voice from the portable terminal device 20 (step S201), the portable
そして、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置30と判定し(ステップS202)、近距離通信部11を経由して、入力音声データをステップS202で判定した携帯端末装置30へ送る。
Then, the
一方、携帯端末装置30の音声認識部32は、受信した入力音声データを、音声認識して(ステップS203)、結果生成部33では、音声確認結果を確認文字列として文字列データ生成を行い(ステップS204)、近距離通信部31を経由して、確認文字列を車載装置10に送る。
On the other hand, the voice recognition unit 32 of the mobile
その後、車載装置10の振分部13bは、振分情報12aに基づいて、アプリケーションの搭載されている装置を携帯端末装置20と判定し(ステップS205)、近距離通信部11を経由して、確認文字列を携帯端末装置20に送る。
Thereafter, the
そして、携帯端末装置20のアプリケーション27は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報24に基づいて、操作コマンドを生成し(ステップS206)、操作コマンドに基づいて、アプリケーションを実行する(ステップS207)。
Then, if the received confirmation character string is “OK”, the
このように、実施例1では、音声認識エンジンがドライバーの携帯端末装置30に搭載されており、アプリケーションが同乗者の携帯端末装置20に搭載されている場合、同乗者の携帯端末装置20から音声入力を行って、車載装置10が、音声認識エンジンが搭載されている携帯端末装置30にデータを振り分けるよう構成した。
As described above, in the first embodiment, when the voice recognition engine is installed in the driver's portable
これにより、たとえば、後部座席に乗車している同乗者が、ドライバーの携帯端末装置30に触れることなく音声操作することができ、また、車両前方に設置されている車載装置10を操作する必要がない。したがって、同乗者は、前方に乗り出す等の、ドライバーの運転を妨害するような行動をとることなく、自由な姿勢で音声操作することができる。
Thereby, for example, a passenger in the rear seat can perform voice operation without touching the driver's portable
なお、実施例1においては、同乗者の携帯端末装置から音声入力するようにしたが、車載装置10に接続した、ヘッドセットマイクなどのハンズフリーユニットから音声入力するようにしてもよい。
In the first embodiment, voice input is performed from the passenger's portable terminal device. However, voice input may be performed from a hands-free unit such as a headset microphone connected to the in-
さて、上記の実施例1では、車載装置10と2台の携帯端末装置20、30とが、近距離無線通信機能で連携する音声操作システムについて説明したが、車載装置と3台以上の携帯端末装置とを連携させてもよい。
In the first embodiment, the voice operation system in which the in-
そこで、実施例2では、車載装置と3台の携帯端末装置とが、近距離無線通信機能で連携する場合について、図9〜図12を用いて詳細に説明する。図9は、実施例2にかかる音声操作システムの構成を示すブロック図である。 Therefore, in the second embodiment, a case where the in-vehicle device and the three mobile terminal devices cooperate with each other with the short-range wireless communication function will be described in detail with reference to FIGS. 9 to 12. FIG. 9 is a block diagram of the configuration of the voice operation system according to the second embodiment.
同図に示すように、音声操作システムは、車載装置110と、携帯端末装置120と、携帯端末装置130と、携帯端末装置140とを含んでいる。
As shown in the figure, the voice operation system includes an in-
車載装置110および携帯端末装置130については、実施例1の車載装置10および携帯端末装置30と同様であるので、ここでは説明を省略する。
Since the in-
次に、携帯端末装置120の構成について説明する。同図に示すように、携帯端末装置120は、車載装置110との通信を行う近距離通信部121と、マイク122と、ディスプレイ123と、音声入力部124と、表示部125とを備えている。
Next, the configuration of the mobile
なお、実際の携帯端末装置120では、図示した機能部以外の機能部(例えば、操作部、スピーカーなど)を有するが、図9では、実施例2にかかる携帯端末装置120の特徴を説明するために必要な構成要素のみを抜粋している。
Note that the actual mobile
近距離通信部121は、実施例1の近距離通信部21と同様であるので、ここでは説明を省略する。また、マイク122は、実施例1のマイク22と同様であるので、ここでは説明を省略する。ディスプレイ123は、表示部125からの画像データを表示する機器である。
The short-
音声入力部124は、マイク122からの入力音声データを近距離通信部121へ渡す処理を行う処理部である。表示部125は、近距離通信部21経由で受信した画像データをディスプレイ123へ渡す処理を行う処理部である。
The voice input unit 124 is a processing unit that performs processing of passing input voice data from the microphone 122 to the short-
つづいて、携帯端末装置140の構成について説明する。同図に示すように、携帯端末装置140は、車載装置110との通信を行う近距離通信部141と、アプリケーション142と、操作コマンド情報143とを備えている。
Next, the configuration of the mobile
なお、実際の携帯端末装置140では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図9では、実施例2にかかる携帯端末装置140の特徴を説明するために必要な構成要素のみを抜粋している。
The actual mobile
操作コマンド情報143は、実施例1の操作コマンド情報24と同様であるので、ここでは説明を省略する。また、アプリケーション142は、実施例1のアプリケーション27と同様であるので、ここでは説明を省略する。
Since the
なお、本発明請求項記載の車載装置は車載装置110、携帯端末装置は携帯端末装置120、携帯端末装置130および携帯端末装置140、音声入力手段はマイク122および音声入力部124、音声認識手段は音声認識部132、コマンド実行手段はアプリケーション142、振分手段は振分部113bに相当するものである。
The in-vehicle device according to the present invention is the in-
ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報112aの設定状態を、図10に示す。図10は、実施例2にかかる振分情報を示す図である。 Here, FIG. 10 shows the setting state of the distribution information 112a when explaining the operation command input processing procedure and the result confirmation processing procedure performed by the voice operation system. FIG. 10 is a diagram illustrating distribution information according to the second embodiment.
この場合、車載装置110は、装置識別子「111」に割り当てられ、同乗者の携帯端末を携帯端末装置120および携帯端末装置140とすると、装置識別子「222」および装置識別子「444」に割り当てられ、ドライバーの携帯端末を携帯端末装置130とすると、装置識別子「333」に割り当てられているものとする。
In this case, the in-
音声認識エンジンは、携帯端末装置130に搭載されており、アプリケーションは携帯端末装置140に搭載されている。「入力優先順位」は、携帯端末装置120が「1」、携帯端末装置140が「2」、車載装置110が「3」と設定されているものとする。また、音声認識結果は、携帯端末装置120から、ディスプレイによって表示するよう設定されているものとして、以下を説明する。
The voice recognition engine is mounted on the mobile
まず、音声操作システムが行う操作コマンド入力処理手順について、図11を用いて説明する。図11は、実施例2にかかる操作コマンド入力処理手順を示すシーケンス図である。 First, an operation command input processing procedure performed by the voice operation system will be described with reference to FIG. FIG. 11 is a sequence diagram of the operation command input processing procedure according to the second embodiment.
車載装置110では、まず、図示しない車載装置110に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。
In the in-
同図に示すように、同乗者が、携帯端末装置120から、コマンド文字列を音声入力すると(ステップS301)、携帯端末装置120は、近距離通信部121を経由して、入力音声データを車載装置110へ送る。
As shown in the figure, when a passenger inputs a command character string by voice from the portable terminal device 120 (step S301), the portable
そして、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置130と判定し(ステップS302)、近距離通信部111を経由して、入力音声データをステップS302で判定した携帯端末装置130へ送る。
Based on the distribution information 112a, the
一方、携帯端末装置130の音声認識部132は、受信した入力音声データを、音声認識して(ステップS303)、コマンド文字列に変換し、さらに、結果生成部133では、表示用に音声認識結果の確認を促す画像データを生成して(ステップS304)、近距離通信部131を経由して、画像データおよびコマンド文字列を車載装置110に送る。
On the other hand, the
その後、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識結果の出力先装置を携帯端末装置120と判定し、また、アプリケーションの搭載されている装置を携帯端末装置140と判定し(ステップS305)、近距離通信部111を経由して、画像データを携帯端末装置120に送る。
Thereafter, the
そして、携帯端末装置120は、受信した画像データをディスプレイ123によって表示する(ステップS306)。たとえば、図1のDA(111)に表示したような画像を、携帯端末装置120のディスプレイ123に表示する。
Then, the mobile
その後、車載装置110は、近距離通信部111を経由して、コマンド文字列を携帯端末装置140に送り、携帯端末装置140は、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS307)。
Thereafter, the in-
図11の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図12を用いて説明する。図12は、実施例2にかかる結果確認処理手順を示すシーケンス図である。 A result confirmation processing procedure performed by the voice operation system following the processing procedure of FIG. 11 will be described with reference to FIG. FIG. 12 is a sequence diagram of the result confirmation processing procedure according to the second embodiment.
同図に示すように、同乗者が、携帯端末装置120から、確認文字列を音声入力すると(ステップS401)、携帯端末装置120は、入力音声データを車載装置110へ送る。
As shown in the figure, when the passenger inputs the confirmation character string by voice from the portable terminal device 120 (step S401), the portable
そして、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置130と判定し(ステップS402)、近距離通信部111を経由して、入力音声データをステップS402で判定した携帯端末装置130へ送る。
Based on the distribution information 112a, the
一方、携帯端末装置130の音声認識部132は、受信した入力音声データを、音声認識して(ステップS403)、結果生成部133では、音声確認結果を確認文字列として文字列データ生成を行い(ステップS404)、近距離通信部131を経由して、確認文字列を車載装置110に送る。
On the other hand, the
その後、車載装置110の振分部113bは、振分情報112aに基づいて、アプリケーションの搭載されている装置を携帯端末装置140と判定し(ステップS405)、近距離通信部111を経由して、確認文字列を携帯端末装置120に送る。
Thereafter, the
そして、携帯端末装置140のアプリケーション142は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報143に基づいて、操作コマンドを生成し(ステップS406)、操作コマンドに基づいて、アプリケーションを実行する(ステップS407)。
Then, if the received confirmation character string is “OK”, the application 142 of the mobile
このように、実施例2では、音声認識エンジン、アプリケーションおよび音声入力/表示を行う装置がいずれにあっても、車載装置110が、それぞれの処理を各装置で行えるよう、振り分け処理するよう構成した。
As described above, in the second embodiment, the in-
これにより、同乗者が、ドライバーの携帯端末装置130に触れることなく音声操作することができるとともに、音声認識エンジンやアプリケーションを搭載していない携帯端末装置からも音声操作することができる。さらには、同乗者自身の持つ携帯端末装置を使用することで、音声操作システムを使用する装置を新たに購入する必要がなく、多くの同乗者が利用することができる。
Accordingly, the passenger can perform a voice operation without touching the driver's mobile
ところで、これまでは、同乗者の携帯端末装置から、音声入力を行う場合について説明してきたが、ドライバーだけが乗車しているような場合、すなわち、車載装置と1台の携帯端末装置とを連携させるようにしてもよい。 By the way, the case where voice input is performed from the passenger's portable terminal device has been described so far. However, when only the driver is on board, that is, the in-vehicle device and one portable terminal device are linked. You may make it make it.
そこで、実施例3では、車載装置と1台の携帯端末装置とが、近距離無線通信機能で連携する場合について、図13〜図16を用いて詳細に説明する。図13は、実施例3にかかる音声操作システムの構成を示すブロック図である。 Therefore, in the third embodiment, a case where the in-vehicle device and one mobile terminal device cooperate with each other by the short-range wireless communication function will be described in detail with reference to FIGS. FIG. 13 is a block diagram of the configuration of the voice operation system according to the third embodiment.
同図に示すように、音声操作システムは、車載装置210と、携帯端末装置220とを含んでいる。まず、車載装置210の構成について説明する。同図に示すように、車載装置210は、近距離通信部211と、マイク212と、ディスプレイ213と、制御部214とを備えている。
As shown in the figure, the voice operation system includes an in-
また、制御部214は、受信部214aと、振分部214bと、音声入力部214cと、表示操作部214dとをさらに備えている。近距離通信部211については、実施例1の近距離通信部11と同様であるので、ここでは説明を省略する。
The
マイク212は、ヘッドセットマイクなどのハンズフリーユニットで、ドライバーが運転中にも音声操作が可能な入力デバイスで構成され、音声を電気信号に変換し、変換した電気信号を音声データとして音声入力部214cへ渡す。
The
ディスプレイ213は、タッチパネルディスプレイなどの入出力デバイスで構成され、表示操作部214dからの画像データを表示するとともに、表示した表示画面に対するタッチ情報等を取得する。
The
ここで、タッチ情報とは、タッチされたディスプレイ上の座標位置情報や、タッチから次のタッチまでの時間間隔などを含んだ情報である。なお、ディスプレイ213は、取得したタッチ情報を表示操作部214dへ渡す。
Here, the touch information is information including coordinate position information on the touched display, a time interval from the touch to the next touch, and the like. The
受信部214aは、近距離通信部11経由で携帯端末装置220から音声認識結果データを受信し、音声入力部214cから入力音声データを受信し、さらに、表示操作部214dからは座標位置情報等を受信し、受信した各種データを、振分部214bへ渡す処理を行う処理部である。
The receiving
振分部214bは、受信部214aから各種データを受信し、受信したデータを、図示しない振分情報に基づいて、表示操作部214dまたは携帯端末装置220へ送信する処理を行う処理部である。
The
音声入力部214cは、マイク212からの入力音声データを受信部214aへ渡す処理を行う処理部である。表示操作部214dは、振分部214bから受信した画像データをディスプレイ213へ渡し、また、ディスプレイ213から受信したタッチ情報を受信部214aへ渡す処理を行う処理部である。
The
次に、携帯端末装置220の構成について説明する。同図に示すように、携帯端末装置220は、車載装置210との通信を行う近距離通信部221と、音声認識部222と、結果生成部223と、アプリケーション224と、操作コマンド情報225とを備えている。
Next, the configuration of the mobile
なお、実際の携帯端末装置220では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図13では、実施例3にかかる携帯端末装置220の特徴を説明するために必要な構成要素のみを抜粋している。
Note that the actual mobile
近距離通信部221、音声認識部222、結果生成部223、アプリケーション224および操作コマンド情報225は、実施例1の近距離通信部21、音声認識部32、結果生成部33、アプリケーション27および操作コマンド情報24と同様であるので、ここでは説明を省略する。
The short-
なお、本発明請求項記載の車載装置は車載装置210、携帯端末装置は携帯端末装置220、音声入力手段はマイク212および音声入力部214c、音声認識手段は音声認識部222、コマンド実行手段はアプリケーション224、振分手段は振分部214bに相当するものである。
The in-vehicle device according to the present invention is the in-
ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報の設定状態を、図14に示す。図14は、実施例3にかかる振分情報を示す図である。 Here, FIG. 14 shows the setting state of the distribution information when explaining the operation command input processing procedure and result confirmation processing procedure performed by the voice operation system. FIG. 14 is a diagram illustrating distribution information according to the third embodiment.
この場合、車載装置210は、装置識別子「111」に割り当てられ、ドライバーの携帯端末を携帯端末装置220とすると、装置識別子「222」に割り当てられているものとする。
In this case, it is assumed that the in-
音声認識エンジンおよびアプリケーションは、携帯端末装置220に搭載されている。「入力優先順位」は、ドライバーは携帯端末装置220を使用することができないので、車載装置210に「1」とだけ設定されているものとする。また、音声認識結果は、上記と同様の理由から車載装置210のディスプレイ213によって表示するよう設定されているものとして、以下を説明する。
The voice recognition engine and the application are installed in the mobile
まず、音声操作システムが行う操作コマンド入力処理手順について、図15を用いて説明する。図15は、実施例3にかかる操作コマンド入力処理手順を示すシーケンス図である。 First, an operation command input processing procedure performed by the voice operation system will be described with reference to FIG. FIG. 15 is a sequence diagram of the operation command input processing procedure according to the third embodiment.
車載装置210では、まず、図示しない車載装置210に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。
In the in-
同図に示すように、ドライバーが、ハンズフリーのマイク212から、コマンド文字列を音声入力すると(ステップS501)、車載装置210の振分部214bは、振分情報に基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置220と判定し(ステップS502)、近距離通信部211を経由して、入力音声データをステップS502で判定した携帯端末装置220へ送る。
As shown in the figure, when the driver inputs a command character string by voice from the hands-free microphone 212 (step S501), the
一方、携帯端末装置220の音声認識部222は、受信した入力音声データを、音声認識して(ステップS503)、コマンド文字列に変換し、さらに、結果生成部223では、表示用に音声認識結果の確認を促す画像データを生成して(ステップS504)、近距離通信部221を経由して、画像データおよびコマンド文字列を車載装置210に送る。
On the other hand, the
その後、車載装置210の振分部214bは、振分情報に基づいて、音声認識結果の出力先装置を車載装置210と判定し、また、アプリケーションの搭載されている装置を携帯端末装置220と判定する(ステップS505)。
Thereafter, the
そして、車載装置210は、画像データをディスプレイ213によって表示する(ステップS506)。たとえば、図1のDA(111)に表示したような画像を、車載装置210のディスプレイ213に表示する。
And the
その後、車載装置210は、近距離通信部211を経由して、コマンド文字列を携帯端末装置220に送り、携帯端末装置220は、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS507)。
Thereafter, the in-
図15の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図16を用いて説明する。図16は、実施例3にかかる結果確認処理手順を示すシーケンス図である。 A result confirmation processing procedure performed by the voice operation system following the processing procedure of FIG. 15 will be described with reference to FIG. FIG. 16 is a sequence diagram of the result confirmation processing procedure according to the third embodiment.
同図に示すように、ドライバーが、音声認識結果の確認を促す画像が表示されているディスプレイ213の「OK」部分をタッチすることにより確認入力を行う(ステップS601)。
As shown in the figure, the driver performs confirmation input by touching the “OK” portion of the
車載装置210のディスプレイ213は、ディスプレイ213からタッチ情報としてタッチされたディスプレイ上の座標位置情報を取得し(ステップS602)、座標位置情報を表示操作部214dへ送る。
The
そして、車載装置210の表示操作部214dは、取得した座標位置情報および音声認識結果の確認を促す画像データに基づいて、確認結果を判別し(ステップS603)、確認結果を文字列に変換して、変換した確認文字列を受信部214aに送る。
Then, the display operation unit 214d of the in-
その後、車載装置210の振分部214bでは、振分情報に基づいて、アプリケーションの搭載されている装置を携帯端末装置220と判定し(ステップS604)、近距離通信部211を経由して、確認文字列を携帯端末装置220に送る。
Thereafter, the
そして、携帯端末装置220のアプリケーション224は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報225に基づいて、操作コマンドを生成し(ステップS605)、操作コマンドに基づいて、アプリケーションを実行する(ステップS606)。
Then, if the received confirmation character string is “OK”, the
このように、実施例3では、ドライバーの携帯端末装置に、音声認識エンジン、アプリケーションが搭載されており、車載装置210で、音声入力/表示を行い、ドライバーの携帯端末装置の機能を利用できるよう構成した。
As described above, in the third embodiment, the driver's portable terminal device includes the voice recognition engine and the application, and the in-
これにより、運転中のドライバーでも安全に携帯端末装置220の音声操作をすることができるとともに、携帯端末装置220の機能を利用することによって、ハード構成及びソフト構成の両面において車載装置210の構成を簡素化し、廉価な価格で製品提供することができる。
Thereby, even a driver who is driving can safely perform voice operation of the mobile
なお、上記実施例においては、音声操作する操作コマンドについて、アプリケーションの操作について説明したが、DAに表示または備えている入力項目、たとえば、数字キー、十字キーなどにも対応するようにしてもよく、この場合、DAの機能を音声操作することにより、ドライバーがより安全に運転することができる。 In the above-described embodiment, the operation of the application has been described with respect to the operation command for performing the voice operation. However, the input item displayed or provided in the DA, for example, the numeric key, the cross key, etc. may be supported. In this case, the driver can drive more safely by voice-operating the DA function.
また、上記実施例においては、音声認識結果の確認を行う際、音声入力により「OK」と発する、または、DAのディスプレイをタッチすることで、確認操作を認識してアプリケーションを実行していた。 In the above embodiment, when confirming the voice recognition result, the application is executed by recognizing the confirmation operation by issuing “OK” by voice input or touching the DA display.
ところが、音声認識結果を表示または出力した後、たとえば、一定時間、操作がなければ「OK」とみなす、あるいは、一定時間、操作がなければ「キャンセル」とみなすとすることで、操作者の動作を簡略化することができ、ドライバーがより安全に運転することができる。 However, after displaying or outputting the voice recognition result, for example, if there is no operation for a certain period of time, it is regarded as “OK”, or if there is no operation for a certain period of time, it is regarded as “cancel”. Can be simplified and the driver can drive more safely.
また、上記実施例においては、入力音声データのノイズ除去を携帯端末装置で行うようにしていたが、DAで行うようにすることで、音声認識処理を行う携帯端末装置の処理負荷を軽減することができる。 In the above embodiment, the noise removal of the input voice data is performed by the mobile terminal device. However, by using the DA, the processing load of the mobile terminal device that performs the voice recognition process can be reduced. Can do.
また、上記実施例においては、携帯端末装置に搭載された音声認識エンジンを使用するようにしていたが、DAに音声認識エンジンを搭載することで、アプリケーションを搭載する携帯端末装置さえ存在すればよいので、ドライバーや同乗者が携帯端末装置を購入する際の負担を軽減することができる。 Moreover, in the said Example, although the speech recognition engine mounted in the portable terminal device was used, even if the portable terminal device which mounts an application only exists by mounting the speech recognition engine in DA. Therefore, the burden when a driver or a passenger purchases a mobile terminal device can be reduced.
また、上記実施例においては、DAに音声操作を開始するボタンを備えるように構成していたが、携帯端末装置、または、ヘッドセットマイクなどのハンズフリーユニットに音声操作を開始するボタンを割り当ててもよい。 In the above embodiment, the DA is provided with a button for starting voice operation. However, a button for starting voice operation is assigned to a hands-free unit such as a portable terminal device or a headset microphone. Also good.
あるいは、携帯端末装置、または、DAのディスプレイに開始ボタンを表示させてもよい。この場合、DAに音声操作用のボタンを備えずに済むことから、ハード構成及びソフト構成の両面において、DAの構成を簡素化し、廉価な価格で製品提供することができる。 Alternatively, a start button may be displayed on the portable terminal device or the DA display. In this case, since it is not necessary to provide a voice operation button in the DA, the DA configuration can be simplified in both hardware and software configurations, and a product can be provided at a low price.
以上のように、本発明にかかる音声操作システムおよび音声操作方法は、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーの安全性を損なうことなく音声操作できるとともに、特に、音声認識エンジンおよびアプリケーションが、いずれの携帯端末装置に存在する場合であっても、ドライバーや同乗者が、自身の携帯端末装置から簡単に音声操作したい場合に適している。 As described above, the voice operation system and the voice operation method according to the present invention can perform voice operation without impairing the safety of a driver during driving, particularly when operating a mobile terminal device using an in-vehicle device. Even if the voice recognition engine and the application are present in any portable terminal device, it is suitable for a case where a driver or a passenger wants to easily perform a voice operation from his / her own portable terminal device.
10 車載装置
11 近距離通信部
12 記憶部
12a 振分情報
13 制御部
13a 受信部
13b 振分部
20 携帯端末装置
21 近距離通信部
22 マイク
23 スピーカー
24 操作コマンド情報
25 音声入力部
26 音声出力部
27 アプリケーション
30 携帯端末装置
31 近距離通信部
32 音声認識部
33 結果生成部
DESCRIPTION OF
Claims (5)
利用者が発する音声を入力する音声入力手段と、
前記音声を音声認識する音声認識手段と、
前記音声認識手段による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行手段と
を備え、
前記車載装置は、
前記音声入力手段、前記音声認識手段ならびに前記コマンド実行手段が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶手段と、
前記振分情報に基づいて前記音声入力手段からの出力を前記音声認識手段へ、前記音声認識手段からの出力を前記コマンド実行手段へ、それぞれ振り分ける振分手段と
を備えたことを特徴とする音声操作システム。 A voice operation system that performs voice operation of a mobile terminal device using an in-vehicle device,
Voice input means for inputting voice uttered by the user;
Voice recognition means for voice recognition of the voice;
Command execution means for executing the operation command after converting the voice recognition result by the voice recognition means into an operation command;
The in-vehicle device is
Distribution information storage means for storing distribution information associated with a device identifier for identifying the device, whether the voice input means, the voice recognition means, and the command execution means are present in the device;
And a distribution unit that distributes an output from the voice input unit to the voice recognition unit and an output from the voice recognition unit to the command execution unit based on the distribution information. Operation system.
前記音声認識結果を利用者に対して通知して確認を得る結果確認手段
をさらに備え、
前記振分情報は、
前記結果確認手段による通知先となる装置の前記装置識別子をさらに含むものであって、
前記振分手段は、
前記振分情報に基づき、前記音声認識手段からの出力を前記コマンド実行手段へ振り分ける前に、当該出力を前記結果確認手段へ振り分けることを特徴とする請求項1に記載の音声操作システム。 The voice recognition means
A result confirmation means for notifying the user of the voice recognition result and obtaining confirmation;
The distribution information is
It further includes the device identifier of the device to be notified by the result confirmation means,
The distribution means includes
2. The voice operation system according to claim 1, wherein the output is distributed to the result confirmation unit before the output from the voice recognition unit is distributed to the command execution unit based on the distribution information.
前記音声入力手段が複数の装置に設けられていて、複数の利用者がそれぞれの前記音声入力手段によって同時に音声を入力した場合に、どの前記音声入力手段からの前記音声を優先的に用いるかを示す入力優先順位をさらに含むものであって、
前記振分手段は、
前記振分情報に基づき、前記音声入力手段によって入力された前記音声を取捨選択することを特徴とする請求項1または2に記載の音声操作システム。 The distribution information is
When the voice input means is provided in a plurality of devices and a plurality of users input voices simultaneously by the voice input means, which voice input means is used preferentially. Which further includes an input priority to indicate,
The distribution means includes
The voice operation system according to claim 1 or 2, wherein the voice input by the voice input unit is selected based on the distribution information.
をさらに備えたことを特徴とする請求項1、2または3のいずれか1項に記載の音声操作システム。 The change means which changes matching with the said operation command which the said command execution means performs, and the said voice recognition result by the said voice recognition means is further provided. The voice operation system described in 1.
利用者が発する音声を入力する音声入力工程と、
前記音声を音声認識する音声認識工程と、
前記音声認識工程による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行工程と
を備え、
前記車載装置は、
前記音声入力工程、前記音声認識工程ならびに前記コマンド実行工程が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶工程と、
前記振分情報に基づいて前記音声入力工程からの出力を前記音声認識工程へ、前記音声認識工程からの出力を前記コマンド実行工程へ、それぞれ振り分ける振分工程と
を備えたことを特徴とする音声操作方法。 A voice operation method for performing voice operation of a mobile terminal device using an in-vehicle device,
A voice input process for inputting voice uttered by the user;
A voice recognition step for recognizing the voice;
A command execution step of executing the operation command after converting the voice recognition result in the voice recognition step into an operation command,
The in-vehicle device is
A distribution information storage step for storing distribution information associated with a device identifier for identifying the device, whether the voice input step, the voice recognition step and the command execution step exist in the device;
A distribution step of allocating the output from the voice input step to the voice recognition step and the output from the voice recognition step to the command execution step based on the distribution information, respectively. Method of operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008301496A JP2010130223A (en) | 2008-11-26 | 2008-11-26 | Voice activation system and voice activation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008301496A JP2010130223A (en) | 2008-11-26 | 2008-11-26 | Voice activation system and voice activation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010130223A true JP2010130223A (en) | 2010-06-10 |
JP2010130223A5 JP2010130223A5 (en) | 2012-08-09 |
Family
ID=42330307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008301496A Pending JP2010130223A (en) | 2008-11-26 | 2008-11-26 | Voice activation system and voice activation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010130223A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012150456A (en) * | 2011-01-19 | 2012-08-09 | Denso Corp | Remote operation method for portable terminal by integrated operation device for vehicle, and integrated operation device for vehicle |
JP2012213132A (en) * | 2011-03-23 | 2012-11-01 | Denso Corp | Device for vehicle and information display system thereof |
JP2013198085A (en) * | 2012-03-22 | 2013-09-30 | Sony Corp | Information processing device, information processing method, information processing program and terminal device |
WO2014103015A1 (en) * | 2012-12-28 | 2014-07-03 | パイオニア株式会社 | Portable terminal device, car onboard device, information presentation method, and information presentation program |
EP2755201A2 (en) | 2013-01-11 | 2014-07-16 | Clarion Co., Ltd. | Information processing apparatus, sound operating system, and sound operating method for information processing apparatus |
WO2017022879A1 (en) * | 2015-08-05 | 2017-02-09 | 엘지전자 주식회사 | Vehicle driving assist and vehicle having same |
KR101755376B1 (en) | 2010-12-23 | 2017-07-26 | 엘지전자 주식회사 | Method for controlling using voice action and the mobile terminal |
JP2018042254A (en) * | 2017-10-12 | 2018-03-15 | ソニー株式会社 | Terminal device |
CN111433736A (en) * | 2017-12-01 | 2020-07-17 | 雅马哈株式会社 | Machine control system, machine control method, and program |
JP2020191641A (en) * | 2019-02-07 | 2020-11-26 | ソニー株式会社 | Terminal device |
JP2021177636A (en) * | 2020-07-03 | 2021-11-11 | ソニーグループ株式会社 | Terminal device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0837687A (en) * | 1994-07-22 | 1996-02-06 | Nippondenso Co Ltd | Telephone set for vehicle with control function |
JP2002150039A (en) * | 2000-08-31 | 2002-05-24 | Hitachi Ltd | Service intermediation device |
JP2005181391A (en) * | 2003-12-16 | 2005-07-07 | Sony Corp | Device and method for speech processing |
JP2005266192A (en) * | 2004-03-18 | 2005-09-29 | Matsushita Electric Ind Co Ltd | Apparatus and method for speech recognition |
JP2006003696A (en) * | 2004-06-18 | 2006-01-05 | Toyota Motor Corp | Voice recognition device, voice recognition method and voice recognition program |
WO2008076765A2 (en) * | 2006-12-13 | 2008-06-26 | Johnson Controls, Inc. | Source content preview in a media system |
-
2008
- 2008-11-26 JP JP2008301496A patent/JP2010130223A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0837687A (en) * | 1994-07-22 | 1996-02-06 | Nippondenso Co Ltd | Telephone set for vehicle with control function |
JP2002150039A (en) * | 2000-08-31 | 2002-05-24 | Hitachi Ltd | Service intermediation device |
JP2005181391A (en) * | 2003-12-16 | 2005-07-07 | Sony Corp | Device and method for speech processing |
JP2005266192A (en) * | 2004-03-18 | 2005-09-29 | Matsushita Electric Ind Co Ltd | Apparatus and method for speech recognition |
JP2006003696A (en) * | 2004-06-18 | 2006-01-05 | Toyota Motor Corp | Voice recognition device, voice recognition method and voice recognition program |
WO2008076765A2 (en) * | 2006-12-13 | 2008-06-26 | Johnson Controls, Inc. | Source content preview in a media system |
JP2010514271A (en) * | 2006-12-13 | 2010-04-30 | ジョンソン コントロールズ テクノロジー カンパニー | Media system source content preview |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101755376B1 (en) | 2010-12-23 | 2017-07-26 | 엘지전자 주식회사 | Method for controlling using voice action and the mobile terminal |
JP2012150456A (en) * | 2011-01-19 | 2012-08-09 | Denso Corp | Remote operation method for portable terminal by integrated operation device for vehicle, and integrated operation device for vehicle |
JP2012213132A (en) * | 2011-03-23 | 2012-11-01 | Denso Corp | Device for vehicle and information display system thereof |
US8700408B2 (en) | 2011-03-23 | 2014-04-15 | Denso Corporation | In-vehicle apparatus and information display system |
JP2013198085A (en) * | 2012-03-22 | 2013-09-30 | Sony Corp | Information processing device, information processing method, information processing program and terminal device |
US11327712B2 (en) | 2012-03-22 | 2022-05-10 | Sony Corporation | Information processing device, information processing method, information processing program, and terminal device |
WO2014103015A1 (en) * | 2012-12-28 | 2014-07-03 | パイオニア株式会社 | Portable terminal device, car onboard device, information presentation method, and information presentation program |
US9739625B2 (en) | 2013-01-11 | 2017-08-22 | Clarion Co., Ltd. | Information processing apparatus, operating system, and operating method for information processing apparatus |
EP2755201A2 (en) | 2013-01-11 | 2014-07-16 | Clarion Co., Ltd. | Information processing apparatus, sound operating system, and sound operating method for information processing apparatus |
US9248788B2 (en) | 2013-01-11 | 2016-02-02 | Clarion Co., Ltd. | Information processing apparatus, operating system, and operating method for information processing apparatus |
KR20170017178A (en) * | 2015-08-05 | 2017-02-15 | 엘지전자 주식회사 | Driver assistance apparatus and vehicle including the same |
KR101910383B1 (en) * | 2015-08-05 | 2018-10-22 | 엘지전자 주식회사 | Driver assistance apparatus and vehicle including the same |
WO2017022879A1 (en) * | 2015-08-05 | 2017-02-09 | 엘지전자 주식회사 | Vehicle driving assist and vehicle having same |
JP2018042254A (en) * | 2017-10-12 | 2018-03-15 | ソニー株式会社 | Terminal device |
CN111433736A (en) * | 2017-12-01 | 2020-07-17 | 雅马哈株式会社 | Machine control system, machine control method, and program |
JP2020191641A (en) * | 2019-02-07 | 2020-11-26 | ソニー株式会社 | Terminal device |
JP2021177636A (en) * | 2020-07-03 | 2021-11-11 | ソニーグループ株式会社 | Terminal device |
JP7243764B2 (en) | 2020-07-03 | 2023-03-22 | ソニーグループ株式会社 | In-vehicle device, mobile terminal device, information processing system, control method and program for in-vehicle device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010130223A (en) | Voice activation system and voice activation method | |
JP5652913B2 (en) | In-vehicle terminal | |
WO2015102040A1 (en) | Speech processing apparatus, speech processing system, speech processing method, and program product for speech processing | |
JP6501217B2 (en) | Information terminal system | |
JP2013102373A (en) | Hands-free device | |
JP2009300537A (en) | Speech actuation system, speech actuation method and in-vehicle device | |
JP5413321B2 (en) | Communication system, in-vehicle terminal, and portable terminal | |
JP2006154926A (en) | Electronic equipment operation system using character display and electronic apparatuses | |
JPWO2010092662A1 (en) | In-vehicle information processing apparatus and method | |
JP2012124578A (en) | On-vehicle device, on-vehicle system, and portable terminal | |
JP6896540B2 (en) | In-vehicle system | |
US9262796B2 (en) | Communication apparatus | |
JP2013191979A (en) | On-vehicle apparatus, portable terminal, and program for portable terminal | |
CN113163299A (en) | Audio signal control device, audio signal control system, and computer-readable recording medium | |
JP4478146B2 (en) | Speech recognition system, speech recognition method and program thereof | |
JP2020144264A (en) | Agent device, control method of agent device, and program | |
JP2019159559A (en) | Information providing apparatus | |
CN111731320B (en) | Intelligent body system, intelligent body server, control method thereof and storage medium | |
JP2016083984A (en) | Operation device for on-vehicle air conditioner, and on-vehicle air conditioning system | |
CN111667823A (en) | Agent device, control method for agent device, and storage medium | |
KR102329888B1 (en) | Speech recognition apparatus, vehicle having the same and controlling method of speech recognition apparatus | |
JP2002335342A (en) | Vehicle use communication unit | |
JP6509098B2 (en) | Voice output device and voice output control method | |
JP2014086808A (en) | On-vehicle system | |
JP6841536B1 (en) | Translation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111020 |
|
A521 | Written amendment |
Effective date: 20120618 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
A977 | Report on retrieval |
Effective date: 20130307 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Effective date: 20130326 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A02 | Decision of refusal |
Effective date: 20131001 Free format text: JAPANESE INTERMEDIATE CODE: A02 |