JP2010130223A - Voice activation system and voice activation method - Google Patents

Voice activation system and voice activation method Download PDF

Info

Publication number
JP2010130223A
JP2010130223A JP2008301496A JP2008301496A JP2010130223A JP 2010130223 A JP2010130223 A JP 2010130223A JP 2008301496 A JP2008301496 A JP 2008301496A JP 2008301496 A JP2008301496 A JP 2008301496A JP 2010130223 A JP2010130223 A JP 2010130223A
Authority
JP
Japan
Prior art keywords
voice
terminal device
voice recognition
unit
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008301496A
Other languages
Japanese (ja)
Other versions
JP2010130223A5 (en
Inventor
Satoshi Ota
悟司 太田
Noriaki Inoue
典昭 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2008301496A priority Critical patent/JP2010130223A/en
Publication of JP2010130223A publication Critical patent/JP2010130223A/en
Publication of JP2010130223A5 publication Critical patent/JP2010130223A5/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable even a driver who is driving to safely operate a portable terminal device with voice activation, as well as, to enable even a passenger to readily operate a predetermined portable terminal device with voice activation. <P>SOLUTION: In a voice activation system and a voice activation method, the voice that a user utters is inputted and the inputted voice is recognized; and a voice recognition result is converted into an operation command, to execute the operation command. Furthermore, an in-vehicle device is configured to store distribution information showing whether a voice input means, a voice recognition means, and a command execution means are available in the device and made to correspond to a device identifier for identifying the device and to distribute the output from the voice input means to the voice recognition means, and the output from the voice recognition means to the command execution means, according to the distribution information. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

この発明は、車載装置を用いて携帯端末装置の音声操作を行う音声操作システムおよび音声操作方法に関し、特に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる音声操作システムおよび音声操作方法に関する。   The present invention relates to a voice operation system and a voice operation method for performing voice operation of a mobile terminal device using an in-vehicle device, and in particular, a driver who is driving can safely perform voice operation of the mobile terminal device, and passengers The present invention also relates to a voice operation system and a voice operation method that can easily perform voice operation on a predetermined portable terminal device.

GPS(Global Positioning System)を利用したカーナビゲーションシステムの普及に伴い、車両には、ナビゲーション機能を有する車載装置が搭載される場合が多くなってきた。同時に、運転中のドライバーが安全に操作できることも必要不可欠となってきている。   With the spread of car navigation systems using GPS (Global Positioning System), in-vehicle devices having a navigation function are often mounted on vehicles. At the same time, it is indispensable that the driving driver can operate safely.

たとえば、音声でナビゲーション機能の操作ができるように、入力された音声を認識し、文字データに変換する音声認識エンジンを搭載する車載装置もあるが、車載装置の高価格化を招くため、ユーザにとって好ましいものではない。   For example, there is an in-vehicle device equipped with a speech recognition engine that recognizes input speech and converts it into character data so that the navigation function can be operated by speech. It is not preferable.

一方、携帯電話などの携帯端末装置は、低価格でありながら、音声認識エンジンを搭載するものや、ナビゲーション機能を搭載するものも普及してきている。また、ブルートゥース(登録商標)などの近距離無線通信機能を搭載する携帯端末装置も普及してきている。   On the other hand, portable terminal devices such as mobile phones are becoming inexpensive, and those equipped with a speech recognition engine and those equipped with a navigation function have become widespread. In addition, portable terminal devices equipped with a short-range wireless communication function such as Bluetooth (registered trademark) have also become widespread.

これらのことから、かかる近距離無線通信機能で携帯端末装置と車載装置とを連携させ、携帯端末装置側の機能を車載装置側で利用する取り組みもなされている。これにより、車載装置の低価格化を図ることが可能となる。   For these reasons, efforts have been made to link the mobile terminal device and the vehicle-mounted device with such a short-range wireless communication function and to use the function on the mobile terminal device side on the vehicle-mounted device side. This makes it possible to reduce the price of the in-vehicle device.

たとえば、特許文献1には、携帯端末装置の画面に表示される表示画面を車載装置へ送信し、車載装置のディスプレイに対して携帯端末装置で生成された表示画面を表示する技術が開示されている。   For example, Patent Literature 1 discloses a technique for transmitting a display screen displayed on a screen of a mobile terminal device to an in-vehicle device and displaying a display screen generated by the mobile terminal device on a display of the in-vehicle device. Yes.

特開2003−244343号公報JP 2003-244343 A

しかしながら、特許文献1の連携システムでは、車載装置の操作画面を用いて携帯端末装置を遠隔操作しようとするものであるが、携帯端末装置を音声操作できないという問題があった。   However, in the linkage system of Patent Document 1, an attempt is made to remotely operate the mobile terminal device using the operation screen of the in-vehicle device, but there is a problem that the mobile terminal device cannot be operated by voice.

たとえば、車載装置に音声認識エンジンが搭載されておらず、ドライバーの携帯端末装置には音声認識エンジンが搭載されている場合について、説明する。   For example, a case where a voice recognition engine is not mounted on an in-vehicle device and a voice recognition engine is mounted on a driver's mobile terminal device will be described.

この場合、ドライバーは、運転中に携帯端末装置を操作することが法律で禁じられていることから、携帯端末装置に触れることができない。このため、車載装置から携帯端末装置の音声認識エンジンを利用することは不可能である。   In this case, since the driver is prohibited by law from operating the portable terminal device during driving, the driver cannot touch the portable terminal device. For this reason, it is impossible to use the speech recognition engine of the mobile terminal device from the in-vehicle device.

また、ドライバーの携帯端末装置にナビゲーション機能が搭載されていて、同乗者の携帯端末装置にはナビゲーション機能が搭載されていない場合に、同乗者が、ドライバーの携帯端末装置を操作して、ナビゲーション機能を利用してもよい。   In addition, when the driver's mobile terminal device has a navigation function and the passenger's mobile terminal device does not have a navigation function, the passenger operates the driver's mobile terminal device to operate the navigation function. May be used.

しかし、携帯端末装置にはアドレス帳、発着信履歴やメール及びその履歴などの個人のプライバシーに関する情報を有するので、所有者以外が操作するのは、好ましいものではない。   However, since the mobile terminal device has information on personal privacy such as an address book, outgoing / incoming call history, mail, and the history thereof, it is not preferable that it is operated by a person other than the owner.

これらのことから、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーでも安全に音声操作することができるとともに、同乗者の携帯端末装置からでも、ドライバーの携帯端末装置に搭載するアプリケーションを操作することができる音声操作システムおよび音声操作方法をいかにして実現するかが大きな課題となっている。   For these reasons, when operating a mobile terminal device using an in-vehicle device, a driver who is driving can safely perform a voice operation, and even from a passenger's mobile terminal device, the driver's mobile terminal device can be operated. How to realize a voice operation system and a voice operation method capable of operating an installed application has become a major issue.

この発明は、上述した従来技術による問題点を解消するためになされたものであり、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる音声操作システムおよび音声操作方法を提供することを目的とする。   The present invention has been made to solve the above-described problems caused by the prior art, and when operating a mobile terminal device using an in-vehicle device, a voice driver of the mobile terminal device can safely operate even when the driver is driving. It is an object of the present invention to provide a voice operation system and a voice operation method in which a passenger can easily voice-operate a predetermined portable terminal device.

上述した課題を解決し、目的を達成するため、本発明は、車載装置を用いて携帯端末装置の音声操作を行う音声操作システムであって、利用者が発する音声を入力する音声入力手段と、前記音声を音声認識する音声認識手段と、前記音声認識手段による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行手段とを備え、前記車載装置は、前記音声入力手段、前記音声認識手段ならびに前記コマンド実行手段が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶手段と、前記振分情報に基づいて前記音声入力手段からの出力を前記音声認識手段へ、前記音声認識手段からの出力を前記コマンド実行手段へ、それぞれ振り分ける振分手段とを備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a voice operation system that performs voice operation of a mobile terminal device using an in-vehicle device, and a voice input unit that inputs voice uttered by a user; Voice recognition means for recognizing the voice, and command execution means for executing the operation command after converting a voice recognition result by the voice recognition means into an operation command, the in-vehicle device includes the voice input means, Based on the distribution information, distribution information storage means for storing distribution information associated with a device identifier for identifying the device, whether the voice recognition unit and the command execution unit exist in the device. Distribution means for distributing the output from the voice input means to the voice recognition means, and the output from the voice recognition means to the command execution means. And features.

本発明によれば、利用者が発する音声を入力し、入力した音声を音声認識し、音声認識した音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行する。車載装置は、音声入力手段、音声認識手段ならびにコマンド実行手段が装置内に存在するか否かを、装置を識別する装置識別子と対応付けた振分情報を記憶し、振分情報に基づいて音声入力手段からの出力を音声認識手段へ、音声認識手段からの出力をコマンド実行手段へ、それぞれ振り分けることができる音声操作システムおよび音声操作方法を提供することができるという効果を奏する。   According to the present invention, a voice uttered by a user is input, the input voice is voice-recognized, and the voice recognition result obtained by voice recognition is converted into an operation command, and then the operation command is executed. The in-vehicle device stores distribution information in which whether or not the voice input unit, the voice recognition unit, and the command execution unit are present in the device is associated with a device identifier for identifying the device, and the voice is based on the distribution information. There is an effect that it is possible to provide a voice operation system and a voice operation method that can distribute the output from the input means to the voice recognition means and the output from the voice recognition means to the command execution means.

以下に添付図面を参照して、本発明にかかる音声操作システムおよび音声操作方法の好適な実施例を詳細に説明する。なお、以下では、自動車に搭載されるDA(display Audio)と呼ばれる車載装置と、携帯端末装置とが、近距離無線通信機能で連携する音声操作システムについて説明することとする。   Exemplary embodiments of a voice operation system and a voice operation method according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, a voice operation system in which an in-vehicle device called DA (display Audio) mounted on a vehicle and a mobile terminal device cooperate with each other by a short-range wireless communication function will be described.

ここで、DAとは、表示機能やオーディオ再生機能、携帯端末装置との通信機能といった基礎的な機能のみを実装し、携帯端末装置と連携することで多機能化する車載装置のことを指す。   Here, DA refers to an in-vehicle device that is mounted with only basic functions such as a display function, an audio playback function, and a communication function with a mobile terminal device, and becomes multi-functional by cooperating with the mobile terminal device.

また、以下では、本発明にかかる音声操作システムの概要について図1を用いて説明した後に、本発明にかかる音声操作システムについての実施例を図2〜図16を用いて説明することとする。   In the following, an outline of the voice operation system according to the present invention will be described with reference to FIG. 1, and then an embodiment of the voice operation system according to the present invention will be described with reference to FIGS. 2 to 16.

携帯端末装置と車載装置とを連携させる従来の操作システムでは、ドライバーの携帯端末装置にナビゲーション機能が搭載されていても、自身の携帯端末装置を操作することができなかった。   In a conventional operation system in which a portable terminal device and an in-vehicle device are linked, even if the driver's portable terminal device is equipped with a navigation function, the user's own portable terminal device cannot be operated.

そこで、今回の本発明にかかる音声操作装置および音声操作システムでは、音声操作によって携帯端末装置に搭載されたナビゲーション機能などのアプリケーション(以下、単に「アプリケーション」と記載する)を操作する。   Therefore, in the voice operation device and the voice operation system according to the present invention, an application (hereinafter simply referred to as “application”) such as a navigation function installed in the mobile terminal device is operated by voice operation.

図1は、本実施例にかかる音声操作システムの概要を示す図である。同図上部の表に示すように、車載装置は、音声認識エンジンならびにアプリケーションが装置内に存在するか否かおよび結果出力表示先を指定する情報等を、装置を識別する装置識別子と対応付けて振分情報として記憶している。   FIG. 1 is a diagram illustrating an outline of a voice operation system according to the present embodiment. As shown in the table at the top of the figure, the in-vehicle device associates the voice recognition engine and whether or not the application exists in the device and the information specifying the result output display destination with the device identifier for identifying the device. It is stored as distribution information.

この場合、音声認識エンジンは、装置識別子が「333」である装置に搭載されており、ナビゲーション機能のアプリケーションは、装置識別子が「222」である装置に搭載されており、音声認識結果は、装置識別子が「111」である装置に出力するように設定されている場合について説明する。   In this case, the voice recognition engine is mounted on a device whose device identifier is “333”, and the application of the navigation function is mounted on a device whose device identifier is “222”. A case will be described in which the setting is made to output to a device whose identifier is “111”.

たとえば、装置識別子が「222」と割り当てられた同乗者の携帯端末Aのマイクから、同乗者が「目的地 自宅」というコマンドを発した場合(同図の(1)参照)、装置識別子が「111」と割り当てられたDAに入力音声データが送信される。   For example, when the passenger issues a command “destination home” from the microphone of the portable terminal A of the passenger assigned with the device identifier “222” (see (1) in FIG. 5), the device identifier is “ The input voice data is transmitted to the DA assigned “111”.

そして、DAは、音声認識エンジンがどの装置に存在するかの振分情報に基づいて、入力音声データを送信する。この場合、装置識別子が「333」と割り当てられたドライバーの携帯端末Bに入力音声データを送信する(同図の(2)参照)。   Then, the DA transmits the input voice data based on the distribution information indicating in which device the voice recognition engine is present. In this case, the input voice data is transmitted to the portable terminal B of the driver assigned with the device identifier “333” (see (2) in the figure).

携帯端末Bに搭載された音声認識エンジンは、受信した入力音声データを音声認識して(同図の(3)参照)、「目的地 自宅」という文字列に変換した音声認識結果をDAに送信する(同図の(4)参照)。   The voice recognition engine installed in the portable terminal B recognizes the received input voice data (see (3) in the figure), and sends the voice recognition result converted to the character string “destination home” to the DA. (Refer to (4) in the figure).

一方、音声認識結果を受信したDAは、振分情報の結果出力表示先の装置情報に基づいて、音声認識結果を表示する。この場合、DAのディスプレイに音声認識結果「目的地 自宅」というコマンド文字列を表示する(同図の(5)参照)。   On the other hand, the DA that has received the voice recognition result displays the voice recognition result based on the device information of the result output display destination of the distribution information. In this case, the command character string “Destination Home” is displayed on the DA display (see (5) in the figure).

そして、同乗者は、表示された音声認識結果に対して、再び携帯端末Aのマイクから応答を行う。この場合、音声認識結果が正しかったので、同乗者は「OK」と発して、応答を行う(同図の(6)参照)。   Then, the passenger responds to the displayed voice recognition result again from the microphone of the portable terminal A. In this case, since the voice recognition result is correct, the passenger issues “OK” and responds (see (6) in FIG. 6).

その後、入力音声データはDAに送信され、DAでは、上述した(2)〜(4)までの音声認識処理と同様に、「OK」の入力音声データを、携帯端末Bに搭載された音声認識エンジンによって文字列に変換し、携帯端末Bは、音声認識結果をDAに送信する。   Thereafter, the input voice data is transmitted to the DA, and the DA recognizes the input voice data of “OK” as the voice recognition mounted on the portable terminal B in the same manner as the voice recognition processes (2) to (4) described above. The character is converted into a character string by the engine, and the portable terminal B transmits the voice recognition result to DA.

そして、DAは、アプリケーションがどの装置に存在するかの振分情報に基づいて、コマンド文字列を送信する。この場合、携帯端末Aにアプリケーションが存在するので、DAは、携帯端末Aにコマンド文字列を送信する。   Then, the DA transmits a command character string based on distribution information indicating in which device the application exists. In this case, since the application exists in the mobile terminal A, the DA transmits a command character string to the mobile terminal A.

一方、携帯端末Aでは、受信したコマンド文字列「目的地 自宅」に基づいて、目的地が「自宅」である、地図の表示や経路案内を行うなどの処理を実行する(同図の(7)参照)。   On the other hand, in the portable terminal A, processing such as displaying a map or performing route guidance, where the destination is “home”, based on the received command character string “destination home” is executed ((7 in the figure)). )reference).

なお、ここでは、音声入力を同乗者の携帯端末Aのマイクから行うようにしたが、DAに搭載されたマイクを、ハンズフリーのマイクに接続して、ドライバーがコマンドを発してもよい。   Here, voice input is performed from the microphone of the passenger's portable terminal A. However, the driver may issue a command by connecting a microphone mounted on the DA to a hands-free microphone.

このように、音声認識エンジンおよびアプリケーションが、いずれかの携帯端末装置に存在する場合に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる。   As described above, when the voice recognition engine and the application exist in any one of the portable terminal devices, the driver can safely operate the voice of the portable terminal device, and the passenger can also perform the predetermined portable terminal. The device can be easily operated by voice.

次に、図2を用いて、本実施例にかかる音声操作システムの装置構成について説明する。図2は、本実施例にかかる音声操作システムの装置構成パターンを示す図である。   Next, the apparatus configuration of the voice operation system according to the present embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an apparatus configuration pattern of the voice operation system according to the present embodiment.

実施例1では、同図の(A)に示すように、車両には、マイク、スピーカーおよびアプリケーションを搭載した携帯端末装置と音声認識エンジンを搭載した携帯端末装置とが存在し、それぞれDAと通信処理ができる装置構成の場合を説明する。   In the first embodiment, as shown in FIG. 5A, the vehicle includes a portable terminal device equipped with a microphone, a speaker, and an application, and a portable terminal device equipped with a voice recognition engine, each communicating with DA. A case of an apparatus configuration capable of processing will be described.

実施例2では、同図の(B)に示すように、車両には、マイク、ディスプレイを搭載した携帯端末装置と、音声認識エンジンを搭載した携帯端末装置と、アプリケーションを搭載した携帯端末装置とが存在し、それぞれDAと通信処理ができる装置構成の場合を説明する。   In the second embodiment, as shown in FIG. 5B, the vehicle includes a portable terminal device equipped with a microphone and a display, a portable terminal device equipped with a voice recognition engine, and a portable terminal device equipped with an application. In the following, a case will be described in which there is a device configuration capable of communicating with DA.

実施例3では、同図の(C)に示すように、車両には、アプリケーションおよび音声認識エンジンを搭載した携帯端末装置が存在し、マイクおよびタッチパネルディスプレイを搭載したDAと通信処理ができる装置構成の場合を説明する。   In Example 3, as shown in (C) of the figure, the vehicle has a portable terminal device equipped with an application and a voice recognition engine, and can perform communication processing with a DA equipped with a microphone and a touch panel display. The case of will be described.

以下では、本発明にかかる音声操作システムおよび音声操作方法の実施例1について図3〜図8を用いて詳細に説明する。図3は、実施例1にかかる音声操作システムの構成を示すブロック図である。同図に示すように、音声操作システムは、車載装置10と、携帯端末装置20と、携帯端末装置30とを含んでいる。   Hereinafter, a first embodiment of the voice operation system and the voice operation method according to the present invention will be described in detail with reference to FIGS. FIG. 3 is a block diagram of the configuration of the voice operation system according to the first embodiment. As shown in FIG. 1, the voice operation system includes an in-vehicle device 10, a mobile terminal device 20, and a mobile terminal device 30.

まず、車載装置10の構成について説明する。同図に示すように、車載装置10は、近距離通信部11と、記憶部12と、制御部13とを備えている。また、記憶部12は、振分情報12aをさらに備えており、制御部13は、受信部13aと、振分部13bとをさらに備えている。   First, the configuration of the in-vehicle device 10 will be described. As shown in the figure, the in-vehicle device 10 includes a short-range communication unit 11, a storage unit 12, and a control unit 13. The storage unit 12 further includes distribution information 12a, and the control unit 13 further includes a reception unit 13a and a distribution unit 13b.

近距離通信部11は、ブルートゥース(登録商標)などの近距離無線通信を用いて携帯端末装置20および携帯端末装置30との通信リンクをそれぞれ確立するとともに、確立した各通信リンクを用いて車載装置10/各携帯端末装置間の通信処理を行う。   The short-range communication unit 11 establishes communication links with the mobile terminal device 20 and the mobile terminal device 30 using short-range wireless communication such as Bluetooth (registered trademark), and uses the established communication links to install the in-vehicle device. 10 / Communication processing between each mobile terminal device is performed.

ここで、ブルートゥース(Bluetooth:登録商標)とは、2.4GHzの周波数帯を用いて半径数10m程度の無線通信を行う近距離無線通信規格であり、近年では、携帯電話やパーソナルコンピュータなどの電子機器に広く適用されている。   Here, Bluetooth (registered trademark) is a short-range wireless communication standard for performing wireless communication with a radius of about 10 m using a 2.4 GHz frequency band. In recent years, electronic devices such as mobile phones and personal computers are used. Widely applied to equipment.

なお、実施例1では、ブルートゥース(登録商標)を用いて車載装置10/各携帯端末装置間の通信を行う場合について説明するが、Wi−Fi(ワイファイ:登録商標)、ZigBee(ジグビー:登録商標)といった他の無線通信規格を用いることとしてもよい。また、車載装置10/各携帯端末装置間の通信を有線通信で行うこととしてもよい。   In addition, although Example 1 demonstrates the case where communication between in-vehicle apparatus 10 / each portable terminal device is performed using Bluetooth (registered trademark), Wi-Fi (Wi-Fi: registered trademark), ZigBee (ZigBee: registered trademark). Other wireless communication standards such as) may be used. Moreover, it is good also as performing communication between the vehicle-mounted apparatus 10 / each portable terminal device by wired communication.

記憶部12は、不揮発性RAM(Random Access Memory)や、HDD(Hard Disk Drive)等で構成される記憶部であり、振分情報12aを記憶する。   The storage unit 12 is a storage unit configured by a nonvolatile RAM (Random Access Memory), an HDD (Hard Disk Drive), or the like, and stores distribution information 12a.

振分情報12aは、音声認識エンジンならびにアプリケーションが装置内に存在するか否か、音声入力元装置および音声認識結果出力先装置を指定する情報を、装置を識別する装置識別子と対応付けられた情報であり、記憶部12へ蓄積される。   The distribution information 12a is information associated with a device identifier for identifying a device, information specifying whether a speech recognition engine and an application exist in the device, a speech input source device and a speech recognition result output destination device. And stored in the storage unit 12.

記憶部12に蓄積された振分情報12aは、DAのディスプレイ等から設定の変更を行うことができる。なお、振分情報12aの詳細な項目の説明については、図4を用いて、後述することとする。   The distribution information 12a accumulated in the storage unit 12 can be changed from the DA display or the like. The detailed items of the distribution information 12a will be described later with reference to FIG.

受信部13aは、近距離通信部11経由で携帯端末装置20および携帯端末装置30から入力音声データおよび音声認識結果データを受信し、受信した各種データを、振分部13bへ渡す処理を行う処理部である。   The receiving unit 13a receives input voice data and voice recognition result data from the mobile terminal device 20 and the mobile terminal device 30 via the short-range communication unit 11, and performs processing for passing the received various data to the sorting unit 13b. Part.

振分部13bは、受信部13aから各種データを受信し、受信したデータを、振分情報12aに基づいて、近距離通信部11経由で携帯端末装置20および携帯端末装置30へ送信する処理を行う処理部である。   The distribution unit 13b receives various data from the reception unit 13a, and transmits the received data to the mobile terminal device 20 and the mobile terminal device 30 via the short-range communication unit 11 based on the distribution information 12a. It is a processing part to perform.

次に、携帯端末装置20の構成について説明する。同図に示すように、携帯端末装置20は、車載装置10との通信を行う近距離通信部21と、マイク22と、スピーカー23と、操作コマンド情報24と、音声入力部25と、音声出力部26と、アプリケーション27とを備えている。   Next, the configuration of the mobile terminal device 20 will be described. As shown in the figure, the mobile terminal device 20 includes a short-range communication unit 21 that performs communication with the in-vehicle device 10, a microphone 22, a speaker 23, operation command information 24, a voice input unit 25, and a voice output. A unit 26 and an application 27 are provided.

なお、実際の携帯端末装置20では、図示した機能部以外の機能部(例えば、操作部、表示部など)を有するが、図3では、実施例1にかかる携帯端末装置20の特徴を説明するために必要な構成要素のみを抜粋している。   Note that the actual mobile terminal device 20 has functional units (for example, an operation unit, a display unit, etc.) other than the illustrated functional units, but FIG. 3 illustrates the characteristics of the mobile terminal device 20 according to the first embodiment. Only the necessary components are extracted.

近距離通信部21は、車載装置10の近距離通信部11と同様に、ブルートゥース(登録商標)などの近距離無線通信を用いて車載装置10との通信リンクを確立するとともに、確立した通信リンクを用いて携帯端末装置20/車載装置10間の通信処理を行う。   The short-range communication unit 21 establishes a communication link with the in-vehicle device 10 using short-range wireless communication such as Bluetooth (registered trademark) as well as the short-range communication unit 11 of the in-vehicle device 10 and the established communication link. Is used to perform communication processing between the mobile terminal device 20 and the in-vehicle device 10.

マイク22は、音声を電気信号に変換する機器であり、変換した電気信号を音声データとして音声入力部25へ渡す。スピーカー23は、音声出力部26からの電気信号である音声データを物理振動に変えて、音として再生する機器である。   The microphone 22 is a device that converts sound into an electric signal, and passes the converted electric signal to the sound input unit 25 as sound data. The speaker 23 is a device that converts audio data, which is an electrical signal from the audio output unit 26, into physical vibration and reproduces it as sound.

操作コマンド情報24は、アプリケーション27が実行可能な形式に変換されたコマンド(以下、「操作コマンド」と記載する)毎に、操作コマンドに対応付けられたコマンド文字列および操作コマンドの実行制限を設定しておく情報が、不揮発性RAM等に記憶される。操作コマンド情報24については、図5を用いて、後述することとする。   The operation command information 24 sets a command character string associated with an operation command and an execution limit of the operation command for each command converted into a format executable by the application 27 (hereinafter referred to as “operation command”). Information to be stored is stored in a nonvolatile RAM or the like. The operation command information 24 will be described later with reference to FIG.

音声入力部25は、マイク22からの入力音声データを近距離通信部21へ渡す処理を行う処理部である。音声出力部26は、近距離通信部21経由で受信した音声データをスピーカー23へ渡す処理を行う処理部である。   The voice input unit 25 is a processing unit that performs processing to pass input voice data from the microphone 22 to the short-range communication unit 21. The audio output unit 26 is a processing unit that performs processing of passing audio data received via the short-range communication unit 21 to the speaker 23.

アプリケーション27は、携帯端末装置20上で動作するアプリケーションである。ここで、アプリケーションとしては、GPS(Global Positioning System)アンテナを用いた現在位置を取得し、現在位置と地図情報を重ねあわせて目的地までの経路案内を行うナビアプリや、楽曲などの音楽を再生する音楽再生アプリなどがある。   The application 27 is an application that operates on the mobile terminal device 20. Here, as applications, a GPS (Global Positioning System) antenna is used to acquire the current position, and a navigation application that provides route guidance to the destination by superimposing the current position and map information, and playing music and other music There are music playback apps to play.

アプリケーション27では、近距離通信部21経由で受信したコマンド文字列に基づいて、携帯端末装置20上で動作するために、装置内部で処理が実行可能な操作コマンドに変換して、変換したコマンドおよび操作コマンド情報24に基づいて、処理を実行する。   In the application 27, in order to operate on the mobile terminal device 20 based on the command character string received via the short-range communication unit 21, it is converted into an operation command that can be processed inside the device, and the converted command and Processing is executed based on the operation command information 24.

つづいて、携帯端末装置30の構成について説明する。同図に示すように、携帯端末装置30は、車載装置10との通信を行う近距離通信部31と、音声認識部32と、結果生成部33とを備えている。   Next, the configuration of the mobile terminal device 30 will be described. As shown in the figure, the mobile terminal device 30 includes a short-range communication unit 31 that communicates with the in-vehicle device 10, a voice recognition unit 32, and a result generation unit 33.

なお、実際の携帯端末装置30では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図3では、実施例1にかかる携帯端末装置30の特徴を説明するために必要な構成要素のみを抜粋している。   Note that the actual mobile terminal device 30 includes functional units (for example, an operation unit, a display unit, a speaker, a voice input unit such as a microphone, etc.) other than the illustrated functional units. FIG. Only the components necessary for explaining the characteristics of the mobile terminal device 30 are extracted.

近距離通信部31は、近距離通信部21と同様であるので、ここでは説明を省略する。音声認識部32は、近距離通信部31経由で受信した入力音声データのノイズ除去等、解析しやすい音声データに調整してから、人間の話す音声言語を解析し、文字列データとして取り出す(以下、「音声認識する」と記載する)処理処理を行う処理部である。   The short-range communication unit 31 is the same as the short-range communication unit 21, and thus description thereof is omitted here. The speech recognition unit 32 adjusts speech data that is easy to analyze, such as noise removal of input speech data received via the short-range communication unit 31, and then analyzes the speech language spoken by humans and extracts it as character string data (hereinafter referred to as character string data). , Which is described as “voice recognition”).

結果生成部33は、音声認識部32で認識した音声認識結果を、結果表示用に画像データまたは結果音声出力用に音声データに変換する処理を行う処理部である。   The result generation unit 33 is a processing unit that performs processing to convert the speech recognition result recognized by the speech recognition unit 32 into image data for result display or speech data for result speech output.

なお、本発明請求項記載の車載装置は車載装置10、携帯端末装置は携帯端末装置20および携帯端末装置30、音声入力手段はマイク22および音声入力部25、音声認識手段は音声認識部32、コマンド実行手段はアプリケーション27、振分手段は振分部13bに相当するものである。   The in-vehicle device according to the present invention is the in-vehicle device 10, the portable terminal device is the portable terminal device 20 and the portable terminal device 30, the voice input means is the microphone 22 and the voice input unit 25, the voice recognition means is the voice recognition unit 32, The command execution means corresponds to the application 27, and the distribution means corresponds to the distribution unit 13b.

次に、振分情報12aについて、図4を用いて、詳細に説明する。図4は、振分情報を示す図である。同図に示すように、振分情報12aは、装置識別子毎に、「音声認識」項目、「アプリケーション」項目、「入力優先順位」項目、「出力表示」項目および「出力音声」項目の情報を含んでいて、DAのディスプレイに表示をして、設定の変更を行うことができる。   Next, the distribution information 12a will be described in detail with reference to FIG. FIG. 4 is a diagram showing distribution information. As shown in the figure, the distribution information 12a includes information on “voice recognition” item, “application” item, “input priority” item, “output display” item, and “output voice” item for each device identifier. In addition, the setting can be changed by displaying on the DA display.

装置識別子は、装置を識別する装置識別子であり、DAが、通信処理を行う各装置を認識した際に、所定の装置識別子を割り当てる。「音声認識」項目は、音声認識エンジンが装置内に存在するか否かを示す情報である。   The device identifier is a device identifier for identifying a device, and assigns a predetermined device identifier when the DA recognizes each device that performs communication processing. The “voice recognition” item is information indicating whether or not a voice recognition engine exists in the apparatus.

「アプリケーション」項目は、アプリケーションが装置内に存在するか否かを示す情報である。「入力優先順位」項目は、各装置から同時に音声を発せられた場合、どの装置の音声を優先で処理するかを、DAが判定する為の情報である。   The “application” item is information indicating whether an application exists in the apparatus. The “input priority” item is information used by the DA to determine which device's sound is to be processed with priority when sound is simultaneously emitted from each device.

たとえば、装置識別子「222」および装置識別子「444」である装置から、同時に音声が発せられた場合、装置識別子「222」の「入力優先順位」は「1」であり、また、装置識別子「444」の「入力優先順位」は「3」であることから、DAは、優先順位の高い装置識別子「222」の装置からの音声に対して処理を行うこととする。   For example, when sound is simultaneously emitted from the devices having the device identifier “222” and the device identifier “444”, the “input priority” of the device identifier “222” is “1”, and the device identifier “444”. Since “input priority” of “3” is “3”, the DA performs processing on the voice from the device with the device identifier “222” having a higher priority.

「出力表示」項目は、音声認識結果を表示する装置の設定を行う。たとえば、音声入力された装置がいずれであっても、装置識別子「111」である装置のディスプレイに表示しようとする場合、装置識別子「111」の「出力表示」項目に「a」と設定する。   In the “output display” item, a device for displaying the voice recognition result is set. For example, in order to display on the display of the device having the device identifier “111” regardless of the device to which voice is input, “a” is set in the “output display” item of the device identifier “111”.

また、音声入力された携帯端末装置のディスプレイに表示しようとする場合には、所定の携帯端末装置の「出力表示」項目に「b」と設定しておくと、「b」と設定された携帯端末装置の中から、音声入力された携帯端末装置のディスプレイに表示する。   In addition, when displaying on the display of the mobile terminal device that has been voice-input, if “b” is set in the “output display” item of the predetermined mobile terminal device, the mobile phone set as “b” It displays on the display of the portable terminal device into which the voice was inputted from among the terminal devices.

さらに、指定したすべての携帯端末装置のディスプレイに表示しようとする場合には、所定の携帯端末装置の「出力表示」項目に「c」と設定しておくと、「c」と設定された携帯端末装置すべてのディスプレイに表示する。   Furthermore, when displaying on the display of all the specified portable terminal devices, if “c” is set in the “output display” item of the predetermined portable terminal device, the portable device set to “c” is set. Display on the display of all terminal devices.

「出力音声」項目は、音声認識結果を音声によって出力する装置の設定を行う。これも、「出力表示」項目と同様で、音声入力された装置がいずれであっても、音声認識結果を音声出力する端末には、「出力音声」項目に「a」を設定する。   The “output voice” item sets a device that outputs a voice recognition result by voice. This is the same as the “output display” item, and “a” is set in the “output voice” item for a terminal that outputs the voice recognition result by voice regardless of the device to which the voice is input.

また、音声入力された携帯端末装置に音声出力しようとする場合、所定の携帯端末装置の「出力音声」項目に「b」と設定し、指定したすべての携帯端末装置に音声出力しようとする場合、所定の携帯端末装置の「出力音声」項目に「c」と設定する。   Also, when trying to output sound to a mobile terminal device that has been input by voice, setting “b” in the “output audio” item of a predetermined mobile terminal device and attempting to output sound to all specified mobile terminal devices Then, “c” is set in the “output voice” item of the predetermined portable terminal device.

ここでは、「出力表示」項目および「出力音声」項目の設定を、「a」、「b」および「c」としたが、他の文字や数値等で表現することとしてもよい。   Here, the “output display” item and the “output audio” item are set to “a”, “b”, and “c”, but may be expressed by other characters, numerical values, or the like.

また、この振分情報12aは、DAのディスプレイに表示して設定の変更を行えるようにしたが、DAが、振分情報12aを所定の携帯端末装置に送信して、受信した携帯端末装置で、設定の変更を行えるようにしてもよい。   The distribution information 12a is displayed on the DA display so that the setting can be changed. However, the DA transmits the distribution information 12a to a predetermined mobile terminal device, and the received mobile terminal device receives the distribution information 12a. The setting may be changed.

次に、操作コマンド情報24について、図5を用いて、詳細に説明する。図5は、操作コマンド変更画面を示す図である。同図の表に示すように、操作コマンド情報24は、操作コマンド毎に、「文字列」項目、「使用」項目の情報を含んでいる。   Next, the operation command information 24 will be described in detail with reference to FIG. FIG. 5 is a diagram showing an operation command change screen. As shown in the table of the figure, the operation command information 24 includes information on a “character string” item and a “use” item for each operation command.

「文字列」項目は、操作コマンドに対応付けられた、コマンド文字列である。「文字列」項目のコマンド文字列を音声入力すると、対応する操作コマンドがアプリケーション27で実行される。   The “character string” item is a command character string associated with the operation command. When the command character string of the “character string” item is input by voice, the corresponding operation command is executed by the application 27.

「使用」項目は、コマンドの操作制限を設定しておく情報であり、操作コマンドが音声操作によって実行してもよいか否かを設定しておく。たとえば、「コマンド:30」の「音楽 再生」を「使用不可」(ここでは「×」)に設定しておくと、「音楽 再生」と音声入力された場合には、「音楽 再生」に対応する操作は実行されない。   The “use” item is information for setting a command operation limit, and sets whether or not the operation command may be executed by voice operation. For example, if “music playback” of “command: 30” is set to “unusable” (“×” in this case), “music playback” is supported when “music playback” is input. The operation to be performed is not executed.

アプリケーション27が搭載されている携帯端末装置20には、たとえば、同図下部に示すように、「追加」ボタン、「更新」ボタンおよび「終了」ボタンを備えた操作コマンドの設定画面によって、操作コマンドを設定することができる。   For example, as shown in the lower part of the figure, the mobile terminal device 20 on which the application 27 is installed has an operation command displayed on the operation command setting screen having an “add” button, an “update” button, and an “end” button. Can be set.

「追加」ボタンが押下されると、操作コマンド情報24に新規に操作コマンドを登録することができる。また、「更新」ボタンが押下されると、操作コマンド情報24を変更した後、操作コマンドを更新することができる。   When the “Add” button is pressed, a new operation command can be registered in the operation command information 24. When the “update” button is pressed, the operation command can be updated after the operation command information 24 is changed.

具体的には、同図に示すように、「コマンド:10」のコマンド文字列は「OK」に設定されているが、「実行」または「はい」等の他のコマンド文字列に変更することによって、「実行」または「はい」と音声入力することで、「コマンド:10」が実行される。   Specifically, as shown in the figure, the command character string “command: 10” is set to “OK”, but it should be changed to another command character string such as “execute” or “yes”. , “Command: 10” is executed by voice input of “execute” or “yes”.

「終了」ボタンが押下されると、操作コマンドの設定処理を終了する。なお、携帯端末装置20の出荷時に、あらかじめアプリケーションで使用される共通の操作コマンドを初期設定しておくこととしてもよい。   When the “Finish” button is pressed, the operation command setting process is terminated. Note that, at the time of shipment of the mobile terminal device 20, a common operation command used in an application may be initialized.

ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報12aの設定状態を、図6に示す。図6は、実施例1にかかる振分情報を示す図である。   Here, FIG. 6 shows the setting state of the distribution information 12a when explaining the operation command input processing procedure and the result confirmation processing procedure performed by the voice operation system. FIG. 6 is a diagram illustrating distribution information according to the first embodiment.

この場合、車載装置10は、装置識別子「111」に割り当てられ、同乗者の携帯端末を携帯端末装置20とすると、装置識別子「222」に割り当てられ、ドライバーの携帯端末を携帯端末装置30とすると、装置識別子「333」に割り当てられているものとする。   In this case, if the in-vehicle device 10 is assigned to the device identifier “111” and the passenger's mobile terminal is the mobile terminal device 20, the in-vehicle device 10 is assigned to the device identifier “222” and the driver's mobile terminal is the mobile terminal device 30. Assume that the device identifier “333” is assigned.

音声認識エンジンは、携帯端末装置30に搭載されており、アプリケーションは携帯端末装置20に搭載されている。「入力優先順位」は、携帯端末装置20が「1」、車載装置10が「2」と設定されているものとする。また、音声認識結果は、携帯端末装置20から、音声によって出力するよう設定されているものとして、以下を説明する。   The voice recognition engine is mounted on the mobile terminal device 30, and the application is mounted on the mobile terminal device 20. It is assumed that “input priority” is set to “1” for the mobile terminal device 20 and “2” for the in-vehicle device 10. In addition, the following description will be given on the assumption that the voice recognition result is set to be output by voice from the mobile terminal device 20.

まず、音声操作システムが行う操作コマンド入力処理手順について、図7を用いて説明する。図7は、実施例1にかかる操作コマンド入力処理手順を示すシーケンス図である。   First, an operation command input processing procedure performed by the voice operation system will be described with reference to FIG. FIG. 7 is a sequence diagram of the operation command input processing procedure according to the first embodiment.

車載装置10では、まず、図示しない車載装置10に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。   In the in-vehicle device 10, first, a button for starting a voice operation provided in the in-vehicle device 10 (not shown) is assigned, and when the start button for the voice operation is pressed, a voice operation can be performed. To do.

同図に示すように、同乗者が、携帯端末装置20から、コマンド文字列を音声入力すると(ステップS101)、携帯端末装置20は、近距離通信部21を経由して、入力音声データを車載装置10へ送る。   As shown in the figure, when a passenger inputs a command character string by voice from the portable terminal device 20 (step S101), the portable terminal device 20 receives the input voice data via the short-range communication unit 21 as in-vehicle. Send to device 10.

そして、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置30と判定し(ステップS102)、近距離通信部11を経由して、入力音声データをステップS102で判定した携帯端末装置30へ送る。   Then, the allocating unit 13b of the in-vehicle device 10 determines, on the basis of the allocating information 12a, which device the voice recognition engine is mounted on as the mobile terminal device 30 (step S102), and the short-range communication unit 11 Then, the input voice data is sent to the portable terminal device 30 determined in step S102.

一方、携帯端末装置30の音声認識部32は、受信した入力音声データを、音声認識して(ステップS103)、コマンド文字列に変換し、さらに、結果生成部33では、音声出力用にコマンド文字列の音声データを生成して(ステップS104)、近距離通信部31を経由して、音声データおよびコマンド文字列を車載装置10に送る。   On the other hand, the voice recognition unit 32 of the portable terminal device 30 recognizes the received input voice data (step S103), converts it into a command character string, and the result generation unit 33 further uses a command character for voice output. The voice data of the column is generated (step S104), and the voice data and the command character string are sent to the in-vehicle device 10 via the short-range communication unit 31.

その後、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識結果の出力先装置およびアプリケーションの搭載されている装置を共に携帯端末装置20と判定し(ステップS105)、近距離通信部11を経由して、音声データおよびコマンド文字列を携帯端末装置20に送る。   Thereafter, the distribution unit 13b of the in-vehicle device 10 determines that the output destination device of the voice recognition result and the device on which the application is installed are both the mobile terminal device 20 based on the distribution information 12a (step S105). The voice data and the command character string are sent to the mobile terminal device 20 via the distance communication unit 11.

そして、携帯端末装置20は、受信した音声データをスピーカー23によって出力し(ステップS106)、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS107)。   Then, the mobile terminal device 20 outputs the received voice data through the speaker 23 (step S106), and stores the received command character string in a temporary storage memory or the like (step S107).

図7の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図8を用いて説明する。図8は、実施例1にかかる結果確認処理手順を示すシーケンス図である。   A result confirmation processing procedure performed by the voice operation system following the processing procedure of FIG. 7 will be described with reference to FIG. FIG. 8 is a sequence diagram of the result confirmation processing procedure according to the first embodiment.

同図に示すように、同乗者が、携帯端末装置20から、確認文字列を音声入力すると(ステップS201)、携帯端末装置20は、近距離通信部21を経由して、入力音声データを車載装置10へ送る。   As shown in the figure, when the passenger inputs the confirmation character string by voice from the portable terminal device 20 (step S201), the portable terminal device 20 sends the input voice data to the vehicle via the short-range communication unit 21. Send to device 10.

そして、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置30と判定し(ステップS202)、近距離通信部11を経由して、入力音声データをステップS202で判定した携帯端末装置30へ送る。   Then, the distribution unit 13b of the in-vehicle device 10 determines which device the voice recognition engine is mounted on, based on the distribution information 12a, as the mobile terminal device 30 (step S202), and the short-range communication unit 11 Then, the input voice data is sent to the portable terminal device 30 determined in step S202.

一方、携帯端末装置30の音声認識部32は、受信した入力音声データを、音声認識して(ステップS203)、結果生成部33では、音声確認結果を確認文字列として文字列データ生成を行い(ステップS204)、近距離通信部31を経由して、確認文字列を車載装置10に送る。   On the other hand, the voice recognition unit 32 of the mobile terminal device 30 recognizes the received input voice data (step S203), and the result generation unit 33 generates character string data using the voice confirmation result as a confirmation character string ( In step S204), the confirmation character string is sent to the in-vehicle device 10 via the short-range communication unit 31.

その後、車載装置10の振分部13bは、振分情報12aに基づいて、アプリケーションの搭載されている装置を携帯端末装置20と判定し(ステップS205)、近距離通信部11を経由して、確認文字列を携帯端末装置20に送る。   Thereafter, the distribution unit 13b of the in-vehicle device 10 determines that the device on which the application is mounted is the mobile terminal device 20 based on the distribution information 12a (step S205), and via the short-range communication unit 11, The confirmation character string is sent to the mobile terminal device 20.

そして、携帯端末装置20のアプリケーション27は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報24に基づいて、操作コマンドを生成し(ステップS206)、操作コマンドに基づいて、アプリケーションを実行する(ステップS207)。   Then, if the received confirmation character string is “OK”, the application 27 of the mobile terminal device 20 sends an operation command to the command character string stored in the temporary storage memory or the like based on the operation command information 24. Generate (step S206), and execute the application based on the operation command (step S207).

このように、実施例1では、音声認識エンジンがドライバーの携帯端末装置30に搭載されており、アプリケーションが同乗者の携帯端末装置20に搭載されている場合、同乗者の携帯端末装置20から音声入力を行って、車載装置10が、音声認識エンジンが搭載されている携帯端末装置30にデータを振り分けるよう構成した。   As described above, in the first embodiment, when the voice recognition engine is installed in the driver's portable terminal device 30 and the application is installed in the passenger's portable terminal device 20, the voice from the passenger's portable terminal device 20 is voiced. The in-vehicle device 10 is configured to distribute the data to the mobile terminal device 30 on which the speech recognition engine is mounted.

これにより、たとえば、後部座席に乗車している同乗者が、ドライバーの携帯端末装置30に触れることなく音声操作することができ、また、車両前方に設置されている車載装置10を操作する必要がない。したがって、同乗者は、前方に乗り出す等の、ドライバーの運転を妨害するような行動をとることなく、自由な姿勢で音声操作することができる。   Thereby, for example, a passenger in the rear seat can perform voice operation without touching the driver's portable terminal device 30 and needs to operate the in-vehicle device 10 installed in front of the vehicle. Absent. Therefore, the passenger can perform a voice operation in a free posture without taking any action that hinders the driving of the driver, such as going forward.

なお、実施例1においては、同乗者の携帯端末装置から音声入力するようにしたが、車載装置10に接続した、ヘッドセットマイクなどのハンズフリーユニットから音声入力するようにしてもよい。   In the first embodiment, voice input is performed from the passenger's portable terminal device. However, voice input may be performed from a hands-free unit such as a headset microphone connected to the in-vehicle device 10.

さて、上記の実施例1では、車載装置10と2台の携帯端末装置20、30とが、近距離無線通信機能で連携する音声操作システムについて説明したが、車載装置と3台以上の携帯端末装置とを連携させてもよい。   In the first embodiment, the voice operation system in which the in-vehicle device 10 and the two mobile terminal devices 20 and 30 cooperate with each other through the short-range wireless communication function has been described. However, the in-vehicle device and the three or more mobile terminals You may make it cooperate with an apparatus.

そこで、実施例2では、車載装置と3台の携帯端末装置とが、近距離無線通信機能で連携する場合について、図9〜図12を用いて詳細に説明する。図9は、実施例2にかかる音声操作システムの構成を示すブロック図である。   Therefore, in the second embodiment, a case where the in-vehicle device and the three mobile terminal devices cooperate with each other with the short-range wireless communication function will be described in detail with reference to FIGS. 9 to 12. FIG. 9 is a block diagram of the configuration of the voice operation system according to the second embodiment.

同図に示すように、音声操作システムは、車載装置110と、携帯端末装置120と、携帯端末装置130と、携帯端末装置140とを含んでいる。   As shown in the figure, the voice operation system includes an in-vehicle device 110, a mobile terminal device 120, a mobile terminal device 130, and a mobile terminal device 140.

車載装置110および携帯端末装置130については、実施例1の車載装置10および携帯端末装置30と同様であるので、ここでは説明を省略する。   Since the in-vehicle device 110 and the mobile terminal device 130 are the same as the in-vehicle device 10 and the mobile terminal device 30 of the first embodiment, the description thereof is omitted here.

次に、携帯端末装置120の構成について説明する。同図に示すように、携帯端末装置120は、車載装置110との通信を行う近距離通信部121と、マイク122と、ディスプレイ123と、音声入力部124と、表示部125とを備えている。   Next, the configuration of the mobile terminal device 120 will be described. As shown in the figure, the mobile terminal device 120 includes a short-range communication unit 121 that communicates with the in-vehicle device 110, a microphone 122, a display 123, a voice input unit 124, and a display unit 125. .

なお、実際の携帯端末装置120では、図示した機能部以外の機能部(例えば、操作部、スピーカーなど)を有するが、図9では、実施例2にかかる携帯端末装置120の特徴を説明するために必要な構成要素のみを抜粋している。   Note that the actual mobile terminal device 120 has functional units (for example, an operation unit, a speaker, etc.) other than the illustrated functional units, but FIG. 9 illustrates the characteristics of the mobile terminal device 120 according to the second embodiment. Only the necessary components are extracted.

近距離通信部121は、実施例1の近距離通信部21と同様であるので、ここでは説明を省略する。また、マイク122は、実施例1のマイク22と同様であるので、ここでは説明を省略する。ディスプレイ123は、表示部125からの画像データを表示する機器である。   The short-range communication unit 121 is the same as the short-range communication unit 21 of the first embodiment, and a description thereof is omitted here. Further, since the microphone 122 is the same as the microphone 22 of the first embodiment, description thereof is omitted here. The display 123 is a device that displays the image data from the display unit 125.

音声入力部124は、マイク122からの入力音声データを近距離通信部121へ渡す処理を行う処理部である。表示部125は、近距離通信部21経由で受信した画像データをディスプレイ123へ渡す処理を行う処理部である。   The voice input unit 124 is a processing unit that performs processing of passing input voice data from the microphone 122 to the short-range communication unit 121. The display unit 125 is a processing unit that performs processing for passing image data received via the short-range communication unit 21 to the display 123.

つづいて、携帯端末装置140の構成について説明する。同図に示すように、携帯端末装置140は、車載装置110との通信を行う近距離通信部141と、アプリケーション142と、操作コマンド情報143とを備えている。   Next, the configuration of the mobile terminal device 140 will be described. As shown in the figure, the mobile terminal device 140 includes a short-range communication unit 141 that performs communication with the in-vehicle device 110, an application 142, and operation command information 143.

なお、実際の携帯端末装置140では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図9では、実施例2にかかる携帯端末装置140の特徴を説明するために必要な構成要素のみを抜粋している。   The actual mobile terminal device 140 includes functional units (for example, an operation unit, a display unit, a speaker, a voice input unit such as a microphone, etc.) other than the illustrated functional units. Only the components necessary for explaining the characteristics of the mobile terminal device 140 are extracted.

操作コマンド情報143は、実施例1の操作コマンド情報24と同様であるので、ここでは説明を省略する。また、アプリケーション142は、実施例1のアプリケーション27と同様であるので、ここでは説明を省略する。   Since the operation command information 143 is the same as the operation command information 24 of the first embodiment, description thereof is omitted here. The application 142 is the same as the application 27 of the first embodiment, and a description thereof is omitted here.

なお、本発明請求項記載の車載装置は車載装置110、携帯端末装置は携帯端末装置120、携帯端末装置130および携帯端末装置140、音声入力手段はマイク122および音声入力部124、音声認識手段は音声認識部132、コマンド実行手段はアプリケーション142、振分手段は振分部113bに相当するものである。   The in-vehicle device according to the present invention is the in-vehicle device 110, the portable terminal device is the portable terminal device 120, the portable terminal device 130 and the portable terminal device 140, the voice input means is the microphone 122 and the voice input unit 124, and the voice recognition means is The voice recognition unit 132, the command execution unit corresponds to the application 142, and the distribution unit corresponds to the distribution unit 113b.

ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報112aの設定状態を、図10に示す。図10は、実施例2にかかる振分情報を示す図である。   Here, FIG. 10 shows the setting state of the distribution information 112a when explaining the operation command input processing procedure and the result confirmation processing procedure performed by the voice operation system. FIG. 10 is a diagram illustrating distribution information according to the second embodiment.

この場合、車載装置110は、装置識別子「111」に割り当てられ、同乗者の携帯端末を携帯端末装置120および携帯端末装置140とすると、装置識別子「222」および装置識別子「444」に割り当てられ、ドライバーの携帯端末を携帯端末装置130とすると、装置識別子「333」に割り当てられているものとする。   In this case, the in-vehicle device 110 is assigned to the device identifier “111”, and if the passenger's mobile terminal is the mobile terminal device 120 and the mobile terminal device 140, the on-vehicle device 110 is assigned to the device identifier “222” and the device identifier “444”. When the mobile terminal device of the driver is the mobile terminal device 130, it is assumed that the device identifier “333” is assigned.

音声認識エンジンは、携帯端末装置130に搭載されており、アプリケーションは携帯端末装置140に搭載されている。「入力優先順位」は、携帯端末装置120が「1」、携帯端末装置140が「2」、車載装置110が「3」と設定されているものとする。また、音声認識結果は、携帯端末装置120から、ディスプレイによって表示するよう設定されているものとして、以下を説明する。   The voice recognition engine is mounted on the mobile terminal device 130, and the application is mounted on the mobile terminal device 140. The “input priority” is set to “1” for the mobile terminal device 120, “2” for the mobile terminal device 140, and “3” for the in-vehicle device 110. Further, the following description will be given assuming that the voice recognition result is set to be displayed on the display from the mobile terminal device 120.

まず、音声操作システムが行う操作コマンド入力処理手順について、図11を用いて説明する。図11は、実施例2にかかる操作コマンド入力処理手順を示すシーケンス図である。   First, an operation command input processing procedure performed by the voice operation system will be described with reference to FIG. FIG. 11 is a sequence diagram of the operation command input processing procedure according to the second embodiment.

車載装置110では、まず、図示しない車載装置110に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。   In the in-vehicle device 110, first, a button for starting a voice operation provided in the in-vehicle device 110 (not shown) is assigned, and when a voice operation start button is pressed, a voice operation can be performed. To do.

同図に示すように、同乗者が、携帯端末装置120から、コマンド文字列を音声入力すると(ステップS301)、携帯端末装置120は、近距離通信部121を経由して、入力音声データを車載装置110へ送る。   As shown in the figure, when a passenger inputs a command character string by voice from the portable terminal device 120 (step S301), the portable terminal device 120 receives the input voice data via the short-range communication unit 121 as in-vehicle. Send to device 110.

そして、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置130と判定し(ステップS302)、近距離通信部111を経由して、入力音声データをステップS302で判定した携帯端末装置130へ送る。   Based on the distribution information 112a, the distribution unit 113b of the in-vehicle device 110 determines which device the voice recognition engine is mounted on as the mobile terminal device 130 (step S302), and the short-range communication unit 111. Then, the input voice data is sent to the portable terminal device 130 determined in step S302.

一方、携帯端末装置130の音声認識部132は、受信した入力音声データを、音声認識して(ステップS303)、コマンド文字列に変換し、さらに、結果生成部133では、表示用に音声認識結果の確認を促す画像データを生成して(ステップS304)、近距離通信部131を経由して、画像データおよびコマンド文字列を車載装置110に送る。   On the other hand, the speech recognition unit 132 of the mobile terminal device 130 recognizes the received input speech data (step S303), converts it into a command character string, and the result generation unit 133 further displays the speech recognition result for display. Is generated (step S304), and the image data and the command character string are sent to the in-vehicle device 110 via the short-range communication unit 131.

その後、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識結果の出力先装置を携帯端末装置120と判定し、また、アプリケーションの搭載されている装置を携帯端末装置140と判定し(ステップS305)、近距離通信部111を経由して、画像データを携帯端末装置120に送る。   Thereafter, the distribution unit 113b of the in-vehicle device 110 determines that the output destination device of the voice recognition result is the mobile terminal device 120 based on the distribution information 112a, and the device on which the application is mounted is the mobile terminal device 140. (Step S305), and sends the image data to the mobile terminal device 120 via the short-range communication unit 111.

そして、携帯端末装置120は、受信した画像データをディスプレイ123によって表示する(ステップS306)。たとえば、図1のDA(111)に表示したような画像を、携帯端末装置120のディスプレイ123に表示する。   Then, the mobile terminal device 120 displays the received image data on the display 123 (step S306). For example, an image displayed on the DA (111) in FIG. 1 is displayed on the display 123 of the mobile terminal device 120.

その後、車載装置110は、近距離通信部111を経由して、コマンド文字列を携帯端末装置140に送り、携帯端末装置140は、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS307)。   Thereafter, the in-vehicle device 110 sends a command character string to the mobile terminal device 140 via the short-range communication unit 111, and the mobile terminal device 140 stores the received command character string in a temporary storage memory or the like ( Step S307).

図11の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図12を用いて説明する。図12は、実施例2にかかる結果確認処理手順を示すシーケンス図である。   A result confirmation processing procedure performed by the voice operation system following the processing procedure of FIG. 11 will be described with reference to FIG. FIG. 12 is a sequence diagram of the result confirmation processing procedure according to the second embodiment.

同図に示すように、同乗者が、携帯端末装置120から、確認文字列を音声入力すると(ステップS401)、携帯端末装置120は、入力音声データを車載装置110へ送る。   As shown in the figure, when the passenger inputs the confirmation character string by voice from the portable terminal device 120 (step S401), the portable terminal device 120 sends the input voice data to the in-vehicle device 110.

そして、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置130と判定し(ステップS402)、近距離通信部111を経由して、入力音声データをステップS402で判定した携帯端末装置130へ送る。   Based on the distribution information 112a, the distribution unit 113b of the in-vehicle device 110 determines which device the voice recognition engine is mounted on as the mobile terminal device 130 (step S402), and the short-range communication unit 111. Then, the input voice data is sent to the portable terminal device 130 determined in step S402.

一方、携帯端末装置130の音声認識部132は、受信した入力音声データを、音声認識して(ステップS403)、結果生成部133では、音声確認結果を確認文字列として文字列データ生成を行い(ステップS404)、近距離通信部131を経由して、確認文字列を車載装置110に送る。   On the other hand, the voice recognition unit 132 of the mobile terminal device 130 recognizes the received input voice data (step S403), and the result generation unit 133 generates character string data using the voice confirmation result as a confirmation character string ( In step S404, the confirmation character string is sent to the in-vehicle device 110 via the short-range communication unit 131.

その後、車載装置110の振分部113bは、振分情報112aに基づいて、アプリケーションの搭載されている装置を携帯端末装置140と判定し(ステップS405)、近距離通信部111を経由して、確認文字列を携帯端末装置120に送る。   Thereafter, the distribution unit 113b of the in-vehicle device 110 determines that the device on which the application is installed is the mobile terminal device 140 based on the distribution information 112a (step S405), and passes through the short-range communication unit 111, The confirmation character string is sent to the mobile terminal device 120.

そして、携帯端末装置140のアプリケーション142は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報143に基づいて、操作コマンドを生成し(ステップS406)、操作コマンドに基づいて、アプリケーションを実行する(ステップS407)。   Then, if the received confirmation character string is “OK”, the application 142 of the mobile terminal device 140 sends an operation command to the command character string stored in the temporary storage memory or the like based on the operation command information 143. Generate (step S406) and execute the application based on the operation command (step S407).

このように、実施例2では、音声認識エンジン、アプリケーションおよび音声入力/表示を行う装置がいずれにあっても、車載装置110が、それぞれの処理を各装置で行えるよう、振り分け処理するよう構成した。   As described above, in the second embodiment, the in-vehicle device 110 is configured to perform the distribution process so that each device can perform each process regardless of the voice recognition engine, the application, and the device that performs voice input / display. .

これにより、同乗者が、ドライバーの携帯端末装置130に触れることなく音声操作することができるとともに、音声認識エンジンやアプリケーションを搭載していない携帯端末装置からも音声操作することができる。さらには、同乗者自身の持つ携帯端末装置を使用することで、音声操作システムを使用する装置を新たに購入する必要がなく、多くの同乗者が利用することができる。   Accordingly, the passenger can perform a voice operation without touching the driver's mobile terminal device 130, and can also perform a voice operation from a mobile terminal device that is not equipped with a voice recognition engine or application. Furthermore, by using the portable terminal device owned by the passenger, it is not necessary to purchase a new device using the voice operation system, and many passengers can use it.

ところで、これまでは、同乗者の携帯端末装置から、音声入力を行う場合について説明してきたが、ドライバーだけが乗車しているような場合、すなわち、車載装置と1台の携帯端末装置とを連携させるようにしてもよい。   By the way, the case where voice input is performed from the passenger's portable terminal device has been described so far. However, when only the driver is on board, that is, the in-vehicle device and one portable terminal device are linked. You may make it make it.

そこで、実施例3では、車載装置と1台の携帯端末装置とが、近距離無線通信機能で連携する場合について、図13〜図16を用いて詳細に説明する。図13は、実施例3にかかる音声操作システムの構成を示すブロック図である。   Therefore, in the third embodiment, a case where the in-vehicle device and one mobile terminal device cooperate with each other by the short-range wireless communication function will be described in detail with reference to FIGS. FIG. 13 is a block diagram of the configuration of the voice operation system according to the third embodiment.

同図に示すように、音声操作システムは、車載装置210と、携帯端末装置220とを含んでいる。まず、車載装置210の構成について説明する。同図に示すように、車載装置210は、近距離通信部211と、マイク212と、ディスプレイ213と、制御部214とを備えている。   As shown in the figure, the voice operation system includes an in-vehicle device 210 and a mobile terminal device 220. First, the configuration of the in-vehicle device 210 will be described. As shown in the figure, the in-vehicle device 210 includes a short-range communication unit 211, a microphone 212, a display 213, and a control unit 214.

また、制御部214は、受信部214aと、振分部214bと、音声入力部214cと、表示操作部214dとをさらに備えている。近距離通信部211については、実施例1の近距離通信部11と同様であるので、ここでは説明を省略する。   The control unit 214 further includes a reception unit 214a, a distribution unit 214b, a voice input unit 214c, and a display operation unit 214d. Since the short-range communication unit 211 is the same as the short-range communication unit 11 of the first embodiment, description thereof is omitted here.

マイク212は、ヘッドセットマイクなどのハンズフリーユニットで、ドライバーが運転中にも音声操作が可能な入力デバイスで構成され、音声を電気信号に変換し、変換した電気信号を音声データとして音声入力部214cへ渡す。   The microphone 212 is a hands-free unit such as a headset microphone, and is composed of an input device that can perform voice operation even while the driver is driving. The microphone 212 converts voice into an electric signal, and the converted electric signal is used as voice data as a voice input unit. To 214c.

ディスプレイ213は、タッチパネルディスプレイなどの入出力デバイスで構成され、表示操作部214dからの画像データを表示するとともに、表示した表示画面に対するタッチ情報等を取得する。   The display 213 includes an input / output device such as a touch panel display, displays image data from the display operation unit 214d, and acquires touch information and the like for the displayed display screen.

ここで、タッチ情報とは、タッチされたディスプレイ上の座標位置情報や、タッチから次のタッチまでの時間間隔などを含んだ情報である。なお、ディスプレイ213は、取得したタッチ情報を表示操作部214dへ渡す。   Here, the touch information is information including coordinate position information on the touched display, a time interval from the touch to the next touch, and the like. The display 213 passes the acquired touch information to the display operation unit 214d.

受信部214aは、近距離通信部11経由で携帯端末装置220から音声認識結果データを受信し、音声入力部214cから入力音声データを受信し、さらに、表示操作部214dからは座標位置情報等を受信し、受信した各種データを、振分部214bへ渡す処理を行う処理部である。   The receiving unit 214a receives voice recognition result data from the mobile terminal device 220 via the short-range communication unit 11, receives input voice data from the voice input unit 214c, and further receives coordinate position information and the like from the display operation unit 214d. It is a processing unit that performs processing to receive and receive various received data to the distribution unit 214b.

振分部214bは、受信部214aから各種データを受信し、受信したデータを、図示しない振分情報に基づいて、表示操作部214dまたは携帯端末装置220へ送信する処理を行う処理部である。   The distribution unit 214b is a processing unit that performs processing of receiving various data from the reception unit 214a and transmitting the received data to the display operation unit 214d or the mobile terminal device 220 based on distribution information (not shown).

音声入力部214cは、マイク212からの入力音声データを受信部214aへ渡す処理を行う処理部である。表示操作部214dは、振分部214bから受信した画像データをディスプレイ213へ渡し、また、ディスプレイ213から受信したタッチ情報を受信部214aへ渡す処理を行う処理部である。   The voice input unit 214c is a processing unit that performs processing of passing input voice data from the microphone 212 to the reception unit 214a. The display operation unit 214d is a processing unit that performs processing to pass the image data received from the sorting unit 214b to the display 213 and to pass touch information received from the display 213 to the receiving unit 214a.

次に、携帯端末装置220の構成について説明する。同図に示すように、携帯端末装置220は、車載装置210との通信を行う近距離通信部221と、音声認識部222と、結果生成部223と、アプリケーション224と、操作コマンド情報225とを備えている。   Next, the configuration of the mobile terminal device 220 will be described. As shown in the figure, the mobile terminal device 220 includes a short-range communication unit 221 that communicates with the in-vehicle device 210, a voice recognition unit 222, a result generation unit 223, an application 224, and operation command information 225. I have.

なお、実際の携帯端末装置220では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図13では、実施例3にかかる携帯端末装置220の特徴を説明するために必要な構成要素のみを抜粋している。   Note that the actual mobile terminal device 220 includes functional units (for example, an operation unit, a display unit, a speaker, a voice input unit such as a microphone, etc.) other than the illustrated functional units. In FIG. Only the components necessary for explaining the characteristics of the mobile terminal device 220 are extracted.

近距離通信部221、音声認識部222、結果生成部223、アプリケーション224および操作コマンド情報225は、実施例1の近距離通信部21、音声認識部32、結果生成部33、アプリケーション27および操作コマンド情報24と同様であるので、ここでは説明を省略する。   The short-range communication unit 221, the voice recognition unit 222, the result generation unit 223, the application 224, and the operation command information 225 are the short-range communication unit 21, the voice recognition unit 32, the result generation unit 33, the application 27, and the operation command of the first embodiment. Since it is the same as the information 24, description is abbreviate | omitted here.

なお、本発明請求項記載の車載装置は車載装置210、携帯端末装置は携帯端末装置220、音声入力手段はマイク212および音声入力部214c、音声認識手段は音声認識部222、コマンド実行手段はアプリケーション224、振分手段は振分部214bに相当するものである。   The in-vehicle device according to the present invention is the in-vehicle device 210, the portable terminal device is the portable terminal device 220, the voice input means is the microphone 212 and the voice input unit 214c, the voice recognition means is the voice recognition unit 222, and the command execution means is an application. 224. The distribution means corresponds to the distribution unit 214b.

ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報の設定状態を、図14に示す。図14は、実施例3にかかる振分情報を示す図である。   Here, FIG. 14 shows the setting state of the distribution information when explaining the operation command input processing procedure and result confirmation processing procedure performed by the voice operation system. FIG. 14 is a diagram illustrating distribution information according to the third embodiment.

この場合、車載装置210は、装置識別子「111」に割り当てられ、ドライバーの携帯端末を携帯端末装置220とすると、装置識別子「222」に割り当てられているものとする。   In this case, it is assumed that the in-vehicle device 210 is assigned to the device identifier “111” and is assigned to the device identifier “222” when the driver's mobile terminal is the mobile terminal device 220.

音声認識エンジンおよびアプリケーションは、携帯端末装置220に搭載されている。「入力優先順位」は、ドライバーは携帯端末装置220を使用することができないので、車載装置210に「1」とだけ設定されているものとする。また、音声認識結果は、上記と同様の理由から車載装置210のディスプレイ213によって表示するよう設定されているものとして、以下を説明する。   The voice recognition engine and the application are installed in the mobile terminal device 220. The “input priority” is set to only “1” in the in-vehicle device 210 because the driver cannot use the portable terminal device 220. Further, the following description will be given assuming that the voice recognition result is set to be displayed on the display 213 of the in-vehicle device 210 for the same reason as described above.

まず、音声操作システムが行う操作コマンド入力処理手順について、図15を用いて説明する。図15は、実施例3にかかる操作コマンド入力処理手順を示すシーケンス図である。   First, an operation command input processing procedure performed by the voice operation system will be described with reference to FIG. FIG. 15 is a sequence diagram of the operation command input processing procedure according to the third embodiment.

車載装置210では、まず、図示しない車載装置210に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。   In the in-vehicle device 210, first, a button for starting a voice operation provided in the in-vehicle device 210 (not shown) is assigned, and when a voice operation start button is pressed, the voice operation can be performed. To do.

同図に示すように、ドライバーが、ハンズフリーのマイク212から、コマンド文字列を音声入力すると(ステップS501)、車載装置210の振分部214bは、振分情報に基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置220と判定し(ステップS502)、近距離通信部211を経由して、入力音声データをステップS502で判定した携帯端末装置220へ送る。   As shown in the figure, when the driver inputs a command character string by voice from the hands-free microphone 212 (step S501), the sorting unit 214b of the in-vehicle device 210 uses the voice recognition engine based on the sorting information. Which device is installed is determined to be the mobile terminal device 220 (step S502), and the input voice data is sent to the mobile terminal device 220 determined in step S502 via the short-range communication unit 211.

一方、携帯端末装置220の音声認識部222は、受信した入力音声データを、音声認識して(ステップS503)、コマンド文字列に変換し、さらに、結果生成部223では、表示用に音声認識結果の確認を促す画像データを生成して(ステップS504)、近距離通信部221を経由して、画像データおよびコマンド文字列を車載装置210に送る。   On the other hand, the voice recognition unit 222 of the mobile terminal device 220 recognizes the received input voice data (step S503), converts it into a command character string, and the result generation unit 223 further displays a voice recognition result for display. Is generated (step S504), and the image data and the command character string are sent to the in-vehicle device 210 via the short-range communication unit 221.

その後、車載装置210の振分部214bは、振分情報に基づいて、音声認識結果の出力先装置を車載装置210と判定し、また、アプリケーションの搭載されている装置を携帯端末装置220と判定する(ステップS505)。   Thereafter, the distribution unit 214b of the in-vehicle device 210 determines that the output device of the voice recognition result is the in-vehicle device 210 based on the distribution information, and determines that the device in which the application is installed is the mobile terminal device 220. (Step S505).

そして、車載装置210は、画像データをディスプレイ213によって表示する(ステップS506)。たとえば、図1のDA(111)に表示したような画像を、車載装置210のディスプレイ213に表示する。   And the vehicle equipment 210 displays image data on the display 213 (step S506). For example, an image displayed on the DA (111) in FIG. 1 is displayed on the display 213 of the in-vehicle device 210.

その後、車載装置210は、近距離通信部211を経由して、コマンド文字列を携帯端末装置220に送り、携帯端末装置220は、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS507)。   Thereafter, the in-vehicle device 210 sends a command character string to the mobile terminal device 220 via the short-range communication unit 211, and the mobile terminal device 220 stores the received command character string in a temporary storage memory or the like ( Step S507).

図15の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図16を用いて説明する。図16は、実施例3にかかる結果確認処理手順を示すシーケンス図である。   A result confirmation processing procedure performed by the voice operation system following the processing procedure of FIG. 15 will be described with reference to FIG. FIG. 16 is a sequence diagram of the result confirmation processing procedure according to the third embodiment.

同図に示すように、ドライバーが、音声認識結果の確認を促す画像が表示されているディスプレイ213の「OK」部分をタッチすることにより確認入力を行う(ステップS601)。   As shown in the figure, the driver performs confirmation input by touching the “OK” portion of the display 213 on which an image prompting confirmation of the speech recognition result is displayed (step S601).

車載装置210のディスプレイ213は、ディスプレイ213からタッチ情報としてタッチされたディスプレイ上の座標位置情報を取得し(ステップS602)、座標位置情報を表示操作部214dへ送る。   The display 213 of the in-vehicle device 210 acquires coordinate position information on the display touched as touch information from the display 213 (step S602), and sends the coordinate position information to the display operation unit 214d.

そして、車載装置210の表示操作部214dは、取得した座標位置情報および音声認識結果の確認を促す画像データに基づいて、確認結果を判別し(ステップS603)、確認結果を文字列に変換して、変換した確認文字列を受信部214aに送る。   Then, the display operation unit 214d of the in-vehicle device 210 determines the confirmation result based on the acquired coordinate position information and the image data that prompts confirmation of the speech recognition result (step S603), and converts the confirmation result into a character string. The converted confirmation character string is sent to the receiving unit 214a.

その後、車載装置210の振分部214bでは、振分情報に基づいて、アプリケーションの搭載されている装置を携帯端末装置220と判定し(ステップS604)、近距離通信部211を経由して、確認文字列を携帯端末装置220に送る。   Thereafter, the distribution unit 214b of the in-vehicle device 210 determines that the device on which the application is mounted is the mobile terminal device 220 based on the distribution information (step S604), and confirms via the short-range communication unit 211. The character string is sent to the mobile terminal device 220.

そして、携帯端末装置220のアプリケーション224は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報225に基づいて、操作コマンドを生成し(ステップS605)、操作コマンドに基づいて、アプリケーションを実行する(ステップS606)。   Then, if the received confirmation character string is “OK”, the application 224 of the mobile terminal device 220 sends an operation command to the command character string stored in the temporary storage memory or the like based on the operation command information 225. Generate (step S605), and execute the application based on the operation command (step S606).

このように、実施例3では、ドライバーの携帯端末装置に、音声認識エンジン、アプリケーションが搭載されており、車載装置210で、音声入力/表示を行い、ドライバーの携帯端末装置の機能を利用できるよう構成した。   As described above, in the third embodiment, the driver's portable terminal device includes the voice recognition engine and the application, and the in-vehicle device 210 can perform voice input / display and use the function of the driver's portable terminal device. Configured.

これにより、運転中のドライバーでも安全に携帯端末装置220の音声操作をすることができるとともに、携帯端末装置220の機能を利用することによって、ハード構成及びソフト構成の両面において車載装置210の構成を簡素化し、廉価な価格で製品提供することができる。   Thereby, even a driver who is driving can safely perform voice operation of the mobile terminal device 220, and by using the function of the mobile terminal device 220, the configuration of the in-vehicle device 210 can be configured in both hardware configuration and software configuration. Simplified and inexpensive products can be provided.

なお、上記実施例においては、音声操作する操作コマンドについて、アプリケーションの操作について説明したが、DAに表示または備えている入力項目、たとえば、数字キー、十字キーなどにも対応するようにしてもよく、この場合、DAの機能を音声操作することにより、ドライバーがより安全に運転することができる。   In the above-described embodiment, the operation of the application has been described with respect to the operation command for performing the voice operation. However, the input item displayed or provided in the DA, for example, the numeric key, the cross key, etc. may be supported. In this case, the driver can drive more safely by voice-operating the DA function.

また、上記実施例においては、音声認識結果の確認を行う際、音声入力により「OK」と発する、または、DAのディスプレイをタッチすることで、確認操作を認識してアプリケーションを実行していた。   In the above embodiment, when confirming the voice recognition result, the application is executed by recognizing the confirmation operation by issuing “OK” by voice input or touching the DA display.

ところが、音声認識結果を表示または出力した後、たとえば、一定時間、操作がなければ「OK」とみなす、あるいは、一定時間、操作がなければ「キャンセル」とみなすとすることで、操作者の動作を簡略化することができ、ドライバーがより安全に運転することができる。   However, after displaying or outputting the voice recognition result, for example, if there is no operation for a certain period of time, it is regarded as “OK”, or if there is no operation for a certain period of time, it is regarded as “cancel”. Can be simplified and the driver can drive more safely.

また、上記実施例においては、入力音声データのノイズ除去を携帯端末装置で行うようにしていたが、DAで行うようにすることで、音声認識処理を行う携帯端末装置の処理負荷を軽減することができる。   In the above embodiment, the noise removal of the input voice data is performed by the mobile terminal device. However, by using the DA, the processing load of the mobile terminal device that performs the voice recognition process can be reduced. Can do.

また、上記実施例においては、携帯端末装置に搭載された音声認識エンジンを使用するようにしていたが、DAに音声認識エンジンを搭載することで、アプリケーションを搭載する携帯端末装置さえ存在すればよいので、ドライバーや同乗者が携帯端末装置を購入する際の負担を軽減することができる。   Moreover, in the said Example, although the speech recognition engine mounted in the portable terminal device was used, even if the portable terminal device which mounts an application only exists by mounting the speech recognition engine in DA. Therefore, the burden when a driver or a passenger purchases a mobile terminal device can be reduced.

また、上記実施例においては、DAに音声操作を開始するボタンを備えるように構成していたが、携帯端末装置、または、ヘッドセットマイクなどのハンズフリーユニットに音声操作を開始するボタンを割り当ててもよい。   In the above embodiment, the DA is provided with a button for starting voice operation. However, a button for starting voice operation is assigned to a hands-free unit such as a portable terminal device or a headset microphone. Also good.

あるいは、携帯端末装置、または、DAのディスプレイに開始ボタンを表示させてもよい。この場合、DAに音声操作用のボタンを備えずに済むことから、ハード構成及びソフト構成の両面において、DAの構成を簡素化し、廉価な価格で製品提供することができる。   Alternatively, a start button may be displayed on the portable terminal device or the DA display. In this case, since it is not necessary to provide a voice operation button in the DA, the DA configuration can be simplified in both hardware and software configurations, and a product can be provided at a low price.

以上のように、本発明にかかる音声操作システムおよび音声操作方法は、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーの安全性を損なうことなく音声操作できるとともに、特に、音声認識エンジンおよびアプリケーションが、いずれの携帯端末装置に存在する場合であっても、ドライバーや同乗者が、自身の携帯端末装置から簡単に音声操作したい場合に適している。   As described above, the voice operation system and the voice operation method according to the present invention can perform voice operation without impairing the safety of a driver during driving, particularly when operating a mobile terminal device using an in-vehicle device. Even if the voice recognition engine and the application are present in any portable terminal device, it is suitable for a case where a driver or a passenger wants to easily perform a voice operation from his / her own portable terminal device.

本実施例にかかる音声操作システムの概要を示す図である。It is a figure which shows the outline | summary of the voice operation system concerning a present Example. 本実施例にかかる音声操作システムの装置構成パターンを示す図である。It is a figure which shows the apparatus structure pattern of the voice operation system concerning a present Example. 実施例1にかかる音声操作システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a voice operation system according to Example 1. FIG. 振分情報を示す図である。It is a figure which shows distribution information. 操作コマンド変更画面を示す図である。It is a figure which shows the operation command change screen. 実施例1にかかる振分情報を示す図である。It is a figure which shows the distribution information concerning Example 1. FIG. 実施例1にかかる操作コマンド入力処理手順を示すシーケンス図である。FIG. 6 is a sequence diagram illustrating an operation command input processing procedure according to the first embodiment. 実施例1にかかる結果確認処理手順を示すシーケンス図である。It is a sequence diagram which shows the result confirmation processing procedure concerning Example 1. FIG. 実施例2にかかる音声操作システムの構成を示すブロック図である。It is a block diagram which shows the structure of the voice operation system concerning Example 2. FIG. 実施例2にかかる振分情報を示す図である。It is a figure which shows the distribution information concerning Example 2. FIG. 実施例2にかかる操作コマンド入力処理手順を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating an operation command input processing procedure according to the second embodiment. 実施例2にかかる結果確認処理手順を示すシーケンス図である。It is a sequence diagram which shows the result confirmation processing procedure concerning Example 2. FIG. 実施例3にかかる音声操作システムの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a voice operation system according to a third embodiment. 実施例3にかかる振分情報を示す図である。It is a figure which shows the distribution information concerning Example 3. 実施例3にかかる操作コマンド入力処理手順を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating operation command input processing procedures according to the third embodiment. 実施例3にかかる結果確認処理手順を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating a result confirmation processing procedure according to the third embodiment.

符号の説明Explanation of symbols

10 車載装置
11 近距離通信部
12 記憶部
12a 振分情報
13 制御部
13a 受信部
13b 振分部
20 携帯端末装置
21 近距離通信部
22 マイク
23 スピーカー
24 操作コマンド情報
25 音声入力部
26 音声出力部
27 アプリケーション
30 携帯端末装置
31 近距離通信部
32 音声認識部
33 結果生成部


DESCRIPTION OF SYMBOLS 10 In-vehicle apparatus 11 Near field communication part 12 Storage part 12a Distribution information 13 Control part 13a Reception part 13b Distribution part 20 Portable terminal device 21 Near field communication part 22 Microphone 23 Speaker 24 Operation command information 25 Voice input part 26 Voice output part 27 Application 30 Mobile terminal device 31 Short-range communication unit 32 Voice recognition unit 33 Result generation unit


Claims (5)

車載装置を用いて携帯端末装置の音声操作を行う音声操作システムであって、
利用者が発する音声を入力する音声入力手段と、
前記音声を音声認識する音声認識手段と、
前記音声認識手段による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行手段と
を備え、
前記車載装置は、
前記音声入力手段、前記音声認識手段ならびに前記コマンド実行手段が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶手段と、
前記振分情報に基づいて前記音声入力手段からの出力を前記音声認識手段へ、前記音声認識手段からの出力を前記コマンド実行手段へ、それぞれ振り分ける振分手段と
を備えたことを特徴とする音声操作システム。
A voice operation system that performs voice operation of a mobile terminal device using an in-vehicle device,
Voice input means for inputting voice uttered by the user;
Voice recognition means for voice recognition of the voice;
Command execution means for executing the operation command after converting the voice recognition result by the voice recognition means into an operation command;
The in-vehicle device is
Distribution information storage means for storing distribution information associated with a device identifier for identifying the device, whether the voice input means, the voice recognition means, and the command execution means are present in the device;
And a distribution unit that distributes an output from the voice input unit to the voice recognition unit and an output from the voice recognition unit to the command execution unit based on the distribution information. Operation system.
前記音声認識手段は、
前記音声認識結果を利用者に対して通知して確認を得る結果確認手段
をさらに備え、
前記振分情報は、
前記結果確認手段による通知先となる装置の前記装置識別子をさらに含むものであって、
前記振分手段は、
前記振分情報に基づき、前記音声認識手段からの出力を前記コマンド実行手段へ振り分ける前に、当該出力を前記結果確認手段へ振り分けることを特徴とする請求項1に記載の音声操作システム。
The voice recognition means
A result confirmation means for notifying the user of the voice recognition result and obtaining confirmation;
The distribution information is
It further includes the device identifier of the device to be notified by the result confirmation means,
The distribution means includes
2. The voice operation system according to claim 1, wherein the output is distributed to the result confirmation unit before the output from the voice recognition unit is distributed to the command execution unit based on the distribution information.
前記振分情報は、
前記音声入力手段が複数の装置に設けられていて、複数の利用者がそれぞれの前記音声入力手段によって同時に音声を入力した場合に、どの前記音声入力手段からの前記音声を優先的に用いるかを示す入力優先順位をさらに含むものであって、
前記振分手段は、
前記振分情報に基づき、前記音声入力手段によって入力された前記音声を取捨選択することを特徴とする請求項1または2に記載の音声操作システム。
The distribution information is
When the voice input means is provided in a plurality of devices and a plurality of users input voices simultaneously by the voice input means, which voice input means is used preferentially. Which further includes an input priority to indicate,
The distribution means includes
The voice operation system according to claim 1 or 2, wherein the voice input by the voice input unit is selected based on the distribution information.
前記コマンド実行手段が実行する前記操作コマンドと前記音声認識手段による前記音声認識結果との対応付けを変更する変更手段
をさらに備えたことを特徴とする請求項1、2または3のいずれか1項に記載の音声操作システム。
The change means which changes matching with the said operation command which the said command execution means performs, and the said voice recognition result by the said voice recognition means is further provided. The voice operation system described in 1.
車載装置を用いて携帯端末装置の音声操作を行う音声操作方法であって、
利用者が発する音声を入力する音声入力工程と、
前記音声を音声認識する音声認識工程と、
前記音声認識工程による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行工程と
を備え、
前記車載装置は、
前記音声入力工程、前記音声認識工程ならびに前記コマンド実行工程が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶工程と、
前記振分情報に基づいて前記音声入力工程からの出力を前記音声認識工程へ、前記音声認識工程からの出力を前記コマンド実行工程へ、それぞれ振り分ける振分工程と
を備えたことを特徴とする音声操作方法。
A voice operation method for performing voice operation of a mobile terminal device using an in-vehicle device,
A voice input process for inputting voice uttered by the user;
A voice recognition step for recognizing the voice;
A command execution step of executing the operation command after converting the voice recognition result in the voice recognition step into an operation command,
The in-vehicle device is
A distribution information storage step for storing distribution information associated with a device identifier for identifying the device, whether the voice input step, the voice recognition step and the command execution step exist in the device;
A distribution step of allocating the output from the voice input step to the voice recognition step and the output from the voice recognition step to the command execution step based on the distribution information, respectively. Method of operation.
JP2008301496A 2008-11-26 2008-11-26 Voice activation system and voice activation method Pending JP2010130223A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008301496A JP2010130223A (en) 2008-11-26 2008-11-26 Voice activation system and voice activation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008301496A JP2010130223A (en) 2008-11-26 2008-11-26 Voice activation system and voice activation method

Publications (2)

Publication Number Publication Date
JP2010130223A true JP2010130223A (en) 2010-06-10
JP2010130223A5 JP2010130223A5 (en) 2012-08-09

Family

ID=42330307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008301496A Pending JP2010130223A (en) 2008-11-26 2008-11-26 Voice activation system and voice activation method

Country Status (1)

Country Link
JP (1) JP2010130223A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150456A (en) * 2011-01-19 2012-08-09 Denso Corp Remote operation method for portable terminal by integrated operation device for vehicle, and integrated operation device for vehicle
JP2012213132A (en) * 2011-03-23 2012-11-01 Denso Corp Device for vehicle and information display system thereof
JP2013198085A (en) * 2012-03-22 2013-09-30 Sony Corp Information processing device, information processing method, information processing program and terminal device
WO2014103015A1 (en) * 2012-12-28 2014-07-03 パイオニア株式会社 Portable terminal device, car onboard device, information presentation method, and information presentation program
EP2755201A2 (en) 2013-01-11 2014-07-16 Clarion Co., Ltd. Information processing apparatus, sound operating system, and sound operating method for information processing apparatus
WO2017022879A1 (en) * 2015-08-05 2017-02-09 엘지전자 주식회사 Vehicle driving assist and vehicle having same
KR101755376B1 (en) 2010-12-23 2017-07-26 엘지전자 주식회사 Method for controlling using voice action and the mobile terminal
JP2018042254A (en) * 2017-10-12 2018-03-15 ソニー株式会社 Terminal device
CN111433736A (en) * 2017-12-01 2020-07-17 雅马哈株式会社 Machine control system, machine control method, and program
JP2020191641A (en) * 2019-02-07 2020-11-26 ソニー株式会社 Terminal device
JP2021177636A (en) * 2020-07-03 2021-11-11 ソニーグループ株式会社 Terminal device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0837687A (en) * 1994-07-22 1996-02-06 Nippondenso Co Ltd Telephone set for vehicle with control function
JP2002150039A (en) * 2000-08-31 2002-05-24 Hitachi Ltd Service intermediation device
JP2005181391A (en) * 2003-12-16 2005-07-07 Sony Corp Device and method for speech processing
JP2005266192A (en) * 2004-03-18 2005-09-29 Matsushita Electric Ind Co Ltd Apparatus and method for speech recognition
JP2006003696A (en) * 2004-06-18 2006-01-05 Toyota Motor Corp Voice recognition device, voice recognition method and voice recognition program
WO2008076765A2 (en) * 2006-12-13 2008-06-26 Johnson Controls, Inc. Source content preview in a media system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0837687A (en) * 1994-07-22 1996-02-06 Nippondenso Co Ltd Telephone set for vehicle with control function
JP2002150039A (en) * 2000-08-31 2002-05-24 Hitachi Ltd Service intermediation device
JP2005181391A (en) * 2003-12-16 2005-07-07 Sony Corp Device and method for speech processing
JP2005266192A (en) * 2004-03-18 2005-09-29 Matsushita Electric Ind Co Ltd Apparatus and method for speech recognition
JP2006003696A (en) * 2004-06-18 2006-01-05 Toyota Motor Corp Voice recognition device, voice recognition method and voice recognition program
WO2008076765A2 (en) * 2006-12-13 2008-06-26 Johnson Controls, Inc. Source content preview in a media system
JP2010514271A (en) * 2006-12-13 2010-04-30 ジョンソン コントロールズ テクノロジー カンパニー Media system source content preview

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755376B1 (en) 2010-12-23 2017-07-26 엘지전자 주식회사 Method for controlling using voice action and the mobile terminal
JP2012150456A (en) * 2011-01-19 2012-08-09 Denso Corp Remote operation method for portable terminal by integrated operation device for vehicle, and integrated operation device for vehicle
JP2012213132A (en) * 2011-03-23 2012-11-01 Denso Corp Device for vehicle and information display system thereof
US8700408B2 (en) 2011-03-23 2014-04-15 Denso Corporation In-vehicle apparatus and information display system
JP2013198085A (en) * 2012-03-22 2013-09-30 Sony Corp Information processing device, information processing method, information processing program and terminal device
US11327712B2 (en) 2012-03-22 2022-05-10 Sony Corporation Information processing device, information processing method, information processing program, and terminal device
WO2014103015A1 (en) * 2012-12-28 2014-07-03 パイオニア株式会社 Portable terminal device, car onboard device, information presentation method, and information presentation program
US9739625B2 (en) 2013-01-11 2017-08-22 Clarion Co., Ltd. Information processing apparatus, operating system, and operating method for information processing apparatus
EP2755201A2 (en) 2013-01-11 2014-07-16 Clarion Co., Ltd. Information processing apparatus, sound operating system, and sound operating method for information processing apparatus
US9248788B2 (en) 2013-01-11 2016-02-02 Clarion Co., Ltd. Information processing apparatus, operating system, and operating method for information processing apparatus
KR20170017178A (en) * 2015-08-05 2017-02-15 엘지전자 주식회사 Driver assistance apparatus and vehicle including the same
KR101910383B1 (en) * 2015-08-05 2018-10-22 엘지전자 주식회사 Driver assistance apparatus and vehicle including the same
WO2017022879A1 (en) * 2015-08-05 2017-02-09 엘지전자 주식회사 Vehicle driving assist and vehicle having same
JP2018042254A (en) * 2017-10-12 2018-03-15 ソニー株式会社 Terminal device
CN111433736A (en) * 2017-12-01 2020-07-17 雅马哈株式会社 Machine control system, machine control method, and program
JP2020191641A (en) * 2019-02-07 2020-11-26 ソニー株式会社 Terminal device
JP2021177636A (en) * 2020-07-03 2021-11-11 ソニーグループ株式会社 Terminal device
JP7243764B2 (en) 2020-07-03 2023-03-22 ソニーグループ株式会社 In-vehicle device, mobile terminal device, information processing system, control method and program for in-vehicle device

Similar Documents

Publication Publication Date Title
JP2010130223A (en) Voice activation system and voice activation method
JP5652913B2 (en) In-vehicle terminal
WO2015102040A1 (en) Speech processing apparatus, speech processing system, speech processing method, and program product for speech processing
JP6501217B2 (en) Information terminal system
JP2013102373A (en) Hands-free device
JP2009300537A (en) Speech actuation system, speech actuation method and in-vehicle device
JP5413321B2 (en) Communication system, in-vehicle terminal, and portable terminal
JP2006154926A (en) Electronic equipment operation system using character display and electronic apparatuses
JPWO2010092662A1 (en) In-vehicle information processing apparatus and method
JP2012124578A (en) On-vehicle device, on-vehicle system, and portable terminal
JP6896540B2 (en) In-vehicle system
US9262796B2 (en) Communication apparatus
JP2013191979A (en) On-vehicle apparatus, portable terminal, and program for portable terminal
CN113163299A (en) Audio signal control device, audio signal control system, and computer-readable recording medium
JP4478146B2 (en) Speech recognition system, speech recognition method and program thereof
JP2020144264A (en) Agent device, control method of agent device, and program
JP2019159559A (en) Information providing apparatus
CN111731320B (en) Intelligent body system, intelligent body server, control method thereof and storage medium
JP2016083984A (en) Operation device for on-vehicle air conditioner, and on-vehicle air conditioning system
CN111667823A (en) Agent device, control method for agent device, and storage medium
KR102329888B1 (en) Speech recognition apparatus, vehicle having the same and controlling method of speech recognition apparatus
JP2002335342A (en) Vehicle use communication unit
JP6509098B2 (en) Voice output device and voice output control method
JP2014086808A (en) On-vehicle system
JP6841536B1 (en) Translation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111020

A521 Written amendment

Effective date: 20120618

Free format text: JAPANESE INTERMEDIATE CODE: A523

A977 Report on retrieval

Effective date: 20130307

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20130326

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20131001

Free format text: JAPANESE INTERMEDIATE CODE: A02