JP6807756B2 - Wireless communication system, wireless communication device, and wireless communication method - Google Patents
Wireless communication system, wireless communication device, and wireless communication method Download PDFInfo
- Publication number
- JP6807756B2 JP6807756B2 JP2017003570A JP2017003570A JP6807756B2 JP 6807756 B2 JP6807756 B2 JP 6807756B2 JP 2017003570 A JP2017003570 A JP 2017003570A JP 2017003570 A JP2017003570 A JP 2017003570A JP 6807756 B2 JP6807756 B2 JP 6807756B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- wireless communication
- voice
- unit
- guide
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、無線通信システム、無線通信機器、及び、無線通信方法に関する。 The present invention relates to wireless communication systems, wireless communication devices, and wireless communication methods.
従来、第1無線通信機器(ホスト装置)と、第2無線通信機器(画像形成装置)との間で、無線通信する無線通信システム(プリントシステム)が知られている(例えば、特許文献1参照)。 Conventionally, a wireless communication system (print system) that wirelessly communicates between a first wireless communication device (host device) and a second wireless communication device (image forming device) is known (see, for example, Patent Document 1). ).
上述した特許文献1に記載の無線通信システムのように、第1無線通信機器と、第2無線通信機器とで無線通信するシステムでは、第1無線通信機器と、第2無線通信機器との間で通信可能な状態が確立する前に、第2無線通信機器に無線通信に関する情報を取得させることが求められる場合がある。例えば、第1無線通信機器、及び、第2無線通信機器がBluetooth(登録商標)デバイスである場合、これら機器間でペアリングを行うために、これら機器間で通信可能な状態が確立する前に、第2無線通信機器に、ペアリングに用いられる暗証情報を取得させることが求められる。従来、第2無線通信機器に無線通信に関する情報を取得させる場合、ユーザーが、当該情報の入力を行っており、作業が煩雑であり、ユーザーの利便性に課題があった。
本発明は、上述した事情に鑑みてなされたものであり、無線通信システム、無線通信機器、及び、無線通信方法について、ユーザーの利便性を向上することを目的とする。
In a system for wireless communication between a first wireless communication device and a second wireless communication device, such as the wireless communication system described in
The present invention has been made in view of the above circumstances, and an object of the present invention is to improve user convenience with respect to a wireless communication system, a wireless communication device, and a wireless communication method.
上記目的を達成するために、本発明は、第1無線通信機器と、前記第1無線通信機器と通信可能な第2無線通信機器とを備える無線通信システムにおいて、前記第1無線通信機器は、ガイド音声を記憶するガイド音声記憶部と、無線通信に関する情報を表す文字列に基づいて、前記ガイド音声が有する時間長以下の時間長を有する設定音を生成する設定音生成部と、前記ガイド音声と前記設定音とを合成した合成音を出力する出力部と、を有し、前記第2無線通信機器は、前記出力部より出力された前記合成音を収音する音声収音部と、前記音声収音部が収音した前記合成音から前記ガイド音声を検出するガイド音声検出部と、前記ガイド音声検出部が検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離する音源分離部と、前記分離音から前記設定音を抽出する設定音抽出部と、前記設定音を前記文字列に変換するテキスト変換部と、を有する、ことを特徴とする。 In order to achieve the above object, the present invention relates to a wireless communication system including a first wireless communication device and a second wireless communication device capable of communicating with the first wireless communication device. A guide sound storage unit that stores the guide sound, a setting sound generation unit that generates a setting sound having a time length equal to or less than the time length of the guide sound based on a character string representing information related to wireless communication, and the guide sound. The second wireless communication device has an output unit that outputs a synthetic sound obtained by synthesizing and the set sound, and the second wireless communication device includes an audio sound collecting unit that collects the synthetic sound output from the output unit, and the sound collecting unit. The guide sound detection unit that detects the guide sound from the synthetic sound picked up by the voice sound collecting unit, and the guide sound and the separated sound from the synthetic sound based on the guide sound detected by the guide sound detection unit. It is characterized by having a sound source separation unit for separating the above, a setting sound extraction unit for extracting the set sound from the separated sound, and a text conversion unit for converting the set sound into the character string.
また、本発明は、前記文字列は、無線通信に際して前記第1無線通信機器を識別する機器識別情報を含む、ことを特徴とする。 Further, the present invention is characterized in that the character string includes device identification information for identifying the first wireless communication device during wireless communication.
また、本発明は、前記文字列は、前記第1無線通信機器に前記第2無線通信機器を認証させるために用いられる暗証情報を含む、ことを特徴とする。 Further, the present invention is characterized in that the character string includes password information used for causing the first wireless communication device to authenticate the second wireless communication device.
また、本発明は、前記設定音生成部は、前記文字列を暗号化し、暗号化した前記文字列に基づいて前記設定音を生成する、ことを特徴とする。 Further, the present invention is characterized in that the set sound generation unit encrypts the character string and generates the set sound based on the encrypted character string.
また、本発明は、前記設定音の音色はピアノ音である、ことを特徴とする。 Further, the present invention is characterized in that the tone color of the set sound is a piano sound.
また、上記目的を達成するために、本発明の無線通信機器は、ガイド音声と、無線通信に関する情報を表す文字列に基づいて生成され、前記ガイド音声が有する時間長以下の時間長を有する設定音とが合成された合成音を収音する音声収音部と、前記音声収音部が収音した前記合成音に含まれる前記ガイド音声を検出するガイド音声検出部と、前記ガイド音声検出部が検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離する音源分離部と、前記分離音から前記設定音を抽出する設定音抽出部と、前記設定音を前記文字列に変換するテキスト変換部と、を有することを特徴とする。 Further, in order to achieve the above object, the wireless communication device of the present invention is generated based on a guide sound and a character string representing information related to wireless communication, and is set to have a time length equal to or less than the time length of the guide sound. A sound pick-up unit that picks up a synthetic sound in which sounds are combined, a guide voice detection unit that detects the guide sound included in the synthetic sound collected by the voice sound pick-up unit, and the guide voice detection unit. Based on the guide sound detected by, a sound source separation unit that separates the guide sound and the separated sound from the synthetic sound, a setting sound extraction unit that extracts the set sound from the separated sound, and the set sound It is characterized by having a text conversion unit for converting into a character string.
また、上記目的を達成するために、本発明は、第1無線通信機器と第2無線通信機器との無線通信方法において、前記第1無線通信機器は、ガイド音声を記憶し、無線通信に関する情報を表す文字列に基づいて、記憶した前記ガイド音声が有する時間長以下の時間長を有する設定音を生成し、前記ガイド音声と前記設定音とを合成した合成音を出力し、前記第2無線通信機器は、前記合成音を収音し、収音した前記合成音に含まれる前記ガイド音声を検出し、検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離し、前記分離音から前記設定音を抽出し、抽出した前記設定音を前記文字列に変換することを特徴とする。 Further, in order to achieve the above object, in the wireless communication method between the first wireless communication device and the second wireless communication device, the first wireless communication device stores a guide sound and information on wireless communication. Based on the character string representing, a set sound having a time length equal to or less than the time length of the stored guide sound is generated, a synthetic sound obtained by synthesizing the guide sound and the set sound is output, and the second radio is output. The communication device picks up the synthetic sound, detects the guide sound included in the collected synthetic sound, and separates the guide sound and the separated sound from the synthetic sound based on the detected guide sound. Then, the set sound is extracted from the separated sound, and the extracted set sound is converted into the character string.
本発明によれば、ユーザーの利便性を向上できる。 According to the present invention, the convenience of the user can be improved.
以下、図面を参照して本発明の実施形態について説明する。
本実施形態に係る無線通信システム100は、車載装置1(第1無線通信機器)と、携帯端末3(第2無線通信機器)とを備える。車載装置1、及び、携帯端末3は、それぞれ、Bluetoothの規格に従って通信する機能を有しており、これら装置間でペアリングが完了した後は、Bluetoothの規格に従って通信可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The
まず、図1を参照して、本発明の実施形態に係る無線通信システム100が備える車載装置1の詳細な構成について説明する。
First, with reference to FIG. 1, a detailed configuration of the in-
図1は、無線通信システム100が備える車載装置1の機能ブロック図である。
車載装置1は、車両に搭載された装置である。車載装置1は、車両の現在位置を検出する自車位置検出を行う機能、地図上に車両の現在位置を表示する車両位置表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し目的地までの経路を案内する経路案内を行う機能を備えたいわゆるカーナビゲーションである。
FIG. 1 is a functional block diagram of an in-
The in-
図1に示すように、車載装置1は、車載装置制御部10と、操作部11と、車載装置タッチパネル13と、車載装置無線通信部15と、音声出力部17(出力部)と、GPSユニット20と、相対方位検出ユニット18と、車載装置記憶部14とを有する。
As shown in FIG. 1, the in-
車載装置制御部10は、CPUや、ROM、RAM、ASIC、信号処理回路等を備え、車載装置1の各部を制御する。車載装置制御部10は、例えばCPUが、ROMに記憶されたプログラムをRAMに読み出して処理を実行し、また例えばASICに実装された機能により処理を実行し、また例えば信号処理回路で信号処理を行って処理を実行する等、ハードウェア及びソフトウェアにより処理を実行する。車載装置制御部10は、機能ブロックとして、設定音生成部10aを備える。設定音生成部10aについては、後述する。
The in-vehicle
操作部11は、車載装置1の筐体に設けられた操作ボタンを有し、ユーザーによる操作ボタンに対する操作を検出し、検出した操作に対応する信号を車載装置制御部10に出力する。車載装置制御部10は、操作部11から入力された操作信号に基づいて、操作ボタンに対する操作に対応する処理を実行する。
操作部11は、操作ボタンとして、少なくとも、機器登録画面表示ボタン11aを有する。機器登録画面表示ボタン11aがユーザーにより操作された場合の車載装置制御部10の処理については後述する。
The
The
車載装置タッチパネル13は、液晶表示パネルや、有機ELパネル等の表示パネルを備え、車載装置制御部10の制御で、表示パネルに画像を表示する。
また、車載装置タッチパネル13は、表示パネルに重ねて配置されたタッチセンサーを備え、ユーザーによる車載装置タッチパネル13に対する操作を検出し、検出した操作に対応する信号を車載装置制御部10に出力する。車載装置制御部10は、車載装置タッチパネル13からの入力に基づいて、ユーザーによる車載装置タッチパネル13に対する操作に対応する処理を実行する。
The in-vehicle
Further, the in-vehicle
車載装置無線通信部15は、リンクマネージャーや、リンクコントローラー、高周波回路、アンテナ等を含む無線通信モジュール備え、車載装置制御部10の制御で、外部の装置とBluetoothに従って無線通信する。
The in-vehicle device
音声出力部17は、音声信号合成回路や、D/Aコンバーター、アンプ回路、スピーカー等を備え、車載装置制御部10の制御で、車載装置制御部10から入力された音声信号をD/Aコンバーターによりデジタル/アナログ変換し、アンプ回路により増幅して、図示しないスピーカーから音声として出力する。
特に、音声出力部17は、車載装置制御部10から、異なる複数の音声信号が入力された場合、音声信号合成回路において複数の音声信号を合成して、D/Aコンバーターに出力し、複数の音声信号に基づく音声が合成された状態で音声を出力する。
The
In particular, when a plurality of different audio signals are input from the in-vehicle
GPSユニット20は、図示しないGPSアンテナを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、車両の現在地と、車両の進行方向とを算出する。GPSユニット20は、算出した車両の現在地を示す情報、及び、算出した車両の進行方向を示す情報を車載装置制御部10に出力する。
The
相対方位検出ユニット18は、ジャイロセンサと、加速度センサとを備える。ジャイロセンサは、例えば振動ジャイロにより構成され、車両の相対的な方位(例えば、ヨー軸方向の旋回量)を検出する。加速度センサは、車両に作用する加速度(例えば、進行方向に対する車両の傾き)を検出する。相対方位検出ユニット18は、検出した車両の相対的な方位を示す情報、及び、検出した車両に作用する加速度を示す情報を車載装置制御部10に出力する。
The relative
車載装置記憶部14は、不揮発性メモリーを備え、各種データを記憶する。車載装置記憶部14は、車載装置側対応音情報記憶部141と、マスター側通信情報記憶部142と、ガイド音声記憶部143と、を有する。
The in-vehicle
なお、以下の説明では、16進数で数字を表す場合、「0x1」や、「0xf」のように、16進数の数字の前に「0x」を付けて表し、10進数で数字を表す場合と区別する。また、16進数で表された数字のことを、特に、「16進数数字」という。特に、「0x0」〜「0xf」の16個の16進数数字について、「基準16進数数字」という。
また、以下の説明では、音名を、英・米式表記で表すものとする。また、音名として、便宜的に、「低C」、「低D」、「低E」、「低F」、「低G」、「低A」、「低B」、「中C」、「中D」、「中E」、「中F」、「中G」、「中A」、「中B」、「高C」、「高D」、「高E」、「高F」、「高G」、「高A」、「高B」があるものとする。それぞれの音の高さと、MIDI(登録商標)ノート番号との対応関係は以下である。
「低C」→MIDIノート番号:48。「低D」→MIDIノート番号:50。「低E」→MIDIノート番号:52。「低F」→MIDIノート番号:53。「低G」→MIDIノート番号:55。「低A」→MIDIノート番号:57。「低B」→MIDIノート番号:59。「中C」→MIDIノート番号:60。「中D」→MIDIノート番号:62。「中E」→MIDIノート番号:64。「中F」→MIDIノート番号:65。「中G」→MIDIノート番号:67。「中A」→MIDIノート番号:69。「中B」→MIDIノート番号:70。「高C」→MIDIノート番号:72。「高D」→MIDIノート番号:74。「高E」→MIDIノート番号:76。「高F」→MIDIノート番号:77。「高G」→MIDIノート番号:79。「高A」→MIDIノート番号:81。「高B」→MIDIノート番号:83。
In the following description, when a number is represented by a hexadecimal number, "0x" is added before the hexadecimal number such as "0x1" or "0xf", and the number is represented by a decimal number. Distinguish. Further, a number represented by a hexadecimal number is particularly referred to as a "hexary number". In particular, the 16 hexadecimal numbers from "0x0" to "0xf" are referred to as "reference hexadecimal numbers".
Further, in the following explanation, the note name is expressed in English / American notation. In addition, as note names, for convenience, "low C", "low D", "low E", "low F", "low G", "low A", "low B", "medium C", "Medium D", "Medium E", "Medium F", "Medium G", "Medium A", "Medium B", "High C", "High D", "High E", "High F", It is assumed that there are "high G", "high A", and "high B". The correspondence between the pitch of each note and the MIDI (registered trademark) note number is as follows.
"Low C" → MIDI note number: 48. "Low D" → MIDI note number: 50. "Low E" → MIDI note number: 52. "Low F" → MIDI note number: 53. "Low G" → MIDI note number: 55. "Low A" → MIDI note number: 57. "Low B" → MIDI note number: 59. "Medium C" → MIDI note number: 60. "Medium D" → MIDI note number: 62. "Medium E" → MIDI note number: 64. "Medium F" → MIDI note number: 65. "Medium G" → MIDI note number: 67. "Medium A" → MIDI note number: 69. "Medium B" → MIDI note number: 70. "High C" → MIDI note number: 72. "High D" → MIDI note number: 74. "High E" → MIDI note number: 76. "High F" → MIDI note number: 77. "High G" → MIDI note number: 79. "High A" → MIDI note number: 81. "High B" → MIDI note number: 83.
車載装置側対応音情報記憶部141は、車載装置側対応音テーブル141aを記憶する。
図2は、車載装置側対応音テーブル141aの内容を説明に適した態様で模式的に示す図である。
ここで、本実施形態では、事前に、基準16進数数字のそれぞれ(「0x0」〜「0xf」のそれぞれ。)について、音名のいずれかが割り振られる。基準16進数数字のそれぞれに割り振られる音名は、それぞれ異なるものとされる。そして、対応音テーブルは、基準16進数数字のそれぞれと、基準16進数数字のそれぞれに割り振られた音名との対応関係を管理するテーブルである。
図2に示すように、本実施形態では、例えば、16進数数字「0x0」に対しては、音名「低C」が割り振られ、また例えば、16進数数字「0x1」に対しては、音名「低D」が割り振られる。
車載装置側対応音テーブル141aの使用のされ方については、後述する。
The vehicle-mounted device-side compatible sound
FIG. 2 is a diagram schematically showing the contents of the sound table 141a corresponding to the vehicle-mounted device side in a mode suitable for explanation.
Here, in the present embodiment, one of the note names is assigned in advance for each of the reference hexadecimal numbers (each of "0x0" to "0xf"). The note names assigned to each of the reference hexadecimal numbers are different. The corresponding sound table is a table that manages the correspondence between each of the reference hexadecimal numbers and the note names assigned to each of the reference hexadecimal numbers.
As shown in FIG. 2, in the present embodiment, for example, the note name "low C" is assigned to the hexadecimal digit "0x0", and for example, the note is assigned to the hexadecimal digit "0x1". The name "Low D" is assigned.
How to use the sound table 141a corresponding to the in-vehicle device will be described later.
マスター側通信情報記憶部142は、車載装置1と携帯端末3との間でBluetoothに対応するペアリングを行う際に用いられる情報であるマスター側通信情報を記憶する。本実施形態では、マスター側通信情報は、少なくとも、Bluetoothの規格に従ってペアリングを行う際に、マスターとしての車載装置1の識別に利用する識別情報(以下、「車載装置識別情報」という。)と、ペアリングに使用する暗証情報(パスキー、パスワード、パスコードと呼ばれる場合もある。)と、を少なくとも含む。車載装置識別情報は、機器識別情報に相当する。
The master-side communication
ガイド音声記憶部143は、ガイド音声の音声ファイル(以下、「ガイド音声ファイル」という。)を記憶する。ガイド音声については、後述する。
The guide
また、車載装置記憶部14は、地図データ14aを記憶する。
地図データ14aは、道路の形状を地図に描画する際に用いる道路画像データや、地形等の背景を地図に描画する際に用いる背景画像データ、行政区画を示す文字列や、交差点名を示す文字列、道路名を示す文字列等の文字列を地図に描画する際に用いる文字列画像データ等の地図の表示に用いる画像データを備える。また、地図データ14aは、交差点等の道路網における結線点に対応するノードに関するノード情報や、ノードとノードとの間に形成される道路に対応するリンクに関するリンク情報等の経路の探索、及び、経路の案内に用いる経路情報を含む。
Further, the vehicle-mounted
The
上述したように、車載装置1は、車両の現在位置を検出する自車位置検出を行う機能、地図上に車両の現在位置を表示する車両位置表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し目的地までの経路を案内する経路案内を行う機能を備える。自車位置検出に際し、車載装置制御部10は、GPSユニット20及び相対方位検出ユニット18からの入力、及び、地図データ14aに基づいて、車両の現在位置を検出する。なお、車両の現在位置を検出する方法はどのような方法であってもよく、また、検出に際し、車速を示す情報等の本実施形態で例示する情報以外の情報を用いてもよい。また、車両位置表示に際し、車載装置制御部10は、地図データ14aに基づいて、検出した現在位置を中心とした所定のスケールの地図を車載装置タッチパネル13に表示すると共に、検出した車両の現在位置を示すマークを地図に表示する。また、経路探索に際し、車載装置制御部10は、地図データ14aに基づいて、検出した現在位置から、ユーザーに設定された目的地に至る経路を探索する。また、経路案内に際し、車載装置制御部10は、目的地までの経路を地図上に表示すると共に、検出した車両の現在位置を地図上に表示し、目的地に至るまでの経路を案内する。
As described above, the in-
図3は、無線通信システム100が備える携帯端末3の機能ブロック図である。
携帯端末3は、車載装置1が搭載された車両に搭乗するユーザーが所有する携帯型の端末である。携帯端末3は、例えば、スマートフォンであり、また例えば、タブレット型のコンピューターである。
FIG. 3 is a functional block diagram of the
The
図3に示すように、携帯端末3は、携帯端末制御部30と、携帯端末タッチパネル31と、音声収音部32と、携帯端末記憶部33と、携帯端末無線通信部34と、携帯端末ネットワーク通信部35とを有する。
As shown in FIG. 3, the
携帯端末制御部30は、CPUや、ROM、RAM、ASIC、信号処理回路等を備え、携帯端末3の各部を制御する。携帯端末制御部30は、例えばCPUが、ROMに記憶されたプログラムをRAMに読み出して処理を実行し、また例えばASICに実装された機能により処理を実行し、また例えば信号処理回路で信号処理を行って処理を実行する等、ハードウェア及びソフトウェアにより処理を実行する。携帯端末制御部30は、機能ブロックとして、ガイド音声検出部301と、音源分離部302と、設定音抽出部303と、テキスト変換部304とを備える。これら機能ブロックについては、後述する。
The mobile
携帯端末タッチパネル31は、液晶表示パネルや、有機ELパネル等の表示パネルを備え、携帯端末制御部30の制御で、表示パネルに画像を表示する。
また、携帯端末タッチパネル31は、表示パネルに重ねて配置されたタッチセンサーを備え、ユーザーによる携帯端末タッチパネル31に対する操作を検出し、携帯端末制御部30に出力する。携帯端末制御部30は、携帯端末タッチパネル31からの入力に基づいて、ユーザーによる携帯端末タッチパネル31に対する操作に対応する処理を実行する。
The mobile
Further, the mobile
音声収音部32は、マイク(不図示)と接続され、マイクによって収音された音声に基づく信号に対して必要な信号処理を行いアナログ/デジタル変換して音声データを生成し、携帯端末制御部30に出力する。
The voice
携帯端末記憶部33は、不揮発性のメモリーを備え、各種データを記憶する。
携帯端末記憶部33は、専用アプリケーションAPを記憶する。専用アプリケーションAPは、車載装置1と携帯端末3との間でのペアリングに関する処理(後述)を実行する機能を有するアプリケーションである。専用アプリケーションAPは、例えば、車載装置1を製造する企業が提供するアプリケーションであり、ユーザーにより、所定の手段で、携帯端末3にインストールされる。携帯端末記憶部33には、専用アプリケーションAPが使用可能な記憶領域が形成される。
The mobile
The mobile
携帯端末記憶部33は、携帯端末側対応音情報記憶部331を有する。
携帯端末側対応音情報記憶部331は、上述した専用アプリケーションAPが使用可能な記憶領域で、携帯端末側対応音テーブル331aを記憶する。
携帯端末側対応音テーブル331aは、上述した車載装置側対応音テーブル141aの内容と完全に同一の内容のテーブルである。すなわち、車載装置1において管理される基準16進数数字と音名との対応関係と、携帯端末3において管理される基準16進数数字と音名との対応関係とは、同一である。
The mobile
The mobile terminal-side compatible sound
The mobile terminal side compatible sound table 331a is a table having completely the same contents as the contents of the in-vehicle device side compatible sound table 141a described above. That is, the correspondence between the reference hexadecimal number and the note name managed by the in-
携帯端末無線通信部34は、リンクマネージャーや、リンクコントローラー、高周波回路、アンテナ等を含む無線通信モジュール備え、携帯端末制御部30の制御で、外部の装置とBluetoothに従って無線通信する。
The mobile terminal
携帯端末ネットワーク通信部35は、携帯端末制御部30の制御で、電話網や、インターネット、その他のネットワークを含んで構成されるグローバルネットワークGNと接続する外部の装置と、所定の通信規格に従って通信する。所定の通信規格は、例えば、HTTPであり、また例えば、WebSocketである。
The mobile terminal
ところで、車載装置1は、グローバルネットワークGNに、直接、アクセスする機能を有していない。これを踏まえ、車載装置1は、グローバルネットワークGNにアクセスする場合、携帯端末3を用いてデザリングする。すなわち、車載装置1は、携帯端末3との間でBluetoothに従って通信リンクを確立し、携帯端末3との間でBluetoothに従って通信可能な状態を確立し、携帯端末3を介してグローバルネットワークGNにアクセスする。例えば、車載装置1は、携帯端末3を介してグローバルネットワークGNにアクセスし、所定のサーバーと通信して、地図データ14aの更新用のデータを取得し、取得したデータに基づいて地図データ14aを更新する。
ここで、車載装置1と携帯端末3との間でBluetoothに従って通信可能な状態を確立するためには、これら装置の間で、事前に、ペアリングが行われる必要がある。
従来、車載装置1と携帯端末3との間でペアリングを行う場合、ユーザーが、携帯端末3に表示された所定のユーザーインターフェースに、ペアリングに必要な情報を入力する必要があった。当該作業は煩雑であり、ユーザーの利便性に課題があった。
以上を踏まえ、ペアリングに際し、車載装置1と携帯端末3とは、以下の処理を実行し、ユーザーの利便性を向上する。
By the way, the in-
Here, in order to establish a state in which the in-
Conventionally, when pairing is performed between the in-
Based on the above, at the time of pairing, the in-
図4は、ペアリングを行うときの車載装置1、及び、携帯端末3の動作を示すフローチャートである。図4において、フローチャートFAは、車載装置1の動作を示し、フローチャートFBは、携帯端末3の動作を示す。
ペアリングに際し、まず、ユーザーは、携帯端末3の携帯端末タッチパネル31に対して所定の操作を行って、専用アプリケーションAPを起動する(ステップS1)。
なお、フローチャートFBの処理を、携帯端末制御部30は、ステップS1でユーザーにより起動された専用アプリケーションAPの機能により実行する。
FIG. 4 is a flowchart showing the operation of the in-
At the time of pairing, the user first performs a predetermined operation on the mobile
The process of the flowchart FB is executed by the mobile
図4のフローチャートFBに示すように、専用アプリケーションAPの起動に応じて、携帯端末制御部30は、ペアリング開始通知画面G1を携帯端末タッチパネル31に表示する(ステップSB1)。
As shown in the flowchart FB of FIG. 4, the mobile
図5は、ペアリング開始通知画面G1を示す図である。
図5に示すように、ペアリング開始通知画面G1には、ペアリング(車載装置1への携帯端末3の登録。)を開始することを示す情報、及び、車載装置1の機器登録画面G2(図6参照。後述。)に対して操作を行うべきことを示す情報が表示される。ユーザーは、ペアリング開始通知画面G1を参照することにより、ペアリングが開始されること、及び、車載装置1の機器登録画面G2に対して操作を行う必要があることについて的確に認識できる。
FIG. 5 is a diagram showing a pairing start notification screen G1.
As shown in FIG. 5, the pairing start notification screen G1 shows information indicating that pairing (registration of the
次いで、携帯端末制御部30は、携帯端末3の周囲の音の録音を開始する(ステップSB2)。詳述すると、携帯端末制御部30は、音声収音部32を制御して、携帯端末3の周囲の音声の収音を開始する。上述したように、音声収音部32は、マイクによって収音された音声に基づく音声データを生成し、携帯端末制御部30に出力する。携帯端末制御部30は、音声の収音の開始に応じて音声収音部32から入力される音声データを、携帯端末記憶部33に累積的に記憶する。以下、携帯端末記憶部33に累積的に記憶される音声データの集合を、「録音データ」と表現する。
Next, the mobile
ペアリング開始通知画面G1を参照したユーザーは、車載装置1の機器登録画面表示ボタン11aを操作する(ステップS2)。
The user who has referred to the pairing start notification screen G1 operates the device registration
図4のフローチャートFAに示すように、機器登録画面表示ボタン11aが操作されたことを検出した場合、車載装置制御部10は、車載装置タッチパネル13に機器登録開始画面G2を表示する(ステップSA1)。
As shown in the flowchart FA of FIG. 4, when it is detected that the device registration
図6は、機器登録開始画面G2を示す図である。
図6に示すように、機器登録開始画面G2は、タッチ操作可能な開始ボタン13aを有する。また、機器登録開始画面G2には、開始ボタン13aがタッチ操作された場合、ペアリング(車載装置1への携帯端末3の登録。)が開始されることを示す情報、所定期間(本例では、30秒間。)、車載装置1から音が出力されることを示す情報、及び、音の出力が停止するまで、ユーザーが静かにすべきことを示す情報が表示される。
ユーザーは、機器登録開始画面G2を参照することにより、ペアリングを開始するために開始ボタン13aを操作すべきこと、開始ボタン13aの操作に応じて、所定期間、音が出力されること、及び、音の出力が停止するまで静かに待機すべきことを的確に認識できる。
FIG. 6 is a diagram showing a device registration start screen G2.
As shown in FIG. 6, the device registration start screen G2 has a touch-
The user should operate the
機器登録開始画面G2を参照したユーザーは、ペアリングを開始する場合、当該画面の開始ボタン13aを操作する(ステップS3)。
When the user who has referred to the device registration start screen G2 starts pairing, he / she operates the
開始ボタン13aが操作されたことを検出した場合、車載装置制御部10の設定音生成部10aは、設定音生成処理を実行する(ステップSA2)。以下、設定音生成処理について、詳述する。
When it is detected that the
図7のフローチャートFCは、設定音生成処理の詳細を示すフローチャートである。
図7のフローチャートFCに示すように、設定音生成処理において、設定音生成部10aは、マスター側通信情報記憶部142が記憶するマスター側通信情報を取得する(ステップSC1)。上述したように、マスター側通信情報は、ペアリングに用いられる車載装置識別情報、及び、暗証情報を含む。
The flowchart FC of FIG. 7 is a flowchart showing the details of the set sound generation process.
As shown in the flowchart FC of FIG. 7, in the set sound generation process, the set
次いで、車載装置制御部10は、ステップSC1で取得した車載装置識別情報、及び、暗証情報のそれぞれを、事前に登録された暗号化鍵により暗号化する(ステップSC2)。ステップSC2で車載装置制御部10が用いる暗号化鍵は、携帯端末3に登録された復号化鍵に対応しており、車載装置1に係る暗号化鍵で暗号化したデータは、携帯端末3に係る復号化鍵で復号することができる。
以下、暗号化された車載装置識別情報を「暗号化識別情報」といい、暗号化された暗証情報を「暗号化暗証情報」という。
ここで、暗号化識別情報についてより詳細に説明する。
Next, the vehicle-mounted
Hereinafter, the encrypted in-vehicle device identification information is referred to as "encrypted identification information", and the encrypted password information is referred to as "encrypted password information".
Here, the encrypted identification information will be described in more detail.
図8は、暗号化識別情報の説明に用いる図である。なお、図8は、以下の設定音生成処理の説明にも用いる。
ステップSC2における暗号化前の車載装置識別情報が、文字列「123abc」であったとする。本実施形態では、「文字」は、ASCIIコードによって表される文字である。従って、車載装置識別情報の文字列を構成する文字のそれぞれは8ビットのASCIIコードによって表されると共に、車載装置識別情報の文字列はASCIIコードの組み合わせからなる所定長のビット列によって表される。以下、車載装置識別情報を表すビット列を、便宜的に「識別情報ビット列」という。図8では、車載装置識別情報が、文字列「123abc」である場合の識別情報ビット列を示している。
ステップSC2において、車載装置制御部10は、識別情報ビット列に対して、暗号化鍵を用いた暗号化を施し、新たにビット列を生成する。新たに生成されたビット列が、暗号化識別情報に相当する。以下、暗号化識別情報を表すビット列を、便宜的に「暗号化識別情報ビット列」という。図8では、暗号化識別情報ビット列の一例を示している。
FIG. 8 is a diagram used for explaining the encrypted identification information. Note that FIG. 8 is also used for the following description of the set sound generation process.
It is assumed that the in-vehicle device identification information before encryption in step SC2 is the character string "123abc". In this embodiment, the "character" is a character represented by an ASCII code. Therefore, each of the characters constituting the character string of the vehicle-mounted device identification information is represented by an 8-bit ASCII code, and the character string of the vehicle-mounted device identification information is represented by a bit string having a predetermined length composed of a combination of the ASCII codes. Hereinafter, the bit string representing the in-vehicle device identification information is referred to as an "identification information bit string" for convenience. FIG. 8 shows an identification information bit string when the in-vehicle device identification information is the character string “123abc”.
In step SC2, the vehicle-mounted
次いで、設定音生成部10aは、ステップSC2で生成した暗号化識別情報(暗号化識別情報ビット列)について、先頭から順番に4ビットずつに区分けする(ステップSC3)。例えば、ステップSC2で生成した暗号化識別情報ビット列が、図8で例示した暗号化識別情報ビット列であるとすると、設定音生成部10aは、1ビット目〜4ビット目のビット列「1100」、5ビット目〜8ビット目のビット列「1000」、9ビット目〜12ビット目のビット列「1110」、13ビット目〜16ビット目のビット列「0110」というように、先頭から順番に4ビットずつに区分けする。区分けした4ビットのビット列は、それぞれ、基準16進数数字に変換可能である。
Next, the setting
次いで、設定音生成部10aは、区分けした4ビットのビット列のそれぞれを、基準16進数数字に変換する(ステップSC4)。ステップSC4の処理対象が図8で例示した暗号化識別情報ビット列の場合、設定音生成部10aは、1ビット目〜4ビット目のビット列「1100」について基準16進数数字「0xc」に変換し、5ビット目〜8ビット目のビット列「1000」について基準16進数数字「0x8」に変換し、9ビット目〜12ビット目のビット列「1110」について基準16進数数字「0xe」に変換し、13ビット目〜16ビット目のビット列「0110」について基準16進数数字「0x6」に変換する。
以下、区分けされた4ビットのビット列のそれぞれを基準16進数数字に変換したものを、「変換後識別情報」という。変換後識別情報は、暗号化識別情報列を、16進数で表した情報に相当する。
Next, the set
Hereinafter, each of the divided 4-bit bit strings converted into a reference hexadecimal number is referred to as "post-conversion identification information". The converted identification information corresponds to information in which the encrypted identification information string is represented by a hexadecimal number.
次いで、設定音生成部10aは、車載装置側対応音テーブル141aを参照し、変換後識別情報を構成する基準16進数数字のそれぞれを音名に変換する(ステップSC5)。ステップSC5において、設定音生成部10aは、変換後識別情報を構成する基準16進数数字のそれぞれについて、車載装置側対応音テーブル141aにおいて基準16進数数字と対応付けられた音名に変換する。ステップSC5の処理対象が図8で例示した変換後識別情報の場合、設定音生成部10aは、基準16進数数字「0xc」について音名「中A」に変換し、基準16進数数字「0x8」について音名「中D」に変換し、基準16進数数字「0xe」について音名「高C」に変換し、基準16進数数字「0x6」について音名「低B」に変換する。
以下、変換後識別情報のそれぞれの基準16進数数字を、音名に変換したものを、「音名識別情報」という。
Next, the setting
Hereinafter, the conversion of each reference hexadecimal number of the converted identification information into a note name is referred to as "note name identification information".
次いで、設定音生成部10aは、ステップSC6〜ステップSC8の処理を実行する。ステップSC6〜ステップSC8の処理は、ステップSC3〜ステップSC5の処理に準じた処理であるため、簡潔に説明する。
ステップSC6において、設定音生成部10aは、暗号化暗証情報のビット列を、先頭から順番に4ビットずつに区分けする。
ステップSC7において、設定音生成部10aは、区分けした4ビットのビット列のそれぞれを、基準16進数数字に変換する。
ステップSC8において、設定音生成部10aは、車載装置側対応音テーブル141aを参照し、ステップSC7で変換された基準16進数数字のそれぞれを音名に変換する。
以下、ステップSC8において、基準16進数数字を、音名に変換したものを、「音名暗証情報」という。
Next, the setting
In step SC6, the setting
In step SC7, the setting
In step SC8, the setting
Hereinafter, in step SC8, the reference hexadecimal number converted into a note name is referred to as "note name password information".
次いで、設定音生成部10aは、設定音開始情報と、音名識別情報と、区切情報と、音名暗証情報と、設定音終了情報とを組み合わせた設定音情報を生成する(ステップSC9)。
設定音開始情報は、音名のうち、基準16進数に割り振られていない1又は複数の音名からなる情報であって、区切情報、及び、設定音終了情報のいずれとも異なる音名の組み合わせ(便宜的に、1つの音名も「音名の組み合わせ」と表現する。)の情報である。
区切情報は、音名のうち、基準16進数に割り振られていない1又は複数の音名からなる情報であって、設定音開始情報、及び、設定音終了情報のいずれとも異なる音名の組み合わせの情報である。
設定音終了情報は、音名のうち、基準16進数に割り振られていない1又は複数の音名からなる情報であって、設定音開始情報、及び、区切情報のいずれとも異なる音名の組み合わせの情報である。
例えば、設定音開始情報は音名「高E」からなる情報であり、区切情報は音名「高F」からなる情報であり、設定音終了情報は音名「高G」からなる情報である。
設定音情報は、設定音開始情報→音名識別情報→区切情報→音名暗証情報→設定音終了情報の順番で、各情報が組み合わされる。
Next, the set
The set note start information is information consisting of one or more note names that are not assigned to the reference hexadecimal number among the note names, and is a combination of note names different from both the delimiter information and the set note end information ( For convenience, one note name is also expressed as "combination of note names").
The delimiter information is information consisting of one or more note names that are not assigned to the reference hexadecimal number among the note names, and is a combination of note names different from both the set note start information and the set note end information. Information.
The set note end information is information consisting of one or more note names that are not assigned to the reference hexadecimal number among the note names, and is a combination of note names different from both the set note start information and the delimiter information. Information.
For example, the set sound start information is information consisting of the note name "high E", the delimiter information is information consisting of the note name "high F", and the set sound end information is information consisting of the note name "high G". ..
The set sound information is combined in the order of set sound start information → note name identification information → delimiter information → sound name password information → set sound end information.
次いで、設定音生成部10aは、設定音情報を構成する音名の個数を取得する(ステップSC10)。設定音情報を構成する音名の個数は、設定音開始情報を構成する音名の個数と、音名識別情報を構成する音名の個数と、区切情報を構成する音名の個数と、音名暗証情報を構成する音名の個数と、設定音終了情報を構成する音名の個数との合計である。
次いで、設定音生成部10aは、ガイド音声時間長を取得する(ステップSC11)。ガイド音声時間長は、ガイド音声記憶部143が記憶するガイド音声ファイルに基づいてガイド音声(後述)を音声出力した場合に、音声出力を開始してから、音声出力が終了するまでに要する時間の長さから、予め定められたマージンを除いた時間の長さである。ガイド音声時間長は、事前に登録される。
Next, the set
Next, the set
次いで、設定音生成部10aは、ステップSC11で取得したガイド音声時間長を、ステップSC10で取得した設定音情報を構成する音名の個数で除算し、当該除算によって算出される値(以下、「単音時間長」という。)を取得する。(ステップSC12)。
次いで、設定音生成部10aは、ステップSC9で生成した設定音情報と、ステップSC12で取得した単音時間長とに基づいて、設定音音声ファイルを生成する(ステップSC13)。以下、ステップSC13の処理について詳述する。
Next, the set
Next, the set
設定音音声ファイルは、「設定音情報を構成する音名に対応する音のそれぞれが、単音時間長ずつ、順番に、連続する音声」(以下、「設定音」という。)の音声ファイルである。例えば、設定音情報が、音名「低C」、音名「低D」、音名「低E」の組み合わせにより構成される情報の場合、設定音は、以下の音声である。すなわち、設定音は、単音時間長の音名「低C」に対応する音、単音時間長の音名「低D」に対応する音、及び、単音時間長の音名「低E」に対応する音が、この順番で連続する音声である。
また、本実施形態では、設定音の音色は、ピアノ音である。設定音をピアノ音とすることにより、ガイド音声と設定音とが合成された合成音(後述)について、人間の声のバックグラウンドでピアノ音が流れた状態となり、合成音を聴取するユーザーが違和感を抱くことを抑制できる。なお、設定音の音色は、ピアノ音に限らず、ブザー音、チャイム音、シンセサイザーなどの電子音、または人間の音声等であってもよく、ユーザーが設定音をどの音色にするかについて設定可能な構成でもよい。
ここで、車載装置1には、音名の組み合わせからなる情報(設定音情報に相当。)、及び、各音名に対応する音の時間長を示す情報(単音時間長に相当。)に基づいて、各音名に対応する音が時間長ずつ順番に連続する音声の音声ファイルを生成して出力する機能を有するモジュールが実装される。ステップSC13において、設定音生成部10aは、当該モジュールの機能により、設定音音声ファイルを生成する。
ステップSC13の処理後、設定音生成部10aは、設定音生成処理を終了する。
The setting sound audio file is an audio file of "a continuous sound in which each sound corresponding to a sound name constituting the setting sound information has a single sound length in order" (hereinafter referred to as "setting sound"). .. For example, when the set sound information is information composed of a combination of the sound name "low C", the sound name "low D", and the sound name "low E", the set sound is the following sound. That is, the set sound corresponds to the sound corresponding to the note name "low C" having a single note time length, the sound corresponding to the note name "low D" having a single note time length, and the note name "low E" having a single note time length. The sound to be played is a continuous sound in this order.
Further, in the present embodiment, the tone color of the set sound is a piano sound. By using the set sound as the piano sound, the synthetic sound (described later) in which the guide sound and the set sound are combined becomes a state in which the piano sound is played in the background of the human voice, and the user who listens to the synthetic sound feels uncomfortable. Can be suppressed from holding. The sound of the set sound is not limited to the piano sound, but may be a buzzer sound, a chime sound, an electronic sound such as a synthesizer, or a human voice, and the user can set which sound the set sound should be. The configuration may be.
Here, the in-
After the process of step SC13, the set
図4のフローチャートFAに示すように、設定音生成部10aによる設定音生成処理が完了した後、車載装置制御部10は、合成音の音声出力を実行する(ステップSA3)。以下、ステップSA3の処理について詳述する。
合成音とは、ガイド音声と、設定音とが合成された音声である。ガイド音声とは、ペアリングに関する処理を実行中であることを報知する音声である。本実施形態では、ガイド音声は、「現在、ペアリングを実行しています。しばらくお待ちください。」という文言を、人間の声により出力する音声である。ガイド音声は、車載装置1、及び、携帯端末3がペアリングに関する処理を実行中であることをユーザーが認識可能な音声であればよい。ユーザーにガイド音声を聴取させることにより、車載装置1、及び、携帯端末3がペアリングに関する処理を実行中であることをユーザーに認識させることができる。これにより、例えば、ユーザーが、合成音の出力中に、携帯端末3において専用アプリケーションAPの起動を停止したり、車載装置1の電源を切ったりする等の、ペアリングの失敗の要因となるような操作を行うことを抑制できる。
As shown in the flowchart FA of FIG. 4, after the set sound generation process by the set
The synthetic sound is a voice in which the guide voice and the set sound are combined. The guide voice is a voice that notifies that the processing related to pairing is being executed. In the present embodiment, the guide voice is a voice that outputs the phrase "currently performing pairing. Please wait." By a human voice. The guide voice may be a voice that allows the user to recognize that the in-
ステップSA3において、車載装置制御部10は、ガイド音声記憶部143が記憶するガイド音声ファイルに基づく音声信号と、設定音生成部10aが生成した設定音音声ファイルに基づく音声信号とを、並行して、音声出力部17に出力することにより、ガイド音声と設定音とが合成された合成音を音声出力する。
その際、車載装置制御部10は、ガイド音声に設定音が含まれた状態となるように、ガイド音声ファイルに基づく音声信号の出力を開始するタイミングに対する、設定音音声ファイルに基づく音声信号の出力を開始するタイミングを調整する。ガイド音に設定音が含まれた状態とは、ガイド音の音声出力が開始されるタイミングより後に設定音の音声出力が開始されるタイミングが到来し、かつ、設定音の音声出力が終了するタイミングより後にガイド音の音声出力が終了するタイミングが到来することを意味する。車載装置制御部10は、ガイド音声時間長と、設定音の時間長との関係を踏まえて、ガイド音声ファイルに基づく音声信号の出力を開始するタイミングに対する、設定音音声ファイルに基づく音声信号の出力を開始するタイミングを調整する。設定音の時間長とは、設定音音声ファイルに基づいて、設定音を音声出力した場合に、音声出力を開始してから、音声出力が終了するまでに要する時間の長さのことである。
なお、ガイド音声時間長が設定音の時間長と同じとなるように、設定音を構成する音名の単位時間長が設定されてもよい。この場合、ガイド音に設定音が含まれた状態においては、ガイド音の音声出力が開始されるタイミングで設定音の音声出力が開始されるタイミングが到来し、かつ、設定音の音声出力が終了するタイミングでガイド音の音声出力が終了するタイミングが到来する。
In step SA3, the in-vehicle
At that time, the in-vehicle
The unit time length of the note names constituting the set sound may be set so that the guide voice time length is the same as the time length of the set sound. In this case, when the guide sound includes the set sound, the timing at which the audio output of the set sound is started comes at the timing when the audio output of the guide sound is started, and the audio output of the set sound ends. The timing for ending the audio output of the guide sound comes at the timing when the guide sound is output.
合成音の音声出力が終了した後、車載装置制御部10は、合成音の音声出力が「3回」行われたか否かを判別する(ステップSA4)。
合成音の音声出力が「3回」行われていない場合(ステップSA4:NO)、車載装置制御部10は、処理手順をステップSA3へ戻し、合成音の音声出力を実行する。
一方、合成音の音声出力が「3回」行われた場合(ステップSA4:YES)、車載装置制御部10は、処理手順をステップSA5へ移行する。
このように、本実施形態では、車載装置制御部10は、合成音の音声出力を連続して「3回」繰り返して実行する。また、各合成音は、1つのガイド音声に、1つの設定音が合成された音声である。
After the voice output of the synthetic sound is completed, the vehicle-mounted
When the voice output of the synthetic sound is not performed "three times" (step SA4: NO), the in-vehicle
On the other hand, when the voice output of the synthesized sound is performed "three times" (step SA4: YES), the in-vehicle
As described above, in the present embodiment, the in-vehicle
ステップSA5において、車載装置制御部10は、車載装置無線通信部15を制御して、携帯端末3から検索信号を受信したか否かを監視する。検索信号については、後述する。
In step SA5, the vehicle-mounted
図4のフローチャートFBに示すように、ステップSB2で携帯端末3の周囲の音の録音を開始した後、携帯端末制御部30のガイド音声検出部301は、以下の処理を実行する(ステップSB3)。すなわち、ガイド音声検出部301は、随時、携帯端末記憶部33に累積的に記憶される録音データを分析し、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったか否かを監視する。例えば、ガイド音声検出部301は、以下の方法でステップSB3の処理を実行する。すなわち、専用アプリケーションAPには、ガイド音声の音声波形の特徴点を示す情報が登録される。携帯端末制御部30は、録音データに記録される音声の音声波形を分析し、ガイド音声の音声波形の特徴点とのパターンマッチングにより、録音データに記録される音声にガイド音声が含まれるか否かを、随時、監視する。そして、携帯端末制御部30は、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったことを検出した場合、ステップSB3において、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったと判別する。なお、録音データに記録される音声に、ガイド音声が含まれるか否かを判別する方法は、上記で例示した方法に限らず、既存の技術を用いたどのような方法であってもよい。
As shown in the flowchart FB of FIG. 4, after starting the recording of the sound around the
ステップSB3において、録音データに記録される音声に「3回」分のガイド音声が含まれた状態とならなかったと判別した場合(ステップSB3:NO)、ガイド音声検出部301は、処理手順をステップSB3に戻し、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったか否か判別する。
ステップSB3において、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったと判別した場合(ステップSB3:YES)、ガイド音声検出部301は、録音データから、「3回」分のガイド音声に対応するデータ(以下、「合成音データ」という。)を抽出する(ステップSB4)。合成音データは、車載装置1が連続して「3回」音声出力する合成音(ガイド音声と設定音とが合成された音声。)を含む音声が録音されて生成される音声データである。合成音データに記録された音声には、合成音のほか、環境音が含まれる可能性がある。
次いで、ガイド音声検出部301は、抽出した合成音データを、1回目のガイド音声に対応するデータ(以下、「第1合成音データ」という。)と、2回目のガイド音声に対応するデータ(以下、「第2合成音データ」という。)と、3回目のガイド音声に対応するデータ(以下、「第3合成音データ」という。)との3つのデータに分割し、それぞれのデータを、音源分離部302に出力する(ステップSB5)。
When it is determined in step SB3 that the voice recorded in the recorded data does not include the guide voice for "three times" (step SB3: NO), the guide
In step SB3, when it is determined that the voice recorded in the recorded data includes the guide voice for "three times" (step SB3: YES), the guide
Next, the guide
ここで、第1合成音データ、第2合成音データ、及び、第3合成音データは、それぞれ、1つの設定音情報に対応する音声が記録された音声データである。上述したように、車載装置1は、ペアリングに際し、ガイド音声と、設定音とを合成した合成音を、「3回」、音声出力する。そして、ガイド音声と設定音とは、1対1の関係にあり、1つのガイド音声に、1つの設定音が含まれた状態である。設定音抽出部303は、ガイド音声と設定音とが1対1の関係にあり、ガイド音声に設定音が含まれた状態であることを好適に活用して、第1合成音データ、第2合成音データ、及び、第3合成音データについて、1つの設定音情報に対応する音声が記録された状態で分割することができる。これにより、第1合成音データ、第2合成音データ、及び、第3合成音データを用いた以下の処理を、これらデータのそれぞれに、1つの設定音情報に対応する音声が記録されていることが担保された状態で、的確に行うことができる。
Here, the first synthetic sound data, the second synthetic sound data, and the third synthetic sound data are each voice data in which the voice corresponding to one set sound information is recorded. As described above, at the time of pairing, the in-
次いで、携帯端末制御部30の音源分離部302は、以下の処理を実行する(ステップSB6)。すなわち、ステップSB6において、音源分離部302は、第1合成音データに基づいて、第1合成音データに記録された音声からガイド音声の音成分を抽出することによって、ガイド音声の音成分と、ガイド音声を除いた音声(以下、「第1分離音」という。)の音成分とに分離する。次いで、音源分離部302は、分離した第1分離音の音成分に基づいて、第1分離音が記録された音声データ(以下、「第1分離音音声データ」という。)を生成する。音源分離部302は、例えば、ブラインド音源分離処理を用いて、第1合成音データに記録された音声からガイド音声の音成分を抽出する。
同様にステップSB6において、音源分離部302は、第2合成音データに記録された音声を、ガイド音声の音成分と、ガイド音声を除いた音声(以下、「第2分離音」という。)の音成分とに分離する。次いで、音源分離部302は、分離した第2分離音の音成分に基づいて、第2分離音が記録された音声データ(以下、「第2分離音音声データ」という。)を生成する。
また同様にステップSB6において、音源分離部302は、第3合成音データに記録された音声を、ガイド音声の音成分と、ガイド音声を除いた音声(以下、「第3分離音」という。)の音成分とに分離する。次いで、音源分離部302は、分離した第3分離音の音成分に基づいて、第3分離音が記録された音声データ(以下、「第3分離音音声データ」という。)を生成する。
第1分離音、第2分離音、及び、第3分離音は、それぞれ、設定音を含む音声である。以下、第1分離音、第2分離音、及び、第3分離音を区別しない場合「分離音」と表現する。
ステップSB6において、音源分離部302は、第1分離音音声データ、第2分離音音声データ、及び、第3分離音音声データのそれぞれを、設定音抽出部303に出力する。
Next, the sound
Similarly, in step SB6, the sound
Similarly, in step SB6, the sound
The first separated sound, the second separated sound, and the third separated sound are sounds including the set sound, respectively. Hereinafter, when the first separated sound, the second separated sound, and the third separated sound are not distinguished, they are expressed as "separated sound".
In step SB6, the sound
次いで、携帯端末制御部30の設定音抽出部303は、以下の処理を実行する(ステップSB7)。すなわち、ステップSB7において、設定音抽出部303は、第1分離音音声データに記録された音声から、設定音(以下、「第1設定音」という。)の音成分を分離する。次いで、設定音抽出部303は、分離した第1設定音の音成分に基づいて、第1設定音が記録された音声データ(以下、「第1設定音音声データ」という。)を生成する。設定音抽出部303は、例えば、櫛側フィルタを用いたフィルタリング処理により、第1分離音音声データに記録された音声から、第1設定音の音成分を分離する。
同様にステップSB7において、設定音抽出部303は、第2分離音音声データに記録された音声から、設定音(以下、「第2設定音」という。)の音成分を分離する。次いで、設定音抽出部303は、分離した第2設定音の音成分に基づいて、第2設定音が記録された音声データ(以下、「第2設定音音声データ」という。)を生成する。
また同様にステップSB7において、設定音抽出部303は、第3分離音音声データに記録された音声から、設定音(以下、「第3設定音」という。)の音成分を分離する。次いで、設定音抽出部303は、分離した第3設定音の音成分に基づいて、第3設定音が記録された音声データ(以下、「第3設定音音声データ」という。)を生成する。
ステップSB7において、設定音抽出部303は、第1設定音音声データ、第2設定音音声データ、及び、第3設定音音声データのそれぞれを、テキスト変換部304に出力する。
Next, the setting
Similarly, in step SB7, the set
Similarly, in step SB7, the set
In step SB7, the set
次いで、携帯端末制御部30のテキスト変換部304は、テキスト変換処理を実行する(ステップSB8)。以下、ステップSB8のテキスト変換処理について、詳述する。
Next, the
図9のフローチャートFDは、テキスト変換処理の詳細を示すフローチャートである。
ここで、上述した設定音情報に含まれる設定音開始情報、区切情報、及び、設定音終了情報について、設定音開始情報を構成する音名、区切情報を構成する音名、及び、設定音終了情報を構成する音名が、専用アプリケーションAPに登録されている。また、設定音開始情報が音声出力された場合における、当該情報の音成分の音声波形の特徴点を示す情報が、専用アプリケーションAPに登録されている。同様に、区切情報の音成分の音声波形の特徴点を示す情報、及び、設定音終了情報の音成分の音声波形の特徴点を示す情報が、専用アプリケーションAPに登録されている。
The flowchart FD of FIG. 9 is a flowchart showing the details of the text conversion process.
Here, regarding the set sound start information, the delimiter information, and the set sound end information included in the above-mentioned set sound information, the sound name constituting the set sound start information, the sound name constituting the delimiter information, and the set sound end The note names that make up the information are registered in the dedicated application AP. Further, when the set sound start information is output as voice, information indicating the feature points of the voice waveform of the sound component of the information is registered in the dedicated application AP. Similarly, information indicating the characteristic points of the audio waveform of the sound component of the delimiter information and information indicating the characteristic points of the audio waveform of the sound component of the set sound end information are registered in the dedicated application AP.
図9のフローチャートFDに示すように、テキスト変換部304は、単音時間長を算出する(ステップSD1)。例えば、テキスト変換部304は、以下の方法で単音時間長を算出する。すなわち、テキスト変換部304は、専用アプリケーションAPに登録された設定音開始情報の音成分の音声波形の特徴点に基づいて、第1設定音音声データに記録された音声の音成分のうち、設定音開始情報に対応する音声の音成分を特定する。次いで、テキスト変換部304は、設定音開始情報の音成分に対応する音声の時間長を取得する。次いで、テキスト変換部304は、設定音開始情報の音成分に対応する音声の時間長を、設定音開始情報を構成する音名の個数によって除算することによって、単音時間長を算出する。なお、単音時間長の算出方法は、例示した方法に限らない。例えば、設定音情報に、単音時間長を含める構成でもよい。
As shown in the flowchart FD of FIG. 9, the
次いで、テキスト変換部304は、第1設定音音声データを取得する(ステップSD2)。
次いで、テキスト変換部304は、第1設定音音声データを分析し、第1設定音音声データに記録された音声の音成分のうち、音名識別情報に対応する音声の音成分を特定する(ステップSD3)。上述したように、設定音情報において、音名識別情報は、設定音開始情報と、区切情報との間に位置する。これを踏まえ、ステップSD3において、テキスト変換部304は、設定音開始情報の音声に対応する音成分と、区切情報の音声に対応する音成分との間の領域に含まれる音成分を、音名識別情報に対応する音声の音成分として特定する。
Next, the
Next, the
次いで、テキスト変換部304は、第1設定音音声データのうち、音名識別情報に係る音成分のデータ(以下、「第1音名識別情報音声データ」という。)を分析し、音名識別情報を生成する(ステップSD4)。以下、第1音名識別情報音声データに基づいて生成される音名識別情報を、「第1音名識別情報」という。
Next, the
図10は、ステップSD4の処理の説明に用いる図である。図10は、音名識別情報が、音名「低C」、音名「低C」、音名「低D」、及び、音名「低E」からなる場合において、第1音名識別情報音声データに基づいて音声を出力したときの時間の経過と、周波数の推移との関係を、説明に適した態様で模式的に示している。
ここで、音名のそれぞれについて、音名に対応する音の周波数を示す情報が、専用アプリケーションAPに事前に登録されている。
ステップSD4において、テキスト変換部304は、第1音名識別情報音声データを分析し、第1音名識別情報音声データに基づいて音声を出力した場合において、当該データに基づく音声の開始タイミングからステップSD1で取得した単音時間長の「1/2」分ずらしたタイミング(図10の例では、タイミングT1。)を起点として、単音時間長を周期とするタイミング(図10の例では、タイミングT2、T3、T4。)における音声の周波数を取得する。図10の例では、テキスト変換部304は、第1音名識別情報音声データを分析し、タイミングT1〜T4のそれぞれのタイミングにおいて、第1音名識別情報音声データに基づいて出力される音声の周波数を取得する。
次いで、テキスト変換部304は、取得した各タイミングにおける音声の周波数に基づいて、各タイミングで出力される音声の音名を特定する。次いで、テキスト変換部304は、特定した音名を、音声出力の順番で組み合わせることによって、第1音名識別情報を生成する。
FIG. 10 is a diagram used for explaining the process of step SD4. FIG. 10 shows the first note name identification information when the note name identification information consists of the note name “low C”, the note name “low C”, the note name “low D”, and the note name “low E”. The relationship between the passage of time when the voice is output based on the voice data and the transition of the frequency is schematically shown in a mode suitable for explanation.
Here, for each of the note names, information indicating the frequency of the sound corresponding to the note name is registered in advance in the dedicated application AP.
In step SD4, when the
Next, the
次いで、テキスト変換部304は、携帯端末記憶部33の携帯端末側対応音情報記憶部331が記憶する携帯端末側対応音テーブル331aを参照し、ステップSD4で生成した第1音名識別情報を、変換後識別情報に変換する(ステップSD5)。以下、第1音名識別情報を変換して生成される変換後識別情報を、「第1変換後識別情報」という。
ステップSD5において、テキスト変換部304は、携帯端末側対応音テーブル331aに基づいて、第1音名識別情報を構成する音名のそれぞれを、基準16進数数字に変換することにより、第1音名識別情報を第1変換後識別情報に変換する。
Next, the
In step SD5, the
次いで、テキスト変換部304は、基準16進数数字の組み合わせからなる第1変換後識別情報をビット列に変換することによって、暗号化識別情報ビット列を生成する(ステップSD6)。以下、第1変換後識別情報に基づいて生成される暗号化識別情報を、「第1暗号化識別情報」という。上述したように、暗号化識別情報ビット列は、車載装置識別情報を、車載装置1に登録された暗号化鍵で暗号化した情報である。
Next, the
次いで、テキスト変換部304は、ステップSD6で生成した第1暗号化識別情報ビット列を、復号化鍵により復号することによって、識別情報ビット列を生成する(ステップSD7)。以下、第1暗号化識別情報ビット列を復号化鍵により復号することによって生成される識別情報ビット列を、「第1識別情報ビット列」という。
Next, the
ここで、復号化鍵は、専用アプリケーションAPに登録される。そして、専用アプリケーションAPへの復号化鍵の登録は、所定のサーバーにより行われる。専用アプリケーションAPへの復号化鍵の登録に際し、当該所定のサーバーは、ユーザーの認証を適切に行い、車載装置1の購入者等の正当な権限を有する者からアクセスがあった場合にのみ、車載装置1に登録された暗号化鍵に対応する復号化鍵を専用アプリケーションAPに登録する。例えば、当該所定のサーバーは、専用アプリケーションAPへの復号化鍵の登録に際し、車載装置1の車載装置識別情報と、正当な権限を有する者のみが取得可能なパスワードとを要求し、車載装置識別情報とパスワードとを利用した認証を行い、認証に成功した場合にのみ、専用アプリケーションAPに復号化鍵を登録する。
このように、携帯端末3の所有者が正当な権限を有する者である場合にのみ、車載装置1に登録された暗号化鍵に対応する復号化鍵が専用アプリケーションAPに登録された状態である。このため、ステップSD7における復号化鍵を用いた複合は、携帯端末3の所有者が正当な権限を有する者の場合にのみ、正常に実行することが可能である。
Here, the decryption key is registered in the dedicated application AP. Then, the registration of the decryption key in the dedicated application AP is performed by a predetermined server. When registering the decryption key in the dedicated application AP, the predetermined server properly authenticates the user and is in-vehicle only when accessed by a person with legitimate authority such as the purchaser of the in-
In this way, the decryption key corresponding to the encryption key registered in the in-
次いで、テキスト変換部304は、ステップSD7で生成した第1識別情報ビット列を、ASCIIコードの文字の組み合わせからなる文字列に変換することによって、車載装置識別情報を生成する(ステップSD8)。以下、第1識別情報ビット列に基づいて生成される車載装置識別情報を、「第1車載装置識別情報」という。
Next, the
次いで、テキスト変換部304は、ステップSD2で取得した第1設定音音声データに基づいて、暗証情報を生成する(ステップSD9)。以下、第1設定音音声データに基づいて生成される暗証情報を、「第1暗証情報」という。第1設定音音声データに基づいて第1暗証情報を生成する処理の方法は、第1設定音音声データに基づいて第1車載装置識別情報を生成する処理(ステップSD3〜ステップSD8の処理。)の方法と同様であるため、説明を省略する。
Next, the
次いで、テキスト変換部304は、第2設定音音声データを取得し、取得した第2設定音音声データに基づいて、車載装置識別情報と、暗証情報とを生成する(ステップSD10)。以下、第2設定音音声データに基づいて生成される車載装置識別情報を、「第2車載装置識別情報」といい、第2設定音音声データに基づいて生成される暗証情報を、「第2暗証情報」という。
第2設定音音声データに基づいて第2車載装置識別情報、及び、第2暗証情報を生成する処理の方法は、第1設定音音声データに基づいて第1車載装置識別情報、及び、第1暗証情報を生成する処理(ステップSD3〜ステップSD9の処理。)の方法と同様であるため、説明を省略する。
Next, the
The processing method for generating the second in-vehicle device identification information and the second password information based on the second set sound voice data is the first in-vehicle device identification information and the first in-vehicle device identification information based on the first set sound voice data. Since it is the same as the method of the process of generating the password information (the process of steps SD3 to SD9), the description thereof will be omitted.
次いで、テキスト変換部304は、第3設定音音声データを取得し、取得した第3設定音音声データに基づいて、車載装置識別情報と、暗証情報とを生成する(ステップSD11)。以下、第3設定音音声データに基づいて生成される車載装置識別情報を、「第3車載装置識別情報」といい、第3設定音音声データに基づいて生成される暗証情報を、「第3暗証情報」という。
第3設定音音声データに基づいて第3車載装置識別情報、及び、第3暗証情報を生成する処理の方法は、第1設定音音声データに基づいて第1車載装置識別情報、及び、第1暗証情報を生成する処理(ステップSD3〜ステップSD9の処理。)の方法と同様であるため、説明を省略する。
Next, the
The processing method for generating the third in-vehicle device identification information and the third password information based on the third set sound voice data is the first in-vehicle device identification information and the first in-vehicle device identification information based on the first set sound voice data. Since it is the same as the method of the process of generating the password information (the process of steps SD3 to SD9), the description thereof will be omitted.
次いで、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報に基づいて、車載装置識別情報検証処理を実行する(ステップSD12)。
ステップSD12の車載装置識別情報検証処理において、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報のそれぞれの値が相互に一致する場合、これら情報の値を、車載装置識別情報の値として特定する。これら情報の値が一致する場合、これら情報の値が、実際の車載装置識別情報であると高い確度でいうことができるからである。
Next, the
In the in-vehicle device identification information verification process of step SD12, when the values of the first in-vehicle device identification information, the second in-vehicle device identification information, and the third in-vehicle device identification information match each other, the
一方、ステップSD12の車載装置識別情報検証処理において、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報のそれぞれの値が相互に一致しない場合、車載装置識別情報の値を特定せず、対応する処理を実行する。対応する処理は、例えば、携帯端末タッチパネル31に、車載装置識別情報の取得が成功しなかった旨の情報を表示する処理である。これにより、ユーザーに、車載装置1を操作させて、再度、車載装置1から合成音を音声出力させることを促すことができる。
ここで、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報は、それぞれ、車載装置1が音声出力する合成音に基づいて生成されるものである。従って、環境音の混入や、ノイズの影響、その他の要因により、これら情報の値が、実際の車載装置識別情報の値と異なる場合が生じ得る。ステップSD12の車載装置識別情報検証処理は、このような場合を踏まえて実行される。
なお、車載装置識別情報検証処理において、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報のうち、2つの情報の値が一致する場合は、当該2つの情報の値を車載装置識別情報の値として特定する構成でもよい。また、車載装置識別情報検証処理において、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報を用いて、所定の誤り訂正を行い、当該所定の誤り訂正を反映した値を、車載装置識別情報の値として特定する構成でもよい。これらのことは、後述するステップSD13の暗証情報検証処理についても同様である。
On the other hand, in the in-vehicle device identification information verification process of step SD12, the
Here, the first vehicle-mounted device identification information, the second vehicle-mounted device identification information, and the third vehicle-mounted device identification information are each generated based on the synthetic sound output by the vehicle-mounted
In the in-vehicle device identification information verification process, when the
次いで、テキスト変換部304は、第1暗証情報、第2暗証情報、及び、第3暗証情報に基づいて、暗証情報検証処理を実行する(ステップSD13)。
ステップSD13の暗証情報検証処理において、テキスト変換部304は、第1暗証情報、第2暗証情報、及び、第3暗証情報のそれぞれの値が相互に一致する場合、これら情報の値を、暗証情報として特定する。一方、ステップSD13の暗証情報検証処理において、テキスト変換部304は、第1暗証情報、第2暗証情報、及び、第3暗証情報のそれぞれの値が相互に一致しない場合、暗証情報の値を特定せず、対応する処理を実行する。対応する処理は、例えば、車載装置識別情報検証処理で例示した処理である。暗証情報検証処理は、車載装置識別情報検証処理と同様のことを目的として実行される。
Next, the
In the password information verification process of step SD13, when the values of the first password information, the second password information, and the third password information match each other, the
ステップSD13の処理後、テキスト変換部304は、テキスト変換処理を終了する。
以下の説明では、ステップSD12で車載装置識別情報が特定されると共に、ステップSD13で暗証情報が特定されたものとする。
After the process of step SD13, the
In the following description, it is assumed that the vehicle-mounted device identification information is specified in step SD12 and the password information is specified in step SD13.
図4のフローチャートFBに示すように、ステップSB8におけるテキスト変換部304によるテキスト変換処理が完了した後、携帯端末制御部30は、Bluetoothの規格に従って、無線通信でアクセス可能なマスターを検索し、アクセス可能なマスターの識別情報を取得する(ステップSB9)。本実施形態では、車載装置1と、携帯端末3とは、十分に近い位置にあり、ステップSB10の処理において、携帯端末制御部30は、マスターとしての車載装置1を検索し、車載装置識別情報を取得する。
As shown in the flowchart FB of FIG. 4, after the text conversion process by the
次いで、携帯端末制御部30は、テキスト変換部304が特定した車載装置識別情報の値と同一の値の識別情報の装置を、ペアリングを行う対象として決定し、携帯端末無線通信部34を制御して、Bluetoothの規格に従って検索信号を送信する(ステップSB10)。テキスト変換部304が特定した車載装置識別情報の値と同一の値の識別情報の装置は、車載装置1に相当する。
Next, the mobile
図4のフローチャートFAに示すように、ステップSA5において、車載装置制御部10は、車載装置無線通信部15を制御して、携帯端末3から検索信号を受信したか否かを監視する。
携帯端末3から検索信号を受信しなかった場合(ステップSA5:NO)、車載装置制御部10は、処理手順をステップSA5に戻し、携帯端末3から検索信号を受信したか否かを監視する。
携帯端末3から検索信号を受信した場合(ステップSA5:YES)、車載装置制御部10は、検索信号の送信元の携帯端末3とBluetoothの規格に従って、無線通信リンクを確立する(ステップSA6)。
次いで、車載装置制御部10、及び、携帯端末制御部30は、車載装置1と携帯端末3との間で確立した無線通信リンクを介してペアリングに必要な情報を送受信し、Bluetoothの規格に従って、ペアリングを実行する(ステップSA7、ステップSB11)。ペアリングに際し、携帯端末制御部30が送信する情報には、少なくとも、テキスト変換部304が特定した暗証情報が含まれる。車載装置制御部10は、暗証情報に基づいて、携帯端末3の認証を実行する。
As shown in the flowchart FA of FIG. 4, in step SA5, the vehicle-mounted
When the search signal is not received from the mobile terminal 3 (step SA5: NO), the in-vehicle
When the search signal is received from the mobile terminal 3 (step SA5: YES), the in-vehicle
Next, the in-vehicle
以上のように、本実施形態では、車載装置1と、携帯端末3とのペアリングに際し、ユーザーは、車載装置1の車載装置識別情報を調べた上で、携帯端末3に一覧表示された識別情報から、車載装置1の車載装置識別情報に対応する識別情報を選択したり、また、携帯端末3に暗証情報を入力したりする等の作業を行う必要がない。このため、ユーザーの利便性が向上する。
As described above, in the present embodiment, when pairing the in-
以上説明したように、本実施形態に係る無線通信システム100は、車載装置1(第1無線通信機器)と携帯端末3(第2無線通信機器)とを備える。車載装置1は、ガイド音声を記憶するガイド音声記憶部143と、無線通信に関する情報を表す文字列に基づいて、ガイド音声が有する時間長以下の時間長を有する設定音を生成する設定音生成部10aと、ガイド音声と設定音とを合成した合成音を出力する音声出力部17(出力部)とを有する。携帯端末3は、車載装置1の音声出力部17より出力された合成音を収音する音声収音部32と、合成音からガイド音声を検出するガイド音声検出部301と、ガイド音声検出部301が検出したガイド音声に基づいて、合成音からガイド音声と分離音とを分離する音源分離部302と、分離音から設定音を抽出する設定音抽出部303と、設定音を文字列に変換するテキスト変換部304と、を有する。
この構成によれば、車載装置1と携帯端末3との間で無線通信可能な状態が確立していなときに、ユーザーが携帯端末3に対して無線通信に関する情報を入力する等の作業を行うことなく、携帯端末3に無線通信に関する情報を取得させることができる。このため、ユーザーの作業負担が減り、ユーザーの利便性が向上する。
As described above, the
According to this configuration, when a state in which wireless communication is possible is not established between the in-
また、本実施形態では、設定音に対応する設定音情報(文字列)は、車載装置1を識別する車載装置識別情報(機器識別情報)を含む。
この構成によれば、車載装置1と携帯端末3との間で無線通信可能な状態が確立する前に、ユーザーが煩雑な作業を行うことなく、携帯端末3に車載装置識別情報を取得させることができ、ユーザーの利便性が向上する。
Further, in the present embodiment, the set sound information (character string) corresponding to the set sound includes the vehicle-mounted device identification information (device identification information) that identifies the vehicle-mounted
According to this configuration, the
また、本実施形態では、設定音に対応する設定音情報は、車載装置1に携帯端末3を認証させるために用いられる暗証情報を含む。
この構成によれば、車載装置1と携帯端末3との間で無線通信可能な状態が確立する前に、ユーザーが煩雑な作業を行うことなく、携帯端末3に暗証情報を取得させることができ、ユーザーの利便性が向上する。
Further, in the present embodiment, the set sound information corresponding to the set sound includes the password information used for causing the in-
According to this configuration, before the wireless communication is established between the in-
また、本実施形態では、設定音生成部10aは、機器識別情報(文字列)、及び、暗証情報(文字列)を暗号化し、暗号化した情報に基づいて設定音を生成する。
この構成によれば、暗号化した情報を復号できる装置のみが機器識別情報、及び、暗証情報を正常に取得することができるため、情報の漏えいを抑制できる。
Further, in the present embodiment, the setting
According to this configuration, only the device capable of decrypting the encrypted information can normally acquire the device identification information and the password information, so that information leakage can be suppressed.
また、本実施形態によれば、設定音の音色は、ピアノ音である。
この構成によれば、合成音について、ガイド音声のバックグラウンドでピアノ音が流れた状態となり、合成音を聴取するユーザーが違和感を抱くことを抑制できる。
Further, according to the present embodiment, the tone color of the set sound is a piano sound.
According to this configuration, the piano sound is played in the background of the guide voice for the synthetic sound, and it is possible to suppress the user who listens to the synthetic sound from feeling uncomfortable.
上述した実施形態は、あくまでも本発明の一態様を例示するものであって、本発明の趣旨を逸脱しない範囲で任意に変形、及び、応用が可能である。 The above-described embodiment merely illustrates one aspect of the present invention, and can be arbitrarily modified and applied without departing from the spirit of the present invention.
例えば、本実施形態では、車載装置1と、携帯端末3とがBluetoothの規格に従って通信する場合を例にして説明を行った。しかしながら、車載装置1と、携帯端末3との間で行われる通信に用いられる通信規格は、Bluetoothに限らない。例えば、通信規格は、Wi−Fi(登録商標)であってもよい。
For example, in the present embodiment, the case where the in-
本実施形態では、無線通信システム100の車載装置1は、車載装置識別情報及び暗証情報を暗号化させた後に設定音に変換し、携帯端末3は、設定音から取得した文字列の復号を行っていたが、車載装置1が、車載装置識別情報及び暗証情報を暗号化させずに設定音に変換する構成であってもよい。この場合、携帯端末3は、復号の処理を行わずに設定音から車載装置識別情報及び暗証情報を決定し、車載装置識別情報及び暗証情報に基づいてペアリングに関する処理を実行する。
In the present embodiment, the in-
また、本実施形態では、無線通信機器を車載装置1及び携帯端末3として例示したが、無線通信機器の形態は任意である。例えば携帯端末3と別の携帯端末とによる無線通信システム100であってもよい。すなわち、本発明は、無線通信機能を有する無線通信機器、及び、無線通信機能を有する無線通信機器同士が無線通信可能な無線通信システムに適用できる。
Further, in the present embodiment, the wireless communication device is exemplified as the in-
また、本実施形態では、文字列は、ASCIIコードの文字の組み合わせであったが、文字コードは、ASCIIコードに限らない。 Further, in the present embodiment, the character string is a combination of characters of the ASCII code, but the character code is not limited to the ASCII code.
また、ガイド音声は、本実施形態で例示したものに限らず、ユーザーが耳で聴いて認識できるものであればよい。 Further, the guide voice is not limited to the one illustrated in the present embodiment, and may be any one that the user can hear and recognize.
車載装置1は、合成音の音声出力を「3回」行ったが、合成音の音声出力の回数は、3回に限られない。
The in-
また、例えば、上述した無線通信方法が、車載装置1及び携帯端末3が備えるコンピューターを用いて実現される場合、本発明を、上記制御方法を実現するためにコンピューターが実行するプログラム、このプログラムを前記コンピューターで読み取り可能に記録した記録媒体、或いは、このプログラムを伝送する伝送媒体の態様で構成することも可能である。上記記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD(Hard Disk Drive)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、Blu−ray(登録商標) Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型の、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、車載装置1及び携帯端末3が備える内部記憶装置であるROM(Read Only Memory)、HDD等の不揮発性記憶装置であってもよい。
Further, for example, when the above-mentioned wireless communication method is realized by using the computer provided in the in-
1 車載装置(第1無線通信機器)
3 スマートフォン(第2無線通信機器)
143 ガイド音声記憶部
10a 設定音生成部
17 音声出力部(出力部)
32 音声収音部
301 ガイド音声検出部
302 音源分離部
303 設定音抽出部
304 テキスト変換部
1 In-vehicle device (first wireless communication device)
3 Smartphone (second wireless communication device)
143 Guide
32 Voice
Claims (7)
前記第1無線通信機器は、
ガイド音声を記憶するガイド音声記憶部と、
無線通信に関する情報を表す文字列に基づいて、前記ガイド音声が有する時間長以下の時間長を有する設定音を生成する設定音生成部と、
前記ガイド音声と前記設定音とを合成した合成音を出力する出力部と、を有し、
前記第2無線通信機器は、
前記出力部より出力された前記合成音を収音する音声収音部と、
前記音声収音部が収音した前記合成音から前記ガイド音声を検出するガイド音声検出部と、
前記ガイド音声検出部が検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離する音源分離部と、
前記分離音から前記設定音を抽出する設定音抽出部と、
前記設定音を前記文字列に変換するテキスト変換部と、を有する、
ことを特徴とする無線通信システム。 In a wireless communication system including a first wireless communication device and a second wireless communication device capable of communicating with the first wireless communication device,
The first wireless communication device is
A guide voice storage unit that stores guide voice and
A setting sound generation unit that generates a setting sound having a time length equal to or less than the time length of the guide voice based on a character string representing information related to wireless communication.
It has an output unit that outputs a synthesized sound obtained by synthesizing the guide sound and the set sound.
The second wireless communication device is
A voice sound collecting unit that collects the synthetic sound output from the output unit, and
A guide voice detection unit that detects the guide sound from the synthetic sound collected by the voice sound collection unit, and
A sound source separation unit that separates the guide voice and the separated sound from the synthetic sound based on the guide voice detected by the guide voice detection unit.
A setting sound extraction unit that extracts the setting sound from the separated sound,
It has a text conversion unit that converts the set sound into the character string.
A wireless communication system characterized by this.
ことを特徴とする請求項1に記載の無線通信システム。 The character string includes device identification information that identifies the first wireless communication device during wireless communication.
The wireless communication system according to claim 1.
ことを特徴とする請求項1または2に記載の無線通信システム。 The character string includes password information used for causing the first wireless communication device to authenticate the second wireless communication device.
The wireless communication system according to claim 1 or 2.
ことを特徴とする請求項1に記載の無線通信システム。 The setting sound generation unit encrypts the character string and generates the setting sound based on the encrypted character string.
The wireless communication system according to claim 1.
ことを特徴とする請求項1に記載の無線通信システム。 The tone of the set sound is a piano sound.
The wireless communication system according to claim 1.
前記音声収音部が収音した前記合成音に含まれる前記ガイド音声を検出するガイド音声検出部と、
前記ガイド音声検出部が検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離する音源分離部と、
前記分離音から前記設定音を抽出する設定音抽出部と、
前記設定音を前記文字列に変換するテキスト変換部と、
を有することを特徴とする無線通信機器。 A voice sound collecting unit that collects a synthetic sound generated based on a guide sound and a character string representing information related to wireless communication and having a time length equal to or less than that of the guide sound.
A guide voice detection unit that detects the guide sound included in the synthetic sound collected by the voice sound collection unit, and
A sound source separation unit that separates the guide voice and the separated sound from the synthetic sound based on the guide voice detected by the guide voice detection unit.
A setting sound extraction unit that extracts the setting sound from the separated sound,
A text conversion unit that converts the set sound into the character string,
A wireless communication device characterized by having.
前記第1無線通信機器は、
ガイド音声を記憶し、
無線通信に関する情報を表す文字列に基づいて、記憶した前記ガイド音声が有する時間長以下の時間長を有する設定音を生成し、
前記ガイド音声と前記設定音とを合成した合成音を出力し、
前記第2無線通信機器は、
前記合成音を収音し、
収音した前記合成音に含まれる前記ガイド音声を検出し、
検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離し、
前記分離音から前記設定音を抽出し、
抽出した前記設定音を前記文字列に変換する
ことを特徴とする無線通信方法。 In the wireless communication method between the first wireless communication device and the second wireless communication device,
The first wireless communication device is
Memorize the guide voice,
Based on a character string representing information related to wireless communication, a set sound having a time length equal to or less than the time length of the stored guide voice is generated.
A synthetic sound obtained by synthesizing the guide sound and the set sound is output.
The second wireless communication device is
The synthetic sound is picked up and
The guide voice included in the collected synthetic sound is detected,
Based on the detected guide voice, the guide voice and the separated sound are separated from the synthetic sound.
The set sound is extracted from the separated sound,
A wireless communication method characterized in that the extracted set sound is converted into the character string.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003570A JP6807756B2 (en) | 2017-01-12 | 2017-01-12 | Wireless communication system, wireless communication device, and wireless communication method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003570A JP6807756B2 (en) | 2017-01-12 | 2017-01-12 | Wireless communication system, wireless communication device, and wireless communication method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018113621A JP2018113621A (en) | 2018-07-19 |
JP6807756B2 true JP6807756B2 (en) | 2021-01-06 |
Family
ID=62911444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017003570A Active JP6807756B2 (en) | 2017-01-12 | 2017-01-12 | Wireless communication system, wireless communication device, and wireless communication method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6807756B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6959619B2 (en) * | 2019-02-08 | 2021-11-02 | Necプラットフォームズ株式会社 | Mobile terminal |
JP7397641B2 (en) | 2019-12-04 | 2023-12-13 | オトモア株式会社 | Electronic equipment, transmitters and receivers |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100227549A1 (en) * | 2009-03-04 | 2010-09-09 | Alan Kozlay | Apparatus and Method for Pairing Bluetooth Devices by Acoustic Pin Transfer |
KR101706978B1 (en) * | 2009-08-26 | 2017-02-17 | 삼성전자주식회사 | Method for bluetooth communication and terminal applying the same |
JP5734345B2 (en) * | 2013-05-22 | 2015-06-17 | シャープ株式会社 | Network system, home appliance linkage method, server, home appliance and program |
JP5887446B1 (en) * | 2014-07-29 | 2016-03-16 | ヤマハ株式会社 | Information management system, information management method and program |
-
2017
- 2017-01-12 JP JP2017003570A patent/JP6807756B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018113621A (en) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5419136B2 (en) | Audio output device | |
JP6860055B2 (en) | Information provision method, terminal device operation method, information provision system, terminal device and program | |
ES2633457T3 (en) | Ultrasonic Wave Communications System | |
EP3176782B1 (en) | Apparatus and method for outputting obtained pieces of related information | |
KR101683676B1 (en) | Apparatus and method for providing augmented reality service using sound | |
AU2015297647B2 (en) | Information management system and information management method | |
JP4885336B2 (en) | Map display device | |
JP6807756B2 (en) | Wireless communication system, wireless communication device, and wireless communication method | |
WO2014189084A1 (en) | Rendition recording device | |
KR20090008047A (en) | Audio input device and karaoke to detect motion and position, and method for accompaniment thereof | |
CN104754421A (en) | Interactive beat effect system and interactive beat effect processing method | |
US9472176B2 (en) | Performance recording system, performance recording method, and musical instrument | |
JP2018155570A (en) | Information provision on-vehicle device, information provision system, and information provision program | |
CN103714805A (en) | Electronic musical instrument control device and method thereof | |
JP6406882B2 (en) | Electronic device, external device connection method and connection program | |
JP6392065B2 (en) | Information processing system | |
JP2006184103A (en) | Navigation apparatus | |
JP2012105174A (en) | Image voice recording/playback system | |
JP5593831B2 (en) | Information processing apparatus, information processing system, and information processing program. | |
JP2006330090A (en) | Electronic apparatus, image display device, and electronic apparatus operation system | |
JP6829606B2 (en) | Karaoke system, server device | |
KR20220099014A (en) | Singing rooms system and control method thereof | |
JP6796494B2 (en) | Karaoke system | |
JP2005352798A (en) | Data conversion unit, and program for data conversion processing | |
JP2012079191A (en) | Code reader and navigation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6807756 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |