JP6807756B2 - Wireless communication system, wireless communication device, and wireless communication method - Google Patents

Wireless communication system, wireless communication device, and wireless communication method Download PDF

Info

Publication number
JP6807756B2
JP6807756B2 JP2017003570A JP2017003570A JP6807756B2 JP 6807756 B2 JP6807756 B2 JP 6807756B2 JP 2017003570 A JP2017003570 A JP 2017003570A JP 2017003570 A JP2017003570 A JP 2017003570A JP 6807756 B2 JP6807756 B2 JP 6807756B2
Authority
JP
Japan
Prior art keywords
sound
wireless communication
voice
unit
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017003570A
Other languages
Japanese (ja)
Other versions
JP2018113621A (en
Inventor
剛 羽野
剛 羽野
靖 永井
靖 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2017003570A priority Critical patent/JP6807756B2/en
Publication of JP2018113621A publication Critical patent/JP2018113621A/en
Application granted granted Critical
Publication of JP6807756B2 publication Critical patent/JP6807756B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、無線通信システム、無線通信機器、及び、無線通信方法に関する。 The present invention relates to wireless communication systems, wireless communication devices, and wireless communication methods.

従来、第1無線通信機器(ホスト装置)と、第2無線通信機器(画像形成装置)との間で、無線通信する無線通信システム(プリントシステム)が知られている(例えば、特許文献1参照)。 Conventionally, a wireless communication system (print system) that wirelessly communicates between a first wireless communication device (host device) and a second wireless communication device (image forming device) is known (see, for example, Patent Document 1). ).

特開2006−155036号公報Japanese Unexamined Patent Publication No. 2006-155036

上述した特許文献1に記載の無線通信システムのように、第1無線通信機器と、第2無線通信機器とで無線通信するシステムでは、第1無線通信機器と、第2無線通信機器との間で通信可能な状態が確立する前に、第2無線通信機器に無線通信に関する情報を取得させることが求められる場合がある。例えば、第1無線通信機器、及び、第2無線通信機器がBluetooth(登録商標)デバイスである場合、これら機器間でペアリングを行うために、これら機器間で通信可能な状態が確立する前に、第2無線通信機器に、ペアリングに用いられる暗証情報を取得させることが求められる。従来、第2無線通信機器に無線通信に関する情報を取得させる場合、ユーザーが、当該情報の入力を行っており、作業が煩雑であり、ユーザーの利便性に課題があった。
本発明は、上述した事情に鑑みてなされたものであり、無線通信システム、無線通信機器、及び、無線通信方法について、ユーザーの利便性を向上することを目的とする。
In a system for wireless communication between a first wireless communication device and a second wireless communication device, such as the wireless communication system described in Patent Document 1 described above, between the first wireless communication device and the second wireless communication device. In some cases, it may be required that the second wireless communication device acquire information on wireless communication before the communicable state is established. For example, when the first wireless communication device and the second wireless communication device are Bluetooth (registered trademark) devices, in order to perform pairing between these devices, before a communicable state is established between these devices. , The second wireless communication device is required to acquire the password information used for pairing. Conventionally, when the second wireless communication device is made to acquire information related to wireless communication, the user inputs the information, the work is complicated, and there is a problem in the convenience of the user.
The present invention has been made in view of the above circumstances, and an object of the present invention is to improve user convenience with respect to a wireless communication system, a wireless communication device, and a wireless communication method.

上記目的を達成するために、本発明は、第1無線通信機器と、前記第1無線通信機器と通信可能な第2無線通信機器とを備える無線通信システムにおいて、前記第1無線通信機器は、ガイド音声を記憶するガイド音声記憶部と、無線通信に関する情報を表す文字列に基づいて、前記ガイド音声が有する時間長以下の時間長を有する設定音を生成する設定音生成部と、前記ガイド音声と前記設定音とを合成した合成音を出力する出力部と、を有し、前記第2無線通信機器は、前記出力部より出力された前記合成音を収音する音声収音部と、前記音声収音部が収音した前記合成音から前記ガイド音声を検出するガイド音声検出部と、前記ガイド音声検出部が検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離する音源分離部と、前記分離音から前記設定音を抽出する設定音抽出部と、前記設定音を前記文字列に変換するテキスト変換部と、を有する、ことを特徴とする。 In order to achieve the above object, the present invention relates to a wireless communication system including a first wireless communication device and a second wireless communication device capable of communicating with the first wireless communication device. A guide sound storage unit that stores the guide sound, a setting sound generation unit that generates a setting sound having a time length equal to or less than the time length of the guide sound based on a character string representing information related to wireless communication, and the guide sound. The second wireless communication device has an output unit that outputs a synthetic sound obtained by synthesizing and the set sound, and the second wireless communication device includes an audio sound collecting unit that collects the synthetic sound output from the output unit, and the sound collecting unit. The guide sound detection unit that detects the guide sound from the synthetic sound picked up by the voice sound collecting unit, and the guide sound and the separated sound from the synthetic sound based on the guide sound detected by the guide sound detection unit. It is characterized by having a sound source separation unit for separating the above, a setting sound extraction unit for extracting the set sound from the separated sound, and a text conversion unit for converting the set sound into the character string.

また、本発明は、前記文字列は、無線通信に際して前記第1無線通信機器を識別する機器識別情報を含む、ことを特徴とする。 Further, the present invention is characterized in that the character string includes device identification information for identifying the first wireless communication device during wireless communication.

また、本発明は、前記文字列は、前記第1無線通信機器に前記第2無線通信機器を認証させるために用いられる暗証情報を含む、ことを特徴とする。 Further, the present invention is characterized in that the character string includes password information used for causing the first wireless communication device to authenticate the second wireless communication device.

また、本発明は、前記設定音生成部は、前記文字列を暗号化し、暗号化した前記文字列に基づいて前記設定音を生成する、ことを特徴とする。 Further, the present invention is characterized in that the set sound generation unit encrypts the character string and generates the set sound based on the encrypted character string.

また、本発明は、前記設定音の音色はピアノ音である、ことを特徴とする。 Further, the present invention is characterized in that the tone color of the set sound is a piano sound.

また、上記目的を達成するために、本発明の無線通信機器は、ガイド音声と、無線通信に関する情報を表す文字列に基づいて生成され、前記ガイド音声が有する時間長以下の時間長を有する設定音とが合成された合成音を収音する音声収音部と、前記音声収音部が収音した前記合成音に含まれる前記ガイド音声を検出するガイド音声検出部と、前記ガイド音声検出部が検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離する音源分離部と、前記分離音から前記設定音を抽出する設定音抽出部と、前記設定音を前記文字列に変換するテキスト変換部と、を有することを特徴とする。 Further, in order to achieve the above object, the wireless communication device of the present invention is generated based on a guide sound and a character string representing information related to wireless communication, and is set to have a time length equal to or less than the time length of the guide sound. A sound pick-up unit that picks up a synthetic sound in which sounds are combined, a guide voice detection unit that detects the guide sound included in the synthetic sound collected by the voice sound pick-up unit, and the guide voice detection unit. Based on the guide sound detected by, a sound source separation unit that separates the guide sound and the separated sound from the synthetic sound, a setting sound extraction unit that extracts the set sound from the separated sound, and the set sound It is characterized by having a text conversion unit for converting into a character string.

また、上記目的を達成するために、本発明は、第1無線通信機器と第2無線通信機器との無線通信方法において、前記第1無線通信機器は、ガイド音声を記憶し、無線通信に関する情報を表す文字列に基づいて、記憶した前記ガイド音声が有する時間長以下の時間長を有する設定音を生成し、前記ガイド音声と前記設定音とを合成した合成音を出力し、前記第2無線通信機器は、前記合成音を収音し、収音した前記合成音に含まれる前記ガイド音声を検出し、検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離し、前記分離音から前記設定音を抽出し、抽出した前記設定音を前記文字列に変換することを特徴とする。 Further, in order to achieve the above object, in the wireless communication method between the first wireless communication device and the second wireless communication device, the first wireless communication device stores a guide sound and information on wireless communication. Based on the character string representing, a set sound having a time length equal to or less than the time length of the stored guide sound is generated, a synthetic sound obtained by synthesizing the guide sound and the set sound is output, and the second radio is output. The communication device picks up the synthetic sound, detects the guide sound included in the collected synthetic sound, and separates the guide sound and the separated sound from the synthetic sound based on the detected guide sound. Then, the set sound is extracted from the separated sound, and the extracted set sound is converted into the character string.

本発明によれば、ユーザーの利便性を向上できる。 According to the present invention, the convenience of the user can be improved.

無線通信システムが備える車載装置の機能ブロック図。The functional block diagram of the in-vehicle device provided in the wireless communication system. 車載装置側設定音テーブルの模式図。Schematic diagram of the in-vehicle device side setting sound table. 無線通信システムが備える携帯端末の機能ブロック図。Functional block diagram of a mobile terminal provided in a wireless communication system. ペアリングを行うときの無線通信システムの動作を示すフローチャート。A flowchart showing the operation of the wireless communication system when pairing is performed. ペアリング開始通知画面を示す模式図。The schematic diagram which shows the pairing start notification screen. 機器登録開始画面の一例を示す模式図。The schematic diagram which shows an example of the device registration start screen. 設定音生成処理の詳細を示すフローチャート。A flowchart showing the details of the setting sound generation process. 暗号化識別情報の説明図。Explanatory drawing of encryption identification information. テキスト変換処理の詳細を示すフローチャート。A flowchart showing the details of the text conversion process. 音名識別情報の生成の説明図。Explanatory drawing of generation of note name identification information.

以下、図面を参照して本発明の実施形態について説明する。
本実施形態に係る無線通信システム100は、車載装置1(第1無線通信機器)と、携帯端末3(第2無線通信機器)とを備える。車載装置1、及び、携帯端末3は、それぞれ、Bluetoothの規格に従って通信する機能を有しており、これら装置間でペアリングが完了した後は、Bluetoothの規格に従って通信可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The wireless communication system 100 according to the present embodiment includes an in-vehicle device 1 (first wireless communication device) and a mobile terminal 3 (second wireless communication device). The in-vehicle device 1 and the mobile terminal 3 each have a function of communicating according to the Bluetooth standard, and after the pairing between these devices is completed, the in-vehicle device 1 and the mobile terminal 3 can communicate according to the Bluetooth standard.

まず、図1を参照して、本発明の実施形態に係る無線通信システム100が備える車載装置1の詳細な構成について説明する。 First, with reference to FIG. 1, a detailed configuration of the in-vehicle device 1 included in the wireless communication system 100 according to the embodiment of the present invention will be described.

図1は、無線通信システム100が備える車載装置1の機能ブロック図である。
車載装置1は、車両に搭載された装置である。車載装置1は、車両の現在位置を検出する自車位置検出を行う機能、地図上に車両の現在位置を表示する車両位置表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し目的地までの経路を案内する経路案内を行う機能を備えたいわゆるカーナビゲーションである。
FIG. 1 is a functional block diagram of an in-vehicle device 1 included in the wireless communication system 100.
The in-vehicle device 1 is a device mounted on a vehicle. The in-vehicle device 1 has a function of detecting the current position of the vehicle, a function of displaying the current position of the vehicle on a map, and a function of searching for a route to the destination. , And, it is a so-called car navigation system having a function of displaying a map, displaying a route to a destination on the map, and guiding a route to the destination.

図1に示すように、車載装置1は、車載装置制御部10と、操作部11と、車載装置タッチパネル13と、車載装置無線通信部15と、音声出力部17(出力部)と、GPSユニット20と、相対方位検出ユニット18と、車載装置記憶部14とを有する。 As shown in FIG. 1, the in-vehicle device 1 includes an in-vehicle device control unit 10, an operation unit 11, an in-vehicle device touch panel 13, an in-vehicle device wireless communication unit 15, a voice output unit 17 (output unit), and a GPS unit. It has 20, a relative orientation detection unit 18, and an in-vehicle device storage unit 14.

車載装置制御部10は、CPUや、ROM、RAM、ASIC、信号処理回路等を備え、車載装置1の各部を制御する。車載装置制御部10は、例えばCPUが、ROMに記憶されたプログラムをRAMに読み出して処理を実行し、また例えばASICに実装された機能により処理を実行し、また例えば信号処理回路で信号処理を行って処理を実行する等、ハードウェア及びソフトウェアにより処理を実行する。車載装置制御部10は、機能ブロックとして、設定音生成部10aを備える。設定音生成部10aについては、後述する。 The in-vehicle device control unit 10 includes a CPU, ROM, RAM, ASIC, signal processing circuit, and the like, and controls each unit of the in-vehicle device 1. In the in-vehicle device control unit 10, for example, the CPU reads the program stored in the ROM into the RAM and executes the processing, executes the processing by the function implemented in the ASIC, for example, and performs the signal processing in the signal processing circuit, for example. Perform processing by hardware and software, such as performing processing. The in-vehicle device control unit 10 includes a setting sound generation unit 10a as a functional block. The setting sound generation unit 10a will be described later.

操作部11は、車載装置1の筐体に設けられた操作ボタンを有し、ユーザーによる操作ボタンに対する操作を検出し、検出した操作に対応する信号を車載装置制御部10に出力する。車載装置制御部10は、操作部11から入力された操作信号に基づいて、操作ボタンに対する操作に対応する処理を実行する。
操作部11は、操作ボタンとして、少なくとも、機器登録画面表示ボタン11aを有する。機器登録画面表示ボタン11aがユーザーにより操作された場合の車載装置制御部10の処理については後述する。
The operation unit 11 has an operation button provided in the housing of the vehicle-mounted device 1, detects an operation on the operation button by the user, and outputs a signal corresponding to the detected operation to the vehicle-mounted device control unit 10. The in-vehicle device control unit 10 executes a process corresponding to an operation on the operation button based on the operation signal input from the operation unit 11.
The operation unit 11 has at least a device registration screen display button 11a as an operation button. The processing of the in-vehicle device control unit 10 when the device registration screen display button 11a is operated by the user will be described later.

車載装置タッチパネル13は、液晶表示パネルや、有機ELパネル等の表示パネルを備え、車載装置制御部10の制御で、表示パネルに画像を表示する。
また、車載装置タッチパネル13は、表示パネルに重ねて配置されたタッチセンサーを備え、ユーザーによる車載装置タッチパネル13に対する操作を検出し、検出した操作に対応する信号を車載装置制御部10に出力する。車載装置制御部10は、車載装置タッチパネル13からの入力に基づいて、ユーザーによる車載装置タッチパネル13に対する操作に対応する処理を実行する。
The in-vehicle device touch panel 13 includes a liquid crystal display panel, a display panel such as an organic EL panel, and displays an image on the display panel under the control of the in-vehicle device control unit 10.
Further, the in-vehicle device touch panel 13 includes a touch sensor arranged so as to be superimposed on the display panel, detects an operation on the in-vehicle device touch panel 13 by the user, and outputs a signal corresponding to the detected operation to the in-vehicle device control unit 10. The in-vehicle device control unit 10 executes a process corresponding to the operation of the in-vehicle device touch panel 13 by the user based on the input from the in-vehicle device touch panel 13.

車載装置無線通信部15は、リンクマネージャーや、リンクコントローラー、高周波回路、アンテナ等を含む無線通信モジュール備え、車載装置制御部10の制御で、外部の装置とBluetoothに従って無線通信する。 The in-vehicle device wireless communication unit 15 includes a link manager, a link controller, a high-frequency circuit, an antenna, and other wireless communication modules, and under the control of the in-vehicle device control unit 10, wirelessly communicates with an external device according to Bluetooth.

音声出力部17は、音声信号合成回路や、D/Aコンバーター、アンプ回路、スピーカー等を備え、車載装置制御部10の制御で、車載装置制御部10から入力された音声信号をD/Aコンバーターによりデジタル/アナログ変換し、アンプ回路により増幅して、図示しないスピーカーから音声として出力する。
特に、音声出力部17は、車載装置制御部10から、異なる複数の音声信号が入力された場合、音声信号合成回路において複数の音声信号を合成して、D/Aコンバーターに出力し、複数の音声信号に基づく音声が合成された状態で音声を出力する。
The audio output unit 17 includes an audio signal synthesis circuit, a D / A converter, an amplifier circuit, a speaker, and the like, and is controlled by the in-vehicle device control unit 10 to convert an audio signal input from the in-vehicle device control unit 10 into a D / A converter. Digital / analog conversion is performed by, amplified by an amplifier circuit, and output as audio from a speaker (not shown).
In particular, when a plurality of different audio signals are input from the in-vehicle device control unit 10, the audio output unit 17 synthesizes a plurality of audio signals in the audio signal synthesis circuit and outputs the plurality of audio signals to the D / A converter. The audio is output in a state in which the audio based on the audio signal is synthesized.

GPSユニット20は、図示しないGPSアンテナを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、車両の現在地と、車両の進行方向とを算出する。GPSユニット20は、算出した車両の現在地を示す情報、及び、算出した車両の進行方向を示す情報を車載装置制御部10に出力する。 The GPS unit 20 receives GPS radio waves from GPS satellites via GPS antennas (not shown), and calculates the current location of the vehicle and the traveling direction of the vehicle from the GPS signals superimposed on the GPS radio waves. The GPS unit 20 outputs the calculated information indicating the current location of the vehicle and the calculated information indicating the traveling direction of the vehicle to the in-vehicle device control unit 10.

相対方位検出ユニット18は、ジャイロセンサと、加速度センサとを備える。ジャイロセンサは、例えば振動ジャイロにより構成され、車両の相対的な方位(例えば、ヨー軸方向の旋回量)を検出する。加速度センサは、車両に作用する加速度(例えば、進行方向に対する車両の傾き)を検出する。相対方位検出ユニット18は、検出した車両の相対的な方位を示す情報、及び、検出した車両に作用する加速度を示す情報を車載装置制御部10に出力する。 The relative orientation detection unit 18 includes a gyro sensor and an acceleration sensor. The gyro sensor is composed of, for example, a vibrating gyro, and detects the relative orientation of the vehicle (for example, the amount of turning in the yaw axis direction). The acceleration sensor detects the acceleration acting on the vehicle (for example, the inclination of the vehicle with respect to the traveling direction). The relative orientation detection unit 18 outputs information indicating the relative orientation of the detected vehicle and information indicating the acceleration acting on the detected vehicle to the in-vehicle device control unit 10.

車載装置記憶部14は、不揮発性メモリーを備え、各種データを記憶する。車載装置記憶部14は、車載装置側対応音情報記憶部141と、マスター側通信情報記憶部142と、ガイド音声記憶部143と、を有する。 The in-vehicle device storage unit 14 includes a non-volatile memory and stores various data. The in-vehicle device storage unit 14 includes an in-vehicle device side corresponding sound information storage unit 141, a master side communication information storage unit 142, and a guide voice storage unit 143.

なお、以下の説明では、16進数で数字を表す場合、「0x1」や、「0xf」のように、16進数の数字の前に「0x」を付けて表し、10進数で数字を表す場合と区別する。また、16進数で表された数字のことを、特に、「16進数数字」という。特に、「0x0」〜「0xf」の16個の16進数数字について、「基準16進数数字」という。
また、以下の説明では、音名を、英・米式表記で表すものとする。また、音名として、便宜的に、「低C」、「低D」、「低E」、「低F」、「低G」、「低A」、「低B」、「中C」、「中D」、「中E」、「中F」、「中G」、「中A」、「中B」、「高C」、「高D」、「高E」、「高F」、「高G」、「高A」、「高B」があるものとする。それぞれの音の高さと、MIDI(登録商標)ノート番号との対応関係は以下である。
「低C」→MIDIノート番号:48。「低D」→MIDIノート番号:50。「低E」→MIDIノート番号:52。「低F」→MIDIノート番号:53。「低G」→MIDIノート番号:55。「低A」→MIDIノート番号:57。「低B」→MIDIノート番号:59。「中C」→MIDIノート番号:60。「中D」→MIDIノート番号:62。「中E」→MIDIノート番号:64。「中F」→MIDIノート番号:65。「中G」→MIDIノート番号:67。「中A」→MIDIノート番号:69。「中B」→MIDIノート番号:70。「高C」→MIDIノート番号:72。「高D」→MIDIノート番号:74。「高E」→MIDIノート番号:76。「高F」→MIDIノート番号:77。「高G」→MIDIノート番号:79。「高A」→MIDIノート番号:81。「高B」→MIDIノート番号:83。
In the following description, when a number is represented by a hexadecimal number, "0x" is added before the hexadecimal number such as "0x1" or "0xf", and the number is represented by a decimal number. Distinguish. Further, a number represented by a hexadecimal number is particularly referred to as a "hexary number". In particular, the 16 hexadecimal numbers from "0x0" to "0xf" are referred to as "reference hexadecimal numbers".
Further, in the following explanation, the note name is expressed in English / American notation. In addition, as note names, for convenience, "low C", "low D", "low E", "low F", "low G", "low A", "low B", "medium C", "Medium D", "Medium E", "Medium F", "Medium G", "Medium A", "Medium B", "High C", "High D", "High E", "High F", It is assumed that there are "high G", "high A", and "high B". The correspondence between the pitch of each note and the MIDI (registered trademark) note number is as follows.
"Low C" → MIDI note number: 48. "Low D" → MIDI note number: 50. "Low E" → MIDI note number: 52. "Low F" → MIDI note number: 53. "Low G" → MIDI note number: 55. "Low A" → MIDI note number: 57. "Low B" → MIDI note number: 59. "Medium C" → MIDI note number: 60. "Medium D" → MIDI note number: 62. "Medium E" → MIDI note number: 64. "Medium F" → MIDI note number: 65. "Medium G" → MIDI note number: 67. "Medium A" → MIDI note number: 69. "Medium B" → MIDI note number: 70. "High C" → MIDI note number: 72. "High D" → MIDI note number: 74. "High E" → MIDI note number: 76. "High F" → MIDI note number: 77. "High G" → MIDI note number: 79. "High A" → MIDI note number: 81. "High B" → MIDI note number: 83.

車載装置側対応音情報記憶部141は、車載装置側対応音テーブル141aを記憶する。
図2は、車載装置側対応音テーブル141aの内容を説明に適した態様で模式的に示す図である。
ここで、本実施形態では、事前に、基準16進数数字のそれぞれ(「0x0」〜「0xf」のそれぞれ。)について、音名のいずれかが割り振られる。基準16進数数字のそれぞれに割り振られる音名は、それぞれ異なるものとされる。そして、対応音テーブルは、基準16進数数字のそれぞれと、基準16進数数字のそれぞれに割り振られた音名との対応関係を管理するテーブルである。
図2に示すように、本実施形態では、例えば、16進数数字「0x0」に対しては、音名「低C」が割り振られ、また例えば、16進数数字「0x1」に対しては、音名「低D」が割り振られる。
車載装置側対応音テーブル141aの使用のされ方については、後述する。
The vehicle-mounted device-side compatible sound information storage unit 141 stores the vehicle-mounted device-side compatible sound table 141a.
FIG. 2 is a diagram schematically showing the contents of the sound table 141a corresponding to the vehicle-mounted device side in a mode suitable for explanation.
Here, in the present embodiment, one of the note names is assigned in advance for each of the reference hexadecimal numbers (each of "0x0" to "0xf"). The note names assigned to each of the reference hexadecimal numbers are different. The corresponding sound table is a table that manages the correspondence between each of the reference hexadecimal numbers and the note names assigned to each of the reference hexadecimal numbers.
As shown in FIG. 2, in the present embodiment, for example, the note name "low C" is assigned to the hexadecimal digit "0x0", and for example, the note is assigned to the hexadecimal digit "0x1". The name "Low D" is assigned.
How to use the sound table 141a corresponding to the in-vehicle device will be described later.

マスター側通信情報記憶部142は、車載装置1と携帯端末3との間でBluetoothに対応するペアリングを行う際に用いられる情報であるマスター側通信情報を記憶する。本実施形態では、マスター側通信情報は、少なくとも、Bluetoothの規格に従ってペアリングを行う際に、マスターとしての車載装置1の識別に利用する識別情報(以下、「車載装置識別情報」という。)と、ペアリングに使用する暗証情報(パスキー、パスワード、パスコードと呼ばれる場合もある。)と、を少なくとも含む。車載装置識別情報は、機器識別情報に相当する。 The master-side communication information storage unit 142 stores master-side communication information, which is information used when pairing the in-vehicle device 1 and the mobile terminal 3 corresponding to Bluetooth. In the present embodiment, the master-side communication information is at least the identification information used for identifying the in-vehicle device 1 as the master (hereinafter referred to as "in-vehicle device identification information") when pairing according to the Bluetooth standard. , Includes at least the password information used for pairing (sometimes called a passkey, password, passcode). The in-vehicle device identification information corresponds to the device identification information.

ガイド音声記憶部143は、ガイド音声の音声ファイル(以下、「ガイド音声ファイル」という。)を記憶する。ガイド音声については、後述する。 The guide voice storage unit 143 stores a voice file of the guide voice (hereinafter, referred to as “guide voice file”). The guide voice will be described later.

また、車載装置記憶部14は、地図データ14aを記憶する。
地図データ14aは、道路の形状を地図に描画する際に用いる道路画像データや、地形等の背景を地図に描画する際に用いる背景画像データ、行政区画を示す文字列や、交差点名を示す文字列、道路名を示す文字列等の文字列を地図に描画する際に用いる文字列画像データ等の地図の表示に用いる画像データを備える。また、地図データ14aは、交差点等の道路網における結線点に対応するノードに関するノード情報や、ノードとノードとの間に形成される道路に対応するリンクに関するリンク情報等の経路の探索、及び、経路の案内に用いる経路情報を含む。
Further, the vehicle-mounted device storage unit 14 stores the map data 14a.
The map data 14a includes road image data used when drawing the shape of a road on a map, background image data used when drawing a background such as terrain on a map, a character string indicating an administrative division, and characters indicating an intersection name. It includes image data used for displaying a map such as character string image data used when drawing a character string such as a character string indicating a column or a road name on a map. Further, the map data 14a is used for searching for a route such as node information about a node corresponding to a connection point in a road network such as an intersection and link information about a link formed between nodes and a road formed between the nodes. Includes route information used for route guidance.

上述したように、車載装置1は、車両の現在位置を検出する自車位置検出を行う機能、地図上に車両の現在位置を表示する車両位置表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し目的地までの経路を案内する経路案内を行う機能を備える。自車位置検出に際し、車載装置制御部10は、GPSユニット20及び相対方位検出ユニット18からの入力、及び、地図データ14aに基づいて、車両の現在位置を検出する。なお、車両の現在位置を検出する方法はどのような方法であってもよく、また、検出に際し、車速を示す情報等の本実施形態で例示する情報以外の情報を用いてもよい。また、車両位置表示に際し、車載装置制御部10は、地図データ14aに基づいて、検出した現在位置を中心とした所定のスケールの地図を車載装置タッチパネル13に表示すると共に、検出した車両の現在位置を示すマークを地図に表示する。また、経路探索に際し、車載装置制御部10は、地図データ14aに基づいて、検出した現在位置から、ユーザーに設定された目的地に至る経路を探索する。また、経路案内に際し、車載装置制御部10は、目的地までの経路を地図上に表示すると共に、検出した車両の現在位置を地図上に表示し、目的地に至るまでの経路を案内する。 As described above, the in-vehicle device 1 has a function of detecting the current position of the vehicle, a function of displaying the current position of the vehicle on the map, and searching for a route to the destination. It has a function to search for a route and a function to display a map, display the route to the destination on the map, and guide the route to the destination. When detecting the position of the own vehicle, the in-vehicle device control unit 10 detects the current position of the vehicle based on the input from the GPS unit 20 and the relative orientation detection unit 18 and the map data 14a. The current position of the vehicle may be detected by any method, and at the time of detection, information other than the information exemplified in the present embodiment such as information indicating the vehicle speed may be used. Further, when displaying the vehicle position, the in-vehicle device control unit 10 displays a map of a predetermined scale centered on the detected current position on the in-vehicle device touch panel 13 based on the map data 14a, and also displays the detected current position of the vehicle. A mark indicating is displayed on the map. Further, in the route search, the in-vehicle device control unit 10 searches for a route from the detected current position to the destination set by the user based on the map data 14a. Further, upon route guidance, the in-vehicle device control unit 10 displays the route to the destination on the map, displays the current position of the detected vehicle on the map, and guides the route to the destination.

図3は、無線通信システム100が備える携帯端末3の機能ブロック図である。
携帯端末3は、車載装置1が搭載された車両に搭乗するユーザーが所有する携帯型の端末である。携帯端末3は、例えば、スマートフォンであり、また例えば、タブレット型のコンピューターである。
FIG. 3 is a functional block diagram of the mobile terminal 3 included in the wireless communication system 100.
The mobile terminal 3 is a portable terminal owned by a user boarding a vehicle equipped with the in-vehicle device 1. The mobile terminal 3 is, for example, a smartphone, and for example, a tablet-type computer.

図3に示すように、携帯端末3は、携帯端末制御部30と、携帯端末タッチパネル31と、音声収音部32と、携帯端末記憶部33と、携帯端末無線通信部34と、携帯端末ネットワーク通信部35とを有する。 As shown in FIG. 3, the mobile terminal 3 includes a mobile terminal control unit 30, a mobile terminal touch panel 31, a voice sound collecting unit 32, a mobile terminal storage unit 33, a mobile terminal wireless communication unit 34, and a mobile terminal network. It has a communication unit 35.

携帯端末制御部30は、CPUや、ROM、RAM、ASIC、信号処理回路等を備え、携帯端末3の各部を制御する。携帯端末制御部30は、例えばCPUが、ROMに記憶されたプログラムをRAMに読み出して処理を実行し、また例えばASICに実装された機能により処理を実行し、また例えば信号処理回路で信号処理を行って処理を実行する等、ハードウェア及びソフトウェアにより処理を実行する。携帯端末制御部30は、機能ブロックとして、ガイド音声検出部301と、音源分離部302と、設定音抽出部303と、テキスト変換部304とを備える。これら機能ブロックについては、後述する。 The mobile terminal control unit 30 includes a CPU, ROM, RAM, ASIC, signal processing circuit, and the like, and controls each unit of the mobile terminal 3. In the mobile terminal control unit 30, for example, the CPU reads the program stored in the ROM into the RAM and executes the processing, executes the processing by the function implemented in the ASIC, for example, and performs the signal processing in the signal processing circuit, for example. Perform processing by hardware and software, such as performing processing. The mobile terminal control unit 30 includes a guide voice detection unit 301, a sound source separation unit 302, a setting sound extraction unit 303, and a text conversion unit 304 as functional blocks. These functional blocks will be described later.

携帯端末タッチパネル31は、液晶表示パネルや、有機ELパネル等の表示パネルを備え、携帯端末制御部30の制御で、表示パネルに画像を表示する。
また、携帯端末タッチパネル31は、表示パネルに重ねて配置されたタッチセンサーを備え、ユーザーによる携帯端末タッチパネル31に対する操作を検出し、携帯端末制御部30に出力する。携帯端末制御部30は、携帯端末タッチパネル31からの入力に基づいて、ユーザーによる携帯端末タッチパネル31に対する操作に対応する処理を実行する。
The mobile terminal touch panel 31 includes a liquid crystal display panel, a display panel such as an organic EL panel, and displays an image on the display panel under the control of the mobile terminal control unit 30.
Further, the mobile terminal touch panel 31 includes a touch sensor arranged so as to be superimposed on the display panel, detects an operation on the mobile terminal touch panel 31 by the user, and outputs the operation to the mobile terminal control unit 30. The mobile terminal control unit 30 executes a process corresponding to an operation on the mobile terminal touch panel 31 by the user based on the input from the mobile terminal touch panel 31.

音声収音部32は、マイク(不図示)と接続され、マイクによって収音された音声に基づく信号に対して必要な信号処理を行いアナログ/デジタル変換して音声データを生成し、携帯端末制御部30に出力する。 The voice sound collecting unit 32 is connected to a microphone (not shown), performs necessary signal processing on a signal based on the sound picked up by the microphone, performs analog / digital conversion to generate voice data, and controls a mobile terminal. Output to unit 30.

携帯端末記憶部33は、不揮発性のメモリーを備え、各種データを記憶する。
携帯端末記憶部33は、専用アプリケーションAPを記憶する。専用アプリケーションAPは、車載装置1と携帯端末3との間でのペアリングに関する処理(後述)を実行する機能を有するアプリケーションである。専用アプリケーションAPは、例えば、車載装置1を製造する企業が提供するアプリケーションであり、ユーザーにより、所定の手段で、携帯端末3にインストールされる。携帯端末記憶部33には、専用アプリケーションAPが使用可能な記憶領域が形成される。
The mobile terminal storage unit 33 has a non-volatile memory and stores various data.
The mobile terminal storage unit 33 stores the dedicated application AP. The dedicated application AP is an application having a function of executing a process (described later) related to pairing between the in-vehicle device 1 and the mobile terminal 3. The dedicated application AP is, for example, an application provided by a company that manufactures the in-vehicle device 1, and is installed on the mobile terminal 3 by a user by a predetermined means. A storage area in which the dedicated application AP can be used is formed in the mobile terminal storage unit 33.

携帯端末記憶部33は、携帯端末側対応音情報記憶部331を有する。
携帯端末側対応音情報記憶部331は、上述した専用アプリケーションAPが使用可能な記憶領域で、携帯端末側対応音テーブル331aを記憶する。
携帯端末側対応音テーブル331aは、上述した車載装置側対応音テーブル141aの内容と完全に同一の内容のテーブルである。すなわち、車載装置1において管理される基準16進数数字と音名との対応関係と、携帯端末3において管理される基準16進数数字と音名との対応関係とは、同一である。
The mobile terminal storage unit 33 has a sound information storage unit 331 corresponding to the mobile terminal side.
The mobile terminal-side compatible sound information storage unit 331 stores the mobile terminal-side compatible sound information table 331a in a storage area in which the above-mentioned dedicated application AP can be used.
The mobile terminal side compatible sound table 331a is a table having completely the same contents as the contents of the in-vehicle device side compatible sound table 141a described above. That is, the correspondence between the reference hexadecimal number and the note name managed by the in-vehicle device 1 and the correspondence between the reference hexadecimal number and the note name managed by the mobile terminal 3 are the same.

携帯端末無線通信部34は、リンクマネージャーや、リンクコントローラー、高周波回路、アンテナ等を含む無線通信モジュール備え、携帯端末制御部30の制御で、外部の装置とBluetoothに従って無線通信する。 The mobile terminal wireless communication unit 34 includes a wireless communication module including a link manager, a link controller, a high frequency circuit, an antenna, and the like, and under the control of the mobile terminal control unit 30, wirelessly communicates with an external device according to Bluetooth.

携帯端末ネットワーク通信部35は、携帯端末制御部30の制御で、電話網や、インターネット、その他のネットワークを含んで構成されるグローバルネットワークGNと接続する外部の装置と、所定の通信規格に従って通信する。所定の通信規格は、例えば、HTTPであり、また例えば、WebSocketである。 The mobile terminal network communication unit 35, under the control of the mobile terminal control unit 30, communicates with an external device connected to a global network GN including a telephone network, the Internet, and other networks in accordance with a predetermined communication standard. .. The predetermined communication standard is, for example, HTTP, and for example, WebSocket.

ところで、車載装置1は、グローバルネットワークGNに、直接、アクセスする機能を有していない。これを踏まえ、車載装置1は、グローバルネットワークGNにアクセスする場合、携帯端末3を用いてデザリングする。すなわち、車載装置1は、携帯端末3との間でBluetoothに従って通信リンクを確立し、携帯端末3との間でBluetoothに従って通信可能な状態を確立し、携帯端末3を介してグローバルネットワークGNにアクセスする。例えば、車載装置1は、携帯端末3を介してグローバルネットワークGNにアクセスし、所定のサーバーと通信して、地図データ14aの更新用のデータを取得し、取得したデータに基づいて地図データ14aを更新する。
ここで、車載装置1と携帯端末3との間でBluetoothに従って通信可能な状態を確立するためには、これら装置の間で、事前に、ペアリングが行われる必要がある。
従来、車載装置1と携帯端末3との間でペアリングを行う場合、ユーザーが、携帯端末3に表示された所定のユーザーインターフェースに、ペアリングに必要な情報を入力する必要があった。当該作業は煩雑であり、ユーザーの利便性に課題があった。
以上を踏まえ、ペアリングに際し、車載装置1と携帯端末3とは、以下の処理を実行し、ユーザーの利便性を向上する。
By the way, the in-vehicle device 1 does not have a function of directly accessing the global network GN. Based on this, when accessing the global network GN, the in-vehicle device 1 uses the mobile terminal 3 for tethering. That is, the in-vehicle device 1 establishes a communication link with the mobile terminal 3 according to Bluetooth, establishes a state capable of communicating with the mobile terminal 3 according to Bluetooth, and accesses the global network GN via the mobile terminal 3. To do. For example, the in-vehicle device 1 accesses the global network GN via the mobile terminal 3, communicates with a predetermined server, acquires data for updating the map data 14a, and obtains the map data 14a based on the acquired data. Update.
Here, in order to establish a state in which the in-vehicle device 1 and the mobile terminal 3 can communicate with each other according to Bluetooth, pairing must be performed in advance between these devices.
Conventionally, when pairing is performed between the in-vehicle device 1 and the mobile terminal 3, it is necessary for the user to input information necessary for pairing into a predetermined user interface displayed on the mobile terminal 3. The work is complicated, and there is a problem in user convenience.
Based on the above, at the time of pairing, the in-vehicle device 1 and the mobile terminal 3 execute the following processes to improve user convenience.

図4は、ペアリングを行うときの車載装置1、及び、携帯端末3の動作を示すフローチャートである。図4において、フローチャートFAは、車載装置1の動作を示し、フローチャートFBは、携帯端末3の動作を示す。
ペアリングに際し、まず、ユーザーは、携帯端末3の携帯端末タッチパネル31に対して所定の操作を行って、専用アプリケーションAPを起動する(ステップS1)。
なお、フローチャートFBの処理を、携帯端末制御部30は、ステップS1でユーザーにより起動された専用アプリケーションAPの機能により実行する。
FIG. 4 is a flowchart showing the operation of the in-vehicle device 1 and the mobile terminal 3 when pairing is performed. In FIG. 4, the flowchart FA shows the operation of the in-vehicle device 1, and the flowchart FB shows the operation of the mobile terminal 3.
At the time of pairing, the user first performs a predetermined operation on the mobile terminal touch panel 31 of the mobile terminal 3 to activate the dedicated application AP (step S1).
The process of the flowchart FB is executed by the mobile terminal control unit 30 by the function of the dedicated application AP started by the user in step S1.

図4のフローチャートFBに示すように、専用アプリケーションAPの起動に応じて、携帯端末制御部30は、ペアリング開始通知画面G1を携帯端末タッチパネル31に表示する(ステップSB1)。 As shown in the flowchart FB of FIG. 4, the mobile terminal control unit 30 displays the pairing start notification screen G1 on the mobile terminal touch panel 31 in response to the activation of the dedicated application AP (step SB1).

図5は、ペアリング開始通知画面G1を示す図である。
図5に示すように、ペアリング開始通知画面G1には、ペアリング(車載装置1への携帯端末3の登録。)を開始することを示す情報、及び、車載装置1の機器登録画面G2(図6参照。後述。)に対して操作を行うべきことを示す情報が表示される。ユーザーは、ペアリング開始通知画面G1を参照することにより、ペアリングが開始されること、及び、車載装置1の機器登録画面G2に対して操作を行う必要があることについて的確に認識できる。
FIG. 5 is a diagram showing a pairing start notification screen G1.
As shown in FIG. 5, the pairing start notification screen G1 shows information indicating that pairing (registration of the mobile terminal 3 to the in-vehicle device 1) is started, and the device registration screen G2 (in-vehicle device 1) of the in-vehicle device 1. Information indicating that the operation should be performed for (see FIG. 6; described later) is displayed. By referring to the pairing start notification screen G1, the user can accurately recognize that the pairing is started and that it is necessary to operate the device registration screen G2 of the in-vehicle device 1.

次いで、携帯端末制御部30は、携帯端末3の周囲の音の録音を開始する(ステップSB2)。詳述すると、携帯端末制御部30は、音声収音部32を制御して、携帯端末3の周囲の音声の収音を開始する。上述したように、音声収音部32は、マイクによって収音された音声に基づく音声データを生成し、携帯端末制御部30に出力する。携帯端末制御部30は、音声の収音の開始に応じて音声収音部32から入力される音声データを、携帯端末記憶部33に累積的に記憶する。以下、携帯端末記憶部33に累積的に記憶される音声データの集合を、「録音データ」と表現する。 Next, the mobile terminal control unit 30 starts recording the sound around the mobile terminal 3 (step SB2). More specifically, the mobile terminal control unit 30 controls the voice sound collecting unit 32 to start collecting the sound around the mobile terminal 3. As described above, the voice sound collecting unit 32 generates voice data based on the voice picked up by the microphone and outputs it to the mobile terminal control unit 30. The mobile terminal control unit 30 cumulatively stores the voice data input from the voice sound collection unit 32 in the mobile terminal storage unit 33 in response to the start of voice sound collection. Hereinafter, a set of voice data cumulatively stored in the mobile terminal storage unit 33 is referred to as “recorded data”.

ペアリング開始通知画面G1を参照したユーザーは、車載装置1の機器登録画面表示ボタン11aを操作する(ステップS2)。 The user who has referred to the pairing start notification screen G1 operates the device registration screen display button 11a of the in-vehicle device 1 (step S2).

図4のフローチャートFAに示すように、機器登録画面表示ボタン11aが操作されたことを検出した場合、車載装置制御部10は、車載装置タッチパネル13に機器登録開始画面G2を表示する(ステップSA1)。 As shown in the flowchart FA of FIG. 4, when it is detected that the device registration screen display button 11a has been operated, the vehicle-mounted device control unit 10 displays the device registration start screen G2 on the vehicle-mounted device touch panel 13 (step SA1). ..

図6は、機器登録開始画面G2を示す図である。
図6に示すように、機器登録開始画面G2は、タッチ操作可能な開始ボタン13aを有する。また、機器登録開始画面G2には、開始ボタン13aがタッチ操作された場合、ペアリング(車載装置1への携帯端末3の登録。)が開始されることを示す情報、所定期間(本例では、30秒間。)、車載装置1から音が出力されることを示す情報、及び、音の出力が停止するまで、ユーザーが静かにすべきことを示す情報が表示される。
ユーザーは、機器登録開始画面G2を参照することにより、ペアリングを開始するために開始ボタン13aを操作すべきこと、開始ボタン13aの操作に応じて、所定期間、音が出力されること、及び、音の出力が停止するまで静かに待機すべきことを的確に認識できる。
FIG. 6 is a diagram showing a device registration start screen G2.
As shown in FIG. 6, the device registration start screen G2 has a touch-operable start button 13a. Further, on the device registration start screen G2, information indicating that pairing (registration of the mobile terminal 3 in the in-vehicle device 1) is started when the start button 13a is touch-operated, and a predetermined period (in this example). , 30 seconds.), Information indicating that sound is output from the in-vehicle device 1 and information indicating that the user should be quiet until the sound output is stopped are displayed.
The user should operate the start button 13a to start pairing by referring to the device registration start screen G2, and the sound is output for a predetermined period according to the operation of the start button 13a. , You can accurately recognize that you should wait quietly until the sound output stops.

機器登録開始画面G2を参照したユーザーは、ペアリングを開始する場合、当該画面の開始ボタン13aを操作する(ステップS3)。 When the user who has referred to the device registration start screen G2 starts pairing, he / she operates the start button 13a on the screen (step S3).

開始ボタン13aが操作されたことを検出した場合、車載装置制御部10の設定音生成部10aは、設定音生成処理を実行する(ステップSA2)。以下、設定音生成処理について、詳述する。 When it is detected that the start button 13a has been operated, the setting sound generation unit 10a of the vehicle-mounted device control unit 10 executes the setting sound generation process (step SA2). Hereinafter, the setting sound generation process will be described in detail.

図7のフローチャートFCは、設定音生成処理の詳細を示すフローチャートである。
図7のフローチャートFCに示すように、設定音生成処理において、設定音生成部10aは、マスター側通信情報記憶部142が記憶するマスター側通信情報を取得する(ステップSC1)。上述したように、マスター側通信情報は、ペアリングに用いられる車載装置識別情報、及び、暗証情報を含む。
The flowchart FC of FIG. 7 is a flowchart showing the details of the set sound generation process.
As shown in the flowchart FC of FIG. 7, in the set sound generation process, the set sound generation unit 10a acquires the master side communication information stored in the master side communication information storage unit 142 (step SC1). As described above, the master-side communication information includes the in-vehicle device identification information used for pairing and the password information.

次いで、車載装置制御部10は、ステップSC1で取得した車載装置識別情報、及び、暗証情報のそれぞれを、事前に登録された暗号化鍵により暗号化する(ステップSC2)。ステップSC2で車載装置制御部10が用いる暗号化鍵は、携帯端末3に登録された復号化鍵に対応しており、車載装置1に係る暗号化鍵で暗号化したデータは、携帯端末3に係る復号化鍵で復号することができる。
以下、暗号化された車載装置識別情報を「暗号化識別情報」といい、暗号化された暗証情報を「暗号化暗証情報」という。
ここで、暗号化識別情報についてより詳細に説明する。
Next, the vehicle-mounted device control unit 10 encrypts each of the vehicle-mounted device identification information and the password information acquired in step SC1 with a pre-registered encryption key (step SC2). The encryption key used by the vehicle-mounted device control unit 10 in step SC2 corresponds to the decryption key registered in the mobile terminal 3, and the data encrypted by the encryption key related to the vehicle-mounted device 1 is stored in the mobile terminal 3. It can be decrypted with the decryption key.
Hereinafter, the encrypted in-vehicle device identification information is referred to as "encrypted identification information", and the encrypted password information is referred to as "encrypted password information".
Here, the encrypted identification information will be described in more detail.

図8は、暗号化識別情報の説明に用いる図である。なお、図8は、以下の設定音生成処理の説明にも用いる。
ステップSC2における暗号化前の車載装置識別情報が、文字列「123abc」であったとする。本実施形態では、「文字」は、ASCIIコードによって表される文字である。従って、車載装置識別情報の文字列を構成する文字のそれぞれは8ビットのASCIIコードによって表されると共に、車載装置識別情報の文字列はASCIIコードの組み合わせからなる所定長のビット列によって表される。以下、車載装置識別情報を表すビット列を、便宜的に「識別情報ビット列」という。図8では、車載装置識別情報が、文字列「123abc」である場合の識別情報ビット列を示している。
ステップSC2において、車載装置制御部10は、識別情報ビット列に対して、暗号化鍵を用いた暗号化を施し、新たにビット列を生成する。新たに生成されたビット列が、暗号化識別情報に相当する。以下、暗号化識別情報を表すビット列を、便宜的に「暗号化識別情報ビット列」という。図8では、暗号化識別情報ビット列の一例を示している。
FIG. 8 is a diagram used for explaining the encrypted identification information. Note that FIG. 8 is also used for the following description of the set sound generation process.
It is assumed that the in-vehicle device identification information before encryption in step SC2 is the character string "123abc". In this embodiment, the "character" is a character represented by an ASCII code. Therefore, each of the characters constituting the character string of the vehicle-mounted device identification information is represented by an 8-bit ASCII code, and the character string of the vehicle-mounted device identification information is represented by a bit string having a predetermined length composed of a combination of the ASCII codes. Hereinafter, the bit string representing the in-vehicle device identification information is referred to as an "identification information bit string" for convenience. FIG. 8 shows an identification information bit string when the in-vehicle device identification information is the character string “123abc”.
In step SC2, the vehicle-mounted device control unit 10 encrypts the identification information bit string using the encryption key, and newly generates the bit string. The newly generated bit string corresponds to the encrypted identification information. Hereinafter, the bit string representing the encryption identification information is referred to as "encryption identification information bit string" for convenience. FIG. 8 shows an example of the encryption identification information bit string.

次いで、設定音生成部10aは、ステップSC2で生成した暗号化識別情報(暗号化識別情報ビット列)について、先頭から順番に4ビットずつに区分けする(ステップSC3)。例えば、ステップSC2で生成した暗号化識別情報ビット列が、図8で例示した暗号化識別情報ビット列であるとすると、設定音生成部10aは、1ビット目〜4ビット目のビット列「1100」、5ビット目〜8ビット目のビット列「1000」、9ビット目〜12ビット目のビット列「1110」、13ビット目〜16ビット目のビット列「0110」というように、先頭から順番に4ビットずつに区分けする。区分けした4ビットのビット列は、それぞれ、基準16進数数字に変換可能である。 Next, the setting sound generation unit 10a divides the encryption identification information (encryption identification information bit string) generated in step SC2 into 4 bits in order from the beginning (step SC3). For example, assuming that the encryption identification information bit string generated in step SC2 is the encryption identification information bit string illustrated in FIG. 8, the setting sound generation unit 10a has the bit strings “1100” of the first to fourth bits, 5 The bits are divided into 4 bits in order from the beginning, such as the bit string "1000" of the 8th bit, the bit string "1110" of the 9th to 12th bits, and the bit string "0110" of the 13th to 16th bits. To do. Each of the divided 4-bit bit strings can be converted into a reference hexadecimal digit.

次いで、設定音生成部10aは、区分けした4ビットのビット列のそれぞれを、基準16進数数字に変換する(ステップSC4)。ステップSC4の処理対象が図8で例示した暗号化識別情報ビット列の場合、設定音生成部10aは、1ビット目〜4ビット目のビット列「1100」について基準16進数数字「0xc」に変換し、5ビット目〜8ビット目のビット列「1000」について基準16進数数字「0x8」に変換し、9ビット目〜12ビット目のビット列「1110」について基準16進数数字「0xe」に変換し、13ビット目〜16ビット目のビット列「0110」について基準16進数数字「0x6」に変換する。
以下、区分けされた4ビットのビット列のそれぞれを基準16進数数字に変換したものを、「変換後識別情報」という。変換後識別情報は、暗号化識別情報列を、16進数で表した情報に相当する。
Next, the set sound generation unit 10a converts each of the divided 4-bit bit strings into a reference hexadecimal digit (step SC4). When the processing target of step SC4 is the encrypted identification information bit string illustrated in FIG. 8, the setting sound generation unit 10a converts the bit strings “1100” of the first to fourth bits into the reference hexadecimal digit “0xc”. The bit string "1000" of the 5th to 8th bits is converted to the reference hexadecimal digit "0x8", and the bit string "1110" of the 9th to 12th bits is converted to the reference hexadecimal digit "0xe" to 13 bits. The bit string "0110" of the 16th bit is converted into the reference hexadecimal digit "0x6".
Hereinafter, each of the divided 4-bit bit strings converted into a reference hexadecimal number is referred to as "post-conversion identification information". The converted identification information corresponds to information in which the encrypted identification information string is represented by a hexadecimal number.

次いで、設定音生成部10aは、車載装置側対応音テーブル141aを参照し、変換後識別情報を構成する基準16進数数字のそれぞれを音名に変換する(ステップSC5)。ステップSC5において、設定音生成部10aは、変換後識別情報を構成する基準16進数数字のそれぞれについて、車載装置側対応音テーブル141aにおいて基準16進数数字と対応付けられた音名に変換する。ステップSC5の処理対象が図8で例示した変換後識別情報の場合、設定音生成部10aは、基準16進数数字「0xc」について音名「中A」に変換し、基準16進数数字「0x8」について音名「中D」に変換し、基準16進数数字「0xe」について音名「高C」に変換し、基準16進数数字「0x6」について音名「低B」に変換する。
以下、変換後識別情報のそれぞれの基準16進数数字を、音名に変換したものを、「音名識別情報」という。
Next, the setting sound generation unit 10a refers to the sound table 141a corresponding to the vehicle-mounted device side, and converts each of the reference hexadecimal numbers constituting the converted identification information into a sound name (step SC5). In step SC5, the setting sound generation unit 10a converts each of the reference hexadecimal numbers constituting the converted identification information into a sound name associated with the reference hexadecimal number in the in-vehicle device side corresponding sound table 141a. When the processing target of step SC5 is the converted identification information illustrated in FIG. 8, the setting sound generation unit 10a converts the reference hexadecimal digit “0xc” into the note name “medium A” and converts the reference hexadecimal digit “0xc” into the note name “medium A”, and the reference hexadecimal digit “0x8”. Is converted to the note name "middle D", the reference hexadecimal digit "0xe" is converted to the note name "high C", and the reference hexadecimal digit "0x6" is converted to the note name "low B".
Hereinafter, the conversion of each reference hexadecimal number of the converted identification information into a note name is referred to as "note name identification information".

次いで、設定音生成部10aは、ステップSC6〜ステップSC8の処理を実行する。ステップSC6〜ステップSC8の処理は、ステップSC3〜ステップSC5の処理に準じた処理であるため、簡潔に説明する。
ステップSC6において、設定音生成部10aは、暗号化暗証情報のビット列を、先頭から順番に4ビットずつに区分けする。
ステップSC7において、設定音生成部10aは、区分けした4ビットのビット列のそれぞれを、基準16進数数字に変換する。
ステップSC8において、設定音生成部10aは、車載装置側対応音テーブル141aを参照し、ステップSC7で変換された基準16進数数字のそれぞれを音名に変換する。
以下、ステップSC8において、基準16進数数字を、音名に変換したものを、「音名暗証情報」という。
Next, the setting sound generation unit 10a executes the processes of steps SC6 to SC8. Since the processes of steps SC6 to SC8 are the same as the processes of steps SC3 to SC5, they will be briefly described.
In step SC6, the setting sound generation unit 10a divides the bit string of the encrypted password information into 4 bits in order from the beginning.
In step SC7, the setting sound generation unit 10a converts each of the divided 4-bit bit strings into reference hexadecimal digits.
In step SC8, the setting sound generation unit 10a refers to the sound table 141a corresponding to the vehicle-mounted device side, and converts each of the reference hexadecimal numbers converted in step SC7 into a sound name.
Hereinafter, in step SC8, the reference hexadecimal number converted into a note name is referred to as "note name password information".

次いで、設定音生成部10aは、設定音開始情報と、音名識別情報と、区切情報と、音名暗証情報と、設定音終了情報とを組み合わせた設定音情報を生成する(ステップSC9)。
設定音開始情報は、音名のうち、基準16進数に割り振られていない1又は複数の音名からなる情報であって、区切情報、及び、設定音終了情報のいずれとも異なる音名の組み合わせ(便宜的に、1つの音名も「音名の組み合わせ」と表現する。)の情報である。
区切情報は、音名のうち、基準16進数に割り振られていない1又は複数の音名からなる情報であって、設定音開始情報、及び、設定音終了情報のいずれとも異なる音名の組み合わせの情報である。
設定音終了情報は、音名のうち、基準16進数に割り振られていない1又は複数の音名からなる情報であって、設定音開始情報、及び、区切情報のいずれとも異なる音名の組み合わせの情報である。
例えば、設定音開始情報は音名「高E」からなる情報であり、区切情報は音名「高F」からなる情報であり、設定音終了情報は音名「高G」からなる情報である。
設定音情報は、設定音開始情報→音名識別情報→区切情報→音名暗証情報→設定音終了情報の順番で、各情報が組み合わされる。
Next, the set sound generation unit 10a generates set sound information that combines the set sound start information, the sound name identification information, the delimiter information, the sound name password information, and the set sound end information (step SC9).
The set note start information is information consisting of one or more note names that are not assigned to the reference hexadecimal number among the note names, and is a combination of note names different from both the delimiter information and the set note end information ( For convenience, one note name is also expressed as "combination of note names").
The delimiter information is information consisting of one or more note names that are not assigned to the reference hexadecimal number among the note names, and is a combination of note names different from both the set note start information and the set note end information. Information.
The set note end information is information consisting of one or more note names that are not assigned to the reference hexadecimal number among the note names, and is a combination of note names different from both the set note start information and the delimiter information. Information.
For example, the set sound start information is information consisting of the note name "high E", the delimiter information is information consisting of the note name "high F", and the set sound end information is information consisting of the note name "high G". ..
The set sound information is combined in the order of set sound start information → note name identification information → delimiter information → sound name password information → set sound end information.

次いで、設定音生成部10aは、設定音情報を構成する音名の個数を取得する(ステップSC10)。設定音情報を構成する音名の個数は、設定音開始情報を構成する音名の個数と、音名識別情報を構成する音名の個数と、区切情報を構成する音名の個数と、音名暗証情報を構成する音名の個数と、設定音終了情報を構成する音名の個数との合計である。
次いで、設定音生成部10aは、ガイド音声時間長を取得する(ステップSC11)。ガイド音声時間長は、ガイド音声記憶部143が記憶するガイド音声ファイルに基づいてガイド音声(後述)を音声出力した場合に、音声出力を開始してから、音声出力が終了するまでに要する時間の長さから、予め定められたマージンを除いた時間の長さである。ガイド音声時間長は、事前に登録される。
Next, the set sound generation unit 10a acquires the number of sound names constituting the set sound information (step SC10). The number of note names that make up the set note information is the number of note names that make up the set note start information, the number of note names that make up the note name identification information, the number of note names that make up the delimiter information, and the sounds. It is the total of the number of note names that make up the name password information and the number of note names that make up the set note end information.
Next, the set sound generation unit 10a acquires the guide voice time length (step SC11). The guide voice time length is the time required from the start of voice output to the end of voice output when the guide voice (described later) is voice output based on the guide voice file stored in the guide voice storage unit 143. It is the length of time excluding a predetermined margin from the length. The guide voice time length is registered in advance.

次いで、設定音生成部10aは、ステップSC11で取得したガイド音声時間長を、ステップSC10で取得した設定音情報を構成する音名の個数で除算し、当該除算によって算出される値(以下、「単音時間長」という。)を取得する。(ステップSC12)。
次いで、設定音生成部10aは、ステップSC9で生成した設定音情報と、ステップSC12で取得した単音時間長とに基づいて、設定音音声ファイルを生成する(ステップSC13)。以下、ステップSC13の処理について詳述する。
Next, the set sound generation unit 10a divides the guide voice time length acquired in step SC11 by the number of note names constituting the set sound information acquired in step SC10, and the value calculated by the division (hereinafter, """Single note time length") is acquired. (Step SC12).
Next, the set sound generation unit 10a generates a set sound sound file based on the set sound information generated in step SC9 and the single sound time length acquired in step SC12 (step SC13). Hereinafter, the process of step SC13 will be described in detail.

設定音音声ファイルは、「設定音情報を構成する音名に対応する音のそれぞれが、単音時間長ずつ、順番に、連続する音声」(以下、「設定音」という。)の音声ファイルである。例えば、設定音情報が、音名「低C」、音名「低D」、音名「低E」の組み合わせにより構成される情報の場合、設定音は、以下の音声である。すなわち、設定音は、単音時間長の音名「低C」に対応する音、単音時間長の音名「低D」に対応する音、及び、単音時間長の音名「低E」に対応する音が、この順番で連続する音声である。
また、本実施形態では、設定音の音色は、ピアノ音である。設定音をピアノ音とすることにより、ガイド音声と設定音とが合成された合成音(後述)について、人間の声のバックグラウンドでピアノ音が流れた状態となり、合成音を聴取するユーザーが違和感を抱くことを抑制できる。なお、設定音の音色は、ピアノ音に限らず、ブザー音、チャイム音、シンセサイザーなどの電子音、または人間の音声等であってもよく、ユーザーが設定音をどの音色にするかについて設定可能な構成でもよい。
ここで、車載装置1には、音名の組み合わせからなる情報(設定音情報に相当。)、及び、各音名に対応する音の時間長を示す情報(単音時間長に相当。)に基づいて、各音名に対応する音が時間長ずつ順番に連続する音声の音声ファイルを生成して出力する機能を有するモジュールが実装される。ステップSC13において、設定音生成部10aは、当該モジュールの機能により、設定音音声ファイルを生成する。
ステップSC13の処理後、設定音生成部10aは、設定音生成処理を終了する。
The setting sound audio file is an audio file of "a continuous sound in which each sound corresponding to a sound name constituting the setting sound information has a single sound length in order" (hereinafter referred to as "setting sound"). .. For example, when the set sound information is information composed of a combination of the sound name "low C", the sound name "low D", and the sound name "low E", the set sound is the following sound. That is, the set sound corresponds to the sound corresponding to the note name "low C" having a single note time length, the sound corresponding to the note name "low D" having a single note time length, and the note name "low E" having a single note time length. The sound to be played is a continuous sound in this order.
Further, in the present embodiment, the tone color of the set sound is a piano sound. By using the set sound as the piano sound, the synthetic sound (described later) in which the guide sound and the set sound are combined becomes a state in which the piano sound is played in the background of the human voice, and the user who listens to the synthetic sound feels uncomfortable. Can be suppressed from holding. The sound of the set sound is not limited to the piano sound, but may be a buzzer sound, a chime sound, an electronic sound such as a synthesizer, or a human voice, and the user can set which sound the set sound should be. The configuration may be.
Here, the in-vehicle device 1 is based on information composed of a combination of note names (corresponding to set sound information) and information indicating the time length of the sound corresponding to each sound name (corresponding to a single sound time length). Therefore, a module having a function of generating and outputting an audio file of audio in which sounds corresponding to each note name are sequentially continuous for a long time is implemented. In step SC13, the setting sound generation unit 10a generates a setting sound audio file by the function of the module.
After the process of step SC13, the set sound generation unit 10a ends the set sound generation process.

図4のフローチャートFAに示すように、設定音生成部10aによる設定音生成処理が完了した後、車載装置制御部10は、合成音の音声出力を実行する(ステップSA3)。以下、ステップSA3の処理について詳述する。
合成音とは、ガイド音声と、設定音とが合成された音声である。ガイド音声とは、ペアリングに関する処理を実行中であることを報知する音声である。本実施形態では、ガイド音声は、「現在、ペアリングを実行しています。しばらくお待ちください。」という文言を、人間の声により出力する音声である。ガイド音声は、車載装置1、及び、携帯端末3がペアリングに関する処理を実行中であることをユーザーが認識可能な音声であればよい。ユーザーにガイド音声を聴取させることにより、車載装置1、及び、携帯端末3がペアリングに関する処理を実行中であることをユーザーに認識させることができる。これにより、例えば、ユーザーが、合成音の出力中に、携帯端末3において専用アプリケーションAPの起動を停止したり、車載装置1の電源を切ったりする等の、ペアリングの失敗の要因となるような操作を行うことを抑制できる。
As shown in the flowchart FA of FIG. 4, after the set sound generation process by the set sound generation unit 10a is completed, the vehicle-mounted device control unit 10 executes the voice output of the synthesized sound (step SA3). Hereinafter, the process of step SA3 will be described in detail.
The synthetic sound is a voice in which the guide voice and the set sound are combined. The guide voice is a voice that notifies that the processing related to pairing is being executed. In the present embodiment, the guide voice is a voice that outputs the phrase "currently performing pairing. Please wait." By a human voice. The guide voice may be a voice that allows the user to recognize that the in-vehicle device 1 and the mobile terminal 3 are executing the processing related to pairing. By having the user listen to the guide voice, it is possible to make the user recognize that the in-vehicle device 1 and the mobile terminal 3 are executing the processing related to pairing. As a result, for example, the user may stop the activation of the dedicated application AP on the mobile terminal 3 or turn off the power of the in-vehicle device 1 while the synthetic sound is being output, which may cause a pairing failure. It is possible to suppress various operations.

ステップSA3において、車載装置制御部10は、ガイド音声記憶部143が記憶するガイド音声ファイルに基づく音声信号と、設定音生成部10aが生成した設定音音声ファイルに基づく音声信号とを、並行して、音声出力部17に出力することにより、ガイド音声と設定音とが合成された合成音を音声出力する。
その際、車載装置制御部10は、ガイド音声に設定音が含まれた状態となるように、ガイド音声ファイルに基づく音声信号の出力を開始するタイミングに対する、設定音音声ファイルに基づく音声信号の出力を開始するタイミングを調整する。ガイド音に設定音が含まれた状態とは、ガイド音の音声出力が開始されるタイミングより後に設定音の音声出力が開始されるタイミングが到来し、かつ、設定音の音声出力が終了するタイミングより後にガイド音の音声出力が終了するタイミングが到来することを意味する。車載装置制御部10は、ガイド音声時間長と、設定音の時間長との関係を踏まえて、ガイド音声ファイルに基づく音声信号の出力を開始するタイミングに対する、設定音音声ファイルに基づく音声信号の出力を開始するタイミングを調整する。設定音の時間長とは、設定音音声ファイルに基づいて、設定音を音声出力した場合に、音声出力を開始してから、音声出力が終了するまでに要する時間の長さのことである。
なお、ガイド音声時間長が設定音の時間長と同じとなるように、設定音を構成する音名の単位時間長が設定されてもよい。この場合、ガイド音に設定音が含まれた状態においては、ガイド音の音声出力が開始されるタイミングで設定音の音声出力が開始されるタイミングが到来し、かつ、設定音の音声出力が終了するタイミングでガイド音の音声出力が終了するタイミングが到来する。
In step SA3, the in-vehicle device control unit 10 parallelly transmits a voice signal based on the guide voice file stored by the guide voice storage unit 143 and a voice signal based on the set sound voice file generated by the set sound generation unit 10a. By outputting to the voice output unit 17, a synthetic sound in which the guide sound and the set sound are combined is output as voice.
At that time, the in-vehicle device control unit 10 outputs the voice signal based on the set sound voice file with respect to the timing of starting the output of the voice signal based on the guide voice file so that the guide sound includes the set sound. Adjust the timing to start. The state in which the set sound is included in the guide sound means that the timing at which the audio output of the set sound is started comes after the timing at which the audio output of the guide sound is started, and the timing at which the audio output of the set sound ends. This means that the timing for ending the audio output of the guide sound will come later. The in-vehicle device control unit 10 outputs the audio signal based on the set sound audio file with respect to the timing when the output of the audio signal based on the guide audio file is started based on the relationship between the guide audio time length and the set sound time length. Adjust the timing to start. The time length of the set sound is the length of time required from the start of the audio output to the end of the audio output when the set sound is output as audio based on the set sound audio file.
The unit time length of the note names constituting the set sound may be set so that the guide voice time length is the same as the time length of the set sound. In this case, when the guide sound includes the set sound, the timing at which the audio output of the set sound is started comes at the timing when the audio output of the guide sound is started, and the audio output of the set sound ends. The timing for ending the audio output of the guide sound comes at the timing when the guide sound is output.

合成音の音声出力が終了した後、車載装置制御部10は、合成音の音声出力が「3回」行われたか否かを判別する(ステップSA4)。
合成音の音声出力が「3回」行われていない場合(ステップSA4:NO)、車載装置制御部10は、処理手順をステップSA3へ戻し、合成音の音声出力を実行する。
一方、合成音の音声出力が「3回」行われた場合(ステップSA4:YES)、車載装置制御部10は、処理手順をステップSA5へ移行する。
このように、本実施形態では、車載装置制御部10は、合成音の音声出力を連続して「3回」繰り返して実行する。また、各合成音は、1つのガイド音声に、1つの設定音が合成された音声である。
After the voice output of the synthetic sound is completed, the vehicle-mounted device control unit 10 determines whether or not the voice output of the synthetic sound has been performed "three times" (step SA4).
When the voice output of the synthetic sound is not performed "three times" (step SA4: NO), the in-vehicle device control unit 10 returns the processing procedure to step SA3 and executes the voice output of the synthetic sound.
On the other hand, when the voice output of the synthesized sound is performed "three times" (step SA4: YES), the in-vehicle device control unit 10 shifts the processing procedure to step SA5.
As described above, in the present embodiment, the in-vehicle device control unit 10 continuously and repeatedly executes the voice output of the synthesized sound "three times". Further, each synthetic sound is a voice in which one setting sound is combined with one guide voice.

ステップSA5において、車載装置制御部10は、車載装置無線通信部15を制御して、携帯端末3から検索信号を受信したか否かを監視する。検索信号については、後述する。 In step SA5, the vehicle-mounted device control unit 10 controls the vehicle-mounted device wireless communication unit 15 to monitor whether or not a search signal has been received from the mobile terminal 3. The search signal will be described later.

図4のフローチャートFBに示すように、ステップSB2で携帯端末3の周囲の音の録音を開始した後、携帯端末制御部30のガイド音声検出部301は、以下の処理を実行する(ステップSB3)。すなわち、ガイド音声検出部301は、随時、携帯端末記憶部33に累積的に記憶される録音データを分析し、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったか否かを監視する。例えば、ガイド音声検出部301は、以下の方法でステップSB3の処理を実行する。すなわち、専用アプリケーションAPには、ガイド音声の音声波形の特徴点を示す情報が登録される。携帯端末制御部30は、録音データに記録される音声の音声波形を分析し、ガイド音声の音声波形の特徴点とのパターンマッチングにより、録音データに記録される音声にガイド音声が含まれるか否かを、随時、監視する。そして、携帯端末制御部30は、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったことを検出した場合、ステップSB3において、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったと判別する。なお、録音データに記録される音声に、ガイド音声が含まれるか否かを判別する方法は、上記で例示した方法に限らず、既存の技術を用いたどのような方法であってもよい。 As shown in the flowchart FB of FIG. 4, after starting the recording of the sound around the mobile terminal 3 in step SB2, the guide voice detection unit 301 of the mobile terminal control unit 30 executes the following processing (step SB3). .. That is, the guide voice detection unit 301 analyzes the recorded data cumulatively stored in the mobile terminal storage unit 33 at any time, and the voice recorded in the recorded data includes the guide voice for "three times". Monitor whether or not it has become. For example, the guide voice detection unit 301 executes the process of step SB3 by the following method. That is, information indicating the feature points of the voice waveform of the guide voice is registered in the dedicated application AP. The mobile terminal control unit 30 analyzes the voice waveform of the voice recorded in the recorded data, and by pattern matching with the feature points of the voice waveform of the guide voice, whether or not the voice recorded in the recorded data includes the guide voice. Monitor it from time to time. Then, when the mobile terminal control unit 30 detects that the voice recorded in the recorded data includes the guide voice for "three times", the voice recorded in the recorded data in step SB3. It is determined that the guide voice for "3 times" is included in. The method for determining whether or not the voice recorded in the recorded data includes the guide voice is not limited to the method illustrated above, and may be any method using existing technology.

ステップSB3において、録音データに記録される音声に「3回」分のガイド音声が含まれた状態とならなかったと判別した場合(ステップSB3:NO)、ガイド音声検出部301は、処理手順をステップSB3に戻し、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったか否か判別する。
ステップSB3において、録音データに記録される音声に「3回」分のガイド音声が含まれた状態となったと判別した場合(ステップSB3:YES)、ガイド音声検出部301は、録音データから、「3回」分のガイド音声に対応するデータ(以下、「合成音データ」という。)を抽出する(ステップSB4)。合成音データは、車載装置1が連続して「3回」音声出力する合成音(ガイド音声と設定音とが合成された音声。)を含む音声が録音されて生成される音声データである。合成音データに記録された音声には、合成音のほか、環境音が含まれる可能性がある。
次いで、ガイド音声検出部301は、抽出した合成音データを、1回目のガイド音声に対応するデータ(以下、「第1合成音データ」という。)と、2回目のガイド音声に対応するデータ(以下、「第2合成音データ」という。)と、3回目のガイド音声に対応するデータ(以下、「第3合成音データ」という。)との3つのデータに分割し、それぞれのデータを、音源分離部302に出力する(ステップSB5)。
When it is determined in step SB3 that the voice recorded in the recorded data does not include the guide voice for "three times" (step SB3: NO), the guide voice detection unit 301 steps the processing procedure. Returning to SB3, it is determined whether or not the voice recorded in the recorded data includes the guide voice for "three times".
In step SB3, when it is determined that the voice recorded in the recorded data includes the guide voice for "three times" (step SB3: YES), the guide voice detection unit 301 determines from the recorded data that the guide voice is "3 times". Data corresponding to the guide voice for "three times" (hereinafter, referred to as "synthetic sound data") is extracted (step SB4). The synthetic sound data is voice data generated by recording a voice including a synthetic sound (a voice in which a guide sound and a set sound are combined) that the vehicle-mounted device 1 continuously outputs the voice "three times". The voice recorded in the synthetic sound data may include environmental sounds in addition to the synthetic sounds.
Next, the guide voice detection unit 301 uses the extracted synthetic sound data as data corresponding to the first guide voice (hereinafter referred to as “first synthetic sound data”) and data corresponding to the second guide voice (hereinafter referred to as “first synthetic sound data”). Hereinafter, it is divided into three data, that is, "second synthetic sound data") and data corresponding to the third guide voice (hereinafter, referred to as "third synthetic sound data"), and each data is divided into three data. Output to the sound source separation unit 302 (step SB5).

ここで、第1合成音データ、第2合成音データ、及び、第3合成音データは、それぞれ、1つの設定音情報に対応する音声が記録された音声データである。上述したように、車載装置1は、ペアリングに際し、ガイド音声と、設定音とを合成した合成音を、「3回」、音声出力する。そして、ガイド音声と設定音とは、1対1の関係にあり、1つのガイド音声に、1つの設定音が含まれた状態である。設定音抽出部303は、ガイド音声と設定音とが1対1の関係にあり、ガイド音声に設定音が含まれた状態であることを好適に活用して、第1合成音データ、第2合成音データ、及び、第3合成音データについて、1つの設定音情報に対応する音声が記録された状態で分割することができる。これにより、第1合成音データ、第2合成音データ、及び、第3合成音データを用いた以下の処理を、これらデータのそれぞれに、1つの設定音情報に対応する音声が記録されていることが担保された状態で、的確に行うことができる。 Here, the first synthetic sound data, the second synthetic sound data, and the third synthetic sound data are each voice data in which the voice corresponding to one set sound information is recorded. As described above, at the time of pairing, the in-vehicle device 1 outputs a synthetic sound obtained by synthesizing the guide sound and the set sound "three times". The guide voice and the set sound have a one-to-one relationship, and one guide sound includes one set sound. The setting sound extraction unit 303 preferably utilizes the fact that the guide sound and the set sound have a one-to-one relationship and the guide sound includes the set sound, and the first synthetic sound data and the second The synthetic sound data and the third synthetic sound data can be divided in a state in which the sound corresponding to one set sound information is recorded. As a result, the following processing using the first synthetic sound data, the second synthetic sound data, and the third synthetic sound data is performed, and the voice corresponding to one set sound information is recorded in each of these data. It can be done accurately while the fact is guaranteed.

次いで、携帯端末制御部30の音源分離部302は、以下の処理を実行する(ステップSB6)。すなわち、ステップSB6において、音源分離部302は、第1合成音データに基づいて、第1合成音データに記録された音声からガイド音声の音成分を抽出することによって、ガイド音声の音成分と、ガイド音声を除いた音声(以下、「第1分離音」という。)の音成分とに分離する。次いで、音源分離部302は、分離した第1分離音の音成分に基づいて、第1分離音が記録された音声データ(以下、「第1分離音音声データ」という。)を生成する。音源分離部302は、例えば、ブラインド音源分離処理を用いて、第1合成音データに記録された音声からガイド音声の音成分を抽出する。
同様にステップSB6において、音源分離部302は、第2合成音データに記録された音声を、ガイド音声の音成分と、ガイド音声を除いた音声(以下、「第2分離音」という。)の音成分とに分離する。次いで、音源分離部302は、分離した第2分離音の音成分に基づいて、第2分離音が記録された音声データ(以下、「第2分離音音声データ」という。)を生成する。
また同様にステップSB6において、音源分離部302は、第3合成音データに記録された音声を、ガイド音声の音成分と、ガイド音声を除いた音声(以下、「第3分離音」という。)の音成分とに分離する。次いで、音源分離部302は、分離した第3分離音の音成分に基づいて、第3分離音が記録された音声データ(以下、「第3分離音音声データ」という。)を生成する。
第1分離音、第2分離音、及び、第3分離音は、それぞれ、設定音を含む音声である。以下、第1分離音、第2分離音、及び、第3分離音を区別しない場合「分離音」と表現する。
ステップSB6において、音源分離部302は、第1分離音音声データ、第2分離音音声データ、及び、第3分離音音声データのそれぞれを、設定音抽出部303に出力する。
Next, the sound source separation unit 302 of the mobile terminal control unit 30 executes the following processing (step SB6). That is, in step SB6, the sound source separation unit 302 extracts the sound component of the guide voice from the voice recorded in the first synthetic sound data based on the first synthetic sound data, thereby and the sound component of the guide voice. It is separated into the sound components of the sound excluding the guide sound (hereinafter referred to as "first separated sound"). Next, the sound source separation unit 302 generates audio data in which the first separated sound is recorded (hereinafter, referred to as “first separated sound audio data”) based on the sound component of the separated first separated sound. The sound source separation unit 302 extracts the sound component of the guide voice from the voice recorded in the first synthetic sound data by using, for example, a blind sound source separation process.
Similarly, in step SB6, the sound source separation unit 302 uses the sound recorded in the second synthetic sound data as the sound component of the guide sound and the sound excluding the guide sound (hereinafter, referred to as “second separated sound”). Separate into sound components. Next, the sound source separation unit 302 generates audio data in which the second separated sound is recorded (hereinafter, referred to as “second separated sound audio data”) based on the sound component of the separated second separated sound.
Similarly, in step SB6, the sound source separation unit 302 uses the sound recorded in the third synthetic sound data as the sound component of the guide sound and the sound excluding the guide sound (hereinafter, referred to as “third separated sound”). Separate into the sound components of. Next, the sound source separation unit 302 generates audio data in which the third separated sound is recorded (hereinafter, referred to as “third separated sound audio data”) based on the sound component of the separated third separated sound.
The first separated sound, the second separated sound, and the third separated sound are sounds including the set sound, respectively. Hereinafter, when the first separated sound, the second separated sound, and the third separated sound are not distinguished, they are expressed as "separated sound".
In step SB6, the sound source separation unit 302 outputs each of the first separated sound voice data, the second separated sound voice data, and the third separated sound voice data to the set sound extraction unit 303.

次いで、携帯端末制御部30の設定音抽出部303は、以下の処理を実行する(ステップSB7)。すなわち、ステップSB7において、設定音抽出部303は、第1分離音音声データに記録された音声から、設定音(以下、「第1設定音」という。)の音成分を分離する。次いで、設定音抽出部303は、分離した第1設定音の音成分に基づいて、第1設定音が記録された音声データ(以下、「第1設定音音声データ」という。)を生成する。設定音抽出部303は、例えば、櫛側フィルタを用いたフィルタリング処理により、第1分離音音声データに記録された音声から、第1設定音の音成分を分離する。
同様にステップSB7において、設定音抽出部303は、第2分離音音声データに記録された音声から、設定音(以下、「第2設定音」という。)の音成分を分離する。次いで、設定音抽出部303は、分離した第2設定音の音成分に基づいて、第2設定音が記録された音声データ(以下、「第2設定音音声データ」という。)を生成する。
また同様にステップSB7において、設定音抽出部303は、第3分離音音声データに記録された音声から、設定音(以下、「第3設定音」という。)の音成分を分離する。次いで、設定音抽出部303は、分離した第3設定音の音成分に基づいて、第3設定音が記録された音声データ(以下、「第3設定音音声データ」という。)を生成する。
ステップSB7において、設定音抽出部303は、第1設定音音声データ、第2設定音音声データ、及び、第3設定音音声データのそれぞれを、テキスト変換部304に出力する。
Next, the setting sound extraction unit 303 of the mobile terminal control unit 30 executes the following processing (step SB7). That is, in step SB7, the set sound extraction unit 303 separates the sound component of the set sound (hereinafter, referred to as “first set sound”) from the sound recorded in the first separated sound sound data. Next, the set sound extraction unit 303 generates voice data in which the first set sound is recorded (hereinafter, referred to as “first set sound voice data”) based on the separated sound components of the first set sound. The set sound extraction unit 303 separates the sound component of the first set sound from the sound recorded in the first separated sound sound data by, for example, a filtering process using a comb-side filter.
Similarly, in step SB7, the set sound extraction unit 303 separates the sound component of the set sound (hereinafter, referred to as “second set sound”) from the sound recorded in the second separated sound sound data. Next, the set sound extraction unit 303 generates voice data in which the second set sound is recorded (hereinafter, referred to as “second set sound voice data”) based on the separated sound components of the second set sound.
Similarly, in step SB7, the set sound extraction unit 303 separates the sound component of the set sound (hereinafter, referred to as “third set sound”) from the sound recorded in the third separated sound sound data. Next, the set sound extraction unit 303 generates voice data in which the third set sound is recorded (hereinafter, referred to as “third set sound voice data”) based on the separated sound components of the third set sound.
In step SB7, the set sound extraction unit 303 outputs each of the first set sound voice data, the second set sound voice data, and the third set sound voice data to the text conversion unit 304.

次いで、携帯端末制御部30のテキスト変換部304は、テキスト変換処理を実行する(ステップSB8)。以下、ステップSB8のテキスト変換処理について、詳述する。 Next, the text conversion unit 304 of the mobile terminal control unit 30 executes the text conversion process (step SB8). Hereinafter, the text conversion process in step SB8 will be described in detail.

図9のフローチャートFDは、テキスト変換処理の詳細を示すフローチャートである。
ここで、上述した設定音情報に含まれる設定音開始情報、区切情報、及び、設定音終了情報について、設定音開始情報を構成する音名、区切情報を構成する音名、及び、設定音終了情報を構成する音名が、専用アプリケーションAPに登録されている。また、設定音開始情報が音声出力された場合における、当該情報の音成分の音声波形の特徴点を示す情報が、専用アプリケーションAPに登録されている。同様に、区切情報の音成分の音声波形の特徴点を示す情報、及び、設定音終了情報の音成分の音声波形の特徴点を示す情報が、専用アプリケーションAPに登録されている。
The flowchart FD of FIG. 9 is a flowchart showing the details of the text conversion process.
Here, regarding the set sound start information, the delimiter information, and the set sound end information included in the above-mentioned set sound information, the sound name constituting the set sound start information, the sound name constituting the delimiter information, and the set sound end The note names that make up the information are registered in the dedicated application AP. Further, when the set sound start information is output as voice, information indicating the feature points of the voice waveform of the sound component of the information is registered in the dedicated application AP. Similarly, information indicating the characteristic points of the audio waveform of the sound component of the delimiter information and information indicating the characteristic points of the audio waveform of the sound component of the set sound end information are registered in the dedicated application AP.

図9のフローチャートFDに示すように、テキスト変換部304は、単音時間長を算出する(ステップSD1)。例えば、テキスト変換部304は、以下の方法で単音時間長を算出する。すなわち、テキスト変換部304は、専用アプリケーションAPに登録された設定音開始情報の音成分の音声波形の特徴点に基づいて、第1設定音音声データに記録された音声の音成分のうち、設定音開始情報に対応する音声の音成分を特定する。次いで、テキスト変換部304は、設定音開始情報の音成分に対応する音声の時間長を取得する。次いで、テキスト変換部304は、設定音開始情報の音成分に対応する音声の時間長を、設定音開始情報を構成する音名の個数によって除算することによって、単音時間長を算出する。なお、単音時間長の算出方法は、例示した方法に限らない。例えば、設定音情報に、単音時間長を含める構成でもよい。 As shown in the flowchart FD of FIG. 9, the text conversion unit 304 calculates the single note time length (step SD1). For example, the text conversion unit 304 calculates the single note time length by the following method. That is, the text conversion unit 304 sets the sound components of the voice recorded in the first set sound voice data based on the feature points of the voice waveform of the sound component of the set sound start information registered in the dedicated application AP. Identify the sound component of the voice corresponding to the sound start information. Next, the text conversion unit 304 acquires the time length of the voice corresponding to the sound component of the set sound start information. Next, the text conversion unit 304 calculates the single note time length by dividing the time length of the voice corresponding to the sound component of the set sound start information by the number of note names constituting the set sound start information. The method for calculating the single note time length is not limited to the illustrated method. For example, the set sound information may include a single note time length.

次いで、テキスト変換部304は、第1設定音音声データを取得する(ステップSD2)。
次いで、テキスト変換部304は、第1設定音音声データを分析し、第1設定音音声データに記録された音声の音成分のうち、音名識別情報に対応する音声の音成分を特定する(ステップSD3)。上述したように、設定音情報において、音名識別情報は、設定音開始情報と、区切情報との間に位置する。これを踏まえ、ステップSD3において、テキスト変換部304は、設定音開始情報の音声に対応する音成分と、区切情報の音声に対応する音成分との間の領域に含まれる音成分を、音名識別情報に対応する音声の音成分として特定する。
Next, the text conversion unit 304 acquires the first set sound / voice data (step SD2).
Next, the text conversion unit 304 analyzes the first set sound voice data and identifies the sound component of the voice corresponding to the sound name identification information among the sound components of the voice recorded in the first set sound voice data ( Step SD3). As described above, in the set sound information, the note name identification information is located between the set sound start information and the delimiter information. Based on this, in step SD3, the text conversion unit 304 sets the sound component included in the region between the sound component corresponding to the voice of the set sound start information and the sound component corresponding to the voice of the delimiter information as a sound name. It is specified as a sound component of voice corresponding to the identification information.

次いで、テキスト変換部304は、第1設定音音声データのうち、音名識別情報に係る音成分のデータ(以下、「第1音名識別情報音声データ」という。)を分析し、音名識別情報を生成する(ステップSD4)。以下、第1音名識別情報音声データに基づいて生成される音名識別情報を、「第1音名識別情報」という。 Next, the text conversion unit 304 analyzes the sound component data related to the sound name identification information (hereinafter, referred to as "first sound name identification information voice data") among the first set sound voice data, and identifies the sound name. Generate information (step SD4). Hereinafter, the note name identification information generated based on the first note name identification information voice data is referred to as "first note name identification information".

図10は、ステップSD4の処理の説明に用いる図である。図10は、音名識別情報が、音名「低C」、音名「低C」、音名「低D」、及び、音名「低E」からなる場合において、第1音名識別情報音声データに基づいて音声を出力したときの時間の経過と、周波数の推移との関係を、説明に適した態様で模式的に示している。
ここで、音名のそれぞれについて、音名に対応する音の周波数を示す情報が、専用アプリケーションAPに事前に登録されている。
ステップSD4において、テキスト変換部304は、第1音名識別情報音声データを分析し、第1音名識別情報音声データに基づいて音声を出力した場合において、当該データに基づく音声の開始タイミングからステップSD1で取得した単音時間長の「1/2」分ずらしたタイミング(図10の例では、タイミングT1。)を起点として、単音時間長を周期とするタイミング(図10の例では、タイミングT2、T3、T4。)における音声の周波数を取得する。図10の例では、テキスト変換部304は、第1音名識別情報音声データを分析し、タイミングT1〜T4のそれぞれのタイミングにおいて、第1音名識別情報音声データに基づいて出力される音声の周波数を取得する。
次いで、テキスト変換部304は、取得した各タイミングにおける音声の周波数に基づいて、各タイミングで出力される音声の音名を特定する。次いで、テキスト変換部304は、特定した音名を、音声出力の順番で組み合わせることによって、第1音名識別情報を生成する。
FIG. 10 is a diagram used for explaining the process of step SD4. FIG. 10 shows the first note name identification information when the note name identification information consists of the note name “low C”, the note name “low C”, the note name “low D”, and the note name “low E”. The relationship between the passage of time when the voice is output based on the voice data and the transition of the frequency is schematically shown in a mode suitable for explanation.
Here, for each of the note names, information indicating the frequency of the sound corresponding to the note name is registered in advance in the dedicated application AP.
In step SD4, when the text conversion unit 304 analyzes the first sound name identification information voice data and outputs the voice based on the first sound name identification information voice data, the step starts from the start timing of the voice based on the data. Starting from the timing (timing T1 in the example of FIG. 10) shifted by "1/2" of the single note time length acquired in SD1, the timing with the single note time length as the cycle (timing T2 in the example of FIG. 10). The frequency of the voice in T3, T4.) Is acquired. In the example of FIG. 10, the text conversion unit 304 analyzes the first note name identification information voice data, and at each of the timings T1 to T4, the voice that is output based on the first note name identification information voice data. Get the frequency.
Next, the text conversion unit 304 identifies the note name of the voice output at each timing based on the frequency of the voice at each acquired timing. Next, the text conversion unit 304 generates the first note name identification information by combining the specified note names in the order of voice output.

次いで、テキスト変換部304は、携帯端末記憶部33の携帯端末側対応音情報記憶部331が記憶する携帯端末側対応音テーブル331aを参照し、ステップSD4で生成した第1音名識別情報を、変換後識別情報に変換する(ステップSD5)。以下、第1音名識別情報を変換して生成される変換後識別情報を、「第1変換後識別情報」という。
ステップSD5において、テキスト変換部304は、携帯端末側対応音テーブル331aに基づいて、第1音名識別情報を構成する音名のそれぞれを、基準16進数数字に変換することにより、第1音名識別情報を第1変換後識別情報に変換する。
Next, the text conversion unit 304 refers to the mobile terminal side compatible sound table 331a stored in the mobile terminal side compatible sound information storage unit 331 of the mobile terminal storage unit 33, and obtains the first sound name identification information generated in step SD4. After conversion, it is converted into identification information (step SD5). Hereinafter, the converted identification information generated by converting the first note name identification information is referred to as "first converted identification information".
In step SD5, the text conversion unit 304 converts each of the note names constituting the first note name identification information into a reference hexadecimal number based on the mobile terminal side compatible sound table 331a, thereby converting the first note name. The identification information is converted into the identification information after the first conversion.

次いで、テキスト変換部304は、基準16進数数字の組み合わせからなる第1変換後識別情報をビット列に変換することによって、暗号化識別情報ビット列を生成する(ステップSD6)。以下、第1変換後識別情報に基づいて生成される暗号化識別情報を、「第1暗号化識別情報」という。上述したように、暗号化識別情報ビット列は、車載装置識別情報を、車載装置1に登録された暗号化鍵で暗号化した情報である。 Next, the text conversion unit 304 generates an encrypted identification information bit string by converting the first converted identification information composed of a combination of reference hexadecimal numbers into a bit string (step SD6). Hereinafter, the encrypted identification information generated based on the first converted identification information is referred to as "first encrypted identification information". As described above, the encryption identification information bit string is information obtained by encrypting the in-vehicle device identification information with the encryption key registered in the in-vehicle device 1.

次いで、テキスト変換部304は、ステップSD6で生成した第1暗号化識別情報ビット列を、復号化鍵により復号することによって、識別情報ビット列を生成する(ステップSD7)。以下、第1暗号化識別情報ビット列を復号化鍵により復号することによって生成される識別情報ビット列を、「第1識別情報ビット列」という。 Next, the text conversion unit 304 generates the identification information bit string by decrypting the first encryption identification information bit string generated in step SD6 with the decryption key (step SD7). Hereinafter, the identification information bit string generated by decrypting the first encryption identification information bit string with the decryption key is referred to as a "first identification information bit string".

ここで、復号化鍵は、専用アプリケーションAPに登録される。そして、専用アプリケーションAPへの復号化鍵の登録は、所定のサーバーにより行われる。専用アプリケーションAPへの復号化鍵の登録に際し、当該所定のサーバーは、ユーザーの認証を適切に行い、車載装置1の購入者等の正当な権限を有する者からアクセスがあった場合にのみ、車載装置1に登録された暗号化鍵に対応する復号化鍵を専用アプリケーションAPに登録する。例えば、当該所定のサーバーは、専用アプリケーションAPへの復号化鍵の登録に際し、車載装置1の車載装置識別情報と、正当な権限を有する者のみが取得可能なパスワードとを要求し、車載装置識別情報とパスワードとを利用した認証を行い、認証に成功した場合にのみ、専用アプリケーションAPに復号化鍵を登録する。
このように、携帯端末3の所有者が正当な権限を有する者である場合にのみ、車載装置1に登録された暗号化鍵に対応する復号化鍵が専用アプリケーションAPに登録された状態である。このため、ステップSD7における復号化鍵を用いた複合は、携帯端末3の所有者が正当な権限を有する者の場合にのみ、正常に実行することが可能である。
Here, the decryption key is registered in the dedicated application AP. Then, the registration of the decryption key in the dedicated application AP is performed by a predetermined server. When registering the decryption key in the dedicated application AP, the predetermined server properly authenticates the user and is in-vehicle only when accessed by a person with legitimate authority such as the purchaser of the in-vehicle device 1. The decryption key corresponding to the encryption key registered in the device 1 is registered in the dedicated application AP. For example, when registering the decryption key in the dedicated application AP, the predetermined server requests the in-vehicle device identification information of the in-vehicle device 1 and a password that can be obtained only by a person having a legitimate authority to identify the in-vehicle device. Authentication is performed using the information and password, and the decryption key is registered in the dedicated application AP only when the authentication is successful.
In this way, the decryption key corresponding to the encryption key registered in the in-vehicle device 1 is registered in the dedicated application AP only when the owner of the mobile terminal 3 has a legitimate authority. .. Therefore, the compounding using the decryption key in step SD7 can be normally executed only when the owner of the mobile terminal 3 has a legitimate authority.

次いで、テキスト変換部304は、ステップSD7で生成した第1識別情報ビット列を、ASCIIコードの文字の組み合わせからなる文字列に変換することによって、車載装置識別情報を生成する(ステップSD8)。以下、第1識別情報ビット列に基づいて生成される車載装置識別情報を、「第1車載装置識別情報」という。 Next, the text conversion unit 304 generates in-vehicle device identification information by converting the first identification information bit string generated in step SD7 into a character string composed of a combination of characters of the ASCII code (step SD8). Hereinafter, the in-vehicle device identification information generated based on the first identification information bit string is referred to as "first in-vehicle device identification information".

次いで、テキスト変換部304は、ステップSD2で取得した第1設定音音声データに基づいて、暗証情報を生成する(ステップSD9)。以下、第1設定音音声データに基づいて生成される暗証情報を、「第1暗証情報」という。第1設定音音声データに基づいて第1暗証情報を生成する処理の方法は、第1設定音音声データに基づいて第1車載装置識別情報を生成する処理(ステップSD3〜ステップSD8の処理。)の方法と同様であるため、説明を省略する。 Next, the text conversion unit 304 generates password information based on the first set sound voice data acquired in step SD2 (step SD9). Hereinafter, the password information generated based on the first set sound voice data is referred to as "first password information". The method of the process of generating the first password information based on the first set sound voice data is the process of generating the first in-vehicle device identification information based on the first set sound voice data (processes of steps SD3 to SD8). Since it is the same as the method of (1), the description thereof will be omitted.

次いで、テキスト変換部304は、第2設定音音声データを取得し、取得した第2設定音音声データに基づいて、車載装置識別情報と、暗証情報とを生成する(ステップSD10)。以下、第2設定音音声データに基づいて生成される車載装置識別情報を、「第2車載装置識別情報」といい、第2設定音音声データに基づいて生成される暗証情報を、「第2暗証情報」という。
第2設定音音声データに基づいて第2車載装置識別情報、及び、第2暗証情報を生成する処理の方法は、第1設定音音声データに基づいて第1車載装置識別情報、及び、第1暗証情報を生成する処理(ステップSD3〜ステップSD9の処理。)の方法と同様であるため、説明を省略する。
Next, the text conversion unit 304 acquires the second set sound voice data, and generates the vehicle-mounted device identification information and the password information based on the acquired second set sound voice data (step SD10). Hereinafter, the in-vehicle device identification information generated based on the second set sound voice data is referred to as "second in-vehicle device identification information", and the password information generated based on the second set sound voice data is referred to as "second It is called "password information".
The processing method for generating the second in-vehicle device identification information and the second password information based on the second set sound voice data is the first in-vehicle device identification information and the first in-vehicle device identification information based on the first set sound voice data. Since it is the same as the method of the process of generating the password information (the process of steps SD3 to SD9), the description thereof will be omitted.

次いで、テキスト変換部304は、第3設定音音声データを取得し、取得した第3設定音音声データに基づいて、車載装置識別情報と、暗証情報とを生成する(ステップSD11)。以下、第3設定音音声データに基づいて生成される車載装置識別情報を、「第3車載装置識別情報」といい、第3設定音音声データに基づいて生成される暗証情報を、「第3暗証情報」という。
第3設定音音声データに基づいて第3車載装置識別情報、及び、第3暗証情報を生成する処理の方法は、第1設定音音声データに基づいて第1車載装置識別情報、及び、第1暗証情報を生成する処理(ステップSD3〜ステップSD9の処理。)の方法と同様であるため、説明を省略する。
Next, the text conversion unit 304 acquires the third set sound voice data, and generates the vehicle-mounted device identification information and the password information based on the acquired third set sound voice data (step SD11). Hereinafter, the in-vehicle device identification information generated based on the third set sound voice data is referred to as "third in-vehicle device identification information", and the password information generated based on the third set sound voice data is referred to as "third It is called "password information".
The processing method for generating the third in-vehicle device identification information and the third password information based on the third set sound voice data is the first in-vehicle device identification information and the first in-vehicle device identification information based on the first set sound voice data. Since it is the same as the method of the process of generating the password information (the process of steps SD3 to SD9), the description thereof will be omitted.

次いで、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報に基づいて、車載装置識別情報検証処理を実行する(ステップSD12)。
ステップSD12の車載装置識別情報検証処理において、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報のそれぞれの値が相互に一致する場合、これら情報の値を、車載装置識別情報の値として特定する。これら情報の値が一致する場合、これら情報の値が、実際の車載装置識別情報であると高い確度でいうことができるからである。
Next, the text conversion unit 304 executes the vehicle-mounted device identification information verification process based on the first vehicle-mounted device identification information, the second vehicle-mounted device identification information, and the third vehicle-mounted device identification information (step SD12).
In the in-vehicle device identification information verification process of step SD12, when the values of the first in-vehicle device identification information, the second in-vehicle device identification information, and the third in-vehicle device identification information match each other, the text conversion unit 304 matches. The value of this information is specified as the value of the vehicle-mounted device identification information. This is because when the values of these information match, it can be said with high accuracy that the values of these information are the actual in-vehicle device identification information.

一方、ステップSD12の車載装置識別情報検証処理において、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報のそれぞれの値が相互に一致しない場合、車載装置識別情報の値を特定せず、対応する処理を実行する。対応する処理は、例えば、携帯端末タッチパネル31に、車載装置識別情報の取得が成功しなかった旨の情報を表示する処理である。これにより、ユーザーに、車載装置1を操作させて、再度、車載装置1から合成音を音声出力させることを促すことができる。
ここで、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報は、それぞれ、車載装置1が音声出力する合成音に基づいて生成されるものである。従って、環境音の混入や、ノイズの影響、その他の要因により、これら情報の値が、実際の車載装置識別情報の値と異なる場合が生じ得る。ステップSD12の車載装置識別情報検証処理は、このような場合を踏まえて実行される。
なお、車載装置識別情報検証処理において、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報のうち、2つの情報の値が一致する場合は、当該2つの情報の値を車載装置識別情報の値として特定する構成でもよい。また、車載装置識別情報検証処理において、テキスト変換部304は、第1車載装置識別情報、第2車載装置識別情報、及び、第3車載装置識別情報を用いて、所定の誤り訂正を行い、当該所定の誤り訂正を反映した値を、車載装置識別情報の値として特定する構成でもよい。これらのことは、後述するステップSD13の暗証情報検証処理についても同様である。
On the other hand, in the in-vehicle device identification information verification process of step SD12, the text conversion unit 304 does not match the values of the first in-vehicle device identification information, the second in-vehicle device identification information, and the third in-vehicle device identification information. In this case, the corresponding process is executed without specifying the value of the in-vehicle device identification information. The corresponding process is, for example, a process of displaying information indicating that the acquisition of the in-vehicle device identification information was not successful on the mobile terminal touch panel 31. As a result, it is possible to encourage the user to operate the in-vehicle device 1 and to output the synthesized sound from the in-vehicle device 1 again.
Here, the first vehicle-mounted device identification information, the second vehicle-mounted device identification information, and the third vehicle-mounted device identification information are each generated based on the synthetic sound output by the vehicle-mounted device 1. Therefore, the value of this information may differ from the value of the actual in-vehicle device identification information due to the mixing of environmental sounds, the influence of noise, and other factors. The vehicle-mounted device identification information verification process in step SD12 is executed based on such a case.
In the in-vehicle device identification information verification process, when the text conversion unit 304 matches the values of two of the first in-vehicle device identification information, the second in-vehicle device identification information, and the third in-vehicle device identification information. May be configured to specify the values of the two pieces of information as the values of the in-vehicle device identification information. Further, in the in-vehicle device identification information verification process, the text conversion unit 304 corrects a predetermined error by using the first in-vehicle device identification information, the second in-vehicle device identification information, and the third in-vehicle device identification information. A value that reflects a predetermined error correction may be specified as a value of the in-vehicle device identification information. The same applies to the password information verification process in step SD13, which will be described later.

次いで、テキスト変換部304は、第1暗証情報、第2暗証情報、及び、第3暗証情報に基づいて、暗証情報検証処理を実行する(ステップSD13)。
ステップSD13の暗証情報検証処理において、テキスト変換部304は、第1暗証情報、第2暗証情報、及び、第3暗証情報のそれぞれの値が相互に一致する場合、これら情報の値を、暗証情報として特定する。一方、ステップSD13の暗証情報検証処理において、テキスト変換部304は、第1暗証情報、第2暗証情報、及び、第3暗証情報のそれぞれの値が相互に一致しない場合、暗証情報の値を特定せず、対応する処理を実行する。対応する処理は、例えば、車載装置識別情報検証処理で例示した処理である。暗証情報検証処理は、車載装置識別情報検証処理と同様のことを目的として実行される。
Next, the text conversion unit 304 executes the password information verification process based on the first password information, the second password information, and the third password information (step SD13).
In the password information verification process of step SD13, when the values of the first password information, the second password information, and the third password information match each other, the text conversion unit 304 sets the values of these information as the password information. Identify as. On the other hand, in the password information verification process of step SD13, the text conversion unit 304 specifies the value of the password information when the values of the first password information, the second password information, and the third password information do not match each other. Do not execute the corresponding process. The corresponding process is, for example, the process exemplified in the in-vehicle device identification information verification process. The password information verification process is executed for the same purpose as the in-vehicle device identification information verification process.

ステップSD13の処理後、テキスト変換部304は、テキスト変換処理を終了する。
以下の説明では、ステップSD12で車載装置識別情報が特定されると共に、ステップSD13で暗証情報が特定されたものとする。
After the process of step SD13, the text conversion unit 304 ends the text conversion process.
In the following description, it is assumed that the vehicle-mounted device identification information is specified in step SD12 and the password information is specified in step SD13.

図4のフローチャートFBに示すように、ステップSB8におけるテキスト変換部304によるテキスト変換処理が完了した後、携帯端末制御部30は、Bluetoothの規格に従って、無線通信でアクセス可能なマスターを検索し、アクセス可能なマスターの識別情報を取得する(ステップSB9)。本実施形態では、車載装置1と、携帯端末3とは、十分に近い位置にあり、ステップSB10の処理において、携帯端末制御部30は、マスターとしての車載装置1を検索し、車載装置識別情報を取得する。 As shown in the flowchart FB of FIG. 4, after the text conversion process by the text conversion unit 304 in step SB8 is completed, the mobile terminal control unit 30 searches for and accesses a master accessible by wireless communication according to the Bluetooth standard. Acquire possible master identification information (step SB9). In the present embodiment, the in-vehicle device 1 and the mobile terminal 3 are sufficiently close to each other, and in the process of step SB10, the mobile terminal control unit 30 searches for the in-vehicle device 1 as a master and identifies the in-vehicle device. To get.

次いで、携帯端末制御部30は、テキスト変換部304が特定した車載装置識別情報の値と同一の値の識別情報の装置を、ペアリングを行う対象として決定し、携帯端末無線通信部34を制御して、Bluetoothの規格に従って検索信号を送信する(ステップSB10)。テキスト変換部304が特定した車載装置識別情報の値と同一の値の識別情報の装置は、車載装置1に相当する。 Next, the mobile terminal control unit 30 determines a device with identification information having the same value as the value of the in-vehicle device identification information specified by the text conversion unit 304 as a target for pairing, and controls the mobile terminal wireless communication unit 34. Then, the search signal is transmitted according to the Bluetooth standard (step SB10). The device of the identification information having the same value as the value of the vehicle-mounted device identification information specified by the text conversion unit 304 corresponds to the vehicle-mounted device 1.

図4のフローチャートFAに示すように、ステップSA5において、車載装置制御部10は、車載装置無線通信部15を制御して、携帯端末3から検索信号を受信したか否かを監視する。
携帯端末3から検索信号を受信しなかった場合(ステップSA5:NO)、車載装置制御部10は、処理手順をステップSA5に戻し、携帯端末3から検索信号を受信したか否かを監視する。
携帯端末3から検索信号を受信した場合(ステップSA5:YES)、車載装置制御部10は、検索信号の送信元の携帯端末3とBluetoothの規格に従って、無線通信リンクを確立する(ステップSA6)。
次いで、車載装置制御部10、及び、携帯端末制御部30は、車載装置1と携帯端末3との間で確立した無線通信リンクを介してペアリングに必要な情報を送受信し、Bluetoothの規格に従って、ペアリングを実行する(ステップSA7、ステップSB11)。ペアリングに際し、携帯端末制御部30が送信する情報には、少なくとも、テキスト変換部304が特定した暗証情報が含まれる。車載装置制御部10は、暗証情報に基づいて、携帯端末3の認証を実行する。
As shown in the flowchart FA of FIG. 4, in step SA5, the vehicle-mounted device control unit 10 controls the vehicle-mounted device wireless communication unit 15 to monitor whether or not a search signal is received from the mobile terminal 3.
When the search signal is not received from the mobile terminal 3 (step SA5: NO), the in-vehicle device control unit 10 returns the processing procedure to step SA5 and monitors whether or not the search signal is received from the mobile terminal 3.
When the search signal is received from the mobile terminal 3 (step SA5: YES), the in-vehicle device control unit 10 establishes a wireless communication link with the mobile terminal 3 from which the search signal is transmitted according to the Bluetooth standard (step SA6).
Next, the in-vehicle device control unit 10 and the mobile terminal control unit 30 transmit and receive information necessary for pairing via the wireless communication link established between the in-vehicle device 1 and the mobile terminal 3, and comply with the Bluetooth standard. , Perform pairing (step SA7, step SB11). The information transmitted by the mobile terminal control unit 30 at the time of pairing includes at least the password information specified by the text conversion unit 304. The in-vehicle device control unit 10 authenticates the mobile terminal 3 based on the password information.

以上のように、本実施形態では、車載装置1と、携帯端末3とのペアリングに際し、ユーザーは、車載装置1の車載装置識別情報を調べた上で、携帯端末3に一覧表示された識別情報から、車載装置1の車載装置識別情報に対応する識別情報を選択したり、また、携帯端末3に暗証情報を入力したりする等の作業を行う必要がない。このため、ユーザーの利便性が向上する。 As described above, in the present embodiment, when pairing the in-vehicle device 1 with the mobile terminal 3, the user examines the in-vehicle device identification information of the in-vehicle device 1 and then displays the identifications listed on the mobile terminal 3. It is not necessary to select the identification information corresponding to the vehicle-mounted device identification information of the vehicle-mounted device 1 from the information, or to input the password information to the mobile terminal 3. Therefore, the convenience of the user is improved.

以上説明したように、本実施形態に係る無線通信システム100は、車載装置1(第1無線通信機器)と携帯端末3(第2無線通信機器)とを備える。車載装置1は、ガイド音声を記憶するガイド音声記憶部143と、無線通信に関する情報を表す文字列に基づいて、ガイド音声が有する時間長以下の時間長を有する設定音を生成する設定音生成部10aと、ガイド音声と設定音とを合成した合成音を出力する音声出力部17(出力部)とを有する。携帯端末3は、車載装置1の音声出力部17より出力された合成音を収音する音声収音部32と、合成音からガイド音声を検出するガイド音声検出部301と、ガイド音声検出部301が検出したガイド音声に基づいて、合成音からガイド音声と分離音とを分離する音源分離部302と、分離音から設定音を抽出する設定音抽出部303と、設定音を文字列に変換するテキスト変換部304と、を有する。
この構成によれば、車載装置1と携帯端末3との間で無線通信可能な状態が確立していなときに、ユーザーが携帯端末3に対して無線通信に関する情報を入力する等の作業を行うことなく、携帯端末3に無線通信に関する情報を取得させることができる。このため、ユーザーの作業負担が減り、ユーザーの利便性が向上する。
As described above, the wireless communication system 100 according to the present embodiment includes an in-vehicle device 1 (first wireless communication device) and a mobile terminal 3 (second wireless communication device). The in-vehicle device 1 has a guide voice storage unit 143 that stores the guide voice, and a setting sound generation unit that generates a setting sound having a time length equal to or less than the time length of the guide voice based on a character string representing information related to wireless communication. It has 10a and a voice output unit 17 (output unit) that outputs a synthesized sound obtained by synthesizing a guide sound and a set sound. The mobile terminal 3 includes a voice sound collecting unit 32 that collects the synthetic sound output from the sound output unit 17 of the in-vehicle device 1, a guide sound detecting unit 301 that detects the guide sound from the synthetic sound, and a guide sound detecting unit 301. Based on the guide sound detected by, the sound source separation unit 302 that separates the guide sound and the separated sound from the synthetic sound, the setting sound extraction unit 303 that extracts the set sound from the separated sound, and the set sound is converted into a character string. It has a text conversion unit 304 and.
According to this configuration, when a state in which wireless communication is possible is not established between the in-vehicle device 1 and the mobile terminal 3, the user performs work such as inputting information related to wireless communication to the mobile terminal 3. It is possible to have the mobile terminal 3 acquire information on wireless communication without having to do so. Therefore, the workload of the user is reduced and the convenience of the user is improved.

また、本実施形態では、設定音に対応する設定音情報(文字列)は、車載装置1を識別する車載装置識別情報(機器識別情報)を含む。
この構成によれば、車載装置1と携帯端末3との間で無線通信可能な状態が確立する前に、ユーザーが煩雑な作業を行うことなく、携帯端末3に車載装置識別情報を取得させることができ、ユーザーの利便性が向上する。
Further, in the present embodiment, the set sound information (character string) corresponding to the set sound includes the vehicle-mounted device identification information (device identification information) that identifies the vehicle-mounted device 1.
According to this configuration, the mobile terminal 3 can acquire the in-vehicle device identification information without performing complicated work before the wireless communication is established between the in-vehicle device 1 and the mobile terminal 3. This improves user convenience.

また、本実施形態では、設定音に対応する設定音情報は、車載装置1に携帯端末3を認証させるために用いられる暗証情報を含む。
この構成によれば、車載装置1と携帯端末3との間で無線通信可能な状態が確立する前に、ユーザーが煩雑な作業を行うことなく、携帯端末3に暗証情報を取得させることができ、ユーザーの利便性が向上する。
Further, in the present embodiment, the set sound information corresponding to the set sound includes the password information used for causing the in-vehicle device 1 to authenticate the mobile terminal 3.
According to this configuration, before the wireless communication is established between the in-vehicle device 1 and the mobile terminal 3, the user can have the mobile terminal 3 acquire the password information without performing complicated work. , User convenience is improved.

また、本実施形態では、設定音生成部10aは、機器識別情報(文字列)、及び、暗証情報(文字列)を暗号化し、暗号化した情報に基づいて設定音を生成する。
この構成によれば、暗号化した情報を復号できる装置のみが機器識別情報、及び、暗証情報を正常に取得することができるため、情報の漏えいを抑制できる。
Further, in the present embodiment, the setting sound generation unit 10a encrypts the device identification information (character string) and the password information (character string), and generates the setting sound based on the encrypted information.
According to this configuration, only the device capable of decrypting the encrypted information can normally acquire the device identification information and the password information, so that information leakage can be suppressed.

また、本実施形態によれば、設定音の音色は、ピアノ音である。
この構成によれば、合成音について、ガイド音声のバックグラウンドでピアノ音が流れた状態となり、合成音を聴取するユーザーが違和感を抱くことを抑制できる。
Further, according to the present embodiment, the tone color of the set sound is a piano sound.
According to this configuration, the piano sound is played in the background of the guide voice for the synthetic sound, and it is possible to suppress the user who listens to the synthetic sound from feeling uncomfortable.

上述した実施形態は、あくまでも本発明の一態様を例示するものであって、本発明の趣旨を逸脱しない範囲で任意に変形、及び、応用が可能である。 The above-described embodiment merely illustrates one aspect of the present invention, and can be arbitrarily modified and applied without departing from the spirit of the present invention.

例えば、本実施形態では、車載装置1と、携帯端末3とがBluetoothの規格に従って通信する場合を例にして説明を行った。しかしながら、車載装置1と、携帯端末3との間で行われる通信に用いられる通信規格は、Bluetoothに限らない。例えば、通信規格は、Wi−Fi(登録商標)であってもよい。 For example, in the present embodiment, the case where the in-vehicle device 1 and the mobile terminal 3 communicate with each other according to the Bluetooth standard has been described as an example. However, the communication standard used for communication between the in-vehicle device 1 and the mobile terminal 3 is not limited to Bluetooth. For example, the communication standard may be Wi-Fi®.

本実施形態では、無線通信システム100の車載装置1は、車載装置識別情報及び暗証情報を暗号化させた後に設定音に変換し、携帯端末3は、設定音から取得した文字列の復号を行っていたが、車載装置1が、車載装置識別情報及び暗証情報を暗号化させずに設定音に変換する構成であってもよい。この場合、携帯端末3は、復号の処理を行わずに設定音から車載装置識別情報及び暗証情報を決定し、車載装置識別情報及び暗証情報に基づいてペアリングに関する処理を実行する。 In the present embodiment, the in-vehicle device 1 of the wireless communication system 100 encrypts the in-vehicle device identification information and the password information and then converts them into a set sound, and the mobile terminal 3 decodes the character string acquired from the set sound. However, the vehicle-mounted device 1 may be configured to convert the vehicle-mounted device identification information and the password information into a set sound without encrypting the information. In this case, the mobile terminal 3 determines the in-vehicle device identification information and the password information from the set sound without performing the decoding process, and executes the pairing-related process based on the in-vehicle device identification information and the password information.

また、本実施形態では、無線通信機器を車載装置1及び携帯端末3として例示したが、無線通信機器の形態は任意である。例えば携帯端末3と別の携帯端末とによる無線通信システム100であってもよい。すなわち、本発明は、無線通信機能を有する無線通信機器、及び、無線通信機能を有する無線通信機器同士が無線通信可能な無線通信システムに適用できる。 Further, in the present embodiment, the wireless communication device is exemplified as the in-vehicle device 1 and the mobile terminal 3, but the form of the wireless communication device is arbitrary. For example, it may be a wireless communication system 100 using a mobile terminal 3 and another mobile terminal. That is, the present invention can be applied to a wireless communication device having a wireless communication function and a wireless communication system capable of wireless communication between wireless communication devices having a wireless communication function.

また、本実施形態では、文字列は、ASCIIコードの文字の組み合わせであったが、文字コードは、ASCIIコードに限らない。 Further, in the present embodiment, the character string is a combination of characters of the ASCII code, but the character code is not limited to the ASCII code.

また、ガイド音声は、本実施形態で例示したものに限らず、ユーザーが耳で聴いて認識できるものであればよい。 Further, the guide voice is not limited to the one illustrated in the present embodiment, and may be any one that the user can hear and recognize.

車載装置1は、合成音の音声出力を「3回」行ったが、合成音の音声出力の回数は、3回に限られない。 The in-vehicle device 1 outputs the synthetic sound "three times", but the number of times the synthetic sound is output is not limited to three times.

また、例えば、上述した無線通信方法が、車載装置1及び携帯端末3が備えるコンピューターを用いて実現される場合、本発明を、上記制御方法を実現するためにコンピューターが実行するプログラム、このプログラムを前記コンピューターで読み取り可能に記録した記録媒体、或いは、このプログラムを伝送する伝送媒体の態様で構成することも可能である。上記記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD(Hard Disk Drive)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、Blu−ray(登録商標) Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型の、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、車載装置1及び携帯端末3が備える内部記憶装置であるROM(Read Only Memory)、HDD等の不揮発性記憶装置であってもよい。 Further, for example, when the above-mentioned wireless communication method is realized by using the computer provided in the in-vehicle device 1 and the mobile terminal 3, the present invention is a program executed by the computer in order to realize the above-mentioned control method. It can also be configured in the form of a recording medium readable by the computer or a transmission medium for transmitting this program. As the recording medium, a magnetic or optical recording medium or a semiconductor memory device can be used. Specifically, flexible disks, HDDs (Hard Disk Drives), CD-ROMs (Compact Disk Read Only Memory), DVDs (Digital Versatile Disks), Blu-ray (registered trademarks) Discs, magneto-optical disks, flash memories, cards. Examples include portable or fixed recording media such as type recording media. Further, the recording medium may be a non-volatile storage device such as a ROM (Read Only Memory) or an HDD, which is an internal storage device included in the in-vehicle device 1 and the mobile terminal 3.

1 車載装置(第1無線通信機器)
3 スマートフォン(第2無線通信機器)
143 ガイド音声記憶部
10a 設定音生成部
17 音声出力部(出力部)
32 音声収音部
301 ガイド音声検出部
302 音源分離部
303 設定音抽出部
304 テキスト変換部
1 In-vehicle device (first wireless communication device)
3 Smartphone (second wireless communication device)
143 Guide voice storage unit 10a Setting sound generation unit 17 Voice output unit (output unit)
32 Voice sound pickup unit 301 Guide voice detection unit 302 Sound source separation unit 303 Set sound extraction unit 304 Text conversion unit

Claims (7)

第1無線通信機器と、前記第1無線通信機器と通信可能な第2無線通信機器とを備える無線通信システムにおいて、
前記第1無線通信機器は、
ガイド音声を記憶するガイド音声記憶部と、
無線通信に関する情報を表す文字列に基づいて、前記ガイド音声が有する時間長以下の時間長を有する設定音を生成する設定音生成部と、
前記ガイド音声と前記設定音とを合成した合成音を出力する出力部と、を有し、
前記第2無線通信機器は、
前記出力部より出力された前記合成音を収音する音声収音部と、
前記音声収音部が収音した前記合成音から前記ガイド音声を検出するガイド音声検出部と、
前記ガイド音声検出部が検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離する音源分離部と、
前記分離音から前記設定音を抽出する設定音抽出部と、
前記設定音を前記文字列に変換するテキスト変換部と、を有する、
ことを特徴とする無線通信システム。
In a wireless communication system including a first wireless communication device and a second wireless communication device capable of communicating with the first wireless communication device,
The first wireless communication device is
A guide voice storage unit that stores guide voice and
A setting sound generation unit that generates a setting sound having a time length equal to or less than the time length of the guide voice based on a character string representing information related to wireless communication.
It has an output unit that outputs a synthesized sound obtained by synthesizing the guide sound and the set sound.
The second wireless communication device is
A voice sound collecting unit that collects the synthetic sound output from the output unit, and
A guide voice detection unit that detects the guide sound from the synthetic sound collected by the voice sound collection unit, and
A sound source separation unit that separates the guide voice and the separated sound from the synthetic sound based on the guide voice detected by the guide voice detection unit.
A setting sound extraction unit that extracts the setting sound from the separated sound,
It has a text conversion unit that converts the set sound into the character string.
A wireless communication system characterized by this.
前記文字列は、無線通信に際して前記第1無線通信機器を識別する機器識別情報を含む、
ことを特徴とする請求項1に記載の無線通信システム。
The character string includes device identification information that identifies the first wireless communication device during wireless communication.
The wireless communication system according to claim 1.
前記文字列は、前記第1無線通信機器に前記第2無線通信機器を認証させるために用いられる暗証情報を含む、
ことを特徴とする請求項1または2に記載の無線通信システム。
The character string includes password information used for causing the first wireless communication device to authenticate the second wireless communication device.
The wireless communication system according to claim 1 or 2.
前記設定音生成部は、前記文字列を暗号化し、暗号化した前記文字列に基づいて前記設定音を生成する、
ことを特徴とする請求項1に記載の無線通信システム。
The setting sound generation unit encrypts the character string and generates the setting sound based on the encrypted character string.
The wireless communication system according to claim 1.
前記設定音の音色はピアノ音である、
ことを特徴とする請求項1に記載の無線通信システム。
The tone of the set sound is a piano sound.
The wireless communication system according to claim 1.
ガイド音声と、無線通信に関する情報を表す文字列に基づいて生成され、前記ガイド音声が有する時間長以下の時間長を有する設定音とが合成された合成音を収音する音声収音部と、
前記音声収音部が収音した前記合成音に含まれる前記ガイド音声を検出するガイド音声検出部と、
前記ガイド音声検出部が検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離する音源分離部と、
前記分離音から前記設定音を抽出する設定音抽出部と、
前記設定音を前記文字列に変換するテキスト変換部と、
を有することを特徴とする無線通信機器。
A voice sound collecting unit that collects a synthetic sound generated based on a guide sound and a character string representing information related to wireless communication and having a time length equal to or less than that of the guide sound.
A guide voice detection unit that detects the guide sound included in the synthetic sound collected by the voice sound collection unit, and
A sound source separation unit that separates the guide voice and the separated sound from the synthetic sound based on the guide voice detected by the guide voice detection unit.
A setting sound extraction unit that extracts the setting sound from the separated sound,
A text conversion unit that converts the set sound into the character string,
A wireless communication device characterized by having.
第1無線通信機器と第2無線通信機器との無線通信方法において、
前記第1無線通信機器は、
ガイド音声を記憶し、
無線通信に関する情報を表す文字列に基づいて、記憶した前記ガイド音声が有する時間長以下の時間長を有する設定音を生成し、
前記ガイド音声と前記設定音とを合成した合成音を出力し、
前記第2無線通信機器は、
前記合成音を収音し、
収音した前記合成音に含まれる前記ガイド音声を検出し、
検出した前記ガイド音声に基づいて、前記合成音から前記ガイド音声と分離音とを分離し、
前記分離音から前記設定音を抽出し、
抽出した前記設定音を前記文字列に変換する
ことを特徴とする無線通信方法。
In the wireless communication method between the first wireless communication device and the second wireless communication device,
The first wireless communication device is
Memorize the guide voice,
Based on a character string representing information related to wireless communication, a set sound having a time length equal to or less than the time length of the stored guide voice is generated.
A synthetic sound obtained by synthesizing the guide sound and the set sound is output.
The second wireless communication device is
The synthetic sound is picked up and
The guide voice included in the collected synthetic sound is detected,
Based on the detected guide voice, the guide voice and the separated sound are separated from the synthetic sound.
The set sound is extracted from the separated sound,
A wireless communication method characterized in that the extracted set sound is converted into the character string.
JP2017003570A 2017-01-12 2017-01-12 Wireless communication system, wireless communication device, and wireless communication method Active JP6807756B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017003570A JP6807756B2 (en) 2017-01-12 2017-01-12 Wireless communication system, wireless communication device, and wireless communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017003570A JP6807756B2 (en) 2017-01-12 2017-01-12 Wireless communication system, wireless communication device, and wireless communication method

Publications (2)

Publication Number Publication Date
JP2018113621A JP2018113621A (en) 2018-07-19
JP6807756B2 true JP6807756B2 (en) 2021-01-06

Family

ID=62911444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017003570A Active JP6807756B2 (en) 2017-01-12 2017-01-12 Wireless communication system, wireless communication device, and wireless communication method

Country Status (1)

Country Link
JP (1) JP6807756B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6959619B2 (en) * 2019-02-08 2021-11-02 Necプラットフォームズ株式会社 Mobile terminal
JP7397641B2 (en) 2019-12-04 2023-12-13 オトモア株式会社 Electronic equipment, transmitters and receivers

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100227549A1 (en) * 2009-03-04 2010-09-09 Alan Kozlay Apparatus and Method for Pairing Bluetooth Devices by Acoustic Pin Transfer
KR101706978B1 (en) * 2009-08-26 2017-02-17 삼성전자주식회사 Method for bluetooth communication and terminal applying the same
JP5734345B2 (en) * 2013-05-22 2015-06-17 シャープ株式会社 Network system, home appliance linkage method, server, home appliance and program
JP5887446B1 (en) * 2014-07-29 2016-03-16 ヤマハ株式会社 Information management system, information management method and program

Also Published As

Publication number Publication date
JP2018113621A (en) 2018-07-19

Similar Documents

Publication Publication Date Title
JP5419136B2 (en) Audio output device
JP6860055B2 (en) Information provision method, terminal device operation method, information provision system, terminal device and program
ES2633457T3 (en) Ultrasonic Wave Communications System
EP3176782B1 (en) Apparatus and method for outputting obtained pieces of related information
KR101683676B1 (en) Apparatus and method for providing augmented reality service using sound
AU2015297647B2 (en) Information management system and information management method
JP4885336B2 (en) Map display device
JP6807756B2 (en) Wireless communication system, wireless communication device, and wireless communication method
WO2014189084A1 (en) Rendition recording device
KR20090008047A (en) Audio input device and karaoke to detect motion and position, and method for accompaniment thereof
CN104754421A (en) Interactive beat effect system and interactive beat effect processing method
US9472176B2 (en) Performance recording system, performance recording method, and musical instrument
JP2018155570A (en) Information provision on-vehicle device, information provision system, and information provision program
CN103714805A (en) Electronic musical instrument control device and method thereof
JP6406882B2 (en) Electronic device, external device connection method and connection program
JP6392065B2 (en) Information processing system
JP2006184103A (en) Navigation apparatus
JP2012105174A (en) Image voice recording/playback system
JP5593831B2 (en) Information processing apparatus, information processing system, and information processing program.
JP2006330090A (en) Electronic apparatus, image display device, and electronic apparatus operation system
JP6829606B2 (en) Karaoke system, server device
KR20220099014A (en) Singing rooms system and control method thereof
JP6796494B2 (en) Karaoke system
JP2005352798A (en) Data conversion unit, and program for data conversion processing
JP2012079191A (en) Code reader and navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201208

R150 Certificate of patent or registration of utility model

Ref document number: 6807756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150