JP5361781B2 - On-vehicle electronic device and voice data dictionary generation method for music data - Google Patents

On-vehicle electronic device and voice data dictionary generation method for music data Download PDF

Info

Publication number
JP5361781B2
JP5361781B2 JP2010080168A JP2010080168A JP5361781B2 JP 5361781 B2 JP5361781 B2 JP 5361781B2 JP 2010080168 A JP2010080168 A JP 2010080168A JP 2010080168 A JP2010080168 A JP 2010080168A JP 5361781 B2 JP5361781 B2 JP 5361781B2
Authority
JP
Japan
Prior art keywords
music data
recognition dictionary
dictionary
data storage
storage device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010080168A
Other languages
Japanese (ja)
Other versions
JP2011215175A (en
Inventor
文彦 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2010080168A priority Critical patent/JP5361781B2/en
Publication of JP2011215175A publication Critical patent/JP2011215175A/en
Application granted granted Critical
Publication of JP5361781B2 publication Critical patent/JP5361781B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車載用電子装置に関し、特に、音声による指示に基づいて楽曲選択を可能とするオーディオ再生機能を備えた車載用電子装置およびその音楽データの音声認識辞書生成方法に関する。   The present invention relates to an on-vehicle electronic device, and more particularly to an on-vehicle electronic device having an audio playback function that enables music selection based on a voice instruction and a method for generating a voice recognition dictionary for the music data.

近年、車載用のAV(Audio Visual)機器やAV再生機能を搭載したナビゲーション装置などの車載用電子装置における多機能化が進んでいる。その音楽再生性能に関しては、音声楽曲検索(または、SBV(Song By Voice)とも言う)と称される、楽曲選択をユーザの音声によって行わせる技術が採用されてきており、運転に視覚を奪われるドライバーに取っては利便性が高いことから、一層の普及が期待されている。   2. Description of the Related Art In recent years, in-vehicle electronic devices such as in-vehicle AV (Audio Visual) devices and navigation devices equipped with AV playback functions are becoming more and more functional. With regard to the music playback performance, a technique called voice song search (or also called SBV (Song By Voice)) that makes music selection by the user's voice has been adopted, and driving is deprived of vision. Because it is highly convenient for drivers, further spread is expected.

音声楽曲検索による楽曲選択を実現するためには、音楽データに格納されているメタ情報に基づいて、音声認識用の辞書を事前に生成する必要がある。そして電子装置に内蔵したHDD(Hard Disk Drive)などの大容量記憶デバイスに格納される音楽データの曲数によっては、すべての楽曲の辞書生成が完了するまでには分オーダーの時間が必要になる。通常、車載用電子装置に音楽CD(Compact Disc)を挿入すると、そこに格納されている音楽データは、その再生と並行してバックグラウンドで内蔵HDDにリッピングされるので、新しい音楽CDが再生されるたびに音声楽曲検索による音声認識辞書の生成作業が行われることになる。   In order to realize music selection by voice music search, it is necessary to generate a voice recognition dictionary in advance based on meta information stored in music data. Depending on the number of music data stored in a mass storage device such as an HDD (Hard Disk Drive) built in the electronic device, it takes a minute to complete the dictionary generation for all music. . Normally, when a music CD (Compact Disc) is inserted into an in-vehicle electronic device, the music data stored therein is ripped to the built-in HDD in the background in parallel with the reproduction, so that a new music CD is reproduced. Every time, a voice recognition dictionary is generated by voice music search.

その一方で、mp3(MPEG Audio Layer-3:デジタル音声のための圧縮音声ファイルフォーマットの一種)などの普及によって、携帯型の音楽プレイヤーで音楽を聴いたり、USBメモリー(Universal Serial Busメモリー:USB規格のインタフェースを介して電子装置に接続可能な補助記憶装置)に音楽データを格納して持ち運んだりすることが一般的に行われている。このことから、近年の車載用電子装置においては、これら外部のデータ格納デバイスを接続するためのインタフェースを備え、そこに格納された音楽データを読み出して機器側で再生できるようにしたものがある。そしてこのような外部デバイスにおける音楽データを生成する際にも、前記音声楽曲検索による楽曲選択が望まれており、従って、電子装置側では、この種の外部デバイスが接続されそのデバイスが再生メディアとして選択された場合には、その再生に先立って音声認識辞書を生成する必要が生じる。   On the other hand, with the popularization of mp3 (MPEG Audio Layer-3: a type of compressed audio file format for digital audio) etc., you can listen to music with a portable music player, or use a USB memory (Universal Serial Bus memory: USB standard) In general, music data is stored and carried in an auxiliary storage device (which can be connected to an electronic device via the interface). For this reason, some in-vehicle electronic devices in recent years have an interface for connecting these external data storage devices so that music data stored therein can be read out and reproduced on the device side. When generating music data in such an external device, music selection by the audio music search is desired. Therefore, on the electronic apparatus side, this type of external device is connected and the device is used as a playback medium. If selected, it is necessary to generate a speech recognition dictionary prior to reproduction.

この音声認識辞書の生成に関して、従来、以下のような問題がある。すなわち、内蔵HDDに格納された音楽データに対する音声認識辞書の生成が行われている最中に、ユーザが携帯音楽プレイヤーなどの外部デバイスを接続してその再生をおこなおうとした場合、システムは内蔵HDDの音楽データに対する音声認識辞書の生成を完了させてから、接続された外部デバイスの音楽データに対する音声認識辞書の生成を開始することになる。したがって、内蔵HDDの音楽データに対する辞書生成の進捗状況によっては、外部デバイスにおける音楽データに対する音声楽曲検索の利用を開始できるまでに分オーダーでの時間が掛かるという問題が生じる。また、外部デバイスにおける音楽データの辞書を生成中に、音楽CDが挿入されてその再生が所望された場合にも、外部デバイスにおける音楽データの辞書生成が完了してからHDDにリッピングされたデータに対する辞書生成が行われることとなるので、この場合にも再生を所望された音楽データに対する音声楽曲検索の利用までに時間が掛かるという問題がある。   Conventionally, the generation of this speech recognition dictionary has the following problems. That is, when a user tries to play an external device such as a portable music player while a voice recognition dictionary is being generated for music data stored in the built-in HDD, the system is built-in. After generation of the voice recognition dictionary for the music data of the HDD is completed, generation of the voice recognition dictionary for the music data of the connected external device is started. Therefore, depending on the progress of dictionary generation for music data stored in the built-in HDD, there arises a problem that it takes a minute order before the use of voice music search for music data in the external device can be started. In addition, even when a music CD is inserted and reproduction is desired while generating a music data dictionary in the external device, the data ripped in the HDD after the music data dictionary generation in the external device is completed. Since dictionary generation is performed, there is also a problem that in this case, it takes time to use voice music search for music data desired to be reproduced.

本件に関連してナビゲーション用の音声認識に掛かる時間を短縮する技術が、特許文献1に記載されている。すなわち特許文献1には、その重要度で認識対象語彙を多段に分けて1つの辞書に対する検索時間を短縮する技術が開示されている。   A technique for shortening the time required for voice recognition for navigation in relation to this case is described in Patent Document 1. That is, Patent Document 1 discloses a technique for reducing the search time for one dictionary by dividing recognition target vocabulary into multiple stages according to its importance.

特開平10−62199号公報Japanese Patent Laid-Open No. 10-62199

しかしこの技術は、一の辞書における語彙数を少なくして音声入力時における辞書検索時間を短くするものであって、本件で問題となっている辞書生成のための生成時間を短縮することに利用することはできない。   However, this technology reduces the number of vocabulary in one dictionary and shortens the dictionary search time at the time of voice input, and is used to shorten the generation time for dictionary generation that is a problem in this case. I can't do it.

本発明は、上記問題点に鑑みてなされたものであり、音声楽曲検索による楽曲選択に掛かる音声認識辞書を生成する時間を短縮して、その利用が迅速にできるようにする車載用電子装置およびその音楽データの音声認識辞書生成方法を提供することを目的としている。   The present invention has been made in view of the above-mentioned problems, and reduces the time for generating a speech recognition dictionary required for music selection by voice music search so that the vehicle electronic device can be used quickly. An object of the present invention is to provide a method for generating a speech recognition dictionary for the music data.

本発明に係る車載用電子装置は、音声による指示に基づいて楽曲選択を可能とするオーディオ再生手段と、多数の音楽データを蓄積する音楽データ記憶手段と、音楽データを蓄積した外部デバイスを接続して、その音楽データを前記オーディオ再生手段に読み出し可能とする外部デバイス接続手段と、前記音楽データ記憶手段内の音楽データおよび前記外部デバイス内の音楽データから、前記楽曲選択のための音声認識辞書を生成する音声認識辞書生成手段と、前記音声認識辞書生成手段における音楽データ格納デバイス単位での辞書生成進捗度を測定する辞書生成進捗度測定手段と、一の音楽データ格納デバイスの音楽データに対して音声認識辞書が生成されているときに、他の音楽データ格納デバイスの音楽データに対する音声認識辞書の生成要求がなされた場合に、前記辞書生成進捗度測定手段による辞書生成進捗度に応じて、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定する優先デバイス決定手段と、前記優先デバイス決定手段により決定された音楽データ格納デバイスを、その音楽データが優先的に前記音声認識辞書生成手段により処理されるようにするデバイス切換え手段とを有する。   An in-vehicle electronic device according to the present invention connects an audio playback unit that enables music selection based on an instruction by voice, a music data storage unit that stores a large number of music data, and an external device that stores the music data. A voice recognition dictionary for selecting the music piece from the external device connection means for enabling the audio data to be read by the audio playback means, the music data in the music data storage means, and the music data in the external device. A voice recognition dictionary generating means for generating, a dictionary generation progress measuring means for measuring a dictionary generation progress in music data storage device units in the voice recognition dictionary generating means, and music data of one music data storage device When the voice recognition dictionary is generated, the voice recognition dictionary for the music data of other music data storage devices Priority device determining means for preferentially determining a music data storage device for generating a speech recognition dictionary according to the dictionary generation progress by the dictionary generation progress measuring means when a generation request is made; and the priority device Device switching means for causing the music data storage device determined by the determining means to be processed preferentially by the voice recognition dictionary generating means;

好ましくは、前記優先デバイス決定手段は、前記外部デバイス接続手段に音楽データを蓄積した外部デバイスが接続されたときに、そのデータ格納デバイスに対する音声認識辞書の生成要求がなされたと判断して、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するものである。また、好ましくは、前記優先デバイス決定手段は、前記オーディオ再生手段による音楽データの再生対象として一の音楽データ格納デバイスが選択されたときに、そのデータ格納デバイスに対する音声認識辞書の生成要求がなされたと判断して、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するものである。   Preferably, the priority device determination unit determines that a request for generating a speech recognition dictionary for the data storage device has been made when an external device storing music data is connected to the external device connection unit, A device for storing music data for generating a voice recognition dictionary is determined. Preferably, the priority device determination unit is configured to generate a voice recognition dictionary for the data storage device when a music data storage device is selected as a target of music data playback by the audio playback unit. It is determined and a storage device for music data for preferentially generating a speech recognition dictionary is determined.

また好ましくは、前記優先デバイス決定手段は、優先的に音声認識辞書を生成するよう決定された以外の音楽データ格納デバイスを、前記音声認識辞書生成手段による辞書生成を要求する待ち行列に入れて、優先された音楽データ格納デバイスにおける処理が終了した後に、前記待ち行列に入れられたデバイスが順次辞書生成の対象となるようにする。   Preferably, the priority device determination means puts a music data storage device other than that determined to preferentially generate a voice recognition dictionary into a queue for requesting dictionary generation by the voice recognition dictionary generation means, After the processing in the prioritized music data storage device is completed, the devices placed in the queue are sequentially set as a dictionary generation target.

前記辞書生成進捗度測定手段は、好ましくは、前記音楽認識辞書生成手段による単位音楽データの平均処理時間に基づく、対象の音楽データ格納デバイスにおける音楽データの処理に必要な辞書生成予想時間と、辞書生成処理開始からの経過時間とからその進捗度を測定するものである。   The dictionary generation progress measuring means preferably includes an expected dictionary generation time required for processing music data in the target music data storage device based on an average processing time of unit music data by the music recognition dictionary generating means, and a dictionary The degree of progress is measured from the elapsed time from the start of the generation process.

本発明はまた、音声による指示に基づいて楽曲選択を可能とするオーディオ再生手段と、多数の音楽データを蓄積する音楽データ記憶手段と、音楽データを蓄積した外部デバイスを接続して、その音楽データを前記オーディオ再生手段に読み出し可能とする外部デバイス接続手段とを有するナビゲーション装置における音楽データの音声認識辞書生成方法であって、前記音楽データ記憶手段内の音楽データおよび前記外部デバイス内の音楽データから、前記楽曲選択のための音声認識辞書を生成するステップと、前記音声認識辞書の生成における音楽データ格納デバイス単位での辞書生成進捗度を測定するステップと、一の音楽データ格納デバイスの音楽データに対して音声認識辞書が生成されているときに、他の音楽データ格納デバイスの音楽データに対する音声認識辞書の生成要求がなされた場合に、前記辞書生成進捗度に応じて、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するステップと、前記決定された音楽データ格納デバイスを、その音楽データの音声認識辞書の生成が優先的になるように処理の対象デバイスを切換えるステップとを有する。   The present invention also connects an audio playback means that enables music selection based on a voice instruction, a music data storage means that stores a large number of music data, and an external device that stores the music data. Is a voice recognition dictionary generation method for music data in a navigation device having external device connection means that enables the audio playback means to be read from the music data in the music data storage means and the music data in the external device. A step of generating a voice recognition dictionary for music selection, a step of measuring a dictionary generation progress for each music data storage device in the generation of the voice recognition dictionary, and music data of one music data storage device. When a speech recognition dictionary is being generated for other music data storage devices Determining a music data storage device that preferentially generates a speech recognition dictionary according to the progress of dictionary generation when a request for generating a speech recognition dictionary for music data is made; and the determined music data And switching the storage device so that the generation of the voice recognition dictionary of the music data is prioritized.

本発明によれば、一の音楽データ格納デバイスに対する音声認識辞書の生成中に、他の音楽データ格納デバイスに対する辞書生成要求がなされた場合においても、その生成の進捗状況に応じて辞書生成を優先するデバイスを決定し必要に応じてその切換えを行うため、必要とされる音楽データに対する音声認識辞書の生成を短時間で作ることができるようになる。その結果、辞書生成に係るユーザーの待ち時間が短縮され、その利便性が高まる。   According to the present invention, even when a dictionary generation request for another music data storage device is made during generation of a speech recognition dictionary for one music data storage device, priority is given to dictionary generation according to the progress of the generation. Since a device to be determined is determined and switched as necessary, it is possible to generate a speech recognition dictionary for the required music data in a short time. As a result, the waiting time of the user related to dictionary generation is shortened, and the convenience is enhanced.

本発明の実施例に係るナビゲーション装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the navigation apparatus which concerns on the Example of this invention. 本実施例の制御部124の主な特徴部分の機能ブロック図である。It is a functional block diagram of the main characteristic parts of the control part 124 of a present Example. 音声認識辞書生成プロセスを示すフローチャートである。It is a flowchart which shows a speech recognition dictionary production | generation process. 音声認識辞書生成プロセスを示すフローチャートである。It is a flowchart which shows a speech recognition dictionary production | generation process. 従来構成に係る辞書生成要求プロセスと、本実施例に係る辞書生成要求プロセスにおける効果を検証するための比較グラフである。It is a comparison graph for verifying the effect in the dictionary generation request process which concerns on a conventional structure, and the dictionary generation request process which concerns on a present Example.

以下、本発明の実施の形態について図面を参照して詳細に説明する。本実施の形態では、音声による指示に基づいて楽曲選択を可能とするオーディオ再生機能、その他のマルチメディア機能を備えたナビゲーション装置を例示する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a navigation apparatus having an audio playback function that enables music selection based on a voice instruction and other multimedia functions will be exemplified.

図1は、本発明の実施例に係るナビゲーション装置の構成例を示すブロック図である。同図に示すように、ナビゲーション装置100は、音楽データやビデオデータを再生するオーディオ/ビデオ(AV)再生部102、地上波ディジタルテレビ放送およびAM、FM等のラジオ放送を受信するテレビ/ラジオチューナー104、目的地までの経路案内等を行うナビゲーション部106、音楽その他のデータを格納したCDやDVD(Digital Versatile Disc)をシステムに読み取るためのCD/DVD読取り部108、携帯音楽プレイヤーやUSBメモリーなどの外部デバイスを接続するための外部デバイス接続インタフェース110、ディスプレイ上のタッチパネルや操作ボタンを介してユーザーからの入力を受け取る入力部112、音声によるユーザーからの操作コマンドや楽曲選択指示を受け取る音声入力部114、スピーカから音声を出力する音声出力部116、ディスプレイに画像を表示する情報表示部118、道路地図に関するデータやプログラムデータ並びに音楽CDからリッピングした音楽データを格納するHDD120、HDD120から読み出したプログラムや各種データを実行・処理するためにこれらを一時的に記憶する主記憶122、各部を制御する制御部124を含んで構成される。図1のナビゲーション装置100の構成は、例示であり、これらすべての機能を包含しなくてもよいし、あるいは他の機能を包含するものであってもよい。   FIG. 1 is a block diagram illustrating a configuration example of a navigation device according to an embodiment of the present invention. As shown in the figure, a navigation device 100 includes an audio / video (AV) reproducing unit 102 that reproduces music data and video data, a terrestrial digital television broadcast, and a television / radio tuner that receives radio broadcasts such as AM and FM. 104, navigation unit 106 for route guidance to a destination, CD / DVD reading unit 108 for reading a CD or DVD (Digital Versatile Disc) storing music and other data into the system, portable music player, USB memory, etc. An external device connection interface 110 for connecting external devices, an input unit 112 for receiving input from the user via a touch panel on the display and operation buttons, and a voice input unit for receiving operation commands and music selection instructions from the user by voice 114, speaker? An audio output unit 116 for outputting audio, an information display unit 118 for displaying an image on a display, HDD 120 for storing road map data and program data, and music data ripped from a music CD, and programs and various data read from the HDD 120 A main memory 122 that temporarily stores these for execution and processing, and a control unit 124 that controls each unit are configured. The configuration of the navigation device 100 in FIG. 1 is an exemplification, and may not include all of these functions, or may include other functions.

オーディオ/ビデオ再生部102は、CD、DVD、半導体メモリ、HDD120などに記憶されたオーディオデータやビデオデータを再生する。後述するようにオーディオ/ビデオ再生部102は、音声入力部116からのユーザーによる楽曲選択の音声指示に基づいて、指定の楽曲を再生可能である。再生されたオーディオデータやビデオデータは、制御部124によって、音声出力部116および情報表示部118から出力される。   The audio / video playback unit 102 plays back audio data and video data stored in a CD, DVD, semiconductor memory, HDD 120, or the like. As will be described later, the audio / video playback unit 102 can play back a designated song based on a voice instruction for song selection by the user from the voice input unit 116. The reproduced audio data and video data are output from the audio output unit 116 and the information display unit 118 by the control unit 124.

テレビ/ラジオチューナー104は、制御部124によって選択されたチャンネルの地上波ディジタル放送の番組を受信し、受信したテレビ放送のストリーミングデータをリアルタイムでデコードし、そこから音声データ、映像データ、電子番組情報(EPG)や文字データなどのテキストデータを抽出する。制御部124は、テレビチューナー104からこれらの信号を受け取り、音声出力部116に番組の音声信号を出力させ、情報表示部118に番組の映像信号を表示させる。またテレビ/ラジオチューナー104は、制御部124によって選択されたチャンネルのラジオ放送を受信し、受信されたラジオ放送をデコードし、ステレオあるいはモノラルの音声データ、多重化された文字データなどを抽出し、抽出された音声データは、音声出力部116から出力される。   The TV / radio tuner 104 receives a terrestrial digital broadcast program of the channel selected by the control unit 124, decodes the received TV broadcast streaming data in real time, and from there, audio data, video data, electronic program information Extract text data such as (EPG) or character data. The control unit 124 receives these signals from the TV tuner 104, causes the audio output unit 116 to output a program audio signal, and causes the information display unit 118 to display the program video signal. The television / radio tuner 104 receives the radio broadcast of the channel selected by the control unit 124, decodes the received radio broadcast, and extracts stereo or monaural audio data, multiplexed character data, and the like. The extracted audio data is output from the audio output unit 116.

ナビゲーション部106は、GPS衛星や自立航法センサを用いて自車位置を算出したり、目的地までの最適な経路の誘導などを行う。ナビゲーション部108が動作されるとき、制御部124は、情報表示部118に自車位置周辺の道路地図などを表示させる。また、ナビゲーションに関する音声案内を音声出力部116から出力させる。   The navigation unit 106 calculates the position of the own vehicle using a GPS satellite or a self-contained navigation sensor, or guides the optimum route to the destination. When the navigation unit 108 is operated, the control unit 124 causes the information display unit 118 to display a road map around the vehicle position. Also, voice guidance regarding navigation is output from the voice output unit 116.

CD/DVD読取り部108は、音楽その他のデータを格納したCDや映像データや地図データを格納したDVDを読み取って、オーディオ/ビデオ再生部102による再生やナビゲーション部108による利用ができるようにする。音楽データを格納したCDをCD/DVD読取り部108に読み取らせた場合、制御部124はその再生と同時にその音楽データをHDD120にリッピングする。   The CD / DVD reading unit 108 reads a CD storing music and other data, and a DVD storing video data and map data so that the audio / video playback unit 102 can play them back and use them by the navigation unit 108. When the CD / DVD reader 108 reads the CD storing the music data, the controller 124 rips the music data to the HDD 120 simultaneously with the reproduction.

外部デバイス接続インタフェース110は、携帯音楽プレイヤーやUSBメモリーなどの外部デバイスを接続し、それらに格納されている音楽その他のデータをシステム上に読み出せるようにする。これら外部デバイスに格納されているデータが音楽データである場合、ユーザの選択指示にしたがって音楽データはオーディオ/ビデオ再生部102による再生の対象とされる。後述するように、これらの音楽データも音声入力による楽曲選択指示が可能となるよう、それらのメタ情報が読み出され音声認識辞書の生成に掛けられる。   The external device connection interface 110 connects an external device such as a portable music player or a USB memory so that music and other data stored therein can be read out on the system. When the data stored in these external devices is music data, the music data is subject to playback by the audio / video playback unit 102 in accordance with a user's selection instruction. As will be described later, these music data are also read out to generate a voice recognition dictionary so that music selection instruction by voice input is possible for these music data.

入力部112は、リモコン、マウス、タッチパネルなどの入力手段を含むことができる。ユーザーは、入力部112を介して、音楽の再生などのコントロールをしたり、テレビ放送のチャンネルを選択したり、動作させる機能を選択したり、その他必要な指示を与えることができる。入力部112には、音声入力部114による音声入力の開始および終了をシステム側に知らせるために、ハンドル周辺に設置した発話ボタンが含まれる。   The input unit 112 can include input means such as a remote controller, a mouse, and a touch panel. The user can control music playback, select a TV broadcast channel, select a function to be operated, and give other necessary instructions via the input unit 112. The input unit 112 includes an utterance button installed around the handle in order to notify the system side of the start and end of voice input by the voice input unit 114.

音声入力部114は、音声によるユーザーからの操作コマンドや楽曲選択指示を受け取る。音楽データの再生に係る楽曲選択の指示に関して、音声入力部114はユーザーからの音声による曲指定(通常は曲名)を受け取り、これは後述する楽曲の選択制御の処理を経て、その楽曲をオーディオ/ビデオ再生部102により再生する。音声入力部114には、ドライバーの音声を拾うためにハンドル周辺に設置された小型マイクが含まれる。   The voice input unit 114 receives voice operation commands and music selection instructions from the user. In response to a music selection instruction related to the reproduction of music data, the audio input unit 114 receives a song designation (usually a song name) from the user, which is processed by a music selection control to be described later. Playback is performed by the video playback unit 102. The voice input unit 114 includes a small microphone installed around the handle to pick up the driver's voice.

音声出力部116は、音声信号を増幅し、増幅された音声信号を車内に配置されたスピーカから出力する。情報表示部118は、静止画や動画を表示するためのディスプレイを含む。さらにディスプレイには、入力部112の一手段としてのタッチパネルが搭載され、ユーザーからの入力を受け取ることができるようになっている。   The audio output unit 116 amplifies the audio signal, and outputs the amplified audio signal from a speaker arranged in the vehicle. The information display unit 118 includes a display for displaying still images and moving images. Further, the display is equipped with a touch panel as one means of the input unit 112 so that it can receive input from the user.

HDD120は、道路地図に関するデータやプログラムデータ並びに音楽CDからリッピングした音楽データを格納する大容量記憶装置である。HDD120には、後述する音声認識辞書生成部で生成された音声認識辞書データも格納される。音楽データに関しHDD120は、音楽CDがCD/DVD読取り部106に挿入されその再生が開始されると、そのすべての音楽データをここに格納し、蓄積していく。これによってユーザーは同じ楽曲を再度再生するときには、あらためて音楽CDをCD/DVD読取り部106に読み取らせる必要がなくなる。なお、近年ではSSD(Solid State Drive)などの不揮発性半導体メモリーを用いた大容量記憶装置の低価格化が進んでおり、上記データの格納のためにHDDに代えてあるいはこれと共にSSDなどの他の媒体による記憶装置を用いてもよい。   The HDD 120 is a mass storage device that stores data relating to road maps, program data, and music data ripped from a music CD. The HDD 120 also stores voice recognition dictionary data generated by a voice recognition dictionary generation unit described later. Regarding the music data, when the music CD is inserted into the CD / DVD reading unit 106 and reproduction thereof is started, the HDD 120 stores and accumulates all the music data here. This eliminates the need for the user to cause the CD / DVD reader 106 to read the music CD again when reproducing the same music again. In recent years, the price of mass storage devices using a nonvolatile semiconductor memory such as an SSD (Solid State Drive) has been reduced. A storage device using the medium may be used.

主記憶122は、ユーザ操作などに基づいて選択されたプログラム、およびそのプログラムの制御の対象となるデータを一時的に保持する記憶エリアであり、通常、揮発性半導体メモリーにより構成される。制御部124は、中央処理装置、マイクロコンピュータ、マイクロプロセッサなどの装置を含み、主記憶122に読み出されたプログラムを実行し、各部の制御を行う。   The main memory 122 is a storage area that temporarily holds a program selected based on a user operation or the like and data to be controlled by the program, and is usually configured by a volatile semiconductor memory. The control unit 124 includes devices such as a central processing unit, a microcomputer, and a microprocessor, executes a program read to the main memory 122, and controls each unit.

次に、本実施例の制御部124の主な特徴部分の機能ブロック図を図2に示す。なお、ここでは主として楽曲選択のための音声認識辞書の生成に係る制御のみについて説明し、システムにおける他の機能の部分については説明しない。制御部124は、本発明に係る機能構成として、音声コマンド解析部200、音声認識辞書生成部202、辞書生成進捗度測定部204、優先デバイス決定部206、デバイス切換え部208を有する。   Next, FIG. 2 shows a functional block diagram of main features of the control unit 124 of this embodiment. Here, only control related to generation of a speech recognition dictionary for music selection will be described here, and other functions in the system will not be described. The control unit 124 includes a voice command analysis unit 200, a voice recognition dictionary generation unit 202, a dictionary generation progress measurement unit 204, a priority device determination unit 206, and a device switching unit 208 as functional configurations according to the present invention.

音声コマンド解析部200は、ユーザーによる音声入力を解析して対応するテキストデータを出力する。小型マイクを介して拾われたユーザーの音声は、音声入力部114でノイズ除去、正規化、ディジタル化などの処理を施され、音声コマンド解析部200に入力される。音声コマンド解析部200では、音響分析を行ってそこから特徴量を抽出し、認識デコーダにおいてその特徴量からテキストデータを得るなど、音声認識に係る周知の方法が用いられる。オーディオ/ビデオ再生部102の利用がユーザーによって選択されている場合、音声コマンド解析部200は、取得した音声信号を楽曲選択のための楽曲名として理解する。そして、これをキーとして音声認識辞書内を検索して一致する楽曲のデータをHDD120から読み出し、オーディオ/ビデオ再生部102で再生されるよう制御部124にその結果を返す。   The voice command analysis unit 200 analyzes voice input by the user and outputs corresponding text data. The user's voice picked up through the small microphone is subjected to processing such as noise removal, normalization, and digitization by the voice input unit 114 and input to the voice command analysis unit 200. The voice command analysis unit 200 uses a well-known method related to voice recognition, such as performing an acoustic analysis and extracting a feature value therefrom, and obtaining text data from the feature value in a recognition decoder. When the use of the audio / video playback unit 102 is selected by the user, the voice command analysis unit 200 understands the acquired voice signal as a song name for song selection. Then, using this as a key, the voice recognition dictionary is searched to read the matching music data from the HDD 120, and the result is returned to the control unit 124 so as to be played back by the audio / video playback unit 102.

音声認識辞書生成部202は、音楽データに含まれる曲名その他のメタ情報に基づいて、音声による楽曲選択のための音声認識辞書を生成する。制御部124から、HDD120または外部デバイスに格納された音楽データ群に対する音声認識辞書の生成要求が送信されると、音声認識辞書生成部202は、その対象デバイス(本書ではこれを音楽データ格納デバイスと言うことがある)にアクセスして順次音楽データを読み出し、そこに含まれるメタ情報からその音楽データ呼び出しのための音声認識語(例えば楽曲名)を抽出し、その対象デバイスと関連付けてこれをHDD120の所定エリアに格納して辞書を生成していく。   The voice recognition dictionary generation unit 202 generates a voice recognition dictionary for selecting a song by voice based on the song name and other meta information included in the music data. When a request for generating a speech recognition dictionary for a music data group stored in the HDD 120 or an external device is transmitted from the control unit 124, the speech recognition dictionary generating unit 202 reads the target device (this is referred to as a music data storage device in this document). The music data is sequentially read out, and a voice recognition word (for example, a song name) for calling the music data is extracted from the meta information included therein, and associated with the target device. A dictionary is generated by storing in a predetermined area.

ここで音声認識辞書の生成要求は、例えば、CD/DVD読取り部108に音楽CDがセットされた状態で、オーディオ/ビデオ再生部102が制御の対象としてユーザーに選択され、あるいはその再生が開始されたときに、送信されるよう構成できる。また、携帯音楽プレイヤーなどの外部デバイスが外部デバイス接続インタフェース110に接続されたとき、あるいはその再生が開始されたときに、送信されるよう構成できる。この結果、一の音楽データ格納デバイス(例えばHDD120)に対する辞書生成要求がなされ音声認識辞書生成部202において音声辞書が生成されている最中に、別の音楽データ格納デバイス(携帯音楽プレイヤー)に対する辞書生成要求が送られ、生成要求が衝突するケースが生じる。   Here, the voice recognition dictionary generation request is made, for example, when the audio / video playback unit 102 is selected as a control target by the user in a state where a music CD is set in the CD / DVD reading unit 108, or playback thereof is started. Can be configured to be sent when In addition, it can be configured to be transmitted when an external device such as a portable music player is connected to the external device connection interface 110 or when reproduction is started. As a result, while a dictionary generation request for one music data storage device (for example, HDD 120) is made and a voice dictionary is generated in the voice recognition dictionary generation unit 202, a dictionary for another music data storage device (portable music player) is generated. There are cases where generation requests are sent and generation requests collide.

さらに、オーディオ/ビデオ再生部102以外の機能(例えば、テレビ/ラジオチューナー106やナビゲーション部108)がその制御対象として選択されている場合においても、CPUの空き時間などに一定間隔でHDD120内や外部デバイス内をスキャニングして辞書未生成の音楽データを検出し、その生成を行わせるよう構成することもできる。ここで複数のデバイスにおいて辞書未生成の音楽データが検出された場合、その辞書生成の優先順位に関し、音楽データ数の少ないデバイスを優先する方法、最後に選択されていたデバイスを優先する方法、およびHDD120内を優先する方法、の何れの方法を採用してもよい。何れにせよ音声認識辞書は各デバイス毎に生成され独立して管理されることになる。   Further, even when a function other than the audio / video playback unit 102 (for example, the TV / radio tuner 106 or the navigation unit 108) is selected as the control target, the internal or external HDD 120 or the outside at regular intervals in the CPU idle time, etc. It is also possible to scan the inside of the device, detect music data that has not been generated in the dictionary, and generate the data. Here, when music data in which a dictionary is not generated is detected in a plurality of devices, with respect to the priority of the dictionary generation, a method that prioritizes a device with a small number of music data, a method that prioritizes the last selected device, and Any method of giving priority to the inside of the HDD 120 may be adopted. In any case, the speech recognition dictionary is generated for each device and managed independently.

辞書生成進捗度測定部204は、特定の音楽データ格納デバイスに対する前記辞書生成要求がなされてからの進捗度を測定する。ここで進捗度とは、対象デバイスに格納されたすべての音楽データに対して音声認識辞書を完成させるに必要な時間に対する進捗の割合を指す。一実施例として、標準的な単位音楽データに掛かる平均処理時間と、対象のデバイスに格納された音楽データのデータ数から辞書生成予想時間を求め、辞書生成処理の開始からの経過時間と対比させることによって進捗度を算出することができる。また別の例としては、処理完了までの残り予想時間をその進捗度とすることもできる。   The dictionary generation progress measurement unit 204 measures the progress after the dictionary generation request is made to a specific music data storage device. Here, the degree of progress refers to the rate of progress relative to the time required to complete the speech recognition dictionary for all music data stored in the target device. As an example, the expected dictionary generation time is obtained from the average processing time required for standard unit music data and the number of music data stored in the target device, and is compared with the elapsed time from the start of the dictionary generation processing. As a result, the degree of progress can be calculated. As another example, the estimated remaining time until the completion of processing can be used as the progress.

優先デバイス決定部206は、異なる音楽データ格納デバイス間での音声認識辞書生成要求が競合した場合に、優先的に処理すべきデバイスを決定するものである。すなわち、優先デバイス決定部206は、一の音楽データ格納デバイス(例えばHDD120)の音楽データに対して音声認識辞書が生成されているときに、他の音楽データ格納デバイス(例えば携帯音楽プレイヤー)の音楽データに対する音声認識辞書の生成要求がなされた場合に、辞書生成進捗度測定部204で測定された進捗度を参照し、基準値と比較して優先デバイスを決定する。一実施例として、処理中のデバイスに対する辞書生成が必要総処理時間の30%以内の進捗度であれば、他の音楽データ格納デバイスの処理を優先するよう決定する。もっとも他のパラメータ、例えば音楽データ格納デバイスに格納されている音楽データの量または数を勘案し、そのデータ量または数が少なく、辞書生成に掛かる時間が短く済むと予想される場合には、そのデバイスを優先するよう決定することもできる。また、進捗の基準値を100%に設定することによって、生成要求が競合した場合には、常に後から要求が来たデバイスを優先するよう制御することもできる。   The priority device determination unit 206 determines a device to be preferentially processed when a voice recognition dictionary generation request conflicts between different music data storage devices. That is, the priority device determination unit 206, when a voice recognition dictionary is generated for music data of one music data storage device (for example, HDD 120), music of another music data storage device (for example, portable music player). When a voice recognition dictionary generation request for data is made, the progress degree measured by the dictionary generation progress degree measurement unit 204 is referred to and compared with a reference value to determine a priority device. As an example, if the dictionary generation for the device being processed is a progress within 30% of the required total processing time, it is determined to give priority to the processing of other music data storage devices. In consideration of the other parameters, for example, the amount or number of music data stored in the music data storage device, if the data amount or number is small and the time required for dictionary generation is expected to be short, You can also decide to prioritize devices. In addition, by setting the progress reference value to 100%, it is possible to control to always give priority to a device that has received a request when a generation request conflicts.

デバイス切換え部208は、前記優先デバイス決定部206の決定に基づいて、音声認識辞書の生成処理を行う対象デバイスを切換える。すなわち、優先デバイス決定部206において優先すべきデバイスが現在辞書生成中のデバイスと異なる場合には、辞書生成中のデバイスにおける処理を中断して、このデバイスを辞書生成要求の待ち行列に追加し、次いで優先されたデバイスにおける音楽データが音声認識辞書の生成対象となるように処理を切換える。   Based on the determination by the priority device determination unit 206, the device switching unit 208 switches the target device for performing the speech recognition dictionary generation process. That is, if the device to be prioritized in the priority device determination unit 206 is different from the device that is currently generating the dictionary, the processing in the device that is generating the dictionary is interrupted, and this device is added to the queue for generating a dictionary, Next, the processing is switched so that the music data in the prioritized device becomes the target for generating the speech recognition dictionary.

次に、本実施例に係るナビゲーション装置における音声認識辞書の生成処理について、図3に示すフローチャートを参照して説明する。なお説明に際しては、HDD120に格納されている音楽データに対する音声認識辞書の生成中に、外部デバイス接続インタフェース110に音楽データを格納した外部デバイスが接続され、それによってその外部デバイスの音楽データに対する音声認識辞書の生成要求がなされた場合の例を中心にする。   Next, speech recognition dictionary generation processing in the navigation device according to the present embodiment will be described with reference to the flowchart shown in FIG. In the description, during the generation of the voice recognition dictionary for the music data stored in the HDD 120, an external device storing the music data is connected to the external device connection interface 110, whereby the voice recognition for the music data of the external device is performed. An example of a case where a dictionary generation request is made will be mainly described.

本処理300は、制御部124の音声認識辞書生成部202に対する、音声認識辞書の生成要求により開始される。最初のステップで、対象デバイスに格納されている全音楽データに対する辞書生成予想時間が算出される(ステップ301)。次いで、既に他のデバイスに対する辞書生成処理が行われているか判断され(ステップ302)、辞書生成が行われていないと判断された場合は、処理はステップ307に移り、その辞書生成要求に係るデバイスの音楽データに対する音声認識辞書の生成処理が開始される。   This process 300 is started by a voice recognition dictionary generation request to the voice recognition dictionary generation unit 202 of the control unit 124. In the first step, the expected dictionary generation time for all music data stored in the target device is calculated (step 301). Next, it is determined whether dictionary generation processing has already been performed for another device (step 302). If it is determined that dictionary generation has not been performed, the processing moves to step 307, and the device related to the dictionary generation request The process of generating a speech recognition dictionary for the music data is started.

一方で、既に他のデバイスに対する辞書生成がなされていると判断された場合には、その競合を解消するためのステップ303〜306の処理が実施される。ここで最初に、システムからユーザーが現在選択しているデバイス、つまりナビゲーション装置においてアクティブになっている機能がどれであるかの情報が取得される(ステップ303)。そして、この辞書生成要求がなされているデバイスが、ユーザーが選択しているデバイスであるか否かが判断される(ステップ304)。ここで辞書生成要求がユーザーが選択しているデバイス以外のデバイスに対してなされている場合は、その生成をすぐに行う必要がないので、辞書生成要求に係るデバイスを辞書生成要求のキューに追加する(ステップ313)。   On the other hand, if it is determined that a dictionary has already been generated for another device, steps 303 to 306 for resolving the conflict are performed. Here, first, information is acquired from the system which device is currently selected by the user, that is, which function is active in the navigation device (step 303). Then, it is determined whether or not the device for which the dictionary generation request is made is the device selected by the user (step 304). If a dictionary generation request is made for a device other than the device selected by the user, it is not necessary to generate the dictionary immediately, so add the device related to the dictionary generation request to the dictionary generation request queue. (Step 313).

一方で、辞書生成要求がユーザーが選択しているデバイスに対してなされている場合は、処理はステップ305に移り、そこで他のデバイスに対し既に開始されている辞書生成の進捗状況を判断する。すなわち、その辞書生成の開始からの経過時間が既定値(例えば処理完了までの時間の30%)以内であるか判断され、そうである場合は、要求デバイスに対する処理の開始が遅れると判断して、現在進捗している外部デバイスの音楽データに対する辞書生成処理を中止し(ステップ306)、代わりに後から生成要求があったデバイスの音楽データに対する辞書生成を直ちに開始する(ステップ307)。ここで、中止の対象となったデバイスは、辞書生成要求のキューに追加される(ステップ313)。   On the other hand, if a dictionary generation request is made for the device selected by the user, the process proceeds to step 305 where the progress of dictionary generation already started for other devices is determined. That is, it is determined whether the elapsed time from the start of the dictionary generation is within a predetermined value (for example, 30% of the time until the process is completed). If so, it is determined that the start of the process for the requesting device is delayed. Then, the dictionary generation process for the music data of the external device that is currently progressing is stopped (step 306), and instead, the dictionary generation for the music data of the device that has been requested to generate is started immediately (step 307). Here, the device to be canceled is added to the dictionary generation request queue (step 313).

辞書生成要求に係るデバイスに格納されている音楽データに対する音声認識辞書の生成が開始されると、タイマーが起動して辞書生成時間の計測が開始され(ステップ308)、その経過はステップ305の判断において利用される。そのデバイスに含まれるすべての音楽データに対する辞書生成が完了したとき(ステップ309)、辞書生成時間の計測は終了され(ステップ310)、制御部124では音声認識辞書生成部202からの辞書生成完了の通知を取得する(ステップ311)。制御部124はこの通知を受けて、対象デバイスに対する音声認識による操作が可能になった旨の通知を情報表示部118を介してユーザーに通知する(ステップ312)。   When generation of a speech recognition dictionary for music data stored in the device related to the dictionary generation request is started, a timer is started and measurement of the dictionary generation time is started (step 308). Used in When dictionary generation for all music data included in the device is completed (step 309), the dictionary generation time measurement is terminated (step 310), and the control unit 124 completes dictionary generation from the speech recognition dictionary generation unit 202. A notification is acquired (step 311). Upon receiving this notification, the control unit 124 notifies the user of a notification that the operation by voice recognition for the target device is possible via the information display unit 118 (step 312).

そして、処理はステップ314に移って、辞書作成待ちのデバイスがあるか判断される。ステップ313が実行され辞書生成要求のキュー内に要求に係るデバイスが登録されている場合には、キューから最初のデバイスが取り出され(ステップ315)、当該デバイスに対する本処理300が新たに開始される。この対象デバイスには、先の処理で処理を中止したデバイスも含まれるので、そのような場合は残りの音楽データに対する処理を再開することになる。キュー内の登録デバイスが無くなるまで本処理は繰り返され、対象デバイスが無くなった時点で終了する。   Then, the process moves to step 314 to determine whether there is a device waiting for dictionary creation. When step 313 is executed and the device related to the request is registered in the dictionary generation request queue, the first device is taken out from the queue (step 315), and this processing 300 for the device is newly started. . This target device includes a device whose processing has been stopped in the previous processing. In such a case, processing for the remaining music data is resumed. This process is repeated until there are no registered devices in the queue, and the process ends when there are no more target devices.

図4は、従来構成に係る辞書生成要求プロセスと、本実施例に係る辞書生成要求プロセスにおける効果を検証するための比較グラフである。グラフは、内蔵HDDに格納された音楽データに対する音声認識辞書の生成処理が行われているときに、外部デバイスの音楽データに対する辞書生成要求がなされた場合の処理時間を比較している。同図(A)は従来構成に係るプロセスを示しており、内蔵HDDに対する辞書生成処理がHs点で開始され、R点において外部デバイスに対する処理要求がなされた場合を考える。この場合、その処理要求は一旦保留とされ、He点で内蔵HDDに対する処理が完了したときに、外部デバイスに対する処理が開始される(Es点)。そして、外部デバイスに対する処理が完了するEe点において、当該要求に係る外部デバイスの音楽データに対し、音声楽曲検索による楽曲選択の機能が利用可能になる。従って、その生成要求がなされてからその利用ができるまでの時間はt1となる。   FIG. 4 is a comparison graph for verifying the effects of the dictionary generation request process according to the conventional configuration and the dictionary generation request process according to the present embodiment. The graph compares the processing time when a dictionary generation request for music data of an external device is made when the process of generating a speech recognition dictionary for music data stored in the built-in HDD is performed. FIG. 5A shows a process according to the conventional configuration, and considers a case where dictionary generation processing for the internal HDD is started at the Hs point and a processing request is made for an external device at the R point. In this case, the processing request is temporarily put on hold, and when the processing for the internal HDD is completed at the He point, the processing for the external device is started (Es point). Then, at the point Ee at which the processing for the external device is completed, the music selection function by the audio music search can be used for the music data of the external device related to the request. Therefore, the time from when the generation request is made until it can be used is t1.

一方、同図(B)に示す本実施例におけるプロセスでは、内蔵HDDに対する辞書生成中にR点において外部デバイスに対する処理要求がなされた場合、その進捗度が既定値以内であれば内蔵HDDに対する処理が中止され、直ちに外部デバイスに対する処理が開始される(Es点)。そして、Es点で外部デバイスに対する処理が完了した後に、内蔵HDDに対する処理が再開されることになる。従って、外部デバイスに対する辞書生成要求がなされてからその利用ができるまでの時間はt2となる。その結果、従来構成に比べて本実施例に夜プロセスでは、外部デバイスにおける楽曲選択が可能になるまでの時間がt3時間短縮されることになる。   On the other hand, in the process in the present embodiment shown in FIG. 5B, if a processing request for an external device is made at point R during dictionary generation for the internal HDD, if the progress is within a predetermined value, the processing for the internal HDD is performed. Is stopped and processing for the external device is immediately started (Es point). Then, after the processing for the external device is completed at the point Es, the processing for the internal HDD is resumed. Therefore, the time from when the dictionary generation request is made to the external device until it can be used is t2. As a result, in the night process of the present embodiment, the time until the music selection in the external device becomes possible is shortened by t3 as compared with the conventional configuration.

以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope of the gist of the invention described in the claims. It can be changed.

100:ナビゲーション装置 102:AV再生部
104:テレビ/ラジオチューナー 106:ナビゲーション部
108:CD/DVD読取り部 110:外部デバイス接続インタフェース
112:入力部 114:音声入力部
116:音声出力 118:情報表示部
120:HDD 122:主記憶
124:制御部 200:音声コマンド解析部
202:音声認識辞書生成部 204:辞書生成進捗度測定部
206:優先デバイス決定部 208:デバイス切換え部
DESCRIPTION OF SYMBOLS 100: Navigation apparatus 102: AV reproduction part 104: Television / radio tuner 106: Navigation part 108: CD / DVD reading part 110: External device connection interface 112: Input part 114: Audio | voice input part 116: Audio | voice output 118: Information display part 120: HDD 122: main memory 124: control unit 200: voice command analysis unit 202: voice recognition dictionary generation unit 204: dictionary generation progress measurement unit 206: priority device determination unit 208: device switching unit

Claims (11)

音声による指示に基づいて楽曲選択を可能とするオーディオ再生手段と、
多数の音楽データを蓄積する音楽データ記憶手段と、
音楽データを蓄積した外部デバイスを接続して、その音楽データを前記オーディオ再生手段に読み出し可能とする外部デバイス接続手段と、
前記音楽データ記憶手段内の音楽データおよび前記外部デバイス内の音楽データから、前記楽曲選択のための音声認識辞書を生成する音声認識辞書生成手段と、
前記音声認識辞書生成手段における音楽データ格納デバイス単位での辞書生成進捗度を測定する辞書生成進捗度測定手段と、
一の音楽データ格納デバイスの音楽データに対して音声認識辞書が生成されているときに、他の音楽データ格納デバイスの音楽データに対する音声認識辞書の生成要求がなされた場合に、前記辞書生成進捗度測定手段による辞書生成進捗度に応じて、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定する優先デバイス決定手段と、
前記優先デバイス決定手段により決定された音楽データ格納デバイスを、その音楽データが優先的に前記音声認識辞書生成手段により処理されるようにするデバイス切換え手段と、
を有する電子装置。
An audio playback means that enables music selection based on voice instructions;
Music data storage means for storing a large number of music data;
An external device connection means for connecting an external device storing music data and enabling the music playback means to read the music data;
Voice recognition dictionary generating means for generating a voice recognition dictionary for music selection from music data in the music data storage means and music data in the external device;
Dictionary generation progress measuring means for measuring dictionary generation progress in units of music data storage devices in the voice recognition dictionary generating means;
When a voice recognition dictionary is generated for the music data of one music data storage device and the voice recognition dictionary is generated for the music data of another music data storage device, the dictionary generation progress degree Priority device determination means for determining a storage device for music data for preferentially generating a speech recognition dictionary according to the progress of dictionary generation by the measurement means;
Device switching means for causing the music data storage device determined by the priority device determining means to be processed preferentially by the voice recognition dictionary generating means;
An electronic device.
前記優先デバイス決定手段は、前記外部デバイス接続手段に音楽データを蓄積した外部デバイスが接続されたときに、前記他の音楽データ格納デバイスに対する音声認識辞書の生成要求がなされたと判断して、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するものである、請求項1に記載の電子装置。 The priority device determination means determines that a request for generating a speech recognition dictionary for the other music data storage device has been made when an external device that stores music data is connected to the external device connection means. The electronic apparatus according to claim 1, wherein a device for storing music data for generating a voice recognition dictionary is determined. 前記優先デバイス決定手段は、前記オーディオ再生手段による音楽データの再生対象として一の音楽データ格納デバイスが選択されたときに、その音楽データ格納デバイスに対する音声認識辞書の生成要求がなされたと判断して、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するものである、請求項1に記載の電子装置。 The priority device determination means determines that when a music data storage device is selected as a reproduction target of music data by the audio reproduction means, a request for generating a speech recognition dictionary for the music data storage device has been made, The electronic apparatus according to claim 1, wherein a storage device for music data for preferentially generating a speech recognition dictionary is determined. 前記優先デバイス決定手段は、優先的に音声認識辞書を生成するよう決定された以外の音楽データ格納デバイスを、前記音声認識辞書生成手段による辞書生成を要求する待ち行列に入れて、優先された音楽データ格納デバイスにおける処理が終了した後に、前記待ち行列に入れられたデバイスが順次辞書生成の対象となるようにする、請求項1から3の何れか1つに記載の電子装置。 The priority device determination means puts music data storage devices other than those determined to generate a speech recognition dictionary with priority into a queue for requesting dictionary generation by the speech recognition dictionary generation means, and gives priority to music. The electronic apparatus according to claim 1, wherein after the processing in the data storage device ends, the devices placed in the queue are sequentially subjected to dictionary generation. 前記辞書生成進捗度測定手段は、前記音声認識辞書生成手段による単位音楽データの平均処理時間に基づく、対象の音楽データ格納デバイスにおける音楽データの処理に必要な辞書生成予想時間と、辞書生成処理開始からの経過時間とからその進捗度を測定するものである、請求項1に記載の電子装置。 The dictionary generation progress measuring means is based on an average processing time of unit music data by the speech recognition dictionary generating means, and an expected dictionary generation time required for processing music data in the target music data storage device, and starting dictionary generation processing The electronic device according to claim 1, wherein the degree of progress is measured from an elapsed time from the time. 音声による指示に基づいて楽曲選択を可能とするオーディオ再生手段と、多数の音楽データを蓄積する音楽データ記憶手段と、音楽データを蓄積した外部デバイスを接続して、その音楽データを前記オーディオ再生手段に読み出し可能とする外部デバイス接続手段とを有するナビゲーション装置における音楽データの音声認識辞書生成方法であって、
前記音楽データ記憶手段内の音楽データおよび前記外部デバイス内の音楽データから、前記楽曲選択のための音声認識辞書を生成するステップと、
前記音声認識辞書の生成における音楽データ格納デバイス単位での辞書生成進捗度を測定するステップと、
一の音楽データ格納デバイスの音楽データに対して音声認識辞書が生成されているときに、他の音楽データ格納デバイスの音楽データに対する音声認識辞書の生成要求がなされた場合に、前記辞書生成進捗度に応じて、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するステップと、
前記決定された音楽データ格納デバイスを、その音楽データの音声認識辞書の生成が優先的になるように処理の対象デバイスを切換えるステップと、
を有する電子装置における音楽データの音声認識辞書生成方法。
An audio playback unit that enables music selection based on an instruction by voice, a music data storage unit that stores a large number of music data, and an external device that stores music data are connected to the audio playback unit. A speech recognition dictionary generation method for music data in a navigation device having external device connection means for enabling reading
Generating a voice recognition dictionary for music selection from music data in the music data storage means and music data in the external device;
Measuring the degree of dictionary generation progress in units of music data storage devices in generating the voice recognition dictionary;
When a voice recognition dictionary is generated for the music data of one music data storage device and the voice recognition dictionary is generated for the music data of another music data storage device, the dictionary generation progress degree And determining a music data storage device that preferentially generates a speech recognition dictionary;
Switching the determined music data storage device so that the generation of a voice recognition dictionary of the music data is prioritized;
A speech recognition dictionary generation method for music data in an electronic device having
前記優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するステップは、前記外部デバイス接続手段に音楽データを蓄積した外部デバイスが接続されたときに、前記他の音楽データ格納デバイスに対する音声認識辞書の生成要求がなされたと判断して、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するものである、請求項6に記載の電子装置における音楽データの音声認識辞書生成方法。 The step of determining a music data storage device that preferentially generates a voice recognition dictionary includes the step of determining a voice to the other music data storage device when an external device that stores music data is connected to the external device connection means. The method for generating a speech recognition dictionary for music data in an electronic device according to claim 6, wherein it is determined that a request for generating a recognition dictionary has been made, and a storage device for music data that preferentially generates a speech recognition dictionary is determined. . 前記優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するステップは、前記オーディオ再生手段による音楽データの再生対象として一の音楽データ格納デバイスが選択されたときに、その音楽データ格納デバイスに対する音声認識辞書の生成要求がなされたと判断して、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するものである、請求項6に記載の電子装置における音楽データの音声認識辞書生成方法。 Determining a storage device of the music data for generating the preferentially speech recognition dictionary, when one music data storage device for playback of the music data by the audio reproducing means is selected, the music data storage device 7. A music data speech recognition dictionary in an electronic apparatus according to claim 6, wherein a music data storage device that preferentially generates a voice recognition dictionary is determined by determining that a voice recognition dictionary generation request has been made. Generation method. 前記優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するステップは、優先的に音声認識辞書を生成するよう決定された以外の音楽データ格納デバイスを、前記音声認識辞書生成を要求する待ち行列に入れて、優先された音楽データ格納デバイスにおける処理が終了した後に、前記待ち行列に入れられたデバイスが順次辞書生成の対象となるようにする、請求項6から8の何れか1つに記載の電子装置における音楽データの音声認識辞書生成方法。 Determining a storage device of the music data for generating the preferentially speech recognition dictionary, preferentially the music data storage devices other than the determination is made to generate a speech recognition dictionary, request the generation of the voice recognition dictionary The queued device is sequentially set as a dictionary generation target after the processing in the prioritized music data storage device is completed. A method for generating a speech recognition dictionary of music data in the electronic device according to claim 1. 前記辞書生成進捗度を測定するステップは、前記音声認識辞書の生成に掛かる単位音楽データの平均処理時間に基づく、対象の音楽データ格納デバイスにおける音楽データの処理に必要な辞書生成予想時間と、辞書生成処理開始からの経過時間とからその進捗度を測定するものである、請求項6に記載の電子装置における音楽データの音声認識辞書生成方法。 The step of measuring the progress of dictionary generation includes the expected dictionary generation time required for processing music data in the target music data storage device based on the average processing time of unit music data required for generating the voice recognition dictionary, and the dictionary The method for generating a speech recognition dictionary for music data in an electronic device according to claim 6, wherein the progress is measured from the elapsed time from the start of the generation process. 音声による指示に基づいて楽曲選択を可能とするオーディオ再生手段と、
多数の音楽データを蓄積する音楽データ記憶手段と、音楽データを蓄積した外部デバイスを接続して、その音楽データを前記オーディオ再生手段に読み出し可能とする外部デバイス接続手段とを有するナビゲーション装置における音楽データの音声認識辞書生成プログラムであって、
前記音楽データ記憶手段内の音楽データおよび前記外部デバイス内の音楽データから、前記楽曲選択のための音声認識辞書を生成するステップと、
前記音声認識辞書の生成における音楽データ格納デバイス単位での辞書生成進捗度を測定するステップと、
一の音楽データ格納デバイスの音楽データに対して音声認識辞書が生成されているときに、他の音楽データ格納デバイスの音楽データに対する音声認識辞書の生成要求がなされた場合に、前記辞書生成進捗度に応じて、優先的に音声認識辞書を生成する音楽データの格納デバイスを決定するステップと、
前記決定された音楽データ格納デバイスを、その音楽データの音声認識辞書の生成が優先的になるように処理の対象デバイスを切換えるステップと、
を有し、電子装置に各ステップを実行させるための音楽データの音声認識辞書生成プログラム。
An audio playback means that enables music selection based on voice instructions;
Music data in a navigation apparatus comprising music data storage means for storing a large number of music data, and external device connection means for connecting an external device storing the music data so that the music data can be read out to the audio playback means. A speech recognition dictionary generation program of
Generating a voice recognition dictionary for music selection from music data in the music data storage means and music data in the external device;
Measuring the degree of dictionary generation progress in units of music data storage devices in generating the voice recognition dictionary;
When a voice recognition dictionary is generated for the music data of one music data storage device and the voice recognition dictionary is generated for the music data of another music data storage device, the dictionary generation progress degree And determining a music data storage device that preferentially generates a speech recognition dictionary;
Switching the determined music data storage device so that the generation of a voice recognition dictionary of the music data is prioritized;
A speech recognition dictionary generation program for music data for causing the electronic device to execute each step.
JP2010080168A 2010-03-31 2010-03-31 On-vehicle electronic device and voice data dictionary generation method for music data Active JP5361781B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010080168A JP5361781B2 (en) 2010-03-31 2010-03-31 On-vehicle electronic device and voice data dictionary generation method for music data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010080168A JP5361781B2 (en) 2010-03-31 2010-03-31 On-vehicle electronic device and voice data dictionary generation method for music data

Publications (2)

Publication Number Publication Date
JP2011215175A JP2011215175A (en) 2011-10-27
JP5361781B2 true JP5361781B2 (en) 2013-12-04

Family

ID=44945009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010080168A Active JP5361781B2 (en) 2010-03-31 2010-03-31 On-vehicle electronic device and voice data dictionary generation method for music data

Country Status (1)

Country Link
JP (1) JP5361781B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225684A (en) * 2015-08-19 2016-01-06 贺中义 A kind of method listening to transport information or navigation information when broadcast listening

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5500647B2 (en) * 2010-09-06 2014-05-21 アルパイン株式会社 Method and apparatus for generating dynamic speech recognition dictionary

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JPH1178136A (en) * 1997-09-16 1999-03-23 Ricoh Co Ltd Printer
JP4201869B2 (en) * 1998-02-24 2008-12-24 クラリオン株式会社 CONTROL DEVICE AND METHOD BY VOICE RECOGNITION AND RECORDING MEDIUM CONTAINING CONTROL PROGRAM BY VOICE RECOGNITION
JP2000305595A (en) * 1999-04-20 2000-11-02 Mitsubishi Electric Corp Speech recognition device
JP4703385B2 (en) * 2005-11-30 2011-06-15 中国電力株式会社 Automatic minutes creation system
JP2011095498A (en) * 2009-10-29 2011-05-12 Aisin Aw Co Ltd On-vehicle information processing device and on-vehicle information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225684A (en) * 2015-08-19 2016-01-06 贺中义 A kind of method listening to transport information or navigation information when broadcast listening
CN105225684B (en) * 2015-08-19 2018-02-09 上海创单电子科技有限公司 It is a kind of that transport information or the method for navigation information are listened in broadcast listening

Also Published As

Publication number Publication date
JP2011215175A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
KR101407192B1 (en) Mobile terminal for sound output control and sound output control method
JP2006195385A (en) Device and program for music reproduction
JP2008084381A (en) Program recording device and commercial detecting method
CN105611400B (en) Content processing apparatus and method for transmitting variable-size segments
JP5361781B2 (en) On-vehicle electronic device and voice data dictionary generation method for music data
CN101009613A (en) Information processing system, information processing method, information processor, program, and recording medium
US8315725B2 (en) Method and apparatus for controlling content reproduction, and computer product
JP5640275B2 (en) Content reproduction apparatus and method of operating content reproduction apparatus
WO2020240958A1 (en) Information processing device, information processing method, and program
JP2006285300A (en) Signal transfer device and signal transfer method
JP2004117176A (en) Navigation device
JP2006277855A (en) Recorder, recording method and on-vehicle audio system
US20130151544A1 (en) Information processing apparatus, information processing method, and progam
US20060004723A1 (en) Device, method, and computer product for reading tag data included in compressed data file
US20090182557A1 (en) Sound/voice processing apparatus, sound/voice processing method, and sound/voice processing program
JP5242856B1 (en) Music playback program and music playback system
JP4252925B2 (en) Information editing apparatus, method thereof, program thereof, recording medium recording the program, and editing apparatus
JP2007311020A (en) Device and method for playing, and onboard player
JPWO2006095847A1 (en) CONTENT RECORDING DEVICE, METHOD THEREOF, PROGRAM THEREOF, AND RECORDING MEDIUM CONTAINING THE PROGRAM
TWI393126B (en) Audio playing apparatus and method thereof
US20090136202A1 (en) Recording/playback device and method, program, and recording medium
JP2004145935A (en) Information output device, information output method, program for information output, and information recording medium
JP2008052843A (en) Lyrics display system in car-audio
JP2010009639A (en) Content playback device and content playback method
JP4804397B2 (en) DATA INFORMATION MANAGEMENT SYSTEM, COMPUTER PROGRAM USED FOR THE SYSTEM, AND DATA INFORMATION MANAGEMENT METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5361781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150