JP2002311986A - Navigator - Google Patents

Navigator

Info

Publication number
JP2002311986A
JP2002311986A JP2001118804A JP2001118804A JP2002311986A JP 2002311986 A JP2002311986 A JP 2002311986A JP 2001118804 A JP2001118804 A JP 2001118804A JP 2001118804 A JP2001118804 A JP 2001118804A JP 2002311986 A JP2002311986 A JP 2002311986A
Authority
JP
Japan
Prior art keywords
music
unit
map
melody
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001118804A
Other languages
Japanese (ja)
Inventor
Tomohisa Himeno
朋久 姫野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2001118804A priority Critical patent/JP2002311986A/en
Publication of JP2002311986A publication Critical patent/JP2002311986A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a navigator on which facilities, places, areas or the like on a map related to music are easily retrieved. SOLUTION: A melody recognition section 12 converts a melody inputted by a user to melody data based on the output signals from a microphone 10. A retrieval key generating section 14 simplifies the melody and generates prescribed inputted music retrieval keys that express the features of the melody based on the melody data. A music retrieval section 18 compares and collates the inputted music retrieval keys and recorded music retrieval keys stored in a retrieval key DB 16, decides the degree of similarity and retrieves the music corresponding to the melody inputted by the user. A map DB 20 stores a table which indicates the contents of the music related to the facilities, the points and the areas. A map retrieval section 22 retrieves the facilities, the points and the areas related to the music extracted by the section 18 referring to the table stored in the DB 20.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、地図上の地点、施
設、地域を指定し、これらの地点等に関連する各種のナ
ビゲーション処理を行うナビゲーション装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation device for designating points, facilities, and areas on a map and performing various navigation processes related to these points.

【0002】[0002]

【従来の技術】従来から、地図上の所定場所と音楽を関
連付けて各種処理を行う装置やシステムが提案されてい
る。例えば、特開平8−63946号公報には、地図上
の所定地点や所定地域等と音楽ソース(ラジオ受信機や
CDプレーヤ等)を関連付けておき、車両の現在位置に
応じて音楽ソースの種別を切り替えて音楽再生を行うシ
ステムが開示されている。
2. Description of the Related Art Conventionally, there have been proposed devices and systems for performing various processes by associating music with a predetermined place on a map. For example, Japanese Patent Application Laid-Open No. 8-63946 discloses that a music source (radio receiver, CD player, etc.) is associated with a predetermined point or a predetermined area on a map, and the type of the music source is determined according to the current position of the vehicle. A system for switching to play music has been disclosed.

【0003】また、特開平8−248953号公報に
は、地図上の所定位置または所定領域と音楽を関連付け
ておき、車両の現在位置が所定位置に接近し、あるいは
所定領域に進入した際に、それらの所定位置等に関連付
けられている音楽(例えば、その地に縁のある音楽等)
を自動的に再生する音楽再生装置が開示されている。
Japanese Patent Laid-Open Publication No. Hei 8-248953 discloses that music is associated with a predetermined position or a predetermined area on a map, and when the current position of the vehicle approaches the predetermined position or enters the predetermined area, Music associated with those predetermined positions (eg, music with a local edge)
Has been disclosed which automatically reproduces music.

【0004】これらの装置は、地図情報を用いたり車両
の現在位置を取得する必要があることから、実際には車
載用のナビゲーション装置と組み合わせて用いられるこ
とが多い。
[0004] Since these devices need to use map information or obtain the current position of a vehicle, they are often used in combination with an in-vehicle navigation device.

【0005】[0005]

【発明が解決しようとする課題】ところで、上述した従
来技術では、地図上の場所等を指定してその場所等に関
連する音楽を検索し、音楽再生を行うなどの処理が行わ
れているが、反対に、音楽の内容を指定してその音楽に
関連する地図上の地点、施設、地域等を検索することは
できなかった。
By the way, in the above-mentioned prior art, processing such as designating a location on a map, searching for music related to the location, and playing back music is performed. On the contrary, it is not possible to search for points, facilities, regions, etc. on a map related to the music by designating the content of the music.

【0006】本発明は、このような点に鑑みて創作され
たものであり、その目的は、音楽と関連付けられている
地図上の施設、地点、地域等を容易に検索することがで
きるナビゲーション装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and a purpose thereof is to provide a navigation device capable of easily searching for facilities, points, areas, and the like on a map associated with music. Is to provide.

【0007】[0007]

【課題を解決するための手段】上述した課題を解決する
ために、本発明のナビゲーション装置は、音楽情報が関
連付けられた施設、地点、地域の地図情報を地図情報格
納手段に格納している。そして、利用者が口ずさんだ音
楽をマイクロホンによって集音し、この集音された音楽
の内容を解析手段によって解析しており、解析によって
特定された音楽に関連する施設、地点、地域を、地図検
索手段によって地図情報格納手段に格納された地図情報
の中から検索し、検索された施設、地点、地域を用いて
ナビゲーション処理手段により所定のナビゲーション処
理を行っている。
In order to solve the above-mentioned problems, the navigation apparatus of the present invention stores map information of facilities, points, and areas associated with music information in a map information storage means. Then, the music that the user hums is collected by a microphone, and the content of the collected music is analyzed by an analysis means.A facility, a point, and an area related to the music identified by the analysis are searched for on a map. The means searches the map information stored in the map information storage means by means, and performs predetermined navigation processing by the navigation processing means using the searched facilities, points, and areas.

【0008】利用者が音楽を口ずさむと、この音楽の内
容が特定され、特定された音楽に関連する施設、地点、
地域が検索されるので、音楽と関連付けられている地図
上の施設等を容易に検索することができる。例えば、地
点として自宅位置を登録し、この自宅位置に利用者が自
分の好みを音楽を関連付けておけば、その音楽を口ずさ
むことにより自宅位置を検索することができる。また、
コンビニエンスストアに関連付けられている音楽を口ず
さむことにより、最寄りのコンビニエンスストアを検索
し、経路探索の目的地に設定するなどのナビゲーション
処理を行うこともできる。
[0008] When the user hums the music, the content of the music is specified, and facilities, points, and the like related to the specified music are specified.
Since the area is searched, it is possible to easily search for a facility on the map associated with the music. For example, if the home position is registered as a point and the user associates his or her favorite music with the home position, the user can search for the home position by humming the music. Also,
By humming the music associated with the convenience store, navigation processing such as searching for the nearest convenience store and setting the destination as a route search destination can also be performed.

【0009】上述した地図検索手段は、解析手段によっ
て特定された音楽と、施設、地点、地域のそれぞれに対
応する音楽との一致判定を行い、一致する施設、地点、
地域を抽出することが望ましい。一致するか否かの判定
という比較的簡単な処理によって、利用者が口ずさんだ
音楽と関連付けられた施設等を抽出することができるの
で、処理の簡略化が可能となる。
The above-described map search means determines whether the music specified by the analysis means matches the music corresponding to each of the facility, the point, and the area.
It is desirable to extract regions. A relatively simple process of judging whether or not they match each other can extract a facility or the like associated with the music hummed by the user, so that the process can be simplified.

【0010】また、複数の音楽のそれぞれに対応する先
頭部分と特徴部分を少なくとも含む再生データを格納す
る再生データ格納手段と、解析手段による解析結果を用
いて、利用者が口ずさんだ音楽に一致する可能性の高い
複数の音楽を抽出する音楽検索手段と、音楽検索手段に
よって抽出された複数の音楽のそれぞれに対応する再生
データに含まれる先頭部分と特徴部分を再生データ格納
手段から読み出して音楽再生を行う音楽再生手段と、音
楽再生手段による音楽再生の後に利用者によって選択さ
れたいずれかの音楽を用いて、地図情報格納手段に格納
されている地図情報の編集を行う編集手段とをさらに備
えておくことが望ましい。
[0010] The reproduction data storing means for storing the reproduction data including at least the leading part and the characteristic part corresponding to each of the plurality of music, and the result of analysis by the analysis means, which matches the music hummed by the user. Music search means for extracting a plurality of music pieces having a high possibility, and reading the head part and characteristic part included in the reproduction data corresponding to each of the plurality of music pieces extracted by the music search means from the reproduction data storage means to reproduce the music. And music editing means for editing the map information stored in the map information storage means using any music selected by the user after music playback by the music playback means. It is desirable to keep.

【0011】編集手段を備えることにより、施設、地
点、地域と音楽情報との関連付けの内容を自由にカスタ
マイズすることができる。また、編集処理を行う際に
は、利用者が所望の音楽を口ずさむだけで、この音楽に
一致する可能性の高い複数の音楽が抽出され、それぞれ
の音楽の先頭部分と特徴部分が再生されるので、この再
生音を聴取することにより所望の音楽を容易かつ確実に
選択することができる。
By providing the editing means, it is possible to freely customize the contents of the association between the facility, the point, the area and the music information. In addition, when performing the editing process, a user merely hums a desired music, a plurality of music having a high possibility of matching the music is extracted, and a head portion and a characteristic portion of each music are reproduced. Therefore, by listening to the reproduced sound, the desired music can be easily and reliably selected.

【0012】また上述した音楽再生手段は、複数の音楽
に対応する再生データの再生を行う際に、一の音楽の再
生終了後、次の音楽の再生開始までの間に所定の空白期
間を設けることが望ましい。これにより一の音楽と次の
音楽との区切りが明確になり、所望の音楽を容易かつ確
実に選択することができる。
The music reproducing means described above provides a predetermined blank period from the end of the reproduction of one music to the start of the reproduction of the next music when reproducing the reproduction data corresponding to a plurality of music. It is desirable. Thereby, the division between one music and the next music becomes clear, and a desired music can be selected easily and reliably.

【0013】[0013]

【発明の実施の形態】以下、本発明を適用した一実施形
態のナビゲーション装置について、図面を参照しながら
説明する。 〔第1の実施形態〕図1は、第1の実施形態のナビゲー
ション装置1の構成を示す図である。図1に示すナビゲ
ーション装置1は、マイクロホン10、旋律認識部1
2、検索キー作成部14、検索キーDB(データベー
ス)16、楽曲検索部18、地図DB20、地図検索部
22、楽曲DB26、ナビゲーション動作処理部28、
車両位置検出部30、表示部32、スピーカ33、操作
部34、DB編集部36、メモリカード38を含んで構
成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A navigation device according to an embodiment of the present invention will be described below with reference to the drawings. [First Embodiment] FIG. 1 is a diagram showing a configuration of a navigation device 1 according to a first embodiment. A navigation device 1 shown in FIG. 1 includes a microphone 10, a melody recognition unit 1
2, search key creation unit 14, search key DB (database) 16, music search unit 18, map DB 20, map search unit 22, music DB 26, navigation operation processing unit 28,
The vehicle includes a vehicle position detection unit 30, a display unit 32, a speaker 33, an operation unit 34, a DB editing unit 36, and a memory card 38.

【0014】マイクロホン10は、利用者により入力さ
れる音声を集音し、電気信号に変換する。旋律認識部1
2は、マイクロホン10から出力される電気信号に基づ
いて、利用者により入力された旋律(メロディ)をデジ
タルの旋律データに変換する。具体的には、旋律データ
は、マイクロホン10から出力される電気信号をデジタ
ルデータに変換した後に周知のフーリエ変換処理を行
い、周波数成分の時間変化、すなわち音程を抽出するこ
とにより得ることができる。この旋律データが「音楽の
内容」に対応している。
The microphone 10 collects voice input by a user and converts the voice into an electric signal. Melody recognition unit 1
2 converts the melody (melody) input by the user into digital melody data based on the electric signal output from the microphone 10. Specifically, the melody data can be obtained by performing a well-known Fourier transform process after converting an electric signal output from the microphone 10 into digital data, and extracting a time change of a frequency component, that is, a pitch. This melody data corresponds to "contents of music".

【0015】検索キー作成部14は、旋律認識部12か
ら出力される旋律データに基づいて、利用者により入力
された旋律を簡略化してその特徴を表現した所定の検索
キーを作成する。なお、以降の説明では、旋律認識部1
2から出力される旋律データに基づいて作成される検索
キーを「入力曲検索キー」と称することとする。
The search key creating unit 14 creates a predetermined search key that expresses the characteristics by simplifying the melody input by the user based on the melody data output from the melody recognition unit 12. In the following description, the melody recognition unit 1
The search key created based on the melody data output from Step 2 will be referred to as “input music search key”.

【0016】また、検索キー作成部14は、楽曲DB2
6に収録されている楽曲データを取得し、楽曲データに
含まれている旋律データに基づいて、この楽曲の主旋律
を簡略化して表現した所定の検索キーを作成する。な
お、以降の説明では、楽曲DB26に収録された楽曲デ
ータに基づいて作成される検索キーを「収録曲検索キ
ー」と称することとする。検索キー作成部14によって
行われる処理の詳細については後述する。
The search key creation unit 14 stores the music DB2
Then, based on the melody data contained in the music data, a predetermined search key that represents the main melody of the music in a simplified manner is created based on the melody data included in the music data. In the following description, a search key created based on the music data recorded in the music DB 26 will be referred to as a “recorded music search key”. Details of the processing performed by the search key creation unit 14 will be described later.

【0017】検索キーDB16は、検索キー作成部14
によって作成された収録曲検索キーをその楽曲に固有の
情報(例えば、楽曲名やアーティスト名)と関連付けて
格納する。楽曲検索部18は、検索キー作成部14によ
って作成される入力曲検索キーを旋律認識部12を介し
て取得し、この入力曲検索キーと検索キーDB16に格
納されている収録曲検索キーとを比較照合して類似度を
判定し、利用者によって入力された旋律に対応する楽曲
を検索する処理を行う。
The search key DB 16 stores the search key creation unit 14
Is stored in association with information unique to the song (eg, song name or artist name). The music search unit 18 acquires the input music search key created by the search key creation unit 14 via the melody recognition unit 12, and compares the input music search key with the recorded music search keys stored in the search key DB 16. A process of searching for music corresponding to the melody input by the user is performed by comparing and matching to determine the similarity.

【0018】地図DB20は、地図表示や経路探索等の
ナビゲーション処理に必要な所定の地図データを格納し
ている。また、地図DB20は、施設、地点、地域等に
関連付けられている楽曲の楽曲名等の情報(音楽情報)
を示すテーブルを格納している。具体的には、施設とし
てはコンビニエンスストアやガソリンスタンドなど種々
のものが考えられ、地点としては利用者の自宅位置など
が考えられ、地域としては、都道府県や市区町村と行っ
た行政区、あるいは「○○地方」といった複数の都道府
県からなる領域などが考えられる。なお、以下では、上
述した施設、地点、地域等、地図上において何らかの意
味を有する所定の場所を総称して「POI(Point Of I
nterest )」と呼ぶことにする。また、これらのPOI
に関連付けられた楽曲の内容を示すテーブルを「POI
/楽曲テーブル」と称することにする。POI/楽曲テ
ーブルの具体例については後述する。
The map DB 20 stores predetermined map data necessary for navigation processing such as map display and route search. In addition, the map DB 20 stores information (music information) such as music names of music pieces associated with facilities, points, regions, and the like.
Is stored. Specifically, various facilities such as convenience stores and gas stations can be considered as facilities, locations of users' homes and the like can be considered as points, and administrative districts with prefectural and municipalities, or as regions, or An area composed of a plurality of prefectures, such as “XX region”, can be considered. In the following, predetermined places having some meaning on a map, such as the above-mentioned facilities, points, areas, etc., are collectively referred to as “POI (Point Of I
nterest) ". Also, these POIs
The table showing the content of the music associated with
/ Music table ". A specific example of the POI / music table will be described later.

【0019】地図検索部22は、楽曲検索部18による
楽曲検索処理によって抽出された楽曲と関連付けられて
いるPOIを検索する。楽曲DB26は、複数の楽曲に
対応した楽曲データを楽曲名やアーティスト名等の情報
と関連付けて格納している。本実施形態における楽曲デ
ータは、少なくとも、その楽曲における主旋律に対応す
る旋律データを単独で読み出すことができるようになっ
ている。この主旋律を表す旋律データは、例えば、広く
普及しているMIDI(Musical Instrument Digital I
nterface)形式のデータが用いられる。また、楽曲を再
生するために必要な楽曲データとしては、Wave形式
等の非圧縮音声データ、MP3(MPEG1オーディオ
レイヤ3)形式等の圧縮音声データ、あるいは、MID
I形式等のデータなど種々の形態が考えられ、いずれの
形式を用いてもよい。
The map search unit 22 searches for a POI associated with the music extracted by the music search processing by the music search unit 18. The song DB 26 stores song data corresponding to a plurality of songs in association with information such as song names and artist names. In the music data of the present embodiment, at least the melody data corresponding to the main melody of the music can be read independently. The melody data representing the main melody is, for example, MIDI (Musical Instrument Digital I
nterface) format data is used. The music data necessary for reproducing the music includes uncompressed audio data such as Wave format, compressed audio data such as MP3 (MPEG1 audio layer 3) format, or MID.
Various forms such as data in the I format are conceivable, and any format may be used.

【0020】ナビゲーション動作処理部28は、地図表
示や経路探索等のナビゲーション処理を行う。また、本
実施形態のナビゲーション動作処理部28は、地図DB
20に格納されたPOI/楽曲テーブルに基づいて、P
OIとしての所定施設や地点に車両が接近した場合や、
POIとしての地域に車両が進入した場合に、そのPO
Iに関連付けられている楽曲を再生する処理を行う。具
体的には、ナビゲーション動作処理部28は、POIに
関連付けられている楽曲の楽曲データを楽曲DB26か
ら読み出し、これをアナログの音声信号に変換してスピ
ーカ33に出力する。
The navigation operation processing section 28 performs navigation processing such as map display and route search. Further, the navigation operation processing unit 28 of the present embodiment includes a map DB
20 based on the POI / music table stored in
When a vehicle approaches a predetermined facility or point as an OI,
When a vehicle enters a POI area, the PO
A process for reproducing the music associated with I is performed. Specifically, the navigation operation processing unit 28 reads out the music data of the music associated with the POI from the music DB 26, converts this into an analog audio signal, and outputs it to the speaker 33.

【0021】車両位置検出部30は、例えば、GPS受
信機、方位センサ、距離センサなどを備えており、所定
のタイミングで車両位置(経度、緯度)の検出を行い、
検出結果を出力する。表示部32は、ナビゲーション動
作処理部28から出力される画像データに基づいて、車
両位置周辺の地図画像などを表示する。
The vehicle position detector 30 includes, for example, a GPS receiver, a direction sensor, a distance sensor, and the like, and detects a vehicle position (longitude, latitude) at a predetermined timing.
Output the detection result. The display unit 32 displays a map image around the vehicle position based on the image data output from the navigation operation processing unit 28.

【0022】スピーカ33は、ナビゲーション動作処理
部28から出力される音声信号に基づいて、楽曲の再生
音や経路誘導時の交差点案内音声などを出力する。操作
部34は、上下左右の方向を指示するジョイスティック
やテンキーなど各種の操作キーを備えており、操作内容
に応じた信号をナビゲーション動作処理部28またはD
B編集部36に出力する。
The loudspeaker 33 outputs a reproduction sound of a music piece, an intersection guidance sound at the time of route guidance, and the like based on an audio signal output from the navigation operation processing section 28. The operation unit 34 includes various operation keys such as a joystick and a numeric keypad for instructing up, down, left, and right directions, and outputs a signal corresponding to an operation content to the navigation operation processing unit 28 or the D.
Output to the B editing unit 36.

【0023】DB編集部36は、地図DB20、楽曲D
B26のそれぞれに格納されているデータの内容を必要
に応じて編集する処理を行う。具体的には、DB編集部
36は、利用者により操作部34を用いて行われる操作
指示に対応して、地図DB20に格納されたPOI/楽
曲テーブルの内容の変更や、楽曲DB26に対する楽曲
データの追加や削除などの編集処理を行う。
The DB editor 36 stores the map DB 20, the music D
The content of the data stored in each of B26 is edited as needed. Specifically, the DB editing unit 36 changes the contents of the POI / song table stored in the map DB 20 and the song data for the song DB 26 in response to an operation instruction given by the user using the operation unit 34. Perform editing processing such as addition and deletion of.

【0024】メモリカード38は、書き換え可能な可搬
型の情報記憶媒体であり、DB編集部36が所定のDB
編集処理を行う際の元となるデータを格納する。このメ
モリカード38には、例えば、利用者が自宅等に設置さ
れたパーソナルコンピュータ等(図示せず)を用いてイ
ンターネット等に接続して所定のウェブサイト等から取
得した楽曲データが転送され格納される。そして、この
メモリカード38がナビゲーション装置1に設けられた
所定の接続スロット等(図示せず)に挿入され、メモリ
カード38に格納されたデータがDB編集部36によっ
て読み出されて、所定のDB編集処理が行われる。
The memory card 38 is a rewritable portable information storage medium.
Stores data that is the basis for performing editing processing. In the memory card 38, for example, music data obtained from a predetermined website or the like by a user connecting to the Internet or the like using a personal computer or the like (not shown) installed at home or the like is transferred and stored. You. Then, the memory card 38 is inserted into a predetermined connection slot or the like (not shown) provided in the navigation device 1, and the data stored in the memory card 38 is read out by the DB editing unit 36, and the data is stored in the predetermined DB. Editing processing is performed.

【0025】次に、検索キー作成部14によって行われ
る処理の詳細について説明する。図2は、検索キー(入
力曲検索キー、収録曲検索キー)を作成する方法を示す
図である。図2(A)は、旋律データの一例を示してお
り、横軸が時間、縦軸が音程にそれぞれ対応している。
また、音程の最小単位は「半音」となっている。このよ
うな旋律データが入力されると、検索キー作成部14
は、旋律データの頂点を抽出する。具体的には、図2
(B)において(1)〜(5)で示されている位置のよ
うに、旋律データが上に凸となる位置、または下に凸に
なる位置が頂点として抽出される。
Next, details of the processing performed by the search key creation unit 14 will be described. FIG. 2 is a diagram showing a method for creating a search key (input music search key, recorded music search key). FIG. 2A shows an example of the melody data, in which the horizontal axis corresponds to time and the vertical axis corresponds to pitch.
The minimum unit of the pitch is "semitone". When such melody data is input, the search key creation unit 14
Extracts the vertices of the melody data. Specifically, FIG.
In (B), a position where the melody data is convex upward or a position where the melody data is convex downward, such as the positions indicated by (1) to (5), is extracted as a vertex.

【0026】次に、検索キー作成部14は、前の頂点と
の間で所定値(例えば半音)より大きい音程の変化があ
る頂点のみを代表点として抽出する。具体的には、図2
(B)に示すように、頂点(2)と頂点(3)との音程
変化は半音のみであり、ここでは頂点(3)が省略され
る。その結果、頂点(1)と、直前の頂点との音程変化
が半音より大きい頂点(2)、頂点(4)、頂点(5)
の4つが代表点として抽出される。
Next, the search key creation unit 14 extracts only vertices having a pitch change larger than a predetermined value (for example, a semitone) from the previous vertex as a representative point. Specifically, FIG.
As shown in (B), the pitch change between vertex (2) and vertex (3) is only a semitone, and vertex (3) is omitted here. As a result, the vertices (2), (4), and (5) whose pitch changes between the vertex (1) and the immediately preceding vertex are larger than a semitone
Are extracted as representative points.

【0027】代表点が抽出されると、検索キー作成部1
4は、各代表点間の音程変化の程度に応じて、図2
(C)に示すように、音程変化を上下4つの分木データ
によって表現することにより、検索キーを作成する。こ
の分木データは、代表点間の音程変化の程度を所定のし
きい値に基づいて判定し、「大きく上がる」、「上が
る」、「下がる」、「大きく下がる」という4パターン
に分類して表現しているものである。例えば、2.5音
より大きい音程の増減がある場合には「大きく上がる」
または「大きく下がる」と判断し、2.5音以下の音程
の増減がある場合には「上がる」または「下がる」と判
定される。このような分木データによって、旋律の音程
変化が簡略化されてその特徴が表現される。
When the representative points are extracted, the search key creation unit 1
FIG. 4 shows a graph of FIG. 2 according to the degree of pitch change between representative points.
As shown in (C), a search key is created by expressing a change in pitch by four pieces of upper and lower branch data. The split tree data determines the degree of the pitch change between the representative points based on a predetermined threshold value, and classifies the data into four patterns of “significantly rise”, “increase”, “decrease”, and “decline significantly” It is what it is expressing. For example, if there is an increase or decrease in the pitch greater than 2.5 notes, "increase greatly"
Alternatively, it is determined that the pitch is greatly lowered, and if there is an increase or decrease in the pitch of 2.5 or less, it is determined that the pitch is raised or lowered. With such a piece of tree data, the pitch change of the melody is simplified and its characteristics are expressed.

【0028】次に、POI/楽曲テーブルの具体的な内
容について説明する。図3は、POI/楽曲テーブルの
具体例を示す図である。例えば、POIのひとつである
「施設」に着目すると、「コンビニ(コンビニエンスス
トア)A」には、コンビニAのCM(コマーシャル)に
用いられている楽曲である「コンビニAのCMソング」
が関連付けられている。同様に「コンビニB」には、楽
曲として「コンビニBのCMソング」が関連付けられて
いる。また、施設の他の例として、○○大学には、この
○○大学の校歌が関連付けられている。
Next, the specific contents of the POI / music table will be described. FIG. 3 is a diagram showing a specific example of the POI / music table. For example, focusing on “facility” which is one of POIs, “convenience store (convenience store) A” includes “CM song of convenience store A” which is a song used for a commercial (commercial) of convenience store A.
Is associated with. Similarly, “Convenience store B CM song” is associated with “Convenience store B” as a musical piece. As another example of the facility, XX University is associated with the school song of XX University.

【0029】また、他のPOIである「地点」に着目す
ると、利用者の「自宅位置」には、利用者のお気に入り
の楽曲である「お気に入りソングa」が関連付けられて
いる。同様に、利用者の「友人宅の位置」には、利用者
のお気に入りの楽曲である「お気に入りソングb」が関
連付けられている。
Focusing on another POI "point", the user's "home position" is associated with the user's favorite song "favorite song a". Similarly, “favorite song b”, which is a favorite song of the user, is associated with the “position of friend's house” of the user.

【0030】また、他のPOIである「地域」に着目す
ると、地域区分の1つである「東北地方」には、東北地
方に縁のある楽曲である「ご当地ソングc」が関連付け
られており、「関東地方」には、関東地方に縁のある楽
曲である「ご当地ソングd」が関連付けられている。同
様に、地域区分の1つである「福島県」には、福島県に
縁のある楽曲である「ご当地ソングe」が関連付けられ
ており、「東京都」には、東京都に縁のある楽曲である
「ご当地ソングf」が関連付けられている。
Focusing on the other POI “region”, one of the regional divisions “Tohoku region” is associated with the “local song c” which is a tune related to the Tohoku region. In addition, the “Kanto region” is associated with the “local song d”, which is a song having a connection with the Kanto region. Similarly, “Fukushima Prefecture”, which is one of the regional divisions, is associated with “Local Song e”, which is a song related to Fukushima Prefecture, and “Tokyo” is associated with “Tokyo”. A certain song “local song f” is associated with the song.

【0031】上述した地図DB20が地図情報格納手段
に、旋律認識部12、検索キー作成部14、検索キーD
B16が解析手段に、楽曲検索部18、地図検索部22
が地図検索手段に、ナビゲーション動作処理部28がナ
ビゲーション処理手段にそれぞれ対応している。
The above-mentioned map DB 20 is used as a melody recognition unit 12, a search key creation unit 14, a search key D
B16 is the analysis means, the music search section 18, the map search section 22
Corresponds to the map search means, and the navigation operation processing unit 28 corresponds to the navigation processing means.

【0032】本実施形態のナビゲーション装置1はこの
ような構成を有しており、次にその動作について説明す
る。図4は、音声入力された旋律に対応する楽曲を特定
し、この楽曲に関連付けられているPOIを検索する際
のナビゲーション装置1の動作手順を示す流れ図であ
る。
The navigation device 1 of the present embodiment has such a configuration, and its operation will be described next. FIG. 4 is a flowchart showing an operation procedure of the navigation device 1 when a music corresponding to the melody input by voice is specified and a POI associated with the music is searched.

【0033】マイクロホン10に対して旋律が音声入力
されると(ステップ100)、旋律認識部12は、入力
された旋律を所定の旋律データに変換し(ステップ10
1)、旋律データに対して所定の処理を行って入力曲検
索キーを作成する(ステップ102)。
When a melody is input to the microphone 10 by voice (step 100), the melody recognition unit 12 converts the input melody into predetermined melody data (step 10).
1) A predetermined process is performed on the melody data to create an input music search key (step 102).

【0034】入力曲検索キーが作成されると、楽曲検索
部18は、この入力曲検索キーと検索キーDB16に格
納されている収録曲検索キーとを比較し、入力曲検索キ
ーと一致している収録曲検索キーを含む楽曲を抽出する
(ステップ103)。ここでは、入力曲検索キーと収録
曲検索キーとの類似率が判定され、所定値(例えば80
%)以上の類似率が得られた楽曲が「旋律に一致してい
る楽曲」であると判断される。
When the input music search key is created, the music search unit 18 compares the input music search key with the recorded music search keys stored in the search key DB 16 and matches the input music search key. A music piece including a recorded music search key is extracted (step 103). Here, the similarity between the input music search key and the recorded music search key is determined, and a predetermined value (for example, 80
%) Is determined to be a “tune that matches the melody”.

【0035】一または複数の楽曲が抽出されると、地図
検索部22は、抽出された楽曲に関連付けられているP
OIを地図DB20に格納されたPOI/楽曲テーブル
に基づいて検索する(ステップ104)。楽曲に関連付
けられたPOIの検索結果が得られると、ナビゲーショ
ン動作処理部28は、この検索結果を表示部32に表示
する(ステップ105)。具体的には、ナビゲーション
動作処理部28は、検索結果として得られた複数のPO
Iをリストにして表示したり、POIに対応する施設等
を地図上に強調表示するなどの処理を行う。
When one or a plurality of music pieces are extracted, the map search unit 22 outputs the P associated with the extracted music pieces.
An OI is searched based on the POI / song table stored in the map DB 20 (step 104). When the search result of the POI associated with the music is obtained, the navigation operation processing unit 28 displays the search result on the display unit 32 (Step 105). Specifically, the navigation operation processing unit 28 outputs a plurality of POs obtained as a search result.
Processing such as displaying I as a list or highlighting facilities and the like corresponding to the POI on a map is performed.

【0036】次に、ナビゲーション動作処理部28は、
利用者によりいずれかのPOIが選択されたか否かを判
定する(ステップ106)。いずれのPOIも選択され
ない間は、ステップ106の判定が繰り返される。一の
POIが選択された場合には、ステップ106で肯定判
断が行われ、次にナビゲーション動作処理部28は、こ
の選択されたPOIを用いた各種処理の実行が利用者に
より指示されたか否かを判定する(ステップ107)。
POIを用いた各種処理とは、例えば、POIに対応す
る地点等を目的地に設定した経路探索処理、POIに車
両が接近(あるいは進入)した場合における楽曲の再生
処理などが考えられる。各種処理の実行が指示されない
間は、ステップ107での判定処理が繰り返される。
Next, the navigation operation processing unit 28
It is determined whether any POI has been selected by the user (step 106). As long as no POI is selected, the determination in step 106 is repeated. When one POI is selected, an affirmative determination is made in step 106, and then the navigation operation processing unit 28 determines whether or not the user has instructed execution of various processes using the selected POI. Is determined (step 107).
The various processes using the POI include, for example, a route search process in which a point or the like corresponding to the POI is set as a destination, and a music reproduction process when a vehicle approaches (or enters) the POI. The determination process in step 107 is repeated while execution of various processes is not instructed.

【0037】各種処理の実行が指示されると、ステップ
107で肯定判断が行われ、ナビゲーション動作処理部
28は、与えられた指示に対応する所定のナビゲーショ
ン処理を行う(ステップ108)。このように、第1の
実施形態のナビゲーション装置1は、利用者が楽曲に含
まれる旋律を口ずさむ(音声入力する)と、この旋律に
対応する楽曲が特定されて、この楽曲に関連付けられて
いるPOI(施設、地点、地域)が検索されるので、音
楽と関連付けられている地図上の施設等を容易に検索す
ることができる。
When execution of various processes is instructed, an affirmative determination is made in step 107, and the navigation operation processing unit 28 performs a predetermined navigation process corresponding to the given instruction (step 108). As described above, in the navigation device 1 according to the first embodiment, when the user hums the melody included in the tune (inputs voice), the tune corresponding to the melody is identified and associated with the tune. Since the POI (facility, point, area) is searched, it is possible to easily search for a facility on a map associated with music.

【0038】〔第2の実施形態〕図5は、第2の実施形
態のナビゲーション装置1Aの構成を示す図である。図
5に示すナビゲーション装置1Aは、基本的には上述し
た第1の実施形態のナビゲーション装置1と同様の構成
を有しており、試聴音作成部40および試聴音再生部4
2が追加された点が異なっている。以下では、主にこれ
らの相違点に着目して説明を行う。
[Second Embodiment] FIG. 5 is a diagram showing a configuration of a navigation device 1A according to a second embodiment. The navigation device 1A shown in FIG. 5 has basically the same configuration as the navigation device 1 of the above-described first embodiment, and includes a sample sound creation unit 40 and a sample sound reproduction unit 4.
2 is added. In the following, description will be made mainly focusing on these differences.

【0039】試聴音作成部40は、利用者により音声入
力された旋律に対応して楽曲検索部18によって複数の
楽曲が抽出された際に、複数の楽曲を試聴するための試
聴用データを楽曲DB26に格納された楽曲データを用
いて作成する。DB編集部36は、試聴音作成部40に
よって作成された試聴用データに基づいて再生される試
聴音を聴取した利用者により、一の楽曲を選択する操作
指示がなされた場合に、この楽曲を用いて地図DB20
に格納されているPOI/楽曲テーブルの内容を編集す
る処理を行う。
When a plurality of music pieces are extracted by the music search section 18 corresponding to the melody input by the user, the sample sound creation section 40 converts the sample data for previewing the plurality of music pieces into music. It is created using the music data stored in the DB 26. When the user who has listened to the sample sound reproduced based on the sample data created by the sample sound creation unit 40 gives an operation instruction to select one piece of music, the DB editing unit 36 reads this piece of music. Map DB20 using
Is performed to edit the contents of the POI / song table stored in.

【0040】試聴音再生部42は、試聴音作成部40に
よって作成された試聴用データを再生し、アナログの音
声信号をスピーカ33に出力する。上述した楽曲DB2
6が再生データ格納手段に、楽曲検索部18が音楽検索
手段に、スピーカ33、試聴音作成部40、試聴音再生
部42が音楽再生手段に、DB編集部36が編集手段に
それぞれ対応している。
The sample sound reproducing section 42 reproduces the sample data created by the sample sound creating section 40 and outputs an analog audio signal to the speaker 33. Music DB2 described above
6 corresponds to the playback data storage unit, the music search unit 18 corresponds to the music search unit, the speaker 33, the sample sound creation unit 40, the sample sound playback unit 42 corresponds to the music playback unit, and the DB editing unit 36 corresponds to the editing unit. I have.

【0041】第2の実施形態のナビゲーション装置1A
はこのような構成を有しており、次にその動作を説明す
る。図6は、複数の楽曲についてその概略内容を試聴す
るための試聴用データを作成する際のナビゲーション装
置1Aの動作手順を示す流れ図である。また、図7は、
試聴用データの作成手順を概略的に示す図である。
The navigation device 1A of the second embodiment
Has such a configuration, and its operation will be described next. FIG. 6 is a flowchart showing an operation procedure of the navigation device 1A when creating preview data for previewing the outline contents of a plurality of music pieces. Also, FIG.
It is a figure which shows the preparation procedure of the data for trial listening schematically.

【0042】利用者により音声入力された旋律に基づい
て楽曲検索部18により楽曲検索処理が行われ、複数の
楽曲が抽出されると、試聴音作成部40は、楽曲検索部
18による楽曲検索結果を取得する(ステップ20
0)。次に、試聴音作成部40は、楽曲検索結果に含ま
れる一の楽曲に着目し、この楽曲に対応する楽曲データ
およびフレーズ区切りデータを読み出す(ステップ20
1)。
When a plurality of songs are extracted by the song search unit 18 based on the melody uttered by the user and a plurality of songs are extracted, the sample sound creation unit 40 determines the result of the song search by the song search unit 18. (Step 20)
0). Next, the sample sound creation unit 40 pays attention to one song included in the song search result, and reads song data and phrase delimiter data corresponding to the song (step 20).
1).

【0043】図7(A)に示すように楽曲DB26に
は、複数の楽曲に対応して、複数の楽曲データと、各楽
曲に含まれている複数のフレーズの区切り位置を示す所
定のフレーズ区切りデータが格納されている。具体的に
は、上述したフレーズとは、楽曲の前奏部分、歌い出し
部分、特徴部分、間奏部分など、一の楽曲を構成する所
定単位の構成要素をいう。例えば、図7(A)に示す例
では、一の楽曲がA、A′、B、Aという4つのフレー
ズから構成されている。なお、以降の説明では、楽曲の
前奏部分あるいは歌い出し部分を「サワリ」と称し、楽
曲の特徴部分を「サビ」と称して説明を行う。図7
(A)に示す例では、フレーズAが「サワリ」に対応
し、フレーズBが「サビ」に対応しているものとする。
なお、楽曲によっては、特徴部分となりうるフレーズが
複数存在する場合もあり、その場合には、サビに対応す
るフレーズを複数設定してもよい。
As shown in FIG. 7A, in the music DB 26, a plurality of music data and a predetermined phrase delimiter indicating a delimiter position of a plurality of phrases included in each music are stored in correspondence with the plurality of music. Data is stored. Specifically, the above-mentioned phrase refers to a component of a predetermined unit that constitutes one piece of music, such as a prelude portion, a singing portion, a characteristic portion, and an interlude portion of the song. For example, in the example shown in FIG. 7A, one piece of music is composed of four phrases A, A ', B, and A. In the following description, the preamble or sing-out part of the music will be referred to as "sawwari", and the characteristic part of the music will be referred to as "chorus". FIG.
In the example shown in (A), it is assumed that the phrase A corresponds to "saw" and the phrase B corresponds to "rust".
Note that, depending on the music, there may be a plurality of phrases that can be a characteristic portion. In such a case, a plurality of phrases corresponding to chorus may be set.

【0044】楽曲データおよびフレーズ区切りデータを
読み出すと、試聴音作成部40は、これらのデータを用
いて、図7(B)に示すように楽曲のサワリおよびサビ
に対応する部分的な楽曲データを所定時間分(例えば1
0秒間分)だけ抽出する(ステップ202)。
When the music data and the phrase delimiter data are read, the preview sound creation unit 40 uses these data to convert the partial music data corresponding to the sourry and rust of the music as shown in FIG. For a predetermined time (for example, 1
(For 0 seconds) (step 202).

【0045】次に試聴音作成部40は、図7(C)に示
すように、ステップ202において抽出した部分的な楽
曲データを連結する(ステップ203)。なお、以降の
説明では、サワリおよびサビの部分に対応して抽出され
る部分的な楽曲データを「フレーズデータ」と称するこ
ととする。
Next, as shown in FIG. 7 (C), the preview sound creation unit 40 connects the partial music data extracted in step 202 (step 203). In the following description, the partial music data extracted corresponding to the soli and rust portions will be referred to as “phrase data”.

【0046】その後、試聴音作成部40は、まだ処理対
象となっていない楽曲(未処理の楽曲)が存在するか否
かを判定し(ステップ204)、存在する場合には肯定
判断を行い、上述したステップ201に戻り、新たな一
の楽曲に着目してステップ201以降の処理を繰り返
す。
Thereafter, the preview sound creation section 40 determines whether or not there is any music that has not yet been processed (unprocessed music) (step 204). Returning to step 201 described above, the processing from step 201 onward is repeated focusing on a new song.

【0047】また、未処理の楽曲が存在しない場合に
は、上述したステップ204で否定判断が行われ、試聴
音作成部40は、複数の楽曲のそれぞれに対応して抽出
された各フレーズデータを用いて、所定の試聴用データ
を作成する(ステップ205)。
If there is no unprocessed music, a negative judgment is made in step 204 described above, and the trial sound creation unit 40 extracts each phrase data extracted corresponding to each of the plurality of music. Then, predetermined trial listening data is created (step 205).

【0048】図8は、試聴用データのデータ構造を示す
図である。図8に示す試聴用データにおいて、「曲数」
は、この試聴用データに含まれている楽曲の数を示して
おり、「1フレーズのサンプル数」は、1フレーズ分の
楽曲データ(フレーズデータ)に含まれるサンプル点の
数を示している。以下、各楽曲毎に、抽出されたフレー
ズの数を示す「フレーズ数」と、各フレーズを再生する
ために必要なフレーズデータとがまとめられて、順番に
格納されている。例えば、1曲目の楽曲については、2
つのフレーズデータが格納されており、2曲目の楽曲に
ついては、特徴部分となるフレーズが2つ存在するため
に、3つのフレーズデータが格納されている。
FIG. 8 is a diagram showing the data structure of the trial listening data. In the trial listening data shown in FIG.
Indicates the number of music pieces included in the trial data, and “the number of samples per phrase” indicates the number of sample points included in music data (phrase data) for one phrase. Hereinafter, the “number of phrases” indicating the number of extracted phrases and the phrase data necessary to reproduce each phrase are grouped and stored in order for each song. For example, for the first song, 2
One phrase data is stored. For the second music, three phrase data are stored because there are two characteristic phrases.

【0049】次に、試聴用データに基づいて複数の楽曲
のサワリ部分およびサビ部分を再生する際のナビゲーシ
ョン装置1Aの動作手順について説明する。図9は、複
数の楽曲のサワリ部分およびサビ部分を再生する際のナ
ビゲーション装置1Aの動作手順を示す流れ図である。
Next, an operation procedure of the navigation device 1A when reproducing the sourry portion and the chorus portion of a plurality of music pieces based on the trial listening data will be described. FIG. 9 is a flowchart showing the operation procedure of the navigation device 1A when reproducing the sourry portion and the chorus portion of a plurality of music pieces.

【0050】試聴音再生部42は、試聴音作成部40に
よって作成された試聴用データを取得する(ステップ3
00)。次に試聴音再生部42は、試聴用データに格納
された複数の楽曲を格納順に再生する処理を開始する。
具体的には、まず試聴音再生部42は、一の楽曲に着目
し、この楽曲に対応して格納されている複数のフレーズ
データを読み出し、フレーズ毎にそのフレーズの先頭部
分にフェードイン処理、フレーズの終了部分にフェード
アウト処理を行いながら、複数のフレーズを再生する
(ステップ301)。なお、「フェードイン処理」とは
所定の音量となるまで徐々に音量を大きくする処理をい
い、「フェードアウト処理」とは、ほぼ無音状態となる
まで徐々に音量を小さくする処理をいうものとする。
The sample sound reproducing section 42 obtains the sample data created by the sample sound creating section 40 (step 3).
00). Next, the sample sound reproducing unit 42 starts a process of reproducing a plurality of songs stored in the sample data in the order of storage.
Specifically, first, the audition sound reproducing unit 42 pays attention to one song, reads a plurality of phrase data stored corresponding to the song, and performs a fade-in process at the beginning of the phrase for each phrase, A plurality of phrases are reproduced while performing fade-out processing at the end of the phrase (step 301). The “fade-in process” refers to a process of gradually increasing the volume until a predetermined volume is reached, and the “fade-out process” refers to a process of gradually decreasing the volume until the volume becomes almost silent. .

【0051】また、DB編集部36は、操作部34から
出力される信号に基づいて、現在再生中の楽曲を選択す
る旨の指示が利用者により行われたか否かを判定する
(ステップ302)。選択する旨の指示がなされない場
合には、ステップ302で否定判断が行われ、次に試聴
音再生部42は、一の楽曲分(1曲分)の試聴音の再生
が終了したか否かを判定する(ステップ303)。1曲
分の再生が終了していない場合には、ステップ303で
否定判断が行われ、この場合には上述したステップ30
1に戻り、フレーズの再生処理およびそれ以降の処理が
継続される。
Further, the DB editing unit 36 determines whether or not an instruction to select the currently reproduced music has been given by the user based on the signal output from the operation unit 34 (step 302). . If no instruction to select is made, a negative determination is made in step 302, and then the sample sound reproduction unit 42 determines whether reproduction of the sample sound for one music piece (one music piece) has been completed. Is determined (step 303). If the reproduction of one song has not been completed, a negative determination is made in step 303, and in this case, the above-described step 30 is performed.
Returning to step 1, the phrase reproduction process and subsequent processes are continued.

【0052】また、1曲分の試聴音の再生が終了した場
合には、ステップ303で肯定判断が行われ、試聴音再
生部42は、次の楽曲が存在するか否かを判定する(ス
テップ304)。次の楽曲が存在する場合には、ステッ
プ304で肯定判断が行われ、試聴音再生部42は、前
の楽曲の再生終了時と次の楽曲の再生開始時との間に所
定の空白期間Trを挿入し(ステップ305)、その
後、上述したステップ301に戻り、次の楽曲の試聴音
の再生処理およびそれ以降の処理を繰り返す。
When the reproduction of the sample sound for one song has been completed, an affirmative judgment is made in step 303, and the sample sound reproducing unit 42 judges whether or not the next song exists (step S303). 304). If the next song is present, an affirmative determination is made in step 304, and the preview sound reproducing unit 42 determines that a predetermined blank period Tr between the end of the reproduction of the previous song and the start of the reproduction of the next song. Is inserted (step 305), and thereafter, the process returns to the above-described step 301, and the reproduction process of the preview sound of the next music and the subsequent processes are repeated.

【0053】また、一の楽曲に対応する試聴音の再生中
に、その楽曲を選択する旨の操作指示がなされた場合に
は、上述したステップ302で肯定判断が行われ、DB
編集部36は、現在何曲目の楽曲に対応する試聴音を再
生中であるかを試聴音再生部42から取得し、これを楽
曲検索部18から取得した楽曲検索結果を照合して、利
用者により選択された楽曲を特定する(ステップ30
6)。
If an operation instruction to select the music is given during the reproduction of the sample sound corresponding to one music, an affirmative determination is made in step 302 described above and the DB is determined.
The editing unit 36 obtains from the sample sound playback unit 42 the number of the song currently being played, and checks the music search result obtained from the music search unit 18, and (Step 30)
6).

【0054】その後、DB編集部36は、特定された楽
曲を用いて、利用者の操作指示に応じて地図DB20に
格納されているPOI/楽曲テーブルの内容を編集する
処理を行う(ステップ307)。具体的には、特定され
た楽曲を利用者に指示されたPOIと関連付ける処理な
どが行われる。
Thereafter, the DB editor 36 edits the contents of the POI / song table stored in the map DB 20 according to the user's operation instruction using the specified song (step 307). . Specifically, a process of associating the specified music with the POI specified by the user is performed.

【0055】図10は、複数の楽曲の先頭部分および特
徴部分を再生する際の再生音の状態を示す図である。図
10では、縦軸が音量を示し、横軸が再生時の経過時間
を示している。図10に示すように、試聴音再生部42
は、まず1曲目の楽曲に対応するフレーズデータを用い
て、この楽曲のサワリ部分およびサビ部分を再生する。
この際に、サワリ部分の前後およびサビ部分の前後に
は、フェードイン処理およびフェードアウト処理が行わ
れる。
FIG. 10 is a diagram showing the state of the reproduced sound when reproducing the head part and characteristic part of a plurality of music pieces. In FIG. 10, the vertical axis indicates the volume, and the horizontal axis indicates the elapsed time during reproduction. As shown in FIG.
Uses the phrase data corresponding to the first tune to reproduce the sourry and chorus portions of the tune.
At this time, a fade-in process and a fade-out process are performed before and after the sourry portion and before and after the rust portion.

【0056】また、1曲目の各フレーズの再生が終了し
た後には、所定の空白期間Trが挿入された後に、2曲
目の最初のフレーズの再生が開始される。図10に示す
例では、2曲目の楽曲には2つのサビ部分1、2が含ま
れているため、サワリ部分と合わせて3つのフレーズが
再生される。また各フレーズには、上述したようなフェ
ードイン処理およびフェードアウト処理が行われてい
る。このように、各フレーズ毎にフェードイン処理およ
びフェードアウト処理が施され、曲間には所定の空白期
間Trが挿入されて、試聴音の再生が行われる。
After the reproduction of each phrase of the first music is completed, the reproduction of the first phrase of the second music is started after a predetermined blank period Tr is inserted. In the example shown in FIG. 10, since the second piece of music contains two chorus parts 1 and 2, three phrases are reproduced together with the sourry part. Further, the above-described fade-in process and fade-out process are performed on each phrase. As described above, the fade-in process and the fade-out process are performed for each phrase, a predetermined blank period Tr is inserted between the songs, and the reproduction of the preview sound is performed.

【0057】このように、第2の実施形態のナビゲーシ
ョン装置1Aでは、施設、地点、地域と音楽情報との関
連付けの内容を編集する際に、利用者が所望の楽曲に含
まれる旋律を口ずさむだけで、利用者の所望している楽
曲に一致する可能性の高い複数の楽曲が抽出され、それ
ぞれの音楽のサワリ部分(先頭部分)とサビ部分(特徴
部分)のフレーズが再生されるので、この再生音を聴取
することにより、利用者は所望の音楽を容易かつ確実に
選択することができる。
As described above, in the navigation device 1A of the second embodiment, when editing the contents of the association between the facility, the point, the area and the music information, the user merely hums the melody included in the desired music. Then, a plurality of music pieces that are likely to match the music desired by the user are extracted, and the phrases of the sourry part (head part) and the rust part (characteristic part) of each music are reproduced. By listening to the reproduced sound, the user can easily and reliably select a desired music.

【0058】特に、複数の楽曲のサワリ部分とサビ部分
の再生を行う際に、一の楽曲の再生終了後、次の楽曲の
再生開始までの間に所定の空白期間Trを設けているの
で、一の楽曲と次の楽曲との区切りが明確になり、所望
の音楽を容易かつ確実に選択することができる。さら
に、サワリ部分およびサビ部分に対応する各フレーズを
再生する際に、フレーズの開始部分においてフェードイ
ン処理を行い、フレーズの終了部分においてフェードア
ウト処理を行っているので、各フレーズの区切りが分か
りやすいという利点もある。
In particular, when playing back the solitary and chorus portions of a plurality of songs, a predetermined blank period Tr is provided between the end of the playback of one song and the start of the playback of the next song. The division between one music piece and the next music piece becomes clear, and a desired music piece can be easily and reliably selected. Furthermore, when playing back each phrase corresponding to the sourry portion and the chorus portion, the fade-in process is performed at the start portion of the phrase and the fade-out process is performed at the end portion of the phrase. There are advantages too.

【0059】なお、本発明は上述した各実施形態に限定
されるものではなく、本発明の要旨の範囲内においてさ
らに種々の変形実施が可能である。例えば、上述した実
施形態では、基本的に一のPOIに対して一の楽曲が関
連付けられていたが、複数のPOIをひとまとめにグル
ープ化し、このグループに対して一の楽曲を関連付ける
ようにしてもよい。例えば、「休憩場所」という観点か
ら抽出した複数のPOIのグループに対して一の楽曲を
関連付けておけば、ドライブ中に休憩場所を探したい時
などにはこの楽曲に含まれる旋律を口ずさむことによ
り、休憩場所に対応する複数のPOIを検索し、所望の
POIを選択するといった操作を容易に行うことができ
る。
The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the present invention. For example, in the above-described embodiment, one song is basically associated with one POI. However, a plurality of POIs may be grouped together and one song may be associated with this group. Good. For example, if one song is associated with a plurality of POI groups extracted from the viewpoint of “resting place”, when searching for a resting place while driving, by humming the melody included in this song, In addition, it is possible to easily perform an operation of searching for a plurality of POIs corresponding to a rest place and selecting a desired POI.

【0060】また上述した第2の実施形態において、試
聴用データの再生を行う際に、所定の操作指示に対応し
てフレーズ単位あるいは楽曲単位で再生開始位置の頭出
しが行われるようにし、より一層の操作性向上を図るよ
うにしてもよい。例えば、あるフレーズを再生中に操作
部34を用いて所定の操作指示がなされた場合に、試聴
音再生部42は、現在再生中のフレーズの再生を中止
し、次のフレーズの再生を開始すればよい。楽曲単位で
の頭出しも同様であり、1曲目のいずれかのフレーズの
再生中に操作部34を用いて所定の操作指示がなされた
場合に、試聴音再生部42は、現在再生中のフレーズの
再生を中止し、次の楽曲に含まれるフレーズの再生を行
えばよい。これにより利用者は、聴取する必要がないと
判断したフレーズの再生を省略させることができ、試聴
に要する時間を短縮することができる。
In the second embodiment described above, when reproducing the trial listening data, the start of the reproduction start position is performed in a phrase unit or a music unit corresponding to a predetermined operation instruction. The operability may be further improved. For example, when a predetermined operation instruction is given using the operation unit 34 while a certain phrase is being reproduced, the audition sound reproducing unit 42 stops the reproduction of the currently reproduced phrase and starts the reproduction of the next phrase. I just need. The same applies to cueing in music units. When a predetermined operation instruction is given using the operation unit 34 during reproduction of any of the phrases of the first music, the audition sound reproduction unit 42 outputs the currently reproduced phrase. May be stopped, and the phrase included in the next music piece may be reproduced. As a result, the user can omit the reproduction of the phrase determined to be unnecessary to listen to, and can reduce the time required for the trial listening.

【0061】また上述した各実施形態では、所定のDB
編集処理を行う際の元となる楽曲データ等をメモリカー
ド38を介してナビゲーション装置に取り込んでいた
が、移動体電話等を介してインターネットに接続するこ
とにより、ナビゲーション装置が所定のウェブサイト等
から直接的に楽曲データ等を取得するようにしてもよ
い。
In each of the above-described embodiments, a predetermined DB
Although the music data and the like that are the source of the editing process are imported to the navigation device via the memory card 38, by connecting to the Internet via a mobile phone or the like, the navigation device can access from a predetermined website or the like. You may make it acquire music data etc. directly.

【0062】[0062]

【発明の効果】上述したように、本発明によれば、利用
者が所望の音楽を口ずさむことにより、この音楽の内容
が特定され、特定された音楽に関連する施設、地点、地
域が検索されるので、音楽と関連付けられている地図上
の施設等を容易に検索することができる。
As described above, according to the present invention, when a user utters desired music, the content of the music is specified, and facilities, points, and areas related to the specified music are searched. Therefore, it is possible to easily search for facilities and the like on a map associated with music.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態のナビゲーション装置の構成を
示す図である。
FIG. 1 is a diagram illustrating a configuration of a navigation device according to a first embodiment.

【図2】検索キーを作成する方法を示す図である。FIG. 2 is a diagram illustrating a method for creating a search key.

【図3】POI/楽曲テーブルの具体例を示す図であ
る。
FIG. 3 is a diagram showing a specific example of a POI / music table.

【図4】音声入力された旋律に対応する楽曲を特定し、
この楽曲に関連付けられているPOIを検索する際のナ
ビゲーション装置の動作手順を示す流れ図である。
FIG. 4 specifies music corresponding to the melody input by voice,
9 is a flowchart showing an operation procedure of the navigation device when searching for a POI associated with the music.

【図5】第2の実施形態のナビゲーション装置の構成を
示す図である。
FIG. 5 is a diagram illustrating a configuration of a navigation device according to a second embodiment.

【図6】複数の楽曲についてその概略内容を試聴するた
めの試聴用データを作成する際のナビゲーション装置の
動作手順を示す流れ図である。
FIG. 6 is a flowchart showing an operation procedure of the navigation device when creating preview data for previewing the outline contents of a plurality of songs.

【図7】試聴用データの作成手順を概略的に示す図であ
る。
FIG. 7 is a diagram schematically showing a procedure for creating trial listening data.

【図8】試聴用データのデータ構造を示す図である。FIG. 8 is a diagram showing a data structure of trial listening data.

【図9】複数の楽曲のサワリ部分およびサビ部分を再生
する際のナビゲーション装置の動作手順を示す流れ図で
ある。
FIG. 9 is a flowchart showing an operation procedure of the navigation device when reproducing a sourry portion and a chorus portion of a plurality of music pieces.

【図10】複数の楽曲の先頭部分および特徴部分を再生
する際の再生音の状態を示す図である。
FIG. 10 is a diagram showing a state of a reproduced sound when reproducing a head portion and a characteristic portion of a plurality of music pieces.

【符号の説明】[Explanation of symbols]

1、1A ナビゲーション装置 10 マイクロホン 12 旋律認識部 14 検索キー作成部 16 検索キーDB(データベース) 18 楽曲検索部 20 地図DB 22 地図検索部 26 楽曲DB 28 ナビゲーション動作処理部 30 車両位置検出部 32 表示部 33 スピーカ 34 操作部 36 DB編集部 38 メモリカード 40 試聴音作成部 42 試聴音再生部 1, 1A Navigation device 10 Microphone 12 Melody recognition unit 14 Search key creation unit 16 Search key DB (database) 18 Music search unit 20 Map DB 22 Map search unit 26 Music DB 28 Navigation operation processing unit 30 Vehicle position detection unit 32 Display unit 33 Speaker 34 Operation unit 36 DB editing unit 38 Memory card 40 Sample sound creation unit 42 Sample sound reproduction unit

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/0969 G09B 29/00 A 5D077 G09B 29/00 G11B 27/10 M 5H180 G10L 15/10 G10L 3/00 551Q 15/28 531N G11B 27/10 551J Fターム(参考) 2C032 HB05 HB06 HB22 HC08 HC13 HC16 HC31 HD07 HD11 HD16 2F029 AA02 AB01 AB07 AB13 AC02 AC14 AC18 3D020 BA02 BA04 BA09 BA10 BA11 BC02 BD05 BE01 5B075 NK02 PP07 PP13 PQ02 PQ04 UU14 5D015 AA06 KK01 5D077 AA26 AA28 BB08 CB07 5H180 AA01 BB12 FF04 FF05 FF22 FF25 FF27 FF32 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (Reference) G08G 1/0969 G09B 29/00 A 5D077 G09B 29/00 G11B 27/10 M 5H180 G10L 15/10 G10L 3/00 551Q 15 / 28 531N G11B 27/10 551J F-term (reference) 2C032 HB05 HB06 HB22 HC08 HC13 HC16 HC31 HD07 HD11 HD16 2F029 AA02 AB01 AB07 AB13 AC02 AC14 AC18 3D020 BA02 BA04 BA09 BA10 BA11 BC02 BD05 BE01 5B075U02A07 PP02 PP07 KK01 5D077 AA26 AA28 BB08 CB07 5H180 AA01 BB12 FF04 FF05 FF22 FF25 FF27 FF32

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 音楽情報が関連付けられた施設、地点、
地域の地図情報を格納する地図情報格納手段と、 利用者が口ずさんだ音楽を集音するマイクロホンと、 前記マイクロホンで集音された音楽の内容を解析する解
析手段と、 前記解析手段による解析によって特定された音楽に関連
する施設、地点、地域を前記地図情報格納手段に格納さ
れた前記地図情報の中から検索する地図検索手段と、 前記地図検索手段によって検索された前記施設、地点、
地域を用いて所定のナビゲーション処理を行うナビゲー
ション処理手段と、 を備えることを特徴とするナビゲーション装置。
1. A facility, a point,
Map information storage means for storing map information of a region; a microphone for collecting music hummed by a user; analysis means for analyzing the content of music collected by the microphone; and identification by analysis by the analysis means Map search means for searching the map information stored in the map information storage means for facilities, points, and areas related to the music performed; and the facilities, points searched by the map search means,
A navigation device comprising: a navigation processing unit that performs a predetermined navigation process using a region.
【請求項2】 請求項1において、 前記地図検索手段は、前記解析手段によって特定された
音楽と、前記施設、地点、地域のそれぞれに対応する音
楽との一致判定を行い、一致する前記施設、地点、地域
を抽出することを特徴とするナビゲーション装置。
2. The map search unit according to claim 1, wherein the map search unit determines a match between the music specified by the analysis unit and music corresponding to each of the facility, the point, and the area. A navigation device for extracting points and areas.
【請求項3】 請求項2において、 複数の音楽のそれぞれに対応する先頭部分と特徴部分を
少なくとも含む再生データを格納する再生データ格納手
段と、 前記解析手段による解析結果を用いて、前記利用者が口
ずさんだ音楽に一致する可能性の高い複数の音楽を抽出
する音楽検索手段と、 前記音楽検索手段によって抽出された前記複数の音楽の
それぞれに対応する前記再生データに含まれる前記先頭
部分と前記特徴部分を前記再生データ格納手段から読み
出して音楽再生を行う音楽再生手段と、 前記音楽再生手段による音楽再生の後に利用者によって
選択されたいずれかの音楽を用いて、前記地図情報格納
手段に格納されている前記地図情報の編集を行う編集手
段と、 を備えることを特徴とするナビゲーション装置。
3. The user according to claim 2, wherein a reproduction data storage unit that stores reproduction data including at least a head portion and a characteristic portion corresponding to each of the plurality of music, and an analysis result by the analysis unit. Music search means for extracting a plurality of music having a high possibility of matching the hummed music, the head portion included in the reproduction data corresponding to each of the plurality of music extracted by the music search means, and A music playback unit that reads a characteristic portion from the playback data storage unit to play back music, and stores the music information in the map information storage unit using any music selected by a user after the music playback by the music playback unit. Editing means for editing the map information that has been entered.
【請求項4】 請求項3において、 前記音楽再生手段は、前記複数の音楽に対応する前記再
生データの再生を行う際に、一の音楽の再生終了後、次
の音楽の再生開始までの間に所定の空白期間を設けるこ
とを特徴とするナビゲーション装置。
4. The music reproducing device according to claim 3, wherein, when reproducing the reproduction data corresponding to the plurality of music, after the reproduction of one music ends, a reproduction of the next music starts. A predetermined blank period is provided in the navigation device.
JP2001118804A 2001-04-17 2001-04-17 Navigator Withdrawn JP2002311986A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001118804A JP2002311986A (en) 2001-04-17 2001-04-17 Navigator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001118804A JP2002311986A (en) 2001-04-17 2001-04-17 Navigator

Publications (1)

Publication Number Publication Date
JP2002311986A true JP2002311986A (en) 2002-10-25

Family

ID=18969128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001118804A Withdrawn JP2002311986A (en) 2001-04-17 2001-04-17 Navigator

Country Status (1)

Country Link
JP (1) JP2002311986A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365075A (en) * 2001-06-11 2002-12-18 Pioneer Electronic Corp Apparatus and method for preparing driving plan, navigation system, on-vehicle electronic system, and computer program
JP2005172450A (en) * 2003-12-08 2005-06-30 Pioneer Electronic Corp Information processor and method of voice guidance for running information
JP2006127367A (en) * 2004-11-01 2006-05-18 Sony Corp Information management method, information management program, and information management apparatus
JP2008082727A (en) * 2006-09-26 2008-04-10 Clarion Co Ltd Destination retrieval device
WO2014103012A1 (en) * 2012-12-28 2014-07-03 パイオニア株式会社 Information processing device, information processing method, program for information processing device, recording medium, and portable communication device
WO2014109104A1 (en) * 2013-01-08 2014-07-17 クラリオン株式会社 Voice recognition device, voice recognition program, and voice recognition method
JP2014200109A (en) * 2014-07-14 2014-10-23 株式会社ニコン Reproduction rendering program and reproduction rendering device
JP2018107834A (en) * 2018-04-05 2018-07-05 株式会社ニコン Reproduction presentation program and reproduction presentation device
JP7451999B2 (en) 2019-12-24 2024-03-19 株式会社Jvcケンウッド Recording device, video system, recording method, and program
JP7452000B2 (en) 2019-12-24 2024-03-19 株式会社Jvcケンウッド Recording device, recording method, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4707877B2 (en) * 2001-06-11 2011-06-22 パイオニア株式会社 Drive candidate location presentation apparatus and method, navigation apparatus, and computer program
JP2002365075A (en) * 2001-06-11 2002-12-18 Pioneer Electronic Corp Apparatus and method for preparing driving plan, navigation system, on-vehicle electronic system, and computer program
JP2005172450A (en) * 2003-12-08 2005-06-30 Pioneer Electronic Corp Information processor and method of voice guidance for running information
JP4700904B2 (en) * 2003-12-08 2011-06-15 パイオニア株式会社 Information processing apparatus and travel information voice guidance method
JP2006127367A (en) * 2004-11-01 2006-05-18 Sony Corp Information management method, information management program, and information management apparatus
US7820901B2 (en) 2004-11-01 2010-10-26 Sony Corporation Information management method, information management program, and information management device
JP2008082727A (en) * 2006-09-26 2008-04-10 Clarion Co Ltd Destination retrieval device
WO2014103012A1 (en) * 2012-12-28 2014-07-03 パイオニア株式会社 Information processing device, information processing method, program for information processing device, recording medium, and portable communication device
WO2014109104A1 (en) * 2013-01-08 2014-07-17 クラリオン株式会社 Voice recognition device, voice recognition program, and voice recognition method
CN104903846A (en) * 2013-01-08 2015-09-09 歌乐株式会社 Voice recognition device, voice recognition program, and voice recognition method
JPWO2014109104A1 (en) * 2013-01-08 2017-01-19 クラリオン株式会社 Speech recognition apparatus, speech recognition program, and speech recognition method
JP2014200109A (en) * 2014-07-14 2014-10-23 株式会社ニコン Reproduction rendering program and reproduction rendering device
JP2018107834A (en) * 2018-04-05 2018-07-05 株式会社ニコン Reproduction presentation program and reproduction presentation device
JP7451999B2 (en) 2019-12-24 2024-03-19 株式会社Jvcケンウッド Recording device, video system, recording method, and program
JP7452000B2 (en) 2019-12-24 2024-03-19 株式会社Jvcケンウッド Recording device, recording method, and program

Similar Documents

Publication Publication Date Title
KR100267663B1 (en) Karaoke apparatus responsive to oral request of entry songs
EP1693829B1 (en) Voice-controlled data system
US7529676B2 (en) Audio device control device, audio device control method, and program
US20050216257A1 (en) Sound information reproducing apparatus and method of preparing keywords of music data
US6476306B2 (en) Method and a system for recognizing a melody
JP5697860B2 (en) Information search device, information search method, and navigation system
JP3778134B2 (en) Music playback device
JP4469891B2 (en) Information processing apparatus and information processing program
JPH0535287A (en) 'karaoke' music selection device
JP2006202127A (en) Recommended information presentation device and recommended information presentation method or the like
JP2002311986A (en) Navigator
JP2005300772A (en) Musical piece information introduction system
JP2003532164A (en) How to control the processing of content information
JP2001356779A (en) Music data distributing method
JP7095742B2 (en) Music playback system, control method and program of music playback system
JP4697432B2 (en) Music playback apparatus, music playback method, and music playback program
JP2002055695A (en) Music search system
WO2006087891A1 (en) Information selecting method information selecting device
JP2006276560A (en) Music playback device and music playback method
JPH08195070A (en) On-vehicle program selector
JP2009043353A (en) Title giving device, title giving method, title giving program, and recording medium
JP4447540B2 (en) Appreciation system for recording karaoke songs
JPH0863176A (en) Musical video data reproducing device
JP2009204872A (en) Creation system of dictionary for speech recognition
JPS6346518B2 (en)

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080701