WO2006120929A1 - 楽曲選択装置および楽曲選択方法 - Google Patents

楽曲選択装置および楽曲選択方法 Download PDF

Info

Publication number
WO2006120929A1
WO2006120929A1 PCT/JP2006/308934 JP2006308934W WO2006120929A1 WO 2006120929 A1 WO2006120929 A1 WO 2006120929A1 JP 2006308934 W JP2006308934 W JP 2006308934W WO 2006120929 A1 WO2006120929 A1 WO 2006120929A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
music
environment
music selection
sensitivity word
Prior art date
Application number
PCT/JP2006/308934
Other languages
English (en)
French (fr)
Inventor
Satoshi Odagawa
Yasuteru Kodama
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to JP2007528234A priority Critical patent/JPWO2006120929A1/ja
Publication of WO2006120929A1 publication Critical patent/WO2006120929A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles

Definitions

  • the present invention relates to a music selection device and a music selection method suitable for use in, for example, a car navigation system having a function as a car audio.
  • buttons indicating sensitive words such as “bright”, “quiet”, and “good” are displayed on the touch panel display of the car navigation system.
  • the car navigation system automatically selects a song with a bright tone from the songs stored in the hard disk and plays the song.
  • Non-patent document 1 Yasuteru Kodama, 5 others, “Development of Feeling Play”, PIONEER R & D, Research and Development Division, Pior Corporation, November 30, 2004, No.14, No.3 , P.11-16 Disclosure of the Invention
  • the feeling of the user in the car is, for example, the power of driving near the sea or driving in the mountains.
  • the driving time zone is night or noon
  • the weather is clear. It depends on whether it is raining or raining, the car is running smoothly, and it is not running smoothly due to traffic jams.
  • the vehicle changes whether it is driving near the sea or in the mountains.
  • the driving time zone is night or noon changes.
  • the weather may change while driving, and traffic conditions will change with changes in time and place. Therefore, the feelings of users in the car also change with changes in time and place.
  • the present invention has been made in view of the above-described problems, and a first object of the present invention is to provide a music selection device and a music selection method that can save the user from having to select music. And providing a computer program.
  • a second problem of the present invention is to provide a music selection device, a music selection method, and a computer program that can sequentially select music suitable for changes in the user's feelings.
  • a third object of the present invention is to provide a music selection device, a music selection method, and a computer program that can successively select music suitable for changes in the environment in which the mobile object is placed.
  • the first music selection device of the present invention acquires information indicating the current position of the moving object, and provides the acquired information as acquisition information, and the information acquisition unit provides the information.
  • An environment recognizing unit for recognizing an environment in which the mobile object is currently located based on the acquired information and generating environment information indicating the environment; and the environment recognizing unit
  • a sensitivity word specifying means for specifying a sensitivity word corresponding to the environment information generated by the above and a music selection means for selecting music based on the sensitivity word specified by the sensitivity word specifying means.
  • the second music selection device of the present invention acquires information indicating the current position of the moving object, and provides the acquired information as acquisition information, and the information acquisition unit provides the information.
  • the environment recognition means for recognizing the environment where the mobile object is currently located and generating the environment information indicating the environment, and the correspondence information indicating the correspondence between the environment information and the music Storage means for storing music
  • music selection means for selecting music based on the environment information generated by the environment recognition means and the correspondence information stored in the storage means.
  • a first music selection method acquires information indicating a current position of a mobile object and provides the acquired information as acquisition information, and the information acquisition step. Based on the acquired information provided, the environment recognition process for recognizing the environment where the mobile object is currently placed and generating environment information indicating this environment, and the environment recognition process! A sensitivity word identification process for identifying a sensitivity word corresponding to the environmental information generated in a short time, and a music selection process for selecting a music based on the sensitivity word identified by the sensitivity word identification process. It has.
  • the second music selection method of the present invention acquires information indicating the current position of a moving object and provides the acquired information as acquisition information, and the information acquisition step. Based on the acquired information provided, the environment recognition process for recognizing the environment where the mobile object is currently placed and generating environment information indicating the environment, and the environment recognition process A music selection step of selecting music based on the environmental information and the correspondence information indicating the correspondence between the environmental information and the music.
  • the navigation system of the present invention includes the first or second music selection device of the present invention (including various aspects thereof).
  • the computer program of the present invention causes a computer to function as the first or second music selection device (including various aspects thereof) of the present invention.
  • a computer program product in a computer-readable medium solves the above problems. Therefore, a program instruction executable by a computer is clearly embodied, and the computer is made to function as the first or second music selection device (including various aspects thereof) of the present invention.
  • the computer program product is read into a computer from a recording medium such as a ROM, CD-ROM, DVD-ROM, or hard disk that stores the computer program product, or
  • a recording medium such as a ROM, CD-ROM, DVD-ROM, or hard disk that stores the computer program product
  • the computer program product which is a transmission wave
  • the computer program product may also be configured with a computer-readable code (or computer-readable command) that functions as the first or second music selection device of the present invention described above.
  • FIG. 1 is a block diagram showing a car navigation system as a first embodiment of a music selection device of the present invention.
  • FIG. 2 is a flowchart showing the operation of the car navigation system shown in FIG.
  • FIG. 3 is an explanatory diagram showing an acquired information environment information table possessed by the car navigation system in FIG. 1.
  • FIG. 4 is an explanatory diagram showing an environmental information sensitivity word table included in the car navigation system in FIG. 1.
  • FIG. 5 is an explanatory diagram showing a music list generated by the car navigation system in FIG. 1.
  • FIG. 6 is a flowchart showing the first music designation process by the car navigation system in FIG.
  • FIG. 7 is a flowchart showing the second music designation process by the car navigation system in FIG.
  • FIG. 8 Flow chart showing the third music designation process by the car navigation system in FIG. It is
  • FIG. 9 is a block diagram showing a car navigation system that is a second embodiment of the music selection device of the present invention.
  • FIG. 10 is a flowchart showing an operation of the car navigation system in FIG. 9.
  • FIG. 11 is an explanatory view showing a running state information-one music table included in the car navigation system in FIG. 9.
  • FIG. 1 shows a car navigation system which is a first embodiment of a music selection device of the present invention.
  • the car navigation system 1 shown in Fig. 1 is mounted on a car, and can measure or acquire information such as the current position and direction of travel of the car and display it on the display screen to inform the driver. .
  • the car navigation system 1 has a function as a powerful audio. In other words, the car navigation system 1
  • the music data stored or recorded on the hard disk can be played and the music can be played from the speaker installed in the car.
  • the car navigation system 1 can automatically identify a sensitivity word corresponding to the environment where the automobile is currently located, and can automatically select a music piece based on the sensitivity word.
  • the car navigation system 1 has a number of components.
  • the components of the car navigation system 1 are divided into three sections: a navigation section 10, a music selection section 20, and a music playback section 30.
  • the navigation section 10 mainly includes components for measuring and obtaining information such as the current position of the vehicle and the current date and time. That is, the navigation section 10 includes a GPS (Global Positioning System) receiver 11, a vehicle speed 3 ⁇ 4J constant
  • the music selection section 20 mainly includes components for automatically identifying a sensitivity word corresponding to the environment in which the vehicle is currently located and automatically selecting a music based on the sensitivity word. .
  • the music recognizing section 20 includes an environment recognizing section 21, a sensitivity word identifying section 22 and a music selecting section 23.
  • the music playback section 30 mainly includes constituent elements for playing back music data stored or recorded on a hard disk and playing music corresponding to the music data from a speaker attached in the car.
  • the music playback section 30 belongs to the music playback section 31 and the speakers 32 and 33.
  • the car navigation system 1 includes a data communication unit 41, an optical disk drive 42, a hard disk drive 43, an operation unit 44, a display unit 45, and a musical feature extraction unit 46.
  • the GPS receiver 11 receives a radio wave transmitted from a GPS satellite, and measures the current position of a vehicle whose position is to be measured (hereinafter referred to as "own vehicle"). Then, the GPS receiving unit 11 generates latitude information, longitude information, and altitude information indicating the current position of the vehicle. Further, the GPS receiver 11 receives date / time information indicating the current date and time from a GPS satellite.
  • the GPS receiver 11 is composed of a GPS receiver and the like.
  • the vehicle speed measuring unit 12 counts the vehicle speed pulses output from the host vehicle and measures the traveling speed of the host vehicle.
  • the vehicle speed measurement unit 12 generates speed information indicating the current traveling speed of the host vehicle. To do.
  • the vehicle speed measuring unit 12 is also configured with a force such as a counter.
  • the gyro sensor 13 detects that the host vehicle is bent, that is, the host vehicle has changed the traveling direction.
  • the VICS receiving unit 14 receives traffic information provided by the VICS center.
  • VICS receiver 14 consists of a VICS receiver.
  • the data communication unit 41 also acquires weather forecast information such as a website that performs weather forecast. That is, the data communication unit 41 can connect the car navigation system 1 to the mobile communication network and the Internet network via, for example, a data communication card or a mobile phone. Then, the data communication unit 41 can access a website performing weather forecasts via the mobile communication network and the Internet network, and can receive the weather forecast information provided by this website. .
  • the data communication unit 41 is composed of, for example, a communication interface circuit.
  • the navigation control unit 15 includes location information, date and time information, sunrise Z sunset time information, road type information, speed information, traffic jam information, weather forecast information, and the like (hereinafter these information is collectively referred to as "acquired information"). Generated). Then, the navigation control unit 15 provides the acquired information to the environment recognition unit 21. Note that the navigation control unit 15 includes, for example, an arithmetic processing circuit and a storage element.
  • the position information is information indicating the current position of the host vehicle.
  • the position information includes latitude information, longitude information and altitude information generated by the GPS receiving unit 11, speed information generated by the vehicle speed measuring unit 12, information detected by the gyro sensor 13, and the optical disk 42A or the hard disk 43A. It is generated by correcting using the map data recorded in For example, GPS positioning, autonomous navigation, and map matching are used to generate position information.
  • the date / time information is information indicating the current date and time. Date and time information is provided from the GPS receiver 11.
  • Sunrise Z sunset time information is information indicating today's sunrise time and sunset time. Sunrise Z sunset time information can be calculated using date and time information, location information, and sunrise Z sunset time calculation formula. For example, the navigation control unit 15 The sunrise Z sunset time calculation formula recorded on the hard disk 43A is read, and date time information and position information are applied to this to generate sunrise Z sunset time information.
  • the road type information is information indicating the type of road on which the vehicle is currently traveling!
  • Road type information can be generated using location information and map data.
  • the map data includes information indicating the type of road existing on the map, that is, information indicating whether the road existing on the map is an expressway or general road power.
  • the navigation control unit 15 identifies the road on which the vehicle is currently traveling based on the position information, and then refers to information indicating the type of the road existing on the map so that the vehicle is currently traveling. Knowing the type of the road, and generating road type information.
  • Weather forecast information is information indicating the current weather.
  • the weather forecast information is information indicating that the weather at the current position and the current time of the vehicle is sunny, cloudy, rainy or snowy.
  • Weather forecast information is provided from the data communication unit 41.
  • the traffic jam information is information indicating whether or not the vehicle is currently traveling! Congestion information is provided from the VICS receiver 14. Note that the traffic information is usually the power used to know if the road to which the vehicle will move is congested! /. It is used to know whether or not the road that hits the road is jammed.
  • the environment recognizing unit 21 Based on the acquired information provided by the navigation control unit 15, the environment recognizing unit 21 recognizes the environment where the host vehicle is currently located, and generates environment information indicating this environment.
  • the sensitivity word specifying unit 22 specifies a sensitivity word corresponding to the environment information generated by the environment recognition unit 21.
  • the music selection unit 23 selects a music based on the sensitivity word specified by the sensitivity word specification unit 22. Further, the music selection unit 23 designates music to be reproduced from the music selected based on the sensitivity word.
  • the environment recognition unit 21, the sensitivity word identification unit 22, and the music selection unit 23 are configured by, for example, an arithmetic processing circuit and a storage element. Operations of the environment recognition unit 21, the sensitivity word specification unit 22, and the music selection unit 23 will be described later.
  • the music playback unit 31 plays back the music selected by the music selection unit 23, and outputs audio signals corresponding to the music to the speakers 32 and 33. That is, the music playback unit 31 receives the music specifying information output from the music selecting unit 23, and receives the music specified by the music specifying information.
  • the music data is, for example, MP3 (MPEG Audio Layer-3) data.
  • the music playback unit 23 includes a decoding circuit that decodes the MP3 data and converts it into an audio signal.
  • the music playback unit 31 decodes the music data read by the hard disk 43 A, converts it into an audio signal, and outputs it to the speakers 32 and 33. Speakers 32 and 33 are provided in the vehicle.
  • the optical disc drive 42 is a multi-disc drive device that can reproduce data recorded on an optical disc such as a CD and a DVD.
  • an optical disc such as a CD and a DVD.
  • the map data can be used for generating location information, road type information, and the like.
  • the map data recorded on the DVD can also be transferred to the hard disk 43A.
  • the hard disk 43A of the hard disk drive 43 has a capacity of about several tens of GB, for example.
  • the disk disc 43A contains map data, sunrise Z sunset time calculation formula, music data, musical feature information, acquired information-environment information table (see Fig. 3) and environmental information-sensitivity word table (see Fig. 4) Etc. are recorded.
  • the hard disk 43A stores several tens to tens of thousands of music data.
  • the operation unit 44 includes buttons for inputting information and commands to the car navigation system 1, a mechanical switch such as a knob, a touch panel device, and the like.
  • the display unit 45 provides the user with information on the operation status of the car navigation system 1, map data, the current position of the vehicle, the travel locus of the vehicle, traffic jam information, traffic regulation information, buttons for touch panels, and music information ( For example, it is a display device for displaying the title of a music piece, etc., for example, a liquid crystal display device.
  • the car navigation system 1 automatically identifies a sensitivity word corresponding to the environment in which the vehicle is currently located, automatically selects music data based on the sensitivity word, and the selected It has a function of playing back music corresponding to music data.
  • the operation of the car navigation system 1 related to this function is shown in Fig. 2. That is, as shown in Figure 2.
  • the navigation control unit 15 includes a GPS reception unit 11, a vehicle speed measurement unit 12, a gyro sensor 13, a VICS reception unit 14, a data communication unit 41, and map data. Sunrise Z Sunset time information, road type information, speed information, traffic jam information, and weather forecast information are generated, and the acquired information is provided to the environment recognition unit 21 (step Sl).
  • the environment recognition unit 21 recognizes the environment where the vehicle is currently located based on the acquired information, generates environment information indicating the environment, and provides this environment information to the sensitivity word specification unit 22 (Step S2).
  • the sensitivity word specifying unit 22 specifies the sensitivity word corresponding to the environmental information (step S3).
  • the music selection unit 23 selects a music based on the sensitivity word specified by the sensitivity word specification unit 22 and generates a list of the selected music (step S4). Further, the music selection unit 23 designates a music to be reproduced from the music listed in the music list (step S5). Then, the music selection unit 23 outputs the music specifying information indicating the music to be reproduced to the music reproduction unit 31 (step S6). Subsequently, the music reproduction unit 31 reproduces the music indicated by the music specifying information (step S7).
  • the environment recognition unit 21 recognizes the environment where the host vehicle is currently located based on the acquired information, and generates environment information indicating this environment.
  • Environmental information is information indicating the environment in which the vehicle is currently located.
  • Environmental information includes seasonal information, time zone information, weather information, location information, and driving state information.
  • Season information is information indicating the current season. Examples of seasonal information include spring, summer, autumn, and winter.
  • the time zone information is information indicating the current time zone.
  • the time zone information includes, for example, early morning, morning, noon, night, and midnight.
  • the weather information is information indicating the current weather in the area where the vehicle is currently traveling! /.
  • the weather information includes a clear area, a cloudy area, a rain area, and a snow area.
  • the point vicinity information is information indicating the geography around the point where the vehicle is currently traveling.
  • the point vicinity information includes the sea, mountains, lakes, and user registration points.
  • a user registration point is a point arbitrarily registered by the user (for example, 000 amusement park, XXX bridge, etc.).
  • To register a location for example, before the user goes to the drive, operate the operation unit 44 to input the location. This is done by this.
  • the traveling state information is information indicating a state in which the host vehicle is currently traveling. Specifically, the driving state information indicates that the vehicle is currently running smoothly, or that the vehicle is running smoothly due to traffic jams. It is information indicating whether the vehicle is moving only at a speed of about 10 km on average.
  • the generation of environment information is performed as follows, for example. That is, the generation of environment information is performed by using the acquired information-environment information tables 101, 102, 103, and 104 as shown in FIG.
  • the acquisition information-environment information tables 101 to 104 describe the correspondence between the acquisition information and the environment information.
  • the acquired information-environment information tables 101 to 104 are recorded, for example, on the node disk 43A.
  • the environment recognition unit 21 refers to the acquired information—environment information table 101 or 104 recorded in the hard disk 43A, and identifies the environment information corresponding to the acquired information provided from the navigation control unit 15. Then, create environmental information.
  • the acquired information-one-environment information table 101 describes the correspondence between date information and season information. For example, when the month indicated by the date / time information provided by the navigation control unit 15 is from March to May, the environment recognition unit 21 refers to the acquired information-environment information table 101 to indicate seasonal information indicating spring. Is generated. Further, when the month indicated by the date / time information provided from the navigation control unit 15 is, for example, from September to November, the environment recognition unit 21 refers to the acquired information / environment information table 101 to indicate the autumn. Generate information.
  • Acquired information—environment information table 102 describes date and time information and the correspondence between sunrise Z sunset time information and time zone information. For example, when the time indicated by the date / time information provided from the navigation control unit 15 is 6:00 am and the time indicated by the sunrise time information provided from the navigation control unit 15 is 5:30 am, the environment The recognizing unit 21 generates time zone information indicating early morning by referring to the acquired information-one environment information table 102. In addition, when the time indicated by the date / time information provided from the navigation control unit 15 is 7:00 pm and the time indicated by the date / time information provided from the navigation control unit 15 is 6:00 pm, the environment recognition Part 21 By referring to the information environment information table 102, time zone information indicating the night is generated.
  • the acquired information-one environment information table 103 describes the correspondence between the weather forecast information and the weather information. For example, when the weather indicated by the weather forecast information provided from the navigation control unit 15 is sunny, the environment recognition unit 21 refers to the acquired information / environment information table 103 to obtain weather information indicating a sunny area. Generate.
  • the acquired information-one environment information table 104 describes the correspondence between road type information, speed information, and driving state information.
  • the environment recognition unit 21 refers to the acquired information-one environment information table 104.
  • the driving state information indicating the smoothness of the expressway is generated.
  • the environment recognition unit 21 refers to the acquired information-environment information table 104.
  • traveling state information indicating general road traffic congestion is generated.
  • the traffic information provided by the VICS receiver 14 may be used in combination for generating the driving state information.
  • the point vicinity information is generated based on the position information and the map data without using the acquired information-one environment information table.
  • the environment recognizing unit 21 refers to the map data, specifies the position indicated by the position information provided from the navigation control unit 15 on the map, and when there is a sea within a radius lkm from the position, the environment recognizing unit 21 The point neighborhood information that points to is generated.
  • the point vicinity information may be generated as follows. That is, information (for example, a flag) relating to a road landscape such as “a road where the sea can be seen” and “a road where the lake can be seen” is added in advance to the road data included in the map data.
  • the environment recognition unit 21 identifies the road on which the vehicle is currently traveling based on the location information, etc., and then refers to the information about the landscape added to the road data. For example, it is possible to recognize whether the road on which the vehicle is currently traveling is, for example, a road where the sea can be seen or a road where the lake can be seen. To do.
  • this generation method not the distance between the current position of the vehicle and the sea or the lake, but the fact that the sea or the lake can be seen from the road generates the point neighborhood information based on the fact. Can do. Therefore, it is possible to generate near-site information that appropriately reflects the actual landscape seen from the road.
  • the sensitivity word specifying unit 22 specifies the sensitivity word corresponding to the environment information.
  • a sensitivity word is a word that expresses the feeling that a person feels when placed in a certain environment. Sensitivity words include, for example, “bright”, “noisy”, “quiet”, “easy”, “healed” power S. Note that other sensitivity words may be adopted.
  • the sensitivity word is specified as follows, for example.
  • the environment information is generated by using environment information-sensitive word tables 111, 112, 113, 114, 115 as shown in FIG.
  • the environmental information-sensitivity word table 111 and 115 are recorded, for example, on the node disk 43A.
  • the sensitivity word specifying unit 22 refers to the environmental information—sensitivity word table 111 or 115 recorded in the hard disk 43A, and specifies a sensitivity word corresponding to the environmental information provided from the environment recognition unit 21.
  • the sensitivity word table 111 describes the correspondence between seasonal information and sensitivity words. For example, when the season indicated by the season information provided from the environment recognition unit 21 is spring, the sensitivity word specifying unit 22 specifies “bright” by referring to the environment information-sensitivity word table 111. In addition, when the season indicated by the season information provided by the environment recognition unit 21 is autumn, the sensitivity word specification unit 22 specifies “Kanashi! /,” By referring to the environment information—sensitivity word table 111. .
  • the sensitivity word table 112 describes the correspondence between time zone information and sensitivity words. For example, when the time zone indicated by the time zone information provided from the environment recognition unit 21 is early morning, the sensitivity word specification unit 22 specifies “healed” by referring to the environment information sensitivity word table 112. When the time zone indicated by the time zone information provided from the environment recognition unit 21 is night, the sensitivity word specifying unit 22 specifies “quiet” by referring to the environment information-sensitivity word table 112.
  • the environmental information sensitivity word table 113 describes the correspondence between weather information and sensitivity words. It is. For example, when the weather area indicated by the weather information provided from the environment recognizing unit 21 is a clear area, the sensitivity word specifying unit 22 refers to the environment information-sensitivity word table 113 to specify “NORIGA”.
  • the sensitivity word table 114 describes the correspondence between the point neighborhood information and the sensitivity words. For example, when the geography indicated by the point vicinity information provided from the environment recognition unit 21 is the sea, the sensitivity word specifying unit 22 specifies “bright” by referring to the environment information-sensitivity word table 114.
  • the sensitivity word table 115 describes the correspondence between the running state information and the sensitivity words. For example, when the driving state indicated by the driving state information provided by the environment recognition unit 21 is in a smooth state on the expressway, the sensitivity word specifying unit 22 specifies “Nori” by referring to the environment information-sensitivity word table 115. To do.
  • the correspondence between the environmental information and the sensitivity words in the environmental information-sensitive word table 111 or 114 can be changed (customized) by the user. As a result, it is possible to realize the selection and reproduction of music that matches the user's individual sensibility.
  • the music selection unit 23 first selects a music based on the sensitivity word specified by the sensitivity word specification unit 22.
  • music selection based on a sensitivity word is performed as follows. That is, musical feature information is used to select a music piece based on a sensitivity word.
  • Music feature information is information indicating musical features such as chord progression, major Z minor, rhythm, tempo, and average level of a song.
  • the musical feature information is generated in advance and recorded on the hard disk 43A. Further, the musical feature information is generated for each of a plurality of music data recorded on the hard disk 43A, and is associated with each of the plurality of music data.
  • the music selection unit 23 selects music that matches the sensitivity word by referring to the musical feature information.
  • music that humans feel is “good” has a musical feature such as a major, fast tempo and high average level. Therefore, based on the sensibility word “noisy”, if you specify the musical features that are in major, fast tempo, and average high level, then select a song that has this musical feature. , To the sensitivity word "Nori is good” Matching music can be selected.
  • music that humans feel as “quiet” has, for example, a musical feature that is in minor, slow tempo, with an average low level.
  • the musical feature information is generated by the musical feature extraction unit 46 when, for example, music data recorded on a CD or DVD is transferred to the hard disk 43A.
  • the musical feature generation unit 46 analyzes the song data when transferring the song data to the hard disk 43A, extracts the musical features from the song data card, and describes the musical features. Generated musical feature information.
  • the extraction of musical features, the content of musical feature information, etc. are described in Non-Patent Document 1, for example.
  • the music selection unit 23 generates a music list describing the music numbers of the music selected based on the sensitivity word. That is, the environment recognizing unit 21 generates a plurality of types of environment information such as season information, time zone information, weather information, neighborhood information, and running state information. Environmental matters such as the current season, the current time zone, the weather at the current location and the current time, the geography around the point where the vehicle is currently driving, and the current driving state of the vehicle However, in car navigation system 1, they are recognized independently and coexist. Therefore, a plurality of types of environmental information described above coexist, and as a result, a plurality of different sensitivity words may be specified.
  • environment information such as season information, time zone information, weather information, neighborhood information, and running state information.
  • environmental matters such as the current season, the current time zone, the weather at the current location and the current time, the geography around the point where the vehicle is currently driving, and the current driving state of the vehicle
  • car navigation system 1 they are recognized independently and coexist. Therefore, a plurality of types
  • the music selected based on one sensitivity word is not necessarily one music, but rather, a plurality of music is usually selected based on one sensitivity word. Therefore, the music selection unit 23 normally selects a plurality of songs based on a plurality of sensitivity words, and generates a song list in which the song numbers of the selected plurality of songs are described.
  • FIG. 6 shows a music list generated by the music selection unit 23.
  • the season information points to winter, the weather information points to a sunny area, and the time zone information
  • the report points to the daytime, the point neighborhood information points to the lake, and the running state information points to general road conditions. For this reason, a plurality of sensitivity words such as “quiet”, “good”, “healed”, and “bright” are specified. And based on the sensitivity word “quiet”
  • step S5 in FIG. 2 the music selection unit 23 designates a music to be reproduced from the music listed in the music list (hereinafter referred to as "music designation processing"). Do).
  • music designation processing There are three types of music designation processes. For example, before going out to the drive, the user can operate the operation unit 44 and select any one of the three music designation processes.
  • FIG. 6 shows the first music designation process.
  • the first music designation process is a process of designating the music selected based on the sensitivity word corresponding to the environmental information that was generated or changed last. That is, as shown in FIG. 6, the music selection unit 23 first identifies the environment information that was generated or changed last among the plurality of types of environment information (step Sl 1). That is, when multiple types of environment information is generated and the power has not been changed, the music selection unit 23 identifies the most recently generated environment information among the multiple types of environment information. On the other hand, when a plurality of types of environment information are generated and changed, the music selection unit 23 identifies the last changed environment information among the plurality of types of environment information.
  • the music selection unit 23 designates the music selected based on the music corresponding to the environment information generated or changed last. For example, in FIG. 5, when the environment information last generated or changed is the running state information, the music selection unit 23 performs group D of the music list 121. Specify 5 songs belonging to. According to the first music designation process, it is possible to designate and play music that is adapted to changes in the environment in which the vehicle is placed or that is adapted to changes in the user's feelings one after another.
  • FIG. 7 shows the second music designation process.
  • the second music designation process is a process for designating the music selected based on the sensitivity word corresponding to the highest priority environmental information. That is, as shown in FIG. 7, the music selection unit 23 first determines whether or not there is a force that has generated or changed a plurality of types of environment information within a certain period (step S21).
  • the certain period is, for example, a period from the start of the reproduction of one specified song to the end of the reproduction of the song (hereinafter referred to as “one song reproduction period”).
  • one song reproduction period is, for example, a period from the start of the reproduction of one specified song to the end of the reproduction of the song (hereinafter referred to as “one song reproduction period”).
  • the music selection unit 23 has the highest priority among the multiple types of environmental information generated or changed.
  • the priority order of the environment information is, for example, the order of frequency of change.
  • they are, for example, driving state information, location information, weather information, time zone information, and season information.
  • the environmental information that is most frequently changed is environmental information that indicates the environment with the highest frequency of change S. For example, in FIG. 5, when the season information, weather information, time zone information, point vicinity information, and driving state information are generated or changed during the music playback period, the music selection unit 23 displays the sensitivity word corresponding to the driving state information.
  • the music selection unit 23 has a sensitivity corresponding to the one type of environmental information generated or changed.
  • the music selected based on the word is specified (step S23). According to the second music designation process, changes in the environment in which the vehicle is placed or changes in the user's feeling can be reflected in the selection / designation of the music with high sensitivity.
  • FIG. 8 shows the third music designation process.
  • the third music designation process is a process of sequentially designating music in the order of priority in the environmental information. That is, as shown in FIG. 8, the music selection unit 23 first generates or changes multiple types of environment information within a certain period. It is determined whether or not the force is strong (step S31). A certain period is, for example, one music playback period. 1 When multiple types of environment information are generated or changed within the song playback period (step S31: YES), the song selection unit 23 is based on a plurality of sensitivity words corresponding to the generated or changed types of environment information. Then, the selected music is sequentially designated in order of the priority of the environment information (step S32).
  • the priority order of environmental information is, for example, the order of frequency of change.
  • the music selection unit 23 when the season information, weather information, time zone information, point neighborhood information, and driving state information are generated or changed within one music playback period, the music selection unit 23 firstly sets the driving state information.
  • the music selected based on the sensitivity word corresponding to, that is, the five music belonging to the group D in the music list 121 is designated.
  • the music selection unit 23 designates the music selected based on the sensitivity word corresponding to the point vicinity information, that is, four music belonging to the group C in the music list 121.
  • the music selection unit 23 designates the music selected based on the sensitivity word corresponding to the time zone information and the weather information, that is, five music belonging to the group B of the music list 121.
  • the music selection unit 23 designates the music selected based on the sensitivity word corresponding to the season information, that is, four music belonging to the group A in the music list 121.
  • the music selection unit 23 changes the sensitivity word corresponding to the generated or changed one type of environmental information.
  • the music selected on the basis is designated (step S33). According to the third music designation process, it is possible to designate and play music that suits the various environments in which the vehicle is placed or the various feelings of the user.
  • the music selection unit 23 first selects the music list. Specify 3 of 5 songs belonging to 121 group D. Subsequently, the song selection unit 23 designates three of the four songs belonging to group C in the song list 121. Subsequently, the music selection unit 23 displays the group in the music list 121. Specify 3 of the 5 songs that belong to Loop B. Subsequently, the song selection unit 23 designates three of the four songs belonging to group A in the song list 121.
  • the sensitivity corresponding to the changed environmental information is changed.
  • the music to be played can be quickly changed in accordance with changes in the environment in which the vehicle is placed or changes in the user's feelings.
  • the current song is Playback of the newly specified song starts.
  • the environmental information changes while the specified song is being played, and a new song is specified accordingly, playback of the currently playing song is stopped, The playback of the newly designated music may be started immediately.
  • the priority order of the environment information can be changed (customized) by the user. This makes it possible to specify and play music that matches the user's individual sensibility.
  • step S 6 in FIG. 2 the music selection unit 23 outputs music specifying information indicating the music to be reproduced to the music reproduction unit 31.
  • the music selection unit 23 generates music specifying information indicating the music number of the music specified in the music specification process, and outputs this to the music playback unit 31.
  • step S7 in FIG. 2 the music reproducing unit 31 reads the music data corresponding to the music number indicated by the music specifying information from the hard disk 43A and reproduces this music data.
  • the car navigation system 1 uses the measurement device or communication device used for car navigation, such as the GPS receiver 11 and the vehicle speed measurement unit 12, to provide position information, date / time information, and road type information. , Generate the acquisition information such as speed information, based on the acquired information! /, Recognizes the environment where the vehicle is currently placed! /, And recognizes the environment where the vehicle is currently placed! / A corresponding sensitivity word is automatically identified, music data is automatically selected based on this sensitivity word, and a music corresponding to the selected music data is played. This makes the car According to the navigation system 1, it is possible to eliminate the user's trouble of selecting music. In addition, music that matches the changes in the environment in which the vehicle is placed can be selected one after another and played one after another.
  • a user can specify a sensitivity word corresponding to the environment in which the vehicle is currently located, and select music data that matches the sensitivity word. You can select songs that match your emotional changes one after another and play them one after another
  • the GPS receiving unit 11, the vehicle speed measuring unit 12, the gyro sensor 13, the VICS receiving unit 14, the navigation control unit 15, and the data communication unit 41 are specific examples of the information acquisition means and the information acquisition process.
  • the environment recognition unit 21 is a specific example of the environment recognition means and the environment recognition process
  • the sensitivity word specification unit 22 is a specific example of the sensitivity word specification means and the sensitivity word specification process
  • the music selection unit 23 is a music selection unit. This is a specific example of the means and the music selection process
  • the music playback unit 31 is a specific example of the music playback means.
  • the environment information-sensitivity word table is a specific example of the correspondence information indicating the correspondence between the environment where the moving object is placed and the sensitivity word, and the hard disk drive 43 is the storage means, the music storage means, and the musical feature information. This is a specific example of storage means.
  • FIG. 9 shows a car navigation system provided with a music selection device according to a second embodiment of the present invention.
  • the same components as those in the car navigation system 1 in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
  • the car navigation system 2 in FIG. 9 selects a music piece based on environmental information without specifying a sensitivity word.
  • the music information based music information table is used to select music based on the environmental information.
  • an environment recognition unit 51 and a music selection unit 52 belong to the music selection section 50 of the car navigation system 2.
  • the environment recognition unit 51 recognizes the environment where the host vehicle is currently located based on the acquired information provided by the navigation control unit 15, and generates environment information indicating this environment.
  • the music selection section 52 The music is selected based on the environment information generated by the boundary recognition unit 51 and the environment information-one music table.
  • the environment recognition unit 51 and the music selection unit 52 are configured by, for example, an arithmetic processing circuit and a storage element.
  • the car navigation system 2 has a function of automatically selecting music data corresponding to the environment in which the vehicle is currently located and playing back music corresponding to the selected music data.
  • the operation of the car navigation system 2 relating to this function is as shown in FIG. That is, as shown in FIG. 10, the navigation control unit 15 includes the GPS reception unit 11, the vehicle speed measurement unit 12, the gyro sensor 13, the VICS reception unit 14, the data communication unit 41, and the map data. Position information, date / time information, sunrise Z sunset time information, road type information, speed information, traffic jam information, and weather forecast information are generated, and the acquired information is provided to the environment recognition unit 51 (step S41).
  • the environment recognition unit 51 recognizes the environment where the vehicle is currently located based on the acquired information, generates environment information indicating the environment, and provides this environment information to the music selection unit 52. (Step S42). Subsequently, the music selection unit 52 selects a music based on the environment information and the environment information-music table, and generates a list of the selected music (step S43). Further, the music selection unit 52 designates a music to be reproduced from the music listed in the music list (step S44). Then, the music selection unit 52 outputs music specifying information indicating the music to be reproduced to the music reproduction unit 31 (step S45). Subsequently, the music playback unit 31 plays back the music indicated by the music specifying information (step S46).
  • the music selection unit 52 selects a music based on the environment information and the environment information-music table, and generates a list of the selected music.
  • the environmental information-music table describes the correspondence between environmental information and music.
  • the environmental information-music table includes a season information-music table, a time zone information-one music table, a point neighborhood information-one music table, a weather information-one music table, a running state information-one music table, and the like. These environmental information / one music table is generated in advance and recorded on the hard disk 43A.
  • FIG. 11 shows the driving status information and music
  • An example of environmental information music table (running state information music table) in which the correspondence is described is shown.
  • the music selection unit 52 refers to the driving state information—music table 131 to select the music corresponding to the music numbers 53, 49, 01, etc. select.
  • the music list generation by the music selection unit 52 is the same as the music list generation by the music selection unit 23 in step S4 in FIG.
  • the music selection unit 52 performs a process of designating a music to be reproduced from the music listed in the music list, that is, a music designating process.
  • the first music designation process is a process of designating the music selected based on the environment information last generated or changed by the environment recognition unit 51.
  • the second music designation process is a process for assigning priorities to a plurality of types of environmental information and designating only the music selected based on the environmental information having the highest priority among the plurality of types of environmental information.
  • the third music designation process prioritizes multiple types of environmental information, collects multiple songs based on multiple types of environmental information, and sequentially collects the collected songs in order of decreasing priority of the environmental information. It is a process to specify. The contents of these processes are almost the same as the music designation process in step S5 in FIG. 2 except that the music is selected through the sensitivity word.
  • step S 45 in FIG. 10 the music selection unit 52 generates music specifying information indicating the music number of the music specified in the music specification process, and outputs this to the music playback unit 31.
  • step S46 in FIG. 10 the music playback unit 31 reads the music data corresponding to the music number indicated by the music specifying information from the hard disk 43A, and plays back this music data.
  • the car navigation system 2 uses the measuring device or communication device used for car navigation, such as the GPS receiving unit 11 and the vehicle speed measuring unit 12, to provide position information, date / time information, and road type information. , Generate the acquisition information such as speed information, based on the acquired information! /, Recognizes the environment where the vehicle is currently placed! /, And recognizes the environment where the vehicle is currently placed! / The corresponding music data is automatically selected and the music corresponding to the selected music data is played.
  • the user can easily Eliminates the hassle of selecting songs. In addition, you can select and play music that suits the changes in the environment in which your vehicle is placed.
  • the environment recognition unit 51 is a specific example of the environment recognition unit and the environment recognition process
  • the music selection unit 52 is a specific example of the music selection unit and the music selection process
  • the environment information music table is a specific example of the correspondence information indicating the correspondence between the environment information and the music
  • the hard disk drive 43 is a specific example of the storage means storing the correspondence information.
  • each of the car navigation systems 1 and 2 may be realized as a dedicated system and integrally configured with a hardware, or realized by allowing a computer to read a program. Also good. In the latter case, a computer program for realizing information acquisition means, environment recognition means, music selection means, etc. is created.
  • the GPS receiving unit 11, the vehicle speed measuring unit 12, the gyro sensor 13, the VICS receiving unit 14, the data communication unit 41, and map data are used as components for generating or acquiring the acquisition information.
  • the GPS receiving unit 11, the vehicle speed measuring unit 12, the gyro sensor 13, the VICS receiving unit 14, the data communication unit 41, and map data are used as components for generating or acquiring the acquisition information.
  • only a part of these components may be used to generate or acquire acquired information, and other measurement equipment or data may be added as components for generating or acquiring acquired information. May be.
  • position information date and time information, sunrise time and sunset time information, road type information, speed information, traffic jam information, and weather forecast information are generated or acquired as acquisition information.
  • information other than these may be generated or acquired as acquisition information.
  • the illuminance information that can also be obtained from the illuminance meter installed in the automobile, the temperature information obtained from the thermometer installed in the automobile, the information that indicates whether the wiper is operating, etc. are generated or acquired as the acquisition information. May be.
  • Such acquired information can be used for generating weather information as environmental information.
  • seasonal information, time zone information, weather information, local neighborhood information, and driving state information are generated as environmental information. It may be generated as information.
  • vehicle temperature information is generated as acquisition information by measuring the temperature in the vehicle, and based on this information, the temperature information of the human body in the vehicle is It may be generated as information.
  • the case where the user selects the music designation process is taken as an example.
  • one music designation process may be fixedly set in advance, and this music designation process may always be performed.
  • the music data selected by the music selection unit 23 and reproduced by the music reproduction unit 31 is mounted on the automobile as a part of the car navigation system 1 or 2.
  • An example is shown in which the data is stored or recorded on the node disc 43A or the optical disc 42A.
  • the music data may be stored or recorded in a storage device outside the car.
  • the music data may be recorded on a hard disk mounted on a personal computer at home.
  • the music selection unit 23 and the music playback unit 31 communicate with a personal computer at home via the data communication unit 41, the mobile communication network, the Internet network, and the like, and are stored in the hard disk of the personal computer. Search, browse, read, and acquire recorded music data.
  • the music selection device of the present invention is applied to a car navigation system is taken as an example.
  • the present invention can be applied to navigation systems for other vehicles as well as navigation systems for automobiles.
  • the present invention can be applied not only to a vehicle navigation system but also to other mobile navigation systems.
  • the present invention can be applied not only to a navigation system but also to an in-vehicle audio device, and further to a mobile object audio device.
  • the present invention can be changed as appropriate without departing from the gist or concept of the invention that can be read from the claims and the entire specification, and the music selection device and music selection accompanied by such changes can be made. Methods and computer programs that implement these functions are also included in the technical idea of the present invention.
  • the music selection device and the music selection method according to the present invention can be used for, for example, a car navigation system having a function as a car audio.
  • a car navigation system having a function as a car audio.
  • the people It can also be used in music selection devices, etc. that are mounted on various computer equipment for live use or business use, or that can be connected to various types of reviews.

Abstract

 カーナビゲーションシステム(1)は、GPS受信部(11)、車速測定部(12)など、カーナビゲーションに用いられる測定機器または通信機器を用いて位置情報、日時情報、道路種別情報、速度情報などの取得情報を生成し、これら取得情報に基づいて自車が現在置かれている環境を認識し、自車が現在置かれている環境に対応した感性語を自動的に特定し、この感性語に基づいて楽曲データを自動的に選択し、この選択された楽曲データに対応する楽曲を再生する。

Description

明 細 書
楽曲選択装置および楽曲選択方法
技術分野
[0001] 本発明は、例えばカーオーディオとしての機能を備えたカーナビゲーシヨンシステ ムなどに用いて好適な楽曲選択装置および楽曲選択方法に関する。
背景技術
[0002] 現在普及しているカーナビゲーシヨンシステムの多くは、カーオーディオとしての機 能、すなわち車内で楽曲を再生することができる機能を備えている。また、現在普及 して 、るカーナビゲーシヨンシステムの中には、ハードディスクドライブ装置を備えて いるものがある。さらに、ハードディスクドライブ装置を備えたカーナビゲーシヨンの中 には、ハードディスクに多数の楽曲データを記録し、これら多数の楽曲データを車内 で再生することができる機能を備えたものがある。
[0003] さらに、ハードディスクに記録された多数の楽曲データを再生することができるカー ナビゲーシヨンシステムの中には、ユーザが選択した感性語に応じて楽曲を選択する 機能を備えたものがある。例えばカーナビゲーシヨンシステムのタツチパネルディスプ レイに、「明るい」、「静かな」、「かなしい」などの感性語を指し示したボタンが表示さ れる。明るい楽曲を聴きたいときには、ユーザは「明るい」のボタンを押す。これに応じ て、カーナビゲーシヨンシステムは、ハーディスクに記憶された楽曲の中から、曲調が 明るい楽曲を自動的に選択し、この楽曲を再生する。このような技術は例えば下記の 文献に記載されている。
[0004] 非特許文献 1:児玉泰輝、外 5名、「フィーリングプレイの開発」、 PIONEER R&D、パイ ォ-ァ株式会社研究開発本部、 2004年 11月 30日、第 14卷、第 3号、 p.11-16 発明の開示
発明が解決しょうとする課題
[0005] 確かに、ユーザが選択した感性語に応じて楽曲を選択する機能を備えたカーナビ ゲーシヨンシステムによれば、ユーザは自分の現在の気持ち(気分)に合った楽曲を 容易に選択することができ、選択した楽曲を車内で聴くことができる。 [0006] ところが、このカーナビゲーシヨンシステムでは、ユーザは、楽曲を選択するために 、感性語を指し示したボタンを手動で押さなければならない。このため、感性語を指 定するために手間が力かると!、う問題がある。
[0007] すなわち、車内にいるユーザの気持ちは、例えば、海の近くを走行しているのか山 の中を走行しているの力 走行の時間帯が夜なのか昼なのか、天気が晴れなのか雨 なのか、車両が順調に走行しているカゝ、渋滞のために順調に走行していないのかな どによって異なる。さらに、車両の移動に伴い、海の近くを走行しているのか山の中を 走行しているのかが変化する。また、時間の経過に伴い、走行の時間帯が夜なのか 昼なのかが変化する。また、走行中に天気が変化する場合もあるし、時間や場所の 変化に伴って渋滞状況なども変化する。したがって、車内にいるユーザの気持ちも、 時間や場所の変化に伴って変化する。このため、例えば長時間のドライブの間に、ュ 一ザが気持ちの変化に応じた楽曲を聴くためには、ユーザは、気持ちが変化する度 に、感性語の指定を変更しなければならない。上述したカーナビゲーシヨンシステム では、手動で感性語の指定をしなければならないため、手間がかかる。
[0008] 本発明は上記に例示したような問題点に鑑みなされたものであり、本発明の第 1の 課題は、ユーザによる楽曲選択の手間をなくすことができる楽曲選択装置、楽曲選 択方法およびコンピュータプログラムを提供することにある。
[0009] 本発明の第 2の課題は、ユーザの気持ちの変化に適合した楽曲を次々に選択する ことができる楽曲選択装置、楽曲選択方法およびコンピュータプログラムを提供する ことにある。
[0010] 本発明の第 3の課題は、移動体の置かれた環境の変化に適合した楽曲を次々に 選択することができる楽曲選択装置、楽曲選択方法およびコンピュータプログラムを 提供することにある。
課題を解決するための手段
[0011] 上記課題を解決するために本発明の第 1楽曲選択装置は、移動体の現在位置を 示す情報を取得し、これを取得情報として提供する情報取得手段と、前記情報取得 手段により提供された取得情報に基づいて、前記移動体が現在置かれている環境を 認識し、この環境を示す環境情報を生成する環境認識手段と、前記環境認識手段 により生成された環境情報に対応する感性語を特定する感性語特定手段と、前記感 性語特定手段により特定された感性語に基づいて楽曲を選択する楽曲選択手段と を備えている。
[0012] 上記課題を解決するために本発明の第 2楽曲選択装置は、移動体の現在位置を 示す情報を取得し、これを取得情報として提供する情報取得手段と、前記情報取得 手段により提供された取得情報に基づいて、前記移動体が現在置かれている環境を 認識し、この環境を示す環境情報を生成する環境認識手段と、前記環境情報と楽曲 との対応関係を示す対応関係情報を記憶した記憶手段と、前記環境認識手段により 生成された環境情報および前記記憶手段に記憶された対応関係情報に基づいて楽 曲を選択する楽曲選択手段とを備えている。
[0013] 上記課題を解決するために本発明の第 1楽曲選択方法は、移動体の現在位置を 示す情報を取得し、これを取得情報として提供する情報取得工程と、前記情報取得 工程にお!、て提供された取得情報に基づ 、て前記移動体が現在置かれて 、る環境 を認識し、この環境を示す環境情報を生成する環境認識工程と、前記環境認識工程 にお!/ヽて生成された環境情報に対応する感性語を特定する感性語特定工程と、前 記感性語特定工程にぉ ヽて特定された感性語に基づ ヽて楽曲を選択する楽曲選択 工程とを備えている。
[0014] 上記課題を解決するために本発明の第 2楽曲選択方法は、移動体の現在位置を 示す情報を取得し、これを取得情報として提供する情報取得工程と、前記情報取得 工程にお!、て提供された取得情報に基づ 、て前記移動体が現在置かれて 、る環境 を認識し、この環境を示す環境情報を生成する環境認識工程と、前記環境認識工程 において生成された環境情報および前記環境情報と楽曲との対応関係を示す対応 関係情報に基づいて楽曲を選択する楽曲選択工程とを備えている。
[0015] 上記課題を解決するために本発明のナビゲーシヨンシステムは、本発明の第 1又は 第 2楽曲選択装置 (但し、その各種態様を含む)を備えて!/、る。
[0016] 上記課題を解決するために本発明のコンピュータプログラムは、本発明の第 1又は 第 2楽曲選択装置 (但し、その各種態様を含む)としてコンピュータを機能させる。
[0017] コンピュータ読取可能な媒体内のコンピュータプログラム製品は上記課題を解決す るために、コンピュータにより実行可會なプログラム命令を明白に具現ィ匕し、該コンビ ユータを、本発明の第 1又は第 2楽曲選択装置 (但し、その各種態様を含む)として機 能させる。
[0018] 本発明のコンピュータプログラム製品によれば、当該コンピュータプログラム製品を 格納する ROM、 CD-ROM, DVD-ROM,ハードディスク等の記録媒体から、当 該コンピュータプログラム製品をコンピュータに読み込めば、或いは、例えば伝送波 である当該コンピュータプログラム製品を、通信手段を介してコンピュータにダウン口 ードすれば、上述した本発明の第 1又は第 2楽曲選択装置を比較的容易に実施可 能となる。更に具体的には、当該コンピュータプログラム製品は、上述した本発明の 第 1又は第 2楽曲選択装置として機能させるコンピュータ読取可能なコード (或いはコ ンピュータ読取可能な命令)力も構成されてよ 、。
[0019] 本発明のこのような作用及び他の利得は次に説明する実施形態から明らかにされ る。
図面の簡単な説明
[0020] [図 1]本発明の楽曲選択装置の第 1実施形態であるカーナビゲーションシステムを示 すブロック図である。
[図 2]図 1中のカーナビゲーシヨンシステムの動作を示すフローチャートである。
[図 3]図 1中のカーナビゲーシヨンシステムが有する取得情報 環境情報テーブルを 示す説明図である。
[図 4]図 1中のカーナビゲーシヨンシステムが有する環境情報 感性語テーブルを示 す説明図である。
[図 5]図 1中のカーナビゲーシヨンシステムにより生成される楽曲リストを示す説明図で ある。
[図 6]図 1中のカーナビゲーシヨンシステムによる第 1楽曲指定処理を示すフローチヤ ートである。
[図 7]図 1中のカーナビゲーシヨンシステムによる第 2楽曲指定処理を示すフローチヤ ートである。
[図 8]図 1中のカーナビゲーシヨンシステムによる第 3楽曲指定処理を示すフローチヤ ートである。
[図 9]本発明の楽曲選択装置の第 2実施形態であるカーナビゲーシヨンシステムを示 すブロック図である。
[図 10]図 9中のカーナビゲーシヨンシステムの動作を示すフローチャートである。
[図 11]図 9中のカーナビゲーシヨンシステムが有する走行状態情報一楽曲テーブル を示す説明図である。
符号の説明
[0021] 1、 2 カーナビゲーシヨンシステム
11 GPS受信部
12 車速測定部
13 ジャイロセンサ
14 VICS受信部
15 ナビゲーシヨン制御部
21、 51 環境認識部
22 感性語特定部
23、 52 楽曲選択部
31 楽曲再生部
41 データ通信部
43 ハードディスクドライブ
発明を実施するための最良の形態
[0022] 以下、本発明を実施するための最良の形態について実施形態毎に順に図面に基 づいて説明する。
[0023] (第 1実施形態)
図 1は、本発明の楽曲選択装置の第 1実施形態であるカーナビゲーシヨンシステム を示している。図 1中のカーナビゲーシヨンシステム 1は、自動車に搭載されており、 自動車の現在位置 ·進行方向などの情報を測定または取得し、これを表示画面に表 示して運転者などに知らせることができる。また、カーナビゲーシヨンシステム 1は、力 一オーディオとしての機能を備えている。すなわち、カーナビゲーシヨンシステム 1は 、ハードディスクに記憶または記録された楽曲データを再生し、楽曲を自動車内に取 り付けられたスピーカから鳴らすことができる。さらに、カーナビゲーシヨンシステム 1 は、自動車が現在置かれている環境に対応した感性語を自動的に特定し、この感性 語に基づいて楽曲を自動的に選択することができる。
[0024] 図 1に示すように、カーナビゲーシヨンシステム 1は、多くの構成要素を有している。
このため、説明の便宜上、カーナビゲーシヨンシステム 1の構成要素を 3つのセクショ ン、すなわちナビゲーシヨンセクション 10、楽曲選択セクション 20および楽曲再生セ クシヨン 30に分ける。ナビゲーシヨンセクション 10には、主に、自動車の現在位置お よび現在の日時などの情報を測定 '取得するための構成要素が属する。すなわち、 ナビゲーシヨンセクション 10には、 GPS (Global Positioning System)受信部 11、車速 ¾J定咅 |U2、ジャイロセンサ 13、 VICS (Vehicle Information and Communication Syste m)受信部 14およびナビゲーシヨン制御部 15が属する。楽曲選択セクション 20には、 主に、自動車が現在置かれている環境に対応した感性語を自動的に特定し、この感 性語に基づいて楽曲を自動的に選択するための構成要素が属する。すなわち、楽 曲選択セクション 20には、環境認識部 21、感性語特定部 22および楽曲選択部 23 が属する。楽曲再生セクション 30には、主に、ハードディスクに記憶または記録され た楽曲データを再生し、この楽曲データに対応する楽曲を自動車内に取り付けられ たスピーカから鳴らすための構成要素が属する。すなわち、楽曲再生セクション 30に は、楽曲再生部 31およびスピーカ 32、 33力属する。さらに、カーナビゲーシヨンシス テム 1は、データ通信部 41、光ディスクドライブ 42、ハードディスクドライブ 43、操作 部 44、表示部 45および音楽的特徴抽出部 46を備えている。
[0025] GPS受信部 11は、 GPS衛星から発信される電波を受信し、位置測定の対象であ る自動車 (以下、これを「自車」という)の現在位置を測定する。そして、 GPS受信部 1 1は、自車の現在位置を示す緯度情報、経度情報および高度情報を生成する。さら に、 GPS受信部 11は、 GPS衛星から現在の年月日および現在の時刻を示す日時 情報を受け取る。 GPS受信部 11は GPS受信機などにより構成されている。
[0026] 車速測定部 12は、自車から出力される車速パルスをカウントし、自車の走行速度を 測定する。そして、車速測定部 12は、自車の現在の走行速度を示す速度情報を生 成する。車速測定部 12は例えばカウンターなど力も構成されている。
[0027] ジャイロセンサ 13は、自車が曲がったこと、つまり自車が走行方向を変えたことを検 出する。
[0028] VICS受信部 14は、 VICSセンター力も提供される渋滞情報を受け取る。 VICS受 信部 14は VICS受信機などにより構成されている。
[0029] データ通信部 41は、例えば天気予報を行っているウェブサイトなど力も天気予報情 報を取得する。すなわち、データ通信部 41は、例えばデータ通信用カードまたは携 帯電話機などを介してカーナビゲーシヨンシステム 1を移動体通信網およびインター ネット網に接続させることができる。そして、データ通信部 41は、移動体通信網およ びインターネット網を介して天気予報を行っているウェブサイトなどにアクセスすること ができ、このウェブサイトが提供する天気予報情報を受け取ることができる。データ通 信部 41は例えば通信インターフェース回路などにより構成されて 、る。
[0030] ナビゲーシヨン制御部 15は、位置情報、 日時情報、日の出 Z日の入り時刻情報、 道路種別情報、速度情報、渋滞情報および天気予報情報など (以下、これらの情報 を総称して「取得情報」という)を生成する。そして、ナビゲーシヨン制御部 15は取得 情報を環境認識部 21に提供する。なお、ナビゲーシヨン制御部 15は例えば演算処 理回路および記憶素子などにより構成されている。
[0031] 位置情報は自車の現在位置を示す情報である。位置情報は、 GPS受信部 11によ り生成された緯度情報、経度情報および高度情報を、車速測定部 12により生成され た速度情報、ジャイロセンサ 13により検出された情報、および光ディスク 42Aまたは ハードディスク 43Aに記録された地図データなどを用いて補正することにより生成さ れる。位置情報の生成には、例えば GPS測位、自律航法、マップマッチングなどの 方法が用いられる。
[0032] 日時情報は現在の年月日および時刻を示す情報である。 日時情報は GPS受信部 11から提供される。
[0033] 日の出 Z日の入り時刻情報は本日の日の出時刻および日の入り時刻を示す情報 である。 日の出 Z日の入り時刻情報は、日時情報、位置情報および日の出 Z日の入 り時刻計算式を用いて算出することができる。ナビゲーシヨン制御部 15は、例えばノヽ ードディスク 43Aに記録された日の出 Z日の入り時刻計算式を読み取り、これに日 時情報および位置情報を当てはめて日の出 Z日の入り時刻情報を生成する。
[0034] 道路種別情報は自車が現在走行して!/、る道路の種別を示す情報である。道路種 別情報は、位置情報および地図データを用いて生成することができる。すなわち、地 図データには、地図上に存在する道路の種別を示す情報、すなわち地図上に存在 する道路が高速道路か、一般道路力などを示す情報が含まれている。ナビゲーショ ン制御部 15は、位置情報に基づいて自車が現在走行している道路を特定し、続い て、地図上に存在する道路の種別を示す情報を参照することにより自車が現在走行 している道路の種別を知り、これにより道路種別情報を生成する。
[0035] 天気予報情報は現在の天気を示す情報である。すなわち、天気予報情報は、自車 の現在位置および現在の時刻における天気が晴れ、曇り、雨または雪などであること を示す情報である。天気予報情報はデータ通信部 41から提供される。
[0036] 渋滞情報は、自車が現在走行して!/、る道路が渋滞して 、るかどうかを示す情報で ある。渋滞情報は VICS受信部 14から提供される。なお、渋滞情報は、通常、自車が これから移動する先の道路が渋滞して!/、る力否かを知るために用いられる力 カーナ ピゲーシヨンシステム 1では、自車が現在走行して ヽる道路が渋滞して ヽるか否かを 知るために用いられる。
[0037] 環境認識部 21は、ナビゲーシヨン制御部 15により提供された取得情報に基づいて 、自車が現在置かれている環境を認識し、この環境を示す環境情報を生成する。感 性語特定部 22は、環境認識部 21により生成された環境情報に対応する感性語を特 定する。楽曲選択部 23は感性語特定部 22により特定された感性語に基づいて楽曲 を選択する。さらに、楽曲選択部 23は、感性語に基づいて選択された楽曲の中から 、再生すべき楽曲を指定する。環境認識部 21、感性語特定部 22および楽曲選択部 23は、例えば演算処理回路および記憶素子などにより構成されている。環境認識部 21、感性語特定部 22および楽曲選択部 23の動作などについては後述する。
[0038] 楽曲再生部 31は、楽曲選択部 23により選択された楽曲を再生し、楽曲に対応する 音声信号をスピーカ 32および 33に出力する。すなわち、楽曲再生部 31は、楽曲選 択部 23から出力された楽曲特定情報を受け取り、楽曲特定情報の指し示す楽曲の 楽曲データをハードディスク 43A力も読み取る。楽曲データは例えば MP3 (MPEG A udio Layer- 3)データである。楽曲再生部 23は MP3データをデコードし、これを音声 信号に変換するデコード回路などを備えている。楽曲再生部 31は、ハードディスク 4 3A力 読み取った楽曲データをデコードし、これを音声信号に変換し、スピーカ 32 および 33に出力する。スピーカ 32および 33は自車内に設けられている。
[0039] 光ディスクドライブ 42は、例えば CDおよび DVDなどの光ディスクに記録されたデ ータを再生することができるマルチディスクドライブ装置である。例えば地図データが 記録された DVDを光ディスクドライブ 42に装着することにより、地図データを位置情 報、道路種別情報などの生成に用いることが可能になる。なお、 DVDに記録された 地図データをノ、ードディスク 43Aに転送することもできる。さらに、楽曲データが記録 された CDまたは DVDを光ディスクドライブ 42に装着することにより、楽曲データをハ ードディスク 43Aに転送することが可能になる。なお、 CDまたは DVDに記録された 楽曲データを直接再生することもできる。
[0040] ハードディスクドライブ 43のハードディスク 43Aは、例えば数十 GB程度の容量を有 する。ノ、ードディスク 43Aには、地図データ、日の出 Z日の入り時刻計算式、楽曲デ ータ、音楽的特徴情報、取得情報一環境情報テーブル (図 3参照)および環境情報 —感性語テーブル(図 4参照)などが記録されている。例えば、ハードディスク 43Aに は、数十曲ないし数万曲の楽曲データが記録されている。
[0041] 操作部 44は、ユーザがカーナビゲーシヨンシステム 1に対し情報、指令などを入力 するためのボタン、つまみなどのメカ-カルスイッチおよびタツチパネル装置などを備 えている。表示部 45は、ユーザに対しカーナビゲーシヨンシステム 1の動作状況、地 図データ、自車の現在位置、自車の走行軌跡、渋滞情報、通行規制情報、タツチパ ネル用のボタン、楽曲に関する情報 (例えば楽曲のタイトル)などを表示するための ディスプレイ装置であり、例えば液晶ディスプレイ装置力 構成されて 、る。
[0042] カーナビゲーシヨンシステム 1は、自車が現在置かれている環境に対応した感性語 を自動的に特定し、この感性語に基づいて楽曲データを自動的に選択し、この選択 された楽曲データに対応する楽曲を再生する機能を有する。この機能に関するカー ナビゲーシヨンシステム 1の動作は図 2に示す通りである。すなわち、図 2に示すよう に、ナビゲーシヨン制御部 15は、 GPS受信部 11、車速測定部 12、ジャイロセンサ 13 、 VICS受信部 14、データ通信部 41および地図データに基づいて、取得情報、つま り位置情報、 日時情報、日の出 Z日の入り時刻情報、道路種別情報、速度情報、渋 滞情報および天気予報情報を生成し、これら取得情報を環境認識部 21に提供する( ステップ Sl)。続いて、環境認識部 21は、取得情報に基づいて、自車が現在置かれ ている環境を認識し、この環境を示す環境情報を生成し、この環境情報を感性語特 定部 22に提供する (ステップ S2)。続いて、感性語特定部 22は、環境情報に対応す る感性語を特定する (ステップ S3)。続いて、楽曲選択部 23は、感性語特定部 22に より特定された感性語に基づいて楽曲を選択し、選択した楽曲のリストを生成する (ス テツプ S4)。さらに、楽曲選択部 23は、楽曲リストに掲げられた楽曲の中から、再生 すべき楽曲を指定する (ステップ S5)。そして、楽曲選択部 23は、再生すべき楽曲を 指し示す楽曲特定情報を楽曲再生部 31に出力する (ステップ S6)。続いて、楽曲再 生部 31は、楽曲特定情報により指し示された楽曲を再生する (ステップ S7)。
[0043] 以下、図 2に示すカーナビゲーシヨンシステム 1の動作について詳細に説明する。
まず、図 2中のステップ S2において、環境認識部 21は、取得情報に基づいて、自車 が現在置かれている環境を認識し、この環境を示す環境情報を生成する。環境情報 とは、自車が現在置かれている環境を示す情報である。環境情報には、季節情報、 時間帯情報、天気情報、地点近傍情報、走行状態情報などがある。
[0044] 季節情報は現在の季節を示す情報である。季節情報には、例えば春、夏、秋、冬 がある。
[0045] 時間帯情報は現在の時間帯を示す情報である。時間帯情報には、例えば早朝、朝 、昼、夜、深夜がある。
[0046] 天気情報は、自車が現在走行して!/、る区域における現在の天気を示す情報である 。天気情報には、晴れ区域、曇り区域、雨区域、雪区域がある。
[0047] 地点近傍情報は、自車が現在走行している地点の周囲の地理を示す情報である。
地点近傍情報には、海、山、湖、ユーザ登録地点がある。ユーザ登録地点とは、ユー ザが任意に登録した地点(例えば〇〇〇遊園地、 X X X橋など)である。地点の登 録は、例えばユーザがドライブに出かける前に操作部 44を操作して地点を入力する こと〖こよって行われる。
[0048] 走行状態情報は、自車が現在走行している状態を示す情報である。具体的には、 走行状態情報は、自車が現在順調に走行しているカゝ、それとも渋滞のために順調に 走行して ヽな 、力ゝ (例えば自車の進み具合が断続的であり、平均して 10km程度の速 度でしか進まな 、状態か)を示す情報である。
[0049] 環境情報の生成は、例えば次のように行われる。すなわち、環境情報の生成は、図 3に示すような取得情報—環境情報テーブル 101、 102、 103、 104を用いることによ つて行われる。取得情報-環境情報テーブル 101ないし 104には、取得情報と環境 情報との対応関係が記述されている。取得情報—環境情報テーブル 101ないし 104 は、例えばノヽードディスク 43Aに記録されている。環境認識部 21は、ハードディスク 4 3Aに記録された取得情報—環境情報テーブル 101な 、し 104を参照し、ナビゲー シヨン制御部 15から提供された取得情報に対応する環境情報を特定することによつ て、環境情報を生成する。
[0050] 取得情報一環境情報テーブル 101には、日時情報と季節情報との対応関係が記 述されている。例えば、ナビゲーシヨン制御部 15から提供された日時情報の指し示 す月が 3月〜5月のときには、環境認識部 21は、取得情報一環境情報テーブル 101 を参照することにより春を指し示す季節情報を生成する。また、ナビゲーシヨン制御部 15から提供された日時情報の指し示す月が例えば 9月〜11月のときには、環境認 識部 21は、取得情報一環境情報テーブル 101を参照することにより秋を指し示す季 節情報を生成する。
[0051] 取得情報—環境情報テーブル 102には、日時情報および日の出 Z日の入り時刻 情報と時間帯情報との対応関係が記述されている。例えば、ナビゲーシヨン制御部 1 5から提供された日時情報の指し示す時刻が午前 6時であり、ナビゲーシヨン制御部 15から提供された日の出時刻情報の指し示す時刻が午前 5時 30分であるときには、 環境認識部 21は、取得情報一環境情報テーブル 102を参照することにより早朝を指 し示す時間帯情報を生成する。また、ナビゲーシヨン制御部 15から提供された日時 情報の指し示す時刻が午後 7時であり、ナビゲーシヨン制御部 15から提供された日 の出時刻情報の指し示す時刻が午後 6時であるときには、環境認識部 21は、取得情 報一環境情報テーブル 102を参照することにより夜を指し示す時間帯情報を生成す る。
[0052] 取得情報一環境情報テーブル 103には、天気予報情報と天気情報との対応関係 が記述されている。例えば、ナビゲーシヨン制御部 15から提供された天気予報情報 の指し示す天気が晴れであるときには、環境認識部 21は、取得情報一環境情報テ 一ブル 103を参照することにより晴れ区域を指し示す天気情報を生成する。
[0053] 取得情報一環境情報テーブル 104には、道路種別情報および速度情報と走行状 態情報との対応関係が記述されている。例えば、ナビゲーシヨン制御部 15から提供 された道路種別情報が高速道路であり、かつ速度情報が指し示す速度が時速 80km であるときには、環境認識部 21は、取得情報一環境情報テーブル 104を参照するこ とにより高速道路順調を指し示す走行状態情報を生成する。また、ナビゲーシヨン制 御部 15から提供された道路種別情報が一般道路であり、かつ速度情報が指し示す 速度が時速 10kmであるときには、環境認識部 21は、取得情報-環境情報テーブル 104を参照することにより一般道路渋滞を指し示す走行状態情報を生成する。なお、 走行状態情報の生成には、 VICS受信部 14により提供された渋滞情報を併用しても よい。
[0054] なお、地点近傍情報は、取得情報一環境情報テーブルを用いることなしに、位置 情報および地図データに基づいて生成される。例えば、環境認識部 21は、地図デ ータを参照し、ナビゲーシヨン制御部 15から提供された位置情報の指し示す位置を 地図上において特定し、当該位置から半径 lkm内に海があるときには、海を指し示 す地点近傍情報を生成する。
[0055] あるいは、地点近傍情報を次のように生成してもよい。すなわち、地図データに含ま れている道路データに、例えば「海が見える道路」、「湖が見える道路」などといった 道路の景観などに関する情報 (例えばフラグ)を予め付加しておく。地点近傍情報を 生成するにあたり、環境認識部 21は、位置情報などに基づいて自車が現在走行して いる道路を特定し、続いて、道路データに付加されている景観などに関する情報を 参照することにより自車が現在走行している道路が例えば「海が見える道路」なのカ 湖が見える道路」なのかなどを認識し、この認識結果に基づ 、て地点近傍情報を生 成する。この生成方法によれば、自車の現在位置と海や湖などとの間の距離ではな く、その道路から海や湖が見えると 、う事実に基づ 、て地点近傍情報を生成すること ができる。したがって、道路から見える実際の景観を適切に反映した地点近傍情報を 生成することが可能になる。
[0056] 次に、図 2中のステップ S3において、感性語特定部 22は、環境情報に対応する感 性語を特定する。感性語とは、ある環境に人間が置かれたときに感じる気持ちを表現 した言葉である。感性語には、例えば「明るい」、「ノリがいい」、「静かな」、「かなしい」 、「癒される」力 Sある。なお、これ以外の感性語を採用してもよい。
[0057] 感性語の特定は、例えば次のように行われる。すなわち、環境情報の生成は、図 4 に示すような環境情報—感性語テーブル 111、 112、 113、 114、 115を用いること によって行われる。環境情報—感性語テーブル 111ないし 115には、環境情報と感 性語との対応関係が記述されて 、る。環境情報—感性語テーブル 111な 、し 115は 、例えばノヽードディスク 43Aに記録されている。感性語特定部 22は、ハードディスク 4 3Aに記録された環境情報—感性語テーブル 111な 、し 115を参照し、環境認識部 21から提供された環境情報に対応する感性語を特定する。
[0058] 環境情報 感性語テーブル 111には、季節情報と感性語との対応関係が記述さ れている。例えば、環境認識部 21から提供された季節情報の指し示す季節が春のと きには、感性語特定部 22は、環境情報-感性語テーブル 111を参照することにより「 明るい」を特定する。また、環境認識部 21から提供された季節情報の指し示す季節 が秋のときには、感性語特定部 22は、環境情報—感性語テーブル 111を参照するこ とにより「かなし!/、」を特定する。
[0059] 環境情報 感性語テーブル 112には、時間帯情報と感性語との対応関係が記述 されている。例えば、環境認識部 21から提供された時間帯情報の指し示す時間帯が 早朝のときには、感性語特定部 22は、環境情報 感性語テーブル 112を参照する ことにより「癒される」を特定する。また、環境認識部 21から提供された時間帯情報の 指し示す時間帯が夜のときには、感性語特定部 22は、環境情報-感性語テーブル 112を参照することにより「静かな」を特定する。
[0060] 環境情報 感性語テーブル 113には、天気情報と感性語との対応関係が記述さ れている。例えば、環境認識部 21から提供された天気情報の指し示す天気区域が 晴れ区域のときには、感性語特定部 22は、環境情報-感性語テーブル 113を参照 することにより「ノリが 、」を特定する。
[0061] 環境情報 感性語テーブル 114には、地点近傍情報と感性語との対応関係が記 述されている。例えば、環境認識部 21から提供された地点近傍情報の指し示す地理 が海のときには、感性語特定部 22は、環境情報—感性語テーブル 114を参照するこ とにより「明るい」を特定する。
[0062] 環境情報 感性語テーブル 115には、走行状態情報と感性語との対応関係が記 述されている。例えば、環境認識部 21から提供された走行状態情報の指し示す走行 状態が高速道路順調のときには、感性語特定部 22は、環境情報-感性語テーブル 115を参照することにより「ノリが 、」を特定する。
[0063] なお、環境情報—感性語テーブル 111な 、し 114における環境情報と感性語との 対応関係は、ユーザが変更 (カスタマイズ)することができる。これにより、ユーザの個 性的な感性に適合した楽曲の選択'再生を実現することができる。
[0064] 次に、図 2中のステップ S4において、楽曲選択部 23は、まず、感性語特定部 22に より特定された感性語に基づいて楽曲を選択する。感性語に基づく楽曲の選択は、 例えば次のように行われる。すなわち、感性語に基づく楽曲の選択には、音楽的特 徴情報が用いられる。音楽的特徴情報は、楽曲のコード進行、長調 Z短調、リズム、 テンポ、平均的なレベルなどの音楽的特徴を示す情報である。音楽的特徴情報は、 予め生成され、ハードディスク 43Aに記録されている。また、音楽的特徴情報は、ハ ードディスク 43Aに記録された複数の楽曲データごとに生成されており、これら複数 の楽曲データとそれぞれ対応づけられている。楽曲選択部 23は、音楽的特徴情報 を参照することにより、感性語に合致する楽曲を選択する。
[0065] ここで、音楽的特徴情報を参照することによる楽曲の選択について具体的に説明 する。例えば、人間が「ノリがいい」と感じる楽曲は、例えば長調でテンポが速くレべ ルが平均的に大きいといった音楽的特徴を有する。したがって、「ノリがいい」という感 性語に基づ 、て、長調でテンポが速くレベルが平均的に大き 、と 、つた音楽的特徴 を特定し、この音楽的特徴を有する楽曲を選択すれば、「ノリがいい」という感性語に 合致する楽曲を選択することができる。また、人間が「静か」と感じる楽曲は、例えば 短調でテンポが遅くレベルが平均的に小さ ヽと ヽつた音楽的特徴を有する。したがつ て、「静かな」という感性語に基づいて、短調でテンポが遅くレベルが平均的に小さい といった音楽的特徴を特定し、この音楽的特徴を有する楽曲を選択すれば、「静かな 」という感性語に合致する楽曲を選択することができる。そして、各楽曲の音楽的特 徴を予め抽出しておき、これを音楽的特徴情報として予め記述しておけば、音楽的 特徴情報を参照するだけで感性語に合致する楽曲を迅速に選択することができる。
[0066] なお、音楽的特徴情報は、例えば CDまたは DVDに記録された楽曲データをハー ドディスク 43Aに転送するときに、音楽的特徴抽出部 46によって生成される。すなわ ち、音楽的特徴部生成部 46は、楽曲データをノ、ードディスク 43Aに転送するときに、 楽曲データを分析し、この楽曲データカゝら音楽的特徴を抽出し、この音楽的特徴を 記述した音楽的特徴情報を生成する。音楽的特徴の抽出、音楽的特徴情報の内容 などにっ 、ては、例えば上記非特許文献 1に記載されて 、る。
[0067] 続いて、図 4のステップ S4において、楽曲選択部 23は、感性語に基づいて選択し た楽曲の楽曲番号を記述した楽曲リストを生成する。すなわち、環境認識部 21は、 季節情報、時間帯情報、天気情報、地域近傍情報、走行状態情報といった複数種 類の環境情報を生成する。現在の季節、現在の時間帯、現在位置および現在の時 刻における天気、自車が現在走行している地点の周囲の地理、および自車の現在の 走行状態といった環境事項は、ある環境事項間で相関関係が認められる場合があり 得るものの、カーナビゲーシヨンシステム 1ではそれぞれ独立に認識され、かつ併存 する。したがって、上述した複数種類の環境情報も併存し、この結果、相互に異なる 複数の感性語が特定される場合がある。また、 1つの感性語に基づいて選択される 楽曲は 1曲とは限らず、むしろ 1つの感性語に基づいて複数の楽曲が選択される場 合が通常である。したがって、楽曲選択部 23は、通常、複数の感性語に基づいて複 数の楽曲を選択し、選択した複数の楽曲の楽曲番号を記述した楽曲リストを生成す る。
[0068] 図 6は、楽曲選択部 23により生成された楽曲リストを示している。図 6においては、 季節情報が冬を指し示しており、天気情報が晴れ区域を指し示しており、時間帯情 報が昼を指し示しており、地点近傍情報が湖を指し示しており、走行状態情報が一 般道路順調を指し示している。このため、「静かな」、「ノリがいい」、「癒される」、「明る い」といった複数の感性語が特定されている。そして、「静かな」という感性語に基づ
V、て 4曲の楽曲(グループ A)が選択され、「ノリが!/ ヽ」 t ヽぅ感性語に基づ 、て 5曲 の楽曲(グループ B)が選択され、「癒される」という感性語に基づいて 4曲の楽曲(グ ループ C)が選択され、「明る!/、」 t 、う感性語に基づ!、て 5曲の楽曲(グループ D)が 選択されている。この結果、図 5中の楽曲リスト 121には、合計 18曲の楽曲の楽曲番 号が記述されている。なお、ハードディスク 43Aに記録された各楽曲データには楽曲 番号が付されており、楽曲選択部 23は、選択した楽曲の楽曲番号をハードディスク 4 3Aから読み取り、これを楽曲リストに記述する。また、楽曲リストにおける楽曲の順序 は、楽曲番号の小さい順でもよいし、または図 5に示すようにシャッフルしてもよい。ま た、生成された楽曲リストは、例えばノヽードディスク 43Aに保持される。
[0069] 次に、図 2中のステップ S5において、楽曲選択部 23は、楽曲リストに掲げられた楽 曲の中から、再生すべき楽曲を指定する処理 (以下、これを「楽曲指定処理」という) を行う。楽曲指定処理は 3通りある。例えば、ユーザはドライブに出かける前に、操作 部 44を操作して、 3通りの楽曲指定処理のうちのいずれか 1通りを選択することがで きる。
[0070] 図 6は第 1楽曲指定処理を示している。第 1楽曲指定処理は、最後に生成または変 更された環境情報に対応する感性語に基づいて選択された楽曲を指定する処理で ある。すなわち、図 6に示すように、楽曲選択部 23は、まず、複数種類の環境情報の うち、最後に生成または変更された環境情報を特定する (ステップ Sl l)。つまり、複 数種類の環境情報が生成されて力もまだ変更されていない場合には、楽曲選択部 2 3は、複数種類の環境情報のうち、最後に生成された環境情報を特定する。一方、複 数種類の環境情報が生成されてカゝら変更された場合には、楽曲選択部 23は、複数 種類の環境情報のうち、最後に変更された環境情報を特定する。続いて、楽曲選択 部 23は、最後に生成または変更された環境情報に対応する楽曲に基づいて選択さ れた楽曲を指定する。例えば、図 5において、最後に生成または変更された環境情 報が走行状態情報である場合には、楽曲選択部 23は、楽曲リスト 121のグループ D に属する 5曲の楽曲を指定する。第 1楽曲指定処理によれば、自車の置かれた環境 の変化に適合した楽曲、またはユーザの気持ちの変化に適合した楽曲を次々に指 定し、再生させることができる。
[0071] 図 7は第 2楽曲指定処理を示している。第 2楽曲指定処理は、優先順位のもっとも 高 ヽ環境情報に対応する感性語に基づ ヽて選択された楽曲を指定する処理である 。すなわち、図 7に示すように、楽曲選択部 23は、まず、ある期間内に複数種類の環 境情報が生成または変更された力否かを判定する (ステップ S21)。ある期間とは、例 えばすでに指定された 1曲の楽曲の再生が開始されてから当該楽曲の再生が終了 するまでの間(以下、これを「1楽曲再生期間」という)である。 1楽曲再生期間内に複 数種類の環境情報が生成または変更されたときには (ステップ S21 : YES)、楽曲選 択部 23は、生成または変更された複数種類の環境情報のうち、優先順位のもっとも 高 、環境情報に対応する感性語に基づ 、て選択された楽曲のみを指定する (ステツ プ S22)。環境情報の優先順位は、例えば変更される頻度が高い順位である。複数 種類の環境情報を優先順位の高い順に述べると、例えば走行状態情報、地点近傍 情報、天気情報、時間帯情報、季節情報である。なお、変更される頻度がもっとも高 い環境情報は、変化の頻度力 Sもっとも高い環境を示す環境情報である。例えば、図 5 において、季節情報、天気情報、時間帯情報、地点近傍情報および走行状態情報 力 楽曲再生期間内に生成または変更されたときには、楽曲選択部 23は、走行状態 情報に対応する感性語に基づいて選択された楽曲、すなわち楽曲リスト 121のダル ープ Dに属する 5曲の楽曲を指定する。一方、 1楽曲再生期間内に 1種類の環境情 報のみが生成または変更されたときには (ステップ S21 :NO)、楽曲選択部 23は、生 成または変更された 1種類の環境情報に対応する感性語に基づいて選択された楽 曲を指定する (ステップ S23)。第 2楽曲指定処理によれば、自車の置かれた環境の 変化またはユーザの気持ちの変化を楽曲の選択 ·指定に高感度に反映させることが できる。
[0072] 図 8は第 3楽曲指定処理を示している。第 3楽曲指定処理は、環境情報の優先順 位が高い順序で楽曲を順次指定していく処理である。すなわち、図 8に示すように、 楽曲選択部 23は、まず、ある期間内に複数種類の環境情報が生成または変更され た力否かを判定する (ステップ S31)。ある期間とは、例えば 1楽曲再生期間である。 1 楽曲再生期間内に複数種類の環境情報が生成または変更されたときには (ステップ S31 : YES)、楽曲選択部 23は、生成または変更された複数種類の環境情報に対応 する複数の感性語に基づ 、て選択された楽曲を、環境情報の優先順位が高 、順に 順次指定していく (ステップ S32)。環境情報の優先順位は、例えば変更される頻度 が高い順位である。例えば、図 5において、季節情報、天気情報、時間帯情報、地点 近傍情報および走行状態情報が 1楽曲再生期間内に生成または変更されたときに は、楽曲選択部 23は、まず、走行状態情報に対応する感性語に基づいて選択され た楽曲、すなわち楽曲リスト 121のグループ Dに属する 5曲の楽曲を指定する。続い て、楽曲選択部 23は、地点近傍情報に対応する感性語に基づいて選択された楽曲 、すなわち楽曲リスト 121のグループ Cに属する 4曲の楽曲を指定する。続いて、楽曲 選択部 23は、時間帯情報および天気情報に対応する感性語に基づいて選択された 楽曲、すなわち楽曲リスト 121のグループ Bに属する 5曲の楽曲を指定する。続いて、 楽曲選択部 23は、季節情報に対応する感性語に基づいて選択された楽曲、すなわ ち楽曲リスト 121のグループ Aに属する 4曲の楽曲を指定する。一方、 1楽曲期間内 に 1種類の環境情報のみが生成または変更されたときには (ステップ S31 :NO)、楽 曲選択部 23は、生成または変更された 1種類の環境情報に対応する感性語に基づ いて選択された楽曲を指定する (ステップ S33)。第 3楽曲指定処理によれば、自車 の置かれた種々の環境またはユーザの様々な気持ちにそれぞれ適合した楽曲を指 定し、再生させることができる。
なお、第 3楽曲指定処理において、生成または変更された複数種類の環境情報に 対応する複数の感性語に基づいて選択された楽曲の総数が多いときには、指定し得 る楽曲の数を感性語ごとに制限してもよい。例えば、指定し得る楽曲の数を感性語ご とに 3曲に制限してもよい。具体的には、図 5において、季節情報、天気情報、時間 帯情報、地点近傍情報および走行状態情報が 1楽曲再生期間内に生成または変更 されたとき、楽曲選択部 23は、まず、楽曲リスト 121のグループ Dに属する 5曲の楽曲 のうち 3曲を指定する。続いて、楽曲選択部 23は、楽曲リスト 121のグループ Cに属 する 4曲の楽曲のうち 3曲を指定する。続いて、楽曲選択部 23は、楽曲リスト 121のグ ループ Bに属する 5曲の楽曲のうち 3曲を指定する。続いて、楽曲選択部 23は、楽曲 リスト 121のグループ Aに属する 4曲の楽曲のうち 3曲を指定する。
[0074] また、第 2楽曲指定処理または第 3楽曲指定処理によって指定された楽曲が再生さ れている最中に、ある環境情報が変更されたときには、当該変更された環境情報に 対応する感性語に基づ 、て選択された楽曲を直ちに指定するようにしてもょ 、。これ により、自車の置かれた環境の変化またはユーザの気持ちの変化に応じて再生すベ き楽曲を迅速に変更することができる。なお、すでに指定された楽曲が再生されてい る最中に環境情報の変更が起こり、これに応じて新たな楽曲が指定されたときには、 現在再生されている 1曲の楽曲が終了した後に、当該新たに指定された楽曲の再生 が開始される。あるいは、すでに指定された楽曲が再生されている最中に環境情報 の変更が起こり、これに応じて新たな楽曲が指定されたときには、現在再生されてい る 1曲の楽曲の再生を中止し、当該新たに指定された楽曲の再生を直ちに開始する ようにしてもよい。
[0075] また、環境情報の優先順位は、ユーザが変更 (カスタマイズ)することができる。これ により、ユーザの個性的な感性に適合した楽曲の指定 ·再生を実現することができる
[0076] 次に、図 2中のステップ S6において、楽曲選択部 23は、再生すべき楽曲を指し示 す楽曲特定情報を楽曲再生部 31に出力する。例えば、楽曲選択部 23は、楽曲指定 処理で指定された楽曲の楽曲番号を示す楽曲特定情報を生成し、これを楽曲再生 部 31に出力する。そして、図 2中のステップ S7において、楽曲再生部 31は、楽曲特 定情報が示す楽曲番号に対応する楽曲データをノ、ードディスク 43Aから読み出し、 この楽曲データを再生する。
[0077] 以上説明した通り、カーナビゲーシヨンシステム 1は、 GPS受信部 11、車速測定部 12など、カーナビゲーシヨンに用いられる測定機器または通信機器を用いて位置情 報、 日時情報、道路種別情報、速度情報などの取得情報を生成し、これら取得情報 に基づ!/、て自車が現在置かれて!/、る環境を認識し、自車が現在置かれて!/、る環境 に対応した感性語を自動的に特定し、この感性語に基づ!ヽて楽曲データを自動的 に選択し、この選択された楽曲データに対応する楽曲を再生する。これにより、カー ナビゲーシヨンシステム 1によれば、ユーザによる楽曲選択の手間をなくすことができ る。また、自車の置かれた環境の変化に適合した楽曲を次々に選択し、次々に再生 することができる。
[0078] また、カーナビゲーシヨンシステム 1によれば、自車が現在置かれている環境に対 応した感性語を特定し、この感性語に合致する楽曲データを選択することにより、ュ 一ザの気持ちの変化に適合した楽曲を次々に選択し、次々に再生することができる
[0079] なお、 GPS受信部 11、車速測定部 12、ジャイロセンサ 13、 VICS受信部 14、ナビ ゲーシヨン制御部 15、データ通信部 41が情報取得手段および情報取得工程の具体 例である。また、環境認識部 21が環境認識手段および環境認識工程の具体例であ り、感性語特定部 22が感性語特定手段および感性語特定工程の具体例であり、楽 曲選択部 23が楽曲選択手段および楽曲選択工程の具体例であり、楽曲再生部 31 が楽曲再生手段の具体例である。また、環境情報-感性語テーブルが、移動体が置 かれる環境と感性語との対応関係を示す対応関係情報の具体例であり、ハードディ スクドライブ 43が記憶手段、楽曲記憶手段および音楽的特徴情報記憶手段の具体 例である。
[0080] (第 2実施形態)
図 9は、本発明の第 2実施形態である楽曲選択装置を備えたカーナビゲーシヨンシ ステムを示している。なお、図 9中のカーナビゲーシヨンシステム 2において、図 1中の カーナビゲーシヨンシステム 1と同一の構成要素には同一の符号を付し、その説明を 省略する。
[0081] 図 9中のカーナビゲーシヨンシステム 2は、感性語の特定を行うことなぐ環境情報 に基づいて楽曲の選択を行う。そして、環境情報に基づく楽曲の選択には、環境情 報一楽曲テーブルが用いられる。
[0082] 具体的に説明すると、図 9に示すように、カーナビゲーシヨンシステム 2の楽曲選択 セクション 50には、環境認識部 51および楽曲選択部 52が属する。環境認識部 51は 、ナビゲーシヨン制御部 15により提供された取得情報に基づいて、自車が現在置か れている環境を認識し、この環境を示す環境情報を生成する。楽曲選択部 52は、環 境認識部 51により生成された環境情報および環境情報一楽曲テーブルに基づいて 楽曲を選択する。環境認識部 51および楽曲選択部 52は、例えば演算処理回路およ び記憶素子により構成されている。
[0083] カーナビゲーシヨンシステム 2は、自車が現在置かれている環境に対応した楽曲デ ータを自動的に選択し、この選択された楽曲データに対応する楽曲を再生する機能 を有する。この機能に関するカーナビゲーシヨンシステム 2の動作は図 10に示す通り である。すなわち、図 10に示すように、ナビゲーシヨン制御部 15は、 GPS受信部 11 、車速測定部 12、ジャイロセンサ 13、 VICS受信部 14、データ通信部 41および地図 データに基づいて、取得情報、つまり位置情報、日時情報、日の出 Z日の入り時刻 情報、道路種別情報、速度情報、渋滞情報および天気予報情報を生成し、これら取 得情報を環境認識部 51に提供する (ステップ S41)。続いて、環境認識部 51は、取 得情報に基づいて、自車が現在置かれている環境を認識し、この環境を示す環境情 報を生成し、この環境情報を楽曲選択部 52に提供する (ステップ S42)。続いて、楽 曲選択部 52は、環境情報および環境情報-楽曲テーブルに基づいて楽曲を選択し 、選択した楽曲のリストを生成する (ステップ S43)。さらに、楽曲選択部 52は、楽曲リ ストに掲げられた楽曲の中から、再生すべき楽曲を指定する (ステップ S44)。そして 、楽曲選択部 52は、再生すべき楽曲を指し示す楽曲特定情報を楽曲再生部 31に 出力する (ステップ S45)。続いて、楽曲再生部 31は、楽曲特定情報により指し示さ れた楽曲を再生する (ステップ S46)。
[0084] 以下、図 10に示すカーナビゲーシヨンシステム 2の動作について詳細に説明する。
まず、ステップ S42における環境情報の生成'提供については、図 2中のステップ S2 と同じである。次に、図 10中のステップ S43において、楽曲選択部 52は、環境情報 および環境情報―楽曲テーブルに基づ 、て楽曲を選択し、選択した楽曲のリストを 生成する。環境情報一楽曲テーブルには、環境情報と楽曲との対応関係が記述され ている。例えば、環境情報—楽曲テーブルには、季節情報—楽曲テーブル、時間帯 情報一楽曲テーブル、地点近傍情報一楽曲テーブル、天気情報一楽曲テーブル、 走行状態情報一楽曲テーブルなどがある。これら環境情報一楽曲テーブルは、予め 生成され、ハードディスク 43Aに記録されている。図 11は、走行状態情報と楽曲との 対応関係が記述された環境情報 楽曲テーブル (走行状態情報 楽曲テーブル) の一例を示している。例えば、走行状態情報が高速道路順調を指し示しているときに は、楽曲選択部 52は、走行状態情報—楽曲テーブル 131を参照することにより、楽 曲番号 53、 49、 01などに対応する楽曲を選択する。また、楽曲選択部 52による楽 曲リストの生成については、図 2中のステップ S4における楽曲選択部 23による楽曲リ ストの生成と同じである。
[0085] 次に、図 10中のステップ S44において、楽曲選択部 52は、楽曲リストに掲げられた 楽曲の中から、再生すべき楽曲を指定する処理、すなわち楽曲指定処理を行う。楽 曲指定処理は 3通りある。第 1楽曲指定処理は、環境認識部 51により最後に生成ま たは変更された環境情報に基づいて選択された楽曲を指定する処理である。第 2楽 曲指定処理は、複数種類の環境情報に優先順位を付け、複数種類の環境情報のう ち優先順位のもっとも高い環境情報に基づいて選択された楽曲のみを指定する処理 である。第 3楽曲指定処理は、複数種類の環境情報に優先順位を付け、複数種類の 環境情報に基づいて複数の楽曲を収集し、収集された複数の楽曲を、環境情報の 優先順位の高い順に順次指定していく処理である。これらの処理の内容は、感性語 を介さな ヽで楽曲の選択する点を除き、図 2中のステップ S 5における楽曲指定処理 をほぼ同じである。
[0086] 次に、図 10中のステップ S45において、楽曲選択部 52は、楽曲指定処理で指定さ れた楽曲の楽曲番号を示す楽曲特定情報を生成し、これを楽曲再生部 31に出力す る。そして、図 10中のステップ S46において、楽曲再生部 31は、楽曲特定情報が示 す楽曲番号に対応する楽曲データをハードディスク 43Aから読み出し、この楽曲デ ータを再生する。
[0087] 以上説明した通り、カーナビゲーシヨンシステム 2は、 GPS受信部 11、車速測定部 12など、カーナビゲーシヨンに用いられる測定機器または通信機器を用いて位置情 報、 日時情報、道路種別情報、速度情報などの取得情報を生成し、これら取得情報 に基づ!/、て自車が現在置かれて!/、る環境を認識し、自車が現在置かれて!/、る環境 に対応した楽曲データを自動的に選択し、この選択された楽曲データに対応する楽 曲を再生する。これにより、カーナビゲーシヨンシステム 2によれば、ユーザによる楽 曲選択の手間をなくすことができる。また、自車の置かれた環境の変化に適合した楽 曲を次々に選択し、次々に再生することができる。
[0088] なお、環境認識部 51が環境認識手段および環境認識工程の具体例であり、楽曲 選択部 52が楽曲選択手段および楽曲選択工程の具体例である。また、環境情報 楽曲テーブルが、環境情報と楽曲との対応関係を示す対応関係情報の具体例であ り、ハードディスクドライブ 43が、対応関係情報を記憶した記憶手段の具体例である
[0089] また、カーナビゲーシヨンシステム 1、 2はいずれも、専用のシステムとしてハードゥエ ァと一体的に構成する形態で実現してもよいし、コンピュータにプログラムを読み込ま せること〖こよって実現してもよい。後者の場合には、情報取得手段、環境認識手段お よび楽曲選択手段などを実現するためのコンピュータプログラムを作成する。
[0090] また、上述した説明では、取得情報の生成または取得を行うための構成要素として 、 GPS受信部 11、車速測定部 12、ジャイロセンサ 13、 VICS受信部 14およびデータ 通信部 41、地図データを備える場合を例にあげた。しかし、取得情報の生成または 取得を行うための構成要素は、これらの一部だけでもよいし、取得情報の生成または 取得を行うための構成要素として、これら以外の測定機器またはデータなどを追加し てもよい。
[0091] また、上述した説明では、取得情報として、位置情報、日時情報、日の出 Z日の入 り時刻情報、道路種別情報、速度情報、渋滞情報および天気予報情報を生成ないし 取得する場合を例にあげたが、これら以外の情報を取得情報として生成ないし取得 してもよい。例えば、自動車に設けられた照度計力も得られる照度情報や、自動車に 設けられた温度計から得られる気温情報、ワイパーが稼働して 、るかどうかを示す情 報などを取得情報として生成ないし取得してもよい。これらの取得情報は、環境情報 として天気情報の生成に用いることができる。
[0092] また、上述した説明では、環境情報として、季節情報、時間帯情報、天気情報、地 点近傍情報、走行状態情報を生成する場合を例にあげたが、これら以外の情報を環 境情報として生成してもよい。例えば、車内の温度を測定することにより車内温度情 報を取得情報として生成し、これに基づいて車内にいる人間の体感温度情報を環境 情報として生成してもよい。
[0093] また、上述した説明では、ユーザが楽曲指定処理を選択する場合を例にあげた。し かし、予め 1つの楽曲指定処理を固定的に設定し、常にこの楽曲指定処理を行うよう にしてもよい。
[0094] また、上述した説明では、楽曲選択部 23によって選択され、楽曲再生部 31によつ て再生される楽曲データは、カーナビゲーシヨンシステム 1または 2の一部として自動 車に搭載されたノヽードディスク 43Aまたは光ディスク 42Aに記憶または記録されてい る場合を例にあげた。しかし、楽曲データは、自動車の外にある記憶装置などに記憶 ないし記録されていてもよい。例えば、自宅にあるパーソナルコンピュータなどに搭載 されたハードディスクなどに楽曲データが記録されていてもよい。この場合には、楽曲 選択部 23および楽曲再生部 31は、データ通信部 41、移動体通信網およびインター ネット網などを介して自宅にあるパーソナルコンピュータと通信を行い、このパーソナ ルコンピュータのハードディスクに記録された楽曲データの検索、参照、読取、取得 などを行う。
[0095] また、上述した説明では、本発明の楽曲選択装置をカーナビゲーシヨンシステムに 適用した場合を例にあげた。しかし、本発明は自動車用のナビゲーシヨンシステムだ けなぐ他の車両用のナビゲーシヨンシステムに適用することができる。さらに、本発 明は車両用のナビゲーシヨンシステムだけでなく、他の移動体用のナビゲーシヨンシ ステムにも適用することができる。また、本発明は、ナビゲーシヨンシステムだけでなく 、車載用オーディオ機器にも適用することができ、さらには移動体搭載用オーディオ 機器にも適用することができる。
[0096] また、本発明は、請求の範囲および明細書全体力 読み取るこのできる発明の要 旨または思想に反しない範囲で適宜変更可能であり、そのような変更を伴う楽曲選 択装置および楽曲選択方法並びにこれらの機能を実現するコンピュータプログラムも また本発明の技術思想に含まれる。
産業上の利用可能性
[0097] 本発明に係る楽曲選択装置および楽曲選択方法は、例えばカーオーディオとして の機能を備えたカーナビゲーシヨンシステムなどに利用可能である。また、例えば民 生用或いは業務用の各種コンピュータ機器に搭載される又は各種コンビュ に接続可能な楽曲選択装置等にも利用可能である。

Claims

請求の範囲
[1] 移動体の現在位置を示す情報を取得し、これを取得情報として提供する情報取得 手段と、
前記情報取得手段により提供された取得情報に基づ!/、て、前記移動体が現在置 かれて ヽる環境を認識し、この環境を示す環境情報を生成する環境認識手段と、 前記環境認識手段により生成された環境情報に対応する感性語を特定する感性 語特定手段と、
前記感性語特定手段により特定された感性語に基づいて楽曲を選択する楽曲選 択手段とを備えていることを特徴とする楽曲選択装置。
[2] 移動体の現在位置を示す情報を取得し、これを取得情報として提供する情報取得 手段と、
前記情報取得手段により提供された取得情報に基づ!、て、前記移動体が現在置 かれて ヽる環境を認識し、この環境を示す環境情報を生成する環境認識手段と、 前記環境情報と楽曲との対応関係を示す対応関係情報を記憶した記憶手段と、 前記環境認識手段により生成された環境情報および前記記憶手段に記憶された 対応関係情報に基づいて楽曲を選択する楽曲選択手段とを備えていることを特徴と する楽曲選択装置。
[3] 前記情報取得手段は、前記移動体の走行速度を示す情報をさらに取得し、これを 前記取得情報として提供することを特徴とする請求の範囲第 1項に記載の楽曲選択 装置。
[4] 前記情報取得手段は、現在の日時を示す情報をさらに取得し、これを前記取得情 報として提供することを特徴とする請求の範囲第 1項に記載の楽曲選択装置。
[5] 前記情報取得手段は、前記移動体の現在位置および現在の時刻における天気を 示す情報をさらに取得し、これを前記取得情報として提供することを特徴とする請求 の範囲第 1項に記載の楽曲選択装置。
[6] 前記環境認識手段は、前記移動体の現在位置の周囲の地理を認識し、当該地理 を示す前記環境情報を生成することを特徴とする請求の範囲第 1項に記載の楽曲選 択装置。
[7] 前記環境認識手段は、前記移動体の現在の走行状態を認識し、当該走行状態を 示す前記環境情報を生成することを特徴とする請求の範囲第 3項に記載の楽曲選択 装置。
[8] 前記環境認識手段は、前記移動体が現在順調に走行して!/ヽるカゝ、それとも渋滞の ために順調に走行して 、な ヽかを認識し、前記移動体が現在順調に走行して 、るか
、それとも渋滞のために順調に走行して 、な 、かを示す前記環境情報を生成するこ とを特徴とする請求の範囲第 3項に記載の楽曲選択装置。
[9] 前記環境認識手段は、現在の季節を認識し、当該季節を示す前記環境情報を生 成することを特徴とする請求の範囲第 4項に記載の楽曲選択装置。
[10] 前記環境認識手段は、現在の時間帯を認識し、当該時間帯を示す前記環境情報 を生成することを特徴とする請求の範囲第 4項に記載の楽曲選択装置。
[11] 前記環境認識手段は、前記移動体の現在位置における現在の天気を認識し、当 該天気を示す前記環境情報を生成することを特徴とする請求の範囲第 5項に記載の 楽曲選択装置。
[12] 感性語特定手段は、前記環境認識手段により認識された環境に人間が置かれたと きに感じる気持ちを表現した言葉を感性語として特定することを請求の範囲第 1項に 記載の楽曲選択装置。
[13] 前記環境情報と感性語との対応関係を示す対応関係情報を記憶した記憶手段を 備え、
前記感性語特定手段は、前記記憶手段に記憶された対応関係情報に基づ!ヽて感 性語を特定することを特徴とする請求の範囲第 1項に記載の楽曲選択装置。
[14] 前記楽曲選択手段は、前記環境認識手段により最後に生成または変更された環境 情報に対応する感性語に基づいて楽曲を選択することを特徴とする請求の範囲第 1 項に記載の楽曲選択装置。
[15] 前記環境認識手段は、前記移動体が現在置かれている環境を示す複数の環境情 報を生成し、
前記楽曲選択手段は、前記複数の環境情報に優先順位を付け、前記複数の環境 情報のうち優先順位のもっとも高い環境情報に対応する感性語に基づいて楽曲を選 択することを特徴とする請求の範囲第 1項に記載の楽曲選択装置。
[16] 前記環境認識手段は、前記移動体が現在置かれている環境を示す複数の環境情 報を生成し、
前記楽曲選択手段は、前記複数の環境情報に優先順位を付け、前記複数の環境 情報にそれぞれ対応する複数の感性語に基づ 、て複数の楽曲を収集し、前記収集 された複数の楽曲の中から前記優先順位に従って楽曲を順次選択することを特徴と する請求の範囲第 1項に記載の楽曲選択装置。
[17] 前記楽曲選択手段は、前記環境認識手段により最後に生成または変更された環境 情報に基づいて楽曲を選択することを特徴とする請求の範囲第 2項に記載の楽曲選 択装置。
[18] 前記環境認識手段は、前記移動体が現在置かれている環境を示す複数の環境情 報を生成し、
前記楽曲選択手段は、前記複数の環境情報に優先順位を付け、前記複数の環境 情報のうち優先順位のもっとも高い環境情報に基づいて楽曲を選択することを特徴と する請求の範囲第 2項に記載の楽曲選択装置。
[19] 前記環境認識手段は、前記移動体が現在置かれている環境を示す複数の環境情 報を生成し、
前記楽曲選択手段は、前記複数の環境情報に優先順位を付け、前記複数の環境 情報に基づいて複数の楽曲を収集し、前記収集された複数の楽曲の中から前記優 先順位に従って楽曲を順次選択することを特徴とする請求の範囲第 2項に記載の楽 曲選択装置。
[20] 前記楽曲選択手段により選択された楽曲を再生する楽曲再生手段を備えているこ とを特徴とする請求の範囲第 1項に記載の楽曲選択装置。
[21] 前記楽曲選択手段により選択の対象となるべき複数の楽曲を記憶した楽曲記憶手 段を備えていることを特徴とする請求の範囲第 1項に記載の楽曲選択装置。
[22] 前記楽曲記憶手段に記憶するまたは記憶された前記複数の楽曲の音楽的特徴を 抽出し、前記複数の楽曲ごとの前記音楽的特徴を記述した音楽的特徴情報を記憶 する音楽的特徴情報記憶手段を備え、 前記楽曲選択手段は、前記音楽的特徴情報記憶手段に記憶された音楽的特徴情 報を参照することにより、前記感性語に合致する楽曲を選択することを特徴とする請 求の範囲第 21項に記載の楽曲選択装置。
[23] 移動体の現在位置を示す情報を取得し、これを取得情報として提供する情報取得 工程と、
前記情報取得工程にお!、て提供された取得情報に基づ!、て前記移動体が現在置 かれて ヽる環境を認識し、この環境を示す環境情報を生成する環境認識工程と、 前記環境認識工程において生成された環境情報に対応する感性語を特定する感 性語特定工程と、
前記感性語特定工程にぉ ヽて特定された感性語に基づ ヽて楽曲を選択する楽曲 選択工程とを備えていることを特徴とする楽曲選択方法。
[24] 移動体の現在位置を示す情報を取得し、これを取得情報として提供する情報取得 工程と、
前記情報取得工程にお!、て提供された取得情報に基づ!、て前記移動体が現在置 かれて ヽる環境を認識し、この環境を示す環境情報を生成する環境認識工程と、 前記環境認識工程において生成された環境情報および前記環境情報と楽曲との 対応関係を示す対応関係情報に基づいて楽曲を選択する楽曲選択工程とを備えて いることを特徴とする楽曲選択方法。
[25] 請求の範囲第 1項に記載の楽曲選択装置を備えていることを特徴とするナビゲー シヨンシステム。
[26] 請求の範囲第 2項に記載の楽曲選択装置を備えていることを特徴とするナビゲー シヨンシステム。
[27] 請求の範囲第 1項に記載の楽曲選択装置としてコンピュータを機能させることを特 徴とするコンピュータプログラム。
[28] 請求の範囲第 2項に記載の楽曲選択装置としてコンピュータを機能させることを特 徴とするコンピュータプログラム。
PCT/JP2006/308934 2005-05-06 2006-04-28 楽曲選択装置および楽曲選択方法 WO2006120929A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007528234A JPWO2006120929A1 (ja) 2005-05-06 2006-04-28 楽曲選択装置および楽曲選択方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-134951 2005-05-06
JP2005134951 2005-05-06

Publications (1)

Publication Number Publication Date
WO2006120929A1 true WO2006120929A1 (ja) 2006-11-16

Family

ID=37396438

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/308934 WO2006120929A1 (ja) 2005-05-06 2006-04-28 楽曲選択装置および楽曲選択方法

Country Status (2)

Country Link
JP (1) JPWO2006120929A1 (ja)
WO (1) WO2006120929A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123277A (ja) * 2007-11-14 2009-06-04 Clarion Co Ltd 車載用音響装置、及び、車載用音響装置の制御方法
US20110113330A1 (en) * 2009-11-06 2011-05-12 Sony Ericsson Mobile Communications Ab Method for setting up a list of audio files
JP2012103046A (ja) * 2010-11-08 2012-05-31 Nomura Research Institute Ltd 地図表示装置、楽曲再生方法及びコンピュータプログラム
JP2013069266A (ja) * 2011-09-22 2013-04-18 Toyota Infotechnology Center Co Ltd コンテンツ推薦システム
JP2013125571A (ja) * 2011-12-16 2013-06-24 Mic Ware:Kk 車載装置、楽曲再生方法、およびプログラム
JP2013125572A (ja) * 2011-12-16 2013-06-24 Mic Ware:Kk 情報システム、サーバ装置、端末装置、楽曲送信方法、楽曲再生方法、プログラム、およびデータ構造
JP2013124067A (ja) * 2011-12-16 2013-06-24 Mic Ware:Kk 車載装置、楽曲再生方法、およびプログラム
US8914374B2 (en) 2011-04-14 2014-12-16 Hyundai Motor Company Music selection system and method in a vehicle
CN106126675A (zh) * 2016-06-27 2016-11-16 广州酷狗计算机科技有限公司 一种推荐音频的方法、装置及系统
CN108831456A (zh) * 2018-05-25 2018-11-16 深圳警翼智能科技股份有限公司 一种通过语音识别对视频标记的方法、装置及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282847A (ja) * 2000-04-03 2001-10-12 Nec Corp 感性適応型情報提示装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2001306580A (ja) * 2000-04-27 2001-11-02 Matsushita Electric Ind Co Ltd 音楽データベース検索装置
JP2003132085A (ja) * 2001-10-19 2003-05-09 Pioneer Electronic Corp 情報選択装置及び方法、情報選択再生装置並びに情報選択のためのコンピュータプログラム
JP2003150176A (ja) * 2001-11-16 2003-05-23 Mazda Motor Corp 自動車の音楽情報提供装置、自動車の音楽情報提供方法、自動車の音楽情報提供用プログラム、及び、車載の音楽情報提供装置
JP2004199437A (ja) * 2002-12-19 2004-07-15 Link Cube Kk 検索装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282847A (ja) * 2000-04-03 2001-10-12 Nec Corp 感性適応型情報提示装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2001306580A (ja) * 2000-04-27 2001-11-02 Matsushita Electric Ind Co Ltd 音楽データベース検索装置
JP2003132085A (ja) * 2001-10-19 2003-05-09 Pioneer Electronic Corp 情報選択装置及び方法、情報選択再生装置並びに情報選択のためのコンピュータプログラム
JP2003150176A (ja) * 2001-11-16 2003-05-23 Mazda Motor Corp 自動車の音楽情報提供装置、自動車の音楽情報提供方法、自動車の音楽情報提供用プログラム、及び、車載の音楽情報提供装置
JP2004199437A (ja) * 2002-12-19 2004-07-15 Link Cube Kk 検索装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123277A (ja) * 2007-11-14 2009-06-04 Clarion Co Ltd 車載用音響装置、及び、車載用音響装置の制御方法
US20110113330A1 (en) * 2009-11-06 2011-05-12 Sony Ericsson Mobile Communications Ab Method for setting up a list of audio files
WO2011054423A1 (en) * 2009-11-06 2011-05-12 Sony Ericsson Mobile Communications Ab Method for setting up a list of audio files
JP2012103046A (ja) * 2010-11-08 2012-05-31 Nomura Research Institute Ltd 地図表示装置、楽曲再生方法及びコンピュータプログラム
US8914374B2 (en) 2011-04-14 2014-12-16 Hyundai Motor Company Music selection system and method in a vehicle
JP2013069266A (ja) * 2011-09-22 2013-04-18 Toyota Infotechnology Center Co Ltd コンテンツ推薦システム
JP2013125571A (ja) * 2011-12-16 2013-06-24 Mic Ware:Kk 車載装置、楽曲再生方法、およびプログラム
JP2013125572A (ja) * 2011-12-16 2013-06-24 Mic Ware:Kk 情報システム、サーバ装置、端末装置、楽曲送信方法、楽曲再生方法、プログラム、およびデータ構造
JP2013124067A (ja) * 2011-12-16 2013-06-24 Mic Ware:Kk 車載装置、楽曲再生方法、およびプログラム
CN106126675A (zh) * 2016-06-27 2016-11-16 广州酷狗计算机科技有限公司 一种推荐音频的方法、装置及系统
CN108831456A (zh) * 2018-05-25 2018-11-16 深圳警翼智能科技股份有限公司 一种通过语音识别对视频标记的方法、装置及系统
CN108831456B (zh) * 2018-05-25 2022-04-15 深圳警翼智能科技股份有限公司 一种通过语音识别对视频标记的方法、装置及系统

Also Published As

Publication number Publication date
JPWO2006120929A1 (ja) 2008-12-18

Similar Documents

Publication Publication Date Title
WO2006120929A1 (ja) 楽曲選択装置および楽曲選択方法
US7227071B2 (en) Music search system
US7529676B2 (en) Audio device control device, audio device control method, and program
RU2425329C2 (ru) Навигационное устройство и способ для приема и воспроизведения звуковых образцов
KR20180070970A (ko) 음성 인식 방법 및 장치
JP4707877B2 (ja) ドライブ候補地提示装置及び方法、ナビゲーション装置及びコンピュータプログラム
US20080262839A1 (en) Processing Control Device, Method Thereof, Program Thereof, and Recording Medium Containing the Program
JP2005038352A (ja) 再生装置、再生システム及び再生制御方法
US20090112466A1 (en) Device, method and medium providing customized audio tours
JP2004086189A (ja) 楽曲検索システム
JP2008530719A (ja) 光強度又は車両の速度及び位置のような動的に変化する基準に基づく自動個人向けプレイリスト生成
JP2007108134A (ja) コンテンツデータ再生装置
JP5005491B2 (ja) 車載機、その出力態様設定方法
CN103226385B (zh) 信息处理设备和信息处理方法
JP3607166B2 (ja) 車載用ナビゲーション装置及び車載用オーディオ装置の再生方法
JP4668747B2 (ja) 車載用ナビゲーション装置
JP2006308365A (ja) ナビゲーション装置およびナビゲーション装置用のプログラム
JP4059074B2 (ja) 車載用情報提示装置
JP2010128304A (ja) 地域別選曲候補提示システム
JP2009043353A (ja) タイトル付与装置、タイトル付与方法、タイトル付与プログラム、および記録媒体
JP4158673B2 (ja) ナビゲーション装置
JP2008243104A (ja) 楽曲分類装置、および楽曲分類方法
WO2006109469A1 (ja) 楽曲支援装置、楽曲支援方法、楽曲支援プログラム、および記録媒体
JP2006301059A (ja) 音声出力システム
WO2019012684A1 (ja) 再生リスト作成装置および再生リスト作成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2007528234

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

122 Ep: pct application non-entry in european phase

Ref document number: 06745815

Country of ref document: EP

Kind code of ref document: A1