WO2019012684A1 - 再生リスト作成装置および再生リスト作成方法 - Google Patents

再生リスト作成装置および再生リスト作成方法 Download PDF

Info

Publication number
WO2019012684A1
WO2019012684A1 PCT/JP2017/025677 JP2017025677W WO2019012684A1 WO 2019012684 A1 WO2019012684 A1 WO 2019012684A1 JP 2017025677 W JP2017025677 W JP 2017025677W WO 2019012684 A1 WO2019012684 A1 WO 2019012684A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
reproduction
reproduction list
user
unit
Prior art date
Application number
PCT/JP2017/025677
Other languages
English (en)
French (fr)
Inventor
隆一 小船
栗山 耕一
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2017/025677 priority Critical patent/WO2019012684A1/ja
Publication of WO2019012684A1 publication Critical patent/WO2019012684A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices

Definitions

  • the present invention relates to a playlist creation apparatus and a playlist creation method for creating a playlist of music.
  • a music reproduction list has been created by the user selecting his / her favorite music or designating a "music genre” or a “music playback count”.
  • a technology for deleting a music having a large number of skips or a music having a small number of reproductions from the storage medium when there is no capacity of a storage medium for storing music for example, see Patent Document 1).
  • the reproduction list does not include music with a large number of skips or music with a small number of reproductions, but may contain music that the user listens to. For example, the user skips despite the fact that the user is not a favorite music, for example, because the user has been dimmed while playing the music, concentrated on driving, or muted the volume of the music. There may be cases where the user can listen to the music without performing appropriate operations. That is, the music that the user listens to may include music that the user does not like. As described above, conventionally, it has not been possible to easily select a playlist easily by selecting music the user prefers with high precision.
  • the present invention has been made to solve such a problem, and it is possible to create a playlist creation apparatus and a playlist creation method capable of easily selecting a music favorite by the user with high accuracy and creating a playlist. Intended to be provided.
  • the reproduction list creation apparatus includes a reaction information acquisition unit that acquires reaction information indicating a reaction that represents a user's preference for the music being reproduced, and a reaction acquired by the reaction information acquisition unit. And a reproduction list generation unit that generates a reproduction list of music based on the information.
  • the reproduction list creation method acquires reaction information indicating a reaction indicating a user's preference for the music being reproduced, and creates a reproduction list of the music based on the acquired reaction information.
  • the reproduction list creation apparatus acquires a piece of reaction information acquisition unit that acquires reaction information indicating a reaction that indicates the user's preference for the music being reproduced, and the piece of music based on the reaction information acquired by the reaction information acquisition unit.
  • the provision of the reproduction list creating unit for creating the reproduction list makes it possible to select the music the user prefers with high precision and easily create the reproduction list.
  • the reproduction list creation method acquires reaction information indicating a reaction indicating the user's preference for the music being reproduced, and generates a reproduction list of the music based on the acquired reaction information, so that the music preferred by the user is accurate. It is possible to select well and easily create a playlist.
  • FIG. 1 is a block diagram showing an example of the configuration of a playlist creation system according to an embodiment of the present invention.
  • FIG. 1 is a block diagram showing an example of the configuration of a reproduction list creating apparatus 1 according to a first embodiment of the present invention.
  • FIG. 1 shows the minimum necessary configuration of the reproduction list creating apparatus according to the present embodiment.
  • the reproduction list creation apparatus 1 includes a reaction information acquisition unit 2 and a reproduction list creation unit 3.
  • the reaction information acquisition unit 2 acquires reaction information indicating a reaction indicating the user's preference for the music being reproduced.
  • the reproduction list creation unit 3 generates a reproduction list of music based on the reaction information acquired by the reaction information acquisition unit 2.
  • FIG. 2 is a block diagram showing an example of the configuration of the reproduction list creating apparatus 4 according to another configuration.
  • the reproduction list creation apparatus 4 shall be provided in the vehicle.
  • the reproduction list creation device 4 includes a reaction information acquisition unit 2, a reproduction list creation unit 3, a reaction information determination unit 5, a situation information acquisition unit 6, a situation information determination unit 7, and music.
  • the information acquisition unit 8, the map information acquisition unit 9, and the reproduction list storage unit 10 are provided.
  • the reaction information acquisition unit 2 is connected to the microphone 11, the camera 12, and the action sensor 13.
  • the situation information acquisition unit 6 is connected to a vehicle speed sensor 14 and a GPS (Global Positioning System) 15.
  • the music information acquisition unit 8 is connected to the music reproduction unit 16.
  • the music information acquisition unit 8 acquires the music information being reproduced by the music reproduction unit 16 from the music reproduction unit 16.
  • the music information includes various information related to music such as sound information such as singing voice or melody of the singer during reproduction of the music, music name, singer name, genre, and the like.
  • the music reproduction unit 16 is a music stored in a storage medium provided in the vehicle, a music stored in an external memory, a music stored in various media, a music stored in a smartphone, and a broadcast on a radio Any of the song being played or the song being delivered from an external server by the music delivery service to which the user has subscribed may be played back. In addition, music information shall be included in these music.
  • the music reproduction unit 16 may reproduce music at random or may reproduce music in accordance with a reproduction list described later.
  • the music information acquisition unit 8 may collectively acquire not only the music information being reproduced but also all the music information existing at the music reproduction source, such as all the music information stored in the storage medium, for example. .
  • the reaction information acquisition unit 2 acquires, as reaction information, the volume of the user's singing voice matched with the reproduction of the music from the microphone 11. Specifically, the reaction information acquisition unit 2 acquires sound information of the music being reproduced from the music information acquisition unit 8, and based on the sound information and the voice of the user acquired via the microphone 11, the user Recognize that he is singing a song as the song plays. Such recognition processing can be performed using a known speech recognition technology. When recognizing that the user is singing a song, the reaction information acquisition unit 2 acquires from the microphone 11 the volume of the singing voice at that time. The user's singing voice includes the user's hymn. The microphone 11 is provided in the vehicle.
  • the reaction information acquisition unit 2 acquires, as reaction information, the user's facial expression matched to the reproduction of the music from the camera 12. Specifically, the reaction information acquisition unit 2 determines that the music is being reproduced from the sound information of the music acquired from the music information acquisition unit 8. Then, the reaction information acquisition unit 2 acquires from the camera 12 an image in which the user's facial expression is captured during music reproduction. For example, the reaction information acquisition unit 2 recognizes the degree of the user's opening from the image acquired from the camera 12. Such recognition processing can be performed using a known image recognition technology.
  • the camera 12 is provided in the vehicle.
  • the reaction information acquisition unit 2 acquires, from the action sensor 13, as the reaction information, the vibration associated with the movement of the user matched to the reproduction of the music. Specifically, the reaction information acquisition unit 2 determines that the music is being reproduced from the sound information of the music acquired from the music information acquisition unit 8. Then, the reaction information acquisition unit 2 acquires, from the action sensor 13, a vibration associated with the movement of the user during music reproduction. For example, the reaction information acquisition unit 2 acquires a vibration that occurs during a user's rhythm reaction matched to the reproduction of music, such as a user hitting a steering wheel, shaking on a seat, or stepping on a floor. Any one or more of these vibrations may be combined.
  • the action sensor 13 is provided, for example, on a steering wheel, a seat, or a floor.
  • the reaction information determination unit 5 weights the reaction information acquired by the reaction information acquisition unit 2. Specifically, when the reaction information is the volume of the user's singing voice, the reaction information determination unit 5 performs weighting according to the volume level.
  • the volume level is set to four levels of “volume level absent (silence)”, “volume level low”, “volume level in”, and “volume level high”. In this case, for example, the weighting value corresponding to "no volume level (silence)" is "0", the weighting value corresponding to "low volume level” is "1”, the weighting corresponding to "medium volume level” A weighting value corresponding to “2” and “volume level high” is “3”.
  • Each volume level is set by a predetermined threshold value.
  • the case where the volume level is four steps is described as an example, the present invention is not limited to this.
  • the reaction information determination unit 5 performs weighting according to the opening level.
  • the opening level is set to four levels of “no opening level (mouth closed)”, “small opening level”, “in opening level”, and “large opening level”.
  • the weighting value corresponding to "no opening level (mouth is closed)" is "0”
  • the weighting value corresponding to "small opening level” is "1”
  • the corresponding weighting value is “2”
  • the weighting value corresponding to “large aperture level” is “3”.
  • Each opening level is set by a predetermined threshold value.
  • the present invention is not limited to this.
  • the reaction information determination unit 5 performs weighting according to the vibration level.
  • the vibration level is set to four levels of “no vibration level (user is not moving)”, “vibration level low”, “vibration level”, and “vibration level high”.
  • the weighting value corresponding to “no vibration level (the user is not moving)” is “0”
  • the weighting value corresponding to “small vibration level” is “1”
  • “in vibration level” The corresponding weighting value
  • the corresponding weighting value is “2”
  • the weighting value corresponding to “high vibration level” is “3”.
  • Each vibration level is set by a predetermined threshold value.
  • the vibration level is four steps is described as an example, the present invention is not limited to this.
  • reaction information determination unit 5 adds up the weighting value corresponding to the volume level, the weighting value corresponding to the opening level, and the weighting value corresponding to the vibration level. The value thus summed up is ultimately a value weighted to the reaction information.
  • the situation information acquisition unit 6 acquires situation information indicating a situation at the time of music reproduction. For example, the situation information acquisition unit 6 acquires the traveling situation of the vehicle at the time of music reproduction as situation information. Specifically, the situation information acquisition unit 6 determines that the music is being reproduced from the sound information of the music acquired from the music information acquisition unit 8. Then, the situation information acquisition unit 6 acquires speed information of the vehicle during music reproduction from the vehicle speed sensor 14, determines the traveling state of the vehicle based on the speed of the vehicle, and acquires the traveling state as situation information.
  • the traveling condition of the vehicle includes, for example, during traffic congestion, while traveling on an expressway, and traveling on a general road.
  • the vehicle speed sensor 14 is provided in the vehicle.
  • the situation information acquisition unit 6 acquires, as the situation information, the traveling position of the vehicle at the time of music reproduction. Specifically, the situation information acquisition unit 6 determines that the music is being reproduced from the sound information of the music acquired from the music information acquisition unit 8. Then, the situation information acquisition unit 6 acquires the position information of the vehicle during music reproduction from the GPS 15, acquires map information corresponding to the position information from the map information acquisition unit 9, and sets the traveling position of the vehicle as situation information. get.
  • the traveling position of the vehicle includes, for example, a central area, a rural area, a coastal area, a mountain area, and an area in which a straight line longer than a predetermined distance continues.
  • the GPS 15 receives a GPS signal including at least position information from GPS satellites.
  • the map information acquisition unit 9 may acquire map information from a map information storage device (not shown) provided in the vehicle, or may acquire map information from an external server or the like.
  • the situation information acquisition unit 6 acquires time at the time of music reproduction as situation information. Specifically, the situation information acquisition unit 6 determines that the music is being reproduced from the sound information of the music acquired from the music information acquisition unit 8. And the situation information acquisition part 6 acquires the time information in process of music reproduction from GPS15, and acquires the said time as situation information.
  • the GPS 15 receives GPS signals including at least time information from GPS satellites. The time information includes, for example, morning, morning, noon, evening, night, and midnight. These time zones may be set arbitrarily by the user. The time information is not limited to acquisition from the GPS 15, and may be acquired from a clock provided in the vehicle.
  • the situation information acquisition unit 6 acquires a destination set during music reproduction as situation information. Specifically, the situation information acquisition unit 6 determines that the music is being reproduced from the sound information of the music acquired from the music information acquisition unit 8. And the situation information acquisition part 6 acquires the destination set during music reproduction as situation information.
  • the destination includes, for example, a beach, a sightseeing spot, a home, a restaurant, a shopping mall, etc., which are included in the map information. Note that the destination may be one previously set by the user before music reproduction, or one set by the user during music reproduction.
  • the situation information determination unit 7 determines the situation during music reproduction based on the situation information acquired by the situation information acquisition unit 6. Specifically, the situation information determination unit 7 puts together each piece of situation information acquired by the situation information acquisition unit 6. For example, the situation information determination unit 7 determines that the user is traveling on the expressway in the morning when playing music, and that the destination is a beach on the basis of the situation information, and that these are situations when playing music Organize as information.
  • the reproduction list creation unit 3 generates a reproduction list of music based on the reaction information weighted by the reaction information determination unit 5. Specifically, a play list is created that gives priority to songs corresponding to reaction information with a large weighting value. Thereby, the reproduction list is in the order of the music with the largest weighting value. Also, the reproduction list creation unit 3 associates the situation information summarized by the situation information determination unit 7 with the music included in the reproduction list.
  • the playlist created by the playlist creation unit 3 is stored in the playlist storage unit 10.
  • the reproduction list storage unit 10 is a storage medium such as a hard disk drive (HDD) or a flash memory, for example, and may be removable.
  • FIG. 3 is a block diagram showing a hardware configuration including the reproduction list creation device 4. The same applies to the reproduction list creation apparatus 1.
  • the music reproduction unit 16 illustrated in FIG. 2 corresponds to the CPU 17, the media drive 19, the USB (Universal Serial Bus) 20, the SD card 21, the input unit 22, the display unit 23, the amplifier 24, and the speaker 25 in FIG. 3. .
  • Examples of the media drive 19 include reading devices such as a CD, a DVD, and a Blu-ray Disc (registered trademark), and music is stored in the CD, the DVD, and the Blu-ray Disc. Also, music is stored in a memory (not shown) connected to the USB 20 and the SD card 21. The music read by the media drive 19, the music stored in the memory connected to the USB 20, and the music stored in the SD card 21 are output from the speaker 25 via the amplifier 24.
  • the process of reproducing such music is realized by the CPU 17 controlling the media drive 19, the USB 20, the SD card 21, and the amplifier 24.
  • the CPU 17 is also referred to as a processing device, an arithmetic device, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor).
  • the input unit 22 receives an arbitrary operation by the user. Examples of the input unit 22 include a touch panel and mechanical switches.
  • the display unit 23 displays various information such as a reproduction list, for example.
  • the input unit 22 and the display unit 23 are controlled by the CPU 17. When the input unit 22 is a touch panel, the input unit 22 and the display unit 23 may be integrated.
  • a RAM (Random Access Memory) 26 temporarily holds information necessary for the CPU 17 to process.
  • the information temporarily held by the RAM 26 includes, for example, reaction information, situation information, music information being reproduced, and a reproduction list.
  • the network interface 27 can communicate with the outside.
  • the network interface 27 transmits, for example, a playlist and situation information to an external server.
  • the external server stores the received playlist and situation information.
  • the network interface 27 acquires a playlist and situation information from an external server.
  • the network interface 27 may add information that can identify the user's individual to the reproduction list and the situation information and transmit the information to an external server, and the external server may register the reproduction list for each individual. In this case, the external server can manage playlists and situation information for each individual.
  • the network interface 27 may also transmit reaction information to an external server in addition to the reproduction list and the situation information.
  • the network interface 27 may receive all or any of these pieces of information from an external server.
  • the music reproduction unit 16 shown in FIG. 2 corresponds to the CPU 17, the input unit 22, the display unit 23, the amplifier 24, the speaker 25, and the network interface 27 in FIG.
  • a ROM (Read Only Memory) 18 includes a microphone 11, a camera 12, an action sensor 13, a vehicle speed sensor 14, a GPS 15, a media drive 19, a USB 20, an SD card 21, an input unit 22, a display unit 23, an amplifier 24, and a playlist storage.
  • a program for controlling each of the unit 10 and the network interface 27 is stored.
  • the CPU 17 reads a program stored in the ROM 18 and controls each of these components.
  • Nonvolatile or volatile semiconductor memory such as RAM, flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Read Only Memory), etc. instead of the ROM 18, magnetic disk, flexible disk, optical disk, compact disk , A mini disc, a DVD, etc., or any storage medium to be used in the future.
  • Each of the reaction information acquisition unit 2, the reproduction list creation unit 3, the reaction information determination unit 5, the situation information acquisition unit 6, the situation information determination unit 7, the music information acquisition unit 8, and the map information acquisition unit 9 in the reproduction list creation device 4 The function is realized by the CPU 17. That is, the reproduction list creation apparatus 4 acquires reaction information, generates a reproduction list, determines reaction information, acquires situation information, determines situation information, acquires music information, and acquires map information.
  • the CPU 17 is provided.
  • the CPU 17 executes a program stored in the ROM 18.
  • Each of the reaction information acquisition unit 2, the reproduction list creation unit 3, the reaction information determination unit 5, the situation information acquisition unit 6, the situation information determination unit 7, the music information acquisition unit 8, and the map information acquisition unit 9 in the reproduction list creation device 4 The functions are realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is written as a program and stored in the ROM 18.
  • the CPU 17 implements the functions of the respective units by reading and executing the program stored in the ROM 18. That is, the reproduction list creating apparatus 4 acquires reaction information, prepares a reproduction list, determines reaction information, acquires situation information, determines situation information, and acquires music information , ROM 18 is provided for storing a program for which the step of obtaining map information is to be executed.
  • These programs include the reaction information acquisition unit 2, the reproduction list creation unit 3, the reaction information determination unit 5, the situation information acquisition unit 6, the situation information determination unit 7, the music information acquisition unit 8, and the map information acquisition unit 9. It can be said that the procedure or method is to be executed by a computer.
  • FIG. 4 is a flowchart showing an example of the operation of the reproduction list creation apparatus 4.
  • step S101 when the music reproduction unit 16 reproduces the music, the music information acquisition unit 8 acquires the music information of the music being reproduced from the music reproduction unit 16.
  • step S102 the reaction information acquisition unit 2 determines whether the user's singing voice matched to the reproduction of the music has been detected. If the user's singing voice is detected, the process proceeds to step S103. On the other hand, when the user's singing voice is not detected, the process proceeds to step S104. In step S103, the reaction information determination unit 5 determines the volume level of the singing voice.
  • step S104 the reaction information acquisition unit 2 determines whether the user's facial expression matched to the reproduction of the music has been detected.
  • the reaction information acquisition part 2 demonstrates as what detects the extent of a user's opening as a user's expression. If the user's expression is detected, the process proceeds to step S105. On the other hand, when the user's expression is not detected, the process proceeds to step S106. In addition, as a case where a user's expression is not detected, when an image taken by the camera 12 does not include the user's face, or when the user's expression can not be detected from an image taken by the camera 12, etc. Can be mentioned.
  • the reaction information determination unit 5 determines the user's opening level, which is the level of the user's expression.
  • step S106 the reaction information acquisition unit 2 determines whether or not the vibration associated with the movement of the user matched to the reproduction of the music has been detected.
  • step S107 the reaction information determination unit 5 determines the vibration level.
  • step S108 the reaction information determination unit 5 performs, in steps S102, S104, and S106, at least one of the user's singing voice, the degree of the user's opening that is the user's expression, and the vibration associated with the user's movement. It is judged whether or not it detected. If it is detected, the process proceeds to step S109. On the other hand, if not detected, the process returns to step S102.
  • step S109 the reaction information determination unit 5 weights the reaction information. Specifically, the reaction information determination unit 5 weights the reaction information detected in steps S102, S104, and S106 according to at least one of the volume level, the opening level, and the vibration level. At this time, in the case of weighting according to a plurality of volume level, aperture level, and vibration level, these weighting values are summed.
  • step S110 the situation information acquisition unit 6 acquires situation information.
  • step S111 the reproduction list creation unit 3 creates a reproduction list. Specifically, the reproduction list creating unit 3 creates a reproduction list giving priority to the music corresponding to the reaction information having a large weighting value. Also, the reproduction list creation unit 3 associates situation information with the music.
  • step S112 the reproduction list created by the reproduction list creation unit 3 is stored in the reproduction list storage unit 10, and the process is ended.
  • step S102 and step S103, step S104 and step S105, and step S106 and step S107 is not limited to the order shown in FIG. 4 and may be arbitrary.
  • the reaction information indicating the user's preference for the music being reproduced is weighted, and the reproduction list is generated to prioritize the music corresponding to the reaction information having a large value of the weighting. doing. Therefore, it becomes possible to select a music favorite by the user with high accuracy and easily create the playlist without the user performing an operation related to the playlist.
  • FIG. 5 is a block diagram showing an example of the configuration of the reproduction list creating apparatus 28 according to the second embodiment.
  • the reproduction list creation device 28 includes a reproduction control unit 29.
  • the reproduction control unit 29 controls reproduction of music according to the reproduction list stored in the reproduction list storage unit 10.
  • the other configuration and operation are the same as in the first embodiment, and thus the description thereof is omitted here.
  • the function of the reproduction control unit 29 in the reproduction list creation device 28 is realized by the CPU 17 shown in FIG. That is, the reproduction list creation device 28 includes the CPU 17 for controlling reproduction of music according to the reproduction list.
  • the CPU 17 executes a program stored in the ROM 18.
  • the other functions of the reproduction list creating apparatus 28 are the same as those of the reproduction list creating apparatus 4 shown in FIG.
  • the function of the reproduction control unit 29 in the reproduction list creation device 28 is realized by software, firmware, or a combination of software and firmware. As shown in FIG. 3, software or firmware is written as a program and stored in the ROM 18.
  • the CPU 17 realizes the function of the reproduction control unit 29 by reading and executing the program stored in the ROM 18. That is, the reproduction list creation apparatus 28 includes the ROM 18 for storing a program that results in the step of controlling the reproduction of the music according to the reproduction list. Also, it can be said that this program causes the computer to execute the procedure or method of the reproduction control unit 29.
  • the other functions of the reproduction list creating apparatus 28 are the same as those of the reproduction list creating apparatus 4 shown in FIG.
  • FIG. 6 is a flowchart showing an example of the operation of the reproduction list creating apparatus 28 according to the second embodiment.
  • the user may, for example, read a song read by the media drive 19, a song stored in the memory connected to the USB 20, and a song stored in the SD card 21, the network interface 27.
  • the music stored in the portable communication terminal connected via the network the music broadcasted on the radio connected via the network interface 27, or the music distributed from an external server via the network interface 27 It is assumed that which song is to be played back.
  • the selection may be arbitrarily selected by the user via the input unit 22 from the selection screen displayed on the display unit 23.
  • step S201 the reproduction control unit 29 acquires a reproduction list from the reproduction list storage unit 10.
  • step S202 the reproduction control unit 29 acquires, from the situation information acquisition unit 6, the situation information at the time of reproducing the music at present, that is, according to the reproduction list.
  • step S203 the reproduction control unit 29 acquires music information from the music information acquisition unit 8. At this time, it is assumed that the music information acquisition unit 8 acquires all pieces of music information existing at the reproduction source of the music at one time.
  • step S204 the reproduction control unit 29 determines whether or not the music can be reproduced. If the music can be played back, the process proceeds to step S205. On the other hand, when the music can not be reproduced, the process proceeds to step S207.
  • the reproduction control unit 29 compares the current situation information acquired from the situation information acquisition unit 6 with the situation information associated with the music included in the reproduction list, and reproduces the music that matches the two. Be a candidate. That is, among the songs included in the playback list, the song matching the current situation information is set as a playback candidate.
  • the reproduction control unit 29 may control so as to reproduce the music whose situation information matches, and the reproduction method may be arbitrarily set. For example, when there is a plurality of matching situation information, music having a large number of matching may be preferentially reproduced. If the number of matching situation information is the same, music having a large value weighted to the reaction information may be preferentially reproduced. Moreover, you may reproduce
  • the reproduction control unit 29 determines whether or not the reproduction candidate music is included in the music information. Then, the reproduction control unit 29 determines that the reproduction of the music is possible when the music of the reproduction candidate is included in the music information, and when the music of the reproduction candidate is not included in the music information, the reproduction of the music is reproduced. Is not possible.
  • step S205 the reproduction control unit 29 controls the music reproduction unit 16 so as to reproduce the music.
  • step S206 the reproduction control unit 29 determines, based on the music information acquired from the music information acquisition unit 8, whether or not the music reproduction unit 16 reproduces all the music. If all songs have been played, the process is ended. On the other hand, if all the music has not been reproduced, the process returns to step S204.
  • step S207 the reproduction control unit 29 skips the reproduction of the music, and returns to step S204.
  • the present invention is not limited to this.
  • the music that matches the current drive situation information may be preferentially reproduced, and thereafter, the remaining music included in the reproduction list may be reproduced.
  • the reaction list information may be weighted, and the reproduction list may be generated again by the reproduction list generation unit 3. In this case, it is possible to create a playlist that matches the current user preference.
  • the reproduction list is registered in an external server
  • the user can reproduce the music using the reproduction list also in another vehicle such as a rental car, for example, thereby expanding the use environment of the reproduction list.
  • the music can be reproduced using the registered reproduction list, and the convenience is further improved.
  • the reproduction list creating apparatus described above is not only an on-vehicle navigation apparatus, that is, a car navigation apparatus, but also a PND (Portable Navigation Device) and a mobile communication terminal (for example, a mobile phone, a smartphone, a tablet terminal, etc.) And a server provided outside the vehicle may be appropriately combined to construct a navigation system or a device other than the navigation system.
  • a server provided outside the vehicle may be appropriately combined to construct a navigation system or a device other than the navigation system.
  • each function or each component of the reproduction list creation apparatus is distributed and arranged to each function constructing the system.
  • the function of the reproduction list creation apparatus can be arranged in the server.
  • the user side includes the microphone 11, the camera 12, the action sensor 13, the vehicle speed sensor 14, the GPS 15, and the music reproduction unit 16.
  • the server 30 includes a reaction information acquisition unit 2, a reproduction list creation unit 3, a reaction information determination unit 5, a situation information acquisition unit 6, a situation information determination unit 7, a music information acquisition unit 8, a map information acquisition unit 9, and a reproduction list storage.
  • a unit 10 is provided. With such a configuration, a playlist creation system can be constructed.
  • software for executing the operation in the above embodiment may be incorporated into, for example, a server.
  • the reproduction list creating method realized by the server executing this software acquires reaction information indicating a reaction indicating the user's preference for the music being reproduced, and based on the acquired reaction information, the reproduction list of the music is create.
  • each embodiment can be freely combined, or each embodiment can be appropriately modified or omitted.
  • SYMBOLS 1 reproduction list creation apparatus 2 reaction information acquisition part, 3 reproduction list creation part, 4 reproduction list preparation apparatus, 5 reaction information determination part, 6 situation information acquisition part, 7 situation information determination part, 8 music information acquisition part, 9 map Information acquisition unit, 10 playlist storage unit, 11 microphone, 12 camera, 13 action sensor, 14 vehicle speed sensor, 15 GPS, 16 music playback unit, 17 CPU, 18 ROM, 19 media drive, 20 USB, 21 SD card, 22 Input unit, 23 display unit, 24 amplifier, 25 speaker, 26 RAM, 27 network interface, 28 playlist creation device, 29 playback control unit, 30 server.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

本発明は、ユーザが好む楽曲を精度良く選択して簡単に再生リストを作成することが可能な再生リスト作成装置および再生リスト作成方法を提供することを目的とする。本発明による再生リスト作成装置は、再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得するリアクション情報取得部と、リアクション情報取得部が取得したリアクション情報に基づいて、楽曲の再生リストを作成する再生リスト作成部とを備える。

Description

再生リスト作成装置および再生リスト作成方法
 本発明は、楽曲の再生リストを作成する再生リスト作成装置および再生リスト作成方法に関する。
 従来、楽曲の再生リストは、ユーザが好みの楽曲を自ら選択する、あるいは、「楽曲のジャンル」または「楽曲の再生回数」などをユーザが指定することによって作成されていた。また、楽曲を記憶する記憶媒体の容量がない場合において、スキップ回数が多い楽曲または再生回数が少ない楽曲を記憶媒体から削除する技術が開示されている(例えば、特許文献1参照)。
特開2006-196048号公報
 特許文献1において再生リストを作成する場合、当該再生リストには、スキップ回数が多い楽曲または再生回数が少ない楽曲は含まれないが、ユーザが聴き流した楽曲が含まれる可能性がある。例えば、ユーザが、楽曲の再生中にぼんやりしていた、運転に集中していた、または楽曲の音量を消音にしていたなどの理由によって、好みではない楽曲であるにもかかわらずユーザがスキップするなどの適切な操作を行わずに聴き流す場合がある。すなわち、ユーザが聴き流した楽曲には、ユーザが好まない楽曲が含まれることがある。このように、従来では、ユーザが好む楽曲を精度良く選択して簡単に再生リストを作成することができなかった。
 本発明は、このような問題を解決するためになされたものであり、ユーザが好む楽曲を精度良く選択して簡単に再生リストを作成することが可能な再生リスト作成装置および再生リスト作成方法を提供することを目的とする。
 上記の課題を解決するために、本発明による再生リスト作成装置は、再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得するリアクション情報取得部と、リアクション情報取得部が取得したリアクション情報に基づいて、楽曲の再生リストを作成する再生リスト作成部とを備える。
 また、本発明による再生リスト作成方法は、再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得し、取得したリアクション情報に基づいて、楽曲の再生リストを作成する。
 本発明によると、再生リスト作成装置は、再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得するリアクション情報取得部と、リアクション情報取得部が取得したリアクション情報に基づいて、楽曲の再生リストを作成する再生リスト作成部とを備えるため、ユーザが好む楽曲を精度良く選択して簡単に再生リストを作成することが可能となる。
 また、再生リスト作成方法は、再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得し、取得したリアクション情報に基づいて、楽曲の再生リストを作成するため、ユーザが好む楽曲を精度良く選択して簡単に再生リストを作成することが可能となる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1による再生リスト作成装置の構成の一例を示すブロック図である。 本発明の実施の形態1による再生リスト作成装置の構成の一例を示すブロック図である。 本発明の実施の形態1による再生リスト作成装置を含むハードウェア構成を示すブロック図である。 本発明の実施の形態1による再生リスト作成装置の動作の一例を示すフローチャートである。 本発明の実施の形態2による再生リスト作成装置の構成の一例を示すブロック図である。 本発明の実施の形態2による再生リスト作成装置の動作の一例を示すフローチャートである。 本発明の実施の形態による再生リスト作成システムの構成の一例を示すブロック図である。
 本発明の実施の形態について、図面に基づいて以下に説明する。
 <実施の形態1>
 <構成>
 図1は、本発明の実施の形態1による再生リスト作成装置1の構成の一例を示すブロック図である。なお、図1では、本実施の形態による再生リスト作成装置を構成する必要最小限の構成を示している。
 図1に示すように、再生リスト作成装置1は、リアクション情報取得部2と、再生リスト作成部3とを備えている。リアクション情報取得部2は、再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得する。再生リスト作成部3は、リアクション情報取得部2が取得したリアクション情報に基づいて、楽曲の再生リストを作成する。
 次に、図1に示す再生リスト作成装置1を含む再生リスト作成装置の他の構成について説明する。
 図2は、他の構成に係る再生リスト作成装置4の構成の一例を示すブロック図である。なお、再生リスト作成装置4は、車両内に設けられているものとする。
 図2に示すように、再生リスト作成装置4は、リアクション情報取得部2と、再生リスト作成部3と、リアクション情報判定部5と、シチュエーション情報取得部6と、シチュエーション情報判定部7と、楽曲情報取得部8と、地図情報取得部9と、再生リスト記憶部10とを備えている。リアクション情報取得部2は、マイク11、カメラ12、およびアクションセンサ13に接続されている。シチュエーション情報取得部6は、車速センサ14およびGPS(Global Positioning System)15に接続されている。楽曲情報取得部8は、楽曲再生部16に接続されている。
 楽曲情報取得部8は、楽曲再生部16から、楽曲再生部16で再生中の楽曲情報を取得する。楽曲情報には、楽曲の再生中の歌手の歌声またはメロディーなどの音情報、楽曲名、歌手名、ジャンルなど、楽曲に関する種々の情報が含まれている。楽曲再生部16は、車両内に設けられた記憶媒体に記憶されている楽曲、外部メモリに記憶されている楽曲、各種メディアに記憶されている楽曲、スマートフォンに記憶されている楽曲、ラジオで放送されている楽曲、またはユーザが契約している音楽配信サービスによって外部のサーバから配信される楽曲のいずれを再生してもよい。なお、これらの楽曲には、楽曲情報が含まれているものとする。楽曲再生部16は、ランダムに楽曲を再生してもよく、後述の再生リストに従って楽曲を再生してもよい。楽曲情報取得部8は、再生中の楽曲情報だけでなく、例えば記憶媒体に記憶されている全ての楽曲情報など、楽曲の再生元に存在する全ての楽曲情報を一括して取得してもよい。
 リアクション情報取得部2は、マイク11から、楽曲の再生に合わせたユーザの歌声の音量をリアクション情報として取得する。具体的には、リアクション情報取得部2は、楽曲情報取得部8から再生中の楽曲の音情報を取得し、当該音情報と、マイク11を介して取得したユーザの音声とに基づいて、ユーザが楽曲の再生に合わせて歌を歌っていることを認識する。このような認識処理は、周知の音声認識技術を用いて行うことができる。リアクション情報取得部2は、ユーザが歌を歌っていることを認識すると、そのときの歌声の音量をマイク11から取得する。なお、ユーザの歌声は、ユーザの鼻歌を含む。マイク11は、車両内に設けられている。
 また、リアクション情報取得部2は、カメラ12から、楽曲の再生に合わせたユーザの表情をリアクション情報として取得する。具体的には、リアクション情報取得部2は、楽曲情報取得部8から取得した楽曲の音情報により楽曲が再生中であると判断する。そして、リアクション情報取得部2は、楽曲再生中におけるユーザの表情が撮影された画像をカメラ12から取得する。例えば、リアクション情報取得部2は、カメラ12から取得した画像から、ユーザの開口の程度を認識する。このような認識処理は、周知の画像認識技術を用いて行うことができる。カメラ12は、車両内に設けられている。
 また、リアクション情報取得部2は、アクションセンサ13から、楽曲の再生に合わせたユーザの動きに伴う振動をリアクション情報として取得する。具体的には、リアクション情報取得部2は、楽曲情報取得部8から取得した楽曲の音情報により楽曲が再生中であると判断する。そして、リアクション情報取得部2は、楽曲再生中におけるユーザの動きに伴う振動をアクションセンサ13から取得する。例えば、リアクション情報取得部2は、ユーザがハンドルをたたく、座席上で揺れる、または床上で足踏みするなど、楽曲の再生に合わせたユーザのリズム反応の際に生じる振動を取得する。これらの振動はいずれか1つでもよく、複数を組み合わせてもよい。アクションセンサ13は、例えばハンドル、座席、または床に設けられている。
 リアクション情報判定部5は、リアクション情報取得部2が取得したリアクション情報に重み付けをする。具体的には、リアクション情報判定部5は、リアクション情報がユーザの歌声の音量である場合、音量レベルに応じた重み付けを行う。例えば、音量レベルを「音量レベル無(無音)」、「音量レベル小」、「音量レベル中」、および「音量レベル大」の4段階とする。この場合、例えば、「音量レベル無(無音)」に対応する重み付けの値を「0」、「音量レベル小」に対応する重み付けの値を「1」、「音量レベル中」に対応する重み付けの値を「2」、および「音量レベル大」に対応する重み付けの値を「3」とする。なお、各音量レベルは、予め定められたしきい値によって設定される。ここでは音量レベルが4段階の場合を一例として説明しているが、これに限るものではない。
 また、リアクション情報判定部5は、リアクション情報がユーザの開口の程度である場合、開口レベルに応じた重み付けを行う。開口レベルが大きい程、ユーザの口は大きく開いていることを示している。例えば、開口レベルを「開口レベル無(口を閉じている)」、「開口レベル小」、「開口レベル中」、および「開口レベル大」の4段階とする。この場合、例えば、「開口レベル無(口を閉じている)」に対応する重み付けの値を「0」、「開口レベル小」に対応する重み付けの値を「1」、「開口レベル中」に対応する重み付けの値を「2」、および「開口レベル大」に対応する重み付けの値を「3」とする。なお、各開口レベルは、予め定められたしきい値によって設定される。ここでは開口レベルが4段階の場合を一例として説明しているが、これに限るものではない。
 また、リアクション情報判定部5は、リアクション情報がユーザの動きに伴う振動である場合、振動レベルに応じた重み付けを行う。例えば、振動レベルを「振動レベル無(ユーザが動いていない)」、「振動レベル小」、「振動レベル中」、および「振動レベル大」の4段階とする。この場合、例えば、「振動レベル無(ユーザが動いていない)」に対応する重み付けの値を「0」、「振動レベル小」に対応する重み付けの値を「1」、「振動レベル中」に対応する重み付けの値を「2」、および「振動レベル大」に対応する重み付けの値を「3」とする。なお、各振動レベルは、予め定められたしきい値によって設定される。ここでは振動レベルが4段階の場合を一例として説明しているが、これに限るものではない。
 さらに、リアクション情報判定部5は、音量レベルに対応する重み付けの値と、開口レベルに対応する重み付けの値と、振動レベルに対応する重み付けの値とを合算する。このように合算された値は、最終的にリアクション情報に重み付けされた値となる。
 シチュエーション情報取得部6は、楽曲の再生時のシチュエーションを示すシチュエーション情報を取得する。例えば、シチュエーション情報取得部6は、楽曲再生時における車両の走行状況をシチュエーション情報として取得する。具体的には、シチュエーション情報取得部6は、楽曲情報取得部8から取得した楽曲の音情報により楽曲が再生中であると判断する。そして、シチュエーション情報取得部6は、楽曲再生中における車両の速度情報を車速センサ14から取得し、車両の速度に基づいて車両の走行状況を判断し、当該走行状況をシチュエーション情報として取得する。車両の走行状況としては、例えば渋滞中、高速道路走行中、一般道路走行中などが挙げられる。車速センサ14は、車両内に設けられている。
 また、シチュエーション情報取得部6は、楽曲再生時における車両の走行位置をシチュエーション情報として取得する。具体的には、シチュエーション情報取得部6は、楽曲情報取得部8から取得した楽曲の音情報により楽曲が再生中であると判断する。そして、シチュエーション情報取得部6は、楽曲再生中における車両の位置情報をGPS15から取得するとともに、当該位置情報に対応する地図情報を地図情報取得部9から取得し、車両の走行位置をシチュエーション情報として取得する。車両の走行位置としては、例えば都心部、田園部、海沿い、山間部、一定距離以上の直線が続くエリアなどが挙げられる。GPS15は、GPS衛星から少なくとも位置情報を含むGPS信号を受信する。地図情報取得部9は、車両内に設けられた図示しない地図情報記憶装置から地図情報を取得してもよく、外部のサーバなどから地図情報を取得してもよい。
 また、シチュエーション情報取得部6は、楽曲再生時の時間をシチュエーション情報として取得する。具体的には、シチュエーション情報取得部6は、楽曲情報取得部8から取得した楽曲の音情報により楽曲が再生中であると判断する。そして、シチュエーション情報取得部6は、楽曲再生中の時間情報をGPS15から取得し、当該時間をシチュエーション情報として取得する。GPS15は、GPS衛星から少なくとも時間情報を含むGPS信号を受信する。時間情報としては、例えば明け方、午前、昼、夕刻、夜、夜中などが挙げられる。これらの時間帯は、ユーザが任意に設定してもよい。なお、時間情報は、GPS15から取得することに限るものではなく、車両内に設けられた時計から取得してもよい。
 また、シチュエーション情報取得部6は、楽曲再生中に設定されている目的地をシチュエーション情報として取得する。具体的には、シチュエーション情報取得部6は、楽曲情報取得部8から取得した楽曲の音情報により楽曲が再生中であると判断する。そして、シチュエーション情報取得部6は、楽曲再生中に設定されている目的地をシチュエーション情報として取得する。目的地としては、例えば海水浴場、観光地、自宅、レストラン、ショッピングモールなどが挙げられ、これらは地図情報に含まれている。なお、目的地は、楽曲再生前にユーザが予め設定したものでもよく、楽曲再生中にユーザが設定したものでもよい。
 シチュエーション情報判定部7は、シチュエーション情報取得部6が取得したシチュエーション情報に基づいて、楽曲再生中におけるシチュエーションを判定する。具体的には、シチュエーション情報判定部7は、シチュエーション情報取得部6が取得した各シチュエーション情報をまとめる。例えば、シチュエーション情報判定部7は、シチュエーション情報に基づいて、楽曲再生時、午前中に高速道路を走行中であり、かつ目的地は海水浴場であることを判定し、これらを楽曲再生時のシチュエーション情報としてまとめる。
 再生リスト作成部3は、リアクション情報判定部5で重み付けされたリアクション情報に基づいて、楽曲の再生リストを作成する。具体的には、重み付けの値が大きいリアクション情報に対応する楽曲を優先する再生リストを作成する。これにより、再生リストは、重み付けの値が大きい楽曲の順となる。また、再生リスト作成部3は、再生リストに含まれる楽曲に、シチュエーション情報判定部7でまとめたシチュエーション情報を対応付ける。再生リスト作成部3で作成された再生リストは、再生リスト記憶部10に記憶される。再生リスト記憶部10は、例えばHDD(Hard Disk Drive)またはフラッシュメモリなどの記憶媒体であり、着脱可能であってもよい。
 図3は、再生リスト作成装置4を含むハードウェア構成を示すブロック図である。なお、再生リスト作成装置1についても同様である。
 図2に示す楽曲再生部16は、図3におけるCPU17、メディアドライブ19、USB(Universal Serial Bus)20、SDカード21、入力部22、表示部23、アンプ24、およびスピーカ25に対応している。メディアドライブ19としては、例えばCD、DVD、およびBlu-ray Disc(登録商標)などの読み取り装置が挙げられ、CD、DVD、およびBlu-ray Discには楽曲が記憶されている。また、USB20に接続された図示しないメモリおよびSDカード21にも楽曲が記憶されている。メディアドライブ19で読み取られた楽曲、USB20に接続されたメモリに記憶されている楽曲、およびSDカード21に記憶されている楽曲は、アンプ24を介してスピーカ25から出力される。このような楽曲を再生する処理は、CPU17がメディアドライブ19、USB20、SDカード21、アンプ24を制御することにより実現される。ここで、CPU17は、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう。
 入力部22は、ユーザによる任意の操作を受け付ける。入力部22としては、タッチパネル、およびメカニカルなスイッチ類などが挙げられる。表示部23は、例えば再生リストなど、種々の情報を表示する。入力部22および表示部23は、CPU17により制御される。なお、入力部22がタッチパネルである場合は、入力部22および表示部23を一体に構成してもよい。
 RAM(Random Access Memory)26は、CPU17が処理する際に必要な情報を一時的に保持する。RAM26が一時的に保持する情報としては、例えば、リアクション情報、シチュエーション情報、再生中の楽曲情報、および再生リストなどが挙げられる。
 ネットワークインタフェース27は、外部と通信可能である。ネットワークインタフェース27は、例えば、再生リストおよびシチュエーション情報を外部のサーバに送信する。外部のサーバでは、受信した再生リストおよびシチュエーション情報を記憶する。また、ネットワークインタフェース27は、外部のサーバから再生リストおよびシチュエーション情報を取得する。
 なお、ネットワークインタフェース27は、ユーザの個人を識別可能な情報を再生リストおよびシチュエーション情報に付して外部のサーバに送信し、外部のサーバで個人ごとの再生リストを登録するようにしてもよい。この場合、外部のサーバでは、個人ごとの再生リストおよびシチュエーション情報を管理することができる。また、ネットワークインタフェース27は、再生リストおよびシチュエーション情報に加えて、リアクション情報も外部のサーバに送信してもよい。ネットワークインタフェース27は、これらの情報のすべてまたは任意の情報を外部のサーバから受信してもよい。
 また、ネットワークインタフェース27が携帯通信端末と通信回線を介して接続されている場合、携帯通信端末に記憶されている楽曲、または携帯通信端末で再生中の楽曲を当該携帯通信端末から受信してスピーカ25から出力するようにしてもよい。さらに、ネットワークインタフェース27がインターネットに接続されている場合、インターネットを介してダウンロードした楽曲をスピーカ25から出力するようにしてもよい。この場合、図2に示す楽曲再生部16は、図3におけるCPU17、入力部22、表示部23、アンプ24、スピーカ25、およびネットワークインタフェース27に対応している。
 ROM(Read Only Memory)18には、マイク11、カメラ12、アクションセンサ13、車速センサ14、GPS15、メディアドライブ19、USB20、SDカード21、入力部22、表示部23、アンプ24、再生リスト記憶部10、ネットワークインタフェース27の各々を制御するためのプログラムが記憶されている。CPU17は、ROM18に記憶されたプログラムを読み出して、これらの各構成要素を制御する。なお、ROM18に代えて、RAM、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Read Only Memory)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等、または、今後使用されるあらゆる記憶媒体であってもよい。
 再生リスト作成装置4におけるリアクション情報取得部2、再生リスト作成部3、リアクション情報判定部5、シチュエーション情報取得部6、シチュエーション情報判定部7、楽曲情報取得部8、および地図情報取得部9の各機能は、CPU17により実現される。すなわち、再生リスト作成装置4は、リアクション情報を取得し、再生リストを作成し、リアクション情報を判定し、シチュエーション情報を取得し、シチュエーション情報を判定し、楽曲情報を取得し、地図情報を取得するためのCPU17を備える。CPU17は、ROM18に格納されたプログラムを実行する。
 再生リスト作成装置4におけるリアクション情報取得部2、再生リスト作成部3、リアクション情報判定部5、シチュエーション情報取得部6、シチュエーション情報判定部7、楽曲情報取得部8、および地図情報取得部9の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、ROM18に格納される。CPU17は、ROM18に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、再生リスト作成装置4は、リアクション情報を取得するステップ、再生リストを作成するステップ、リアクション情報を判定するステップ、シチュエーション情報を取得するステップ、シチュエーション情報を判定するステップ、楽曲情報を取得するステップ、地図情報を取得するステップが結果的に実行されることになるプログラムを格納するためROM18を備える。また、これらのプログラムは、リアクション情報取得部2、再生リスト作成部3、リアクション情報判定部5、シチュエーション情報取得部6、シチュエーション情報判定部7、楽曲情報取得部8、および地図情報取得部9の手順または方法をコンピュータに実行させるものであるともいえる。
 <動作>
 図4は、再生リスト作成装置4の動作の一例を示すフローチャートである。
 ステップS101において、楽曲再生部16が楽曲を再生すると、楽曲情報取得部8は、楽曲再生部16から再生中の楽曲の楽曲情報を取得する。
 ステップS102において、リアクション情報取得部2は、楽曲の再生に合わせたユーザの歌声を検出したか否かを判断する。ユーザの歌声を検出した場合は、ステップS103に移行する。一方、ユーザの歌声を検出しなかった場合は、ステップS104に移行する。ステップS103において、リアクション情報判定部5は、歌声の音量レベルを判定する。
 ステップS104において、リアクション情報取得部2は、楽曲の再生に合わせたユーザの表情を検出したか否かを判断する。以下では、リアクション情報取得部2は、ユーザの表情として、ユーザの開口の程度を検出するものとして説明する。ユーザの表情を検出した場合は、ステップS105に移行する。一方、ユーザの表情を検出しなかった場合は、ステップS106に移行する。なお、ユーザの表情を検出しなかった場合としては、カメラ12が撮影した画像にユーザの顔が含まれていない場合、またはカメラ12が撮影した画像からユーザの表情を検出することができない場合などが挙げられる。ステップS105において、リアクション情報判定部5は、ユーザの表情のレベルであるユーザの開口レベルを判定する。
 ステップS106において、リアクション情報取得部2は、楽曲の再生に合わせたユーザの動きに伴う振動を検出したか否かを判断する。ユーザの動きに伴う振動を検出した場合は、ステップS107に移行する。一方、ユーザの動きに伴う振動を検出しなかった場合は、ステップS108に移行する。ステップS107において、リアクション情報判定部5は、振動レベルを判定する。
 ステップS108において、リアクション情報判定部5は、ステップS102、ステップS104、およびステップS106において、ユーザの歌声、ユーザの表情であるユーザの開口の程度、およびユーザの動きに伴う振動のうちの少なくとも1つを検出したか否かを判断する。検出した場合は、ステップS109に移行する。一方、検出しなかった場合は、ステップS102に戻る。
 ステップS109において、リアクション情報判定部5は、リアクション情報に重み付けをする。具体的には、リアクション情報判定部5は、ステップS102、ステップS104、およびステップS106において検出したリアクション情報について、音量レベル、開口レベル、および振動レベルのうちの少なくとも1つに応じた重み付けを行う。このとき、音量レベル、開口レベル、および振動レベルのうちの複数に応じた重み付けを行う場合は、これらの重み付けの値を合算する。
 ステップS110において、シチュエーション情報取得部6は、シチュエーション情報を取得する。ステップS111において、再生リスト作成部3は、再生リストを作成する。具体的には、再生リスト作成部3は、重み付けの値が大きいリアクション情報に対応する楽曲を優先する再生リストを作成する。また、再生リスト作成部3は、楽曲にシチュエーション情報を対応付ける。ステップS112において、再生リスト作成部3で作成された再生リストを再生リスト記憶部10に記憶し、処理を終了する。
 なお、ステップS102およびステップS103と、ステップS104およびステップS105と、ステップS106およびステップS107との処理の順序は、図4に示す順序に限らず任意の順序としてもよい。
 以上のことから、本実施の形態1によれば、再生中の楽曲に対するユーザの好みを表すリアクション情報に重み付けをし、当該重み付けの値が大きいリアクション情報に対応する楽曲を優先する再生リストを生成している。従って、ユーザ自身が再生リストに係る操作を行うことなく、ユーザが好む楽曲を精度良く選択して簡単に再生リストを作成することが可能となる。
 <実施の形態2>
 本発明の実施の形態2では、実施の形態1で作成した再生リストに従って楽曲を再生する場合について説明する。
 <構成>
 図5は、本実施の形態2による再生リスト作成装置28の構成の一例を示すブロック図である。図5に示すように、再生リスト作成装置28は、再生制御部29を備えている。再生制御部29は、再生リスト記憶部10に記憶されている再生リストに従った楽曲の再生を制御する。その他の構成および動作は、実施の形態1と同様であるため、ここでは説明を省略する。
 再生リスト作成装置28における再生制御部29の機能は、図3に示すCPU17により実現される。すなわち、再生リスト作成装置28は、再生リストに従った楽曲の再生を制御するためのCPU17を備える。CPU17は、ROM18に格納されたプログラムを実行する。なお、再生リスト作成装置28の他の各機能については、図2に示す再生リスト作成装置4と同様である。
 再生リスト作成装置28における再生制御部29の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。図3に示すように、ソフトウェアまたはファームウェアは、プログラムとして記述され、ROM18に格納される。CPU17は、ROM18に記憶されたプログラムを読み出して実行することにより、再生制御部29の機能を実現する。すなわち、再生リスト作成装置28は、再生リストに従った楽曲の再生を制御するステップが結果的に実行されることになるプログラムを格納するためのROM18を備える。また、このプログラムは、再生制御部29の手順または方法をコンピュータに実行させるものであるともいえる。なお、再生リスト作成装置28の他の各機能については、図2に示す再生リスト作成装置4と同様である。
 <動作>
 図6は、本実施の形態2による再生リスト作成装置28の動作の一例を示すフローチャートである。なお、図6の動作の前提として、ユーザは、例えばメディアドライブ19で読み取られた楽曲、USB20に接続されたメモリに記憶されている楽曲、およびSDカード21に記憶されている楽曲、ネットワークインタフェース27を介して接続した携帯通信端末に記憶されている楽曲、ネットワークインタフェース27を介して接続したラジオで放送されている楽曲、またはネットワークインタフェース27を介して外部のサーバから配信されている楽曲のうちのいずれの楽曲を再生するのか選択しているものとする。当該選択は、表示部23に表示された選択画面から、ユーザが入力部22を介して任意に選択すればよい。また、ユーザは、楽曲の再生について、例えば「通常の再生」、「ランダム再生」、および「再生リストに従う再生」のうちの「再生リストに従う再生」を選択しているものとする。ここで、「通常の再生」とは、例えばCDに記憶されている楽曲であれば、その収録順に楽曲を再生することをいう。「ランダム再生」とは、順不同でランダムに楽曲を再生することをいう。「再生リストに従う再生」とは、再生リスト作成部3が作成した再生リストに従って楽曲を再生することをいう。
 ステップS201において、再生制御部29は、再生リスト記憶部10から再生リストを取得する。ステップS202において、再生制御部29は、シチュエーション情報取得部6から現在、すなわち再生リストに従って楽曲を再生する際のシチュエーション情報を取得する。ステップS203において、再生制御部29は、楽曲情報取得部8から楽曲情報を取得する。このとき、楽曲情報取得部8は、楽曲の再生元に存在する全ての楽曲情報を一括して取得しているものとする。
 ステップS204において、再生制御部29は、楽曲の再生が可能か否かを判断する。楽曲の再生が可能である場合は、ステップS205に移行する。一方、楽曲の再生が可能でない場合は、ステップS207に移行する。
 具体的には、再生制御部29は、シチュエーション情報取得部6から取得した現在のシチュエーション情報と、再生リストに含まれる楽曲に対応付けられたシチュエーション情報とを比較し、両者が一致する楽曲を再生候補とする。すなわち、再生リストに含まれる楽曲のうち、現在のシチュエーション情報と一致する楽曲を再生候補とする。なお、再生制御部29は、シチュエーション情報が一致する楽曲を再生するように制御すればよく、再生方法は任意に設定すればよい。例えば、一致するシチュエーション情報が複数ある場合は、一致する数が多い楽曲を優先して再生するようにしてもよい。一致するシチュエーション情報の数が同じ場合は、リアクション情報に重み付けされた値が大きい楽曲を優先して再生してもよい。また、シチュエーション情報が一致する楽曲のうち、予め定められた値以上の重み付けがなされた楽曲をランダムに再生してもよい。このように、再生リストは、楽曲を再生する際に、シチュエーション情報に応じて編集される。
 次いで、再生制御部29は、再生候補の楽曲が楽曲情報に含まれているか否かを判断する。そして、再生制御部29は、再生候補の楽曲が楽曲情報に含まれている場合は楽曲の再生が可能であると判断し、再生候補の楽曲が楽曲情報に含まれていない場合は楽曲の再生が可能でないと判断する。
 ステップS205において、再生制御部29は、楽曲を再生するように楽曲再生部16を制御する。ステップS206において、再生制御部29は、楽曲情報取得部8から取得した楽曲情報に基づいて、楽曲再生部16が全ての楽曲を再生したか否かを判断する。全ての楽曲を再生した場合は、処理を終了する。一方、全ての楽曲を再生していない場合は、ステップS204に戻る。ステップS207において、再生制御部29は、楽曲の再生をスキップし、ステップS204に戻る。
 上記では、再生リストに含まれる楽曲のうち、現在のドライブシチュエーション情報と一致する楽曲のみを再生する場合について説明したが、これに限るものではない。例えば、再生リストに含まれる楽曲について、現在のドライブシチュエーション情報と一致する楽曲を優先して再生し、その後、再生リストに含まれる残りの楽曲を再生するようにしてもよい。
 再生リストに従って楽曲を再生中において、実施の形態1と同様、リアクション情報に重み付けをして再生リスト作成部3で再生リストを再度作成してもよい。この場合、現在のユーザの好みに合った再生リストを作成することができる。
 以上のことから、本実施の形態2によれば、シチュエーションに応じてユーザが好む楽曲を精度良く選択して再生することができる。また、再生リストが外部のサーバに登録されている場合、ユーザは、例えばレンタカーなど他の車両においても再生リストを用いて楽曲を再生することができるため、再生リストの使用環境が広がる。将来、カーシェアリングの車両、または自動運転タクシーなどの利用時において、登録した再生リストを用いて楽曲を再生することができ、利便性がさらに向上する。
 以上で説明した再生リスト作成装置は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能なPND(Portable Navigation Device)および携帯通信端末(例えば、携帯電話、スマートフォン、およびタブレット端末など)、並びに車両の外部に設けられるサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置あるいはナビゲーション装置以外の装置にも適用することができる。この場合、再生リスト作成装置の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。
 具体的には、一例として、再生リスト作成装置の機能をサーバに配置することができる。例えば、図7に示すように、ユーザ側は、マイク11、カメラ12、アクションセンサ13、車速センサ14、GPS15、および楽曲再生部16を備えている。サーバ30は、リアクション情報取得部2、再生リスト作成部3、リアクション情報判定部5、シチュエーション情報取得部6、シチュエーション情報判定部7、楽曲情報取得部8、地図情報取得部9、および再生リスト記憶部10を備えている。このような構成とすることによって、再生リスト作成システムを構築することができる。
 このように、再生リスト作成装置の各機能を、システムを構築する各機能に分散して配置した構成であっても、上記の実施の形態と同様の効果が得られる。
 また、上記の実施の形態における動作を実行するソフトウェアを、例えばサーバに組み込んでもよい。このソフトウェアをサーバが実行することにより実現される再生リスト作成方法は、再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得し、取得したリアクション情報に基づいて、楽曲の再生リストを作成する。
 このように、上記の実施の形態における動作を実行するソフトウェアをサーバに組み込んで動作させることによって、上記の実施の形態と同様の効果が得られる。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 再生リスト作成装置、2 リアクション情報取得部、3 再生リスト作成部、4 再生リスト作成装置、5 リアクション情報判定部、6 シチュエーション情報取得部、7 シチュエーション情報判定部、8 楽曲情報取得部、9 地図情報取得部、10 再生リスト記憶部、11 マイク、12 カメラ、13 アクションセンサ、14 車速センサ、15 GPS、16 楽曲再生部、17 CPU、18 ROM、19 メディアドライブ、20 USB、21 SDカード、22 入力部、23 表示部、24 アンプ、25 スピーカ、26 RAM、27 ネットワークインタフェース、28 再生リスト作成装置、29 再生制御部、30 サーバ。

Claims (12)

  1.  再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得するリアクション情報取得部と、
     前記リアクション情報取得部が取得した前記リアクション情報に基づいて、楽曲の再生リストを作成する再生リスト作成部と、
    を備える、再生リスト作成装置。
  2.  前記リアクション情報取得部が取得した前記リアクション情報に重み付けをするリアクション情報判定部をさらに備え、
     前記再生リスト作成部は、前記重み付けが大きい前記リアクション情報に対応する楽曲を優先する前記再生リストを作成することを特徴とする、請求項1に記載の再生リスト作成装置。
  3.  前記リアクション情報は、前記楽曲の再生に合わせた前記ユーザの歌声の音量であることを特徴とする、請求項1に記載の再生リスト作成装置。
  4.  前記リアクション情報は、前記楽曲の再生に合わせた前記ユーザの表情であることを特徴とする、請求項1に記載の再生リスト作成装置。
  5.  前記ユーザの表情は、前記ユーザの開口の程度を含むことを特徴とする、請求項4に記載の再生リスト作成装置。
  6.  前記リアクション情報は、前記楽曲の再生に合わせた前記ユーザの動きに伴う振動であることを特徴とする、請求項1に記載の再生リスト作成装置。
  7.  楽曲の再生時のシチュエーションを示すシチュエーション情報を取得するシチュエーション情報取得部をさらに備え、
     再生リスト作成部は、前記シチュエーション情報取得部が取得した前記シチュエーション情報を楽曲に対応付けた前記再生リストを作成することを特徴とする、請求項1に記載の再生リスト作成装置。
  8.  前記シチュエーション情報は、前記再生時の状況、位置、時間、および目的地のうちの少なくとも1つを含むことを特徴とする、請求項7に記載の再生リスト作成装置。
  9.  前記再生リスト作成部が作成した前記再生リストを記憶する再生リスト記憶部をさらに備えることを特徴とする、請求項1に記載の再生リスト作成装置。
  10.  前記再生リスト作成部が作成した前記再生リストに従った楽曲の再生を制御する再生制御部をさらに備え、
     前記再生制御部は、前記再生リストに従って楽曲を再生する際に前記シチュエーション情報取得部が取得した前記シチュエーション情報と一致する前記再生リストに含まれる前記シチュエーション情報に対応する前記楽曲を再生するように制御することを特徴とする、請求項7に記載の再生リスト作成装置。
  11.  前記再生制御部は、前記再生リストに含まれる楽曲の再生ができない場合は当該楽曲の再生をスキップすることを特徴とする、請求項10に記載の再生リスト作成装置。
  12.  再生中の楽曲に対するユーザの好みを表すリアクションを示すリアクション情報を取得し、
     前記取得した前記リアクション情報に基づいて、楽曲の再生リストを作成する、再生リスト作成方法。
PCT/JP2017/025677 2017-07-14 2017-07-14 再生リスト作成装置および再生リスト作成方法 WO2019012684A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/025677 WO2019012684A1 (ja) 2017-07-14 2017-07-14 再生リスト作成装置および再生リスト作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/025677 WO2019012684A1 (ja) 2017-07-14 2017-07-14 再生リスト作成装置および再生リスト作成方法

Publications (1)

Publication Number Publication Date
WO2019012684A1 true WO2019012684A1 (ja) 2019-01-17

Family

ID=65001604

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/025677 WO2019012684A1 (ja) 2017-07-14 2017-07-14 再生リスト作成装置および再生リスト作成方法

Country Status (1)

Country Link
WO (1) WO2019012684A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109842678A (zh) * 2019-01-25 2019-06-04 深圳市元征科技股份有限公司 一种车辆共享方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048320A (ja) * 2004-08-04 2006-02-16 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008165759A (ja) * 2006-12-08 2008-07-17 Sony Corp 情報処理装置及び方法並びにプログラム
WO2013005255A1 (ja) * 2011-07-06 2013-01-10 パイオニア株式会社 情報処理装置、通信システム、コンテンツ再生システム、dj機器、情報処理装置の制御方法、コンテンツ再生システムの制御方法およびプログラム
JP2014026700A (ja) * 2012-07-27 2014-02-06 Pioneer Electronic Corp 再生端末機
JP2014115552A (ja) * 2012-12-12 2014-06-26 Onkyo Corp コンテンツ再生装置及びプログラム
JP2015138147A (ja) * 2014-01-22 2015-07-30 シャープ株式会社 サーバ、対話装置、対話システム、対話方法および対話プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048320A (ja) * 2004-08-04 2006-02-16 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008165759A (ja) * 2006-12-08 2008-07-17 Sony Corp 情報処理装置及び方法並びにプログラム
WO2013005255A1 (ja) * 2011-07-06 2013-01-10 パイオニア株式会社 情報処理装置、通信システム、コンテンツ再生システム、dj機器、情報処理装置の制御方法、コンテンツ再生システムの制御方法およびプログラム
JP2014026700A (ja) * 2012-07-27 2014-02-06 Pioneer Electronic Corp 再生端末機
JP2014115552A (ja) * 2012-12-12 2014-06-26 Onkyo Corp コンテンツ再生装置及びプログラム
JP2015138147A (ja) * 2014-01-22 2015-07-30 シャープ株式会社 サーバ、対話装置、対話システム、対話方法および対話プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109842678A (zh) * 2019-01-25 2019-06-04 深圳市元征科技股份有限公司 一种车辆共享方法及装置

Similar Documents

Publication Publication Date Title
US7529676B2 (en) Audio device control device, audio device control method, and program
JP4356700B2 (ja) 再生装置
JP2005038352A (ja) 再生装置、再生システム及び再生制御方法
RU2425329C2 (ru) Навигационное устройство и способ для приема и воспроизведения звуковых образцов
JP2006287379A (ja) 楽曲処理装置、楽曲処理方法及びプログラム
KR20160050416A (ko) 차량용 멀티미디어 장치의 음악 재생 방법
JP2008039573A (ja) 思い出情報提示システム
JP2006260648A (ja) オーディオ装置
WO2019012684A1 (ja) 再生リスト作成装置および再生リスト作成方法
JP2004294262A (ja) 車載情報機器、経路楽曲情報データベース作成方法、楽曲情報検索方法、情報処理方法及びコンピュータプログラム
JP2006293697A (ja) 車載用音楽装置
JP7453809B2 (ja) コンテンツ出力システムおよびコンテンツ出力方法
JP2005135519A (ja) 音楽再生装置
JP2006129223A (ja) コンテンツ再生音量設定装置及び車載用コンテンツ再生システム
JP2018063133A (ja) コンテンツ再生提案装置およびコンテンツ再生提案プログラム
JP2009043353A (ja) タイトル付与装置、タイトル付与方法、タイトル付与プログラム、および記録媒体
JP2008243104A (ja) 楽曲分類装置、および楽曲分類方法
JP3871691B2 (ja) 再生装置
JP5378095B2 (ja) 車載オーディオ装置における選曲方法及び選曲装置
JP4263151B2 (ja) コンテンツ再生パターン生成装置、コンテンツ再生システム及びコンテンツ再生パターン生成方法
JP2005122417A (ja) コンテンツ再生装置
JP2023139881A (ja) 楽曲提供装置、楽曲提供方法、およびプログラム
WO2010026639A1 (ja) 楽曲再生装置、楽曲再生方法、及び楽曲再生プログラム
JP4353994B2 (ja) 音響再生装置、ナビゲーション装置、音響再生システム
JP2020118894A (ja) 再生制御装置、再生装置、再生制御方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17917831

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17917831

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP