WO2007055259A1 - ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体 - Google Patents

ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体 Download PDF

Info

Publication number
WO2007055259A1
WO2007055259A1 PCT/JP2006/322333 JP2006322333W WO2007055259A1 WO 2007055259 A1 WO2007055259 A1 WO 2007055259A1 JP 2006322333 W JP2006322333 W JP 2006322333W WO 2007055259 A1 WO2007055259 A1 WO 2007055259A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
feature amount
unit
navigation
multimedia content
Prior art date
Application number
PCT/JP2006/322333
Other languages
English (en)
French (fr)
Inventor
Kentaro Yamamoto
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to JP2007544169A priority Critical patent/JP4573877B2/ja
Publication of WO2007055259A1 publication Critical patent/WO2007055259A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
    • G08G1/096872Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver where instructions are given per voice
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/091Info, i.e. juxtaposition of unrelated auxiliary information or commercial messages with or between music files

Definitions

  • the present invention relates to a navigation device, a navigation method, a navigation program, and a recording medium thereof.
  • navigation devices that are mounted on a moving body such as a vehicle and provide navigation information such as map information about a moving route have been widely used.
  • the evolution of such navigation device technology has been awakening.For example, by estimating the emotional state of a user, the technology for visually and visually presenting the user with accurate behavior patterns related to navigation operations, etc. has been proposed.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2002-73634
  • the conventional technology uses a contact sensor such as a temperature sensor or a pressure sensor to estimate the emotional state of the user.
  • a contact sensor such as a temperature sensor or a pressure sensor
  • An example of such problems is that you must be in contact with other sensors and feel annoyed.
  • Another problem is the use of these contact sensors, which complicates the overall configuration of the device.
  • the present invention has been made in view of the above-described circumstances, and an object thereof is to provide voice guidance in a simple form in consideration of the emotional state of a user.
  • content reproduction means for reproducing multimedia content; and reflecting human emotions from the multimedia content reproduced by the content reproduction means, Feature quantity extraction means for extracting estimated feature quantities; audiovisual data storage means for storing audiovisual data respectively representing presentation forms of audiovisual information according to the type of emotion of the above-mentioned reporter; Audio-visual information reproduction that reads audio-visual data corresponding to the feature amount extracted by the feature amount extraction unit from the audio-visual data storage unit and reproduces the corresponding audio-visual information when an event to present the audio-visual information occurs And a navigation device.
  • a navigation program characterized in that the navigation method of the present invention described above is executed by a computing means of a navigation device.
  • the navigation program according to the present invention is recorded so as to be readable by the computing means of the navigation device. It is a medium.
  • FIG. 1 is a functional block diagram showing an internal configuration of a navigation device according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of a music meta information element stored in a music meta information storage area of FIG. [Fig. 3] A diagram showing the correspondence between the extracted music tone and the word usage set in the voice guide data.
  • FIG. 4 is a flowchart for explaining voice guide processing executed in the control unit of FIG. 1.
  • FIG. 5A is a diagram showing an example of a voice guide form when the extracted music tone is set to “bright” in the voice guide process of FIG.
  • FIG. 5B is a diagram showing an example of a voice guide form when the extracted music tone is “sad,” in the voice guide process of FIG.
  • FIGS. 1 to 5B a navigation device related to traveling as a movement of a vehicle or the like that is a moving body will be described as an example.
  • the media data handled by the navigation device of the present embodiment is music data
  • the multimedia content to be played is music
  • the audiovisual information presented to the user is an audio guide.
  • FIG. 1 is a block diagram showing the configuration of the navigation device 100 according to the present embodiment.
  • the navigation device 100 includes a control unit 110, a hard disk device 120, an optical disk drive device (“recording medium reading means” in the present invention) 130, an operation input unit 140, An audio input unit 150, an image display unit 160, an audio output unit 170, a travel sensor unit 180, a GPS (Global Positioning System) receiving unit 190, and a media broadcast receiving unit 200 are provided.
  • Elements 120 to 200 other than the control unit 110 are connected to the control unit 110, respectively.
  • the control unit 110 performs overall control of the entire navigation device 100, and also functions as an arithmetic unit to perform overall navigation processing.
  • the control unit 110 includes a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and the like. It will be executed! /
  • the control unit 110 executes a program to execute (i) a content reproduction unit (“content reproduction unit” according to the present invention) 111 and (ii) a music tone extraction unit (“characteristic according to the present invention”). 112) and (iii) a voice guide playback unit (according to the present invention! “Audiovisual information playback means”) 113.
  • the content playback unit 111 has a function of controlling playback of various multimedia contents.
  • This content playback unit 111 is accessed by the music data designated by the user, that is, (i) music data that is media data stored in advance in the hard disk device 120, or (ii) the optical disk drive device 130. Possible recording media Read music data that is media data recorded in RM. Then, the content playback unit 111 plays back the music that is the multimedia content specified by the user through the audio output unit 170 using the read music data.
  • the music tone extraction unit 112 uses the elements of the meta information associated with the music reproduced by the content reproduction unit 111 as feature quantities estimated to reflect human emotions, It has a function to extract the tune. This music tone extraction unit 112 basically extracts meta information power required music tone related to the music in real time and sequentially updates each time the content playback unit 111 is instructed to play a new music. The music tone extraction unit 112 also has a function of holding the music tone extracted with respect to the music played last by the content playback unit 111 until a new music is played or until a predetermined time elapses.
  • the voice guide playback unit 113 has a function of playing back a voice guide having an utterance form corresponding to the music tone of the music extracted by the music tone extraction unit 112 when an event for performing voice guidance occurs for the user.
  • an event for which voice guidance should be performed for example, when the user designates a change in the driving route of the vehicle, there is a pressing operation by a user of an unillustrated speech button in the operation unit 140.
  • an escape route notice point recognition performed automatically by the device itself) before the vehicle enters a road junction such as an intersection is an event that should be voice guided.
  • the hard disk device 120 stores a program executed by the control unit 110. Various data such as music data, music meta information, voice guide data, and map data, which will be described later, are stored. Data.
  • the control unit 110 can access the storage area of the hard disk device 120, and can write and read data to and from the storage area.
  • the hard disk device 120 includes a music data storage area ("media data storage means” according to the present invention) 121, a music meta information storage area (according to the present invention! “Meta information storage means") 122, A voice guide data storage area (“audiovisual data storage means” according to the present invention) 123 and a map data storage area 124 are set.
  • the music data storage area 121 is an area for storing music data related to a plurality of music pieces in advance.
  • the content playback unit 111 of the control unit 110 functions to read music data related to music specified by the user power from the music data storage area 121 through the operation input unit 140 and to play back the corresponding music.
  • MP3 MPEG-1 (Moving Picture Experts Group-1) Audio Layer 3) can be applied.
  • the music meta information storage area 122 is an area for storing in advance a plurality of music meta information associated with a plurality of music data stored in the music data storage area 121 in advance.
  • the music tone extraction unit 112 of the control unit 110 functions to read music meta information related to the music reproduced by the content reproduction unit 111 from the music meta information storage area 122 and extract a required music tone.
  • the format of music meta information when MP3 is applied to the file format of the above music data, the ID3 (Identification 3) tag that is meta information attached to the MP3 file can be applied as it is ( The following assumes the application of MP3 files and ID3 tags).
  • an ID3 area 122A for storing basic elements of an ID3 tag for each music
  • a write-once area 122B for storing additional elements that are not included in the write-once as necessary is set.
  • elements such as “song name”, “artist name”, “album name”, “genre”, etc. relating to the corresponding music are stored as the ID3 area 122A
  • “BPM” relating to the performance form of the same music is stored as the additional recording area 122B. (Beats Per Minute) ”,“ average volume ”,“ tonality ”, etc. are stored.
  • the voice guide data storage area 123 is an area for storing a plurality of voice guide data each representing an utterance form corresponding to the type of human emotion.
  • the music tone extraction unit 112 of the control unit 110 is currently being reproduced by the content reproduction unit 111 based on each element of the music meta information storage area 122. Extracts whether the song corresponds to “sounding tone”, “bright tone”, “healed tone”, “quiet tone”, or “sad tone”. Then, the voice guide reproduction unit 113 of the control unit 110 performs the following as voice guide data corresponding to the extracted music tone, “Speech words (most positive)”, “Bright words”, “Healing words” One of “use”, “quiet use”, and “sad use (most“ negative ”)” is read from the voice guide data storage area 123, and the corresponding voice guide is reproduced through the voice output unit 170.
  • a voice guide playback unit 113 If an event that should be performed with voice guidance occurs after the music is played back last by the content playback unit 111 and the force has passed, a voice guide playback unit 113 is It functions to play the corresponding voice guide corresponding to the tune that is held until. In addition, when an event for performing voice guidance occurs after the predetermined time has elapsed, the voice guide reproducing unit 113 reproduces a default voice guide (for example, “Normal”, “Healed Words”). It's like! /
  • the map data storage area 124 stores the map data used in the navigation processing for realizing the navigation function, which is the basic function of the navigation device 100, as DVD-ROM (Digital This area is introduced from a recording medium such as Video Disk-Read Only Memory.
  • the voice guide data for each word usage !, stored in the voice guide data storage area 123 is related to the voice guide data for the above-mentioned exit route notice when entering the road junction, etc., in the map data storage area 124. Correlation is made with the point information on the stored map data.
  • the optical disc drive device 130 is stored in an arbitrary recording medium RM such as a CD (Compact Disc) or DVD-ROM in which music data (MP3 file) and music meta information (ID3 tag) associated therewith are recorded. It is accessible.
  • RM Compact Disc
  • ID3 tag music meta information
  • the optical disk drive device 130 is described above with respect to music for which user power is also specified through the operation input unit 140.
  • Recording medium The music data that has also been read by RM is transferred to the content playback unit 111 of the control unit 110. At this time, the content reproduction unit 111 performs a reproduction process of the transferred music data, and also transfers the music meta information attached to the music data to the music tone extraction unit 112, which is used as the music tone extraction unit 112. Used for music tone extraction.
  • the operation input unit 140 includes a key unit provided in the main body of the navigation device 110, a remote input device including the key unit, and the like.
  • both the key portions are equipped with speech buttons for causing the voice input unit 150 and the voice output unit 170 to function when the user designates a change in the travel route of the vehicle.
  • a touch panel provided in the display device of the image display unit 160 can be used as the key part provided in the main body.
  • the voice input unit 150 includes a voice recognition device that recognizes the content of the user's utterance.
  • the voice recognition result at this time is sent from the voice input unit 150 to the control unit 110, and the control unit 110 executes command processing related to, for example, a route change (different route search) based on the voice recognition result.
  • the image display unit 160 includes (i) a display device such as a liquid crystal display panel, an organic EL (Electro Luminescence) panel, and a PDP (Plasma Display Panel), and (ii) a display control sent from the control unit 110. Based on the data, the image display unit 160 is configured to include a display controller such as a graph renderer that controls the entire image display unit 160, and (iii) a display image memory that stores display image data.
  • the image display unit 160 displays map information, route information, operation guidance information, and the like under the control of the control unit 110, and when the multimedia content played back by the content playback unit 111 is an image data card, The corresponding image is also displayed.
  • the voice output unit 170 synthesizes a response voice (voice guide) at the time of command response by the control unit 110 (response to the pressing operation of the utterance button in the operation input unit 140). And a speaker that converts a voice synthesis signal amplified through a voice amplifier into voice and emits the same to the outside.
  • This sound output unit 170 0 outputs voice guides related to the traveling direction of the vehicle, traveling conditions, traffic conditions, the above command responses, etc. under the control of the control unit 110, and plays the music reproduced by the content reproduction unit 111. Output.
  • the travel sensor unit 180 is (i) a speed sensor that detects the moving speed of the vehicle, (ii) an azimuth angle sensor that detects an azimuth angle that is the traveling direction of the vehicle, and (iii) acts on the vehicle. And an acceleration sensor for detecting acceleration.
  • the speed sensor detects, for example, a pulse signal or a voltage value output by rotation of an axle or a wheel.
  • the azimuth angle sensor is configured as a so-called gyro sensor, for example, and detects the azimuth angle.
  • the acceleration sensor detects, for example, gravitational acceleration. Such a detection result is sent from the traveling sensor unit 180 to the control unit 110.
  • the GPS reception unit 190 calculates a pseudo coordinate value of the current position of the vehicle based on reception results of radio waves from a plurality of GPS satellites, and reports it to the control unit 110. Further, the GPS receiving unit 190 measures the current time based on the time when the GPS satellite force is also transmitted, and sends this to the control unit 110.
  • the media broadcast receiving unit 200 includes, for example, a terrestrial digital broadcast receiver, an FM (Frequency Modulation) multiplex broadcast receiver, and the like. This media broadcast receiving unit 200 reproduces the broadcast signal from the received broadcast wave such as terrestrial digital broadcast or FM multiplex broadcast, and sends it to the control unit 110. These broadcast signals are transferred from the control unit 110 to the image display unit 160 and the audio output unit 170, and used for broadcast viewing by the user.
  • a terrestrial digital broadcast receiver an FM (Frequency Modulation) multiplex broadcast receiver, and the like.
  • This media broadcast receiving unit 200 reproduces the broadcast signal from the received broadcast wave such as terrestrial digital broadcast or FM multiplex broadcast, and sends it to the control unit 110. These broadcast signals are transferred from the control unit 110 to the image display unit 160 and the audio output unit 170, and used for broadcast viewing by the user.
  • FM Frequency Modulation
  • the configuration of the navigation device 100 according to the embodiment has been described.
  • the program elements 111 to 113 as the components are readable by the control unit 110 functioning as computing means. It is possible to record on any kind of recording medium.
  • the voice guidance processing of the navigation device 100 configured as described above will be described.
  • the operation will be described.
  • the user specifies a change in the vehicle's travel route when the song data (song) stored in the song data storage area 121 of the hard disk device 120 has already been played. Therefore, an example of voice guidance processing when the utterance button of the operation input unit 140 is pressed will be described.
  • the voice guidance processing S10 is performed by the control unit 110 force of the navigation device 100.
  • step S11 the force by which the utterance button of the operation input unit 140 is pressed by the user. It starts by determining whether or not. If it is not determined that the utterance button has been pressed (step S11; N), the control unit 110 maintains the standby state for the voice guidance until it is determined that the utterance button has been pressed.
  • step Sl l; Y the control unit 110 determines that fact
  • the music tone extraction unit 112 of the control unit 110 first stores the music meta information on the music currently being played by the content playback unit 111 (music data in the music data storage area 121), and the music meta information of the hard disk device 120. Read from storage area 122.
  • the music tone extracting unit 112 extracts the music tone of the currently played music meta information as well as the music currently being played back ("feature amount extracting step" in the present invention).
  • the control unit 110 mutes the music currently being played by the content playback unit 111.
  • step S 14 the voice guide reproducing unit 113 of the control unit 110 stores the voice guide data for “speech button response” corresponding to the extracted music tone in the voice guide data storage of the hard disk device 120. Read from area 123.
  • step S15 the content reproduction unit 111 of the control unit 110 reproduces the audio guide corresponding to the read audio guide data, and emits the sound to the outside through the audio output unit 170.
  • the voice guide reproducing unit 113 when the musical tone extracted in step S12 is "bright musical tone", the voice guide reproducing unit 113, as shown in Fig. 5 (b), as a voice guide corresponding to the musical tone, “How did you do that?”! Play a voice guide that expresses the words!
  • the extracted song tone S is “sad song tone”
  • voice guide playback As shown in FIG. 5B, the unit 113 reproduces a voice guide that expresses “Let's do it?” As a voice guide corresponding to a melody, “Sorrow, use of words”.
  • step S16 the control unit 110 inputs the user's voice through the voice input unit 150.
  • the voice input unit 150 performs voice recognition that is effective for the user's utterance, and the voice recognition result is sent to the control unit 110.
  • step S17 the control queue 110 executes a required command process from the voice recognition result.
  • the control unit 110 determines in step S18 whether or not a force that requires a response corresponding to the content requested by the user whose voice recognition result power is also identified.
  • the control unit 110 is In step S14, the voice guide data “for another route presentation” corresponding to the previously extracted musical tone is read out from the voice guide data storage area 123 of the hard disk device 120 (“audiovisual information” according to the present invention). Part of the regeneration process).
  • the voice guide reproducing unit 113 serves as a voice guide corresponding to the music tone. , Play a voice guide that expresses the words “Let's make a paid standard route.”
  • the voice guide playback unit 113 as shown in FIG. The voice guide that expresses the word “.” With a sad wording is reproduced (part of the “audiovisual information reproduction process” according to the present invention).
  • the voice guide is reproduced as described above.
  • the control unit 110 inputs the user's voice through the voice input unit 150 in the above-described step S16, and in the subsequent step S17, the control unit 110 obtains the required voice from the voice recognition result.
  • Execute command processing the control unit 110 determines whether or not a response corresponding to the user's request content that also identifies the voice recognition result power is necessary in step S18 described above. To do.
  • the user's request is “avoidance of selection of toll standard route”, and it is necessary to respond to the user to further present the toll avoidance route (step S18; Y).
  • the unit 110 reads the voice guide data for “paid avoidance route presentation” corresponding to the previously extracted music tone from the voice guide data storage area 123 of the hard disk device 120.
  • the voice guide reproducing unit 113 serves as a voice guide corresponding to the music tone. , “I was noisy. Then, I will give priority to avoiding paid routes.” Play a voice guide that expresses the words in bright words.
  • the voice guide playback unit 113 displays “Sorry. Priority is given to the route. ”Plays a voice guide that expresses the wording as sad and verbal!
  • the control unit 110 actually calculates the toll-avoidance route and displays the new route indicated by the calculation result on the image display screen. G is displayed superimposed on the map information on 160. Through this process, the “change in travel route” that was the request of the user can be achieved. Therefore, the control unit 110 finally determines whether or not a response corresponding to the content requested by the user is necessary in the above-described step S18 without performing the processes in the subsequent steps S16 and S17. .
  • the control unit 110 is playing back in step S13 described above in step S19. Cancel the mute that was performed on the song. Then, the control unit 110 maintains the standby state for the voice guide until the user next presses the utterance button.
  • the music tune is based on the music data stored in the music data storage area 121 of the hard disk device 120 when the voice guide is reproduced.
  • An example of extracting is described. This Instead, according to the present invention, it is of course possible to extract the music tone based on the music meta information associated with the music data recorded on the recording medium RM.
  • the target of music tone extraction (step S12) in the voice guidance process S10 described above is changed to the music meta information recorded along with the music data in the recording medium RM, and the playback music mute ( Change the target of step S13) and music mute release (step S19) to the recording medium RM (optical disk drive unit 130).
  • the music tone extraction (step S12) in the voice guidance process S10 is performed in real time (i) every time playback of music is specified, the required music tone is extracted from the music meta information in real time, and (ii) the extracted ( The process may be changed to a process for storing music meta information (for the last played music) for a predetermined time.
  • voice guide playback according to the emotional state of the person in the voice guide playback output (step S15) is executed, for example, limitedly before the predetermined time elapses, and after that, the default voice guide is played back. You just have to do it.
  • the music tone extraction unit 112 of the control unit 110 reflects the human emotion from each element of the music meta information associated with the music played by the content playback unit 111. Extract the tone of the music that is estimated to be. Then, the voice guide reproduction unit 113 of the control unit 110 transmits the voice guide data corresponding to the music tone extracted by the music tone extraction unit 112 to the voice guide data storage area 12 of the hard disk device 120. Read from 3 and play the corresponding voice guide.
  • the music playback function that is standardly installed in the navigation device 100 that does not use a contact-type sensor such as a temperature sensor or a pressure sensor, as in the past, with a voice guide that takes into account the emotional state of the user It becomes possible to realize simply by using only. As a result, it is possible to configure the navigation apparatus 100 having a voice guide function with an excellent human interface by mainly changing the program configuration.
  • the music tone extraction unit 112 itself extracts the music tone of the music.
  • the tune to be judged for each elemental power of the meta information is stored in advance in the additional recording area 122B in the tune meta information storage area 122, and the tune tone extracting unit 112 directly refers to the storage area.
  • the tune tone extracting unit 112 directly refers to the storage area.
  • the music tone extracting unit 112 is made to refer to the music meta information storage area 122 to extract the music tone of the music.
  • the music tone extraction unit 112 itself directly analyzes the waveform data of the music played back by the content playback unit 111 without referring to the music meta information storage area 122, and from the analysis result, the music tone of the music is calculated. May be extracted.
  • This analysis result can be added to the additional recording area 122B of the musical piece meta information storage area 122, and can be used as new musical piece meta information for appropriate extraction of the required musical tone.
  • the type of multimedia content is music, but in addition to this, various types of images can be handled as long as meta information is attached. It is.
  • an image data storage area is provided in addition to the music data storage area 121 of the hard disk device 120, or the contents of the recording medium RM on which the image data is recorded are read by the optical disk drive device 130 to obtain the required audio.
  • the guide process can be performed.
  • the multimedia content is built in the navigation device 100 in advance or is read from the recording medium RM.
  • the media broadcast receiving unit 200 is used as a multimedia content providing medium. It is also possible to use broadcasts such as digital terrestrial broadcasts and FM multiplex broadcasts.
  • broadcasts such as digital terrestrial broadcasts and FM multiplex broadcasts.
  • the feature amount of the multimedia content is used. Is extracted from the program) and used for the selection of voice guide data.
  • the audiovisual information is a voice guide.
  • the voice output unit 170 is used.
  • the tone of the notification sound emitted from the can also be changed according to the type of human emotion.
  • the extracted tone is “bright tone”
  • the data in the hard disk device 120 relating to the tone of the notification tone set as a chime tone by default is set to “trumpet tone”. If is a sad song, set it to “flute sound”.
  • the audio guide (see FIG. 5A and FIG. 5B) shown in the embodiment is simultaneously displayed on the image display unit 160 in relation to the audiovisual information, and the image information to be used at this time is displayed. It is also possible to change the display form of the default value.
  • the data in the hard disk device 120 relating to the display form of the image information for example, when the extracted tone is “bright”, the “pop” is displayed in the display window with rounded corners. If it is set to display fonts, and it is “sad tune”, it can be set to display fonts in “Mincho style” in a display window with four corners at right angles.
  • each function in the control unit 110 is realized by hardware that implements part or all of the power realized by executing the corresponding program. You can also.
  • the present invention is applied to an in-vehicle navigation device.
  • it has a multimedia playback function, it is mounted on, for example, an aircraft or a ship.
  • the present invention can also be applied to a navigation device.
  • PDAs Personal Digital Assistance
  • mobile phone terminals for example, PDAs (Personal Digital Assistance), mobile phone terminals, PHS (Personal Handyphone System) terminals, and portable personal devices that are portable information devices.
  • PHS Personal Handyphone System
  • portable personal devices that are portable information devices.
  • the present invention can also be applied to a navigation device mounted on a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

 制御ユニット110の曲調抽出部112が、コンテンツ再生部111により再生された楽曲に関連づけられた楽曲メタ情報の各要素から、人の感情に影響を与える要因となりうる楽曲の曲調を抽出する。そして、制御ユニット110の音声ガイド再生部113が、曲調抽出部112により抽出された曲調に対応した音声ガイドデータを、ハードディスク装置120の音声ガイドデータ記憶領域123から読み出して、該当する音声ガイドを再生する。この結果、利用者の感情状態を考慮した音声ガイドを簡易な形態により行うことができる。

Description

明 細 書
ナビゲーシヨン装置、ナビゲーシヨン方法、並びにナビゲーシヨンプログラ ム及びその記録媒体
技術分野
[0001] 本発明は、ナビゲーシヨン装置、ナビゲーシヨン方法、並びにナビゲーシヨンプログ ラム及びその記録媒体に関する。
背景技術
[0002] 従来から、車両等の移動体に搭載され、移動経路に関する地図情報等のナビゲー シヨン情報を提供するナビゲーシヨン装置が広く普及して 、る。こうしたナビゲーショ ン装置の技術の進化は目覚しぐ近年では、例えば、利用者の感情状態を推定する ことにより、同利用者に対し、ナビゲーシヨン操作等に関する的確な行動パターンを 視聴覚的に提示する技術等が提案されている。
[0003] こうした利用者の感情状態を把握する機能を具備したナビゲーシヨン装置として、 例えば、運転席のシートに設置された温度センサにより取得された利用者の「体温」 や、ハンドルに設置された圧力センサにより取得された利用者の「手の動き」等から、 同利用者の喜怒哀楽に関する感情状態を総合的に判断するもの (特許文献 1参照; 以下、「従来例」という)等が提案されている。この従来例の技術を応用することにより 、例えば、推定された感情状態に応じた音声ガイドを行うなどの新たな技術の提供が 期待できる。
[0004] 特許文献 1 :特開 2002— 73634号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、従来例の技術にお!、ては、利用者の感情状態の推定に際し、温度 センサや圧力センサ等の接触型センサを利用しているため、利用者は、これらのセン サに接触して 、なければならず、煩わしさを感じるなどの問題が一例として挙げられ る。また、これらの接触型センサの使用により、装置全体の構成が複雑化するなどの 問題が一例として挙げられる。 [0006] 本発明は、上記のような事情を鑑みてなされたものであり、利用者の感情状態を考 慮した音声ガイドを簡易な形態により行うことを目的とする。
課題を解決するための手段
[0007] 本発明は、第 1の観点カゝらすると、マルチメディアコンテンツを再生するコンテンツ 再生手段と;前記コンテンツ再生手段により再生された前記マルチメディアコンテンツ から、人の感情を反映していると推定される特徴量を抽出する特徴量抽出手段と;前 記人の感情の種類に応じた視聴覚情報の提示形態をそれぞれ表現した視聴覚デー タを記憶する視聴覚データ記憶手段と;利用者に対し前記視聴覚情報を提示すべき 事象が生じたときに、前記特徴量抽出手段により抽出された前記特徴量に対応した 視聴覚データを前記視聴覚データ記憶手段から読み出して、該当する視聴覚情報 を再生する視聴覚情報再生手段と;を備えることを特徴とするナビゲーシヨン装置で ある。
[0008] 本発明は、第 2の観点力 すると、マルチメディアコンテンツから、人の感情を反映 していると推定される特徴量を抽出する特徴量抽出工程と;利用者に対し視聴覚情 報を提示すべき事象が生じたときに、前記特徴量抽出工程で抽出された前記特徴 量に基づき、前記人の感情の種類に応じた提示形態からなる視聴覚情報を再生す る視聴覚情報再生工程と;を備えることを特徴とするナビゲーシヨン方法である。
[0009] 本発明は、第 3の観点力 すると、上記の本発明のナビゲーシヨン方法をナビゲー シヨン装置の演算手段に実行させる、ことを特徴とするナビゲーシヨンプログラムであ る。
[0010] 本発明は、第 4の観点力 すると、上記の本発明のナビゲーシヨンプログラムがナビ ゲーシヨン装置の演算手段により読み取り可能に記録されている、ことを特徴とする ナビゲーシヨンプログラムを記録した記録媒体である。
図面の簡単な説明
[0011] [図 1]本発明の一実施形態に係るナビゲーシヨン装置の内部構成を示す機能ブロッ ク図である。
[図 2]図 1の楽曲メタ情報記憶領域に記憶される楽曲メタ情報要素の一例を示す図で ある。 [図 3]抽出曲調と音声ガイドデータに設定される言葉使いとの対応関係を示す図であ る。
[図 4]図 1の制御ユニットにおいて実行される音声ガイド処理を説明するためのフロー チャートである。
[図 5A]図 4の音声ガイド処理にぉ 、て抽出曲調が「明る 、」とされた場合の音声ガイ ド形態の一例を示す図である。
[図 5B]図 4の音声ガイド処理にぉ 、て抽出曲調が「悲 、」とされた場合の音声ガイド 形態の一例を示す図である。
発明を実施するための最良の形態
[0012] 以下、本発明の一実施形態を、図 1〜図 5Bを参照して説明する。本実施形態では 、移動体である車両等の移動としての走行に関するナビゲーシヨン装置を例示して説 明する。また、本実施形態のナビゲーシヨン装置で扱われるメディアデータは楽曲デ ータであり、再生されるマルチメディアコンテンツは楽曲であり、利用者に提示される 視聴覚情報は音声ガイドであるものとする。
[0013] [構成]
図 1には、本実施形態に係るナビゲーシヨン装置 100の構成がブロック図にて示さ れている。図 1に示されるように、このナビゲーシヨン装置 100は、制御ユニット 110と 、ハードディスク装置 120と、光学ディスクドライブ装置 (本発明にいう「記録媒体読取 手段」) 130と、操作入力ユニット 140と、音声入力ユニット 150と、画像表示ユニット 1 60と、音声出力ユニット 170と、走行センサユニット 180と、 GPS (Global Positioning System)受信ユニット 190と、メディア放送受信ユニット 200とを備えている。上記制御 ユニット 110以外の要素 120〜200は、それぞれ制御ユニット 110に接続されている
[0014] 制御ユニット 110は、ナビゲーシヨン装置 100全体を統括制御すると共に、演算手 段としても機能してナビゲーシヨン処理の全般を行う。この制御ユニット 110は、中央 処理装置(CPU : Central Processing Unit)、読出専用メモリ (ROM : Read Only Mem ory)、ランダムアクセスメモリ(RAM : Random Access Memory)等を備えて構成され、 様々なプログラムが実行されるようになって!/、る。 [0015] 制御ユニット 110は、プログラムを実行することにより、(i)コンテンツ再生部 (本発明 に 、う「コンテンツ再生手段」) 111と、 (ii)曲調抽出部 (本発明に 、う「特徴量抽出手 段」) 112と、 (iii)音声ガイド再生部 (本発明に!、う「視聴覚情報再生手段」) 113とし ての機能を発揮する。
[0016] コンテンツ再生部 111は、各種マルチメディアコンテンツの再生を制御する機能を 有する。このコンテンツ再生部 111は、利用者により指定された楽曲データ、すなわ ち、(i)ハードディスク装置 120に事前に記憶されたメディアデータである楽曲データ 、又は (ii)光学ディスクドライブ装置 130によりアクセス可能な記録媒体 RMに記録さ れたメディアデータである楽曲データを読み出す。そして、コンテンツ再生部 111は、 読み出された楽曲データを利用して、利用者により指定されたマルチメディアコンテ ンッである楽曲を、音声出力ユニット 170を通じて再生する。
[0017] 曲調抽出部 112は、コンテンツ再生部 111により再生された楽曲に関連づけられた メタ情報の各要素から、人の感情を反映していると推定される特徴量として、該当す る楽曲の曲調を抽出する機能を有する。この曲調抽出部 112は、基本的に、コンテン ッ再生部 111に対して新たな楽曲の再生が指示されるごとに、その楽曲に関するメタ 情報力 所要の曲調をリアルタイムに抽出して順次更新する。また、曲調抽出部 112 は、コンテンツ再生部 111により最後に再生された楽曲に関して抽出した曲調を、新 たな楽曲が再生されるまで又は所定時間が経過するまで保持する機能も有している
[0018] 音声ガイド再生部 113は、利用者に対し音声ガイドを行うべき事象が生じたときに、 曲調抽出部 112により抽出された楽曲の曲調に応じた発話形態からなる音声ガイド を再生する機能を有する。音声ガイドを行うべき事象としては、例えば、利用者が車 両の走行ルート変更を指定する際に、操作ユニット 140における不図示の発話ボタ ンの利用者による押下操作がある。また、車両が交差点等の道路分岐点へ進入する 前段階における脱出経路予告 (装置自身により自動的に行われる地点認識)等も、 音声ガイドを行うべき事象となる。
[0019] ハードディスク装置 120は、制御ユニット 110で実行されるプログラムを記憶するほ 力 後述する楽曲データ、楽曲メタ情報、音声ガイドデータ、地図データ等の各種デ ータを記憶する。制御ユニット 110は、ハードディスク装置 120の記憶領域にアクセス 可能であり、当該記憶領域に対するデータの書込み及び読出しを行うことができる。
[0020] ハードディスク装置 120には、楽曲データ記憶領域 (本発明にいう「メディアデータ 記憶手段」) 121と、楽曲メタ情報記憶領域 (本発明に!、う「メタ情報記憶手段」 ) 122 と、音声ガイドデータ記憶領域 (本発明にいう「視聴覚データ記憶手段」) 123と、地 図データ記憶領域 124とが設定されている。
[0021] 楽曲データ記憶領域 121は、複数の楽曲に関する楽曲データを事前に記憶する 領域である。ここで、制御ユニット 110のコンテンツ再生部 111は、操作入力ユニット 1 40を通じて利用者力 指定された楽曲に関する楽曲データを楽曲データ記憶領域 1 21から読み出して、該当する楽曲を再生するよう機能する。なお、楽曲データのファ ィル形式としては、例えば、 MP3 (MPEG-1 (Moving Picture Experts Group -1) Audi o Layer 3)を適用することができる。
[0022] 楽曲メタ情報記憶領域 122は、楽曲データ記憶領域 121に記憶された複数の楽曲 データにそれぞれ関連づけられた複数の楽曲メタ情報を事前に記憶する領域である 。ここで、制御ユニット 110の曲調抽出部 112は、コンテンツ再生部 111により再生さ れた楽曲に関する楽曲メタ情報を楽曲メタ情報記憶領域 122から読み出して、所要 の曲調を抽出するよう機能する。なお、楽曲メタ情報の形式としては、上記楽曲デー タのファイル形式に MP3を適用した場合には、同 MP3ファイルに付随するメタ情報 である ID3 (Identification 3)タグをそのまま適用することができる(以下、 MP3フアイ ル及び ID3タグの適用を前提とする)。
[0023] 楽曲メタ情報記憶領域 122には、例えば、図 2に示されるように、(i)楽曲ごとに ID3 タグの基本的要素を記憶するための ID3領域 122Aと、 (ii)同 ID3タグに含まれてい ない他の要素を必要により追記的に記憶するための追記領域 122Bとが設定されて いる。ここでは、 ID3領域 122Aとして、該当する楽曲に関する「曲名」、「アーティスト 名」、「アルバム名」、「ジャンル」等の要素が記憶され、追記領域 122Bとして、同楽 曲の演奏形態に関する「BPM (Beats Per Minute)」、「平均音量」、「調性」等の要素 が記憶された例が示されている。上記追記領域 122Bの各要素は、曲調抽出部 112 による曲調抽出の適正化に資するものである。 [0024] 図 1に戻り、音声ガイドデータ記憶領域 123は、人の感情の種類に応じた発話形態 をそれぞれ表現してなる複数の音声ガイドデータを記憶する領域である。
[0025] ここで、制御ユニット 110の曲調抽出部 112は、図 3に示されるように、上記楽曲メタ 情報記憶領域 122の各要素に基づ 、て、コンテンツ再生部 111により現在再生され ている楽曲の曲調力 「ノリのいい曲調」、「明るい曲調」、「癒される曲調」、「静かな 曲調」、「悲しい曲調」のいずれに相当するかを抽出する。そして、制御ユニット 110 の音声ガイド再生部 113は、その抽出された曲調に対応した音声ガイドデータとして 、 「ノリのいい言葉使い(最も" Positive")」、「明るい言葉使い」、「癒される言葉使い」 、「静かな言葉使い」、「悲しい言葉使い(最も" Negative")」のいずれかを音声ガイド データ記憶領域 123から読み出し、該当する音声ガイドを音声出力ユニット 170を通 じて再生する。
[0026] なお、楽曲がコンテンツ再生部 111により最後に再生されて力も所定時間が経過す る前に音声ガイドを行うべき事象が生じた場合、音声ガイド再生部 113は、曲調抽出 部 112により現在まで保持されている曲調に対応した、該当する音声ガイドを再生す るよう機能する。また、上記所定時間が経過した後に音声ガイドを行うべき事象が生 じた場合、音声ガイド再生部 113は、デフォルトの音声ガイド (例えば、 "Normal"の「 癒される言葉使 、」 )を再生するようになって!/、る。
[0027] 図 1に戻り、地図データ記憶領域 124は、ナビゲーシヨン装置 100としての基本機 能であるナビゲーシヨン機能を実現するためのナビゲーシヨン処理で利用される地図 データを、 DVD— ROM (Digital Video Disk - Read Only Memory)等の記録媒体か ら導入して保持する領域である。なお、音声ガイドデータ記憶領域 123に記憶された 各言葉使!、ごとの音声ガイドデータは、前述した道路分岐点進入時の脱出経路予告 等についての音声ガイドデータに関し、上記地図データ記憶領域 124に記憶された 地図データ上の地点情報との間で関連づけが図られている。
[0028] 光学ディスクドライブ装置 130は、楽曲データ(MP3ファイル)及びこれに付随する 楽曲メタ情報(ID3タグ)が記録されてなる CD (Compact Disc)や DVD— ROM等の 任意の記録媒体 RMにアクセス可能なものである。ここで、光学ディスクドライブ装置 130は、操作入力ユニット 140を通じて利用者力も指定された楽曲に関して、上記記 録媒体 RM力も読み取った楽曲データを制御ユニット 110のコンテンツ再生部 111に 向けて転送する。このとき、コンテンツ再生部 111は、転送された楽曲データの再生 処理を遂行すると共に、同楽曲データに付随している楽曲メタ情報を曲調抽出部 11 2に転送し、これを同曲調抽出部 112における曲調抽出に供する。
[0029] 操作入力ユニット 140は、ナビゲーシヨン装置 110の本体部に設けられたキー部や 、キー部を備えるリモート入力装置等により構成される。ここで、双方のキー部には、 利用者が車両の走行ルート変更を指定する際に、音声入力ユニット 150及び音声出 力ユニット 170を機能させるための発話ボタンが装備される。また、本体部に設けら れたキー部としては、画像表示ユニット 160の表示デバイスに設けられたタツチパネ ルを用いることができる。この操作入力ユニット 140を利用者が操作することにより、 ナビゲーシヨン装置 100の動作内容の設定が行われる。例えば、目的地の設定、情 報の検索設定、車両の走行状況表示設定等のほか、再生対象媒体 (ハードディスク 装置 120又は記録媒体 RM)の指定を含む楽曲再生指定が、これに当たる。以上の 入力内容は、操作入力ユニット 140から制御ユニット 110へ送られる。
[0030] 音声入力ユニット 150は、利用者の発話内容を認識する音声認識装置等により構 成される。このときの音声認識結果は、音声入力ユニット 150から制御ユニット 110へ 送られ、同制御ユニット 110は、例えば、その音声認識結果に基づくルート変更 (別 ルート検索)等に関するコマンド処理を実行する。
[0031] 画像表示ユニット 160は、(i)液晶表示パネル、有機 EL (Electro Luminescence)パ ネル、 PDP (Plasma Display Panel)等の表示デバイスと、(ii)制御ユニット 110から送 出された表示制御データに基づ 、て、画像表示ユニット 160全体の制御を行うグラフ イツクレンダラ等の表示コントローラと、 (iii)表示画像データを記憶する表示画像メモ リ等を備えて構成されている。この画像表示ユニット 160は、制御ユニット 110による 制御下で、地図情報、経路情報、操作ガイダンス情報等を表示するほか、コンテンツ 再生部 111により再生されるマルチメディアコンテンツが画像データカゝらなる場合に、 該当する画像を表示したりもする。
[0032] 音声出力ユニット 170は、制御ユニット 110によるコマンド応答 (操作入力ユニット 1 40における発話ボタンの押下操作に対する応答)時の応答音声 (音声ガイド)を合成 するための音声合成装置や、音声増幅器を経て増幅された音声合成信号を音声に 変換して外部に放音するスピーカ等を備えて構成されて 、る。この音出力ユニット 17 0は、制御ユニット 110による制御下で、車両の進行方向、走行状況、交通状況、上 記コマンド応答等に関する音声ガイドを出力するほか、コンテンツ再生部 111により 再生された楽曲を出力する。
[0033] 走行センサユニット 180は、(i)車両の移動速度を検出する速度センサと、(ii)車両 進行方向である方位角を検出する方位角センサと、 (iii)車両に作用している加速度 を検出する加速度センサとを備えている。ここで、速度センサは、例えば、車軸や車 輪の回転により出力されるパルス信号や電圧値を検出する。また、方位角センサは、 例えば、いわゆるジャイロセンサとして構成され、方位角を検出する。また、加速度セ ンサは、例えば、重力加速度を検出する。こうした検出結果は、走行センサユニット 1 80から制御ユニット 110へ送られる。
[0034] GPS受信ユニット 190は、複数の GPS衛星からの電波の受信結果に基づいて、車 両の現在位置の擬似座標値を算出し、制御ユニット 110へ報告する。また、 GPS受 信ユニット 190は、 GPS衛星力も送出された時刻に基づいて現在時刻を計時し、こ れを制御ユニット 110へ送る。
[0035] メディア放送受信ユニット 200は、例えば、地上デジタル放送受信装置や FM (Freq uency Modulation)多重放送受信装置等を備えて構成される。このメディア放送受信 ユニット 200は、受信した地上デジタル放送や FM多重放送等の放送波から放送信 号を再生し、これを制御ユニット 110へ送る。これら放送信号は、制御ユニット 110か ら画像表示ユニット 160及び音声出力ユニット 170に転送されて、利用者による放送 視聴に供される。
[0036] 以上、一実施形態に係るナビゲーシヨン装置 100の構成を説明したが、その構成 要素としてのプログラム要素 111〜 113は、演算手段として機能する制御ユニット 11 0により読み取りが可能な形態である、任意の種類の記録媒体に記録することが可能 である。
[0037] [動作]
次に、以上のように構成されたナビゲーシヨン装置 100の音声ガイド処理に関する 動作について説明する。なお、以下においては、車両の走行中に、ハードディスク装 置 120の楽曲データ記憶領域 121に記憶された楽曲データ (楽曲)が既に再生され ている状況において、利用者が車両の走行ルート変更を指定するために、操作入力 ユニット 140の発話ボタンを押下した場合における音声ガイド処理の例を説明する。
[0038] 図 4に示されるように、音声ガイド処理 S10は、ナビゲーシヨン装置 100の制御ュ- ット 110力 ステップ S11において、操作入力ユニット 140の発話ボタンが利用者によ り押下された力否かを判定することにより開始される。発話ボタンが押下されたことが 判定されない場合 (ステップ S11 ;N)、制御ユニット 110は、同発話ボタンの押下が 判定されるまで、音声ガイドにっ ヽては待機状態を維持する。
[0039] ここで、利用者が車両の走行ルートの変更を指定するために操作入力ユニット 140 の発話ボタンを押下し、その事実を制御ユニット 110が判定すると (ステップ Sl l ;Y)
、同制御ユニット 110の曲調抽出部 112は、まず、コンテンツ再生部 111により現在 再生中にある楽曲(楽曲データ記憶領域 121中の楽曲データ)に関する楽曲メタ情 報を、ハードディスク装置 120の楽曲メタ情報記憶領域 122から読み出す。次に、曲 調抽出部 112は、ステップ S12において、上記読み出された楽曲メタ情報力も現在 再生中の楽曲に関する曲調を抽出する (本発明にいう「特徴量抽出工程」)。そして、 制御ユニット 110は、ステップ S13において、コンテンツ再生部 111により現在再生 中にある楽曲をミュートする。
[0040] 次に、制御ユニット 110の音声ガイド再生部 113は、ステップ S14において、上記 抽出された曲調に対応した「発話ボタン応答用」の音声ガイドデータを、ハードデイス ク装置 120の音声ガイドデータ記憶領域 123から読み出す。そして、制御ユニット 11 0のコンテンツ再生部 111は、ステップ S15において、上記読み出された音声ガイド データに該当する音声ガイドを再生し、これを音声出力ユニット 170を通じて外部に 放音させる。
[0041] このとき、例えば、ステップ S12において抽出された曲調が「明るい曲調」であった 場合、音声ガイド再生部 113は、図 5Αに示されるように、その曲調に対応した音声ガ イドとして、「どうしましたか?」と!、う文言を明る!/、言葉使!、で表現した音声ガイドを再 生する。これに対し、抽出された曲調力 S「悲しい曲調」であった場合、音声ガイド再生 部 113は、図 5Bに示されるように、曲調対応の音声ガイドとして、「いかがしましょうか ?」と!、う文言を悲 、言葉使!、で表現した音声ガイドを再生する。
[0042] 次に、上記のように音声ガイドが再生され、これに対し、利用者が車両の走行ルート 変更のために「ルート変更。」という文言を発話すると(図 5A及び図 5B参照)、制御 ユニット 110は、ステップ S16において、音声入力ユニット 150を通じて利用者の音 声を入力する。このとき、音声入力ユニット 150では、利用者の発話に力かる音声認 識が行われ、その音声認識結果が制御ユニット 110へ送られる。そして、制御ュ-ッ ト 110は、ステップ S17において、上記音声認識結果から所要のコマンド処理を実行 する。
[0043] ここで、制御ユニット 110は、上記コマンド処理に際し、ステップ S18において、音声 認識結果力も識別される利用者の要求内容に対応した応答が必要である力否かを 判定する。ここでは、利用者の要求内容が「走行ルート変更」であり、同利用者に別 走行ルートを提示するための応答を行う必要があるため(ステップ S18 ;Y)、制御ュ ニット 110は、前述したステップ S 14において、先に抽出された曲調に対応した「別ル ート提示用」の音声ガイドデータを、ハードディスク装置 120の音声ガイドデータ記憶 領域 123から読み出す (本発明に 、う「視聴覚情報再生工程」の一部)。
[0044] このとき、例えば、前述のステップ S12において抽出された曲調が「明るい曲調」で あった場合、音声ガイド再生部 113は、図 5Aに示されるように、その曲調に対応した 音声ガイドとして、「じゃあ、有料標準ルートにしましょう。」という文言を明るい言葉使 いで表現した音声ガイドを再生する。これに対し、抽出された曲調が「悲しい曲調」で あった場合、音声ガイド再生部 113は、図 5Bに示されるように、曲調対応の音声ガイ ドとして、「有料標準ルートをお勧めします。」という文言を悲しい言葉使いで表現した 音声ガイドを再生する (本発明に 、う「視聴覚情報再生工程」の一部)。
[0045] 次に、上記のように音声ガイドが再生され、これに対し、利用者が車両の走行ルート 変更に際して有料標準ルートの選択を回避するために「有料回避。」と ヽぅ文言を発 話すると(図 5A及び図 5B参照)、制御ユニット 110は、前述したステップ S 16におい て、音声入力ユニット 150を通じて利用者の音声を入力し、続くステップ S17におい て、上記音声認識結果から所要のコマンド処理を実行する。 [0046] ここで、制御ユニット 110は、上記コマンド処理に際し、前述したステップ S18にお いて、音声認識結果力も識別される利用者の要求内容に対応した応答が更に必要 であるか否かを判定する。ここでは、利用者の要求内容が「有料標準ルートの選択の 回避」であり、同利用者に有料回避ルートを更に提示するための応答を行う必要があ るため(ステップ S18 ;Y)、制御ユニット 110は、前述したステップ S14において、先 に抽出された曲調に対応した「有料回避ルート提示用」の音声ガイドデータを、ハー ドディスク装置 120の音声ガイドデータ記憶領域 123から読み出す。
[0047] このとき、例えば、前述のステップ S12において抽出された曲調が「明るい曲調」で あった場合、音声ガイド再生部 113は、図 5Aに示されるように、その曲調に対応した 音声ガイドとして、「おせっかいでした。じゃあ、有料回避のルートを優先します。」と いう文言を明るい言葉使いで表現した音声ガイドを再生する。これに対し、抽出され た曲調が「悲しい曲調」であった場合、音声ガイド再生部 113は、図 5Bに示されるよう に、曲調対応の音声ガイドとして、「申し訳ございません。では、有料回避のルートを 優先します。」と 、う文言を悲 、言葉使!、で表現した音声ガイドを再生する。
[0048] 次に、上記のように音声ガイドが再生されると、制御ユニット 110は、実際に有料回 避ルートの計算を行って、その計算結果により示される新たなルートを画像表示ュ- ット 160上の地図情報に重畳表示する。この処理により、利用者の要求内容であった 「走行ルート変更」が達せられる。このため、制御ユニット 110は、続くステップ S16及 び S17における各処理を行わずに、前述したステップ S18において、利用者の要求 内容に対応した応答が必要であるか否かを最終的に判定する。ここでは、利用者の 要求内容が達せられて、これ以上の応答を行う必要はなくなつたため(ステップ S18 ; N)、制御ユニット 110は、ステップ S19において、前述したステップ S 13において再 生中の楽曲に対してなされていたミュートを解除する。そして、制御ユニット 110は、 利用者により次に発話ボタンが押下されるまで、音声ガイドについては待機状態を維 持する。
[0049] 以上、実施形態に係るナビゲーシヨン装置 100の音声ガイド処理 S 10に関する動 作について、音声ガイドの再生に際し、ハードディスク装置 120の楽曲データ記憶領 域 121に記憶された楽曲データに基づいて曲調を抽出する例を挙げて説明した。こ れに代え、本発明によれば、記録媒体 RMに記録された楽曲データに関連づけられ ている楽曲メタ情報に基づいて曲調を抽出することも勿論可能である。この場合、以 上に説明した音声ガイド処理 S10における曲調抽出 (ステップ S12)の対象を、記録 媒体 RM中に楽曲データに付随して記録された楽曲メタ情報に変更し、かつ、再生 楽曲ミュート (ステップ S13)及び楽曲ミュート解除 (ステップ S19)の対象を、記録媒 体 RM (光学ディスクドライブ装置 130)に変更すればょ ヽ。
[0050] また、上記の例では、楽曲データ (楽曲)が既に再生されている状況において、所 要の音声ガイドを再生する場合を示したが、本発明によれば、音声ガイド再生時に楽 曲が再生されていない場合 (過去に再生されていた場合)にも対応可能である。この 場合、音声ガイド処理 S10における曲調抽出 (ステップ S12)を、(i)楽曲の再生が指 定されるごとに、所要の曲調を楽曲メタ情報からリアルタイムに抽出し、(ii)その抽出 した (最後に再生された楽曲に関する)楽曲メタ情報を所定時間にわたり保持する処 理に変更すればよい。そして、音声ガイド再生出力(ステップ S15)における人の感情 状態に応じた音声ガイドの再生を、例えば、上記所定時間の経過前において限定的 に実行し、その経過後には、デフォルトの音声ガイドを再生するようにすればよい。
[0051] また、上記の例では、利用者による発話ボタンの押下操作に伴って所要の音声ガ イドを再生する場合を示したが、本発明によれば、車両が交差点等の道路分岐点へ 進入する前段階における脱出経路予告に伴って、音声ガイドを再生する場合にも対 応可能である。この場合、音声ガイド処理 S 10における発話ボタン押下判定 (ステツ プ S11)、利用者音声入力 (ステップ S16)、及び応答必要判定 (ステップ S 17)を排 除し、ナビゲーシヨン装置 100 (制御ユニット 110)により自動地点認識が行われるご とに、所要の音声ガイドを自動再生させるようにすればょ 、。
[0052] [作用効果]
以上に説明したように、本実施形態では、制御ユニット 110の曲調抽出部 112が、 コンテンツ再生部 111により再生された楽曲に関連づけられた楽曲メタ情報の各要 素から、人の感情を反映していると推定される楽曲の曲調を抽出する。そして、制御 ユニット 110の音声ガイド再生部 113が、曲調抽出部 112により抽出された曲調に対 応した音声ガイドデータを、ハードディスク装置 120の音声ガイドデータ記憶領域 12 3から読み出して、該当する音声ガイドを再生する。
[0053] このため、利用者の感情状態を考慮した音声ガイドを、従来のように、温度センサ や圧力センサ等の接触型センサを用いることなぐナビゲーシヨン装置 100に標準で 搭載される音楽再生機能のみを用いることにより簡易に実現することが可能となる。こ の結果、主にプログラム構成を変更するだけで、ヒューマンインタフェースに優れた音 声ガイド機能を有するナビゲーシヨン装置 100を構成することが可能となる。
[0054] [実施形態の変形]
本発明は、上記の実施形態に限定されるものではなぐ様々な変形が可能である。
[0055] 例えば、上記の実施形態では、曲調抽出部 112自身に楽曲の曲調を抽出させるよ うにした。これに対し、楽曲メタ情報記憶領域 122中の追記領域 122B等に、メタ情 報の各要素力 判断される曲調をあらかじめ記憶させておき、当該記憶領域を曲調 抽出部 112に直接参照させるようにしてもょ 、。
[0056] また、上記の実施形態では、曲調抽出部 112に楽曲メタ情報記憶領域 122を参照 させて楽曲の曲調を抽出させるようにした。これに対し、曲調抽出部 112自身に、楽 曲メタ情報記憶領域 122を参照させることなぐコンテンツ再生部 111で再生された 楽曲の波形データを直接分析させ、このときの分析結果から、楽曲の曲調を抽出さ せるようにしてもよい。なお、この分析結果は、楽曲メタ情報記憶領域 122の追記領 域 122Bに対して追記可能であり、所要の曲調抽出の適正化に供するための新たな 楽曲メタ情報として利用することができる。
[0057] また、上記の実施形態では、マルチメディアコンテンツの種類が楽曲であることを前 提としたが、これ以外にも、メタ情報が付随するものであれば、各種画像を扱うことも 可能である。この場合、ハードディスク装置 120の楽曲データ記憶領域 121にカ卩えて 画像データ記憶領域を設けたり、画像データが記録された記録媒体 RMの内容を光 学ディスクドライブ装置 130に読み取らせて、所要の音声ガイド処理を行わせるように すればよい。
[0058] また、上記の実施形態では、マルチメディアコンテンツがナビゲーシヨン装置 100に 事前に内蔵され、又は記録媒体 RMから読み取られる場合を説明した。これに加え、 マルチメディアコンテンツの提供媒体としては、メディア放送受信ユニット 200を通じ て受信される地上デジタル放送や FM多重放送等の放送を利用することもできる。こ の場合において、再生中の放送信号にメタ情報が重畳されているときには、当該メタ 情報を利用してマルチメディアコンテンツの特徴量 (例えば、放送楽曲の場合には曲 調、放送画像の場合には番組内容)を抽出し、これを音声ガイドデータの選定に供 するようにすればよい。
[0059] また、上記の実施形態では、視聴覚情報が音声ガイドであることを前提としたが、こ れ以外にも、例えば、ナビゲーシヨン操作に際して車両が登録地点に接近したときに 音声出力ユニット 170から放音される報知音の音色に関しても、人の感情の種類に 応じて変化させることが可能である。この場合、デフォルトでチャイム音などに設定さ れている報知音の音色に関するハードディスク装置 120内のデータを、例えば、抽出 された曲調が「明るい曲調」のときには「トランペットの音」に設定し、それが「悲しい曲 調」のときには「フルートの音」に設定するなどすればょ 、。
[0060] また、上記の視聴覚情報に関連し、例えば、実施形態で示した音声ガイド(図 5A及 び図 5B参照)を画像表示ユニット 160に同時に表示させ、このとき用 、るべき画像情 報の表示形態をデフォルト値力 変化させることなども可能である。この場合、当該画 像情報の表示形態に関するハードディスク装置 120内のデータを、例えば、抽出さ れた曲調が「明るい曲調」のときには、四隅が丸みを帯びた表示ウィンドウ中に「ポッ プ体」によるフォント表示を行うものに設定し、それが「悲しい曲調」のときには、四隅 が直角な表示ウィンドウ中に「明朝体」によるフォント表示を行うものに設定するなど すればよい。
[0061] また、上記の実施形態では、制御ユニット 110における各機能を、対応するプロダラ ムを実行することにより実現した力 その一部又は全てを、ファームウェアの実装等を したハードウェアにより実現することもできる。
[0062] また、上記の実施形態では、車載のナビゲーシヨン装置に本発明を適用した例を 挙げて説明したが、マルチメディア再生機能を有するものであれば、例えば、航空機 や船舶等に搭載されるナビゲーシヨン装置にも、本発明を適用することが可能である
。また、同様な条件により、例えば、携帯情報装置である、 PDA (Personal Digital Ass istant)、携帯電話端末、 PHS (Personal Handyphone System)端末、携帯型パーソナ ルコンピュータ等に搭載されるナビゲーシヨン装置にも、本発明を適用することができ る。

Claims

請求の範囲
[1] マノレチメディアコンテンツを再生するコンテンツ再生手段と;
前記コンテンツ再生手段により再生された前記マルチメディアコンテンツから、人の 感情を反映していると推定される特徴量を抽出する特徴量抽出手段と;
前記人の感情の種類に応じた視聴覚情報の提示形態をそれぞれ表現した視聴覚 データを記憶する視聴覚データ記憶手段と;
利用者に対し前記視聴覚情報を提示すべき事象が生じたときに、前記特徴量抽出 手段により抽出された前記特徴量に対応した視聴覚データを前記視聴覚データ記 憶手段から読み出して、該当する視聴覚情報を再生する視聴覚情報再生手段と;を 備えることを特徴とするナビゲーシヨン装置。
[2] 前記特徴量抽出手段は、前記コンテンツ再生手段に対して新たなマルチメディアコ ンテンッの再生が指定されるごとに、所要の特徴量をリアルタイムに抽出して順次更 新する、ことを特徴とする請求項 1に記載のナビゲーシヨン装置。
[3] 前記特徴量抽出手段は、前記コンテンツ再生手段により最後に再生されたマルチ メディアコンテンッに関して抽出した特徴量を、新たなマルチメディアコンテンッの再 生、又は所定時間の経過まで保持する、ことを特徴とする請求項 2に記載のナビゲー シヨン装置。
[4] 前記視聴覚情報再生手段は、前記所定時間の経過後に前記視聴覚情報を提示 すべき事象が生じたときに、デフォルトの視聴覚情報を再生する、ことを特徴とする請 求項 3に記載のナビゲーシヨン装置。
[5] 前記マルチメディアコンテンツを記憶するメディアデータ記憶手段と;
前記メディアデータ記憶手段に記憶された前記マルチメディアコンテンツに関連づ けられたメタ情報を記憶するメタ情報記憶手段と;を更に備え、
前記コンテンツ再生手段は、前記メディアデータ記憶手段から読み出されたマルチ メディアコンテンッを再生し、
前記特徴量抽出手段は、前記コンテンッ再生手段により再生された前記マルチメ ディアコンテンツに関して前記メタ情報記憶手段に記憶されたメタ情報力 所要の特 徴量を抽出する、ことを特徴とする請求項 1に記載のナビゲーシヨン装置。
[6] 前記メタ情報記憶手段は、前記特徴量抽出手段による前記特徴量の抽出を適正 化しうる要素を追記するための追記領域を備える、ことを特徴とする請求項 5に記載 のナビゲーシヨン装置。
[7] 前記マルチメディアコンテンツが記録された記録媒体にアクセス可能な記録媒体読 取手段を更に備え、
前記コンテンツ再生手段は、前記記録媒体読取手段により前記記録媒体から読み 出されたマルチメディアコンテンツを再生し、
前記特徴量抽出手段は、前記コンテンッ再生手段により再生された前記マルチメ ディアコンテンッに付随するメタ情報から所要の特徴量を抽出する、ことを特徴とする 請求項 1に記載のナビゲーシヨン装置。
[8] 前記マルチメディアコンテンツを受信可能なメディア放送受信手段を更に備え、 前記コンテンツ再生手段は、前記メディア放送受信手段により受信されたマルチメ ディアコンテンッを再生し、
前記特徴量抽出手段は、前記コンテンッ再生手段により再生された前記マルチメ ディアコンテンッに付随するメタ情報から所要の特徴量を抽出する、ことを特徴とする 請求項 1に記載のナビゲーシヨン装置。
[9] 前記特徴量抽出手段は、前記コンテンツ再生手段により再生された前記マルチメ ディアコンテンツの波形データを分析した結果カゝら所要の特徴量を抽出する、ことを 特徴とする請求項 1に記載のナビゲーシヨン装置。
[10] 前記視聴覚情報は、音声ガイドを含み、
前記視聴覚データは、前記人の感情の種類に応じて前記音声ガイドの発話形態を それぞれ表現した音声ガイドデータを含む、ことを特徴とする請求項 1に記載のナビ ゲーシヨン装置。
[11] 前記視聴覚情報は、報知音を含み、
前記視聴覚データは、前記人の感情の種類に応じて前記報知音の音色をそれぞ れ表現した報知音データを含む、ことを特徴とする請求項 1に記載のナビゲーシヨン 装置。
[12] 前記視聴覚情報は、画像情報を含み、 前記視聴覚データは、前記人の感情の種類に応じて前記画像情報の表示形態を それぞれ表現した画像情報データを含む、ことを特徴とする請求項 1に記載のナビゲ ーシヨン装置。
[13] 前記マルチメディアコンテンツは、楽曲であり、
前記特徴量抽出手段は、所要の特徴量として前記楽曲の曲調を抽出する、ことを 特徴とする請求項 1に記載のナビゲーシヨン装置。
[14] マルチメディアコンテンツから、人の感情を反映していると推定される特徴量を抽出 する特徴量抽出工程と;
利用者に対し視聴覚情報を提示すべき事象が生じたときに、前記特徴量抽出工程 で抽出された前記特徴量に基づき、前記人の感情の種類に応じた提示形態力もなる 視聴覚情報を再生する視聴覚情報再生工程と;を備えることを特徴とするナビゲーシ ヨン方法。
[15] 請求項 14に記載のナビゲーシヨン方法をナビゲーシヨン装置の演算手段に実行さ せる、ことを特徴とするナビゲーシヨンプログラム。
[16] 請求項 15に記載のナビゲーシヨンプログラムがナビゲーシヨン装置の演算手段によ り読み取り可能に記録されて 、る、ことを特徴とするナビゲーシヨンプログラムを記録 した記録媒体。
PCT/JP2006/322333 2005-11-09 2006-11-09 ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体 WO2007055259A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007544169A JP4573877B2 (ja) 2005-11-09 2006-11-09 ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-325152 2005-11-09
JP2005325152 2005-11-09

Publications (1)

Publication Number Publication Date
WO2007055259A1 true WO2007055259A1 (ja) 2007-05-18

Family

ID=38023261

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/322333 WO2007055259A1 (ja) 2005-11-09 2006-11-09 ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体

Country Status (2)

Country Link
JP (1) JP4573877B2 (ja)
WO (1) WO2007055259A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010076871A1 (ja) * 2009-01-05 2010-07-08 日本電気株式会社 コンテキスト収集装置、コンテキスト収集プログラム、およびコンテキスト収集方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259271A (ja) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk エージェント装置
JP2001005487A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声認識装置
JP2002073634A (ja) * 2000-09-05 2002-03-12 Alpine Electronics Inc 行動パターン処理装置
JP2002221429A (ja) * 2001-01-29 2002-08-09 Sony Corp 情報提供装置、情報提供方法及び情報提供装置のプログラム
JP2002278563A (ja) * 2001-03-16 2002-09-27 Sony Corp 情報処理装置および方法、配信システム、プログラム格納媒体、並びにプログラム
JP2002365075A (ja) * 2001-06-11 2002-12-18 Pioneer Electronic Corp ドライブプラン作成装置及び方法、ナビゲーション装置、車載用電子システム、及びコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259271A (ja) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk エージェント装置
JP2001005487A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声認識装置
JP2002073634A (ja) * 2000-09-05 2002-03-12 Alpine Electronics Inc 行動パターン処理装置
JP2002221429A (ja) * 2001-01-29 2002-08-09 Sony Corp 情報提供装置、情報提供方法及び情報提供装置のプログラム
JP2002278563A (ja) * 2001-03-16 2002-09-27 Sony Corp 情報処理装置および方法、配信システム、プログラム格納媒体、並びにプログラム
JP2002365075A (ja) * 2001-06-11 2002-12-18 Pioneer Electronic Corp ドライブプラン作成装置及び方法、ナビゲーション装置、車載用電子システム、及びコンピュータプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010076871A1 (ja) * 2009-01-05 2010-07-08 日本電気株式会社 コンテキスト収集装置、コンテキスト収集プログラム、およびコンテキスト収集方法
JPWO2010076871A1 (ja) * 2009-01-05 2012-06-21 日本電気株式会社 コンテキスト収集装置、コンテキスト収集プログラム、およびコンテキスト収集方法
JP5516421B2 (ja) * 2009-01-05 2014-06-11 日本電気株式会社 コンテキスト収集装置、コンテキスト収集プログラム、およびコンテキスト収集方法

Also Published As

Publication number Publication date
JPWO2007055259A1 (ja) 2009-04-30
JP4573877B2 (ja) 2010-11-04

Similar Documents

Publication Publication Date Title
JP5770770B2 (ja) 入力装置
JP3567864B2 (ja) 音声認識装置及び記録媒体
EP1450349A1 (en) In-vehicle controller and program for instructing computer to execute operation instruction method
EP1562176A1 (en) Reproducing rhythm controller, reproduction rhythm control method, program for the same and recording medium with program recorded therein
RU2425329C2 (ru) Навигационное устройство и способ для приема и воспроизведения звуковых образцов
JP2002366166A (ja) コンテンツ提供システム及び方法、並びにそのためのコンピュータプログラム
WO2007145003A1 (ja) 車載情報装置
CN110211589A (zh) 车载系统的唤醒方法、装置以及车辆、机器可读介质
JP4573877B2 (ja) ナビゲーション装置、ナビゲーション方法、並びにナビゲーションプログラム及びその記録媒体
JPH10326176A (ja) 音声対話制御方法
JP2001022370A (ja) 音声案内装置
JP4708163B2 (ja) 車載情報端末
JP2005135518A (ja) 音楽再生装置
US20060206338A1 (en) Device and method for providing contents
JP2005196918A (ja) 記録装置、車載装置、及びプログラム
JP4618163B2 (ja) 車載オーディオ装置
JP3879644B2 (ja) ナビゲーション装置
JP2009043353A (ja) タイトル付与装置、タイトル付与方法、タイトル付与プログラム、および記録媒体
JP2006133006A (ja) 車載用コンテンツ再生装置
US7894314B2 (en) Recording system and program for recording data
JP4004920B2 (ja) 情報出力装置、情報出力方法、情報出力用プログラム並びに情報記録媒体
JP5153460B2 (ja) 電子情報機器、及び、電子情報機器の制御方法
JP2008052843A (ja) カーオーディオにおける歌詞表示システム
JP2000268545A (ja) 音声再生装置
JP2007280580A (ja) データ再生装置、データ再生方法、ならびに、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2007544169

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06823229

Country of ref document: EP

Kind code of ref document: A1