WO2023073948A1 - 音声出力装置、音声出力方法、プログラム及び記憶媒体 - Google Patents

音声出力装置、音声出力方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2023073948A1
WO2023073948A1 PCT/JP2021/040102 JP2021040102W WO2023073948A1 WO 2023073948 A1 WO2023073948 A1 WO 2023073948A1 JP 2021040102 W JP2021040102 W JP 2021040102W WO 2023073948 A1 WO2023073948 A1 WO 2023073948A1
Authority
WO
WIPO (PCT)
Prior art keywords
utterance
audio output
point
vehicle
voice
Prior art date
Application number
PCT/JP2021/040102
Other languages
English (en)
French (fr)
Inventor
将太 和泉
匡弘 岩田
洋平 大沼
孝太郎 福井
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2021/040102 priority Critical patent/WO2023073948A1/ja
Publication of WO2023073948A1 publication Critical patent/WO2023073948A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Definitions

  • the present invention relates to technology that can be used in voice guidance for vehicles.
  • a vehicle navigation system disclosed in Patent Document 1 is conventionally known as a system that guides a route to a vehicle destination by voice.
  • the voice for guidance is output in a state of being duplicated. may be lost.
  • unnecessary mental burden is imposed on the user who uses the voice guidance for the vehicle due to the inability to grasp the contents of the guidance sufficiently.
  • Patent Document 1 does not particularly disclose the above-mentioned problems. Therefore, according to the configuration disclosed in Patent Document 1, there still exists a problem corresponding to the above-described problem.
  • the present invention has been made to solve the above problems, and a main object of the present invention is to provide a voice output device capable of reducing the mental burden of a user who uses voice guidance for vehicles. do.
  • the claimed invention is an audio output device, and is an utterance setting unit that sets a plurality of utterance points and a plurality of utterance contents at each of the plurality of utterance points based on a route to a destination of a vehicle. and, based on the speed of the vehicle traveling along the route, a first voice output corresponding to a first utterance content at a first utterance point among the plurality of utterance points; and the plurality of utterances.
  • a determination unit that determines that at least a part of a second audio output corresponding to a second utterance content at a second utterance point of the points overlaps, and the first audio output and the second audio When it is determined that at least a part of the output overlaps, based on a preset priority, the audio overlap prevention unit that performs processing for preventing overlap between the first audio output and the second audio output and have
  • the claimed invention is a voice output method, wherein a plurality of utterance points and a plurality of utterance contents at each of the plurality of utterance points are set based on a route to a destination of a vehicle, Based on the speed of the vehicle traveling along the route, a first audio output corresponding to a first utterance content at a first utterance point among the plurality of utterance points; It is determined that at least a part of the second voice output corresponding to the second utterance content at the second utterance point of the second voice output overlaps, and at least a part of the first voice output and the second voice output are determined to overlap, processing for preventing overlap between the first audio output and the second audio output is performed based on a preset priority.
  • the claimed invention is a program executed by an audio output device having a computer, and is based on a route to a destination of a vehicle, a plurality of utterance points, and a plurality of utterance points at each of the plurality of utterance points.
  • an utterance setting unit that sets an utterance content; and a first utterance content corresponding to a first utterance content at a first utterance point among the plurality of utterance points based on the speed of the vehicle traveling along the route.
  • a determination unit that determines that at least a portion of the audio output of and the second audio output corresponding to the second utterance content at the second utterance point of the plurality of utterance points overlaps; preventing overlap of the first audio output and the second audio output based on a preset priority when it is determined that at least a portion of the first audio output and the second audio output overlap;
  • the computer functions as an audio duplication prevention unit that performs processing to prevent duplication.
  • FIG. 1 is a diagram showing a configuration example of an audio output system according to an embodiment
  • FIG. 1 is a block diagram showing a schematic configuration of an audio output device
  • FIG. 4 is a diagram for explaining a specific example of processing performed during route guidance
  • 4 is a flowchart for explaining the processing performed in the server device during route guidance;
  • the voice output device includes a speech setting for setting a plurality of speech points and a plurality of speech contents at each of the plurality of speech points based on a route to a destination of the vehicle. a first audio output corresponding to a first speech content at a first speech point of the plurality of speech points based on the speed of the vehicle traveling along the route; and a determination unit that determines that at least a portion of a second audio output corresponding to a second utterance content at a second utterance point of the utterance points overlaps; Audio duplication prevention for performing processing for preventing duplication of the first audio output and the second audio output based on a preset priority when it is determined that at least a part of the audio output overlaps and
  • the above audio output device has an utterance setting unit, a determination unit, and an audio duplication prevention unit.
  • the utterance setting unit sets a plurality of utterance points and a plurality of utterance contents at each of the plurality of utterance points based on the route to the destination of the vehicle.
  • the determining unit Based on the speed of the vehicle traveling along the route, the determining unit outputs a first voice corresponding to a first utterance content at a first utterance point among the plurality of utterance points; It is determined that at least a part of the second voice output corresponding to the second speech content at the second speech point of the second speech point overlaps with the second speech output.
  • the audio duplication prevention unit when it is determined that at least a part of the first audio output and the second audio output overlap, based on a preset priority, the first audio output and the second audio output. 2 to prevent duplication of audio output. As a result, the mental burden on the user who uses the voice guidance for vehicles can be reduced.
  • the speed value is a value obtained by dividing the distance from the first utterance point to the second utterance point by the utterance time associated with the first voice output. is.
  • the audio duplication prevention unit sets the utterance time related to the first audio output to the second time of the vehicle. until it falls within the expected arrival time to the utterance point, the process of reducing the wording of the first utterance content is performed.
  • the plurality of utterance points are caused to perform voice output corresponding to each of the plurality of utterance contents without duplication in the vehicle assumed to run at a speed equal to or lower than a predetermined speed. is set as a position indicating possible timing.
  • the priority is the one of the first utterance point and the second utterance point that is relatively closer to the guidance point located at the destination of the vehicle on the route. is set so that one voice output corresponding to the content of the utterance at the utterance point is preferentially performed.
  • the voice duplication prevention unit performs the processing for preventing the duplication based on the priority order of the first utterance point and the second utterance point.
  • a process of stopping another voice output according to the content of the speech of another speaking point relatively far from the guide point at the timing when the one voice output is started is performed.
  • the priority order is set so that audio output of important information as information for moving the vehicle along the route is preferentially performed.
  • the audio duplication prevention unit performs at least one of the first utterance content and the second utterance content as the processing for preventing the duplication based on the priority order. Perform processing to shorten one.
  • a voice output method includes setting a plurality of utterance points and a plurality of utterance contents at each of the plurality of utterance points based on a route to a destination of a vehicle; a first speech output corresponding to a first speech content at a first speech point among the plurality of speech points; a first speech output among the plurality of speech points; A second audio output corresponding to a second utterance content at two utterance points, and at least a portion of the second audio output overlap, and when at least a portion of the first audio output and the second audio output overlap
  • a process for preventing duplication of the first audio output and the second audio output is performed. As a result, the mental burden on the user who uses the voice guidance for vehicles can be reduced.
  • a program executed by an audio output device including a computer includes a plurality of utterance points and a plurality of utterance contents at each of the plurality of utterance points based on a route to a destination of a vehicle. and an utterance setting unit that sets a first voice corresponding to a first utterance content at a first utterance point among the plurality of utterance points based on the speed of the vehicle traveling along the route.
  • the computer functions as an audio duplication prevention unit that performs the processing of .
  • This program can be stored in a storage medium and used.
  • FIG. 1 is a diagram illustrating a configuration example of an audio output system according to an embodiment.
  • a voice output system 1 according to this embodiment includes a voice output device 100 and a server device 200 .
  • the audio output device 100 is mounted on the vehicle Ve.
  • the server device 200 communicates with a plurality of audio output devices 100 mounted on a plurality of vehicles Ve.
  • the voice output device 100 basically performs route search processing, route guidance processing, etc. for the user who is a passenger of the vehicle Ve. For example, when a destination or the like is input by the user, the voice output device 100 transmits an upload signal S1 including position information of the vehicle Ve and information on the designated destination to the server device 200 . Server device 200 calculates the route to the destination by referring to the map data, and transmits control signal S2 indicating the route to the destination to audio output device 100 . The voice output device 100 provides route guidance to the user by voice output based on the received control signal S2.
  • the voice output device 100 provides various types of information to the user through interaction with the user.
  • the audio output device 100 supplies the server device 200 with an upload signal S1 including information indicating the content or type of the information request and information about the running state of the vehicle Ve.
  • the server device 200 acquires and generates information requested by the user, and transmits it to the audio output device 100 as a control signal S2.
  • the audio output device 100 provides the received information to the user by audio output.
  • the voice output device 100 moves together with the vehicle Ve and performs route guidance mainly by voice so that the vehicle Ve travels along the guidance route.
  • route guidance based mainly on voice refers to route guidance in which the user can grasp information necessary for driving the vehicle Ve along the guidance route at least from only voice, and the voice output device 100 indicates the current position. It does not exclude the auxiliary display of a surrounding map or the like.
  • the voice output device 100 outputs at least various information related to driving, such as points on the route that require guidance (also referred to as “guidance points”), by voice.
  • the guidance point corresponds to, for example, an intersection at which the vehicle Ve turns right or left, or other passing points important for the vehicle Ve to travel along the guidance route.
  • the voice output device 100 provides voice guidance regarding guidance points such as, for example, the distance from the vehicle Ve to the next guidance point and the traveling direction at the guidance point.
  • the voice regarding the guidance for the guidance route is also referred to as "route voice guidance”.
  • the audio output device 100 is installed, for example, on the upper part of the windshield of the vehicle Ve or on the dashboard. Note that the audio output device 100 may be incorporated in the vehicle Ve.
  • FIG. 2 is a block diagram showing a schematic configuration of the audio output device 100.
  • the audio output device 100 mainly includes a communication unit 111, a storage unit 112, an input unit 113, a control unit 114, a sensor group 115, a display unit 116, a microphone 117, a speaker 118, and an exterior camera 119. and an in-vehicle camera 120 .
  • Each element in the audio output device 100 is interconnected via a bus line 110 .
  • the communication unit 111 performs data communication with the server device 200 under the control of the control unit 114 .
  • the communication unit 111 may receive, for example, map data for updating a map DB (DataBase) 4 to be described later from the server device 200 .
  • Map DB DataBase
  • the storage unit 112 is composed of various memories such as RAM (Random Access Memory), ROM (Read Only Memory), and non-volatile memory (including hard disk drive, flash memory, etc.).
  • the storage unit 112 stores a program for the audio output device 100 to execute predetermined processing.
  • the above programs may include an application program for providing route guidance by voice, an application program for playing back music, an application program for outputting content other than music (such as television), and the like.
  • Storage unit 112 is also used as a working memory for control unit 114 . Note that the program executed by the audio output device 100 may be stored in a storage medium other than the storage unit 112 .
  • the storage unit 112 also stores a map database (hereinafter, the database is referred to as "DB") 4. Various data required for route guidance are recorded in the map DB 4 .
  • the map DB 4 stores, for example, road data representing a road network by a combination of nodes and links, and facility data indicating facilities that are candidates for destinations, stop-off points, or landmarks.
  • the map DB 4 may be updated based on the map information received by the communication section 111 from the map management server under the control of the control section 114 .
  • the input unit 113 is a button, touch panel, remote controller, etc. for user operation.
  • the display unit 116 is a display or the like that displays based on the control of the control unit 114 .
  • the microphone 117 collects sounds inside the vehicle Ve, particularly the driver's utterances.
  • a speaker 118 outputs audio for route guidance to the driver or the like.
  • the sensor group 115 includes an external sensor 121 and an internal sensor 122 .
  • the external sensor 121 is, for example, one or more sensors for recognizing the surrounding environment of the vehicle Ve, such as a lidar, radar, ultrasonic sensor, infrared sensor, and sonar.
  • the internal sensor 122 is a sensor that performs positioning of the vehicle Ve, and is, for example, a GNSS (Global Navigation Satellite System) receiver, a gyro sensor, an IMU (Inertial Measurement Unit), a vehicle speed sensor, or a combination thereof.
  • GNSS Global Navigation Satellite System
  • IMU Inertial Measurement Unit
  • vehicle speed sensor or a combination thereof.
  • the sensor group 115 may have a sensor that allows the control unit 114 to directly or indirectly derive the position of the vehicle Ve from the output of the sensor group 115 (that is, by performing estimation processing).
  • the vehicle exterior camera 119 is a camera that captures the exterior of the vehicle Ve.
  • the exterior camera 119 may be only a front camera that captures the front of the vehicle, or may include a rear camera that captures the rear of the vehicle in addition to the front camera. good too.
  • the in-vehicle camera 120 is a camera for photographing the interior of the vehicle Ve, and is provided at a position capable of photographing at least the vicinity of the driver's seat.
  • the control unit 114 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the audio output device 100 as a whole. For example, the control unit 114 estimates the position (including the traveling direction) of the vehicle Ve based on the outputs of one or more sensors in the sensor group 115 . Further, when a destination is specified by the input unit 113 or the microphone 117, the control unit 114 generates route information indicating a guidance route to the destination, Based on the positional information and the map DB 4, route guidance is provided. In this case, the control unit 114 causes the speaker 118 to output route voice guidance. Further, the control unit 114 controls the display unit 116 to display information about the music being played, video content, a map of the vicinity of the current position, or the like.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • control unit 114 is not limited to being implemented by program-based software, and may be implemented by any combination of hardware, firmware, and software. Also, the processing executed by the control unit 114 may be implemented using a user-programmable integrated circuit such as an FPGA (field-programmable gate array) or a microcomputer. In this case, this integrated circuit may be used to implement the program executed by the control unit 114 in this embodiment. Thus, the control unit 114 may be realized by hardware other than the processor.
  • FPGA field-programmable gate array
  • the configuration of the audio output device 100 shown in FIG. 2 is an example, and various changes may be made to the configuration shown in FIG.
  • the control unit 114 may receive information necessary for route guidance from the server device 200 via the communication unit 111 .
  • the audio output device 100 is electrically connected to an audio output unit configured separately from the audio output device 100, or by a known communication means, so as to output the audio. Audio may be output from the output unit.
  • the audio output unit may be a speaker provided in the vehicle Ve.
  • the audio output device 100 does not have to include the display section 116 .
  • the audio output device 100 does not need to perform display-related control at all. may be executed.
  • the audio output device 100 may acquire information output by sensors installed in the vehicle Ve based on a communication protocol such as CAN (Controller Area Network) from the vehicle Ve. .
  • CAN Controller Area Network
  • the server device 200 generates route information indicating a guidance route that the vehicle Ve should travel based on the upload signal S1 including the destination and the like received from the voice output device 100 .
  • the server device 200 then generates a control signal S2 relating to information output in response to the user's information request based on the user's information request indicated by the upload signal S1 transmitted by the audio output device 100 and the running state of the vehicle Ve.
  • the server device 200 then transmits the generated control signal S ⁇ b>2 to the audio output device 100 .
  • FIG. 3 is a diagram showing an example of a schematic configuration of the server device 200.
  • the server device 200 mainly has a communication section 211 , a storage section 212 and a control section 214 .
  • Each element in the server device 200 is interconnected via a bus line 210 .
  • the communication unit 211 performs data communication with an external device such as the audio output device 100 under the control of the control unit 214 .
  • the storage unit 212 is composed of various types of memory such as RAM, ROM, nonvolatile memory (including hard disk drive, flash memory, etc.). Storage unit 212 stores a program for server device 200 to execute a predetermined process. Moreover, the memory
  • the control unit 214 includes a CPU, GPU, etc., and controls the server device 200 as a whole. Further, the control unit 214 operates together with the audio output device 100 by executing a program stored in the storage unit 212, and executes route guidance processing, information provision processing, and the like for the user. For example, based on the upload signal S1 received from the audio output device 100 via the communication unit 211, the control unit 214 generates route information indicating a guidance route or a control signal S2 relating to information output in response to a user's information request. Then, the control unit 214 transmits the generated control signal S2 to the audio output device 100 through the communication unit 211 .
  • the server device 200 uses the map DB 4 stored in the storage unit 212 and the driving situation information of the vehicle Ve received in the communication unit 211 to determine the route guidance for the vehicle Ve.
  • a guidance route (hereinafter referred to as route MR) from the current location to the destination is obtained.
  • the driving situation information includes information indicating the current driving situation of the vehicle Ve.
  • the driving situation information includes, for example, the current location of the vehicle Ve, the destination of the vehicle Ve, and the speed of the vehicle Ve.
  • the driving situation information includes, for example, the direction of the vehicle Ve, traffic information (including speed regulation and traffic congestion information, etc.) around the position of the vehicle Ve, and the current time, etc. of the voice output device 100.
  • Information that can be acquired based on the function of each unit may be included.
  • the driving situation information may include any one of the voice obtained by the microphone 117, the image captured by the exterior camera 119, and the image captured by the interior camera 120.
  • the driving status information may also include information received from the server device 200 through the communication unit 111 .
  • the server device 200 sets a plurality of guidance points, a plurality of utterance points corresponding to each of the plurality of guidance points, and a plurality of utterance contents at each of the plurality of utterance points on the route MR.
  • the multiple utterance contents described above are set to include at least information for guiding the vehicle Ve to the next guidance point. Further, at the above-mentioned plurality of utterance points, the voice output corresponding to each of the above-mentioned plurality of utterance contents is performed in (the voice output device 100 of) the vehicle Ve, which is assumed to run at a speed equal to or lower than a predetermined speed (for example, the legal speed). It is set as a position that indicates when it can be done without duplication.
  • a predetermined speed for example, the legal speed
  • the server device 200 responds to the voice output SOX and the speech content SCY based on the speed of the vehicle Ve included in the driving situation information received from the voice output device 100 immediately before the vehicle Ve passes the utterance point SPX. It is determined whether or not at least a part of the audio output SOY overlaps.
  • the server apparatus 200 determines that the audio output SOX and the audio output SOY do not overlap. In such a case, when the vehicle Ve passes the utterance point SPX, the server device 200 outputs guidance voice data to the voice output device 100 for performing voice output SOX corresponding to the utterance content SCX. Output to Thereafter, server device 200 outputs guidance voice data to voice output device 100 for performing voice output SOY corresponding to utterance content SCY when vehicle Ve passes utterance point SPY.
  • the server device 200 determines that at least a portion of the voice output SOX and the voice output SOY overlap when the speed of the vehicle Ve immediately before passing the utterance point SPX exceeds the speed value Vth. In such a case, the server device 200 performs processing for preventing duplication of the audio output SOX and the audio output SOY based on the preset priority.
  • the server device 200 outputs to the voice output device 100 voice data for guidance for performing voice output SOX when the vehicle Ve passes the utterance point SPX. After that, based on the priority order PRA, the server device 200 sends audio data to the audio output device 100 for stopping the audio output SOX and performing the audio output SOY when the vehicle Ve passes the utterance point SPY. Output. In other words, server device 200 performs a process of stopping voice output SOX corresponding to utterance content SCX at utterance point SPX at the timing at which voice output SOY is started, based on priority order PRA.
  • the server apparatus 200 performs the processing for preventing duplication of the voice output SOX and the voice output SOY based on the priority order PRA.
  • a process of stopping the voice output SOX according to the content of the utterance at the utterance point SPX relatively far from the utterance point SPX at the timing when the voice output SOY is started may be performed.
  • the server device 200 determines the speed of the vehicle Ve at any timing belonging to the period immediately before passing the speech point SPX and immediately before passing the speech point SPY. exceeds the velocity value Vth, it is determined whether or not at least a part of the audio output SOX and the audio output SOY overlap.
  • the server device 200 when the vehicle Ve passes through the utterance point SPX, the server device 200 performs a process of shortening the utterance content SCX based on the priority order PRB to acquire the utterance content SCXA, and instead of the voice output SOX, Then, it outputs guidance voice data to the voice output device 100 for performing voice output SOXA corresponding to the utterance content SCXA. Further, for example, when the vehicle Ve passes the utterance point SPY, the server device 200 performs a process of shortening the utterance content SCY based on the priority order PRB to obtain the utterance content SCYA, and the utterance content SCYA. It outputs guidance voice data to the voice output device 100 for executing the corresponding voice output SOYA.
  • the priority PRB may be set so that important information as information for moving the vehicle Ve along the route MR is preferentially output by voice. More specifically, for example, the priority order PRB gives first priority to information related to the operation of the vehicle Ve to be performed at the next guidance point (turning right or left, etc.), and the operation to be performed when the vehicle approaches the next guidance point. Information related to the operation of the vehicle Ve (lane change, etc.) that should be used is given second priority, and other information (marks, etc.) related to the next guidance point is given third priority. good.
  • word unit shortening such as changing "kilometer” to "kilo”
  • phrase unit shortening such as deleting one phrase out of a plurality of phrases
  • sentence-by-sentence abbreviations such as deleting one sentence of a plurality of sentences.
  • server apparatus 200 selects at least one of utterance content SCX and utterance content SCY as processing for preventing duplication of voice output SOX and voice output SOY based on priority PRB.
  • a shortening process may be performed.
  • the server apparatus 200 performs a process of shortening the speech content SCX to acquire the speech content SCXA as a process for preventing duplication of the speech output SOX and the speech output SOY based on the priority order PRB, and a process of obtaining the speech content SCXA.
  • At least one of the processes of shortening SCY and acquiring the utterance content SCYA may be performed.
  • the server device 200 performs the voice output SOXA when the vehicle Ve passes the utterance point SPX, and performs the voice output SOY when the vehicle Ve passes the utterance point SPY. can be made Further, according to the present embodiment, the server device 200 performs the voice output SOX when the vehicle Ve passes the utterance point SPX, and performs the voice output SOYA when the vehicle Ve passes the utterance point SPY. can be made
  • FIG. 4 is a diagram for explaining a specific example of processing performed during route guidance.
  • the server device 200 performs a voice output SO1 corresponding to the speech content SC1 in the vehicle Ve when the vehicle Ve passes through the speech point SP1 set immediately after turning left at the intersection KA (guidance point AP1). It outputs to the audio output device 100 voice data for guidance for setting up.
  • the utterance point SP1 is set at the farthest position from the intersection KB (guidance point AP2) among the utterance points SP1 to SP6. Further, for example, when the vehicle Ve traveling at a speed equal to or lower than the legal speed requires less than 5 minutes from the utterance point SP1 to the intersection KB (guidance point AP2), the utterance content SC1 is "Kawagoe It is set in advance as a script such as "I entered the highway. 2 kilometers ahead, on the right.”.
  • the speech content SC1 is, for example, when the vehicle Ve traveling at a speed equal to or lower than the legal speed requires more than 5 minutes from the speech point SP1 to the intersection KB (guide point AP2), "Kawagoe It is set in advance as a script such as "I entered the highway. It will be on the road for about 10 minutes.”
  • the server device 200 is a voice output device that outputs voice data for guidance for causing the vehicle Ve to perform a voice output SO2 corresponding to the utterance content SC2 when the vehicle Ve passes through the utterance point SP2 next to the utterance point SP1. Output to 100.
  • the utterance point SP2 is set at the fifth position closest to the intersection KB (guidance point AP2) among the utterance points SP1 to SP6.
  • the utterance content SC2 is "1 Kilometers ahead, it's right.” is preset as a script.
  • the speech content SC2 is, for example, "10 follow the road for about a minute.Soon, you will pass by a large home center.” is set in advance as a script.
  • the server device 200 is a voice output device that outputs voice data for guidance to cause the vehicle Ve to perform a voice output SO3 corresponding to the utterance content SC3 when the vehicle Ve passes through the utterance point SP3 next to the utterance point SP2. Output to 100.
  • the utterance point SP3 is set at the fourth closest position to the intersection KB (guidance point AP2) among the utterance points SP1 to SP6. Also, the utterance content SC3 is set in advance as a script such as, for example, "Turn right at the second traffic light.” or "Turn right at the second intersection.”
  • the server device 200 outputs the voice output SO4 and the utterance based on the speed of the vehicle Ve included in the driving situation information received from the voice output device 100 immediately before the vehicle Ve passes the utterance point SP4 next to the utterance point SP3. It is determined whether or not at least a part of the voice output SO5 corresponding to the utterance content SC5 at the utterance point SP5 next to the point SP4 overlaps.
  • the utterance point SP4 is set at the third closest position to the intersection KB (guidance point AP2) among the utterance points SP1 to SP6.
  • the utterance content SC4 is, for example, "400 m ahead, turn right at the gas station as a landmark. Head for Kawagoe. Immediately left after that.” or "400 m ahead, turn right at the gas station. Enter the highway, then immediately left.” is preset as a script.
  • the utterance point SP5 is set at the second closest position to the intersection KB (guidance point AP2) among the utterance points SP1 to SP6.
  • the speech content SC5 is set in advance as a script such as, for example, "Soon, the traffic light will come to the right. Please proceed in the right lane.”
  • the server device 200 If the speed of the vehicle Ve just before passing the speech point SP4 exceeds the speed value Vth4 obtained by dividing the distance from the speech point SP4 to SP5 by the speech time related to the voice output SO4, the server device 200 , it is determined that at least a portion of the audio output SO4 and the audio output SO5 overlap. Then, the server device 200 performs processing for preventing duplication of the audio output SO4 and the audio output SO5 based on the priority PRA or PRB.
  • the server device 200 outputs to the voice output device 100 voice data for guidance for performing voice output SO4 when the vehicle Ve passes through the utterance point SP4. Thereafter, based on the priority order PRA, the server device 200 outputs guidance voice data to the voice output device 100 for stopping the voice output SO4 and performing the voice output SO5 when the vehicle Ve passes the speaking point SP5. Output to According to such control, when the vehicle Ve passes the utterance point SP5, for example, the voice output SO4 is truncated until "400 m ahead, turn right at the gas station as a landmark" and “Turn right at the traffic light soon.” Please proceed in the right lane.”, the voice output SO5 is started.
  • the server device 200 when the vehicle Ve passes the utterance point SP4, the server device 200 performs processing for shortening the utterance content SC4 based on the priority order PRB to acquire the utterance content SC4A, and performing processing for obtaining the utterance content SC4A instead of the voice output SO4. It outputs guidance voice data to voice output device 100 for performing voice output SO4A corresponding to utterance content SC4A. Further, for example, when the vehicle Ve passes through the utterance point SP5, the server device 200 performs processing for shortening the utterance content SC5 based on the priority order PRB to acquire the utterance content SC5A, and performing processing for obtaining the utterance content SC5A instead of the voice output SO5.
  • FIG. According to such processing and control, for example, when the vehicle Ve passes the utterance point SP4, the voice output SO4A corresponding to "400 m ahead, on the right, then immediately on the left" is performed. Further, according to the above-described processing and control, for example, when the vehicle Ve passes the utterance point SP5, the voice output SO5A is performed in response to "You are about to turn right. Please proceed in the right lane.”
  • the server device 200 determines that at least a part of the audio output SO4 and the audio output SO5 overlap, the server device 200 determines that the priority PRC different from the priorities PRA and PRB and the vehicle A process of shortening the utterance content SC4 may be performed based on the expected arrival time of Ve to the utterance point SP5.
  • the server device 200 shifts the text of the speech content SC4 to the priority PRC until the speech time related to the speech output SO4 corresponding to the speech content SC4 falls within the expected arrival time of the vehicle Ve to the speech point SP5.
  • the utterance content SC4 is shortened by reducing according to . More specifically, for example, if the utterance content SC4 is "400m ahead, turn right at the gas station as a landmark. Head toward Kawagoe. The utterance content SC4 is shortened by reducing the sentences in the order of "I'm going to the Kawagoe area.” In the priority order PRC, "400m ahead, on the right" corresponding to the main part of the speech content SC4 is set to be excluded from reduction targets. Moreover, each order included in the priority order PRC may be set so that each wording other than the main part of the utterance content SC4 is reduced in order from the end side to the beginning side of the utterance content SC4.
  • the server device 200 determines that the voice output SO4 and the voice output SO5 do not overlap. Therefore, when such determination is made, the voice output SO4 is started when the vehicle Ve passes the utterance point SP4, and the voice output SO4 is completed by the time the vehicle Ve passes the utterance point SP5. do. After that, the server apparatus 200 outputs the voice output SO5 and the following information after the utterance point SP5 based on the speed of the vehicle Ve included in the driving situation information received from the voice output apparatus 100 immediately before the vehicle Ve passes the utterance point SP5. and the voice output SO6 corresponding to the utterance content SC6 at the utterance point SP6.
  • the utterance point SP6 is set at the position closest to the intersection KB (guidance point AP2) among the utterance points SP1 to SP6. Also, the speech content SC6 is set in advance as a script such as, for example, "Turn right at the traffic light. After that, proceed in the left lane.”
  • the server device 200 When the speed of the vehicle Ve immediately before passing the speech point SP5 exceeds the speed value Vth5 obtained by dividing the distance from the speech point SP5 to SP6 by the speech time related to the voice output SO5, the server device 200 , it is determined that at least a portion of the audio output SO5 and the audio output SO6 overlap. Then, the server device 200 performs processing for preventing duplication of the audio output SO5 and the audio output SO6 based on the priority PRA or PRB.
  • the server device 200 outputs to the voice output device 100 voice data for guidance for performing the voice output SO5 when the vehicle Ve passes the utterance point SP5. Thereafter, based on the priority order PRA, the server device 200 outputs guidance voice data to the voice output device 100 for stopping the voice output SO5 and performing the voice output SO6 when the vehicle Ve passes the utterance point SP6. Output to According to such control, when the vehicle Ve passes the utterance point SP6, for example, the voice output SO5 is truncated until "The signal is on the right soon.” Please proceed in the lane of ".” is started.
  • FIG. 5 is a flowchart for explaining the processing performed in the server device during route guidance. It should be noted that the following description of the processing flow conforms to the content described in the "outline of processing performed during the route".
  • the control unit 214 of the server device 200 determines whether or not the speed of the vehicle Ve immediately before passing the speech point SPX exceeds the speed value Vth based on the driving status information of the vehicle Ve (step S11).
  • control unit 214 determines that the speed of the vehicle Ve immediately before passing the utterance point SPX exceeds the speed value Vth (step S11: YES), at least part of the voice output SOX and the voice output SOY are determined to overlap. After that, the control unit 214 performs processing for preventing duplication of the audio output SOX and the audio output SOY based on the preset priority PRA or PRB (step S12).
  • control unit 214 outputs guidance voice data for performing voice output SOX to the voice output device 100 when the vehicle Ve passes the utterance point SPX. After that, as the process of step S12 based on the priority order PRA, the control unit 214 outputs the voice output SOX corresponding to the utterance content SCX of the utterance point SPX at the timing when the voice output SOY starts, that is, when the vehicle Ve reaches the utterance point SPY. is stopped at the timing when it passes through.
  • control unit 214 performs a process of shortening at least one of the utterance content SCX and the utterance content SCY, and also performs a process of shortening at least one of the utterance content SCX and the utterance content SCY. Perform processing for executing output.
  • step S12 When the process of shortening the utterance content SCX to the utterance content SCXA is performed in step S12, when the vehicle Ve passes the utterance point SPX, voice output SOXA corresponding to the utterance content SCXA is performed. Further, when the process of shortening the utterance content SCY to the utterance content SCYA is performed in step S12, the voice output SOYA corresponding to the utterance content SCYA is performed when the vehicle Ve passes the utterance point SPY.
  • step S11: NO the voice output SOX and the voice output SOY do not overlap. I judge.
  • the control unit 214 performs a process for executing the voice output SOX (step S13), and when the vehicle Ve passes the utterance point SPY, the voice A process for executing the output SOY is performed (step S14).
  • control unit 214 of the server device 200 has functions as an utterance setting unit, a determination unit, and a voice duplication prevention unit.
  • the voice for guidance is output without duplication. can be done. Therefore, according to this embodiment, it is possible to reduce the mental burden on the user who uses the vehicle voice guidance.
  • control unit 114 has functions as an utterance setting unit, a determination unit, and a voice duplication prevention unit, a process substantially similar to the series of processes in FIG. It can be done in the device 100 .
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic storage media (e.g., floppy disks, magnetic tapes, hard disk drives), magneto-optical storage media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • audio output device 200 server device 111, 211 communication unit 112, 212 storage unit 113 input unit 114, 214 control unit 115 sensor group 116 display unit 117 microphone 118 speaker 119 exterior camera 120 interior camera

Abstract

音声出力装置は、発話設定部と、判定部と、音声重複防止部と、を有する。発話設定部は、車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する。判定部は、経路に沿って走行する車両の速度に基づいて、第1の発話地点における第1の発話内容に応じた第1の音声出力と、第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する。音声重複防止部は、第1の音声出力及び第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、第1の音声出力及び第2の音声出力の重複を防止するための処理を行う。

Description

音声出力装置、音声出力方法、プログラム及び記憶媒体
 本発明は、車両用の音声案内において利用可能な技術に関する。
 車両の目的地までの経路を音声により案内する装置として、例えば、特許文献1に開示されているような車両用ナビゲーション装置が従来知られている。
特開2010-14653号公報
 ここで、車両用の音声案内によれば、例えば、車両の目的地までの経路のうちの当該車両が高い速度域で走行している区間において、案内用の音声が重複した状態で出力されてしまう場合がある。このような場合においては、案内の内容を十分に把握できないことに起因し、車両用の音声案内を利用するユーザに対して無用な精神的負担を課してしまう、という問題点がある。
 一方、特許文献1には、前述の問題点について特に開示等されていない。そのため、特許文献1に開示された構成によれば、前述の問題点に応じた課題が依然として存在している。
 本発明は、上記の課題を解決するためになされたものであり、車両用の音声案内を利用するユーザの精神的負担を軽減することが可能な音声出力装置を提供することを主な目的とする。
 請求項に記載の発明は、音声出力装置であって、車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する発話設定部と、前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する判定部と、前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う音声重複防止部と、を有する。
 また、請求項に記載の発明は、音声出力方法であって、車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定し、前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定し、前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う。
 また、請求項に記載の発明は、コンピュータを備える音声出力装置により実行されるプログラムであって、車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する発話設定部、前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する判定部、及び、前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う音声重複防止部として前記コンピュータを機能させる。
実施例に係る音声出力システムの構成例を示す図。 音声出力装置の概略構成を示すブロック図。 サーバ装置の概略構成の一例を示す図。 経路案内中に行われる処理の具体例を説明するための図。 経路案内中にサーバ装置において行われる処理を説明するためのフローチャート。
 本発明の1つの好適な実施形態では、音声出力装置は、車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する発話設定部と、前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する判定部と、前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う音声重複防止部と、を有する。
 上記の音声出力装置は、発話設定部と、判定部と、音声重複防止部と、を有する。発話設定部は、車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する。判定部は、前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する。音声重複防止部は、前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う。これにより、車両用の音声案内を利用するユーザの精神的負担を軽減することができる。
 上記の音声出力装置の一態様では、前記判定部は、前記経路に沿って走行する前記車両の速度が所定の算出方法で得られた速度値を超えた場合に、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する。
 上記の音声出力装置の一態様では、前記速度値は、前記第1の発話地点から前記第2の発話地点までの距離を前記第1の音声出力に係る発話時間で除して得られた値である。
 上記の音声出力装置の一態様では、前記音声重複防止部は、前記優先順位に基づいて前記重複を防止するための処理として、前記第1の音声出力に係る発話時間が前記車両の前記第2の発話地点への予想到達時間内に収まるまで、前記第1の発話内容の文言を削減する処理を行う。
 上記の音声出力装置の一態様では、前記複数の発話地点は、所定の速度以下の速度で走行すると仮定した前記車両において、前記複数の発話内容各々に応じた音声出力を重複なしで行わせることが可能なタイミングを示す位置として設定される。
 上記の音声出力装置の一態様では、前記優先順位は、前記第1の発話地点及び前記第2の発話地点のうち、前記経路における前記車両の走行先に位置する案内地点から相対的に近い一の発話地点の発話内容に応じた一の音声出力が優先的に行われるように設定される。
 上記の音声出力装置の一態様では、前記音声重複防止部は、前記優先順位に基づいて前記重複を防止するための処理として、前記第1の発話地点及び前記第2の発話地点のうち、前記案内地点から相対的に遠い他の発話地点の発話内容に応じた他の音声出力を、前記一の音声出力が開始されたタイミングにおいて停止させる処理を行う。
 上記の音声出力装置の一態様では、前記優先順位は、前記経路に沿って前記車両を移動させるための情報として重要な情報の音声出力が優先的に行われるように設定される。
 上記の音声出力装置の一態様では、前記音声重複防止部は、前記優先順位に基づいて前記重複を防止するための処理として、前記第1の発話内容及び前記第2の発話内容のうちの少なくとも一方を短縮する処理を行う。
 本発明の他の実施形態では、音声出力方法は、車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定し、前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定し、前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う。これにより、車両用の音声案内を利用するユーザの精神的負担を軽減することができる。
 本発明のさらに他の実施形態では、コンピュータを備える音声出力装置により実行されるプログラムは、車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する発話設定部、前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する判定部、及び、前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う音声重複防止部として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記の音声出力装置を実現することができる。このプログラムは記憶媒体に記憶して使用することができる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [システム構成]
 (全体構成)
 図1は、実施例に係る音声出力システムの構成例を示す図である。本実施例に係る音声出力システム1は、音声出力装置100と、サーバ装置200とを有する。音声出力装置100は、車両Veに搭載される。サーバ装置200は、複数の車両Veに搭載された複数の音声出力装置100と通信する。
 音声出力装置100は、基本的に車両Veの搭乗者であるユーザに対して、経路探索処理や経路案内処理などを行う。例えば、音声出力装置100は、ユーザにより目的地等が入力されると、車両Veの位置情報や指定された目的地に関する情報などを含むアップロード信号S1をサーバ装置200に送信する。サーバ装置200は、地図データを参照して目的地までの経路を算出し、目的地までの経路を示す制御信号S2を音声出力装置100へ送信する。音声出力装置100は、受信した制御信号S2に基づいて、音声出力によりユーザに対する経路案内を行う。
 また、音声出力装置100は、ユーザとの対話により各種の情報をユーザに提供する。例えば、音声出力装置100は、ユーザが情報要求を行うと、その情報要求の内容又は種類を示す情報、及び、車両Veの走行状態に関する情報などを含むアップロード信号S1をサーバ装置200に供給する。サーバ装置200は、ユーザが要求する情報を取得、生成し、制御信号S2として音声出力装置100へ送信する。音声出力装置100は、受信した情報を、音声出力によりユーザに提供する。
 (音声出力装置)
 音声出力装置100は、車両Veと共に移動し、案内経路に沿って車両Veが走行するように、音声を主とした経路案内を行う。なお、「音声を主とした経路案内」は、案内経路に沿って車両Veを運転するために必要な情報をユーザが少なくとも音声のみから把握可能な経路案内を指し、音声出力装置100が現在位置周辺の地図などを補助的に表示することを除外するものではない。本実施例では、音声出力装置100は、少なくとも、案内が必要な経路上の地点(「案内地点」とも呼ぶ。)など、運転に係る様々な情報を音声により出力する。ここで、案内地点は、例えば車両Veの右左折を伴う交差点、その他、案内経路に沿って車両Veが走行するために重要な通過地点が該当する。音声出力装置100は、例えば、車両Veから次の案内地点までの距離、当該案内地点での進行方向などの案内地点に関する音声案内を行う。以後では、案内経路に対する案内に関する音声を「経路音声案内」とも呼ぶ。
 音声出力装置100は、例えば車両Veのフロントガラスの上部、又は、ダッシュボード上などに取り付けられる。なお、音声出力装置100は、車両Veに組み込まれてもよい。
 図2は、音声出力装置100の概略構成を示すブロック図である。音声出力装置100は、主に、通信部111と、記憶部112と、入力部113と、制御部114と、センサ群115と、表示部116と、マイク117と、スピーカ118と、車外カメラ119と、車内カメラ120と、を有する。音声出力装置100内の各要素は、バスライン110を介して相互に接続されている。
 通信部111は、制御部114の制御に基づき、サーバ装置200とのデータ通信を行う。通信部111は、例えば、後述する地図DB(DataBase)4を更新するための地図データをサーバ装置200から受信してもよい。
 記憶部112は、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部112には、音声出力装置100が所定の処理を実行するためのプログラムが記憶される。上述のプログラムは、経路案内を音声により行うためのアプリケーションプログラム、音楽を再生するためのアプリケーションプログラム、音楽以外のコンテンツ(テレビ等)を出力するためのアプリケーションプログラムなどを含んでもよい。また、記憶部112は、制御部114の作業メモリとしても使用される。なお、音声出力装置100が実行するプログラムは、記憶部112以外の記憶媒体に記憶されてもよい。
 また、記憶部112は、地図データベース(以下、データベースを「DB」と記す。)4を記憶する。地図DB4には、経路案内に必要な種々のデータが記録されている。地図DB4は、例えば、道路網をノードとリンクの組合せにより表した道路データ、及び、目的地、立寄地、又はランドマークの候補となる施設を示す施設データなどを記憶している。地図DB4は、制御部114の制御に基づき、通信部111が地図管理サーバから受信する地図情報に基づき更新されてもよい。
 入力部113は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ等である。表示部116は、制御部114の制御に基づき表示を行うディスプレイ等である。マイク117は、車両Veの車内の音声、特に運転手の発話などを集音する。スピーカ118は、運転手などに対して、経路案内のための音声を出力する。
 センサ群115は、外界センサ121と、内界センサ122とを含む。外界センサ121は、例えば、ライダ、レーダ、超音波センサ、赤外線センサ、ソナーなどの車両Veの周辺環境を認識するための1又は複数のセンサである。内界センサ122は、車両Veの測位を行うセンサであり、例えば、GNSS(Global Navigation Satellite System)受信機、ジャイロセンサ、IMU(Inertial Measurement Unit)、車速センサ、又はこれらの組合せである。なお、センサ群115は、制御部114がセンサ群115の出力から車両Veの位置を直接的に又は間接的に(即ち推定処理を行うことによって)導出可能なセンサを有していればよい。
 車外カメラ119は、車両Veの外部を撮影するカメラである。車外カメラ119は、車両の前方を撮影するフロントカメラのみでもよく、フロントカメラに加えて車両の後方を撮影するリアカメラを含んでもよく、車両Veの全周囲を撮影可能な全方位カメラであってもよい。一方、車内カメラ120は、車両Veの車内の様子を撮影するカメラであり、少なくとも運転席周辺を撮影可能な位置に設けられる。
 制御部114は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含み、音声出力装置100の全体を制御する。例えば、制御部114は、センサ群115の1又は複数のセンサの出力に基づき、車両Veの位置(進行方向の向きも含む)を推定する。また、制御部114は、入力部113又はマイク117により目的地が指定された場合に、当該目的地までの経路である案内経路を示す経路情報を生成し、当該経路情報と推定した車両Veの位置情報と地図DB4とに基づき、経路案内を行う。この場合、制御部114は、経路音声案内をスピーカ118から出力させる。また、制御部114は、表示部116を制御することで、再生中の音楽の情報、映像コンテンツ、又は現在位置周辺の地図などの表示を行う。
 なお、制御部114が実行する処理は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、制御部114が実行する処理は、例えばFPGA(field-programmable gate array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、制御部114が本実施例において実行するプログラムを実現してもよい。このように、制御部114は、プロセッサ以外のハードウェアにより実現されてもよい。
 図2に示す音声出力装置100の構成は一例であり、図2に示す構成に対して種々の変更がなされてもよい。例えば、地図DB4を記憶部112が記憶する代わりに、制御部114が通信部111を介して経路案内に必要な情報をサーバ装置200から受信してもよい。他の例では、音声出力装置100は、スピーカ118を備える代わりに、音声出力装置100とは別体に構成された音声出力部と電気的に又は公知の通信手段によって接続することで、当該音声出力部から音声を出力させてもよい。この場合、音声出力部は、車両Veに備えられたスピーカであってもよい。さらに別の例では、音声出力装置100は、表示部116を備えなくともよい。この場合、音声出力装置100は、表示に関する制御を全く行わなくともよく、有線又は無線により、車両Ve等に備えられた表示部と電気的に接続することで、当該表示部に所定の表示を実行させてもよい。同様に、音声出力装置100は、センサ群115を備える代わりに、車両Veに備え付けられたセンサが出力する情報を、車両VeからCAN(Controller Area Network)などの通信プロトコルに基づき取得してもよい。
 (サーバ装置)
 サーバ装置200は、音声出力装置100から受信する目的地等を含むアップロード信号S1に基づき、車両Veが走行すべき案内経路を示す経路情報を生成する。そして、サーバ装置200は、その後に音声出力装置100が送信するアップロード信号S1が示すユーザの情報要求及び車両Veの走行状態に基づき、ユーザの情報要求に対する情報出力に関する制御信号S2を生成する。そして、サーバ装置200は、生成した制御信号S2を、音声出力装置100に送信する。
 図3は、サーバ装置200の概略構成の一例を示す図である。サーバ装置200は、主に、通信部211と、記憶部212と、制御部214とを有する。サーバ装置200内の各要素は、バスライン210を介して相互に接続されている。
 通信部211は、制御部214の制御に基づき、音声出力装置100などの外部装置とのデータ通信を行う。記憶部212は、RAM、ROM、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部212は、サーバ装置200が所定の処理を実行するためのプログラムが記憶される。また、記憶部212は、地図DB4を含んでいる。
 制御部214は、CPU、GPUなどを含み、サーバ装置200の全体を制御する。また、制御部214は、記憶部212に記憶されたプログラムを実行することで、音声出力装置100とともに動作し、ユーザに対する経路案内処理や情報提供処理などを実行する。例えば、制御部214は、音声出力装置100から通信部211を介して受信するアップロード信号S1に基づき、案内経路を示す経路情報、又は、ユーザの情報要求に対する情報出力に関する制御信号S2を生成する。そして、制御部214は、生成した制御信号S2を、通信部211により音声出力装置100に送信する。
 [発話に係る処理]
 続いて、本実施例において行われる発話に係る処理について説明する。
 (発話地点及び発話内容の設定)
 まず、発話地点及び発話内容の設定に係る処理について説明する。
 サーバ装置200は、車両Veにおいて経路案内が開始された際に、記憶部212に格納されている地図DB4と、通信部211において受信した当該車両Veの運転状況情報と、に基づき、当該車両Veの現在地から目的地までの案内経路(以降、経路MRと称する)を取得する。
 運転状況情報には、車両Veの現在の運転状況を示す情報が含まれている。具体的には、運転状況情報には、例えば、車両Veの現在地と、当該車両Veの目的地と、当該車両Veの速度と、が含まれている。また、運転状況情報には、例えば、車両Veの方位、当該車両Veの位置の周辺の交通情報(速度規制及び渋滞情報等を含む)、及び、現在時刻等のような、音声出力装置100の各部の機能に基づいて取得可能な情報が含まれていてもよい。また、運転状況情報には、マイク117により得られた音声、車外カメラ119により撮影された画像、及び、車内カメラ120により撮影された画像のうちのいずれかが含まれていてもよい。また、運転状況情報には、通信部111を通じてサーバ装置200から受信した情報が含まれていてもよい。
 次に、サーバ装置200は、経路MRにおいて、複数の案内地点と、当該複数の案内地点各々に対応する複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する。
 前述の複数の発話内容は、車両Veを次の案内地点に誘導するための情報を少なくとも含むように設定される。また、前述の複数の発話地点は、所定の速度(例えば法定速度)以下の速度で走行すると仮定した車両Ve(の音声出力装置100)において、前述の複数の発話内容各々に応じた音声出力を重複なしで行うことが可能なタイミングを示す位置として設定される。
 (経路案内中に行われる処理の概要)
 次に、経路案内中に行われる処理の概要について説明する。なお、以下の概要の説明においては、経路MRに設定された互いに隣接する2つの案内地点を結ぶ区間において発話地点SPX及び発話地点SPYを含む複数の発話地点が設定され、当該発話地点SPXにおける発話内容SCXが設定され、当該発話地点SPYにおける発話内容SCYが設定されているものとする。また、以下の概要の説明においては、車両Veが、経路MRにおける当該車両Veの走行先に位置する案内地点から相対的に遠い発話地点SPXを通過した後で、当該案内地点から相対的に近い発話地点SPYを通過するものとする。また、以下の概要の説明に係る処理は、経路MRに沿って走行する車両Veの現在地が、当該車両Veの運転状況情報に基づいて常に検知されている状態で行われるものとする。
 サーバ装置200は、例えば、車両Veが発話地点SPXを通過する直前に、音声出力装置100から受信した運転状況情報に含まれる車両Veの速度に基づき、音声出力SOXと、発話内容SCYに応じた音声出力SOYと、の少なくとも一部が重複するか否かを判定する。
 サーバ装置200は、発話地点SPXを通過する直前の車両Veの速度が、発話地点SPXからSPYまでの距離を音声出力SOXに係る発話時間で除して得られた速度値Vth以下である場合には、音声出力SOX及び音声出力SOYが重複しないと判定する。そして、このような場合には、サーバ装置200は、発話地点SPXを車両Veが通過した際に、発話内容SCXに応じた音声出力SOXを行わせるための案内用の音声データを音声出力装置100へ出力する。その後、サーバ装置200は、発話地点SPYを車両Veが通過した際に、発話内容SCYに応じた音声出力SOYを行わせるための案内用の音声データを音声出力装置100へ出力する。
 サーバ装置200は、発話地点SPXを通過する直前の車両Veの速度が速度値Vthを超えている場合には、音声出力SOX及び音声出力SOYの少なくとも一部が重複すると判定する。そして、このような場合には、サーバ装置200は、予め設定された優先順位に基づき、音声出力SOX及び音声出力SOYの重複を防止するための処理を行う。
 具体的には、サーバ装置200は、発話地点SPXを車両Veが通過した際に、音声出力SOXを行わせるための案内用の音声データを音声出力装置100へ出力する。その後、サーバ装置200は、優先順位PRAに基づき、例えば、発話地点SPYを車両Veが通過した際に、音声出力SOXを停止させかつ音声出力SOYを行わせるための音声データを音声出力装置100へ出力する。換言すると、サーバ装置200は、優先順位PRAに基づき、発話地点SPXの発話内容SCXに応じた音声出力SOXを、音声出力SOYが開始されるタイミングにおいて停止させる処理を行う。優先順位PRAは、経路MRにおける車両Veの走行先に位置する案内地点から相対的に近い一の発話地点の発話内容に応じた一の音声出力が優先的に行われるように設定されていればよい。すなわち、本実施例によれば、サーバ装置200は、優先順位PRAに基づいて音声出力SOX及び音声出力SOYの重複を防止するための処理として、経路MRにおける車両Veの走行先に位置する案内地点から相対的に遠い発話地点SPXの発話内容に応じた音声出力SOXを、音声出力SOYが開始されるタイミングにおいて停止させる処理を行えばよい。また、サーバ装置200は、優先順位PRAに基づく前述の処理を行う場合には、発話地点SPXを通過する直前から発話地点SPYを通過する直前までの期間に属するいずれかのタイミングにおける車両Veの速度が速度値Vthを超えたか否かに応じ、音声出力SOX及び音声出力SOYの少なくとも一部が重複するか否かを判定すればよい。
 または、サーバ装置200は、例えば、発話地点SPXを車両Veが通過した際に、優先順位PRBに基づいて発話内容SCXを短縮して発話内容SCXAを取得する処理を行うとともに、音声出力SOXの代わりに当該発話内容SCXAに応じた音声出力SOXAを実施させるための案内用の音声データを音声出力装置100へ出力する。さらに、サーバ装置200は、例えば、発話地点SPYを車両Veが通過した際に、優先順位PRBに基づいて発話内容SCYを短縮して発話内容SCYAを取得する処理を行うとともに、当該発話内容SCYAに応じた音声出力SOYAを実施させるための案内用の音声データを音声出力装置100へ出力する。優先順位PRBは、経路MRに沿って車両Veを移動させるための情報として重要な情報が優先的に音声出力されるように設定されていればよい。より具体的には、優先順位PRBは、例えば、次の案内地点において行うべき車両Veの操作(右左折等)に係る情報を第1に優先し、当該次の案内地点に近づいた際に行った方がよい車両Veの操作(車線変更等)に係る情報を第2に優先し、当該次の案内地点に係るその他の情報(目印等)を第3に優先するように設定されていればよい。また、発話内容を短縮する処理においては、例えば、「キロメートル」を「キロ」に変更するようなワード単位の短縮、複数のフレーズのうちの1つのフレーズを削除するようなフレーズ単位の短縮、及び、複数のセンテンスのうちの1つのセンテンスを削除するようなセンテンス単位の短縮のうちのいずれかが含まれていればよい。
 なお、本実施例によれば、サーバ装置200は、優先順位PRBに基づいて音声出力SOX及び音声出力SOYの重複を防止するための処理として、発話内容SCX及び発話内容SCYのうちの少なくとも一方を短縮する処理を行えばよい。換言すると、サーバ装置200は、優先順位PRBに基づいて音声出力SOX及び音声出力SOYの重複を防止するための処理として、発話内容SCXを短縮して発話内容SCXAを取得する処理、及び、発話内容SCYを短縮して発話内容SCYAを取得する処理のうちの少なくとも一方の処理を行えばよい。そのため、本実施例によれば、サーバ装置200は、発話地点SPXを車両Veが通過した際に音声出力SOXAを実施させるとともに、発話地点SPYを当該車両Veが通過した際に音声出力SOYを実施させることができる。また、本実施例によれば、サーバ装置200は、発話地点SPXを車両Veが通過した際に音声出力SOXを実施させるとともに、発話地点SPYを当該車両Veが通過した際に音声出力SOYAを実施させることができる。
 (経路案内中に行われる処理の具体例)
 次に、経路案内中に行われる処理の具体例について説明する。なお、以下の具体例の説明においては、図4に示すように、経路MRにおける交差点KAに案内地点AP1が設定され、当該経路MRにおいて当該交差点KAよりも目的地に近い交差点KBに案内地点AP2が設定されているものとする。また、以下の具体例の説明においては、図4に示すように、案内地点AP1及び案内地点AP2を結ぶ区間において、6つの発話地点SP1~SP6が設定されているものとする。また、以下の具体例の説明においては、発話地点SP1~SP6各々における発話内容SC1~SC6が予め設定されているものとする。また、以下の具体例の説明においては、経路MRに沿って走行する車両Veが、発話地点SP1、SP2、SP3、SP4、SP5及びSP6をこの順番で通過するものとする。また、以下の具体例の説明に係る処理は、経路MRに沿って走行する車両Veの現在地が、当該車両Veの運転状況情報に基づいて常に検知されている状態で行われるものとする。図4は、経路案内中に行われる処理の具体例を説明するための図である。
 サーバ装置200は、交差点KA(案内地点AP1)を左折した直後の位置に設定されている発話地点SP1を車両Veが通過した際に、当該車両Veにおいて発話内容SC1に応じた音声出力SO1を行わせるための案内用の音声データを音声出力装置100へ出力する。
 発話地点SP1は、発話地点SP1~SP6のうち、交差点KB(案内地点AP2)から最も遠い位置に設定されている。また、発話内容SC1は、例えば、法定速度以下の速度で走行している車両Veにおいて、発話地点SP1から交差点KB(案内地点AP2)までに要する時間が5分未満である場合には、「川越街道に入りました。2キロ先、右です。」のようなスクリプトとして予め設定される。また、発話内容SC1は、例えば、法定速度以下の速度で走行している車両Veにおいて、発話地点SP1から交差点KB(案内地点AP2)までに要する時間が5分以上である場合には、「川越街道に入りました。10分程度、道なりです。」のようなスクリプトとして予め設定される。
 サーバ装置200は、発話地点SP1の次の発話地点SP2を車両Veが通過した際に、当該車両Veにおいて発話内容SC2に応じた音声出力SO2を行わせるための案内用の音声データを音声出力装置100へ出力する。
 発話地点SP2は、発話地点SP1~SP6のうち、交差点KB(案内地点AP2)に5番目に近い位置に設定されている。また、発話内容SC2は、例えば、法定速度以下の速度で走行している車両Veにおいて、発話地点SP2から交差点KB(案内地点AP2)までに要する時間が5分未満である場合には、「1キロ先、右です。」のようなスクリプトとして予め設定される。また、発話内容SC2は、例えば、法定速度以下の速度で走行している車両Veにおいて、発話地点SP2から交差点KB(案内地点AP2)までに要する時間が5分以上である場合には、「10分程度、道なりです。まもなく、大型ホームセンターの横を通過します。」のようなスクリプトとして予め設定される。
 サーバ装置200は、発話地点SP2の次の発話地点SP3を車両Veが通過した際に、当該車両Veにおいて発話内容SC3に応じた音声出力SO3を行わせるための案内用の音声データを音声出力装置100へ出力する。
 発話地点SP3は、発話地点SP1~SP6のうち、交差点KB(案内地点AP2)に4番目に近い位置に設定されている。また、発話内容SC3は、例えば、「2つ目の信号を右です。」、または、「2つ目の交差点を右です。」のようなスクリプトとして予め設定される。
 サーバ装置200は、発話地点SP3の次の発話地点SP4を車両Veが通過する直前に、音声出力装置100から受信した運転状況情報に含まれる車両Veの速度に基づき、音声出力SO4と、当該発話地点SP4の次の発話地点SP5における発話内容SC5に応じた音声出力SO5と、の少なくとも一部が重複するか否かを判定する。
 発話地点SP4は、発話地点SP1~SP6のうち、交差点KB(案内地点AP2)に3番目に近い位置に設定されている。また、発話内容SC4は、例えば、「400m先、ガソリンスタンドを目印に右です。川越方面に向かいます。そのあとすぐ左です。」、または、「400m先、ガソリンスタンドを目印に右です。青梅街道に入ります。そのあとすぐ左です。」のようなスクリプトとして予め設定される。
 発話地点SP5は、発話地点SP1~SP6のうち、交差点KB(案内地点AP2)に2番目に近い位置に設定されている。また、発話内容SC5は、例えば、「まもなく信号を右です。右側の車線を進んでください。」のようなスクリプトとして予め設定される。
 サーバ装置200は、発話地点SP4を通過する直前における車両Veの速度が、発話地点SP4からSP5までの距離を音声出力SO4に係る発話時間により除して得られた速度値Vth4を超えている場合には、音声出力SO4と、音声出力SO5と、の少なくとも一部が重複すると判定する。そして、サーバ装置200は、優先順位PRAまたはPRBに基づき、音声出力SO4及び音声出力SO5の重複を防止するための処理を行う。
 具体的には、サーバ装置200は、発話地点SP4を車両Veが通過した際に、音声出力SO4を行わせるための案内用の音声データを音声出力装置100へ出力する。その後、サーバ装置200は、優先順位PRAに基づき、発話地点SP5を車両Veが通過した際に、音声出力SO4を停止させかつ音声出力SO5を行わせるための案内用の音声データを音声出力装置100へ出力する。このような制御によれば、発話地点SP5を車両Veが通過した際に、例えば、音声出力SO4が「400m先、ガソリンスタンドを目印に右です。」までで打ち切られるとともに、「まもなく信号を右です。右側の車線を進んでください。」に応じた音声出力SO5が開始される。
 または、サーバ装置200は、発話地点SP4を車両Veが通過した際に、優先順位PRBに基づいて発話内容SC4を短縮して発話内容SC4Aを取得する処理を行うとともに、音声出力SO4の代わりに当該発話内容SC4Aに応じた音声出力SO4Aを実施させるための案内用の音声データを音声出力装置100へ出力する。さらに、サーバ装置200は、例えば、発話地点SP5を車両Veが通過した際に、優先順位PRBに基づいて発話内容SC5を短縮して発話内容SC5Aを取得する処理を行うとともに、音声出力SO5の代わりに当該発話内容SC5Aに応じた音声出力SO5Aを実施させるための案内用の音声データを音声出力装置100へ出力する。このような処理及び制御によれば、例えば、車両Veが発話地点SP4を通過した際に、「400m先、右です。そのあとすぐ左です。」に応じた音声出力SO4Aが行われる。また、前述の処理及び制御によれば、例えば、車両Veが発話地点SP5を通過した際に、「まもなく右です。右側の車線を進んでください。」に応じた音声出力SO5Aが行われる。
 なお、本実施例によれば、サーバ装置200は、音声出力SO4と、音声出力SO5と、の少なくとも一部が重複すると判定した場合に、優先順位PRA及びPRBとは異なる優先順位PRCと、車両Veの発話地点SP5への予想到達時間と、に基づいて発話内容SC4を短縮する処理を行うようにしてもよい。
 具体的には、サーバ装置200は、発話内容SC4に応じた音声出力SO4に係る発話時間が車両Veの発話地点SP5への予想到達時間内に収まるまで、当該発話内容SC4の文言を優先順位PRCに従って削減することにより、発話内容SC4を短縮する。より具体的には、サーバ装置200は、例えば、発話内容SC4が「400m先、ガソリンスタンドを目印に右です。川越方面に向かいます。そのあとすぐ左です。」である場合には、「そのあとすぐ左です。」、「川越方面に向かいます。」、及び、「ガソリンスタンドを目印に」の順に文言を削減することにより、当該発話内容SC4を短縮する。なお、優先順位PRCにおいては、発話内容SC4の要部に相当する「400m先、右です。」が削減対象外に設定されている。また、優先順位PRCに含まれる各順位は、発話内容SC4の要部以外の各文言について、当該発話内容SC4の末尾側から先頭側にかけて順番に削減されるように設定されていればよい。
 一方、サーバ装置200は、発話地点SP4を通過する直前における車両Veの速度が速度値Vth4以下である場合には、音声出力SO4と、音声出力SO5と、が重複しないと判定する。そのため、このような判定が行われた場合には、発話地点SP4を車両Veが通過した際に音声出力SO4が開始され、発話地点SP5を当該車両Veが通過するまでに当該音声出力SO4が完了する。その後、サーバ装置200は、発話地点SP5を車両Veが通過する直前に、音声出力装置100から受信した運転状況情報に含まれる車両Veの速度に基づき、音声出力SO5と、当該発話地点SP5の次の発話地点SP6における発話内容SC6に応じた音声出力SO6と、の少なくとも一部が重複するか否かを判定する。
 発話地点SP6は、発話地点SP1~SP6のうち、交差点KB(案内地点AP2)に最も近い位置に設定されている。また、発話内容SC6は、例えば、「信号を右です。そのあと、左の車線を進んでください。」のようなスクリプトとして予め設定される。
 サーバ装置200は、発話地点SP5を通過する直前における車両Veの速度が、発話地点SP5からSP6までの距離を音声出力SO5に係る発話時間により除して得られた速度値Vth5を超えている場合には、音声出力SO5と、音声出力SO6と、の少なくとも一部が重複すると判定する。そして、サーバ装置200は、優先順位PRAまたはPRBに基づき、音声出力SO5及び音声出力SO6の重複を防止するための処理を行う。
 具体的には、サーバ装置200は、発話地点SP5を車両Veが通過した際に、音声出力SO5を行わせるための案内用の音声データを音声出力装置100へ出力する。その後、サーバ装置200は、優先順位PRAに基づき、発話地点SP6を車両Veが通過した際に、音声出力SO5を停止させかつ音声出力SO6を行わせるための案内用の音声データを音声出力装置100へ出力する。このような制御によれば、発話地点SP6を車両Veが通過した際に、例えば、音声出力SO5が「まもなく信号を右です。」までで打ち切られるとともに、「信号を右です。そのあと、左の車線を進んでください。」に応じた音声出力SO6が開始される。
 以上に述べたような処理によれば、経路MRのうちの車両Veが所定の算出方法で得られた速度値(Vth4及びVth5)を超える速度で走行している区間において、発話内容に応じた音声出力を重複させないようにすることができる。
 (処理フロー)
 続いて、経路案内中にサーバ装置200において行われる処理について説明する。図5は、経路案内中にサーバ装置において行われる処理を説明するためのフローチャートである。なお、以下の処理フローの説明は、「経路中に行われる処理の概要」において述べた内容に準じているものとする。
 サーバ装置200の制御部214は、車両Veの運転状況情報に基づき、発話地点SPXを通過する直前の当該車両Veの速度が速度値Vthを超えたか否かを判定する(ステップS11)。
 制御部214は、発話地点SPXを通過する直前の当該車両Veの速度が速度値Vthを超えていると判定した場合(ステップS11:YES)には、音声出力SOX及び音声出力SOYの少なくとも一部が重複すると判定する。その後、制御部214は、予め設定された優先順位PRAまたはPRBに基づき、音声出力SOX及び音声出力SOYの重複を防止するための処理を行う(ステップS12)。
 具体的には、制御部214は、発話地点SPXを車両Veが通過した際に、音声出力SOXを行わせるための案内用の音声データを音声出力装置100へ出力する。その後、制御部214は、優先順位PRAに基づくステップS12の処理として、発話地点SPXの発話内容SCXに応じた音声出力SOXを、音声出力SOYが開始されるタイミング、すなわち、車両Veが発話地点SPYを通過したタイミングにおいて停止させる処理を行う。
 または、制御部214は、優先順位PRBに基づくステップS12の処理として、発話内容SCX及び発話内容SCYのうちの少なくとも一方を短縮する処理を行うとともに、当該処理により得られた発話内容に応じた音声出力を実施させるための処理を行う。
 発話内容SCXを発話内容SCXAに短縮する処理がステップS12において行われた場合には、車両Veが発話地点SPXを通過した際に、当該発話内容SCXAに応じた音声出力SOXAが行われる。また、発話内容SCYを発話内容SCYAに短縮する処理がステップS12において行われた場合には、車両Veが発話地点SPYを通過した際に、当該発話内容SCYAに応じた音声出力SOYAが行われる。
 一方、制御部214は、発話地点SPXを通過する直前の当該車両Veの速度が速度値Vth以下であると判定した場合(ステップS11:NO)には、音声出力SOX及び音声出力SOYが重複しないと判定する。その後、制御部214は、車両Veが発話地点SPXを通過した際に、音声出力SOXを実施させるための処理を行う(ステップS13)とともに、当該車両Veが発話地点SPYを通過した際に、音声出力SOYを実施させるための処理を行う(ステップS14)。
 本実施例によれば、サーバ装置200の制御部214は、発話設定部、判定部、及び、音声重複防止部としての機能を有する。
 以上に述べたように、本実施例によれば、経路MRに沿って走行する車両Veの速度が速度値Vthを超えた場合であっても、案内用の音声を重複させずに出力することができる。そのため、本実施例によれば、車両用の音声案内を利用するユーザの精神的負担を軽減することができる。
 なお、本実施例によれば、例えば、制御部114が発話設定部、判定部、及び、音声重複防止部としての機能を有する場合に、図5の一連の処理と略同様の処理を音声出力装置100において行うことができる。
 上述した実施例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータである制御部等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
 100 音声出力装置
 200 サーバ装置
 111、211 通信部
 112、212 記憶部
 113 入力部
 114、214 制御部
 115 センサ群
 116 表示部
 117 マイク
 118 スピーカ
 119 車外カメラ
 120 車内カメラ

Claims (12)

  1.  車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する発話設定部と、
     前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する判定部と、
     前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う音声重複防止部と、
     を有する音声出力装置。
  2.  前記判定部は、前記経路に沿って走行する前記車両の速度が所定の算出方法で得られた速度値を超えた場合に、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する請求項1に記載の音声出力装置。
  3.  前記速度値は、前記第1の発話地点から前記第2の発話地点までの距離を前記第1の音声出力に係る発話時間で除して得られた値である請求項2に記載の音声出力装置。
  4.  前記音声重複防止部は、前記優先順位に基づいて前記重複を防止するための処理として、前記第1の音声出力に係る発話時間が前記車両の前記第2の発話地点への予想到達時間内に収まるまで、前記第1の発話内容の文言を削減する処理を行う請求項2に記載の音声出力装置。
  5.  前記複数の発話地点は、所定の速度以下の速度で走行すると仮定した前記車両において、前記複数の発話内容各々に応じた音声出力を重複なしで行わせることが可能なタイミングを示す位置として設定される請求項1に記載の音声出力装置。
  6.  前記優先順位は、前記第1の発話地点及び前記第2の発話地点のうち、前記経路における前記車両の走行先に位置する案内地点から相対的に近い一の発話地点の発話内容に応じた一の音声出力が優先的に行われるように設定される請求項1に記載の音声出力装置。
  7.  前記音声重複防止部は、前記優先順位に基づいて前記重複を防止するための処理として、前記第1の発話地点及び前記第2の発話地点のうち、前記案内地点から相対的に遠い他の発話地点の発話内容に応じた他の音声出力を、前記一の音声出力が開始されたタイミングにおいて停止させる処理を行う請求項6に記載の音声出力装置。
  8.  前記優先順位は、前記経路に沿って前記車両を移動させるための情報として重要な情報の音声出力が優先的に行われるように設定される請求項1に記載の音声出力装置。
  9.  前記音声重複防止部は、前記優先順位に基づいて前記重複を防止するための処理として、前記第1の発話内容及び前記第2の発話内容のうちの少なくとも一方を短縮する処理を行う請求項8に記載の音声出力装置。
  10.  車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定し、
     前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定し、
     前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う音声出力方法。
  11.  コンピュータを備える音声出力装置により実行されるプログラムであって、
     車両の目的地までの経路に基づき、複数の発話地点と、当該複数の発話地点各々における複数の発話内容と、を設定する発話設定部、
     前記経路に沿って走行する前記車両の速度に基づいて、前記複数の発話地点のうちの第1の発話地点における第1の発話内容に応じた第1の音声出力と、前記複数の発話地点のうちの第2の発話地点における第2の発話内容に応じた第2の音声出力と、の少なくとも一部が重複すると判定する判定部、及び、
     前記第1の音声出力及び前記第2の音声出力の少なくとも一部が重複すると判定された場合に、予め設定された優先順位に基づき、前記第1の音声出力及び前記第2の音声出力の重複を防止するための処理を行う音声重複防止部として前記コンピュータを機能させるプログラム。
  12.  請求項11に記載のプログラムを記憶した記憶媒体。
PCT/JP2021/040102 2021-10-29 2021-10-29 音声出力装置、音声出力方法、プログラム及び記憶媒体 WO2023073948A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040102 WO2023073948A1 (ja) 2021-10-29 2021-10-29 音声出力装置、音声出力方法、プログラム及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040102 WO2023073948A1 (ja) 2021-10-29 2021-10-29 音声出力装置、音声出力方法、プログラム及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2023073948A1 true WO2023073948A1 (ja) 2023-05-04

Family

ID=86157622

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040102 WO2023073948A1 (ja) 2021-10-29 2021-10-29 音声出力装置、音声出力方法、プログラム及び記憶媒体

Country Status (1)

Country Link
WO (1) WO2023073948A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007157284A (ja) * 2005-12-07 2007-06-21 Xanavi Informatics Corp 音声データ再生方法およびプログラム
JP2009250622A (ja) * 2008-04-01 2009-10-29 Pioneer Electronic Corp ナビゲーション装置、ルート案内方法、及びルート案内プログラム
JP2010014653A (ja) 2008-07-07 2010-01-21 Denso Corp 車両用ナビゲーション装置
JP2012168243A (ja) * 2011-02-10 2012-09-06 Alpine Electronics Inc 音声出力装置
JP2013101083A (ja) * 2011-11-09 2013-05-23 Hitachi Automotive Systems Ltd ナビゲーションシステム、ナビゲーション装置、方法及びサーバ
JP2014071588A (ja) * 2012-09-28 2014-04-21 Aisin Aw Co Ltd 評価案内システム、方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007157284A (ja) * 2005-12-07 2007-06-21 Xanavi Informatics Corp 音声データ再生方法およびプログラム
JP2009250622A (ja) * 2008-04-01 2009-10-29 Pioneer Electronic Corp ナビゲーション装置、ルート案内方法、及びルート案内プログラム
JP2010014653A (ja) 2008-07-07 2010-01-21 Denso Corp 車両用ナビゲーション装置
JP2012168243A (ja) * 2011-02-10 2012-09-06 Alpine Electronics Inc 音声出力装置
JP2013101083A (ja) * 2011-11-09 2013-05-23 Hitachi Automotive Systems Ltd ナビゲーションシステム、ナビゲーション装置、方法及びサーバ
JP2014071588A (ja) * 2012-09-28 2014-04-21 Aisin Aw Co Ltd 評価案内システム、方法およびプログラム

Similar Documents

Publication Publication Date Title
US11267468B2 (en) Automatic driving assistance apparatus
US10160413B2 (en) Vehicle and control method thereof
JP2982709B2 (ja) 交差点案内装置
US11220180B2 (en) Autonomous driving apparatus and navigation apparatus
JP2007010628A (ja) ナビゲーション装置およびナビゲーション方法
JP2002202147A (ja) ナビゲーション装置
JP2023105143A (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
WO2023073948A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP7030034B2 (ja) 推奨レーン判定装置
WO2021192511A1 (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
JP4900197B2 (ja) 経路導出装置、車両制御装置、及びナビゲーション装置
WO2023073935A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP3283147B2 (ja) ナビゲーション装置
WO2023112148A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023163196A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
JP3000601B2 (ja) 走行案内装置
CN111273652A (zh) 自动驾驶装置
WO2023286827A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023163197A1 (ja) コンテンツ評価装置、コンテンツ評価方法、プログラム及び記憶媒体
WO2023062816A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
JP7467601B2 (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
JP2003166840A (ja) カーナビゲーション装置
JP7275395B2 (ja) ナビゲーション装置および目的地入力支援方法
JP2023088005A (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP7153191B2 (ja) 情報提供装置及び車載装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21962489

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023556053

Country of ref document: JP