WO2023112147A1 - 音声出力装置、音声出力方法、プログラム及び記憶媒体 - Google Patents

音声出力装置、音声出力方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2023112147A1
WO2023112147A1 PCT/JP2021/046052 JP2021046052W WO2023112147A1 WO 2023112147 A1 WO2023112147 A1 WO 2023112147A1 JP 2021046052 W JP2021046052 W JP 2021046052W WO 2023112147 A1 WO2023112147 A1 WO 2023112147A1
Authority
WO
WIPO (PCT)
Prior art keywords
guidance
section
output device
vehicle
voice
Prior art date
Application number
PCT/JP2021/046052
Other languages
English (en)
French (fr)
Inventor
敦博 山中
高志 飯澤
敬太 倉持
孝太郎 福井
匡弘 岩田
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2021/046052 priority Critical patent/WO2023112147A1/ja
Publication of WO2023112147A1 publication Critical patent/WO2023112147A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Definitions

  • the present invention relates to technology that can be used in audio output.
  • Patent Literature 1 proposes a method of guiding a user to easily understand tunnel information while driving.
  • Patent Document 1 Even with Patent Document 1, it is not always possible to provide highly accurate guidance for guidance points in tunnels.
  • the present invention has been made to solve the above-mentioned problems, and its main purpose is to provide a voice output device capable of providing appropriate guidance even for guidance points in tunnels.
  • the claimed invention is a voice output device comprising: an acquisition unit that acquires a guidance route to a destination including guidance points; a voice guidance unit for outputting voice guidance regarding all guidance points existing in the section before entering
  • the invention described in the claims is a voice output method executed by a voice output device, comprising: an acquisition step of acquiring a guidance route including guidance points to a destination; and a voice guidance step of outputting voice guidance regarding all guidance points existing in a certain accuracy-decreased section before the mobile body enters the section.
  • the invention described in the claims is a program executed by a content output device having a computer, and includes an acquisition means for acquiring a guidance route including guidance points to a destination, and a section where the positioning accuracy of the current position is reduced.
  • the computer functions as a voice guidance means for outputting voice guidance regarding all guidance points existing in the section before the mobile body enters the section of reduced accuracy.
  • FIG. 1 is a diagram showing a configuration example of an audio output system according to an embodiment
  • FIG. 1 is a block diagram showing a schematic configuration of an audio output device
  • 3 shows an example of a screen display of guidance in a positioning accuracy degraded section according to the first embodiment.
  • 4 is a flowchart showing a processing procedure executed by the audio output device according to the first embodiment
  • 10 is a flow chart showing a processing procedure executed by the audio output device according to the second embodiment;
  • the voice output device includes an acquisition unit that acquires a guidance route including guidance points to a destination, and a voice guidance unit for outputting voice guidance regarding all guidance points existing in the section before entering.
  • the above-mentioned voice output device acquires a guidance route including guidance points to a destination, and before a mobile body enters an accuracy reduction section, which is a section in which the positioning accuracy of the current position is reduced, all existing in the section voice guidance on the guidance point. This makes it possible to provide guidance on guidance points in the tunnel.
  • voice guidance unit when a guidance request is received from a user while the moving object is in the accuracy-reduced section, the voice guidance unit outputs voices related to all guidance points existing within the accuracy-reduced section. Output guidance.
  • the user can confirm the voice guidance again.
  • Another aspect of the above audio output device includes a display unit that displays guidance information regarding all guidance points existing within the accuracy reduction section before the moving object enters the accuracy reduction section.
  • the user can visually confirm the guide point in the tunnel.
  • the audio output method executed by the audio output device includes an acquisition step of acquiring a guidance route including guidance points to a destination, and a voice guidance step of outputting voice guidance for all guidance points existing in the section before the mobile body enters the precision-decreased section. This makes it possible to provide guidance on guidance points in the tunnel.
  • the computer-executed program includes an acquisition means for acquiring a guidance route including guidance points to a destination, an accuracy reduction section, which is a section in which the positioning accuracy of the current position is reduced.
  • the computer functions as voice guidance means for outputting voice guidance regarding all guidance points existing within the section.
  • FIG. 1 is a diagram showing a configuration example of an audio output system according to the first embodiment.
  • a voice output system 1 according to this embodiment includes a voice output device 100 and a server device 200 .
  • the audio output device 100 is mounted on the vehicle Ve.
  • the server device 200 communicates with a plurality of audio output devices 100 mounted on a plurality of vehicles Ve.
  • the voice output device 100 basically performs route search processing, route guidance processing, etc. for the user who is a passenger of the vehicle Ve. For example, when a destination or the like is input by the user, the voice output device 100 transmits an upload signal S1 including position information of the vehicle Ve and information on the designated destination to the server device 200 . Server device 200 calculates the route to the destination by referring to the map data, and transmits control signal S2 indicating the route to the destination to audio output device 100 . The voice output device 100 provides route guidance to the user by voice output based on the received control signal S2.
  • the voice output device 100 provides various types of information to the user through interaction with the user.
  • the audio output device 100 supplies the server device 200 with an upload signal S1 including information indicating the content or type of the information request and information about the running state of the vehicle Ve.
  • the server device 200 acquires and generates information requested by the user, and transmits it to the audio output device 100 as a control signal S2.
  • the audio output device 100 provides the received information to the user by audio output.
  • the voice output device 100 moves together with the vehicle Ve and performs route guidance mainly by voice so that the vehicle Ve travels along the guidance route.
  • route guidance based mainly on voice refers to route guidance in which the user can grasp information necessary for driving the vehicle Ve along the guidance route at least from only voice, and the voice output device 100 indicates the current position. It does not exclude the auxiliary display of a surrounding map or the like.
  • the voice output device 100 outputs at least various information related to driving, such as points on the route that require guidance (also referred to as “guidance points”), by voice.
  • the guidance point corresponds to, for example, an intersection at which the vehicle Ve turns left or right, or an important passing point for the vehicle Ve to travel along the guidance route.
  • the voice output device 100 provides voice guidance regarding guidance points such as, for example, the distance from the vehicle Ve to the next guidance point and the traveling direction at the guidance point.
  • the voice regarding the guidance for the guidance route is also referred to as "route voice guidance”.
  • the audio output device 100 is installed, for example, on the upper part of the windshield of the vehicle Ve or on the dashboard. Note that the audio output device 100 may be incorporated in the vehicle Ve.
  • FIG. 2 is a block diagram showing a schematic configuration of the audio output device 100.
  • Audio output device 100 mainly includes communication unit 111 , storage unit 112 , input unit 113 , control unit 114 , sensor group 115 , display unit 116 , microphone 117 , speaker 118 , and vehicle exterior camera 119 . and an in-vehicle camera 120 .
  • Each element in the audio output device 100 is interconnected via a bus line 110 .
  • the communication unit 111 performs data communication with the server device 200 under the control of the control unit 114 .
  • the communication unit 111 may receive, for example, map data for updating a map DB (DataBase) 4 to be described later from the server device 200 .
  • Map DB DataBase
  • the storage unit 112 is composed of various memories such as RAM (Random Access Memory), ROM (Read Only Memory), non-volatile memory (including hard disk drive, flash memory, etc.).
  • the storage unit 112 stores a program for the audio output device 100 to execute predetermined processing.
  • the above programs may include an application program for providing route guidance by voice, an application program for playing back music, an application program for outputting content other than music (such as television), and the like.
  • Storage unit 112 is also used as a working memory for control unit 114 . Note that the program executed by the audio output device 100 may be stored in a storage medium other than the storage unit 112 .
  • the storage unit 112 also stores a map database (hereinafter, the database is referred to as "DB") 4. Various data required for route guidance are recorded in the map DB 4 .
  • the map DB 4 stores, for example, road data representing a road network by a combination of nodes and links, and facility data indicating facilities that are candidates for destinations, stop-off points, or landmarks.
  • the map DB 4 may be updated based on the map information received by the communication section 111 from the map management server under the control of the control section 114 .
  • the input unit 113 is a button, touch panel, remote controller, etc. for user operation.
  • the display unit 116 is a display or the like that displays based on the control of the control unit 114 .
  • the microphone 117 collects sounds inside the vehicle Ve, particularly the driver's utterances.
  • a speaker 118 outputs voice for route guidance to the driver or the like.
  • the sensor group 115 includes an external sensor 121 and an internal sensor 122 .
  • the external sensor 121 is, for example, one or more sensors for recognizing the surrounding environment of the vehicle Ve, such as a lidar, radar, ultrasonic sensor, infrared sensor, and sonar.
  • the internal sensor 122 is a sensor that performs positioning of the vehicle Ve, and is, for example, a GNSS (Global Navigation Satellite System) receiver, a gyro sensor, an IMU (Inertial Measurement Unit), a vehicle speed sensor, or a combination thereof.
  • GNSS Global Navigation Satellite System
  • IMU Inertial Measurement Unit
  • vehicle speed sensor or a combination thereof.
  • the sensor group 115 may have a sensor that allows the control unit 114 to directly or indirectly derive the position of the vehicle Ve from the output of the sensor group 115 (that is, by performing estimation processing).
  • the vehicle exterior camera 119 is a camera that captures the exterior of the vehicle Ve.
  • the exterior camera 119 may be only a front camera that captures the front of the vehicle, or may include a rear camera that captures the rear of the vehicle in addition to the front camera. good too.
  • the in-vehicle camera 120 is a camera for photographing the interior of the vehicle Ve, and is provided at a position capable of photographing at least the vicinity of the driver's seat.
  • the control unit 114 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the audio output device 100 as a whole. For example, the control unit 114 estimates the position (including the traveling direction) of the vehicle Ve based on the outputs of one or more sensors in the sensor group 115 . Further, when a destination is specified by the input unit 113 or the microphone 117, the control unit 114 generates route information indicating a guidance route to the destination, Based on the positional information and the map DB 4, route guidance is provided. In this case, the control unit 114 causes the speaker 118 to output route voice guidance. Further, the control unit 114 controls the display unit 116 to display information about the music being played, video content, a map of the vicinity of the current position, or the like.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • control unit 114 is not limited to being implemented by program-based software, and may be implemented by any combination of hardware, firmware, and software. Also, the processing executed by the control unit 114 may be implemented using a user-programmable integrated circuit such as an FPGA (field-programmable gate array) or a microcomputer. In this case, this integrated circuit may be used to implement the program executed by the control unit 114 in this embodiment. Thus, the control unit 114 may be realized by hardware other than the processor.
  • FPGA field-programmable gate array
  • the configuration of the audio output device 100 shown in FIG. 2 is an example, and various changes may be made to the configuration shown in FIG.
  • the control unit 114 may receive information necessary for route guidance from the server device 200 via the communication unit 111 .
  • the audio output device 100 is electrically connected to an audio output unit configured separately from the audio output device 100, or by a known communication means, so as to output the audio. Audio may be output from the output unit.
  • the audio output unit may be a speaker provided in the vehicle Ve.
  • the audio output device 100 does not have to include the display section 116 .
  • the audio output device 100 does not need to perform display-related control at all. may be executed.
  • the audio output device 100 may acquire information output by sensors installed in the vehicle Ve based on a communication protocol such as CAN (Controller Area Network) from the vehicle Ve. .
  • CAN Controller Area Network
  • the server device 200 generates route information indicating a guidance route that the vehicle Ve should travel based on the upload signal S1 including the destination and the like received from the voice output device 100 . Then, the server device 200 generates a control signal S2 relating to information output in response to the user's information request based on the user's information request indicated by the upload signal S1 transmitted by the audio output device 100 and the running state of the vehicle Ve. The server device 200 then transmits the generated control signal S ⁇ b>2 to the audio output device 100 .
  • the server device 200 generates content for providing information to the user of the vehicle Ve and interacting with the user, and transmits the content to the audio output device 100 .
  • the provision of information to the user is primarily a push-type information provision that is triggered by the server device 200 when the vehicle Ve reaches a predetermined driving condition.
  • the dialog with the user is basically a pull-type dialog that starts with a question or inquiry from the user.
  • the dialogue with the user may start from the provision of push-type content.
  • FIG. 3 is a diagram showing an example of a schematic configuration of the server device 200.
  • the server device 200 mainly has a communication section 211 , a storage section 212 and a control section 214 .
  • Each element in the server device 200 is interconnected via a bus line 210 .
  • the communication unit 211 performs data communication with an external device such as the audio output device 100 under the control of the control unit 214 .
  • the storage unit 212 is composed of various types of memory such as RAM, ROM, nonvolatile memory (including hard disk drive, flash memory, etc.). Storage unit 212 stores a program for server device 200 to execute a predetermined process. Moreover, the memory
  • the control unit 214 includes a CPU, GPU, etc., and controls the server device 200 as a whole. Further, the control unit 214 operates together with the audio output device 100 by executing a program stored in the storage unit 212, and executes route guidance processing, information provision processing, and the like for the user. For example, based on the upload signal S1 received from the audio output device 100 via the communication unit 211, the control unit 214 generates route information indicating a guidance route or a control signal S2 relating to information output in response to a user's information request. Then, the control unit 214 transmits the generated control signal S2 to the audio output device 100 through the communication unit 211 .
  • the provision of push-type content means that when the vehicle Ve is in a predetermined driving situation, the audio output device 100 outputs the content related to the driving situation to the user. Specifically, the voice output device 100 acquires the driving situation information indicating the driving situation of the vehicle Ve based on the output of the sensor group 115 as described above, and transmits it to the server device 200 .
  • the server device 200 stores table data for providing push-type content in the storage unit 212 .
  • the server device 200 refers to the table data, and when the driving situation information received from the voice output device 100 mounted on the vehicle Ve matches the trigger condition defined in the table data, the text corresponding to the trigger condition is generated.
  • output content is acquired and transmitted to the audio output device 100 .
  • the audio output device 100 audio-outputs the content for output received from the server device 200 . In this way, the content corresponding to the driving situation of the vehicle Ve is output to the user by voice.
  • the driving situation information includes, for example, the position of the vehicle Ve, the direction of the vehicle, traffic information around the position of the vehicle Ve (including speed regulation and congestion information, etc.), the current time, the destination, etc. At least one piece of information that can be acquired based on the function of each unit of the output device 100 may be included. Also, the driving situation information includes any of the voice (excluding user's speech) obtained by the microphone 117, the image captured by the exterior camera 119, and the image captured by the interior camera 120. may The driving status information may also include information received from the server device 200 through the communication unit 111 .
  • a positioning accuracy drop section is a section in which the positioning accuracy of the current position of the vehicle (hereinafter referred to as "vehicle position") declines, and a section in which the GPS (Global Positioning System) reception level declines, such as in a tunnel. , a section where it is difficult to measure with sensors such as acceleration sensors and gyro sensors, and a section where poor communication with the base station occurs. Moreover, branch points such as junctions (JCT) can be cited as guidance points.
  • JCT junctions
  • a "guidance output point” is a point at which voice guidance regarding the next guidance point should be output, and is usually set to a point where the distance to the next guidance point is less than or equal to a predetermined distance.
  • the voice output device 100 outputs voices of all guidance points in the tunnel in advance before the vehicle Ve enters the tunnel.
  • the audio output device 100 can also provide guidance for guidance points in tunnels.
  • the voice output device 100 again requests all guidance in the tunnel. Output the location by voice.
  • the guidance points output by the voice output device 100 are not limited to voice output, and may be displayed on the screen.
  • an application for cooperating with the audio output device 100 may be installed in a mobile terminal such as a smart phone, and guidance points may be displayed on the display screen of the mobile terminal.
  • Fig. 4 shows an example of a guidance screen display in the positioning accuracy declining section. That is, before the vehicle Ve enters the tunnel, the audio output device 100 causes the portable terminal to perform display as shown in FIG. In a screen display example 30 for guidance in the positioning accuracy declining section shown in FIG. 4, guidance point information 31 and arrival schedule information 32 are displayed on the display screen of the portable terminal.
  • the guidance point information 31 is information on each guidance point in the tunnel.
  • the guidance point information 31 includes the traveling direction at each guidance point, the point name of each guidance point, and the area guidance at each guidance point. Further, the guide point information 31 is displayed in order from the guide point closest to the entrance of the tunnel.
  • the first guide point through which the vehicle Ve passes in the tunnel is "XX 1 JCT”
  • the next guide point is "XX 2 JCT”
  • the next guidance point is "XX 2 JCT”.
  • xx3JCT If there are a plurality of guide points in the tunnel and all the guide point information 31 cannot be displayed on the display screen of the portable terminal, the user can scroll the display screen to find the guide points that are not displayed at that time. Information 31 may be displayed.
  • the guidance point information 31 is not updated. Therefore, regardless of whether or not the vehicle Ve has passed through the guide points in the tunnel, all the guide points in the tunnel are displayed on the display screen of the portable terminal until the vehicle Ve exits the tunnel. It will be.
  • the estimated arrival information 32 includes the remaining distance from the vehicle position to the destination and the estimated time of arrival at the destination. Since the voice output device 100 cannot update the position of the vehicle inside the tunnel, the arrival schedule information 32 displays the information before entering the tunnel.
  • FIG. 5 is a flow chart for explaining the processing performed in the audio output device. This processing is realized by the control unit 114 shown in FIG. 2 executing a program prepared in advance. Note that this process is repeatedly executed at predetermined time intervals during route guidance by the voice output device 100 .
  • control unit 114 determines whether the vehicle Ve has reached the guidance output point based on the vehicle position of the vehicle Ve equipped with the voice output device 100 and the map information (step S11). When the vehicle Ve reaches the guidance output point (step S11: Yes), the control unit 114 performs route guidance (step S12).
  • step S11: No when the vehicle Ve has not reached the guidance point (step S11: No), or when the process of step S12 is completed, the control unit 114 determines the position of the vehicle Ve and the preset guidance route. Based on the information, it is determined whether or not the vehicle Ve has reached the destination (step S13). If the vehicle Ve has reached the destination (step S13: Yes), the control unit 114 terminates the process.
  • step S13 determines whether the vehicle Ve will enter the tunnel based on the vehicle position of the vehicle Ve and the map information. (step S14). If the vehicle Ve does not enter the tunnel (step S14: No), the process returns to step S11 and continues. When the vehicle Ve enters the tunnel (step S14: Yes), the control unit 114 outputs guidance voices for all guidance points in the tunnel (step S15).
  • the control unit 114 determines whether or not there is a guidance request from the user while the vehicle Ve is traveling in the tunnel (step S16). If there is a guidance request from the user (step S16: Yes), the process returns to step 15, and the control unit 114 again outputs guidance voices for all guidance points in the tunnel. On the other hand, if there is no guidance request from the user (step S16: No), the control unit 114 determines whether or not the vehicle Ve has exited the tunnel based on the GPS reception level (step S17). If the vehicle Ve has not left the tunnel (step S17: No), the process returns to step S16 and continues. If the vehicle Ve has left the tunnel (step S17: Yes), the process returns to step S11 and continues.
  • the vehicle Ve before the vehicle Ve enters a tunnel or other positioning accuracy degraded section, voice guidance is provided for all guidance points existing within the positioning accuracy degraded section. Therefore, the user can hear the guidance voice in advance for the guidance point within the positioning accuracy declining section. Further, even after the vehicle Ve enters the positioning accuracy degraded section, the user can repeatedly listen to the guidance regarding the guidance points within the positioning accuracy degraded zone by requesting guidance. Therefore, even when the vehicle Ve enters the positioning accuracy reduction section, appropriate route guidance can be performed.
  • the audio output device 100 cannot update the position of the vehicle while the vehicle Ve is traveling in the section where the positioning accuracy has decreased. Therefore, in the first embodiment, when the user makes a guidance request, the voice output device 100 outputs all the guidance points within the positioning accuracy declining section, including the guidance points already passed.
  • the voice output device 100 updates the position of the vehicle based on the user's utterance while the vehicle Ve is traveling in the positioning accuracy decrease section. As a result, the voice output device 100 can output the guidance point ahead of the vehicle position.
  • the audio output device 100 preliminarily outputs all the guidance point information in the positioning accuracy reduction section before the vehicle Ve equipped with the audio output device 100 enters the positioning accuracy reduction section. do. Then, when the vehicle Ve passes through a guidance point within the positioning accuracy degraded section, the user speaks that the vehicle has passed through the guidance point, and notifies the voice output device 100 of the fact that the vehicle Ve has passed through the guidance point. The voice output device 100 updates the vehicle position based on the user's speech. Further, when the user makes a guidance request, the voice output device 100 voice-outputs all the guidance points ahead of the vehicle position.
  • the voice output device 100 outputs voices of all guidance points in the tunnel in advance. Then, when the vehicle Ve passes through the first guidance point "XX1JCT" while traveling in the tunnel, the user speaks to the voice output device 100 "I passed XX1JCT.” Then, the voice output device 100 updates the own vehicle position to "xx1JCT" based on the user's utterance.
  • the audio output device 100 changes the vehicle position to a position slightly ahead of "XX1JCT” or ” may be updated at a predetermined position between After that, when the user makes a guidance request, the voice output device 100 voice-outputs the guidance points (“xx2JCT” and “xx3JCT”) ahead of the updated vehicle position.
  • the voice output device 100 updates the own vehicle position to "xx2JCT" based on the user's utterance. In this way, the voice output device 100 updates the vehicle position of the vehicle Ve based on the user's utterance every time the user utters that the vehicle has passed the guidance point. As a result, it is possible to update the position of the vehicle and provide appropriate route guidance even in sections where the positioning accuracy is low, such as tunnels.
  • the guidance points output by the voice output device 100 according to the second embodiment are not limited to voice output, and may be displayed on the screen of a mobile terminal such as a smartphone, for example.
  • the audio output device 100 may display the vehicle position mark at a position corresponding to the updated vehicle position.
  • the voice output device 100 updates the vehicle position based on the user's speech, regardless of whether or not there is a guidance request from the user, the voice output device 100 follows the updated vehicle position.
  • Voice guidance may be output for guidance points or all guidance points ahead of the updated vehicle position. For example, when the user utters "I passed XX1 JCT", the voice output device 100 updates the vehicle position and outputs voice guidance such as "The next guidance point is XX2 JCT.” .
  • FIG. 6 is a flowchart for explaining the processing performed by the audio output device according to the second embodiment.
  • This processing is realized by the control unit 114 shown in FIG. 2 executing a program prepared in advance. Note that this process is repeatedly executed at predetermined time intervals during route guidance by the voice output device 100 . Note that the processing of steps S11 to S15 is the same as that of the first embodiment, so description thereof will be omitted.
  • step S16 determines whether or not the user has passed through the guidance point.
  • step S16: Yes the control unit 114 updates the position of the vehicle to the position of the guidance point passed by or beyond (step S17).
  • step S17 the control unit 114 updates the position of the vehicle to the position of the guidance point passed by or beyond.
  • step S18 determines whether or not there is a guidance request from the user (step S18). If there is a guidance request from the user (step S18: Yes), the control unit 114 outputs voice guidance for guidance points ahead of the updated vehicle position (step S19). On the other hand, if there is no guidance request from the user (step S18: No), or if the processing of step S19 is completed, the control unit 114 determines whether the vehicle Ve has exited the tunnel based on the GPS reception level or the like. Determine (step S20). If the vehicle Ve has not left the tunnel (step S20: No), the process returns to step S16 and continues. If the vehicle Ve has left the tunnel (step S20: Yes), the process returns to step S11 and continues.
  • the vehicle position of the vehicle Ve is updated based on the user's utterance. As a result, it is possible to perform appropriate route guidance even in the positioning accuracy degradation section.
  • the voice output device 100 requires the user's utterance to update the vehicle position within the positioning accuracy decrease section, but the user does not necessarily utter that the guidance point has been passed. Therefore, the audio output device 100 may request the user to speak when the vehicle Ve passes through the guidance point before the vehicle Ve enters the positioning accuracy reduction section. For example, the voice output device 100 may output a voice such as "Please let me know when you pass the guidance point in the tunnel.” before the vehicle Ve enters the tunnel.
  • the audio output device 100 may predict the timing at which the vehicle Ve passes through the guidance point within the positioning accuracy decrease section, and confirm with the user whether or not the guidance point has been passed each time. For example, the audio output device 100 predicts the time when the vehicle Ve will pass each guidance point in the tunnel based on the current time and the speed of the vehicle Ve. Then, the voice output device 100 may output a voice such as "Have you passed the point XX?" around the predicted time, and prompt the user to speak after passing the guidance point. .
  • Non-transitory computer-readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic storage media (eg, flexible discs, magnetic tapes, hard disk drives), magneto-optical storage media (eg, magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, Includes CD-R/W, semiconductor memory (eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • audio output device 200 server device 111, 211 communication unit 112, 212 storage unit 113 input unit 114, 214 control unit 115 sensor group 116 display unit 117 microphone 118 speaker 119 exterior camera 120 interior camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

音声出力装置は、目的地までの案内地点を含む案内ルートを取得する取得部と、現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内部と、を備える。

Description

音声出力装置、音声出力方法、プログラム及び記憶媒体
 本発明は、音声の出力において利用可能な技術に関する。
 カーナビゲーション装置などにおいて、経路案内中にトンネルに入った場合、現在位置の更新ができず、トンネル内の案内地点を案内することができない。特許文献1では、走行中のトンネル情報を分かりやすく使用者に案内する方法を提案している。
特開2001-33261号公報
 しかしながら、特許文献1によっても、トンネル内の案内地点について、精度の高い案内ができるとは限らない。
 本発明は、上記のような課題を解決するためになされたものであり、トンネル内の案内地点についても適切な案内を行うことが可能な音声出力装置を提供することを主な目的とする。
 請求項に記載の発明は、音声出力装置であって、目的地までの案内地点を含む案内ルートを取得する取得部と、現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内部と、を備える
 また、請求項に記載の発明は、音声出力装置が実行する音声出力方法であって、目的地までの案内地点を含む案内ルートを取得する取得工程と、現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内工程と、を備える。
 また、請求項に記載の発明は、コンピュータを備えるコンテンツ出力装置により実行されるプログラムであって、目的地までの案内地点を含む案内ルートを取得する取得手段、現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内手段、としてコンピュータを機能させる。
実施例に係る音声出力システムの構成例を示す図。 音声出力装置の概略構成を示すブロック図。 サーバ装置の概略構成の一例を示す図。 第1実施例による測位精度低下区間における案内の画面表示例を示す。 第1実施例に係る音声出力装置が実行する処理手順を示すフローチャート。 第2実施例に係る音声出力装置が実行する処理手順を示すフローチャート。
 本発明の1つの好適な実施形態では、音声出力装置は目的地までの案内地点を含む案内ルートを取得する取得部と、現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内部と、を備える。
 上記の音声出力装置は、目的地までの案内地点を含む案内ルートを取得し、現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を行う。これにより、トンネル内の案内地点について案内をすることが可能となる。
 上記の音声出力装置の他の一態様は、移動体が精度低下区間にあるときにユーザから案内要求を受信した場合、前記音声案内部は、精度低下区間内に存在する全ての案内地点に関する音声案内を出力する。この態様では、ユーザは、再度、音声案内を確認することが可能となる。
 上記の音声出力装置の他の一態様は、移動体が精度低下区間内に入る前に、精度低下区間内に存在する全ての案内地点に関する案内情報を表示する表示部を備える。この態様では、ユーザは、視覚的に、トンネル内の案内地点を確認することが可能となる。
 本発明の他の好適な実施形態によれば、音声出力装置が実行する音声出力方法は、目的地までの案内地点を含む案内ルートを取得する取得工程と、現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内工程と、を備える。これにより、トンネル内の案内地点について案内をすることが可能となる。
 本発明の他の好適な実施形態によれば、コンピュータが実行するプログラムは、目的地までの案内地点を含む案内ルートを取得する取得手段、現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内手段、としてコンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記の音声出力装置を実現することができる。このプログラムは、記憶媒体に記憶して取り扱うことができる。
 以下、図面を参照して本発明の好適な第1~第2実施例について説明する。
 <第1実施例>
 [システム構成]
 (全体構成)
 図1は、第1実施例に係る音声出力システムの構成例を示す図である。本実施例に係る音声出力システム1は、音声出力装置100と、サーバ装置200とを有する。音声出力装置100は、車両Veに搭載される。サーバ装置200は、複数の車両Veに搭載された複数の音声出力装置100と通信する。
 音声出力装置100は、基本的に車両Veの搭乗者であるユーザに対して、経路探索処理や経路案内処理などを行う。例えば、音声出力装置100は、ユーザにより目的地等が入力されると、車両Veの位置情報や指定された目的地に関する情報などを含むアップロード信号S1をサーバ装置200に送信する。サーバ装置200は、地図データを参照して目的地までの経路を算出し、目的地までの経路を示す制御信号S2を音声出力装置100へ送信する。音声出力装置100は、受信した制御信号S2に基づいて、音声出力によりユーザに対する経路案内を行う。
 また、音声出力装置100は、ユーザとの対話により各種の情報をユーザに提供する。例えば、音声出力装置100は、ユーザが情報要求を行うと、その情報要求の内容又は種類を示す情報、及び、車両Veの走行状態に関する情報などを含むアップロード信号S1をサーバ装置200に供給する。サーバ装置200は、ユーザが要求する情報を取得、生成し、制御信号S2として音声出力装置100へ送信する。音声出力装置100は、受信した情報を、音声出力によりユーザに提供する。
 (音声出力装置)
 音声出力装置100は、車両Veと共に移動し、案内経路に沿って車両Veが走行するように、音声を主とした経路案内を行う。なお、「音声を主とした経路案内」は、案内経路に沿って車両Veを運転するために必要な情報をユーザが少なくとも音声のみから把握可能な経路案内を指し、音声出力装置100が現在位置周辺の地図などを補助的に表示することを除外するものではない。本実施例では、音声出力装置100は、少なくとも、案内が必要な経路上の地点(「案内地点」とも呼ぶ。)など、運転に係る様々な情報を音声により出力する。ここで、案内地点は、例えば車両Veの右左折を伴う交差点、その他、案内経路に沿って車両Veが走行するために重要な通過地点が該当する。音声出力装置100は、例えば、車両Veから次の案内地点までの距離、当該案内地点での進行方向などの案内地点に関する音声案内を行う。以後では、案内経路に対する案内に関する音声を「経路音声案内」とも呼ぶ。
 音声出力装置100は、例えば車両Veのフロントガラスの上部、又は、ダッシュボード上などに取り付けられる。なお、音声出力装置100は、車両Veに組み込まれてもよい。
 図2は、音声出力装置100の概略構成を示すブロック図である。音声出力装置100は、主に、通信部111と、記憶部112と、入力部113と、制御部114と、センサ群115と、表示部116と、マイク117と、スピーカ118と、車外カメラ119と、車内カメラ120と、を有する。音声出力装置100内の各要素は、バスライン110を介して相互に接続されている。
 通信部111は、制御部114の制御に基づき、サーバ装置200とのデータ通信を行う。通信部111は、例えば、後述する地図DB(DataBase)4を更新するための地図データをサーバ装置200から受信してもよい。
 記憶部112は、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部112には、音声出力装置100が所定の処理を実行するためのプログラムが記憶される。上述のプログラムは、経路案内を音声により行うためのアプリケーションプログラム、音楽を再生するためのアプリケーションプログラム、音楽以外のコンテンツ(テレビ等)を出力するためのアプリケーションプログラムなどを含んでもよい。また、記憶部112は、制御部114の作業メモリとしても使用される。なお、音声出力装置100が実行するプログラムは、記憶部112以外の記憶媒体に記憶されてもよい。
 また、記憶部112は、地図データベース(以下、データベースを「DB」と記す。)4を記憶する。地図DB4には、経路案内に必要な種々のデータが記録されている。地図DB4は、例えば、道路網をノードとリンクの組合せにより表した道路データ、及び、目的地、立寄地、又はランドマークの候補となる施設を示す施設データなどを記憶している。地図DB4は、制御部114の制御に基づき、通信部111が地図管理サーバから受信する地図情報に基づき更新されてもよい。
 入力部113は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ等である。表示部116は、制御部114の制御に基づき表示を行うディスプレイ等である。マイク117は、車両Veの車内の音声、特に運転手の発話などを集音する。スピーカ118は、運転手などに対して、経路案内のための音声を出力する。
 センサ群115は、外界センサ121と、内界センサ122とを含む。外界センサ121は、例えば、ライダ、レーダ、超音波センサ、赤外線センサ、ソナーなどの車両Veの周辺環境を認識するための1又は複数のセンサである。内界センサ122は、車両Veの測位を行うセンサであり、例えば、GNSS(Global Navigation Satellite System)受信機、ジャイロセンサ、IMU(Inertial Measurement Unit)、車速センサ、又はこれらの組合せである。なお、センサ群115は、制御部114がセンサ群115の出力から車両Veの位置を直接的に又は間接的に(即ち推定処理を行うことによって)導出可能なセンサを有していればよい。
 車外カメラ119は、車両Veの外部を撮影するカメラである。車外カメラ119は、車両の前方を撮影するフロントカメラのみでもよく、フロントカメラに加えて車両の後方を撮影するリアカメラを含んでもよく、車両Veの全周囲を撮影可能な全方位カメラであってもよい。一方、車内カメラ120は、車両Veの車内の様子を撮影するカメラであり、少なくとも運転席周辺を撮影可能な位置に設けられる。
 制御部114は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含み、音声出力装置100の全体を制御する。例えば、制御部114は、センサ群115の1又は複数のセンサの出力に基づき、車両Veの位置(進行方向の向きも含む)を推定する。また、制御部114は、入力部113又はマイク117により目的地が指定された場合に、当該目的地までの経路である案内経路を示す経路情報を生成し、当該経路情報と推定した車両Veの位置情報と地図DB4とに基づき、経路案内を行う。この場合、制御部114は、経路音声案内をスピーカ118から出力させる。また、制御部114は、表示部116を制御することで、再生中の音楽の情報、映像コンテンツ、又は現在位置周辺の地図などの表示を行う。
 なお、制御部114が実行する処理は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、制御部114が実行する処理は、例えばFPGA(field-programmable gate array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、制御部114が本実施例において実行するプログラムを実現してもよい。このように、制御部114は、プロセッサ以外のハードウェアにより実現されてもよい。
 図2に示す音声出力装置100の構成は一例であり、図2に示す構成に対して種々の変更がなされてもよい。例えば、地図DB4を記憶部112が記憶する代わりに、制御部114が通信部111を介して経路案内に必要な情報をサーバ装置200から受信してもよい。他の例では、音声出力装置100は、スピーカ118を備える代わりに、音声出力装置100とは別体に構成された音声出力部と電気的に又は公知の通信手段によって接続することで、当該音声出力部から音声を出力させてもよい。この場合、音声出力部は、車両Veに備えられたスピーカであってもよい。さらに別の例では、音声出力装置100は、表示部116を備えなくともよい。この場合、音声出力装置100は、表示に関する制御を全く行わなくともよく、有線又は無線により、車両Ve等に備えられた表示部と電気的に接続することで、当該表示部に所定の表示を実行させてもよい。同様に、音声出力装置100は、センサ群115を備える代わりに、車両Veに備え付けられたセンサが出力する情報を、車両VeからCAN(Controller Area Network)などの通信プロトコルに基づき取得してもよい。
 (サーバ装置)
 サーバ装置200は、音声出力装置100から受信する目的地等を含むアップロード信号S1に基づき、車両Veが走行すべき案内経路を示す経路情報を生成する。そして、サーバ装置200は、その後に音声出力装置100が送信するアップロード信号S1が示すユーザの情報要求及び車両Veの走行状態に基づき、ユーザの情報要求に対する情報出力に関する制御信号S2を生成する。そして、サーバ装置200は、生成した制御信号S2を、音声出力装置100に送信する。
 さらに、サーバ装置200は、車両Veのユーザに対する情報提供やユーザとの対話を行うためのコンテンツを生成し、音声出力装置100に送信する。ユーザに対する情報提供は、主として車両Veが所定の運転状況になったことをトリガとしてサーバ装置200側から開始するプッシュ型の情報提供である。また、ユーザとの対話は、基本的にユーザからの質問や問いかけから開始するプル型の対話である。但し、ユーザとの対話は、プッシュ型のコンテンツ提供から開始する場合もある。
 図3は、サーバ装置200の概略構成の一例を示す図である。サーバ装置200は、主に、通信部211と、記憶部212と、制御部214とを有する。サーバ装置200内の各要素は、バスライン210を介して相互に接続されている。
 通信部211は、制御部214の制御に基づき、音声出力装置100などの外部装置とのデータ通信を行う。記憶部212は、RAM、ROM、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部212は、サーバ装置200が所定の処理を実行するためのプログラムが記憶される。また、記憶部212は、地図DB4を含んでいる。
 制御部214は、CPU、GPUなどを含み、サーバ装置200の全体を制御する。また、制御部214は、記憶部212に記憶されたプログラムを実行することで、音声出力装置100とともに動作し、ユーザに対する経路案内処理や情報提供処理などを実行する。例えば、制御部214は、音声出力装置100から通信部211を介して受信するアップロード信号S1に基づき、案内経路を示す経路情報、又は、ユーザの情報要求に対する情報出力に関する制御信号S2を生成する。そして、制御部214は、生成した制御信号S2を、通信部211により音声出力装置100に送信する。
 [プッシュ型のコンテンツ提供]
 次に、プッシュ型のコンテンツ提供について説明する。プッシュ型のコンテンツ提供とは、車両Veが所定の運転状況になった場合に、音声出力装置100がユーザに対してその運転状況に関連するコンテンツを音声出力することをいう。具体的に、音声出力装置100は、前述のようにセンサ群115の出力に基づいて車両Veの運転状況を示す運転状況情報を取得し、サーバ装置200へ送信する。サーバ装置200は、プッシュ型のコンテンツ提供を行うためのテーブルデータを記憶部212に記憶している。サーバ装置200は、テーブルデータを参照し、車両Veに搭載された音声出力装置100から受信した運転状況情報が、テーブルデータに規定されているトリガ条件と一致した場合、そのトリガ条件に対応するテキストデータを用いて出力用コンテンツを取得し、音声出力装置100へ送信する。音声出力装置100は、サーバ装置200から受信した出力用コンテンツを音声出力する。こうして、車両Veの運転状況に対応するコンテンツがユーザに対して音声出力される。
 運転状況情報には、例えば、車両Veの位置、当該車両の方位、当該車両Veの位置の周辺の交通情報(速度規制及び渋滞情報等を含む)、現在時刻、目的地等のような、音声出力装置100の各部の機能に基づいて取得可能な少なくとも1つの情報が含まれていればよい。また、運転状況情報には、マイク117により得られた音声(ユーザの発話を除く)、車外カメラ119により撮影された画像、及び、車内カメラ120により撮影された画像のうちのいずれが含まれていてもよい。また、運転状況情報には、通信部111を通じてサーバ装置200から受信した情報が含まれていてもよい。
 [測位精度低下区間における案内方法]
 次に、測位精度低下区間における案内方法について説明する。音声出力装置100は、音声出力装置100を搭載した車両Veが測位精度低下区間に入る前に、予め当該測位精度低下区間内の案内地点情報を全て音声出力する。測位精度低下区間とは、車両の現在位置(以下、「自車位置」と呼ぶ。)の測位精度が低下する区間であり、トンネル内などのGPS(Grobal Positioning System)の受信レベルが低下する区間や、加速度センサ、ジャイロセンサなどのセンサ群による測定が難しい区間、基地局との通信不良が発生する区間などが挙げられる。また、案内地点としては、ジャンクション(JCT)などの分岐地点が挙げられる。以下の説明では、典型的な例として、測位精度低下区間がトンネルの場合について説明する。
 具体的には、経路案内中に、車両Veがトンネルに入ると、音声出力装置100は、GPS衛星の衛星信号を受信できず、自車位置を更新することができない。そのため、トンネル内に複数の案内地点がある場合は、音声出力装置100は、車両Veが各案内地点を通過したか否かを知ることができず、案内出力地点で案内を出力することが難しい。「案内出力地点」とは、次の案内地点に関する音声案内を出力すべき地点であり、通常は次の案内地点までの距離が所定距離以下となった地点などに設定される。
 そこで、音声出力装置100は、車両Veがトンネルに入る前に、予めトンネル内の全ての案内地点を音声出力しておく。これにより、音声出力装置100は、トンネル内の案内地点についても案内をすることが可能となる。また、車両Veがトンネル内を走行中に、ユーザが、案内地点に関する情報の要求(以下、「案内要求」と呼ぶ。)を行うと、音声出力装置100は、再度、トンネル内の全ての案内地点を音声出力する。
 (表示例)
 音声出力装置100が出力する案内地点は、音声出力に限らず、画面上に表示してもよい。例えば、音声出力装置100と連携するためのアプリケーションを、スマートフォンなどの携帯型端末に実装し、携帯型端末の表示画面上に案内地点を表示してもよい。
 図4は、測位精度低下区間における案内の画面表示例を示す。即ち、車両Veがトンネルに入る前に、音声出力装置100は、携帯型端末に、図4に示すような表示を実行させる。図4に示す測位精度低下区間における案内の画面表示例30においては、携帯型端末の表示画面上に、案内地点情報31と、到着予定情報32とが表示される。
 案内地点情報31は、トンネル内の各案内地点の情報である。案内地点情報31は、各案内地点での進行方向と、各案内地点の地点名と、各案内地点での方面案内とを含む。また、案内地点情報31は、トンネルの入口に近い案内地点から順に表示される。図4の例では、車両Veがトンネル内で最初に通過する案内地点は「××1JCT」であり、次に通過する案内地点は「××2JCT」であり、更にその次に通過する案内地点は「××3JCT」である。なお、トンネル内に案内地点が複数あり、全ての案内地点情報31が携帯型端末の表示画面に表示できない場合、ユーザが表示画面上をスクロール操作することにより、その時点で表示されていない案内地点情報31を表示させるようにしてもよい。
 また、車両Veがトンネル内を走行している間は、案内地点情報31は更新されない。そのため、車両Veがトンネル内の案内地点を通過したか否かに関わらず、車両Veがトンネルを出るまでは、携帯型端末の表示画面上には、トンネル内の全ての案内地点が表示されることになる。
 到着予定情報32は、自車位置から目的地までの残距離と、目的地への到着予定時刻を含む。音声出力装置100は、トンネル内では、自車位置の更新ができないため、到着予定情報32には、トンネルに入る前の情報が表示されている。
 (処理フロー)
 図5は、音声出力装置において行われる処理を説明するためのフローチャートである。この処理は、図2に示す制御部114が、予め用意されたプログラムを実行することにより実現される。なお、この処理は、音声出力装置100による経路案内中に所定時間毎に繰り返し実行される。
 まず、制御部114は、音声出力装置100が搭載された車両Veの自車位置と地図情報とに基づいて、車両Veが案内出力地点に到達したか否かを判定する(ステップS11)。車両Veが案内出力地点に到達した場合(ステップS11:Yes)、制御部114は、経路案内を行う(ステップS12)。
 一方、車両Veが案内地点に到達していない場合(ステップS11:No)、もしくは、ステップS12の処理が終了した場合、制御部114は、車両Veの自車位置と予め設定された案内経路の情報とに基づいて、車両Veが目的地に到達したか否かを判定する(ステップS13)。車両Veが目的地に到達した場合(ステップS13:Yes)、制御部114は、処理を終了する。
 一方、車両Veが目的地に到達していない場合(ステップS13:No)、制御部114は、車両Veの自車位置と地図情報とに基づいて、車両Veがトンネルに入るか否かを判定する(ステップS14)。車両Veがトンネルに入らない場合(ステップS14:No)、処理はステップS11へ戻り、処理は継続する。車両Veがトンネルに入る場合(ステップS14:Yes)、制御部114は、トンネル内の全ての案内地点について案内音声を出力する(ステップS15)。
 次に、制御部114は、車両Veがトンネル内を走行中に、ユーザから、案内要求があったか否かを判定する(ステップS16)。ユーザから案内要求があった場合(ステップS16:Yes)、処理はステップ15へ戻り、制御部114は、再度、トンネル内の全ての案内地点について案内音声を出力する。一方、ユーザから案内要求がない場合(ステップS16:No)、制御部114は、GPSの受信レベルなどに基づき、車両Veがトンネルを出たか否かを判定する(ステップS17)。車両Veがトンネルを出ていない場合(ステップS17:No)、処理はステップS16へ戻り、処理は継続する。車両Veがトンネルを出た場合(ステップS17:Yes)、処理はステップS11へ戻り、処理は継続する。
 このように、第1実施例によれば、車両Veがトンネルなどの測位精度低下区間に入る前に、測位精度低下区間内に存在する全ての案内地点についての音声案内を行う。よって、ユーザは、測位精度低下区間内の案内地点について事前に案内音声を聞くことができる。また、車両Veが測位精度低下区間に入った後でも、ユーザは案内要求を行うことにより、測位精度低下内の案内地点に関する案内を繰り返し聞くことができる。よって、車両Veが測位精度低下区間に入る場合でも、適切な経路案内を行うことができる。
 <第2実施例>
 次に、第2実施例に係る音声出力装置100について説明する。第2実施例では、音声出力装置100及び、サーバ装置200の構成等は、第1実施例と同一であるため、その説明は省略する。
 前述のように音声出力装置100は、車両Veが測位精度低下区間を走行中は、自車位置を更新できない。そのため、第1実施例では、ユーザが案内要求を行うと、音声出力装置100は、既に通過した案内地点を含む、測位精度低下区間内の全ての案内地点を出力することになる。
 これに対し、第2実施例では、音声出力装置100は、車両Veが測位精度低下区間内を走行中は、ユーザの発話に基づいて自車位置を更新する。これにより、音声出力装置100は、自車位置より先にある案内地点を出力することができる。
 具体的に、第2実施例に係る音声出力装置100は、音声出力装置100を搭載した車両Veが測位精度低下区間に入る前に、予め当該測位精度低下区間内の案内地点情報を全て音声出力する。そして、車両Veが測位精度低下区間内のある案内地点を通過すると、ユーザはその案内地点を通過したことを発話し、音声出力装置100に伝える。音声出力装置100は、ユーザの発話に基づいて自車位置を更新する。また、音声出力装置100は、ユーザが案内要求を行うと、自車位置より先にある全ての案内地点を音声出力する。
 例えば、自車位置から目的地までの案内経路上にトンネルがあり、トンネル内には、図4に示すように「××1JCT」と、「××2JCT」と、「××3JCT」の3つの案内地点があるとする。まず、音声出力装置100は、車両Veがトンネルに入る前に、予めトンネル内の全ての案内地点を音声出力する。そして、車両Veがトンネル内を走行中に、最初の案内地点である「××1JCT」を通過したとき、ユーザは「××1JCTを通過した。」と音声出力装置100に発話する。すると、音声出力装置100は、ユーザの発話に基づいて、自車位置を「××1JCT」に更新する。なお、音声出力装置100は、自車位置を「××1JCT」に更新する代わりに、自車位置を「××1JCT」より少し先の位置、又は、「××1JCT」と「××2JCT」との間の所定の位置に更新してもよい。その後、ユーザが案内要求を行うと、音声出力装置100は、更新後の自車位置より先にある案内地点(「××2JCT」と、「××3JCT」)を音声出力する。
 その後、車両Veが次の案内地点である「××2JCT」を通過したときには、ユーザは「××2JCTを通過した。」と音声出力装置100に発話する。すると、音声出力装置100は、ユーザの発話に基づいて、自車位置を「××2JCT」に更新する。こうして、ユーザが案内地点を通過したことを発話するたびに、音声出力装置100はユーザの発話に基づいて車両Veの自車位置を更新する。これにより、トンネルなどの測位精度低下区間においても、自車位置を更新し、適切な経路案内を行うことが可能となる。
 なお、第2実施例に係る音声出力装置100が出力する案内地点は、音声出力に限らず、例えば、スマートフォンなどの携帯型端末の画面上に表示してもよい。その場合、音声出力装置100は、ユーザの発話に基づいて車両Veの自車位置を更新したときには、更新後の自車位置に相当する位置に自車位置マークを表示してもよい。
 また、第2実施例に係る音声出力装置100は、ユーザの発話に基づいて、自車位置を更新したときは、ユーザからの案内要求の有無に関わらず、更新後の自車位置の次の案内地点、又は、更新後の自車位置より先にある全ての案内地点について音声案内を出力してもよい。例えば、ユーザが「××1JCTを通過した」と発話した場合、音声出力装置100は、自車位置を更新するとともに、「次の案内地点は××2JCTです。」などの音声案内を出力する。
 図6は、第2実施例に係る音声出力装置において行われる処理を説明するためのフローチャートである。この処理は、図2に示す制御部114が、予め用意されたプログラムを実行することにより実現される。なお、この処理は、音声出力装置100による経路案内中に所定時間毎に繰り返し実行される。なお、ステップS11~S15の処理は第1実施形態と同様であるので、説明を省略する。
 車両Veがトンネル内を走行中、制御部114は、ユーザが案内地点を通過したか否かを判定する(ステップS16)。ユーザが案内地点を通過したことを発話した場合(ステップS16:Yes)、制御部114は、自車位置を通過した案内地点の位置又はそれより先の位置に更新する(ステップS17)。一方、ユーザが案内地点を通過したことを発話しない場合(ステップS16:No)、もしくは、ステップS17の処理が終了した場合、処理はステップS18へ進む。
 次に、制御部114は、ユーザから案内要求があったか否かを判定する(ステップS18)。ユーザから案内要求があった場合(ステップS18:Yes)、制御部114は、更新後の自車位置より先にある案内地点について音声案内を出力する(ステップS19)。一方、ユーザから案内要求がない場合(ステップS18:No)、もしくは、ステップS19の処理が終了した場合、制御部114は、GPSの受信レベルなどに基づき、車両Veがトンネルを出たか否かを判定する(ステップS20)。車両Veがトンネルを出ていない場合(ステップS20:No)、処理はステップS16へ戻り、処理は継続する。車両Veがトンネルを出た場合(ステップS20:Yes)、処理はステップS11へ戻り、処理は継続する。
 こうして、第2実施例では、車両Veがトンネルなどの測位精度低下区間に入った後は、ユーザの発話に基づいて車両Veの自車位置を更新する。これにより、測位精度低下区間内においても、適切な経路案内を行うことが可能となる。
 [変形例]
 次に、上記の第2実施例に好適な変形例について説明する。なお、以下の変形例は、任意に組み合わせて上記の実施例に適用してもよい。
 (変形例1)
 第2実施例では、音声出力装置100は、測位精度低下区間内で自車位置を更新するために、ユーザの発話を要するが、必ずしもユーザが案内地点を通過したことを発話するとは限らない。そこで、音声出力装置100は、車両Veが測位精度低下区間に入る前に、ユーザに対して、案内地点を通過したら発話するようリクエストしてもよい。例えば、音声出力装置100は、車両Veがトンネルに入る前に、「トンネル内の案内地点を通過したら教えてください。」などの音声を出力してもよい。
 (変形例2)
 また、音声出力装置100は、車両Veが測位精度低下区間内の案内地点を通過するタイミングを予測し、ユーザに対して、都度、案内地点を通過したか否かを確認してもよい。例えば、音声出力装置100は、現在時刻と車両Veの速度とに基づいて、車両Veがトンネル内の各案内地点を通過する時刻を予測する。そして、音声出力装置100は、予測した時刻の辺りで、「〇〇地点を通過しましたか?」などの音声を出力し、ユーザに対して、案内地点を通過したら発話するよう促してもよい。
 上述した実施例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータである制御部等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
 100 音声出力装置
 200 サーバ装置
 111、211 通信部
 112、212 記憶部
 113 入力部
 114、214 制御部
 115 センサ群
 116 表示部
 117 マイク
 118 スピーカ
 119 車外カメラ
 120 車内カメラ

Claims (6)

  1.  目的地までの案内地点を含む案内ルートを取得する取得部と、
     現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内部と、
     を備える音声出力装置。
  2.  移動体が精度低下区間にあるときにユーザから案内要求を受信した場合、前記音声案内部は、精度低下区間内に存在する全ての案内地点に関する音声案内を出力する請求項1に記載の音声出力装置。
  3.  移動体が精度低下区間内に入る前に、精度低下区間内に存在する全ての案内地点に関する案内情報を表示する表示部を備える請求項1又は2に記載の音声出力装置。
  4.  音声出力装置が実行する音声出力方法であって、
     目的地までの案内地点を含む案内ルートを取得する取得工程と、
     現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内工程と、
     を備える音声出力方法。
  5.  目的地までの案内地点を含む案内ルートを取得する取得手段、
     現在位置の測位精度が低下する区間である精度低下区間に移動体が入る前に、当該区間内に存在する全ての案内地点に関する音声案内を出力する音声案内手段、
     としてコンピュータを機能させるプログラム。
  6.  請求項5に記載のプログラムを記憶した記憶媒体。
PCT/JP2021/046052 2021-12-14 2021-12-14 音声出力装置、音声出力方法、プログラム及び記憶媒体 WO2023112147A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/046052 WO2023112147A1 (ja) 2021-12-14 2021-12-14 音声出力装置、音声出力方法、プログラム及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/046052 WO2023112147A1 (ja) 2021-12-14 2021-12-14 音声出力装置、音声出力方法、プログラム及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2023112147A1 true WO2023112147A1 (ja) 2023-06-22

Family

ID=86773743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/046052 WO2023112147A1 (ja) 2021-12-14 2021-12-14 音声出力装置、音声出力方法、プログラム及び記憶媒体

Country Status (1)

Country Link
WO (1) WO2023112147A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101379A (ja) * 2005-10-05 2007-04-19 Navitime Japan Co Ltd ナビゲーションシステム、経路探索サーバおよび端末装置
JP2010266389A (ja) * 2009-05-18 2010-11-25 Alpine Electronics Inc 車載用ナビゲーション装置及び経路案内表示方法
JP2013113701A (ja) * 2011-11-29 2013-06-10 Aisin Aw Co Ltd ナビゲーション装置、ナビゲーション方法及びプログラム
JP2015059811A (ja) * 2013-09-18 2015-03-30 三菱電機株式会社 ナビゲーション装置および方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101379A (ja) * 2005-10-05 2007-04-19 Navitime Japan Co Ltd ナビゲーションシステム、経路探索サーバおよび端末装置
JP2010266389A (ja) * 2009-05-18 2010-11-25 Alpine Electronics Inc 車載用ナビゲーション装置及び経路案内表示方法
JP2013113701A (ja) * 2011-11-29 2013-06-10 Aisin Aw Co Ltd ナビゲーション装置、ナビゲーション方法及びプログラム
JP2015059811A (ja) * 2013-09-18 2015-03-30 三菱電機株式会社 ナビゲーション装置および方法

Similar Documents

Publication Publication Date Title
JP5018671B2 (ja) 車両用ナビゲーション装置
JP2023164659A (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
JP2023105143A (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
WO2023112147A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP2023072001A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2023088005A (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023112148A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023162189A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023163196A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023062816A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023286827A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023073912A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023062817A1 (ja) 音声認識装置、制御方法、プログラム及び記憶媒体
WO2023163045A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023073948A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023073949A1 (ja) 音声出力装置、サーバ装置、音声出力方法、制御方法、プログラム及び記憶媒体
WO2023163197A1 (ja) コンテンツ評価装置、コンテンツ評価方法、プログラム及び記憶媒体
WO2023163047A1 (ja) 端末装置、情報提供システム、情報処理方法、プログラム及び記憶媒体
US20240134596A1 (en) Content output device, content output method, program and storage medium
WO2023286826A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
JP7467601B2 (ja) 情報処理装置、情報出力方法、プログラム及び記憶媒体
WO2023073856A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
WO2023063405A1 (ja) コンテンツ生成装置、コンテンツ生成方法、プログラム及び記憶媒体
WO2021157312A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2023012733A (ja) コンテンツ生成装置、コンテンツ生成方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21968064

Country of ref document: EP

Kind code of ref document: A1