WO2014184898A1 - 情報提供装置、情報提供方法、情報提供用プログラム - Google Patents

情報提供装置、情報提供方法、情報提供用プログラム Download PDF

Info

Publication number
WO2014184898A1
WO2014184898A1 PCT/JP2013/063551 JP2013063551W WO2014184898A1 WO 2014184898 A1 WO2014184898 A1 WO 2014184898A1 JP 2013063551 W JP2013063551 W JP 2013063551W WO 2014184898 A1 WO2014184898 A1 WO 2014184898A1
Authority
WO
WIPO (PCT)
Prior art keywords
margin
speaker
information
output
unit
Prior art date
Application number
PCT/JP2013/063551
Other languages
English (en)
French (fr)
Inventor
真人 針谷
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2013/063551 priority Critical patent/WO2014184898A1/ja
Publication of WO2014184898A1 publication Critical patent/WO2014184898A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • B60K35/265Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/656Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being a passenger

Definitions

  • the present application relates to an information providing apparatus that identifies a speaker and provides information in a form corresponding to the margin of the identified speaker.
  • navigation devices provide not only route information from a departure place to a destination but also various information such as information useful for realizing a safe movement of the user.
  • Patent Document 1 discloses an in-vehicle navigation device that outputs safe driving support information such as emergency information indicating that there is an obstacle on a road.
  • This in-vehicle navigation device calculates a driver's margin and provides information in an output manner according to the calculated margin.
  • the driver's margin is calculated based on the values obtained from the angular velocity sensor, acceleration sensor, vehicle speed sensor, or rudder angle sensor, and emergency information is output for the standard time when the margin is large. When the degree is small, the emergency information is output longer than the standard time (see paragraph [0012] of Patent Document 1).
  • the present application has been made in view of the above problems, and an example of the problem is to provide an information providing apparatus and the like that can provide information in a form suitable for an information receiver.
  • a speaker specifying means for specifying a speaker who has spoken, and a margin for calculating a margin indicating a degree of margin for receiving information provided by the speaker specified by the speaker specifying means.
  • the degree calculation means, the output form determination means for determining the output form of the provision information based on the margin degree calculated by the margin degree calculation means, and the provision form according to the output form determined by the output form determination means Output means for outputting information.
  • the invention according to claim 11 is an information providing method executed by the information providing device, provided by a speaker specifying step of specifying a speaker who has spoken, and a speaker specified by the speaker specifying step.
  • a margin calculating step for calculating a margin indicating the degree of margin for receiving information
  • an output configuration determining step for determining an output configuration of the provided information based on the margin calculated by the margin calculating step
  • a speaker specifying means for specifying a speaker who has spoken a computer included in the information providing device, and a degree of a margin for the speaker specified by the speaker specifying means to accept the provided information.
  • the margin calculation means for calculating the margin degree indicating the output form
  • the output form determination means for determining the output form of the provision information based on the margin degree calculated by the margin degree calculation means, and the output form determined by the output form determination means According to the above, it is made to function as an output means for outputting the provision information.
  • the navigation device 1 has a voice recognition function, and stores information in a manner corresponding to a speaker's margin (a margin indicating a degree of margin for receiving provided information provided to the speaker). provide.
  • the navigation device 1 includes a control unit 11, a storage unit 12, a communication unit 13, a display unit 14, a speaker 15, an outside camera 16, a first microphone 17a, a second microphone 17b, a first utterance start button 18a, and a second utterance start button. 18b is comprised.
  • the first microphone 17a and the first utterance start button 18a are provided on the driver seat side in the automobile, and the second microphone 17b on the passenger seat (seat next to the driver seat) side. And a second utterance start button 18b.
  • the driver presses the first utterance start button 18 a and then speaks toward the first microphone 17 a.
  • the utterance start button and the microphone are provided only in the front seat.
  • the utterance start button and the microphone are also provided in the rear seat, and the passenger sitting in the rear seat also makes a voice to the navigation device 1. It is also possible to input an instruction by.
  • the storage unit 12 is configured by, for example, a hard disk drive or a nonvolatile semiconductor memory, and stores various programs and data. Specifically, a navigation application program is stored.
  • the navigation device 1 may take various programs from other server devices or the like via a network and record them in the storage unit 12, or may record various programs recorded on a recording medium such as a DVD-ROM. It may be read by the optical drive and recorded in the storage unit 12.
  • the storage unit 12 stores location risk information 12a, travel distance information 12b, map information 12c, and driving history information 12d.
  • the point risk information 12 a is acquired from a point risk information providing server device (not shown) via the communication unit 13 and stored in the storage unit 12.
  • the point risk information providing server device collects and accumulates probe information, which is travel history information of a car, from a car of a person who has agreed to provide the probe information.
  • probe information which is travel history information of a car
  • the location risk level information providing server device receives a transmission request for the risk level at the location indicated by the latitude / longitude information together with the latitude / longitude information from the navigation device 1, the latitude / longitude information is referred to by referring to the accumulated probe information.
  • the point risk degree information 12a indicating the degree of risk calculated for the point indicated by is returned to the navigation device 1.
  • the point risk information providing server device refers to, for example, the past month's probe information (or the past 10,000 probe information) with respect to the risk level calculation, for example, the latitude / longitude information received from the navigation device 1 Within a radius of 30m from the point indicated by, the risk is "low” if the number of sudden braking is 0 to 49 times, the risk is "medium” if it is 50 to 99 times, and the risk is 100 times or more. Calculate “high” respectively.
  • the point risk level information providing server device may calculate the risk level in advance, or may calculate the risk level information provision server device each time a transmission request is received.
  • Travel distance information 12b is information generated based on position information generated by a position recognition unit 11c described later, and includes information related to the travel distance of the automobile on which the navigation device 1 is loaded.
  • the map information 12c is composed of various types of information used for navigation processing, and includes information for displaying a map on the display unit 14, information for performing a route search, and the like.
  • the map information 12c includes information indicating frequent accident points, information indicating intersections, information indicating bad roads, information indicating roads with many people, information indicating one-way traffic, and temporary stops such as intersections and crossings. It contains information indicating dangerous points on the map, such as information indicating necessary points.
  • the driving history information 12d is configured to include information related to the past travel route for the vehicle on which the navigation device 1 is loaded and operation information related to various operations performed by the driver on the vehicle.
  • the operation information is associated with the position where the operation is performed and the date and time. Examples of operations on the automobile include an operation of turning a steering wheel and an operation of stepping on an accelerator or a brake. The strengths of these operations are recorded together. As a result, it is possible to specify the position and date / time at which the driver has performed an operation such as a sudden handle or a sudden brake.
  • the control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. And the control part 11 as a computer performs various processes by running the program memorize
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • control unit 11 includes a speaker determination unit 11a, a driving determination unit 11b, a position recognition unit 11c, a vehicle speed measurement unit 11d, a point risk determination unit 11e, a driving maturity determination unit 11f, a margin determination unit 11g, and an output. It also functions as the form determining unit 11h.
  • the speaker determination unit 11a determines a speaker based on the type of the pressed button. Specifically, the speaker determination unit 11a determines that the speaker is a driver sitting in the driver's seat when the first utterance start button 18a is pressed, and the second utterance start button 18b is pressed. If it is determined, the speaker is determined to be a passenger sitting in the passenger seat. The control unit 11 performs control to lower the recording volume of the microphone corresponding to a button different from the pressed button.
  • the control unit 11 performs control to lower the recording volume of the second microphone 17b than the recording volume of the first microphone 17a. Thereby, the recognition efficiency of a speaker's utterance content can be improved, without receiving the influence of extra voices, such as utterance content other than a speaker.
  • the driving determination unit 11b is connected to the parking brake 31 of the automobile and determines whether the driver is driving depending on whether the parking brake 31 is applied. Specifically, the driving determination unit 11b determines that the driver is not driving when the parking brake 31 is applied, and that the driver is driving when the parking brake 31 is not applied. judge.
  • the position recognition unit 11c is connected to a communication device such as a GPS (Global Positioning System) receiver, an acceleration sensor, a gyro sensor, a beacon receiver, a Wi-Fi (Wireless Fidelity) device, and a mobile phone (not shown). Based on the acquired information, the current position of the vehicle is recognized.
  • a communication device such as a GPS (Global Positioning System) receiver, an acceleration sensor, a gyro sensor, a beacon receiver, a Wi-Fi (Wireless Fidelity) device, and a mobile phone (not shown).
  • the vehicle speed measurement unit 11d is connected to the vehicle speed sensor 32, the outside camera 16 installed toward the outside of the vehicle, and the position recognition unit 11c.
  • the vehicle speed sensor 32 generates a pulse signal in proportion to the rotational speed of the axle of the automobile.
  • the vehicle speed measuring unit 11d can measure the vehicle speed based on the pulse signal. Further, the vehicle speed measuring unit 11d can also measure the vehicle speed from the speed at which a reference object such as a utility pole in the video moves based on the video acquired from the outside camera 16. Furthermore, the vehicle speed measurement unit 11d can also measure the vehicle speed from the speed at which the current position indicated by the position information moves based on the position information acquired from the position recognition unit 11c. As described above, the vehicle speed measurement unit 11d measures the vehicle speed of the vehicle based on at least one of the pulse signal acquired from the vehicle speed sensor 32, the video acquired from the outside camera 16, or the position information acquired from the position recognition unit 11c. To do.
  • the point risk level determination unit 11e determines the risk level at the current position of the vehicle or a point within a predetermined range from the current position (referred to as “risk level determination point”). In the present embodiment, the point risk determination unit 11e determines the risk level for the risk determination point in three stages of “high”, “medium”, and “low”.
  • the point risk level determination unit 11e When determining the risk level, transmits a risk level transmission request to the point risk level information providing server device together with latitude / longitude information indicating the current position recognized by the position recognition unit 11c.
  • the point risk degree information 12a is received from the point risk degree information providing server device and stored in the storage unit 12.
  • the point risk determination unit 11 e can determine the risk based on the point risk information 12 a stored in the storage unit 12.
  • the point risk determination unit 11e refers to the map information 12c, and the risk determination point is an accident-prone point, an intersection, a poorly-looked road, or a busy road.
  • the degree of risk can be determined according to whether the vehicle is one-way or a point that requires a temporary stop such as an intersection or railroad crossing.
  • the point risk level determination unit 11e can determine a high accident level, a road or an intersection with poor overview as a risk level “high”, and a road with a good view and straightness as a risk level “low”.
  • the point risk level determination unit 11e can determine the risk level at the risk level determination point with reference to the camera image acquired from the outside camera 16. For example, the point risk determination unit 11e analyzes the camera image to recognize the presence of pedestrians and oncoming vehicles around the own car, and the risk degree depends on the number of them and the distance from the own car. Can be determined. Note that the risk level may be determined using the camera video only when the driver needs to be particularly careful when his / her own vehicle turns right or left.
  • the point risk determination unit 11e is determined with reference to the point risk information 12a stored in the storage unit 12, the risk determined with reference to the map information 12c, and the camera image acquired from the outside camera 16. It is possible to determine the overall risk level by taking each risk level into consideration. For example, the point risk determination unit 11e determines the risk determined based on each element as 3 points if the risk is "High”, 2 points if the risk is "Medium”, and 1 point if the risk is "Low”. When the total points are 3 to 5 points, the risk level is judged as “low”, when 6 to 7 points, the risk level is “medium”, and when the total points are over 8 points, the risk level is judged as “high”. The point risk determination unit 11e may determine the risk based on at least one of the point risk information 12a, the map information 12c, and the video acquired from the vehicle camera 16.
  • the driving maturity determination unit 11f determines the driving maturity of the driver.
  • the driving maturity determination unit 11f determines the driving maturity in three stages of “high”, “medium”, and “low”. Specifically, the driving maturity determination unit 11f refers to the traveling distance information 12b and the driving history information 12d, and calculates the frequency of sudden braking from the past traveling distance and the number of sudden braking. The lower the frequency, the higher the driving maturity level. For example, if the number of sudden brakings per 1000 km in the past is 10 times or more, the driving maturity level is “low”, if 5 to 9 times, the driving maturity level is “medium”, if 0 to 4 times, the driving maturity level is “ “Low”.
  • the maturity level is determined based on the frequency of sudden braking.
  • the maturity is determined based on the frequency of sudden steering, or the sum of the frequency of sudden braking and the frequency of sudden braking. Based on this, the driving maturity level may be determined.
  • the margin determination unit 11g determines the speaker margin determined by the speaker determination unit 11a.
  • the margin determination unit 11g determines the margin as one of “highest”, “high”, “medium”, and “low”. Specifically, the margin determination unit 11g determines that the margin is “highest” when the speaker determination unit 11a determines that the speaker is not a driver (that is, a passenger).
  • the margin determining unit 11g also determines the margin when the speaker determining unit 11a determines that the speaker is a driver and the driving determining unit 11b determines that the driver is not driving. “Best”.
  • the margin determination unit 11g is illustrated in FIG. The margin is determined according to the margin determination table.
  • the margin determination table is associated with the vehicle speed measured by the vehicle speed measurement unit 11d, the point risk determined by the point risk determination unit 11e, and the driving maturity determined by the driving maturity determination unit 11f.
  • a margin is specified. For example, according to the margin determination table shown in FIG. 3, when the vehicle speed is 0 km / h (that is, when the vehicle is stopped), the margin is defined such that “high” is determined as the margin. If the vehicle speed is greater than 0 km / h (ie, traveling), the margin is determined as “high”, “medium”, or “low” according to the driving maturity level and the point risk level.
  • the margin is defined as follows. In the margin determination table shown in FIG.
  • the vehicle speed is divided into two, “0 km / h” or “1 km / h ⁇ ”. However, the vehicle speed is more finely divided (for example, “0 km / h”, It is also possible to define a margin for each category (divided into four categories of “1 km / h to 20 km / h”, “21 km / h to 60 km / h”, and “61 km / h”).
  • the margin determining unit 11g determines the margin
  • the vehicle speed and driving maturity which are factors determining the margin
  • the point risk is “high”.
  • “Medium” and “Low” are converted into numerical values (for example, “3” for “High”, “2” for “Medium”, “1” for “Low”) and then multiplying or adding them
  • the margin may be determined based on the value. In this case, it is preferable to prepare a table for associating the calculated value with the margin so that the margin can be derived from the value calculated in advance. Moreover, it is good also as determining a margin by changing the importance of each element by adjusting weighting arbitrarily about each element.
  • the output form determination unit 11h determines the operation form according to the margin determined by the margin determination unit 11g. Specifically, the output form determination unit 11h determines the form for outputting the provision information to be provided to the user according to the instruction content input to the navigation device 1 by the user according to the margin. . In the present embodiment, the output form determination unit 11h causes the provision information to be output from at least one of the speaker 15 and the display unit 14 in a form determined according to the margin.
  • the communication unit 13 performs processing related to communication with other server devices and terminal devices via the network under the control of the control unit 11.
  • the network is constructed by, for example, the Internet, a dedicated communication line (for example, CATV (Community Antenna Television) line), a mobile communication network (including a base station, etc.), a gateway, and the like.
  • the display unit 14 is composed of, for example, a liquid crystal display, and displays a route guidance image, a navigation operation screen, and the like under the control of the control unit 11.
  • the speaker 15 outputs a voice for route guidance under the control of the control unit 11 and outputs a selection candidate to be selected by a user related to navigation.
  • the navigation device 1 is provided with an operation unit (not shown) for operating the navigation device 1.
  • the operation unit receives an operation instruction from the user and outputs the instruction content to the control unit 11 as an instruction signal.
  • the display unit 14 and the operation unit may be configured by a touch panel.
  • the control unit 11 determines whether or not the next operation to be performed has been narrowed down based on the detected utterance content, that is, whether or not there are a plurality of operation instruction candidates (step S11).
  • the operation instruction candidate is an operation instruction candidate for the navigation device 1 estimated from the detected utterance content. For example, when the utterance content of the speaker is “Set Yokohama Landmark Tower as the destination”, the control unit 11 can recognize that the destination is set to the Yokohama Landmark Tower as one point.
  • step S11 NO
  • step S12 the operation (guidance to the Yokohama Landmark Tower) is started based on the instruction from the speaker (step S12), and the processing in the flowchart ends. .
  • Step S11 YES Transition to processing.
  • the control unit 11 determines which point in the Yokohama area the destination should be set, and In the Yokohama area, there are multiple candidates such as “Yokohama Station”, “Yokohama Landmark Tower”, “Yokohama City Hall”, “Yokohama Chinatown”, “Yokohama Stadium”, so multiple operations It is determined that there is an instruction candidate (“Set destination to Yokohama station”, “Set destination to Yokohama Landmark Tower”, “Set destination to Yokohama City Hall”, etc.) (Step S11: YES) Transition to processing. In the following description of the flowchart, it is assumed that the first utterance content of the speaker is “set Yokohama as the destination”.
  • control unit 11 performs a first margin determination process (step S13).
  • FIG. 5 is a flowchart illustrating an example of the first margin determination process.
  • the speaker determination unit 11a (control unit 11) performs speaker determination (step S51).
  • step S52 determines that the speaker is not a driver
  • step S52 determines the margin as “highest”
  • step S53 the first margin determination process is terminated.
  • the driving determination unit 11b controls the driving determination (step S54).
  • step S55: NO the margin determination unit 11g determines the margin to be “highest” (step S53), and the first The margin determination process ends.
  • step S55: YES the vehicle speed measurement unit 11d (control unit 11) measures the vehicle speed (step S56).
  • the point risk determination unit 11e determines the risk at the risk determination point (step S57).
  • the driving maturity determination unit 11f determines the driving maturity of the driver (step S58).
  • the margin determination unit 11g (control unit 11) refers to the margin determination table (FIG. 3), the vehicle speed measured by the vehicle speed measurement unit 11d in the process of step S56, and the point risk in the process of step S57.
  • a margin is determined based on the risk determined by the determination unit 11e and the driving maturity determined by the driving maturity determination unit 11f in the process of step S58 (step S59), and the first margin determination process is terminated. To do.
  • step S ⁇ b> 13 the control unit 11 determines whether or not the margin determined in the process of step S ⁇ b> 13 is “highest” (step S ⁇ b> 13). S14). At this time, when the control unit 11 determines that the margin is “highest” (step S14: YES), the output form determination unit 11h (control unit 11) selects the operation instruction candidate (“provided information”). (Example) is determined to be displayed on the display unit 14, and operation instruction candidates are displayed on the display unit 14 (step S15).
  • a candidate list screen with destinations such as “Yokohama Station”, “Yokohama Landmark Tower”, “Yokohama City Hall”, “Yokohama Chinatown”, or “Yokohama Stadium” that includes “Yokohama” in the name is displayed. Display on the unit 14. And let the speaker set the destination from the candidates.
  • various arrangement orders such as the order in which the distance from the car on which the navigation apparatus 1 is loaded are close, the order in which the frequency of the frequency set by the user of the navigation apparatus 1 is high, and the like are adopted. be able to.
  • the speaker can input an instruction to select any candidate from candidates displayed on the candidate list screen via the operation unit or by voice.
  • control unit 11 When the control unit 11 receives an instruction to select any candidate from the candidates displayed on the candidate list screen (step S16), the control unit 11 starts an operation according to the received instruction (step S12). The process in is terminated. For example, when the control unit 11 receives an instruction to select “Yokohama Station” from the candidates displayed on the candidate list screen, the control unit 11 sets Yokohama Station as the destination and starts guidance to Yokohama Station. To do.
  • step S14 determines that the margin is not “highest” in the process of step S14 (step S14: NO), then the margin determined in the process of step S13 is “high”. It is determined whether or not (step S17). At this time, when the control unit 11 determines that the margin is “high” (step S17: YES), the output form determination unit 11h (control unit 11) is a point including “Yokohama” in the name. Top candidates (for example, 3) are extracted when a certain “Yokohama Station”, “Yokohama Landmark Tower”, “Yokohama City Hall”, “Yokohama Chinatown”, and “Yokohama Stadium” are rearranged in a predetermined order (step S18). ).
  • step S21 As the predetermined order, various arrangement orders such as the order in which the distance from the vehicle on which the navigation apparatus 1 is loaded are close, the order in which the frequency of the frequency set by the user of the navigation apparatus 1 is high can be employed (step S21 described later). This also applies to the process of step S24).
  • the output form determination unit 11h determines that the higher rank candidates (an example of “provided information”) extracted in the process of step S18 are sequentially output via the speaker 15 and the speaker 15 Are output as voices (step S19). For example, the output form determination unit 11h causes the speaker 15 to output a sentence such as “There are Yokohama station, Yokohama Landmark Tower, and Yokohama Chinatown as candidates including Yokohama. On the other hand, the speaker can input, through a microphone, an instruction to set a candidate selected by himself / herself from among the higher rank candidates that have been output by voice.
  • control unit 11 When the control unit 11 receives an instruction to select any candidate from the high-order candidates that are output as voice (step S16), the control unit 11 starts an operation according to the received instruction (step S12), and performs the processing in the flowchart. finish.
  • step S17 determines that the margin is not “high” in the process of step S17 (step S17: NO)
  • the margin determined in the process of step S13 is “medium”. It is determined whether or not (step S20).
  • step S20 determines that the margin is “medium” (step S20: YES)
  • step S21 Top candidates when rearranging “Yokohama Station”, “Yokohama Landmark Tower”, “Yokohama City Hall”, “Yokohama Chinatown”, and “Yokohama Stadium” in a predetermined order (for example, 3) Item) is extracted (step S21).
  • the control unit 11 performs the second margin determination process shown in FIG. 6 (step S22).
  • the second margin determination process is the same as the process in which steps S51 to S55 in the first margin determination process shown in FIG. 5 are deleted. Since there is no processing corresponding to the processing from step S51 to step S55, the margin determined in the second margin determination processing is any one of “high”, “medium”, and “low”. Note that the processing from step S56 to step S59 in the first margin determination process corresponds to the processing from step S91 to step S94 in the second margin determination process.
  • step S22 determines whether or not the margin determined in the process of step S22 is “high” (step S22). S23). At this time, when it is determined that the margin is not “high” (step S23: NO), the control unit 11 repeats the process of step S22 and the process of step S23 until the margin is “high”. On the other hand, when the control unit 11 determines that the margin is “high” (step S23: YES), the output form determination unit 11h (control unit 11) selects the top candidates (step S21) extracted in the process of step S21. An example of “provided information” is determined to be output in order through the speaker 15 in order, and the higher rank candidates are output as sound from the speaker 15 (step S19), prompting the speaker to input detailed instructions.
  • step S22 and in step S23 As in the process, it is possible to prevent the safety from being lowered by refraining the voice output until the driver's margin becomes “high”. Also, if the margin is low, there is a high possibility that the voice output from the speaker 15 will be missed. Therefore, it is possible to prevent the provided information from being missed by refraining from outputting the voice until the margin becomes high. Furthermore, it is possible to prevent a decrease in the operation efficiency of the navigation device 1 when providing provided information by voice that cannot be confirmed many times as in the case of displaying on the display unit 14.
  • step S16 after the process of step S19 following the process of step S23 and the process of step S12 are the same as the case where the margin is determined to be “high” in the process of step S17, description thereof will be omitted.
  • step S20 NO
  • the output form determination unit 11h (Control Unit 11) rearranged “Yokohama Station”, “Yokohama Landmark Tower”, “Yokohama City Hall”, “Yokohama Chinatown”, and “Yokohama Stadium” in the predetermined order, which are points including “Yokohama” in the name.
  • the top candidates (for example, three) and the top candidate are extracted (step S24).
  • control unit 11 performs an operation based on the highest candidate. For example, when “Yokohama Station” is extracted as the highest candidate, the control unit 11 provisionally sets “Yokohama Station” as the destination and starts route guidance (step S25).
  • control part 11 performs the process of step S22, the process of step S23, and when it determines with a margin degree being "high” in the process of step S23, the top candidate extracted by the process of step S24 It is determined that (an example of “provided information”) is output in order through the speaker 15, and the higher rank candidates are output as audio from the speaker 15 (step S19).
  • the upper candidates are presented to the speaker by voice, and the instruction intended by the speaker is displayed. This is a process for prompting input.
  • step S25 For example, if the destination is temporarily set to “Yokohama Station” in the process of step S25, there is a possibility that this destination is not the destination intended by the speaker, so the margin becomes “high”. Occasionally, the destination is set at Yokohama Station. Other candidates include Yokohama Landmark Tower and Yokohama Chinatown. The top candidates extracted in the process of step S24 are read out, and the destination intended for the speaker is read. Prompt to set.
  • step S16 when the control unit 11 receives an instruction to select any candidate from the top candidates that are output as voice in the process of step S19 (step S16), the control unit 11 starts an operation according to the received instruction (step S16). S12), the process in the flowchart ends. However, the control unit 11 continues the operation started in the process of step S25 when, for example, a voice such as “Destination remains at Yokohama Station” is input by the speaker.
  • the control unit 11 (an example of “speaker specifying means”, “room margin calculating means”, and “output form determining means”) specifies the speaker who spoke.
  • the specified speaker calculates a margin indicating a margin for accepting a plurality of operation instruction candidates (an example of “provided information”), and outputs the operation instruction candidates based on the calculated margin .
  • the display unit 14 an example of “output unit”
  • the speaker 15 an example of “output unit”
  • the speaker who is the receiver of the information can accept the operation instruction candidates in a form corresponding to his / her own margin.
  • control unit 11 calculates a margin according to whether or not the specified speaker is driving. Therefore, when there are a plurality of operation instruction candidates, the speaker is not driving and the operation instruction candidates are selected even though the plurality of operation instruction candidates displayed on the display unit 14 can be confirmed. There is no voice output, and operation instruction candidates can be presented in a form suitable for the speaker without making the speaker, who is the receiver of information, feel bothersome.
  • the control unit 11 when the specified speaker is driving, the control unit 11 has a margin based on the vehicle speed (an example of “moving speed”) of the automobile (an example of “moving body”) that the speaker is driving. Determine the degree. For example, the controller 11 determines the margin higher as the vehicle speed is lower, and determines the margin lower as the vehicle speed is higher. Thereby, the margin of a speaker can be determined appropriately according to the vehicle speed.
  • the control unit 11 when the identified speaker is driving, the control unit 11 has a margin based on the degree of risk at the risk determination point of the car (an example of “moving body”) that the speaker is driving. To decide. For example, the control unit 11 determines the margin higher as the risk at the risk determination point is lower, and determines the margin lower as the risk is higher. Thereby, the speaker's margin can be appropriately determined according to the risk level of the risk level determination point.
  • the control unit 11 determines a margin based on the driving maturity level of the speaker. For example, the control unit 11 determines the margin higher as the driving maturity is higher, and determines the margin lower as the driving maturity is lower. Thereby, the margin of a speaker can be appropriately determined according to driving maturity.
  • control unit 11 follows the standard for dividing the margin into three categories, and if the margin is “medium” or less (an example of “included in the first category”), the operation instruction candidate ( An example of “provided information” is not output, and when the margin is “high” (an example of “included in the second category”), an operation instruction candidate is selected as an example of the speaker 15 (an example of “audio output means”). ) And output the operation instruction candidate on the display unit 14 (an example of “display means”) when the margin is “highest” (an example of “when included in the third category”).
  • the driver can select and instruct the intended operation instruction candidate from the operation instruction candidates displayed on the display unit 14, and the margin is “ In the case of “high”, an intended operation instruction candidate can be selected from the operation instruction candidates output from the speaker 15 and instructed. Further, when the margin is “medium” or less, the operation instruction candidate is not output, so that the driver can concentrate on driving. In this way, the safety of the automobile is improved by switching the screen display and the sound output form according to the margin. That is, the driver can drive safely.
  • control unit 11 when the operation instruction candidate is output by voice from the speaker 15, the control unit 11 outputs only the upper candidate of the operation instruction candidate. This reduces the amount of information that the driver confirms by voice as compared to the case where all the operation instruction candidates are output by voice, thus reducing the burden on the driver required to recognize the operation instruction candidates output by voice. Can do.
  • the control unit 11 determines not to output the operation instruction candidate because the margin is “medium” or less (step S23 in FIG. 4: NO), the margin is not less than “medium”. (That is, until the margin becomes “high”) (step S22 in FIG. 4), and when the margin is not less than “medium” (step S23 in FIG. 4: YES),
  • the operation instruction candidates are output in a form corresponding to the margin (in this embodiment, the margin “high”).
  • the driver's margin increases from a low level to a certain level, and the operation instruction candidate can be output at a timing suitable for the driver to select the operation instruction candidate.
  • the driver's margins increase and there is room to focus attention on other matters. Since operation instruction candidates are output at the same timing, the driver can easily understand the output contents. If the operation instruction candidate is output when the driver's margin is low, there is a risk that the driver will miss it or do not know what the driver should do with the navigation device 1 and input an incorrect instruction. is there. In addition, how much time you can afford during driving varies depending on the driving skills of the driver, and for drivers with high driving skills, a simple system that does not activate extra functions such as deferring the reading of operation instruction candidates Sometimes it is preferred. For this reason, as in this embodiment, the operation maturity calculated from the driving history of the driver is used as an element for determining the margin, so that operation instruction candidates are output according to the level of driving technology. Can concentrate on driving without causing the driver to feel stress.
  • the control unit 11 executes a process based on one operation instruction candidate among the operation instruction candidates (Step S25 in FIG. 4).
  • the control unit 11 executes a process based on one operation instruction candidate among the operation instruction candidates (Step S25 in FIG. 4).
  • the driver's instruction can be reflected in the process. Furthermore, when one operation instruction candidate is selected, a process is performed based on the highest candidate that the driver is likely to select (step S24 and step S25 in FIG. 4), so that the driver has a margin. It is possible to reduce the possibility that another operation instruction candidate is selected when born and the processing needs to be performed again.
  • control unit 11 determines the risk according to the information based on the probe information which is the actual travel record of the vehicle, the point risk information 12a. Thereby, it is possible to concentrate on driving without being distracted due to the operation of the navigation device 1 at a point where the driver should be careful.
  • the microphone 17c is a microphone having a beam forming function capable of improving the recording efficiency of sound in a designated direction under the control of the control unit 11.
  • the microphone 17c and the in-vehicle camera 41 may be installed in a place such as a rearview mirror where the entire vehicle compartment is easy to look around.
  • the control unit 11 (speaker determination unit 11a) is configured such that when a speaker speaks when the first utterance start button 18a or the utterance start button 18c is pressed by any person in the vehicle, the inside of the vehicle
  • the video acquired from the camera 41 is analyzed, and the speaker is determined by detecting the movement of the mouth of the person sitting in the driver's seat, front passenger seat, and rear seat.
  • the control unit 11 uses the beam forming function of the microphone 17c to give directivity to the determined speaker direction. As a result, it is possible to capture voices excluding conversations other than the speaker and unnecessary sounds.
  • the control unit 11 analyzes the video acquired from the in-vehicle camera 41. To improve the accuracy of speaker determination by identifying the line of sight of the person in the car and adopting whether or not the line of sight is directed toward the center console as a determination factor when performing speaker determination Can do.
  • the control unit 11 does not perform speaker determination in a normal conversation input from each microphone 17d, microphone 17e, microphone 17f, and microphone 17g, and when the speaker utters “Ichiro, guide to Shibuya”,
  • the nickname “Ichiro-kun” the person sitting on the seat corresponding to the microphone 17 having the maximum input volume is determined as the speaker, and the instruction input after the nickname (ie, Processing according to “Guide to Shibuya”) is performed according to the determined speaker's margin.
  • the control unit 11 is affected by a conversation other than the determined speaker and extra voice by lowering the recording volume of the microphone corresponding to the speaker other than the determined speaker. Therefore, the recognition efficiency of the utterance content of the speaker can be improved. Also, in general, when a person asks someone else to do things, he often calls his name and gives an instruction such as "Mr. Suzuki, please close the window.” The device can be operated as if communicating with a person without being aware of the operation.
  • control unit 11 (driving maturity determination unit 11f) refers to the travel distance information 12b and determines that the driving maturity is higher as the total travel distance is longer.
  • control unit 11 refers to the driving history information 12d, and the driving maturity is higher as the frequency of performing at least one of the sudden steering and the sudden braking within the latest predetermined period (for example, 6 months) is less. Is determined.
  • point risk information 12a A modification in which the point risk level information 12a is acquired in advance from the point risk level information providing server device will be described.
  • point risk information indicating the risk at a predetermined point in an area where route guidance is possible based on at least map information 12c (for example, points plotted at intervals of 15 m on a road on which a car can travel).
  • 12a is acquired in advance from the point risk information providing server device and stored in the storage unit 12.
  • the control unit 11 refers to the point risk level information 12a stored in the storage unit 12, and the position recognition unit 11c.
  • the risk level is determined based on the risk level corresponding to the predetermined point closest to the current position recognized by.
  • the control unit 11 performs the second margin determination process in the process of step S22 of FIG. 4, but a modified example in which the first margin determination process is performed in the process of step S22 will be described. According to the modified example, it is possible that the margin is determined to be “highest” in the process of step S22. However, when the margin is determined to be “highest”, the control unit 11 performs the process of step S23. In step S19, the determination is “YES”, and the process proceeds to step S19.
  • control unit 11 proceeds to the process of step S15, and the output form determination unit 11h (control unit 11) determines that the operation instruction candidate May be determined to be displayed on the display unit 14, and operation instruction candidates may be displayed on the display unit 14.
  • the speaker switches from the driver to the passenger, or the driver applies the parking brake 31, and the margin is “highest”.
  • the operation instruction candidate is displayed on the display unit 14, so that the speaker can surely grasp the operation instruction candidate and can select the operation instruction candidate accurately.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Navigation (AREA)

Abstract

 情報の受け手に適した形態で情報を提供することのできる情報提供装置等を提供することを課題とする。 上記課題に対して、発話した話者を特定し、特定した話者が、提供情報を受容する余裕の度合いを示す余裕度を算出し、当該算出した余裕度に基づいて、提供情報を出力する際の出力形態を決定する。

Description

情報提供装置、情報提供方法、情報提供用プログラム
 本願は、話者を特定し、特定した話者の余裕度に応じた形態で情報を提供する情報提供装置等に関する。
 従来、ナビゲーション装置は出発地から目的地までの経路情報のみならず、利用者の安全な移動を実現するために有用な情報など様々な情報を利用者に提供している。
 例えば、特許文献1には、道路上に障害物があることを示す緊急情報などの安全運転支援情報を出力する車載用ナビゲーション装置が開示される。この車載用ナビゲーション装置は、運転者の余裕度を算出し、算出された余裕度に応じた出力態様で情報を提供する。具体的には、角速度センサー、加速度センサー、車速センサー又は舵角センサーから取得した値に基づいて運転者の余裕度を算出し、余裕度が大きいときに、緊急情報を標準時間だけ出力し、余裕度が小さいとき緊急情報を標準時間より長く出力する(特許文献1の段落[0012]を参照)。
特開2008-151678号公報
 しかしながら、特許文献1に記載の車載用ナビゲーション装置は、情報の受け手が運転者であることを想定しているため、運転者以外の者が情報の受け手である場合などには、却って標準的な形態と異なる形態で情報が出力されるため、情報の受け手が煩わしさを感じてしまう場合がある。
 本願は、上記問題点に鑑みてなされたものであり、その課題の一例は、情報の受け手に適した形態で情報を提供することのできる情報提供装置等を提供することにある。
 請求項1に記載の発明は、発話した話者を特定する話者特定手段と、前記話者特定手段が特定した話者が、提供情報を受容する余裕の度合いを示す余裕度を算出する余裕度算出手段と、前記余裕度算出手段が算出した余裕度に基づいて、前記提供情報の出力形態を決定する出力形態決定手段と、前記出力形態決定手段が決定した出力形態に応じて、前記提供情報を出力する出力手段と、を備えることを特徴とする。
 請求項11に記載の発明は、情報提供装置により実行される情報提供方法であって、発話した話者を特定する話者特定工程と、前記話者特定工程により特定された話者が、提供情報を受容する余裕の度合いを示す余裕度を算出する余裕度算出工程と、前記余裕度算出工程により算出された余裕度に基づいて、前記提供情報の出力形態を決定する出力形態決定工程と、前記出力形態決定工程により決定された出力形態に応じて、前記提供情報を出力する出力工程と、を含むことを特徴とする。
 請求項12に記載の発明は、情報提供装置に含まれるコンピュータを、発話した話者を特定する話者特定手段、前記話者特定手段が特定した話者が、提供情報を受容する余裕の度合いを示す余裕度を算出する余裕度算出手段、前記余裕度算出手段が算出した余裕度に基づいて、前記提供情報の出力形態を決定する出力形態決定手段、前記出力形態決定手段が決定した出力形態に応じて、前記提供情報を出力する出力手段、として機能させることを特徴とする。
本実施形態におけるナビゲーション装置1のブロック図である。 本実施形態におけるナビゲーション装置1が設置される自動車内の一例を示す図である。 本実施形態における余裕度決定テーブルの一例を示す図である。 本実施形態におけるナビゲーション装置1による動作の一例を示すフローチャートである。 本実施形態におけるナビゲーション装置1による第1余裕度決定処理に係る動作の一例を示すフローチャートである。 本実施形態におけるナビゲーション装置1による第2余裕度決定処理に係る動作の一例を示すフローチャートである。 本実施形態の変形例におけるナビゲーション装置1が設置される自動車内の一例を示す図である。 本実施形態の変形例におけるナビゲーション装置1が設置される自動車内の一例を示す図である。
 以下、図1等を参照して本発明の実施形態について説明する。なお、以下に説明する実施の形態は、自動車での移動に利用されるナビゲーション装置1(「情報提供装置」の一例)に対して本発明を適用した場合の実施形態である。本実施形態におけるナビゲーション装置1は、音声認識機能を有し、話者の余裕度(話者に対して提供される提供情報を受容する余裕の度合いを示す余裕度)に応じた態様で情報を提供する。
 [1.ナビゲーション装置1の構成]
 まず、図1を用いて、ナビゲーション装置1の構成について説明する。ナビゲーション装置1は、制御部11、記憶部12、通信部13、表示部14、スピーカー15、車外カメラ16、第1マイク17a、第2マイク17b、第1発話開始ボタン18a及び第2発話開始ボタン18bを含んで構成されている。
 図2に示すように、本実施形態では、自動車内の運転席側に第1マイク17a及び第1発話開始ボタン18aが設けられ、助手席(運転席の隣の席)側に第2マイク17b及び第2発話開始ボタン18bが設けられている。運転者は、ナビゲーション装置1に対して音声により指示を入力する場合には第1発話開始ボタン18aを押してから、第1マイク17aに向かって発話する。一方、助手席に座っている同乗者がナビゲーション装置1に対して音声により指示を入力する場合には第2発話開始ボタン18bを押してから、第2マイク17bに向かって発話する。なお、本実施形態では、発話開始ボタン及びマイクを前部座席にのみ設けることとしたが、後部座席にも発話開始ボタン及びマイクを設け、後部座席に座る同乗者もナビゲーション装置1に対して音声による指示を入力することができるようにしてもよい。
 図1に戻り、記憶部12は、例えば、ハードディスクドライブや不揮発性の半導体メモリ等により構成されており、各種プログラム及びデータ等を記憶する。具体的には、ナビゲーション用アプリケーションプログラムが記憶されている。なお、ナビゲーション装置1は、例えば、他のサーバ装置等からネットワークを介して各種プログラムを取り込んで記憶部12に記録することとしてもよいし、DVD-ROM等の記録媒体に記録された各種プログラムを光学ドライブで読み込んで記憶部12に記録することとしてもよい。
 また、記憶部12は、地点危険度情報12a、走行距離情報12b、地図情報12c、運転履歴情報12dを記憶している。
 地点危険度情報12aは、通信部13を介して地点危険度情報提供サーバ装置(図示しない)から取得され、記憶部12に記憶される。地点危険度情報提供サーバ装置は、自動車の走行履歴情報であるプローブ情報を、プローブ情報を提供することに同意した者の自動車から収集して蓄積する。地点危険度情報提供サーバ装置は、ナビゲーション装置1から緯度・経度情報と共に当該緯度・経度情報で示される地点における危険度の送信リクエストを受信すると、蓄積したプローブ情報を参照して、緯度・経度情報で示される地点について算出した危険度を示す地点危険度情報12aを、ナビゲーション装置1に返信する。地点危険度情報提供サーバ装置は、危険度の算出に関して、例えば、過去1ヶ月分のプローブ情報(又は過去1万台分のプローブ情報)を参照して、ナビゲーション装置1から受信した緯度・経度情報で示される地点から半径30m以内の範囲において、急ブレーキが行われた回数が0回~49回なら危険度「低」、50回~99回なら危険度「中」、100回以上なら危険度「高」とそれぞれ算出する。なお、地点危険度情報提供サーバ装置は、危険度を予め算出しておいてもよいし、送信リクエストを受信する度に算出することとしてもよい。
 走行距離情報12bは、後述する位置認識部11cが生成した位置情報に基づいて生成される情報であり、ナビゲーション装置1が積載された自動車の走行距離に関する情報を含む。
 地図情報12cは、ナビゲーション処理に用いられる各種情報により構成されており、表示部14に地図を表示するための情報、経路探索を行うための情報等を含んでいる。また、地図情報12cは、事故多発地点を示す情報、交差点を示す情報、見渡しの悪い道路を示す情報、人通りの多い道路を示す情報、一方通行を示す情報、交差点・踏切などの一時停止が必要な地点を示す情報など、地図上の危険な地点を示す情報を含んでいる。
 運転履歴情報12dは、ナビゲーション装置1が積載された自動車についての過去の移動経路に関する情報や、運転手が自動車に対して行った各種操作に関する操作情報を含んで構成されている。操作情報は、操作が行われた位置及び日時と対応付けられている。自動車に対する操作には、例えば、ハンドルをきる操作、アクセルやブレーキを踏む操作などがあり、これらの操作についてはその強度が合わせて記録されている。これにより、運転者が急ハンドルや急ブレーキなどの操作を行った位置及び日時を特定することができる。
 制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成されている。そして、コンピュータとしての制御部11は、記憶部12に記憶されたプログラムを実行することにより、各種処理を行う。
 また、制御部11は、話者判定部11a、運転中判定部11b、位置認識部11c、車速計測部11d、地点危険度判定部11e、運転成熟度判定部11f、余裕度決定部11g、出力形態決定部11hとしても機能する。
 話者判定部11aは、第1発話開始ボタン18a又は第2発話開始ボタン18bが押されると、押されたボタンの種別に基づいて話者を判定する。具体的には、話者判定部11aは、第1発話開始ボタン18aが押された場合には話者が運転席に座っている運転者であると判定し、第2発話開始ボタン18bが押された場合には話者が助手席に座っている同乗者であると判定する。なお、制御部11は、押されたボタンと異なるボタンに対応するマイクの録音音量を下げる制御を行う。例えば、制御部11は、第1発話開始ボタン18aが押された場合には、第2マイク17bの録音音量を第1マイク17aの録音音量よりも下げる制御を行う。これにより、話者以外の発話内容などの余計な音声の影響を受けることなく、話者の発話内容の認識効率を向上させることができる。
 運転中判定部11bは、自動車のパーキングブレーキ31と接続されており、パーキングブレーキ31がかけられているか否かに応じて、運転者が運転中であるか否かを判定する。具体的には、運転中判定部11bは、パーキングブレーキ31がかけられている場合に運転者は運転中でないと判定し、パーキングブレーキ31がかけられていない場合に運転者は運転中であると判定する。
 位置認識部11cは、図示しないGPS(Global Positioning System)受信機、加速度センサー、ジャイロセンサー、ビーコン受信機、Wi-Fi(Wireless Fidelity)機器、携帯電話などの通信機器と接続されており、これらから取得した情報に基づいて、自動車の現在位置を認識する。
 車速計測部11dは、車速センサー32、車外に向けて設置された車外カメラ16及び位置認識部11cと接続されている。車速センサー32は、自動車の車軸の回転数に比例してパルス信号を発生させる。車速計測部11dはこのパルス信号に基づいて車速を計測することができる。また、車速計測部11dは、車外カメラ16から取得した映像に基づいて、映像内の電柱などの基準物が移動する速度から車速を計測することもできる。更に、車速計測部11dは、位置認識部11cから取得した位置情報に基づいて、位置情報の示す現在位置が移動する速度から車速を計測することもできる。このように、車速計測部11dは、車速センサー32から取得したパルス信号、車外カメラ16から取得した映像又は位置認識部11cから取得した位置情報の少なくとも何れかに一方に基づいて自動車の車速を計測する。
 地点危険度判定部11eは、自動車の現在位置又は現在位置から所定範囲内の地点(「危険度判定地点」という)における危険度を判定する。本実施形態では、地点危険度判定部11eは、危険度判定地点についての危険度を「高」、「中」、「低」の3段階で判定する。
 地点危険度判定部11eは、危険度を判定する際には、位置認識部11cにより認識された現在位置を示す緯度・経度情報と共に危険度の送信リクエストを地点危険度情報提供サーバ装置に送信し、地点危険度情報提供サーバ装置から地点危険度情報12aを受信して記憶部12に記憶させる。地点危険度判定部11eは、記憶部12に記憶された地点危険度情報12aに基づいて危険度を判定することができる。
 また、地点危険度判定部11eは、地図情報12cを参照して、危険度判定地点が事故多発地点であるか、交差点であるか、見渡しの悪い道路であるか、人通りの多い道路であるか、一方通行であるか又は交差点・踏切などの一時停止が必要な地点であるかに応じて、危険度を判定することができる。例えば、地点危険度判定部11eは、事故多発地点や見渡しの悪い道路や交差点を危険度「高」、見渡しがよく真っ直ぐな道路を危険度「低」などと判定することができる。
 さらに、地点危険度判定部11eは、車外カメラ16から取得したカメラ映像を参照して、危険度判定地点における危険度を判定することができる。例えば、地点危険度判定部11eは、カメラ映像を解析して、自己の自動車周辺の歩行者や対向車などの存在を認識し、それらの数や、自己の自動車との距離に応じて危険度を判定することができる。なお、カメラ映像を用いて危険度を判定するのは、自己の自動車が右左折時などの運転手が特に注意すべき場合に限定してもよい。
 そして、地点危険度判定部11eは、記憶部12に記憶させた地点危険度情報12aと、地図情報12cを参照して判定した危険度と、車外カメラ16から取得したカメラ映像を参照して判定した危険度をそれぞれ勘案して総合的な危険度を判定することができる。例えば、地点危険度判定部11eは、それぞれの要素に基づいて判定した危険度を、危険度「高」なら3ポイント、危険度「中」なら2ポイント、危険度「低」なら1ポイントとしてそれぞれの危険度を合計して、合計ポイントが3ポイント~5ポイントなら危険度「低」、6ポイント~7ポイントなら危険度「中」、8ポイント以上なら危険度「高」とそれぞれ判定する。なお、地点危険度判定部11eは、地点危険度情報12a、地図情報12c又は車外カメラ16から取得した映像の少なくとも何れか一方に基づいて、危険度を判定することとしてもよい。
 運転成熟度判定部11fは、運転手の運転成熟度を判定する。本実施形態では、運転成熟度判定部11fは、運転成熟度を「高」、「中」、「低」の3段階で判定する。具体的には、運転成熟度判定部11fは、走行距離情報12b及び運転履歴情報12dを参照して、過去の走行距離と急ブレーキが行われた回数から急ブレーキが行われた頻度を算出し、頻度が低いほど運転成熟度は高いと判定する。例えば、過去1000km当たりの急ブレーキを行った回数が10回以上なら運転成熟度は「低」、5回~9回なら運転成熟度は「中」、0回~4回なら運転成熟度は「低」と判定する。なお、ここでは、急ブレーキが行われた頻度に基づいて成熟度を判定することとしたが、急ハンドルがきられた頻度、又は急ブレーキが行われた頻度と急ハンドルがきられた頻度の合計に基づいて、運転成熟度を判定することとしてもよい。
 余裕度決定部11gは、話者判定部11aにより判定された話者の余裕度を決定する。本実施形態では、余裕度決定部11gは、余裕度を「最高」、「高」、「中」、「低」の何れかに決定する。具体的には、余裕度決定部11gは、話者判定部11aにより話者が運転者でない(すなわち同乗者)と判定された場合には、余裕度を「最高」に決定する。また、余裕度決定部11gは、話者判定部11aにより話者が運転者であると判定され、且つ、運転中判定部11bにより運転中ではないと判定された場合にも、余裕度を「最高」に決定する。一方、余裕度決定部11gは、話者判定部11aにより話者が運転者であると判定され、且つ、運転中判定部11bにより運転中であると判定された場合には、図3に示す余裕度決定テーブルに従って余裕度を決定する。
 ここで、図3を参照して、余裕度決定テーブルについて説明する。余裕度決定テーブルは、車速計測部11dにより計測される車速、地点危険度判定部11eにより判定された地点危険度及び運転成熟度判定部11fにより判定された運転成熟度の各項目と対応付けて余裕度が規定されている。例えば、図3に示す余裕度決定テーブルによれば、車速が0km/h(すなわち、停車中)であれば、余裕度は「高」が決定されるように余裕度が規定されている。また、車速が0km/hより大きい場合(すなわち、走行中)であれば、余裕度は運転成熟度、地点危険度に応じて「高」、「中」、「低」の何れかが決定されるように余裕度が規定されている。なお、図3に示す余裕度決定テーブルでは、車速について「0km/h」又は「1km/h~」の2つに区分しているが、より細かく区分して(例えば、「0km/h」、「1km/h~20km/h」、「21km/h~60km/h」、「61km/h~」の4区分に区分して)、区分毎に余裕度を規定することとしてもよい。
 なお、余裕度決定部11gが余裕度を決定する場合には、余裕度を決定する要素である車速や運転成熟度の「高」、「中」、「低」、地点危険度の「高」、「中」、「低」を数値化して(例えば、「高」なら「3」、「中」なら「2」、「低」なら「1」)、それを乗算や加算することで算出される値によって余裕度を決定することとしてもよい。この場合、予め算出される値から余裕度を導出できるように、算出される値と余裕度を対応付けるテーブルを用意しておくと好適である。また、それぞれの要素について重み付けを任意に調整することで、各要素の重要度を変えて余裕度を決定することとしてもよい。
 出力形態決定部11hは、余裕度決定部11gにより決定された余裕度に応じて動作の形態を決定する。具体的には、出力形態決定部11hは、利用者によりナビゲーション装置1に入力された指示内容に応じた、利用者に提供すべき提供情報を出力する際の形態を余裕度に応じて決定する。本実施形態では、出力形態決定部11hは、余裕度に応じて決定した形態で、スピーカー15又は表示部14の少なくとも何れか一方から提供情報を出力させる。
 通信部13は、制御部11の制御のもと、ナビゲーション装置1がネットワークを介して他のサーバ装置、端末装置などとの通信に係る処理を行う。ネットワークは、例えば、インターネット、専用通信回線(例えば、CATV(Community Antenna Television)回線)、移動体通信網(基地局等を含む)、及びゲートウェイ等により構築される。
 表示部14は、例えば、液晶ディスプレイ等により構成されており、制御部11の制御のもと、経路案内用の画像やナビゲーションの操作画面等を表示する。
 スピーカー15は、制御部11の制御のもと、経路案内用の音声を出力したり、ナビゲーションに関する利用者に選択させるべき選択候補を音声で出力したりする。
 以上説明した構成に加えて、ナビゲーション装置1は、ナビゲーション装置1を操作するための図示しない操作部が設けられている。操作部は、利用者からの操作指示を受け付け、その指示内容を指示信号として制御部11に出力するようになっている。なお、表示部14と操作部をタッチパネルにより構成することもできる。
 [2.ナビゲーション装置1の動作]
 次に、図4-図6に示すフローチャートを用いてナビゲーション装置1の動作概要を説明する。なお、本フローチャートは、ナビゲーション装置1の利用者が音声により目的地を設定する場合の処理例を示している。また、本フローチャートに示す処理は、ナビゲーション装置1が第1発話開始ボタン18a又は第2発話開始ボタン18bが押され、第1マイク17a又は第2マイク17bに対して目的地を設定するため発話が行われたことを検出した場合に開始する。
 まず、制御部11は、検出した発話の内容から次に行う動作を絞り込めたか否か、すなわち、複数の操作指示候補があるか否かを判定する(ステップS11)。操作指示候補とは、検出した発話内容から推測されるナビゲーション装置1に対する操作指示の候補である。例えば、制御部11は、話者の発話内容が「横浜ランドマークタワーを目的地に設定」であった場合には、目的地を一つの地点である横浜ランドマークタワーに設定することを認識することができることから、複数の操作指示候補がないと判定して(ステップS11:NO)、話者からの指示に基づいて動作(横浜ランドマークタワーまでの案内)を開始し(ステップS12)、当該フローチャートにおける処理を終了する。
 一方、制御部11は、話者の発話内容が「横浜を目的地に設定」であった場合には、目的地を横浜エリアの何れの地点に設定すべきかを認識することができず、また、横浜エリアには案内すべき地点の候補として「横浜駅」、「横浜ランドマークタワー」、「横浜市役所」、「横浜中華街」、「横浜スタジアム」など複数の候補が存在することから、複数の操作指示候補(「目的地を横浜駅に設定」、「目的地を横浜ランドマークタワーに設定」、「目的地を横浜市役所に設定」など)があると判定して(ステップS11:YES)、ステップS13の処理に移行する。なお、以下の当該フローチャートに関する説明では、話者の最初の発話内容が「横浜を目的地に設定」であったと仮定して説明する。
 次に、制御部11は、第1余裕度決定処理を行う(ステップS13)。
 ここで、図5を参照して、第1余裕度決定処理について説明する。なお、図5は、第1余裕度決定処理の一例を示すフローチャートである。
 まず、話者判定部11a(制御部11)が、話者の判定を行う(ステップS51)。
 話者判定部11aが、話者は運転手ではないと判定した場合には(ステップS52:NO)、余裕度決定部11g(制御部11)は、余裕度を「最高」に決定し(ステップS53)、第1余裕度決定処理を終了する。一方、話者判定部11aが、話者は運転手であると判定した場合には(ステップS52:YES)、運転中判定部11b(制御部11)が、運転中判定を行う(ステップS54)。
 運転中判定部11bが、運転者は運転中ではないと判定した場合には(ステップS55:NO)、余裕度決定部11gは、余裕度を「最高」に決定し(ステップS53)、第1余裕度決定処理を終了する。一方、運転中判定部11bが、運転者は運転中であると判定した場合には(ステップS55:YES)、車速計測部11d(制御部11)が、車速の計測を行う(ステップS56)。
 次に、地点危険度判定部11e(制御部11)が、危険度判定地点における危険度を判定する(ステップS57)。
 次に、運転成熟度判定部11f(制御部11)が、運転手の運転成熟度を判定する(ステップS58)。
 次に、余裕度決定部11g(制御部11)が、余裕度決定テーブル(図3)を参照して、ステップS56の処理で車速計測部11dが計測した車速、ステップS57の処理で地点危険度判定部11eが判定した危険度、及び、ステップS58の処理で運転成熟度判定部11fが判定した運転成熟度に基づいて、余裕度を決定し(ステップS59)、第1余裕度決定処理を終了する。
 図4に戻り、制御部11は、第1余裕度決定処理(ステップS13)を終了すると、次いで、ステップS13の処理で決定された余裕度は「最高」であるか否かを判定する(ステップS14)。このとき、制御部11が、余裕度は「最高」であると判定した場合には(ステップS14:YES)、出力形態決定部11h(制御部11)が、操作指示候補(「提供情報」の一例)を表示部14に表示させることを決定し、操作指示候補を表示部14に表示させる(ステップS15)。例えば、「横浜」を名称に含む地点である「横浜駅」、「横浜ランドマークタワー」、「横浜市役所」、「横浜中華街」、「横浜スタジアム」などを目的地の候補とする候補一覧画面を表示部14に表示させる。そして、候補の中から話者に目的地を設定してもらうこととする。候補を候補一覧画面に表示させる際の順序としては、ナビゲーション装置1が積載された自動車から距離が近い順、ナビゲーション装置1の利用者が設定する頻繁度が高い順など様々な並び順を採用することができる。なお、話者は操作部を介して又は音声により、候補一覧画面に表された候補の中から何れかの候補を選択する指示を入力することができるようになっている。
 制御部11は、候補一覧画面に表された候補の中から何れかの候補を選択する指示を受け付けると(ステップS16)、受け付けた指示に応じた動作を開始して(ステップS12)、当該フローチャートにおける処理を終了する。例えば、制御部11は、候補一覧画面に表される候補の中から「横浜駅」を選択する指示を受け付けた場合には、横浜駅を目的地に設定して、横浜駅までの案内を開始する。
 また、制御部11は、ステップS14の処理において、余裕度は「最高」ではないと判定した場合には(ステップS14:NO)、次いで、ステップS13の処理で決定された余裕度は「高」であるか否かを判定する(ステップS17)。このとき、制御部11が、余裕度は「高」であると判定した場合には(ステップS17:YES)、出力形態決定部11h(制御部11)が、「横浜」を名称に含む地点である「横浜駅」、「横浜ランドマークタワー」、「横浜市役所」、「横浜中華街」、「横浜スタジアム」を所定の順序で並べ替えた際の上位候補(例えば、3件)を抽出する(ステップS18)。所定の順序としては、ナビゲーション装置1が積載された自動車から距離が近い順、ナビゲーション装置1の利用者が設定する頻繁度が高い順など様々な並び順を採用することができる(後述するステップS21の処理、ステップS24の処理においても同様である)。
 次に、出力形態決定部11h(制御部11)は、ステップS18の処理で抽出した上位候補(「提供情報」の一例)を、スピーカー15を介して順に音声出力することを決定し、スピーカー15から上位候補を音声出力させる(ステップS19)。例えば、出力形態決定部11hは「横浜を含む候補として、横浜駅、横浜ランドマークタワー、横浜中華街があります。どこを目的地に設定しますか?」といった文章をスピーカー15から音声出力させる。これに対して話者は音声出力された上位候補の中から自らが選択した候補を目的地とする指示を、マイクを介して音声入力することができるようになっている。
 制御部11は、音声出力された上位候補の中から何れかの候補を選択する指示を受け付けると(ステップS16)、受け付けた指示に応じた動作を開始し(ステップS12)、当該フローチャートにおける処理を終了する。
 また、制御部11は、ステップS17の処理において、余裕度は「高」ではないと判定した場合には(ステップS17:NO)、次いで、ステップS13の処理で決定された余裕度は「中」であるか否かを判定する(ステップS20)。このとき、制御部11が、余裕度は「中」であると判定した場合には(ステップS20:YES)、ステップS18の処理と同様に、出力形態決定部11h(制御部11)が、「横浜」を名称に含む地点である「横浜駅」、「横浜ランドマークタワー」、「横浜市役所」、「横浜中華街」、「横浜スタジアム」を所定の順序で並べ替えた際の上位候補(例えば、3件)を抽出する(ステップS21)。
 次に、制御部11は、図6に示す第2余裕度決定処理を行う(ステップS22)。第2余裕度決定処理については、図5に示した第1余裕度決定処理におけるステップS51からステップS55の処理を削除した処理と同様である。ステップS51からステップS55の処理に対応する処理が無いことから、第2余裕度決定処理で決定される余裕度は、「高」、「中」、「低」の何れかである。なお、第1余裕度決定処理のステップS56からステップS59の処理は、第2余裕度決定処理のステップS91からステップS94の処理にそれぞれ対応している。
 図4に戻り、制御部11は、第2余裕度決定処理(ステップS22)を終了すると、次いで、ステップS22の処理で決定された余裕度は「高」であるか否かを判定する(ステップS23)。このとき、制御部11は、余裕度は「高」でないと判定した場合には(ステップS23:NO)、余裕度が「高」になるまで、ステップS22の処理とステップS23の処理を繰り返す。一方、制御部11は、余裕度は「高」であると判定した場合には(ステップS23:YES)、出力形態決定部11h(制御部11)は、ステップS21の処理で抽出した上位候補(「提供情報」の一例)を、スピーカー15を介して順に音声出力することを決定し、スピーカー15から上位候補を音声出力させ(ステップS19)、話者に詳細な指示の入力を促す。
 一般的に、運転者の余裕度が低いときにナビゲーション装置1から音声を出力すると、運転者の集中力が散漫になり安全性に影響を及ぼすおそれがあるが、ステップS22の処理及びステップS23の処理のように、運転者の余裕度が「高」になるまで音声出力を控えることにより、安全性が低下することを防止することができる。また、余裕度が低いとスピーカー15から出力された音声を聞き逃す可能性が高いため、余裕度が高くなるまで音声出力を控えることにより提供情報の聞き逃しを防ぐことができる。更に、表示部14に表示する場合のように何度も提供情報を確認することができない音声による提供情報の提供する場合におけるナビゲーション装置1の操作効率の低下を防ぐこともできる。
 ステップS23の処理に続くステップS19の処理以降のステップS16の処理、ステップS12の処理については、ステップS17の処理で余裕度は「高」であると判定した場合と同様なので、説明を省略する。
 また、制御部11が、ステップS20の処理において、余裕度は「中」ではないと判定した場合(余裕度が「低」である場合)には(ステップS20:NO)、出力形態決定部11h(制御部11)が、「横浜」を名称に含む地点である「横浜駅」、「横浜ランドマークタワー」、「横浜市役所」、「横浜中華街」、「横浜スタジアム」を所定の順序で並べ替えた際の上位候補(例えば、3件)と、最上位候補を抽出する(ステップS24)。
 次に、制御部11は、最上位候補に基づいて動作を実行する。例えば、制御部11は、最上位候補として「横浜駅」が抽出された場合には、目的地として「横浜駅」を暫定的に設定して経路案内を開始する(ステップS25)。
 次に、制御部11は、ステップS22の処理、ステップS23の処理を実行し、ステップS23の処理において余裕度が「高」であると判定した場合には、ステップS24の処理で抽出した上位候補(「提供情報」の一例)を、スピーカー15を介して順に音声出力することを決定し、スピーカー15から上位候補を音声出力させる(ステップS19)。これらの処理は、ステップS25の処理で、暫定的に開始された動作を話者により指示された動作に切り替えるために、話者に上位候補を音声により提示して、話者の意図する指示の入力を促すための処理である。例えば、ステップS25の処理で暫定的に目的地を「横浜駅」に設定した場合、この目的地は話者の意図した目的地ではない可能性があるので、余裕度が「高」になったときに、「目的地は横浜駅に設定されています。他の候補として横浜ランドマークタワー、横浜中華街があります」といったようにステップS24の処理で抽出した上位候補を読み上げ、話者に意図する目的地を設定するように促す。
 次に、制御部11は、ステップS19の処理において音声出力された上位候補の中から何れかの候補を選択する指示を受け付けると(ステップS16)、受け付けた指示に応じた動作を開始し(ステップS12)、当該フローチャートにおける処理を終了する。但し、制御部11は、例えば、話者による「目的地は横浜駅のままで」といった音声が入力された場合には、ステップS25の処理で開始した動作を継続する。
 以上説明したように、本実施形態におけるナビゲーション装置1では、制御部11(「話者特定手段」、「余裕度算出手段」、「出力形態決定手段」の一例)が、発話した話者を特定し、特定した話者が、複数の操作指示候補(「提供情報」の一例)を受容する余裕の度合いを示す余裕度を算出し、算出した余裕度に基づいて、操作指示候補を出力する際の出力形態を決定し、決定した出力形態に応じて表示部14(「出力手段」の一例)又はスピーカー15(「出力手段」の一例)の少なくとも何れか一方が操作指示候補を出力する。
 したがって、本実施形態におけるナビゲーション装置1によれば、情報の受け手である話者は自己の余裕度に応じた形態で操作指示候補を受容することができる。
 また、制御部11は、特定した話者が運転中であるか否かに応じて余裕度を算出する。したがって、複数の操作指示候補がある場合に、話者が運転中ではなく、表示部14に表示される複数の操作指示候補を確認することができる状態であるにもかかわらず、操作指示候補を音声出力してしまうということはなく、情報の受け手である話者に煩わしさを感じさせずに話者に適した形態で操作指示候補を提示することができる。
 さらに、制御部11は、特定した話者が運転中である場合に、当該話者が運転している自動車(「移動体」の一例)の車速(「移動速度」の一例)に基づいて余裕度を決定する。例えば、制御部11は、車速が低いほど余裕度を高く決定し、車速が高いほど余裕度を低く決定する。これにより、車速に応じて話者の余裕度を適切に決定することができる。
 さらにまた、制御部11は、特定した話者が運転中である場合に、当該話者が運転している自動車(「移動体」の一例)の危険度判定地点における危険度に基づいて余裕度を決定する。例えば、制御部11は、危険度判定地点の危険度が低いほど余裕度を高く決定し、危険度が高いほど余裕度を低く決定する。これにより、危険度判定地点の危険度に応じて話者の余裕度を適切に決定することができる。
 さらにまた、制御部11は、特定した話者が運転中である場合に、当該話者の運転成熟度に基づいて余裕度を決定する。例えば、制御部11は、運転成熟度が高いほど余裕度を高く決定し、運転成熟度が低いほど余裕度を低く決定する。これにより、運転成熟度に応じて話者の余裕度を適切に決定することができる。
 さらにまた、制御部11は、余裕度を3区分に区分するための基準に従い、余裕度が「中」以下である場合(「第1の区分に含まれる場合」の一例)に操作指示候補(「提供情報」の一例)を出力させず、余裕度が「高」である場合(「第2の区分に含まれる場合」の一例)に操作指示候補をスピーカー15(「音声出力手段」の一例)に音声出力させ、余裕度が「最高」である場合(「第3の区分に含まれる場合」の一例)に操作指示候補を表示部14(「表示手段」の一例)に表示出力させる。これにより、運転者は、余裕度が「最高」である場合には表示部14に表示される操作指示候補の中から意図する操作指示候補を選択して指示することができ、余裕度が「高」である場合にはスピーカー15から出力される操作指示候補の中から意図する操作指示候補を選択して指示することができる。また、余裕度が「中」以下である場合には操作指示候補が出力されないので、運転者は運転に集中することができる。このように、余裕度に応じて、画面表示と音声の出力形態をそれぞれ切り替えることで、自動車の安全性が向上する。つまり、運転者は安全走行をすることができる。
 さらにまた、制御部11は、スピーカー15から操作指示候補を音声出力させる場合には、操作指示候補の上位候補のみを音声出力する。これにより、全ての操作指示候補を音声出力する場合と比較して運転者が音声により確認する情報量が絞り込まれるので、音声出力された操作指示候補の認識に要する運転者の負担を軽減することができる。
 さらにまた、制御部11は、余裕度が「中」以下であるために操作指示候補を出力させないと決定した場合には(図4のステップS23:NO)、余裕度が「中」以下でなくなるまで(すなわち、余裕度が「高」になるまで)繰り返し余裕度を算出し(図4のステップS22)、余裕度が「中」以下でなくなった場合に(図4のステップS23:YES)、その余裕度(本実施形態では余裕度「高」)に応じた形態で操作指示候補を出力させる。これにより、運転者の余裕度が低い状態から一定の段階まで高まり、運転者が操作指示候補を選択するのに適したタイミングで操作指示候補を出力することができる。例えば、急ブレーキが多発する地点や見通しの悪い交差点など、危険度の高い地点(余裕度が低くなる地点)を抜けて、運転者の余裕度が高まり、他の事柄に注意を向ける余裕ができたタイミングで操作指示候補が出力されるので、運転者も出力された内容を理解しやすくなる。仮に運転者の余裕度が低いときに操作指示候補が出力されてしまうと、聞き逃しや、運転手がナビゲーション装置1に対して何をすべきか分からなくなり、誤った指示を入力してしまうおそれがある。また、運転中にいかに余裕があるかについては運転者の運転技術によってばらつきがあり、運転技術が高い運転者については操作指示候補の読み上げを保留するなど余計な機能を作動させずに簡素なシステムとした方が好まれる場合もある。そのため、本実施形態のように、運転者の運転履歴から算出される運転成熟度を、余裕度を決定する際の要素とすることにより、運転技術の高低に応じて操作指示候補の出力を行うことができ、運転者にストレスを感じさせることなく運転に集中させることができる。
 さらにまた、話者に提供すべき複数の操作指示候補(「指示内容の候補」の一例)が存在し(図4のステップS11:YES)、余裕度が「中」以下である場合に(図4のステップS20:NO)、制御部11(「処理実行手段」の一例)は、操作指示候補の中の一つの操作指示候補に基づいて処理を実行する(図4のステップS25)。これにより、運転者の余裕度が低い状況では操作指示候補を出力せずに暫定的に一つの操作指示候補に基づいて処理を実行することで、処理の停滞を防ぐことができる。また、運転者の余裕度が高まり、操作指示候補を選択する余裕が生まれた段階で操作指示候補を出力することにより、運転者の指示を処理に反映させることができるようになる。更に、一つの操作指示候補を選択する際に、運転者が選択する可能性の高い最上位候補に基づいて処理を実行することにより(図4のステップS24、ステップS25)、運転者に余裕が生まれたときに別の操作指示候補が選択され、処理をやり直す必要が生じる可能性を低くすることができる。
 さらにまた、制御部11は、地点危険度情報12aという実際の自動車の走行記録であるプローブ情報に基づく情報に従って危険度を判定する。これにより、運転手が本当に注意すべき地点において、ナビゲーション装置1の操作のために注意が散漫になることなく、運転に集中することができる。
 [3.変形例]
 以下、本実施形態の変形例について説明する。
 [3.1.話者判定について]
 [3.1.1.ケース1]
 図7に示すように、運転席のハンドルに第1発話開始ボタン18aを設け、センターコンソールに発話開始ボタン18c、マイク17c及び車内カメラ41を設けた変形例について説明する。マイク17cは、制御部11の制御のもと、指定された方向の音声の録音効率を向上させることが可能なビームフォーミング機能を備えたマイクとする。なお、マイク17c及び車内カメラ41はルームミラーなど車室全体が見渡しやすい場所に設置することとしてもよい。
 当該変形例において、制御部11(話者判定部11a)は、自動車に乗車している何れかの者により第1発話開始ボタン18a、発話開始ボタン18cが押されて話者が発話すると、車内カメラ41から取得した映像を解析し、運転席、助手席、後部座席に座っている人の口の動きを検出することにより話者を判定する。制御部11は、この話者判定の結果に基づいて、マイク17cのビームフォーミング機能を使用して、判定した話者の方向に指向性を持たせる。これにより、話者以外の会話や余計な音を除いて音声を取り込むことができる。また、話者はナビゲーション装置1を操作するという観点から、表示部14が設けられているセンターコンソールの方向に向かって発話すると考えられるので、制御部11は、車内カメラ41から取得した映像を解析して自動車内の人の視線を特定し、センターコンソールの方向に視線を向けているか否かを、話者判定を行う際の判定要素として採用することで、話者判定の精度を向上させることができる。
 [3.1.2.ケース2]
 図8に示すように、運転席、助手席、後部座席の各席にマイク17d、マイク17e、マイク17f、マイク17gを設けた変形例について説明する。当該変形例では、予めナビゲーション装置1に、キーワード(例えば、ナビゲーション装置1又はナビゲーション装置1が積載された自動車のニックネーム)を登録しておくものとする。制御部11(話者判定部11a)は、マイク17d、マイク17e、マイク17f、マイク17gにキーワードが入力された場合に、当該キーワードが入力されたマイクの中で当該キーワードが入力された際の音量が最も大きかったマイクの位置に配置されている人を話者と判定する。
 例えば、自動車のニックネームとして「一郎君」がナビゲーション装置1に登録されていると仮定する。制御部11は、各マイク17d、マイク17e、マイク17f、マイク17gから入力される通常の会話では話者判定を行わず、話者が「一郎君、渋谷まで案内して」と発話すると、「一郎君」というニックネームの入力に反応して、その入力された音量が最大であるマイク17に対応する座席に座っている人を話者と判定し、ニックネームの後に入力された指示(すなわち「渋谷まで案内して」)に応じた処理を、判定した話者の余裕度に応じて行う。このとき、制御部11は、話者判定の後、判定した話者以外の話者に対応するマイクの録音音量を下げることにより、判定した話者以外の会話や余計な音声の影響を受けることなく、話者の発話内容の認識効率を向上させることができる。また、一般的に人は他人に物事を頼むときに、「鈴木さん、窓を閉めてください」というように、名前を呼んで指示をすることが多いが、当該変形例によれば、装置を操作するということを意識することなく人とコミュニケーションをとっているような感覚で、装置を操作することができる。
 [3.2.運転成熟度判定について]
 運転成熟度判定の変形例について説明する。当該変形例では、例えば、制御部11(運転成熟度判定部11f)は、走行距離情報12bを参照して、総走行距離が長いほど運転成熟度が高いと判定する。また、制御部11は、運転履歴情報12dを参照して、直近の所定期間(例えば、6ヶ月)内に急ハンドル又は急ブレーキの少なくとも何れか一方を行った頻度が少ないほど運転成熟度が高いと判定する。
 [3.3.地点危険度情報12aについて]
 予め地点危険度情報12aを地点危険度情報提供サーバ装置から取得しておく変形例について説明する。当該変形例では、少なくとも地図情報12cに基づいて経路案内が可能なエリアの所定地点(例えば、自動車が走行可能な道路上における15m間隔にプロットされる各地点)における危険度を示す地点危険度情報12aを、地点危険度情報提供サーバ装置から予め取得して記憶部12に記憶させておく。そして、危険度判定地点の危険度を判定する場合に、制御部11(地点危険度判定部11e)は、記憶部12に記憶されている地点危険度情報12aを参照して、位置認識部11cにより認識された現在位置と最も近い所定地点に対応する危険度に基づいて危険度の判定を行う。
 [3.4.余裕度決定処理について]
 上記実施形態では、制御部11が、図4のステップS22の処理において第2余裕度決定処理を行うこととしたが、ステップS22の処理において第1余裕度決定処理を行う変形例について説明する。当該変形例によれば、ステップS22の処理において余裕度が「最高」に決定されることが起こり得るが、制御部11は、余裕度が「最高」に決定された場合にはステップS23の処理において「YES」と判定し、ステップS19の処理に移行することとする。
 また、制御部11は、ステップS22の処理において余裕度が「最高」に決定された場合には、ステップS15の処理に移行して、出力形態決定部11h(制御部11)が、操作指示候補を表示部14に表示させることを決定し、操作指示候補を表示部14に表示させることとしてもよい。この場合、例えば、ステップS22の処理及びステップS23の処理を繰り返している最中に、話者が運転者から同乗者に切り替わったり、運転者がパーキングブレーキ31をかけたりして余裕度が「最高」に変化した場合に、操作指示候補が表示部14に表示されることとなり、話者は操作指示候補を確実に把握することができるとともに、的確に操作指示候補を選択することができる。
1 情報提供装置
11 制御部
11a 話者判定部
11b 運転中判定部
11c 位置認識部
11d 車速計測部
11e 地点危険度判定部
11f 運転成熟度判定部
12 記憶部
12a 地点危険度情報
12b 走行距離情報
12c 地図情報
12d 運転履歴情報
13 通信部
14 表示部
15 スピーカー
16 車外カメラ
17a 第1マイク
17b 第2マイク
18a 第1発話開始ボタン
18b 第2発話開始ボタン
31 パーキングブレーキ
32 車速センサー

Claims (12)

  1.  発話した話者を特定する話者特定手段と、
     前記話者特定手段が特定した話者が、提供情報を受容する余裕の度合いを示す余裕度を算出する余裕度算出手段と、
     前記余裕度算出手段が算出した余裕度に基づいて、前記提供情報の出力形態を決定する出力形態決定手段と、
     前記出力形態決定手段が決定した出力形態に応じて、前記提供情報を出力する出力手段と、
     を備えることを特徴とする情報提供装置。
  2.  前記余裕度算出手段は、前記話者特定手段が特定した話者が運転中であるか否かに応じて前記余裕度を算出することを特徴とする請求項1に記載の情報提供装置。
  3.  前記余裕度算出手段は、前記話者特定手段が特定した話者が運転中である場合に、前記話者特定手段が特定した話者が運転している移動体の移動速度に基づいて前記余裕度を算出することを特徴とする請求項2に記載の情報提供装置。
  4.  前記余裕度算出手段は、前記話者特定手段が特定した話者が運転中である場合に、前記話者特定手段が特定した話者の運転する移動体の現在地点における危険度に基づいて前記余裕度を算出することを特徴とする請求項2又は3に記載の情報提供装置。
  5.  前記余裕度算出手段は、前記話者特定手段が特定した話者が運転中である場合に、前記話者特定手段が特定した話者の運転成熟度に基づいて前記余裕度を算出することを特徴とする請求項2乃至4の何れか一項に記載の情報提供装置。
  6.  前記出力形態決定手段は、前記余裕度を3つに区分する基準に従い、前記余裕度算出手段が算出した余裕度が第1の区分に含まれる場合に前記提供情報を出力させず、第2の区分に含まれる場合に前記提供情報を音声出力手段に音声出力させ、第3の区分に含まれる場合に前記提供情報を表示手段に表示出力させることを特徴とする請求項1乃至5の何れか一項に記載の情報提供装置。
  7.  前記余裕度算出手段は、算出した余裕度が前記第1の区分に含まれる場合に、算出する余裕度が前記第1の区分に含まれなくなるまで余裕度を算出し、
     前記出力形態決定手段は、前記余裕度算出手段が算出した余裕度が前記第1の区分に含まなれなくなった場合に、その余裕度に応じた出力形態で前記提供情報を出力させることを特徴とする請求項6に記載の情報提供装置。
  8.  前記提供情報には、前記話者特定手段が特定した話者が選択すべき指示内容の候補が複数含まれており、
     前記余裕度算出手段が算出した余裕度が第1の区分に含まれる場合に、前記指示内容の候補の中の一つの指示内容の候補に基づいて処理を実行する処理実行手段、
     を更に備えることを特徴とする請求項6又は7に記載の情報提供装置。
  9.  キーワードを記憶する記憶手段を更に備え、
     前記話者特定手段は、前記人が配置される位置毎に設けられた何れかのマイクに前記キーワードが入力された場合に、当該キーワードが入力されたマイクの中で当該キーワードが入力された際の音量が最も大きかったマイクの位置に配置されている人を話者と特定することを特徴とする請求項1乃至8の何れか一項に記載の情報提供装置。
  10.  前記話者特定手段が話者を特定した場合に、前記人が配置される位置毎に設けられたマイクのうち、前記話者特定手段が特定した話者に対応するマイク以外のマイクの音量を下げる制御、又は、前記話者特定手段が特定した話者に対応するマイクの前記話者特定手段が特定した話者に対する指向性を高める制御、の少なくとも何れか一方の制御を行うマイク制御手段を更に備えることを特徴とする請求項1乃至9の何れか一項に記載の情報提供装置。
  11.  情報提供装置により実行される情報提供方法であって、
     発話した話者を特定する話者特定工程と、
     前記話者特定工程により特定された話者が、提供情報を受容する余裕の度合いを示す余裕度を算出する余裕度算出工程と、
     前記余裕度算出工程により算出された余裕度に基づいて、前記提供情報の出力形態を決定する出力形態決定工程と、
     前記出力形態決定工程により決定された出力形態に応じて、前記提供情報を出力する出力工程と、
     を含むことを特徴とする情報提供方法。
  12.  情報提供装置に含まれるコンピュータを、
     発話した話者を特定する話者特定手段、
     前記話者特定手段が特定した話者が、提供情報を受容する余裕の度合いを示す余裕度を算出する余裕度算出手段、
     前記余裕度算出手段が算出した余裕度に基づいて、前記提供情報の出力形態を決定する出力形態決定手段、
     前記出力形態決定手段が決定した出力形態に応じて、前記提供情報を出力する出力手段、
     として機能させることを特徴とする情報提供用プログラム。
PCT/JP2013/063551 2013-05-15 2013-05-15 情報提供装置、情報提供方法、情報提供用プログラム WO2014184898A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/063551 WO2014184898A1 (ja) 2013-05-15 2013-05-15 情報提供装置、情報提供方法、情報提供用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/063551 WO2014184898A1 (ja) 2013-05-15 2013-05-15 情報提供装置、情報提供方法、情報提供用プログラム

Publications (1)

Publication Number Publication Date
WO2014184898A1 true WO2014184898A1 (ja) 2014-11-20

Family

ID=51897913

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/063551 WO2014184898A1 (ja) 2013-05-15 2013-05-15 情報提供装置、情報提供方法、情報提供用プログラム

Country Status (1)

Country Link
WO (1) WO2014184898A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1082653A (ja) * 1996-09-06 1998-03-31 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2001222291A (ja) * 2000-02-08 2001-08-17 Kenwood Corp 音声認識装置を用いた制御装置
JP2004030212A (ja) * 2002-06-25 2004-01-29 Toyota Central Res & Dev Lab Inc 車両用情報提供装置
JP2004213175A (ja) * 2002-12-27 2004-07-29 Toyota Motor Corp 情報通信システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1082653A (ja) * 1996-09-06 1998-03-31 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2001222291A (ja) * 2000-02-08 2001-08-17 Kenwood Corp 音声認識装置を用いた制御装置
JP2004030212A (ja) * 2002-06-25 2004-01-29 Toyota Central Res & Dev Lab Inc 車両用情報提供装置
JP2004213175A (ja) * 2002-12-27 2004-07-29 Toyota Motor Corp 情報通信システム

Similar Documents

Publication Publication Date Title
US8756000B2 (en) Navigation apparatus and method of detection that a parking facility is sought
US20210166275A1 (en) System and method for providing content to a user based on a predicted route identified from audio or images
US9644985B2 (en) Navigation device that evaluates points of interest based on user utterance
JP6604151B2 (ja) 音声認識制御システム
WO2008068954A1 (ja) ナビゲーション装置
US20160245659A1 (en) Method and system of route guidance for a towing vehicle
JP5217969B2 (ja) ナビゲーション装置
JP4483764B2 (ja) 運転支援システムおよびプログラム
JP2008070128A (ja) 走行履歴記録装置および走行履歴記録装置に用いるプログラム
JP4910563B2 (ja) 音声認識装置
JP6619316B2 (ja) 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体
JP4580230B2 (ja) ナビゲーション装置
JP2014218124A (ja) 操作支援装置及び操作支援方法
CN111341134A (zh) 车道线向导提示方法、云端服务器及车辆
WO2014184898A1 (ja) 情報提供装置、情報提供方法、情報提供用プログラム
JP5611103B2 (ja) ナビゲーション装置
JP2017173107A (ja) 経路生成装置、経路生成方法、プログラム及び記録媒体
JP4605103B2 (ja) 車両用運転支援装置
JP5388706B2 (ja) 発呼タイミング制御装置および発呼タイミング制御方法
JP6250891B2 (ja) 移動体用情報出力装置
WO2023062814A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP2018091856A (ja) 経路取得装置、経路生成装置及びプログラム
JP2017157070A (ja) 探索装置、探索方法、探索プログラム及び記録媒体、並びにナビゲーション装置
WO2023162192A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
JP7280072B2 (ja) 報知制御装置、および、報知制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13884786

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13884786

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP