WO2017199434A1 - 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法 - Google Patents

情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法 Download PDF

Info

Publication number
WO2017199434A1
WO2017199434A1 PCT/JP2016/065039 JP2016065039W WO2017199434A1 WO 2017199434 A1 WO2017199434 A1 WO 2017199434A1 JP 2016065039 W JP2016065039 W JP 2016065039W WO 2017199434 A1 WO2017199434 A1 WO 2017199434A1
Authority
WO
WIPO (PCT)
Prior art keywords
question
information
unit
understanding
output
Prior art date
Application number
PCT/JP2016/065039
Other languages
English (en)
French (fr)
Inventor
大樹 工藤
悠介 小路
進也 田口
洋一 藤井
辰彦 斉藤
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2016/065039 priority Critical patent/WO2017199434A1/ja
Priority to JP2018518049A priority patent/JP6403927B2/ja
Priority to TW105128077A priority patent/TW201741863A/zh
Publication of WO2017199434A1 publication Critical patent/WO2017199434A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Definitions

  • the present invention relates to an information provision control device, a navigation device, an equipment inspection work support device, a conversation robot control device, and an information provision control method for controlling information to be output to the information provision device.
  • information providing apparatuses have been used in various situations in daily life, and among them, there are many apparatuses that provide various information in a dialog format with a user.
  • the information providing apparatus there has been proposed a technique for providing information with reduced user inconvenience by changing the amount of information provided by the user.
  • Patent Document 1 in a navigation device as an information providing device that provides information to a driver of a vehicle, information that the driver already knows based on an answer obtained from the driver by asking the driver a question.
  • a technique is disclosed that reduces the amount of information to be provided for items that are estimated to determine the memory fixing characteristics and are presumed to be already known by the driver.
  • Patent Document 1 in order to control the amount of information presented by the user, the user needs to answer the contents inquired from the information providing apparatus. However, there was a problem that the annoyance still remained.
  • the present invention has been made to solve the above-described problems, and provides an information provision control device, a navigation device, and equipment inspection capable of changing the level of detail of information provided without asking the user a question. It is an object of the present invention to provide a work support device, a conversation robot control device, and an information provision control method.
  • the information provision control device includes an input reception unit that receives a question regarding information that can be provided by the information provision device, and a certainty factor estimated by using the modality of the question received by the input reception unit.
  • a question determination unit that determines an understanding level of information that can be provided, and a detail level determination unit that determines a detail level of information to be provided to the information providing apparatus based on the understanding level determined by the question determination unit. .
  • the level of detail of information provided thereafter can be changed based on a question issued by the user, it is possible to provide information with less trouble for the user.
  • FIG. 1 It is a block diagram of the car navigation apparatus carrying the information provision control apparatus which concerns on Embodiment 1 of this invention. It is a block diagram of the information provision control apparatus which concerns on Embodiment 1 of this invention.
  • 3A and 3B are diagrams showing an example of the hardware configuration of the information provision control apparatus according to Embodiment 1 of the present invention. It is a flowchart explaining the operation
  • 6 is a diagram illustrating an example of information stored in a semantic analysis table in Embodiment 1.
  • FIG. 1 In Embodiment 1, it is a figure explaining an example of the information stored in the object table.
  • it is a figure explaining an example of the information which a response sentence preparation part memorize
  • 6 is a flowchart illustrating an operation of understanding level determination processing by a question determination unit in the first embodiment.
  • FIG. 12A is a diagram illustrating an example of an output timing table when the level of detail is “high”
  • FIG. 12B is a diagram illustrating an example of the output timing table when the level of detail is “low”.
  • It is a block diagram of the equipment inspection work assistance apparatus carrying the information provision control measure concerning this Embodiment 1.
  • FIG. It is a block diagram of the conversation robot control apparatus carrying the information provision control apparatus which concerns on this Embodiment 1.
  • FIG. It is a figure explaining an example of the cooking procedure which the procedure data preparation part of a conversation robot control apparatus searches.
  • 10 is a flowchart illustrating an operation of understanding level determination processing by a question determination unit in the second embodiment.
  • Embodiment 2 it is a flowchart explaining the operation
  • this Embodiment 2 it is a figure explaining an example of the relationship between the said understanding degree, a question answer coincidence degree, and a certainty degree about the understanding degree which a question determination part determines.
  • 10 is a flowchart illustrating an operation of understanding level determination processing by a question determination unit in the second embodiment.
  • Embodiment 1 FIG.
  • the car navigation apparatus 600 is an information providing apparatus that provides information to a driver or the like that is a user based on the control performed by the information provision control apparatus 100.
  • FIG. 1 is a configuration diagram of a car navigation apparatus 600 equipped with an information provision control apparatus 100 according to Embodiment 1 of the present invention.
  • the car navigation device 600 accepts, for example, a route search instruction input to the input device 700 by a driver or the like from the input device 700 and accepts it under the control of the information provision control device 100.
  • the output device 800 outputs information related to the guidance route according to the route search instruction.
  • the input device 700 is, for example, a voice input device including a microphone or a touch panel.
  • the output device 800 is a display device such as a display, or an audio output device such as a speaker.
  • the car navigation device 600 includes a reception unit 61, a position detection unit 62, a guidance data creation unit 63, a guidance control unit 64, and a data storage unit 65.
  • the accepting unit 61 accepts, for example, a route search instruction or the like input to the input device 700 by a driver or the like from the input device 700.
  • the position detection unit 62 includes, for example, a speed sensor, a gyro sensor, a GPS (Global Positioning System) receiver, and the like, and detects the current position, speed, direction, current time, and the like of the vehicle.
  • the position detector 62 may be configured by combining two or more of these sensors and receivers.
  • the position detection unit 62 outputs information such as the current position, speed, direction, and current time of the vehicle detected by the position detection unit 62 to the guidance data creation unit 63.
  • the guidance data creation unit 63 uses the route search instruction received by the reception unit 61, information stored in the data storage unit 65, information such as the current position, speed, direction, and current time of the vehicle output from the position detection unit 62. Based on this, for example, a route to the destination is searched, and guidance data for guiding the searched route is created.
  • the guidance data creation unit 63 outputs the created guidance data to the guidance control unit 64.
  • the guidance data creation unit 63 creates guidance data according to the control information.
  • the control information includes an output sentence or information indicating output timing.
  • the guidance control unit 64 converts the guidance data created by the guidance data creation unit 63 into, for example, voice data and causes the output device 800 to output it.
  • the guidance control unit 64 converts the guidance data into voice data and outputs it.
  • the present invention is not limited to this, and for example, the guidance control unit 64 converts the guidance data into video data and outputs it. You may make it make it.
  • the data storage unit 65 stores map data, various data used for route search, and the like.
  • the data storage unit 65 includes, for example, an HDD (Hard Disk Drive), a DVD (Digital Versatile Disc), a memory, and the like.
  • the information provision control device 100 is mounted on the car navigation device 600.
  • the present invention is not limited to this, and the information provision control device 100 includes the car navigation device 600. It may be provided outside and control the creation of guide data in the car navigation device 600 via a communication network such as the Internet.
  • FIG. 2 is a configuration diagram of the information provision control apparatus 100 according to Embodiment 1 of the present invention.
  • the information provision control device 100 includes an input reception unit 1, a question answering unit 2, an external information acquisition unit 3, an output control unit 4, and a provision information creation control unit 5.
  • the input receiving unit 1 receives input information from a driver from the input device 700.
  • the driver uses the input device 700 to make a question about a guidance route or the like guided by the car navigation device 600.
  • the input device 700 is a voice input device provided with a microphone or the like, and the driver makes a question by voice.
  • the input receiving unit 1 receives a question from a driver as voice data.
  • the input receiving unit 1 converts the received voice data into text and outputs it to the meaning understanding unit 21 of the question answering unit 2.
  • the input accepting unit 1 for example, “Chapter 7 (pages 134 to 148)” and “Chapter 8” of “Digital Audio Processing” (Tokai University Press, September 25, 1985). Speech recognition is performed using a known technique as described in (pages 149 to 192).
  • the question answering unit 2 analyzes the meaning of the question from the driver, obtains response information for the question and creates a response sentence, and the response sentence includes the question from the driver, the answer information for the question, A question response process is performed in which the history is stored in the history storage unit 25 as a history of questions from the driver.
  • the question answering unit 2 includes a meaning understanding unit 21, a response sentence creating unit 22, a question analysis knowledge storage unit 23, a response sentence template 24, and a history storage unit 25.
  • the question analysis knowledge storage unit 23 further includes a semantic analysis table 231 and a target table 232.
  • the meaning understanding unit 21 analyzes the meaning of the question from the driver acquired as text from the input reception unit 1, specifies the question target that is the target of the inquiry, and inquires the external information acquisition unit 3 about the question target. Specifically, the semantic understanding unit 21 refers to the semantic analysis table 231 of the question analysis knowledge storage unit 23 and determines whether there is an utterance pattern in which the text acquired from the input receiving unit 1 matches the character string. Then, when there is an utterance pattern in which the text and the character string match, the meaning understanding unit 21 acquires a question symbol corresponding to the utterance pattern. Furthermore, the semantic understanding unit 21 collates the question symbol with the target table 232 of the question analysis knowledge storage unit 23, and acquires the question target corresponding to the question symbol from the target table 232.
  • the meaning understanding unit 21 outputs the acquired question object to the external information acquisition unit 3.
  • the meaning understanding unit 21 outputs the acquired question symbol to the response sentence creating unit 22 together with the utterance pattern. Details of the semantic analysis table 231 and the target table 232 will be described later.
  • the response sentence creation unit 22 creates a response sentence based on the question symbol acquired from the meaning understanding unit 21 and the answer information acquired from the external information acquisition unit 3.
  • the response sentence creation unit 22 identifies the response sentence by referring to the response sentence template 24 based on the question symbol acquired from the semantic understanding unit 21 and the answer information acquired from the external information acquisition unit 3. Create a response sentence.
  • the response sentence creation unit 22 outputs the created response sentence to the output control unit 4.
  • the response sentence creation unit 22 stores the created response sentence in the history storage unit 25 in association with the time, the question from the driver, the question symbol, and the answer information acquired from the external information acquisition unit 3. .
  • the question from the driver is a question about a guide route or the like by the driver, which is received by the input receiving unit 1 from the input device 700 and converted into text.
  • the question analysis knowledge storage unit 23 stores a semantic analysis table 231 and a target table 232.
  • the semantic analysis table 231 is a table in which utterance patterns and question symbols are stored in association with each other.
  • the utterance pattern represents an assumed question as a character string.
  • the question symbol is a preset expression representing the meaning of the question.
  • the target table 232 is a table in which question symbols and question targets are stored in association with each other.
  • the history storage unit 25 accepts the response sentence created by the response sentence creation unit 22 from the driver in association with the time, the question from the driver, the question symbol, and the answer information output from the external information acquisition unit 3. Remember the history of questions.
  • the external information acquisition unit 3 acquires the question target output from the meaning understanding unit 21, makes an inquiry about the question target, and acquires the answer information of the question target.
  • the external information acquisition unit 3 outputs the acquired answer information for the question target to the response sentence creation unit 22 of the question response unit 2.
  • the external information acquisition unit 3 may acquire response information from a local network, for example, or may acquire general information about a route or an object as response information from the Internet or the like.
  • the external information acquisition unit 3 obtains information according to the inquiry and outputs it to the provision information creation control unit 5. .
  • the provided information creation control unit 5 refers to the history storage unit 25, estimates the certainty of the driver's guide route, etc. using the modality of the question from the driver for the guide route, etc., guided by the car navigation device 600, Using this certainty as the degree of understanding of the driver's guidance route, etc., based on the degree of understanding, the level of detail and output timing of the output sentence to be provided on the guidance route are determined, and control information for the guidance data creation unit 63 is created The information control process is performed.
  • the modality generally represents the speaker's judgment and feeling for the content being spoken. Here, modalities such as judgment and feeling of the driver are determined based on the question from the driver.
  • the degree of understanding means how much the driver understands the guidance route and the like.
  • the provided information creation control unit 5 includes a detail level determination unit 51, an output sentence creation unit 52, and an output timing table 53.
  • the detail level determination unit 51 further includes a question determination unit 511 and a detail level determination unit 512.
  • the question determination unit 511 estimates the certainty factor for the driver's guidance route and the like using the modality of the question from the driver, and the certainty factor
  • the driver's level of understanding is determined from
  • the question determination unit 511 outputs the determined understanding level of the driver to the detail level determination unit 512.
  • the detail level determination unit 512 determines the detail level of the output sentence based on the driver's understanding level determined by the question determination unit 511.
  • the detail level determination unit 512 outputs the determined level of detail to the output sentence creation unit 52.
  • the content of the output sentence is the content that the information provision control device 100 causes the car navigation device 600 to output from the output device 800 as guide route information.
  • the output sentence creation unit 52 refers to the output timing table 53, acquires the output sentence template corresponding to the degree of detail determined by the detail degree determination unit 512, and the output timing of the output sentence based on the output sentence template, Based on the acquired information, the external information acquisition unit 3 is inquired about the output sentence timing and information necessary for creating the output sentence. When the output sentence timing is reached, the external information acquisition unit 3 needs to create the output sentence. Information is obtained.
  • the output timing table 53 is a table in which an output sentence template and a timing for outputting an output sentence based on the output sentence template are stored in association with each other.
  • the output control unit 4 converts the response text output by the response text creation unit 22 into voice data, and causes the output device 800 to output it. Further, the output control unit 4 outputs the information of the output sentence output from the output sentence creation unit 52 to the guidance data creation unit 63 as control information.
  • the question analysis knowledge storage unit 23, the response sentence template 24, and the history storage unit 25 are provided in the question response unit 2.
  • the knowledge storage unit 23, the response sentence template 24, and the history storage unit 25 are stored in, for example, a server external to the information provision control device 100, and the meaning understanding unit 21 accesses the server via a network or the like,
  • the analysis knowledge storage unit 23, the response sentence template 24, or the history storage unit 25 may be referred to.
  • the output timing table 53 is provided in the provision information creation control unit 5.
  • the present invention is not limited to this, and the output timing table 53 is, for example, the information provision control device 100.
  • the output sentence creation unit 52 may be stored in an external server and may access the server via a network or the like to refer to the output timing table 53.
  • FIG. 3A and 3B are diagrams showing an example of a hardware configuration of the information provision control apparatus 100 according to Embodiment 1 of the present invention.
  • Each function of the creation unit 52 is realized by the processing circuit 301.
  • the information provision control apparatus 100 includes a processing circuit 301 for controlling the creation of guidance data by the guidance data creation unit 63 based on the received voice input content.
  • the processing circuit 301 may be dedicated hardware as shown in FIG. 3A or a CPU (Central Processing Unit) 306 that executes a program stored in the memory 305 as shown in FIG. 3B.
  • CPU Central Processing Unit
  • the processing circuit 301 When the processing circuit 301 is dedicated hardware, the processing circuit 301 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable). Gate Array) or a combination of these.
  • the processing circuit 301 is the CPU 306, the input reception unit 1, the semantic understanding unit 21, the response sentence creation unit 22, the external information acquisition unit 3, the output control unit 4, the detail level determination unit 51, and the output sentence creation
  • Each function of the unit 52 is realized by software, firmware, or a combination of software and firmware. That is, the input reception unit 1, the semantic understanding unit 21, the response sentence creation unit 22, the external information acquisition unit 3, the output control unit 4, the detail level determination unit 51, and the output sentence creation unit 52 are HDD ( (Hard Disk Drive) 302, CPU 306 for executing a program stored in the memory 305, etc., and a processing circuit such as a system LSI (Large-Scale Integration).
  • HDD Hard Disk Drive
  • CPU 306 for executing a program stored in the memory 305, etc.
  • a processing circuit such as a system LSI (Large-Scale Integration).
  • the programs stored in the HDD 302, the memory 305, and the like include the input receiving unit 1, the semantic understanding unit 21, the response sentence creating unit 22, the external information acquisition unit 3, the output control unit 4, and the level of detail determination unit. 51 and the procedure and method of the output sentence creation unit 52 can be said to be executed by a computer.
  • the memory 305 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Portable Memory). And volatile semiconductor memories, magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs (Digital Versatile Discs), and the like.
  • a part may be realized by dedicated hardware and a part may be realized by software or firmware.
  • the function of the input receiving unit 1 is realized by a processing circuit 301 as dedicated hardware, a meaning understanding unit 21, a response sentence creation unit 22, an external information acquisition unit 3, an output control unit 4, Functions of the detail level determination unit 51 and the output sentence creation unit 52 can be realized by the processing circuit reading and executing the program stored in the memory 305.
  • the question analysis knowledge storage unit 23, the response sentence template 24, the history storage unit 25, and the output timing table 53 use, for example, the HDD 302.
  • the question analysis knowledge storage unit 23, the response sentence template 24, the history storage unit 25, and the output timing table 53 may be configured by a DVD, a memory 305, and the like.
  • the information provision control device 100 includes an input interface device 303 and an output interface device 304 that communicate with external devices such as the input device 700 and the car navigation device 600.
  • the information provision control apparatus 100 is broadly divided into question response processing for receiving a question from a driver and creating a response to the question, and an understanding level determined based on the question from the driver. Based on the above, an information providing process for creating control information for controlling the creation of guide data in the car navigation device 600 is performed. First, an operation of a question response process for receiving a question from a driver and creating a response sentence for the question will be described.
  • FIG. 4 is a flowchart for explaining the operation of the question answering process in the information provision control apparatus 100 according to Embodiment 1 of the present invention.
  • the question answering process described in FIG. 4 is based on the premise that the car navigation apparatus 600 is in a state of providing guidance route information to a driver, for example.
  • the driver gives a route search instruction using the input device 700, and the car navigation device 600 provides guidance as guide route information for guiding a route to the destination based on the search result.
  • Data is created, the guidance data is converted into voice data, and output to the output device 800.
  • the input reception unit 1 stands by until a question about a route from the driver is received from the input device 700 (in the case of “NO” in step ST401).
  • the driver uses the voice from the input device 700 for the route being guided, for example, “Is this right?” Or “Is this straight?” You can ask questions freely. In this way, the input receiving unit 1 determines whether or not the driver has asked about the route.
  • the input reception unit 1 When the input reception unit 1 receives a question from the driver (in the case of “YES” in step ST401), the input reception unit 1 converts the received voice data into text and outputs it to the meaning understanding unit 21. For example, here, if the driver makes a question about the route, “Is this right?”, The input reception unit 1 uses the voice data “Is this right?” And the text “Is this right?” And output to the meaning understanding unit 21.
  • the meaning understanding unit 21 refers to the semantic analysis table 231 of the question analysis knowledge storage unit 23 and determines whether or not there is an utterance pattern represented by a character string that matches the character string indicated by the text acquired from the input reception unit 1. Judgment is made (step ST402). In step ST402, when there is no utterance pattern that matches the character string (in the case of “NO” in step ST402), the process is terminated. In step ST402, when there is an utterance pattern that matches the character string (in the case of “YES” in step ST402), the meaning understanding unit 21 acquires a question symbol corresponding to the utterance pattern that matches the character string (step ST403). . The meaning understanding unit 21 outputs the acquired question symbol to the response sentence creation unit 22.
  • FIG. 5 is a diagram for explaining an example of information stored in the semantic analysis table 231 in the first embodiment.
  • the semantic analysis table 231 stores utterance patterns and question symbols in association with each other.
  • the first half of the question symbol indicates the type of question, and the second half of the question symbol indicates the details of the question content.
  • the question in the form of a true / false question is called the YES_NO type.
  • the meaning understanding unit 21 collates the question symbol acquired in step ST403 with the target table 232 of the question analysis knowledge storage unit 23, and acquires a question target corresponding to the question symbol from the target table 232 (step ST404).
  • the meaning understanding unit 21 outputs the acquired question object to the external information acquisition unit 3.
  • FIG. 6 is a diagram for explaining an example of information stored in the target table 232 in the first embodiment.
  • question symbols and question targets are stored in association with each other.
  • the question symbol has the same expression as the question symbol stored in the semantic analysis table 231.
  • the question target is information about what to inquire about the external information acquisition unit 3.
  • the external information acquisition unit 3 acquires the question target output from the semantic understanding unit 21, makes an inquiry about the question target, and acquires the answer information of the question target (step ST405). Specifically, for example, when acquiring “the direction of the next intersection” as a question from the meaning understanding unit 21, the external information acquisition unit 3 inquires and acquires the guidance route information and the vehicle position information, The course direction of the intersection closest to the vehicle position is acquired as answer information for the question target.
  • the external information acquisition unit 3 may acquire the guide route information from the guide data creation unit 63, for example, and may acquire the vehicle position information from the position detection unit 62.
  • the external information acquisition unit 3 inquires various information from the car navigation device 600 and obtains response information.
  • the present invention is not limited to this, and for example, the external information acquisition unit 3 acquires the response information from the local network.
  • general information on a route or an object may be acquired as answer information from the Internet or the like.
  • the course direction is expressed as RIGHT, STRAIGHT, LEFT, etc.
  • the external information acquisition unit 3 confirms that the traveling direction of the next intersection is straight ahead. It is assumed that “STRAIGHT” shown is acquired as answer information.
  • the external information acquisition unit 3 outputs the acquired answer information to the response sentence creation unit 22.
  • the external information acquisition unit 3 may be a driver such as a direction of an intersection route.
  • the external information acquisition unit 3 acquires response information corresponding to the question target. For example, if the information provision control device 100 is mounted on a work device that performs maintenance and inspection work, and the next inspection item is acquired as a question target, the external information acquisition unit 3 is a place to be inspected next. And information on the location is acquired as answer information.
  • the response sentence creation unit 22 creates a response sentence based on the question symbol output by the meaning understanding unit 21 in step ST403 and the answer information output by the external information acquisition unit 3 in step ST405 (step ST406). Specifically, for example, the question symbol output by the meaning understanding unit 21 in step ST403 and the answer information output by the external information acquisition unit 3 in step ST405 are acquired, and the response sentence is specified with reference to the response sentence template 24. To create a response sentence. The response sentence creation unit 22 outputs the acquired response sentence to the output control unit 4.
  • FIG. 7 is a diagram for explaining an example of the response sentence template 24 in the first embodiment
  • the response statement template 24 a response statement is defined for each question symbol according to the information of the inquiry result.
  • answer information assumed to be acquired from the external information acquisition unit 3 is set.
  • the response sentence template 24 is defined in advance, and the response sentence creating unit 22 creates the response sentence acquired from the response sentence template 24 as a response sentence to be output to the output control unit 4.
  • the present invention is not limited to this, and the response sentence creation unit 22 may create a response sentence by other methods.
  • the response sentence creation unit 22 stores the response sentence acquired in step ST406 in the history storage unit 25 (step ST407). At this time, the response sentence creation unit 22 creates the response sentence as time information, the text acquired by the meaning understanding unit 21 from the input reception unit 1 in step ST401, that is, the question from the driver, and the meaning understanding unit in step ST403.
  • the question symbol 21 acquired is associated with the answer information output from the external information acquisition unit 3 in step ST405 and stored in the history storage unit 25 (see FIG. 8).
  • the time here is, for example, the mechanical current time in a clock (not shown) held in the information provision control device 100.
  • the time may be, for example, the time when the input receiving unit 1 receives a question text from the input device 700, or the response sentence creating unit 22 detected by the position detection unit 62 It is also possible to acquire the current time of the timing at which the time is acquired, and it is possible to set a reference for which time is to be stored in the history storage unit 25 in advance, and information on the time according to the reference That's fine.
  • the response sentence to the question from the driver is associated with the question from the driver, the answer information obtained by inquiring the question, and the like, and accumulated in the history storage unit 25. That is, the history of the question from the driver received by the input receiving unit 1 is accumulated in the history storage unit 25.
  • the response sentence creation unit 22 outputs the response sentence acquired in step ST406 to the output control unit 4, and the output control unit 4 creates speech data from the response sentence by speech synthesis processing, and outputs the speech from the output device 800. (Step ST408). Similar to the speech recognition process performed by the input receiving unit 1, the speech synthesis process performed by the output control unit 4 may be performed using a known technique. As a result, the voice “No. Go straight” is output from the output device 800, and the driver obtains a response to the question “Is this right?”.
  • the response sentence creation unit 22 is as shown in FIG. 7B.
  • a response sentence “Next is straight ahead” is acquired (step ST406).
  • the response sentence creating unit 22 outputs a response sentence “Next is straight ahead” to the output control unit 4 and associates the response sentence with the time, the question from the driver, the question symbol, and the answer information. And stored in the history storage unit 25 (see step ST407, FIG. 8).
  • the output control unit 4 creates voice data “Next is straight ahead” and outputs it to the output device 800 (step ST408).
  • the information provision control device 100 can realize the question answering function, and the driver can obtain a response corresponding to the question about the route.
  • the degree of understanding is the degree to which the driver understands the guide route and the like.
  • the question answering process described in FIG. 4 and the information providing process can be executed in parallel. However, when the information providing process is performed, the question answering process described in FIG. It is assumed that the storage unit 25 stores a history of questions from the driver.
  • the information provision control device 100 creates guidance data for the guidance data creation unit 63 of the car navigation device 600 based on control information from the information provision control device 100 thereafter.
  • a guidance data creation control start instruction for instructing to do so is transmitted.
  • the guidance data creation unit 63 receives guidance based on the control information transmitted from the information provision control device 100 until receiving a guidance data creation control end instruction from the information provision control device 100. Try to create data.
  • FIG. 9 is a flowchart for explaining the operation of information provision processing in the information provision control apparatus 100 according to Embodiment 1 of the present invention.
  • the question determination unit 511 of the detail level determination unit 51 performs an understanding level determination process to determine the driver's level of understanding (step ST901). Specifically, the question determination unit 511 determines an understanding level that indicates how much the driver understands the guide route. In the first embodiment, the degree of understanding is binary of “high” or “low”.
  • the question determination unit 511 outputs the determined degree of understanding of the driver to the detail level determination unit 512 of the detail level determination unit 51.
  • FIG. 10 is a flowchart for explaining the operation of the understanding level determination process by the question determination unit 511 in the first embodiment.
  • the understanding level determination process in step ST901 in FIG. 9 will be described in detail with reference to FIG.
  • the question determination unit 511 refers to the history storage unit 25 and determines whether or not a question response process has been performed while traveling on the current route (step ST1001). Note that traveling on the current route means that the host vehicle is traveling on the route on which the car navigation device 600 is currently guiding.
  • a flag may be used as appropriate. Specifically, when the car navigation device 600 receives a route search instruction, the guidance flag held in the car navigation device 600 that can be referred to by the information provision control device 100 is set to 1, and the question answering process is performed.
  • the response sentence creation unit 22 stores the history of the question in the history storage unit 25 (step ST407 in FIG. 4), the information on the guidance flag is also attached and stored (guidance flag in FIG. 8). Is omitted).
  • the reception unit 61 instructs the guidance end instruction.
  • Initialize the internally held guidance flag ( 0), and output information indicating that the guidance end instruction or the instruction to change the destination is accepted to the response sentence creation unit 22;
  • the response sentence creation unit 22 updates all the guidance flags on the history storage unit 25 to 0.
  • the time when a route search instruction is received from the driver is stored in the car navigation device 600, and the question determination unit 511 is stored in the history storage unit 25. You may make it determine the log
  • step ST1001 when the question determination unit 511 determines that no question answering process is performed while traveling on the current route, that is, the history storage unit 25 stores the current route while traveling. If there is no history of questions (in the case of “NO” in step ST1001), the question determination unit 511 sets the understanding level to “high” (step ST1004), and sends information on the understanding level “high” to the detail level determination unit 512. Output and finish the process.
  • Step ST1001 when the question determination unit 511 determines that the question answering process has been performed while traveling on the current route, that is, the history storage unit 25 stores the question stored while traveling on the current route.
  • the question determination unit 511 stores the latest among the history of questions stored while traveling on the current route stored in the history storage unit 25.
  • the driver's confidence level for the guidance route is estimated, and it is determined whether the confidence level is high or low (step ST1002).
  • the question determination unit 511 uses, for example, whether the degree of confirmation of the route is high or the degree of doubt about the route is high as the modality of the question made by the driver. Estimate the degree.
  • the question determination unit 511 acquires the content of the question about the latest history among the history of questions stored in the history storage unit 25 and stored while traveling on the current route. Then, the certainty factor is estimated by referring to the certainty factor estimation table set in advance using the question modality shown in FIG.
  • the certainty factor estimation table illustrated in FIG. 11 is an example, and the certainty factor estimation table may be set in advance by associating the question with the certainty factor. For example, if the question is in a format such as “Next is xx”, it can be said that the degree of confidence in the route is high and the driver is highly certain.
  • the question determination unit 511 estimates a certainty factor indicating how confident the driver is about the guidance route.
  • the question determination unit 511 may estimate the certainty factor by another method using a modality.
  • the question determination unit 511 uses the ending intonation information, and when the ending intonation is increased, the question determination unit 511 uses the fact that the degree of doubt is high and creates a certainty factor estimation table. Also good.
  • the ending intonation information for example, the text “?” May be used to indicate a case where the ending is raised. For example, when the input receiving unit 1 receives a question from the driver and converts voice data into text (see step ST401 in FIG. 4), the text “?” Is given when converting voice data with an end.
  • the text is output to the semantic understanding unit 21, and the text to which the “?” Is added is stored in the history storage unit 25 as the content of the question.
  • the question determination unit 511 then adds the intonation information “?” At the end of the word. It is sufficient to refer to the certainty factor estimation table including whether or not there is any.
  • step ST1002 when the question determination unit 511 determines that the certainty factor is low (in the case of “YES” in step ST1002), the question determination unit 511 sets the understanding level to “low” (step ST1003) and the understanding level “ The information “low” is output to the detail level determination unit 512, and the process ends.
  • the question determination unit 511 determines the degree of understanding using the certainty factor, and when the certainty factor is low, sets the comprehension level to “low”, and when the certainty factor is high, the degree of understanding is “high”. Shall be. In other words, the question determination unit 511 determines the degree of understanding using the certainty degree estimated using the modality as the degree of understanding.
  • the question determination unit 511 sets the understanding level to “low” based on the result of estimating that the driver's certainty level is low.
  • step ST1002 when the question determination unit 511 determines that the certainty factor is high (in the case of “NO” in step ST1002), the question determination unit 511 sets the understanding level to “high” (step ST1004) and the understanding level “ The information “high” is output to the detail level determination unit 512, and the process ends.
  • the question is in a format such as “Next is xx”, the driver says that the route of the vehicle is correct with respect to the guided route, that is, the driver can travel on the guided route. It can be presumed that there is a high probability that the person has certainty and only confirms just in case. Therefore, here, the question determination unit 511 sets the understanding level to “high” based on the result of estimating that the driver's certainty level is high.
  • the question determination unit 511 determines how much the driver is confident about the route based on the history of whether the driver has received a question about the route while traveling on the current route in the understanding level determination process.
  • the certainty level indicating the degree of whether or not it is estimated is estimated, and the understanding level is determined based on the certainty level.
  • the question determination unit 511 uses the latest history among the history of questions stored in the history storage unit 25 and stored on the current route.
  • the present invention is not limited to this, and the question determination unit 511 may determine the certainty factor using the past history stored in the history storage unit 25. Moreover, you may make it the question determination part 511 not use about the log
  • the level of detail determination unit 512 acquires information on the level of understanding output by the question determination unit 511 in step ST901, and determines the level of detail of the output sentence to be output to the output device 800 in the car navigation device 600 (step ST902).
  • the detail level determination unit 512 determines the detail level “low” when the level of understanding is “high”, and determines the level of detail “high” when the level of understanding is “low”.
  • the output sentence to be output to the output device 800 in the car navigation device 600 refers to the content of guidance data for route guidance.
  • the output sentence creation unit 52 refers to the output timing table 53, and acquires the output sentence template corresponding to the detail level output by the detail level determination unit 512 in step ST902, and the output timing of the output sentence based on the output sentence template.
  • FIG. 12 is a diagram illustrating an example of the output timing table 53 according to the first embodiment.
  • FIG. 12A shows the output timing table 53 when the level of detail is “high”
  • FIG. 12B shows the output timing table 53 when the level of detail is “low”.
  • an output sentence template and a timing for outputting an output sentence based on the output sentence template are defined in association with each other.
  • output timing tables 53 corresponding to the cases of the degree of detail “high” and “low” are prepared.
  • the output sentence creation unit 52 outputs the information of the output timing table 53 acquired in step ST903, specifically, the output sentence template and the output timing information of the output sentence to the external information acquisition unit 3.
  • the external information acquisition unit 3 outputs the output sentence from the guidance route information, the vehicle position information, and the map data based on the output timing of the output sentence acquired from the output sentence creation unit 52 in step ST903. It is determined whether or not (step ST904).
  • the external information acquisition unit 3 may acquire the guidance route information from the guidance data creation unit 63, may acquire the host vehicle position information from the position detection unit 62, and Data may be acquired from the data storage unit 65.
  • step ST904 If it is determined in step ST904 that it is not time to output the output sentence (in the case of “NO” in step ST904), the processing in step ST904 is repeated.
  • step ST904 the timing to output the output sentence (in the case of “YES” in step ST904)
  • the external information acquisition unit 3 is based on the output sentence template associated with the output sentence output timing. Information necessary for creating the output sentence is acquired, and output to the output sentence creating unit 52 together with the output timing information (step ST905).
  • the detail level determination unit 512 determines the detail level “high”, and the external information acquisition unit 3 acquires the information shown in FIG. 12A from the output sentence creation unit 52. . Then, it is assumed that the external information acquisition unit 3 determines from the guidance route information, the own vehicle position information, and the map data that the own vehicle position is at a point of 1 km to the route change intersection. At this time, the external information acquisition unit 3 determines that it is time to output the output sentence (“YES” in step ST904), and the output sentence template “approximately 1 km ahead” associated with the output timing of 1 km to the course change intersection. The information necessary for the output sentence created based on “, ⁇ direction”, that is, the information on the direction to change the course is acquired and output to the output sentence creating unit 52 together with the output timing information.
  • the output sentence template of the output timing table 53 as shown in FIGS. 12A and 12B for example, “ ⁇ ” in “approx. 1 km ahead, ⁇ direction” has a specific direction such as “right”. A character or character string representing is entered.
  • the external information acquisition unit 3 acquires information on the specific direction from the guide route information and the like, and outputs it to the output sentence creation unit 52.
  • “$ Landmark $” at “Intersection with $ Landmark $ ahead” is a character or character representing a specific landmark such as “A Super”.
  • a column enters.
  • the output sentence creation unit 52 inquires the external information acquisition unit 3 about information necessary for creating the output sentence, and the external information acquisition unit 3 obtains information corresponding to the inquiry and creates the output sentence. To the unit 52.
  • the output sentence creation unit 52 creates an output sentence based on the information indicating the output timing output from the external information acquisition unit 3 and the information necessary for creation of the output sentence, and outputs the output sentence to the output control unit 4 (step) ST906). Specifically, for example, the output sentence creation unit 52 creates information indicating an output sentence “about 1 km ahead, rightward” and outputs the information to the output control unit 4.
  • the output control unit 4 transmits information indicating the output sentence output from the output sentence creation unit 52 to the guidance data creation unit 63 of the car navigation device 600 as control information.
  • the guidance data creation unit 63 information indicating an output sentence acquired as control information from the output control unit 4 is used as guidance data, and the guidance data is output to the guidance control unit 64.
  • the guidance control unit 64 causes the output device 800 to output the acquired guidance data, for example, as voice data.
  • the guidance control unit 64 may convert the guidance data into voice data by a known voice synthesis process as described above.
  • the guidance control unit 64 converts the guidance data into sound and outputs it.
  • the present invention is not limited to this, and it may be converted into video and output.
  • the process returns to step ST904, and the subsequent processing is repeated.
  • the output statement creation unit 52 displays information indicating the output statement according to the output statement template.
  • the information indicating the generated output sentence is output to the car navigation device 600 via the output control unit 4, and the output sentence is converted into voice as guidance data and output to the output device 800.
  • step ST906 the process returns to step ST904.
  • the present invention is not limited to this, and the process may return to step ST901 to re-determine the degree of understanding based on the latest question response history.
  • the reception unit 61 of the car navigation device 600 receives the guidance end instruction, and receives the received guidance end instruction. Is output to the information provision control device 100, and the information provision control device 100 ends the information provision processing. At this time, the information provision control device 100 outputs a guidance data creation control end instruction to the guidance data creation unit 63 of the car navigation device 600.
  • the output sentence creation unit 52 creates an output sentence based on the information indicating the output timing output from the external information acquisition unit 3 and the information necessary for creating the output sentence.
  • the information indicating the created output sentence is output as control information to the guidance data creating unit 63 via the output control unit 4.
  • the output sentence creating unit 52 may acquire external information.
  • Information indicating the output timing output from the unit 3 and information necessary for creating an output sentence are output as control information to the guide data creating unit 63 via the output control unit 4, and the guide data creating unit 63
  • An output sentence, that is, guidance data may be created based on the control information.
  • a question regarding information that can be provided by the car navigation device 600 for example, a question about a guidance route
  • the user's level of understanding is determined from the certainty factor estimated using the modality, and the user is asked a question to change the detail level and output timing of the output sentence to be output thereafter based on the level of understanding. Therefore, it is possible to provide information such as route guidance with the guidance content according to the user's understanding level and the frequency according to the user's understanding level.
  • the degree of understanding of the user is determined based on a spontaneous question from the user. This not only reduces the annoyance for the user, but also eliminates the need for preparing questions for the user.
  • the understanding level can be determined by a relatively simple method. it can.
  • the certainty factor is estimated using the modality of the question, it is possible to control information provision based on the understanding level in consideration of the subjectivity of the user.
  • the driver inputs the question about the route by voice.
  • the present invention is not limited to this, and the driver inputs the question about the route by inputting text using an input means such as a keyboard. You may make it do.
  • guidance data and a response to a question are output as voice data from the output device 800.
  • the output device 800 is a display or the like. The data and the response sentence may be displayed on the output device 800.
  • the meaning understanding unit 21 refers to the semantic analysis table 231 in step ST403 in FIG. 4 to acquire the question symbol.
  • the semantic understanding unit 21 may describe the utterance pattern with a regular expression.
  • the semantic understanding unit 21 may learn a question symbol for a text in advance using a machine learning method, and specify the question symbol depending on which question symbol the received text is classified into. .
  • the certainty level, the understanding level, and the level of detail are binary values of “high” and “low”, but the present invention is not limited to this.
  • more detailed certainty, comprehension or detail can be defined, and the output sentence can be controlled more finely by using the output timing table 53 corresponding thereto.
  • the information provision control device 100 is mounted on the car navigation device 600, and the information provision function controlled by the information provision control device 100 is specifically on a guided route.
  • the present invention is not limited to this function.
  • the information provision control apparatus 100 controls the information provision function in the equipment inspection work support apparatus installed in the facility, and the equipment maintenance of the equipment inspection work support apparatus from the equipment inspection worker who is a user, Work information in equipment inspection, for example, the equipment inspection worker, etc.
  • FIG. 13 is a configuration diagram of an equipment inspection work support device 900 equipped with the information provision control device 100 according to the first embodiment.
  • the facility inspection work support device 900 accepts, for example, a route search instruction to the facility inspection point input from the input device 700 by the facility inspection worker or the like from the input device 700 and receives information.
  • the output device 800 outputs information related to the route to the next facility inspection point according to the received route search instruction to the facility inspection point.
  • the equipment inspection work support device 900 is assumed to be a server installed in an equipment inspection office, for example.
  • the equipment inspection work support apparatus 900 includes a reception unit 71, a position detection unit 72, an inspection data creation unit 73, a guidance control unit 74, and a data storage unit 75.
  • the accepting unit 71 accepts, for example, a route search instruction or the like input to the input device 700 by an equipment inspection worker or the like from the input device 700.
  • the position detection unit 72 includes, for example, a speed sensor, a gyro sensor, a GPS (Global Positioning System) receiver, and the like, and detects the current position, speed, direction, current time, etc. of an equipment inspection worker or the like.
  • the position detector 72 may be configured by combining two or more of these sensors and receivers.
  • the position detection unit 72 outputs information such as the current position, speed, direction, current time, etc. of the equipment inspection worker detected by the position detection unit 72 to the inspection data creation unit 73.
  • the inspection data creation unit 73 includes a route search instruction to the equipment inspection location received by the reception unit 71, information stored in the data storage unit 75, the current position and speed of the equipment inspection worker output by the position detection unit 72, Based on information such as direction and current time, for example, a route to the next equipment inspection point is searched, and inspection data for instructing the searched route or inspection contents is created.
  • the inspection data creation unit 73 outputs the created guidance data to the guidance control unit 74.
  • the inspection data creation unit 73 creates inspection data according to the control information.
  • the control information includes an output sentence or information indicating output timing.
  • the guidance control unit 74 converts the inspection data created by the inspection data creation unit 73 into, for example, voice data and causes the output device 800 to output it.
  • the guidance control unit 74 converts the inspection data into sound data and outputs it.
  • the present invention is not limited to this.
  • the guidance control unit 74 converts the guidance data into video data and outputs it. You may make it make it.
  • the data storage unit 75 stores map data, various data used for route search, and the like.
  • the data storage unit 75 includes, for example, an HDD (Hard Disk Drive), a DVD (Digital Versatile Disc), a memory, and the like.
  • the equipment inspection work support device 900, the input device 700, and the output device 800 are different devices.
  • the input device 700 is assumed to be a voice input device such as a microphone
  • the output device 800 is assumed to be a voice output device such as a speaker, or a display device such as a display.
  • a mobile terminal such as a smartphone or a head-mounted display.
  • the equipment inspection work support device 900 is assumed to be a server installed in the equipment inspection office.
  • the present invention is not limited to this, and the equipment inspection work support device 900 includes an input device 700 and an output device 800. In addition, it may be integrated on a mobile terminal such as a smartphone.
  • the configuration and operation of the information provision control device 100 illustrated in FIG. 13 are the same as the configuration and operation of the information provision control device 100 described above as being mounted on the car navigation device 600.
  • the information provision control device 100 is mounted on the car navigation device 600 and makes a determination based on a question response process for receiving a question from the driver and creating a response to the question and a question from the driver. Based on the degree of understanding, an information providing process for creating control information for controlling the creation of guidance data in the car navigation device 600 is performed.
  • the information provision control device 100 when the information provision control device 100 is mounted on the equipment inspection work support device 900, the information provision control device 100 asks a question regarding, for example, a route from the equipment inspection worker to the equipment inspection point.
  • the information providing control device 100 specifically, for example, determines that the degree of understanding determined based on a question from an equipment inspection worker or the like is low, Detailed route inspection data or control information that controls the creation of inspection data that indicates the details of inspection in detail is created.
  • the information provision control apparatus 100 may create control information that controls creation of inspection data that explains a route to the next facility inspection point with a moving image.
  • the inspection data creation unit 73 of the equipment inspection work support device 900 searches, for example, the route to the next equipment inspection point based on the control information from the information provision control device 100, or the searched route or the inspection content. Inspection data for instructing is generated and output to the guidance control unit 74.
  • the guidance control unit 74 causes the output device 800 to output the inspection data. That is, based on the control of the equipment inspection work support device 900, the route from the output device 800 to the equipment inspection worker or the like is provided as work information to the next equipment inspection point.
  • the information provision control device 100 controls the information provision function in the portable terminal or the like in which an application teaching a cooking procedure is installed, or the conversation robot control device. , Accepting questions about what work should be done next, responding to the questions, and simultaneously storing the question response history, and based on the stored history, the cook's understanding of the cooking work procedure It is also possible to change the level of detail of the information relating to the cooking procedure to be output according to the degree of understanding.
  • FIG. 14 is a configuration diagram of a conversational robot control apparatus 1000 equipped with the information provision control apparatus 100 according to the first embodiment.
  • the conversation robot control apparatus 1000 accepts, for example, a cooking procedure search instruction input from the input apparatus 700 by a cook or the like from the input apparatus 700 and performs control by the information provision control apparatus 100.
  • the output device 800 outputs information related to a cooking procedure until a target dish is completed, a taste point, or the like according to the received cooking procedure search instruction or the like.
  • the conversation robot control apparatus 1000 is assumed to be a server installed in a home gateway or a cloud, for example.
  • the conversation robot control apparatus 1000 includes a reception unit 81, a position detection unit 82, a procedure data creation unit 83, a guidance control unit 84, and a data storage unit 85.
  • the accepting unit 81 accepts, for example, a cooking procedure search instruction input from the input device 700 by the cook or the like.
  • the position detection unit 82 includes, for example, a speed sensor, a gyro sensor, a GPS (Global Positioning System) receiver, and the like, and detects the current position, speed, direction, current time, and the like of the cook.
  • the position detection unit 82 may be configured by combining two or more of these sensors and receivers.
  • the position detection unit 82 outputs information such as the current position, speed, direction, current time, etc. of the cook or the like detected by the position detection unit 82 to the procedure data creation unit 83. In this way, the position detection unit 82 detects the current work stage in the entire cooking procedure as the “position” as well as the physical location of the cook.
  • the procedure data creation unit 83 includes a cooking procedure search instruction received by the reception unit 81, information stored in the data storage unit 85, the current position, speed, direction, and current time of the cook etc. output by the position detection unit 82. Based on such information, for example, a cooking procedure until a target dish is completed is searched, and procedure data for instructing the searched cooking procedure or cooking procedure content such as a taste point is created.
  • FIG. 15 is a diagram illustrating an example of a cooking procedure searched by the procedure data creation unit 83 of the conversation robot control apparatus 1000. For example, as shown in FIG. 15, even when the same dish is cooked, the cooking procedure searched by the procedure data creation unit 83 is different for amateurs and experts.
  • the cooking procedure to be selected by the procedure data creation unit 83 differs between a person who has time and a person who wants to cook quickly.
  • the procedure data creation unit 83 creates procedure data for instructing an optimal cooking procedure according to the state and knowledge of the cook.
  • the procedure data creation unit 83 stores a pattern of a cooking procedure to be searched in advance. For example, the procedure data creation unit 83 receives an instruction as to which cooking procedure is to be searched for from a cook or the like, and based on the received instruction. The cooking procedure may be searched and the procedure data created.
  • the procedure data creation unit 83 outputs the created procedure data to the guidance control unit 84.
  • the procedure data creation unit 83 creates procedure data according to the control information.
  • the control information includes an output sentence, a picture or video of the cooking procedure, information indicating the output timing, and the like.
  • the guidance control unit 84 converts the procedure data created by the procedure data creation unit 83 into, for example, voice data and causes the output device 800 to output it.
  • the guidance control unit 84 converts the procedure data into audio data and outputs it.
  • the present invention is not limited to this.
  • the guidance control unit 84 converts the procedure data into video data and outputs it. You may make it make it.
  • the data storage unit 85 stores map data, various data used for route search, and the like.
  • the data storage unit 85 includes, for example, an HDD (Hard Disk Drive), a DVD (Digital Versatile Disc), a memory, and the like.
  • the conversation robot control device 1000, the input device 700, and the output device 800 are separate devices.
  • the input device 700 is assumed to be a voice input device such as a microphone
  • the output device 800 is assumed to be a voice output device such as a speaker, or a display device such as a display.
  • a mobile terminal such as a smartphone.
  • the conversation robot control apparatus 1000 is assumed to be a home gateway or a server installed in a cloud or the like.
  • the conversation robot control apparatus 1000 is not limited thereto, and the conversation robot control apparatus 1000 includes an input device 700 and an output device 800. In addition, it may be integrated on a mobile terminal such as a smartphone.
  • the configuration and operation of the information provision control device 100 are the same as the configuration and operation of the information provision control device 100 described above as being mounted on the car navigation device 600.
  • the information provision control device 100 is mounted on the car navigation device 600 and makes a determination based on a question response process for receiving a question from the driver and creating a response to the question and a question from the driver. Based on the degree of understanding, an information providing process for creating control information for controlling the creation of guidance data in the car navigation device 600 is performed.
  • the information provision control device 100 when the information provision control device 100 is mounted on the conversation robot control device 1000, the information provision control device 100 receives, for example, a question about a cooking procedure from a cook or the like and sends a response to the question.
  • an information providing process for creating control information for controlling the creation of procedure data in the conversation robot control apparatus 1000 is performed.
  • the procedure data creation unit 83 of the conversation robot control device 1000 searches, for example, a procedure until the target dish is completed based on the control information from the information provision control device 100, or the searched procedure or tasting Procedure data for instructing points and the like is created and output to the guidance control unit 84.
  • the guidance control unit 84 causes the output device 800 to output the procedure data. That is, based on the control of the conversation robot control apparatus 1000, the output apparatus 800 provides the cook or the like with the procedure for completing the target dish, the taste point, or the like as information related to the cooking procedure.
  • the information provision control apparatus 100 controls the information provision function in the work support apparatus that explains how to use the device, and what kind of operation is performed by pressing a certain button from the user, for example.
  • the question answering history is received and at the same time the question answering history is memorized. Based on the memorized history, the user's degree of understanding of how to use the device is determined, and according to the degree of understanding. It is also possible to change the level of detail of the information related to the operation description to be output.
  • the information provision control device 100 controls an information provision function in a product guidance device that explains an exhibit or a product, etc. by interactive processing at an exhibition hall or a storefront. For example, a question about a product is received, a response to the question is made, and at the same time, the question response history is stored. Based on the stored history, an understanding level of the product such as a customer is determined, and the understanding level is determined. Accordingly, it is possible to change the level of detail of information about the product to be output.
  • the information provision control apparatus 100 can be widely applied as one that controls an information provision function in an information provision apparatus such as any device that provides information.
  • the question received from the user may be a question regarding information that can be provided by the information providing apparatus.
  • the information providing device to be controlled by the information providing control device 100 may be a device that is fixedly installed or a device that is carried by the user.
  • the degree of detail determination unit 51 estimates the user's certainty using the modality of the question from the user, determines the degree of understanding from the certainty, and based on the degree of understanding, The level of detail of the output sentence was determined. However, it may not be said that the degree of understanding can always be determined appropriately only from the certainty using the modality of the question from the user. For example, when the driver asks “Next is right” in front of an intersection to turn left, in the first embodiment, the detail level determination unit 51 can be said to be a form of a question that has a high degree of confirmation as a modality. Therefore, it is determined that the certainty factor is “high”, and the detail level of the information to be provided thereafter is set low.
  • the level of detail of the route guidance information that is output thereafter is low, and the frequency with which the route guidance information is output decreases.
  • the driver who asks "Next is right” is convinced that the guide route is misleading with a left turn as a right turn.
  • the information included in the question from the user is compared with the information included in the answer information of the question target, and the degree of understanding of the user is also considered in consideration of the degree of coincidence.
  • the configuration of the information provision control apparatus 100 according to Embodiment 2 of the present invention is the same as that described with reference to FIG. Also, the hardware configuration of the information provision control apparatus 100 is the same as the configuration described with reference to FIGS. 3A and 3B in the first embodiment, and thus a duplicate description is omitted.
  • the information provision control device 100 is mounted on the car navigation device 600 (see FIG. 1), and the information provision control is performed in the car navigation device 600.
  • guide route information or the like is provided to a driver who is a user based on the control performed by the apparatus 100 will be described.
  • the information provision control apparatus 100 according to the second embodiment of the present invention is roughly divided into a question response process for receiving a question from a driver and creating a response sentence for the question, and a driver. Based on the degree of understanding determined based on the question from, information providing processing for creating control information for controlling creation of guidance data in the car navigation device 600 is performed.
  • the specific operation of the question answering process of the information provision control apparatus 100 according to Embodiment 2 of the present invention is the same as that described with reference to FIG. To do.
  • the information provision processing is described with reference to FIG. 10 in the first embodiment.
  • step ST901 only the operation content of the understanding level determination process in step ST901 is different. Therefore, only the operation different from the first embodiment will be described in detail, and the same as the information provision control apparatus 100 according to the other embodiment 1. As for the operation of, redundant description is omitted.
  • FIG. 16 is a flowchart for explaining the operation of understanding level determination processing by the question determination unit 511 in the second embodiment.
  • Question determination section 511 determines whether or not a question response process has been performed while traveling on the current route (step ST1301). The specific operation is the same as that of step ST1001 of FIG. 10 described in the first embodiment, and thus a duplicate description is omitted.
  • step ST1301 when the question determination unit 511 determines that no question answering process is performed while traveling on the current route, that is, the history storage unit 25 stores the current route while traveling. If there is no history of questions (in the case of “NO” in step ST1301), the question determination unit 511 sets the understanding level to “high” (step ST1306), and sends information on the understanding level “high” to the detail level determination unit 512. Output and finish the process.
  • step ST1301 when driving on the current route, a question about the route by the driver is accepted and a response to the question is made. That is, the history storage unit 25 stores the current route while driving. If there is a history of questions (in the case of “YES” in step ST1301), the question determination unit 511 stores the history of questions stored during traveling on the current route stored in the history storage unit 25. For the latest history, it is determined whether the question format is a question format (step ST1302). The specific operation is the same as that in step ST1002 in FIG.
  • Step ST1302 when the question determination unit 511 determines that the certainty factor is high (in the case of “NO” in Step ST1302), the question determination unit 511 calculates the question answer coincidence W (Step ST1303).
  • FIG. 17 is a flowchart illustrating an operation in which the question determination unit 511 calculates the question answer matching degree W in the second embodiment.
  • the question determination unit 511 obtains the content of the question and the information of the answer information from the latest history among the history of questions stored in the history storage unit 25 while traveling on the current route.
  • Obtain step ST1401. That is, the question determination unit 511 acquires the content of the question from the driver and the answer information for the question acquired from the external information acquisition unit 3 that are stored in the history storage unit 25.
  • the question determination unit 511 estimates the direction included in the question based on the content of the question acquired in step ST1401 (step ST1402).
  • the question determination unit 511 determines whether a word specifying a route included in the question is a word representing a direction such as “right” or “left”.
  • the direction is estimated as the direction included in the question. For example, when the content of the question is “Is this right?”, Since the word “right” is included, the question determination unit 511 sets the result of estimating the direction included in the question as “RIGHT”. .
  • the question determination unit 511 represents the result of estimating the direction included in the question as “RIGHT”, “LEFT”, “NONE”, etc., but not limited to this, the result of estimating the direction is Any expression can be used.
  • the unit of the question answer coincidence W is%.
  • the question determination unit 511 calculates the question answer matching degree W from the direction included in the question from the driver and the direction included in the answer information.
  • the question determination unit 511 uses the latest history among the history of questions stored in the history storage unit 25 while traveling on the current route.
  • the question determination unit 511 is not limited to this, and the question determination unit 511 further uses the past history stored in the history storage unit 25.
  • the degree of understanding may be determined, or the question answer matching degree W may be calculated. Moreover, you may make it the question determination part 511 not use about the log
  • the question determining unit 511 determines whether the question answer matching degree W is equal to or less than the first threshold Th1, that is, whether W ⁇ Th1 (step ST1304).
  • the first threshold Th1 is set to 50%. This is only an example, and the first threshold Th1 can be set as appropriate.
  • step ST1304 if W ⁇ Th1, that is, if W is 50% or less (in the case of “YES” in step ST1304), the question determination unit 511 sets the understanding level to “low” (step ST1305), and the understanding level The information of “low” is output to the detail level determination unit 512, and the process ends.
  • W ⁇ Th1 that is, if W is 50% or less
  • the question determination unit 511 sets the understanding level to “low” (step ST1305), and the understanding level
  • the information of “low” is output to the detail level determination unit 512, and the process ends.
  • the modality of the question such as when the driver confidently asks the question of "Next is right” Just because the driver's confidence level is high, it may not be said that the understanding level can be determined appropriately.
  • step ST1304 if W ⁇ Th1, that is, if W is greater than 50% (in the case of “NO” in step ST1304), question determination unit 511 sets the degree of understanding to “high” (step ST1306) and understands. The degree “high” information is output to the detail level determination unit 512, and the process ends.
  • step ST1302 when the question determination unit 511 determines that the certainty level is low in step ST1302 (in the case of “YES” in step ST1302), the question determination unit 511 sets the understanding level to “low” (step ST1305) and understands.
  • the degree “low” information is output to the detail level determination unit 512, and the process ends.
  • the driver's confidence level is low, the driver may have asked for more detailed information so that he / she can be confident about the guidance route, so it is preferable that the driver be provided with more detailed information. Conceivable.
  • step ST1302 when the question determination unit 511 determines that the certainty factor is low, the question determination unit 511 sets the understanding level to “low” regardless of the question answer coincidence degree W.
  • the question determination unit 511 sets the understanding level to “low” regardless of the question answer coincidence degree W.
  • the question determination unit 511 includes the direction included in the question and the question target answer information acquired by the external information acquisition unit 3 in addition to the certainty factor using the question modality in the understanding level determination process.
  • the degree of understanding of the user is determined in consideration of the degree of coincidence with the direction of the user.
  • FIG. 18 is a diagram for explaining an example of the relationship between the understanding level, the question answer coincidence level W, and the certainty level for the understanding level determined by the question determination unit 511 in the second embodiment.
  • the question answer coincidence degree W and the certainty degree are both binarized.
  • the question determination unit 511 determines the degree of understanding based on the AND condition of the question answer coincidence W and the certainty.
  • the degree of detail determination unit 512 determines the degree of detail from the degree of understanding obtained by the question determination unit 511, and changes the information provided to the driver.
  • the question determination unit 511 has two levels of understanding, “low” and “high”, and the question determination unit 511 distributes the understanding level in two stages, but this is only an example.
  • the question determination unit 511 considers, for example, the degree to which the direction included in the question made by the driver and the direction included in the answer information of the question target acquired by the external information acquisition unit 3 match. It is also possible to further subdivide the degree of understanding into three levels.
  • step ST1304 if W ⁇ Th1 is not satisfied (in the case of “NO” in step ST1304), it is further determined whether Th1 ⁇ W ⁇ Th2 using the second threshold Th2, and if applicable, the question
  • the determination unit 511 may set the degree of understanding to “medium” (see step ST1601 and step ST1602 in FIG. 19). Then, the detail level determination unit 512 may determine the detail level according to the understanding level distributed by the question determination unit 511. At this time, the output timing table 53 is defined according to the level of detail determined by the level of detail determination unit 512.
  • the question determination unit 511 uses the direction, that is, the direction information to calculate the question answer coincidence W.
  • the question answer coincidence W may be calculated based on the distance of a three-dimensional geographic coordinate such as a mark.
  • the question determination unit 511 calculates the question answer coincidence W based on the geographic coordinates of the landmark information “landmark”.
  • the question determination unit 511 may inquire the external information acquisition unit 3 and acquire the geographical coordinates of the landmark A and the landmark B via the external information acquisition unit 3, for example.
  • the question determination unit 511 may calculate the question answer coincidence W based on the name of the building. Specifically, for example, the question determination unit 511 estimates the name of the building included in the question and the name of the building included in the answer information, and the “name of the building estimated from the utterance” and “answer information If the "estimated building name" is a completely identical character string or a character string such as an abbreviation indicating the same location, the question answer matching score W is 100%, otherwise the question answer matching score W is 0% It can also be calculated.
  • the input of the question to the driver's route is not limited to voice.
  • the output from the output device 800 is not limited to voice.
  • the information provision function controlled by the information provision control device 100 is not limited to the function of performing route guidance while traveling on the guided route.
  • the information provision control apparatus 100 according to the fifth embodiment of the present invention includes a certainty factor using a modality of a question from a user regarding information that can be provided by the information provision apparatus, information included in the question, and a question target. Any device can be used as long as it can calculate the degree of understanding from the degree of coincidence with the information included in the response information, and can be widely applied as a device that controls the information providing function of an information providing device such as any device that provides information. .
  • the question determination unit 511 considers the question answer coincidence W in addition to the certainty factor estimated using the modality of the question from the user. Determine the level of understanding. As a result, information can be provided to the user at a level of detail of information that is more in line with the degree of understanding of the user.
  • the detail level determination unit 512 changes the level of detail of the output sentence and the output timing of the output sentence in accordance with the degree of understanding determined by the question determination unit 511.
  • the detail level determination unit 512 may change only the detail level of the output sentence, and the detail level determination unit 512 determines the information amount of the output sentence according to the understanding level determined by the question determination unit 511. As long as it changes the value.
  • the information providing apparatus is, for example, the car navigation apparatus 600.
  • the information providing apparatus is not limited to a car navigation apparatus for vehicles, and examples of the information providing apparatus include people, vehicles, railways,
  • the present invention can be applied to a navigation device for a moving body including a ship or an aircraft, and particularly suitable for being brought into a vehicle or mounted on a vehicle.
  • the information provision control apparatus 100 is configured as shown in FIG. 2, but the information provision control apparatus 100 includes the input reception unit 1 and the detail level determination unit 51. Thus, the effects as described above can be obtained.
  • the invention of the present application can be freely combined with each embodiment, modified with any component in each embodiment, or omitted with any component in each embodiment. .
  • the information presentation control device Since the information presentation control device according to the present invention is configured to be able to change the level of detail of the provided information without asking the user a question, the information provision control for controlling the information to be output to the information providing device It can be applied to a device or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

情報提供装置が提供可能な情報に関する質問を受け付ける入力受付部(1)と、入力受付部(1)が受け付けた質問のモダリティを利用して推定した確信度から、情報提供装置が提供可能な情報に対する理解度を判定する質問判定部(511)と、質問判定部(511)が判定した理解度に基づき、情報提供装置に提供させる情報の詳細度を決定する詳細度決定部(512)とを備えた。

Description

情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法
 この発明は、情報提供装置に出力させる情報を制御する情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法に関するものである。
 近年、情報提供装置は、生活の様々な場面で利用されており、その中には、利用者と対話形式で、様々な情報を提供するものも多い。
 情報提供装置に関しては、利用者によって提供する情報量を変えることで、利用者の煩わしさを低減した情報の提供を行う技術が提案されている。
 例えば、特許文献1には、車両のドライバに情報を提供する情報提供装置としてのナビゲーション装置において、ドライバに対して質問を行って、ドライバから得た回答に基づき、ドライバがすでに知っている情報を推定して記憶定着特性を判断し、ドライバがすでに知っていると推定される事項については、その後提供する情報の量を少なくする技術が開示されている。
特開2009-168773号公報
 しかしながら、特許文献1に開示されているような技術では、利用者によって提示する情報の量を制御するために、利用者は、情報提供装置から質問された内容に答える必要があり、利用者にとっては、依然として煩わしさは残るという課題があった。
 この発明は上記のような課題を解決するためになされたもので、利用者に質問を行うことなく、提供される情報の詳細度を変化させることができる情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法を提供することを目的としている。
 この発明に係る情報提供制御装置は、情報提供装置が提供可能な情報に関する質問を受け付ける入力受付部と、入力受付部が受け付けた質問のモダリティを利用して推定した確信度から、情報提供装置が提供可能な情報に対する理解度を判定する質問判定部と、質問判定部が判定した理解度に基づき、情報提供装置に提供させる情報の詳細度を決定する詳細度決定部とを備えたものである。
 この発明によれば、利用者が発する質問に基づいて、その後提供される情報の詳細度を変化させることができるので、利用者にとって、煩わしさをより低減した情報の提供を行うことができる。
この発明の実施の形態1に係る情報提供制御装置を搭載したカーナビゲーション装置の構成図である。 この発明の実施の形態1に係る情報提供制御装置の構成図である。 図3A,図3Bは、この発明の実施の形態1に係る情報提供制御装置のハードウェア構成の一例を示す図である。 この発明の実施の形態1に係る情報提供制御装置における質問応答処理の動作を説明するフローチャートである。 実施の形態1において、意味解析テーブルに格納された情報の一例を説明する図である。 実施の形態1において、対象テーブルに格納された情報の一例を説明する図である。 図7Aは、実施の形態1において、質問シンボルが「YES_NO{next_cross=RIGHT}」であった場合の応答文テンプレートの例であり、図7Bは、実施の形態1において、質問シンボルが「WHICH{obj=next_cross}」であった場合の応答文テンプレートの例である。 実施の形態1において、応答文作成部が履歴記憶部に記憶させる情報の一例を説明する図である。 この発明の実施の形態1に係る情報提供制御装置における情報提供処理の動作を説明するフローチャートである。 実施の形態1における、質問判定部による理解度判定処理の動作を説明するフローチャートである。 実施の形態1において、確信度推定テーブルの一例を説明する図である。 図12Aは、詳細度「高」の場合の出力タイミングテーブルの一例を示す図であり、図12Bは、詳細度「低」の場合の出力タイミングテーブルの一例を示す図である。 この実施の形態1に係る情報提供制御措を搭載した設備点検作業支援装置の構成図である。 この実施の形態1に係る情報提供制御装置を搭載した会話ロボット制御装置の構成図である。 会話ロボット制御装置の手順データ作成部が探索する調理手順の一例を説明する図である。 実施の形態2における、質問判定部による理解度判定処理の動作を説明するフローチャートである。 実施の形態2において、質問判定部が質問回答一致度を算出する動作を説明するフローチャートである。 この実施の形態2において、質問判定部が判定する理解度について、当該理解度と、質問回答一致度と、確信度との関係の一例を説明する図である。 実施の形態2における、質問判定部による理解度判定処理の動作を説明するフローチャートである。
 以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
 以下の説明においては、一例として、この発明の実施の形態1に係る情報提供制御装置100が、カーナビゲーション装置600に搭載される場合を説明する。すなわち、カーナビゲーション装置600は、情報提供制御装置100が行う制御に基づき、利用者であるドライバ等に情報を提供する情報提供装置である。
 図1は、この発明の実施の形態1に係る情報提供制御装置100を搭載したカーナビゲーション装置600の構成図である。
 図1に示すように、カーナビゲーション装置600は、ドライバ等によって、入力装置700に入力された、例えば、経路探索指示を、入力装置700から受け付け、情報提供制御装置100による制御のもと、受け付けた経路探索指示に応じた案内経路に関する情報を、出力装置800から出力させる。
 入力装置700は、例えば、マイク等を備えた音声入力装置、あるいは、タッチパネル等である。
 出力装置800は、ディスプレイ等の表示装置、あるいは、スピーカ等の音声出力装置である。
 カーナビゲーション装置600は、受付部61と、位置検出部62と、案内データ作成部63と、案内制御部64と、データ記憶部65とを備える。
 受付部61は、ドライバ等によって入力装置700に入力された、例えば、経路探索指示等を、入力装置700から受け付ける。
 位置検出部62は、例えば、速度センサ、ジャイロセンサ、GPS(Global Positioning System)受信機等から構成され、車両の現在位置、速度、方位、現在時刻等を検出する。なお、位置検出部62は、これらのセンサおよび受信機を2つ以上組み合わせた構成としてもよい。
 位置検出部62は、当該位置検出部62が検出した車両の現在位置、速度、方位、現在時刻等の情報を、案内データ作成部63に出力する。
 案内データ作成部63は、受付部61が受け付けた経路探索指示、データ記憶部65に記憶されている情報、位置検出部62が出力した車両の現在位置、速度、方位、現在時刻等の情報に基づき、例えば、目的地までの経路を探索し、探索した経路を案内するための案内データを作成する。案内データ作成部63は、作成した案内データを、案内制御部64へ出力する。また、案内データ作成部63は、情報提供制御装置100から制御情報が出力された場合には、当該制御情報に従って案内データを作成する。なお、ここでは、制御情報とは、出力文、または、出力タイミングを示す情報等を含むものとする。
 案内制御部64は、案内データ作成部63が作成した案内データを、例えば、音声データに変換して出力装置800に出力させる。なお、ここでは、案内制御部64は、案内データを音声データに変換して出力させるものとするが、これに限らず、例えば、案内制御部64は、案内データを映像データに変換して出力させるようにしてもよい。
 データ記憶部65は、地図データ、および、経路の探索に用いられる各種データ等を記憶する。データ記憶部65は、例えば、HDD(Hard Disk Drive)、DVD(Digital Versatile Disc)、メモリ等によって構成される。
 なお、ここでは、図1に示すように、情報提供制御装置100が、カーナビゲーション装置600に搭載されているものとするが、これに限らず、情報提供制御装置100は、カーナビゲーション装置600の外部に備えられ、インターネット等の通信網を介して、カーナビゲーション装置600における案内データの作成を制御するものであってもよい。
 図2は、この発明の実施の形態1に係る情報提供制御装置100の構成図である。
 図2に示すように、情報提供制御装置100は、入力受付部1と、質問応答部2と、外部情報取得部3と、出力制御部4と、提供情報作成制御部5とを備える。
 入力受付部1は、入力装置700から、ドライバによる入力情報を受け付ける。なお、この実施の形態1では、ドライバは、入力装置700を利用して、カーナビゲーション装置600が案内する案内経路等に対する質問を行う。例えば、入力装置700はマイク等を備えた音声入力装置であり、ドライバは、質問を、音声にて行うものとする。入力受付部1は、ドライバからの質問を音声データとして受け付ける。そして、入力受付部1は、受け付けた音声データをテキストに変換し、質問応答部2の意味理解部21に出力する。
 入力受付部1は、入力装置700から受け付けた音声について、例えば、「デジタル音声処理」(東海大学出版会、1985年9月25日)の7章(134ページ~148ページ)、および、8章(149ページ~192ページ)に記載されているような、公知の技術を利用して音声認識を行う。
 質問応答部2は、ドライバからの質問の意味を解析し、当該質問に対する回答情報等を取得して応答文を作成するとともに、当該応答文を、ドライバからの質問と、当該質問に対する回答情報と紐付けて、ドライバからの質問の履歴として履歴記憶部25に記憶させる質問応答処理を行う。
 質問応答部2は、意味理解部21と、応答文作成部22と、質問解析知識記憶部23と、応答文テンプレート24と、履歴記憶部25とを備える。質問解析知識記憶部23は、さらに、意味解析テーブル231と対象テーブル232とを有する。
 意味理解部21は、入力受付部1からテキストとして取得したドライバからの質問の意味を解析して、問い合わせの対象である質問対象を特定し、当該質問対象を外部情報取得部3に問い合わせる。
 具体的には、意味理解部21は、質問解析知識記憶部23の意味解析テーブル231を参照し、入力受付部1から取得したテキストと文字列が一致する発話パターンがあるかどうかを判断する。そして、意味理解部21は、テキストと文字列が一致する発話パターンがある場合、当該発話パターンに対応する質問シンボルを取得する。
 さらに、意味理解部21は、質問シンボルと、質問解析知識記憶部23の対象テーブル232とを照合し、対象テーブル232から、質問シンボルに対応する質問対象を取得する。そして、意味理解部21は、取得した質問対象を、外部情報取得部3へ出力する。
 また、意味理解部21は、取得した質問シンボルを、発話パターンとともに、応答文作成部22に出力する。
 意味解析テーブル231、対象テーブル232の詳細については後述する。
 応答文作成部22は、意味理解部21から取得した質問シンボルと、外部情報取得部3から取得した回答情報とに基づき、応答文を作成する。ここでは、応答文作成部22は、意味理解部21から取得した質問シンボルと、外部情報取得部3から取得した回答情報とに基づき、応答文テンプレート24を参照して応答文を特定することにより応答文を作成する。応答文作成部22は、作成した応答文を出力制御部4に出力する。
 また、応答文作成部22は、作成した応答文を、時刻と、ドライバからの質問と、質問シンボルと、外部情報取得部3から取得した回答情報と紐付けて、履歴記憶部25に記憶させる。なお、ドライバからの質問とは、入力受付部1が入力装置700から受け付け、テキストに変換した、ドライバによる、案内経路等に対する質問である。
 質問解析知識記憶部23には、意味解析テーブル231と、対象テーブル232とが格納される。
 意味解析テーブル231は、発話パターンと質問シンボルとが対応付けて格納されたテーブルである。発話パターンは、想定される質問を文字列として表わしたものである。また、質問シンボルは、質問の意味を表わす、予め設定された表現である。
 対象テーブル232は、質問シンボルと質問対象とが対応付けられて格納されたテーブルである。
 履歴記憶部25は、応答文作成部22が作成した応答文を、時刻と、ドライバからの質問と、質問シンボルと、外部情報取得部3から出力された回答情報と紐付けて、ドライバから受け付けた質問の履歴を記憶する。
 外部情報取得部3は、意味理解部21から出力された質問対象を取得し、当該質問対象に関する問い合わせを行い、当該質問対象の回答情報を取得する。外部情報取得部3は、取得した質問対象に対する回答情報を、質問応答部2の応答文作成部22に出力する。なお、外部情報取得部3は、例えば、ローカルネットワークから回答情報を取得してもよいし、インターネットなどから経路や対象物に対する一般的な情報を回答情報として取得してもよい。
 また、外部情報取得部3は、提供情報作成制御部5から出力文作成に必要な情報の問い合わせがあった場合には、当該問い合わせに応じた情報を取得し提供情報作成制御部5に出力する。
 提供情報作成制御部5は、履歴記憶部25を参照し、カーナビゲーション装置600が案内する案内経路等に対するドライバからの質問のモダリティを利用して、ドライバの案内経路等に対する確信度を推定し、この確信度を、ドライバの案内経路等に対する理解度として、当該理解度に基づき、案内経路上で提供すべき出力文の詳細度および出力タイミングを決定し、案内データ作成部63に対する制御情報を作成する情報制御処理を行う。
 なお、モダリティとは、一般に、話している内容に対する話し手の判断や感じ方を表す。ここでは、ドライバからの質問に基づき、ドライバの判断や感じ方等のモダリティを判定する。
 また、この実施の形態1では、理解度とは、ドライバが、案内経路等をどれぐらい理解しているかの度合いを意味するものとする。
 提供情報作成制御部5は、詳細度判定部51と、出力文作成部52と、出力タイミングテーブル53とを備える。詳細度判定部51は、さらに、質問判定部511と、詳細度決定部512とを有する。
 質問判定部511は、質問応答部2の履歴記憶部25に記憶されている情報に基づき、ドライバからの質問のモダリティを利用して、ドライバの案内経路等に対する確信度を推定し、当該確信度からドライバの理解度を判定する。質問判定部511は、判定したドライバの理解度を詳細度決定部512に出力する。
 詳細度決定部512は、質問判定部511が判定したドライバの理解度に基づき、出力文の詳細度を決定する。詳細度決定部512は、決定した詳細度を出力文作成部52に出力する。なお、出力文の内容が、情報提供制御装置100がカーナビゲーション装置600に案内経路情報として出力装置800から出力させる内容となる。
 出力文作成部52は、出力タイミングテーブル53を参照し、詳細度決定部512が決定した詳細度に応じた出力文テンプレート、および、当該出力文テンプレートに基づく出力文の出力タイミングを取得し、当該取得した情報に基づき外部情報取得部3に、出力文タイミング、および、出力文の作成に必要な情報の問い合わせを行い、出力文タイミングになると、外部情報取得部3から、出力文の作成に必要な情報を取得する。
 出力タイミングテーブル53は、出力文テンプレートと、当該出力文テンプレートに基づく出力文を出力するタイミングとを対応付けて格納したテーブルである。
 出力制御部4は、応答文作成部22が出力した応答文を、音声データに変換し、出力装置800に出力させる。また、出力制御部4は、出力文作成部52が出力した出力文の情報を制御情報として、案内データ作成部63に出力する。
 なお、ここでは、図2に示すように、質問解析知識記憶部23と、応答文テンプレート24と、履歴記憶部25は、質問応答部2が備えるものとしたが、これに限らず、質問解析知識記憶部23と、応答文テンプレート24と、履歴記憶部25は、例えば、情報提供制御装置100の外部のサーバに格納され、意味理解部21は、ネットワーク等を介してサーバにアクセスし、質問解析知識記憶部23、応答文テンプレート24、あるいは、履歴記憶部25を参照するようにしてもよい。
 また、ここでは、図2に示すように、出力タイミングテーブル53は、提供情報作成制御部5が備えるものとしたが、これに限らず、出力タイミングテーブル53は、例えば、情報提供制御装置100の外部のサーバに格納され、出力文作成部52は、ネットワーク等を介してサーバにアクセスし、出力タイミングテーブル53を参照するようにしてもよい。
 図3A,図3Bは、この発明の実施の形態1に係る情報提供制御装置100のハードウェア構成の一例を示す図である。
 この発明の実施の形態1において、入力受付部1と、意味理解部21と、応答文作成部22と、外部情報取得部3と、出力制御部4と、詳細度判定部51と、出力文作成部52の各機能は、処理回路301により実現される。すなわち、情報提供制御装置100は、受け付けた音声入力内容に基づき、案内データ作成部63による案内データの作成の制御を行うための処理回路301を備える。
 処理回路301は、図3Aに示すように専用のハードウェアであっても、図3Bに示すようにメモリ305に格納されるプログラムを実行するCPU(Central Processing Unit)306であってもよい。
 処理回路301が専用のハードウェアである場合、処理回路301は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
 処理回路301がCPU306の場合、入力受付部1と、意味理解部21と、応答文作成部22と、外部情報取得部3と、出力制御部4と、詳細度判定部51と、出力文作成部52の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、入力受付部1と、意味理解部21と、応答文作成部22と、外部情報取得部3と、出力制御部4と、詳細度判定部51と、出力文作成部52は、HDD(Hard Disk Drive)302、メモリ305等に記憶されたプログラムを実行するCPU306、システムLSI(Large-Scale Integration)等の処理回路により実現される。また、HDD302、メモリ305等に記憶されたプログラムは、入力受付部1と、意味理解部21と、応答文作成部22と、外部情報取得部3と、出力制御部4と、詳細度判定部51と、出力文作成部52の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ305とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
 なお、入力受付部1と、意味理解部21と、応答文作成部22と、外部情報取得部3と、出力制御部4と、詳細度判定部51と、出力文作成部52の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、入力受付部1については専用のハードウェアとしての処理回路301でその機能を実現し、意味理解部21と、応答文作成部22と、外部情報取得部3と、出力制御部4と、詳細度判定部51と、出力文作成部52については処理回路がメモリ305に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 質問解析知識記憶部23と、応答文テンプレート24と、履歴記憶部25と、出力タイミングテーブル53は、例えば、HDD302を使用する。なお、これは一例にすぎず、質問解析知識記憶部23と、応答文テンプレート24と、履歴記憶部25と、出力タイミングテーブル53は、DVD、メモリ305等によって構成されるものであってもよい。
 また、情報提供制御装置100は、入力装置700、カーナビゲーション装置600等の外部機器との通信を行う入力インタフェース装置303、出力インタフェース装置304を有する。
 動作について説明する。
 この発明の実施の形態1に係る情報提供制御装置100は、大きく分けて、ドライバからの質問を受け付けて当該質問に対する応答文を作成する質問応答処理と、ドライバからの質問に基づき判定した理解度に基づき、カーナビゲーション装置600における案内データの作成を制御する制御情報を作成する情報提供処理を行う。
 まず、ドライバからの質問を受け付けて当該質問に対する応答文を作成する質問応答処理の動作について説明する。
 図4は、この発明の実施の形態1に係る情報提供制御装置100における質問応答処理の動作を説明するフローチャートである。
 なお、図4で説明する質問応答処理は、カーナビゲーション装置600が、例えば、ドライバへの案内経路情報の提供を行う状態となっていることを前提とする。具体的には、例えば、ドライバは、入力装置700を利用して経路探索指示を行い、カーナビゲーション装置600は探索した結果に基づき、目的地までの経路を案内するための案内経路情報としての案内データを作成し、当該案内データを音声データに変換して出力装置800に出力可能な状態となっている。
 入力受付部1は、入力装置700から、ドライバによる経路についての質問を受け付けるまで待機する(ステップST401の“NO”の場合)。カーナビゲーション装置600による経路の案内が開始されている状態において、ドライバは、案内されている経路について、入力装置700から、例えば、「ここは右かな」、「ここは直進かな」等の音声によって、自由に質問することができる。入力受付部1は、このように、ドライバから、経路についての質問がされたかどうかを判断する。
 入力受付部1は、ドライバからの質問を受け付けると(ステップST401の“YES”の場合)、受け付けた音声データをテキストに変換し、意味理解部21に出力する。例えば、ここでは、ドライバが、「ここは右かな」と経路についての質問をしたとすると、入力受付部1は、当該「ここは右かな」という音声データを、「ここは右かな」というテキストに変換し、意味理解部21に出力する。
 意味理解部21は、質問解析知識記憶部23の意味解析テーブル231を参照し、入力受付部1から取得したテキストが示す文字列と一致する文字列で表わされた発話パターンがあるかどうかを判断する(ステップST402)。
 ステップST402において、文字列が一致する発話パターンがない場合(ステップST402の“NO”の場合)、処理を終了する。
 ステップST402において、文字列が一致する発話パターンがある場合(ステップST402の“YES”の場合)、意味理解部21は、文字列が一致する発話パターンに対応する質問シンボルを取得する(ステップST403)。意味理解部21は、取得した質問シンボルを、応答文作成部22に出力する。
 ここで、図5は、実施の形態1において、意味解析テーブル231に格納された情報の一例を説明する図である。
 図5に示すように、意味解析テーブル231には、発話パターンと質問シンボルとが対応付けられて格納されている。
 質問シンボルは、予め決められており、この実施の形態1では、例えば、図5に示すように、「YES_NO{next_cross=RIGHT}」のように表現されているものとする。
 質問シンボルの前半は質問の種類を示し、質問シンボルの後半は質問内容の詳細を示す。例えば、質問シンボルが「YES_NO{next_cross=RIGHT}」の「YES_NO」の場合、「YES_NO」は、「はい」等の肯定表現、あるいは、「いいえ」等の否定表現で答えることができる質問の種類を示す。また、「{next_cross=RIGHT}」は、次の交差点が右であることを質問しているという、質問内容の詳細を示す。
 質問の種類について、「YES_NO」のように、「はい」等の肯定表現、あるいは、「いいえ」等の否定表現で答えることができる質問の種類は、一般に、真偽疑問文と呼ばれる。ここでは、真偽疑問文の形の質問を、YES_NO型といい、それ以外の、例えば、「何メートル先を右ですか?」、「次はどっちですか?」等、「はい」,「いいえ」では答えることができない質問の種類をオープン型というものとする。
 なお、質問シンボルについて、図5を用いて説明した内容は一例であり、質問シンボルの表現形式は、これに限られるものではない。
 ステップST401において、意味理解部21は、例えば、「ここは右かな」というテキストを取得し、意味解析テーブル231には、図5の内容が格納されていたとすると、意味解析テーブル231には、「ここは右かな」と文字列が一致する発話パターンが存在するので、意味理解部21は、「ここは右かな」に対応する質問シンボル「YES_NO{next_cross=RIGHT」を、意味解析テーブルから取得する(ステップST402,403)。
 意味理解部21は、ステップST403で取得した質問シンボルと、質問解析知識記憶部23の対象テーブル232とを照合し、対象テーブル232から、質問シンボルに対応する質問対象を取得する(ステップST404)。意味理解部21は、取得した質問対象を、外部情報取得部3へ出力する。
 ここで、図6は、実施の形態1において、対象テーブル232に格納された情報の一例を説明する図である。
 図6に示すように、対象テーブル232には、質問シンボルと質問対象とが対応付けられて格納されている。質問シンボルは、意味解析テーブル231に格納されている質問シンボルと同様の表現のものである。
 この実施の形態1において、質問対象とは、外部情報取得部3に対して何を問い合わせるかの情報である。当該質問対象は、質問シンボル毎に予め決められており、質問シンボルと対応付けられて対象テーブル232に格納されている。
 例えば、対象テーブル232の内容が、図6に示す内容であったとすると、意味理解部21は、ステップST403で取得した質問シンボル「YES_NO{next_cross=RIGHT}」に対応する質問対象「次の交差点の進路方向」を取得する。そして、意味理解部21は、質問対象「次の交差点の進路方向」を、外部情報取得部3へ出力する。
 外部情報取得部3は、意味理解部21から出力された質問対象を取得し、当該質問対象関する問い合わせを行い、当該質問対象の回答情報を取得する(ステップST405)。具体的には、例えば、意味理解部21から質問対象として「次の交差点の進路方向」を取得すると、外部情報取得部3は、案内経路情報と、自車位置情報とを問い合わせて取得し、自車位置から最も近い交差点の進路方向を、質問対象の回答情報として取得する。外部情報取得部3は、案内経路情報は、例えば、案内データ作成部63から取得するようにすればよいし、自車位置情報は、位置検出部62から取得するようにすればよい。なお、ここでは、一例として、外部情報取得部3は、カーナビゲーション装置600に各種情報を問い合わせ、回答情報を得るものとしたが、これに限らず、例えば、ローカルネットワークから回答情報を取得するようにしてもよいし、インターネットなどから経路や対象物に対する一般的な情報を回答情報として取得するようにしてもよい。
 また、例えば、この実施の形態1では、進路方向をRIGHT、STRAIGHT、LEFT等と表現するものとし、このステップST405において、外部情報取得部3は、次の交差点の進行方向が直進であることを示す「STRAIGHT」を回答情報として取得したものとする。
 外部情報取得部3は、取得した回答情報を、応答文作成部22に出力する。
 なお、この実施の形態1では、情報提供制御装置100は、カーナビゲーション装置600に搭載されるものとしているため、上述したように、外部情報取得部3は、例えば、交差点の進路方向等、ドライバを案内する案内経路情報を、回答情報として取得するものとしたが、これは一例にすぎず、外部情報取得部3は、質問対象に応じた回答情報を取得するものである。例えば、情報提供制御装置100が、保守点検作業を行う作業装置に搭載されるものであって、次の点検項目を質問対象として取得すれば、外部情報取得部3は、次に点検するべき場所や箇所の情報を回答情報として取得する。
 応答文作成部22は、ステップST403で意味理解部21が出力した質問シンボルと、ステップST405で外部情報取得部3が出力した回答情報とに基づき、応答文を作成する(ステップST406)。具体的には、例えば、ステップST403で意味理解部21が出力した質問シンボルと、ステップST405で外部情報取得部3が出力した回答情報を取得し、応答文テンプレート24を参照して応答文を特定することにより応答文を作成する。
 応答文作成部22は、取得した応答文を、出力制御部4に出力する。
 ここで、図7は、実施の形態1において、応答文テンプレート24の一例を説明する図であり、図7Aは、質問シンボルが「YES_NO{next_cross=RIGHT}」であった場合の応答文テンプレート24の例であり、図7Bは、質問シンボルが「WHICH{obj=next_cross}」であった場合の応答文テンプレート24の例である。
 図7A,図7Bに示すように、応答文テンプレート24には、質問シンボル毎に、問い合わせ結果の情報に応じて、応答文が定義されている。なお、問い合わせ結果の情報には、外部情報取得部3から取得されると想定される回答情報が設定されている。
 ここでは、ステップST403において、質問シンボル「YES_NO{next_cross=RIGHT}」が出力され、ステップST405において、回答情報「STRAIGHT」が出力されるものとしているので、応答文作成部22は、図7Aに示す応答文テンプレート24を参照して、「いいえ。直進です。」という応答文を取得する。
 なお、この実施の形態1では、予め応答文テンプレート24を定義しておき、応答文作成部22は、応答文テンプレート24から取得した応答文を、出力制御部4へ出力する応答文として作成するものとしたが、これに限らず、応答文作成部22は、その他の方法によって応答文を作成するものであってもよい。
 応答文作成部22は、ステップST406で取得した応答文を、履歴記憶部25に記憶させる(ステップST407)。このとき、応答文作成部22は、応答文を、時刻の情報と、ステップST401で意味理解部21が入力受付部1から取得したテキスト、すなわち、ドライバからの質問と、ステップST403で意味理解部21が取得した質問シンボルと、ステップST405で外部情報取得部3から出力された回答情報と紐付けて、履歴記憶部25に記憶させるようにする(図8参照)。
 なお、ここでいう時刻とは、例えば、情報提供制御装置100内に保有している時計(図示省略)における機械的な現在時刻とする。これは一例にすぎず、時刻とは、例えば、入力受付部1が入力装置700から質問のテキストを受け付けた時刻としてもよいし、位置検出部62が検出する、応答文作成部22が応答文を取得したタイミングの現在時刻を取得するものとしてもよく、どの時点の時刻を履歴記憶部25に記憶させる時刻とするかの基準を予め設定しておき、当該基準に沿った時刻の情報であればよい。
 このステップST407の動作によって、ドライバからの質問に対する応答文が、ドライバからの質問、当該質問を問い合わせて得た回答情報等と紐付けられて、履歴記憶部25に蓄積されることになる。すなわち、履歴記憶部25には、入力受付部1が受け付けた、ドライバからの質問の履歴が蓄積されることになる。
 応答文作成部22は、ステップST406で取得した応答文を出力制御部4に出力し、出力制御部4は、応答文から音声合成処理によって音声データを作成し、出力装置800から音声を出力させる(ステップST408)。出力制御部4による音声合成処理は、入力受付部1による音声認識処理同様、公知の技術を用いて行えばよい。
 これにより、出力装置800から、「いいえ。直進です。」という音声が出力され、ドライバは、「ここは右かな」という質問に対する応答を得る。
 なお、上述の説明では、一例として、ドライバからの質問が、「ここは右かな」であるものとし、当該質問に対して得られる質問シンボルの質問の種類がYES_NO型である場合としたが、質問シンボルの質問の種類がオープン型であっても、同様の動作となる。
 例えば、ドライバが、「次はどっちですか」と質問したとする。この場合、意味理解部21は、「WHICH{obj=next_cross}」という質問シンボルを取得し、当該質問シンボルに対応する質問対象として「次の交差点の進路方向」を取得する(ステップST403,404)。
 そして、外部情報取得部3が、「次の交差点の進路方向」に対して、「STRAIGHT」という回答情報を出力したとすると(ステップST405)、応答文作成部22は、図7Bに示すような応答文テンプレート24を参照し、「次は直進です。」という応答文を取得する(ステップST406)。そして、応答文作成部22は、「次は直進です。」という応答文を出力制御部4に出力するとともに、当該応答文を、時刻、ドライバからの質問、質問シンボル、回答情報と紐付けて、履歴記憶部25に記憶させる(ステップST407、図8参照)。
 出力制御部4は、「次は直進です。」という音声データを作成し、出力装置800に出力させる(ステップST408)。
 このように、情報提供制御装置100において質問応答機能が実現でき、ドライバは、経路に対する質問に対応する応答を得ることができる。
 次に、ドライバからの質問に基づき判定した理解度に基づき、カーナビゲーション装置600における案内データの作成を制御する制御情報を作成する情報提供処理の動作を説明する。
 なお、上述のとおり、理解度とは、ドライバが、案内経路等をどれぐらい理解しているかの度合いである。
 また、図4で説明した質問応答処理と当該情報提供処理は並行して実行可能とするが、当該情報提供処理が行われる際は、事前に図4で説明した質問応答処理が行われ、履歴記憶部25には、ドライバからの質問の履歴が記憶されていることを前提とする。
 また、当該情報提供処理が行われる際は、情報提供制御装置100は、カーナビゲーション装置600の案内データ作成部63に対して、以降、情報提供制御装置100からの制御情報に基づき案内データを作成するように指示するための案内データ作成制御開始指示を送信する。案内データ作成部63は、案内データ作成制御開始指示を受信すると、情報提供制御装置100から案内データ作成制御終了指示を受信するまで、情報提供制御装置100から送信される制御情報に基づいて、案内データを作成するようにする。
 図9は、この発明の実施の形態1に係る情報提供制御装置100における情報提供処理の動作を説明するフローチャートである。
 詳細度判定部51の質問判定部511は、理解度判定処理を行い、ドライバの理解度を判定する(ステップST901)。具体的には、質問判定部511は、ドライバが、案内経路をどれぐらい理解しているかの度合いを表わす理解度を判定する。なお、この実施の形態1では、理解度は、「高」あるいは「低」の二値とする。
 質問判定部511は、判定したドライバの理解度を詳細度判定部51の詳細度決定部512に出力する。
 図10は、実施の形態1における、質問判定部511による理解度判定処理の動作を説明するフローチャートである。
 図10を用いて、図9のステップST901の理解度判定処理について詳細に説明する。
 まず、質問判定部511は、履歴記憶部25を参照し、現在の経路上を走行中に質問応答処理が行われたかどうかを判定する(ステップST1001)。なお、現在の経路上を走行中とは、カーナビゲーション装置600が現在案内を行っている経路を自車が走行中であることを意味するものとする。
 現在の経路上を走行中に質問応答処理が行われたかどうかについては、例えば、適宜、フラグを利用することが考えられる。具体的には、カーナビゲーション装置600が経路探索指示を受け付けた際に、情報提供制御装置100が参照可能な、カーナビゲーション装置600の内部に保有している案内中フラグを1とし、質問応答処理において応答文作成部22が、質問の履歴を履歴記憶部25に記憶させる際(図4のステップST407)に、当該案内中フラグの情報も添付して記憶させておく(図8において案内中フラグは図示省略)。そして、このステップST1001において、質問判定部511は、当該案内中フラグ=1が添付された質問があるか否かにより、現在の経路上を走行中に質問応答処理が行われたかを判定すればよい。なお、この場合、ドライバが、例えば、入力装置700から案内終了指示を入力する、あるいは、目的地を変更する等して、現在の経路案内を終了させると、受付部61は、当該案内終了指示を受け付け、内部的に保有する案内中フラグを初期化(=0)し、案内終了指示、あるいは、目的地を変更する等の指示を受け付けた旨の情報を応答文作成部22に出力し、応答文作成部22は、履歴記憶部25上の案内中フラグをすべて0に更新するようにする。
 なお、これは一例にすぎず、例えば、ドライバから経路探索指示を受け付けた時刻をカーナビゲーション装置600の内部に記憶しておくようにし、質問判定部511は、履歴記憶部25に記憶されている時刻が、当該経路探索指示を受け付けた時刻以降である質問の履歴を、現在の経路上を走行中に行われた質問応答と判定するようにしてもよい。このように、質問判定部511が、現在の経路上を走行中に質問応答処理を行ったかどうかを判定できるようになっていれば、いかなる手法を採用してもよい。
 ステップST1001において、質問判定部511が、現在の経路上を走行中に質問応答処理が全く行われていないと判定した場合、すなわち、履歴記憶部25に、現在の経路上を走行中に記憶された質問の履歴がない場合(ステップST1001の“NO”の場合)、質問判定部511は、理解度を「高」とし(ステップST1004)、理解度「高」の情報を詳細度決定部512に出力して、処理を終了する。
 ステップST1001において、質問判定部511が、現在の経路上を走行中に質問応答処理が行われたと判定した場合、すなわち、履歴記憶部25に、現在の経路上を走行中に記憶された質問の履歴がある場合(ステップST1001の“YES”の場合)、質問判定部511は、履歴記憶部25に記憶されている、現在の経路上を走行中に記憶された質問の履歴のうち、最新の履歴について、ドライバの案内経路に対する確信度を推定し、確信度が高いか低いかの判断を行う(ステップST1002)。このステップST1102において、質問判定部511は、ドライバが行った質問のモダリティとして、例えば、経路を確認する度合いが高いのか、それとも、経路について疑問を持っている度合いが高いのかを利用して、確信度を推定する。
 具体的には、例えば、質問判定部511は、履歴記憶部25に記憶されている、現在の経路上を走行中に記憶された質問の履歴のうち、最新の履歴について、質問の内容を取得し、図11に示した、質問のモダリティを利用して予め設定された確信度推定テーブルを参照することにより、確信度を推定する。なお、図11に示す確信度推定テーブルは一例であり、確信度推定テーブルは、予め質問と確信度とが対応付けられて設定されていればよい。
 例えば、質問が「次は××だね」等の形式である場合には、経路の確信の度合いが高く、ドライバの確信度は高いといえる。
 一方、例えば、質問が「次は××かな」等の形式である場合には、疑問を持っている度合いが高いため、ドライバの確信度は低いといえる。
 すなわち、ここでは、質問の形式からみたモダリティを利用して、質問判定部511は、ドライバが案内経路についてどれぐらい確信を持っているかの度合いを表わす確信度を推定する。
 なお、これは一例であり、質問判定部511は、モダリティを利用したその他の方法で、確信度を推定するようにしてもよい。例えば、質問判定部511は、語尾のイントネーション情報を利用し、語尾のイントネーションが上がっている場合には、疑問の度合いが高いことを利用して、確信度推定テーブルを作成しておくようにしてもよい。語尾のイントネーション情報とは、例えば、語尾が上がっている場合を示すために、「?」というテキストを使用することとすればよい。例えば、入力受付部1がドライバからの質問を受け付け、音声データをテキストに変換する際(図4のステップST401参照)、語尾のあがった音声データを変換する場合は、「?」のテキストを付与して意味理解部21に出力し、当該「?」が付与されたテキストが質問の内容として履歴記憶部25に記憶されるようにしておき、質問判定部511は、語尾のイントネーション情報「?」があるかどうかにも含めて、確信度推定テーブルを参照するようにすればよい。
 ステップST1002において、質問判定部511が、確信度が低いと判断した場合(ステップST1002の“YES”の場合)、質問判定部511は、理解度を「低」とし(ステップST1003)、理解度「低」の情報を詳細度決定部512に出力して、処理を終了する。この実施の形態1では、質問判定部511は、確信度を用いて理解度を判定し、確信度が低い場合は理解度を「低」とし、確信度が高い場合は理解度を「高」とするものとする。すなわち、質問判定部511は、モダリティを用いて推定した確信度を理解度として当該理解度を判定するものとする。
 例えば、質問が、「次は××かな?」等の形式であれば、ドライバは、案内された経路に対して疑問を持っており、確信度は低いと推定できる。そこで、質問判定部511は、ドライバの確信度が低いと推定した結果に基づき、理解度を「低」とする。
 ステップST1002において、質問判定部511が、確信度が高いと判断した場合(ステップST1002の“NO”の場合)、質問判定部511は、理解度を「高」とし(ステップST1004)、理解度「高」の情報を詳細度決定部512に出力して、処理を終了する。例えば、質問が、「次は××だね」等の形式であれば、ドライバは、案内された経路に対して自車の経路が正しい、すなわち、案内された経路上を走行できているという確信を持っており、念のための確認を行っているに過ぎない可能性が高いと推定できる。そこで、ここでは、質問判定部511は、ドライバの確信度が高いと推定した結果に基づき、理解度を「高」とする。
 以上のように、質問判定部511は、理解度判定処理において、現在の経路上を走行中に、ドライバによる経路についての質問を受け付けたかどうかの履歴に基づき、ドライバが、経路について、どれぐらい確信しているかの度合いを表わす確信度を推定し、確信度により理解度を判定する。
 なお、ここでは、ステップST1002において、質問判定部511は、履歴記憶部25に記憶されている、現在の経路上を走行中に記憶された質問の履歴のうち、最新の履歴を用いて確信度を指定するようにしたが、これに限らず、質問判定部511は、履歴記憶部25に記憶されている、さらに過去の履歴を用いて確信度を判定するようにしてもよい。また、質問判定部511は、ある一定の時間が経過した履歴については使用しないようにしてもよい。
 図9のフローチャートに戻る。
 詳細度決定部512は、ステップST901において質問判定部511が出力した理解度の情報を取得し、カーナビゲーション装置600において出力装置800に出力させる出力文の詳細度を決定する(ステップST902)。ここでは、例えば、詳細度決定部512は、理解度が「高」の場合は、詳細度「低」と決定し、理解度が「低」の場合は、詳細度「高」と決定するものとする。なお、カーナビゲーション装置600において出力装置800に出力させる出力文とは、ここでは、経路案内のための案内データの内容をいう。
 出力文作成部52は、出力タイミングテーブル53を参照し、ステップST902において詳細度決定部512が出力した詳細度に応じた出力文テンプレート、および、当該出力文テンプレートに基づく出力文の出力タイミングを取得する(ステップST903)。
 ここで、図12は、この実施の形態1における出力タイミングテーブル53の一例を説明する図である。図12Aは、詳細度「高」の場合の出力タイミングテーブル53、図12Bは、詳細度「低」の場合の出力タイミングテーブル53を示している。
 出力タイミングテーブル53には、出力文テンプレート、および、当該出力文テンプレートに基づく出力文を出力するタイミングが対応付けられて定義されている。この実施の形態1においては、図12A、図12Bのように、詳細度「高」、「低」それぞれの場合に応じた出力タイミングテーブル53が用意されているものとする。
 出力文作成部52は、ステップST903で取得した出力タイミングテーブル53の情報、具体的には、出力文テンプレートおよび当該出力文の出力タイミングの情報を、外部情報取得部3に出力する。
 外部情報取得部3は、ステップST903で出力文作成部52から取得した出力文を出力するタイミングに基づき、案内経路情報と、自車位置情報と、地図データとから、出力文を出力するタイミングになったかどうかを判定する(ステップST904)。外部情報取得部3は、例えば、案内経路情報は、案内データ作成部63から取得するようにすればよいし、自車位置情報は、位置検出部62から取得するようにすればよいし、地図データは、データ記憶部65から取得すればよい。
 ステップST904において、出力文を出力するタイミングではないと判断した場合(ステップST904の“NO”の場合)、ステップST904の処理を繰り返す。
 ステップST904において、出力文を出力するタイミングであると判断した場合(ステップST904の“YES”の場合)、外部情報取得部3は、出力文を出力するタイミングに対応付けられた出力文テンプレートに基づき、出力文の作成に必要な情報を取得し、出力タイミングの情報とあわせて、出力文作成部52に出力する(ステップST905)。
 具体的には、例えば、ここでは、詳細度決定部512によって、詳細度「高」と決定され、外部情報取得部3は、出力文作成部52から、図12Aに示す情報を取得したとする。そして、外部情報取得部3は、案内経路情報と自車位置情報と地図データとから、自車位置が、進路変更交差点まで1kmの地点にあると判断したとする。このとき、外部情報取得部3は、出力文を出力するタイミングであると判断し(ステップST904の“YES”)、進路変更交差点まで1kmの出力タイミングに対応付けられた出力文テンプレート「およそ1km先、○方向です」に基づき作成される出力文に必要な情報、すなわち、進路変更をする方向の情報を取得し、出力タイミングの情報とあわせて、出力文作成部52に出力する。
 図12A、図12Bに示すような出力タイミングテーブル53の出力文テンプレートにおいて、例えば、「およそ1km先、○方向です」の「○」には、例えば、「右」のような、具体的な方向を表わす文字または文字列が入る。外部情報取得部3では、当該具体的な方向の情報を、案内経路情報等から取得し、出力文作成部52に出力する。
 また、出力文テンプレートにおいて、例えば、「この先$ランドマーク$のある交差点・・・」の「$ランドマーク$」には、「Aスーパー」のような、具体的なランドマークを表わす文字または文字列が入る。
 このように、出力文作成部52は、出力文の作成のために必要な情報を外部情報取得部3に問い合わせ、外部情報取得部3は、当該問い合わせに応じた情報を取得し、出力文作成部52に出力する。
 なお、詳細度「低」と決定された場合には、図12Bに示すように、「進路変更交差点まで1km」は、出力文を出力するタイミングとして定義されていないので、外部情報取得部3は、進路変更交差点まで1kmの地点にあると判断したとしても、出力文を出力するタイミングとは判断しない。
 出力文作成部52は、外部情報取得部3から出力された出力タイミングを示す情報、および、出力文の作成に必要な情報に基づき、出力文を作成し、出力制御部4へ出力する(ステップST906)。具体的には、例えば、出力文作成部52は、「およそ1km先、右方向です」という出力文を示す情報を作成し、出力制御部4へ出力する。
 出力制御部4は、出力文作成部52から出力された出力文を示す情報を制御情報として、カーナビゲーション装置600の案内データ作成部63へ送信する。
 案内データ作成部63では、出力制御部4から制御情報として取得した出力文を示す情報を、案内データとし、当該案内データを案内制御部64へ出力する。案内制御部64は、取得した案内データを、例えば、音声データとして出力装置800に出力させる。案内制御部64は、上述したような公知の音声合成処理により、案内データを音声データに変換するようにすればよい。また、ここでは、案内制御部64は、案内データを音声に変換して出力させるものとするが、これに限らず、映像に変換して出力させるようにしてもよい。
 その後、ステップST904に戻り、以降の処理を繰り返し、外部情報取得部3が詳細度に応じた出力タイミングになったと判断すると、出力文作成部52が出力文テンプレートに従った出力文を示す情報を作成し、出力制御部4を介してカーナビゲーション装置600へ作成した出力文を示す情報を出力して、当該出力文を案内データとして、音声に変換して出力装置800に出力させるようにする。
 なお、ここでは、ステップST906の後、ステップST904に戻るものとしたが、これに限らず、ステップST901に戻って、最新の質問応答履歴に基づき理解度を判定し直すようにしてもよい。
 ドライバが、例えば、入力装置700から案内終了指示を入力する等して、現在の経路案内を終了させると、カーナビゲーション装置600の受付部61は、当該案内終了指示を受け付け、受け付けた案内終了指示を情報提供制御装置100に出力し、情報提供制御装置100は、情報提供処理を終了させる。このとき、情報提供制御装置100は、カーナビゲーション装置600の案内データ作成部63に対して、案内データ作成制御終了指示を出力する。
 なお、この実施の形態1では、出力文作成部52が、外部情報取得部3から出力された出力タイミングを示す情報、および、出力文の作成に必要な情報に基づき、出力文を作成して、作成した出力文を示す情報を制御情報として、出力制御部4を介して案内データ作成部63へ出力するようにしたが、これに限らず、例えば、出力文作成部52は、外部情報取得部3から出力された出力タイミングを示す情報、および、出力文の作成に必要な情報を、制御情報として、出力制御部4を介して案内データ作成部63に出力し、案内データ作成部63が、制御情報に基づいて出力文、すなわち、案内データを作成するようにしてもよい。
 以上のように、実施の形態1によれば、カーナビゲーション装置600の利用者であるドライバから、カーナビゲーション装置600が提供可能な情報に関する質問、例えば、案内経路についての質問を受け付け、当該質問のモダリティを利用して推定した確信度から利用者の理解度を判定し、当該理解度に基づいて、その後出力させる出力文の詳細度および出力タイミングを変化させるため、利用者に対して質問を行うことなく、利用者の理解度に合わせた案内内容、および、利用者の理解度に合わせた頻度で、経路案内等の情報提供を行うことができる。これにより、例えば、理解度の高い利用者に必要以上の情報を提供することがなく、理解度の低い利用者には、詳細な情報を提供でき、利用者に分かりやすい情報の提供を可能とすることができる。
 また、利用者の理解度を判断するのに、利用者に対して質問を出力し、当該質問に対する利用者の回答を得るという従来技術の方法においては、利用者に対する質問のバリエーションを多数用意しておく必要あるという問題がある。これに対し、この発明の実施の形態1では、利用者からの自発的な質問に基づいて利用者の理解度を判断するようにした。これにより、利用者にとって煩わしさを低減できるだけでなく、利用者に対する質問のバリエーションを用意しておく必要がなくなる。
 また、利用者からの質問の形式から推定できるモダリティを利用して確信度を推定し、当該確信度から理解度を判定するようにしたので、比較的簡易な方法で理解度を判定することができる。
 また、質問のモダリティを利用して確信度を推定するため、利用者の主観を考慮した理解度に基づく情報提供の制御ができる。
 なお、この実施の形態1では、ドライバは、経路に対する質問を、音声により入力するものとして説明したが、これに限らず、ドライバは、キーボードなどの入力手段によるテキスト入力によって、経路に対する質問を入力するようにしてもよい。
 また、この実施の形態1では、出力装置800からは、音声データとして案内データおよび質問に対する応答文が出力されるものとして説明したが、これに限らず、出力装置800は、ディスプレイ等とし、案内データおよび応答文を出力装置800に表示させるようにしてもよい。
 また、この実施の形態1では、図4のステップST403において、意味理解部21は、意味解析テーブル231を参照して質問シンボルを取得するものとしたが、これに限定するものではない。例えば、意味理解部21は、発話パターンを正規表現で記述してもよい。また、意味理解部21は、機械学習の手法を用いて、予めテキストに対する質問シンボルを学習しておき、受け付けたテキストがどの質問シンボルに分類されるかによって質問シンボルを特定するようにしてもよい。
 また、この実施の形態1では、確信度、理解度、および、詳細度は、「高」、「低」の二値としたが、これに限定するものではない。例えば、より詳細な確信度、理解度、あるいは、詳細度を定義し、それに対応する出力タイミングテーブル53を用いて、出力文をより細かく制御することもできる。
 また、この実施の形態1では、一例として、情報提供制御装置100が、カーナビゲーション装置600に搭載され、情報提供制御装置100が制御する情報提供機能は、具体的には、案内された経路上を走行中の経路案内を行う機能として説明したが、これに限るものではない。
 例えば、情報提供制御装置100は、施設内に設置された設備点検作業支援装置における情報提供機能を制御するものとし、利用者である設備点検作業員等から、設備点検作業支援装置の設備保守、設備点検における作業情報、例えば、設備点検作業員等が次にどこで何を点検するべきなのかに関する質問を受け付け、当該質問に対する応答を行うと同時に当該質問応答履歴を記憶し、記憶された履歴に基づき、設備点検作業員等の設備点検における作業に対する理解度を決定し、当該理解度に応じて、出力させる作業情報の詳細度を変化させるようにすることもできる。
 図13は、この実施の形態1に係る情報提供制御装置100を搭載した設備点検作業支援装置900の構成図である。
 図13に示すように、設備点検作業支援装置900は、設備点検作業員等によって、入力装置700に入力された、例えば、設備点検箇所への経路探索指示等を、入力装置700から受け付け、情報提供制御装置100による制御のもと、受け付けた設備点検箇所への経路探索指示に応じた次の設備点検箇所への経路に関する情報を、出力装置800から出力させる。
 なお、設備点検作業支援装置900は、例えば、設備点検事務所に設置されたサーバを想定している。
 設備点検作業支援装置900は、受付部71と、位置検出部72と、点検データ作成部73と、案内制御部74と、データ記憶部75とを備える。
 受付部71は、設備点検作業員等によって入力装置700に入力された、例えば、設備点検箇所への経路探索指示等を、入力装置700から受け付ける。
 位置検出部72は、例えば、速度センサ、ジャイロセンサ、GPS(Global Positioning System)受信機等から構成され、設備点検作業員等の現在位置、速度、方位、現在時刻等を検出する。なお、位置検出部72は、これらのセンサおよび受信機を2つ以上組み合わせた構成としてもよい。
 位置検出部72は、当該位置検出部72が検出した設備点検作業員等の現在位置、速度、方位、現在時刻等の情報を、点検データ作成部73に出力する。
 点検データ作成部73は、受付部71が受け付けた設備点検箇所への経路探索指示、データ記憶部75に記憶されている情報、位置検出部72が出力した設備点検作業員の現在位置、速度、方位、現在時刻等の情報に基づき、例えば、次の設備点検箇所までの経路を探索し、探索した経路、あるいは、点検内容を指示するための点検データを作成する。点検データ作成部73は、作成した案内データを、案内制御部74へ出力する。また、点検データ作成部73は、情報提供制御装置100から制御情報が出力された場合には、当該制御情報に従って点検データを作成する。なお、ここでは、制御情報とは、出力文、または、出力タイミングを示す情報等を含むものとする。
 案内制御部74は、点検データ作成部73が作成した点検データを、例えば、音声データに変換して出力装置800に出力させる。なお、ここでは、案内制御部74は、点検データを音声データに変換して出力させるものとするが、これに限らず、例えば、案内制御部74は、案内データを映像データに変換して出力させるようにしてもよい。
 データ記憶部75は、地図データ、および、経路の探索に用いられる各種データ等を記憶する。データ記憶部75は、例えば、HDD(Hard Disk Drive)、DVD(Digital Versatile Disc)、メモリ等によって構成される。
 なお、ここでは、図13に示すように、設備点検作業支援装置900と入力装置700,出力装置800を別の装置としている。また、入力装置700はマイク等の音声入力装置、出力装置800はスピーカ等の音声出力装置、あるいは、ディスプレイ等の表示装置を想定している。これらは、スマートフォンやヘッドマウントディスプレイ等、携帯端末で一体化しているものとしてもよい。
 また、ここでは、設備点検作業支援装置900は、設備点検事務所に設置されたサーバを想定しているが、これに限らず、設備点検作業支援装置900は、入力装置700,出力装置800とあわせて、スマートフォン等の携帯端末上に一体化するものとしてもよい。
 図13に示す情報提供制御装置100の構成および動作については、上記において、カーナビゲーション装置600に搭載されるものとして説明した情報提供制御装置100の構成および動作と同様である。
 なお、上記の説明では、情報提供制御装置100は、カーナビゲーション装置600に搭載され、ドライバからの質問を受け付けて当該質問に対する応答文を作成する質問応答処理と、ドライバからの質問に基づき判定した理解度に基づき、カーナビゲーション装置600における案内データの作成を制御する制御情報を作成する情報提供処理を行うものとした。これに対し、図13に示すように、設備点検作業支援装置900に搭載された場合、情報提供制御装置100は、設備点検作業員等からの、例えば、設備点検箇所への経路等に関する質問を受け付けて当該質問に対する応答文を作成する質問応答処理と、設備点検作業員等からの質問に基づき判定した理解度に基づき、設備点検作業支援装置900における点検データの作成を制御する制御情報を作成する情報提供処理を行う。情報提供処理において、情報提供制御装置100は、具体的には、例えば、設備点検作業員等からの質問に基づき判定した理解度が低いと判定した場合には、次の設備点検箇所までのより詳細な経路の点検データ、あるいは、点検内容をより詳細に指示する点検データの作成を制御する制御情報を作成する。情報提供制御装置100は、場合によっては、次の設備点検箇所までの経路を動画で説明する点検データの作成を制御する制御情報を作成するようにしてもよい。
 そして、設備点検作業支援装置900の点検データ作成部73は、情報提供制御装置100からの制御情報に基づき、例えば、次の設備点検箇所までの経路を探索し、探索した経路、あるいは、点検内容を指示するための点検データを作成して、案内制御部74へ出力する。案内制御部74は、当該点検データを出力装置800から出力させる。すなわち、設備点検作業支援装置900の制御に基づき、出力装置800から、設備点検作業員等に対して、次の設備点検箇所までの経路が作業情報として提供される。
 あるいは、例えば、情報提供制御装置100は、料理の手順を教えるアプリケーションがインストールされた携帯端末等、あるいは、会話ロボット制御装置における情報提供機能を制御するものとし、利用者である調理者から、例えば、次に何の作業をするべきなのかに関する質問を受け付け、当該質問に対する応答を行うと同時に当該質問応答履歴を記憶し、記憶された履歴に基づき、調理者の、料理の作業手順に対する理解度を決定し、当該理解度に応じて、出力させる調理手順に関する情報の詳細度を変化させるようにすることもできる。
 図14は、この実施の形態1に係る情報提供制御装置100を搭載した会話ロボット制御装置1000の構成図である。
 図14に示すように、会話ロボット制御装置1000は、調理者等によって、入力装置700に入力された、例えば、調理手順の探索指示等を入力装置700から受け付け、情報提供制御装置100による制御のもと、受け付けた調理手順の探索指示等に応じた、目的とする料理を完成するまでの調理手順、あるいは、味見ポイント等に関する情報を、出力装置800から出力させる。
 なお、会話ロボット制御装置1000は、例えば、ホームゲートウェイ、あるいは、クラウド等に設置されたサーバを想定している。
 会話ロボット制御装置1000は、受付部81と、位置検出部82と、手順データ作成部83と、案内制御部84と、データ記憶部85とを備える。
 受付部81は、調理者等によって入力装置700に入力された、例えば、調理手順の探索指示等を、入力装置700から受け付ける。
 位置検出部82は、例えば、速度センサ、ジャイロセンサ、GPS(Global Positioning System)受信機等から構成され、調理者等の現在位置、速度、方位、現在時刻等を検出する。なお、位置検出部82は、これらのセンサおよび受信機を2つ以上組み合わせた構成としてもよい。
 位置検出部82は、当該位置検出部82が検出した調理者等の現在位置、速度、方位、現在時刻等の情報を、手順データ作成部83に出力する。このように、位置検出部82は、調理者の物理的な場所とともに、調理手順全体における現在作業の段階も「位置」として検出する。
 手順データ作成部83は、受付部81が受け付けた調理手順の探索指示、データ記憶部85に記憶されている情報、位置検出部82が出力した調理者等の現在位置、速度、方位、現在時刻等の情報に基づき、例えば、目的とする料理を完成するまでの調理手順を探索し、探索した調理手順、あるいは、味見ポイント等の調理手順内容を指示するための手順データを作成する。
 ここで、図15は、会話ロボット制御装置1000の手順データ作成部83が探索する調理手順の一例を説明する図である。
 例えば、図15に示すように、同じ料理を調理する場合でも、手順データ作成部83が探索する調理手順は素人向けと玄人向けで異なる。あるいは、時間に余裕がある人と、素早く調理したい人では、手順データ作成部83が選択すべき調理手順は異なる。
 手順データ作成部83は、調理者の状態や知識に応じて、最適な調理手順を指示するための手順データを作成する。なお、手順データ作成部83は、探索する調理手順のパターンを予め記憶しておき、例えば、調理者等から、どのパターンに基づいて調理手順を探索するかの指示を受け付け、受け付けた指示に基づいて調理手順の探索および手順データの作成を行うようにすればよい。
 手順データ作成部83は、作成した手順データを、案内制御部84へ出力する。また、手順データ作成部83は、情報提供制御装置100から制御情報が出力された場合には、当該制御情報に従って手順データを作成する。なお、ここでは、制御情報とは、出力文、調理手順の写真あるいは動画、または、出力タイミングを示す情報等を含むものとする。
 案内制御部84は、手順データ作成部83が作成した手順データを、例えば、音声データに変換して出力装置800に出力させる。なお、ここでは、案内制御部84は、手順データを音声データに変換して出力させるものとするが、これに限らず、例えば、案内制御部84は、手順データを映像データに変換して出力させるようにしてもよい。
 データ記憶部85は、地図データ、および、経路の探索に用いられる各種データ等を記憶する。データ記憶部85は、例えば、HDD(Hard Disk Drive)、DVD(Digital Versatile Disc)、メモリ等によって構成される。
 なお、ここでは、図14に示すように、会話ロボット制御装置1000と入力装置700,出力装置800を別の装置としている。また、入力装置700はマイク等の音声入力装置、出力装置800はスピーカ等の音声出力装置、あるいは、ディスプレイ等の表示装置を想定している。これらは、スマートフォン等の携帯端末で一体化しているものとしてもよい。
 また、ここでは、会話ロボット制御装置1000は、ホームゲートウェイ、あるいは、クラウド等に設置されたサーバを想定しているが、これに限らず、会話ロボット制御装置1000は、入力装置700,出力装置800とあわせて、スマートフォン等の携帯端末上に一体化するものとしてもよい。
 情報提供制御装置100の構成および動作については、上記において、カーナビゲーション装置600に搭載されるものとして説明した情報提供制御装置100の構成および動作と同様である。
 なお、上記の説明では、情報提供制御装置100は、カーナビゲーション装置600に搭載され、ドライバからの質問を受け付けて当該質問に対する応答文を作成する質問応答処理と、ドライバからの質問に基づき判定した理解度に基づき、カーナビゲーション装置600における案内データの作成を制御する制御情報を作成する情報提供処理を行うものとした。これに対し、図14に示すように、会話ロボット制御装置1000に搭載された場合、情報提供制御装置100は、調理者等からの、例えば、調理手順に関する質問を受け付けて当該質問に対する応答文を作成する質問応答処理と、調理者等からの質問に基づき判定した理解度に基づき、会話ロボット制御装置1000における手順データの作成を制御する制御情報を作成する情報提供処理を行う。
 そして、会話ロボット制御装置1000の手順データ作成部83は、情報提供制御装置100からの制御情報に基づき、例えば、目的とする料理を完成するまでの手順を探索し、探索した手順、あるいは、味見ポイント等を指示するための手順データを作成して、案内制御部84へ出力する。案内制御部84は、当該手順データを出力装置800から出力させる。すなわち、会話ロボット制御装置1000の制御に基づき、出力装置800から、調理者等に対して、目的とする料理を完成するまでの手順、あるいは、味見ポイント等が調理手順に関する情報として提供される。
 あるいは、例えば、情報提供制御装置100は、機器の使用方法を説明する作業支援装置における情報提供機能を制御するものとし、利用者から、例えば、あるボタンを押下することでどのような動作を行うのかに関する質問を受け付け、当該質問に対する応答を行うと同時に当該質問応答履歴を記憶し、記憶された履歴に基づき、利用者の、機器の使用方法に対する理解度を決定し、当該理解度に応じて、出力させる動作説明に関する情報の詳細度を変化させるようにすることもできる。
 あるいは、例えば、情報提供制御装置100は、展示会場または店頭等で、対話処理によって展示品または商品等の説明を行う商品案内装置における情報提供機能を制御するものとし、利用者である招待客あるいは顧客等から、例えば、商品に関する質問を受け付け、当該質問に対する応答を行うと同時に当該質問応答履歴を記憶し、記憶された履歴に基づき、顧客等の、商品に対する理解度を決定し、当該理解度に応じて、出力させる商品に関する情報の詳細度を変化させるようにすることもできる。
 このように、この発明の実施の形態1に係る情報提供制御装置100は、情報を提供するあらゆる機器等の情報提供装置における情報提供機能を制御するものとして、広く適用することができる。利用者から受け付ける質問は、情報提供装置が提供可能な情報に関する質問であればよい。また、情報提供制御装置100により制御される対象となる情報提供装置は、固定設置される装置であっても、利用者により携帯される装置等であってもよい。
実施の形態2.
 実施の形態1では、詳細度判定部51は、利用者からの質問のモダリティを利用して利用者の確信度を推定し、当該確信度から理解度を判定して、当該理解度に基づき、出力文の詳細度を決定していた。
 しかしながら、利用者からの質問のモダリティを利用した確信度からだけでは、必ずしも適切に理解度を判定できているとは言えない場合がある。
 例えば、左折すべき交差点の前において、ドライバが、「次は右だね」と質問した場合、実施の形態1では、詳細度判定部51は、モダリティとして確認の度合いが高い質問の形式といえることから、確信度「高」と判定し、その後提供する情報の詳細度を低く設定する。その結果、その後出力される経路案内情報の詳細度は低く、経路案内情報が出力される頻度も少なくなる。
 しかし、実際には、左折すべき交差点であるため、「次は右だね」と質問したドライバは、案内経路について、左折を右折と誤った内容を思い込み、確信していることになる。この場合、ドライバが正しい案内経路を把握できるよう、ドライバには、より詳細な情報を提供するほうが好ましい。
 そこで、この実施の形態2では、利用者からの質問に含まれる情報と、質問対象の回答情報に含まれる情報とを比較し、一致している度合いも考慮して、利用者の理解度を判定する実施の形態について説明する。
 この発明の実施の形態2に係る情報提供制御装置100の構成は、実施の形態1において図2を用いて説明した構成と同様であるので、重複した説明を省略する。
 また、情報提供制御装置100のハードウェア構成についても、実施の形態1において、図3A,図3Bを用いて説明した構成と同様であるため、重複した説明を省略する。
 以下、この実施の形態2においても、実施の形態1と同様に、一例として、情報提供制御装置100は、カーナビゲーション装置600に搭載され(図1参照)、カーナビゲーション装置600において、情報提供制御装置100が行う制御に基づき、利用者であるドライバ等に対して、案内経路情報等を提供する場合を説明する。
 動作について説明する。
  この発明の実施の形態2に係る情報提供制御装置100についても、実施の形態1と同様に、大きく分けて、ドライバからの質問を受け付けて当該質問に対する応答文を作成する質問応答処理と、ドライバからの質問に基づき判定した理解度に基づき、カーナビゲーション装置600における案内データの作成を制御する制御情報を作成する情報提供処理を行う。
 この発明の実施の形態2に係る情報提供制御装置100の質問応答処理の具体的な動作は、実施の形態1において、図4を用いて説明した動作と同様であるため、重複した説明を省略する。
 この発明の実施の形態2に係る情報提供制御装置100と、実施の形態1に係る情報提供制御装置100とでは、情報提供処理について、実施の形態1において、図10を用いて説明した、図9のステップST901の理解度判定処理の動作の内容が異なるのみであるため、実施の形態1とは異なる動作についてのみ詳細に説明し、その他の実施の形態1に係る情報提供制御装置100と同様の動作については、重複した説明を省略する。
 図16は、実施の形態2における、質問判定部511による理解度判定処理の動作を説明するフローチャートである。
 質問判定部511は、現在の経路上を走行中に質問応答処理が行われたかを判定する(ステップST1301)。具体的な動作は、実施の形態1で説明した図10のステップST1001と同様であるため、重複した説明を省略する。
 ステップST1301において、質問判定部511が、現在の経路上を走行中に質問応答処理が全く行われていないと判定した場合、すなわち、履歴記憶部25に、現在の経路上を走行中に記憶された質問の履歴がない場合(ステップST1301の“NO”の場合)、質問判定部511は、理解度を「高」とし(ステップST1306)、理解度「高」の情報を詳細度決定部512に出力して、処理を終了する。
 ステップST1301において、現在の経路上を走行中に、ドライバによる経路についての質問を受け付け、当該質問に対する応答を行っている場合、すなわち、履歴記憶部25に、現在の経路上を走行中に記憶された質問の履歴がある場合(ステップST1301の“YES”の場合)、質問判定部511は、履歴記憶部25に記憶されている、現在の経路上を走行中に記憶された質問の履歴のうち、最新の履歴について、質問形式は疑問形であるかどうかを判定する(ステップST1302)。具体的な動作は、図10のステップST1002と同様であるため、重複した説明を省略する。
 ステップST1302において、質問判定部511が、確信度が高いと判断した場合(ステップST1302の“NO”の場合)、質問判定部511は、質問回答一致度Wを算出する(ステップST1303)。
 ここで、図17は、実施の形態2において、質問判定部511が質問回答一致度Wを算出する動作を説明するフローチャートである。
 図17を用いて、ステップST1303の動作について詳細に説明する。
 まず、質問判定部511は、履歴記憶部25に記憶されている、現在の経路上を走行中に記憶された質問の履歴のうち、最新の履歴から、質問の内容と、回答情報の情報を取得する(ステップST1401)。すなわち、質問判定部511は、履歴記憶部25に記憶させておいた、ドライバからの質問の内容と、外部情報取得部3から取得した当該質問に対する回答情報を取得する。
 質問判定部511は、ステップST1401で取得した質問の内容に基づき、例えば、質問に含まれる方向を推定する(ステップST1402)。ここで、質問判定部511は、質問に含まれる経路を特定するワードが、「右」、「左」等、方向を表わすワードであるかを判定し、方向を表わすワードである場合は、その方向を、質問に含まれる方向と推定する。例えば、質問の内容が「ここは右かな」であった場合、「右」というワードが含まれているので、質問判定部511は、質問に含まれる方向を推定した結果を「RIGHT」とする。
 なお、質問判定部511は、ここでは質問に含まれる方向を推定した結果を「RIGHT」、「LEFT」,「NONE」等で表わすものとするが、これに限らず、方向を推定した結果がわかる表現であればどのようなものでもよい。
 質問判定部511は、ステップST1401で取得した回答情報に含まれる方向を推定する(ステップST1403)。具体的には、質問判定部511は、回答情報中に方向に関するワードが含まれているかを判定し、含まれている場合は、その方向を、回答情報に含まれる方向とする。ここでは、質問対象の回答情報が「RIGHT」、「LEFT」等で返答されることとしているので、「RIGHT」、「LEFT」等が含まれる場合は、質問判定部511は、当該「RIGHT」、「LEFT」等を、回答情報に含まれる方向とする。
 また、この実施の形態2では、例えば、「何m先を右ですか」という質問に対する質問シンボルとして、「HOW_DISTANCE{obj=next_turn,next_cross=RIGHT}」が取得され、質問対象には「次の交差点方向」と「次の交差点までの距離」が含まれる構成とする。そして、これにより、「RIGHT」、および、「100m」等の回答情報が取得されるものとする。
 質問判定部511は、ステップST1402で推定した質問に含まれる方向と、ステップST1403で推定した回答情報に含まれる方向とを比較し、質問回答一致度Wを算出する(ステップST1404)。
 具体的には、質問判定部511は、ステップST1402,ステップST1403で推定した方向を、角度情報に変換し、質問回答一致度Wを算出する。
 例えば、質問判定部511は、
 右:RIGHT=0度、
 左:LEFT=180度、
 前:STRAIGHT,FORWARD=90度、
 後:BACKWARD=270度
 というように、推定した方向を角度情報に変換する。
 そして、質問判定部511は、以下の式により、質問回答一致度Wを算出する。

 W=|100―|X-Y|/180×100|

 X:質問に含まれる方向から変換した角度
 Y:問い合わせ結果に含まれる方向から変換した角度

 なお、ここでは、質問回答一致度Wの単位は%とする。
 ここで、例えば、質問判定部511は、ステップST1402で、質問に含まれる方向「RIGHT」、ステップST1303で、回答情報に含まれる方向「RIGHT」と推定したとすると、
 W=|100-|0-0|/180×100|
 から、質問判定部511は、質問回答一致度W=100%と算出する。
 また、例えば、質問判定部511は、ステップST1402で、質問に含まれる方向「RIGHT」、ステップST1403で、回答情報に含まれる方向「LEFT」と推定したとすると、質問判定部511は、質問回答一致度W=0%と算出する。
 また、例えば、質問判定部511は、ステップST1402で、質問に含まれる方向「STRAIGHT」、ステップST1403で、回答情報に含まれる方向「RIGHT」と推定したとすると、質問判定部511は、質問回答一致度W=50%と算出する。
 また、例えば、質問に含まれる方向が推定できなかった等により、質問回答一致度Wが算出できなかった場合、質問判定部511は、質問回答一致度W=0%とするものとする。
 このように、質問判定部511は、ドライバからの質問に含まれる方向と、回答情報に含まれる方向とから、質問回答一致度Wを算出する。
 なお、ここでは、ステップST1302,ステップST1303において、質問判定部511は、履歴記憶部25に記憶されている、現在の経路上を走行中に記憶された質問の履歴のうち、最新の履歴を用いて理解度を判定する、あるいは、質問回答一致度Wを算出するようにしたが、これに限らず、質問判定部511は、履歴記憶部25に記憶されている、さらに過去の履歴を用いて理解度を判定、あるいは、質問回答一致度Wを算出するようにしてもよい。また、質問判定部511は、ある一定の時間が経過した履歴については使用しないようにしてもよい。
 図16のフローチャートに戻る。
 ステップST1303において、質問回答一致度Wを算出すると、質問判定部511は、質問回答一致度Wが第1の閾値Th1以下かどうか、すなわち、W≦Th1かどうかを判定する(ステップST1304)。ここでは、例えば、第1の閾値Th1=50%と設定されているものとする。これは一例にすぎず、第1の閾値Th1は、適宜設定可能である。
 ステップST1304において、W≦Th1の場合、すなわち、Wが50%以下の場合(ステップST1304の“YES”の場合)、質問判定部511は、理解度を「低」とし(ステップST1305)、理解度「低」の情報を詳細度決定部512に出力して、処理を終了する。
 上述したように、例えば、左折すべき交差点の前において、ドライバが、「次は右だね」と誤った内容を確信して質問したような場合等、質問のモダリティを利用して推定されたドライバの確信度が高いということだけでは、必ずしも適切に理解度を判定できているとは言えない場合がある。
 そこで、この実施の形態2では、ドライバの経路に対する確信度が高いと推定できたとしても(ステップST1302の“NO”の場合)、質問回答一致度Wが第1の閾値Th1を満たさなければ理解度を「低」とすることで、ドライバの実際の状況に応じて、より適切に、案内経路情報を提供することができる。
 ステップST1304において、W≦Th1ではない場合、すなわち、Wが50%より大きい場合(ステップST1304の“NO”の場合)、質問判定部511は、理解度を「高」とし(ステップST1306)、理解度「高」の情報を詳細度決定部512に出力して、処理を終了する。
 一方、ステップST1302において、質問判定部511が、確信度が低いと判断した場合(ステップST1302の“YES”の場合)、質問判定部511は、理解度を「低」とし(ステップST1305)、理解度「低」の情報を詳細度決定部512に出力して、処理を終了する。
 ドライバの確信度が低い場合、ドライバは、案内経路について確信を持てるよう、より詳細な情報を所望して質問したと考えられるため、ドライバには、より詳細な情報が提供される方が好ましいと考えられる。
 そこで、ステップST1302において、質問判定部511が、確信度が低いと判断した場合には、質問回答一致度Wに拘わらず、質問判定部511は、理解度「低」とする。これにより、その後の詳細度決定部512における出力文の詳細度の判定において、ドライバが確信を持てるよう、より詳細度の高い出力文を出力させるようにすることができる。つまり、理解度「高」と判定されてしまうことにより、詳細度の低い出力文が出力されることを防ぐことができる。その結果、ドライバの状況に応じて、より適した詳細度で、情報を提供することができる。
 以上のように、質問判定部511は、理解度判定処理において、質問のモダリティを利用した確信度に加え、質問に含まれる方向と、外部情報取得部3が取得した質問対象の回答情報に含まれる方向とが一致している度合いも考慮して、利用者の理解度を判定する。   
 ここで、図18は、この実施の形態2において、質問判定部511が判定する理解度について、当該理解度と、質問回答一致度Wと、確信度との関係の一例を説明する図である。
 なお、図18では、一例として、質問回答一致度Wと確信度は、いずれも二値化された場合を示している。この実施の形態2では、質問判定部511は、理解度を、質問回答一致度Wと確信度のAND条件によって判定する。
 このようにして質問判定部511によって得られた理解度から、詳細度決定部512は、詳細度を決定し、ドライバに対して提供する情報を変化させる。
 なお、ここでは、質問判定部511は、理解度は、「低」、「高」の二値とし、質問判定部511は、理解度を2段階に振り分けるものとしたが、これは一例にすぎず、質問判定部511は、例えば、ドライバが行った質問に含まれる方向と、外部情報取得部3が取得した質問対象の回答情報に含まれる方向とが一致している度合いを考慮して、3段階等、さらに細分化して理解度を振り分けるものとしてもよい。
 例えば、ステップST1304において、W≦Th1ではない場合(ステップST1304の“NO”の場合)、さらに、第2の閾値Th2を用いて、Th1<W<Th2かどうかを判定し、該当すれば、質問判定部511は、理解度「中」とするようにしてもよい(図19のステップST1601,ステップST1602参照)。
 そして、詳細度決定部512は、質問判定部511が振り分けた理解度に応じて、詳細度を決定するようにすればよい。このとき、詳細度決定部512が決定する詳細度に応じて、出力タイミングテーブル53を定義しておくようにする。
 また、この実施の形態2では、一例として、質問判定部511は、質問回答一致度Wの算出には、方向、すなわち、方位の情報を用いるようにしたが、これに限らず、例えば、ランドマーク等の3次元地理座標の距離に基づき、質問回答一致度Wを算出するようにしてもよいし、例えば、建物の名称に基づき、質問回答一致度Wを算出してもよい。
 例えば、履歴記憶部25に、質問の内容として「レストランAのところを曲がりますが」、質問シンボルとして「HOW_DISTANCE{obj=next_turn,landmark=レストランA}」、回答情報として、「{landmark=レストランB}」が記憶されていたとする。
 この場合、質問判定部511は、ランドマーク情報landmarkの地理座標に基づき質問回答一致度Wを算出する。ランドマークAの地理座標をH1=(X1,Y1,Z1)、ランドマークBの地理座標をH2=(X2,Y2,Z2)とすると、例えば、質問判定部511は、H1とH2のユークリッド距離を計算し、ある閾値以下なら質問回答一致度Wを100%、それ以外なら質問回答一致度Wを0%と算出することもできる。
 なお、ランドマークA、ランドマークBの地理座標については、質問判定部511は、例えば、外部情報取得部3に問い合わせ、外部情報取得部3を介して取得するようにすればよい。
 また、例えば、質問判定部511は、建物の名称に基づき、質問回答一致度Wを算出してもよい。具体的には、例えば、質問判定部511は、質問に含まれる建物の名称と、回答情報に含まれる建物の名称を推定し、当該「発話から推定された建物の名称」と、「回答情報から推定された建物の名称」がまったく同一の文字列か、同一の場所を指し示す略称等の文字列であれば質問回答一致度Wを100%、それ以外なら質問回答一致度Wを0%と算出することもできる。
 また、実施の形態1と同様に、この実施の形態2に係る情報提供制御装置100に関しても、ドライバの経路に対する質問の入力は、音声に限定されない。また、出力装置800からの出力も音声に限定されない。さらに、情報提供制御装置100が制御する情報提供機能は、案内された経路上を走行中の経路案内を行う機能に限定されない。この発明の実施の形態5に係る情報提供制御装置100は、情報提供装置が提供可能な情報に関する利用者からの質問のモダリティを利用した確信度と、当該質問中に含まれる情報と質問対象の回答情報に含まれる情報との一致度から、理解度を算出できるものであればよく、情報を提供するあらゆる機器等の情報提供装置における情報提供機能を制御するものとして、広く適用することができる。
 以上のように、この実施の形態2によれば、質問判定部511は、利用者からの質問のモダリティを利用して推定される確信度に加えて、質問回答一致度Wも考慮して、理解度を判定する。これにより、より利用者の理解度に沿った情報の詳細度で、利用者に情報を提供することができる。
 なお、この実施の形態1,2では、質問判定部511が判定した理解度に応じて、詳細度決定部512は、出力文の詳細度、および、出力文の出力タイミングを変化させるものとしたが、詳細度決定部512は、出力文の詳細度のみを変化させるものであってもよく、詳細度決定部512は、質問判定部511が判定した理解度に応じて、出力文の情報量を変化させるものであればよい。
 また、実施の形態1,2では、情報提供装置は、一例として、カーナビゲーション装置600としたが、車両用のカーナビゲーション装置に限定されず、情報提供装置は、例えば、人、車両、鉄道、船舶または航空機等を含む移動体用のナビゲーション装置であって、特に車両への持込あるいは車載に適したナビゲーション装置に適用することができる。
 また、実施の形態1,2において、情報提供制御装置100は、図2で示すような構成としたが、情報提供制御装置100は、入力受付部1と、詳細度判定部51とを備えることにより、上述したような効果が得られるものである。
 また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る情報提示制御装置は、利用者に質問を行うことなく、提供される情報の詳細度を変化させることができるように構成したため、情報提供装置に出力させる情報を制御する情報提供制御装置等に適用することができる。
 1 入力受付部、2 質問応答部、3 外部情報取得部、4 出力制御部、5 提供情報作成制御部、21 意味理解部、22 応答文作成部、23 質問解析知識記憶部、24 応答文テンプレート、25 履歴記憶部、51 詳細度決定部、52 出力文作成部、53 出力タイミングテーブル、61,71,81 受付部、62,72,82 位置検出部、63 案内データ作成部、73 点検データ作成部、83 手順データ作成部、64,74,84 案内制御部、65,75,85 データ記憶部、231 意味解析テーブル、232 対象テーブル、301 処理回路、302 HDD、303 入力インタフェース装置、304 出力インタフェース装置、305 メモリ、306 CPU、511 質問判定部、512 詳細度決定部、600 カーナビゲーション装置、700 入力装置、800 出力装置、900 設備点検作業支援装置、1000 会話ロボット制御装置。

Claims (9)

  1.  情報提供装置が提供可能な情報に関する質問を受け付ける入力受付部と、
     前記入力受付部が受け付けた質問のモダリティを利用して推定した確信度から、前記情報提供装置が提供可能な情報に対する理解度を判定する質問判定部と、
     前記質問判定部が判定した理解度に基づき、前記情報提供装置に提供させる情報の詳細度を決定する詳細度決定部
     とを備えた情報提供制御装置。
  2.  前記質問判定部は、
     前記確信度、および、当該質問に含まれる情報と当該質問に対する回答情報に含まれる情報とが一致する度合いに基づき、前記理解度を判定する
     ことを特徴とする請求項1記載の情報提供制御装置。
  3.  前記入力受付部が受け付けた質問を解析し、当該質問による問い合わせの対象である質問対象を特定し、当該質問対象に対する回答情報の問い合わせを行う意味理解部と、
     前記意味理解部が行った問い合わせの結果を前記回答情報として取得し、当該回答情報に基づき前記質問に対する応答文を作成するとともに、当該応答文を前記質問、および、前記回答情報と対応させて、前記入力受付部が受け付けた質問の履歴として記憶させる応答文作成部とを備え、
     前記質問判定部は、前記応答文作成部が記憶させた前記質問の履歴に基づき、前記情報提供装置が提供可能な情報に対する前記理解度を判定する
     ことを特徴とする請求項1記載の情報提供制御装置。
  4.  移動体の経路を案内するナビゲーション装置であって、
     前記ナビゲーション装置が提供可能な情報に関する質問を受け付ける受付部と、
     前記受付部が受け付けた質問に基づく、前記情報に対する理解度に応じた詳細度に対応付けられた前記情報を出力させるよう制御する案内制御部
     とを備えたナビゲーション装置。
  5.  施設内の設備に関する作業情報を提供する設備点検作業支援装置であって、
     前記設備点検作業支援装置が提供可能な情報に関する質問を受け付ける受付部と、
     前記受付部が受け付けた質問に基づく、前記情報に対する理解度に応じた詳細度に対応付けられた前記情報を出力させるよう制御する案内制御部
     とを備えた設備点検作業支援装置。
  6.  作業手順の案内を制御する会話ロボット制御装置であって、
     前記会話ロボット制御装置が提供可能な情報に関する質問を受け付ける受付部と、
     前記受付部が受け付けた質問に基づく、前記情報に対する理解度に応じた詳細度に対応付けられた前記情報を出力させるよう制御する案内制御部
     とを備えた会話ロボット制御装置。
  7.  入力受付部が、情報提供装置が提供可能な情報に関する質問を受け付けるステップと、
     質問判定部が、前記入力受付部が受け付けた質問のモダリティを利用して推定した確信度から、前記情報提供装置が提供可能な情報に対する理解度を判定するステップと、
     詳細度決定部が、前記質問判定部が判定した理解度に基づき、前記情報提供装置に提供させる情報の詳細度を決定するステップ
     とを備えた情報提供制御方法。
  8.  前記質問判定部が、
     前記確信度、および、当該質問に含まれる情報と当該質問に対する回答情報に含まれる情報とが一致する度合いに基づき、前記理解度を判定するステップを有する
     ことを特徴とする請求項7記載の情報提供制御方法。
  9.  意味理解部が、前記入力受付部が受け付けた質問を解析し、当該質問による問い合わせの対象である質問対象を特定し、当該質問対象に対する回答情報の問い合わせを行うステップと、
     応答文作成部が、前記意味理解部が行った問い合わせの結果を前記回答情報として取得し、当該回答情報に基づき前記質問に対する応答文を作成するとともに、当該応答文を前記質問、および、前記回答情報と対応させて、前記入力受付部が受け付けた質問の履歴として記憶させるステップとを備え、
     前記質問判定部は、前記応答文作成部が記憶させた前記質問の履歴に基づき、前記情報提供装置が提供可能な情報に対する前記理解度を判定するステップを有する
     ことを特徴とする請求項7記載の情報提供制御方法。
PCT/JP2016/065039 2016-05-20 2016-05-20 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法 WO2017199434A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/065039 WO2017199434A1 (ja) 2016-05-20 2016-05-20 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法
JP2018518049A JP6403927B2 (ja) 2016-05-20 2016-05-20 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法
TW105128077A TW201741863A (zh) 2016-05-20 2016-08-31 資訊提供控制裝置、導引裝置、設備檢點作業支援裝置、會話機器人控制裝置以及資訊提供控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/065039 WO2017199434A1 (ja) 2016-05-20 2016-05-20 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法

Publications (1)

Publication Number Publication Date
WO2017199434A1 true WO2017199434A1 (ja) 2017-11-23

Family

ID=60324900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/065039 WO2017199434A1 (ja) 2016-05-20 2016-05-20 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法

Country Status (3)

Country Link
JP (1) JP6403927B2 (ja)
TW (1) TW201741863A (ja)
WO (1) WO2017199434A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6458183B1 (ja) * 2018-04-05 2019-01-23 アビームコンサルティング株式会社 モータスポーツにおける自動音声回答システム及びプログラム
CN109489664A (zh) * 2018-11-02 2019-03-19 浙江大华技术股份有限公司 一种路径规划的方法和设备
CN110428821A (zh) * 2019-07-26 2019-11-08 广州市申迪计算机系统有限公司 一种用于巡检机器人的语音指令控制方法及装置
JP2019219452A (ja) * 2018-06-18 2019-12-26 株式会社デンソーアイティーラボラトリ 対話システム、対話方法、およびプログラム
JP2020008635A (ja) * 2018-07-04 2020-01-16 株式会社日立製作所 音声対話システム、音声対話装置および音声対話方法
JP2022070208A (ja) * 2020-10-26 2022-05-12 株式会社エクサウィザーズ 作業記録作成方法、プログラム、作業記録作成装置、及び作業記録システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7084158B2 (ja) * 2018-02-23 2022-06-14 トヨタ自動車株式会社 情報処理方法、プログラム、情報処理装置、及び情報処理システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331196A (ja) * 2000-05-22 2001-11-30 Nec Corp 音声応答装置
JP2003330490A (ja) * 2002-05-15 2003-11-19 Fujitsu Ltd 音声対話装置
JP2006163623A (ja) * 2004-12-03 2006-06-22 Nippon Hoso Kyokai <Nhk> 質問応答装置及び質問応答プログラム、並びに、テレビ受像機
US20080103781A1 (en) * 2006-10-28 2008-05-01 General Motors Corporation Automatically adapting user guidance in automated speech recognition
JP2009168773A (ja) * 2008-01-21 2009-07-30 Nissan Motor Co Ltd ナビゲーション装置および情報提供方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331196A (ja) * 2000-05-22 2001-11-30 Nec Corp 音声応答装置
JP2003330490A (ja) * 2002-05-15 2003-11-19 Fujitsu Ltd 音声対話装置
JP2006163623A (ja) * 2004-12-03 2006-06-22 Nippon Hoso Kyokai <Nhk> 質問応答装置及び質問応答プログラム、並びに、テレビ受像機
US20080103781A1 (en) * 2006-10-28 2008-05-01 General Motors Corporation Automatically adapting user guidance in automated speech recognition
JP2009168773A (ja) * 2008-01-21 2009-07-30 Nissan Motor Co Ltd ナビゲーション装置および情報提供方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6458183B1 (ja) * 2018-04-05 2019-01-23 アビームコンサルティング株式会社 モータスポーツにおける自動音声回答システム及びプログラム
JP2019185243A (ja) * 2018-04-05 2019-10-24 アビームコンサルティング株式会社 モータスポーツにおける自動音声回答システム及びプログラム
JP2019219452A (ja) * 2018-06-18 2019-12-26 株式会社デンソーアイティーラボラトリ 対話システム、対話方法、およびプログラム
JP7169096B2 (ja) 2018-06-18 2022-11-10 株式会社デンソーアイティーラボラトリ 対話システム、対話方法、およびプログラム
JP2020008635A (ja) * 2018-07-04 2020-01-16 株式会社日立製作所 音声対話システム、音声対話装置および音声対話方法
JP7068077B2 (ja) 2018-07-04 2022-05-16 株式会社日立製作所 音声対話システム、音声対話装置および音声対話方法
CN109489664A (zh) * 2018-11-02 2019-03-19 浙江大华技术股份有限公司 一种路径规划的方法和设备
CN110428821A (zh) * 2019-07-26 2019-11-08 广州市申迪计算机系统有限公司 一种用于巡检机器人的语音指令控制方法及装置
JP2022070208A (ja) * 2020-10-26 2022-05-12 株式会社エクサウィザーズ 作業記録作成方法、プログラム、作業記録作成装置、及び作業記録システム

Also Published As

Publication number Publication date
JP6403927B2 (ja) 2018-10-10
TW201741863A (zh) 2017-12-01
JPWO2017199434A1 (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
JP6403927B2 (ja) 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法
JP6388746B2 (ja) 情報提供制御装置および情報提供制御方法
JP5315289B2 (ja) オペレーティングシステム及びオペレーティング方法
US10269348B2 (en) Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US20080059199A1 (en) In-vehicle apparatus
EP2831546B1 (en) Reverse natural guidance
EP2518447A1 (en) System and method for fixing user input mistakes in an in-vehicle electronic device
US11200892B1 (en) Speech-enabled augmented reality user interface
JP5154363B2 (ja) 車室内音声対話装置
JP6202041B2 (ja) 車両用音声対話システム
CN105222797B (zh) 利用口授和部分匹配搜索的导航系统的系统和方法
JP2010145262A (ja) ナビゲーション装置
JPWO2015059764A1 (ja) ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法
WO2016174955A1 (ja) 情報処理装置、及び、情報処理方法
WO2017015882A1 (en) Navigation device and navigation method
JP6214297B2 (ja) ナビゲーション装置および方法
JP2008234427A (ja) ユーザ間の対話を支援する装置、方法およびプログラム
JP2001012963A (ja) ナビゲーション装置、ナビゲーション方法およびナビゲーションプログラムを格納するコンピュータ読み取り可能な記録媒体
JP7274404B2 (ja) 情報提供装置、情報提供方法、およびプログラム
KR20220073513A (ko) 대화 시스템, 차량 및 대화 시스템의 제어 방법
JP6403926B2 (ja) 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法
JP2020162003A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP5160653B2 (ja) 情報提供装置、通信端末、情報提供システム、情報提供方法、情報出力方法、情報提供プログラム、情報出力プログラムおよび記録媒体
JP2005267092A (ja) 照応解析装置及びナビゲーション装置
WO2011030404A1 (ja) オペレーティングシステム及びオペレーティング方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018518049

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16902453

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16902453

Country of ref document: EP

Kind code of ref document: A1