WO2017026035A1 - 操作支援装置および操作支援システム - Google Patents

操作支援装置および操作支援システム Download PDF

Info

Publication number
WO2017026035A1
WO2017026035A1 PCT/JP2015/072652 JP2015072652W WO2017026035A1 WO 2017026035 A1 WO2017026035 A1 WO 2017026035A1 JP 2015072652 W JP2015072652 W JP 2015072652W WO 2017026035 A1 WO2017026035 A1 WO 2017026035A1
Authority
WO
WIPO (PCT)
Prior art keywords
determination unit
intention
user
output
executed
Prior art date
Application number
PCT/JP2015/072652
Other languages
English (en)
French (fr)
Inventor
卓爾 森本
季美果 池上
翔伍 岡本
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201580082068.1A priority Critical patent/CN107921914A/zh
Priority to PCT/JP2015/072652 priority patent/WO2017026035A1/ja
Priority to US15/740,597 priority patent/US20180194359A1/en
Priority to JP2017534058A priority patent/JP6316509B2/ja
Priority to DE112015006794.9T priority patent/DE112015006794T5/de
Publication of WO2017026035A1 publication Critical patent/WO2017026035A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/29
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • B60K2360/115
    • B60K2360/16
    • B60K2360/186
    • B60K2360/188
    • B60K2360/195
    • B60K2360/197
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Definitions

  • the present invention relates to an operation support apparatus and an operation support system that recommend an operation corresponding to a user's intention and prompt the execution.
  • Patent Document 1 displays full menu information that prompts the user to select processing of equipment mounted on the vehicle when the vehicle is stopped, and simply displays the full menu information when the vehicle is running.
  • a vehicle display control device that displays changed menu information changed to contents is described.
  • the changed menu information is created so that a menu item with a higher selection frequency is preferentially displayed based on user operation history information. That is, operations that are frequently performed regularly are determined as operations intended by the user, and the display order of menu items related to these operations is changed. As a result, the user can preferentially select frequently used menu items, and the operation burden on the user can be reduced.
  • the present invention solves the above-described problem, and an operation support device and an operation support system that can easily achieve a user's intention by a recommended operation and can prevent the user from feeling dissatisfied with the device in terms of convenience.
  • the purpose is to obtain.
  • the operation support apparatus includes an intention reasoning unit, a determination unit, and a recommended mode determination unit.
  • the intention reasoning part infers the intention of the user from the present to the present.
  • the determination unit determines whether an operation corresponding to the user's intention inferred by the intention inference unit can be executed.
  • the recommendation mode determination unit causes the output device to output the operation in different modes depending on whether it is determined that the determination unit cannot execute the determination mode.
  • the operation corresponding to the inferred user's intention cannot be executed and the case where the operation can be executed, so that the user can easily select an operation that can be executed. Easier to achieve.
  • processing for selecting an operation that cannot be performed by the user is reduced, the user can be prevented from feeling dissatisfied with the apparatus in terms of convenience.
  • FIG. 3 is a flowchart illustrating an outline of the operation of the operation support apparatus according to the first embodiment. 3 is a flowchart showing a detailed operation of the operation support apparatus according to the first embodiment. It is a block diagram which shows the structure of the operation assistance system which concerns on Embodiment 2 of this invention. 6 is a flowchart illustrating an operation of the operation support apparatus according to the second embodiment. It is a block diagram which shows the structure of the operation assistance system which concerns on Embodiment 3 of this invention.
  • 10 is a flowchart illustrating an operation of the operation support apparatus according to the third embodiment. It is a block diagram which shows the structure of the operation assistance system which concerns on Embodiment 4 of this invention. 10 is a flowchart showing the operation of the operation support apparatus according to the fourth embodiment. It is a block diagram which shows the structure of the operation assistance system which concerns on Embodiment 5 of this invention. 10 is a flowchart illustrating an operation of the operation support apparatus according to the fifth embodiment. It is a block diagram which shows the structure of the operation assistance system which concerns on Embodiment 6 of this invention. It is a figure which shows the hierarchical relationship of the operation content for every abstraction degree. It is a figure which shows the content of a genre and a brand.
  • FIG. 18 is a flowchart showing the operation of the operation support apparatus according to the sixth embodiment. It is a block diagram which shows the structure of the operation assistance system which concerns on Embodiment 7 of this invention. It is a block diagram which shows the structure of the operation assistance system which concerns on Embodiment 8 of this invention.
  • FIG. 1 is a block diagram showing a configuration of an operation support system 1 according to Embodiment 1 of the present invention.
  • the operation support system 1 is a system that recommends an operation corresponding to an intention of a user who is an occupant among operations of devices mounted on a vehicle and prompts the execution thereof.
  • An output device 3 an operation execution device 4, an input device 5, and a vehicle information acquisition unit 6.
  • the operation support device 2 is a device that infers the intention of the user from the present time and causes the output device 3 to output an operation corresponding to the inferred intention as a recommended operation.
  • the intention inference unit 20, the determination unit 21, and the recommendation mode A determination unit 22 is provided.
  • the output device 3 is a display device that displays information input from the operation support device 2 and a sound output device that outputs the information as a sound. For example, it is realized by a display built in a dashboard or the like in a vehicle, a head-up display that superimposes and displays information on the driver's front view, a vehicle-mounted speaker, and the like.
  • the output device 3 outputs the operation content in a mode determined by a recommended mode determining unit 22 described later.
  • the operation corresponding to the user's intention is “turn on TV”, for example, voice output or display of “Do you turn on TV?” Is performed.
  • the operation is executed by the operation execution device 4.
  • the operation execution device 4 is a device that executes an operation recommended by the operation support device 2, and is realized by, for example, a device mounted on a vehicle.
  • Equipment installed in vehicles includes navigation devices, audio devices, television receivers, radio receivers, hands-free telephones, in-vehicle air conditioners, vehicle window opening and closing devices, and information equipment brought into vehicles. It is.
  • FIG. 1 shows a case where the operation support device 2 and the operation execution device 4 are separate devices, the operation support device 2 may be realized as one function of the operation execution device 4.
  • the input device 5 is a device that receives information input from a user, and is realized by, for example, a push button device, a touch panel, or the like.
  • the recommended operation output from the output device 3 can be selected using the input device 5.
  • operation information of the input device 5 by the user is also used as data for the intention reasoning unit 20 described later to infer the user's intention.
  • the vehicle information acquisition unit 6 acquires vehicle information and outputs it to the operation support device 2.
  • the vehicle information is information indicating the state of the vehicle, and includes position information of the vehicle, information indicating the traveling state, information indicating the traveling location, route guidance information, and the like.
  • the vehicle information acquisition part 6 may be provided as one function, such as various sensors and ECU (Electronic Control Unit) which are apparatuses used as the information source which provides vehicle information, the function of the operation assistance apparatus 2 is provided. You may provide as.
  • the vehicle position information is information acquired from a position detection device mounted on the vehicle. For example, the current position of the vehicle obtained by analyzing a GPS signal received from a GPS satellite by a GPS (Global Positioning System) receiver. This is information indicating the position.
  • the position information may be corrected using an azimuth sensor and a vehicle speed pulse.
  • the information indicating the running state of the vehicle is information acquired from a sensor or a vehicle control device mounted on the vehicle, and examples thereof include driving behavior of the vehicle that is expected from the vehicle speed, acceleration, steering angle, fuel remaining amount, and the like. It is done.
  • the information indicating the travel location is information regarding the road on which the vehicle is traveling and the surrounding area, and is acquired from, for example, a navigation device mounted on the vehicle.
  • Information on the road on which the vehicle is traveling includes the type of road, the state of the road, the traffic situation of the road, and the like.
  • the state of the road can be specified by image analysis of shooting information of the in-vehicle camera.
  • the information related to the surrounding area of the road includes facility information of the surrounding area obtained from the map information.
  • the route guidance information is information relating to the route from the departure point to the destination, and includes information such as guidance points such as intersections, facilities around the route, roads, and place names.
  • the intention inference unit 20 infers the intention of the user ahead from the present based on the information input from the input device 5 or the vehicle information acquired by the vehicle information acquisition unit 6.
  • the intention of the user from the present to the present is a matter intended by the user in a period of several minutes from the present.
  • As a method of inferring the user's intention there is a method of using rule data in which the state of the vehicle specified from the vehicle information described above is associated with the intention content of the user.
  • rule data in which operation information input from the input device 5 is associated with the user's intention content may be used. For example, when a user always drives a specific music piece when driving home, the operation of reproducing the music piece is associated with the user's intention of “I want to go home” in the rule data.
  • the intention reasoning unit 20 learns a combination of the user's behavior and the vehicle information at that time, assuming that the user's intention is the user's behavior. And the inference reasoning part 20 infers the user's action corresponding to the present vehicle information as an intention of the user ahead from the present by referring to the learning data accumulated in this way.
  • the correspondence relationship of information in the learning data or the rule data described above may be determined probabilistically using a statistical method for history information such as user behavior.
  • the determination unit 21 determines whether an operation corresponding to the user's intention inferred by the intention inference unit 20 can be executed.
  • a method of specifying an operation corresponding to the user's intention there is a method of using operation specifying table data in which the intention content and the operation content are associated with each other. For example, in the table data, an operation “search for nearby convenience stores” is associated with the user's intention “I want to go to the toilet”. Thereby, it can be recommended that the user go to a convenience store with a toilet. If the user's intention of “I want to go home” is associated with an operation of “searching for a route to home”, a route search to the home can be recommended to the user.
  • the restriction condition is a condition specified from the vehicle information described above.
  • the restriction condition “traveling vehicle” is associated with the operation “turn on TV”. Even if the operation corresponding to the user's intention is “turn on TV”, if it is determined from the vehicle information that the vehicle is traveling, this operation is determined to be impossible.
  • the restriction condition is not met, and therefore the above operation is determined to be executable. Thereby, whether or not the operation can be performed can be determined according to the actual state of the vehicle.
  • the recommendation mode determination unit 22 causes the output device 3 to output the operation in different modes depending on whether the determination unit 21 determines that it cannot be executed or if it is determined that it can be executed.
  • the mode determined by the recommended mode determining unit 22 includes not allowing the output device 3 to output. Therefore, if it is determined that the determination unit 21 cannot perform the operation, it is not necessary to present it to the user.
  • the output device 3 may output or display a voice indicating that the operation cannot be performed. When displaying that the operation cannot be executed, display information such as a shortcut button for selecting this operation is grayed out. Thereby, the user can easily recognize that the operation cannot be performed.
  • the output device 3 outputs sound or displays it in a state where it can be selected as a recommended operation.
  • the input device 5 accepts whether or not the recommended operation is selected.
  • a shortcut button and text for selecting the recommended operation are displayed. A recommended operation is selected by clicking on a shortcut button or text using the input device 5.
  • the output device 3 may be configured to inquire the user whether or not the recommendation operation is to be executed. For example, when the operation content is “Turn on TV”, the voice is output or displayed in an inquiry format “Do you turn on TV?”. Thereby, it also becomes an inquiry about whether the intention of the user inferred by the intention reasoning unit 20 is correct.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the operation support apparatus 2.
  • FIG. 3 is a flowchart showing an outline of the operation of the operation support apparatus 2.
  • the functions of the intention reasoning unit 20, the determination unit 21, and the recommendation mode determination unit 22 in the operation support apparatus 2 are realized by a processing circuit. That is, the operation support apparatus 2 includes a processing circuit for executing the processes from step ST1 to step ST3 shown in FIG.
  • the processing circuit may be dedicated hardware or a CPU (Central Processing Unit) that executes a program stored in the memory.
  • CPU Central Processing Unit
  • the processing circuit when the processing circuit is a dedicated hardware processing circuit 100, the processing circuit 100 is, for example, a single circuit, a composite circuit, a programmed processor, or a parallel program.
  • a processor ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or a combination thereof.
  • the processing may be realized by processing circuits corresponding to the functions of the intent reasoning unit 20, the determination unit 21, and the recommendation mode determination unit 22, or the functions of the respective units may be realized by a single processing circuit.
  • the processing circuit is the CPU 101
  • the functions of the intention reasoning unit 20, the determination unit 21, and the recommendation mode determination unit 22 are realized by software, firmware, or a combination of software and firmware. Is done.
  • Software and firmware are described as programs and stored in the memory 102.
  • the CPU 101 reads out and executes the program stored in the memory 102, thereby realizing the functions of each unit. That is, the operation support apparatus 2 includes a memory 102 for storing a program that, when executed by the CPU 101, results in the processing from step ST1 to step ST3 shown in FIG.
  • these programs cause the computer to execute the procedure or method of the intention reasoning unit 20, the determination unit 21, and the recommended mode determination unit 22.
  • the memory 102 for example, a RAM (Random Access Memory), a ROM, a flash memory, an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Programmable EPROM) or the like, a magnetic disk, a flexible disk, or the like. , Optical disc, compact disc, mini disc, DVD (Digital Versatile Disk), and the like.
  • a part may be implement
  • the function of the intention reasoning unit 20 is realized by the processing circuit 100 as dedicated hardware, and the CPU 101 reads and executes the program stored in the memory 102 for the determination unit 21 and the recommendation mode determination unit 22. By doing so, the function can be realized.
  • the processing circuit can realize the above-described functions by hardware, software, firmware, or a combination thereof.
  • FIG. 4 is a flowchart showing a detailed operation of the operation support apparatus 2.
  • the processing of step ST1a and step ST2a is an example of detailed processing of step ST1 shown in FIG.
  • the process of step ST3a is an example of the detailed process of step ST2 shown in FIG. 3
  • the process of step ST4a and step ST5a is an example of the detailed process of step ST3 shown in FIG. Therefore, since the operation of each step in FIG. 3 becomes clear by explaining each step in FIG. 4, the following description will be given based on FIG. 4.
  • the intention reasoning unit 20 inputs the vehicle information acquired by the vehicle information acquisition unit 6 while the operation support device 2 is activated (step ST1a). For example, when inferring the intention of the user ahead by a predetermined time from the present time, the vehicle information is acquired at a cycle shorter than this time.
  • the intention reasoning unit 20 specifies the state of the vehicle based on the vehicle information, and infers the intention of the user ahead from the current state (step ST2a). For example, with reference to rule data that associates the vehicle state with the user's intention content, the intention content corresponding to the current vehicle state is inferred to be the user's intention.
  • the intention reasoning unit 20 may infer the user's intention using the operation information input from the input device 5 in addition to the vehicle information input from the vehicle information acquisition unit 6.
  • the determination unit 21 identifies an operation corresponding to the inferred intention as described above, and determines whether this operation can be executed in the current vehicle state (step ST3a).
  • the operation corresponding to the intention inferred by the intention inference unit 20 is specified by referring to the operation specifying table data in which the intention content and the operation content are associated with each other.
  • the table data for determining whether or not execution is possible which is associated with the restriction condition for restricting the operation for each operation content, if the vehicle state matches the restriction condition, it is determined that the operation cannot be executed, and the vehicle If the state does not match the restriction condition, it is determined that the operation can be executed.
  • the recommendation mode determination unit 22 determines a recommended mode according to the determination result that can be executed for this operation (step ST4a).
  • the output device 3 outputs the operation in a mode determined by the recommended mode determination unit 22.
  • the operation determined to be executable by the determination unit 21 is output to the output device 3 as the recommended operation. For example, a voice guidance prompting selection of a recommended operation is output, or a shortcut button and text prompting selection of a recommended operation are displayed.
  • the recommendation mode determination unit 22 determines a recommended mode according to the determination result indicating that the operation cannot be performed (step ST5a). Similarly, the output device 3 outputs the operation in the mode determined by the recommended mode determining unit 22. For example, voice guidance indicating that the operation cannot be performed even if selected is output, or a shortcut button and text for prompting selection of this operation are grayed out. Further, if the operation cannot be performed, the output device 3 may not be output.
  • the user determines whether or not to perform the recommended operation recommended by the operation support device 2 based on the output content of the output device 3.
  • the user selects an operation using the input device 5. For example, a shortcut button that prompts selection of this operation is clicked.
  • the determination unit 21 instructs the operation execution device 4 to execute this operation.
  • the operation execution device 4 executes the recommended operation according to the instruction from the determination unit 21.
  • the operation support apparatus 2 includes the intention inference unit 20, the determination unit 21, and the recommended mode determination unit 22.
  • the intention inference unit 20 infers the intention of the user from now on.
  • the determination unit 21 determines whether an operation corresponding to the user's intention inferred by the intention inference unit 20 can be executed.
  • the recommendation mode determination unit 22 causes the output device 3 to output an operation corresponding to the user's intention in different modes depending on whether the determination unit 21 determines that the determination cannot be performed or whether the determination is possible.
  • the process which selects operation which a user cannot perform decreases, it can suppress that a user feels dissatisfaction with the operation assistance apparatus 2 at the point of convenience.
  • the determination unit 21 determines whether or not the operation can be executed based on the state of the vehicle indicated by the vehicle information. By configuring in this way, it is possible to determine whether or not the operation can be performed according to the actual state of the vehicle.
  • FIG. FIG. 5 is a block diagram showing a configuration of an operation support system 1A according to Embodiment 2 of the present invention.
  • the operation support system 1A is a system that recommends an operation corresponding to the intention of a user who is an occupant among the operations of equipment mounted on the vehicle and prompts the execution thereof.
  • An output device 3 an operation execution device 4, an input device 5, and a vehicle information acquisition unit 6.
  • the operation support device 2A is a device that infers the intention of the user from the present time and causes the output device 3 to output an operation corresponding to the intention, and includes an intention reasoning unit 20, a determination unit 21A, a recommended mode determination unit 22, and An operation completion time calculation unit 23 is provided.
  • FIG. 5 the same components as those in FIG.
  • the operation completion time calculation unit 23 is a component that embodies the first time calculation unit according to the present invention, and is the time required until the execution of the operation is completed after the operation corresponding to the user's intention is selected. Calculate the intention achievement time information for.
  • the intention achievement time information is information related to the time required until the user's intention is achieved. For example, in addition to the operation completion time described later, the number of operations until the intention is achieved and the driver's intention are achieved. This includes the number of times the driver takes his eyes off the front for operation.
  • the operation completion time is a time required until the execution of this operation is completed after the recommended operation is selected.
  • the user's intention corresponding to the operation is achieved by completing the execution after the operation is selected. That is, the operation completion time corresponds to the time required until the user's intention is achieved.
  • a method for calculating the operation completion time a method using table data in which an operation completion time measured in advance and an intention content are associated with each other can be considered. For example, the actual operation completion time from when the user selects an operation until the execution is completed is measured, and the table data is constructed by associating the time of the measurement result with the intended content as the operation completion time.
  • the operation completion time calculation unit 23 can calculate the operation completion time corresponding to the user's intention inferred by the intention inference unit 20 by referring to such table data.
  • table data in which an average operation completion time of an operation corresponding to the intention is set may be used.
  • an average operation completion time for example, an actual operation completion time is measured a plurality of times, and a time obtained by averaging a plurality of measurement results is used.
  • the user's intention content may be classified into various categories, and table data in which an average operation completion time is set for each category of the intention content may be used. For example, when the category of the intention content is “search”, the average operation completion time of the entire search is set in the table data as the final operation completion time.
  • the operation corresponding to the user's intention may be configured by combining a plurality of operations.
  • a plurality of operations are sequentially executed after the recommended operation is selected until the execution is finally completed.
  • the operation “Retrieve and guide a convenience store on the route” is a recommended operation
  • a convenience store of a specific brand selected by the user is searched from the route.
  • the convenience store selected from the search results is set as the route destination. That is, the time required for the operations (1) to (3) below is the operation completion time.
  • a convenience store selected from the list is set as the destination.
  • a method of calculating the number of operations until the intention is achieved a method using table data in which the number of operations measured in advance and the content of the intention are associated with each other can be considered as in the case of the operation completion time.
  • the number of operations until the intention is achieved is three.
  • the number of times the driver keeps an eye from the front for the operation until the driver's intention is achieved for example, table data that associates the result of measuring this number in advance with the intention content
  • the method to use can be considered.
  • the number of times the driver takes his eyes off from the front is obtained by analyzing the image of the driver's shooting information and counting the number of times the driver's line of sight is off the front.
  • the determination unit 21A determines whether or not an operation corresponding to the user's intention inferred by the intention inference unit 20 can be executed based on the operation completion time calculated by the operation completion time calculation unit 23. For example, the operation completion time is compared with a predetermined threshold, and if the operation completion time is equal to or greater than the threshold, it is determined that the operation cannot be performed, and if the operation completion time is less than the threshold, it is determined that the operation can be performed. .
  • the operation functions allowed while the vehicle is traveling are stipulated in detail in the guidelines, and the time during which the driver can visually recognize the screen is also determined. Therefore, such time is used as a threshold value.
  • the threshold value used for the determination may be dynamically changed according to the state of the vehicle.
  • the threshold value that is the allowable upper limit value is decreased, and when the vehicle is stopped, the threshold value that is the allowable upper limit value is increased.
  • the suitable determination according to the state of the vehicle can be performed.
  • the operation completion time threshold is set to 8 seconds when the vehicle is traveling, and 20 seconds when the vehicle is stopped.
  • the functions of the intention reasoning unit 20, the determination unit 21A, the recommendation mode determination unit 22, and the operation completion time calculation unit 23 may be realized by dedicated hardware as in the first embodiment, and may be software or firmware. It may be realized with. Also, some of these functions may be realized by dedicated hardware, and some may be realized by software or firmware.
  • FIG. 6 is a flowchart showing a detailed operation of the operation support apparatus 2A.
  • the processing of step ST1b and step ST2b is the same as the processing of step ST1a and step ST2a of FIG. 4 shown in the first embodiment.
  • the processing of step ST5b and step ST6b is the same as the processing of step ST4a and step ST5a in FIG. Therefore, description of these steps is omitted.
  • step ST3b the operation completion time calculation unit 23 calculates the operation completion time required until the execution of the operation is completed after the operation corresponding to the user's intention is selected.
  • the operation completion time calculation unit 23 acquires the user's intention content inferred by the intention reasoning unit 20, refers to the table data in which the operation completion time and the intention content are associated, and corresponds to the intention content. Determine the operation completion time.
  • the determination unit 21A determines whether or not an operation corresponding to the user's intention can be executed based on the operation completion time input from the operation completion time calculation unit 23 (step ST4b). For example, the operation completion time is compared with a predetermined threshold, and if the operation completion time is equal to or greater than the threshold, it is determined that the operation cannot be executed (step ST4b; NO). On the other hand, if the operation completion time is less than the threshold value, it is determined that the operation can be executed (step ST4b; YES).
  • the operation support apparatus 2A includes the operation completion time calculation unit 23 that calculates the operation completion time required until the execution of the operation is completed after the operation is selected.
  • the determination unit 21A determines whether or not an operation corresponding to the user's intention can be executed based on the operation completion time. Even in this case, since the operation corresponding to the inferred user's intention cannot be executed and the case where the operation can be executed is recommended in a different manner, it becomes easy for the user to select an executable operation, and the user's intention is Easier to achieve. In addition, since processing for selecting an operation that cannot be performed by the user is reduced, the user can be prevented from feeling dissatisfied with the operation support apparatus 2A in terms of convenience.
  • FIG. 7 is a block diagram showing a configuration of an operation support system 1B according to Embodiment 3 of the present invention.
  • the operation support system 1B is a system that recommends an operation corresponding to the intention of the user who is an occupant among the operations of the devices mounted on the vehicle and prompts the execution thereof.
  • the operation support device 2B An output device 3, an operation execution device 4, an input device 5, and a vehicle information acquisition unit 6.
  • the operation support device 2B is a device that infers the intention of the user from the present time and causes the output device 3 to output an operation corresponding to the intention, and includes an intention reasoning unit 20, a determination unit 21B, a recommended mode determination unit 22, and An effective time calculation unit 24 is provided.
  • FIG. 7 the same components as those in FIG.
  • the effective time calculation unit 24 is a component that embodies the second time calculation unit in the present invention, and calculates the effective time.
  • the valid time is a time during which an operation corresponding to the user's intention inferred by the intention reasoning unit 20 can be executed effectively.
  • the determination unit 21B determines whether an operation corresponding to the user's intention inferred by the intention inference unit 20 can be executed based on the effective time calculated by the effective time calculation unit 24. For example, the effective time is compared with a threshold, and if the effective time is less than or equal to the threshold, it is determined that the operation cannot be executed, and if the effective time exceeds the threshold, it is determined that the operation can be executed.
  • the functions of the intention reasoning unit 20, the determination unit 21B, the recommendation mode determination unit 22, and the valid time calculation unit 24 may be realized by dedicated hardware as in the first embodiment, and may be realized by software or firmware. It may be realized. Also, some of these functions may be realized by dedicated hardware, and some may be realized by software or firmware.
  • FIG. 8 is a flowchart showing a detailed operation of the operation support apparatus 2B.
  • the processing of step ST1c and step ST2c is the same as the processing of step ST1a and step ST2a of FIG. 4 shown in the first embodiment.
  • the processing of step ST5c and step ST6c is the same as the processing of step ST4a and step ST5a in FIG. Therefore, description of these steps is omitted.
  • the valid time calculating unit 24 calculates a valid time during which an operation corresponding to the user's intention can be executed effectively (step ST3c). For example, when the intention reasoning unit 20 infers that the user's intention is “I want to stop at the next service area”, the average travel time from the current position of the vehicle to the next service area is the valid time.
  • the determination unit 21B determines whether an operation corresponding to the user's intention can be executed based on the effective time input from the effective time calculation unit 24 (step ST4c). For example, when the effective time is less than or equal to the threshold, it is determined that the operation cannot be executed (step ST4c; NO). On the other hand, when the effective time exceeds the threshold value, it is determined that the operation can be executed (step ST4c; YES).
  • a predetermined threshold value is prepared for each operation corresponding to the effective time or for each category of the intention content. For example, for the operation “search for the next service area” or “search”, which is the category of the intention content “I want to stop by the next service area”, 10 seconds is set as the threshold of the effective time.
  • the threshold may be set as appropriate by the user, or a value statistically calculated from the user's operation history may be used.
  • the operation support apparatus 2B includes the effective time calculation unit 24 that calculates the effective time during which the operation corresponding to the user's intention inferred by the intention inference unit 20 can be executed effectively.
  • the determination unit 21B determines whether or not an operation corresponding to the user's intention can be executed based on the intention effective time. Even in this case, since the operation corresponding to the inferred user's intention cannot be executed and the case where the operation can be executed is recommended in a different manner, it becomes easy for the user to select an executable operation, and the user's intention is Easier to achieve. Moreover, since the process which selects operation which a user cannot perform decreases, it can suppress that a user feels dissatisfaction with the operation assistance apparatus 2B in the point of convenience.
  • FIG. 9 is a block diagram showing a configuration of an operation support system 1C according to Embodiment 4 of the present invention.
  • the operation support system 1C is a system that recommends an operation corresponding to the intention of the user who is an occupant among the operations of the devices mounted on the vehicle and prompts the execution thereof.
  • the operation support system 2C An output device 3, an operation execution device 4, an input device 5, and a vehicle information acquisition unit 6.
  • the operation support device 2C is a device that infers the intention of the user ahead from the present time and causes the output device 3 to output an operation corresponding to the intention, and includes an intention inference unit 20, a determination unit 21C, a recommended mode determination unit 22, An operation completion time calculation unit 23 and an effective time calculation unit 24 are provided.
  • an intention inference unit 20 a determination unit 21C, a recommended mode determination unit 22,
  • An operation completion time calculation unit 23 and an effective time calculation unit 24 are provided.
  • FIG. 9 the same components as those in FIGS. 1, 5, and 7 are denoted by the same reference numerals, and description thereof is omitted.
  • the determination unit 21C Based on the operation completion time calculated by the operation completion time calculation unit 23 and the effective time calculated by the effective time calculation unit 24, the determination unit 21C performs an operation corresponding to the user's intention inferred by the intention inference unit 20. It is determined whether or not it can be executed. For example, comparing the effective time with the operation completion time, if the effective time is less than or equal to the operation completion time, it is determined that the operation cannot be executed, and if the effective time exceeds the operation completion time, it is determined that the operation can be executed.
  • the functions of the intention reasoning unit 20, the determination unit 21C, the recommended mode determination unit 22, the operation completion time calculation unit 23, and the effective time calculation unit 24 are realized by dedicated hardware as in the first embodiment. Alternatively, it may be realized by software or firmware. Also, some of these functions may be realized by dedicated hardware, and some may be realized by software or firmware.
  • FIG. 10 is a flowchart showing a detailed operation of the operation support apparatus 2C.
  • the processing of step ST1d and step ST2d is the same as the processing of step ST1a and step ST2a of FIG. 4 shown in the first embodiment.
  • the process of step ST3d is the same as the process of step ST3b of FIG. 6 shown in the second embodiment.
  • the process of step ST4d is the same as the process of step ST3c of FIG. 8 shown in the third embodiment.
  • the processing of step ST6d and step ST7d is the same as the processing of step ST4a and step ST5a in FIG. Therefore, description of these steps is omitted.
  • step ST5d the determination unit 21C determines whether or not an operation corresponding to the user's intention inferred by the intention inference unit 20 can be executed based on the operation completion time and the valid time. For example, when it is inferred that the user's intention is “I want to stop at the next service area”, the valid time calculation unit 24 calculates the average travel time from the current position of the vehicle to the next service area as the valid time. To do. In addition, the operation completion time calculation unit 23 calculates the operation completion time for “the next service area is set as a destination and a route is searched”, which is an operation corresponding to the intention.
  • the determination unit 21C compares the effective time with the operation completion time, and determines that the operation cannot be performed if the effective time is equal to or shorter than the operation completion time. If the effective time exceeds the operation completion time, the operation is performed. It is determined that it can be executed. For example, when the valid time is 10 seconds and the operation completion time is 30 seconds, 10 seconds of the valid time elapses before the search operation is completed. For this reason, it is determined that the user's intention of “stopping to the next service area” cannot be achieved, and this operation cannot be executed.
  • the operation support apparatus 2C further includes the operation completion time calculation unit 23 and the effective time calculation unit 24.
  • the determination unit 21C determines whether or not an operation corresponding to the user's intention can be executed based on the operation completion time and the valid time. Even in this case, since the operation corresponding to the inferred user's intention cannot be executed and the case where the operation can be executed is recommended in a different manner, it becomes easy for the user to select an executable operation, and the user's intention is Easier to achieve. In addition, since processing for selecting an operation that cannot be performed by the user is reduced, the user can be prevented from feeling dissatisfied with the operation support apparatus 2C in terms of convenience.
  • FIG. 11 is a block diagram showing a configuration of an operation support system 1D according to Embodiment 5 of the present invention.
  • the operation support system 1D is a system that recommends an operation corresponding to the intention of the user who is an occupant among the operations of the devices mounted on the vehicle and prompts the execution thereof.
  • the operation support apparatus 2D is an apparatus that infers the intention of the user ahead from the present time, and causes the output apparatus 3 to output an operation corresponding to the intention, and includes an intention inference unit 20, a determination unit 21D, and a recommended mode determination unit 22. Prepare.
  • FIG. 11 the same components as those in FIG.
  • the vehicle outside information acquisition unit 7 is provided as one function of the wireless communication device mounted on the vehicle, and acquires vehicle outside information indicating a situation around the vehicle.
  • the outside information acquisition unit 7 wirelessly communicates with an external device that is an information source outside the vehicle via a communication network such as the Internet, and searches for information managed by the external device based on the content of the operation corresponding to the user's intention. To do. In this way, the outside information indicating the situation around the vehicle corresponding to the content of the operation is received.
  • the information outside the vehicle includes, for example, traffic information acquired from the traffic infrastructure in addition to event information such as facility information around the vehicle, weather information, and time sale.
  • the determination unit 21D determines whether or not an operation corresponding to the user's intention inferred by the intention inference unit 20 can be executed based on the situation around the vehicle indicated by the out-of-vehicle information acquired by the out-of-vehicle information acquisition unit 7. . For example, when the operation corresponding to the user's intention is “to the AAA ski resort”, it is determined that this operation cannot be performed if the outside information indicating that the weather at the AAA ski resort is rain is obtained.
  • the functions of the intention reasoning unit 20, the determination unit 21D, and the recommendation mode determination unit 22 may be realized by dedicated hardware as in the first embodiment, or may be realized by software or firmware. Also, some of these functions may be realized by dedicated hardware, and some may be realized by software or firmware.
  • FIG. 12 is a flowchart showing a detailed operation of the operation support apparatus 2D.
  • the processing of step ST1e and step ST2e is the same as the processing of step ST1a and step ST2a of FIG. 4 shown in the first embodiment.
  • the processing of step ST5e and step ST6e is the same as the processing of step ST4a and step ST5a in FIG. Therefore, description of these steps is omitted.
  • the vehicle outside information acquisition unit 7 searches for information managed by the information source outside the vehicle based on information indicating the content of the operation corresponding to the user's intention acquired from the determination unit 21D, and the situation around the vehicle corresponding to the operation content Is received (step ST3e). For example, when the operation corresponding to the user's intention is “search for nearby XXX parking lots”, the availability information of the surrounding XXX parking lots is acquired from the information source outside the vehicle.
  • the determination unit 21D determines whether or not an operation corresponding to the user's intention can be executed based on the situation around the vehicle indicated by the outside information (step ST4e). For example, when the operation corresponding to the user's intention is “search for nearby XXX parking lots”, if the vacant information of the surrounding XXX parking lots acquired by the outside information acquisition unit 7 indicates that the vehicle is full It is determined that this operation cannot be executed.
  • the determination unit 21 determines whether or not the operation can be performed based on the situation around the vehicle indicated by the outside information. With this configuration, it is possible to accurately determine whether or not an operation corresponding to the user's intention can be performed based on the situation around the vehicle.
  • FIG. 13 is a block diagram showing a configuration of an operation support system 1E according to Embodiment 6 of the present invention.
  • the operation support system 1E is a system that recommends an operation corresponding to the intention of the user who is an occupant among the operations of the devices mounted on the vehicle and prompts the execution thereof.
  • the operation support device 2E An output device 3, an operation execution device 4, an input device 5, and a vehicle information acquisition unit 6.
  • the operation support device 2E is a device that infers the intention of the user ahead from the present time, and causes the output device 3 to output an operation corresponding to the intention, and includes an intention reasoning unit 20, a determination unit 21E, and a recommended mode determination unit 22. Prepare.
  • the determination unit 21E determines that an operation corresponding to the user's intention cannot be executed, the determination unit 21E changes the abstraction level of the content of the operation until it can be executed.
  • the determination unit 21E indicates the hierarchical relationship of the operation content for each abstraction level as illustrated in FIG. It has reference data for changing the abstraction level.
  • the basic content of the operation is set in the hierarchy with the highest level of abstraction, and the content of the operation becomes more specific as the level of abstraction decreases.
  • a hierarchical relationship of operation contents for each abstraction level of “peripheral search” is set.
  • “peripheral search” it is first embodied as to where the search is to be performed, and “target area”, “current area”, “route” Contents such as “Up” are set. If the search location is “around the destination”, the operation up to this level is “search around the destination”, and then the “genre” and “brand” items to be searched are set. ing.
  • the genre of the facility such as “convenience store” or “parking lot” is set as shown in FIG. 15, and in the “brand” item, more specific items such as “AAA Mart” are set. The facility brand is set. Further, following the “Genre” and “Brand” items, an operation content “Set the nearest facility as the destination” is set.
  • the search target is limited, and thus the time required until a search result is obtained may be shortened. In other words, even if it is determined that the operation corresponding to the user's intention takes too long to complete, it is determined that the operation cannot be executed. Sometimes it can be executed with reduced time. If the search result cannot be completed because the search target is limited and the search operation cannot be completed, the search result close to the desired content can be obtained by increasing the abstraction of the operation content. Sometimes it can be completed.
  • the functions of the intention reasoning unit 20, the determination unit 21E, and the recommendation mode determination unit 22 may be realized by dedicated hardware as in the first embodiment, or may be realized by software or firmware. Also, some of these functions may be realized by dedicated hardware, and some may be realized by software or firmware.
  • FIG. 16 is a flowchart showing a detailed operation of the operation support apparatus 2E.
  • the processing from step ST1f to step ST3f and step ST6f is the same as the processing from step ST1a to step ST3a and step ST5a in FIG. 4 shown in the first embodiment. Omitted.
  • the determination unit 21E checks whether or not the abstraction level of the content of the operation can be changed (step ST5f). For example, regarding the operation corresponding to the user's intention, the determination is made based on whether or not there is reference data as described above. If the level of abstraction of the content of the operation cannot be changed (step ST5f; NO), the process proceeds to step ST6f.
  • the determination unit 21E refers to the reference data and changes the level of abstraction in a direction in which the operation can be executed (step ST7f). ). For example, if the operation corresponding to the user's intention is “search for and guide a convenience store on the route” and the operation completion time of this operation is not less than a threshold value, the operation completion time is shortened. The level of abstraction is lowered and the operation is changed to “search for nearby AAA marts and set the nearest facility as the destination”.
  • the operation corresponding to the user's intention is “search for nearby park XXX” and cannot be executed because “park XXX” is full from the availability information of the outside information of the vehicle, the brand of the parking lot is limited. The level of abstraction is increased so that there is no problem, and the operation is changed to “search for nearby parking lots”.
  • step ST4f the recommendation mode determination unit 22 causes the output device 3 to output an operation whose content abstraction level is changed until it can be executed by the determination unit 21E as an alternative operation.
  • the recommended mode determination unit 22 outputs the operation determined to be unexecutable by the determination unit 21E to the output device 3 as the recommended operation, the operation cannot be performed and the degree of abstraction is changed.
  • An alternative operation may be output to the output device 3.
  • the operation corresponding to the user's intention is “search for nearby park XXX” and cannot be executed because “park XXX” is full from the fullness information in the outside information
  • “Search XXX” is output to the output device 3 as a recommended operation.
  • the user selects the operation using the input device 5
  • the above operation cannot be executed as in the case of “the surrounding XXX parking lot is full.
  • the operation is output to the output device 3.
  • the determination unit 21E instructs the operation execution device 4 to execute an alternative operation. Thereby, the search of the surrounding parking lot is started.
  • the determination unit 21E determines that the operation corresponding to the user's intention cannot be executed, the determination unit 21E can execute the operation corresponding to the intention.
  • Another operation may be specified as an alternative operation. For example, an operation “search for nearby convenience stores” has been identified as an operation corresponding to the user ’s intention to “go to the toilet”, but there is no convenience store around the vehicle based on the facility information in the vehicle outside information. Let's consider a case where it is determined that execution is not possible. In this case, the determination unit 21E does not change the abstraction level, and uses an operation in which a facility having a toilet in another genre set in the genre item is set as a search target as an alternative operation.
  • the presence / absence of the object is set as the attribute information of the facility or the like in the object such as a toilet or ATM (Automatic Teller Machine). Therefore, the attribute information is set in the operation content in the reference data described above.
  • the determination part 21E can specify the facility of another genre with a toilet from this reference data.
  • a facility with a toilet in another genre a supermarket can be considered. This also makes it possible to recommend an alternative operation related to the operation corresponding to the user's intention, and the user's intention is easily achieved.
  • the determination unit 21E determines that the operation cannot be performed, the determination unit 21E changes the abstraction level of the content of the operation until it can be executed.
  • the recommendation mode determination unit 22 causes the output device 3 to output an operation whose content abstraction level is changed until it can be executed as an alternative operation. Thereby, an alternative operation related to an operation corresponding to the user's intention can be recommended, and the user's intention is further easily achieved.
  • the determination unit 21E determines that the operation corresponding to the user's intention cannot be executed, the determination unit 21E specifies another executable operation corresponding to the intention.
  • the recommendation mode determination unit 22 causes the output device 3 to output the operation specified by the determination unit 21E as an alternative operation. This also makes it possible to recommend an alternative operation related to the operation corresponding to the user's intention, and the user's intention is more easily achieved.
  • the recommended mode determination unit 22 causes the output device 3 to output the operation determined to be unexecutable by the determination unit 21E as the recommended operation, and then the operation cannot be performed. And the operation specified by the determination unit 21E is output to the output device 3 as an alternative operation. Even if it does in this way, it can suppress that a user feels dissatisfaction with the operation assistance apparatus 2E in the point of convenience.
  • Embodiments 1 to 6 show the case where it is determined whether or not an operation corresponding to the user's intention can be executed.
  • the operation determined to be executable by the determination unit is further executed. They are classified according to their possible degree.
  • the operation support apparatus according to the seventh embodiment is different from the first embodiment in that the operations are classified according to the feasible degree as described above, but the basic configuration has been described with reference to FIG. Same as the configuration. Therefore, hereinafter, when the configuration of the operation support apparatus according to the seventh embodiment is described, reference is made to FIG.
  • the determination unit 21 classifies the operations determined to be executable as a result of determining whether or not the operation corresponding to the user's intention can be executed, according to the executable degree. For example, when determining whether or not to execute based on the operation completion time shown in the second embodiment, the degree of execution is determined by comparing the operation completion time with a plurality of threshold values. It is conceivable to provide an upper threshold value, an intermediate threshold value, and a lower threshold value as the plurality of threshold values. When the operation completion time of the operation corresponding to the user's intention is less than the upper threshold value and greater than or equal to the intermediate threshold value, it is determined that the executable level is “small”. If the operation completion time is less than the intermediate threshold and greater than or equal to the lower threshold, it is determined that the executable level is “medium”, and if the operation completion time is less than the lower threshold, the executable level is Determined to be “large”.
  • the recommendation mode determination unit 22 causes the output device 3 to output an operation corresponding to the user's intention in a mode according to such an executable level.
  • the normal mode is a case where the executable level is “medium”.
  • the volume of the voice guidance that prompts the user to select this operation is increased from the normal level.
  • the content of the voice guidance may include a high degree of execution.
  • a shortcut button for prompting selection of this operation and text may be highlighted.
  • the highlighting includes a mode of changing to a warning color such as yellow, a display size larger than a normal mode, and an increase in luminance.
  • the volume of the voice guidance prompting selection of this operation is lowered than the normal mode.
  • the content of the voice guidance may include a low degree of execution.
  • the shortcut button and the text for prompting selection of the operation may be passively displayed.
  • the passive display includes a mode of changing to a non-attention color such as blue, a display size smaller than a normal mode, and a reduction in luminance.
  • the determination unit 21 may cause the operation execution device 4 to execute such an operation having an executable degree higher than a threshold value automatically or in the background. For example, in order to quickly execute an operation corresponding to the user's intention, if the executable degree is higher than “medium”, that is, “large”, the determination unit 21 recommends the operation without recommending the operation to the user. The execution device 4 is instructed to automatically execute this operation. Further, when an operation is recommended to the user and selected as an operation to be executed, the determination unit 21 may instruct the operation execution device 4 to automatically execute this operation. At this time, even if another vehicle-mounted device is executing the process, the operation execution device 4 is caused to execute the operation in the background of the process. By doing so, the user's intention can be achieved quickly without delaying the achievement of the user's intention by the user's operation.
  • the recommendation mode determination unit 22 may cause the output device 3 to output an operation whose executable level is equal to or less than a threshold value in a mode that does not recommend the operation.
  • voice guidance for prompting selection of an operation has been provided, or shortcut buttons and text for prompting selection of this operation have been displayed to present the content of the operation to the user.
  • an operation with a low degree of feasibility is presented to the user in a manner that is not recommended. For example, when the operation corresponding to the user's intention is “search for nearby supermarkets” and the executable level of this operation is “small”, the supermarket icon is simply displayed on the map. . As a result, it is difficult to select an operation with a low degree of feasibility, and the situation in which the user's intention is not achieved can be reduced.
  • the recommendation mode determination unit 22 may cause the output device 3 to output an operation having a feasible degree equal to or less than a threshold value in a mode indicating that execution is difficult. For example, a shortcut button for prompting selection of this operation and text can be selected, but the display is blurred near gray out. Even in this case, it is difficult to select an operation with a low degree of feasibility, and the situation in which the user's intention is not achieved can be reduced.
  • the recommendation mode determination unit 22 may not cause the output device 3 to output an operation whose executable degree is equal to or less than the threshold value. There is a possibility that the operation can be executed, but if the operation is low, it may be impossible to execute when the user performs a selection operation. In this case, the selection operation is wasted. Therefore, such a useless operation can be omitted by not presenting to the user an operation whose feasibility is equal to or less than a threshold value.
  • the recommended mode determination unit 22 causes the output device 3 to output this operation as a recommended operation.
  • the determination unit 21 receives designation of the operation as an operation to be executed, the determination unit 21 causes the operation execution device 4 to execute another operation having a higher degree of execution than the operation and related to the operation. Also good. For example, even if the operation corresponding to the user's intention is “search for the next service area” and the executable level is “small”, the recommendation mode determination unit 22 outputs this operation as a recommended operation. 3 to output.
  • the determination unit 21 for example, in the same manner as in the sixth embodiment, “the next service area that is the next service area, which is an operation having a higher degree of feasibility related to this operation.
  • the operation “search” is specified as an alternative operation, and the operation execution device 4 is caused to execute the alternative operation. Thereby, a user's intention can be easily achieved.
  • the determination unit 21 classifies the operations determined to be executable according to the degree of execution.
  • the recommendation mode determination unit 22 causes the output device 3 to output in a mode corresponding to the degree to which the operation can be performed. With this configuration, the recommended operation can be selected according to the degree that the user can execute, and the user's intention is more easily achieved.
  • the determination unit 21 causes the operation execution device 4 to execute an operation whose executable degree is higher than the threshold value automatically or in the background.
  • the recommendation mode determination unit 22 causes the output device 3 to output an operation whose executable degree is equal to or less than a threshold value in a mode that does not recommend.
  • the recommendation mode determination unit 22 causes the output device 3 to output an operation whose executable level is equal to or less than a threshold value in a mode that indicates that execution is difficult. Even in this case, it is difficult to select an operation with a low degree of feasibility, and the situation in which the user's intention is not achieved can be reduced.
  • the recommended mode determination unit 22 does not cause the output device 3 to output an operation whose executable degree is equal to or less than the threshold value. Even in this case, it is difficult to select an operation with a low degree of feasibility, and the situation in which the user's intention is not achieved can be reduced.
  • the recommendation mode determination unit 22 causes the output apparatus 3 to output an operation whose executable degree is equal to or less than a threshold as a recommended operation.
  • the determination unit 21 receives designation of a recommended operation as an operation to be performed, the determination unit 21 causes the operation execution device 4 to execute another operation that is more executable than the recommended operation and is related to the recommended operation.
  • FIG. 17 is a block diagram showing a configuration of an operation support system 1F according to Embodiment 8 of the present invention.
  • the operation support system 1F is a system that recommends an operation corresponding to the intention of the user who is an occupant among the operations of the devices mounted on the vehicle and prompts the execution thereof.
  • the operation support apparatus 2F is an apparatus that infers the intention of the user ahead from the present time, and causes the output apparatus 3 to output an operation corresponding to the intention, and includes an intention inference section 20, a determination section 21F, a recommended mode determination section 22, An operation history registration unit 25 and an operation history storage unit 26 are provided.
  • FIG. 17 the same components as those in FIG.
  • the operation history registration unit 25 monitors user operation information using the input device 5 and stores it in the operation history storage unit 26 as an operation history each time a recommended operation is selected.
  • the operation history storage unit 26 is a component that embodies the storage unit in the present invention, and stores an operation history in which a recommended operation has been executed.
  • the determination unit 21F determines whether or not an operation corresponding to the user's intention can be executed based on the operation history read from the operation history storage unit 26. For example, whether the operation corresponding to the user's intention is an operation recommended in the past, the degree of feasibility when recommended, how the execution result was, and the like are specified from the operation history information, Judge whether the current operation can be executed. By doing so, it is possible to reduce the calculation load for determining whether or not to execute an operation corresponding to the user's intention, and it is possible to accurately determine whether or not to execute.
  • the functions of the intention reasoning unit 20, the determination unit 21F, the recommended mode determination unit 22, the operation history registration unit 25, and the operation history storage unit 26 may be realized by dedicated hardware as in the first embodiment. Well, it may be implemented in software or firmware. Also, some of these functions may be realized by dedicated hardware, and some may be realized by software or firmware.
  • the operation support apparatus 2F includes the operation history storage unit 26 that stores the operation history in which the recommended operation has been executed, and the operation history registration unit that registers the operation history in the operation history storage unit 26. 25.
  • the determination unit 21F determines whether or not an operation corresponding to the user's intention can be executed based on the operation history read from the operation history storage unit 26. With this configuration, it is possible to reduce the calculation load for determining whether or not to execute an operation corresponding to the user's intention, and it is possible to accurately determine whether or not to execute the operation.
  • FIG. FIG. 18 is a block diagram showing a configuration of an operation support system 1G according to Embodiment 9 of the present invention.
  • the vehicle-mounted device 8 performs operation support in cooperation with the mobile terminal 9 or the server 10.
  • the vehicle-mounted device 8 communicates directly with the server 10 or communicates with the server 10 via the portable terminal 9.
  • the server 10 includes the intention reasoning unit 20, the determination unit 21, and the recommended mode determination unit 22 described in Embodiment 1 in addition to the communication unit that performs such communication.
  • each function of the operation support apparatus 2 is executed by the server 10, and the output content thus obtained is transmitted to the vehicle-mounted device 8 by the server 10.
  • the in-vehicle device 8 causes the output device 3 to output information indicating the recommended operation received from the server 10.
  • the vehicle-mounted device 8 causes the operation execution device 4 to execute this operation.
  • the mobile terminal 9 includes the intention reasoning unit 20, the determination unit 21, and the recommended mode determination unit 22 described in Embodiment 1 in addition to the communication unit that communicates with the vehicle-mounted device 8. That is, each function of the operation support apparatus 2 is executed by the mobile terminal 9, and the output content thus obtained is transmitted to the vehicle-mounted device 8 by the mobile terminal 9.
  • the vehicle-mounted device 8 causes the output device 3 to output information indicating the recommended operation received from the mobile terminal 9.
  • the vehicle-mounted device 8 causes the operation execution device 4 to execute this operation.
  • the vehicle-mounted device 8 includes a communication unit that communicates between the mobile terminal 9 and the server 10 and the vehicle-mounted device 8, and the mobile terminal 9 and the server 10 include a communication unit that communicates with the vehicle-mounted device 8.
  • the unit 20, the determination unit 21, and the recommended mode determination unit 22 are included. That is, each function of the operation support apparatus 2 is executed by either the mobile terminal 9 or the server 10, and the output content thus obtained is transmitted to the vehicle-mounted device 8 by the mobile terminal 9 or the server 10.
  • the in-vehicle device 8 causes the output device 3 to output information indicating the recommended operation received from the server 10. When the recommended operation is selected using the input device 5, the vehicle-mounted device 8 causes the operation execution device 4 to execute this operation.
  • the mobile terminal 9 or the server 10 includes the intention reasoning unit 20, the determination unit 21, and the recommended mode determination unit 22. Even in this way, it is recommended that the operation corresponding to the inferred user's intention cannot be executed and the case where the operation can be executed, so that it becomes easy for the user to select an executable operation and the user's intention Is easier to achieve. Moreover, since the process which selects operation which a user cannot perform decreases, it can suppress that a user feels dissatisfaction with the operation assistance apparatus 2 at the point of convenience.
  • any combination of each embodiment, any component of each embodiment can be modified, or any component can be omitted in each embodiment. .
  • the operation support device according to the present invention is suitable for, for example, an operation support device of an in-vehicle device because the user's intention is easily achieved by the recommended operation and the user can be prevented from feeling dissatisfied with the device in terms of convenience. It is.

Abstract

意図推論部(20)は、現在から先のユーザの意図を推論する。判定部(21)は、意図推論部(20)により推論されたユーザの意図に対応する操作を実行できるか否かを判定する。推薦態様決定部(22)は、判定部(21)により実行できないと判定された場合と実行できると判定された場合とで、ユーザの意図に対応する操作を、出力装置(3)に異なる態様で出力させる。

Description

操作支援装置および操作支援システム
 この発明は、ユーザの意図に対応する操作を推薦して実行を促す操作支援装置および操作支援システムに関する。
 例えば、特許文献1には、車両が停車中であれば、車両に搭載された機器の処理の選択を促すフルメニュー情報を表示し、車両が走行中であれば、このフルメニュー情報を簡易な内容に変更した変更メニュー情報を表示する車両用表示制御装置が記載されている。
 また、この装置では、ユーザの操作履歴情報に基づいて、選択頻度の高いメニュー項目ほど優先して表示されるように変更メニュー情報を作成している。
 すなわち、定期的に多く実行される操作を、ユーザが意図する操作として判断し、この操作に関するメニュー項目の表示順などを変更している。これにより、ユーザは、頻繁に使用するメニュー項目を優先して選択でき、ユーザの操作負担を低減することができる。
特開2004-249840号公報
 しかしながら、実際の車両の走行環境においては、車両の状態が時々刻々と変化する。
 このため、前述したように、ユーザが意図する操作であると判断された操作を優先的に提示しても、車両の状態によっては、その操作を実行することができない場合がある。
 例えば、車両でテレビが頻繁に視聴された操作履歴情報から、ユーザの意図に対応する操作として「テレビをつける」という操作が優先的に提示されても、このとき車両が走行していると、走行操作制限によって運転者はテレビを視聴できない。このため、提示された操作を実行することができない。
 このように特許文献1に代表される従来の技術では、実行不可になっている操作が優先的に提示される可能性があり、この場合、提示された操作をユーザが選択して実行を指示しても、この操作は実行されず、ユーザの意図は達成されない。従って、ユーザが操作を選択する処理は無駄になるため、ユーザの利便性が損なわれ、これによって装置に不満を感じる可能性がある。
 この発明は上記課題を解決するもので、推薦した操作によってユーザの意図が達成されやすく、かつ利便性の点でユーザが装置に不満を感じることを抑制することができる操作支援装置および操作支援システムを得ることを目的とする。
 この発明に係る操作支援装置は、意図推論部、判定部および推薦態様決定部を備える。
 意図推論部は、現在から先のユーザの意図を推論する。判定部は、意図推論部によって推論されたユーザの意図に対応する操作を実行できるか否かを判定する。推薦態様決定部は、判定部によって実行できないと判定された場合と実行できると判定された場合とで、出力装置に操作を異なる態様で出力させる。
 この発明によれば、推論されたユーザの意図に対応する操作が実行できない場合と実行できる場合とで異なる態様で推薦されるので、ユーザが実行可能な操作を選択しやすくなり、ユーザの意図が達成されやすくなる。また、ユーザが実行不可な操作を選択する処理が減ることから、利便性の点でユーザが装置に不満を感じることを抑制できる。
この発明の実施の形態1に係る操作支援システムの構成を示すブロック図である。 実施の形態1に係る操作支援装置のハードウェア構成を示すブロック図である。 実施の形態1に係る操作支援装置の動作の概要を示すフローチャートである。 実施の形態1に係る操作支援装置の詳細な動作を示すフローチャートである。 この発明の実施の形態2に係る操作支援システムの構成を示すブロック図である。 実施の形態2に係る操作支援装置の動作を示すフローチャートである。 この発明の実施の形態3に係る操作支援システムの構成を示すブロック図である。 実施の形態3に係る操作支援装置の動作を示すフローチャートである。 この発明の実施の形態4に係る操作支援システムの構成を示すブロック図である。 実施の形態4に係る操作支援装置の動作を示すフローチャートである。 この発明の実施の形態5に係る操作支援システムの構成を示すブロック図である。 実施の形態5に係る操作支援装置の動作を示すフローチャートである。 この発明の実施の形態6に係る操作支援システムの構成を示すブロック図である。 抽象度ごとの操作内容の階層関係を示す図である。 ジャンルとブランドの内容を示す図である。 実施の形態6に係る操作支援装置の動作を示すフローチャートである。 この発明の実施の形態7に係る操作支援システムの構成を示すブロック図である。 この発明の実施の形態8に係る操作支援システムの構成を示すブロック図である。
 以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係る操作支援システム1の構成を示すブロック図である。操作支援システム1は、車両に搭載された機器の操作のうち、乗員であるユーザの意図に対応する操作を推薦してその実行を促すシステムであり、図1に示すように、操作支援装置2、出力装置3、操作実行装置4、入力装置5および車両情報取得部6を備えて構成される。操作支援装置2は、現在から先のユーザの意図を推論し、この推論した意図に対応する操作を推薦操作として出力装置3に出力させる装置であり、意図推論部20、判定部21および推薦態様決定部22を備える。
 出力装置3は、操作支援装置2から入力された情報を表示する表示装置および当該情報を音声出力する音声出力装置である。例えば、車両内のダッシュボードなどに内蔵されたディスプレイ、運転者の前方視界に情報を重畳して表示するヘッドアップディスプレイ、車載スピーカなどにより実現される。
 なお、出力装置3は、後述する推薦態様決定部22によって決定された態様で操作内容を出力する。ユーザの意図に対応した操作が「テレビをつける」であった場合、例えば、「テレビをつけますか?」という音声出力または表示を行う。この出力内容に基づいて、ユーザが入力装置5を使用して操作を選択することにより、当該操作が操作実行装置4に実行される。
 操作実行装置4は、操作支援装置2から推薦された操作を実行する装置であり、例えば、車両に搭載された機器により実現される。
 車両に搭載された機器には、ナビゲーション装置、オーディオ装置、テレビ受信装置、ラジオ受信装置、ハンズフリー電話、車内空調装置に加え、車両の窓の開閉装置、車両に持ち込まれた情報機器なども含まれる。
 なお、図1では、操作支援装置2と操作実行装置4が別の装置である場合を示したが、操作支援装置2は、操作実行装置4の1つの機能として実現されてもよい。
 入力装置5は、ユーザからの情報入力を受け付ける装置であって、例えば、押しボタン装置、タッチパネルなどにより実現される。出力装置3から出力された推薦操作は、入力装置5を使用して選択することができる。
 また、ユーザによる入力装置5の操作情報も、後述する意図推論部20がユーザの意図を推論するためのデータとして利用される。
 車両情報取得部6は、車両情報を取得して操作支援装置2に出力する。車両情報とは、車両の状態を示す情報であり、車両の位置情報、走行状態を示す情報、走行場所を示す情報、ルート案内情報などが挙げられる。
 また、車両情報取得部6は、車両情報を提供する情報ソースとなる装置である、各種のセンサ、ECU(Electronic Control Unit)などの1つの機能として設けてもよいが、操作支援装置2の機能として設けてもよい。
 車両の位置情報は、車両に搭載された位置検出装置から取得される情報であり、例えば、GPS(Global Positioning System)受信機によってGPS衛星から受信されたGPS信号を解析して得られる車両の現在位置を示す情報である。
 なお、方位センサおよび車速パルスを用いて補正された位置情報であってもよい。
 車両の走行状態を示す情報は、車両に搭載されたセンサあるいは車両制御装置から取得される情報であり、例えば、車速、加速度、操舵角、燃料残量などから予想される車両の運転行動が挙げられる。
 走行場所を示す情報は、車両が走行している道路およびその周辺地域に関する情報であり、例えば、車両に搭載されたナビゲーション装置から取得される。
 車両が走行している道路に関する情報には、道路の種別、道路の状態、道路の交通状況などが挙げられる。道路の状態は、車載カメラの撮影情報を画像解析することにより特定することができる。道路の周辺地域に関する情報には、地図情報から得られる周辺地域の施設情報などがある。ルート案内情報は、出発地から目的地までのルートに関する情報であり、例えば、交差点などの案内地点、ルート周辺の施設、道路、地名などの情報が含まれる。
 意図推論部20は、入力装置5から入力された情報または車両情報取得部6により取得された車両情報に基づいて、現在から先のユーザの意図を推論する。ここで、現在から先のユーザの意図とは、現在から数分間の期間でユーザが意図する事柄である。
 ユーザの意図を推論する方法としては、前述した車両情報から特定される車両の状態とユーザの意図内容とを対応付けたルールデータを使用する方法がある。
 例えば、「走行路の道路種別が高速道路から一般道路に変化した」という車両の状態に「コンビニに行きたい」という事柄が関連付けられていた場合、車両が高速道路から一般道路へ降りると、ユーザの意図は「コンビニに行きたい」であると推論される。
 なお、車両の状態に加え、入力装置5から入力される操作情報とユーザの意図内容とを対応付けたルールデータを用いてもよい。例えば、ユーザがドライブして帰宅するときにいつも特定の楽曲を再生していた場合、ルールデータにおいて、この楽曲を再生する操作と「家に帰りたい」というユーザの意図を対応付けておく。
 また、ユーザの意図がユーザの行動であると捉え、意図推論部20が、ユーザの行動とその時点の車両情報との組み合わせを学習する。そして、意図推論部20は、このようにして蓄積された学習データを参照することにより、現時点の車両情報に対応するユーザの行動を現在から先のユーザの意図として推論する。
 なお、この学習データまたは前述したルールデータにおける情報の対応関係を、ユーザの行動などの履歴情報に対して統計的手法を用いて確率的に決定してもよい。
 判定部21は、意図推論部20によって推論されたユーザの意図に対応する操作を実行できるか否かを判定する。ユーザの意図に対応する操作を特定する方法として、意図内容と操作内容とを対応付けた操作特定用のテーブルデータを使用する方法がある。例えば、当該テーブルデータにおいて、「トイレに行きたい」というユーザの意図に「周辺のコンビニを検索する」という操作を対応付けておく。これにより、ユーザに対してトイレのあるコンビニエンスストアに行くことを推薦できる。
 また、「家に帰りたい」というユーザの意図に「自宅までのルートを検索する」という操作を対応付けておけば、ユーザに対して自宅までのルート検索を推薦できる。
 ユーザの意図に対応する操作を実行できるか否かを判定する方法には、操作内容ごとに操作を制限する制限条件が対応付けられた実行可否判定用のテーブルデータを使用する方法がある。制限条件は、前述した車両情報から特定される条件である。
 例えば、当該テーブルデータにおいて、「テレビをつける」という操作に「車両の走行」という制限条件を対応付けておく。ユーザの意図に対応する操作が「テレビをつける」であっても、車両情報から車両が走行中であると判断された場合、この操作は実行不可と判定される。反対に、車両情報から車両が停車していると判断されれば、制限条件に合致しないので、上記操作は実行可能と判断される。これにより、操作の実行可否を実際の車両の状態に応じて判定することができる。
 推薦態様決定部22は、判定部21によって実行できないと判定された場合と実行できると判定された場合とで出力装置3に操作を異なる態様で出力させる。
 なお、推薦態様決定部22により決定される態様には、出力装置3に出力させないことも含まれている。従って、判定部21によって実行できないと判定された操作であれば、あえてユーザに提示しなくてもよい。
 また、実行不可能な操作であることを出力装置3に音声出力または表示させてもよい。
 実行不可能な操作であることを表示する場合には、この操作を選択するためのショートカットボタンなどの表示情報をグレーアウトにする。これにより、ユーザは実行不可能な操作であることを容易に認識できる。
 判定部21によって実行できると判定された操作については、推薦操作として選択可能な状態で出力装置3に音声出力または表示させることが考えられる。
 例えば、推薦操作を音声で出力した場合、推薦操作を選択するかどうかを入力装置5で受け付ける。また、推薦操作を表示する場合、推薦操作を選択するためのショートカットボタン、テキストを表示する。入力装置5を用いて、ショートカットボタン、テキストをクリック操作することにより推薦操作が選択される。
 なお、出力装置3には、推薦操作を実行するか否かをユーザに問い合わせる態様にするとよい。例えば、操作内容が「テレビをつける」である場合、「テレビをつけますか?」という問い合わせ形式で音声出力または表示させる。これにより、意図推論部20により推論されたユーザの意図が正しいかどうかの問い合わせにもなる。
 図2は、操作支援装置2のハードウェア構成を示すブロック図である。また、図3は、操作支援装置2の動作の概要を示すフローチャートである。
 操作支援装置2における意図推論部20、判定部21、推薦態様決定部22の各機能は、処理回路により実現される。すなわち、操作支援装置2は、図3に示すステップST1からステップST3までの処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。
 図2(a)に示すように、上記処理回路が専用のハードウェアの処理回路100である場合、処理回路100は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。意図推論部20、判定部21、推薦態様決定部22の各部の機能に対応する処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
 図2(b)に示すように、処理回路がCPU101である場合、意図推論部20、判定部21、推薦態様決定部22の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアとファームウェアはプログラムとして記述され、メモリ102に格納される。
 CPU101は、メモリ102に格納されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、操作支援装置2は、CPU101によって実行されるときに、図3に示したステップST1からステップST3までの処理が結果的に実行されるプログラムを格納するためのメモリ102を備える。
 また、これらのプログラムは、意図推論部20、判定部21、推薦態様決定部22の手順または方法をコンピュータに実行させるものである。
 ここで、メモリ102としては、例えば、RAM(Random Access Memory)、ROM、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)などが該当する。
 なお、意図推論部20、判定部21および推薦態様決定部22の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、意図推論部20については、専用のハードウェアとしての処理回路100でその機能を実現し、判定部21および推薦態様決定部22については、CPU101がメモリ102に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって、前述の機能を実現することができる。
 次に動作について説明する。
 図4は、操作支援装置2の詳細な動作を示すフローチャートである。
 図4において、ステップST1aとステップST2aの処理は、図3に示したステップST1の詳細な処理の一例である。また、ステップST3aの処理は、図3に示したステップST2の詳細な処理の一例であり、ステップST4aとステップST5aの処理は、図3に示したステップST3の詳細な処理の一例である。
 従って、図3の各ステップの動作は、図4の各ステップを説明することにより明らかになるため、以下、図4に基づいて説明を行う。
 意図推論部20は、操作支援装置2が起動している間、車両情報取得部6によって取得された車両情報を入力する(ステップST1a)。例えば、現在から予め定められた時間だけ先のユーザの意図を推論する場合、この時間よりも短い周期で車両情報を取得する。
 次に、意図推論部20は、車両情報に基づいて車両の状態を特定し、車両の状態から、現在から先のユーザの意図を推論する(ステップST2a)。
 例えば、車両の状態とユーザの意図内容とを対応付けたルールデータを参照して、現在の車両の状態に対応する意図内容を、ユーザの意図であると推論する。
 なお、意図推論部20は、前述したように、車両情報取得部6から入力した車両情報に加え、入力装置5から入力された操作情報を用いて、ユーザの意図を推論してもよい。
 判定部21は、このように推論された意図に対応する操作を特定し、この操作が現在の車両の状態で実行できるか否かを判定する(ステップST3a)。
 例えば、意図内容と操作内容とを対応付けた操作特定用のテーブルデータを参照して、意図推論部20によって推論された意図に対応する操作を特定する。
 さらに、操作内容ごとに操作を制限する制限条件が対応付けられた実行可否判定用のテーブルデータを参照して、車両の状態が制限条件に合致する場合は、操作を実行できないと判定し、車両の状態が制限条件に合致していなければ、操作を実行できると判定する。
 判定部21によって操作が実行可能と判定された場合(ステップST3a;YES)、推薦態様決定部22は、この操作について実行可能の判定結果に応じた推薦態様を決定する(ステップST4a)。出力装置3は、推薦態様決定部22によって決定された態様で操作を出力する。これにより、判定部21によって実行可能と判定された操作が推薦操作として出力装置3に出力される。
 例えば、推薦操作の選択を促す音声ガイダンスを出力させるか、あるいは、推薦操作の選択を促すショートカットボタン、テキストを表示させる。
 判定部21によって操作が実行不可能と判定された場合(ステップST3a;NO)、推薦態様決定部22は、この操作について実施不可能の判定結果に応じた推薦態様を決定する(ステップST5a)。同様に、出力装置3は、推薦態様決定部22によって決定された態様で操作を出力する。
 例えば、選択しても実行不可能な操作であることを示す音声ガイダンスを出力させるか、この操作の選択を促すショートカットボタン、テキストをグレーアウトさせる。また、実行不可能な操作であれば、出力装置3に出力させなくてもよい。
 この後、ユーザは、出力装置3の出力内容に基づいて、操作支援装置2から推薦された推薦操作を実行するか否かを判断する。推薦操作を実行する場合、ユーザは、入力装置5を用いて操作を選択する。例えば、この操作の選択を促すショートカットボタンをクリック操作する。判定部21は、入力装置5によって推薦操作の選択操作が受け付けられると、この操作を実行するように操作実行装置4に指示する。操作実行装置4は、判定部21からの指示に従い、推薦操作を実行する。
 以上のように、実施の形態1に係る操作支援装置2は、意図推論部20、判定部21、推薦態様決定部22を備える。意図推論部20は、現在から先のユーザの意図を推論する。判定部21は、意図推論部20によって推論されたユーザの意図に対応する操作を実行できるか否かを判定する。推薦態様決定部22は、判定部21によって実行できないと判定された場合と実行できると判定された場合とで、ユーザの意図に対応する操作を、出力装置3に異なる態様で出力させる。
 このようにユーザの意図に対応する操作が実行できない場合と実行できる場合とで異なる態様で推薦されるので、ユーザが実行可能な操作を選択しやすくなり、ユーザの意図が達成されやすくなる。また、ユーザが実行不可な操作を選択する処理が減ることから、利便性の点でユーザが操作支援装置2に不満を感じることを抑制できる。
 また、実施の形態1に係る操作支援装置2において、判定部21は、車両情報が示す車両の状態に基づいて、操作を実行できるか否かを判定する。このように構成することで、操作の実行可否を実際の車両の状態に応じて判定することができる。
実施の形態2.
 図5は、この発明の実施の形態2に係る操作支援システム1Aの構成を示すブロック図である。操作支援システム1Aは、車両に搭載された機器の操作のうち、乗員であるユーザの意図に対応する操作を推薦してその実行を促すシステムであり、図5に示すように、操作支援装置2A、出力装置3、操作実行装置4、入力装置5および車両情報取得部6を備える。操作支援装置2Aは、現在から先のユーザの意図を推論し、この意図に対応する操作を出力装置3に出力させる装置であって、意図推論部20、判定部21A、推薦態様決定部22および操作完了時間算出部23を備える。
 なお、図5において、図1と同一の構成要素には同一の符号を付して説明を省略する。
 操作完了時間算出部23は、この発明における第1の時間算出部を具体化した構成要素であり、ユーザの意図に対応する操作が選択されてから当該操作の実行が完了するまでに必要な時間に関する意図達成時間情報を算出する。意図達成時間情報は、ユーザの意図が達成されるまでに必要な時間に関する情報であり、例えば、後述する操作完了時間の他、意図が達成されるまでの操作回数、運転者の意図が達成されるまでの間に運転者が操作のために前方から目を離す回数なども含まれる。
 操作完了時間は、推薦された操作が選択されてから、この操作の実行が完了するまでに必要な時間である。なお、操作に対応するユーザの意図は、この操作が選択されてから、その実行が完了することで達成される。すなわち、操作完了時間は、ユーザの意図が達成されるまでに必要な時間に相当する。
 また、操作完了時間を算出する方法としては、予め計測した操作完了時間と意図内容とを対応付けたテーブルデータを使用する方法が考えられる。
 例えば、ユーザが操作を選択してからその実行が完了するまでの実際の操作完了時間を計測し、この計測結果の時間を操作完了時間として意図内容に対応付けてテーブルデータを構築する。操作完了時間算出部23は、このようなテーブルデータを参照することで、意図推論部20によって推論されたユーザの意図に対応する操作完了時間を算出することができる。
 また、意図に対応する操作の平均的な操作完了時間が設定されたテーブルデータを使用してもよい。平均的な操作完了時間としては、例えば、実際の操作完了時間を複数回計測し、複数の計測結果を平均した時間を用いる。
 さらに、ユーザの意図内容を様々なカテゴリに分類し、意図内容のカテゴリごとに平均的な操作完了時間が設定されたテーブルデータを使用してもよい。
 例えば、意図内容のカテゴリが「検索」である場合、検索全般の平均的な操作完了時間が、最終的な操作完了時間として上記テーブルデータに設定される。
 ユーザの意図に対応する操作は、複数の操作が組み合わされて構成される場合もある。この場合、推薦された操作が選択されてからその実行が最終的に完了するまでの間に複数の操作が順次実行される。例えば、「ルート上のコンビニを検索して案内する」という操作が推薦操作である場合、この操作の実行が最終的に完了する時点は、ユーザが選択した特定のブランドのコンビニをルート上から検索し、検索結果の中から選択されたコンビニをルートの目的地に設定した時点である。すなわち、下記(1)~(3)の操作に要する時間が操作完了時間となる。
(1)コンビニのブランド一覧から特定のブランドを選択する。
(2)選択されたブランドのコンビニを検索し、この検索結果の一覧を表示する。
(3)一覧から選択されたコンビニを目的地に設定する。
 また、意図が達成されるまでの操作回数を算出する方法としては、上記操作完了時間の場合と同様に、予め計測した操作回数と意図内容とを対応付けたテーブルデータを使用する方法が考えられる。例えば、前述した「ルート上のコンビニを検索して案内する」という操作の場合、意図が達成されるまでの操作回数は3回となる。
 さらに、運転者の意図が達成されるまでの間に運転者が操作のために前方から目を離す回数についても、例えば、この回数を予め計測した結果と意図内容とを対応付けたテーブルデータを使用する方法が考えられる。運転者が前方から目を離す回数は、この運転者の撮影情報を画像解析して運転者の視線が前方から外れた回数をカウントして得られる。
 判定部21Aは、操作完了時間算出部23により算出された操作完了時間に基づいて、意図推論部20により推論されたユーザの意図に対応する操作を実行できるか否かを判定する。例えば、操作完了時間を予め定められた閾値と比較し、操作完了時間が閾値以上である場合は操作を実行できないと判定され、操作完了時間が閾値未満であれば操作を実行できると判定される。車両の走行中に許容される操作機能は、ガイドラインに詳細に規定されており、運転者が画面を視認できる時間も決められている。そこで、このような時間を閾値として利用する。
 また、意図が達成されるまでの操作回数、運転者が操作のために前方から目を離す回数についても同様に判定してもよい。
 例えば、予め定められた閾値と比較し、この閾値以上である場合は操作を実行できないと判定し、閾値未満であれば操作を実行できると判定する。
 さらに、判定に使用する閾値は、車両の状態に応じて動的に変化させてもよい。
 車両が走行中である場合は許容上限値となる閾値を下げ、車両が停車中である場合には許容上限値となる閾値を上げる。これにより、車両の状態に応じた適切な判定を行うことができる。例えば、操作完了時間の閾値を車両が走行中の場合は8秒とし、車両が停車中であれば20秒とする。
 なお、意図推論部20、判定部21A、推薦態様決定部22および操作完了時間算出部23の各機能については、実施の形態1と同様に専用のハードウェアで実現してもよく、ソフトウェアまたはファームウェアで実現してもよい。また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
 次に動作について説明する。
 図6は、操作支援装置2Aの詳細な動作を示すフローチャートである。
 図6において、ステップST1bとステップST2bの処理は、実施の形態1で示した図4のステップST1aとステップST2aの処理と同様である。またステップST5bとステップST6bの処理は、図4のステップST4aとステップST5aの処理と同様である。従って、これらのステップの説明は省略する。
 ステップST3bにおいて、操作完了時間算出部23は、ユーザの意図に対応する操作が選択されてから当該操作の実行が完了するまでに必要な操作完了時間を算出する。
 例えば、操作完了時間算出部23は、意図推論部20によって推論されたユーザの意図内容を取得し、操作完了時間と意図内容とを対応付けたテーブルデータを参照して、この意図内容に対応する操作完了時間を決定する。
 判定部21Aは、操作完了時間算出部23から入力した上記操作完了時間に基づいて、ユーザの意図に対応する操作が実行できるか否かを判定する(ステップST4b)。
 例えば、操作完了時間を予め定められた閾値と比較し、操作完了時間が閾値以上である場合は操作を実行できないと判定する(ステップST4b;NO)。一方、操作完了時間が閾値未満であれば操作を実行できると判定する(ステップST4b;YES)。
 以上のように、実施の形態2に係る操作支援装置2Aは、操作が選択されてから当該操作の実行が完了するまでに必要な操作完了時間を算出する操作完了時間算出部23を備える。判定部21Aは、操作完了時間に基づいて、ユーザの意図に対応する操作を実行できるか否かを判定する。
 このようにしても、推論されたユーザの意図に対応する操作が実行できない場合と実行できる場合とで異なる態様で推薦されるので、ユーザが実行可能な操作を選択しやすくなり、ユーザの意図が達成されやすくなる。また、ユーザが実行不可な操作を選択する処理が減ることから、利便性の点でユーザが操作支援装置2Aに不満を感じることを抑制できる。
実施の形態3.
 図7は、この発明の実施の形態3に係る操作支援システム1Bの構成を示すブロック図である。操作支援システム1Bは、車両に搭載された機器の操作のうち、乗員であるユーザの意図に対応する操作を推薦してその実行を促すシステムであり、図7に示すように、操作支援装置2B、出力装置3、操作実行装置4、入力装置5および車両情報取得部6を備える。操作支援装置2Bは、現在から先のユーザの意図を推論し、この意図に対応する操作を出力装置3に出力させる装置であって、意図推論部20、判定部21B、推薦態様決定部22および有効時間算出部24を備える。
 なお、図7において、図1と同一の構成要素には同一の符号を付して説明を省略する。
 有効時間算出部24は、この発明における第2の時間算出部を具体化した構成要素であり、有効時間を算出する。有効時間は、意図推論部20によって推論されたユーザの意図に対応する操作を有効に実行可能な時間である。
 判定部21Bは、有効時間算出部24により算出された有効時間に基づいて、意図推論部20により推論されたユーザの意図に対応する操作を実行できるか否かを判定する。
 例えば、有効時間を閾値と比較して、有効時間が閾値以下である場合は操作を実行できないと判定し、有効時間が閾値を超える場合、操作を実行できると判定する。
 なお、意図推論部20、判定部21B、推薦態様決定部22および有効時間算出部24の各機能については、実施の形態1と同様に専用のハードウェアで実現してもよく、ソフトウェアまたはファームウェアで実現してもよい。また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
 次に動作について説明する。
 図8は、操作支援装置2Bの詳細な動作を示すフローチャートである。
 図8において、ステップST1cとステップST2cの処理は、実施の形態1で示した図4のステップST1aとステップST2aの処理と同様である。またステップST5cとステップST6cの処理は、図4のステップST4aとステップST5aの処理と同様である。従って、これらのステップの説明は省略する。
 有効時間算出部24は、ユーザの意図に対応する操作が有効に実行可能な有効時間を算出する(ステップST3c)。
 例えば、意図推論部20によってユーザの意図が「次のサービスエリアに立ち寄りたい」と推論された場合、車両の現在位置から次のサービスエリアまでの平均的な移動時間が有効時間となる。
 判定部21Bは、有効時間算出部24から入力した有効時間に基づいて、ユーザの意図に対応する操作が実行できるか否かを判定する(ステップST4c)。
 例えば、有効時間が閾値以下である場合、操作を実行できないと判定される(ステップST4c;NO)。一方、有効時間が閾値を超える場合、操作を実行できると判定される(ステップST4c;YES)。
 有効時間の閾値としては、有効時間に対応する操作ごとまたは意図内容のカテゴリごとに予め定めた閾値を用意する。例えば、「次のサービスエリアを検索する」という操作、または「次のサービスエリアに立ち寄りたい」という意図内容のカテゴリである「検索」には、有効時間の閾値として10秒間を設定する。
 なお、この閾値は、ユーザが適宜設定してもよく、ユーザの操作履歴から統計的に算出した値を使用してもよい。
 以上のように、実施の形態3に係る操作支援装置2Bは、意図推論部20によって推論されたユーザの意図に対応する操作を有効に実行可能である有効時間を算出する有効時間算出部24を備える。判定部21Bは、意図有効時間に基づいて、ユーザの意図に対応する操作を実行できるか否かを判定する。
 このようにしても、推論されたユーザの意図に対応する操作が実行できない場合と実行できる場合とで異なる態様で推薦されるので、ユーザが実行可能な操作を選択しやすくなり、ユーザの意図が達成されやすくなる。また、ユーザが実行不可な操作を選択する処理が減ることから、利便性の点でユーザが操作支援装置2Bに不満を感じることを抑制できる。
実施の形態4.
 図9は、この発明の実施の形態4に係る操作支援システム1Cの構成を示すブロック図である。操作支援システム1Cは、車両に搭載された機器の操作のうち、乗員であるユーザの意図に対応する操作を推薦してその実行を促すシステムであり、図9に示すように、操作支援装置2C、出力装置3、操作実行装置4、入力装置5および車両情報取得部6を備える。操作支援装置2Cは、現在から先のユーザの意図を推論し、この意図に対応する操作を出力装置3に出力させる装置であって、意図推論部20、判定部21C、推薦態様決定部22、操作完了時間算出部23および有効時間算出部24を備える。
 なお、図9において、図1、図5および図7と同一の構成要素には同一の符号を付して説明を省略する。
 判定部21Cは、操作完了時間算出部23によって算出された操作完了時間および有効時間算出部24によって算出された有効時間に基づいて、意図推論部20により推論されたユーザの意図に対応する操作を実行できるか否かを判定する。
 例えば、有効時間を操作完了時間と比較して、有効時間が操作完了時間以下である場合は操作を実行できないと判定され、有効時間が操作完了時間を超える場合には操作を実行できると判定される。
 なお、意図推論部20、判定部21C、推薦態様決定部22、操作完了時間算出部23および有効時間算出部24の各機能については、実施の形態1と同様に専用のハードウェアで実現してもよく、ソフトウェアまたはファームウェアで実現してもよい。また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
 次に動作について説明する。
 図10は、操作支援装置2Cの詳細な動作を示すフローチャートである。
 図10において、ステップST1dとステップST2dの処理は、実施の形態1で示した図4のステップST1aとステップST2aの処理と同様である。また、ステップST3dの処理は、実施の形態2で示した図6のステップST3bの処理と同様である。ステップST4dの処理は、実施の形態3で示した図8のステップST3cの処理と同様である。さらに、ステップST6dとステップST7dの処理は、図4のステップST4aとステップST5aの処理と同様である。従って、これらのステップの説明は省略する。
 ステップST5dにおいて、判定部21Cは、操作完了時間および有効時間に基づいて、意図推論部20によって推論されたユーザの意図に対応する操作を実行できるか否かを判定する。例えば、ユーザの意図が「次のサービスエリアに立ち寄りたい」と推論された場合において、有効時間算出部24は、車両の現在位置から次のサービスエリアまでの平均的な移動時間を有効時間として算出する。
 また、操作完了時間算出部23は、上記意図に対応する操作である「次のサービスエリアを目的地に設定してルートを検索する」についての操作完了時間を算出する。
 判定部21Cは、有効時間と操作完了時間とを比較して、有効時間が操作完了時間以下である場合は、操作を実行できないと判定し、有効時間が操作完了時間を超える場合は、操作を実行できると判定する。
 例えば、有効時間が10秒間であり、操作完了時間が30秒間である場合は、この検索操作が完了するまでに有効時間の10秒間が経過してしまう。このため、「次のサービスエリアに立ち寄りたい」というユーザの意図は達成できず、この操作は実行できないと判定される。
 以上のように、実施の形態4に係る操作支援装置2Cは、操作完了時間算出部23と、有効時間算出部24とをさらに備える。判定部21Cは、操作完了時間および有効時間に基づいて、ユーザの意図に対応する操作を実行できるか否かを判定する。
 このようにしても、推論されたユーザの意図に対応する操作が実行できない場合と実行できる場合とで異なる態様で推薦されるので、ユーザが実行可能な操作を選択しやすくなり、ユーザの意図が達成されやすくなる。また、ユーザが実行不可な操作を選択する処理が減ることから、利便性の点でユーザが操作支援装置2Cに不満を感じることを抑制できる。
実施の形態5.
 図11は、この発明の実施の形態5に係る操作支援システム1Dの構成を示すブロック図である。操作支援システム1Dは、車両に搭載された機器の操作のうち、乗員であるユーザの意図に対応する操作を推薦してその実行を促すシステムであり、図11に示すように、操作支援装置2D、出力装置3、操作実行装置4、入力装置5、車両情報取得部6、車外情報取得部7を備える。
 操作支援装置2Dは、現在から先のユーザの意図を推論し、この意図に対応する操作を出力装置3に出力させる装置であって、意図推論部20、判定部21Dおよび推薦態様決定部22を備える。なお、図11において図1と同一の構成要素には同一の符号を付して説明を省略する。
 車外情報取得部7は、車両に搭載された無線通信装置の1つの機能として設けられて、車両周辺の状況を示す車外情報を取得する。例えば、車外情報取得部7は、インターネットなどの通信ネットワークを介して車外の情報ソースである外部装置と無線通信し、ユーザの意図に対応した操作の内容に基づいて外部装置が管理する情報を検索する。このようにして、上記操作の内容に対応する車両周辺の状況を示す車外情報を受信する。
 なお、車外情報としては、例えば、車両周辺の施設情報、天気情報、タイムセールなどのイベント情報の他に、交通インフラから取得された渋滞情報などが挙げられる。
 判定部21Dは、車外情報取得部7により取得された車外情報が示す車両周辺の状況に基づいて、意図推論部20により推論されたユーザの意図に対応する操作を実行できるか否かを判定する。例えば、ユーザの意図に対応する操作が「AAAスキー場へ向かう」である場合、AAAスキー場の天気が雨であることを示す車外情報が得られると、この操作は実行できないと判定される。
 なお、意図推論部20、判定部21Dおよび推薦態様決定部22の各機能については、実施の形態1と同様に専用のハードウェアで実現してもよく、ソフトウェアまたはファームウェアで実現してもよい。また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
 次に動作について説明する。
 図12は、操作支援装置2Dの詳細な動作を示すフローチャートである。
 図12において、ステップST1eとステップST2eの処理は、実施の形態1で示した図4のステップST1aとステップST2aの処理と同様である。また、ステップST5eとステップST6eの処理は、図4のステップST4aとステップST5aの処理と同様である。従って、これらのステップの説明は省略する。
 車外情報取得部7は、判定部21Dから取得したユーザの意図に対応する操作の内容を示す情報に基づいて車外の情報ソースが管理する情報を検索し、上記操作内容に対応する車両周辺の状況を示す車外情報を受信する(ステップST3e)。
 例えば、ユーザの意図に対応する操作が「周辺のXXX駐車場を検索する」である場合に、車外の情報ソースから周辺のXXX駐車場の満空情報を取得する。
 判定部21Dは、車外情報が示す車両周辺の状況に基づいて、ユーザの意図に対応する操作を実行できるか否かを判定する(ステップST4e)。
 例えば、ユーザの意図に対応する操作が「周辺のXXX駐車場を検索する」である場合に、車外情報取得部7によって取得された周辺のXXX駐車場の満空情報が満車を示していれば、この操作は実行できないと判定される。
 以上のように、実施の形態5に係る操作支援装置2Dにおいて、判定部21は、車外情報が示す車両周辺の状況に基づいて、操作を実行できるか否かを判定する。
 このように構成することで、車両周辺の状況に基づいて、ユーザの意図に対応する操作の実行可否を的確に判定することが可能である。
実施の形態6.
 図13は、この発明の実施の形態6に係る操作支援システム1Eの構成を示すブロック図である。操作支援システム1Eは、車両に搭載された機器の操作のうち、乗員であるユーザの意図に対応する操作を推薦してその実行を促すシステムであり、図13に示すように、操作支援装置2E、出力装置3、操作実行装置4、入力装置5、車両情報取得部6を備える。操作支援装置2Eは、現在から先のユーザの意図を推論し、この意図に対応する操作を出力装置3に出力させる装置であって、意図推論部20、判定部21Eおよび推薦態様決定部22を備える。なお、図13において図1と同一の構成要素には同一の符号を付して説明を省略する。
 判定部21Eは、ユーザの意図に対応する操作を実行できないと判定した場合に、実行可能になるまで当該操作の内容の抽象度を変化させる。例えば、判定部21Eは、実施の形態1で示した意図内容と操作内容とを対応付けた操作特定用のテーブルデータに加え、図14に示すような抽象度ごとの操作内容の階層関係を示す抽象度変更用の参照データを有する。この参照データでは、抽象度が最も高い階層に操作の基本的な内容が設定され、抽象度が低くなるにつれて操作の内容がより具体的になるように構成されている。
 例えば、図14に示す参照データには、「周辺検索を行う」という操作の抽象度ごとの操作内容の階層関係が設定されている。最も基本的な内容である「周辺検索を行う」から抽象度を低くしていくと、まず、どこの周辺を検索するかで具体化され、「目的地周辺」、「現在地周辺」、「ルート上」などの内容が設定される。検索する場所が「目的地周辺」である場合、この階層までの操作内容は「目的地周辺の検索を行う」であり、続いて、検索対象の「ジャンル」、「ブランド」の項目が設定されている。
 「ジャンル」の項目には、図15に示すように「コンビニ」、「駐車場」などといった施設のジャンルが設定されており、「ブランド」の項目には「AAAマート」などのより具体的な施設のブランドが設定されている。
 また、「ジャンル」の項目と「ブランド」の項目に続いて「直近の施設を目的地に設定する」という操作内容が設定されている。この操作内容まで抽象度を低下させると、検索対象が限定されるので、検索結果が得られるまでに必要な時間は短縮される場合がある。
 すなわち、ユーザの意図に対応する操作の実行が完了するまでに時間が掛かり過ぎるために実行できないと判定されても、その操作内容の抽象度を下げれば、操作の実行が完了するまでに必要な時間が短縮されて実行可能となることがある。
 検索対象を限定したために所望の検索結果が得られず、検索操作を完了できない場合には、反対に操作内容の抽象度を上げることにより、所望する内容に近い検索結果が得られて検索操作を完了できる場合もある。
 なお、意図推論部20、判定部21Eおよび推薦態様決定部22の各機能については、実施の形態1と同様に専用のハードウェアで実現してもよく、ソフトウェアまたはファームウェアで実現してもよい。また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
 次に動作について説明する。
 図16は、操作支援装置2Eの詳細な動作を示すフローチャートである。
 なお、図16において、ステップST1fからステップST3f、ステップST6fの処理は、実施の形態1で示した図4のステップST1aからステップST3a、ステップST5aの処理と同様であるので、これらのステップの説明は省略する。
 判定部21Eは、ユーザの意図に対応した操作を実行できないと判定した場合(ステップST3f;NO)、この操作の内容の抽象度が変更可能か否かを確認する(ステップST5f)。例えば、ユーザの意図に対応した操作に関して、前述したような参照データがあるか否かで判断する。ここで、上記操作の内容の抽象度が変更できなければ(ステップST5f;NO)、ステップST6fの処理に移行する。
 一方、上記操作の内容の抽象度が変更できる場合(ステップST5f;YES)、判定部21Eは、上記参照データを参照して、上記操作について実行可能になる方向に抽象度を変化させる(ステップST7f)。
 例えば、ユーザの意図に対応する操作が「ルート上のコンビニを検索して案内する」であり、この操作の操作完了時間が閾値以上であるために実行できない場合、操作完了時間が短縮されるように、抽象度を下げて「周辺のAAAマートを検索し、直近の施設を目的地に設定する」という操作に変更する。
 また、ユーザの意図に対応する操作が「周辺のパークXXXを検索する」であり、車外情報の満空情報から「パークXXX」が満車であるために実行できない場合は、駐車場のブランドの限定がなくすように抽象度を上げて「周辺の駐車場を検索する」という操作に変更する。
 ステップST4fにおいて、推薦態様決定部22は、判定部21Eによって実行可能になるまで内容の抽象度が変化された操作を、代替操作として出力装置3に出力させる。
 ここで、推薦態様決定部22は、判定部21Eによって実行できないと判定された操作を推薦操作として出力装置3に出力させた後に、この操作が実行不可であること、および抽象度が変化された代替操作を出力装置3に出力させてもよい。
 例えば、ユーザの意図に対応する操作が「周辺のパークXXXを検索する」であって、車外情報における満空情報から「パークXXX」が満車であるために実行できない場合、まず、「周辺のパークXXXを検索する」を推薦操作として出力装置3に出力させる。
 そして、ユーザが、入力装置5を用いて当該操作を選択すると、「周辺のXXX駐車場は満車です。周辺の駐車場を検索します。」というように上記操作が実行不可であることと代替操作を出力装置3に出力させる。この後、自動的あるいはユーザの確認操作を受け付けられると、判定部21Eは、代替操作を実行するように操作実行装置4に指示する。これにより、周辺の駐車場の検索が開始される。
 最初から「周辺の駐車場を検索する」という代替操作を示した場合、ユーザは「駐車場のブランドまで検索してくれない」という不満を持つ可能性がある。
 そこで、上記のように操作の出力態様を決定することで、駐車場のブランドについても検索対象であることが示され、利便性の点でユーザが操作支援装置2に不満を感じることを抑制できる。
 これまで操作内容の抽象度を変化させて代替操作とする場合を示したが、判定部21Eは、ユーザの意図に対応する操作を実行できないと判定した場合に、この意図に対応する実行可能な別の操作を代替操作として特定すればよい。
 例えば、「トイレに行きたい」というユーザの意図に対応する操作として「周辺のコンビニを検索する」という操作が特定されたが、車外情報における施設情報から車両周辺にコンビニが存在せず、この操作の実行ができないと判定された場合を考える。
 この場合、判定部21Eは、抽象度は変更せず、ジャンルの項目に設定されている別のジャンルでトイレがある施設を検索対象に設定した操作を代替操作とする。
 なお、トイレ、ATM(Automatic Teller Machine)などのようにユーザの意図内容になり得る対象物は、地図情報において、施設などの属性情報として上記対象物の存在有無が設定されている。そこで、前述した参照データにおける操作内容に上記属性情報を設定しておく。これにより、判定部21Eは、この参照データからトイレがある別のジャンルの施設を特定することができる。なお、別のジャンルでトイレがある施設としては、スーパーマーケットなどが考えられる。
 このようにすることでも、ユーザの意図に対応する操作に関する代替操作を推薦することができ、ユーザの意図が達成されやすくなる。
 以上のように、実施の形態6に係る操作支援装置2Eにおいて、判定部21Eは、操作を実行できないと判定した場合、実行可能になるまで当該操作の内容の抽象度を変化させる。推薦態様決定部22は、実行可能になるまで内容の抽象度を変化させた操作を、代替操作として出力装置3に出力させる。これにより、ユーザの意図に対応する操作に関する代替操作を推薦することができ、ユーザの意図がさらに達成されやすくなる。
 また、実施の形態6に係る操作支援装置2Eにおいて、判定部21Eは、ユーザの意図に対応する操作を実行できないと判定した場合、当該意図に対応する実行可能な別の操作を特定する。推薦態様決定部22は、判定部21Eによって特定された操作を代替操作として出力装置3に出力させる。このようにすることでも、ユーザの意図に対応する操作に関する代替操作を推薦することができ、ユーザの意図がさらに達成されやすくなる。
 さらに、実施の形態6に係る操作支援装置2Eにおいて、推薦態様決定部22は、判定部21Eによって実行できないと判定された操作を推薦操作として出力装置3に出力させた後、当該操作が実行不可であることおよび判定部21Eによって特定された操作を代替操作として出力装置3に出力させる。このようにしても、利便性の点でユーザが操作支援装置2Eに不満を感じることを抑制できる。
実施の形態7.
 実施の形態1~6は、ユーザの意図に対応する操作が実行できるか否かを判定する場合を示したが、この実施の形態7では、判定部によって実行可能と判定された操作をさらに実行可能な度合いに応じて分類するものである。
 なお、実施の形態7に係る操作支援装置は、このように実行可能な度合いに応じて操作を分類する点で実施の形態1と異なるが、基本的な構成は、図1を用いて説明した構成と同じである。そこで、以降では、実施の形態7に係る操作支援装置の構成について述べる場合、図1を参照することとする。
 実施の形態7において、判定部21は、ユーザの意図に対応する操作の実行可否を判定した結果、実行できると判定した操作を、実行可能な度合いに応じて分類する。
 例えば、実施の形態2で示した操作完了時間に基づいて実行可否を判定する場合には、操作完了時間を複数の閾値と比較して実行可能な度合いを決定する。
 複数の閾値として、上側閾値、中間閾値、下側閾値を設けることが考えられる。ユーザの意図に対応する操作の操作完了時間が上側閾値未満で中間閾値以上である場合は、実行可能な度合いが「小」であると判定する。また、この操作完了時間が中間閾値未満で下側閾値以上であれば、実行可能な度合いが「中」であると判定し、操作完了時間が下側閾値未満であれば、実行可能な度合いが「大」であると判定する。
 推薦態様決定部22は、ユーザの意図に対応する操作を、このような実行可能な度合いに応じた態様で出力装置3に出力させる。
 例えば、実行可能な度合いが「中」である場合を通常態様とする。
 実行可能な度合いが「大」である場合、この操作の選択を促す音声ガイダンスの音量を通常態様よりも上げる。また、音声ガイダンスの内容に実行可能な度合いが高いことを含めてもよい。推薦操作を表示する場合は、この操作の選択を促すショートカットボタン、テキストを強調表示させてもよい。強調表示には、黄色などの注意喚起色に変える、通常態様よりも表示サイズを大きくする、輝度を上げるといった態様が含まれる。
 一方、実行可能な度合いが「小」である場合、この操作の選択を促す音声ガイダンスの音量を通常態様よりも下げる。また音声ガイダンスの内容に実行可能な度合いが低いことを含めてもよい。推薦操作を表示する場合は、この操作の選択を促すショートカットボタン、テキストを、消極的な表示にしてもよい。消極的な表示には、青色などの非注意喚起色に変える、通常態様よりも表示サイズを小さくする、輝度を下げるといった態様が含まれる。これにより、ユーザは、実行可能な度合いに応じて推薦操作を選択することができるので、ユーザの意図がさらに達成されやすくなる。
 判定部21は、このような実行可能な度合いが閾値よりも高い操作を、操作実行装置4に自動またはバックグラウンドで実行させてもよい。
 例えば、ユーザの意図に対応する操作を迅速に実行するため、実行可能な度合いが「中」より高い、すなわち「大」であれば、判定部21が、ユーザに操作を推薦することなく、操作実行装置4に指示して、この操作を自動で実行させる。
 また、ユーザに操作を推薦して実行すべき操作として選択された場合、判定部21が、操作実行装置4に指示して、この操作を自動で実行させてもよい。
 このとき他の車載器が処理を実行していても、その処理のバックグラウンドで操作実行装置4に上記操作を実行させる。このようにすることで、ユーザが操作することにより、ユーザの意図の達成が遅れることがなく、ユーザの意図を迅速に達成することができる。
 推薦態様決定部22は、実行可能な度合いが閾値以下の操作を、推薦しない態様で出力装置3に出力させてもよい。
 これまでは、操作の選択を促す音声ガイダンスするか、この操作の選択を促すショートカットボタン、テキストを表示することにより、操作の内容を推薦する態様でユーザに提示していた。これに対し、実行可能な度合いが低い操作については推薦しない態様でユーザに提示する。例えば、ユーザの意図に対応する操作が「周辺のスーパーを検索する」であり、この操作の実行可能な度合いが「小」である場合、地図上にスーパーのアイコンを単に表示することが挙げられる。
 これにより、実行可能な度合いの低い操作が選択され難くなり、ユーザの意図が達成されない状況を少なくすることができる。
 また、推薦態様決定部22は、実行可能な度合いが閾値以下の操作を、実行が困難であることを示す態様で出力装置3に出力させてもよい。
 例えば、この操作の選択を促すショートカットボタン、テキストの選択は可能であるが、グレーアウトに近いぼやけた表示とする。このようにしても、実行可能な度合いの低い操作が選択され難くなり、ユーザの意図が達成されない状況を少なくすることができる。
 さらに、推薦態様決定部22は、実行可能な度合いが閾値以下の操作を、出力装置3に出力させなくてもよい。実行できる可能性はあるが、その度合いが低い操作であると、ユーザが選択操作したときに実行不可になる場合も考えられる。この場合、選択操作が無駄になる。従って、実行可能な度合いが閾値以下の操作をユーザに提示しないことで、このような無駄な操作を省くことができる。
 さらに、推薦態様決定部22が、実行可能な度合いが閾値以下の操作であっても、この操作を推薦操作として出力装置3に出力させる。そして、判定部21が、実行すべき操作として当該操作の指定を受け付けた場合に、当該操作よりも実行可能な度合いが高くかつ当該操作に関連した別の操作を操作実行装置4に実行させてもよい。
 例えば、ユーザの意図に対応する操作が「次のサービスエリアを検索する」であり、実行可能な度合いが「小」であっても、推薦態様決定部22は、この操作を推薦操作として出力装置3に出力させる。この操作がユーザに選択された場合、判定部21は、例えば、実施の形態6と同様にして、この操作に関連し実行可能な度合いがさらに高い操作である「次の次にあるサービスエリアを検索する」という操作を代替操作として特定して、この代替操作を操作実行装置4に実行させる。これにより、ユーザの意図を達成されやすくできる。
 以上のように、実施の形態7に係る操作支援装置2において、判定部21は、実行できると判定した操作を実行可能な度合いに応じて分類する。推薦態様決定部22は、操作を実行可能な度合いに応じた態様で出力装置3に出力させる。このように構成することで、ユーザが実行可能な度合いに応じて推薦操作を選択することができ、ユーザの意図がさらに達成されやすくなる。
 また、実施の形態7に係る操作支援装置2において、判定部21は、実行可能な度合いが閾値よりも高い操作を、操作実行装置4に自動またはバックグラウンドで実行させる。このように構成することで、ユーザの意図を迅速に達成することができる。
 さらに、実施の形態7に係る操作支援装置2において、推薦態様決定部22は、実行可能な度合いが閾値以下の操作を、推薦しない態様で出力装置3に出力させる。
 このように構成することで、実行可能な度合いの低い操作が選択され難くなり、ユーザの意図が達成されない状況を少なくすることができる。
 さらに、実施の形態7に係る操作支援装置2において、推薦態様決定部22は、実行可能な度合いが閾値以下の操作を、実行が困難であることを示す態様で出力装置3に出力させる。このようにしても、実行可能な度合いの低い操作が選択され難くなり、ユーザの意図が達成されない状況を少なくすることができる。
 さらに、実施の形態7に係る操作支援装置2において、推薦態様決定部22は、実行可能な度合いが閾値以下の操作を出力装置3に出力させない。このようにしても、実行可能な度合いの低い操作が選択され難くなり、ユーザの意図が達成されない状況を少なくすることができる。
 さらに、実施の形態7に係る操作支援装置2において、推薦態様決定部22は、実行可能な度合いが閾値以下の操作を推薦操作として出力装置3に出力させる。判定部21は、実行すべき操作として推薦操作の指定を受け付けた場合、当該推薦操作よりも実行可能な度合いが高くかつ当該推薦操作に関連した別の操作を操作実行装置4に実行させる。
 このように構成することで、ユーザの意図を達成されやすくできる。
実施の形態8.
 図17は、この発明の実施の形態8に係る操作支援システム1Fの構成を示すブロック図である。操作支援システム1Fは、車両に搭載された機器の操作のうち、乗員であるユーザの意図に対応する操作を推薦してその実行を促すシステムであり、図17に示すように、操作支援装置2F、出力装置3、操作実行装置4、入力装置5、車両情報取得部6を備える。操作支援装置2Fは、現在から先のユーザの意図を推論し、この意図に対応する操作を出力装置3に出力させる装置であって、意図推論部20、判定部21F、推薦態様決定部22、操作履歴登録部25および操作履歴記憶部26を備える。
 なお、図17において図1と同一の構成要素には同一の符号を付して説明を省略する。
 操作履歴登録部25は、入力装置5を用いたユーザの操作情報をモニタし、推薦された操作が選択される度に、これを操作履歴として操作履歴記憶部26に記憶する。
 操作履歴記憶部26は、この発明における記憶部を具体化した構成要素であって、推薦操作が実行された操作履歴を記憶する。
 判定部21Fは、操作履歴記憶部26から読み出した操作履歴に基づいて、ユーザの意図に対応する操作を実行できるか否かを判定する。例えば、ユーザの意図に対応する操作が、過去に推薦された操作であるか、推薦されたときの実行可能な度合いはどうか、実行結果はどうであったか、といった内容を操作履歴情報から特定し、今回の操作の実行可否を判定する。このようにすることで、ユーザの意図に対応する操作の実行可否を判定する演算負荷を軽減することができ、また実行可否を正確に判定することが可能である。
 なお、意図推論部20、判定部21F、推薦態様決定部22、操作履歴登録部25および操作履歴記憶部26の各機能については、実施の形態1と同様に専用のハードウェアで実現してもよく、ソフトウェアまたはファームウェアで実現してもよい。また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
 以上のように、実施の形態8に係る操作支援装置2Fは、推薦操作が実行された操作履歴を記憶する操作履歴記憶部26と、操作履歴記憶部26に操作履歴を登録する操作履歴登録部25とを備える。判定部21Fは、操作履歴記憶部26から読み出した操作履歴に基づいて、ユーザの意図に対応する操作を実行できるか否かを判定する。このように構成することで、ユーザの意図に対応する操作の実行可否を判定する演算負荷を軽減することができ、また実行可否を正確に判定することが可能である。
実施の形態9.
 図18は、この発明の実施の形態9に係る操作支援システム1Gの構成を示すブロック図である。図18に示す操作支援システム1Gは、車載器8が、携帯端末9またはサーバ10と連携して操作支援を行う。
 まず、サーバ10と連携して車載器8が操作支援装置として機能する場合を説明する。
 車載器8は、サーバ10と直接通信するか、あるいは携帯端末9を介してサーバ10と通信する。サーバ10は、このような通信を行う通信部の他に、実施の形態1で示した、意図推論部20、判定部21および推薦態様決定部22を備える。
 すなわち、操作支援装置2の各機能はサーバ10が実行し、このようにして得られる出力内容は、サーバ10によって車載器8に送信される。
 車載器8は、サーバ10から受信した推薦操作を示す情報を出力装置3に出力させる。
 入力装置5を用いて推薦操作が選択されると、車載器8は、この操作を操作実行装置4に実行させる。
 次に、携帯端末9と連携して車載器8が操作支援装置として機能する場合を説明する。
 携帯端末9は、車載器8と通信する通信部の他に、実施の形態1で示した、意図推論部20、判定部21および推薦態様決定部22を備える。
 すなわち、操作支援装置2の各機能は携帯端末9が実行し、このようにして得られる出力内容は、携帯端末9によって車載器8に送信される。
 車載器8は、携帯端末9から受信した推薦操作を示す情報を出力装置3に出力させる。
 入力装置5を用いて推薦操作が選択されると、車載器8は、この操作を操作実行装置4に実行させる。
 次に、携帯端末9およびサーバ10と連携して車載器8が操作支援装置として機能する場合を説明する。
 車載器8は、携帯端末9およびサーバ10と車載器8との間でそれぞれ通信する通信部を備え、携帯端末9およびサーバ10には、車載器8と通信する通信部を備える他、意図推論部20、判定部21および推薦態様決定部22のいずれかを有する。
 すなわち、操作支援装置2の各機能は、携帯端末9およびサーバ10のいずれかが実行し、このようにして得られる出力内容は、携帯端末9またはサーバ10によって車載器8に送信される。
 車載器8は、サーバ10から受信した推薦操作を示す情報を出力装置3に出力させる。
 入力装置5を用いて推薦操作が選択されると、車載器8は、この操作を操作実行装置4に実行させる。
 以上のように、実施の形態9に係る操作支援システム1Gにおいて、携帯端末9またはサーバ10が、意図推論部20、判定部21および推薦態様決定部22を備える。
 このようにすることでも、推論されたユーザの意図に対応する操作が実行できない場合と実行できる場合とで異なる態様で推薦されるので、ユーザが実行可能な操作を選択しやすくなり、ユーザの意図が達成されやすくなる。また、ユーザが実行不可な操作を選択する処理が減ることから、利便性の点でユーザが操作支援装置2に不満を感じることを抑制できる。
 なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る操作支援装置は、推薦した操作によってユーザの意図が達成されやすく、かつ利便性の点でユーザが装置に不満を感じることを抑制できるので、例えば、車載機器の操作支援装置に好適である。
 1,1A~1G 操作支援システム、2,2A~2F 操作支援装置、3 出力装置、4 操作実行装置、5 入力装置、6 車両情報取得部、7 車外情報取得部、8 車載器、9 携帯端末、10 サーバ、20 意図推論部、21,21A~21F 判定部、22 推薦態様決定部、23 操作完了時間算出部、24 有効時間算出部、25 操作履歴登録部、26 操作履歴記憶部、100 処理回路、101 CPU、102 メモリ。

Claims (17)

  1.  現在から先のユーザの意図を推論する意図推論部と、
     前記意図推論部によって推論されたユーザの意図に対応する操作を実行できるか否かを判定する判定部と、
     前記判定部によって実行できないと判定された場合と実行できると判定された場合とで出力装置に前記操作を異なる態様で出力させる推薦態様決定部と
    を備えたことを特徴とする操作支援装置。
  2.  前記判定部は、車両情報が示す車両の状態に基づいて、前記操作を実行できるか否かを判定することを特徴とする請求項1記載の操作支援装置。
  3.  前記操作が選択されてから当該操作の実行が完了するまでに必要な時間に関する意図達成時間情報を算出する第1の時間算出部を備え、
     前記判定部は、前記意図達成時間情報に基づいて、前記操作を実行できるか否かを判定することを特徴とする請求項1記載の操作支援装置。
  4.  前記操作を有効に実行可能な有効時間を算出する第2の時間算出部を備え、
     前記判定部は、前記有効時間に基づいて、前記操作を実行できるか否かを判定することを特徴とする請求項1記載の操作支援装置。
  5.  前記操作が選択されてから当該操作の実行が完了するまでに必要な時間に関する意図達成時間情報を算出する第1の時間算出部と、
     前記操作を有効に実行可能な有効時間を算出する第2の時間算出部とを備え、
     前記判定部は、前記意図達成時間情報および前記有効時間に基づいて、前記操作を実行できるか否かを判定することを特徴とする請求項1記載の操作支援装置。
  6.  前記判定部は、車外情報が示す車両周辺の状況に基づいて、前記操作を実行できるか否かを判定することを特徴とする請求項1記載の操作支援装置。
  7.  前記判定部は、前記操作を実行できないと判定した場合、実行可能になるまで当該操作の内容の抽象度を変化させ、
     前記推薦態様決定部は、実行可能になるまで内容の抽象度を変化させた前記操作を代替操作として前記出力装置に出力させることを特徴とする請求項1記載の操作支援装置。
  8.  前記判定部は、前記操作を実行できないと判定した場合に、当該操作の意図に対応する実行可能な別の操作を特定し、
     前記推薦態様決定部は、前記判定部によって特定された前記操作を代替操作として前記出力装置に出力させることを特徴とする請求項1記載の操作支援装置。
  9.  前記判定部は、前記操作を実行できないと判定した場合、実行可能になるまで当該操作の内容の抽象度を変化させるまたは当該意図に対応する実行可能な別の操作を特定し、
     前記推薦態様決定部は、前記判定部によって実行できないと判定された前記操作を推薦操作として前記出力装置に出力させた後に、当該操作が実行不可であることおよび前記判定部によって特定された前記操作を代替操作として前記出力装置に出力させることを特徴とする請求項1記載の操作支援装置。
  10.  前記判定部は、実行できると判定した前記操作を実行可能な度合いに応じて分類し、
     前記推薦態様決定部は、当該操作を実行可能な度合いに応じた態様で前記出力装置に出力させることを特徴とする請求項1記載の操作支援装置。
  11.  前記判定部は、実行可能な度合いが閾値よりも高い操作を、操作実行装置に自動またはバックグラウンドで実行させることを特徴とする請求項10記載の操作支援装置。
  12.  前記推薦態様決定部は、実行可能な度合いが閾値以下の操作を、推薦しない態様で前記出力装置に出力させることを特徴とする請求項10記載の操作支援装置。
  13.  前記推薦態様決定部は、実行可能な度合いが閾値以下の操作を、実行が困難であることを示す態様で前記出力装置に出力させることを特徴とする請求項10記載の操作支援装置。
  14.  前記推薦態様決定部は、実行可能な度合いが閾値以下の操作を、前記出力装置に出力させないことを特徴とする請求項10記載の操作支援装置。
  15.  前記推薦態様決定部は、実行可能な度合いが閾値以下の操作を推薦操作として前記出力装置に出力させ、
     前記判定部は、実行すべき操作として前記推薦操作の指定を受け付けた場合、当該推薦操作よりも実行可能な度合いが高くかつ当該推薦操作に関連した別の操作を操作実行装置に実行させることを特徴とする請求項10記載の操作支援装置。
  16.  推薦操作が実行された操作履歴を記憶する記憶部と、
     前記記憶部に前記操作履歴を登録する操作履歴登録部とを備え、
     前記判定部は、前記記憶部から読み出した前記操作履歴に基づいて、前記操作を実行できるか否かを判定することを特徴とする請求項1記載の操作支援装置。
  17.  情報を出力する出力装置と、
     現在から先のユーザの意図を推論する意図推論部と、
     前記意図推論部によって推論されたユーザの意図に対応する操作を実行できるか否かを判定する判定部と、
     前記判定部によって実行できないと判定された場合と実行できると判定された場合とで前記出力装置に前記操作を異なる態様で出力させる推薦態様決定部と
    を備えたことを特徴とする操作支援システム。
PCT/JP2015/072652 2015-08-10 2015-08-10 操作支援装置および操作支援システム WO2017026035A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201580082068.1A CN107921914A (zh) 2015-08-10 2015-08-10 操作支持装置及操作支持系统
PCT/JP2015/072652 WO2017026035A1 (ja) 2015-08-10 2015-08-10 操作支援装置および操作支援システム
US15/740,597 US20180194359A1 (en) 2015-08-10 2015-08-10 Operation support device and operation support system
JP2017534058A JP6316509B2 (ja) 2015-08-10 2015-08-10 操作支援装置および操作支援システム
DE112015006794.9T DE112015006794T5 (de) 2015-08-10 2015-08-10 Operationsassistenzvorrichtung und Operationsassistenzsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/072652 WO2017026035A1 (ja) 2015-08-10 2015-08-10 操作支援装置および操作支援システム

Publications (1)

Publication Number Publication Date
WO2017026035A1 true WO2017026035A1 (ja) 2017-02-16

Family

ID=57984345

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/072652 WO2017026035A1 (ja) 2015-08-10 2015-08-10 操作支援装置および操作支援システム

Country Status (5)

Country Link
US (1) US20180194359A1 (ja)
JP (1) JP6316509B2 (ja)
CN (1) CN107921914A (ja)
DE (1) DE112015006794T5 (ja)
WO (1) WO2017026035A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019129416A (ja) * 2018-01-25 2019-08-01 日立グローバルライフソリューションズ株式会社 プログラム、家電製品システム及び家電製品
WO2020026402A1 (ja) * 2018-08-02 2020-02-06 三菱電機株式会社 車載情報装置および携帯端末との連携方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11175876B1 (en) * 2020-07-06 2021-11-16 Ford Global Technologies, Llc System for in-vehicle-infotainment based on dual asynchronous displays
US20220084294A1 (en) * 2020-09-15 2022-03-17 Facebook Technologies, Llc Enhanced artificial reality systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009047842A1 (ja) * 2007-10-10 2009-04-16 Pioneer Corporation 選択項目表示装置、選択項目表示方法、選択項目表示プログラム、及び選択項目表示プログラムが記録された記録媒体
WO2012101909A1 (ja) * 2011-01-26 2012-08-02 日産自動車株式会社 車載情報機器の操作装置
JP2014126922A (ja) * 2012-12-25 2014-07-07 Mitsubishi Electric Corp 車載情報機器、制御装置および制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3873901B2 (ja) 2003-02-20 2007-01-31 日産自動車株式会社 車両用表示制御装置
JP4396723B2 (ja) * 2007-04-03 2010-01-13 トヨタ自動車株式会社 省エネルギ運転促進装置
KR20150020872A (ko) * 2013-08-19 2015-02-27 현대자동차주식회사 차량 기능 제어를 위한 제어 장치 및 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009047842A1 (ja) * 2007-10-10 2009-04-16 Pioneer Corporation 選択項目表示装置、選択項目表示方法、選択項目表示プログラム、及び選択項目表示プログラムが記録された記録媒体
WO2012101909A1 (ja) * 2011-01-26 2012-08-02 日産自動車株式会社 車載情報機器の操作装置
JP2014126922A (ja) * 2012-12-25 2014-07-07 Mitsubishi Electric Corp 車載情報機器、制御装置および制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019129416A (ja) * 2018-01-25 2019-08-01 日立グローバルライフソリューションズ株式会社 プログラム、家電製品システム及び家電製品
WO2020026402A1 (ja) * 2018-08-02 2020-02-06 三菱電機株式会社 車載情報装置および携帯端末との連携方法

Also Published As

Publication number Publication date
US20180194359A1 (en) 2018-07-12
JP6316509B2 (ja) 2018-04-25
JPWO2017026035A1 (ja) 2017-11-02
CN107921914A (zh) 2018-04-17
DE112015006794T5 (de) 2018-04-19

Similar Documents

Publication Publication Date Title
US8990016B2 (en) Navigation apparatus, method, and program
US11273844B2 (en) Device, transportation vehicle, and method for assisting a user of a transportation vehicle
JP6316509B2 (ja) 操作支援装置および操作支援システム
EP2378249B1 (en) Navigation system for a vehicle and method of route searching
US20090171529A1 (en) Multi-screen display device and program of the same
US20050273251A1 (en) Turn-by-turn navigation system with special routing features
JP6323074B2 (ja) 表示物情報表示装置
EP3009798B1 (en) Providing alternative road navigation instructions for drivers on unfamiliar roads
KR101624185B1 (ko) 단말기, 그와 통신하는 차량 및 그의 제어 방법
JP2008241309A (ja) 車両用サービス提示装置
US8831952B2 (en) Voice input device
US20070027619A1 (en) Navigation system
WO2016199287A1 (ja) 車体映像記録装置および車体映像記録方法
WO2016084360A1 (ja) 車両用表示制御装置
US7602315B2 (en) Navigation apparatus having a picture frame function and method for operating the same
JP6001792B2 (ja) 運転支援装置および運転支援方法
KR20160021509A (ko) 사용자 인터페이스 장치, 그를 가지는 차량 및 그의 제어 방법
CN111341134A (zh) 车道线向导提示方法、云端服务器及车辆
JP6764706B2 (ja) 車両用表示方法及び車載器
JP3948018B2 (ja) 情報記録装置、情報記録方法及び情報記録用プログラム
CN113739816A (zh) 车辆导航控制方法、装置及车辆
WO2023162192A1 (ja) コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体
WO2023062814A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
US20240066988A1 (en) Vehicle and a method of controlling the same
WO2024070072A1 (ja) 表示制御装置および表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15900989

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017534058

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112015006794

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15900989

Country of ref document: EP

Kind code of ref document: A1