WO2023079735A1 - 情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造 - Google Patents

情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造 Download PDF

Info

Publication number
WO2023079735A1
WO2023079735A1 PCT/JP2021/040978 JP2021040978W WO2023079735A1 WO 2023079735 A1 WO2023079735 A1 WO 2023079735A1 JP 2021040978 W JP2021040978 W JP 2021040978W WO 2023079735 A1 WO2023079735 A1 WO 2023079735A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
movement
notification
control unit
Prior art date
Application number
PCT/JP2021/040978
Other languages
English (en)
French (fr)
Inventor
航太朗 宮部
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2021/040978 priority Critical patent/WO2023079735A1/ja
Publication of WO2023079735A1 publication Critical patent/WO2023079735A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Definitions

  • the present invention relates to an information processing device, an information processing method, a program, a recording medium, and a data structure.
  • An interactive navigation device that recognizes the voice input by the user and responds to the recognized content. For example, in Patent Document 1, when there is a voice input from the user, information on the item to be purchased and the store of the item is acquired from the voice, and when the user approaches the store within a predetermined period , a navigation device that reminds a user about purchasing an item.
  • Patent Literature 1 for example, if the user has never approached the store while moving during a predetermined period of time, the user cannot receive a reminder regarding the purchase of an item. is one of the problems. In addition, for example, even when the user is at work and happens to approach a store in a situation where the user cannot stop by for shopping, the user receives a reminder regarding the purchase of the item, and the user feels annoyed by this. It is mentioned as one of.
  • the present invention has been made in view of the above points, and provides an information processing apparatus, information processing method, program, recording medium, and an information processing apparatus capable of reminding the user of information to be notified at an appropriate timing according to the situation. Its purpose is to provide a data structure.
  • the information processing apparatus comprises: a user input information acquisition unit that acquires input information from a user; first information that indicates the purpose of movement of the user from the input information; an information acquisition unit that acquires second information indicating matters that the user wishes to be notified when the user moves for a certain purpose, and estimates the purpose of the movement while the user is moving and an estimating unit that, when it is determined that the purpose estimated by the estimating unit corresponds to the first information, notifies information including the second information during the estimated movement through the notifying unit. and a control unit that performs notification processing for notifying the user.
  • An information processing method is an information processing method executed by an information processing apparatus, comprising: a user input information acquiring step of acquiring input information from a user; and second information indicating matters that the user wishes to be notified when the movement for the purpose indicated by the first information is performed; an estimating step of estimating the purpose of the movement while moving; and a control step of performing a notification process of notifying the user of notification information including the second information via a notification unit.
  • a program according to claim 13 is a program to be executed by a computer, comprising: a user input information acquisition step of acquiring input information from a user; an information acquisition step of acquiring information and second information indicating matters that the user desires to be notified when the user moves for the purpose indicated by the first information; and an estimating step of estimating a purpose of the movement; and, if it is determined in the estimating step that the purpose estimated in the estimating step corresponds to the first information, the second information during the movement targeted for the estimation. and a control step of performing a notification process of notifying the user of the notification information including the notification information through the notification unit.
  • a recording medium according to claim 14 is a recording medium on which the program is recorded.
  • the data structure according to claim 15 is an information processing apparatus having an estimation unit for estimating the purpose of movement of the user when the user is moving, and a control unit for notifying the user of notification information via the notification unit.
  • the data structure used in the above which indicates first information indicating the purpose of the user's movement, and what the user wants to be notified when the movement for the purpose indicated by the first information is performed second information, wherein when the user is moving, the estimating unit estimates the purpose of the movement; and the control unit performs the purpose estimated by the estimating unit. and a process of notifying the user of the notification information including the second information during the estimated movement when it is determined that the information corresponds to the first information. It is characterized by being
  • FIG. 1 is a diagram showing the configuration of a front seat portion of a vehicle and the situation inside the vehicle according to the first embodiment;
  • FIG. 1 is a block diagram showing an example of the configuration of an information processing apparatus according to a first embodiment;
  • FIG. 4 is a table showing an example of vehicle movement history stored in the information processing apparatus according to the first embodiment;
  • 5 is a table showing an example of vehicle movement patterns stored in the information processing apparatus according to the first embodiment;
  • 5 is a table showing an example of a ToDo list stored in the information processing apparatus according to the first embodiment;
  • FIG. 4 is a table showing an example of vehicle movement history stored in the information processing apparatus according to the first embodiment;
  • 5 is a table showing an example of vehicle movement patterns stored in the information processing apparatus according to the first embodiment;
  • 5 is a table showing an example of a ToDo list stored in the information processing apparatus according to the first embodiment;
  • 5 is a diagram showing a situation in which notification information is notified to a user from the information processing apparatus according to the first embodiment; 4 is a flow chart showing a control routine of the information processing apparatus according to the first embodiment; 4 is a flow chart showing a control routine of the information processing apparatus according to the first embodiment;
  • FIG. 1 is a diagram showing a front seat portion of a vehicle M as a mobile body and the situation inside the vehicle M according to the first embodiment.
  • the in-vehicle device 10 is connected to each of a microphone 12, a GPS receiver 13, a touch panel display 14, and a speaker 15 installed in the vehicle M, and includes a control unit that controls these.
  • the in-vehicle device 10 is arranged, for example, in the central portion of the dashboard DB in the front seats of the vehicle M. As shown in FIG.
  • the microphone 12 is a voice input device that receives the sound inside the vehicle, for example, the voice uttered by the driver of the vehicle M, and converts it into an electric signal.
  • the microphone 12 is arranged on the dashboard DB.
  • the GPS receiver 13 is a receiver that receives signals (GPS signals) from GPS (Global Positioning System) satellites.
  • GPS Global Positioning System
  • the GPS receiver 13 transmits the received GPS signal to the in-vehicle device 10 .
  • the GPS receiver 13 is arranged on the dashboard DB.
  • the touch panel display 14 is a display device in which a display that performs screen display based on the control of the in-vehicle device 10 and a touch panel that accepts input operations from passengers of the vehicle M are combined.
  • the touch panel display 14 displays, for example, a navigation image in which the current position of the vehicle M is superimposed on a map.
  • the touch panel display 14 is arranged in the center of the dashboard DB.
  • the speaker 15 is an audio output device that outputs audio based on the control of the in-vehicle device 10 .
  • the speaker 15 is provided on each of the two A-pillars AP.
  • the positions of the in-vehicle device 10, the microphone 12, the GPS receiver 13, the touch panel display 14, and the speaker 15 in the front seat portion of the vehicle M are merely examples, and they may be arranged at other positions.
  • the user of the in-vehicle device 10 for example, the driver of the vehicle M, is inputting voice by speaking while moving in the vehicle M.
  • the user for example, remembers that there are no eggs and milk at home when going to work from home, and speaks to the microphone 12, "Buy eggs and milk on the way home from work.” are typing.
  • the in-vehicle device 10 is configured to be capable of recognizing the voice of the user of the in-vehicle device 10 . That is, the in-vehicle device 10 converts the voice input by the driver of the vehicle M into text consisting of character strings.
  • the in-vehicle device 10 extracts and acquires the words indicating the purpose of the user's movement as the first information from the text generated by speech recognition of the input voice.
  • a word indicating the purpose of the user's movement is, for example, a word indicating the action of the user heading to a predetermined place in the vehicle M.
  • the in-vehicle device 10 from the text generated by the speech recognition of the input voice, when the movement for the purpose indicated by the first information is performed, the user as the second information Identify the words that indicate the matter you wish to be notified about.
  • the words indicating the items that the user wants to be notified are words indicating what the user has to do (hereinafter also referred to as ToDo).
  • the in-vehicle device 10 associates and stores a word indicating the purpose of the user's movement as the first information and a matter that the user wishes to be notified as the second information.
  • the in-vehicle device 10 estimates the user's current purpose of travel while the vehicle M is starting to travel. When there is a purpose of travel as the first information that matches the estimated current purpose of travel of the user, the in-vehicle device 10 detects the purpose of travel as the second information corresponding to the purpose of travel as the first information. notifies the user of notification information including words indicating matters that the user desires to be notified.
  • FIG. 2 is a block diagram showing an example of the configuration of the in-vehicle device 10 according to the first embodiment.
  • the in-vehicle device 10 is a device in which a control section 17, a communication section 18, an input section 19, an output section 21, and a large-capacity storage device 22 cooperate via a system bus 16. .
  • the control unit 17 is composed of a CPU (Central Processing Unit) 17A, a ROM (Read Only Memory) 17B, a RAM (Random Access Memory) 17C, etc., and functions as a computer.
  • the CPU 17A implements various functions by reading and executing various programs stored in the ROM 17B and the mass storage device 22.
  • FIG. 1 A block diagram illustrating an exemplary computing environment in accordance with the present disclosure.
  • Various programs may be obtained via a network from another server device or the like, or may be recorded on a recording medium and read via various drive devices. That is, various programs stored in the mass storage device 22 (including programs for executing processes in the in-vehicle device 10, which will be described later) can be transmitted via a network, and can be computer-readable recording media. It is possible to record and transfer to
  • the communication unit 18 is a communication device that transmits and receives data to and from an external device according to instructions from the control unit 17.
  • the communication unit 18 is, for example, a NIC (Network Interface Card) for connecting to a network.
  • the connection between the in-vehicle device 10 and the network can be made, for example, by mobile communication such as 3G (3rd Generation), 4G (4th Generation) or 5G (5th Generation), or wireless communication such as Wi-Fi (registered trademark).
  • the input unit 19 is an interface unit that communicably connects the control unit 17 of the in-vehicle device 10, the microphone 12, the GPS receiver 13, and the touch panel display 14.
  • the control unit 17 acquires voice information indicating the voice input by the user via the input unit 19 .
  • the control unit 17 functions as a user input information acquisition unit that acquires input information from the user.
  • the output unit 21 is an interface unit communicably connected to the touch panel display 14 and the speaker 15 .
  • the control unit 17 can transmit a video or image signal to the touch panel display 14 via the output unit 21 for display, or can transmit an audio signal to the speaker 15 to output sound.
  • the large-capacity storage device 22 is composed of, for example, a hard disk device, SSD (solid state drive), flash memory, etc., and is a storage device that stores various programs such as an operating system and software for terminals.
  • a speech recognition database (hereinafter referred to as a speech recognition DB) 22A of the large-capacity storage device 22 is a database that stores language models, pronunciation dictionaries, etc. for use in speech recognition of input speech.
  • the control unit 17 refers to the voice recognition DB 22A to perform voice recognition, and converts the voice into text consisting of character strings.
  • a movement history information database (hereinafter referred to as a movement history information DB) 22B of the large-capacity storage device 22 stores, for example, when the user moves to a predetermined place in the vehicle M, the movement situation including the movement date and time and the movement start point. It is a database that stores the data shown.
  • FIG. 3 An example of data stored in the movement history information DB 22B will be described below with reference to FIGS. 3 and 4.
  • FIG. 3 An example of data stored in the movement history information DB 22B will be described below with reference to FIGS. 3 and 4.
  • FIG. 3 An example of data stored in the movement history information DB 22B will be described below with reference to FIGS. 3 and 4.
  • FIG. 3 An example of data stored in the movement history information DB 22B will be described below with reference to FIGS. 3 and 4.
  • FIG. 3 is a table TB1 (hereinafter also referred to as movement history TB1) showing the movement history of the vehicle M.
  • the movement history TB1 shows, for example, information indicating the past movement status of the vehicle M specified based on the position information of the vehicle M based on the GPS signal and the map information.
  • the travel date when the user traveled in the vehicle M is shown in the leftmost “travel date” column.
  • the second column from the left shows the time when the user started to move in the vehicle M on the moving day, that is, the departure time of the move.
  • the third "movement start point” column from the left shows the point where the user started to move in the vehicle M at the movement start time, that is, the movement start point.
  • the fourth "movement end point” column from the left shows the point at which the user ended the movement in the vehicle M, that is, the arrival point of the movement.
  • control unit 17 adds the above-mentioned "movement date”, “movement start time”, “movement start point” and “movement end point".
  • the calculated move purpose is shown as a label for each move.
  • the control unit 17 specifies that this movement is returning home from work, Carry out labeling "Go home”. Then, the control unit 17 records the movement date and the movement start time when the labeling is performed. That is, the control unit 17 records that the "moving day” of the vehicle M is Thursday and the "moving start time” is 18:30.
  • the control unit 17 specifies that this movement is going from home to shopping. to carry out labeling. Then, when the labeling is performed, the control unit 17 records that the “moving day” of the vehicle M is Saturday and the “moving start time” is 17:30.
  • the control unit 17 specifies that the movement is to go to the villa. Carry out labeling "outing”. Then, when performing the labeling, the control unit 17 records that the “day of travel” of the vehicle M is Sunday and the “start time of travel” is 9:00.
  • the labeling by the control unit 17 is performed continuously or intermittently by the vehicle M to some extent, and is intended for habitual movements. That is, the control unit 17 identifies and labels the purpose of the movement of the vehicle M based on the movement status of the vehicle M which is repeatedly carried out.
  • FIG. 4 is a table TB2 (hereinafter also referred to as movement pattern TB2) showing movement patterns of the vehicle M created by the control unit 17 based on the movement history TB1 and stored in the movement history information DB 22B.
  • movement start corresponding to the "movement purpose” of the vehicle M as a result of aggregating the movement situations of the movement history TB1 having the movement start point and the movement purpose common to each other.
  • Point “Movement day (weekday or holiday)” and “Movement start time” are indicated respectively.
  • the travel pattern TB2 when the “purpose of travel” is “to return home from work,” the travel pattern includes a “move start point” of the company, a “day of travel” of a weekday, and a “start of travel”. Time” is set to be between 18:30 and 19:30.
  • the movement pattern TB2 when the 'purpose of movement' is 'going out for shopping', the movement pattern is such that the 'start point of movement' is home, the 'day of movement' is a holiday, and ' "Movement start time" is set to be between 16:30 and 17:30.
  • the movement pattern TB2 when the "purpose of movement” is "going out to a villa", the movement pattern is such that the "start point of movement” is home, the “day of movement” is a holiday, and the “movement start point” is a holiday.
  • “Movement start time” is set to be between 8:00 and 11:00.
  • FIG. 5 is an information set table TB3 (hereinafter referred to as ToDo list TB3) in which words indicating the user's travel purpose and ToDo are associated with each other.
  • the ToDo list TB3 is stored in the mass storage device 22 by the control unit 17, for example.
  • control unit 17 converts the voice input by the passenger of the vehicle M into text consisting of character strings using the voice recognition DB 22A. Specifically, the control unit 17 recognizes the voice input by the driver of the vehicle M, "Buy eggs and milk on the way home from work", and converts the voice into text.
  • control unit 17 extracts words indicating the purpose of the user's movement and words indicating the user's ToDo from the text generated by voice recognition. Specifically, the control unit 17 extracts the word “on the way home from work”, which is a word indicating the purpose of the user's movement. In addition, the control unit 17 extracts the words “buy eggs and milk”, which are words indicating the user's ToDo.
  • control unit 17 functions as an information acquisition unit that acquires the first information indicating the user's purpose of movement and the second information indicating the user's ToDo from input information from the user. do.
  • the control unit 17 associates the extracted words indicating the purpose of the user's movement with the words indicating the user's ToDo and stores them as an information set. Specifically, the control unit 17 specifies that the word “on the way home from work” indicating the purpose of the user's movement is coming home from work, and as shown in the ToDo list TB3, "come home from work” is specified. and "buy eggs and milk", which are words indicating the user's ToDo, are associated with each other and stored with an information set ID.
  • the control unit 17 estimates the user's current purpose of movement by referring to the movement pattern TB2. That is, in this embodiment, the control unit 17 functions as an estimation unit that estimates the purpose of the user's movement.
  • the control unit 17 acquires the travel date, travel start time, and travel start position of the vehicle M as the current travel status of the vehicle M. Then, the control unit 17 refers to the movement pattern TB2 described above, and updates the acquired current movement status of the vehicle M to each item of "movement date”, "movement start time”, and "movement start position" of the movement pattern TB2. respectively, to estimate the purpose of movement corresponding to the pattern of movement in question.
  • control unit 17 refers to the movement pattern TB2 and determines whether the vehicle M moves on weekdays as the "movement day”, at night as the "movement start time”, and from the office as the "movement start position”. If so, it is presumed that the user of the vehicle M intends to travel to "come home from work”.
  • the control unit 17 refers to the above-described To-Do list TB3, and if there is a To-Do corresponding to the estimated purpose of travel, specifies that the To-Do is information to be notified. Specifically, the control unit 17 refers to the above-described ToDo list TB3, specifies the information set indicating the estimated "coming home from work", here, the information set with the information set ID "1", and The ToDo information set "buy eggs and milk" is specified as information to be notified to the user.
  • FIG. 6 is a diagram showing a situation in which the control unit 17 of the in-vehicle device 10 notifies the user of the to-do by voice.
  • the control unit 17 notifies the user of notification information including the ToDo using the words "buy eggs and milk" which are the ToDo specified above.
  • the control unit 17 outputs a voice such as "You bought eggs and milk on your way home from work, right?" through the speaker 15 communicably connected to the output unit 21.
  • the speaker 15 is a notification unit that performs notification processing in which the control unit 17 notifies the user of notification information.
  • the user can obtain notification information that ⁇ You were going to buy eggs and milk on your way home from work, wasn't you?'' can do. Then, the user can receive the acquired notification information, for example, without forgetting to purchase eggs and milk by stopping at a supermarket or the like before arriving at home.
  • FIG. 7 An example of a specific operation of the in-vehicle device 10 in this embodiment will be described below with reference to FIGS. 7 and 8.
  • FIG. 7 An example of a specific operation of the in-vehicle device 10 in this embodiment will be described below with reference to FIGS. 7 and 8.
  • FIG. 7 An example of a specific operation of the in-vehicle device 10 in this embodiment will be described below with reference to FIGS. 7 and 8.
  • FIG. 7 is a flowchart showing the ToDo storage routine RT1 executed by the control unit 17 of the in-vehicle device 10.
  • FIG. 7 it is assumed that the user has input the voice "buy eggs and milk on the way home from work" as described above.
  • control unit 17 starts the ToDo storage routine RT1 by turning on the in-vehicle device 10 .
  • the ToDo storage routine RT1 is repeatedly executed by the control unit 17 as long as the in-vehicle device 10 is powered on.
  • the control unit 17 determines whether or not a ToDo storage start operation for the process of storing the user's ToDo has been received (step S101). For example, the control unit 17 determines that an operation for the ToDo storage process has been performed by calling the wake word of the in-vehicle device 10 or inputting a predetermined voice such as "Make a note! do. If the control unit 17 determines that the ToDo storage start operation for the ToDo storage processing has not been received (step S101: NO), it ends the ToDo storage routine RT1.
  • control unit 17 determines that the ToDo storage start operation has been accepted (step S101: YES), it accepts voice input from the user (step S102). For example, as described above, the control unit 17 acquires the voice uttered by the user through the microphone 12 while the vehicle M is moving. In step S102, if there is no voice input from the passenger of the vehicle M within a certain period of time, the ToDo storage routine RT1 may be ended.
  • control unit 17 uses the speech recognition DB 22A of the large-capacity storage device 22 to perform speech recognition on the input speech, and converts the speech into text (step S103).
  • the control unit 17 converts the voice input by the user, "buy eggs and milk on the way home from work", into text consisting of character strings.
  • step S104 the control unit 17 extracts words indicating the purpose of the user's movement and words indicating the user's ToDo from the text as the speech recognition result (step S104). Specifically, the control unit 17 converts the text "on the way home from work to buy eggs and milk” into the words “on the way home from work” indicating the purpose of the user's movement and the words "egg and buy milk 'extract.
  • step S104 the control unit 17 associates the word indicating the purpose of movement and the word indicating ToDo extracted in step S104 and stores them as an information set (step S105). Specifically, as shown in the ToDo list TB3, the control unit 17 associates the word indicating the purpose of travel, ⁇ return from work'', with the word indicating the ToDo, ⁇ buy eggs and milk''. are stored in the mass storage device 22 as an information set. The control unit 17 terminates the ToDo storage routine RT1 after step S105.
  • FIG. 8 is a flowchart showing a ToDo notification routine RT2 executed by the control unit 17 of the in-vehicle device 10. As shown in FIG. In the following description, it is assumed that the user moves from the office to the home in the vehicle M on a weekday night after the voice input is performed, as described above.
  • control unit 17 starts the ToDo notification routine RT2 by turning on the in-vehicle device 10 .
  • the ToDo notification routine RT2 is repeatedly executed by the control unit 17 as long as the in-vehicle device 10 is powered on.
  • control unit 17 determines whether or not the vehicle M has started to move, for example, based on the position information of the vehicle M based on GPS signals (step S201). When the control unit 17 determines that the vehicle M has not started moving (step S201: NO), it ends the ToDo notification routine RT2.
  • control unit 17 determines that the vehicle M has started moving (step S201: YES), it acquires the movement date, movement start time, and movement start position of the vehicle M as the current movement status of the vehicle M (step S202). Specifically, the control unit 17 acquires that the vehicle M starts moving from the office on weekday nights.
  • the control unit 17 estimates the user's current purpose of movement (step S203). Specifically, the control unit 17 refers to the movement pattern TB2 described above to estimate which movement purpose of the user the current movement status of the vehicle M corresponds to. In this embodiment, the control unit 17 estimates that the user's current purpose of travel is "to return home from work” from the travel pattern that the vehicle M travels from the office on weekday nights.
  • step S203 the control unit 17 refers to the ToDo list TB3 to determine whether there is a travel purpose that matches the user's current travel purpose, that is, whether there is a ToDo corresponding to the user's current travel purpose. (step S204).
  • step S204 determines that there is no ToDo corresponding to the current travel purpose (step S204: NO)
  • step S204 ends the ToDo notification routine RT2.
  • control unit 17 determines that there is a To-Do corresponding to the current purpose of travel of the user (step S204: YES), the To-Do is notified to the user via the notification unit (step S205).
  • control unit 17 refers to the above-described ToDo list TB3, specifies the information set indicating the estimated "coming home from work", here, the information set with the information set ID "1", and The ToDo information set "buy eggs and milk” is specified as information to be notified to the user. Then, the control unit 17 causes the speaker 15 to output notification information including the ToDo while the vehicle M is moving from the office on weekday nights. The control unit 17 terminates the ToDo notification routine RT2 after step S205.
  • the ToDo storage routine RT1 and the ToDo notification routine RT2 the user's purpose of travel and the user's ToDo are associated from the input voice and stored as an information set. To-dos to be notified to the user, that is, information to be reminded are notified in a timely manner based on the current travel situation.
  • the user when the user is heading to a predetermined place in the vehicle M and there is something the user wants to do or should do, the user is notified of this at an appropriate timing. Therefore, for example, it is possible to prevent a situation in which the user is unable to obtain his/her own ToDo at an appropriate timing, and thus loses time by turning back in the middle of movement for the ToDo.
  • control unit 17 refers to the movement pattern TB2 and estimates the user's current purpose of movement based on the movement date, movement start time, and movement start point of the vehicle M.
  • the purpose is not limited to this, and the purpose may be estimated based on the movement start point and another one.
  • control unit 17 may estimate the user's purpose of movement based on the "movement start point” and "movement start time” of the movement pattern TB2. Further, the control unit 17 may estimate the purpose of the user's movement based on, for example, the "movement start point” and the “movement date” in the movement pattern TB2.
  • control unit 17 refers to the movement pattern TB2 and estimates the user's current purpose of movement based on the movement date, movement start time, and movement start point of the vehicle M. It is not limited to this.
  • the control unit 17 may estimate the user's current travel purpose from the travel route of the vehicle M in addition to or instead of the travel date, travel start time, and travel start point of the vehicle M described above. .
  • control unit 17 acquires a movement route from a movement start point to a movement end point when the vehicle M starts to move, based on the position information and the map information of the vehicle M, and obtains the movement route.
  • the purpose of movement may be labeled and stored from the route.
  • the control unit 17 acquires a movement route from the movement start point to a point advanced by 1 km, and matches the movement route with the stored movement route. If there is a match, the labeled travel intent may be inferred as the user's current travel intent.
  • control unit 17 refers to the movement pattern TB2 and estimates the user's current purpose of movement based on the movement date, movement start time, and movement start point of the vehicle M. Not limited. For example, in addition to or instead of the movement start date, movement start time, and movement start point indicated by the movement pattern TB2, the control unit 17 may determine the current movement of the user based on the driver and companion of the vehicle M. Purpose may be inferred.
  • an in-vehicle camera that is communicably connected to the in-vehicle device 10 and capable of imaging a passenger of the vehicle M is installed in the front seat portion of the vehicle M, so that the face of the passenger of the vehicle M can be captured. It may be configured to be recognizable.
  • the control unit 17 can register the face data of the family as the faces of the passengers boarding the vehicle M in association with the movement pattern. may be Then, for example, when the user leaves home with his family, the current purpose of movement of the user may be estimated based on the above-described movement pattern and the faces of the passengers of the vehicle M acquired from the in-vehicle camera. .
  • control unit 17 refers to the ToDo list TB3 and outputs the ToDo that matches the purpose of the user's movement as notification information, but the content of the notification information is not limited to this.
  • the notification information may be other information such as the user's schedule instead of the user's ToDo.
  • the control unit 17 presumes that the purpose of the user's movement is "going to work".
  • the control unit 17 since the notification information corresponding to "going out to work" is "this week's schedule", the control unit 17, for example, sends the user's one-week schedule stored in the large-capacity storage device 22 to the speaker 15. You may make it output from.
  • control unit 17 outputs the notification information including the user's ToDo as voice through the speaker 15, but it is not limited to this.
  • the control unit 17 may display notification information including the user's ToDo on the touch panel display 14 in addition to or instead of the speaker 15 .
  • control unit 17 outputs a voice saying "You bought eggs and milk on your way home from work, right?" via the speaker 15, but it is not limited to this.
  • control unit 17 may notify the user of the input voice "buy eggs and milk on the way home from work” as notification information.
  • control unit 17 extracts the purpose of the user's movement and the user's ToDo from the voice input by the user, but the voice may contain other information, and the control unit 17 It is good also as a mode which extracts the other information concerned.
  • the input voice from the user may include words indicating the date and time when the user plans to move for his or her purpose.
  • the voice from the user includes the date and time of movement such as "when I go to the supermarket on September 20th" or "when I go to the department store on this Sunday".
  • the notification information may be output at a timing determined based on the date and time.
  • control unit 17 may output notification information when the vehicle M targeted for estimation moves at a timing determined based on the date and time.
  • the control unit 17 can prevent the notification information from being output until the timing determined based on the date and time is reached, even if the user moves in accordance with the purpose of the movement.
  • the notification information to be notified to the user may have a period of notification.
  • the control unit 17 may notify the user of the notification information repeatedly for a predetermined period while the user is moving in accordance with the purpose of the movement. Further, for example, the control unit 17 may not output notification information when the predetermined period has passed.
  • the control unit 17 when the user's purpose of movement is stored as "going out to a villa", the control unit 17, when the user sets a route with the villa as the destination, may refer to the To-Do list TB3 and output the To-Do corresponding to the purpose of the movement "going out to a villa" as notification information. That is, in the above case, the control unit 17 does not need to refer to the movement pattern TB2 to estimate the current purpose of movement of the user, and directly refers to the ToDo list TB3 when acquiring the movement status of the vehicle M. You may
  • the voice recognition of the input voice performed by the control unit 17 may be performed by AI.
  • AI voice recognition of the input voice performed by the control unit 17
  • the above-described ToDo storage processing and ToDo notification processing are performed by the in-vehicle device 10 mounted on the vehicle M as a moving body.
  • each configuration of the in-vehicle device 10 may be applied to a portable communication terminal that can move with the vehicle, such as a smart phone or a tablet terminal.
  • the above-described ToDo storage processing and ToDo notification processing may be executed by a server device capable of communicating with the in-vehicle device 10 instead of the in-vehicle device 10, and the in-vehicle device 10 receives the result of the processing from the server device. It is good also as an aspect.
  • the voice input to the microphone 12 by the passenger of the vehicle M may be transmitted from the in-vehicle device 10 to the server device, and the To Do storage processing and the To Do notification processing may be performed in the server device. . Then, the in-vehicle device 10 may notify the user of notification information including the user's ToDo transmitted from the server device via the speaker 15 .
  • the notification information including the user's ToDo transmitted from the server device may be configured to be viewable on a portable communication terminal such as a smartphone or tablet terminal that can move with the vehicle.
  • the user inputs voice to a portable communication terminal that can move with the vehicle, such as a smartphone or a tablet terminal, transmits the voice and utterance position from the communication terminal to the server device, and the ToDo storage processing and ToDo notification processing may be performed. Then, the in-vehicle device 10 may receive notification information including the ToDo and notify the user through the speaker 15 .
  • a portable communication terminal that can move with the vehicle
  • the server device transmits the voice and utterance position from the communication terminal to the server device, and the ToDo storage processing and ToDo notification processing may be performed.
  • the in-vehicle device 10 may receive notification information including the ToDo and notify the user through the speaker 15 .
  • control routine shown in the above embodiment is merely an example, and can be appropriately selected and changed according to the application or usage conditions.

Abstract

ユーザからの入力情報を取得するユーザ入力情報取得部と、入力情報から、ユーザの移動の目的を示す第1情報と、当該第1情報によって示される目的のための移動が行われた際にユーザが告知を希望する事項を示す第2情報とを取得する情報取得部と、ユーザが移動している際に、当該移動の目的を推定する推定部と、推定部により推定された目的が第1情報に対応すると判定された場合に、当該推定の対象となった移動中に第2情報を含む告知情報を告知部を介してユーザに向けて告知する告知処理を行う制御部と、を有することを特徴とする。

Description

情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造
 本発明は、情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造に関する。
 ユーザから入力される音声を認識して、認識した内容に対する回答を行う対話型のナビゲーション装置が知られている。例えば、特許文献1には、ユーザから音声入力があった場合に、当該音声から購入する品物及び当該品物の販売店の情報を取得し、ユーザが所定期間内に上記販売店に近づいた際に、品物の購入に関するリマインドをユーザに対して行うナビゲーション装置が開示されている。
特開2021-51590号公報
 特許文献1に記載のナビゲーション装置においては、例えば、ユーザが所定期間中に移動している際に上記販売店に一度も近づくことがなかった場合、ユーザが品物の購入に関するリマインドを受け取ることができないことが問題の1つとして挙げられる。また、例えば、ユーザが業務中であって買い物に立ち寄れない状況下でたまたま販売店に近づいた際にも、ユーザが品物の購入に関するリマインドを受け取ることになり、ユーザがこれを煩わしく感じることが問題の1つとして挙げられる。
 本発明は、上記した点に鑑みてなされたものであり、状況に応じて適切なタイミングでユーザに告知すべき情報をリマインドすることが可能な情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造を提供することを目的とする。
 請求項1に記載の情報処理装置は、ユーザからの入力情報を取得するユーザ入力情報取得部と、前記入力情報から、前記ユーザの移動の目的を示す第1情報と、当該第1情報によって示される目的のための移動が行われた際に前記ユーザが告知を希望する事項を示す第2情報とを取得する情報取得部と、前記ユーザが移動している際に、当該移動の目的を推定する推定部と、前記推定部により推定された目的が前記第1情報に対応すると判定された場合に、当該推定の対象となった移動中に前記第2情報を含む告知情報を告知部を介して前記ユーザに向けて告知する告知処理を行う制御部と、を有することを特徴とする。
 請求項12に記載の情報処理方法は、情報処理装置が実行する情報処理方法であって、ユーザからの入力情報を取得するユーザ入力情報取得ステップと、前記入力情報から、前記ユーザの移動の目的を示す第1情報と、当該第1情報によって示される目的のための移動が行われた際に前記ユーザが告知を希望する事項を示す第2情報とを取得する情報取得ステップと、前記ユーザが移動している際に、当該移動の目的を推定する推定ステップと、前記推定ステップにおいて推定された目的が前記第1情報に対応すると判定された場合に、当該推定の対象となった移動中に前記第2情報を含む告知情報を告知部を介して前記ユーザに向けて告知する告知処理を行う制御ステップと、を有することを特徴とする。
 請求項13に記載のプログラムは、コンピュータに実行させるためのプログラムであって、ユーザからの入力情報を取得するユーザ入力情報取得ステップと、前記入力情報から、前記ユーザの移動の目的を示す第1情報と、当該第1情報によって示される目的のための移動が行われた際に前記ユーザが告知を希望する事項を示す第2情報とを取得する情報取得ステップと、前記ユーザが移動している際に、当該移動の目的を推定する推定ステップと、前記推定ステップにおいて推定された目的が前記第1情報に対応すると判定された場合に、当該推定の対象となった移動中に前記第2情報を含む告知情報を告知部を介して前記ユーザに向けて告知する告知処理を行う制御ステップと、を前記コンピュータに実行させることを特徴とする。
 請求項14に記載の記録媒体は、上記プログラムが記録されている記録媒体である。
 請求項15に記載のデータ構造は、ユーザが移動している際に前記ユーザの移動の目的を推定する推定部及び告知情報を告知部を介して前記ユーザに告知させる制御部を有する情報処理装置に用いられるデータ構造であって、前記ユーザの移動の目的を示す第1情報と、前記第1情報によって示される目的のための移動が行われた際に前記ユーザが告知を希望する事項を示す第2情報と、を含み、前記推定部が、前記ユーザが移動している際に、前記推定部が当該移動の目的を推定する処理と、前記制御部が、前記推定部により推定された目的が前記第1情報に対応すると判定された場合に、当該推定の対象となった移動中に前記第2情報を含む前記告知情報を前記告知部を介して前記ユーザに告知する処理と、に用いられることを特徴とする。
実施例1に係る車両の前席部分の構成及び車内の状況を示す図である。 実施例1に係る情報処理装置の構成の一例を示すブロック図である。 実施例1に係る情報処理装置に格納される車両の移動履歴の一例を示す表である。 実施例1に係る情報処理装置に格納される車両の移動パターンの一例を示す表である。 実施例1に係る情報処理装置に記憶されるToDoリストの一例を示す表である。 実施例1に係る情報処理装置からユーザに対して告知情報を告知している状況を示す図である。 実施例1に係る情報処理装置の制御ルーチンを示すフローチャートである。 実施例1に係る情報処理装置の制御ルーチンを示すフローチャートである。
 以下、本発明の実施例について図面を参照して具体的に説明する。なお、図面において同一の構成要素については同一の符号を付け、重複する構成要素の説明は省略する。
 図1は、実施例1に係る移動体としての車両Mの前席部分及び車両M内の状況を示す図である。車載装置10は、車両M内に設置されたマイク12、GPS受信機13、タッチパネルディスプレイ14及びスピーカー15の各々に接続されており、これらを制御する制御部を含む。車載装置10は、例えば、車両Mの前席のダッシュボードDB内の中央部に配置されている。
 マイク12は、車内の音、例えば車両Mの運転者が発した音声を受けて電気信号に変換する音声入力装置である。本実施例において、マイク12は、ダッシュボードDB上に配されている。
 GPS受信機13は、GPS(Global Positioning System)衛星からの信号(GPS信号)を受信する受信機である。GPS受信機13は、受信したGPS信号を車載装置10に送信する。本実施例において、GPS受信機13は、ダッシュボードDB上に配されている。
 タッチパネルディスプレイ14は、車載装置10の制御に基づいて画面表示を行うディスプレイと、車両Mの搭乗者からの入力操作を受け付けるタッチパネルとが組み合わされている表示装置である。タッチパネルディスプレイ14には、例えば、地図に車両Mの現在の位置が重畳されたナビゲーション画像が表示される。本実施例において、タッチパネルディスプレイ14は、ダッシュボードDBの中央部に配されている。
 スピーカー15は、車載装置10の制御に基づいて音声を出力する音声出力装置である。本実施例において、スピーカー15は、2つのAピラーAPの各々にそれぞれ設けられている。
 上記した車両Mの前席部分における車載装置10、マイク12、GPS受信機13、タッチパネルディスプレイ14及びスピーカー15の各々の位置は例示に過ぎず、これらは他の位置に配されていてもよい。
 図1においては、車載装置10のユーザ、例えば車両Mの運転者が、車両Mでの移動中に発話による音声の入力を行っている様子を示している。図1においては、ユーザが、例えば家から会社に向かう出勤時に家に卵と牛乳がないことを思い出したことをして、マイク12に向けて「仕事帰りに卵と牛乳を買う」という音声を入力している。
 本実施例において、車載装置10は、車載装置10のユーザからの音声を音声認識可能に構成されている。すなわち、車載装置10は、車両Mの運転者の発話によって入力された音声を文字列からなるテキストに変換する。
 本実施例において、車載装置10は、入力された音声の音声認識によって生成されたテキストから、第1情報としてのユーザの移動の目的を示す言葉を抽出して取得する。ユーザの移動の目的を示す言葉とは、例えばユーザが車両Mで所定の場所へ向かう行動を示す言葉である。
 また、本実施例において、車載装置10は、入力音声の音声認識によって生成されたテキストから、上記第1情報によって示される目的のための移動が行われた際に、第2情報としてのユーザが告知を希望する事項を示す言葉を特定する。本実施例において、ユーザが告知を希望する事項を示す言葉とは、ユーザ自身がしなければいけないこと(以下、ToDoとも称する)を示す言葉である。
 本実施例において、車載装置10は、第1情報としてのユーザの移動の目的を示す言葉と、第2情報としてのユーザが告知を希望する事項とを対応させて記憶する。
 本実施例において、車載装置10は、車両Mが移動を開始している際に、ユーザの現在の移動の目的を推定する。車載装置10は、推定したユーザの現在の移動の目的と一致する上記第1情報としての移動の目的がある場合に、当該第1情報としての移動の目的に対応する上記第2情報としてのユーザが告知を希望する事項を示す言葉を含む告知情報をユーザに対して告知する。
 図2は、実施例1に係る車載装置10の構成の一例を示すブロック図である。本実施例において、車載装置10は、システムバス16を介して、制御部17と、通信部18と、入力部19と、出力部21と、大容量記憶装置22とが協働する装置である。
 制御部17は、CPU(Central Processing Unit)17A、ROM(Read Only Memory)17B、RAM(Random Access Memory)17C等により構成され、コンピュータとして機能する。そして、CPU17Aが、ROM17Bや大容量記憶装置22に記憶されている各種プログラムを読み出し実行することにより各種機能を実現する。
 各種プログラムは、例えば、他のサーバ装置等からネットワークを介して取得されるようにしてもよいし、記録媒体に記録されて各種ドライブ装置を介して読み込まれるようにしてもよい。すなわち、大容量記憶装置22に記憶される各種プログラム(後述する車載装置10における処理を実行するためのプログラムを含む)は、ネットワークを介して伝送可能であるし、また、コンピュータ読み取り可能な記録媒体に記録して譲渡することが可能である。
 通信部18は、制御部17の指示に従って外部機器とデータの送受信を行う通信装置である。通信部18は、例えば、ネットワークに接続するためのNIC(Network Interface Card)である。車載装置10とネットワークとの接続は、例えば、3G(3rd Generation)、4G(4th Generation)又は5G(5th Generation)等の移動体通信、Wi-Fi(登録商標)等の無線通信によりなされ得る。
 入力部19は、車載装置10の制御部17と、マイク12、GPS受信機13、タッチパネルディスプレイ14とを通信可能に接続しているインタフェース部である。本実施例において、制御部17は、ユーザから入力された音声を示す音声情報を入力部19を介して取得する。言い換えれば、制御部17は、ユーザからの入力情報を取得するユーザ入力情報取得部として機能する。
 出力部21は、タッチパネルディスプレイ14及びスピーカー15と通信可能に接続されているインタフェース部である。制御部17は、出力部21を介して、タッチパネルディスプレイ14に映像または画像信号を送信して表示をさせたり、スピーカー15に音声信号を送信して音を出力させたりすることが可能である。
 大容量記憶装置22は、例えば、ハードディスク装置、SSD(solid state drive)、フラッシュメモリ等により構成されており、オペレーティングシステムや、端末用のソフトウェア等の各種プログラムを記憶する記憶デバイスである。
 大容量記憶装置22の音声認識用データベース(以下、音声認識用DBと称する)22Aは、入力音声の音声認識で用いるための言語モデルや発音辞書等が格納されているデータベースである。制御部17は、ユーザから音声が入力された際に、音声認識用DB22Aを参照して音声認識を実行し、当該音声を文字列からなるテキストに変換する。
 大容量記憶装置22の移動履歴情報データベース(以下、移動履歴情報DBと称する)22Bは、例えばユーザが車両Mで所定の場所へ移動したときの、移動日時や移動開始地点を含む移動の状況を示すデータが格納されているデータベースである。
 以下に、移動履歴情報DB22Bに格納されているデータの一例について、図3及び図4を用いて説明する。
 図3は、車両Mの移動履歴を示す表TB1(以下、移動履歴TB1とも称する)である。移動履歴TB1には、例えば、GPS信号に基づく車両Mの位置情報と地図情報とに基づいて特定された車両Mの過去の移動状況を示す情報が示されている。
 具体的には、移動履歴TB1において、一番左の「移動日」欄には、ユーザが車両Mで移動したときの移動日が示されている。また、左から2番目の「移動開始時間」欄には、ユーザが車両Mで上記移動日に移動を開始した時間、すなわち移動の出発時間が示されている。
 また、移動履歴TB1において、左から3番目の「移動開始地点」欄には、上記移動開始時間にユーザが車両Mで移動開始した地点、すなわち移動の出発地点が示されている。また、左から4番目の「移動終了地点」欄には、ユーザが車両Mで移動を終了した地点、すなわち移動の到着地点が示されている。
 移動履歴TB1において、一番右の「移動の目的」欄には、制御部17が上記した「移動日」、「移動開始時間」、「移動開始地点」及び「移動終了地点」を加味して算出した、各々の移動に対するラベルとしての移動の目的が示されている。
 例えば、制御部17は、車両Mの「移動開始地点」が会社で、「移動終了地点」が自宅であるときに、この移動が仕事から家に帰るものであると特定し、「仕事からの帰宅」というラベリングを実施する。そして、制御部17は、当該ラベリングを実施する際に上記移動が行われた移動日及び移動開始時間を記録する。すなわち、制御部17は、車両Mの「移動日」が木曜日で、「移動開始時間」が18時半であることを記録する。
 また、例えば、制御部17は、車両Mの「移動開始地点」が自宅で、「移動終了地点」がスーパーであるときに、この移動が家から買い物に行くものであると特定し、「買い物への外出」というラベリングを実施する。そして、制御部17は、当該ラベリングを実施する際に車両Mの「移動日」が土曜で、「移動開始時間」が17時半であることを記録する。
 また、例えば、制御部17は、車両Mの「移動開始地点」が自宅で、「移動終了地点」が別荘であるときに、この移動が別荘に行くものであると特定し、「別荘への外出」というラベリングを実施する。そして、制御部17は、当該ラベリングを実施する際に車両Mの「移動日」が日曜で、「移動開始時間」が9時であることを記録する。
 本実施例において、制御部17による上記ラベリングは、車両Mによって連続的又は間欠的にある程度繰り返し実施され、習慣化されている移動を対象としている。すなわち、制御部17は、繰り返し実施されている車両Mの移動状況に基づいて、当該車両Mの移動が何を目的としたものであるのかを特定してラベリングする。
 図4は、上記移動履歴TB1に基づいて制御部17によって作成され、移動履歴情報DB22Bに格納されている車両Mの移動パターンを示す表TB2(以下、移動パターンTB2とも称する)である。
 移動パターンTB2には、例えば、移動履歴TB1において移動開始地点及び移動の目的が互いに共通するもの同士の移動状況を集約させた結果としての、車両Mによる「移動の目的」に対応する「移動開始地点」、「移動日(平日又は休日)」及び「移動開始時間」がそれぞれ示されている。
 例えば、移動パターンTB2において、「移動の目的」が「仕事からの帰宅」である場合、その移動パターンとして、「移動開始地点」が会社であり、「移動日」が平日であり、「移動開始時間」が18時半から19時半の間であると設定される。
 また、例えば、移動パターンTB2において、「移動の目的」が「買い物への外出」である場合、その移動パターンとして、「移動開始地点」が自宅であり、「移動日」が休日であり、「移動開始時間」が16時半から17時半の間であると設定される。
 また、例えば、移動パターンTB2において、「移動の目的」が「別荘への外出」である場合、その移動パターンとして、「移動開始地点」が自宅であり、「移動日」が休日であり、「移動開始時間」が8時から11時の間であると設定される。
 [移動の目的及びToDoの抽出処理]
 以下に、本実施例において制御部17が実行する、入力音声からユーザの移動の目的及びToDoを示す言葉を抽出する処理の一例について説明する。以下の説明においては、上記にて説明したように、車両Mでユーザが自宅から会社に向かう際に、ユーザから「仕事帰りに卵と牛乳を買う」という音声が入力されたものとして説明する。
 図5は、ユーザの移動の目的及びToDoを示す言葉を互いに対応させた情報セットの表TB3(以下、ToDoリストTB3と称する)である。ToDoリストTB3は、例えば、制御部17によって大容量記憶装置22に記憶される。
 本実施例において、制御部17は、車両Mの搭乗者から入力された音声を、上記した音声認識用DB22Aを用いて文字列からなるテキストに変換する。具体的には、制御部17は、車両Mの運転者から入力された「仕事帰りに卵と牛乳を買う」との音声を音声認識してテキストに変換する。
 そして、制御部17は、音声認識によって生成されたテキストからユーザの移動の目的を示す言葉と、ユーザのToDoを示す言葉とを抽出する。具体的には、制御部17は、ユーザの移動の目的を示す言葉である「仕事帰りに」との言葉を抽出する。また、制御部17は、ユーザのToDoを示す言葉である「卵と牛乳を買う」との言葉を抽出する。
 すなわち、本実施例において、制御部17は、ユーザからの入力情報から当該ユーザの移動の目的を示す上記第1情報と、ユーザのToDoを示す上記第2情報とを取得する情報取得部として機能する。
 制御部17は、抽出したユーザの移動の目的を示す言葉と、ユーザのToDoを示す言葉とを対応付けて情報セットとして記憶する。具体的には、制御部17は、ユーザの移動の目的を示す言葉である「仕事帰りに」が仕事からの帰宅であると特定し、ToDoリストTB3に示すように、「仕事からの帰宅」とユーザのToDo示す言葉である「卵と牛乳を買う」とを対応付けて情報セットIDを付して記憶する。
 [ToDoの告知処理]
 以下に、本実施例において制御部17が実行する、ToDoを告知する処理の一例について説明する。以下の説明においては、上記音声入力がなされた後、平日の夜にユーザが車両Mで会社から自宅に向けて移動しているものとして説明する。
 制御部17は、例えば位置情報に基づいて車両Mが移動を開始していると判定した場合に、上記した移動パターンTB2を参照してユーザの現在の移動の目的を推定する。すなわち、本実施例において、制御部17は、ユーザの移動の目的を推定する推定部として機能する。
 本実施例において、制御部17は、車両Mの現在の移動状況として、車両Mの移動日、移動開始時間及び移動開始位置を取得する。そして、制御部17は、上記した移動パターンTB2を参照して、取得した車両Mの現在の移動状況を移動パターンTB2の「移動日」、「移動開始時間」及び「移動開始位置」の各項目にそれぞれ照らし合わせて、該当する移動のパターンに対応する移動の目的を推定する。
 具体的には、制御部17は、移動パターンTB2を参照して、車両Mが「移動日」として平日に、「移動開始時間」として夜に、そして「移動開始位置」として会社から移動している場合に、当該車両Mのユーザが「仕事からの帰宅」を移動の目的としているものと推定する。
 そして、制御部17は、上記したToDoリストTB3を参照して、推定した移動の目的に対応するToDoがある場合に、当該ToDoを告知すべき情報であると特定する。具体的には、制御部17は、上記したToDoリストTB3を参照して、推定した「仕事からの帰宅」を示す情報セットを、ここでは情報セットID「1」の情報セットを特定し、当該情報セットのToDoである「卵と牛乳を買う」をユーザに告知すべき情報であると特定する。
 ここで、車載装置10における告知情報の出力について図6を用いて説明する。図6は、車載装置10の制御部17からToDoを示す音声をユーザに対して告知している状況を示す図である。本実施例において、制御部17は、上記にて特定したToDoである「卵と牛乳を買う」との言葉を用いて、ユーザに対して当該ToDoを含む告知情報を告知する。
 具体的には、制御部17は、図6に示すように、出力部21と通信可能に接続されているスピーカー15を介して「仕事帰りに卵と牛乳を買うんでしたよね」といった音声を出力させる。すなわち、本実施例において、スピーカー15は、制御部17がユーザに向けて告知情報を告知する告知処理を行う告知部である。
 これにより、ユーザは、会社から自宅に向けて移動している最中に、言い換えれば自宅に到着してしまう前に、「仕事帰りに卵と牛乳を買うんでしたよね」との告知情報を取得することができる。そして、ユーザは、取得した告知情報を受けて、例えば、自宅に到着する前にスーパー等に立ち寄って卵と牛乳とを忘れずに購入することができる。
 以下に、本実施例における車載装置10の具体的な動作の一例について図7及び図8を用いて説明する。
 図7は、車載装置10の制御部17において実行されるToDo記憶ルーチンRT1を示すフローチャートである。以下においては、上記にて説明したのと同様に、ユーザから「仕事帰りに卵と牛乳を買う」という音声が入力されたとして説明する。
 制御部17は、例えば、車載装置10に電源が投入されたことをしてToDo記憶ルーチンRT1を開始する。なお、ToDo記憶ルーチンRT1は、車載装置10の電源が入っている限り制御部17によって繰り返し実行される。
 まず、制御部17は、ユーザのToDoを記憶する処理のためのToDo記憶開始操作を受け付けたか否かを判定する(ステップS101)。制御部17は、例えば、ユーザによって車載装置10のウェイクワードを呼ぶことや「メモして!」などの所定の音声入力がなされたことをして、ToDo記憶処理のための操作がなされたと判定する。制御部17は、ToDo記憶処理のためのToDo記憶開始操作を受け付けていないと判定すると(ステップS101:NO)、ToDo記憶ルーチンRT1を終了する。
 制御部17は、ToDo記憶開始操作を受け付けたと判定すると(ステップS101:YES)、ユーザからの発話による音声入力を受け付ける(ステップS102)。例えば、制御部17は、上記したように、車両Mでの移動中にマイク12を介してユーザからの発話による音声を取得する。なお、ステップS102において、一定時間内に車両Mの搭乗者からの音声入力がない場合は、ToDo記憶ルーチンRT1を終了するようにしてもよい。
 制御部17は、ステップS102の後に、大容量記憶装置22の音声認識用DB22Aを用いて、入力された音声に対して音声認識を実施し、当該音声をテキストに変換する(ステップS103)。本実施例において、制御部17は、ユーザによって入力された「仕事帰りに卵と牛乳を買う」との音声を文字列からなるテキストに変換する。
 制御部17は、ステップS103の後に、音声認識結果としてのテキストからユーザの移動の目的を示す言葉と、ユーザのToDoを示す言葉とを抽出する(ステップS104)。具体的には、制御部17は、「仕事帰りに卵と牛乳を買う」とのテキストから、ユーザの移動の目的を示す言葉である「仕事帰りに」と、ToDoを示す言葉である「卵と牛乳を買う」とを抽出する。
 制御部17は、ステップS104の後に、ステップS104にて抽出した移動の目的を示す言葉とToDoを示す言葉とを対応付けて情報セットとして記憶する(ステップS105)。具体的には、制御部17は、上記ToDoリストTB3に示すように、移動の目的を示す言葉である「仕事帰り」と、ToDoを示す言葉である「卵と牛乳を買う」とを対応付けて情報セットとして大容量記憶装置22に記憶させる。制御部17は、ステップS105の後にToDo記憶ルーチンRT1を終了する。
 次に制御部17によって実行されるToDoの告知処理について説明する。図8は、車載装置10の制御部17において実行されるToDo告知ルーチンRT2を示すフローチャートである。以下においては、上記にて説明したのと同様に、上記音声入力がなされた後に、平日の夜にユーザが車両Mで会社から自宅に向けて移動しているものとして説明する。
 制御部17は、例えば、車載装置10に電源が投入されたことをしてToDo告知ルーチンRT2を開始する。なお、ToDo告知ルーチンRT2は、車載装置10の電源が入っている限り制御部17によって繰り返し実行される。
 まず、制御部17は、例えばGPS信号による車両Mの位置情報に基づいて、車両Mが移動を開始しているか否かを判定する(ステップS201)。制御部17は、車両Mが移動を開始していないと判定すると(ステップS201:NO)、ToDo告知ルーチンRT2を終了する。
 制御部17は、車両Mが移動を開始していると判定すると(ステップS201:YES)、車両Mの現在の移動状況として、車両Mの移動日、移動開始時間及び移動開始位置を取得する(ステップS202)。具体的には、制御部17は、車両Mが平日の夜に会社から移動を開始していることを取得する。
 制御部17は、ステップS202の後に、ユーザの現在の移動の目的を推定する(ステップS203)。具体的には、制御部17は、上記した移動パターンTB2を参照して、車両Mの現在の移動状況がユーザのどの移動の目的に該当するのかを推定する。本実施例において、制御部17は、車両Mが平日の夜に会社から移動しているという移動パターンから、ユーザの現在の移動の目的が「仕事からの帰宅」であると推定する。
 制御部17は、ステップS203の後に、ToDoリストTB3を参照し、ユーザの現在の移動の目的と合致する移動の目的があるか、すなわちユーザの現在の移動の目的に対応するToDoがあるか否かを判定する(ステップS204)。制御部17は、現在の移動の目的に対応するToDoがないと判定すると(ステップS204:NO)、ToDo告知ルーチンRT2を終了する。
 制御部17は、ユーザの現在の移動の目的に対応するToDoがあると判定すると(ステップS204:YES)、車両Mが推定の対象となった移動中に、現在の移動の目的に対応するToDoを告知部を介してユーザに向けて告知処理を行う(ステップS205)。
 具体的には、制御部17は、上記したToDoリストTB3を参照して、推定した「仕事からの帰宅」を示す情報セットを、ここでは情報セットID「1」の情報セットを特定し、当該情報セットのToDoである「卵と牛乳を買う」をユーザに告知すべき情報であると特定する。そして、制御部17は、車両Mが平日の夜に会社から移動している最中に、ToDoを含む告知情報をスピーカー15から出力させる。制御部17は、ステップS205の後にToDo告知ルーチンRT2を終了する。
 本実施例によれば、上記したToDo記憶ルーチンRT1及びToDo告知ルーチンRT2により、入力された音声からユーザの移動の目的とユーザのToDoとが対応付けて情報セットとして記憶されると共に、車両Mの現在の移動状況に基づいてタイミングよくユーザに告知すべきToDo、すなわちリマインドすべき情報が告知される。
 本実施例によれば、例えば、ユーザが車両Mで所定の場所に向かうついでにユーザが行いたいことや行うべきことがある場合に、これらを適切なタイミングでユーザに告知してくれる。そのため、例えば、ユーザが自身のToDoを適切なタイミングで取得できないために、当該ToDoのために移動の途中で引き返して時間のロスが生じてしまうことを防ぐことができる。
 従って、本実施例によれば、状況に応じて適切なタイミングでユーザにToDoをリマインドすることが可能である。
 なお、本実施例において、制御部17は、上記した移動パターンTB2を参照し、車両Mの移動日、移動開始時間及び移動開始地点に基づいてユーザの現在の移動の目的を推定するとしたが、これに限られず、移動開始地点と他の1つとに基づいて当該目的を推定してもよい。
 例えば、制御部17は、移動パターンTB2のうち「移動開始地点」と「移動開始時間」とに基づいてユーザの移動の目的を推定してもよい。また、制御部17は、例えば、移動パターンTB2のうち「移動開始地点」と「移動日」とに基づいてユーザの移動の目的を推定してもよい。
 また、本実施例において、制御部17は、上記した移動パターンTB2を参照し、車両Mの移動日、移動開始時間及び移動開始地点に基づいてユーザの現在の移動の目的を推定するとしたが、これに限られない。例えば、制御部17は、上記した車両Mの移動日、移動開始時間及び移動開始地点に加えて又はこれに代えて、車両Mの移動経路からユーザの現在の移動の目的を推定してもよい。
 具体的には、制御部17は、例えば、車両Mの位置情報及び地図情報に基づいて、車両Mが移動を開始した際の移動開始地点から移動終了地点までの移動経路を取得し、当該移動経路から移動の目的をラベリングして記憶するようにしてもよい。
 そして、制御部17は、例えば、車両Mが移動を開始した際の、移動開始地点から1km進行した地点までの移動経路を取得して、当該移動経路と上記記憶している移動経路とが合致している場合に、ラベリングされた移動の目的をユーザの現在の移動の目的として推定してもよい。
 本実施例において、制御部17は、上記した移動パターンTB2を参照し、車両Mの移動日、移動開始時間及び移動開始地点に基づいてユーザの現在の移動の目的を推定するとしたが、これに限られない。例えば制御部17は、上記した移動パターンTB2が示す移動開始日や移動開始時間、移動開始地点に加えて又はこれに代えて、車両Mの運転者及び同行者に基づいてユーザの現在の移動の目的を推定してもよい。
 具体的には、例えば、車両Mの前席部分に、車載装置10に通信可能に接続されかつ車両Mの搭乗者を撮像可能な車内カメラを設置することで、車両Mの搭乗者の顔を認識可能に構成されていてもよい。
 制御部17は、例えば、ユーザの移動の目的が「家族でデパートに行く」ことである場合に、車両Mに搭乗する搭乗者の顔ぶれとして家族の顔のデータを移動パターンに紐付けて登録可能であってもよい。そして、例えば、ユーザが家族で家を出発した際に、上記した移動パターン及び上記車内カメラから取得した車両Mの搭乗者の顔ぶれに基づいて、ユーザの現在の移動の目的を推定してもよい。
 本実施例において、制御部17は、ToDoリストTB3を参照してユーザの移動の目的に合致するToDoを告知情報として出力するとしたが、当該告知情報の内容はこれに限られない。例えば、告知情報は、ユーザのToDoに代えて、ユーザのスケジュール等の他の情報であってもよい。
 具体的には、例えば、ユーザから「仕事に行くときに今週のスケジュールを教えて」との音声入力がなされた後に、ユーザが月曜日の朝に家から車両Mで移動している場合、制御部17は、ユーザの移動の目的が「仕事への外出」であると推定する。
 そして、制御部17は、「仕事への外出」に対応する告知情報が「今週のスケジュール」であることから、例えば、大容量記憶装置22に記憶されているユーザの一週間のスケジュールをスピーカー15から出力させるようにしてもよい。
 本実施例において、制御部17は、スピーカー15を介してユーザのToDoを含む告知情報を音声として出力するとしたが、これに限られない。例えば、制御部17は、スピーカー15に加えて又はこれに代えてタッチパネルディスプレイ14にユーザのToDoを含む告知情報を表示させる態様としてもよい。
 本実施例において、制御部17は、スピーカー15を介して「仕事帰りに卵と牛乳を買うんでしたよね」という音声を出力するとしたが、これに限られない。例えば、制御部17は、入力した音声である「仕事帰りに卵と牛乳を買う」という音声を告知情報としてそのままユーザに対して告知するようにしてもよい。
 本実施例において、制御部17がユーザによって入力された音声からユーザの移動の目的及びユーザのToDoを抽出するとしたが、当該音声には他の情報が含まれていてもよく、制御部17が当該他の情報を抽出する態様としてもよい。
 例えば、ユーザからの入力音声には、ユーザの目的のための移動を予定している日時を示す言葉が含まれていてもよい。例えば、制御部17は、ユーザからの音声に「9月20日にスーパーに行くときに…」や「今度の日曜日にデパートに行くときに…」などの移動の日時が含まれている場合に、当該日時に基づいて決まるタイミングにて告知情報を出力するようにしてもよい。
 例えば、制御部17は、推定の対象となった車両Mの移動が、上記日時に基づいて決まるタイミングでなされている際に、告知情報を出力するようにしてもよい。言い換えれば、制御部17は、上記日時に基づいて決まるタイミングになるまでは、ユーザの移動の目的に合致する移動がなされたとしても告知情報を出力しないようにすることができる。
 なお、本実施例において、ユーザに対して告知される告知情報には、告知する期間が定められていてもよい。例えば、制御部17は、ユーザが移動の目的に対応する移動を行っている際に、ユーザに対して、所定期間の間繰り返し告知情報を告知するようにしてもよい。また、例えば、制御部17は、上記所定期間を過ぎた場合には告知情報を出力しないようにしてもよい。
 本実施例において、制御部17は、例えば、ユーザの移動の目的が「別荘への外出」であると記憶されている場合に、ユーザによって当該別荘を目的地とする経路設定がなされた際には、ToDoリストTB3を参照して「別荘への外出」という移動の目的に対応するToDoを告知情報として出力するようにしてもよい。すなわち、上記の場合、制御部17は、移動パターンTB2を参照してユーザの現在の移動の目的を推定しなくてもよく、車両Mの移動状況を取得した際に、そのままToDoリストTB3を参照してもよい。
 本実施例において、制御部17によってなされる入力音声の音声認識は、AIによってなされてもよい。例えば、ユーザの発話によって入力された音声を、発話辞書や言語モデルを学習させた学習モデルを有するAIに入力し、その出力としての文字列からなるテキストを取得する態様としてもよい。
 本実施例においては、上記したToDo記憶処理及びToDo告知処理を、移動体としての車両Mに搭載されている車載装置10が実行する例を示したが、当該処理を実行可能な装置構成であればこれに限られない。例えば、車載装置10の各々の構成を、スマートフォンやタブレット端末等の、車両と共に移動可能な持ち運び可能な通信端末に適用してもよい。
 また、例えば、上記したToDo記憶処理及びToDo告知処理は、車載装置10の代わりに車載装置10と通信可能なサーバ装置によって実行されてもよく、車載装置10が当該処理の結果をサーバ装置から受け取る態様としてもよい。
 具体的には、例えば、車両Mの搭乗者からマイク12に入力された音声を車載装置10からサーバ装置に送信し、当該サーバ装置においてToDo記憶処理及びToDo告知処理がなされるようにしてもよい。そして、車載装置10が、サーバ装置から送信されるユーザのToDoを含む告知情報を、スピーカー15を介してユーザに告知させるようにしてもよい。
 また、上記サーバ装置から送信されるユーザのToDoを含む告知情報を、スマートフォンやタブレット端末等の、車両と共に移動可能な持ち運び可能な通信端末で閲覧可能に構成されていてもよい。
 また、ユーザは、スマートフォンやタブレット端末等の、車両と共に移動可能な持ち運び可能な通信端末に音声入力し、当該通信端末から音声及び発話位置をサーバ装置に送信し、当該サーバ装置においてToDo記憶処理及びToDo告知処理がなされるようにしてもよい。そして、車載装置10が、ToDoを含む告知情報を受信し、スピーカー15を介してユーザに告知させるようにしてもよい。
 上記した実施例において示した制御ルーチンは例示に過ぎず、用途または使用条件等に応じて適宜選択及び変更可能である。
10 車載装置
12 マイク
13 GPS受信機
14 タッチパネルディスプレイ
15 スピーカー
16 システムバス
17 制御部
18 通信部
19 入力部
21 出力部
22 大容量記憶装置

Claims (15)

  1.  ユーザからの入力情報を取得するユーザ入力情報取得部と、
     前記入力情報から、前記ユーザの移動の目的を示す第1情報と、当該第1情報によって示される目的のための移動が行われた際に前記ユーザが告知を希望する事項を示す第2情報とを取得する情報取得部と、
     前記ユーザが移動している際に、当該移動の目的を推定する推定部と、
     前記推定部により推定された目的が前記第1情報に対応すると判定された場合に、当該推定の対象となった移動中に前記第2情報を含む告知情報を告知部を介して前記ユーザに向けて告知する告知処理を行う制御部と、
     を有することを特徴とする情報処理装置。
  2.  前記入力情報は、前記ユーザの発話によって入力される音声であることを特徴とする請求項1に記載の情報処理装置。
  3.  前記推定部は、前記入力情報から前記ユーザが前記第1情報によって示される目的のための移動を予定している日時を特定し、前記推定の対象となった移動のタイミングと、前記日時とに基づいて前記ユーザの移動の目的を推定することを特徴とする請求項1又は2に記載の情報処理装置。
  4.  前記推定部は、前記ユーザの移動開始時間及び前記ユーザの移動開始地点に基づいて前記ユーザの移動の目的を推定することを特徴とする請求項1又は2に記載の情報処理装置。
  5.  前記推定部は、前記ユーザが移動する曜日及び前記ユーザの移動開始地点に基づいて前記ユーザの移動の目的を推定することを特徴とする請求項1又は2に記載の情報処理装置。
  6.  前記推定部は、前記ユーザと共に移動する同行者に基づいて前記ユーザの移動の目的を推定することを特徴とする請求項1又は2に記載の情報処理装置。
  7.  前記第2情報は、前記第1情報によって示される目的のための移動が行われた際に前記ユーザが行うことを希望する行動であることを特徴とする請求項1乃至6のいずれか1つに記載の情報処理装置。
  8.  前記制御部は、前記告知処理において前記告知情報を音声を介して前記ユーザに告知することを特徴とする請求項1乃至7のいずれか1つに記載の情報処理装置。
  9.  前記制御部は、前記告知処理において前記入力情報を前記ユーザに告知することを特徴とする請求項8に記載の情報処理装置。
  10.  前記制御部は、前記告知処理において前記告知情報を視覚的に前記ユーザに告知することを特徴とする請求項1乃至8のいずれか1つに記載の情報処理装置。
  11.  前記第1情報は前記ユーザの移動の目的地を含むことを特徴とする請求項1乃至10のいずれか1つに記載の情報処理装置。
  12.  情報処理装置が実行する情報処理方法であって、
     ユーザからの入力情報を取得するユーザ入力情報取得ステップと、
     前記入力情報から、前記ユーザの移動の目的を示す第1情報と、当該第1情報によって示される目的のための移動が行われた際に前記ユーザが告知を希望する事項を示す第2情報とを取得する情報取得ステップと、
     前記ユーザが移動している際に、当該移動の目的を推定する推定ステップと、
     前記推定ステップにおいて推定された目的が前記第1情報に対応すると判定された場合に、当該推定の対象となった移動中に前記第2情報を含む告知情報を告知部を介して前記ユーザに向けて告知する告知処理を行う制御ステップと、
     を有することを特徴とする情報処理方法。
  13.  コンピュータに実行させるためのプログラムであって、
     ユーザからの入力情報を取得するユーザ入力情報取得ステップと、
     前記入力情報から、前記ユーザの移動の目的を示す第1情報と、当該第1情報によって示される目的のための移動が行われた際に前記ユーザが告知を希望する事項を示す第2情報とを取得する情報取得ステップと、
     前記ユーザが移動している際に、当該移動の目的を推定する推定ステップと、
     前記推定ステップにおいて推定された目的が前記第1情報に対応すると判定された場合に、当該推定の対象となった移動中に前記第2情報を含む告知情報を告知部を介して前記ユーザに向けて告知する告知処理を行う制御ステップと、
     を前記コンピュータに実行させることを特徴とするプログラム。
  14.  請求項13に記載のプログラムを格納した記録媒体。
  15.  ユーザが移動している際に前記ユーザの移動の目的を推定する推定部及び告知情報を告知部を介して前記ユーザに告知する制御部を有する情報処理装置に用いられるデータ構造であって、
     前記ユーザの移動の目的を示す第1情報と、
     前記第1情報によって示される目的のための移動が行われた際に前記ユーザが告知を希望する事項を示す第2情報と、を含み、
     前記推定部が、前記ユーザが移動している際に、前記推定部が当該移動の目的を推定する処理と、
     前記制御部が、前記推定部により推定された目的が前記第1情報に対応すると判定された場合に、当該推定の対象となった移動中に前記第2情報を含む前記告知情報を前記告知部を介して前記ユーザに告知する処理と、
     に用いられることを特徴とするデータ構造。
PCT/JP2021/040978 2021-11-08 2021-11-08 情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造 WO2023079735A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040978 WO2023079735A1 (ja) 2021-11-08 2021-11-08 情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040978 WO2023079735A1 (ja) 2021-11-08 2021-11-08 情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造

Publications (1)

Publication Number Publication Date
WO2023079735A1 true WO2023079735A1 (ja) 2023-05-11

Family

ID=86240920

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040978 WO2023079735A1 (ja) 2021-11-08 2021-11-08 情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造

Country Status (1)

Country Link
WO (1) WO2023079735A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068520A (ja) * 2015-09-29 2017-04-06 本田技研工業株式会社 リマインダ通知システム及びリマインダ通知方法
WO2020084897A1 (ja) * 2018-10-22 2020-04-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020085462A (ja) * 2018-11-15 2020-06-04 トヨタ自動車株式会社 情報処理装置及び情報処理プログラム
JP2021051590A (ja) * 2019-09-25 2021-04-01 トヨタ自動車株式会社 情報処理方法および情報処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068520A (ja) * 2015-09-29 2017-04-06 本田技研工業株式会社 リマインダ通知システム及びリマインダ通知方法
WO2020084897A1 (ja) * 2018-10-22 2020-04-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020085462A (ja) * 2018-11-15 2020-06-04 トヨタ自動車株式会社 情報処理装置及び情報処理プログラム
JP2021051590A (ja) * 2019-09-25 2021-04-01 トヨタ自動車株式会社 情報処理方法および情報処理装置

Similar Documents

Publication Publication Date Title
CN107465423B (zh) 用于实现与自主车辆的使用有关的相对标签的系统和方法
US9207093B2 (en) Navigation based on calendar events
US20140201004A1 (en) Managing Interactive In-Vehicle Advertisements
US20120135714A1 (en) Information system for motor vehicle
US20110093158A1 (en) Smart vehicle manuals and maintenance tracking system
US20190108559A1 (en) Evaluation-information generation system and vehicle-mounted device
Perterer et al. Come drive with me: an ethnographic study of driver-passenger pairs to inform future in-car assistance
JP6903380B2 (ja) 情報提示装置、情報提示システム、端末装置
CN108182093A (zh) 智能型车辆信息娱乐系统
WO2020105302A1 (ja) 応答生成装置、応答生成方法及び応答生成プログラム
CN109285102B (zh) 打车方法和装置、电子设备
CN112172836B (zh) 一种信息的推送方法、装置、车辆、可读介质
JP7010190B2 (ja) サーバ、情報処理方法およびプログラム
US20180342005A1 (en) Place recommendation device and place recommendation method
US20220036897A1 (en) Response processing apparatus, response processing method, and response processing program
WO2023079735A1 (ja) 情報処理装置、情報処理方法、プログラム、記録媒体及びデータ構造
JP2019105516A (ja) 目的地推定装置、目的地推定システム及び目的地推定方法
US20210080281A1 (en) Vehicle virtual assistant systems and methods for storing and utilizing data associated with vehicle stops
JP6984480B2 (ja) 情報処理装置および情報処理方法
US11328337B2 (en) Method and system for level of difficulty determination using a sensor
JP7243087B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN111791893B (zh) 疲劳处理方法、装置、车辆及计算机可读存储介质
Nakrani Smart car technologies: a comprehensive study of the state of the art with analysis and trends
JP7151400B2 (ja) 情報処理システム、プログラム、及び制御方法
CN111660930A (zh) 提供警示性驾驶通知的系统和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21963328

Country of ref document: EP

Kind code of ref document: A1