WO2023203725A1 - 情報分析装置及び情報分析方法 - Google Patents

情報分析装置及び情報分析方法 Download PDF

Info

Publication number
WO2023203725A1
WO2023203725A1 PCT/JP2022/018448 JP2022018448W WO2023203725A1 WO 2023203725 A1 WO2023203725 A1 WO 2023203725A1 JP 2022018448 W JP2022018448 W JP 2022018448W WO 2023203725 A1 WO2023203725 A1 WO 2023203725A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
emotion
occupant
vehicle
probe
Prior art date
Application number
PCT/JP2022/018448
Other languages
English (en)
French (fr)
Inventor
隆裕 藤井
光生 下谷
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/018448 priority Critical patent/WO2023203725A1/ja
Publication of WO2023203725A1 publication Critical patent/WO2023203725A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to an information analysis device and an information analysis method.
  • Patent Document 1 A technology has been proposed that collects near-miss information about vehicle occupants, performs analysis based on the near-miss information, generates road information related to road traffic as danger information, and presents the danger information to drivers and pedestrians.
  • Patent Document 1 A technology has been proposed that collects near-miss information about vehicle occupants, performs analysis based on the near-miss information, generates road information related to road traffic as danger information, and presents the danger information to drivers and pedestrians.
  • danger information is generated by analyzing whether near misses have repeatedly occurred at a certain point based on near miss information of occupants.
  • the conventional technology does not analyze a situation in which a vehicle moves while an occupant has a specific emotion, or a situation in which an occupant suddenly has a specific emotion at a certain point. For this reason, there is a problem that the amount of danger information presented to drivers and the like is not sufficient, and the danger information, that is, the road information, is not appropriate.
  • the present disclosure has been made in view of the above problems, and aims to provide a technology that can generate appropriate road information.
  • An information analysis device includes an acquisition unit that acquires occupant emotion information including emotions of an occupant of a vehicle, emotion probe information including vehicle position information and date and time information related to the occupant emotion information; a storage unit that stores emotion probe information acquired in the storage unit; and a storage unit that stores emotion probe information acquired in the storage unit;
  • the vehicle is equipped with a control unit that analyzes whether the occupant has a specific emotion temporarily or repeatedly at a location, and generates road information by associating the analysis result obtained thereby with map data.
  • the road information is generated by associating the analysis results with map data. According to such a configuration, appropriate road information can be generated.
  • FIG. 1 is a block diagram showing an example of the configuration of an information analysis device according to Embodiment 1.
  • FIG. FIG. 2 is a block diagram showing an example of the configuration of an information analysis device according to a second embodiment.
  • FIG. 2 is a block diagram showing an example of the configuration of a probe vehicle according to a second embodiment.
  • 7 is a flowchart illustrating an example of the operation of the emotion type transmitting device according to the second embodiment.
  • 7 is a flowchart illustrating an example of the operation of the information analysis device according to Embodiment 2.
  • FIG. 7 is a flowchart illustrating an example of operations of an event analysis section and a road information generation section according to the second embodiment.
  • FIG. 7 is a block diagram showing an example of the configuration of a probe vehicle according to a fourth modification of the second embodiment.
  • FIG. 7 is a block diagram showing an example of the configuration of a probe vehicle according to a sixth modification of the second embodiment.
  • 12 is a flowchart illustrating an example of the operation of the information analysis device according to Modification 8 of Embodiment 2.
  • 12 is a flowchart illustrating an example of the operation of the information analysis device according to Modification 9 of Embodiment 2.
  • 12 is a flowchart illustrating an example of the operation of the information analysis device according to Modification 10 of Embodiment 2.
  • FIG. 3 is a block diagram illustrating an example of the configuration of an information analysis device according to a third embodiment.
  • FIG. 7 is a flowchart illustrating an example of the operation of the information analysis device according to Embodiment 3.
  • 7 is a flowchart illustrating an example of an operation of an information delivery destination vehicle according to Embodiment 3.
  • FIG. 12 is a flowchart illustrating an example of operations of an event analysis section and a road information generation section according to Modification 1 of Embodiment 3.
  • 12 is a flowchart illustrating an example of the operation of the information analysis device according to Modification 2 of Embodiment 3.
  • 12 is a flowchart illustrating an example of the operation of the information analysis device according to Modification 3 of Embodiment 3.
  • 12 is a flowchart illustrating an example of the operation of the information analysis device according to Modification 4 of Embodiment 3.
  • FIG. 12 is a flowchart illustrating an example of an operation of an information delivery destination vehicle according to a sixth modification of the third embodiment.
  • FIG. 3 is a block diagram showing a hardware configuration of an information analysis device according to another modification.
  • FIG. 3 is a block diagram showing a hardware configuration of an information analysis device according to another modification.
  • FIG. 1 is a block diagram showing an example of the configuration of an information analysis device 1 according to the first embodiment.
  • the information analysis device in FIG. 1 includes an acquisition section 11, a storage section 12, and a control section 13, and is capable of communicating with one or more vehicles.
  • one or more vehicles will be described as one or more probe vehicles.
  • the acquisition unit 11 acquires emotional probe information from one or more probe vehicles.
  • a communication device and its interface are used for the acquisition unit 11.
  • the emotion probe information acquired by the acquisition unit 11 includes occupant emotion information, vehicle position information that is position information of the probe vehicle, and date and time information.
  • the occupant emotion information includes the emotion of the occupant of the probe vehicle.
  • the emotions included in the occupant emotion information include, for example, the occupant's negative emotions (for example, fear and surprise) and positive emotions (for example, joy and expectation).
  • the vehicle position information and the date and time information are related to the occupant emotion information, and for example, the vehicle position information and the date and time information are related so that the timing at which the occupant emotion information is generated is approximately the same as the timing at which the vehicle position information and the date and time information are generated. Good too. Alternatively, vehicle position information and date and time information can be used to determine whether vehicle position information and date and time information are May be related to emotional information.
  • the storage unit 12 stores the emotional probe information acquired by the acquisition unit 11.
  • a memory which will be described later, is used as the storage unit 12.
  • a plurality of emotion probe information from one probe vehicle may be accumulated multiple times, or a plurality of emotion probe information from a plurality of probe vehicles may be accumulated.
  • the control unit 13 performs analysis based on the emotional probe information accumulated in the storage unit 12. Note that the control unit 13 uses, for example, a processing circuit and a processor, which will be described later.
  • the above analysis performed by the control unit 13 includes analysis as to whether the probe vehicle moved continuously over time while the occupant had a specific emotion, and analysis as to whether the occupant temporarily had a specific emotion at a certain point or not. Includes an analysis of what you have.
  • the specific emotion is an emotion specified in advance, and may be, for example, a negative emotion (eg, fear and surprise) or a positive emotion (eg, joy, expectation, etc.). Note that the fact that the probe vehicle does not move continuously over time includes that the probe vehicle is fixedly located at a certain point.
  • the control unit 13 generates road information by associating the analysis results obtained by the above analysis with the map data.
  • the road information includes the range in which the probe vehicle moved continuously over time while the occupant had a specific emotion, the point where the occupant only had a specific emotion temporarily, and the area where the occupant had a specific emotion. This is information that allows you to identify points that have repeatedly had .
  • road information may be presented to passengers such as a driver and pedestrians.
  • ⁇ Summary of Embodiment 1> According to the information analysis device according to the first embodiment as described above, it is possible to determine whether or not the vehicle has moved continuously over time while the occupant of the vehicle has a specific emotion, and whether the occupant has a specific emotion at a certain point. It analyzes whether the vehicle is held temporarily or repeatedly, and generates road information by associating the analysis results with map data. According to such a configuration, appropriate road information having a sufficient amount of information can be generated.
  • FIG. 2 is a block diagram showing an example of the configuration of the information analysis device 1 according to the second embodiment.
  • constituent elements that are the same or similar to the above-mentioned constituent elements will be given the same or similar reference numerals, and different constituent elements will be mainly explained.
  • the information analysis device 1 in FIG. 2 includes an emotion input section 11a, an information storage section 12a, an event analysis section 13a, and a road information generation section 13b.
  • the emotion input unit 11a is included in the concept of the acquisition unit 11 in FIG.
  • the information storage section 12a is included in the concept of the storage section 12 in FIG.
  • the event analysis section 13a and the road information generation section 13b are included in the concept of the control section 13 in FIG.
  • the emotion input unit 11a acquires emotion probe information from a plurality of probe vehicles 2, like the acquisition unit 11 of the first embodiment.
  • the information storage unit 12a stores emotional probe information from a plurality of probe vehicles 2, like the storage unit 12 of the first embodiment.
  • the event analysis unit 13a analyzes the chronological occurrence of specific emotions and the location of occurrence of specific emotions based on the emotion probe information accumulated in the information storage unit 12a. I do.
  • the analysis of the chronological occurrence of specific emotions includes analysis of whether the specific emotion occurred temporarily or whether the specific emotion occurred repeatedly.
  • the analysis of the chronological occurrence of specific emotions includes analysis of whether the occupant temporarily had the specific emotion or whether the occupant repeatedly had the specific emotion.
  • Analysis of the location where a specific emotion occurs includes analysis of whether the specific emotion occurs within a certain range or at a certain point.
  • the analysis of the location where the specific emotion occurs includes analysis of whether the probe vehicle moved continuously over time while the occupant had the specific emotion, or whether the occupant had the specific emotion at a certain point.
  • the road information generation unit 13b generates road information by associating the analysis result of the event analysis unit 13a with map data. As a result, a database of road information is generated.
  • FIG. 3 is a block diagram showing an example of the configuration of the probe vehicle 2 according to the second embodiment.
  • the probe vehicle 2 in FIG. 3 is equipped with an emotion type transmitting device 21, a date and time information detecting device 22, a vehicle position detecting device 23, an occupant condition sensing device 24, and a communication device 25.
  • the emotion type transmitting device 21 is communicably connected to a date and time information detecting device 22, a vehicle position detecting device 23, an occupant condition sensing device 24, and a communication device 25.
  • the date and time information detection device 22, the vehicle position detection device 23, the occupant condition sensing device 24, and the communication device 25 are provided outside the emotion type transmission device 21, but at least Either one may be included in the emotion type transmitting device 21.
  • the emotion type transmitting device 21 includes a sensor information input section 21a, an emotion analysis section 21b, and a transmission determination section 21c.
  • the emotion type transmitting device 21 can be applied to a device other than the probe vehicle 2 as a device or a system constructed by appropriately combining servers and the like provided outside the probe vehicle 2. In this case, each function or each component of the emotion type transmitting device 21 is distributed and arranged in each function that constructs the above system.
  • the date and time information detection device 22 acquires current date and time information.
  • the date and time information detection device 22 may obtain current date and time information via a network, for example, or may obtain current date and time information from a car navigation system.
  • the vehicle position detection device 23 acquires current vehicle position information of the probe vehicle 2.
  • a high-precision locator, a locator, or the like is used as the vehicle position detection device 23.
  • the sensor information input unit 21a acquires current date and time information and current vehicle position information from the date and time information detection device 22 and vehicle position detection device 23, respectively.
  • the occupant condition sensing device 24 acquires occupant biological information from the occupant of the probe vehicle 2.
  • the occupant biometric information is biometric information of the occupant of the probe vehicle 2, and includes, for example, raw data such as the occupant's facial expression, pulse, and heartbeat.
  • the occupant condition sensing device 24 includes, for example, a DMS (Driver Monitoring System) that can detect the facial expressions of the occupant using image recognition, and sensors that can detect pulses or heartbeats provided on the steering wheel or seat. It will be done.
  • DMS Driver Monitoring System
  • the emotion analysis unit 21b acquires occupant biometric information from the occupant condition sensing device 24, analyzes the occupant's emotion based on the occupant biometric information, and generates occupant emotion information as the analysis result.
  • the occupant emotion information includes the emotions of the occupant of the probe vehicle 2, as described in the first embodiment. For example, when the occupant's facial expression is bad or when the occupant's pulse and heart rate are high, the emotion analysis unit 21b generates occupant emotion information that includes negative emotions as the occupant's emotion.
  • the emotion analysis unit 21b calculates the degree of emotion, which is the degree of emotion of the occupant of the probe vehicle 2, based on the occupant biometric information.
  • the emotion analysis unit 21b may calculate PNN50, which is described in Japanese Patent Application Laid-open No. 2018-126422, as the degree of emotion. Note that the stronger the negative emotion, the smaller the PNN50, and the stronger the positive emotion, the larger the PNN50.
  • the transmission determination unit 21c generates emotion probe information that includes the occupant emotion information generated by the emotion analysis unit 21b, and the vehicle position information and date and time information acquired by the sensor information input unit 21a.
  • emotion probe information vehicle location information and date and time information are related to occupant emotion information, and for example, the timing at which occupant biometric information used to generate occupant emotion information is acquired and the timing at which vehicle location information and date and time information are acquired are determined. They are related in such a way that their timings are roughly the same.
  • the transmission determination unit 21c also controls the communication device 25.
  • the communication device 25 transmits emotional probe information to the information analysis device 1 and receives various information from the information analysis device 1 under the control of the transmission determination unit 21c.
  • FIG. 4 is a flowchart showing an example of the operation of the emotion type transmitting device 21 according to the second embodiment.
  • step S11 the occupant condition sensing device 24 acquires occupant biometric information and transmits the occupant biometric information to the emotion analysis unit 21b.
  • the emotion analysis unit 21b generates occupant emotion information including the emotion of the occupant of the probe vehicle 2 based on the received occupant biometric information, and calculates the emotional level of the emotion.
  • step S12 the transmission determination unit 21c determines whether or not to transmit the emotion probe information from the communication device 25 of the probe vehicle 2 to the information analysis device 1 based on the degree of emotion calculated by the emotion analysis unit 21b. .
  • the transmission determination unit 21c transmits the emotion probe information to the information analysis device 1 when PNN50 is smaller than the reference value. Then it is determined. On the other hand, if PNN50 is equal to or greater than the reference value, the transmission determination unit 21c determines not to transmit the emotion probe information to the information analysis device 1.
  • step S13 If it is determined that the emotional probe information is to be transmitted to the information analysis device 1, the process proceeds to step S13, and if it is determined that the emotional probe information is not to be transmitted to the information analysis device 1, the process returns to step S11.
  • step S13 the transmission determination unit 21c selects vehicle position information and date and time information related to the occupant emotion information generated by the emotion analysis unit 21b, from among the vehicle position information and date and time information acquired by the sensor information input unit 21a. read. Then, the transmission determination unit 21c generates emotion probe information including the occupant emotion information, the read vehicle position information, and date and time information, and transmits the emotion probe information to the information analysis device 1.
  • step S14 it is determined whether the emotion type transmitting device 21 is operating. If it is determined that the emotion type transmitting device 21 is operating, the process returns to step S11, and if it is determined that the emotion type transmitting device 21 is not operating, the operation in FIG. 4 ends.
  • FIG. 5 is a flowchart showing an example of the operation of the information analysis device 1 according to the second embodiment.
  • step S21 the emotion input unit 11a receives emotion probe information from the plurality of probe vehicles 2.
  • step S22 the information storage unit 12a stores the emotion probe information received by the emotion input unit 11a.
  • step S23 the event analysis unit 13a analyzes the chronological occurrence of the specific emotion and the location of the specific emotion based on the emotion probe information accumulated in the information storage unit 12a.
  • the road information generation unit 13b then generates road information by associating the analysis result of the event analysis unit 13a with the map data. After that, the process returns to step S21.
  • step S23 becomes possible when it is determined in step S12 in FIG. 4 that the emotion probe information is to be transmitted to the information analysis device 1 based on the emotional level. That is, in the second embodiment, it is substantially determined whether or not to perform the analysis in step S23 based on the emotional level.
  • FIG. 6 is a flowchart showing an example of the operation of the event analysis section 13a and the road information generation section 13b according to the second embodiment, and specifically shows the operation in step S23.
  • step S31 the event analysis unit 13a determines whether the probe vehicle has moved continuously over time while the occupant has a specific emotion, based on the accumulated emotion probe information. For example, in the vehicle position information included in the emotion probe information, if the difference between the previous value and the current value is greater than 100 m, the event analysis unit 13a determines that the probe vehicle continues to move over time while the occupant has a specific emotion. It is determined that the object is moving. On the other hand, in the vehicle position information included in the emotion probe information, if the difference between the previous value and the current value is 100 m or less, the event analysis unit 13a determines that the probe vehicle has changed over time while the occupant has a specific emotion. It is determined that the object is not moving continuously.
  • step S35 If it is determined that the probe vehicle has moved continuously over time while the occupant has a specific emotion, the process proceeds to step S35. If it is determined that the probe vehicle is not moving continuously over time while the occupant has a specific emotion, the process proceeds to step S32.
  • step S32 the event analysis unit 13a determines whether the occupant repeatedly had a specific emotion at a certain point, based on the accumulated emotion probe information. For example, if a specific emotion has occurred three or more times in the past 10 days at a certain point, the event analysis unit 13a determines that the occupant has repeatedly had the specific emotion at the certain point. On the other hand, if the specific emotion has occurred less than three times in the past 10 days at a certain point, the event analysis unit 13a determines whether the occupant has repeatedly had the specific emotion at the certain point, that is, the occupant has temporarily experienced the specific emotion at the certain point. It is determined that it was held in
  • step S33 If it is determined that the occupant repeatedly has a specific emotion at a certain point, the process proceeds to step S33. If it is determined that the occupant does not repeatedly have a specific emotion at a certain point, the process proceeds to step S34.
  • step S33 the road information generation unit 13b reads various information from the emotion probe information from which the determination result that the occupant repeatedly had a specific emotion at a certain point, and associates the various information with the map data. , generate a database of static road information. Thereby, the road information becomes information that can identify points in the map data where the occupant has repeatedly felt a specific emotion.
  • the static road information database is a database that is changed relatively infrequently.
  • step S34 the road information generation unit 13b generates a dynamic Generate a database of road information.
  • the road information becomes information that can identify points in the map data where the occupant only temporarily felt a specific emotion.
  • the dynamic road information database is a database that changes relatively frequently.
  • step S35 the road information generation unit 13b generates various types of emotional probe information and map data in which it is determined that the probe vehicle has moved continuously over time while the occupant has a specific emotion.
  • a database of dynamic road information is generated.
  • the road information becomes information that can identify the range in which the probe vehicle continuously moved over time while the occupant had a specific emotion in the map data.
  • the second embodiment it is determined whether or not to perform the same analysis as in the first embodiment based on the emotional level. As a result, analysis is performed selectively, so the processing load on the information analysis device 1 can be reduced.
  • the emotion analysis unit 21b generates occupant emotion information including negative emotions such as surprise and fear based on the received occupant biometric information, but the present invention is not limited to this.
  • the emotion analysis unit 21b may generate occupant emotion information including positive emotions such as joy and expectation.
  • the driver can drive not only to avoid danger but also to enjoy scenic views. I can do it.
  • the transmission determination unit 21c may determine not to transmit the occupant emotion information to the information analysis device 1.
  • the emotion probe information transmitted from the probe vehicle 2 to the information analysis device 1 includes occupant emotion information, vehicle position information, and date and time information, but is not limited thereto.
  • the emotion probe information may include emotion level in addition to these pieces of information.
  • the road information generation unit 13b may generate road information by associating the above analysis result, map data, and emotional level. According to the present modification example 2, for example, when the emotional level is a negative emotional level, the road information generation unit 13b can generate road information including an index indicating how dangerous road traffic is. can.
  • the emotion probe information transmitted from the probe vehicle 2 to the information analysis device 1 includes occupant emotion information, vehicle position information, and date and time information, but is not limited thereto.
  • the emotion probe information may include the speed of the probe vehicle 2, which is acquired at substantially the same timing as the occupant emotion information.
  • the emotional probe information since the emotional probe information includes the speed of the probe vehicle 2, it is possible to improve the accuracy of the determination in step S31 in FIG. 6, which is performed based on the emotional probe information, for example.
  • the emotion probe information transmitted from the probe vehicle 2 to the information analysis device 1 includes occupant emotion information, vehicle position information, and date and time information, but is not limited thereto.
  • the emotional probe information may include, as vehicle surrounding information, peripheral information about the probe vehicle 2 that is acquired at substantially the same timing as the occupant emotional information.
  • the road information generation unit 13b may generate road information by associating the above analysis result, map data, and vehicle surrounding information.
  • FIG. 7 is a block diagram showing an example of the configuration of the probe vehicle 2 according to the fourth modification.
  • the configuration of the probe vehicle 2 in FIG. 7 is similar to the configuration of the probe vehicle 2 in FIG. 3 with the addition of a vehicle surrounding information detection device 26.
  • the vehicle surrounding information detection device 26 detects vehicle surrounding information.
  • the vehicle surrounding information detection device 26 uses, for example, a camera and a sensor such as LiDAR (light detection and ranging).
  • LiDAR light detection and ranging
  • the road information generation unit 13b is unable to generate road information that can determine the situation occurring around the probe vehicle 2. can.
  • the emotion probe information transmitted from the probe vehicle 2 to the information analysis device 1 includes occupant emotion information, vehicle position information, and date and time information, but is not limited thereto.
  • the emotion probe information may include lane information that is acquired at substantially the same timing as the occupant emotion information.
  • the lane information is information about the lane in which the probe vehicle 2 is located.
  • the road information generation unit 13b may generate road information by associating the above analysis result, map data, and lane information.
  • the emotional probe information includes lane information
  • the emotion probe information transmitted from the probe vehicle 2 to the information analysis device 1 includes occupant emotion information, vehicle position information, and date and time information, but is not limited thereto.
  • the emotion probe information may include a map ID that identifies a map that includes the location indicated by the vehicle location information.
  • the road information generation unit 13b may generate road information by associating the above analysis result, map data, and map ID.
  • FIG. 8 is a block diagram showing an example of the configuration of the probe vehicle 2 according to Modification 6.
  • the configuration of the probe vehicle 2 in FIG. 8 is similar to the configuration of the probe vehicle 2 in FIG. 3 with the addition of a map data storage device 27.
  • the map data storage device 27 stores a map to which a map ID is added, and uses various types of memories, for example.
  • the emotional probe information includes the map ID, for example, it becomes easy to search for map data to be associated with an analysis result, and the load of generating road information on the road information generating section 13b is reduced. be able to.
  • the emotional level calculated by the emotional analysis unit 21b is PNN50, but the present invention is not limited to this.
  • the emotional level may be the LF/HF ratio or SDNN described in JP 2018-126422, or the PWTT described in JP 2007-47846. , the CvRR described in JP-A No. 2019-209128, or the RR interval described in JP-A No. 2021-118908.
  • the event analysis unit 13a immediately performs the analysis, but the present invention is not limited to this.
  • the event analysis unit 13a may determine whether or not to perform the analysis immediately based on whether it is the timing to perform the analysis.
  • FIG. 9 is a flowchart showing an example of the operation of the information analysis device 1 according to the eighth modification.
  • the flowchart in FIG. 9 is similar to the flowchart in FIG. 5 with step S24 added, so step S24 will be mainly described.
  • step S24 the event analysis unit 13a determines whether it is the timing to perform analysis. This determination may be made, for example, based on whether a certain amount of time (e.g., 10 minutes) has passed since the last analysis, or whether the number of unanalyzed emotion probe information has reached a threshold (e.g., 100). ). If it is determined that it is the timing to perform the analysis, the process proceeds to step S23, and if it is determined that it is not the timing to perform the analysis, the process returns to step S21.
  • a certain amount of time e.g. 10 minutes
  • a threshold e.g. 100
  • the event analysis unit 13a determines whether or not to perform analysis based on whether it is the timing to perform analysis. As a result, since analysis is performed selectively, the processing load on the event analysis section 13a can be reduced.
  • the event analysis unit 13a immediately performs the analysis after receiving the emotional probe information, but the present invention is not limited to this.
  • the event analysis unit 13a may determine whether or not to immediately perform the analysis based on occupant emotion information.
  • FIG. 10 is a flowchart illustrating an example of the operation of the information analysis device 1 according to Modification 9.
  • the flowchart in FIG. 10 is similar to the flowchart in FIG. 9 with step S25 added, so step S25 will be mainly described.
  • step S25 the event analysis unit 13a determines whether to immediately perform analysis based on the occupant emotion information. For example, if the occupant emotion information includes negative emotions, the event analysis unit 13a determines to immediately perform the analysis, and if the occupant emotion information includes positive emotions, the event analysis unit 13a determines to immediately perform the analysis. It may be determined that there is no such thing. If it is determined that the analysis should be performed immediately, the process proceeds to step S23, and if it is determined that the analysis is not to be performed immediately, the process proceeds to step S24.
  • the present modification example 9 it is determined whether or not to immediately perform the analysis based on the occupant emotion information. As a result, while reducing the processing load on the event analysis unit 13a, it is possible to immediately generate road information, for example, when the occupant emotion information includes negative emotions.
  • the event analysis unit 13a immediately performs the analysis after receiving the emotional probe information, but the present invention is not limited to this.
  • the event analysis unit 13a may determine whether to immediately perform the analysis based on the emotional level.
  • FIG. 11 is a flowchart illustrating an example of the operation of the information analysis device 1 according to Modification 10.
  • the flowchart in FIG. 11 is similar to the flowchart in FIG. 9 with step S26 added, so step S26 will be mainly described.
  • step S26 the event analysis unit 13a determines whether or not to immediately perform the analysis based on the emotional level. For example, if the difference between the emotional level and the reference value is greater than or equal to a certain value, the event analysis unit 13a determines to immediately perform the analysis, and if the difference is smaller than the certain value, the event analysis unit 13a determines that the analysis is to be performed immediately. It may be determined that the process is not performed immediately. If it is determined that the analysis should be performed immediately, the process proceeds to step S23, and if it is determined that the analysis is not to be performed immediately, the process proceeds to step S24.
  • the present modification 10 it is determined whether or not to immediately perform the analysis based on the emotional level. As a result, while reducing the processing load on the event analysis unit 13a, it is possible to immediately generate road information when, for example, the emotional level differs greatly from the reference value.
  • the sensor information input unit 21a, the emotion analysis unit 21b, and the transmission determination unit 21c are mounted on the probe vehicle 2, but the invention is not limited to this.
  • at least one of the sensor information input section 21a, the emotion analysis section 21b, and the transmission determination section 21c may be provided in the information analysis device 1.
  • the information analysis device 1 receives occupant biological information and vehicle position information from the probe vehicle 2. and date and time information.
  • the information analysis device 1 may receive passenger emotion information, vehicle position information, and date and time information from the probe vehicle 2, or Occupant emotional information, vehicle location information, date and time information, and emotional level may be received.
  • the transmission determination unit 21c provided in the information analysis device 1 determines whether or not to generate emotion probe information based on the emotion level. Good too.
  • FIG. 12 is a block diagram showing an example of the configuration of the information analysis device 1 according to the third embodiment.
  • the same or similar components as those described above will be given the same or similar reference numerals, and different components will be mainly explained.
  • the configuration of the information analysis device 1 in FIG. 12 is similar to the configuration of the information analysis device 1 in FIG. 2 with the addition of a road information output unit 13c included in the concept of the control unit 13 in FIG.
  • the road information output unit 13c is capable of communicating with the information delivery destination vehicle 3, and transmits road information to the information delivery destination vehicle 3.
  • the information delivery destination vehicle 3 is provided with a presentation device 31.
  • the presentation device 31 presents the road information transmitted from the information analysis device 1.
  • the presentation device 31 presents the point or range where the specific emotion occurs, for example, by animation display on a map, pop-up display, audio notification, etc.
  • the road information output unit 13c controls the presentation device 31 to present road information. Thereby, the occupant of the information delivery destination vehicle 3 can confirm the presented road information.
  • the information delivery destination vehicle 3 may be the probe vehicle 2 or a vehicle other than the probe vehicle 2.
  • FIG. 13 is a flowchart showing an example of the operation of the information analysis device 1 according to the third embodiment.
  • step S41 the road information output unit 13c determines whether it is the timing to transmit the road information. This determination may be made, for example, based on whether a certain period of time (for example, 10 minutes) has passed since the previous transmission, or the number of untransmitted road information exceeds a threshold (for example, 100 pieces). It may also be done based on whether or not the If it is determined that it is the timing to transmit the road information, the process proceeds to step S42, and if it is determined that it is not the timing to transmit the road information, the process of step S41 is performed again.
  • a certain period of time for example, 10 minutes
  • a threshold for example, 100 pieces
  • step S42 the road information output unit 13c transmits the road information to the information delivery destination vehicle 3 using broadcast.
  • FIG. 14 is a flowchart showing an example of the operation of the information distribution destination vehicle 3 according to the third embodiment.
  • step S51 the information delivery destination vehicle 3 determines whether or not it has received road information from the information analysis device 1. If it is determined that road information has been received, the process proceeds to step S52, and if it is determined that road information has not been received, the process of step S51 is performed again.
  • step S52 the information delivery destination vehicle 3 determines whether the specific emotion indicated in the received road information is occurring around the information delivery destination vehicle 3. For example, if the distance between the information distribution destination vehicle 3 and the point or range where the specific emotion shown in the road information has occurred is within a certain distance (for example, 5 km), the information distribution destination vehicle 3 can receive the information that the specific emotion is It is determined that the occurrence occurs around the delivery destination vehicle 3.
  • a certain distance for example, 5 km
  • step S53 If it is determined that the specific emotion is occurring around the information distribution destination vehicle 3, the process proceeds to step S53, and if it is determined that the specific emotion is not occurring around the information distribution destination vehicle 3, the process proceeds to step S53. Then the process returns to step S51.
  • the presentation device 31 of the information delivery destination vehicle 3 presents the received road information to the occupant.
  • step S54 it is determined whether the presentation device 31 is operating. If it is determined that the presentation device 31 is operating, the process returns to step S51, and if it is determined that the presentation device 31 is not operating, the operation in FIG. 14 ends.
  • the presentation device 31 since the presentation device 31 is controlled to present road information, the user of the presentation device 31 can check the presented road information. can.
  • the presentation device 31 may be provided not in the information delivery destination vehicle 3 but in a pedestrian's communication terminal or the like.
  • the event analysis unit 13a may analyze whether the occupant repeatedly has a specific emotion during a predetermined time period.
  • the predetermined time periods are, for example, time periods in which the day is divided into three-hour units, such as 0:00 to 3:00, 3:00 to 6:00, 6:00 to 9:00, 9:00 to 12:00, and 12:00. to 15:00, 15:00 to 18:00, 18:00 to 21:00, and 21:00 to 24.
  • the road information output unit 13c may transmit the road information, and further control the presentation of the road information, based on an analysis result as to whether or not the occupant repeatedly has a specific emotion during a predetermined time period.
  • FIG. 15 is a flowchart illustrating an example of the operations of the event analysis section 13a and the road information generation section 13b according to the first modification.
  • the flowchart of FIG. 15 is similar to the flowchart of FIG. 6, except that step S33 is deleted and steps S36 to S38 and steps S41 to S43 are added. Therefore, steps S36 to S38 and steps S41 to S43 will be mainly explained below.
  • step S36 the event analysis unit 13a determines whether or not the occupant repeatedly had a specific emotion in any time period, regarding the specific emotion that temporarily or repeatedly occurred in the occupant at a certain point. . For example, if the specific emotion has occurred three or more times in one time period in the past 10 days, the event analysis unit 13a determines that the occupant has repeatedly had the specific emotion in one time period at a certain point.
  • step S37 If it is determined that the occupant has repeatedly had a specific emotion at any time at a certain point, the process proceeds to step S37. On the other hand, if it is determined that the occupant does not repeatedly have a specific emotion at any time at a certain point, the process proceeds to step S38. Note that in the following description, a time period in which it is determined that the occupant repeatedly had a specific emotion at a certain point may be referred to as a specific time period.
  • step S37 the road information generation unit 13b associates the various information of the emotional probe information, in which it was determined that the occupant repeatedly had a specific emotion at a certain point during a specific time period, with the map data. Generate a database of static road information.
  • step S43 the road information output unit 13c determines whether the current time is included in a specific time period. If it is determined that the current time is included in the specific time zone, the process proceeds to step S42, and if it is determined that the current time is not included in the specific time zone, the process returns to step S31.
  • step S38 the road information generation unit 13b associates the map data with various pieces of emotional probe information for which it was determined that the occupant did not repeatedly have a specific emotion at a certain point during a specific time period. , generate a database of static road information.
  • step S41 similarly to step S41 in FIG. 13, the road information output unit 13c determines whether it is the timing to transmit road information. If it is determined that it is the timing to transmit the road information, the process proceeds to step S42, and if it is determined that it is not the timing to transmit the road information, the process returns to step S31.
  • step S42 similarly to step S42 in FIG. 13, the road information output unit 13c transmits the road information to the information delivery destination vehicle 3 using broadcast. Note that when the process of step S42 is performed after the process of step S43, the road information may be presented in an emphasized manner.
  • the road information output unit 13c changes the current time to the corresponding time period. Control is performed to cause the presentation device 31 to present the road information based on whether the road information is included. On the other hand, if it is determined that the occupant does not repeatedly have a specific emotion in a specific time period at a certain point, the road information output unit 13c outputs Control is performed to cause the presentation device 31 to present information.
  • the road information output unit 13c uniformly and periodically transmits the road information, but the invention is not limited to this.
  • the road information output unit 13c transmits the road information based on occupant emotional information, and further controls the presentation of the road information. may be done immediately.
  • FIG. 16 is a flowchart illustrating an example of the operation of the information analysis device 1 according to the second modification.
  • step S44 the road information output unit 13c makes a determination similar to the determination in step S31 by the event analysis unit 13a in FIG. That is, the road information output unit 13c determines, based on the accumulated emotion probe information, whether the probe vehicle has moved continuously over time while the occupant has a specific emotion.
  • step S42 If it is determined that the probe vehicle has moved continuously over time while the occupant has a specific emotion, the process proceeds to step S42; otherwise, the process proceeds to step S45.
  • step S45 the road information output unit 13c makes a determination similar to the determination in step S32 by the event analysis unit 13a in FIG. That is, the road information output unit 13c determines whether the occupant repeatedly has a specific emotion at a certain point based on the accumulated emotion probe information. If it is determined that the occupant repeatedly has a specific emotion at a certain point, the process proceeds to step S41. If it is determined that the occupant does not repeatedly have a specific emotion at a certain point, the process proceeds to step S42.
  • step S41 similarly to step S41 in FIG. 13, the road information output unit 13c determines whether it is the timing to transmit road information. If it is determined that it is the timing to transmit the road information, the process proceeds to step S42, and if it is determined that it is not the timing to transmit the road information, the process returns to step S44.
  • step S42 similarly to step S42 in FIG. 13, the road information output unit 13c transmits the road information to the information delivery destination vehicle 3 using broadcast.
  • step S44 and step S45 may be deleted.
  • the road information output unit 13c uniformly and periodically transmits the road information, but the invention is not limited to this.
  • the road information output unit 13c transmits the road information based on occupant emotional information, and further controls the presentation of the road information. may be done immediately.
  • FIG. 17 is a flowchart illustrating an example of the operation of the information analysis device 1 according to the third modification.
  • step S46 the road information output unit 13c determines whether to immediately transmit the road information based on the occupant emotion information. For example, when the occupant emotion information includes negative emotions, the road information output unit 13c determines to immediately transmit the road information, and when the occupant emotion information includes positive emotions, the road information output unit 13c determines that the road information may be determined not to be sent immediately. If it is determined that the road information should be transmitted immediately, the process advances to step S42, and if it is determined that the road information is not to be transmitted immediately, the process advances to step S41.
  • step S41 similarly to step S41 in FIG. 13, the road information output unit 13c determines whether it is the timing to transmit road information. If it is determined that it is the timing to transmit the road information, the process proceeds to step S42, and if it is determined that it is not the timing to transmit the road information, the process returns to step S46.
  • step S42 similarly to step S42 in FIG. 13, the road information output unit 13c transmits the road information to the information delivery destination vehicle 3 using broadcast.
  • the amount of communication can be reduced. Further, for example, when the occupant emotion information includes negative emotions, road information can be immediately presented, so road information can be efficiently presented to the occupant.
  • the road information output unit 13c uniformly and periodically transmits the road information, but the present invention is not limited to this.
  • the road information output unit 13c transmits the road information based on the emotional level, and further controls the presentation of the road information. You may go immediately.
  • FIG. 18 is a flowchart showing an example of the operation of the information analysis device 1 according to the fourth modification.
  • step S47 the road information output unit 13c determines whether to immediately transmit the road information based on the emotional level. For example, when the difference between the emotional level and the reference value is greater than or equal to a certain value, the road information output unit 13c determines to immediately transmit the road information, and when the difference is smaller than the certain value, the road information output unit 13c may determine not to immediately transmit the road information. If it is determined that the road information should be transmitted immediately, the process advances to step S42, and if it is determined that the road information is not to be transmitted immediately, the process advances to step S41.
  • step S41 similarly to step S41 in FIG. 13, the road information output unit 13c determines whether it is the timing to transmit road information. If it is determined that it is the timing to transmit road information, the process proceeds to step S42, and if it is determined that it is not the timing to transmit the road information, the process returns to step S47.
  • step S42 similarly to step S42 in FIG. 13, the road information output unit 13c transmits the road information to the information delivery destination vehicle 3 using broadcast.
  • the amount of communication can be reduced. Further, since road information can be immediately presented, for example, when the emotional level is significantly different from a reference value, it is possible to efficiently present road information to the occupant.
  • road information is periodically transmitted from the road information output unit 13c to the information delivery destination vehicle 3, but the present invention is not limited to this.
  • the road information is transmitted from the information delivery destination vehicle 3 to the information analysis device 1.
  • a request to send road information may also be made to.
  • the information analysis device 1 may immediately transmit the road information to the information distribution destination vehicle 3 when there is a request for transmission of road information from the information distribution destination vehicle 3.
  • the occupant of the information delivery destination vehicle 3 can receive road information when he or she wants to receive the road information.
  • the presentation device 31 when the occupant of the information distribution destination vehicle 3 sets a destination and route guidance is performed, the presentation device 31 provides a route guidance based on the road information transmitted from the information analysis device 1. You may also suggest changes.
  • FIG. 19 is a flowchart showing an example of the operation of the information distribution destination vehicle 3 according to the sixth modification.
  • the flowchart in FIG. 19 is similar to the flowchart in FIG. 14 except that step S53 is deleted and steps S55 to S58 are added. Therefore, steps S55 to S58 will be mainly explained below.
  • step S52 If it is determined in step S52 that the specific emotion is occurring around the information delivery destination vehicle 3, the process proceeds to step S55.
  • the presentation device 31 proposes a route change.
  • a route change proposal the presentation device 31 presents the proposed route by, for example, an animation display on a map, a pop-up display, a voice notification, or the like.
  • the proposed route includes, for example, a route that does not pass through roads where negative emotions occur, or a route that passes through roads where positive emotions occur.
  • step S56 the presentation device 31 determines whether an instruction to apply the proposed route has been received from the occupant. If it is determined that the instruction to apply the proposed route has been received, the process proceeds to step S57, and if it is determined that the instruction to apply the proposed route has not been received, the process proceeds to step S58.
  • step S57 the presentation device 31 provides route guidance along the proposed route. Thereafter, the process proceeds to step S54.
  • step S58 the presentation device 31 determines whether a certain period of time has passed since the process in step S55, or whether the information delivery destination vehicle 3 has traveled a certain distance since the process in step S55.
  • the fixed time is, for example, 10 minutes.
  • the fixed distance is, for example, 10 km.
  • step S58 the process returns to step S51, and if not, the process of step S58 is performed again. Note that if it is determined that the information delivery destination vehicle 3 has traveled a certain distance, the process may proceed to step S54 instead of step S51.
  • the occupant of the information delivery destination vehicle 3 can choose an appropriate route, such as a route that does not take roads where negative emotions are occurring and a route that passes through roads where positive emotions are occurring. You can know the route without thinking about it yourself.
  • the acquisition unit 11 and control unit 13 in FIG. 1 described above will be hereinafter referred to as "acquisition unit 11 etc.”
  • the acquisition unit 11 and the like are realized by a processing circuit 81 shown in FIG. That is, the processing circuit 81 includes an acquisition unit 11 that acquires passenger emotion information including the emotions of the vehicle occupant, emotion probe information including vehicle position information and date and time information related to the occupant emotion information, and a storage unit 12. Based on emotion probe information accumulated in The control unit 13 generates road information by performing an analysis and associating the obtained analysis results with map data.
  • Dedicated hardware may be applied to the processing circuit 81, or a processor that executes a program stored in a memory may be applied. Examples of the processor include a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, and a DSP (Digital Signal Processor).
  • the processing circuit 81 is dedicated hardware, the processing circuit 81 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination of these.
  • the functions of each unit such as the acquisition unit 11 may be realized by a circuit in which processing circuits are distributed, or the functions of each unit may be realized by a single processing circuit.
  • the processing circuit 81 When the processing circuit 81 is a processor, the functions of the acquisition unit 11 and the like are realized in combination with software and the like. Note that software and the like correspond to, for example, software, firmware, or software and firmware. Software etc. are written as programs and stored in memory. As shown in FIG. 21, a processor 82 applied to a processing circuit 81 realizes the functions of each part by reading and executing a program stored in a memory 83. That is, when executed by the processing circuit 81, the information analysis device 1 generates passenger emotion information including the emotions of the vehicle occupant, and emotional probe information including vehicle position information and date and time information related to the passenger emotion information.
  • a step of accumulating the acquired emotion probe information and a step of accumulating the acquired emotion probe information, and determining, based on the accumulated emotion probe information, whether the vehicle has moved continuously over time while the occupant has a specific emotion;
  • a memory 83 is provided for storing programs to be executed. In other words, this program can be said to cause the computer to execute the procedures and methods of the acquisition unit 11 and the like.
  • the memory 83 is a non-volatile or Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc), their drive devices, or any storage media that will be used in the future. You can.
  • HDD Hard Disk Drive
  • magnetic disk flexible disk
  • optical disk compact disk
  • mini disk mini disk
  • DVD Digital Versatile Disc
  • each function of the acquisition unit 11 and the like is realized by either hardware or software.
  • the present invention is not limited to this, and a configuration may be adopted in which part of the acquisition unit 11 and the like is implemented by dedicated hardware, and another part is implemented by software or the like.
  • the function of the acquisition unit 11 is realized by a processing circuit 81 as dedicated hardware, an acquisition circuitry such as an interface, and for other parts, the processing circuit 81 as a processor 82 executes the program stored in the memory 83.
  • the function can be realized by reading and executing it.
  • the processing circuit 81 can implement the above-mentioned functions using hardware, software, etc., or a combination thereof.
  • the information analysis device described above includes vehicle devices such as PNDs (Portable Navigation Devices), navigation devices, and DMS, communication terminals including mobile terminals such as mobile phones, smartphones, and tablets, and vehicle devices and communication terminals.
  • vehicle devices such as PNDs (Portable Navigation Devices), navigation devices, and DMS
  • communication terminals including mobile terminals such as mobile phones, smartphones, and tablets
  • vehicle devices and communication terminals can also be applied to an information analysis system constructed as a system by appropriately combining the functions of at least one application installed on a server.
  • each function or each component of the information analysis device explained above may be distributed and arranged in each device constructing the system, or may be arranged centrally in any one of the devices. .

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)

Abstract

適切な道路情報を生成可能な技術を提供することを目的とする。情報分析装置は、取得部で取得された感情プローブ情報を蓄積する記憶部と、記憶部に蓄積された感情プローブ情報に基づいて、乗員が特定感情を持ちながら車両が時間の経過とともに連続的に移動したか否かと、ある地点で乗員が特定感情を一時的に持ったか繰り返し持ったかとについて分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成する制御部とを備える。

Description

情報分析装置及び情報分析方法
 本開示は、情報分析装置及び情報分析方法に関する。
 車両の乗員のヒヤリハット情報を収集し、当該ヒヤリハット情報に基づいて分析を行うことによって道路交通に関する道路情報を危険情報として生成し、当該危険情報を運転者及び歩行者へ提示する技術が提案されている(例えば特許文献1)。
特開2003-123185号公報
 従来技術では、乗員のヒヤリハット情報に基づいて、ある地点でヒヤリハットが繰り返し発生したか否かを分析することによって、危険情報を生成する。しかしながら従来技術では、乗員が特定感情を持ちながら車両が移動した状況、及び、ある地点で乗員が特定感情を突発的に持った状況を分析しない。このため、運転者などに提示される危険情報は十分な情報量ではなく、危険情報、つまり道路情報が適切ではないという問題があった。
 そこで、本開示は、上記のような問題点に鑑みてなされたものであり、適切な道路情報を生成可能な技術を提供することを目的とする。
 本開示に係る情報分析装置は、車両の乗員の感情を含む乗員感情情報と、乗員感情情報に関連する、車両の位置情報及び日時情報とを含む感情プローブ情報を取得する取得部と、取得部で取得された感情プローブ情報を蓄積する記憶部と、記憶部に蓄積された感情プローブ情報に基づいて、乗員が特定感情を持ちながら車両が時間の経過とともに連続的に移動したか否かと、ある地点で乗員が特定感情を一時的に持ったか繰り返し持ったかとについて分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成する制御部とを備える。
 本開示によれば、蓄積された感情プローブ情報に基づいて、乗員が特定感情を持ちながら車両が時間の経過とともに連続的に移動したか否かと、ある地点で乗員が特定感情を一時的に持ったか繰り返し持ったかとについて分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成する。このような構成によれば、適切な道路情報を生成することができる。
 本開示の目的、特徴、局面及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る情報分析装置の構成の一例を示すブロック図である。 実施の形態2に係る情報分析装置の構成の一例を示すブロック図である。 実施の形態2に係るプローブ車両の構成の一例を示すブロック図である。 実施の形態2に係る感情種別送信装置の動作の一例を示すフローチャートである。 実施の形態2に係る情報分析装置の動作の一例を示すフローチャートである。 実施の形態2に係るイベント分析部及び道路情報生成部の動作の一例を示すフローチャートである。 実施の形態2の変形例4に係るプローブ車両の構成の一例を示すブロック図である。 実施の形態2の変形例6に係るプローブ車両の構成の一例を示すブロック図である。 実施の形態2の変形例8に係る情報分析装置の動作の一例を示すフローチャートである。 実施の形態2の変形例9に係る情報分析装置の動作の一例を示すフローチャートである。 実施の形態2の変形例10に係る情報分析装置の動作の一例を示すフローチャートである。 実施の形態3に係る情報分析装置の構成の一例を示すブロック図である。 実施の形態3に係る情報分析装置の動作の一例を示すフローチャートである。 実施の形態3に係る情報配信先車両の動作の一例を示すフローチャートである。 実施の形態3の変形例1に係るイベント分析部及び道路情報生成部の動作の一例を示すフローチャートである。 実施の形態3の変形例2に係る情報分析装置の動作の一例を示すフローチャートである。 実施の形態3の変形例3に係る情報分析装置の動作の一例を示すフローチャートである。 実施の形態3の変形例4に係る情報分析装置の動作の一例を示すフローチャートである。 実施の形態3の変形例6に係る情報配信先車両の動作の一例を示すフローチャートである。 その他の変形例に係る情報分析装置のハードウェア構成を示すブロック図である。 その他の変形例に係る情報分析装置のハードウェア構成を示すブロック図である。
 <実施の形態1>
 図1は、本実施の形態1に係る情報分析装置1の構成の一例を示すブロック図である。図1の情報分析装置は、取得部11と、記憶部12と、制御部13とを備え、1以上の車両と通信可能となっている。以下、1以上の車両は、1以上のプローブ車両であるものとして説明する。
 取得部11は、1以上のプローブ車両から感情プローブ情報を取得する。取得部11には、例えば通信装置及びそのインターフェースなどが用いられる。
 取得部11で取得される感情プローブ情報は、乗員感情情報と、プローブ車両の位置情報である車両位置情報と、日時情報とを含む。乗員感情情報は、プローブ車両の乗員の感情を含む。乗員感情情報に含まれる感情は、例えば乗員のネガティブな感情(例えば恐怖及び驚き)、及び、ポジティブな感情(例えば喜び及び期待)などである。
 車両位置情報及び日時情報は、乗員感情情報に関連しており、例えば乗員感情情報が生成されるタイミングと、車両位置情報及び日時情報が生成されるタイミングとが概ね同じであるように関連してもよい。または、例えば乗員感情情報の生成に用いられる乗員生体情報が取得されるタイミングと、車両位置情報及び日時情報が取得されるタイミングとが概ね同じであるように、車両位置情報及び日時情報は、乗員感情情報に関連してもよい。
 記憶部12は、取得部11で取得された感情プローブ情報を蓄積する。記憶部12には、例えば後述するメモリなどが用いられる。記憶部12には、一のプローブ車両からの複数の感情プローブ情報が複数回蓄積されてもよいし、複数のプローブ車両からの複数の感情プローブ情報が蓄積されてもよい。
 制御部13は、記憶部12に蓄積された感情プローブ情報に基づいて分析を行う。なお、制御部13には、例えば後述する処理回路及びプロセッサなどが用いられる。
 制御部13が行う上記分析は、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動したか否かについての分析と、ある地点で乗員が特定感情を一時的に持ったか繰り返し持ったかについて分析とを含む。特定感情は、予め特定された感情であり、例えばネガティブな感情(例えば恐怖及び驚きなど)であってもよいし、ポジティブな感情(例えば喜びや期待など)であってもよい。なお、プローブ車両が時間の経過とともに連続的に移動しないことは、プローブ車両がある地点に固定的に位置することを含む。
 制御部13は、上記分析によって得られた分析結果と、地図データとを関連付けて、道路情報を生成する。道路情報は、例えば地図データにおいて、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動した範囲と、乗員が特定感情を一時的にしか持たなかった地点と、乗員が特定感情を繰り返し持った地点とを識別可能な情報である。実施の形態3で説明するように、例えば道路情報は運転者などの乗員及び歩行者へ提示されてもよい。
 <実施の形態1のまとめ>
 以上のような本実施の形態1に係る情報分析装置によれば、車両の乗員が特定感情を持ちながら車両が時間の経過とともに連続的に移動したか否かと、ある地点で乗員が特定感情を一時的に持ったか繰り返し持ったかとについて分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成する。このような構成によれば、十分な情報量を有する適切な道路情報を生成することができる。
 <実施の形態2>
 図2は、本実施の形態2に係る情報分析装置1の構成の一例を示すブロック図である。以下、本実施の形態2に係る構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じまたは類似する参照符号を付し、異なる構成要素について主に説明する。
 図2の情報分析装置1は、感情入力部11aと、情報蓄積部12aと、イベント分析部13aと、道路情報生成部13bとを備える。感情入力部11aは、図1の取得部11の概念に含まれる。情報蓄積部12aは、図1の記憶部12の概念に含まれる。イベント分析部13a及び道路情報生成部13bは、図1の制御部13の概念に含まれる。
 感情入力部11aは、実施の形態1の取得部11のように、複数のプローブ車両2から感情プローブ情報を取得する。情報蓄積部12aは、実施の形態1の記憶部12のように、複数のプローブ車両2からの感情プローブ情報を蓄積する。
 イベント分析部13aは、実施の形態1の制御部13のように、情報蓄積部12aに蓄積された感情プローブ情報に基づいて、特定感情の時系列発生状況と、特定感情の発生場所とについて分析を行う。
 特定感情の時系列発生状況についての分析は、特定感情が一時的に発生したか、特定感情が繰り返し発生したかの分析を含む。つまり、特定感情の時系列発生状況についての分析は、乗員が特定感情を一時的に持ったか、乗員が特定感情を繰り返し持ったかの分析を含む。
 特定感情の発生場所についての分析は、ある範囲で特定感情が発生したか、ある地点で特定感情が発生したかの分析を含む。つまり、特定感情の発生場所についての分析は、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動したか、ある地点で乗員が特定感情を持ったかの分析を含む。
 道路情報生成部13bは、実施の形態1の制御部13のように、イベント分析部13aの分析結果と、地図データとを関連付けて道路情報を生成する。これにより、道路情報のデータベースが生成される。
 図3は、本実施の形態2に係るプローブ車両2の構成の一例を示すブロック図である。図3のプローブ車両2には、感情種別送信装置21と、日時情報検出装置22と、車両位置検出装置23と、乗員状態センシング装置24と、通信装置25とが搭載されている。感情種別送信装置21は、日時情報検出装置22、車両位置検出装置23、乗員状態センシング装置24、及び、通信装置25と通信可能に接続されている。なお、図3の例では、日時情報検出装置22、車両位置検出装置23、乗員状態センシング装置24、及び、通信装置25が、感情種別送信装置21の外部に設けられているが、それらの少なくともいずれか1つが感情種別送信装置21に備えられてもよい。
 感情種別送信装置21は、センサ情報入力部21aと、感情分析部21bと、送信判定部21cとを備える。感情種別送信装置21は、プローブ車両2の外部に設けられたサーバなどを適時に組み合わせてシステムとして構築される装置またはシステムとして、プローブ車両2以外に適用することができる。この場合、感情種別送信装置21の各機能または各構成要素は、上記システムを構築する各機能に分散して配置される。
 次に、プローブ車両2に搭載された各構成要素について詳細に説明する。
 日時情報検出装置22は、現在の日時情報を取得する。日時情報検出装置22は、例えばネットワーク経由で現在の日時情報を取得してもよいし、カーナビゲーションのシステムから現在の日時情報を取得してもよい。
 車両位置検出装置23は、プローブ車両2の現在の車両位置情報を取得する。車両位置検出装置23には、例えば高精度ロケータ及びロケータなどが用いられる。
 センサ情報入力部21aは、日時情報検出装置22及び車両位置検出装置23から現在の日時情報及び現在の車両位置情報をそれぞれ取得する。
 乗員状態センシング装置24は、プローブ車両2の乗員から乗員生体情報を取得する。乗員生体情報は、プローブ車両2の乗員の生体情報であり、例えば乗員の表情、脈拍、心拍などの生データを含む。乗員状態センシング装置24には、例えば、例えば画像認識を用いて乗員の表情を検出可能なDMS(Driver Monitoring System)、及び、ハンドルや席に設けられた脈拍または心拍を検出可能なセンサなどが用いられる。
 感情分析部21bは、乗員状態センシング装置24から乗員生体情報を取得し、乗員生体情報に基づいて乗員の感情を分析し、その分析結果として乗員感情情報を生成する。乗員感情情報は、実施の形態1で説明したように、プローブ車両2の乗員の感情を含む。例えば、乗員の表情が悪い場合、または、乗員の脈拍及び心拍が高い場合などには、感情分析部21bは、乗員の感情として、ネガティブな感情を含む乗員感情情報を生成する。
 また感情分析部21bは、乗員生体情報に基づいて、プローブ車両2の乗員の感情の度合である感情度を算出する。例えば感情分析部21bは、感情度として特開2018-126422号に記載されているPNN50を算出してもよい。なお、PNN50は、ネガティブな感情が強いほど小さくなり、ポジティブな感情が強いほど大きくなる。
 送信判定部21cは、感情分析部21bで生成された乗員感情情報と、センサ情報入力部21aで取得された車両位置情報及び日時情報とを含む感情プローブ情報を生成する。感情プローブ情報において、車両位置情報及び日時情報は、乗員感情情報に関連しており、例えば乗員感情情報の生成に用いられる乗員生体情報が取得されるタイミングと、車両位置情報及び日時情報が取得されるタイミングとが概ね同じであるように関連している。
 また送信判定部21cは、通信装置25を制御する。通信装置25は、送信判定部21cの制御により、感情プローブ情報を情報分析装置1に送信したり、情報分析装置1からの各種情報を受信したりする。
 <動作>
 図4は、本実施の形態2に係る感情種別送信装置21の動作の一例を示すフローチャートである。
 ステップS11にて、乗員状態センシング装置24は、乗員生体情報を取得し、当該乗員生体情報を感情分析部21bに送信する。感情分析部21bは、受信した乗員生体情報に基づいて、プローブ車両2の乗員の感情を含む乗員感情情報を生成し、当該感情の感情度を算出する。
 ステップS12にて、送信判定部21cは、感情分析部21bで算出された感情度に基づいて、プローブ車両2の通信装置25から情報分析装置1に感情プローブ情報を送信するか否かを判定する。例えば、乗員感情情報に含まれる感情がネガティブな感情であり、感情度がPNN50である構成では、PNN50が基準値より小さい場合に、送信判定部21cは、感情プローブ情報を情報分析装置1に送信すると判定する。一方、PNN50が基準値以上である場合には、送信判定部21cは、感情プローブ情報を情報分析装置1に送信しないと判定する。
 感情プローブ情報を情報分析装置1に送信すると判定された場合には処理がステップS13に進み、感情プローブ情報を情報分析装置1に送信しないと判定された場合には処理がステップS11に戻る。
 ステップS13にて、送信判定部21cは、センサ情報入力部21aで取得された車両位置情報及び日時情報のうち、感情分析部21bで生成された乗員感情情報と関連する車両位置情報及び日時情報を読み取る。そして、送信判定部21cは、乗員感情情報と、読み取った車両位置情報及び日時情報とを含む感情プローブ情報を生成し、当該感情プローブ情報を情報分析装置1に送信する。
 ステップS14にて、感情種別送信装置21が動作しているか否かを判定する。感情種別送信装置21が動作していると判定された場合には処理がステップS11に戻り、感情種別送信装置21が動作していないと判定された場合には図4の動作が終了する。
 図5は、本実施の形態2に係る情報分析装置1の動作の一例を示すフローチャートである。
 ステップS21にて、感情入力部11aは、複数のプローブ車両2から感情プローブ情報を受信する。ステップS22にて、情報蓄積部12aは、感情入力部11aで受信された感情プローブ情報を蓄積する。
 ステップS23にて、イベント分析部13aは、情報蓄積部12aに蓄積された感情プローブ情報に基づいて、特定感情の時系列発生状況と、特定感情の発生場所とについて分析を行う。そして、道路情報生成部13bは、イベント分析部13aの分析結果と、地図データとを関連付けて道路情報を生成する。その後、処理がステップS21に戻る。
 なお、このステップS23における分析は、図4のステップS12にて、感情度に基づいて、感情プローブ情報を情報分析装置1に送信すると判定された場合に可能となる。つまり本実施の形態2では実質的に、感情度に基づいてステップS23の分析を行うか否かが判定される。
 図6は、本実施の形態2に係るイベント分析部13a及び道路情報生成部13bの動作の一例を示すフローチャートであり、具体的にはステップS23における動作を示す。
 ステップS31にて、イベント分析部13aは、蓄積された感情プローブ情報に基づいて、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動したか否かを判定する。例えば、感情プローブ情報に含まれる車両位置情報において、前回の値と今回の値との差が100mより大きい場合、イベント分析部13aは、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動していると判定する。一方、感情プローブ情報に含まれる車両位置情報において、前回の値と今回の値との差が100m以下である場合、イベント分析部13aは、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動していないと判定する。
 乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動したと判定された場合には、処理がステップS35に進む。乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動していないと判定された場合には、処理がステップS32に進む。
 ステップS32にて、イベント分析部13aは、蓄積された感情プローブ情報に基づいて、ある地点で乗員が特定感情を繰り返し持ったかを判定する。例えば、ある地点で過去10日間に3回以上の特定感情が発生した場合、イベント分析部13aは、ある地点で乗員が特定感情を繰り返し持ったと判定する。一方、ある地点で過去10日間に3回未満の特定感情が発生した場合、イベント分析部13aは、ある地点で乗員が特定感情を繰り返し持った、つまり、ある地点で乗員が特定感情を一時的に持ったと判定する。
 ある地点で乗員が特定感情を繰り返し持ったと判定された場合には、処理がステップS33に進む。ある地点で乗員が特定感情を繰り返し持たなかったと判定された場合には、処理がステップS34に進む。
 ステップS33にて、道路情報生成部13bは、ある地点で乗員が特定感情を繰り返し持ったという判定結果が得られた感情プローブ情報から各種情報を読み出し、各種情報と、地図データとを関連付けることによって、静的な道路情報のデータベースを生成する。これにより、道路情報は、地図データにおいて乗員が特定感情を繰り返し持った地点を識別可能な情報となる。なお、静的な道路情報のデータベースは、変更頻度が比較的低いデータベースである。その後、図6の処理が終了する。
 ステップS34にて、道路情報生成部13bは、ある地点で乗員が特定感情を一時的に持ったという判定結果が得られた感情プローブ情報の各種情報と、地図データとを関連付けることによって、動的な道路情報のデータベースを生成する。これにより、道路情報は、地図データにおいて乗員が特定感情を一時的にしか持たなかった地点を識別可能な情報となる。なお、動的な道路情報のデータベースは、変更頻度が比較的高いデータベースである。その後、図6の処理が終了する。
 ステップS35にて、道路情報生成部13bは、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動したという判定結果が得られた感情プローブ情報の各種情報と、地図データとを関連付けることによって、動的な道路情報のデータベースを生成する。これにより、道路情報は、地図データにおいて、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動した範囲を識別可能な情報となる。その後、図6の処理が終了する。
 <実施の形態2のまとめ>
 以上のような本実施の形態2に係る情報分析装置1によれば、実施の形態1と同様の分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成する。このような構成によれば、十分な情報量を有する適切な道路情報を生成することができる。
 また本実施の形態2では、感情度に基づいて実施の形態1と同様の分析を行うか否かが判定される。この結果、分析が選択的に行われるので、情報分析装置1の処理負荷を低減することができる。
 <変形例1>
 実施の形態2では、感情分析部21bは受信した乗員生体情報に基づいて、驚きや恐怖などのネガティブな感情を含む乗員感情情報を生成したが、これに限るものではない。例えば、感情分析部21bは、喜びや期待などのポジティブな感情を含む乗員感情情報を生成してもよい。このような変形例1によれば、道路情報が運転者に提示されることにより、運転者は危険を回避可能な運転だけでなく、風光明媚な景観の眺望などが可能な運転を実現することができる。
 なお、乗員感情情報に含まれる感情がポジティブな感情であり、感情度がPNN50である構成では、図4のステップS12にてPNN50が基準値以上である場合に、送信判定部21cは、感情プローブ情報を情報分析装置1に送信すると判定すればよい。一方、PNN50が基準値より小さい場合に、送信判定部21cは、乗員感情情報を情報分析装置1に送信しないと判定すればよい。
 <変形例2>
 実施の形態2では、プローブ車両2から情報分析装置1に送信される感情プローブ情報は、乗員感情情報、車両位置情報、及び、日時情報を含んだが、これに限るものではない。例えば、感情プローブ情報は、これらの情報に加えて感情度を含んでもよい。そして、道路情報生成部13bは、上記分析結果と、地図データと、感情度とを関連付けて道路情報を生成してもよい。このような本変形例2によれば、例えば感情度がネガティブな感情の感情度である場合、道路情報生成部13bは、道路交通がどの程度危険かという指標を含む道路情報を生成することができる。
 <変形例3>
 実施の形態2では、プローブ車両2から情報分析装置1に送信される感情プローブ情報は、乗員感情情報、車両位置情報、及び、日時情報を含んだが、これに限るものではない。例えば、感情プローブ情報は、これらの情報に加えて、乗員感情情報と実質的に取得されるタイミングが同じであるプローブ車両2の速度を含んでもよい。このような本変形例3によれば、感情プローブ情報がプローブ車両2の速度を含むので、例えば感情プローブ情報に基づいて行われる図6のステップS31の判定の精度を高めることができる。
 <変形例4>
 実施の形態2では、プローブ車両2から情報分析装置1に送信される感情プローブ情報は、乗員感情情報、車両位置情報、及び、日時情報を含んだが、これに限るものではない。例えば、感情プローブ情報は、これらの情報に加えて、乗員感情情報と実質的に取得されるタイミングが同じであるプローブ車両2の周辺情報を車両周辺情報として含んでもよい。そして、道路情報生成部13bは、上記分析結果と、地図データと、車両周辺情報とを関連付けて道路情報を生成してもよい。
 図7は、本変形例4に係るプローブ車両2の構成の一例を示すブロック図である。図7のプローブ車両2の構成は、図3のプローブ車両2の構成に、車両周辺情報検出装置26が追加された構成と同様である。車両周辺情報検出装置26は車両周辺情報を検出する。車両周辺情報検出装置26には、例えばカメラ及びLiDAR(light detection and ranging)などのセンサが用いられる。このような本変形例4によれば、感情プローブ情報が車両周辺情報を含むので、例えば道路情報生成部13bは、プローブ車両2周辺で起きている状況を判別可能な道路情報を生成することができる。
 <変形例5>
 実施の形態2では、プローブ車両2から情報分析装置1に送信される感情プローブ情報は、乗員感情情報、車両位置情報、及び、日時情報を含んだが、これに限るものではない。例えば、感情プローブ情報は、これらの情報に加えて、乗員感情情報と実質的に取得されるタイミングが同じである車線情報を含んでもよい。車線情報は、プローブ車両2が位置する車線の情報である。そして、道路情報生成部13bは、上記分析結果と、地図データと、車線情報とを関連付けて道路情報を生成してもよい。このような本変形例5によれば、感情プローブ情報が車線情報を含むので、例えば道路単位よりも精度の高い車線単位で道路情報を提示したり、車線単位でヒヤリハットマップを作成したりすることができる。
 <変形例6>
 実施の形態2では、プローブ車両2から情報分析装置1に送信される感情プローブ情報は、乗員感情情報、車両位置情報、及び、日時情報を含んだが、これに限るものではない。例えば、感情プローブ情報は、これらの情報に加えて、車両位置情報が示す位置を含む地図を特定する地図IDを含んでもよい。そして、道路情報生成部13bは、上記分析結果と、地図データと、地図IDとを関連付けて道路情報を生成してもよい。
 図8は、本変形例6に係るプローブ車両2の構成の一例を示すブロック図である。図8のプローブ車両2の構成は、図3のプローブ車両2の構成に、地図データ記憶装置27が追加された構成と同様である。地図データ記憶装置27には、地図IDが付加された地図が記憶されており、例えば各種メモリなどが用いられる。このような本変形例6によれば、感情プローブ情報が地図IDを含むので、例えば、分析結果と関連付けるべき地図データの検索が容易となり、道路情報生成部13bにおける道路情報の生成負荷を低減することができる。
 <変形例7>
 実施の形態2では、感情分析部21bで算出される感情度がPNN50である例について説明したが、これに限るものではない。例えば、感情度は、特開2018-126422号に記載されているLF/HF比、または、SDNNであってもよいし、特開2007-47846号に記載されているPWTTであってもよいし、特開2019-209128号に記載されているCvRRであってもよいし、特開2021-118908号に記載されているRR間隔であってもよい。
 <変形例8>
 実施の形態2では図5のように、ステップS21で感情プローブ情報が受信された後、イベント分析部13aは分析を即座に行ったが、これに限るものではない。例えば、イベント分析部13aは、分析を行うべきタイミングであるか否かに基づいて分析を即座に行うか否かを判定してもよい。
 図9は、本変形例8に係る情報分析装置1の動作の一例を示すフローチャートである。図9のフローチャートは、図5のフローチャートにステップS24が追加されたフローチャートと同様であるため、ステップS24について主に説明する。
 ステップS22の後、ステップS24にて、イベント分析部13aは、分析を行うべきタイミングであるか否かを判定する。この判定は、例えば、前回分析を行ってから一定時間(例えば10分)が経過しているか否かに基づいて行われてもよいし、未分析の感情プローブ情報の数が閾値(例えば100個)を超えているか否かに基づいて行われてもよい。分析を行うべきタイミングであると判定された場合には処理がステップS23に進み、分析を行うべきタイミングでないと判定された場合には処理がステップS21に戻る。
 このような本変形例8によれば、イベント分析部13aは、分析を行うべきタイミングであるか否かに基づいて分析を行うか否かを判定する。この結果、分析が選択的に行われるので、イベント分析部13aの処理負荷を低減することができる。
 <変形例9>
 実施の形態2では上述したように、感情プローブ情報が受信された後、イベント分析部13aは分析を即座に行ったが、これに限るものではない。例えば、イベント分析部13aは、乗員感情情報に基づいて分析を即座に行うか否かを判定してもよい。
 図10は、本変形例9に係る情報分析装置1の動作の一例を示すフローチャートである。図10のフローチャートは、図9のフローチャートにステップS25が追加されたフローチャートと同様であるため、ステップS25について主に説明する。
 ステップS22の後、ステップS25にて、イベント分析部13aは、乗員感情情報に基づいて分析を即座に行うか否かを判定する。例えば、乗員感情情報がネガティブな感情を含む場合に、イベント分析部13aは分析を即座に行うと判定し、乗員感情情報がポジティブな感情を含む場合に、イベント分析部13aは分析を即座に行わないと判定してもよい。分析を即座に行うと判定された場合には処理がステップS23に進み、分析を即座に行わないと判定された場合には処理がステップS24に進む。
 このような本変形例9によれば、乗員感情情報に基づいて分析を即座に行うか否かを判定する。この結果、イベント分析部13aの処理負荷を低減しつつ、例えば乗員感情情報がネガティブな感情を含む場合に即座に道路情報を生成することができる。
 <変形例10>
 実施の形態2では上述したように、感情プローブ情報が受信された後、イベント分析部13aは分析を即座に行ったが、これに限るものではない。例えば、イベント分析部13aは、感情度に基づいて分析を即座に行うか否かを判定してもよい。
 図11は、本変形例10に係る情報分析装置1の動作の一例を示すフローチャートである。図11のフローチャートは、図9のフローチャートにステップS26が追加されたフローチャートと同様であるため、ステップS26について主に説明する。
 ステップS22の後、ステップS26にて、イベント分析部13aは、感情度に基づいて分析を即座に行うか否かを判定する。例えば、感情度と基準値との差が一定値以上である場合に、イベント分析部13aは分析を即座に行うと判定し、当該差が一定値よりも小さい場合に、イベント分析部13aは分析を即座に行わないと判定してもよい。分析を即座に行うと判定された場合には処理がステップS23に進み、分析を即座に行わないと判定された場合には処理がステップS24に進む。
 このような本変形例10によれば、感情度に基づいて分析を即座に行うか否かを判定する。この結果、イベント分析部13aの処理負荷を低減しつつ、例えば感情度が基準値から大きく異なる場合に即座に道路情報を生成することができる。
 <変形例11>
 実施の形態2の図3では、センサ情報入力部21a、感情分析部21b、及び、送信判定部21cは、プローブ車両2に搭載されているが、これに限るものではない。例えば、センサ情報入力部21a、感情分析部21b、及び、送信判定部21cの少なくともいずれか1つが、情報分析装置1に設けられてもよい。
 例えば、センサ情報入力部21a、感情分析部21b、及び、送信判定部21cの全てが情報分析装置1に設けられた構成では、情報分析装置1は、プローブ車両2から乗員生体情報、車両位置情報及び日時情報を受信すればよい。例えば、送信判定部21cが情報分析装置1に設けられた構成では、情報分析装置1は、プローブ車両2から乗員感情情報、車両位置情報及び日時情報を受信してもよいし、プローブ車両2から乗員感情情報、車両位置情報、日時情報及び感情度を受信してもよい。情報分析装置1が、プローブ車両2から感情度を受信する場合、情報分析装置1に設けられた送信判定部21cが、感情度に基づいて、感情プローブ情報を生成するか否かを判定してもよい。
 <実施の形態3>
 実施の形態2では、乗員生体情報の分析、感情プローブ情報の送信、分析及び道路情報の生成について説明した。本実施の形態3では、以下で説明するように、道路情報の生成後、情報分析装置1から情報配信先車両3に道路情報を送信し、情報配信先車両3で道路情報を乗員に提示することが可能となっている。
 図12は、本実施の形態3に係る情報分析装置1の構成の一例を示すブロック図である。以下、本実施の形態3に係る構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じまたは類似する参照符号を付し、異なる構成要素について主に説明する。
 図12の情報分析装置1の構成は、図2の情報分析装置1の構成に、図1の制御部13の概念に含まれる道路情報出力部13cが追加された構成と同様である。道路情報出力部13cは、情報配信先車両3と通信可能であり、道路情報を情報配信先車両3に送信する。
 情報配信先車両3には提示装置31が設けられている。提示装置31は、情報分析装置1から送信された道路情報を提示する。提示装置31は、例えば、地図上でのアニメーション表示及びポップアップ表示、並びに、音声通知などによって、特定感情が発生した地点または範囲を提示する。
 以上を換言すれば、道路情報出力部13cは、道路情報を提示装置31に提示させる制御を行う。これにより、情報配信先車両3の乗員は、提示された道路情報を確認することができる。なお、情報配信先車両3は、プローブ車両2であってもよいし、プローブ車両2以外の車両であってもよい。
 <動作>
 図13は、本実施の形態3に係る情報分析装置1の動作の一例を示すフローチャートである。
 ステップS41にて、道路情報出力部13cは、道路情報を送信すべきタイミングであるか否かを判定する。この判定は、例えば、前回の送信から一定時間(例えば10分)が経過しているか否かに基づいて行われてもよいし、未送信の道路情報の数が閾値(例えば100個)を超えているか否かに基づいて行われてもよい。道路情報を送信すべきタイミングであると判定された場合には処理がステップS42に進み、道路情報を送信すべきタイミングでないと判定された場合には、ステップS41の処理が再度行われる。
 ステップS42にて、道路情報出力部13cは、ブロードキャストを用いて、道路情報を情報配信先車両3に送信する。
 図14は、本実施の形態3に係る情報配信先車両3の動作の一例を示すフローチャートである。
 ステップS51にて、情報配信先車両3は、情報分析装置1から道路情報を受信したか否かを判定する。道路情報を受信したと判定された場合には処理がステップS52に進み、道路情報を受信していないと判定された場合には、ステップS51の処理が再度行われる。
 ステップS52にて、情報配信先車両3は、受信した道路情報に示される特定感情が、情報配信先車両3の周辺で発生しているか否かを判定する。例えば、情報配信先車両3は、情報配信先車両3と、道路情報に示される特定感情が発生した地点または範囲との間の距離が一定距離(例えば5km)以内であれば、特定感情が情報配信先車両3の周辺で発生していると判定する。
 特定感情が情報配信先車両3の周辺で発生していると判定された場合には処理がステップS53に進み、特定感情が情報配信先車両3の周辺で発生していないと判定された場合には処理がステップS51に戻る。
 ステップS53にて、情報配信先車両3の提示装置31は、受信した道路情報を乗員に提示する。
 ステップS54において、提示装置31が動作しているか否かを判定する。提示装置31が動作していると判定された場合には処理がステップS51に戻り、提示装置31が動作していないと判定された場合には図14の動作が終了する。
 <実施の形態3のまとめ>
 以上のような本実施の形態3に係る情報分析装置1によれば、道路情報を提示装置31に提示させる制御を行うので、提示装置31のユーザは、提示された道路情報を確認することができる。なお、提示装置31は、情報配信先車両3ではなく、歩行者の通信端末などに設けられてもよい。
 <変形例1>
 実施の形態3において、イベント分析部13aは、乗員が予め定められた時間帯に特定感情を繰り返し持つか否かについて分析を行ってもよい。予め定められた時間帯は、例えば、1日を3時間単位に区分した時間帯であり、0時から3時、3時から6時、6時から9時、9時から12時、12時から15時、15時から18時、18時から21時、及び、21時から24の時間帯を含む。また、道路情報出力部13cは、乗員が予め定められた時間帯に特定感情を繰り返し持つか否かについての分析結果に基づいて道路情報の送信、ひいては道路情報の提示制御を行ってもよい。
 図15は、本変形例1に係るイベント分析部13a及び道路情報生成部13bの動作の一例を示すフローチャートである。図15のフローチャートは、図6のフローチャートのステップS33を削除し、ステップS36~S38、及び、ステップS41~S43が追加されたフローチャートと同様である。このため、以下ではステップS36~S38、及び、ステップS41~S43について主に説明する。
 ステップS32の後、ステップS36にて、イベント分析部13aは、ある地点で乗員が一時的または繰り返し発生した特定感情について、乗員がいずれかの時間帯に特定感情を繰り返し持ったか否かを判定する。例えば、過去10日間のうちの一の時間帯に3回以上の特定感情が発生した場合、イベント分析部13aは、ある地点で乗員が一の時間帯に特定感情を繰り返し持ったと判定する。
 ある地点で乗員がいずれかの時間帯に特定感情を繰り返し持ったと判定された場合には、処理がステップS37に進む。一方、ある地点で乗員がいずれの時間帯においても特定感情を繰り返し持たなかったと判定された場合には、処理がステップS38に進む。なお以下の説明では、ある地点で乗員が特定感情を繰り返し持ったと判定された時間帯を、特定時間帯と記すこともある。
 ステップS37にて、道路情報生成部13bは、ある地点で乗員が特定時間帯に特定感情を繰り返し持ったという判定結果が得られた感情プローブ情報の各種情報と、地図データとを関連付けることによって、静的な道路情報のデータベースを生成する。
 ステップS37の後、ステップS43にて、道路情報出力部13cは、現在の時間が、特定時間帯に含まれるか否かを判定する。現在の時間が特定時間帯に含まれると判定された場合には処理がステップS42に進み、現在の時間が特定時間帯に含まれないと判定された場合には処理がステップS31に戻る。
 ステップS38にて、道路情報生成部13bは、ある地点で乗員が特定時間帯に特定感情を繰り返し持たなかったという判定結果が得られた感情プローブ情報の各種情報と、地図データとを関連付けることによって、静的な道路情報のデータベースを生成する。
 ステップS34,S35,S38のそれぞれの後、ステップS41にて図13のステップS41と同様に、道路情報出力部13cは、道路情報を送信すべきタイミングであるか否かを判定する。道路情報を送信すべきタイミングであると判定された場合には処理がステップS42に進み、道路情報を送信すべきタイミングでないと判定された場合には処理がステップS31に戻る。
 ステップS42にて図13のステップS42と同様に、道路情報出力部13cは、ブロードキャストを用いて、道路情報を情報配信先車両3に送信する。なお、ステップS43の処理を経てステップS42の処理が行われる場合には、道路情報が強調されて提示されてもよい。
 以上のような本変形例1によれば、道路情報出力部13cは、ある地点において、乗員が特定時間帯に特定感情を繰り返し持つと判定された場合には、現在の時間が当該時間帯に含まれるか否かに基づいて道路情報を提示装置31に提示させる制御を行う。一方、道路情報出力部13cは、ある地点において、乗員が特定時間帯に特定感情を繰り返し持たないと判定された場合には、現在の時間が当該時間帯に含まれるか否かに関わらず道路情報を提示装置31に提示させる制御を行う。
 これにより、特定感情が比較的発生しやすい情報と、特定感情が常時発生する情報(つまりマッピングされる情報)とを分けて提示することができる。このため、乗員に提示する情報量を削減することができるので、乗員への過度の情報の提示を抑制することができる。
 <変形例2>
 実施の形態3では、道路情報出力部13cは、道路情報を一律に定期的に送信したが、これに限るものではなく、例えば乗員感情情報に基づいて道路情報の送信、ひいては道路情報の提示制御を即座に行ってもよい。
 図16は、本変形例2に係る情報分析装置1の動作の一例を示すフローチャートである。
 ステップS44にて、道路情報出力部13cは、図6のイベント分析部13aによるステップS31の判定と同様の判定を行う。つまり、道路情報出力部13cは、蓄積された感情プローブ情報に基づいて、乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動したか否かを判定する。
 乗員が特定感情を持ちながらプローブ車両が時間の経過とともに連続的に移動したと判定された場合には、処理がステップS42に進み、そうでない場合には処理がステップS45に進む。
 ステップS45にて、道路情報出力部13cは、図6のイベント分析部13aによるステップS32の判定と同様の判定を行う。つまり、道路情報出力部13cは、蓄積された感情プローブ情報に基づいて、ある地点で乗員が特定感情を繰り返し持ったかを判定する。ある地点で乗員が特定感情を繰り返し持ったと判定された場合には、処理がステップS41に進む。ある地点で乗員が特定感情を繰り返し持たなかったと判定された場合には、処理がステップS42に進む。
 ステップS41にて図13のステップS41と同様に、道路情報出力部13cは、道路情報を送信すべきタイミングであるか否かを判定する。道路情報を送信すべきタイミングであると判定された場合には処理がステップS42に進み、道路情報を送信すべきタイミングでないと判定された場合には処理がステップS44に戻る。
 ステップS42にて図13のステップS42と同様に、道路情報出力部13cは、ブロードキャストを用いて、道路情報を情報配信先車両3に送信する。
 このような変形例2によれば、通信量を削減することができる。また、リアルタイムに提示すべき情報を即座に提示することができるため、乗員に道路情報を効率的に提示することができる。なお、図16において、ステップS44及びステップS45のいずれか1つが削除されてもよい。
 <変形例3>
 実施の形態3では、道路情報出力部13cは、道路情報を一律に定期的に送信したが、これに限るものではなく、例えば乗員感情情報に基づいて道路情報の送信、ひいては道路情報の提示制御を即座に行ってもよい。
 図17は、本変形例3に係る情報分析装置1の動作の一例を示すフローチャートである。
 ステップS46にて、道路情報出力部13cは、乗員感情情報に基づいて道路情報を即座に送信するか否かを判定する。例えば、乗員感情情報がネガティブな感情を含む場合に、道路情報出力部13cは道路情報を即座に送信すると判定し、乗員感情情報がポジティブな感情を含む場合に、道路情報出力部13cは道路情報を即座に送信しないと判定してもよい。道路情報を即座に送信すると判定された場合には処理がステップS42に進み、道路情報を即座に送信しないと判定された場合には処理がステップS41に進む。
 ステップS41にて図13のステップS41と同様に、道路情報出力部13cは、道路情報を送信すべきタイミングであるか否かを判定する。道路情報を送信すべきタイミングであると判定された場合には処理がステップS42に進み、道路情報を送信すべきタイミングでないと判定された場合には処理がステップS46に戻る。
 ステップS42にて図13のステップS42と同様に、道路情報出力部13cは、ブロードキャストを用いて、道路情報を情報配信先車両3に送信する。
 このような変形例3によれば、通信量を削減することができる。また、例えば乗員感情情報がネガティブな感情を含む場合に道路情報を即座に提示することができるため、乗員に道路情報を効率的に提示することができる。
 <変形例4>
 実施の形態3では、道路情報出力部13cは、道路情報を一律に定期的に送信したが、これに限るものではなく、例えば感情度に基づいて道路情報の送信、ひいては道路情報の提示制御を即座に行ってもよい。
 図18は、本変形例4に係る情報分析装置1の動作の一例を示すフローチャートである。
 ステップS47にて、道路情報出力部13cは、感情度に基づいて道路情報を即座に送信するか否かを判定する。例えば、感情度と基準値との差が一定値以上である場合に、道路情報出力部13cは道路情報を即座に送信すると判定し、当該差が一定値よりも小さい場合に、道路情報出力部13cは道路情報を即座に送信しないと判定してもよい。道路情報を即座に送信すると判定された場合には処理がステップS42に進み、道路情報を即座に送信しないと判定された場合には処理がステップS41に進む。
 ステップS41にて図13のステップS41と同様に、道路情報出力部13cは、道路情報を送信すべきタイミングであるか否かを判定する。道路情報を送信すべきタイミングであると判定された場合には処理がステップS42に進み、道路情報を送信すべきタイミングでないと判定された場合には処理がステップS47に戻る。
 ステップS42にて図13のステップS42と同様に、道路情報出力部13cは、ブロードキャストを用いて、道路情報を情報配信先車両3に送信する。
 このような変形例4によれば、通信量を削減することができる。また、例えば感情度が基準値から大きく異なる場合に即座に道路情報を即座に提示することができるため、乗員に道路情報を効率的に提示することができる。
 <変形例5>
 実施の形態3では、道路情報出力部13cから情報配信先車両3に対して道路情報を定期的に送信していたが、これに限るものではなく、例えば情報配信先車両3から情報分析装置1に対して道路情報の送信要求を行ってもよい。そして、情報分析装置1は、情報配信先車両3から道路情報の送信要求があった場合に、即座に道路情報を情報配信先車両3に送信してもよい。このような変形例5によれば、情報配信先車両3の乗員が道路情報を受信したいときに道路情報を受信することができる。
 <変形例6>
 実施の形態3において、情報配信先車両3の乗員が目的地を設定して経路案内が行われている場合に、提示装置31は、情報分析装置1から送信された道路情報に基づいて、経路変更の提案を行ってもよい。
 図19は、本変形例6に係る情報配信先車両3の動作の一例を示すフローチャートである。図19のフローチャートは、図14のフローチャートのステップS53を削除し、ステップS55~S58が追加されたフローチャートと同様である。このため、以下ではステップS55~S58について主に説明する。
 ステップS52にて、特定感情が情報配信先車両3の周辺で発生していると判定された場合には処理がステップS55に進む。
 ステップS55にて、提示装置31は経路変更の提案を行う。経路変更の提案として、提示装置31は、例えば、地図上でのアニメーション表示及びポップアップ表示、並びに、音声通知などによって、提案経路を提示する。提案経路は、例えば、ネガティブな感情が発生している道路は通らない経路、または、ポジティブな感情が発生している道路を通る経路を含む。
 ステップS56にて、提示装置31は、乗員から提案経路の適用指示を受けたか否かを判定する。提案経路の適用指示を受けたと判定された場合には処理がステップS57に進み、提案経路の適用指示を受けなかったと判定された場合には処理がステップS58に進む。
 ステップS57にて、提示装置31は、提案経路に沿った経路案内を行う。その後、ステップS54に処理が進む。
 ステップS58にて、提示装置31は、ステップS55の処理から一定時間が経過したか、または、ステップS55の処理から情報配信先車両3が一定距離を走行したか否かを判定する。一定時間は、例えば10分である。一定距離は、例えば10kmである。
 一定時間が経過した、または、情報配信先車両3が一定距離を走行したと判定された場合には処理がステップS51に戻り、そうでない場合にはステップS58の処理が再度行われる。なお、情報配信先車両3が一定距離を走行したと判定された場合には処理がステップS51ではなくステップS54に進んでもよい。
 本変形例6によれば、情報配信先車両3の乗員は、例えばネガティブな感情が発生している道路は通らない経路、及び、ポジティブな感情が発生している道路を通る経路などの適切な経路を、自身が考えなくても知ることができる。
 <その他の変形例>
 上述した図1の取得部11、制御部13を、以下「取得部11等」と記す。取得部11等は、図20に示す処理回路81により実現される。すなわち、処理回路81は、車両の乗員の感情を含む乗員感情情報と、乗員感情情報に関連する、車両の位置情報及び日時情報とを含む感情プローブ情報を取得する取得部11と、記憶部12に蓄積された感情プローブ情報に基づいて、乗員が特定感情を持ちながら車両が時間の経過とともに連続的に移動したか否かと、ある地点で乗員が特定感情を一時的に持ったか繰り返し持ったかとについて分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成する制御部13と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
 処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。取得部11等の各部の機能それぞれは、処理回路を分散させた回路で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
 処理回路81がプロセッサである場合、取得部11等の機能は、ソフトウェア等との組み合わせにより実現される。なお、ソフトウェア等には、例えば、ソフトウェア、ファームウェア、または、ソフトウェア及びファームウェアが該当する。ソフトウェア等はプログラムとして記述され、メモリに格納される。図21に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、情報分析装置1は、処理回路81により実行されるときに、車両の乗員の感情を含む乗員感情情報と、乗員感情情報に関連する、車両の位置情報及び日時情報とを含む感情プローブ情報を取得するステップと、取得された感情プローブ情報を蓄積するステップと、蓄積された感情プローブ情報に基づいて、乗員が特定感情を持ちながら車両が時間の経過とともに連続的に移動したか否かと、ある地点で乗員が特定感情を一時的に持ったか繰り返し持ったかとについて分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、取得部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)、それらのドライブ装置、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、取得部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限るものではなく、取得部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、取得部11については専用のハードウェアとしての処理回路81、インターフェースなどの取得サーキットリーでその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、処理回路81は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 また、以上で説明した情報分析装置は、PND(Portable Navigation Device)、ナビゲーション装置及びDMSなどの車両装置と、携帯電話、スマートフォン及びタブレットなどの携帯端末を含む通信端末と、車両装置及び通信端末の少なくとも1つにインストールされるアプリケーションの機能と、サーバとを適宜に組み合わせてシステムとして構築される情報分析システムにも適用することができる。この場合、以上で説明した情報分析装置の各機能または各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。
 なお、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
 上記した説明は、すべての局面において、例示であって、限定的なものではない。例示されていない無数の変形例が、想定され得るものと解される。
 1 情報分析装置、2 プローブ車両、11 取得部、12 記憶部、13 制御部、31 提示装置。

Claims (9)

  1.  車両の乗員の感情を含む乗員感情情報と、前記乗員感情情報に関連する、前記車両の位置情報及び日時情報とを含む感情プローブ情報を取得する取得部と、
     前記取得部で取得された前記感情プローブ情報を蓄積する記憶部と、
     前記記憶部に蓄積された前記感情プローブ情報に基づいて、前記乗員が特定感情を持ちながら前記車両が時間の経過とともに連続的に移動したか否かと、ある地点で前記乗員が前記特定感情を一時的に持ったか繰り返し持ったかとについて分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成する制御部と
    を備える、情報分析装置。
  2.  請求項1に記載の情報分析装置であって、
     前記乗員感情情報は、前記乗員の生体情報に基づいて生成される、情報分析装置。
  3.  請求項1または請求項2に記載の情報分析装置であって、
     前記感情は、前記乗員のネガティブな感情を含む、情報分析装置。
  4.  請求項1に記載の情報分析装置であって、
     前記乗員の前記感情の度合である感情度が、前記乗員の生体情報に基づいて生成される、情報分析装置。
  5.  請求項4に記載の情報分析装置であって、
     前記感情度に基づいて前記分析を行うか否かが判定される、情報分析装置。
  6.  請求項1から請求項5のうちのいずれか1項に記載の情報分析装置であって、
     前記感情プローブ情報は、
     前記乗員感情情報に関連する、前記車両が位置する車線の情報である車線情報をさらに含み、
     前記制御部は、
     前記分析結果と、前記地図データと、前記車線情報とを関連付けて前記道路情報を生成する、情報分析装置。
  7.  請求項1から請求項6のうちのいずれか1項に記載の情報分析装置であって、
     前記制御部は、前記道路情報を提示装置に提示させる制御を行う、情報分析装置。
  8.  請求項7に記載の情報分析装置であって、
     前記制御部は、
      前記地点において、前記乗員が予め定められた時間帯に前記特定感情を繰り返し持つと判定された場合には、現在の時間が前記時間帯に含まれるか否かに基づいて前記道路情報を前記提示装置に提示させる制御を行い、
      前記地点において、前記乗員が前記時間帯に前記特定感情を繰り返し持たないと判定された場合には、現在の時間が前記時間帯に含まれるか否かに関わらず前記道路情報を前記提示装置に提示させる制御を行う、情報分析装置。
  9.  車両の乗員の感情を含む乗員感情情報と、前記乗員感情情報に関連する、前記車両の位置情報及び日時情報とを含む感情プローブ情報を取得し、
     取得された前記感情プローブ情報を蓄積し、
     蓄積された前記感情プローブ情報に基づいて、前記乗員が特定感情を持ちながら前記車両が時間の経過とともに連続的に移動したか否かと、ある地点で前記乗員が前記特定感情を一時的に持ったか繰り返し持ったかとについて分析を行い、それによって得られた分析結果と、地図データとを関連付けて道路情報を生成する、情報分析方法。
PCT/JP2022/018448 2022-04-21 2022-04-21 情報分析装置及び情報分析方法 WO2023203725A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/018448 WO2023203725A1 (ja) 2022-04-21 2022-04-21 情報分析装置及び情報分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/018448 WO2023203725A1 (ja) 2022-04-21 2022-04-21 情報分析装置及び情報分析方法

Publications (1)

Publication Number Publication Date
WO2023203725A1 true WO2023203725A1 (ja) 2023-10-26

Family

ID=88419603

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/018448 WO2023203725A1 (ja) 2022-04-21 2022-04-21 情報分析装置及び情報分析方法

Country Status (1)

Country Link
WO (1) WO2023203725A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242190A (ja) * 2010-05-17 2011-12-01 Fujitsu Ltd 運転支援装置
JP2019131096A (ja) * 2018-02-01 2019-08-08 三菱電機株式会社 車両制御支援システムおよび車両制御支援装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242190A (ja) * 2010-05-17 2011-12-01 Fujitsu Ltd 運転支援装置
JP2019131096A (ja) * 2018-02-01 2019-08-08 三菱電機株式会社 車両制御支援システムおよび車両制御支援装置

Similar Documents

Publication Publication Date Title
JP6310531B2 (ja) 自律走行車において拡張仮想現実コンテンツを提供するシステム及び方法
JP6436030B2 (ja) ライフログ記録システム
US10576993B2 (en) Apparatus, method and system for providing voice output service in vehicle
CN105136156B (zh) 基于用户行为模式的自适应导航与基于位置的服务
US6599243B2 (en) Personalized driver stress prediction using geographical databases
KR102099328B1 (ko) 적어도 하나의 비디오 신호 또는 제어 신호를 계산하기 위한 장치, 차량, 방법 및 컴퓨터 프로그램
US20200286183A1 (en) Information processing apparatus, and information processing method, and program
CN110281932A (zh) 行驶控制装置、车辆、行驶控制系统、行驶控制方法以及存储介质
JP2018205211A (ja) 情報提供装置及び情報提供方法
CN110100153B (zh) 信息提供系统
US11761778B2 (en) Systems and methods for generating calm or quiet routes
JP6345572B2 (ja) 走行映像記録システムおよびこれに用いるドライブレコーダ、並びに記録走行映像のアップロード方法
JP6697998B2 (ja) 移動体保険料算出方法、移動体保険料算出装置、移動体保険料算出プログラム及び移動体
JP2019032681A (ja) デジタルサイネージ制御装置、デジタルサイネージ制御方法、プログラム、記録媒体
JP2018200192A (ja) 地点提案装置及び地点提案方法
CN112689587A (zh) 考虑到在要求接管驾驶任务时驾驶员的非驾驶任务活动的可中断性而分类非驾驶任务活动的方法及因要求接管驾驶任务而中断非驾驶任务活动后重新释放非驾驶任务活动的方法
WO2023203725A1 (ja) 情報分析装置及び情報分析方法
JP7044382B2 (ja) 運転支援装置、方法、プログラム及びシステム
CN116312052A (zh) 车辆变道提示方法、系统、设备及车辆
JPWO2008038375A1 (ja) 情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体
JP7386008B2 (ja) 表示制御装置、データ収集システム、表示制御方法および表示制御プログラム
CN113492864A (zh) 驾驶辅助装置以及数据收集系统
US20230215228A1 (en) Information recording device, information recording method, and program for recording information
CN116391216A (zh) 在导航会话期间检测和处理驾驶事件声音
JP2020194206A (ja) 学習方法、運転支援方法、学習プログラム、運転支援プログラム、学習装置、運転支援システム及び学習システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22938525

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024516008

Country of ref document: JP