WO2024018563A1 - 自動運転車両、制御装置、制御方法、及び制御プログラム - Google Patents

自動運転車両、制御装置、制御方法、及び制御プログラム Download PDF

Info

Publication number
WO2024018563A1
WO2024018563A1 PCT/JP2022/028220 JP2022028220W WO2024018563A1 WO 2024018563 A1 WO2024018563 A1 WO 2024018563A1 JP 2022028220 W JP2022028220 W JP 2022028220W WO 2024018563 A1 WO2024018563 A1 WO 2024018563A1
Authority
WO
WIPO (PCT)
Prior art keywords
anxiety
information
driving vehicle
user
route
Prior art date
Application number
PCT/JP2022/028220
Other languages
English (en)
French (fr)
Inventor
琴由 笹山
智也 上船
道学 吉田
宗貴 西平
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/028220 priority Critical patent/WO2024018563A1/ja
Priority to JP2024505593A priority patent/JPWO2024018563A1/ja
Publication of WO2024018563A1 publication Critical patent/WO2024018563A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a self-driving vehicle, a control device for a self-driving vehicle, a method for controlling a self-driving vehicle, and a control program for a self-driving vehicle.
  • JP 2016-052374 (e.g., abstract)
  • anxiety alleviation information namely, anxiety alleviation information
  • the physiological index hardly changes, such as at a position far away from the position of the anxiety factor in front.
  • the moving object does not change its behavior (for example, acceleration in the front-rear direction, left-right direction, or vertical direction) when passing through the position of the anxiety factor, mitigation information cannot be presented.
  • the present disclosure aims to provide an automated driving vehicle that can present anxiety-reducing information at an appropriate position during automated driving, as well as a control device, a control method, and a control program for the automated driving vehicle.
  • the self-driving vehicle of the present disclosure is a vehicle that automatically travels with a user on board, and includes a surrounding sensor that detects at least a state in front of the user in the traveling direction, an information presentation section that presents information to the user, and an operation section. , a position in front of an anxiety factor that makes the experiment participant feel anxious, in the middle of the autonomous driving route of the autonomous vehicle on which the experiment participant is riding, the experiment participant feels anxious about the anxiety element. a collection unit that collects in advance the anxiety starting position, which is the position where the person starts to feel anxiety, along the route based on the operation of the operation unit by the experiment participant; and a map of the planned route of the self-driving vehicle to the destination.
  • the present invention is characterized in that a certain presentation start position is set, and when the automatic driving vehicle in which the user is riding reaches the presentation start position, the information presentation section starts presenting the anxiety reduction information.
  • a method for controlling an automated driving vehicle is a method for controlling an automated driving vehicle that includes a surrounding sensor that detects at least a state in front of the user in a traveling direction, an information presentation section that presents information to a user, and an operation section.
  • a presentation start position which is a position at which the information presentation unit is to start presenting the information, and causing the information presentation unit to start presenting the anxiety reduction information when the automated driving vehicle in which the user is riding reaches the presentation start position.
  • the user's anxiety can be sufficiently alleviated by presenting anxiety-reducing information at an appropriate position during automatic driving.
  • FIG. 1 is a block diagram schematically showing the configuration of an automatic driving vehicle according to Embodiment 1.
  • FIG. It is a schematic diagram showing an automatic driving wheelchair as an automatic driving vehicle which is automatically traveling.
  • FIG. 3 is a schematic diagram showing when the automated driving vehicle of FIG. 2 is passing through a recognition start position of an anxiety factor.
  • FIG. 2 is a schematic diagram illustrating an automated driving vehicle moving toward a destination after passing through a recognition start position of an anxiety element, a presentation start position of anxiety reduction information, an anxiety start position, and a passage start position and a passage end position of an anxiety element.
  • . 1 is a diagram illustrating an example of a hardware configuration of a control device for an automatic driving vehicle according to Embodiment 1.
  • FIG. 2 is a schematic plan view illustrating an example in which a self-driving vehicle follows a planned route, although the narrowness of the road is a cause for concern.
  • FIG. 2 is a schematic plan view illustrating an example in which an autonomous vehicle takes a detour route in which a narrow road width exists as an uneasy factor.
  • It is a figure showing example 1 of anxiety reduction information presented by an information presentation part of an automatic driving vehicle.
  • FIG. 7 is a schematic diagram illustrating an example in which a slope exists as an uneasy factor and the automatic driving vehicle according to Embodiment 2 avoids a planned route. It is a figure which shows the example 6 of the anxiety reduction information presented by the information presentation part of an automatic driving vehicle.
  • FIG. 7 is a flowchart showing the operation of the control device for the automatic driving vehicle according to Embodiment 2.
  • FIG. FIG. 12 is a schematic diagram illustrating an example in which the automatic driving vehicle according to Embodiment 3 follows a planned route, although there is a difference in level as an uneasy factor.
  • FIG. 12 is a schematic diagram showing an example in which the automatic driving vehicle according to Embodiment 3 avoids the planned route due to the presence of a step as an uneasy factor. It is a figure which shows the example 7 of anxiety reduction information presented by the information presentation part of an automatic driving vehicle.
  • 7 is a flowchart illustrating the operation of the control device for an automatic driving vehicle according to Embodiment 3.
  • FIG. 11 is a schematic diagram showing an example in which a user riding in an automatic driving vehicle according to a modification of the third embodiment recognizes unevenness.
  • FIG. FIG. 12 is a schematic plan view showing the operation of the automatic driving vehicle when a moving object as a cause of concern approaches the automatic driving vehicle according to Embodiment 4;
  • FIG. 12 is a schematic plan view showing the operation of the automatic driving vehicle when a moving object as a cause of concern approaches the automatic driving vehicle according to Embodiment 4;
  • It is a figure which shows the example 8 of anxiety reduction information presented by the information presentation part of an automatic driving vehicle.
  • 12 is a flowchart showing the operation of the control device for an automatic driving vehicle according to Embodiment 4. It is a figure which shows the example 9 of the anxiety reduction information presented by the information presentation part of an automatic driving vehicle.
  • FIG. 1 is a block diagram schematically showing the configuration of an automatic driving vehicle 1 according to the first embodiment.
  • FIG. 2 is a schematic diagram showing the self-driving wheelchair as the self-driving vehicle 1 during automatic driving
  • FIG. 3 is a schematic diagram showing when the self-driving vehicle 1 is passing the recognition start position P1 of the anxiety element 200. It is a diagram.
  • FIG. 4 shows the recognition start position P1 of the anxiety element 200, the presentation start position P2 of anxiety reduction information, the anxiety start position P3, which is the position where you start to feel anxiety, and the passage start position P4 and the passage end position P5 of the anxiety element 200.
  • 1 is a schematic diagram showing an automatic driving vehicle 1 moving toward a destination (namely, a destination).
  • the self-driving vehicle 1 is, for example, a self-driving wheelchair that automatically travels with a user (that is, a passenger) 90 in it.
  • the self-driving vehicle 1 is not limited to a wheelchair, and may be any other type of vehicle such as a car as long as it is a mobile body that has the function of automatically driving the user 90 in the vehicle.
  • the distance (P3-P4) from the anxiety start position P3 to the passing start position P4 is a distance determined based on the speed of the automatic driving vehicle 1 (that is, the vehicle speed), the anxiety factor 200, and the attributes of the user 90. .
  • the automated driving vehicle 1 includes a surrounding sensor 20 that detects at least the state ahead in the driving direction M, an information presentation section 30 that presents information to the user 90, and an operation section 40 that outputs input information U based on user operations. It has a control device 10.
  • the automatic driving vehicle 1 also includes a drive unit 70 that drives wheels 71 and a steering wheel 72, a speed sensor 74, and a GPS (Global Positioning System) 51 as a positioning system.
  • the automated driving vehicle 1 may include a state grasping sensor 60 that detects the state of a person riding in the automated driving vehicle 1 (i.e., a user, a subject, or an experiment participant), and a storage device 50.
  • the automatic driving vehicle 1 may include a wireless communication device connectable to an external network.
  • the surrounding sensor 20 includes, for example, a front camera 21 as an imaging device and a laser radar 22.
  • the surrounding sensor 20 may include either a front camera 21 or a laser radar 22.
  • the laser radar 22 is also called LiDAR (Light Detection and Ranging).
  • the surrounding sensor 20 may be any other type of sensor as long as it can detect surrounding objects including those in front of the automated driving vehicle 1.
  • the information presentation unit 30 includes, for example, a display device 31 such as a liquid crystal display, a speaker 32 as an audio output device, a vibration device 33 that vibrates a chair 73 on which the user 90 is seated, and an LED (light emitting diode) lamp. It has an indicator lamp 34.
  • the information presentation unit 30 does not need to have all of the display device 31, the speaker 32, the vibration device 33, and the display lamp 34, and may just have one or more of them.
  • the operation unit 40 includes, for example, a touch panel, a keyboard, operation buttons, an operation lever, a voice input device capable of voice input, and the like, but it is sufficient to have one or more of these.
  • the operation unit 40 is a touch panel that accepts touch operations with a finger
  • the display device 31 and the operation unit 40 are integrally configured.
  • the information presentation section 30 and the operation section 40 are also called HMI (Human Machine Interface).
  • the drive unit 70 includes, for example, a motor that rotates the wheels 71, a motor that drives the steering wheel 72, and a drive circuit that controls the rotation of these motors.
  • Speed sensor 74 detects the traveling speed of automatic driving vehicle 1 .
  • the GPS 51 is a system that measures the position of the automatic driving vehicle 1.
  • the system for measuring the position of the automated driving vehicle 1 is not limited to GPS, and may be other types of positioning systems.
  • the storage device 50 stores various information.
  • the storage device 50 may be an external device provided in a server or the like on a network that can communicate via a communication device.
  • the storage device 50 stores, for example, road information R such as a map and road attributes, vehicle information V such as the driving ability and vehicle width (subawachi, size) of the automatic driving vehicle 1, surrounding detection information D by the surrounding sensor 20, and information collected by the collection unit 11.
  • the condition grasping sensor 60 includes, for example, one or more of a face photographing camera, a whole body photographing camera, a center of gravity sway meter, a seat sensor, a tactile sensor, a pressure sensor, and other sensors for physiological measurement.
  • the face photographing camera is a sensor for detecting the line of sight or facial expression, or both, of the person riding in the automatic driving vehicle 1.
  • the whole body camera is a sensor for detecting the posture and behavior of the person riding in the automatic driving vehicle 1.
  • the center of gravity sway meter is a sensor that measures the sway of the center of gravity of a person riding in the automated driving vehicle 1.
  • the seat sensor is a sensor placed on the seat of the automated driving vehicle 1 to detect the posture of the person sitting on the seat.
  • the physiological measurement sensor is, for example, a sensor that detects biological information such as heartbeat, pulse, and skin potential of a person riding in the automatic driving vehicle 1.
  • the user can also self-report anxiety (for example, manually input) from the operation unit 40, and in this case, the operation unit 40 functions as the state grasping sensor 60.
  • the user's anxiety state may be automatically determined based on the detection signal of the state grasping sensor 60.
  • the face photographing camera serving as the state grasping sensor 60 is, for example, an imaging device that photographs the face of the user 90.
  • the face photographing camera serving as the state grasping sensor 60 photographs at least the eyes 91 of the user 90 .
  • the control unit 12 can detect the line of sight 92 of the user 90.
  • the line of sight 92 is represented by a straight line connecting the eyes 91 of the user 90 to the anxiety element 200 as the object being viewed.
  • a known technique for example, the technique described in Patent Document 2 shown below.
  • the control device 10 has a collection section 11 that collects information, and a control section 12 that controls the operation of the entire device based on the collected information.
  • Control device 10 is, for example, a computer.
  • the collection unit 11 is located in front of an anxiety element 200 that makes the experiment participant feel anxious, in the middle of the route automatically traveled by the automated driving vehicle 1 in which the experiment participant who is acting as a substitute for the user is riding, and
  • the anxiety start position P3 which is the position where the experiment participant starts to feel anxiety about the anxiety element 200, is determined by a route based on at least one of the operation of the operation unit 40 by the experiment participant and the state detection signal output from the state grasping sensor 60. (or depending on the route or for each route) in advance.
  • the anxiety start position P3 the situation is not such that it is possible to make a confident judgment that the position of the anxiety element cannot be passed or that the position of the anxiety element can be passed, but the occupant of the automatic driving vehicle 1 can pass through the position of the anxiety element.
  • the collection unit 11 functions as an anxiety determination unit that determines, through the operations of the experiment participants, a position where the occupant of the automatic driving vehicle 1 has a feeling of anxiety that it is unclear whether or not it is possible to pass through the position of the anxiety factor. It has the following functions.
  • the collection unit 11 is located at a position in front of an anxiety factor 200 that makes the experiment participant feel anxious in the middle of the autonomous driving route of the automated driving vehicle 1 on which the experiment participant is riding.
  • the recognition start position P1 which is the position at which the presence of the anxiety element 200 starts to be visually recognized, is determined based on, for example, at least one of the operation of the operation unit 40 by the experiment participant and the state detection signal output from the state grasping sensor 60. The information may be collected in advance for each route.
  • the recognition start position P1 and the anxiety start position P3 are different positions, but if the recognition start position P1 is equal to the anxiety start position P3 (that is, immediately after visually recognizing the anxiety element 200, the anxiety ). Experiment participants are different from users.
  • experiment participants have the same gender as the user who uses the automatic driving vehicle 1, the same generation as the user, or similar attributes such as having similar appearance or preferences to the user. Note that the experiment participant may be the user himself/herself.
  • the control unit 12 includes road information R including a map of the planned route of the automated driving vehicle 1 to the destination and road attributes of the road 80 on the planned route, and vehicle information including the driving ability and vehicle width W1 of the automated driving vehicle 1.
  • the operation of the automatic driving vehicle 1 is controlled based on the detection information D, the surrounding detection information D output from the surrounding sensor 20, and the anxiety starting position P3.
  • control unit 12 sets a presentation start position P2, which is a position at which the information presentation unit 30 starts presenting the anxiety reduction information, before the anxiety start position P3 on the route where the user 90 rides and automatically travels.
  • the distance (P2-P3) from the presentation start position P2 to the anxiety start position P3 is determined by the recognition time, which is the time required for the user 90 who viewed the anxiety reduction information to recognize the content of the anxiety reduction information, and the recognition time. It is determined based on the total time including the buffer time to provide a margin and the speed of the automatic driving vehicle 1.
  • the recognition start position P1, the presentation start position P2, and the anxiety start position P3 correspond to time, so if the speed of the automated driving vehicle 1 is constant, the recognition start position P1, the presentation start position
  • the position P2 and the anxiety start position P3 may be regarded as the recognition start time, the presentation start time, and the anxiety start time, respectively.
  • the control unit 12 is located between the recognition start position P1 and the anxiety start position P3, which are the positions at which the experiment participant begins to visually recognize the presence of the anxiety element 200, or at the same position as the recognition start position P1.
  • the control unit 12 causes the information presentation unit 30 to start presenting the anxiety reduction information when the automated driving vehicle 1 in which the user 90 is riding reaches the presentation start position P2.
  • the presentation start position P2 may be calculated in advance based on the anxiety start position P3 and stored in a storage device that can be used by the automatic driving vehicle 1.
  • control unit 12 determines that an anxiety factor exists when the user 90 continues to gaze for a predetermined reference time or more based on the face image photographed by the face photographing camera serving as the state grasping sensor 60. You may judge.
  • FIG. 5 is a diagram showing an example of the hardware configuration of the control device 10 of the automatic driving vehicle 1 according to the first embodiment.
  • the control device 10 is a device that can implement the control method according to the first embodiment.
  • the control device 10 includes a processor 101 such as a CPU (Central Processing Unit), a memory 102 that is a volatile storage device, and a hard disk drive (HDD) or solid state drive (SSD). It has a nonvolatile storage device 103 and an interface 104.
  • the memory 102 is, for example, a semiconductor memory such as a RAM (Random Access Memory).
  • Nonvolatile storage device 103 may be the same as storage device 50 shown in FIG.
  • Each function of the control device 10 is realized by, for example, a processing circuit.
  • the processing circuitry may be dedicated hardware or may be a processor 101 executing a program stored in memory 102.
  • the processor 101 may be any one of a processing device, an arithmetic device, a microprocessor, a microcomputer, and a DSP (Digital Signal Processor).
  • the processing circuit is dedicated hardware, the processing circuit is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Arra), etc. y ), or a combination of any of these.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Arra
  • the control program for the automatic driving vehicle 1 is realized by software, firmware, or a combination of software and firmware.
  • the control program is installed in the control device 10 via a network or from a recording medium.
  • Software and firmware are written as programs and stored in memory 102.
  • the processor 101 realizes the functions of each section shown in FIG. 1 by reading and executing a control program stored in the memory 102.
  • management server 100 may be partially implemented using dedicated hardware and partially implemented using software or firmware.
  • the processing circuit can implement each of the above-mentioned functions using hardware, software, firmware, or any combination thereof.
  • FIG. 6 is a schematic plan view illustrating an example in which the automatic driving vehicle 1 follows the planned route 80a, although there is a narrow road width as an uneasy factor 201.
  • FIG. 7 is a schematic plan view illustrating an example in which a narrow road width exists as an uneasy factor 201, and the automatic driving vehicle 1 follows a detour route 80b.
  • the control unit 12 acquires the passable road width (W80a in FIG. 6, W80c in FIG. 7) on the planned route 80a as the anxiety factor 201 from the road information R, the surrounding detection information D, or both, and calculates the road width and vehicle width. W1, and operates based on the result of this determination.
  • the control unit 12 determines that the planned route 80a can be passed, for example, when the road width W80a on the planned route 80a is wider than the vehicle width W1 by a predetermined margin value Wa or more. That is, as shown in FIG. 6, the control unit 12 determines that the planned route 80a can be passed if W1 ⁇ W80a and (W80a-W1) ⁇ Wa.
  • the margin value Wa is not limited to a fixed value, and may be a value that changes depending on the vehicle speed and road attributes (for example, the slope of the road, the road surface condition, or both of these). For example, the higher the vehicle speed, the larger the allowance value Wa changes.
  • the larger the slope of the road (the slope in the left-right direction), the larger the margin value Wa changes. Furthermore, the margin value Wa changes to become larger as the road surface condition worsens. Furthermore, the larger the difference in level of the road, the larger the margin value Wa changes. Furthermore, the greater the road gradient (inclination in the direction of travel), the greater the margin value Wa.
  • the control unit 12 determines that the planned route 80a cannot be passed. judge. That is, as shown in FIG. 7, when W1 ⁇ W80c, the control unit 12 determines that the planned route 80a is impossible to pass, and changes the planned route to the detour route 80b. In other words, the control unit 12 determines whether the automated driving vehicle 1 can pass the position of the anxious element 201 based on the road width W80 and the vehicle width W1, and determines whether the autonomous vehicle 1 can pass the position of the anxious element 201. If it is determined that it is possible, the planned route is changed so as to bypass the position of the anxious element 201.
  • the control unit 12 presents anxiety-reducing information at a preset presentation start position P2 in each case of changing the planned route and not changing the planned route.
  • FIG. 8 is a diagram showing an example 1 of anxiety reduction information presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • FIG. 8 shows an example of anxiety reduction information (display image and Examples of alert sounds and voice guidance) are shown. In this example, a message such as "The road will become narrow. Please do not put your hands out," along with voice guidance and a warning display (a graphic indicating prohibited user actions) are shown.
  • FIG. 9 is a diagram illustrating a second example of anxiety reduction information presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • FIG. 9 shows an example of anxiety reduction information (display image and Examples of alert sounds and voice guidance) are shown.
  • the message ⁇ The road is getting narrow. Please do not put your hands out.'' is displayed, along with audio guidance, a warning display (a graphic indicating prohibited actions for the user), and a message indicating how the road is getting narrower.
  • a graphic superimposed on the anxiety element 201 is displayed.
  • FIG. 10 is a diagram showing example 3 of anxiety reduction information presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • FIG. 10 shows an example of anxiety reduction information (display image and Examples of alert sounds and voice guidance) are shown.
  • the message ⁇ The road is getting narrow. Please do not put your hands out.'', audio guidance, a warning display (a graphic indicating the preferred posture that the user should take), and the location where the road is narrowing are displayed.
  • a figure in which a mark (check mark) shown is superimposed on the anxiety element 201 is displayed.
  • FIG. 11 is a diagram showing example 4 of anxiety reduction information presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • FIG. 11 shows an example of anxiety-reducing information (display image and warning Examples of alarm sounds and voice guidance) are shown.
  • the message "The road is too narrow to enter. The route will be changed.” is displayed, voice guidance, a warning display (a figure indicating the preferred posture that the user should take), and a warning that the user cannot enter the position of the anxiety element 201 are displayed.
  • FIG. 12 is a diagram showing a detour route selection screen presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • the anxiety factor 201 is a narrow road width, and the automated driving vehicle 1 can follow the planned route, but the user's operation (here, an operation of touching the triangle mark on the touch panel) causes the automatic driving vehicle 1 to take a detour
  • the figure shows an example of anxiety-reducing information (an example of a display image, a warning sound, and an audio guidance) in the case of proceeding along a right-turning route. In this example, the message "The road will become narrow. Please do not put your hands out.”, audio guidance, a warning display (a graphic indicating prohibited user actions), and a warning that intrusion is not possible at the location of the anxiety element 201 are displayed.
  • FIG. 12 shows an example of anxiety-reducing information (an example of a display image, a warning sound, and an audio guidance) in the case of proceeding along a right-turning route.
  • the message "The road will become narrow. Please do
  • FIG. 13 is a diagram showing example 5 of anxiety reduction information presented by the information presentation unit 30 after the detour route (right turn) is selected on the screen of FIG. 12.
  • FIG. 13 shows an example of anxiety reduction information (an example of a display image, a warning sound, and an audio guidance) when the automatic driving vehicle 1 proceeds on the detour after the detour (right turn) is selected.
  • anxiety reduction information an example of a display image, a warning sound, and an audio guidance
  • voice guidance a caution display (a figure indicating a detour route), and a figure indicating that the detour route is a right turn are displayed.
  • one of the multiple detour routes is selected by the user 90's operation using the operation unit 40 (touch panel in the examples of FIGS. 12 and 13). can be selected.
  • FIG. 14 is a flowchart showing the operation of the control device 10 of the automatic driving vehicle 1 according to the first embodiment.
  • the collection unit 11 of the control device 10 collects the anxiety starting position P3 based on the operation of the operation unit 40 by the experiment participant during the automatic driving of the automatic driving vehicle 1 in which the experiment participant is riding. , is stored in the storage device 50 (step S101 in FIG. 14).
  • the collection unit 11 collects the positions indicated by representative values such as the average, median, maximum, and minimum of the distance (or time) from the anxiety element, for example.
  • the anxiety starting position is set as P3.
  • the control unit 12 of the control device 10 starts automatic driving of the automatic driving vehicle 1 in which the user 90 is riding (step S102 in FIG. 14).
  • the automated driving vehicle 1 in which the user 90 rides has the same shape and function (same model) as the automated driving vehicle in which the experiment participant rides. It does not have to be physically identical to the self-driving vehicle.
  • the automated driving vehicle in which the experiment participant rides is the same or similar model to the automated driving vehicle 1 in which the user 90 rides, and the anxiety starting position P3 collected by the collection unit 11 and determined in step S101 is It is sufficient that the information is available.
  • control unit 12 determines whether to proceed along the planned route 80a or the detour route 80b based on the vehicle width W1 (vehicle information V) and the road widths W80a and W80c (road information R or surrounding detection information D). That is, it is determined whether or not to proceed along the planned route 80a (step S103 in FIG. 14).
  • step S104 when the automatic driving vehicle 1 proceeds to the planned route 80a (step S104 in FIG. 14), the control unit 12 moves from FIG.
  • the presentation of anxiety reduction information as shown in any one of 10 is started (step S105).
  • step S104 the control unit 12 sets the presentation start position P2 determined based on the anxiety start position P3 as shown in FIG.
  • the presentation of anxiety-reducing information is started (step S106).
  • the presentation of the anxiety reduction information is started from the presentation start position P2 determined based on the anxiety start position P3, the operation of the automated driving vehicle 1 changes. Presentation of anxiety-reducing information can be started even during a period in which there is no change in the physiological index and the physiological index hardly changes. Therefore, the effect of reducing anxiety for the user 90 can be enhanced.
  • the presentation start position P2 which is the disclosure position for the presentation of anxiety-reducing information, is determined based on the information collected in advance based on the reports of the experiment participants, unnecessary It is possible to reduce the amount of information presented.
  • the user 90 is in a situation where he or she feels anxious, such as, "Will the self-driving wheelchair be able to pass through the route ahead in the direction of travel due to the automatic driving of the self-driving vehicle in which the user 90 is riding?" This may occur.
  • the self-driving vehicle 1 of the first embodiment provides information to reduce the anxiety of the user 90 at a presentation start position P2 before the anxiety start position P3, which is the position where the user 90 feels anxious. User 90 may be notified.
  • Embodiment 2 an example will be described in which the anxiety factor is a slope as a road surface condition on the planned route.
  • FIGS. 1 and 5 are also referred to.
  • FIG. 15 is a schematic diagram illustrating an example in which the automatic driving vehicle 1 according to the second embodiment follows a planned route, although there is a slope as an uneasy factor 202.
  • FIG. 16 is a schematic diagram illustrating an example in which a slope exists as an uneasy factor 202 and the automatic driving vehicle 1 according to the second embodiment avoids the planned route (that is, proceeds to another route).
  • the control unit 12 determines whether the automatic driving vehicle 1 can pass through the slope as the anxiety factor 202 based on the road surface condition and the driving ability (here, slope climbing ability), and If it is determined that the slope is impossible to pass, the planned route is changed to bypass the position of the anxiety element 202, and at the presentation start position P2 (FIG. 4), the information presentation unit indicates that the slope is impossible to pass. 30 performs processing for presenting to the user.
  • the inclination angle ⁇ 2 of the slope is larger than the inclination angle ⁇ r at which the vehicle can travel, which is indicated by the travel ability.
  • the control unit 12 causes the information presentation unit 30 to present information indicating that the planned route will be changed.
  • the angle is taken as an example, things that influence the slope climbing ability, such as the user's weight and running speed, may be set as a plurality of parameters that influence the slope climbing ability.
  • the configuration of the second embodiment is the same as that of the first embodiment.
  • the control unit 12 determines that the slope is passable based on the road surface condition and the driving ability, the control unit 12 does not change the planned route.
  • the inclination angle ⁇ 1 of the slope is less than or equal to the inclination angle ⁇ r at which the vehicle can travel, which is indicated by the driving ability.
  • the control unit 12 acquires the inclination angle ⁇ 1 of the slope as the anxiety factor 202 from the road information R or the surrounding detection information D, and calculates the road surface condition (here, the inclination of the slope) and the driving ability of the automatic driving vehicle 1.
  • the information presenting unit 30 presents that it is possible to pass through the slope at the presentation start position P2 (FIG. 4).
  • FIGS. 15 and 16 show an example in which the slope is an uphill slope, the same determination is made when the slope is a downhill slope.
  • FIG. 17 is a diagram showing example 6 of anxiety reduction information presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • the anxiety factor 202 is an uphill slope (that is, an upward slope), but the inclination angle ⁇ 1 of this slope is less than the inclination angle ⁇ r at which the automatic driving vehicle 1 can travel with the driving ability
  • the automatic driving vehicle 1 1 shows an example of anxiety-reducing information (an example of a display image, a warning sound, and an audio guidance) when the vehicle 1 follows the planned route.
  • anxiety-reducing information an example of a display image, a warning sound, and an audio guidance
  • “We can climb the slope. Please rest assured.” is expressed in English as "We can climb the slope. Please rest assured.” Please do not put your hands out. '', voice guidance, and a warning display (a graphic indicating a prohibited user action).
  • FIG. 18 is a flowchart showing the operation of the control device 10 of the automatic driving vehicle 1 according to the second embodiment.
  • steps that are the same as those shown in FIG. 14 are given the same reference numerals as those shown in FIG.
  • the control unit 12 determines the planned route based on the driving ability (vehicle information V) and the inclination angle of the slope (road information R or surrounding detection information D). This differs from the first embodiment (in which the automatic driving vehicle determines based on the road width and vehicle width) in that it determines whether to proceed to a detour or to proceed to a detour.
  • the operation in FIG. 18 is the same as that in FIG. 14.
  • the presentation of the anxiety reduction information is started from the presentation start position P2 determined based on the anxiety start position P3, the operation of the automated driving vehicle 1 changes. Presentation of anxiety-reducing information can be started even during a period in which there is no change in the physiological index and the physiological index hardly changes. Therefore, the effect of reducing anxiety for the user 90 can be enhanced.
  • the presentation start position P2 which is the disclosure position for the presentation of anxiety-reducing information, is determined based on the information collected in advance based on the reports of the experiment participants, unnecessary It is possible to reduce the amount of information presented.
  • Embodiment 3 In Embodiment 3, an example will be described in which the anxiety factor is a difference in level as a road surface condition on a planned route.
  • FIGS. 1 and 5 are also referred to.
  • FIG. 19 is a schematic diagram illustrating an example in which the automatic driving vehicle 1 according to the third embodiment follows the planned route, although there is a step as an uneasy factor 203.
  • FIG. 20 is a schematic diagram illustrating an example in which a level difference exists as an uneasy factor 203 and the automatic driving vehicle 1 according to the third embodiment avoids the planned route (that is, proceeds to another route).
  • the control unit 12 determines whether the automatic driving vehicle 1 can pass the level difference as the anxiety factor 203 based on the road surface condition and the driving ability, and determines whether the automatic driving vehicle 1 can pass the level difference as the anxiety factor 203. If determined, the planned route is changed to bypass the position of the anxiety element 203, and at the presentation start position P2 (FIG. 4), the information presentation unit 30 presents to the user that the step cannot be passed. Process. When it is determined that the vehicle cannot pass, for example, as shown in FIG. 20, the height H2 of the step is larger than the height Hr of the step that can be run, which is indicated by the running ability. At this time, the control unit 12 causes the information presentation unit 30 to present information indicating that the planned route will be changed. Other than this point, the configuration of the third embodiment is the same as that of the first embodiment.
  • the control unit 12 does not change the planned route if it is determined that the bump can be passed based on the road surface condition and the driving ability.
  • the height H1 of the step is less than or equal to the height Hr of a step that can be run as indicated by the running ability.
  • the control unit 12 acquires the height H1 of the step as the anxiety factor 203 from the road information R, the surrounding detection information D, or both, and compares the road surface condition (here, the height of the step) with the autonomous driving vehicle.
  • the information presentation unit 30 presents that the step can be passed at the presentation start position P2 (FIG. 4).
  • FIGS. 19 and 20 show an example in which the level difference is a rising level difference, the same determination is made when the level difference is a falling level difference.
  • FIG. 21 is a diagram showing example 7 of anxiety reduction information presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • the anxiety factor 203 is a falling step, but the height of this step is less than the height at which the automatic driving vehicle 1 can travel with its driving ability, and the automatic driving vehicle 1 follows the planned route.
  • shows an example of anxiety reduction information (example of display image, alert sound, and voice guidance). In this example, a message "Going down the steps. Please hold on to the handrail.”, voice guidance, and a warning display (a graphic that calls for the user's attention) are shown.
  • FIG. 22 is a flowchart showing the operation of the control device 10 of the automatic driving vehicle 1 according to the third embodiment.
  • steps that are the same as those shown in FIG. 14 are given the same reference numerals as those shown in FIG.
  • the control unit 12 determines the planned route based on the driving ability (vehicle information V) and the height of the step (road information R or surrounding detection information D).
  • This embodiment differs from the first embodiment in that it is determined whether to proceed along a detour route or a detour route.
  • the operation in FIG. 22 is the same as that in FIG. 14.
  • the presentation of the anxiety reduction information is started from the presentation start position P2 determined based on the anxiety start position P3, the operation of the automated driving vehicle 1 changes. Presentation of anxiety-reducing information can be started even during a period in which there is no change in the physiological index and the physiological index hardly changes. Therefore, the effect of reducing anxiety for the user 90 can be enhanced.
  • the presentation start position P2 which is the disclosure position for the presentation of anxiety-reducing information, is determined based on the information collected in advance based on the reports of the experiment participants, unnecessary It is possible to reduce the amount of information presented.
  • FIG. 23 shows a modification of the third embodiment.
  • FIG. 23 is a schematic diagram showing an example in which a user riding in the automated driving vehicle 1 recognizes unevenness (that is, an uneven surface that is not flat) as an anxiety factor 204.
  • the control unit 12 determines whether the road with the unevenness is passable based on the height or depth of the unevenness (i.e., the size of the unevenness). Since the presentation start position P2, which is the disclosure position for the presentation of anxiety-reducing information, is determined based on the information collected based on the declarations of the experiment participants, The presentation of unnecessary information can be reduced.
  • the control unit 12 controls the state of the unpaved surface (for example, a grassy area, a swamp, a wetland, etc.). determine whether a road with unpaved surfaces is passable or not, and present anxiety-reducing information based on the information collected based on the declarations of the experiment participants. Since the presentation start position P2, which is the disclosure position of , is determined, it is possible to reduce the presentation of unnecessary information at positions where presentation is unnecessary.
  • Embodiment 4 an example will be described in which the anxiety factor is a moving object approaching the autonomous vehicle on the scheduled route.
  • FIGS. 1 and 5 are also referred to.
  • FIGS. 24 and 25 are schematic plan views showing the operation of the automatic driving vehicle 1 when a moving object as the anxiety factor 205 approaches the automatic driving vehicle 1 according to the fourth embodiment.
  • the control unit 12 controls automatic driving of the automatic driving vehicle 1 based on the size, speed, and distance to the moving object (surrounding detection information D) approaching toward the automatic driving vehicle 1. Adjust.
  • the moving object is detected based on the surrounding detection information D of the surrounding sensor 20.
  • the moving object is, for example, a pedestrian, a bicycle, a car, or the like.
  • the automated driving vehicle 1 moves the driving position of the automated driving vehicle 1 closer to the side strip of the road so as to move away from the lane in which the moving object is traveling.
  • the control unit 12 causes the information presentation unit 30 to present to the user 90 that the moving object as the anxiety factor 205 has been recognized and that the planned travel route has been changed to a position on the side of the road. You can.
  • control unit 12 determines that the object of gaze that the user 90 continues to gaze at for a predetermined reference time or more is the anxiety factor 205 based on the face image photographed by the face photographing camera serving as the state grasping sensor 60. If it is determined that the gaze target is a moving object based on the surrounding detection information D of the surrounding sensor 20, the planned route is changed to move away from the position of the anxiety element 203, and the At the starting position P2 (FIG. 4), the information presentation unit 30 performs a process for presenting to the user that they will pass a moving object.
  • control unit 12 may control the information presentation unit 30 so that the faster the speed of the moving object is, the higher the degree of emphasis on the display form of information regarding the moving object.
  • Increasing the degree of emphasis of the display format includes, for example, in the display device 31, displaying in larger characters, displaying in a more conspicuous color, blinking the display, increasing the brightness of the display, and the like.
  • Increasing the degree of emphasis of the display form means, for example, outputting a louder sound or outputting a repeated sound from the speaker 32.
  • Increasing the degree of emphasis of the display form includes, for example, applying larger vibrations, repeatedly applying vibrations, etc. in the vibration device 33.
  • Increasing the degree of emphasis of the display format means, for example, displaying the display lamp 34 brighter, displaying it in a more conspicuous color, or blinking.
  • the degree of emphasis of the display form may be increased by combining two or more display forms of the display device 31, the speaker 32, the vibration device 33, and the display lamp 34.
  • the collection unit 11 allows the experiment participant to operate the operation unit 40 between the recognition start position P1 and the anxiety element while the automated driving vehicle 1 in which the experiment participant is riding is traveling automatically.
  • the control unit 12 may collect the degree of anxiety intensity input from the user, and the control unit 12 may increase the degree of emphasis of the display form of the information presented to the information presentation unit 30 as the degree of anxiety intensity increases.
  • control unit 12 may increase the degree of emphasis on the display form of information regarding the moving object as the size of the moving object becomes larger. Further, the control unit 12 may increase the degree of emphasis on the display form of information regarding the approaching moving object as the distance to the moving object is shorter.
  • the configuration of the fourth embodiment is the same as that of the first embodiment.
  • FIG. 26 is a diagram showing example 8 of anxiety reduction information presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • FIG. 26 shows anxiety reduction information in the case where the anxiety factor 204 is a pedestrian as a moving object, but he is walking on the side of the road that does not affect the travel of the automatic driving vehicle 1, and the automatic driving vehicle 1 follows the planned route.
  • Example (example of display image, alert sound, and voice guidance) is shown. In this example, a display and audio guidance are shown that say "Pedestrians are coming from the left. Please be careful.”
  • FIG. 27 is a flowchart showing the operation of the control device 10 of the automatic driving vehicle 1 according to the fourth embodiment.
  • steps that are the same as those shown in FIG. 14 are given the same reference numerals as those shown in FIG.
  • the control unit 12 determines the size, speed, and distance of a moving object (surrounding detection information D) approaching toward the automatic driving vehicle 1. Based on one or more of the points, the automatic driving of the automatic driving vehicle 1 is adjusted and the detour route is changed to a different lane among the plurality of lanes (i.e., a change in the road width direction of the driving lane). This is different from the first embodiment in this point.
  • the operation in FIG. 27 is similar to that in FIG. 14.
  • FIG. 28 is a diagram showing example 9 of anxiety reduction information presented by the information presentation unit 30 of the automatic driving vehicle 1.
  • FIG. 28 shows an example of anxiety-reducing information (display image and alert sound example of voice guidance). In this example, the message "There is a person in the shadows. Please be careful.” and audio guidance are shown.
  • the control unit can also perform the processing shown in FIG. 27 in this case.
  • the presentation of the anxiety reduction information is started based on the anxiety start position P3, the period when the behavior of the automatic driving vehicle 1 does not change, and the physiological index Presentation of anxiety-reducing information can be started even during a period when there is little change in anxiety. Therefore, the effect of reducing anxiety for the user 90 can be enhanced.
  • the presentation start position P2 which is the disclosure position for the presentation of anxiety-reducing information, is determined based on the information collected in advance based on the reports of the experiment participants, unnecessary It is possible to reduce the amount of information presented.
  • control unit 12 controls the control unit 12 when the surrounding sensor 20 detects no people around the automatic driving vehicle 1 (for example, when no people are detected within a range specified by a predetermined distance).
  • the information presentation unit 30 may be caused to present the information by voice, and if a person is detected around the automatic driving vehicle 1 by the surrounding sensor 20, the information presentation unit 30 may be caused to present the information by vibration. .
  • the user 90 of the automated driving vehicle declares the intensity of anxiety (i.e., the degree of anxiety) at a place where he or she feels anxious when automatically driving to the destination (for example, from the operation unit). input).
  • the control unit 12 may have a learning function that records position information and anxiety intensity in the storage device 50.
  • the control unit 12 may change the timing and presentation method of presenting the anxiety-reducing information to the user 90 by referring to the model that is the learned information during the next automatic driving.
  • 1 automatic driving vehicle 10 control device, 11 collection unit, 12 control unit, 20 surrounding sensor, 21 front camera, 22 laser radar, 30 information presentation unit, 31 display device, 32 speaker, 33 vibration device, 34 display lamp, 40 operation unit, 50 storage device, 51 GPS, 60 status grasp sensor, 70 drive unit, 71 wheels, 72 steering, 73 chair, 74 speed sensor, 80 road, 80a planned route, 80b detour route, 80c object, 90 user, 91 eyes, 92 line of sight, 101 processor, 102 memory, 103 non-volatile storage device, 104 interface, 200-205 anxiety factors.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

自動運転車両(1)は、周囲センサ(20)と、情報提示部(30)と、操作部(40)と、実験参加者に不安を感じさせる不安要素(200)の手前の位置であって、実験参加者が不安要素(200)に対する不安を感じ始める位置である不安開始位置(P3)を、実験参加者による操作部(40)の操作に基づいて、経路に沿って予め収集する収集部(11)と、道路情報(R)と、車両情報(V)と、周囲検出情報(D)と、不安開始位置(P3)とに基づいて、自動運転車両の動作を制御する制御部(12)とを有し、制御部(12)は、ユーザ(90)を乗車させて自動走行する前記経路の不安開始位置(P3)より手前に、不安軽減情報を情報提示部(30)に提示開始させる位置である提示開始位置(P2)を設定し、ユーザ(90)が乗車している自動運転車両(1)が提示開始位置(P2)に達するときに、情報提示部(30)に不安軽減情報の提示を開始させる。

Description

自動運転車両、制御装置、制御方法、及び制御プログラム
 本開示は、自動運転車両、自動運転車両の制御装置、自動運転車両の制御方法、及び自動運転車両の制御プログラムに関する。
 移動体に乗車しているユーザに、ストレスを緩和するための緩和情報を提示する情報提示方法の提案がある(例えば、特許文献1を参照)。この情報提示方法では、移動体の自動走行時に予め被験者から取得した生理指標(すなわち、生体情報)に基づいて決定した提示態様で、ストレスの緩和情報を提示する。
特開2016-052374号公報(例えば、要約)
 しかしながら、上記従来の情報提示方法は、生理指標をほとんど変化させないような状況を対象としていない。したがって、前方にある不安要素の位置まで遠く離れた位置などのように、生理指標をほとんど変化させない時点では、不安緩和情報(すなわち、不安軽減情報)を提示することはできない。また、不安要素の位置を通過する際に、移動体の挙動の変化(例えば、前後方向、左右方向、又は上下方向の加速度)が生じない場合には、緩和情報を提示することはできない。
 本開示は、自動走行中における適切な位置で不安軽減情報を提示することができる自動運転車両、並びに、自動運転車両の制御装置、制御方法、及び制御プログラムを提供することを目的とする。
 本開示の自動運転車両は、ユーザを乗車させて自動走行する車両であって、走行方向の前方の状態を少なくとも検出する周囲センサと、前記ユーザに情報を提示する情報提示部と、操作部と、実験参加者が乗車している前記自動運転車両が自動走行する経路の途中における、前記実験参加者に不安を感じさせる不安要素の手前の位置であって、前記実験参加者が不安要素に対する不安を感じ始める前記位置である不安開始位置を、前記実験参加者による前記操作部の操作に基づいて、前記経路に沿って予め収集する収集部と、前記自動運転車両の行き先までの予定経路の地図と前記予定経路の道路属性とを含む道路情報と、前記自動運転車両の車両情報と、前記周囲センサから出力される周囲検出情報と、前記不安開始位置とに基づいて、前記自動運転車両の動作を制御する制御部と、を有し、前記制御部は、前記ユーザを乗車させて自動走行する前記経路の前記不安開始位置より手前に、不安軽減情報を前記情報提示部に提示開始させる位置である提示開始位置を設定し、前記ユーザが乗車している前記自動運転車両が前記提示開始位置に達するときに、前記情報提示部に前記不安軽減情報の提示を開始させることを特徴とする。
 本開示の自動運転車両の制御方法は、走行方向の前方の状態を少なくとも検出する周囲センサと、ユーザに情報を提示する情報提示部と、操作部とを有する自動運転車両の、制御方法であって、実験参加者が乗車している前記自動運転車両が自動走行する経路の途中における、前記実験参加者に不安を感じさせる不安要素の手前の位置であって、前記実験参加者が不安要素に対する不安を感じ始める前記位置である不安開始位置を、前記実験参加者による前記操作部の操作に基づいて、前記経路に沿って予め収集するステップと、前記自動運転車両の行き先までの予定経路の地図と前記予定経路の道路属性とを含む道路情報と、前記自動運転車両の車両情報と、前記周囲センサから出力される周囲検出情報と、前記不安開始位置とに基づいて、前記自動運転車両の動作を制御するステップと、を有し、前記自動運転車両の動作を制御する前記ステップでは、前記ユーザを乗車させて自動走行する前記経路の前記不安開始位置より手前に、不安軽減情報を前記情報提示部に提示開始させる位置である提示開始位置を設定し、前記ユーザが乗車している前記自動運転車両が前記提示開始位置に達するときに、前記情報提示部に前記不安軽減情報の提示を開始させることを特徴とする。
 本開示によれば、自動走行中における適切な位置で不安軽減情報を提示することで、ユーザの不安を十分に軽減することができる。
実施の形態1に係る自動運転車両の構成を概略的に示すブロック図である。 自動走行中の自動運転車両としての自動運転車いすを示す概略図である。 図2の自動運転車両が不安要素の認識開始位置を通過しているときを示す概略図である。 不安要素の認識開始位置、不安軽減情報の提示開始位置、不安開始位置、及び不安要素の通過開始位置と通過終了位置を通過して、目的地に向けて進む自動運転車両を示す概略図である。 実施の形態1に係る自動運転車両の制御装置のハードウェア構成の例を示す図である。 不安要素として道幅の狭さが存在するが、自動運転車両が予定経路を進む例を示す概略平面図である。 不安要素として道幅の狭さが存在し、自動運転車両が迂回経路を進む例を示す概略平面図である。 自動運転車両の情報提示部によって提示される不安軽減情報の例1を示す図である。 自動運転車両の情報提示部によって提示される不安軽減情報の例2を示す図である。 自動運転車両の情報提示部によって提示される不安軽減情報の例3を示す図である。 自動運転車両の情報提示部によって提示される不安軽減情報の例4を示す図である。 自動運転車両の情報提示部によって提示される迂回経路選択用の画面を示す図である。 自動運転車両の情報提示部によって提示される不安軽減情報の例5を示す図である。 実施の形態1に係る自動運転車両の制御装置の動作を示すフローチャートである。 不安要素として坂道が存在するが、実施の形態2に係る自動運転車両が予定経路を進む例を示す概略図である。 不安要素として坂道が存在し、実施の形態2に係る自動運転車両が予定経路を回避する例を示す概略図である。 自動運転車両の情報提示部によって提示される不安軽減情報の例6を示す図である。 実施の形態2に係る自動運転車両の制御装置の動作を示すフローチャートである。 不安要素として段差が存在するが、実施の形態3に係る自動運転車両が予定経路を進む例を示す概略図である。 不安要素として段差が存在し、実施の形態3に係る自動運転車両が予定経路を回避する例を示す概略図である。 自動運転車両の情報提示部によって提示される不安軽減情報の例7を示す図である。 実施の形態3に係る自動運転車両の制御装置の動作を示すフローチャートである。 実施の形態3の変形例に係る自動運転車両に乗車しているユーザが凹凸を認識した例を示す概略図である。 実施の形態4に係る自動運転車両に不安要素としての移動体が近づく場合における自動運転車両の動作を示す概略平面図である。 実施の形態4に係る自動運転車両に不安要素としての移動体が近づく場合における自動運転車両の動作を示す概略平面図である。 自動運転車両の情報提示部によって提示される不安軽減情報の例8を示す図である。 実施の形態4に係る自動運転車両の制御装置の動作を示すフローチャートである。 自動運転車両の情報提示部によって提示される不安軽減情報の例9を示す図である。
 以下に、実施の形態に係る自動運転車両、自動運転車両の制御装置、自動運転車両の制御方法、及び自動運転車両の制御プログラムを、図面を参照しながら説明する。以下の実施の形態は、例にすぎず、実施の形態を適宜組み合わせること及び各実施の形態を適宜変更することが可能である。
実施の形態1.
 図1は、実施の形態1に係る自動運転車両1の構成を概略的に示すブロック図である。図2は、自動走行中の自動運転車両1としての自動運転車いすを示す概略図であり、図3は、自動運転車両1が不安要素200の認識開始位置P1を通過しているときを示す概略図である。図4は、不安要素200の認識開始位置P1、不安軽減情報の提示開始位置P2、不安を感じ始める位置である不安開始位置P3、及び不安要素200の通過開始位置P4と通過終了位置P5を通過して、行き先(すなわち、目的地)に向けて進む自動運転車両1を示す概略図である。自動運転車両1は、例えば、ユーザ(すなわち、搭乗者)90を乗車させて自動走行する自動運転車いすである。ただし、自動運転車両1は、車いすに限定されず、ユーザ90を乗車させて自動運転する機能を備えた移動体であれば、自動車などのような他の種類の車両であってもよい。不安開始位置P3から通過開始位置P4までの距離(P3-P4)は、自動運転車両1の速度(すなわち、車速)と、不安要素200と、ユーザ90の属性とに基づいて決められる距離である。
 自動運転車両1は、走行方向Mの前方の状態を少なくとも検出する周囲センサ20と、ユーザ90に情報を提示する情報提示部30と、ユーザ操作に基づく入力情報Uを出力する操作部40と、制御装置10とを有している。また、自動運転車両1は、車輪71及びステアリング72を駆動する駆動部70と、速度センサ74と、測位システムとしてのGPS(Global Positioning System)51とを有している。また、自動運転車両1は、自動運転車両1に乗車している人(すなわち、ユーザ又は被験者又は実験参加者)の状態を検出する状態把握センサ60と、記憶装置50とを有してもよい。自動運転車両1は、外部のネットワークに接続可能な無線の通信装置を有してもよい。
 周囲センサ20は、例えば、撮像装置としての前方カメラ21と、レーザレーダ22とを有している。周囲センサ20は、前方カメラ21又はレーザレーダ22の一方を有してもよい。レーザレーダ22は、LiDAR(Light Detection and Ranging)とも呼ばれる。周囲センサ20は、自動運転車両1の前方を含む周辺の物体を検出できるものであれば、他の種類のセンサであってもよい。
 情報提示部30は、例えば、液晶ディスプレイなどの表示装置31と、音声出力装置としてのスピーカ32と、ユーザ90が着座するいす73などを振動させる振動装置33と、LED(発光ダイオード)ランプなどの表示ランプ34とを有している。情報提示部30は、表示装置31、スピーカ32、振動装置33、及び表示ランプ34のすべてを有する必要はなく、これらのうちの1つ以上を有すればよい。
 操作部40は、例えば、タッチパネル、キーボード、操作ボタン、操作レバー、及び音声入力が可能な音声入力装置、などを含むが、これらのうちの1つ以上を有すればよい。操作部40が指によるタッチ操作を受け付けるタッチパネルである場合、表示装置31と操作部40とは、一体に構成される。情報提示部30及び操作部40は、HMI(Human Machine Interface)とも呼ばれる。
 駆動部70は、例えば、車輪71を回転させるモータと、ステアリング72を駆動するモータと、これらのモータの回転を制御する駆動回路とを有している。速度センサ74は、自動運転車両1の走行速度を検出する。
 GPS51は、自動運転車両1の位置を計測するシステムである。自動運転車両1の位置を計測するシステムは、GPSに限定されず、他の種類の測位システムであってもよい。
 記憶装置50は、各種の情報を記憶する。記憶装置50は、通信装置を介して通信可能なネットワーク上のサーバなどに備えられた外部の装置であってもよい。記憶装置50は、例えば、地図及び道路属性などの道路情報R、自動運転車両1の走行能力及び車幅(すばわち、サイズ)などの車両情報V、周囲センサ20による周囲検出情報D、及び収集部11によって収集された情報、などを記憶する。
 状態把握センサ60には、例えば、顔撮影カメラ、全身撮影カメラ、重心動揺計、シートセンサ、並びに、触覚センサ、圧力センサ、及びその他の生理計測向けセンサなどのうちの、1つ以上が含まれる。顔撮影カメラは、自動運転車両1に搭乗している人の視線又は表情又はこれらの両方を検知するためセンサである。全身撮影カメラは、自動運転車両1に搭乗している人の姿勢及び行動を検知するためセンサである。重心動揺計は、自動運転車両1に搭乗している人の重心の動揺を測定するセンサである。シートセンサは、自動運転車両1の座席に着座している人の姿勢を検知するために座席に配置されたセンサである。生理計測向けセンサは、例えば、自動運転車両1に搭乗している人の心拍、脈拍、皮膚電位、などの生体情報を検出するセンサである。ユーザは、操作部40から不安を自己申告(例えば、手動入力)することもでき、この場合には、操作部40は、状態把握センサ60として機能する。ただし、ユーザの不安状態は、状態把握センサ60の検出信号に基づいて自動的に判定されてもよい。状態把握センサ60としての顔撮影カメラは、例えば、ユーザ90の顔を撮影する撮像装置である。状態把握センサ60としての顔撮影カメラは、少なくともユーザ90の目91を撮影する。制御部12は、ユーザ90の視線92を検出することができる。視線92は、ユーザ90の目91から見ている対象物としての不安要素200までを結ぶ直線で表される。視線92の検出方法としては、公知の技術(例えば、以下に示す特許文献2に記載されている技術)を用いることができる。
国際公開第2021/064791号
 制御装置10は、情報を収集する収集部11と、収集された情報に基づいて装置全体の動作を制御する制御部12とを有している。制御装置10は、例えば、コンピュータである。
 収集部11は、ユーザの代わりとしての実験参加者が乗車している自動運転車両1が自動走行する経路の途中における、実験参加者に不安を感じさせる不安要素200の手前の位置であって、実験参加者が不安要素200に対する不安を感じ始める位置である不安開始位置P3を、実験参加者による操作部40の操作及び状態把握センサ60から出力された状態検出信号の少なくとも一方に基づいて、経路に沿って(又は経路に応じて又は経路ごとに)、予め収集する。
 また、収集部11は、不安開始位置P3は、自動運転車両1の走行経路上に不安要素200があり、乗員が「自動運転車いすでの通過が可能か?」と不安に思う状況(=不安シーン)であるか否かを判定する。言い換えれば、不安開始位置P3では、不安要素の位置を、絶対に通過できない又は絶対に通過できるという確信を持てる判断ができる状況ではなく、自動運転車両1の乗員が、不安要素の位置を通過可能かもしれないが、通過不可能かもしれないと思っている状況である。つまり、収集部11は、実験参加者の操作によって、自動運転車両1の乗員が、不安要素の位置を通過可能であるか否かが分からないという不安感を持つ位置を判定する不安判定部としての機能を持つ。
 また、収集部11は、実験参加者が乗車している自動運転車両1が自動走行する経路の途中において、実験参加者に不安を感じさせる不安要素200の手前の位置であって、実験参加者が不安要素200の存在を目視で認識し始める位置である認識開始位置P1を、例えば、実験参加者による操作部40の操作及び状態把握センサ60から出力された状態検出信号の少なくとも一方に基づいて経路ごとに、予め収集してもよい。なお、一般には、認識開始位置P1と不安開始位置P3とは異なる位置であるが、認識開始位置P1が不安開始位置P3に等しい場合(すなわち、不安要素200を目視で認識して直ぐに、不安感を感じる場合)もある。実験参加者は、ユーザとは異なる。実験参加者は、複数の人であることが望ましい。実験参加者は、自動運転車両1を使用するユーザと同じ性別、ユーザと同じ世代、またはその他、ユーザと見た目や好みが似ているなど、何らかの属性が一致していることが望ましい。なお、実験参加者は、ユーザ自身であってもよい。
 制御部12は、自動運転車両1の行き先までの予定経路の地図と予定経路の道路80の道路属性とを含む道路情報Rと、自動運転車両1の走行能力と車幅W1とを含む車両情報Vと、周囲センサ20から出力される周囲検出情報Dと、不安開始位置P3とに基づいて、自動運転車両1の動作を制御する。
 また、制御部12は、ユーザ90を乗車させて自動走行する経路の不安開始位置P3より手前に、不安軽減情報を情報提示部30に提示開始させる位置である提示開始位置P2を設定する。提示開始位置P2から不安開始位置P3までの距離(P2-P3)は、不安軽減情報を見たユーザ90が不安軽減情報の内容を認知するために必要な時間である認知時間と、認知時間に余裕を持たせるためのバッファ時間との合計の時間と、自動運転車両1の速度とに基づいて決められる。このように、認識開始位置P1、提示開始位置P2、及び不安開始位置P3は、時間に対応しているので、自動運転車両1の速度が一定である場合には、認識開始位置P1、提示開始位置P2、及び不安開始位置P3は、それぞれ認識開始時点、提示開始時点、及び不安開始時点とみなしてもよい。また、一般には、制御部12は、実験参加者が不安要素200の存在を目視で認識し始める位置である認識開始位置P1と不安開始位置P3との間に又は認識開始位置P1と同じ位置に提示開始位置P2を設定する。制御部12は、ユーザ90が乗車している自動運転車両1が提示開始位置P2に達するときに、情報提示部30に不安軽減情報の提示を開始させる。なお、提示開始位置P2は、不安開始位置P3に基づいて予め算出され、自動運転車両1が使用可能な記憶装置に記憶されていてもよい。
 また、制御部12は、状態把握センサ60としての顔撮影カメラによって撮影された顔映像に基づいて、予め定められた基準時間以上、ユーザ90が注視し続けている場合に、不安要素が存在すると判定してもよい。
 図5は、実施の形態1に係る自動運転車両1の制御装置10のハードウェア構成の例を示す図である。制御装置10は、実施の形態1に係る制御方法を実施することができる装置である。図3に示されるように、制御装置10は、CPU(Central Processing Unit)などのプロセッサ101と、揮発性の記憶装置であるメモリ102と、ハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD)などの不揮発性記憶装置103と、インターフェイス104とを有する。メモリ102は、例えば、RAM(Random Access Memory)などの半導体メモリである。不揮発性記憶装置103は、図1に示される記憶装置50と同じものであってもよい。
 制御装置10の各機能は、例えば、処理回路により実現される。処理回路は、専用のハードウェアであってもよく、又はメモリ102に格納されるプログラムを実行するプロセッサ101であってもよい。プロセッサ101は、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、及びDSP(Digital Signal Processor)のいずれであってもよい。
 処理回路が専用のハードウェアである場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又はこれらのうちのいずれかを組み合わせたものである。
 処理回路がプロセッサ101である場合、自動運転車両1の制御プログラムは、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。制御プログラムは、ネットワークを経由して又は記録媒体から制御装置10にインストールされる。ソフトウェア及びファームウェアは、プログラムとして記述され、メモリ102に格納される。プロセッサ101は、メモリ102に記憶された制御プログラムを読み出して実行することにより、図1に示される各部の機能を実現する。
 なお、管理サーバ100は、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらのうちのいずれかの組み合わせによって、上述の各機能を実現することができる。
 図6は、不安要素201として道幅の狭さが存在するが、自動運転車両1が予定経路80aを進む例を示す概略平面図である。図7は、不安要素201として道幅の狭さが存在し、自動運転車両1が迂回経路80bを進む例を示す概略平面図である。制御部12は、道路情報R又は周囲検出情報D又はこれらの両方から、不安要素201として予定経路80aにおける通行可能な道幅(図6ではW80a、図7ではW80c)を取得し、道幅と車幅W1とに基づく判定を行い、この判定の結果に基づいて動作する。
 具体的に言えば、制御部12は、例えば、予定経路80aにおける道幅W80aが、車幅W1よりも、予め定められた余裕値Wa以上広い場合に、予定経路80aを通過可能と判定する。つまり、図6に示されるように、制御部12は、W1<W80a且つ(W80a-W1)≧Waである場合に、予定経路80aを通過可能と判定する。なお、余裕値Waは、固定値には限られず、車速と道路属性(例えば、道路の傾斜、路面状態、又はこれらの両方)に応じて変化する値であってもよい。例えば、車速が速いほど、余裕値Waが大きくなるように変化する。また、道路の傾斜(左右方向の傾き)が大きいほど、余裕値Waが大きくなるように変化する。また、道路の路面状態が悪いほど、余裕値Waが大きくなるように変化する。また、道路の段差が大きいほど、余裕値Waが大きくなるように変化する。また、道路の勾配(進行方向の傾き)が大きいほど、余裕値Waが大きくなるように変化する。
 また、制御部12は、例えば、予定経路80aに物体(例えば、工事エリア)80cが存在して、使用可能な道路の道幅W80cが車幅W1以下の場合に、予定経路80aを通過不可能と判定する。つまり、図7に示されるように、制御部12は、W1≧W80cである場合に、予定経路80aを通過不可能と判定し、予定経路を迂回経路80bに変更する。言い換えれば、制御部12は、道幅W80と車幅W1とに基づいて、自動運転車両1が不安要素201の位置を通過可能であるか否か、を判定し、不安要素201の位置を通過不可能であると判定した場合、不安要素201の位置を迂回するように予定経路を変更する。
 制御部12は、予定経路を変更する場合及び変更しない場合のそれぞれの場合に、予め設定されている提示開始位置P2において、不安軽減情報を提示する。
 図8は、自動運転車両1の情報提示部30によって提示される不安軽減情報の例1を示す図である。図8は、不安要素201が狭い道幅であるが、この道幅は自動運転車両1の車幅W1よりも広く、自動運転車両1が予定経路を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「道が狭くなります。手などを出さないでください。」との表示と音声ガイダンスと注意表示(ユーザの禁止動作を示す図形)が示されている。
 図9は、自動運転車両1の情報提示部30によって提示される不安軽減情報の例2を示す図である。図9は、不安要素201が狭い道幅であるが、この道幅は自動運転車両1の車幅W1よりも広く、自動運転車両1が予定経路を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「道が狭くなります。手などを出さないでください。」との表示と音声ガイダンスと注意表示(ユーザの禁止動作を示す図形)と、道幅がどのように狭くなっているかを不安要素201に重ねて示される図形が表示されている。
 図10は、自動運転車両1の情報提示部30によって提示される不安軽減情報の例3を示す図である。図10は、不安要素201が狭い道幅であるが、この道幅は自動運転車両1の車幅W1よりも広く、自動運転車両1が予定経路を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「道が狭くなります。手などを出さないでください。」との表示と音声ガイダンスと注意表示(ユーザが採るべき好ましい姿勢を示す図形)と、道幅が狭くなっている位置を示すマーク(レ点)が不安要素201に重ねて示される図形が表示されている。
 図11は、自動運転車両1の情報提示部30によって提示される不安軽減情報の例4を示す図である。図11は、不安要素201が狭い道幅であり、自動運転車両1が予定経路を進まずに、迂回経路(図では、右折する経路)を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「道が狭く進入できません。ルートを変更します。」との表示と音声ガイダンスと注意表示(ユーザが採るべき好ましい姿勢を示す図形)と、不安要素201の位置に侵入できないことを示す進入禁止マークが不安要素201に重ねて示される図形と、迂回経路は右折であることを示す図形が表示されている。
 図12は、自動運転車両1の情報提示部30によって提示される迂回経路選択用の画面を示す図である。図12は、不安要素201が狭い道幅であり、自動運転車両1が予定経路を進むことが可能であるが、ユーザによる操作(ここでは、タッチパネルの三角形マークをタッチする操作)によって、迂回経路(図では、右折する経路)を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「道が狭くなります。手などを出さないでください。」との表示と音声ガイダンスと注意表示(ユーザの禁止動作を示す図形)と、不安要素201の位置に侵入できないことを示す進入禁止マークが不安要素201に重ねて示される図形と、迂回経路は右折であることを示す図形が表示されている。
 図13は、図12の画面で、迂回経路(右折)を選択した後の情報提示部30によって提示される不安軽減情報の例5を示す図である。図13は、迂回経路(右折)が選択された後に、自動運転車両1が迂回経路を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「ルートを変更しました。」との表示と音声ガイダンスと注意表示(迂回経路を示す図形)と、迂回経路は右折であることを示す図形が表示されている。このように、複数の迂回経路(例えば、右折と左折)がある場合には、操作部40(図12、図13の例では、タッチパネル)によるユーザ90の操作によって、複数の迂回経路の1つを選択することができる。
 図14は、実施の形態1に係る自動運転車両1の制御装置10の動作を示すフローチャートである。先ず、制御装置10の収集部11は、実験参加者が乗車している自動運転車両1の自動走行の途中において、不安開始位置P3を実験参加者による操作部40の操作に基づいて収集して、記憶装置50に格納する(図14のステップS101)。収集部11は、複数の収集の結果がある場合には、例えば、不安要素からの距離(又は時間)の平均値、中央値、最大値、最小値、などの代表値で示される位置を、不安開始位置P3とする。
 次に、制御装置10の制御部12は、ユーザ90が乗車している自動運転車両1の自動走行を開始する(図14のステップS102)。ここで、ユーザ90が乗車している自動運転車両1は、実験参加者が乗車した自動運転車両と形状及び機能が同じであること(型式が同じもの)ことが望ましいが、実験参加者が乗車した自動運転車両と物理的に同一である必要はない。実験参加者が乗車する自動運転車両は、ユーザ90が乗車する自動運転車両1と同じ又は同様の型式のものであって、収集部11によって収集され、ステップS101で決定された不安開始位置P3についての情報が使用可能なものであればよい。
 次に、制御部12は、車幅W1(車両情報V)と、道幅W80a、W80c(道路情報R又は周囲検出情報D)に基づいて、予定経路80aを進むか、迂回経路80bに進むか、すなわち、予定経路80aを進むか否かを判定する(図14のステップS103)。
 図7に示されるように自動運転車両1が予定経路80aに進む場合(図14のステップS104)、制御部12は、不安開始位置P3に基づいて決められた提示開始位置P2で図8から図10のいずれかに示されるような不安軽減情報の提示を開始させる(ステップS105)。
 図7に示されるように自動運転車両1が迂回経路80bに進む場合(図14のステップS104)、制御部12は、不安開始位置P3に基づいて決められた提示開始位置P2で図11に示されるような不安軽減情報の提示を開始させる(ステップS106)。
 以上に説明したように、実施の形態1によれば、不安開始位置P3に基づいて決められた提示開始位置P2から不安軽減情報の提示を開始させているので、自動運転車両1の動作が変化しない期間であって、生理指標をほとんど変化させない期間であっても、不安軽減情報の提示を開始することができる。したがって、ユーザ90に対する不安軽減効果を高くすることができる。また、実験参加者の申告に基づいて事前に収集した情報に基づいて、不安軽減情報の提示の開示位置である提示開始位置P2を決定しているので、提示が不必要な位置における、不必要な情報の提示を減らすことができる。
 具体的に言えば、ユーザ90は、「自身が乗車している自動運転車両の自動走行によって、自動運転車いすが進行方向前方の経路を通過することができるのか?」といった不安感を持つ状況が発生する場合がある。実施の形態1の自動運転車両1は、ユーザ90が不安感を持つ状況が発生する位置である不安開始位置P3の手前の提示開始位置P2で、ユーザ90の不安感の軽減のため情報を、ユーザ90に通知することができる。
実施の形態2.
 実施の形態2では、不安要素が、予定経路における路面状態としての坂道である例を説明する。実施の形態2の説明では、図1及び図5をも参照する。図15は、不安要素202として坂道が存在するが、実施の形態2に係る自動運転車両1が予定経路を進む例を示す概略図である。図16は、不安要素202として坂道が存在し、実施の形態2に係る自動運転車両1が予定経路を回避する例(すなわち、他の経路に進む)を示す概略図である。
 実施の形態2では、制御部12は、路面状態と走行能力(ここでは、登坂能力)とに基づいて、自動運転車両1が不安要素202としての坂道を通過可能か否かを判定し、坂道を通過不可能であると判定した場合、不安要素202の位置を迂回するように予定経路を変更するとともに、提示開始位置P2(図4)で、坂道を通過不可能であることを情報提示部30によってユーザに提示するための処理を行う。通過不可能と判定する場合は、例えば、図16に示されるように、坂道の傾斜角α2が、走行能力が示す走行可能な傾斜角αrよりも大きい場合である。このとき、制御部12は、情報提示部30に、予定経路を変更することを示す情報を提示させる。角度(傾斜角)を例に挙げたが、ユーザの体重や走行速度等の登坂能力に影響を与えるものを、登坂能力に影響を与える複数のパラメータとして設定してもよい。この点以外に関し、実施の形態2の構成は、実施の形態1のものと同じである。
 また、実施の形態2では、制御部12は、路面状態と走行能力とに基づいて、坂道を通過可能であると判定した場合、予定経路を変更しない。坂道を通過可能であると判定した場合は、例えば、図15に示されるように、坂道の傾斜角α1が、走行能力が示す走行可能な傾斜角αr以下の場合である。このとき、制御部12は、道路情報R又は周囲検出情報Dから、不安要素202として坂道の傾斜角α1を取得し、路面状態(ここでは、坂道の傾斜)と自動運転車両1の走行能力とに基づいて、提示開始位置P2(図4)で、坂道を通過可能であることを情報提示部30によって提示させる。なお、図15及び図16には、坂道が上り坂である例を示しているが、坂道が下り坂である場合も、同様の判定が行われる。
 図17は、自動運転車両1の情報提示部30によって提示される不安軽減情報の例6を示す図である。図17は、不安要素202が上り坂(すなわち、上り勾配の斜面)であるが、この斜面の傾斜角α1が自動運転車両1の走行能力で走行可能な傾斜角αr以下であり、自動運転車両1が予定経路を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「スロープを上ることができます。ご安心下さい。」を英語で“We can climb the slope. Please rest assured.”と示す例を示している。手などを出さないでください。」との表示と音声ガイダンスと注意表示(ユーザの禁止動作を示す図形)が示されている。
 図18は、実施の形態2に係る自動運転車両1の制御装置10の動作を示すフローチャートである。図18において、図14に示されるステップと同じステップには、図14に示される符号と同じ符号が付されている。実施の形態2に係る自動運転車両1は、ステップS203において、制御部12が、走行能力(車両情報V)と、坂道の傾斜角(道路情報R又は周囲検出情報D)に基づいて、予定経路を進むか、迂回経路に進むかを判定する点が、実施の形態1のもの(道幅と車幅とによって判定する自動運転車両)と相違する。この点以外に関し、図18の動作は、図14のものと同じである。
 以上に説明したように、実施の形態2によれば、不安開始位置P3に基づいて決められた提示開始位置P2から不安軽減情報の提示を開始させているので、自動運転車両1の動作が変化しない期間であって、生理指標をほとんど変化させない期間であっても、不安軽減情報の提示を開始することができる。したがって、ユーザ90に対する不安軽減効果を高くすることができる。また、実験参加者の申告に基づいて事前に収集した情報に基づいて、不安軽減情報の提示の開示位置である提示開始位置P2を決定しているので、提示が不必要な位置における、不必要な情報の提示を減らすことができる。
 また、実施の形態2に係る自動運転車両1の構成及び機能を、実施の形態1に係る自動運転車両に組み入れることも可能である。
実施の形態3.
 実施の形態3では、不安要素が、予定経路における路面状態としての段差である例を説明する。実施の形態3の説明では、図1及び図5をも参照する。図19は、不安要素203として段差が存在するが、実施の形態3に係る自動運転車両1が予定経路を進む例を示す概略図である。図20は、不安要素203として段差が存在し、実施の形態3に係る自動運転車両1が予定経路を回避する例(すなわち、他の経路に進む)を示す概略図である。
 実施の形態3では、制御部12は、路面状態と走行能力とに基づいて、自動運転車両1が不安要素203としての段差を通過可能か否かを判定し、段差を通過不可能であると判定した場合、不安要素203の位置を迂回するように予定経路を変更するとともに、提示開始位置P2(図4)で、段差を通過不可能であることを情報提示部30によってユーザに提示するための処理を行う。通過不可能と判定する場合は、例えば、図20に示されるように、段差の高さH2が、走行能力が示す走行可能な段差の高さHrよりも大きい場合である。このとき、制御部12は、情報提示部30に、予定経路を変更することを示す情報を提示させる。この点以外に関し、実施の形態3の構成は、実施の形態1のものと同じである。
 また、実施の形態3では、制御部12は、路面状態と走行能力とに基づいて、段差を通過可能であると判定した場合、予定経路を変更しない。段差を通過可能であると判定した場合は、例えば、図19に示されるように、段差の高さH1が、走行能力が示す走行可能な段差の高さHr以下の場合である。このとき、制御部12は、道路情報R又は周囲検出情報D又はこれらの両方から、不安要素203として段差の高さH1を取得し、路面状態(ここでは、段差の高さ)と自動運転車両1の走行能力とに基づいて、提示開始位置P2(図4)で、段差を通過可能であることを情報提示部30によって提示させる。なお、図19及び図20には、段差が立ち上がり段差である例を示しているが、段差が立下り段差である場合も、同様の判定が行われる。
 図21は、自動運転車両1の情報提示部30によって提示される不安軽減情報の例7を示す図である。図21は、不安要素203が立下りの段差であるが、この段差の高さが自動運転車両1の走行能力で走行可能な高さ以下であり、自動運転車両1が予定経路を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「段差を下ります。手すりにおつかまりください。」との表示と音声ガイダンスと注意表示(ユーザの注意を促す図形)が示されている。
 図22は、実施の形態3に係る自動運転車両1の制御装置10の動作を示すフローチャートである。図22において、図14に示されるステップと同じステップには、図14に示される符号と同じ符号が付されている。実施の形態3に係る自動運転車両1は、ステップS303において、制御部12が、走行能力(車両情報V)と、段差の高さ(道路情報R又は周囲検出情報D)に基づいて、予定経路を進むか、迂回経路に進むかを判定する点が、実施の形態1のものと相違する。この点以外に関し、図22の動作は、図14のものと同じである。
 以上に説明したように、実施の形態3によれば、不安開始位置P3に基づいて決められた提示開始位置P2から不安軽減情報の提示を開始させているので、自動運転車両1の動作が変化しない期間であって、生理指標をほとんど変化させない期間であっても、不安軽減情報の提示を開始することができる。したがって、ユーザ90に対する不安軽減効果を高くすることができる。また、実験参加者の申告に基づいて事前に収集した情報に基づいて、不安軽減情報の提示の開示位置である提示開始位置P2を決定しているので、提示が不必要な位置における、不必要な情報の提示を減らすことができる。
 図23は、実施の形態3の変形例を示す。図23は、自動運転車両1に乗車しているユーザが不安要素204として凹凸(すなわち、平坦ではない、でこぼこ面)を認識した例を示す概略図である。この場合には、図19及び図20の場合と同様に、制御部12は、凹凸の高さ又は深さ(すなわち、凸凹の大きさ)に基づいて、凹凸が存在する道路を通行可能か否かを判定し、実験参加者の申告に基づいて収集された情報に基づいて、不安軽減情報の提示の開示位置である提示開始位置P2を決定しているので、提示が不必要な位置における、不必要な情報の提示を減らすことができる。
 また、不安要素が、予定経路に存在する非舗装面(例えば、草が生えているエリア、沼地、湿地など)である場合には、制御部12は、非舗装面の状態(例えば、草の量、沼地の広さなど)に基づいて、非舗装面が存在する道路を通行可能か否かを判定し、実験参加者の申告に基づいて収集された情報に基づいて、不安軽減情報の提示の開示位置である提示開始位置P2を決定しているので、提示が不必要な位置における、不必要な情報の提示を減らすことができる。
 また、実施の形態3に係る自動運転車両1の構成及び機能を、実施の形態1又は2に係る自動運転車両に組み入れることも可能である。
実施の形態4.
 実施の形態4では、不安要素が、予定経路において自動運転車両に向かって近づいてくる移動体である例を説明する。実施の形態4の説明では、図1及び図5をも参照する。図24及び図25は、実施の形態4に係る自動運転車両1に不安要素205としての移動体が近づく場合における自動運転車両1の動作を示す概略平面図である。
 実施の形態4では、制御部12は、自動運転車両1に向かって近づく移動体(周囲検出情報D)の大きさ、速度、及び移動体までの距離に基づいて、自動運転車両1の自動走行を調整する。移動体は、周囲センサ20の周囲検出情報Dに基づいて検出される。移動体は、例えば、歩行者、自転車、自動車、などである。図25に示されるように、自動運転車両1は、移動体が走行する車線から離れるように、自動運転車両1の走行する位置を道路の路側帯側に近づける。このとき、制御部12は、ユーザ90に、不安要素205としての移動体を認識していること、及び路側帯側の位置に予定の走行経路を変更したことを、情報提示部30によって提示させてもよい。
 例えば、制御部12は、状態把握センサ60としての顔撮影カメラによって撮影された顔映像に基づいて、予め定められた基準時間以上、ユーザ90が注視し続けている注視対象が不安要素205であると判定し、且つ、周囲センサ20の周囲検出情報Dに基づいて、注視対象が移動する物体である移動体と判定した場合、不安要素203の位置から離れるように予定経路を変更するとともに、提示開始位置P2(図4)で、移動体とすれ違うことを情報提示部30によってユーザに提示するための処理を行う。
 また、制御部12は、移動体の速度が速いほど、移動体に関する情報の表示形態の強調の程度を高めるように、情報提示部30を制御してもよい。表示形態の強調の程度を高めるとは、例えば、表示装置31では、より大きい文字で表示する、より目立つ色で表示する、表示を点滅させる、表示の輝度を上げる、などである。表示形態の強調の程度を高めるとは、例えば、スピーカ32では、より大きい音を出力する、繰り返し音を出力する、などである。表示形態の強調の程度を高めるとは、例えば、振動装置33では、より大きい振動を与える、繰り返し振動を与える、などである。表示形態の強調の程度を高めるとは、例えば、表示ランプ34では、より明るく表示する、より目立つ色で表示する、点滅させる、などである。表示形態の強調の程度を高めるは、表示装置31、スピーカ32、振動装置33、及び表示ランプ34のうちの2つ以上の表示形態を組み合わせることであってもよい。
 情報を収集する過程において、収集部11は、実験参加者が乗車している自動運転車両1が自動走行する途中において、認識開始位置P1から不安要素までの間で、実験参加者によって操作部40から入力された不安強度の程度を収集し、制御部12は、不安強度の程度が高いほど、情報提示部30に提示される情報の表示形態の強調の程度を高めてもよい。
 また、制御部12は、移動体のサイズが大きいほど、移動体に関する情報の表示形態の強調の程度を高めてもよい。また、制御部12は、移動体までの距離が短いほど、接近する移動体に関する情報の表示形態の強調の程度を高めてもよい。上記以外に関し、実施の形態4の構成は、実施の形態1のものと同様である。
 図26は、自動運転車両1の情報提示部30によって提示される不安軽減情報の例8を示す図である。図26は、不安要素204が移動体としての歩行者であるが、自動運転車両1の走行に影響しない道路脇を歩行しており、自動運転車両1が予定経路を進む場合における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「左から歩行者が来ます。ご注意下さい。」との表示と音声ガイダンスとが示されている。
 図27は、実施の形態4に係る自動運転車両1の制御装置10の動作を示すフローチャートである。図27において、図14に示されるステップと同じステップには、図14に示される符号と同じ符号が付されている。実施の形態4に係る自動運転車両1は、ステップS403において、制御部12が、自動運転車両1に向かって近づく移動体(周囲検出情報D)の大きさ、速度、及び移動体までの距離のうちの1つ以上に基づいて、自動運転車両1の自動走行を調整する点及び迂回経路は複数の車線のうちの異なる車線への走行車線の変更(すなわち、走行車線の道幅方向の変更)する点が、実施の形態1のものと相違する。この点以外に関し、図27の動作は、図14のものと同様である。
 図28は、自動運転車両1の情報提示部30によって提示される不安軽減情報の例9を示す図である。図28は、不安要素204が移動体としての歩行者であり、歩行者が道路脇の物体の陰から道路中央に向けて歩き始めた状態における、不安軽減情報の例(表示画像と注意喚起音と音声ガイダンスの例)を示している。この例では、「物陰に人がいます。ご注意下さい。」との表示と音声ガイダンスとが示されている。制御部は、この場合にも、図27に示される処理を行うことができる。
 以上に説明したように、実施の形態4によれば、不安開始位置P3に基づいて不安軽減情報の提示を開始させているので、自動運転車両1の動作が変化しない期間であって、生理指標をほとんど変化させない期間であっても、不安軽減情報の提示を開始することができる。したがって、ユーザ90に対する不安軽減効果を高くすることができる。また、実験参加者の申告に基づいて事前に収集した情報に基づいて、不安軽減情報の提示の開示位置である提示開始位置P2を決定しているので、提示が不必要な位置における、不必要な情報の提示を減らすことができる。
 また、実施の形態4に係る自動運転車両1の構成及び機能を、実施の形態1、2及び3のいずれかの自動運転車両に組み入れることも可能である。
変形例.
 上記実施の形態1から4において、制御部12は、周囲センサ20によって自動運転車両1の周囲に人が検知されていない場合(例えば、予め定められた距離で指定された範囲内に人がいない場合)、情報提示部30に、音声によって情報を提示させ、周囲センサ20によって自動運転車両1の周囲に人が検知されている場合、情報提示部30に、振動によって情報を提示させてもよい。
 また、上記実施の形態1から4において、自動運転車両のユーザ90が、行き先までの自動走行に際し、不安を感じた場所で不安強度(すなわち、不安感の程度)を申告(例えば、操作部からの入力)してもよい。制御部12は、位置情報と不安強度とを記憶装置50に記録する学習機能を備えてもよい。制御部12は、次回以降の自動走行に際し、学習した情報であるモデルを参照して、ユーザ90に対して不安軽減情報を提示するタイミング、提示方法を変更してもよい。
 1 自動運転車両、 10 制御装置、 11 収集部、 12 制御部、 20 周囲センサ、 21 前方カメラ、 22 レーザレーダ、 30 情報提示部、 31 表示装置、 32 スピーカ、 33 振動装置、 34 表示ランプ、 40 操作部、 50 記憶装置、 51 GPS、 60 状態把握センサ、 70 駆動部、 71 車輪、 72 ステアリング、 73 いす、 74 速度センサ、 80 道路、 80a 予定経路、 80b 迂回経路、 80c 物体、 90 ユーザ、 91 目、 92 視線、 101 プロセッサ、 102 メモリ、 103 不揮発性記憶装置、 104 インターフェイス、 200~205 不安要素。
 

Claims (19)

  1.  ユーザを乗車させて自動走行する自動運転車両であって、
     走行方向の前方の状態を少なくとも検出する周囲センサと、
     前記ユーザに情報を提示する情報提示部と、
     操作部と、
     実験参加者が乗車している前記自動運転車両が自動走行する経路の途中における、前記実験参加者に不安を感じさせる不安要素の手前の位置であって、前記実験参加者が不安要素に対する不安を感じ始める前記位置である不安開始位置を、前記実験参加者による前記操作部の操作に基づいて、前記経路に沿って予め収集する収集部と、
     前記自動運転車両の行き先までの予定経路の地図と前記予定経路の道路属性とを含む道路情報と、前記自動運転車両の車両情報と、前記周囲センサから出力される周囲検出情報と、前記不安開始位置とに基づいて、前記自動運転車両の動作を制御する制御部と、
     を有し、
     前記制御部は、
     前記ユーザを乗車させて自動走行する前記経路の前記不安開始位置より手前に、不安軽減情報を前記情報提示部に提示開始させる位置である提示開始位置を設定し、
     前記ユーザが乗車している前記自動運転車両が前記提示開始位置に達するときに、前記情報提示部に前記不安軽減情報の提示を開始させる
     ことを特徴とする自動運転車両。
  2.  前記制御部は、前記実験参加者が前記不安要素の存在を目視で認識し始める位置である認識開始位置と前記不安開始位置との間に又は前記認識開始位置と同じ位置に前記提示開始位置を設定する
     ことを特徴とする請求項1に記載の自動運転車両。
  3.  前記収集部は、前記認識開始位置を、前記実験参加者が乗車している前記自動運転車両が自動走行する経路の途中における、前記実験参加者による前記操作部の操作に基づいて、前記経路に沿って予め収集する
     ことを特徴とする請求項2に記載の自動運転車両。
  4.  前記自動運転車両に乗車している前記ユーザの状態を検出する状態把握センサを更に有し、
     前記制御部は、前記状態把握センサによって検出された前記ユーザの状態に基づいて、予め定められた基準時間以上前記ユーザが注視し続けている注視対象が存在すると判定した場合、前記注視の開始位置を、前記認識開始位置として扱う
     ことを特徴とする請求項2に記載の自動運転車両。
  5.  前記制御部は、
     前記道路情報、前記周囲検出情報、及び前記車両情報のうちの1つ以上の情報に基づいて、前記自動運転車両が前記不安要素の位置を通過可能であるか否かの判定を行い、
     前記判定の結果に基づいて前記不安要素の位置の迂回の要否を決定し、
     前記迂回を行う場合、前記ユーザに前記迂回を行うことを知らせる前記不安軽減情報を前記情報提示部に提示させ、
     前記迂回を行わない場合、前記ユーザに前記迂回をせずに進行することを知らせる前記不安軽減情報を前記情報提示部に提示させる
     ことを特徴とする請求項1から4のいずれか1項に記載の自動運転車両。
  6.  前記制御部は、
     前記道路情報又は前記周囲検出情報から前記不安要素として前記予定経路における道幅を取得し、前記車両情報から前記自動運転車両の車幅を取得し、
     前記道幅と前記車幅とに基づいて、前記自動運転車両が前記不安要素の位置を通過可能であるか否かの判定を行い、
     前記判定の結果に基づいて前記不安要素の位置の迂回の要否を決定し、
     前記迂回を行う場合、前記ユーザに前記迂回を行うことを知らせる前記不安軽減情報を前記情報提示部に提示させ、
     前記迂回を行わない場合、前記ユーザに前記迂回をせずに進行することを知らせる前記不安軽減情報を前記情報提示部に提示させる
     ことを特徴とする請求項1から5のいずれか1項に記載の自動運転車両。
  7.  前記制御部は、
     前記道路情報又は前記周囲検出情報から前記不安要素として前記予定経路における路面状態を取得し、前記車両情報から前記自動運転車両の走行能力を取得し、
     前記路面状態と前記走行能力とに基づいて、前記自動運転車両が前記不安要素の位置を通過可能であるか否かの判定を行い、
     前記判定の結果に基づいて前記不安要素の位置の迂回の要否を決定し、
     前記迂回を行う場合、前記ユーザに前記迂回を行うことを知らせる前記不安軽減情報を前記情報提示部に提示させ、
     前記迂回を行わない場合、前記ユーザに前記迂回をせずに進行することを知らせる前記不安軽減情報を前記情報提示部に提示させる
     ことを特徴とする請求項1から6のいずれか1項に記載の自動運転車両。
  8.  前記制御部は、前記路面状態として、前記予定経路における坂道の傾斜、前記予定経路における段差の高さ、前記予定経路におけるでこぼこの大きさ、及び前記予定経路における非舗装面の状態のうちの1つ以上を取得する
     ことを特徴とする請求項7に記載の自動運転車両。
  9.  前記制御部は、前記周囲センサの前記周囲検出情報に基づいて、前記不安要素が移動する物体であると判定した場合、前記情報提示部に、前記不安軽減情報として、前記自動運転車両の走行位置及び走行速度を提示させる
     ことを特徴とする請求項1から7のいずれか1項に記載の自動運転車両。
  10.  前記制御部は、前記周囲センサの前記周囲検出情報に基づいて、前記不安要素が前記自動運転車両に近づく方向に移動する物体であると判定した場合、前記情報提示部に、前記不安軽減情報として前記物体に関する情報を提示させる
     ことを特徴とする請求項9に記載の自動運転車両。
  11.  前記制御部は、前記物体の速度が速いほど又は前記物体のサイズが大きいほど又は前記物体までの距離が短いほど、前記物体に関する情報の表示形態の強調の程度を高める
     ことを特徴とする請求項9又は10に記載の自動運転車両。
  12.  前記制御部は、前記操作部からのユーザ操作に基づいて、前記予定経路を変更する
     ことを特徴とする請求項1から11のいずれか1項に記載の自動運転車両。
  13.  前記収集部は、前記実験参加者としての前記ユーザが乗車している前記自動運転車両が自動走行する途中において、前記ユーザによって前記操作部から入力された不安強度の程度を収集し、
     前記制御部は、前記不安強度の程度が高いほど、前記情報提示部に提示される情報の表示形態の強調の程度を高める
     ことを特徴とする請求項1から12のいずれか1項に記載の自動運転車両。
  14.  前記情報提示部は、表示装置、スピーカ、表示ランプ、及び振動装置のうちの、少なくとも1つを含む
     ことを特徴とする請求項1から13のいずれか1項に記載の自動運転車両。
  15.  前記周囲センサによって前記自動運転車両の周囲に人が検知されていない場合、前記制御部は、前記情報提示部に、音声によって情報を提示させ、
     前記周囲センサによって前記自動運転車両の周囲に人が検知されている場合、前記制御部は、前記情報提示部に、振動によって情報を提示させる
     ことを特徴とする請求項1から14のいずれか1項に記載の自動運転車両。
  16.  前記自動運転車両は、自動運転車いすである
     ことを特徴とする請求項1から15のいずれか1項に記載の自動運転車両。
  17.  走行方向の前方の状態を少なくとも検出する周囲センサと、ユーザに情報を提示する情報提示部と、操作部とを有する自動運転車両の、制御装置であって、
     実験参加者が乗車している前記自動運転車両が自動走行する経路の途中における、前記実験参加者に不安を感じさせる不安要素の手前の位置であって、前記実験参加者が不安要素に対する不安を感じ始める前記位置である不安開始位置を、前記実験参加者による前記操作部の操作に基づいて、前記経路に沿って予め収集する収集部と、
     前記自動運転車両の行き先までの予定経路の地図と前記予定経路の道路属性とを含む道路情報と、前記自動運転車両の車両情報と、前記周囲センサから出力される周囲検出情報と、前記不安開始位置とに基づいて、前記自動運転車両の動作を制御する制御部と、
     を有し、
     前記制御部は、
     前記ユーザを乗車させて自動走行する前記経路の前記不安開始位置より手前に、不安軽減情報を前記情報提示部に提示開始させる位置である提示開始位置を設定し、
     前記ユーザが乗車している前記自動運転車両が前記提示開始位置に達するときに、前記情報提示部に前記不安軽減情報の提示を開始させる
     ことを特徴とする自動運転車両の制御装置。
  18.  走行方向の前方の状態を少なくとも検出する周囲センサと、ユーザに情報を提示する情報提示部と、操作部とを有する自動運転車両の、制御方法であって、
     実験参加者が乗車している前記自動運転車両が自動走行する経路の途中における、前記実験参加者に不安を感じさせる不安要素の手前の位置であって、前記実験参加者が不安要素に対する不安を感じ始める前記位置である不安開始位置を、前記実験参加者による前記操作部の操作に基づいて、前記経路に沿って予め収集するステップと、
     前記自動運転車両の行き先までの予定経路の地図と前記予定経路の道路属性とを含む道路情報と、前記自動運転車両の車両情報と、前記周囲センサから出力される周囲検出情報と、前記不安開始位置とに基づいて、前記自動運転車両の動作を制御するステップと、
     を有し、
     前記自動運転車両の動作を制御する前記ステップでは、
     前記ユーザを乗車させて自動走行する前記経路の前記不安開始位置より手前に、不安軽減情報を前記情報提示部に提示開始させる位置である提示開始位置を設定し、
     前記ユーザが乗車している前記自動運転車両が前記提示開始位置に達するときに、前記情報提示部に前記不安軽減情報の提示を開始させる
     ことを特徴とする自動運転車両の制御方法。
  19.  走行方向の前方の状態を少なくとも検出する周囲センサと、ユーザに情報を提示する情報提示部と、操作部とを有する自動運転車両の、制御装置によって実行される制御プログラムであって、
     実験参加者が乗車している前記自動運転車両が自動走行する経路の途中における、前記実験参加者に不安を感じさせる不安要素の手前の位置であって、前記実験参加者が不安要素に対する不安を感じ始める前記位置である不安開始位置を、前記実験参加者による前記操作部の操作に基づいて、前記経路に沿って予め収集するステップと、
     前記自動運転車両の行き先までの予定経路の地図と前記予定経路の道路属性とを含む道路情報と、前記自動運転車両の車両情報と、前記周囲センサから出力される周囲検出情報と、前記不安開始位置とに基づいて、前記自動運転車両の動作を制御し、前記ユーザを乗車させて自動走行する前記経路の前記不安開始位置より手前に、不安軽減情報を前記情報提示部に提示開始させる位置である提示開始位置を設定し、前記ユーザが乗車している前記自動運転車両が前記提示開始位置に達するときに、前記情報提示部に前記不安軽減情報の提示を開始させるステップと、
     を実行させることを特徴とする自動運転車両の制御プログラム。
     
PCT/JP2022/028220 2022-07-20 2022-07-20 自動運転車両、制御装置、制御方法、及び制御プログラム WO2024018563A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/028220 WO2024018563A1 (ja) 2022-07-20 2022-07-20 自動運転車両、制御装置、制御方法、及び制御プログラム
JP2024505593A JPWO2024018563A1 (ja) 2022-07-20 2022-07-20

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/028220 WO2024018563A1 (ja) 2022-07-20 2022-07-20 自動運転車両、制御装置、制御方法、及び制御プログラム

Publications (1)

Publication Number Publication Date
WO2024018563A1 true WO2024018563A1 (ja) 2024-01-25

Family

ID=89617398

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028220 WO2024018563A1 (ja) 2022-07-20 2022-07-20 自動運転車両、制御装置、制御方法、及び制御プログラム

Country Status (2)

Country Link
JP (1) JPWO2024018563A1 (ja)
WO (1) WO2024018563A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292185A (ja) * 1999-04-07 2000-10-20 Toyota Motor Corp 経路案内装置
JP2012118011A (ja) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd 情報処理装置、車載装置、および、情報処理方法
JP2018064639A (ja) * 2016-10-17 2018-04-26 住友電気工業株式会社 情報提供装置、当該情報提供装置を備える移動補助装置、情報を提供するための方法、および、当該方法をコンピュータに実行させるためのプログラム
JP2019215254A (ja) * 2018-06-13 2019-12-19 アイシン・エィ・ダブリュ株式会社 移動案内装置及びコンピュータプログラム
JP2020119131A (ja) * 2019-01-22 2020-08-06 トヨタ自動車株式会社 サーバ、サーバ制御方法、サーバ制御プログラム、通信端末、端末制御方法、及び端末制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292185A (ja) * 1999-04-07 2000-10-20 Toyota Motor Corp 経路案内装置
JP2012118011A (ja) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd 情報処理装置、車載装置、および、情報処理方法
JP2018064639A (ja) * 2016-10-17 2018-04-26 住友電気工業株式会社 情報提供装置、当該情報提供装置を備える移動補助装置、情報を提供するための方法、および、当該方法をコンピュータに実行させるためのプログラム
JP2019215254A (ja) * 2018-06-13 2019-12-19 アイシン・エィ・ダブリュ株式会社 移動案内装置及びコンピュータプログラム
JP2020119131A (ja) * 2019-01-22 2020-08-06 トヨタ自動車株式会社 サーバ、サーバ制御方法、サーバ制御プログラム、通信端末、端末制御方法、及び端末制御プログラム

Also Published As

Publication number Publication date
JPWO2024018563A1 (ja) 2024-01-25

Similar Documents

Publication Publication Date Title
JP7352566B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
CN110892351B (zh) 车辆控制装置和车辆控制方法
KR102365050B1 (ko) 승객 편안함을 위해 경로 및 운전 스타일을 결정하고 동적으로 업데이트하기 위한 방법 및 시스템
US9707971B2 (en) Driving characteristics diagnosis device, driving characteristics diagnosis system, driving characteristics diagnosis method, information output device, and information output method
US9007198B2 (en) Adaptive Actuator interface for active driver warning
JP6323549B2 (ja) 車両用情報呈示装置
KR102669020B1 (ko) 정보 처리 장치, 이동 장치, 및 방법, 그리고 프로그램
JP6666892B2 (ja) 運転支援装置及び運転支援方法
JP2007506166A (ja) 自動車用の情報システム
JP6627811B2 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
EP1997705A1 (en) Drive behavior estimating device, drive supporting device, vehicle evaluating system, driver model making device, and drive behavior judging device
JP2007122579A (ja) 車両制御装置
CN114072865A (zh) 信息处理装置、移动装置、方法和程序
JP6631570B2 (ja) 運転状態判定装置、運転状態判定方法及び運転状態判定のためのプログラム
JP2019195377A (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP2017220097A (ja) 運転支援装置
US20240000354A1 (en) Driving characteristic determination device, driving characteristic determination method, and recording medium
KR20190034825A (ko) 소셜 네트워크 서비스와 연동되는 안전 운전 모니터링 방법 및 이를 위한 컴퓨터 프로그램
JP7331728B2 (ja) 運転者状態推定装置
JP2009129052A (ja) 車両環境情報通知システム及び車両環境情報通知方法
WO2020208804A1 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
JP5493451B2 (ja) 意識低下度判定装置および警報装置
JP2017004043A (ja) 運転者状態判定方法及びその判定装置
JP2018151907A (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP6631569B2 (ja) 運転状態判定装置、運転状態判定方法及び運転状態判定のためのプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2024505593

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22951950

Country of ref document: EP

Kind code of ref document: A1