WO2022210038A1 - 運転支援装置、運転支援方法、及び運転支援プログラム - Google Patents

運転支援装置、運転支援方法、及び運転支援プログラム Download PDF

Info

Publication number
WO2022210038A1
WO2022210038A1 PCT/JP2022/012714 JP2022012714W WO2022210038A1 WO 2022210038 A1 WO2022210038 A1 WO 2022210038A1 JP 2022012714 W JP2022012714 W JP 2022012714W WO 2022210038 A1 WO2022210038 A1 WO 2022210038A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
line
sight
area
gaze
Prior art date
Application number
PCT/JP2022/012714
Other languages
English (en)
French (fr)
Inventor
美玖 小村田
祐一 長谷川
良明 玉井
雄太 新井
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2022210038A1 publication Critical patent/WO2022210038A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a driving support device, a driving support method, and a driving support program.
  • a driving support device that supports a driver who drives a vehicle such as an automobile is known.
  • a warning device that detects the location where the driver is gazing and the situation outside the company, and outputs a warning when it detects that the driver is not gazing at an object to be gazed (for example, Patent Document 1 reference).
  • Patent Document 1 the driver is notified when the driver is not paying attention, but there are cases where the driver is not paying attention but recognizes the object. In the case of control that outputs a warning when there is an object that the driver is not gazing at, there is a possibility that the warning will occur frequently, and useful information cannot be provided to the driver, resulting in insufficient driving assistance.
  • the present embodiment has been made in view of the above, and provides a driving assistance device, a driving assistance method, and a driving assistance capable of providing more appropriate assistance information based on the situation visually recognized by the driver.
  • the purpose is to provide a program.
  • a driving assistance device includes a line-of-sight visual field extracting unit that identifies a gaze region and a peripheral region, which are the field of view of the driver, based on the line of sight of the driver driving the vehicle, and objects around the vehicle. and a warning output based on whether the object extracted by the surrounding situation extraction unit is in the gaze area, the surrounding area, or a blind area outside the surrounding area and an output unit for outputting a warning determined by the driving support unit.
  • a driving support method includes a line-of-sight visual field extraction step of identifying a gaze region and a peripheral region, which are the field of view of the driver, based on the line of sight of the driver driving the vehicle; and a warning output based on whether the object extracted in the surrounding situation extraction step is in the gaze area, the surrounding area, or a blind area outside the surrounding area and an output step of outputting the determined warning.
  • a driving support program includes a line-of-sight visual field extraction step of specifying a gaze region and a peripheral region, which are the visual field of the driver, based on the line of sight and the visual field of the driver who drives the vehicle; A surrounding situation extracting step of extracting a certain object, and an output based on which one of the gaze area, the surrounding area, and the blind area outside the surrounding area the object extracted in the surrounding situation extracting step is located in causing the computer to execute a determination step of determining a warning to be issued and an output step of outputting the determined warning.
  • more appropriate support information can be provided based on the situation visually recognized by the driver.
  • FIG. 1 is a functional block diagram showing an example of a vehicle equipped with a driving assistance device according to this embodiment.
  • FIG. 2 is a functional block diagram showing an example of the driving support device according to this embodiment.
  • FIG. 3 is an explanatory diagram for explaining the operation of the driving assistance device according to this embodiment.
  • FIG. 4 is an explanatory diagram for explaining the operation of the driving assistance device according to this embodiment.
  • FIG. 5 is an explanatory diagram for explaining the operation of the driving assistance device according to this embodiment.
  • FIG. 6 is an explanatory diagram for explaining the operation of the driving assistance device according to this embodiment.
  • FIG. 7 is a flowchart showing an example of a driving assistance method according to this embodiment.
  • FIG. 1 is a functional block diagram showing an example of a vehicle equipped with a driving assistance device according to this embodiment.
  • FIG. 2 is a functional block diagram showing an example of the driving support device 10 according to this embodiment.
  • the driving support device 10 is installed in a vehicle 100 and supports driving of a driver 102 who drives the vehicle 100 .
  • the driving assistance device 10 may be provided as an independent in-vehicle device, or may be provided as a part of in-vehicle equipment such as a drive recorder, car navigation system, or the like.
  • the driving assistance device 10 includes a line-of-sight sensor 12, an ambient detection unit 13, a speaker 22, and a control device 30.
  • the line-of-sight sensor 12 detects the line of sight of the driver 102 .
  • An existing method may be used as the line-of-sight detection method. In this embodiment, an example using a method of detecting the line of sight based on the position of the driver's 102 pupil and the position of the corneal reflection image will be described.
  • the line-of-sight sensor 12 includes an infrared camera 40 and an infrared light irradiation section 44 . Infrared camera 40 captures an infrared light image of an area including both eyeballs of driver 102 .
  • the infrared light irradiation unit 44 includes an LED (light emitting diode) light source, and can emit near-infrared light with a wavelength of 850 [nm], for example.
  • the infrared light irradiation unit 44 emits detection light in synchronization with the frame synchronization signal of the infrared camera 40 .
  • the infrared light irradiation unit 44 irradiates near-infrared light toward the eyeballs of the driver.
  • the line-of-sight sensor 12 detects the position data of the gaze point of the driver 12 .
  • the line-of-sight sensor 12 detects the subject's line-of-sight vector defined by the three-dimensional global coordinate system based on the image data of the left and right eyeballs of the subject acquired by the infrared camera 40 .
  • the line-of-sight sensor 12 detects the detected line-of-sight vector of the driver as position data of the line of sight of the driver. That is, in the present embodiment, the line-of-sight position data is the line-of-sight vector of the driver 102 defined by the three-dimensional global coordinate system.
  • the line-of-sight sensor 12 detects the position data of the gaze point of the driver at every prescribed sampling period.
  • This sampling period can be, for example, the period of the frame synchronization signal output from the infrared camera 40 (for example, every 20 [msec]).
  • the method of detecting the line of sight is, for example, based on the position of the inner corner of the eye and the position of the iris of the driver.
  • a method of detecting the line of sight may also be used.
  • a visible light camera may be provided instead of the infrared camera and the infrared light irradiation unit.
  • the surroundings detection unit 13 detects objects around the vehicle 100 .
  • the surrounding detection unit 13 includes a front detection section 14 , a rear detection section 16 , a side detection section 18 and a side detection section 20 .
  • the front detection unit 14 is arranged in front of the vehicle 100 and detects an object on the front side of the vehicle 100 .
  • the rear detector 16 is arranged behind the vehicle 100 and detects an object behind the vehicle 100 .
  • Side detector 18 is arranged on one side of vehicle 100 and detects an object on one side of vehicle 100 .
  • Side detector 20 is arranged on the other side of vehicle 100 and detects an object on the other side of vehicle 100 .
  • the front detection section 14, the rear detection section 16, the side detection section 18, and the side detection section 20 are sensors and laser scanners, and detect objects in detection target areas.
  • the surroundings detection unit 13 detects objects in the respective regions with the front detection unit 14, the rear detection unit 16, the side detection unit 18, and the side detection unit 20, thereby detecting objects around the vehicle 100.
  • the surrounding detection unit 13 is not limited to sensors and laser scanners, and may acquire an image and extract an object for image analysis. Also, although the surrounding detection unit 13 has four detection sections, the arrangement and number of the detection sections are not limited to this.
  • Surrounding detection unit 13 may be a single detection unit if objects around the entire circumference of vehicle 100 can be detected with one unit. For example, the surrounding detection unit 13 may have detectors arranged at a total of eight locations, i.e., the four sides and the four corners of the circumference.
  • the speaker 22 is arranged inside the vehicle 100 and outputs warning sounds and warning sounds.
  • Control device 30 determines the driving assistance to be executed based on the line of sight of the driver 102 acquired by the line of sight sensor 12 and the situation of surrounding objects detected by the surrounding detection unit 13, and outputs sound, A sound is output from the speaker 22.
  • Control unit 50 includes control unit 50 , storage unit 52 , and communication unit 54 .
  • the control unit 50 includes a microprocessor such as a CPU (central processing unit).
  • the control unit 50 includes a line-of-sight visual field extraction unit 60, a surrounding situation extraction unit 62, a driving evaluation unit 64, and a driving support unit 66.
  • the line-of-sight visual field extracting unit 60 identifies the field of view of the driver based on information on the driver's line of sight detected by the line-of-sight sensor 12 . In this embodiment, a gaze area and a peripheral area are specified as the visual field by a method described later. Also, based on the line-of-sight visual field extracting unit 60 and the information of the driver's line of sight detected by the line-of-sight sensor 12, the visual field, that is, the range of the gaze area and the peripheral area, that is, the boundary of each area is specified. In this embodiment, the area outside the field of view is the blind spot area.
  • the surrounding situation extraction unit 62 detects objects around the vehicle 100 based on the information detected by the surrounding detection unit 13 .
  • Surrounding situation extraction unit 62 extracts gaze targets, which are objects that are present around vehicle 100 and need to be gazed at, as objects.
  • Objects to be watched include humans and obstacles.
  • An object to be watched is an object within a range that may collide with the vehicle 100 within a predetermined period of time.
  • Surrounding situation extraction unit 62 may further detect the surrounding environment. Specifically, weather and visibility conditions may be detected.
  • the driving evaluation unit 64 detects the operation information of the driver 102 from the vehicle 100 and the state of behavior of the vehicle 100 via the communication unit 54 .
  • the driving evaluation unit 64 evaluates the driving of the driver 102 based on the detected state.
  • the driving assistance unit 66 outputs information for assisting driving to the driver 102 based on the states detected by the line-of-sight visual field extraction unit 60 and the surrounding situation extraction unit 62 . Specifically, the driving support unit 66 determines information to be notified to the driver 102 based on the relationship between the object extracted by the surrounding situation extraction unit 62 and the line of sight and field of view extracted by the line-of-sight extraction unit 60, Output the determined result.
  • the storage unit 52 includes memory or storage such as ROM (read only memory) and RAM (random access memory).
  • the storage unit 52 stores a driving assistance program 70 .
  • the storage unit 52 also stores various data necessary for driving assistance.
  • the control unit 50 executes the operation of each unit by performing arithmetic processing according to the driving support program 70 stored in the storage device 52 .
  • the communication unit 54 transmits and receives information to and from the control unit of the vehicle 100 and each unit of the driving support device 10 .
  • the communication unit 54 transmits and receives information to, for example, a control unit of the vehicle via a wireless network.
  • the communication unit 54 includes, for example, Wi-Fi (registered trademark), a communication module for short-range wireless communication, and wired wiring.
  • FIG. 3 and 4 are explanatory diagrams for explaining the operation of the driving support system according to this embodiment.
  • the driving support device 10 uses the line-of-sight visual field extraction unit 60 to identify the gaze area 112 and the peripheral area 114 based on the line-of-sight 110 of the driver 102 .
  • the field of view of driver 102 is the combined area of gaze area 112 and peripheral area 114 .
  • Gaze area 112 is an area that includes line of sight 110 .
  • a peripheral area 114 is an area outside the gaze area 112 in the visual field, that is, an area farther from the line of sight 110 than the gaze area 112 .
  • the driving support device 10 defines an area outside the gaze area 112 and the peripheral area 114, that is, an area outside the visual field as a blind spot area.
  • the gaze area 112 is an area in the visual field that is close to the line of sight 110 and is an area where the driver can be clearly seen.
  • a peripheral area 114 is an area outside the gaze area 112 , and is an area that is visible but has a lower cognition than the gaze area 112 .
  • the blind spot area is outside the field of view and is a range that the driver 102 cannot visually recognize.
  • the driving support device 10 can identify the boundaries of the gaze area 112, the peripheral area 114, and the blind area with respect to the line of sight 110 with the sight line visual field extraction unit 60.
  • the driving support device 10 outputs voice guidance from the speaker 22 and executes processing for causing the driver to change his/her line of sight, thereby specifying the boundary of each region of the driver. For example, if the driving support device 10 has a structure in which an image can be displayed on the front panel, in a state in which the driver's line of sight is fixed at a point in front of the driver, visual targets are displayed around the point so that the driver can Measure visibility.
  • a plurality of optotypes with different shapes and colors are prepared, and if the driver can distinguish the shape and color of the optotype, it is determined to be within the gaze region, and if the driver cannot distinguish but can visually recognize it, it is determined to be within the peripheral region.
  • the results of execution on another device may be used for setting the field of view.
  • a measurement unit including a line-of-sight measuring device, a perimeter, and a display device may be used to identify the visual field, and the identified result may be provided to the control device 30 via the communication unit 54 .
  • the field of view may be a set value.
  • the gaze area may be the effective visual field
  • the peripheral area may be the range corresponding to the peripheral visual field. More specifically, the gaze area corresponding to the effective visual field is 30 degrees left and right from the line of sight, and the peripheral area corresponding to the peripheral vision is an area outside the gaze area centered on the line of sight and 100 degrees left and right. good.
  • the field of view may change depending on the direction in which the driver is looking.
  • the range of the fixation area and the peripheral area for the line of sight may be changed. Specifically, when looking at the right side, the visual field area on the right side centered on the line of sight is narrowed. Similarly, when looking at the left side, the visual field area on the left side centered on the line of sight is narrowed. This is because the viewing range may change depending on the viewing direction.
  • the driving assistance device 10 switches the assistance to be executed based on the relationship between the object to be gazed that is judged to require gaze and each area set based on the line of sight.
  • the driving support device 10 of the present embodiment identifies a gaze area 112a and a surrounding area 114a based on the line of sight 110a of the driver 102, and when the gaze target 120 is in the gaze area 112a, a warning is given. does not output As a result, even if the gaze target 120 is in the gaze area 102a and does not overlap with the line of sight 110a, no warning is issued, thereby preventing output of a warning to the gaze target 120 recognized by the driver 102. can.
  • the driving support device 10 of the present embodiment identifies a gaze area 112b and a peripheral area 114b based on the line of sight 110b of the driver 102, and when the gaze target 120 is in the peripheral area 114b, a warning is given. to output
  • the driving support device 10 notifies the position relative to the line of sight.
  • the warning voice "there is an obstacle on the right side of the field of vision" is notified.
  • the driving support device 10 of the present embodiment identifies a gaze area 112c and a peripheral area 114c based on the line of sight 110c of the driver 102, and if there is a gaze target 120 in the blind spot area, Notify absolute position.
  • the warning voice "there is an obstacle behind the vehicle" is notified.
  • the driving support device 10 outputs a louder sound when there is a gaze target in the blind spot area than when there is a gaze target in the peripheral area.
  • a gaze target in the peripheral area included in the field of view it is possible to suppress the driver who is aware of the gaze target from feeling annoyed.
  • a gaze target in the blind spot area it is possible to more reliably inform the driver who cannot see it.
  • FIG. 7 is a flowchart showing an example of a driving assistance method according to this embodiment.
  • the driving assistance device 10 repeats and executes the processing of FIG. 7 while the driver 102 is driving the vehicle 100 or while the driving assistance device 10 is activated.
  • the driving support device 10 acquires information outside the vehicle (step S12). Specifically, the surroundings extraction unit 62 processes information detected by the surroundings detection unit 13 and extracts objects around the vehicle 100 .
  • the driving support device 10 determines the gaze target (step S14). Specifically, the surrounding situation extraction unit 62 extracts an object to be gazed at from the objects. Note that the driving support device 10 may terminate this process when there is no gaze target object.
  • the driving support device 10 acquires the line of sight of the driver (step S16). Specifically, the line-of-sight visual field extraction unit 60 acquires information on the driver's line of sight from the information of the line-of-sight sensor 12 . Also, the line-of-sight visual field extraction unit 60 sets a gaze region, a peripheral region, and a blind spot region based on the line of sight, based on the position of the line of sight and the information of the set region.
  • the driving support device 10 determines in which area the gaze target exists (step S18). When the driving support device 10 determines that the gaze target is in the gaze area, that is, when the positional relationship shown in FIG. 4 is satisfied, the process proceeds to step S24. When determining that the gaze target is in the peripheral area, that is, when the positional relationship shown in FIG. 5 is satisfied, the driving support device 10 notifies the relative position of the gaze target (step S20). When determining that the gaze target is in the blind spot area, that is, when the positional relationship shown in FIG. 6 is satisfied, the driving support device 10 notifies the absolute position of the gaze target (step S22).
  • the driving support device 10 evaluates the reaction of the driver when determining that it is the region of interest in step S18, or when performing the processes of steps S20 and S22 (step S24). Specifically, the driving support device 10 obtains information on the driving of the driver in a state where a warning is issued based on the gaze target or the gaze target is in the gaze area, and evaluates the result.
  • the driving support device 10 resets the gaze area and the peripheral area based on the evaluation result (step S26), and ends this process. Note that the processes of steps S24 and S26 may not be executed each time, but may be executed based on the evaluations accumulated a certain number of times.
  • the driving support device 10 performs evaluation based on the reaction of the driver, and resets to be executed. If it is slower, narrow the gaze area. In addition, if there is a gaze target in front of the vehicle and the gaze target exists in the peripheral area, but the brake is operated without directing the line of sight to the gaze target, the gaze area is widened. If the gaze target is located near the blind spot area in the peripheral area and the response to the notification of the gaze target position is slow, the range of the peripheral area is narrowed. If the gaze target is located near the peripheral area within the blind spot area and the driver directs his/her gaze to the gaze target before the notification, the range of the peripheral area is widened.
  • the driver can You can set the field of view corresponding to the situation.
  • the driving support system of the present embodiment includes the line-of-sight visual field extraction unit 60 that extracts the gaze region and the peripheral region based on the line-of-sight and visual field of the driver driving the vehicle 100, and the Surrounding condition extraction unit 62 for extracting an object and the warning to be output based on whether the object detected by the surrounding condition detection unit 62 is in the gaze area, the surrounding area, or the blind spot area outside the surrounding area.
  • a driving assistance unit 66 that determines the driving assistance unit 66 and an output unit (speaker 22 ) that outputs the warning determined by the driving assistance unit 66 are provided.
  • the driving support device of the present embodiment includes a line-of-sight visual field extraction step of extracting a gaze region and a peripheral region based on the line of sight and visual field of a driver driving a vehicle, and a surrounding situation extraction step of extracting objects around the vehicle. a determination step of determining a warning to be output based on whether the object detected in the surrounding situation detection step is in the gaze region, the surrounding region, or a blind spot region outside the surrounding region; and an output step of outputting.
  • the driving assistance program of the present embodiment includes a line-of-sight visual field extraction step of extracting a gaze region and a peripheral region based on the line-of-sight and visual field of a driver driving a vehicle, and a surrounding situation extraction step of extracting objects around the vehicle. a determination step of determining a warning to be output based on whether the object detected in the surrounding situation detection step is in the gaze region, the surrounding region, or a blind spot region outside the surrounding region; and causing a computer to execute an output step of outputting.
  • the driving support device 10 determines the warning to be output based on whether the gaze target is in the gaze area, the peripheral area, or the blind spot area outside the peripheral area, thereby providing more effective assistance information to the driver. can be notified.
  • the driving support unit does not output a warning. Output the absolute position as a warning. As a result, it is possible to provide support suited to the situation.
  • the warning is issued by the sound output from the speaker 22, but the output unit is not limited to the speaker.
  • the driving support device 10 may give a warning by display instead of or in addition to sound. That is, a display device can be used as the output unit.
  • a monitor or a projector can be used as a display device, and for example, a car navigation monitor or a head-up display can be used.
  • the driving support device 10 includes a driving evaluation unit 64 that evaluates the driving of the driver, and the driving support unit 66 adjusts the gaze area, peripheral area, and blind spot area based on the evaluation result of the driving evaluation unit. In this way, by adjusting the boundary of the area based on the driver's reaction, it is possible to execute assistance corresponding to the driver's situation. Specifically, bad conditions such as poor physical condition of the driver, decreased attention due to the passage of driving time, poor visibility such as rain or at night, and places where concentration is required in a city with many cars and people. Appropriate support can be provided in the case where the gaze area and the peripheral area become narrower, and on the contrary, the case where the gaze area and the peripheral area become wider under favorable conditions. Since the driving support device 10 can obtain the above effect, it is preferable to configure the driving support device 10 to include the driving evaluation unit 64 . In other words, the setting of the boundary of the field of view may not be changed.
  • the surrounding situation extraction unit 62 detects the environment around the vehicle, and the driving support unit 66 adjusts the gaze area, the surrounding area, and the blind spot area based on the environment around the vehicle.
  • the driving support unit 66 adjusts the gaze area, the surrounding area, and the blind spot area based on the environment around the vehicle.
  • the line-of-sight visual field extraction unit 60 accumulates information on the movement of the driver's line of sight, and based on the accumulated results, determines the range of the gaze area and peripheral area for the driver's line of sight. In this way, by setting the area based on the sight line detection result, it is possible to set the area of the visual field according to the ability of the driver.
  • a driving support device a driving support method, and a driving support program that support the driving of automobiles.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

運転者が視認している状況に基づいてより適切な支援情報を提供できる運転支援が可能な運転支援装置等を提供する。車両を運転する運転者の視線に基づいて、運転者の視野である注視領域及び周辺領域を特定する視線視野抽出部と、車両の周囲にある物体を抽出する周囲状況抽出部と、周囲状況抽出部で抽出した物体が注視領域、周辺領域、周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する運転支援部と、運転支援部で決定した警告を出力する出力部と、を備える。

Description

運転支援装置、運転支援方法、及び運転支援プログラム
 本発明は、運転支援装置、運転支援方法、及び運転支援プログラムに関する。
 自動車等の車両を運転する運転者を支援する運転支援装置が知られている。例えば、運転者の注視している位置と社外の状況を検出し、注視すべき対象物を運転者が注視していないことを検出した場合警告を出力する警告装置がある(例えば、特許文献1参照)。
特開2019-185218号公報
 特許文献1では、注視していない場合に運転者に通知を行っているが、運転者が注視していないが対象物を認識している場合もある。注視していない対象物がある場合に警告を出力する制御の場合、警告が頻発し、運転者に有益な情報を提供できず、運転支援が不十分となる可能性がある。
 本実施形態は、上記に鑑みてなされたものであり、運転者が視認している状況に基づいてより適切な支援情報を提供できる運転支援が可能な運転支援装置、運転支援方法、及び運転支援プログラムを提供することを目的とする。
 本実施形態に係る運転支援装置は、車両を運転する運転者の視線に基づいて、前記運転者の視野である注視領域及び周辺領域を特定する視線視野抽出部と、前記車両の周囲にある物体を抽出する周囲状況抽出部と、前記周囲状況抽出部で抽出した物体が前記注視領域、前記周辺領域、前記周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する運転支援部と、前記運転支援部で決定した警告を出力する出力部と、を備える。
 本実施形態に係る運転支援方法は、車両を運転する運転者の視線に基づいて、前記運転者の視野である注視領域及び周辺領域を特定する視線視野抽出ステップと、前記車両の周囲にある物体を抽出する周囲状況抽出ステップと、前記周囲状況抽出ステップで抽出した物体が前記注視領域、前記周辺領域、前記周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する決定ステップと、決定した警告を出力する出力ステップと、を備える。
 本実施形態に係る運転支援プログラムは、車両を運転する運転者の視線と視野に基づいて、前記運転者の視野である注視領域及び周辺領域を特定する視線視野抽出ステップと、前記車両の周囲にある物体を抽出する周囲状況抽出ステップと、前記周囲状況抽出ステップで抽出した物体が前記注視領域、前記周辺領域、前記周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する決定ステップと、決定した警告を出力する出力ステップと、をコンピュータに実行させる。
 本実施形態によれば、運転者が視認している状況に基づいてより適切な支援情報をできる。
図1は、本実施形態に係る運転支援装置を搭載した車両の一例を示す機能ブロック図である。 図2は、本実施形態に係る運転支援装置の一例を示す機能ブロック図である。 図3は、本実施形態に係る運転支援装置の動作を説明する説明図である。 図4は、本実施形態に係る運転支援装置の動作を説明する説明図である。 図5は、本実施形態に係る運転支援装置の動作を説明する説明図である。 図6は、本実施形態に係る運転支援装置の動作を説明する説明図である。 図7は、本実施形態に係る運転支援方法の一例を示すフローチャートである。
 以下、本発明に係る運転支援装置、運転支援方法、及び運転支援プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
 [運転支援装置]
 図1は、本実施形態に係る運転支援装置を搭載した車両の一例を示す機能ブロック図である。図2は、本実施形態に係る運転支援装置10の一例を示す機能ブロック図である。図1に示すように、運転支援装置10は、車両100に設置され、車両100を運転する運転者102の運転を支援する。運転支援装置10は、独立した車載装置として設けられてもよいし、例えばドライブレコーダ、カーナビゲーション等の車載機器の一部として設けられてもよい。
 図1及び図2に示すように、運転支援装置10は、視線センサ12と、周囲検出ユニット13と、スピーカ22と、制御装置30と、を含む。視線センサ12は、運転者102の視線を検出する。視線検出方法としては既存の方法を用いればよい。本実施形態では、運転者102の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方法を用いる例について説明する。視線センサ12は、赤外線カメラ40と、赤外光照射部44と、を含む。赤外線カメラ40は、運転者102の両方の眼球を含む領域の赤外光画像を撮影する。赤外光照射部44は、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。赤外光照射部44は、赤外線カメラ40のフレーム同期信号に同期するように検出光を射出する。赤外光照射部44は、運転者の眼球に向けて近赤外光を照射する。視線センサ12は、運転者12の注視点の位置データを検出する。視線センサ12は、赤外線カメラ40によって取得される被験者の左右の眼球の画像データに基づいて、三次元グローバル座標系で規定される被験者の視線ベクトルを検出する。視線センサ12は、検出した運転者の視線ベクトルを、運転者の視線の位置データとして検出する。つまり、本実施形態において、視線の位置データは、三次元グローバル座標系で規定される運転者102の視線ベクトルである。視線センサ12は、規定のサンプリング周期毎に運転者の注視点の位置データを検出する。このサンプリング周期は、例えば赤外線カメラ40から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。視線検出方法は、上記で説明した、運転者102の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方法以外に、例えば、運転者の目頭の位置と虹彩の位置とに基づいて視線を検出する方法を用いても良い。この方法の場合、赤外線カメラや赤外光照射部の代わりに、可視光カメラを備える構成とすればよい。
 周囲検出ユニット13は、車両100の周囲にある物体を検出する。周囲検出ユニット13は、前方検出部14と、後方検出部16と、側方検出部18と、側方検出部20と、を含む。前方検出部14は、車両100の前方に配置され、車両100の前方側にある物体を検出する。後方検出部16は、車両100の後方に配置され、車両100の後方側にある物体を検出する。側方検出部18は、車両100の一方の側面に配置され、車両100の一方の側面側にある物体を検出する。側方検出部20は、車両100の他方の側面に配置され、車両100の他方の側面側にある物体を検出する。前方検出部14と、後方検出部16と、側方検出部18と、側方検出部20とは、センサ、レーザスキャナであり、検出対象の領域にある物体を検出する。周囲検出ユニット13は、前方検出部14と、後方検出部16と、側方検出部18と、側方検出部20とでそれぞれの領域の物体を検出することで、車両100の周囲の物体を検出する。なお、周囲検出ユニット13は、センサ、レーザスキャナに限定されず、画像を取得して画像の解析を行う物体を抽出してもよい。また、周囲検出ユニット13は、4つの検出部を配置したが、検出部の配置や数はこれに限定されない。周囲検出ユニット13は、1つで車両100の全周の周囲の物体が検出できる場合、1つの検出部でもよい。周囲検出ユニット13は、例えば、周囲の四方と四隅の合計8カ所に検出部を配置してもよい。
 スピーカ22は、車両100の内部に配置され、警告音、警告音声を出力する。
 制御装置30は、視線センサ12で取得した運転者102の視線と、周囲検出ユニット13で検出した周囲の物体の状況と、に基づいて、実行する運転支援を決定し、音を出力させる場合、スピーカ22から音を出力させる。制御装置30は、制御部50と、記憶部52と、通信部54と、を含む。制御部50は、CPU(central processing unit)のようなマイクロプロセッサを含む。
 制御部50は、視線視野抽出部60と、周囲状況抽出部62と、運転評価部64と、運転支援部66と、を含む。視線視野抽出部60は、視線センサ12で検出した運転者の視線の情報に基づいて、運転者の視野を特定する。本実施形態では、後述する方法で、視野として注視領域と周辺領域を特定する。また、視線視野抽出部60と、視線センサ12で検出した運転者の視線の情報に基づいて、視野、つまり注視領域と周辺領域の範囲、つまり各領域の境界を特定する。本実施形態では、視野の外側の領域は、死角領域となる。
 周囲状況抽出部62は、周囲検出ユニット13で検出した情報に基づいて、車両100の周囲にある物体を検出する。周囲状況抽出部62は、物体として、車両100の周囲にあり、かつ、注視する必要がある物体である注視対象を抽出する。注視対象となる物体としては、人間、障害物がある。また、注視対象となる物体は、車両100と所定時間以内に衝突する可能性がある範囲になる物体である。周囲状況抽出部62は、さらに、周囲の環境を検出してもよい。具体的には、天候や視界の状況を検出してもよい。
 運転評価部64は、通信部54を介して車両100から運転者102の操作情報と、車両100の挙動の状態を検出する。運転評価部64は、検出した状態に基づいて、運転者102の運転を評価する。
 運転支援部66は、視線視野抽出部60と、周囲状況抽出部62で検出した状態に基づいて、運転者102に運転を支援する情報を出力する。具体的には、運転支援部66は、周囲状況抽出部62で抽出した物体と視線視野抽出部60で抽出した視線と視野との関係に基づいて、運転者102に通知する情報を決定し、決定した結果を出力する。
 記憶部52は、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。記憶部52は、運転支援プログラム70を記憶する。また、記憶部52は、運転支援に必要な各種データを記憶する。制御部50は、記憶装置52に記憶されている運転支援プログラム70に従って演算処理を実施することで、上記各部の動作を実行する。
 通信部54は、車両100の制御部や、運転支援装置10の各部との間で情報の送受信を行う。通信部54は、例えば、無線のネットワークを介して、車両の制御部などとの間で情報の送受信を行う。通信部54は、例えば、Wi-Fi(登録商標)や、近距離無線通信の通信モジュールや、有線の配線で構成されている。
 次に、本実施形態に係る運転支援方法の一例について、図3から図7を参照しながら説明する。図3から図4はそれぞれ本実施形態に係る運転支援装置の動作を説明する説明図である。
 運転支援装置10は、視線視野抽出部60で、運転者102の視線110を基準として、注視領域112と周辺領域114を特定する。運転者102の視野は、注視領域112と周辺領域114を合わせた領域である。注視領域112は、視線110を含む領域である。周辺領域114は、視野のうち注視領域112よりも外側、つまり注視領域112よりも視線110から遠い領域である。また、運転支援装置10は、注視領域112、周辺領域114よりも外側の領域、つまり視野の外側の領域を死角領域とする。注視領域112は、視野のうち、視線110に近い領域であり、運転者が明確に見えている領域となる。周辺領域114は、注視領域112よりも外側の領域であり、見えている領域ではあるが、注視領域112に比べると認知が低下する領域である。死角領域は、視野の外側であり、運転者102が視認できない範囲である。
 運転支援装置10は、視線視野抽出部60で、視線110に対する注視領域112、周辺領域114、死角領域の境界を特定することができる。運転支援装置10は、スピーカ22から音声案内を出力しつつ、運転者に視線を変動させる処理を実行することで、運転者の各領域の境界を特定する。例えば、運転支援装置10は、フロントパネルに画像が表示できる構造である場合、運転者に正面のある一点に視線を固定してもらった状態で、その周囲に視標を表示し、運転者が視認できるかどうかを測定する。例えば、形や色の異なる視標を複数用意しておき、運転者が視標の形や色を判別できれば注視領域以内、判別できないが視認はできている場合は周辺領域以内と判定する。
 また、視野の領域設定は、別の装置で実行した結果を用いてもよい。例えば、視線計測装置と視野計と表示装置を備える計測ユニットを用いて、視野を特定し、通信部54を介して、特定した結果を制御装置30に提供してもよい。また、視野は設定値としてもよい。例えば、注視領域を有効視野、周辺領域を周辺視野に相当する範囲としてもよい。より具体的には、有効視野に対応する注視領域は、視線を中心として左右30度、周辺視野に対応する周辺領域は、視線を中心として注視領域より外側で、かつ左右100度の領域としてもよい。また、視野は、運転者が見ている方向によって変化させてもよい。つまり、正面を見ているか右側を見ているか、左側を見ているかで、視線に対する注視領域、周辺領域の範囲を変化させてもよい。具体的には、右側を見ている場合に視線を中心とした右側の視野領域を狭く設定する。同様に、左側を見ている場合、視線を中心とした左側の視野領域を狭く設定する。これは、見ている方向によって視野範囲が変わる可能性があるためである。
 運転支援装置10は、物体のうち注視する必要があると判定した注視対象と、視線に基づいて設定した各領域との関係に基づいて、実行する支援を切り替える。本実施形態の運転支援装置10は、図4に示すように、運転者102の視線110aに基づいて、注視領域112aと周辺領域114aを特定し、注視対象120が注視領域112aにある場合、警告を出力しない。これにより、注視対象120が注視領域102aにある場合、視線110aと重なっていない場合でも、警告を行わないことで、運転者102が認識している注視対象120に対する警告が出力されることを防止できる。
 本実施形態の運転支援装置10は、図5に示すように、運転者102の視線110bに基づいて、注視領域112bと周辺領域114bを特定し、注視対象120が周辺領域114bにある場合、警告を出力する。ここで、運転支援装置10は、周辺領域114bに注視対象120がある場合、視線に対する相対的な位置を通知する。図5に示す例では警告音声として、「視界の右側に障害物があります」と通知する。
 本実施形態の運転支援装置10は、図6に示すように、運転者102の視線110cに基づいて、注視領域112cと周辺領域114cを特定し、死角領域に注視対象120がある場合、車両に対する絶対的な位置を通知する。図6に示す例では警告音声として、「車両の後ろ側に障害物があります」と通知する。
 また、運転支援装置10は、死角領域に注視対象がある場合、周辺領域に注視対象がある場合よりも大きい音声を出力することが好ましい。これにより、視野に含まれる周辺領域に注視対象がある場合は、注視対象に気付いている運転者が煩わしさを感じることを抑制できる。また、死角領域に注視対象がある場合、見えていない運転者により確実に知らせることができる。
 次に、図7を用いて運転支援装置の動作、つまり運転支援方法について説明する。図7は、本実施形態に係る運転支援方法の一例を示すフローチャートである。運転支援装置10は、運転者102が車両100を運転している間、または運転支援装置10が起動されている間、図7の処理を繰り返し、実行する。
 運転支援装置10は、車外の情報を取得する(ステップS12)。具体的には、周囲状況抽出部62が、周囲検出ユニット13で検出した情報を処理して、車両100の周囲にある物体を抽出する。
 運転支援装置10は、注視対象を判別する(ステップS14)。具体的には、周囲状況抽出部62は、物体から注視対象の物体を抽出する。なお、運転支援装置10は、注視対象の物体がない場合、本処理を終了してもよい。
 運転支援装置10は、運転者の視線を取得する(ステップS16)。具体的には、視線視野抽出部60は、視線センサ12の情報から運転者の視線の情報を取得する。また、視線視野抽出部60は、視線の位置と、設定された領域の情報に基づいて、視線を基準とした注視領域、周辺領域、死角領域を設定する。
 運転支援装置10は、注視対象がどの領域に存在するかを判定する(ステップS18)。運転支援装置10は、注視対象が注視領域にあると判定した場合、つまり、図4の位置関係である場合、ステップS24に進む。運転支援装置10は、注視対象が周辺領域にあると判定した場合、つまり、図5の位置関係である場合、注視対象の相対位置を報知する(ステップS20)。運転支援装置10は、注視対象が死角領域にあると判定した場合、つまり、図6の位置関係である場合、注視対象の絶対位置を報知する(ステップS22)。
 運転支援装置10は、ステップS18で注視領域であると判定した場合、また、ステップS20、ステップS22の処理を実行した場合、運転者の反応の評価を行う(ステップS24)。具体的には、運転支援装置10は、注視対象に基づいて実行した警告または注視領域に注視対象がいる状態での、運転者の運転の情報を取得し、その結果を評価する。
 運転支援装置10は、評価結果に基づいて、注視領域、周辺領域の再設定を行い(ステップS26)、本処理を終了する。なお、ステップS24、ステップS26の処理は毎回実行せず、一定回数の評価対象を蓄積し、その評価に基づいて実行してもよい。
 運転支援装置10は、運転者の反応に基づいて評価を行い、実行する再設定として、例えば、車両の正面に注視対象があり、注視対象が注視領域に含まれているがブレーキの作動が閾値より遅かった場合には、注視領域の範囲を狭くする。また、車両の正面に注視対象があり、注視対象が周辺領域に存在しているが、注視対象に視線を向けずにブレーキを作動した場合は注視領域を広くする。周辺領域内の死角領域に近い位置に注視対象があり、注視対象位置の報知への反応が遅かった場合には、周辺領域の範囲を狭くする。死角領域内の周辺領域に近い位置に注視対象があり、報知の前に運転者が注視対象に視線を向けた場合は周辺領域の範囲を広くする。このように、注視対象がある領域と、注視対象の特定後の運転者の車両の制御動作、視線の動きに基づいて、注視領域、周辺領域、死角領域の位置を調整することで、運転者の状況に対応した視界を設定することができる。
 以上のように、本実施形態の運転支援装置は、車両100を運転する運転者の視線と視野に基づいて、注視領域及び周辺領域を抽出する視線視野抽出部60と、車両100の周囲にある物体を抽出する周囲状況抽出部62と、周囲状況検出部62で検出した物体が注視領域、周辺領域、周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する運転支援部66と、運転支援部66で決定した警告を出力する出力部(スピーカ22)と、を備える。
 本実施形態の運転支援装置は、車両を運転する運転者の視線と視野に基づいて、注視領域及び周辺領域を抽出する視線視野抽出ステップと、車両の周囲にある物体を抽出する周囲状況抽出ステップと、周囲状況検出ステップで検出した物体が注視領域、周辺領域、周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する決定ステップと、決定した警告を出力する出力ステップと、を備える。
 本実施形態の運転支援プログラムは、車両を運転する運転者の視線と視野に基づいて、注視領域及び周辺領域を抽出する視線視野抽出ステップと、車両の周囲にある物体を抽出する周囲状況抽出ステップと、周囲状況検出ステップで検出した物体が注視領域、周辺領域、周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する決定ステップと、決定した警告を出力する出力ステップと、をコンピュータに実行させる。
 運転支援装置10は、注視対象が注視領域、周辺領域、周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定することで、運転者により有効な支援情報を通知することができる。
 運転支援部は、注視対象が注視領域にある場合、警告を出力せず、注視対象が周辺領域にある場合、視線に対する相対位置を警告で出力し、注視対象が死角領域にある場合、車両に対する絶対位置を警告で出力する。これにより、状況に即した支援を行うことができる。
 上記実施形態では、注視対象が1つの場合について説明したが、複数の注視対象を同時に抽出してもよい。また、本実施形態では、スピーカ22から出力する音で警告を実行したが、出力部としては、スピーカに限定されない。運転支援装置10は、音に代えてまたは音に加えて、表示で警告を行ってもよい。つまり、出力部として、表示を行う機器を用いることができる。表示を行う機器としては、モニター、プロジェクタを用いることができ、例えば、カーナビのモニタや、ヘッドアップディスプレイなどを用いることができる。
 運転支援装置10は、運転者の運転を評価する運転評価部64を備え、運転支援部66が、運転評価部の評価結果に基づいて、注視領域、周辺領域および死角領域の範囲を調整する。このように、運転者の反応に基づいて、領域の境界を調整することで、運転者の状況に対応した支援を実行することができる。具体的には、運転者の体調不良、運転時間の経過による注意力の低下、雨や夜間など視認性が悪い時、街中で車や人が多い状況で集中力が必要な場所などの悪い条件では注視領域、周辺領域が狭くなる場合、反対に良い条件で注視領域、周辺領域は広くなる場合に対応して、適切な支援を行うことができる。運転支援装置10は、上記効果を得ることができるため、運転評価部64を備える構成とすることが好ましいが、運転評価部64を備えない構成とすることもできる。つまり、視野の境界の設定を変動させないようにしてもよい。
 また、周囲状況抽出部62が、車両の周囲の環境を検出し、運転支援部66が、車両の周囲の環境に基づいて、注視領域、周辺領域および死角領域の範囲を調整することも好ましい。これにより、昼、夜等の周囲の明るさや、雨、雪、霧等の環境条件に合わせて領域を調整することができ、適切な支援を行うことができる。
 視線視野抽出部60は、運転者の視線の動きの情報を蓄積し、蓄積した結果に基づいて、運転者の視線に対する注視領域および周辺領域の範囲を決定する。このように、視線の検出結果に基づいて領域を設定することで、運転者の能力に合わせて視野の領域を設定することができる。
 本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
 自動車等の運転を支援する運転支援装置、運転支援方法、及び運転支援プログラムである。
 10 運転支援装置
 12 視線センサ
 13 周囲検出ユニット
 14 前方検出部
 16 後方検出部
 18、20 側方検出部
 22 スピーカ
 30 制御装置
 40 赤外線カメラ
 44 赤外光照射部
 50 制御部
 52 記憶部
 54 通信部
 60 視線視野抽出部
 62 周囲状況抽出部
 64 運転評価部
 66 運転支援部
 70 運転支援プログラム
 100 車両
 102 運転者
 110 視線
 112 注視領域
 114 周辺領域

Claims (6)

  1.  車両を運転する運転者の視線に基づいて、前記運転者の視野である注視領域及び周辺領域を特定する視線視野抽出部と、
     前記車両の周囲にある物体を抽出する周囲状況抽出部と、
     前記周囲状況抽出部で抽出した物体が前記注視領域、前記周辺領域、前記周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する運転支援部と、
     前記運転支援部で決定した警告を出力する出力部と、を備える運転支援装置。
  2.  前記車両の運転を評価する運転評価部をさらに有し、
     前記運転支援部は、前記運転評価部の評価結果に基づいて、前記注視領域、前記周囲周辺領域および前記死角領域の範囲を調整する請求項1に記載の運転支援装置。
  3.  前記周囲状況抽出部は、前記車両の周囲の環境を検出し、
     前記運転支援部は、前記車両の周囲の環境に基づいて、前記注視領域、前記周囲周辺領域および前記死角領域の範囲を調整する請求項1または請求項2に記載の運転支援装置。
  4.  前記視線視野抽出部は、前記運転者の視線の動きの情報を蓄積し、蓄積した結果に基づいて、前記運転者の視線に対する注視領域および周辺領域の範囲を決定する請求項1から請求項3のいずれか一項に記載の運転支援装置。
  5.  車両を運転する運転者の視線に基づいて、前記運転者の視野である注視領域及び周辺領域を特定する視線視野抽出ステップと、
     前記車両の周囲にある物体を抽出する周囲状況抽出ステップと、
     前記周囲状況抽出ステップで抽出した物体が前記注視領域、前記周辺領域、前記周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する決定ステップと、
     決定した警告を出力する出力ステップと、を備える運転支援方法。
  6.  車両を運転する運転者の視線と視野に基づいて、前記運転者の視野である注視領域及び周辺領域を特定する視線視野抽出ステップと、
     前記車両の周囲にある物体を抽出する周囲状況抽出ステップと、
     前記周囲状況抽出ステップで抽出した物体が前記注視領域、前記周辺領域、前記周辺領域の外である死角領域のいずれの領域にあるかに基づいて、出力する警告を決定する決定ステップと、
     決定した警告を出力する出力ステップと、をコンピュータに実行させる運転支援プログラム。
PCT/JP2022/012714 2021-04-02 2022-03-18 運転支援装置、運転支援方法、及び運転支援プログラム WO2022210038A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021063775A JP2022158702A (ja) 2021-04-02 2021-04-02 運転支援装置、運転支援方法、及び運転支援プログラム
JP2021-063775 2021-04-02

Publications (1)

Publication Number Publication Date
WO2022210038A1 true WO2022210038A1 (ja) 2022-10-06

Family

ID=83455212

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012714 WO2022210038A1 (ja) 2021-04-02 2022-03-18 運転支援装置、運転支援方法、及び運転支援プログラム

Country Status (2)

Country Link
JP (1) JP2022158702A (ja)
WO (1) WO2022210038A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128427A (ja) * 2005-11-07 2007-05-24 Nissan Motor Co Ltd 運転支援装置及び運転支援方法
WO2010016244A1 (ja) * 2008-08-05 2010-02-11 パナソニック株式会社 運転注意量判定装置、方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128427A (ja) * 2005-11-07 2007-05-24 Nissan Motor Co Ltd 運転支援装置及び運転支援方法
WO2010016244A1 (ja) * 2008-08-05 2010-02-11 パナソニック株式会社 運転注意量判定装置、方法およびプログラム

Also Published As

Publication number Publication date
JP2022158702A (ja) 2022-10-17

Similar Documents

Publication Publication Date Title
JP5718942B2 (ja) 輸送手段の安全な運転を補助する装置及び方法
US10009580B2 (en) Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle
US11772671B2 (en) Systems and methods for predicting control handback
JP6454368B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
CN104972967B (zh) 基于响应时间学习来调整车辆警示
JP4872245B2 (ja) 歩行者認識装置
JP2005135037A (ja) 車両用情報提示装置
US10943487B2 (en) Control apparatus, control system, and control program for vehicle
JP2013203103A (ja) 車両用表示装置、その制御方法及びプログラム
JPH06230132A (ja) 車両用障害物検出装置
US20200031273A1 (en) System for exchanging information between vehicles and control method thereof
JPH07117593A (ja) 車両用警報装置
JP6373820B2 (ja) 障害物警告システム及びその動作方法
JP6702832B2 (ja) 模擬運転装置及び模擬運転方法
JP2000351339A (ja) 運転装置の制御装置
JP5003473B2 (ja) 注意喚起装置
US11881054B2 (en) Device and method for determining image data of the eyes, eye positions and/or a viewing direction of a vehicle user in a vehicle
WO2022210038A1 (ja) 運転支援装置、運転支援方法、及び運転支援プログラム
KR102621245B1 (ko) 차량 및 그 제어방법
US20230192115A1 (en) Method and system for assisting a driver of a road vehicle
JP2021039554A (ja) 車両用注視誘導装置
WO2021085371A1 (ja) 運転支援装置、運転支援方法、及び運転支援プログラム
JP7043795B2 (ja) 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP2011192070A (ja) 車両の周辺監視装置
JP7418683B2 (ja) 評価装置、評価方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22780253

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22780253

Country of ref document: EP

Kind code of ref document: A1