WO2024090083A1 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
WO2024090083A1
WO2024090083A1 PCT/JP2023/034292 JP2023034292W WO2024090083A1 WO 2024090083 A1 WO2024090083 A1 WO 2024090083A1 JP 2023034292 W JP2023034292 W JP 2023034292W WO 2024090083 A1 WO2024090083 A1 WO 2024090083A1
Authority
WO
WIPO (PCT)
Prior art keywords
driving assistance
vehicle
driving
assistance device
traffic lights
Prior art date
Application number
PCT/JP2023/034292
Other languages
English (en)
French (fr)
Inventor
知彦 井上
憲生 土田
洋章 新野
敏弘 丸山
浩紀 愛川
勇樹 山口
Original Assignee
株式会社デンソー
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー, トヨタ自動車株式会社 filed Critical 株式会社デンソー
Publication of WO2024090083A1 publication Critical patent/WO2024090083A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • This disclosure relates to a driving assistance device.
  • Patent Documents 1 and 2 disclose Patent Documents 1 and 2.
  • a driving assistance device includes a signal recognition unit that is mounted on a vehicle and recognizes the lighting status of a forward traffic light that is present in the traveling direction of the vehicle by using the detection results of a sensor that detects the position of the vehicle or the conditions around the vehicle, and a driving control unit that executes driving assistance for the vehicle according to the lighting status of the forward traffic light, and when a plurality of forward traffic lights are recognized and the lighting status of at least two of the recognized forward traffic lights differs from each other and the content of the driving assistance cannot be determined, the driving control unit stops or suppresses the driving assistance.
  • this type of driving assistance device if traffic lights with different lighting conditions are recognized and the content of the driving assistance cannot be determined, the driving assistance is stopped or cancelled, making it possible to determine the behavior when the content of the driving assistance cannot be determined, and preventing a decrease in the stability of the driving assistance.
  • FIG. 1 is a block diagram showing a schematic configuration of a driving assistance device according to the present embodiment.
  • FIG. 2 is a flowchart showing a procedure of the driving assistance process according to the present embodiment.
  • FIG. 3 is an explanatory diagram illustrating an example of an image acquired in step S10 of the driving assistance process.
  • FIG. 4 is an explanatory diagram showing an example of the process in step S40 of the driving support process.
  • the driving assistance device 200 of the present embodiment shown in FIG. 1 is mounted on a vehicle M and controls the vehicle M.
  • the vehicle M is also referred to as a "host vehicle M.”
  • the host vehicle M is a vehicle equipped with an engine.
  • the host vehicle M is a vehicle capable of performing automatic driving, and is configured to be able to switch between automatic driving and manual driving.
  • Automatic driving means driving in which engine control, brake control, and steering control are automatically performed on behalf of the occupant.
  • “Manual driving” means driving in which the occupant performs an operation for engine control (pressing the accelerator pedal), an operation for brake control (pressing the brake pedal), and an operation for steering control (rotating the steering wheel).
  • the vehicle M is not limited to a vehicle equipped with an engine, and may be an electric vehicle (EV) or a fuel cell vehicle (FCV).
  • EV electric vehicle
  • FCV fuel cell vehicle
  • the driving assistance device 200 is connected to the information acquisition device 100 and the vehicle operation device 300 via an in-vehicle network such as a Controller Area Network (CAN).
  • the driving assistance device 200 uses information indicating the position of the vehicle M or the situation around the vehicle M acquired by the information acquisition device 100 to control the vehicle operation device 300 and perform driving assistance.
  • CAN Controller Area Network
  • the driving assistance device 200 performs driving assistance by issuing a warning to the occupants through a screen display, sound, vibration, etc., and controlling the acceleration and deceleration of the vehicle M. More specifically, when the driving assistance device 200 recognizes that a red or yellow light is on, it executes at least one of issuing a warning to the occupants to decelerate or stop the vehicle M, and automatically decelerating or stopping the vehicle M. In addition, when the driving assistance device 200 recognizes that the light status has changed from a red light to a green light or a right-turn arrow signal, it executes at least one of issuing a warning to the occupants to start the vehicle M, and automatically starting the vehicle M.
  • the information acquisition device 100 acquires information regarding the current position, driving status, and surrounding conditions of the vehicle M.
  • the information acquisition device 100 includes a camera 110, a GNSS receiver 120, and a wireless communication device 130.
  • the camera 110 captures an image of the traveling direction of the vehicle M to acquire an image.
  • the "traveling direction” refers to the radial area captured by the camera 110 in front of the vehicle M.
  • the GNSS receiver 120 detects the current position (longitude and latitude) of the vehicle M based on a GNSS signal received from an artificial satellite that constitutes the Global Navigation Satellite System (GNSS).
  • the wireless communication device 130 executes wireless communication with an Intelligent Transport System, communication with other vehicles, and communication with roadside radios installed on road facilities such as traffic lights.
  • the "information about the surrounding situation” includes information indicating the illumination status of traffic lights present in the vicinity of the vehicle M (hereinafter, also referred to as "light information”).
  • the information acquisition device 100 corresponds to the "sensor" in this disclosure.
  • the vehicle operation device 300 comprises an engine mechanism 310, a brake mechanism 320, a steering mechanism 330, and a warning device 340.
  • the engine mechanism 310 is made up of a group of devices that perform operations such as opening and closing the throttle valve, igniting the igniter, and opening and closing the intake valve.
  • the brake mechanism 320 is made up of a group of devices related to brake control, such as sensors, motors, valves, and pumps.
  • the steering mechanism 330 is made up of a group of devices related to steering, such as a power steering motor.
  • the warning device 340 is made up of a group of devices that alert the occupants, such as a display device, speaker, and vibration generator.
  • the driving assistance device 200 is configured as a computer equipped with a CPU and memory.
  • An example of such a computer is an ECU (Electronic Control Unit).
  • the driving assistance device 200 includes a signal recognition unit 210, a first sorting unit 220, a second sorting unit 230, and a driving control unit 240 as functional units that are realized by the CPU executing a program that is pre-stored in the memory.
  • the signal recognition unit 210 uses information acquired by the information acquisition device 100 to recognize traffic lights (hereinafter also referred to as "head traffic lights") that exist in the direction of travel of the vehicle M.
  • the first selection unit 220 selects, from the traffic lights ahead, a traffic light that controls traffic in the lane in which the vehicle M is traveling (hereinafter also referred to as “own lane traffic lights”).
  • the second selection unit 230 selects, from the traffic lights ahead, a traffic light that exists at the intersection closest to the vehicle M (hereinafter also referred to as “nearest intersection traffic lights”).
  • the driving control unit 240 controls the vehicle M according to the lighting status of the traffic lights ahead, and performs the driving assistance described above.
  • Driving assistance processing 2 the driving assistance device 200 controls the vehicle operation device 300 and performs driving assistance using information indicating the current position of the vehicle M or the situation around the vehicle M acquired by the information acquisition device 100.
  • the driving assistance process is repeatedly executed while the driving assistance device 200 is running.
  • step S10 the traffic light recognition unit 210 acquires an image captured by the camera 110 and performs image analysis processing on the acquired image to recognize the positions and lighting status of traffic lights present in the image.
  • traffic lights TL1 to TL4 are recognized. Traffic lights TL1 to TL4 correspond to the above-mentioned "traffic lights ahead.” The lighting status of each recognized traffic light corresponds to the above-mentioned "light information.”
  • step S20 shown in FIG. 2 the driving control unit 240 determines whether multiple traffic lights ahead are recognized. If only one traffic light ahead is recognized (step S20: No), the driving control unit 240 executes the driving assistance described above according to the light information of the recognized traffic light ahead (step S82), and the driving assistance device 200 executes step S10 again.
  • step S20 If multiple traffic lights ahead are recognized (step S20: Yes), the driving control unit 240 determines whether the light information of all the traffic lights ahead is uniform (step S30). If the light information of all the traffic lights ahead is uniform (step S30: Yes), the driving control unit 240 performs the above-mentioned driving assistance according to the light information commonly indicated by each traffic light ahead (step S82), and the driving assistance device 200 performs step S10 again.
  • the first selection unit 220 selects the traffic lights in the current lane from the traffic lights ahead (step S40).
  • the first selection unit 220 selects traffic lights TL1 and TL3 as traffic lights in the current lane by excluding traffic lights TL2 and TL4 contained in the exclusion area Ar shown with hatching from the recognition targets.
  • the exclusion area Ar is preset as a rectangular area of a size determined in advance by experiments, etc.
  • the second selection unit 230 selects the nearest intersection traffic light from among the selected own lane traffic lights.
  • the second selection unit 230 compares the areas of the pixel regions representing traffic lights TL1 and TL3 recognized as own lane traffic lights in the acquired image, and excludes traffic light TL3, which has a smaller area than traffic light TL1 and is located farther away, thereby selecting traffic light TL1 as the nearest intersection traffic light. Note that if only one traffic light is selected as the own lane traffic light in step S40, the second selection unit 230 does not need to perform this step.
  • step S60 the driving control unit 240 determines whether the light information of each selected traffic light is single. If the light information is single (step S60: Yes), the driving control unit 240 executes the driving assistance described above according to the light information indicated by the selected traffic light (step S82), and the driving assistance device 200 executes step S10 again.
  • the driving control unit 240 judges whether or not the driving assistance content can be determined from the light information of each selected traffic light (step S70). For example, if a screen display, sound, vibration, or other such alert for the occupant is set in advance as the driving assistance when a red or yellow light is recognized, it is possible to determine that the above-mentioned alert is executed as the driving assistance even if the light information of the selected traffic light includes a mixture of red and yellow lights.
  • the content of the driving assistance cannot be determined if the light information of the selected traffic light includes a mixture of red and yellow lights.
  • Another example of a combination of light information that can determine the driving assistance content is a case where the vehicle M is located in a straight-only lane and the light information of each selected traffic light includes a mixture of red and right-turn arrow signals.
  • the vehicle M If the vehicle M is located in a straight-only lane, it needs to stop regardless of whether the light status of the traffic light for the vehicle M is a red light or a right-turn arrow signal, and in this case, driving assistance for stopping the vehicle can be determined. In other words, even if the light status of each selected traffic light is different from each other, if there is a common driving assistance among the driving assistance to be performed according to each light status, the driving control unit 240 can determine the driving assistance content.
  • step S80 the driving control unit 240 cancels or suppresses the driving assistance.
  • “Canceling” the driving assistance means not executing at least one of the driving assistance contents described above.
  • “suppressing” the driving assistance means weakening the level of driving assistance, and in this embodiment, at least one of suppressing the acceleration/deceleration of the vehicle M, suppressing the degree of emphasis of the screen display on the display device of the vehicle M, suppressing the volume of the notification sound, and suppressing vibrations that alert the occupants is executed.
  • step S80 the driving assistance device 200 executes step S10 again.
  • step S70 If the driving assistance content can be determined (step S70: Yes), the driving control unit 240 executes the determined driving assistance (step S82), and the driving assistance device 200 executes step S10 again.
  • the driving assistance device 200 when a mixture of traffic lights with different lighting conditions is recognized and the content of the driving assistance cannot be determined, the driving assistance is stopped or cancelled, so that the behavior when the content of the driving assistance cannot be determined can be determined and a decrease in the stability of the driving assistance can be suppressed.
  • stability of driving assistance refers to an index that indicates whether it is possible to determine whether or not to perform driving assistance depending on the position of the host vehicle M or the situation around the host vehicle M.
  • the driving assistance device 200 selects the traffic light for the vehicle's own lane and performs driving assistance according to the lighting status of the traffic light for the vehicle's own lane, making it easier to narrow down the traffic lights that are targeted at the vehicle M, further preventing a decrease in the stability of driving assistance.
  • the driving assistance device 200 selects the nearest intersection traffic light and performs driving assistance according to the lighting status of the nearest intersection traffic light, making it easier to narrow down the traffic lights that are targeted at the vehicle M, further preventing a decrease in the stability of driving assistance.
  • the driving assistance device 200 executes the driving assistance that is common to all of the driving assistance that is pre-set to be executed according to each lighting status, so it is possible to prevent the content of the driving assistance from being unable to be determined, and further to prevent a decrease in the stability of the driving assistance.
  • the driving assistance device 200 selects the own lane traffic light and the nearest intersection traffic light in the driving assistance process using the image acquired by the camera 110, but the present disclosure is not limited thereto.
  • the driving assistance device 200 may select the own lane traffic light and the nearest intersection traffic light using the position information of the own vehicle M acquired by the GNSS receiver 120 and the light information of the traffic lights around the own vehicle M received by the wireless communication device 130.
  • the driving assistance device 200 may be mounted on a vehicle M equipped with a distance measuring device, and may select the own lane traffic light and the nearest intersection traffic light using the distance between the own vehicle M and the traffic lights around the own vehicle M detected by the distance measuring device. Note that a millimeter wave radar or Lidar can be used as the distance measuring device.
  • the driving assistance device 200 configured in this manner also achieves the same effects as the above embodiment.
  • the driving assistance device 200 selects the closest intersection traffic light (step S50) after selecting the own lane traffic light in the driving assistance process (step S40), but the present disclosure is not limited to this.
  • the driving assistance device 200 may select the own lane traffic light after selecting the closest intersection traffic light.
  • the driving assistance device 200 may execute only one of steps S40 and S50 in the driving assistance process.
  • a driving assistance device 200 configured in this way also achieves the same effects as the above embodiment.
  • the driving assistance device 200 executes steps S40 to S70 after step S30 in the driving assistance process, but the present disclosure is not limited to this.
  • the driving assistance device 200 may execute step S80 without executing steps S40 to S70, if the light information is not single in step S30 (step S30: No).
  • a driving assistance device 200 configured in this way can also determine behavior when the content of driving assistance cannot be determined, and suppress a decrease in the stability of driving assistance.
  • the driving assistance device 200 and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor and a memory programmed to execute one or more functions embodied in a computer program.
  • the driving assistance device 200 and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits.
  • the driving assistance device 200 and the method thereof described in the present disclosure may be realized by one or more dedicated computers configured by combining a processor and a memory programmed to execute one or more functions with a processor configured with one or more hardware logic circuits.
  • the computer program may be stored in a computer-readable non-transient tangible recording medium as instructions executed by the computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

運転支援装置(200)は、自車両Mに搭載され、自車両の位置または自車両の周囲の状況を検出するセンサ(100)の検出結果を利用して、自車両の進行方向に存在する信号機である前方信号機の点灯状況を認識する信号認識部(210)と、前方信号機の点灯状況に応じて、自車両の運転支援を実行する運転制御部(240)と、を備え、運転制御部は、前方信号機が複数認識された場合であって、認識された前方信号機のうち、少なくとも2つの前方信号機の各点灯状況が互いに異なり運転支援の内容を決定できない場合、運転支援を停止、または、抑制する。

Description

運転支援装置 関連出願の相互参照
 本出願は、2022年10月26日に出願された日本出願番号2022-171357号に基づくもので、ここにその記載内容を援用する。
 本開示は、運転支援装置に関する。
 自車両の進行方向に存在する信号機の点灯状況に応じて、自車両の運転支援を行う技術が知られている(特許文献1、2)。
特開2006-92129号公報 特開2010-152494号公報
 しかしながら、点灯状況の異なる複数の信号機が混在して認識される場合には、自車両が従うべき信号機を特定できないおそれがある。この場合、運転支援の内容を確定できず運転支援を安定して実行できないという問題がある。
 本開示は、以下の形態として実現することが可能である。
 本開示の一形態によれば、運転支援装置が提供される。この運転支援装置は、自車両に搭載され、前記自車両の位置または前記自車両の周囲の状況を検出するセンサの検出結果を利用して、前記自車両の進行方向に存在する信号機である前方信号機の点灯状況を認識する信号認識部と、前記前方信号機の点灯状況に応じて、前記自車両の運転支援を実行する運転制御部と、を備え、前記運転制御部は、前記前方信号機が複数認識された場合であって、認識された前記前方信号機のうち、少なくとも2つの前記前方信号機の各点灯状況が互いに異なり前記運転支援の内容を決定できない場合、前記運転支援を停止、または、抑制する。
 この形態の運転支援装置によれば、点灯状況の異なる信号機が混在して認識されており運転支援の内容を決定できない場合には運転支援を停止または中止するので、運転支援の内容を決定できない場合の挙動を決定でき、運転支援の安定性の低下を抑制できる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、本実施形態の運転支援装置の概略構成を示すブロック図であり、 図2は、本実施形態の運転支援処理の手順を示すフローチャートであり、 図3は、運転支援処理のステップS10において取得される画像の一例を示す説明図であり、 図4は、運転支援処理のステップS40における処理の一例を示す説明図である。
A.実施形態:
A-1.装置構成:
 図1に示す本実施形態の運転支援装置200は、車両Mに搭載されて、かかる車両Mを制御する。本実施形態では、車両Mを「自車両M」とも呼ぶ。本実施形態において、自車両Mは、エンジンを搭載した車両である。また、自車両Mは、自動運転を実行可能な車両であり、自動運転と手動運転とが切り替え可能に構成されている。「自動運転」とは、エンジン制御とブレーキ制御と操舵制御とを、乗員に代わって自動的に実行する運転を意味する。「手動運転」とは、エンジン制御のための操作(アクセルペダルの踏込)と、ブレーキ制御のための操作(ブレーキベダルの踏込)と、操舵制御のための操作(ステアリングホイールの回転)とを、乗員が実行する運転を意味する。なお、車両Mは、エンジンを搭載した車両に限らず、電気自動車(EV)や燃料電池自動車(FCV)であってもよい。
 運転支援装置200は、情報取得装置100および車両動作装置300とCAN(Controller Area Network)等の車載ネットワークを介して互いに接続されている。運転支援装置200は、情報取得装置100により取得された自車両Mの位置または自車両Mの周囲の状況を示す情報を利用して車両動作装置300を制御し、運転支援を実行する。
 本実施形態では、運転支援装置200は、運転支援として、画面表示・音・振動等による乗員に対する注意喚起および自車両Mの加減速の制御を実行する。より具体的には、運転支援装置200は、赤信号または黄信号の点灯を認識した場合には、自車両Mの減速または停止を乗員に促す注意喚起と、自車両Mの自動的な減速または停止とのうちの少なくともいずれかひとつを実行する。また、運転支援装置200は、赤信号から青信号または右折矢印信号への点灯状況の切り替えを認識した場合には、自車両Mの発進を乗員に促す注意喚起と、自車両Mの自動的な発進とのうちの少なくともいずれかひとつを実行する。
 情報取得装置100は、自車両Mの現在位置、走行状況および周辺状況に関する情報を取得する。本実施形態では、情報取得装置100は、カメラ110と、GNSS受信機120と、無線通信装置130とを備える。カメラ110は、自車両Mの進行方向を撮像して画像を取得する。「進行方向」は、自車両Mの前方において、カメラ110によって撮像される放射状の領域を意味する。GNSS受信機120は、GNSS(Global Navigation Satellite System)を構成する人工衛星から受信するGNSS信号に基づいて、自車両Mの現在位置(経度・緯度)を検出する。無線通信装置130は、高度道路交通システム(Intelligent Transport System)との無線通信と、他の車両との通信と、信号機等の道路設備に設置された路側無線機との通信とを実行する。これにより、自車両Mの状況や周囲の状況に関する情報を交換できる。本実施形態では、「周囲の状況に関する情報」は、自車両Mの近傍に存在する信号機の点灯状況を示す情報(以下、「灯火情報」とも呼ぶ)を含む。なお、情報取得装置100は、本開示における「センサ」に相当する。
 車両動作装置300は、エンジン機構310と、ブレーキ機構320と、操舵機構330と、警告装置340とを備える。エンジン機構310は、スロットルバルブの開閉動作や、イグナイタの点火動作や、吸気弁の開閉動作等を行う装置群により構成される。ブレーキ機構320は、センサ、モータ、バルブおよびポンプ等のブレーキ制御に関わる装置群により構成される。操舵機構330は、パワーステアリングモータ等操舵に関わる装置群により構成される。警告装置340は、表示装置、スピーカおよび振動発生装置等の乗員に対する注意喚起を行う装置群によって構成される。
 本実施形態では、運転支援装置200は、CPUやメモリを備えるコンピュータとして構成されている。かかるコンピュータの一例としてECU(Electronic Control Unit)が挙げられる。運転支援装置200は、予めメモリに記憶されているプログラムをCPUにおいて実行することにより実現される機能部として、信号認識部210と、第1選別部220と、第2選別部230と、運転制御部240とを備える。
 信号認識部210は、情報取得装置100により取得された情報を利用して、自車両Mの進行方向に存在する信号機(以下、「前方信号機」とも呼ぶ)を認識する。第1選別部220は、前方信号機のうち、自車両Mが走行している車線における通行を制御する信号機(以下、「自車線信号機」とも呼ぶ)を選別する。第2選別部230は、前方信号機のうち、自車両Mから最も近い交差点に存在する信号機(以下、「最近傍交差点信号機」とも呼ぶ)を選別する。運転制御部240は、前方信号機の点灯状況に応じて自車両Mを制御し、上述の運転支援を実行する。
A-2.運転支援処理:
 運転支援装置200は、図2に示す運転支援処理を実行することにより、情報取得装置100により取得された自車両Mの現在位置または自車両Mの周囲の状況を示す情報を利用して車両動作装置300を制御し、運転支援を実行する。運転支援処理は、運転支援装置200の起動中、繰り返し実行される。
 ステップS10において、信号認識部210は、カメラ110により撮像された画像を取得し、取得された画像について画像解析処理を行うことにより、画像中に存在する信号機の位置および点灯状況を認識する。図3に示す例では、信号機TL1~TL4が認識されている。信号機TL1~TL4は、上述の「前方信号機」に相当する。また、認識されている各信号機の点灯状況は、上述の「灯火情報」に相当する。
 図2に示すステップS20において、運転制御部240は、前方信号機が複数認識されているか否かを判定する。認識されている前方信号機がひとつである場合(ステップS20:No)、運転制御部240は、認識されている前方信号機の灯火情報に従って上述の運転支援を実行し(ステップS82)、運転支援装置200は再びステップS10を実行する。
 前方信号機が複数認識されている場合(ステップS20:Yes)、運転制御部240は、前方信号機すべての灯火情報が単一であるか否かを判定する(ステップS30)。前方信号機すべての灯火情報が単一である場合(ステップS30:Yes)、運転制御部240は、各前方信号機が共通して示す灯火情報に従って上述の運転支援を実行し(ステップS82)、運転支援装置200は再びステップS10を実行する。
 灯火情報が単一でない場合(ステップS30:No)、言い換えれば、前方信号機のうち、少なくとも2つの前方信号機の各点灯状況が互いに異なる場合、第1選別部220は、前方信号機のうち、自車線信号機を選別する(ステップS40)。本実施形態では、図4に示す例のように、第1選別部220は、ハッチングを付して示す除外領域Arに含まれる信号機TL2、TL4を認識対象から除外することにより、信号機TL1、TL3を自車線信号機として選別する。除外領域Arは、実験等により予め決定された大きさの矩形領域として予め設定されている。
 ステップS50において、第2選別部230は、選別された自車線信号機のうち、最近傍交差点信号機を選別する。本実施形態では、第2選別部230は、取得画像において、自車線信号機として認識された信号機TL1と信号機TL3とを表す各画素領域の面積を互いに比較し、信号機TL1よりも面積が小さく遠くに位置する信号機TL3を除外することにより、信号機TL1を最近傍交差点信号機として選別する。なお、ステップS40において自車線信号機として選別された信号機が単一である場合には、第2選別部230は本ステップを実行しなくてもよい。
 ステップS60において、運転制御部240は、選別された各信号機の灯火情報が単一であるか否かを判定する。灯火情報が単一である場合(ステップS60:Yes)、運転制御部240は、選別された信号機が示す灯火情報に従って上述の運転支援を実行し(ステップS82)、運転支援装置200は再びステップS10を実行する。
 灯火情報が単一でない場合(ステップS60:No)、運転制御部240は、選別された各信号機の灯火情報から運転支援内容を決定可能か否かを判定する(ステップS70)。例えば、赤信号または黄信号の点灯を認識したときの運転支援として、画面表示・音・振動等による乗員に対する注意喚起が予め設定されている場合には、選別された信号機の灯火情報として赤信号と黄信号とが混在していても、運転支援として上述の注意喚起を実行することを決定可能である。他方、赤信号の点灯を認識したときの運転支援として上述の注意喚起が予め設定されており、黄信号の点灯を認識したときの運転支援として上述の注意喚起が設定されていない場合、選別された信号機の灯火情報として赤信号と黄信号とが混在していると、運転支援の内容を決定できない。また、運転支援内容を決定可能な灯火情報の組み合わせの他の例として、自車両Mが直進専用車線に位置している場合であって、選別された各信号機の灯火情報として赤信号と右折矢印信号とが混在している場合が考えられる。自車両Mが直進専用車線に位置している場合、自車両Mを対象とする信号機の灯火状況が赤信号と右折矢印信号とのいずれであっても停止する必要があり、この場合、車両停止のための運転支援が決定され得る。つまり、運転制御部240は、選別された各信号機の点灯状況が互いに異なる場合であっても、各点灯状況に応じて実行されるべき運転支援のうち互いに共通する運転支援が存在する場合には、運転支援内容を決定できる。
 運転支援内容を決定できない場合(ステップS70:No)、運転制御部240は、運転支援を中止または抑制する(ステップS80)。運転支援の「中止」は、上述の運転支援内容のうち、少なくともいずれかひとつを実行しないことを意味する。また、運転支援の「抑制」は、運転支援の度合いを弱めることを意味し、本実施形態では、自車両Mの加減速度の抑制と、自車両Mが有する表示装置における画面表示の強調度合いの抑制と、通知音の音量の抑制と、乗員の注意を喚起する振動の抑制とのうちの少なくともいずれかひとつを実行する。ステップS80の終了後、運転支援装置200は、再びステップS10を実行する。
 運転支援内容を決定可能である場合(ステップS70:Yes)、運転制御部240は、決定された運転支援を実行し(ステップS82)、運転支援装置200は再びステップS10を実行する。
 以上説明した運転支援装置200によれば、点灯状況の異なる信号機が混在して認識されており運転支援の内容を決定できない場合には運転支援を停止または中止するので、運転支援の内容を決定できない場合の挙動を決定でき、運転支援の安定性の低下を抑制できる。なお、「運転支援の安定性」は、自車両Mの位置または自車両Mの周囲の状況に応じて、運転支援を実行することまたは実行しないことを決定できるか否かを示す指標を意味する。
 また、運転支援装置200は、自車線信号機を選別し自車線信号機の点灯状況に応じて運転支援を実行するので、自車両Mを対象とする信号機を絞り込みやすくなり、より運転支援の安定性の低下を抑制できる。
 また、運転支援装置200は、最近傍交差点信号機を選別し最近傍交差点信号機の点灯状況に応じて運転支援を実行するので、自車両Mを対象とする信号機を絞り込みやすくなり、より運転支援の安定性の低下を抑制できる。
 また、運転支援装置200は、複数の前方信号機のうち、少なくとも2つの前方信号機の各点灯状況が互いに異なる場合であっても、各点灯状況に応じて実行されるべきものとして予め設定された運転支援のうち、互いに共通する運転支援を実行するので、運転支援の内容を決定できなくなることを抑制でき、より運転支援の安定性の低下を抑制できる。
B.他の実施形態:
(B1)上記実施形態において、運転支援装置200は、運転支援処理において、カメラ110により取得された画像を利用して、自車線信号機および最近傍交差点信号機を選別するが、本開示はこれに限定されない。運転支援装置200は、GNSS受信機120により取得された自車両Mの位置情報や無線通信装置130により受信された自車両Mの周囲の信号機の灯火情報を利用して、自車線信号機および最近傍交差点信号機を選別してもよい。また、運転支援装置200は、測距装置を備える車両Mに搭載されて、測距装置により検出された自車両Mの周囲の信号機との距離を利用して、自車線信号機および最近傍交差点信号機を選別してもよい。なお、測距装置としては、ミリ波レーダやLidarを用いることができる。かかる構成の運転支援装置200によっても、上記実施形態と同様の効果を奏する。
(B2)上記実施形態において、運転支援装置200は、運転支援処理において、自車線信号機を選別した(ステップS40)後に、最近傍交差点信号機を選別する(ステップS50)が、本開示はこれに限定されない。運転支援装置200は、最近傍交差点信号機を選別した後に自車線信号機を選別してもよい。また、運転支援装置200は、運転支援処理において、ステップS40とステップS50とのうち、いずれか一方のみ実行してもよい。かかる構成の運転支援装置200によっても、上記実施形態と同様の効果を奏する。
(B3)上記実施形態において、運転支援装置200は、運転支援処理において、ステップS30の後にステップS40~S70を実行するが、本開示はこれに限定されない。運転支援装置200は、ステップS40~S70を実行せず、ステップS30において灯火情報が単一でない場合(ステップS30:No)、ステップS80を実行してもよい。かかる構成の運転支援装置200によっても、運転支援の内容を決定できない場合の挙動を決定でき、運転支援の安定性の低下を抑制できる。
 本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した形態中の技術的特徴に対応する各実施形態中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
 本開示に記載の運転支援装置200およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の運転支援装置200およびその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の運転支援装置200およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。

Claims (5)

  1.  運転支援装置(200)であって、
     自車両(M)に搭載され、前記自車両の位置または前記自車両の周囲の状況を検出するセンサ(100)の検出結果を利用して、前記自車両の進行方向に存在する信号機である前方信号機の点灯状況を認識する信号認識部(210)と、
     前記前方信号機の点灯状況に応じて、前記自車両の運転支援を実行する運転制御部(240)と、
     を備え、
     前記運転制御部は、前記前方信号機が複数認識された場合であって、認識された前記前方信号機のうち、少なくとも2つの前記前方信号機の各点灯状況が互いに異なり前記運転支援の内容を決定できない場合、前記運転支援を停止、または、抑制する、
     運転支援装置。
  2.  請求項1に記載の運転支援装置であって、
     前記前方信号機のうち、前記自車両が走行している車線における通行を制御する信号機である自車線信号機を選別する第1選別部(220)をさらに備え、
     前記運転制御部は、前記第1選別部により複数の前記自車線信号機が選別された場合であって、各前記自車線信号機の点灯状況が互いに同じである場合に、各前記自車線信号機の点灯状況に応じて前記運転支援を実行する、
     運転支援装置。
  3.  請求項1または請求項2に記載の運転支援装置であって、
     前記前方信号機のうち、前記自車両から最も近い交差点に存在する信号機である最近傍交差点信号機を選別する第2選別部(230)をさらに備え、
     前記運転制御部は、前記第2選別部により複数の前記最近傍交差点信号機が選別された場合であって、各前記最近傍交差点信号機の点灯状況が互いに同じである場合に、各前記最近傍交差点信号機の点灯状況に応じて前記運転支援を実行する、
     運転支援装置。
  4.  請求項1または請求項2に記載の運転支援装置であって、
     前記運転制御部は、前記前方信号機が複数認識された場合であって、認識された前記前方信号機のうち、少なくとも2つの前記前方信号機の各点灯状況が互いに異なる場合、各点灯状況に応じて実行されるべきものとして予め定められた前記運転支援のうち、互いに共通する前記運転支援を実行する、
     運転支援装置。
  5.  請求項1または請求項2に記載の運転支援装置であって、
     前記運転制御部は、前記運転支援の抑制として、前記自車両の加減速度の抑制と、前記自車両が有する表示装置における画面表示の強調度合いの抑制と、通知音の音量の抑制と、乗員の注意を喚起する振動の抑制と、のうちの少なくともいずれかひとつを実行する、
     運転支援装置。
PCT/JP2023/034292 2022-10-26 2023-09-21 運転支援装置 WO2024090083A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022171357 2022-10-26
JP2022-171357 2022-10-26

Publications (1)

Publication Number Publication Date
WO2024090083A1 true WO2024090083A1 (ja) 2024-05-02

Family

ID=90830565

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/034292 WO2024090083A1 (ja) 2022-10-26 2023-09-21 運転支援装置

Country Status (1)

Country Link
WO (1) WO2024090083A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160560A (ja) * 2019-03-25 2020-10-01 本田技研工業株式会社 運転支援装置、運転支援方法、およびプログラム
JP2021076899A (ja) * 2019-11-05 2021-05-20 トヨタ自動車株式会社 運転支援装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160560A (ja) * 2019-03-25 2020-10-01 本田技研工業株式会社 運転支援装置、運転支援方法、およびプログラム
JP2021076899A (ja) * 2019-11-05 2021-05-20 トヨタ自動車株式会社 運転支援装置

Similar Documents

Publication Publication Date Title
JP6964271B2 (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
JP6490044B2 (ja) 車両用制御装置
US11524688B2 (en) Apparatus and method for assisting turn of vehicle at intersection
US20200231159A1 (en) Control system of vehicle, control method of the same, and non-transitory computer-readable storage medium
JP6394547B2 (ja) 車両制御装置
JP7055043B2 (ja) 車両用制御装置及び車両
CN111629944B (zh) 车辆控制装置、车辆以及车辆控制方法
US10640129B2 (en) Driving assistance method and driving assistance device using same, driving assistance system
CN114026008A (zh) 车辆的控制系统、车辆的控制方法以及程序
WO2022044768A1 (ja) 車両用表示装置
CN111731287B (zh) 变更操作辅助装置
US20210001888A1 (en) Vehicle control system, vehicle control method, and non-transitory computer-readable storage medium
US11597362B2 (en) Vehicle and control apparatus thereof
CN112046476B (zh) 车辆控制装置及其动作方法、车辆以及存储介质
CN112046477B (zh) 车辆控制装置及其动作方法、车辆以及存储介质
US20210171064A1 (en) Autonomous driving vehicle information presentation apparatus
CN112046474B (zh) 车辆控制装置及其动作方法、车辆以及存储介质
WO2024090083A1 (ja) 運転支援装置
US11383716B2 (en) Vehicle control apparatus, vehicle, operating method of vehicle control apparatus, and storage medium
JP7256867B2 (ja) 制御装置、制御方法及びプログラム
CN113386758A (zh) 车辆及其控制装置
US20220250623A1 (en) Merging support device, merging support system, merging support method, and computer-readable medium
CN113615256B (zh) 控制装置、控制方法以及存储介质
US20200384991A1 (en) Vehicle control apparatus, vehicle, operation method of vehicle control apparatus, and non-transitory computer-readable storage medium
CN117774966A (zh) 车辆的控制装置以及控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23882295

Country of ref document: EP

Kind code of ref document: A1