JP2020166479A - Drive support device - Google Patents

Drive support device Download PDF

Info

Publication number
JP2020166479A
JP2020166479A JP2019065390A JP2019065390A JP2020166479A JP 2020166479 A JP2020166479 A JP 2020166479A JP 2019065390 A JP2019065390 A JP 2019065390A JP 2019065390 A JP2019065390 A JP 2019065390A JP 2020166479 A JP2020166479 A JP 2020166479A
Authority
JP
Japan
Prior art keywords
support device
vehicle
driving support
driver
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019065390A
Other languages
Japanese (ja)
Inventor
アディティヤ マハジャン
Aditya Mahajan
アディティヤ マハジャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019065390A priority Critical patent/JP2020166479A/en
Priority to CN202010224592.0A priority patent/CN111746399A/en
Publication of JP2020166479A publication Critical patent/JP2020166479A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Blocking Light For Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide a drive support device capable of smoothly supporting drive of a moving body by making it possible to visually recognize a situation inside an object through a transmission member region of the object existing around the moving body.SOLUTION: A drive support device 10 includes: a camera 44 for detecting an object around an own vehicle 12; a polarization filter 76 provided with the camera 44; and an automatic adjustment processing unit 70 and a polarization filter adjusting unit 74 for determining one oncoming vehicle of vehicles existing around the own vehicle 12 detected by the camera 44 as an adjustment object of the polarization filter 76 to automatically adjust the polarization filter 76 relative to the transmission member area of the oncoming vehicle.SELECTED DRAWING: Figure 1

Description

本発明は、移動体の運転を支援する運転支援装置に関する。 The present invention relates to a driving support device that supports the driving of a moving body.

例えば、特許文献1には、自車が走行する路面をカメラ(視覚センサ)でモニタリングし、モニタリングした路面を分析することが開示されている。 For example, Patent Document 1 discloses that the road surface on which the own vehicle travels is monitored by a camera (visual sensor) and the monitored road surface is analyzed.

特開2013−79937号公報Japanese Unexamined Patent Publication No. 2013-79937

ところで、例えば、交差点内において、自車(移動体)は、通常、対向車線を走行する対向車(他の移動体)の通過後、該対向車線を横切って右左折する。 By the way, for example, in an intersection, the own vehicle (moving body) usually turns left or right across the oncoming lane after passing by an oncoming vehicle (another moving body) traveling in the oncoming lane.

一方、対向車線の渋滞等で対向車が進行方向前方に進めず、交差点の手前で停車する場合、自車は、対向車に注意しながら対向車線を横切って右左折することが可能である。その際、対向車の運転者は、自車に対して、交差点内での右左折の許可を意図するジェスチャ行動を行う場合がある。 On the other hand, when the oncoming vehicle does not move forward in the direction of travel due to traffic congestion in the oncoming lane and stops in front of the intersection, the own vehicle can turn left or right across the oncoming lane while paying attention to the oncoming vehicle. At that time, the driver of the oncoming vehicle may perform a gesture action on the own vehicle with the intention of permitting a right or left turn at the intersection.

自車の運転者が運転操作を行う場合、該運転者が対向車の運転者のジェスチャ行動を確認した上で、交差点の右左折を行えばよい。また、自車に搭載された運転支援装置が運転者の運転操作を支援するか、又は、運転支援装置が自車に対する自動運転を行う場合、対向車の運転者のジェスチャ行動から交差点の右左折が可能か否かを判断し、その判断結果に基づき右左折を行えばよい。 When the driver of the own vehicle performs a driving operation, the driver may make a right or left turn at the intersection after confirming the gesture behavior of the driver of the oncoming vehicle. In addition, when the driving support device mounted on the own vehicle assists the driver's driving operation, or when the driving support device automatically drives the own vehicle, turn left or right at the intersection from the gesture behavior of the driver of the oncoming vehicle. It is sufficient to judge whether or not it is possible and make a right or left turn based on the judgment result.

しかしながら、近年、フロントガラス等への物体の写り込みを抑制するため、可視光線や紫外線(UV)に対するカット処理が施された透過性部材をフロントガラス等に採用する車両が増えている。この結果、外部から透過性部材(透過部材領域)を介して対向車の運転者のジェスチャ行動を視認することが困難な状況にある。 However, in recent years, in order to suppress the reflection of an object on a windshield or the like, an increasing number of vehicles have adopted a transparent member that has been cut against visible light or ultraviolet rays (UV) for the windshield or the like. As a result, it is difficult to visually recognize the gesture behavior of the driver of the oncoming vehicle from the outside through the transparent member (transparent member region).

本発明は、このような課題を考慮してなされたものであり、移動体の周囲に存在する物体の透過部材領域を介して該物体内の状況を視認可能とすることで、移動体の運転の支援を円滑に行うことができる運転支援装置を提供することを目的とする。 The present invention has been made in consideration of such a problem, and by making it possible to visually recognize the situation in the object through the transmission member region of the object existing around the moving body, the operation of the moving body is performed. The purpose is to provide a driving support device that can smoothly support the above.

本発明の態様は、移動体の運転を支援する運転支援装置であって、前記移動体の周囲の物体を検知する視覚センサと、前記視覚センサに設けられた偏光フィルタと、前記視覚センサが検知した前記移動体の周囲に存在する物体のうち、1つの物体を前記偏光フィルタの調整対象に決定し、決定した前記調整対象中、光を透過可能な透過部材領域を特定し、特定した前記透過部材領域に対して前記偏光フィルタを自動で調整する自動調整部とを備える。 An aspect of the present invention is a driving support device that assists the driving of a moving body, in which a visual sensor that detects an object around the moving body, a polarizing filter provided in the visual sensor, and the visual sensor detect the object. One of the objects existing around the moving body is determined to be the adjustment target of the polarizing filter, and the transmitting member region capable of transmitting light is specified in the determined adjustment target, and the specified transmission is specified. It is provided with an automatic adjustment unit that automatically adjusts the polarizing filter with respect to the member region.

本発明によれば、調整対象の透過部材領域に対して偏光フィルタを自動的に調整することで、該透過部材領域を介して、調整対象の内部の状況が視認可能となる。この結果、調整対象の内部の状況(例えば、対向車の運転者のジェスチャ行動)に基づき、移動体の運転の支援(例えば、自車の交差点内での右左折に対する走行制御)を円滑に行うことが可能となる。 According to the present invention, by automatically adjusting the polarizing filter with respect to the transmission member region to be adjusted, the internal state of the adjustment target can be visually recognized through the transmission member region. As a result, based on the internal situation of the adjustment target (for example, the gesture behavior of the driver of the oncoming vehicle), the driving support of the moving body (for example, the running control for turning left or right in the intersection of the own vehicle) is smoothly performed. It becomes possible.

本実施形態に係る運転支援装置が搭載される車両の構成図である。It is a block diagram of the vehicle which mounts the driving support device which concerns on this embodiment. 図1の車両でのカメラ等の配置を模式的に図示した説明図である。It is explanatory drawing which schematically illustrated the arrangement of the camera and the like in the vehicle of FIG. 交差点での自車の右折を模式的に図示した説明図である。It is explanatory drawing which schematically illustrated the right turn of the own vehicle at an intersection. 図1の運転支援装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the driving support device of FIG. カメラ及びレーダによる対向車の運転者の検知を概略的に図示した説明図である。It is explanatory drawing which schematically illustrated the detection of the driver of an oncoming vehicle by a camera and a radar.

以下、本発明に係る運転支援装置について好適な実施形態を例示し、添付の図面を参照しながら説明する。 Hereinafter, a preferred embodiment of the driving support device according to the present invention will be illustrated and described with reference to the accompanying drawings.

[1.本実施形態の構成]
<1.1 運転支援装置10の全体構成>
図1は、本発明の一実施形態に係る運転支援装置10の構成を示すブロック図である。運転支援装置10は、図2に示す車両12(以下、自車12ともいう。)に組み込まれており、且つ、自動又は手動により自車12(移動体、自移動体)の走行制御を行う。なお、「走行制御」とは、少なくとも自車12の加減速制御を含む自車12の走行に関わる制御をいう。「走行制御」が「自動運転」で行われる場合、「自動運転」は、自車12の走行制御(運転支援)を全て自動で行う「完全自動運転」のみならず、走行制御(運転支援)を部分的に自動で行う「部分自動運転」を含む概念である。
[1. Configuration of this embodiment]
<1.1 Overall configuration of driving support device 10>
FIG. 1 is a block diagram showing a configuration of a driving support device 10 according to an embodiment of the present invention. The driving support device 10 is incorporated in the vehicle 12 shown in FIG. 2 (hereinafter, also referred to as the own vehicle 12), and automatically or manually controls the traveling of the own vehicle 12 (moving body, own moving body). .. The “travel control” refers to control related to the travel of the own vehicle 12, including at least acceleration / deceleration control of the own vehicle 12. When "driving control" is performed by "automatic driving", "automatic driving" is not only "fully automatic driving" in which all driving control (driving support) of the own vehicle 12 is automatically performed, but also driving control (driving support). It is a concept that includes "partially automatic operation" in which

図1に示すように、運転支援装置10は、基本的には、入力系装置群14と、制御システム16と、出力系装置群18とから構成される。入力系装置群14及び出力系装置群18をなす各々の装置は、制御システム16に通信線を介して接続されている。 As shown in FIG. 1, the operation support device 10 is basically composed of an input system device group 14, a control system 16, and an output system device group 18. Each of the devices forming the input system device group 14 and the output system device group 18 is connected to the control system 16 via a communication line.

入力系装置群14は、外界センサ20と、通信装置22と、ナビゲーション装置24(自己位置特定装置、自己位置特定部)と、車両センサ26と、自動運転スイッチ28と、操作デバイス30に接続された操作検出センサ32とを備える。 The input system device group 14 is connected to an external sensor 20, a communication device 22, a navigation device 24 (self-positioning device, self-positioning unit), a vehicle sensor 26, an automatic driving switch 28, and an operating device 30. It is provided with an operation detection sensor 32.

出力系装置群18は、図示しない車輪を駆動する駆動力装置34と、当該車輪を操舵する操舵装置36と、当該車輪を制動する制動装置38と、視聴覚を通じてドライバに報知する報知装置40と、自車12が右左折する方向を外部に報知する方向指示器42とを備える。 The output system device group 18 includes a driving force device 34 for driving a wheel (not shown), a steering device 36 for steering the wheel, a braking device 38 for braking the wheel, and a notification device 40 for notifying the driver through audiovisual means. It is provided with a direction indicator 42 that notifies the outside of the direction in which the vehicle 12 turns left or right.

<1.2 入力系装置群14の具体的構成>
外界センサ20は、自車12の外界状態を示す情報(以下、外界情報という。)を取得し、当該外界情報を制御システム16に出力する。外界センサ20は、具体的には、複数のカメラ44(視覚センサ)と、複数のレーダ46(ミリ波を用いた検知ユニット)と、複数のLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)48(光を用いた検知ユニット)と、照度センサ50と、GPS(Global Positioning System)センサ52(自己位置特定部、自己位置特定装置)とを含んで構成される。
<1.2 Specific configuration of input system device group 14>
The outside world sensor 20 acquires information indicating the outside world state of the own vehicle 12 (hereinafter, referred to as outside world information) and outputs the outside world information to the control system 16. Specifically, the external sensor 20 includes a plurality of cameras 44 (visual sensors), a plurality of radars 46 (detection units using millimeter waves), and a plurality of LiDARs (Light Detection and Rangers, Laser Imaging Detection and Rangers). It includes 48 (a detection unit using light), an illuminance sensor 50, and a GPS (Global Positioning System) sensor 52 (self-positioning unit, self-positioning device).

照度センサ50は、レインライトセンサであって、太陽光の照射等による自車12の周辺の明るさ(照度)を検出する。GPSセンサ52は、自車12の現在位置(自己位置情報)を検出する。複数のカメラ44、複数のレーダ46及び複数のLiDAR48については、後述する。 The illuminance sensor 50 is a rain light sensor that detects the brightness (illuminance) around the own vehicle 12 due to irradiation with sunlight or the like. The GPS sensor 52 detects the current position (self-position information) of the own vehicle 12. The plurality of cameras 44, the plurality of radars 46, and the plurality of LiDAR 48s will be described later.

通信装置22は、路側機、他車、及び、サーバを含む外部装置と通信可能に構成されており、例えば、交通機器に関わる情報、他車に関わる情報、プローブ情報又は最新の地図情報54を送受信する。この地図情報54は、制御システム16に設けられた記憶装置56の所定メモリ領域内に、又は、ナビゲーション装置24に記憶される。 The communication device 22 is configured to be able to communicate with an external device including a roadside unit, another vehicle, and a server. For example, information related to traffic equipment, information related to other vehicles, probe information, or the latest map information 54 can be obtained. Send and receive. The map information 54 is stored in a predetermined memory area of the storage device 56 provided in the control system 16 or in the navigation device 24.

ナビゲーション装置24は、自車12の現在位置(自己位置情報)を検出可能な衛星測位装置と、ユーザインタフェース(例えば、タッチパネル式のディスプレイ、スピーカ及びマイク)とを含んで構成される。従って、運転支援装置10には、自車12の現在位置の検出機能に関し、ナビゲーション装置24及びGPSセンサ52のうち、少なくとも一方の装置が備わっていればよい。また、ナビゲーション装置24は、自車12の現在位置又はユーザによる指定位置に基づいて、指定した目的地までの経路を算出し、制御システム16に出力する。ナビゲーション装置24により算出された経路は、記憶装置56の所定メモリ領域内に、経路情報58として記憶される。 The navigation device 24 includes a satellite positioning device capable of detecting the current position (self-position information) of the own vehicle 12 and a user interface (for example, a touch panel display, a speaker, and a microphone). Therefore, the driving support device 10 may be provided with at least one of the navigation device 24 and the GPS sensor 52 with respect to the detection function of the current position of the own vehicle 12. Further, the navigation device 24 calculates a route to the designated destination based on the current position of the own vehicle 12 or the designated position by the user, and outputs the route to the control system 16. The route calculated by the navigation device 24 is stored as route information 58 in a predetermined memory area of the storage device 56.

車両センサ26は、自車12の走行速度(車速)を検出する速度センサ、加速度を検出する加速度センサ、横Gを検出する横Gセンサ、垂直軸回りの角速度を検出するヨーレートセンサ、向き・方位を検出する方位センサ、勾配を検出する勾配センサを含み、各々のセンサからの検出信号を制御システム16に出力する。これらの検出信号は、記憶装置56の所定メモリ領域内に、自車情報60として記憶される。 The vehicle sensor 26 includes a speed sensor that detects the traveling speed (vehicle speed) of the own vehicle 12, an acceleration sensor that detects acceleration, a lateral G sensor that detects lateral G, a yaw rate sensor that detects angular speed around the vertical axis, and orientation / orientation. A directional sensor for detecting a gradient and a gradient sensor for detecting a gradient are included, and detection signals from each sensor are output to the control system 16. These detection signals are stored as own vehicle information 60 in a predetermined memory area of the storage device 56.

自動運転スイッチ28は、例えば、押しボタン式のハードウェアスイッチ、又は、ナビゲーション装置24を利用したソフトウェアスイッチから構成される。自動運転スイッチ28は、ドライバを含むユーザのマニュアル操作により、複数の運転モードを切り替え可能に構成される。 The automatic operation switch 28 is composed of, for example, a push button type hardware switch or a software switch using a navigation device 24. The automatic operation switch 28 is configured so that a plurality of operation modes can be switched by manual operation by a user including a driver.

操作デバイス30は、アクセルペダル、ステアリングホイール、ブレーキペダル、シフトレバー、及び、方向指示レバーを含んで構成される。操作デバイス30には、運転者による操作の有無や操作量、操作位置を検出する操作検出センサ32が取り付けられている。 The operation device 30 includes an accelerator pedal, a steering wheel, a brake pedal, a shift lever, and a turn signal lever. The operation device 30 is equipped with an operation detection sensor 32 that detects the presence / absence of operation by the driver, the amount of operation, and the operation position.

操作検出センサ32は、検出結果としてのアクセル踏込量(アクセル開度)、ステアリング操作量(操舵量)、ブレーキ踏込量、シフト位置、右左折方向等を、制御システム16を構成する、後述の走行制御部62に出力する。 The operation detection sensor 32 constitutes the control system 16 for the accelerator depression amount (accelerator opening), steering operation amount (steering amount), brake depression amount, shift position, right / left turn direction, etc. as the detection result, which will be described later. Output to the control unit 62.

<1.3 出力系装置群18の具体的構成>
駆動力装置34は、駆動力ECU(Electronic Control Unit)と、エンジン及び駆動モータを含む駆動源とから構成される。駆動力装置34は、走行制御部62から入力される走行制御値に従って自車12の走行駆動力(トルク)を生成し、トランスミッションを介して、あるいは、直接的に車輪に伝達する。
<1.3 Specific configuration of output system device group 18>
The driving force device 34 includes a driving force ECU (Electronic Control Unit) and a driving source including an engine and a driving motor. The driving force device 34 generates a traveling driving force (torque) of the own vehicle 12 according to a traveling control value input from the traveling control unit 62, and transmits the traveling driving force (torque) to the wheels via a transmission or directly.

操舵装置36は、EPS(電動パワーステアリングシステム)ECUと、EPS装置とから構成される。操舵装置36は、走行制御部62から入力される走行制御値に従って車輪(操舵輪)の向きを変更する。 The steering device 36 is composed of an EPS (electric power steering system) ECU and an EPS device. The steering device 36 changes the direction of the wheels (steering wheels) according to the travel control value input from the travel control unit 62.

制動装置38は、例えば、油圧式ブレーキを併用する電動サーボブレーキであって、ブレーキECUとブレーキアクチュエータとから構成される。制動装置38は、走行制御部62から入力される走行制御値に従って車輪を制動する。 The braking device 38 is, for example, an electric servo brake that also uses a hydraulic brake, and is composed of a brake ECU and a brake actuator. The braking device 38 brakes the wheels according to the travel control value input from the travel control unit 62.

報知装置40は、報知ECUと表示装置と音響装置とから構成される。報知装置40は、制御システム16を構成する、後述する報知制御部64から出力される報知指令に応じて、自動運転又は手動運転に関わる報知動作を行う。方向指示器42は、報知制御部64から出力される報知指令に応じて、自車12の右左折に関わる報知動作を行う。 The notification device 40 includes a notification ECU, a display device, and an audio device. The notification device 40 performs a notification operation related to automatic operation or manual operation in response to a notification command output from the notification control unit 64, which is described later, which constitutes the control system 16. The direction indicator 42 performs a notification operation related to turning left or right of the own vehicle 12 in response to a notification command output from the notification control unit 64.

<1.4 制御システム16の構成>
制御システム16は、1つ又は複数のECUにより構成され、上記した記憶装置56、走行制御部62及び報知制御部64の他、各種機能実現部を備える。この実施形態において、機能実現部は、1つ又は複数のCPU(Central Processing Unit)が、非一過性の記憶装置56に記憶されているプログラムを実行することにより機能が実現されるソフトウェア機能部である。これに代わって、機能実現部は、FPGA(Field−Programmable Gate Array)等の集積回路からなるハードウェア機能部であってもよい。
<1.4 Configuration of control system 16>
The control system 16 is composed of one or a plurality of ECUs, and includes various function realization units in addition to the above-mentioned storage device 56, travel control unit 62, and notification control unit 64. In this embodiment, the function realization unit is a software functional unit whose functions are realized by one or a plurality of CPUs (Central Processing Units) executing a program stored in a non-transient storage device 56. Is. Instead of this, the function realization unit may be a hardware function unit composed of an integrated circuit such as an FPGA (Field-Programmable Gate Array).

制御システム16は、記憶装置56、走行制御部62及び報知制御部64の他、外界認識部66、行動計画部68、自動調整処理部70(自動調整部)、時計部72及び偏光フィルタ調整部74(自動調整部)を含んで構成される。 In addition to the storage device 56, the travel control unit 62, and the notification control unit 64, the control system 16 includes an outside world recognition unit 66, an action planning unit 68, an automatic adjustment processing unit 70 (automatic adjustment unit), a clock unit 72, and a polarizing filter adjustment unit. It is configured to include 74 (automatic adjustment unit).

外界認識部66は、入力系装置群14により入力された各種情報(例えば、外界センサ20からの外界情報)を用いて、自車12の両側にあるレーンマーク(白線)を認識し、停止線・信号機の位置情報、又は、走行可能領域を含む「静的」な外界認識情報を生成する。また、外界認識部66は、入力された各種情報を用いて、駐停車車両等の障害物、人・他車両等の交通参加者、又は、信号機の灯色を含む「動的」な外界認識情報を生成する。 The outside world recognition unit 66 recognizes lane marks (white lines) on both sides of the own vehicle 12 by using various information (for example, outside world information from the outside world sensor 20) input by the input system device group 14, and stops lines. -Generates the position information of the traffic light or "static" external recognition information including the travelable area. In addition, the outside world recognition unit 66 uses various input information to recognize obstacles such as parked and stopped vehicles, traffic participants such as people and other vehicles, or "dynamic" outside world recognition including the light color of a traffic light. Generate information.

行動計画部68は、外界認識部66による認識結果に基づいて走行区間毎の行動計画(イベントの時系列)を作成し、必要に応じて行動計画を更新する。イベントの種類として、例えば、後述する交差点90(図3参照)の場合には、自車12を交差点90で円滑に走行させるイベントとなる。 The action planning unit 68 creates an action plan (time series of events) for each traveling section based on the recognition result by the outside world recognition unit 66, and updates the action plan as necessary. As a type of event, for example, in the case of an intersection 90 (see FIG. 3) described later, the event is an event in which the own vehicle 12 smoothly travels at the intersection 90.

また、行動計画部68は、記憶装置56から読み出した地図情報54、経路情報58及び自車情報60を用いて、作成した行動計画に従う走行軌道(目標挙動の時系列)を生成する。この走行軌道は、具体的には、位置、姿勢角、速度、加速度、曲率、ヨーレート、操舵角をデータ単位とする時系列データセットである。 Further, the action planning unit 68 uses the map information 54, the route information 58, and the own vehicle information 60 read from the storage device 56 to generate a traveling track (time series of target behavior) according to the created action plan. Specifically, this traveling track is a time-series data set whose data units are position, attitude angle, speed, acceleration, curvature, yaw rate, and steering angle.

自動調整処理部70は、外界認識部66からの各種情報、及び、時計部72が計時した現在時刻等を用いて、カメラ44に設けられた偏光フィルタ76を自動で調整するための処理を行う。自動調整処理部70は、上記の処理を行うための指令信号を偏光フィルタ調整部74に出力する。また、自動調整処理部70は、偏光フィルタ76に対する自動調整処理の結果に関わる情報を行動計画部68に出力する。 The automatic adjustment processing unit 70 performs processing for automatically adjusting the polarizing filter 76 provided in the camera 44 by using various information from the outside world recognition unit 66, the current time measured by the clock unit 72, and the like. .. The automatic adjustment processing unit 70 outputs a command signal for performing the above processing to the polarizing filter adjustment unit 74. Further, the automatic adjustment processing unit 70 outputs information related to the result of the automatic adjustment processing to the polarizing filter 76 to the action planning unit 68.

この場合、自動調整処理部70は、車両識別部70a、調整対象特定部70b、透過部材領域特定部70c、フィルタ調整判定部70d、体動識別部70e、体動内容推定部70f及び走行制御許可判定部70gとして機能する。自動調整処理部70のこれらの構成要素の機能については、後述する。 In this case, the automatic adjustment processing unit 70 includes the vehicle identification unit 70a, the adjustment target identification unit 70b, the transmission member area identification unit 70c, the filter adjustment determination unit 70d, the body movement identification unit 70e, the body movement content estimation unit 70f, and the travel control permission. It functions as a determination unit 70 g. The functions of these components of the automatic adjustment processing unit 70 will be described later.

走行制御部62は、行動計画部68により生成された走行軌道(目標挙動の時系列)に従って、少なくとも自車12の加減速制御を含む、自車12を走行制御するための各々の走行制御値を決定する。そして、走行制御部62は、得られた各々の走行制御値を、駆動力装置34、操舵装置36及び制動装置38に出力する。報知制御部64は、行動計画部68により生成された走行軌道に応じて、報知装置40又は方向指示器42を駆動制御する。偏光フィルタ調整部74は、自動調整処理部70からの指令信号に基づき、偏光フィルタ76を自動的に調整する。以下、走行制御部62、報知制御部64及び偏光フィルタ調整部74を総称して「運転制御部78」という場合がある。 The travel control unit 62 has each travel control value for controlling the travel of the own vehicle 12, including at least acceleration / deceleration control of the own vehicle 12, according to the travel trajectory (time series of target behavior) generated by the action planning unit 68. To determine. Then, the travel control unit 62 outputs each of the obtained travel control values to the driving force device 34, the steering device 36, and the braking device 38. The notification control unit 64 drives and controls the notification device 40 or the direction indicator 42 according to the traveling track generated by the action planning unit 68. The polarizing filter adjusting unit 74 automatically adjusts the polarizing filter 76 based on a command signal from the automatic adjusting processing unit 70. Hereinafter, the travel control unit 62, the notification control unit 64, and the polarizing filter adjustment unit 74 may be collectively referred to as the “operation control unit 78”.

<1.5 自車12における外界センサ20の配置>
図2は、外界センサ20のうち、複数のカメラ44、複数のレーダ46及び複数のLiDAR48の車両12における配置を模式的に図示した説明図である。なお、図2は、一例として、車両12が左側走行の車両である場合を図示している。
<1.5 Arrangement of external sensor 20 in own vehicle 12>
FIG. 2 is an explanatory diagram schematically illustrating the arrangement of a plurality of cameras 44, a plurality of radars 46, and a plurality of LiDAR 48s in the vehicle 12 of the external world sensors 20. Note that FIG. 2 illustrates a case where the vehicle 12 is a vehicle traveling on the left side as an example.

自車12に配置される複数のカメラ44には、ルーフ前部に設けられた前方カメラ44aと、車体80の運転席側(右前側方)に配置された右前側方カメラ44bと、車体80の助手席側(左前側方)に配置された左前側方カメラ44cと、車体80の右後部座席側に配置された右後側方カメラ44dと、車体80の左後部座席側に配置された左後側方カメラ44eと、ルーフ後部に設けられた後方カメラ44fと、ルーフ前部に設けられた2台のステレオカメラである前方カメラ44gとがある。なお、以下の説明では、説明の便宜上、前方カメラ44a、44g、右前側方カメラ44b、左前側方カメラ44c、右後側方カメラ44d、左後側方カメラ44e、及び、後方カメラ44fを、カメラ44a〜44gと呼称する場合がある。 The plurality of cameras 44 arranged in the own vehicle 12 include a front camera 44a provided at the front of the roof, a right front side camera 44b arranged on the driver's seat side (right front side) of the vehicle body 80, and the vehicle body 80. The left front side camera 44c arranged on the passenger side (left front side), the right rear side camera 44d arranged on the right rear seat side of the vehicle body 80, and the left rear seat side of the vehicle body 80. There are a left rear side camera 44e, a rear camera 44f provided at the rear of the roof, and a front camera 44g which is two stereo cameras provided at the front of the roof. In the following description, for convenience of explanation, the front cameras 44a and 44g, the right front side camera 44b, the left front side camera 44c, the right rear side camera 44d, the left rear side camera 44e, and the rear camera 44f are referred to. It may be referred to as a camera 44a to 44g.

前方カメラ44aは、自車12の前方の所定の角度範囲内(撮像領域82a)を撮像し、撮像した画像を制御システム16(図1参照)に出力する。右前側方カメラ44bは、自車12の右側方の所定の角度範囲内(撮像領域82b)を撮像し、撮像した画像を制御システム16に出力する。左前側方カメラ44cは、自車12の左側方の所定の角度範囲内(撮像領域82c)を撮像し、撮像した画像を制御システム16に出力する。この場合、前方領域である撮像領域82aと右側方領域である撮像領域82bとは、一部領域が重複している。また、撮像領域82aと左側方領域である撮像領域82cとは、一部領域が重複している。 The front camera 44a captures an image within a predetermined angle range (imaging area 82a) in front of the own vehicle 12, and outputs the captured image to the control system 16 (see FIG. 1). The right front side camera 44b captures an image within a predetermined angle range (imaging area 82b) on the right side of the own vehicle 12, and outputs the captured image to the control system 16. The left front side camera 44c captures an image within a predetermined angle range (imaging area 82c) on the left side of the own vehicle 12, and outputs the captured image to the control system 16. In this case, a part of the imaging region 82a, which is the front region, and the imaging region 82b, which is the right region, overlap. Further, a part of the imaging region 82a and the imaging region 82c, which is the left side region, overlap.

同様に、右後側方カメラ44d、左後側方カメラ44e、後方カメラ44f及び前方カメラ44gについても、カメラのレンズを向けている自車12の外方の所定の角度領域を、一部領域が重複するように撮像し、撮像した画像を制御システム16に出力する。なお、図2には、右後側方カメラ44d、左後側方カメラ44e及び後方カメラ44fの撮像領域82d〜82fも併せて図示している。 Similarly, with respect to the right rear side camera 44d, the left rear side camera 44e, the rear camera 44f, and the front camera 44g, a predetermined angle region outside the own vehicle 12 to which the lens of the camera is directed is partially covered. Is imaged so as to overlap, and the captured image is output to the control system 16. Note that FIG. 2 also shows the imaging regions 82d to 82f of the right rear side camera 44d, the left rear side camera 44e, and the rear camera 44f.

さらに、それぞれのカメラ44a〜44gのレンズには、偏光フィルタ76(偏光フィルタ76a〜76g)が装着されている。 Further, a polarizing filter 76 (polarizing filter 76a to 76g) is attached to the lens of each camera 44a to 44g.

また、自車12には、複数のレーダ46及び複数のLiDAR48も配置されている。複数のレーダ46には、車体80の前方に配置された3つのレーダ46a〜46cと、車体80の後方に配置された2つのレーダ46d、46eとがある。LiDAR48には、車体80の前方に配置された2つのLiDAR48a、48bと、車体80の後方に配置された3つのLiDAR48c〜48eとがある。 Further, a plurality of radars 46 and a plurality of LiDAR 48s are also arranged in the own vehicle 12. The plurality of radars 46 include three radars 46a to 46c arranged in front of the vehicle body 80 and two radars 46d and 46e arranged behind the vehicle body 80. The LiDAR 48 includes two LiDAR 48a and 48b arranged in front of the vehicle body 80 and three LiDAR 48c to 48e arranged behind the vehicle body 80.

[2.運転支援装置10の動作]
本実施形態における運転支援装置10は、以上のように構成される。続いて、交差点90の右左折時における運転支援装置10の動作について、図3〜図5を参照しながら説明する。ここでは、運転支援装置10を搭載した自車12が自動運転により、図3に示す交差点90内を右折する場合について説明する。
[2. Operation of driving support device 10]
The driving support device 10 in the present embodiment is configured as described above. Subsequently, the operation of the driving support device 10 when turning left or right at the intersection 90 will be described with reference to FIGS. 3 to 5. Here, a case where the own vehicle 12 equipped with the driving support device 10 turns right in the intersection 90 shown in FIG. 3 by automatic driving will be described.

<2.1 交差点90の説明>
図3は、自車12が交差点90内に進入して右折しようとする状態を示す説明図である。自車12は、破線矢印で示す走行予定経路92に沿って、第1道路94及び第2道路96が交差する交差点90を通過しようとする。図3では、第1道路94及び第2道路96の各々は、4車線からなる道路である。また、図3は、自車12等の車両が左側走行する場合を図示している。
<2.1 Explanation of intersection 90>
FIG. 3 is an explanatory diagram showing a state in which the own vehicle 12 enters the intersection 90 and tries to make a right turn. The own vehicle 12 attempts to pass through the intersection 90 where the first road 94 and the second road 96 intersect along the planned travel route 92 indicated by the broken line arrow. In FIG. 3, each of the first road 94 and the second road 96 is a road having four lanes. Further, FIG. 3 illustrates a case where a vehicle such as the own vehicle 12 travels on the left side.

すなわち、第1道路94は、自車12等の車両が直進可能な2車線の第1走行レーン94aと、第1走行レーン94aに隣接し、且つ、対向車98(他車、他の移動体)等の車両が直進可能な2車線の第1対向レーン94bとを含み構成される。一方、第2道路96は、第1道路94と同様に、車両が直進可能な2車線の第2走行レーン96aと、第2走行レーン96aに隣接し、且つ、車両102等の車両が直進可能な2車線の第2対向レーン96bとを含み構成される。 That is, the first road 94 is adjacent to the first traveling lane 94a and the first traveling lane 94a of two lanes in which a vehicle such as the own vehicle 12 can go straight, and the oncoming vehicle 98 (another vehicle, another moving body). ) And the like, including the first oncoming lane 94b having two lanes on which the vehicle can go straight. On the other hand, the second road 96 is adjacent to the second traveling lane 96a and the second traveling lane 96a having two lanes on which the vehicle can travel straight, and the vehicle such as the vehicle 102 can travel straight on the second road 96, similarly to the first road 94. It is configured to include a second oncoming lane 96b having two lanes.

<2.2 図3〜図5の動作の説明>
次に、図4のフローチャートに示す運転支援装置10(図1参照)の動作について、自車12(図1〜図3及び図5参照)が走行予定経路92上に沿って走行する状況と対応させつつ説明する。ここでは、第1対向レーン94bにおいて、対向車98が渋滞等によって交差点90の手前で一時停止している場合に、該対向車98内の運転者100の状況(例えば、ジェスチャ行動)を考慮して、自車12が第1走行レーン94aから交差点90内に進入して右折し、第2走行レーン96aに至るまでの運転支援装置10の動作について説明する。なお、図3では、第1対向レーン94bに存在する対向車98以外の他の車両についての図示は省略する。
<2.2 Explanation of the operation of FIGS. 3 to 5>
Next, regarding the operation of the driving support device 10 (see FIG. 1) shown in the flowchart of FIG. 4, it corresponds to the situation where the own vehicle 12 (see FIGS. 1 to 3 and 5) travels along the planned travel route 92. I will explain while letting you. Here, in the first oncoming lane 94b, when the oncoming vehicle 98 is temporarily stopped before the intersection 90 due to traffic congestion or the like, the situation of the driver 100 in the oncoming vehicle 98 (for example, gesture behavior) is taken into consideration. The operation of the driving support device 10 from the first traveling lane 94a into the intersection 90, turning right, and reaching the second traveling lane 96a will be described. In FIG. 3, the illustration of vehicles other than the oncoming vehicle 98 existing in the first oncoming lane 94b is omitted.

先ず、自車12が第1走行レーン94aを走行し、交差点90内に進入した場合、図4のステップS1において、自動調整処理部70(図1参照)は、カメラ44(例えば、図2、図3及び図5の前方カメラ44a)が撮像した画像データを取得する。また、自動調整処理部70は、レーダ46(例えば、レーダ46a)の検知結果及びLiDAR48の検知結果も取得する。さらに、自動調整処理部70は、GPSセンサ52又はナビゲーション装置24が特定した自車12の現在位置、照度センサ50が検知した自車12周辺の照度(照度情報)、時計部72が計時した現在時刻も取得する。 First, when the own vehicle 12 travels in the first traveling lane 94a and enters the intersection 90, in step S1 of FIG. 4, the automatic adjustment processing unit 70 (see FIG. 1) uses the camera 44 (for example, FIG. 2, FIG. The image data captured by the front camera 44a) of FIGS. 3 and 5 is acquired. In addition, the automatic adjustment processing unit 70 also acquires the detection result of the radar 46 (for example, the radar 46a) and the detection result of the LiDAR 48. Further, the automatic adjustment processing unit 70 includes the current position of the own vehicle 12 specified by the GPS sensor 52 or the navigation device 24, the illuminance (illuminance information) around the own vehicle 12 detected by the illuminance sensor 50, and the current time measured by the clock unit 72. Also get the time.

ステップS2において、車両識別部70aは、ステップS1で取得された画像データから、画像データに写り込んでいる物体、すなわち、自車12の周囲に存在する物体を識別する。次に、車両識別部70aは、識別した物体から、自車12の周囲に存在する移動体(他の移動体)を特定する。具体的に、図3の例では、車両識別部70aは、交差点90、第1道路94及び第2道路96に存在する対向車98(図3及び図5参照)、及び、第2対向レーン96bを走行する車両102を特定する。次に、車両識別部70aは、特定した対向車98及び車両102の種別を識別する。この種別としては、例えば、識別した車両が、(1)二輪車、三輪車又は四輪車のいずれであるのか、(2)普通乗用車、バス又はトラックのいずれであるのか、等の種別がある。 In step S2, the vehicle identification unit 70a identifies an object reflected in the image data, that is, an object existing around the own vehicle 12, from the image data acquired in step S1. Next, the vehicle identification unit 70a identifies a moving body (another moving body) existing around the own vehicle 12 from the identified object. Specifically, in the example of FIG. 3, the vehicle identification unit 70a is an oncoming vehicle 98 (see FIGS. 3 and 5) existing at an intersection 90, a first road 94 and a second road 96, and a second oncoming lane 96b. The vehicle 102 traveling on the vehicle 102 is specified. Next, the vehicle identification unit 70a identifies the types of the specified oncoming vehicle 98 and the vehicle 102. As this type, for example, there are types such as (1) whether the identified vehicle is a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and (2) whether it is an ordinary passenger car, a bus, or a truck.

前述のように、図3〜図5の動作では、対向車98内の運転者100の状況(例えば、ジェスチャ行動)を考慮して、自車12が自動運転により走行する場合の動作である。この場合、運転者100が、例えば、自車12が交差点90を右折してもよい旨のジェスチャ行動をしていれば、カメラ44が対向車98のフロントガラス104等の透過部材領域106を介して運転者100を撮像(検知)することで、検知した運転者100のジェスチャ行動を認識することができる。 As described above, the operation of FIGS. 3 to 5 is an operation when the own vehicle 12 travels by automatic driving in consideration of the situation (for example, gesture behavior) of the driver 100 in the oncoming vehicle 98. In this case, if the driver 100 makes a gesture that the own vehicle 12 may turn right at the intersection 90, for example, the camera 44 passes through the transmission member region 106 such as the windshield 104 of the oncoming vehicle 98. By imaging (detecting) the driver 100, the detected gesture behavior of the driver 100 can be recognized.

しかしながら、近年の車両では、透過部材領域106を形成するガラス又は樹脂等の透過性部材への物体の写り込みを抑制するため、可視光線や紫外線(UV)に対するカット処理が施されている。この結果、外部から透過部材領域106を視認した場合、該透過部材領域106でのグレア又は反射によって、透過部材領域106を介して、対向車98の運転者100のジェスチャ行動を認識することが困難である。 However, in recent vehicles, in order to suppress the reflection of an object on a transparent member such as glass or resin forming the transparent member region 106, a cut treatment against visible light and ultraviolet rays (UV) is performed. As a result, when the transparent member region 106 is visually recognized from the outside, it is difficult to recognize the gesture behavior of the driver 100 of the oncoming vehicle 98 through the transparent member region 106 due to glare or reflection in the transparent member region 106. Is.

運転支援装置10では、このようなカット処理が施された透過部材領域106であっても、偏光フィルタ76を自動調整してグレア又は反射を低減することにより、該透過部材領域106を介して対向車98の運転者100を撮像(検知)可能としている。 In the operation support device 10, even if the transmission member region 106 is subjected to such a cut process, the polarizing filter 76 is automatically adjusted to reduce glare or reflection so as to face the transmission member region 106 via the transmission member region 106. The driver 100 of the car 98 can be imaged (detected).

そこで、次のステップS3において、調整対象特定部70bは、ステップS2で識別された車両のうち、自車12に最も近接する車両を偏光フィルタ76の調整対象として特定する。具体的に、前方カメラ44aが撮像した画像データ中、最も近接している車両である対向車98を偏光フィルタ76の調整対象とする。 Therefore, in the next step S3, the adjustment target identification unit 70b identifies the vehicle closest to the own vehicle 12 among the vehicles identified in step S2 as the adjustment target of the polarizing filter 76. Specifically, among the image data captured by the front camera 44a, the oncoming vehicle 98, which is the closest vehicle, is set as the adjustment target of the polarizing filter 76.

すなわち、自車12は、走行予定経路92に沿って、対向車98の進行方向前方を横切るように交差点90内を右折する。そのため、調整対象特定部70bは、交差点90内を右折するため、前方の対向車98内の運転者100のジェスチャ行動を識別する必要があると判断し、該対向車98を偏光フィルタ76の調整対象として決定する。 That is, the own vehicle 12 turns right in the intersection 90 along the planned travel route 92 so as to cross the front in the traveling direction of the oncoming vehicle 98. Therefore, the adjustment target identification unit 70b determines that it is necessary to identify the gesture behavior of the driver 100 in the oncoming vehicle 98 ahead in order to turn right in the intersection 90, and adjusts the oncoming vehicle 98 to the polarizing filter 76. Determine as a target.

ステップS4において、透過部材領域特定部70cは、ステップS3で特定された対向車98について、対向車98が写り込んでいる画像データの中から、透過部材領域106を特定する。この場合、透過部材領域特定部70cは、レーダ46又はLiDAR48の検知結果と、自車12の現在位置とに基づき、透過部材領域106を特定すればよい。すなわち、レーダ46又はLiDAR48による対向車98の検知結果と、自車12の現在位置とにより、自車12に対する対向車98の距離及び角度を特定することができる。図3及び図5では、該検知結果より、自車12(レーダ46又はLiDAR48の位置)に対する透過部材領域106(運転者乗車領域108)の角度θを特定した場合を図示している。また、ステップS2での識別結果より、対向車98の種別が特定されることで、該対向車98におけるフロントガラス104等の透過部材領域106の設置箇所を特定することができる。この結果、透過部材領域106を容易に特定することができる。あるいは、透過部材領域特定部70cは、対向車98が写り込んでいる画像データのみ用いて透過部材領域106を特定してもよい。図3及び図5では、一例として、前方カメラ44aが撮像した画像データ中、対向車98のフロントガラス104を透過部材領域106に特定する場合を図示している。 In step S4, the transparent member region specifying unit 70c identifies the transparent member region 106 from the image data in which the oncoming vehicle 98 is reflected in the oncoming vehicle 98 identified in step S3. In this case, the transmission member region identification unit 70c may specify the transmission member region 106 based on the detection result of the radar 46 or LiDAR 48 and the current position of the own vehicle 12. That is, the distance and angle of the oncoming vehicle 98 with respect to the own vehicle 12 can be specified from the detection result of the oncoming vehicle 98 by the radar 46 or the LiDAR 48 and the current position of the own vehicle 12. 3 and 5 show a case where the angle θ of the transmission member region 106 (driver riding region 108) with respect to the own vehicle 12 (position of the radar 46 or LiDAR 48) is specified from the detection result. Further, by specifying the type of the oncoming vehicle 98 from the identification result in step S2, it is possible to specify the installation location of the transmission member region 106 such as the windshield 104 in the oncoming vehicle 98. As a result, the transparent member region 106 can be easily specified. Alternatively, the transparent member region specifying unit 70c may specify the transparent member region 106 using only the image data in which the oncoming vehicle 98 is reflected. 3 and 5 show, as an example, a case where the windshield 104 of the oncoming vehicle 98 is specified in the transmission member region 106 in the image data captured by the front camera 44a.

なお、対向車98では、フロントガラス104の他、左右のフロントドアガラス、左右のリアドアガラス、バックガラスも透過性部材である。透過部材領域特定部70cは、これらの透過性部材のうち、自車12に最も近接するフロントガラス104を透過部材領域106として特定する。また、自車12のフロントガラスは、前方に向かって傾斜しており、前方カメラ44aは、傾斜したフロントガラスを介して、前方を撮像している。さらに、対向車98のフロントガラス104も傾斜しているので、レーダ46又はLiDAR48では、透過部材領域106で反射する光又はミリ波が、斜め方向から入射する場合もある。そこで、透過部材領域特定部70cは、自車12のフロントガラスの傾斜角度、及び、対向車98のフロントガラス104の傾斜角度等も考慮して、透過部材領域106を特定することが望ましい。以下の説明では、説明の便宜上、画像データ中に写り込んでいる透過部材領域106の画像も、「透過部材領域106」として呼称する場合がある。 In the oncoming vehicle 98, in addition to the windshield 104, the left and right front door glasses, the left and right rear door glasses, and the back glass are also transparent members. Among these transparent members, the transparent member region specifying unit 70c specifies the windshield 104 closest to the own vehicle 12 as the transparent member region 106. Further, the windshield of the own vehicle 12 is inclined toward the front, and the front camera 44a images the front through the inclined windshield. Further, since the windshield 104 of the oncoming vehicle 98 is also inclined, in the radar 46 or LiDAR 48, the light or millimeter wave reflected in the transmission member region 106 may be incident from an oblique direction. Therefore, it is desirable that the transmission member region specifying portion 70c specifies the transmission member region 106 in consideration of the inclination angle of the windshield of the own vehicle 12 and the inclination angle of the windshield 104 of the oncoming vehicle 98. In the following description, for convenience of explanation, the image of the transparent member region 106 reflected in the image data may also be referred to as “transparent member region 106”.

また、ステップS4において、透過部材領域特定部70cは、透過部材領域106のうち、カメラ44が運転者100を検知可能な領域(運転者乗車領域108)を特定する。 Further, in step S4, the transparent member region specifying unit 70c identifies a region (driver riding region 108) in which the camera 44 can detect the driver 100 in the transparent member region 106.

この場合、ステップS2において、車両識別部70aが車両の種別を識別している。そこで、透過部材領域特定部70cは、車両識別部70aの識別結果と、レーダ46又はLiDAR48の検知結果と、自車12の現在位置とに基づき、画像データ中の透過部材領域106のうち、運転者100が写り込んでいると推定される領域を、運転者乗車領域108として特定する。すなわち、(1)対向車98が左側走行の車両であることと、(2)ステップS2での識別結果に基づく対向車98の種別と、(3)レーダ46又はLiDAR48による対向車98の検知結果、及び、自車12の現在位置に基づく自車12に対する対向車98の距離及び角度(図3及び図5の角度θ)とから、透過部材領域106中、自車12から見て左側の領域を運転者乗車領域108として特定することができる。あるいは、透過部材領域特定部70cは、車両識別部70aの識別結果を用いて、対向車98が写り込んでいる画像データのみ用いて運転者乗車領域108を特定してもよい。 In this case, in step S2, the vehicle identification unit 70a identifies the type of vehicle. Therefore, the transmission member region identification unit 70c operates in the transmission member region 106 in the image data based on the identification result of the vehicle identification unit 70a, the detection result of the radar 46 or LiDAR48, and the current position of the own vehicle 12. The area where the person 100 is presumed to be reflected is specified as the driver boarding area 108. That is, (1) the oncoming vehicle 98 is a vehicle traveling on the left side, (2) the type of the oncoming vehicle 98 based on the identification result in step S2, and (3) the detection result of the oncoming vehicle 98 by the radar 46 or LiDAR48. , And the distance and angle of the oncoming vehicle 98 with respect to the own vehicle 12 based on the current position of the own vehicle 12 (angle θ in FIGS. 3 and 5), the region on the left side of the transmission member region 106 when viewed from the own vehicle 12. Can be specified as the driver boarding area 108. Alternatively, the transparent member region specifying unit 70c may specify the driver boarding region 108 using only the image data in which the oncoming vehicle 98 is reflected by using the identification result of the vehicle identification unit 70a.

なお、運転者乗車領域108を特定する場合でも、透過部材領域特定部70cは、自車12のフロントガラスの傾斜角度、及び、対向車98のフロントガラス104の傾斜角度等も考慮して、運転者乗車領域108を特定してもよい。以下の説明では、説明の便宜上、図3及び図5の透過部材領域106中、運転者100が写り込んでいる領域や、画像データ中、運転者100が写り込んでいる領域の画像を、「運転者乗車領域108」として呼称する場合がある。 Even when the driver's riding area 108 is specified, the transmission member area specifying portion 70c is operated in consideration of the inclination angle of the windshield of the own vehicle 12 and the inclination angle of the windshield 104 of the oncoming vehicle 98. The passenger boarding area 108 may be specified. In the following description, for convenience of explanation, the image of the region in which the driver 100 is reflected in the transparent member regions 106 of FIGS. 3 and 5 and the region in which the driver 100 is reflected in the image data is referred to as ". It may be referred to as "driver boarding area 108".

ステップS5において、フィルタ調整判定部70dは、ステップS4で特定した透過部材領域106、より詳しくは、運転者乗車領域108に対して、偏光フィルタ76(図3及び図5では前方カメラ44aの偏光フィルタ76a)の自動調整が必要か否かを判定する。 In step S5, the filter adjustment determination unit 70d sets the polarizing filter 76 (in FIG. 3 and FIG. 5, the polarizing filter of the front camera 44a) with respect to the transmission member region 106 specified in step S4, more specifically, the driver riding region 108. It is determined whether or not the automatic adjustment of 76a) is necessary.

透過部材領域106(フロントガラス104)にカット処理が行われていることで、画像データに写り込んでいる運転者乗車領域108から運転者100を認識することができない場合、フィルタ調整判定部70dは、運転者乗車領域108に対する偏光フィルタ76の自動調整が必要と判定し(ステップS5:YES)、次のステップS6に進む。 When the driver 100 cannot be recognized from the driver riding area 108 reflected in the image data because the transparent member region 106 (windshield 104) is cut, the filter adjustment determination unit 70d It is determined that the automatic adjustment of the polarizing filter 76 with respect to the driver riding area 108 is necessary (step S5: YES), and the process proceeds to the next step S6.

ステップS6において、フィルタ調整判定部70dは、角度θ等に基づく自動調整の実行を指示する旨の指令信号を偏光フィルタ調整部74に出力する。この場合、フィルタ調整判定部70dは、自車12の現在位置と、照度と、現在時刻とを考慮した上で、偏光フィルタ76の自動調整を指示する指令信号を生成してもよい。 In step S6, the filter adjustment determination unit 70d outputs a command signal to the polarization filter adjustment unit 74 to instruct the execution of automatic adjustment based on the angle θ or the like. In this case, the filter adjustment determination unit 70d may generate a command signal instructing the automatic adjustment of the polarizing filter 76 in consideration of the current position of the own vehicle 12, the illuminance, and the current time.

これにより、偏光フィルタ調整部74は、偏光フィルタ76(76a)を自動的に調整する。この結果、自動調整後にカメラ44(44a)が撮像した画像データを自動調整処理部70が再度取得した場合、取得された画像データ中、運転者乗車領域108に写り込んだ運転者100を認識することができる。なお、偏光フィルタ76の構成や偏光フィルタ76の調整手法は公知である。例えば、(1)偏光レンズを回転させて調整する構成、(2)CMOSイメージセンサ上に複数の偏光子を設置し、選択的又は複合的に取得した周囲状況に応じて、偏光度を調整する構成、がある。従って、偏光フィルタ76の構成及び調整手法の詳細な説明は省略する。 As a result, the polarizing filter adjusting unit 74 automatically adjusts the polarizing filter 76 (76a). As a result, when the automatic adjustment processing unit 70 acquires the image data captured by the camera 44 (44a) again after the automatic adjustment, the driver 100 reflected in the driver boarding area 108 is recognized in the acquired image data. be able to. The configuration of the polarizing filter 76 and the adjusting method of the polarizing filter 76 are known. For example, (1) a configuration in which a polarizing lens is rotated and adjusted, and (2) a plurality of polarizers are installed on a CMOS image sensor, and the degree of polarization is adjusted according to the ambient conditions acquired selectively or in combination. There is a configuration. Therefore, detailed description of the configuration and adjustment method of the polarizing filter 76 will be omitted.

一方、ステップS5において、透過部材領域106(フロントガラス104)にカット処理が行われていない場合、レーダ46又はLiDAR48は、運転者乗車領域108を介して、運転者100を検知可能である。この場合、フィルタ調整判定部70dは、レーダ46又はLiDAR48の検知結果より、偏光フィルタ76の自動調整が不要と判定し(ステップS5:NO)、ステップS6をスキップする。あるいは、画像データに写り込んでいる運転者乗車領域108中、運転者100を認識することが可能であれば、フィルタ調整判定部70dは、運転者乗車領域108に対する偏光フィルタ76の自動調整が不要と判定してもよい(ステップS5:NO)。 On the other hand, in step S5, when the transmission member region 106 (windshield 104) is not cut, the radar 46 or LiDAR 48 can detect the driver 100 via the driver riding region 108. In this case, the filter adjustment determination unit 70d determines from the detection result of the radar 46 or LiDAR 48 that the automatic adjustment of the polarizing filter 76 is unnecessary (step S5: NO), and skips step S6. Alternatively, if the driver 100 can be recognized in the driver riding area 108 reflected in the image data, the filter adjustment determination unit 70d does not need to automatically adjust the polarizing filter 76 with respect to the driver riding area 108. May be determined (step S5: NO).

次のステップS7において、体動識別部70eは、運転者乗車領域108に写り込んでいる運転者100が何らかの体動(例えば、ジェスチャ行動)を示しているか否かを判断する。そして、何らかの体動を示していると判断した場合、体動識別部70eは、運転者100の体動の種類を識別する。 In the next step S7, the body movement identification unit 70e determines whether or not the driver 100 reflected in the driver riding area 108 is exhibiting some body movement (for example, gesture behavior). Then, when it is determined that some kind of body movement is exhibited, the body movement identification unit 70e identifies the type of body movement of the driver 100.

この場合、体動識別部70eは、ジェスチャ行動の有無の判断、体動の種類の識別に関して、(1)運転者100の視認方向(自車12を視認しているか否か)、(2)運転者100の注意度(自車12に注目しているか否か、対向車98内にある携帯機器の画面等を見ているか否か、寝ているか否か)、(3)運転者100が自車12を見てジェスチャ行動を行っているか否か、(4)自車12の右折に対する許可の合図のジェスチャ行動であるか否か、等を判別する。この判別処理において、体動識別部70eは、運転支援装置10に備わる各種のセンサの検出結果、コンピュータビジョンの技術、又は、機械学習に基づいて、(1)〜(4)の判別を行えばよい。 In this case, the body movement identification unit 70e determines (1) the viewing direction of the driver 100 (whether or not the own vehicle 12 is visually recognized), and (2) regarding the determination of the presence or absence of gesture behavior and the identification of the type of body movement. The degree of caution of the driver 100 (whether or not he is paying attention to his own vehicle 12, whether or not he is looking at the screen of a portable device in the oncoming vehicle 98, whether or not he is sleeping), (3) The driver 100 It is determined whether or not the vehicle 12 is performing a gesture action, and (4) whether or not the vehicle is a gesture action that signals permission for a right turn of the vehicle 12. In this discrimination process, if the body movement identification unit 70e discriminates (1) to (4) based on the detection results of various sensors provided in the driving support device 10, computer vision technology, or machine learning. Good.

ステップS8において、体動内容推定部70fは、ステップS7での処理結果から、自車12に対する右折を許可するジェスチャ行動であれば、該ジェスチャ行動の内容を推定する。すなわち、運転者100が何らかのジェスチャ行動を行っていても、自車12に対する動作でない場合や、自車12を見ることなく何らかの動作を行っている場合もある。そのため、体動内容推定部70fは、ステップS7での処理結果に基づき、自車12に対するジェスチャ行動であることをトリガとして、ステップS8の推定処理を行う。ここで、例えば、運転者100が自車12に向けて左右方向に手を振っている体動である場合、体動内容推定部70fは、運転者100が自車12に対して右折を許可する体動であると推定する。この場合も、体動内容推定部70fは、機械学習によって、体動の内容を推定すればよい。 In step S8, the body movement content estimation unit 70f estimates the content of the gesture action from the processing result in step S7 if it is a gesture action that allows the vehicle 12 to turn right. That is, even if the driver 100 performs some gesture action, it may not be an action with respect to the own vehicle 12, or may be performing some action without looking at the own vehicle 12. Therefore, the body movement content estimation unit 70f performs the estimation process of step S8 based on the processing result in step S7, using the gesture action for the own vehicle 12 as a trigger. Here, for example, when the driver 100 is waving his / her hand toward the own vehicle 12 in the left-right direction, the body movement content estimation unit 70f allows the driver 100 to make a right turn to the own vehicle 12. Presumed to be a body movement. In this case as well, the body movement content estimation unit 70f may estimate the body movement content by machine learning.

なお、自車12に視覚センサとして側方カメラ(右前側方カメラ44b、左前側方カメラ44c、右後側方カメラ44d、左後側方カメラ44e)を配置し、側方カメラが取得した画像から、自車12の側方に位置する他車の運転者のジェスチャ行動を認識してもよい。具体的に、交差点90内で自車12の進行方向と直交する位置に存在する他車の運転者からの進行許可のジェスチャ行動や、隣接して存在する緊急車両等の他車からの停止要求のジェスチャ行動等を認識することが可能となる。 A side camera (right front side camera 44b, left front side camera 44c, right rear side camera 44d, left rear side camera 44e) is arranged as a visual sensor in the own vehicle 12, and the image acquired by the side camera. Therefore, the gesture behavior of the driver of another vehicle located on the side of the own vehicle 12 may be recognized. Specifically, a gesture action of permission from the driver of another vehicle existing at a position orthogonal to the traveling direction of the own vehicle 12 in the intersection 90, and a stop request from another vehicle such as an adjacent emergency vehicle. It becomes possible to recognize the gesture behavior of.

ステップS9において、走行制御許可判定部70gは、ステップS8での推定結果を行動計画に反映させるべきか否かを判定する。例えば、運転者100が自車12に向けて左右方向に手を振っている体動である推定結果であれば、走行制御許可判定部70gは、交差点90の右折が可能である旨の判定結果を行動計画部68に通知する。行動計画部68は、走行制御許可判定部70gの判定結果を受けて、行動計画を更新する。 In step S9, the travel control permission determination unit 70g determines whether or not the estimation result in step S8 should be reflected in the action plan. For example, if the estimation result is that the driver 100 is waving his / her hand in the left-right direction toward the own vehicle 12, the driving control permission determination unit 70g determines that the intersection 90 can turn right. Is notified to the Action Planning Department 68. The action planning unit 68 updates the action plan in response to the determination result of the travel control permission determination unit 70g.

これにより、ステップS10において、走行制御部62は、更新後の行動計画に基づき、出力系装置群18をなす各々の装置を制御することで、交差点90での自車12の右折を実行する。 As a result, in step S10, the travel control unit 62 executes a right turn of the own vehicle 12 at the intersection 90 by controlling each device forming the output system device group 18 based on the updated action plan.

次のステップS11において、体動識別部70eは、カメラ44の画像データを再度取得し、取得した画像データ中の運転者100の画像から、該運転者100が同じ体動を継続しているか否かを判定する。同じ体動を継続していると判定した場合(ステップS11:YES)、運転支援装置10は、ステップS7に戻り、ステップS7〜S11の処理を再度実行する。これにより、運転者100が自車12に対して右折を許可するジェスチャ行動を行っている場合、自車12は、ステップS7〜S11を繰り返し実行することで、交差点90内を第2走行レーン96aに向けて右折することができる。 In the next step S11, the body movement identification unit 70e acquires the image data of the camera 44 again, and from the image of the driver 100 in the acquired image data, whether or not the driver 100 continues the same body movement. Is determined. If it is determined that the same body movement is continued (step S11: YES), the driving support device 10 returns to step S7 and executes the processes of steps S7 to S11 again. As a result, when the driver 100 is performing a gesture action that permits the own vehicle 12 to make a right turn, the own vehicle 12 repeatedly executes steps S7 to S11 to enter the second traveling lane 96a in the intersection 90. You can turn right towards.

なお、ステップS11において、画像データ中の運転者100の画像から、運転者100が体動を止めたことを体動識別部70eが認識した場合(ステップS11:NO)、体動内容推定部70fは、例えば、自車12が対向車98の進行方向前方を横切って右折したため、右折を許可するジェスチャ行動が不要になったか、又は、自車12が右折中であっても、対向車98を前進させるため、運転者100が当該ジェスチャ行動を止めたと推定する。そして、運転支援装置10は、ステップS12に進む。 In step S11, when the body movement identification unit 70e recognizes that the driver 100 has stopped moving from the image of the driver 100 in the image data (step S11: NO), the body movement content estimation unit 70f For example, because the own vehicle 12 crosses the front of the oncoming vehicle 98 in the traveling direction and turns right, the gesture action for permitting the right turn is no longer necessary, or even if the own vehicle 12 is turning right, the oncoming vehicle 98 is turned. It is presumed that the driver 100 has stopped the gesture action in order to move forward. Then, the driving support device 10 proceeds to step S12.

次のステップS12において、自動調整処理部70は、カメラ44から取得した画像データ等に基づき、自車12が交差点90を右折したか否かを判定する。あるいは、運転支援装置10は、自動運転を停止するか否かを判定する。 In the next step S12, the automatic adjustment processing unit 70 determines whether or not the own vehicle 12 has turned right at the intersection 90 based on the image data or the like acquired from the camera 44. Alternatively, the driving support device 10 determines whether or not to stop the automatic driving.

自車12が交差点90を右折中である場合、又は、自動運転を継続して行う場合(ステップS12:NO)、運転支援装置10は、ステップS1に戻り、ステップS1〜S12の処理を再度実行する。一方、自車12が交差点90内を右折し、交差点90を抜けて第2走行レーン96aに進入した場合、又は、自動運転スイッチ28の操作によって自動運転を終了する場合(ステップS12:YES)、運転支援装置10は、図4の動作を終了する。 When the own vehicle 12 is turning right at the intersection 90 or when the automatic driving is continuously performed (step S12: NO), the driving support device 10 returns to step S1 and executes the processes of steps S1 to S12 again. To do. On the other hand, when the own vehicle 12 turns right in the intersection 90, passes through the intersection 90 and enters the second traveling lane 96a, or when the automatic driving is terminated by operating the automatic driving switch 28 (step S12: YES). The driving support device 10 ends the operation shown in FIG.

<2.3 変形例>
上記の説明では、前方カメラ44aを用いて左側走行の自車12が交差点90内を右折する場合について説明した。図3〜図5の動作では、前方カメラ44aに加えて、又は、前方カメラ44aに代えて、他のカメラ44(例えば、右前側方カメラ44b又は左前側方カメラ44cや、後方カメラ44f)を用いることで、右前側方カメラ44b又は左前側方カメラ44cや、後方カメラ44fを用いて、左側走行の自車12が交差点90内を右折する場合にも適用可能である。
<2.3 Deformation example>
In the above description, the case where the own vehicle 12 traveling on the left side turns right in the intersection 90 using the front camera 44a has been described. In the operation of FIGS. 3 to 5, in addition to the front camera 44a or instead of the front camera 44a, another camera 44 (for example, the right front side camera 44b or the left front side camera 44c, or the rear camera 44f) is used. By using this, it is also applicable to the case where the own vehicle 12 traveling on the left side turns right in the intersection 90 by using the right front side camera 44b or the left front side camera 44c or the rear camera 44f.

また、図3〜図5の動作は、左側走行の自車12が交差点90内を左折する場合や、右側走行の自車12が交差点90内を右左折する場合にも適用可能である。右側走行の場合には、対向車98の透過部材領域106中、自車12から見て右側の領域を、運転者乗車領域108として特定する。 Further, the operations of FIGS. 3 to 5 can be applied to the case where the vehicle 12 traveling on the left side turns left in the intersection 90 and the vehicle 12 traveling on the right side turns right or left in the intersection 90. In the case of traveling on the right side, the region on the right side of the own vehicle 12 in the transparent member region 106 of the oncoming vehicle 98 is specified as the driver riding region 108.

さらに、図3〜図5の動作は、対向車98に限らず、車両102等、他の車両に対しても適用可能である。例えば、高速道路等において、自車12が車線に合流する際、該車線を走行する他車の運転者が、自車12に対して、合流を許可する旨のジェスチャ行動を認識する場合に適用可能である。 Further, the operations of FIGS. 3 to 5 are applicable not only to the oncoming vehicle 98 but also to other vehicles such as the vehicle 102. For example, on a highway or the like, when the own vehicle 12 merges into a lane, the driver of another vehicle traveling in the lane recognizes the gesture behavior of permitting the own vehicle 12 to merge. It is possible.

また、図3〜図5の動作は、他の車両の透過性部材を介して、対向車98を検知することも可能である。 Further, in the operations of FIGS. 3 to 5, it is also possible to detect the oncoming vehicle 98 via the transparent member of another vehicle.

さらに、図4のステップS8では、ステップS7の処理結果に基づき、偏光フィルタ76の自動調整処理を行ってもよい。これにより、運転者100のジェスチャ行動を一層精度よく推定することができる。さらにまた、本実施形態では、上述したハードウェア的な偏光フィルタ76の自動調整処理に代えて、ソフトウェア的に画像データに対する画像処理によって運転者100を認識できるようにすることも可能である。これにより、偏光フィルタ76の自動調整と同等の処理を画像処理で実現することができる。 Further, in step S8 of FIG. 4, the polarizing filter 76 may be automatically adjusted based on the processing result of step S7. As a result, the gesture behavior of the driver 100 can be estimated more accurately. Furthermore, in the present embodiment, instead of the hardware-like automatic adjustment processing of the polarizing filter 76 described above, it is also possible to make the driver 100 recognizable by software-based image processing on the image data. As a result, processing equivalent to the automatic adjustment of the polarizing filter 76 can be realized by image processing.

[3.本実施形態の効果]
以上説明したように、本実施形態に係る運転支援装置10は、自車12(移動体)の運転を支援する装置であって、自車12の周囲の対向車98及び車両102(物体)を検知するカメラ44(視覚センサ)と、カメラ44(カメラ44a〜44g)に設けられた偏光フィルタ76(76a〜76g)と、カメラ44が検知した自車12の周囲に存在する物体のうち、1つの対向車98を偏光フィルタ76の調整対象に決定し、決定した調整対象中、光を透過可能な透過部材領域106を特定し、特定した透過部材領域106に対して偏光フィルタ76を自動で調整する自動調整処理部70及び偏光フィルタ調整部74(自動調整部)とを備える。
[3. Effect of this embodiment]
As described above, the driving support device 10 according to the present embodiment is a device that supports the driving of the own vehicle 12 (moving body), and the oncoming vehicle 98 and the vehicle 102 (object) around the own vehicle 12 are supported. One of the detection camera 44 (visual sensor), the polarizing filter 76 (76a to 76 g) provided on the camera 44 (camera 44a to 44 g), and the objects existing around the own vehicle 12 detected by the camera 44. One oncoming vehicle 98 is determined to be the adjustment target of the polarizing filter 76, the transmitting member region 106 capable of transmitting light is specified among the determined adjustment targets, and the polarizing filter 76 is automatically adjusted for the specified transmitting member region 106. An automatic adjustment processing unit 70 and a polarizing filter adjustment unit 74 (automatic adjustment unit) are provided.

これにより、調整対象である対向車98の透過部材領域106に対して偏光フィルタ76を自動的に調整することで、該透過部材領域106を介して、対向車98の内部の状況が視認可能となる。この結果、対向車98の内部の状況(対向車98の運転者100のジェスチャ行動)に基づき、自車12の運転支援(例えば、自車12の交差点90内での右左折に対する支援)を円滑に行うことが可能となる。 As a result, the polarizing filter 76 is automatically adjusted with respect to the transmission member region 106 of the oncoming vehicle 98 to be adjusted, so that the internal condition of the oncoming vehicle 98 can be visually recognized through the transmission member region 106. Become. As a result, based on the internal situation of the oncoming vehicle 98 (gesture behavior of the driver 100 of the oncoming vehicle 98), the driving support of the own vehicle 12 (for example, the support for turning left or right in the intersection 90 of the own vehicle 12) is smoothly performed. It becomes possible to do it.

この場合、調整対象である対向車98は、運転支援装置10を搭載する自車12(自移動体)の周囲に存在する物体のうち、透過部材領域106を備える他の移動体である。自動調整処理部70及び偏光フィルタ調整部74は、透過部材領域106のうち、カメラ44が対向車98内の運転者100を検知することが可能な運転者乗車領域108に対して、偏光フィルタ76を自動で調整する。これにより、運転者100のジェスチャ行動を容易に検知することが可能となる。 In this case, the oncoming vehicle 98 to be adjusted is another moving body including the transmission member region 106 among the objects existing around the own vehicle 12 (self-moving body) equipped with the driving support device 10. The automatic adjustment processing unit 70 and the polarizing filter adjusting unit 74 request the polarizing filter 76 with respect to the driver riding area 108 in which the camera 44 can detect the driver 100 in the oncoming vehicle 98 in the transmission member area 106. Is automatically adjusted. This makes it possible to easily detect the gesture behavior of the driver 100.

また、自動調整処理部70の透過部材領域特定部70cは、自車12に備わるナビゲーション装置24又はGPSセンサ52が特定した自車12の現在位置(自己位置情報)を用いて、運転者乗車領域108を推定する。これにより、運転者乗車領域108を精度よく特定することができる。 Further, the transparent member area specifying unit 70c of the automatic adjustment processing unit 70 uses the current position (self-position information) of the own vehicle 12 specified by the navigation device 24 provided in the own vehicle 12 or the GPS sensor 52, and the driver boarding area. Estimate 108. As a result, the driver's boarding area 108 can be accurately specified.

さらに、自動調整処理部70及び偏光フィルタ調整部74は、カメラ44が運転者乗車領域108を介して運転者100の状況を検知することが可能となるように、偏光フィルタ76を自動で調整する。これにより、運転者100のジェスチャ行動を精度よく検知することができる。 Further, the automatic adjustment processing unit 70 and the polarizing filter adjusting unit 74 automatically adjust the polarizing filter 76 so that the camera 44 can detect the situation of the driver 100 via the driver riding area 108. .. As a result, the gesture behavior of the driver 100 can be detected with high accuracy.

この場合、運転者100の状況には、少なくとも、運転者100が自車12を視認している状況と、自車12の右左折等の所定の行動に対する運転者100の許可を意図するジェスチャ行動を行っているか否かの状況とが含まれる。運転支援装置10は、カメラ44の検知結果に基づき、運転者100が自車12を視認し、且つ、ジェスチャ行動を行っていることを確認した場合に、所定の行動を実行する運転制御部78をさらに備える。これにより、自車12に対してジェスチャ行動に応じた適切な走行制御を行うことができる。 In this case, the situation of the driver 100 includes at least a situation in which the driver 100 is visually recognizing the own vehicle 12 and a gesture action intended to permit the driver 100 to perform a predetermined action such as turning left or right of the own vehicle 12. The situation of whether or not the operation is performed is included. The driving support device 10 executes a predetermined action when the driver 100 visually recognizes the own vehicle 12 and confirms that the driver 100 is performing a gesture action based on the detection result of the camera 44. Further prepare. As a result, it is possible to perform appropriate traveling control for the own vehicle 12 according to the gesture behavior.

運転支援装置10は、光又はミリ波を用いて自車12の周囲の物体を検知するレーダ46及びLiDAR48(検知ユニット)をさらに備える。自動調整処理部70の透過部材領域特定部70cは、レーダ46又はLiDAR48による対向車98の検知結果に基づいて、透過部材領域106を特定する。これにより透過部材領域106を介して運転者100を精度よく検知することができる。 The driving support device 10 further includes a radar 46 and a LiDAR 48 (detection unit) that detect an object around the own vehicle 12 by using light or millimeter waves. The transmission member region identification unit 70c of the automatic adjustment processing unit 70 identifies the transmission member region 106 based on the detection result of the oncoming vehicle 98 by the radar 46 or LiDAR 48. As a result, the driver 100 can be accurately detected via the transparent member region 106.

この場合、レーダ46又はLiDAR48は、自車12に対する透過部材領域106の角度θを検知する。自動調整処理部70及び偏光フィルタ調整部74は、角度θに基づいて偏光フィルタ76の自動調整を行う。これにより、運転者100を精度よく検知することができる。 In this case, the radar 46 or LiDAR 48 detects the angle θ of the transmission member region 106 with respect to the own vehicle 12. The automatic adjustment processing unit 70 and the polarizing filter adjusting unit 74 automatically adjust the polarizing filter 76 based on the angle θ. As a result, the driver 100 can be detected with high accuracy.

また、運転支援装置10を搭載する自車12の周囲に存在する物体のうち、透過部材領域106を備える対向車98が調整対象であり、レーダ46又はLiDAR48が透過部材領域106を介して対向車98内の運転者100を検知した場合に、自動調整処理部70のフィルタ調整判定部70dは、偏光フィルタ76の自動調整が不要と判断する。これにより、カット処理が施されていない透過部材領域106に対しても、運転者100の検知等を容易に行うことができる。 Further, among the objects existing around the own vehicle 12 on which the driving support device 10 is mounted, the oncoming vehicle 98 having the transmission member region 106 is the adjustment target, and the radar 46 or the LiDAR 48 is the oncoming vehicle via the transmission member region 106. When the driver 100 in 98 is detected, the filter adjustment determination unit 70d of the automatic adjustment processing unit 70 determines that the automatic adjustment of the polarizing filter 76 is unnecessary. As a result, the driver 100 can be easily detected even in the transparent member region 106 that has not been cut.

また、運転支援装置10は、該運転支援装置10の現在位置を特定するGPSセンサ52と、照度センサ50と、時計部72とをさらに備える。この場合、自動調整処理部70のフィルタ調整判定部70d及び偏光フィルタ調整部74は、GPSセンサ52が特定した現在位置と、照度センサ50が検知した照度(照度情報)と、時計部72が計時した現在時刻とに基づいて、偏光フィルタ76の自動調整を行う。これにより、太陽光の照り具合に応じて、偏光フィルタ76の調整を的確に行うことができる。 Further, the driving support device 10 further includes a GPS sensor 52 for specifying the current position of the driving support device 10, an illuminance sensor 50, and a clock unit 72. In this case, the filter adjustment determination unit 70d and the polarization filter adjustment unit 74 of the automatic adjustment processing unit 70 measure the current position specified by the GPS sensor 52, the illuminance (illuminance information) detected by the illuminance sensor 50, and the clock unit 72. The polarizing filter 76 is automatically adjusted based on the current time. As a result, the polarizing filter 76 can be accurately adjusted according to the degree of sunlight shining.

偏光フィルタ76の調整対象は、カメラ44に対して所定の角度範囲(撮像領域82)内に存在し、且つ、自車12に最も近接する他の移動体(対向車98)であればよい。これにより、運転者100を容易に且つ的確に検知することができる。 The adjustment target of the polarizing filter 76 may be another moving body (oncoming vehicle 98) that exists within a predetermined angle range (imaging region 82) with respect to the camera 44 and is closest to the own vehicle 12. As a result, the driver 100 can be easily and accurately detected.

なお、本発明は、上述の実施形態に限らず、この明細書の記載内容に基づき、種々の構成を採り得ることは勿論である。 It should be noted that the present invention is not limited to the above-described embodiment, and it goes without saying that various configurations can be adopted based on the contents described in this specification.

10…運転支援装置 12…自車(移動体、自移動体)
44、44a〜44g…カメラ(視覚センサ)
70…自動調整処理部(自動調整部)
74…偏光フィルタ調整部(自動調整部)
76、76a〜76g…偏光フィルタ
98…対向車(物体、調整対象、他の移動体)
102…車両(物体) 106…透過部材領域
10 ... Driving support device 12 ... Own vehicle (moving body, self-moving body)
44, 44a-44g ... Camera (visual sensor)
70 ... Automatic adjustment processing unit (automatic adjustment unit)
74 ... Polarizing filter adjustment unit (automatic adjustment unit)
76, 76a-76g ... Polarizing filter 98 ... Oncoming vehicle (object, adjustment target, other moving object)
102 ... Vehicle (object) 106 ... Transparent member area

Claims (10)

移動体の運転を支援する運転支援装置において、
前記移動体の周囲の物体を検知する視覚センサと、
前記視覚センサに設けられた偏光フィルタと、
前記視覚センサが検知した前記移動体の周囲に存在する物体のうち、1つの物体を前記偏光フィルタの調整対象に決定し、決定した前記調整対象中、光を透過可能な透過部材領域を特定し、特定した前記透過部材領域に対して前記偏光フィルタを自動で調整する自動調整部と、
を備える、運転支援装置。
In a driving support device that supports the driving of a moving object
A visual sensor that detects an object around the moving object,
The polarizing filter provided in the visual sensor and
Among the objects existing around the moving body detected by the visual sensor, one object is determined to be the adjustment target of the polarizing filter, and the transmitting member region capable of transmitting light is specified in the determined adjustment target. An automatic adjustment unit that automatically adjusts the polarizing filter with respect to the specified transmission member region.
A driving support device equipped with.
請求項1記載の運転支援装置において、
前記調整対象は、前記運転支援装置を搭載する自移動体の周囲に存在する物体のうち、前記透過部材領域を備える他の移動体であり、
前記自動調整部は、前記透過部材領域のうち、前記視覚センサが前記他の移動体内の運転者を検知することが可能な運転者乗車領域に対して、前記偏光フィルタを自動で調整する、運転支援装置。
In the driving support device according to claim 1,
The adjustment target is, among the objects existing around the self-moving body on which the driving support device is mounted, another moving body having the transparent member region.
The automatic adjusting unit automatically adjusts the polarizing filter with respect to the driver riding area in which the visual sensor can detect the driver in the other moving body in the transmitting member region. Support device.
請求項2記載の運転支援装置において、
前記自動調整部は、前記自移動体に備わる自己位置特定装置が特定した該自移動体の自己位置情報を用いて、前記運転者乗車領域を推定する、運転支援装置。
In the driving support device according to claim 2,
The automatic adjusting unit is a driving support device that estimates the driver's boarding area by using the self-position information of the self-moving body specified by the self-positioning device provided in the self-moving body.
請求項2又は3記載の運転支援装置において、
前記自動調整部は、前記視覚センサが前記運転者乗車領域を介して前記運転者の状況を検知することが可能となるように、前記偏光フィルタを自動で調整する、運転支援装置。
In the driving support device according to claim 2 or 3.
The automatic adjustment unit is a driving support device that automatically adjusts the polarizing filter so that the visual sensor can detect the situation of the driver via the driver's riding area.
請求項4記載の運転支援装置において、
前記運転者の状況には、少なくとも、前記運転者が自移動体を視認している状況と、前記自移動体の所定の行動に対する前記運転者の許可を意図するジェスチャ行動を行っているか否かの状況とが含まれ、
前記運転支援装置は、前記視覚センサの検知結果に基づき、前記運転者が前記自移動体を視認し、且つ、前記ジェスチャ行動を行っていることを確認した場合に、前記所定の行動を実行する運転制御部をさらに備える、運転支援装置。
In the driving support device according to claim 4,
The driver's situation includes at least a situation in which the driver is visually recognizing the self-moving body and whether or not the driver is performing a gesture action intended to permit the driver to perform a predetermined action of the self-moving body. Includes the situation and
The driving support device executes the predetermined action when it is confirmed that the driver visually recognizes the self-moving body and performs the gesture action based on the detection result of the visual sensor. A driving support device further equipped with a driving control unit.
請求項1〜5のいずれか1項に記載の運転支援装置において、
光又はミリ波を用いて前記移動体の周囲の物体を検知する検知ユニットをさらに備え、
前記自動調整部は、前記検知ユニットによる前記調整対象の検知結果に基づいて、前記透過部材領域を特定する、運転支援装置。
In the driving support device according to any one of claims 1 to 5,
Further equipped with a detection unit that detects an object around the moving body using light or millimeter waves.
The automatic adjustment unit is a driving support device that identifies the transmission member region based on the detection result of the adjustment target by the detection unit.
請求項6記載の運転支援装置において、
前記検知ユニットは、前記移動体に対する前記透過部材領域の角度を検知し、
前記自動調整部は、前記角度に基づいて、前記偏光フィルタの自動調整を行う、運転支援装置。
In the driving support device according to claim 6,
The detection unit detects the angle of the transmission member region with respect to the moving body, and detects the angle of the transmission member region.
The automatic adjustment unit is a driving support device that automatically adjusts the polarizing filter based on the angle.
請求項6又は7記載の運転支援装置において、
前記運転支援装置を搭載する自移動体の周囲に存在する物体のうち、前記透過部材領域を備える他の移動体が前記調整対象であり、前記検知ユニットが前記透過部材領域を介して前記他の移動体内の運転者を検知した場合に、前記自動調整部は、前記偏光フィルタの自動調整が不要と判断する、運転支援装置。
In the driving support device according to claim 6 or 7.
Among the objects existing around the self-moving body on which the driving support device is mounted, the other moving body having the transmissive member region is the adjustment target, and the detection unit is the other through the transmissive member region. A driving support device that determines that automatic adjustment of the polarizing filter is unnecessary when the automatic adjustment unit detects a driver in a moving body.
請求項1〜8のいずれか1項に記載の運転支援装置において、
前記運転支援装置の位置を自己位置情報として特定する自己位置特定部と、照度センサと、時計部とをさらに備え、
前記自動調整部は、前記自己位置特定部が特定した前記自己位置情報と、前記照度センサが検知した照度情報と、前記時計部が計時した現在時刻とに基づいて、前記偏光フィルタの自動調整を行う、運転支援装置。
In the driving support device according to any one of claims 1 to 8.
A self-positioning unit that specifies the position of the driving support device as self-position information, an illuminance sensor, and a clock unit are further provided.
The automatic adjustment unit automatically adjusts the polarizing filter based on the self-position information specified by the self-positioning unit, the illuminance information detected by the illuminance sensor, and the current time measured by the clock unit. Driving support device to do.
請求項1〜9のいずれか1項に記載の運転支援装置において、
前記調整対象は、前記視覚センサに対して所定の角度範囲内に存在し、且つ、前記移動体に最も近接する他の移動体である、運転支援装置。
In the driving support device according to any one of claims 1 to 9.
The adjustment target is a driving support device that exists within a predetermined angle range with respect to the visual sensor and is another moving body that is closest to the moving body.
JP2019065390A 2019-03-29 2019-03-29 Drive support device Pending JP2020166479A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019065390A JP2020166479A (en) 2019-03-29 2019-03-29 Drive support device
CN202010224592.0A CN111746399A (en) 2019-03-29 2020-03-26 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019065390A JP2020166479A (en) 2019-03-29 2019-03-29 Drive support device

Publications (1)

Publication Number Publication Date
JP2020166479A true JP2020166479A (en) 2020-10-08

Family

ID=72673168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019065390A Pending JP2020166479A (en) 2019-03-29 2019-03-29 Drive support device

Country Status (2)

Country Link
JP (1) JP2020166479A (en)
CN (1) CN111746399A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11425314B2 (en) * 2018-10-04 2022-08-23 Audi Ag Method for suppression of representations of reflections in at least one camera image of a camera of an environment sensor device of a motor vehicle and the corresponding environment sensor device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011165005A (en) * 2010-02-10 2011-08-25 Toshiba Corp Imaging apparatus and toll collection system
JP2011165004A (en) * 2010-02-10 2011-08-25 Toshiba Corp Imaging apparatus and toll collection system
US20160167648A1 (en) * 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
WO2017056401A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Control device, control method, and program
WO2017134876A1 (en) * 2016-02-05 2017-08-10 日立マクセル株式会社 Head-up display device and display control method therefor
WO2018005441A2 (en) * 2016-06-27 2018-01-04 Mobileye Vision Technologies Ltd. Controlling host vehicle based on detected parked vehicle characteristics
JP2018018389A (en) * 2016-07-29 2018-02-01 パナソニックIpマネジメント株式会社 Control device for automatic drive vehicle, and control program
JP2018030499A (en) * 2016-08-25 2018-03-01 株式会社デンソーテン Vehicle outside information providing device and vehicle outside information providing method
JP2018083610A (en) * 2016-11-22 2018-05-31 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC Method and system for determining driving by predicting vehicular traffic action of autonomous travel vehicle
JPWO2018078713A1 (en) * 2016-10-25 2019-03-07 三菱電機株式会社 Peripheral information determination device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011165005A (en) * 2010-02-10 2011-08-25 Toshiba Corp Imaging apparatus and toll collection system
JP2011165004A (en) * 2010-02-10 2011-08-25 Toshiba Corp Imaging apparatus and toll collection system
US20160167648A1 (en) * 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
WO2017056401A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Control device, control method, and program
WO2017134876A1 (en) * 2016-02-05 2017-08-10 日立マクセル株式会社 Head-up display device and display control method therefor
WO2018005441A2 (en) * 2016-06-27 2018-01-04 Mobileye Vision Technologies Ltd. Controlling host vehicle based on detected parked vehicle characteristics
JP2018018389A (en) * 2016-07-29 2018-02-01 パナソニックIpマネジメント株式会社 Control device for automatic drive vehicle, and control program
JP2018030499A (en) * 2016-08-25 2018-03-01 株式会社デンソーテン Vehicle outside information providing device and vehicle outside information providing method
JPWO2018078713A1 (en) * 2016-10-25 2019-03-07 三菱電機株式会社 Peripheral information determination device
JP2018083610A (en) * 2016-11-22 2018-05-31 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC Method and system for determining driving by predicting vehicular traffic action of autonomous travel vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11425314B2 (en) * 2018-10-04 2022-08-23 Audi Ag Method for suppression of representations of reflections in at least one camera image of a camera of an environment sensor device of a motor vehicle and the corresponding environment sensor device

Also Published As

Publication number Publication date
CN111746399A (en) 2020-10-09

Similar Documents

Publication Publication Date Title
JP6725568B2 (en) Vehicle control device, vehicle, vehicle control method, and program
JP6617534B2 (en) Driving assistance device
CN112466140B (en) Vehicle remote indication system
US20160304126A1 (en) Vehicle control device
WO2017119170A1 (en) Driving assistance device
CN110036426B (en) Control device and control method
CN111830859B (en) Vehicle remote indication system
US11505194B2 (en) Vehicle travel control method and travel control device
RU2768687C1 (en) Method of controlling movement and device for controlling movement of vehicle
CN112537295B (en) Driving assistance device
US12012095B2 (en) Vehicle and method of controlling the same
CN112309157B (en) Image display device
CN112650212A (en) Remote automatic driving vehicle and vehicle remote indicating system
KR20170076695A (en) Method for operating a driver assistance system of a motor vehicle, driver assistance system and motor vehicle
JP2020033013A (en) Drive assist system
US20220212717A1 (en) Vehicle Travel Control Method and Vehicle Travel Control Apparatus
JP6819056B2 (en) Self-driving vehicle
CN113228128B (en) Driving assistance method and driving assistance device
CN114194186A (en) Vehicle travel control device
JP2020166479A (en) Drive support device
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program
US20210261132A1 (en) Travel control apparatus, travel control method, and computer-readable storage medium storing program
JP6701913B2 (en) Vehicle control device
JP2022169056A (en) Driving support device
US10981597B2 (en) Vehicle control device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230117