JP2022182057A - Illuminance estimation device - Google Patents

Illuminance estimation device Download PDF

Info

Publication number
JP2022182057A
JP2022182057A JP2021089370A JP2021089370A JP2022182057A JP 2022182057 A JP2022182057 A JP 2022182057A JP 2021089370 A JP2021089370 A JP 2021089370A JP 2021089370 A JP2021089370 A JP 2021089370A JP 2022182057 A JP2022182057 A JP 2022182057A
Authority
JP
Japan
Prior art keywords
vehicle
illuminance
image
control unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021089370A
Other languages
Japanese (ja)
Other versions
JP7439792B2 (en
Inventor
圭吾 疋田
Keigo Hikita
孝允 大倉
Takamasa Okura
一誠 中嶋
Kazumasa Nakajima
厚実 宮地
Atsumi Miyaji
貴之 木村
Takayuki Kimura
健太朗 塩田
Kentaro Shioda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021089370A priority Critical patent/JP7439792B2/en
Priority to PCT/JP2022/017984 priority patent/WO2022249791A1/en
Publication of JP2022182057A publication Critical patent/JP2022182057A/en
Application granted granted Critical
Publication of JP7439792B2 publication Critical patent/JP7439792B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors

Abstract

To provide an illuminance estimation device which can improve estimation accuracy of illuminance.SOLUTION: An illuminance estimation device 100 comprises: cameras 101-110; a navigation system 112 or communication module 113; and an electronic control unit 115. The cameras 101-110 are mounted on an own vehicle 111 and image a region which is directly or indirectly irradiated with light of the sun 200. The navigation system 112 or the communication module 113 acquires vehicle information including at least the current position of the own vehicle 111, the current orientation of the own vehicle 111 and the current date and time. The electronic control unit 115 acquires images from the cameras 101-110 and acquires the vehicle information from the navigation system 112 or the communication module 113. The electronic control unit 115 estimates the current position of the sun 200 and illuminance around the own vehicle 111 on the basis of the images and the vehicle information.SELECTED DRAWING: Figure 1

Description

本発明は、照度推定装置に関する。 The present invention relates to an illuminance estimation device.

従来、自車の前方を撮影した画像を用いて、自車の周囲の照度を推定する装置が、例えば特許文献1で提案されている。装置は、予め撮影された学習用画像と、学習用画像が撮影された時刻と、学習用画像が撮影された時刻における車両の周囲にて計測された照度と、を学習データとして有する。すなわち、装置は、撮影した画像と、画像が撮影された時刻と、に基づいて、撮影時刻における車両の周囲の照度を学習データに基づいて推定する。 2. Description of the Related Art Conventionally, a device for estimating the illuminance around a vehicle using an image taken in front of the vehicle has been proposed, for example, in Japanese Unexamined Patent Application Publication No. 2002-100000. The device has, as learning data, a learning image captured in advance, the time when the learning image was captured, and the illuminance measured around the vehicle at the time when the learning image was captured. That is, the device estimates the illuminance around the vehicle at the time when the image was captured based on the learning data based on the captured image and the time when the image was captured.

特開2020-175743号公報JP 2020-175743 A

しかしながら、上記従来の技術では、車両の周囲の情報として前方を撮影した画像しか用いていないので、照度を推定するための情報が車両の前方の状況に偏ってしまう。このため、路面の状態、天候、太陽の位置、太陽の高さ等に基づく実際の照度と、推定される照度と、に差が生じてしまう。その結果、照度の推定の精度が低下してしまう。 However, in the conventional technology described above, since only an image of the area in front of the vehicle is used as information about the surroundings of the vehicle, the information for estimating the illuminance is biased toward the situation in front of the vehicle. Therefore, there is a difference between the actual illuminance and the estimated illuminance based on the road surface condition, weather, sun position, sun height, and the like. As a result, the accuracy of illuminance estimation decreases.

本発明は上記点に鑑み、照度の推定の精度を向上させることができる照度推定装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an illuminance estimation device capable of improving the accuracy of illuminance estimation.

上記目的を達成するため、請求項1に記載の発明では、照度推定装置は、カメラ(101~110)、通信部(112、113)、及び推定部(115)を含む。 To achieve the above object, in the first aspect of the invention, the illuminance estimation device includes cameras (101 to 110), communication units (112, 113), and an estimation unit (115).

カメラは、自車(111)に搭載されると共に、太陽(200)の光が直接的あるいは間接的に照らされる領域を撮影する。通信部は、少なくとも自車の現在の位置、自車の現在の向き、及び現在の日時を含む車両情報を取得する。 The camera is mounted on the vehicle (111) and captures an area illuminated directly or indirectly by the sun (200). The communication unit acquires vehicle information including at least the current position of the vehicle, the current orientation of the vehicle, and the current date and time.

推定部は、カメラから画像を取得すると共に、通信部から車両情報を取得し、画像及び車両情報に基づいて、現在の太陽の位置及び自車の周囲の照度を推定する。 The estimation unit acquires an image from the camera, acquires vehicle information from the communication unit, and estimates the current position of the sun and the illuminance around the vehicle based on the image and the vehicle information.

これによると、複数の情報を含む車両情報と画像とを用いて照度が推定されるので、照度を推定するための情報が自車の前方の状況に偏らない。このため、実際の照度と推定される照度との差を小さくすることができる。したがって、照度の推定の精度を向上させることができる。 According to this, since the illuminance is estimated using the vehicle information and the image containing a plurality of pieces of information, the information for estimating the illuminance is not biased toward the situation ahead of the own vehicle. Therefore, the difference between the actual illuminance and the estimated illuminance can be reduced. Therefore, the accuracy of illuminance estimation can be improved.

なお、この欄及び特許請求の範囲で記載した各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。 It should be noted that the reference numerals in parentheses of each means described in this column and claims indicate the correspondence with specific means described in the embodiments described later.

第1実施形態に係る照度推定装置を含むブロック図である。1 is a block diagram including an illuminance estimation device according to a first embodiment; FIG. 自車における各カメラの設置場所を示した模式図である。FIG. 3 is a schematic diagram showing installation locations of respective cameras in the own vehicle; 照度推定装置の作動の一例を示した図である。It is the figure which showed an example of the operation|movement of an illuminance estimation apparatus. 自車に対する現在の太陽の方向の一例を示した図である。It is the figure which showed an example of the direction of the present sun with respect to the own vehicle.

以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。 An embodiment of the present invention will be described below with reference to the drawings. In addition, in each of the following embodiments, the same or equivalent portions are denoted by the same reference numerals in the drawings.

(第1実施形態)
以下、第1実施形態について図を参照して説明する。本実施形態に係る照度推定装置は、車両に搭載されるものである。照度推定装置は、自車の周囲の照度を推定し、推定した照度に基づいてライトの点消灯の制御やエアコンの制御を決定する装置である。
(First embodiment)
A first embodiment will be described below with reference to the drawings. The illuminance estimation device according to this embodiment is mounted on a vehicle. The illuminance estimating device is a device that estimates the illuminance around the vehicle and determines control of turning on/off the lights and control of the air conditioner based on the estimated illuminance.

図1及び図2に示されるように、照度推定装置100は、ドライバ検知カメラ101、乗員検知カメラ102、レインカメラ103、前方カメラ104、複数の周辺カメラ105~108、及び電子ミラー用カメラ109、110を含む。各カメラ101~110は、自車111に搭載されると共に、太陽の光が直接的あるいは間接的に照らされる領域を撮影するための撮影装置である。 As shown in FIGS. 1 and 2, the illuminance estimation device 100 includes a driver detection camera 101, an occupant detection camera 102, a rain camera 103, a front camera 104, a plurality of peripheral cameras 105 to 108, an electronic mirror camera 109, 110 included. Each of the cameras 101 to 110 is mounted on a vehicle 111 and is a photographing device for photographing an area directly or indirectly illuminated by sunlight.

また、照度推定装置100は、ナビゲーションシステム112、通信モジュール113、温度センサ114、及び電子制御ユニット115を含む。 The illuminance estimation device 100 also includes a navigation system 112 , a communication module 113 , a temperature sensor 114 and an electronic control unit 115 .

ドライバ検知カメラ101は、自車111のドライバを撮影する。ドライバ検知カメラ101は、例えば、ドライバの顔を撮影することでドライバの居眠り、わき見、運転姿勢を監視するためのDSM(Driver Status Monitor)の一部である。DSMは、例えば、近赤外光源、ドライバ検知カメラ101、これらを制御する制御ユニット等を含む。 The driver detection camera 101 photographs the driver of the own vehicle 111 . The driver detection camera 101 is, for example, a part of a DSM (Driver Status Monitor) for monitoring the driver's doze, distraction, and driving posture by photographing the driver's face. The DSM includes, for example, a near-infrared light source, a driver detection camera 101, a control unit that controls them, and the like.

ドライバ検知カメラ101は、運転席のヘッドレスト部を撮影するように、例えばステアリングコラム部の上面やインストルメントパネルの上面等に設置される。ドライバ検知カメラ101は、近赤外光源の近赤外光が照射されたドライバの頭部を撮影する。 The driver detection camera 101 is installed, for example, on the upper surface of the steering column, the upper surface of the instrument panel, or the like so as to photograph the headrest portion of the driver's seat. The driver detection camera 101 captures an image of the driver's head irradiated with near-infrared light from a near-infrared light source.

DSMの制御ユニットは、ドライバ検知カメラ101で撮影されたドライバ画像を解析する。制御ユニットは、例えば、ドライバの右眼の位置、左眼の位置等の情報をドライバ画像から抽出し、抽出した眼球位置の情報に基づき、ドライバに音声メッセージを出す。また、DSMの制御ユニットは、電子制御ユニット115の要求に応じてドライバ画像のデータを電子制御ユニット115に出力する。 The DSM's control unit analyzes the driver image captured by the driver detection camera 101 . The control unit extracts information such as the position of the driver's right eye, the position of the left eye, etc. from the driver image, and issues a voice message to the driver based on the extracted eyeball position information. In addition, the DSM control unit outputs driver image data to the electronic control unit 115 in response to a request from the electronic control unit 115 .

乗員検知カメラ102は、自車111の室内の乗員を撮影する。乗員検知カメラ102は、例えば、自車111の室内の乗員の状態を検知する乗員検知システムの一部である。乗員検知カメラ102は、例えばルームミラーの裏側や天井等に設置される。 The occupant detection camera 102 photographs the occupants inside the vehicle 111 . The occupant detection camera 102 is, for example, part of an occupant detection system that detects the state of occupants in the interior of the vehicle 111 . The occupant detection camera 102 is installed, for example, on the back side of the room mirror or on the ceiling.

乗員には、ドライバが含まれる場合と、ドライバが含まれない場合と、の両方を含む。乗員検知カメラ102が後部座席を撮影する場合、ドライバは乗員検知カメラ102によって撮影された乗員画像に含まれない。乗員検知カメラ102が運転席や助手席が含まれるように撮影する場合、ドライバは乗員画像に含まれる。乗員検知カメラ102は、電子制御ユニット115の要求に応じて乗員画像のデータを電子制御ユニット115に出力する。 The occupant includes both the case where the driver is included and the case where the driver is not included. When the occupant detection camera 102 captures the rear seats, the driver is not included in the occupant image captured by the occupant detection camera 102 . When the occupant detection camera 102 captures images including the driver's seat and the front passenger's seat, the driver is included in the occupant image. The occupant detection camera 102 outputs occupant image data to the electronic control unit 115 in response to a request from the electronic control unit 115 .

レインカメラ103は、自車111のウィンドシールド116に付着する雨滴を撮影するレインセンサ用のカメラである。レインカメラ103は、例えばルームミラーの裏側やウィンドシールド116に設置される。レインカメラ103は、ウィンドシールド116に付着した雨滴の量に応じて自車111のワイパ装置を制御する雨滴検出装置の一部である。レインカメラ103は、電子制御ユニット115の要求に応じてレイン画像のデータを電子制御ユニット115に出力する。 The rain camera 103 is a rain sensor camera that captures raindrops adhering to the windshield 116 of the vehicle 111 . The rain camera 103 is installed, for example, behind the rearview mirror or on the windshield 116 . The rain camera 103 is part of a raindrop detection device that controls the wiper device of the own vehicle 111 according to the amount of raindrops adhering to the windshield 116 . The rain camera 103 outputs rain image data to the electronic control unit 115 in response to a request from the electronic control unit 115 .

前方カメラ104は、自車111の進行方向を基準とした自車111の前方を撮影する。前方カメラ104は、例えば、電子制御ユニット115と共に、先進運転支援システム(Advanced Driver Assistance System:ADAS)を構成する。前方カメラ104は、電子制御ユニット115の要求に応じて前方画像のデータを電子制御ユニット115に出力する。 The front camera 104 captures an image of the front of the vehicle 111 with respect to the traveling direction of the vehicle 111 . Front camera 104, for example, together with electronic control unit 115 constitutes an Advanced Driver Assistance System (ADAS). Front camera 104 outputs forward image data to electronic control unit 115 in response to a request from electronic control unit 115 .

複数の周辺カメラ105~108は、自車111の進行方向を基準として自車111の位置を俯瞰的に把握するために、自車111の周囲を撮影する。周辺カメラ105は、自車111の前方を撮影する。周辺カメラ105は、自車111のフロント部に設置される。周辺カメラ106は、自車111の後方を撮影する。周辺カメラ106は、自車111のリア部に設置される。周辺カメラ107は、自車111の左側を撮影する。周辺カメラ107は、電子ミラー用カメラ109や助手席側ドア等の自車111の左側に設置される。周辺カメラ108は、自車111の右側を撮影する。周辺カメラ108は、電子ミラー用カメラ110や運転席側ドア等の自車111の右側に設置される。 A plurality of peripheral cameras 105 to 108 capture images of the surroundings of the vehicle 111 in order to grasp the position of the vehicle 111 in a bird's-eye view with respect to the traveling direction of the vehicle 111 . Peripheral camera 105 photographs the front of own vehicle 111 . The peripheral camera 105 is installed on the front part of the own vehicle 111 . Peripheral camera 106 captures the rear of own vehicle 111 . The peripheral camera 106 is installed in the rear portion of the own vehicle 111 . Peripheral camera 107 captures the left side of own vehicle 111 . The peripheral camera 107 is installed on the left side of the own vehicle 111 such as an electronic mirror camera 109 or a front passenger side door. Peripheral camera 108 captures the right side of own vehicle 111 . The peripheral camera 108 is installed on the right side of the own vehicle 111 such as the electronic mirror camera 110 or the driver's side door.

周辺カメラ105~108は、例えば、自車111を駐停車させる際や発進させる際にドライバの視界を補助するための周辺監視システムの一部である。周辺監視システムは、各周辺カメラ105~108から各周辺画像の各データを取得し、各周辺画像を合成する等の画像処理を行う。そして、周辺監視システムは、周囲の風景を含めた俯瞰的な画像をナビゲーションシステム112のディスプレイやメータのディスプレイに表示する。また、周辺カメラ105~108は、電子制御ユニット115の要求に応じて各周辺画像の各データを電子制御ユニット115に出力する。 The peripheral cameras 105 to 108 are part of a peripheral monitoring system for assisting the driver's field of vision when, for example, the vehicle 111 is parked, stopped, or started. The surroundings monitoring system acquires each data of each surrounding image from each of the surrounding cameras 105 to 108 and performs image processing such as synthesizing each surrounding image. Then, the perimeter monitoring system displays a bird's-eye view image including the surrounding scenery on the display of the navigation system 112 or the display of the meter. Peripheral cameras 105 to 108 also output each data of each peripheral image to electronic control unit 115 in response to a request from electronic control unit 115 .

電子ミラー用カメラ109、110は、自車111の後方及び後側方を撮影する。電子ミラー用カメラ109、110は、例えば、自車111の後方及び後側方の映像を室内のドアミラー用のディスプレイに表示させる電子ミラーシステムの一部である。電子ミラー用カメラ109は、自車111のうちの左のドアミラーに対応する位置に設置される。電子ミラー用カメラ110は、自車111のうちの右のドアミラーに対応する位置に設置される。電子ミラー用カメラ109、110は、電子制御ユニット115の要求に応じて各電子ミラー用画像の各データを電子制御ユニット115に出力する。 Electronic mirror cameras 109 and 110 photograph the rear and rear sides of the vehicle 111 . The electronic mirror cameras 109 and 110 are part of an electronic mirror system that displays, for example, images of the rear and rear sides of the own vehicle 111 on indoor door mirror displays. The electronic mirror camera 109 is installed at a position corresponding to the left door mirror of the own vehicle 111 . The electronic mirror camera 110 is installed at a position corresponding to the right door mirror of the own vehicle 111 . The electronic mirror cameras 109 and 110 output each data of each electronic mirror image to the electronic control unit 115 in response to a request from the electronic control unit 115 .

ナビゲーションシステム112は、目的地へのナビゲーションを実行するための装置である。ナビゲーションシステム112は、GPS(Global Positioning System)や制御ユニット等を備える。ナビゲーションシステム112は、電子制御ユニット115の要求に応じて、少なくとも自車111の現在の位置、自車111の現在の向き、及び現在の日時を含む車両情報を電子制御ユニット115に出力する。 The navigation system 112 is a device for executing navigation to a destination. The navigation system 112 includes a GPS (Global Positioning System), a control unit, and the like. The navigation system 112 outputs vehicle information including at least the current position of the vehicle 111, the current orientation of the vehicle 111, and the current date and time to the electronic control unit 115 in response to a request from the electronic control unit 115.

通信モジュール113は、自車111に搭載されると共に自車111の周囲の通信対象との間で通信可能な装置である。通信モジュール113は、例えば、DCM(Data Communication Module)である。通信モジュール113は、LTE(Long Term Evolution)及び5G(5th Generation)等の通信規格に沿った無線通信により、自車111と周囲の通信対象との間で電波を送受信する。通信対象は、例えば、他の車両、路側装置、携帯端末、店舗が備える通信装置等である。携帯端末は、例えば、ドライバや他の乗員が携帯するスマートフォン等である。 The communication module 113 is a device mounted on the vehicle 111 and capable of communicating with communication targets around the vehicle 111 . The communication module 113 is, for example, a DCM (Data Communication Module). The communication module 113 transmits and receives radio waves between the own vehicle 111 and surrounding communication targets by wireless communication conforming to communication standards such as LTE (Long Term Evolution) and 5G (5th Generation). The communication target is, for example, another vehicle, a roadside device, a mobile terminal, a communication device provided in a store, or the like. The mobile terminal is, for example, a smart phone or the like carried by the driver or other passengers.

自車111は、通信モジュール113により、インターネットに接続されたコネクテッドカーとなる。通信モジュール113は、クラウドに設けられたサーバから、自車111が走行する道路の最新の高精度地図データ等を取得する。通信モジュール113は、電子制御ユニット115の要求に応じて、少なくとも自車111の現在の位置、自車111の現在の向き、及び現在の日時を含む車両情報を電子制御ユニット115に出力する。 The own vehicle 111 becomes a connected car connected to the Internet by the communication module 113 . The communication module 113 acquires the latest high-definition map data and the like of the road on which the vehicle 111 travels from a server provided in the cloud. The communication module 113 outputs vehicle information including at least the current position of the vehicle 111, the current orientation of the vehicle 111, and the current date and time to the electronic control unit 115 in response to a request from the electronic control unit 115.

温度センサ114は、自車111のウィンドシールド116の温度を測定する。温度センサ114は、例えばルームミラーの裏側等に設置される。温度センサ114は、電子制御ユニット115の要求に応じて、ウィンドシールド116の温度のデータを電子制御ユニット115に出力する。なお、温度センサ114は、例えば雨滴検出装置に内蔵されていても良い。 Temperature sensor 114 measures the temperature of windshield 116 of host vehicle 111 . The temperature sensor 114 is installed, for example, on the back side of the room mirror. The temperature sensor 114 outputs temperature data of the windshield 116 to the electronic control unit 115 in response to a request from the electronic control unit 115 . Note that the temperature sensor 114 may be incorporated in, for example, a raindrop detection device.

電子制御ユニット115は、照度推定機能、ライトセンサ機能、及び日射センサ機能を有する装置である。電子制御ユニット115は、ECU(Electronic Control Unit)である。電子制御ユニット115は、各カメラ101~110から各画像を取得すると共に、ナビゲーションシステム112または通信モジュール113から車両情報を取得する。 The electronic control unit 115 is a device having an illuminance estimation function, a light sensor function, and a solar radiation sensor function. The electronic control unit 115 is an ECU (Electronic Control Unit). The electronic control unit 115 acquires each image from each camera 101 to 110 and also acquires vehicle information from the navigation system 112 or communication module 113 .

照度推定機能は、電子制御ユニット115が、各画像及び車両情報に基づいて、現在の太陽の位置及び自車111の周囲の照度を推定する機能である。電子制御ユニット115は、画像の画素値と照度との相関関係のデータを有する。画素値は、各画素の色の濃淡や明るさを表す。電子制御ユニット115は、画像処理によって画素値を取得すると共に、自車111に関する車両情報を用いて画素値を調整する。 The illuminance estimation function is a function in which the electronic control unit 115 estimates the current position of the sun and the illuminance around the vehicle 111 based on each image and vehicle information. The electronic control unit 115 has data of correlations between image pixel values and illuminance. The pixel value represents the color density and brightness of each pixel. The electronic control unit 115 acquires pixel values through image processing, and adjusts the pixel values using vehicle information about the own vehicle 111 .

すなわち、電子制御ユニット115は、現在の日時、自車111の位置や向き、現在の太陽の位置に応じて太陽の光がどのように自車111に照らされているのか、という情報を、画素値に反映させる。そして、電子制御ユニット115は、取得した画像値に対応する照度を取得することで、照度を推定する。さらに、電子制御ユニット115は、ウィンドシールド116の温度等の情報を用いて、推定した照度を補正する。 That is, the electronic control unit 115 stores information such as the current date and time, the position and orientation of the vehicle 111, and how the vehicle 111 is illuminated by the sun according to the current position of the sun. reflected in the value. Then, the electronic control unit 115 acquires the illuminance corresponding to the acquired image value, thereby estimating the illuminance. Furthermore, the electronic control unit 115 uses information such as the temperature of the windshield 116 to correct the estimated illuminance.

ライトセンサ機能は、電子制御ユニット115が、複数の画像、車両情報、及び推定した照度に基づいて、自車111のライトの点消灯の制御を決定する機能である。つまり、電子制御ユニット115は、ライトの点灯または消灯を判定する。電子制御ユニット115は、ライトの制御内容を含んだライト信号を生成する。電子制御ユニット115は、ライト信号をボデーECU117に出力する。ボデーECU117は、電子制御ユニット115から入力するライト信号の制御内容に従って自車111のライトの点消灯を制御する。 The light sensor function is a function in which the electronic control unit 115 determines control of turning on/off the lights of the own vehicle 111 based on a plurality of images, vehicle information, and estimated illuminance. That is, the electronic control unit 115 determines whether the light is on or off. The electronic control unit 115 generates a light signal containing the content of light control. Electronic control unit 115 outputs a light signal to body ECU 117 . The body ECU 117 controls turning on/off of the lights of the own vehicle 111 according to the control contents of the light signal input from the electronic control unit 115 .

日射センサ機能は、電子制御ユニット115が、複数の画像、車両情報、及び推定した照度に基づいて、自車111の空調装置の制御を決定する機能である。電子制御ユニット115は、取得した画像に表される被写体の明るさに基づいて、自車111の周囲の日射量や、自車111を基準とした現在の太陽の位置を推定する。また、電子制御ユニット115は、日射量や現在の太陽の位置に基づいて、吹き出し風量や室内温度等の車室内空調の制御を決定する。 The solar radiation sensor function is a function in which the electronic control unit 115 determines control of the air conditioner of the own vehicle 111 based on a plurality of images, vehicle information, and estimated illuminance. The electronic control unit 115 estimates the amount of solar radiation around the vehicle 111 and the current position of the sun with respect to the vehicle 111 based on the brightness of the subject represented in the acquired image. In addition, the electronic control unit 115 determines control of vehicle interior air conditioning, such as blowing air volume and interior temperature, based on the amount of solar radiation and the current position of the sun.

電子制御ユニット115は、エアコンの制御内容を含んだ日射信号を生成する。あるいは、電子制御ユニット115は、エアコンの制御内容を含まない日射信号を生成する。電子制御ユニット115は、日射信号をエアコンECU118に出力する。 The electronic control unit 115 generates a solar radiation signal that includes control details for the air conditioner. Alternatively, the electronic control unit 115 generates a solar radiation signal that does not include air conditioner control content. Electronic control unit 115 outputs a solar radiation signal to air conditioner ECU 118 .

エアコンECU118は、電子制御ユニット115から入力する日射信号の制御内容に従って自車111のエアコンを制御する。あるいは、エアコンECU118は、日射信号を利用して自車111のエアコンを制御する。 The air conditioner ECU 118 controls the air conditioner of the own vehicle 111 according to the control contents of the solar radiation signal input from the electronic control unit 115 . Alternatively, the air conditioner ECU 118 controls the air conditioner of the own vehicle 111 using the solar radiation signal.

また、電子制御ユニット115は、ドライバの運転を支援する制御を行う先進運転支援システムの一部である。このため、電子制御ユニット115は、前方カメラ104の前方画像の画像処理を行うことにより、自車111の周囲の状況を検出する。電子制御ユニット115は、車速センサ、ステアリングセンサ、アクセルセンサ等の各センサの情報を入力する。電子制御ユニット115は、各センサの情報をボデーECU117から取得しても良いし、各センサから直接取得しても良い。電子制御ユニット115は、ナビゲーションシステム112や通信モジュール113から取得した車両情報を自車111の制御に利用する。 Also, the electronic control unit 115 is part of an advanced driving assistance system that performs control to assist the driving of the driver. Therefore, the electronic control unit 115 detects the situation around the vehicle 111 by performing image processing on the front image of the front camera 104 . The electronic control unit 115 receives information from sensors such as a vehicle speed sensor, a steering sensor, and an accelerator sensor. The electronic control unit 115 may acquire the information of each sensor from the body ECU 117 or directly from each sensor. The electronic control unit 115 uses vehicle information acquired from the navigation system 112 and the communication module 113 for controlling the own vehicle 111 .

電子制御ユニット115は、前方画像の画像処理の結果及び各センサの情報に基づいて、自車111の運転状況を把握すると共に、自車111が周囲の物体と接触することを防止、軽減する制御を実行する。例えば、電子制御ユニット115は、車両前方の物体との接触を回避あるいは軽減するためにブレーキを動作させたり、ステアリングを動作させたりすることが必要であると判定すると、急ハンドル予告信号や急ブレーキ予告信号をボデーECU117に出力する。ボデーECU117は、電子制御ユニット115の各信号に基づいてドライバに自車111の周囲の状況を伝えたり、自車111の動作を制御したりする。以上が、照度推定装置100の全体構成である。 The electronic control unit 115 grasps the driving situation of the own vehicle 111 based on the result of image processing of the forward image and the information of each sensor, and controls to prevent or reduce the collision of the own vehicle 111 with surrounding objects. to run. For example, when the electronic control unit 115 determines that it is necessary to brake or steer the vehicle in order to avoid or reduce contact with an object in front of the vehicle, a sudden steering warning signal or a sudden braking signal is issued. A warning signal is output to the body ECU 117 . The body ECU 117 informs the driver of the surrounding conditions of the vehicle 111 and controls the operation of the vehicle 111 based on each signal of the electronic control unit 115 . The above is the overall configuration of the illuminance estimation device 100 .

次に、照度推定装置100の作動について説明する。照度推定装置100は、予め設定されたプログラムに従って、照度を推定する。一つの例として、電子制御ユニット115は、各カメラ101~110から各画像を取得すると共に、各画像のうちの前方画像を用いて晴天時の照度を推定する場合について説明する。 Next, the operation of the illuminance estimation device 100 will be described. Illuminance estimation apparatus 100 estimates illuminance according to a preset program. As an example, the electronic control unit 115 acquires each image from each of the cameras 101 to 110, and uses the front image of each image to estimate the illuminance in fine weather.

図3に示されるように、電子制御ユニット115は、前方カメラ104から前方画像を取得すると共に、ナビゲーションシステム112から車両情報を取得する。電子制御ユニット115は、通信モジュール113から車両情報を取得しても良い。 As shown in FIG. 3 , electronic control unit 115 acquires a forward image from front camera 104 and vehicle information from navigation system 112 . Electronic control unit 115 may obtain vehicle information from communication module 113 .

そして、電子制御ユニット115は、前方画像及び車両情報に基づいて、現在の太陽の位置を取得する。現在の太陽の位置は、自車111を基準とした太陽の方位角及び仰角である。仰角から太陽の高さを推定できる。 The electronic control unit 115 then obtains the current sun position based on the forward image and vehicle information. The current position of the sun is the azimuth and elevation of the sun relative to the vehicle 111 . You can estimate the height of the sun from the elevation angle.

例えば、前方画像に太陽が写っている場合、電子制御ユニット115は、前方画像の中の太陽の位置から、自車111を基準とした現在の太陽の位置を容易に推定することができる。一方、前方画像に太陽が写っていない場合、電子制御ユニット115は、前方画像のうちの空領域に対応する空検知範囲の水平方向の輝度値のピークから方向角を推定する。また、電子制御ユニット115は、車両情報に含まれる緯度、経度、日時、自車111の向きの情報から仰角を推定する。 For example, when the sun appears in the front image, the electronic control unit 115 can easily estimate the current position of the sun relative to the vehicle 111 from the position of the sun in the front image. On the other hand, when the sun is not shown in the forward image, the electronic control unit 115 estimates the directional angle from the peak of the luminance value in the horizontal direction of the sky detection range corresponding to the sky area in the forward image. In addition, the electronic control unit 115 estimates the elevation angle from information on the latitude, longitude, date and time, and the orientation of the own vehicle 111 included in the vehicle information.

なお、電子制御ユニット115は、車両情報に含まれる緯度、経度、日時、自車111の向きの各情報に基づいて、現在の太陽の位置を推定しても良い。また、電子制御ユニット115は、現在の太陽の位置を推定する際に、エアコン制御のために、前方画像の画素値に基づいて、日射量を推定しても良い。さらに、複数の周辺画像や電子ミラー用画像に表される被写体の明るさに基づいて、自車111の周囲の日射量や、自車111を基準とした現在の太陽の位置を推定しても良い。 The electronic control unit 115 may estimate the current position of the sun based on the latitude, longitude, date and time, and orientation of the vehicle 111 included in the vehicle information. Further, when estimating the current position of the sun, the electronic control unit 115 may estimate the amount of solar radiation for air conditioner control based on the pixel values of the forward image. Furthermore, based on the brightness of the subject represented by a plurality of peripheral images and electronic mirror images, the amount of solar radiation around the vehicle 111 and the current position of the sun relative to the vehicle 111 can be estimated. good.

この後、電子制御ユニット115は、前方画像の画素値に各情報を反映させ、画素値と照度との相関関係のデータを用いて、晴天時の照度を推定する。なお、レイン画像、各周辺画像、電子ミラー用画像を用いて晴天時の照度を推定しても良い。 After that, the electronic control unit 115 reflects each piece of information on the pixel values of the front image, and uses the data of the correlation between the pixel values and the illuminance to estimate the illuminance in fine weather. Note that the illuminance in fine weather may be estimated using the rain image, each peripheral image, and the electronic mirror image.

さらに、電子制御ユニット115は、推定した照度を補正する。照度の補正は必須ではないが、照度を補正することにより、推定した照度の精度を向上させることができる。例えば、照度補正パラメータとして、前方画像に表される被写体の輝度値を用いることができる。 Further, the electronic control unit 115 corrects the estimated illuminance. Correcting the illuminance is not essential, but correcting the illuminance can improve the accuracy of the estimated illuminance. For example, the brightness value of the subject represented in the forward image can be used as the illumination correction parameter.

具体的には、電子制御ユニット115は、前方画像に表される被写体の中から路面または空の領域を判定する。領域判定は、例えばセマンティックセグメンテーションを用いた手法によって行われる。セマンティックセグメンテーションは、前方画像内の全画素にラベルやカテゴリを関連付けるディープラーニングのアルゴリズムである。電子制御ユニット115は、路面、空の領域、歩行者、建物、トンネル、橋げた等の被写体について学習済みのDNN(Deep Neural Network)を有する。したがって、電子制御ユニット115は、学習済みのDNNを辞書として、電子制御ユニット115は、前方画像に表される被写体の中から、路面、空の領域、歩行者、建物、トンネル、及び橋げた等の領域判定を行う。 Specifically, the electronic control unit 115 determines the road surface or sky area in the subject represented in the forward image. Region determination is performed, for example, by a technique using semantic segmentation. Semantic segmentation is a deep learning algorithm that associates a label or category with every pixel in the forward image. The electronic control unit 115 has a DNN (Deep Neural Network) that has already learned objects such as road surfaces, sky areas, pedestrians, buildings, tunnels, and bridge girders. Therefore, the electronic control unit 115 uses the learned DNN as a dictionary, and the electronic control unit 115 selects road surfaces, sky areas, pedestrians, buildings, tunnels, bridge girders, etc., from among subjects represented in the forward image. Perform area judgment.

電子制御ユニット115は、被写体の中に路面、空の領域、歩行者、建物、トンネル、橋げた等が含まれる場合、これらの輝度値の合計値を取得する。または、電子制御ユニット115は、これらの輝度値の平均値を取得する。輝度値は、被写体の明るさに対応する。例えば、電子制御ユニット115は、路面の輝度値の合計値または平均値を取得する。あるいは、電子制御ユニット115は、被写体の中の2つ以上の対象の輝度値の合計値または平均値を取得しても良い。電子制御ユニット115は、取得した輝度値の合計値または平均値に基づいて、推定した照度を補正する。 The electronic control unit 115 acquires the sum of the luminance values when the subject includes a road surface, an empty area, a pedestrian, a building, a tunnel, a bridge girder, or the like. Alternatively, electronic control unit 115 obtains an average value of these brightness values. The luminance value corresponds to the brightness of the subject. For example, the electronic control unit 115 acquires the sum or average of the luminance values of the road surface. Alternatively, the electronic control unit 115 may obtain the sum or average of the brightness values of two or more objects in the object. The electronic control unit 115 corrects the estimated illuminance based on the acquired sum or average of the luminance values.

なお、電子制御ユニット115は、輝度値の合計値または平均値と閾値との比較に基づいて、自車111のライトの点消灯の制御を決定しても良い。 Note that the electronic control unit 115 may decide to turn on/off the lights of the vehicle 111 based on a comparison between the total value or average value of the luminance values and a threshold value.

別の照度補正パラメータとして、現在の太陽の方向を用いることができる。現在の太陽の方向は、現在の太陽の位置とは異なり、自車111に対してどの方向から太陽の光が照らされるのか、という日差しの方向に対応する。 Another illumination correction parameter can be the current sun direction. The current direction of the sun is different from the current position of the sun, and corresponds to the direction of sunlight from which direction the vehicle 111 is illuminated by the sun.

例えば、図4に示されるように、太陽200の光が自車111の右斜め前から車室内に照らされる場合がある。この場合、太陽200の光がドライバ、その他の乗員、座席の被写体に照らされる部分は明るくなり、太陽200の光が照らされない部分は暗くなる。このような明るさの分布を判定することで、自車111を基準とした現在の太陽200の方向を推定することができる。 For example, as shown in FIG. 4, the light of the sun 200 may illuminate the interior of the vehicle from the front right of the vehicle 111 obliquely. In this case, the part where the light of the sun 200 illuminates the driver, other passengers, and the subject of the seat becomes bright, and the part where the light of the sun 200 does not illuminate becomes dark. By determining such a brightness distribution, the current direction of the sun 200 with respect to the vehicle 111 can be estimated.

電子制御ユニット115は現在の太陽200の方向を推定するために、まず、ドライバ検知カメラ101のドライバ画像及び乗員検知カメラ102の乗員画像を取得する。続いて、電子制御ユニット115は、ドライバ画像及び乗員画像の中からドライバや他の乗員の顔を検出する。 In order to estimate the current direction of the sun 200 , the electronic control unit 115 first acquires the driver image from the driver detection camera 101 and the passenger image from the passenger detection camera 102 . Subsequently, the electronic control unit 115 detects the faces of the driver and other passengers from the driver image and the passenger image.

この後、電子制御ユニット115は、顔の輝度分布を取得する。これにより、顔のどの部分が明るいのか、また、どの部分が暗いのかがわかる。そして、電子制御ユニット115は、取得した顔の輝度分布に基づいて、現在の太陽200の方向を推定する。すなわち、自車111に対する太陽200の日差しの方向を取得する。さらに、電子制御ユニット115は、取得した現在の太陽200の方向に基づいて、推定した照度を補正する。 After this, the electronic control unit 115 acquires the brightness distribution of the face. This makes it possible to see which parts of the face are bright and which parts are dark. Then, the electronic control unit 115 estimates the current direction of the sun 200 based on the acquired luminance distribution of the face. That is, the direction of sunlight of the sun 200 with respect to the own vehicle 111 is acquired. Further, the electronic control unit 115 corrects the estimated illuminance based on the obtained current direction of the sun 200 .

なお、電子制御ユニット115は、ドライバを含む乗員以外の場所の輝度分布を取得することで現在の太陽200の方向を推定しても良い。また、電子制御ユニット115は、ドライバ画像及び乗員画像の両方ではなく、いずれか一方を用いて現在の太陽200の方向を推定しても良い。 It should be noted that the electronic control unit 115 may estimate the current direction of the sun 200 by acquiring the luminance distribution of places other than the occupants including the driver. Also, the electronic control unit 115 may estimate the current direction of the sun 200 using either the driver image or the passenger image instead of both.

別の照度補正パラメータとして、自車111のウィンドシールド116の温度の情報を用いることができる。電子制御ユニット115は、画像の中の被写体の明るさを取得することはできるが、熱量を取得することは難しい。そこで、電子制御ユニット115は、温度センサ114から温度の情報を取得する。これにより、太陽200からどれだけ照らされているのか、という熱の情報を得ることができる。よって、電子制御ユニット115は、ウィンドシールド116の温度の値に応じて、推定した照度を補正する。 Information on the temperature of the windshield 116 of the vehicle 111 can be used as another illuminance correction parameter. The electronic control unit 115 can acquire the brightness of the subject in the image, but it is difficult to acquire the amount of heat. Therefore, the electronic control unit 115 acquires temperature information from the temperature sensor 114 . As a result, it is possible to obtain heat information about how much light is emitted from the sun 200 . Therefore, the electronic control unit 115 corrects the estimated illuminance according to the temperature value of the windshield 116 .

なお、熱量の情報として、先行車の色の情報を用いても良い。先行車の色と先行車の明るさとの関係から、太陽200からどれだけ照らされているのかという情報が得られる。電子制御ユニット115は、前方画像、レイン画像、自車111の前方が撮影された周辺画像のいずれかを取得し、画像に表される被写体の中から先行車を判定する。そして、電子制御ユニット115は、先行車の色に基づいて、推定した照度を補正する。あるいは、電子制御ユニット115は、ウィンドシールド116の温度の情報及び先行車の色の両方に基づいて、推定した照度を補正しても良い。先行車が画像に写っていない場合、電子制御ユニット115は、先行車の色に基づく照度の補正を行わない。 Information on the color of the preceding vehicle may be used as information on the amount of heat. From the relationship between the color of the preceding vehicle and the brightness of the preceding vehicle, information about how much the sun 200 is shining can be obtained. The electronic control unit 115 acquires any one of a front image, a rain image, and a peripheral image in which the front of the vehicle 111 is captured, and determines the preceding vehicle from among the subjects represented in the image. Then, the electronic control unit 115 corrects the estimated illuminance based on the color of the preceding vehicle. Alternatively, the electronic control unit 115 may correct the estimated illuminance based on both windshield 116 temperature information and the color of the preceding vehicle. If the preceding vehicle is not shown in the image, the electronic control unit 115 does not correct the illuminance based on the color of the preceding vehicle.

さらに、別の照度補正パラメータとして、現在の天気や季節等の気象情報を用いることができる。電子制御ユニット115は、車両情報に雨や曇り等の現在の天気情報が含まれる場合、日時に対応した季節及び天気情報に基づいて、推定した照度を補正する。 Furthermore, weather information such as the current weather and season can be used as another illuminance correction parameter. If the vehicle information includes current weather information such as rain or cloudiness, the electronic control unit 115 corrects the estimated illuminance based on the season and weather information corresponding to the date and time.

さらに、別の照度補正パラメータとして、自車111の傾きや路面の凹凸の情報を用いることができる。自車111の周囲に対する太陽200の光の照らされ方は、自車111の傾きや路面の凹凸によって変化するためである。自車111の傾きや路面の凹凸は、傾斜センサ、ハイトセンサ、加速度センサ等によって検出される。電子制御ユニット115は、自車111の傾きや路面の凹凸の情報を各センサから取得し、これらの情報に基づいて推定した照度を補正する。 Furthermore, information on the tilt of the vehicle 111 and road surface unevenness can be used as another illuminance correction parameter. This is because the way the sun 200 illuminates the surroundings of the vehicle 111 changes depending on the inclination of the vehicle 111 and the unevenness of the road surface. The inclination of the own vehicle 111 and the unevenness of the road surface are detected by an inclination sensor, a height sensor, an acceleration sensor, or the like. The electronic control unit 115 acquires information about the inclination of the own vehicle 111 and road unevenness from each sensor, and corrects the estimated illuminance based on this information.

そして、電子制御ユニット115は、推定した照度あるいは補正した照度と閾値との比較に基づいて、自車111のライトの点消灯の制御を決定する。電子制御ユニット115は、ライトの制御内容を含んだライト信号をボデーECU117に出力する。これにより、ボデーECU117は、自車111のライトの点消灯を制御する。また、電子制御ユニット115は、吹き出し風量や室内温度等のエアコン制御を決定する。電子制御ユニット115は、エアコンの制御内容を含んだ日射信号をエアコンECU118に出力する。これにより、エアコンECU118は、自車111のエアコンを制御する。 Then, the electronic control unit 115 determines control of turning on/off the lights of the vehicle 111 based on the comparison between the estimated illuminance or the corrected illuminance and the threshold. The electronic control unit 115 outputs a light signal including details of light control to the body ECU 117 . Thereby, the body ECU 117 controls turning on/off of the lights of the own vehicle 111 . Further, the electronic control unit 115 determines air conditioner control such as blowing air volume and room temperature. The electronic control unit 115 outputs a solar radiation signal including control contents of the air conditioner to the air conditioner ECU 118 . Accordingly, the air conditioner ECU 118 controls the air conditioner of the vehicle 111 .

以上説明したように、本実施形態では、複数の情報を含む車両情報と画像とを用いて自車111の周囲の照度が推定される。このため、照度を推定するための情報が自車111における一方向の状況に偏らないようにすることができる。このため、自車111の周囲の実際の照度と、推定される照度と、の差が小さくなるので、照度の推定の精度を向上させることができる。また、推定した照度を補正しているので、照度の推定の精度をさらに向上させることができる。 As described above, in this embodiment, the illuminance around the host vehicle 111 is estimated using vehicle information and an image including a plurality of pieces of information. Therefore, the information for estimating the illuminance can be prevented from biasing the situation of the vehicle 111 in one direction. Therefore, the difference between the actual illuminance around the vehicle 111 and the estimated illuminance becomes small, so that the accuracy of illuminance estimation can be improved. In addition, since the estimated illuminance is corrected, the accuracy of illuminance estimation can be further improved.

なお、本実施形態の記載と特許請求の範囲の記載との対応関係については、ナビゲーションシステム112及び通信モジュール113が特許請求の範囲の「通信部」に対応する。また、電子制御ユニット115が特許請求の範囲の「推定部」に対応する。 Regarding the correspondence relationship between the description of this embodiment and the description of the scope of claims, the navigation system 112 and the communication module 113 correspond to the "communication unit" of the scope of claims. Also, the electronic control unit 115 corresponds to the "estimating section" in the claims.

(第2実施形態)
本実施形態では、主に第1実施形態と異なる部分について説明する。本実施形態では、電子制御ユニット115は、自車111の車体の色及び車体の明るさに基づいて、自車111の周囲の照度を推定する。あるいは、電子制御ユニット115は、自車111の車体の色及び車体の明るさに基づいて、推定した照度を補正する。電子制御ユニット115は、照度を補正する場合、車体の色及び車体の明るさ以外の情報に基づいて推定した照度を補正する。
(Second embodiment)
In this embodiment, mainly different parts from the first embodiment will be explained. In this embodiment, the electronic control unit 115 estimates the illuminance around the vehicle 111 based on the color and brightness of the vehicle body of the vehicle 111 . Alternatively, the electronic control unit 115 corrects the estimated illuminance based on the color and brightness of the body of the vehicle 111 . When correcting the illuminance, the electronic control unit 115 corrects the illuminance estimated based on information other than the color of the vehicle body and the brightness of the vehicle body.

電子制御ユニット115は、車体の色及び車体の画素値と照度との相関関係のデータを有する。電子制御ユニット115は、少なくとも自車111の車体の一部が撮影された画像を用いる。例えば、前方画像、レイン画像、各周辺画像、電子ミラー用画像のいずれかを用いる。これにより、第1実施形態と同様の効果が得られる。 The electronic control unit 115 has data on the correlation between the color of the vehicle body and the pixel value of the vehicle body and the illuminance. The electronic control unit 115 uses an image in which at least a part of the vehicle body of the own vehicle 111 is captured. For example, any one of the front image, the rain image, each peripheral image, and the electronic mirror image is used. As a result, the same effects as in the first embodiment can be obtained.

(第3実施形態)
本実施形態では、主に第1、第2実施形態と異なる部分について説明する。本実施形態では、各カメラ101~110は、各画像として、露光時間を変更した複数の画像を撮影する。また、電子制御ユニット115は、各カメラ101~110から露光時間が変更された複数の画像を取得し、露光時間が変更された複数の画像及び車両情報に基づいて、照度を推定する。
(Third embodiment)
In this embodiment, mainly different parts from the first and second embodiments will be explained. In this embodiment, each of the cameras 101 to 110 captures a plurality of images with different exposure times. Further, the electronic control unit 115 acquires a plurality of images with different exposure times from each of the cameras 101 to 110, and estimates the illuminance based on the plurality of images with different exposure times and the vehicle information.

これにより、電子制御ユニット115が取得する画像のダイナミックレンジを確保することができる。このため、画像の白飛びや黒つぶれを抑制することができる。また、例えば、0[lx]~5万[lx]の範囲の照度を推定することができる。これにより、第1実施形態と同様の効果が得られる。 Thereby, the dynamic range of the image acquired by the electronic control unit 115 can be ensured. Therefore, it is possible to suppress blown-out highlights and blocked-up shadows in an image. Also, for example, the illuminance in the range of 0 [lx] to 50,000 [lx] can be estimated. As a result, the same effects as in the first embodiment can be obtained.

なお、各カメラ101~110の全てがダイナミックレンジに対応していなくても良い。照度推定のために用いる画像を撮影するカメラを、ダイナミックレンジに対応させれば良い。例えば、前方画像を照度推定のために用いる場合、前方カメラ104をダイナミックレンジに対応させる。 Note that not all of the cameras 101 to 110 need support the dynamic range. A camera that captures images used for illuminance estimation should be adapted to the dynamic range. For example, if the front image is used for illuminance estimation, the front camera 104 is dynamic range compliant.

(第4実施形態)
本実施形態では、主に第1~第3実施形態と異なる部分について説明する。本実施形態では、電子制御ユニット115は、取得した画像に表される被写体の中から路面または空の領域を判定する。このため、電子制御ユニット115は、少なくとも路面または空の領域が撮影された画像を用いる。例えば、前方画像、レイン画像、自車111の前方が撮影された周辺画像のいずれかを用いる。
(Fourth embodiment)
In this embodiment, mainly different parts from the first to third embodiments will be explained. In this embodiment, the electronic control unit 115 determines the road surface or sky area from among the objects represented in the acquired image. For this reason, the electronic control unit 115 uses an image in which at least the road surface or the sky area is captured. For example, any one of a front image, a rain image, and a peripheral image in which the front of the vehicle 111 is captured is used.

電子制御ユニット115は、第1実施形態と同様に、セマンティックセグメンテーションを用いた手法によって、前方画像に含まれる路面、空の領域、歩行者、建物、トンネル、橋げた等を認識する。 As in the first embodiment, the electronic control unit 115 recognizes road surfaces, sky areas, pedestrians, buildings, tunnels, bridge girders, etc. included in the forward image by a method using semantic segmentation.

電子制御ユニット115は、路面または空の領域の画素値の合計値と照度との相関関係のデータ、あるいは、路面または空の領域の画素値の平均値と照度との相関関係のデータを有する。そして、電子制御ユニット115は、路面または空の領域の画素値の合計値に基づいて、照度を推定する。または、電子制御ユニット115は、路面または空の領域の画素値の平均値に基づいて、照度を推定する。これにより、第1実施形態と同様の効果が得られる。 The electronic control unit 115 has data on the correlation between the total pixel value of the road surface or the sky area and the illuminance, or the correlation data between the average pixel value of the road surface or the sky area and the illuminance. The electronic control unit 115 then estimates the illuminance based on the sum of the pixel values of the road surface or sky area. Alternatively, the electronic control unit 115 estimates the illuminance based on the average value of the pixel values of the road surface or sky area. As a result, the same effects as in the first embodiment can be obtained.

(第5実施形態)
本実施形態では、主に第1~第4実施形態と異なる部分について説明する。本実施形態では、電子制御ユニット115は、照度を推定するために用いる画像から一部を切り出し、切り出した画像に基づいて、照度を推定する。
(Fifth embodiment)
In this embodiment, mainly different parts from the first to fourth embodiments will be explained. In this embodiment, the electronic control unit 115 cuts out a part of the image used for estimating the illuminance, and estimates the illuminance based on the cut out image.

撮影画角が予め分かっているので、画像のどの領域に空が位置するのかを予め把握することができる。したがって、電子制御ユニット115は、前方画像やレイン画像の中から空の領域が含まれる部分を切り出す。言い換えると、電子制御ユニット115は画像の画角を絞る。切り取った画像は元の画像よりも範囲が狭いので、画像処理の演算量を低減させることができる。 Since the shooting angle of view is known in advance, it is possible to grasp in advance in which region of the image the sky is located. Therefore, the electronic control unit 115 cuts out the part including the sky area from the forward image and the rain image. In other words, electronic control unit 115 narrows the angle of view of the image. Since the cropped image has a narrower range than the original image, the amount of computation for image processing can be reduced.

なお、照度推定のために用いる画像を撮影するカメラが、画像から一部を切り出し、切り出した画像を電子制御ユニット115に出力しても良い。これにより、画像処理の負荷だけでなく、通信量及び通信負荷を低減させることもできる。 Note that the camera that captures the image used for illuminance estimation may cut out a part of the image and output the cut out image to the electronic control unit 115 . This makes it possible to reduce not only the image processing load but also the amount of communication and the communication load.

(第6実施形態)
本実施形態では、主に第1実施形態と異なる部分について説明する。照度は短時間で変化しないので、毎フレーム毎の判定が不要である。そこで、本実施形態では、各カメラ101~110は、撮影した画像のデータを一定時間毎に電子制御ユニット115に出力する。例えば、各カメラ101~110は、0.1秒~2秒の間隔で画像のデータを出力する。
(Sixth embodiment)
In this embodiment, mainly different parts from the first embodiment will be explained. Since the illuminance does not change in a short period of time, it is not necessary to make determinations for each frame. Therefore, in the present embodiment, each of the cameras 101 to 110 outputs data of captured images to the electronic control unit 115 at regular intervals. For example, each camera 101 to 110 outputs image data at intervals of 0.1 to 2 seconds.

なお、各カメラ101~110の全てが、画像のデータを一定時間毎に出力しなくても良い。例えば、前方画像を照度推定のために用いる場合、前方カメラ104の前方画像のデータを一定時間毎に出力すれば良い。 Note that all of the cameras 101 to 110 do not have to output image data at regular intervals. For example, when the front image is used for illuminance estimation, the data of the front image of the front camera 104 may be output at regular time intervals.

そして、電子制御ユニット115は、一定時間毎に取得する画像に基づき、照度を推定する。これにより、各カメラ101~110の通信量を低減させることができる。また、電子制御ユニット115の通信量、通信負荷、及び画像処理の演算量を低減させることができる。 Then, the electronic control unit 115 estimates the illuminance based on the images acquired at regular time intervals. As a result, the amount of communication for each camera 101-110 can be reduced. In addition, it is possible to reduce the amount of communication, the communication load, and the amount of calculation for image processing of the electronic control unit 115 .

(他の実施形態)
上記各実施形態で示された照度推定装置100の構成は一例であり、上記で示した構成に限定されることなく、本発明を実現できる他の構成とすることもできる。例えば、電子ミラー用カメラ109、110には、ルームミラー用のカメラが含まれていても良い。
(Other embodiments)
The configuration of the illuminance estimation device 100 shown in each of the above embodiments is an example, and the configuration is not limited to the configuration shown above, and other configurations that can realize the present invention can also be adopted. For example, the electronic mirror cameras 109 and 110 may include rearview mirror cameras.

また、照度推定装置100は、先進運転支援システムの一部として説明したが、各カメラ101~110や電子制御ユニット115は照度推定装置100の専用品であっても構わない。また、各カメラ101~110の全てを備える必要はなく、照度推定のために必要なカメラを備えていれば良い。 Further, although the illuminance estimation device 100 has been described as a part of the advanced driving support system, the cameras 101 to 110 and the electronic control unit 115 may be dedicated to the illuminance estimation device 100. FIG. Further, it is not necessary to have all of the cameras 101 to 110, and it is sufficient to have cameras necessary for illuminance estimation.

100 照度推定装置
101~110 カメラ
111 自車
112 ナビゲーションシステム(通信部)
113 通信モジュール(通信部)
114 温度センサ
115 電子制御ユニット(推定部)
116 ウィンドシールド
200 太陽
100 illumination estimation device 101 to 110 camera 111 vehicle 112 navigation system (communication unit)
113 communication module (communication part)
114 temperature sensor 115 electronic control unit (estimation unit)
116 wind shield 200 sun

Claims (12)

自車(111)に搭載されると共に、太陽(200)の光が直接的あるいは間接的に照らされる領域を撮影するカメラ(101~110)と、
少なくとも前記自車の現在の位置、前記自車の現在の向き、及び現在の日時を含む車両情報を取得する通信部(112、113)と、
前記カメラから画像を取得すると共に、前記通信部から前記車両情報を取得し、前記画像及び前記車両情報に基づいて、現在の太陽の位置及び前記自車の周囲の照度を推定する推定部(115)と、
を含む、照度推定装置。
Cameras (101 to 110) mounted on a vehicle (111) for photographing an area directly or indirectly illuminated by the sun (200);
a communication unit (112, 113) for acquiring vehicle information including at least the current position of the own vehicle, the current orientation of the own vehicle, and the current date and time;
An estimation unit (115) that acquires an image from the camera, acquires the vehicle information from the communication unit, and estimates the current position of the sun and the illuminance around the vehicle based on the image and the vehicle information. )When,
An illuminance estimator, comprising:
前記カメラは、ドライバを撮影するドライバ検知カメラ(101)と、乗員を撮影する乗員検知カメラ(102)と、を含み、
前記推定部は、前記ドライバ検知カメラで撮影されたドライバ画像及び前記乗員検知カメラで撮影された乗員画像を取得し、前記ドライバ画像に表される被写体の明るさまたは前記乗員画像に表される被写体の明るさに基づいて、前記自車を基準とした現在の太陽の方向を推定する、請求項1に記載の照度推定装置。
The cameras include a driver detection camera (101) that photographs a driver and an occupant detection camera (102) that photographs a passenger,
The estimation unit obtains a driver image captured by the driver detection camera and an occupant image captured by the occupant detection camera, and determines the brightness of the subject represented in the driver image or the subject represented in the occupant image. 2. The illuminance estimating device according to claim 1, which estimates the current direction of the sun with respect to said own vehicle, based on the brightness of .
前記カメラは、前記自車の進行方向を基準とした前記自車の前方を撮影するレインセンサ用のレインカメラ(103)、前記自車の進行方向を基準とした前記自車の前方を撮影する前方カメラ(104)、前記自車の前記進行方向を基準とした前記自車の前方、後方、左側、右側を撮影する複数の周辺カメラ(105~108)、及び前記自車の後方及び後側方を撮影する電子ミラー用カメラ(109、110)のうちの少なくとも1つを含み、
前記推定部は、前記レインカメラで撮影されたレイン画像、前記前方カメラで撮影された前方画像、前記複数の周辺カメラで撮影された複数の周辺画像、及び前記電子ミラー用カメラで撮影された電子ミラー用画像のうちの少なくとも1つを取得し、取得した画像に表される被写体の明るさに基づいて、前記自車の周囲の日射量を推定し、あるいは、前記自車を基準とした前記現在の太陽の位置を推定する、請求項1または2に記載の照度推定装置。
The cameras include a rain camera (103) for a rain sensor that captures an image of the front of the vehicle relative to the direction of travel of the vehicle, and an image of the front of the vehicle relative to the direction of travel of the vehicle. A front camera (104), a plurality of peripheral cameras (105 to 108) for photographing the front, rear, left and right sides of the vehicle with respect to the traveling direction of the vehicle, and the rear and rear sides of the vehicle. At least one of the electronic mirror cameras (109, 110) that shoots the direction,
The estimation unit includes a rain image captured by the rain camera, a forward image captured by the front camera, a plurality of peripheral images captured by the plurality of peripheral cameras, and an electronic image captured by the electronic mirror camera. At least one of the mirror images is acquired, and the amount of solar radiation around the vehicle is estimated based on the brightness of the subject represented in the acquired image, or the vehicle is used as a reference. 3. The illuminance estimating device according to claim 1, which estimates the current position of the sun.
前記通信部は、前記自車に搭載されたナビゲーションシステム(112)、あるいは、前記自車に搭載されると共に前記自車の周囲の通信対象との間で通信可能な通信モジュール(113)を含み、
前記推定部は、前記ナビゲーションシステムまたは前記通信モジュールから取得する前記車両情報に基づいて前記現在の太陽の位置を推定し、また、前記車両情報に現在の天気情報が含まれる場合、前記日時に対応した季節及び前記天気情報に基づいて前記推定した照度を補正する、請求項1ないし3のいずれか1つに記載の照度推定装置。
The communication unit includes a navigation system (112) mounted on the vehicle, or a communication module (113) mounted on the vehicle and capable of communicating with communication targets around the vehicle. ,
The estimation unit estimates the current position of the sun based on the vehicle information obtained from the navigation system or the communication module, and corresponds to the date and time when the vehicle information includes current weather information. 4. The illuminance estimation device according to claim 1, wherein said estimated illuminance is corrected based on said season and said weather information.
前記推定部は、前記画像のうちの車体が撮影された画像に表される前記車体の色及び前記車体の明るさに基づいて、前記自車の周囲の照度を推定する、あるいは、推定した照度を補正する、請求項1ないし4のいずれか1つに記載の照度推定装置。 The estimation unit estimates the illuminance around the vehicle based on the color of the vehicle body and the brightness of the vehicle body represented in an image in which the vehicle body is photographed, or the estimated illuminance. 5. The illuminance estimation device according to any one of claims 1 to 4, which corrects the . 前記カメラは、前記画像として、露光時間を変更した複数の画像を撮影し、
前記推定部は、前記カメラから前記露光時間が変更された前記複数の画像を取得し、前記露光時間が変更された前記複数の画像及び前記車両情報に基づいて、前記照度を推定する、請求項1ないし5のいずれか1つに記載の照度推定装置。
The camera captures a plurality of images with different exposure times as the images,
The estimation unit acquires the plurality of images with the exposure times changed from the camera, and estimates the illuminance based on the plurality of images with the exposure times changed and the vehicle information. 6. The illuminance estimation device according to any one of 1 to 5.
前記推定部は、前記画像に表される被写体の中から、路面、空の領域、建物、トンネル、及び橋げたのうちのいずれかを判定し、前記被写体の中に前記路面、前記空の領域、前記建物、前記トンネル、及び前記橋げたのうちのいずれかが含まれる場合、含まれるものの明るさに基づいて、前記推定した照度を補正する、請求項1ないし6のいずれか1つに記載の照度推定装置。 The estimating unit determines any one of a road surface, a sky area, a building, a tunnel, and a bridge girder from objects represented in the image, and determines whether the road surface, the sky area, 7. The illuminance according to any one of claims 1 to 6, wherein when any one of the building, the tunnel, and the bridge girders is included, the estimated illuminance is corrected based on the brightness of those included. estimation device. 前記自車のウィンドシールド(116)の温度を測定する温度センサ(114)を含み、
前記推定部は、前記温度センサから温度の情報を取得し、前記画像に表される被写体の中から先行車を判定し、前記温度の情報に基づいて前記推定した照度を補正する、あるいは、前記先行車の色に基づいて前記推定した照度を補正する、あるいは、前記温度の情報及び前記先行車の色に基づいて前記推定した照度を補正する、請求項1ないし7のいずれか1つに記載の照度推定装置。
a temperature sensor (114) for measuring the temperature of the windshield (116) of the vehicle;
The estimating unit acquires temperature information from the temperature sensor, determines a preceding vehicle from among subjects represented in the image, and corrects the estimated illuminance based on the temperature information, or 8. The method according to any one of claims 1 to 7, wherein the estimated illuminance is corrected based on the color of the preceding vehicle, or the estimated illuminance is corrected based on the temperature information and the color of the preceding vehicle. illuminance estimation device.
前記推定部は、前記画像、前記車両情報、及び前記推定した照度に基づいて、前記自車のライトの点消灯の制御を決定する、あるいは、前記自車の空調装置の制御を決定する、請求項1ないし8のいずれか1つに記載の照度推定装置。 wherein the estimation unit determines control of turning on/off the lights of the own vehicle or determines control of an air conditioner of the own vehicle based on the image, the vehicle information, and the estimated illuminance. Item 9. The illuminance estimation device according to any one of Items 1 to 8. 前記推定部は、前記画像に表される被写体の中から路面または空の領域を判定し、前記路面または前記空の領域の画素値の合計値に基づいて、または、前記路面または前記空の領域の画素値の平均値に基づいて、前記照度を推定する、請求項1ないし9のいずれか1つに記載の照度推定装置。 The estimating unit determines a road surface or sky area from among subjects represented in the image, and based on a total value of pixel values of the road surface or the sky area, or the road surface or the sky area. 10. The illuminance estimation device according to claim 1, wherein said illuminance is estimated based on an average value of pixel values of . 前記推定部は、前記画像から一部を切り出し、切り出した画像に基づいて、前記照度を推定する、請求項1ないし10のいずれか1つに記載の照度推定装置。 The illuminance estimation device according to any one of claims 1 to 10, wherein the estimation unit cuts out a part of the image and estimates the illuminance based on the cut out image. 前記カメラは、撮影した画像のデータを一定時間毎に前記推定部に出力し、
前記推定部は、前記カメラから前記一定時間毎に取得する画像に基づき、前記照度を推定する、請求項1ないし11のいずれか1つに記載の照度推定装置。
The camera outputs data of the captured image to the estimation unit at regular time intervals,
The illuminance estimation device according to any one of claims 1 to 11, wherein the estimation unit estimates the illuminance based on images acquired from the camera at regular time intervals.
JP2021089370A 2021-05-27 2021-05-27 Illuminance estimation device Active JP7439792B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021089370A JP7439792B2 (en) 2021-05-27 2021-05-27 Illuminance estimation device
PCT/JP2022/017984 WO2022249791A1 (en) 2021-05-27 2022-04-18 Illuminance estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021089370A JP7439792B2 (en) 2021-05-27 2021-05-27 Illuminance estimation device

Publications (2)

Publication Number Publication Date
JP2022182057A true JP2022182057A (en) 2022-12-08
JP7439792B2 JP7439792B2 (en) 2024-02-28

Family

ID=84229918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021089370A Active JP7439792B2 (en) 2021-05-27 2021-05-27 Illuminance estimation device

Country Status (2)

Country Link
JP (1) JP7439792B2 (en)
WO (1) WO2022249791A1 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167842A (en) 2003-12-04 2005-06-23 Denso Corp Exposure control apparatus for on-vehicle monitoring camera
JP2010018164A (en) * 2008-07-10 2010-01-28 Mazda Motor Corp Vehicular drive supporting device
JP5152019B2 (en) 2009-01-30 2013-02-27 株式会社デンソー Vehicle control device
JP2010188826A (en) 2009-02-17 2010-09-02 Mazda Motor Corp Display device for vehicle
JP2012160978A (en) 2011-02-01 2012-08-23 Nippon Seiki Co Ltd Imaging control device, template acquisition device, and program
JP6108942B2 (en) 2013-04-30 2017-04-05 三菱電機株式会社 Image quality control apparatus, image display system, and image quality control method
DE102017209301A1 (en) 2017-06-01 2018-12-06 Osram Gmbh ADJUSTING A LIGHT THICKNESS OF A HEADLIGHT OF A VEHICLE
CN113291229B (en) 2020-02-24 2024-04-26 本田技研工业株式会社 Output control system, control method thereof, moving object, and storage medium

Also Published As

Publication number Publication date
WO2022249791A1 (en) 2022-12-01
JP7439792B2 (en) 2024-02-28

Similar Documents

Publication Publication Date Title
KR101859047B1 (en) Headlamp, Adaptive Driver Assistance System and Vehicle
KR101565006B1 (en) apparatus for providing around view and Vehicle including the same
US11022795B2 (en) Vehicle display control device
KR101579100B1 (en) Apparatus for providing around view and Vehicle including the same
KR101631439B1 (en) Camera and Vehicle including the same
US9892331B2 (en) Imaging system and method with ego motion detection
KR20150069851A (en) Stereo camera and Vehicle including the same
JP2000019259A (en) Environmental recognition device
US20220180483A1 (en) Image processing device, image processing method, and program
JP2013147112A (en) Vehicle driving environment recognition apparatus
KR101790426B1 (en) Apparatus for automatic parking and vehicle having the same
JP7226440B2 (en) Information processing device, information processing method, photographing device, lighting device, and moving body
JP2000207563A (en) Image recognizing device
TWI749030B (en) Driving assistance system and driving assistance method
CN111351474B (en) Vehicle moving target detection method, device and system
KR20190107283A (en) Electronic device for vehicle and method for operating the same
KR20170140284A (en) Vehicle driving aids and vehicles
WO2021256411A1 (en) Signal processing device, dimming control method, signal processing program, and dimming system
JP2004257837A (en) Stereo adapter imaging system
JP2022075077A (en) Raindrop detection device
WO2022249791A1 (en) Illuminance estimation device
WO2019163315A1 (en) Information processing device, imaging device, and imaging system
US20230209206A1 (en) Vehicle camera dynamics
JP6131692B2 (en) Occupant detection device
JP2004302903A (en) Vehicle display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R151 Written notification of patent or utility model registration

Ref document number: 7439792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151