JP2023055317A - Imaging system and imaging method - Google Patents

Imaging system and imaging method Download PDF

Info

Publication number
JP2023055317A
JP2023055317A JP2021164580A JP2021164580A JP2023055317A JP 2023055317 A JP2023055317 A JP 2023055317A JP 2021164580 A JP2021164580 A JP 2021164580A JP 2021164580 A JP2021164580 A JP 2021164580A JP 2023055317 A JP2023055317 A JP 2023055317A
Authority
JP
Japan
Prior art keywords
image data
light
luminance
irradiation light
saturated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021164580A
Other languages
Japanese (ja)
Inventor
修一 原田
Shuichi Harada
崇文 天廣
Takafumi Amahiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stanley Electric Co Ltd
Original Assignee
Stanley Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stanley Electric Co Ltd filed Critical Stanley Electric Co Ltd
Priority to JP2021164580A priority Critical patent/JP2023055317A/en
Publication of JP2023055317A publication Critical patent/JP2023055317A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an imaging system and imaging method which can obtain an image with which a condition of an object space in the occurrence of fog can be more accurately recognized.SOLUTION: A method comprises the steps of: generating first saturation image data by saturating the luminance of each pixel of a first portion corresponding to first irradiation light of first image data corresponding to irradiation timing of the first irradiation light to the maximum value; generating second saturation image data by saturating the luminance of each pixel of a second portion corresponding to second irradiation light of second image data corresponding to irradiation timing of the second irradiation light to the maximum value; generating first replacement image data by replacing the luminance of each pixel of the first portion of the first saturation image data with a specific value; generating second replacement image data by replacing the luminance of each pixel of the second portion of the second saturation image data with a specific value; and generating composite image data by combining the first replacement image data and the second replacement image data.SELECTED DRAWING: Figure 9

Description

本開示は、撮像システム、撮像方法に関する。 The present disclosure relates to imaging systems and imaging methods.

特許第4019182号公報(特許文献1)には、車両の上部に設置されて車両の前方領域を照明する照明用光源と、車両における前記照明用光源の下方に設置され、その光源によって照明される領域を撮像する可視光または近赤外線の周波数帯域に感度を示す路面撮像用の第1のカメラと、車両に設置されて第1のカメラと同一方を撮像する10μm前後の赤外線の周波数帯域に感度を示す赤外線を放射する人間などの障害物撮像用の第2のカメラと、第1および第2の各カメラによってそれぞれ撮像された画像の合成画像を得る手段とをそなえ、照明用光源から発せられる照明光の開き角および第1のカメラの視野角が、照明光の光軸と照明領域から第1のカメラへの反射光の光軸とのなす角よりも小さくなるような関係をもって、照明用光源と第1のカメラとを配設したことを特徴とする視覚装置が記載されている。 In Japanese Patent No. 4019182 (Patent Document 1), a lighting light source that is installed in the upper part of the vehicle and illuminates the front area of the vehicle, and a lighting light source that is installed below the lighting light source in the vehicle and is illuminated by the light source A first camera for road surface imaging showing sensitivity in the visible light or near-infrared frequency band that captures an area, and a first camera installed in a vehicle that picks up the same direction as the first camera and is sensitive to the infrared frequency band around 10 μm. a second camera for imaging an obstacle such as a human being that emits infrared rays indicating the The illumination light opening angle and the viewing angle of the first camera are smaller than the angle formed by the optical axis of the illumination light and the optical axis of the reflected light from the illumination area to the first camera. A vision device is described, characterized by an arrangement of a light source and a first camera.

特許第4019182号公報Japanese Patent No. 4019182

本開示に係る具体的態様は、霧発生時における対象空間(例えば車両前方)の状況をより的確に認識可能とする画像を得ることを目的の1つとする。 One of the purposes of the specific aspect of the present disclosure is to obtain an image that enables more accurate recognition of the situation of the target space (for example, the front of the vehicle) when fog occurs.

[1]本開示に係る一態様の撮像システムは、(a)近赤外波長又は赤外波長の光を放出する光源と、(b)対象空間を撮影して画像データを生成するカメラと、(c)前記カメラから得られる前記画像データを用いて画像処理を行うコントローラと、を含み、(d)前記光源は、前記対象空間に対して各々がビーム状である第1照射光と第2照射光とを異なる時期に照射するものであり、(e)前記コントローラは、(e1)前記第1照射光の照射時期に対応した第1画像データと前記第2照射光の照射時期に対応した第2画像データとを前記カメラから取得し、(e2)前記第1画像データの前記第1照射光に対応する部分である第1部分の各画素の輝度が最大値に飽和するように前記第1画像データの全体の輝度を調整することにより第1飽和画像データを生成するとともに、前記第2画像データの前記第2照射光に対応する部分である第2部分の各画素の輝度が最大値に飽和するように前記第2画像データの全体の輝度を調整することにより第2飽和画像データを生成し、(e3)前記第1飽和画像データの前記第1部分の各画素の輝度を特定値に置換することにより第1置換画像データを生成するとともに、前記第2飽和画像データの前記第2部分の各画素の輝度を前記特定値に置換することにより第2置換画像データを生成し、(e4)前記第1置換画像データと前記第2置換画像データを合成することによって合成画像データを生成する、撮像システムである。
[2]本開示に係る一態様の撮像方法は、(a)対象空間に対して、近赤外波長又は赤外波長の光を放出する光源から各々ビーム状である第1照射光と第2照射光とが異なる時期に照射されること、(b)コントローラが、前記第1照射光の照射時期に対応した第1画像データと前記第2照射光の照射時期に対応した第2画像データとをカメラから取得すること、(c)前記コントローラが、前記第1画像データの前記第1照射光に対応する部分である第1部分の各画素の輝度が最大値に飽和するように前記第1画像データの全体の輝度を調整することにより第1飽和画像データを生成するとともに、前記第2画像データの前記第2照射光に対応する部分である第2部分の各画素の輝度が最大値に飽和するように前記第2画像データの全体の輝度を調整することにより第2飽和画像データを生成すること、(d)前記コントローラが、前記第1飽和画像データの前記第1部分の各画素の輝度を特定値に置換することにより第1置換画像データを生成するとともに、前記第2飽和画像データの前記第2部分の各画素の輝度を前記特定値に置換することにより第2置換画像データを生成すること、(e)前記コントローラが、前記第1置換画像データと前記第2置換画像データを合成することによって合成画像データを生成すること、を含む、撮像方法である。
[1] An imaging system according to one aspect of the present disclosure includes: (a) a light source that emits light in a near-infrared wavelength or an infrared wavelength; (b) a camera that captures a target space to generate image data; (c) a controller that performs image processing using the image data obtained from the camera; (e) the controller (e1) first image data corresponding to the irradiation timing of the first irradiation light and the irradiation timing of the second irradiation light; (e2) obtaining the second image data from the camera; first saturated image data is generated by adjusting the overall luminance of one image data, and the luminance of each pixel of the second portion corresponding to the second irradiation light of the second image data is maximized; and (e3) setting the luminance of each pixel of the first portion of the first saturated image data to a specific value. and generating second replacement image data by replacing the brightness of each pixel of the second portion of the second saturated image data with the specific value, e4) The imaging system generates synthetic image data by synthesizing the first replacement image data and the second replacement image data.
[2] An imaging method according to one aspect of the present disclosure includes: (a) a first irradiation light and a second irradiation light, each of which is a beam from a light source that emits light of a near-infrared wavelength or an infrared wavelength, to a target space; (b) the controller outputs first image data corresponding to the irradiation timing of the first irradiation light and second image data corresponding to the irradiation timing of the second irradiation light; from a camera, and (c) the controller causes the first first saturated image data is generated by adjusting the brightness of the entire image data, and the brightness of each pixel of the second portion corresponding to the second irradiation light of the second image data is maximized; generating second saturated image data by adjusting the overall brightness of said second image data to be saturated; generating first replacement image data by replacing luminance with a specific value, and generating second replacement image data by replacing luminance of each pixel of the second portion of the second saturated image data with the specific value; (e) the controller generating synthetic image data by synthesizing the first replacement image data and the second replacement image data.

上記構成によれば、霧発生時における対象空間(例えば車両前方)の状況をより的確に認識可能とする画像を得ることができる。 According to the above configuration, it is possible to obtain an image that makes it possible to more accurately recognize the situation of the target space (for example, the front of the vehicle) when fog occurs.

図1(A)は、撮像システムの概略構成を示す図である。図1(B)は、ランプユニットから放出される照射光の指向角について説明するための図である。FIG. 1A is a diagram showing a schematic configuration of an imaging system. FIG. 1B is a diagram for explaining the orientation angle of the irradiation light emitted from the lamp unit. 図2は、撮像システムの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the imaging system. 図3は、コントローラを構成するためのコンピュータの一例を示す。FIG. 3 shows an example of a computer for configuring the controller. 図4は、各ランプユニットから放出される狭角の照射光について説明するための図である。FIG. 4 is a diagram for explaining narrow-angle irradiation light emitted from each lamp unit. 図5(A)及び図5(B)は、各ランプユニットによる照射光の状態を説明するための図である。FIGS. 5A and 5B are diagrams for explaining the state of light emitted from each lamp unit. 図6(A)は、霧発生時にカメラによって得られる画像データの一例を模式的に示す図である。図6(B)は、第1飽和画像データの一例を示す図である。FIG. 6A is a diagram schematically showing an example of image data obtained by a camera when fog occurs. FIG. 6B is a diagram showing an example of first saturated image data. 図7(A)は、霧発生時にカメラによって得られる画像データの一例を模式的に示す図である。図7(B)は、第2飽和画像データの一例を示す図である。FIG. 7A is a diagram schematically showing an example of image data obtained by a camera when fog occurs. FIG. 7B is a diagram showing an example of the second saturated image data. 図8(A)は、第1輝度置換画像データの一例を模式的に示す図である。図8(B)は、第2輝度置換画像データの一例を模式的に示す図である。図8(C)は、合成画像データの一例を模式的に示す図である。FIG. 8A is a diagram schematically showing an example of first luminance-substituted image data. FIG. 8B is a diagram schematically showing an example of second luminance-substituted image data. FIG. 8C is a diagram schematically showing an example of synthesized image data. 図9は、撮像システムのコントローラの動作手順を示すフローチャートである。FIG. 9 is a flow chart showing the operation procedure of the controller of the imaging system.

図1(A)は、撮像システムの概略構成を示す図である。図示の撮像システムは、車両1に搭載され、車両1の前方空間(対象空間)を撮像して画像を生成するものであり、カメラ(撮像部)10、コントローラ(制御装置/画像処理装置)11、ドライバ(照射制御部)13、一対のランプユニット14L、14Rを含んで構成されている。この撮像システムは、各ランプユニット14L、14Rから近赤外波長域の照射光15を車両前方へ照射し、その際にカメラ10によって得られる画像データを用いて所定の画像処理を行うことにより、霧発生時においても車両前方の状況をより的確に認識可能とする画像を生成する。画像処理の具体的内容については後述する。 FIG. 1A is a diagram showing a schematic configuration of an imaging system. The illustrated imaging system is mounted on a vehicle 1 and captures an image of a space (target space) in front of the vehicle 1 to generate an image. , a driver (irradiation control unit) 13, and a pair of lamp units 14L and 14R. This imaging system emits light 15 in the near-infrared wavelength range from the lamp units 14L and 14R toward the front of the vehicle, and performs predetermined image processing using the image data obtained by the camera 10 at that time. To generate an image capable of accurately recognizing the situation in front of a vehicle even when fog is generated. Specific contents of the image processing will be described later.

図1(B)は、ランプユニットから放出される照射光の指向角について説明するための図である。本実施形態では、ランプユニット14L(又は14R)の出光点16から放出される照射光15がその光軸(光の主進行方向)aを中心に所定の光強度を有する範囲を表す角度をこの照射光15の指向角と定義する。本開示において、指向角は、ランプユニットに用いられる光源がLEDである場合には指向半値角を示し、ランプユニットに用いられる光源がLD(レーザーダイオード)である場合には発散角を示す。本実施形態では、ランプユニットに用いる光源としてLEDを想定するため、LEDからの発光を集光光学手段に入射させて指向性を高め、照射光15の光強度が中心値(光軸aの位置での光強度)の1/2以上となる範囲(指向半値角)が2°となるように構成し、図示のように2°の円錐により規定される範囲を考える。この場合、指向角である指向半値角は2°ということになる。なお、光軸aの路面とのなす角度については、例えば路面に平行(0°)ないし路面を基準として上向きに1°~2°に設定される。 FIG. 1B is a diagram for explaining the orientation angle of the irradiation light emitted from the lamp unit. In this embodiment, the angle representing the range in which the irradiation light 15 emitted from the light emitting point 16 of the lamp unit 14L (or 14R) has a predetermined light intensity centered on the optical axis (main traveling direction of light) a is It is defined as the directivity angle of the illumination light 15 . In the present disclosure, the directivity angle indicates a directivity half-value angle when the light source used in the lamp unit is an LED, and indicates a divergence angle when the light source used in the lamp unit is an LD (laser diode). In this embodiment, since an LED is assumed to be the light source used in the lamp unit, the light emitted from the LED is made incident on the condensing optical means to increase the directivity, and the light intensity of the irradiation light 15 is the central value (the position of the optical axis a Consider a range defined by a cone of 2° as shown in the figure, where the range (half-value angle of directivity) is 2°. In this case, the directivity half-value angle, which is the directivity angle, is 2°. The angle between the optical axis a and the road surface is set, for example, to be parallel to the road surface (0°) or 1° to 2° upward with respect to the road surface.

なお、照射光15の指向角は、2°以内に設定することが好ましい。照射光15の指向角を2°以内とすることにより、後述する飽和画像から輝度置換する領域を小さくすることができるとともに、指向角内の光強度を高め、周囲領域に照射される霧による散乱光を増加させることができる。なお、光源がLDである場合は、指向角である発散角を2°以内とすればよい。 The directivity angle of the irradiation light 15 is preferably set within 2°. By setting the directivity angle of the irradiation light 15 to within 2°, it is possible to reduce the area in which luminance is replaced from a saturated image described later, increase the light intensity within the directivity angle, and scatter due to the fog irradiated to the surrounding area. Can increase light. If the light source is an LD, the divergence angle, which is the directivity angle, should be within 2°.

図2は、撮像システムの構成を示すブロック図である。撮像システムは、カメラ10、コントローラ11、ディスプレイ12、ドライバ13、一対のランプユニット14L、14Rを含んで構成されている。コントローラ11は、カメラ10、ディスプレイ12、ドライバ13のそれぞれと相互に接続されている。各ランプユニット14L、14Rは、ドライバ13と接続されている。コントローラ11は、例えば後述する図3に示すようにCPU、RAM、ROMなどを含むコンピュータを用いて構成されるものであるが、ここではその機能を理解しやすくするために機能ブロックを用いて説明する。 FIG. 2 is a block diagram showing the configuration of the imaging system. The imaging system includes a camera 10, a controller 11, a display 12, a driver 13, and a pair of lamp units 14L and 14R. Controller 11 is interconnected with camera 10, display 12, and driver 13, respectively. Each lamp unit 14L, 14R is connected to the driver 13. FIG. The controller 11 is configured using a computer including a CPU, a RAM, a ROM, etc., as shown in FIG. 3, which will be described later, for example. Here, in order to facilitate understanding of the functions, functional blocks are used for explanation. do.

カメラ10は、車室内の所定位置(例えば、フロントガラス内の上部)に配置されており、車両1の前方空間を撮影して画像データを生成し、出力する。本実施形態のカメラ10は、少なくとも近赤外光(一例として波長800nm~1000nm程度)の光を受光可能な受光素子を含んで構成されている。カメラ10は、さらに可視光波長の光を受光可能であってもよい。本実施形態では、カメラ10としてモノクロ画像データを生成可能なものを想定するが、カラー画像データを生成可能なものであってもよい。 The camera 10 is arranged at a predetermined position in the vehicle interior (for example, the upper part of the windshield), captures the space ahead of the vehicle 1, generates image data, and outputs the image data. The camera 10 of this embodiment includes at least a light-receiving element capable of receiving near-infrared light (for example, a wavelength of about 800 nm to 1000 nm). Camera 10 may also be capable of receiving light in visible wavelengths. In this embodiment, the camera 10 is assumed to be capable of generating monochrome image data, but it may be capable of generating color image data.

コントローラ11は、カメラ10から出力される画像データを用いて所定の画像処理を行うことにより、霧発生時における車両前方の状況を把握可能な画像(画像データ)を生成するものであり、飽和画像生成部21、輝度置換画像生成部22、合成画像生成部23を含んで構成されている。 The controller 11 performs predetermined image processing using the image data output from the camera 10 to generate an image (image data) that allows the situation in front of the vehicle to be grasped when fog occurs. It includes a generation unit 21 , a luminance-replaced image generation unit 22 , and a composite image generation unit 23 .

ディスプレイ12は、車室内の所定位置に配置されており、コントローラ11によって生成される画像を表示する。このディスプレイ12としては、例えば液晶表示装置、有機EL表示装置など種々の表示装置を用いることができる。なお、ディスプレイ12への表示は任意であり、合成画像を用いて、物体認識など他の情報処理、信号の送信、車両制御へ応用することができる。例えば、物体認識結果(物体の存在する方位、物体の種類)のみをCAN(Controller Area Network)バスへメッセージとして送信することもできる。 The display 12 is arranged at a predetermined position inside the vehicle and displays images generated by the controller 11 . Various display devices such as a liquid crystal display device and an organic EL display device can be used as the display 12 . The display on the display 12 is optional, and the composite image can be used for other information processing such as object recognition, signal transmission, and vehicle control. For example, it is also possible to transmit only the object recognition result (direction where the object exists, type of object) as a message to a CAN (Controller Area Network) bus.

ドライバ13は、コントローラ11の制御を受けて動作し、各ランプユニット14L、14Rの動作を制御するための信号を生成し、出力する。このドライバ13は、例えばLEDの動作制御のために設計された集積回路を用いて構成することができる。 The driver 13 operates under the control of the controller 11 to generate and output signals for controlling the operations of the lamp units 14L and 14R. This driver 13 can be constructed, for example, using an integrated circuit designed for controlling the operation of LEDs.

ランプユニット14Lは、車両1の前部左側に配置されており、車両1の前方へ近赤外光からなり狭角でビーム状の照射光を放出するものであり、2つの赤外LED(light emitting diode)31、32を含んで構成されている。同様に、ランプユニット14Rは、車両1の前部右側に配置されており、車両1の前方へ近赤外光からなり狭角でビーム状の照射光を放出するものであり、2つの赤外LED33、34を含んで構成されている。ランプユニット14Lの2つの赤外LED31、32とランプユニット14Rの2つの赤外LED(光源)33、34の各々による光照射は、互いの照射時期をずらして行われる。この制御はドライバ13によって行われる。 The lamp unit 14L is arranged on the front left side of the vehicle 1, and emits near-infrared light toward the front of the vehicle 1 in the shape of a beam at a narrow angle. emitting diodes) 31 and 32. Similarly, the lamp unit 14R is arranged on the front right side of the vehicle 1, and emits near-infrared light beam-like irradiation light at a narrow angle toward the front of the vehicle 1. It is configured including LEDs 33 and 34 . Light irradiation by the two infrared LEDs 31 and 32 of the lamp unit 14L and the two infrared LEDs (light sources) 33 and 34 of the lamp unit 14R are performed at different irradiation times. This control is performed by the driver 13 .

飽和画像生成部21は、カメラ10から取得した画像データに基づいて、画像内の各ランプユニット14L、14Rによる狭角の照射光に対応する部分の輝度が最大値に飽和するように画像全体の輝度が調整された画像データ(以下、「飽和画像データ」という。)を生成する。この飽和画像データは、ランプユニット14Lの2つの赤外LED31、32による光照射時に対応するもの(以下、「第1飽和画像データ」という。)と、ランプユニット14Rの2つの赤外LED33、34による光照射時に対応するもの(以下、「第2飽和画像データ」という。)が生成される。各飽和画像データの生成方法の詳細については後述する。なお、飽和画像生成における、照射光に対応する部分(すなわち輝度値を最大値に変換する部分)は、照射光の光軸を含む任意の領域であり、指向角内の照射に相当する領域であることが好ましい。 Based on the image data acquired from the camera 10, the saturated image generator 21 adjusts the brightness of the entire image so that the brightness of the portion corresponding to the narrow-angle illumination light from the lamp units 14L and 14R in the image is saturated to the maximum value. Image data with adjusted brightness (hereinafter referred to as "saturated image data") is generated. This saturated image data corresponds to the light irradiation by the two infrared LEDs 31 and 32 of the lamp unit 14L (hereinafter referred to as "first saturated image data"), and the two infrared LEDs 33 and 34 of the lamp unit 14R. (hereinafter referred to as "second saturation image data") corresponding to the time of light irradiation by . The details of the method of generating each saturated image data will be described later. In the saturated image generation, the portion corresponding to the illumination light (that is, the portion where the luminance value is converted to the maximum value) is an arbitrary area including the optical axis of the illumination light, and the area corresponding to the illumination within the directivity angle. Preferably.

輝度置換画像生成部22は、飽和画像生成部21によって生成される第1飽和画像データ及び第2飽和画像データのそれぞれについて、画像内の各ランプユニット14L、14Rによる狭角の照射光に対応する部分の輝度を所定値以下(一例として、0)であって最大値と比較して極めて低輝度な特定値に置き換えた輝度置換画像データを生成する。この輝度置換画像データは、第1飽和画像データに対応するもの(以下、「第1輝度置換画像データ」という。)と、第2飽和画像データに対応するもの(以下、「第2輝度置換画像データ」という。)が生成される。各輝度置換画像データの生成方法の詳細については後述する。 The luminance-replaced image generation unit 22 generates the first saturated image data and the second saturated image data generated by the saturated image generation unit 21, corresponding to the narrow-angle illumination light from the lamp units 14L and 14R in the image. Luminance-replaced image data is generated by replacing the luminance of the part with a specific value that is lower than a predetermined value (eg, 0) and extremely low in luminance compared to the maximum value. This brightness-replaced image data corresponds to the first saturation image data (hereinafter referred to as "first brightness-replaced image data") and the second saturation image data (hereinafter referred to as "second brightness-replaced image data"). data”) is generated. The details of the method of generating each brightness-replaced image data will be described later.

合成画像生成部23は、輝度置換画像生成部22によって生成される第1輝度置換画像データと第2輝度置換画像データを合成することにより合成画像データを生成する。得られた合成画像データは、図示しない他の装置/システムへ提供される。また、合成画像データに基づく画像がディスプレイ12に表示される。ここでいう「他の装置/システム」には特に限定がなく、例えば、車両1の前方に存在する先行車両や対向車両などの位置に応じてハイビームの照射範囲と減光範囲を動的に設定する車両用灯具システム、車両の自動運転を制御するシステム、カーナビゲーションシステムなど種々のものが考えられる。 The composite image generation unit 23 generates composite image data by combining the first luminance-substituted image data and the second luminance-substituted image data generated by the luminance-substituted image generation unit 22 . The resulting composite image data is provided to another device/system (not shown). Also, an image based on the synthesized image data is displayed on the display 12 . The "other device/system" referred to here is not particularly limited, and for example, dynamically sets the irradiation range and dimming range of the high beam according to the positions of the preceding vehicle and the oncoming vehicle existing in front of the vehicle 1. Various systems are conceivable, such as a vehicle lighting system, a system for controlling automatic operation of a vehicle, and a car navigation system.

図3は、コントローラを構成するためのコンピュータの一例を示す。図示のコンピュータは、CPU(中央演算ユニット)101、ROM(読み出し専用メモリ)102、RAM(一時記憶メモリ)103、不揮発性メモリ104、外部IF(インタフェース)105を含んで構成されている。これらCPU101等の相互間はバスにより接続されている。CPU101は、プログラムを実行することにより情報処理を行う。ROM102は、CPU101の動作に必要な基本制御プログラムなどを格納する。RAM103は、CPU101の情報処理に必要なデータを一時記憶する。これらによって上記したコントローラ11が構成される。不揮発性メモリ104は、データを記憶するための記憶装置であり、上記したコントローラ11の各機能を実現するためのアプリケーションプログラムやデータなどを格納する。外部I/F105は、カメラ10、ディスプレイ12、ドライバ13とCPU101とを通信可能に接続する。 FIG. 3 shows an example of a computer for configuring the controller. The illustrated computer includes a CPU (central processing unit) 101 , a ROM (read only memory) 102 , a RAM (temporary memory) 103 , a nonvolatile memory 104 and an external IF (interface) 105 . These CPUs 101 and the like are connected to each other by a bus. The CPU 101 performs information processing by executing programs. The ROM 102 stores basic control programs and the like required for the operation of the CPU 101 . The RAM 103 temporarily stores data necessary for information processing by the CPU 101 . These components constitute the controller 11 described above. The nonvolatile memory 104 is a storage device for storing data, and stores application programs and data for realizing each function of the controller 11 described above. The external I/F 105 connects the camera 10, the display 12, the driver 13 and the CPU 101 so as to be able to communicate with each other.

図4は、各ランプユニットから放出される狭角の照射光について説明するための図である。ここでは、車両1を上方から見た様子が模式的に示されている。本実施形態では、車両1の左斜め方向へ延びる照射光151、車両1の進行方向bからいくぶん左側へ傾いて延びる照射光152、車両1の進行方向bからいくぶん右側へ傾いて延びる照射光153、車両1の右斜め前方向へ延びる照射光154の4つの照射光が放出される。各照射光151、152、153、154は、上記した照射光15に相当するものであり、各々の指向角も同様である。照射光151はランプユニット14Lの赤外LED31によって形成され、照射光152はランプユニット14Lの赤外LED32によって形成され、照射光153はランプユニット14Rの赤外LED33によって形成され、照射光154はランプユニット14Rの赤外LED34によって形成される。なお、各ランプユニットに用いられる光源はLEDに限られず、LD(レーザーダイオード)とすることもできる。 FIG. 4 is a diagram for explaining narrow-angle irradiation light emitted from each lamp unit. Here, a state in which the vehicle 1 is viewed from above is schematically shown. In this embodiment, the illumination light 151 extending obliquely to the left of the vehicle 1, the illumination light 152 extending slightly leftward from the traveling direction b of the vehicle 1, and the illumination light 153 extending slightly rightward from the traveling direction b of the vehicle 1. , and an illumination light 154 extending obliquely to the right and forward of the vehicle 1 are emitted. Each of the irradiation lights 151, 152, 153, and 154 corresponds to the above-described irradiation light 15, and each directivity angle is also the same. The irradiation light 151 is formed by the infrared LED 31 of the lamp unit 14L, the irradiation light 152 is formed by the infrared LED 32 of the lamp unit 14L, the irradiation light 153 is formed by the infrared LED 33 of the lamp unit 14R, and the irradiation light 154 is formed by the lamp It is formed by the infrared LEDs 34 of the unit 14R. The light source used for each lamp unit is not limited to LEDs, and LDs (laser diodes) can also be used.

図示のように、各照射光151、152、153、154は、互いの指向角の範囲が重複しないように形成される。詳細には、各照射光151~154は、各々の光軸a1、a2、a3、a4の間で規定される配置角θ12、θ23、θ34が所定の大きさとなるようにそれぞれの向きが保たれている。配置角θ12は、照射光151の光軸a1と照射光152の光軸a2とのなす角であり、配置角θ23は、照射光152の光軸a2と照射光153の光軸a3とのなす角であり、配置角θ34は、照射光153の光軸a3と照射光154の光軸a4とのなす角である。これらの配置角は、一例として、θ12を3.7°~3.8°、θ23を2.2°~3.0°、θ34を3.7°~3.8°に設定することが好ましい。これらの設定値は、例えば車両1の30m~50m前方を照射してその状況を把握するのに適している。 As shown, the irradiation lights 151, 152, 153, and 154 are formed so that the directivity angle ranges do not overlap each other. Specifically, each of the irradiation lights 151 to 154 is oriented in such a manner that the arrangement angles θ 12 , θ 23 , and θ 34 defined between the optical axes a1, a2, a3, and a4 have predetermined sizes. is preserved. The arrangement angle θ12 is the angle between the optical axis a1 of the irradiation light 151 and the optical axis a2 of the irradiation light 152, and the arrangement angle θ23 is the angle between the optical axis a2 of the irradiation light 152 and the optical axis a3 of the irradiation light 153. The arrangement angle θ 34 is the angle between the optical axis a 3 of the irradiation light 153 and the optical axis a 4 of the irradiation light 154 . As an example, these arrangement angles are set to 3.7° to 3.8° for θ12 , 2.2° to 3.0° for θ23 , and 3.7° to 3.8° for θ34 . is preferred. These set values are suitable, for example, for illuminating 30 to 50 m ahead of the vehicle 1 and grasping the situation.

図5(A)及び図5(B)は、各ランプユニットによる照射光の状態を説明するための図である。上記した図4と同様に車両1を上方から見た様子が模式的に示されている。ある時期においては、ランプユニット14Lの赤外LED31とランプユニット14Rの赤外LED33による光照射が行われ、照射光151、153が車両1の前方に形成される。別の時期においては、ランプユニット14Lの赤外LED32とランプユニット14Rの赤外LED34による光照射が行われ、照射光152、154が車両1の前方に形成される。このように、照射光151、153の形成と照射光152、154の形成とが交互に繰り返し実行される。 FIGS. 5A and 5B are diagrams for explaining the state of light emitted from each lamp unit. Similar to FIG. 4 described above, the vehicle 1 is schematically shown as viewed from above. At a certain time, light irradiation is performed by the infrared LED 31 of the lamp unit 14L and the infrared LED 33 of the lamp unit 14R, and irradiation lights 151 and 153 are formed in front of the vehicle 1. FIG. At another time, the infrared LEDs 32 of the lamp unit 14L and the infrared LEDs 34 of the lamp unit 14R emit light, and irradiation lights 152 and 154 are formed in front of the vehicle 1 . In this way, the formation of the irradiation lights 151 and 153 and the formation of the irradiation lights 152 and 154 are alternately and repeatedly executed.

これらの照射光は、カメラ10による撮像周期に同期して切り替えられる。例えば、カメラ10の撮影時のフレームレートが30fpsであれば、これに同期して照射光151、153の形成と照射光152、154の形成が1/30秒の周期で切り替えられる。このような制御は、カメラ10から出力される露光動作に同期したトリガ信号を用いてドライバ13により実行される。 These irradiation lights are switched in synchronization with the imaging cycle of the camera 10 . For example, if the frame rate of the camera 10 when photographing is 30 fps, the formation of the irradiation lights 151 and 153 and the formation of the irradiation lights 152 and 154 are switched at a cycle of 1/30 second in synchronization with this. Such control is executed by the driver 13 using a trigger signal output from the camera 10 and synchronized with the exposure operation.

図6(A)及び図7(A)は、霧発生時にカメラによって得られる画像データの一例を模式的に示す図である。図6(A)では照射光151、153が照射されている際の画像データ例が示されており、図7(A)では照射光152、154が照射されている際の画像データ例が示されている。図6(A)に示すように、霧発生時に車両1の前方空間を撮影して得られる画像データ160aは、大部分において低輝度となり、先行車両などの物体や車線などを判別しづらいものとなる。また、画像データ160aには、照射光151、153による反射光に対応する光像161、163が含まれる。光像161、163は、相対的に輝度が高い領域である。光像161、163の周囲は、低輝度であり、照射光151、153が霧などにより散乱および反射して得られる。同様に、図7(A)に示すように、画像データ160bは、大部分において低輝度であり、照射光151、153に対応する光像162、164が含まれる。 FIGS. 6A and 7A are diagrams schematically showing an example of image data obtained by a camera when fog occurs. FIG. 6A shows an example of image data when irradiation lights 151 and 153 are applied, and FIG. 7A shows an example of image data when irradiation lights 152 and 154 are applied. It is As shown in FIG. 6A, most of the image data 160a obtained by photographing the space ahead of the vehicle 1 when fog occurs has low luminance, and it is difficult to distinguish objects such as preceding vehicles and lanes. Become. The image data 160 a also includes optical images 161 and 163 corresponding to reflected light from the irradiation light 151 and 153 . The optical images 161 and 163 are areas with relatively high brightness. The surroundings of the light images 161 and 163 have low luminance, and are obtained by scattering and reflecting the illumination light 151 and 153 due to fog or the like. Similarly, as shown in FIG. 7A, the image data 160b is mostly of low luminance and includes light images 162, 164 corresponding to the illumination lights 151, 153. FIG.

上記のような画像データ160aに対して、飽和画像生成部21は、照射光151、153に対応する部分である光像161、163の輝度が最大値に飽和するように画像データ160aの全体の輝度を調整する。画像データ160a内において照射光151、153に対応する光像161、163が形成される範囲は、カメラ10の画角等の特性やランプユニット14Lからの照射光151、153の指向角などの情報から予め特定可能である。このため、光像161、163のそれぞれの範囲内に含まれる各画素の輝度を抽出し、その中で最も輝度の低い画素の輝度が飽和するような係数を求める。例えば、各画素に設定可能な輝度の最大値が255であり、光像161の範囲内で最も輝度の低い画素の輝度が100であったとすると、この画素の輝度を最大値に飽和させるには係数として2.55(=255/100)を乗算すればよい。さらに、この係数を光像161の他画素の輝度にも乗算する。このとき、係数を乗算後の輝度が最大値の255を超える場合はすべて255にする。光像163の範囲内の各画素に対しても同様に処理する。また、飽和画像生成部21は、画像データ160bに対しても上記と同様の処理を行う。 For the image data 160a as described above, the saturated image generation unit 21 performs the image data 160a as a whole so that the brightness of the light images 161 and 163 corresponding to the irradiation lights 151 and 153 is saturated to the maximum value. Adjust brightness. The range in which the optical images 161 and 163 corresponding to the irradiation lights 151 and 153 are formed in the image data 160a is determined by information such as characteristics such as the angle of view of the camera 10 and the orientation angles of the irradiation lights 151 and 153 from the lamp unit 14L. can be specified in advance from For this reason, the brightness of each pixel included in each range of the optical images 161 and 163 is extracted, and a coefficient that saturates the brightness of the pixel with the lowest brightness among them is obtained. For example, if the maximum brightness value that can be set for each pixel is 255, and the brightness of the pixel with the lowest brightness within the range of the optical image 161 is 100, the brightness of this pixel can be saturated to the maximum value. Multiply by 2.55 (=255/100) as a coefficient. Further, the luminance of other pixels of the optical image 161 is also multiplied by this coefficient. At this time, if the luminance after multiplication by the coefficient exceeds the maximum value of 255, it is set to 255. Each pixel within the optical image 163 is similarly processed. The saturated image generation unit 21 also performs the same processing as described above on the image data 160b.

また、上記のように求められた係数を画像データ160a、160bの他画素の各輝度に対しても乗算する。それにより、処理前は低輝度で判別しづらかった各画素についても輝度の値が底上げされ、判別可能な部分が得られる。このようにして得られる第1飽和画像データ170aの一例を図6(B)に示す。図示のように、第1飽和画像データ170aは、照射光151、153に対応する部分171、173がすべて輝度の上限値に飽和したもの(いわゆる白飛びしたもの)となる。また、第1飽和画像データ170aは、照射光151、153が霧中でミー散乱により周辺へ伝搬して照射されることにより、照射光151、153の周辺の路面や路上の物体も判別可能な程度に輝度が底上げされたものとなる。同様に、図7(B)に示すように第2飽和画像データ170bは、照射光152、154に対応する部分172、174がすべて輝度の上限値に飽和したものとなり、かつ照射光152、154の周辺の路面等も判別可能な程度に輝度が底上げされたものとなる。 In addition, each luminance of the other pixels of the image data 160a and 160b is also multiplied by the coefficient obtained as described above. As a result, the luminance value of each pixel, which was difficult to distinguish due to its low luminance before processing, is increased, and a distinguishable portion is obtained. An example of the first saturated image data 170a obtained in this way is shown in FIG. 6(B). As shown in the figure, the first saturated image data 170a is such that the portions 171 and 173 corresponding to the illumination lights 151 and 153 are all saturated at the upper limit of luminance (so-called whiteout). In addition, the first saturated image data 170a is such that the illumination light 151 and 153 propagates to the periphery by Mie scattering in the fog and is irradiated, so that the road surface and objects on the road around the illumination light 151 and 153 can be distinguished. The brightness is raised to the bottom. Similarly, as shown in FIG. 7B, the second saturated image data 170b is such that the portions 172 and 174 corresponding to the illumination lights 152 and 154 are all saturated to the upper limit of luminance, and the illumination lights 152 and 154 The brightness is raised to the extent that the road surface, etc., in the surrounding area can also be distinguished.

図8(A)は、第1輝度置換画像データの一例を模式的に示す図である。図8(B)は、第2輝度置換画像データの一例を模式的に示す図である。輝度置換画像生成部22は、第1飽和画像データ170aに対して、照射光151、153に対応する部分171、173の各々に含まれる各画素の輝度を最大値より極めて低輝度となる特定値(本実施形態では輝度値0)に置き換えた輝度置換画像データ180aを生成する(図8(A)参照)。この第1輝度置換画像データ180aでは、部分171に対応した範囲に低輝度領域181が形成され、部分173に対応した範囲に低輝度領域183が形成される。同様にして、輝度置換画像生成部22は、第2飽和画像データ170bに基づいて輝度置換画像データ180bを生成する(図8(B)参照)。この第2輝度置換画像データ180bでは、部分172に対応した範囲に低輝度領域182が形成され、部分174に対応した範囲に低輝度領域184が形成される。 FIG. 8A is a diagram schematically showing an example of first luminance-substituted image data. FIG. 8B is a diagram schematically showing an example of second luminance-substituted image data. The brightness-replaced image generation unit 22 sets the brightness of each pixel included in each of the portions 171 and 173 corresponding to the irradiation lights 151 and 153 to a specific value that is much lower than the maximum brightness for the first saturated image data 170a. (In this embodiment, the luminance value is 0) to generate luminance-replaced image data 180a (see FIG. 8A). In the first luminance-replaced image data 180 a , a low-luminance area 181 is formed in the range corresponding to the portion 171 and a low-luminance area 183 is formed in the range corresponding to the portion 173 . Similarly, the brightness-replaced image generation unit 22 generates brightness-replaced image data 180b based on the second saturated image data 170b (see FIG. 8B). In the second luminance-replaced image data 180b, a low-luminance region 182 is formed in the range corresponding to the portion 172, and a low-luminance region 184 is formed in the range corresponding to the portion 174. FIG.

低輝度領域を形成する際の特定値は、0であることが好ましい。なお、低輝度領域を形成する際の特定値は、0に限定されず、実質的に低輝度といえる値であればよく、例えば最大値の5%以下の値を設定してもよい。各画素の輝度が最低値0、最大値255の範囲で規定される場合であれば、12以下の値を設定することができる。 The specific value for forming the low luminance area is preferably 0. Note that the specific value for forming the low-luminance region is not limited to 0, and may be any value that can be said to be substantially low-luminance. For example, a value that is 5% or less of the maximum value may be set. If the brightness of each pixel is specified within the range of 0 as the minimum value and 255 as the maximum value, a value of 12 or less can be set.

図8(C)は、合成画像データの一例を模式的に示す図である。合成画像生成部23は、第1輝度置換画像データ180aと第2輝度置換画像データ180bを合成することにより合成画像データ190を生成する。例えば、第1輝度置換画像データ180aと第2輝度置換画像データ180bとで対応する画素の輝度を合算し、この値に1/2を乗じることで合成画像データ190の各画素の輝度が得られる。それにより、車線や路上の物体(例えば先行車両)を認識しやすい画像データが得られる。 FIG. 8C is a diagram schematically showing an example of synthesized image data. The composite image generator 23 generates composite image data 190 by combining the first luminance-substituted image data 180a and the second luminance-substituted image data 180b. For example, the brightness of each pixel of the combined image data 190 can be obtained by summing the brightness of corresponding pixels in the first brightness-replaced image data 180a and the second brightness-replaced image data 180b and multiplying this value by 1/2. . As a result, it is possible to obtain image data that facilitates recognition of lanes and road objects (for example, preceding vehicles).

このとき、第1輝度置換画像データ180aの各低輝度領域181、183の各画素とこれらに対応する第2輝度置換画像データ180bの各画素においては、単に輝度を合算するのみとして、1/2を乗じないようにすることも好ましい。同様に、第2輝度置換画像データ180bの各低輝度領域182、184の各画素とこれらに対応する第1輝度置換画像データ180aの各画素においては、単に輝度を合算するのみとして、1/2を乗じないようにすることも好ましい。これらの画素では合算した後に1/2を乗算しないことで、各低輝度領域181、183においては対応する第2輝度置換画像データ180bの各領域の輝度に置き換えられるのと同等の効果が得られ、各低輝度領域182、184においては対応する第1輝度置換画像データ180aの各領域の輝度に置き換えられるのと同等の効果が得られ、これらの領域と合成画像データ190の他の部分との間での輝度の差異を緩和することができる。 At this time, in each pixel of the low-luminance areas 181 and 183 of the first luminance-replaced image data 180a and each pixel of the second luminance-replaced image data 180b corresponding thereto, the luminance is simply added up, and the luminance is reduced to 1/2. It is also preferable not to multiply . Similarly, in the pixels of the low-luminance regions 182 and 184 of the second luminance-permuted image data 180b and the corresponding pixels of the first luminance-permuted image data 180a, the luminances are simply summed up to obtain 1/2. It is also preferable not to multiply . By not multiplying these pixels by 1/2 after summation, an effect equivalent to replacing the brightness of each region of the corresponding second brightness-replaced image data 180b in each of the low brightness regions 181 and 183 can be obtained. , in each of the low luminance areas 182 and 184, an effect equivalent to that of replacing the luminance of each area of the corresponding first luminance-replaced image data 180a is obtained. It is possible to mitigate the difference in luminance between them.

図9は、撮像システムのコントローラの動作手順を示すフローチャートである。ここに示す動作手順は、霧発生時においてカメラ10による撮像周期に対応して繰り返し行われるものとする。なお、霧発生時であることの検出については公知の方法を用いることができ、例えばカメラ10によって得られる画像データに基づいて検出することもできる。あるいは、図示しない操作部等を用いて運転者により霧発生時であることが操作入力されてもよい。また、図示のフローチャートにおいては、情報処理の結果に矛盾や不整合を生じない限りにおいて図示の各処理ブロックの順序を入れ替えてもよいし、図示しない他の処理ブロックが追加されてもよく、そのような実施態様も排除されない。 FIG. 9 is a flow chart showing the operation procedure of the controller of the imaging system. It is assumed that the operation procedure shown here is repeatedly performed corresponding to the imaging cycle of the camera 10 when fog is generated. A well-known method can be used to detect that fog is occurring. For example, it can be detected based on image data obtained by the camera 10 . Alternatively, the fact that fog is occurring may be input by the driver using an operation unit or the like (not shown). Further, in the illustrated flowchart, the order of the illustrated processing blocks may be changed as long as there is no contradiction or inconsistency in the information processing results, and other processing blocks (not illustrated) may be added. Such embodiments are not excluded.

コントローラ11の飽和画像生成部21は、カメラ10から画像データを取得する(ステップS11)。上記のように、照射光151、153の照射に対応して画像データ160a(図6(A)参照)が取得され、照射光152、154の照射に対応して画像データ160b(図7(A)参照)が取得される。 The saturated image generator 21 of the controller 11 acquires image data from the camera 10 (step S11). As described above, the image data 160a (see FIG. 6A) is obtained corresponding to the irradiation of the irradiation lights 151 and 153, and the image data 160b (FIG. 7A) is obtained corresponding to the irradiation of the irradiation lights 152 and 154. ) reference) is obtained.

飽和画像生成部21は、取得した各画像データ160a、160bに基づいて飽和画像データを生成する(ステップS12)。上記のように、画像データ160aに基づいて第1飽和画像データ170aが生成され(図6(B)参照)、画像データ160bに基づいて第2飽和画像データ170bが生成される(図7(B)参照)。 The saturated image generator 21 generates saturated image data based on the acquired image data 160a and 160b (step S12). As described above, first saturated image data 170a is generated based on image data 160a (see FIG. 6B), and second saturated image data 170b is generated based on image data 160b (see FIG. 7B). )reference).

次に、輝度置換画像生成部22は、飽和画像生成部21によって生成された各飽和画像データに基づいて輝度置換画像データを生成する(ステップS13)。上記のように、第1飽和画像データ170aに基づいて第1輝度置換画像データ180aが生成され(図8(A)参照)、第2飽和画像データ170bに基づいて第2輝度置換画像データ180bが生成される(図8(B)参照)。 Next, the brightness-replaced image generation unit 22 generates brightness-replaced image data based on each saturated image data generated by the saturated image generation unit 21 (step S13). As described above, the first luminance-permuted image data 180a is generated based on the first saturated image data 170a (see FIG. 8A), and the second luminance-permuted image data 180b is generated based on the second saturated image data 170b. generated (see FIG. 8(B)).

次に、合成画像生成部23は、各輝度置換画像データに基づいて合成画像データを生成する(ステップS14)。上記のように、第1輝度置換画像データ180aと第2飽和画像データ180bを合成することで合成画像データ190が生成される(図8(C)参照)。生成された合成画像データ190は、図示しない他装置/システムへ提供される。また、合成画像データ190に基づく画像がディスプレイ12に表示される。その後、ステップS11へ戻る。 Next, the composite image generator 23 generates composite image data based on each luminance-replaced image data (step S14). As described above, the synthesized image data 190 is generated by synthesizing the first luminance-replaced image data 180a and the second saturated image data 180b (see FIG. 8C). The generated synthetic image data 190 is provided to another device/system (not shown). Also, an image based on the composite image data 190 is displayed on the display 12 . After that, the process returns to step S11.

以上のような実施形態によれば、霧発生時における対象空間(例えば車両前方)の状況をより的確に認識可能とする画像を得ることができる。 According to the embodiment as described above, it is possible to obtain an image that enables more accurate recognition of the situation of the target space (for example, the front of the vehicle) when fog occurs.

なお、本開示は上記した実施形態の内容に限定されるものではなく、本開示の要旨の範囲内において種々に変形して実施をすることが可能である。例えば、上記した実施形態では撮像システムの用途の一例として車載する場合を挙げたが用途はこれに限定されない。 It should be noted that the present disclosure is not limited to the contents of the above-described embodiments, and various modifications can be made within the scope of the gist of the present disclosure. For example, in the above-described embodiments, as an example of the use of the imaging system, the case of being mounted on a vehicle has been given, but the use is not limited to this.

また、上記した実施形態では2つのタイミングでそれぞれ2つずつの照射光を形成して画像データを得ていたが、各タイミングで形成する照射光は1つずつであってもよいし、3つ以上であってもよい。 In the above-described embodiment, two pieces of irradiation light are formed at two timings to obtain image data, but one piece of irradiation light or three pieces of irradiation light may be formed at each timing. or more.

また、上記した実施形態では各々が2つの赤外LEDを備える2つのランプユニットを用いて照射光を形成していたが、ランプユニットは一体に構成されていてもよい。また、レーザ素子からのレーザ光をMEMSミラー素子で走査することによって複数の照射光を形成可能なランプユニットを用いてもよいし、LED等の光源からの光を用いて液晶素子によって複数の照射光を形成可能なランプユニットを用いてもよいし、アクチュエータ等の機械的構成を用いてLED等の光源の向きを可変に設定することで複数の照射光を形成可能なランプユニットを用いてもよい。 Further, in the above-described embodiment, two lamp units each having two infrared LEDs are used to form irradiation light, but the lamp units may be integrally configured. Alternatively, a lamp unit capable of forming a plurality of irradiation lights may be used by scanning laser light from a laser element with a MEMS mirror element, or a liquid crystal element may be used to form a plurality of irradiation lights using light from a light source such as an LED. A lamp unit capable of forming light may be used, or a lamp unit capable of forming a plurality of irradiation lights may be used by variably setting the direction of a light source such as an LED using a mechanical configuration such as an actuator. good.

1:車両、10:カメラ、11:コントローラ、12:ディスプレイ、13:ドライバ、14L、14R:ランプユニット、15:照射光、16:出光点、21:飽和画像生成部、22:輝度置換画像生成部、23:合成画像生成部、31、32、33、34:赤外LED、151、152、153、154:照射光、160a、160b:画像データ、170a:第1飽和画像データ、170b:第2飽和画像データ、180a、第1輝度置換画像データ、170b:第2輝度置換画像データ、190:合成画像データ 1: Vehicle, 10: Camera, 11: Controller, 12: Display, 13: Driver, 14L, 14R: Lamp unit, 15: Irradiation light, 16: Light output point, 21: Saturated image generator, 22: Brightness replacement image generation Section 23: Synthetic image generating section 31, 32, 33, 34: Infrared LEDs 151, 152, 153, 154: Irradiation light 160a, 160b: Image data 170a: First saturated image data 170b: Second 2 saturated image data, 180a, first luminance-replaced image data, 170b: second luminance-replaced image data, 190: synthesized image data

Claims (8)

近赤外波長又は赤外波長の光を放出する光源と、
対象空間を撮影して画像データを生成するカメラと、
前記カメラから得られる前記画像データを用いて画像処理を行うコントローラと、
を含み、
前記光源は、前記対象空間に対して各々がビーム状である第1照射光と第2照射光とを異なる時期に照射するものであり、
前記コントローラは、
前記第1照射光の照射時期に対応した第1画像データと前記第2照射光の照射時期に対応した第2画像データとを前記カメラから取得し、
前記第1画像データの前記第1照射光に対応する部分である第1部分の各画素の輝度が最大値に飽和するように前記第1画像データの全体の輝度を調整することにより第1飽和画像データを生成するとともに、前記第2画像データの前記第2照射光に対応する部分である第2部分の各画素の輝度が最大値に飽和するように前記第2画像データの全体の輝度を調整することにより第2飽和画像データを生成し、
前記第1飽和画像データの前記第1部分の各画素の輝度を特定値に置換することにより第1置換画像データを生成するとともに、前記第2飽和画像データの前記第2部分の各画素の輝度を前記特定値に置換することにより第2置換画像データを生成し、
前記第1置換画像データと前記第2置換画像データを合成することによって合成画像データを生成する、
撮像システム。
a light source that emits light of near-infrared wavelengths or infrared wavelengths;
a camera that captures a target space and generates image data;
a controller that performs image processing using the image data obtained from the camera;
including
wherein the light source irradiates the target space with first irradiation light and second irradiation light, each of which is in the form of a beam, at different times;
The controller is
Acquiring from the camera first image data corresponding to the irradiation time of the first irradiation light and second image data corresponding to the irradiation time of the second irradiation light,
first saturation by adjusting the brightness of the entire first image data so that the brightness of each pixel in the first portion corresponding to the first irradiation light of the first image data is saturated to a maximum value; image data is generated, and the overall brightness of the second image data is adjusted so that the brightness of each pixel of the second portion corresponding to the second irradiation light of the second image data is saturated at a maximum value; generating second saturated image data by adjusting;
generating first substituted image data by replacing the luminance of each pixel of the first portion of the first saturated image data with a specific value, and luminance of each pixel of the second portion of the second saturated image data; is replaced with the specific value to generate second replacement image data,
generating synthesized image data by synthesizing the first replacement image data and the second replacement image data;
imaging system.
前記輝度の前記特定値は、前記最大値の5%以下の値である、
請求項1に記載の撮像システム。
the specific value of the luminance is a value of 5% or less of the maximum value;
The imaging system of Claim 1.
前記第1照射光と前記第2照射光は、各々の光軸を中心として半角2°の指向角を有する光である、
請求項1又2に記載の撮像システム。
The first irradiation light and the second irradiation light are light having a directivity angle of 2° half angle around each optical axis,
3. An imaging system according to claim 1 or 2.
前記第1画像データの前記第1部分及び前記第2画像データの前記第2部分は、各々、前記指向角の範囲内に対応する部分である、
請求項3に記載の撮像システム。
the first portion of the first image data and the second portion of the second image data are portions corresponding to the range of the directivity angle;
4. The imaging system according to claim 3.
前記光源は、前記指向角により規定される範囲同士が重複しないように前記第1照射光と前記第2照射光の各々を照射する、
請求項3又は4に記載の撮像システム。
The light source irradiates each of the first irradiation light and the second irradiation light so that the ranges defined by the directivity angles do not overlap.
The imaging system according to claim 3 or 4.
前記第1照射光と前記第2照射光は、各々、2つの照射光を含む、
請求項1~5の何れか1項に記載の撮像システム。
The first illumination light and the second illumination light each include two illumination lights,
The imaging system according to any one of claims 1-5.
前記コントローラは、前記合成画像データを生成する際に、前記第1輝度置換画像データの前記第1部分及び前記第2輝度置換画像データの前記第2部分では対応する各前記画素同士の輝度を加算することで各前記画素の輝度を求め、前記第1部分及び前記第2部分以外の部分では対応する各前記画素同士の輝度の合計値に1/2を乗じて各前記画素の輝度を求めることによって前記合成画像データを生成する、
請求項1~8の何れか1項に記載の撮像システム。
The controller adds luminances of corresponding pixels in the first portion of the first luminance-substituted image data and the second portion of the second luminance-substituted image data when generating the combined image data. In the portions other than the first portion and the second portion, the sum of the luminances of the corresponding pixels is multiplied by 1/2 to obtain the luminance of each pixel. generating the composite image data by
The imaging system according to any one of claims 1-8.
対象空間に対して、近赤外波長又は赤外波長の光を放出する光源から各々ビーム状である第1照射光と第2照射光とが異なる時期に照射されること、
コントローラが、前記第1照射光の照射時期に対応した第1画像データと前記第2照射光の照射時期に対応した第2画像データとをカメラから取得すること、
前記コントローラが、前記第1画像データの前記第1照射光に対応する部分である第1部分の各画素の輝度が最大値に飽和するように前記第1画像データの全体の輝度を調整することにより第1飽和画像データを生成するとともに、前記第2画像データの前記第2照射光に対応する部分である第2部分の各画素の輝度が最大値に飽和するように前記第2画像データの全体の輝度を調整することにより第2飽和画像データを生成すること、
前記コントローラが、前記第1飽和画像データの前記第1部分の各画素の輝度を特定値に置換することにより第1置換画像データを生成するとともに、前記第2飽和画像データの前記第2部分の各画素の輝度を前記特定値に置換することにより第2置換画像データを生成すること、
前記コントローラが、前記第1置換画像データと前記第2置換画像データを合成することによって合成画像データを生成すること、
を含む、撮像方法。
irradiating the target space with the first irradiation light and the second irradiation light, each of which is in the form of a beam, from a light source that emits light of a near-infrared wavelength or an infrared wavelength, at different times;
a controller obtaining from a camera first image data corresponding to the irradiation timing of the first irradiation light and second image data corresponding to the irradiation timing of the second irradiation light;
The controller adjusts the overall brightness of the first image data such that the brightness of each pixel of the first portion corresponding to the first irradiation light of the first image data is saturated to a maximum value. to generate first saturated image data, and to generate the second image data so that the brightness of each pixel in the second portion corresponding to the second irradiation light of the second image data is saturated to a maximum value. generating second saturated image data by adjusting the overall brightness;
The controller generates first replacement image data by replacing luminance of each pixel of the first portion of the first saturated image data with a specific value, and generates first replacement image data of the second portion of the second saturated image data. generating second replacement image data by replacing the brightness of each pixel with the specific value;
the controller generating synthesized image data by synthesizing the first replacement image data and the second replacement image data;
An imaging method, comprising:
JP2021164580A 2021-10-06 2021-10-06 Imaging system and imaging method Pending JP2023055317A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021164580A JP2023055317A (en) 2021-10-06 2021-10-06 Imaging system and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021164580A JP2023055317A (en) 2021-10-06 2021-10-06 Imaging system and imaging method

Publications (1)

Publication Number Publication Date
JP2023055317A true JP2023055317A (en) 2023-04-18

Family

ID=86004363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021164580A Pending JP2023055317A (en) 2021-10-06 2021-10-06 Imaging system and imaging method

Country Status (1)

Country Link
JP (1) JP2023055317A (en)

Similar Documents

Publication Publication Date Title
JP6751307B2 (en) Vehicle lighting
JP5045212B2 (en) Face image capturing device
US7015944B2 (en) Device for improving visibility in vehicles
JP4659906B2 (en) Night vision device
JP7235659B2 (en) Vehicle lighting system and vehicle
US20100277935A1 (en) Vehicle monitoring camera and vehicle monitoring camera system
JP2016522545A (en) Vehicle headlight
US11275288B2 (en) Ballistic light modulations for image enhancement through fog
WO2019187446A1 (en) Image processing device, image processing method, image processing program, and mobile object
US10179535B2 (en) Lighting control device of vehicle headlamp and vehicle headlamp system
JP6935815B2 (en) Illumination imager
WO2021010339A1 (en) Imaging device, lighting device for same, vehicle, and lamp fitting for vehicle
JP2023055317A (en) Imaging system and imaging method
US11375134B2 (en) Vehicle monitoring system
JP6322723B2 (en) Imaging apparatus and vehicle
WO2021193645A1 (en) Gating camera, sensing system, and vehicle lamp
WO2019044434A1 (en) Object detection system
RU2746614C1 (en) Method for suppressing backlight when forming images of road environment in front of vehicle and device for implementing method
JP7310024B2 (en) Vehicle assembly, lighting unit, vehicle and vehicle with assembly
WO2022270476A1 (en) Imaging device, vehicle lamp, and vehicle
WO2022196296A1 (en) Vehicle lamp control device, vehicle lamp control method and vehicle lamp system
WO2021079811A1 (en) Imaging device, vehicular lamp, vehicle, and imaging method
WO2021015208A1 (en) Active sensor, gating camera, automobile, and vehicle lamp fitting
WO2020209005A1 (en) Vehicular lamp and vehicle system
WO2023181816A1 (en) Light distribution control device, vehicle lamp system, and light distribution control method