JP2006350670A - Night driving visibility support system - Google Patents

Night driving visibility support system Download PDF

Info

Publication number
JP2006350670A
JP2006350670A JP2005175737A JP2005175737A JP2006350670A JP 2006350670 A JP2006350670 A JP 2006350670A JP 2005175737 A JP2005175737 A JP 2005175737A JP 2005175737 A JP2005175737 A JP 2005175737A JP 2006350670 A JP2006350670 A JP 2006350670A
Authority
JP
Japan
Prior art keywords
vehicle
display area
image
road
exposure control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005175737A
Other languages
Japanese (ja)
Other versions
JP4556777B2 (en
Inventor
Kentaro Mochida
健太郎 望田
Koji Okata
浩司 大方
Takayuki Kimura
貴之 木村
Fumio Asakura
史生 浅倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2005175737A priority Critical patent/JP4556777B2/en
Publication of JP2006350670A publication Critical patent/JP2006350670A/en
Application granted granted Critical
Publication of JP4556777B2 publication Critical patent/JP4556777B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a night driving visibility support system that can image a subject clearly. <P>SOLUTION: According to deflection angle information from an AFS_ECU 8, the shape of a road ahead of a vehicle is estimated, and the setting position of a display area to be displayed on a display device 7 is changed such that the road in the estimated shape is included in the display area. According to the deflection angle information, the setting position and size of an exposure control use area are also changed such that the exposure control use area includes the illumination range of headlights 9 in an image captured by a camera 1. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、夜間運転視界支援装置に関するものである。   The present invention relates to a night driving visibility support device.

従来、ナイトビジョンシステム等の夜間の視界を確保するための技術が提案されている(例えば、特許文献1参照。)。この特許文献1に記載されている技術によれば、車両前方を撮影する赤外線カメラの映像をヘッドアップディスプレイに表示することで、可視光では確認できない歩行者等の存在を事前に認識可能とする。
特開平11−263145号公報
Conventionally, a technique for ensuring night vision such as a night vision system has been proposed (see, for example, Patent Document 1). According to the technique described in Patent Document 1, the presence of a pedestrian or the like that cannot be confirmed with visible light can be recognized in advance by displaying an image of an infrared camera that captures the front of the vehicle on a head-up display. .
JP-A-11-263145

上述した、夜間の視界を確保するナイトビジョンシステム等においては、車両の進路内に存在する歩行者等だけでなく、車両の進路に進入しそうな歩行者等も撮像できるよう、カメラの撮像範囲は、なるべく広角であること(言い換えれば、進路の上下・左右方向に幅広いこと)が望ましい。   In the above-described night vision system that secures night vision, the imaging range of the camera is such that not only pedestrians existing in the course of the vehicle but also pedestrians who are likely to enter the course of the vehicle can be imaged. It is desirable that the angle be as wide as possible (in other words, wide in the vertical and horizontal directions).

しかしながら、撮像範囲を広角にすると、歩行者等の被写体がディスプレイ上で小さく映し出されることになる。そのため、従来は、撮像画像の一部分の範囲を表示エリアとして設定し、この表示エリア内の画像をディスプレイに表示することで、被写体がフォーカスして映し出されるようにしている。そのため、例えば、車両の進路が前方でカーブしている場合や、車両の進路の前方で道路の勾配が変化する場合に、進路の前方に存在する被写体を映し出すことができないことがあった。   However, when the imaging range is set to a wide angle, a subject such as a pedestrian is projected on the display in a small size. Therefore, conventionally, a range of a part of the captured image is set as a display area, and an image in the display area is displayed on a display so that the subject is focused and projected. For this reason, for example, when the course of the vehicle is curved forward, or when the slope of the road changes in front of the course of the vehicle, the subject existing in front of the course may not be projected.

また、従来、カメラの露出は、カメラの撮像した画像に対して露出制御に用いるべき領域を設定し、その領域の暗い部分についても明るく映し出されるように制御することで、暗い部分に存在する被写体に露出が合うようにしている。しかしながら、上記領域の明るい部分に被写体が存在する場合、上記領域の暗い部分についても明るく映し出されるように露出を制御すると、被写体に露出が合わず、白飛びした画像が映し出されてしまう。   Conventionally, the exposure of the camera sets an area to be used for exposure control on the image captured by the camera, and controls the dark part of the area so that it is projected brightly. The exposure is adjusted to match. However, when the subject is present in the bright part of the area, if the exposure is controlled so that the dark part of the area is also projected brightly, the subject is not exposed and an overexposed image is projected.

本発明は、上記の問題を鑑みてなされたもので、被写体を鮮明に映し出すことができる夜間運転視界支援装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide a night driving vision support device that can clearly display a subject.

上記目的を達成するために、請求項1に記載の夜間運転視界支援装置は、
車両に搭載され、車両の前方の画像を撮像する赤外線カメラと、
赤外線カメラの撮像した画像の一部分が表示エリアとして設定され、この表示エリア内の画像を表示する表示手段と、を備えるものであり、
車両前方の道路に関する道路関連情報を取得する道路関連情報取得手段と、
道路関連情報取得手段の取得した道路関連情報に基づいて、表示エリアの設定位置を赤外線カメラの撮像した画像の上下、及び左右の少なくとも一方の方向に変更する表示エリア変更手段と、を備え、
表示手段は、表示エリア変更手段の変更した表示エリア内の画像を表示することを特徴とする。
In order to achieve the above object, a night driving vision support device according to claim 1,
An infrared camera that is mounted on a vehicle and captures an image in front of the vehicle;
A part of an image captured by the infrared camera is set as a display area, and a display means for displaying an image in the display area is provided.
Road-related information acquisition means for acquiring road-related information regarding the road ahead of the vehicle;
Based on the road related information acquired by the road related information acquisition means, the display area changing means for changing the set position of the display area in at least one of the vertical and horizontal directions of the image captured by the infrared camera,
The display means displays an image in the display area changed by the display area changing means.

このように、本発明は、赤外線カメラの撮像した画像に対して設定する表示エリアを固定するのではなく、車両前方の道路に関する道路関連情報に基づいて、その表示エリアの設定位置を変更する。これにより、車両前方の道路に応じて表示エリアの設定位置が変更されるため、例えば、車両の進路が前方でカーブしている場合や、車両の進路の前方で道路の勾配が変化する場合であっても、進路の前方に存在する被写体を鮮明に映し出すことが可能となる。   Thus, the present invention does not fix the display area set for the image captured by the infrared camera, but changes the set position of the display area based on the road-related information regarding the road ahead of the vehicle. As a result, the setting position of the display area is changed according to the road ahead of the vehicle. For example, when the course of the vehicle is curved forward, or when the slope of the road changes ahead of the course of the vehicle. Even in such a case, it is possible to clearly display a subject existing in front of the course.

請求項2に記載の夜間運転視界支援装置によれば、道路関連情報取得手段は、車両前方の道路上の白線を認識する白線認識手段、車両のステアリングの操舵角を検出する操舵角検出手段、車両の走行状況に応じて車両のヘッドライトの照射光軸を車両の上下、及び左右の少なくとも一方の方向に偏向する照射光軸偏向手段、道路の曲率、及び勾配の少なくとも一方を含む道路データを記憶する道路データ記憶手段の少なくとも1つの手段から、道路関連情報を取得することを特徴とする。これにより、車両前方の道路に関する道路関連情報を取得することができる。   According to the night driving visibility support device according to claim 2, the road related information acquisition means includes a white line recognition means for recognizing a white line on the road ahead of the vehicle, a steering angle detection means for detecting a steering angle of the steering of the vehicle, Road data including at least one of irradiation optical axis deflecting means for deflecting the irradiation optical axis of the headlight of the vehicle in at least one of the vertical and horizontal directions of the vehicle, the curvature of the road, and the gradient according to the traveling state of the vehicle. Road-related information is acquired from at least one means of road data storage means for storing. Thereby, the road relevant information regarding the road ahead of the vehicle can be acquired.

請求項3に記載の夜間運転視界支援装置は、
車両に搭載され、車両の前方の画像を撮像する赤外線カメラと、
赤外線カメラの撮像した画像の一部分が表示エリアとして設定され、この表示エリア内の画像を表示する表示手段と、を備えるものであり、
車両のピッチ角を検出するピッチ角検出手段と、
ピッチ角検出手段の検出したピッチ角に基づいて、表示エリアの設定位置を赤外線カメラの撮像した画像の上下方向に変更する表示エリア変更手段と、を備え、
表示手段は、表示エリア変更手段の変更した表示エリア内の画像を表示することを特徴とする。
The night driving visibility support device according to claim 3,
An infrared camera that is mounted on a vehicle and captures an image in front of the vehicle;
A part of an image captured by the infrared camera is set as a display area, and a display means for displaying an image in the display area is provided.
Pitch angle detecting means for detecting the pitch angle of the vehicle;
Display area changing means for changing the set position of the display area in the vertical direction of the image captured by the infrared camera based on the pitch angle detected by the pitch angle detecting means,
The display means displays an image in the display area changed by the display area changing means.

例えば、車両の後部座席に着座する乗員や車両の後部のトランクの積荷等の重量が重い場合、車両の後部が沈み込み、その結果、車両のピッチ角が変化する。このように、車両のピッチ角が変化すると、赤外線カメラの撮像した画像は車両の上方向に変更され、進路の前方に存在する被写体を映し出すことができないことがある。   For example, when the weight of an occupant seated in the rear seat of the vehicle or a load on the trunk of the rear portion of the vehicle is heavy, the rear portion of the vehicle sinks, and as a result, the pitch angle of the vehicle changes. As described above, when the pitch angle of the vehicle changes, the image captured by the infrared camera is changed in the upward direction of the vehicle, and the subject existing in front of the course may not be projected.

そこで、本発明は、車両のピッチ角に基づいて、表示エリアの設定位置を上下方向に変更する。これにより、例えば、車両の後部が沈み込む場合には、表示エリアの設定位置を赤外線カメラの撮像した画像の下方向に変更し、逆に、車両の前部が沈み込む場合には、表示エリアの設定位置を赤外線カメラの撮像した画像の上方向に変更することが可能となる。その結果、進路の前方に存在する被写体を映し出すことができるようになる。   Therefore, the present invention changes the set position of the display area in the vertical direction based on the pitch angle of the vehicle. Thereby, for example, when the rear part of the vehicle sinks, the setting position of the display area is changed downward in the image captured by the infrared camera, and conversely, when the front part of the vehicle sinks, the display area Can be changed upward in the image captured by the infrared camera. As a result, a subject existing in front of the course can be projected.

請求項4に記載の夜間運転視界支援装置によれば、表示エリア変更手段は、車両前方の道路が表示エリアに含まれるように変更すること特徴とする。これにより、例えば、車両の進路が前方でカーブしている場合や、車両の進路の前方で道路の勾配が変化する場合であっても、車両の進路が表示エリアに含まれるようになる。   According to the night driving vision support device of the fourth aspect, the display area changing means changes so that the road ahead of the vehicle is included in the display area. Accordingly, for example, even when the vehicle course is curved forward, or when the road gradient changes ahead of the vehicle course, the vehicle course is included in the display area.

請求項5に記載の夜間運転視界支援装置は、
車両に搭載され、車両の前方の画像を撮像する赤外線カメラと、
赤外線カメラの撮像した画像を表示する表示手段と、
赤外線カメラの撮像した画像に対して、赤外線カメラの露出を制御する際に用いるべき露出制御使用領域を設定し、当該露出制御使用領域の画像の明るさに基づいて赤外線カメラの露出制御を行う露出制御手段と、
車両の走行状況に応じて車両のヘッドライトの照射光軸を車両の上下、及び左右の少なくとも一方の方向に偏向する照射光軸偏向手段と、を備え、
露出制御手段は、照射光軸偏向手段によって偏向される照射光軸の偏向角度に基づいて、露出制御使用領域の設定位置、及び大きさの少なくとも一方を画像の左右方向に変更する露出制御使用領域変更手段を備えることを特徴とする。
The night driving visibility support device according to claim 5,
An infrared camera that is mounted on a vehicle and captures an image in front of the vehicle;
Display means for displaying an image captured by the infrared camera;
Set the exposure control usage area to be used when controlling the exposure of the infrared camera for the image captured by the infrared camera, and perform the exposure control of the infrared camera based on the brightness of the image in the exposure control usage area Control means;
Irradiating optical axis deflecting means for deflecting the irradiating optical axis of the headlight of the vehicle in at least one of the vertical and horizontal directions of the vehicle according to the traveling state of the vehicle,
The exposure control means changes the setting position and / or size of the exposure control usage area in the left-right direction of the image based on the deflection angle of the irradiation optical axis deflected by the irradiation optical axis deflection means. A change means is provided.

上記照射光軸変更手段を備える車両においては、例えば、車両の進行方向等の走行状況に応じて、車両のヘッドライトの照射範囲が随時変更されるため、車両の進行方向に存在する歩行者等の被写体は、ヘッドライトの光を照射されることになる。   In a vehicle provided with the irradiation optical axis changing means, for example, the irradiation range of the headlight of the vehicle is changed at any time according to traveling conditions such as the traveling direction of the vehicle. The subject is irradiated with light from the headlight.

そこで、本発明では、照射光軸偏向手段によって偏向される照射光軸の偏向角度に基づいて、露出制御使用領域の設定位置、及び大きさの少なくとも一方を変更する。これにより、露出制御使用領域の明るい部分に被写体が存在する場合に、被写体に露出が合うように露出制御を行うことができる。その結果、明るい部分に存在する被写体を鮮明に映し出すことができる。   Therefore, in the present invention, at least one of the setting position and the size of the exposure control use area is changed based on the deflection angle of the irradiation optical axis deflected by the irradiation optical axis deflecting unit. Thereby, when a subject exists in a bright part of the exposure control use area, exposure control can be performed so that the subject is exposed. As a result, a subject existing in a bright part can be clearly displayed.

請求項6に記載の夜間運転視界支援装置によれば、露出制御使用領域変更手段は、露出制御使用領域が赤外線カメラの撮像した画像内のヘッドライトの照射範囲を含むように変更すること特徴とする。これにより、ヘッドライトの照射範囲に合わせて、露出制御使用領域を変更することができる。   According to the night driving vision support device according to claim 6, the exposure control use area changing means changes the exposure control use area so as to include the irradiation range of the headlight in the image captured by the infrared camera. To do. Thereby, according to the irradiation range of a headlight, an exposure control use area | region can be changed.

以下、図面に基づいて、本発明の好ましい実施形態について説明する。図1は、実施形態による夜間運転視界支援装置の構成を示すブロック図である。図1に示すように、夜間運転視界支援装置は、カメラ1、制御部2、表示装置7、車両の走行状況に応じて、車両の前照灯(ヘッドライト)9の照射光軸を車両の上下方向や左右方向に偏向するAFS(Adaptive Front-lighting System)の制御装置であるAFS_ECU8、ステアリングセンサ10、ピッチ角センサ11を備えている。制御部2、AFS_ECU8、ステアリングセンサ10、及びピッチ角センサ11は、車内LANを介して接続されており、この車内LANを介して各種情報の送受信を行う。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a nighttime driving vision support apparatus according to an embodiment. As shown in FIG. 1, the nighttime driving vision support device uses the camera 1, the control unit 2, the display device 7, and the irradiation optical axis of the headlight 9 of the vehicle according to the traveling state of the vehicle. An AFS_ECU 8, a steering sensor 10, and a pitch angle sensor 11, which are AFS (Adaptive Front-lighting System) control devices that deflect in the vertical direction and the horizontal direction, are provided. The control unit 2, the AFS_ECU 8, the steering sensor 10, and the pitch angle sensor 11 are connected via an in-vehicle LAN, and transmit and receive various types of information through the in-vehicle LAN.

なお、本実施形態の前照灯9は、可視光の波長帯とともに、赤外光の波長帯を含む光を照射するものであるが、赤外光を照射する赤外投光器を別に設けて、この赤外投光器から赤外光を車両の進行方向前方に照射するようにしてもよい。   In addition, the headlamp 9 of this embodiment irradiates light including the wavelength band of visible light as well as the wavelength band of visible light, but separately provides an infrared projector that irradiates infrared light, You may make it irradiate infrared light from the infrared projector forward in the traveling direction of the vehicle.

カメラ1は、車両に搭載され、車両の進行方向前方の画像を撮像するものであり、デジタル画像信号を制御部2へ出力するとともに、NTSC方式のアナログ画像信号を表示装置7に出力する。カメラ1は、可視光と赤外光の両方の波長帯に感度を有するイメージャ、FPGA(Fileld Programmable Gate Array)或いはASIC(Application Specific Integrated Circuit)を備える。このFPGA(或いはASIC)は、画像切り出し部、増幅部、及びA/D変換部の各機能を備える。   The camera 1 is mounted on a vehicle and captures an image in front of the vehicle in the traveling direction. The camera 1 outputs a digital image signal to the control unit 2 and outputs an NTSC analog image signal to the display device 7. The camera 1 includes an imager, a filed programmable gate array (FPGA), or an application specific integrated circuit (ASIC) having sensitivity in both visible light and infrared light wavelength bands. The FPGA (or ASIC) includes functions of an image cutout unit, an amplification unit, and an A / D conversion unit.

画像切り出し部は、制御部2から指示されたカメラ制御値に含まれる切り出し位置に基づいて、撮像画像の一部分を表示エリアとして設定し、その設定した表示エリアに含まれるイメージャの各画素からの画素値(受光した光の強度に応じた値)信号を抽出する。   The image cutout unit sets a part of the captured image as a display area based on the cutout position included in the camera control value instructed from the control unit 2, and pixels from each pixel of the imager included in the set display area A value (value corresponding to the intensity of received light) signal is extracted.

増幅部は、画像切り出し部の抽出した画素値信号を所定のゲインで増幅し、この増幅された画素値信号は、NTSC方式のアナログ画像信号に変換され、変換後の信号が保持される。また、増幅部は、イメージャの全ての画素からの画素値信号を所定のゲインで増幅し、A/D変換部によって、デジタル画像信号に変換され、変換後の信号が保持される。FPGA(或いはASIC)は、この保持しているアナログ画像信号を画像の各ライン毎に表示装置7へ出力するとともに、デジタル画像信号を画像の各ライン毎に制御部2へ出力する。   The amplification unit amplifies the pixel value signal extracted by the image cutout unit with a predetermined gain, and the amplified pixel value signal is converted into an NTSC analog image signal, and the converted signal is held. The amplifying unit amplifies the pixel value signal from all the pixels of the imager with a predetermined gain, is converted into a digital image signal by the A / D conversion unit, and the converted signal is held. The FPGA (or ASIC) outputs the held analog image signal to the display device 7 for each line of the image and outputs the digital image signal to the control unit 2 for each line of the image.

制御部2は、AFS_ECU8からの照射光軸の偏向角度の情報を取得し、この偏向角度情報に応じて、上記表示エリアの設定位置を変更するための切り出し位置を求め、この切り出し位置の情報を含むカメラ制御値をカメラ1に出力する。また、制御部2は、画像のコントラストが適正になるようにカメラ1の露出制御を行う。つまり、制御部2は、カメラ1のシャータースピード及びフレームレート、さらに増幅部のゲインを調整するため、これらの調整指示値を含むカメラ制御値をカメラ1に出力する。   The control unit 2 acquires information on the deflection angle of the irradiation optical axis from the AFS_ECU 8, obtains a cutout position for changing the set position of the display area according to the deflection angle information, and obtains information on the cutout position. The included camera control value is output to the camera 1. The control unit 2 controls the exposure of the camera 1 so that the contrast of the image is appropriate. That is, the control unit 2 outputs camera control values including these adjustment instruction values to the camera 1 in order to adjust the shutter speed and frame rate of the camera 1 and the gain of the amplification unit.

図2に示すように、制御部2は、画像インターフェース(I/F)3、CPU4、メモリ5、及び通信I/F6を有する。画像I/F3は、カメラ1から出力されるデジタル画像信号の各画素値の位置情報等が入力され、その位置情報等をCPU4に伝達する。CPU4は、画像I/F3によって伝達される位置情報に基づいて、デジタル画像の各ライン毎に出力される画素値が、いずれの画素位置に対応するものかを認識する。そして、認識した画素位置に対応するように、カメラ1から出力される画素値をメモリ5に記憶する。このようにして、メモリ5に、カメラ1から出力されるデジタル画像信号が保存される。   As illustrated in FIG. 2, the control unit 2 includes an image interface (I / F) 3, a CPU 4, a memory 5, and a communication I / F 6. The image I / F 3 receives position information of each pixel value of the digital image signal output from the camera 1 and transmits the position information to the CPU 4. The CPU 4 recognizes which pixel position the pixel value output for each line of the digital image corresponds to based on the position information transmitted by the image I / F 3. Then, the pixel value output from the camera 1 is stored in the memory 5 so as to correspond to the recognized pixel position. In this way, the digital image signal output from the camera 1 is stored in the memory 5.

通信I/F6は、CPU4と車内LANとの間の通信を調整するものである。本実施形態では、CPU4は、デジタル画像信号に所定の画像処理を施し、この画像処理を施した情報を車内LANに送信する。表示装置7は、例えば、ヘッドアップディスプレイ(HUD)であり、上記表示エリア内のアナログ画像信号を入力し、ディスプレイ上に表示エリアの画像を表示する。   Communication I / F6 adjusts communication between CPU4 and in-vehicle LAN. In the present embodiment, the CPU 4 performs predetermined image processing on the digital image signal, and transmits information subjected to the image processing to the in-vehicle LAN. The display device 7 is, for example, a head-up display (HUD), and receives an analog image signal in the display area and displays an image in the display area on the display.

AFS_ECU8は、車両のステアリングの操舵角を検出するステアリングセンサ10、車両の車速を検出する車速センサ(図示しない)からの各検出結果に基づいて、前照灯9の照射光軸の偏向角度(車両の直進方向に照射光軸を合わせたときの角度を基準とする車両の上下方向、及び左右方向の角度)を算出し、前照灯9の照射光軸がこの偏向角度となるように制御する。また、AFS_ECU8は、この偏向角度の情報を制御部2に出力する。   The AFS_ECU 8 detects the deflection angle of the irradiation optical axis of the headlamp 9 (vehicle) based on the detection results from the steering sensor 10 that detects the steering angle of the vehicle and the vehicle speed sensor (not shown) that detects the vehicle speed. The angle of the vehicle in the vertical direction and the horizontal direction with respect to the angle when the irradiation optical axis is aligned with the straight traveling direction is calculated, and control is performed so that the irradiation optical axis of the headlamp 9 becomes this deflection angle. . Further, the AFS_ECU 8 outputs information on the deflection angle to the control unit 2.

図3は、制御部2において実行される処理を示すフローチャートである。図3において
、まずステップS110では、カメラ1から出力されたデジタル画像信号の取り込みを行う。すなわち、上述したように、カメラ1から出力される位置情報に対応するように、デジタル画像信号を構成する各画素値をメモリ5に保存する。
FIG. 3 is a flowchart showing processing executed in the control unit 2. In FIG. 3, first, in step S110, the digital image signal output from the camera 1 is captured. That is, as described above, each pixel value constituting the digital image signal is stored in the memory 5 so as to correspond to the position information output from the camera 1.

ステップS120では、AFS_ECU8からの偏向角度情報に基づいて、カメラ1における上記表示エリアの設定位置を変更するための切り出し位置を求める切り出し位置算出処理を行う。この処理について、図4に示すフローチャートを用いて説明する。図4に示すステップS210では、AFSの偏向角度情報を取得する。ステップS220では、偏向角度情報に基づいて、表示エリアの設定位置を変更するための切り出し位置を算出する。この切り出し位置の算出方法について、以下に説明する。   In step S120, based on the deflection angle information from the AFS_ECU 8, a cut-out position calculation process for obtaining a cut-out position for changing the set position of the display area in the camera 1 is performed. This process will be described with reference to the flowchart shown in FIG. In step S210 shown in FIG. 4, AFS deflection angle information is acquired. In step S220, a cut-out position for changing the display area setting position is calculated based on the deflection angle information. A method for calculating the cutout position will be described below.

図6(a)に示すように、従来の夜間運転視界支援装置では、カメラ1の撮像した画像のうち、車両の前後軸を基準とする一部分の範囲を表示エリアとして設定し、この表示エリア内の画像を表示装置7に表示することで、被写体がフォーカスして映し出している。そのため、例えば、同図(a)に示すように車両の進路が前方でカーブしている場合、進路の前方に存在する被写体を映し出すことができないことがある。   As shown in FIG. 6 (a), in the conventional night driving vision support device, a range of a part of the image captured by the camera 1 with reference to the front and rear axes of the vehicle is set as a display area. Is displayed on the display device 7 so that the subject is focused and projected. For this reason, for example, when the course of the vehicle is curved forward as shown in FIG. 9A, the subject existing in front of the course may not be projected.

そこで、ステップS220では、図6(a)に示したように、カメラ1の撮像した画像に対して設定する表示エリアを固定するのではなく、図6(b)に示すように、車両前方の道路に関する道路関連情報に基づいて、表示エリアの設定位置を画像の左右方向に変更する。具体的には、道路関連情報としてのAFS_ECU8からの偏向角度情報に基づいて車両前方の道路の形状を推定し、この推定した形状の道路が表示エリアに含まれるように表示エリアの設定位置を変更するための切り出し位置を算出する。   Therefore, in step S220, as shown in FIG. 6A, the display area set for the image captured by the camera 1 is not fixed, but as shown in FIG. Based on the road related information regarding the road, the setting position of the display area is changed in the horizontal direction of the image. Specifically, the shape of the road ahead of the vehicle is estimated based on the deflection angle information from the AFS_ECU 8 as road-related information, and the setting position of the display area is changed so that the road of the estimated shape is included in the display area. The cut-out position for performing is calculated.

これにより、車両の進路が表示エリアに含まれるようになるため、車両の進路が前方でカーブしている場合であっても、そのカーブした進路を含む表示エリアを設定することができる。その結果、図6(b)に示すように、例えば、車両の進路が前方でカーブしている場合であっても、カーブの内側や外側に存在する被写体を表示装置7に鮮明に映し出すことが可能となる。   Thereby, since the course of the vehicle is included in the display area, even if the course of the vehicle is curved forward, the display area including the curved course can be set. As a result, as shown in FIG. 6 (b), for example, even when the course of the vehicle is curved forward, a subject existing inside or outside the curve can be clearly displayed on the display device 7. It becomes possible.

ステップS230では、カメラ制御値に含めるべき切り出し位置をステップS220にて算出した切り出し位置に変更する。そして、図3に示すステップS130では、デジタル画像信号に所定の画像処理を施し、この画像処理を施した情報を車内LANに送信する。ステップS140では、カメラ1の露出制御を行う。このカメラの露出制御処理について、図5のフローチャートに基づいて説明する。   In step S230, the cutout position to be included in the camera control value is changed to the cutout position calculated in step S220. In step S130 shown in FIG. 3, the digital image signal is subjected to predetermined image processing, and the information subjected to the image processing is transmitted to the in-vehicle LAN. In step S140, exposure control of the camera 1 is performed. The camera exposure control process will be described with reference to the flowchart of FIG.

図5において、まずステップS310では、AFSの偏向角度情報を取得する。ステップS320では、カメラ1から出力されるデジタル画像信号において、カメラ1の露出制御量を算出する際に用いるべき露出制御使用領域の設定位置や大きさを偏向角度情報に基づいて変更する。   In FIG. 5, first, in step S310, AFS deflection angle information is acquired. In step S320, in the digital image signal output from the camera 1, the setting position and size of the exposure control use area to be used when calculating the exposure control amount of the camera 1 are changed based on the deflection angle information.

すなわち、図7(a)に示すように、従来の夜間運転視界支援装置において、カメラ1の露出は、露出制御使用領域の暗い部分についても明るく映し出されるように制御することで、暗い部分に存在する被写体に露出が合うようにしている。しかしながら、上記領域の明るい部分に被写体が存在する場合、上記領域の暗い部分についても明るく映し出されるようにゲインを大きくする等して露出を制御すると、被写体に露出が合わず、白飛びした画像が映し出されてしまう。   That is, as shown in FIG. 7 (a), in the conventional night driving vision support device, the exposure of the camera 1 is present in the dark part by controlling the dark part of the exposure control usage area so that it is projected brightly. The exposure is set to match the subject. However, if the subject is present in the bright part of the area, and the exposure is controlled by increasing the gain so that the dark part of the area is projected brightly, the subject will not be exposed and the image will be overexposed. It will be projected.

つまり、AFSを備える車両においては、車両の進行方向等の走行状況に応じて、車両のヘッドライトの照射範囲が上下方向や左右方向に随時変更されるため、車両の進行方向に存在する歩行者等の被写体は、ヘッドライトの光を照射されることになる。従って、暗い部分に露出を合わせると、明るい部分に存在する被写体に露出が合わなくなる。   That is, in a vehicle equipped with an AFS, the irradiation range of the headlight of the vehicle is changed from time to time in the vertical direction and the horizontal direction depending on the traveling situation such as the traveling direction of the vehicle. A subject such as a headlight is irradiated with light from a headlight. Therefore, when the exposure is adjusted to the dark part, the exposure cannot be adjusted to the subject existing in the bright part.

そこで、ステップS320では、図7(b)に示すように、AFSの配光に応じて、露出制御使用領域の設定位置や大きさを画像の上下方向や左右方向に変更する。具体的には、AFS_ECU8からの偏向角度情報に基づいて、露出制御使用領域がカメラ1の撮像した画像内の前照灯9の照射範囲を含むように、露出制御使用領域の大きさを変えずに設定位置を画像の上下方向や左右方向に変更する。或いは、露出制御使用領域の上下又は/及び左右の境界位置を画像の上下方向や左右方向に変更して、露出制御使用領域の大きさを変更する。   Therefore, in step S320, as shown in FIG. 7B, the setting position and size of the exposure control use area are changed in the vertical and horizontal directions of the image according to the light distribution of AFS. Specifically, based on the deflection angle information from the AFS_ECU 8, the size of the exposure control use area is not changed so that the exposure control use area includes the irradiation range of the headlamp 9 in the image captured by the camera 1. The setting position is changed to the vertical direction or the horizontal direction of the image. Alternatively, the size of the exposure control usage area is changed by changing the vertical and / or left and right boundary positions of the exposure control usage area in the vertical direction and the horizontal direction of the image.

これにより、前照灯9の照射範囲に合わせて露出制御使用領域が変更されるため、露出制御使用領域の明るい部分に被写体が存在する場合に、被写体に露出が合うように露出制御を行うことができる。その結果、明るい部分に存在する被写体を鮮明に映し出すことができる。   As a result, the exposure control use area is changed in accordance with the irradiation range of the headlamp 9, so that when the subject exists in a bright part of the exposure control use area, exposure control is performed so that the subject is exposed. Can do. As a result, a subject existing in a bright part can be clearly displayed.

ステップS330では、露出制御使用領域の画素値を平均化して、露出制御使用領域の輝度を算出する。なお、撮像範囲の明るさのレベルと単純比例しない画素値を出力するカメラを使用する場合には、各画素の画素値をカメラの画素値特性に従って輝度に変換し、その上で、変換後の輝度を平均化して算出する。   In step S330, the pixel values in the exposure control usage area are averaged to calculate the brightness of the exposure control usage area. In addition, when using a camera that outputs a pixel value that is not simply proportional to the brightness level of the imaging range, the pixel value of each pixel is converted into luminance according to the pixel value characteristics of the camera, and after that, Calculate by averaging the luminance.

ステップS340では、ステップS330で算出した露出制御使用領域の輝度がある輝度レベルの範囲内にあれば、露出制御量を現状の露出制御量のまま保持し、上記輝度レベルの範囲から外れる場合には、その範囲内に収めるための露出制御量を算出する。   In step S340, if the brightness of the exposure control use area calculated in step S330 is within a certain luminance level range, the exposure control amount is maintained as the current exposure control amount. Then, an exposure control amount to be within the range is calculated.

ステップS350では、S220にて算出した切り出し位置を含み、かつ、S340にて算出した露出制御量に応じたカメラ制御値をカメラ1に出力する。なお、目標とする露出制御量が、ゲインやシャッタースピードの調整範囲を超えている場合には、フレームレートを変更することによって、目標とする露出制御量に対応するカメラ制御値を生成する。   In step S350, the camera control value including the cut-out position calculated in S220 and corresponding to the exposure control amount calculated in S340 is output to the camera 1. If the target exposure control amount exceeds the adjustment range of the gain or shutter speed, the camera control value corresponding to the target exposure control amount is generated by changing the frame rate.

以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態に何ら制限されることなく、本発明の主旨を逸脱しない範囲において、種々変形して実施することができる。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.

例えば、本実施形態のS120における画像信号処理では、AFS_ECU8からの偏向情報に基づいて車両前方の道路の形状を推定し、この推定した形状の道路が表示エリアに含まれるように表示エリアの設定位置を変更しているが、例えば、車両前方の道路上の白線を認識する白線認識手段の白線認識結果、ステアリングセンサ10の検出結果、ナビゲーションシステムに用いられる道路の曲率を含む道路データ等からも車両前方の道路の形状が推定可能である。従って、白線認識結果、操舵角センサの検出結果、道路データ等から車両前方の道路の形状に関する情報を取得するようにしてもよい。   For example, in the image signal processing in S120 of the present embodiment, the shape of the road ahead of the vehicle is estimated based on the deflection information from the AFS_ECU 8, and the display area setting position is set so that the road having the estimated shape is included in the display area. However, for example, the vehicle is also obtained from the white line recognition result of the white line recognition means for recognizing the white line on the road ahead of the vehicle, the detection result of the steering sensor 10, the road data including the curvature of the road used in the navigation system, and the like. The shape of the road ahead can be estimated. Therefore, information regarding the shape of the road ahead of the vehicle may be acquired from the white line recognition result, the detection result of the steering angle sensor, road data, and the like.

また、本実施形態では、表示エリアの設定位置を左右方向に変更するものであるが、車両の進路の前方で道路の勾配が変化する場合に、進路の前方に存在する被写体を映し出すことができないこともある。このような場合には、例えば、ナビゲーションシステムに用いられる道路の勾配を含む道路データ等から車両前方の道路の勾配が把握できるため、この勾配に応じて、表示エリアの設定位置を上下方向に変更するようにしてもよい。   Further, in this embodiment, the setting position of the display area is changed in the left-right direction. However, when the road gradient changes in front of the vehicle course, the subject existing in front of the course cannot be projected. Sometimes. In such a case, for example, the road gradient in front of the vehicle can be grasped from road data including the road gradient used in the navigation system. Therefore, the display area setting position is changed in the vertical direction according to this gradient. You may make it do.

また、例えば、車両の後部座席に着座する乗員や車両の後部のトランクの積荷等の重量が重い場合、図8(b)に示すように、車両の後部が沈み込み、その結果、車両のピッチ角が変化する。このように、車両のピッチ角が変化すると、赤外線カメラの撮像した画像は、図8(a)に示す通常の場合に対し、車両の上方向に変更される。その結果、進路の前方に存在する被写体を映し出すことができないことがある。   Further, for example, when the weight of a passenger seated in the rear seat of the vehicle or the load of the trunk at the rear of the vehicle is heavy, the rear of the vehicle sinks as shown in FIG. The angle changes. Thus, when the pitch angle of the vehicle changes, the image captured by the infrared camera is changed upward in the vehicle as compared with the normal case shown in FIG. As a result, it may not be possible to project a subject existing in front of the course.

そこで、例えば、図1に示すピッチ角センサ11の検出するピッチ角の大きさに基づいて、表示エリアの設定位置を上下方向に変更するようにしてもよい。これにより、例えば、車両の後部が沈み込む場合には、図9(a)に示す表示エリアの設定位置を、図9(b)に示すように、カメラ1の撮像した画像の下方向に変更することが可能となる。   Therefore, for example, the display area setting position may be changed in the vertical direction based on the size of the pitch angle detected by the pitch angle sensor 11 shown in FIG. Thereby, for example, when the rear portion of the vehicle sinks, the setting position of the display area shown in FIG. 9A is changed downward in the image captured by the camera 1 as shown in FIG. 9B. It becomes possible to do.

なお、ピッチ角センサ11を備えていない場合には、例えば、エアサスペンションの適用された車両であれば、エアサスペンションのストローク量を検出する車輪高センサの検出結果から、車両のピッチ角を算出するようにすればよい。   If the pitch angle sensor 11 is not provided, for example, in the case of a vehicle to which an air suspension is applied, the pitch angle of the vehicle is calculated from the detection result of the wheel height sensor that detects the stroke amount of the air suspension. What should I do?

また、逆に、車両の前部が沈み込む場合には、表示エリアの設定位置をカメラ1の撮像した画像の上方向に変更することが可能となる。その結果、進路の前方に存在する被写体を映し出すことができるようになる。   Conversely, when the front part of the vehicle sinks, the set position of the display area can be changed upward in the image captured by the camera 1. As a result, a subject existing in front of the course can be projected.

実施形態における夜間運転視界支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the night driving | operation visual field assistance apparatus in embodiment. 制御部2の内部構成を示すブロック図である。3 is a block diagram showing an internal configuration of a control unit 2. FIG. 制御部2において実行される画像信号処理を示すフローチャートである。4 is a flowchart illustrating image signal processing executed in a control unit 2. 画像信号処理を示すフローチャートである。It is a flowchart which shows an image signal process. 露出制御処理を示すフローチャートである。It is a flowchart which shows an exposure control process. (a)は、車両の前後軸を中心として設定される表示エリアを示す図であり、(b)は、道路形状に応じて設定位置が変更される表示エリアを示す図である。(A) is a figure which shows the display area set centering on the front-back axis | shaft of a vehicle, (b) is a figure which shows the display area where a setting position is changed according to a road shape. (a)は、露出制御使用領域の設定位置を示す図であり、(b)は、AFSの配光に応じて設定位置や大きさが変更される露出制御使用領域を示す図でありである。(A) is a figure which shows the setting position of an exposure control use area | region, (b) is a figure which shows the exposure control use area | region where a setting position and a magnitude | size are changed according to the light distribution of AFS. . (a)は、車両のピッチ角が変更しない場合のイメージ図であり、(b)は、車両のピッチ角が変更する場合のイメージ図である。(A) is an image figure when the pitch angle of a vehicle does not change, (b) is an image figure when the pitch angle of a vehicle changes. (a)、(b)は、変更前の表示エリアの設定位置と変更後の表示エリアの設定位置を示す図である。(A), (b) is a figure which shows the setting position of the display area before a change, and the setting position of the display area after a change.

符号の説明Explanation of symbols

1 カメラ
2 制御部
3 画像I/F
4 CPU
5 メモリ
6 通信I/F
7 表示装置
8 AFS_ECU
9 前照灯
10 ステアリングセンサ
11 ピッチ角センサ
1 Camera 2 Control unit 3 Image I / F
4 CPU
5 Memory 6 Communication I / F
7 Display device 8 AFS_ECU
9 Headlight 10 Steering sensor 11 Pitch angle sensor

Claims (6)

車両に搭載され、前記車両の前方の画像を撮像する赤外線カメラと、
前記赤外線カメラの撮像した画像の一部分が表示エリアとして設定され、この表示エリア内の画像を表示する表示手段と、を備える夜間運転視界支援装置において、
前記車両前方の道路に関する道路関連情報を取得する道路関連情報取得手段と、
前記道路関連情報取得手段の取得した道路関連情報に基づいて、前記表示エリアの設定位置を前記赤外線カメラの撮像した画像の上下、及び左右の少なくとも一方の方向に変更する表示エリア変更手段と、を備え、
前記表示手段は、前記表示エリア変更手段の変更した表示エリア内の画像を表示することを特徴とする夜間運転視界支援装置。
An infrared camera mounted on a vehicle and capturing an image in front of the vehicle;
In a night driving vision support device comprising a display means for displaying a part of an image captured by the infrared camera as a display area and displaying an image in the display area,
Road-related information acquisition means for acquiring road-related information regarding the road ahead of the vehicle;
Display area changing means for changing the set position of the display area in at least one of the vertical and horizontal directions of the image captured by the infrared camera based on the road related information acquired by the road related information acquisition means; Prepared,
The night display visibility support device, wherein the display means displays an image in the display area changed by the display area changing means.
前記道路関連情報取得手段は、前記車両前方の道路上の白線を認識する白線認識手段、前記車両のステアリングの操舵角を検出する操舵角検出手段、前記車両の走行状況に応じて前記車両のヘッドライトの照射光軸を前記車両の上下、及び左右の少なくとも一方の方向に偏向する照射光軸偏向手段、道路の曲率、及び勾配の少なくとも一方を含む道路データを記憶する道路データ記憶手段の少なくとも1つの手段から、前記道路関連情報を取得することを特徴とする請求項1記載の夜間運転視界支援装置。   The road related information acquisition means includes a white line recognition means for recognizing a white line on a road ahead of the vehicle, a steering angle detection means for detecting a steering angle of the steering of the vehicle, and a head of the vehicle according to a traveling state of the vehicle. At least one of road data storage means for storing road light data including at least one of irradiation light axis deflection means for deflecting the light irradiation optical axis in at least one of the vertical and horizontal directions of the vehicle and road curvature. The night driving vision support apparatus according to claim 1, wherein the road-related information is acquired from two means. 車両に搭載され、前記車両の前方の画像を撮像する赤外線カメラと、
前記赤外線カメラの撮像した画像の一部分が表示エリアとして設定され、この表示エリア内の画像を表示する表示手段と、を備える夜間運転視界支援装置において、
前記車両のピッチ角を検出するピッチ角検出手段と、
前記ピッチ角検出手段の検出したピッチ角に基づいて、前記表示エリアの設定位置を前記赤外線カメラの撮像した画像の上下方向に変更する表示エリア変更手段と、を備え、
前記表示手段は、前記表示エリア変更手段の変更した表示エリア内の画像を表示することを特徴とする夜間運転視界支援装置。
An infrared camera mounted on a vehicle and capturing an image in front of the vehicle;
In a night driving vision support device comprising a display means for displaying a part of an image captured by the infrared camera as a display area and displaying an image in the display area,
Pitch angle detecting means for detecting the pitch angle of the vehicle;
Display area changing means for changing the set position of the display area in the vertical direction of the image captured by the infrared camera based on the pitch angle detected by the pitch angle detecting means,
The night display visibility support device, wherein the display means displays an image in the display area changed by the display area changing means.
前記表示エリア変更手段は、前記車両前方の道路が前記表示エリアに含まれるように変更すること特徴とする請求項1〜3の何れか1項に記載の夜間運転視界支援装置。   The night display visibility support device according to any one of claims 1 to 3, wherein the display area changing unit changes the road ahead of the vehicle to be included in the display area. 車両に搭載され、前記車両の前方の画像を撮像する赤外線カメラと、
前記赤外線カメラの撮像した画像を表示する表示手段と、
前記赤外線カメラの撮像した画像に対して、前記赤外線カメラの露出を制御する際に用いるべき露出制御使用領域を設定し、当該露出制御使用領域の画像の明るさに基づいて前記赤外線カメラの露出制御を行う露出制御手段と、
前記車両の走行状況に応じて前記車両のヘッドライトの照射光軸を前記車両の上下、及び左右の少なくとも一方の方向に偏向する照射光軸偏向手段と、を備え、
前記露出制御手段は、前記照射光軸偏向手段によって偏向される照射光軸の偏向角度に基づいて、前記露出制御使用領域の設定位置、及び大きさの少なくとも一方を変更する露出制御使用領域変更手段を備えることを特徴とする夜間運転視界支援装置。
An infrared camera mounted on a vehicle and capturing an image in front of the vehicle;
Display means for displaying an image captured by the infrared camera;
For the image captured by the infrared camera, an exposure control usage area to be used when controlling the exposure of the infrared camera is set, and the exposure control of the infrared camera is performed based on the brightness of the image in the exposure control usage area Exposure control means for performing,
Irradiating optical axis deflecting means for deflecting the irradiating optical axis of the headlight of the vehicle in at least one of the vertical and horizontal directions of the vehicle according to the traveling state of the vehicle,
The exposure control means changes exposure control use area changing means for changing at least one of the setting position and size of the exposure control use area based on the deflection angle of the irradiation optical axis deflected by the irradiation optical axis deflection means. A night driving visibility support device comprising:
前記露出制御使用領域変更手段は、前記露出制御使用領域が前記赤外線カメラの撮像した画像内の前記ヘッドライトの照射範囲を含むように変更すること特徴とする請求項5記載の夜間運転視界支援装置。   6. The night driving visibility support device according to claim 5, wherein the exposure control use area changing unit changes the exposure control use area so as to include an irradiation range of the headlight in an image captured by the infrared camera. .
JP2005175737A 2005-06-15 2005-06-15 Night driving visibility support device Expired - Fee Related JP4556777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005175737A JP4556777B2 (en) 2005-06-15 2005-06-15 Night driving visibility support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005175737A JP4556777B2 (en) 2005-06-15 2005-06-15 Night driving visibility support device

Publications (2)

Publication Number Publication Date
JP2006350670A true JP2006350670A (en) 2006-12-28
JP4556777B2 JP4556777B2 (en) 2010-10-06

Family

ID=37646441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005175737A Expired - Fee Related JP4556777B2 (en) 2005-06-15 2005-06-15 Night driving visibility support device

Country Status (1)

Country Link
JP (1) JP4556777B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262458A (en) * 2007-04-13 2008-10-30 Denso Corp Vehicle visual field determination device and program therefor
JP2008306546A (en) * 2007-06-08 2008-12-18 Alpine Electronics Inc Vehicle-periphery monitoring system
KR100896013B1 (en) 2007-12-28 2009-05-11 자동차부품연구원 Active steering system of vehicle and method thereof
JP2011055232A (en) * 2009-09-01 2011-03-17 Ricoh Co Ltd On-vehicle camera device
CN102582508A (en) * 2012-03-19 2012-07-18 中国汽车技术研究中心 Vehicular night curve auxiliary and vision enhancing device and method thereof
JP2016052133A (en) * 2015-09-18 2016-04-11 株式会社ニコン Imaging apparatus
US9967438B2 (en) 2013-03-22 2018-05-08 Denso Corporation Image processing apparatus
JP2019009783A (en) * 2018-07-11 2019-01-17 株式会社ニコン Imaging apparatus
US10279742B2 (en) 2014-05-29 2019-05-07 Nikon Corporation Image capture device and vehicle
JP7410621B2 (en) 2019-12-18 2024-01-10 キヤノン株式会社 Imaging device, its control method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112014010399A2 (en) 2013-02-13 2017-04-25 Nec Corp image recognition device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08172620A (en) * 1994-12-16 1996-07-02 Nissan Motor Co Ltd Image input means for vehicle
JP2001301486A (en) * 2000-04-18 2001-10-31 Honda Motor Co Ltd Vehicular head-up display device
JP2003320897A (en) * 2002-04-26 2003-11-11 Sony Corp Monitoring device for vehicle
JP2004356732A (en) * 2003-05-27 2004-12-16 Nissan Motor Co Ltd On-vehicle information providing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08172620A (en) * 1994-12-16 1996-07-02 Nissan Motor Co Ltd Image input means for vehicle
JP2001301486A (en) * 2000-04-18 2001-10-31 Honda Motor Co Ltd Vehicular head-up display device
JP2003320897A (en) * 2002-04-26 2003-11-11 Sony Corp Monitoring device for vehicle
JP2004356732A (en) * 2003-05-27 2004-12-16 Nissan Motor Co Ltd On-vehicle information providing apparatus

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262458A (en) * 2007-04-13 2008-10-30 Denso Corp Vehicle visual field determination device and program therefor
JP2008306546A (en) * 2007-06-08 2008-12-18 Alpine Electronics Inc Vehicle-periphery monitoring system
KR100896013B1 (en) 2007-12-28 2009-05-11 자동차부품연구원 Active steering system of vehicle and method thereof
JP2011055232A (en) * 2009-09-01 2011-03-17 Ricoh Co Ltd On-vehicle camera device
CN102582508A (en) * 2012-03-19 2012-07-18 中国汽车技术研究中心 Vehicular night curve auxiliary and vision enhancing device and method thereof
US9967438B2 (en) 2013-03-22 2018-05-08 Denso Corporation Image processing apparatus
US10279742B2 (en) 2014-05-29 2019-05-07 Nikon Corporation Image capture device and vehicle
US10807532B2 (en) 2014-05-29 2020-10-20 Nikon Corporation Image capture device and vehicle
CN112866566A (en) * 2014-05-29 2021-05-28 株式会社尼康 Driving support device and vehicle with driving support device
US11220215B2 (en) 2014-05-29 2022-01-11 Nikon Corporation Image capture device and vehicle
US11572016B2 (en) 2014-05-29 2023-02-07 Nikon Corporation Image capture device and vehicle
JP2016052133A (en) * 2015-09-18 2016-04-11 株式会社ニコン Imaging apparatus
JP2019009783A (en) * 2018-07-11 2019-01-17 株式会社ニコン Imaging apparatus
JP7410621B2 (en) 2019-12-18 2024-01-10 キヤノン株式会社 Imaging device, its control method, and program

Also Published As

Publication number Publication date
JP4556777B2 (en) 2010-10-06

Similar Documents

Publication Publication Date Title
JP4556777B2 (en) Night driving visibility support device
JP5680573B2 (en) Vehicle driving environment recognition device
JP4491453B2 (en) Method and apparatus for visualizing the periphery of a vehicle by fusing infrared and visual images depending on the periphery
JP5437855B2 (en) Obstacle detection device, obstacle detection system including the same, and obstacle detection method
JP5071198B2 (en) Signal recognition device, signal recognition method, and signal recognition program
JP5853947B2 (en) Night vision device
JP2007142624A (en) Vehicle mounted imaging apparatus
EP2723060A1 (en) Vehicle-mounted camera device
JP2009171122A (en) Optical source color temperature estimation method, white balance adjustment apparatus, and image recognition apparatus
JP4701279B2 (en) Visual support device
JP2008135856A (en) Body recognizing device
JP2012027773A (en) Pseudo grayscale image generation device and program
JP2016196233A (en) Road sign recognizing device for vehicle
JP2008098858A (en) Vehicle periphery monitoring device
JP4731177B2 (en) Infrared imaging display device and infrared imaging display method for vehicle
JP2006341713A (en) System and method for changing irradiation direction of head lamp
WO2015151404A1 (en) Rear condition display device and rear condition display method
JP2005033680A (en) Image processing apparatus for vehicle
JP2008005017A (en) Observation apparatus in vehicle interior for measuring illuminance on the basis of imaged image
JP4782491B2 (en) Imaging device
JP6168024B2 (en) Captured image display device, captured image display method, and captured image display program
JP2019204988A (en) Image processing apparatus and image processing method
JP2008146404A (en) In-vehicle image recognition device
JP6322723B2 (en) Imaging apparatus and vehicle
JP2011008459A (en) In-vehicle camera device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100712

R151 Written notification of patent or utility model registration

Ref document number: 4556777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees