JP2019214348A - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP2019214348A
JP2019214348A JP2018113869A JP2018113869A JP2019214348A JP 2019214348 A JP2019214348 A JP 2019214348A JP 2018113869 A JP2018113869 A JP 2018113869A JP 2018113869 A JP2018113869 A JP 2018113869A JP 2019214348 A JP2019214348 A JP 2019214348A
Authority
JP
Japan
Prior art keywords
unit
recognition device
determination unit
image
light distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018113869A
Other languages
Japanese (ja)
Other versions
JP7244221B2 (en
Inventor
祐樹 松下
Yuki Matsushita
祐樹 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018113869A priority Critical patent/JP7244221B2/en
Publication of JP2019214348A publication Critical patent/JP2019214348A/en
Application granted granted Critical
Publication of JP7244221B2 publication Critical patent/JP7244221B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an object recognition device which can reduce a processing load by using a camera having sensitivity on both a visible light region and a near-infrared region.SOLUTION: An object recognition device 100 includes: an imaging part 10 which has sensitivity on both a visible light region and a near-infrared region and images the periphery of a vehicle; an object shape determination part 21 which determines presence/absence of an object present in the periphery of the vehicle on the basis of an image obtained by imaging with the imaging part 10; a position calculation part 22 which calculates a position of the object on the basis of a determination result of the object shape determination part 21; a visual observation possibility determination part 23D which determines whether or not to recognize the object in the image by visual observation of a driver on the basis of a calculation result of the position calculation part 22; and an output determination part 24 which determines an output pattern on the basis of the determination result of the visual observation possibility determination part 23D.SELECTED DRAWING: Figure 2

Description

本発明は、物体認識装置に関する。   The present invention relates to an object recognition device.

従来、車両に搭載された可視光カメラと遠赤外線カメラとの撮像結果を用いて車両前方の歩行者を認識する歩行者認識装置がある(例えば、特許文献1参照)。この歩行者認識装置では、特に夜間やトンネル等の暗い道路環境において利用され、遠赤外線カメラの撮像結果による歩行者特定認識率が高く、かつ、可視光カメラによる歩行者特定認識率が低い歩行者の存在をドライバに告知するものである。   2. Description of the Related Art Conventionally, there is a pedestrian recognition device that recognizes a pedestrian in front of a vehicle using imaging results of a visible light camera and a far-infrared camera mounted on the vehicle (for example, see Patent Document 1). This pedestrian recognition device is used especially in a dark road environment such as at night or in a tunnel, and has a high pedestrian specific recognition rate based on an imaging result of a far-infrared camera and a low pedestrian specific recognition rate using a visible light camera. Is notified to the driver.

特開2006−338594号公報JP 2006-338594 A

しかしながら、特許文献1に開示された技術では、可視光カメラと遠赤外線カメラの2種類のカメラを用いる必要がある。すなわち、2種類のカメラ画像ごとに認識率を割り出す必要があった。したがって、2種類のカメラ画像を同時に認識するといった煩雑な処理を要し、システムに要求される処理負荷が高くなる問題があった。   However, in the technique disclosed in Patent Document 1, it is necessary to use two types of cameras, a visible light camera and a far-infrared camera. That is, it was necessary to determine the recognition rate for each of the two types of camera images. Therefore, complicated processing such as simultaneous recognition of two types of camera images is required, and the processing load required for the system is increased.

本発明は、上記課題に鑑みてなされたもので、可視光領域及び近赤外領域の双方に感度を有するカメラを利用することで、処理負荷を軽減することのできる物体認識装置を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an object recognition device capable of reducing a processing load by using a camera having sensitivity in both a visible light region and a near infrared region. With the goal.

本発明に係る物体認識装置は、可視光領域及び近赤外領域の双方に感度を有して、車両の周辺を撮像する撮像部と、前記撮像部が撮像して得られる画像に基づいて、前記車両の周辺に存在する物体の有無を判定する物体形状判定部と、前記物体形状判定部の判定結果に基づいて、前記物体の位置を算出する位置算出部と、前記位置算出部の算出結果に基づいて、前記画像の中の前記物体がドライバの目視による認識が可能か否か判定する目視可否判定部と、前記目視可否判定部の判定結果に基づいて、出力パターンを判断する出力判断部とを備えることを特徴とする。   The object recognition device according to the present invention has sensitivity in both the visible light region and the near-infrared region, and an imaging unit that captures an image around the vehicle, based on an image obtained by capturing the imaging unit. An object shape determination unit that determines the presence or absence of an object present around the vehicle, a position calculation unit that calculates the position of the object based on a determination result of the object shape determination unit, and a calculation result of the position calculation unit And a visual determination unit that determines whether or not the object in the image is visually recognizable by a driver, and an output determination unit that determines an output pattern based on a determination result of the visual determination unit. And characterized in that:

この発明によれば、可視光領域及び近赤外領域の双方に感度を有するカメラを利用することで、処理負荷を軽減することができる。   According to the present invention, the processing load can be reduced by using a camera having sensitivity in both the visible light region and the near infrared region.

実施例1に係る物体認識装置を車両に実装した様子を示すハードウェアブロック図である。FIG. 2 is a hardware block diagram illustrating a state in which the object recognition device according to the first embodiment is mounted on a vehicle. 実施例1に係る物体認識装置の機能構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a functional configuration of the object recognition device according to the first embodiment. 夜間等の暗い環境で撮像された画像の中の物体の一例を示す図である。FIG. 3 is a diagram illustrating an example of an object in an image captured in a dark environment such as at night. パターン像情報の一例を示す図である。It is a figure showing an example of pattern image information. 画像上に表示するアイコンの一例を示す図である。FIG. 4 is a diagram illustrating an example of an icon displayed on an image. 実施例1で行われる処理の全体の流れを示すフローチャートである。5 is a flowchart illustrating an overall flow of a process performed in the first embodiment. 図6に示した物体形状判定処理の詳細な流れを示すフローチャートである。7 is a flowchart illustrating a detailed flow of an object shape determination process illustrated in FIG. 6. 図6に示した物体位置判定処理の詳細な流れを示すフローチャートである。7 is a flowchart showing a detailed flow of an object position determination process shown in FIG. 図6に示した目視可否判定処理の詳細な流れを示すフローチャートである。FIG. 7 is a flowchart showing a detailed flow of a visual availability determination process shown in FIG. 6. 図6に示した可変配光ヘッドライト照射処理の詳細な流れを示すフローチャートである。7 is a flowchart showing a detailed flow of a variable light distribution headlight irradiation process shown in FIG. 6. 実施例1に係る物体認識装置を歩行者に適用する場面を示す説明図である(その1)。FIG. 2 is an explanatory diagram illustrating a scene in which the object recognition device according to the first embodiment is applied to a pedestrian (part 1). 実施例1に係る物体認識装置を歩行者に適用する場面を示す説明図である(その2)。FIG. 3 is an explanatory diagram illustrating a scene in which the object recognition device according to the first embodiment is applied to a pedestrian (part 2). ハイビーム/ロービームを自動切り替えする機能を備えたヘッドライトでの照射イメージを示す説明図である(その1)。It is explanatory drawing which shows the irradiation image by the headlight provided with the function to switch high beam / low beam automatically (the 1). ハイビーム/ロービームを自動切り替えする機能を備えたヘッドライトでの照射イメージを示す説明図である(その2)。It is explanatory drawing which shows the irradiation image with the headlight provided with the function to switch high beam / low beam automatically (the 2). 自車両の上方を視点とする俯瞰画像の一例を示す図である。It is a figure showing an example of a bird's-eye view picture which makes a viewpoint above an own vehicle a viewpoint. 実施例1に係る物体認識装置の変形例を示す説明図である。FIG. 5 is an explanatory diagram illustrating a modification of the object recognition device according to the first embodiment.

以下、本発明に係る物体認識装置の具体的な実施形態について、図面を参照して説明する。   Hereinafter, specific embodiments of the object recognition device according to the present invention will be described with reference to the drawings.

(物体認識装置のハードウェア構成の説明)
図1は、実施例1に係る物体認識装置100を車両に実装した様子を示すハードウェアブロック図である。
(Description of hardware configuration of object recognition device)
FIG. 1 is a hardware block diagram illustrating a state in which the object recognition device 100 according to the first embodiment is mounted on a vehicle.

物体認識装置100は、撮像部10と、ECU(Electronic Control Unit)20と、AR(Augmented Reality)ヘッドアップディスプレイ31と、液晶ディスプレイ32と、近赤外ライト40と、可変配光式ヘッドライト50とを備える。   The object recognition device 100 includes an imaging unit 10, an electronic control unit (ECU) 20, an augmented reality (AR) head-up display 31, a liquid crystal display 32, a near-infrared light 40, and a variable light distribution headlight 50. And

撮像部10は、近赤外領域(例えば、800nm〜950nm付近)及び可視光領域(380nm〜800nm付近)に感度を有し、車両の周辺を撮像する。撮像部10は、レンズ11と、撮像素子12と、信号処理調整用IC13とを有する。   The imaging unit 10 has sensitivity in a near-infrared region (for example, around 800 nm to 950 nm) and a visible light region (around 380 nm to 800 nm), and captures an image around the vehicle. The imaging unit 10 includes a lens 11, an imaging element 12, and a signal processing adjustment IC 13.

レンズ11は、近赤外光及び可視光を所定の屈折力で屈折させて、撮像素子12に結像させる。   The lens 11 refracts near-infrared light and visible light with a predetermined refractive power to form an image on the image sensor 12.

撮像素子12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の光電変換素子で構成され、結像された光を画像Iに変換する。撮像素子12からは、電気信号に変換された画像信号が出力される。   The imaging element 12 is configured by a photoelectric conversion element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and converts the formed light into an image I. The image sensor 12 outputs an image signal converted into an electric signal.

信号処理調整用IC13は、画像信号のゲインを調整して所定の画像信号に変換する。その変換された画像信号は、調整済画像信号として出力される。   The signal processing adjustment IC 13 adjusts the gain of the image signal and converts it into a predetermined image signal. The converted image signal is output as an adjusted image signal.

なお、信号処理調整用IC13からレンズ11と撮像素子12とに対して、絞りとシャッタ速度を調整して露光量を設定する撮像パラメータ調整信号が出力される。   Note that the signal processing adjustment IC 13 outputs an imaging parameter adjustment signal for adjusting the aperture and the shutter speed to set the exposure amount to the lens 11 and the imaging element 12.

なお、撮像部10は、車両のフロントガラスの裏面側、例えばルームミラーの裏側付近に、車両の前方を向けて設置される。   Note that the imaging unit 10 is installed near the rear side of the windshield of the vehicle, for example, near the rear side of the room mirror, with the front of the vehicle facing forward.

ECU20は、例えばマイクロコンピュータで構成され、撮像部10に対して撮像パラメータ調整指示信号を出力して、撮像部10の撮像パラメータを設定する。ECU20は、その撮像パラメータで撮像された調整済画像信号を処理して、車両の周辺に存在する物体を認識する。ここで、物体とは、例えば、動物(鹿、タヌキなど)、二輪車(自転車、自動二輪車など)、歩行者(大人、子供、車椅子、ベビーカーなど)、他車両(小型車両、普通車両、大型車両など)が該当する。   The ECU 20 includes, for example, a microcomputer, and outputs an imaging parameter adjustment instruction signal to the imaging unit 10 to set imaging parameters of the imaging unit 10. The ECU 20 processes the adjusted image signal captured using the imaging parameters to recognize an object existing around the vehicle. Here, the object is, for example, an animal (a deer, a raccoon, etc.), a motorcycle (a bicycle, a motorcycle, etc.), a pedestrian (an adult, a child, a wheelchair, a stroller, etc.), and other vehicles (small vehicles, ordinary vehicles, large vehicles). Etc.).

ECU20は、物体を認識した場合、その旨を示す物体認識信号をARヘッドアップディスプレイ31又は液晶ディスプレイ32に対して出力する。   When recognizing the object, the ECU 20 outputs an object recognition signal indicating the recognition to the AR head-up display 31 or the liquid crystal display 32.

ECU20は、近赤外ライト40に対して、近赤外光の照射光量を設定する近赤外光量設定信号を出力する。   The ECU 20 outputs, to the near-infrared light 40, a near-infrared light amount setting signal for setting the irradiation light amount of the near-infrared light.

ECU20は、可変配光式ヘッドライト50に対して、可視光の照射位置を設定する照射位置設定信号を出力する。   The ECU 20 outputs an irradiation position setting signal for setting the irradiation position of visible light to the variable light distribution type headlight 50.

ARヘッドアップディスプレイ31は、例えば透明のパネルを用いたコンバイナ型のディスプレイであり、ドライバが視認できる位置に配置される。   The AR head-up display 31 is, for example, a combiner-type display using a transparent panel, and is arranged at a position where a driver can visually recognize the display.

液晶ディスプレイ32は、例えば矩形状のフラットパネルディスプレイであり、ドライバが視認できる位置に配置される。   The liquid crystal display 32 is, for example, a rectangular flat panel display, and is arranged at a position where a driver can visually recognize the flat panel display.

近赤外ライト40は、例えば、可変配光式ヘッドライト50の近傍に設置された近赤外光器からなる。なお、近赤外ライト40は、車両の可変配光式ヘッドライト50と兼用してもよい。   The near-infrared light 40 includes, for example, a near-infrared light device installed near the variable light distribution type headlight 50. The near-infrared light 40 may also be used as the variable light distribution headlight 50 of the vehicle.

近赤外ライト40は、車両の進行方向を照明するとともに、ECU20から出力された近赤外光量設定信号によって指示された量の近赤外光を撮像部10の撮像範囲の内部に向けて照射する。近赤外ライト40は、ECU20に対して、近赤外ライト40が点灯状態にあるか否かを示す照明光消灯信号を出力する。この照明光消灯信号は、近赤外ライト40の点灯状態を確認するために利用される。   The near-infrared light 40 illuminates the traveling direction of the vehicle and irradiates the amount of near-infrared light indicated by the near-infrared light amount setting signal output from the ECU 20 toward the inside of the imaging range of the imaging unit 10. I do. The near-infrared light 40 outputs to the ECU 20 an illumination light extinguishing signal indicating whether or not the near-infrared light 40 is on. This illumination light extinguishing signal is used to confirm the lighting state of the near infrared light 40.

可変配光式ヘッドライト50は、車両の進行方向を照明するとともに、複数のLED光源を有し、ECU20から出力された可視光照射位置設定信号によって指示された位置に向けて可視光を照射する。可変配光式ヘッドライト50は、ECU20に対して、可変配光式ヘッドライト50が点灯状態にあるか否かを示す照明光消灯信号を出力する。この照明光消灯信号は、可変配光式ヘッドライト50の点灯状態を確認するために利用される。   The variable light distribution headlight 50 illuminates the traveling direction of the vehicle, has a plurality of LED light sources, and emits visible light toward a position specified by a visible light irradiation position setting signal output from the ECU 20. . The variable light distribution headlight 50 outputs to the ECU 20 an illumination light extinguishing signal indicating whether or not the variable light distribution headlight 50 is in a lighting state. This illumination light extinguishing signal is used to confirm the lighting state of the variable light distribution type headlight 50.

(物体認識装置の機能構成の説明)
図2は、実施例1に係る物体認識装置100の機能構成を示す機能ブロック図である。
(Explanation of the functional configuration of the object recognition device)
FIG. 2 is a functional block diagram illustrating a functional configuration of the object recognition device 100 according to the first embodiment.

物体認識装置100は、撮像部10と、ECU20と、表示部30と、可変配光式ヘッドライト50とを備える。   The object recognition device 100 includes an imaging unit 10, an ECU 20, a display unit 30, and a variable light distribution headlight 50.

ECU20は、物体形状判定部21と、物体位置判別部22(位置算出部)と、目視可否判断部23と、出力判断部24と、配光制御部25と、表示制御部26とを備える。   The ECU 20 includes an object shape determination unit 21, an object position determination unit 22 (a position calculation unit), a visual availability determination unit 23, an output determination unit 24, a light distribution control unit 25, and a display control unit 26.

物体形状判定部21は、撮像部10が車両の周辺を撮像して得られる画像Iに基づいて、車両の周辺に存在する物体の有無を判定する。   The object shape determination unit 21 determines the presence or absence of an object existing around the vehicle based on an image I obtained by the imaging unit 10 capturing an image around the vehicle.

物体形状判定部21は、マッチング判定部21Aと、データベース21Bとを備える。マッチング判定部21Aは、撮像部10が車両の周辺を撮像して得られる画像Iと、データベース21Bに記憶されている内容とのマッチング処理を行う。具体的には、データベース21Bに記憶されているテンプレートを、画像Iの上に重ね合わせた状態で走査する。そして、各位置で類似度を求めて、画像Iの中からテンプレートに類似した領域を探し出し、物体の種類(例えば、タヌキや自転車など)を認識する。   The object shape determination unit 21 includes a matching determination unit 21A and a database 21B. The matching determination unit 21A performs a matching process between the image I obtained by imaging the periphery of the vehicle by the imaging unit 10 and the content stored in the database 21B. Specifically, the template stored in the database 21B is scanned while being superimposed on the image I. Then, the similarity is obtained at each position, an area similar to the template is searched for in the image I, and the type of the object (for example, raccoon or bicycle) is recognized.

物体位置判別部22は、物体位置計測部22Aと、物体横幅/高さ計測部22Bと、物体距離計測部22Cと、物体向き計測部22Dとを備える。   The object position determination unit 22 includes an object position measurement unit 22A, an object width / height measurement unit 22B, an object distance measurement unit 22C, and an object direction measurement unit 22D.

物体位置計測部22Aは、物体形状判定部21の認識結果に基づいて、画像Iから抽出された物体の、画像I上の位置座標(X、Y)を求める。この位置座標(X、Y)は、自車両の位置を原点としたときの二次元座標で表される。   The object position measurement unit 22A obtains position coordinates (X, Y) of the object extracted from the image I on the image I based on the recognition result of the object shape determination unit 21. The position coordinates (X, Y) are represented by two-dimensional coordinates with the position of the vehicle as the origin.

物体横幅/高さ計測部22Bは、物体位置計測部22Aが計測した位置座標(X、Y)に基づいて、周知の手法を用いて、物体の画像I上の領域(W×H)を求める。ここで、Wは横幅を示し、Hは高さを示す。   The object width / height measurement unit 22B obtains a region (W × H) of the object on the image I based on the position coordinates (X, Y) measured by the object position measurement unit 22A using a known method. . Here, W indicates the width, and H indicates the height.

物体距離計測部22Cは、例えば、位置座標(X、Y)を世界座標に変換し、世界座標の原点から物体までの距離を求める。   The object distance measurement unit 22C converts, for example, the position coordinates (X, Y) into world coordinates, and obtains the distance from the origin of the world coordinates to the object.

物体向き計測部22Dは、周知の手法を用いて、物体が車両の進行方向に対してどちらの方向を向いているかを計測する。具体的に、物体向き計測部22Dは、物体が車両の進行方向に対して同じ方向を向いているか、右向きか、左向きか、進行方向に対向しているかを計測する。例えば、歩行者の体の向きは、人間の顔の向きを検知する技術を適用することで計測される。   The object direction measuring unit 22D measures the direction of the object with respect to the traveling direction of the vehicle using a known method. Specifically, the object direction measurement unit 22D measures whether the object is facing the same direction as the traveling direction of the vehicle, rightward, leftward, or faces the traveling direction. For example, the orientation of a pedestrian's body is measured by applying a technology for detecting the orientation of a human face.

目視可否判断部23は、画素数計測部23Aと、彩度検出部23Bと、無彩色度算出部23Cと、目視可否判定部23Dとを備える。   The visual availability determination unit 23 includes a pixel number measurement unit 23A, a saturation detection unit 23B, an achromatic chromaticity calculation unit 23C, and a visual availability determination unit 23D.

画素数計測部23Aは、物体位置判別部22が判別した物体の位置座標に基づいて、周知の手法を用いて、物体の画像I上の領域の面積(W×H)に比例した画素数を求める。ここで、Wは横幅を示し、Hは高さを示す。   Based on the position coordinates of the object determined by the object position determination unit 22, the pixel number measurement unit 23A calculates the number of pixels in proportion to the area (W × H) of the region on the image I of the object using a known method. Ask. Here, W indicates the width, and H indicates the height.

次に、彩度検出部23Bの詳細について、色を数値で表現する方法を、RGB形式とYUV形式とに分けて説明する。   Next, with respect to the details of the saturation detecting unit 23B, a method of expressing a color by a numerical value will be described separately for an RGB format and a YUV format.

RGB形式の場合、各原色量は等しいほど、後述する無彩色度が高くなり、完全な無彩色の場合、R=G=Bとなり、無彩色度が高い場合、R≒G≒Bとなる。この特性を利用して、彩度検出部23Bは、物体の領域に含まれるRGB(赤、緑、青)の各値(0〜255)を算出する。   In the case of the RGB format, the achromaticity described later increases as the amounts of the primary colors become equal, and R = G = B for a complete achromatic color, and R ≒ G ≒ B when the achromaticity is high. Using this characteristic, the saturation detection unit 23B calculates each value (0 to 255) of RGB (red, green, and blue) included in the region of the object.

YUV形式の場合、輝度V以外の色情報(U、V)が0に近いほど、無彩色度が高くなり、完全な無彩色の場合、U=0、V=0となり、無彩色度が高い場合、U≒0、V≒0となる。この特性を利用して、彩度検出部23Bは、物体の領域に含まれる画像データのY(輝度)、U(青の色差成分)、V(赤の色差成分)を算出する。   In the case of the YUV format, the achromaticity increases as the color information (U, V) other than the luminance V approaches 0, and in the case of a complete achromatic color, U = 0 and V = 0, and the achromaticity increases. In this case, U ≒ 0 and V ≒ 0. Using this characteristic, the saturation detecting unit 23B calculates Y (luminance), U (blue color difference component), and V (red color difference component) of the image data included in the object area.

なお、輝度Vは色の明るさを示し、0〜100(%)の値で示され、値が大きくなるにつれ明るくなる。なお、0%は黒色、100%は白色に対応している。青の色差成分U、赤の色差成分Vは、−128〜128の256階調で表される。   Note that the luminance V indicates the brightness of a color, and is represented by a value of 0 to 100 (%), and the brightness increases as the value increases. Note that 0% corresponds to black and 100% corresponds to white. The blue color difference component U and the red color difference component V are represented by 256 gradations of -128 to 128.

無彩色度算出部23Cは、以下の式(1)を用いて、無彩色度(%)を算出する。
The achromaticity calculator 23C calculates the achromaticity (%) using the following equation (1).

ここで、低彩色度の画素には、完全な無彩色の画素の他に、無彩色度が所定値よりも高い画素が含まれる。   Here, the low chromaticity pixels include pixels whose achromaticity is higher than a predetermined value, in addition to completely achromatic pixels.

図3は、夜間等の暗い環境で撮像された画像の中の物体の一例を示す図である。目視可否判定部23Dは、無彩色度(%)が予め定められた閾値(例えば、50%)を超えるか否か判定する。無彩色度が閾値を超える場合(無彩色度>50%)、画像Iの中の物体(図3の右側に示す歩行者)はドライバによる目視が困難であると判定される。   FIG. 3 is a diagram illustrating an example of an object in an image captured in a dark environment such as at night. The visual availability determination unit 23D determines whether the achromaticity (%) exceeds a predetermined threshold (for example, 50%). When the achromaticity exceeds the threshold (achromaticity> 50%), it is determined that the object in the image I (the pedestrian shown on the right side in FIG. 3) is difficult to be visually recognized by the driver.

一方、無彩色度が閾値以下(例えば、無彩色度=20%)の場合、画像Iの中の物体(図3の左側に示す歩行者)はドライバの目視による認識が可能であると判定される。   On the other hand, when the achromaticity is equal to or less than the threshold (for example, achromaticity = 20%), it is determined that the object in the image I (a pedestrian shown on the left side in FIG. 3) can be visually recognized by the driver. You.

出力判断部24は、目視可否判定部23Dの判定結果に基づいて、出力パターンを判断する。出力パターンの一例として、配光パターン又は報知パターンがある。   The output determination unit 24 determines an output pattern based on the determination result of the visual availability determination unit 23D. An example of the output pattern is a light distribution pattern or a notification pattern.

すなわち、目視可否判定部23Dにおいて無彩色度が閾値を超えると判定された場合、出力判断部24は、配光パターンを配光制御部25に出力したり、報知パターンを表示制御部26に出力したりする。   That is, when the achromaticity exceeds the threshold value in the visual availability determination section 23D, the output determination section 24 outputs the light distribution pattern to the light distribution control section 25 or outputs the notification pattern to the display control section 26. Or

配光パターンは、例えば、可変配光式ヘッドライト50の種類や仕様等の種々の条件によって決定される。同様に、報知パターンは、例えば、表示部30の種類や仕様等の種々の条件によって決定される。   The light distribution pattern is determined by various conditions such as the type and specifications of the variable light distribution headlight 50, for example. Similarly, the notification pattern is determined based on various conditions such as, for example, the type and specification of the display unit 30.

配光制御部25は、出力判断部24の判断結果に基づいて、可変配光式ヘッドライト50の配光を制御する。すなわち、配光制御部25は、出力判断部24により出力された配光パターンに基づいて、ヘッドライトで照射すべき範囲、方向、光量等のパラメータを調整し、かつ、調整後の値に維持する。配光制御部25は、ドライバの目視でも物体を認識できるように、可変配光式ヘッドライト50の照射方向を物体が存在する方向が含まれるように変更する。   The light distribution control unit 25 controls the light distribution of the variable light distribution headlight 50 based on the determination result of the output determination unit 24. That is, the light distribution control unit 25 adjusts parameters such as the range, direction, and light amount to be irradiated by the headlight based on the light distribution pattern output by the output determination unit 24, and maintains the adjusted values. I do. The light distribution control unit 25 changes the irradiation direction of the variable light distribution type headlight 50 so as to include the direction in which the object exists so that the driver can recognize the object visually.

表示制御部26は、出力判断部24の判断結果に基づいて、物体の存在を示すパターン像情報を表示部30に表示する。すなわち、表示制御部26は、出力判断部24により出力された報知パターンに基づいて、図4に示すようなパターン像情報を表示する。   The display control unit 26 displays the pattern image information indicating the presence of the object on the display unit 30 based on the determination result of the output determination unit 24. That is, the display control unit 26 displays the pattern image information as shown in FIG. 4 based on the notification pattern output by the output determination unit 24.

パターン像情報には、切り欠きを有する円環形状(以下、単に「リング」という)が含まれる。この切り欠きは、画像Iの上で歩行者と重ならないように設けられる(図4)。図4に示すリングRIは、歩行者の足元付近に表示された物体検知枠としてのリングを示している。   The pattern image information includes an annular shape having a notch (hereinafter, simply referred to as a “ring”). The cutout is provided so as not to overlap with the pedestrian on the image I (FIG. 4). The ring RI shown in FIG. 4 indicates a ring as an object detection frame displayed near the foot of the pedestrian.

パターン像情報には、画像上に表示するアイコンICが含まれる(図4)。図4に示すアイコンICは、歩行者の頭上に表示された強調表示としてのアイコンである。アイコンICの種類を表すアイコン種別には、例えば、自動車、歩行者、二輪車、動物がある(図5左下側参照)。なお、図5の右側は、実際のカメラ画像の上で、歩行者、二輪車、自動車等の物体にリングRIとアイコンICとを重ね合わせた状態を示している。   The pattern image information includes an icon IC to be displayed on the image (FIG. 4). The icon IC shown in FIG. 4 is an icon as a highlighted display displayed above the pedestrian's head. Icon types representing the types of icon ICs include, for example, automobiles, pedestrians, motorcycles, and animals (see the lower left side of FIG. 5). Note that the right side of FIG. 5 shows a state in which the ring RI and the icon IC are superimposed on an object such as a pedestrian, a two-wheeled vehicle, and an automobile on an actual camera image.

可変配光式ヘッドライト50は、照射部51を有する(図2)。照射部51は、配光制御部25で調整された調整後のパラメータの値に基づいて、可変配光式ヘッドライト50の点灯状態を制御する。   The variable light distribution type headlight 50 has an irradiation unit 51 (FIG. 2). The irradiation unit 51 controls the lighting state of the variable light distribution type headlight 50 based on the adjusted parameter values adjusted by the light distribution control unit 25.

次に、以上説明した実施例の処理全体の流れについて、図6のフローチャートを用いて説明する。   Next, the overall processing flow of the embodiment described above will be described with reference to the flowchart of FIG.

(実施例の処理全体の流れの説明)
(ステップS1)ライトスイッチがオンになって可変配光式ヘッドライト50が点灯しているか否かを判定する。ライトスイッチがオンであるときはステップS2に進み、ライトスイッチがオフであるときはステップS1を繰り返す。
(Explanation of the overall processing flow of the embodiment)
(Step S1) It is determined whether or not the light switch is turned on and the variable light distribution type headlight 50 is turned on. When the light switch is on, the process proceeds to step S2, and when the light switch is off, step S1 is repeated.

(ステップS2)近赤外ライト40から近赤外光を照射する。   (Step S2) Near-infrared light is emitted from the near-infrared light 40.

(ステップS3)近赤外ライト40の照射に合わせて、撮像部10は、近赤外画像とカラー画像を同時に撮像する。   (Step S3) The imaging unit 10 simultaneously captures the near-infrared image and the color image in accordance with the irradiation of the near-infrared light 40.

(ステップS4)物体形状判定部21は、撮像部10が撮像して得られる画像Iに基づいて、車両の周辺に存在する物体の有無を判定し、形状を認識する物体形状判定処理を行う。この処理の詳細な流れは後述する。   (Step S4) The object shape determination unit 21 determines the presence or absence of an object existing around the vehicle based on the image I obtained by the imaging unit 10 and performs an object shape determination process for recognizing the shape. The detailed flow of this processing will be described later.

(ステップS5)物体形状判定処理の認識結果に基づいて、車両の周辺に物体が存在するか否かを判定する。物体が存在すると判定されたときはステップS6に進み、物体が存在しないと判定されたときはステップS3に戻る。   (Step S5) Based on the recognition result of the object shape determination processing, it is determined whether or not an object exists around the vehicle. When it is determined that the object exists, the process proceeds to step S6, and when it is determined that the object does not exist, the process returns to step S3.

(ステップS6)物体位置判別部22は、物体が存在すると判定されると、物体位置判定処理を行う。この処理の詳細な流れは後述する。   (Step S6) When it is determined that an object is present, the object position determination unit 22 performs an object position determination process. The detailed flow of this processing will be described later.

(ステップS7)目視可否判断部23は、物体位置判別部22で判別した位置座標に基づいて、目視可否判定処理を行う。この処理の詳細な流れは後述する。   (Step S7) The visual availability determination section 23 performs visual availability determination processing based on the position coordinates determined by the object position determination section 22. The detailed flow of this processing will be described later.

(ステップS8)目視可否判定処理の判定結果に基づいて、出力判断部24は、ドライバによる目視が困難な物体が存在するか否かに応じて、出力パターンを判断する。目視が困難な物体が存在するときはステップS9に進み、それ以外のときは、ステップS3に戻る。   (Step S8) Based on the determination result of the visual availability determination processing, the output determination unit 24 determines the output pattern according to whether or not there is an object that is difficult for the driver to view. When there is an object that is difficult to visually check, the process proceeds to step S9; otherwise, the process returns to step S3.

(ステップS9)出力判断部24によって、目視が困難な物体が存在すると判断された場合、可変配光ヘッドライト照射処理を行う。この処理の詳細な流れは後述する。   (Step S9) When the output determination unit 24 determines that there is an object that is difficult to see visually, the variable light distribution headlight irradiation process is performed. The detailed flow of this processing will be described later.

(ステップS10)車両のイグニッションがオフか否かを判定する。イグニッションがオフであるときは図6の処理を終了し、イグニッションがオンであるときはステップS1に戻る。なお、ここで、車両の車速を検出して、車速が0であるときに図6の処理を終了し、車速が0でないときにステップS1に戻るようにしてもよい。   (Step S10) It is determined whether or not the ignition of the vehicle is off. When the ignition is off, the process of FIG. 6 is ended, and when the ignition is on, the process returns to step S1. Here, the vehicle speed of the vehicle may be detected, and the process of FIG. 6 may be terminated when the vehicle speed is 0, and the process may return to step S1 when the vehicle speed is not 0.

次に、図6に示した物体形状判定処理の詳細な流れについて、図7のフローチャートを用いて説明する。   Next, a detailed flow of the object shape determination processing shown in FIG. 6 will be described with reference to the flowchart in FIG.

(物体形状判定処理の流れの説明)
(ステップS11)ステップS3で撮像した画像Iとデータベース21Bに記憶されたテンプレートとの間でテンプレートマッチングを行い、物体の種類を認識する。
(Explanation of the flow of object shape determination processing)
(Step S11) Template matching is performed between the image I captured in step S3 and the template stored in the database 21B to recognize the type of the object.

(ステップS12)画像I内の全ての物体を認識したか否かを判定する。全ての物体を認識したときはメインルーチン(図6)に戻り、それ以外のときは、ステップS11に戻って、別の物体の認識を行う。   (Step S12) It is determined whether or not all objects in the image I have been recognized. When all objects have been recognized, the process returns to the main routine (FIG. 6). Otherwise, the process returns to step S11 to recognize another object.

次に、図6に示した物体位置判定処理の詳細な流れについて、図8のフローチャートを用いて説明する。   Next, a detailed flow of the object position determination process shown in FIG. 6 will be described with reference to the flowchart in FIG.

(物体位置判定処理の流れの説明)
(ステップS21)ステップS3で撮像した画像I上における物体の位置を算出する。
(Explanation of the flow of the object position determination process)
(Step S21) The position of the object on the image I captured in step S3 is calculated.

(ステップS22)画像I上における物体の領域を算出する。   (Step S22) The area of the object on the image I is calculated.

(ステップS23)画像I上における物体から自車両までの距離を算出する。   (Step S23) The distance from the object on the image I to the host vehicle is calculated.

(ステップS24)画像I上における物体の向きを算出する。   (Step S24) The direction of the object on the image I is calculated.

(ステップS25)ステップS21〜S24で算出した結果に基づき、物体の認識結果を出力する。その後、処理はメインルーチン(図6)に戻る。   (Step S25) Based on the results calculated in steps S21 to S24, an object recognition result is output. Thereafter, the process returns to the main routine (FIG. 6).

次に、図6に示した目視可否判定処理の詳細な流れについて、図9のフローチャートを用いて説明する。   Next, the detailed flow of the visual availability determination processing shown in FIG. 6 will be described with reference to the flowchart in FIG.

(目視可否判定処理の流れの説明)
(ステップS31)物体領域の面積に比例した画素数を求める。
(Explanation of flow of visual availability determination processing)
(Step S31) The number of pixels proportional to the area of the object region is obtained.

(ステップS32)各画素の色情報(RGB値又はYUV値)を解析する。   (Step S32) The color information (RGB value or YUV value) of each pixel is analyzed.

(ステップS33)色情報の彩度を算出する。   (Step S33) The saturation of the color information is calculated.

(ステップS34)物体領域の全ての画素における彩度を算出したか否かを判定する。全ての画素における彩度を算出したときはステップS35に進み、それ以外のときは、ステップS32に戻って、別の画素の色情報を解析する。   (Step S34) It is determined whether or not the saturation has been calculated for all the pixels in the object region. If the saturation has been calculated for all the pixels, the process proceeds to step S35. Otherwise, the process returns to step S32 to analyze the color information of another pixel.

(ステップS35)無彩色度(%)を算出する。その後、処理はメインルーチン(図6)に戻る。   (Step S35) Achromaticity (%) is calculated. Thereafter, the process returns to the main routine (FIG. 6).

次に、図6に示した可変配光ヘッドライト照射処理の詳細な流れについて、図10のフローチャートを用いて説明する。ここでは、図11及び図12の場面を想定して可変配光ヘッドライト照射処理を説明する。図11及び図12は、物体認識装置100を、夜間の道路を歩行中の歩行者に適用する場面を示している。   Next, a detailed flow of the variable light distribution headlight irradiation processing shown in FIG. 6 will be described with reference to the flowchart in FIG. Here, the variable light distribution headlight irradiation processing will be described assuming the scenes of FIGS. 11 and 12. 11 and 12 show scenes in which the object recognition device 100 is applied to a pedestrian who is walking on a road at night.

(可変配光ヘッドライト照射処理の流れの説明)
(ステップS41)ドライバによる目視が困難な検知物体として歩行者(図11)の位置(x、y)を算出する。
(Explanation of the flow of the variable light distribution headlight irradiation process)
(Step S41) The position (x, y) of the pedestrian (FIG. 11) is calculated as a detected object that is difficult for the driver to see.

(ステップS42)歩行者を含む矩形領域RA(図12)の面積を算出する。   (Step S42) The area of the rectangular area RA (FIG. 12) including the pedestrian is calculated.

(ステップS43)可変配光式ヘッドライト50で照射すべき範囲を算出する。   (Step S43) The range to be irradiated by the variable light distribution type headlight 50 is calculated.

(ステップS44)可変配光式ヘッドライト50で照射すべき方向を算出する。   (Step S44) The direction to be irradiated by the variable light distribution type headlight 50 is calculated.

(ステップS45)可変配光式ヘッドライト50で照射すべき光量を算出する。   (Step S45) The amount of light to be irradiated by the variable light distribution type headlight 50 is calculated.

(ステップS46)ステップS43〜S45で算出した結果に基づき、可変配光式ヘッドライト50の点灯状態を制御する。その後、処理はメインルーチン(図6)に戻る。   (Step S46) The lighting state of the variable light distribution type headlight 50 is controlled based on the results calculated in steps S43 to S45. Thereafter, the process returns to the main routine (FIG. 6).

上記した図6に示す処理では、出力判断部24によって、目視が困難な物体が存在すると判断された場合(ステップS8におけるYES)、可変配光ヘッドライト照射処理(ステップS9)を行う例を示した。本発明はこの態様に限らず、図16に示すように、出力判断部24によって、目視が困難な物体が存在すると判断された場合(ステップS58におけるYES)、表示制御部26によって、表示部30に図5や図15に示すようなパターン像情報が表示される(ステップS59)。   In the process shown in FIG. 6 described above, an example in which the variable light distribution headlight irradiation process (step S9) is performed when the output determination unit 24 determines that there is an object that is difficult to view (YES in step S8). Was. The present invention is not limited to this mode. As shown in FIG. 16, when the output determination unit 24 determines that there is an object that is difficult to visually recognize (YES in step S58), the display control unit 26 causes the display unit 30 to display the display unit 30. 5 and 15 are displayed (step S59).

図13及び図14は、ハイビーム/ロービームを自動切り替えする機能を備えた一般的なヘッドライトでの照射イメージを示す説明図である。   FIG. 13 and FIG. 14 are explanatory diagrams showing irradiation images of general headlights having a function of automatically switching between high beam and low beam.

図13に示す場面では、歩行者が存在しない左側のヘッドライトはハイビームを点灯させない。   In the scene shown in FIG. 13, the left headlight without a pedestrian does not turn on the high beam.

図14は、細かな可変配光制御が可能な機能を有するヘッドライトを適用する場面を示している。図14に示す場面では、縦方向に画面を分割して、図6に示すステップS8において、その分割した領域のどこに歩行者が存在するかの判別が行われる。そして、ドライバの目視が困難な物体が存在すると判断されると、歩行者の存在する領域だけがヘッドライトで照明される。図14に示す場面では、自車両に対向する対向車の運転手等が眩しくないように、歩行者の存在する領域以外の領域を極力照明しないように配慮がなされている。   FIG. 14 shows a scene in which a headlight having a function capable of finely variable light distribution control is applied. In the scene shown in FIG. 14, the screen is divided in the vertical direction, and in step S8 shown in FIG. 6, it is determined where the pedestrian exists in the divided area. If it is determined that there is an object that is difficult for the driver to see, only the area where the pedestrian exists is illuminated by the headlight. In the scene shown in FIG. 14, care is taken not to illuminate the area other than the area where the pedestrian exists as much as possible so that the driver of the oncoming vehicle facing the own vehicle is not dazzled.

上述した実施例1の物体認識装置100では、可視光領域及び近赤外領域の双方に感度を有するカメラを利用して、無彩色度が算出される。   In the above-described object recognition apparatus 100 of the first embodiment, the achromaticity is calculated using a camera having sensitivity in both the visible light region and the near infrared region.

すなわち、従来のような2種類のカメラ画像ごとに無彩色度を割り出す必要がない。したがって、2種類のカメラ画像を同時に認識するといった煩雑な処理を要さない。そのため、システムに要求される処理負荷を軽減させることができる。   That is, there is no need to determine the achromaticity for each of the two types of camera images as in the related art. Therefore, there is no need for complicated processing such as recognizing two types of camera images at the same time. Therefore, the processing load required for the system can be reduced.

以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, since the embodiments are merely examples of the present invention, the present invention is not limited only to the configurations of the embodiments, and the present invention is not limited thereto. Even if there is a change in the design or the like without departing from the gist, it is needless to say that the change is included in the present invention.

上述した実施例1では、表示部30にアイコンICを表示させる例を説明した(図5)。本発明はこの態様に限らず、ドライバの肉眼で見える物体と、肉眼で見え難い物体とを異なる色で表示させてもよい。肉眼で見える物体は、例えば、青緑、青、青紫等の寒色系の色又は黄緑、緑、紫、無彩色等の中性色で表示してもよい。肉眼で見え難い物体は、例えば、ピンク、赤、黄色、橙色等の目立つ色で表示してもよい。   In the first embodiment described above, an example in which the icon IC is displayed on the display unit 30 has been described (FIG. 5). The present invention is not limited to this mode, and an object that is visible to the naked eye of the driver and an object that is hardly visible to the naked eye may be displayed in different colors. The object visible to the naked eye may be displayed in, for example, a cool color such as blue-green, blue, or blue-violet, or a neutral color such as yellow-green, green, purple, or achromatic. Objects that are difficult to see with the naked eye may be displayed in conspicuous colors such as pink, red, yellow, and orange.

上述した実施例1では、歩行者等の物体にリングRIとアイコンICをカメラ画像に重ね合わせて表示させる例を説明した(図5)。本発明はこの態様に限らず、自車両の上方を視点とする俯瞰画像上にリングRIとアイコンICを重ね合わせてマップ表示させてもよい(図15)。図15に示す場面では、自車両から物体までの距離がある距離(例えば、約50m)を超えると、ドライバによる物体の見え方に差が出てくる。   In the first embodiment described above, an example in which the ring RI and the icon IC are superimposed on the camera image and displayed on an object such as a pedestrian (FIG. 5). The present invention is not limited to this mode, and the map may be displayed by superimposing the ring RI and the icon IC on the bird's-eye view image having the viewpoint above the own vehicle (FIG. 15). In the scene shown in FIG. 15, when the distance from the host vehicle to the object exceeds a certain distance (for example, about 50 m), a difference appears in how the driver views the object.

上述した実施例1では、ARヘッドアップディスプレイ31としてコンバイナ型のディスプレイを用いる例を説明した。本発明はこの態様に限らず、ARヘッドアップディスプレイ31は、例えば、フロントウィンドウに直接画像を表示させる方式であっても良い。   In the first embodiment, an example in which a combiner-type display is used as the AR head-up display 31 has been described. The present invention is not limited to this mode, and the AR head-up display 31 may be, for example, a system that directly displays an image on a front window.

10・・・撮像部
21・・・物体形状判定部
22・・・物体位置判別部(位置算出部)
23D・・・目視可否判断部
24・・・出力判断部
25・・・配光制御部
26・・・表示制御部
30・・・表示部
31・・・ARヘッドアップディスプレイ
32・・・液晶ディスプレイ
50・・・可変配光式ヘッドライト
100・・・物体認識装置
IC・・・アイコン(パターン像情報)
RI・・・リング(パターン像情報)
10 imaging unit 21 object shape determination unit 22 object position determination unit (position calculation unit)
23D: Visual availability determination unit 24: Output determination unit 25: Light distribution control unit 26: Display control unit 30: Display unit 31: AR head-up display 32: Liquid crystal display 50: Variable light distribution type headlight 100: Object recognition device IC: Icon (pattern image information)
RI ring (pattern image information)

Claims (4)

可視光領域及び近赤外領域の双方に感度を有して、車両の周辺を撮像する撮像部と、
前記撮像部が撮像して得られる画像に基づいて、前記車両の周辺に存在する物体の有無を判定する物体形状判定部と、
前記物体形状判定部の判定結果に基づいて、前記物体の位置を算出する位置算出部と、
前記位置算出部の算出結果に基づいて、前記画像の中の前記物体がドライバの目視による認識が可能か否か判定する目視可否判定部と、
前記目視可否判定部の判定結果に基づいて、出力パターンを判断する出力判断部とを備えることを特徴とする物体認識装置。
An imaging unit that has sensitivity in both the visible light region and the near-infrared region, and images the periphery of the vehicle,
An object shape determination unit that determines the presence or absence of an object present around the vehicle based on an image obtained by the imaging unit;
Based on the determination result of the object shape determination unit, a position calculation unit that calculates the position of the object,
A visual availability determination unit configured to determine whether the object in the image is visually recognizable by a driver based on a calculation result of the position calculation unit;
An object recognition device, comprising: an output determination unit configured to determine an output pattern based on a determination result of the visual availability determination unit.
請求項1に記載の物体認識装置は、
前記出力判断部の判断結果に基づいて、ヘッドライトの配光を制御する配光制御部を備えることを特徴とする物体認識装置。
The object recognition device according to claim 1,
An object recognition device, comprising: a light distribution control unit that controls light distribution of a headlight based on a determination result of the output determination unit.
請求項2に記載の物体認識装置において、
前記配光制御部は、
前記出力判断部の判断結果に基づいて、前記ヘッドライトの照射方向を前記物体が存在する方向が含まれるように変更することを特徴とする物体認識装置。
The object recognition device according to claim 2,
The light distribution control unit,
An object recognizing device, wherein an irradiation direction of the headlight is changed so as to include a direction in which the object is present, based on a determination result of the output determination unit.
請求項1に記載の物体認識装置において、
前記出力判断部の判断結果に基づいて、前記物体の存在を示すパターン像情報を表示部に表示する表示制御部を備えることを特徴とする物体認識装置。
The object recognition device according to claim 1,
An object recognition device, comprising: a display control unit that displays pattern image information indicating the presence of the object on a display unit based on a determination result of the output determination unit.
JP2018113869A 2018-06-14 2018-06-14 Object recognition device Active JP7244221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018113869A JP7244221B2 (en) 2018-06-14 2018-06-14 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018113869A JP7244221B2 (en) 2018-06-14 2018-06-14 Object recognition device

Publications (2)

Publication Number Publication Date
JP2019214348A true JP2019214348A (en) 2019-12-19
JP7244221B2 JP7244221B2 (en) 2023-03-22

Family

ID=68919323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018113869A Active JP7244221B2 (en) 2018-06-14 2018-06-14 Object recognition device

Country Status (1)

Country Link
JP (1) JP7244221B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007045336A (en) * 2005-08-10 2007-02-22 Sumitomo Electric Ind Ltd System and method for detecting obstacle
JP2007124676A (en) * 2006-11-22 2007-05-17 Hitachi Ltd On-vehicle image processor
WO2012164729A1 (en) * 2011-06-02 2012-12-06 トヨタ自動車株式会社 Vehicular field of view assistance device
WO2013042767A1 (en) * 2011-09-21 2013-03-28 本田技研工業株式会社 Apparatus for monitoring surroundings of vehicle
JP2013119357A (en) * 2011-12-08 2013-06-17 Toyota Central R&D Labs Inc Illumination control device
JP2013198132A (en) * 2012-03-23 2013-09-30 Koito Mfg Co Ltd Imaging apparatus and control system equipped with the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007045336A (en) * 2005-08-10 2007-02-22 Sumitomo Electric Ind Ltd System and method for detecting obstacle
JP2007124676A (en) * 2006-11-22 2007-05-17 Hitachi Ltd On-vehicle image processor
WO2012164729A1 (en) * 2011-06-02 2012-12-06 トヨタ自動車株式会社 Vehicular field of view assistance device
WO2013042767A1 (en) * 2011-09-21 2013-03-28 本田技研工業株式会社 Apparatus for monitoring surroundings of vehicle
JP2013119357A (en) * 2011-12-08 2013-06-17 Toyota Central R&D Labs Inc Illumination control device
JP2013198132A (en) * 2012-03-23 2013-09-30 Koito Mfg Co Ltd Imaging apparatus and control system equipped with the same

Also Published As

Publication number Publication date
JP7244221B2 (en) 2023-03-22

Similar Documents

Publication Publication Date Title
US10504214B2 (en) System and method for image presentation by a vehicle driver assist module
US9123179B2 (en) Surrounding image display system and surrounding image display method for vehicle
JP5853947B2 (en) Night vision device
JP5299026B2 (en) Vehicle display device
US20150278578A1 (en) Object Detection Device and Object Detection Method
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
WO2010137563A1 (en) Image processing apparatus
US10496891B2 (en) Driver assistance system and method for object detection and notification
US20110157184A1 (en) Image data visualization
US20140085473A1 (en) In-vehicle camera apparatus
JP2007288657A (en) Display apparatus for vehicle, and display method of the display apparatus for vehicle
JP5948170B2 (en) Information display device, information display method, and program
KR20180019189A (en) Systems and methods for processing streamed video images to compensate for the flicker of amplitude-modulated light
JP4927647B2 (en) Vehicle periphery monitoring device
JP2012027773A (en) Pseudo grayscale image generation device and program
JP2016196233A (en) Road sign recognizing device for vehicle
JP2011227657A (en) Device for monitoring periphery of vehicle
WO2018173715A1 (en) Illumination image capture device
JP2008183933A (en) Noctovision equipment
JP2013016981A (en) Imaging display control system
KR20150055181A (en) Apparatus for displaying night vision information using head-up display and method thereof
JP7244221B2 (en) Object recognition device
JP2018106239A (en) Image processing apparatus, image processing method and image processing program
JP7295645B2 (en) Vehicle road sign recognition support device
JP2004172828A (en) Night vision device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150