JP2006109171A - Display device for vehicle - Google Patents

Display device for vehicle Download PDF

Info

Publication number
JP2006109171A
JP2006109171A JP2004294210A JP2004294210A JP2006109171A JP 2006109171 A JP2006109171 A JP 2006109171A JP 2004294210 A JP2004294210 A JP 2004294210A JP 2004294210 A JP2004294210 A JP 2004294210A JP 2006109171 A JP2006109171 A JP 2006109171A
Authority
JP
Japan
Prior art keywords
vehicle
video data
display device
display
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004294210A
Other languages
Japanese (ja)
Inventor
Hiroyuki Kawamura
弘之 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Japan Co Ltd
Original Assignee
Niles Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Niles Co Ltd filed Critical Niles Co Ltd
Priority to JP2004294210A priority Critical patent/JP2006109171A/en
Publication of JP2006109171A publication Critical patent/JP2006109171A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform highlighting of a three-dimensional object by simple structure. <P>SOLUTION: This display device for vehicle is characterized in that infrared lamps 2a, 2b emit light from different directions on both left and right sides by shifting timing, a CCD camera 3 combines video data picked up when the infrared lamp 2a is lit with video data picked up when the infrared lamp 2b is lit to generate combined video data and displays and outputs the generated combined video data. Thus, since a shadow is display on both sides of the object in the combined video data, the object around a vehicle is highlighted by boundary display without requiring special image processing and a special hardware configuration. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、夜間等に歩行者や障害物等の車両周辺の目標体を撮像,表示する車両用表示装置に関する。   The present invention relates to a vehicular display device that captures and displays a target object around a vehicle such as a pedestrian or an obstacle at night or the like.

従来より、2灯のヘッドランプを同時に点灯した状態で車両前方を撮像して表示する車両用表示装置が知られている。   2. Description of the Related Art Conventionally, a vehicular display device that captures and displays the front of a vehicle with two headlamps turned on simultaneously is known.

この従来の車両用表示装置では、撮像された映像に対して画像処理を施すことにより、車両前方に存在する歩行者や障害物等の立体的な目標体の輪郭を抽出し、歩行者等を強調表示するようにしている。   In this conventional vehicle display device, by performing image processing on the captured image, a contour of a three-dimensional target body such as a pedestrian or an obstacle existing in front of the vehicle is extracted, and a pedestrian or the like is extracted. I'm trying to highlight it.

しかし、画像処理が単純な映像に基づいているため、処理が膨大になると共に、処理精度も良くないという問題があった。   However, since the image processing is based on simple video, there is a problem that the processing becomes enormous and the processing accuracy is not good.

また、照明装置として赤外線ランプを用いる場合、図16(a)のように背景の黒い状態に対し、例えば歩行者を白く浮かび上がらせて認識しているが、同図(b)のように背景に明るいものが入ると、背景の明るい部分と歩行者とが同化してしまい、歩行者を認識することが困難になる恐れがある。   In addition, when an infrared lamp is used as a lighting device, for example, a pedestrian emerges in white with respect to a black background as shown in FIG. 16 (a), but the background is shown in FIG. 16 (b). If a bright object enters, the bright part of the background and the pedestrian are assimilated, which may make it difficult to recognize the pedestrian.

これらに対し、複数台の撮像装置を用いて車両前方を撮像することにより、目標体を立体表示するものもある。   On the other hand, there are some which display a target object in a three-dimensional manner by imaging the front of the vehicle using a plurality of imaging devices.

しかしながら、複数台の撮像装置が必要になるために、車両用表示装置のコストが増加すると共に、車両への設置場所に問題を招く。   However, since a plurality of imaging devices are required, the cost of the vehicle display device increases, and a problem arises in the installation location in the vehicle.

特開2004−94825号公報JP 2004-94825 A

解決しようとする問題点は、立体的な目標体の強調表示を、簡単な構造ではできない点である。   The problem to be solved is that the three-dimensional target object cannot be highlighted with a simple structure.

本発明は、簡単な構造で立体的な目標体の強調表示を行うため、車外の目標体に異方向から光を照射する複数の照明装置をタイミングをずらして点灯させ、撮像された各映像の合成映像を表示装置に表示出力させることを最も主要な特徴とする。   In the present invention, in order to highlight a three-dimensional target with a simple structure, a plurality of lighting devices that irradiate light from different directions to a target outside the vehicle are turned on at different timings, and each captured image is displayed. The most important feature is that the composite video is displayed on the display device.

本発明の車両用表示装置は、車外の目標体に異方向から光を照射する複数の照明装置をタイミングをずらして点灯させ、撮像された各映像の合成映像を表示装置に表示出力させるため、各照明装置点灯時に立体的な目標体の側縁に形成される影によって合成映像内の目標体に境界表示を行うことができ、特別な画像処理やハードウェア構成を必要とすることなく、車両周辺の立体的な目標体を強調表示することができる。   The vehicle display device of the present invention is configured to turn on a plurality of illumination devices that irradiate light from different directions onto a target body outside the vehicle, and to display and output a composite image of each captured image on the display device. Boundaries can be displayed on the target object in the composite image by shadows formed on the side edges of the three-dimensional target object when each lighting device is turned on, and the vehicle does not require special image processing or hardware configuration. The surrounding three-dimensional target body can be highlighted.

前記撮像装置が、前記各映像に基づく差分映像に基づき前記合成映像の目標体に境界表示を付加する場合は、目標体の側縁に形成される影を確実に捕らえ、目標体に境界表示を確実に行うことができる。   When the imaging apparatus adds a boundary display to the target body of the composite video based on the difference video based on each video, the shadow formed on the side edge of the target body is reliably captured, and the boundary display is displayed on the target body. It can be done reliably.

前記撮像装置が、前記境界表示を強調する場合は、目標体を確実に強調表示することができる。   When the imaging apparatus emphasizes the boundary display, the target body can be surely highlighted.

前記撮像装置が、前記差分映像を第1の閾値により第1の2値化処理を行って前記合成映像に乗算した乗算映像を第2の閾値により第2の2値化処理を行い、第2の2値化処理後の反転映像と前記合成映像との選択処理に基づき前記合成映像の目標体に境界表示を付加する場合は、前記影の部分のデータを確実に抽出し、目標体に境界表示をより確実に行うことができる。   The imaging apparatus performs a first binarization process on the difference video using a first threshold value and performs a second binarization process on a multiplied video obtained by multiplying the synthesized video by a second threshold value, When the boundary display is added to the target body of the composite video based on the selection process of the inverted video after the binarization processing and the composite video, the shadow portion data is surely extracted and the boundary of the target body is extracted. The display can be performed more reliably.

前記照明装置が、車両の左右両側に取り付けられ、前記切替装置が、前記撮像装置から入力されるフィールドパルスに対する同期により前記タイミングをずらす場合は、撮像装置の各フィールド毎に左右の照明装置を点灯させることで、目標体の境界表示を簡単に行うことができる。   When the lighting devices are mounted on both the left and right sides of the vehicle, and the switching device shifts the timing in synchronization with a field pulse input from the imaging device, the left and right lighting devices are turned on for each field of the imaging device. By doing so, it is possible to easily display the boundary of the target body.

前記照明装置が、近赤外光を照射する場合は、夜間等における目標体の境界表示を確実に行うことができる。   When the illumination device emits near-infrared light, the boundary display of the target body can be reliably performed at night or the like.

簡単な構造で立体的な目標体の強調表示を行うという目的を、異方向から光を照射する複数の照明装置をタイミングをずらして点灯させることで実現した。   The objective of highlighting a three-dimensional target with a simple structure has been realized by lighting a plurality of lighting devices that emit light from different directions at different timings.

[車両用表示装置]
図1〜図6は、実施例1の車両用表示装置に係り、図1は、車両用表示装置の構成を示すブロック図、図2は、図1に示す赤外線ランプ及びCCDカメラの配設位置を説明するための自動車の正面図、図3は、図1に示すCCDカメラの内部構成を示すブロック図、図4は、図1に示す切替回路の内部構成を示す回路図、図5は、図1に示す切替回路の動作を説明するためのフローチャート図、図6は、図1に示す切替回路の動作を説明するためのタイミングチャート図である。
[Vehicle display device]
1 to 6 relate to the vehicle display device of the first embodiment, FIG. 1 is a block diagram showing the configuration of the vehicle display device, and FIG. 2 is an arrangement position of the infrared lamp and the CCD camera shown in FIG. FIG. 3 is a block diagram showing the internal configuration of the CCD camera shown in FIG. 1, FIG. 4 is a circuit diagram showing the internal configuration of the switching circuit shown in FIG. 1, and FIG. FIG. 6 is a flow chart for explaining the operation of the switching circuit shown in FIG. 1, and FIG. 6 is a timing chart for explaining the operation of the switching circuit shown in FIG.

図1の車両用表示装置1は、車両に搭載され、赤外線ランプ2a,2b,CCD(Charge Coupled Device)カメラ3,切替回路4,及び表示装置5を主な構成要素として備えている。   The vehicle display device 1 in FIG. 1 is mounted on a vehicle and includes infrared lamps 2a and 2b, a CCD (Charge Coupled Device) camera 3, a switching circuit 4, and a display device 5 as main components.

前記赤外線ランプ2a,2bは、それぞれ、図2に示すように、車両前部左右両側に配設されている。赤外線ランプ2a,2bは、照明スイッチSW(図4参照)がオン状態になるのに応じて、切替回路4の制御に従って車両前方に近赤外光を照射する。赤外線ランプ2a,2bの光軸は、車両の前方で交わるように設定され、目標体である例えば歩行者に、異方向である左右両側から光を照射する。   As shown in FIG. 2, the infrared lamps 2a and 2b are disposed on the left and right sides of the front part of the vehicle. The infrared lamps 2a and 2b irradiate near-infrared light ahead of the vehicle according to the control of the switching circuit 4 in response to the lighting switch SW (see FIG. 4) being turned on. The optical axes of the infrared lamps 2a and 2b are set so as to cross each other in front of the vehicle, and irradiate the target body, for example, a pedestrian, from both left and right sides in different directions.

従って、車外の目標体に異方向から光を照射する複数の照明装置(赤外線ランプ2a,2b)を備えた構成となっている。   Therefore, it has a configuration provided with a plurality of illumination devices (infrared lamps 2a, 2b) that irradiate the target body outside the vehicle with light from different directions.

なお、赤外線ランプの代わりに赤外線LED(Light Emission Diode)を用いてもよい。また、赤外線ランプ2a,2bはCCDカメラ3の撮像方向に対して左右対称に配設することが望ましい。   An infrared LED (Light Emission Diode) may be used instead of the infrared lamp. In addition, it is desirable that the infrared lamps 2 a and 2 b be arranged symmetrically with respect to the imaging direction of the CCD camera 3.

前記CCDカメラ3は、車内のバックミラー背面に配設され(図2参照)、車外方向である車両前方を撮像する。従って、車外方向の映像を撮像する撮像装置(CCDカメラ3)を備えた構成となっている。   The CCD camera 3 is disposed on the rear surface of the rearview mirror in the vehicle (see FIG. 2), and images the front of the vehicle in the vehicle exterior direction. Therefore, the image pickup apparatus (CCD camera 3) for picking up an image in the vehicle exterior direction is provided.

図3に示すように、前記CCDカメラ3は、CCD11,DSP(Digital Signal Processor)12,入力画像メモリ13,演算用メモリ14,スーパーインポーズメモリ15,映像切替部16,及びCPU(Central Processing Unit)17を備えている。CCDカメラ3は、切替回路4にフィールドパルスを出力することにより、赤外線ランプ2a,2bを交互にパルス発光させる。また、CCDカメラ3は、赤外線ランプ2a,2bが交互にパルス発光している状態で車両前方を撮像し、撮像された映像に対して後述する境界表示処理を実行することにより、表示装置5上に車両周辺の目標体を立体的に強調表示する。なお、CCDカメラ3の各構成要素の機能については後述する。   As shown in FIG. 3, the CCD camera 3 includes a CCD 11, a DSP (Digital Signal Processor) 12, an input image memory 13, a calculation memory 14, a superimpose memory 15, a video switching unit 16, and a CPU (Central Processing Unit). ) 17. The CCD camera 3 outputs field pulses to the switching circuit 4 so that the infrared lamps 2a and 2b emit pulses alternately. The CCD camera 3 captures an image of the front of the vehicle with the infrared lamps 2a and 2b alternately emitting pulses, and executes a boundary display process (to be described later) on the captured image. The target object around the vehicle is highlighted three-dimensionally. The function of each component of the CCD camera 3 will be described later.

前記切替回路4は、切替装置を構成し、図4に示すように、CCDカメラ3からのフィールドパルスが入力される入力端子INと、車両前方左側の赤外線ランプ2aに接続されたトランジスタT1と、車両前方右側の赤外線ランプ2bに接続されたトランジスタT2とを有する。   The switching circuit 4 constitutes a switching device, and as shown in FIG. 4, an input terminal IN to which a field pulse from the CCD camera 3 is input, a transistor T1 connected to an infrared lamp 2a on the left side in front of the vehicle, And a transistor T2 connected to the infrared lamp 2b on the right front side of the vehicle.

前記切替回路4は、図5,図6に示すように、入力端子IN(図4)から入力されたフィールパルスがハイ(High)状態(EVENフィールド)である場合(図5ステップS1がYES)、トランジスタT1及びトランジスタT2(図4)をオフ状態及びオン状態に切り替える。この切り替えにより、赤外線ランプ2a(左側照明)を消灯状態、赤外線ランプ2b(右側照明)を点灯状態に切り替える(図5ステップS2)。   5 and 6, the switching circuit 4 is in a high state (EVEN field) when the field pulse input from the input terminal IN (FIG. 4) is set (YES in step S1 in FIG. 5). The transistors T1 and T2 (FIG. 4) are switched between the off state and the on state. By this switching, the infrared lamp 2a (left side illumination) is switched off and the infrared lamp 2b (right side illumination) is switched on (step S2 in FIG. 5).

前記入力端子INから入力されたフィールパルスがロー(Low)状態(ODDフィールド)である場合(図5ステップS1がNO)、トランジスタT1及びトランジスタT2をオン状態及びオフ状態に切り替える。この切り替えにより、赤外線ランプ2aを点灯状態、赤外線ランプ2bを消灯状態に切り替える(図5ステップS3)。   When the field pulse input from the input terminal IN is in the low state (ODD field) (step S1 in FIG. 5 is NO), the transistor T1 and the transistor T2 are switched to the on state and the off state. By this switching, the infrared lamp 2a is switched on and the infrared lamp 2b is switched off (step S3 in FIG. 5).

従って、各照明装置(赤外線ランプ2a,2b)をタイミングをずらして点灯させる切替装置(切替回路4)を備え、切替装置(切替回路4)は、撮像装置(CCDカメラ3)から入力されるフィールドパルスに対する同期により前記タイミングをずらす構成となっている。   Accordingly, the lighting device (infrared lamps 2a and 2b) is provided with a switching device (switching circuit 4) that turns on the lighting at different timings. The switching device (switching circuit 4) is a field input from the imaging device (CCD camera 3). The timing is shifted by synchronization with the pulse.

前記表示装置5は、車両のヘッドアップディスプレイ等で構成され、フロントウインドウガラスに映像表示が行われる。表示装置5は、CCDカメラ3から入力されたNTSC(National Television Standards Committee)信号に従ってCCDカメラ3により画像処理された車両周辺である、例えば車両前方の映像を表示出力する。なお、表示装置5は、液晶表示装置など他の表示構成を用いることもできる。   The display device 5 is composed of a vehicle head-up display or the like, and displays video on the windshield. The display device 5 displays and outputs, for example, an image in front of the vehicle, which is around the vehicle image-processed by the CCD camera 3 in accordance with an NTSC (National Television Standards Committee) signal input from the CCD camera 3. The display device 5 can also use other display configurations such as a liquid crystal display device.

このような構成を有する車両用表示装置1は、以下に示す境界表示処理を実行することにより、特別な画像処理やハードウェア構成を必要とすることなく、車両周辺の目標体に境界表示を行う。   The vehicle display device 1 having such a configuration performs boundary display on the target body around the vehicle without executing special image processing or hardware configuration by executing the boundary display processing described below. .

以下、図7に示すフローチャートを参照して、境界表示処理を実行する際の車両用表示装置1の動作について説明する。   Hereinafter, with reference to the flowchart shown in FIG. 7, operation | movement of the display apparatus 1 for vehicles at the time of performing a boundary display process is demonstrated.

なお、必要に応じて図8〜図15を参照する。図8は、車両前方左側及び車両前方右側の赤外線ランプ点灯時に撮像された映像データの一例を示す図、図9は、車両前方左側及び車両前方右側の赤外線ランプ点灯時に撮像された映像データを差分処理することにより得られる映像データの一例を示す図、図10は、差分処理することにより得られた映像データに対し、2値化処理を施すことにより得られる映像データの一例を示す図、図11は、図9に示す映像データに対して膨張処理を施すことにより得られる映像データの一例を示す図、図12は、車両前方左側及び車両前方右側の赤外線ランプ点灯時に撮像された映像データを合成することにより得られる映像データの一例を示す図、図13は、図10に示す映像データと図11に示す映像データを乗算することにより得られる映像データの一例を示す図、図14は、スーパーインポーズデータの一例を示す図、図15は、図12の映像データとスーパーインポーズデータとの選択処理により得られた映像データの一例を示す図である。
[境界表示処理]
図7に示すフローチャートは、車両用表示装置の電源がオン状態になり、CCDカメラ3が赤外線ランプ2a,2bを交互にパルス発光させるのに応じて開始となり、境界表示処理はステップS11の処理に進む。
In addition, FIGS. 8-15 is referred as needed. FIG. 8 is a diagram illustrating an example of image data captured when the infrared lamps on the left front side of the vehicle and the right front side of the vehicle are lit. FIG. FIG. 10 is a diagram illustrating an example of video data obtained by processing. FIG. 10 is a diagram illustrating an example of video data obtained by performing binarization processing on video data obtained by performing difference processing. 11 is a diagram showing an example of video data obtained by performing expansion processing on the video data shown in FIG. 9, and FIG. 12 shows video data captured when the infrared lamps on the front left side and the front right side of the vehicle are turned on. FIG. 13 is a diagram showing an example of video data obtained by combining, and FIG. 13 is a video obtained by multiplying the video data shown in FIG. 10 and the video data shown in FIG. FIG. 14 is a diagram illustrating an example of superimpose data. FIG. 15 is a diagram illustrating an example of video data obtained by selecting the video data and superimpose data in FIG. FIG.
[Boundary display processing]
The flowchart shown in FIG. 7 starts when the power source of the vehicle display device is turned on and the CCD camera 3 alternately pulses the infrared lamps 2a and 2b, and the boundary display processing is performed in step S11. move on.

ステップS11の処理では、CCD11が、車両前方の映像を撮像し、撮像された映像のデータをDSP12に出力する。これにより、このステップS11の処理は完了し、このステップS11の処理は完了し、境界表示処理はステップS11の処理からステップS12の処理に進む。   In the process of step S <b> 11, the CCD 11 captures an image in front of the vehicle and outputs data of the captured image to the DSP 12. Thereby, the process of step S11 is completed, the process of step S11 is completed, and the boundary display process proceeds from the process of step S11 to the process of step S12.

ステップS12の処理では、DSP12が、CCD11から入力された映像データに対してアナログ/デジタル変換処理等の信号処理を施す。なお、この実施例では、映像データの各画素は256(0〜255)階調の濃度値を有し、濃度値が0の画素は黒色に表示され、濃度値が255の画素は白色に表される。これにより、このステップS12の処理は完了し、境界表示処理はステップS12の処理からステップS13の処理に進む。   In step S12, the DSP 12 performs signal processing such as analog / digital conversion processing on the video data input from the CCD 11. In this embodiment, each pixel of the video data has a density value of 256 (0 to 255) gradations, a pixel whose density value is 0 is displayed in black, and a pixel whose density value is 255 is displayed in white. Is done. Thereby, the process of step S12 is completed, and the boundary display process proceeds from the process of step S12 to the process of step S13.

ステップS13の処理では、DSP12が、信号処理が施された映像データを入力画像メモリ13に記録する。これにより、このステップS13の処理は完了し、境界表示処理はステップS13の処理からステップS14の処理に進む。   In the process of step S <b> 13, the DSP 12 records the video data subjected to the signal processing in the input image memory 13. Thereby, the process of step S13 is completed, and the boundary display process proceeds from the process of step S13 to the process of step S14.

ステップS14の処理では、CPU17が、入力画像メモリ13に1フレーム分の映像データが記録されたか否かを判別する。そして、判別の結果、1フレーム分の映像データが記録されていない場合、CPU17は境界表示処理をステップS11の処理に戻す。一方、1フレーム分の映像データが記録されている場合には、CPU17は境界表示処理をステップS15の処理に進める。   In the process of step S <b> 14, the CPU 17 determines whether one frame of video data has been recorded in the input image memory 13. If the result of determination is that one frame of video data has not been recorded, the CPU 17 returns the boundary display process to the process of step S11. On the other hand, if video data for one frame is recorded, the CPU 17 advances the boundary display process to the process of step S15.

ステップS15の処理では、CPU17が、赤外線ランプ2a点灯時に撮像された映像データの各画素の濃度値と赤外線ランプ2b点灯時に撮像された映像データの各画素の濃度値との差分値を算出し、算出された差分値の絶対値を計算する。そして、CPU17は、計算された絶対値を表す映像データを差分映像として演算用メモリ14に記録する。   In the process of step S15, the CPU 17 calculates a difference value between the density value of each pixel of the video data captured when the infrared lamp 2a is lit and the density value of each pixel of the video data captured when the infrared lamp 2b is lit. The absolute value of the calculated difference value is calculated. Then, the CPU 17 records the video data representing the calculated absolute value in the calculation memory 14 as a difference video.

具体的には、赤外線ランプ2a点灯時及び赤外線ランプ2b点灯時に撮像された映像データが図8(a),(b)に示すものである場合、CPU17はこれら映像データを構成する各画素の濃度値の差分値を算出し、算出された差分値の絶対値を計算することにより、図9に示すような映像データを差分映像として得る。これにより、このステップS15の処理は完了し、境界表示処理はステップS15の処理からステップS16の処理に進む。   Specifically, when the image data captured when the infrared lamp 2a is turned on and when the infrared lamp 2b is turned on is shown in FIGS. 8A and 8B, the CPU 17 determines the density of each pixel constituting the image data. By calculating the difference value of the values and calculating the absolute value of the calculated difference value, video data as shown in FIG. 9 is obtained as the difference video. Thereby, the process of step S15 is completed, and the boundary display process proceeds from the process of step S15 to the process of step S16.

ステップS16の処理では、CPU17が、演算用メモリ14に記録された映像データを、例えば濃度値1を第1の閾値として第1の2値化処理を行う。濃度値が1未満の画素は、濃度値0(黒),濃度値が1以上のものは濃度値255(白)に変換し、2値化された映像データを演算用メモリ14に記録する。   In the process of step S16, the CPU 17 performs a first binarization process on the video data recorded in the calculation memory 14, for example, using the density value 1 as a first threshold value. Pixels having a density value of less than 1 are converted to a density value of 0 (black) and those having a density value of 1 or more are converted to a density value of 255 (white), and binarized video data is recorded in the calculation memory.

具体的には、図9に示す映像データが演算用メモリ14に記録されていた場合、CPU17は、前記第1の2値化処理により図10に示すような映像データを得る。   Specifically, when the video data shown in FIG. 9 is recorded in the arithmetic memory 14, the CPU 17 obtains video data as shown in FIG. 10 by the first binarization process.

なお、この実施例において、CPU17は、濃度値1を閾値として第1の2値化処理を行ったが、その他の濃度値を閾値として用いてもよい。これにより、このステップS16の処理は完了し、境界表示処理はステップS16の処理からステップS17の処理に進む。   In this embodiment, the CPU 17 performs the first binarization process using the density value 1 as a threshold value, but other density values may be used as the threshold value. Thereby, the process of step S16 is completed, and the boundary display process proceeds from the process of step S16 to the process of step S17.

ステップS17の処理では、CPU17が、濃度値255(白)の画素に隣接する黒画素を白画素に置き換えることにより2値化された映像データに対して膨張処理を施し、膨張処理が施された映像データを演算用メモリ14に記録する。このような処理によれば、図10に示す映像データは、図11に示すようなノイズ除去された映像データに変換される。図11の映像データの黒部分は、図10のそれより一回り小さくなる。これにより、このステップS17の処理は完了し、境界表示処理はステップS17の処理からステップS18の処理に進む。   In the process of step S17, the CPU 17 performs the expansion process on the binarized video data by replacing the black pixel adjacent to the pixel having the density value of 255 (white) with the white pixel, and the expansion process is performed. The video data is recorded in the calculation memory 14. According to such processing, the video data shown in FIG. 10 is converted into video data from which noise has been removed as shown in FIG. The black portion of the video data in FIG. 11 is slightly smaller than that in FIG. Thereby, the process of step S17 is completed, and the boundary display process proceeds from the process of step S17 to the process of step S18.

ステップS18の処理では、CPU17が、赤外線ランプ2a点灯時に撮像された映像データと赤外線ランプ2b点灯時に撮像された映像データを合成して合成映像を生成し、合成映像データと膨張処理を施された映像データとが乗算された映像データを乗算映像として生成する。   In the process of step S18, the CPU 17 generates a composite video by combining the video data captured when the infrared lamp 2a is lit and the video data captured when the infrared lamp 2b is lit, and the composite video data and the expansion process are performed. Video data multiplied by the video data is generated as a multiplied video.

具体的には、赤外線ランプ2a点灯時及び赤外線ランプ2b点灯時に撮像された映像データが図8(a),(b)に示すものである場合、CPU17は、図8(a),(b)に示す映像データを合成して図12に示すような合成映像データを生成し、この合成映像データに図11に示す映像データを乗算することにより、図13に示すような映像データを生成する。   Specifically, when the image data captured when the infrared lamp 2a is turned on and when the infrared lamp 2b is turned on is as shown in FIGS. 8A and 8B, the CPU 17 performs the processing shown in FIGS. 12 is generated by combining the video data shown in FIG. 12, and the video data shown in FIG. 13 is generated by multiplying the composite video data by the video data shown in FIG.

このような処理によれば、合成映像データ中又は膨張処理後の映像データ中の一方において白色の画素は黒画素に変換され、映像データ中に含まれる目標体である歩行者の輪郭線Lが白色に表示されるようになる。そして、CPU17は、乗算することにより得られた映像データを演算用メモリ14に記録する。これにより、このステップS18の処理は完了し、境界表示処理はステップS18の処理からステップS19の処理に進む。   According to such processing, a white pixel is converted into a black pixel in one of the synthesized video data or the video data after the expansion process, and the contour line L of the pedestrian as the target body included in the video data is changed. Displayed in white. Then, the CPU 17 records the video data obtained by the multiplication in the calculation memory 14. Thereby, the process of step S18 is completed, and the boundary display process proceeds from the process of step S18 to the process of step S19.

ステップS19の処理では、CPU17が、ステップS18の処理により生成された映像データを濃度値230を第2の閾値として第2の2値化処理を行う。濃度値が230未満の画素は黒,濃度値が230以上のものは白色に変換することにより、映像データ中に含まれる目標体の輪郭線Lを抽出し、抽出された輪郭線Lの映像データをスーパーインポーズデータとしてスーパーインポーズメモリ15に記録する。   In the process of step S19, the CPU 17 performs a second binarization process on the video data generated by the process of step S18 using the density value 230 as a second threshold value. Pixels having a density value of less than 230 are converted to black, and those having a density value of 230 or more are converted to white, whereby the contour line L of the target body contained in the video data is extracted, and the video data of the extracted contour line L is extracted. Is recorded in the superimpose memory 15 as superimpose data.

具体的には、ステップS18の処理により図13に示すような映像データが生成された場合、CPU17は、この映像データに対して第2の2値化処理を施すことにより図14に示すような輪郭線Lの映像データをスーパーインポーズデータとして生成する。   Specifically, when the video data as shown in FIG. 13 is generated by the process of step S18, the CPU 17 performs the second binarization process on the video data as shown in FIG. Video data of the contour line L is generated as superimpose data.

なお、この実施例では、CPU17は、濃度値230を第2の閾値として第2の2値化処理を行ったが、その他の濃度値を閾値として用いてもよい。これにより、このステップS19の処理は完了し、境界表示処理はステップS19の処理からステップS20の処理に進む。   In this embodiment, the CPU 17 performs the second binarization process using the density value 230 as the second threshold value, but other density values may be used as the threshold value. Thereby, the process of step S19 is completed, and the boundary display process proceeds from the process of step S19 to the process of step S20.

ステップS20の処理では、CPU17が、スーパーインポーズメモリ15にスーパーインポーズデータが記録されているか否かを判別する。そして、判別の結果、スーパーインポーズデータが記録されていない場合、映像切替部16は、ステップS21の処理として合成映像データをDSP12に出力した後、境界表示処理をステップS23の処理に進める。一方、スーパーインポーズデータが記録されている場合、映像切替部16は、ステップS22の処理として合成映像データとスーパーインポーズデータとをDSP12に出力した後、境界表示処理をステップS23の処理に進める。   In the process of step S <b> 20, the CPU 17 determines whether or not superimpose data is recorded in the superimpose memory 15. If the result of the determination is that superimpose data is not recorded, the video switching unit 16 outputs the composite video data to the DSP 12 as the process of step S21, and then advances the boundary display process to the process of step S23. On the other hand, when superimpose data is recorded, the video switching unit 16 outputs the composite video data and the superimpose data to the DSP 12 as the process of step S22, and then advances the boundary display process to the process of step S23. .

ステップS23の処理では、DSP12が、映像切替部16から入力された映像データをデジタル/アナログ変換した後、表示装置5にNTSC信号を出力することにより映像データを表示装置5上に表示させる。   In step S23, the DSP 12 digital / analog converts the video data input from the video switching unit 16, and then outputs the NTSC signal to the display device 5 to display the video data on the display device 5.

具体的には、合成映像データが入力された場合、DSP12は、図12に示すような合成映像データを表示装置5に表示出力させる。一方、合成映像データとスーパーインポーズデータが入力された場合には、DSP12は、スーパーインポーズデータを反転した映像データを生成し、反転映像データ及び合成映像データを構成する画素のうち濃度値が低い画素を抽出する選択処理を行う。この選択処理により、図15に示すような黒色の輪郭線Lが目標体である歩行者に境界表示され、この境界表示により強調表示された映像データを表示装置5上に表示する。   Specifically, when the composite video data is input, the DSP 12 causes the display device 5 to display and output the composite video data as shown in FIG. On the other hand, when the composite video data and the superimpose data are input, the DSP 12 generates video data obtained by inverting the superimpose data, and the density value of the pixels constituting the inverted video data and the composite video data is the same. A selection process for extracting a low pixel is performed. With this selection processing, a black contour line L as shown in FIG. 15 is displayed as a boundary on the pedestrian as the target body, and the video data highlighted by this boundary display is displayed on the display device 5.

なお、この時、DSP13は、輪郭線Lに色を付与して輪郭線を強調表示してもよい。色の種類としては、赤等目立つ色を選択するのがよい。これにより、ステップS23の処理は完了し、境界表示処理はステップS23の処理からステップS24の処理に進む。   At this time, the DSP 13 may give a color to the contour line L and highlight the contour line. As the color type, it is preferable to select a conspicuous color such as red. Thereby, the process of step S23 is completed, and the boundary display process proceeds from the process of step S23 to the process of step S24.

ステップS24の処理では、DSP12が、1フレーム分の映像データに対する処理が終了したか否かを判別する。そして、判別の結果、1フレーム分の映像データに対する処理が終了していない場合、DSP12は、境界表示処理をステップS15の処理に戻す。一方、1フレーム分の映像データに対する処理が終了した場合には、DSP12は、境界表示処理をステップS11の処理に戻す。   In the process of step S24, the DSP 12 determines whether or not the process for video data for one frame has been completed. If the result of determination is that processing for video data for one frame has not been completed, the DSP 12 returns the boundary display processing to the processing in step S15. On the other hand, when the process for the video data for one frame is completed, the DSP 12 returns the boundary display process to the process of step S11.

以上のように、実施例1の車両用表示装置1によれば、CCDカメラ3が、赤外線ランプ2a点灯時に撮像された映像データと赤外線ランプ2b点灯時に撮像された映像データとを合成して合成映像データを生成し、生成された合成映像データを表示出力する。そして、このような構成によれば、図12に示すように、合成映像データ内の歩行者の両側縁に影が表示されるようになるので、特別な画像処理やハードウェア構成を必要とすることなく、車両前方の歩行者を境界表示により強調表示することができる。また、歩行者に影が表示されることによって、背景と歩行者との間に境界線が生じ、映像データの中から歩行者を精度よく認識することができる。   As described above, according to the vehicle display device 1 of the first embodiment, the CCD camera 3 combines and synthesizes video data captured when the infrared lamp 2a is lit and video data captured when the infrared lamp 2b is lit. Video data is generated, and the generated composite video data is displayed and output. According to such a configuration, as shown in FIG. 12, shadows are displayed on both side edges of the pedestrian in the composite video data, so that special image processing and hardware configuration are required. The pedestrian in front of the vehicle can be highlighted by the boundary display. Further, when a shadow is displayed on the pedestrian, a boundary line is generated between the background and the pedestrian, and the pedestrian can be accurately recognized from the video data.

前記撮像装置は、前記影による境界表示を強調して表示することができ、目標体を確実に強調表示することができる。すなわち、CCDカメラ3は、目標体の輪郭線Lを表すスーパーインポーズデータと合成映像データとを選択処理するので、図15に示すように、映像データの中から立体物を判別することが容易となる。   The imaging apparatus can highlight the boundary display by the shadow, and can reliably highlight the target body. That is, since the CCD camera 3 selects and processes the superimpose data representing the contour line L of the target body and the composite video data, it is easy to determine a three-dimensional object from the video data as shown in FIG. It becomes.

前記赤外線ランプ2a,2bは、近赤外光を照射するので、夜間等においても車両前方にいる歩行者の境界表示を確実に行うことができる。   Since the infrared lamps 2a and 2b irradiate near infrared light, the boundary display of a pedestrian in front of the vehicle can be reliably performed even at night.

なお、照明装置は、異方向から光を照射するものであれば、3台以上設けることも可能である。点灯のタイミングは、フィールドパルス以外の信号によっても行うことができる。   Note that it is possible to provide three or more lighting devices as long as they emit light from different directions. The lighting timing can also be performed by a signal other than the field pulse.

本発明の一実施形態となる車両用表示装置の構成を示すブロック図である(実施例1)。1 is a block diagram illustrating a configuration of a vehicle display device according to an embodiment of the present invention (Example 1). FIG. 図1に示す赤外線ランプ及びCCDカメラの配設位置を説明するための自動車の正面図である(実施例1)。FIG. 2 is a front view of an automobile for explaining the arrangement positions of the infrared lamp and the CCD camera shown in FIG. 1 (Example 1). 図1に示すCCDカメラの内部構成を示すブロック図である(実施例1)。FIG. 2 is a block diagram showing an internal configuration of the CCD camera shown in FIG. 1 (Example 1). 図1に示す切替回路の内部構成を示す回路図である(実施例1)。FIG. 2 is a circuit diagram showing an internal configuration of the switching circuit shown in FIG. 1 (Example 1). 図1に示す切替回路の動作を説明するためのフローチャート図である(実施例1)。FIG. 3 is a flowchart for explaining the operation of the switching circuit shown in FIG. 1 (Example 1). 図1に示す切替回路の動作を説明するためのタイミングチャート図である(実施例1)。FIG. 3 is a timing chart for explaining the operation of the switching circuit shown in FIG. 1 (Example 1). 本発明の一実施形態となる境界表示処理の流れを示すフローチャート図である(実施例1)。It is a flowchart figure which shows the flow of the boundary display process used as one Embodiment of this invention (Example 1). 車両前方左側及び車両前方右側の赤外線ランプ点灯時に撮像された映像データの一例を示す図である(実施例1)。(Example 1) which is a figure which shows an example of the video data imaged at the time of the infrared lamp lighting of the vehicle front left side and the vehicle front right side. 車両前方左側及び車両前方右側の赤外線ランプ点灯時に撮像された映像データを差分処理することにより得られる映像データの一例を示す図である(実施例1)。(Example 1) which is a figure which shows an example of the video data obtained by carrying out the difference process of the video data imaged at the time of the infrared lamp lighting of the vehicle front left side and the vehicle front right side. 差分処理することにより得られた映像データに対し、2値化処理を施すことにより得られる映像データの一例を示す図である(実施例1)。(Example 1) which is a figure which shows an example of the video data obtained by performing the binarization process with respect to the video data obtained by performing a difference process. 図9に示す映像データに対して膨張処理を施すことにより得られる映像データの一例を示す図である(実施例1)。FIG. 10 is a diagram illustrating an example of video data obtained by performing expansion processing on the video data illustrated in FIG. 9 (Example 1). 車両前方左側及び車両前方右側の赤外線ランプ点灯時に撮像された映像データを合成することにより得られる映像データの一例を示す図である(実施例1)。(Example 1) which is a figure which shows an example of the video data obtained by synthesize | combining the video data imaged at the time of the infrared lamp lighting of the vehicle front left side and the vehicle front right side. 図10に示す映像データと図11に示す映像データを乗算することにより得られる映像データの一例を示す図である(実施例1)。FIG. 12 is a diagram illustrating an example of video data obtained by multiplying the video data illustrated in FIG. 10 and the video data illustrated in FIG. 11 (Example 1). スーパーインポーズデータの一例を示す図である(実施例1)。(Example 1) which is a figure which shows an example of superimpose data. 図12の映像データとスーパーインポーズデータとの選択処理により得られた映像データの一例を示す図である(実施例1)。FIG. 13 is a diagram illustrating an example of video data obtained by a selection process between video data and superimpose data in FIG. 12 (Example 1). (a)は、歩行者認識の映像データを示す図、(b)は、(a)を2値化処理した映像データの図である(従来例)。(A) is a figure which shows the video data of pedestrian recognition, (b) is a figure of the video data which binarized (a) (conventional example).

符号の説明Explanation of symbols

1:車両用表示装置
2a,2b:赤外線ランプ(照明装置)
3:CCD(Charge Coupled Device)カメラ(撮像装置)
4:切替回路
5:表示装置
1: Vehicle display devices 2a, 2b: Infrared lamp (lighting device)
3: CCD (Charge Coupled Device) camera (imaging device)
4: Switching circuit 5: Display device

Claims (6)

車外方向を撮像する撮像装置と、
前記車外の目標体に異方向から光を照射する複数の照明装置と、
前記各照明装置をタイミングをずらして点灯させる切替装置と、
前記撮像装置により撮像された映像を表示出力する表示装置とを備え、
前記撮像装置は、前記各照明装置点灯時に撮像された各映像の合成映像を前記表示装置に表示出力させる
ことを特徴とする車両用表示装置。
An imaging device for imaging the direction outside the vehicle;
A plurality of lighting devices for irradiating the target body outside the vehicle with light from different directions;
A switching device that turns on each lighting device at different timings; and
A display device for displaying and outputting the video imaged by the imaging device,
The imaging device causes the display device to display and output a composite video of each video imaged when the lighting devices are turned on.
請求項1記載の車両用表示装置であって、
前記撮像装置は、前記各映像に基づく差分映像に基づき前記合成映像の目標体に境界表示を付加する
ことを特徴とする車両用表示装置。
The vehicle display device according to claim 1,
The imaging apparatus adds a boundary display to the target body of the composite video based on the difference video based on each video.
請求項2記載の車両用表示装置であって、
前記撮像装置は、前記境界表示を強調する
ことを特徴とする車両用表示装置。
The vehicle display device according to claim 2,
The imaging apparatus emphasizes the boundary display. A vehicle display device.
請求項2記載の車両用表示装置であって、
前記撮像装置は、前記差分映像を第1の閾値により第1の2値化処理を行って前記合成映像に乗算した乗算映像を第2の閾値により第2の2値化処理を行い、第2の2値化処理後の反転映像と前記合成映像との選択処理に基づき前記合成映像の目標体に境界表示を付加する
ことを特徴とする車両用表示装置。
The vehicle display device according to claim 2,
The imaging apparatus performs a first binarization process on the difference image using a first threshold value, performs a second binarization process on a multiplication image obtained by multiplying the synthesized image by a second threshold value, A boundary display is added to a target body of the composite video based on a selection process of the inverted video after the binarization processing and the composite video.
請求項1〜4の何れかに記載の車両用表示装置であって、
前記照明装置は、車両の左右両側に取り付けられ、
前記切替装置は、前記撮像装置から入力されるフィールドパルスに対する同期により前記タイミングをずらす
ことを特徴とする車両用表示装置。
The vehicle display device according to any one of claims 1 to 4,
The lighting device is attached to the left and right sides of the vehicle,
The display device for a vehicle, wherein the switching device shifts the timing by synchronization with a field pulse input from the imaging device.
請求項1〜5の何れかに記載の車両用表示装置であって、
前記照明装置は、近赤外光を照射する
ことを特徴とする車両用表示装置。
The vehicle display device according to any one of claims 1 to 5,
The illumination device irradiates near infrared light. A vehicle display device.
JP2004294210A 2004-10-06 2004-10-06 Display device for vehicle Pending JP2006109171A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004294210A JP2006109171A (en) 2004-10-06 2004-10-06 Display device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004294210A JP2006109171A (en) 2004-10-06 2004-10-06 Display device for vehicle

Publications (1)

Publication Number Publication Date
JP2006109171A true JP2006109171A (en) 2006-04-20

Family

ID=36378359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004294210A Pending JP2006109171A (en) 2004-10-06 2004-10-06 Display device for vehicle

Country Status (1)

Country Link
JP (1) JP2006109171A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008181711A (en) * 2007-01-23 2008-08-07 Matsushita Electric Ind Co Ltd Night-vision imaging apparatus, headlight module, vehicle, and method of controlling night-vision imaging apparatus
JP2009244985A (en) * 2008-03-28 2009-10-22 Toyota Central R&D Labs Inc Driving support device and pedestrian detecting device
CN101837760A (en) * 2009-03-19 2010-09-22 株式会社村上开明堂 Exterior mirror for vehicle
KR20130064003A (en) * 2011-12-07 2013-06-17 현대자동차주식회사 Camera base touch screen apparatus and image acquisition method using the same
CN105667393A (en) * 2016-03-22 2016-06-15 盐城工业职业技术学院 Intelligent running auxiliary barrier-avoiding system and intelligent running auxiliary barrier-avoiding method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008181711A (en) * 2007-01-23 2008-08-07 Matsushita Electric Ind Co Ltd Night-vision imaging apparatus, headlight module, vehicle, and method of controlling night-vision imaging apparatus
JP4705923B2 (en) * 2007-01-23 2011-06-22 パナソニック株式会社 Night vision imaging apparatus, headlight module, vehicle, and method for controlling night vision imaging apparatus
JP2009244985A (en) * 2008-03-28 2009-10-22 Toyota Central R&D Labs Inc Driving support device and pedestrian detecting device
CN101837760A (en) * 2009-03-19 2010-09-22 株式会社村上开明堂 Exterior mirror for vehicle
JP2010221732A (en) * 2009-03-19 2010-10-07 Murakami Corp Outer mirror for vehicle
US8599259B2 (en) 2009-03-19 2013-12-03 Murakami Corporation Exterior mirror for vehicle
CN101837760B (en) * 2009-03-19 2014-01-29 株式会社村上开明堂 Exterior mirror for vehicle
KR20130064003A (en) * 2011-12-07 2013-06-17 현대자동차주식회사 Camera base touch screen apparatus and image acquisition method using the same
KR101956928B1 (en) 2011-12-07 2019-03-12 현대자동차주식회사 Image acquisition method of camera base touch screen apparatus
CN105667393A (en) * 2016-03-22 2016-06-15 盐城工业职业技术学院 Intelligent running auxiliary barrier-avoiding system and intelligent running auxiliary barrier-avoiding method

Similar Documents

Publication Publication Date Title
JP4232794B2 (en) Driving support method and driving support device
US20150217692A1 (en) Image generation apparatus and image generation program product
WO2010137563A1 (en) Image processing apparatus
JP2007304407A (en) Automatic exposure device and method for vehicle-mounted camera
JP2010264872A (en) On-vehicle lighting system, image processing device, and image display system
JP4927647B2 (en) Vehicle periphery monitoring device
JP3970903B2 (en) Imaging system
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
JPWO2015064095A1 (en) Image correction parameter output device, camera system, and correction parameter output method
JP2012027773A (en) Pseudo grayscale image generation device and program
JP3793487B2 (en) Imaging system
JP2007043607A (en) Picture joint processing apparatus and picture joint processing method
JP2005223605A (en) Image processing method, image processing system and image processor
JP2019186622A (en) Image processing system
JP2004048455A (en) Image pickup system
JP2005191954A (en) Image pickup system
JP2006109171A (en) Display device for vehicle
JP2009124377A (en) Vehicle periphery image processing apparatus and vehicle perimeter status presentation method
JP2004048345A (en) Imaging systems
JP2003087644A (en) Device and method for picking up and displaying image and program
JP5218634B2 (en) Pseudo gray image generating apparatus and program
CN109788211B (en) Captured image display system, electronic mirror system, and captured image display method
JP2013009041A (en) Vehicle photographing display control system
CN115769250A (en) Vision system for a motor vehicle
JP2005303442A (en) Vision assisting system for vehicle