JP4504959B2 - Three-dimensional object detection device - Google Patents

Three-dimensional object detection device Download PDF

Info

Publication number
JP4504959B2
JP4504959B2 JP2006222341A JP2006222341A JP4504959B2 JP 4504959 B2 JP4504959 B2 JP 4504959B2 JP 2006222341 A JP2006222341 A JP 2006222341A JP 2006222341 A JP2006222341 A JP 2006222341A JP 4504959 B2 JP4504959 B2 JP 4504959B2
Authority
JP
Japan
Prior art keywords
image
imaging
dimensional object
illumination
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006222341A
Other languages
Japanese (ja)
Other versions
JP2008048196A (en
Inventor
絢 早川
竜彦 門司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2006222341A priority Critical patent/JP4504959B2/en
Publication of JP2008048196A publication Critical patent/JP2008048196A/en
Application granted granted Critical
Publication of JP4504959B2 publication Critical patent/JP4504959B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両周辺の立体物を検知する立体物検知装置に関し、特に比較的高速で移動する立体物の検知に好適な立体物検知装置に関する。   The present invention relates to a three-dimensional object detection device that detects a three-dimensional object around a vehicle, and more particularly to a three-dimensional object detection device suitable for detecting a three-dimensional object that moves at a relatively high speed.

従来、自動車に取り付けられたカメラと照明手段を制御して、水溜りなどの反射による誤認識を防ぎ、自動車の周辺状況を検知するものが知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there has been known a camera that controls a camera and an illumination unit attached to an automobile to prevent misrecognition due to reflection such as a puddle and to detect a surrounding situation of the automobile (see, for example, Patent Document 1).

特開2006−11671号公報JP 2006-11671 A

特許文献1では、照明手段が点灯時に撮像した画像と照明手段が消灯したときの画像の差分をとって画像処理をし、周辺状況を検出するものである。したがって、点灯時の画像と消灯時の画像は時間差があるため、対象とする物体が移動する物体であって、しかも、横断歩道を横切る歩行者に比べて高速で移動する自転車等の立体物の認識が困難になる可能性がある。   In Patent Document 1, image processing is performed by taking a difference between an image captured when the illumination unit is turned on and an image obtained when the illumination unit is turned off, and the surrounding situation is detected. Therefore, there is a time difference between the image when it is turned on and the image when it is turned off. Recognition may be difficult.

本発明の目的は、比較的高速で移動する物体もより正確に認識できる立体物検知装置を提供することにある。   An object of the present invention is to provide a three-dimensional object detection device capable of more accurately recognizing an object moving at a relatively high speed.

(1)上記目的を達成するために、本発明は、車両周辺の立体物を検知する立体物検知装置であって、前記車両周辺を撮像する撮像手段と、前記車両周辺を照射する照明手段と、前記照明手段を点灯消灯制御する照明制御手段と、前記撮像手段を撮像タイミングを制御する撮像制御手段と、前記照明手段が点灯している時に前記撮像手段にて撮像した第1及び第2の画像と、前記第1及び第2の画像の撮像タイミングの間であって、前記照明手段が消灯している時に前記撮像手段にて撮像した第3の画像を用いて、前記第1の画像と第2の画像の高輝度部の大きさの変化と変位量を算出し、この高輝度部の大きさの変化と変位量に基づいて、前記第3の画像に対して、前記第2の画像の撮像タイミングにおける画像を補正画像として作成し、前記第2の画像と前記補正画像の差分画像を生成し、この差分画像を画像処理して立体物を検知する画像処理手段とを備えるようにしたものである。
かかる構成により、比較的高速で移動する物体もより正確に認識し得るものとなる。
(1) In order to achieve the above object, the present invention provides a three-dimensional object detection device that detects a three-dimensional object around a vehicle, an imaging unit that images the vehicle periphery, and an illumination unit that illuminates the vehicle periphery. Lighting control means for controlling lighting on / off of the lighting means, imaging control means for controlling the imaging timing of the imaging means, and first and second images taken by the imaging means when the lighting means is lit Using the third image captured by the imaging unit between the image and the imaging timing of the first and second images and when the illumination unit is turned off, the first image and A change in the size and displacement of the high-intensity portion of the second image is calculated, and the second image is compared with the third image based on the change in size and the displacement of the high-luminance portion. Create an image at the imaging timing of as a corrected image, Serial wherein the second image to generate a difference image of the corrected image is obtained by so and an image processing means for detecting a three-dimensional object of this difference image to the image processing.
With this configuration, an object moving at a relatively high speed can be recognized more accurately.

(2)上記(1)において、好ましくは、前記撮像手段における撮像タイミングと、前記照明手段における点灯消灯のタイミングとは同期しており、前記画像処理手段は、点灯時の第1,第2の画像と、第1と第2の画像の間の消灯時に第3の画像により、立体物を検知するようにしたものである。   (2) In the above (1), preferably, the imaging timing of the imaging unit and the lighting / lighting timing of the illumination unit are synchronized, and the image processing unit is configured to perform the first and second operations at the time of lighting. A solid object is detected from the third image when the image and the first and second images are turned off.

(3)上記(1)において、好ましくは、前記撮像手段における撮像タイミングと、前記照明手段における点灯消灯のタイミングとは非同期であり、前記画像処理手段は、前記撮像手段にて撮像した連続する8枚の画像から、前記照明手段が点灯し続けている時に前記撮像手段にて取得した画像から前記第1の画像を抽出し、前記照明手段が点灯後に消灯し続けている時に前記撮像手段にて取得した画像から前記第3の画像を抽出し、前記照明手段が消灯後に点灯し続けている時に前記撮像手段にて取得した画像から前記第2の画像を抽出するようにしたものである。   (3) In the above (1), preferably, the imaging timing of the imaging unit and the timing of turning on and off the illumination unit are asynchronous, and the image processing unit continuously captures 8 images taken by the imaging unit. The first image is extracted from an image acquired by the imaging unit when the illumination unit continues to be lit from one image, and the imaging unit is used when the illumination unit continues to be turned off after being lit. The third image is extracted from the acquired image, and the second image is extracted from the image acquired by the imaging unit when the illumination unit continues to be lit after being turned off.

(4)上記(1)において、好ましくは、前記照明手段は、赤外光と、可視光を発するものであり、前記撮像手段は、前記赤外光が点灯したときに前記第1,第2の画像を撮像し、前記赤外光が消灯したときに前記第3の画像を撮像するようにしたものである。   (4) In the above (1), preferably, the illuminating unit emits infrared light and visible light, and the imaging unit is configured to perform the first and second operations when the infrared light is turned on. And the third image is picked up when the infrared light is extinguished.

(5)上記(1)において、好ましくは、前記撮像手段は、前記照明手段よりも下側に位置するようにしたものである。   (5) In the above (1), preferably, the imaging means is positioned below the illumination means.

本発明によれば、比較的高速で移動する物体もより正確に認識できるものとなる。   According to the present invention, an object moving at a relatively high speed can be recognized more accurately.

以下、図1〜図13を用いて、本発明の一実施形態による立体物検知装置の構成及び動作について説明する。
最初に、図1を用いて、本実施形態による立体物検知装置の構成について説明する。
図1は、本発明の一実施形態による立体物検知装置の構成を示すブロック図である。
Hereinafter, the configuration and operation of a three-dimensional object detection device according to an embodiment of the present invention will be described with reference to FIGS.
First, the configuration of the three-dimensional object detection device according to the present embodiment will be described with reference to FIG.
FIG. 1 is a block diagram illustrating a configuration of a three-dimensional object detection device according to an embodiment of the present invention.

本実施形態の立体物検知装置は、撮像手段10と、撮像制御手段20と、照明手段30と、照明制御手段40と、画像処理手段50と、画像メモリ60とを備えている。   The three-dimensional object detection device according to the present embodiment includes an imaging unit 10, an imaging control unit 20, an illumination unit 30, an illumination control unit 40, an image processing unit 50, and an image memory 60.

撮像手段10は、CCDなどの撮像素子を備えたカメラである。撮像手段10による撮像タイミングは、撮像制御手段20からの電子シャッタ制御信号によって制御される。また、電子シャッタ制御信号は、照明制御手段40にも供給される。   The imaging means 10 is a camera provided with an imaging element such as a CCD. The imaging timing by the imaging unit 10 is controlled by an electronic shutter control signal from the imaging control unit 20. The electronic shutter control signal is also supplied to the illumination control means 40.

照明手段30は、例えば、近赤外光を発するLEDランプである。LEDランプを用いることで、高速で点灯、消灯の制御を行える。また、近赤外光を用いることで、対向車や歩行者にまぶしさを感じさせることがないものである。   The illumination unit 30 is, for example, an LED lamp that emits near infrared light. By using the LED lamp, it is possible to control turning on and off at high speed. Further, by using near infrared light, the oncoming vehicle or pedestrian does not feel dazzling.

照明制御手段40は、撮像制御手段20からの電子シャッタ制御信号に同期して、照明制御信号を照明手段30に出力する。すなわち、電子シャッタ制御信号により撮像手段10によって撮像するタイミングに合わせて、照明手段30が点灯するタイミングと、消灯しているタイミングを作成する。したがって、撮像手段10は、照明手段30が点灯している時の画像を撮影し、次に、照明手段30が消灯している時の画像を撮影することを一定周期で繰り返す。なお、照明手段と撮影手段の同期は、画像処理手段50から同期信号を出すようにしても良いものである。   The illumination control unit 40 outputs an illumination control signal to the illumination unit 30 in synchronization with the electronic shutter control signal from the imaging control unit 20. That is, the timing when the illumination unit 30 is turned on and the timing when the illumination unit 30 is turned off are created in accordance with the timing when the imaging unit 10 captures an image using the electronic shutter control signal. Therefore, the imaging means 10 repeats taking a picture when the illumination means 30 is turned on, and then taking a picture when the illumination means 30 is turned off at regular intervals. Note that the synchronization of the illumination unit and the photographing unit may be performed by outputting a synchronization signal from the image processing unit 50.

撮像手段10によって撮影された画像は、画像処理手段50に取り込まれ、一旦、画像メモリ60に格納する。また、画像処理手段50は、画像メモリ60に格納された画像データを取り出して、画像処理を行い、立体物を検知する。   An image photographed by the imaging means 10 is captured by the image processing means 50 and temporarily stored in the image memory 60. Further, the image processing means 50 takes out image data stored in the image memory 60, performs image processing, and detects a three-dimensional object.

次に、図2を用いて、本実施形態による立体物検知装置の撮像動作について説明する。
図2は、本発明の一実施形態による立体物検知装置の撮像動作を示すフローチャートである。
Next, the imaging operation of the three-dimensional object detection device according to the present embodiment will be described with reference to FIG.
FIG. 2 is a flowchart illustrating an imaging operation of the three-dimensional object detection device according to the embodiment of the present invention.

ステップS10において、照明制御手段40は、撮像制御手段20からの電子シャッタ制御信号に基づいて、照明ONとする照明制御信号を照明手段30に出力し、照明手段30を点灯する。電子シャッタ制御信号は、撮像手段10にも供給されているため、撮像手段10は、照明手段30の点灯に同期して、撮影する。   In step S <b> 10, the illumination control unit 40 outputs an illumination control signal for turning on the illumination to the illumination unit 30 based on the electronic shutter control signal from the imaging control unit 20, and turns on the illumination unit 30. Since the electronic shutter control signal is also supplied to the image pickup means 10, the image pickup means 10 takes an image in synchronization with the lighting of the illumination means 30.

次に、ステップS20において、画像処理手段50は、撮像手段10によって撮影された画像データを、画像メモリ60に保存する。   Next, in step S <b> 20, the image processing unit 50 stores the image data captured by the imaging unit 10 in the image memory 60.

次に、ステップS30において、照明制御手段40は、撮像制御手段20からの次の電子シャッタ制御信号に基づいて、照明OFFとする照明制御信号を照明手段30に出力し、照明手段30を消灯する。電子シャッタ制御信号は、撮像手段10にも供給されているため、撮像手段10は、照明手段30の消灯に同期して、撮影する。   Next, in step S30, the illumination control unit 40 outputs an illumination control signal for turning off the illumination to the illumination unit 30 based on the next electronic shutter control signal from the imaging control unit 20, and turns off the illumination unit 30. . Since the electronic shutter control signal is also supplied to the imaging unit 10, the imaging unit 10 captures an image in synchronization with the lighting unit 30 being turned off.

次に、ステップS40において、画像処理手段50は、撮像手段10によって撮影された画像データを、画像メモリ60に保存する。   Next, in step S <b> 40, the image processing unit 50 stores the image data captured by the imaging unit 10 in the image memory 60.

すなわち、画像メモリ60には、照明手段30の点灯時の画像と、傷当時の画像が繰り返し、保存される。   That is, the image memory 60 repeatedly stores an image when the lighting unit 30 is turned on and an image at the time of the scratch.

次に、図3〜図8を用いて、本実施形態による立体物検知装置の画像処理動作について説明する。
図3は、本発明の一実施形態による立体物検知装置の画像処理動作を示すフローチャートである。図4〜図8は、本発明の一実施形態による立体物検知装置の画像処理動作の説明図である。
Next, the image processing operation of the three-dimensional object detection device according to the present embodiment will be described with reference to FIGS.
FIG. 3 is a flowchart showing an image processing operation of the three-dimensional object detection device according to the embodiment of the present invention. 4-8 is explanatory drawing of the image processing operation | movement of the solid-object detection apparatus by one Embodiment of this invention.

ここで、図4〜図6を用いて、画像メモリ60に保存された画像データについて説明する。図4は、時刻T0に撮影されたものであり、照明手段30の点灯時の画像である。図5は、時刻T0+ΔT1に撮影されたものであり、照明手段30の消灯時の画像である。図6は、時刻T0+2・ΔT1に撮影されたものであり、照明手段30の点灯時の画像である。なお、図4〜図6の各図において、図示の都合上、黒く図示されている部分が、高輝度の箇所であり、白く図示されている部分が、低輝度の箇所である。   Here, the image data stored in the image memory 60 will be described with reference to FIGS. FIG. 4 was taken at time T0 and is an image when the illumination unit 30 is turned on. FIG. 5 is an image taken at time T0 + ΔT1, and is an image when the illumination unit 30 is turned off. FIG. 6 is an image taken at time T0 + 2 · ΔT1, and is an image when the illumination unit 30 is turned on. In each of FIGS. 4 to 6, for the sake of illustration, the portion shown in black is a portion with high luminance, and the portion shown in white is a portion with low luminance.

図4に示すように、時刻T0で、照明手段30の点灯時には、センタラインCL1,路側帯RSB1,道路標識RTS1に加えて、自転車B1が撮影されている。図5に示すように、時刻T0+ΔT1で、照明手段30の消灯時には、センタラインCL2,路側帯RSB2,道路標識RTS2が撮影されている。   As shown in FIG. 4, at the time T0, when the illumination means 30 is turned on, the bicycle B1 is photographed in addition to the center line CL1, the roadside band RSB1, and the road sign RTS1. As shown in FIG. 5, at time T0 + ΔT1, when the illumination unit 30 is turned off, the center line CL2, the roadside band RSB2, and the road sign RTS2 are photographed.

すなわち、照明手段30の点灯・消灯に拘わらず、センタライン,路側帯,道路標識などは、反射率が高いため、常に、高輝度に撮影される。一方、自転車は、消灯時には、反射率が低いため、図5に示すように撮影されないか、撮影されたとしてもかなり低輝度で撮影される。一方、点灯時には、図4に示すように、高輝度で撮影される。   That is, regardless of whether the illumination unit 30 is turned on or off, the center line, the roadside band, the road sign, and the like are always photographed with high brightness because of the high reflectance. On the other hand, when the bicycle is turned off, the reflectance is low, so that the bicycle is not photographed as shown in FIG. On the other hand, at the time of lighting, as shown in FIG.

図4(時刻T0)〜図6(時刻T0+2・ΔT1)において、その時間間隔はΔT1と一定である。また、この間、本実施形態の立体物検知装置を搭載した車両は、図4の道路標識RTS1の方向に向かって進行している。従って、図4に比べて、図5,図6の状態は、道路標識に接近するため、次第に大きくなり、しかも、画角の中央位置から次第に、左横の方向に移動する。このような時間変化による撮影画像の変化を用いて、画像処理手段50は、次のような画像処理を実行する。   In FIG. 4 (time T0) to FIG. 6 (time T0 + 2 · ΔT1), the time interval is constant as ΔT1. During this time, the vehicle equipped with the three-dimensional object detection device of this embodiment is traveling in the direction of the road sign RTS1 in FIG. Accordingly, the state of FIGS. 5 and 6 is gradually larger than the state of FIG. 4 because it approaches the road sign, and it gradually moves from the center of the angle of view to the left side direction. The image processing means 50 performs the following image processing using the change in the captured image due to such a time change.

すなわち、図3のステップS100において、画像処理手段50は、照明ON時の2つの画像から高輝度部の大きさの変化と変位量を計算する。ここで、道路標識を例にして、説明する。円形の道路標識の画像は、その大きさと、中心位置によって判断される。例えば、図4の道路標識RTS1は、その半径がR1とし、中心座標を(x1,y1)とする。また、図6の道路標識RTS3は、その半径がR3とし、中心座標を(x3,y3)とする。したがって、照明ON時の図4と図6では、道路標識の大きさは、R1→R3と変化し、中心位置の変位量は、(x1,y1)→(x3,y3)となる。なお、道路標識の代わりに、路側帯やセンタラインから、同様に、その大きさの変化と変位量が算出してもよいものである。   That is, in step S100 of FIG. 3, the image processing unit 50 calculates the change in the size of the high-luminance portion and the amount of displacement from the two images when the illumination is on. Here, a road sign will be described as an example. The image of the circular road sign is determined by its size and the center position. For example, the road sign RTS1 in FIG. 4 has a radius R1 and a center coordinate (x1, y1). Further, the road sign RTS3 in FIG. 6 has a radius R3 and a center coordinate (x3, y3). Therefore, in FIGS. 4 and 6 when the illumination is ON, the size of the road sign changes from R1 → R3, and the displacement amount of the center position becomes (x1, y1) → (x3, y3). In addition, instead of the road sign, the size change and the displacement amount may be calculated from the roadside belt or the center line.

次に、図3のステップS110において、画像処理手段50は、ステップS100で算出した変化と変位量とから、照明OFF時の補正画像を作成する。ここで、具体的に説明する。図5は、照明OFF時の画像である。この画像は、時刻T0+ΔT1に撮影されている。それに対して、図5の画像が、図6の撮影タイミング(時刻T0+2・ΔT1)でどのような画像となるかを推定して、補正画像として求めるのがステップS110の処理である。   Next, in step S110 of FIG. 3, the image processing unit 50 creates a corrected image when the illumination is OFF, from the change and the displacement calculated in step S100. Here, it demonstrates concretely. FIG. 5 is an image when the illumination is OFF. This image is taken at time T0 + ΔT1. On the other hand, the processing in step S110 is to estimate what the image of FIG. 5 is at the shooting timing (time T0 + 2 · ΔT1) of FIG.

ステップS110で、時刻2・ΔT1の間に、道路標識の大きさが、R1→R3と変化し、中心位置の変位量が、(x1,y1)→(x3,y3)となることが算出されている。図5から図6の時間間隔は、ΔT1であるので、図4から図6の大きさの変化と、変位量に対して、半分の大きさの変化と、半分の変位量を図5の画像に施せば、補正画像が得られる。すなわち、大きさの変化は、(R3/R1)/2であり、変位量の変化は、((x3−x1)/2,(y3−y1)/2)であるので、図5の道路標識RTS2(R2(x2,y2))は、時間ΔT1後には、大きさが、R2・((R3/R1)/2)となり、中心位置が、(x2+(x3−x1)/2,y2+(y3−y1)/2)となることが算出される。同様にして、路側帯RSB1,道路標識RTS1についても、補正画像を算出する。   In step S110, between time 2 · ΔT1, the size of the road sign changes from R1 → R3, and the displacement amount of the center position becomes (x1, y1) → (x3, y3). ing. Since the time interval in FIGS. 5 to 6 is ΔT1, the change in size in FIGS. 4 to 6 and the change in size half and the amount of displacement in FIG. If corrected, a corrected image is obtained. That is, since the change in size is (R3 / R1) / 2 and the change in displacement is ((x3-x1) / 2, (y3-y1) / 2), the road sign in FIG. RTS2 (R2 (x2, y2)) has a magnitude of R2 · ((R3 / R1) / 2) after time ΔT1, and the center position is (x2 + (x3−x1) / 2, y2 + (y3). -Y1) / 2) is calculated. Similarly, a corrected image is calculated for the roadside band RSB1 and the road sign RTS1.

図7は、ステップS110によって算出された補正画像を示している。図7に示すように、時刻T0+2・ΔT1における補正画像であるセンタラインCL2’,路側帯RSB2’,道路標識RTS2’が算出される。   FIG. 7 shows the corrected image calculated in step S110. As shown in FIG. 7, a center line CL2 ', a roadside band RSB2', and a road sign RTS2 ', which are corrected images at time T0 + 2 · ΔT1, are calculated.

次に、図3のステップS120において、画像処理手段50は、照明ON時の画像と補整画像から差分画像を生成する。すなわち、図6に示した照明ON時の画像と、図7に示した補正画像の差分画像を生成する。その結果は、図6の道路標識RTS2と図7の道路標識RTS2’がキャンセルされ、図6のセンタラインCL2と図7のセンタラインCL2’がキャンセルされ、図6の路側帯RSB2と図7の路側帯RSB2’とがキャンセルされるので、図8に示すように、自転車B3のみが残った画像が生成される。   Next, in step S120 of FIG. 3, the image processing unit 50 generates a difference image from the image when the illumination is ON and the corrected image. That is, a difference image between the image when the illumination is turned on shown in FIG. 6 and the corrected image shown in FIG. 7 is generated. As a result, the road sign RTS2 in FIG. 6 and the road sign RTS2 ′ in FIG. 7 are canceled, the center line CL2 in FIG. 6 and the center line CL2 ′ in FIG. 7 are canceled, the roadside band RSB2 in FIG. Since the roadside band RSB2 ′ is canceled, an image in which only the bicycle B3 remains is generated as shown in FIG.

そして、図3のステップS130において、画像処理手段50は、ステップS130で求められた差分画像から対象物の認識処理を実行する。すなわち、図8に示した自転車B3の画像を用いて、認識処理をするので、例え、自転車が、歩行者等に比べて高速で移動していても、正確に認識できるものとなる。   Then, in step S130 of FIG. 3, the image processing means 50 executes an object recognition process from the difference image obtained in step S130. That is, since recognition processing is performed using the image of the bicycle B3 shown in FIG. 8, even if the bicycle is moving at a higher speed than a pedestrian or the like, it can be accurately recognized.

以上説明したように、本実施形態によれば、比較的高速で移動する物体もより正確に認識できるものとなる。   As described above, according to this embodiment, an object moving at a relatively high speed can be recognized more accurately.

次に、図9〜図11を用いて、本実施形態による立体物検知装置に用いる照明手段の構成について説明する。
図9は、本発明の一実施形態による立体物検知装置に用いる照明手段の構成を示す正面図である。
Next, the structure of the illumination means used for the three-dimensional object detection device according to the present embodiment will be described with reference to FIGS.
FIG. 9 is a front view showing the configuration of the illumination means used in the three-dimensional object detection device according to one embodiment of the present invention.

図9に示すように、照明手段30は、ヘッドライトのような夜間などに車両周辺を照らす可視光の複数のLED32と、点灯消灯を繰り返す赤外光の複数のLED34とから構成されている。かかる構成とすることで、小型化が可能になる。   As shown in FIG. 9, the illumination means 30 includes a plurality of visible light LEDs 32 that illuminate the periphery of the vehicle, such as a headlight, at night, and a plurality of infrared light LEDs 34 that repeatedly turn on and off. With this configuration, the size can be reduced.

図10は、本発明の一実施形態による立体物検知装置に用いる撮影手段と照明手段の構成を示す側面図である。
図10に示すように、照明手段30と撮像手段10を一体の構成にすることで、照明手段30と撮像手段10を近接して配置でき、対象物からの反射光が最大限に撮像部に入射されるため、有利である。車両周辺を照射するライトの筐体70の中に、照明手段30と撮像手段10を遮光板72を間に挟みこんで設置されている。遮光板72は、照明手段30の直接光が撮像手段10に入らないようになっている。さらに、遮光板72は、照明手段30から熱が撮像手段10に伝熱しないように、断熱の効果もある。
FIG. 10 is a side view showing the configuration of the photographing means and the illumination means used in the three-dimensional object detection device according to one embodiment of the present invention.
As shown in FIG. 10, the illuminating means 30 and the imaging means 10 are integrated so that the illuminating means 30 and the imaging means 10 can be arranged close to each other, and the reflected light from the object is maximized in the imaging unit. This is advantageous because it is incident. The illumination means 30 and the imaging means 10 are installed in a light casing 70 that irradiates the periphery of the vehicle with a light shielding plate 72 interposed therebetween. The light shielding plate 72 prevents direct light from the illumination unit 30 from entering the imaging unit 10. Further, the light shielding plate 72 has an effect of heat insulation so that heat is not transferred from the illumination unit 30 to the imaging unit 10.

さらに、撮像手段10を照明手段30よりも下側(地上側)に配置することで、照明手段30で発生する熱の影響を最小限に抑えることが可能になる。   Furthermore, by disposing the imaging unit 10 on the lower side (ground side) than the illumination unit 30, it is possible to minimize the influence of heat generated by the illumination unit 30.

図11は、本発明の一実施形態による立体物検知装置に用いる撮影手段と照明手段の他の構成を示す側面図である。
図11に示すように、ライトボックスのような筐体70の中に、複数の照明手段30A,30B,30Cと、複数の撮像手段10A,10B,10Cを設置し、遮光板72を間に挟み込んだ構造にすることで、より広範囲をカバーできる。
FIG. 11 is a side view showing another configuration of the photographing means and the illumination means used in the three-dimensional object detection device according to one embodiment of the present invention.
As shown in FIG. 11, a plurality of illumination means 30A, 30B, and 30C and a plurality of imaging means 10A, 10B, and 10C are installed in a housing 70 such as a light box, and a light shielding plate 72 is sandwiched therebetween. A wider range can be covered by using a structure.

次に、図12及び図13を用いて、本実施形態による立体物検知装置の取付位置について説明する。
図12及び図13は、本発明の一実施形態による立体物検知装置の取付位置を示す斜視図である。
Next, the attachment position of the three-dimensional object detection device according to the present embodiment will be described with reference to FIGS.
FIG.12 and FIG.13 is a perspective view which shows the attachment position of the solid-object detection apparatus by one Embodiment of this invention.

本実施形態の立体物検知装置は、例えば、図12に示すように、ヘッドライトHL1,HL2や、ルームミラーRM1や、サイドミラーSM1に取り付ける。さらに、図13に示すように、バックランプBL1,BL2や、ナンバープレート用の照明手段LA1に取り付けることが可能である。   For example, as shown in FIG. 12, the three-dimensional object detection device of the present embodiment is attached to the headlights HL1, HL2, the room mirror RM1, and the side mirror SM1. Further, as shown in FIG. 13, it can be attached to the back lamps BL1 and BL2 and the license plate illumination means LA1.

次に、図14及び図15を用いて、本発明の他の実施形態による立体物検知装置の構成及び動作について説明する。
図14は、本発明の他の実施形態による立体物検知装置の構成を示すブロック図である。図15は、本発明の他の実施形態による立体物検知装置の動作説明図である。なお、図14において、図1と同一符号は同一部分を示している。
Next, the configuration and operation of a three-dimensional object detection device according to another embodiment of the present invention will be described with reference to FIGS. 14 and 15.
FIG. 14 is a block diagram illustrating a configuration of a three-dimensional object detection device according to another embodiment of the present invention. FIG. 15 is an operation explanatory diagram of a three-dimensional object detection device according to another embodiment of the present invention. In FIG. 14, the same reference numerals as those in FIG. 1 denote the same parts.

図14に示すように、本実施形態の立体物検知装置の基本構成は図1と同様であるが、照明制御手段40Aには、撮像手段20の制御信号は入力していないものである。照明制御手段40Aは、照明制御信号を照明手段30に出力し、所定の周期で、照明手段30の点灯と消灯を繰り返す。また、撮像手段10も一定周期で、撮影を繰り返す。すなわち、撮像手段10による繰り返し撮影のタイミングと、照明手段30による点灯消灯のタイミングとは、非同期となっている。ただし、照明手段30の点灯および消灯の周期は、撮像手段10の撮像する周期の2倍以上に設定されている。このように非同期であるため、画像処理手段50Aは、後述するような方法で、画像処理の対象の画像を選定し、図3及び図4〜図8の画像処理により、対象物の画像を得るようにしている。   As shown in FIG. 14, the basic configuration of the three-dimensional object detection device of the present embodiment is the same as that of FIG. 1, but the control signal of the imaging means 20 is not input to the illumination control means 40A. The illumination control unit 40A outputs an illumination control signal to the illumination unit 30, and repeats turning on and off of the illumination unit 30 at a predetermined cycle. The imaging unit 10 also repeats imaging at a constant cycle. That is, the timing of repeated shooting by the imaging unit 10 and the timing of turning on and off by the illumination unit 30 are asynchronous. However, the cycle of turning on and off the illumination unit 30 is set to be twice or more the cycle of imaging by the imaging unit 10. Since the image processing unit 50A is asynchronous as described above, the image processing unit 50A selects an image to be processed by a method described later, and obtains an image of the object by the image processing of FIGS. 3 and 4 to 8. I am doing so.

次に、図15を用いて、本実施形態における画像処理について説明する。図15(A)は、撮影された画像データを示し、図15(B)は、照明手段の点灯消灯タイミングを示している。   Next, image processing in the present embodiment will be described with reference to FIG. FIG. 15A shows captured image data, and FIG. 15B shows the lighting / lighting timing of the illumination means.

撮像手段10は、一定の周期で、画像を撮影する。図15(A)に示した各撮影画像の撮影時刻を、それぞれ、T1,t2,t3,t4,t5,t6,t7,t8とする。   The imaging means 10 captures images at a constant cycle. The shooting times of the shot images shown in FIG. 15A are T1, t2, t3, t4, t5, t6, t7, and t8, respectively.

一方、図15(B)に示すように、照明手段30は、所定の周期で点灯消灯を繰り返している。両者は、非同期ではあるが、照明手段30の点灯および消灯の周期は、撮像手段10の撮像する周期の、例えば、2倍に設定されている。   On the other hand, as shown in FIG. 15B, the illumination unit 30 is repeatedly turned on and off at a predetermined cycle. Although both are asynchronous, the cycle of turning on and off the illumination unit 30 is set to, for example, twice the cycle of imaging by the imaging unit 10.

すると、図15(B)に示す点灯タイミング中に撮影された画像は、t1,t2,t3であるが、t1,t3の画像は、一部消灯期間を含むため、時刻t2の画像がもっとも輝度が高い画像となる。一方、時刻t4の画像はもっとも輝度の低い画像となる。   Then, images taken during the lighting timing shown in FIG. 15B are t1, t2, and t3. Since the images at t1 and t3 partially include the extinguishing period, the image at time t2 has the highest luminance. Becomes a high image. On the other hand, the image at time t4 is the image with the lowest luminance.

そこで、画像処理手段50Aは、連続する4枚の画像データ(時刻t1〜t4)を取得する。その中で輝度の一番高い画像Fと一番低い画像Gを選定する。続けて4枚の画像(時刻t5〜t8)を取得して、輝度の一番高い画像Hと一番低い画像Jを選定する。   Therefore, the image processing unit 50A acquires four consecutive pieces of image data (time t1 to t4). Among them, the image F having the highest luminance and the image G having the lowest luminance are selected. Subsequently, four images (time t5 to t8) are acquired, and the image H having the highest luminance and the image J having the lowest luminance are selected.

そして、画像Fの撮像時刻と画像Hの撮像時刻の間に撮像した画像が、画像Gであるか、画像Jであるかを判定し、例えば、画像Fと画像Hの間に撮影した画像を、画像Gとして決定する。   Then, it is determined whether the image captured between the imaging time of the image F and the imaging time of the image H is the image G or the image J. For example, an image captured between the image F and the image H is determined. , Determined as an image G.

ここで、画像Fが、図4の画像に相当し、画像Hが図6の画像に相当し、画像Gが図5の画像に相当する。そして、画像Gから、画像Hの時点における補正画像を作成し、この補正画像と、画像Hの差分画像を求めて、立体物を検知する。   Here, the image F corresponds to the image of FIG. 4, the image H corresponds to the image of FIG. 6, and the image G corresponds to the image of FIG. Then, a corrected image at the time of the image H is created from the image G, a difference image between the corrected image and the image H is obtained, and a three-dimensional object is detected.

以上説明したように、本実施形態によれば、比較的高速で移動する物体もより正確に認識できるものとなる。   As described above, according to this embodiment, an object moving at a relatively high speed can be recognized more accurately.

また、照明と撮像を非同期とすることで、照明手段と撮像手段が分離できるため、配線を減らすことができ、また、特殊な照明手段や照明制御が不要になるため、コストを削減できる。   In addition, since the illumination unit and the imaging unit can be separated by making the illumination and the imaging asynchronous, the wiring can be reduced, and the cost can be reduced because a special illumination unit and illumination control become unnecessary.

なお、本発明は、車両周辺の比較的高速で移動する立体物の検知だけでなく、自車がカーブを曲がっている際の立体物の検知も容易に実現できる。
The present invention can easily detect not only a three-dimensional object that moves at a relatively high speed around the vehicle, but also a three-dimensional object when the host vehicle is turning a curve.

本発明の一実施形態による立体物検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の撮像動作を示すフローチャートである。It is a flowchart which shows the imaging operation of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の画像処理動作を示すフローチャートである。It is a flowchart which shows the image processing operation | movement of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の画像処理動作の説明図である。It is explanatory drawing of the image processing operation | movement of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の画像処理動作の説明図である。It is explanatory drawing of the image processing operation | movement of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の画像処理動作の説明図である。It is explanatory drawing of the image processing operation | movement of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の画像処理動作の説明図である。It is explanatory drawing of the image processing operation | movement of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の画像処理動作の説明図である。It is explanatory drawing of the image processing operation | movement of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置に用いる照明手段の構成を示す正面図である。It is a front view which shows the structure of the illumination means used for the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置に用いる撮影手段と照明手段の構成を示す側面図である。It is a side view which shows the structure of the imaging | photography means and illumination means used for the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置に用いる撮影手段と照明手段の他の構成を示す側面図である。It is a side view which shows the other structure of the imaging | photography means and illumination means used for the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の取付位置を示す斜視図である。It is a perspective view which shows the attachment position of the solid-object detection apparatus by one Embodiment of this invention. 本発明の一実施形態による立体物検知装置の取付位置を示す斜視図である。It is a perspective view which shows the attachment position of the solid-object detection apparatus by one Embodiment of this invention. 本発明の他の実施形態による立体物検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the solid-object detection apparatus by other embodiment of this invention. 本発明の他の実施形態による立体物検知装置の動作説明図である。It is operation | movement explanatory drawing of the solid-object detection apparatus by other embodiment of this invention.

符号の説明Explanation of symbols

10…撮像手段
20…撮像制御手段
30…照明手段
40…照明制御手段
50…画像処理手段
60…画像メモリ
DESCRIPTION OF SYMBOLS 10 ... Imaging means 20 ... Imaging control means 30 ... Illumination means 40 ... Illumination control means 50 ... Image processing means 60 ... Image memory

Claims (5)

車両周辺の立体物を検知する立体物検知装置であって、
前記車両周辺を撮像する撮像手段と、
前記車両周辺を照射する照明手段と、
前記照明手段を点灯消灯制御する照明制御手段と、
前記撮像手段を撮像タイミングを制御する撮像制御手段と、
前記照明手段が点灯している時に前記撮像手段にて撮像した第1及び第2の画像と、前記第1及び第2の画像の撮像タイミングの間であって、前記照明手段が消灯している時に前記撮像手段にて撮像した第3の画像を用いて、
前記第1の画像と第2の画像の高輝度部の大きさの変化と変位量を算出し、
この高輝度部の大きさの変化と変位量に基づいて、前記第3の画像に対して、前記第2の画像の撮像タイミングにおける画像を補正画像として作成し、
前記第2の画像と前記補正画像の差分画像を生成し、
この差分画像を画像処理して立体物を検知する画像処理手段とを備えたことを特徴とする立体物検知装置。
A three-dimensional object detection device for detecting a three-dimensional object around a vehicle,
Imaging means for imaging the periphery of the vehicle;
Illumination means for illuminating the vehicle periphery;
Illumination control means for controlling turning on and off the illumination means;
Imaging control means for controlling imaging timing of the imaging means;
Between the imaging timings of the first and second images captured by the imaging unit and the first and second images when the illumination unit is turned on, the illumination unit is turned off. Sometimes using a third image captured by the imaging means,
Calculating the change and displacement of the high-luminance portion of the first image and the second image;
Based on the change in the size of the high-luminance part and the amount of displacement, an image at the imaging timing of the second image is created as a corrected image for the third image,
Generating a difference image between the second image and the corrected image;
A three-dimensional object detection apparatus comprising: an image processing unit configured to detect a three-dimensional object by performing image processing on the difference image.
請求項1記載の立体物検知装置において、
前記撮像手段における撮像タイミングと、前記照明手段における点灯消灯のタイミングとは同期しており、
前記画像処理手段は、点灯時の第1,第2の画像と、第1と第2の画像の間の消灯時に第3の画像により、立体物を検知することを特徴とする立体物検知装置。
The three-dimensional object detection device according to claim 1,
The imaging timing in the imaging means and the lighting / lighting timing in the illumination means are synchronized,
The three-dimensional object detection apparatus characterized in that the image processing means detects a three-dimensional object from the first and second images when turned on and the third image when the light is turned off between the first and second images. .
請求項1記載の立体物検知装置において、
前記撮像手段における撮像タイミングと、前記照明手段における点灯消灯のタイミングとは非同期であり、
前記画像処理手段は、前記撮像手段にて撮像した連続する8枚の画像から、
前記照明手段が点灯し続けている時に前記撮像手段にて取得した画像から前記第1の画像を抽出し、
前記照明手段が点灯後に消灯し続けている時に前記撮像手段にて取得した画像から前記第3の画像を抽出し、
前記照明手段が消灯後に点灯し続けている時に前記撮像手段にて取得した画像から前記第2の画像を抽出することを特徴とする立体物検知装置。
The three-dimensional object detection device according to claim 1,
The imaging timing in the imaging means and the timing of turning on and off in the illumination means are asynchronous,
The image processing means, from eight consecutive images taken by the imaging means,
Extracting the first image from the image acquired by the imaging means when the illumination means continues to be lit;
Extracting the third image from the image acquired by the imaging means when the illumination means continues to be turned off after being turned on;
A three-dimensional object detection apparatus, wherein the second image is extracted from an image acquired by the imaging unit when the illumination unit continues to be turned on after being turned off.
請求項1記載の立体物検知装置において、
前記照明手段は、赤外光と、可視光を発するものであり、
前記撮像手段は、前記赤外光が点灯したときに前記第1,第2の画像を撮像し、前記赤外光が消灯したときに前記第3の画像を撮像することを特徴とする立体物検知装置。
The three-dimensional object detection device according to claim 1,
The illumination means emits infrared light and visible light,
The three-dimensional object characterized in that the imaging means captures the first and second images when the infrared light is turned on and captures the third image when the infrared light is turned off. Detection device.
請求項1記載の立体物検知装置において、
前記撮像手段は、前記照明手段よりも下側に位置することを特徴とする立体物検知装置。
The three-dimensional object detection device according to claim 1,
The three-dimensional object detection device, wherein the imaging unit is located below the illumination unit.
JP2006222341A 2006-08-17 2006-08-17 Three-dimensional object detection device Active JP4504959B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006222341A JP4504959B2 (en) 2006-08-17 2006-08-17 Three-dimensional object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006222341A JP4504959B2 (en) 2006-08-17 2006-08-17 Three-dimensional object detection device

Publications (2)

Publication Number Publication Date
JP2008048196A JP2008048196A (en) 2008-02-28
JP4504959B2 true JP4504959B2 (en) 2010-07-14

Family

ID=39181501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006222341A Active JP4504959B2 (en) 2006-08-17 2006-08-17 Three-dimensional object detection device

Country Status (1)

Country Link
JP (1) JP4504959B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065586A (en) * 2007-09-10 2009-03-26 Hitachi Ltd On-vehicle camera
JP5285543B2 (en) * 2009-08-26 2013-09-11 パナソニック株式会社 Imaging device
JP5772250B2 (en) * 2011-06-07 2015-09-02 日産自動車株式会社 Camera system and image generation method
JP5772251B2 (en) * 2011-06-07 2015-09-02 日産自動車株式会社 Camera system and image generation method
CN108608944A (en) * 2018-03-29 2018-10-02 中国第汽车股份有限公司 A kind of Intelligent night vision control method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159710A (en) * 2003-11-26 2005-06-16 Nissan Motor Co Ltd Display control apparatus and method for vehicle
JP2006011671A (en) * 2004-06-24 2006-01-12 Alpine Electronics Inc Vehicle-mounted surrounding circumstance detection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159710A (en) * 2003-11-26 2005-06-16 Nissan Motor Co Ltd Display control apparatus and method for vehicle
JP2006011671A (en) * 2004-06-24 2006-01-12 Alpine Electronics Inc Vehicle-mounted surrounding circumstance detection device

Also Published As

Publication number Publication date
JP2008048196A (en) 2008-02-28

Similar Documents

Publication Publication Date Title
JP4484856B2 (en) Automotive headlight controller
JP4544233B2 (en) Vehicle detection device and headlamp control device
JP5045212B2 (en) Face image capturing device
JP4853160B2 (en) Vehicle detection device and headlamp control device
JP5680573B2 (en) Vehicle driving environment recognition device
JP5772714B2 (en) Light detection device and vehicle control system
JP4504959B2 (en) Three-dimensional object detection device
TW200712733A (en) Projection device and projection control method
JP2008110723A (en) Vehicular lighting system, vehicular lighting control method, and vehicular lighting control program
JP2008207677A (en) Image processing apparatus, image processing method and image processing system
EP1513103A3 (en) Image processing system and vehicle control system
JP2005350010A (en) Stereoscopic vehicle exterior monitoring device
JP5760884B2 (en) Vehicle turning prediction device
JP4927647B2 (en) Vehicle periphery monitoring device
JP2012166652A (en) Lighting control device of vehicle headlight, vehicle headlight system
JP2006011671A (en) Vehicle-mounted surrounding circumstance detection device
JP2013082267A (en) Vehicle headlight control apparatus
JP3850021B2 (en) Imaging device with infrared illumination
JP2013192003A (en) Exposure control device for imaging unit
CN112565618B (en) Exposure control device
JP2009065586A (en) On-vehicle camera
JP7204551B2 (en) Vehicle monitoring system
JP2011098579A (en) Vehicle tail lamp detecting device
JP2008026933A (en) Surrounding recognition device
JPWO2019044434A1 (en) Object detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080425

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100423

R150 Certificate of patent or registration of utility model

Ref document number: 4504959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350