JP2014209686A - Vehicle detection device and vehicle detection system - Google Patents

Vehicle detection device and vehicle detection system Download PDF

Info

Publication number
JP2014209686A
JP2014209686A JP2013085979A JP2013085979A JP2014209686A JP 2014209686 A JP2014209686 A JP 2014209686A JP 2013085979 A JP2013085979 A JP 2013085979A JP 2013085979 A JP2013085979 A JP 2013085979A JP 2014209686 A JP2014209686 A JP 2014209686A
Authority
JP
Japan
Prior art keywords
camera
light
vehicle detection
light source
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013085979A
Other languages
Japanese (ja)
Other versions
JP6067462B2 (en
Inventor
中村 順一
Junichi Nakamura
順一 中村
泰弘 竹林
Yasuhiro Takebayashi
泰弘 竹林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013085979A priority Critical patent/JP6067462B2/en
Publication of JP2014209686A publication Critical patent/JP2014209686A/en
Application granted granted Critical
Publication of JP6067462B2 publication Critical patent/JP6067462B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle detection device and a vehicle detection system capable of accurately correcting photographic images photographed by cameras.SOLUTION: The vehicle detection device comprises image acquisition means, light emission control means, deviation detection means, setting means, and image processing means. The image acquisition means receives images photographed by plural cameras having predetermined photographing areas. The light emission control means controls a light source for emission of light for irradiating therewith a fixed position in the photographing area of each camera. The deviation detection means detects the positional deviation of each camera on the basis of the image obtained by photographing by each camera the photographing area including the fixed position irradiated with the light by the light source. The setting means sets to each camera a correction amount corresponding to the positional deviation detected by the deviation detection means. The image processing means performs image processing on an image obtained by correcting the image photographed by each camera, by the correction amount set by the setting means.

Description

本発明の実施形態は、車両検知装置および車両検知システムに関する。   Embodiments described herein relate generally to a vehicle detection device and a vehicle detection system.

従来、車両検知装置には、機械的に固定された複数のカメラが撮影した画像から車両を検出するものがある。車両検知装置は、基準状態の画像と各カメラが撮影した画像とを比較することにより車両を検出する。しかしながら、設置環境および経年変化などによって各カメラの撮影位置にずれが生じると、車両の認識率が低下する可能性がある。   Conventionally, some vehicle detection devices detect a vehicle from images captured by a plurality of mechanically fixed cameras. The vehicle detection device detects the vehicle by comparing the image in the reference state with the image captured by each camera. However, if there is a shift in the shooting position of each camera due to the installation environment or aging, the vehicle recognition rate may be reduced.

特開平10−307352号公報JP-A-10-307352

本発明は、カメラが撮影する撮影画像を高精度に補正できる車両検知装置および車両検知システムを提供することを目的とする。   An object of this invention is to provide the vehicle detection apparatus and vehicle detection system which can correct | amend the picked-up image which a camera image | photographs with high precision.

実施形態によれば、車両検知装置は、画像取得手段と、発光制御手段と、ずれ検出手段と、設定手段と、画像処理手段とを有する。画像取得手段は、所定の撮影領域を有する複数のカメラが撮影した画像を入力する。発光制御手段と、各カメラの撮影領域中における固定位置を照射する光を発光させる光源を制御する。ずれ検出手段は、光源が光を照射する固定位置を含む撮影領域を各カメラが撮影する画像に基づいて各カメラの位置ずれを検出する。設定手段は、ずれ検出手段により検出した位置ずれに応じた補正量をカメラごとに設定する。画像処理手段は、各カメラが撮影した画像を設定手段が設定する補正量で補正した画像に対して画像処理を行う。   According to the embodiment, the vehicle detection device includes an image acquisition unit, a light emission control unit, a deviation detection unit, a setting unit, and an image processing unit. The image acquisition means inputs images taken by a plurality of cameras having a predetermined shooting area. The light emission control means and a light source that emits light for irradiating a fixed position in the imaging region of each camera are controlled. The deviation detecting means detects a positional deviation of each camera based on an image obtained by each camera photographing an imaging region including a fixed position where the light source emits light. The setting means sets a correction amount corresponding to the positional deviation detected by the deviation detecting means for each camera. The image processing means performs image processing on an image obtained by correcting an image captured by each camera with a correction amount set by the setting means.

図1は、本実施形態に係る車両検知装置を含む車両検知システムの第1の構成例を概略的に示す図である。FIG. 1 is a diagram schematically illustrating a first configuration example of a vehicle detection system including a vehicle detection device according to the present embodiment. 図2は、本実施形態に係る車両検知装置を含む車両検知システムの第2の構成例を概略的に示す図である。FIG. 2 is a diagram schematically illustrating a second configuration example of the vehicle detection system including the vehicle detection device according to the present embodiment. 図3は、本実施形態に係る車両検知装置の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of the vehicle detection device according to the present embodiment. 図4(a)は、LEDが光を発光するタイミングを示す。図4(b)は、図4(a)に示すタイミングで発光されたLEDの光をカメラが受光する標準時間の例を示す図である。図4(c)は、図4(a)に示すタイミングで発光されたLEDの光を実際にカメラが受光したタイミングの例を示す。FIG. 4A shows the timing at which the LED emits light. FIG. 4B is a diagram illustrating an example of a standard time for the camera to receive the LED light emitted at the timing illustrated in FIG. FIG. 4C shows an example of timing at which the camera actually receives the light from the LED emitted at the timing shown in FIG. 図5は、本実施形態に係る車両検知装置におけるカメラの撮影方向におけるずれに対する補正量の設定処理の流れを説明するためのフローチャートである。FIG. 5 is a flowchart for explaining a flow of a correction amount setting process for a shift in the shooting direction of the camera in the vehicle detection device according to the present embodiment. 図6(a)は、カメラの撮影画像におけるLEDの光の標準位置の例を示す図である。図6(b)は、カメラの撮影画像におけるLEDの光のずれの例を示す図である。図6(c)は、カメラの撮影画像におけるLEDの光のずれに対する補正量を示す図である。FIG. 6A is a diagram illustrating an example of a standard position of LED light in a captured image of the camera. FIG. 6B is a diagram illustrating an example of LED light shift in a captured image of the camera. FIG. 6C is a diagram illustrating a correction amount with respect to the deviation of the LED light in the captured image of the camera. 図7は、本実施形態に係る車両検知装置におけるカメラの平面方向におけるずれに対する補正量の設定処理の流れを説明するためのフローチャートである。FIG. 7 is a flowchart for explaining a flow of a correction amount setting process for a shift in the plane direction of the camera in the vehicle detection device according to the present embodiment.

以下、図面を参照しつつ、実施形態について説明する。
図1は、本実施形態に係る車両検知装置を含む車両検知システムの第1の構成例を示す図である。また、図2は、本実施形態に係る車両検知装置を含む車両検知システムの第2の構成例を示す図である。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a first configuration example of a vehicle detection system including a vehicle detection device according to the present embodiment. Moreover, FIG. 2 is a figure which shows the 2nd structural example of the vehicle detection system containing the vehicle detection apparatus which concerns on this embodiment.

本実施形態に係る車両検知システムは、検出対象物としての車両を検出するシステムである。車両検知システムは、道路の所定位置を通行する車両を検出する。また、車両検知システムは、ステレオカメラと称する複数のカメラが1つの撮影領域を撮影する。車両検知システムは、一方のカメラが撮影する画像と他方のカメラが撮影する画像との視差情報を用いて被写体(車両)の位置情報を算出する機能を有する。なお、本実施形態において、車両検知システムは、高速道路又は有料道路などの道路を走行する車両を検出するシステムであるものとする。   The vehicle detection system according to the present embodiment is a system that detects a vehicle as a detection target. The vehicle detection system detects a vehicle passing through a predetermined position on the road. Further, in the vehicle detection system, a plurality of cameras called stereo cameras capture one image area. The vehicle detection system has a function of calculating position information of a subject (vehicle) using parallax information between an image captured by one camera and an image captured by the other camera. In the present embodiment, the vehicle detection system is a system that detects a vehicle traveling on a road such as an expressway or a toll road.

図1及び図2に示す構成例において、車両検知システムは、車両検知装置10、第1カメラ11、第2カメラ12、LED13(13´)、支柱14、および、反射板15などにより構成される。
たとえば、第1カメラ11および第2カメラ12は、高速道路又は有料道路の入場口又は出場口などに設置される。車両検知装置は、第1カメラ11及び第2カメラ12が撮影する画像から入場又は出場する車両を検知する。車両検知装置10による車両の検出結果は、車両の利用者に対する料金決済処理などに利用される。
1 and 2, the vehicle detection system includes a vehicle detection device 10, a first camera 11, a second camera 12, an LED 13 (13 '), a support column 14, a reflector 15, and the like. .
For example, the first camera 11 and the second camera 12 are installed at an entrance or exit of an expressway or a toll road. The vehicle detection device detects a vehicle that enters or exits from images captured by the first camera 11 and the second camera 12. The detection result of the vehicle by the vehicle detection device 10 is used for a fee settlement process for the vehicle user.

第1カメラ11および第2カメラ12は、同じ撮影領域を撮影する複数のカメラとしてのステレオカメラを構成する。たとえば、第1カメラ11及び第2カメラ12は、CCDカメラなどである。第1カメラ11および第2カメラ12は、視差の生じる位置に設置されていればよい。図1及び図2に示す構成例では、第1カメラ11および第2カメラ12は、上下に所定の距離離れて設置される。   The first camera 11 and the second camera 12 constitute a stereo camera as a plurality of cameras that shoot the same shooting region. For example, the first camera 11 and the second camera 12 are CCD cameras or the like. The 1st camera 11 and the 2nd camera 12 should just be installed in the position where parallax arises. In the configuration example shown in FIGS. 1 and 2, the first camera 11 and the second camera 12 are installed up and down at a predetermined distance.

また、第1カメラ11および第2カメラ12は、通行する車両の検知対象領域となる道路の脇に固定して設置される。第1カメラ11および第2カメラ12は、たとえば、道路を通行する車両(検知対象となる車両)の上面及び側面を含む画像を撮影するように、当該道路を斜め下に見込むように設置される。第1カメラ11および第2カメラ12は、撮影した画像を車両検知装置10へ送信する。また、図1及び図2に示す構成例では、第1カメラ11および第2カメラ12は、道路脇に設置された支柱14に固定されている。ただし、実際には、第1カメラ11および第2カメラ12は、撮影位置が完全に不動となるように固定するのが困難である。このため、第1カメラ11および第2カメラ12は、撮影位置が変化する可能性があるものとする。   Moreover, the 1st camera 11 and the 2nd camera 12 are fixed and installed by the side of the road used as the detection object area | region of the vehicle to pass. The first camera 11 and the second camera 12 are installed, for example, so as to look down on the road obliquely so as to capture an image including an upper surface and a side surface of a vehicle passing through the road (vehicle to be detected). . The first camera 11 and the second camera 12 transmit the captured image to the vehicle detection device 10. In the configuration example shown in FIGS. 1 and 2, the first camera 11 and the second camera 12 are fixed to a column 14 installed on the side of the road. However, in practice, it is difficult to fix the first camera 11 and the second camera 12 so that the photographing position is completely stationary. For this reason, it is assumed that the first camera 11 and the second camera 12 may change their shooting positions.

LED13は、第1カメラ11および第2カメラ12が撮影する領域内における固定の1点を照明(マーキング)する。第1カメラ11および第2カメラ12は、LED13が発光した光を撮影画像中の点として撮影する。LED13は、光の照射位置が固定の1点となるように、固定して設置される。   The LED 13 illuminates (marks) one fixed point in the area captured by the first camera 11 and the second camera 12. The first camera 11 and the second camera 12 capture the light emitted from the LED 13 as a point in the captured image. The LED 13 is fixedly installed so that the light irradiation position becomes one fixed point.

たとえば、図1に示す構成において、LED13は、第1カメラ11と第2カメラ12との間に設置している。さらに、図1に示す構成例では、LED13が発光する光が照射される位置に反射板15が設けられる。反射板15には、LED13が発光した光が固定の1点に照射される。LED13が照射する光は、反射板15に反射され、第1カメラ11および第2カメラ12が撮影する画像中に点として撮影される。   For example, in the configuration shown in FIG. 1, the LED 13 is installed between the first camera 11 and the second camera 12. Further, in the configuration example shown in FIG. 1, the reflecting plate 15 is provided at a position where the light emitted from the LED 13 is irradiated. The light emitted from the LED 13 is applied to the fixed plate 15 at one fixed point. The light emitted by the LED 13 is reflected by the reflecting plate 15 and is photographed as a point in an image photographed by the first camera 11 and the second camera 12.

従って、図1に示す構成例では、第1カメラ11が撮影(受光)するLED13の光は、光路が第1カメラ11から反射板までの距離と反射板から第1カメラ11までの距離とを足し合わせた距離となる。同様に、第2カメラ12が撮影(受光)するLED13の光は、光路が第2カメラ12から反射板15までの距離と反射板15から第2カメラ12までの距離とを足し合わせた距離となる。   Therefore, in the configuration example shown in FIG. 1, the light of the LED 13 photographed (received) by the first camera 11 has an optical path of a distance from the first camera 11 to the reflector and a distance from the reflector to the first camera 11. It will be the added distance. Similarly, the light of the LED 13 that is imaged (received) by the second camera 12 is a distance obtained by adding the distance from the second camera 12 to the reflector 15 and the distance from the reflector 15 to the second camera 12 in the optical path. Become.

また、図2に示す構成例では、LED13´は、第1カメラ11および第2カメラ12に直接光を照射するように固定して設置している。図2に示す構成例では、図1に示す反射板15が省略される。
従って、図2に示す構成例では、第1カメラ11が撮影(受光)するLED13´の光は、光路がLED13´から第1カメラ11までの距離となる。同様に、第2カメラ12が撮影(受光)するLED13´の光は、光路がLED13´から第2カメラ12までの距離となる。
In the configuration example shown in FIG. 2, the LED 13 ′ is fixed and installed so as to directly irradiate light to the first camera 11 and the second camera 12. In the configuration example shown in FIG. 2, the reflecting plate 15 shown in FIG. 1 is omitted.
Therefore, in the configuration example shown in FIG. 2, the light of the LED 13 ′ taken (received) by the first camera 11 has a light path from the LED 13 ′ to the first camera 11. Similarly, the light of the LED 13 ′ photographed (received) by the second camera 12 has a light path from the LED 13 ′ to the second camera 12.

なお、LED13(又は13´)は、第1カメラ11および第2カメラ12が撮影する領域内における固定の一点に光を照射するものであれば良く、LED13、13´の設置位置は、図1或いは図2に示す構成例に限定されるものではない。また、LED13、13´は、第1カメラ11および第2カメラ12に対してそれぞれ設けても良い。
ただし、LED13、13´は、第1カメラ11および第2カメラ12の撮影位置のずれを検出するための光を発光するものであるから、第1カメラ11および第2カメラ12が経年変化や環境などによってずれた場合であっても、光の照射位置が固定の1点となるように設置されるものとする。
Note that the LED 13 (or 13 ′) may be any one that irradiates light to a fixed point in the area captured by the first camera 11 and the second camera 12, and the installation positions of the LEDs 13 and 13 ′ are as shown in FIG. Or it is not limited to the structural example shown in FIG. Moreover, you may provide LED13, 13 'with respect to the 1st camera 11 and the 2nd camera 12, respectively.
However, since the LEDs 13 and 13 'emit light for detecting a shift in the photographing position of the first camera 11 and the second camera 12, the first camera 11 and the second camera 12 are subject to secular change and environment. Even if it is shifted due to the above, it is assumed that the light irradiation position is fixed at one point.

次に、車両検知装置10の構成について説明する。
車両検知装置10は、CPUなどのプロセッサ、各種のメモリ、及び、各種のインターフェースなどを有するコンピュータで構成される。車両検知装置10は、第1カメラ11、第2カメラ12、およびLED13(13´)などと接続される。車両検知装置10は、第1カメラ11および第2カメラ12が撮影する画像から車両を検出する処理を行う装置である。車両検知装置10は、第1カメラ11および第2カメラ12が撮影した画像データを処理する画像処理機能を有する。たとえば、車両検知装置10は、第1カメラ11が撮影した画像と第2カメラ12が撮影した画像とに基づいて、第1カメラ11及び第2カメラ12が撮影した画像に含まれる車両までの距離を算出する。
Next, the configuration of the vehicle detection device 10 will be described.
The vehicle detection device 10 includes a computer having a processor such as a CPU, various memories, various interfaces, and the like. The vehicle detection device 10 is connected to the first camera 11, the second camera 12, the LED 13 (13 ′), and the like. The vehicle detection device 10 is a device that performs processing for detecting a vehicle from images taken by the first camera 11 and the second camera 12. The vehicle detection device 10 has an image processing function for processing image data captured by the first camera 11 and the second camera 12. For example, the vehicle detection device 10 can determine the distance to the vehicle included in the images captured by the first camera 11 and the second camera 12 based on the image captured by the first camera 11 and the image captured by the second camera 12. Is calculated.

車両検知装置10が有する各機能は、CPUがメモリに記憶されたプログラムを実行することで実現するようにしても良いし、ハードウエアによって実現されるようにしても良い。たとえば、第1カメラ11および第2カメラ12が撮影した画像を処理する画像処理機能は、CPUがメモリに記憶した画像処理用のプログラムを実行することで実現するようにしても良いし、画像処理用のLSIなどのハードウエアによって実現しても良い。   Each function of the vehicle detection device 10 may be realized by the CPU executing a program stored in the memory, or may be realized by hardware. For example, the image processing function for processing images taken by the first camera 11 and the second camera 12 may be realized by executing a program for image processing stored in the memory by the CPU. It may be realized by hardware such as a general-purpose LSI.

図3は、車両検知装置10の構成例を示すブロック図である。
図3に示す構成例において、車両検知装置10は、制御部21、記憶部22、第1の画像インターフェース(I/F)23、第2の画像インターフェース(I/F)24、LED制御部25、画像処理部26、データ通信部27を有する。
FIG. 3 is a block diagram illustrating a configuration example of the vehicle detection device 10.
In the configuration example illustrated in FIG. 3, the vehicle detection device 10 includes a control unit 21, a storage unit 22, a first image interface (I / F) 23, a second image interface (I / F) 24, and an LED control unit 25. An image processing unit 26 and a data communication unit 27.

制御部21は、車両検知装置10全体の制御およびデータ処理などを実行する。制御部21は、たとえば、CPU、RAM、ROM、及び、各種の内部インターフェースを有する。制御部21は、CPUが内部メモリ或いは記憶部22に記憶されているプログラムを実行することにより各部の制御および各種の処理機能を実現する。また、データ通信部27は、外部装置と通信するためのインターフェースである。たとえば、データ通信部27は、上位装置に接続される。   The control unit 21 performs control of the entire vehicle detection device 10 and data processing. The control unit 21 includes, for example, a CPU, RAM, ROM, and various internal interfaces. The control unit 21 implements control of each unit and various processing functions by the CPU executing a program stored in the internal memory or the storage unit 22. The data communication unit 27 is an interface for communicating with an external device. For example, the data communication unit 27 is connected to a host device.

記憶部22は、各種データを記憶する。記憶部22は、たとえば、書換え可能な不揮発榮メモリである。記憶部22は、設定情報およびアプリケーションプログラムなどを記憶する。また、記憶部22は、第1カメラ11が撮影した画像に対する補正量を示す情報、および、第2カメラ12が撮影した画像に対する補正量を示す情報などの補正情報を記憶する。また、記憶部22は、LED13が光を発光してから第1カメラ11がLED13の光を受光(撮影)までの標準時間(第1カメラの標準時間)、LED13が光を発光してから第2カメラ12がLED13の光を受光(撮影)までの標準時間(第2カメラの標準時間)、第1カメラ11が撮影する画像におけるLED13の光の標準位置(第1の標準位置)、第2カメラ12が撮影する画像におけるLED13の光の標準位置(第2の標準位置)などの基準情報を記憶する。   The storage unit 22 stores various data. The storage unit 22 is, for example, a rewritable nonvolatile memory. The storage unit 22 stores setting information, application programs, and the like. Further, the storage unit 22 stores correction information such as information indicating the correction amount for the image captured by the first camera 11 and information indicating the correction amount for the image captured by the second camera 12. The storage unit 22 also has a standard time (standard time of the first camera) from when the LED 13 emits light until the first camera 11 receives the light of the LED 13 (photographing), and after the LED 13 emits light, 2 The standard time until the camera 12 receives the light of the LED 13 (photographing) (standard time of the second camera), the standard position of the light of the LED 13 in the image photographed by the first camera 11 (first standard position), the second Reference information such as the standard position (second standard position) of the light of the LED 13 in the image captured by the camera 12 is stored.

第1及び第2の画像I/F23、24は、画像キャプチャボードにより構成する。第1の画像I/F23は、第1カメラ11に接続する。第1の画像I/F23は、第1カメラ11が撮影した画像を取得する。第2の画像I/F24は、第2カメラ12に接続する。第2の画像I/F24は、第2カメラ12が撮影した画像を取得する。また、第1及び第2の画像I/F23、24は、第1及び第2カメラ11、12が画像を撮影したタイミングを示す情報を制御部21へ通知する。   The first and second image I / Fs 23 and 24 are configured by an image capture board. The first image I / F 23 is connected to the first camera 11. The first image I / F 23 acquires an image taken by the first camera 11. The second image I / F 24 is connected to the second camera 12. The second image I / F 24 acquires an image captured by the second camera 12. In addition, the first and second image I / Fs 23 and 24 notify the control unit 21 of information indicating the timing at which the first and second cameras 11 and 12 capture images.

LED制御部25は、LED13(13´)に接続する。LED制御部25は、LED13(13´)の駆動を制御する。たとえば、LED制御部25は、LED13(13´)により光を発光させる。LED制御部25は、制御部21から発光を指示する制御信号に従ってLEDを発光させる。さらに、LED制御部25は、LED13(13´)を発光したタイミングを示す信号を制御部21へ供給する。   The LED control unit 25 is connected to the LED 13 (13 ′). The LED control unit 25 controls the driving of the LED 13 (13 ′). For example, the LED control unit 25 causes the LED 13 (13 ′) to emit light. The LED control unit 25 causes the LED to emit light according to a control signal instructing light emission from the control unit 21. Further, the LED control unit 25 supplies a signal indicating the timing at which the LED 13 (13 ′) emits light to the control unit 21.

画像処理部26は、第1カメラ11および第2カメラ12が撮影した画像を処理する。画像処理部26は、たとえば、第1カメラ11が撮影した画像と第2カメラ12が撮影した画像とから車両を検出する機能、第1カメラ11が撮影した画像と第2カメラ12が撮影した画像との視差に基づいて車両の位置情報(距離)を算出する機能などを有する。また、画像処理部26は、記憶部22に記憶する補正量に基づいて、第1カメラ11が撮影した画像および第2カメラ12が撮影した画像を補正する機能を有する。画像処理部26は、制御部21のCPUがプログラムを実行することにより実現する機能であっても良いし、画像処理用のLSIにより実現しても良い。   The image processing unit 26 processes images captured by the first camera 11 and the second camera 12. For example, the image processing unit 26 has a function of detecting a vehicle from an image taken by the first camera 11 and an image taken by the second camera 12, and an image taken by the first camera 11 and an image taken by the second camera 12. A function of calculating vehicle position information (distance) based on the parallax. The image processing unit 26 has a function of correcting the image captured by the first camera 11 and the image captured by the second camera 12 based on the correction amount stored in the storage unit 22. The image processing unit 26 may be a function realized by the CPU of the control unit 21 executing a program, or may be realized by an LSI for image processing.

次に、第1カメラ11および第2カメラ12の撮影方向(視野方向)に対するずれ補正について説明する。
撮影方向に対するずれは、LED13(13´)が発光した光を第1カメラ11および第2カメラ12が受光するまでの時間により判定する。撮影方向に対するずれを算出するため、車両検知装置10は、LED13(13´)が発光した光を第1カメラ11および第2カメラ12が受光するまでの標準時間を記憶部22に記憶しておくものとする。
Next, deviation correction with respect to the shooting direction (viewing direction) of the first camera 11 and the second camera 12 will be described.
The deviation with respect to the photographing direction is determined by the time until the first camera 11 and the second camera 12 receive the light emitted by the LED 13 (13 ′). In order to calculate the deviation with respect to the shooting direction, the vehicle detection device 10 stores in the storage unit 22 a standard time until the first camera 11 and the second camera 12 receive the light emitted by the LED 13 (13 ′). Shall.

車両検知装置10は、実際にLED13が発光した光を第1カメラ11が受光するまでの時間(実測時間)と記憶部22に記憶した第1カメラ11の標準時間との差分により第1カメラ11の撮影方向に対するずれを算出し、算出したずれに応じて第1カメラ11に対する補正量を設定する。また、車両検知装置10は、実際にLED13が発光した光を第2カメラ12が受光するまでの時間(実測時間)と記憶部22に記憶した第2カメラ12の標準時間との差分により、第2カメラ12の撮影方向に対するずれを算出し、算出したずれに応じた第2カメラ12に対する補正量を設定する。   The vehicle detection device 10 uses the difference between the time until the first camera 11 receives the light actually emitted by the LED 13 (actual measurement time) and the standard time of the first camera 11 stored in the storage unit 22. And a correction amount for the first camera 11 is set according to the calculated deviation. Further, the vehicle detection device 10 determines the first time by the difference between the time until the second camera 12 receives the light actually emitted by the LED 13 (actual measurement time) and the standard time of the second camera 12 stored in the storage unit 22. The deviation of the two cameras 12 with respect to the shooting direction is calculated, and the correction amount for the second camera 12 is set according to the calculated deviation.

図4は、第1カメラ11の撮影方向におけるずれ量の算出方法を説明するためのタイミングチャートである。
図4(a)は、LED13が光を発光するタイミングを示す。図4(b)は、図4(a)に示すLED13の発光タイミングに対する第1カメラ11の標準時間を示す図である。つまり、撮影方向にずれが無ければ、図4(b)に示すように、第1カメラ11は、LED13が光を発光したタイミングから第1カメラ11の標準時間taでLED13からの光(反射板15で反射された反射光)を受光する。
FIG. 4 is a timing chart for explaining a method of calculating a deviation amount in the shooting direction of the first camera 11.
FIG. 4A shows the timing at which the LED 13 emits light. FIG. 4B is a diagram showing the standard time of the first camera 11 with respect to the light emission timing of the LED 13 shown in FIG. In other words, if there is no deviation in the shooting direction, as shown in FIG. 4B, the first camera 11 receives the light (reflecting plate) from the LED 13 at the standard time ta of the first camera 11 from the timing when the LED 13 emits light. The reflected light reflected at 15 is received.

図4(c)は、実際にLED13が発光した光(反射板15で反射された反射光)を第1カメラ11が受光するタイミングの例を示す。図4(c)に示す例では、第1カメラ11は、LED13が発光した光を標準時間taよりも時間(差分時間)Δt分だけ長い時間(実測時間)t1で受光している。   FIG. 4C shows an example of timing when the first camera 11 receives light actually emitted from the LED 13 (reflected light reflected by the reflecting plate 15). In the example shown in FIG. 4C, the first camera 11 receives the light emitted from the LED 13 for a time (measurement time) t1 that is longer than the standard time ta by a time (difference time) Δt.

例えば、図1に示す構成例では、LED13からの光が反射板15を介して第1カメラ11で受光される。したがって、図1に示す構成例では、第1カメラ11までの実測時間t1でLED13が発光した光を受光する第1カメラ11は、差分時間Δt1/2分だけ撮影方向にずれている。このため、図1に示す構成例では、光の速度をcとすれば、第1カメラ11は、撮影方向に距離(c×Δt1)/2分ずれている。この距離(c×Δt)/2は、第1カメラ11の撮影方向に対する補正量として設定される。   For example, in the configuration example shown in FIG. 1, the light from the LED 13 is received by the first camera 11 via the reflector 15. Therefore, in the configuration example shown in FIG. 1, the first camera 11 that receives the light emitted by the LED 13 during the actual measurement time t1 until the first camera 11 is shifted in the photographing direction by the difference time Δt1 / 2. For this reason, in the configuration example shown in FIG. 1, if the speed of light is c, the first camera 11 is shifted by a distance (c × Δt1) / 2 in the photographing direction. This distance (c × Δt) / 2 is set as a correction amount with respect to the shooting direction of the first camera 11.

なお、図2に示す構成例では、第1カメラ11は、LED13からの光が直接受光する。したがって、図2に示す構成例では、第1カメラ11までの実測時間t1でLED13が発光した光を受光する第1カメラ11は、差分時間Δt1分だけ撮影方向にずれている。このため、図2に示す構成例では、光の速度をcとすれば、第1カメラ11は、撮影方向に距離(c×Δt1)分ずれている。この距離(c×Δt)は、第1カメラ11の撮影方向に対する補正量として設定される。   In the configuration example shown in FIG. 2, the first camera 11 directly receives light from the LED 13. Therefore, in the configuration example shown in FIG. 2, the first camera 11 that receives the light emitted by the LED 13 during the actual measurement time t1 until the first camera 11 is shifted in the photographing direction by the difference time Δt1. Therefore, in the configuration example shown in FIG. 2, if the speed of light is c, the first camera 11 is shifted by a distance (c × Δt1) in the photographing direction. This distance (c × Δt) is set as a correction amount for the shooting direction of the first camera 11.

また、第1カメラ11の撮影方向に対する補正量は、例えば、記憶部22に記憶することにより設定する。また、第2カメラ12の撮影方向に対するずれも、LED13が発光した光を第2カメラ12が受光するまでの実測時間t2と第2カメラ12の標準時間tbとの差分時間Δt2により算出される。第2カメラ12の撮影方向に対する補正量も、差分時間Δt2から計算され、たとえば、記憶部22に記憶される。   Further, the correction amount with respect to the shooting direction of the first camera 11 is set by, for example, storing it in the storage unit 22. Further, the displacement of the second camera 12 with respect to the shooting direction is also calculated by the difference time Δt2 between the actual measurement time t2 until the second camera 12 receives the light emitted by the LED 13 and the standard time tb of the second camera 12. The correction amount with respect to the shooting direction of the second camera 12 is also calculated from the difference time Δt2 and stored in the storage unit 22, for example.

次に、第1カメラ11および第2カメラ12の撮影方向に対するずれ補正量の設定処理について説明する。
図5は、第1カメラ11および第2カメラ12の撮影方向に対するずれ補正量の設定処理の流れを説明するためのフローチャートである。
まず、車両検知装置10の制御部21は、LED制御部25によりLED13(13´)を発光させる(ステップ10)。制御部21は、LED13が光を発光した時点から第1カメラ11および第2カメラ12がLED13の光を受光するまでの時間をそれぞれ実測する(ステップS11、S21)。
Next, the shift correction amount setting process with respect to the shooting direction of the first camera 11 and the second camera 12 will be described.
FIG. 5 is a flowchart for explaining the flow of the setting process of the shift correction amount with respect to the shooting direction of the first camera 11 and the second camera 12.
First, the control unit 21 of the vehicle detection apparatus 10 causes the LED control unit 25 to cause the LED 13 (13 ′) to emit light (step 10). The control unit 21 actually measures the time from when the LED 13 emits light until the first camera 11 and the second camera 12 receive the light of the LED 13 (steps S11 and S21).

LED13が発光した光を第1カメラ11が受光するまでの実測時間が時間t1である場合、制御部21は、実測時間t1と記憶部22に記憶している第1カメラ11の標準時間taとの差分時間Δt1を算出する(ステップS12)。制御部21は、差分時間Δt1が0でないか否か、つまり、実測時間t1と標準時間taとが等しくないか否かを判断する(ステップS13)。Δt=0である場合(ステップS13、NO)、制御部21は、補正量を設定することなく第1カメラ11の撮影方向におけるずれに対する補正量の設定を終了する。   When the actual measurement time until the first camera 11 receives the light emitted from the LED 13 is the time t1, the control unit 21 determines the actual measurement time t1 and the standard time ta of the first camera 11 stored in the storage unit 22. Is calculated (step S12). The control unit 21 determines whether or not the difference time Δt1 is not 0, that is, whether or not the actual measurement time t1 and the standard time ta are not equal (step S13). When Δt = 0 (step S13, NO), the control unit 21 ends the setting of the correction amount for the shift in the shooting direction of the first camera 11 without setting the correction amount.

また、Δtが0でない場合、つまり、実測時間t1と標準時間taとが同じ値でない場合(ステップS13、YES)、制御部21は、実測時間t1と標準時間taとの差分時間Δt1により第1カメラ11の撮影方向に対するずれ量を算出する(ステップS14)。たとえば、図1に示す構成例では、第1カメラ11は、撮影方向に対して、距離(c(光速)×Δt1)/2だけずれていると判断する。また、図2に示す構成例では、第1カメラ11は、撮影方向に対して距離(c(光速)×Δt1)だけずれていると判断する。   When Δt is not 0, that is, when the actual measurement time t1 and the standard time ta are not the same value (step S13, YES), the control unit 21 determines the first difference time Δt1 between the actual measurement time t1 and the standard time ta. A deviation amount with respect to the shooting direction of the camera 11 is calculated (step S14). For example, in the configuration example illustrated in FIG. 1, the first camera 11 determines that the distance (c (speed of light) × Δt1) / 2 is shifted from the shooting direction. In the configuration example shown in FIG. 2, the first camera 11 is determined to be shifted by a distance (c (light speed) × Δt1) with respect to the shooting direction.

第1カメラ11の撮影方向に対するずれ量を算出すると、制御部21は、算出した第1カメラ11の撮影方向に対するずれ量を記憶部22に記憶することにより、第1カメラ11の撮影方向に対する補正量を設定する(ステップS15)。   When the shift amount with respect to the shooting direction of the first camera 11 is calculated, the control unit 21 stores the calculated shift amount with respect to the shooting direction of the first camera 11 in the storage unit 22, thereby correcting the shooting direction of the first camera 11. The amount is set (step S15).

また、LED13が発光した光を第2カメラ12が受光するまでの実測時間が時間t2である場合、制御部21は、実測時間t2と記憶部22に記憶している第2カメラ12の標準時間tbとの差分時間Δt2を算出する(ステップS22)。制御部21は、差分時間Δt2が0でないか否か、つまり、実測時間t2と標準時間tbとが等しくないか否かを判断する(ステップS23)。Δt=0である場合(ステップS23、NO)、制御部21は、補正量を設定することなく第2カメラ12の撮影方向におけるずれに対する補正量の設定を終了する。   When the actual measurement time until the second camera 12 receives the light emitted from the LED 13 is time t2, the control unit 21 determines the actual time t2 and the standard time of the second camera 12 stored in the storage unit 22. A difference time Δt2 from tb is calculated (step S22). The control unit 21 determines whether or not the difference time Δt2 is not 0, that is, whether or not the actual measurement time t2 and the standard time tb are not equal (step S23). When Δt = 0 (step S23, NO), the control unit 21 ends the setting of the correction amount for the shift in the shooting direction of the second camera 12 without setting the correction amount.

また、Δtが0でない場合、つまり、実測時間t2と標準時間tbとが同じ値でない場合(ステップS23、YES)、制御部21は、実測時間t2と標準時間tbとの差分時間Δt2により第2カメラ12の撮影方向に対するずれ量を算出する(ステップS24)。たとえば、図1に示す構成例では、第2カメラ12は、撮影方向に対して、距離(c(光速)×Δt2)/2だけずれていると判断する。また、図2に示す構成例では、第2カメラ12は、撮影方向に対して距離(c(光速)×Δt2)だけずれていると判断する。   When Δt is not 0, that is, when the actual measurement time t2 and the standard time tb are not the same value (step S23, YES), the control unit 21 determines the second difference Δt2 between the actual measurement time t2 and the standard time tb. A deviation amount with respect to the shooting direction of the camera 12 is calculated (step S24). For example, in the configuration example illustrated in FIG. 1, the second camera 12 determines that the distance (c (speed of light) × Δt2) / 2 is shifted from the shooting direction. In the configuration example illustrated in FIG. 2, the second camera 12 determines that the distance (c (speed of light) × Δt2) is shifted from the shooting direction.

第2カメラ12の撮影方向に対するずれ量を算出すると、制御部21は、算出した第2カメラ12の撮影方向に対するずれ量を記憶部22に記憶することにより、第2カメラ12の撮影方向に対する補正量を設定する(ステップS25)。   When the deviation amount with respect to the shooting direction of the second camera 12 is calculated, the control unit 21 stores the calculated deviation amount with respect to the shooting direction of the second camera 12 in the storage unit 22, thereby correcting the shooting direction of the second camera 12. The amount is set (step S25).

上述した撮影方向におけるずれに対する補正量の設定処理によれば、LEDが発光してからステレオカメラを構成する各カメラがLEDの光を受光するまでの時間を実測し、実測した時間と各カメラがLEDの光を受光するまでの標準時間との差分に基づいて各カメラの撮影方向におけるずれに対する補正量を設定する。これにより、本実施形態の車両検知装置によれば、各カメラの撮影方向におけるずれを簡易に補正することができる。この結果として、車両検知装置は、各カメラが撮影する画像において車両の正確な位置を識別しやすくでき、高精度な車両検出が実現できる。   According to the correction amount setting process for the deviation in the shooting direction described above, the time from when the LED emits light until each camera constituting the stereo camera receives the light of the LED is measured. Based on the difference from the standard time until the LED light is received, a correction amount for the shift in the shooting direction of each camera is set. Thereby, according to the vehicle detection apparatus of this embodiment, the shift | offset | difference in the imaging | photography direction of each camera can be correct | amended easily. As a result, the vehicle detection device can easily identify the exact position of the vehicle in the image captured by each camera, and can realize highly accurate vehicle detection.

次に、第1カメラ11および第2カメラ12の上下左右方向(平面方向)におけるずれ補正について説明する。
第1カメラ11および第2カメラ12の上下左右方向(平面方向)におけるずれは、第1カメラ11および第2カメラ12が撮影した画像におけるLED13(13´)の光の位置により判定する。平面方向におけるずれを算出するため、車両検知装置10は、第1カメラ11および第2カメラ12が撮影する画像におけるLED13(13´)の光の標準位置を示す情報を記憶部22に記憶しておくものとする。
Next, displacement correction in the upper and lower left and right directions (plane direction) of the first camera 11 and the second camera 12 will be described.
The shift in the vertical and horizontal directions (planar direction) of the first camera 11 and the second camera 12 is determined by the position of the light of the LED 13 (13 ′) in the images taken by the first camera 11 and the second camera 12. In order to calculate the deviation in the plane direction, the vehicle detection device 10 stores information indicating the standard position of the light of the LED 13 (13 ′) in the image captured by the first camera 11 and the second camera 12 in the storage unit 22. I shall keep it.

車両検知装置10は、実際に第1カメラ11が撮影した画像から検出するLED13の光の位置(撮影位置)と記憶部22に記憶した第1カメラ11に対するLED13の光の標準位置(第1の標準位置)との差分により第1カメラ11の平面方向におけるずれを検出し、検出したずれ量に応じて第1カメラ11の平面方向に対する補正量を設定する。   The vehicle detection device 10 detects the light position (photographing position) of the LED 13 detected from the image actually captured by the first camera 11 and the standard position (first position of the light of the LED 13 with respect to the first camera 11 stored in the storage unit 22. A deviation in the plane direction of the first camera 11 is detected based on a difference from the standard position), and a correction amount with respect to the plane direction of the first camera 11 is set according to the detected deviation amount.

また、車両検知装置10は、実際に第2カメラ12が撮影した画像から検出するLED13の光の位置(撮影位置)と記憶部22に記憶した第2カメラ12に対するLED13の光の標準位置(第1の標準位置)との差分により第2カメラ12の平面方向におけるずれを検出し、検出したずれに応じた第2カメラ12の平面方向に対する補正量を設定する。   The vehicle detection device 10 also detects the position of the light of the LED 13 (photographing position) detected from the image actually captured by the second camera 12 and the standard position of the light of the LED 13 with respect to the second camera 12 stored in the storage unit 22 (first position). The deviation in the plane direction of the second camera 12 is detected from the difference from the standard position (1), and a correction amount for the plane direction of the second camera 12 corresponding to the detected deviation is set.

図6(a)は、第1カメラ11(あるいは第2カメラ12)の撮影画像におけるLED13(13´)の光の標準位置の例を示す図である。図6(b)は、第1カメラ11(あるいは第2カメラ12)の撮影画像におけるLED13(13´)の光のずれの例を示す図である。図6(c)は、第1カメラ11(あるいは第2カメラ12)の撮影画像におけるLED13(13´)の光のずれに対する補正量を示す図である。
すなわち、第1カメラ11(あるいは第2カメラ12)の平面方向にずれが無ければ、車両検知装置10は、第1カメラ11(あるいは第2カメラ12)が撮影する画像において、図6(a)に示すように、第1の標準位置(あるいは第2の標準位置)にLED13の光を検出する。第1の標準位置(あるいは第2の標準位置)にLED13の光を検出されれば、車両検知装置10は、第1カメラ11(あるいは第2カメラ12)の平面方向に対する補正は不要であると判断する。
FIG. 6A is a diagram illustrating an example of the standard position of the light of the LED 13 (13 ′) in the captured image of the first camera 11 (or the second camera 12). FIG. 6B is a diagram illustrating an example of the light shift of the LED 13 (13 ′) in the captured image of the first camera 11 (or the second camera 12). FIG. 6C is a diagram illustrating a correction amount with respect to the light shift of the LED 13 (13 ′) in the captured image of the first camera 11 (or the second camera 12).
In other words, if there is no deviation in the plane direction of the first camera 11 (or the second camera 12), the vehicle detection device 10 in the image photographed by the first camera 11 (or the second camera 12) is shown in FIG. As shown in FIG. 4, the light of the LED 13 is detected at the first standard position (or the second standard position). If the light of the LED 13 is detected at the first standard position (or the second standard position), the vehicle detection device 10 does not need to correct the plane direction of the first camera 11 (or the second camera 12). to decide.

平面方向にずれが生じている場合、車両検知装置10は、第1カメラ11(あるいは第2カメラ12)が撮影する画像において、図6(b)に示すように、第1の標準位置(あるいは第2の標準位置)とはずれた位置に、LED13の光を検出する。第1の標準位置(あるいは第2の標準位置)とはずれた位置にLED13の光を検出すると、車両検知装置10は、標準位置からずれ量(例えば、ずれ量を示す座標値)を算出する。   When there is a deviation in the plane direction, the vehicle detection device 10 uses the first standard position (or as shown in FIG. 6B) in the image captured by the first camera 11 (or the second camera 12). The light of the LED 13 is detected at a position deviated from the second standard position. When the light of the LED 13 is detected at a position deviated from the first standard position (or the second standard position), the vehicle detection device 10 calculates a deviation amount (for example, a coordinate value indicating the deviation amount) from the standard position.

標準位置からのずれ量(例えば、ずれ量を示す座標値)を算出すると、車両検知装置10は、算出したずれ量を補正するための補正量を第1カメラ(あるいは第2カメラ12)に対する設定値として設定する。この補正量により補正することにより、第1カメラ(あるいは第2カメラ12)が撮影する画像は、図6(c)に示すように、平面方向のずれが補正される。   When a deviation amount from the standard position (for example, a coordinate value indicating the deviation amount) is calculated, the vehicle detection apparatus 10 sets a correction amount for correcting the calculated deviation amount for the first camera (or the second camera 12). Set as a value. By correcting with this correction amount, the image taken by the first camera (or the second camera 12) is corrected for deviation in the plane direction as shown in FIG. 6C.

次に、第1カメラ11および第2カメラ12の平面方向に対するずれの補正量の設定処理について説明する。
図7は、第1カメラ11および第2カメラ12の平面方向に対するずれの補正量の設定処理の流れを説明するためのフローチャートである。
まず、車両検知装置10の制御部21は、LED制御部25によりLED13(13´)を発光させる(ステップ30)。制御部21は、LED13を発光させた後、第1カメラ11および第2カメラ12が撮影するLED13の光の点(光点)を含む画像をそれぞれ取得する(ステップS31、S41)。
Next, a description will be given of a process for setting a deviation correction amount with respect to the planar direction of the first camera 11 and the second camera 12.
FIG. 7 is a flowchart for explaining the flow of the setting process of the correction amount of the displacement of the first camera 11 and the second camera 12 with respect to the planar direction.
First, the control unit 21 of the vehicle detection device 10 causes the LED control unit 25 to cause the LED 13 (13 ′) to emit light (step 30). After causing the LED 13 to emit light, the control unit 21 acquires images including light spots (light spots) of the LEDs 13 taken by the first camera 11 and the second camera 12 (steps S31 and S41).

第1カメラ11が撮影したLED13の光点を含む画像を取得すると、制御部21は、実際に撮影した画像におけるLED13の光点を抽出し、抽出した光点の座標値(p1、q1)を検出する(ステップS32)。第1カメラ11の撮影画像におけるLED13の光点の座標値(p1、q1)を検出すると、制御部21は、検出した座標値(p1、q1)と第1カメラ11に対する標準位置としての第1の標準位置の座標値(pa、qa)と差分の座標値(Δp1、Δq1)を算出する(ステップS33)。   When the image including the light spot of the LED 13 captured by the first camera 11 is acquired, the control unit 21 extracts the light spot of the LED 13 in the actually captured image, and obtains the coordinate values (p1, q1) of the extracted light spot. It detects (step S32). When the coordinate value (p1, q1) of the light spot of the LED 13 in the photographed image of the first camera 11 is detected, the control unit 21 detects the detected coordinate value (p1, q1) and the first position as the standard position with respect to the first camera 11. The coordinate values (pa, qa) of the standard position and the coordinate values (Δp1, Δq1) of the difference are calculated (step S33).

第1カメラ11が実際に撮影したLED13の光点の位置と標準位置との差分の座標値(Δp1、Δq1)を算出すると、制御部21は、差分の座標値(Δp1、Δq1)が(0、0)でないか否か、つまり、撮影したLEDの光点が標準位置でないか否かを判断する(ステップS34)。差分の座標値(Δp1、Δq1)が(0、0)である場合(ステップS34、NO)、制御部21は、補正量を設定することなく第1カメラ11の平面方向におけるずれに対する補正量の設定を終了する。   When the coordinate values (Δp1, Δq1) of the difference between the light spot position of the LED 13 actually taken by the first camera 11 and the standard position are calculated, the control unit 21 sets the difference coordinate values (Δp1, Δq1) to (0). , 0), that is, whether the light spot of the photographed LED is not the standard position (step S34). When the difference coordinate values (Δp1, Δq1) are (0, 0) (step S34, NO), the control unit 21 sets the correction amount for the shift in the plane direction of the first camera 11 without setting the correction amount. Finish the setting.

算出した差分の座標値(Δp1、Δq1)が(0、0)でない場合、つまり、第1カメラ11が撮影したLED13の光点が標準位置でない場合(ステップS34、YES)、制御部21は、差分の座標値(Δp1、Δq1)を第1カメラ11の平面方向におけるずれ量として記憶部22に記憶することにより、第1カメラ11の平面方向に対する補正量を設定する(ステップS35)。   When the calculated difference coordinate values (Δp1, Δq1) are not (0, 0), that is, when the light spot of the LED 13 taken by the first camera 11 is not the standard position (step S34, YES), the control unit 21 By storing the difference coordinate values (Δp1, Δq1) in the storage unit 22 as a shift amount in the plane direction of the first camera 11, a correction amount with respect to the plane direction of the first camera 11 is set (step S35).

また、第2カメラ12が撮影したLED13の光点を含む画像を取得すると、制御部21は、実際に撮影した画像におけるLED13の光点を抽出し、抽出した光点の座標値(p2、q2)を検出する(ステップS42)。第2カメラ12の撮影画像におけるLED13の光点の座標値(p2、q2)を検出すると、制御部21は、検出した座標値(p2、q2)と第2カメラ12に対する標準位置としての第2の標準位置の座標値(pb、qb)と差分の座標値(Δp2、Δq2)を算出する(ステップS43)。   When the image including the light spot of the LED 13 captured by the second camera 12 is acquired, the control unit 21 extracts the light spot of the LED 13 in the actually captured image, and the coordinate value (p2, q2 of the extracted light spot). ) Is detected (step S42). When the coordinate value (p2, q2) of the light spot of the LED 13 in the captured image of the second camera 12 is detected, the control unit 21 detects the detected coordinate value (p2, q2) and the second position as the standard position with respect to the second camera 12. The coordinate values (pb, qb) of the standard position and the difference coordinate values (Δp2, Δq2) are calculated (step S43).

第2カメラ12が実際に撮影したLED13の光点の位置と標準位置との差分の座標値(Δp2、Δq2)を算出すると、制御部21は、差分の座標値(Δp2、Δq2)が(0、0)でないか否か、つまり、撮影したLEDの光点が標準位置でないか否かを判断する(ステップS44)。差分の座標値(Δp2、Δq2)が(0、0)である場合(ステップS44、NO)、制御部21は、補正量を設定することなく第2カメラ12の平面方向におけるずれに対する補正量の設定を終了する。   When the coordinate values (Δp2, Δq2) of the difference between the light spot position of the LED 13 actually taken by the second camera 12 and the standard position are calculated, the control unit 21 sets the difference coordinate values (Δp2, Δq2) to (0). , 0), that is, whether the light spot of the captured LED is not in the standard position (step S44). When the difference coordinate values (Δp2, Δq2) are (0, 0) (step S44, NO), the control unit 21 sets the correction amount for the shift in the planar direction of the second camera 12 without setting the correction amount. Finish the setting.

算出した差分の座標値(Δp2、Δq2)が(0、0)でない場合、つまり、第2カメラ12が撮影したLED13の光点が標準位置でない場合(ステップS44、YES)、制御部21は、差分の座標値(Δp2、Δq2)を平面方向におけるずれ量として記憶部22に記憶することにより、第2カメラ12の平面方向に対する補正量を設定する(ステップS45)。   When the calculated coordinate values (Δp2, Δq2) of the difference are not (0, 0), that is, when the light spot of the LED 13 photographed by the second camera 12 is not the standard position (step S44, YES), the control unit 21 By storing the difference coordinate values (Δp2, Δq2) in the storage unit 22 as a shift amount in the plane direction, a correction amount for the plane direction of the second camera 12 is set (step S45).

上述した処理によれば、ステレオカメラを構成する各カメラが撮影した各画像から固定の1点を照射(マーク)するLEDの光点の位置を検出し、撮影した画像中のLEDの光点の位置と各カメラに対する光点の標準位置との差分に基づいて各カメラの平面方向におけるずれに対する補正量を設定する。これにより、本実施形態の車両検知装置によれば、各カメラの平面方向におけるずれを簡易に補正することができる。この結果として、車両検知装置は、各カメラが撮影する画像において車両の正確な位置を識別しやすくでき、高精度な車両検出が実現できる。   According to the processing described above, the position of the light spot of the LED that irradiates (marks) a fixed point is detected from each image captured by each camera constituting the stereo camera, and the light spot of the LED in the captured image is detected. Based on the difference between the position and the standard position of the light spot for each camera, a correction amount for the shift in the planar direction of each camera is set. Thereby, according to the vehicle detection apparatus of this embodiment, the shift | offset | difference in the plane direction of each camera can be correct | amended easily. As a result, the vehicle detection device can easily identify the exact position of the vehicle in the image captured by each camera, and can realize highly accurate vehicle detection.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10…車両検知装置、11…第1カメラ、12…第2カメラ、13…LED(光源)、14…支柱、15…反射板、21…制御部(ずれ検出手段、設定手段)、22…記憶部(記憶手段)、23…第1の画像インターフェース(画像取得手段)、24…第2の画像インターフェース(画像取得手段)、25…LED制御部(発光制御手段)、26…画像処理部(画像処理手段)。   DESCRIPTION OF SYMBOLS 10 ... Vehicle detection apparatus, 11 ... 1st camera, 12 ... 2nd camera, 13 ... LED (light source), 14 ... Support | pillar, 15 ... Reflecting plate, 21 ... Control part (deviation detection means, setting means), 22 ... Memory Unit (storage unit), 23 ... first image interface (image acquisition unit), 24 ... second image interface (image acquisition unit), 25 ... LED control unit (light emission control unit), 26 ... image processing unit (image) Processing means).

Claims (10)

所定の撮影領域を有する複数のカメラが撮影した画像を入力する画像取得手段と、
前記各カメラの撮影領域中における固定位置を照射する光を発光させる光源を制御する発光制御手段と、
前記光源が光を照射する前記固定位置を含む撮影領域を前記各カメラが撮影する画像に基づいて前記各カメラの位置ずれを検出するずれ検出手段と、
前記ずれ検出手段により検出した位置ずれに応じた補正量をカメラごとに設定する設定手段と、
前記各カメラが撮影した画像を前記設定手段が設定する補正量で補正した画像に対して画像処理を行う画像処理手段と、
を有する車両検知装置。
Image acquisition means for inputting images taken by a plurality of cameras having a predetermined shooting area;
A light emission control means for controlling a light source that emits light for irradiating a fixed position in the imaging region of each camera;
A shift detection means for detecting a shift in the position of each camera based on an image captured by each camera in a shooting area including the fixed position where the light source emits light;
Setting means for setting a correction amount according to the positional deviation detected by the deviation detection means for each camera;
Image processing means for performing image processing on an image obtained by correcting the image captured by each camera with a correction amount set by the setting means;
A vehicle detection device.
さらに、前記各カメラによる前記光源からの光を撮影状態に対する標準情報を記憶する記憶手段を有し、
前記ずれ検出手段は、前記カメラが前記光源からの光を撮影した状態と前記記憶手段に記憶した標準情報との差分により位置ずれを検出する、
前記請求項1に記載の車両検知装置。
Furthermore, it has a memory | storage means to memorize | store the standard information with respect to the imaging state of the light from the said light source by each said camera,
The deviation detecting means detects a position deviation based on a difference between a state in which the camera captures light from the light source and standard information stored in the storage means;
The vehicle detection device according to claim 1.
前記記憶手段は、前記標準情報として、前記光源が光を発光してから前記各カメラが前記光源からの光を撮影するまでの標準時間を記憶し、
前記ずれ検出手段は、前記光源が光を発光してから前記カメラが実際に前記光源からの光を撮影するまでの実測時間と当該カメラに対する前記標準時間との差分により前記カメラの撮影方向におけるずれを検出する、
前記請求項2に記載の車両検知装置。
The storage means stores, as the standard information, a standard time from when the light source emits light until each camera captures light from the light source,
The deviation detection unit is configured to detect a deviation in a shooting direction of the camera based on a difference between an actual measurement time from when the light source emits light until the camera actually captures light from the light source and the standard time with respect to the camera. Detect
The vehicle detection device according to claim 2.
前記記憶手段は、前記標準情報として、前記各カメラが撮影する画像における前記光源からの光の位置を示す標準位置を記憶し、
前記ずれ検出手段は、前記カメラが実際に撮影した画像における前記光源からの光の位置と当該カメラに対する前記標準位置との差分により前記カメラの上下左右方向におけるずれを検出する、
前記請求項2に記載の車両検知装置。
The storage means stores, as the standard information, a standard position indicating a position of light from the light source in an image captured by each camera,
The shift detection means detects a shift in the vertical and horizontal directions of the camera based on a difference between a position of light from the light source in an image actually captured by the camera and the standard position with respect to the camera.
The vehicle detection device according to claim 2.
さらに、前記光源からの光を前記各カメラへ反射する反射板を有する、
前記請求項1乃至4の何れか1項に記載の車両検知装置。
Furthermore, it has a reflecting plate that reflects light from the light source to the cameras.
The vehicle detection device according to any one of claims 1 to 4.
所定の撮影領域が設定された複数のカメラと車両検知装置とを有する車両検知システムにおいて、
さらに、前記各カメラの撮影領域中における固定位置を照射する光を発光する光源を有し、
前記車両検知装置は、
前記光源が光を照射する前記固定位置を含む撮影領域を前記各カメラが撮影する画像に基づいて前記各カメラの位置ずれを検出するずれ検出手段と、
前記ずれ検出手段により検出した位置ずれに応じた補正量をカメラごとに設定する設定手段と、
前記各カメラが撮影した画像を前記設定手段が設定する補正量で補正した画像に対して画像処理を行う画像処理手段と、を有する、
車両検知システム。
In a vehicle detection system having a plurality of cameras and a vehicle detection device in which a predetermined shooting area is set,
Furthermore, it has a light source that emits light that illuminates a fixed position in the imaging region of each camera,
The vehicle detection device is
A shift detection means for detecting a shift in the position of each camera based on an image captured by each camera in a shooting area including the fixed position where the light source emits light;
Setting means for setting a correction amount according to the positional deviation detected by the deviation detection means for each camera;
Image processing means for performing image processing on an image obtained by correcting the image captured by each camera with a correction amount set by the setting means,
Vehicle detection system.
前記車両検知装置は、さらに、前記各カメラによる前記光源からの光を撮影状態に対する標準情報を記憶する記憶手段を有し、
前記ずれ検出手段は、前記カメラが前記光源からの光を撮影した状態と前記記憶手段に記憶した標準情報との差分により位置ずれを検出する、
前記請求項6に記載の車両検知システム。
The vehicle detection device further includes storage means for storing standard information for a shooting state of light from the light source by each camera.
The deviation detecting means detects a position deviation based on a difference between a state in which the camera captures light from the light source and standard information stored in the storage means;
The vehicle detection system according to claim 6.
前記記憶手段は、前記標準情報として、前記光源が光を発光してから前記各カメラが前記光源からの光を撮影するまでの標準時間を記憶し、
前記ずれ検出手段は、前記光源が光を発光してから前記カメラが実際に前記光源からの光を撮影するまでの実測時間と当該カメラに対する前記標準時間との差分により前記カメラの撮影方向におけるずれを検出する、
前記請求項7に記載の車両検知システム。
The storage means stores, as the standard information, a standard time from when the light source emits light until each camera captures light from the light source,
The deviation detection unit is configured to detect a deviation in a shooting direction of the camera based on a difference between an actual measurement time from when the light source emits light until the camera actually captures light from the light source and the standard time with respect to the camera. Detect
The vehicle detection system according to claim 7.
前記記憶手段は、前記標準情報として、前記各カメラが撮影する画像における前記光源からの光の位置を示す標準位置を記憶し、
前記ずれ検出手段は、前記カメラが実際に撮影した画像における前記光源からの光の位置と当該カメラに対する前記標準位置との差分により前記カメラの上下左右方向におけるずれを検出する、
前記請求項7に記載の車両検知システム。
The storage means stores, as the standard information, a standard position indicating a position of light from the light source in an image captured by each camera,
The shift detection means detects a shift in the vertical and horizontal directions of the camera based on a difference between a position of light from the light source in an image actually captured by the camera and the standard position with respect to the camera.
The vehicle detection system according to claim 7.
さらに、前記光源からの光を前記各カメラへ反射する反射板を有する、
前記請求項6乃至9の何れか1項に記載の車両検知システム。
Furthermore, it has a reflecting plate that reflects light from the light source to the cameras.
The vehicle detection system according to any one of claims 6 to 9.
JP2013085979A 2013-04-16 2013-04-16 Vehicle detection device and vehicle detection system Expired - Fee Related JP6067462B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013085979A JP6067462B2 (en) 2013-04-16 2013-04-16 Vehicle detection device and vehicle detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013085979A JP6067462B2 (en) 2013-04-16 2013-04-16 Vehicle detection device and vehicle detection system

Publications (2)

Publication Number Publication Date
JP2014209686A true JP2014209686A (en) 2014-11-06
JP6067462B2 JP6067462B2 (en) 2017-01-25

Family

ID=51903650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013085979A Expired - Fee Related JP6067462B2 (en) 2013-04-16 2013-04-16 Vehicle detection device and vehicle detection system

Country Status (1)

Country Link
JP (1) JP6067462B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080224A (en) * 2014-10-15 2016-05-16 株式会社コロナ Electric heater

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06295396A (en) * 1993-04-08 1994-10-21 Omron Corp Vehicle detecting method and picture blur correcting method
JPH0867204A (en) * 1994-08-29 1996-03-12 Mitsubishi Electric Corp On-vehicle image pick-up device
JPH10307352A (en) * 1997-05-07 1998-11-17 Fuji Heavy Ind Ltd Adjustment device for stereoscopic camera
JPH11134480A (en) * 1997-10-28 1999-05-21 Nissan Motor Co Ltd Dislocation detector of on-vehicle camera
JP2001160137A (en) * 1999-09-22 2001-06-12 Fuji Heavy Ind Ltd Device for correcting distance of monitoring system and device for correcting vanishing point of monitoring system
JP2012078147A (en) * 2010-09-30 2012-04-19 Honda Motor Co Ltd Optical axis inspection method and optical axis inspection device of on-vehicle camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06295396A (en) * 1993-04-08 1994-10-21 Omron Corp Vehicle detecting method and picture blur correcting method
JPH0867204A (en) * 1994-08-29 1996-03-12 Mitsubishi Electric Corp On-vehicle image pick-up device
JPH10307352A (en) * 1997-05-07 1998-11-17 Fuji Heavy Ind Ltd Adjustment device for stereoscopic camera
JPH11134480A (en) * 1997-10-28 1999-05-21 Nissan Motor Co Ltd Dislocation detector of on-vehicle camera
JP2001160137A (en) * 1999-09-22 2001-06-12 Fuji Heavy Ind Ltd Device for correcting distance of monitoring system and device for correcting vanishing point of monitoring system
JP2012078147A (en) * 2010-09-30 2012-04-19 Honda Motor Co Ltd Optical axis inspection method and optical axis inspection device of on-vehicle camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080224A (en) * 2014-10-15 2016-05-16 株式会社コロナ Electric heater

Also Published As

Publication number Publication date
JP6067462B2 (en) 2017-01-25

Similar Documents

Publication Publication Date Title
KR102166691B1 (en) Device for estimating three-dimensional shape of object and method thereof
KR101584693B1 (en) Apparatus and method for generation of camera parameter
WO2016173131A1 (en) Ranging method, automatic focusing method and device
CN107683401A (en) Shape measuring apparatus and process for measuring shape
JP6014452B2 (en) FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE
JP6881917B2 (en) Distance measuring device, imaging control device
JP2009156704A (en) Brightness measuring device and method of display panel, and display device
WO2014108976A1 (en) Object detecting device
JP2006279546A (en) Electronic camera, image processing program, and image processing method
JP2018207373A (en) Calibration apparatus of projection type display device, calibration method, program, projection type display device, and projection type display system
JP2008292278A (en) Optical deviation detection method of distance detection device, and distance detection device
KR101774167B1 (en) Focus position detection device, focus position detection method, and computer program for focus position detection
JP3666348B2 (en) Distance recognition device
TW201224892A (en) Method for positioning compensation of a touch object on a touch surface of a screen and optical touch module thereof
JP6067462B2 (en) Vehicle detection device and vehicle detection system
JP2007327803A (en) Vehicle surrounding monitoring device
JP2014182248A (en) Focusing position detection device, focusing position detection method and focusing position detection computer program
JP5482032B2 (en) Distance measuring device and distance measuring method
JP6398950B2 (en) Device for photographing the surface of a plate-like body
JP6413648B2 (en) Measurement system, object extraction system, measurement method and program
KR100958352B1 (en) Monitoring method
JP2016177750A5 (en)
WO2014073590A1 (en) Three-dimensional measuring device and three-dimensional measuring method
JP2010190793A (en) Apparatus and method for measuring distance
JP2014238558A (en) Imaging device and parallax detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161221

R151 Written notification of patent or utility model registration

Ref document number: 6067462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees