JP2013175131A - Image type vehicle sensor and vehicle sensing program - Google Patents

Image type vehicle sensor and vehicle sensing program Download PDF

Info

Publication number
JP2013175131A
JP2013175131A JP2012040594A JP2012040594A JP2013175131A JP 2013175131 A JP2013175131 A JP 2013175131A JP 2012040594 A JP2012040594 A JP 2012040594A JP 2012040594 A JP2012040594 A JP 2012040594A JP 2013175131 A JP2013175131 A JP 2013175131A
Authority
JP
Japan
Prior art keywords
image
unit
vehicle
image data
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012040594A
Other languages
Japanese (ja)
Inventor
Masami Okiyama
雅己 沖山
Akihiko Kubo
明彦 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric System Solutions Co Ltd
Original Assignee
Sumitomo Electric System Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric System Solutions Co Ltd filed Critical Sumitomo Electric System Solutions Co Ltd
Priority to JP2012040594A priority Critical patent/JP2013175131A/en
Publication of JP2013175131A publication Critical patent/JP2013175131A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image type vehicle sensor and a vehicle sensing program capable of reducing interruption of a process for sensing a vehicle.SOLUTION: An image type vehicle sensor 1 comprises a first image sensing process section 32, a second image sensing process section 34 and a selection section 35. The first image sensing process section 32 executes a sensing process for each vehicle on the basis of first image data acquired by photographing a vehicle travelling in a first measurement area of a road. The second image sensing process section 34 executes a sensing process for each vehicle on the basis of second image data acquired by photographing each vehicle after passing through the first measurement area. The selection section 35 is capable of selecting which one is output, from a sensing process result in the first image sensing process section 32 or a sensing process result in the second image sensing process section 34.

Description

本発明は、道路を通行する車両を撮影することで得られた画像データを基に車両感知処理を行う、画像式車両感知器、および車両感知プログラムに関する。   The present invention relates to an image-type vehicle detector and a vehicle detection program for performing vehicle detection processing based on image data obtained by photographing a vehicle traveling on a road.

特開2000−99877号公報(特許文献1)には、画像式車両検知器が開示されている。この検知器は、車線毎にカメラを設置し、車両映像を車線毎にデジタル化する。そして、処理部で、車線毎のデジタル映像を解析して、車線毎の走行台数と車両速度を計測する。   Japanese Patent Laid-Open No. 2000-99877 (Patent Document 1) discloses an image type vehicle detector. This detector installs a camera for each lane and digitizes the vehicle image for each lane. And a processing part analyzes the digital image | video for every lane, and measures the number of vehicles and vehicle speed for every lane.

特開2000−99877号公報([要約])JP 2000-99877 A ([Summary])

特許文献1に記載の構成では、カメラのレンズに光触媒を塗布しておくことにより、レンズが汚れることを抑制している。しかしながら、レンズが汚れることを完全に防止することはできない。このため、カメラのレンズを定期的に清掃する必要がある。この清掃作業の際、レンズは、布などの清掃部材によって拭かれる。このため、清掃作業を行っている間、清掃作業が行われているカメラは、車両を撮影することができない。すなわち、車両を感知するための撮影処理が途切れてしまう。   In the configuration described in Patent Document 1, the lens is prevented from being stained by applying a photocatalyst to the lens of the camera. However, it is impossible to completely prevent the lens from becoming dirty. For this reason, it is necessary to periodically clean the lens of the camera. During this cleaning operation, the lens is wiped with a cleaning member such as a cloth. For this reason, while the cleaning work is being performed, the camera on which the cleaning work is being performed cannot shoot the vehicle. That is, the photographing process for detecting the vehicle is interrupted.

なお、特許文献1に記載の構成では、車線毎にカメラが設置されているが、各カメラの撮影範囲は異なっている。したがって、たとえば、右側車線を撮影するカメラは、左側車線を走行する車両を撮影することができない。このため、複数のカメラ同士が撮影処理を補い合う構成となっておらず、上記した、撮影処理の途切れを防止できない。   In the configuration described in Patent Document 1, a camera is installed for each lane, but the shooting range of each camera is different. Thus, for example, a camera that captures the right lane cannot capture a vehicle traveling in the left lane. For this reason, a plurality of cameras are not configured to supplement the shooting process, and the above-described interruption of the shooting process cannot be prevented.

この発明は、上述の課題を解決するためになされたもので、その目的は、車両を感知するための処理の中断を抑制できる画像式車両感知器、および車両感知プログラムを提供することである。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image type vehicle sensor and a vehicle detection program that can suppress interruption of processing for detecting a vehicle.

(1)上記課題を解決するために、この発明のある局面に係わる画像式車両感知器は、道路における第1計測エリアを所定の進行方向に沿って通行する1または複数の車両を撮影することで得られた第1画像データに基づいて、各上記車両の感知処理を行うことが可能な第1処理部と、上記第1計測エリアを通過した各上記車両の通行先の前記道路における第2計測エリアを撮影することで得られた第2画像データに基づいて、各上記車両の感知処理を行うことが可能な第2処理部と、上記第1処理部における感知処理結果、および上記第2処理部における感知処理結果の何れを出力するか選択可能な選択部と、を備えている。   (1) In order to solve the above-described problem, an image-type vehicle detector according to an aspect of the present invention photographs one or a plurality of vehicles passing through a first measurement area on a road along a predetermined traveling direction. A first processing unit capable of performing a sensing process for each of the vehicles based on the first image data obtained in step 2; and a second of the roads to which the vehicles have passed through the first measurement area. Based on the second image data obtained by photographing the measurement area, a second processing unit capable of performing sensing processing of each vehicle, a sensing processing result in the first processing unit, and the second A selection unit capable of selecting which of the sensing processing results in the processing unit is to be output.

このような構成によれば、第1画像データおよび第2画像データの何れか一方の画像データについて、車両感知を行うことができない状態であっても、他方の画像データを用いて、車両感知処理を行うことができる。これにより、車両を感知するための処理の中断を抑制することができる。たとえば、第1画像データを得るための撮影部について、清掃作業が行われる場合でも、第2画像データを得るための撮影部を用いて、第2画像データを得ることができる。同様に、たとえば、第2画像データを得るための撮影部について、清掃作業が行われる場合でも、第1画像データを得るための撮影部を用いて、第1画像データを得ることができる。したがって、車両を感知するための処理の中断を抑制できる画像式車両感知器を実現できる。   According to such a configuration, even if it is in a state in which vehicle detection cannot be performed for one of the first image data and the second image data, the vehicle detection process is performed using the other image data. It can be performed. Thereby, the interruption of the process for detecting a vehicle can be suppressed. For example, the second image data can be obtained by using the photographing unit for obtaining the second image data even when the photographing operation for obtaining the first image data is performed. Similarly, for example, even when a cleaning operation is performed on an imaging unit for obtaining the second image data, the first image data can be obtained using the imaging unit for obtaining the first image data. Accordingly, it is possible to realize an image type vehicle detector that can suppress interruption of processing for detecting the vehicle.

(2)好ましくは、上記第1処理部および上記第2処理部は、各上記車両の感知処理を並行して行うことが可能であり、上記選択部は、上記第1処理部における感知処理結果と、上記第2処理部における感知処理結果の何れかを出力可能である。   (2) Preferably, the first processing unit and the second processing unit are capable of performing sensing processing of each vehicle in parallel, and the selection unit is configured to perform sensing processing results in the first processing unit. And any of the sensing processing results in the second processing unit can be output.

これにより、一方の処理部による感知処理結果を出力している状態から、他方の処理部による感知処理結果を出力する状態への切り替えを、より迅速に行うことができる。その結果、車両の感知処理結果の欠損を、より少なくすることができる。   As a result, it is possible to more quickly switch from the state in which the sensing processing result by one processing unit is output to the state in which the sensing processing result by the other processing unit is output. As a result, it is possible to reduce the loss of the vehicle sensing process result.

(3)好ましくは、1つの処理部によって上記第1処理部および上記第2処理部が構成されており、上記選択部は、上記1つの処理部に対して、上記第1画像データおよび上記第2画像データのうちの何れに基づいて各上記車両の感知処理を行わせるかを指示することが可能である。   (3) Preferably, the first processing unit and the second processing unit are configured by one processing unit, and the selection unit transmits the first image data and the first processing unit to the one processing unit. Based on which of the two image data, it is possible to instruct whether to perform the sensing process for each vehicle.

これにより、1つの処理部で、第1画像データを用いた車両感知処理と、第2画像データを用いた車両感知処理の双方を行うことができる。よって、画像式車両感知器の製造コストを、より少なくできる。   As a result, both the vehicle sensing process using the first image data and the vehicle sensing process using the second image data can be performed by one processing unit. Therefore, the manufacturing cost of the image type vehicle sensor can be further reduced.

(4)好ましくは、上記第1画像データおよび上記第2画像データの少なくとも一方を出力する画像データ出力部をさらに備えている。   (4) Preferably, an image data output unit that outputs at least one of the first image data and the second image data is further provided.

これにより、第1画像データおよび第2画像データの少なくとも一方を、たとえば、交通管制センターなどに出力することができる。これにより、交通管制センターのモニターなどに、道路の画像を写すことができる。その結果、車両感知のために撮影して得られた第1画像データおよび第2画像データの少なくとも一方を、オペレータの目視による道路監視に用いることもできる。これにより、たとえば、道路で事故が発生した場合に、道路状況を、第1計測エリアおよび第2計測エリアの少なくとも一方について確認することができる。これにより、第1画像データおよび第2画像データを、オペレータの目視による道路監視に用いるなど、より有効に活用することができる。   Thereby, at least one of the first image data and the second image data can be output to, for example, a traffic control center. As a result, an image of the road can be shown on a monitor of a traffic control center. As a result, at least one of the first image data and the second image data obtained by photographing for vehicle sensing can also be used for road monitoring by an operator's visual observation. Thereby, for example, when an accident occurs on a road, the road condition can be confirmed for at least one of the first measurement area and the second measurement area. Thereby, the first image data and the second image data can be used more effectively, for example, for road monitoring by visual observation by the operator.

(5)好ましくは、上記第1計測エリアを通行する各上記車両を各上記車両の前方側から撮影するための第1撮影部と、上記第2計測エリアを通行する各上記車両を各上記車両の後方側から撮影するための第2撮影部と、をさらに備えている。   (5) Preferably, each vehicle that passes through the first measurement area is photographed from the front side of each vehicle, and each vehicle that passes through the second measurement area is each vehicle. And a second photographing unit for photographing from the rear side.

このような構成によれば、第1撮影部から、第1撮影部に撮影される車両に向かう方向と、第2撮影部から、第2撮影部に撮影される車両に向かう方向とは、道路の進行方向に平行な成分において、反対向きとなる。このため、たとえば、第1画像データによって特定される第1画像においては日光の写りこみ量が多い場合でも、第2画像データによって特定される第2画像においては日光の写りこみ量が少ない態様で、第2画像を得ることができる。同様に、たとえば、第2画像データによって特定される第2画像においては日光の写りこみ量が多い場合でも、第1画像データによって特定される第1画像においては日光の写りこみ量が少ない態様で、第1画像を得ることができる。すなわち、朝日が昇る時間帯であれば、第1画像および第2画像のうち、朝日の写りこみ量の少ないほうの画像の画像データを基に、車両の感知処理を行うことができる。また、夕日が沈む時間帯であれば、第1画像および第2画像のうち、夕日の写りこみ量の少ないほうの画像の画像データを基に、車両の感知処理を行うことができる。これにより、朝日が昇る時間帯、および夕日が沈む時間帯の何れの場合でも、直射日光が過度に写りこむことが抑制された画像の画像データを基に、車両の感知処理を行うことができる。よって、日光などの強い光に起因する車両感知性能の低下を抑制することができる。さらに、たとえば、第1撮影部および第2撮影部の一方が、メンテナンスまたは故障のために車両感知のための撮影を行うことができない場合でも、他方によって、車両感知のための撮影を行うことができる。これにより、車両を感知するための処理の中断を、より確実に抑制できる。   According to such a configuration, the direction from the first photographing unit to the vehicle photographed by the first photographing unit and the direction from the second photographing unit to the vehicle photographed by the second photographing unit are roads In the component parallel to the traveling direction, the directions are opposite. For this reason, for example, even when the amount of sunlight reflected in the first image specified by the first image data is large, the amount of sunlight reflected is small in the second image specified by the second image data. A second image can be obtained. Similarly, for example, even if the amount of sunlight reflected in the second image specified by the second image data is large, the amount of sunlight reflected is small in the first image specified by the first image data. A first image can be obtained. That is, during the time when the morning sun rises, the vehicle sensing process can be performed based on the image data of the first image and the second image with the smaller amount of reflected sunrise. Further, in the time zone when the sunset is set, the vehicle sensing process can be performed based on the image data of the first image and the second image with the smaller amount of sunset reflected. As a result, the vehicle sensing process can be performed on the basis of the image data of the image in which the direct sunlight is suppressed from being excessively reflected in both the time when the sun rises and the time when the sunset falls. . Therefore, it is possible to suppress a decrease in vehicle sensing performance caused by strong light such as sunlight. Further, for example, even when one of the first photographing unit and the second photographing unit cannot perform photographing for vehicle sensing due to maintenance or failure, the other photographing can be performed for vehicle sensing. it can. Thereby, the interruption of the process for detecting a vehicle can be suppressed more reliably.

(6)好ましくは、上記第1撮影部および上記第2撮影部は、上記進行方向に関して互いに反対向きに配置されている。   (6) Preferably, the said 1st imaging | photography part and the said 2nd imaging | photography part are arrange | positioned in the mutually opposite direction regarding the said advancing direction.

これにより、第1撮影部によって、車両の車頭(前端)を、より確実に撮影することができる。また、第2撮影部によって、車両の車尾(後端)を、より確実に撮影することができる。   Accordingly, the first photographing unit can photograph the vehicle head (front end) of the vehicle more reliably. In addition, the second photographing unit can more reliably photograph the stern (rear end) of the vehicle.

(7)好ましくは、光学部材をさらに備え、上記光学部材は、上記第1計測エリアを上記第1計測エリアの前方側から見た第1像を上記第1撮影部に光学的に案内するための第1案内部と、上記第2計測エリアを上記第2計測エリアの後方側から見た第2像を上記第2撮影部に光学的に案内するための第2案内部と、を含む。   (7) Preferably, an optical member is further provided, and the optical member optically guides the first image obtained by viewing the first measurement area from the front side of the first measurement area to the first photographing unit. And a second guide for optically guiding the second image obtained by viewing the second measurement area from the rear side of the second measurement area to the second imaging unit.

これにより、第1像および第2像は、それぞれ、光学部材によって、対応する第1撮影部および第2撮影部へ案内される。したがって、第1撮影部および第2撮影部は、それぞれ、第1計測エリアおよび第2計測エリアを、光学部材を介して間接的に撮影できる。よって、第1撮影部および第2撮影部は、たとえば日光を直接入射されずに済む。これにより、第1撮影部および第2撮影部に不要な光が入射されることを抑制できる。したがって、日光などの強い光に起因する車両感知精度の低下を、より一層抑制することができる。   Accordingly, the first image and the second image are guided to the corresponding first photographing unit and second photographing unit by the optical member, respectively. Therefore, the first photographing unit and the second photographing unit can indirectly photograph the first measurement area and the second measurement area via the optical member, respectively. Therefore, the first photographing unit and the second photographing unit do not need to be directly incident with sunlight, for example. Thereby, it can suppress that unnecessary light injects into a 1st imaging | photography part and a 2nd imaging | photography part. Accordingly, it is possible to further suppress a decrease in vehicle detection accuracy caused by strong light such as sunlight.

(8)好ましくは、光学部材と、上記光学部材からの像を撮影する1つの撮影部と、をさらに備える。また、上記光学部材は、上記第1計測エリアを上記第1計測エリアの前方側から見た第1像を上記1つの撮影部に光学的に案内するための第1案内部と、上記第2計測エリアを上記第2計測エリアの後方側から見た第2像を上記1つの撮影部に光学的に案内するための第2案内部と、を含む。また、上記第1画像データは、上記第1像に基づくものであり、上記第2画像データは、上記第2像に基づくものである。   (8) Preferably, an optical member and a single photographing unit that photographs an image from the optical member are further provided. The optical member includes a first guide unit for optically guiding a first image of the first measurement area viewed from the front side of the first measurement area to the one photographing unit; A second guide unit for optically guiding the second image obtained by viewing the measurement area from the rear side of the second measurement area to the one photographing unit. The first image data is based on the first image, and the second image data is based on the second image.

このような構成によれば、撮影部から、第1計測エリアに向かう方向と、撮影部から、第2計測エリアに向かう方向とは、道路の進行方向に平行な成分において、反対向きとなる。このため、たとえば、第1画像データによって特定される第1画像においては日光の写りこみ量が多い場合でも、第2画像データによって特定される第2画像においては日光の写りこみ量が少ない態様で、第2画像を得ることができる。同様に、たとえば、第2画像データによって特定される第2画像においては日光の写りこみ量が多い場合でも、第1画像データによって特定される第1画像においては日光の写りこみ量が少ない態様で、第1画像を得ることができる。すなわち、朝日が昇る時間帯であれば、第1画像および第2画像のうち、朝日の写りこみ量の少ないほうの画像の画像データを基に、車両の感知処理を行うことができる。また、夕日が沈む時間帯であれば、第1画像および第2画像のうち、夕日の写りこみ量の少ないほうの画像の画像データを基に、車両の感知処理を行うことができる。これにより、朝日が昇る時間帯、および夕日が沈む時間帯の何れの場合でも、直射日光が過度に写りこむことが抑制された画像の画像データを基に、車両の感知処理を行うことができる。よって、日光などの強い光に起因する車両感知性能の低下を抑制することができる。また、第1像および第2像は、それぞれ、光学部材によって、撮影部へ案内される。これにより、撮影部は、第1計測エリアおよび第2計測エリアを、光学部材を介して間接的に撮影できる。したがって、撮影部は、たとえば日光を直接入射されずに済む。これにより、撮影部に不要な光が入射されることを抑制できる。したがって、日光などの強い光に起因する車両感知精度の低下を、より一層抑制することができる。さらに、第1計測エリアおよび第2計測エリアを1つの撮影部によって撮影することができる。これにより、撮影部を2つ設ける必要がなく、画像式車両感知器の製造コストを、より少なくできる。また、撮影部のうち、第1像を撮影している箇所および第2像を撮影している箇所の何れか一方を清掃している場合に、他方から得られる画像データを用いて、車両感知処理を継続することができる。したがって、撮影部が1つの場合でも、車両を感知するための処理の中断を抑制できる。   According to such a configuration, the direction from the imaging unit toward the first measurement area and the direction from the imaging unit toward the second measurement area are opposite in the component parallel to the traveling direction of the road. For this reason, for example, even when the amount of sunlight reflected in the first image specified by the first image data is large, the amount of sunlight reflected is small in the second image specified by the second image data. A second image can be obtained. Similarly, for example, even if the amount of sunlight reflected in the second image specified by the second image data is large, the amount of sunlight reflected is small in the first image specified by the first image data. A first image can be obtained. That is, during the time when the morning sun rises, the vehicle sensing process can be performed based on the image data of the first image and the second image with the smaller amount of reflected sunrise. Further, in the time zone when the sunset is set, the vehicle sensing process can be performed based on the image data of the first image and the second image with the smaller amount of sunset reflected. As a result, the vehicle sensing process can be performed on the basis of the image data of the image in which the direct sunlight is suppressed from being excessively reflected in both the time when the sun rises and the time when the sunset falls. . Therefore, it is possible to suppress a decrease in vehicle sensing performance caused by strong light such as sunlight. The first image and the second image are each guided to the photographing unit by the optical member. Thereby, the imaging | photography part can image | photograph a 1st measurement area and a 2nd measurement area indirectly via an optical member. Therefore, for example, the photographing unit does not need to be directly incident with sunlight. Thereby, it can suppress that unnecessary light injects into an imaging | photography part. Accordingly, it is possible to further suppress a decrease in vehicle detection accuracy caused by strong light such as sunlight. Furthermore, the first measurement area and the second measurement area can be photographed by one photographing unit. Thereby, it is not necessary to provide two photographing units, and the manufacturing cost of the image type vehicle sensor can be further reduced. In addition, when either one of the photographing part where the first image is photographed or the second image is photographed is cleaned, vehicle detection is performed using image data obtained from the other part. Processing can continue. Therefore, even when there is one photographing unit, it is possible to suppress interruption of processing for sensing the vehicle.

(9)好ましくは、上記選択部は、所定の第1期間においては、上記第1処理部の感知処理結果を出力し、上記第1期間とは異なる所定の第2期間においては、上記第2処理部の感知処理結果を出力する。   (9) Preferably, the selection unit outputs a sensing process result of the first processing unit in a predetermined first period, and the second unit in a predetermined second period different from the first period. The detection processing result of the processing unit is output.

これにより、第1画像データおよび第2画像データのうち、車両の感知処理により適した画像データを用いて得られた感知結果を、画像式車両感知器から出力することができる。   Thereby, the sensing result obtained using the image data more suitable for the sensing process of the vehicle among the first image data and the second image data can be output from the image type vehicle sensor.

(10)さらに好ましくは、上記第1期間は、上記第1画像データで特定される第1画像における朝日または夕日の強さよりも、上記第2画像データで特定される第2画像における前記朝日または夕日の強さの大きい第1撮影期間を含み、上記第2期間は、上記第2画像データで特定される第2画像における夕日または朝日の強さよりも、上記第1画像データで特定される第1画像における前記夕日または朝日の強さの大きい第2撮影期間を含む。   (10) More preferably, in the first period, the sunrise or the sun in the second image specified by the second image data is stronger than the intensity of the sunrise or the sunset in the first image specified by the first image data. Including a first shooting period in which the intensity of sunset is large, and the second period is specified by the first image data rather than the intensity of sunset or sunrise in the second image specified by the second image data. The second shooting period in which the intensity of sunset or morning sun in one image is large is included.

これにより、第1撮影期間では、第1像および第2像のうち、朝日または夕日の写りこみ量がより少ない第1像を撮影して得られた第1画像データを用いて、車両の感知処理を行うことができる。これにより、朝日または夕日の影響が抑制された状態で、車両の感知処理を、より精度よく行うことができる。また、第2撮影期間では、第1像および第2像のうち、夕日または朝日の写りこみ量がより少ない第2像を撮影して得られた第2画像データを用いて、車両の感知処理を行うことができる。これにより、夕日または朝日の影響が抑制された状態で、車両の感知処理を、より精度よく行うことができる。   As a result, during the first shooting period, vehicle detection is performed using the first image data obtained by shooting the first image with the smaller amount of reflection of the morning sun or the sunset from the first image and the second image. Processing can be performed. Accordingly, the vehicle sensing process can be performed with higher accuracy in a state where the influence of the morning sun or sunset is suppressed. Further, in the second shooting period, the vehicle sensing process is performed using the second image data obtained by shooting the second image with a smaller amount of sunset or sunrise in the first image and the second image. It can be performed. Accordingly, the vehicle sensing process can be performed with higher accuracy in a state where the influence of the sunset or the morning sun is suppressed.

好ましくは、上記選択部は、午後の所定の時間帯を含む期間を上記第2撮影期間として設定する。   Preferably, the selection unit sets a period including a predetermined afternoon time zone as the second imaging period.

このように、午後の所定の時間帯を第2期間として設定するという簡易な構成で、夕日の影響が抑制された状態で、車両の感知処理を行うことができる。すなわち、第1像および第2像における夕日の強さなどを測定するという、手間のかかる処理が必要ない。   As described above, the vehicle sensing process can be performed in a state in which the influence of the sunset is suppressed with a simple configuration in which the predetermined time zone in the afternoon is set as the second period. That is, a time-consuming process of measuring the intensity of sunset in the first image and the second image is not necessary.

好ましくは、上記選択部は、午前の所定の時間帯を含む期間を上記第1撮影期間として設定する。   Preferably, the selection unit sets a period including a predetermined morning time zone as the first imaging period.

このように、午前の所定の時間帯を第1期間として設定するという簡易な構成で、朝日の影響が抑制された状態で、車両の感知処理を行うことができる。すなわち、第1像および第2像における朝日の強さなどを測定するという、手間のかかる処理が必要ない。   Thus, the vehicle sensing process can be performed with a simple configuration in which a predetermined time zone in the morning is set as the first period, with the influence of Asahi being suppressed. That is, the time-consuming process of measuring the intensity of the morning sun in the first image and the second image is not necessary.

(11)好ましくは、上記第1期間は、上記第2計測エリアを撮影する第2撮影部をメンテナンスするための第1メンテナンス期間を含み、上記第2期間は、上記第1計測エリアを撮影する上記第1撮影部をメンテナンスするための第2メンテナンス期間を含む。   (11) Preferably, the first period includes a first maintenance period for maintaining the second imaging unit that images the second measurement area, and the second period images the first measurement area. A second maintenance period for maintaining the first imaging unit is included.

なお、「メンテナンス」とは、撮影部を清掃することと、撮影部の向きまたは位置を調整することと、撮影部における異常の有無を確認することの、少なくとも一つを含む。   Note that “maintenance” includes at least one of cleaning the imaging unit, adjusting the orientation or position of the imaging unit, and checking whether there is an abnormality in the imaging unit.

これにより、第1撮影部をメンテナンスする期間と、第2撮影部をメンテナンスする期間とを異ならせることができる。したがって、第1撮影部および第2撮影部のうちの一方をメンテナンスしている間でも、他方によって、道路を通行する車両を撮影することができる。その結果、車両を感知する処理の中断を、より一層確実に抑制することができる。   Thereby, the period which maintains a 1st imaging | photography part and the period which maintains a 2nd imaging | photography part can be varied. Therefore, even while one of the first photographing unit and the second photographing unit is being maintained, the other vehicle can be photographed on the road. As a result, the interruption of the process for sensing the vehicle can be more reliably suppressed.

(12)上記課題を解決するために、この発明のある局面に係わる車両感知プログラムは、コンピュータに、道路における第1計測エリアを所定の進行方向に沿って通行する1または複数の車両を撮影することで得られた第1画像データを受け容れるステップと、上記第1計測エリアを通過した各上記車両の通行先の前記道路における第2計測エリアを撮影することで得られた第2画像データを受け容れるステップと、上記第1画像データおよび上記第2画像データの何れか一方に基づいて各上記車両の感知処理を行った感知処理結果を出力するステップと、を実行させるためのプログラムである。   (12) In order to solve the above-described problem, a vehicle detection program according to an aspect of the present invention images one or a plurality of vehicles passing through a first measurement area on a road along a predetermined traveling direction on a computer. A step of accepting the first image data obtained in this manner, and second image data obtained by photographing the second measurement area on the road to which each of the vehicles that have passed through the first measurement area is taken. A program for executing an acceptable step and a step of outputting a sensing process result obtained by sensing each vehicle based on one of the first image data and the second image data.

このような構成によれば、第1画像データおよび第2画像データの何れか一方の画像データについて、車両感知を行うことができない状態であっても、他方の画像データを用いて、車両感知処理を行うことができる。これにより、車両を感知するための処理の中断を抑制することができる。たとえば、第1画像データを得るための撮影部について、清掃作業が行われる場合でも、第2画像データを得るための撮影部を用いて、第2画像データを得ることができる。同様に、たとえば、第2画像データを得るための撮影部について、清掃作業が行われる場合でも、第1画像データを得るための撮影部を用いて、第1画像データを得ることができる。したがって、車両を感知するための処理の中断を抑制できる。   According to such a configuration, even if it is in a state in which vehicle detection cannot be performed for one of the first image data and the second image data, the vehicle detection process is performed using the other image data. It can be performed. Thereby, the interruption of the process for detecting a vehicle can be suppressed. For example, the second image data can be obtained by using the photographing unit for obtaining the second image data even when the photographing operation for obtaining the first image data is performed. Similarly, for example, even when a cleaning operation is performed on an imaging unit for obtaining the second image data, the first image data can be obtained using the imaging unit for obtaining the first image data. Therefore, the interruption of the process for detecting the vehicle can be suppressed.

本発明によれば、車両を感知するための処理の中断を抑制できる、画像式車両感知器、および車両感知プログラムを実現できる。   ADVANTAGE OF THE INVENTION According to this invention, the image-type vehicle sensor and vehicle detection program which can suppress the interruption of the process for detecting a vehicle are realizable.

(a)は、本実施の第1実施形態における画像式車両感知器の一例を示す模式的な平面図であり、(b)は、画像式車両感知器の周辺を道路の幅方向から見た模式的な側面図である。(A) is a typical top view which shows an example of the image type vehicle sensor in 1st Embodiment of this Embodiment, (b) looked the periphery of the image type vehicle sensor from the width direction of the road. It is a typical side view. 車両感知部の機能ブロック図である。It is a functional block diagram of a vehicle detection part. 本発明の第1実施形態に係る画像式車両感知器における車両感知動作について説明するためのフローチャートである。It is a flowchart for demonstrating the vehicle detection operation | movement in the image type vehicle sensor which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る画像式車両感知器の車両感知部の機能ブロック図である。It is a functional block diagram of the vehicle detection part of the image type vehicle sensor which concerns on 2nd Embodiment of this invention. 第2実施形態に係る画像式車両感知器における車両感知動作について説明するためのフローチャートである。It is a flowchart for demonstrating the vehicle detection operation | movement in the image type vehicle sensor which concerns on 2nd Embodiment. (a)は、本実施の第3実施形態における画像式車両感知器の一例を示す模式的な斜視図であり、(b)は、画像式車両感知器の周辺を道路の幅方向から見た模式的な側面図である。(A) is a typical perspective view which shows an example of the image type vehicle sensor in 3rd Embodiment of this Embodiment, (b) saw the periphery of the image type vehicle sensor from the width direction of the road. It is a typical side view. 撮影装置の全体構成を示す模式的な断面図であり、一部を側面で示している。It is typical sectional drawing which shows the whole structure of an imaging device, and has shown one part by the side. (a)および(b)は、複数の光学部材について説明するための主要部の模式的な一部断面側面図である。(A) And (b) is a typical partial cross section side view of the principal part for demonstrating a some optical member. (a)および(b)は、光学部材の清掃作業について説明するための主要部の一部断面側面図である。(A) And (b) is a partial cross section side view of the principal part for demonstrating the cleaning operation | work of an optical member. 本発明の第4実施形態に係る画像式車両感知器の撮影装置を示す断面図であり、一部を側面で示している。It is sectional drawing which shows the imaging device of the image type vehicle sensor which concerns on 4th Embodiment of this invention, and has shown one part by the side. 本発明の第4実施形態に係る画像式車両感知器の車両感知部の機能ブロック図である。It is a functional block diagram of the vehicle detection part of the image type vehicle sensor which concerns on 4th Embodiment of this invention. (a)および(b)は、画像補正部における画像補正処理を説明するための図である。(A) And (b) is a figure for demonstrating the image correction process in an image correction part. 第4実施形態にかかる画像式車両感知器における車両感知動作について説明するためのフローチャートである。It is a flowchart for demonstrating the vehicle detection operation | movement in the image type vehicle sensor concerning 4th Embodiment. 本発明の第5実施形態に係る画像式車両感知器の車両感知部の機能ブロック図である。It is a functional block diagram of the vehicle detection part of the image type vehicle sensor which concerns on 5th Embodiment of this invention. 第5実施形態にかかる画像式車両感知器における車両感知動作について説明するためのフローチャートである。It is a flowchart for demonstrating the vehicle detection operation | movement in the image type vehicle sensor concerning 5th Embodiment.

[第1実施形態]
以下、本発明の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
[First embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.

[画像式車両感知器の構成]
図1(a)は、本実施の第1実施形態における画像式車両感知器1の一例を示す模式的な平面図である。図1(a)では、画像式車両感知器1は、道路100に設置された状態を示している。図1(b)は、画像式車両感知器1の周辺を道路100の幅方向から見た模式的な側面図である。
[Configuration of image-type vehicle detector]
FIG. 1A is a schematic plan view showing an example of the image type vehicle sensor 1 in the first embodiment. In FIG. 1A, the image type vehicle detector 1 is installed on the road 100. FIG. 1B is a schematic side view of the periphery of the image type vehicle detector 1 as viewed from the width direction of the road 100.

図1(a)および図1(b)に示すように、画像式車両感知器1は、道路100を通過する1または複数の車両101を感知するために設けられている。本実施形態では、「感知」とは、たとえば、車両101の有無、各車両101の速度、および各車両101の台数(交通量)の少なくとも1つを感知することをいう。各車両101は、たとえば、小型車または大型車である。   As shown in FIGS. 1A and 1B, the image type vehicle detector 1 is provided for detecting one or a plurality of vehicles 101 passing through a road 100. In the present embodiment, “sensing” refers to sensing at least one of the presence / absence of the vehicle 101, the speed of each vehicle 101, and the number (traffic volume) of each vehicle 101, for example. Each vehicle 101 is, for example, a small car or a large car.

本実施の形態では、道路100が、アスファルト舗装された道路であり、かつ、東西方向に延びる三車線の直線道路であり、かつ、一方通行の道路である場合を例にとって説明する。また、本実施の形態では、道路100は、日光に晒される場所に設置されている。道路100において、車両101は、所定の進行方向D1に沿って通行する。すなわち、進行方向D1は、東西方向に沿う方向であり、本実施の形態では、東方向である。   In the present embodiment, an example will be described in which the road 100 is an asphalt-paved road, a three-lane straight road extending in the east-west direction, and a one-way road. In this embodiment, road 100 is installed in a place exposed to sunlight. On the road 100, the vehicle 101 passes along a predetermined traveling direction D1. That is, the traveling direction D1 is a direction along the east-west direction, and in this embodiment, is the east direction.

画像式車両感知器1は、道路100に設置されている。画像式車両感知器1は、進行方向D1において、第1計測エリア2と第2計測エリア3との間に位置している。第1計測エリア2は、道路100上に設けられたエリアであり、第1計測エリア2を車両101が通行する。第1計測エリア2は、たとえば、道路100の幅方向W1の略全域に亘って設けられ、かつ、進行方向D1に数十mの長さに亘って設けられている。第1計測エリア2から進行方向D1側に所定距離、たとえば、数十m離隔した位置に、第2計測エリア3が設けられている。   The image type vehicle detector 1 is installed on the road 100. The image-type vehicle detector 1 is located between the first measurement area 2 and the second measurement area 3 in the traveling direction D1. The first measurement area 2 is an area provided on the road 100, and the vehicle 101 passes through the first measurement area 2. For example, the first measurement area 2 is provided over substantially the entire region in the width direction W1 of the road 100 and is provided over a length of several tens of meters in the traveling direction D1. The second measurement area 3 is provided at a predetermined distance, for example, several tens of meters from the first measurement area 2 toward the traveling direction D1.

第2計測エリア3は、道路100上に設けられたエリアであり、第1計測エリア2を通過した車両101が通行する。すなわち、第1計測エリア2と第2計測エリア3とは、進行方向D1に沿って並んで配置されている。たとえば、幅方向W1および進行方向D1のそれぞれにおいて、第2計測エリア3の長さは、第1計測エリア2の長さと略同じに設定されている。本実施の形態では、第2計測エリア3は、第1計測エリア2から直接目視可能に配置されている。   The second measurement area 3 is an area provided on the road 100, and the vehicle 101 that has passed through the first measurement area 2 passes through. That is, the first measurement area 2 and the second measurement area 3 are arranged side by side along the traveling direction D1. For example, the length of the second measurement area 3 is set to be approximately the same as the length of the first measurement area 2 in each of the width direction W1 and the traveling direction D1. In the present embodiment, the second measurement area 3 is arranged so as to be directly visible from the first measurement area 2.

本実施の形態では、第1計測エリア2と第2計測エリア3との間において、道路100に対する車両101の出口および入口の何れも配置されていない。したがって、事故などの異常事態が生じない限り、第1計測エリア2を通行した車両101は、全て、第2計測エリア3を通行する。   In the present embodiment, neither the exit nor the entrance of the vehicle 101 with respect to the road 100 is arranged between the first measurement area 2 and the second measurement area 3. Therefore, all the vehicles 101 that have passed through the first measurement area 2 pass through the second measurement area 3 unless an abnormal situation such as an accident occurs.

朝日が昇る時間帯には、太陽S1が水平面近くに位置することとなる。朝日が昇る時間帯とは、たとえば、日本における冬の午前7時〜午前8時頃である。この時間帯に、画像式車両感知器1の後述する撮影装置4から第2計測エリア3を見ると、直射日光など、朝日(東日)に起因して、第2計測エリア3を正確に視認し難くなる。   During the time when the morning sun rises, the sun S1 is located near the horizontal plane. The time zone in which the morning sun rises is, for example, around 7 am to 8 am in winter in Japan. When the second measurement area 3 is viewed from the imaging device 4 (to be described later) of the image type vehicle sensor 1 during this time zone, the second measurement area 3 is accurately visually recognized due to the morning sun (eastern sun) such as direct sunlight. It becomes difficult to do.

一方、夕日が沈む時間帯としての第2撮影期間には、太陽S2が水平面近くに位置することとなる。第2撮影期間は、午後の所定の時間帯であり、たとえば、日本における冬の午後4時〜午後5時頃である。この時間帯に、撮影装置4から第1計測エリア2を見ると、直射日光など、夕日(西日)に起因して、第1計測エリア2を正確に視認し難くなる。   On the other hand, the sun S2 is located near the horizontal plane during the second shooting period as a time zone when the sunset goes. The second shooting period is a predetermined time zone in the afternoon, and is, for example, around 4 pm to 5 pm in winter in Japan. When the first measurement area 2 is viewed from the photographing device 4 during this time period, it is difficult to accurately visually recognize the first measurement area 2 due to sunset (western sun) such as direct sunlight.

したがって、上記第2撮影期間には、第2計測エリア3を撮影して車両101の感知処理を行うと、直射日光に起因する各車両101の感知漏れおよび誤検知を防止することができる。また、第2撮影期間以外の期間としての第1撮影期間には、第1計測エリア2を撮影して車両101の感知処理を行えばよい。   Therefore, when the second measurement area 3 is photographed and the vehicle 101 is sensed during the second photographing period, it is possible to prevent detection omission and erroneous detection of each vehicle 101 due to direct sunlight. Further, in the first shooting period other than the second shooting period, the first measurement area 2 may be shot and the vehicle 101 may be sensed.

画像式車両感知器1は、第1計測エリア2を通行する車両101の感知処理と、第2計測エリア3を通行する車両101の感知処理とを並行して行うことが可能に構成されている。また、画像式車両感知器1は、第1計測エリア2を通行する車両101の感知処理結果と、第2計測エリア3を通行する車両101の感知処理結果とを、択一的に出力することが可能に構成されている。   The image-type vehicle detector 1 is configured to be able to perform a sensing process for the vehicle 101 passing through the first measurement area 2 and a sensing process for the vehicle 101 passing through the second measurement area 3 in parallel. . Further, the image-type vehicle detector 1 alternatively outputs a detection process result of the vehicle 101 passing through the first measurement area 2 and a detection process result of the vehicle 101 passing through the second measurement area 3. Is configured to be possible.

画像式車両感知器1は、撮影装置4と、車両感知部5と、を備えている。   The image type vehicle detector 1 includes a photographing device 4 and a vehicle sensing unit 5.

撮影装置4は、第1計測エリア2、および第2計測エリア3を撮影するために設けられている。撮影装置4は、道路100に設置された門型柱100aに取り付けられている。門型柱100aは、道路100の左右両方の路肩100bから上方に延びる柱部と、これらの柱部間において幅方向W1に延びる梁部とを有している。梁部は、たとえば、道路100の路面から数m〜十数mの高さの位置に配置されている。柱部に、撮影装置4が取り付けられている。本実施の形態では、撮影装置4は、道路100を直接撮影するように構成されている。   The photographing device 4 is provided for photographing the first measurement area 2 and the second measurement area 3. The imaging device 4 is attached to a portal column 100a installed on the road 100. The portal column 100a has column portions extending upward from both the left and right shoulders 100b of the road 100, and beam portions extending in the width direction W1 between these column portions. For example, the beam portion is arranged at a height of several m to several tens m from the road surface of the road 100. The imaging device 4 is attached to the column part. In the present embodiment, the photographing device 4 is configured to directly photograph the road 100.

撮影装置4は、第1撮影部11と、第2撮影部12と、を有している。   The imaging device 4 includes a first imaging unit 11 and a second imaging unit 12.

第1撮影部11は、第1像21を撮影するために設けられている。第1像21は、第1計測エリア2を進行方向D1における第1計測エリア2の前方側から見た像である。第1撮影部11は、第1像21を撮影することにより、道路100を進行方向D1に沿って通行する1または複数の車両101を、各車両101の前方側から撮影する。道路100のうち、第1撮影部11によって撮影されるエリアが、第1計測エリア2である。   The first photographing unit 11 is provided for photographing the first image 21. The first image 21 is an image of the first measurement area 2 viewed from the front side of the first measurement area 2 in the traveling direction D1. The first imaging unit 11 captures the first image 21 to capture one or more vehicles 101 that pass along the traveling direction D <b> 1 on the road 100 from the front side of each vehicle 101. An area photographed by the first photographing unit 11 in the road 100 is a first measurement area 2.

第1撮影部11は、入射された像を撮影することにより、第1画像データを生成する。第1撮影部11は、たとえば、CCD(Charge Coupled Device)カメラ、または、CMOS(Complementary Metal Oxide Semiconductor)カメラなどである。第1撮影部11は、たとえば、幅方向W1における門型柱100aの中央部に配置されている。   The first imaging unit 11 generates first image data by capturing an incident image. The first imaging unit 11 is, for example, a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera. The first imaging unit 11 is disposed, for example, at the center of the portal column 100a in the width direction W1.

第1撮影部11は、門型柱100aの梁部に支持されたケース13と、ケース13に支持された入射部14と、を有している。   The first imaging unit 11 includes a case 13 supported by the beam portion of the portal column 100 a and an incident unit 14 supported by the case 13.

ケース13は、一方向に細長い箱形形状に形成されている。ケース13は、進行方向D1と反対に進むに従い、下方に進むように配置された状態で、図示しないブラケットなどを用いて門型柱100aに固定されている。進行方向D1におけるケース13の前端部からは、画像データなどを出力するためのケーブル(図示せず)が延びている。このケーブルは、門型柱100aを通って、車両感知部5に接続されている。進行方向D1におけるケース13の後端部に、入射部14が配置されている。   The case 13 is formed in a box shape elongated in one direction. The case 13 is fixed to the portal column 100a using a bracket or the like (not shown) in a state where the case 13 is disposed so as to proceed downward as it proceeds in the direction opposite to the traveling direction D1. A cable (not shown) for outputting image data or the like extends from the front end of the case 13 in the traveling direction D1. This cable is connected to the vehicle sensing unit 5 through the portal column 100a. An incident portion 14 is disposed at the rear end portion of the case 13 in the traveling direction D1.

入射部14は、光が入射される部分として設けられており、たとえば、レンズによって構成されている。入射部14は、進行方向D1とは反対側に進むに従い下方に延びるように、すなわち、後斜め下を向いており、道路100の路面と向かい合っている。入射部14に入射された像は、第1撮影部11に含まれる撮像素子に入射される。第1撮影部11は、撮像素子などによって生成された画像データを、第1画像データとして、車両感知部5へ出力する。第1撮影部11に隣接するように、第2撮影部12が配置されている。   The incident part 14 is provided as a part into which light is incident, and is configured by, for example, a lens. Incident portion 14 extends downward as it proceeds in the direction opposite to traveling direction D <b> 1, i.e., it faces diagonally downward and faces the road surface of road 100. The image incident on the incident unit 14 is incident on the image sensor included in the first imaging unit 11. The first photographing unit 11 outputs the image data generated by the image sensor or the like to the vehicle sensing unit 5 as first image data. A second imaging unit 12 is arranged so as to be adjacent to the first imaging unit 11.

第2撮影部12は、第2像22を撮影するために設けられている。第2像22は、第2計測エリア3を進行方向D1における第2計測エリア3の後方側から見た像である。第2撮影部12は、第2像22を撮影することにより、道路100を進行方向D1に沿って通行する1または複数の車両101を、各車両101の後方側から撮影する。道路100のうち、第2撮影部12によって撮影されるエリアが、第2計測エリア3である。   The second photographing unit 12 is provided for photographing the second image 22. The second image 22 is an image of the second measurement area 3 viewed from the rear side of the second measurement area 3 in the traveling direction D1. The second imaging unit 12 captures the second image 22 to capture one or more vehicles 101 that pass along the road 100 along the traveling direction D1 from the rear side of each vehicle 101. An area photographed by the second photographing unit 12 in the road 100 is the second measurement area 3.

第2撮影部12は、入射された像を撮影することにより、第2画像データを生成する。第2撮影部12は、第1撮影部11と同様に、たとえば、CCDカメラ、または、CMOSカメラなどである。第2撮影部12は、たとえば、幅方向W1における門型柱100aの中央部に配置されている。   The second imaging unit 12 generates second image data by capturing an incident image. The second imaging unit 12 is, for example, a CCD camera or a CMOS camera, like the first imaging unit 11. The 2nd imaging | photography part 12 is arrange | positioned at the center part of the portal column 100a in the width direction W1, for example.

第2撮影部12および第1撮影部11は、進行方向D1における位置が、実質的に揃えられている。また、第2撮影部12および第1撮影部11は、進行方向D1に関して互いに反対向きに配置されている。   The positions of the second photographing unit 12 and the first photographing unit 11 in the traveling direction D1 are substantially aligned. Moreover, the 2nd imaging | photography part 12 and the 1st imaging | photography part 11 are arrange | positioned in the mutually opposite direction regarding the advancing direction D1.

第2撮影部12は、門型柱100aの梁部に支持されたケース15と、ケース15に支持された入射部16と、を有している。   The second imaging unit 12 includes a case 15 supported by the beam part of the portal column 100a and an incident part 16 supported by the case 15.

ケース15は、一方向に細長い箱形形状に形成されている。ケース15は、進行方向D1に進むに従い、下方に進むように配置された状態で、図示しないブラケットなどを用いて門型柱100aに固定されている。進行方向D1におけるケース15の後端部からは、画像データなどを出力するためのケーブル(図示せず)が延びている。このケーブルは、門型柱100aを通って、車両感知部5に接続されている。進行方向D1におけるケース13の前端部に、入射部16が配置されている。   The case 15 is formed in a box shape that is elongated in one direction. The case 15 is fixed to the portal column 100a using a bracket or the like (not shown) in a state where the case 15 is disposed so as to proceed downward as it proceeds in the traveling direction D1. A cable (not shown) for outputting image data or the like extends from the rear end of the case 15 in the traveling direction D1. This cable is connected to the vehicle sensing unit 5 through the portal column 100a. An incident portion 16 is disposed at the front end portion of the case 13 in the traveling direction D1.

入射部16は、光が入射される部分として設けられており、たとえば、レンズによって構成されている。入射部16は、進行方向D1に進むに従い下方に延びるように、すなわち、前斜め下を向いており、道路100の路面と向かい合っている。入射部16に入射された像は、第2撮影部12に含まれる撮像素子に入射される。第2撮影部12は、撮像素子などによって生成された画像データを、第2画像データとして、車両感知部5へ出力する。   The incident portion 16 is provided as a portion where light is incident, and is configured by, for example, a lens. The incident portion 16 extends downward as it proceeds in the traveling direction D <b> 1, that is, faces obliquely downward and faces the road surface of the road 100. The image incident on the incident unit 16 is incident on the image sensor included in the second imaging unit 12. The second photographing unit 12 outputs the image data generated by the image sensor or the like to the vehicle sensing unit 5 as second image data.

次に、車両感知部5の構成について説明する。図2は、車両感知部5の機能ブロック図である。図1(a)および図2に示すように、車両感知部5は、道路100の脇において、門型柱100aに隣接して配置されており、撮影装置4とは電気的に接続されている。また、車両感知部5は、中央処理装置102と通信回線などを介して電気的に接続されている。車両感知部5は、車両感知結果と、各撮影部11,12からの画像データとを、中央処理装置102へ出力する。中央処理装置102は、たとえば、交通管制センターなどである。   Next, the configuration of the vehicle sensing unit 5 will be described. FIG. 2 is a functional block diagram of the vehicle sensing unit 5. As shown in FIG. 1A and FIG. 2, the vehicle sensing unit 5 is disposed on the side of the road 100 and adjacent to the portal column 100 a and is electrically connected to the imaging device 4. . Further, the vehicle sensing unit 5 is electrically connected to the central processing unit 102 via a communication line or the like. The vehicle detection unit 5 outputs the vehicle detection result and the image data from each of the imaging units 11 and 12 to the central processing unit 102. The central processing unit 102 is, for example, a traffic control center.

車両感知部5は、第1撮影部11の撮影によって生成された第1画像データと、第2撮影部12の撮影によって生成された第2画像データと、を基に、車両101の感知処理を行う。本実施の形態では、車両感知部5は、各計測エリア2,3のそれぞれについて、車両101の有無、各車両101の速度、および各車両101の台数を感知可能に構成されている。車両感知部5は、CPU、RAM、およびROMなどを含むコンピュータとしての構成を有している。   The vehicle sensing unit 5 performs the sensing process of the vehicle 101 based on the first image data generated by the imaging of the first imaging unit 11 and the second image data generated by the imaging of the second imaging unit 12. Do. In the present embodiment, the vehicle sensing unit 5 is configured to sense the presence / absence of the vehicle 101, the speed of each vehicle 101, and the number of each vehicle 101 for each of the measurement areas 2 and 3. The vehicle sensing unit 5 has a configuration as a computer including a CPU, a RAM, a ROM, and the like.

車両感知部5は、第1画像入力部31と、第1画像感知処理部32と、第2画像入力部33と、第2画像感知処理部34と、選択部35と、感知データ伝送部36と、計時部37と、メンテナンス情報入力部38と、画像データ伝送部39と、を有している。第1画像感知処理部32は、CPUを用いて構成されており、第2画像感知処理部34は、第1画像感知処理部32とは異なるCPUを用いて構成されている。このように、2つのCPUを用いて、第1画像感知処理部32と、第2画像感知処理部34とが構成されている。   The vehicle detection unit 5 includes a first image input unit 31, a first image detection processing unit 32, a second image input unit 33, a second image detection processing unit 34, a selection unit 35, and a detection data transmission unit 36. A timing unit 37, a maintenance information input unit 38, and an image data transmission unit 39. The first image detection processing unit 32 is configured using a CPU, and the second image detection processing unit 34 is configured using a CPU different from the first image detection processing unit 32. As described above, the first image detection processing unit 32 and the second image detection processing unit 34 are configured using two CPUs.

第1画像入力部31には、第1撮影部11で生成された第1画像データが入力される。第1画像入力部31は、第1画像データを、画像データ伝送部39へ出力する。   The first image data generated by the first imaging unit 11 is input to the first image input unit 31. The first image input unit 31 outputs the first image data to the image data transmission unit 39.

また、第1画像入力部31は、第1画像データを第1画像感知処理部32へ出力する。第1画像感知処理部32は、第1処理部として設けられており、第1画像データに基づいて、第1計測エリア2を通行する各車両101の感知処理を行う。   The first image input unit 31 outputs the first image data to the first image detection processing unit 32. The first image sensing processing unit 32 is provided as a first processing unit, and performs sensing processing of each vehicle 101 passing through the first measurement area 2 based on the first image data.

第1画像感知処理部32は、車頭点検出部41と、第1計測部42と、を有している。   The first image detection processing unit 32 includes a vehicle head point detection unit 41 and a first measurement unit 42.

車頭点検出部41は、第1像21を撮影して得られた第1画像データを基に、各車両101の車頭(前端)点を検出する。具体的には、たとえば、第1画像データは、M1×N1個の座標(i1,j1)の各点における、画像信号の各輝度P1(i1,j1)を含んでいる。座標(i1,j1)は、道路100の幅方向W1に沿ったM1個のサンプル点、および道路100の進行方向D1に沿ったN1個のサンプル点から決定される座標である。   The vehicle head point detector 41 detects the vehicle head (front end) point of each vehicle 101 based on the first image data obtained by photographing the first image 21. Specifically, for example, the first image data includes each luminance P1 (i1, j1) of the image signal at each point of M1 × N1 coordinates (i1, j1). The coordinates (i1, j1) are coordinates determined from M1 sample points along the width direction W1 of the road 100 and N1 sample points along the traveling direction D1 of the road 100.

そして、車頭点検出部41は、第1画像データに対して、空間微分処理を施すことで、各輝度P1(i1,j1)の微分P1’(i1,j1)を求める。さらに、車頭点検出部41は、空間微分処理された全画素を二値化する。すなわち、微分P1’(i1,j1)が所定のしきい値以上であれば、P1’(i1,j1)=1に設定し、微分P1’(i1,j1)が所定のしきい値未満であれば、P1’(i1,j1)=0に設定する。さらに、車頭点検出部41は、微分P1’(i1,j1)の分布などに基づいて、車両101の車頭点を検出する。車頭点検出部41は、検出した車頭点を特定する車頭点データを、第1計測部42へ出力する。   Then, the vehicle head point detection unit 41 obtains a differential P1 ′ (i1, j1) of each luminance P1 (i1, j1) by performing a spatial differential process on the first image data. Further, the vehicle head point detection unit 41 binarizes all pixels subjected to the spatial differentiation process. That is, if the derivative P1 ′ (i1, j1) is greater than or equal to a predetermined threshold, P1 ′ (i1, j1) = 1 is set, and the derivative P1 ′ (i1, j1) is less than the predetermined threshold. If there is, P1 ′ (i1, j1) = 0 is set. Further, the vehicle head point detection unit 41 detects the vehicle head point of the vehicle 101 based on the distribution of the differential P1 ′ (i1, j1) and the like. The vehicle head point detection unit 41 outputs vehicle head point data specifying the detected vehicle head point to the first measurement unit 42.

第1計測部42は、車頭点検出部41によって車両101の車頭点が検出された場合、第1計測エリア2に車両101が存在していると感知する。この場合、第1計測部42は、存在を感知した車両101の車頭点の位置変化を計測することで、第1計測エリア2における車両101の速度を感知する。さらに、第1計測部42は、車両101の通行台数(交通量)を感知する。第1計測部42は、これらの感知結果を示す第1感知データを、選択部35へ出力する。   The first measurement unit 42 senses that the vehicle 101 is present in the first measurement area 2 when the vehicle head point detection unit 41 detects the vehicle head point of the vehicle 101. In this case, the first measurement unit 42 senses the speed of the vehicle 101 in the first measurement area 2 by measuring the position change of the head point of the vehicle 101 that senses the presence. Further, the first measurement unit 42 senses the number of vehicles 101 (traffic volume). The first measurement unit 42 outputs first sensing data indicating these sensing results to the selection unit 35.

第2画像入力部33には、第2撮影部12で生成された第2画像データが入力される。第2画像入力部33は、第2画像データを、画像データ伝送部39へ出力する。   The second image data generated by the second imaging unit 12 is input to the second image input unit 33. The second image input unit 33 outputs the second image data to the image data transmission unit 39.

また、第2画像入力部33は、第2画像データを第2画像感知処理部34へ出力する。第2画像感知処理部34は、第2処理部として設けられており、第2画像データに基づいて、第2計測エリア3を通行する各車両101の感知処理を行う。   Further, the second image input unit 33 outputs the second image data to the second image detection processing unit 34. The second image sensing processing unit 34 is provided as a second processing unit, and performs sensing processing for each vehicle 101 passing through the second measurement area 3 based on the second image data.

本実施の形態では、第1画像感知処理部32と、第2画像感知処理部34という、2つの画像感知処理部が設けられている。これにより、第1画像感知処理部32による車両101の感知処理と、第2画像感知処理部34による車両101の感知処理とは、並行して行われる。   In the present embodiment, two image detection processing units, a first image detection processing unit 32 and a second image detection processing unit 34, are provided. Thereby, the sensing process of the vehicle 101 by the first image sensing processor 32 and the sensing process of the vehicle 101 by the second image sensing processor 34 are performed in parallel.

第2画像感知処理部34は、車尾点検出部43と、第2計測部44と、を有している。   The second image detection processing unit 34 includes a vehicle tail point detection unit 43 and a second measurement unit 44.

車尾点検出部43は、車頭点検出部41と同様にして、車尾点を検出する。具体的には、車尾点検出部43は、第2像22を撮影して得られた第2画像データを基に、各車両101の車尾(後端)点を検出する。たとえば、第2計測エリア3の画像データは、M2×N2個の座標(i2,j2)の各点における、画像信号の各輝度P2(i2,j2)を含んでいる。座標(i2,j2)は、道路100の幅方向W1に沿ったM2個のサンプル点、および道路100の進行方向D1に沿ったN2個のサンプル点から決定される座標である。   The vehicle tail point detector 43 detects the vehicle tail point in the same manner as the vehicle head point detector 41. Specifically, the vehicle tail point detector 43 detects the vehicle rear (rear end) point of each vehicle 101 based on the second image data obtained by photographing the second image 22. For example, the image data of the second measurement area 3 includes each luminance P2 (i2, j2) of the image signal at each point of M2 × N2 coordinates (i2, j2). The coordinates (i2, j2) are coordinates determined from M2 sample points along the width direction W1 of the road 100 and N2 sample points along the traveling direction D1 of the road 100.

そして、車尾点検出部43は、第2画像データに対して、空間微分処理を施すことで、各輝度P2(i2、j2)の微分P2’(i2,j2)を求める。さらに、車尾点検出部43は、空間微分処理された全画素を二値化する。すなわち、微分P2’(i2,j2)が所定のしきい値以上であれば、P2’(i2,j2)=1に設定し、微分P2’(i2,j2)が所定のしきい値未満であれば、P2’(i2,j2)=0に設定する。さらに、車尾点検出部43は、微分P2’(i2,j2)の分布などに基づいて、車両101の車尾点を検出する。車尾点検出部43は、検出した車尾点を特定する車尾点データを、第2計測部44へ出力する。   Then, the vehicle tail point detection unit 43 performs a spatial differentiation process on the second image data to obtain a differential P2 ′ (i2, j2) of each luminance P2 (i2, j2). Further, the vehicle tail point detection unit 43 binarizes all the pixels subjected to the spatial differentiation process. That is, if the derivative P2 ′ (i2, j2) is equal to or greater than a predetermined threshold, P2 ′ (i2, j2) = 1 is set, and the derivative P2 ′ (i2, j2) is less than the predetermined threshold. If there is, P2 ′ (i2, j2) = 0 is set. Further, the vehicle tail point detection unit 43 detects the vehicle tail point of the vehicle 101 based on the distribution of the derivative P2 ′ (i2, j2) and the like. The vehicle rear point detection unit 43 outputs vehicle rear point data for specifying the detected vehicle rear point to the second measurement unit 44.

第2計測部44は、車尾点検出部43によって車両101の車尾点が検出された場合、第2計測エリア3に車両101が存在していると感知する。この場合、第2計測部44は、存在を感知した車両101の車尾点の位置変化を計測することで、第2計測エリア3における車両101の速度を感知する。さらに、第2計測部44は、車両101の通行台数(交通量)を感知する。第2計測部44は、これらの感知結果を示す第2感知データを選択部35へ出力する。   The second measurement unit 44 senses that the vehicle 101 is present in the second measurement area 3 when the vehicle tail point of the vehicle 101 is detected by the vehicle tail point detection unit 43. In this case, the second measurement unit 44 senses the speed of the vehicle 101 in the second measurement area 3 by measuring a change in the position of the tail point of the vehicle 101 that has sensed the presence. Furthermore, the second measuring unit 44 senses the number of vehicles 101 (traffic volume). The second measuring unit 44 outputs second sensing data indicating these sensing results to the selecting unit 35.

選択部35は、第1画像感知処理部32における感知処理結果、および第2画像感知処理部34にける感知処理結果の何れを出力するかを選択可能に構成されている。すなわち、選択部35は、第1感知データおよび第2感知データの何れを出力するかを選択可能に構成されている。   The selection unit 35 is configured to be able to select which of the detection processing result in the first image detection processing unit 32 and the detection processing result in the second image detection processing unit 34 is output. That is, the selection unit 35 is configured to be able to select which of the first sensing data and the second sensing data is output.

選択部35は、計時部37の時刻情報、または、メンテナンス情報入力部38に入力されたメンテナンス情報を基に、第1感知データおよび第2感知データの何れを出力するか、選択する。   The selection unit 35 selects which of the first sensing data and the second sensing data is output based on the time information of the time measuring unit 37 or the maintenance information input to the maintenance information input unit 38.

計時部37は、たとえば、時計であり、画像式車両感知器1の設置場所における時刻情報を有している。計時部37は、選択部35に接続されている。選択部35は、計時部37の時刻情報を読込むことにより、時刻を判定する。   The timer 37 is, for example, a clock, and has time information at the place where the image type vehicle detector 1 is installed. The timer 37 is connected to the selector 35. The selector 35 determines the time by reading the time information of the timer 37.

現在時刻が第1撮影期間内の時刻である場合、選択部35は、第1感知データを、感知データ伝送部36へ出力する。なお、第1撮影期間は、第1画像データで特定される第1画像における朝日の強さ(照度)よりも、第2画像データで特定される第2画像における朝日の強さが大きい期間を含む。選択部35は、午前の所定の時間帯を含む時間帯を、第1撮影期間として設定する。午前の所定の時間帯とは、前述した、朝日が昇る時間帯である。   When the current time is a time within the first imaging period, the selection unit 35 outputs the first sensing data to the sensing data transmission unit 36. The first photographing period is a period in which the intensity of the morning sun in the second image specified by the second image data is greater than the intensity (illuminance) of the morning sun in the first image specified by the first image data. Including. The selection unit 35 sets a time zone including a predetermined morning time zone as the first imaging period. The predetermined time zone in the morning is the time zone in which the morning sun rises as described above.

一方、現在時刻が第2撮影期間内の時刻である場合、選択部35は、第2感知データを、感知データ伝送部36へ出力する。なお、第2撮影期間は、第2画像データで特定される第2画像における夕日の強さよりも、第1画像データで特定される第1画像における夕日の強さが大きい期間を含む。選択部35は、午後の所定の時間帯を、第2撮影期間として設定する。午前の所定の時間帯とは、前述した、夕日が沈む時間帯である。第2撮影期間以外の期間は、第1撮影期間として設定される。   On the other hand, when the current time is a time within the second shooting period, the selection unit 35 outputs the second sensing data to the sensing data transmission unit 36. The second shooting period includes a period in which the sunset intensity in the first image specified by the first image data is larger than the sunset intensity in the second image specified by the second image data. The selection unit 35 sets a predetermined afternoon time zone as the second imaging period. The predetermined time zone in the morning is the time zone in which the sunset is set as described above. A period other than the second shooting period is set as the first shooting period.

また、選択部35には、メンテナンス情報入力部38が接続されている。メンテナンス情報入力部38は、たとえば、中央処理装置102に接続されている。中央処理装置102からメンテナンス情報入力部38へ、撮影装置4に関するメンテナンス情報が出力される。なお、本実施の形態において、「メンテナンス」とは、第1撮影部11および第2撮影部12のそれぞれについて、清掃することと、向きまたは位置を調整することと、異常の有無を確認することの、少なくとも一つを含む。   A maintenance information input unit 38 is connected to the selection unit 35. The maintenance information input unit 38 is connected to the central processing unit 102, for example. Maintenance information related to the imaging device 4 is output from the central processing unit 102 to the maintenance information input unit 38. In the present embodiment, “maintenance” refers to cleaning, adjusting the orientation or position of each of the first imaging unit 11 and the second imaging unit 12, and confirming whether there is an abnormality. Of at least one.

メンテナンス情報は、中央処理装置102からメンテナンス情報入力部38へ出力される。このメンテナンス情報は、たとえば、オペレータが図示しない出力装置を操作することで出力される。メンテナンス情報は、第1撮影部11または第2撮影部12について、メンテナンスが行われることを示す情報を含む。たとえば、各撮影部11,12で撮影された画像に異常、または一定以上の汚れが生じていることを、オペレータなどが確認した場合に、メンテナンス情報が出力される。   Maintenance information is output from the central processing unit 102 to the maintenance information input unit 38. This maintenance information is output, for example, when the operator operates an output device (not shown). The maintenance information includes information indicating that maintenance is performed on the first imaging unit 11 or the second imaging unit 12. For example, the maintenance information is output when an operator or the like confirms that the images photographed by the photographing units 11 and 12 are abnormal or have a certain level of dirt.

すなわち、第1撮影部11をメンテナンスすることをオペレータなどが決定した場合、第1撮影部11をメンテナンスすることを示す情報は、中央処理装置102からメンテナンス情報入力部38へ出力される。この情報は、第1撮影部11をメンテナンスする期間としての第2メンテナンス期間がいつであるかという情報を含んでいる。また、第2撮影部12をメンテナンスする必要があるとオペレータなどが決定した場合、第2撮影部12をメンテナンスすることを示す情報は、中央処理装置102からメンテナンス情報入力部38へ出力される。この情報は、第2撮影部12をメンテナンスする期間としての第1メンテナンス期間がいつであるかという情報を含んでいる。   That is, when an operator or the like decides to maintain the first imaging unit 11, information indicating that the first imaging unit 11 is maintained is output from the central processing unit 102 to the maintenance information input unit 38. This information includes information indicating when the second maintenance period as a period for maintaining the first imaging unit 11 is. Further, when an operator or the like determines that the second imaging unit 12 needs to be maintained, information indicating that the second imaging unit 12 is maintained is output from the central processing unit 102 to the maintenance information input unit 38. This information includes information on when the first maintenance period as a period for maintaining the second imaging unit 12 is.

なお、メンテナンス情報は、中央処理装置102に設けられた装置などによって、定期的にメンテナンス情報入力部38へ出力されてもよい。   The maintenance information may be periodically output to the maintenance information input unit 38 by an apparatus provided in the central processing unit 102 or the like.

メンテナンス情報入力部38へ出力されたメンテナンス情報は、メンテナンス情報入力部38から選択部35へ出力される。選択部35は、与えられたメンテナンス情報を読込む。選択部35は、第1メンテナンス期間に該当している期間の間、第1感知データを、感知データ伝送部36へ出力する。一方、選択部35は、第2メンテナンス期間に該当している期間の間、第2感知データを、感知データ伝送部36へ出力する。   The maintenance information output to the maintenance information input unit 38 is output from the maintenance information input unit 38 to the selection unit 35. The selection unit 35 reads the given maintenance information. The selection unit 35 outputs the first sensing data to the sensing data transmission unit 36 during a period corresponding to the first maintenance period. On the other hand, the selection unit 35 outputs the second sensing data to the sensing data transmission unit 36 during the period corresponding to the second maintenance period.

なお、以下では、第1撮影期間および第1メンテナンス期間を総称していう場合、「第1期間」という。また、第2撮影期間および第2メンテナンス期間を総称していう場合、「第2期間」という。   Hereinafter, the first imaging period and the first maintenance period are collectively referred to as “first period”. In addition, the second imaging period and the second maintenance period are collectively referred to as “second period”.

上記のようにして、感知データ伝送部36へ出力された第1感知データまたは第2感知データは、感知データ伝送部36から中央処理装置102へ出力される。中央処理装置102は、感知データ伝送部36に接続されているとともに、画像データ伝送部39に接続されている。   As described above, the first sensing data or the second sensing data output to the sensing data transmission unit 36 is output from the sensing data transmission unit 36 to the central processing unit 102. The central processing unit 102 is connected to the sensing data transmission unit 36 and is also connected to the image data transmission unit 39.

画像データ伝送部39は、前述したように、第1画像入力部31および第2画像入力部33に接続されている。画像データ伝送部39は、第1画像データおよび第2画像データの少なくとも一方を中央処理装置102へ出力する画像データ出力部として設けられている。画像データ伝送部39は、たとえば、中央処理装置102からの指令信号に基づいて、第1画像データおよび第2画像データの少なくとも一方を中央処理装置102へ出力する。   As described above, the image data transmission unit 39 is connected to the first image input unit 31 and the second image input unit 33. The image data transmission unit 39 is provided as an image data output unit that outputs at least one of the first image data and the second image data to the central processing unit 102. For example, the image data transmission unit 39 outputs at least one of the first image data and the second image data to the central processing unit 102 based on a command signal from the central processing unit 102.

中央処理装置102には、オペレータが目視可能なモニター(図示せず)が備えられている。中央処理装置102へ出力された画像データは、モニターへ出力され、その結果、モニターには、第1像21および第2像22の少なくとも一方が表示される。   The central processing unit 102 is provided with a monitor (not shown) that can be viewed by an operator. The image data output to the central processing unit 102 is output to the monitor. As a result, at least one of the first image 21 and the second image 22 is displayed on the monitor.

[画像式車両感知器における車両感知動作]
図3は、本発明の第1実施形態に係る画像式車両感知器1における車両感知動作について説明するためのフローチャートである。画像式車両感知器1は、以下に示す各フローチャートの各ステップを図示しないメモリから読み出して実行する。このプログラムは、外部からインストールできる。このインストールされるプログラムは、たとえば記録媒体に格納された状態で流通する。
[Vehicle sensing operation in image type vehicle detector]
FIG. 3 is a flowchart for explaining a vehicle sensing operation in the image type vehicle sensor 1 according to the first embodiment of the present invention. The image type vehicle sensor 1 reads out each step of each flowchart shown below from a memory (not shown) and executes it. This program can be installed externally. The installed program is distributed in a state stored in a recording medium, for example.

車両感知動作について、図3に加えて、適宜、図1および図2を参照しつつ説明する。第1撮影部11の撮影動作によって生成された第1画像データは、第1画像入力部31へ出力され、さらに、第1画像入力部31から車頭点検出部41へ出力される(ステップS11)。この処理と並行して、第2撮影部12の撮影動作によって生成された第2画像データは、第2画像入力部33へ出力され、さらに、第2画像入力部33から車尾点検出部43へ出力される(ステップS11)。   The vehicle sensing operation will be described with reference to FIGS. 1 and 2 as appropriate in addition to FIG. The first image data generated by the imaging operation of the first imaging unit 11 is output to the first image input unit 31, and further output from the first image input unit 31 to the vehicle head point detection unit 41 (step S11). . In parallel with this processing, the second image data generated by the photographing operation of the second photographing unit 12 is output to the second image input unit 33, and further from the second image input unit 33 to the vehicle tail point detection unit 43. (Step S11).

車頭点検出部41は、第1画像データを読み込み、前述した空間微分処理などを施すことにより、各車両101の車頭点を検出する(ステップS12)この処理と並行して、車尾点検出部43は、第2画像データを読み込み、前述した空間微分処理などを施すことにより、各車両101の車尾点を検出する(ステップS12)。   The vehicle head point detection unit 41 reads the first image data and performs the above-described spatial differentiation process to detect the vehicle head point of each vehicle 101 (step S12). In parallel with this process, the vehicle head point detection unit 43 detects the tail point of each vehicle 101 by reading the second image data and performing the above-described spatial differentiation process or the like (step S12).

次に、第1計測部42は、検出された車頭点の変化などに基づいて、各車両101の存在の有無、各車両101の速度、および車両101の台数を感知する感知処理を行い、第1感知データを生成する(ステップS13)。この処理と並行して、第2計測部44は、検出された車尾点の変化などに基づいて、各車両101の存在の有無、各車両101の速度、および車両101の台数を感知する感知処理を行い、第2感知データを生成する(ステップS13)。   Next, the first measurement unit 42 performs a sensing process for sensing the presence / absence of each vehicle 101, the speed of each vehicle 101, and the number of vehicles 101 based on the detected change in the vehicle head point, etc. 1 sense data is generated (step S13). In parallel with this processing, the second measuring unit 44 senses the presence / absence of each vehicle 101, the speed of each vehicle 101, and the number of vehicles 101 based on the detected change in the tail point of the vehicle. Processing is performed to generate second sensing data (step S13).

次に、選択部35は、現在時刻が第1期間および第2期間の何れの期間であるかを判定する(ステップS14)。   Next, the selection unit 35 determines whether the current time is the first period or the second period (step S14).

現在時刻が第1期間である場合、すなわち、第1撮影期間、または第1メンテナンス期間である場合(ステップS14で第1期間)、選択部35は、第1計測部42で生成された第1感知データを、感知データ伝送部36へ出力する。感知データ伝送部36は、第1感知データを、中央処理装置102へ出力する(ステップS15)。   When the current time is the first period, that is, when it is the first imaging period or the first maintenance period (the first period in step S14), the selection unit 35 generates the first generated by the first measurement unit 42. The sensing data is output to the sensing data transmission unit 36. The sense data transmission unit 36 outputs the first sense data to the central processing unit 102 (step S15).

一方、現在時刻が第2期間である場合、すなわち、第2撮影期間、または第2メンテナンス期間である場合(ステップS14で第2期間)、選択部35は、第2計測部44で生成された第2感知データを、感知データ伝送部36へ出力する。感知データ伝送部36は、第2感知データを、中央処理装置102へ出力する(ステップS16)。   On the other hand, when the current time is the second period, that is, when it is the second imaging period or the second maintenance period (the second period in step S14), the selection unit 35 is generated by the second measurement unit 44. The second sensing data is output to the sensing data transmission unit 36. The sensing data transmission unit 36 outputs the second sensing data to the central processing unit 102 (step S16).

なお、ステップS14において、第1撮影期間と第2メンテナンス期間とが重複する場合、または、第2撮影期間と第1メンテナンス期間とが重複する場合が考えられる。この場合には、たとえば、メンテナンス期間を優先して、すなわち、メンテナンス期間を基準に、第1期間および第2期間の何れであるかが判定される。   In step S14, a case where the first imaging period and the second maintenance period overlap, or a case where the second imaging period and the first maintenance period overlap may be considered. In this case, for example, the maintenance period is prioritized, that is, whether the first period or the second period is determined based on the maintenance period.

[画像式車両感知器の設置作業]
図1(a)および図1(b)に示すように、画像式車両感知器1を道路100に設置する場合、まず、門型柱100aに、撮影装置4を設置する。さらに、路肩100bに車両感知部5を設置する。次に、撮影部11,12のそれぞれについて、道路100に対する向きなど、計測エリア2,3の範囲を調整する。この調整の際に、道路100の各車線間の区分、各車線の撮影倍率も調整する。
[Installation work of image type vehicle detector]
As shown in FIG. 1A and FIG. 1B, when the image type vehicle detector 1 is installed on the road 100, first, the photographing device 4 is installed on the portal column 100a. Further, the vehicle sensing unit 5 is installed on the road shoulder 100b. Next, the ranges of the measurement areas 2 and 3 such as the direction with respect to the road 100 are adjusted for each of the imaging units 11 and 12. During this adjustment, the section between the lanes of the road 100 and the shooting magnification of each lane are also adjusted.

次に、各撮影部11,12を起動し、各撮影部11,12で撮影された画像などを確認する。その後、複数の車両101を試験的に走行させる。そして、これらの車両101を感知することで得られる、車両101の平均速度、走行台数、および車種の評価などを行い、必要に応じて、各種パラメータの調整を行う。これにより、画像式車両感知器1の設置作業が完了する。   Next, each imaging unit 11, 12 is activated, and images taken by each imaging unit 11, 12 are confirmed. Thereafter, the plurality of vehicles 101 are run on a trial basis. Then, evaluation of the average speed, the number of vehicles traveling, and the vehicle type obtained by sensing these vehicles 101 is performed, and various parameters are adjusted as necessary. Thereby, the installation work of the image type vehicle detector 1 is completed.

以上説明したように、本発明の実施の形態に係る画像式車両感知器では、選択部35は、第1画像感知処理部32における感知処理結果と、第2画像感知処理部34における感知処理結果の何れを出力するかを選択可能である。すなわち、選択部35は、第1画像データを用いた感知処理結果と、第2画像データを用いた感知処理結果の何れを出力するかを選択可能である。これにより、第1画像データおよび第2画像データの何れか一方の画像データについて、車両感知を行うことができない状態であっても、他方の画像データを用いて、車両感知処理を行うことができる。これにより、車両を感知するための処理の中断を抑制することができる。たとえば、第1撮影部11について、清掃作業が行われる場合でも、第2撮影部12を用いて、第2画像データを得ることができる。同様に、たとえば、第2撮影部12について、清掃作業が行われる場合でも、第1撮影部11を用いて、第1画像データを得ることができる。したがって、車両101を感知するための処理の中断を抑制できる画像式車両感知器を実現できる。   As described above, in the image type vehicle sensor according to the embodiment of the present invention, the selection unit 35 includes the detection processing result in the first image detection processing unit 32 and the detection processing result in the second image detection processing unit 34. Which of these can be output can be selected. That is, the selection unit 35 can select which of the sensing process result using the first image data and the sensing process result using the second image data is to be output. As a result, even if one of the first image data and the second image data is in a state where vehicle detection cannot be performed, vehicle detection processing can be performed using the other image data. . Thereby, the interruption of the process for detecting a vehicle can be suppressed. For example, even when the first photographing unit 11 is cleaned, the second image data can be obtained using the second photographing unit 12. Similarly, for example, even when the second photographing unit 12 is cleaned, the first image data can be obtained using the first photographing unit 11. Therefore, it is possible to realize an image type vehicle detector that can suppress interruption of processing for detecting the vehicle 101.

さらに、車両101を感知するための処理の中断を抑制することができる理由について、1つの撮影部の向きを変更することにより、この1つの撮影部から第1画像データおよび第2画像データを択一的に受け取る場合と比較して説明する。1つの撮影部から第1画像データおよび第2画像データを択一的に受け取る場合、1つの撮影部から第1画像データを出力する状態と、第2画像データを出力する状態とを切り替えるためには、上記1つの撮影部の向きを変更する時間が必要である。したがって、上記1つの撮影部の向きを変更している間、車両101を感知可能な態様で撮影することができない。このため、車両101を感知するための撮影処理が中断されてしまう。また、1つの撮影部について、レンズを掃除するなどのメンテナンス作業が行われている間も、車両101を感知するための撮影処理が中断されてしまう。さらに、1つの撮影部の向きを変更するための駆動機構に故障が生じた場合には、駆動機構の修理の間、車両101を感知するための撮影処理が中断されてしまう。   Further, regarding the reason why the interruption of the process for sensing the vehicle 101 can be suppressed, the first image data and the second image data are selected from the one photographing unit by changing the direction of one photographing unit. This will be explained in comparison with the case of receiving it as a single unit. In order to selectively receive the first image data and the second image data from one photographing unit, in order to switch between a state in which the first image data is output from one photographing unit and a state in which the second image data is output. Requires time to change the orientation of the one photographing unit. Therefore, the vehicle 101 cannot be photographed in such a manner that the vehicle 101 can be sensed while the direction of the one photographing unit is changed. For this reason, the photographing process for sensing the vehicle 101 is interrupted. In addition, the photographing process for sensing the vehicle 101 is interrupted while a maintenance operation such as cleaning the lens is performed for one photographing unit. Furthermore, when a failure occurs in the drive mechanism for changing the orientation of one photographing unit, the photographing process for sensing the vehicle 101 is interrupted during the repair of the drive mechanism.

これに対し、本発明の実施の形態に係る画像式車両感知器では、第1撮影部11と第2撮影部12から、それぞれ、第1画像データおよび第2画像データを受けることが可能である。このため、第1撮影部11から第1画像データを出力する状態と、第2撮影部12から第2画像データを出力する状態とを切り替える際に、何れの撮影部11,12も変位させる必要がない。したがって、第1画像データを用いて車両感知処理を行う状態と、第2画像データを用いて車両感知処理を行う状態とを切り替えている間に、空白時間が生じずに済む。これにより、車両101を感知するための撮影処理の中断を抑制できる。また、たとえば、第1撮影部11および第2撮影部12のうちの一方について、レンズを掃除するなどのメンテナンス作業が行われている間、他方において、車両101の撮影動作を継続することができる。よって、メンテナンス作業が行われている間においても、車両101を感知するための撮影処理の中断を抑制できる。さらに、撮影部11,12の向きを変更する駆動機構が必要ないので、駆動機構の故障に起因する、撮影処理の中断を抑制できる。   On the other hand, in the image type vehicle sensor according to the embodiment of the present invention, it is possible to receive the first image data and the second image data from the first photographing unit 11 and the second photographing unit 12, respectively. . Therefore, when switching between the state in which the first image data is output from the first image capturing unit 11 and the state in which the second image data is output from the second image capturing unit 12, it is necessary to displace any of the image capturing units 11 and 12. There is no. Therefore, a blank time does not occur while switching between the state in which the vehicle detection process is performed using the first image data and the state in which the vehicle detection process is performed using the second image data. Thereby, the interruption of the imaging process for sensing the vehicle 101 can be suppressed. In addition, for example, while one of the first photographing unit 11 and the second photographing unit 12 is performing a maintenance operation such as cleaning a lens, the photographing operation of the vehicle 101 can be continued on the other. . Therefore, it is possible to suppress interruption of the photographing process for sensing the vehicle 101 even while the maintenance work is being performed. Furthermore, since a drive mechanism that changes the orientation of the photographing units 11 and 12 is not necessary, interruption of the photographing process due to a failure of the drive mechanism can be suppressed.

また、本発明の実施の形態に係る画像式車両感知器では、第1画像感知処理部32および第2画像感知処理部34は、各車両の感知処理を並行して行うことが可能である。そして、選択部35は、第1画像感知処理部32における感知処理結果と、第2画像感知処理部34における感知処理結果の何れかを出力可能である。これにより、第1画像感知処理部32および第2画像感知処理部34の何れか一方による感知処理結果を出力している状態から、他方による感知処理結果を出力する状態への切り替えを、より迅速に行うことができる。その結果、車両101の感知処理結果の欠損を、より少なくすることができる。   Further, in the image type vehicle detector according to the embodiment of the present invention, the first image detection processing unit 32 and the second image detection processing unit 34 can perform the detection processing of each vehicle in parallel. The selection unit 35 can output either the detection processing result in the first image detection processing unit 32 or the detection processing result in the second image detection processing unit 34. As a result, it is possible to more quickly switch from the state in which the detection processing result by one of the first image detection processing unit 32 and the second image detection processing unit 34 is output to the state in which the detection processing result by the other is output. Can be done. As a result, the loss of the sensing processing result of the vehicle 101 can be reduced.

また、本発明の実施の形態に係る画像式車両感知器では、第1画像データおよび第2画像データの少なくとも一方を出力する画像データ伝送部39が設けられている。これにより、第1画像データおよび第2画像データの少なくとも一方を、中央処理装置102に出力することができる。これにより、中央処理装置102のモニターに、道路100の画像を写すことができる。その結果、車両感知のために撮影して得られた第1画像データおよび第2画像データの少なくとも一方を、オペレータの目視による道路監視に用いることもできる。これにより、たとえば、道路100で事故が発生した場合に、道路状況を、第1計測エリア2および第2計測エリア3の少なくとも一方について確認することができる。これにより、第1画像データおよび第2画像データを、オペレータの目視による道路監視に用いるなど、より有効に活用することができる。   In the image type vehicle sensor according to the embodiment of the present invention, an image data transmission unit 39 that outputs at least one of the first image data and the second image data is provided. Thereby, at least one of the first image data and the second image data can be output to the central processing unit 102. Thereby, the image of the road 100 can be copied on the monitor of the central processing unit 102. As a result, at least one of the first image data and the second image data obtained by photographing for vehicle sensing can also be used for road monitoring by an operator's visual observation. Thereby, for example, when an accident occurs on the road 100, the road condition can be confirmed for at least one of the first measurement area 2 and the second measurement area 3. Thereby, the first image data and the second image data can be used more effectively, for example, for road monitoring by visual observation by the operator.

また、本発明の実施の形態に係る画像式車両感知器では、第1計測エリア2を通行する各車両101を各車両101の前方側から撮影するための第1撮影部11と、第2計測エリア3を通行する各車両101を各車両101の後方側から撮影するための第2撮影部12と、が設けられている。これにより、第1撮影部11から、第1撮影部11に撮影される車両101に向かう方向と、第2撮影部12から、第2撮影部12に撮影される車両101に向かう方向とは、道路100の進行方向D1に平行な成分において、反対向きとなる。このため、第1画像データによって特定される第1画像においては日光の写りこみ量が多い場合でも、第2画像データによって特定される第2画像においては日光の写りこみ量が少ない態様で、第2画像を得ることができる。同様に、第2画像データによって特定される第2画像においては日光の写りこみ量が多い場合でも、第1画像データによって特定される第1画像においては日光の写りこみ量が少ない態様で、第1画像を得ることができる。すなわち、朝日が昇る時間帯であれば、第1画像および第2画像のうち、朝日の写りこみ量の少ない第1画像の第1画像データを基に、車両101の感知処理を行うことができる。また、夕日が沈む時間帯であれば、第1画像および第2画像のうち、夕日の写りこみ量の少ない第2画像の第2画像データを基に、車両101の感知処理を行うことができる。これにより、朝日が昇る時間帯、および夕日が沈む時間帯の何れの場合でも、直射日光が過度に写りこむことが抑制された画像の画像データを基に、車両101の感知処理を行うことができる。よって、日光などの強い光に起因する車両感知性能の低下を抑制することができる。さらに、たとえば、第1撮影部11および第2撮影部12の一方が、メンテナンスまたは故障のために車両感知のための撮影を行うことができない場合でも、他方によって、車両感知のための撮影を行うことができる。これにより、車両を感知するための処理の中断を、より確実に抑制できる。   In the image type vehicle sensor according to the embodiment of the present invention, the first photographing unit 11 for photographing each vehicle 101 passing through the first measurement area 2 from the front side of each vehicle 101, and the second measurement. A second imaging unit 12 for imaging each vehicle 101 passing through the area 3 from the rear side of each vehicle 101 is provided. Thus, the direction from the first photographing unit 11 toward the vehicle 101 photographed by the first photographing unit 11 and the direction from the second photographing unit 12 toward the vehicle 101 photographed by the second photographing unit 12 are: The component parallel to the traveling direction D1 of the road 100 is in the opposite direction. Therefore, even if the amount of sunlight reflected in the first image specified by the first image data is large, the amount of sunlight reflected is small in the second image specified by the second image data. Two images can be obtained. Similarly, even if the amount of sunlight reflected in the second image specified by the second image data is large, the amount of sunlight reflected is small in the first image specified by the first image data. One image can be obtained. That is, during the time when the morning sun rises, the sensing process of the vehicle 101 can be performed based on the first image data of the first image of the first image and the second image with a small amount of reflected sunrise. . In addition, during the sunset time, the vehicle 101 can be detected based on the second image data of the second image with the least amount of sunset reflected out of the first image and the second image. . As a result, the vehicle 101 can be detected based on the image data of an image in which direct sunlight is suppressed from being excessively reflected in both the time when the sun rises and the time when the sunset falls. it can. Therefore, it is possible to suppress a decrease in vehicle sensing performance caused by strong light such as sunlight. Furthermore, for example, even when one of the first photographing unit 11 and the second photographing unit 12 cannot perform photographing for vehicle detection due to maintenance or failure, the other photographing is performed for vehicle detection. be able to. Thereby, the interruption of the process for detecting a vehicle can be suppressed more reliably.

また、本発明の実施の形態に係る画像式車両感知器では、第1撮影部11および第2撮影部12は、進行方向D1に関して互いに反対向きに配置されている。これにより、第1撮影部11によって、車両101の車頭(前端)を、より確実に撮影することができる。また、第2撮影部12によって、車両101の車尾(後端)を、より確実に撮影することができる。   Further, in the image type vehicle sensor according to the embodiment of the present invention, the first photographing unit 11 and the second photographing unit 12 are arranged in opposite directions with respect to the traveling direction D1. Accordingly, the first photographing unit 11 can more reliably photograph the vehicle head (front end) of the vehicle 101. In addition, the second photographing unit 12 can photograph the tail (rear end) of the vehicle 101 more reliably.

また、本発明の実施の形態に係る画像式車両感知器では、選択部35は、第1期間においては、第1画像感知処理部32の感知処理結果を出力し、第1期間と異なる第2期間においては、第2画像感知処理部34の感知処理結果を出力する。これにより、第1画像データおよび第2画像データのうち、車両101の感知処理により適した画像データを用いて得られた感知結果を、画像式車両感知器から出力することができる。   In the image type vehicle sensor according to the embodiment of the present invention, the selection unit 35 outputs the detection processing result of the first image detection processing unit 32 in the first period, and is different from the first period. In the period, the detection processing result of the second image detection processing unit 34 is output. As a result, a sensing result obtained using image data more suitable for sensing processing of the vehicle 101 out of the first image data and the second image data can be output from the image type vehicle sensor.

より具体的には、本発明の実施の形態に係る画像式車両感知器では、第1期間は、第1画像データで特定される第1画像における朝日の強さよりも、第2画像データで特定される第2画像における朝日の強さの大きい第1撮影期間を含み、第2期間は、第2画像データで特定される第2画像における夕日の強さよりも、第1画像データで特定される第1画像における夕日の強さの大きい第2撮影期間を含む。これにより、第1撮影期間では、第1像21および第2像22のうち、朝日の写りこみ量がより少ない第1像21を撮影して得られた第1画像データを用いて、車両101の感知処理を行うことができる。その結果、朝日の影響が抑制された状態で、車両101の感知処理を、より精度よく行うことができる。また、第2撮影期間では、第1像21および第2像22のうち、夕日の写りこみ量がより少ない第2像22を撮影して得られた第2画像データを用いて、車両101の感知処理を行うことができる。これにより、夕日の影響が抑制された状態で、車両101の感知処理を、より精度よく行うことができる。   More specifically, in the image type vehicle sensor according to the embodiment of the present invention, the first period is specified by the second image data rather than the strength of the morning sun in the first image specified by the first image data. Including a first shooting period in which the intensity of the morning sun in the second image is large, and the second period is specified by the first image data rather than the intensity of the sunset in the second image specified by the second image data. A second shooting period in which the intensity of sunset in the first image is large is included. Thereby, in the first shooting period, the vehicle 101 is used by using the first image data obtained by shooting the first image 21 of the first image 21 and the second image 22 having a smaller amount of reflected sunrise. Can be detected. As a result, the sensing process of the vehicle 101 can be performed with higher accuracy while the influence of Asahi is suppressed. Further, in the second shooting period, the second image data obtained by shooting the second image 22 of the first image 21 and the second image 22 with a smaller amount of reflected sunset is used. Sensing processing can be performed. Thereby, the sensing process of the vehicle 101 can be performed with higher accuracy while the influence of the sunset is suppressed.

また、本発明の実施の形態に係る画像式車両感知器では、選択部35は、午後の所定の時間帯を含む期間を第2撮影期間として設定する。このように、午後の所定の時間帯を第2期間として設定するという簡易な構成で、夕日の影響が抑制された状態で、車両101の感知処理を行うことができる。すなわち、第1像21および第2像22における夕日の強さなどを測定するという、手間のかかる処理が必要ない。   In the image type vehicle sensor according to the embodiment of the present invention, the selection unit 35 sets a period including a predetermined afternoon time period as the second imaging period. In this way, the sensing process of the vehicle 101 can be performed with a simple configuration in which the predetermined time zone in the afternoon is set as the second period and the influence of the sunset is suppressed. That is, the time-consuming process of measuring the intensity of sunset in the first image 21 and the second image 22 is not necessary.

また、本発明の実施の形態に係る画像式車両感知器では、選択部35は、午前の所定の時間帯を含む期間を第1撮影期間として設定する。このように、午前の所定の時間帯を第1期間として設定するという簡易な構成で、朝日の影響が抑制された状態で、車両101の感知処理を行うことができる。すなわち、第1像21および第2像22における朝日の強さなどを測定するという、手間のかかる処理が必要ない。   Further, in the image type vehicle sensor according to the embodiment of the present invention, the selection unit 35 sets a period including a predetermined morning time period as the first imaging period. In this way, the sensing process of the vehicle 101 can be performed with a simple configuration in which a predetermined time zone in the morning is set as the first period, with the influence of Asahi being suppressed. That is, the time-consuming process of measuring the intensity of the morning sun in the first image 21 and the second image 22 is not necessary.

また、本発明の実施の形態に係る画像式車両感知器では、第1期間は、第2計測エリア3を撮影する第2撮影部12をメンテナンスするための第1メンテナンス期間を含み、第2期間は、第1計測エリア2を撮影する第1撮影部11をメンテナンスするための第2メンテナンス期間を含む。これにより、第1撮影部11をメンテナンスする期間と、第2撮影部12をメンテナンスする期間とを異ならせることができる。したがって、第1撮影部11および第2撮影部12のうちの一方をメンテナンスしている間でも、他方によって、道路100を通行する車両101を撮影することができる。その結果、車両101を感知する処理の中断を、より一層確実に抑制することができる。   In the image-type vehicle detector according to the embodiment of the present invention, the first period includes a first maintenance period for maintaining the second imaging unit 12 that images the second measurement area 3, and the second period. Includes a second maintenance period for maintaining the first imaging unit 11 that images the first measurement area 2. Thereby, the period which maintains the 1st imaging | photography part 11 and the period which maintains the 2nd imaging | photography part 12 can be varied. Therefore, even while one of the first photographing unit 11 and the second photographing unit 12 is being maintained, the other can photograph the vehicle 101 passing through the road 100. As a result, the interruption of the process for sensing the vehicle 101 can be more reliably suppressed.

[第2実施形態]
図4は、本発明の第2実施形態に係る画像式車両感知器の車両感知部5Bの機能ブロック図である。図4に示すように、本発明の第2実施形態に係る画像式車両感知器が、第1実施形態に係る画像式車両感知器と異なっている主な点は、1つの画像感知処理部51によって、車両101の感知処理が行われる点である。
[Second Embodiment]
FIG. 4 is a functional block diagram of the vehicle sensing unit 5B of the image type vehicle sensor according to the second embodiment of the present invention. As shown in FIG. 4, the main difference between the image type vehicle sensor according to the second embodiment of the present invention and the image type vehicle sensor according to the first embodiment is that one image detection processing unit 51. Thus, the sensing process of the vehicle 101 is performed.

車両感知部5Bは、第1画像入力部31と、第2画像入力部33と、選択部52と、画像感知処理部51と、感知データ伝送部36と、計時部37と、メンテナンス情報入力部38と、画像データ伝送部39と、を有している。画像感知処理部51は、たとえば、1つのCPUを用いて構成されている。   The vehicle sensing unit 5B includes a first image input unit 31, a second image input unit 33, a selection unit 52, an image sensing processing unit 51, a sensing data transmission unit 36, a timing unit 37, and a maintenance information input unit. 38 and an image data transmission unit 39. The image sensing processing unit 51 is configured using, for example, one CPU.

第1画像入力部31は、第1撮影部11から出力された第1画像データを、選択部52と、画像データ伝送部39とに出力する。   The first image input unit 31 outputs the first image data output from the first imaging unit 11 to the selection unit 52 and the image data transmission unit 39.

第2画像入力部33は、第2撮影部12から出力された第2画像データを、選択部52と、画像データ伝送部39とに出力する。   The second image input unit 33 outputs the second image data output from the second imaging unit 12 to the selection unit 52 and the image data transmission unit 39.

選択部52は、第1画像データ、および第2画像データの何れを画像感知処理部51へ出力するかを選択可能に構成されている。すなわち、選択部52は、画像感知処理部51に対して、第1画像データおよび第2画像データのうちの何れに基づいて、車両101の感知処理を行わせるかを指示することが可能である。選択部52は、計時部37の時刻情報、または、メンテナンス情報入力部38に入力されたメンテナンス情報を基に、第1画像データおよび第2画像データの何れを出力するかを選択する。   The selection unit 52 is configured to be able to select which of the first image data and the second image data is output to the image detection processing unit 51. That is, the selection unit 52 can instruct the image detection processing unit 51 to perform the detection processing of the vehicle 101 based on which of the first image data and the second image data. . The selection unit 52 selects whether to output the first image data or the second image data based on the time information of the time measuring unit 37 or the maintenance information input to the maintenance information input unit 38.

現在時刻が第1撮影期間内の時刻である場合、選択部52は、第1画像データを、画像感知処理部51へ出力する。一方、現在時刻が第2撮影期間内の時刻である場合、選択部52は、第2画像データを、画像感知処理部51へ出力する。   When the current time is a time within the first shooting period, the selection unit 52 outputs the first image data to the image sensing processing unit 51. On the other hand, when the current time is a time within the second shooting period, the selection unit 52 outputs the second image data to the image sensing processing unit 51.

また、選択部52は、第1メンテナンス期間に該当している期間の間、第1画像データを、画像感知処理部51へ出力する。一方、選択部52は、第2メンテナンス期間に該当している期間の間、第2画像データを、画像感知処理部51へ出力する。   Further, the selection unit 52 outputs the first image data to the image sensing processing unit 51 during the period corresponding to the first maintenance period. On the other hand, the selection unit 52 outputs the second image data to the image sensing processing unit 51 during the period corresponding to the second maintenance period.

画像感知処理部51は、第1画像データに基づいて車両101の感知処理を行う第1処理部としての機能と、第2画像データに基づいて車両101の感知処理を行う第2処理部としての機能と、を有している。   The image sensing processing unit 51 functions as a first processing unit that performs sensing processing of the vehicle 101 based on the first image data, and as a second processing unit that performs sensing processing of the vehicle 101 based on the second image data. And has a function.

画像感知処理部51は、車頭点検出部41と、車尾点検出部43と、計測部53と、を有している。   The image sensing processing unit 51 includes a vehicle head point detection unit 41, a vehicle rear point detection unit 43, and a measurement unit 53.

選択部52は、第1期間においては、第1画像データを、車頭点検出部41へ出力する。この場合、車頭点検出部41は、検出した車頭点を特定する車頭点データを、計測部53へ出力する。一方、選択部52は、第2期間においては、第2画像データを、車尾点検出部43へ出力する。この場合、車尾点検出部43は、検出した車尾点を特定する車尾点データを、計測部53へ出力する。   The selection unit 52 outputs the first image data to the vehicle head point detection unit 41 in the first period. In this case, the vehicle head point detection unit 41 outputs vehicle head point data specifying the detected vehicle head point to the measurement unit 53. On the other hand, the selection unit 52 outputs the second image data to the vehicle tail point detection unit 43 in the second period. In this case, the vehicle tail point detection unit 43 outputs vehicle tail point data for specifying the detected vehicle rear point to the measurement unit 53.

計測部53は、車頭点検出部41によって車両101の車頭点が検出された場合、第1計測エリア2に車両101が存在していると感知する。また、計測部53は、存在を感知した車両101の車頭点の位置変化を計測することで、第1計測エリア2における車両101の速度を感知する。さらに、計測部53は、車両101の台数を感知する。計測部53では、これらの感知処理結果を示す第1感知データが生成される。   When the vehicle head point detection unit 41 detects the vehicle head point of the vehicle 101, the measurement unit 53 senses that the vehicle 101 exists in the first measurement area 2. Further, the measurement unit 53 senses the speed of the vehicle 101 in the first measurement area 2 by measuring a change in the position of the head point of the vehicle 101 that has sensed the presence. Further, the measurement unit 53 senses the number of vehicles 101. In the measurement unit 53, first sensing data indicating these sensing processing results is generated.

一方、計測部53は、車尾点検出部43によって車両101の車尾点が検出された場合、第2計測エリア3に車両101が存在していると感知する。この場合、計測部53は、存在を感知した車両101の車尾点の位置変化を計測することで、第2計測エリア3における車両101の速度を感知する。さらに、計測部53は、車両101の台数を感知する。計測部53では、これらの感知処理結果を示す第2感知データが生成される。   On the other hand, the measurement unit 53 senses that the vehicle 101 exists in the second measurement area 3 when the vehicle rear point detection unit 43 detects the vehicle rear point of the vehicle 101. In this case, the measurement unit 53 senses the speed of the vehicle 101 in the second measurement area 3 by measuring the position change of the tail point of the vehicle 101 that has sensed the presence. Further, the measurement unit 53 senses the number of vehicles 101. In the measurement unit 53, second sensing data indicating these sensing processing results is generated.

計測部53は、第1感知データ、または第2感知データを、感知データ伝送部36へ出力する。感知データ伝送部36は、第1感知データまたは第2感知データを、中央処理装置102へ出力する。   The measurement unit 53 outputs the first sensing data or the second sensing data to the sensing data transmission unit 36. The sensing data transmission unit 36 outputs the first sensing data or the second sensing data to the central processing unit 102.

[第2実施形態に係る画像式車両感知器における車両感知動作]
図5は、第2実施形態に係る画像式車両感知器における車両感知動作について説明するためのフローチャートである。第2実施形態に係る画像式車両感知器における車両感知動作について、図4および図5を参照しつつ説明する。
[Vehicle sensing operation in the image type vehicle sensor according to the second embodiment]
FIG. 5 is a flowchart for explaining a vehicle sensing operation in the image type vehicle sensor according to the second embodiment. A vehicle sensing operation in the image type vehicle sensor according to the second embodiment will be described with reference to FIGS. 4 and 5.

第1撮影部11の撮影動作によって生成された第1画像データは、第1画像入力部31へ出力され、さらに、第1画像入力部31から選択部52へ出力される(ステップS21)。この処理と並行して、第2撮影部12の撮影動作によって生成された第2画像データは、第2画像入力部33へ出力され、さらに、第2画像入力部33から選択部52へ出力される(ステップS21)。   The first image data generated by the imaging operation of the first imaging unit 11 is output to the first image input unit 31, and is further output from the first image input unit 31 to the selection unit 52 (step S21). In parallel with this processing, the second image data generated by the photographing operation of the second photographing unit 12 is output to the second image input unit 33, and further output from the second image input unit 33 to the selection unit 52. (Step S21).

現在時刻が第1期間である場合、すなわち、第1撮影期間、または第1メンテナンス期間である場合(ステップS22で第1期間)、選択部52は、第1画像データを、車頭点検出部41へ出力する(ステップS23)。この場合、車頭点検出部41は、車頭点を検出し、車頭点データを計測部53へ出力する(ステップS24)。計測部53は、検出された車頭点に基づいて、各車両101の感知処理を行い、第1感知データを生成する(ステップS25)。   When the current time is the first period, that is, when it is the first imaging period or the first maintenance period (the first period in step S22), the selection unit 52 converts the first image data into the vehicle head point detection unit 41. (Step S23). In this case, the vehicle head point detection unit 41 detects the vehicle head point and outputs vehicle head point data to the measurement unit 53 (step S24). The measurement unit 53 performs a sensing process for each vehicle 101 based on the detected vehicle head point, and generates first sensing data (step S25).

一方、現在時刻が第2期間である場合、すなわち、第2撮影期間、または第2メンテナンス期間である場合(ステップS22で第2期間)、選択部52は、第2画像データを、車尾点検出部43へ出力する(ステップS26)。この場合、車尾点検出部43は、車尾点を検出し、車尾点データを計測部53へ出力する(ステップS27)。計測部53は、検出された車尾点に基づいて、各車両101の感知処理を行い、第2感知データを生成する(ステップS28)。   On the other hand, when the current time is the second period, that is, when it is the second imaging period or the second maintenance period (second period in step S22), the selection unit 52 performs the stern inspection on the second image data. It outputs to the output part 43 (step S26). In this case, the vehicle rear point detection unit 43 detects the vehicle rear point and outputs vehicle rear point data to the measurement unit 53 (step S27). The measurement unit 53 performs a sensing process for each vehicle 101 based on the detected vehicle tail point, and generates second sensing data (step S28).

計測部53で生成された第1感知データ、または第2感知データは、感知データ伝送部36から、中央処理装置102へ出力される(ステップS29)。   The first sensing data or the second sensing data generated by the measurement unit 53 is output from the sensing data transmission unit 36 to the central processing unit 102 (step S29).

以上説明したように、本発明の実施の形態に係る画像式車両感知器では、選択部52は、1つの画像感知処理部51に対して、第1画像データおよび第2画像データのうちの何れに基づいて各車両101の感知処理を行わせるかを指示することが可能である。これにより、1つの画像感知処理部51で、第1画像データを用いた車両感知処理と、第2画像データを用いた車両感知処理の双方を行うことができる。よって、画像式車両感知器の製造コストを、より少なくできる。   As described above, in the image type vehicle sensor according to the embodiment of the present invention, the selection unit 52 selects one of the first image data and the second image data for one image detection processing unit 51. It is possible to instruct whether to perform the sensing process of each vehicle 101 based on the above. Thereby, both the vehicle sensing process using 1st image data and the vehicle sensing process using 2nd image data can be performed with one image sensing process part 51. FIG. Therefore, the manufacturing cost of the image type vehicle sensor can be further reduced.

[第3実施形態]
図6(a)は、本実施の第3実施形態における画像式車両感知器1C,1CCの一例を示す模式的な斜視図である。図6(a)では、画像式車両感知器1C,1CCは、道路100Cに設置された状態を示している。図6(b)は、画像式車両感知器1Cの周辺を道路100Cの幅方向から見た模式的な側面図である。
[Third embodiment]
FIG. 6A is a schematic perspective view illustrating an example of the image type vehicle detectors 1C and 1CC in the third embodiment. In Fig.6 (a), the image type vehicle detectors 1C and 1CC have shown the state installed in the road 100C. FIG. 6B is a schematic side view of the periphery of the image type vehicle detector 1C as viewed from the width direction of the road 100C.

なお、以下では、画像式車両感知器1C,1CCのうち、画像式車両感知器1Cについて主に説明する。画像式車両感知器1CCについては、画像式車両感知器1Cと異なる点について説明し、同様の構成については説明を省略する。   In the following, the image type vehicle sensor 1C out of the image type vehicle detectors 1C and 1CC will be mainly described. Regarding the image type vehicle sensor 1CC, the difference from the image type vehicle sensor 1C will be described, and the description of the same configuration will be omitted.

図6(a)および図6(b)に示すように、画像式車両感知器1Cは、道路100Cを通過する1または複数の車両101を感知するために設けられている。本実施の形態では、道路100Cは、一車線の道路である。   As shown in FIGS. 6A and 6B, the image-type vehicle detector 1C is provided to detect one or a plurality of vehicles 101 passing through the road 100C. In the present embodiment, the road 100C is a one-lane road.

画像式車両感知器1Cは、道路100Cの脇に設置されている。画像式車両感知器1Cは、進行方向D1において、第1計測エリア2Cと第2計測エリア3Cとの間に位置している。第1計測エリア2Cおよび第2計測エリア3Cは、それぞれ、たとえば、道路100Cの幅方向W1の略全域に亘って設けられている。   The image type vehicle detector 1C is installed beside the road 100C. The image type vehicle detector 1C is located between the first measurement area 2C and the second measurement area 3C in the traveling direction D1. The first measurement area 2C and the second measurement area 3C are provided, for example, over substantially the entire region in the width direction W1 of the road 100C.

朝日が昇る時間帯には、太陽S1が水平面近くに位置することとなる。この時間帯に、画像式車両感知器1Cの後述する撮影装置4Cから第2計測エリア3Cを見ると、直射日光など、朝日(東日)に起因して、第2計測エリア3Cを正確に視認し難くなる。   During the time when the morning sun rises, the sun S1 is located near the horizontal plane. When the second measurement area 3C is viewed from the imaging device 4C, which will be described later, of the image type vehicle sensor 1C during this time period, the second measurement area 3C is accurately visually recognized due to the morning sun (eastern sun) such as direct sunlight. It becomes difficult to do.

一方、夕日が沈む時間帯としての第2撮影期間には、太陽S2が水平面近くに位置することとなる。この時間帯に、撮影装置4Cから第1計測エリア2Cを見ると、直射日光など、夕日(西日)に起因して、第1計測エリア2Cを正確に視認し難くなる。   On the other hand, the sun S2 is located near the horizontal plane during the second shooting period as a time zone when the sunset goes. When the first measurement area 2C is viewed from the imaging device 4C during this time period, it is difficult to accurately view the first measurement area 2C due to sunset (western sun) such as direct sunlight.

したがって、上記第2撮影期間には、第2計測エリア3Cを撮影して車両101の感知処理を行うと、直射日光に起因する各車両101の感知漏れおよび誤検知を防止することができる。また、第2撮影期間以外の期間としての第1撮影期間には、第1計測エリア2Cを撮影して車両101の感知処理を行えばよい。   Therefore, when the second measurement area 3C is photographed and the vehicle 101 is sensed during the second photographing period, it is possible to prevent detection omission and erroneous detection of each vehicle 101 due to direct sunlight. Further, in the first shooting period other than the second shooting period, the sensing process of the vehicle 101 may be performed by shooting the first measurement area 2C.

画像式車両感知器1Cは、撮影装置4Cと、車両感知部5と、を備えている。   The image type vehicle detector 1 </ b> C includes a photographing device 4 </ b> C and a vehicle detection unit 5.

撮影装置4Cは、道路100Cの脇に設置されている。撮影装置4Cは、たとえば、道路100Cの路面と垂直な方向としての上下方向Z1に延びた形状を有している。撮影装置4Cは、進行方向D1における第1計測エリア2Cと第2計測エリア3Cとの間に配置されている。   The photographing device 4C is installed beside the road 100C. The imaging device 4C has, for example, a shape extending in the up-down direction Z1 as a direction perpendicular to the road surface of the road 100C. The imaging device 4C is disposed between the first measurement area 2C and the second measurement area 3C in the traveling direction D1.

図7は、撮影装置4Cの全体構成を示す模式的な断面図であり、一部を側面で示している。図7に示すように、撮影装置4Cは、ベース部106と、第1軸107と、光学部材108と、第2軸109と、支持台110と、第1撮影部11Cと、第2撮影部12Cと、筐体113と、を有している。   FIG. 7 is a schematic cross-sectional view showing the overall configuration of the photographing apparatus 4C, and shows a part on the side. As shown in FIG. 7, the imaging device 4C includes a base unit 106, a first shaft 107, an optical member 108, a second shaft 109, a support base 110, a first imaging unit 11C, and a second imaging unit. 12C and a housing 113.

ベース部106は、撮影装置4Cの基礎部分として設けられている。ベース部106は、道路100Cの脇の路肩100b上に配置されている。ベース部106は、たとえば、円筒の上端および下端のそれぞれに蓋が取り付けられた形状を有している。ベース部106は、軸受120を介して、第1軸107の下部を回転可能に支持している。   The base unit 106 is provided as a basic part of the photographing apparatus 4C. The base portion 106 is disposed on the shoulder 100b on the side of the road 100C. For example, the base portion 106 has a shape in which a lid is attached to each of an upper end and a lower end of a cylinder. The base portion 106 supports the lower portion of the first shaft 107 through a bearing 120 so as to be rotatable.

第1軸107は、光学部材108を回転可能に支持するために設けられている。第1軸107は、上下方向Z1に沿って真っ直ぐに延びており、ベース部106から上方に延びている。これにより、第1軸107は、上下方向Z1と平行な中心軸線L1回りに回転可能に支持している。中心軸線L1は、第1軸107の中心軸線でもある。第1軸107の上端部の直径は、この第1軸107の中間部の直径と比べて小さくされている。この上端部に、光学部材108が取り外し可能に取り付けられている。   The first shaft 107 is provided to rotatably support the optical member 108. The first shaft 107 extends straight along the vertical direction Z <b> 1 and extends upward from the base portion 106. Thereby, the 1st axis | shaft 107 is supported so that rotation to the periphery of the central axis L1 parallel to the up-down direction Z1 is possible. The central axis L1 is also the central axis of the first shaft 107. The diameter of the upper end portion of the first shaft 107 is made smaller than the diameter of the intermediate portion of the first shaft 107. An optical member 108 is detachably attached to the upper end portion.

図6(b)および図7に示すように、光学部材108は、道路100Cの像を撮影部11Cへ光学的に案内するために設けられている。より具体的には、光学部材108は、第1計測エリア2Cを進行方向D1における第1計測エリア2Cの前方側から見た像としての第1像21Cを、第1撮影部11Cへ光学的に案内するために設けられている。また、光学部材108は、第2計測エリア3Cを進行方向D1における第2計測エリア3Cの後方側から見た像としての第2像22Cを、第2撮影部12Cへ光学的に案内するために設けられている。   As shown in FIGS. 6B and 7, the optical member 108 is provided to optically guide the image of the road 100C to the photographing unit 11C. More specifically, the optical member 108 optically transmits the first image 21C as an image obtained by viewing the first measurement area 2C from the front side of the first measurement area 2C in the traveling direction D1 to the first imaging unit 11C. It is provided for guidance. Further, the optical member 108 optically guides the second image 22C as an image obtained by viewing the second measurement area 3C from the rear side of the second measurement area 3C in the traveling direction D1 to the second imaging unit 12C. Is provided.

光学部材108は、たとえば、光を反射する反射部材である。このような反射部材として、鏡を例示することができる。鏡として、金属を鏡面加工したものを例示することができ、また、透明な板ガラスまたはプラスチック板の片面に金属を蒸着させたものを例示することができる。このうち、光学部材108として、透明な板ガラスまたはプラスチック板の片面に、金属を蒸着させたものを用いることが、好ましい。このような構成とすることにより、光学部材108において、車両101からの排気ガス、および雨水などに起因する錆の発生を抑制することができる。   The optical member 108 is, for example, a reflecting member that reflects light. A mirror can be illustrated as such a reflecting member. Examples of the mirror include a mirror-finished metal, and a metal obtained by vapor-depositing a metal on one side of a transparent plate glass or plastic plate. Among these, as the optical member 108, it is preferable to use one obtained by vapor-depositing metal on one side of a transparent plate glass or plastic plate. With such a configuration, in the optical member 108, generation of rust caused by exhaust gas from the vehicle 101, rainwater, and the like can be suppressed.

光学部材108は、下方に進むに従い、上下方向Z1と直交する断面積が小さくなる先細り形状としての錐台形状を有している。本実施の形態では、光学部材108は、下方に進むに従い直径が小さくなる円錐台形状に形成されている。これにより、本実施の形態では、光学部材108の全体が円錐台形状部を構成している。なお、光学部材108は、少なくとも一部に円錐台形状部を含んでいればよく、他の形状を含んでいてもよい。光学部材108には、軸挿通孔が形成されている。軸挿通孔は、光学部材108の下端面に開放されており、第1軸107の上端部がたとえば圧入によって固定されている。光学部材108は、たとえば、作業員の手作業によって、第1軸107回りを回転可能である。光学部材108が回転される場合は、たとえば、光学部材108の外周面108aが清掃される場合である。   The optical member 108 has a frustum shape as a tapered shape in which the cross-sectional area perpendicular to the up-down direction Z1 becomes smaller as it goes downward. In the present embodiment, the optical member 108 is formed in a truncated cone shape whose diameter decreases as it proceeds downward. Thereby, in this Embodiment, the whole optical member 108 comprises the truncated cone shape part. The optical member 108 only needs to include a truncated cone-shaped portion at least partially, and may include other shapes. A shaft insertion hole is formed in the optical member 108. The shaft insertion hole is open to the lower end surface of the optical member 108, and the upper end portion of the first shaft 107 is fixed by press-fitting, for example. The optical member 108 can rotate around the first shaft 107 by, for example, manual work by an operator. The optical member 108 is rotated, for example, when the outer peripheral surface 108a of the optical member 108 is cleaned.

光学部材108の外周面108aは、埃、排気ガスに含まれる微粒子、および雨水などの異物(以下、単に異物ともいう。)によって汚れる。特に、光学部材108の外周面108aのうち、道路100Cに臨んでいる側の半部は、車両101からの排気ガスによって汚れやすい。しかしながら、撮影装置4Cは、道路100Cから幅方向W1に離隔した路肩100bに配置されており、道路100Cからの排気ガスおよび塵埃の舞い上がりによる外周面108aの汚れの度合いは、比較的少なくて済む。   The outer peripheral surface 108a of the optical member 108 is contaminated with foreign matter such as dust, fine particles contained in exhaust gas, and rainwater (hereinafter also simply referred to as foreign matter). In particular, half of the outer peripheral surface 108 a of the optical member 108 facing the road 100 </ b> C is easily contaminated by exhaust gas from the vehicle 101. However, the photographing device 4C is disposed on the road shoulder 100b spaced from the road 100C in the width direction W1, and the degree of contamination of the outer peripheral surface 108a due to the exhaust gas and dust rising from the road 100C can be relatively small.

なお、光学部材108は、第1軸107に対して着脱可能であればよく、第1軸107との固定の態様は上記の構成に限定されない。光学部材108は、第1軸107によって、第1軸107と同軸に支持されている。   The optical member 108 only needs to be detachable from the first shaft 107, and the manner of fixing to the first shaft 107 is not limited to the above configuration. The optical member 108 is supported coaxially with the first shaft 107 by the first shaft 107.

光学部材108の外周面108aは、上下方向Z1における下側を向いている。外周面108aを側方から見た場合、外周面108aの母線L2は、中心軸線L1に対して所定の傾斜角度θを有している。光学部材108における傾斜角度θは、第1計測エリア2Cの範囲および第2計測エリア3Cの範囲に応じて、適宜設定される。   The outer peripheral surface 108a of the optical member 108 faces downward in the vertical direction Z1. When the outer peripheral surface 108a is viewed from the side, the generatrix L2 of the outer peripheral surface 108a has a predetermined inclination angle θ with respect to the central axis L1. The inclination angle θ of the optical member 108 is appropriately set according to the range of the first measurement area 2C and the range of the second measurement area 3C.

光学部材108の外周面108aには、第1像21Cおよび第2像22Cが入射されるように構成されている。具体的には、光学部材108の外周面108aには、第1案内部121と、第2案内部122と、が形成されている。   The first image 21C and the second image 22C are configured to enter the outer peripheral surface 108a of the optical member 108. Specifically, a first guide part 121 and a second guide part 122 are formed on the outer peripheral surface 108 a of the optical member 108.

第1案内部121は、第1像21Cを第1撮影部11Cに光学的に案内するために設けられている。第1案内部121は、光学部材108の外周面108aのうち、第1計測エリア2C側を向いた部分によって形成されている。本実施の形態では、光学部材108の周方向において、第1案内部121が形成される範囲は、外周面108aの半周未満に設定されている。また、光学部材108の高さ方向、すなわち、上下方向Z1において、第1案内部121が形成される範囲は、外周面108aの高さの一部に設定されている。第1案内部121は、入射された光、すなわち、第1像21Cを、下方に向けて反射する。これにより、第1像21Cは、後述する第1位置P1に位置する第1撮影部11Cに向けて反射される。第1案内部121とは外周面108aの周方向に隣接した位置に、第2案内部122が配置されている。   The first guide 121 is provided to optically guide the first image 21C to the first photographing unit 11C. The first guide portion 121 is formed by a portion of the outer peripheral surface 108a of the optical member 108 that faces the first measurement area 2C side. In the present embodiment, the range in which the first guide portion 121 is formed in the circumferential direction of the optical member 108 is set to be less than a half circumference of the outer peripheral surface 108a. Further, in the height direction of the optical member 108, that is, in the vertical direction Z1, the range in which the first guide portion 121 is formed is set to a part of the height of the outer peripheral surface 108a. The first guide part 121 reflects the incident light, that is, the first image 21C downward. Thereby, the first image 21C is reflected toward the first imaging unit 11C located at a first position P1 described later. The 2nd guide part 122 is arrange | positioned in the position adjacent to the 1st guide part 121 in the circumferential direction of the outer peripheral surface 108a.

第2案内部122は、第2像22Cを第2撮影部12Cへ光学的に案内するために設けられている。第2案内部122は、光学部材108の外周面108aのうち、第2計測エリア3C側を向いた部分によって形成されている。本実施の形態では、光学部材108の周方向において、第2案内部122が形成される範囲は、外周面108aの半周未満に設定されている。また、光学部材108の高さ方向、すなわち、上下方向Z1において、第2案内部122が形成される範囲は、外周面108aの高さの一部に設定されている。第2案内部122は、入射された第2像22Cを、下方に向けて反射する。これにより、第2像22Cは、後述する第2位置P2に位置する第2撮影部12Cに向けて反射される。   The second guide unit 122 is provided to optically guide the second image 22C to the second imaging unit 12C. The second guide portion 122 is formed by a portion of the outer peripheral surface 108a of the optical member 108 that faces the second measurement area 3C side. In the present embodiment, the range in which the second guide portion 122 is formed in the circumferential direction of the optical member 108 is set to be less than a half circumference of the outer peripheral surface 108a. Further, in the height direction of the optical member 108, that is, the vertical direction Z1, the range in which the second guide portion 122 is formed is set to a part of the height of the outer peripheral surface 108a. The second guide part 122 reflects the incident second image 22C downward. Thereby, the second image 22C is reflected toward the second imaging unit 12C located at a second position P2 described later.

光学部材108は、撮影装置4Cの最上部に配置されており、光学部材108の下方に位置する各部材にとっての傘としての機能を有している。具体的には、光学部材108は、第1撮影部11Cおよび第2撮影部12Cの少なくとも一部を上方から覆っている。本実施の形態では、光学部材108は、第1撮影部11Cおよび第2撮影部12Cの全部を上方から覆っている。   The optical member 108 is disposed at the uppermost part of the photographing apparatus 4 </ b> C and has a function as an umbrella for each member positioned below the optical member 108. Specifically, the optical member 108 covers at least a part of the first imaging unit 11C and the second imaging unit 12C from above. In the present embodiment, the optical member 108 covers all of the first imaging unit 11C and the second imaging unit 12C from above.

また、光学部材108は、撮影装置4Cのうち、光学部材108以外の部分の全てを上方から覆っている。これにより、光学部材108は、筐体113の少なくとも一部(本実施の形態では、全部)を上方から覆っている。上記の構成を有する光学部材108の下方に、第2軸109が配置されている。   Further, the optical member 108 covers all parts of the photographing apparatus 4C other than the optical member 108 from above. Thus, the optical member 108 covers at least a part (all in the present embodiment) of the housing 113 from above. A second shaft 109 is disposed below the optical member 108 having the above configuration.

第2軸109は、第1撮影部11Cおよび第2撮影部12Cを支持するために設けられている。第2軸109は、上下方向Z1に沿って真っ直ぐに延びる中空の筒状に形成されており、第1軸107を取り囲んでいる。第2軸109は、ベース部106固定されている。第2軸109は、ベース部106から上方に延びている。第2軸109の上部には、支持台110が固定されている。第2軸109は、支持台110を介して、第1撮影部11Cおよび第2撮影部12Cを支持している。   The second shaft 109 is provided to support the first imaging unit 11C and the second imaging unit 12C. The second shaft 109 is formed in a hollow cylindrical shape that extends straight along the vertical direction Z1 and surrounds the first shaft 107. The second shaft 109 is fixed to the base portion 106. The second shaft 109 extends upward from the base portion 106. A support base 110 is fixed to the upper part of the second shaft 109. The second shaft 109 supports the first imaging unit 11C and the second imaging unit 12C via the support base 110.

支持台110は、所定の厚みを有する板部材によって形成された、円環状の部材である。この支持台110のたとえば上面に、第1撮影部11Cおよび第2撮影部12Cが固定されている。   The support base 110 is an annular member formed by a plate member having a predetermined thickness. For example, the first photographing unit 11C and the second photographing unit 12C are fixed to the upper surface of the support base 110, for example.

第1撮影部11Cは、光学部材108から入射された像を撮影することにより、第1画像データを生成する。第1撮影部11Cは、支持台110上の第1位置P1に配置されている。第1位置P1において、第1撮影部11Cは、第1計測エリア2Cおよび第2計測エリア3Cのうちの第1計測エリア2Cのみを撮影可能である。第1位置P1は、たとえば、第1案内部121の下方の位置である。   The first imaging unit 11C generates first image data by capturing an image incident from the optical member 108. 11C of 1st imaging | photography parts are arrange | positioned in the 1st position P1 on the support stand 110. FIG. At the first position P1, the first photographing unit 11C can photograph only the first measurement area 2C out of the first measurement area 2C and the second measurement area 3C. The first position P1 is, for example, a position below the first guide 121.

第1撮影部11Cのケース13Cは、支持台110に固定されている。ケース13Cは、上下方向Z1に細長い形状に形成されており、ケース13Cの上端部は、支持台110からの距離が遠くされている。これにより、支持台110に溜まった異物が、ケース13Cの上端部に付着することを抑制できる。ケース13Cの下端部からは、撮影した画像の画像データなどを出力するためのケーブル(図示せず)が延びており、このケーブルは、ベース部106を貫通し、車両感知部5に接続されている。ケース13Cの上端部に、入射部14Cが固定されている。   The case 13C of the first imaging unit 11C is fixed to the support base 110. The case 13C is formed in an elongated shape in the vertical direction Z1, and the upper end portion of the case 13C is distanced from the support base 110. Thereby, it can suppress that the foreign material collected on the support stand 110 adheres to the upper end part of case 13C. A cable (not shown) for outputting image data of a photographed image extends from the lower end of the case 13C. This cable passes through the base portion 106 and is connected to the vehicle sensing portion 5. Yes. An incident portion 14C is fixed to the upper end portion of the case 13C.

入射部14Cは、光学部材108からの光が入射される部分として設けられており、たとえば、レンズによって構成されている。入射部14Cは、上方を向いており、光学部材108と上下方向Z1に向かい合っている。入射部14Cに入射された像は、第1撮影部11Cに含まれる撮像素子に入射される。第1撮影部11Cは、撮像素子などによって生成された第1画像データを、車両感知部5へ出力する。第1撮影部11Cと進行方向D1に並ぶようにして、第2撮影部12Cが配置されている。   The incident portion 14C is provided as a portion where the light from the optical member 108 is incident, and is configured by, for example, a lens. The incident portion 14C faces upward and faces the optical member 108 in the vertical direction Z1. The image incident on the incident unit 14C is incident on the image sensor included in the first imaging unit 11C. 11C of 1st imaging | photography parts output the 1st image data produced | generated by the image pick-up element etc. to the vehicle detection part 5. FIG. A second imaging unit 12C is arranged so as to line up with the first imaging unit 11C in the traveling direction D1.

第2撮影部12Cは、光学部材108から入射された像を撮影することにより、第2画像データを生成する。第2撮影部12Cは、支持台110上の第2位置P2に配置されている。第2位置P2において、第2撮影部12Cは、第1計測エリア2Cおよび第2計測エリア3Cのうちの第2計測エリア3Cのみを撮影可能である。第2位置P2は、たとえば、第2案内部122の下方の位置である。   The second imaging unit 12C generates second image data by capturing an image incident from the optical member 108. The second imaging unit 12C is disposed at the second position P2 on the support base 110. At the second position P2, the second photographing unit 12C can photograph only the second measurement area 3C out of the first measurement area 2C and the second measurement area 3C. The second position P2 is a position below the second guide part 122, for example.

第2撮影部12Cのケース15Cは、支持台110に固定されている。ケース15Cは、上下方向Z1に細長い形状に形成されており、ケース15Cの上端部は、支持台110からの距離が遠くされている。これにより、支持台110に溜まった異物が、ケース15Cの上端部に付着することを抑制できる。ケース15Cの下端部からは、撮影した画像の画像データなどを出力するためのケーブル(図示せず)が延びており、このケーブルは、ベース部106を貫通し、車両感知部5に接続されている。ケース15Cの上端部に、入射部16Cが固定されている。   The case 15C of the second imaging unit 12C is fixed to the support base 110. The case 15C is formed in an elongated shape in the vertical direction Z1, and the upper end of the case 15C is distanced from the support base 110. Thereby, it can suppress that the foreign material collected on the support stand 110 adheres to the upper end part of case 15C. A cable (not shown) for outputting image data of a photographed image extends from the lower end portion of the case 15C. This cable passes through the base portion 106 and is connected to the vehicle sensing portion 5. Yes. An incident portion 16C is fixed to the upper end portion of the case 15C.

入射部16Cは、光学部材108からの光が入射される部分として設けられており、たとえば、レンズによって構成されている。入射部16Cは、上方を向いており、光学部材108と上下方向Z1に向かい合っている。入射部16Cに入射された像は、第2撮影部12Cに含まれる撮像素子に入射される。第2撮影部12Cは、撮像素子などによって生成された第2画像データを、車両感知部5へ出力する。   The incident portion 16C is provided as a portion where light from the optical member 108 is incident, and is configured by, for example, a lens. The incident portion 16C faces upward, and faces the optical member 108 in the vertical direction Z1. The image incident on the incident unit 16C is incident on the image sensor included in the second imaging unit 12C. The second imaging unit 12C outputs the second image data generated by the image sensor or the like to the vehicle sensing unit 5.

第1撮影部11Cおよび第2撮影部12Cは、筐体113に取り囲まれている。筐体113は、第1撮影部11Cおよび第2撮影部12Cに異物が付着することを抑制するために設けられている。筐体113は、第1軸107と平行に上下に延びる筒状に形成されており、本実施の形態では、円筒状に形成されている。筐体113は、たとえば、鋼管によって形成されている。なお、筐体113は、非透明の材料を用いて形成されてもよいし、透明の材料を用いて形成されてもよい。筐体113の下端部は、ベース部106の上端の外周部に固定されている。また、上下方向Z1において、筐体113の上端部の位置は、各撮影部11C,12Cの入射部14C,16Cの位置よりも高い。これにより、筐体113は、第1軸107の一部と、第2軸109の大部分と、支持台110と、各撮影部11C,12Cと、を取り囲んでいる。   The first imaging unit 11C and the second imaging unit 12C are surrounded by the housing 113. The housing 113 is provided to prevent foreign matters from adhering to the first imaging unit 11C and the second imaging unit 12C. The housing 113 is formed in a cylindrical shape that extends vertically in parallel with the first shaft 107, and is formed in a cylindrical shape in the present embodiment. The housing 113 is formed of, for example, a steel pipe. Note that the housing 113 may be formed using a non-transparent material or may be formed using a transparent material. The lower end portion of the housing 113 is fixed to the outer peripheral portion at the upper end of the base portion 106. In the vertical direction Z1, the position of the upper end portion of the housing 113 is higher than the positions of the incident portions 14C and 16C of the imaging units 11C and 12C. As a result, the housing 113 surrounds a part of the first shaft 107, most of the second shaft 109, the support base 110, and the imaging units 11C and 12C.

筐体113には、気流発生用部材としてのファン128と、メンテナンス用の窓129と、が設けられている。ファン128は、筐体113の内部を換気するために設けられている。ファン128は、たとえば、上下方向Z1における各撮影部11C,12Cの高さ位置よりも高い位置に、1または複数配置されている。本実施の形態では、ファン128は、筐体113の周方向に離隔した位置に2つ設けられており、各撮影部11C,12Cに隣接している。ファン128は、たとえば、筐体113の内部を吸引することにより、筐体113の内部に気流を発生させる。これにより、筐体113の内部に侵入した異物は、気流に案内されて筐体113の外部に排出される。なお、ファン128に代えて、通気口などの他の気流発生用部材を筐体113に設けてもよい。   The housing 113 is provided with a fan 128 as an airflow generating member and a maintenance window 129. The fan 128 is provided to ventilate the inside of the housing 113. For example, one or a plurality of fans 128 are arranged at positions higher than the height positions of the photographing units 11C and 12C in the vertical direction Z1. In the present embodiment, two fans 128 are provided at positions separated from each other in the circumferential direction of the housing 113 and are adjacent to the imaging units 11C and 12C. For example, the fan 128 sucks the inside of the housing 113 to generate an air flow inside the housing 113. As a result, the foreign matter that has entered the inside of the housing 113 is guided by the airflow and discharged to the outside of the housing 113. Instead of the fan 128, another member for airflow generation such as a vent may be provided in the housing 113.

窓129は、各撮影部11C,12Cなど、筐体113の内部の部材をメンテナンスするために設けられている。窓129は、ファン128の下方に、1または複数配置されている。本実施の形態では、窓129は、各ファン128の下方にそれぞれ配置されており、各撮影部11C,12Cに隣接している。窓129は、筐体113に形成された開口部に嵌合されており、この開口部に対して取り外し可能である。窓129は、透明な材料を用いて形成されていてもよいし、非透明な材料を用いて形成されていてもよい。たとえば、作業員が各撮影部11C,12Cの入射部14C,16Cを清掃する場合には、窓129が筐体113から取り外される。これにより、作業員の腕などを、開口部を通して筐体113の外部から内部に挿入することができる。   The window 129 is provided for maintaining members inside the housing 113 such as the photographing units 11C and 12C. One or more windows 129 are arranged below the fan 128. In the present embodiment, the window 129 is disposed below each fan 128 and is adjacent to each imaging unit 11C, 12C. The window 129 is fitted in an opening formed in the housing 113 and can be removed from the opening. The window 129 may be formed using a transparent material, or may be formed using a non-transparent material. For example, when the worker cleans the incident portions 14C and 16C of the photographing units 11C and 12C, the window 129 is removed from the housing 113. Thereby, an operator's arm etc. can be inserted from the exterior of the housing | casing 113 through an opening part inside.

[光学部材の選択]
図8(a)および図8(b)は、複数の光学部材108,108Cについて説明するための主要部の模式的な一部断面側面図である。図8(a)および図8(b)に示すように、本実施の形態では、画像式車両感知器1Cは、複数の光学部材108,108Cを有している。これら複数の光学部材108,108Cは、第1軸107に択一的に取り付け可能である。
[Optical member selection]
FIG. 8A and FIG. 8B are schematic partial cross-sectional side views of main parts for describing the plurality of optical members 108 and 108C. As shown in FIGS. 8A and 8B, in the present embodiment, the image type vehicle sensor 1C includes a plurality of optical members 108 and 108C. The plurality of optical members 108 and 108 </ b> C can be alternatively attached to the first shaft 107.

光学部材108,108Cは、それぞれの外周面の形状が互いに異なっている。具体的には、光学部材108においては、中心軸線L1に対する母線L2の傾斜角度θが規定されている。また、光学部材108Cにおいては、中心軸線L1に対する母線L2Cの傾斜角度θCが規定されている。傾斜角度θとθCとは、異なっている。たとえば、傾斜角度θ<θCに設定されている。   The optical members 108 and 108C have different outer peripheral surface shapes. Specifically, in the optical member 108, the inclination angle θ of the generatrix L2 with respect to the central axis L1 is defined. In the optical member 108C, an inclination angle θC of the bus L2C with respect to the central axis L1 is defined. The inclination angles θ and θC are different. For example, the inclination angle θ <θC is set.

その結果、光学部材108を第1軸107に取り付けた場合における、第1計測エリア2Cの進行方向D1の長さと比べて、光学部材108Cを第1軸107に取り付けた場合における、第1計測エリア2Cの進行方向D1の長さは、より大きくなる。すなわち、光学部材108,108Cのうち光学部材108を用いた場合、第1計測エリア2Cは、より長くなる。   As a result, the first measurement area when the optical member 108C is attached to the first shaft 107, compared to the length of the first measurement area 2C in the traveling direction D1 when the optical member 108 is attached to the first shaft 107. The length of the traveling direction D1 of 2C becomes larger. That is, when the optical member 108 is used among the optical members 108 and 108C, the first measurement area 2C becomes longer.

一方で、光学部材108を第1軸107に取り付けた場合における、第1計測エリア2Cの幅方向W1の長さと比べて、光学部材108Cを第1軸107に取り付けた場合における、第1計測エリア2Cの幅方向W1の長さは、より大きくなる。すなわち、光学部材108,108Cのうち光学部材108Cを用いた場合、第1計測エリア2Cは、幅広となる。なお、第2計測エリア3Cの大きさについても、同様である。たとえば、片側三車線など、幅の広い道路に撮影装置4Cを設置する場合には、光学部材108,108Cのうち光学部材108Cを用いることが好ましい。   On the other hand, compared with the length of the first measurement area 2C in the width direction W1 when the optical member 108 is attached to the first shaft 107, the first measurement area when the optical member 108C is attached to the first shaft 107. The length in the width direction W1 of 2C becomes larger. That is, when the optical member 108C is used among the optical members 108 and 108C, the first measurement area 2C is wide. The same applies to the size of the second measurement area 3C. For example, when the photographing apparatus 4C is installed on a wide road such as one side three lanes, it is preferable to use the optical member 108C among the optical members 108 and 108C.

作業者は、各撮影部11C,12Cで撮影するエリアの大きさなどに応じて、適宜、光学部材108または光学部材108Cを選択することができる。前述したように、本実施の形態では、光学部材108,108Cのうちの光学部材108が、第1軸107に取り付けられている。   The operator can appropriately select the optical member 108 or the optical member 108C according to the size of the area photographed by each of the photographing units 11C and 12C. As described above, in the present embodiment, the optical member 108 of the optical members 108 and 108 </ b> C is attached to the first shaft 107.

[光学部材の清掃作業]
次に、光学部材108の清掃作業について説明する。図9(a)および図9(b)は、光学部材108の清掃作業について説明するための主要部の側面図である。図9(a)に示すように、光学部材108の外周面108aのうち、道路100Cに臨んでいない側の部分に埃201が付着し、かつ、外周面108aのうち、道路100Cに臨んでいる側の部分に埃202が付着した状態から、光学部材108の外周面108aを清掃する場合を説明する。
[Cleaning of optical components]
Next, the cleaning operation of the optical member 108 will be described. FIG. 9A and FIG. 9B are side views of the main part for explaining the cleaning operation of the optical member 108. As shown in FIG. 9A, dust 201 adheres to a portion of the outer peripheral surface 108a of the optical member 108 that does not face the road 100C, and the outer surface 108a faces the road 100C. The case where the outer peripheral surface 108a of the optical member 108 is cleaned from the state where the dust 202 adheres to the side portion will be described.

この場合において、光学部材108を清掃する際には、作業員は、光学部材108の外周面108aのうち、第1案内部121を形成している部分、および第2案内部122を形成している部分以外の箇所を清掃部材203で清掃する。清掃部材203は、たとえば、外周面108aのうち道路100C(図示せず)に臨んでいない側の部分を清掃する。これにより、外周面108aに付着した埃201などの異物を除去する。   In this case, when cleaning the optical member 108, the worker forms a portion of the outer peripheral surface 108 a of the optical member 108 that forms the first guide portion 121 and the second guide portion 122. A portion other than the portion being cleaned is cleaned by the cleaning member 203. For example, the cleaning member 203 cleans a portion of the outer peripheral surface 108a that does not face the road 100C (not shown). Thereby, foreign matters such as dust 201 adhering to the outer peripheral surface 108a are removed.

次に、作業員は、図9(b)に示すように、光学部材108を第1軸107の回りに所定角度回転させる。次いで、作業員は、光学部材108の外周面108aのうち、第1案内部121を形成している部分、および第2案内部122を形成している部分以外の箇所を清掃部材203で清掃する。清掃部材203は、たとえば、外周面108aのうち道路100Cに臨んでいない側の部分を清掃する。これにより、外周面108aに付着した埃202などの異物を除去する。これにより、光学部材108の外周面108aの清掃作業が完了する。   Next, the worker rotates the optical member 108 around the first shaft 107 by a predetermined angle as shown in FIG. Next, the worker cleans the outer peripheral surface 108 a of the optical member 108 with the cleaning member 203 except for the portion where the first guide portion 121 is formed and the portion where the second guide portion 122 is formed. . For example, the cleaning member 203 cleans a portion of the outer peripheral surface 108a that does not face the road 100C. Thereby, foreign matters such as dust 202 attached to the outer peripheral surface 108a are removed. Thereby, the cleaning operation of the outer peripheral surface 108a of the optical member 108 is completed.

なお、図6(a)に示す画像式車両感知器1CCは、撮影装置4CCと、車両感知部5と、を有している。撮影装置4CCは、道路100Cに設置された門型柱100aの上部に設置されている。撮影装置4CCは、第1軸107の長さ、および筐体113の長さが異なっている点以外は、撮影装置4Cと同様の構成を有している。このように、第1軸107の長さ、および筐体113の長さを異ならせるという簡易な構成で、道路100Cからの設置高さに応じた全高の画像式車両感知器1Cおよび画像式車両感知器1CCを製造できる。   Note that the image type vehicle detector 1CC shown in FIG. 6A includes a photographing device 4CC and a vehicle detection unit 5. The imaging device 4CC is installed on the upper part of the portal column 100a installed on the road 100C. The imaging device 4CC has a configuration similar to that of the imaging device 4C except that the length of the first shaft 107 and the length of the housing 113 are different. As described above, the image-type vehicle sensor 1C and the image-type vehicle having a total height corresponding to the installation height from the road 100C can be obtained with a simple configuration in which the length of the first shaft 107 and the length of the housing 113 are made different. The sensor 1CC can be manufactured.

なお、本実施の形態では、車両感知部5を用いる構成を説明したが、これに限定されない。車両感知部5に代えて、車両感知部5Bを用いてもよい。   In addition, in this Embodiment, although the structure which uses the vehicle detection part 5 was demonstrated, it is not limited to this. Instead of the vehicle sensing unit 5, a vehicle sensing unit 5B may be used.

以上説明したように、本発明の第3実施形態に係る画像式車両感知器では、光学部材108が設けられている。この光学部材108は、第1計測エリア2Cを第1計測エリア2Cの前方側から見た第1像21Cを第1撮影部11Cに光学的に案内するための第1案内部121と、第2計測エリア3Cを第2計測エリア3Cの後方側から見た第2像22Cを第2撮影部12Cに光学的に案内するための第2案内部122と、を含む。   As described above, in the image type vehicle sensor according to the third embodiment of the present invention, the optical member 108 is provided. The optical member 108 includes a first guide 121 for optically guiding the first image 21C when the first measurement area 2C is viewed from the front side of the first measurement area 2C to the first photographing unit 11C, and a second And a second guide unit 122 for optically guiding the second image 22C when the measurement area 3C is viewed from the rear side of the second measurement area 3C to the second imaging unit 12C.

これにより、第1像21Cおよび第2像22Cは、それぞれ、光学部材108によって、対応する第1撮影部11Cおよび第2撮影部12Cへ案内される。したがって、第1撮影部11Cおよび第2撮影部12Cは、それぞれ、第1計測エリア2Cおよび第2計測エリア3Cを、光学部材108を介して間接的に撮影できる。よって、第1撮影部11Cおよび第2撮影部12Cは、日光を直接入射されずに済む。これにより、第1撮影部11Cおよび第2撮影部12Cに不要な光が入射されることを抑制できる。したがって、日光などの強い光に起因する車両感知精度の低下を、より一層抑制することができる。   Thereby, the first image 21C and the second image 22C are guided to the corresponding first imaging unit 11C and second imaging unit 12C by the optical member 108, respectively. Therefore, the first imaging unit 11C and the second imaging unit 12C can indirectly image the first measurement area 2C and the second measurement area 3C via the optical member 108, respectively. Therefore, the first imaging unit 11C and the second imaging unit 12C do not need to directly enter sunlight. Thereby, it can suppress that unnecessary light injects into the 1st imaging | photography part 11C and the 2nd imaging | photography part 12C. Accordingly, it is possible to further suppress a decrease in vehicle detection accuracy caused by strong light such as sunlight.

[第4実施形態]
図10は、本発明の第4実施形態に係る画像式車両感知器の撮影装置4Dを示す断面図であり、一部を側面で示している。図11は、本発明の第4実施形態に係る画像式車両感知器の車両感知部5Dの機能ブロック図である。
[Fourth embodiment]
FIG. 10 is a cross-sectional view showing a photographing device 4D of an image type vehicle sensor according to the fourth embodiment of the present invention, and a part thereof is shown by a side. FIG. 11 is a functional block diagram of the vehicle sensing unit 5D of the image type vehicle sensor according to the fourth embodiment of the present invention.

図10および図11に示すように、本発明の第4実施形態に係る画像式車両感知器が第3実施形態に係る画像式車両感知器と異なっている点は、主に下記に示す2点である。すなわち、(1)撮影装置4Dは、1つの撮影部150によって、第1像21Cおよび第2像22Cの双方を同時に撮影する点、(2)車両感知部5Dは、第1像21Cおよび第2像22Cの双方を撮影した撮影画像の画像データに基づいて、各車両101の感知処理を行う点、である。   As shown in FIGS. 10 and 11, the image type vehicle sensor according to the fourth embodiment of the present invention is different from the image type vehicle sensor according to the third embodiment mainly in the following two points. It is. That is, (1) the imaging device 4D captures both the first image 21C and the second image 22C simultaneously by one imaging unit 150, and (2) the vehicle sensing unit 5D includes the first image 21C and the second image 21C. The point is that the sensing processing of each vehicle 101 is performed based on the image data of the photographed image obtained by photographing both of the images 22C.

撮影装置4Dにおいて、撮影部150は、第3位置P3に配置されている点以外、第1撮影部11Cと同様の構成を有している。第3位置P3において、撮影部150は、第1案内部121で反射された第1像21Cと、光学部材108の第2案内部122で反射された第2像22Cの双方を撮影可能である。第3位置P3は、たとえば、進行方向D1における、光学部材108の中央位置であって、第1軸107とは道路100Cの幅方向W1に並ぶ位置である。このように、光学部材108の第1案内部121は、第1像21Cを撮影部150に光学的に案内し、第2案内部122は、第2像22Cを撮影部150に光学的に案内する。   In the imaging device 4D, the imaging unit 150 has the same configuration as the first imaging unit 11C, except that the imaging unit 150 is arranged at the third position P3. At the third position P3, the photographing unit 150 can photograph both the first image 21C reflected by the first guide unit 121 and the second image 22C reflected by the second guide unit 122 of the optical member 108. . The third position P3 is, for example, the center position of the optical member 108 in the traveling direction D1, and the first shaft 107 is a position aligned in the width direction W1 of the road 100C. In this way, the first guide 121 of the optical member 108 optically guides the first image 21C to the photographing unit 150, and the second guide 122 122 optically guides the second image 22C to the photographing unit 150. To do.

車両感知部5Dは、画像入力部151と、画像補正部152と、選択部52と、画像感知処理部51と、感知データ伝送部36と、計時部37と、メンテナンス情報入力部38と、画像データ伝送部39と、を有している。   The vehicle sensing unit 5D includes an image input unit 151, an image correction unit 152, a selection unit 52, an image sensing processing unit 51, a sensing data transmission unit 36, a timing unit 37, a maintenance information input unit 38, and an image. And a data transmission unit 39.

画像入力部151には、撮影部150で撮影された画像のデータとしての撮影画像データが出力される。画像入力部151は、撮影画像データを画像補正部152に出力する。   The image input unit 151 outputs captured image data as image data captured by the image capturing unit 150. The image input unit 151 outputs the captured image data to the image correction unit 152.

図12(a)および図12(b)は、画像補正部152における画像補正処理を説明するための図である。図11、図12(a)および図12(b)に示すように、画像補正部152は、撮影画像データを補正するために設けられている。具体的には、光学部材108の外周面108aには、第1像21Cおよび第2像22Cの双方を含む像153が反射している。撮影部150は、この像153を撮影することで、撮影画像データを生成する。画像補正部152は、この撮影画像データを読み込む。   FIG. 12A and FIG. 12B are diagrams for explaining the image correction processing in the image correction unit 152. As shown in FIGS. 11, 12A, and 12B, the image correction unit 152 is provided to correct captured image data. Specifically, the image 153 including both the first image 21C and the second image 22C is reflected on the outer peripheral surface 108a of the optical member 108. The imaging unit 150 captures the image 153 to generate captured image data. The image correction unit 152 reads the captured image data.

図11および図12(b)に示すように、次に、画像補正部152は、撮影画像データを補正することにより、第1像21Cの撮影画像の画像データとしての第1画像データ、および、第2像22Cの撮影画像の画像データとしての第2画像データに分離する。   As shown in FIG. 11 and FIG. 12B, the image correction unit 152 corrects the captured image data, thereby correcting the first image data as the image data of the captured image of the first image 21C, and The image is separated into second image data as image data of the captured image of the second image 22C.

画像補正部152は、第1画像データおよび第2画像データを、画像データ伝送部39へ出力するとともに、選択部52へ出力する。   The image correction unit 152 outputs the first image data and the second image data to the image data transmission unit 39 and also to the selection unit 52.

[第4実施形態に係る画像式車両感知器における車両感知動作]
図13は、第4実施形態にかかる画像式車両感知器における車両感知動作について説明するためのフローチャートである。この車両感知動作について、図13に加え、適宜図10〜図12を参照しつつ説明する。撮影部150からの撮影画像データは、画像入力部151へ出力され、さらに、画像入力部151から画像補正部152へ出力される(ステップS41)。
[Vehicle sensing operation in the image type vehicle sensor according to the fourth embodiment]
FIG. 13 is a flowchart for explaining a vehicle sensing operation in the image type vehicle sensor according to the fourth embodiment. This vehicle sensing operation will be described with reference to FIGS. 10 to 12 in addition to FIG. The captured image data from the imaging unit 150 is output to the image input unit 151, and further output from the image input unit 151 to the image correction unit 152 (step S41).

次いで、画像補正部152は、画像補正処理を行う(ステップS42)。画像補正部152は、撮影画像データを基に、第1画像データと、第2画像データとを生成する。そして、画像補正部152は、第1画像データおよび第2画像データを選択部52へ出力する(ステップS43)。   Next, the image correction unit 152 performs image correction processing (step S42). The image correction unit 152 generates first image data and second image data based on the captured image data. Then, the image correction unit 152 outputs the first image data and the second image data to the selection unit 52 (step S43).

以降のステップS122〜S129は、第2実施形態に係る画像式車両感知器における車両感知動作のステップS22〜S29(図5参照)と同様であるので、説明を省略する。   Subsequent steps S122 to S129 are the same as steps S22 to S29 (see FIG. 5) of the vehicle sensing operation in the image type vehicle sensor according to the second embodiment, and thus description thereof is omitted.

本発明の第4実施形態に係る画像式車両感知器では、光学部材108と、光学部材108からの像153を撮影する1つの撮影部150と、が設けられている。また、光学部材108は、第1計測エリア2Cを第1計測エリア2Cの前方側から見た第1像21Cを撮影部150に光学的に案内するための第1案内部121と、第2計測エリア3Cを第2計測エリア3Cの後方側から見た第2像22Cを1つの撮影部150に光学的に案内するための第2案内部122と、を含む。また、第1画像データは、第1像21Cに基づくものであり、第2画像データは、第2像22Cに基づくものである。   In the image type vehicle sensor according to the fourth embodiment of the present invention, an optical member 108 and a single photographing unit 150 for photographing an image 153 from the optical member 108 are provided. The optical member 108 includes a first guide 121 for optically guiding the first image 21C when the first measurement area 2C is viewed from the front side of the first measurement area 2C to the photographing unit 150, and a second measurement. A second guide unit 122 for optically guiding the second image 22C when the area 3C is viewed from the rear side of the second measurement area 3C to one photographing unit 150. The first image data is based on the first image 21C, and the second image data is based on the second image 22C.

これにより、撮影部150から、第1計測エリア2Cに向かう方向と、撮影部150から、第2計測エリア3Cに向かう方向とは、道路100Cの進行方向D1に平行な成分において、反対向きとなる。このため、第1画像データによって特定される第1画像においては日光の写りこみ量が多い場合でも、第2画像データによって特定される第2画像においては日光の写りこみ量が少ない態様で、第2画像を得ることができる。同様に、たとえば、第2画像データによって特定される第2画像においては日光の写りこみ量が多い場合でも、第1画像データによって特定される第1画像においては日光の写りこみ量が少ない態様で、第1画像を得ることができる。すなわち、朝日が昇る時間帯であれば、第1画像および第2画像のうち、朝日の写りこみ量の少ない第1画像の第1画像データを基に、車両101の感知処理を行うことができる。また、夕日が沈む時間帯であれば、第1画像および第2画像のうち、夕日の写りこみ量の少ない第2画像の第2画像データを基に、車両101の感知処理を行うことができる。これにより、朝日が昇る時間帯、および夕日が沈む時間帯の何れの場合でも、直射日光が過度に写りこむことが抑制された画像の画像データを基に、車両101の感知処理を行うことができる。よって、日光などの強い光に起因する車両感知性能の低下を抑制することができる。また、第1像21Cおよび第2像22Cは、それぞれ、光学部材108によって、撮影部150へ案内される。これにより、撮影部150は、第1計測エリア2Cおよび第2計測エリア3Cを、光学部材108を介して間接的に撮影できる。したがって、撮影部150は、たとえば、日光を直接入射されずに済む。これにより、撮影部150に不要な光が入射されることを抑制できる。したがって、日光などの強い光に起因する車両感知精度の低下を、より一層抑制することができる。さらに、第1計測エリア2Cおよび第2計測エリア3Cを1つの撮影部150によって撮影することができる。これにより、撮影部150を2つ設ける必要がなく、画像式車両感知器の製造コストを、より少なくできる。また、撮影部150のうち、第1像21Cを撮影している箇所および第2像22Cを撮影している箇所の何れか一方を清掃している場合に、他方から得られる画像データを用いて、車両感知処理を継続することができる。したがって、撮影部150が1つの場合でも、車両101を感知するための処理の中断を抑制できる。   Thereby, the direction from the imaging unit 150 toward the first measurement area 2C and the direction from the imaging unit 150 toward the second measurement area 3C are opposite in the component parallel to the traveling direction D1 of the road 100C. . Therefore, even if the amount of sunlight reflected in the first image specified by the first image data is large, the amount of sunlight reflected is small in the second image specified by the second image data. Two images can be obtained. Similarly, for example, even if the amount of sunlight reflected in the second image specified by the second image data is large, the amount of sunlight reflected is small in the first image specified by the first image data. A first image can be obtained. That is, during the time when the morning sun rises, the sensing process of the vehicle 101 can be performed based on the first image data of the first image of the first image and the second image with a small amount of reflected sunrise. . In addition, during the sunset time, the vehicle 101 can be detected based on the second image data of the second image with the least amount of sunset reflected out of the first image and the second image. . As a result, the vehicle 101 can be detected based on the image data of an image in which direct sunlight is suppressed from being excessively reflected in both the time when the sun rises and the time when the sunset falls. it can. Therefore, it is possible to suppress a decrease in vehicle sensing performance caused by strong light such as sunlight. The first image 21C and the second image 22C are guided to the photographing unit 150 by the optical member 108, respectively. Thereby, the imaging unit 150 can indirectly image the first measurement area 2C and the second measurement area 3C via the optical member 108. Therefore, for example, the photographing unit 150 does not need to directly enter sunlight. Thereby, it can suppress that unnecessary light injects into the imaging | photography part 150. FIG. Accordingly, it is possible to further suppress a decrease in vehicle detection accuracy caused by strong light such as sunlight. Furthermore, the first measurement area 2 </ b> C and the second measurement area 3 </ b> C can be photographed by one photographing unit 150. Thereby, it is not necessary to provide two photographing units 150, and the manufacturing cost of the image type vehicle sensor can be further reduced. In addition, when one of the part where the first image 21C is photographed and the part where the second image 22C is photographed is cleaned in the photographing unit 150, the image data obtained from the other is used. The vehicle sensing process can be continued. Therefore, even when there is only one photographing unit 150, it is possible to suppress interruption of processing for sensing the vehicle 101.

[第5実施形態]
図14は、本発明の第5実施形態に係る画像式車両感知器の車両感知部5Eの機能ブロック図である。図14に示すように、本発明の第5実施形態に係る画像式車両感知器の車両感知部5Eが、第4実施形態に係る画像式車両感知器の車両感知部5Dと異なっている主な点は、2つの画像感知処理部によって、車両感知処理が行われる点にある。
[Fifth Embodiment]
FIG. 14 is a functional block diagram of the vehicle sensing unit 5E of the image type vehicle sensor according to the fifth embodiment of the present invention. As shown in FIG. 14, the vehicle detection unit 5E of the image type vehicle detector according to the fifth embodiment of the present invention is different from the vehicle detection unit 5D of the image type vehicle sensor according to the fourth embodiment. The point is that vehicle detection processing is performed by two image detection processing units.

車両感知部5Eは、画像入力部151と、画像補正部152と、第1画像感知処理部32と、第2画像感知処理部34と、選択部35と、感知データ伝送部36と、計時部37と、メンテナンス情報入力部38と、画像データ伝送部39と、を有している。   The vehicle detection unit 5E includes an image input unit 151, an image correction unit 152, a first image detection processing unit 32, a second image detection processing unit 34, a selection unit 35, a detection data transmission unit 36, and a timing unit. 37, a maintenance information input unit 38, and an image data transmission unit 39.

本実施の形態では、画像補正部152は、生成した第1画像データを、第1画像感知処理部32の車頭点検出部41へ出力する。また、画像補正部152は、生成した第2画像データを、第2画像感知処理部34の車尾点検出部43へ出力する。また、画像補正部152は、第1画像データおよび第2画像データを、画像データ伝送部39へ出力する。   In the present embodiment, the image correction unit 152 outputs the generated first image data to the vehicle head point detection unit 41 of the first image detection processing unit 32. In addition, the image correction unit 152 outputs the generated second image data to the vehicle tail point detection unit 43 of the second image detection processing unit 34. In addition, the image correction unit 152 outputs the first image data and the second image data to the image data transmission unit 39.

車両感知部5Eの第1画像感知処理部32、第2画像感知処理部34、選択部35、感知データ伝送部36、計時部37、メンテナンス情報入力部38、および画像データ伝送部39の構成は、本発明の第1実施形態における車両感知部5(図2参照)の対応する構成と同様であるので、詳細な説明を省略する。   The configuration of the first image detection processing unit 32, the second image detection processing unit 34, the selection unit 35, the detection data transmission unit 36, the timing unit 37, the maintenance information input unit 38, and the image data transmission unit 39 of the vehicle detection unit 5E is as follows. Since it is the same as that of the structure corresponding to the vehicle detection part 5 (refer FIG. 2) in 1st Embodiment of this invention, detailed description is abbreviate | omitted.

[第5実施形態に係る画像式車両感知器における車両感知動作]
図15は、第5実施形態にかかる画像式車両感知器における車両感知動作について説明するためのフローチャートである。この車両感知動作について、図15に加え、適宜図14を参照しつつ説明する。
[Vehicle sensing operation in the image type vehicle sensor according to the fifth embodiment]
FIG. 15 is a flowchart for explaining a vehicle sensing operation in the image type vehicle sensor according to the fifth embodiment. This vehicle sensing operation will be described with reference to FIG. 14 as appropriate in addition to FIG.

撮影部150からの撮影画像データは、画像入力部151へ出力され、さらに、画像入力部151から画像補正部152へ出力される(ステップS51)。次いで、画像補正部152は、画像補正処理を行う(ステップS52)。画像補正部152は、撮影部150から出力された撮影画像データを基に、第1画像データと、第2画像データとを生成する。そして、画像補正部152は、第1画像データおよび第2画像データを、それぞれ、車頭点検出部41および車尾点検出部43へ出力する(ステップS53)。   The captured image data from the imaging unit 150 is output to the image input unit 151, and is further output from the image input unit 151 to the image correction unit 152 (step S51). Next, the image correction unit 152 performs image correction processing (step S52). The image correction unit 152 generates first image data and second image data based on the captured image data output from the imaging unit 150. Then, the image correction unit 152 outputs the first image data and the second image data to the vehicle head point detection unit 41 and the vehicle rear point detection unit 43, respectively (step S53).

以降のステップS112〜S116は、第1実施形態に係る画像式車両感知器における車両感知動作のステップS12〜S16(図3参照)と同様であるので、説明を省略する。   Since subsequent steps S112 to S116 are the same as steps S12 to S16 (see FIG. 3) of the vehicle sensing operation in the image type vehicle sensor according to the first embodiment, the description thereof is omitted.

[変形例]
なお、本発明の実施の形態に係る画像式車両感知器では、朝日の昇る時間帯、夕日の沈む時間帯、またはメンテナンス期間に関連付けて、車両感知用に用いる画像データを変更する構成を説明したが、これに限定するものではない。たとえば、2つの撮影部11,12のうち、一方の撮影部のレンズの汚れが酷くなった場合に、他方の撮影部からの画像データを用いて、車両感知用の画像データを取得してもよい。これにより、車両感知用の撮影を中断することなく、各撮影部11,12の清掃作業の時期の調整を行い易くすることができる。よって、画像式車両感知器の運用を、より柔軟に行うことができる。なお、上記の清掃時期の調整とは、天候を考慮した日程および時間帯の調整を含む。この撮影部11C,12Cについても、撮影部11,12と同様である。
[Modification]
In the image-type vehicle detector according to the embodiment of the present invention, the configuration in which the image data used for vehicle detection is changed in association with the rising time zone, the sunset time zone, or the maintenance period has been described. However, the present invention is not limited to this. For example, when the lens of one of the two imaging units 11 and 12 becomes very dirty, the image data for vehicle detection may be acquired using the image data from the other imaging unit. Good. Thereby, it is possible to easily adjust the timing of the cleaning operation of each of the imaging units 11 and 12 without interrupting the imaging for vehicle detection. Therefore, the operation of the image type vehicle detector can be performed more flexibly. In addition, adjustment of said cleaning time includes adjustment of the schedule and time slot | zone which considered the weather. The photographing units 11C and 12C are the same as the photographing units 11 and 12.

また、本発明の実施の形態に係る画像式車両感知器では、第1画像データおよび第2画像データの何れかを車両感知に用い、これとは無関係に、第1画像データおよび第2画像データの少なくとも一方を、中央処理装置102のモニター表示用に出力する構成を説明したが、これに限定するものではない。たとえば、第1画像データおよび第2画像データの何れか一方を車両感知に用いるとともに、他方を、中央処理装置102のモニター表示用に出力してもよい。   In addition, in the image type vehicle detector according to the embodiment of the present invention, either the first image data or the second image data is used for vehicle detection, and regardless of this, the first image data and the second image data are used. Although the configuration in which at least one of these is output for monitor display of the central processing unit 102 has been described, the present invention is not limited to this. For example, one of the first image data and the second image data may be used for vehicle detection, and the other may be output for monitor display of the central processing unit 102.

また、第1画像データおよび第2画像データのうちの何れか一方を、車両感知に用いるとともに、かつ、中央処理装置102のモニター表示用に出力してもよい。この場合、撮影部11,12のうち、一方のみを用いて、車両感知用の撮影と、モニター表示用の撮影と、を行うことができる。よって、撮影部11,12のうち、他方が故障していても、車両感知用の撮影と、モニター表示用の撮影と、を行うことができる。その結果、画像式車両感知器の運用を、より柔軟に行うことができる。撮影部11C,12Cについても同様である。   In addition, any one of the first image data and the second image data may be used for vehicle detection and output for monitor display of the central processing unit 102. In this case, only one of the photographing units 11 and 12 can be used for photographing for vehicle detection and photographing for monitor display. Therefore, even if the other of the photographing units 11 and 12 is out of order, it is possible to perform photographing for vehicle detection and photographing for monitor display. As a result, the operation of the image type vehicle detector can be performed more flexibly. The same applies to the imaging units 11C and 12C.

また、本発明の実施の形態に係る画像式車両感知器では、第1像21および第2像22における太陽の照度の実際の値に拘らず、時間を基準として、車両感知に用いる画像データを切り替える構成を説明したが、これに限定するものではない。たとえば、第1像21および第2像22における太陽の照度の値を測定し、測定した値に基づいて、車両感知に用いる画像データを切り替えてもよい。第1像21Cおよび第2像22Cに関しても同様である。   In the image type vehicle sensor according to the embodiment of the present invention, the image data used for vehicle detection is based on time regardless of the actual value of the illuminance of the sun in the first image 21 and the second image 22. Although the configuration for switching has been described, the present invention is not limited to this. For example, the value of the illuminance of the sun in the first image 21 and the second image 22 may be measured, and the image data used for vehicle sensing may be switched based on the measured value. The same applies to the first image 21C and the second image 22C.

また、本発明の実施の形態に係る画像式車両感知器では、第1画像データおよび第2画像データの何れを車両感知に用いるかは、選択部35,52によって決定される構成を説明したが、これに限定するものではない。たとえば、第1画像データおよび第2画像データの何れを車両感知に用いるかを設定する手動スイッチを設けてもよい。   In the image type vehicle detector according to the embodiment of the present invention, the configuration in which the selection unit 35 or 52 determines which of the first image data and the second image data is used for vehicle detection has been described. However, the present invention is not limited to this. For example, a manual switch for setting which of the first image data and the second image data is used for vehicle detection may be provided.

また、本発明の実施の形態に係る画像式車両感知器では、撮影部11,12の双方を常時駆動させる構成を説明したが、これに限定するものではない。たとえば、中央処理装置102、または車両感知部に、撮影部11,12の動作を停止させる手動スイッチを設けてもよい。この場合、撮影部11,12のうち、動作が停止された状態の一方について、清掃、向きまたは位置の調整、異常の有無の確認などのメンテナンスと、修理および交換作業と、を行うことができる。この場合、撮影部11,12のうちの、動作が停止されていない他方において、車両感知用、および中央処理装置102のモニター表示用の撮影を行うことができる。そして、メンテナンス作業が終了した場合には、手動スイッチを操作し、一方の撮影部の動作を再開させる。撮影部11C,12Cについても同様である。   In the image type vehicle sensor according to the embodiment of the present invention, the configuration in which both the photographing units 11 and 12 are always driven has been described. However, the present invention is not limited to this. For example, a manual switch for stopping the operation of the photographing units 11 and 12 may be provided in the central processing unit 102 or the vehicle sensing unit. In this case, it is possible to perform maintenance such as cleaning, adjustment of the orientation or position, confirmation of the presence or absence of an abnormality, and repair and replacement work for one of the photographing units 11 and 12 in which the operation is stopped. . In this case, on the other of the photographing units 11 and 12 where the operation is not stopped, photographing for vehicle sensing and monitoring display of the central processing unit 102 can be performed. When the maintenance work is completed, the manual switch is operated to restart the operation of one of the photographing units. The same applies to the imaging units 11C and 12C.

また、本発明の実施の形態に係る画像式車両感知器では、第1感知データと第2感知データについて、互いに関連付けることは特にしない構成を説明したが、これに限定するものではない。たとえば、第1感知データと第2感知データとを比較などすることにより、より精度の高い感知データを出力できるようにしてもよい。   In the image type vehicle detector according to the embodiment of the present invention, the first sensing data and the second sensing data are not particularly associated with each other. However, the present invention is not limited to this. For example, more accurate sensing data may be output by comparing the first sensing data and the second sensing data.

さらに、本発明の実施の形態に係る画像式車両感知器では、複数の画像式車両感知器を設けた場合において、互いの画像式車両感知器間の関連付けは特にしない構成を説明したが、これに限定するものではない。たとえば、高速道路のインターチェンジ(IC)間に、複数の画像式車両感知器を設け、各画像式車両感知器のそれぞれの感知データを比較することにより、より精度の高い感知データを出力できるようにしてもよい。   Furthermore, in the image type vehicle sensor according to the embodiment of the present invention, the configuration in which there is no particular association between the image type vehicle sensors in the case where a plurality of image type vehicle sensors are provided has been described. It is not limited to. For example, a plurality of image-type vehicle detectors are provided between interchanges (ICs) on a highway, and the detection data of each image-type vehicle detector can be compared so that more accurate detection data can be output. May be.

また、本発明の実施の形態に係る画像式車両感知器では、撮影装置4の撮影部11,12は、道路100の進行方向D1において互いに反対向きに配置される構成を説明したけれども、これに限定するものではない。たとえば、撮影部11,12を、進行方向D1において同じ向きに揃えてもよい。この場合、撮影部11,12の一方、たとえば、撮影部12の入射部16の近傍に、第2計測エリア3からの光を入射部16に反射させる反射部材が配置される。反射部材は、たとえば、鏡である。これにより、第2計測エリア3を、撮影部12によって撮影することができる。   Further, in the image type vehicle sensor according to the embodiment of the present invention, the imaging units 11 and 12 of the imaging device 4 have been described as being arranged opposite to each other in the traveling direction D1 of the road 100. It is not limited. For example, the imaging units 11 and 12 may be aligned in the same direction in the traveling direction D1. In this case, a reflecting member that reflects the light from the second measurement area 3 to the incident portion 16 is disposed in one of the photographing portions 11 and 12, for example, in the vicinity of the incident portion 16 of the photographing portion 12. The reflecting member is, for example, a mirror. Thereby, the second measurement area 3 can be photographed by the photographing unit 12.

また、本発明の実施の形態に係る画像式車両感知器では、光学部材108として、光を反射する鏡を用いる構成を説明したが、これに限定するものではない。たとえば、光学部材は、プリズムなど、光を屈折させる部材であってもよい。   In the image type vehicle sensor according to the embodiment of the present invention, the configuration using the mirror that reflects light as the optical member 108 has been described. However, the present invention is not limited to this. For example, the optical member may be a member that refracts light, such as a prism.

また、本発明の実施の形態に係る画像式車両感知器では、光学部材108を円錐台形状とする構成を説明したが、これに限定するものではない。たとえば、反射部材は、多角錐台形状であってもよいし、下向きに膨らむ半球形状であってもよい。   In the image type vehicle sensor according to the embodiment of the present invention, the configuration in which the optical member 108 has a truncated cone shape has been described. However, the present invention is not limited to this. For example, the reflecting member may have a polygonal frustum shape or a hemispherical shape that bulges downward.

また、本発明の実施の形態に係る画像式車両感知器では、複数の光学部材108,108Cが用意されている構成を説明したが、これに限定するものではない。たとえば、反射部材は、1種類であってもよい。   In the image type vehicle sensor according to the embodiment of the present invention, the configuration in which the plurality of optical members 108 and 108C are prepared has been described, but the present invention is not limited to this. For example, the reflection member may be one type.

また、本発明の実施の形態に係る画像式車両感知器では、光学部材108からの光を撮影する撮影部11C,12Cのそれぞれについて、入射部14C,16Cが上向きに配置されている構成を説明したが、これに限定するものではない。たとえば、入射部14C,16Cは、水平方向を向いていてもよい。入射部14C、16Cは、光学部材108からの第1像21Cおよび第2像22Cが入射可能に配置されていればよく、向きおよび配置場所は特に限定されない。   Further, in the image type vehicle sensor according to the embodiment of the present invention, a configuration in which the incident portions 14C and 16C are arranged upward with respect to each of the photographing portions 11C and 12C for photographing the light from the optical member 108 will be described. However, the present invention is not limited to this. For example, the incident portions 14C and 16C may face the horizontal direction. The incident portions 14C and 16C only have to be arranged so that the first image 21C and the second image 22C from the optical member 108 can enter, and the direction and the arrangement location are not particularly limited.

また、本発明の実施の形態に係る画像式車両感知器では、光学部材108は、作業者の手作業によって第1軸107回りを回転する構成を説明したが、これに限定するものではない。たとえば、電動モータを含む変位機構を設け、第1軸107をこの変位機構によって回転させることにより、光学部材108を回転させてもよい。この場合、たとえば、各撮影部11C,12Cまたは撮影部150で撮影された画像を、中央処理装置102のモニターを用いてオペレータが定期的に目視する。そして、オペレータによって、画像の不鮮明度合が大きいと判断された場合に、光学部材108を回転させることができる。これにより、光学部材108の外周面108aのうち、道路100Cに臨んでいなかった、比較的汚れの少ない部分を、道路100Cに臨ませ、この部分を、第1案内部121および第2案内部122として用いることができる。   In the image type vehicle sensor according to the embodiment of the present invention, the optical member 108 has been described as rotating around the first shaft 107 by the operator's manual operation, but the present invention is not limited to this. For example, the optical member 108 may be rotated by providing a displacement mechanism including an electric motor and rotating the first shaft 107 by the displacement mechanism. In this case, for example, an operator periodically looks at images captured by the image capturing units 11C and 12C or the image capturing unit 150 using the monitor of the central processing unit 102. Then, when the operator determines that the degree of unclearness of the image is large, the optical member 108 can be rotated. As a result, a portion of the outer peripheral surface 108a of the optical member 108 that does not face the road 100C and that is relatively less contaminated faces the road 100C, and this portion is referred to as the first guide portion 121 and the second guide portion. 122 can be used.

また、本発明の実施の形態に係る画像式車両感知器では、第1撮影部11,11Cは、道路100,100Cの西側を撮影するように配置され、第2撮影部12,12Cは、道路100,100Cの東側を撮影するように配置される構成を説明したが、これに限定するものではない。たとえば、第1撮影部11,11Cを、道路100,100Cの東側を撮影するように配置し、第2撮影部12,12Cを、道路100,100Cの西側を撮影するように配置してもよい。この場合、第1撮影期間は、第1画像データで特定される第1画像における夕日の強さよりも、第2画像データで特定される第2画像における夕日の強さの大きい期間となるように、設定される。また、第2撮影期間は、第2画像データで特定される第2画像における朝日の強さよりも、第1画像データで特定される第1画像における朝日の強さの大きい期間となるように、設定される。   In the image type vehicle detector according to the embodiment of the present invention, the first photographing units 11 and 11C are arranged to photograph the west side of the roads 100 and 100C, and the second photographing units 12 and 12C Although the structure arrange | positioned so that the east side of 100,100C may be image | photographed was demonstrated, it is not limited to this. For example, the first photographing units 11 and 11C may be arranged so as to photograph the east side of the roads 100 and 100C, and the second photographing units 12 and 12C may be arranged so as to photograph the west side of the roads 100 and 100C. . In this case, the first photographing period is a period in which the sunset intensity in the second image specified by the second image data is larger than the sunset intensity in the first image specified by the first image data. Is set. In addition, the second shooting period is a period in which the intensity of the morning sun in the first image specified by the first image data is greater than the intensity of the morning sun in the second image specified by the second image data. Is set.

また、本発明の実施の形態に係る画像式車両感知器では、図2および図14に示すように、選択部35は、車両感知部5,5Eに含まれる構成を説明したが、これに限定するものではない。たとえば、選択部35および感知データ伝送部36は、中央処理装置102に含まれていてもよい。この場合、中央処理装置102は、画像式車両感知器の一部を構成する。また、この場合、第1画像感知処理部32の感知処理結果、および第2画像感知処理部34の感知処理結果が、ともに、中央処理装置102に伝送される。   In the image type vehicle detector according to the embodiment of the present invention, as shown in FIGS. 2 and 14, the selection unit 35 has been described as being included in the vehicle detection units 5 and 5E. However, the present invention is not limited to this. Not what you want. For example, the selection unit 35 and the sensing data transmission unit 36 may be included in the central processing unit 102. In this case, the central processing unit 102 constitutes a part of the image type vehicle sensor. In this case, both the detection processing result of the first image detection processing unit 32 and the detection processing result of the second image detection processing unit 34 are transmitted to the central processing unit 102.

また、本発明の実施の形態に係る画像式車両感知器では、図4および図11に示すように、選択部52は、車両感知部5B,5Dに含まれる構成を説明したが、これに限定するものではない。たとえば、選択部52、画像感知処理部51、および感知データ伝送部36は、中央処理装置102に含まれていてもよい。この場合、中央処理装置102は、画像式車両感知器の一部を構成する。また、この場合、画像感知処理部51の感知処理は、中央処理装置102において行われる。   Further, in the image type vehicle sensor according to the embodiment of the present invention, as shown in FIGS. 4 and 11, the selection unit 52 has been described as being included in the vehicle detection units 5B and 5D, but the present invention is not limited thereto. Not what you want. For example, the selection unit 52, the image detection processing unit 51, and the detection data transmission unit 36 may be included in the central processing unit 102. In this case, the central processing unit 102 constitutes a part of the image type vehicle sensor. In this case, the detection processing of the image detection processing unit 51 is performed in the central processing unit 102.

また、本発明の実施の形態に係る画像式車両感知器では、撮影部150で生成された、像153の撮影画像データを基に、画像補正部152が、第1画像データと、第2画像データとを分割する構成を説明した。しかしながら、これに限定するものではない。たとえば、車両感知部5D,Eは、撮影部150で生成された撮影画像データを分離することなく、撮影画像データのうちの第1画像データ、または第2画像データを選択し、車両101の感知処理を行ってもよい。   In the image type vehicle sensor according to the embodiment of the present invention, the image correction unit 152 uses the first image data and the second image based on the captured image data of the image 153 generated by the imaging unit 150. The configuration for dividing data has been described. However, the present invention is not limited to this. For example, the vehicle sensing units 5D and E select the first image data or the second image data from the photographed image data without separating the photographed image data generated by the photographing unit 150, and detect the vehicle 101. Processing may be performed.

また、本発明の実施の形態に係る画像式車両感知器は、東西に延びる道路に設置される構成を説明したが、これに限定するものではない。画像式車両感知器が設置される道路の進行方向は、特に限定されない。   Moreover, although the image type vehicle sensor which concerns on embodiment of this invention demonstrated the structure installed in the road extended east and west, it is not limited to this. The traveling direction of the road where the image type vehicle sensor is installed is not particularly limited.

また、本発明の実施の形態に係る画像式車両感知器は、日光に晒される場所に配置される構成を説明したが、これに限定するものではない。画像式車両感知器は、トンネル内に配置されていてもよい。この場合、たとえば、トンネル内の照明が、一方の撮影部または光学部材の一方の案内部に直接照射されている場合に、他方の案内部からの像を撮影した画像データを用いて、車両の感知処理を行うことができる。   Moreover, although the image type vehicle sensor which concerns on embodiment of this invention demonstrated the structure arrange | positioned in the place exposed to sunlight, it is not limited to this. The image-type vehicle sensor may be disposed in the tunnel. In this case, for example, when the illumination in the tunnel is directly radiated to one imaging unit or one guide part of the optical member, the image of the vehicle is used to capture the image from the other guide unit. Sensing processing can be performed.

上記実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The above embodiment should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1,1C 画像式車両感知器
2,2C 第1計測エリア
3,3C 第2計測エリア
8,8C 光学部材
11,11C 第1撮影部
12,12C 第2撮影部
21C 第1像
22C 第2像
32 第1画像感知処理部(第1処理部)
34 第2画像感知処理部(第2処理部)
35 選択部
39 画像データ伝送部(画像データ出力部)
51 画像感知処理部(1つの処理部、第1処理部、第2処理部)
52 選択部
100,100C 道路
101 車両
121 第1案内部
122 第2案内部
150 撮影部(1つの撮影部)
152 画像補正部(補正部)
D1 進行方向
DESCRIPTION OF SYMBOLS 1,1C Image type vehicle detector 2,2C 1st measurement area 3,3C 2nd measurement area 8,8C Optical member 11,11C 1st imaging | photography part 12,12C 2nd imaging | photography part 21C 1st image 22C 2nd image 32 First image sensing processor (first processor)
34 Second image sensing processor (second processor)
35 selection unit 39 image data transmission unit (image data output unit)
51 Image sensing processor (one processor, first processor, second processor)
52 selection unit 100, 100C road 101 vehicle 121 first guide unit 122 second guide unit 150 imaging unit (one imaging unit)
152 Image correction unit (correction unit)
D1 Direction of travel

Claims (12)

道路における第1計測エリアを所定の進行方向に沿って通行する1または複数の車両を撮影することで得られた第1画像データに基づいて、各前記車両の感知処理を行うことが可能な第1処理部と、
前記第1計測エリアを通過した各前記車両の通行先の前記道路における第2計測エリアを撮影することで得られた第2画像データに基づいて、各前記車両の感知処理を行うことが可能な第2処理部と、
前記第1処理部における感知処理結果、および前記第2処理部における感知処理結果の何れを出力するか選択可能な選択部と、
を備えている、画像式車両感知器。
Based on the first image data obtained by photographing one or a plurality of vehicles passing through the first measurement area on the road along a predetermined traveling direction, a sensing process for each of the vehicles can be performed. One processing unit;
It is possible to perform the sensing process for each vehicle based on the second image data obtained by photographing the second measurement area on the road to which each vehicle that has passed through the first measurement area is taken. A second processing unit;
A selection unit capable of selecting which of a sensing process result in the first processing unit and a sensing process result in the second processing unit is to be output;
An image-type vehicle detector.
前記第1処理部および前記第2処理部は、各前記車両の感知処理を並行して行うことが可能であり、
前記選択部は、前記第1処理部における感知処理結果と、前記第2処理部における感知処理結果の何れかを出力可能である、請求項1に記載の画像式車両感知器。
The first processing unit and the second processing unit can perform sensing processing of each vehicle in parallel,
The image type vehicle sensor according to claim 1, wherein the selection unit is capable of outputting either a sensing process result in the first processing unit or a sensing process result in the second processing unit.
1つの処理部によって前記第1処理部および前記第2処理部が構成されており、
前記選択部は、前記1つの処理部に対して、前記第1画像データおよび前記第2画像データのうちの何れに基づいて各前記車両の感知処理を行わせるかを指示することが可能である、請求項1に記載の画像式車両感知器。
The first processing unit and the second processing unit are configured by one processing unit,
The selection unit can instruct the one processing unit to perform sensing processing of each vehicle based on which of the first image data and the second image data. The image type vehicle sensor according to claim 1.
前記第1画像データおよび前記第2画像データの少なくとも一方を出力する画像データ出力部をさらに備えている、請求項1から請求項3の何れか1項に記載の画像式車両感知器。   The image type vehicle sensor according to any one of claims 1 to 3, further comprising an image data output unit that outputs at least one of the first image data and the second image data. 前記第1計測エリアを通行する各前記車両を各前記車両の前方側から撮影するための第1撮影部と、
前記第2計測エリアを通行する各前記車両を各前記車両の後方側から撮影するための第2撮影部と、
をさらに備えている、請求項1から請求項4の何れか1項に記載の画像式車両感知器。
A first photographing unit for photographing each vehicle passing through the first measurement area from the front side of each vehicle;
A second photographing unit for photographing each vehicle passing through the second measurement area from the rear side of each vehicle;
The image type vehicle sensor according to any one of claims 1 to 4, further comprising:
前記第1撮影部および前記第2撮影部は、前記進行方向に関して互いに反対向きに配置されている、請求項5に記載の画像式車両感知器。   The image-type vehicle detector according to claim 5, wherein the first photographing unit and the second photographing unit are disposed in opposite directions with respect to the traveling direction. 光学部材をさらに備え、
前記光学部材は、前記第1計測エリアを前記第1計測エリアの前方側から見た第1像を前記第1撮影部に光学的に案内するための第1案内部と、前記第2計測エリアを前記第2計測エリアの後方側から見た第2像を前記第2撮影部に光学的に案内するための第2案内部と、を含む、請求項5に記載の画像式車両感知器。
An optical member;
The optical member includes a first guide unit for optically guiding a first image of the first measurement area viewed from the front side of the first measurement area to the first photographing unit, and the second measurement area. The image-type vehicle detector according to claim 5, further comprising: a second guide unit for optically guiding a second image of the second measurement area viewed from the rear side of the second measurement area to the second imaging unit.
光学部材と、
前記光学部材からの像を撮影する1つの撮影部と、をさらに備え、
前記光学部材は、前記第1計測エリアを前記第1計測エリアの前方側から見た第1像を前記1つの撮影部に光学的に案内するための第1案内部と、前記第2計測エリアを前記第2計測エリアの後方側から見た第2像を前記1つの撮影部に光学的に案内するための第2案内部と、を含み、
前記第1画像データは、前記第1像に基づくものであり、前記第2画像データは、前記第2像に基づくものである、請求項1から請求項4の何れか1項に記載の画像式車両感知器。
An optical member;
A single photographing unit for photographing an image from the optical member, and
The optical member includes a first guide unit for optically guiding a first image of the first measurement area viewed from the front side of the first measurement area to the one photographing unit, and the second measurement area. A second guide unit for optically guiding a second image of the second measurement area viewed from the rear side to the one photographing unit,
The image according to any one of claims 1 to 4, wherein the first image data is based on the first image, and the second image data is based on the second image. Type vehicle detector.
前記選択部は、所定の第1期間においては、前記第1処理部の感知処理結果を出力し、前記第1期間とは異なる所定の第2期間においては、前記第2処理部の感知処理結果を出力する、請求項1から請求項8の何れか1項に記載の画像式車両感知器。   The selection unit outputs a sensing process result of the first processing unit in a predetermined first period, and a sensing process result of the second processing unit in a predetermined second period different from the first period. The image type vehicle sensor according to any one of claims 1 to 8, wherein: 前記第1期間は、前記第1画像データで特定される第1画像における朝日または夕日の強さよりも、前記第2画像データで特定される第2画像における前記朝日または夕日の強さの大きい第1撮影期間を含み、
前記第2期間は、前記第2画像データで特定される第2画像における夕日または朝日の強さよりも、前記第1画像データで特定される第1画像における前記夕日または朝日の強さの大きい第2撮影期間を含む、請求項9に記載の画像式車両感知器。
In the first period, the intensity of the sunrise or sunset in the second image specified by the second image data is greater than the intensity of the sunrise or sunset in the first image specified by the first image data. Including one shooting period,
In the second period, the intensity of the sunset or sunrise in the first image specified by the first image data is greater than the intensity of sunset or sunrise in the second image specified by the second image data. The image type vehicle sensor according to claim 9, comprising two shooting periods.
前記第1期間は、前記第2計測エリアを撮影する第2撮影部をメンテナンスするための第1メンテナンス期間を含み、
前記第2期間は、前記第1計測エリアを撮影する第1撮影部をメンテナンスするための第2メンテナンス期間を含む、請求項9または請求項10に記載の画像式車両感知器。
The first period includes a first maintenance period for maintaining a second imaging unit that images the second measurement area,
11. The image type vehicle sensor according to claim 9, wherein the second period includes a second maintenance period for maintaining the first photographing unit that photographs the first measurement area.
コンピュータに、
道路における第1計測エリアを所定の進行方向に沿って通行する1または複数の車両を撮影することで得られた第1画像データを受け容れるステップと、
前記第1計測エリアを通過した各前記車両の通行先の前記道路における第2計測エリアを撮影することで得られた第2画像データを受け容れるステップと、
前記第1画像データおよび前記第2画像データの何れか一方に基づいて各前記車両の感知処理を行った感知処理結果を出力するステップと、
を実行させるための、車両感知プログラム。
On the computer,
Accepting first image data obtained by photographing one or more vehicles passing through a first measurement area on a road along a predetermined traveling direction;
Accepting second image data obtained by photographing the second measurement area on the road to which each of the vehicles that have passed through the first measurement area is taken; and
Outputting a sensing process result obtained by performing a sensing process on each vehicle based on one of the first image data and the second image data;
A vehicle sensing program for executing
JP2012040594A 2012-02-27 2012-02-27 Image type vehicle sensor and vehicle sensing program Pending JP2013175131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012040594A JP2013175131A (en) 2012-02-27 2012-02-27 Image type vehicle sensor and vehicle sensing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012040594A JP2013175131A (en) 2012-02-27 2012-02-27 Image type vehicle sensor and vehicle sensing program

Publications (1)

Publication Number Publication Date
JP2013175131A true JP2013175131A (en) 2013-09-05

Family

ID=49267964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012040594A Pending JP2013175131A (en) 2012-02-27 2012-02-27 Image type vehicle sensor and vehicle sensing program

Country Status (1)

Country Link
JP (1) JP2013175131A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10186148B2 (en) 2014-12-15 2019-01-22 Sumitomo Electric Industries, Ltd. Roadside control apparatus, computer program, and information processing method
US10249183B2 (en) 2015-02-23 2019-04-02 Sumitomo Electric Industries, Ltd. Traffic index generation device, traffic index generation method, and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10186148B2 (en) 2014-12-15 2019-01-22 Sumitomo Electric Industries, Ltd. Roadside control apparatus, computer program, and information processing method
US10249183B2 (en) 2015-02-23 2019-04-02 Sumitomo Electric Industries, Ltd. Traffic index generation device, traffic index generation method, and computer program

Similar Documents

Publication Publication Date Title
CN104024827B (en) Image processing apparatus, image capture method and vehicle
US7863568B2 (en) Photosensitive sensor in the automotive field
JP5421072B2 (en) Approaching object detection system
RU2546547C1 (en) Driving aid and method of vehicle detection nearby it
US20100208060A1 (en) Liquid droplet recognition apparatus, raindrop recognition apparatus, and on-vehicle monitoring apparatus
KR101275297B1 (en) Camera Apparatus of tracking moving object
CN102566212A (en) Camera system and method for operating a camera system for a motor vehicle
JP2013190417A (en) Imaging unit and installation method thereof
JP2008170256A (en) Flaw detection method, flaw detection program and inspection device
JP2007127595A (en) Foreign substance detection instrument
JP2013175131A (en) Image type vehicle sensor and vehicle sensing program
JP4359293B2 (en) Glass bottle inspection equipment
JP2013175130A (en) Image type vehicle sensor
JP2011165005A (en) Imaging apparatus and toll collection system
JP5603302B2 (en) Vehicle monitoring device
JP4679282B2 (en) Substrate inspection apparatus and substrate inspection method
JPH0687377A (en) Monitor for vehicle periphery
JP6280426B2 (en) Vehicle headlight measuring device
JP3848310B2 (en) Glass bottle inspection equipment
KR101403926B1 (en) Apparatus for inspecting curved surface
JP2005249946A (en) Defect inspecting apparatus for display device
JP3837737B2 (en) Imaging device
JP2009098069A (en) Apparatus and method of measuring deflection of rotating body
KR101210737B1 (en) An image acquisition system
CN220022902U (en) Chip detection device