JP2013175131A - Image type vehicle sensor and vehicle sensing program - Google Patents
Image type vehicle sensor and vehicle sensing program Download PDFInfo
- Publication number
- JP2013175131A JP2013175131A JP2012040594A JP2012040594A JP2013175131A JP 2013175131 A JP2013175131 A JP 2013175131A JP 2012040594 A JP2012040594 A JP 2012040594A JP 2012040594 A JP2012040594 A JP 2012040594A JP 2013175131 A JP2013175131 A JP 2013175131A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- vehicle
- image data
- photographing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、道路を通行する車両を撮影することで得られた画像データを基に車両感知処理を行う、画像式車両感知器、および車両感知プログラムに関する。 The present invention relates to an image-type vehicle detector and a vehicle detection program for performing vehicle detection processing based on image data obtained by photographing a vehicle traveling on a road.
特開2000−99877号公報(特許文献1)には、画像式車両検知器が開示されている。この検知器は、車線毎にカメラを設置し、車両映像を車線毎にデジタル化する。そして、処理部で、車線毎のデジタル映像を解析して、車線毎の走行台数と車両速度を計測する。 Japanese Patent Laid-Open No. 2000-99877 (Patent Document 1) discloses an image type vehicle detector. This detector installs a camera for each lane and digitizes the vehicle image for each lane. And a processing part analyzes the digital image | video for every lane, and measures the number of vehicles and vehicle speed for every lane.
特許文献1に記載の構成では、カメラのレンズに光触媒を塗布しておくことにより、レンズが汚れることを抑制している。しかしながら、レンズが汚れることを完全に防止することはできない。このため、カメラのレンズを定期的に清掃する必要がある。この清掃作業の際、レンズは、布などの清掃部材によって拭かれる。このため、清掃作業を行っている間、清掃作業が行われているカメラは、車両を撮影することができない。すなわち、車両を感知するための撮影処理が途切れてしまう。
In the configuration described in
なお、特許文献1に記載の構成では、車線毎にカメラが設置されているが、各カメラの撮影範囲は異なっている。したがって、たとえば、右側車線を撮影するカメラは、左側車線を走行する車両を撮影することができない。このため、複数のカメラ同士が撮影処理を補い合う構成となっておらず、上記した、撮影処理の途切れを防止できない。
In the configuration described in
この発明は、上述の課題を解決するためになされたもので、その目的は、車両を感知するための処理の中断を抑制できる画像式車両感知器、および車両感知プログラムを提供することである。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image type vehicle sensor and a vehicle detection program that can suppress interruption of processing for detecting a vehicle.
(1)上記課題を解決するために、この発明のある局面に係わる画像式車両感知器は、道路における第1計測エリアを所定の進行方向に沿って通行する1または複数の車両を撮影することで得られた第1画像データに基づいて、各上記車両の感知処理を行うことが可能な第1処理部と、上記第1計測エリアを通過した各上記車両の通行先の前記道路における第2計測エリアを撮影することで得られた第2画像データに基づいて、各上記車両の感知処理を行うことが可能な第2処理部と、上記第1処理部における感知処理結果、および上記第2処理部における感知処理結果の何れを出力するか選択可能な選択部と、を備えている。
(1) In order to solve the above-described problem, an image-type vehicle detector according to an aspect of the present invention photographs one or a plurality of vehicles passing through a first measurement area on a road along a predetermined traveling direction. A first processing unit capable of performing a sensing process for each of the vehicles based on the first image data obtained in
このような構成によれば、第1画像データおよび第2画像データの何れか一方の画像データについて、車両感知を行うことができない状態であっても、他方の画像データを用いて、車両感知処理を行うことができる。これにより、車両を感知するための処理の中断を抑制することができる。たとえば、第1画像データを得るための撮影部について、清掃作業が行われる場合でも、第2画像データを得るための撮影部を用いて、第2画像データを得ることができる。同様に、たとえば、第2画像データを得るための撮影部について、清掃作業が行われる場合でも、第1画像データを得るための撮影部を用いて、第1画像データを得ることができる。したがって、車両を感知するための処理の中断を抑制できる画像式車両感知器を実現できる。 According to such a configuration, even if it is in a state in which vehicle detection cannot be performed for one of the first image data and the second image data, the vehicle detection process is performed using the other image data. It can be performed. Thereby, the interruption of the process for detecting a vehicle can be suppressed. For example, the second image data can be obtained by using the photographing unit for obtaining the second image data even when the photographing operation for obtaining the first image data is performed. Similarly, for example, even when a cleaning operation is performed on an imaging unit for obtaining the second image data, the first image data can be obtained using the imaging unit for obtaining the first image data. Accordingly, it is possible to realize an image type vehicle detector that can suppress interruption of processing for detecting the vehicle.
(2)好ましくは、上記第1処理部および上記第2処理部は、各上記車両の感知処理を並行して行うことが可能であり、上記選択部は、上記第1処理部における感知処理結果と、上記第2処理部における感知処理結果の何れかを出力可能である。 (2) Preferably, the first processing unit and the second processing unit are capable of performing sensing processing of each vehicle in parallel, and the selection unit is configured to perform sensing processing results in the first processing unit. And any of the sensing processing results in the second processing unit can be output.
これにより、一方の処理部による感知処理結果を出力している状態から、他方の処理部による感知処理結果を出力する状態への切り替えを、より迅速に行うことができる。その結果、車両の感知処理結果の欠損を、より少なくすることができる。 As a result, it is possible to more quickly switch from the state in which the sensing processing result by one processing unit is output to the state in which the sensing processing result by the other processing unit is output. As a result, it is possible to reduce the loss of the vehicle sensing process result.
(3)好ましくは、1つの処理部によって上記第1処理部および上記第2処理部が構成されており、上記選択部は、上記1つの処理部に対して、上記第1画像データおよび上記第2画像データのうちの何れに基づいて各上記車両の感知処理を行わせるかを指示することが可能である。 (3) Preferably, the first processing unit and the second processing unit are configured by one processing unit, and the selection unit transmits the first image data and the first processing unit to the one processing unit. Based on which of the two image data, it is possible to instruct whether to perform the sensing process for each vehicle.
これにより、1つの処理部で、第1画像データを用いた車両感知処理と、第2画像データを用いた車両感知処理の双方を行うことができる。よって、画像式車両感知器の製造コストを、より少なくできる。 As a result, both the vehicle sensing process using the first image data and the vehicle sensing process using the second image data can be performed by one processing unit. Therefore, the manufacturing cost of the image type vehicle sensor can be further reduced.
(4)好ましくは、上記第1画像データおよび上記第2画像データの少なくとも一方を出力する画像データ出力部をさらに備えている。 (4) Preferably, an image data output unit that outputs at least one of the first image data and the second image data is further provided.
これにより、第1画像データおよび第2画像データの少なくとも一方を、たとえば、交通管制センターなどに出力することができる。これにより、交通管制センターのモニターなどに、道路の画像を写すことができる。その結果、車両感知のために撮影して得られた第1画像データおよび第2画像データの少なくとも一方を、オペレータの目視による道路監視に用いることもできる。これにより、たとえば、道路で事故が発生した場合に、道路状況を、第1計測エリアおよび第2計測エリアの少なくとも一方について確認することができる。これにより、第1画像データおよび第2画像データを、オペレータの目視による道路監視に用いるなど、より有効に活用することができる。 Thereby, at least one of the first image data and the second image data can be output to, for example, a traffic control center. As a result, an image of the road can be shown on a monitor of a traffic control center. As a result, at least one of the first image data and the second image data obtained by photographing for vehicle sensing can also be used for road monitoring by an operator's visual observation. Thereby, for example, when an accident occurs on a road, the road condition can be confirmed for at least one of the first measurement area and the second measurement area. Thereby, the first image data and the second image data can be used more effectively, for example, for road monitoring by visual observation by the operator.
(5)好ましくは、上記第1計測エリアを通行する各上記車両を各上記車両の前方側から撮影するための第1撮影部と、上記第2計測エリアを通行する各上記車両を各上記車両の後方側から撮影するための第2撮影部と、をさらに備えている。 (5) Preferably, each vehicle that passes through the first measurement area is photographed from the front side of each vehicle, and each vehicle that passes through the second measurement area is each vehicle. And a second photographing unit for photographing from the rear side.
このような構成によれば、第1撮影部から、第1撮影部に撮影される車両に向かう方向と、第2撮影部から、第2撮影部に撮影される車両に向かう方向とは、道路の進行方向に平行な成分において、反対向きとなる。このため、たとえば、第1画像データによって特定される第1画像においては日光の写りこみ量が多い場合でも、第2画像データによって特定される第2画像においては日光の写りこみ量が少ない態様で、第2画像を得ることができる。同様に、たとえば、第2画像データによって特定される第2画像においては日光の写りこみ量が多い場合でも、第1画像データによって特定される第1画像においては日光の写りこみ量が少ない態様で、第1画像を得ることができる。すなわち、朝日が昇る時間帯であれば、第1画像および第2画像のうち、朝日の写りこみ量の少ないほうの画像の画像データを基に、車両の感知処理を行うことができる。また、夕日が沈む時間帯であれば、第1画像および第2画像のうち、夕日の写りこみ量の少ないほうの画像の画像データを基に、車両の感知処理を行うことができる。これにより、朝日が昇る時間帯、および夕日が沈む時間帯の何れの場合でも、直射日光が過度に写りこむことが抑制された画像の画像データを基に、車両の感知処理を行うことができる。よって、日光などの強い光に起因する車両感知性能の低下を抑制することができる。さらに、たとえば、第1撮影部および第2撮影部の一方が、メンテナンスまたは故障のために車両感知のための撮影を行うことができない場合でも、他方によって、車両感知のための撮影を行うことができる。これにより、車両を感知するための処理の中断を、より確実に抑制できる。 According to such a configuration, the direction from the first photographing unit to the vehicle photographed by the first photographing unit and the direction from the second photographing unit to the vehicle photographed by the second photographing unit are roads In the component parallel to the traveling direction, the directions are opposite. For this reason, for example, even when the amount of sunlight reflected in the first image specified by the first image data is large, the amount of sunlight reflected is small in the second image specified by the second image data. A second image can be obtained. Similarly, for example, even if the amount of sunlight reflected in the second image specified by the second image data is large, the amount of sunlight reflected is small in the first image specified by the first image data. A first image can be obtained. That is, during the time when the morning sun rises, the vehicle sensing process can be performed based on the image data of the first image and the second image with the smaller amount of reflected sunrise. Further, in the time zone when the sunset is set, the vehicle sensing process can be performed based on the image data of the first image and the second image with the smaller amount of sunset reflected. As a result, the vehicle sensing process can be performed on the basis of the image data of the image in which the direct sunlight is suppressed from being excessively reflected in both the time when the sun rises and the time when the sunset falls. . Therefore, it is possible to suppress a decrease in vehicle sensing performance caused by strong light such as sunlight. Further, for example, even when one of the first photographing unit and the second photographing unit cannot perform photographing for vehicle sensing due to maintenance or failure, the other photographing can be performed for vehicle sensing. it can. Thereby, the interruption of the process for detecting a vehicle can be suppressed more reliably.
(6)好ましくは、上記第1撮影部および上記第2撮影部は、上記進行方向に関して互いに反対向きに配置されている。 (6) Preferably, the said 1st imaging | photography part and the said 2nd imaging | photography part are arrange | positioned in the mutually opposite direction regarding the said advancing direction.
これにより、第1撮影部によって、車両の車頭(前端)を、より確実に撮影することができる。また、第2撮影部によって、車両の車尾(後端)を、より確実に撮影することができる。 Accordingly, the first photographing unit can photograph the vehicle head (front end) of the vehicle more reliably. In addition, the second photographing unit can more reliably photograph the stern (rear end) of the vehicle.
(7)好ましくは、光学部材をさらに備え、上記光学部材は、上記第1計測エリアを上記第1計測エリアの前方側から見た第1像を上記第1撮影部に光学的に案内するための第1案内部と、上記第2計測エリアを上記第2計測エリアの後方側から見た第2像を上記第2撮影部に光学的に案内するための第2案内部と、を含む。 (7) Preferably, an optical member is further provided, and the optical member optically guides the first image obtained by viewing the first measurement area from the front side of the first measurement area to the first photographing unit. And a second guide for optically guiding the second image obtained by viewing the second measurement area from the rear side of the second measurement area to the second imaging unit.
これにより、第1像および第2像は、それぞれ、光学部材によって、対応する第1撮影部および第2撮影部へ案内される。したがって、第1撮影部および第2撮影部は、それぞれ、第1計測エリアおよび第2計測エリアを、光学部材を介して間接的に撮影できる。よって、第1撮影部および第2撮影部は、たとえば日光を直接入射されずに済む。これにより、第1撮影部および第2撮影部に不要な光が入射されることを抑制できる。したがって、日光などの強い光に起因する車両感知精度の低下を、より一層抑制することができる。 Accordingly, the first image and the second image are guided to the corresponding first photographing unit and second photographing unit by the optical member, respectively. Therefore, the first photographing unit and the second photographing unit can indirectly photograph the first measurement area and the second measurement area via the optical member, respectively. Therefore, the first photographing unit and the second photographing unit do not need to be directly incident with sunlight, for example. Thereby, it can suppress that unnecessary light injects into a 1st imaging | photography part and a 2nd imaging | photography part. Accordingly, it is possible to further suppress a decrease in vehicle detection accuracy caused by strong light such as sunlight.
(8)好ましくは、光学部材と、上記光学部材からの像を撮影する1つの撮影部と、をさらに備える。また、上記光学部材は、上記第1計測エリアを上記第1計測エリアの前方側から見た第1像を上記1つの撮影部に光学的に案内するための第1案内部と、上記第2計測エリアを上記第2計測エリアの後方側から見た第2像を上記1つの撮影部に光学的に案内するための第2案内部と、を含む。また、上記第1画像データは、上記第1像に基づくものであり、上記第2画像データは、上記第2像に基づくものである。 (8) Preferably, an optical member and a single photographing unit that photographs an image from the optical member are further provided. The optical member includes a first guide unit for optically guiding a first image of the first measurement area viewed from the front side of the first measurement area to the one photographing unit; A second guide unit for optically guiding the second image obtained by viewing the measurement area from the rear side of the second measurement area to the one photographing unit. The first image data is based on the first image, and the second image data is based on the second image.
このような構成によれば、撮影部から、第1計測エリアに向かう方向と、撮影部から、第2計測エリアに向かう方向とは、道路の進行方向に平行な成分において、反対向きとなる。このため、たとえば、第1画像データによって特定される第1画像においては日光の写りこみ量が多い場合でも、第2画像データによって特定される第2画像においては日光の写りこみ量が少ない態様で、第2画像を得ることができる。同様に、たとえば、第2画像データによって特定される第2画像においては日光の写りこみ量が多い場合でも、第1画像データによって特定される第1画像においては日光の写りこみ量が少ない態様で、第1画像を得ることができる。すなわち、朝日が昇る時間帯であれば、第1画像および第2画像のうち、朝日の写りこみ量の少ないほうの画像の画像データを基に、車両の感知処理を行うことができる。また、夕日が沈む時間帯であれば、第1画像および第2画像のうち、夕日の写りこみ量の少ないほうの画像の画像データを基に、車両の感知処理を行うことができる。これにより、朝日が昇る時間帯、および夕日が沈む時間帯の何れの場合でも、直射日光が過度に写りこむことが抑制された画像の画像データを基に、車両の感知処理を行うことができる。よって、日光などの強い光に起因する車両感知性能の低下を抑制することができる。また、第1像および第2像は、それぞれ、光学部材によって、撮影部へ案内される。これにより、撮影部は、第1計測エリアおよび第2計測エリアを、光学部材を介して間接的に撮影できる。したがって、撮影部は、たとえば日光を直接入射されずに済む。これにより、撮影部に不要な光が入射されることを抑制できる。したがって、日光などの強い光に起因する車両感知精度の低下を、より一層抑制することができる。さらに、第1計測エリアおよび第2計測エリアを1つの撮影部によって撮影することができる。これにより、撮影部を2つ設ける必要がなく、画像式車両感知器の製造コストを、より少なくできる。また、撮影部のうち、第1像を撮影している箇所および第2像を撮影している箇所の何れか一方を清掃している場合に、他方から得られる画像データを用いて、車両感知処理を継続することができる。したがって、撮影部が1つの場合でも、車両を感知するための処理の中断を抑制できる。 According to such a configuration, the direction from the imaging unit toward the first measurement area and the direction from the imaging unit toward the second measurement area are opposite in the component parallel to the traveling direction of the road. For this reason, for example, even when the amount of sunlight reflected in the first image specified by the first image data is large, the amount of sunlight reflected is small in the second image specified by the second image data. A second image can be obtained. Similarly, for example, even if the amount of sunlight reflected in the second image specified by the second image data is large, the amount of sunlight reflected is small in the first image specified by the first image data. A first image can be obtained. That is, during the time when the morning sun rises, the vehicle sensing process can be performed based on the image data of the first image and the second image with the smaller amount of reflected sunrise. Further, in the time zone when the sunset is set, the vehicle sensing process can be performed based on the image data of the first image and the second image with the smaller amount of sunset reflected. As a result, the vehicle sensing process can be performed on the basis of the image data of the image in which the direct sunlight is suppressed from being excessively reflected in both the time when the sun rises and the time when the sunset falls. . Therefore, it is possible to suppress a decrease in vehicle sensing performance caused by strong light such as sunlight. The first image and the second image are each guided to the photographing unit by the optical member. Thereby, the imaging | photography part can image | photograph a 1st measurement area and a 2nd measurement area indirectly via an optical member. Therefore, for example, the photographing unit does not need to be directly incident with sunlight. Thereby, it can suppress that unnecessary light injects into an imaging | photography part. Accordingly, it is possible to further suppress a decrease in vehicle detection accuracy caused by strong light such as sunlight. Furthermore, the first measurement area and the second measurement area can be photographed by one photographing unit. Thereby, it is not necessary to provide two photographing units, and the manufacturing cost of the image type vehicle sensor can be further reduced. In addition, when either one of the photographing part where the first image is photographed or the second image is photographed is cleaned, vehicle detection is performed using image data obtained from the other part. Processing can continue. Therefore, even when there is one photographing unit, it is possible to suppress interruption of processing for sensing the vehicle.
(9)好ましくは、上記選択部は、所定の第1期間においては、上記第1処理部の感知処理結果を出力し、上記第1期間とは異なる所定の第2期間においては、上記第2処理部の感知処理結果を出力する。 (9) Preferably, the selection unit outputs a sensing process result of the first processing unit in a predetermined first period, and the second unit in a predetermined second period different from the first period. The detection processing result of the processing unit is output.
これにより、第1画像データおよび第2画像データのうち、車両の感知処理により適した画像データを用いて得られた感知結果を、画像式車両感知器から出力することができる。 Thereby, the sensing result obtained using the image data more suitable for the sensing process of the vehicle among the first image data and the second image data can be output from the image type vehicle sensor.
(10)さらに好ましくは、上記第1期間は、上記第1画像データで特定される第1画像における朝日または夕日の強さよりも、上記第2画像データで特定される第2画像における前記朝日または夕日の強さの大きい第1撮影期間を含み、上記第2期間は、上記第2画像データで特定される第2画像における夕日または朝日の強さよりも、上記第1画像データで特定される第1画像における前記夕日または朝日の強さの大きい第2撮影期間を含む。 (10) More preferably, in the first period, the sunrise or the sun in the second image specified by the second image data is stronger than the intensity of the sunrise or the sunset in the first image specified by the first image data. Including a first shooting period in which the intensity of sunset is large, and the second period is specified by the first image data rather than the intensity of sunset or sunrise in the second image specified by the second image data. The second shooting period in which the intensity of sunset or morning sun in one image is large is included.
これにより、第1撮影期間では、第1像および第2像のうち、朝日または夕日の写りこみ量がより少ない第1像を撮影して得られた第1画像データを用いて、車両の感知処理を行うことができる。これにより、朝日または夕日の影響が抑制された状態で、車両の感知処理を、より精度よく行うことができる。また、第2撮影期間では、第1像および第2像のうち、夕日または朝日の写りこみ量がより少ない第2像を撮影して得られた第2画像データを用いて、車両の感知処理を行うことができる。これにより、夕日または朝日の影響が抑制された状態で、車両の感知処理を、より精度よく行うことができる。 As a result, during the first shooting period, vehicle detection is performed using the first image data obtained by shooting the first image with the smaller amount of reflection of the morning sun or the sunset from the first image and the second image. Processing can be performed. Accordingly, the vehicle sensing process can be performed with higher accuracy in a state where the influence of the morning sun or sunset is suppressed. Further, in the second shooting period, the vehicle sensing process is performed using the second image data obtained by shooting the second image with a smaller amount of sunset or sunrise in the first image and the second image. It can be performed. Accordingly, the vehicle sensing process can be performed with higher accuracy in a state where the influence of the sunset or the morning sun is suppressed.
好ましくは、上記選択部は、午後の所定の時間帯を含む期間を上記第2撮影期間として設定する。 Preferably, the selection unit sets a period including a predetermined afternoon time zone as the second imaging period.
このように、午後の所定の時間帯を第2期間として設定するという簡易な構成で、夕日の影響が抑制された状態で、車両の感知処理を行うことができる。すなわち、第1像および第2像における夕日の強さなどを測定するという、手間のかかる処理が必要ない。 As described above, the vehicle sensing process can be performed in a state in which the influence of the sunset is suppressed with a simple configuration in which the predetermined time zone in the afternoon is set as the second period. That is, a time-consuming process of measuring the intensity of sunset in the first image and the second image is not necessary.
好ましくは、上記選択部は、午前の所定の時間帯を含む期間を上記第1撮影期間として設定する。 Preferably, the selection unit sets a period including a predetermined morning time zone as the first imaging period.
このように、午前の所定の時間帯を第1期間として設定するという簡易な構成で、朝日の影響が抑制された状態で、車両の感知処理を行うことができる。すなわち、第1像および第2像における朝日の強さなどを測定するという、手間のかかる処理が必要ない。 Thus, the vehicle sensing process can be performed with a simple configuration in which a predetermined time zone in the morning is set as the first period, with the influence of Asahi being suppressed. That is, the time-consuming process of measuring the intensity of the morning sun in the first image and the second image is not necessary.
(11)好ましくは、上記第1期間は、上記第2計測エリアを撮影する第2撮影部をメンテナンスするための第1メンテナンス期間を含み、上記第2期間は、上記第1計測エリアを撮影する上記第1撮影部をメンテナンスするための第2メンテナンス期間を含む。 (11) Preferably, the first period includes a first maintenance period for maintaining the second imaging unit that images the second measurement area, and the second period images the first measurement area. A second maintenance period for maintaining the first imaging unit is included.
なお、「メンテナンス」とは、撮影部を清掃することと、撮影部の向きまたは位置を調整することと、撮影部における異常の有無を確認することの、少なくとも一つを含む。 Note that “maintenance” includes at least one of cleaning the imaging unit, adjusting the orientation or position of the imaging unit, and checking whether there is an abnormality in the imaging unit.
これにより、第1撮影部をメンテナンスする期間と、第2撮影部をメンテナンスする期間とを異ならせることができる。したがって、第1撮影部および第2撮影部のうちの一方をメンテナンスしている間でも、他方によって、道路を通行する車両を撮影することができる。その結果、車両を感知する処理の中断を、より一層確実に抑制することができる。 Thereby, the period which maintains a 1st imaging | photography part and the period which maintains a 2nd imaging | photography part can be varied. Therefore, even while one of the first photographing unit and the second photographing unit is being maintained, the other vehicle can be photographed on the road. As a result, the interruption of the process for sensing the vehicle can be more reliably suppressed.
(12)上記課題を解決するために、この発明のある局面に係わる車両感知プログラムは、コンピュータに、道路における第1計測エリアを所定の進行方向に沿って通行する1または複数の車両を撮影することで得られた第1画像データを受け容れるステップと、上記第1計測エリアを通過した各上記車両の通行先の前記道路における第2計測エリアを撮影することで得られた第2画像データを受け容れるステップと、上記第1画像データおよび上記第2画像データの何れか一方に基づいて各上記車両の感知処理を行った感知処理結果を出力するステップと、を実行させるためのプログラムである。 (12) In order to solve the above-described problem, a vehicle detection program according to an aspect of the present invention images one or a plurality of vehicles passing through a first measurement area on a road along a predetermined traveling direction on a computer. A step of accepting the first image data obtained in this manner, and second image data obtained by photographing the second measurement area on the road to which each of the vehicles that have passed through the first measurement area is taken. A program for executing an acceptable step and a step of outputting a sensing process result obtained by sensing each vehicle based on one of the first image data and the second image data.
このような構成によれば、第1画像データおよび第2画像データの何れか一方の画像データについて、車両感知を行うことができない状態であっても、他方の画像データを用いて、車両感知処理を行うことができる。これにより、車両を感知するための処理の中断を抑制することができる。たとえば、第1画像データを得るための撮影部について、清掃作業が行われる場合でも、第2画像データを得るための撮影部を用いて、第2画像データを得ることができる。同様に、たとえば、第2画像データを得るための撮影部について、清掃作業が行われる場合でも、第1画像データを得るための撮影部を用いて、第1画像データを得ることができる。したがって、車両を感知するための処理の中断を抑制できる。 According to such a configuration, even if it is in a state in which vehicle detection cannot be performed for one of the first image data and the second image data, the vehicle detection process is performed using the other image data. It can be performed. Thereby, the interruption of the process for detecting a vehicle can be suppressed. For example, the second image data can be obtained by using the photographing unit for obtaining the second image data even when the photographing operation for obtaining the first image data is performed. Similarly, for example, even when a cleaning operation is performed on an imaging unit for obtaining the second image data, the first image data can be obtained using the imaging unit for obtaining the first image data. Therefore, the interruption of the process for detecting the vehicle can be suppressed.
本発明によれば、車両を感知するための処理の中断を抑制できる、画像式車両感知器、および車両感知プログラムを実現できる。 ADVANTAGE OF THE INVENTION According to this invention, the image-type vehicle sensor and vehicle detection program which can suppress the interruption of the process for detecting a vehicle are realizable.
[第1実施形態]
以下、本発明の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
[First embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.
[画像式車両感知器の構成]
図1(a)は、本実施の第1実施形態における画像式車両感知器1の一例を示す模式的な平面図である。図1(a)では、画像式車両感知器1は、道路100に設置された状態を示している。図1(b)は、画像式車両感知器1の周辺を道路100の幅方向から見た模式的な側面図である。
[Configuration of image-type vehicle detector]
FIG. 1A is a schematic plan view showing an example of the image
図1(a)および図1(b)に示すように、画像式車両感知器1は、道路100を通過する1または複数の車両101を感知するために設けられている。本実施形態では、「感知」とは、たとえば、車両101の有無、各車両101の速度、および各車両101の台数(交通量)の少なくとも1つを感知することをいう。各車両101は、たとえば、小型車または大型車である。
As shown in FIGS. 1A and 1B, the image
本実施の形態では、道路100が、アスファルト舗装された道路であり、かつ、東西方向に延びる三車線の直線道路であり、かつ、一方通行の道路である場合を例にとって説明する。また、本実施の形態では、道路100は、日光に晒される場所に設置されている。道路100において、車両101は、所定の進行方向D1に沿って通行する。すなわち、進行方向D1は、東西方向に沿う方向であり、本実施の形態では、東方向である。
In the present embodiment, an example will be described in which the
画像式車両感知器1は、道路100に設置されている。画像式車両感知器1は、進行方向D1において、第1計測エリア2と第2計測エリア3との間に位置している。第1計測エリア2は、道路100上に設けられたエリアであり、第1計測エリア2を車両101が通行する。第1計測エリア2は、たとえば、道路100の幅方向W1の略全域に亘って設けられ、かつ、進行方向D1に数十mの長さに亘って設けられている。第1計測エリア2から進行方向D1側に所定距離、たとえば、数十m離隔した位置に、第2計測エリア3が設けられている。
The image
第2計測エリア3は、道路100上に設けられたエリアであり、第1計測エリア2を通過した車両101が通行する。すなわち、第1計測エリア2と第2計測エリア3とは、進行方向D1に沿って並んで配置されている。たとえば、幅方向W1および進行方向D1のそれぞれにおいて、第2計測エリア3の長さは、第1計測エリア2の長さと略同じに設定されている。本実施の形態では、第2計測エリア3は、第1計測エリア2から直接目視可能に配置されている。
The second measurement area 3 is an area provided on the
本実施の形態では、第1計測エリア2と第2計測エリア3との間において、道路100に対する車両101の出口および入口の何れも配置されていない。したがって、事故などの異常事態が生じない限り、第1計測エリア2を通行した車両101は、全て、第2計測エリア3を通行する。
In the present embodiment, neither the exit nor the entrance of the
朝日が昇る時間帯には、太陽S1が水平面近くに位置することとなる。朝日が昇る時間帯とは、たとえば、日本における冬の午前7時〜午前8時頃である。この時間帯に、画像式車両感知器1の後述する撮影装置4から第2計測エリア3を見ると、直射日光など、朝日(東日)に起因して、第2計測エリア3を正確に視認し難くなる。
During the time when the morning sun rises, the sun S1 is located near the horizontal plane. The time zone in which the morning sun rises is, for example, around 7 am to 8 am in winter in Japan. When the second measurement area 3 is viewed from the imaging device 4 (to be described later) of the image
一方、夕日が沈む時間帯としての第2撮影期間には、太陽S2が水平面近くに位置することとなる。第2撮影期間は、午後の所定の時間帯であり、たとえば、日本における冬の午後4時〜午後5時頃である。この時間帯に、撮影装置4から第1計測エリア2を見ると、直射日光など、夕日(西日)に起因して、第1計測エリア2を正確に視認し難くなる。
On the other hand, the sun S2 is located near the horizontal plane during the second shooting period as a time zone when the sunset goes. The second shooting period is a predetermined time zone in the afternoon, and is, for example, around 4 pm to 5 pm in winter in Japan. When the
したがって、上記第2撮影期間には、第2計測エリア3を撮影して車両101の感知処理を行うと、直射日光に起因する各車両101の感知漏れおよび誤検知を防止することができる。また、第2撮影期間以外の期間としての第1撮影期間には、第1計測エリア2を撮影して車両101の感知処理を行えばよい。
Therefore, when the second measurement area 3 is photographed and the
画像式車両感知器1は、第1計測エリア2を通行する車両101の感知処理と、第2計測エリア3を通行する車両101の感知処理とを並行して行うことが可能に構成されている。また、画像式車両感知器1は、第1計測エリア2を通行する車両101の感知処理結果と、第2計測エリア3を通行する車両101の感知処理結果とを、択一的に出力することが可能に構成されている。
The image-
画像式車両感知器1は、撮影装置4と、車両感知部5と、を備えている。
The image
撮影装置4は、第1計測エリア2、および第2計測エリア3を撮影するために設けられている。撮影装置4は、道路100に設置された門型柱100aに取り付けられている。門型柱100aは、道路100の左右両方の路肩100bから上方に延びる柱部と、これらの柱部間において幅方向W1に延びる梁部とを有している。梁部は、たとえば、道路100の路面から数m〜十数mの高さの位置に配置されている。柱部に、撮影装置4が取り付けられている。本実施の形態では、撮影装置4は、道路100を直接撮影するように構成されている。
The photographing
撮影装置4は、第1撮影部11と、第2撮影部12と、を有している。
The
第1撮影部11は、第1像21を撮影するために設けられている。第1像21は、第1計測エリア2を進行方向D1における第1計測エリア2の前方側から見た像である。第1撮影部11は、第1像21を撮影することにより、道路100を進行方向D1に沿って通行する1または複数の車両101を、各車両101の前方側から撮影する。道路100のうち、第1撮影部11によって撮影されるエリアが、第1計測エリア2である。
The first photographing
第1撮影部11は、入射された像を撮影することにより、第1画像データを生成する。第1撮影部11は、たとえば、CCD(Charge Coupled Device)カメラ、または、CMOS(Complementary Metal Oxide Semiconductor)カメラなどである。第1撮影部11は、たとえば、幅方向W1における門型柱100aの中央部に配置されている。
The
第1撮影部11は、門型柱100aの梁部に支持されたケース13と、ケース13に支持された入射部14と、を有している。
The
ケース13は、一方向に細長い箱形形状に形成されている。ケース13は、進行方向D1と反対に進むに従い、下方に進むように配置された状態で、図示しないブラケットなどを用いて門型柱100aに固定されている。進行方向D1におけるケース13の前端部からは、画像データなどを出力するためのケーブル(図示せず)が延びている。このケーブルは、門型柱100aを通って、車両感知部5に接続されている。進行方向D1におけるケース13の後端部に、入射部14が配置されている。
The
入射部14は、光が入射される部分として設けられており、たとえば、レンズによって構成されている。入射部14は、進行方向D1とは反対側に進むに従い下方に延びるように、すなわち、後斜め下を向いており、道路100の路面と向かい合っている。入射部14に入射された像は、第1撮影部11に含まれる撮像素子に入射される。第1撮影部11は、撮像素子などによって生成された画像データを、第1画像データとして、車両感知部5へ出力する。第1撮影部11に隣接するように、第2撮影部12が配置されている。
The
第2撮影部12は、第2像22を撮影するために設けられている。第2像22は、第2計測エリア3を進行方向D1における第2計測エリア3の後方側から見た像である。第2撮影部12は、第2像22を撮影することにより、道路100を進行方向D1に沿って通行する1または複数の車両101を、各車両101の後方側から撮影する。道路100のうち、第2撮影部12によって撮影されるエリアが、第2計測エリア3である。
The second photographing
第2撮影部12は、入射された像を撮影することにより、第2画像データを生成する。第2撮影部12は、第1撮影部11と同様に、たとえば、CCDカメラ、または、CMOSカメラなどである。第2撮影部12は、たとえば、幅方向W1における門型柱100aの中央部に配置されている。
The
第2撮影部12および第1撮影部11は、進行方向D1における位置が、実質的に揃えられている。また、第2撮影部12および第1撮影部11は、進行方向D1に関して互いに反対向きに配置されている。
The positions of the second photographing
第2撮影部12は、門型柱100aの梁部に支持されたケース15と、ケース15に支持された入射部16と、を有している。
The
ケース15は、一方向に細長い箱形形状に形成されている。ケース15は、進行方向D1に進むに従い、下方に進むように配置された状態で、図示しないブラケットなどを用いて門型柱100aに固定されている。進行方向D1におけるケース15の後端部からは、画像データなどを出力するためのケーブル(図示せず)が延びている。このケーブルは、門型柱100aを通って、車両感知部5に接続されている。進行方向D1におけるケース13の前端部に、入射部16が配置されている。
The
入射部16は、光が入射される部分として設けられており、たとえば、レンズによって構成されている。入射部16は、進行方向D1に進むに従い下方に延びるように、すなわち、前斜め下を向いており、道路100の路面と向かい合っている。入射部16に入射された像は、第2撮影部12に含まれる撮像素子に入射される。第2撮影部12は、撮像素子などによって生成された画像データを、第2画像データとして、車両感知部5へ出力する。
The
次に、車両感知部5の構成について説明する。図2は、車両感知部5の機能ブロック図である。図1(a)および図2に示すように、車両感知部5は、道路100の脇において、門型柱100aに隣接して配置されており、撮影装置4とは電気的に接続されている。また、車両感知部5は、中央処理装置102と通信回線などを介して電気的に接続されている。車両感知部5は、車両感知結果と、各撮影部11,12からの画像データとを、中央処理装置102へ出力する。中央処理装置102は、たとえば、交通管制センターなどである。
Next, the configuration of the
車両感知部5は、第1撮影部11の撮影によって生成された第1画像データと、第2撮影部12の撮影によって生成された第2画像データと、を基に、車両101の感知処理を行う。本実施の形態では、車両感知部5は、各計測エリア2,3のそれぞれについて、車両101の有無、各車両101の速度、および各車両101の台数を感知可能に構成されている。車両感知部5は、CPU、RAM、およびROMなどを含むコンピュータとしての構成を有している。
The
車両感知部5は、第1画像入力部31と、第1画像感知処理部32と、第2画像入力部33と、第2画像感知処理部34と、選択部35と、感知データ伝送部36と、計時部37と、メンテナンス情報入力部38と、画像データ伝送部39と、を有している。第1画像感知処理部32は、CPUを用いて構成されており、第2画像感知処理部34は、第1画像感知処理部32とは異なるCPUを用いて構成されている。このように、2つのCPUを用いて、第1画像感知処理部32と、第2画像感知処理部34とが構成されている。
The
第1画像入力部31には、第1撮影部11で生成された第1画像データが入力される。第1画像入力部31は、第1画像データを、画像データ伝送部39へ出力する。
The first image data generated by the
また、第1画像入力部31は、第1画像データを第1画像感知処理部32へ出力する。第1画像感知処理部32は、第1処理部として設けられており、第1画像データに基づいて、第1計測エリア2を通行する各車両101の感知処理を行う。
The first
第1画像感知処理部32は、車頭点検出部41と、第1計測部42と、を有している。
The first image
車頭点検出部41は、第1像21を撮影して得られた第1画像データを基に、各車両101の車頭(前端)点を検出する。具体的には、たとえば、第1画像データは、M1×N1個の座標(i1,j1)の各点における、画像信号の各輝度P1(i1,j1)を含んでいる。座標(i1,j1)は、道路100の幅方向W1に沿ったM1個のサンプル点、および道路100の進行方向D1に沿ったN1個のサンプル点から決定される座標である。
The vehicle
そして、車頭点検出部41は、第1画像データに対して、空間微分処理を施すことで、各輝度P1(i1,j1)の微分P1’(i1,j1)を求める。さらに、車頭点検出部41は、空間微分処理された全画素を二値化する。すなわち、微分P1’(i1,j1)が所定のしきい値以上であれば、P1’(i1,j1)=1に設定し、微分P1’(i1,j1)が所定のしきい値未満であれば、P1’(i1,j1)=0に設定する。さらに、車頭点検出部41は、微分P1’(i1,j1)の分布などに基づいて、車両101の車頭点を検出する。車頭点検出部41は、検出した車頭点を特定する車頭点データを、第1計測部42へ出力する。
Then, the vehicle head
第1計測部42は、車頭点検出部41によって車両101の車頭点が検出された場合、第1計測エリア2に車両101が存在していると感知する。この場合、第1計測部42は、存在を感知した車両101の車頭点の位置変化を計測することで、第1計測エリア2における車両101の速度を感知する。さらに、第1計測部42は、車両101の通行台数(交通量)を感知する。第1計測部42は、これらの感知結果を示す第1感知データを、選択部35へ出力する。
The
第2画像入力部33には、第2撮影部12で生成された第2画像データが入力される。第2画像入力部33は、第2画像データを、画像データ伝送部39へ出力する。
The second image data generated by the
また、第2画像入力部33は、第2画像データを第2画像感知処理部34へ出力する。第2画像感知処理部34は、第2処理部として設けられており、第2画像データに基づいて、第2計測エリア3を通行する各車両101の感知処理を行う。
Further, the second
本実施の形態では、第1画像感知処理部32と、第2画像感知処理部34という、2つの画像感知処理部が設けられている。これにより、第1画像感知処理部32による車両101の感知処理と、第2画像感知処理部34による車両101の感知処理とは、並行して行われる。
In the present embodiment, two image detection processing units, a first image
第2画像感知処理部34は、車尾点検出部43と、第2計測部44と、を有している。
The second image
車尾点検出部43は、車頭点検出部41と同様にして、車尾点を検出する。具体的には、車尾点検出部43は、第2像22を撮影して得られた第2画像データを基に、各車両101の車尾(後端)点を検出する。たとえば、第2計測エリア3の画像データは、M2×N2個の座標(i2,j2)の各点における、画像信号の各輝度P2(i2,j2)を含んでいる。座標(i2,j2)は、道路100の幅方向W1に沿ったM2個のサンプル点、および道路100の進行方向D1に沿ったN2個のサンプル点から決定される座標である。
The vehicle
そして、車尾点検出部43は、第2画像データに対して、空間微分処理を施すことで、各輝度P2(i2、j2)の微分P2’(i2,j2)を求める。さらに、車尾点検出部43は、空間微分処理された全画素を二値化する。すなわち、微分P2’(i2,j2)が所定のしきい値以上であれば、P2’(i2,j2)=1に設定し、微分P2’(i2,j2)が所定のしきい値未満であれば、P2’(i2,j2)=0に設定する。さらに、車尾点検出部43は、微分P2’(i2,j2)の分布などに基づいて、車両101の車尾点を検出する。車尾点検出部43は、検出した車尾点を特定する車尾点データを、第2計測部44へ出力する。
Then, the vehicle tail
第2計測部44は、車尾点検出部43によって車両101の車尾点が検出された場合、第2計測エリア3に車両101が存在していると感知する。この場合、第2計測部44は、存在を感知した車両101の車尾点の位置変化を計測することで、第2計測エリア3における車両101の速度を感知する。さらに、第2計測部44は、車両101の通行台数(交通量)を感知する。第2計測部44は、これらの感知結果を示す第2感知データを選択部35へ出力する。
The
選択部35は、第1画像感知処理部32における感知処理結果、および第2画像感知処理部34にける感知処理結果の何れを出力するかを選択可能に構成されている。すなわち、選択部35は、第1感知データおよび第2感知データの何れを出力するかを選択可能に構成されている。
The
選択部35は、計時部37の時刻情報、または、メンテナンス情報入力部38に入力されたメンテナンス情報を基に、第1感知データおよび第2感知データの何れを出力するか、選択する。
The
計時部37は、たとえば、時計であり、画像式車両感知器1の設置場所における時刻情報を有している。計時部37は、選択部35に接続されている。選択部35は、計時部37の時刻情報を読込むことにより、時刻を判定する。
The
現在時刻が第1撮影期間内の時刻である場合、選択部35は、第1感知データを、感知データ伝送部36へ出力する。なお、第1撮影期間は、第1画像データで特定される第1画像における朝日の強さ(照度)よりも、第2画像データで特定される第2画像における朝日の強さが大きい期間を含む。選択部35は、午前の所定の時間帯を含む時間帯を、第1撮影期間として設定する。午前の所定の時間帯とは、前述した、朝日が昇る時間帯である。
When the current time is a time within the first imaging period, the
一方、現在時刻が第2撮影期間内の時刻である場合、選択部35は、第2感知データを、感知データ伝送部36へ出力する。なお、第2撮影期間は、第2画像データで特定される第2画像における夕日の強さよりも、第1画像データで特定される第1画像における夕日の強さが大きい期間を含む。選択部35は、午後の所定の時間帯を、第2撮影期間として設定する。午前の所定の時間帯とは、前述した、夕日が沈む時間帯である。第2撮影期間以外の期間は、第1撮影期間として設定される。
On the other hand, when the current time is a time within the second shooting period, the
また、選択部35には、メンテナンス情報入力部38が接続されている。メンテナンス情報入力部38は、たとえば、中央処理装置102に接続されている。中央処理装置102からメンテナンス情報入力部38へ、撮影装置4に関するメンテナンス情報が出力される。なお、本実施の形態において、「メンテナンス」とは、第1撮影部11および第2撮影部12のそれぞれについて、清掃することと、向きまたは位置を調整することと、異常の有無を確認することの、少なくとも一つを含む。
A maintenance
メンテナンス情報は、中央処理装置102からメンテナンス情報入力部38へ出力される。このメンテナンス情報は、たとえば、オペレータが図示しない出力装置を操作することで出力される。メンテナンス情報は、第1撮影部11または第2撮影部12について、メンテナンスが行われることを示す情報を含む。たとえば、各撮影部11,12で撮影された画像に異常、または一定以上の汚れが生じていることを、オペレータなどが確認した場合に、メンテナンス情報が出力される。
Maintenance information is output from the
すなわち、第1撮影部11をメンテナンスすることをオペレータなどが決定した場合、第1撮影部11をメンテナンスすることを示す情報は、中央処理装置102からメンテナンス情報入力部38へ出力される。この情報は、第1撮影部11をメンテナンスする期間としての第2メンテナンス期間がいつであるかという情報を含んでいる。また、第2撮影部12をメンテナンスする必要があるとオペレータなどが決定した場合、第2撮影部12をメンテナンスすることを示す情報は、中央処理装置102からメンテナンス情報入力部38へ出力される。この情報は、第2撮影部12をメンテナンスする期間としての第1メンテナンス期間がいつであるかという情報を含んでいる。
That is, when an operator or the like decides to maintain the
なお、メンテナンス情報は、中央処理装置102に設けられた装置などによって、定期的にメンテナンス情報入力部38へ出力されてもよい。
The maintenance information may be periodically output to the maintenance
メンテナンス情報入力部38へ出力されたメンテナンス情報は、メンテナンス情報入力部38から選択部35へ出力される。選択部35は、与えられたメンテナンス情報を読込む。選択部35は、第1メンテナンス期間に該当している期間の間、第1感知データを、感知データ伝送部36へ出力する。一方、選択部35は、第2メンテナンス期間に該当している期間の間、第2感知データを、感知データ伝送部36へ出力する。
The maintenance information output to the maintenance
なお、以下では、第1撮影期間および第1メンテナンス期間を総称していう場合、「第1期間」という。また、第2撮影期間および第2メンテナンス期間を総称していう場合、「第2期間」という。 Hereinafter, the first imaging period and the first maintenance period are collectively referred to as “first period”. In addition, the second imaging period and the second maintenance period are collectively referred to as “second period”.
上記のようにして、感知データ伝送部36へ出力された第1感知データまたは第2感知データは、感知データ伝送部36から中央処理装置102へ出力される。中央処理装置102は、感知データ伝送部36に接続されているとともに、画像データ伝送部39に接続されている。
As described above, the first sensing data or the second sensing data output to the sensing
画像データ伝送部39は、前述したように、第1画像入力部31および第2画像入力部33に接続されている。画像データ伝送部39は、第1画像データおよび第2画像データの少なくとも一方を中央処理装置102へ出力する画像データ出力部として設けられている。画像データ伝送部39は、たとえば、中央処理装置102からの指令信号に基づいて、第1画像データおよび第2画像データの少なくとも一方を中央処理装置102へ出力する。
As described above, the image
中央処理装置102には、オペレータが目視可能なモニター(図示せず)が備えられている。中央処理装置102へ出力された画像データは、モニターへ出力され、その結果、モニターには、第1像21および第2像22の少なくとも一方が表示される。
The
[画像式車両感知器における車両感知動作]
図3は、本発明の第1実施形態に係る画像式車両感知器1における車両感知動作について説明するためのフローチャートである。画像式車両感知器1は、以下に示す各フローチャートの各ステップを図示しないメモリから読み出して実行する。このプログラムは、外部からインストールできる。このインストールされるプログラムは、たとえば記録媒体に格納された状態で流通する。
[Vehicle sensing operation in image type vehicle detector]
FIG. 3 is a flowchart for explaining a vehicle sensing operation in the image
車両感知動作について、図3に加えて、適宜、図1および図2を参照しつつ説明する。第1撮影部11の撮影動作によって生成された第1画像データは、第1画像入力部31へ出力され、さらに、第1画像入力部31から車頭点検出部41へ出力される(ステップS11)。この処理と並行して、第2撮影部12の撮影動作によって生成された第2画像データは、第2画像入力部33へ出力され、さらに、第2画像入力部33から車尾点検出部43へ出力される(ステップS11)。
The vehicle sensing operation will be described with reference to FIGS. 1 and 2 as appropriate in addition to FIG. The first image data generated by the imaging operation of the
車頭点検出部41は、第1画像データを読み込み、前述した空間微分処理などを施すことにより、各車両101の車頭点を検出する(ステップS12)この処理と並行して、車尾点検出部43は、第2画像データを読み込み、前述した空間微分処理などを施すことにより、各車両101の車尾点を検出する(ステップS12)。
The vehicle head
次に、第1計測部42は、検出された車頭点の変化などに基づいて、各車両101の存在の有無、各車両101の速度、および車両101の台数を感知する感知処理を行い、第1感知データを生成する(ステップS13)。この処理と並行して、第2計測部44は、検出された車尾点の変化などに基づいて、各車両101の存在の有無、各車両101の速度、および車両101の台数を感知する感知処理を行い、第2感知データを生成する(ステップS13)。
Next, the
次に、選択部35は、現在時刻が第1期間および第2期間の何れの期間であるかを判定する(ステップS14)。
Next, the
現在時刻が第1期間である場合、すなわち、第1撮影期間、または第1メンテナンス期間である場合(ステップS14で第1期間)、選択部35は、第1計測部42で生成された第1感知データを、感知データ伝送部36へ出力する。感知データ伝送部36は、第1感知データを、中央処理装置102へ出力する(ステップS15)。
When the current time is the first period, that is, when it is the first imaging period or the first maintenance period (the first period in step S14), the
一方、現在時刻が第2期間である場合、すなわち、第2撮影期間、または第2メンテナンス期間である場合(ステップS14で第2期間)、選択部35は、第2計測部44で生成された第2感知データを、感知データ伝送部36へ出力する。感知データ伝送部36は、第2感知データを、中央処理装置102へ出力する(ステップS16)。
On the other hand, when the current time is the second period, that is, when it is the second imaging period or the second maintenance period (the second period in step S14), the
なお、ステップS14において、第1撮影期間と第2メンテナンス期間とが重複する場合、または、第2撮影期間と第1メンテナンス期間とが重複する場合が考えられる。この場合には、たとえば、メンテナンス期間を優先して、すなわち、メンテナンス期間を基準に、第1期間および第2期間の何れであるかが判定される。 In step S14, a case where the first imaging period and the second maintenance period overlap, or a case where the second imaging period and the first maintenance period overlap may be considered. In this case, for example, the maintenance period is prioritized, that is, whether the first period or the second period is determined based on the maintenance period.
[画像式車両感知器の設置作業]
図1(a)および図1(b)に示すように、画像式車両感知器1を道路100に設置する場合、まず、門型柱100aに、撮影装置4を設置する。さらに、路肩100bに車両感知部5を設置する。次に、撮影部11,12のそれぞれについて、道路100に対する向きなど、計測エリア2,3の範囲を調整する。この調整の際に、道路100の各車線間の区分、各車線の撮影倍率も調整する。
[Installation work of image type vehicle detector]
As shown in FIG. 1A and FIG. 1B, when the image
次に、各撮影部11,12を起動し、各撮影部11,12で撮影された画像などを確認する。その後、複数の車両101を試験的に走行させる。そして、これらの車両101を感知することで得られる、車両101の平均速度、走行台数、および車種の評価などを行い、必要に応じて、各種パラメータの調整を行う。これにより、画像式車両感知器1の設置作業が完了する。
Next, each
以上説明したように、本発明の実施の形態に係る画像式車両感知器では、選択部35は、第1画像感知処理部32における感知処理結果と、第2画像感知処理部34における感知処理結果の何れを出力するかを選択可能である。すなわち、選択部35は、第1画像データを用いた感知処理結果と、第2画像データを用いた感知処理結果の何れを出力するかを選択可能である。これにより、第1画像データおよび第2画像データの何れか一方の画像データについて、車両感知を行うことができない状態であっても、他方の画像データを用いて、車両感知処理を行うことができる。これにより、車両を感知するための処理の中断を抑制することができる。たとえば、第1撮影部11について、清掃作業が行われる場合でも、第2撮影部12を用いて、第2画像データを得ることができる。同様に、たとえば、第2撮影部12について、清掃作業が行われる場合でも、第1撮影部11を用いて、第1画像データを得ることができる。したがって、車両101を感知するための処理の中断を抑制できる画像式車両感知器を実現できる。
As described above, in the image type vehicle sensor according to the embodiment of the present invention, the
さらに、車両101を感知するための処理の中断を抑制することができる理由について、1つの撮影部の向きを変更することにより、この1つの撮影部から第1画像データおよび第2画像データを択一的に受け取る場合と比較して説明する。1つの撮影部から第1画像データおよび第2画像データを択一的に受け取る場合、1つの撮影部から第1画像データを出力する状態と、第2画像データを出力する状態とを切り替えるためには、上記1つの撮影部の向きを変更する時間が必要である。したがって、上記1つの撮影部の向きを変更している間、車両101を感知可能な態様で撮影することができない。このため、車両101を感知するための撮影処理が中断されてしまう。また、1つの撮影部について、レンズを掃除するなどのメンテナンス作業が行われている間も、車両101を感知するための撮影処理が中断されてしまう。さらに、1つの撮影部の向きを変更するための駆動機構に故障が生じた場合には、駆動機構の修理の間、車両101を感知するための撮影処理が中断されてしまう。
Further, regarding the reason why the interruption of the process for sensing the
これに対し、本発明の実施の形態に係る画像式車両感知器では、第1撮影部11と第2撮影部12から、それぞれ、第1画像データおよび第2画像データを受けることが可能である。このため、第1撮影部11から第1画像データを出力する状態と、第2撮影部12から第2画像データを出力する状態とを切り替える際に、何れの撮影部11,12も変位させる必要がない。したがって、第1画像データを用いて車両感知処理を行う状態と、第2画像データを用いて車両感知処理を行う状態とを切り替えている間に、空白時間が生じずに済む。これにより、車両101を感知するための撮影処理の中断を抑制できる。また、たとえば、第1撮影部11および第2撮影部12のうちの一方について、レンズを掃除するなどのメンテナンス作業が行われている間、他方において、車両101の撮影動作を継続することができる。よって、メンテナンス作業が行われている間においても、車両101を感知するための撮影処理の中断を抑制できる。さらに、撮影部11,12の向きを変更する駆動機構が必要ないので、駆動機構の故障に起因する、撮影処理の中断を抑制できる。
On the other hand, in the image type vehicle sensor according to the embodiment of the present invention, it is possible to receive the first image data and the second image data from the first photographing
また、本発明の実施の形態に係る画像式車両感知器では、第1画像感知処理部32および第2画像感知処理部34は、各車両の感知処理を並行して行うことが可能である。そして、選択部35は、第1画像感知処理部32における感知処理結果と、第2画像感知処理部34における感知処理結果の何れかを出力可能である。これにより、第1画像感知処理部32および第2画像感知処理部34の何れか一方による感知処理結果を出力している状態から、他方による感知処理結果を出力する状態への切り替えを、より迅速に行うことができる。その結果、車両101の感知処理結果の欠損を、より少なくすることができる。
Further, in the image type vehicle detector according to the embodiment of the present invention, the first image
また、本発明の実施の形態に係る画像式車両感知器では、第1画像データおよび第2画像データの少なくとも一方を出力する画像データ伝送部39が設けられている。これにより、第1画像データおよび第2画像データの少なくとも一方を、中央処理装置102に出力することができる。これにより、中央処理装置102のモニターに、道路100の画像を写すことができる。その結果、車両感知のために撮影して得られた第1画像データおよび第2画像データの少なくとも一方を、オペレータの目視による道路監視に用いることもできる。これにより、たとえば、道路100で事故が発生した場合に、道路状況を、第1計測エリア2および第2計測エリア3の少なくとも一方について確認することができる。これにより、第1画像データおよび第2画像データを、オペレータの目視による道路監視に用いるなど、より有効に活用することができる。
In the image type vehicle sensor according to the embodiment of the present invention, an image
また、本発明の実施の形態に係る画像式車両感知器では、第1計測エリア2を通行する各車両101を各車両101の前方側から撮影するための第1撮影部11と、第2計測エリア3を通行する各車両101を各車両101の後方側から撮影するための第2撮影部12と、が設けられている。これにより、第1撮影部11から、第1撮影部11に撮影される車両101に向かう方向と、第2撮影部12から、第2撮影部12に撮影される車両101に向かう方向とは、道路100の進行方向D1に平行な成分において、反対向きとなる。このため、第1画像データによって特定される第1画像においては日光の写りこみ量が多い場合でも、第2画像データによって特定される第2画像においては日光の写りこみ量が少ない態様で、第2画像を得ることができる。同様に、第2画像データによって特定される第2画像においては日光の写りこみ量が多い場合でも、第1画像データによって特定される第1画像においては日光の写りこみ量が少ない態様で、第1画像を得ることができる。すなわち、朝日が昇る時間帯であれば、第1画像および第2画像のうち、朝日の写りこみ量の少ない第1画像の第1画像データを基に、車両101の感知処理を行うことができる。また、夕日が沈む時間帯であれば、第1画像および第2画像のうち、夕日の写りこみ量の少ない第2画像の第2画像データを基に、車両101の感知処理を行うことができる。これにより、朝日が昇る時間帯、および夕日が沈む時間帯の何れの場合でも、直射日光が過度に写りこむことが抑制された画像の画像データを基に、車両101の感知処理を行うことができる。よって、日光などの強い光に起因する車両感知性能の低下を抑制することができる。さらに、たとえば、第1撮影部11および第2撮影部12の一方が、メンテナンスまたは故障のために車両感知のための撮影を行うことができない場合でも、他方によって、車両感知のための撮影を行うことができる。これにより、車両を感知するための処理の中断を、より確実に抑制できる。
In the image type vehicle sensor according to the embodiment of the present invention, the first photographing
また、本発明の実施の形態に係る画像式車両感知器では、第1撮影部11および第2撮影部12は、進行方向D1に関して互いに反対向きに配置されている。これにより、第1撮影部11によって、車両101の車頭(前端)を、より確実に撮影することができる。また、第2撮影部12によって、車両101の車尾(後端)を、より確実に撮影することができる。
Further, in the image type vehicle sensor according to the embodiment of the present invention, the first photographing
また、本発明の実施の形態に係る画像式車両感知器では、選択部35は、第1期間においては、第1画像感知処理部32の感知処理結果を出力し、第1期間と異なる第2期間においては、第2画像感知処理部34の感知処理結果を出力する。これにより、第1画像データおよび第2画像データのうち、車両101の感知処理により適した画像データを用いて得られた感知結果を、画像式車両感知器から出力することができる。
In the image type vehicle sensor according to the embodiment of the present invention, the
より具体的には、本発明の実施の形態に係る画像式車両感知器では、第1期間は、第1画像データで特定される第1画像における朝日の強さよりも、第2画像データで特定される第2画像における朝日の強さの大きい第1撮影期間を含み、第2期間は、第2画像データで特定される第2画像における夕日の強さよりも、第1画像データで特定される第1画像における夕日の強さの大きい第2撮影期間を含む。これにより、第1撮影期間では、第1像21および第2像22のうち、朝日の写りこみ量がより少ない第1像21を撮影して得られた第1画像データを用いて、車両101の感知処理を行うことができる。その結果、朝日の影響が抑制された状態で、車両101の感知処理を、より精度よく行うことができる。また、第2撮影期間では、第1像21および第2像22のうち、夕日の写りこみ量がより少ない第2像22を撮影して得られた第2画像データを用いて、車両101の感知処理を行うことができる。これにより、夕日の影響が抑制された状態で、車両101の感知処理を、より精度よく行うことができる。
More specifically, in the image type vehicle sensor according to the embodiment of the present invention, the first period is specified by the second image data rather than the strength of the morning sun in the first image specified by the first image data. Including a first shooting period in which the intensity of the morning sun in the second image is large, and the second period is specified by the first image data rather than the intensity of the sunset in the second image specified by the second image data. A second shooting period in which the intensity of sunset in the first image is large is included. Thereby, in the first shooting period, the
また、本発明の実施の形態に係る画像式車両感知器では、選択部35は、午後の所定の時間帯を含む期間を第2撮影期間として設定する。このように、午後の所定の時間帯を第2期間として設定するという簡易な構成で、夕日の影響が抑制された状態で、車両101の感知処理を行うことができる。すなわち、第1像21および第2像22における夕日の強さなどを測定するという、手間のかかる処理が必要ない。
In the image type vehicle sensor according to the embodiment of the present invention, the
また、本発明の実施の形態に係る画像式車両感知器では、選択部35は、午前の所定の時間帯を含む期間を第1撮影期間として設定する。このように、午前の所定の時間帯を第1期間として設定するという簡易な構成で、朝日の影響が抑制された状態で、車両101の感知処理を行うことができる。すなわち、第1像21および第2像22における朝日の強さなどを測定するという、手間のかかる処理が必要ない。
Further, in the image type vehicle sensor according to the embodiment of the present invention, the
また、本発明の実施の形態に係る画像式車両感知器では、第1期間は、第2計測エリア3を撮影する第2撮影部12をメンテナンスするための第1メンテナンス期間を含み、第2期間は、第1計測エリア2を撮影する第1撮影部11をメンテナンスするための第2メンテナンス期間を含む。これにより、第1撮影部11をメンテナンスする期間と、第2撮影部12をメンテナンスする期間とを異ならせることができる。したがって、第1撮影部11および第2撮影部12のうちの一方をメンテナンスしている間でも、他方によって、道路100を通行する車両101を撮影することができる。その結果、車両101を感知する処理の中断を、より一層確実に抑制することができる。
In the image-type vehicle detector according to the embodiment of the present invention, the first period includes a first maintenance period for maintaining the
[第2実施形態]
図4は、本発明の第2実施形態に係る画像式車両感知器の車両感知部5Bの機能ブロック図である。図4に示すように、本発明の第2実施形態に係る画像式車両感知器が、第1実施形態に係る画像式車両感知器と異なっている主な点は、1つの画像感知処理部51によって、車両101の感知処理が行われる点である。
[Second Embodiment]
FIG. 4 is a functional block diagram of the
車両感知部5Bは、第1画像入力部31と、第2画像入力部33と、選択部52と、画像感知処理部51と、感知データ伝送部36と、計時部37と、メンテナンス情報入力部38と、画像データ伝送部39と、を有している。画像感知処理部51は、たとえば、1つのCPUを用いて構成されている。
The
第1画像入力部31は、第1撮影部11から出力された第1画像データを、選択部52と、画像データ伝送部39とに出力する。
The first
第2画像入力部33は、第2撮影部12から出力された第2画像データを、選択部52と、画像データ伝送部39とに出力する。
The second
選択部52は、第1画像データ、および第2画像データの何れを画像感知処理部51へ出力するかを選択可能に構成されている。すなわち、選択部52は、画像感知処理部51に対して、第1画像データおよび第2画像データのうちの何れに基づいて、車両101の感知処理を行わせるかを指示することが可能である。選択部52は、計時部37の時刻情報、または、メンテナンス情報入力部38に入力されたメンテナンス情報を基に、第1画像データおよび第2画像データの何れを出力するかを選択する。
The
現在時刻が第1撮影期間内の時刻である場合、選択部52は、第1画像データを、画像感知処理部51へ出力する。一方、現在時刻が第2撮影期間内の時刻である場合、選択部52は、第2画像データを、画像感知処理部51へ出力する。
When the current time is a time within the first shooting period, the
また、選択部52は、第1メンテナンス期間に該当している期間の間、第1画像データを、画像感知処理部51へ出力する。一方、選択部52は、第2メンテナンス期間に該当している期間の間、第2画像データを、画像感知処理部51へ出力する。
Further, the
画像感知処理部51は、第1画像データに基づいて車両101の感知処理を行う第1処理部としての機能と、第2画像データに基づいて車両101の感知処理を行う第2処理部としての機能と、を有している。
The image
画像感知処理部51は、車頭点検出部41と、車尾点検出部43と、計測部53と、を有している。
The image
選択部52は、第1期間においては、第1画像データを、車頭点検出部41へ出力する。この場合、車頭点検出部41は、検出した車頭点を特定する車頭点データを、計測部53へ出力する。一方、選択部52は、第2期間においては、第2画像データを、車尾点検出部43へ出力する。この場合、車尾点検出部43は、検出した車尾点を特定する車尾点データを、計測部53へ出力する。
The
計測部53は、車頭点検出部41によって車両101の車頭点が検出された場合、第1計測エリア2に車両101が存在していると感知する。また、計測部53は、存在を感知した車両101の車頭点の位置変化を計測することで、第1計測エリア2における車両101の速度を感知する。さらに、計測部53は、車両101の台数を感知する。計測部53では、これらの感知処理結果を示す第1感知データが生成される。
When the vehicle head
一方、計測部53は、車尾点検出部43によって車両101の車尾点が検出された場合、第2計測エリア3に車両101が存在していると感知する。この場合、計測部53は、存在を感知した車両101の車尾点の位置変化を計測することで、第2計測エリア3における車両101の速度を感知する。さらに、計測部53は、車両101の台数を感知する。計測部53では、これらの感知処理結果を示す第2感知データが生成される。
On the other hand, the
計測部53は、第1感知データ、または第2感知データを、感知データ伝送部36へ出力する。感知データ伝送部36は、第1感知データまたは第2感知データを、中央処理装置102へ出力する。
The
[第2実施形態に係る画像式車両感知器における車両感知動作]
図5は、第2実施形態に係る画像式車両感知器における車両感知動作について説明するためのフローチャートである。第2実施形態に係る画像式車両感知器における車両感知動作について、図4および図5を参照しつつ説明する。
[Vehicle sensing operation in the image type vehicle sensor according to the second embodiment]
FIG. 5 is a flowchart for explaining a vehicle sensing operation in the image type vehicle sensor according to the second embodiment. A vehicle sensing operation in the image type vehicle sensor according to the second embodiment will be described with reference to FIGS. 4 and 5.
第1撮影部11の撮影動作によって生成された第1画像データは、第1画像入力部31へ出力され、さらに、第1画像入力部31から選択部52へ出力される(ステップS21)。この処理と並行して、第2撮影部12の撮影動作によって生成された第2画像データは、第2画像入力部33へ出力され、さらに、第2画像入力部33から選択部52へ出力される(ステップS21)。
The first image data generated by the imaging operation of the
現在時刻が第1期間である場合、すなわち、第1撮影期間、または第1メンテナンス期間である場合(ステップS22で第1期間)、選択部52は、第1画像データを、車頭点検出部41へ出力する(ステップS23)。この場合、車頭点検出部41は、車頭点を検出し、車頭点データを計測部53へ出力する(ステップS24)。計測部53は、検出された車頭点に基づいて、各車両101の感知処理を行い、第1感知データを生成する(ステップS25)。
When the current time is the first period, that is, when it is the first imaging period or the first maintenance period (the first period in step S22), the
一方、現在時刻が第2期間である場合、すなわち、第2撮影期間、または第2メンテナンス期間である場合(ステップS22で第2期間)、選択部52は、第2画像データを、車尾点検出部43へ出力する(ステップS26)。この場合、車尾点検出部43は、車尾点を検出し、車尾点データを計測部53へ出力する(ステップS27)。計測部53は、検出された車尾点に基づいて、各車両101の感知処理を行い、第2感知データを生成する(ステップS28)。
On the other hand, when the current time is the second period, that is, when it is the second imaging period or the second maintenance period (second period in step S22), the
計測部53で生成された第1感知データ、または第2感知データは、感知データ伝送部36から、中央処理装置102へ出力される(ステップS29)。
The first sensing data or the second sensing data generated by the
以上説明したように、本発明の実施の形態に係る画像式車両感知器では、選択部52は、1つの画像感知処理部51に対して、第1画像データおよび第2画像データのうちの何れに基づいて各車両101の感知処理を行わせるかを指示することが可能である。これにより、1つの画像感知処理部51で、第1画像データを用いた車両感知処理と、第2画像データを用いた車両感知処理の双方を行うことができる。よって、画像式車両感知器の製造コストを、より少なくできる。
As described above, in the image type vehicle sensor according to the embodiment of the present invention, the
[第3実施形態]
図6(a)は、本実施の第3実施形態における画像式車両感知器1C,1CCの一例を示す模式的な斜視図である。図6(a)では、画像式車両感知器1C,1CCは、道路100Cに設置された状態を示している。図6(b)は、画像式車両感知器1Cの周辺を道路100Cの幅方向から見た模式的な側面図である。
[Third embodiment]
FIG. 6A is a schematic perspective view illustrating an example of the image
なお、以下では、画像式車両感知器1C,1CCのうち、画像式車両感知器1Cについて主に説明する。画像式車両感知器1CCについては、画像式車両感知器1Cと異なる点について説明し、同様の構成については説明を省略する。
In the following, the image
図6(a)および図6(b)に示すように、画像式車両感知器1Cは、道路100Cを通過する1または複数の車両101を感知するために設けられている。本実施の形態では、道路100Cは、一車線の道路である。
As shown in FIGS. 6A and 6B, the image-
画像式車両感知器1Cは、道路100Cの脇に設置されている。画像式車両感知器1Cは、進行方向D1において、第1計測エリア2Cと第2計測エリア3Cとの間に位置している。第1計測エリア2Cおよび第2計測エリア3Cは、それぞれ、たとえば、道路100Cの幅方向W1の略全域に亘って設けられている。
The image
朝日が昇る時間帯には、太陽S1が水平面近くに位置することとなる。この時間帯に、画像式車両感知器1Cの後述する撮影装置4Cから第2計測エリア3Cを見ると、直射日光など、朝日(東日)に起因して、第2計測エリア3Cを正確に視認し難くなる。
During the time when the morning sun rises, the sun S1 is located near the horizontal plane. When the
一方、夕日が沈む時間帯としての第2撮影期間には、太陽S2が水平面近くに位置することとなる。この時間帯に、撮影装置4Cから第1計測エリア2Cを見ると、直射日光など、夕日(西日)に起因して、第1計測エリア2Cを正確に視認し難くなる。
On the other hand, the sun S2 is located near the horizontal plane during the second shooting period as a time zone when the sunset goes. When the
したがって、上記第2撮影期間には、第2計測エリア3Cを撮影して車両101の感知処理を行うと、直射日光に起因する各車両101の感知漏れおよび誤検知を防止することができる。また、第2撮影期間以外の期間としての第1撮影期間には、第1計測エリア2Cを撮影して車両101の感知処理を行えばよい。
Therefore, when the
画像式車両感知器1Cは、撮影装置4Cと、車両感知部5と、を備えている。
The image
撮影装置4Cは、道路100Cの脇に設置されている。撮影装置4Cは、たとえば、道路100Cの路面と垂直な方向としての上下方向Z1に延びた形状を有している。撮影装置4Cは、進行方向D1における第1計測エリア2Cと第2計測エリア3Cとの間に配置されている。
The photographing
図7は、撮影装置4Cの全体構成を示す模式的な断面図であり、一部を側面で示している。図7に示すように、撮影装置4Cは、ベース部106と、第1軸107と、光学部材108と、第2軸109と、支持台110と、第1撮影部11Cと、第2撮影部12Cと、筐体113と、を有している。
FIG. 7 is a schematic cross-sectional view showing the overall configuration of the photographing
ベース部106は、撮影装置4Cの基礎部分として設けられている。ベース部106は、道路100Cの脇の路肩100b上に配置されている。ベース部106は、たとえば、円筒の上端および下端のそれぞれに蓋が取り付けられた形状を有している。ベース部106は、軸受120を介して、第1軸107の下部を回転可能に支持している。
The
第1軸107は、光学部材108を回転可能に支持するために設けられている。第1軸107は、上下方向Z1に沿って真っ直ぐに延びており、ベース部106から上方に延びている。これにより、第1軸107は、上下方向Z1と平行な中心軸線L1回りに回転可能に支持している。中心軸線L1は、第1軸107の中心軸線でもある。第1軸107の上端部の直径は、この第1軸107の中間部の直径と比べて小さくされている。この上端部に、光学部材108が取り外し可能に取り付けられている。
The
図6(b)および図7に示すように、光学部材108は、道路100Cの像を撮影部11Cへ光学的に案内するために設けられている。より具体的には、光学部材108は、第1計測エリア2Cを進行方向D1における第1計測エリア2Cの前方側から見た像としての第1像21Cを、第1撮影部11Cへ光学的に案内するために設けられている。また、光学部材108は、第2計測エリア3Cを進行方向D1における第2計測エリア3Cの後方側から見た像としての第2像22Cを、第2撮影部12Cへ光学的に案内するために設けられている。
As shown in FIGS. 6B and 7, the
光学部材108は、たとえば、光を反射する反射部材である。このような反射部材として、鏡を例示することができる。鏡として、金属を鏡面加工したものを例示することができ、また、透明な板ガラスまたはプラスチック板の片面に金属を蒸着させたものを例示することができる。このうち、光学部材108として、透明な板ガラスまたはプラスチック板の片面に、金属を蒸着させたものを用いることが、好ましい。このような構成とすることにより、光学部材108において、車両101からの排気ガス、および雨水などに起因する錆の発生を抑制することができる。
The
光学部材108は、下方に進むに従い、上下方向Z1と直交する断面積が小さくなる先細り形状としての錐台形状を有している。本実施の形態では、光学部材108は、下方に進むに従い直径が小さくなる円錐台形状に形成されている。これにより、本実施の形態では、光学部材108の全体が円錐台形状部を構成している。なお、光学部材108は、少なくとも一部に円錐台形状部を含んでいればよく、他の形状を含んでいてもよい。光学部材108には、軸挿通孔が形成されている。軸挿通孔は、光学部材108の下端面に開放されており、第1軸107の上端部がたとえば圧入によって固定されている。光学部材108は、たとえば、作業員の手作業によって、第1軸107回りを回転可能である。光学部材108が回転される場合は、たとえば、光学部材108の外周面108aが清掃される場合である。
The
光学部材108の外周面108aは、埃、排気ガスに含まれる微粒子、および雨水などの異物(以下、単に異物ともいう。)によって汚れる。特に、光学部材108の外周面108aのうち、道路100Cに臨んでいる側の半部は、車両101からの排気ガスによって汚れやすい。しかしながら、撮影装置4Cは、道路100Cから幅方向W1に離隔した路肩100bに配置されており、道路100Cからの排気ガスおよび塵埃の舞い上がりによる外周面108aの汚れの度合いは、比較的少なくて済む。
The outer
なお、光学部材108は、第1軸107に対して着脱可能であればよく、第1軸107との固定の態様は上記の構成に限定されない。光学部材108は、第1軸107によって、第1軸107と同軸に支持されている。
The
光学部材108の外周面108aは、上下方向Z1における下側を向いている。外周面108aを側方から見た場合、外周面108aの母線L2は、中心軸線L1に対して所定の傾斜角度θを有している。光学部材108における傾斜角度θは、第1計測エリア2Cの範囲および第2計測エリア3Cの範囲に応じて、適宜設定される。
The outer
光学部材108の外周面108aには、第1像21Cおよび第2像22Cが入射されるように構成されている。具体的には、光学部材108の外周面108aには、第1案内部121と、第2案内部122と、が形成されている。
The
第1案内部121は、第1像21Cを第1撮影部11Cに光学的に案内するために設けられている。第1案内部121は、光学部材108の外周面108aのうち、第1計測エリア2C側を向いた部分によって形成されている。本実施の形態では、光学部材108の周方向において、第1案内部121が形成される範囲は、外周面108aの半周未満に設定されている。また、光学部材108の高さ方向、すなわち、上下方向Z1において、第1案内部121が形成される範囲は、外周面108aの高さの一部に設定されている。第1案内部121は、入射された光、すなわち、第1像21Cを、下方に向けて反射する。これにより、第1像21Cは、後述する第1位置P1に位置する第1撮影部11Cに向けて反射される。第1案内部121とは外周面108aの周方向に隣接した位置に、第2案内部122が配置されている。
The
第2案内部122は、第2像22Cを第2撮影部12Cへ光学的に案内するために設けられている。第2案内部122は、光学部材108の外周面108aのうち、第2計測エリア3C側を向いた部分によって形成されている。本実施の形態では、光学部材108の周方向において、第2案内部122が形成される範囲は、外周面108aの半周未満に設定されている。また、光学部材108の高さ方向、すなわち、上下方向Z1において、第2案内部122が形成される範囲は、外周面108aの高さの一部に設定されている。第2案内部122は、入射された第2像22Cを、下方に向けて反射する。これにより、第2像22Cは、後述する第2位置P2に位置する第2撮影部12Cに向けて反射される。
The
光学部材108は、撮影装置4Cの最上部に配置されており、光学部材108の下方に位置する各部材にとっての傘としての機能を有している。具体的には、光学部材108は、第1撮影部11Cおよび第2撮影部12Cの少なくとも一部を上方から覆っている。本実施の形態では、光学部材108は、第1撮影部11Cおよび第2撮影部12Cの全部を上方から覆っている。
The
また、光学部材108は、撮影装置4Cのうち、光学部材108以外の部分の全てを上方から覆っている。これにより、光学部材108は、筐体113の少なくとも一部(本実施の形態では、全部)を上方から覆っている。上記の構成を有する光学部材108の下方に、第2軸109が配置されている。
Further, the
第2軸109は、第1撮影部11Cおよび第2撮影部12Cを支持するために設けられている。第2軸109は、上下方向Z1に沿って真っ直ぐに延びる中空の筒状に形成されており、第1軸107を取り囲んでいる。第2軸109は、ベース部106固定されている。第2軸109は、ベース部106から上方に延びている。第2軸109の上部には、支持台110が固定されている。第2軸109は、支持台110を介して、第1撮影部11Cおよび第2撮影部12Cを支持している。
The
支持台110は、所定の厚みを有する板部材によって形成された、円環状の部材である。この支持台110のたとえば上面に、第1撮影部11Cおよび第2撮影部12Cが固定されている。
The
第1撮影部11Cは、光学部材108から入射された像を撮影することにより、第1画像データを生成する。第1撮影部11Cは、支持台110上の第1位置P1に配置されている。第1位置P1において、第1撮影部11Cは、第1計測エリア2Cおよび第2計測エリア3Cのうちの第1計測エリア2Cのみを撮影可能である。第1位置P1は、たとえば、第1案内部121の下方の位置である。
The
第1撮影部11Cのケース13Cは、支持台110に固定されている。ケース13Cは、上下方向Z1に細長い形状に形成されており、ケース13Cの上端部は、支持台110からの距離が遠くされている。これにより、支持台110に溜まった異物が、ケース13Cの上端部に付着することを抑制できる。ケース13Cの下端部からは、撮影した画像の画像データなどを出力するためのケーブル(図示せず)が延びており、このケーブルは、ベース部106を貫通し、車両感知部5に接続されている。ケース13Cの上端部に、入射部14Cが固定されている。
The
入射部14Cは、光学部材108からの光が入射される部分として設けられており、たとえば、レンズによって構成されている。入射部14Cは、上方を向いており、光学部材108と上下方向Z1に向かい合っている。入射部14Cに入射された像は、第1撮影部11Cに含まれる撮像素子に入射される。第1撮影部11Cは、撮像素子などによって生成された第1画像データを、車両感知部5へ出力する。第1撮影部11Cと進行方向D1に並ぶようにして、第2撮影部12Cが配置されている。
The
第2撮影部12Cは、光学部材108から入射された像を撮影することにより、第2画像データを生成する。第2撮影部12Cは、支持台110上の第2位置P2に配置されている。第2位置P2において、第2撮影部12Cは、第1計測エリア2Cおよび第2計測エリア3Cのうちの第2計測エリア3Cのみを撮影可能である。第2位置P2は、たとえば、第2案内部122の下方の位置である。
The
第2撮影部12Cのケース15Cは、支持台110に固定されている。ケース15Cは、上下方向Z1に細長い形状に形成されており、ケース15Cの上端部は、支持台110からの距離が遠くされている。これにより、支持台110に溜まった異物が、ケース15Cの上端部に付着することを抑制できる。ケース15Cの下端部からは、撮影した画像の画像データなどを出力するためのケーブル(図示せず)が延びており、このケーブルは、ベース部106を貫通し、車両感知部5に接続されている。ケース15Cの上端部に、入射部16Cが固定されている。
The
入射部16Cは、光学部材108からの光が入射される部分として設けられており、たとえば、レンズによって構成されている。入射部16Cは、上方を向いており、光学部材108と上下方向Z1に向かい合っている。入射部16Cに入射された像は、第2撮影部12Cに含まれる撮像素子に入射される。第2撮影部12Cは、撮像素子などによって生成された第2画像データを、車両感知部5へ出力する。
The
第1撮影部11Cおよび第2撮影部12Cは、筐体113に取り囲まれている。筐体113は、第1撮影部11Cおよび第2撮影部12Cに異物が付着することを抑制するために設けられている。筐体113は、第1軸107と平行に上下に延びる筒状に形成されており、本実施の形態では、円筒状に形成されている。筐体113は、たとえば、鋼管によって形成されている。なお、筐体113は、非透明の材料を用いて形成されてもよいし、透明の材料を用いて形成されてもよい。筐体113の下端部は、ベース部106の上端の外周部に固定されている。また、上下方向Z1において、筐体113の上端部の位置は、各撮影部11C,12Cの入射部14C,16Cの位置よりも高い。これにより、筐体113は、第1軸107の一部と、第2軸109の大部分と、支持台110と、各撮影部11C,12Cと、を取り囲んでいる。
The
筐体113には、気流発生用部材としてのファン128と、メンテナンス用の窓129と、が設けられている。ファン128は、筐体113の内部を換気するために設けられている。ファン128は、たとえば、上下方向Z1における各撮影部11C,12Cの高さ位置よりも高い位置に、1または複数配置されている。本実施の形態では、ファン128は、筐体113の周方向に離隔した位置に2つ設けられており、各撮影部11C,12Cに隣接している。ファン128は、たとえば、筐体113の内部を吸引することにより、筐体113の内部に気流を発生させる。これにより、筐体113の内部に侵入した異物は、気流に案内されて筐体113の外部に排出される。なお、ファン128に代えて、通気口などの他の気流発生用部材を筐体113に設けてもよい。
The
窓129は、各撮影部11C,12Cなど、筐体113の内部の部材をメンテナンスするために設けられている。窓129は、ファン128の下方に、1または複数配置されている。本実施の形態では、窓129は、各ファン128の下方にそれぞれ配置されており、各撮影部11C,12Cに隣接している。窓129は、筐体113に形成された開口部に嵌合されており、この開口部に対して取り外し可能である。窓129は、透明な材料を用いて形成されていてもよいし、非透明な材料を用いて形成されていてもよい。たとえば、作業員が各撮影部11C,12Cの入射部14C,16Cを清掃する場合には、窓129が筐体113から取り外される。これにより、作業員の腕などを、開口部を通して筐体113の外部から内部に挿入することができる。
The
[光学部材の選択]
図8(a)および図8(b)は、複数の光学部材108,108Cについて説明するための主要部の模式的な一部断面側面図である。図8(a)および図8(b)に示すように、本実施の形態では、画像式車両感知器1Cは、複数の光学部材108,108Cを有している。これら複数の光学部材108,108Cは、第1軸107に択一的に取り付け可能である。
[Optical member selection]
FIG. 8A and FIG. 8B are schematic partial cross-sectional side views of main parts for describing the plurality of
光学部材108,108Cは、それぞれの外周面の形状が互いに異なっている。具体的には、光学部材108においては、中心軸線L1に対する母線L2の傾斜角度θが規定されている。また、光学部材108Cにおいては、中心軸線L1に対する母線L2Cの傾斜角度θCが規定されている。傾斜角度θとθCとは、異なっている。たとえば、傾斜角度θ<θCに設定されている。
The
その結果、光学部材108を第1軸107に取り付けた場合における、第1計測エリア2Cの進行方向D1の長さと比べて、光学部材108Cを第1軸107に取り付けた場合における、第1計測エリア2Cの進行方向D1の長さは、より大きくなる。すなわち、光学部材108,108Cのうち光学部材108を用いた場合、第1計測エリア2Cは、より長くなる。
As a result, the first measurement area when the
一方で、光学部材108を第1軸107に取り付けた場合における、第1計測エリア2Cの幅方向W1の長さと比べて、光学部材108Cを第1軸107に取り付けた場合における、第1計測エリア2Cの幅方向W1の長さは、より大きくなる。すなわち、光学部材108,108Cのうち光学部材108Cを用いた場合、第1計測エリア2Cは、幅広となる。なお、第2計測エリア3Cの大きさについても、同様である。たとえば、片側三車線など、幅の広い道路に撮影装置4Cを設置する場合には、光学部材108,108Cのうち光学部材108Cを用いることが好ましい。
On the other hand, compared with the length of the
作業者は、各撮影部11C,12Cで撮影するエリアの大きさなどに応じて、適宜、光学部材108または光学部材108Cを選択することができる。前述したように、本実施の形態では、光学部材108,108Cのうちの光学部材108が、第1軸107に取り付けられている。
The operator can appropriately select the
[光学部材の清掃作業]
次に、光学部材108の清掃作業について説明する。図9(a)および図9(b)は、光学部材108の清掃作業について説明するための主要部の側面図である。図9(a)に示すように、光学部材108の外周面108aのうち、道路100Cに臨んでいない側の部分に埃201が付着し、かつ、外周面108aのうち、道路100Cに臨んでいる側の部分に埃202が付着した状態から、光学部材108の外周面108aを清掃する場合を説明する。
[Cleaning of optical components]
Next, the cleaning operation of the
この場合において、光学部材108を清掃する際には、作業員は、光学部材108の外周面108aのうち、第1案内部121を形成している部分、および第2案内部122を形成している部分以外の箇所を清掃部材203で清掃する。清掃部材203は、たとえば、外周面108aのうち道路100C(図示せず)に臨んでいない側の部分を清掃する。これにより、外周面108aに付着した埃201などの異物を除去する。
In this case, when cleaning the
次に、作業員は、図9(b)に示すように、光学部材108を第1軸107の回りに所定角度回転させる。次いで、作業員は、光学部材108の外周面108aのうち、第1案内部121を形成している部分、および第2案内部122を形成している部分以外の箇所を清掃部材203で清掃する。清掃部材203は、たとえば、外周面108aのうち道路100Cに臨んでいない側の部分を清掃する。これにより、外周面108aに付着した埃202などの異物を除去する。これにより、光学部材108の外周面108aの清掃作業が完了する。
Next, the worker rotates the
なお、図6(a)に示す画像式車両感知器1CCは、撮影装置4CCと、車両感知部5と、を有している。撮影装置4CCは、道路100Cに設置された門型柱100aの上部に設置されている。撮影装置4CCは、第1軸107の長さ、および筐体113の長さが異なっている点以外は、撮影装置4Cと同様の構成を有している。このように、第1軸107の長さ、および筐体113の長さを異ならせるという簡易な構成で、道路100Cからの設置高さに応じた全高の画像式車両感知器1Cおよび画像式車両感知器1CCを製造できる。
Note that the image type vehicle detector 1CC shown in FIG. 6A includes a photographing device 4CC and a
なお、本実施の形態では、車両感知部5を用いる構成を説明したが、これに限定されない。車両感知部5に代えて、車両感知部5Bを用いてもよい。
In addition, in this Embodiment, although the structure which uses the
以上説明したように、本発明の第3実施形態に係る画像式車両感知器では、光学部材108が設けられている。この光学部材108は、第1計測エリア2Cを第1計測エリア2Cの前方側から見た第1像21Cを第1撮影部11Cに光学的に案内するための第1案内部121と、第2計測エリア3Cを第2計測エリア3Cの後方側から見た第2像22Cを第2撮影部12Cに光学的に案内するための第2案内部122と、を含む。
As described above, in the image type vehicle sensor according to the third embodiment of the present invention, the
これにより、第1像21Cおよび第2像22Cは、それぞれ、光学部材108によって、対応する第1撮影部11Cおよび第2撮影部12Cへ案内される。したがって、第1撮影部11Cおよび第2撮影部12Cは、それぞれ、第1計測エリア2Cおよび第2計測エリア3Cを、光学部材108を介して間接的に撮影できる。よって、第1撮影部11Cおよび第2撮影部12Cは、日光を直接入射されずに済む。これにより、第1撮影部11Cおよび第2撮影部12Cに不要な光が入射されることを抑制できる。したがって、日光などの強い光に起因する車両感知精度の低下を、より一層抑制することができる。
Thereby, the
[第4実施形態]
図10は、本発明の第4実施形態に係る画像式車両感知器の撮影装置4Dを示す断面図であり、一部を側面で示している。図11は、本発明の第4実施形態に係る画像式車両感知器の車両感知部5Dの機能ブロック図である。
[Fourth embodiment]
FIG. 10 is a cross-sectional view showing a photographing
図10および図11に示すように、本発明の第4実施形態に係る画像式車両感知器が第3実施形態に係る画像式車両感知器と異なっている点は、主に下記に示す2点である。すなわち、(1)撮影装置4Dは、1つの撮影部150によって、第1像21Cおよび第2像22Cの双方を同時に撮影する点、(2)車両感知部5Dは、第1像21Cおよび第2像22Cの双方を撮影した撮影画像の画像データに基づいて、各車両101の感知処理を行う点、である。
As shown in FIGS. 10 and 11, the image type vehicle sensor according to the fourth embodiment of the present invention is different from the image type vehicle sensor according to the third embodiment mainly in the following two points. It is. That is, (1) the
撮影装置4Dにおいて、撮影部150は、第3位置P3に配置されている点以外、第1撮影部11Cと同様の構成を有している。第3位置P3において、撮影部150は、第1案内部121で反射された第1像21Cと、光学部材108の第2案内部122で反射された第2像22Cの双方を撮影可能である。第3位置P3は、たとえば、進行方向D1における、光学部材108の中央位置であって、第1軸107とは道路100Cの幅方向W1に並ぶ位置である。このように、光学部材108の第1案内部121は、第1像21Cを撮影部150に光学的に案内し、第2案内部122は、第2像22Cを撮影部150に光学的に案内する。
In the
車両感知部5Dは、画像入力部151と、画像補正部152と、選択部52と、画像感知処理部51と、感知データ伝送部36と、計時部37と、メンテナンス情報入力部38と、画像データ伝送部39と、を有している。
The
画像入力部151には、撮影部150で撮影された画像のデータとしての撮影画像データが出力される。画像入力部151は、撮影画像データを画像補正部152に出力する。
The
図12(a)および図12(b)は、画像補正部152における画像補正処理を説明するための図である。図11、図12(a)および図12(b)に示すように、画像補正部152は、撮影画像データを補正するために設けられている。具体的には、光学部材108の外周面108aには、第1像21Cおよび第2像22Cの双方を含む像153が反射している。撮影部150は、この像153を撮影することで、撮影画像データを生成する。画像補正部152は、この撮影画像データを読み込む。
FIG. 12A and FIG. 12B are diagrams for explaining the image correction processing in the
図11および図12(b)に示すように、次に、画像補正部152は、撮影画像データを補正することにより、第1像21Cの撮影画像の画像データとしての第1画像データ、および、第2像22Cの撮影画像の画像データとしての第2画像データに分離する。
As shown in FIG. 11 and FIG. 12B, the
画像補正部152は、第1画像データおよび第2画像データを、画像データ伝送部39へ出力するとともに、選択部52へ出力する。
The
[第4実施形態に係る画像式車両感知器における車両感知動作]
図13は、第4実施形態にかかる画像式車両感知器における車両感知動作について説明するためのフローチャートである。この車両感知動作について、図13に加え、適宜図10〜図12を参照しつつ説明する。撮影部150からの撮影画像データは、画像入力部151へ出力され、さらに、画像入力部151から画像補正部152へ出力される(ステップS41)。
[Vehicle sensing operation in the image type vehicle sensor according to the fourth embodiment]
FIG. 13 is a flowchart for explaining a vehicle sensing operation in the image type vehicle sensor according to the fourth embodiment. This vehicle sensing operation will be described with reference to FIGS. 10 to 12 in addition to FIG. The captured image data from the
次いで、画像補正部152は、画像補正処理を行う(ステップS42)。画像補正部152は、撮影画像データを基に、第1画像データと、第2画像データとを生成する。そして、画像補正部152は、第1画像データおよび第2画像データを選択部52へ出力する(ステップS43)。
Next, the
以降のステップS122〜S129は、第2実施形態に係る画像式車両感知器における車両感知動作のステップS22〜S29(図5参照)と同様であるので、説明を省略する。 Subsequent steps S122 to S129 are the same as steps S22 to S29 (see FIG. 5) of the vehicle sensing operation in the image type vehicle sensor according to the second embodiment, and thus description thereof is omitted.
本発明の第4実施形態に係る画像式車両感知器では、光学部材108と、光学部材108からの像153を撮影する1つの撮影部150と、が設けられている。また、光学部材108は、第1計測エリア2Cを第1計測エリア2Cの前方側から見た第1像21Cを撮影部150に光学的に案内するための第1案内部121と、第2計測エリア3Cを第2計測エリア3Cの後方側から見た第2像22Cを1つの撮影部150に光学的に案内するための第2案内部122と、を含む。また、第1画像データは、第1像21Cに基づくものであり、第2画像データは、第2像22Cに基づくものである。
In the image type vehicle sensor according to the fourth embodiment of the present invention, an
これにより、撮影部150から、第1計測エリア2Cに向かう方向と、撮影部150から、第2計測エリア3Cに向かう方向とは、道路100Cの進行方向D1に平行な成分において、反対向きとなる。このため、第1画像データによって特定される第1画像においては日光の写りこみ量が多い場合でも、第2画像データによって特定される第2画像においては日光の写りこみ量が少ない態様で、第2画像を得ることができる。同様に、たとえば、第2画像データによって特定される第2画像においては日光の写りこみ量が多い場合でも、第1画像データによって特定される第1画像においては日光の写りこみ量が少ない態様で、第1画像を得ることができる。すなわち、朝日が昇る時間帯であれば、第1画像および第2画像のうち、朝日の写りこみ量の少ない第1画像の第1画像データを基に、車両101の感知処理を行うことができる。また、夕日が沈む時間帯であれば、第1画像および第2画像のうち、夕日の写りこみ量の少ない第2画像の第2画像データを基に、車両101の感知処理を行うことができる。これにより、朝日が昇る時間帯、および夕日が沈む時間帯の何れの場合でも、直射日光が過度に写りこむことが抑制された画像の画像データを基に、車両101の感知処理を行うことができる。よって、日光などの強い光に起因する車両感知性能の低下を抑制することができる。また、第1像21Cおよび第2像22Cは、それぞれ、光学部材108によって、撮影部150へ案内される。これにより、撮影部150は、第1計測エリア2Cおよび第2計測エリア3Cを、光学部材108を介して間接的に撮影できる。したがって、撮影部150は、たとえば、日光を直接入射されずに済む。これにより、撮影部150に不要な光が入射されることを抑制できる。したがって、日光などの強い光に起因する車両感知精度の低下を、より一層抑制することができる。さらに、第1計測エリア2Cおよび第2計測エリア3Cを1つの撮影部150によって撮影することができる。これにより、撮影部150を2つ設ける必要がなく、画像式車両感知器の製造コストを、より少なくできる。また、撮影部150のうち、第1像21Cを撮影している箇所および第2像22Cを撮影している箇所の何れか一方を清掃している場合に、他方から得られる画像データを用いて、車両感知処理を継続することができる。したがって、撮影部150が1つの場合でも、車両101を感知するための処理の中断を抑制できる。
Thereby, the direction from the
[第5実施形態]
図14は、本発明の第5実施形態に係る画像式車両感知器の車両感知部5Eの機能ブロック図である。図14に示すように、本発明の第5実施形態に係る画像式車両感知器の車両感知部5Eが、第4実施形態に係る画像式車両感知器の車両感知部5Dと異なっている主な点は、2つの画像感知処理部によって、車両感知処理が行われる点にある。
[Fifth Embodiment]
FIG. 14 is a functional block diagram of the
車両感知部5Eは、画像入力部151と、画像補正部152と、第1画像感知処理部32と、第2画像感知処理部34と、選択部35と、感知データ伝送部36と、計時部37と、メンテナンス情報入力部38と、画像データ伝送部39と、を有している。
The
本実施の形態では、画像補正部152は、生成した第1画像データを、第1画像感知処理部32の車頭点検出部41へ出力する。また、画像補正部152は、生成した第2画像データを、第2画像感知処理部34の車尾点検出部43へ出力する。また、画像補正部152は、第1画像データおよび第2画像データを、画像データ伝送部39へ出力する。
In the present embodiment, the
車両感知部5Eの第1画像感知処理部32、第2画像感知処理部34、選択部35、感知データ伝送部36、計時部37、メンテナンス情報入力部38、および画像データ伝送部39の構成は、本発明の第1実施形態における車両感知部5(図2参照)の対応する構成と同様であるので、詳細な説明を省略する。
The configuration of the first image
[第5実施形態に係る画像式車両感知器における車両感知動作]
図15は、第5実施形態にかかる画像式車両感知器における車両感知動作について説明するためのフローチャートである。この車両感知動作について、図15に加え、適宜図14を参照しつつ説明する。
[Vehicle sensing operation in the image type vehicle sensor according to the fifth embodiment]
FIG. 15 is a flowchart for explaining a vehicle sensing operation in the image type vehicle sensor according to the fifth embodiment. This vehicle sensing operation will be described with reference to FIG. 14 as appropriate in addition to FIG.
撮影部150からの撮影画像データは、画像入力部151へ出力され、さらに、画像入力部151から画像補正部152へ出力される(ステップS51)。次いで、画像補正部152は、画像補正処理を行う(ステップS52)。画像補正部152は、撮影部150から出力された撮影画像データを基に、第1画像データと、第2画像データとを生成する。そして、画像補正部152は、第1画像データおよび第2画像データを、それぞれ、車頭点検出部41および車尾点検出部43へ出力する(ステップS53)。
The captured image data from the
以降のステップS112〜S116は、第1実施形態に係る画像式車両感知器における車両感知動作のステップS12〜S16(図3参照)と同様であるので、説明を省略する。 Since subsequent steps S112 to S116 are the same as steps S12 to S16 (see FIG. 3) of the vehicle sensing operation in the image type vehicle sensor according to the first embodiment, the description thereof is omitted.
[変形例]
なお、本発明の実施の形態に係る画像式車両感知器では、朝日の昇る時間帯、夕日の沈む時間帯、またはメンテナンス期間に関連付けて、車両感知用に用いる画像データを変更する構成を説明したが、これに限定するものではない。たとえば、2つの撮影部11,12のうち、一方の撮影部のレンズの汚れが酷くなった場合に、他方の撮影部からの画像データを用いて、車両感知用の画像データを取得してもよい。これにより、車両感知用の撮影を中断することなく、各撮影部11,12の清掃作業の時期の調整を行い易くすることができる。よって、画像式車両感知器の運用を、より柔軟に行うことができる。なお、上記の清掃時期の調整とは、天候を考慮した日程および時間帯の調整を含む。この撮影部11C,12Cについても、撮影部11,12と同様である。
[Modification]
In the image-type vehicle detector according to the embodiment of the present invention, the configuration in which the image data used for vehicle detection is changed in association with the rising time zone, the sunset time zone, or the maintenance period has been described. However, the present invention is not limited to this. For example, when the lens of one of the two
また、本発明の実施の形態に係る画像式車両感知器では、第1画像データおよび第2画像データの何れかを車両感知に用い、これとは無関係に、第1画像データおよび第2画像データの少なくとも一方を、中央処理装置102のモニター表示用に出力する構成を説明したが、これに限定するものではない。たとえば、第1画像データおよび第2画像データの何れか一方を車両感知に用いるとともに、他方を、中央処理装置102のモニター表示用に出力してもよい。
In addition, in the image type vehicle detector according to the embodiment of the present invention, either the first image data or the second image data is used for vehicle detection, and regardless of this, the first image data and the second image data are used. Although the configuration in which at least one of these is output for monitor display of the
また、第1画像データおよび第2画像データのうちの何れか一方を、車両感知に用いるとともに、かつ、中央処理装置102のモニター表示用に出力してもよい。この場合、撮影部11,12のうち、一方のみを用いて、車両感知用の撮影と、モニター表示用の撮影と、を行うことができる。よって、撮影部11,12のうち、他方が故障していても、車両感知用の撮影と、モニター表示用の撮影と、を行うことができる。その結果、画像式車両感知器の運用を、より柔軟に行うことができる。撮影部11C,12Cについても同様である。
In addition, any one of the first image data and the second image data may be used for vehicle detection and output for monitor display of the
また、本発明の実施の形態に係る画像式車両感知器では、第1像21および第2像22における太陽の照度の実際の値に拘らず、時間を基準として、車両感知に用いる画像データを切り替える構成を説明したが、これに限定するものではない。たとえば、第1像21および第2像22における太陽の照度の値を測定し、測定した値に基づいて、車両感知に用いる画像データを切り替えてもよい。第1像21Cおよび第2像22Cに関しても同様である。
In the image type vehicle sensor according to the embodiment of the present invention, the image data used for vehicle detection is based on time regardless of the actual value of the illuminance of the sun in the
また、本発明の実施の形態に係る画像式車両感知器では、第1画像データおよび第2画像データの何れを車両感知に用いるかは、選択部35,52によって決定される構成を説明したが、これに限定するものではない。たとえば、第1画像データおよび第2画像データの何れを車両感知に用いるかを設定する手動スイッチを設けてもよい。
In the image type vehicle detector according to the embodiment of the present invention, the configuration in which the
また、本発明の実施の形態に係る画像式車両感知器では、撮影部11,12の双方を常時駆動させる構成を説明したが、これに限定するものではない。たとえば、中央処理装置102、または車両感知部に、撮影部11,12の動作を停止させる手動スイッチを設けてもよい。この場合、撮影部11,12のうち、動作が停止された状態の一方について、清掃、向きまたは位置の調整、異常の有無の確認などのメンテナンスと、修理および交換作業と、を行うことができる。この場合、撮影部11,12のうちの、動作が停止されていない他方において、車両感知用、および中央処理装置102のモニター表示用の撮影を行うことができる。そして、メンテナンス作業が終了した場合には、手動スイッチを操作し、一方の撮影部の動作を再開させる。撮影部11C,12Cについても同様である。
In the image type vehicle sensor according to the embodiment of the present invention, the configuration in which both the photographing
また、本発明の実施の形態に係る画像式車両感知器では、第1感知データと第2感知データについて、互いに関連付けることは特にしない構成を説明したが、これに限定するものではない。たとえば、第1感知データと第2感知データとを比較などすることにより、より精度の高い感知データを出力できるようにしてもよい。 In the image type vehicle detector according to the embodiment of the present invention, the first sensing data and the second sensing data are not particularly associated with each other. However, the present invention is not limited to this. For example, more accurate sensing data may be output by comparing the first sensing data and the second sensing data.
さらに、本発明の実施の形態に係る画像式車両感知器では、複数の画像式車両感知器を設けた場合において、互いの画像式車両感知器間の関連付けは特にしない構成を説明したが、これに限定するものではない。たとえば、高速道路のインターチェンジ(IC)間に、複数の画像式車両感知器を設け、各画像式車両感知器のそれぞれの感知データを比較することにより、より精度の高い感知データを出力できるようにしてもよい。 Furthermore, in the image type vehicle sensor according to the embodiment of the present invention, the configuration in which there is no particular association between the image type vehicle sensors in the case where a plurality of image type vehicle sensors are provided has been described. It is not limited to. For example, a plurality of image-type vehicle detectors are provided between interchanges (ICs) on a highway, and the detection data of each image-type vehicle detector can be compared so that more accurate detection data can be output. May be.
また、本発明の実施の形態に係る画像式車両感知器では、撮影装置4の撮影部11,12は、道路100の進行方向D1において互いに反対向きに配置される構成を説明したけれども、これに限定するものではない。たとえば、撮影部11,12を、進行方向D1において同じ向きに揃えてもよい。この場合、撮影部11,12の一方、たとえば、撮影部12の入射部16の近傍に、第2計測エリア3からの光を入射部16に反射させる反射部材が配置される。反射部材は、たとえば、鏡である。これにより、第2計測エリア3を、撮影部12によって撮影することができる。
Further, in the image type vehicle sensor according to the embodiment of the present invention, the
また、本発明の実施の形態に係る画像式車両感知器では、光学部材108として、光を反射する鏡を用いる構成を説明したが、これに限定するものではない。たとえば、光学部材は、プリズムなど、光を屈折させる部材であってもよい。
In the image type vehicle sensor according to the embodiment of the present invention, the configuration using the mirror that reflects light as the
また、本発明の実施の形態に係る画像式車両感知器では、光学部材108を円錐台形状とする構成を説明したが、これに限定するものではない。たとえば、反射部材は、多角錐台形状であってもよいし、下向きに膨らむ半球形状であってもよい。
In the image type vehicle sensor according to the embodiment of the present invention, the configuration in which the
また、本発明の実施の形態に係る画像式車両感知器では、複数の光学部材108,108Cが用意されている構成を説明したが、これに限定するものではない。たとえば、反射部材は、1種類であってもよい。
In the image type vehicle sensor according to the embodiment of the present invention, the configuration in which the plurality of
また、本発明の実施の形態に係る画像式車両感知器では、光学部材108からの光を撮影する撮影部11C,12Cのそれぞれについて、入射部14C,16Cが上向きに配置されている構成を説明したが、これに限定するものではない。たとえば、入射部14C,16Cは、水平方向を向いていてもよい。入射部14C、16Cは、光学部材108からの第1像21Cおよび第2像22Cが入射可能に配置されていればよく、向きおよび配置場所は特に限定されない。
Further, in the image type vehicle sensor according to the embodiment of the present invention, a configuration in which the
また、本発明の実施の形態に係る画像式車両感知器では、光学部材108は、作業者の手作業によって第1軸107回りを回転する構成を説明したが、これに限定するものではない。たとえば、電動モータを含む変位機構を設け、第1軸107をこの変位機構によって回転させることにより、光学部材108を回転させてもよい。この場合、たとえば、各撮影部11C,12Cまたは撮影部150で撮影された画像を、中央処理装置102のモニターを用いてオペレータが定期的に目視する。そして、オペレータによって、画像の不鮮明度合が大きいと判断された場合に、光学部材108を回転させることができる。これにより、光学部材108の外周面108aのうち、道路100Cに臨んでいなかった、比較的汚れの少ない部分を、道路100Cに臨ませ、この部分を、第1案内部121および第2案内部122として用いることができる。
In the image type vehicle sensor according to the embodiment of the present invention, the
また、本発明の実施の形態に係る画像式車両感知器では、第1撮影部11,11Cは、道路100,100Cの西側を撮影するように配置され、第2撮影部12,12Cは、道路100,100Cの東側を撮影するように配置される構成を説明したが、これに限定するものではない。たとえば、第1撮影部11,11Cを、道路100,100Cの東側を撮影するように配置し、第2撮影部12,12Cを、道路100,100Cの西側を撮影するように配置してもよい。この場合、第1撮影期間は、第1画像データで特定される第1画像における夕日の強さよりも、第2画像データで特定される第2画像における夕日の強さの大きい期間となるように、設定される。また、第2撮影期間は、第2画像データで特定される第2画像における朝日の強さよりも、第1画像データで特定される第1画像における朝日の強さの大きい期間となるように、設定される。
In the image type vehicle detector according to the embodiment of the present invention, the first photographing
また、本発明の実施の形態に係る画像式車両感知器では、図2および図14に示すように、選択部35は、車両感知部5,5Eに含まれる構成を説明したが、これに限定するものではない。たとえば、選択部35および感知データ伝送部36は、中央処理装置102に含まれていてもよい。この場合、中央処理装置102は、画像式車両感知器の一部を構成する。また、この場合、第1画像感知処理部32の感知処理結果、および第2画像感知処理部34の感知処理結果が、ともに、中央処理装置102に伝送される。
In the image type vehicle detector according to the embodiment of the present invention, as shown in FIGS. 2 and 14, the
また、本発明の実施の形態に係る画像式車両感知器では、図4および図11に示すように、選択部52は、車両感知部5B,5Dに含まれる構成を説明したが、これに限定するものではない。たとえば、選択部52、画像感知処理部51、および感知データ伝送部36は、中央処理装置102に含まれていてもよい。この場合、中央処理装置102は、画像式車両感知器の一部を構成する。また、この場合、画像感知処理部51の感知処理は、中央処理装置102において行われる。
Further, in the image type vehicle sensor according to the embodiment of the present invention, as shown in FIGS. 4 and 11, the
また、本発明の実施の形態に係る画像式車両感知器では、撮影部150で生成された、像153の撮影画像データを基に、画像補正部152が、第1画像データと、第2画像データとを分割する構成を説明した。しかしながら、これに限定するものではない。たとえば、車両感知部5D,Eは、撮影部150で生成された撮影画像データを分離することなく、撮影画像データのうちの第1画像データ、または第2画像データを選択し、車両101の感知処理を行ってもよい。
In the image type vehicle sensor according to the embodiment of the present invention, the
また、本発明の実施の形態に係る画像式車両感知器は、東西に延びる道路に設置される構成を説明したが、これに限定するものではない。画像式車両感知器が設置される道路の進行方向は、特に限定されない。 Moreover, although the image type vehicle sensor which concerns on embodiment of this invention demonstrated the structure installed in the road extended east and west, it is not limited to this. The traveling direction of the road where the image type vehicle sensor is installed is not particularly limited.
また、本発明の実施の形態に係る画像式車両感知器は、日光に晒される場所に配置される構成を説明したが、これに限定するものではない。画像式車両感知器は、トンネル内に配置されていてもよい。この場合、たとえば、トンネル内の照明が、一方の撮影部または光学部材の一方の案内部に直接照射されている場合に、他方の案内部からの像を撮影した画像データを用いて、車両の感知処理を行うことができる。 Moreover, although the image type vehicle sensor which concerns on embodiment of this invention demonstrated the structure arrange | positioned in the place exposed to sunlight, it is not limited to this. The image-type vehicle sensor may be disposed in the tunnel. In this case, for example, when the illumination in the tunnel is directly radiated to one imaging unit or one guide part of the optical member, the image of the vehicle is used to capture the image from the other guide unit. Sensing processing can be performed.
上記実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The above embodiment should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1,1C 画像式車両感知器
2,2C 第1計測エリア
3,3C 第2計測エリア
8,8C 光学部材
11,11C 第1撮影部
12,12C 第2撮影部
21C 第1像
22C 第2像
32 第1画像感知処理部(第1処理部)
34 第2画像感知処理部(第2処理部)
35 選択部
39 画像データ伝送部(画像データ出力部)
51 画像感知処理部(1つの処理部、第1処理部、第2処理部)
52 選択部
100,100C 道路
101 車両
121 第1案内部
122 第2案内部
150 撮影部(1つの撮影部)
152 画像補正部(補正部)
D1 進行方向
DESCRIPTION OF
34 Second image sensing processor (second processor)
35
51 Image sensing processor (one processor, first processor, second processor)
52
152 Image correction unit (correction unit)
D1 Direction of travel
Claims (12)
前記第1計測エリアを通過した各前記車両の通行先の前記道路における第2計測エリアを撮影することで得られた第2画像データに基づいて、各前記車両の感知処理を行うことが可能な第2処理部と、
前記第1処理部における感知処理結果、および前記第2処理部における感知処理結果の何れを出力するか選択可能な選択部と、
を備えている、画像式車両感知器。 Based on the first image data obtained by photographing one or a plurality of vehicles passing through the first measurement area on the road along a predetermined traveling direction, a sensing process for each of the vehicles can be performed. One processing unit;
It is possible to perform the sensing process for each vehicle based on the second image data obtained by photographing the second measurement area on the road to which each vehicle that has passed through the first measurement area is taken. A second processing unit;
A selection unit capable of selecting which of a sensing process result in the first processing unit and a sensing process result in the second processing unit is to be output;
An image-type vehicle detector.
前記選択部は、前記第1処理部における感知処理結果と、前記第2処理部における感知処理結果の何れかを出力可能である、請求項1に記載の画像式車両感知器。 The first processing unit and the second processing unit can perform sensing processing of each vehicle in parallel,
The image type vehicle sensor according to claim 1, wherein the selection unit is capable of outputting either a sensing process result in the first processing unit or a sensing process result in the second processing unit.
前記選択部は、前記1つの処理部に対して、前記第1画像データおよび前記第2画像データのうちの何れに基づいて各前記車両の感知処理を行わせるかを指示することが可能である、請求項1に記載の画像式車両感知器。 The first processing unit and the second processing unit are configured by one processing unit,
The selection unit can instruct the one processing unit to perform sensing processing of each vehicle based on which of the first image data and the second image data. The image type vehicle sensor according to claim 1.
前記第2計測エリアを通行する各前記車両を各前記車両の後方側から撮影するための第2撮影部と、
をさらに備えている、請求項1から請求項4の何れか1項に記載の画像式車両感知器。 A first photographing unit for photographing each vehicle passing through the first measurement area from the front side of each vehicle;
A second photographing unit for photographing each vehicle passing through the second measurement area from the rear side of each vehicle;
The image type vehicle sensor according to any one of claims 1 to 4, further comprising:
前記光学部材は、前記第1計測エリアを前記第1計測エリアの前方側から見た第1像を前記第1撮影部に光学的に案内するための第1案内部と、前記第2計測エリアを前記第2計測エリアの後方側から見た第2像を前記第2撮影部に光学的に案内するための第2案内部と、を含む、請求項5に記載の画像式車両感知器。 An optical member;
The optical member includes a first guide unit for optically guiding a first image of the first measurement area viewed from the front side of the first measurement area to the first photographing unit, and the second measurement area. The image-type vehicle detector according to claim 5, further comprising: a second guide unit for optically guiding a second image of the second measurement area viewed from the rear side of the second measurement area to the second imaging unit.
前記光学部材からの像を撮影する1つの撮影部と、をさらに備え、
前記光学部材は、前記第1計測エリアを前記第1計測エリアの前方側から見た第1像を前記1つの撮影部に光学的に案内するための第1案内部と、前記第2計測エリアを前記第2計測エリアの後方側から見た第2像を前記1つの撮影部に光学的に案内するための第2案内部と、を含み、
前記第1画像データは、前記第1像に基づくものであり、前記第2画像データは、前記第2像に基づくものである、請求項1から請求項4の何れか1項に記載の画像式車両感知器。 An optical member;
A single photographing unit for photographing an image from the optical member, and
The optical member includes a first guide unit for optically guiding a first image of the first measurement area viewed from the front side of the first measurement area to the one photographing unit, and the second measurement area. A second guide unit for optically guiding a second image of the second measurement area viewed from the rear side to the one photographing unit,
The image according to any one of claims 1 to 4, wherein the first image data is based on the first image, and the second image data is based on the second image. Type vehicle detector.
前記第2期間は、前記第2画像データで特定される第2画像における夕日または朝日の強さよりも、前記第1画像データで特定される第1画像における前記夕日または朝日の強さの大きい第2撮影期間を含む、請求項9に記載の画像式車両感知器。 In the first period, the intensity of the sunrise or sunset in the second image specified by the second image data is greater than the intensity of the sunrise or sunset in the first image specified by the first image data. Including one shooting period,
In the second period, the intensity of the sunset or sunrise in the first image specified by the first image data is greater than the intensity of sunset or sunrise in the second image specified by the second image data. The image type vehicle sensor according to claim 9, comprising two shooting periods.
前記第2期間は、前記第1計測エリアを撮影する第1撮影部をメンテナンスするための第2メンテナンス期間を含む、請求項9または請求項10に記載の画像式車両感知器。 The first period includes a first maintenance period for maintaining a second imaging unit that images the second measurement area,
11. The image type vehicle sensor according to claim 9, wherein the second period includes a second maintenance period for maintaining the first photographing unit that photographs the first measurement area.
道路における第1計測エリアを所定の進行方向に沿って通行する1または複数の車両を撮影することで得られた第1画像データを受け容れるステップと、
前記第1計測エリアを通過した各前記車両の通行先の前記道路における第2計測エリアを撮影することで得られた第2画像データを受け容れるステップと、
前記第1画像データおよび前記第2画像データの何れか一方に基づいて各前記車両の感知処理を行った感知処理結果を出力するステップと、
を実行させるための、車両感知プログラム。 On the computer,
Accepting first image data obtained by photographing one or more vehicles passing through a first measurement area on a road along a predetermined traveling direction;
Accepting second image data obtained by photographing the second measurement area on the road to which each of the vehicles that have passed through the first measurement area is taken; and
Outputting a sensing process result obtained by performing a sensing process on each vehicle based on one of the first image data and the second image data;
A vehicle sensing program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012040594A JP2013175131A (en) | 2012-02-27 | 2012-02-27 | Image type vehicle sensor and vehicle sensing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012040594A JP2013175131A (en) | 2012-02-27 | 2012-02-27 | Image type vehicle sensor and vehicle sensing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013175131A true JP2013175131A (en) | 2013-09-05 |
Family
ID=49267964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012040594A Pending JP2013175131A (en) | 2012-02-27 | 2012-02-27 | Image type vehicle sensor and vehicle sensing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013175131A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10186148B2 (en) | 2014-12-15 | 2019-01-22 | Sumitomo Electric Industries, Ltd. | Roadside control apparatus, computer program, and information processing method |
US10249183B2 (en) | 2015-02-23 | 2019-04-02 | Sumitomo Electric Industries, Ltd. | Traffic index generation device, traffic index generation method, and computer program |
-
2012
- 2012-02-27 JP JP2012040594A patent/JP2013175131A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10186148B2 (en) | 2014-12-15 | 2019-01-22 | Sumitomo Electric Industries, Ltd. | Roadside control apparatus, computer program, and information processing method |
US10249183B2 (en) | 2015-02-23 | 2019-04-02 | Sumitomo Electric Industries, Ltd. | Traffic index generation device, traffic index generation method, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104024827B (en) | Image processing apparatus, image capture method and vehicle | |
US7863568B2 (en) | Photosensitive sensor in the automotive field | |
JP5421072B2 (en) | Approaching object detection system | |
RU2546547C1 (en) | Driving aid and method of vehicle detection nearby it | |
US20100208060A1 (en) | Liquid droplet recognition apparatus, raindrop recognition apparatus, and on-vehicle monitoring apparatus | |
KR101275297B1 (en) | Camera Apparatus of tracking moving object | |
CN102566212A (en) | Camera system and method for operating a camera system for a motor vehicle | |
JP2013190417A (en) | Imaging unit and installation method thereof | |
JP2008170256A (en) | Flaw detection method, flaw detection program and inspection device | |
JP2007127595A (en) | Foreign substance detection instrument | |
JP2013175131A (en) | Image type vehicle sensor and vehicle sensing program | |
JP4359293B2 (en) | Glass bottle inspection equipment | |
JP2013175130A (en) | Image type vehicle sensor | |
JP2011165005A (en) | Imaging apparatus and toll collection system | |
JP5603302B2 (en) | Vehicle monitoring device | |
JP4679282B2 (en) | Substrate inspection apparatus and substrate inspection method | |
JPH0687377A (en) | Monitor for vehicle periphery | |
JP6280426B2 (en) | Vehicle headlight measuring device | |
JP3848310B2 (en) | Glass bottle inspection equipment | |
KR101403926B1 (en) | Apparatus for inspecting curved surface | |
JP2005249946A (en) | Defect inspecting apparatus for display device | |
JP3837737B2 (en) | Imaging device | |
JP2009098069A (en) | Apparatus and method of measuring deflection of rotating body | |
KR101210737B1 (en) | An image acquisition system | |
CN220022902U (en) | Chip detection device |