JP2011082855A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2011082855A
JP2011082855A JP2009234339A JP2009234339A JP2011082855A JP 2011082855 A JP2011082855 A JP 2011082855A JP 2009234339 A JP2009234339 A JP 2009234339A JP 2009234339 A JP2009234339 A JP 2009234339A JP 2011082855 A JP2011082855 A JP 2011082855A
Authority
JP
Japan
Prior art keywords
imaging
filter
frame
image
optical path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009234339A
Other languages
Japanese (ja)
Inventor
Masayuki Arai
政幸 新井
Yasuhiro Nishikata
靖浩 西方
Takatomo Endo
貴智 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2009234339A priority Critical patent/JP2011082855A/en
Priority to CN2010105371921A priority patent/CN102088553A/en
Priority to DE102010038056A priority patent/DE102010038056A1/en
Priority to GB1016975A priority patent/GB2474557A/en
Publication of JP2011082855A publication Critical patent/JP2011082855A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Blocking Light For Cameras (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To attain an imaging apparatus which can photograph a plurality of images concurrently at the high degree of freedom in settings of an optical system with a simple structure. <P>SOLUTION: A first CCD 212 has the number of pixels of a 1 mega-pixel class, and also has a rectangular imaging face 217 on which a subject image from an imaging lens 211 is formed. A first CCD 212 is provided inside a first terminal device 200 so that a gravity direction of the first terminal device 200 coincides with a longitudinal direction of the imaging face 217. The imaging face 217 is divided into two equal parts of an upward part and downward part with respect to the gravity direction. A region provided in the upward part forms a near infrared ray imaging area, and a region provided in the downward part forms a visible ray imaging area. The first CCD 212 captures the subject image formed in the near infrared ray imaging area and the visible ray imaging area at the same time. Of beam of light incident from a photographing lens, a subject upward in a gravity direction is formed into an image in the visible ray imaging area, and a subject downward in the gravity direction is formed into an image in the near infrared ray imaging area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、カラー画像と赤外画像とを同時に撮影する撮像装置に関する。   The present invention relates to an imaging apparatus that captures a color image and an infrared image simultaneously.

従来、複数の光学系を用いて複数の画像を同時に得る撮像装置が知られている。撮像装置は望遠レンズ、広角レンズ、及び1つの撮像素子を備える。望遠レンズによる像は、撮像素子の上半分の撮像面に結像し、広角レンズによる像は、撮像素子の下半分の撮像面に結像する。これにより、望遠側画像と広角側画像とを同時に得る(特許文献1)。   2. Description of the Related Art Conventionally, imaging devices that obtain a plurality of images simultaneously using a plurality of optical systems are known. The imaging apparatus includes a telephoto lens, a wide-angle lens, and one imaging element. The image by the telephoto lens is formed on the upper half of the imaging surface of the image sensor, and the image by the wide-angle lens is formed on the lower half of the image sensor. Thereby, a telephoto side image and a wide-angle side image are obtained simultaneously (Patent Document 1).

特開2001−257923号公報JP 2001-257923 A

しかし、2つの光学系を有する撮像装置では、被写体との距離に応じてそれぞれの光学系の画角等を決定しなければならないため、被写体との距離に応じて撮像装置を設計する必要がある。さらに、光学系を2つ設けることにより撮像装置のコストが上昇する。   However, in an imaging apparatus having two optical systems, the angle of view of each optical system must be determined according to the distance to the subject, and thus the imaging apparatus needs to be designed according to the distance to the subject. . Furthermore, providing two optical systems increases the cost of the imaging apparatus.

本発明は、これらの問題を鑑みてなされたものであり、簡単な構成で、光学系の設定自由度が高く、複数の画像を同時に撮影可能な撮像装置を得ることを目的とする。   The present invention has been made in view of these problems, and an object of the present invention is to obtain an imaging apparatus that can capture a plurality of images simultaneously with a simple configuration and a high degree of freedom in setting an optical system.

本願発明による撮像装置は、第1の撮像領域と第1の撮像領域と異なる第2の撮像領域とを有する撮像素子と、第1の撮像領域に配置されるカラー画像撮像用フィルタと、第2の撮像領域に配置される不可視光画像撮像用フィルタとを備え、第1の撮像領域と第2の撮像領域とに跨って一方向に移動する被写体像を撮像することを特徴とする。   An imaging apparatus according to the present invention includes an imaging element having a first imaging area and a second imaging area different from the first imaging area, a color image imaging filter disposed in the first imaging area, and a second And an invisible light image capturing filter disposed in the imaging region, and capturing a subject image that moves in one direction across the first imaging region and the second imaging region.

撮像手段は、第1の撮像領域から第2の撮像領域へ移動する被写体像を撮像することが好ましい。   The imaging unit preferably captures a subject image that moves from the first imaging region to the second imaging region.

撮像素子は1枚であって長方形の撮像領域を有し、重力方向に長手方向を有するように撮像装置に取り付けられ、撮像領域の重力上方向半分に導かれる光路上に不可視光画像撮像用フィルタが取り付けられ、重力下方向半分に導かれる光路上にカラー画像撮像用フィルタが取り付けられ、撮像領域の重力上方向半分が不可視光画像を撮像し、重力下方向半分がカラー画像を撮像するように構成されても良い。   A single imaging element has a rectangular imaging region, is attached to the imaging device so as to have a longitudinal direction in the direction of gravity, and is a filter for imaging an invisible light image on an optical path that is guided in the gravity half of the imaging region. Is attached, and a color image capturing filter is mounted on the optical path guided in the half gravity direction, so that the gravity half of the imaging region captures an invisible light image and the gravity half captures a color image. It may be configured.

撮像素子は、第1の撮像領域を成すカラー用撮像素子と第2の撮像領域を成す不可視光用撮像素子とを有し、被写体から撮像素子までの光路上に設けられるハーフミラーをさらに備え、ハーフミラーは、カラー用撮像素子に向けて遠点側の被写体像を反射し、不可視光用撮像素子に向けて近点側の被写体像を透過してもよい。   The imaging device has a color imaging device forming a first imaging region and an invisible light imaging device forming a second imaging region, and further includes a half mirror provided on an optical path from a subject to the imaging device, The half mirror may reflect the far-point subject image toward the color image sensor and transmit the near-point subject image toward the invisible light image sensor.

カラー用撮像素子は、その撮像面が撮像レンズの光軸と平行となるように撮像装置に取り付けられ、不可視光用撮像素子は、その撮像面が撮像レンズの光軸と直角となるように撮像装置に取り付けられてもよい。   The color imaging device is attached to the imaging device so that its imaging surface is parallel to the optical axis of the imaging lens, and the invisible light imaging device is imaged so that its imaging surface is perpendicular to the optical axis of the imaging lens. It may be attached to the device.

カラー画像撮像用フィルタは、赤外カットフィルタが好適である。   The color image capturing filter is preferably an infrared cut filter.

不可視光撮像用フィルタは、可視光カットフィルタが好適である。   The invisible light imaging filter is preferably a visible light cut filter.

不可視光撮像用フィルタは、不可視光画像撮像用フィルタを通過する光路上に設けられ、偏光フィルタをさらに備えることが好ましい。   The invisible light imaging filter is preferably provided on an optical path passing through the invisible light image capturing filter, and further includes a polarizing filter.

カラー画像撮像用フィルタは、不可視光画像撮像用フィルタ及び偏光フィルタが有する光路長と同じ光路長を有することが好ましい。   The color image capturing filter preferably has the same optical path length as that of the invisible light image capturing filter and the polarizing filter.

カラー画像撮像用フィルタは、カラー画像撮像用フィルタを通過する光路上に設けられ、偏光フィルタが有する光路長と同じ光路長を有する光路長調整フィルタをさらに備えることが好ましい。   The color image capturing filter preferably further includes an optical path length adjusting filter that is provided on an optical path passing through the color image capturing filter and has the same optical path length as that of the polarizing filter.

光路長調整フィルタは、カラー画像撮像用フィルタと撮像素子との間に設けられることが好ましい。   The optical path length adjustment filter is preferably provided between the color image capturing filter and the image sensor.

撮像装置は、撮像素子に被写体像を結像する撮像レンズをさらに備え、撮像レンズは、深い焦点深度を得ることができるパンフォーカスレンズが好ましい。   The imaging apparatus further includes an imaging lens that forms a subject image on the imaging element, and the imaging lens is preferably a pan focus lens capable of obtaining a deep depth of focus.

以上のように本発明によれば、簡単な構成で、光学系の設定自由度が高く、複数の画像を同時に撮影可能な撮像装置を得る。   As described above, according to the present invention, it is possible to obtain an imaging device that has a simple configuration, has a high degree of freedom in setting an optical system, and can capture a plurality of images simultaneously.

第1の実施形態による第1の撮像システムのブロック図である。It is a block diagram of the 1st imaging system by a 1st embodiment. 第1の撮像ユニットの一部断面図である。It is a partial sectional view of the 1st image pick-up unit. 第1の撮像ユニットが撮像した画像を示した図である。It is the figure which showed the image which the 1st imaging unit imaged. 蛇行記録処理を示すフローチャートである。It is a flowchart which shows a meandering recording process. 蛇行イニシャルセット処理を示すフローチャートである。It is a flowchart which shows a meandering initial set process. 路側帯通行記録処理を示すフローチャートである。It is a flowchart which shows a roadside zone traffic recording process. 通行イニシャルセット処理を示すフローチャートである。It is a flowchart which shows a traffic initial set process. 車色記録処理を示すフローチャートである。It is a flowchart which shows a vehicle color recording process. 車色イニシャルセット処理を示すフローチャートである。It is a flowchart which shows a vehicle color initial set process. 車種記録処理を示すフローチャートである。It is a flowchart which shows a vehicle type recording process. 車種イニシャルセット処理を示すフローチャートである。It is a flowchart which shows a vehicle type initial set process. 第2の実施形態による第2の撮像システムのブロック図である。It is a block diagram of the 2nd imaging system by a 2nd embodiment. 第2の撮像ユニットの一部断面図である。It is a partial sectional view of the 2nd image pick-up unit.

以下、本発明による第1の実施形態について、図1から3を用いて説明する。   Hereinafter, a first embodiment according to the present invention will be described with reference to FIGS.

第1の撮像システム100は、被写体像を撮像可能な位置に設けられる第1の端末装置200と、第1の端末装置200と離れた位置に設けられる中央制御機300を備える。   The first imaging system 100 includes a first terminal device 200 provided at a position where a subject image can be captured, and a central controller 300 provided at a position away from the first terminal device 200.

第1の端末装置200は、第1の撮像装置210と、端末演算部220と、車両検出部230と、近赤外照明部240と、端末記録部250と、端末通信制御部260とを備える。   The first terminal device 200 includes a first imaging device 210, a terminal calculation unit 220, a vehicle detection unit 230, a near infrared illumination unit 240, a terminal recording unit 250, and a terminal communication control unit 260. .

中央制御機300は、中央通信制御部310と、アラーム320と、中央記録部330と、中央演算部340とを備える。   The central controller 300 includes a central communication control unit 310, an alarm 320, a central recording unit 330, and a central processing unit 340.

第1の撮像装置210は、撮像光学系を構成する撮像レンズ211と、撮像素子である第1のCCD212と、赤外画像撮像用フィルタである第1の可視光カットフィルタ213と、第1の偏光フィルタ214と、カラー画像撮像用フィルタである第1の赤外カットフィルタ215と、光路長調整フィルタ216とを備える。   The first imaging device 210 includes an imaging lens 211 that constitutes an imaging optical system, a first CCD 212 that is an imaging element, a first visible light cut filter 213 that is an infrared imaging filter, and a first A polarizing filter 214, a first infrared cut filter 215 that is a color image capturing filter, and an optical path length adjustment filter 216 are provided.

撮像レンズ211は、深い被写界深度を実現するための焦点距離と絞りを有し、パンフォーカス撮影が可能である。これにより、撮像レンズ211は、第1の撮像装置210からの距離が10mから100mまでの間に存在する被写体に同時に合焦することが可能である。   The imaging lens 211 has a focal length and a diaphragm for realizing a deep depth of field, and can perform pan-focus imaging. Accordingly, the imaging lens 211 can simultaneously focus on a subject existing at a distance from the first imaging device 210 of 10 m to 100 m.

第1のCCD212は、1メガピクセルクラス以上の画素数を有するとともに、撮像レンズ211からの被写体像が結像する長方形の第1の撮像面217を有する。第1の端末装置200の重力方向が第1の撮像面217の長手方向と一致するように、第1の端末装置200の内部に第1のCCD212が設けられる。第1の撮像面217は、重力上方と下方に二等分される。重力上方に設けられる部位が近赤外線撮像領域218を成し、重力下方に設けられる部位が可視光線撮像領域219を成す。第1のCCD212は、第1の撮像面217、すなわち近赤外線撮像領域218及び可視光線撮像領域219に結像した被写体像を一度に撮像する。撮像は例えば1秒間に10回行われ、CCD212は1秒間に10フレームから成る動画を端末演算部及び端末記録部250に出力する。撮像のフレームレートは、必要に応じて適宜設定される。   The first CCD 212 has a first imaging surface 217 having a rectangular shape on which a subject image from the imaging lens 211 is formed and has a number of pixels of 1 megapixel class or more. The first CCD 212 is provided inside the first terminal device 200 so that the direction of gravity of the first terminal device 200 coincides with the longitudinal direction of the first imaging surface 217. The first imaging surface 217 is divided into two equal parts above and below the gravity. A part provided above the gravity forms a near infrared imaging region 218, and a part provided below the gravity forms a visible light imaging region 219. The first CCD 212 images the subject image formed on the first imaging surface 217, that is, the near-infrared imaging region 218 and the visible light imaging region 219 at a time. Imaging is performed, for example, 10 times per second, and the CCD 212 outputs a moving image consisting of 10 frames per second to the terminal calculation unit and the terminal recording unit 250. The imaging frame rate is appropriately set as necessary.

第1の偏光フィルタ214は、特定の偏光状態を有する光のみを透過する光学フィルタである。第1の可視光カットフィルタ(近赤外線透過フィルタ)213は、可視光を透過せず、赤外線に含まれる近赤外線のみを透過する光学フィルタであって、不可視光画像撮像用フィルタを成す。第1の偏光フィルタ214は、近赤外線撮像領域218の全面を覆うように第1のCCD212に取り付けられる。そして、第1の偏光フィルタ214及び近赤外線撮像領域218の全面を覆うように、かつ第1の偏光フィルタ214の撮像レンズ211側に、第1の可視光カットフィルタ213が第1のCCD212に取り付けられる。   The first polarizing filter 214 is an optical filter that transmits only light having a specific polarization state. The first visible light cut filter (near-infrared transmission filter) 213 is an optical filter that does not transmit visible light but transmits only near-infrared light included in infrared light, and forms an invisible light image capturing filter. The first polarizing filter 214 is attached to the first CCD 212 so as to cover the entire surface of the near infrared imaging region 218. A first visible light cut filter 213 is attached to the first CCD 212 so as to cover the entire surface of the first polarizing filter 214 and the near-infrared imaging region 218 and on the imaging lens 211 side of the first polarizing filter 214. It is done.

第1の赤外カットフィルタ215は、赤外線を透過せず、その他の周波数を有する光を透過するフィルタであって、カラー画像撮像用フィルタを成す。光路長調整フィルタ216は、透過する光の光路長を調整するために設けられるフィルタであり、全ての波長の光を透過する。光路長調整フィルタ216は、可視光線撮像領域219の全面を覆うように第1のCCD212に取り付けられる。そして、光路長調整フィルタ216の撮像レンズ211側に、第1の赤外カットフィルタ215が光路長調整フィルタ及び可視光線撮像領域219の全面を覆うように第1のCCD212に取り付けられる。光路長調整フィルタ216の屈折率や厚さは、第1の赤外カットフィルタ215及び光路長調整フィルタ216による光路長が、第1の可視光カットフィルタ213及び第1の偏光フィルタ214による光路長と等しくなるように、各フィルタの屈折率や厚さを加味して調整される。   The first infrared cut filter 215 is a filter that does not transmit infrared light but transmits light having other frequencies, and forms a color image capturing filter. The optical path length adjustment filter 216 is a filter that is provided to adjust the optical path length of transmitted light, and transmits light of all wavelengths. The optical path length adjustment filter 216 is attached to the first CCD 212 so as to cover the entire surface of the visible light imaging region 219. Then, on the imaging lens 211 side of the optical path length adjustment filter 216, the first infrared cut filter 215 is attached to the first CCD 212 so as to cover the entire surface of the optical path length adjustment filter and the visible light imaging region 219. The refractive index and thickness of the optical path length adjustment filter 216 are set such that the optical path length by the first infrared cut filter 215 and the optical path length adjustment filter 216 is the optical path length by the first visible light cut filter 213 and the first polarization filter 214. Is adjusted in consideration of the refractive index and thickness of each filter.

第1の撮像装置210は、例えば、高速道路の走行車線監視のために走行車線上方に設置され、遠方から接近する車を撮影する。第1の撮像面217上に結像する被写体像の天地は、撮像レンズ211の機能により被写体の天地と反転する。そのため、被写体、例えば走行して接近してくる車が、第1の撮像装置210に対して比較的遠方に位置しているときは、車の被写体像は下方の可視光線撮像領域219に位置する。そして、車が接近してきて、第1の撮像装置210に対して比較的近距離に位置すると、車の被写体像は上方の近赤外線撮像領域218に位置する。これにより、比較的遠方に位置する被写体に関してはカラー画像が得られ、比較的近距離に位置する被写体に関しては赤外線撮影画像が得られる(図3参照)。   For example, the first imaging device 210 is installed above the traveling lane for monitoring the traveling lane of an expressway, and photographs a vehicle approaching from a distance. The top and bottom of the subject image formed on the first imaging surface 217 is inverted from the top and bottom of the subject by the function of the imaging lens 211. For this reason, when a subject, for example, a car that travels and approaches, is located relatively far from the first imaging device 210, the subject image of the car is located in the visible light imaging region 219 below. . When the vehicle approaches and is positioned at a relatively short distance from the first imaging device 210, the subject image of the vehicle is positioned in the upper near infrared imaging region 218. Thereby, a color image is obtained for a subject located relatively far away, and an infrared image is obtained for a subject located relatively short distance (see FIG. 3).

車両検出部230は、第1の撮像装置210の撮像可能範囲内であって、近赤外線撮像領域218に結像する被写体像の位置を検出可能な場所に取り付けられるループコイルであり、車両の通過を検知する。端末演算部220及び近赤外照明部240と電気的に接続され、車両を検出したとき端末演算部220及び近赤外照明部240に車両検出信号を送信する。   The vehicle detection unit 230 is a loop coil that is attached to a location within the imaging range of the first imaging device 210 and capable of detecting the position of the subject image formed in the near-infrared imaging region 218, and passes through the vehicle. Is detected. The terminal calculation unit 220 and the near-infrared illumination unit 240 are electrically connected, and a vehicle detection signal is transmitted to the terminal calculation unit 220 and the near-infrared illumination unit 240 when a vehicle is detected.

近赤外照明部240は、道路を走行する車両を照明可能な場所、かつ近赤外線撮像領域218に結像する被写体像を照明可能な位置、例えば路側帯や道路上のフリーフロー型ゲートに設けられる。車両検出部230から車両検出信号を受信したとき、近赤外光を車両に向けて照射する。   The near-infrared illumination unit 240 is provided in a place where a vehicle traveling on a road can be illuminated and a position where a subject image formed in the near-infrared imaging region 218 can be illuminated, for example, a free-flow gate on a roadside band or road It is done. When a vehicle detection signal is received from the vehicle detection unit 230, near infrared light is emitted toward the vehicle.

端末演算部220は、車両検出部230から車両検出信号を、また第1のCCD212から動画を受信して、画像処理を行う。画像処理では、後述する蛇行記録処理、路側帯通行記録処理、車色記録処理、車種記録処理を実行する。これらの記録処理において、端末演算部220は、近赤外線撮像領域218に結像した自動車登録番号標又は車両番号標(いわゆるナンバープレート)及び運転者を撮像して静止画を作成し、端末記録部250に送信する。   The terminal calculation unit 220 receives a vehicle detection signal from the vehicle detection unit 230 and a moving image from the first CCD 212 and performs image processing. In the image processing, meandering recording processing, roadside band traffic recording processing, vehicle color recording processing, and vehicle type recording processing described later are executed. In these recording processes, the terminal calculation unit 220 images the automobile registration number mark or vehicle number mark (so-called license plate) imaged in the near-infrared imaging region 218 and the driver to create a still image, and the terminal recording unit 250.

端末記録部250は、ハードディスク、あるいはDRAMなどの半導体記憶装置からなる記憶手段であって、第1の撮像装置210から受信した動画や端末演算部220から受信した静止画を一時的に記憶する。   The terminal recording unit 250 is a storage unit including a semiconductor storage device such as a hard disk or a DRAM, and temporarily stores a moving image received from the first imaging device 210 and a still image received from the terminal calculation unit 220.

端末通信制御部260は、有線あるいは無線通信により、中央制御機300と電気的に接続される。そして、端末記録部250が記録している静止画及び動画のうち、各記録処理において後述する条件に合致するものを中央制御機300に送信する。   The terminal communication control unit 260 is electrically connected to the central controller 300 by wired or wireless communication. Then, among the still images and moving images recorded by the terminal recording unit 250, those that meet the conditions described later in each recording process are transmitted to the central controller 300.

中央制御機300が備える中央通信制御部310は、静止画及び動画を受信し、中央記録部330に送信する。また、端末通信制御部260から静止画あるいは動画を受信したときに、アラーム320に警報信号を送信する。   The central communication control unit 310 included in the central controller 300 receives still images and moving images and transmits them to the central recording unit 330. When a still image or a moving image is received from the terminal communication control unit 260, an alarm signal is transmitted to the alarm 320.

中央記録部330は、ハードディスク等の記録手段であって、中央通信制御部310から受信した静止画及び動画を記録する。   The central recording unit 330 is a recording unit such as a hard disk, and records still images and moving images received from the central communication control unit 310.

アラーム320は、スピーカ、ディスプレイ、あるいは警告灯であって、中央通信制御部310から警報信号を受信したとき、警告音を発したり、警告画像を表示したり、警告光を明滅したりする。   The alarm 320 is a speaker, a display, or a warning light. When an alarm signal is received from the central communication control unit 310, the alarm 320 emits a warning sound, displays a warning image, or blinks a warning light.

中央演算部340は、静止画に含まれるナンバープレートから車両の自動車登録番号等を読み出して、監視対象登録番号と一致するか否かを判断する。   The central processing unit 340 reads the vehicle registration number of the vehicle from the license plate included in the still image, and determines whether or not it matches the monitoring target registration number.

次に、図4及び5を用いて蛇行記録処理について説明する。蛇行記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。   Next, the meandering recording process will be described with reference to FIGS. The meander recording process is started by the terminal calculation unit 220 when the first terminal device 200 can start photographing.

ステップS401において、蛇行イニシャルセット処理が実行される。蛇行イニシャルセット処理は、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出し、抽出した走行車線エリアに車線番号を割り当て、動画から1つのフレームを抽出する処理であり、詳細に関しては後述される。なお、走行車線は、道路上において白線や黄線などにより所定の幅で区切られた、車両が通行する領域をいう。また、動画から1つのフレームを抽出する作業をキャプチャと呼び、蛇行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。   In step S401, a meandering initial setting process is executed. In the meandering initial set process, an area occupied by the travel lane, that is, a travel lane area is extracted from the image captured by the first imaging device 210, a lane number is assigned to the extracted travel lane area, and one frame is extracted from the moving image. The details will be described later. The traveling lane refers to an area on which a vehicle passes on a road, which is divided by a white line, a yellow line, or the like with a predetermined width. The operation of extracting one frame from the moving image is called capture, and the frame captured in the meandering initial set process is called the 0th frame.

ステップS402では、車線変更回数パラメータmに0を代入して初期化する。車線変更回数パラメータmは、観察対象となった車両が行った車線変更の数を示すパラメータである。   In step S402, initialization is performed by assigning 0 to the lane change count parameter m. The lane change frequency parameter m is a parameter indicating the number of lane changes made by the vehicle that is the observation target.

ステップS403では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。   In step S403, initialization is performed by substituting 1 into the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the first imaging device 210.

ステップS404では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。   In step S404, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.

ステップS405では、0番目のフレームまたはn番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。   In step S405, the difference P between the 0th frame or the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.

ステップS406では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。この特定作業をマーキングと呼ぶ。   In step S406, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time. This specific operation is called marking.

ステップS407では、ステップS406においてマーキングした移動体が位置する走行車線エリアとその走行車線エリアの車線番号を算出する。これにより、移動体が現在位置する走行車線を特定する。   In step S407, the travel lane area where the moving body marked in step S406 is located and the lane number of the travel lane area are calculated. Thereby, the traveling lane in which the mobile body is currently located is specified.

ステップS408では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。そして、フレームをキャプチャするたびに、フレーム番号パラメータnを1つ増やす。これにより、ステップS404においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。   In step S408, one frame is captured from the moving image output from the first imaging device 210. Each time a frame is captured, the frame number parameter n is incremented by one. Thus, three frames are captured together with the two frames captured in step S404. In the following description, it is assumed that the most recently captured frame is the (n + 2) th frame, the next most recently captured frame is the (n + 1) th frame, and the next most recently captured frame is the nth frame.

ステップS409では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。   In step S409, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.

ステップS410では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。   In step S410, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.

ステップS411では、ステップS410においてマーキングした移動体が位置する走行車線エリアとその走行車線エリアの車線番号を算出する。これにより、移動体が現在位置する走行車線を特定する。   In step S411, the travel lane area where the moving body marked in step S410 is located and the lane number of the travel lane area are calculated. Thereby, the traveling lane in which the mobile body is currently located is specified.

ステップS412では、ステップS407において算出した車線番号と、ステップS411において算出した車線番号とが異なるかを判断する。異なる場合、処理はステップS413に進む。同じ場合、処理はステップS414に進む。   In step S412, it is determined whether the lane number calculated in step S407 is different from the lane number calculated in step S411. If they are different, the process proceeds to step S413. If they are the same, the process proceeds to step S414.

ステップS413では、車線変更回数パラメータmを1だけ増やす。ステップS412において、車線番号が異なる場合、移動体が走行車線を変更したと考えられるためである。   In step S413, the lane change count parameter m is increased by one. This is because if the lane number is different in step S412, it is considered that the moving body has changed the traveling lane.

ステップS414では、車線変更回数パラメータmが最大車線変更回数mMAX以上であるか否かを判断する。最大車線変更回数mMAXは、移動体に許される車線変更回数の最大値であり、蛇行記録処理を実行する前にユーザが決定する。車線変更回数パラメータmが最大車線変更回数mMAX以上である場合、処理はステップS415に進み、そうでない場合、処理はステップS408に進む。   In step S414, it is determined whether or not the lane change number parameter m is equal to or greater than the maximum lane change number mMAX. The maximum number of lane changes mMAX is the maximum value of the number of lane changes allowed for the moving body, and is determined by the user before executing the meander recording process. If the lane change number parameter m is greater than or equal to the maximum lane change number mMAX, the process proceeds to step S415; otherwise, the process proceeds to step S408.

ステップS415では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての走行車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。   In step S415, a plurality of frames are captured from the moving image received from the first imaging device 210. The imaging intervals and the number of frames are determined so as to record all travel lane changes made by the moving body. In the present embodiment, 10 frames are captured every 0.1 second.

ステップS416では、ステップS415においてキャプチャした全てのフレームを、端末通信制御部260を介して中央制御機300へ送信させる。中央制御機300では、受信した全てのフレームが中央記録部330に記憶される。そして、処理が終了する。   In step S416, all the frames captured in step S415 are transmitted to the central controller 300 via the terminal communication control unit 260. In the central controller 300, all received frames are stored in the central recording unit 330. Then, the process ends.

蛇行イニシャルセット処理について説明する。   The meandering initial setting process will be described.

ステップS501では、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出する。走行車線エリアは、走行車線と走行車線とを区切る白線又は黄線を端末演算部220が画像処理を行うことにより認識される。また、路側帯を通行する車両を検知するため、路側帯も1つの走行車線エリアとして認識される。   In step S501, the area occupied by the travel lane, that is, the travel lane area is extracted from the image captured by the first imaging device 210. The travel lane area is recognized when the terminal calculation unit 220 performs image processing on a white line or a yellow line that separates the travel lane and the travel lane. Further, in order to detect a vehicle passing through the roadside belt, the roadside belt is also recognized as one traveling lane area.

次のステップS502では、抽出した走行車線エリアに番号を割り当てる。図3に示される画像を得る場合、近赤外映像で撮像された車両が存在する走行車線の右側に位置する路側帯を車線番号L1、近赤外映像で撮像された車両が存在する最も右の走行車線を車線番号L2、その左の走行車線を車線番号L3、撮像された車両が存在しない最も左に位置する走行車線を車線番号L4とする。   In the next step S502, a number is assigned to the extracted travel lane area. When the image shown in FIG. 3 is obtained, the roadside zone located on the right side of the traveling lane in which the vehicle imaged in the near-infrared image is present is the lane number L1, and the rightmost image in which the vehicle imaged in the near-infrared image is present. Is the lane number L2, the left lane is the lane number L3, and the leftmost lane where there is no imaged vehicle is the lane number L4.

次のステップS503では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。そして、処理が終了する。   In the next step S503, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object. Then, the process ends.

蛇行記録処理によれば、車線変更を最大車線変更回数mMAX以上繰り返す車両を自動的に撮像及び記録することができる。   According to the meander recording process, it is possible to automatically image and record a vehicle that repeats the lane change for the maximum number of lane changes mMAX or more.

次に、図6及び7を用いて路側帯通行記録処理について説明する。路側帯通行記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。   Next, the roadside band traffic recording process will be described with reference to FIGS. The roadside band traffic recording process is started by the terminal calculation unit 220 when the first terminal device 200 can start shooting.

ステップS601において、通行イニシャルセット処理が実行される。通行イニシャルセット処理は、走行車線エリアに車線番号を割り当て、最大路側帯通行回数mMAXを設定し、動画から1つのフレームを抽出し、そして路側帯を認識する処理であり、詳細に関しては後述される。最大路側帯通行回数mMAXは、移動体が路側帯を通行した回数、より詳しくは期間の最大値であり、ユーザが決定する。なお、通行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。   In step S601, a pass initial setting process is executed. The traffic initial setting process is a process of assigning a lane number to the traveling lane area, setting the maximum roadside band traffic count mMAX, extracting one frame from the moving image, and recognizing the roadside band, which will be described in detail later. . The maximum roadside band traffic number mMAX is the number of times the mobile body has passed the roadside band, more specifically the maximum value of the period, and is determined by the user. Note that the frame captured in the passing initial set process is referred to as the 0th frame.

ステップS602では、確認回数パラメータmに0を代入して初期化する。確認回数パラメータmは、観察対象となった車両が路側帯を通行した回数、より詳しくは期間を示すパラメータである。   In step S602, initialization is performed by substituting 0 for the confirmation count parameter m. The confirmation count parameter m is a parameter indicating the number of times that the vehicle to be observed has passed the roadside belt, more specifically, the period.

ステップS603では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。   In step S603, initialization is performed by assigning 1 to the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the first imaging device 210.

ステップS604では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。   In step S604, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.

ステップS605では、0番目のフレームまたはn番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。   In step S605, the difference P between the 0th frame or the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.

ステップS606では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。   In step S606, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.

ステップS607では、フレーム番号パラメータnを1増やす。   In step S607, the frame number parameter n is incremented by one.

ステップS608では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS604においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。   In step S608, one frame is captured from the moving image output by the first imaging device 210. As a result, three frames are captured together with the two frames captured in step S604. In the following description, it is assumed that the most recently captured frame is the (n + 2) th frame, the next most recently captured frame is the (n + 1) th frame, and the next most recently captured frame is the nth frame.

ステップS609では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。   In step S609, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.

ステップS610では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。   In step S610, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.

ステップS611では、フレーム番号パラメータnを1増やす。   In step S611, the frame number parameter n is incremented by one.

ステップS612では、移動体が路側帯に位置するか否かを判断する。判断は、ステップS610においてマーキングされた移動体が路側帯に相当する走行車線エリア内に存在するか否かを画像処理することにより決定する。移動体が路側帯に位置する場合、処理はステップS613に進み、そうでない場合、処理はステップS608に戻る。   In step S612, it is determined whether or not the mobile object is located in the roadside band. The determination is made by performing image processing to determine whether or not the moving body marked in step S610 is present in the travel lane area corresponding to the roadside zone. If the moving body is located in the roadside belt, the process proceeds to step S613; otherwise, the process returns to step S608.

ステップS613では、確認回数パラメータmを1増やす。ステップS612において、移動体が路側帯に位置するためである。   In step S613, the confirmation count parameter m is incremented by one. This is because the moving body is located in the roadside band in step S612.

ステップS614では、確認回数パラメータmが最大路側帯通行確認回数mMAX以上であるか否かを判断する。フレームは所定の周期で取得されるため、路側帯に位置する移動体を撮像したフレームの数を数えることにより、移動体が路側帯に存在する時間を測定することができる。確認回数パラメータmが最大路側帯通行確認回数mMAX以上である場合、処理はステップS615に進み、そうでない場合、処理はステップS608に戻る。   In step S614, it is determined whether or not the confirmation count parameter m is equal to or greater than the maximum roadside band traffic confirmation count mMAX. Since the frames are acquired at a predetermined cycle, the time during which the moving body exists in the roadside band can be measured by counting the number of frames obtained by imaging the moving body located in the roadside band. If the confirmation count parameter m is equal to or greater than the maximum roadside band traffic confirmation count mMAX, the process proceeds to step S615; otherwise, the process returns to step S608.

ステップS615では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS616に進み、そうでない場合、処理はステップS608に戻る。   In step S615, it is determined using the signal from the vehicle detection unit 230 whether the moving body is located at the shooting point. When the loop coil that forms the vehicle detection unit 230 is installed at the photographing point and a vehicle detection signal transmitted by the loop coil is received, it is determined that the moving body is located at the photographing point. If the moving body is located at the shooting point, the process proceeds to step S616; otherwise, the process returns to step S608.

ステップS616では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。   In step S616, a plurality of frames are captured from the moving image received from the first imaging device 210. The imaging intervals and the number of frames are determined so as to record all lane changes made by the moving body. In the present embodiment, 10 frames are captured every 0.1 second.

ステップS617では、ステップS616においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。   In step S617, all the frames captured in step S616 are transmitted to the central controller 300 by the terminal communication control unit 260. Then, the process ends.

通行イニシャルセット処理について説明する。   The traffic initial set process will be described.

ステップS701では、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出する。走行車線エリアは、走行車線と走行車線とを区切る白線又は黄線を端末演算部220が画像処理を行うことにより認識される。また、路側帯を通行する車両を検知するため、路側帯も1つの走行車線エリアとして認識される。そして、抽出した走行車線エリアに番号を割り当てる。図3に示される画像を得る場合、近赤外映像で撮像された車両が存在する走行車線の右側に位置する路側帯を車線番号L1、近赤外映像で撮像された車両が存在する最も右の走行車線を車線番号L2、その左の走行車線を車線番号L3、撮像された車両が存在しない最も左に位置する走行車線を車線番号L4とする。   In step S701, the area occupied by the travel lane, that is, the travel lane area is extracted from the image captured by the first imaging device 210. The travel lane area is recognized when the terminal calculation unit 220 performs image processing on a white line or a yellow line that separates the travel lane and the travel lane. Further, in order to detect a vehicle passing through the roadside belt, the roadside belt is also recognized as one traveling lane area. Then, a number is assigned to the extracted travel lane area. When the image shown in FIG. 3 is obtained, the roadside zone located on the right side of the traveling lane in which the vehicle imaged in the near-infrared image is present is the lane number L1, and the rightmost image in which the vehicle imaged in the near-infrared image is present. Is the lane number L2, the left lane is the lane number L3, and the leftmost lane where there is no imaged vehicle is the lane number L4.

ステップS702では、最大路側帯通行確認回数mMAXを取得する。   In step S702, the maximum roadside band traffic confirmation count mMAX is acquired.

次のステップS703では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。   In the next step S703, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object.

ステップS704では、路側帯を構成するエリアを路側帯エリアとして認識する。そして、処理が終了する。   In step S704, the area constituting the roadside belt is recognized as the roadside belt area. Then, the process ends.

路側帯通行記録処理によれば、最大路側帯通行確認回数mMAX以上路側帯に存在する車両を自動的に撮像及び記録することができる。   According to the roadside band traffic recording process, it is possible to automatically capture and record a vehicle existing in the roadside band for the maximum roadside band traffic confirmation count mMAX or more.

次に、図8及び9を用いて車色記録処理について説明する。車色記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。   Next, the vehicle color recording process will be described with reference to FIGS. The vehicle color recording process is started by the terminal calculation unit 220 when the first terminal device 200 can start shooting.

ステップS801において、車色イニシャルセット処理が実行される。車色イニシャルセット処理は、検出対称となる車色を設定する処理であり、詳細に関しては後述される。検出対称となる車色は、ユーザにより決定される。   In step S801, a vehicle color initial set process is executed. The vehicle color initial set process is a process for setting a vehicle color that is symmetrical to the detection, and will be described in detail later. The vehicle color that becomes detection symmetry is determined by the user.

ステップS802では、フレーム番号パラメータnに0を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。   In step S802, initialization is performed by assigning 0 to the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the first imaging device 210.

ステップS803では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。   In step S803, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.

ステップS804では、n番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。   In step S804, the difference P between the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.

ステップS805では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。   In step S805, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.

ステップS806では、マーキングした移動体に関して算出した論理積Rに対しn+1番目のフレームを加算して、色情報を有する色認識画像Cを算出する。   In step S806, the n + 1-th frame is added to the logical product R calculated for the marked moving body to calculate a color recognition image C having color information.

ステップS807では、移動体の車色が検索対象の車色(目的色)と一致するか否かを判断する。移動体の車色が検索対象の色と合致する場合、処理がステップS808に進み、そうでない場合、処理はステップS802に戻る。   In step S807, it is determined whether or not the vehicle color of the moving object matches the vehicle color (target color) to be searched. If the vehicle color of the moving object matches the color to be searched, the process proceeds to step S808; otherwise, the process returns to step S802.

ステップS808では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。ここでキャプチャされるフレームはカラー画像である。これにより、カラー画像を端末記録部250に記録し、移動体の車体の色を認識することができる。   In step S808, one frame is captured from the moving image output by the first imaging device 210. The frame captured here is a color image. Thereby, a color image is recorded in the terminal recording part 250, and the color of the vehicle body of a moving body can be recognized.

ステップS809では、フレーム番号パラメータnを1増やす。   In step S809, the frame number parameter n is incremented by one.

ステップS810では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS803及びS808においてキャプチャした3つのフレームと合わせて、4つのフレームがキャプチャされていることになる。このうち、直近にキャプチャされた3つのフレームを用いて、以下の処理を行う。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。   In step S810, one frame is captured from the moving image output by the first imaging device 210. As a result, four frames are captured together with the three frames captured in steps S803 and S808. Of these, the following processing is performed using the three most recently captured frames. In the following description, it is assumed that the most recently captured frame is the (n + 2) th frame, the next most recently captured frame is the (n + 1) th frame, and the next most recently captured frame is the nth frame.

ステップS811では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。   In step S811, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.

ステップS812では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。   In step S812, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.

ステップS813では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS814に進み、そうでない場合、処理はステップS809に戻る。   In step S813, it is determined using the signal from the vehicle detection unit 230 whether the moving body is located at the shooting point. When the loop coil that forms the vehicle detection unit 230 is installed at the photographing point and a vehicle detection signal transmitted by the loop coil is received, it is determined that the moving body is located at the photographing point. If the moving body is located at the shooting point, the process proceeds to step S814; otherwise, the process returns to step S809.

ステップS814では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。   In step S814, a plurality of frames are captured from the moving image received from the first imaging device 210. The imaging intervals and the number of frames are determined so as to record all lane changes made by the moving body. In the present embodiment, 10 frames are captured every 0.1 second.

ステップS815では、ステップS814においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。   In step S815, all the frames captured in step S814 are transmitted to the central controller 300 by the terminal communication control unit 260. Then, the process ends.

車色イニシャルセット処理について説明する。   The car color initial set process will be described.

ステップS901では、検出対称となる車色をユーザが設定する。車色は、HSV(色相、彩度、明度)、RGB(赤、緑、青)色空間などを用いて設定される。ユーザが設定した後に、処理が終了する。   In step S901, the user sets a vehicle color that is symmetrical to the detection. The vehicle color is set using HSV (hue, saturation, brightness), RGB (red, green, blue) color space, or the like. After the user sets, the process ends.

車色記録処理によれば、所望の車色を有する車両を自動的に撮像及び記録することができる。   According to the vehicle color recording process, a vehicle having a desired vehicle color can be automatically imaged and recorded.

次に、図10及び11を用いて車種記録処理について説明する。車種記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。   Next, the vehicle type recording process will be described with reference to FIGS. The vehicle type recording process is started by the terminal calculation unit 220 when the first terminal device 200 can start shooting.

ステップS1001において、車種イニシャルセット処理が実行される。車種イニシャルセット処理は、車種情報を設定し、最大車種検出回数mMAXを設定し、動画から1つのフレームを抽出する処理であり、詳細に関しては後述される。最大車種検出回数mMAXは、所望の車種(目的車種)に該当する移動体を撮像したフレームの数であり、ユーザが決定する。なお、通行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。   In step S1001, a vehicle type initial set process is executed. The vehicle type initial set process is a process of setting the vehicle type information, setting the maximum vehicle type detection count mMAX, and extracting one frame from the moving image, and will be described in detail later. The maximum vehicle type detection count mMAX is the number of frames in which a moving body corresponding to a desired vehicle type (target vehicle type) is imaged, and is determined by the user. Note that the frame captured in the passing initial set process is referred to as the 0th frame.

ステップS1002では、確認回数パラメータmに0を代入して初期化する。確認回数パラメータmは、所望の車種に該当する移動体を撮像した回数を示すパラメータである。   In step S1002, initialization is performed by substituting 0 for the confirmation count parameter m. The confirmation number parameter m is a parameter indicating the number of times a moving body corresponding to a desired vehicle type is imaged.

ステップS1003では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。   In step S1003, initialization is performed by substituting 1 into the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the first imaging device 210.

ステップS1004では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。   In step S1004, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.

ステップS1005では、n番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。   In step S1005, the difference P between the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.

ステップS1006では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。   In step S1006, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.

ステップS1007では、フレーム番号パラメータnを1増やす。   In step S1007, the frame number parameter n is incremented by one.

ステップS1008では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS1004においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。   In step S1008, one frame is captured from the moving image output by the first imaging device 210. As a result, three frames are captured together with the two frames captured in step S1004. In the following description, it is assumed that the most recently captured frame is the (n + 2) th frame, the next most recently captured frame is the (n + 1) th frame, and the next most recently captured frame is the nth frame.

ステップS1009では、フレーム番号パラメータnを1増やす。   In step S1009, the frame number parameter n is incremented by one.

ステップS1010では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。   In step S1010, a difference S between the nth frame and the (n + 1) th frame and a difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.

ステップS1011では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。   In step S1011, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.

ステップS1012では、移動体が所望の車種に該当するか否かを判断する。判断は、ステップS1010においてマーキングされた移動体が目的車種に該当するか否かを画像処理することにより決定する。移動体が目的車種に該当する場合、処理はステップS1013に進み、そうでない場合、処理はステップS1014に進む。   In step S1012, it is determined whether or not the mobile object corresponds to a desired vehicle type. The determination is made by performing image processing on whether or not the mobile object marked in step S1010 corresponds to the target vehicle type. If the mobile object corresponds to the target vehicle type, the process proceeds to step S1013; otherwise, the process proceeds to step S1014.

ステップS1013では、確認回数パラメータmを1増やす。ステップS1012において、移動体が目的車種に該当するためである。   In step S1013, the confirmation count parameter m is incremented by one. This is because the mobile body corresponds to the target vehicle type in step S1012.

ステップS1014では、確認回数パラメータmが最大車種検出回数mMAX以上であるか否かを判断する。目的車種に該当する移動体を撮像したフレームの数を数え、その数が最大車種検出回数mMAX以上であるときに、移動体が目的車種に該当すると判断する。これにより、目的車種検出の確度を上げることができる。確認回数パラメータmが最大車種検出回数mMAX以上である場合、処理はステップS1015に進み、そうでない場合、処理はステップS1008に戻る。   In step S1014, it is determined whether or not the confirmation number parameter m is equal to or greater than the maximum vehicle type detection number mMAX. The number of frames in which the moving object corresponding to the target vehicle type is imaged is counted, and it is determined that the moving object corresponds to the target vehicle type when the number is equal to or greater than the maximum vehicle type detection count mMAX. Thereby, the accuracy of target vehicle type detection can be raised. If the confirmation count parameter m is equal to or greater than the maximum vehicle type detection count mMAX, the process proceeds to step S1015; otherwise, the process returns to step S1008.

ステップS1015では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS1016に進み、そうでない場合、処理はステップS1008に戻る。   In step S1015, it is determined using the signal from the vehicle detection unit 230 whether the moving body is located at the shooting point. When the loop coil that forms the vehicle detection unit 230 is installed at the photographing point and a vehicle detection signal transmitted by the loop coil is received, it is determined that the moving body is located at the photographing point. If the moving body is located at the shooting point, the process proceeds to step S1016; otherwise, the process returns to step S1008.

ステップS1016では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。   In step S1016, a plurality of frames are captured from the moving image received from the first imaging device 210. The imaging intervals and the number of frames are determined so as to record all lane changes made by the moving body. In the present embodiment, 10 frames are captured every 0.1 second.

ステップS1017では、ステップS1016においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。   In step S1017, the terminal communication control unit 260 transmits all frames captured in step S1016 to the central controller 300. Then, the process ends.

車種イニシャルセット処理について説明する。   The vehicle type initial set process will be described.

ステップS1101では、検出対称となる車種をユーザが入力する。   In step S1101, the user inputs a vehicle type that is symmetrical to the detection.

ステップS1102では、最大車種検出回数mMAXを取得する。   In step S1102, the maximum vehicle type detection count mMAX is acquired.

次のステップS1103では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。そして処理が終了する。   In the next step S1103, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object. Then, the process ends.

車種記録処理によれば、所望の車種に該当する車両を自動的に撮像及び記録することができる。   According to the vehicle type recording process, a vehicle corresponding to a desired vehicle type can be automatically imaged and recorded.

本実施形態によれば、移動体の移動を監視しながら、移動体の詳細な画像を撮像することが可能となる。   According to the present embodiment, it is possible to capture a detailed image of the moving body while monitoring the movement of the moving body.

なお、本実施形態では、図2に示すように、撮像レンズ211の光軸が通る位置を境に近赤外線撮像領域218と可視光線撮像領域219とを2等分割したが、目的や撮影状況に応じて、一方の撮像領域の割合を大きくしてもよい。   In the present embodiment, as shown in FIG. 2, the near-infrared imaging region 218 and the visible light imaging region 219 are divided into two equal parts at the position where the optical axis of the imaging lens 211 passes. Accordingly, the ratio of one imaging region may be increased.

また、移動体が撮影ポイントに位置するか否かの判別処理としてループコイルの受信信号を用いたが、これに代わって、抽出した移動体の像の撮像素子面上での移動速度及び移動方向を算出し、この移動速度および移動方向に基づいて、近赤外線撮像領域218内の撮影ポイントに対応する領域に達するタイミングを予測して、近赤外線撮影を行うようにしても良い。   In addition, the received signal of the loop coil is used as a process for determining whether or not the moving body is located at the shooting point. Instead, the moving speed and moving direction of the extracted moving body image on the image sensor surface are used. May be calculated, and near-infrared imaging may be performed by predicting the timing of reaching the area corresponding to the imaging point in the near-infrared imaging area 218 based on the moving speed and the moving direction.

次に、本発明による第2の実施形態について、図12及び13を用いて説明する。第1の実施形態と同様の構成については同じ符号を付して説明を省略する。   Next, a second embodiment according to the present invention will be described with reference to FIGS. The same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

第2の撮像システム400は、被写体像を撮像可能な位置に設けられる第2の端末装置500と、第2の端末装置500と離れた位置に設けられる中央制御機300を備える。   The second imaging system 400 includes a second terminal device 500 provided at a position where a subject image can be captured, and a central controller 300 provided at a position away from the second terminal device 500.

第2の端末装置500は、第2の撮像装置510と、端末演算部220と、車両検出部230と、近赤外照明部240と、端末記録部250と、端末通信制御部260とを備える。   The second terminal device 500 includes a second imaging device 510, a terminal calculation unit 220, a vehicle detection unit 230, a near infrared illumination unit 240, a terminal recording unit 250, and a terminal communication control unit 260. .

第2の撮像装置510は、撮像レンズ211と、撮像素子である第2のCCD512及び第3のCCD515と、赤外画像撮像用フィルタである第2の可視光カットフィルタ516と、第2の偏光フィルタ517と、カラー画像撮像用フィルタである第2の赤外カットフィルタ514と、ハーフミラー513とを備える。   The second imaging device 510 includes an imaging lens 211, a second CCD 512 and a third CCD 515 that are imaging elements, a second visible light cut filter 516 that is an infrared imaging filter, and a second polarization. A filter 517, a second infrared cut filter 514 that is a color image capturing filter, and a half mirror 513 are provided.

第2及び第3のCCD512、515は、1メガピクセルクラス以上の画素数を有するとともに、撮像レンズ211からの被写体像が結像する長方形の第2及び第3の撮像面519、520を各々有する。   The second and third CCDs 512 and 515 have the number of pixels of 1 megapixel class or more and have rectangular second and third imaging surfaces 519 and 520 on which the subject image from the imaging lens 211 is formed. .

撮像レンズ211の光軸方向が第2の撮像面519の短辺方向と平行となるように、かつ第2の端末装置500の重力方向が第2の撮像面519と直角となるように、第2の端末装置500の内部に第2のCCD512が設けられる。また、撮像レンズ211の光軸方向が第3の撮像面520と直角となるように、かつ第2の端末装置500の重力方向が第3の撮像面520の短辺方向と一致するように、第2の端末装置500の内部に第3のCCD515が設けられる。第2の撮像面519が可視光線撮像領域を成し、第3の撮像面520が近赤外線撮像領域を成す。第2及び第3のCCD512、515は、第2及び第3の撮像面519、520、すなわち可視光線撮像領域519及び近赤外線撮像領域520に結像した被写体像を同時に撮像する。第2及び第3のCCD512、515は1秒間に10フレームから成る動画を端末演算部220及び端末記録部250に出力する。   The second lens unit 500 is arranged so that the optical axis direction of the imaging lens 211 is parallel to the short side direction of the second imaging surface 519 and the gravity direction of the second terminal device 500 is perpendicular to the second imaging surface 519. A second CCD 512 is provided inside the second terminal device 500. Further, the optical axis direction of the imaging lens 211 is perpendicular to the third imaging surface 520, and the gravity direction of the second terminal device 500 is coincident with the short side direction of the third imaging surface 520. A third CCD 515 is provided inside the second terminal device 500. The second imaging surface 519 forms a visible light imaging region, and the third imaging surface 520 forms a near infrared imaging region. The second and third CCDs 512 and 515 simultaneously capture the subject images formed on the second and third imaging surfaces 519 and 520, that is, the visible light imaging region 519 and the near infrared imaging region 520. The second and third CCDs 512 and 515 output a moving image of 10 frames per second to the terminal calculation unit 220 and the terminal recording unit 250.

第2の偏光フィルタ517は、特定の偏光状態を有する光のみを透過する光学フィルタであり、近赤外線撮像領域520の全面を覆うように第3のCCD515に取り付けられる。   The second polarizing filter 517 is an optical filter that transmits only light having a specific polarization state, and is attached to the third CCD 515 so as to cover the entire surface of the near-infrared imaging region 520.

第2の可視光カットフィルタ516は、赤外線に含まれる近赤外線のみを透過する光学フィルタである。第2の偏光フィルタ517の撮像レンズ211側に、第2の可視光カットフィルタ516が第2の偏光フィルタ517の全面を覆うように取り付けられる。   The second visible light cut filter 516 is an optical filter that transmits only near infrared rays included in infrared rays. A second visible light cut filter 516 is attached to the imaging lens 211 side of the second polarizing filter 517 so as to cover the entire surface of the second polarizing filter 517.

第2の赤外カットフィルタ514は、赤外線を透過せず、その他の周波数を有する光を透過するフィルタであり、可視光線撮像領域519の全面を覆うように第2のCCD512に取り付けられる。第2の赤外カットフィルタ514の屈折率あるいは厚さは、第2の赤外カットフィルタ514による光路長が、第2の可視光カットフィルタ516及び第2の偏光フィルタ517による光路長と等しくなるように調整される。   The second infrared cut filter 514 is a filter that does not transmit infrared light but transmits light having other frequencies, and is attached to the second CCD 512 so as to cover the entire surface of the visible light imaging region 519. The refractive index or thickness of the second infrared cut filter 514 is such that the optical path length by the second infrared cut filter 514 is equal to the optical path length by the second visible light cut filter 516 and the second polarizing filter 517. To be adjusted.

ハーフミラー513は、光路上であって、撮像レンズ211と第2のCCD512及び第3のCCD515との間に、撮像レンズ211の光軸に対して45度となるように設けられる。ハーフミラー513は、入射した光の半分を反射し、残りの半分を透過する。遠景からの光は、撮像レンズ211に入射した後、ハーフミラー513により反射されて可視光線撮像領域519に結像し、近景からの光はハーフミラー513を透過して近赤外線撮像領域520に結像する。可視光線撮像領域519及び近赤外線撮像領域520は、光路に対して直角を成す。   The half mirror 513 is provided on the optical path and between the imaging lens 211 and the second CCD 512 and the third CCD 515 so as to be 45 degrees with respect to the optical axis of the imaging lens 211. The half mirror 513 reflects half of the incident light and transmits the remaining half. Light from a distant view is incident on the imaging lens 211 and then reflected by the half mirror 513 to form an image on the visible light image capturing area 519, and light from the near view is transmitted through the half mirror 513 to be connected to the near infrared image capturing area 520. Image. The visible light imaging region 519 and the near-infrared imaging region 520 are perpendicular to the optical path.

これらの構成により、第2のCCD512は遠方の被写体をカラー画像で撮像し、第3のCCD515は近方の被写体を近赤外線画像で撮像する(図3参照)。   With these configurations, the second CCD 512 captures a distant subject with a color image, and the third CCD 515 captures a near subject with a near-infrared image (see FIG. 3).

本実施形態によれば、安価な小型の撮像素子を用いることが可能となる。また、第1の実施形態のように1つの撮像素子の撮像面を複数に分けて各々別個のフィルタを設ける手間を省くことができる。   According to the present embodiment, it is possible to use an inexpensive and small image sensor. In addition, as in the first embodiment, it is possible to save the trouble of providing a separate filter by dividing the imaging surface of one imaging device into a plurality of parts.

なお、いずれの実施形態においても、撮像素子はCCDに限定されず、CMOS等であっても良い。また、CCDの画素数は、1メガピクセルクラス以上に限定されない。さらに、撮像は1秒間に10回に限定されない。   In any of the embodiments, the imaging element is not limited to the CCD, and may be a CMOS or the like. Further, the number of pixels of the CCD is not limited to 1 megapixel class or more. Furthermore, imaging is not limited to 10 times per second.

光路長調整フィルタ216を用いずに、赤外カットフィルタの屈折率あるいは厚さを調整することにより、可視光カットフィルタ及び偏光フィルタによる光路長と、赤外カットフィルタの光路長とを等しくしても良い。   By adjusting the refractive index or thickness of the infrared cut filter without using the optical path length adjustment filter 216, the optical path length of the visible light cut filter and the polarization filter is made equal to the optical path length of the infrared cut filter. Also good.

また、車両検出部230はループコイルでなくても良く、赤外線センサ、音波センサ等の車両の位置を検出可能なものであればよい。   Further, the vehicle detection unit 230 may not be a loop coil, and may be any device that can detect the position of the vehicle, such as an infrared sensor or a sound wave sensor.

なお、車両の代わりに果物を監視対象物とすることもできる。判別条件として色の代わりに果物の糖度を用いることにより、果物を選果することが可能である。また、車種の代わりに果物の種類や大きさを用いることにより、他品種の果物を選り分けることが可能である。   In addition, it can also make a fruit into a monitoring object instead of a vehicle. The fruit can be selected by using the sugar content of the fruit instead of the color as the discrimination condition. Further, by using the type and size of the fruit instead of the vehicle type, it is possible to select different kinds of fruits.

さらに、車両の代わりに小包を監視しても良い。目的地、大きさ、形状に応じて小包を選別することができる。   Further, the parcel may be monitored instead of the vehicle. Parcels can be sorted according to destination, size, and shape.

100 第1の撮像システム
200 端末装置
210 第1の撮像装置
211 撮像レンズ(撮像光学系)
212 第1のCCD
213 第1の可視光カットフィルタ
214 第1の偏光フィルタ
215 第1の赤外カットフィルタ
216 光路長調整フィルタ
217 第1の撮像面
218 近赤外線撮像領域
219 可視光線撮像領域
220 端末演算部
230 車両検出部
240 近赤外照明部
250 端末記録部
260 端末通信制御部
300 中央制御機
310 中央通信制御部
320 アラーム
330 中央記録部
340 中央演算部
DESCRIPTION OF SYMBOLS 100 1st imaging system 200 Terminal device 210 1st imaging device 211 Imaging lens (imaging optical system)
212 First CCD
213 First visible light cut filter 214 First polarizing filter 215 First infrared cut filter 216 Optical path length adjustment filter 217 First imaging surface 218 Near infrared imaging region 219 Visible light imaging region 220 Terminal calculation unit 230 Vehicle detection Unit 240 Near-infrared illumination unit 250 Terminal recording unit 260 Terminal communication control unit 300 Central controller 310 Central communication control unit 320 Alarm 330 Central recording unit 340 Central processing unit

Claims (12)

第1の撮像領域と前記第1の撮像領域と異なる第2の撮像領域とを有する撮像素子と、
前記第1の撮像領域に配置されるカラー画像撮像用フィルタと、
前記第2の撮像領域に配置される不可視光画像撮像用フィルタとを備え、
前記第1の撮像領域と前記第2の撮像領域とに跨って一方向に移動する被写体像を撮像する撮像装置。
An imaging device having a first imaging region and a second imaging region different from the first imaging region;
A color image capturing filter disposed in the first imaging region;
An invisible light image capturing filter disposed in the second imaging region,
An imaging device that captures a subject image that moves in one direction across the first imaging region and the second imaging region.
前記撮像手段は、前記第1の撮像領域から第2の撮像領域へ移動する被写体像を撮像する請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging unit captures a subject image that moves from the first imaging area to the second imaging area. 前記撮像素子は1枚であって長方形の撮像領域を有し、重力方向に長手方向を有するように前記撮像装置に取り付けられ、
前記撮像領域の重力上方向半分に導かれる光路上に前記不可視光画像撮像用フィルタが取り付けられ、重力下方向半分に導かれる光路上に前記カラー画像撮像用フィルタが取り付けられ、前記撮像領域の重力上方向半分が不可視光画像を撮像し、重力下方向半分がカラー画像を撮像する請求項1又は2に記載の撮像装置。
The image sensor is a single, has a rectangular imaging region, is attached to the imaging device so as to have a longitudinal direction in the direction of gravity,
The invisible light image capturing filter is mounted on the optical path guided to the half gravity upward direction of the imaging region, and the color image capturing filter is mounted on the optical path guided to the half gravity downward direction, and the gravity of the imaging region The imaging apparatus according to claim 1, wherein the upper half shoots an invisible light image and the gravity lower half shoots a color image.
前記撮像素子は、第1の撮像領域を成すカラー用撮像素子と第2の撮像領域を成す不可視光用撮像素子とを有し、
被写体から前記撮像素子までの光路上に設けられるハーフミラーをさらに備え、
前記ハーフミラーは、前記カラー用撮像素子に向けて遠点側の被写体像を反射し、前記不可視光用撮像素子に向けて近点側の被写体像を透過する請求項1又は2に記載の撮像装置。
The image sensor includes a color image sensor that forms a first image area and an invisible light image sensor that forms a second image area,
A half mirror provided on the optical path from the subject to the image sensor;
The imaging according to claim 1, wherein the half mirror reflects a subject image on a far point side toward the color image sensor and transmits a subject image on a near point side toward the invisible light image sensor. apparatus.
前記カラー用撮像素子は、その撮像面が前記撮像レンズの光軸と平行となるように前記撮像装置に取り付けられ、前記不可視光用撮像素子は、その撮像面が前記撮像レンズの光軸と直角となるように前記撮像装置に取り付けられる請求項4に記載の撮像装置。   The color imaging device is attached to the imaging device such that its imaging surface is parallel to the optical axis of the imaging lens, and the invisible light imaging device has its imaging surface perpendicular to the optical axis of the imaging lens. The imaging device according to claim 4, wherein the imaging device is attached to the imaging device so that 前記カラー画像撮像用フィルタは、赤外カットフィルタである請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the color image capturing filter is an infrared cut filter. 前記不可視光撮像用フィルタは、可視光カットフィルタである請求項1に記載の撮像装置。   The imaging device according to claim 1, wherein the invisible light imaging filter is a visible light cut filter. 前記不可視光画像撮像用フィルタを通過する光路上に設けられる偏光フィルタをさらに備える請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a polarizing filter provided on an optical path that passes through the invisible light image capturing filter. 前記カラー画像撮像用フィルタは、前記不可視光画像撮像用フィルタ及び前記偏光フィルタが有する光路長と同じ光路長を有する請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the color image capturing filter has the same optical path length as that of the invisible light image capturing filter and the polarizing filter. 前記カラー画像撮像用フィルタを通過する光路上に設けられ、前記偏光フィルタが有する光路長と同じ光路長を有する光路長調整フィルタをさらに備える請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, further comprising an optical path length adjustment filter that is provided on an optical path that passes through the color image capturing filter and has an optical path length that is the same as an optical path length of the polarizing filter. 前記光路長調整フィルタは、前記カラー画像撮像用フィルタと前記撮像素子との間に設けられる請求項10に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the optical path length adjustment filter is provided between the color image imaging filter and the imaging element. パンフォーカスレンズであって、前記撮像素子に被写体像を結像する撮像レンズをさらに備える請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising an imaging lens which is a pan focus lens and forms a subject image on the imaging element.
JP2009234339A 2009-10-08 2009-10-08 Imaging apparatus Pending JP2011082855A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009234339A JP2011082855A (en) 2009-10-08 2009-10-08 Imaging apparatus
CN2010105371921A CN102088553A (en) 2009-10-08 2010-10-08 Imaging instrument and imaging system for movable objects
DE102010038056A DE102010038056A1 (en) 2009-10-08 2010-10-08 Image device and image system for imaging a moving object
GB1016975A GB2474557A (en) 2009-10-08 2010-10-08 Vehicle movement detection using visible and invisible light

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009234339A JP2011082855A (en) 2009-10-08 2009-10-08 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2011082855A true JP2011082855A (en) 2011-04-21

Family

ID=44076441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009234339A Pending JP2011082855A (en) 2009-10-08 2009-10-08 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2011082855A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017217053A1 (en) * 2016-06-17 2017-12-21 シャープ株式会社 Imaging device and filter
WO2018142692A1 (en) * 2017-01-31 2018-08-09 シャープ株式会社 Imaging device and image processing apparatus
KR20220059176A (en) * 2020-11-02 2022-05-10 경북대학교 산학협력단 Apparatus and method for photographing multi-band image
WO2022137800A1 (en) * 2020-12-25 2022-06-30 富士フイルム株式会社 Lens device, imaging device, method for operating lens device, method for operating imaging device, and program
WO2023085475A1 (en) * 2021-11-15 2023-05-19 경북대학교 산학협력단 Multi-band image capturing apparatus and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651921A (en) * 1992-01-14 1994-02-25 Mitsubishi Electric Corp Infrared image pickup device
JP2002314888A (en) * 2001-04-09 2002-10-25 Sony Corp Digital still camera
JP2002318104A (en) * 2001-04-20 2002-10-31 Victor Co Of Japan Ltd Optical imaging device and optical ranging device
JP2003069865A (en) * 2001-08-29 2003-03-07 Miyota Kk Imaging device
JP2004354714A (en) * 2003-05-29 2004-12-16 Fuji Photo Optical Co Ltd Lens system for visible light/infrared light photography
JP2007295326A (en) * 2006-04-26 2007-11-08 National Institute Of Advanced Industrial & Technology Multi-focus imaging apparatus
JP2008017079A (en) * 2006-07-05 2008-01-24 Hitachi Ltd Video camera
JP2009089158A (en) * 2007-10-01 2009-04-23 Panasonic Corp Imaging apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651921A (en) * 1992-01-14 1994-02-25 Mitsubishi Electric Corp Infrared image pickup device
JP2002314888A (en) * 2001-04-09 2002-10-25 Sony Corp Digital still camera
JP2002318104A (en) * 2001-04-20 2002-10-31 Victor Co Of Japan Ltd Optical imaging device and optical ranging device
JP2003069865A (en) * 2001-08-29 2003-03-07 Miyota Kk Imaging device
JP2004354714A (en) * 2003-05-29 2004-12-16 Fuji Photo Optical Co Ltd Lens system for visible light/infrared light photography
JP2007295326A (en) * 2006-04-26 2007-11-08 National Institute Of Advanced Industrial & Technology Multi-focus imaging apparatus
JP2008017079A (en) * 2006-07-05 2008-01-24 Hitachi Ltd Video camera
JP2009089158A (en) * 2007-10-01 2009-04-23 Panasonic Corp Imaging apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017217053A1 (en) * 2016-06-17 2017-12-21 シャープ株式会社 Imaging device and filter
JPWO2017217053A1 (en) * 2016-06-17 2019-01-31 シャープ株式会社 Image pickup apparatus and filter
WO2018142692A1 (en) * 2017-01-31 2018-08-09 シャープ株式会社 Imaging device and image processing apparatus
JPWO2018142692A1 (en) * 2017-01-31 2019-02-07 シャープ株式会社 Imaging apparatus and image processing apparatus
KR20220059176A (en) * 2020-11-02 2022-05-10 경북대학교 산학협력단 Apparatus and method for photographing multi-band image
KR102429093B1 (en) * 2020-11-02 2022-08-04 경북대학교 산학협력단 Apparatus and method for photographing multi-band image
WO2022137800A1 (en) * 2020-12-25 2022-06-30 富士フイルム株式会社 Lens device, imaging device, method for operating lens device, method for operating imaging device, and program
WO2023085475A1 (en) * 2021-11-15 2023-05-19 경북대학교 산학협력단 Multi-band image capturing apparatus and method

Similar Documents

Publication Publication Date Title
US6977674B2 (en) Stereo-image capturing device
JP4931288B2 (en) Image detection device and diaphragm device
JP4989762B2 (en) Driver monitoring device, driver monitoring method, and vehicle
KR101457141B1 (en) Stereo camera device, correction method, and program
GB2474557A (en) Vehicle movement detection using visible and invisible light
CN106796293A (en) Linear model calculates sensing LADAR
US8902289B2 (en) Method for capturing three dimensional image
JP2011082855A (en) Imaging apparatus
US8731245B2 (en) Multiple view transportation imaging systems
US20030117514A1 (en) Method and apparatus for detecting optimum lens focus position
KR101997863B1 (en) An imaging device with improved autofocus performance
WO2013140873A1 (en) In-vehicle image processing device and method
RU2015123662A (en) DEVICE FOR ROAD TOLL OR TELEMATIC SYSTEMS
WO2017150553A1 (en) Image pickup device
KR20190129684A (en) Imaging Device, Imaging Module, and Control Method of Imaging Device
CN104620075A (en) Device and method for measuring distances of multiple subjects
JP2006330272A5 (en)
JP2010152026A (en) Distance measuring device and object moving speed measuring device
JP2011082856A (en) Imaging apparatus
JP2008174028A (en) Target detection system and method
US20200128188A1 (en) Image pickup device and image pickup system
JP2011081657A (en) Imaging system
JP2013205781A5 (en)
JP7122806B2 (en) OBJECT APPROACH DETECTION DEVICE AND OBJECT APPROACH DETECTION METHOD
JP2010282102A (en) Imaging apparatus and range-finding method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131119