JP6959029B2 - Multi-line image sensor device and imaging device - Google Patents
Multi-line image sensor device and imaging device Download PDFInfo
- Publication number
- JP6959029B2 JP6959029B2 JP2017089997A JP2017089997A JP6959029B2 JP 6959029 B2 JP6959029 B2 JP 6959029B2 JP 2017089997 A JP2017089997 A JP 2017089997A JP 2017089997 A JP2017089997 A JP 2017089997A JP 6959029 B2 JP6959029 B2 JP 6959029B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- line
- line sensor
- group
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、1シーン分の画像(単一画像)から移動体を検出するためのマルチラインイメージセンサ装置及び撮影装置に関する。 The present invention relates to a multi-line image sensor device and a photographing device for detecting a moving object from an image (single image) for one scene.
従来から、定点観測などの交通量調査が行われてきたが、これらの調査はコストが高く、調査や解析に時間を要する。 Traditionally, traffic volume surveys such as fixed-point observations have been conducted, but these surveys are costly and require time for surveys and analysis.
また、画像解析の分野では、微小な時間差のある2シーン分の画像を用いて画像間の差分処理を行うことによって移動体を抽出できるが、ほぼ同時期に撮影されたペア画像(例えば、ステレオペア撮影)が必要で、解析処理においても複雑な工程が含まれるという課題があった。 Further, in the field of image analysis, moving objects can be extracted by performing difference processing between images using images for two scenes with a minute time difference, but pair images taken at about the same time (for example, stereo). (Pair photography) is required, and there is a problem that a complicated process is included in the analysis process.
一方、近年の地球観測衛星(人工衛星)の多くは、焦点面アレイ(FPA:Focal Plane Array or Focal Plane Assembly)センサカメラを搭載しており、例えば、プッシュブルーム(push broom)掃引方式により、軌道上を移動しながら地球を観測するためのカラー(合成)画像を撮影するようになっている。 On the other hand, many earth observation satellites (artificial satellites) in recent years are equipped with a focal plane array (FPA) sensor camera, for example, by using a push broom sweep method. It is designed to take color (composite) images for observing the earth while moving on it.
しかしながら、焦点面アレイセンサカメラは、センサの配置の性質上、各バンド(色種毎)の撮影や信号処理時間にわずかな差を生じる。特に、撮影対象がセンサの露光時間よりも早く移動する移動体の場合には、バンド間のレジストレーションが正しく行われず、色ずれという現象を引き起こす。 However, due to the nature of the sensor arrangement, the focal plane array sensor camera causes a slight difference in the imaging and signal processing time of each band (for each color type). In particular, when the object to be photographed is a moving object that moves faster than the exposure time of the sensor, registration between bands is not performed correctly, causing a phenomenon of color shift.
すなわち、焦点面アレイセンサカメラは、二次元的な撮像が可能なフレームセンサ(エリアイメージセンサともいう)であるため、受光面が広く、被写体の全体を比較的簡単に撮影できるが、解像度が低い。また、地球のような球面を撮影する場合には、画像の後処理がより複雑になる。 That is, since the focal plane array sensor camera is a frame sensor (also called an area image sensor) capable of two-dimensional imaging, the light receiving surface is wide and the entire subject can be photographed relatively easily, but the resolution is low. .. Further, when photographing a spherical surface such as the earth, post-processing of the image becomes more complicated.
これに対し、一次元的な撮像が可能なラインセンサ(リニアイメージセンサともいう)は、高解像度の画像を得ることができる。また、複数の受光素子(光電変換素子)を横一列に配列しているので、球面の撮影にも適している。さらには、光学系を小型化する技術も研究されている。 On the other hand, a line sensor (also referred to as a linear image sensor) capable of one-dimensional imaging can obtain a high-resolution image. Further, since a plurality of light receiving elements (photoelectric conversion elements) are arranged in a horizontal row, it is also suitable for photographing a spherical surface. Furthermore, technology for miniaturizing the optical system is also being researched.
そのため、特にカラー(合成)画像を撮影可能なマルチラインセンサは、地球観測衛星に限らず、プリンタなどに搭載されることも多い。 Therefore, multi-line sensors capable of capturing color (composite) images are often mounted not only on earth observation satellites but also on printers and the like.
このようなマルチラインセンサとしては、同時に複数のバンドのカラー画像を得ることができるマルチスペクトルカメラ(マルチバンド1次元ラインセンサカメラともいう)が知られている(例えば、特許文献1参照)。 As such a multi-line sensor, a multi-spectral camera (also referred to as a multi-band one-dimensional line sensor camera) capable of simultaneously obtaining color images of a plurality of bands is known (see, for example, Patent Document 1).
また、受光方向の違いによる画像の鮮鋭度のばらつきを抑えることができる撮像装置も提案されている(例えば、特許文献2参照)。 Further, an imaging device capable of suppressing variation in image sharpness due to a difference in light receiving direction has also been proposed (see, for example, Patent Document 2).
ここで、特許文献1に開示されたようなマルチスペクトルカメラを搭載した地球観測衛星が軌道上を移動しながら撮影する場合を例に、本発明が解決しようとする課題について、さらに詳しく説明する。ただし、ここでは、CCDラインセンサカメラを一例として説明する。
Here, the problem to be solved by the present invention will be described in more detail by taking as an example a case where an earth observation satellite equipped with a multispectral camera as disclosed in
地球観測衛星に搭載されるCCDラインセンサカメラの露光時間は、一般的に、衛星が1ライン走査分を移動する時間となる。例えば、空間分解能(または、画像分解能)が1メートルの衛星であれば、その露光時間は、衛星が1メートルの距離を移動するのに要する時間となる。 The exposure time of the CCD line sensor camera mounted on the earth observation satellite is generally the time for the satellite to travel one line of scanning. For example, if the satellite has a spatial resolution (or image resolution) of 1 meter, the exposure time is the time required for the satellite to travel a distance of 1 meter.
したがって、R、G、Bの3ライン分のCCDラインセンサを有するカメラを搭載した衛星が軌道上を移動しながら移動体を撮影する場合、露光時間よりも早く動く移動体は、ラインセンサ間のわずかな物理的離隔距離のため、信号電荷の読出しが移動体の速度に追いつかず、結果的にカラー(合成)画像上に色ずれとなって現れる。 Therefore, when a satellite equipped with a camera having CCD line sensors for three lines of R, G, and B shoots a moving object while moving in orbit, the moving object moving faster than the exposure time is between the line sensors. Due to the small physical separation distance, the reading of the signal charge cannot keep up with the speed of the moving object, and as a result, it appears as a color shift on the color (composite) image.
例えば、同一日時に同一地点で撮影され、幾何学的に重なり合うように補正された各バンドのカラー画像を同一サイズで重ね合わせると、カラー合成画像上において、停止中の車両や道路・ビルなどの静止物体は概ね重なり合うが、移動中の車両、船舶、または航空機などの移動体は、数画素(ピクセルともいう)から十数画素におよぶ位置的なずれを伴う。 For example, if the color images of the bands taken at the same point on the same date and time and corrected so as to overlap geometrically are superimposed with the same size, the color composite image shows a stopped vehicle, road, building, etc. Still objects generally overlap, but moving objects such as moving vehicles, ships, or aircraft are accompanied by positional deviations ranging from a few pixels (also called pixels) to a dozen or so pixels.
すなわち、カラー(合成)画像の取得が可能なCCDラインセンサカメラの場合、特にインターライン型構造においては、一定個数のフォトダイオード(PD)が横一列に並べられ、これと並列に同数のVCCD(垂直転送部)が配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える。また、これら3ライン分のラインセンサが、それぞれ、所定の間隔(物理的離隔距離)を有して並行に配置されてなる構成となっている。 That is, in the case of a CCD line sensor camera capable of acquiring a color (composite) image, a certain number of photodiodes (PDs) are arranged in a horizontal row, especially in an interline type structure, and the same number of VDCs (in parallel with this) It includes an R image line sensor, a G image line sensor, and a B image line sensor in which a vertical transfer unit) is arranged. Further, the line sensors for these three lines are arranged in parallel with a predetermined interval (physical separation distance), respectively.
そして、各ラインセンサにおいては、例えば、センサ駆動部から当該センサが1画素分の距離を移動する時間の間隔で送出される駆動パルスに応じて、光学系からの光がフォトダイオードによって露光される。また、1回の露光(ライン走査)において、各ラインセンサのフォトダイオードによって光電変換された信号電荷は、例えば、各フォトダイオードに対応するVCCDに一斉に読出され、順次、垂直転送された後、水平転送部(HCCD)を介して出力される。 Then, in each line sensor, for example, light from the optical system is exposed by the photodiode in response to a drive pulse transmitted from the sensor drive unit at intervals of time when the sensor moves a distance of one pixel. .. Further, in one exposure (line scanning), the signal charges photoelectrically converted by the photodiodes of each line sensor are, for example, simultaneously read out to the VCCD corresponding to each photodiode, sequentially and vertically transferred, and then. It is output via the horizontal transfer unit (HCCD).
なお、1回の露光における全画素の信号電荷をVCCDに出力し終わると、次の露光のための駆動パルスが、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとに与えられる。 When the signal charges of all the pixels in one exposure are output to the VCCD, the drive pulse for the next exposure is given to the R image line sensor, the G image line sensor, and the B image line sensor. Be done.
このように、インターライン型構造のCCDラインセンサカメラは、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとの間に、それぞれ、わずかな物理的離隔距離を有する。そのため、露光時間よりも早く動く移動体の場合には、信号電荷の読出しが間に合わなくなり、結果的に大きな色ずれを生じる。 As described above, the CCD line sensor camera having the interline type structure has a slight physical separation distance between the R image line sensor, the G image line sensor, and the B image line sensor, respectively. Therefore, in the case of a moving body that moves faster than the exposure time, the signal charge cannot be read out in time, resulting in a large color shift.
静止物体の場合であっても、同一日時に同一地点で撮影された各バンドのカラー画像には、ラインセンサ間の物理的離隔距離によって多少の色ずれが生じるため、カラー合成画像を得る過程において、ラインディレイ補正などの処理により位置合わせを行う必要がある。 Even in the case of a stationary object, the color images of each band taken at the same point on the same date and time will have some color shift due to the physical separation distance between the line sensors, so in the process of obtaining a color composite image. , It is necessary to perform alignment by processing such as line delay correction.
しかしながら、1回の露光における信号電荷の転送中に別の画素に移動してしまうような移動体の場合には、ラインディレイ補正などの処理を実施したとしても、各バンドのカラー画像を十分に位置合わせすることが困難となる。 However, in the case of a moving body that moves to another pixel during the transfer of signal charge in one exposure, the color image of each band can be sufficiently obtained even if processing such as line delay correction is performed. It becomes difficult to align.
すなわち、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせると、道路やビルなどの静止物体(背景)は殆んどずれることなく重なり合うが、移動中の車両、船舶、または航空機などは、画素間の移動量が移動速度に応じて数画素から十数画素におよぶため、ラインディレイ補正だけでは色ずれを解消できない。 That is, when the color images of the bands obtained by aligning them so as to overlap geometrically are overlapped with the same size, the stationary objects (backgrounds) such as roads and buildings overlap with each other with almost no deviation, but they are moving. In vehicles, ships, aircraft, etc., the amount of movement between pixels ranges from several pixels to a dozen or so pixels depending on the moving speed, so color shift cannot be eliminated by line delay correction alone.
また、この色ずれを利用して移動体を検出する方法も研究されているが、従来の方法では、各バンドのカラー画像を合成した際に、移動体と移動体以外の静止物体とが同じような色付きの画像として表現されるために、カラー合成画像上から移動体のみを抽出するには複雑な画像処理技術が必要であった。 In addition, a method of detecting a moving body using this color shift has also been studied, but in the conventional method, when the color images of each band are combined, the moving body and the stationary object other than the moving body are the same. In order to be expressed as such a colored image, a complicated image processing technique is required to extract only moving objects from the color composite image.
本発明は、上記の課題を鑑みてなされたものであって、移動体を静止物体と明確に区別でき、移動体を効率良く検出することが可能なマルチラインイメージセンサ装置及び撮影装置を得ることを目的とする。 The present invention has been made in view of the above problems, and obtains a multi-line image sensor device and a photographing device capable of clearly distinguishing a moving object from a stationary object and efficiently detecting the moving object. With the goal.
本発明に係るマルチラインイメージセンサ装置は、
互いに間隔を有して並列に配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える三原色画像ラインセンサと、
前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記間隔を有して並列に配置され、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと同一色の光の波長を検出する第1の同一波長成分画像用ラインセンサと
を有し、
前記三原色画像ラインセンサによってカラー画像を取得すると共に、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記第1の同一波長成分画像用ラインセンサとによって白黒画像を取得することを要旨とする。
The multi-line image sensor device according to the present invention is
Three primary color image line sensors including an R image line sensor, a G image line sensor, and a B image line sensor, which are arranged in parallel at intervals from each other.
A first that is arranged in parallel with an image line sensor of any of the three primary color image line sensors at the interval and detects a wavelength of light of the same color as the image line sensor of any of the three primary color image line sensors. and a line sensor for the same wavelength component image,
The gist is that a color image is acquired by the three primary color image line sensors, and a black and white image is acquired by the image line sensor of any of the three primary color image line sensors and the first line sensor for the same wavelength component image. ..
本発明に係る撮影装置は、
撮影エリアに対して、所定の高さを有し、所定の速度により一方向に移動する飛行体に設けられ、前記飛行体の移動に伴って、三原色のカラー画像と、前記三原色のカラー画像のいずれかのカラー画像と同一色の光の波長のカラー画像である同一波長成分画像とを得る撮影装置であって、
マルチラインイメージセンサ装置を備え、
前記マルチラインイメージセンサ装置は、
互いに間隔を有して並列に配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える三原色画像ラインセンサと、
前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記間隔を有して並列に配置され、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと同一色の光の波長を検出する同一波長成分画像用ラインセンサとを備え、
さらに、
前記三原色画像ラインセンサ及び前記同一波長成分画像用ラインセンサに、前記撮影エリアからの光を結像させる光学系と、
前記三原色画像ラインセンサ及び前記同一波長成分画像用ラインセンサを駆動するセンサ駆動部と、
前記センサ駆動部の駆動に伴って出力された前記三原色画像ラインセンサからの各々の出力を第1画像、第2画像、第3画像として得て水平転送するとともに、前記同一波長成分画像用ラインセンサからの出力を前記同一波長成分画像として得て水平転送する水平転送部と
を有し、
前記三原色画像ラインセンサによってカラー画像を取得すると共に、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記同一波長成分画像用ラインセンサとによって白黒画像を取得することを要旨とする。
The photographing apparatus according to the present invention is
A flying object having a predetermined height with respect to the shooting area and moving in one direction at a predetermined speed is provided, and as the flying object moves, a color image of the three primary colors and a color image of the three primary colors are used. An imaging device that obtains a color image having the same wavelength as any color image and a color image having the same wavelength of light.
Equipped with a multi-line image sensor device
The multi-line image sensor device is
Three primary color image line sensors including an R image line sensor, a G image line sensor, and a B image line sensor, which are arranged in parallel at intervals from each other.
The same wavelength that is arranged in parallel with the image line sensor of any of the three primary color image line sensors at the interval and detects the wavelength of light of the same color as the image line sensor of any of the three primary color image line sensors. Equipped with a line sensor for component images
Moreover,
An optical system for forming an image of light from the photographing area on the three primary color image line sensors and the same wavelength component image line sensor, and
A sensor drive unit that drives the three primary color image line sensors and the same wavelength component image line sensor,
Each output from the three primary color image line sensors output by driving the sensor drive unit is obtained as a first image, a second image, and a third image and horizontally transferred, and the line sensor for the same wavelength component image. It has a horizontal transfer unit that obtains the output from the same wavelength component as the same wavelength component image and transfers it horizontally .
The gist is that a color image is acquired by the three primary color image line sensors, and a black and white image is acquired by the image line sensor of any of the three primary color image line sensors and the same wavelength component image line sensor.
以上のように本発明のマルチラインイメージセンサ装置によれば、三原色画像と、三原色画像ラインセンサのいずれかの同一色の光の波長である同一波長成分画像とを同時に得ることができる。 As described above, according to the multi-line image sensor device of the present invention, it is possible to simultaneously obtain a three-primary-color image and a same-wavelength component image having the same wavelength of light of any one of the three-primary-color image line sensors.
また、本発明の撮影装置によれば、三原色画像と、三原色画像ラインセンサのいずれかの同一色の光の波長である同一波長成分画像とを同時に得るマルチラインイメージ装置を内蔵して、撮影エリアを所定の高さを有し、所定の速度により一方向に移動する飛行体に設けて撮影して、これを送信する。このため、受信側では移動体の変化を直ぐに検出することが可能となる。 Further, according to the photographing device of the present invention, a multi-line image device for simultaneously obtaining a three-primary color image and an image having the same wavelength component which is the wavelength of light of the same color of any of the three primary color image line sensors is built in, and a photographing area is incorporated. Is provided on an air vehicle having a predetermined height and moving in one direction at a predetermined speed, an image is taken, and this is transmitted. Therefore, the receiving side can immediately detect the change of the moving body.
また、移動体の色が強調されているので、移動速度、移動方向、個数などの移動体情報をも高精度に算出できる。 Further, since the color of the moving body is emphasized, the moving body information such as the moving speed, the moving direction, and the number of moving bodies can be calculated with high accuracy.
以下に示す本実施の形態は、発明の技術的思想(構造、配置)を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記のものに特定されるものではない。本発明の技術的思想は、特許請求の範囲に記載された事項の範囲内において、種々の変更を加えることができる。また、図面は模式的なものであり、装置やシステムの構成などは現実のものとは異なることに留意すべきである。 The present embodiment shown below exemplifies an apparatus or method for embodying the technical idea (structure, arrangement) of the invention, and the technical idea of the present invention is specified as follows. It's not something. The technical idea of the present invention may be modified in various ways within the scope of the matters described in the claims. It should also be noted that the drawings are schematic and the configurations of the devices and systems are different from the actual ones.
本実施の形態のマルチラインイメージセンサ装置は、例えば、超小型の人工衛星に搭載される撮影装置(人工衛星カメラともいう)に内蔵されているとして説明する。 The multi-line image sensor device of the present embodiment will be described, for example, as being built in a photographing device (also referred to as an artificial satellite camera) mounted on an ultra-small artificial satellite.
そして、このマルチラインイメージセンサ装置は、画像処理時において、撮影対象(被写体)である移動体(車両、船舶、航空機、雲、津波のような流体などを含む)を静止物体と明確に区別できるライン配列とされている。 Then, this multi-line image sensor device can clearly distinguish a moving object (including a vehicle, a ship, an aircraft, a cloud, a fluid such as a tsunami), which is a shooting target (subject), from a stationary object at the time of image processing. It is a line array.
また、以下の説明においては、このマルチラインイメージセンサ装置で取得した複数の色種(各バンド)のカラー画像のスペクトラムを重ねて、移動体のカラー表示を強調した移動体検出画像を得る地上センタの移動体検出装置(地上局ともいう)をさらに備えた移動体検出システムを例示して説明する。 Further, in the following description, the ground center obtains a moving body detection image in which the color display of the moving body is emphasized by superimposing the spectrum of the color images of a plurality of color types (each band) acquired by this multi-line image sensor device. A mobile detection system further equipped with a mobile detection device (also referred to as a ground station) will be described as an example.
なお、移動体が存在する媒体(地球、紙、空、海、川、山、…)は地球とし、移動体を走行中の車両(バイクやオートバイなどを含む)または津波とした場合について説明する。 In addition, the case where the moving body exists (earth, paper, sky, sea, river, mountain, ...) is the earth, and the moving body is a moving vehicle (including a motorcycle, a motorcycle, etc.) or a tsunami will be described. ..
<実施の形態1>
図1は、本実施の形態1に係るマルチラインイメージセンサ装置が適用されるマルチスペクトルセンサ装置(MSS)を用いた移動体検出システムの概略構成図である。ここでは、移動体検出システムにおいて、地球観測衛星(飛行体)12に搭載された人工衛星カメラ21によって撮影されたライン毎撮影画像eGiに基づいて作成される1回の撮影時(1シーン分)の移動体検出画像(単一画像)CPから、例えば、走行中の車両Tmを検出する場合を例に説明する。また、飛行体は、飛行機(ヘリコプター含む)、ドローン、飛行船、人工衛星などの飛行体であるが、実施の形態では人工衛星として説明する。
<
FIG. 1 is a schematic configuration diagram of a mobile body detection system using a multispectral sensor device (MSS) to which the multiline image sensor device according to the first embodiment is applied. Here, in the moving object detection system, at the time of one shooting (for one scene) created based on the line-by-line captured image eGi captured by the
図1に示すように、この移動体検出システムは、地球10の軌道上を一方向(以下、SD方向という)に移動しながら地球10を観測する人工衛星(以下、地球観測衛星12という)と、この地球観測衛星12と地上センタとの間で、アンテナ施設14を介して、各種のデータや信号、情報などのやり取りを行う移動体検出装置16と、から構成されている。この移動体検出装置16は、地上センタに設けられたサーバシステムである。
As shown in FIG. 1, this moving object detection system includes an artificial satellite (hereinafter referred to as earth observation satellite 12) that observes the
地球観測衛星12は、人工衛星カメラ21(撮影装置ともいう)が搭載される、いわゆるプラットフォームであって、所定の速度により図示矢印SD方向に移動しながら、所定の高さの軌道上を周回するように構成されている。
The
すなわち、地球観測衛星12は、例えば、地球10の約400km(キロメートル)〜約700kmの高度の上空を、高度に応じたほぼ一定の速度で飛行する超小型の人工衛星であるのが好ましい。
That is, the
そして、図示矢印SD方向への移動に伴って、搭載する人工衛星カメラ21により地球10の地表部分の画像を約2.5m(メートル)×50kmの幅で連続撮影する。
Then, as the arrow moves in the SD direction, the on-board
前述の人工衛星カメラ21内には、任意の撮影エリアTEG内を、例えばプッシュブルーム方式により、ライン走査するためのマルチスペクトルセンサ装置214が内蔵されている。
In the
ここで、地球観測衛星12は、地表面方向(垂直方向)に対する人工衛星カメラ21の撮影面(水平方向)の角度が常に90度となるように移動(姿勢ω、κ、θ)が制御される。また、地球観測衛星12において、人工衛星カメラ21は、内蔵するマルチスペクトルセンサ装置214の、衛星12の飛行するSD方向との角度がほぼ90度(ほぼ直角)となるように調整される。すなわち、マルチスペクトルセンサ装置214は、後述するラインセンサの水平方向の向き(ライン配列)が、SD方向に対して実質的に直交するように配置されている。
Here, the movement (attitudes ω, κ, θ) of the
そして、地球観測衛星12は、マルチスペクトルセンサ装置214を用いて撮影したライン毎撮影画像eGiを含む送信信号SGiを、地上センタの移動体検出装置16につながるアンテナ施設14に向けて送信する。ここで、前述の送信信号SGiは、例えば、ライン毎撮影画像eGiとヘッダ情報EHiとから主に構成されている。
Then, the
ライン毎撮影画像eGiとは、画素を構成する各バンドの階調度(ピクセル値に相当)を含むフレーム信号であって、例えば、撮影時にマルチスペクトルセンサ装置214から1ライン毎に定期的または連続的に出力される、画素データを伴ったセンサ出力(1ライン走査分の信号電荷)である。
The line-by-line captured image eGi is a frame signal including the gradation (corresponding to a pixel value) of each band constituting the pixel. For example, the
ヘッダ情報EHiとは、例えば、C&DH(Command and Data Handling)系などによりライン毎撮影画像eGiに付加される撮影時のメタ(meta)データである。ヘッダ情報EHiには、例えば、地球観測衛星12を識別するための情報(ID)、地球観測衛星12の撮影時の緯度、経度、高度、姿勢などの情報、空間分解能、撮影日や撮影時刻、撮影開始時刻(Collection Start Time)及び終了時刻(Collection End Time)に関する情報、バンドの種別(色種)に関する情報、画素の位置を示すピクセル座標Pzai(i,j)、送信先情報などが含まれる。
The header information EHi is, for example, meta data at the time of shooting added to the shot image eGi for each line by a C & DH (Command and Data Handling) system or the like. The header information EHi includes, for example, information (ID) for identifying the
また、ヘッダ情報EHiとしては、後述する送信部(27)において、ライン毎撮影画像eGi単位で付加されるのが望ましい。 Further, it is desirable that the header information EHi is added in units of the captured image eGi for each line in the transmission unit (27) described later.
地球観測衛星12としては、人工衛星としての基本的な機能(例えば、C&DH系や推進系など)を含む、その他の各種の機能を備えるものであっても良く、ここでの詳細な説明は省略する。
The
図2は、地球観測衛星12内部の人工衛星カメラ21の付近の概略構成図である。
FIG. 2 is a schematic configuration diagram of the vicinity of the
図2に示すように、地球観測衛星12は、人工衛星カメラ21と、移動体検出装置16からアンテナ施設14を介して送られる撮影命令などを受信する受信部23と、人工衛星カメラ21を制御するセンサ制御部25と、ライン毎撮影画像eGiを含む送信信号SGiを移動体検出装置16に送信する送信部27と、を少なくとも有して構成されている。
As shown in FIG. 2, the
なお、センサ制御部25及び送信部27の少なくとも一方を、人工衛星カメラ21内に備える構成としても良い。
At least one of the
人工衛星カメラ21は、図2に示すように、例えば、マルチスペクトルセンサ装置214と、マルチスペクトルセンサ装置214をセンサ制御部25の制御に基づいて駆動するセンサ駆動部210と、光学系部(光学系)212と、転送部(HCCD)218と、を備えている。
As shown in FIG. 2, the
センサ駆動部210は、例えば、マルチスペクトルセンサ装置214内の後述する4種の画像用ラインセンサに、地球観測衛星12が1ライン走査分の距離を移動する時間の間隔で駆動パルス(露光タイミング信号)を送出し、光学系部212からの光を露光させる。
The
光学系部212は、マルチスペクトルセンサ装置214に光を集光させる集光レンズ(図示せず)などを有して構成されている。
The
転送部218は、例えば、マルチスペクトルセンサ装置214内の4種の画像用ラインセンサにおける各フォトダイオード(光電変換素子)PD群での光電変換作用により、取得した各々の1ライン走査分の信号電荷を、ライン毎第1画像(R1)、ライン毎第2画像(G)、ライン毎第3画像(B)として得て転送するとともに、後述する第1の同一波長成分画像用ラインセンサ(以下、同一波長成分画像用ラインセンサ(例えば、214R2)という)からのセンサ出力を画像(例えば、R2(以下、ライン毎同一波長成分画像Ri(R2)という))として得て、逐次、送信部27へと転送する。
The
このライン毎第1画像(R1)とライン毎第2画像(G)とライン毎第3画像(B)とライン毎同一波長成分画像Ri(R2)とを総称して、ライン毎撮影画像eGiと称する。 The first image (R 1 ) for each line, the second image (G) for each line, the third image (B) for each line, and the same wavelength component image Ri (R 2 ) for each line are collectively taken as an image taken for each line. It is called eGi.
(マルチスペクトルセンサ装置214の構成)
図3は、マルチスペクトルセンサ装置214の概略構成図である。人工衛星カメラ21に内蔵されたマルチスペクトルセンサ装置214は、三原色画像ラインセンサ(R1画像用ラインセンサ214R1、G画像用ラインセンサ214G、B画像用ラインセンサ214B)の他に、いずれかのラインセンサと同一色の光の波長を検出する同一波長成分画像用ラインセンサ214R2を備えている。この三原色画像ラインセンサと同一波長成分画像用ラインセンサ214R2とを総称して、画像用ラインセンサと称する。
(Configuration of Multispectral Sensor Device 214)
FIG. 3 is a schematic configuration diagram of the
つまり、本実施の形態のマルチスペクトルセンサ装置214は、三原色画像ラインセンサ(214R1、214G、214B)の他に、同一波長成分画像用ラインセンサ214R2をさらに備えた4種の画像用ラインセンサを有してなる、いわゆる4ライン方式のマルチラインイメージセンサである。
That is, the
また、マルチスペクトルセンサ装置214の各画像用ラインセンサ(214R1、214G、214B、214R2)は、それぞれ、所定の間隔(物理的離隔距離BD:例えば10μm(マイクロメートル))BDを有して並列に配置されている。
Further, each image line sensor (214R 1 , 214G, 214B, 214R 2 ) of the
また、同一波長成分画像用ラインセンサ214R2は、三原色画像ラインセンサを構成するR1画像用ラインセンサ214R1、G画像用ラインセンサ214G、B画像用ラインセンサ214Bのいずれかに対して設けても構わないが、本実施の形態においては、R1画像用ラインセンサ214R1に対して設けた例としている。
Further, the same wavelength component
ただし、インターライン型構造のマルチスペクトルセンサ装置214においては、各々の画像用ラインセンサ(214R2、214R1、214G、214B)の、ライン方向の同じ位置における各組のピクセルによってユニットセル(UC1、UC2)が構成されるようになっている。
However, the
このような構成のマルチスペクトルセンサ装置214は、移動体検出用のマルチラインイメージセンサとしての機能を備える。
The
図3において、マルチスペクトルセンサ装置214は、ライン状に並べられた一定個数のユニットセルUC1、UC2を備える。各ユニットセルUC1は、3画素、例えば、三原色画像ラインセンサ(214R1、214G、214B)によって構成され、各ユニットセルUC2は、2画素、例えば、同一波長成分画像用ラインセンサ214R2、R1画像用ラインセンサ214R1によって構成されている。
In FIG. 3, the
ここで、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)は、それぞれ、フォトダイオードPD群214R2p、214R1p、214Gp、214Bpと、CCD群214R2f、214R1f、214Gf、214Bfと、を有する。
Here, the
フォトダイオードPD群214R2p、214R1p、214Gp、214Bpは、直列に配列された一定個数のフォトダイオードPDからなり、CCD群214R2f、214R1f、214Gf、214Bfは、各フォトダイオードPDに並列に配置された一定個数の垂直CCD(VCCD)からなる。
The
CCD群214R2f、214R1f、214Gf、214Bfの各垂直CCDは、アナログフレームメモリとして機能する。
Each of the vertical CCDs of the
すなわち、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)のそれぞれの画像ラインセンサの各々のピクセルの組によって、一定個数のユニットセルUC1、UC2が構成される。
That is, a fixed number of unit cells UC1 and UC2 are configured by each pixel set of each image line sensor of the same wavelength component
より具体的には、各ユニットセルUC1は、三原色画像ラインセンサ(214R1、214G、214B)の、フォトダイオードPD群214R1p、214Gp、214BpとCCD群214R1f、214Gf、214Bfとによって構成される。各ユニットセルUC2は、同一波長成分画像用ラインセンサ214R2、R1画像用ラインセンサ214R1の、フォトダイオードPD群214R2p、214R1pとCCD群214R2f、214R1fとによって構成される。
More specifically, each unit cell UC1 is composed of the
各ユニットセルUC1は、1ラインにおけるライン毎カラー合成画像aGEiを形成するための画素データ取得用のセルであり、各ユニットセルUC2は、1ラインにおけるライン毎白黒合成画像gEAiを形成するための画素データ取得用のセルである。 Each unit cell UC1 is a cell for acquiring pixel data for forming a line-by-line color composite image aGEi in one line, and each unit cell UC2 is a pixel for forming a line-by-line black-and-white composite image gEAi in one line. This is a cell for acquiring data.
一方、前述のCCD群214R2fには画像用転送部218R2が、CCD群214R1fには画像用転送部218R1が、CCD群214Gfには画像用転送部218Gが、CCD群214Bfには画像用転送部218Bが、それぞれ接続されて、CCD群214R2f、214R1f、214Gf、214Bfからのセンサ出力が送信部27へと転送されるようになっている。
On the other hand, an image for the transfer unit 218R 2 in the above-mentioned
実施の形態1においては、画像用転送部218R2、218R1、218G、218Bによって、図2に示した転送部218が構成されている。
In the first embodiment, the
すなわち、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)においては、各フォトダイオードPD群214R2p、214R1p、214Gp、214Bpによって1回の露光により光電変換された信号電荷が、トランスファゲート(読出しゲート)TGを介して、CCD群214R2f、214R1f、214Gf、214Bfに一斉に読出された後、それぞれ、転送部218の各画像用転送部218R2、218R1、218G、218Bを介して、送信部27へと掃引されるようになっている。
That is, the same wavelength component
この掃引時において、例えば、1ライン走査当たりの信号電荷は、1ライン相当分のライン毎撮影画像eGiとなり、対応するフォトダイオードPDの位置に応じたピクセル座標などがヘッダ情報EHiとして付加されることにより、送信信号SGiとなる。 At the time of this sweep, for example, the signal charge per line scan becomes the line-by-line captured image eGi corresponding to one line, and the pixel coordinates corresponding to the position of the corresponding photodiode PD are added as the header information EHi. Therefore, it becomes a transmission signal SGi.
つまり、1ライン毎に、ライン毎第1画像(R1)と、ライン毎第2画像(G)と、ライン毎第3画像(B)と、ライン毎同一波長成分画像Ri(R2)と、がライン毎撮影画像eGiとして送信されることになる。 That is, for each line, the first image (R 1 ) for each line, the second image (G) for each line, the third image (B) for each line, and the same wavelength component image Ri (R 2 ) for each line. Will be transmitted as a captured image eGi for each line.
なお、転送部218としては、信号電荷を転送させる際に、電圧に変換・増幅する機能を備えるようにしても良い。また、転送部218としては、各CCD群214R2f、214R1f、214Gf、214Bfからの信号電荷を、順次、水平転送させる水平CCD(HCCD)の構成としても良い(いわゆる、プログレッシブ読出し方式)。
The
このような構成のマルチスペクトルセンサ装置214を用いることによって、例えば、RGBカラー(合成)画像の撮影が可能な既存の三原色画像ラインセンサとしての役割を果たしながら、移動体の変化分だけを即時にカラー表示させ、それ以外の静止物体をモノクロ(モノトーンまたはグレースケール)表示させた移動体検出画像CPを容易に作成できるようになる。
By using the
ただし、単純に移動体の変化分だけをカラー表示させることに限定すれば、同じ感度のセンサを2ライン分以上配置したモノクロラインセンサ(図示省略)を追加し、後処理の画像合成によって、静止物体をモノクロにより表示させるとともに、移動体の変化分をカラーにより表示させることは可能である。 However, if it is limited to simply displaying only the change in the moving object in color, a monochrome line sensor (not shown) in which sensors with the same sensitivity are arranged for two or more lines is added, and the image is combined after processing to make it stationary. It is possible to display the object in monochrome and to display the change in the moving body in color.
ここで、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)は、いずれも、センサ長SLとセンサ幅SWとを有するとともに、それぞれ、物理的離隔距離BDを有して並列に配置されている。 Here, the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1 , 214G, 214B) each have a sensor length SL and a sensor width SW, and each has a physical separation distance BD. It has and is arranged in parallel.
なお、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)のセンサ長SL、センサ幅SW、物理的離隔距離BDなどは、人工衛星カメラ21が搭載される地球観測衛星12毎に異なり、地球観測衛星12の高度、速度、解像度、空間分解能、撮影対象(移動体)などに応じて適宜設計されるものであって、例えば、数μm〜十数μm程度となる。
The line sensor 214R 2 for the same wavelength component image, the sensor length SL of the three primary color image line sensors (214R 1 , 214G, 214B), the sensor width SW, the physical separation distance BD, etc. are the earth on which the
そのため、このマルチスペクトルセンサ装置214の場合、1回の露光においては、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)間の物理的離隔距離BDに起因して、同一地点(同一ライン上)の画像を若干の時間的ずれ(露光タイミング差)をもって撮影することになる。
Therefore, in the case of this
撮影時の同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)間の物理的離隔距離BDに起因する露光タイミング差は、移動体検出画像CP上において、色ずれとなって現れる。特に、移動体検出画像CP上における移動体の変化分の色ずれは、移動体の移動速度や移動方向などに対応し、動きの速い移動体ほど大きくなる。 The exposure timing difference due to the physical separation distance BD between the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1, 214G, 214B) at the time of shooting is a color shift on the moving object detection image CP. Appears as. In particular, the color shift of the change of the moving body on the moving body detection image CP corresponds to the moving speed and the moving direction of the moving body, and becomes larger as the moving body moves faster.
そこで、移動体検出装置16では、移動体検出画像CPにおいて、この色ずれを利用して移動体の変化分を色付きの画像として表示するとともに、その色付きの画像だけをさらに強調して表現できるようにしている。これにより、移動体検出画像CP上において、より一層、移動体の変化分を目立たせることが可能となる。したがって、1シーン分の移動体検出画像CPから目視によって移動体を簡単に検出できるようになるとともに、コンピュータ処理においても、移動体の変化分を効率良く自動抽出することが可能となる。
Therefore, in the moving
図4は、マルチスペクトルセンサ装置214の断面構造を概略的に示すもので、ここでは、図3のI−I線に沿うB画像用ラインセンサ214Bの断面を例示して説明する。
FIG. 4 schematically shows the cross-sectional structure of the
B画像用ラインセンサ214Bにおいては、例えば、p型シリコン(Si)基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214BpとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214Bfとなる垂直CCDのレジスタ部(n+型層)214Btと、を備える。
In the B
また、B画像用ラインセンサ214Bは、受光領域234を除く、p型Si基板230上またはp型ウェル232上に、絶縁膜236を介して設けられたポリSi電極238と、ポリSi電極238上に絶縁膜236を介して設けられ、受光領域234の一部に開口を有する遮光膜240と、を備える。
Further, the B
さらに、B画像用ラインセンサ214Bは、全面に設けられた透明な樹脂層242と、受光領域234に対応する、樹脂層242の上面上にオンチップで設けられたB画像用カラーフィルタ(原色フィルタ)244と、B画像用カラーフィルタ244に対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、を備える。
Further, the B
すなわち、B画像用ラインセンサ214Bは、例えば、波長450〜495nmの帯域の光を透過するB画像用カラーフィルタ244を備えて構成されている。
That is, the B
なお、同一波長成分画像用ラインセンサ214R2、R1画像用ラインセンサ214R1、及びG画像用ラインセンサ214Gは、いずれも、B画像用ラインセンサ214Bと基本構成が同じであるため、ここでの詳細な説明は省略する。
Incidentally, the same wavelength component
要するに、同一波長成分画像用ラインセンサ214R2及びR1画像用ラインセンサ214R1は、後述するように、例えば、波長620〜750nmの帯域の光を透過するR画像用カラーフィルタ(原色フィルタ)を備えて構成されている。
In short, the same wavelength component
また、G画像用ラインセンサ214Gは、後述するように、例えば、波長495〜590nmの帯域の光を透過するG画像用カラーフィルタ(原色フィルタ)を備えて構成されている。
Further, as will be described later, the G
なお、上記した波長の帯域は一例であり、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)毎に半値幅などが異なるものであっても良い。また、単独でモノクロ画像を取得するラインセンサ(図示せず)の場合、カラーフィルタは不要となる。 The wavelength band described above is an example, and the half-value width and the like may be different for each of the same wavelength component image line sensor 214R 2 and the three primary color image line sensors (214R 1, 214G, 214B). Further, in the case of a line sensor (not shown) that acquires a monochrome image independently, a color filter is not required.
図5は、地球観測衛星12に搭載された人工衛星カメラ21の基本動作として、撮影時のタイミングチャートを示すものである。
FIG. 5 shows a timing chart at the time of shooting as a basic operation of the
すなわち、上記のようなマルチスペクトルセンサ装置214を内蔵した人工衛星カメラ21を搭載した地球観測衛星12は、軌道上をSD方向に移動しながら、人工衛星カメラ21によって、地球10の地表部分における任意の撮影エリアTEG内をライン状に撮影する。
That is, the
人工衛星カメラ21において、例えば、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)では、センサ駆動部210からのフォトダイオードPDの駆動パルス(図5(a)参照)がハイレベルの間、フォトダイオードPD群214R2p、214R1p、214Gp、214Bpによる露光が行われる。
In the
露光時間としては、一般的に、地球観測衛星12が1ライン走査分を移動する時間(例えば、空間分解能が1メートルの衛星であれば、衛星が1メートルの距離を飛行するのに要する時間)に設定される。
The exposure time is generally the time that the
一定期間の露光が終了する(フォトダイオードPDの駆動パルスがロウレベルになる)と、センサ駆動部210からのトランスファゲートTGの制御パルス(図5(b)参照)がハイレベルになることに伴って、フォトダイオードPD群214R2p、214R1p、214Gp、214Bpにそれぞれ蓄積された信号電荷が、ほぼ同時に、CCD群214R2f、214R1f、214Gf、214Bfへと転送される。
When the exposure for a certain period is completed (the drive pulse of the photodiode PD becomes low level), the control pulse of the transfer gate TG from the sensor drive unit 210 (see FIG. 5B) becomes high level. The signal charges accumulated in the
CCD群214R2f、214R1f、214Gf、214Bfへと転送された信号電荷は、それぞれ、センサ駆動部210からの制御パルスBP(図5(c)参照)、GP(図5(d)参照)、R1P(図5(e)参照)、R2P(図5(f)参照)がハイレベルの間、転送部218の各々の画像用転送部218R2、218R1、218G、218Bへと転送される。
CCD group 214R 2 f, 214R 1 f, 214Gf, the signal charges transferred to 214Bf, respectively (see FIG. 5 (c)) the control pulses BP from the
なお、1回の露光における全画素の信号電荷を転送部218に出力し終わると、センサ駆動部210から次の露光のための駆動パルス(PD)が、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)に出力される。
When the signal charges of all the pixels in one exposure are output to the
こうして、1回の露光において、転送部218に転送された信号電荷は、例えば、送信部27によってライン毎撮影画像eGiを含む送信信号SGiとして生成し直された後、アンテナ施設14に向けて移動体検出装置16へと送信される。
In this way, in one exposure, the signal charge transferred to the
なお、図5のタイミングチャートは動作の一例を例示したものであって、実際の動作では、同一波長成分画像用ラインセンサ214R2、三原色画像ラインセンサ(214R1、214G、214B)間の物理的離隔距離BDに伴う露光タイミング差を考慮して、露光の開始のタイミングなどを規定するようにしても良い。 The timing chart of FIG. 5 illustrates an example of the operation, and in the actual operation, the physical operation between the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1 , 214G, 214B) is performed. The timing of the start of exposure may be specified in consideration of the difference in exposure timing due to the separation distance BD.
一方、移動体検出装置16は、コンピュータシステム(サーバシステム)である。詳細については後述するが、移動体検出装置16は、地球観測衛星12から送信されてくる送信信号SGiに含まれるライン毎撮影画像eGi(R1、G、B、Ri(R2))を蓄積し、入力されている抽出領域を特定エリアEWiとする。
On the other hand, the
そして、この特定エリアEWiに対応する個数のライン毎撮影画像eGiを抽出する。この抽出されたライン毎撮影画像eGiのライン毎第1画像(R1)、ライン毎第2画像(G)及びライン毎第3画像(B)を、特定エリアEWiのカラー合成画像(マルチスペクトル画像とも称する)GWiとする。また、抽出されたライン毎撮影画像eGiのライン毎同一波長成分画像Ri(R2)と、特定エリアEWiのカラー合成画像GWiを構成するライン毎第1画像(R1)とを重ね合わせて、その特定エリアEWiに対応する白黒合成画像(パンクロマチック画像ともいう)GEAiを生成する。そして、この白黒合成画像GEAiの上にカラー合成画像GWiを重ね合わせて、移動体の移動速度に応じた変化量(変化分)を直ちに色ずれとして認識できる移動体検出画像(例えば、パンシャープン画像)CPの作成などを行うように構成されている。 Then, the number of captured images eGi for each line corresponding to the specific area EWi is extracted. The extracted line-by-line captured image eGi line-by-line first image (R 1 ), line-by-line second image (G), and line-by-line third image (B) are combined with a color composite image (multispectral image) of the specific area EWi. Also referred to as GWi). Further, the same wavelength component image Ri (R 2 ) for each line of the extracted line-by-line captured image eGi and the first image (R 1 ) for each line constituting the color composite image GWi of the specific area EWi are superimposed. A black-and-white composite image (also referred to as a panchromatic image) GEAi corresponding to the specific area EWi is generated. Then, the color composite image GWi is superposed on the black-and-white composite image GEAi, and the amount of change (change) according to the movement speed of the moving body can be immediately recognized as a color shift image (for example, pan sharpening). Image) It is configured to create CP and so on.
ここで、マルチスペクトル画像とは、波長帯毎に得られる各バンドのカラー画像(R1、G、B)を重ね合わせた、いわゆるフルのカラー合成画像である。 Here, the multispectral image is a color image of each band obtained for each wavelength band (R 1, G, B) are superposed, a color composite image of so-called full.
パンクロマチック画像とは、指定の画像種(例えば、白黒画像)として、特定の1つの波長帯のカラー画像(例えば、R1、Ri(R2))のみを観測した、いわゆるモノクロ画像(パンクロ画像ともいう)である。 A panchromatic image is a so-called monochrome image (panchromatic image) in which only a color image (for example, R 1 , Ri (R 2 )) of a specific wavelength band is observed as a specified image type (for example, a black and white image). Also called).
パンシャープン画像とは、マルチスペクトル画像とパンクロマチック画像とを合成処理(パンシャープン処理)した画像である。 The pan-sharpened image is an image obtained by combining a multispectral image and a panchromatic image (pan-sharpened processing).
前述の特定エリアEWiのカラー合成画像GWiは、例えば撮影エリアTEGに対応する領域について、幾何学的に重なり合うように位置合わせ(例えば、モザイク処理)して得た各バンドのカラー画像(R1、G、B)を、同一サイズで重ね合わせることによって形成される。 Color composite image GWi specific area EWi described above, for example, the region corresponding to the imaging area TEG, geometrically overlap so aligned (e.g., mosaicking) color image (R 1 of each band obtained by, It is formed by superimposing G and B) with the same size.
同様に、前述の特定エリアEWiの白黒合成画像GEAiは、例えば撮影エリアTEGに対応する領域について、幾何学的に重なり合うように位置合わせ(例えば、モザイク処理)して得た少なくとも同一色のバンドのカラー画像(例えば、R1、Ri(R2))を、同一サイズで重ね合わせることによって形成される。 Similarly, the black-and-white composite image GEAi of the specific area EWi described above has at least the same color band obtained by aligning (for example, mosaic processing) the regions corresponding to the shooting area TEG so as to geometrically overlap each other. It is formed by superimposing color images (for example, R 1 , Ri (R 2 )) having the same size.
また、移動体検出装置16は、後述する色強調処理した1シーン分の移動体検出画像CPから移動体の検出と、その移動量、移動方向、移動速度、個数、または移動体が車両の場合には車間距離などの移動体情報の算出と、を行うようになっている。移動体検出装置16においては、例えば、連続した所定数の画素(例えば、数画素〜十数画素)におよぶR1、G、Bの色ずれが検出された場合に、移動体として判断される。また、その色ずれの程度により移動体の移動速度が、その色ずれの方向から移動体の移動方向が、それぞれ算出される。
Further, the moving
以下に、上記の移動体検出装置16における処理について説明する。
The processing in the moving
図6は、移動体検出装置16の概略構成(機能ブロック)を示すものである。
FIG. 6 shows a schematic configuration (functional block) of the mobile
移動体検出装置16は、例えば、汎用のコンピュータシステムを主体に構成されるものである。より具体的には、取得部161、撮影画像用データベース(撮影画像受信用記憶部ともいう)163、エリア抽出部165、オペレーション部167、抽出画像用メモリ169、重ね合わせ部171、色強調画像用メモリ(白黒合成画像用記憶部またはパンシャープン画像用記憶部ともいう)173、色強調部175、画素移動体判定部177、画像メモリ181Mを有した表示制御部181、表示部183、及び移動体情報算出部185を備えて構成されている。
The mobile
前述の抽出画像用メモリ169は、カラー画像用メモリ169aとパンクロ画像生成用メモリ(同一成分画像用メモリ)169bとからなる。また、撮影画像用データベース163は、取得画像用データベース(カラー合成画像用記憶部)163aとヘッダ情報用データベース163bとからなる。
The above-mentioned extracted
取得部161は、アンテナ施設14で受信した地球観測衛星12からの送信信号SGiを取込むものである。そして、取込んだ送信信号SGiに含まれているライン毎撮影画像eGi(R1、G、B、Ri(R2))に対し、例えば、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して取得画像用データベース163aに順次記憶する。なお、取得画像用データベース163aには、例えば、ライン毎撮影画像eGiの所定のレベル以上の成分のみを取り込むようにしても良い。
The
このとき、ライン毎同一波長成分画像Ri(R2)、ライン毎第1画像(R1)、ライン毎第2画像(G)、ライン毎第3画像(B)の各々を色種別に区分けして順次記憶している。例えば、ライン毎第1画像(R1)、ライン毎第2画像(G)、ライン毎第3画像(B)は、取得画像用データベース163a内のカラー合成画像用領域(図示省略)に記憶する。また、ライン毎同一波長成分画像Ri(R2)は、取得画像用データベース163a内の同一波長成分画像用領域(図示省略)に記憶する。
At this time, each of the same wavelength component image Ri (R 2 ) for each line, the first image (R 1 ) for each line, the second image (G) for each line, and the third image (B) for each line is classified by color type. I remember them one by one. For example, the first image (R 1 ) for each line, the second image (G) for each line, and the third image (B) for each line are stored in the color composite image area (not shown) in the acquired
また、送信信号SGiに含まれているヘッダ情報EHiを、ライン毎撮影画像eGiに関連付けて、ヘッダ情報用データベース163bに記憶する。
Further, the header information EHi included in the transmission signal SGi is associated with the captured image eGi for each line and stored in the
エリア抽出部165は、例えば、撮影エリアTEGに渡るライン毎同一波長成分画像Ri(R2)、ライン毎第1画像(R1)、ライン毎第2画像(G)、ライン毎第3画像(B)が記憶された後において、オペレーション部167によって指定された任意の特定エリアEWiに対応する個数分のライン毎第1画像(R1)、ライン毎第2画像(G)、ライン毎第3画像(B)を取得画像用データベース163aから読込む。前述の特定エリアEWiは、撮影エリアTEGと同じであっても構わないが、リアルタイム的に検出していくのであれば、特定エリアEWiを、例えば10m、30mまたは100m・・と設定できるようにするのが好ましい。
The
そして、特定エリアEWiに対応する個数分のライン毎第1画像(R1)、ライン毎第2画像(G)、ライン毎第3画像(B)をカラー合成画像GWi(R1、G、B:マルチスペクトル画像)としてカラー画像用メモリ169aに記憶するとともに、ヘッダ情報用データベース163b内の対応するヘッダ情報EHiを読込み、カラー合成画像GWiに関連付けてカラー画像用メモリ169aに記憶する。
Then, the number of lines corresponding to the specific area EWi, the first image (R 1 ) for each line, the second image (G) for each line, and the third image (B) for each line are combined with the color composite image GWi (R 1, G, B). : Multispectral image) is stored in the
また、エリア抽出部165は、前述の特定エリアEWiに対応する個数分のライン毎同一波長成分画像Ri(R2)を取得画像用データベース163aから読込み、パンクロ画像生成用メモリ169bに記憶する。このとき、対応するヘッダ情報EHiも記憶する。
Further, the
さらに、エリア抽出部165は、例えば、特定エリアEWiのカラー合成画像GWiをカラー画像用メモリ169aから読込んで、これを色強調画像用メモリ(パンシャープン画像用記憶部)173を介して、表示制御部181の画像メモリ181Mに記憶して、表示部183の画面に表示させても良い。
Further, the
オペレーション部167は、例えば図7に示すように、操作パネル167aと表示パネル167bとを有している。
The
オペレーション部167は、例えば、撮影エリアTEGに渡るカラー合成画像GWi(R1、G、B:マルチスペクトル画像)または地図を表示部183の画面上に予め表示させた状態において、オペレータに操作パネル167aを操作させて特定エリアEWiの指定を行わせる。また、各種の情報を表示パネル167bの画面上に表示させて、オペレータに選択または入力させるようにしても良い。
The
特定エリアEWiを指定するための情報としては、例えば、平面直角座標、緯度、経度、撮影対象の地域名や住所(エリア名)、撮影日、撮影時刻(撮影開始時刻及び終了時刻)などがあげられる。 Information for designating the specific area EWI includes, for example, plane rectangular coordinates, latitude, longitude, area name and address (area name) to be photographed, shooting date, shooting time (shooting start time and end time), and the like. Be done.
なお、オペレーション部167の表示パネル167bは、表示部183と兼用させることも可能である。つまり、オペレーション部167としては、表示部183の画面表示を見ながら操作パネル167aを操作する構成とすることもできる。
The
重ね合わせ部171は、例えば図6に示すように、オペレーション部167からの特定エリアEWiに対応する個数のライン毎同一波長成分画像Ri(R2)をパンクロ画像生成用メモリ169bから読込み、かつカラー画像用メモリ169aから対応する個数のライン毎第1画像(R1)を読出して重ね合わせる。
As shown in FIG. 6, for example, the superimposing
そして、この重ね合わせられた画像をパンクロマチック画像(白黒合成画像GEAiともいう)として、色強調画像用メモリ173に記憶する。
Then, the superimposed image is stored in the color-enhanced
そして、白黒合成画像GEAiとカラー画像用メモリ169aのカラー合成画像GWiとを重ね合わせて、これを色強調前の移動体検出画像(以下、色強調前のパンシャープン画像CP1という)として、色強調画像用メモリ173のパンシャープン画像用記憶部(図示省略)に記憶するとともに、表示制御部181を起動させる。
Then, the black-and-white composite image GEAi and the color composite image GWi of the
表示制御部181は、例えば、色強調画像用メモリ173に記憶されている色強調前のパンシャープン画像CP1、または後述する色強調後のパンシャープン画像CP2を移動体検出画像CPとして、画像メモリ181Mに読出して表示部183の画面上に表示する。
The
色強調部175は、例えば、色強調後のパンシャープン画像CP2を移動体検出画像CPとして表示させる際に、色強調前のパンシャープン画像CP1に対し、移動体の速度に応じた変化量として、より色表現性を強調させるためのものである。
For example, when the pan-sharpened image CP2 after color enhancement is displayed as the moving object detection image CP, the
詳細については後述するが、例えば、色強調前のパンシャープン画像CP1において、画素移動体判定部177による判定の結果、各画素の色種別の階調度を示すピクセル値のいずれかが「0」でない場合、色強調画像用メモリ173内のメッシュMiの座標Mi(i,j)上における、その「0」でないピクセル値を最大値に変更するようになっている。
Details will be described later, but for example, in the pan-sharpened image CP1 before color enhancement, as a result of determination by the pixel moving
そして、そのピクセル値が最大値に変更された色強調後のパンシャープン画像(以下、色強調画像ともいう)CP2を、移動体検出画像CPとして表示制御部181の画像メモリ181Mに記憶し、表示部183の画面に表示させる。
Then, the pan-sharpened image (hereinafter, also referred to as a color-enhanced image) CP2 whose pixel value is changed to the maximum value is stored in the
ここで、移動体検出画像CPは、例えば図8に示すように、走行中の車両(移動体)Tmの変化量(変化分)のみが色ずれを伴うカラー画像(R1、G、BまたはB、G、R1)により強調表示され、それ以外の、停止中の車両Tsや道路または建物などを含む背景(静止物体)がモノクロ画像として表示されたものとなる。
Here, as shown in FIG. 8, for example, the moving object detection image CP is a color image (R 1 , G, B or
つまり、撮影時において、取得したR1画像用ラインセンサ214R1、G画像用ラインセンサ214G、B画像用ラインセンサ214Bの検出成分のうち、移動体のみが速度に応じた変化分に相当した色ずれを伴うカラー画像として表示されることになる。ただし、図8においては、そのカラー画像を強調して車両Tmの上に示している。
That is, at the time of shooting , among the detected components of the acquired R 1
なお、図8は、高速道路のインターチェンジ(IC)付近を撮影した際の移動体検出画像CPを例示したものであって、実際に走行中の車両Tmを強調表示したものである。 Note that FIG. 8 illustrates a moving object detection image CP when the vicinity of an interchange (IC) on an expressway is photographed, and highlights the vehicle Tm that is actually traveling.
図6において、画素移動体判定部177は、例えば、色強調前のパンシャープン画像CP1の各画素が移動体のものか否かを、そのピクセル値(画素値)に基づいて判定する。詳細については後述するが、例えば、各画素の色種別の階調度を示すピクセル値のいずれかが「0」でない場合、その画素は移動体のものと判定する。逆に、各画素の色種別の階調度を示すピクセル値の全てが「0(または、最大値)」の場合、その画素は静止物体のものと判定するようになっている。
In FIG. 6, the pixel moving
移動体情報算出部185は、例えば、色強調画像用メモリ173または画像メモリ181M内に格納された移動体検出画像CPに基づいて、移動体検出画像CP中における移動体の検出と、その移動体情報の算出とを行うものである。
The moving body
すなわち、移動体情報算出部185によって、移動体検出画像CPにおけるカラー画像のR1、G、Bの配列の異なりや色ずれの程度から、例えば、走行中の車両Tmの移動速度、移動方向、車間距離、または個数などの算出が必要に応じて行われる。移動体情報算出部185の算出結果は、例えば表示部183の画面において、数値や文字、色、太さや長さの異なる矢印などの図形として、移動体検出画像CP上に重ねて表示させるようにしても良い。
That is, by the mobile
なお、色強調画像(CP2)を移動体検出画像CPとしてそのまま表示させる場合に限らず、例えば、実際の地図や既存の道路ネットワークデータ(R値)と組み合わせるようにしても良い。 The color-enhanced image (CP2) is not limited to being displayed as it is as a moving object detection image CP, and may be combined with, for example, an actual map or existing road network data (R value).
ここで、移動体の移動速度v(t)の算出方法の一例について説明する。 Here, an example of a method of calculating the moving speed v (t) of the moving body will be described.
移動体の移動距離dsは、移動体のずれ量(ピクセル数×空間分解能)から計算できる。例えば、各画像用ラインセンサ214R2、214R1、214G、214B間のタイムラグdtが0.1秒であり、空間分解能が1mであったとする。そして、移動体が1ピクセル分ずれた場合(1秒間に約10m移動)、下記式(1)より、移動体の速度v(t)は時速約36km/hとなる。 The moving distance ds of the moving body can be calculated from the amount of deviation of the moving body (number of pixels × spatial resolution). For example, assume that the time lag dt between the line sensors 214R 2 , 214R 1 , 214G, and 214B for each image is 0.1 second, and the spatial resolution is 1 m. When the moving body is displaced by 1 pixel (moving about 10 m per second), the speed v (t) of the moving body is about 36 km / h according to the following equation (1).
v(t)=ds/dt … (1)
ただし、vは移動体の速度、sは移動体の位置、tは時間(ライン毎撮影画像eGiの撮影時刻)である。
v (t) = ds / dt ... (1)
However, v is the speed of the moving body, s is the position of the moving body, and t is the time (the shooting time of the captured image eGi for each line).
なお、ライン毎撮影画像eGiの撮影時刻としては、例えば、メタデータファイル(図示省略)などに記録される撮影開始時刻及び終了時刻が利用される。 As the shooting time of the shot image eGi for each line, for example, the shooting start time and the shooting end time recorded in a metadata file (not shown) are used.
因みに、人工衛星の速度(Vkm/秒)は地表からの高度によって異なり、地表からHkmの上空を円軌道で移動する人工衛星の速度Vは、下記式(2)から求められる。 Incidentally, the velocity (Vkm / sec) of the artificial satellite differs depending on the altitude from the ground surface, and the velocity V of the artificial satellite moving in a circular orbit over Hkm from the ground surface can be obtained from the following equation (2).
V=(398600/(6378+H))1/2 … (2)
ただし、398600(km3/秒2)は地球の重力についての定義、6378(km)は地球の赤道半径である。
V = (398600 / (6378 + H)) 1/2 ... (2)
However, 398600 (km 3 / sec 2 ) is the definition of the earth's gravity, and 6378 (km) is the radius of the earth's equatorial line.
したがって、例えば、地表から600kmの上空を円軌道で移動する人工衛星の速度Vは、約7.56km/秒となる。 Therefore, for example, the velocity V of an artificial satellite moving in a circular orbit 600 km above the surface of the earth is about 7.56 km / sec.
また、移動体情報算出部185においては、移動体の速度などに限らず、例えば、CO2排出量(輸送重量×走行距離×CO2排出原単位)などを推定するようにしても良い。
Further, the moving body
(動作説明)
次に、上記した構成の移動体検出システムの移動体検出装置16の動作について説明する。
(Operation explanation)
Next, the operation of the mobile
初めに、エリア抽出部165の処理を図9のフローチャートを用いて説明する。撮影画像用データベース163には、地球観測衛星12の人工衛星カメラ21によって撮影された、撮影エリアTEGに対応する、1ライン走査毎のライン毎撮影画像eGiが順に蓄積されているとして説明する。
First, the process of the
撮影画像用データベース163には、例えば図11(a)に示すように、X幅2.5m×Y幅50kmを1ラインとした、ライン毎同一波長成分画像Ri(R2)、ライン毎第1画像(R1)、ライン毎第2画像(G)、ライン毎第3画像(B)からなるライン毎撮影画像eGiの、少なくとも撮影日・時刻などのヘッダ情報EHiに対応付けられて特定エリアEWiに渡る個数が記憶されているとして説明する。
In the captured
エリア抽出部165は、オペレーション部167により指定された特定エリアEWiに相当する緯度、経度または時刻を読込む(S1)。
The
次に、エリア抽出部165は、例えば、色強調画像用メモリ173内に特定エリアEWiに対応する平面状(二次元状)のエリアWRiを確保する(S2)。エリアWRiとしては、例えば図11(b)に示すように、1メッシュが2.5m間隔のメッシュMiを定義可能なサイズとする。
Next, the
そして、特定エリアEWiにおける、指定された画像種のライン毎同一波長成分画像Ri(R2)と抽出したカラー合成画像GWiとを撮影画像用データベース163から読込み、抽出画像用メモリ169に記憶する(S3)。
Then, in the specific area EWi, the same wavelength component image Ri (R 2 ) for each line of the specified image type and the extracted color composite image GWi are read from the captured
前述の抽出画像用メモリ169は、カラー画像用メモリ169aとパンクロ画像生成用メモリ169bとからなり、抽出したカラー合成画像GWiは、カラー画像用メモリ169aに記憶され、ライン毎同一波長成分画像Ri(R2)は、パンクロ画像生成用メモリ169bに記憶される。
The above-mentioned extracted
抽出画像用メモリ169に記憶されたカラー合成画像GWiの対応する個数のライン毎第1画像(R1)及びライン毎同一波長成分画像Ri(R2)は、重ね合わせ部171によって合成された後、さらに、カラー合成画像GWiと重ね合わされることにより、色強調前のパンシャープン画像CP1として、色強調画像用メモリ173内に記憶される。
After the first image (R 1 ) for each line and the same wavelength component image Ri (R 2 ) for each line of the corresponding number of color composite images GWi stored in the memory for extracted
または、色強調前のパンシャープン画像CP1を表示制御部181内の画像メモリ181Mに書込んで、表示部183の画面上に表示させるようにしても良い。
Alternatively, the pan-sharpened image CP1 before color enhancement may be written in the
以下の説明では、画像種が白黒画像と指定され、特定エリアEWiに対応する個数の同一波長成分画像Ri(R2)と同じ個数のライン毎第1画像(R1)とを重ね合わせた白黒合成画像GEAiが、色強調画像用メモリ173内に記憶され、かつ、白黒合成画像GEAiとカラー画像用メモリ169aのカラー合成画像GWiとを重ね合わせた色強調前のパンシャープン画像CP1が、色強調画像用メモリ173のパンシャープン画像用記憶部に記憶されているとして説明する。
In the following description, the image type is designated as a black-and-white image, and the same number of same-wavelength component images Ri (R 2 ) corresponding to the specific area EWi and the same number of line-by-line first images (R 1 ) are superimposed in black and white. The composite image GEAi is stored in the color-enhanced
次に、移動体検出処理を、図10のフローチャートを用いて説明する。移動体検出処理は、移動体検出装置16の色強調部175及び画素移動体判定部177などが行う処理である。
Next, the moving object detection process will be described with reference to the flowchart of FIG. The moving body detection process is a process performed by the
図10に示すように、まず、色強調部175は、例えば、色強調画像用メモリ173に記憶された色強調前のパンシャープン画像CP1の、ピクセル座標Pzai(i,j)を指定する(S05)。
As shown in FIG. 10, first, the
そして、指定したピクセル座標Pzai(i,j)の画素データ(1ピクセル内のR2、R1、G、Bの成分:各ピクセル値)を読込む(S06)。そして、読込んだ画素データの各ピクセル値が全て同じかどうかを判断する(S07)。 Then, the pixel data of the designated pixel coordinates Pzai (i, j) ( components of R 2, R 1 , G, and B in one pixel: each pixel value) is read (S06). Then, it is determined whether or not all the pixel values of the read pixel data are the same (S07).
ステップS07では、各々のピクセル値が全て同じでない場合(R1≠G≠B)、カラー合成画像GWiの画像データと判定する。つまり、全てのピクセル値が等しくない場合に、その画素は、移動体(例えば、Tm2)のものであると判定される。 In step S07, when all the pixel values are not the same (R 1 ≠ G ≠ B), it is determined that the image data is the color composite image GWi. That is, when all the pixel values are not equal, it is determined that the pixel belongs to a moving body (for example, Tm2).
また、例えば図18(a)に示すように、全てのピクセル値が等しい場合に、その画素は、背景の白黒画像(一例として、R=G=B=108ならば黒PK、R=G=B=200ならば白PW)のものであると判定される(ただし、256階調の場合)。 Further, for example, as shown in FIG. 18A, when all the pixel values are equal, the pixel is a black-and-white image of the background (for example, if R = G = B = 108, black PK, R = G = If B = 200, it is determined to be white PW) (however, in the case of 256 gradations).
ステップS07で、カラー合成画像GWiの画素データと判定した場合(NO)は、指定したピクセル座標Pzai(i,j)に対応する画素の色種を決定する(S08)。 When it is determined in step S07 that the pixel data is the pixel data of the color composite image GWi (NO), the color type of the pixel corresponding to the designated pixel coordinates Pzai (i, j) is determined (S08).
例えば、各ピクセル値がR1=R2=G≠B(ただし、B>R1=R2=G)の場合は、「青」と判断する。また、各ピクセル値がR1=R2=B≠G(ただし、G>R1=R2=B)の場合は、「緑」と判断する。さらに、各ピクセル値がB=G≠(R1=R2)(ただし、R1=R2>G=B)の場合は、「赤」と判断する。一例として、256階調の場合において、例えば図18(a)に示すように、R=178で、G=B=129ならば赤(PR1)、G=178で、R=B=100ならば緑(PG)、B=178で、R=G=102ならば青(PB)と判断される。 For example, when each pixel value is R 1 = R 2 = G ≠ B (however, B> R 1 = R 2 = G), it is determined as “blue”. If each pixel value is R 1 = R 2 = B ≠ G (however, G> R 1 = R 2 = B), it is determined to be “green”. Further, when each pixel value is B = G ≠ (R 1 = R 2 ) (however, R 1 = R 2 > G = B), it is determined as “red”. As an example, in the case of 256 gradations, for example, as shown in FIG. 18A, if R = 178 and G = B = 129, then red (PR 1 ), if G = 178, and R = B = 100. For example, if green (PG) and B = 178 and R = G = 102, it is determined to be blue (PB).
そして、ステップS08で決定した色種を読込み、この色種を強調する(S10)。 Then, the color type determined in step S08 is read, and this color type is emphasized (S10).
例えば、各ピクセル値がB=G<Rの場合は、Rのピクセル値だけを最大値にし、赤(PR1)を強調させる。また、各ピクセル値がR=B<Gの場合は、Gのピクセル値だけを最大値にし、緑(PG)を強調させる。さらに、各ピクセル値がR=G<Bの場合は、Bのピクセル値だけを最大値にし、青(PB)を強調させる。最大値というのは、例えば、240〜255の範囲を含むとする(256階調の場合)。また、例えば図18(b)に示すように、最大値にするピクセル値以外の各ピクセル値は「0」にするようにしても良く、その色種をより強調させることができる。 For example, when each pixel value is B = G <R, only the pixel value of R is maximized and red (PR 1 ) is emphasized. When each pixel value is R = B <G, only the pixel value of G is maximized and green (PG) is emphasized. Further, when each pixel value is R = G <B, only the pixel value of B is maximized and blue (PB) is emphasized. The maximum value includes, for example, a range of 240 to 255 (in the case of 256 gradations). Further, for example, as shown in FIG. 18B, each pixel value other than the pixel value to be the maximum value may be set to "0", and the color type can be further emphasized.
すなわち、色強調部175においては、例えば図18(b)に示すように、最高の階調度が赤(PR1)ならば、R=255(G=B=0)、緑(PG)ならば、G=255(R=B=0)、青(PB)ならば、B=255(R=G=0)となるように、ステップS08で決定された色種のみが最大値に近似して補正(強調)される。
That is, in the
以上のような色強調処理によって、色強調前のパンシャープン画像CP1が色強調後のパンシャープン画像CP2とされることになる。例えば、所定の速度以上の速度で移動する移動体は、R1、G、Bの色ずれを伴うカラー画像として強調表示されることになる。 By the color enhancement processing as described above, the pan-sharpened image CP1 before color enhancement becomes the pan-sharpened image CP2 after color enhancement. For example, the moving body which moves at a predetermined speed or faster is, R 1, G, will be highlighted as a color image with a color shift B.
次いで、色強調部175は、ピクセル座標Pzai(i,j)が他にあるかどうかを判断する(S12)。
Next, the
ステップS12で、ピクセル座標Pzai(i,j)が他にあると判断した場合(YES)は、ピクセル座標Pzai(i,j)を更新して、処理をステップS06に戻す(S13)。 If it is determined in step S12 that there is another pixel coordinate Pzai (i, j) (YES), the pixel coordinate Psai (i, j) is updated and the process returns to step S06 (S13).
一方、ステップS07で、各ピクセル値がほぼ同じ(R1=G=B)と判定した場合(YES)は、モノクロ画像の画素と判定し、処理をステップS12に移す。 On the other hand, if it is determined in step S07 that the pixel values are substantially the same (R 1 = G = B) (YES), it is determined that the pixels are monochrome images, and the process proceeds to step S12.
また、画素移動体判定部177は、ステップS12で、ピクセル座標Pzai(i,j)が他にないと判断した場合(NO)、ピクセル座標Pzai(i,j)を順次指定し(S14、S15)、「j」の値がマックス値(例えば、max=768)になるまで、ステップS06〜を繰り返す。
Further, when the pixel moving
こうして、各画素が、例えば、「青」、「緑」、または「赤」を示している場合は、移動体を示すカラー画像と判断する(図11(b)参照)。 In this way, when each pixel indicates, for example, "blue", "green", or "red", it is determined to be a color image indicating a moving object (see FIG. 11B).
「j」の値が最大値の場合(S14:YES)には、この色強調後のパンシャープン画像CP2を移動体検出画像CPとして、表示制御部181の画像メモリ181Mに書込んで(S16)、表示部183の画面上に表示させる(S17)。
When the value of "j" is the maximum value (S14: YES), the pan-sharpened image CP2 after color enhancement is written as the moving object detection image CP in the
この後、表示部183の画面上に移動体検出画像CPが表示された状態において、例えば、移動体情報算出部185によって移動速度などの算出が必要に応じて行われる。
After that, in a state where the moving body detection image CP is displayed on the screen of the
図12は、走行中の車両(移動体)を例に、移動体検出画像CPの一例を示すものである。なお、図12(a)は、色強調処理を施す前のパンシャープン画像CP1であり、図12(b)は、色強調処理を施した後のパンシャープン画像CP2である。 FIG. 12 shows an example of a moving body detection image CP, taking a moving vehicle (moving body) as an example. Note that FIG. 12A is a pan-sharpened image CP1 before the color enhancement process is applied, and FIG. 12B is a pan-sharpened image CP2 after the color enhancement process is applied.
色強調後のパンシャープン画像CP2においては、例えば図12(b)に示すように、停止中の車両や道路または建物などを含む背景(静止物体)はモノクロ画像として、走行中の車両のみがTm1(B、G、R1)またはTm2(R1、G、B)のようにカラー画像として表示されるとともに、図12(a)の色強調前のパンシャープン画像CP1の場合よりも、表示のカラー画像がより強調される。 In the pan-sharpened image CP2 after color enhancement, for example, as shown in FIG. 12B, the background (stationary object) including a stopped vehicle, a road, a building, etc. is a monochrome image, and only the moving vehicle is used. tm1 (B, G, R 1 ) or Tm2 (R 1, G, B ) while being displayed as a color image as in, than for color enhancement previous pan-sharpened image CP1 of FIG. 12 (a), The color image of the display is more emphasized.
なお、カラー画像における色種の順番(R1、G、BまたはB、G、R1)の異なりは、走行中の車両Tm1、Tm2の移動方向の違いによる。 The difference in the order of the color types (R 1 , G, B or B, G, R 1 ) in the color image depends on the difference in the moving directions of the moving vehicles Tm1 and Tm2.
また、走行中の車両Tm1、Tm2の近傍に進行方向(移動方向)を示す矢印を表示させたり、移動速度を示す数値(時速)などを表示させたりするようにしても良い。 Further, an arrow indicating the traveling direction (moving direction) may be displayed in the vicinity of the traveling vehicles Tm1 and Tm2, or a numerical value (speed) indicating the moving speed may be displayed.
なお、画像合成処理については、重ね合わせ部171において、ラインディレイ補正などの処理を実施した後に、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせることにより作成できるので、ここでの詳細な説明は省略する。
Regarding the image composition process, after performing processing such as line delay correction in the
図13(a),(b)は、移動体検出画像CPにおける移動体の表示特性を示すものである。 13 (a) and 13 (b) show the display characteristics of the moving body in the moving body detection image CP.
すなわち、一定速度以上のスピードで走行中の車両Tmの場合、例えば図13(a)に示すように、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせたとしても、車両Tmの画素間の移動が、その移動速度に応じて数ピクセルから十数ピクセルにおよぶため、移動体検出画像CPにおけるR1、G、Bの色ずれが大きくなる。 That is, in the case of a vehicle Tm traveling at a speed equal to or higher than a certain speed, as shown in FIG. even combined, movement between the pixels of the vehicle Tm is because the spanning ten pixels from several pixels in accordance with the moving speed, R 1, in the moving object detecting image CP G, the color shift of B increases.
これに対し、停止中の車両Tsの場合は、例えば図13(b)に示すように、簡単なラインディレイ補正などにより、各バンドのカラー画像がほぼ重なり合うので、移動体検出画像CPにおけるR1、G、Bの色ずれは小さくなる。つまり、停止中の車両Tsは、道路または建物などを含む背景(静止物体)と同様にモノクロ画像として表示される。 On the other hand, in the case of the stopped vehicle Ts, as shown in FIG. 13B, for example, the color images of the bands almost overlap each other due to a simple line delay correction or the like, so that R 1 in the moving object detection image CP , G, B color shift becomes small. That is, the stopped vehicle Ts is displayed as a monochrome image in the same manner as the background (stationary object) including a road, a building, or the like.
図14は、マルチスペクトルセンサ装置214における各画像用ラインセンサ214R2、214R1、214G、214Bの配置例(ライン配列)を模式的に示すものである。
FIG. 14 schematically shows an arrangement example (line arrangement) of the line sensors 214R 2 , 214R 1 , 214G, and 214B for each image in the
本実施の形態1においては、RGBカラー合成画像を生成するためのR1画像用ラインセンサ214R1とG画像用ラインセンサ214GとB画像用ラインセンサ214Bの、例えば、R1画像用ラインセンサ214R1に隣接するようにして、同一波長成分画像用ラインセンサ214R2が並列に配置されたマルチスペクトルセンサ装置214を採用している。すなわち、マルチスペクトルセンサ装置214の場合は、R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2とが、パンクロマチック画像を取得するためのモノクロ画像用ラインセンサとなっている。
In the first embodiment, the R 1
なお、マルチスペクトルセンサ装置214においては、R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2とを隣接させず、R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2との間に、G画像用ラインセンサ214GとB画像用ラインセンサ214Bとを配置するようにしても良い(例えば、R1、G、B、R2)。
In the
また、いずれの場合においても、R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2とを入れ替えることも可能である。
Further, in any case, it is possible to replace the R 1
R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2との間に、G画像用ラインセンサ214GとB画像用ラインセンサ214Bとを配置するようにしたマルチスペクトルセンサ装置214IIについては、本実施の形態2として後述する。
Regarding the multispectral sensor device 214II in which the G
ここで、上記した構成のマルチスペクトルセンサ装置214を用いて、移動体をカラー表示させる場合の表示例について、さらに説明する。
Here, a display example in which a moving body is displayed in color by using the
図15(a),(b)は、停止中の車両Tsとその表示例とを示すもので、停止中の車両Tsの場合、カラー表示にR1、G、Bの色ずれは殆んど発生しない。 Figure 15 (a), (b) is shows a display example thereof with the vehicle Ts suspended, if the vehicle Ts suspended, R 1, G, color deviation of B in color display殆Ndo Does not occur.
図16(a),(b)は、低速走行中の車両Tmaとその表示例とを示すもので、低速走行中の車両Tmaが図示実線の位置から図示破線の位置まで移動するのに伴って、カラー表示のR1、G、Bに若干の色ずれが発生する。 16 (a) and 16 (b) show a vehicle Tma traveling at low speed and a display example thereof, and as the vehicle Tma traveling at low speed moves from the position shown by the solid line in the figure to the position shown by the broken line in the figure. color display of R 1, G, slight color shift to B occurs.
図17(a),(b)は、高速走行中の車両Tmbとその表示例とを示すもので、高速走行中の車両Tmbが図示実線の位置から図示破線の位置まで移動するのに伴って、カラー表示にR1、G、Bの大きな色ずれが発生する。 17 (a) and 17 (b) show a vehicle Tmb traveling at high speed and a display example thereof, and as the vehicle Tmb traveling at high speed moves from the position of the solid line in the figure to the position of the broken line in the figure. , R 1, G, a large color shift B occurs in a color display.
したがって、移動体検出画像CPにおいては、カラー表示が強調されることによって走行中の車両Tm(Tma、Tmb)を、より容易に識別できるとともに、カラー表示の色ずれの程度に応じて、走行中の車両Tmが高速走行中の車両Tmbか、低速走行中の車両Tmaかを簡単に判別することが可能である。 Therefore, in the moving object detection image CP, the moving vehicle Tm (Tma, Tmb) can be more easily identified by emphasizing the color display, and the vehicle is running according to the degree of color shift of the color display. It is possible to easily determine whether the vehicle Tm of the vehicle Tm is a vehicle Tmb traveling at high speed or a vehicle Tma traveling at low speed.
また、カラー表示のR1、G、Bの並びは、走行中の車両Tmの移動方向とマルチスペクトルセンサ装置214のライン配列とに依存するため、走行中の車両Tm(Tma、Tmb)がどちらの方向に移動しているかを自動的に認識できる。
Further, since the arrangement of R 1 , G, and B in the color display depends on the moving direction of the running vehicle Tm and the line arrangement of the
上記したように、本実施の形態1によれば、より効率的に走行中の車両を検出できるとともに、検出された走行中の車両の速度や方向を正確かつ自動的に把握できるようになる。 As described above, according to the first embodiment, the traveling vehicle can be detected more efficiently, and the detected speed and direction of the traveling vehicle can be accurately and automatically grasped.
すなわち、インターライン型構造のマルチスペクトルセンサ装置を用いて、ライン毎撮影画像eGiを取得する際に、同じバンドのラインセンサを2つ以上配置し、ライン間における信号電荷の読出し時間のわずかな差を利用して、1シーン分の移動体検出画像を取得するようにしている。 That is, when acquiring the captured image eGi for each line using the multispectral sensor device having an interline type structure, two or more line sensors of the same band are arranged, and a slight difference in signal charge reading time between the lines. Is used to acquire moving object detection images for one scene.
これにより、静止物体はグレースケールによって、移動体は色付きの画像として、移動体検出画像上にそれぞれ表示できるようになるため、移動体検出画像上に走行中の車両だけをカラー表示させることが可能となる。 As a result, the stationary object can be displayed in grayscale and the moving body can be displayed as a colored image on the moving body detection image, so that only the moving vehicle can be displayed in color on the moving body detection image. It becomes.
しかも、走行中の車両をより強調させて表示させることが可能となるため、走行中の車両を確実に検出できるようになるとともに、検出された走行中の車両の速度や移動方向または個数などをも容易に算出できるようになる。 Moreover, since it is possible to emphasize the running vehicle and display it, the running vehicle can be reliably detected, and the detected speed, moving direction, number, etc. of the running vehicle can be detected. Can be easily calculated.
したがって、従来のように前方視画像や直下視画像などのペア画像を用意せずとも、走行中の車両を静止物体と明確に区別でき、走行中の車両のみを効率良く検出できるマルチラインイメージセンサ装置、撮影装置、移動体検出システム、移動体検出装置、及び移動体検出プログラムを提供できる。 Therefore, a multi-line image sensor that can clearly distinguish a moving vehicle from a stationary object and efficiently detect only a moving vehicle without preparing a pair image such as a front view image or a direct view image as in the conventional case. Devices, imaging devices, moving body detection systems, moving body detection devices, and moving body detection programs can be provided.
なお、上記した実施の形態1においては、地球観測衛星12などの人工衛星に、マルチスペクトルセンサ装置214を内蔵する人工衛星カメラ21を搭載し、ライン毎撮影画像eGiを撮影するようにした場合を例に説明したが、プラットフォームとしては人工衛星に限らず、例えば、航空機、無人航空機、CCTV(Closed-Circuit television)、プリンタ、または顕微鏡などであっても良い。
In the first embodiment described above, an
また、人工衛星としては、地球観測衛星12に限定されないことは勿論である。
Needless to say, the artificial satellite is not limited to the
また、マルチスペクトルセンサ装置214は、図19または図20に示すような構成としても良い。
Further, the
図19は、本実施の形態に係るマルチスペクトルセンサ装置の他の構成例を示すもので、マルチスペクトルセンサ装置2141としては、例えば、R1画像用ラインセンサ214R1、同一波長成分画像用ラインセンサ214R2、G画像用ラインセンサ214G、及びB画像用ラインセンサ214Bが、それぞれ、3分割されたラインセンサを備えて構成されるものであっても良い。
FIG. 19 shows another exemplary configuration of the multi-spectral sensor device according to this embodiment, the multi-spectral as the
すなわち、R1画像用ラインセンサ214R1は、ラインセンサ214R1a、214R1b、214R1cにより形成され、同一波長成分画像用ラインセンサ214R2は、ラインセンサ214R2a、214R2b、214R2cにより形成され、G画像用ラインセンサ214Gは、ラインセンサ214Ga、214Gb、214Gcにより形成され、B画像用ラインセンサ214Bは、ラインセンサ214Ba、214Bb、214Bcにより形成されている。
That is, the R 1
図20は、本実施の形態に係るマルチスペクトルセンサ装置のさらに別の構成例を示すもので、マルチスペクトルセンサ装置2142としては、例えば、ラインセンサ214R1a、214R1b、214R1cにより形成されるR1画像用ラインセンサと、ラインセンサ214R2a、214R2b、214R2cにより形成される同一波長成分画像用ラインセンサと、ラインセンサ214Ga、214Gb、214Gcにより形成されるG画像用ラインセンサと、ラインセンサ214Ba、214Bb、214Bcにより形成されるB画像用ラインセンサと、を備えた構成としても良い。
FIG. 20 shows still another configuration example of the multi-spectral sensor device according to the present embodiment, and the
また、追加のラインセンサとしては、同一波長成分画像用ラインセンサ214R2によらず、G画像用ラインセンサまたはB画像用ラインセンサであっても良いし、同種のラインセンサを2ライン分以上追加するようにしても良い(例えば、R1、R2、R3)。 Further, the additional line sensor may be a G image line sensor or a B image line sensor regardless of the same wavelength component image line sensor 214R 2 , and two or more lines of the same type may be added. (For example, R 1 , R 2 , R 3 ).
図21は、マルチスペクトルセンサ装置214aを構成するようにした場合の第1変形例である。すなわち、このマルチスペクトルセンサ装置214aの場合は、例えば、B1画像用ラインセンサ214B1とB2画像用ラインセンサ(同一波長成分画像用ラインセンサ)214B2とが、パンクロマチック画像を取得するためのモノクロ画像用ラインセンサとなっている。
FIG. 21 is a first modification when the
図22は、マルチスペクトルセンサ装置214bを構成するようにした場合の第2変形例である。すなわち、このマルチスペクトルセンサ装置214bの場合は、例えば、R1画像用ラインセンサ214R1とR2画像用ラインセンサ(第1の同一波長成分画像用ラインセンサ)214R2とR3画像用ラインセンサ(第2の同一波長成分画像用ラインセンサ)214R3とが、パンクロマチック画像を取得するためのモノクロ画像用ラインセンサとなっている。
FIG. 22 is a second modification when the
図23は、赤外(IR)または近赤外(NIR)用のラインセンサ214Wを備えて、マルチスペクトルセンサ装置214cを構成するようにした場合の第3変形例である。すなわち、このマルチスペクトルセンサ装置214cの場合は、例えば、R1画像用ラインセンサ214R1とR2画像用ラインセンサ(第2の同一波長成分画像用ラインセンサ)214R2とが、パンクロマチック画像を取得するためのモノクロ画像用ラインセンサとなっている。
FIG. 23 is a third modification in the case where the
このように、マルチスペクトルセンサ装置214、214a、214b、214cは、1ライン走査分のカラー画像を同一時刻にて一度に取得できる既存のCCDラインセンサに、さらに、R、G、Bのいずれかと同じバンドのセンサが少なくとも1ライン分以上新たに追加された構成とすることにより、移動体検出装置16での移動体検出画像CPの作成に伴って、移動体(画像の読込みの間に動いたもの)の色ずれをより明確に区別して表現できるようになる。
As described above, the
また、移動体としては車両に限らず、マルチスペクトルセンサ装置での露光時間を、例えば、移動体検出装置16から任意にコントロールできるようにすることで、船舶、航空機(Unmanned Aerial vehicle;UAVを含む)、雲、人、野生動物、または波など、あらゆる速度で移動する移動体の検出に対応できる。
Further, the moving body is not limited to the vehicle, and the exposure time in the multispectral sensor device can be arbitrarily controlled from, for example, the moving
図24は、移動体検出画像(イメージ画像)CPaから、移動体としての雲Taを検出する場合を例に示すものである。 FIG. 24 shows a case where cloud Ta as a moving body is detected from the moving body detection image (image image) CPa as an example.
雲Taを検出する場合においては、例えば、影の大きさなどから、雲Taの高度や移動速度、成長の速度または大きさなどの算出が可能となる。特に、雲Taの成長する速度や大きさなどを算出できるようにすることで、積乱雲の発生に伴う雷雨や集中豪雨(ゲリラ豪雨)などの警戒域を特定するような場合にも適用できる。 When detecting cloud Ta, for example, it is possible to calculate the altitude, moving speed, growth speed or size of cloud Ta from the size of shadows and the like. In particular, by making it possible to calculate the growth speed and size of cloud Ta, it can be applied to the case of specifying a warning zone such as a thunderstorm or a torrential rain (guerrilla rainstorm) due to the occurrence of cumulonimbus clouds.
図25(a)〜図25(d)は、移動体検出画像(イメージ画像)CPbから、移動体としての波Tbを検出する場合を例に示すものである。 25 (a) to 25 (d) show an example of detecting a wave Tb as a moving body from a moving body detection image (image image) CPb.
波Tbを検出する場合においては、例えば、波Tbの速度や大きさなどの算出が可能となる。特に、波Tbの速度や大きさなどを算出できるようにすることで、津波や海面の水位や流速の観測、または、波の位相の監視などにも適用できる。 When detecting the wave Tb, for example, the velocity and magnitude of the wave Tb can be calculated. In particular, by making it possible to calculate the velocity and magnitude of the wave Tb, it can be applied to the observation of the water level and flow velocity of the tsunami and the sea surface, or the monitoring of the phase of the wave.
移動体としての波(津波)を検出する検出システムの具体例については、本実施の形態3として後述する。 A specific example of a detection system that detects a wave (tsunami) as a moving body will be described later as the third embodiment.
<実施の形態2>
次に、本実施の形態2に係るマルチスペクトルセンサ装置(マルチラインイメージセンサ装置)が適用される移動体検出システムの構成について説明する。この実施の形態2は、マルチスペクトルセンサ装置のライン配列を、解像度に対する影響がより小さくなるようにした場合の例である。なお、上述した実施の形態1と同一部分には同一または類似の符号を付し、詳しい説明は省略する。
<
Next, a configuration of a mobile detection system to which the multispectral sensor device (multiline image sensor device) according to the second embodiment is applied will be described. The second embodiment is an example in which the line arrangement of the multispectral sensor device has a smaller influence on the resolution. The same parts as those in the first embodiment described above are designated by the same or similar reference numerals, and detailed description thereof will be omitted.
図26は、マルチスペクトルセンサ装置(MSS)214IIを備えた人工衛星カメラ21の構成を概略的に示すものであって、図1及び図2に示した移動体検出システムにおける地球観測衛星12に搭載されるものとして説明する。
FIG. 26 schematically shows the configuration of the
本実施の形態2の人工衛星カメラ21は、三原色画像ラインセンサ(R1画像用ラインセンサ214R1、G画像用ラインセンサ214G、B画像用ラインセンサ214B)の他に、同一波長成分画像用ラインセンサ(例えば、R2画像用ラインセンサ214R2)をさらに備えてなる、いわゆる4ライン方式のマルチスペクトルセンサ装置214IIを備える。
The
ただし、このマルチスペクトルセンサ装置214IIは、例えば平面視において、R1画像用ラインセンサ214R1、G画像用ラインセンサ214G、B画像用ラインセンサ214Bの順に配置された既存の3ライン方式のマルチスペクトルセンサの、そのB画像用ラインセンサ214Bの外側に隣接するようにして、同一波長成分画像用ラインセンサ214R2が所定の間隔(物理的離隔距離)BDを有して並列に配置されている。
However, this multi-spectral sensor device 214II is an existing 3-line multi-spectral system in which the R 1
すなわち、本実施の形態2に係るマルチスペクトルセンサ装置214IIは、例えば図26に示すように、一端側のR1画像用ラインセンサ214R1と他端側の同一波長成分画像用ラインセンサ214R2との間に、G画像用ラインセンサ214GとB画像用ラインセンサ214Bとが配置されている点で、実施の形態1に係るマルチスペクトルセンサ装置214とは構成が異なる。
That is, the multi-spectral sensor device 214II according to the second embodiment, as shown in FIG. 26, the same wavelength component
このような構成のマルチスペクトルセンサ装置214IIによれば、移動体検出用のマルチラインイメージセンサとしての機能を備えたことによって、例えば解像度はそのままに、RGBカラー合成画像の撮影が可能な既存の三原色画像ラインセンサとしての役割を果たしながら、移動体だけをカラー画像により強調表示させ、それ以外の静止物体をモノクロ表示させた移動体検出画像CPを容易に取得できるようになる。 According to the multi-spectral sensor device 214II having such a configuration, by providing a function as a multi-line image sensor for detecting a moving object, for example, the existing three primary colors capable of capturing an RGB color composite image while maintaining the same resolution. While playing the role of an image line sensor, it becomes possible to easily acquire a moving object detection image CP in which only a moving object is highlighted by a color image and other stationary objects are displayed in monochrome.
これにより、移動体検出画像CP上において、より一層、移動体だけを目立たせることが可能となる。したがって、1シーン分の移動体検出画像CPから目視によって移動体(変化分)を簡単に検出できるようになるとともに、コンピュータ処理においても、移動体を効率良く自動抽出することが可能となる。 This makes it possible to make only the moving body stand out even more on the moving body detection image CP. Therefore, the moving body (change) can be easily detected visually from the moving body detection image CP for one scene, and the moving body can be efficiently and automatically extracted even in computer processing.
図27は、マルチスペクトルセンサ装置214の断面構造を概略的に示すものであって、ここでは、図26のII−II線に沿う断面を例示して説明する。
FIG. 27 schematically shows a cross-sectional structure of the
マルチスペクトルセンサ装置214IIにおいて、R1画像用ラインセンサ214R1は、例えば、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214R1pとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214R1fとなる垂直CCDのレジスタ部(n+型層)214R1tと、を備える。
In the multispectral sensor device 214II, the R 1
同様に、G画像用ラインセンサ214Gは、例えばR1画像用ラインセンサ214R1の一端側に物理的離隔距離BDを有して隣接配置されており、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214GpとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214Gfとなる垂直CCDのレジスタ部(n+型層)214Gtと、を備える。
Similarly, the G
同様に、B画像用ラインセンサ214Bは、例えばG画像用ラインセンサ214Gの一端側に物理的離隔距離BDを有して隣接配置されており、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214BpとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214Bfとなる垂直CCDのレジスタ部(n+型層)214Btと、を備える。
Similarly, the B
同様に、同一波長成分画像用ラインセンサ214R2は、例えばB画像用ラインセンサ214Bの一端側に物理的離隔距離BDを有して隣接配置されており、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214R2pとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214R2fとなる垂直CCDのレジスタ部(n+型層)214R2tと、を備える。
Similarly, the same wavelength component
また、各画像用ラインセンサ214R1、214G、214B、214R2は、受光領域234を除く、p型Si基板230上またはp型ウェル232上に、絶縁膜236を介して設けられたポリSi電極G238と、ポリSi電極238上に絶縁膜236を介して設けられ、受光領域234の一部に開口を有する遮光膜240と、全面に設けられた透明な樹脂層242と、をそれぞれ備える。
Further, each of the
そして、R1画像用ラインセンサ214R1は、受光領域234に対応する、樹脂層242の上面部にオンチップで設けられ、例えば、波長620〜750nmの帯域の光を透過するR1画像用カラーフィルタ244R1と、R1画像用カラーフィルタ244R1に対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、をさらに備える。
The R 1
また、G画像用ラインセンサ214Gは、受光領域234に対応する、樹脂層242の上面部にオンチップで設けられ、例えば、波長495〜590nmの帯域の光を透過するG画像用カラーフィルタ244Gと、G画像用カラーフィルタ244Gに対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、をさらに備える。
Further, the G
また、B画像用ラインセンサ214Bは、受光領域234に対応する、樹脂層242の上面部にオンチップで設けられ、例えば、波長450〜495nmの帯域の光を透過するB画像用カラーフィルタ244Bと、B画像用カラーフィルタ244Bに対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、をさらに備える。
Further, the B
また、同一波長成分画像用ラインセンサ214R2は、受光領域234に対応する、樹脂層242の上面部にオンチップで設けられ、上述のR1画像用カラーフィルタ244R1と同一の、例えば、波長620〜750nmの帯域の光を透過するR2画像用カラーフィルタ244R2と、R2画像用カラーフィルタ244R2に対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、をさらに備える。
Further, the same wavelength component
上記した構成のマルチスペクトルセンサ装置214IIの場合も、各波長の帯域は一例であり、画像用ラインセンサ214R1、214G、214B、214R2毎に半値幅などが異なるものであっても良い。 Also in the case of the multispectral sensor device 214II having the above configuration, the band of each wavelength is an example, and the half width and the like may be different for each of the image line sensors 214R 1 , 214G, 214B, and 214R 2.
図28は、本実施の形態2に係るマルチスペクトルセンサ装置214IIにおける各画像用ラインセンサ214R1、214G、214B、214R2の配置例(ライン配列)を模式的に示すものである。 FIG. 28 schematically shows an arrangement example (line arrangement) of the line sensors 214R 1 , 214G, 214B, and 214R 2 for images in the multispectral sensor device 214II according to the second embodiment.
本実施の形態2においては、図28に示すように、RGBカラー合成画像を生成するためのR1画像用ラインセンサ214R1とG画像用ラインセンサ214GとB画像用ラインセンサ214Bの、例えば、B画像用ラインセンサ214Bに隣接するようにして、同一波長成分画像用ラインセンサ214R2が並列に配置されたマルチスペクトルセンサ装置214IIを採用している。すなわち、このマルチスペクトルセンサ装置214IIの場合も、R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2とが、パンクロマチック画像を合成するためのモノクロ画像用ラインセンサとなっている。
In the second embodiment, as shown in FIG. 28, for example, the R 1
ここで、本実施の形態2に係るマルチスペクトルセンサ装置214IIにおいては、R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2との間に、少なくともG画像用ラインセンサ214GまたはB画像用ラインセンサ214Bのいずれか一方を配置するようにしている。R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2とを隣接させないことで、解像度が変化する(例えば、2倍になる)のを防止できる。
Here, in the multispectral sensor device 214II according to the second embodiment, at least the G
なお、R1画像用ラインセンサ214R1と同一波長成分画像用ラインセンサ214R2とを隣接配置しないことを除けば、SD方向とほぼ直交するライン方向に対して、各画像用ラインセンサ214R1、214G、214B、214R2は自由に配置できる。
Except that the R 1
また、特定エリアEWiを指定するための情報としては、平面直角座標、緯度、経度、撮影対象の地域名や住所、撮影日、撮影時刻(撮影開始時刻及び終了時刻)、または、全カラー合成画像AEGi上の座標(例えば、XaYa〜XfYf)などがあげられる。 The information for designating the specific area EWi includes plane rectangular coordinates, latitude, longitude, area name and address of the shooting target, shooting date, shooting time (shooting start time and end time), or all-color composite image. Coordinates on AEGi (for example, XaYa to XfYf) and the like can be mentioned.
さらには、図29に示すように、例えば東京都(JMa)、港区(MM)、台場付近(DM)といったエリア名によって、特定エリアEWiを指定できるようにしても良い。 Further, as shown in FIG. 29, a specific area EWi may be designated by an area name such as Tokyo (JMa), Minato Ward (MM), or Daiba area (DM).
次に、マルチスペクトルセンサ装置214IIによるライン走査のタイミングについて図30、図31、図32を用いて説明を補充する。 Next, the description of the timing of line scanning by the multispectral sensor device 214II will be supplemented with reference to FIGS. 30, 31, and 32.
図30(a)〜図30(p)は、移動体を停止中の車両Tsとした場合を例に示すもので、ここでは、図30(a)に示すように、マルチスペクトルセンサ装置214IIは、図示(A)、(B)、(C)、(D)の順に、SD方向に一定の速度で移動しながらライン走査するものとする。 30 (a) to 30 (p) show an example in which the moving body is a stopped vehicle Ts. Here, as shown in FIG. 30 (a), the multispectral sensor device 214II is , (A), (B), (C), (D) in the figure, line scanning while moving at a constant speed in the SD direction.
また、停止中の車両Tsの場合、R1画像用ラインセンサ214R1による露光の終了からG画像用ラインセンサ214Gによる露光の開始までの間、G画像用ラインセンサ214Gによる露光の終了からB画像用ラインセンサ214Bによる露光の開始までの間、B画像用ラインセンサ214Bによる露光の終了から同一波長成分画像用ラインセンサ214R2による露光の開始までの間には、それぞれ、時間t1、時間t2、時間t3が存在するものとする(t1=t2=t3)。
In the case of the stopped vehicle Ts, from the end of the exposure by the R 1
停止中の車両Tsは、図30(b)に示すように、例えば移動体検出装置16からの撮影命令にしたがって、まずは図示(A)のタイミングにおいて、図30(c)に示すように、R1画像用ラインセンサ214R1のフォトダイオードPD群214R1pによって露光される。そして、そのフォトダイオードPD群214R1pの信号電荷は、露光の終了に伴って、図30(d),(e)に示すように、波形成型出力に応じた時間L1で、R1画像用ラインセンサ214R1のCCD群214R1fへと転送される。
As shown in FIG. 30 (b), the stopped vehicle Ts first follows a shooting command from, for example, the moving
次いで、停止中の車両Tsは、図示(B)のタイミングにおいて、図30(f)に示すように、G画像用ラインセンサ214GのフォトダイオードPD群214Gpによって露光される。そして、そのフォトダイオードPD群214Gpの信号電荷は、露光の終了に伴って、図30(g),(h)に示すように、G画像用ラインセンサ214GのCCD群214Gfへと転送される。
Next, the stopped vehicle Ts is exposed at the timing shown in FIG. 30B by the photodiode PD group 214Gp of the G
次いで、停止中の車両Tsは、図示(C)のタイミングにおいて、図30(i)に示すように、B画像用ラインセンサ214BのフォトダイオードPD群214Bpによって露光される。そして、そのフォトダイオードPD群214Bpの信号電荷は、露光の終了に伴って、図30(j),(k)に示すように、B画像用ラインセンサ214BのCCD群214Bfへと転送される。
Next, the stopped vehicle Ts is exposed by the photodiode PD group 214Bp of the B
次いで、停止中の車両Tsは、図示(D)のタイミングにおいて、図30(m)に示すように、同一波長成分画像用ラインセンサ214R2のフォトダイオードPD群214R2pによって露光される。そして、そのフォトダイオードPD群214R2pの信号電荷は、露光の終了に伴って、図30(n),(p)に示すように、同一波長成分画像用ラインセンサ214R2のCCD群214R2fへと転送される。
Then, the vehicle Ts suspended at the timing shown (D), as shown in FIG. 30 (m), are exposed by the
図31(a)〜図31(p)は、移動体を低速走行中の車両Tmaとした場合を例に示すもので、ここでは、図31(a)に示すように、マルチスペクトルセンサ装置214IIは、図示(A)、(B)、(C)、(D)の順に、SD方向に一定の速度で移動しながらライン走査するものとする。 31 (a) to 31 (p) show an example in which the moving body is a vehicle Tma traveling at a low speed. Here, as shown in FIG. 31 (a), the multispectral sensor device 214II Is line-scanned while moving at a constant speed in the SD direction in the order of (A), (B), (C), and (D) shown in the figure.
また、低速走行中の車両Tmaの場合、車両Tmaが所定の速度により図示矢印MD方向に移動しているものとすると、R1画像用ラインセンサ214R1による露光の終了からG画像用ラインセンサ214Gによる露光の開始までの間、G画像用ラインセンサ214Gによる露光の終了からB画像用ラインセンサ214Bによる露光の開始までの間、B画像用ラインセンサ214Bによる露光の終了から同一波長成分画像用ラインセンサ214R2による露光の開始までの間には、それぞれ速度に応じて、時間t1’(t1’<t1)、時間t2’(t2’<t2)、時間t3’(t3’<t3)が存在するものとする(t1’=t2’=t3’)。
Further, when the vehicle Tma during low-speed running, the vehicle when Tma is assumed to have moved to the arrow MD direction by a predetermined speed, the line sensor G image from the end of exposure by R 1
低速走行中の車両Tmaは、図31(b)に示すように、例えば移動体検出装置16からの撮影命令にしたがって、まずは図示(A)のタイミングにおいて、図31(c)に示すように、R1画像用ラインセンサ214R1のフォトダイオードPD群214R1pによって露光される。そして、そのフォトダイオードPD群214R1pの信号電荷は、露光の終了に伴って、図31(d),(e)に示すように、波形成型出力に応じた時間L1’で、R1画像用ラインセンサ214R1のCCD群214R1fへと転送される。
As shown in FIG. 31 (b), the vehicle Tma traveling at a low speed first follows a shooting command from, for example, the moving
次いで、低速走行中の車両Tmaは、図示(B)のタイミングにおいて、図31(f)に示すように、G画像用ラインセンサ214GのフォトダイオードPD群214Gpによって露光される。そして、そのフォトダイオードPD群214Gpの信号電荷は、露光の終了に伴って、図31(g),(h)に示すように、G画像用ラインセンサ214GのCCD群214Gfへと転送される。
Next, the vehicle Tma traveling at a low speed is exposed at the timing shown in FIG. 31 (B) by the
次いで、低速走行中の車両Tmaは、図示(C)のタイミングにおいて、図31(i)に示すように、B画像用ラインセンサ214BのフォトダイオードPD群214Bpによって露光される。そして、そのフォトダイオードPD群214Bpの信号電荷は、露光の終了に伴って、図31(j),(k)に示すように、B画像用ラインセンサ214BのCCD群214Bfへと転送される。
Next, the vehicle Tma traveling at a low speed is exposed by the photodiode PD group 214Bp of the B
次いで、低速走行中の車両Tmaは、図示(D)のタイミングにおいて、図31(m)に示すように、同一波長成分画像用ラインセンサ214R2のフォトダイオードPD群214R2pによって露光される。そして、そのフォトダイオードPD群214R2pの信号電荷は、露光の終了に伴って、図31(n),(p)に示すように、同一波長成分画像用ラインセンサ214R2のCCD群214R2fへと転送される。
Then, the vehicle Tma in low speed at the timing shown (D), as shown in FIG. 31 (m), are exposed by the
図32(a)〜図32(p)は、移動体を高速走行中の車両Tmbとした場合を例に示すもので、ここでは、図32(a)に示すように、マルチスペクトルセンサ装置214IIは、図示(A)、(B)、(C)、(D)の順に、SD方向に一定の速度で移動しながらライン走査するものとする。 32 (a) to 32 (p) show an example in which the moving body is a vehicle Tmb traveling at high speed. Here, as shown in FIG. 32 (a), the multispectral sensor device 214II Is line-scanned while moving at a constant speed in the SD direction in the order of (A), (B), (C), and (D) shown in the figure.
また、高速走行中の車両Tmbの場合、車両Tmbが所定の速度以上の速度により図示矢印MD方向に移動しているものとすると、R1画像用ラインセンサ214R1による露光の終了からG画像用ラインセンサ214Gによる露光の開始までの間、G画像用ラインセンサ214Gによる露光の終了からB画像用ラインセンサ214Bによる露光の開始までの間、B画像用ラインセンサ214Bによる露光の終了から同一波長成分画像用ラインセンサ214R2による露光の開始までの間には、それぞれ速度に応じて、時間t1’’(t1’’<t1’)、時間t2’’(t2’’<t2’)、時間t3’’(t3’’<t3’)が存在するものとする(t1’’=t2’’=t3’’)。
Further, when the vehicle Tmb during high-speed driving, assuming that the vehicle Tmb is moving in the arrow MD direction the speed equal to or greater than a predetermined speed, the G image from the end of exposure by R 1
高速走行中の車両Tmbは、図32(b)に示すように、例えば移動体検出装置16からの撮影命令にしたがって、まずは図示(A)のタイミングにおいて、図32(c)に示すように、R1画像用ラインセンサ214R1のフォトダイオードPD群214R1pによって露光される。そして、そのフォトダイオードPD群214R1pの信号電荷は、露光の終了に伴って、図32(d),(e)に示すように、波形成型出力に応じた時間L1’’で、R1画像用ラインセンサ214R1のCCD群214R1fへと転送される。
As shown in FIG. 32 (b), the vehicle Tmb traveling at high speed first follows a shooting command from, for example, the moving
次いで、高速走行中の車両Tmbは、図示(B)のタイミングにおいて、図32(f)に示すように、G画像用ラインセンサ214GのフォトダイオードPD群214Gpによって露光される。そして、そのフォトダイオードPD群214Gpの信号電荷は、露光の終了に伴って、図32(g),(h)に示すように、G画像用ラインセンサ214GのCCD群214Gfへと転送される。
Next, the vehicle Tmb traveling at high speed is exposed at the timing shown in FIG. 32B by the photodiode PD group 214Gp of the G
次いで、高速走行中の車両Tmbは、図示(C)のタイミングにおいて、図32(i)に示すように、B画像用ラインセンサ214BのフォトダイオードPD群214Bpによって露光される。そして、そのフォトダイオードPD群214Bpの信号電荷は、露光の終了に伴って、図32(j),(k)に示すように、B画像用ラインセンサ214BのCCD群214Bfへと転送される。
Next, the vehicle Tmb traveling at high speed is exposed by the photodiode PD group 214Bp of the B
次いで、高速走行中の車両Tmbは、図示(D)のタイミングにおいて、図32(m)に示すように、同一波長成分画像用ラインセンサ214R2のフォトダイオードPD群214R2pによって露光される。そして、そのフォトダイオードPD群214R2pの信号電荷は、露光の終了に伴って、図32(n),(p)に示すように、同一波長成分画像用ラインセンサ214R2のCCD群214R2fへと転送される。
Then, the vehicle Tmb in high speed at the timing shown (D), as shown in FIG. 32 (m), are exposed by the
マルチスペクトルセンサ装置214IIは、各画像用ラインセンサ214R1、214G、214B、214R2の物理的長さ(センサ長SL)や露光時間が固定されているものの、走行中の車両Tma、Tmbの速度に応じて、各画像用ラインセンサ214R1、214G、214B、214R2における露光のタイミングが変化する。
The multispectral sensor device 214II has fixed physical lengths (sensor length SL) and exposure time of the line sensors 214R 1 , 214G, 214B, and 214R 2 for each image, but the speeds of the moving vehicles Tma and Tmb. The timing of exposure in each of the
すなわち、一定速度以上のスピードで走行中の車両Tmbの場合は、例えば図33(a)に示すように、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせたとしても、車両Tmbの画素間の移動が、その移動速度に応じて十数ピクセルにおよぶため、カラー表示のR1、G、Bに大きな色ずれが発生する。 That is, in the case of a vehicle Tmb traveling at a speed equal to or higher than a certain speed, for example, as shown in FIG. 33A, the color images of the bands obtained by aligning them so as to geometrically overlap are displayed in the same size. even superimposed movement between the pixels of the vehicle Tmb is, therefore spanning ten pixels in accordance with the moving speed, R 1 of a color display, G, large color shift occurs in B.
一方、一定速度以下のスピードで走行中の車両Tmaの場合は、例えば図33(b)に示すように、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせたとしても、車両Tmaの画素間の移動が、その移動速度に応じて数ピクセルにおよぶため、カラー表示にR1、G、Bの小さな色ずれが発生する。 On the other hand, in the case of a vehicle Tma traveling at a speed of a certain speed or less, for example, as shown in FIG. 33 (b), the color images of the bands obtained by aligning them so as to geometrically overlap are displayed in the same size. even superimposed movement between the pixels of the vehicle Tma is, for up to several pixels in accordance with the moving speed, the color display R 1, G, a small color shift B occurs.
ここで、移動体の移動方向とそのカラー表示(色ずれ)との関係について説明する。 Here, the relationship between the moving direction of the moving body and its color display (color shift) will be described.
図34(a)は、走行中の車両Tmの移動方向(MD)と地球観測衛星12の移動方向(SD)との関係を例示するもので、例えば図31及び図32に相当したものである。
FIG. 34 (a) illustrates the relationship between the moving direction (MD) of the moving vehicle Tm and the moving direction (SD) of the
また、図34(b)は、地表面上における車両Tmの移動方向を東側方向とし、図34(c)は、地表面上における車両Tmの移動方向を西側方向とし、図34(d)は、地表面上における車両Tmの移動方向を北側方向とし、図34(e)は、地表面上における車両Tmの移動方向を南側方向とした場合の例である。 Further, FIG. 34 (b) shows the moving direction of the vehicle Tm on the ground surface as the east side, FIG. 34 (c) shows the moving direction of the vehicle Tm on the ground surface as the west side, and FIG. 34 (d) shows. , The moving direction of the vehicle Tm on the ground surface is the north side, and FIG. 34 (e) is an example in which the moving direction of the vehicle Tm on the ground surface is the south side.
走行中の車両Tmは、図34(b)〜図34(e)に示すように、その移動の方向にかかわらず、常に、移動方向に対するカラー表示がB、G、R1の順番となる(カラー表示にR2は特に関係しないので、図示省略)。 As shown in FIGS. 34 (b) to 34 (e), the moving vehicle Tm always has the color display for the moving direction in the order of B, G, R 1 regardless of the moving direction (the color display for the moving direction is always B, G, R 1). Since R 2 is not particularly related to the color display, it is not shown).
すなわち、走行中の車両Tmの場合、地球観測衛星12の移動方向(SD)に対する、各画像用ラインセンサ214R1、214G、214Bの配列の順番に依存して、B、G、R1順の色ずれを生じる。したがって、その単一シーンの移動体検出画像CP上において、この色ずれを検出することにより、走行中の車両Tmは勿論のこと、車両Tmの移動の方向(MD)をも特定可能である。
That is, in the case of a moving vehicle Tm, the order of B, G, R 1 depends on the order of arrangement of the line sensors 214R 1 , 214G, and 214B for each image with respect to the moving direction (SD) of the
また、色ずれは、走行中の車両Tmの速度にほぼ比例するため、そのずれ量から、走行中の車両Tmの速度も容易に推定(算出)可能である。 Further, since the color shift is substantially proportional to the speed of the running vehicle Tm, the speed of the running vehicle Tm can be easily estimated (calculated) from the amount of the shift.
次に、上記した構成の移動体検出装置16において取得可能な移動体検出画像CPについて説明する。
Next, the mobile body detection image CP that can be acquired by the mobile
図35(a)〜図35(c)は、高速道路のIC付近を実際に撮影して移動体検出装置16によって移動体の変化量をカラー表示した場合を例示したものである。これにより、例えば図35(a)に示すようなマルチスペクトル画像(特定エリアEWiのカラー合成画像GWi)と、また、例えば図35(b)に示すようなパンクロマチック画像(特定エリアEWiの白黒合成画像GEAi)とを、幾何学的に重なり合うように位置合わせして、色強調前のパンシャープン画像CP1となる、図35(c)に示すような移動体検出画像(色強調前)が得られる。
FIGS. 35 (a) to 35 (c) exemplify a case where the vicinity of the IC on the expressway is actually photographed and the amount of change of the moving body is displayed in color by the moving
また、図36(a)〜図36(c)は、高速道路のICと一般道とをつなぐ接続道路付近を実際に撮影した場合を例示したものである。なお、図36(a)は、接続道路付近のマルチスペクトル画像(特定エリアEWiのカラー合成画像GWi)であり、図36(b)は、接続道路付近のパンクロマチック画像(特定エリアEWiの白黒合成画像GEAi)であり、図36(c)は、接続道路付近の移動体検出画像(色強調前)としての色強調前のパンシャープン画像CP1である。 Further, FIGS. 36 (a) to 36 (c) exemplify a case where the vicinity of the connecting road connecting the IC of the expressway and the general road is actually photographed. Note that FIG. 36 (a) is a multispectral image (color composite image GWi of the specific area EWi) near the connecting road, and FIG. 36 (b) is a panchromatic image (black and white composite of the specific area EWi) near the connecting road. Image GEAi), FIG. 36 (c) is a pan-sharpened image CP1 before color enhancement as a moving object detection image (before color enhancement) near the connecting road.
図37は、図36(c)に示した接続道路付近の色強調前のパンシャープン画像CP1を拡大して示すものある。 FIG. 37 is an enlarged view of the pan-sharpened image CP1 before color enhancement near the connecting road shown in FIG. 36 (c).
この色強調前のパンシャープン画像CP1からも明らかなように、接続道路DO上を走行中の複数の車両Tmoは、いずれもIC方向より交差点方向に近づくにつれて、赤信号により停止すべく徐々に減速し、それに伴って色ずれの大きいカラー表示から色ずれの小さいモノクロ表示へと変化する。 As is clear from the pan-sharpened image CP1 before color enhancement, the plurality of vehicles Tmo traveling on the connecting road DO gradually stop at the red light as they approach the intersection direction from the IC direction. As the speed is reduced, the color display changes from a color display with a large color shift to a monochrome display with a small color shift.
逆に、IC方向に向かう車両Tmiは徐々に加速し、速度が増加するにつれて、色ずれの大きいカラー表示へと変化する。 On the contrary, the vehicle Tmi heading toward the IC gradually accelerates, and as the speed increases, the color display changes to a color display having a large color shift.
なお、このパンシャープン画像CP1は色強調前であって、走行中の車両Tmo、Tmiに対して、上述の色強調処理を施すことにより、走行中の車両Tmo、Tmiの表示がより鮮明となる。 It should be noted that this pan-sharpened image CP1 is before color enhancement, and by performing the above-mentioned color enhancement processing on the traveling vehicles Tmo and Tmi, the display of the traveling vehicles Tmo and Tmi becomes clearer. Become.
すなわち、例えば、当該色強調前のパンシャープン画像CP1の各画素が走行中の車両Tmのものか否かが、そのピクセル値に基づいて判定される。例えば、各画素の色種別の階調度を示すピクセル値のいずれかが「0」でない場合、その画素は走行中の車両Tmのものと判定され、逆に、各画素の色種別の階調度を示すピクセル値の全てが「0」の場合、その画素は静止物体のものと判定される。 That is, for example, whether or not each pixel of the pan-sharpened image CP1 before color enhancement belongs to the moving vehicle Tm is determined based on the pixel value. For example, if any of the pixel values indicating the gradation degree of each pixel color type is not "0", that pixel is determined to belong to the moving vehicle Tm, and conversely, the gradation degree of each pixel color type is determined. When all of the indicated pixel values are "0", the pixel is determined to be that of a stationary object.
そして、走行中の車両Tmのものと判定された各画素の色種別の階調度を示すピクセル値が、最大値(例えば、240〜255)に変更される。 Then, the pixel value indicating the gradation degree of each color type of each pixel determined to be that of the moving vehicle Tm is changed to the maximum value (for example, 240 to 255).
こうして、色種別の階調度を示すピクセル値の全てが「0」でない画素の階調度がそれぞれ最大値に変更された色強調後のパンシャープン画像CP2が、移動体検出画像CPとして表示されることとなる(図示省略)。 In this way, the pan-sharpened image CP2 after color enhancement in which the gradations of the pixels in which all the pixel values indicating the gradations of the color types are not "0" are changed to the maximum values are displayed as the moving object detection image CP. (Not shown).
上記したように、本実施の形態2によっても、より効率的に移動体を検出できるとともに、検出された移動体の速度や方向を正確かつ自動的に把握できるようになる。 As described above, according to the second embodiment as well, the moving body can be detected more efficiently, and the speed and direction of the detected moving body can be accurately and automatically grasped.
走行中の車両Tmを自動的に検出できるようにすることで、例えば、その速度から、道路上の直線エリア、カーブエリア、山岳エリアの特定や勾配なども把握可能となる。 By making it possible to automatically detect the moving vehicle Tm, for example, it is possible to identify a straight line area, a curved area, a mountain area, and the slope on the road from the speed.
特に、途上国などにおいて、走行中の車両Tmを自動的に検出することで、地図上にない道路の新設により道路マップを更新する場合などにも適用できる。 In particular, in developing countries, it can be applied to the case where the road map is updated by constructing a new road that is not on the map by automatically detecting the moving vehicle Tm.
なお、本実施の形態2に係るマルチスペクトルセンサ装置214IIは、図19に示した構成のマルチスペクトルセンサ装置2141や、図20に示した構成のマルチスペクトルセンサ装置2142などにも適用可能である。 The multispectral sensor device 214II according to the second embodiment can also be applied to the multispectral sensor device 214 1 having the configuration shown in FIG. 19, the multispectral sensor device 214 2 having the configuration shown in FIG. 20, and the like. be.
図38は、本実施の形態2に係るマルチスペクトルセンサ装置214IIにおいて、赤外(IR)または近赤外(NIR)用のラインセンサ214Wをさらに備えて、マルチスペクトルセンサ装置214dとして構成するようにした場合の第1変形例である。
FIG. 38 shows the multispectral sensor device 214II according to the second embodiment, further including a
図39は、同一波長成分画像用ラインセンサ214R2によらず、追加のラインセンサとして、G2画像用ラインセンサ(同一波長成分画像用ラインセンサ)214G2を備えて、マルチスペクトルセンサ装置214eを構成するようにした場合の第2変形例である。すなわち、マルチスペクトルセンサ装置214eの場合は、G1画像用ラインセンサ214G1とG2画像用ラインセンサ214G2とが、B画像用ラインセンサ214Bを間に挟んで配置されて、パンクロ画像を取得するためのモノクロ画像用ラインセンサとなっている。
Figure 39 does not depend on the same wavelength component
図40は、同一波長成分画像用ラインセンサ214R2によらず、追加のラインセンサとして、B2画像用ラインセンサ(同一波長成分画像用ラインセンサ)214B2を備えて、マルチスペクトルセンサ装置214fを構成するようにした場合の第3変形例である。すなわち、マルチスペクトルセンサ装置214fの場合は、B1画像用ラインセンサ214B1とB2画像用ラインセンサ214B2とが、R画像用ラインセンサ214RとG画像用ラインセンサ214Gとを間に挟んで配置されて、パンクロ画像を取得するためのモノクロ画像用ラインセンサとなっている。
Figure 40 does not depend on the same wavelength component
図41は、同種のラインセンサを2ライン分以上追加するようにした場合の第4変形例であって、マルチスペクトルセンサ装置214gを構成した場合を例示している。すなわち、マルチスペクトルセンサ装置214gの場合は、R1画像用ラインセンサ214R1とR2画像用ラインセンサ(第1の同一波長成分画像用ラインセンサ)214R2とR3画像用ラインセンサ(第2の同一波長成分画像用ラインセンサ)214R3とが、それぞれ、G画像用ラインセンサ214GまたはB画像用ラインセンサ214Bを間に挟んで配置されて、パンクロ画像を取得するためのモノクロ画像用ラインセンサとなっている。
FIG. 41 is a fourth modification in the case where two or more lines of the same type of line sensor are added, and illustrates a case where the
このように、マルチスペクトルセンサ装置214II、214d、214e、214f、214gは、「R」、「G」、「B」のいずれかと同じバンドのセンサが少なくとも1ライン分以上の間隔を有して新たに追加された構成としたことにより、移動体検出装置16での移動体検出画像CPの作成において、移動体(画像の読込みの間に動いたもの)の色ずれをより確実に区別して表現できるようになる。
As described above, in the multispectral sensor devices 214II, 214d, 214e, 214f, and 214g, the sensors in the same band as any of "R", "G", and "B" are newly added with an interval of at least one line. By adopting the configuration added to, in the creation of the moving body detection image CP by the moving
<実施の形態3>
次に、本実施の形態3に係るマルチスペクトルセンサ装置(マルチラインイメージセンサ装置)が適用される移動体検出システムの移動体検出装置16の具体的な構成を、図42を用いて説明する。
<Embodiment 3>
Next, a specific configuration of the mobile
ここでは、マルチスペクトルセンサ装置(MSS)214、214IIを内蔵する人工衛星カメラ21を搭載した地球観測衛星12によって、例えば、日本列島JMの三陸沖の太平洋PO上をリアルタイムでセンシングする場合を例に説明する。
Here, an example will be described in which the
また、三陸沖には雲がなく、衛星12による観測時の解像度を2.5m×300kmとした場合について説明する。
Further, a case where there are no clouds off Sanriku and the resolution at the time of observation by the
地上センタの移動体検出装置16は、例えば、実施の形態1のものであってもよいが、実施の形態3では別構成とした場合を例に説明する。
The mobile
取得部161は、アンテナ施設(図示せず)で受信した送信信号SGiに含まれているライン毎撮影画像eGiを、各画像用メモリ163a1〜163a4に順次記憶する。
The
このとき、ライン毎第1画像(R1)は第1のR画像用メモリ163a1に記憶し、ライン毎第2画像(G)は第1のG画像用メモリ163a2に記憶し、ライン毎第3画像(B)は第1のB画像用メモリ163a3に記憶している。
At this time, the first image (R 1 ) for each line is stored in the first
一方、ライン毎同一波長成分画像Ri(R2)は、第1の同一波長成分画像用メモリ163a4に記憶しているとする。
On the other hand, it is assumed that the same wavelength component image Ri (R 2 ) for each line is stored in the first memory for the same
また、送信信号SGiに含まれているヘッダ情報EHiを、ライン毎撮影画像eGiに関連付けて、ヘッダ情報用データベース163bに記憶しているが、図42においては図示しない。
Further, the header information EHi included in the transmission signal SGi is stored in the
また、このとき、取得部161に含まれているR1用合成部370aが、第1のR画像用メモリ163a1にライン毎第1画像(R1)が記憶される毎に、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して第2のR画像用メモリ163a11に記憶しているとする。
At this time, the R 1 compositing unit 370a included in the
また、取得部161に含まれているG用合成部370bが、第1のG画像用メモリ163a2にライン毎第2画像(G)が記憶される毎に、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して第2のG画像用メモリ163a22に記憶しているとする。
Further, every time the
また、取得部161に含まれているB用合成部370cが、第1のB画像用メモリ163a3にライン毎第3画像(B)が記憶される毎に、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して第2のB画像用メモリ163a33に記憶しているとする。
Further, every time the
さらに、取得部161に含まれている同一成分画像用合成部370dが、第1の同一波長成分画像用メモリ163a4にライン毎同一波長成分画像Ri(R2)が記憶される毎に、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して第2の同一波長成分画像用メモリ163a44に記憶しているとする。つまり、取得部161は、R1用合成部370aと、G用合成部370bと、B用合成部370cと、同一成分画像用合成部370dとを備えている。
Further, every time the same-wavelength component
すなわち、取得画像用データベース163aは、第1のR画像用メモリ163a1と第1のG画像用メモリ163a2と第1のB画像用メモリ163a3と第1の同一波長成分画像用メモリ163a4とからなる第1の取得画像用データベースと、第2のR画像用メモリ163a11と第2のG画像用メモリ163a22と第2のB画像用メモリ163a33と第2の同一波長成分画像用メモリ163a44とからなる第2の取得画像用データベースとで構成されている。
That is, the acquired
なお、取得画像用データベース163aには、例えば、ライン毎撮影画像eGiの所定のレベル以上の成分のみを取り込むようにしても良い。
The acquired
カラー画像用メモリ169aは、図42に示すように、R1画像エリア用メモリ169a1と、G画像エリア用メモリ169a2と、B画像エリア用メモリ169a3とで構成されている。また、パンクロ画像生成用メモリ169bは、同一成分画像エリア用メモリともいう。
As shown in FIG. 42, the
エリア抽出部165は、図42に示すように、R1画像用エリア抽出部365aと、G画像用エリア抽出部365bと、B画像用エリア抽出部365cと、同一成分画像用エリア抽出部365dとを備えている。
As shown in FIG. 42, the
(エリア抽出部165の説明)
R1画像用エリア抽出部365aは、オペレーション部(図示せず)によって入力された解像度(画面の1ドット当たり2.5mまたは10m、・・200mまたは1km、・・)fiを読込む。そして、この解像度fiの大きさのメッシュMiを、R1画像エリア用メモリ169a1に定義する。また、任意の特定エリア(座標XaYa〜XfYf)EWiの座標系に応じた大きさの領域を、第2のR画像用メモリ163a11に定義する。
(Explanation of area extraction unit 165)
R 1 image for the
そして、この特定エリアEWiのライン毎第1画像(R1)が、オペレーション部によって指定された特定エリアEWiに対応する個数分に到達する毎に、その特定エリア毎第1画像E(R1)にメッシュMiを順次定義する。そして、このメッシュMiに含まれている画素データを、R1画像エリア用メモリ169a1の該当のピクセルに格納する。
Then, every time the first image (R 1 ) for each line of the specific area EWi reaches the number corresponding to the specific area EWi specified by the operation unit, the first image E (R 1 ) for each specific area is reached. Mesh Mi is defined sequentially in. Then, the pixel data contained in the mesh Mi, is stored in the corresponding pixel of the R 1
また、G画像用エリア抽出部365bは、オペレーション部によって入力された解像度fiを読込む。そして、この解像度fiの大きさのメッシュMiを、G画像エリア用メモリ169a2に定義する。また、任意の特定エリアEWiの座標系に応じた大きさの領域を、第2のG画像用メモリ163a22に定義する。
Further, the G image
そして、この特定エリアEWiのライン毎第2画像(G)がオペレーション部によって指定された特定エリアEWiに対応する個数分に到達する毎に、その特定エリア毎第2画像E(G)にメッシュMiを順次定義する。そして、このメッシュMiに含まれている画素データを、G画像エリア用メモリ169a2の該当のピクセルに格納する。 Then, every time the second image (G) for each line of the specific area EWi reaches the number corresponding to the specific area EWi specified by the operation unit, the mesh Mi is displayed on the second image E (G) for each specific area. Are defined sequentially. Then, the pixel data included in the mesh Mi is stored in the corresponding pixel of the G image area memory 169a 2.
また、B画像用エリア抽出部365cは、オペレーション部によって入力された解像度fiを読込む。そして、この解像度fiの大きさのメッシュMiを、B画像エリア用メモリ169a3に定義する。また、任意の特定エリアEWiの座標系に応じた大きさの領域を、第2のB画像エリア用メモリ163a33に定義する。
Further, the B image
そして、この特定エリアEWiのライン毎第3画像(B)がオペレーション部によって指定された特定エリアEWiに対応する個数分に到達する毎に、その特定エリア毎第3画像E(B)にメッシュMiを順次定義する。そして、このメッシュMiに含まれている画素データを、B画像エリア用メモリ169a3の該当のピクセルに格納する。 Then, every time the third image (B) for each line of the specific area EWi reaches the number corresponding to the specific area EWi specified by the operation unit, the mesh Mi is displayed on the third image E (B) for each specific area. Are defined sequentially. Then, the pixel data included in the mesh Mi is stored in the corresponding pixel of the B image area memory 169a 3.
さらに、同一成分画像用エリア抽出部365dは、オペレーション部によって入力された解像度fiを読込む。そして、この解像度fiの大きさのメッシュMiを、パンクロ画像生成用メモリ169bに定義する。また、任意の特定エリアEWiの座標系に応じた大きさの領域を、第2の同一波長成分画像用メモリ163a44に定義する。
Further, the
そして、この特定エリアEWiのライン毎同一波長成分画像Ri(R2)がオペレーション部によって指定された特定エリアEWiに対応する個数分に到達する毎に、その特定エリア毎同一波長成分画像ERi(R2)にメッシュMiを順次定義する。そして、このメッシュMiに含まれている画素データを、パンクロ画像生成用メモリ169bの該当のピクセルに格納する。
Then, every time the same wavelength component image Ri (R 2 ) for each line of the specific area EWi reaches the number corresponding to the specific area EWi specified by the operation unit, the same wavelength component image ERi (R 2) for each specific area is reached. Mesh Mi is defined in order in 2). Then, the pixel data included in the mesh Mi is stored in the corresponding pixel of the panchromatic
重ね合わせ部171は、R1画像エリア用メモリ169a1、G画像エリア用メモリ169a2、B画像エリア用メモリ169a3及びパンクロ画像生成用メモリ169bの各々のピクセルを順に指定する。そして、指定されたこれらのピクセルの特定エリア毎第1画像E(R1)、特定エリア毎第2画像E(G)、特定エリア毎第3画像E(B)、特定エリア毎同一波長成分画像ERi(R2)を、色強調画像用メモリ173に順次記憶して移動体検出画像CP(より正確には、色強調前のパンシャープン画像CP1)を得る。
The superimposing
なお、ライン毎撮影画像eGiには、ライン毎撮影画像eGi毎に、衛星ID、撮影年月日時刻、色種(R1、G、B、R2)、解像度(2.5m)、緯度(X)、経度(Y)、姿勢などのヘッダ情報EHiが関連付けられる。 Note that the line for each captured image EGI, for each line for each captured image EGI, satellite ID, photographing date and time, the color type (R 1, G, B, R 2), resolution (2.5 m), latitude ( Header information EHi such as X), longitude (Y), and attitude is associated.
ここで、オペレータによる検出パラメータの設定としては、例えば津波検出時において、200km×200kmの津波検出エリア(XY〜XY)TEiに対応する4隅の座標と、解像度(100m×100m)に応じた津波変化検出用範囲(WA)や、震源地SCに関する情報(Ei)などがあげられる。 Here, the detection parameters are set by the operator, for example, at the time of tsunami detection, the coordinates of the four corners corresponding to the tsunami detection area (XY to XY) TEi of 200 km × 200 km and the tsunami according to the resolution (100 m × 100 m). The range for change detection (WA) and information on the epicenter SC (Ei) can be mentioned.
すなわち、津波検出エリアTEiに対して、1メッシュ(縦長×横幅)が津波変化検出用範囲(WA)の間隔(例えば100m×100m)とされたメッシュMiを設定する。 That is, for the tsunami detection area TEi, a mesh Mi in which one mesh (vertical length × horizontal width) is an interval (for example, 100 m × 100 m) of the tsunami change detection range (WA) is set.
なお、移動体検出画像CPにおいては、平滑化処理したり、雲や船舶などは大体の形が分かっているので、適宜、除去するのが好ましい。 In the moving object detection image CP, it is preferable to perform smoothing processing and to remove clouds, ships, and the like as appropriate because the general shapes are known.
図43は、移動体検出画像CPの表示画面において、地震の発生に伴って気象庁などから震源地SCに関する情報(Ei)が提供された場合を仮想的に示したものである。 FIG. 43 virtually shows a case where information (Ei) regarding the epicenter SC is provided by the Japan Meteorological Agency or the like in connection with the occurrence of an earthquake on the display screen of the moving object detection image CP.
この例の場合、移動体検出画像CPには、例えば、日本列島JMの三陸沖の太平洋POで発生した地震の震源地SCと、その震源地SCの近傍で発生したと思われる、津波パラメータを超える波Tbと、が含まれる。したがって、図43に示すように、波Tbのカラー画像(B画像、G画像、R1画像)を、津波検出エリアTEiに設定されるメッシュMiに格納させることによって、津波として検出可能となる。 In the case of this example, the moving object detection image CP exceeds, for example, the epicenter SC of the earthquake that occurred off Sanriku in the Japanese archipelago JM and the tsunami parameter that seems to have occurred in the vicinity of the epicenter SC. Waves Tb and are included. Accordingly, as shown in FIG. 43, the color image of the wave Tb (B image, G image, R 1 image), and by storing the mesh Mi is set to the tsunami detection area TEi, it can be detected as a tsunami.
移動体検出装置16においては、例えば、震源地SCに関する情報(Ei)が検出パラメータとしてエリア抽出部165(365a、365b、365c、365d)に供給されたことをきっかけに、処理を開始するようにしても良い。この場合、エリア抽出部165(365a、365b、365c、365d)は、震源地SCに関する情報(Ei)に基づいて、カラー画像用メモリ169a(169a1、169a2、169a3)とパンクロ画像生成用メモリ169bとに震源地SCを定義させることが可能である。
In the mobile
図44は、移動体検出画像CPの表示画面において、地震の発生に伴って気象庁などから震源地SCに関する情報(Ei)が提供されない場合を仮想的に示したものである。 FIG. 44 virtually shows a case where the information (Ei) regarding the epicenter SC is not provided by the Japan Meteorological Agency or the like due to the occurrence of an earthquake on the display screen of the moving object detection image CP.
この例の場合、移動体検出装置16においては、常時、移動体検出画像CPをモニタリングし続ける必要があるが、津波パラメータを超える波Tbのカラー画像を、津波検出エリアTEiに設定されるメッシュMiに格納させることによって、津波として検出可能となる。
In the case of this example, in the moving
上記したように、実施の形態3によれば、津波のような移動体の検出にも適用できる。 As described above, according to the third embodiment, it can also be applied to the detection of a moving body such as a tsunami.
また、海に限らず、鉄砲水などによる河川の水位や流速の監視などといった河川の管理や、崖崩れ(地すべり)や雪崩などのような、大規模な自然災害のモニタリング(エネルギー試算など)にも利用できる。 In addition to the sea, it is also used for river management such as monitoring the water level and flow velocity of rivers with flash floods, and for monitoring large-scale natural disasters such as landslides and avalanches (energy estimation, etc.). Available.
また、赤外線センサやX線センサなどを用いることによって、タンク内の容量をチェックしたり、夜間におけるトラックやコンテナなどの搬入や搬出のチェックなどにも応用可能である。 Further, by using an infrared sensor, an X-ray sensor, or the like, it can be applied to check the capacity in the tank, and to check the loading and unloading of trucks and containers at night.
また、ラインセンサとしては、3ライン方式のようなセンサに限らず、例えば、ダイクロイックプリズムを用いた3CCD方式のようなセンサとしても良い。 Further, the line sensor is not limited to a sensor such as a 3-line system, and may be, for example, a sensor such as a 3CCD system using a dichroic prism.
さらには、CCDラインセンサに限らず、CMOS構造のラインセンサにも適用可能なことは勿論である。 Furthermore, it goes without saying that it can be applied not only to a CCD line sensor but also to a line sensor having a CMOS structure.
10 地球
12 地球観測衛星(人工衛星/飛行体)
14 アンテナ施設
16 移動体検出装置(地上局)
21 人工衛星カメラ
23 受信部
25 センサ制御部
27 送信部
161 取得部
175 色強調部
214、214II マルチスペクトルセンサ装置(マルチラインイメージセンサ装置)
10
14
21
Claims (13)
前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記間隔を有して並列に配置され、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと同一色の光の波長を検出する第1の同一波長成分画像用ラインセンサと
を有し、
前記三原色画像ラインセンサによってカラー画像を取得すると共に、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記第1の同一波長成分画像用ラインセンサとによって白黒画像を取得することを特徴とするマルチラインイメージセンサ装置。 Three primary color image line sensors including an R image line sensor, a G image line sensor, and a B image line sensor, which are arranged in parallel at intervals from each other.
A first that is arranged in parallel with an image line sensor of any of the three primary color image line sensors at the interval and detects a wavelength of light of the same color as the image line sensor of any of the three primary color image line sensors. and a line sensor for the same wavelength component image,
A color image is acquired by the three primary color image line sensors, and a black and white image is acquired by the image line sensor of any of the three primary color image line sensors and the first line sensor for the same wavelength component image. Multi-line image sensor device.
一定個数のR画像用フィルタを直列に配列したR画像用フィルタ群と、
前記R画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したR画像用光電変換素子群と、を有し、
前記G画像用ラインセンサは、
前記R画像用フィルタ群に対して一定の前記間隔を有して並列に配置され、一定個数のG画像用フィルタを直列に配列したG画像用フィルタ群と、
前記G画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したG画像用光電変換素子群と、を有し、
前記B画像用ラインセンサは、
前記G画像用フィルタ群に対して一定の前記間隔を有して並列に配置され、一定個数のB画像用フィルタを直列に配列したB画像用フィルタ群と、
前記B画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したB画像用光電変換素子群と、を有して構成されており、
前記第1の同一波長成分画像用ラインセンサは、
前記R画像用フィルタ、前記G画像用フィルタ、または前記B画像用フィルタのいずれかと同一の一定個数の画像用フィルタが、前記R画像用フィルタ群、前記G画像用フィルタ群、または前記B画像用フィルタ群に対して一定の前記間隔を有して並列に配置された第1の同一波長成分画像用フィルタ群と、
前記第1の同一波長成分画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列した第1の同一波長成分画像用光電変換素子群と、
を有することを特徴とする請求項1に記載のマルチラインイメージセンサ装置。 The line sensor for R image is
A group of R image filters in which a fixed number of R image filters are arranged in series,
It has an R image photoelectric conversion element group provided under the R image filter group and in which a fixed number of photoelectric conversion elements are arranged in series.
The line sensor for G image is
A G image filter group arranged in parallel with the R image filter group at a certain interval and a fixed number of G image filters arranged in series, and a G image filter group.
It has a G-image photoelectric conversion element group provided under the G-image filter group and in which a fixed number of photoelectric conversion elements are arranged in series.
The B image line sensor is
A B image filter group arranged in parallel with the G image filter group at a certain interval and a fixed number of B image filters arranged in series, and a B image filter group.
It is provided in the lower layer of the B image filter group, and is configured to include a B image photoelectric conversion element group in which a fixed number of photoelectric conversion elements are arranged in series.
The first line sensor for the same wavelength component image is
The same fixed number of image filters as any of the R image filter, the G image filter, or the B image filter is the R image filter group, the G image filter group, or the B image filter. A first filter group for the same wavelength component image arranged in parallel with the above-mentioned interval with respect to the filter group,
A first photoelectric conversion element group for the same wavelength component image, which is provided under the first layer of the same wavelength component image filter group and in which a fixed number of photoelectric conversion elements are arranged in series,
The multi-line image sensor device according to claim 1, wherein the multi-line image sensor device is provided.
前記第1の同一波長成分画像用フィルタ群と同一の一定個数の画像用フィルタが、前記R画像用フィルタ群、前記G画像用フィルタ群、または前記B画像用フィルタ群、若しくは前記第1の同一波長成分画像用フィルタ群に対して、一定の前記間隔を有して並列に配置された第2の同一波長成分画像用フィルタ群と、
前記第2の同一波長成分画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列した第2の同一波長成分画像用光電変換素子群と、
を有する第2の同一波長成分画像用ラインセンサを備えて構成されていることを特徴とする請求項2に記載のマルチラインイメージセンサ装置。 Moreover,
The same fixed number of image filters as the first same wavelength component image filter group is the R image filter group, the G image filter group, the B image filter group, or the first same. A second group of filters for the same wavelength component image arranged in parallel with the same interval with respect to the group of filters for the wavelength component image, and a group of filters for the same wavelength component image.
A second photoelectric conversion element group for the same wavelength component image, which is provided under the second layer of the same wavelength component image filter group and in which a fixed number of photoelectric conversion elements are arranged in series,
The multi-line image sensor device according to claim 2 , further comprising a second line sensor for the same wavelength component image having the above.
一定個数の赤外画像用フィルタまたは近赤外画像用フィルタが、前記R画像用フィルタ群、前記G画像用フィルタ群、または前記B画像用フィルタ群、若しくは前記第1の同一波長成分画像用フィルタ群に対して、一定の前記間隔を有して並列に配置された赤外画像用フィルタ群と、
前記赤外画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列した赤外画像用光電変換素子群と、
を有する赤外画像用ラインセンサを備えて構成されていることを特徴とする請求項2に記載のマルチラインイメージセンサ装置。 Moreover,
A certain number of infrared image filters or near-infrared image filters are the R image filter group, the G image filter group, the B image filter group, or the first same wavelength component image filter. A group of filters for infrared images arranged in parallel with a certain interval with respect to the group,
An infrared image photoelectric conversion element group provided under the infrared image filter group and a fixed number of photoelectric conversion elements arranged in series, and an infrared image photoelectric conversion element group.
The multi-line image sensor device according to claim 2 , further comprising an infrared image line sensor having the above.
前記R画像用光電変換素子群と、前記G画像用光電変換素子群と、前記B画像用光電変換素子群と、前記第1の同一波長成分画像用光電変換素子群とにそれぞれ並列に配列された垂直転送部を有して構成されていることを特徴とする請求項2に記載のマルチラインイメージセンサ装置。 Moreover,
The R image photoelectric conversion element group, the G image photoelectric conversion element group, the B image photoelectric conversion element group, and the first same wavelength component image photoelectric conversion element group are arranged in parallel, respectively. The multi-line image sensor device according to claim 2 , further comprising a vertical transfer unit.
マルチラインイメージセンサ装置を備え、
前記マルチラインイメージセンサ装置は、
互いに間隔を有して並列に配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える三原色画像ラインセンサと、
前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記間隔を有して並列に配置され、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと同一色の光の波長を検出する同一波長成分画像用ラインセンサとを備え、
さらに、
前記三原色画像ラインセンサ及び前記同一波長成分画像用ラインセンサに、前記撮影エリアからの光を結像させる光学系と、
前記三原色画像ラインセンサ及び前記同一波長成分画像用ラインセンサを駆動するセンサ駆動部と、
前記センサ駆動部の駆動に伴って出力された前記三原色画像ラインセンサからの各々の出力を第1画像、第2画像、第3画像として得て水平転送するとともに、前記同一波長成分画像用ラインセンサからの出力を前記同一波長成分画像として得て水平転送する水平転送部と
を有し、
前記三原色画像ラインセンサによってカラー画像を取得すると共に、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記同一波長成分画像用ラインセンサとによって白黒画像を取得することを特徴とする撮影装置。 A flying object having a predetermined height with respect to the shooting area and moving in one direction at a predetermined speed is provided, and as the flying object moves, a color image of the three primary colors and a color image of the three primary colors are used. An imaging device that obtains a color image having the same wavelength as any color image and a color image having the same wavelength of light.
Equipped with a multi-line image sensor device
The multi-line image sensor device is
Three primary color image line sensors including an R image line sensor, a G image line sensor, and a B image line sensor, which are arranged in parallel at intervals from each other.
The same wavelength that is arranged in parallel with the image line sensor of any of the three primary color image line sensors at the interval and detects the wavelength of light of the same color as the image line sensor of any of the three primary color image line sensors. Equipped with a line sensor for component images
Moreover,
An optical system for forming an image of light from the photographing area on the three primary color image line sensors and the same wavelength component image line sensor, and
A sensor drive unit that drives the three primary color image line sensors and the same wavelength component image line sensor,
Each output from the three primary color image line sensors output by driving the sensor drive unit is obtained as a first image, a second image, and a third image and horizontally transferred, and the line sensor for the same wavelength component image. It has a horizontal transfer unit that obtains the output from the same wavelength component as the same wavelength component image and transfers it horizontally .
An imaging device characterized in that a color image is acquired by the three primary color image line sensors and a black and white image is acquired by the image line sensor of any of the three primary color image line sensors and the same wavelength component image line sensor.
一定個数のR画像用フィルタを直列に配列したR画像用フィルタ群と、
前記R画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したR画像用光電変換素子群と、
前記R画像用光電変換素子群に並列に配置された垂直転送部と、を有し、
前記G画像用ラインセンサは、
前記R画像用フィルタ群に対して一定間隔を有して並列に配置され、一定個数のG画像用フィルタを直列に配列したG画像用フィルタ群と、
前記G画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したG画像用光電変換素子群と、
前記G画像用光電変換素子群に並列に配置された垂直転送部と、を有し、
前記B画像用ラインセンサは、
前記G画像用フィルタ群に対して一定間隔を有して並列に配置され、一定個数のB画像用フィルタを直列に配列したB画像用フィルタ群と、
前記B画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したB画像用光電変換素子群と、
前記B画像用光電変換素子群に並列に配置された垂直転送部と、を有し、
前記同一波長成分画像用ラインセンサは、
前記R画像用フィルタ、前記G画像用フィルタ、または前記B画像用フィルタのいずれかと同一の一定個数の画像用フィルタが、前記R画像用フィルタ群、前記G画像用フィルタ群、または前記B画像用フィルタ群に対して、一定間隔を有して並列に配置された同一波長成分画像用フィルタ群と、
前記同一波長成分画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列した同一波長成分画像用光電変換素子群と、
前記同一波長成分画像用光電変換素子群に並列に配置された垂直転送部と、を有し、
前記R画像用ラインセンサの前記垂直転送部、前記G画像用ラインセンサの前記垂直転送部、前記B画像用ラインセンサの前記垂直転送部、及び前記同一波長成分画像用ラインセンサの前記垂直転送部が、前記水平転送部に接続されていることを特徴とする請求項9に記載の撮影装置。 The line sensor for R image is
A group of R image filters in which a fixed number of R image filters are arranged in series,
A group of photoelectric conversion elements for R images provided under the filter group for R images and in which a fixed number of photoelectric conversion elements are arranged in series.
It has a vertical transfer unit arranged in parallel with the photoelectric conversion element group for R image.
The line sensor for G image is
A G image filter group arranged in parallel with the R image filter group at regular intervals and a fixed number of G image filters arranged in series, and a G image filter group.
A group of photoelectric conversion elements for G images provided under the G image filter group and in which a certain number of photoelectric conversion elements are arranged in series, and a group of photoelectric conversion elements for G images.
It has a vertical transfer unit arranged in parallel with the G-image photoelectric conversion element group, and has.
The B image line sensor is
A B image filter group arranged in parallel with the G image filter group at regular intervals and a fixed number of B image filters arranged in series, and a B image filter group.
A group of photoelectric conversion elements for B images provided under the filter group for B images and in which a fixed number of photoelectric conversion elements are arranged in series, and a group of photoelectric conversion elements for B images.
It has a vertical transfer unit arranged in parallel with the photoelectric conversion element group for B image.
The line sensor for the same wavelength component image is
The same fixed number of image filters as any of the R image filter, the G image filter, or the B image filter is the R image filter group, the G image filter group, or the B image filter. A group of filters for the same wavelength component image arranged in parallel with a certain interval with respect to the filter group,
A group of photoelectric conversion elements for the same wavelength component image provided under the filter group for the same wavelength component image and in which a fixed number of photoelectric conversion elements are arranged in series, and a group of photoelectric conversion elements for the same wavelength component image.
It has a vertical transfer unit arranged in parallel with the photoelectric conversion element group for the same wavelength component image.
The vertical transfer unit of the R image line sensor, the vertical transfer unit of the G image line sensor, the vertical transfer unit of the B image line sensor, and the vertical transfer unit of the same wavelength component image line sensor. The imaging device according to claim 9, wherein the image is connected to the horizontal transfer unit.
前記三原色画像ラインセンサのいずれかの画像用ラインセンサに隣接配置されていることを特徴とする請求項9または10に記載の撮影装置。 The line sensor for the same wavelength component image is
The imaging device according to claim 9 or 10, wherein the image pickup device is arranged adjacent to any of the three primary color image line sensors.
前記送信部は、
前記水平転送部を介して水平転送される前記第1画像と、前記第2画像と、前記第3画像と、前記同一波長成分画像とを撮影タイミング毎のライン毎撮影画像とし、このライン毎撮影画像に、前記飛行体の識別情報と、撮影の年月日と、時刻と、撮影時点の緯度及び経度と、色種と、送信先情報とを付加した送信信号を生成して送信する手段を有して構成されていることを特徴とする請求項9に記載の撮影装置。 The air vehicle includes a transmitter and
The transmitter
The first image, the second image, the third image, and the same wavelength component image, which are horizontally transferred via the horizontal transfer unit, are set as line-by-line shot images for each shooting timing, and the line-by-line shooting is performed. A means for generating and transmitting a transmission signal in which the identification information of the flying object, the date and time of shooting, the latitude and longitude at the time of shooting, the color type, and the destination information are added to the image. The photographing apparatus according to claim 9, wherein the image pickup apparatus is configured to have.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/017804 WO2017195858A1 (en) | 2016-05-13 | 2017-05-11 | Multi-line image sensor devices, image capturing device, moving body detecting device, and moving body detecting program |
TW106115773A TW201803330A (en) | 2016-05-13 | 2017-05-12 | Multi-lines image sensor device, photographing device, moving object detecting device and moving object detecting program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016096732 | 2016-05-13 | ||
JP2016096732 | 2016-05-13 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017211947A Division JP6291624B1 (en) | 2016-05-13 | 2017-11-01 | Moving object detection apparatus and moving object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017208813A JP2017208813A (en) | 2017-11-24 |
JP6959029B2 true JP6959029B2 (en) | 2021-11-02 |
Family
ID=60415128
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017089997A Active JP6959029B2 (en) | 2016-05-13 | 2017-04-28 | Multi-line image sensor device and imaging device |
JP2017211947A Active JP6291624B1 (en) | 2016-05-13 | 2017-11-01 | Moving object detection apparatus and moving object detection program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017211947A Active JP6291624B1 (en) | 2016-05-13 | 2017-11-01 | Moving object detection apparatus and moving object detection program |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6959029B2 (en) |
TW (1) | TW201803330A (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI712005B (en) * | 2018-05-22 | 2020-12-01 | 呂官諭 | Multi-spectrum high-precision object identification method |
JP7398249B2 (en) * | 2019-11-19 | 2023-12-14 | アジア航測株式会社 | Mobile trajectory generation device using photographic images |
CN114693756B (en) * | 2022-06-01 | 2022-08-23 | 中国工程物理研究院流体物理研究所 | Real-time image processing device and method suitable for airborne spectral imaging system |
JP2022146950A (en) * | 2022-06-29 | 2022-10-05 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging device |
CN115601471B (en) * | 2022-12-16 | 2023-03-31 | 四川腾盾科技有限公司 | Drawing method based on large unmanned aerial vehicle photoelectric reconnaissance swept area |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003060842A (en) * | 2001-08-16 | 2003-02-28 | Sony Corp | Color linear sensor |
JP5288482B2 (en) * | 2009-07-21 | 2013-09-11 | Nec東芝スペースシステム株式会社 | Imaging apparatus, imaging method, imaging circuit, and program |
JP5728894B2 (en) * | 2010-11-08 | 2015-06-03 | 富士ゼロックス株式会社 | Image reading apparatus and image forming apparatus |
-
2017
- 2017-04-28 JP JP2017089997A patent/JP6959029B2/en active Active
- 2017-05-12 TW TW106115773A patent/TW201803330A/en unknown
- 2017-11-01 JP JP2017211947A patent/JP6291624B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017208813A (en) | 2017-11-24 |
JP6291624B1 (en) | 2018-03-14 |
TW201803330A (en) | 2018-01-16 |
JP2018061262A (en) | 2018-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6959029B2 (en) | Multi-line image sensor device and imaging device | |
US11514564B2 (en) | System for detecting image abnormalities | |
US8385672B2 (en) | System for detecting image abnormalities | |
EP2247094B1 (en) | Orthophotographic image creating method and imaging device | |
King | Airborne multispectral digital camera and video sensors: a critical review of system designs and applications | |
KR101800905B1 (en) | Multi-resolution digital large format camera with multiple detector arrays | |
Graham et al. | Digital aerial survey: theory and practice | |
Jacobsen | High resolution satellite imaging systems-an overview | |
Tommaselli et al. | Development and assessment of a data set containing frame images and dense airborne laser scanning point clouds | |
WO2017195858A1 (en) | Multi-line image sensor devices, image capturing device, moving body detecting device, and moving body detecting program | |
CN101702021B (en) | Method for obtaining spectrum-integrated time-varying target optical spectrum information and device thereof | |
Bostater Jr et al. | Image analysis for water surface and subsurface feature detection in shallow waters | |
Yamashita et al. | Ground-based cloud observation for satellite-based cloud discrimination and its validation | |
Hinz et al. | The Z/I imaging digital camera system | |
Bostater et al. | Integration, testing, and calibration of imaging systems for land and water remote sensing | |
Kerle et al. | Advanced structural disaster damage assessment based on aerial oblique video imagery and integrated auxiliary data sources | |
Heier et al. | A digital airborne camera system for photogrammetry and thematic applications | |
Lebègue et al. | Using exotic guidance for Pleiades-HR image quality calibration | |
Granshaw | Photogrammetry and remote sensing | |
Jusoff et al. | Mapping of power transmission lines on Malaysian highways using UPM-APSB’s AISA airborne hyperspectral imaging system | |
Hassan et al. | Performances of frequency-based contextual classifier for land use/land cover using Cropcam UAV data | |
Dąbrowski et al. | Evaluation of the possibility of using the miniMCAmultispectral camera in Imagery Intelligence | |
Ashraf et al. | Remote sensing of freshwater habitats for large rivers and lakes of the Waikato region using sub-pixel classification | |
Hassan et al. | An Assessment of Low‐Cost Cropcam UAV Images for Land Cover/Use over Penang Island, Malaysia | |
Lehmann | HRSC hgh resolution stereo camera digital airborne imager: three years of operational data production and applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6959029 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |