JP6959029B2 - Multi-line image sensor device and imaging device - Google Patents

Multi-line image sensor device and imaging device Download PDF

Info

Publication number
JP6959029B2
JP6959029B2 JP2017089997A JP2017089997A JP6959029B2 JP 6959029 B2 JP6959029 B2 JP 6959029B2 JP 2017089997 A JP2017089997 A JP 2017089997A JP 2017089997 A JP2017089997 A JP 2017089997A JP 6959029 B2 JP6959029 B2 JP 6959029B2
Authority
JP
Japan
Prior art keywords
image
line
line sensor
group
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017089997A
Other languages
Japanese (ja)
Other versions
JP2017208813A (en
Inventor
宗煥 金
森 一夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to PCT/JP2017/017804 priority Critical patent/WO2017195858A1/en
Priority to TW106115773A priority patent/TW201803330A/en
Publication of JP2017208813A publication Critical patent/JP2017208813A/en
Application granted granted Critical
Publication of JP6959029B2 publication Critical patent/JP6959029B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、1シーン分の画像(単一画像)から移動体を検出するためのマルチラインイメージセンサ装置及び撮影装置に関する。 The present invention relates to a multi-line image sensor device and a photographing device for detecting a moving object from an image (single image) for one scene.

従来から、定点観測などの交通量調査が行われてきたが、これらの調査はコストが高く、調査や解析に時間を要する。 Traditionally, traffic volume surveys such as fixed-point observations have been conducted, but these surveys are costly and require time for surveys and analysis.

また、画像解析の分野では、微小な時間差のある2シーン分の画像を用いて画像間の差分処理を行うことによって移動体を抽出できるが、ほぼ同時期に撮影されたペア画像(例えば、ステレオペア撮影)が必要で、解析処理においても複雑な工程が含まれるという課題があった。 Further, in the field of image analysis, moving objects can be extracted by performing difference processing between images using images for two scenes with a minute time difference, but pair images taken at about the same time (for example, stereo). (Pair photography) is required, and there is a problem that a complicated process is included in the analysis process.

一方、近年の地球観測衛星(人工衛星)の多くは、焦点面アレイ(FPA:Focal Plane Array or Focal Plane Assembly)センサカメラを搭載しており、例えば、プッシュブルーム(push broom)掃引方式により、軌道上を移動しながら地球を観測するためのカラー(合成)画像を撮影するようになっている。 On the other hand, many earth observation satellites (artificial satellites) in recent years are equipped with a focal plane array (FPA) sensor camera, for example, by using a push broom sweep method. It is designed to take color (composite) images for observing the earth while moving on it.

しかしながら、焦点面アレイセンサカメラは、センサの配置の性質上、各バンド(色種毎)の撮影や信号処理時間にわずかな差を生じる。特に、撮影対象がセンサの露光時間よりも早く移動する移動体の場合には、バンド間のレジストレーションが正しく行われず、色ずれという現象を引き起こす。 However, due to the nature of the sensor arrangement, the focal plane array sensor camera causes a slight difference in the imaging and signal processing time of each band (for each color type). In particular, when the object to be photographed is a moving object that moves faster than the exposure time of the sensor, registration between bands is not performed correctly, causing a phenomenon of color shift.

すなわち、焦点面アレイセンサカメラは、二次元的な撮像が可能なフレームセンサ(エリアイメージセンサともいう)であるため、受光面が広く、被写体の全体を比較的簡単に撮影できるが、解像度が低い。また、地球のような球面を撮影する場合には、画像の後処理がより複雑になる。 That is, since the focal plane array sensor camera is a frame sensor (also called an area image sensor) capable of two-dimensional imaging, the light receiving surface is wide and the entire subject can be photographed relatively easily, but the resolution is low. .. Further, when photographing a spherical surface such as the earth, post-processing of the image becomes more complicated.

これに対し、一次元的な撮像が可能なラインセンサ(リニアイメージセンサともいう)は、高解像度の画像を得ることができる。また、複数の受光素子(光電変換素子)を横一列に配列しているので、球面の撮影にも適している。さらには、光学系を小型化する技術も研究されている。 On the other hand, a line sensor (also referred to as a linear image sensor) capable of one-dimensional imaging can obtain a high-resolution image. Further, since a plurality of light receiving elements (photoelectric conversion elements) are arranged in a horizontal row, it is also suitable for photographing a spherical surface. Furthermore, technology for miniaturizing the optical system is also being researched.

そのため、特にカラー(合成)画像を撮影可能なマルチラインセンサは、地球観測衛星に限らず、プリンタなどに搭載されることも多い。 Therefore, multi-line sensors capable of capturing color (composite) images are often mounted not only on earth observation satellites but also on printers and the like.

このようなマルチラインセンサとしては、同時に複数のバンドのカラー画像を得ることができるマルチスペクトルカメラ(マルチバンド1次元ラインセンサカメラともいう)が知られている(例えば、特許文献1参照)。 As such a multi-line sensor, a multi-spectral camera (also referred to as a multi-band one-dimensional line sensor camera) capable of simultaneously obtaining color images of a plurality of bands is known (see, for example, Patent Document 1).

また、受光方向の違いによる画像の鮮鋭度のばらつきを抑えることができる撮像装置も提案されている(例えば、特許文献2参照)。 Further, an imaging device capable of suppressing variation in image sharpness due to a difference in light receiving direction has also been proposed (see, for example, Patent Document 2).

特開2012−60411号公報Japanese Unexamined Patent Publication No. 2012-60411 国際公開(W0)第2011/010641(PCT/JP2010/062184)号International Publication (W0) 2011/010641 (PCT / JP2010 / 062184)

ここで、特許文献1に開示されたようなマルチスペクトルカメラを搭載した地球観測衛星が軌道上を移動しながら撮影する場合を例に、本発明が解決しようとする課題について、さらに詳しく説明する。ただし、ここでは、CCDラインセンサカメラを一例として説明する。 Here, the problem to be solved by the present invention will be described in more detail by taking as an example a case where an earth observation satellite equipped with a multispectral camera as disclosed in Patent Document 1 takes a picture while moving in orbit. However, here, a CCD line sensor camera will be described as an example.

地球観測衛星に搭載されるCCDラインセンサカメラの露光時間は、一般的に、衛星が1ライン走査分を移動する時間となる。例えば、空間分解能(または、画像分解能)が1メートルの衛星であれば、その露光時間は、衛星が1メートルの距離を移動するのに要する時間となる。 The exposure time of the CCD line sensor camera mounted on the earth observation satellite is generally the time for the satellite to travel one line of scanning. For example, if the satellite has a spatial resolution (or image resolution) of 1 meter, the exposure time is the time required for the satellite to travel a distance of 1 meter.

したがって、R、G、Bの3ライン分のCCDラインセンサを有するカメラを搭載した衛星が軌道上を移動しながら移動体を撮影する場合、露光時間よりも早く動く移動体は、ラインセンサ間のわずかな物理的離隔距離のため、信号電荷の読出しが移動体の速度に追いつかず、結果的にカラー(合成)画像上に色ずれとなって現れる。 Therefore, when a satellite equipped with a camera having CCD line sensors for three lines of R, G, and B shoots a moving object while moving in orbit, the moving object moving faster than the exposure time is between the line sensors. Due to the small physical separation distance, the reading of the signal charge cannot keep up with the speed of the moving object, and as a result, it appears as a color shift on the color (composite) image.

例えば、同一日時に同一地点で撮影され、幾何学的に重なり合うように補正された各バンドのカラー画像を同一サイズで重ね合わせると、カラー合成画像上において、停止中の車両や道路・ビルなどの静止物体は概ね重なり合うが、移動中の車両、船舶、または航空機などの移動体は、数画素(ピクセルともいう)から十数画素におよぶ位置的なずれを伴う。 For example, if the color images of the bands taken at the same point on the same date and time and corrected so as to overlap geometrically are superimposed with the same size, the color composite image shows a stopped vehicle, road, building, etc. Still objects generally overlap, but moving objects such as moving vehicles, ships, or aircraft are accompanied by positional deviations ranging from a few pixels (also called pixels) to a dozen or so pixels.

すなわち、カラー(合成)画像の取得が可能なCCDラインセンサカメラの場合、特にインターライン型構造においては、一定個数のフォトダイオード(PD)が横一列に並べられ、これと並列に同数のVCCD(垂直転送部)が配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える。また、これら3ライン分のラインセンサが、それぞれ、所定の間隔(物理的離隔距離)を有して並行に配置されてなる構成となっている。 That is, in the case of a CCD line sensor camera capable of acquiring a color (composite) image, a certain number of photodiodes (PDs) are arranged in a horizontal row, especially in an interline type structure, and the same number of VDCs (in parallel with this) It includes an R image line sensor, a G image line sensor, and a B image line sensor in which a vertical transfer unit) is arranged. Further, the line sensors for these three lines are arranged in parallel with a predetermined interval (physical separation distance), respectively.

そして、各ラインセンサにおいては、例えば、センサ駆動部から当該センサが1画素分の距離を移動する時間の間隔で送出される駆動パルスに応じて、光学系からの光がフォトダイオードによって露光される。また、1回の露光(ライン走査)において、各ラインセンサのフォトダイオードによって光電変換された信号電荷は、例えば、各フォトダイオードに対応するVCCDに一斉に読出され、順次、垂直転送された後、水平転送部(HCCD)を介して出力される。 Then, in each line sensor, for example, light from the optical system is exposed by the photodiode in response to a drive pulse transmitted from the sensor drive unit at intervals of time when the sensor moves a distance of one pixel. .. Further, in one exposure (line scanning), the signal charges photoelectrically converted by the photodiodes of each line sensor are, for example, simultaneously read out to the VCCD corresponding to each photodiode, sequentially and vertically transferred, and then. It is output via the horizontal transfer unit (HCCD).

なお、1回の露光における全画素の信号電荷をVCCDに出力し終わると、次の露光のための駆動パルスが、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとに与えられる。 When the signal charges of all the pixels in one exposure are output to the VCCD, the drive pulse for the next exposure is given to the R image line sensor, the G image line sensor, and the B image line sensor. Be done.

このように、インターライン型構造のCCDラインセンサカメラは、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとの間に、それぞれ、わずかな物理的離隔距離を有する。そのため、露光時間よりも早く動く移動体の場合には、信号電荷の読出しが間に合わなくなり、結果的に大きな色ずれを生じる。 As described above, the CCD line sensor camera having the interline type structure has a slight physical separation distance between the R image line sensor, the G image line sensor, and the B image line sensor, respectively. Therefore, in the case of a moving body that moves faster than the exposure time, the signal charge cannot be read out in time, resulting in a large color shift.

静止物体の場合であっても、同一日時に同一地点で撮影された各バンドのカラー画像には、ラインセンサ間の物理的離隔距離によって多少の色ずれが生じるため、カラー合成画像を得る過程において、ラインディレイ補正などの処理により位置合わせを行う必要がある。 Even in the case of a stationary object, the color images of each band taken at the same point on the same date and time will have some color shift due to the physical separation distance between the line sensors, so in the process of obtaining a color composite image. , It is necessary to perform alignment by processing such as line delay correction.

しかしながら、1回の露光における信号電荷の転送中に別の画素に移動してしまうような移動体の場合には、ラインディレイ補正などの処理を実施したとしても、各バンドのカラー画像を十分に位置合わせすることが困難となる。 However, in the case of a moving body that moves to another pixel during the transfer of signal charge in one exposure, the color image of each band can be sufficiently obtained even if processing such as line delay correction is performed. It becomes difficult to align.

すなわち、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせると、道路やビルなどの静止物体(背景)は殆んどずれることなく重なり合うが、移動中の車両、船舶、または航空機などは、画素間の移動量が移動速度に応じて数画素から十数画素におよぶため、ラインディレイ補正だけでは色ずれを解消できない。 That is, when the color images of the bands obtained by aligning them so as to overlap geometrically are overlapped with the same size, the stationary objects (backgrounds) such as roads and buildings overlap with each other with almost no deviation, but they are moving. In vehicles, ships, aircraft, etc., the amount of movement between pixels ranges from several pixels to a dozen or so pixels depending on the moving speed, so color shift cannot be eliminated by line delay correction alone.

また、この色ずれを利用して移動体を検出する方法も研究されているが、従来の方法では、各バンドのカラー画像を合成した際に、移動体と移動体以外の静止物体とが同じような色付きの画像として表現されるために、カラー合成画像上から移動体のみを抽出するには複雑な画像処理技術が必要であった。 In addition, a method of detecting a moving body using this color shift has also been studied, but in the conventional method, when the color images of each band are combined, the moving body and the stationary object other than the moving body are the same. In order to be expressed as such a colored image, a complicated image processing technique is required to extract only moving objects from the color composite image.

本発明は、上記の課題を鑑みてなされたものであって、移動体を静止物体と明確に区別でき、移動体を効率良く検出することが可能なマルチラインイメージセンサ装置及び撮影装置を得ることを目的とする。 The present invention has been made in view of the above problems, and obtains a multi-line image sensor device and a photographing device capable of clearly distinguishing a moving object from a stationary object and efficiently detecting the moving object. With the goal.

本発明に係るマルチラインイメージセンサ装置は、
互いに間隔を有して並列に配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える三原色画像ラインセンサと、
前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記間隔を有して並列に配置され、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと同一色の光の波長を検出する第1の同一波長成分画像用ラインセンサと
有し、
前記三原色画像ラインセンサによってカラー画像を取得すると共に、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記第1の同一波長成分画像用ラインセンサとによって白黒画像を取得することを要旨とする。
The multi-line image sensor device according to the present invention is
Three primary color image line sensors including an R image line sensor, a G image line sensor, and a B image line sensor, which are arranged in parallel at intervals from each other.
A first that is arranged in parallel with an image line sensor of any of the three primary color image line sensors at the interval and detects a wavelength of light of the same color as the image line sensor of any of the three primary color image line sensors. and a line sensor for the same wavelength component image,
The gist is that a color image is acquired by the three primary color image line sensors, and a black and white image is acquired by the image line sensor of any of the three primary color image line sensors and the first line sensor for the same wavelength component image. ..

本発明に係る撮影装置は、
撮影エリアに対して、所定の高さを有し、所定の速度により一方向に移動する飛行体に設けられ、前記飛行体の移動に伴って、三原色のカラー画像と、前記三原色のカラー画像のいずれかのカラー画像と同一色の光の波長のカラー画像である同一波長成分画像とを得る撮影装置であって、
マルチラインイメージセンサ装置を備え、
前記マルチラインイメージセンサ装置は、
互いに間隔を有して並列に配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える三原色画像ラインセンサと、
前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記間隔を有して並列に配置され、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと同一色の光の波長を検出する同一波長成分画像用ラインセンサとを備え、
さらに、
前記三原色画像ラインセンサ及び前記同一波長成分画像用ラインセンサに、前記撮影エリアからの光を結像させる光学系と、
前記三原色画像ラインセンサ及び前記同一波長成分画像用ラインセンサを駆動するセンサ駆動部と、
前記センサ駆動部の駆動に伴って出力された前記三原色画像ラインセンサからの各々の出力を第1画像、第2画像、第3画像として得て水平転送するとともに、前記同一波長成分画像用ラインセンサからの出力を前記同一波長成分画像として得て水平転送する水平転送部と
有し、
前記三原色画像ラインセンサによってカラー画像を取得すると共に、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記同一波長成分画像用ラインセンサとによって白黒画像を取得することを要旨とする。
The photographing apparatus according to the present invention is
A flying object having a predetermined height with respect to the shooting area and moving in one direction at a predetermined speed is provided, and as the flying object moves, a color image of the three primary colors and a color image of the three primary colors are used. An imaging device that obtains a color image having the same wavelength as any color image and a color image having the same wavelength of light.
Equipped with a multi-line image sensor device
The multi-line image sensor device is
Three primary color image line sensors including an R image line sensor, a G image line sensor, and a B image line sensor, which are arranged in parallel at intervals from each other.
The same wavelength that is arranged in parallel with the image line sensor of any of the three primary color image line sensors at the interval and detects the wavelength of light of the same color as the image line sensor of any of the three primary color image line sensors. Equipped with a line sensor for component images
Moreover,
An optical system for forming an image of light from the photographing area on the three primary color image line sensors and the same wavelength component image line sensor, and
A sensor drive unit that drives the three primary color image line sensors and the same wavelength component image line sensor,
Each output from the three primary color image line sensors output by driving the sensor drive unit is obtained as a first image, a second image, and a third image and horizontally transferred, and the line sensor for the same wavelength component image. It has a horizontal transfer unit that obtains the output from the same wavelength component as the same wavelength component image and transfers it horizontally .
The gist is that a color image is acquired by the three primary color image line sensors, and a black and white image is acquired by the image line sensor of any of the three primary color image line sensors and the same wavelength component image line sensor.

以上のように本発明のマルチラインイメージセンサ装置によれば、三原色画像と、三原色画像ラインセンサのいずれかの同一色の光の波長である同一波長成分画像とを同時に得ることができる。 As described above, according to the multi-line image sensor device of the present invention, it is possible to simultaneously obtain a three-primary-color image and a same-wavelength component image having the same wavelength of light of any one of the three-primary-color image line sensors.

また、本発明の撮影装置によれば、三原色画像と、三原色画像ラインセンサのいずれかの同一色の光の波長である同一波長成分画像とを同時に得るマルチラインイメージ装置を内蔵して、撮影エリアを所定の高さを有し、所定の速度により一方向に移動する飛行体に設けて撮影して、これを送信する。このため、受信側では移動体の変化を直ぐに検出することが可能となる。 Further, according to the photographing device of the present invention, a multi-line image device for simultaneously obtaining a three-primary color image and an image having the same wavelength component which is the wavelength of light of the same color of any of the three primary color image line sensors is built in, and a photographing area is incorporated. Is provided on an air vehicle having a predetermined height and moving in one direction at a predetermined speed, an image is taken, and this is transmitted. Therefore, the receiving side can immediately detect the change of the moving body.

また、移動体の色が強調されているので、移動速度、移動方向、個数などの移動体情報をも高精度に算出できる。 Further, since the color of the moving body is emphasized, the moving body information such as the moving speed, the moving direction, and the number of moving bodies can be calculated with high accuracy.

本実施の形態に係るマルチスペクトルセンサ装置(マルチラインイメージセンサ装置)を用いた移動体検出システムの概略構成図である。It is a schematic block diagram of the moving body detection system using the multi-spectral sensor device (multi-line image sensor device) which concerns on this embodiment. 本実施の形態に係るマルチスペクトルセンサ装置が適用される人工衛星カメラが搭載された地球観測衛星の概略構成ブロック図である。It is a schematic block diagram of the earth observation satellite equipped with the artificial satellite camera to which the multispectral sensor apparatus which concerns on this embodiment is applied. 本実施の形態1に係るマルチスペクトルセンサ装置が適用される人工衛星カメラの概略構成図である。It is a schematic block diagram of the artificial satellite camera to which the multispectral sensor apparatus which concerns on Embodiment 1 is applied. 図3のI−I線に沿う、マルチスペクトルセンサ装置の概略断面図である。FIG. 3 is a schematic cross-sectional view of a multispectral sensor device along the line I-I of FIG. 人工衛星カメラの基本動作を説明するタイミングチャートであって、(a)駆動パルスPDの概略波形図、(b)制御パルスTGの概略波形図、(c)制御パルスBPの概略波形図、(d)制御パルスGPの概略波形図、(e)制御パルスRPの概略波形図、(f)制御パルスRPの概略波形図。It is a timing chart explaining the basic operation of an artificial satellite camera, and is (a) a schematic waveform diagram of a drive pulse PD, (b) a schematic waveform diagram of a control pulse TG, (c) a schematic waveform diagram of a control pulse BP, and (d). ) schematic waveform diagram of the control pulse GP, (e) schematic waveform diagram of the control pulse R 1 P, (f) a schematic waveform diagram of the control pulse R 2 P. 本実施の形態1に係るマルチスペクトルセンサ装置を用いた移動体検出システムにおける移動体検出装置の概略構成図である。It is a schematic block diagram of the mobile body detection device in the mobile body detection system using the multispectral sensor device which concerns on Embodiment 1. 移動体検出装置におけるオペレーション部の概略構成図である。It is a schematic block diagram of the operation part in a moving body detection device. 移動体検出画像の表示例を説明する概略図(イメージ画像)である。It is the schematic (image image) explaining the display example of the moving body detection image. 移動体検出装置のエリア抽出部での処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of processing in the area extraction part of a moving body detection apparatus. 移動体検出装置での処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of processing in a moving body detection apparatus. 移動体検出処理を説明するための動作説明図であって、(a)撮影画像用データベースにおけるライン毎撮影画像eGiの蓄積例を示す図、(b)色強調画像用メモリでのメッシュMiの作成例を示す図。It is an operation explanatory diagram for explaining the moving body detection process, (a) the figure which shows the accumulation example of the photographed image eGi for each line in the database for photographed images, (b) the creation of mesh Mi in the memory for a color-enhanced image. The figure which shows an example. (a)移動体検出画像(色強調前)の表示例を示す概略図(イメージ画像)であり、(b)移動体検出画像(色強調後)の表示例を示す概略図(イメージ画像)である。(A) A schematic diagram (image image) showing a display example of a moving object detection image (before color enhancement), and (b) a schematic diagram (image image) showing a display example of a moving object detection image (after color enhancement). be. 移動体検出画像における表示特性を示すもので、(a)走行中の車両を例に示す特性図、(b)停止中の車両を例に示す特性図。The display characteristics in the moving object detection image are shown, and (a) a characteristic diagram showing a running vehicle as an example, and (b) a characteristic diagram showing a stopped vehicle as an example. 本実施の形態1に係るマルチスペクトルセンサ装置の配置例を説明する概略図である。It is a schematic diagram explaining the arrangement example of the multispectral sensor apparatus which concerns on Embodiment 1. (a)停止中の車両を例に示す概略図であり、(b)その表示例を説明する概略図である。(A) is a schematic view showing a stopped vehicle as an example, and (b) is a schematic view explaining the display example. (a)低速走行中の車両を例に示す概略図であり、(b)その表示例を説明する概略図である。(A) is a schematic view showing a vehicle traveling at a low speed as an example, and (b) is a schematic view explaining the display example. (a)高速走行中の車両を例に示す概略図であり、(b)その表示例を説明する概略図である。(A) is a schematic view showing a vehicle traveling at high speed as an example, and (b) is a schematic view explaining the display example. 移動体検出画像を対比して示すもので、(a)色強調前の移動体検出画像を示す概略図(イメージ画像)であり、(b)色強調後の移動体検出画像を示す概略図(イメージ画像)である。The moving body detection image is shown in comparison with (a) a schematic view (image image) showing the moving body detection image before color enhancement, and (b) a schematic view showing the moving body detection image after color enhancement (b). Image image). 本実施の形態に係るマルチスペクトルセンサ装置の他の構成例を示す概略図である。It is the schematic which shows the other configuration example of the multispectral sensor apparatus which concerns on this embodiment. 本実施の形態に係るマルチスペクトルセンサ装置のさらに別の構成例を示す概略図である。It is a schematic diagram which shows the further structural example of the multispectral sensor apparatus which concerns on this embodiment. 本実施の形態1の第1変形例に係るマルチスペクトルセンサ装置の概略構成図である。It is a schematic block diagram of the multispectral sensor apparatus which concerns on 1st modification of Embodiment 1. 本実施の形態1の第2変形例に係るマルチスペクトルセンサ装置の概略構成図である。It is a schematic block diagram of the multispectral sensor apparatus which concerns on the 2nd modification of Embodiment 1. 本実施の形態1の第3変形例に係るマルチスペクトルセンサ装置の概略構成図である。It is a schematic block diagram of the multispectral sensor apparatus which concerns on the 3rd modification of Embodiment 1. 移動体検出画像を、移動体を雲とした場合を例に説明する概略図(イメージ画像)である。It is a schematic diagram (image image) explaining the case where the moving body is a cloud as an example of the moving body detection image. 移動体を波とした場合を例に示すもので、(a)R画像の概略図(イメージ画像)、(b)G画像の概略図(イメージ画像)、(c)B画像の概略図(イメージ画像)、(d)移動体検出画像の概略図(イメージ画像)。A case in which the moving body is a wave illustrates an example, (a) a schematic diagram of R 1 image (image picture), a schematic view of (b) G image (image picture), a schematic diagram of (c) B image ( Image image), (d) Schematic diagram (image image) of the moving body detection image. 本実施の形態2に係るマルチスペクトルセンサ装置(マルチラインイメージセンサ装置)が適用される人工衛星カメラの概略構成図である。It is a schematic block diagram of the artificial satellite camera to which the multispectral sensor apparatus (multiline image sensor apparatus) which concerns on Embodiment 2 is applied. 図26のII−II線に沿う、マルチスペクトルセンサ装置の概略断面図である。FIG. 6 is a schematic cross-sectional view of a multispectral sensor device along line II-II of FIG. 本実施の形態2に係るマルチスペクトルセンサ装置の配置例を説明する概略図である。It is the schematic explaining the arrangement example of the multispectral sensor apparatus which concerns on embodiment 2. 移動体検出装置での特定エリアの指定方法について説明する概略図である。It is a schematic diagram explaining the method of designating a specific area in a moving body detection device. 停止中の車両を例に示す、移動体をライン走査する場合のタイミングチャートであって、(a)マルチスペクトルセンサ装置214IIと車両Tsとの関係を示す概略図、(b)撮影命令の概略波形図、(c)フォトダイオードPD群214Rpの露光例を示す概略図、(d)CCD群214Rfの転送例を示す概略図、(e)転送時の波形成型出力例、(f)フォトダイオードPD群214Gpの露光例を示す概略図、(g)CCD群214Gfの転送例を示す概略図、(h)転送時の波形成型出力例、(i)フォトダイオードPD群214Bpの露光例を示す概略図、(j)CCD群214Bfの転送例を示す概略図、(k)転送時の波形成型出力例、(m)フォトダイオードPD群214Rpの露光例を示す概略図、(n)CCD群214Rfの転送例を示す概略図、(p)転送時の波形成型出力例。It is a timing chart in the case of line scanning a moving body, which shows a stopped vehicle as an example, (a) a schematic diagram showing the relationship between the multispectral sensor device 214II and the vehicle Ts, and (b) a schematic waveform of an imaging command. Figure, a schematic diagram showing an exposure example of (c) photodiode PD group 214R 1 p, (d) a schematic diagram showing an example of transfer of the CCD group 214R 1 f, (e) waveform shaping output example when transfer, (f) Schematic diagram showing an exposure example of the photodiode PD group 214Gp, (g) schematic diagram showing a transfer example of the CCD group 214Gf, (h) waveform molding output example during transfer, (i) exposure example of the photodiode PD group 214Bp. schematic, (j) schematic view showing an example of transfer of the CCD group 214Bf, (k) waveform shaping output example when transfer, (m) photodiode PD group 214R 2 p schematic diagram showing an exposure example shown, (n) schematic diagram showing an example of transfer of the CCD group 214R 2 f, (p) waveform shaping output example when transfer. 低速走行中の車両を例に示す、移動体をライン走査する場合のタイミングチャートであって、(a)マルチスペクトルセンサ装置214IIと車両Tmaとの関係を示す概略図、(b)撮影命令の概略波形図、(c)フォトダイオードPD群214Rpの露光例を示す概略図、(d)CCD群214Rfの転送例を示す概略図、(e)転送時の波形成型出力例、(f)フォトダイオードPD群214Gpの露光例を示す概略図、(g)CCD群214Gfの転送例を示す概略図、(h)転送時の波形成型出力例、(i)フォトダイオードPD群214Bpの露光例を示す概略図、(j)CCD群214Bfの転送例を示す概略図、(k)転送時の波形成型出力例、(m)フォトダイオードPD群214Rpの露光例を示す概略図、(n)CCD群214Rfの転送例を示す概略図、(p)転送時の波形成型出力例。It is a timing chart in the case of line scanning a moving body, which shows a vehicle traveling at a low speed as an example, (a) a schematic diagram showing the relationship between the multispectral sensor device 214II and the vehicle Tma, and (b) an outline of an imaging command. waveform, (c) a schematic diagram showing an exposure example of the photodiode PD group 214R 1 p, (d) a schematic diagram showing an example of transfer of the CCD group 214R 1 f, (e) waveform shaping output example when transfer, (f () Schematic diagram showing an exposure example of the photodiode PD group 214Gp, (g) a schematic diagram showing a transfer example of the CCD group 214Gf, (h) an example of waveform molding output during transfer, (i) an exposure example of the photodiode PD group 214Bp. schematic diagram showing, (j) schematic view showing an example of transfer of the CCD group 214Bf, (k) waveform shaping output example when transfer, (m) photodiode PD group 214R 2 p schematic diagram showing an exposure example, (n ) Schematic diagram showing a transfer example of the CCD group 214R 2 f, (p) Example of waveform molding output during transfer. 高速走行中の車両を例に示す、移動体をライン走査する場合のタイミングチャートであって、(a)マルチスペクトルセンサ装置214IIと車両Tmbとの関係を示す概略図、(b)撮影命令の概略波形図、(c)フォトダイオードPD群214Rpの露光例を示す概略図、(d)CCD群214Rfの転送例を示す概略図、(e)転送時の波形成型出力例、(f)フォトダイオードPD群214Gpの露光例を示す概略図、(g)CCD群214Gfの転送例を示す概略図、(h)転送時の波形成型出力例、(i)フォトダイオードPD群214Bpの露光例を示す概略図、(j)CCD群214Bfの転送例を示す概略図、(k)転送時の波形成型出力例、(m)フォトダイオードPD群214Rpの露光例を示す概略図、(n)CCD群214Rfの転送例を示す概略図、(p)転送時の波形成型出力例。It is a timing chart in the case of line scanning a moving body, which shows a vehicle traveling at high speed as an example, (a) a schematic diagram showing the relationship between the multispectral sensor device 214II and the vehicle Tmb, and (b) an outline of an imaging command. waveform, (c) a schematic diagram showing an exposure example of the photodiode PD group 214R 1 p, (d) a schematic diagram showing an example of transfer of the CCD group 214R 1 f, (e) waveform shaping output example when transfer, (f () Schematic diagram showing an exposure example of the photodiode PD group 214Gp, (g) a schematic diagram showing a transfer example of the CCD group 214Gf, (h) an example of waveform molding output during transfer, (i) an exposure example of the photodiode PD group 214Bp. schematic diagram showing, (j) schematic view showing an example of transfer of the CCD group 214Bf, (k) waveform shaping output example when transfer, (m) photodiode PD group 214R 2 p schematic diagram showing an exposure example, (n ) Schematic diagram showing a transfer example of the CCD group 214R 2 f, (p) Example of waveform molding output during transfer. 移動体検出画像における表示特性を示すもので、(a)高速走行中の車両を例に示す特性図、(b)低速走行中の車両を例に示す特性図。The display characteristics in the moving object detection image are shown, and (a) a characteristic diagram showing a vehicle traveling at high speed as an example, and (b) a characteristic diagram showing a vehicle traveling at low speed as an example. 移動体の表示例を説明するためのものであって、(a)車両とマルチスペクトルセンサ装置との関係を例示する概略図、(b)車両の走行方向を東側方向とした場合の表示例、(c)車両の走行方向を西側方向とした場合の表示例、(d)車両の走行方向を北側方向とした場合の表示例、(e)車両の走行方向を南側方向とした場合の表示例。The purpose is to explain a display example of a moving body, (a) a schematic diagram illustrating the relationship between the vehicle and the multispectral sensor device, and (b) a display example when the traveling direction of the vehicle is the east side. (C) Display example when the traveling direction of the vehicle is the west side, (d) Display example when the traveling direction of the vehicle is the north side, (e) Display example when the traveling direction of the vehicle is the south side. .. 移動体検出画像を得るための処理の一例を示すものであって、(a)抽出画像の概略図(イメージ画像)、(b)指定画像の概略図(イメージ画像)、(c)移動体検出画像の概略図(イメージ画像)。An example of the process for obtaining the moving object detection image is shown, and (a) a schematic diagram (image image) of the extracted image, (b) a schematic diagram (image image) of the designated image, and (c) a moving object detection. Schematic diagram of the image (image image). 移動体検出画像を得るための処理の他例を示すものであって、(a)抽出画像の概略図(イメージ画像)、(b)指定画像の概略図(イメージ画像)、(c)移動体検出画像の概略図(イメージ画像)。Other examples of the process for obtaining the moving object detection image are shown, and (a) a schematic diagram (image image) of the extracted image, (b) a schematic diagram (image image) of the designated image, and (c) a moving object. Schematic diagram (image image) of the detected image. 図36(c)に示した移動体検出画像の拡大図(イメージ画像)である。It is an enlarged view (image image) of the moving body detection image shown in FIG. 36 (c). 本実施の形態2の第1変形例に係るマルチスペクトルセンサ装置の概略構成図である。It is a schematic block diagram of the multispectral sensor apparatus which concerns on 1st modification of Embodiment 2. 本実施の形態2の第2変形例に係るマルチスペクトルセンサ装置の概略構成図である。It is a schematic block diagram of the multispectral sensor apparatus which concerns on the 2nd modification of Embodiment 2. 本実施の形態2の第3変形例に係るマルチスペクトルセンサ装置の概略構成図である。It is a schematic block diagram of the multispectral sensor apparatus which concerns on the 3rd modification of Embodiment 2. 本実施の形態2の第4変形例に係るマルチスペクトルセンサ装置の概略構成図である。It is a schematic block diagram of the multispectral sensor apparatus which concerns on the 4th modification of Embodiment 2. 本実施の形態3に係るマルチスペクトルセンサ装置を用いた移動体検出システムにおける移動体検出装置の概略構成図である。It is a schematic block diagram of the mobile body detection device in the mobile body detection system using the multispectral sensor device which concerns on Embodiment 3. 移動体検出装置での処理の一例を示す概略図である。It is the schematic which shows an example of the processing in a moving body detection apparatus. 移動体検出装置での処理の他例を示す概略図である。It is the schematic which shows the other example of the processing in a moving body detection apparatus.

以下に示す本実施の形態は、発明の技術的思想(構造、配置)を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記のものに特定されるものではない。本発明の技術的思想は、特許請求の範囲に記載された事項の範囲内において、種々の変更を加えることができる。また、図面は模式的なものであり、装置やシステムの構成などは現実のものとは異なることに留意すべきである。 The present embodiment shown below exemplifies an apparatus or method for embodying the technical idea (structure, arrangement) of the invention, and the technical idea of the present invention is specified as follows. It's not something. The technical idea of the present invention may be modified in various ways within the scope of the matters described in the claims. It should also be noted that the drawings are schematic and the configurations of the devices and systems are different from the actual ones.

本実施の形態のマルチラインイメージセンサ装置は、例えば、超小型の人工衛星に搭載される撮影装置(人工衛星カメラともいう)に内蔵されているとして説明する。 The multi-line image sensor device of the present embodiment will be described, for example, as being built in a photographing device (also referred to as an artificial satellite camera) mounted on an ultra-small artificial satellite.

そして、このマルチラインイメージセンサ装置は、画像処理時において、撮影対象(被写体)である移動体(車両、船舶、航空機、雲、津波のような流体などを含む)を静止物体と明確に区別できるライン配列とされている。 Then, this multi-line image sensor device can clearly distinguish a moving object (including a vehicle, a ship, an aircraft, a cloud, a fluid such as a tsunami), which is a shooting target (subject), from a stationary object at the time of image processing. It is a line array.

また、以下の説明においては、このマルチラインイメージセンサ装置で取得した複数の色種(各バンド)のカラー画像のスペクトラムを重ねて、移動体のカラー表示を強調した移動体検出画像を得る地上センタの移動体検出装置(地上局ともいう)をさらに備えた移動体検出システムを例示して説明する。 Further, in the following description, the ground center obtains a moving body detection image in which the color display of the moving body is emphasized by superimposing the spectrum of the color images of a plurality of color types (each band) acquired by this multi-line image sensor device. A mobile detection system further equipped with a mobile detection device (also referred to as a ground station) will be described as an example.

なお、移動体が存在する媒体(地球、紙、空、海、川、山、…)は地球とし、移動体を走行中の車両(バイクやオートバイなどを含む)または津波とした場合について説明する。 In addition, the case where the moving body exists (earth, paper, sky, sea, river, mountain, ...) is the earth, and the moving body is a moving vehicle (including a motorcycle, a motorcycle, etc.) or a tsunami will be described. ..

<実施の形態1>
図1は、本実施の形態1に係るマルチラインイメージセンサ装置が適用されるマルチスペクトルセンサ装置(MSS)を用いた移動体検出システムの概略構成図である。ここでは、移動体検出システムにおいて、地球観測衛星(飛行体)12に搭載された人工衛星カメラ21によって撮影されたライン毎撮影画像eGiに基づいて作成される1回の撮影時(1シーン分)の移動体検出画像(単一画像)CPから、例えば、走行中の車両Tmを検出する場合を例に説明する。また、飛行体は、飛行機(ヘリコプター含む)、ドローン、飛行船、人工衛星などの飛行体であるが、実施の形態では人工衛星として説明する。
<Embodiment 1>
FIG. 1 is a schematic configuration diagram of a mobile body detection system using a multispectral sensor device (MSS) to which the multiline image sensor device according to the first embodiment is applied. Here, in the moving object detection system, at the time of one shooting (for one scene) created based on the line-by-line captured image eGi captured by the artificial satellite camera 21 mounted on the earth observation satellite (flying object) 12. For example, a case where a moving vehicle Tm is detected from a moving object detection image (single image) CP will be described as an example. Further, the flying object is an airplane (including a helicopter), a drone, an airship, an artificial satellite, or the like, but in the embodiment, it will be described as an artificial satellite.

図1に示すように、この移動体検出システムは、地球10の軌道上を一方向(以下、SD方向という)に移動しながら地球10を観測する人工衛星(以下、地球観測衛星12という)と、この地球観測衛星12と地上センタとの間で、アンテナ施設14を介して、各種のデータや信号、情報などのやり取りを行う移動体検出装置16と、から構成されている。この移動体検出装置16は、地上センタに設けられたサーバシステムである。 As shown in FIG. 1, this moving object detection system includes an artificial satellite (hereinafter referred to as earth observation satellite 12) that observes the earth 10 while moving in one direction (hereinafter referred to as SD direction) in the orbit of the earth 10. It is composed of a moving body detection device 16 that exchanges various data, signals, information, etc. between the earth observation satellite 12 and the ground center via the antenna facility 14. The mobile body detection device 16 is a server system provided in the ground center.

地球観測衛星12は、人工衛星カメラ21(撮影装置ともいう)が搭載される、いわゆるプラットフォームであって、所定の速度により図示矢印SD方向に移動しながら、所定の高さの軌道上を周回するように構成されている。 The earth observation satellite 12 is a so-called platform on which an artificial satellite camera 21 (also referred to as a photographing device) is mounted, and orbits in an orbit at a predetermined height while moving in the direction of the arrow SD shown in the figure at a predetermined speed. It is configured as follows.

すなわち、地球観測衛星12は、例えば、地球10の約400km(キロメートル)〜約700kmの高度の上空を、高度に応じたほぼ一定の速度で飛行する超小型の人工衛星であるのが好ましい。 That is, the earth observation satellite 12 is preferably an ultra-small artificial satellite that flies at an altitude of about 400 km (kilometers) to about 700 km of the earth 10 at a substantially constant speed according to the altitude.

そして、図示矢印SD方向への移動に伴って、搭載する人工衛星カメラ21により地球10の地表部分の画像を約2.5m(メートル)×50kmの幅で連続撮影する。 Then, as the arrow moves in the SD direction, the on-board artificial satellite camera 21 continuously captures an image of the surface of the earth 10 with a width of about 2.5 m (meter) × 50 km.

前述の人工衛星カメラ21内には、任意の撮影エリアTEG内を、例えばプッシュブルーム方式により、ライン走査するためのマルチスペクトルセンサ装置214が内蔵されている。 In the artificial satellite camera 21 described above, a multispectral sensor device 214 for line scanning in an arbitrary shooting area TEG by, for example, a push bloom method is built-in.

ここで、地球観測衛星12は、地表面方向(垂直方向)に対する人工衛星カメラ21の撮影面(水平方向)の角度が常に90度となるように移動(姿勢ω、κ、θ)が制御される。また、地球観測衛星12において、人工衛星カメラ21は、内蔵するマルチスペクトルセンサ装置214の、衛星12の飛行するSD方向との角度がほぼ90度(ほぼ直角)となるように調整される。すなわち、マルチスペクトルセンサ装置214は、後述するラインセンサの水平方向の向き(ライン配列)が、SD方向に対して実質的に直交するように配置されている。 Here, the movement (attitudes ω, κ, θ) of the earth observation satellite 12 is controlled so that the angle of the imaging surface (horizontal direction) of the artificial satellite camera 21 with respect to the ground surface direction (vertical direction) is always 90 degrees. NS. Further, in the earth observation satellite 12, the artificial satellite camera 21 is adjusted so that the angle of the built-in multispectral sensor device 214 with the SD direction in which the satellite 12 flies is approximately 90 degrees (approximately right angle). That is, the multispectral sensor device 214 is arranged so that the horizontal direction (line arrangement) of the line sensor, which will be described later, is substantially orthogonal to the SD direction.

そして、地球観測衛星12は、マルチスペクトルセンサ装置214を用いて撮影したライン毎撮影画像eGiを含む送信信号SGiを、地上センタの移動体検出装置16につながるアンテナ施設14に向けて送信する。ここで、前述の送信信号SGiは、例えば、ライン毎撮影画像eGiとヘッダ情報EHiとから主に構成されている。 Then, the earth observation satellite 12 transmits the transmission signal SGi including the line-by-line captured image eGi captured by the multispectral sensor device 214 toward the antenna facility 14 connected to the moving object detection device 16 at the ground center. Here, the transmission signal SGi described above is mainly composed of, for example, a line-by-line captured image eGi and header information EHi.

ライン毎撮影画像eGiとは、画素を構成する各バンドの階調度(ピクセル値に相当)を含むフレーム信号であって、例えば、撮影時にマルチスペクトルセンサ装置214から1ライン毎に定期的または連続的に出力される、画素データを伴ったセンサ出力(1ライン走査分の信号電荷)である。 The line-by-line captured image eGi is a frame signal including the gradation (corresponding to a pixel value) of each band constituting the pixel. For example, the multi-spectral sensor device 214 periodically or continuously for each line during imaging. It is a sensor output (signal charge for one line scan) accompanied by pixel data.

ヘッダ情報EHiとは、例えば、C&DH(Command and Data Handling)系などによりライン毎撮影画像eGiに付加される撮影時のメタ(meta)データである。ヘッダ情報EHiには、例えば、地球観測衛星12を識別するための情報(ID)、地球観測衛星12の撮影時の緯度、経度、高度、姿勢などの情報、空間分解能、撮影日や撮影時刻、撮影開始時刻(Collection Start Time)及び終了時刻(Collection End Time)に関する情報、バンドの種別(色種)に関する情報、画素の位置を示すピクセル座標Pzai(i,j)、送信先情報などが含まれる。 The header information EHi is, for example, meta data at the time of shooting added to the shot image eGi for each line by a C & DH (Command and Data Handling) system or the like. The header information EHi includes, for example, information (ID) for identifying the earth observation satellite 12, information such as latitude, longitude, altitude, and attitude at the time of shooting of the earth observation satellite 12, spatial resolution, shooting date and shooting time, and so on. Information on shooting start time (Collection Start Time) and end time (Collection End Time), information on band type (color type), pixel coordinates Pzai (i, j) indicating pixel positions, destination information, etc. are included. ..

また、ヘッダ情報EHiとしては、後述する送信部(27)において、ライン毎撮影画像eGi単位で付加されるのが望ましい。 Further, it is desirable that the header information EHi is added in units of the captured image eGi for each line in the transmission unit (27) described later.

地球観測衛星12としては、人工衛星としての基本的な機能(例えば、C&DH系や推進系など)を含む、その他の各種の機能を備えるものであっても良く、ここでの詳細な説明は省略する。 The earth observation satellite 12 may have various other functions including basic functions as an artificial satellite (for example, C & DH system, propulsion system, etc.), and detailed description thereof is omitted here. do.

図2は、地球観測衛星12内部の人工衛星カメラ21の付近の概略構成図である。 FIG. 2 is a schematic configuration diagram of the vicinity of the artificial satellite camera 21 inside the earth observation satellite 12.

図2に示すように、地球観測衛星12は、人工衛星カメラ21と、移動体検出装置16からアンテナ施設14を介して送られる撮影命令などを受信する受信部23と、人工衛星カメラ21を制御するセンサ制御部25と、ライン毎撮影画像eGiを含む送信信号SGiを移動体検出装置16に送信する送信部27と、を少なくとも有して構成されている。 As shown in FIG. 2, the earth observation satellite 12 controls the artificial satellite camera 21, the receiving unit 23 that receives an imaging command or the like sent from the moving object detection device 16 via the antenna facility 14, and the artificial satellite camera 21. It is configured to include at least a sensor control unit 25 and a transmission unit 27 that transmits a transmission signal SGi including a line-by-line captured image eGi to the moving object detection device 16.

なお、センサ制御部25及び送信部27の少なくとも一方を、人工衛星カメラ21内に備える構成としても良い。 At least one of the sensor control unit 25 and the transmission unit 27 may be provided in the artificial satellite camera 21.

人工衛星カメラ21は、図2に示すように、例えば、マルチスペクトルセンサ装置214と、マルチスペクトルセンサ装置214をセンサ制御部25の制御に基づいて駆動するセンサ駆動部210と、光学系部(光学系)212と、転送部(HCCD)218と、を備えている。 As shown in FIG. 2, the artificial satellite camera 21 includes, for example, a multispectral sensor device 214, a sensor drive unit 210 that drives the multispectral sensor device 214 under the control of the sensor control unit 25, and an optical system unit (optical). A system) 212 and a transfer unit (HCCD) 218 are provided.

センサ駆動部210は、例えば、マルチスペクトルセンサ装置214内の後述する4種の画像用ラインセンサに、地球観測衛星12が1ライン走査分の距離を移動する時間の間隔で駆動パルス(露光タイミング信号)を送出し、光学系部212からの光を露光させる。 The sensor drive unit 210 is, for example, a drive pulse (exposure timing signal) at intervals of time when the earth observation satellite 12 travels a distance of one line scan to four types of image line sensors described later in the multispectral sensor device 214. ) Is sent to expose the light from the optical system unit 212.

光学系部212は、マルチスペクトルセンサ装置214に光を集光させる集光レンズ(図示せず)などを有して構成されている。 The optical system unit 212 includes a condensing lens (not shown) that condenses light on the multispectral sensor device 214.

転送部218は、例えば、マルチスペクトルセンサ装置214内の4種の画像用ラインセンサにおける各フォトダイオード(光電変換素子)PD群での光電変換作用により、取得した各々の1ライン走査分の信号電荷を、ライン毎第1画像(R)、ライン毎第2画像(G)、ライン毎第3画像(B)として得て転送するとともに、後述する第1の同一波長成分画像用ラインセンサ(以下、同一波長成分画像用ラインセンサ(例えば、214R)という)からのセンサ出力を画像(例えば、R(以下、ライン毎同一波長成分画像Ri(R)という))として得て、逐次、送信部27へと転送する。 The transfer unit 218 is, for example, the signal charge for each one line scan acquired by the photoelectric conversion action in each photodiode (photoelectric conversion element) PD group in the four types of image line sensors in the multispectral sensor device 214. Is obtained and transferred as a first image (R 1 ) for each line, a second image (G) for each line, and a third image (B) for each line, and a first line sensor for the same wavelength component image (hereinafter, described below) described later. , The sensor output from the line sensor for the same wavelength component image (for example, 214R 2 ) is obtained as an image (for example, R 2 (hereinafter, referred to as the same wavelength component image Ri (R 2 ) for each line)), and sequentially, Transfer to the transmission unit 27.

このライン毎第1画像(R)とライン毎第2画像(G)とライン毎第3画像(B)とライン毎同一波長成分画像Ri(R)とを総称して、ライン毎撮影画像eGiと称する。 The first image (R 1 ) for each line, the second image (G) for each line, the third image (B) for each line, and the same wavelength component image Ri (R 2 ) for each line are collectively taken as an image taken for each line. It is called eGi.

(マルチスペクトルセンサ装置214の構成)
図3は、マルチスペクトルセンサ装置214の概略構成図である。人工衛星カメラ21に内蔵されたマルチスペクトルセンサ装置214は、三原色画像ラインセンサ(R画像用ラインセンサ214R、G画像用ラインセンサ214G、B画像用ラインセンサ214B)の他に、いずれかのラインセンサと同一色の光の波長を検出する同一波長成分画像用ラインセンサ214Rを備えている。この三原色画像ラインセンサと同一波長成分画像用ラインセンサ214Rとを総称して、画像用ラインセンサと称する。
(Configuration of Multispectral Sensor Device 214)
FIG. 3 is a schematic configuration diagram of the multispectral sensor device 214. The multispectral sensor device 214 built into the artificial satellite camera 21 includes any one of the three primary color image line sensors (R 1 image line sensor 214R 1 , G image line sensor 214G, B image line sensor 214B). The line sensor 214R 2 for the same wavelength component image that detects the wavelength of light of the same color as the line sensor is provided. The three primary color image line sensors and the same wavelength component image line sensor 214R 2 are collectively referred to as an image line sensor.

つまり、本実施の形態のマルチスペクトルセンサ装置214は、三原色画像ラインセンサ(214R、214G、214B)の他に、同一波長成分画像用ラインセンサ214Rをさらに備えた4種の画像用ラインセンサを有してなる、いわゆる4ライン方式のマルチラインイメージセンサである。 That is, the multispectral sensor device 214 of the present embodiment further includes four types of image line sensors including the same wavelength component image line sensor 214R 2 in addition to the three primary color image line sensors (214R 1, 214G, 214B). It is a so-called 4-line type multi-line image sensor.

また、マルチスペクトルセンサ装置214の各画像用ラインセンサ(214R、214G、214B、214R)は、それぞれ、所定の間隔(物理的離隔距離BD:例えば10μm(マイクロメートル))BDを有して並列に配置されている。 Further, each image line sensor (214R 1 , 214G, 214B, 214R 2 ) of the multispectral sensor device 214 has a predetermined interval (physical separation distance BD: for example, 10 μm (micrometer)) BD. They are arranged in parallel.

また、同一波長成分画像用ラインセンサ214Rは、三原色画像ラインセンサを構成するR画像用ラインセンサ214R、G画像用ラインセンサ214G、B画像用ラインセンサ214Bのいずれかに対して設けても構わないが、本実施の形態においては、R画像用ラインセンサ214Rに対して設けた例としている。 Further, the same wavelength component image line sensor 214R 2 is provided for any one of the R 1 image line sensor 214R 1 , the G image line sensor 214G, and the B image line sensor 214B constituting the three primary color image line sensors. However, in the present embodiment, it is an example provided for the R 1 image line sensor 214R 1.

ただし、インターライン型構造のマルチスペクトルセンサ装置214においては、各々の画像用ラインセンサ(214R、214R、214G、214B)の、ライン方向の同じ位置における各組のピクセルによってユニットセル(UC1、UC2)が構成されるようになっている。 However, the multispectral sensor device 214 of the interline type structure, each of the image line sensor (214R 2, 214R 1, 214G , 214B) of the unit by each pair of pixels at the same position in the line direction cell (UC1, UC2) is configured.

このような構成のマルチスペクトルセンサ装置214は、移動体検出用のマルチラインイメージセンサとしての機能を備える。 The multispectral sensor device 214 having such a configuration has a function as a multiline image sensor for detecting a moving object.

図3において、マルチスペクトルセンサ装置214は、ライン状に並べられた一定個数のユニットセルUC1、UC2を備える。各ユニットセルUC1は、3画素、例えば、三原色画像ラインセンサ(214R、214G、214B)によって構成され、各ユニットセルUC2は、2画素、例えば、同一波長成分画像用ラインセンサ214R、R画像用ラインセンサ214Rによって構成されている。 In FIG. 3, the multispectral sensor device 214 includes a fixed number of unit cells UC1 and UC2 arranged in a line. Each unit cell UC1 is composed of three pixels, for example, three primary color image line sensors (214R 1 , 214G, 214B), and each unit cell UC2 has two pixels, for example, line sensors 214R 2 , R 1 for the same wavelength component image. It is composed of an image line sensor 214R 1.

ここで、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)は、それぞれ、フォトダイオードPD群214Rp、214Rp、214Gp、214Bpと、CCD群214Rf、214Rf、214Gf、214Bfと、を有する。 Here, the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1 , 214G, 214B) are the photodiode PD group 214R 2 p, 214R 1 p, 214Gp, 214Bp, and the CCD group 214R 2, respectively. It has f, 214R 1 f, 214Gf, 214Bf, and the like.

フォトダイオードPD群214Rp、214Rp、214Gp、214Bpは、直列に配列された一定個数のフォトダイオードPDからなり、CCD群214Rf、214Rf、214Gf、214Bfは、各フォトダイオードPDに並列に配置された一定個数の垂直CCD(VCCD)からなる。 The photodiode PD group 214R 2 p, 214R 1 p, 214 Gp, 214 Bp consist of a fixed number of photodiode PDs arranged in series, and the CCD group 214R 2 f, 214R 1 f, 214 Gf, 214 Bf are each photodiode PD. It consists of a fixed number of vertical CCDs (VCCDs) arranged in parallel with each other.

CCD群214Rf、214Rf、214Gf、214Bfの各垂直CCDは、アナログフレームメモリとして機能する。 Each of the vertical CCDs of the CCD group 214R 2 f, 214R 1 f, 214Gf, and 214Bf functions as an analog frame memory.

すなわち、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)のそれぞれの画像ラインセンサの各々のピクセルの組によって、一定個数のユニットセルUC1、UC2が構成される。 That is, a fixed number of unit cells UC1 and UC2 are configured by each pixel set of each image line sensor of the same wavelength component image line sensor 214R 2 and the three primary color image line sensors (214R 1, 214G, 214B). ..

より具体的には、各ユニットセルUC1は、三原色画像ラインセンサ(214R、214G、214B)の、フォトダイオードPD群214Rp、214Gp、214BpとCCD群214Rf、214Gf、214Bfとによって構成される。各ユニットセルUC2は、同一波長成分画像用ラインセンサ214R、R画像用ラインセンサ214Rの、フォトダイオードPD群214Rp、214RpとCCD群214Rf、214Rfとによって構成される。 More specifically, each unit cell UC1 is composed of the photodiode PD groups 214R 1 p, 214 Gp, 214 Bp and the CCD group 214R 1 f, 214 Gf, 214 Bf of the three primary color image line sensors (214R 1, 214 G, 214 B). Will be done. Each unit cell UC2 is composed of the photodiode PD group 214R 2 p, 214R 1 p and the CCD group 214R 2 f, 214R 1 f of the same wavelength component image line sensor 214R 2 and R 1 image line sensor 214R 1. Will be done.

各ユニットセルUC1は、1ラインにおけるライン毎カラー合成画像aGEiを形成するための画素データ取得用のセルであり、各ユニットセルUC2は、1ラインにおけるライン毎白黒合成画像gEAiを形成するための画素データ取得用のセルである。 Each unit cell UC1 is a cell for acquiring pixel data for forming a line-by-line color composite image aGEi in one line, and each unit cell UC2 is a pixel for forming a line-by-line black-and-white composite image gEAi in one line. This is a cell for acquiring data.

一方、前述のCCD群214Rfには画像用転送部218Rが、CCD群214Rfには画像用転送部218Rが、CCD群214Gfには画像用転送部218Gが、CCD群214Bfには画像用転送部218Bが、それぞれ接続されて、CCD群214Rf、214Rf、214Gf、214Bfからのセンサ出力が送信部27へと転送されるようになっている。 On the other hand, an image for the transfer unit 218R 2 in the above-mentioned CCD group 214R 2 f, an image for transfer portion 218R 1 to CCD group 214R 1 f is an image for the transfer unit 218G in CCD group 214Gf, the CCD group 214Bf the image for the transfer unit 218B is respectively connected, CCD group 214R 2 f, 214R 1 f, 214Gf, the sensor output from 214Bf adapted to be transferred to the transmitter 27.

実施の形態1においては、画像用転送部218R、218R、218G、218Bによって、図2に示した転送部218が構成されている。 In the first embodiment, the image transfer unit 218R 2 , 218R 1 , 218G, and 218B constitute the transfer unit 218 shown in FIG.

すなわち、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)においては、各フォトダイオードPD群214Rp、214Rp、214Gp、214Bpによって1回の露光により光電変換された信号電荷が、トランスファゲート(読出しゲート)TGを介して、CCD群214Rf、214Rf、214Gf、214Bfに一斉に読出された後、それぞれ、転送部218の各画像用転送部218R、218R、218G、218Bを介して、送信部27へと掃引されるようになっている。 That is, the same wavelength component image line sensor 214R 2, the three primary colors image line sensor (214R 1, 214G, 214B) in each photodiode PD group 214R 2 p, 214R 1 p, 214Gp, by photoelectric the first exposure by 214Bp After the converted signal charge is simultaneously read out to the CCD groups 214R 2 f, 214R 1 f, 214 Gf, and 214 Bf via the transfer gate (read gate) TG, each image transfer unit of the transfer unit 218 is used. It is swept to the transmission unit 27 via 218R 2 , 218R 1, 218G, and 218B.

この掃引時において、例えば、1ライン走査当たりの信号電荷は、1ライン相当分のライン毎撮影画像eGiとなり、対応するフォトダイオードPDの位置に応じたピクセル座標などがヘッダ情報EHiとして付加されることにより、送信信号SGiとなる。 At the time of this sweep, for example, the signal charge per line scan becomes the line-by-line captured image eGi corresponding to one line, and the pixel coordinates corresponding to the position of the corresponding photodiode PD are added as the header information EHi. Therefore, it becomes a transmission signal SGi.

つまり、1ライン毎に、ライン毎第1画像(R)と、ライン毎第2画像(G)と、ライン毎第3画像(B)と、ライン毎同一波長成分画像Ri(R)と、がライン毎撮影画像eGiとして送信されることになる。 That is, for each line, the first image (R 1 ) for each line, the second image (G) for each line, the third image (B) for each line, and the same wavelength component image Ri (R 2 ) for each line. Will be transmitted as a captured image eGi for each line.

なお、転送部218としては、信号電荷を転送させる際に、電圧に変換・増幅する機能を備えるようにしても良い。また、転送部218としては、各CCD群214Rf、214Rf、214Gf、214Bfからの信号電荷を、順次、水平転送させる水平CCD(HCCD)の構成としても良い(いわゆる、プログレッシブ読出し方式)。 The transfer unit 218 may be provided with a function of converting / amplifying the signal charge into a voltage when the signal charge is transferred. Further, the transfer unit 218 may have a horizontal CCD (HCCD) configuration in which signal charges from each CCD group 214R 2 f, 214R 1 f, 214Gf, and 214Bf are sequentially transferred horizontally (so-called progressive reading method). ..

このような構成のマルチスペクトルセンサ装置214を用いることによって、例えば、RGBカラー(合成)画像の撮影が可能な既存の三原色画像ラインセンサとしての役割を果たしながら、移動体の変化分だけを即時にカラー表示させ、それ以外の静止物体をモノクロ(モノトーンまたはグレースケール)表示させた移動体検出画像CPを容易に作成できるようになる。 By using the multi-spectral sensor device 214 having such a configuration, for example, while playing a role as an existing three primary color image line sensor capable of capturing an RGB color (composite) image, only the change of the moving body is immediately detected. It becomes possible to easily create a moving object detection image CP in which a stationary object is displayed in color and other stationary objects are displayed in monochrome (monotone or grayscale).

ただし、単純に移動体の変化分だけをカラー表示させることに限定すれば、同じ感度のセンサを2ライン分以上配置したモノクロラインセンサ(図示省略)を追加し、後処理の画像合成によって、静止物体をモノクロにより表示させるとともに、移動体の変化分をカラーにより表示させることは可能である。 However, if it is limited to simply displaying only the change in the moving object in color, a monochrome line sensor (not shown) in which sensors with the same sensitivity are arranged for two or more lines is added, and the image is combined after processing to make it stationary. It is possible to display the object in monochrome and to display the change in the moving body in color.

ここで、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)は、いずれも、センサ長SLとセンサ幅SWとを有するとともに、それぞれ、物理的離隔距離BDを有して並列に配置されている。 Here, the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1 , 214G, 214B) each have a sensor length SL and a sensor width SW, and each has a physical separation distance BD. It has and is arranged in parallel.

なお、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)のセンサ長SL、センサ幅SW、物理的離隔距離BDなどは、人工衛星カメラ21が搭載される地球観測衛星12毎に異なり、地球観測衛星12の高度、速度、解像度、空間分解能、撮影対象(移動体)などに応じて適宜設計されるものであって、例えば、数μm〜十数μm程度となる。 The line sensor 214R 2 for the same wavelength component image, the sensor length SL of the three primary color image line sensors (214R 1 , 214G, 214B), the sensor width SW, the physical separation distance BD, etc. are the earth on which the artificial satellite camera 21 is mounted. It differs for each observation satellite 12, and is appropriately designed according to the altitude, speed, resolution, spatial resolution, imaging target (moving object), etc. of the earth observation satellite 12, and is, for example, about several μm to several ten and several μm. Become.

そのため、このマルチスペクトルセンサ装置214の場合、1回の露光においては、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)間の物理的離隔距離BDに起因して、同一地点(同一ライン上)の画像を若干の時間的ずれ(露光タイミング差)をもって撮影することになる。 Therefore, in the case of this multispectral sensor device 214, it is caused by the physical separation distance BD between the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1, 214G, 214B) in one exposure. Therefore, the images at the same point (on the same line) are taken with a slight time lag (exposure timing difference).

撮影時の同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)間の物理的離隔距離BDに起因する露光タイミング差は、移動体検出画像CP上において、色ずれとなって現れる。特に、移動体検出画像CP上における移動体の変化分の色ずれは、移動体の移動速度や移動方向などに対応し、動きの速い移動体ほど大きくなる。 The exposure timing difference due to the physical separation distance BD between the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1, 214G, 214B) at the time of shooting is a color shift on the moving object detection image CP. Appears as. In particular, the color shift of the change of the moving body on the moving body detection image CP corresponds to the moving speed and the moving direction of the moving body, and becomes larger as the moving body moves faster.

そこで、移動体検出装置16では、移動体検出画像CPにおいて、この色ずれを利用して移動体の変化分を色付きの画像として表示するとともに、その色付きの画像だけをさらに強調して表現できるようにしている。これにより、移動体検出画像CP上において、より一層、移動体の変化分を目立たせることが可能となる。したがって、1シーン分の移動体検出画像CPから目視によって移動体を簡単に検出できるようになるとともに、コンピュータ処理においても、移動体の変化分を効率良く自動抽出することが可能となる。 Therefore, in the moving body detection device 16, in the moving body detection image CP, the change in the moving body can be displayed as a colored image by utilizing this color shift, and only the colored image can be further emphasized and expressed. I have to. This makes it possible to make the change in the moving body even more conspicuous on the moving body detection image CP. Therefore, the moving body can be easily detected visually from the moving body detection image CP for one scene, and the change amount of the moving body can be efficiently and automatically extracted even in the computer processing.

図4は、マルチスペクトルセンサ装置214の断面構造を概略的に示すもので、ここでは、図3のI−I線に沿うB画像用ラインセンサ214Bの断面を例示して説明する。 FIG. 4 schematically shows the cross-sectional structure of the multispectral sensor device 214, and here, the cross-section of the B image line sensor 214B along the I-I line of FIG. 3 will be illustrated and described.

B画像用ラインセンサ214Bにおいては、例えば、p型シリコン(Si)基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214BpとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214Bfとなる垂直CCDのレジスタ部(n型層)214Btと、を備える。 In the B image line sensor 214B, for example, the light receiving region (n type) of the photodiode PD which is the photodiode PD group 214Bp formed on the surface portion of the p-type silicon (Si) substrate 230 or the surface portion of the p-type well 232. The register portion (n + type layer) 214Bt of the vertical CCD which becomes the CCD group 214Bf formed on the surface portion of the p-type Si substrate 230 or the surface portion of the p-type well 232 separated from the layer) 234 and the light receiving region 234. And.

また、B画像用ラインセンサ214Bは、受光領域234を除く、p型Si基板230上またはp型ウェル232上に、絶縁膜236を介して設けられたポリSi電極238と、ポリSi電極238上に絶縁膜236を介して設けられ、受光領域234の一部に開口を有する遮光膜240と、を備える。 Further, the B image line sensor 214B has a poly-Si electrode 238 and a poly-Si electrode 238 provided on the p-type Si substrate 230 or the p-type well 232 via an insulating film 236, excluding the light receiving region 234. The light-shielding film 240 is provided via an insulating film 236 and has an opening in a part of the light receiving region 234.

さらに、B画像用ラインセンサ214Bは、全面に設けられた透明な樹脂層242と、受光領域234に対応する、樹脂層242の上面上にオンチップで設けられたB画像用カラーフィルタ(原色フィルタ)244と、B画像用カラーフィルタ244に対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、を備える。 Further, the B image line sensor 214B has a transparent resin layer 242 provided on the entire surface and a B image color filter (primary color filter) provided on-chip on the upper surface of the resin layer 242 corresponding to the light receiving region 234. ) 244 and a microlens 246 provided on-chip on the resin layer 242 corresponding to the B image color filter 244.

すなわち、B画像用ラインセンサ214Bは、例えば、波長450〜495nmの帯域の光を透過するB画像用カラーフィルタ244を備えて構成されている。 That is, the B image line sensor 214B is configured to include, for example, a B image color filter 244 that transmits light in a band having a wavelength of 450 to 495 nm.

なお、同一波長成分画像用ラインセンサ214R、R画像用ラインセンサ214R、及びG画像用ラインセンサ214Gは、いずれも、B画像用ラインセンサ214Bと基本構成が同じであるため、ここでの詳細な説明は省略する。 Incidentally, the same wavelength component image line sensor 214R 2, R 1 image line sensor 214R 1, and G image line sensor 214G are both for the line sensor 214B and the basic configuration for the B image are the same, wherein The detailed description of is omitted.

要するに、同一波長成分画像用ラインセンサ214R及びR画像用ラインセンサ214Rは、後述するように、例えば、波長620〜750nmの帯域の光を透過するR画像用カラーフィルタ(原色フィルタ)を備えて構成されている。 In short, the same wavelength component image line sensor 214R 2 and R 1 image line sensor 214R 1, as described later, for example, a color for R image filter (primary filter) which transmits light of a band of wavelengths 620~750nm It is configured to prepare.

また、G画像用ラインセンサ214Gは、後述するように、例えば、波長495〜590nmの帯域の光を透過するG画像用カラーフィルタ(原色フィルタ)を備えて構成されている。 Further, as will be described later, the G image line sensor 214G is configured to include, for example, a G image color filter (primary color filter) that transmits light in a wavelength band of 495 to 590 nm.

なお、上記した波長の帯域は一例であり、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)毎に半値幅などが異なるものであっても良い。また、単独でモノクロ画像を取得するラインセンサ(図示せず)の場合、カラーフィルタは不要となる。 The wavelength band described above is an example, and the half-value width and the like may be different for each of the same wavelength component image line sensor 214R 2 and the three primary color image line sensors (214R 1, 214G, 214B). Further, in the case of a line sensor (not shown) that acquires a monochrome image independently, a color filter is not required.

図5は、地球観測衛星12に搭載された人工衛星カメラ21の基本動作として、撮影時のタイミングチャートを示すものである。 FIG. 5 shows a timing chart at the time of shooting as a basic operation of the artificial satellite camera 21 mounted on the earth observation satellite 12.

すなわち、上記のようなマルチスペクトルセンサ装置214を内蔵した人工衛星カメラ21を搭載した地球観測衛星12は、軌道上をSD方向に移動しながら、人工衛星カメラ21によって、地球10の地表部分における任意の撮影エリアTEG内をライン状に撮影する。 That is, the earth observation satellite 12 equipped with the artificial satellite camera 21 incorporating the multi-spectral sensor device 214 as described above moves in the SD direction in the orbit, and is arbitrarily moved by the artificial satellite camera 21 on the ground surface portion of the earth 10. Shooting area The inside of the TEG is photographed in a line.

人工衛星カメラ21において、例えば、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)では、センサ駆動部210からのフォトダイオードPDの駆動パルス(図5(a)参照)がハイレベルの間、フォトダイオードPD群214Rp、214Rp、214Gp、214Bpによる露光が行われる。 In the artificial satellite camera 21, for example, in the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1 , 214G, 214B), the drive pulse of the photodiode PD from the sensor drive unit 210 (FIG. 5A). during the reference) is high, the photodiode PD group 214R 2 p, 214R 1 p, 214Gp, exposure by 214Bp performed.

露光時間としては、一般的に、地球観測衛星12が1ライン走査分を移動する時間(例えば、空間分解能が1メートルの衛星であれば、衛星が1メートルの距離を飛行するのに要する時間)に設定される。 The exposure time is generally the time that the earth observation satellite 12 travels for one line scan (for example, if the satellite has a spatial resolution of 1 meter, the time required for the satellite to fly a distance of 1 meter). Is set to.

一定期間の露光が終了する(フォトダイオードPDの駆動パルスがロウレベルになる)と、センサ駆動部210からのトランスファゲートTGの制御パルス(図5(b)参照)がハイレベルになることに伴って、フォトダイオードPD群214Rp、214Rp、214Gp、214Bpにそれぞれ蓄積された信号電荷が、ほぼ同時に、CCD群214Rf、214Rf、214Gf、214Bfへと転送される。 When the exposure for a certain period is completed (the drive pulse of the photodiode PD becomes low level), the control pulse of the transfer gate TG from the sensor drive unit 210 (see FIG. 5B) becomes high level. The signal charges accumulated in the photodiode PD groups 214R 2 p, 214R 1 p, 214 Gp, and 214 Bp are transferred to the CCD groups 214R 2 f, 214R 1 f, 214 Gf, and 214 Bf at almost the same time.

CCD群214Rf、214Rf、214Gf、214Bfへと転送された信号電荷は、それぞれ、センサ駆動部210からの制御パルスBP(図5(c)参照)、GP(図5(d)参照)、RP(図5(e)参照)、RP(図5(f)参照)がハイレベルの間、転送部218の各々の画像用転送部218R、218R、218G、218Bへと転送される。 CCD group 214R 2 f, 214R 1 f, 214Gf, the signal charges transferred to 214Bf, respectively (see FIG. 5 (c)) the control pulses BP from the sensor driving unit 210, GP (FIG. 5 (d) see ), R 1 P (see FIG. 5 (e)), R 2 P (see FIG. 5 (f)) at high levels, respectively, image transfer units 218R 2 , 218R 1 , 218G, 218B of the transfer unit 218. Transferred to.

なお、1回の露光における全画素の信号電荷を転送部218に出力し終わると、センサ駆動部210から次の露光のための駆動パルス(PD)が、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)に出力される。 When the signal charges of all the pixels in one exposure are output to the transfer unit 218, the drive pulse (PD) for the next exposure is transmitted from the sensor drive unit 210 to the line sensor 214R 2 for the same wavelength component image. It is output to the three primary color image line sensors (214R 1 , 214G, 214B).

こうして、1回の露光において、転送部218に転送された信号電荷は、例えば、送信部27によってライン毎撮影画像eGiを含む送信信号SGiとして生成し直された後、アンテナ施設14に向けて移動体検出装置16へと送信される。 In this way, in one exposure, the signal charge transferred to the transfer unit 218 is regenerated as a transmission signal SGi including the captured image eGi for each line by the transmission unit 27, and then moves toward the antenna facility 14. It is transmitted to the body detection device 16.

なお、図5のタイミングチャートは動作の一例を例示したものであって、実際の動作では、同一波長成分画像用ラインセンサ214R、三原色画像ラインセンサ(214R、214G、214B)間の物理的離隔距離BDに伴う露光タイミング差を考慮して、露光の開始のタイミングなどを規定するようにしても良い。 The timing chart of FIG. 5 illustrates an example of the operation, and in the actual operation, the physical operation between the line sensor 214R 2 for the same wavelength component image and the three primary color image line sensors (214R 1 , 214G, 214B) is performed. The timing of the start of exposure may be specified in consideration of the difference in exposure timing due to the separation distance BD.

一方、移動体検出装置16は、コンピュータシステム(サーバシステム)である。詳細については後述するが、移動体検出装置16は、地球観測衛星12から送信されてくる送信信号SGiに含まれるライン毎撮影画像eGi(R1、G、B、Ri(R))を蓄積し、入力されている抽出領域を特定エリアEWiとする。 On the other hand, the mobile detection device 16 is a computer system (server system). Although details will be described later, the moving object detection device 16 accumulates Earth Observation Satellite 12 lines each captured image included in the transmission signal SGi transmitted from eGi (R 1, G, B , Ri (R 2)) the Then, the input extraction area is set as the specific area EWi.

そして、この特定エリアEWiに対応する個数のライン毎撮影画像eGiを抽出する。この抽出されたライン毎撮影画像eGiのライン毎第1画像(R)、ライン毎第2画像(G)及びライン毎第3画像(B)を、特定エリアEWiのカラー合成画像(マルチスペクトル画像とも称する)GWiとする。また、抽出されたライン毎撮影画像eGiのライン毎同一波長成分画像Ri(R)と、特定エリアEWiのカラー合成画像GWiを構成するライン毎第1画像(R)とを重ね合わせて、その特定エリアEWiに対応する白黒合成画像(パンクロマチック画像ともいう)GEAiを生成する。そして、この白黒合成画像GEAiの上にカラー合成画像GWiを重ね合わせて、移動体の移動速度に応じた変化量(変化分)を直ちに色ずれとして認識できる移動体検出画像(例えば、パンシャープン画像)CPの作成などを行うように構成されている。 Then, the number of captured images eGi for each line corresponding to the specific area EWi is extracted. The extracted line-by-line captured image eGi line-by-line first image (R 1 ), line-by-line second image (G), and line-by-line third image (B) are combined with a color composite image (multispectral image) of the specific area EWi. Also referred to as GWi). Further, the same wavelength component image Ri (R 2 ) for each line of the extracted line-by-line captured image eGi and the first image (R 1 ) for each line constituting the color composite image GWi of the specific area EWi are superimposed. A black-and-white composite image (also referred to as a panchromatic image) GEAi corresponding to the specific area EWi is generated. Then, the color composite image GWi is superposed on the black-and-white composite image GEAi, and the amount of change (change) according to the movement speed of the moving body can be immediately recognized as a color shift image (for example, pan sharpening). Image) It is configured to create CP and so on.

ここで、マルチスペクトル画像とは、波長帯毎に得られる各バンドのカラー画像(R、G、B)を重ね合わせた、いわゆるフルのカラー合成画像である。 Here, the multispectral image is a color image of each band obtained for each wavelength band (R 1, G, B) are superposed, a color composite image of so-called full.

パンクロマチック画像とは、指定の画像種(例えば、白黒画像)として、特定の1つの波長帯のカラー画像(例えば、R、Ri(R))のみを観測した、いわゆるモノクロ画像(パンクロ画像ともいう)である。 A panchromatic image is a so-called monochrome image (panchromatic image) in which only a color image (for example, R 1 , Ri (R 2 )) of a specific wavelength band is observed as a specified image type (for example, a black and white image). Also called).

パンシャープン画像とは、マルチスペクトル画像とパンクロマチック画像とを合成処理(パンシャープン処理)した画像である。 The pan-sharpened image is an image obtained by combining a multispectral image and a panchromatic image (pan-sharpened processing).

前述の特定エリアEWiのカラー合成画像GWiは、例えば撮影エリアTEGに対応する領域について、幾何学的に重なり合うように位置合わせ(例えば、モザイク処理)して得た各バンドのカラー画像(R、G、B)を、同一サイズで重ね合わせることによって形成される。 Color composite image GWi specific area EWi described above, for example, the region corresponding to the imaging area TEG, geometrically overlap so aligned (e.g., mosaicking) color image (R 1 of each band obtained by, It is formed by superimposing G and B) with the same size.

同様に、前述の特定エリアEWiの白黒合成画像GEAiは、例えば撮影エリアTEGに対応する領域について、幾何学的に重なり合うように位置合わせ(例えば、モザイク処理)して得た少なくとも同一色のバンドのカラー画像(例えば、R、Ri(R))を、同一サイズで重ね合わせることによって形成される。 Similarly, the black-and-white composite image GEAi of the specific area EWi described above has at least the same color band obtained by aligning (for example, mosaic processing) the regions corresponding to the shooting area TEG so as to geometrically overlap each other. It is formed by superimposing color images (for example, R 1 , Ri (R 2 )) having the same size.

また、移動体検出装置16は、後述する色強調処理した1シーン分の移動体検出画像CPから移動体の検出と、その移動量、移動方向、移動速度、個数、または移動体が車両の場合には車間距離などの移動体情報の算出と、を行うようになっている。移動体検出装置16においては、例えば、連続した所定数の画素(例えば、数画素〜十数画素)におよぶR、G、Bの色ずれが検出された場合に、移動体として判断される。また、その色ずれの程度により移動体の移動速度が、その色ずれの方向から移動体の移動方向が、それぞれ算出される。 Further, the moving body detection device 16 detects a moving body from the moving body detection image CP for one scene subjected to color enhancement processing, which will be described later, and when the moving amount, moving direction, moving speed, number, or moving body is a vehicle. Is designed to calculate moving object information such as the distance between vehicles. In the moving body detecting device 16, for example, when a color shift of R 1 , G, and B over a predetermined number of consecutive pixels (for example, several pixels to a dozen or so pixels) is detected, the moving body detecting device 16 is determined to be a moving body. .. Further, the moving speed of the moving body is calculated from the degree of the color shift, and the moving direction of the moving body is calculated from the direction of the color shift.

以下に、上記の移動体検出装置16における処理について説明する。 The processing in the moving body detection device 16 will be described below.

図6は、移動体検出装置16の概略構成(機能ブロック)を示すものである。 FIG. 6 shows a schematic configuration (functional block) of the mobile body detection device 16.

移動体検出装置16は、例えば、汎用のコンピュータシステムを主体に構成されるものである。より具体的には、取得部161、撮影画像用データベース(撮影画像受信用記憶部ともいう)163、エリア抽出部165、オペレーション部167、抽出画像用メモリ169、重ね合わせ部171、色強調画像用メモリ(白黒合成画像用記憶部またはパンシャープン画像用記憶部ともいう)173、色強調部175、画素移動体判定部177、画像メモリ181Mを有した表示制御部181、表示部183、及び移動体情報算出部185を備えて構成されている。 The mobile body detection device 16 is mainly composed of, for example, a general-purpose computer system. More specifically, the acquisition unit 161, the captured image database (also referred to as the captured image reception storage unit) 163, the area extraction unit 165, the operation unit 167, the extracted image memory 169, the overlay unit 171 and the color-enhanced image. Memory (also referred to as black-and-white composite image storage unit or pan-sharpened image storage unit) 173, color enhancement unit 175, pixel moving body determination unit 177, display control unit 181 having image memory 181M, display unit 183, and movement. It is configured to include a body information calculation unit 185.

前述の抽出画像用メモリ169は、カラー画像用メモリ169aとパンクロ画像生成用メモリ(同一成分画像用メモリ)169bとからなる。また、撮影画像用データベース163は、取得画像用データベース(カラー合成画像用記憶部)163aとヘッダ情報用データベース163bとからなる。 The above-mentioned extracted image memory 169 includes a color image memory 169a and a panchromatic image generation memory (same component image memory) 169b. The captured image database 163 includes an acquired image database (color composite image storage unit) 163a and a header information database 163b.

取得部161は、アンテナ施設14で受信した地球観測衛星12からの送信信号SGiを取込むものである。そして、取込んだ送信信号SGiに含まれているライン毎撮影画像eGi(R1、G、B、Ri(R))に対し、例えば、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して取得画像用データベース163aに順次記憶する。なお、取得画像用データベース163aには、例えば、ライン毎撮影画像eGiの所定のレベル以上の成分のみを取り込むようにしても良い。 The acquisition unit 161 captures the transmission signal SGi from the earth observation satellite 12 received at the antenna facility 14. Then, each contained in the taken transmitted signal SGi line captured image eGi to (R 1, G, B, Ri (R 2)), for example, line delay correction, plane rectangular coordinate transformation, or orthorectified etc. After the above processing, the mosaic processing is performed and the images are sequentially stored in the acquired image database 163a. The acquired image database 163a may include, for example, only the components of the captured image eGi for each line at a predetermined level or higher.

このとき、ライン毎同一波長成分画像Ri(R)、ライン毎第1画像(Rライン毎第2画像(G)、ライン毎第3画像(B)の各々を色種別に区分けして順次記憶している。例えば、ライン毎第1画像(Rライン毎第2画像(G)、ライン毎第3画像(B)は、取得画像用データベース163a内のカラー合成画像用領域(図示省略)に記憶する。また、ライン毎同一波長成分画像Ri(R)は、取得画像用データベース163a内の同一波長成分画像用領域(図示省略)に記憶する。 At this time, each of the same wavelength component image Ri (R 2 ) for each line, the first image (R 1 ) for each line, the second image (G) for each line, and the third image (B) for each line is classified by color type. I remember them one by one. For example, the first image (R 1 ) for each line, the second image (G) for each line, and the third image (B) for each line are stored in the color composite image area (not shown) in the acquired image database 163a. .. Further, the same wavelength component image Ri (R 2 ) for each line is stored in the same wavelength component image region (not shown) in the acquired image database 163a.

また、送信信号SGiに含まれているヘッダ情報EHiを、ライン毎撮影画像eGiに関連付けて、ヘッダ情報用データベース163bに記憶する。 Further, the header information EHi included in the transmission signal SGi is associated with the captured image eGi for each line and stored in the header information database 163b.

エリア抽出部165は、例えば、撮影エリアTEGに渡るライン毎同一波長成分画像Ri(R)、ライン毎第1画像(Rライン毎第2画像(G)、ライン毎第3画像(B)が記憶された後において、オペレーション部167によって指定された任意の特定エリアEWiに対応する個数分のライン毎第1画像(Rライン毎第2画像(G)、ライン毎第3画像(B)を取得画像用データベース163aから読込む。前述の特定エリアEWiは、撮影エリアTEGと同じであっても構わないが、リアルタイム的に検出していくのであれば、特定エリアEWiを、例えば10m、30mまたは100m・・と設定できるようにするのが好ましい。 The area extraction unit 165 may, for example, include the same wavelength component image Ri (R 2 ) for each line, the first image (R 1 ) for each line, the second image (G) for each line, and the third image for each line (G) over the shooting area TEG. After B) is stored, the first image (R 1 ) for each line, the second image (G) for each line, and the third image for each line corresponding to the arbitrary specific area EWi specified by the operation unit 167. The image (B) is read from the acquired image database 163a. The above-mentioned specific area EWi may be the same as the shooting area TEG, but if it is detected in real time, the specific area EWi can be set to, for example, 10 m, 30 m, 100 m, and so on. Is preferable.

そして、特定エリアEWiに対応する個数分のライン毎第1画像(Rライン毎第2画像(G)、ライン毎第3画像(B)をカラー合成画像GWi(R1、G、B:マルチスペクトル画像)としてカラー画像用メモリ169aに記憶するとともに、ヘッダ情報用データベース163b内の対応するヘッダ情報EHiを読込み、カラー合成画像GWiに関連付けてカラー画像用メモリ169aに記憶する。 Then, the number of lines corresponding to the specific area EWi, the first image (R 1 ) for each line, the second image (G) for each line, and the third image (B) for each line are combined with the color composite image GWi (R 1, G, B). : Multispectral image) is stored in the color image memory 169a, and the corresponding header information EHi in the header information database 163b is read and stored in the color image memory 169a in association with the color composite image GWi.

また、エリア抽出部165は、前述の特定エリアEWiに対応する個数分のライン毎同一波長成分画像Ri(R)を取得画像用データベース163aから読込み、パンクロ画像生成用メモリ169bに記憶する。このとき、対応するヘッダ情報EHiも記憶する。 Further, the area extraction unit 165 reads the same wavelength component image Ri (R 2 ) for each number of lines corresponding to the above-mentioned specific area EWi from the acquisition image database 163a and stores it in the panchromatic image generation memory 169b. At this time, the corresponding header information EHi is also stored.

さらに、エリア抽出部165は、例えば、特定エリアEWiのカラー合成画像GWiをカラー画像用メモリ169aから読込んで、これを色強調画像用メモリ(パンシャープン画像用記憶部)173を介して、表示制御部181の画像メモリ181Mに記憶して、表示部183の画面に表示させても良い。 Further, the area extraction unit 165 reads, for example, the color composite image GWi of the specific area EWi from the color image memory 169a, and displays the color-enhanced image memory (pan-sharpened image storage unit) 173. It may be stored in the image memory 181M of the control unit 181 and displayed on the screen of the display unit 183.

オペレーション部167は、例えば図7に示すように、操作パネル167aと表示パネル167bとを有している。 The operation unit 167 has an operation panel 167a and a display panel 167b, for example, as shown in FIG.

オペレーション部167は、例えば、撮影エリアTEGに渡るカラー合成画像GWi(R1、G、B:マルチスペクトル画像)または地図を表示部183の画面上に予め表示させた状態において、オペレータに操作パネル167aを操作させて特定エリアEWiの指定を行わせる。また、各種の情報を表示パネル167bの画面上に表示させて、オペレータに選択または入力させるようにしても良い。 The operation unit 167 allows the operator to display the color composite image GWi (R1 , G, B: multispectral image) or the map over the shooting area TEG in advance on the screen of the display unit 183, for example, on the operation panel 167a. Is operated to specify the specific area EWi. Further, various information may be displayed on the screen of the display panel 167b so that the operator can select or input the information.

特定エリアEWiを指定するための情報としては、例えば、平面直角座標、緯度、経度、撮影対象の地域名や住所(エリア名)、撮影日、撮影時刻(撮影開始時刻及び終了時刻)などがあげられる。 Information for designating the specific area EWI includes, for example, plane rectangular coordinates, latitude, longitude, area name and address (area name) to be photographed, shooting date, shooting time (shooting start time and end time), and the like. Be done.

なお、オペレーション部167の表示パネル167bは、表示部183と兼用させることも可能である。つまり、オペレーション部167としては、表示部183の画面表示を見ながら操作パネル167aを操作する構成とすることもできる。 The display panel 167b of the operation unit 167 can also be used as the display unit 183. That is, the operation unit 167 may be configured to operate the operation panel 167a while looking at the screen display of the display unit 183.

重ね合わせ部171は、例えば図6に示すように、オペレーション部167からの特定エリアEWiに対応する個数のライン毎同一波長成分画像Ri(R)をパンクロ画像生成用メモリ169bから読込み、かつカラー画像用メモリ169aから対応する個数のライン毎第1画像(R)を読出して重ね合わせる。 As shown in FIG. 6, for example, the superimposing unit 171 reads the same wavelength component image Ri (R 2 ) for each line corresponding to the specific area EWi from the operation unit 167 from the panchromatic image generation memory 169b, and colors the overlay unit 171. The first image (R 1 ) for each corresponding number of lines is read from the image memory 169a and superimposed.

そして、この重ね合わせられた画像をパンクロマチック画像(白黒合成画像GEAiともいう)として、色強調画像用メモリ173に記憶する。 Then, the superimposed image is stored in the color-enhanced image memory 173 as a panchromatic image (also referred to as a black-and-white composite image GEAi).

そして、白黒合成画像GEAiとカラー画像用メモリ169aのカラー合成画像GWiとを重ね合わせて、これを色強調前の移動体検出画像(以下、色強調前のパンシャープン画像CP1という)として、色強調画像用メモリ173のパンシャープン画像用記憶部(図示省略)に記憶するとともに、表示制御部181を起動させる。 Then, the black-and-white composite image GEAi and the color composite image GWi of the color image memory 169a are superposed, and this is used as a moving object detection image before color enhancement (hereinafter referred to as pan sharpened image CP1 before color enhancement). It is stored in the pan-sharpened image storage unit (not shown) of the emphasized image memory 173, and the display control unit 181 is activated.

表示制御部181は、例えば、色強調画像用メモリ173に記憶されている色強調前のパンシャープン画像CP1、または後述する色強調後のパンシャープン画像CP2を移動体検出画像CPとして、画像メモリ181Mに読出して表示部183の画面上に表示する。 The display control unit 181 uses, for example, the pan-sharpened image CP1 before color enhancement stored in the color-enhanced image memory 173 or the pan-sharpened image CP2 after color-enhanced, which will be described later, as a moving body detection image CP. It is read into the memory 181M and displayed on the screen of the display unit 183.

色強調部175は、例えば、色強調後のパンシャープン画像CP2を移動体検出画像CPとして表示させる際に、色強調前のパンシャープン画像CP1に対し、移動体の速度に応じた変化量として、より色表現性を強調させるためのものである。 For example, when the pan-sharpened image CP2 after color enhancement is displayed as the moving object detection image CP, the color enhancement unit 175 changes the amount of change according to the speed of the moving object with respect to the pan-sharpened image CP1 before color enhancement. As a result, it is intended to emphasize the color expressiveness.

詳細については後述するが、例えば、色強調前のパンシャープン画像CP1において、画素移動体判定部177による判定の結果、各画素の色種別の階調度を示すピクセル値のいずれかが「0」でない場合、色強調画像用メモリ173内のメッシュMiの座標Mi(i,j)上における、その「0」でないピクセル値を最大値に変更するようになっている。 Details will be described later, but for example, in the pan-sharpened image CP1 before color enhancement, as a result of determination by the pixel moving body determination unit 177, any of the pixel values indicating the gradation degree of each pixel color type is "0". If not, the non- "0" pixel value on the mesh Mi coordinates Mi (i, j) in the color-enhanced image memory 173 is changed to the maximum value.

そして、そのピクセル値が最大値に変更された色強調後のパンシャープン画像(以下、色強調画像ともいう)CP2を、移動体検出画像CPとして表示制御部181の画像メモリ181Mに記憶し、表示部183の画面に表示させる。 Then, the pan-sharpened image (hereinafter, also referred to as a color-enhanced image) CP2 whose pixel value is changed to the maximum value is stored in the image memory 181M of the display control unit 181 as a moving object detection image CP. It is displayed on the screen of the display unit 183.

ここで、移動体検出画像CPは、例えば図8に示すように、走行中の車両(移動体)Tmの変化量(変化分)のみが色ずれを伴うカラー画像(R、G、BまたはB、G、R)により強調表示され、それ以外の、停止中の車両Tsや道路または建物などを含む背景(静止物体)がモノクロ画像として表示されたものとなる。 Here, as shown in FIG. 8, for example, the moving object detection image CP is a color image (R 1 , G, B or R 1, G, B or B, G, is highlighted by R 1), else, becomes the background, including vehicles Ts and roads or buildings stopped (stationary object) is displayed as a monochrome image.

つまり、撮影時において、取得したR画像用ラインセンサ214R、G画像用ラインセンサ214G、B画像用ラインセンサ214Bの検出成分のうち、移動体のみが速度に応じた変化分に相当した色ずれを伴うカラー画像として表示されることになる。ただし、図8においては、そのカラー画像を強調して車両Tmの上に示している。 That is, at the time of shooting , among the detected components of the acquired R 1 image line sensor 214R 1 , G image line sensor 214G, and B image line sensor 214B, only the moving body has a color corresponding to the change corresponding to the speed. It will be displayed as a color image with a shift. However, in FIG. 8, the color image is emphasized and shown on the vehicle Tm.

なお、図8は、高速道路のインターチェンジ(IC)付近を撮影した際の移動体検出画像CPを例示したものであって、実際に走行中の車両Tmを強調表示したものである。 Note that FIG. 8 illustrates a moving object detection image CP when the vicinity of an interchange (IC) on an expressway is photographed, and highlights the vehicle Tm that is actually traveling.

図6において、画素移動体判定部177は、例えば、色強調前のパンシャープン画像CP1の各画素が移動体のものか否かを、そのピクセル値(画素値)に基づいて判定する。詳細については後述するが、例えば、各画素の色種別の階調度を示すピクセル値のいずれかが「0」でない場合、その画素は移動体のものと判定する。逆に、各画素の色種別の階調度を示すピクセル値の全てが「0(または、最大値)」の場合、その画素は静止物体のものと判定するようになっている。 In FIG. 6, the pixel moving body determination unit 177 determines, for example, whether or not each pixel of the pan-sharpened image CP1 before color enhancement belongs to a moving body based on the pixel value (pixel value). Details will be described later, but for example, when any of the pixel values indicating the gradation degree of each pixel color type is not "0", it is determined that the pixel belongs to a moving body. On the contrary, when all the pixel values indicating the gradation degree of each pixel color type are "0 (or maximum value)", it is determined that the pixel belongs to a stationary object.

移動体情報算出部185は、例えば、色強調画像用メモリ173または画像メモリ181M内に格納された移動体検出画像CPに基づいて、移動体検出画像CP中における移動体の検出と、その移動体情報の算出とを行うものである。 The moving body information calculation unit 185 detects the moving body in the moving body detection image CP based on the moving body detection image CP stored in the color-enhanced image memory 173 or the image memory 181M, and the moving body thereof, for example. It calculates information.

すなわち、移動体情報算出部185によって、移動体検出画像CPにおけるカラー画像のR、G、Bの配列の異なりや色ずれの程度から、例えば、走行中の車両Tmの移動速度、移動方向、車間距離、または個数などの算出が必要に応じて行われる。移動体情報算出部185の算出結果は、例えば表示部183の画面において、数値や文字、色、太さや長さの異なる矢印などの図形として、移動体検出画像CP上に重ねて表示させるようにしても良い。 That is, by the mobile information calculating section 185, R 1, G of the color image in a mobile detection image CP, from the degree of unlike and color shift of the sequence of B, for example, the moving speed of the vehicle Tm traveling, moving direction, The distance between vehicles or the number of vehicles is calculated as necessary. The calculation result of the moving body information calculation unit 185 is displayed on the screen of the display unit 183, for example, as a figure such as a numerical value, a character, a color, an arrow having a different thickness or a length, and superimposed on the moving body detection image CP. You may.

なお、色強調画像(CP2)を移動体検出画像CPとしてそのまま表示させる場合に限らず、例えば、実際の地図や既存の道路ネットワークデータ(R値)と組み合わせるようにしても良い。 The color-enhanced image (CP2) is not limited to being displayed as it is as a moving object detection image CP, and may be combined with, for example, an actual map or existing road network data (R value).

ここで、移動体の移動速度v(t)の算出方法の一例について説明する。 Here, an example of a method of calculating the moving speed v (t) of the moving body will be described.

移動体の移動距離dsは、移動体のずれ量(ピクセル数×空間分解能)から計算できる。例えば、各画像用ラインセンサ214R、214R、214G、214B間のタイムラグdtが0.1秒であり、空間分解能が1mであったとする。そして、移動体が1ピクセル分ずれた場合(1秒間に約10m移動)、下記式(1)より、移動体の速度v(t)は時速約36km/hとなる。 The moving distance ds of the moving body can be calculated from the amount of deviation of the moving body (number of pixels × spatial resolution). For example, assume that the time lag dt between the line sensors 214R 2 , 214R 1 , 214G, and 214B for each image is 0.1 second, and the spatial resolution is 1 m. When the moving body is displaced by 1 pixel (moving about 10 m per second), the speed v (t) of the moving body is about 36 km / h according to the following equation (1).

v(t)=ds/dt … (1)
ただし、vは移動体の速度、sは移動体の位置、tは時間(ライン毎撮影画像eGiの撮影時刻)である。
v (t) = ds / dt ... (1)
However, v is the speed of the moving body, s is the position of the moving body, and t is the time (the shooting time of the captured image eGi for each line).

なお、ライン毎撮影画像eGiの撮影時刻としては、例えば、メタデータファイル(図示省略)などに記録される撮影開始時刻及び終了時刻が利用される。 As the shooting time of the shot image eGi for each line, for example, the shooting start time and the shooting end time recorded in a metadata file (not shown) are used.

因みに、人工衛星の速度(Vkm/秒)は地表からの高度によって異なり、地表からHkmの上空を円軌道で移動する人工衛星の速度Vは、下記式(2)から求められる。 Incidentally, the velocity (Vkm / sec) of the artificial satellite differs depending on the altitude from the ground surface, and the velocity V of the artificial satellite moving in a circular orbit over Hkm from the ground surface can be obtained from the following equation (2).

V=(398600/(6378+H))1/2 … (2)
ただし、398600(km/秒)は地球の重力についての定義、6378(km)は地球の赤道半径である。
V = (398600 / (6378 + H)) 1/2 ... (2)
However, 398600 (km 3 / sec 2 ) is the definition of the earth's gravity, and 6378 (km) is the radius of the earth's equatorial line.

したがって、例えば、地表から600kmの上空を円軌道で移動する人工衛星の速度Vは、約7.56km/秒となる。 Therefore, for example, the velocity V of an artificial satellite moving in a circular orbit 600 km above the surface of the earth is about 7.56 km / sec.

また、移動体情報算出部185においては、移動体の速度などに限らず、例えば、CO排出量(輸送重量×走行距離×CO排出原単位)などを推定するようにしても良い。 Further, the moving body information calculation unit 185 may estimate not only the speed of the moving body but also the CO 2 emission amount (transportation weight × mileage × CO 2 emission basic unit).

(動作説明)
次に、上記した構成の移動体検出システムの移動体検出装置16の動作について説明する。
(Operation explanation)
Next, the operation of the mobile body detection device 16 of the mobile body detection system having the above configuration will be described.

初めに、エリア抽出部165の処理を図9のフローチャートを用いて説明する。撮影画像用データベース163には、地球観測衛星12の人工衛星カメラ21によって撮影された、撮影エリアTEGに対応する、1ライン走査毎のライン毎撮影画像eGiが順に蓄積されているとして説明する。 First, the process of the area extraction unit 165 will be described with reference to the flowchart of FIG. It will be described that the captured image database 163 sequentially stores the captured image eGi for each line scan corresponding to the captured area TEG, which is captured by the artificial satellite camera 21 of the earth observation satellite 12.

撮影画像用データベース163には、例えば図11(a)に示すように、X幅2.5m×Y幅50kmを1ラインとした、ライン毎同一波長成分画像Ri(R)、ライン毎第1画像(R)、ライン毎第2画像(G)、ライン毎第3画像(B)からなるライン毎撮影画像eGiの、少なくとも撮影日・時刻などのヘッダ情報EHiに対応付けられて特定エリアEWiに渡る個数が記憶されているとして説明する。 In the captured image database 163, for example, as shown in FIG. 11A, the same wavelength component image Ri (R 2 ) for each line and the first line for each line, in which an X width of 2.5 m × a Y width of 50 km is set as one line. The specific area EWi associated with at least the header information EHi such as the shooting date and time of the line-by-line shot image eGi consisting of the image (R 1), the line-by-line second image (G), and the line-by-line third image (B). It will be explained assuming that the number of images passed to is stored.

エリア抽出部165は、オペレーション部167により指定された特定エリアEWiに相当する緯度、経度または時刻を読込む(S1)。 The area extraction unit 165 reads the latitude, longitude or time corresponding to the specific area EWi designated by the operation unit 167 (S1).

次に、エリア抽出部165は、例えば、色強調画像用メモリ173内に特定エリアEWiに対応する平面状(二次元状)のエリアWRiを確保する(S2)。エリアWRiとしては、例えば図11(b)に示すように、1メッシュが2.5m間隔のメッシュMiを定義可能なサイズとする。 Next, the area extraction unit 165 secures, for example, a planar (two-dimensional) area WRi corresponding to the specific area EWi in the color-enhanced image memory 173 (S2). As the area WRi, for example, as shown in FIG. 11 (b), one mesh has a definable size of mesh Mi at intervals of 2.5 m.

そして、特定エリアEWiにおける、指定された画像種のライン毎同一波長成分画像Ri(R)と抽出したカラー合成画像GWiとを撮影画像用データベース163から読込み、抽出画像用メモリ169に記憶する(S3)。 Then, in the specific area EWi, the same wavelength component image Ri (R 2 ) for each line of the specified image type and the extracted color composite image GWi are read from the captured image database 163 and stored in the extracted image memory 169 (. S3).

前述の抽出画像用メモリ169は、カラー画像用メモリ169aとパンクロ画像生成用メモリ169bとからなり、抽出したカラー合成画像GWiは、カラー画像用メモリ169aに記憶され、ライン毎同一波長成分画像Ri(R)は、パンクロ画像生成用メモリ169bに記憶される。 The above-mentioned extracted image memory 169 includes a color image memory 169a and a panchromatic image generation memory 169b, and the extracted color composite image GWi is stored in the color image memory 169a, and the same wavelength component image Ri (for each line) R 2) is stored in the panchromatic image generation memory 169b.

抽出画像用メモリ169に記憶されたカラー合成画像GWiの対応する個数のライン毎第1画像(R)及びライン毎同一波長成分画像Ri(R)は、重ね合わせ部171によって合成された後、さらに、カラー合成画像GWiと重ね合わされることにより、色強調前のパンシャープン画像CP1として、色強調画像用メモリ173内に記憶される。 After the first image (R 1 ) for each line and the same wavelength component image Ri (R 2 ) for each line of the corresponding number of color composite images GWi stored in the memory for extracted images 169 are combined by the superimposing unit 171. Further, by superimposing on the color composite image GWi, it is stored in the color-enhanced image memory 173 as the pan-sharpened image CP1 before color enhancement.

または、色強調前のパンシャープン画像CP1を表示制御部181内の画像メモリ181Mに書込んで、表示部183の画面上に表示させるようにしても良い。 Alternatively, the pan-sharpened image CP1 before color enhancement may be written in the image memory 181M in the display control unit 181 and displayed on the screen of the display unit 183.

以下の説明では、画像種が白黒画像と指定され、特定エリアEWiに対応する個数の同一波長成分画像Ri(R)と同じ個数のライン毎第1画像(R)とを重ね合わせた白黒合成画像GEAiが、色強調画像用メモリ173内に記憶され、かつ、白黒合成画像GEAiとカラー画像用メモリ169aのカラー合成画像GWiとを重ね合わせた色強調前のパンシャープン画像CP1が、色強調画像用メモリ173のパンシャープン画像用記憶部に記憶されているとして説明する。 In the following description, the image type is designated as a black-and-white image, and the same number of same-wavelength component images Ri (R 2 ) corresponding to the specific area EWi and the same number of line-by-line first images (R 1 ) are superimposed in black and white. The composite image GEAi is stored in the color-enhanced image memory 173, and the pan-sharpened image CP1 before color enhancement in which the black-and-white composite image GEAi and the color composite image GWi of the color image memory 169a are superimposed is the color. It will be described as being stored in the pan-sharpened image storage unit of the emphasized image memory 173.

次に、移動体検出処理を、図10のフローチャートを用いて説明する。移動体検出処理は、移動体検出装置16の色強調部175及び画素移動体判定部177などが行う処理である。 Next, the moving object detection process will be described with reference to the flowchart of FIG. The moving body detection process is a process performed by the color enhancing unit 175 and the pixel moving body determination unit 177 of the moving body detecting device 16.

図10に示すように、まず、色強調部175は、例えば、色強調画像用メモリ173に記憶された色強調前のパンシャープン画像CP1の、ピクセル座標Pzai(i,j)を指定する(S05)。 As shown in FIG. 10, first, the color enhancement unit 175 specifies the pixel coordinates Pzai (i, j) of the pan-sharpened image CP1 before color enhancement stored in the color enhancement image memory 173, for example (. S05).

そして、指定したピクセル座標Pzai(i,j)の画素データ(1ピクセル内のR2、、G、Bの成分:各ピクセル値)を読込む(S06)。そして、読込んだ画素データの各ピクセル値が全て同じかどうかを判断する(S07)。 Then, the pixel data of the designated pixel coordinates Pzai (i, j) ( components of R 2, R 1 , G, and B in one pixel: each pixel value) is read (S06). Then, it is determined whether or not all the pixel values of the read pixel data are the same (S07).

ステップS07では、各々のピクセル値が全て同じでない場合(R≠G≠B)、カラー合成画像GWiの画像データと判定する。つまり、全てのピクセル値が等しくない場合に、その画素は、移動体(例えば、Tm2)のものであると判定される。 In step S07, when all the pixel values are not the same (R 1 ≠ G ≠ B), it is determined that the image data is the color composite image GWi. That is, when all the pixel values are not equal, it is determined that the pixel belongs to a moving body (for example, Tm2).

また、例えば図18(a)に示すように、全てのピクセル値が等しい場合に、その画素は、背景の白黒画像(一例として、R=G=B=108ならば黒PK、R=G=B=200ならば白PW)のものであると判定される(ただし、256階調の場合)。 Further, for example, as shown in FIG. 18A, when all the pixel values are equal, the pixel is a black-and-white image of the background (for example, if R = G = B = 108, black PK, R = G = If B = 200, it is determined to be white PW) (however, in the case of 256 gradations).

ステップS07で、カラー合成画像GWiの画素データと判定した場合(NO)は、指定したピクセル座標Pzai(i,j)に対応する画素の色種を決定する(S08)。 When it is determined in step S07 that the pixel data is the pixel data of the color composite image GWi (NO), the color type of the pixel corresponding to the designated pixel coordinates Pzai (i, j) is determined (S08).

例えば、各ピクセル値がR=R=G≠B(ただし、B>R=R=G)の場合は、「青」と判断する。また、各ピクセル値がR=R=B≠G(ただし、G>R=R=B)の場合は、「緑」と判断する。さらに、各ピクセル値がB=G≠(R=R)(ただし、R=R>G=B)の場合は、「赤」と判断する。一例として、256階調の場合において、例えば図18(a)に示すように、R=178で、G=B=129ならば赤(PR)、G=178で、R=B=100ならば緑(PG)、B=178で、R=G=102ならば青(PB)と判断される。 For example, when each pixel value is R 1 = R 2 = G ≠ B (however, B> R 1 = R 2 = G), it is determined as “blue”. If each pixel value is R 1 = R 2 = B ≠ G (however, G> R 1 = R 2 = B), it is determined to be “green”. Further, when each pixel value is B = G ≠ (R 1 = R 2 ) (however, R 1 = R 2 > G = B), it is determined as “red”. As an example, in the case of 256 gradations, for example, as shown in FIG. 18A, if R = 178 and G = B = 129, then red (PR 1 ), if G = 178, and R = B = 100. For example, if green (PG) and B = 178 and R = G = 102, it is determined to be blue (PB).

そして、ステップS08で決定した色種を読込み、この色種を強調する(S10)。 Then, the color type determined in step S08 is read, and this color type is emphasized (S10).

例えば、各ピクセル値がB=G<Rの場合は、Rのピクセル値だけを最大値にし、赤(PR)を強調させる。また、各ピクセル値がR=B<Gの場合は、Gのピクセル値だけを最大値にし、緑(PG)を強調させる。さらに、各ピクセル値がR=G<Bの場合は、Bのピクセル値だけを最大値にし、青(PB)を強調させる。最大値というのは、例えば、240〜255の範囲を含むとする(256階調の場合)。また、例えば図18(b)に示すように、最大値にするピクセル値以外の各ピクセル値は「0」にするようにしても良く、その色種をより強調させることができる。 For example, when each pixel value is B = G <R, only the pixel value of R is maximized and red (PR 1 ) is emphasized. When each pixel value is R = B <G, only the pixel value of G is maximized and green (PG) is emphasized. Further, when each pixel value is R = G <B, only the pixel value of B is maximized and blue (PB) is emphasized. The maximum value includes, for example, a range of 240 to 255 (in the case of 256 gradations). Further, for example, as shown in FIG. 18B, each pixel value other than the pixel value to be the maximum value may be set to "0", and the color type can be further emphasized.

すなわち、色強調部175においては、例えば図18(b)に示すように、最高の階調度が赤(PR)ならば、R=255(G=B=0)、緑(PG)ならば、G=255(R=B=0)、青(PB)ならば、B=255(R=G=0)となるように、ステップS08で決定された色種のみが最大値に近似して補正(強調)される。 That is, in the color enhancement unit 175, for example, as shown in FIG. 18B, if the highest gradation is red (PR 1 ), R = 255 (G = B = 0), and green (PG). , G = 255 (R = B = 0) and blue (PB), then only the color type determined in step S08 approximates the maximum value so that B = 255 (R = G = 0). It is corrected (emphasized).

以上のような色強調処理によって、色強調前のパンシャープン画像CP1が色強調後のパンシャープン画像CP2とされることになる。例えば、所定の速度以上の速度で移動する移動体は、R、G、Bの色ずれを伴うカラー画像として強調表示されることになる。 By the color enhancement processing as described above, the pan-sharpened image CP1 before color enhancement becomes the pan-sharpened image CP2 after color enhancement. For example, the moving body which moves at a predetermined speed or faster is, R 1, G, will be highlighted as a color image with a color shift B.

次いで、色強調部175は、ピクセル座標Pzai(i,j)が他にあるかどうかを判断する(S12)。 Next, the color enhancement unit 175 determines whether or not there is another pixel coordinate Pzai (i, j) (S12).

ステップS12で、ピクセル座標Pzai(i,j)が他にあると判断した場合(YES)は、ピクセル座標Pzai(i,j)を更新して、処理をステップS06に戻す(S13)。 If it is determined in step S12 that there is another pixel coordinate Pzai (i, j) (YES), the pixel coordinate Psai (i, j) is updated and the process returns to step S06 (S13).

一方、ステップS07で、各ピクセル値がほぼ同じ(R=G=B)と判定した場合(YES)は、モノクロ画像の画素と判定し、処理をステップS12に移す。 On the other hand, if it is determined in step S07 that the pixel values are substantially the same (R 1 = G = B) (YES), it is determined that the pixels are monochrome images, and the process proceeds to step S12.

また、画素移動体判定部177は、ステップS12で、ピクセル座標Pzai(i,j)が他にないと判断した場合(NO)、ピクセル座標Pzai(i,j)を順次指定し(S14、S15)、「j」の値がマックス値(例えば、max=768)になるまで、ステップS06〜を繰り返す。 Further, when the pixel moving body determination unit 177 determines in step S12 that there is no other pixel coordinate Pzai (i, j) (NO), the pixel moving body determination unit 177 sequentially designates the pixel coordinate Pzai (i, j) (S14, S15). ), Step S06 ~ is repeated until the value of “j” reaches the max value (for example, max = 768).

こうして、各画素が、例えば、「青」、「緑」、または「赤」を示している場合は、移動体を示すカラー画像と判断する(図11(b)参照)。 In this way, when each pixel indicates, for example, "blue", "green", or "red", it is determined to be a color image indicating a moving object (see FIG. 11B).

「j」の値が最大値の場合(S14:YES)には、この色強調後のパンシャープン画像CP2を移動体検出画像CPとして、表示制御部181の画像メモリ181Mに書込んで(S16)、表示部183の画面上に表示させる(S17)。 When the value of "j" is the maximum value (S14: YES), the pan-sharpened image CP2 after color enhancement is written as the moving object detection image CP in the image memory 181M of the display control unit 181 (S16). ), Displayed on the screen of the display unit 183 (S17).

この後、表示部183の画面上に移動体検出画像CPが表示された状態において、例えば、移動体情報算出部185によって移動速度などの算出が必要に応じて行われる。 After that, in a state where the moving body detection image CP is displayed on the screen of the display unit 183, for example, the moving body information calculation unit 185 calculates the moving speed and the like as necessary.

図12は、走行中の車両(移動体)を例に、移動体検出画像CPの一例を示すものである。なお、図12(a)は、色強調処理を施す前のパンシャープン画像CP1であり、図12(b)は、色強調処理を施した後のパンシャープン画像CP2である。 FIG. 12 shows an example of a moving body detection image CP, taking a moving vehicle (moving body) as an example. Note that FIG. 12A is a pan-sharpened image CP1 before the color enhancement process is applied, and FIG. 12B is a pan-sharpened image CP2 after the color enhancement process is applied.

色強調後のパンシャープン画像CP2においては、例えば図12(b)に示すように、停止中の車両や道路または建物などを含む背景(静止物体)はモノクロ画像として、走行中の車両のみがTm1(B、G、R)またはTm2(R、G、B)のようにカラー画像として表示されるとともに、図12(a)の色強調前のパンシャープン画像CP1の場合よりも、表示のカラー画像がより強調される。 In the pan-sharpened image CP2 after color enhancement, for example, as shown in FIG. 12B, the background (stationary object) including a stopped vehicle, a road, a building, etc. is a monochrome image, and only the moving vehicle is used. tm1 (B, G, R 1 ) or Tm2 (R 1, G, B ) while being displayed as a color image as in, than for color enhancement previous pan-sharpened image CP1 of FIG. 12 (a), The color image of the display is more emphasized.

なお、カラー画像における色種の順番(R、G、BまたはB、G、R)の異なりは、走行中の車両Tm1、Tm2の移動方向の違いによる。 The difference in the order of the color types (R 1 , G, B or B, G, R 1 ) in the color image depends on the difference in the moving directions of the moving vehicles Tm1 and Tm2.

また、走行中の車両Tm1、Tm2の近傍に進行方向(移動方向)を示す矢印を表示させたり、移動速度を示す数値(時速)などを表示させたりするようにしても良い。 Further, an arrow indicating the traveling direction (moving direction) may be displayed in the vicinity of the traveling vehicles Tm1 and Tm2, or a numerical value (speed) indicating the moving speed may be displayed.

なお、画像合成処理については、重ね合わせ部171において、ラインディレイ補正などの処理を実施した後に、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせることにより作成できるので、ここでの詳細な説明は省略する。 Regarding the image composition process, after performing processing such as line delay correction in the overlay section 171, the color images of the bands obtained by aligning them so as to be geometrically overlapped are superimposed with the same size. Since it can be created by, detailed description here is omitted.

図13(a),(b)は、移動体検出画像CPにおける移動体の表示特性を示すものである。 13 (a) and 13 (b) show the display characteristics of the moving body in the moving body detection image CP.

すなわち、一定速度以上のスピードで走行中の車両Tmの場合、例えば図13(a)に示すように、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせたとしても、車両Tmの画素間の移動が、その移動速度に応じて数ピクセルから十数ピクセルにおよぶため、移動体検出画像CPにおけるR、G、Bの色ずれが大きくなる。 That is, in the case of a vehicle Tm traveling at a speed equal to or higher than a certain speed, as shown in FIG. even combined, movement between the pixels of the vehicle Tm is because the spanning ten pixels from several pixels in accordance with the moving speed, R 1, in the moving object detecting image CP G, the color shift of B increases.

これに対し、停止中の車両Tsの場合は、例えば図13(b)に示すように、簡単なラインディレイ補正などにより、各バンドのカラー画像がほぼ重なり合うので、移動体検出画像CPにおけるR、G、Bの色ずれは小さくなる。つまり、停止中の車両Tsは、道路または建物などを含む背景(静止物体)と同様にモノクロ画像として表示される。 On the other hand, in the case of the stopped vehicle Ts, as shown in FIG. 13B, for example, the color images of the bands almost overlap each other due to a simple line delay correction or the like, so that R 1 in the moving object detection image CP , G, B color shift becomes small. That is, the stopped vehicle Ts is displayed as a monochrome image in the same manner as the background (stationary object) including a road, a building, or the like.

図14は、マルチスペクトルセンサ装置214における各画像用ラインセンサ214R、214R、214G、214Bの配置例(ライン配列)を模式的に示すものである。 FIG. 14 schematically shows an arrangement example (line arrangement) of the line sensors 214R 2 , 214R 1 , 214G, and 214B for each image in the multispectral sensor device 214.

本実施の形態1においては、RGBカラー合成画像を生成するためのR画像用ラインセンサ214RとG画像用ラインセンサ214GとB画像用ラインセンサ214Bの、例えば、R画像用ラインセンサ214Rに隣接するようにして、同一波長成分画像用ラインセンサ214Rが並列に配置されたマルチスペクトルセンサ装置214を採用している。すなわち、マルチスペクトルセンサ装置214の場合は、R画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとが、パンクロマチック画像を取得するためのモノクロ画像用ラインセンサとなっている。 In the first embodiment, the R 1 image line sensor 214R 1 for generating an RGB color composite image, the G image line sensor 214G, and the B image line sensor 214B, for example, the R 1 image line sensor 214R A multi-spectral sensor device 214 in which line sensors 214R 2 for images having the same wavelength component are arranged in parallel so as to be adjacent to 1 is adopted. That is, in the case of the multispectral sensor device 214, the R 1 image line sensor 214R 1 and the same wavelength component image line sensor 214R 2 are monochrome image line sensors for acquiring a panchromatic image.

なお、マルチスペクトルセンサ装置214においては、R画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとを隣接させず、R画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとの間に、G画像用ラインセンサ214GとB画像用ラインセンサ214Bとを配置するようにしても良い(例えば、R、G、B、R)。 In the multispectral sensor device 214, the R 1 image line sensor 214R 1 and the same wavelength component image line sensor 214R 2 are not adjacent to each other, and the R 1 image line sensor 214R 1 and the same wavelength component image line sensor are not adjacent to each other. The G image line sensor 214G and the B image line sensor 214B may be arranged between the 214R 2 (for example, R 1 , G, B, R 2 ).

また、いずれの場合においても、R画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとを入れ替えることも可能である。 Further, in any case, it is possible to replace the R 1 image line sensor 214R 1 with the same wavelength component image line sensor 214R 2.

画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとの間に、G画像用ラインセンサ214GとB画像用ラインセンサ214Bとを配置するようにしたマルチスペクトルセンサ装置214IIについては、本実施の形態2として後述する。 Regarding the multispectral sensor device 214II in which the G image line sensor 214G and the B image line sensor 214B are arranged between the R 1 image line sensor 214R 1 and the same wavelength component image line sensor 214R 2. , Will be described later as the second embodiment.

ここで、上記した構成のマルチスペクトルセンサ装置214を用いて、移動体をカラー表示させる場合の表示例について、さらに説明する。 Here, a display example in which a moving body is displayed in color by using the multispectral sensor device 214 having the above configuration will be further described.

図15(a),(b)は、停止中の車両Tsとその表示例とを示すもので、停止中の車両Tsの場合、カラー表示にR、G、Bの色ずれは殆んど発生しない。 Figure 15 (a), (b) is shows a display example thereof with the vehicle Ts suspended, if the vehicle Ts suspended, R 1, G, color deviation of B in color display殆Ndo Does not occur.

図16(a),(b)は、低速走行中の車両Tmaとその表示例とを示すもので、低速走行中の車両Tmaが図示実線の位置から図示破線の位置まで移動するのに伴って、カラー表示のR、G、Bに若干の色ずれが発生する。 16 (a) and 16 (b) show a vehicle Tma traveling at low speed and a display example thereof, and as the vehicle Tma traveling at low speed moves from the position shown by the solid line in the figure to the position shown by the broken line in the figure. color display of R 1, G, slight color shift to B occurs.

図17(a),(b)は、高速走行中の車両Tmbとその表示例とを示すもので、高速走行中の車両Tmbが図示実線の位置から図示破線の位置まで移動するのに伴って、カラー表示にR、G、Bの大きな色ずれが発生する。 17 (a) and 17 (b) show a vehicle Tmb traveling at high speed and a display example thereof, and as the vehicle Tmb traveling at high speed moves from the position of the solid line in the figure to the position of the broken line in the figure. , R 1, G, a large color shift B occurs in a color display.

したがって、移動体検出画像CPにおいては、カラー表示が強調されることによって走行中の車両Tm(Tma、Tmb)を、より容易に識別できるとともに、カラー表示の色ずれの程度に応じて、走行中の車両Tmが高速走行中の車両Tmbか、低速走行中の車両Tmaかを簡単に判別することが可能である。 Therefore, in the moving object detection image CP, the moving vehicle Tm (Tma, Tmb) can be more easily identified by emphasizing the color display, and the vehicle is running according to the degree of color shift of the color display. It is possible to easily determine whether the vehicle Tm of the vehicle Tm is a vehicle Tmb traveling at high speed or a vehicle Tma traveling at low speed.

また、カラー表示のR、G、Bの並びは、走行中の車両Tmの移動方向とマルチスペクトルセンサ装置214のライン配列とに依存するため、走行中の車両Tm(Tma、Tmb)がどちらの方向に移動しているかを自動的に認識できる。 Further, since the arrangement of R 1 , G, and B in the color display depends on the moving direction of the running vehicle Tm and the line arrangement of the multispectral sensor device 214, which is the running vehicle Tm (Tma, Tmb)? It can automatically recognize whether it is moving in the direction of.

上記したように、本実施の形態1によれば、より効率的に走行中の車両を検出できるとともに、検出された走行中の車両の速度や方向を正確かつ自動的に把握できるようになる。 As described above, according to the first embodiment, the traveling vehicle can be detected more efficiently, and the detected speed and direction of the traveling vehicle can be accurately and automatically grasped.

すなわち、インターライン型構造のマルチスペクトルセンサ装置を用いて、ライン毎撮影画像eGiを取得する際に、同じバンドのラインセンサを2つ以上配置し、ライン間における信号電荷の読出し時間のわずかな差を利用して、1シーン分の移動体検出画像を取得するようにしている。 That is, when acquiring the captured image eGi for each line using the multispectral sensor device having an interline type structure, two or more line sensors of the same band are arranged, and a slight difference in signal charge reading time between the lines. Is used to acquire moving object detection images for one scene.

これにより、静止物体はグレースケールによって、移動体は色付きの画像として、移動体検出画像上にそれぞれ表示できるようになるため、移動体検出画像上に走行中の車両だけをカラー表示させることが可能となる。 As a result, the stationary object can be displayed in grayscale and the moving body can be displayed as a colored image on the moving body detection image, so that only the moving vehicle can be displayed in color on the moving body detection image. It becomes.

しかも、走行中の車両をより強調させて表示させることが可能となるため、走行中の車両を確実に検出できるようになるとともに、検出された走行中の車両の速度や移動方向または個数などをも容易に算出できるようになる。 Moreover, since it is possible to emphasize the running vehicle and display it, the running vehicle can be reliably detected, and the detected speed, moving direction, number, etc. of the running vehicle can be detected. Can be easily calculated.

したがって、従来のように前方視画像や直下視画像などのペア画像を用意せずとも、走行中の車両を静止物体と明確に区別でき、走行中の車両のみを効率良く検出できるマルチラインイメージセンサ装置、撮影装置、移動体検出システム、移動体検出装置、及び移動体検出プログラムを提供できる。 Therefore, a multi-line image sensor that can clearly distinguish a moving vehicle from a stationary object and efficiently detect only a moving vehicle without preparing a pair image such as a front view image or a direct view image as in the conventional case. Devices, imaging devices, moving body detection systems, moving body detection devices, and moving body detection programs can be provided.

なお、上記した実施の形態1においては、地球観測衛星12などの人工衛星に、マルチスペクトルセンサ装置214を内蔵する人工衛星カメラ21を搭載し、ライン毎撮影画像eGiを撮影するようにした場合を例に説明したが、プラットフォームとしては人工衛星に限らず、例えば、航空機、無人航空機、CCTV(Closed-Circuit television)、プリンタ、または顕微鏡などであっても良い。 In the first embodiment described above, an artificial satellite camera 21 having a built-in multispectral sensor device 214 is mounted on an artificial satellite such as the earth observation satellite 12, and the captured image eGi is captured for each line. As described above, the platform is not limited to artificial satellites, and may be, for example, an aircraft, an unmanned aircraft, a CCTV (Closed-Circuit television), a printer, a microscope, or the like.

また、人工衛星としては、地球観測衛星12に限定されないことは勿論である。 Needless to say, the artificial satellite is not limited to the earth observation satellite 12.

また、マルチスペクトルセンサ装置214は、図19または図20に示すような構成としても良い。 Further, the multispectral sensor device 214 may have a configuration as shown in FIG. 19 or FIG.

図19は、本実施の形態に係るマルチスペクトルセンサ装置の他の構成例を示すもので、マルチスペクトルセンサ装置214としては、例えば、R画像用ラインセンサ214R、同一波長成分画像用ラインセンサ214R、G画像用ラインセンサ214G、及びB画像用ラインセンサ214Bが、それぞれ、3分割されたラインセンサを備えて構成されるものであっても良い。 FIG. 19 shows another exemplary configuration of the multi-spectral sensor device according to this embodiment, the multi-spectral as the sensor device 214 1, For example, R 1 image line sensor 214R 1, line for the same wavelength component image The sensor 214R 2 , the G image line sensor 214G, and the B image line sensor 214B may each include a line sensor divided into three parts.

すなわち、R画像用ラインセンサ214Rは、ラインセンサ214R1a、214R1b、214R1cにより形成され、同一波長成分画像用ラインセンサ214Rは、ラインセンサ214R2a、214R2b、214R2cにより形成され、G画像用ラインセンサ214Gは、ラインセンサ214G、214G、214Gにより形成され、B画像用ラインセンサ214Bは、ラインセンサ214B、214B、214Bにより形成されている。 That is, the R 1 image line sensor 214R 1 is formed by the line sensors 214R 1a , 214R 1b , 214R 1c , and the same wavelength component image line sensor 214R 2 is formed by the line sensors 214R 2a , 214R 2b , 214R 2c. , G image line sensor 214G is formed by line sensors 214G a , 214G b , 214G c , and B image line sensor 214B is formed by line sensors 214B a , 214B b , 214B c .

図20は、本実施の形態に係るマルチスペクトルセンサ装置のさらに別の構成例を示すもので、マルチスペクトルセンサ装置214としては、例えば、ラインセンサ214R1a、214R1b、214R1cにより形成されるR画像用ラインセンサと、ラインセンサ214R2a、214R2b、214R2cにより形成される同一波長成分画像用ラインセンサと、ラインセンサ214G、214G、214Gにより形成されるG画像用ラインセンサと、ラインセンサ214B、214B、214Bにより形成されるB画像用ラインセンサと、を備えた構成としても良い。 FIG. 20 shows still another configuration example of the multi-spectral sensor device according to the present embodiment, and the multi-spectral sensor device 214 2 is formed by, for example, line sensors 214R 1a , 214R 1b , and 214R 1c. R 1 and an image line sensor, line sensor 214R 2a, 214R 2b, a line sensor for the same wavelength component image formed by 214R 2c, the line sensor 214G a, 214G b, the line sensor G image formed by 214G c A line sensor for B image formed by the line sensors 214B a , 214B b , and 214B c may be provided.

また、追加のラインセンサとしては、同一波長成分画像用ラインセンサ214Rによらず、G画像用ラインセンサまたはB画像用ラインセンサであっても良いし、同種のラインセンサを2ライン分以上追加するようにしても良い(例えば、R、R、R)。 Further, the additional line sensor may be a G image line sensor or a B image line sensor regardless of the same wavelength component image line sensor 214R 2 , and two or more lines of the same type may be added. (For example, R 1 , R 2 , R 3 ).

図21は、マルチスペクトルセンサ装置214aを構成するようにした場合の第1変形例である。すなわち、このマルチスペクトルセンサ装置214aの場合は、例えば、B画像用ラインセンサ214BとB画像用ラインセンサ(同一波長成分画像用ラインセンサ)214Bとが、パンクロマチック画像を取得するためのモノクロ画像用ラインセンサとなっている。 FIG. 21 is a first modification when the multispectral sensor device 214a is configured. That is, in the case of this multispectral sensor device 214a, for example, the B 1 image line sensor 214B 1 and the B 2 image line sensor (same wavelength component image line sensor) 214B 2 acquire a panchromatic image. It is a line sensor for monochrome images.

図22は、マルチスペクトルセンサ装置214bを構成するようにした場合の第2変形例である。すなわち、このマルチスペクトルセンサ装置214bの場合は、例えば、R画像用ラインセンサ214RとR画像用ラインセンサ(第1の同一波長成分画像用ラインセンサ)214RとR画像用ラインセンサ(第2の同一波長成分画像用ラインセンサ)214Rとが、パンクロマチック画像を取得するためのモノクロ画像用ラインセンサとなっている。 FIG. 22 is a second modification when the multispectral sensor device 214b is configured. That is, in the case of this multispectral sensor device 214b, for example, R 1 image line sensor 214R 1 and R 2 image line sensor (first same wavelength component image line sensor) 214R 2 and R 3 image line sensor. (Second line sensor for same wavelength component image) 214R 3 is a line sensor for monochrome image for acquiring a panchromatic image.

図23は、赤外(IR)または近赤外(NIR)用のラインセンサ214Wを備えて、マルチスペクトルセンサ装置214cを構成するようにした場合の第3変形例である。すなわち、このマルチスペクトルセンサ装置214cの場合は、例えば、R画像用ラインセンサ214RとR画像用ラインセンサ(第2の同一波長成分画像用ラインセンサ)214Rとが、パンクロマチック画像を取得するためのモノクロ画像用ラインセンサとなっている。 FIG. 23 is a third modification in the case where the line sensor 214W for infrared (IR) or near infrared (NIR) is provided to form the multispectral sensor device 214c. That is, in the case of this multispectral sensor device 214c, for example, the R 1 image line sensor 214R 1 and the R 2 image line sensor (second line sensor for the same wavelength component image) 214R 2 produce a panchromatic image. It is a line sensor for monochrome images for acquisition.

このように、マルチスペクトルセンサ装置214、214a、214b、214cは、1ライン走査分のカラー画像を同一時刻にて一度に取得できる既存のCCDラインセンサに、さらに、R、G、Bのいずれかと同じバンドのセンサが少なくとも1ライン分以上新たに追加された構成とすることにより、移動体検出装置16での移動体検出画像CPの作成に伴って、移動体(画像の読込みの間に動いたもの)の色ずれをより明確に区別して表現できるようになる。 As described above, the multispectral sensor devices 214, 214a, 214b, and 214c are added to the existing CCD line sensor capable of acquiring color images for one line scan at one time at the same time, and further to any of R, G, and B. By newly adding sensors of the same band for at least one line, the moving body (moved during reading of the image) was created with the moving body detection image CP created by the moving body detection device 16. It will be possible to express the color shift of things) more clearly.

また、移動体としては車両に限らず、マルチスペクトルセンサ装置での露光時間を、例えば、移動体検出装置16から任意にコントロールできるようにすることで、船舶、航空機(Unmanned Aerial vehicle;UAVを含む)、雲、人、野生動物、または波など、あらゆる速度で移動する移動体の検出に対応できる。 Further, the moving body is not limited to the vehicle, and the exposure time in the multispectral sensor device can be arbitrarily controlled from, for example, the moving body detecting device 16, thereby including a ship and an aircraft (Unmanned Aerial vehicle; UAV). ), Clouds, people, wildlife, or waves, which can detect moving objects moving at any speed.

図24は、移動体検出画像(イメージ画像)CPaから、移動体としての雲Taを検出する場合を例に示すものである。 FIG. 24 shows a case where cloud Ta as a moving body is detected from the moving body detection image (image image) CPa as an example.

雲Taを検出する場合においては、例えば、影の大きさなどから、雲Taの高度や移動速度、成長の速度または大きさなどの算出が可能となる。特に、雲Taの成長する速度や大きさなどを算出できるようにすることで、積乱雲の発生に伴う雷雨や集中豪雨(ゲリラ豪雨)などの警戒域を特定するような場合にも適用できる。 When detecting cloud Ta, for example, it is possible to calculate the altitude, moving speed, growth speed or size of cloud Ta from the size of shadows and the like. In particular, by making it possible to calculate the growth speed and size of cloud Ta, it can be applied to the case of specifying a warning zone such as a thunderstorm or a torrential rain (guerrilla rainstorm) due to the occurrence of cumulonimbus clouds.

図25(a)〜図25(d)は、移動体検出画像(イメージ画像)CPbから、移動体としての波Tbを検出する場合を例に示すものである。 25 (a) to 25 (d) show an example of detecting a wave Tb as a moving body from a moving body detection image (image image) CPb.

波Tbを検出する場合においては、例えば、波Tbの速度や大きさなどの算出が可能となる。特に、波Tbの速度や大きさなどを算出できるようにすることで、津波や海面の水位や流速の観測、または、波の位相の監視などにも適用できる。 When detecting the wave Tb, for example, the velocity and magnitude of the wave Tb can be calculated. In particular, by making it possible to calculate the velocity and magnitude of the wave Tb, it can be applied to the observation of the water level and flow velocity of the tsunami and the sea surface, or the monitoring of the phase of the wave.

移動体としての波(津波)を検出する検出システムの具体例については、本実施の形態3として後述する。 A specific example of a detection system that detects a wave (tsunami) as a moving body will be described later as the third embodiment.

<実施の形態2>
次に、本実施の形態2に係るマルチスペクトルセンサ装置(マルチラインイメージセンサ装置)が適用される移動体検出システムの構成について説明する。この実施の形態2は、マルチスペクトルセンサ装置のライン配列を、解像度に対する影響がより小さくなるようにした場合の例である。なお、上述した実施の形態1と同一部分には同一または類似の符号を付し、詳しい説明は省略する。
<Embodiment 2>
Next, a configuration of a mobile detection system to which the multispectral sensor device (multiline image sensor device) according to the second embodiment is applied will be described. The second embodiment is an example in which the line arrangement of the multispectral sensor device has a smaller influence on the resolution. The same parts as those in the first embodiment described above are designated by the same or similar reference numerals, and detailed description thereof will be omitted.

図26は、マルチスペクトルセンサ装置(MSS)214IIを備えた人工衛星カメラ21の構成を概略的に示すものであって、図1及び図2に示した移動体検出システムにおける地球観測衛星12に搭載されるものとして説明する。 FIG. 26 schematically shows the configuration of the artificial satellite camera 21 equipped with the multispectral sensor device (MSS) 214II, and is mounted on the earth observation satellite 12 in the mobile detection system shown in FIGS. 1 and 2. It will be explained as being done.

本実施の形態2の人工衛星カメラ21は、三原色画像ラインセンサ(R画像用ラインセンサ214R、G画像用ラインセンサ214G、B画像用ラインセンサ214B)の他に、同一波長成分画像用ラインセンサ(例えば、R画像用ラインセンサ214R)をさらに備えてなる、いわゆる4ライン方式のマルチスペクトルセンサ装置214IIを備える。 The artificial satellite camera 21 of the second embodiment has a line for the same wavelength component image in addition to the three primary color image line sensors (R 1 image line sensor 214R 1 , G image line sensor 214G, B image line sensor 214B). It is provided with a so-called 4-line multispectral sensor device 214II further comprising a sensor (for example, R 2 image line sensor 214R 2).

ただし、このマルチスペクトルセンサ装置214IIは、例えば平面視において、R画像用ラインセンサ214R、G画像用ラインセンサ214G、B画像用ラインセンサ214Bの順に配置された既存の3ライン方式のマルチスペクトルセンサの、そのB画像用ラインセンサ214Bの外側に隣接するようにして、同一波長成分画像用ラインセンサ214Rが所定の間隔(物理的離隔距離)BDを有して並列に配置されている。 However, this multi-spectral sensor device 214II is an existing 3-line multi-spectral system in which the R 1 image line sensor 214R 1 , the G image line sensor 214G, and the B image line sensor 214B are arranged in this order, for example, in a plan view. The same wavelength component image line sensor 214R 2 is arranged in parallel with a predetermined interval (physical separation distance) BD so as to be adjacent to the outside of the B image line sensor 214B of the sensor.

すなわち、本実施の形態2に係るマルチスペクトルセンサ装置214IIは、例えば図26に示すように、一端側のR画像用ラインセンサ214Rと他端側の同一波長成分画像用ラインセンサ214Rとの間に、G画像用ラインセンサ214GとB画像用ラインセンサ214Bとが配置されている点で、実施の形態1に係るマルチスペクトルセンサ装置214とは構成が異なる。 That is, the multi-spectral sensor device 214II according to the second embodiment, as shown in FIG. 26, the same wavelength component image line sensor 214R 2 at one end of the R 1 image line sensor 214R 1 and the other end The configuration is different from that of the multispectral sensor device 214 according to the first embodiment in that the G image line sensor 214G and the B image line sensor 214B are arranged between the two.

このような構成のマルチスペクトルセンサ装置214IIによれば、移動体検出用のマルチラインイメージセンサとしての機能を備えたことによって、例えば解像度はそのままに、RGBカラー合成画像の撮影が可能な既存の三原色画像ラインセンサとしての役割を果たしながら、移動体だけをカラー画像により強調表示させ、それ以外の静止物体をモノクロ表示させた移動体検出画像CPを容易に取得できるようになる。 According to the multi-spectral sensor device 214II having such a configuration, by providing a function as a multi-line image sensor for detecting a moving object, for example, the existing three primary colors capable of capturing an RGB color composite image while maintaining the same resolution. While playing the role of an image line sensor, it becomes possible to easily acquire a moving object detection image CP in which only a moving object is highlighted by a color image and other stationary objects are displayed in monochrome.

これにより、移動体検出画像CP上において、より一層、移動体だけを目立たせることが可能となる。したがって、1シーン分の移動体検出画像CPから目視によって移動体(変化分)を簡単に検出できるようになるとともに、コンピュータ処理においても、移動体を効率良く自動抽出することが可能となる。 This makes it possible to make only the moving body stand out even more on the moving body detection image CP. Therefore, the moving body (change) can be easily detected visually from the moving body detection image CP for one scene, and the moving body can be efficiently and automatically extracted even in computer processing.

図27は、マルチスペクトルセンサ装置214の断面構造を概略的に示すものであって、ここでは、図26のII−II線に沿う断面を例示して説明する。 FIG. 27 schematically shows a cross-sectional structure of the multispectral sensor device 214, and here, a cross-sectional view taken along the line II-II of FIG. 26 will be illustrated and described.

マルチスペクトルセンサ装置214IIにおいて、R画像用ラインセンサ214Rは、例えば、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214RpとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214Rfとなる垂直CCDのレジスタ部(n型層)214Rtと、を備える。 In the multispectral sensor device 214II, the R 1 image line sensor 214R 1 is, for example, a photodiode serving as a photodiode PD group 214R 1 p formed on the surface portion of the p-type Si substrate 230 or the surface portion of the p-type well 232. and PD of the light-receiving region (n-type layer) 234, the light receiving region 234 spaced apart from, p-type Si substrate 230 surface portion or p-type well 232 surface portion of the vertical CCD to be formed CCD group 214R 1 f to the It includes a register unit (n + type layer) 214R 1 t.

同様に、G画像用ラインセンサ214Gは、例えばR画像用ラインセンサ214Rの一端側に物理的離隔距離BDを有して隣接配置されており、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214GpとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214Gfとなる垂直CCDのレジスタ部(n型層)214Gtと、を備える。 Similarly, the G image line sensor 214G is arranged adjacent to, for example, one end side of the R 1 image line sensor 214R 1 with a physical separation diode BD, and is arranged on the surface of the p-type Si substrate 230 or the p-type. The surface portion of the p-type Si substrate 230 or the p-type well separated from the light receiving region (n-type layer) 234 of the photodiode PD forming the photodiode PD group 214 Gp formed on the surface portion of the well 232 and the light receiving region 234. A vertical CCD register portion (n + type layer) 214 Gt, which is formed on the surface portion of 232 and serves as a CCD group 214 Gf, is provided.

同様に、B画像用ラインセンサ214Bは、例えばG画像用ラインセンサ214Gの一端側に物理的離隔距離BDを有して隣接配置されており、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214BpとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214Bfとなる垂直CCDのレジスタ部(n型層)214Btと、を備える。 Similarly, the B image line sensor 214B is arranged adjacent to, for example, one end side of the G image line sensor 214G with a physical separation diode BD, and is arranged on the surface of the p-type Si substrate 230 or the p-type well 232. The light receiving region (n-type layer) 234 of the photodiode PD forming the photodiode PD group 214Bp formed on the surface portion of the p-type Si substrate 230 and the p-type well 232 of the surface portion of the p-type Si substrate 230 separated from the light receiving region 234. A vertical CCD register portion (n + type layer) 214Bt, which is formed on the surface portion and serves as a CCD group 214Bf, is provided.

同様に、同一波長成分画像用ラインセンサ214Rは、例えばB画像用ラインセンサ214Bの一端側に物理的離隔距離BDを有して隣接配置されており、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたフォトダイオードPD群214RpとなるフォトダイオードPDの受光領域(n型層)234と、受光領域234から離間して、p型Si基板230の表面部またはp型ウェル232の表面部に形成されたCCD群214Rfとなる垂直CCDのレジスタ部(n型層)214Rtと、を備える。 Similarly, the same wavelength component image line sensor 214R 2 is arranged adjacent to, for example, one end side of the B image line sensor 214B with a physical separation distance BD, and is arranged on the surface of the p-type Si substrate 230 or p. a photodiode light receiving region (n-type layer) of the PD 234 as a photodiode PD group 214R 2 p formed on the surface of the mold well 232, spaced apart from the light-receiving region 234, the surface portion of the p-type Si substrate 230 or A vertical CCD register portion (n + type layer) 214R 2 t, which is a CCD group 214R 2 f formed on the surface portion of the p-type well 232, is provided.

また、各画像用ラインセンサ214R、214G、214B、214Rは、受光領域234を除く、p型Si基板230上またはp型ウェル232上に、絶縁膜236を介して設けられたポリSi電極G238と、ポリSi電極238上に絶縁膜236を介して設けられ、受光領域234の一部に開口を有する遮光膜240と、全面に設けられた透明な樹脂層242と、をそれぞれ備える。 Further, each of the image line sensors 214R 1 , 214G, 214B, and 214R 2 is provided on a p-type Si substrate 230 or a p-type well 232, excluding the light receiving region 234, via an insulating film 236. It includes a G238, a light-shielding film 240 provided on the poly-Si electrode 238 via an insulating film 236 and having an opening in a part of the light receiving region 234, and a transparent resin layer 242 provided on the entire surface.

そして、R画像用ラインセンサ214Rは、受光領域234に対応する、樹脂層242の上面部にオンチップで設けられ、例えば、波長620〜750nmの帯域の光を透過するR画像用カラーフィルタ244Rと、R画像用カラーフィルタ244Rに対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、をさらに備える。 The R 1 image line sensor 214R 1 is provided on-chip on the upper surface of the resin layer 242 corresponding to the light receiving region 234, and for example, an R 1 image color that transmits light in a wavelength band of 620 to 750 nm. further comprising a filter 244R 1, a microlens 246 is provided on-chip on the resin layer 242 corresponding to R 1 image for the color filter 244R 1, a.

また、G画像用ラインセンサ214Gは、受光領域234に対応する、樹脂層242の上面部にオンチップで設けられ、例えば、波長495〜590nmの帯域の光を透過するG画像用カラーフィルタ244Gと、G画像用カラーフィルタ244Gに対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、をさらに備える。 Further, the G image line sensor 214G is provided on-chip on the upper surface of the resin layer 242 corresponding to the light receiving region 234, and is, for example, a G image color filter 244G that transmits light in a wavelength band of 495 to 590 nm. Further, a microlens 246 provided on-chip on the resin layer 242 corresponding to the G image color filter 244G is further provided.

また、B画像用ラインセンサ214Bは、受光領域234に対応する、樹脂層242の上面部にオンチップで設けられ、例えば、波長450〜495nmの帯域の光を透過するB画像用カラーフィルタ244Bと、B画像用カラーフィルタ244Bに対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、をさらに備える。 Further, the B image line sensor 214B is provided on-chip on the upper surface of the resin layer 242 corresponding to the light receiving region 234, and is, for example, a B image color filter 244B that transmits light in a wavelength band of 450 to 495 nm. , A microlens 246 provided on-chip on the resin layer 242 corresponding to the B image color filter 244B is further provided.

また、同一波長成分画像用ラインセンサ214Rは、受光領域234に対応する、樹脂層242の上面部にオンチップで設けられ、上述のR画像用カラーフィルタ244Rと同一の、例えば、波長620〜750nmの帯域の光を透過するR画像用カラーフィルタ244Rと、R画像用カラーフィルタ244Rに対応する樹脂層242上にオンチップで設けられたマイクロレンズ246と、をさらに備える。 Further, the same wavelength component image line sensor 214R 2 is provided on-chip on the upper surface of the resin layer 242 corresponding to the light receiving region 234, and has the same wavelength as the above-mentioned R 1 image color filter 244R 1. further comprising an R 2 image for a color filter 244R 2 that transmits light of a band of 620~750Nm, the microlens 246 provided on-chip on the resin layer 242 corresponding to the color filters 244R 2 for R 2 image, the ..

上記した構成のマルチスペクトルセンサ装置214IIの場合も、各波長の帯域は一例であり、画像用ラインセンサ214R、214G、214B、214R毎に半値幅などが異なるものであっても良い。 Also in the case of the multispectral sensor device 214II having the above configuration, the band of each wavelength is an example, and the half width and the like may be different for each of the image line sensors 214R 1 , 214G, 214B, and 214R 2.

図28は、本実施の形態2に係るマルチスペクトルセンサ装置214IIにおける各画像用ラインセンサ214R、214G、214B、214Rの配置例(ライン配列)を模式的に示すものである。 FIG. 28 schematically shows an arrangement example (line arrangement) of the line sensors 214R 1 , 214G, 214B, and 214R 2 for images in the multispectral sensor device 214II according to the second embodiment.

本実施の形態2においては、図28に示すように、RGBカラー合成画像を生成するためのR画像用ラインセンサ214RとG画像用ラインセンサ214GとB画像用ラインセンサ214Bの、例えば、B画像用ラインセンサ214Bに隣接するようにして、同一波長成分画像用ラインセンサ214Rが並列に配置されたマルチスペクトルセンサ装置214IIを採用している。すなわち、このマルチスペクトルセンサ装置214IIの場合も、R画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとが、パンクロマチック画像を合成するためのモノクロ画像用ラインセンサとなっている。 In the second embodiment, as shown in FIG. 28, for example, the R 1 image line sensor 214R 1 for generating an RGB color composite image, the G image line sensor 214G, and the B image line sensor 214B, for example. A multi-spectral sensor device 214II in which the same wavelength component image line sensor 214R 2 is arranged in parallel so as to be adjacent to the B image line sensor 214B is adopted. That is, also in the case of this multispectral sensor device 214II, the R 1 image line sensor 214R 1 and the same wavelength component image line sensor 214R 2 are monochrome image line sensors for synthesizing panchromatic images. ..

ここで、本実施の形態2に係るマルチスペクトルセンサ装置214IIにおいては、R画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとの間に、少なくともG画像用ラインセンサ214GまたはB画像用ラインセンサ214Bのいずれか一方を配置するようにしている。R画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとを隣接させないことで、解像度が変化する(例えば、2倍になる)のを防止できる。 Here, in the multispectral sensor device 214II according to the second embodiment, at least the G image line sensor 214G or B is between the R 1 image line sensor 214R 1 and the same wavelength component image line sensor 214R 2. One of the image line sensors 214B is arranged. By not adjoining the R 1 image line sensor 214R 1 and the same wavelength component image line sensor 214R 2, it is possible to prevent the resolution from changing (for example, doubling).

なお、R画像用ラインセンサ214Rと同一波長成分画像用ラインセンサ214Rとを隣接配置しないことを除けば、SD方向とほぼ直交するライン方向に対して、各画像用ラインセンサ214R、214G、214B、214Rは自由に配置できる。 Except that the R 1 image line sensor 214R 1 and the same wavelength component image line sensor 214R 2 are not arranged adjacent to each other, each image line sensor 214R 1 is provided with respect to a line direction substantially orthogonal to the SD direction. The 214G, 214B, and 214R 2 can be arranged freely.

また、特定エリアEWiを指定するための情報としては、平面直角座標、緯度、経度、撮影対象の地域名や住所、撮影日、撮影時刻(撮影開始時刻及び終了時刻)、または、全カラー合成画像AEGi上の座標(例えば、XaYa〜XfYf)などがあげられる。 The information for designating the specific area EWi includes plane rectangular coordinates, latitude, longitude, area name and address of the shooting target, shooting date, shooting time (shooting start time and end time), or all-color composite image. Coordinates on AEGi (for example, XaYa to XfYf) and the like can be mentioned.

さらには、図29に示すように、例えば東京都(JMa)、港区(MM)、台場付近(DM)といったエリア名によって、特定エリアEWiを指定できるようにしても良い。 Further, as shown in FIG. 29, a specific area EWi may be designated by an area name such as Tokyo (JMa), Minato Ward (MM), or Daiba area (DM).

次に、マルチスペクトルセンサ装置214IIによるライン走査のタイミングについて図30、図31、図32を用いて説明を補充する。 Next, the description of the timing of line scanning by the multispectral sensor device 214II will be supplemented with reference to FIGS. 30, 31, and 32.

図30(a)〜図30(p)は、移動体を停止中の車両Tsとした場合を例に示すもので、ここでは、図30(a)に示すように、マルチスペクトルセンサ装置214IIは、図示(A)、(B)、(C)、(D)の順に、SD方向に一定の速度で移動しながらライン走査するものとする。 30 (a) to 30 (p) show an example in which the moving body is a stopped vehicle Ts. Here, as shown in FIG. 30 (a), the multispectral sensor device 214II is , (A), (B), (C), (D) in the figure, line scanning while moving at a constant speed in the SD direction.

また、停止中の車両Tsの場合、R画像用ラインセンサ214Rによる露光の終了からG画像用ラインセンサ214Gによる露光の開始までの間、G画像用ラインセンサ214Gによる露光の終了からB画像用ラインセンサ214Bによる露光の開始までの間、B画像用ラインセンサ214Bによる露光の終了から同一波長成分画像用ラインセンサ214Rによる露光の開始までの間には、それぞれ、時間t1、時間t2、時間t3が存在するものとする(t1=t2=t3)。 In the case of the stopped vehicle Ts, from the end of the exposure by the R 1 image line sensor 214R 1 to the start of the exposure by the G image line sensor 214G, from the end of the exposure by the G image line sensor 214G to the B image. From the end of the exposure by the B image line sensor 214B to the start of the exposure by the same wavelength component image line sensor 214R 2 , the time t1 and the time t2, respectively, until the start of the exposure by the line sensor 214B for the same wavelength component. It is assumed that the time t3 exists (t1 = t2 = t3).

停止中の車両Tsは、図30(b)に示すように、例えば移動体検出装置16からの撮影命令にしたがって、まずは図示(A)のタイミングにおいて、図30(c)に示すように、R画像用ラインセンサ214RのフォトダイオードPD群214Rpによって露光される。そして、そのフォトダイオードPD群214Rpの信号電荷は、露光の終了に伴って、図30(d),(e)に示すように、波形成型出力に応じた時間L1で、R画像用ラインセンサ214RのCCD群214Rfへと転送される。 As shown in FIG. 30 (b), the stopped vehicle Ts first follows a shooting command from, for example, the moving body detection device 16, at the timing shown in FIG. It is exposed by first photodiode image line sensor 214R 1 PD group 214R 1 p. Then, as shown in FIGS. 30 (d) and 30 (e), the signal charge of the photodiode PD group 214R 1 p is used for the R 1 image at a time L1 corresponding to the waveform molding output as the exposure ends. It is transferred to the CCD group 214R 1 f of the line sensor 214R 1.

次いで、停止中の車両Tsは、図示(B)のタイミングにおいて、図30(f)に示すように、G画像用ラインセンサ214GのフォトダイオードPD群214Gpによって露光される。そして、そのフォトダイオードPD群214Gpの信号電荷は、露光の終了に伴って、図30(g),(h)に示すように、G画像用ラインセンサ214GのCCD群214Gfへと転送される。 Next, the stopped vehicle Ts is exposed at the timing shown in FIG. 30B by the photodiode PD group 214Gp of the G image line sensor 214G, as shown in FIG. 30F. Then, the signal charge of the photodiode PD group 214Gp is transferred to the CCD group 214Gf of the G image line sensor 214G as shown in FIGS. 30 (g) and 30 (h) at the end of the exposure.

次いで、停止中の車両Tsは、図示(C)のタイミングにおいて、図30(i)に示すように、B画像用ラインセンサ214BのフォトダイオードPD群214Bpによって露光される。そして、そのフォトダイオードPD群214Bpの信号電荷は、露光の終了に伴って、図30(j),(k)に示すように、B画像用ラインセンサ214BのCCD群214Bfへと転送される。 Next, the stopped vehicle Ts is exposed by the photodiode PD group 214Bp of the B image line sensor 214B at the timing shown in FIG. 30 (i), as shown in FIG. 30 (i). Then, the signal charge of the photodiode PD group 214Bp is transferred to the CCD group 214Bf of the B image line sensor 214B as shown in FIGS. 30 (j) and 30 (k) at the end of the exposure.

次いで、停止中の車両Tsは、図示(D)のタイミングにおいて、図30(m)に示すように、同一波長成分画像用ラインセンサ214RのフォトダイオードPD群214Rpによって露光される。そして、そのフォトダイオードPD群214Rpの信号電荷は、露光の終了に伴って、図30(n),(p)に示すように、同一波長成分画像用ラインセンサ214RのCCD群214Rfへと転送される。 Then, the vehicle Ts suspended at the timing shown (D), as shown in FIG. 30 (m), are exposed by the photodiode PD group 214R 2 p of the same wavelength component image line sensor 214R 2. Then, the signal charges of the photodiode PD group 214R 2 p, along with the end of the exposure, Fig. 30 (n), as shown in (p), CCD group having the same wavelength component image line sensor 214R 2 214R 2 Transferred to f.

図31(a)〜図31(p)は、移動体を低速走行中の車両Tmaとした場合を例に示すもので、ここでは、図31(a)に示すように、マルチスペクトルセンサ装置214IIは、図示(A)、(B)、(C)、(D)の順に、SD方向に一定の速度で移動しながらライン走査するものとする。 31 (a) to 31 (p) show an example in which the moving body is a vehicle Tma traveling at a low speed. Here, as shown in FIG. 31 (a), the multispectral sensor device 214II Is line-scanned while moving at a constant speed in the SD direction in the order of (A), (B), (C), and (D) shown in the figure.

また、低速走行中の車両Tmaの場合、車両Tmaが所定の速度により図示矢印MD方向に移動しているものとすると、R画像用ラインセンサ214Rによる露光の終了からG画像用ラインセンサ214Gによる露光の開始までの間、G画像用ラインセンサ214Gによる露光の終了からB画像用ラインセンサ214Bによる露光の開始までの間、B画像用ラインセンサ214Bによる露光の終了から同一波長成分画像用ラインセンサ214Rによる露光の開始までの間には、それぞれ速度に応じて、時間t1’(t1’<t1)、時間t2’(t2’<t2)、時間t3’(t3’<t3)が存在するものとする(t1’=t2’=t3’)。 Further, when the vehicle Tma during low-speed running, the vehicle when Tma is assumed to have moved to the arrow MD direction by a predetermined speed, the line sensor G image from the end of exposure by R 1 image line sensor 214R 1 214G From the end of the exposure by the G image line sensor 214G to the start of the exposure by the B image line sensor 214B, from the end of the exposure by the B image line sensor 214B to the same wavelength component image line. Before the start of exposure by the sensor 214R 2, there are time t1'(t1'<t1), time t2'(t2'<t2), and time t3'(t3'<t3), respectively, depending on the speed. (T1'= t2'= t3').

低速走行中の車両Tmaは、図31(b)に示すように、例えば移動体検出装置16からの撮影命令にしたがって、まずは図示(A)のタイミングにおいて、図31(c)に示すように、R画像用ラインセンサ214RのフォトダイオードPD群214Rpによって露光される。そして、そのフォトダイオードPD群214Rpの信号電荷は、露光の終了に伴って、図31(d),(e)に示すように、波形成型出力に応じた時間L1’で、R画像用ラインセンサ214RのCCD群214Rfへと転送される。 As shown in FIG. 31 (b), the vehicle Tma traveling at a low speed first follows a shooting command from, for example, the moving object detection device 16, at the timing of FIG. 31 (A), as shown in FIG. 31 (c). It is exposed by the photodiode PD group 214R 1 p of R 1 image line sensor 214R 1. Then, as shown in FIGS. 31 (d) and 31 (e), the signal charge of the photodiode PD group 214R 1 p becomes the R 1 image at a time L1'corresponding to the waveform molding output as the exposure ends. The line sensor 214R 1 is transferred to the CCD group 214R 1 f.

次いで、低速走行中の車両Tmaは、図示(B)のタイミングにおいて、図31(f)に示すように、G画像用ラインセンサ214GのフォトダイオードPD群214Gpによって露光される。そして、そのフォトダイオードPD群214Gpの信号電荷は、露光の終了に伴って、図31(g),(h)に示すように、G画像用ラインセンサ214GのCCD群214Gfへと転送される。 Next, the vehicle Tma traveling at a low speed is exposed at the timing shown in FIG. 31 (B) by the photodiode PD group 214 Gp of the G image line sensor 214 G, as shown in FIG. 31 (f). Then, the signal charge of the photodiode PD group 214Gp is transferred to the CCD group 214Gf of the G image line sensor 214G as shown in FIGS. 31 (g) and 31 (h) at the end of the exposure.

次いで、低速走行中の車両Tmaは、図示(C)のタイミングにおいて、図31(i)に示すように、B画像用ラインセンサ214BのフォトダイオードPD群214Bpによって露光される。そして、そのフォトダイオードPD群214Bpの信号電荷は、露光の終了に伴って、図31(j),(k)に示すように、B画像用ラインセンサ214BのCCD群214Bfへと転送される。 Next, the vehicle Tma traveling at a low speed is exposed by the photodiode PD group 214Bp of the B image line sensor 214B at the timing shown in FIG. 31 (i), as shown in FIG. 31 (i). Then, the signal charge of the photodiode PD group 214Bp is transferred to the CCD group 214Bf of the B image line sensor 214B as shown in FIGS. 31 (j) and 31 (k) at the end of the exposure.

次いで、低速走行中の車両Tmaは、図示(D)のタイミングにおいて、図31(m)に示すように、同一波長成分画像用ラインセンサ214RのフォトダイオードPD群214Rpによって露光される。そして、そのフォトダイオードPD群214Rpの信号電荷は、露光の終了に伴って、図31(n),(p)に示すように、同一波長成分画像用ラインセンサ214RのCCD群214Rfへと転送される。 Then, the vehicle Tma in low speed at the timing shown (D), as shown in FIG. 31 (m), are exposed by the photodiode PD group 214R 2 p of the same wavelength component image line sensor 214R 2. Then, the signal charges in the photodiode PD group 214R 2 p, along with the end of the exposure, Fig. 31 (n), as shown in (p), CCD group having the same wavelength component image line sensor 214R 2 214R 2 Transferred to f.

図32(a)〜図32(p)は、移動体を高速走行中の車両Tmbとした場合を例に示すもので、ここでは、図32(a)に示すように、マルチスペクトルセンサ装置214IIは、図示(A)、(B)、(C)、(D)の順に、SD方向に一定の速度で移動しながらライン走査するものとする。 32 (a) to 32 (p) show an example in which the moving body is a vehicle Tmb traveling at high speed. Here, as shown in FIG. 32 (a), the multispectral sensor device 214II Is line-scanned while moving at a constant speed in the SD direction in the order of (A), (B), (C), and (D) shown in the figure.

また、高速走行中の車両Tmbの場合、車両Tmbが所定の速度以上の速度により図示矢印MD方向に移動しているものとすると、R画像用ラインセンサ214Rによる露光の終了からG画像用ラインセンサ214Gによる露光の開始までの間、G画像用ラインセンサ214Gによる露光の終了からB画像用ラインセンサ214Bによる露光の開始までの間、B画像用ラインセンサ214Bによる露光の終了から同一波長成分画像用ラインセンサ214Rによる露光の開始までの間には、それぞれ速度に応じて、時間t1’’(t1’’<t1’)、時間t2’’(t2’’<t2’)、時間t3’’(t3’’<t3’)が存在するものとする(t1’’=t2’’=t3’’)。 Further, when the vehicle Tmb during high-speed driving, assuming that the vehicle Tmb is moving in the arrow MD direction the speed equal to or greater than a predetermined speed, the G image from the end of exposure by R 1 image line sensor 214R 1 From the end of exposure by the line sensor 214G for G image to the start of exposure by the line sensor 214B for B image, from the end of exposure by the line sensor 214B for B image to the start of exposure by the line sensor 214G, the same wavelength component Until the start of exposure by the image line sensor 214R 2 , the time t1 ″ (t1 ″ <t1 ′), the time t2 ″ (t2 ″ <t2 ′), and the time t3, respectively, depending on the speed. ''(T3''<t3') is assumed to exist (t1'' = t2'' = t3'').

高速走行中の車両Tmbは、図32(b)に示すように、例えば移動体検出装置16からの撮影命令にしたがって、まずは図示(A)のタイミングにおいて、図32(c)に示すように、R画像用ラインセンサ214RのフォトダイオードPD群214Rpによって露光される。そして、そのフォトダイオードPD群214Rpの信号電荷は、露光の終了に伴って、図32(d),(e)に示すように、波形成型出力に応じた時間L1’’で、R画像用ラインセンサ214RのCCD群214Rfへと転送される。 As shown in FIG. 32 (b), the vehicle Tmb traveling at high speed first follows a shooting command from, for example, the moving object detection device 16 at the timing of FIG. 32 (A), as shown in FIG. 32 (c). It is exposed by the photodiode PD group 214R 1 p of R 1 image line sensor 214R 1. Then, the signal charges in the photodiode PD group 214R 1 p, along with the end of the exposure, Fig. 32 (d), in (e), the time corresponding to the waveform shaping the output L1 '', R 1 It is transferred to the CCD group 214R 1 f of the image line sensor 214R 1.

次いで、高速走行中の車両Tmbは、図示(B)のタイミングにおいて、図32(f)に示すように、G画像用ラインセンサ214GのフォトダイオードPD群214Gpによって露光される。そして、そのフォトダイオードPD群214Gpの信号電荷は、露光の終了に伴って、図32(g),(h)に示すように、G画像用ラインセンサ214GのCCD群214Gfへと転送される。 Next, the vehicle Tmb traveling at high speed is exposed at the timing shown in FIG. 32B by the photodiode PD group 214Gp of the G image line sensor 214G, as shown in FIG. 32F. Then, the signal charge of the photodiode PD group 214Gp is transferred to the CCD group 214Gf of the G image line sensor 214G as shown in FIGS. 32 (g) and 32 (h) at the end of the exposure.

次いで、高速走行中の車両Tmbは、図示(C)のタイミングにおいて、図32(i)に示すように、B画像用ラインセンサ214BのフォトダイオードPD群214Bpによって露光される。そして、そのフォトダイオードPD群214Bpの信号電荷は、露光の終了に伴って、図32(j),(k)に示すように、B画像用ラインセンサ214BのCCD群214Bfへと転送される。 Next, the vehicle Tmb traveling at high speed is exposed by the photodiode PD group 214Bp of the B image line sensor 214B at the timing shown in FIG. 32 (i), as shown in FIG. 32 (i). Then, the signal charge of the photodiode PD group 214Bp is transferred to the CCD group 214Bf of the B image line sensor 214B as shown in FIGS. 32 (j) and 32 (k) at the end of the exposure.

次いで、高速走行中の車両Tmbは、図示(D)のタイミングにおいて、図32(m)に示すように、同一波長成分画像用ラインセンサ214RのフォトダイオードPD群214Rpによって露光される。そして、そのフォトダイオードPD群214Rpの信号電荷は、露光の終了に伴って、図32(n),(p)に示すように、同一波長成分画像用ラインセンサ214RのCCD群214Rfへと転送される。 Then, the vehicle Tmb in high speed at the timing shown (D), as shown in FIG. 32 (m), are exposed by the photodiode PD group 214R 2 p of the same wavelength component image line sensor 214R 2. Then, the signal charges in the photodiode PD group 214R 2 p, along with the end of the exposure, Fig. 32 (n), as shown in (p), CCD group having the same wavelength component image line sensor 214R 2 214R 2 Transferred to f.

マルチスペクトルセンサ装置214IIは、各画像用ラインセンサ214R、214G、214B、214Rの物理的長さ(センサ長SL)や露光時間が固定されているものの、走行中の車両Tma、Tmbの速度に応じて、各画像用ラインセンサ214R、214G、214B、214Rにおける露光のタイミングが変化する。 The multispectral sensor device 214II has fixed physical lengths (sensor length SL) and exposure time of the line sensors 214R 1 , 214G, 214B, and 214R 2 for each image, but the speeds of the moving vehicles Tma and Tmb. The timing of exposure in each of the image line sensors 214R 1 , 214G, 214B, and 214R 2 changes accordingly.

すなわち、一定速度以上のスピードで走行中の車両Tmbの場合は、例えば図33(a)に示すように、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせたとしても、車両Tmbの画素間の移動が、その移動速度に応じて十数ピクセルにおよぶため、カラー表示のR、G、Bに大きな色ずれが発生する。 That is, in the case of a vehicle Tmb traveling at a speed equal to or higher than a certain speed, for example, as shown in FIG. 33A, the color images of the bands obtained by aligning them so as to geometrically overlap are displayed in the same size. even superimposed movement between the pixels of the vehicle Tmb is, therefore spanning ten pixels in accordance with the moving speed, R 1 of a color display, G, large color shift occurs in B.

一方、一定速度以下のスピードで走行中の車両Tmaの場合は、例えば図33(b)に示すように、幾何学的に重なり合うように位置合わせして得た各バンドのカラー画像を同一サイズで重ね合わせたとしても、車両Tmaの画素間の移動が、その移動速度に応じて数ピクセルにおよぶため、カラー表示にR、G、Bの小さな色ずれが発生する。 On the other hand, in the case of a vehicle Tma traveling at a speed of a certain speed or less, for example, as shown in FIG. 33 (b), the color images of the bands obtained by aligning them so as to geometrically overlap are displayed in the same size. even superimposed movement between the pixels of the vehicle Tma is, for up to several pixels in accordance with the moving speed, the color display R 1, G, a small color shift B occurs.

ここで、移動体の移動方向とそのカラー表示(色ずれ)との関係について説明する。 Here, the relationship between the moving direction of the moving body and its color display (color shift) will be described.

図34(a)は、走行中の車両Tmの移動方向(MD)と地球観測衛星12の移動方向(SD)との関係を例示するもので、例えば図31及び図32に相当したものである。 FIG. 34 (a) illustrates the relationship between the moving direction (MD) of the moving vehicle Tm and the moving direction (SD) of the earth observation satellite 12, and corresponds to, for example, FIGS. 31 and 32. ..

また、図34(b)は、地表面上における車両Tmの移動方向を東側方向とし、図34(c)は、地表面上における車両Tmの移動方向を西側方向とし、図34(d)は、地表面上における車両Tmの移動方向を北側方向とし、図34(e)は、地表面上における車両Tmの移動方向を南側方向とした場合の例である。 Further, FIG. 34 (b) shows the moving direction of the vehicle Tm on the ground surface as the east side, FIG. 34 (c) shows the moving direction of the vehicle Tm on the ground surface as the west side, and FIG. 34 (d) shows. , The moving direction of the vehicle Tm on the ground surface is the north side, and FIG. 34 (e) is an example in which the moving direction of the vehicle Tm on the ground surface is the south side.

走行中の車両Tmは、図34(b)〜図34(e)に示すように、その移動の方向にかかわらず、常に、移動方向に対するカラー表示がB、G、Rの順番となる(カラー表示にRは特に関係しないので、図示省略)。 As shown in FIGS. 34 (b) to 34 (e), the moving vehicle Tm always has the color display for the moving direction in the order of B, G, R 1 regardless of the moving direction (the color display for the moving direction is always B, G, R 1). Since R 2 is not particularly related to the color display, it is not shown).

すなわち、走行中の車両Tmの場合、地球観測衛星12の移動方向(SD)に対する、各画像用ラインセンサ214R、214G、214Bの配列の順番に依存して、B、G、R順の色ずれを生じる。したがって、その単一シーンの移動体検出画像CP上において、この色ずれを検出することにより、走行中の車両Tmは勿論のこと、車両Tmの移動の方向(MD)をも特定可能である。 That is, in the case of a moving vehicle Tm, the order of B, G, R 1 depends on the order of arrangement of the line sensors 214R 1 , 214G, and 214B for each image with respect to the moving direction (SD) of the earth observation satellite 12. Color shift occurs. Therefore, by detecting this color shift on the moving object detection image CP of the single scene, it is possible to specify not only the moving vehicle Tm but also the moving direction (MD) of the vehicle Tm.

また、色ずれは、走行中の車両Tmの速度にほぼ比例するため、そのずれ量から、走行中の車両Tmの速度も容易に推定(算出)可能である。 Further, since the color shift is substantially proportional to the speed of the running vehicle Tm, the speed of the running vehicle Tm can be easily estimated (calculated) from the amount of the shift.

次に、上記した構成の移動体検出装置16において取得可能な移動体検出画像CPについて説明する。 Next, the mobile body detection image CP that can be acquired by the mobile body detection device 16 having the above configuration will be described.

図35(a)〜図35(c)は、高速道路のIC付近を実際に撮影して移動体検出装置16によって移動体の変化量をカラー表示した場合を例示したものである。これにより、例えば図35(a)に示すようなマルチスペクトル画像(特定エリアEWiのカラー合成画像GWi)と、また、例えば図35(b)に示すようなパンクロマチック画像(特定エリアEWiの白黒合成画像GEAi)とを、幾何学的に重なり合うように位置合わせして、色強調前のパンシャープン画像CP1となる、図35(c)に示すような移動体検出画像(色強調前)が得られる。 FIGS. 35 (a) to 35 (c) exemplify a case where the vicinity of the IC on the expressway is actually photographed and the amount of change of the moving body is displayed in color by the moving body detecting device 16. As a result, for example, a multispectral image (color composite image GWi of the specific area EWi) as shown in FIG. 35 (a) and a panchromatic image (black and white composite of the specific area EWi) as shown in FIG. 35 (b). By aligning the image GEAi) so as to geometrically overlap, a moving body detection image (before color enhancement) as shown in FIG. 35 (c), which is a pan sharpened image CP1 before color enhancement, is obtained. Be done.

また、図36(a)〜図36(c)は、高速道路のICと一般道とをつなぐ接続道路付近を実際に撮影した場合を例示したものである。なお、図36(a)は、接続道路付近のマルチスペクトル画像(特定エリアEWiのカラー合成画像GWi)であり、図36(b)は、接続道路付近のパンクロマチック画像(特定エリアEWiの白黒合成画像GEAi)であり、図36(c)は、接続道路付近の移動体検出画像(色強調前)としての色強調前のパンシャープン画像CP1である。 Further, FIGS. 36 (a) to 36 (c) exemplify a case where the vicinity of the connecting road connecting the IC of the expressway and the general road is actually photographed. Note that FIG. 36 (a) is a multispectral image (color composite image GWi of the specific area EWi) near the connecting road, and FIG. 36 (b) is a panchromatic image (black and white composite of the specific area EWi) near the connecting road. Image GEAi), FIG. 36 (c) is a pan-sharpened image CP1 before color enhancement as a moving object detection image (before color enhancement) near the connecting road.

図37は、図36(c)に示した接続道路付近の色強調前のパンシャープン画像CP1を拡大して示すものある。 FIG. 37 is an enlarged view of the pan-sharpened image CP1 before color enhancement near the connecting road shown in FIG. 36 (c).

この色強調前のパンシャープン画像CP1からも明らかなように、接続道路DO上を走行中の複数の車両Tmoは、いずれもIC方向より交差点方向に近づくにつれて、赤信号により停止すべく徐々に減速し、それに伴って色ずれの大きいカラー表示から色ずれの小さいモノクロ表示へと変化する。 As is clear from the pan-sharpened image CP1 before color enhancement, the plurality of vehicles Tmo traveling on the connecting road DO gradually stop at the red light as they approach the intersection direction from the IC direction. As the speed is reduced, the color display changes from a color display with a large color shift to a monochrome display with a small color shift.

逆に、IC方向に向かう車両Tmiは徐々に加速し、速度が増加するにつれて、色ずれの大きいカラー表示へと変化する。 On the contrary, the vehicle Tmi heading toward the IC gradually accelerates, and as the speed increases, the color display changes to a color display having a large color shift.

なお、このパンシャープン画像CP1は色強調前であって、走行中の車両Tmo、Tmiに対して、上述の色強調処理を施すことにより、走行中の車両Tmo、Tmiの表示がより鮮明となる。 It should be noted that this pan-sharpened image CP1 is before color enhancement, and by performing the above-mentioned color enhancement processing on the traveling vehicles Tmo and Tmi, the display of the traveling vehicles Tmo and Tmi becomes clearer. Become.

すなわち、例えば、当該色強調前のパンシャープン画像CP1の各画素が走行中の車両Tmのものか否かが、そのピクセル値に基づいて判定される。例えば、各画素の色種別の階調度を示すピクセル値のいずれかが「0」でない場合、その画素は走行中の車両Tmのものと判定され、逆に、各画素の色種別の階調度を示すピクセル値の全てが「0」の場合、その画素は静止物体のものと判定される。 That is, for example, whether or not each pixel of the pan-sharpened image CP1 before color enhancement belongs to the moving vehicle Tm is determined based on the pixel value. For example, if any of the pixel values indicating the gradation degree of each pixel color type is not "0", that pixel is determined to belong to the moving vehicle Tm, and conversely, the gradation degree of each pixel color type is determined. When all of the indicated pixel values are "0", the pixel is determined to be that of a stationary object.

そして、走行中の車両Tmのものと判定された各画素の色種別の階調度を示すピクセル値が、最大値(例えば、240〜255)に変更される。 Then, the pixel value indicating the gradation degree of each color type of each pixel determined to be that of the moving vehicle Tm is changed to the maximum value (for example, 240 to 255).

こうして、色種別の階調度を示すピクセル値の全てが「0」でない画素の階調度がそれぞれ最大値に変更された色強調後のパンシャープン画像CP2が、移動体検出画像CPとして表示されることとなる(図示省略)。 In this way, the pan-sharpened image CP2 after color enhancement in which the gradations of the pixels in which all the pixel values indicating the gradations of the color types are not "0" are changed to the maximum values are displayed as the moving object detection image CP. (Not shown).

上記したように、本実施の形態2によっても、より効率的に移動体を検出できるとともに、検出された移動体の速度や方向を正確かつ自動的に把握できるようになる。 As described above, according to the second embodiment as well, the moving body can be detected more efficiently, and the speed and direction of the detected moving body can be accurately and automatically grasped.

走行中の車両Tmを自動的に検出できるようにすることで、例えば、その速度から、道路上の直線エリア、カーブエリア、山岳エリアの特定や勾配なども把握可能となる。 By making it possible to automatically detect the moving vehicle Tm, for example, it is possible to identify a straight line area, a curved area, a mountain area, and the slope on the road from the speed.

特に、途上国などにおいて、走行中の車両Tmを自動的に検出することで、地図上にない道路の新設により道路マップを更新する場合などにも適用できる。 In particular, in developing countries, it can be applied to the case where the road map is updated by constructing a new road that is not on the map by automatically detecting the moving vehicle Tm.

なお、本実施の形態2に係るマルチスペクトルセンサ装置214IIは、図19に示した構成のマルチスペクトルセンサ装置214や、図20に示した構成のマルチスペクトルセンサ装置214などにも適用可能である。 The multispectral sensor device 214II according to the second embodiment can also be applied to the multispectral sensor device 214 1 having the configuration shown in FIG. 19, the multispectral sensor device 214 2 having the configuration shown in FIG. 20, and the like. be.

図38は、本実施の形態2に係るマルチスペクトルセンサ装置214IIにおいて、赤外(IR)または近赤外(NIR)用のラインセンサ214Wをさらに備えて、マルチスペクトルセンサ装置214dとして構成するようにした場合の第1変形例である。 FIG. 38 shows the multispectral sensor device 214II according to the second embodiment, further including a line sensor 214W for infrared (IR) or near infrared (NIR), and configured as the multispectral sensor device 214d. This is a first modification of the case where

図39は、同一波長成分画像用ラインセンサ214Rによらず、追加のラインセンサとして、G画像用ラインセンサ(同一波長成分画像用ラインセンサ)214Gを備えて、マルチスペクトルセンサ装置214eを構成するようにした場合の第2変形例である。すなわち、マルチスペクトルセンサ装置214eの場合は、G画像用ラインセンサ214GとG画像用ラインセンサ214Gとが、B画像用ラインセンサ214Bを間に挟んで配置されて、パンクロ画像を取得するためのモノクロ画像用ラインセンサとなっている。 Figure 39 does not depend on the same wavelength component image line sensor 214R 2, as an additional line sensor comprises a G 2 image line sensor (line sensor for the same wavelength component image) 214G 2, the multispectral sensor device 214e This is a second modification when the configuration is made. That is, in the case of the multispectral sensor device 214e, the G 1 image line sensor 214G 1 and the G 2 image line sensor 214G 2 are arranged with the B image line sensor 214B in between to acquire a panchromatic image. It is a line sensor for monochrome images.

図40は、同一波長成分画像用ラインセンサ214Rによらず、追加のラインセンサとして、B画像用ラインセンサ(同一波長成分画像用ラインセンサ)214Bを備えて、マルチスペクトルセンサ装置214fを構成するようにした場合の第3変形例である。すなわち、マルチスペクトルセンサ装置214fの場合は、B画像用ラインセンサ214BとB画像用ラインセンサ214Bとが、R画像用ラインセンサ214RとG画像用ラインセンサ214Gとを間に挟んで配置されて、パンクロ画像を取得するためのモノクロ画像用ラインセンサとなっている。 Figure 40 does not depend on the same wavelength component image line sensor 214R 2, as an additional line sensor comprises a B 2 image line sensor (line sensor for the same wavelength component image) 214B 2, the multispectral sensor device 214f This is a third modification when the configuration is made. That is, in the case of the multispectral sensor device 214f, the B 1 image line sensor 214B 1 and the B 2 image line sensor 214B 2 sandwich the R image line sensor 214R and the G image line sensor 214G in between. Arranged, it is a line sensor for monochrome images for acquiring panchromatic images.

図41は、同種のラインセンサを2ライン分以上追加するようにした場合の第4変形例であって、マルチスペクトルセンサ装置214gを構成した場合を例示している。すなわち、マルチスペクトルセンサ装置214gの場合は、R画像用ラインセンサ214RとR画像用ラインセンサ(第1の同一波長成分画像用ラインセンサ)214RとR画像用ラインセンサ(第2の同一波長成分画像用ラインセンサ)214Rとが、それぞれ、G画像用ラインセンサ214GまたはB画像用ラインセンサ214Bを間に挟んで配置されて、パンクロ画像を取得するためのモノクロ画像用ラインセンサとなっている。 FIG. 41 is a fourth modification in the case where two or more lines of the same type of line sensor are added, and illustrates a case where the multispectral sensor device 214 g is configured. That is, in the case of the multi-spectral sensor device 214g, the R 1 image line sensor 214R 1 and the R 2 image line sensor (first same wavelength component image line sensor) 214R 2 and R 3 image line sensor (second). The same wavelength component image line sensor) 214R 3 is arranged with the G image line sensor 214G or the B image line sensor 214B sandwiched between them, respectively, to obtain a monochrome image line sensor. It has become.

このように、マルチスペクトルセンサ装置214II、214d、214e、214f、214gは、「R」、「G」、「B」のいずれかと同じバンドのセンサが少なくとも1ライン分以上の間隔を有して新たに追加された構成としたことにより、移動体検出装置16での移動体検出画像CPの作成において、移動体(画像の読込みの間に動いたもの)の色ずれをより確実に区別して表現できるようになる。 As described above, in the multispectral sensor devices 214II, 214d, 214e, 214f, and 214g, the sensors in the same band as any of "R", "G", and "B" are newly added with an interval of at least one line. By adopting the configuration added to, in the creation of the moving body detection image CP by the moving body detecting device 16, the color shift of the moving body (the one that moved during the reading of the image) can be more reliably distinguished and expressed. Will be.

<実施の形態3>
次に、本実施の形態3に係るマルチスペクトルセンサ装置(マルチラインイメージセンサ装置)が適用される移動体検出システムの移動体検出装置16の具体的な構成を、図42を用いて説明する。
<Embodiment 3>
Next, a specific configuration of the mobile body detection device 16 of the mobile body detection system to which the multi-spectral sensor device (multi-line image sensor device) according to the third embodiment is applied will be described with reference to FIG. 42.

ここでは、マルチスペクトルセンサ装置(MSS)214、214IIを内蔵する人工衛星カメラ21を搭載した地球観測衛星12によって、例えば、日本列島JMの三陸沖の太平洋PO上をリアルタイムでセンシングする場合を例に説明する。 Here, an example will be described in which the earth observation satellite 12 equipped with the artificial satellite camera 21 incorporating the multispectral sensor devices (MSS) 214 and 214II senses in real time on the Pacific PO off Sanriku in the Japanese archipelago JM, for example. do.

また、三陸沖には雲がなく、衛星12による観測時の解像度を2.5m×300kmとした場合について説明する。 Further, a case where there are no clouds off Sanriku and the resolution at the time of observation by the satellite 12 is 2.5 m × 300 km will be described.

地上センタの移動体検出装置16は、例えば、実施の形態1のものであってもよいが、実施の形態3では別構成とした場合を例に説明する。 The mobile body detection device 16 of the ground center may be, for example, the one of the first embodiment, but the case where the mobile body detection device 16 of the ground center has a different configuration will be described as an example.

取得部161は、アンテナ施設(図示せず)で受信した送信信号SGiに含まれているライン毎撮影画像eGiを、各画像用メモリ163a〜163aに順次記憶する。 The acquisition unit 161 sequentially stores the captured image eGi for each line included in the transmission signal SGi received at the antenna facility (not shown) in the memory for each image 163a 1 to 163a 4.

このとき、ライン毎第1画像(R)は第1のR画像用メモリ163aに記憶しライン毎第2画像(G)は第1のG画像用メモリ163aに記憶し、ライン毎第3画像(B)は第1のB画像用メモリ163aに記憶している。 At this time, the first image (R 1 ) for each line is stored in the first R image memory 163a 1, the second image (G) for each line is stored in the first G image memory 163a 2, and each line. The third image (B) is stored in the first B image memory 163a 3.

一方、ライン毎同一波長成分画像Ri(R)は、第1の同一波長成分画像用メモリ163aに記憶しているとする。 On the other hand, it is assumed that the same wavelength component image Ri (R 2 ) for each line is stored in the first memory for the same wavelength component image 163a 4.

また、送信信号SGiに含まれているヘッダ情報EHiを、ライン毎撮影画像eGiに関連付けて、ヘッダ情報用データベース163bに記憶しているが、図42においては図示しない。 Further, the header information EHi included in the transmission signal SGi is stored in the header information database 163b in association with the line-by-line captured image eGi, but is not shown in FIG. 42.

また、このとき、取得部161に含まれているR用合成部370aが、第1のR画像用メモリ163aにライン毎第1画像(R)が記憶される毎に、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して第2のR画像用メモリ163a11に記憶しているとする。 At this time, the R 1 compositing unit 370a included in the acquisition unit 161 corrects the line delay each time the first image (R 1 ) for each line is stored in the first R image memory 163a 1. , Plane orthogonal coordinate conversion, orthophoto correction, etc., and then mosaic processing is performed and stored in the second R image memory 163a 11.

また、取得部161に含まれているG用合成部370bが、第1のG画像用メモリ163aにライン毎第2画像(G)が記憶される毎に、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して第2のG画像用メモリ163a22に記憶しているとする。 Further, every time the G synthesis unit 370b included in the acquisition unit 161 stores the second image (G) for each line in the first G image memory 163a 2 , line delay correction and plane orthogonal coordinate conversion are performed. Orthophoto correction or the like, and then mosaic processing is performed and the image is stored in the second G image memory 163a 22.

また、取得部161に含まれているB用合成部370cが、第1のB画像用メモリ163aにライン毎第3画像(B)が記憶される毎に、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して第2のB画像用メモリ163a33に記憶しているとする。 Further, every time the B synthesis unit 370c included in the acquisition unit 161 stores the third image (B) for each line in the first B image memory 163a 3 , line delay correction and plane rectangular coordinate conversion are performed. Orthophoto correction or the like, and then mosaic processing is performed and the image is stored in the second B image memory 163a 33.

さらに、取得部161に含まれている同一成分画像用合成部370dが、第1の同一波長成分画像用メモリ163aにライン毎同一波長成分画像Ri(R)が記憶される毎に、ラインディレイ補正、平面直角座標変換、またはオルソ補正などの処理を施した後、モザイク処理を施して第2の同一波長成分画像用メモリ163a44に記憶しているとする。つまり、取得部161は、R用合成部370aと、G用合成部370bと、B用合成部370cと、同一成分画像用合成部370dとを備えている。 Further, every time the same-wavelength component image synthesis unit 370d included in the acquisition unit 161 stores the same-wavelength component image Ri (R 2 ) for each line in the first same-wavelength component image memory 163a 4, the line is lined up. It is assumed that after performing processing such as delay correction, plane orthogonal coordinate conversion, orthophoto correction, mosaic processing is performed and the image is stored in the second memory for the same wavelength component image 163a 44. That is, the acquisition unit 161 includes a synthesis unit 370a for R 1 , a synthesis unit 370b for G, a synthesis unit 370c for B, and a synthesis unit 370d for the same component image.

すなわち、取得画像用データベース163aは、第1のR画像用メモリ163aと第1のG画像用メモリ163aと第1のB画像用メモリ163aと第1の同一波長成分画像用メモリ163aとからなる第1の取得画像用データベースと、第2のR画像用メモリ163a11と第2のG画像用メモリ163a22と第2のB画像用メモリ163a33と第2の同一波長成分画像用メモリ163a44とからなる第2の取得画像用データベースとで構成されている。 That is, the acquired image database 163a includes the first R image memory 163a 1 , the first G image memory 163a 2 , the first B image memory 163a 3, and the first same wavelength component image memory 163a 4 A first acquired image database, a second R image memory 163a 11 , a second G image memory 163a 22 , a second B image memory 163a 33, and a second same wavelength component image. It is composed of a second acquired image database including a memory 163a 44.

なお、取得画像用データベース163aには、例えば、ライン毎撮影画像eGiの所定のレベル以上の成分のみを取り込むようにしても良い。 The acquired image database 163a may include, for example, only the components of the captured image eGi for each line at a predetermined level or higher.

カラー画像用メモリ169aは、図42に示すように、R画像エリア用メモリ169aと、G画像エリア用メモリ169aと、B画像エリア用メモリ169aとで構成されている。また、パンクロ画像生成用メモリ169bは、同一成分画像エリア用メモリともいう。 As shown in FIG. 42, the color image memory 169a is composed of an R 1 image area memory 169a 1 , a G image area memory 169a 2, and a B image area memory 169a 3 . Further, the panchromatic image generation memory 169b is also referred to as a memory for the same component image area.

エリア抽出部165は、図42に示すように、R画像用エリア抽出部365aと、G画像用エリア抽出部365bと、B画像用エリア抽出部365cと、同一成分画像用エリア抽出部365dとを備えている。 As shown in FIG. 42, the area extraction unit 165 includes an R 1 image area extraction unit 365a, a G image area extraction unit 365b, a B image area extraction unit 365c, and an area extraction unit 365d for the same component image. It has.

(エリア抽出部165の説明)
画像用エリア抽出部365aは、オペレーション部(図示せず)によって入力された解像度(画面の1ドット当たり2.5mまたは10m、・・200mまたは1km、・・)fiを読込む。そして、この解像度fiの大きさのメッシュMiを、R画像エリア用メモリ169aに定義する。また、任意の特定エリア(座標XaYa〜XfYf)EWiの座標系に応じた大きさの領域を、第2のR画像用メモリ163a11に定義する。
(Explanation of area extraction unit 165)
R 1 image for the area extraction section 365a has operation portions entered by (not shown) Resolution (1 dot per 2.5m or 10m screen, · · 200 meters or 1km, · ·) reads the fi. Then, the mesh Mi having the size of this resolution fi is defined in the memory 169a 1 for the R 1 image area. Further, an area having a size corresponding to the coordinate system of an arbitrary specific area (coordinates XaYa to XfYf) EWi is defined in the second R image memory 163a 11.

そして、この特定エリアEWiのライン毎第1画像(R)が、オペレーション部によって指定された特定エリアEWiに対応する個数分に到達する毎に、その特定エリア毎第1画像E(R)にメッシュMiを順次定義する。そして、このメッシュMiに含まれている画素データを、R画像エリア用メモリ169aの該当のピクセルに格納する。 Then, every time the first image (R 1 ) for each line of the specific area EWi reaches the number corresponding to the specific area EWi specified by the operation unit, the first image E (R 1 ) for each specific area is reached. Mesh Mi is defined sequentially in. Then, the pixel data contained in the mesh Mi, is stored in the corresponding pixel of the R 1 image area memory 169a 1.

また、G画像用エリア抽出部365bは、オペレーション部によって入力された解像度fiを読込む。そして、この解像度fiの大きさのメッシュMiを、G画像エリア用メモリ169aに定義する。また、任意の特定エリアEWiの座標系に応じた大きさの領域を、第2のG画像用メモリ163a22に定義する。 Further, the G image area extraction unit 365b reads the resolution fi input by the operation unit. Then, the mesh Mi having the size of this resolution fi is defined in the G image area memory 169a 2. Further, an area having a size corresponding to the coordinate system of the arbitrary specific area EWi is defined in the second G image memory 163a 22.

そして、この特定エリアEWiのライン毎第2画像(G)がオペレーション部によって指定された特定エリアEWiに対応する個数分に到達する毎に、その特定エリア毎第2画像E(G)にメッシュMiを順次定義する。そして、このメッシュMiに含まれている画素データを、G画像エリア用メモリ169aの該当のピクセルに格納する。 Then, every time the second image (G) for each line of the specific area EWi reaches the number corresponding to the specific area EWi specified by the operation unit, the mesh Mi is displayed on the second image E (G) for each specific area. Are defined sequentially. Then, the pixel data included in the mesh Mi is stored in the corresponding pixel of the G image area memory 169a 2.

また、B画像用エリア抽出部365cは、オペレーション部によって入力された解像度fiを読込む。そして、この解像度fiの大きさのメッシュMiを、B画像エリア用メモリ169aに定義する。また、任意の特定エリアEWiの座標系に応じた大きさの領域を、第2のB画像エリア用メモリ163a33に定義する。 Further, the B image area extraction unit 365c reads the resolution fi input by the operation unit. Then, the mesh Mi having the size of this resolution fi is defined in the memory 169a 3 for the B image area. Further, an area having a size corresponding to the coordinate system of the arbitrary specific area EWi is defined in the second B image area memory 163a 33.

そして、この特定エリアEWiのライン毎第3画像(B)がオペレーション部によって指定された特定エリアEWiに対応する個数分に到達する毎に、その特定エリア毎第3画像E(B)にメッシュMiを順次定義する。そして、このメッシュMiに含まれている画素データを、B画像エリア用メモリ169aの該当のピクセルに格納する。 Then, every time the third image (B) for each line of the specific area EWi reaches the number corresponding to the specific area EWi specified by the operation unit, the mesh Mi is displayed on the third image E (B) for each specific area. Are defined sequentially. Then, the pixel data included in the mesh Mi is stored in the corresponding pixel of the B image area memory 169a 3.

さらに、同一成分画像用エリア抽出部365dは、オペレーション部によって入力された解像度fiを読込む。そして、この解像度fiの大きさのメッシュMiを、パンクロ画像生成用メモリ169bに定義する。また、任意の特定エリアEWiの座標系に応じた大きさの領域を、第2の同一波長成分画像用メモリ163a44に定義する。 Further, the area extraction unit 365d for the same component image reads the resolution fi input by the operation unit. Then, the mesh Mi having the size of this resolution fi is defined in the panchromatic image generation memory 169b. Further, a region having a size corresponding to the coordinate system of the arbitrary specific area EWi is defined in the second memory for the same wavelength component image 163a 44.

そして、この特定エリアEWiのライン毎同一波長成分画像Ri(R)がオペレーション部によって指定された特定エリアEWiに対応する個数分に到達する毎に、その特定エリア毎同一波長成分画像ERi(R)にメッシュMiを順次定義する。そして、このメッシュMiに含まれている画素データを、パンクロ画像生成用メモリ169bの該当のピクセルに格納する。 Then, every time the same wavelength component image Ri (R 2 ) for each line of the specific area EWi reaches the number corresponding to the specific area EWi specified by the operation unit, the same wavelength component image ERi (R 2) for each specific area is reached. Mesh Mi is defined in order in 2). Then, the pixel data included in the mesh Mi is stored in the corresponding pixel of the panchromatic image generation memory 169b.

重ね合わせ部171は、R画像エリア用メモリ169a、G画像エリア用メモリ169a、B画像エリア用メモリ169a及びパンクロ画像生成用メモリ169bの各々のピクセルを順に指定する。そして、指定されたこれらのピクセルの特定エリア毎第1画像E(R)、特定エリア毎第2画像E(G)、特定エリア毎第3画像E(B)、特定エリア毎同一波長成分画像ERi(R)を、色強調画像用メモリ173に順次記憶して移動体検出画像CP(より正確には、色強調前のパンシャープン画像CP1)を得る。 The superimposing unit 171 designates each pixel of the R 1 image area memory 169a 1 , the G image area memory 169a 2 , the B image area memory 169a 3, and the panchromatic image generation memory 169b in order. Then, the first image E (R 1 ) for each specific area, the second image E (G) for each specific area, the third image E (B) for each specific area, and the same wavelength component image for each specific area of these designated pixels. ERi the (R 2), (more precisely, a pan-sharpened image CP1 before color enhancement) sequentially stores moving object detection image CP in the color enhancement image memory 173 obtained.

なお、ライン毎撮影画像eGiには、ライン毎撮影画像eGi毎に、衛星ID、撮影年月日時刻、色種(R、G、B、R)、解像度(2.5m)、緯度(X)、経度(Y)、姿勢などのヘッダ情報EHiが関連付けられる。 Note that the line for each captured image EGI, for each line for each captured image EGI, satellite ID, photographing date and time, the color type (R 1, G, B, R 2), resolution (2.5 m), latitude ( Header information EHi such as X), longitude (Y), and attitude is associated.

ここで、オペレータによる検出パラメータの設定としては、例えば津波検出時において、200km×200kmの津波検出エリア(XY〜XY)TEiに対応する4隅の座標と、解像度(100m×100m)に応じた津波変化検出用範囲(WA)や、震源地SCに関する情報(Ei)などがあげられる。 Here, the detection parameters are set by the operator, for example, at the time of tsunami detection, the coordinates of the four corners corresponding to the tsunami detection area (XY to XY) TEi of 200 km × 200 km and the tsunami according to the resolution (100 m × 100 m). The range for change detection (WA) and information on the epicenter SC (Ei) can be mentioned.

すなわち、津波検出エリアTEiに対して、1メッシュ(縦長×横幅)が津波変化検出用範囲(WA)の間隔(例えば100m×100m)とされたメッシュMiを設定する。 That is, for the tsunami detection area TEi, a mesh Mi in which one mesh (vertical length × horizontal width) is an interval (for example, 100 m × 100 m) of the tsunami change detection range (WA) is set.

なお、移動体検出画像CPにおいては、平滑化処理したり、雲や船舶などは大体の形が分かっているので、適宜、除去するのが好ましい。 In the moving object detection image CP, it is preferable to perform smoothing processing and to remove clouds, ships, and the like as appropriate because the general shapes are known.

図43は、移動体検出画像CPの表示画面において、地震の発生に伴って気象庁などから震源地SCに関する情報(Ei)が提供された場合を仮想的に示したものである。 FIG. 43 virtually shows a case where information (Ei) regarding the epicenter SC is provided by the Japan Meteorological Agency or the like in connection with the occurrence of an earthquake on the display screen of the moving object detection image CP.

この例の場合、移動体検出画像CPには、例えば、日本列島JMの三陸沖の太平洋POで発生した地震の震源地SCと、その震源地SCの近傍で発生したと思われる、津波パラメータを超える波Tbと、が含まれる。したがって、図43に示すように、波Tbのカラー画像(B画像、G画像、R画像)を、津波検出エリアTEiに設定されるメッシュMiに格納させることによって、津波として検出可能となる。 In the case of this example, the moving object detection image CP exceeds, for example, the epicenter SC of the earthquake that occurred off Sanriku in the Japanese archipelago JM and the tsunami parameter that seems to have occurred in the vicinity of the epicenter SC. Waves Tb and are included. Accordingly, as shown in FIG. 43, the color image of the wave Tb (B image, G image, R 1 image), and by storing the mesh Mi is set to the tsunami detection area TEi, it can be detected as a tsunami.

移動体検出装置16においては、例えば、震源地SCに関する情報(Ei)が検出パラメータとしてエリア抽出部165(365a、365b、365c、365d)に供給されたことをきっかけに、処理を開始するようにしても良い。この場合、エリア抽出部165(365a、365b、365c、365d)は、震源地SCに関する情報(Ei)に基づいて、カラー画像用メモリ169a(169a、169a、169a)とパンクロ画像生成用メモリ169bとに震源地SCを定義させることが可能である。 In the mobile body detection device 16, for example, the process is started when the information (Ei) regarding the epicenter SC is supplied to the area extraction unit 165 (365a, 365b, 365c, 365d) as a detection parameter. You may. In this case, the area extraction unit 165 (365a, 365b, 365c, 365d) is used for color image memory 169a (169a 1 , 169a 2 , 169a 3 ) and pancro image generation based on the information (Ei) regarding the epicenter SC. It is possible to have the memory 169b define the epicenter SC.

図44は、移動体検出画像CPの表示画面において、地震の発生に伴って気象庁などから震源地SCに関する情報(Ei)が提供されない場合を仮想的に示したものである。 FIG. 44 virtually shows a case where the information (Ei) regarding the epicenter SC is not provided by the Japan Meteorological Agency or the like due to the occurrence of an earthquake on the display screen of the moving object detection image CP.

この例の場合、移動体検出装置16においては、常時、移動体検出画像CPをモニタリングし続ける必要があるが、津波パラメータを超える波Tbのカラー画像を、津波検出エリアTEiに設定されるメッシュMiに格納させることによって、津波として検出可能となる。 In the case of this example, in the moving body detection device 16, it is necessary to constantly monitor the moving body detection image CP, but the color image of the wave Tb exceeding the tsunami parameter is set in the tsunami detection area TEi. By storing it in, it can be detected as a tsunami.

上記したように、実施の形態3によれば、津波のような移動体の検出にも適用できる。 As described above, according to the third embodiment, it can also be applied to the detection of a moving body such as a tsunami.

また、海に限らず、鉄砲水などによる河川の水位や流速の監視などといった河川の管理や、崖崩れ(地すべり)や雪崩などのような、大規模な自然災害のモニタリング(エネルギー試算など)にも利用できる。 In addition to the sea, it is also used for river management such as monitoring the water level and flow velocity of rivers with flash floods, and for monitoring large-scale natural disasters such as landslides and avalanches (energy estimation, etc.). Available.

また、赤外線センサやX線センサなどを用いることによって、タンク内の容量をチェックしたり、夜間におけるトラックやコンテナなどの搬入や搬出のチェックなどにも応用可能である。 Further, by using an infrared sensor, an X-ray sensor, or the like, it can be applied to check the capacity in the tank, and to check the loading and unloading of trucks and containers at night.

また、ラインセンサとしては、3ライン方式のようなセンサに限らず、例えば、ダイクロイックプリズムを用いた3CCD方式のようなセンサとしても良い。 Further, the line sensor is not limited to a sensor such as a 3-line system, and may be, for example, a sensor such as a 3CCD system using a dichroic prism.

さらには、CCDラインセンサに限らず、CMOS構造のラインセンサにも適用可能なことは勿論である。 Furthermore, it goes without saying that it can be applied not only to a CCD line sensor but also to a line sensor having a CMOS structure.

10 地球
12 地球観測衛星(人工衛星/飛行体)
14 アンテナ施設
16 移動体検出装置(地上局)
21 人工衛星カメラ
23 受信部
25 センサ制御部
27 送信部
161 取得部
175 色強調部
214、214II マルチスペクトルセンサ装置(マルチラインイメージセンサ装置)
10 Earth 12 Earth observation satellite (artificial satellite / flying object)
14 Antenna facility 16 Mobile detector (ground station)
21 Artificial satellite camera 23 Receiver 25 Sensor control 27 Transmitter 161 Acquisition section 175 Color enhancement section 214, 214II Multispectral sensor device (multiline image sensor device)

Claims (13)

互いに間隔を有して並列に配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える三原色画像ラインセンサと、
前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記間隔を有して並列に配置され、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと同一色の光の波長を検出する第1の同一波長成分画像用ラインセンサと
有し、
前記三原色画像ラインセンサによってカラー画像を取得すると共に、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記第1の同一波長成分画像用ラインセンサとによって白黒画像を取得することを特徴とするマルチラインイメージセンサ装置。
Three primary color image line sensors including an R image line sensor, a G image line sensor, and a B image line sensor, which are arranged in parallel at intervals from each other.
A first that is arranged in parallel with an image line sensor of any of the three primary color image line sensors at the interval and detects a wavelength of light of the same color as the image line sensor of any of the three primary color image line sensors. and a line sensor for the same wavelength component image,
A color image is acquired by the three primary color image line sensors, and a black and white image is acquired by the image line sensor of any of the three primary color image line sensors and the first line sensor for the same wavelength component image. Multi-line image sensor device.
前記R画像用ラインセンサは、
一定個数のR画像用フィルタを直列に配列したR画像用フィルタ群と、
前記R画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したR画像用光電変換素子群と、を有し、
前記G画像用ラインセンサは、
前記R画像用フィルタ群に対して一定の前記間隔を有して並列に配置され、一定個数のG画像用フィルタを直列に配列したG画像用フィルタ群と、
前記G画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したG画像用光電変換素子群と、を有し、
前記B画像用ラインセンサは、
前記G画像用フィルタ群に対して一定の前記間隔を有して並列に配置され、一定個数のB画像用フィルタを直列に配列したB画像用フィルタ群と、
前記B画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したB画像用光電変換素子群と、を有して構成されており、
前記第1の同一波長成分画像用ラインセンサは、
前記R画像用フィルタ、前記G画像用フィルタ、または前記B画像用フィルタのいずれかと同一の一定個数の画像用フィルタが、前記R画像用フィルタ群、前記G画像用フィルタ群、または前記B画像用フィルタ群に対して一定の前記間隔を有して並列に配置された第1の同一波長成分画像用フィルタ群と、
前記第1の同一波長成分画像フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列した第1の同一波長成分画像用光電変換素子群と、
を有することを特徴とする請求項1に記載のマルチラインイメージセンサ装置。
The line sensor for R image is
A group of R image filters in which a fixed number of R image filters are arranged in series,
It has an R image photoelectric conversion element group provided under the R image filter group and in which a fixed number of photoelectric conversion elements are arranged in series.
The line sensor for G image is
A G image filter group arranged in parallel with the R image filter group at a certain interval and a fixed number of G image filters arranged in series, and a G image filter group.
It has a G-image photoelectric conversion element group provided under the G-image filter group and in which a fixed number of photoelectric conversion elements are arranged in series.
The B image line sensor is
A B image filter group arranged in parallel with the G image filter group at a certain interval and a fixed number of B image filters arranged in series, and a B image filter group.
It is provided in the lower layer of the B image filter group, and is configured to include a B image photoelectric conversion element group in which a fixed number of photoelectric conversion elements are arranged in series.
The first line sensor for the same wavelength component image is
The same fixed number of image filters as any of the R image filter, the G image filter, or the B image filter is the R image filter group, the G image filter group, or the B image filter. A first filter group for the same wavelength component image arranged in parallel with the above-mentioned interval with respect to the filter group,
A first photoelectric conversion element group for the same wavelength component image, which is provided under the first layer of the same wavelength component image filter group and in which a fixed number of photoelectric conversion elements are arranged in series,
The multi-line image sensor device according to claim 1, wherein the multi-line image sensor device is provided.
前記第1の同一波長成分画像用ラインセンサは、前記三原色画像ラインセンサのいずれかの画像用ラインセンサに隣接配置されていることを特徴とする請求項1または2に記載のマルチラインイメージセンサ装置。 The multi-line image sensor device according to claim 1 or 2, wherein the first line sensor for the same wavelength component image is arranged adjacent to the line sensor for an image of any one of the three primary color image line sensors. .. 前記第1の同一波長成分画像用ラインセンサは、前記三原色画像ラインセンサのいずれかの画像用ラインセンサとは異なる画像用ラインセンサに隣接配置されていることを特徴とする請求項1または2に記載のマルチラインイメージセンサ装置。 According to claim 1 or 2, the first line sensor for the same wavelength component image is arranged adjacent to an image line sensor different from the image line sensor of any one of the three primary color image line sensors. The multi-line image sensor device described. 前記第1の同一波長成分画像用ラインセンサは、前記三原色画像ラインセンサを介して最も後段に配置されていることを特徴とする請求項1または2に記載のマルチラインイメージセンサ装置。 The multi-line image sensor device according to claim 1 or 2, wherein the first line sensor for the same wavelength component image is arranged at the rearmost stage via the three primary color image line sensors. さらに、
前記第1の同一波長成分画像用フィルタ群と同一の一定個数の画像用フィルタが、前記R画像用フィルタ群、前記G画像用フィルタ群、または前記B画像用フィルタ群、若しくは前記第1の同一波長成分画像用フィルタ群に対して、一定の前記間隔を有して並列に配置された第2の同一波長成分画像用フィルタ群と、
前記第2の同一波長成分画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列した第2の同一波長成分画像用光電変換素子群と、
を有する第2の同一波長成分画像用ラインセンサを備えて構成されていることを特徴とする請求項2に記載のマルチラインイメージセンサ装置。
Moreover,
The same fixed number of image filters as the first same wavelength component image filter group is the R image filter group, the G image filter group, the B image filter group, or the first same. A second group of filters for the same wavelength component image arranged in parallel with the same interval with respect to the group of filters for the wavelength component image, and a group of filters for the same wavelength component image.
A second photoelectric conversion element group for the same wavelength component image, which is provided under the second layer of the same wavelength component image filter group and in which a fixed number of photoelectric conversion elements are arranged in series,
The multi-line image sensor device according to claim 2 , further comprising a second line sensor for the same wavelength component image having the above.
さらに、
一定個数の赤外画像用フィルタまたは近赤外画像用フィルタが、前記R画像用フィルタ群、前記G画像用フィルタ群、または前記B画像用フィルタ群、若しくは前記第1の同一波長成分画像用フィルタ群に対して、一定の前記間隔を有して並列に配置された赤外画像用フィルタ群と、
前記赤外画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列した赤外画像用光電変換素子群と、
を有する赤外画像用ラインセンサを備えて構成されていることを特徴とする請求項2に記載のマルチラインイメージセンサ装置。
Moreover,
A certain number of infrared image filters or near-infrared image filters are the R image filter group, the G image filter group, the B image filter group, or the first same wavelength component image filter. A group of filters for infrared images arranged in parallel with a certain interval with respect to the group,
An infrared image photoelectric conversion element group provided under the infrared image filter group and a fixed number of photoelectric conversion elements arranged in series, and an infrared image photoelectric conversion element group.
The multi-line image sensor device according to claim 2 , further comprising an infrared image line sensor having the above.
さらに、
前記R画像用光電変換素子群と、前記G画像用光電変換素子群と、前記B画像用光電変換素子群と、前記第1の同一波長成分画像用光電変換素子群とにそれぞれ並列に配列された垂直転送部を有して構成されていることを特徴とする請求項2に記載のマルチラインイメージセンサ装置。
Moreover,
The R image photoelectric conversion element group, the G image photoelectric conversion element group, the B image photoelectric conversion element group, and the first same wavelength component image photoelectric conversion element group are arranged in parallel, respectively. The multi-line image sensor device according to claim 2 , further comprising a vertical transfer unit.
撮影エリアに対して、所定の高さを有し、所定の速度により一方向に移動する飛行体に設けられ、前記飛行体の移動に伴って、三原色のカラー画像と、前記三原色のカラー画像のいずれかのカラー画像と同一色の光の波長のカラー画像である同一波長成分画像とを得る撮影装置であって、
マルチラインイメージセンサ装置を備え、
前記マルチラインイメージセンサ装置は、
互いに間隔を有して並列に配置された、R画像用ラインセンサとG画像用ラインセンサとB画像用ラインセンサとを備える三原色画像ラインセンサと、
前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記間隔を有して並列に配置され、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと同一色の光の波長を検出する同一波長成分画像用ラインセンサとを備え、
さらに、
前記三原色画像ラインセンサ及び前記同一波長成分画像用ラインセンサに、前記撮影エリアからの光を結像させる光学系と、
前記三原色画像ラインセンサ及び前記同一波長成分画像用ラインセンサを駆動するセンサ駆動部と、
前記センサ駆動部の駆動に伴って出力された前記三原色画像ラインセンサからの各々の出力を第1画像、第2画像、第3画像として得て水平転送するとともに、前記同一波長成分画像用ラインセンサからの出力を前記同一波長成分画像として得て水平転送する水平転送部と
有し、
前記三原色画像ラインセンサによってカラー画像を取得すると共に、前記三原色画像ラインセンサのいずれかの画像用ラインセンサと前記同一波長成分画像用ラインセンサとによって白黒画像を取得することを特徴とする撮影装置。
A flying object having a predetermined height with respect to the shooting area and moving in one direction at a predetermined speed is provided, and as the flying object moves, a color image of the three primary colors and a color image of the three primary colors are used. An imaging device that obtains a color image having the same wavelength as any color image and a color image having the same wavelength of light.
Equipped with a multi-line image sensor device
The multi-line image sensor device is
Three primary color image line sensors including an R image line sensor, a G image line sensor, and a B image line sensor, which are arranged in parallel at intervals from each other.
The same wavelength that is arranged in parallel with the image line sensor of any of the three primary color image line sensors at the interval and detects the wavelength of light of the same color as the image line sensor of any of the three primary color image line sensors. Equipped with a line sensor for component images
Moreover,
An optical system for forming an image of light from the photographing area on the three primary color image line sensors and the same wavelength component image line sensor, and
A sensor drive unit that drives the three primary color image line sensors and the same wavelength component image line sensor,
Each output from the three primary color image line sensors output by driving the sensor drive unit is obtained as a first image, a second image, and a third image and horizontally transferred, and the line sensor for the same wavelength component image. It has a horizontal transfer unit that obtains the output from the same wavelength component as the same wavelength component image and transfers it horizontally .
An imaging device characterized in that a color image is acquired by the three primary color image line sensors and a black and white image is acquired by the image line sensor of any of the three primary color image line sensors and the same wavelength component image line sensor.
前記R画像用ラインセンサは、
一定個数のR画像用フィルタを直列に配列したR画像用フィルタ群と、
前記R画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したR画像用光電変換素子群と、
前記R画像用光電変換素子群に並列に配置された垂直転送部と、を有し、
前記G画像用ラインセンサは、
前記R画像用フィルタ群に対して一定間隔を有して並列に配置され、一定個数のG画像用フィルタを直列に配列したG画像用フィルタ群と、
前記G画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したG画像用光電変換素子群と、
前記G画像用光電変換素子群に並列に配置された垂直転送部と、を有し、
前記B画像用ラインセンサは、
前記G画像用フィルタ群に対して一定間隔を有して並列に配置され、一定個数のB画像用フィルタを直列に配列したB画像用フィルタ群と、
前記B画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列したB画像用光電変換素子群と、
前記B画像用光電変換素子群に並列に配置された垂直転送部と、を有し、
前記同一波長成分画像用ラインセンサは、
前記R画像用フィルタ、前記G画像用フィルタ、または前記B画像用フィルタのいずれかと同一の一定個数の画像用フィルタが、前記R画像用フィルタ群、前記G画像用フィルタ群、または前記B画像用フィルタ群に対して、一定間隔を有して並列に配置された同一波長成分画像用フィルタ群と、
前記同一波長成分画像用フィルタ群の下層に設けられ、一定個数の光電変換素子を直列に配列した同一波長成分画像用光電変換素子群と、
前記同一波長成分画像用光電変換素子群に並列に配置された垂直転送部と、を有し、
前記R画像用ラインセンサの前記垂直転送部、前記G画像用ラインセンサの前記垂直転送部、前記B画像用ラインセンサの前記垂直転送部、及び前記同一波長成分画像用ラインセンサの前記垂直転送部が、前記水平転送部に接続されていることを特徴とする請求項9に記載の撮影装置。
The line sensor for R image is
A group of R image filters in which a fixed number of R image filters are arranged in series,
A group of photoelectric conversion elements for R images provided under the filter group for R images and in which a fixed number of photoelectric conversion elements are arranged in series.
It has a vertical transfer unit arranged in parallel with the photoelectric conversion element group for R image.
The line sensor for G image is
A G image filter group arranged in parallel with the R image filter group at regular intervals and a fixed number of G image filters arranged in series, and a G image filter group.
A group of photoelectric conversion elements for G images provided under the G image filter group and in which a certain number of photoelectric conversion elements are arranged in series, and a group of photoelectric conversion elements for G images.
It has a vertical transfer unit arranged in parallel with the G-image photoelectric conversion element group, and has.
The B image line sensor is
A B image filter group arranged in parallel with the G image filter group at regular intervals and a fixed number of B image filters arranged in series, and a B image filter group.
A group of photoelectric conversion elements for B images provided under the filter group for B images and in which a fixed number of photoelectric conversion elements are arranged in series, and a group of photoelectric conversion elements for B images.
It has a vertical transfer unit arranged in parallel with the photoelectric conversion element group for B image.
The line sensor for the same wavelength component image is
The same fixed number of image filters as any of the R image filter, the G image filter, or the B image filter is the R image filter group, the G image filter group, or the B image filter. A group of filters for the same wavelength component image arranged in parallel with a certain interval with respect to the filter group,
A group of photoelectric conversion elements for the same wavelength component image provided under the filter group for the same wavelength component image and in which a fixed number of photoelectric conversion elements are arranged in series, and a group of photoelectric conversion elements for the same wavelength component image.
It has a vertical transfer unit arranged in parallel with the photoelectric conversion element group for the same wavelength component image.
The vertical transfer unit of the R image line sensor, the vertical transfer unit of the G image line sensor, the vertical transfer unit of the B image line sensor, and the vertical transfer unit of the same wavelength component image line sensor. The imaging device according to claim 9, wherein the image is connected to the horizontal transfer unit.
前記同一波長成分画像用ラインセンサは、
前記三原色画像ラインセンサのいずれかの画像用ラインセンサに隣接配置されていることを特徴とする請求項9または10に記載の撮影装置。
The line sensor for the same wavelength component image is
The imaging device according to claim 9 or 10, wherein the image pickup device is arranged adjacent to any of the three primary color image line sensors.
前記飛行体は、送信部を備え、
前記送信部は、
前記水平転送部を介して水平転送される前記第1画像と、前記第2画像と、前記第3画像と、前記同一波長成分画像とを撮影タイミング毎のライン毎撮影画像とし、このライン毎撮影画像に、前記飛行体の識別情報と、撮影の年月日と、時刻と、撮影時点の緯度及び経度と、色種と、送信先情報とを付加した送信信号を生成して送信する手段を有して構成されていることを特徴とする請求項9に記載の撮影装置。
The air vehicle includes a transmitter and
The transmitter
The first image, the second image, the third image, and the same wavelength component image, which are horizontally transferred via the horizontal transfer unit, are set as line-by-line shot images for each shooting timing, and the line-by-line shooting is performed. A means for generating and transmitting a transmission signal in which the identification information of the flying object, the date and time of shooting, the latitude and longitude at the time of shooting, the color type, and the destination information are added to the image. The photographing apparatus according to claim 9, wherein the image pickup apparatus is configured to have.
前記飛行体は、人工衛星であることを特徴とする請求項9または12に記載の撮影装置。 The imaging device according to claim 9 or 12, wherein the flying object is an artificial satellite.
JP2017089997A 2016-05-13 2017-04-28 Multi-line image sensor device and imaging device Active JP6959029B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/017804 WO2017195858A1 (en) 2016-05-13 2017-05-11 Multi-line image sensor devices, image capturing device, moving body detecting device, and moving body detecting program
TW106115773A TW201803330A (en) 2016-05-13 2017-05-12 Multi-lines image sensor device, photographing device, moving object detecting device and moving object detecting program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016096732 2016-05-13
JP2016096732 2016-05-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017211947A Division JP6291624B1 (en) 2016-05-13 2017-11-01 Moving object detection apparatus and moving object detection program

Publications (2)

Publication Number Publication Date
JP2017208813A JP2017208813A (en) 2017-11-24
JP6959029B2 true JP6959029B2 (en) 2021-11-02

Family

ID=60415128

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017089997A Active JP6959029B2 (en) 2016-05-13 2017-04-28 Multi-line image sensor device and imaging device
JP2017211947A Active JP6291624B1 (en) 2016-05-13 2017-11-01 Moving object detection apparatus and moving object detection program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017211947A Active JP6291624B1 (en) 2016-05-13 2017-11-01 Moving object detection apparatus and moving object detection program

Country Status (2)

Country Link
JP (2) JP6959029B2 (en)
TW (1) TW201803330A (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI712005B (en) * 2018-05-22 2020-12-01 呂官諭 Multi-spectrum high-precision object identification method
JP7398249B2 (en) * 2019-11-19 2023-12-14 アジア航測株式会社 Mobile trajectory generation device using photographic images
CN114693756B (en) * 2022-06-01 2022-08-23 中国工程物理研究院流体物理研究所 Real-time image processing device and method suitable for airborne spectral imaging system
JP2022146950A (en) * 2022-06-29 2022-10-05 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device
CN115601471B (en) * 2022-12-16 2023-03-31 四川腾盾科技有限公司 Drawing method based on large unmanned aerial vehicle photoelectric reconnaissance swept area

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003060842A (en) * 2001-08-16 2003-02-28 Sony Corp Color linear sensor
JP5288482B2 (en) * 2009-07-21 2013-09-11 Nec東芝スペースシステム株式会社 Imaging apparatus, imaging method, imaging circuit, and program
JP5728894B2 (en) * 2010-11-08 2015-06-03 富士ゼロックス株式会社 Image reading apparatus and image forming apparatus

Also Published As

Publication number Publication date
JP2017208813A (en) 2017-11-24
JP6291624B1 (en) 2018-03-14
TW201803330A (en) 2018-01-16
JP2018061262A (en) 2018-04-12

Similar Documents

Publication Publication Date Title
JP6959029B2 (en) Multi-line image sensor device and imaging device
US11514564B2 (en) System for detecting image abnormalities
US8385672B2 (en) System for detecting image abnormalities
EP2247094B1 (en) Orthophotographic image creating method and imaging device
King Airborne multispectral digital camera and video sensors: a critical review of system designs and applications
KR101800905B1 (en) Multi-resolution digital large format camera with multiple detector arrays
Graham et al. Digital aerial survey: theory and practice
Jacobsen High resolution satellite imaging systems-an overview
Tommaselli et al. Development and assessment of a data set containing frame images and dense airborne laser scanning point clouds
WO2017195858A1 (en) Multi-line image sensor devices, image capturing device, moving body detecting device, and moving body detecting program
CN101702021B (en) Method for obtaining spectrum-integrated time-varying target optical spectrum information and device thereof
Bostater Jr et al. Image analysis for water surface and subsurface feature detection in shallow waters
Yamashita et al. Ground-based cloud observation for satellite-based cloud discrimination and its validation
Hinz et al. The Z/I imaging digital camera system
Bostater et al. Integration, testing, and calibration of imaging systems for land and water remote sensing
Kerle et al. Advanced structural disaster damage assessment based on aerial oblique video imagery and integrated auxiliary data sources
Heier et al. A digital airborne camera system for photogrammetry and thematic applications
Lebègue et al. Using exotic guidance for Pleiades-HR image quality calibration
Granshaw Photogrammetry and remote sensing
Jusoff et al. Mapping of power transmission lines on Malaysian highways using UPM-APSB’s AISA airborne hyperspectral imaging system
Hassan et al. Performances of frequency-based contextual classifier for land use/land cover using Cropcam UAV data
Dąbrowski et al. Evaluation of the possibility of using the miniMCAmultispectral camera in Imagery Intelligence
Ashraf et al. Remote sensing of freshwater habitats for large rivers and lakes of the Waikato region using sub-pixel classification
Hassan et al. An Assessment of Low‐Cost Cropcam UAV Images for Land Cover/Use over Penang Island, Malaysia
Lehmann HRSC hgh resolution stereo camera digital airborne imager: three years of operational data production and applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6959029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150