WO2020196308A1 - 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム - Google Patents

画像処理装置、画像処理方法及び画像処理用コンピュータプログラム Download PDF

Info

Publication number
WO2020196308A1
WO2020196308A1 PCT/JP2020/012422 JP2020012422W WO2020196308A1 WO 2020196308 A1 WO2020196308 A1 WO 2020196308A1 JP 2020012422 W JP2020012422 W JP 2020012422W WO 2020196308 A1 WO2020196308 A1 WO 2020196308A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging range
imaging
synthetic aperture
aperture radar
image
Prior art date
Application number
PCT/JP2020/012422
Other languages
English (en)
French (fr)
Inventor
奈保子 久喜
教尋 今井
健三郎 萩原
嘉隆 大浦
正典 宮脇
太一 廣瀬
崇至 池原
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/437,997 priority Critical patent/US20220179063A1/en
Priority to JP2021509333A priority patent/JP7124956B2/ja
Priority to EP20779958.6A priority patent/EP3923236A4/en
Publication of WO2020196308A1 publication Critical patent/WO2020196308A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a computer program for image processing.
  • an object of the present invention is to provide an image processing apparatus, an image processing method, and a computer program for image processing that solves the above-mentioned problems.
  • the image processing apparatus collapses in the imaging range at the time of imaging by the synthetic aperture radar from the trajectory and altitude data on the ground surface at the time of imaging by the synthetic aperture radar using a flying object.
  • a collapse calculation unit that calculates the amount
  • a polygon calculation unit that obtains a polygon indicating the actual outer circumference of the imaging range by calculating the outer circumference of the actual imaging range in the imaging range using the collapse amount
  • the above-mentioned A region determination unit that uses the polygon to determine which region the imaging range belongs to for two or more regions defined in the area imaged by the synthetic aperture radar, and the region determination unit to which the imaging range belongs. It is provided with a value-adding unit that performs processing according to the determined region according to the determination result of the region on the image in the imaging range.
  • the image processing method collapses in the imaging range at the time of imaging by the synthetic aperture radar from the orbit and the altitude data on the ground surface at the time of imaging by the synthetic aperture radar using a flying object.
  • the amount is calculated, and the outer circumference of the actual imaging range in the imaging range is calculated using the collapse amount to obtain a polygon indicating the actual outer circumference of the imaging range, which is determined in the area imaged by the synthetic aperture radar.
  • the polygon is used to determine which region the imaging range belongs to for the two or more regions, and the processing is performed according to the determined region according to the determination result of the region to which the imaging range belongs. This is performed on the image in the imaging range.
  • the computer program for image processing is based on the trajectory at the time of imaging by the synthetic aperture radar using a flying object and the altitude data regarding the ground surface in the imaging range at the time of imaging by the synthetic aperture radar.
  • a polygon indicating the actual outer circumference of the imaging range is obtained, and the area imaged by the synthetic aperture radar is obtained.
  • the polygon is used to determine which region the imaging range belongs to with respect to the two or more regions defined in the above, and the region is determined according to the determination result of the region to which the imaging range belongs.
  • the computer is made to perform the processing on the image in the imaging range.
  • Synthetic aperture radar refers to a radar that virtually acts as a large aperture surface by moving a flying object such as an artificial satellite. Synthetic aperture radar irradiates an object with electromagnetic waves called microwaves or millimeter waves, analyzes the reflected signal, and observes the object.
  • FIG. 1 is a diagram for explaining the principle of collapse of an image captured by a synthetic aperture radar.
  • an artificial satellite will be described as an example of a flying object for imaging by a synthetic aperture radar.
  • FIG. 1 shows an example in which a region including a high mountain peak P and a low building point Q is imaged by a synthetic aperture radar.
  • an electromagnetic wave is irradiated to an object, and the distance is measured using the time from the irradiation to the reception of the reflected signal.
  • the time from the irradiation of the electromagnetic wave to the reception of the reflected signal is shorter from the summit P than to the point Q on the building. Therefore, in the synthetic aperture radar, it is mistakenly recognized that the point P is closer than the point Q.
  • the image captured by the synthetic aperture radar appears as if the point P is in the foreground, and a phenomenon called "collapse" occurs.
  • FIG. 2 shows an example of the actual positional relationship in the example of FIG. 1 and the deviation due to "falling over" in the synthetic aperture radar.
  • the upper part of FIG. 2 shows the actual positional relationship between the high mountain peak P and the low point Q on the building.
  • the middle and lower rows of FIG. 2 show an example of an image taken by a synthetic aperture radar.
  • a high altitude point high altitude mountain peak P
  • P1 point of reference numeral P1 so as to collapse toward the artificial satellite as shown in the middle part of FIG.
  • Such a collapse of a high altitude point (high altitude mountain peak P) toward the artificial satellite side as shown in the middle part of FIG. 2 is called "fore shortening".
  • FIG. 3 is a diagram showing an example in which the planned imaging range and the actual imaging range are different due to "collapse".
  • area A the left side separated by a line
  • area B the right side
  • the upper part of FIG. 3 is an example in which the area A is imaged from the right side by the synthetic aperture radar.
  • all the images in the planned imaging range 31 are in the area A.
  • the image in the imaging range 31 is an image including the influence of "collapse”
  • the actual imaging range with respect to the image in the imaging range 31 is an image obtained by capturing the range 32 indicated by the diagonal line.
  • the image of the planned imaging range 33 includes a part of the area B together with the area A.
  • the image in the imaging range 33 is an image including the influence of "collapse”
  • the actual imaging range for the image in the imaging range 33 is an image obtained by capturing the range 34 indicated by the diagonal line, and the actual imaging range is all the area A. include. In this way, if an image is taken in a region different from the assumed imaging region due to "collapse", the region determination will be affected.
  • FIG. 4 is a functional block diagram of the image processing device 1 according to the embodiment of the present invention.
  • the image processing device 1 includes an area setting unit 11, an added value setting unit 12, a collapse calculation unit 13, a polygon calculation unit 14, an area determination unit 15, an added value adding unit 16, and a storage unit. It is composed of 17.
  • the storage unit 17 stores captured image data 17a and altitude data 17b. Further, the storage unit 17 stores the area setting data 17c, the value-added setting data 17d, the polygon data 17e, and the value-added data 17f in the process of processing by the image processing device 1.
  • the captured image data 17a stored in the storage unit 17 is data related to the captured image captured by the synthetic aperture radar.
  • the captured image is an image in the area captured by the synthetic aperture radar, and is composed of images in a plurality of imaging ranges.
  • the altitude data 17b is altitude data related to the ground surface by a digital elevation model (DEM: Digital Elevation Model) or a geoid (Geoid) height.
  • DEM Digital Elevation Model
  • geoid height refers to the height relative to the geopotential surface, which matches the average sea level of the earth very well.
  • the area setting unit 11 performs a process of setting two or a plurality of areas in the area imaged by the synthetic aperture radar in order to add different values by different image processing.
  • the area setting unit 11 stores the set area as the area setting data 17c in the storage unit 17.
  • the value-added setting unit 12 performs a process of setting the added value to be performed for each area set by the area setting unit 11.
  • the value-added setting unit 12 associates the information about the value added for each area set by the area setting unit 11 with the area, and stores it in the storage unit 17 as the value-added setting data 17d.
  • the "added value” here means some kind of processing on the captured image. Further, “added value” is image processing corresponding to the added value.
  • the collapse calculation unit 13 performs a process of calculating the amount of collapse in the imaging range at the time of imaging by the synthetic aperture radar from the trajectory at the time of imaging by the synthetic aperture radar using a flying object and the altitude data 17b regarding the ground surface. ..
  • the polygon calculation unit 14 performs a process of obtaining a polygon indicating the actual outer circumference of the imaging range by calculating the outer circumference of the actual imaging range using the collapse amount in the imaging range calculated by the collapse calculation unit 13.
  • the polygon calculation unit 14 stores the obtained polygon as polygon data 17e in the storage unit 17.
  • the area determination unit 15 determines which area the imaging range belongs to by using the polygon obtained by the polygon calculation unit 14 with respect to the area set by the area setting unit 11.
  • the area determination unit 15 uses the area setting data 17c and the polygon data 17e in this process.
  • the value-added unit 16 performs the processing determined for the determined area on the image in the imaging range according to the determination result of the area to which the imaging range belongs by the area determination unit 15.
  • the value-adding unit 16 performs processing using the area setting data 17c and the value-adding setting data 17d, and stores the result of processing on the image in the imaging region as the value-adding data 17f in the storage unit 17.
  • FIG. 5 is a diagram showing a hardware configuration of the image processing device 1 according to the embodiment of the present invention.
  • the image processing device 1 includes a CPU (Central Processing Unit) 51, a ROM (Read Only Memory) 52, a RAM (Random Access Memory) 53, an HDD (Hard Disk Drive) 54, an input / output device 55, and a communication module 56.
  • the CPU 51 realizes each function of the image processing device 1 by executing a program stored in a recording medium such as the ROM 52 or the HDD 54.
  • the HDD 54 also stores data and the like necessary for realizing the function of the image processing device 1.
  • the input / output device 55 is a device such as a keyboard, a mouse, a touch panel, and a display device.
  • the communication module 56 is used when a network connection is required, and controls communication to the network.
  • FIG. 6 is a flowchart showing the processing of the image processing apparatus 1 according to the embodiment of the present invention.
  • the captured image captured by the synthetic aperture radar consists of images in a plurality of imaging regions.
  • the processing by the collapse calculation unit 13, the polygon calculation unit 14, the area determination unit 15, and the value-adding unit 16 is performed. Will be done.
  • the area setting unit 11 performs a process of setting two or a plurality of areas in the area imaged by the synthetic aperture radar as an area for adding different values by different processes (step S61).
  • FIG. 7 shows an example in which the areas A.71 and the areas B.72 are set in the area imaged by the synthetic aperture radar in step S61.
  • FIG. 7 also shows an example in which the range imaged by the synthetic aperture radar is divided by a mesh having the value of position information such as latitude and longitude.
  • the area setting by the area setting unit 11 is performed by having the user set the area via the user interface of the image processing device 1 or by importing the area setting data separately set.
  • the area setting unit 11 stores the set area as the area setting data 17c in the storage unit 17.
  • the value-added value setting unit 12 determines the processing to be performed for each area set by the area setting unit 11 (step S62).
  • the process set here is image processing according to the added value provided.
  • image processing it is image processing for providing images having different resolutions for each area.
  • the area that provides the high resolution image generally has high added value
  • the area that provides the low resolution image generally has low added value.
  • FIG. 7 shows an example in which the value-added value setting unit 12 sets the process for indicating the added value A for the areas A and 71 and the process for indicating the added value B for the areas B and 72.
  • the value-added setting unit 12 associates the information related to the processing performed for each area with each area and stores it in the storage unit 17 as the value-added setting data 17d.
  • the collapse calculation unit 13 calculates the amount of collapse in the imaging range during imaging by the synthetic aperture radar from the orbit at the time of imaging by the synthetic aperture radar using an artificial satellite and the altitude data on the ground surface (step S63). ..
  • the collapse calculation unit 13 calculates the “collapse amount” by a simulation using a digital elevation model or altitude data on the ground surface based on the geoid height. Specifically, the collapse calculation unit 13 simulates how the reflected wave arrives from the ground surface when the electromagnetic wave is irradiated from the orbit at the time of imaging of the artificial satellite. The "falling amount” is calculated from the difference between the apparent position and the actual position at each point on the ground surface using the arrival time of.
  • the processing in step S63 is preferably performed in units corresponding to pixels in consideration of the processing in the polygon calculation unit 14.
  • the planned value regarding the orbit of the artificial satellite at the time of imaging may be used as the information regarding the orbit of the artificial satellite, but it is preferable to use the measured value of the orbit of the artificial satellite after imaging. This makes it possible to calculate the "falling amount" with high accuracy. As a result, the area determination in the area determination unit 15 becomes more accurate.
  • the polygon calculation unit 14 obtains a polygon indicating the actual outer circumference of the imaging range by actually calculating the outer circumference of the imaging range in the imaging range using the collapse amount calculated by the collapse calculation unit 13 (step S64). .. FIG. 8 is a diagram showing an example of the process in step S64.
  • Reference numeral 81 is a region defined as a planned imaging range.
  • Reference numeral 82 is an example in which the outer circumference of the actual imaging range in the imaging range 81 is calculated by using the collapse amount calculated by the collapse calculation unit 13 with respect to the imaging range 81.
  • Reference numeral 83 is an example of a polygon obtained from the outer circumference of the actual imaging range.
  • the polygon calculation unit 14 stores the obtained polygon as polygon data 17e in the storage unit 17.
  • the area determination unit 15 determines which area the imaging region belongs to by using the polygon obtained by the polygon calculation unit 14 with respect to the area set by the area setting unit 11 (step S65). Specifically, the area determination unit 15 superimposes a polygon indicating an actual imaging range obtained by the polygon calculation unit 14 of step S64 on the area setting information set by the area setting unit 11 of step S61 to obtain an area. Make a judgment.
  • FIG. 9 is a diagram for explaining an example of determining whether the polygon 91 belongs to the area A.81 or the area B.82 in the actual imaging range shown by the polygon 91. In the example of FIG.
  • the area determination unit 15 determines that the actual imaging range indicated by the polygon 91 belongs to the areas B and 82. Alternatively, the area determination unit 15 may determine that the polygon 91 belongs to the area A.81 because there is an area 92 in which the polygon 91 overlaps the area A.81 as much as possible.
  • the value-added unit 16 performs the processing determined for the determined area on the captured image according to the determination result of the area to which the captured image belongs by the area determination unit 15 (step S66). In the example of FIG. 9, when it is determined that the actual imaging range indicated by the polygon 91 belongs to the areas B and 82, the value-added value setting unit 12 performs the processing set for the area B. The value-adding unit 16 stores the result of processing the captured image as the value-added data 17f in the storage unit 17.
  • the image processing device 1 performs processing for adding value to the image in each imaging region according to the region.
  • the area determination before the process of adding value it is possible to perform the process from the area determination to the image processing of adding value for each imaging region in one image process.
  • image processing is performed at a high resolution as the added value A of the area A, and a high price is set.
  • the added value B of the area B is set to be provided at a low resolution and at a low price.
  • the range of the disaster area is set in the area A, and the captured image belonging to the area A is provided as an added value A by cutting out the image data and providing it at an inexpensive price.
  • the regular price is set in the added value B, it is possible to make a difference in the price and contribute to society.
  • the area is determined before the image processing is performed, so that the image processing device 1 described in the embodiment can handle the area A.
  • regions A and 71 and regions B and 72 there are two types of regions, regions A and 71 and regions B and 72, but regions C, D, ... May be set and three or more types of region determination may be performed.
  • the projectile equipped with the synthetic aperture radar may be not only an artificial satellite but also an aircraft, a drone, an airship, a helicopter, or the like.
  • the polygon obtained by the image processing device 1 may be used so that a user who wants to capture or purchase an image can select an imaging range to be imaged or purchased. That is, the user may be able to select the imaging range to be imaged or purchased by using the polygon obtained by the polygon calculation unit 14. More specifically, in the user interface when searching and requesting an image captured by the synthetic aperture radar, a user interface that can select the imaging range to be imaged or purchased should be provided based on the polygon considering the collapse. It may be.
  • the shape of the polygon indicating the actual imaging range differs depending on the trajectory of the flying object at the time of imaging and the altitude information of the point, and differs depending on the range and time required by the user.
  • the user may want an image in an inexpensive range just before the boundary.
  • it is difficult for the user to specify an inexpensive range by specifying a rectangular range and it may be desired to specify an inexpensive range within the boundary of the inexpensive range based on a polygon indicating an imaging range.
  • the polygon indicating the imaging range can be displayed so as to change for each position of the cursor on the screen and for each time, based on the imaging range polygon in which the collapse is considered in advance.
  • a user interface that can select a range (area) may be used. At that time, if a future date and time is specified, based on the planned value of the trajectory of the requested imaging date and time, considering the collapse, polygons with an imaging range that changes by specifying the location and time should be created. Good.
  • the data added by the image processing device 1 according to the embodiment can be applied to fields such as global change monitoring, disaster monitoring, oil field monitoring, agriculture, and fishery.
  • FIG. 11 is a block diagram showing the minimum configuration of the image processing device 1 according to the embodiment of the present invention.
  • the image processing device 1 includes a collapse calculation unit 13, a polygon calculation unit 14, an area determination unit 15, and a value-adding unit 16.
  • the collapse calculation unit 13 calculates the amount of collapse in the imaging range at the time of imaging by the synthetic aperture radar from the trajectory at the time of imaging by the synthetic aperture radar using a flying object and the altitude data on the ground surface.
  • the polygon calculation unit 14 obtains a polygon indicating the actual outer circumference of the imaging range by calculating the outer circumference of the actual imaging range in the imaging range using the calculated collapse amount.
  • the area determination unit 15 determines which area the imaging range belongs to by using the obtained polygons for two or more areas defined in the area imaged by the synthetic aperture radar.
  • the value-added unit 16 performs processing on the image in the imaging range according to the determination result of the region to which the imaging range belongs by the region determination unit 15.
  • a program for realizing the functions of each processing unit of the image processing device 1 in FIG. 4 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by the computer system and executed. As a result, processing for image processing may be performed.
  • the term "computer system” as used herein includes hardware such as an OS and peripheral devices. Further, the “computer system” shall also include a WWW system provided with a homepage providing environment (or display environment). Further, the "computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system.
  • a "computer-readable recording medium” is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line.
  • RAM volatile memory
  • the above program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the "transmission medium” for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the above program may be for realizing a part of the above-mentioned functions.
  • a so-called difference file (difference program) may be used, which can realize the above-mentioned functions in combination with a program already recorded in the computer system.
  • Image processing device 11 Area setting unit 12 Value setting unit 13 Collapse amount calculation unit 14 Polygon calculation unit 15 Area determination unit 16 Value addition unit 17 Storage unit 17a Captured image data 17b Advanced data 17c Area setting data 17d Value setting Data 17e Polygon data 17f Value-added data

Abstract

画像処理装置の倒れこみ算出部は、飛翔体を用いた合成開口レーダによる撮像時の軌道と、地表面に関する高度データから、合成開口レーダによる撮像時の撮像範囲での倒れこみ量を算出する。ポリゴン算出部は、倒れこみ量を用いて撮像範囲における実際の撮像範囲の外周を算出することで、撮像範囲の実際の外周を示すポリゴンを求める。領域判定部は、合成開口レーダにより撮像したエリアにおいて定められた2以上の領域に対し、求めたポリゴンを用いて撮像範囲がいずれの領域に属するか判定を行う。付加価値付与部は、領域判定部による撮像範囲の属する領域の判定結果に応じて、判定された領域に応じて行う処理を、撮像範囲の画像に対して行う。

Description

画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
 本発明は、画像処理装置、画像処理方法及び画像処理用コンピュータプログラムに関する。
 人工衛星等の飛翔体に搭載して移動させることによって、仮想的に大きな開口面として働く合成開口レーダという技術がある。この合成開口レーダにて撮像した画像の活用が進められている。この合成開口レーダによる撮像画像における特徴として、標高の高い地点が手前に写る「倒れこみ」と呼ばれる現象があり、問題となる。関連する技術において、「倒れこみ」の問題を解消する方法として、合成開口レーダにおける撮像画像の各画素の奥行きに基づき撮像画像に対する「倒れこみ」の対策のための画像処理を行い、その後に目的とする画像処理を行うことが特許文献1に開示されている。
日本国特開2015-114147号公報
 ところで、合成開口レーダにより撮像された範囲内に所定の領域を設定し、設定した領域に応じて異なる処理を行うことで、領域毎に異なる付加価値を与えた画像を提供するサービスがある。この際、関連する技術において説明したように、目的とする画像処理を行うために、撮像画像に対して2度の画像処理を行う必要がある。すなわち、「倒れこみ」の問題に対応するために撮像画像に対する1回目の画像処理を行い、1回目の画像処理を行った撮像画像に対して目的とする2回目の画像処理を行う必要があった。そこで本発明は、上述の課題を解決する画像処理装置、画像処理方法及び画像処理用コンピュータプログラムを提供することを目的としている。
 本発明の第1の態様によれば、画像処理装置は、飛翔体を用いた合成開口レーダによる撮像時の軌道と地表面に関する高度データとから前記合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出する倒れこみ算出部と、前記倒れこみ量を用いて前記撮像範囲における実際の撮像範囲の外周を算出することにより前記撮像範囲の実際の外周を示すポリゴンを求めるポリゴン算出部と、前記合成開口レーダにより撮像したエリアにおいて定められた2以上の領域に対し前記ポリゴンを用いて前記撮像範囲がいずれの領域に属するか判定を行う領域判定部と、前記領域判定部による前記撮像範囲の属する領域の判定結果に応じて該判定された領域に応じて行う処理を前記撮像範囲の画像に対して行う付加価値付与部とを備える。
 本発明の第2の態様によれば、画像処理方法は、飛翔体を用いた合成開口レーダによる撮像時の軌道と地表面に関する高度データとから前記合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出し、前記倒れこみ量を用いて前記撮像範囲における実際の撮像範囲の外周を算出することにより前記撮像範囲の実際の外周を示すポリゴンを求め、前記合成開口レーダにより撮像したエリアにおいて定められた2以上の領域に対し前記ポリゴンを用いて前記撮像範囲がいずれの領域に属するか判定を行い、前記撮像範囲の属する領域の判定結果に応じて該判定された領域に応じて行う処理を前記撮像範囲の画像に対して行う。
 本発明の第3の態様によれば、画像処理用コンピュータプログラムは、飛翔体を用いた合成開口レーダによる撮像時の軌道と地表面に関する高度データとから前記合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出し、前記倒れこみ量を用いて前記撮像範囲における実際の撮像範囲の外周を算出することにより前記撮像範囲の実際の外周を示すポリゴンを求め、前記合成開口レーダにより撮像したエリアにおいて定められた2以上の領域に対し前記ポリゴンを用いて前記撮像範囲がいずれの領域に属するか判定を行い、前記撮像範囲の属する領域の判定結果に応じて該判定された領域に応じて行う処理を前記撮像範囲の画像に対して行うことをコンピュータに実行させる。
 これにより、合成開口レーダにより撮像された撮像画像に対して、1回の処理で目的とする付加価値を付けた画像の提供ができるという効果が得られる。
合成開口レーダにおける倒れこみについて説明するための図である。 合成開口レーダにおける倒れこみについて説明するための図である。 合成開口レーダにおける倒れこみについて説明するための図である。 本発明の一実施形態による画像処理装置の機能を示すブロック図である。 本発明の一実施形態による画像処理装置のハードウェア構成を示すブロック図である。 本発明の一実施形態による画像処理装置の処理を示すフローチャートである。 本発明の一実施形態による画像処理装置による領域設定および付加価値設定の一例を示す図である。 本発明の一実施形態による画像処理装置によるポリゴンの算出の一例を示す図である。 本発明の一実施形態による画像処理装置による領域判定の一例を示す図である。 本発明の一実施形態による画像処理装置による領域設定の別の例を示す図である。 本発明の一実施形態による画像処理装置の最小構成を示すブロック図である。
 以下、本発明の一実施形態による画像処理装置について図面を参照して説明する。本発明の一実施形態による画像処理装置の説明に先立ち、図1から図3を用いて、合成開口レーダにより撮像された撮像画像における倒れこみについて説明する。
 まず、合成開口レーダについて説明する。合成開口レーダとは、人工衛星等の飛翔体の移動により、仮想的に大きな開口面として働くレーダのことを言う。合成開口レーダでは、マイクロ波もしくはミリ波と呼ばれる電磁波を対象物に照射し、反射信号を分析して対象物を観測する。
 図1は、合成開口レーダによる撮像画像の倒れこみの原理を説明するための図である。
 なお、以下では、合成開口レーダによる撮像を行うための飛翔体として、人工衛星を例にして説明する。図1では、標高の高い山頂P、低い建造物上の地点Qを含んだ領域を合成開口レーダにより撮像する例を示す。合成開口レーダによる撮像では、電磁波を対象物に照射し、照射から反射信号の受信までの時間を利用して距離を測定する。図1の例では、電磁波の照射から反射信号の受信までの時間は、山頂Pからの方が建造物上の地点Qよりも短い。そのため、合成開口レーダにおいて、地点Qよりも地点Pが近い位置にあると誤認される。結果として、合成開口レーダにより撮像された画像には地点Pが手前にあるように映り、「倒れこみ」と呼ばれる現象が生じる。
 図2に、図1の例における実際の位置関係と、合成開口レーダにおける「倒れこみ」によるずれの一例を示す。図2の上段は、標高の高い山頂Pと低い建造物上の地点Qと実際の位置関係を示す。図2の中段と下段には、合成開口レーダで撮像したときの画像の例を示す。図1で説明した原理より、標高が高い地点(標高の高い山頂P)は図2の中段に示すように人工衛星側に倒れこむように、符号P1の地点に映る。このように、標高が高い地点(標高の高い山頂P)が図2の中段に示すように人工衛星側に倒れこむことは「フォアショートニング」と呼ばれる。更に標高が高い場合にはより大きく倒れこみ、図2の下段に示すように、標高が高い地点(標高の高い山頂P)と低い地点の位置(建造物上の地点Q)の関係が前後して、符号P2の地点に映る。この現象を「レイオーバ」と呼ぶ。
 図3は、「倒れこみ」により、計画している撮像範囲と実際に撮像される範囲とが異なる様子の一例を示す図である。図3において、線で区切った左側を領域A、右側を領域Bとする。
 図3の上段は、合成開口レーダにより右側から領域Aを撮像した例である。図3の上段の例では、計画している撮像範囲31の画像はすべて領域A内にある。しかし、撮像範囲31の画像は「倒れこみ」の影響も含む画像であり、撮像範囲31の画像に対する実際の撮像範囲は斜線で示す範囲32を撮像した画像となる。
 図3の下段の例では、合成開口レーダにより左側から領域Bの一部を含む範囲を撮像しようとした例を示す。
 図3の上段の例では、計画している撮像範囲33の画像は領域Aとともに領域Bの一部を含む。しかし、撮像範囲33の画像は「倒れこみ」の影響も含む画像であり、撮像範囲33の画像に対する実際の撮像範囲は斜線で示す範囲34を撮像した画像となり、実際の撮像範囲はすべて領域Aに含まれる。このように、「倒れこみ」により想定した撮像領域と異なる領域の撮像がなされると、領域判定に影響することになる。
 図4は本発明の一実施形態による画像処理装置1の機能ブロック図である。図4に示されるように、画像処理装置1は、領域設定部11、付加価値設定部12、倒れこみ算出部13、ポリゴン算出部14、領域判定部15、付加価値付与部16、および記憶部17により構成される。記憶部17は、撮像画像データ17aおよび高度データ17bを記憶する。さらに、記憶部17は、画像処理装置1による処理の過程で、領域設定データ17c、付加価値設定データ17d、ポリゴンデータ17e、および付加価値付与データ17fを記憶する。
 記憶部17に記憶される撮像画像データ17aは、合成開口レーダにより撮像された撮像画像に関するデータである。撮像画像は、合成開口レーダにより撮像されたエリアにおける画像であって、複数の撮像範囲の画像から構成される。高度データ17bは、数値標高モデル(DEM:Digital Elevation Model)やジオイド(Geoid)高による地表面に関する高度データである。ここで、「数値標高モデル」とは、地表面の地形をデジタル表現したモデルをいう。「ジオイド高」とは、地球の平均海水面に極めて良く一致する等ジオポテンシャル面に対する高さを言う。
 領域設定部11は、合成開口レーダにより撮像したエリアにて、異なる画像処理により異なる付加価値をつけるため2又は複数の領域を設定する処理を行う。領域設定部11は、設定した領域を、領域設定データ17cとして記憶部17に保存する。
 付加価値設定部12は、領域設定部11で設定された各領域に対して行う付加価値を設定する処理を行う。付加価値設定部12は、領域設定部11で設定され各領域に対して行う付加価値に関する情報を領域と紐づけて、付加価値設定データ17dとして記憶部17に保存する。なお、ここでの「付加価値」とは、撮像画像に対する何らかの加工を意味する。また、「付加価値」とは、付加価値に対応した画像処理となる。
 倒れこみ算出部13は、飛翔体を用いた合成開口レーダによる撮像時の軌道と、地表面に関する高度データ17bとから、合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出する処理を行う。
 ポリゴン算出部14は、倒れこみ算出部13で算出した撮像範囲における倒れこみ量を用いて実際の撮像範囲の外周を算出することにより、撮像範囲の実際の外周を示すポリゴンを求める処理を行う。ポリゴン算出部14は、求めたポリゴンをポリゴンデータ17eとして記憶部17に保存する。
 領域判定部15は、領域設定部11により設定された領域に対し、ポリゴン算出部14で求めたポリゴンを用いて撮像範囲がいずれの領域に属するかの判定を行う。領域判定部15は、この処理において、領域設定データ17cおよびポリゴンデータ17eを用いる。
 付加価値付与部16は、領域判定部15による撮像範囲の属する領域の判定結果に応じて、判定された領域に対して定められた処理を、撮像範囲の画像に対して行う。付加価値付与部16は、領域設定データ17cおよび付加価値設定データ17dを用いて処理を行い、撮像領域の画像に対して処理を行った結果を付加価値付与データ17fとして記憶部17に保存する。
 図5は本発明の一実施形態による画像処理装置1のハードウェア構成を示す図である。
 画像処理装置1は、CPU(Central Processing Unit)51、ROM(Read Only Memory)52、RAM(Random Access Memory)53、HDD(Hard Disk Drive)54、入出力装置55、および通信モジュール56を備える。
 CPU51は、ROM52またはHDD54等の記録媒体に記憶されるプログラムを実行することで、画像処理装置1の各機能を実現する。
 HDD54は、画像処理装置1の機能を実現するため必要となるデータ等も記憶する。
 入出力装置55は、キーボード、マウス、タッチパネル、および表示装置等の機器である。
 通信モジュール56は、ネットワーク接続が必要な際に用いられ、ネットワークに対する通信の制御を行う。
 図6は、本発明の一実施形態による画像処理装置1の処理を示すフローチャートである。以下において、画像処理装置1の動作について図6に示された処理フローを追って説明する。合成開口レーダにより撮像された撮像画像は複数の撮像領域の画像からなる。この撮像領域毎に、または、複数の撮像領域の一部に対して以下に説明するように、倒れこみ算出部13、ポリゴン算出部14、領域判定部15、および付加価値付与部16による処理が行われる。
 領域設定部11は、異なる処理により異なる付加価値をつけるための領域として、合成開口レーダにより撮像したエリアにおいて、2又は複数の領域を設定する処理を行う(ステップS61)。図7は、ステップS61により、合成開口レーダにより撮像したエリアに、領域A・71と領域B・72とを設定した例を示す。図7では、また、合成開口レーダにより撮像した範囲を緯度経度などの位置情報の値を持ったメッシュで分割する例を示している。領域設定部11による領域の設定は、画像処理装置1のユーザインタフェースを介して利用者に設定してもらう、あるいは、別途に設定された領域設定データを取り込むことにより行う。領域設定部11は、設定した領域を、領域設定データ17cとして記憶部17に保存する。
 付加価値設定部12は、領域設定部11で設定した各領域に対して行う処理を定める(ステップS62)。ここで設定する処理は、提供する付加価値に応じた画像処理となる。
 例えば、画像処理の例としては、領域ごとに解像度の異なる画像を提供するための画像処理となる。この場合、高解像度の画像を提供する領域は一般的に付加価値が高く、低解像度の画像を提供する領域は一般的に付加価値が低いことになる。図7は、付加価値設定部12により、領域A・71に対して付加価値Aを示す処理の設定を、領域B・72に対して付加価値Bを示す処理の設定をした例を示す。付加価値設定部12は、各領域に対して行う処理に関する情報を各領域と紐づけて、付加価値設定データ17dとして記憶部17に保存する。
 倒れこみ算出部13は、人工衛星を用いた合成開口レーダによる撮像時の軌道と、地表面に関する高度データとから、合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出する(ステップS63)。ステップS63において、倒れこみ算出部13は、数値標高モデルやジオイド高による地表面に関する高度データを用いたシミュレーションにより「倒れこみ量」を算出する。具体的には、倒れこみ算出部13は、人工衛星の撮像時の軌道より電磁波を照射した際に、地表面からの反射波の到達時間がどのようになるかをシミュレーションすることより、反射波の到達時間を用いた地表面の各地点における見かけ上の位置と実際の位置との差から「倒れこみ量」を算出する。ステップS63の処理は、ポリゴン算出部14での処理を考慮して、画素に相当する単位で行うことが好ましい。
 ステップS63の処理において、人工衛星の軌道に関する情報は、撮像時の人工衛星の軌道に関する計画値を用いてもよいが、撮像後の人工衛星の軌道の実測値を用いることが好ましい。これにより、高精度な「倒れこみ量」の算出が可能となる。結果として、領域判定部15における、領域判定がより正確なものとなる。
 ポリゴン算出部14は、倒れこみ算出部13で算出した倒れこみ量を用いて撮像範囲における実際に撮像範囲の外周を算出することにより、撮像範囲の実際の外周を示すポリゴンを求める(ステップS64)。図8は、ステップS64での処理の一例を示した図である。符号81は、計画した撮像範囲として規定された領域である。符号82は、撮像範囲81に対して、倒れこみ算出部13で算出した倒れこみ量を用いて撮像範囲81における実際の撮像範囲の外周を算出した例である。符号83は、実際の撮像範囲の外周より求めたポリゴンの例である。ポリゴン算出部14は、求めたポリゴンをポリゴンデータ17eとして記憶部17に保存する。
 領域判定部15は、領域設定部11により設定された領域に対し、ポリゴン算出部14で求めたポリゴンを用いて撮像領域がいずれの領域に属するかの判定を行う(ステップS65)。具体的には、領域判定部15は、ステップS61の領域設定部11で設定した領域設定情報に対して、ステップS64のポリゴン算出部14で求めた実際の撮像範囲を示すポリゴンを重ね合わせて領域判定を行う。図9は、ポリゴン91が示す実際の撮像範囲において領域A・81に属するか、領域B・82に属するかの判定の例を説明するための図である。図9の例では、ポリゴン91の大部分が領域Bに属することから、領域判定部15はポリゴン91で示す実際の撮像範囲が領域B・82に属すると判定する。あるいは、領域判定部15は、ポリゴン91が領域A・81と少しでも重なる領域92があることから、ポリゴン91が領域A・81に属すると判断してもよい。
 付加価値付与部16は、領域判定部15による撮像画像の属する領域の判定結果に応じて、判定された領域に対して定められた処理を、撮像画像に対して行う(ステップS66)。図9の例では、ポリゴン91で示す実際の撮像範囲が領域B・82に属すると判定されると、付加価値設定部12で領域Bに対して設定された処理を行う。付加価値付与部16は、撮像画像に対して処理を行った結果を付加価値付与データ17fとして記憶部17に保存する。
 以上のようにして、画像処理装置1は、各撮像領域の画像に対して、領域に応じた付加価値をつけるための処理を行う。このように付加価値を付ける処理を行う前に領域判定を行うことで、領域判定から撮像領域ごとに付加価値をつける画像処理までを、一度の画像処理にて行うことが可能になる。結果として、付加価値を付けた画像に関する製品の提供時間の短縮が可能となるとともに、計算機資源使用の効率化を図ることができる。
 図7の例では、例えば、領域Aの付加価値Aとして高い解像度での画像処理を行い、高価格を設定する。一方、領域Bの付加価値Bは低解像度で価格も安く提供するように設定する。このように製品に差をつけることで、顧客が必要な解像度に応じた価格にて、画像データを顧客に提供することができる。
 また、撮像画像そのものへの画像処理を施さなくとも、製品に差をつけることが可能である。例えば、震災の際に、被災地の範囲を領域Aに設定し、領域Aに属する撮像画像は付加価値Aとして、画像データを切り出す処理をして安価な価格で提供する。その他の領域Bでは付加価値Bとして通常価格を設定することで、価格に差を付け、社会貢献にも役立てることが可能となる。
 領域Aの付加価値Aは即日納品、領域Bの付加価値Bは通常通りの納品と設定し、画像データ提供時間に差をつけることも可能である。
 領域Aは画像処理をしてはいけない制約があった場合でも、画像処理を行う前に領域判定を行うため、実施の形態で説明した画像処理装置1で対応することが可能となる。
 なお、図7の例では、領域A・71及び領域B・72の2種類の領域としているが、領域C、D、・・・を設定し、3種類以上の領域判定を行ってもよい。
 合成開口レーダを搭載する飛翔体は人工衛星のみでなく、航空機、ドローン、飛行船、またはヘリコプター等であってもよい。
 なお、上記一実施形態による画像処理装置1にて求められたポリゴンを用いて、画像を撮像したい・購入したい利用者が、撮像したいあるいは購入したい撮像範囲を選択できるようにしてもよい。すなわち、撮像したいあるいは購入したい撮像範囲の選択を、ポリゴン算出部14で求めたポリゴンを用いて利用者が設定できるようにしてもよい。より具体的には、合成開口レーダで撮像された画像を検索および要求する際のユーザインタフェースにおいて、倒れこみを考慮したポリゴンを基に、撮像したいあるいは購入したい撮像範囲を選択できるユーザインタフェースを設けるようにしてもよい。
 この際、実際の撮像範囲を示すポリゴンの形は、撮像時の飛翔体の軌道や地点の標高情報によって異なり、利用者の求めている範囲・時間ごとに異なる。例えば撮像領域ごとに価格に差があるとき、利用者側は境界ぎりぎりの安価な範囲での画像が欲しい場合も考えられる。その場合、利用者が安価な範囲を矩形による範囲の指定で行うのは難しく、撮像範囲を示すポリゴンを基に、安価になる範囲の境界ぎりぎりの範囲で指定したいと望むことがある。図10に示すように、画面上のカーソルの位置ごと及び時間ごとに、撮像範囲を示すポリゴンも変化していくような表示を行えるようにし、予め倒れこみが考慮された撮像範囲ポリゴンを基に、範囲(領域)を選択できるユーザインタフェースとしてもよい。その際、未来日時が指定された場合は、要求された撮像日時の軌道の計画値を基に、倒れ込みを考慮して、場所指定・時間指定で変化する撮像範囲のポリゴンを作成するようにするとよい。
 なお、一実施形態による画像処理装置1により付加価値をつけたデータは、地球変動監視、災害監視、油田監視、農業、および漁業などの分野において適用可能である。
 図11は、本発明の一実施形態による画像処理装置1の最小構成を示すブロック図である。画像処理装置1は、倒れこみ算出部13、ポリゴン算出部14、領域判定部15、および付加価値付与部16を備える。
 倒れこみ算出部13は、飛翔体を用いた合成開口レーダによる撮像時の軌道と、地表面に関する高度データとから、合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出する。
 ポリゴン算出部14は、算出した倒れこみ量を用いて撮像範囲における実際の撮像範囲の外周を算出することにより、撮像範囲の実際の外周を示すポリゴンを求める。
 領域判定部15は、合成開口レーダにより撮像したエリアにおいて定められた2以上の領域に対し、求めたポリゴンを用いて撮像範囲がいずれの領域に属するか判定を行う。
 付加価値付与部16は、領域判定部15による撮像範囲の属する領域の判定結果に応じて、判定された領域に応じて行う処理を、撮像範囲の画像に対して行う。
 なお、図4における画像処理装置1の各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像処理のための処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 本願は、2019年3月28日に、日本に出願された特願2019-63369号に基づき優先権を主張し、その内容をここに援用する。
1    画像処理装置
11   領域設定部
12   付加価値設定部
13   倒れこみ量算出部
14   ポリゴン算出部
15   領域判定部
16   付加価値付与部
17   記憶部
17a  撮像画像データ
17b  高度データ
17c  領域設定データ
17d  付加価値設定データ
17e  ポリゴンデータ
17f  付加価値付与データ

Claims (6)

  1.  飛翔体を用いた合成開口レーダによる撮像時の軌道と、地表面に関する高度データから、前記合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出する倒れこみ算出部と、
     前記倒れこみ量を用いて前記撮像範囲における実際の撮像範囲の外周を算出することにより、前記撮像範囲の実際の外周を示すポリゴンを求めるポリゴン算出部と、
     前記合成開口レーダにより撮像したエリアにおいて定められた2以上の領域に対し、前記ポリゴンを用いて前記撮像範囲がいずれの領域に属するか判定を行う領域判定部と、
     前記領域判定部による前記撮像範囲の属する領域の判定結果に応じて、該判定された領域に応じて行う処理を、前記撮像範囲の画像に対して行う付加価値付与部と、
     を備える画像処理装置。
  2.  前記倒れこみ算出部は、前記軌道として、前記合成開口レーダによる撮像時の前記飛翔体における軌道の実測値を用いる
     請求項1に記載の画像処理装置。
  3.  前記合成開口レーダにより撮像したエリアにおいて、前記2以上の領域を設定する領域設定部、
     をさらに備える請求項1または請求項2に記載の画像処理装置。 
  4.  前記領域に対して行う画像処理を定める付加価値設定部、
     をさらに備える請求項1から請求項3のいずれか一項に記載の画像処理装置。
  5.  飛翔体を用いた合成開口レーダによる撮像時の軌道と、地表面に関する高度データから、前記合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出し、
     前記倒れこみ量を用いて前記撮像範囲における実際の撮像範囲の外周を算出することにより、前記撮像範囲の実際の外周を示すポリゴンを求め、
     前記合成開口レーダにより撮像したエリアにおいて定められた2以上の領域に対し、前記ポリゴンを用いて前記撮像範囲がいずれの領域に属するか判定を行い、
     前記撮像範囲の属する領域の判定結果に応じて、該判定された領域に応じて行う処理を、前記撮像範囲の画像に対して行う、
     画像処理方法。
  6.  飛翔体を用いた合成開口レーダによる撮像時の軌道と、地表面に関する高度データから、前記合成開口レーダによる撮像時の撮像範囲における倒れこみ量を算出し、
     前記倒れこみ量を用いて前記撮像範囲における実際の撮像範囲の外周を算出することにより、前記撮像範囲の実際の外周を示すポリゴンを求め、
     前記合成開口レーダにより撮像したエリアにおいて定められた2以上の領域に対し、前記ポリゴンを用いて前記撮像範囲がいずれの領域に属するか判定を行い、
     前記撮像範囲の属する領域の判定結果に応じて、該判定された領域に応じて行う処理を、前記撮像範囲の画像に対して行う、
     ことをコンピュータに実行させる画像処理用コンピュータプログラム。
PCT/JP2020/012422 2019-03-28 2020-03-19 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム WO2020196308A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/437,997 US20220179063A1 (en) 2019-03-28 2020-03-19 Image processing device, image processing method, and image processing computer program
JP2021509333A JP7124956B2 (ja) 2019-03-28 2020-03-19 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
EP20779958.6A EP3923236A4 (en) 2019-03-28 2020-03-19 IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019063369 2019-03-28
JP2019-063369 2019-03-28

Publications (1)

Publication Number Publication Date
WO2020196308A1 true WO2020196308A1 (ja) 2020-10-01

Family

ID=72611920

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/012422 WO2020196308A1 (ja) 2019-03-28 2020-03-19 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム

Country Status (4)

Country Link
US (1) US20220179063A1 (ja)
EP (1) EP3923236A4 (ja)
JP (1) JP7124956B2 (ja)
WO (1) WO2020196308A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7319244B2 (ja) * 2020-12-07 2023-08-01 Hapsモバイル株式会社 制御装置、プログラム、システム、及び方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5636085B2 (ja) * 1974-08-20 1981-08-21
JP2004220516A (ja) * 2003-01-17 2004-08-05 Pasuko:Kk 3次元地理形状モデルのテクスチャ画像取得方法
JP2004341422A (ja) * 2003-05-19 2004-12-02 Hitachi Ltd 地図作成装置、地図配信方法及び地図作成プログラム
JP2013171335A (ja) * 2012-02-17 2013-09-02 Hitachi Solutions Ltd 画像処理システム及び画像処理方法
JP2015114147A (ja) 2013-12-10 2015-06-22 三菱電機株式会社 画像合成装置及び画像合成方法
WO2018056129A1 (ja) * 2016-09-20 2018-03-29 日本電気株式会社 情報処理装置、情報処理方法、および記憶媒体
US10222178B1 (en) * 2011-04-13 2019-03-05 Litel Instruments Precision geographic location system and method utilizing an image product
JP2019063369A (ja) 2017-10-03 2019-04-25 花王株式会社 吸収体の製造方法及び吸収体の製造装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2748805B2 (ja) * 1992-10-31 1998-05-13 日本電気株式会社 フォアショートニング歪補正テーブル作成装置
US7089198B2 (en) * 2001-08-21 2006-08-08 Itt Manufacturing Enterprises, Inc. User selectable earth imagery on-line e-commerce and fulfillment system
JP4202184B2 (ja) * 2003-05-12 2008-12-24 三菱電機株式会社 グランドトゥルース支援装置およびグランドトゥルース支援プログラム
DE102009030672B3 (de) * 2009-06-25 2010-08-19 Eads Deutschland Gmbh Verfahren zur Bestimmung der geographischen Koordinaten von Bildpunkten in SAR Bildern
US8842036B2 (en) * 2011-04-27 2014-09-23 Lockheed Martin Corporation Automated registration of synthetic aperture radar imagery with high resolution digital elevation models
US9964653B2 (en) * 2011-12-21 2018-05-08 Technoimaging, Llc Method of terrain correction for potential field geophysical survey data
US9947128B2 (en) * 2013-01-29 2018-04-17 Andrew Robert Korb Methods for improving accuracy, analyzing change detection, and performing data compression for multiple images
JP5636085B1 (ja) * 2013-12-27 2014-12-03 アジア航測株式会社 単偏波sarカラー画像作成装置
US9709673B2 (en) * 2014-04-14 2017-07-18 Vricon Systems Ab Method and system for rendering a synthetic aperture radar image
US20180011187A1 (en) * 2015-02-06 2018-01-11 Mitsubishi Electric Corporation Synthetic-aperture radar signal processing apparatus
US10802135B2 (en) * 2016-12-21 2020-10-13 The Boeing Company Method and apparatus for raw sensor image enhancement through georegistration
US10388006B2 (en) * 2017-05-31 2019-08-20 Institut National D'optique Synthetic aperture imaging assisted by three-dimensional scanning imaging for height reconstruction
CN109166084B (zh) * 2018-09-11 2022-04-22 中南大学 一种基于邻近点梯度关系的sar几何畸变定量模拟方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5636085B2 (ja) * 1974-08-20 1981-08-21
JP2004220516A (ja) * 2003-01-17 2004-08-05 Pasuko:Kk 3次元地理形状モデルのテクスチャ画像取得方法
JP2004341422A (ja) * 2003-05-19 2004-12-02 Hitachi Ltd 地図作成装置、地図配信方法及び地図作成プログラム
US10222178B1 (en) * 2011-04-13 2019-03-05 Litel Instruments Precision geographic location system and method utilizing an image product
JP2013171335A (ja) * 2012-02-17 2013-09-02 Hitachi Solutions Ltd 画像処理システム及び画像処理方法
JP2015114147A (ja) 2013-12-10 2015-06-22 三菱電機株式会社 画像合成装置及び画像合成方法
WO2018056129A1 (ja) * 2016-09-20 2018-03-29 日本電気株式会社 情報処理装置、情報処理方法、および記憶媒体
JP2019063369A (ja) 2017-10-03 2019-04-25 花王株式会社 吸収体の製造方法及び吸収体の製造装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3923236A4

Also Published As

Publication number Publication date
JPWO2020196308A1 (ja) 2021-10-28
EP3923236A1 (en) 2021-12-15
JP7124956B2 (ja) 2022-08-24
US20220179063A1 (en) 2022-06-09
EP3923236A4 (en) 2022-08-24

Similar Documents

Publication Publication Date Title
US20180253424A1 (en) Change Direction Based Map Interface Updating System
US20170243405A1 (en) Systems and Methods for Deriving Spatial Attributes for Imaged Objects Utilizing Three-Dimensional Information
Amante et al. Accuracy of interpolated bathymetry in digital elevation models
CN109359170B (zh) 用于生成信息的方法和装置
US20200218289A1 (en) Information processing apparatus, aerial photography path generation method, program and recording medium
JP7170575B2 (ja) 地すべり面推定装置、及び地すべり面推定方法
CN112069285B (zh) 基于三维高精地图切片的地图生成方法、装置及电子设备
US10733777B2 (en) Annotation generation for an image network
JP2010128622A (ja) ステレオマッチング処理装置、ステレオマッチング処理方法およびプログラム
CN113607185B (zh) 车道线信息显示方法、装置、电子设备和计算机可读介质
CN116628123B (zh) 基于空间数据库的动态切片生成方法和系统
US20190011269A1 (en) Position estimation device, position estimation method, and recording medium
Ressl et al. Evaluation of the elevation model influence on the orthorectification of Sentinel-2 satellite images over Austria
WO2020196308A1 (ja) 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
JP6335731B2 (ja) 管制システム、空域管理装置、管制方法、およびプログラム
JP6806396B1 (ja) 災害予測システム、および災害予測方法
JP7020418B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Jeong et al. Evaluation of the performance of KOMPSAT-3 stereo images in terms of positioning and the generation of digital surface models
JP6362529B2 (ja) 観測要求管理プログラム、観測要求管理方法、および情報処理装置
CN114820967A (zh) 一种分层影像数据实时绘制方法及系统
KR100961875B1 (ko) 수직 비행경로 자동생성 방법
JP7285678B2 (ja) 情報処理装置、及び制御プログラム
CN113705025A (zh) 信息提取与传输方法、装置、电子设备和计算机可读介质
CN111951402A (zh) 三维模型生成方法、装置、计算机设备和存储介质
WO2018211625A1 (ja) 情報処理装置、情報処理方法、プログラムを記憶した記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20779958

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021509333

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2020779958

Country of ref document: EP

Effective date: 20210909

NENP Non-entry into the national phase

Ref country code: DE