WO2020246168A1 - 軌道上物体の直下点位置推定方法 - Google Patents

軌道上物体の直下点位置推定方法 Download PDF

Info

Publication number
WO2020246168A1
WO2020246168A1 PCT/JP2020/017555 JP2020017555W WO2020246168A1 WO 2020246168 A1 WO2020246168 A1 WO 2020246168A1 JP 2020017555 W JP2020017555 W JP 2020017555W WO 2020246168 A1 WO2020246168 A1 WO 2020246168A1
Authority
WO
WIPO (PCT)
Prior art keywords
orbit
point position
point
directly below
image
Prior art date
Application number
PCT/JP2020/017555
Other languages
English (en)
French (fr)
Inventor
伸雄 杉村
泉山 卓
流 篠原
Original Assignee
株式会社Ihi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Ihi filed Critical 株式会社Ihi
Priority to JP2021524705A priority Critical patent/JPWO2020246168A1/ja
Priority to EP20819469.6A priority patent/EP3981693A4/en
Publication of WO2020246168A1 publication Critical patent/WO2020246168A1/ja
Priority to US17/451,881 priority patent/US20220041308A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/242Orbits and trajectories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2205/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S2205/01Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications

Definitions

  • the present disclosure relates to a method for estimating the position of a point directly below an object on an orbit.
  • the present application claims priority based on Japanese Patent Application No. 2019-104291 filed in Japan on June 4, 2019, the contents of which are incorporated herein by reference.
  • Patent Document 1 discloses a method for displaying the position coordinates of a geostationary satellite and a coordinate display device using the method.
  • the position coordinate display of the geostationary satellite is performed by the following procedure. First, a geostationary satellite is photographed together with a star, and the apparent RA / declination value is obtained assuming that the geostationary satellite is present at three or more representative points of the captured image. Furthermore, considering that the observation point position is separated from the direct point position, the apparent RA red latitude value is corrected to the RA red latitude value observed from the direct point, and the corrected representative point Right ascension Declination values are converted to latitude and longitude in the world coordinate system. Using this latitude and longitude, a latitude and longitude scale at the position directly below the captured image is added, and this is displayed together with the captured image of the geostationary satellite.
  • the orbit of the geostationary satellite to be measured is determined by photographing the geostationary satellite together with the star, and the position of the direct point (latitude and longitude) is obtained based on the determined orbit. That is, in Patent Document 1, the orbit determination of the geostationary satellite is indispensable, and the position of the point directly below is obtained based on the orbit of the geostationary satellite. This orbit determination work is complicated, and a simpler method for estimating the position of the direct point is required.
  • the present disclosure has been made in view of the above circumstances, and an object of the present disclosure is to estimate the position of a point directly below an object on the orbit without obtaining an orbit.
  • the method for estimating the position of a point directly below an orbital object includes a photographing step of taking an observation image of the object on the orbit together with a known object whose trajectory is known, and calculating the position of the point directly below the center point of the observed image. It has a first direct point position calculation step and a second direct point position calculation step of calculating the direct point position of the object on the orbit based on the direct point position.
  • the method for estimating the position of the orbital object according to the present embodiment is based on the observed image of the orbital object X taken at a certain point on the earth (observation point Pk).
  • the position P ( ⁇ 1 , ⁇ 1 ) directly below X is obtained.
  • an observation image is acquired using a camera installed at the observation point Pk, and the observation image is subjected to predetermined information processing using a computer to obtain an object X in orbit.
  • the intersection of the perpendicular line connecting the earth and the horizontal plane on the ground surface is acquired as the point position P ( ⁇ 1 , ⁇ 1 ).
  • step S1 The specific procedure for obtaining the point position P ( ⁇ 1 , ⁇ 1 ) directly below is shown in the flowchart of FIG. 1B.
  • the observed image is first acquired (step S1).
  • step S1 a camera for capturing a still image is installed at the observation point Pk to capture the orbital object X.
  • the orbital object X is photographed together with the object whose orbit is known (known object). Note that step S1 corresponds to the photographing step of the present disclosure.
  • the observation image in the present embodiment is a still image in which the orbital object X and the known object are reflected as subjects.
  • Known objects are stars such as the Sun or artificial satellites.
  • step S1 in addition to the orbital object X, an observation image is acquired at the timing when a known object is reflected as a subject.
  • step S2 the direct point position P 0 ( ⁇ 0 , ⁇ 0 ) of the center point in the observed image is subsequently calculated (step S2). That is, in step S2, the image data of the observed image is taken into a computer and calculated with the image center of the observed image having a predetermined resolution and aspect ratio as the center point. Note that step S2 corresponds to the first direct point position calculation step in the present disclosure.
  • the quantity ⁇ is a quantity based on the coordinates (x sat , y sat ) on the observed image of the known orbital object.
  • the radii R x and R y are quantities corresponding to the radii R of the sphere in the stereo projection method, and are the image sizes (width w and height h) of the observed image as shown in the following equations (6) and (7).
  • the angle of view of the camera angle of view ⁇ in the width direction and angle of view ⁇ in the height direction).
  • the image size (width w and height h) of the observed image is stored in advance in a storage device provided in the computer.
  • the angle of view of the camera is measured by a tachometer provided on a tripod or the like of the camera. That is, the angle of view ⁇ in the width direction and the angle of view ⁇ in the height direction are quantities obtained as measured values of the tachometer.
  • the angle of view ⁇ in the width direction and the angle of view ⁇ in the height direction are input to the computer by operating an input device (for example, a keyboard) provided in the computer.
  • the computer uses the image size (width w and height h) of the observed image stored in advance in the storage device and the angle of view of the camera (angle of view ⁇ in the width direction and angle of view ⁇ in the height direction) input from the input device.
  • the radii R x and R y are calculated based on.
  • the computer calculates the quantity ⁇ based on the coordinates (x sat , y sat ) on the observed image.
  • the computer the radius R x may thus calculated, the R y and the amount ⁇ Equation (3), to calculate the amount c x, c y by substituting the (4). Furthermore, the amount c x calculated in this way, c y, coordinates (x sat, y sat) and Formula latitude ⁇ and latitude ⁇ at the nadir position of a known trajectory object (1), by substituting (2) The position P 0 ( ⁇ 0 , ⁇ 0 ) directly below the center point of the observed image is calculated by.
  • the direct point position P 0 ( ⁇ 0 , ⁇ 0 ) with respect to the center point of the observed image calculated in this way is used to obtain the direct point position P of the in-orbit object X.
  • step S3 by substituting the direct point position P 0 ( ⁇ 0 , ⁇ 0 ) calculated based on the equations (1) and (2) into the following equations (8) and (9), it is on the orbit.
  • the latitude ⁇ 1 and the longitude ⁇ 1 at the point directly below the object X are calculated.
  • step S3 corresponds to the second direct point position calculation step in the present disclosure.
  • the latitude ⁇ and the longitude ⁇ at the position directly below the known orbital object, the coordinates (x sat , y sat ) and the observation of the known orbital object on the observed image are performed without finding the orbit of the orbital object X. It is possible to estimate the position of the point directly below the object X in the orbit based on the image size of the image and the angle of view of the camera.
  • the present disclosure can be applied to the estimation of the position of the point directly below the object on the orbit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

この軌道上物体の直下点位置推定方法は、軌道が既知な既知物体と共に軌道上物体(X)の観測画像を撮影する撮影工程と、観測画像の中心点に対する直下点位置を算出する第1の直下点位置算出工程と、直下点位置に基づいて軌道上物体の直下点位置Pを算出する第2の直下点位置算出工程と、を有する。

Description

軌道上物体の直下点位置推定方法
 本開示は、軌道上物体の直下点位置推定方法に関する。
 本願は、2019年6月4日に日本に出願された特願2019-104291号に基づき優先権を主張し、その内容をここに援用する。
 下記特許文献1には、静止衛星の位置座標表示方法およびそれを用いた座標表示装置が開示されている。特許文献1においては、静止衛星の位置座標表示が以下の手順にて行われる。まず、静止衛星を恒星とともに撮影し、その撮像画像の3以上の複数の代表点に静止衛星があるものとして見かけの赤経赤緯値を求める。さらに観測地点位置が直下点位置から離間していることを考慮して、それらの見かけの赤経赤緯値を直下点から観測した赤経赤緯値に補正し、この補正された代表点の赤経赤緯値を世界座標系の経緯度に変換する。この経緯度を用いて撮像画像に直下点位置の経緯度目盛をつけ、これを静止衛星の撮像画像とともに表示する。
日本国特開2008-36009号公報
 特許文献1においては、静止衛星を恒星とともに撮影することにより測定対象である静止衛星の軌道を決定し、この決定した軌道に基づいて直下点位置(緯度及び経度)を求める。すなわち、特許文献1においては、静止衛星の軌道決定を必須とし、静止衛星の軌道に基づいて直下点位置を求める。この軌道決定の作業は煩雑であり、より簡便な直下点位置の推定方法が求められている。
 本開示は、上述した事情に鑑みてなされたものであり、軌道を求めることなく軌道上物体の直下点位置を推定することを目的とするものである。
 本開示の一態様の軌道上物体の直下点位置推定方法は、軌道が既知な既知物体と共に軌道上物体の観測画像を撮影する撮影工程と、前記観測画像の中心点に対する直下点位置を算出する第1の直下点位置算出工程と、前記直下点位置に基づいて前記軌道上物体の直下点位置を算出する第2の直下点位置算出工程とを有する。
 本開示によれば、軌道を求めることなく軌道上物体の直下点位置を推定することが可能である。
本開示の一実施形態に係る軌道上物体の直下点位置推定方法を示す模式図である。 本開示の一実施形態に係る軌道上物体の直下点位置推定方法を示すフローチャートである。
 以下、図面を参照して、本開示の一実施形態について説明する。
 本実施形態に係る軌道上物体の直下点位置推定方法は、図1Aに示すように、地球上のある地点(観測地点Pk)で撮影された軌道上物体Xの観測画像に基づいて軌道上物体Xの直下点位置P(λ,φ)を求めるものである。
 本実施形態の直下点位置推定方法は、観測地点Pkに設置されたカメラを用いて観測画像を取得し、この観測画像にコンピュータを用いた所定の情報処理を施すことにより、軌道上物体Xと地球とを結ぶ垂線と地表における水平面との交点を直下点位置P(λ,φ)として取得する。
 直下点位置P(λ,φ)を求めるための具体的な手順を、図1Bのフローチャートに示す。本実施形態の直下点位置推定方法では、最初に観測画像を取得する(ステップS1)。ステップS1では、静止画を撮影するカメラを観測地点Pkに設置して軌道上物体Xを撮影する。この際に、軌道が既知の物体(既知物体)と共に軌道上物体Xを撮影する。なお、ステップS1は、本開示の撮影工程に相当する。
 すなわち、本実施形態における観測画像は、軌道上物体Xと既知物体とが被写体として映り込んでいる静止画像である。既知物体は、例えば太陽等の恒星あるいは人工衛星である。ステップS1では、軌道上物体Xに加えて、既知物体が被写体として映り込むタイミングで観測画像を取得する。
 本実施形態の直下点位置推定方法では、続いて観測画像における中心点の直下点位置P(λ,φ)を算出する(ステップS2)。すなわち、ステップS2では、観測画像の画像データをコンピュータに取り込み、所定の解像度及びアスペクト比を有する観測画像の画像中心を中心点として算出する。なお、ステップS2は、本開示における第1の直下点位置算出工程に相当する。
 ここで、直下点位置P(λ,φ)における緯度λ及び経度φは、観測画像に映り込んでいる既知軌道物体の観測画像上における座標(xsat,ysat)を用いることにより下式(1)、(2)のように表される。なお、式(1)における「λ」は既知軌道物体の直下点位置における緯度であり、式(2)における「φ」は既知軌道物体の直下点位置における経度である。
Figure JPOXMLDOC01-appb-M000001
 また、上式(1)、(2)における「c」,「c」は、下式(3)、(4)に示すように、半径R,R及び座標(xsat,ysat)に基づく量ρによって表される。
Figure JPOXMLDOC01-appb-M000002
 なお、量ρは、下式(5)に示すように、既知軌道物体の観測画像上における座標(xsat,ysat)に基づく量である。また、半径R,Rは、ステレオ投影法における球の半径Rに相当する量であり、下式(6),(7)に示すように観測画像の画像サイズ(幅w及び高さh)及びカメラの画角(幅方向の画角α及び高さ方向の画角β)から計算される。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 ここで、観測画像の画像サイズ(幅w及び高さh)は、コンピュータに備えられた記憶装置に予め記憶されている。また、カメラの画角は、カメラの三脚等に設けられた回転計によって計測される。すなわち、幅方向の画角α及び高さ方向の画角βは、回転計の計測値として得られる量である。幅方向の画角α及び高さ方向の画角βは、コンピュータに備えられた入力装置(例えばキーボード)を操作することによってコンピュータに入力される。
 コンピュータは、記憶装置に予め記憶された観測画像の画像サイズ(幅w及び高さh)及び入力装置から入力されたカメラの画角(幅方向の画角α及び高さ方向の画角β)に基づいて半径R,Rを算出する。また、コンピュータは、観測画像上における座標(xsat,ysat)に基づいて量ρを算出する。
 そして、コンピュータは、このようにして算出した半径R,R及び量ρを式(3),(4)に代入することによって量c,cを計算する。さらに、このようにして算出した量c,c、座標(xsat,ysat)及び既知軌道物体の直下点位置における緯度λ及び経度φを式(1),(2)に代入することによって、観測画像の中心点に対する直下点位置P(λ,φ)を算出する。
 本実施形態の直下点位置推定方法では、このようにして算出された観測画像の中心点に対する直下点位置P(λ,φ)を用いることにより、軌道上物体Xの直下点位置P(λ,φ)を算出する(ステップS3)。
 すなわち、ステップS3では、式(1),(2)に基づいて計算された直下点位置P(λ,φ)を下式(8),(9)に代入することにより、軌道上物体Xの直下点における緯度λ及び経度φを算出する。なお、ステップS3は、本開示における第2の直下点位置算出工程に相当する。
Figure JPOXMLDOC01-appb-M000005
 本実施形態によれば、軌道上物体Xの軌道を求めることなく、既知軌道物体の直下点位置における緯度λ及び経度φ、観測画像上における既知軌道物体の座標(xsat,ysat)及び観測画像の画像サイズ及びカメラの画角に基づいて、軌道上物体Xの直下点位置を推定することが可能である。
 本開示は、軌道上物体の直下点位置の推定に適用することができる。
 X 軌道上物体
 Pk 観測地点
 P 直下点位置

Claims (1)

  1.  軌道が既知な既知物体と共に軌道上物体の観測画像を撮影する撮影工程と、
     前記観測画像の中心点に対する直下点位置を算出する第1の直下点位置算出工程と、
     前記直下点位置に基づいて前記軌道上物体の直下点位置を算出する第2の直下点位置算出工程と
     を有する軌道上物体の直下点位置推定方法。
PCT/JP2020/017555 2019-06-04 2020-04-23 軌道上物体の直下点位置推定方法 WO2020246168A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021524705A JPWO2020246168A1 (ja) 2019-06-04 2020-04-23 軌道上物体の直下点位置推定方法
EP20819469.6A EP3981693A4 (en) 2019-06-04 2020-04-23 METHOD OF ESTIMATING A POSITION JUST BELOW A POINT OF AN OBJECT IN ORBIT
US17/451,881 US20220041308A1 (en) 2019-06-04 2021-10-22 Method for estimating right-under point position of on-orbit object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-104291 2019-06-04
JP2019104291 2019-06-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/451,881 Continuation US20220041308A1 (en) 2019-06-04 2021-10-22 Method for estimating right-under point position of on-orbit object

Publications (1)

Publication Number Publication Date
WO2020246168A1 true WO2020246168A1 (ja) 2020-12-10

Family

ID=73652096

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/017555 WO2020246168A1 (ja) 2019-06-04 2020-04-23 軌道上物体の直下点位置推定方法

Country Status (4)

Country Link
US (1) US20220041308A1 (ja)
EP (1) EP3981693A4 (ja)
JP (1) JPWO2020246168A1 (ja)
WO (1) WO2020246168A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002220099A (ja) * 2001-01-26 2002-08-06 National Aerospace Laboratory Of Japan Mext 飛翔物体の自働監視・検出方法と装置
JP2006036009A (ja) * 2004-07-27 2006-02-09 National Institute Of Information & Communication Technology 静止衛星の位置座標表示方法およびそれを用いた座標表示装置
JP2008036009A (ja) 2006-08-03 2008-02-21 Zojirushi Corp 電気湯沸し器
JP2019104291A (ja) 2017-12-09 2019-06-27 株式会社Alfa 車両引上装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3037284A (en) * 1960-10-17 1962-06-05 Gen Precision Inc Self-contained celestial navigation device
US7023536B2 (en) * 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US8386099B2 (en) * 2010-02-05 2013-02-26 Applied Defense Solutions Method and apparatus for initial orbit determination using high-precision orbit propagation and maneuver modeling
US9544488B2 (en) * 2013-05-14 2017-01-10 The Charles Stark Draper Laboratory, Inc. Star tracker with steerable field-of-view baffle coupled to wide field-of-view camera
US9499285B2 (en) * 2013-06-28 2016-11-22 Darren D. Garber Three dimensional imaging arrangement
KR101806402B1 (ko) * 2016-06-17 2017-12-07 한국항공우주연구원 인공 위성을 제어하는 방법
US10909366B2 (en) * 2019-02-28 2021-02-02 Orbital Insight, Inc. Joint modeling of object population estimation using sensor data and distributed device data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002220099A (ja) * 2001-01-26 2002-08-06 National Aerospace Laboratory Of Japan Mext 飛翔物体の自働監視・検出方法と装置
JP2006036009A (ja) * 2004-07-27 2006-02-09 National Institute Of Information & Communication Technology 静止衛星の位置座標表示方法およびそれを用いた座標表示装置
JP2008036009A (ja) 2006-08-03 2008-02-21 Zojirushi Corp 電気湯沸し器
JP2019104291A (ja) 2017-12-09 2019-06-27 株式会社Alfa 車両引上装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3981693A4

Also Published As

Publication number Publication date
US20220041308A1 (en) 2022-02-10
EP3981693A4 (en) 2023-06-21
EP3981693A1 (en) 2022-04-13
JPWO2020246168A1 (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
JP4448187B2 (ja) 映像の幾何補正方法およびその装置
US9083859B2 (en) System and method for determining geo-location(s) in images
KR100647807B1 (ko) 그림자 분석을 통한 3차원 건물정보 추출방법
US7446768B2 (en) Virtual image display apparatus and method using calibrated measurement of attitude sensor
KR101285360B1 (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
US11508030B2 (en) Post capture imagery processing and deployment systems
US20060215027A1 (en) Picked-up image display method
JP5134784B2 (ja) 空中写真測量方法
JPH11252440A (ja) 画像を整列させて目標点にカメラを固定する方法及び装置
JP2009210875A (ja) 天体観測装置
CN104581144A (zh) 一种星载线阵推扫相机全视场积分时间确定方法
US20140286537A1 (en) Measurement device, measurement method, and computer program product
CN102279001B (zh) 一种星载相机的相移补偿方法
JP2017191022A (ja) 三次元点群データに実寸法を付与する方法とそれを用いた管路等の位置測定
CN115183669A (zh) 一种基于卫星图像的目标定位方法
Owen Jr et al. Optical navigation preparations for New Horizons Pluto flyby
CN106289236A (zh) 一种利用ccd天顶望远镜观测数据解算地球自转参数的方法
Savoy et al. Geo-referencing and stereo calibration of ground-based whole sky imagers using the sun trajectory
WO2020246168A1 (ja) 軌道上物体の直下点位置推定方法
US7421151B2 (en) Estimation of coefficients for a rational polynomial camera model
JP2016223934A (ja) 位置補正システム、位置補正方法、および位置補正プログラム
JP5885974B2 (ja) 空中写真画像データの対応点設定方法及び対応点設定装置並びに対応点設定プログラム
EP3591609B1 (en) Horizontal calibration method and system for panoramic image or video, and portable terminal
JP5409451B2 (ja) 3次元変化検出装置
Deltsidis et al. Orthorectification of World View 2 stereo pair using a new rigorous orientation model

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20819469

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021524705

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020819469

Country of ref document: EP

Effective date: 20220104