KR100597529B1 - 기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는방법 - Google Patents

기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는방법 Download PDF

Info

Publication number
KR100597529B1
KR100597529B1 KR1020050103817A KR20050103817A KR100597529B1 KR 100597529 B1 KR100597529 B1 KR 100597529B1 KR 1020050103817 A KR1020050103817 A KR 1020050103817A KR 20050103817 A KR20050103817 A KR 20050103817A KR 100597529 B1 KR100597529 B1 KR 100597529B1
Authority
KR
South Korea
Prior art keywords
image
target
reference point
information
target area
Prior art date
Application number
KR1020050103817A
Other languages
English (en)
Inventor
박경열
Original Assignee
공간정보기술 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 공간정보기술 주식회사 filed Critical 공간정보기술 주식회사
Priority to KR1020050103817A priority Critical patent/KR100597529B1/ko
Application granted granted Critical
Publication of KR100597529B1 publication Critical patent/KR100597529B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B3/00Measuring instruments characterised by the use of mechanical techniques
    • G01B3/02Rulers with scales or marks for direct reading
    • G01B3/04Rulers with scales or marks for direct reading rigid
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • G01C15/06Surveyors' staffs; Movable markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 기준점 측량을 하지 않고 근거리 다중영상으로부터 3차원 정보를 취득하는 방법에 관한 것이다. 보다 구체적으로, 본 발명은 근거리 사진측량에 있어서 고가의 정밀 측량장비를 사용하지 않고, 대상지역에 설치한, 눈금이 표시된 타겟 또는 표척이 사진 또는 영상에 함게 촬영되도록 함으로써, 기준점 측량을 하지 않고 타겟 또는 표척으로부터 기준점 정보를 취득할 수 있는 방법에 관한 것이다. 이를 위해, 본 발명에서는 표척 또는 측정용 타겟을 대상지역에 설치하고, 이 표척 또는 타겟을 포함하는 대상지역에 대한 다중영상을 촬영하여 영상획득과 동시에 영상에 나타난 표척 또는 측정용 타겟을 이용하여 기준점 정보로 사용하게 된다. 이는 현지에서 기준점 측량을 하지 않고 대상지역의 기준점 정보를 얻는 방법이며, 이렇게 취득한 기준점 정보와 기존의 광속조정법을 이용하여 대상지역의 3차원 좌표를 취득할 수 있게 된다.
입체영상, 3차원 정보, 기준정보, 근거리 사진측량, 광속조정법

Description

기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는 방법{A method of acquiring 3-dimensional coordinates of short range multiple images without surveying reference points}
도1은 공선조건을 설명하기 위한 도면.
도2는 대상지역에 표척을 설치한 모습을 나타내는 도면.
도3은 대상지역에, 눈금이 있는 타겟을 설치한 모습을 나타내는 도면.
도4는 눈금이 표시된 타겟의 다양한 형태의 예시도.
도5는 표척 또는 타겟 설치에 의한 다중영상 취득의 방법을 나타내는 도면.
도6은 식별용 타겟(30)을 부착설치하여 촬영하는 것을 설명하기 위한 개념도.
도7은 템플릿(Template)을 동일한 지역을 촬영한 두 영상에서 이동시키면서, 찾고자 하는 기준점 정보인 절대좌표와 영상좌표를 취득하는 개념을 설명하기 위한 도면.
도8은 최소제곱정합에 의한 template 매칭을 설명하기 위한 도면.
본 발명은 기준점 측량을 하지 않고 근거리 다중영상으로부터 3차원 정보를 취득하는 방법에 관한 것이다. 보다 구체적으로, 본 발명은 근거리 사진측량에 있어서 고가의 정밀 측량장비를 사용하지 않고, 대상지역에 설치한, 눈금이 표시된 타겟 또는 표척이 사진 또는 영상에 함게 촬영되도록 함으로써, 기준점 측량을 하지 않고 타겟 또는 표척으로부터 기준점 정보를 취득할 수 있는 방법에 관한 것이다.
종래의 근거리 사진측량 방법에서는 기준점 정보를 획득하기 위하여 토탈스테이션(total station) 또는 정밀 데오돌라이트(theodolite)에 의한 기선 그리고 대상물의 기준점 측량을 실시하고, 측정용 카메라 또는 비측정용(일반용) 카메라가 취득한 영상을 해석하여 3차원 정보를 취득하였다.
일반적으로 사진측량에서는 중복촬영한 입체사진 또는 입체영상을 이용하여 대상지역을 임의의 모델공간상에 3차원으로 구성하게 된다. 이렇게 모델공간상에 구성한 3차원 모델은 실세계 좌표계가 아니므로, 실세계 좌표계로의 좌표변환이 필요하다. 따라서 임의의 모델공간 좌표계에서 지상 또는 대상공간상의 좌표계로의 변환을 위해서 기준점 정보가 필요하게 된다. 기준점 정보를 이용하여 3차원 좌표변환을 함으로써, 7개의 매개변수(3개의 회전요소, 3개의 원점이동요소, 1개의 축척요소)를 구하게 된다. 7개의 매개변수를 구하기 위해서는 최소 3개의 지상 기준점이 필요하다.
종래의 근거리 사진측량에서는 이러한 기준점 정보를 획득하기 위해서 기준점 측량을 실시한다. 토탈스테이션과 같은 측량기를 대상공간의 임의의 점에 설치하고 대상지역에 타겟을 설치하여 측량함으로써, 토탈스테이션의 위치로부터 타겟 의 3차원 위치를 구할 수 있다. 이렇게 구한 타겟의 3차원 위치가 기준점 정보가 되며, 이를 이용하여 대상지역을 촬영한 입체영상으로부터 3차원 실세계 좌표를 획득할 수 있게 된다.
그러나 이는 절대좌표의 취득과 정확한 상대적 위치를 결정하는 일반적인 방법이었지만 정밀측량기를 설치하기가 불가능한 지역에서는 3차원 좌표를 취득할 수 없었다. 특히, 카메라의 촬영 위치를 결정하기 어려운 절토 사면, 절벽, 그리고 차량이 빈번히 다니는 도로 사면에 장시간 측량기를 세워서 측량하는 것은 거의 불가능한 상황이다. 또한 이러한 측량용 장비는 경험이 많은 전문가가 측량을 해야 하기 때문에 사용상의 한계성을 가지고 있었다.
이에 본 발명자는 일반적인 근거리 사진측량 및 기준점 측량을 활용해야 했던 기존의 3차원 정보 취득 방법을 탈피하여, 적용하기 매우 어려운 현장에서도 용이하게 3차원 기준점 정보를 취득할 수 있는 방법을 연구하여 본 발명을 완성하게 되었다. 본 발명의 주요 특징은 영상을 취득하는 위치에 대한 측량성과 없이 실제 대상물의 영상을 일반 카메라로 취득하고 정밀 측량기에 의하여 기준점을 측량하지 않고도 3차원 정보를 획득하는 방법에 있다.
이를 위해, 본 발명에서는 표척 또는 측정용 타겟을 대상지역에 설치하고, 이 표척 또는 타겟을 포함하는 대상지역에 대한 다중영상을 촬영하여 영상획득과 동시에 영상에 나타난 표척 또는 측정용 타겟을 이용하여 기준점 정보로 사용하게 된다. 이는 현지에서 기준점 측량을 하지 않고 대상지역의 기준점 정보를 얻는 방 법이며, 이렇게 취득한 기준점 정보와 기존의 광속조정법을 이용하여 대상지역의 3차원 좌표를 취득할 수 있게 된다.
<발명 사상의 개요>
일반적으로 근거리 사진측량에서는 대상지역에서 기준점 측량을 위한 타겟을 설치하고, 정밀측량기에 의해 타겟의 3차원 대상공간의 좌표를 획득하여 다중영상 해석에 필요한 기준점 정보로 사용하게 된다. 광속조정법에 의한 다중영상 해석에서 기준점 정보를 이용하여 카메라 투영중심 요소를 계산하고 대상공간상의 임의의 점에 대한 3차원 좌표를 결정할 수 있기 때문에, 기준점 측량은 중요한 과정 중에 하나이다.
본 발명에서는 이러한 기준점 측량 대신에 기준점 정보를 얻기 위한 방법으로서, 여러 개의 표척(10) 또는 눈금이 표시된 타겟(100)을 대상지역에 설치하고(도2와 도3 참조) 카메라(200)로 위치의 편차를 두고 다중 촬영하여 다중 영상을 취득한다(도5). 즉, 본 발명에서는 앞에서 설명한 측량장비를 이용하여 대상지역에서 직접 기준점 측량을 실시하지 않고, 눈금이 표시된 타겟이나 표척을 대상지역에 설치하고 이를 촬영한 영상으로부터 대상지역의 임의의 위치에 대한 3차원 정보를 취득하는 것이다. 눈금이 표시된 타겟(100)의 임의의 점을 원점으로 설정하게 되면, 눈금을 따라 특정 위치의 좌표를 취득할 수 있게 때문에 대상지역의 다수의 기준점 정보를 취득할 수 있게 된다. 따라서 기존의 기준점 측량에서 보여준 바와 같이 전문적인 측량 장비를 필요로 하지 않으며, 영상 획득과 동시에 기준점 정보를 획득할 수 있게 된다.
눈금이 표시된 타겟(100)은 일반 측량장비인 표척과 같이 임의의 점에 대한 위치를 측량하기 위하여 고안된 것으로서, 단순히 대상지역의 좌표 측정이 가능하면 되기 때문에 일반 표척으로도 사용할 수 있다. 이 밖에도, 상기 타겟(100) 대신에, 실제 거리와 위치를 측량할 수 있고 대상지역에 설치가능한 장비이면 무엇이든지 사용가능하다. 도4는 눈금이 표시된 타겟(100)의 다양한 형태를 예시하고 있다. 눈금이 표시된 타겟(100)은 도4에서와 같이, 대상지역의 범위에 따라 다양한 형태와 크기로 제작 가능하며, 최소한 3점의 기준점 정보를 얻을 수 있는 형태로 제작되어야 한다. 한편, 수준측량에서 사용되는 표척(도2의 10번 참조)도 "L"자 형태로 설치함으로써, 최소한 3점의 정보를 얻을 수 있다.
<발명의 작용>
보다 구체적으로 본 발명의 작용에 대해 설명하면, 도2에서와 같이 기존의 표척(10)을 대상공간에 "L"자 형태로 설치하고 이 상태에서 대상공간을 다중촬영하여 다중 영상을 획득한다. 촬영된 영상에 있는 표척(10)의 교차점을 원점(0,0,0)으로 삼아 이 원점으로부터 3차원 정보를 얻기 위한 컴퓨팅 처리에 필요한 다수의 기준점(X,Y,Z) 정보를 얻는다. 또는, 도3에서와 같이 눈금이 표시된 삼각형 타겟(100)을 대상공간에 설치하고 카메라로 촬영한 영상으로부터, 삼각형 타겟(100)의 일꼭지점을 원점(0,0,0)으로 삼아 필요한 기준점(X,Y,Z) 정보를 얻는다. 원점으로부터 소정 거리 떨어져 있는 다수의 기준점 정보를 얻는 작업은, 도5에서와 같이 대상공간을 다수 구획하여 카메라(200)로 다중 촬영하여 얻어진 다중 영상에서 이루어진다. 획득된 다중영상에는 표척(10) 또는 눈금이 표시된 타겟(100)의 영상이 나타나기 때문에 기준점의 영상좌표 취득이 가능하다. 따라서 광속조정법을 해석하기 위한 기준점 정보를 획득할 수 있는 것이다.
앞에서 설명한 것과 같이, 종래의 방법에서는 기준점 측량을 통해서 대상지역의 특이점 또는 타겟의 3차원 좌표를 취득하고, 사진 또는 영상에 나타난 특이점 또는 타겟의 사진좌표를 관측함으로써 기준점 정보를 취득하였던 반면에, 본 발명에서는 눈금이 표시된 타겟 또는 표척을 대상지역에 설치하고 사진 또는 영상을 취득하기 때문에, 사진 또는 영상에서 직접 3차원 대상공간 좌표와 사진좌표를 취득할 수 있다. 또한 다중영상 촬영에 의해서, 대상지역에 설치한, 눈금이 표시된 타겟 또는 표척이 사진 또는 영상에 함게 나타나기 때문에, 기준점 측량을 하지 않고 타겟 또는 표척으로부터 기준점 정보를 취득할 수 있게 된다.
실제적으로 사진측량에서 가장 기본이 되는 조건은 공선조건이다. 이는 카메라의 투영중심과 사진상의 한 점 그리고, 대상공간상의 점이 일직선상에 존재한다는 것이다. 따라서 대상공간상에 존재하는 특이점 또는 타겟에 대한 3차원 좌표를 취득하고, 측량된 지상 기준점의 사진좌표를 관측하여 수학모델에 적용함으로써 원하는 해를 구할 수 있게 된다. 즉, 측량된 지상기준점의 3차원 좌표와 지상기준점에 대한 사진상의 좌표가 바로 기준점 정보가 되는 것이다. 본 발명에서는 눈금이 표시된 타겟 또는 표척을 대상공간상에 설치한 후에 촬영을 수행하기 때문에, 획득된 영상으로부터 타겟 또는 표척 상에 존재하는 임의의 점의 3차원 좌표를 눈금으 로부터 확인할 수 있고, 그러한 점이 사진상에 나타나기 때문에 사진좌표를 관측함으로써 기준점 정보를 획득할 수 있는 것이다.
참고로, 본 발명에 의해 획득한 기준점 정보를 해석하여 3차원 좌표를 얻기 위해 적용가능한 이론인 광속조정법은 공지된 이론이다. 최소제곱법을 이용한 광속조정법의 목적은 최소의 기준점 측량성과를 이용하여 블록을 구성하는 모든 사진에 대한 투영중심의 위치요소와 자세요소를 결정하고, 사진상에서 관측된 모든 점들의 대상공간 좌표에 대한 최확치를 결정하고자 하는 것이다.
<영상으로부터 기준정보를 자동으로 추출하는 방법>
상술한 본 발명의 사상을 구현하는데 있어서는 영상으로부터 기준정보를 자동으로 추출해야 하는바, 이하 이에 대해서 상세히 설명한다. 기준정보 추출 방법은 다음과 같은 단계로 진행된다. 1) 사전정보 입력(작성된 Template 입력), 2) 영상매칭(최소제곱정합법에 의한 Template 매칭), 3) 영상에서의 기준정보 추출(기준점의 3차원 좌표와 모든 영상에서 기준정보의 영상 좌표 취득)
1) 사전정보 입력(작성된 Template 입력)
부언설명하자면, 앞에서 설명한 것과 같이 대상공간을 촬영시에, 표척 또는 눈금이 있는 타겟(10)에서 자동으로 좌표를 추출하고자 하는 위치에 도6과 같이 식별용 타겟(30)을 부착설치한 후 촬영한다. 이렇게 촬영을 하면 자연스럽게 영상에 표척과 동시에 식별용 타겟이 나타나게 된다. 영상에 식별용 타겟이 나타나기 때문 에 영상정합 알고리즘에 의해서 식별용 타겟의 위치를 컴퓨터가 자동으로 인식할 수 있게 되는 것이다.
식별용 타겟(30)은 추출하고자 하는 위치를 표시하는 기호(301)와 추출하고자 하는 위치의 식별을 위한 표식(302)으로 구성된다. 따라서 사전에 입력해 놓은 식별용 타겟(30)의 정보를 선택하게 된다. 식별용 타겟(30)의 정보에는 각 표식의 좌표값이 입력되어 있으며, 컴퓨터에서 영상정합법에 의하여 이를 자동으로 인식하여 영상에서의 기준점 정보로 선택하게 된다. 도6에서 "30"은 식별용 타겟의 template 영상, 즉, 촬영된 영상에서 기준점 정보를 찾기 위한 목적으로 template 매칭을 하기 위하여 사전 입력된 기준영상이다.
2) 영상정합(매칭)
영상정합은 동일한 지역을 촬영한 두 영상에서 동일한 지점인 공액점을 찾는 방법으로서 여기서 사용가능한 방식으로는 영역기준정합을 들 수 있다. 영역기준정합은 밝기값 요소를 이용하여 복수의 영상에서 동일한 점(공액점)을 찾는 방법 중의 하나이다. 즉, 영역기준정합의 기본 개념은 영상 소구역이라고 부르는 작은 부영상의 밝기값 분포를 또 하나의 영상의 밝기값과 비교를 하는 것이다.
영역기준정합 방법에 최소제곱정합법이라는 것이 있다. 이 최소제곱정합법은 단순히 복수의 영상으로부터 공액점을 찾는 것인데, 본 발명에서는 좌표를 획득하고자 하는 기준점을 찾고자 하는 것이기 때문에 앞 단계에서 이미 식별용 타겟의 template 영상을 컴퓨터에 입력해 놓은 상태에서 입력된 template 영상을 이용하여 촬영된 영상에서 나타나는 기준점을 찾게 된다. 즉, 이미 입력되어 있는 Template을 동일한 지역을 촬영한 두 영상에서 이동시키면서, 찾고자 하는 기준점 정보인 절대좌표와 영상좌표를 취득하게 된다(도7 참조). 도7은, 촬영된 영상에서 기준점 정보를 찾기 위한 목적으로 template 매칭(정합)을 하는 것을 보여주는 도면이고, 도8은 최소제곱정합에 의한 template 매칭을 설명하기 위한 도면이다.
도8에서 보는 바와 같이 template(기준영상)의 크기가 11x11이라고 하였을 경우, 탐색영상에서 11x11 크기의 소영상을 추출하고 소영상의 중심으로부터 같은 위치에 있는 화소값의 차이를 기준영상과 비교한다. 그 차이가 최소가 될 때까지 위치를 이동해 가면서 공액점을 찾는 것이 template 매칭방법이다. 실제적으로, 기준영상의 화소값은 컴퓨터에 저장되어 있으며, 탐색영상에서 기준영상의 크기만큼 소영상을 추출하고 기준영상과 같은 위치의 저장된 화소값의 차이를 비교하는 것이다. 만약 11x11의 기준영상과 탐색영상에서 추출된 11x11 소영상이 동일하다면 11x11의 각각의 화소값의 차이는 "0"이 될 것이다. 그러나 실제로 그러한 경우는 거의 없고, 그러한 화소값의 차이가 정확히 "0"이 될 수 없기 때문에, 화소값의 차이가 최소가 될 때까지 탐색영상에서 위치를 옮겨가면서 소영상을 추출해 기준영상과 비교해야 하는 것이다.
이상에서와 같이, 최소제곱정합법에 의한 template 매칭을 통해서 영상에 나타난 기준점의 영상좌표를 자동으로 추출할 수 있게 되며, 이미 식별용 타겟 template에는 대상점의 절대좌표를 확인할 수 있는 표식이 있으므로(<29> 단락 참조), 영상에 나타난 기준점의 영상좌표를 자동으로 추출함과 동시에 그 점의 3차원 절대좌표도 동시에 취득할 수 있게 된다.
3차원 절대좌표의 취득 방법은 당업자가 용이하게 수행할 수 있다. 이에 대해서 설명하면 다음과 같다. 상기 "1)사전정보입력" 단계에서, 식별용 타겟(30)을 부착하는 이유는 획득한 영상에서 컴퓨터가 자동으로 특이점을 용이하게 추출하기 위함이다. 일반적으로는, 수동으로 기준정보를 입력할 경우에는 다음과 같은 처리과정이 수행된다. 첫째, 사용자는 기준점의 ID와 절대좌표값을 컴퓨터에 입력한다. 둘째, 사용자는 입력한 기준점의 ID를 선택하고 영상에서 나타난 기준점의 위치를 측정함으로써 영상에 나타난 기준정보가 어떠한 ID와 절대좌표값, 그리고 영상좌표를 갖는지를 컴퓨터에 알려주게 된다. 셋째, 이렇게 관측된 기준정보들을 사용하여 계산을 수행하게 된다. 반면에 본 발명에 따를 경우에는, 사용자가 기준점의 ID와 절대좌표값 그리고 그에 맞는 식별용 타겟 template을 “사전정보입력” 단계에서 입력을 하게 된다. 그리고, 사용자는 입력한 기준점의 위치를 영상에서 측정할 필요없이 컴퓨터가 영상에 나타난 식별용 타겟과 영상정합 알고리즘을 사용하여 자동으로 기준점의 위치를 찾아낸다. 이때 식별용 타겟의 식별을 위한 표식은 유일한 기준정보임을 나타내는 표식으로 대상지역의 절대좌표는 하나만 존재하기 때문에, 이 표식을 이용하여 입력한 기준정보와 컴퓨터가 자동으로 찾아낸 위치가 동일함을 인식하게 되는 것이다. 따라서, 3차원 절대좌표를 사용자의 영상 관측없이도 취득할 수 있게 되는 것이다.
이렇게 획득한 좌표를 이용하여 컴퓨터는 수학모델을 적용함으로써 얻고자 하는 매개변수들을 계산하게 된다.
한편, 상기 최소제곱정합법의 이론에 대해서 구체적으로 소개하고자 한다. 최소제곱정합법은 기준영역과 대상영역사이의 밝기값의 차를 최소화하는 것이 기본개념이고, 여기서 대상영역의 위치와 형태는 조정과정에서 매개변수에 의해서 결정된다. 즉, 대상영역의 위치와 형태는 변형된 대상영역과 일정한 기준영역 사이의 밝기값의 차가 최소가 될 때까지 변화된다.
t(i,j)는 기준영역의 영상함수이고, m(i,j)는 정합대상영역의 영상함수라 하자. 기준영역은 t(i,j)에 의해서 정의되고, 기준영역의 중심은 (RT,CT)이다.
Figure 112005062839490-pat00001
같은 방법으로 정합대상 영역은 기준영역에 대한 공액위치의 초기 근사값으로서 이것의 중심은 (RM,CM)이다.
Figure 112005062839490-pat00002
기준영역의 픽셀값과 정합대상 영역의 픽셀값 사이의 차이는 다음과 같은 인 자들에 의해서 발생한다.
ㆍ 두 영상의 음영 반사 차이
ㆍ 카메라에 의해서
ㆍ 스캐너에 의해서
ㆍ 표정, 경사진 표면 소구역, 기복이 있는 표면 소구역에 의한 일반화된 영상격자(image tessellation)의 기하학적 왜곡
처음의 네 개의 인자들은 방사왜곡(radiometric distortion)을 유발시키는 반면에 마지막 인자는 기하학적 왜곡(geometric distortion)을 발생시킨다. 밝기와 명암대비의 차이를 보정하기 위해서, 정합대상영역에서 방사변환 TR이 도입된다.
Figure 112005062839490-pat00003
여기서 밝기 변위(shift)는 r0, 명암대비 확장(stretching)은 r1이다. 최소제곱정합처리 과정에서 방사변환을 도입하는 것이 가능하지만 일반적으로 전처리 과정에서 전체영상에 대하여 방사조정을 분리하여 행하고 있다.
기하학적 왜곡(geometric distortion)을 보정하기 위해서는 TG를 이용한다.
Figure 112005062839490-pat00004
기준영역의 직사각형 격자가 대상공간의 표면소구역에 투영된다고 가정한다. 이때 표면 소구역이 정합대상영역에 투영되었다면 공액 픽셀은 포함된다. 이러한 과정은 외부표정인자와 상세한 표면 정보를 필요로 한다. 그러나 후자의 상태가 거 의 만족될 수 없기 때문에 특정한 가정을 하게 된다.
두 영상 소구역이 중심투영에 의해서 공통되는 표면 소구역과 연관되어 있기 때문에 중심투영모형식을 사용하여야 한다. 그러나 정합대상영역은 다소 작으며 이와 대응되는 표면 소구역으로 정하기 때문에 평면으로 근사화될 수 있으며, 부등각사상변환(affine transformation)에 의한 투영변환으로 근사화시킬 수 있다. 부등각 사상변환의 경우에 투영변환한 정합대상영역의 m(x,y)에서 x와 y는 다음을 이용해서 얻을 수 있다.
Figure 112005062839490-pat00005
기하학적 왜곡을 고려하면 아래의 일반적인 관측방정식으로 나타낼 수 있다.
Figure 112005062839490-pat00006
여기서 r은 잔차로서 기준영역과 정합대상영역사이의 밝기값의 차이이다.
변환 매개변수에 대한 m(x,y)는 비선형이므로 선형화한다.
Figure 112005062839490-pat00007
다음은 편미분한 값이다.
Figure 112005062839490-pat00008
여기서 gx와 gy는 각각 x와 y방향에 대한 밝기값의 변화율을 나타내며 다음과 같이 구하게 된다.
Figure 112005062839490-pat00009
이를 통해 부등각 사상변환에 의한 인자들인 t값들에 관한 설계행렬을 구하면 다음과 같다.
Pixel Δt0 Δt1 Δt2 Δt3 Δt4 Δt5 const
1, 1 gx1 gx1x1 gx1y1 gy1 gy1x1 gy1y1 t(1,1)-m(1,1)
2, 1 gx2 gx2x2 gx2y1 gy1 gy1x2 gy1y1 t(2,1)-m(2,1)
. . . . . . . . . . . . . . . . . . . . . . . .
n, m gxn gxnxn gxnym gym gymxn gymym t(n,m)-m(n,m)
변환인자 t에 대하여 총 n×m의 관측방정식을 이용할 수 있고, 관측방정식, 해, 단위경중률의 추정분산은 아래의 세 식으로 표현된다.
Figure 112005062839490-pat00010
추정된 매개변수의 정확도를 검사하기 위해서는 다음 식이 사용된다.
Figure 112005062839490-pat00011
특히, 매개변수 중에서 Δt0, Δt3의 표준편차(standard deviations)는 영상에서 공액위치의 정확도를 나타내며, 다음과 같다.
Figure 112005062839490-pat00012
1. 본 발명의 방법은 현장의 조건에 따라서 측량을 수행할 수 없는 경우에도 효과적으로 적용할 수 있는 장점이 있다.
2. 저가의 비측정용 장비를 사용하고 기준점 측량을 하지 않으므로, 기존의 근거리 사진측량 방식보다 조사 기간을 단축시키고, 조사 경비를 절감하는 효과를 기대할 수 있다.

Claims (4)

  1. 근거리 대상지역을 촬영하여 얻은 다중 영상으로부터 3차원 좌표를 취득하는 방법으로서,
    1) 대상지역에 설치된 다수의 표척 또는 눈금표시 타겟(이 표척 또는 눈금표시 타겟에는 식별용 타겟이 부착설치됨)과 함께 대상지역을 카메라를 이용하여 위치의 편차를 두고 다중 촬영하여 템플릿 영상을 취득하는 단계와,
    2) 상기 취득된 다중영상에서 상기 표척 또는 눈금표시 타겟의 임의의 점을 원점으로 설정하고 이 원점으로부터 다수의 기준점을 결정하되, 컴퓨터에 의한 영상정합 알고리즘의 수행에 의하여 상기 식별용 타겟이 표시된 템플릿 영상으로부터 기준점들을 결정하고, 이들 기준점들로부터 3차원 좌표를 계산하는 단계를 포함하는 단계를 포함하되,
    단계 1)의 식별용 타겟은, 추출하고자 하는 위치를 표시하는 기호와 추출하고자 하는 위치의 식별을 위한 표식을 포함하며, 각 표식의 좌표값은 컴퓨터에 사전 입력되어 있고,
    단계 2)의 영상정합 알고리즘이 기준점을 결정하는 것은 단계 1)에서 컴퓨터에 입력되어 있는 식별용 타겟의 템플릿 영상을 이용하여, 이미 입력되어 있는 템플릿을 동일한 지역을 촬영한 두 영상에서 이동시키면서, 찾고자 하는 기준점 정보인 절대좌표와 영상좌표를 취득함으로써 이루어지는 것을 특징으로 하는, 기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는 방법.
  2. 삭제
  3. 삭제
  4. 삭제
KR1020050103817A 2005-11-01 2005-11-01 기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는방법 KR100597529B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050103817A KR100597529B1 (ko) 2005-11-01 2005-11-01 기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050103817A KR100597529B1 (ko) 2005-11-01 2005-11-01 기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는방법

Publications (1)

Publication Number Publication Date
KR100597529B1 true KR100597529B1 (ko) 2006-07-10

Family

ID=37183732

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050103817A KR100597529B1 (ko) 2005-11-01 2005-11-01 기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는방법

Country Status (1)

Country Link
KR (1) KR100597529B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101949232B1 (ko) * 2018-11-29 2019-02-18 네이버시스템(주) 지하시설물의 매설 측정용 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000121362A (ja) 1998-10-20 2000-04-28 Asahi Optical Co Ltd 写真測量用ターゲット測定装置
JP2001074454A (ja) 1999-09-06 2001-03-23 Asahi Optical Co Ltd 写真測量用画像処理装置、写真測量用画像処理方法および写真測量用画像処理プログラムを格納した記憶媒体
JP2001227948A (ja) 2000-02-21 2001-08-24 Asahi Optical Co Ltd 写真測量用画像処理装置、この写真測量画像処理装置を用いた写真測量方法、および写真測量用画像処理プログラムを格納した記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000121362A (ja) 1998-10-20 2000-04-28 Asahi Optical Co Ltd 写真測量用ターゲット測定装置
JP2001074454A (ja) 1999-09-06 2001-03-23 Asahi Optical Co Ltd 写真測量用画像処理装置、写真測量用画像処理方法および写真測量用画像処理プログラムを格納した記憶媒体
JP2001227948A (ja) 2000-02-21 2001-08-24 Asahi Optical Co Ltd 写真測量用画像処理装置、この写真測量画像処理装置を用いた写真測量方法、および写真測量用画像処理プログラムを格納した記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101949232B1 (ko) * 2018-11-29 2019-02-18 네이버시스템(주) 지하시설물의 매설 측정용 장치

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
Sapirstein Accurate measurement with photogrammetry at large sites
US8107722B2 (en) System and method for automatic stereo measurement of a point of interest in a scene
US20050220363A1 (en) Processing architecture for automatic image registration
CN105300362B (zh) 一种应用于rtk接收机的摄影测量方法
Rumpler et al. Automated end-to-end workflow for precise and geo-accurate reconstructions using fiducial markers
JP2016194515A (ja) 点群データ生成用画像の撮影方法、及び当該画像を用いた点群データ生成方法
WO2023046211A1 (zh) 摄影测量方法、装置、设备及存储介质
JP2014013147A5 (ko)
Rüther et al. A comparison of close-range photogrammetry to terrestrial laser scanning for heritage documentation
KR102129206B1 (ko) 사진 이미지를 이용한 3차원 좌표 계산 방법 및 3차원 좌표 계산 장치
JP2005077385A (ja) 画像対応付け方法ならびに測量方法およびそれらを利用する計測システム
KR101346192B1 (ko) 항공측량 전용 촬영이미지의 실시간 정사 보정용 항공측량시스템
JP2017003525A (ja) 三次元計測装置
KR20130034528A (ko) 도로시설물 자동 위치측정 방법
CN113658279B (zh) 相机内参和外参估算方法、装置、计算机设备及存储介质
KR101346206B1 (ko) 정사영상의 정밀 처리를 위한 gps 기반 항공측량시스템
Percoco et al. Image analysis for 3D micro-features: A new hybrid measurement method
KR100597529B1 (ko) 기준점 측량없이 근거리 다중영상의 3차원 좌표를 취득하는방법
JP4550081B2 (ja) 画像測定方法
Fawzy The accuracy of determining the volumes using close range photogrammetry
JP2006317418A (ja) 画像計測装置、画像計測方法、計測処理プログラム及び記録媒体
JPH10318732A (ja) 形状測定装置及び形状測定用画像形成装置
JP4282361B2 (ja) 写真測量方法および写真測量プログラム
JPH10318715A (ja) 画像測定装置

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130620

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140630

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150622

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160620

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170619

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180625

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190610

Year of fee payment: 14