KR101991094B1 - 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체 - Google Patents

거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체 Download PDF

Info

Publication number
KR101991094B1
KR101991094B1 KR1020180046888A KR20180046888A KR101991094B1 KR 101991094 B1 KR101991094 B1 KR 101991094B1 KR 1020180046888 A KR1020180046888 A KR 1020180046888A KR 20180046888 A KR20180046888 A KR 20180046888A KR 101991094 B1 KR101991094 B1 KR 101991094B1
Authority
KR
South Korea
Prior art keywords
distance
image
image frame
distance measurement
point
Prior art date
Application number
KR1020180046888A
Other languages
English (en)
Inventor
김대현
Original Assignee
주식회사 울프슨랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 울프슨랩 filed Critical 주식회사 울프슨랩
Priority to KR1020180046888A priority Critical patent/KR101991094B1/ko
Application granted granted Critical
Publication of KR101991094B1 publication Critical patent/KR101991094B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Multimedia (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체에 관한 것이다.
본 발명의 일측면에 따르면, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동하면서 동영상을 촬영하고 촬영된 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 방법으로서, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동시키면서 동영상을 촬영하고, 촬영된 동영상의 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하며, 각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하고, 상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여 영상 프레임에 포함된 거리 측정 대상점에 관한 거리를 산출하도록 구성된 거리 측정 방법이 개시된다.

Description

거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체 {Method for distance measurement, Apparatus for distance measurement, Computer program for the same, and Recording medium storing computer program for the same}
본 발명은 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체에 관한 것으로서, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동시키면서 동영상을 촬영하고, 동영상의 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하여, 영상 프레임에 포함된 거리 측정 대상점에 관한 거리를 산출하도록 구성된 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체에 관한 것이다.
카메라로 촬영한 영상을 이용하여 영상 내에 포함된 특정 객체까지의 거리를 산출하는 종래기술들이 제안된 바 있다.
종래기술의 일예로 대한민국 공개특허 10-2013-0038487(2013년04월18일 공개)는 싱글 카메라를 이용한 물체 거리 측정 장치 및 방법에 관한 것으로서, 싱글 카메라의 움직임을 이용하여 물체에 대한 복수의 영상을 획득하는 카메라 조작부; 상기 싱글 카메라의 움직임을 감지하여 상기 싱글 카메라의 이동 거리를 측정하는 모션 감지부; 상기 복수의 영상 각각을 비교하여 상기 복수의 영상 각각에서 상기 물체의 각도를 측정하는 영상 비교부; 및 상기 물체의 각도 및 상기 싱글 카메라의 이동 거리에 기초하여 상기 싱글 카메라와 상기 물체 간의 거리를 산출하는 거리 산출부를 포함하는 구성을 제안하였다.
그러나, 상기 종래기술은 2개의 정영상을 이용하는 방식으로서, 카메라의 이동 전후 영상에서 서로 대응되는 벡터나 점을 찾아내는 작업이 별도로 이뤄져야 하고, 카메라의 화각을 별도로 입력해야 하는 등 거리 산출을 위한 조건 설정 및 부가 작업의 불편함이 있었다. 또한, 상기 종래기술은 카메라와 물체와의 거리 산출에 관한 구성만을 포함할뿐이며, 2개의 물체 상호 간의 거리를 산출하지는 못한다는 한계점이 있었다.
종래기술의 또다른 일예로 대한민국 공개특허 10-2016-0111678(2016년09월27일 공개)는 단일 카메라를 이용한 거리 측정 장치 및 방법에 관한 것으로서, 차량에 부착되어, 차량 외부의 영상을 촬영하기 위해 기 설정된 일정 거리를 수평 이동하며 좌측 및 우측 영상을 각각 촬영하는 카메라; 상기 좌측 및 우측 영상으로부터 장애물을 획득하는 이미지 처리부; 상기 카메라를 통해 촬영된 영상으로부터 차량과 장애물간의 이격거리를 측정할 수 있도록 하는 프로그램이 저장되는 메모리부; 및 상기 좌측 및 우측 영상으로부터 획득한 장애물의 위치값과 초점거리 및 베이스 라인을 고려하여 획득되는 차량과 장애물간의 이격거리를 운전자에게 알림 서비스하도록 제어하는 제어부를 포함하는 구성을 제안하였다.
그러나, 상기 종래기술은 좌측 및 우측 영상으로부터 장애물을 획득하는데 있어서 에지(edge)성분을 검출하고 검출된 에지성분으로부터 특징점(Harris-Conner)을 추출하는 방식을 취하므로, 장애물의 에지성분 검출이 잘 이뤄지지 않는 상태에서는 거리 측정이 원활하게 이뤄지지 않을 우려가 있었다. 또한, 상기 종래기술은 카메라와 물체와의 거리 산출에 관한 구성만을 포함할뿐이며, 2개의 물체 상호 간의 거리를 산출하지는 못한다는 한계점이 있었다.
종래기술의 또다른 일예로 대한민국 공개특허 10-2009-0078447(2009년07월20일 공개)는 디지털카메라로 거리 및 면적을 측정하는 방법과, 이를 이용하여 피해정보를 산출하는 방법과, 이에 사용되는 피해정보 산출시스템에 관한 것으로서, 2대의 디지털카메라를 사용하여 촬영한 영상 데이터를, 영상 처리 기법 및 3 차원 좌표 판독방법의 개선을 통해 3차원적인 데이터로 변환할 수 있도록 함으로써, 이를 통해 촬영지역의 거리 및 면적을 산출하는 구성을 제안하였다.
그러나, 상기 종래기술은 2대의 카메라를 이용한다는 점에서 거리 측정을 위해 고 비용의 장비가 마련되어야 하며, 각각의 카메라의 내부표정요소를 결정하기 위해서 대상공간에 여러 기준점을 설치하고 이를 이용하여 사진의 기하학적인 모델로부터 내부표정요소를 구한다는 불편함이 있었다.
대한민국 공개특허 10-2013-0038487(2013년04월18일 공개) 대한민국 공개특허 10-2016-0111678(2016년09월27일 공개) 대한민국 공개특허 10-2009-0078447(2009년07월20일 공개)
본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로서, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동시키면서 동영상을 촬영하고, 동영상의 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하여, 영상 프레임에 포함된 거리 측정 대상점에 관한 거리를 산출하도록 구성된 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체를 제공하는 것을 그 목적으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명의 일측면에 따르면, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동하면서 동영상을 촬영하고 촬영된 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 방법으로서, 1) 상기 출발 위치에서 촬영된 출발 위치 영상 프레임과 이동 중간에 촬영된 하나 이상의 중간 영상 프레임과 도착 위치에서 촬영된 도착 위치 영상 프레임을 수득하는 단계; 2) 상기 출발 위치 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임과 도착 위치 영상 프레임을 포함하는 각각의 영상 프레임 내에서 상기 복수의 특징점들의 영상좌표계의 위치를 파악하는 단계; 3) 각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하는 단계; 및 4) 상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여, 어느 하나의 영상 프레임을 입력 영상 프레임으로 하여 입력된 하나 이상의 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리를 산출하는 단계를 포함하는 거리 측정 방법이 개시된다.
본 발명의 또 다른 일측면에 따르면, 하드웨어와 결합되어 상기 거리 측정 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램이 개시된다.
본 발명의 또 다른 일측면에 따르면, 상기 거리 측정 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터로 판독 가능한 기록 매체가 개시된다.
본 발명의 또 다른 일측면에 따르면, 동영상 촬영이 가능한 촬영수단; 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 상기 촬영수단의 이동을 가이드하는 이동 가이드 수단; 및 상기 촬영수단을 통해 촬영된 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 거리산출수단;을 포함하며, 상기 거리산출수단은, 상기 출발 위치에서 촬영된 출발 위치 영상 프레임과 이동 중간에 촬영된 하나 이상의 중간 영상 프레임과 도착 위치에서 촬영된 도착 위치 영상 프레임을 수득하며, 상기 출발 위치 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임과 도착 위치 영상 프레임을 포함하는 각각의 영상 프레임 내에서 상기 복수의 특징점들의 영상좌표계의 위치를 파악하며, 각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하며, 상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 이동 가이드 수단에 의해 파악되는 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여, 어느 하나의 영상 프레임을 입력 영상 프레임으로 하여 입력된 하나 이상의 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리를 산출하는 것을 특징으로 하는 거리 측정 장치가 개시된다.
본 발명의 또 다른 일측면에 따르면, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단이 촬영한 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 거리산출수단;을 포함하며, 상기 거리산출수단은, 상기 출발 위치에서 촬영된 출발 위치 영상 프레임과 이동 중간에 촬영된 하나 이상의 중간 영상 프레임과 도착 위치에서 촬영된 도착 위치 영상 프레임을 수득하며, 상기 출발 위치 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임과 도착 위치 영상 프레임을 포함하는 각각의 영상 프레임 내에서 상기 복수의 특징점들의 영상좌표계의 위치를 파악하며, 각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하며, 상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여, 어느 하나의 영상 프레임을 입력 영상 프레임으로 하여 입력된 하나 이상의 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리를 산출하는 것을 특징으로 하는 거리 측정 장치가 개시된다.
본 발명의 또 다른 일측면에 따르면, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동하면서 동영상을 촬영하고 촬영된 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 방법으로서, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동시키면서 동영상을 촬영하고, 촬영된 동영상의 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하며, 각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하고, 상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여 영상 프레임에 포함된 거리 측정 대상점에 관한 거리를 산출하도록 구성된 거리 측정 방법이 개시된다.
이와 같은 본 발명은, 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동시키면서 동영상을 촬영하는 단순한 방법에 의해 영상 프레임에 포함된 거리 측정 대상점에 관한 거리를 구할 수 있으므로, 거리 측정 시의 사용자 편의성이 대폭 향상되는 장점이 있다.
도 1은 본 발명의 일실시예 따른 거리 측정 방법을 설명하기 위한 3차원 기하 모식도,
도 2는 본 발명의 일실시예에 따른 거리 측정 장치를 설명하기 위한 정방향 모식도,
도 3은 본 발명의 일실시예에 따른 거리 측정 장치를 설명하기 위한 측방향 모식도,
도 4는 본 발명의 또다른 일실시예에 따른 거리 측정 장치를 설명하기 위한 모식도,
도 5는 본 발명의 일실시예에 따른 거리 측정 방법을 설명하기 위한 2차원 기하 모식도,
도 6은 본 발명의 일실시예에 따른 거리 측정 방법을 설명하기 위한 또다른 2차원 기하 모식도,
도 7은 본 발명의 일실시예에 따른 거리 측정 방법의 포인트 트랙킹을 설명하기 위한 3차원 기하 모식도,
도 8은 본 발명의 일실시예에 따른 거리 측정 방법의 포인트 트랙킹을 설명하기 위한 2차원 기하 모식도,
도 9는 본 발명의 일실시예에 따른 거리 측정 방법의 거리 측정 대상점을 설명하기 위한 화면 모식도,
도 10은 본 발명의 일실시예에 따른 거리 측정 방법의 포인트 트랙킹을 설명하기 위한 화면 모식도,
도 11은 본 발명의 일실시예에 따른 중간 영상 프레임을 설명하기 위한 모식도이다.
본 발명은 그 기술적 사상 또는 주요한 특징으로부터 벗어남이 없이 다른 여러가지 형태로 실시될 수 있다. 따라서, 본 발명의 실시예들은 모든 점에서 단순한 예시에 지나지 않으며 한정적으로 해석되어서는 안 된다.
제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다.
본 출원에서 사용한 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구비하다", "가지다" 등의 용어는 명세서에 기재된 구성요소 또는 이들의 조합이 존재하는 것을 표현하려는 것이지, 다른 구성요소 또는 특징이 존재 또는 부가될 가능성을 미리 배제하는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.
도 1은 본 발명의 일실시예 따른 거리 측정 방법을 설명하기 위한 3차원 기하 모식도로서, 도 1을 참조하여 본 실시예에서 거리 측정 대상점에 관한 거리를 산출하는 과정에서 사용하는 공액기하(Epipolar Geometry)의 개념을 설명한다.
공액기하(Epipolar Geometry)는 동일한 사물 또는 장면에 대한 이미지 영상을 서로 다른 두 지점에서 획득했을 때, 이미지 영상 Fs와 이미지 영상 Fm의 매칭쌍들 사이의 기하학적 관계를 다루는 것이다. 이미지 영상은 기하학적 관점에서 이미지 평면으로 볼 수 있다.
도 1과 같이 3차원 공간상의 한 점 P1이 이미지 영상 Fs에서는 p1에 투영되고, 이미지 영상 Fm에서는 p1'에 투영된다고 하면, 두 카메라 원점 O와 O'을 잇는 선과 이미지 평면이 만나는 점 e, e'을 '에피폴(epipole)'이라 부르고 투영점 p1, p1'과 에피폴 e, e'을 잇는 직선 l, l'을 '공액선(epipolar line)'이라고 한다. 공액선 l, l'은 3차원의 점 P1과 두 카메라 원점 O와 O'을 잇는 공액면(epipolar plane)과 이미지 영상과의 교선으로도 볼 수 있다.
두 카메라 원점 O와 O'의 위치 사이에는 '병진(translation, T)'과 '회전(rotation, R)'을 포함하는 기하학적 관계([R|t])가 구성된다.
공액기하에 따르면, 두 카메라 원점 O와 O'의 위치 사이의 기하학적 관계 [R|t]를 알고 있고 이미지 영상 Fs에서의 영상좌표 p1을 알고 있을 때, 이미지 영상 Fm에서 대응되는 점 p1'의 좌표를 구하는 것과 관련하여, 이미지 영상 Fs의 영상좌표 p1로부터 대응되는 이미지 영상 Fm의 영상좌표 p1'을 유일하게 결정할 수는 없지만 p1'이 지나는 직선인 공액선 l'은 유일하게 결정할 수 있다.
이를 위해 한 영상좌표로부터 다른 영상에서의 대응되는 공액선을 계산해주는 변환행렬이 기초행렬(Fundamental Matrix, F)과 기본행렬(Essential Matrix, E)이다. 즉, 서로 다른 두 시점에서 촬영한 이미지 영상의 영상좌표들 사이에는 기초행렬(F), 기본행렬(E)을 매개로 하는 어떤 변환 관계가 성립하는데, 공액기하에서는 이 변환관계를 바탕으로 기하학적 문제를 해결한다.
기본행렬(E)은 병진(T)과 회전(R)에 대한 정보를 포함하는 행렬로서, 정규화된 이미지 평면에서의 매칭 쌍들 사이의 기하학적 관계를 설명하는 행렬이다. 즉, 기본행렬(E)은 카메라 내부 파라미터가 제거된 좌표계에서의 변환관계이다.
기초행렬(F)은 기본행렬(E)과 동일한 정보를 포함하며, 더욱이 두 카메라의 카메라 파라미터까지 포함한 두 이미지 영상의 실제 픽셀(pixel) 좌표 사이의 기하학적 관계를 표현한다.
두 개의 이미지 영상이 주어지고 대응되는 매칭 쌍들을 알고 있을 때, 만일 카메라 파라미터를 모른다면 기초행렬(F)을 직접 구해야 하며, 기초행렬(F)을 구하기 위해서는 일반적으로 최소 7쌍의 매칭점들을 필요로 한다. 즉, 두 개의 이미지 영상에 각각 공통적으로 포함된 최소 7쌍의 매칭점들의 영상좌표를 각각 파악한다면 두 이미지 영상의 공액기하를 구성하는 기초행렬(F)을 구할 수 있다.
카메라 파라미터를 알고 있거나, 두 개의 이미지 영상 상호 간에 병진(T)과 회전(R)의 자유도에 관한 구속 조건이 있다면 기초행렬(F)을 구하는데 필요한 최소 매칭점들의 개수는 더욱 감소할 수 있다.
다만, 매칭점을 이용하여 기초행렬(F)을 구할 때, 기초행렬(F)의 스케일(scale, 영상에 표시된 크기/거리와 실제 크기/거리의 비율)을 결정할 수 없다. 스케일을 결정할 수 없다는 것은, 가까이에 있는 작은 물체를 촬영한 이미지 영상과 멀리 있는 큰 물체를 촬영한 이미지 영상은 영상 자체만 보았을 때에 동일하게 보일 수 있으므로 기초행렬(F)을 구하더라도 피사체의 실제 크기/거리에 관한 정보를 이미지 영상만으로 얻을 수 없다는 제한 조건으로 볼 수 있다.
그러므로, 피사체의 실제 크기/거리를 결정하기 위해서는, 스케일을 결정하는 별도의 과정이 필요하다.
도 1의 미설명 부호 X-Y-Z는 월드 좌표계, 부호 x-y는 이미지 영상의 2차원 영상좌표계, 부호 Xc-Yc-Zc는 카메라 원점 O를 중심으로 하는 카메라 좌표계, 부호 Xc'-Yc'-Zc'는 카메라 원점 O'를 중심으로 하는 카메라 좌표계, 부호 P1', P1'' P1'''는 이미지 영상 Fs의 투영점 p1의 서로 다른 깊이값을 갖는 점들, 부호 p1', p1'' p1'''는 점 P1', P1'' P1'''의 이미지 영상 Fm의 투영점들이다.
도 2는 본 발명의 일실시예에 따른 거리 측정 장치를 설명하기 위한 정방향 모식도, 도 3은 본 발명의 일실시예 따른 거리 측정 장치를 설명하기 위한 측방향 모식도, 도 5는 본 발명의 일실시예 따른 거리 측정 방법을 설명하기 위한 2차원 기하 모식도이다.
본 실시예에 따른 거리 측정 장치는, 동영상 촬영이 가능한 촬영수단(30)과, 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)를 알 수 있도록 형성된 경로(RT)를 따라 상기 촬영수단(30)의 이동을 가이드하는 이동 가이드 수단(12)와, 상기 촬영수단(30)을 통해 촬영된 동영상의 영상 프레임(Fs,Fm,Ff)을 이용하여 거리 측정 대상점에 관한 거리(d01)를 산출하는 거리산출수단(50)을 포함한다.
일예로, 촬영수단(30)은 디지털 이미지 영상으로 동영상 촬영이 가능한 디지털 카메라 또는 스마트폰, 스마트패드 등이 될 수 있다.
일예로, 거리산출수단(50)은 촬영된 동영상 파일을 영상 프레임 단위로 구분하여 영상 처리 및 영상 분석이 가능한 컴퓨팅 수단(예, 일반 PC 등)이 될 수 있다. 촬영수단(30)이 스마트폰인 경우라면, 스마트폰에 구비된 마이크로 프로세서에 본 실시예의 거리 측정 방법을 구현하는 컴퓨터 애플리케이션 프로그램이 구동하는 형태로 거리산출수단(50)이 구현될 수도 있다.
일예로, 도 2 및 도 3의 실시예와 같이 기구적 구성이 이뤄질 수 있다.
미리 설정된 높이를 갖거나 높이 조절이 가능한 지지대(10)의 상부에 횡방향으로 레일 형태의 이동 가이드 수단(12)이 고정 설치된다.
이동 가이드 수단(12)에는 레일 방향(A1)을 따라 슬라이딩 이동이 가능한 구조로 슬라이더 수단(20)이 설치되고, 슬라이더 수단(20)의 일측에는 촬영수단(30)이 부착된다. 이동 가이드 수단(12)은 반드시 직선 형태로 구성될 필요는 없지만, 영상 프레임의 스케일 및 좌표계를 실물 스케일에서의 월드 좌표계(X-Y-Z)로 변환하기 위해 촬영수단(30)의 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)를 실물 스케일의 참조값으로서 알 수 있도록 구성되어야 한다. 일예로, 레일 형태로 구성된 이동 가이드 수단(12)의 경우, 1m의 길이값을 갖도록 레일 길이가 형성될 수 있다.
촬영수단(30)의 카메라(32)는 이미지 영상 촬영이 필요한 방향으로 렌즈가 노출되도록 설치된다.
촬영수단(30)의 일측에는 촬영수단 표시입력부(34)가 구비된다. 촬영수단 표시입력부(34)는 예를 들어, 터치 패널 형태로 구성되어 이미지 영상의 표시와 영상 내에 포함된 거리 측정 대상점(P1 및/또는 P2)에 대한 터치 입력이 가능하도록 구성된다. 표시입력부(34)의 표시 기능과 입력 기능이 분리된 형태라면, 반드시 터치 입력이 아니고 공지의 조작 버튼 입력, 마우스 입력 등의 형태로 입력이 이뤄질 수도 있다.
일예로, 거리 측정 대상점(P1 및/또는 P2)에 대한 선택 입력은 카메라의 촬영 영상이 촬영수단 표시입력부(34)에 표시되는 상태에서 사용자가 거리 측정을 하고 싶은 화면 내의 임의의 대상물의 지점을 터치 입력하는 방식으로 이뤄질 수 있다. 바람직한 일예로, 거리 측정 대상점(P1 및/또는 P2)에 대한 선택 입력은 출발 위치(SP)에서 촬영된 출발 위치 영상 프레임(Fs)에서 이뤄진다.
일예로, 촬영수단(30)의 동영상 촬영은 카메라 온(on) 조작에 의해 촬영수단 표시입력부(34)에 카메라(32)를 통해 입력되는 영상이 표시되는 상태에서, 촬영 온(on) 조작에 의해 동영상의 저장이 시작되고 촬영 오프(off) 조작에 의해 동영상의 저장이 종료되는 형태로 이뤄질 수 있다.
도 4는 본 발명의 또다른 일실시예 따른 거리 측정 장치를 설명하기 위한 모식도이다. 본 실시예에 따른 거리 측정 장치는, 촬영수단(30)의 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)를 알 수 있는 조건이라면 도 4와 같이 구성될 수도 있다.
도 4의 실시예의 경우, 미리 설정된 높이를 갖거나 높이 조절이 가능한 지지대(10)의 상부에 와이어(42)의 감김(w1 방향) 또는 풀림(w2 방향)이 가능한 와이어 감김 수단(40)이 고정 설치된다. 바람직하게, 와이어 감김 수단(40)에는 와이어(42)의 감김 및 풀림 시의 텐션을 유지하기 위한 탄성 유지 수단이 포함된다.
도 4의 구성을 취하는 경우, 와이어(42)의 텐션을 유지하는 상태에서, 와이어(42)의 완전 감김 위치와 완전 풀림 위치 상호 간의 와이어(42)의 길이를 미리 안다면 촬영수단(30)의 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)를 알 수 있는 조건이 된다.
이러한 구성을 취하는 경우, 레일 형태의 이동 가이드 수단에 비해 휴대가 간편하다는 장점이 있다.
본 발명의 거리 측정 장치는, 촬영수단(30)의 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)를 알 수 있는 조건이라면 도 2 내지 도 4 이외의 다양한 변형예로 구성될 수 있다.
도 6은 본 발명의 일실시예 따른 거리 측정 방법을 설명하기 위한 또다른 2차원 기하 모식도로서, 도 7은 본 발명의 일실시예 따른 거리 측정 방법의 포인트 트랙킹을 설명하기 위한 3차원 기하 모식도, 도 8은 본 발명의 일실시예 따른 거리 측정 방법의 포인트 트랙킹을 설명하기 위한 2차원 기하 모식도, 도 10은 본 발명의 일실시예 따른 거리 측정 방법의 포인트 트랙킹을 설명하기 위한 화면 모식도로서, 상술한 도 1 내지 도 5를 함께 참조하여 본 실시예의 거리 측정 방법을 설명한다.
본 일실시예 따른 거리 측정 방법은, 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)를 알 수 있도록 형성된 경로(RT)를 따라 촬영수단(30)을 이동하면서 동영상을 촬영하고 촬영된 동영상의 영상 프레임(Fs,Fm,Ff)을 이용하여 거리 측정 대상점에 관한 거리(d01 또는 d12)를 산출한다.
일예로, 본 실시예에서 산출하는 거리 측정 대상점에 관한 거리(d01)는, 입력된 하나의 거리 측정 대상점(P1)과 상기 촬영수단(30) 상호 간의 거리일 수 있다.(도 5의 경우) 촬영수단(30)의 위치는 촬영 원점(O 또는 O')으로 볼 수 있다.
다른예로, 본 실시예에서 산출하는 거리 측정 대상점에 관한 거리(d12)는, 입력된 2 개의 거리 측정 대상점(P1,P2)들 상호 간의 거리일 수 있다. (도 6의 경우) 도 9는 본 발명의 일실시예 따른 거리 측정 방법의 거리 측정 대상점을 설명하기 위한 화면 모식도로서, 2 개의 거리 측정 대상점(P1,P2)이 거리 측정을 위해 입력된 예를 나타낸다.
이하에서는 설명 편의 상, 하나의 거리 측정 대상점(P1)과 상기 촬영수단(30) 상호 간의 거리를 구하는 경우를 예시 설명한다.
S1단계에서 거리산출수단(50)은, 상기 출발 위치(SP)에서 촬영된 출발 위치 영상 프레임(Fs)과 이동 중간에 촬영된 하나 이상의 중간 영상 프레임(Fm)과 도착 위치(FP)에서 촬영된 도착 위치 영상 프레임(Ff)을 수득한다. 출발 위치 영상 프레임(Fs)은 반드시 동영상의 최초 프레임일 필요는 없으며, 촬영수단(30)의 이동이 시작되기 전의 위치에서의 프레임이면 된다. 도착 위치 영상 프레임(Ff)도 반드시 동영상의 마지막 프레임일 필요는 없으며, 촬영수단(30)의 이동이 종료된 위치에서의 프레임이면 된다.
일예로, 도 11에 예시된 것처럼 중간 영상 프레임(Fm)은 2 이상의 위치(MP(i),MP(i+1))에서 촬영된 2 이상의 중간 영상 프레임(Fm)이 수득되어 거리 산출에 사용될 수도 있다.
중간 영상 프레임(Fm)의 개수는 거리 산출에 필요한 개수로 설정될 수 있다. 일예로, 출발 위치 영상 프레임(Fs)과 도착 위치 영상 프레임(Ff) 사이에 위치한 전체 중간 영상 프레임(Fm)을 거리 산출에 사용할 수도 있고, 다른예로, 전체 중간 영상 프레임(Fm) 중에서 미리 설정된 규칙(예, 10개 프레임마다 1개 프레임을 선택)에 의해 또는 불규칙적으로 선택한 임의의 개수의 중간 영상 프레임(Fm)만을 선택적으로 거리 산출에 사용할 수도 있다.
S2단계에서 거리산출수단(50)은, 상기 출발 위치 영상 프레임(Fs)에서 복수의 특징점들(Ps)을 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임(Fm)과 도착 위치 영상 프레임(Ff)을 포함하는 각각의 영상 프레임(Fs,Fm,Ff) 내에서 상기 복수의 특징점들(Ps)의 영상좌표계(x-y)의 위치(ps,ps',psf)를 파악한다.
거리 산출에 사용되기 위해 수득된 중간 영상 프레임(Fm)이 2 이상인 경우에는 각각의 중간 영상 프레임(Fm)에 대해 복수의 특징점들(Ps)을 추출하고 포인트 트랙킹을 실행한다.
특징점 추출은 예를 들어, Kitchen-Rosenfeld 방식, KLT(Kanade-Lucas-Tomasi)의 최소 고유값 방식, Harris 코너 검출기 등 공지의 특징점 추출 기술이 이용될 수 있다.
포인트 트랙킹은 예를 들어, KLT 특징점 추적기(Kanade-Lucas-Tomasi feature tracker)와 같은 공지의 특징점 트랙킹 기술이 이용될 수 있다.
특징점 추출 및/또는 포인트 트랙킹 기술은 상기 예시된 것 이외에도 다수의 공지기술이 알려져 있으므로 상세 설명은 생략한다.
S3단계에서 거리산출수단(50)은, 각각의 영상 프레임(Fs,Fm,Ff)별로 파악된 상기 복수의 특징점들(Ps)의 영상좌표계(x-y)의 위치(ps,ps',psf)를 이용하여 영상 프레임(Fs,Fm,Ff) 상호 간에 공액기하 구조를 구성하여 영상 프레임(Fs,Fm,Ff) 상호 간의 위치 및 방향 관계(R/T)를 수득한다.
출발 위치 영상 프레임(Fs)과 중간 영상 프레임(Fm)을 상기 도 1을 참조하여 설명한 이미지 영상 Fs와 이미지 영상 Fm으로 생각한다면, 출발 위치 영상 프레임(Fs)에서 추출된 특징점(도 7의 ps)은 이미지 영상 Fs의 영상좌표 p1에 대응하고, 포인트 트랙킹에 의해 트랙킹된 중간 영상 프레임(Fm)의 특징점(도 7의 ps')은 이미지 영상 Fm의 영상좌표 p1'에 대응하는 것으로 볼 수 있다.
그러므로, 출발 위치 영상 프레임(Fs)과 중간 영상 프레임(Fm)에 모두 투영된 특징점들에 기초하여, 출발 위치 영상 프레임(Fs)과 중간 영상 프레임(Fm) 상호 간에 도 1의 설명과 같은 공액기하 구조를 구성할 수 있다. 이 때, 포인트 트랙킹된 복수의 특징점들(Ps)은 출발 위치 영상 프레임(Fs)과 중간 영상 프레임(Fm) 상호 간의 기초행렬(F)을 구한 매칭점들로 기능하게 된다.
그러므로, 포인트 트랙킹되는 특징점들(Ps)의 개수를 기초행렬(F)을 구하는데 필요한 최소 매칭점 개수 이상으로 추출하여 트랙킹한다면, 출발 위치 영상 프레임(Fs)과 중간 영상 프레임(Fm) 상호 간, 중간 영상 프레임(Fm)과 그 이후 순서에 오는 또다른 중간 영상 프레임(Fm) 상호 간, 중간 영상 프레임(Fm)과 도착 위치 영상 프레임(Ff) 상호 간에 대해 각각의 기초행렬(F)을 구하고 각각의 영상 프레임 상호 간의 변환 관계를 수득할 수 있다. 또한, 이러한 영상 프레임 상호 간의 변환 관계를 연결하면 출발 위치 영상 프레임(Fs)과 도착 위치 영상 프레임(Ff) 상호 간의 변환 관계(위치 및 방향 변환 관계)를 수득할 수 있다.
다만, 도 1을 참조하여 상술한 바와 같이, 이러한 변환 관계를 수득하더라도, 변환 관계만으로는 영상 프레임 상호 간의 병진(T)과 회전(R)에 대한 정보만을 알 수 있으며, 기초행렬(F)의 스케일(scale, 영상에 표시된 크기/거리와 실제 크기/거리의 비율)을 결정할 수 없다. 그러므로, 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)를 이용하여, 출발 위치 영상 프레임(Fs)과 도착 위치 영상 프레임(Ff) 상호 간의 실제 위치 변환 거리(병진 거리)를 파악하고 임의의 디폴트 스케일로 구한 기하학적 관계의 스케일을 실제 거리/크기의 스케일로 변환한다.
한편, 포인트 트랙킹되는 특징점들(Ps)은 영상 내에 포함된 피사체의 에지(edge)와 같이 상대적으로 명확하게 구분되는 점이나 선에 기초하여 추출된다. 그런데, 촬영수단(30)이 이동함에 따라 출발 위치 영상 프레임(Fs)에서 추출한 특징점의 일부가 도착 위치 영상 프레임(Ff)까지 트랙킹되지 못하고 소실될 수 있다.
이러한 점을 감안하여, 바람직하게 상기 S2단계에서, 상기 중간 영상 프레임(Fm)에서 복수의 특징점들(Ps)을 추가 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임(Fm)과 도착 위치 영상 프레임(Ff)을 포함하는 각각의 영상 프레임(Fs,Fm,Ff) 내에서 상기 추가 추출된 복수의 특징점들(Ps)의 영상좌표계(x-y)의 위치(ps,ps',psf)를 추가로 파악할 수도 있다.
일예로, 중간 영상 프레임(Fm)의 포인트 트랙킹 과정에서 트랙킹되는 특징점들(Ps)의 개수가 미리 설정된 기준 개수 이하로 감지되는 경우, 해당 중간 영상 프레임(Fm)에서 복수의 특징점들(Ps)을 추가 추출하고 포인트 트랙킹을 실행할 수 있다. 일예로, 상기 기준 개수는 기초행렬(F)을 구하기 위해 필요한 매칭점들의 최소 개수(예, 7개) 이상의 개수로 설정될 수 있다.
바람직하게, 상기 S3단계는 다음과 같이 더욱 상세하게 구성된다.
S31단계에서 거리산출수단(50)은, 각각의 영상 프레임(Fs,Fm,Ff)별로 파악된 상기 복수의 특징점들(Ps)의 각각의 영상좌표계(x-y)의 위치(ps,ps',psf)에 기초하여 상기 출발 위치 영상 프레임(Fs)과 순서적으로 인접한 중간 영상 프레임(Fm) 상호 간에 공액기하 구조를 구성하고 임의의 디폴트 스케일에 기초하여 상기 복수의 특징점들(Ps)의 디폴트 스케일의 3차원 좌표들을 각각 구한다. 임의의 디폴트 스케일은 거리산출수단(50)에 미리 입력 설정되거나 특정 동영상에 대한 거리 산출 프로세스 과정에서 임의로 생성된 것일 수 있다.
S32단계에서 거리산출수단(50)은, 상기 복수의 특징점들(Ps)의 디폴트 스케일의 3차원 좌표들과 각각의 영상 프레임(Fs,Fm,Ff)별로 파악된 상기 복수의 특징점들(Ps)의 영상좌표계(x-y)의 위치(ps,ps',psf)를 이용하여 2 개의 순서적으로 인접한 영상 프레임(Fs-Fm, 또는 Fm(i)-Fm(i+1), 또는 Fm-Ff) 상호 간에 공액기하 구조를 구성하고 상기 디폴트 스케일에 기초하여 2 개의 순서적으로 인접한 영상 프레임(Fs-Fm, 또는 Fm(i)-Fm(i+1), 또는 Fm-Ff) 상호 간의 위치 및 방향 관계(R/T)를 수득한다.
S33단계에서 거리산출수단(50)은, 상기 수득된 영상 프레임(Fs,Fm,Ff) 상호 간의 위치 및 방향 관계(R/T)에 기초하여 상기 출발 위치 영상 프레임(Fs)과 상기 도착 위치 영상 프레임(Ff) 상호 간의 위치 및 방향 관계(R/T)를 상기 디폴트 스케일에 기초하여 수득한다.
한편, 변형예로서, 출발 위치 영상 프레임(Fs)과 첫번째 중간 영상 프레임(Fm) 상호 간에는 기초행렬(F)을 구하여 영상 프레임 상호 간의 변환 관계를 수득하고, 첫번째 중간 영상 프레임(Fm)과 그 이후 순서에 오는 또다른 중간 영상 프레임(Fm) 상호 간, 중간 영상 프레임(Fm)과 도착 위치 영상 프레임(Ff) 상호 간에는 각각의 기초행렬(F)을 구하는 대신 카메라 리섹셔닝(camera resectioning)을 이용하여 영상 프레임 상호 간의 기하학적 관계를 구할 수도 있다.
S4단계에서 거리산출수단(50)은, 상기 수득된 영상 프레임(Fs,Fm,Ff) 상호 간의 위치 및 방향 관계(R/T)와 상기 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)를 이용하여, 어느 하나의 영상 프레임(Fs)을 입력 영상 프레임(Fs)으로 하여 입력된 하나 이상의 거리 측정 대상점(P1)의 실물 스케일에서의 월드 좌표계(X-Y-Z)의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리(d01)를 산출한다.
상기 S4단계는 다음과 같이 더욱 상세하게 구성된다.
S41단계에서 거리산출수단(50)은, 어느 하나의 영상 프레임(Fs)을 입력 영상 프레임(Fs)으로 하여 하나 이상의 거리 측정 대상점(P1)을 입력받는다. 바람직하게, 상기 입력 영상 프레임(Fs)은 출발 위치 영상 프레임(Fs)일 수 있다.
S42단계에서 거리산출수단(50)은, 상기 입력 영상 프레임(Fs) 내에서 상기 거리 측정 대상점(P1)의 깊이를 임의의 디폴트 깊이값으로 초기 설정하며 상기 디폴트 스케일에 기초하여 상기 거리 측정 대상점(P1)의 디폴트 스케일의 의사(擬似) 3차원 좌표를 산출한다. '의사(擬似) 3차원 좌표'는 실제 3차원 좌표를 구하기 위해 임의로 추정된 3차원 좌표로 이해될 수 있다.
도 1을 참조할 때, 입력 영상 프레임(Fs)에서 거리 측정 대상점이 P1으로 입력된 상태를 상정하면, 거리 측정 대상점 P1은 입력 영상 프레임(Fs)에서 투영점 p1으로 투영되는데, 그 깊이값은 입력 영상 프레임(Fs)만으로는 알 수 없다.
이때, 거리산출수단(50)이 상기 거리 측정 대상점(P1)의 깊이를 임의의 디폴트 깊이값 0-P1" 으로 초기 설정(추정 설정)하면, 상술한 임의의 디폴트 스케일에 기초하여 점 P1"이 상기 거리 측정 대상점인 것으로 추정된다. 점 P1"는 실제 거리 측정 대상점 P1의 깊이값을 산출하기 위한 과정에서 임의로 거리 측정 대상점으로 추정된 점이므로 점 P1"의 좌표를 거리 측정 대상점 P1의 디폴트 스케일의 의사(擬似) 3차원 좌표에 해당하는 점으로 볼 수 있다.
S43단계에서 거리산출수단(50)은, 상기 입력 영상 프레임(Fs)에서 상기 거리 측정 대상점(P1)의 이미지 컬러값을 수득한다. 즉, 거리산출수단(50)은 입력 영상 프레임(Fs)에서 거리 측정 대상점 P1의 투영점 p1의 이미지 컬러값을 수득한다. 이미지 컬러값은 공지의 다양한 픽셀 이미지 컬러값이 사용될 수 있다.
이때, 하나의 픽셀점에 대한 이미지 컬러값만을 수득하는 경우에 이미지 컬러값이 영상 프레임별로 불안정한 값을 가질 수 있으므로, 바람직한 일예로 투영점 p1의 픽셀점 주변을 포함하는 사각형 내의 주변 픽셀점들과 투영점 p1의 픽셀점의 이미지 컬러값의 차이의 평균을 구하는 방식으로 이미지 컬러값을 구할 수도 있다.
S44단계에서 거리산출수단(50)은, 상기 거리 측정 대상점(P1)의 디폴트 스케일의 의사(擬似) 3차원 좌표(예, 도 1에서 점 P1"의 X-Y-Z 좌표)에 기초하여 상기 입력 영상 프레임(Fs) 이외의 다른 영상 프레임(Fm,Ff)에서 상기 거리 측정 대상점(P1)의 영상좌표계(x-y)의 의사(擬似) 위치(예, 도 1에서 점 p1"의 Fm 영상 프레임에서의 x-y 좌표)를 찾고 상기 다른 영상 프레임(Fm,Ff)별로 표시된 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값(예, 도 1에서 점 p1"의 Fm 영상 프레임에서의 이미지 컬러값)을 각각 수득한다.
S45단계에서 거리산출수단(50)은, 상기 입력 영상 프레임(Fs)에서 수득한 거리 측정 대상점(P1)의 이미지 컬러값과 다른 영상 프레임(Fm,Ff)별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값 상호 간의 편차를 최소로 하는 거리 측정 대상점(P1)의 디폴트 스케일의 깊이값을 구한다.
바람직하게, 상기 S45단계는, 하기 수학식1에 의해 산출되는 f(d)를 최소로 하는 거리 측정 대상점(P1)의 디폴트 스케일의 깊이값을 구한다.
[수학식1]
Figure 112018040301269-pat00001
(단, f(d): 입력 영상 프레임(Fs)에서 수득한 거리 측정 대상점(P1)의 이미지 컬러값과 다른 영상 프레임(Fm,Ff)별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값 상호 간의 편차의 절대값의 합,
ci: 영상 프레임(Fs,Fm,Ff)별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값이며 영상 프레임(Fs,Fm,Ff)의 순서가 뒤로 갈수록 i가 증가함,
c1: 입력 영상 프레임(Fs)에서 수득한 거리 측정 대상점(P1)의 이미지 컬러값)
도 1을 참조할 때, 점 P1''은 중간 영상 프레임 Fm에서 투영점 p1''으로 투영되며, 중간 영상 프레임 Fm의 영상좌표계(x-y)에서 투영점 p1''의 위치, 즉, 의사(擬似) 위치를 찾을 수 있다.
만일, 중간 영상 프레임 Fm에서 상기 투영점 p1''이 갖는 이미지 컬러값이 입력 영상 프레임(Fs)에서 투영점 p1이 갖는 이미지 컬러값과 동일하거나 그 편차가 매우 작다면, 거리산출수단(50)이 초기 설정한 거리 측정 대상점(P1)의 디폴트 깊이값 0-P1" 이 실제 거리 측정 대상점(P1)의 깊이값과 동일하거나 매우 근사하게 잘 추정된 것으로 볼 수 있다.
더욱이, 거리 산출에 이용하는 또다른 중간 영상 프레임 Fm 및 도착 위치 영상 프레임(Ff)에서 점 P1"의 투영점들이 갖는 이미지 컬러값이 입력 영상 프레임(Fs)에서 투영점 p1이 갖는 이미지 컬러값과 전반적으로 동일하거나 그 편차가 매우 작다면, 점 P1"의 투영점들의 이미지 컬러값들이 복수의 프레임에 의해 동일 내지 유사하게 확인되므로, 거리산출수단(50)이 초기 설정한 거리 측정 대상점(P1)의 디폴트 깊이값 0-P1" 이 실제 거리 측정 대상점(P1)의 깊이값과 동일하거나 매우 근사하다고 결론 내릴 수 있다.
그러나, 만일 중간 영상 프레임 Fm에서 상기 투영점 p1''이 갖는 이미지 컬러값이 입력 영상 프레임(Fs)에서 투영점 p1이 갖는 이미지 컬러값과 큰 편차를 갖는다면, 거리산출수단(50)이 초기 설정한 거리 측정 대상점(P1)의 디폴트 깊이값 0-P1" 이 실제 거리 측정 대상점(P1)의 깊이값과 큰 편차를 갖는 것으로 볼 수 있다. 즉, 초기 깊이값 추정이 잘못된 것으로 볼 수 있다.
이러한 경우에는, 선분 O-p1에서 연장된 직선 상에 있는 다른 점들(예, 점 P1' 또는 점 P1''' 등)을 새로운 추정 위치로 하여 상술한 것과 같은 이미지 컬러값의 편차 비교를 하고 이미지 컬러값들 상호 간의 편차를 가장 작게 만드는 거리 측정 대상점(P1)의 깊이값을 구하게 된다. 이러한 과정은 공지의 시행 착오(trial and error) 방식으로 볼 수 있으며, 이에 관해서는 다양한 방법이 공지된 바 있으므로 상세 설명은 생략한다. 한편, 상기 과정에서 거리 측정 대상점(P1)의 깊이값은 상술한 임의의 디폴트 스케일에 기초하여 구해진다.
S46단계에서 거리산출수단(50)은, 상기 디폴트 스케일 및 상기 디폴트 스케일에서 구해진 깊이값에 기초하여 상기 거리 측정 대상점(P1)의 디폴트 스케일의 3차원 좌표를 산출한다. 디폴트 스케일의 3차원 좌표는 X-Y-Z 좌표계를 이용한 월드 좌표계와 동일한 형태이지만, 피사체의 거리 또는 크기 측면에서 피사체의 실제 스케일(거리 또는 크기)이 아니라 상술한 임의의 디폴트 스케일에 기초하여 좌표계의 스케일이 설정되어 있다.
S47단계에서 거리산출수단(50)은, 디폴트 스케일에 기초하여 수득한 출발 위치 영상 프레임(Fs) 및 도착 위치 영상 프레임(Ff) 상호 간의 촬영 위치 차이가 상기 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)에 정합하도록 상기 디폴트 스케일에 기초한 좌표계를 실물 스케일에서의 월드 좌표계(X-Y-Z)로 변환하여, 상기 거리 측정 대상점(P1)의 월드 좌표계(X-Y-Z)의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리(d01)를 산출한다.
일예로, 출발 위치 영상 프레임(Fs)을 입력 영상 프레임(Fs)으로 하고, 출발 위치 영상 프레임(Fs)에서의 카메라 원점 O를 실물 스케일에서의 월드 좌표계(X-Y-Z)의 좌표 원점으로 설정하면, 거리 측정 대상점(P1)의 월드 좌표계(X-Y-Z)의 3차원 좌표로부터 거리 측정 대상점에 관한 거리(d01 또는 d12)를 산출할 수 있다.
일예로, 입력된 하나의 거리 측정 대상점(P1)과 상기 촬영수단(30) 상호 간의 거리는 월드 좌표계(X-Y-Z)의 좌표 원점과 거리 측정 대상점(P1)의 좌표값 상호 간의 거리를 연산하여 산출할 수 있다.
다른예로, 입력된 2 개의 거리 측정 대상점(P1,P2)들 상호 간의 거리는 첫번째 거리 측정 대상점(P1)과 두번째 거리 측정 대상점(P2)의 좌표값 상호 간의 거리를 연산하여 산출할 수 있다.
한편, 상술한 S41 내지 S46단계의 실시예에서는, 디폴트 스케일에 기초하여 거리 측정 대상점(P1)의 좌표를 수득하고, 상기 디폴트 스케일의 좌표계를 실물 스케일에서의 월드 좌표계(X-Y-Z)로 변환하는 방식으로 거리 측정 대상점(P1)의 월드 좌표계(X-Y-Z)의 3차원 좌표를 산출하였다.
변형예로서, 디폴트 스케일의 좌표계를 실물 스케일에서의 월드 좌표계(X-Y-Z)로 먼저 변환하고, 입력된 거리 측정 대상점(P1)에 대해 실물 스케일에서의 월드 좌표계(X-Y-Z)에서의 3차원 좌표를 산출할 수도 있다.
이하의 S401 내지 S407단계의 실시예에서는 이러한 변형예를 보다 상세하게 설명한다.
S401단계에서 거리산출수단(50)은, 디폴트 스케일에 기초하여 수득한 출발 위치 영상 프레임(Fs) 및 도착 위치 영상 프레임(Ff) 상호 간의 촬영 위치 차이가 상기 출발 위치(SP) 및 도착 위치(FP) 상호 간의 직선거리(dm)에 정합하도록 상기 디폴트 스케일에 기초한 좌표계를 실물 스케일에서의 월드 좌표계(X-Y-Z)로 변환한다.
S402단계에서 거리산출수단(50)은, 어느 하나의 영상 프레임(Fs)을 입력 영상 프레임(Fs)으로 하여 하나 이상의 거리 측정 대상점(P1)을 입력받는다. 바람직하게, 상기 입력 영상 프레임(Fs)은 출발 위치 영상 프레임(Fs)일 수 있다.
S403단계에서 거리산출수단(50)은, 상기 입력 영상 프레임(Fs) 내에서 상기 거리 측정 대상점(P1)의 깊이를 임의의 디폴트 깊이값으로 초기 설정하며 상기 실물 스케일에서의 월드 좌표계(X-Y-Z)에 기초하여 상기 거리 측정 대상점(P1)의 의사(擬似) 3차원 좌표를 산출한다.
S404단계에서 거리산출수단(50)은, 상기 입력 영상 프레임(Fs)에서 상기 거리 측정 대상점(P1)의 이미지 컬러값을 수득한다.
S405단계에서 거리산출수단(50)은, 상기 거리 측정 대상점(P1)의 실물 스케일에서의 월드 좌표계(X-Y-Z)의 의사(擬似) 3차원 좌표에 기초하여 상기 입력 영상 프레임(Fs) 이외의 다른 영상 프레임(Fm,Ff)에서 상기 거리 측정 대상점(P1)의 영상좌표계(x-y)의 의사(擬似) 위치를 찾고 상기 다른 영상 프레임(Fm,Ff)별로 표시된 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값을 각각 수득한다.
S406단계에서 거리산출수단(50)은, 상기 입력 영상 프레임(Fs)에서 수득한 거리 측정 대상점(P1)의 이미지 컬러값과 다른 영상 프레임(Fm,Ff)별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값 상호 간의 편차를 최소로 하는 거리 측정 대상점(P1)의 실물 스케일에서의 월드 좌표계(X-Y-Z)의 깊이값을 구한다.
바람직하게, 상기 S406단계는, 하기 수학식1에 의해 산출되는 f(d)를 최소로 하는 거리 측정 대상점(P1)의 실물 스케일에서의 월드 좌표계(X-Y-Z)의 깊이값을 구한다.
[수학식1]
Figure 112018040301269-pat00002
(단, f(d): 입력 영상 프레임(Fs)에서 수득한 거리 측정 대상점(P1)의 이미지 컬러값과 다른 영상 프레임(Fm,Ff)별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값 상호 간의 편차의 절대값의 합,
ci: 영상 프레임(Fs,Fm,Ff)별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값이며 영상 프레임(Fs,Fm,Ff)의 순서가 뒤로 갈수록 i가 증가함,
c1: 입력 영상 프레임(Fs)에서 수득한 거리 측정 대상점(P1)의 이미지 컬러값)
S407단계에서 거리산출수단(50)은, 상기 실물 스케일에서의 월드 좌표계(X-Y-Z)의 깊이값에 기초하여 상기 거리 측정 대상점(P1)의 월드 좌표계(X-Y-Z)의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리(d01 또는 d12)를 산출한다.
본 발명의 실시예 들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램과 이를 기록한 컴퓨터 판독가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, USB 드라이브와 같은 광기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
10: 지지대
12: 이동 가이드 수단
20: 슬라이더 수단
30: 촬영수단
32: 카메라
34: 촬영수단 표시입력부
50: 거리산출수단
SP: 출발 위치
FP: 도착 위치
RT: 경로
Fs,Fm,Ff: 영상 프레임
d01,d12: 거리 측정 대상점에 관한 거리

Claims (16)

  1. 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동하면서 동영상을 촬영하고 촬영된 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 방법으로서,
    1) 상기 출발 위치에서 촬영된 출발 위치 영상 프레임과 이동 중간에 촬영된 하나 이상의 중간 영상 프레임과 도착 위치에서 촬영된 도착 위치 영상 프레임을 수득하는 단계;
    2) 상기 출발 위치 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임과 도착 위치 영상 프레임을 포함하는 각각의 영상 프레임 내에서 상기 복수의 특징점들의 영상좌표계의 위치를 파악하는 단계;
    3) 각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하는 단계; 및
    4) 상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여, 어느 하나의 영상 프레임을 입력 영상 프레임으로 하여 입력된 하나 이상의 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리를 산출하는 단계를 포함하는 거리 측정 방법.
  2. 제1항에 있어서,
    상기 3단계는,
    31) 각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치에 기초하여 상기 출발 위치 영상 프레임과 순서적으로 인접한 중간 영상 프레임 상호 간에 공액기하 구조를 구성하고 임의의 디폴트 스케일에 기초하여 상기 복수의 특징점들의 디폴트 스케일의 3차원 좌표들을 각각 구하는 단계;
    32) 상기 복수의 특징점들의 디폴트 스케일의 3차원 좌표들과 각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 2 개의 순서적으로 인접한 영상 프레임 상호 간에 공액기하 구조를 구성하고 상기 디폴트 스케일에 기초하여 2 개의 순서적으로 인접한 영상 프레임 상호 간의 위치 및 방향 관계를 수득하는 단계; 및
    33) 상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계에 기초하여 상기 출발 위치 영상 프레임과 상기 도착 위치 영상 프레임 상호 간의 위치 및 방향 관계를 상기 디폴트 스케일에 기초하여 수득하는 단계;를 포함하여 구성된 것을 특징으로 하는 거리 측정 방법.
  3. 제2항에 있어서,
    상기 4단계는,
    41) 어느 하나의 영상 프레임을 입력 영상 프레임으로 하여 하나 이상의 거리 측정 대상점을 입력받는 단계:
    42) 상기 입력 영상 프레임 내에서 상기 거리 측정 대상점의 깊이를 임의의 디폴트 깊이값으로 초기 설정하며 상기 디폴트 스케일에 기초하여 상기 거리 측정 대상점의 디폴트 스케일의 의사(擬似) 3차원 좌표를 산출하는 단계;
    43) 상기 입력 영상 프레임에서 상기 거리 측정 대상점의 이미지 컬러값을 수득하는 단계;
    44) 상기 거리 측정 대상점의 디폴트 스케일의 의사(擬似) 3차원 좌표에 기초하여 상기 입력 영상 프레임 이외의 다른 영상 프레임에서 상기 거리 측정 대상점의 영상좌표계의 의사(擬似) 위치를 찾고 상기 다른 영상 프레임별로 표시된 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값을 각각 수득하는 단계;
    45) 상기 입력 영상 프레임에서 수득한 거리 측정 대상점의 이미지 컬러값과 다른 영상 프레임별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값 상호 간의 편차를 최소로 하는 거리 측정 대상점의 디폴트 스케일의 깊이값을 구하는 단계;
    46) 상기 디폴트 스케일 및 상기 디폴트 스케일의 깊이값에 기초하여 상기 거리 측정 대상점의 디폴트 스케일의 3차원 좌표를 산출하는 단계; 및
    47) 디폴트 스케일에 기초하여 수득한 출발 위치 영상 프레임 및 도착 위치 영상 프레임 상호 간의 촬영 위치 차이가 상기 출발 위치 및 도착 위치 상호 간의 직선거리에 정합하도록 상기 디폴트 스케일에 기초한 좌표계를 실물 스케일에서의 월드 좌표계로 변환하여, 상기 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리를 산출하는 단계;를 포함하여 구성된 것을 특징으로 하는 거리 측정 방법.
  4. 제3항에 있어서,
    상기 45단계는, 하기 수학식1에 의해 산출되는 f(d)를 최소로 하는 거리 측정 대상점의 디폴트 스케일의 깊이값을 구하는 것을 특징으로 하는 거리 측정 방법.
    [수학식1]
    Figure 112018040301269-pat00003

    (단, f(d): 입력 영상 프레임에서 수득한 거리 측정 대상점의 이미지 컬러값과 다른 영상 프레임별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값 상호 간의 편차의 절대값의 합,
    ci: 영상 프레임별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값이며 영상 프레임의 순서가 뒤로 갈수록 i가 증가함,
    c1: 입력 영상 프레임에서 수득한 거리 측정 대상점의 이미지 컬러값)
  5. 제3항에 있어서,
    상기 41단계에서, 상기 입력 영상 프레임은 출발 위치 영상 프레임인 것을 특징으로 하는 거리 측정 방법.
  6. 제2항에 있어서,
    상기 4단계는,
    401) 디폴트 스케일에 기초하여 수득한 출발 위치 영상 프레임 및 도착 위치 영상 프레임 상호 간의 촬영 위치 차이가 상기 출발 위치 및 도착 위치 상호 간의 직선거리에 정합하도록 상기 디폴트 스케일에 기초한 좌표계를 실물 스케일에서의 월드 좌표계로 변환하는 단계;
    402) 어느 하나의 영상 프레임을 입력 영상 프레임으로 하여 하나 이상의 거리 측정 대상점을 입력받는 단계;
    403) 상기 입력 영상 프레임 내에서 상기 거리 측정 대상점의 깊이를 임의의 디폴트 깊이값으로 초기 설정하며 상기 실물 스케일에서의 월드 좌표계에 기초하여 상기 거리 측정 대상점의 의사(擬似) 3차원 좌표를 산출하는 단계;
    404) 상기 입력 영상 프레임에서 상기 거리 측정 대상점의 이미지 컬러값을 수득하는 단계;
    405) 상기 거리 측정 대상점의 의사(擬似) 3차원 좌표에 기초하여 상기 입력 영상 프레임 이외의 다른 영상 프레임에서 상기 거리 측정 대상점의 영상좌표계의 의사(擬似) 위치를 찾고 상기 다른 영상 프레임별로 표시된 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값을 각각 수득하는 단계;
    406) 상기 입력 영상 프레임에서 수득한 거리 측정 대상점의 이미지 컬러값과 다른 영상 프레임별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값 상호 간의 편차를 최소로 하는 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 깊이값을 구하는 단계; 및
    407) 상기 실물 스케일에서의 월드 좌표계의 깊이값에 기초하여 상기 거리 측정 대상점의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리를 산출하는 단계;를 포함하여 구성된 것을 특징으로 하는 거리 측정 방법.
  7. 제6항에 있어서,
    상기 406단계는, 하기 수학식1에 의해 산출되는 f(d)를 최소로 하는 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 깊이값을 구하는 것을 특징으로 하는 거리 측정 방법.
    [수학식1]
    Figure 112018040301269-pat00004

    (단, f(d): 입력 영상 프레임에서 수득한 거리 측정 대상점의 이미지 컬러값과 다른 영상 프레임별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값 상호 간의 편차의 절대값의 합,
    ci: 영상 프레임별로 수득한 각각의 의사(擬似) 거리 측정 대상점의 이미지 컬러값이며 영상 프레임의 순서가 뒤로 갈수록 i가 증가함,
    c1: 입력 영상 프레임에서 수득한 거리 측정 대상점의 이미지 컬러값)
  8. 제6항에 있어서,
    상기 402단계에서, 상기 입력 영상 프레임은 출발 위치 영상 프레임인 것을 특징으로 하는 거리 측정 방법.
  9. 제1항에 있어서,
    상기 2단계에서,
    상기 중간 영상 프레임에서 복수의 특징점들을 추가 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임과 도착 위치 영상 프레임을 포함하는 각각의 영상 프레임 내에서 상기 추가 추출된 복수의 특징점들의 영상좌표계의 위치를 추가로 파악하는 것을 특징으로 하는 거리 측정 방법.
  10. 제1항에 있어서,
    상기 4단계에서 산출하는 거리 측정 대상점에 관한 거리는,
    입력된 하나의 거리 측정 대상점과 상기 촬영수단 상호 간의 거리인 것을 특징으로 하는 거리 측정 방법.
  11. 제1항에 있어서,
    상기 4단계에서 산출하는 거리 측정 대상점에 관한 거리는,
    입력된 2 개의 거리 측정 대상점들 상호 간의 거리인 것을 특징으로 하는 거리 측정 방법.
  12. 하드웨어와 결합되어 제1항의 거리 측정 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  13. 제1항의 거리 측정 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터로 판독 가능한 기록 매체.
  14. 동영상 촬영이 가능한 촬영수단;
    출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 상기 촬영수단의 이동을 가이드하는 이동 가이드 수단; 및
    상기 촬영수단을 통해 촬영된 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 거리산출수단;을 포함하며,
    상기 거리산출수단은,
    상기 출발 위치에서 촬영된 출발 위치 영상 프레임과 이동 중간에 촬영된 하나 이상의 중간 영상 프레임과 도착 위치에서 촬영된 도착 위치 영상 프레임을 수득하며,
    상기 출발 위치 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임과 도착 위치 영상 프레임을 포함하는 각각의 영상 프레임 내에서 상기 복수의 특징점들의 영상좌표계의 위치를 파악하며,
    각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하며,
    상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 이동 가이드 수단에 의해 파악되는 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여, 어느 하나의 영상 프레임을 입력 영상 프레임으로 하여 입력된 하나 이상의 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리를 산출하는 것을 특징으로 하는 거리 측정 장치.
  15. 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단이 촬영한 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 거리산출수단;을 포함하며,
    상기 거리산출수단은,
    상기 출발 위치에서 촬영된 출발 위치 영상 프레임과 이동 중간에 촬영된 하나 이상의 중간 영상 프레임과 도착 위치에서 촬영된 도착 위치 영상 프레임을 수득하며,
    상기 출발 위치 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하여 상기 중간 영상 프레임과 도착 위치 영상 프레임을 포함하는 각각의 영상 프레임 내에서 상기 복수의 특징점들의 영상좌표계의 위치를 파악하며,
    각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하며,
    상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여, 어느 하나의 영상 프레임을 입력 영상 프레임으로 하여 입력된 하나 이상의 거리 측정 대상점의 실물 스케일에서의 월드 좌표계의 3차원 좌표를 산출하고 거리 측정 대상점에 관한 거리를 산출하는 것을 특징으로 하는 거리 측정 장치.
  16. 출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동하면서 동영상을 촬영하고 촬영된 동영상의 영상 프레임을 이용하여 거리 측정 대상점에 관한 거리를 산출하는 방법으로서,
    출발 위치 및 도착 위치 상호 간의 직선거리를 알 수 있도록 형성된 경로를 따라 촬영수단을 이동시키면서 동영상을 촬영하고,
    촬영된 동영상의 영상 프레임에서 복수의 특징점들을 추출하고 포인트 트랙킹을 실행하며,
    각각의 영상 프레임별로 파악된 상기 복수의 특징점들의 영상좌표계의 위치를 이용하여 영상 프레임 상호 간에 공액기하 구조를 구성하여 영상 프레임 상호 간의 위치 및 방향 관계를 수득하고,
    상기 수득된 영상 프레임 상호 간의 위치 및 방향 관계와 상기 출발 위치 및 도착 위치 상호 간의 직선거리를 이용하여 영상 프레임에 포함된 거리 측정 대상점에 관한 거리를 산출하도록 구성된 거리 측정 방법.
KR1020180046888A 2018-04-23 2018-04-23 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체 KR101991094B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180046888A KR101991094B1 (ko) 2018-04-23 2018-04-23 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180046888A KR101991094B1 (ko) 2018-04-23 2018-04-23 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체

Publications (1)

Publication Number Publication Date
KR101991094B1 true KR101991094B1 (ko) 2019-06-19

Family

ID=67104328

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180046888A KR101991094B1 (ko) 2018-04-23 2018-04-23 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체

Country Status (1)

Country Link
KR (1) KR101991094B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190071280A (ko) * 2017-12-14 2019-06-24 현대자동차주식회사 차량의 사용자 영상 처리 장치 및 그 방법
KR102191845B1 (ko) * 2020-08-03 2020-12-16 사단법인 대한산업안전협회 촬영 위치 조절형 영상기반 시설물 점검 장치
KR102191842B1 (ko) * 2020-08-03 2020-12-16 사단법인 대한산업안전협회 이동 촬영식 시설물 점검 장치
KR102192341B1 (ko) * 2020-08-03 2020-12-17 사단법인 대한산업안전협회 스마트폰 기반 이동 촬영형 시설물 점검 장치
KR20220161684A (ko) 2021-05-31 2022-12-07 한국기계연구원 절대거리 측정 기반 다변측정시스템 및 이를 이용한 다변측정방법
WO2024027634A1 (zh) * 2022-08-01 2024-02-08 京东方科技集团股份有限公司 跑动距离估算方法、装置、电子设备及存储介质
CN117782030A (zh) * 2023-11-24 2024-03-29 北京天数智芯半导体科技有限公司 距离测量方法及装置、存储介质及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002090139A (ja) * 2000-09-20 2002-03-27 Takeshi Hashimoto 距離測定装置及びその方法
KR20090078447A (ko) 2008-01-15 2009-07-20 주식회사 방재안전기술원 디지털카메라로 거리 및 면적을 측정하는 방법과, 이를이용하여 피해정보를 산출하는 방법과, 이에 사용되는피해정보 산출시스템
KR20130038487A (ko) 2011-10-10 2013-04-18 주영환 싱글 카메라를 이용한 물체 거리 측정 장치 및 방법
JP2013186816A (ja) * 2012-03-09 2013-09-19 Topcon Corp 動画処理装置、動画処理方法および動画処理用のプログラム
KR20160111678A (ko) 2015-03-17 2016-09-27 주식회사 유라코퍼레이션 단일 카메라를 이용한 거리 측정 장치 및 방법
JP2017135515A (ja) * 2016-01-26 2017-08-03 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002090139A (ja) * 2000-09-20 2002-03-27 Takeshi Hashimoto 距離測定装置及びその方法
KR20090078447A (ko) 2008-01-15 2009-07-20 주식회사 방재안전기술원 디지털카메라로 거리 및 면적을 측정하는 방법과, 이를이용하여 피해정보를 산출하는 방법과, 이에 사용되는피해정보 산출시스템
KR20130038487A (ko) 2011-10-10 2013-04-18 주영환 싱글 카메라를 이용한 물체 거리 측정 장치 및 방법
JP2013186816A (ja) * 2012-03-09 2013-09-19 Topcon Corp 動画処理装置、動画処理方法および動画処理用のプログラム
KR20160111678A (ko) 2015-03-17 2016-09-27 주식회사 유라코퍼레이션 단일 카메라를 이용한 거리 측정 장치 및 방법
JP2017135515A (ja) * 2016-01-26 2017-08-03 キヤノン株式会社 撮像装置及びその制御方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190071280A (ko) * 2017-12-14 2019-06-24 현대자동차주식회사 차량의 사용자 영상 처리 장치 및 그 방법
KR102540918B1 (ko) 2017-12-14 2023-06-07 현대자동차주식회사 차량의 사용자 영상 처리 장치 및 그 방법
KR102191845B1 (ko) * 2020-08-03 2020-12-16 사단법인 대한산업안전협회 촬영 위치 조절형 영상기반 시설물 점검 장치
KR102191842B1 (ko) * 2020-08-03 2020-12-16 사단법인 대한산업안전협회 이동 촬영식 시설물 점검 장치
KR102192341B1 (ko) * 2020-08-03 2020-12-17 사단법인 대한산업안전협회 스마트폰 기반 이동 촬영형 시설물 점검 장치
KR20220161684A (ko) 2021-05-31 2022-12-07 한국기계연구원 절대거리 측정 기반 다변측정시스템 및 이를 이용한 다변측정방법
JP2022184683A (ja) * 2021-05-31 2022-12-13 韓国機械研究院 絶対距離測定に基づくマルチラテレーションシステム及びこれを用いたマルチラテレーション方法
JP7264974B2 (ja) 2021-05-31 2023-04-25 韓国機械研究院 絶対距離測定に基づくマルチラテレーションシステム及びこれを用いたマルチラテレーション方法
WO2024027634A1 (zh) * 2022-08-01 2024-02-08 京东方科技集团股份有限公司 跑动距离估算方法、装置、电子设备及存储介质
CN117782030A (zh) * 2023-11-24 2024-03-29 北京天数智芯半导体科技有限公司 距离测量方法及装置、存储介质及电子设备

Similar Documents

Publication Publication Date Title
KR101991094B1 (ko) 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US20190379885A1 (en) Optimized object scanning using sensor fusion
US11037325B2 (en) Information processing apparatus and method of controlling the same
JP4586709B2 (ja) 撮像装置
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
US8452081B2 (en) Forming 3D models using multiple images
US8447099B2 (en) Forming 3D models using two images
EP3067861A2 (en) Determination of a coordinate conversion parameter
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20190228263A1 (en) Training assistance using synthetic images
WO2018112788A1 (zh) 图像处理方法及设备
JP5631086B2 (ja) 情報処理装置及びその制御方法、プログラム
JP6985897B2 (ja) 情報処理装置およびその制御方法、プログラム
TW201335888A (zh) Ar影像處理裝置及方法
US11138743B2 (en) Method and apparatus for a synchronous motion of a human body model
JP2021060868A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019044038A1 (ja) 撮影対象追跡装置及び撮影対象追跡方法
WO2020032254A1 (ja) 注意対象推定装置及び注意対象推定方法
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7334460B2 (ja) 作業支援装置及び作業支援方法
JP2006113832A (ja) ステレオ画像処理装置およびプログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant