KR102439142B1 - 기간 시설의 이미지를 획득하는 방법 및 장치 - Google Patents

기간 시설의 이미지를 획득하는 방법 및 장치 Download PDF

Info

Publication number
KR102439142B1
KR102439142B1 KR1020200038035A KR20200038035A KR102439142B1 KR 102439142 B1 KR102439142 B1 KR 102439142B1 KR 1020200038035 A KR1020200038035 A KR 1020200038035A KR 20200038035 A KR20200038035 A KR 20200038035A KR 102439142 B1 KR102439142 B1 KR 102439142B1
Authority
KR
South Korea
Prior art keywords
image
image frames
region
information
interest
Prior art date
Application number
KR1020200038035A
Other languages
English (en)
Other versions
KR20210121424A (ko
Inventor
정형조
김인호
이진환
윤성식
권기훈
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020200038035A priority Critical patent/KR102439142B1/ko
Publication of KR20210121424A publication Critical patent/KR20210121424A/ko
Application granted granted Critical
Publication of KR102439142B1 publication Critical patent/KR102439142B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N5/23206
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Studio Devices (AREA)

Abstract

기간 시설의 일부 또는 전부를 포함하는 관심 영역의 복수의 이미지 프레임 및 복수의 이미지 프레임의 촬영 중 획득되는 메타데이터를 이미지 촬영 장치로부터 수신하는 단계, 메타데이터를 사용하여 복수의 이미지 프레임을 결합하고, 복수의 이미지 프레임의 결합 결과를 바탕으로 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 단계, 그리고 누락 부분에 관한 정보를 이미지 촬영 장치에게 전달하고, 이미지 촬영 장치로부터 누락 부분에 대응하는 이미지 프레임을 수신하는 단계를 통해 기간 시설의 이미지를 획득하는 방법 및 장치가 제공된다.

Description

기간 시설의 이미지를 획득하는 방법 및 장치{METHOD AND APPARATUS FOR ACQUIRING IMAGE OF OBJECT}
본 기재는 기간 시설의 관리를 위한 이미지를 획득하는 방법 및 장치에 관한 것이다.
드론과 영상 장비를 사용하여 교량 등의 기간 시설의 2차원 이미지가 획득될 수 있고, 획득된 2차원 이미지는 기간 시설의 점검을 위해 사용될 수 있다. 2차원 이미지는, 기하학적 방법, 호모그래피(homography) 방법, 3차원 변환 방법 등을 통해 처리될 수 있다.
한 실시예는, 복수의 이미지 프레임 및 그에 대응하는 메타데이터를 사용하여 기간 시설의 이미지를 분석하는 이미지 분석 장치를 제공한다.
다른 실시예는 복수의 이미지 프레임 및 그에 대응하는 메타데이터를 사용하여 기간 시설의 이미지를 획득하는 이미지 획득 방법을 제공한다.
또 다른 실시예는 복수의 이미지 프레임 및 그에 대응하는 메타데이터를 사용하여 기간 시설의 이미지를 획득하는 이미지 획득 시스템을 제공한다.
한 실시예에 따르면, 기간 시설의 이미지를 분석하는 장치가 제공된다. 상기 이미지 분석 장치는 기간 시설의 일부 또는 전부를 포함하는 관심 영역의 복수의 이미지 프레임 및 복수의 이미지 프레임의 촬영 중 획득되는 메타데이터를 이미지 촬영 장치로부터 수신하는 통신부, 및 메타데이터를 사용하여 복수의 이미지 프레임을 결합하고, 복수의 이미지 프레임의 결합 결과를 바탕으로 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 분석 프로세서를 포함하고, 통신부는 또한, 누락 부분이 있을 때, 누락 부분에 관한 정보를 이미지 촬영 장치에게 전송한다.
상기 이미지 분석 장치는, 관심 영역에 대한 촬영 명령을 통신부를 통해 이미지 촬영 장치에게 전달하고, 누락 부분에 대한 촬영 명령을 통신부를 통해 이미지 촬영 장치에게 전달하는 제어 프로세서를 더 포함할 수 있다.
상기 이미지 분석 장치에서, 메타데이터는, 이미지 촬영 장치가 부착된 비행체의 위치 정보, 이미지 촬영 장치 또는 이미지 촬영 장치 내의 카메라의 자세 정보, 및 이미지 촬영 장치 또는 카메라로부터 관심 영역 내의 촬영 지점까지의 거리 정보 중 적어도 하나를 포함할 수 있다.
상기 이미지 분석 장치에서, 분석 프로세서는, 위치 정보, 자세 정보, 및 거리 정보 중 적어도 하나를 사용하여 좌표 변환을 통해 각 이미지 프레임의 중심 좌표를 결정하고, 복수의 이미지 프레임의 중심 좌표와, 복수의 이미지 프레임의 꼭지점 좌표를 사용하여 복수의 이미지 프레임을 결합할 수 있다.
상기 이미지 분석 장치에서, 분석 프로세서는, 자세 정보를 사용하여 제1 동차 변환 행렬을 결정하고, 제1 동차 변환 행렬을 사용하여 위치 정보에 따른 비행체 좌표계로부터 카메라 좌표계로의 좌표 변환을 수행할 수 있다.
상기 이미지 분석 장치에서, 분석 프로세서는, 거리 정보를 사용하여 제2 동차 변환 행렬을 결정하고, 제2 동차 변환 행렬을 사용하여 카메라 좌표계에서 촬영 지점이 포함된 전체 좌표계로의 좌표 변환을 수행하며, 전체 좌표계에서 복수의 이미지 프레임의 중심 좌표를 결정할 수 있다.
상기 이미지 분석 장치에서, 분석 프로세서는, 거리 정보, 카메라의 이미지 센서의 크기, 및 카메라의 렌즈의 초점 거리를 바탕으로 시야각을 계산하고, 중심 좌표와 시야각을 사용하여 꼭지점 좌표를 결정할 수 있다.
상기 이미지 분석 장치에서, 분석 프로세서는, 관심 영역의 전체를 나타내는 사진과 복수의 이미지 프레임의 결합 결과를 비교하여 누락 부분을 결정할 수 있다.
상기 이미지 분석 장치에서, 누락 부분에 관한 정보는 누락 부분의 중심 좌표를 포함할 수 있다.
다른 실시예에 따르면, 기간 시설의 이미지를 획득하는 방법이 제공된다. 상기 이미지 획득 방법은, 기간 시설의 일부 또는 전부를 포함하는 관심 영역의 복수의 이미지 프레임 및 복수의 이미지 프레임의 촬영 중 획득되는 메타데이터를 이미지 촬영 장치로부터 수신하는 단계, 메타데이터를 사용하여 복수의 이미지 프레임을 결합하고, 복수의 이미지 프레임의 결합 결과를 바탕으로 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 단계, 그리고 누락 부분에 관한 정보를 이미지 촬영 장치에게 전달하고, 이미지 촬영 장치로부터 누락 부분에 대응하는 이미지 프레임을 수신하는 단계를 포함한다.
상기 이미지 획득 방법에서, 메타데이터는 이미지 촬영 장치가 부착된 비행체의 위치 정보, 이미지 촬영 장치 또는 이미지 촬영 장치 내의 카메라의 자세 정보, 및 이미지 촬영 장치 또는 카메라로부터 관심 영역 내의 촬영 지점까지의 거리 정보를 포함할 수 있다.
상기 이미지 획득 방법에서 메타데이터를 사용하여 복수의 이미지 프레임을 결합하고, 복수의 이미지 프레임의 결합 결과를 바탕으로 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 단계는, 위치 정보, 자세 정보, 및 거리 정보를 사용하여 좌표 변환을 통해 각 이미지 프레임의 중심 좌표를 결정하는 단계, 그리고 복수의 이미지 프레임의 중심 좌표와, 복수의 이미지 프레임의 꼭지점 좌표를 사용하여 복수의 이미지 프레임을 결합하는 단계를 포함할 수 있다.
상기 이미지 획득 방법에서 위치 정보, 자세 정보, 및 거리 정보를 사용하여 좌표 변환을 통해 각 이미지 프레임의 중심 좌표를 결정하는 단계는, 자세 정보를 사용하여 제1 동차 변환 행렬을 결정하고, 제1 동차 변환 행렬을 사용하여 위치 정보에 따른 비행체 좌표계로부터 카메라 좌표계로의 좌표 변환을 수행하는 단계, 거리 정보를 사용하여 제2 동차 변환 행렬을 결정하고, 제2 동차 변환 행렬을 사용하여 카메라 좌표계에서 촬영 지점이 포함된 전체 좌표계로의 좌표 변환을 수행하는 단계, 그리고 전체 좌표계에서 복수의 이미지 프레임의 중심 좌표를 결정하는 단계를 포함할 수 있다.
상기 이미지 획득 방법에서 복수의 이미지 프레임의 중심 좌표와, 복수의 이미지 프레임의 꼭지점 좌표를 사용하여 복수의 이미지 프레임을 결합하는 단계는, 거리 정보, 카메라의 이미지 센서의 크기, 및 카메라의 렌즈의 초점 거리를 바탕으로 시야각을 계산하고, 중심 좌표와 시야각을 사용하여 꼭지점 좌표를 결정하는 단계를 포함할 수 있다.
상기 이미지 획득 방법에서 메타데이터를 사용하여 복수의 이미지 프레임을 결합하고, 복수의 이미지 프레임의 결합 결과를 바탕으로 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 단계는, 관심 영역의 전체를 나타내는 사진과 복수의 이미지 프레임의 결합 결과를 비교하여 누락 부분을 결정하는 단계를 포함할 수 있다.
상기 이미지 획득 방법에서 누락 부분에 관한 정보는 누락 부분의 중심 좌표를 포함할 수 있다.
또 다른 실시예에 따르면, 기간 시설의 이미지를 획득하는 시스템이 제공된다. 상기 이미지 획득 시스템은, 기간 시설의 일부 또는 전부를 포함하는 관심 영역에 대한 촬영 명령에 따라 관심 영역을 촬영하여 복수의 이미지 프레임을 생성하고, 촬영시 복수의 이미지 프레임에 각각 대응하는 메타데이터를 획득하는 이미지 촬영 장치 및 메타데이터를 사용하여 복수의 이미지 프레임을 결합하고, 복수의 이미지 프레임의 결합 결과를 바탕으로 관심 영역에서 촬영되지 않은 누락 부분을 결정하며, 누락 부분에 관한 정보를 이미지 촬영 장치에게 전달하는 이미지 분석 장치를 포함한다.
상기 이미지 획득 시스템에서 이미지 촬영 장치는, 누락 부분에 관한 정보가 전달되거나 또는 누락 부분에 관한 정보를 포함하는 누락 부분의 추가 촬영 명령을 수신하면, 누락 부분을 추가 촬영할 수 있다.
상기 이미지 획득 시스템에서 이미지 분석 장치는, 이미지 촬영 장치에 의해 누락 부분에 대응하는 이미지 프레임이 수신되면 누락 부분에 대응하는 이미지 프레임을 결합된 복수의 이미지 프레임에 부가하여 관심 영역의 이미지를 생성하고, 관심 영역의 이미지를 기간 시설의 점검을 수행하는 점검 장치에게 전달할 수 있다.
상기 이미지 획득 시스템에서 이미지 촬영 장치는, 관심 영역 또는 누락 부분을 미리 설정된 촬영 시간 동안 미리 설정된 프레임 속도로 촬영할 수 있다.
복수의 이미지 프레임이 결합될 때의 컴퓨팅 자원이 위치 정보 및 자세 정보 등의 메타데이터의 효율적 사용을 통해 적게 소모될 수 있다. 또한 누락 부분이 신속하고 정확하게 결정됨으로써, 기간 시설의 점검을 위한 시간 및 비용도 절약될 수 있다.
도 1은 한 실시예에 따른 기간 시설의 이미지를 획득하는 이미지 획득 시스템을 나타낸 개념도이다.
도 2는 한 실시예에 따른 관심 영역의 이미지 획득 방법을 나타낸 흐름도이다.
도 3은 한 실시예에 따른 각 프레임에 대응하는 메타데이터를 나타낸 도면이다.
도 4는 한 실시예에 따른 프레임 결합 방법을 나타낸 흐름도이다.
도 5는 한 실시예에 따른 이미지 촬영 장치와 관심 영역의 프레임 사이의 관계를 나타낸 개념도이다.
도 6은 한 실시예에 따른 결합된 일부 프레임을 나타낸 개념도이다.
도 7은 한 실시예에 따른 결합된 복수의 프레임을 나타낸 개념도이다.
도 8은 다른 실시예에 따른 이미지 분석 장치를 나타낸 블록도이다.
아래에서는 첨부한 도면을 참고로 하여 본 기재의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 기재는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 기재를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 한 실시예에 따른 기간 시설의 이미지를 획득하는 이미지 획득 시스템을 나타낸 개념도이다.
도 1을 참조하면, 한 실시예에 따른 기간 시설의 이미지를 획득하는 이미지 획득 시스템은, 이미지 촬영 장치(100), 이미지 분석 장치(200), 및 제어부(300)를 포함한다.
이미지 촬영 장치(100)는 카메라(110), 센서(120), 제어부(130), 및 무선 송수신기(140)를 포함할 수 있다. 한 실시예에 따른 이미지 촬영 장치(100)는 비행체(미도시)에 부착될 수 있고, 비행체는 유인 비행체이거나 또는 드론 등 무인 비행체일 수 있다.
카메라(110)는 제어부(130)의 제어 하에 관심 영역을 일정한 촬영 시간 동안 일정한 프레임 속도(frame rate)로 촬영할 수 있다. 관심 영역은 기간 시설의 일부 또는 전부를 포함하는 영역으로서, 기간 시설의 유지보수 또는 점검 등을 위한 범위로 미리 결정될 수 있다. 관심 영역은, 예를 들어, 교량의 교량 받침 및 하부 구조 등 기간 시설의 특정 부분을 포함할 수 있다. 촬영 시간 및 프레임 속도는 촬영 환경 등에 따라 미리 설정될 수 있다. 촬영 시간 및 프레임 속도에 관한 정보는 제어 서버(300)로부터 수신되는 촬영 명령 내에 포함되거나, 또는 제어부(130)에 미리 로딩되어 있을 수 있다. 예를 들어, 촬영 시간은 2초일 수 있고, 프레임 속도는 5fps(frame per second)일 수 있다.
센서(120)는, 위치 센서, 자세 센서, 및 거리 센서를 포함할 수 있다. 위치 센서는 이미지 촬영 장치(100)가 부착된 비행체의 위치 정보(xu,yu,zu)를 획득할 수 있는 GPS(global positioning system) 센서일 수 있다. 또는 위치 센서는 GPS 음영 지역에서 비행체 또는 이미지 촬영 장치(100)의 위치를 추정하기 위한 모노 카메라 및 3차원 라이다(light detection and ranging, Lidar)를 더 포함할 수 있다. 자세 센서는 비행체의 자세 정보를 획득하는 관성 측정 장치(inertial measurement unit, IMU) 및/또는 이미지 촬영 장치(100)의 자세 정보를 획득하는 IMU일 수 있다. 이때, 센서(120)에 의해 획득되는 자세 정보는 비행체의 자세 정보(
Figure 112020032779239-pat00001
,
Figure 112020032779239-pat00002
,
Figure 112020032779239-pat00003
) 및/또는 카메라의 자세 정보(
Figure 112020032779239-pat00004
c,
Figure 112020032779239-pat00005
c,
Figure 112020032779239-pat00006
c)를 포함할 수 있다. 거리 센서는 음파, 적외선, 레이저 등을 이용하여 이미지 촬영 장치(100)로부터 관심 영역까지의 거리(
Figure 112020032779239-pat00007
)를 나타내는 거리 정보를 획득할 수 있다. 예를 들어 거리 센서는 1차원 라이다일 수 있다.
제어부(130)는 무선 송수신기(140)를 통해 제어 서버(300)로부터 수신된 촬영 명령에 따라 카메라(110)를 제어함으로써 관심 영역에 대한 촬영을 수행할 수 있다. 또한 제어부(130)는 센서(120)를 제어하여 촬영 중 메타데이터를 획득할 수 있다. 메타데이터는 이미지 촬영 장치(100)의 위치 정보 및 자세 정보와, 이미지 촬영 장치(100)로부터 관심 영역까지의 거리 정보를 포함할 수 있다.
제어부(130)는 프로세서(131) 및 메모리(132)를 포함할 수 있다. 프로세서(131)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(132)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(132)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다. 본 기재의 실시예에서 메모리는 프로세서(131)의 내부 또는 외부에 위치할 수 있고, 메모리는 이미 알려진 다양한 수단을 통해 프로세서(131)와 연결될 수 있다. 메모리는 다양한 형태의 휘발성 또는 비휘발성 저장 매체이며, 예를 들어, 메모리는 읽기 전용 메모리(read-only memory, ROM) 또는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있다.
무선 송수신기(140)는 제어 서버(300)로부터 수신되는 명령을 제어부(130)에 전달하고, 카메라(110)에 의해 촬영된 이미지 프레임과, 센서(120)에 의해 획득된 메타데이터를 제어 서버(300) 또는 이미지 분석 장치(200)에게 전달할 수 있다.
이미지 분석 장치(200)는 분석 프로세서(210), 저장 장치(220), 및 통신부(230)를 포함할 수 있다.
이미지 분석 장치(200)의 분석 프로세서(210)는 저장 장치(220)에 저장된 관심 영역의 이미지 프레임과, 관심 영역이 촬영될 때의 메타데이터를 바탕으로 각 프레임의 좌표를 결정할 수 있고, 프레임의 좌표를 바탕으로 관심 영역의 촬영이 완료되었는지 여부를 결정할 수 있다. 분석 프로세서(210)는 관심 영역 내에 누락 부분이 존재하는 것으로 판단하면, 통신부(230)를 통해 이미지 촬영 장치(100) 또는 제어 서버(300)에게 누락 부분에 관한 정보를 전달할 수 있다. 분석 프로세서(210)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 저장 장치(220)에 저장된 명령을 실행하는 반도체 장치일 수 있다.
이미지 분석 장치(200)의 저장 장치(220)는 이미지 촬영 장치(100)에 의해 촬영된 관심 영역의 이미지 프레임 및 이미지 촬영 장치(100)가 관심 영역을 촬영할 때 획득된 메타데이터를 저장할 수 있다. 관심 영역의 이미지 프레임과 메타데이터는 이미지 촬영 장치(100)에 의해 매칭된 후 함께 통신부(230)를 통해 저장 장치(220)로 수신될 수 있고, 또는 저장 장치(220)가 수신된 프레임과 메타데이터를 매칭하여 저장할 수 있다. 저장 장치(220)는 프레임과 메타데이터의 매칭을 위해 프레임의 타임 스탬프를 사용할 수 있다. 저장 장치(220)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다. 본 기재의 실시예에서 저장 장치(220)는 이미 알려진 다양한 수단을 통해 분석 프로세서(210)와 연결될 수 있다. 저장 장치(220)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체이며, 예를 들어, 저장 장치(220)는 읽기 전용 메모리(read-only memory, ROM) 또는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있다.
제어 서버(300)는 비행체를 기간 시설이 위치하는 촬영 지점까지 이동시키도록 제어하고, 이미지 촬영 장치(100)에게 기간 시설의 관심 영역을 촬영하도록 하기 위한 촬영 명령을 전송할 수 있다. 제어 서버(300)는 이미지 촬영 장치(100)에서 촬영된 이미지 프레임 및 이미지 촬영 장치(100)의 촬영 중 획득된 메타데이터를 이미지 분석 장치(200)에게 전달할 수 있다. 제어 서버(300)는, 이미지 분석 장치(200)의 분석 결과를 바탕으로 관심 영역에 누락 부분이 존재하는 것으로 판단되면, 이미지 촬영 장치(100)에게 누락 부분의 촬영 명령을 전송할 수 있다.
제어 서버(300)는, 도 1에 도시된 것과 달리 이미지 분석 장치(200) 내에 포함될 수 있다. 제어 서버(300)가 이미지 분석 장치(200) 내에 포함되면, 관심 영역을 촬영하기 위한 촬영 명령 및 관심 영역의 누락 부분을 촬영하기 위한 촬영 명령은 이미지 분석 장치(200)에서 이미지 촬영 장치(100)에게 전달될 수 있다.
도 2는 한 실시예에 따른 관심 영역의 이미지 획득 방법을 나타낸 흐름도이고, 도 3은 한 실시예에 따른 각 프레임에 대응하는 메타데이터를 나타낸 도면이다.
도 2를 참조하면, 한 실시예에 따른 이미지 획득 시스템의 제어 서버(300)는 이미지 촬영 장치(100)에게 관심 영역의 촬영 명령을 전송한다(S110). 제어 서버가 이미지 분석 장치(200) 내에 포함될 때, 관심 영역에 대한 촬영 명령은 이미지 분석 장치(200)에서 이미지 촬영 장치(100)에게 전송될 수 있다.
무선 송수신기(140)를 통해 제어 서버(300)의 촬영 명령을 수신한 이미지 촬영 장치(100)의 제어부(130)는 카메라(110)를 제어하여 관심 영역을 촬영한다(S120). 제어부(130)는 미리 설정된 촬영 시간 동안 미리 설정된 프레임 속도로 관심 영역을 촬영하도록 카메라(110)를 제어할 수 있다.
카메라(110)가 관심 영역을 촬영하여 복수의 이미지 프레임을 생성할 때, 메타데이터가 센서(120)에 의해 획득된다. 관심 영역의 복수의 이미지 프레임과 각 프레임에 대응하는 메타데이터는 이미지 분석 장치(200)에게 전달된다(S130). 이미지 분석 장치(200) 내에 무선 송수신기가 포함되어 있지 않을 때, 이미지 촬영 장치(100)는 무선 송수신기(140)를 통해 제어 서버(300)에게 복수의 이미지 프레임 및 메타데이터를 전송하고(S130-1), 제어 서버(300)는 유선으로 이미지 분석 장치(200)에게 관심 영역의 이미지 프레임 및 복수의 이미지 프레임에 각각 대응하는 메타데이터를 전달할 수 있다(S130-2). 관심 영역의 복수의 이미지 프레임과 복수의 이미지 프레임에 각각 대응하는 메타데이터는 함께 전송될 수도 있고 개별적으로 전송될 수도 있다. 예를 들어, 이미지 촬영 장치(100)는 각 이미지 프레임이 획득되면 다음 이미지 프레임을 전송하기 전에 이전 이미지 프레임과 이전 이미지 프레임에 대응하는 메타데이터를 함께 전송할 수 있다. 또는 이미지 촬영 장치(100)는 미리 설정된 촬영 시간 동안 촬영된 모든 이미지 프레임을 개별적으로 또는 한꺼번에 전송하고, 이후 각 이미지 프레임에 대응하는 메타데이터를 전송할 수 있다.
도 3을 참조하면, 10개의 이미지 프레임에 각각 대응하는 메타데이터 세트가 도시되어 있다. 예를 들어, 0번 프레임은 16시31분42초에 촬영되었고, 그때 이미지 촬영 장치(100)에서 관심 영역까지의 거리는 13.57m이고, 이미지 촬영 장치(100)의 경도 및 위도(즉, 위치 정보)는 약 127.65도 및 약 37.82도이며, 이미지 촬영 장치(100)의 요(yaw) 각도, 롤링(roll) 각도, 및 피치(pitch) 각도(즉, 자세 정보)는 각각 약 1.69도, 0도, 및 0.12도이다. 도 3을 참조하면, 이미지 촬영 장치(100)는 12초 동안 13.57m에서 12.52m로 관심 영역으로 접근하면서 10장의 이미지 프레임을 획득할 수 있다.
이미지 분석 장치(200)는 메타데이터를 사용하여 이미지 프레임의 좌표를 결정할 수 있다(S140), 이후, 이미지 분석 장치(200)는 복수의 이미지 프레임의 좌표를 바탕으로 누락 부분을 결정할 수 있다(S150). 누락 부분은 관심 영역 내에 촬영되지 않은 부분이고, 이미지 촬영 장치(100)에 의해 촬영되어야 할 부분이다. 아래에서는 도 4 및 도 5를 사용하여 이미지 분석 장치(200)가 이미지 프레임의 좌표를 결정하고, 누락 부분을 결정하는 방법을 상세히 설명한다.
도 4는 한 실시예에 따른 프레임 결합 방법을 나타낸 흐름도이고, 도 5는 한 실시예에 따른 이미지 촬영 장치와 관심 영역의 프레임 사이의 관계를 나타낸 개념도이고, 도 6은 한 실시예에 따른 결합된 일부 프레임을 나타낸 개념도이며, 도 7은 실시예에 따른 결합된 복수의 프레임을 나타낸 개념도이다.
도 4를 참조하면, 이미지 분석 장치(200)의 분석 프로세서(210)는 동차 변환 행렬(Homogeneous Transformation Matrix, HTM)을 사용하여 메타데이터를 변환함으로써, 각 이미지 프레임의 중심 좌표를 결정할 수 있다(S141). 메타데이터는 저장 장치(220) 내에 저장되어 있을 수 있고, 비행체의 위치 정보, 비행체 및/또는 카메라(110)의 자세 정보, 및 이미지 촬영 장치(100)(또는 카메라(110))에서 관심 영역 내의 촬영 지점까지의 거리 정보 등을 포함할 수 있다.
한 실시예에 따른 분석 프로세서(210)는, 비행체 및/또는 카메라(110)의 자세 정보를 활용하여 제1 동차 변환 행렬을 결정하고, 제1 동차 변환 행렬을 사용하여 비행체의 위치 정보에 따른 비행체 좌표계로부터 카메라 좌표계로의 좌표 변환을 수행할 수 있다.
분석 프로세서(210)는 이미지 촬영 장치(100)(또는 카메라)로부터 관심 영역 내의 촬영 지점까지의 거리 정보를 활용하여 제2 동차 변환 행렬을 결정하고, 제2 동차 변환 행렬을 사용하여 카메라 좌표계에서 촬영 지점이 포함된 전체 좌표계로의 동차 좌표 변환을 수행할 수 있다. 이후, 분석 프로세서(210)는 전체 좌표계에서 이미지 프레임의 중심 좌표를 결정할 수 있다.
이후 분석 프로세서(210)는 거리 정보, 카메라(110)의 이미지 센서의 크기, 및 카메라(110)의 렌즈의 초점 거리 등을 바탕으로 시야각(Field of View, FoV)을 계산하고, 중심 좌표와 시야각을 사용하여 이미지 프레임의 꼭지점 좌표를 결정할 수 있다(S142). 시야각은 수직 시야각(FoVv) 및 수평 시야각(FoVh)을 포함할 수 있다.
분석 프로세서(210)는 각 이미지 프레임의 중심 좌표 및 각 이미지 프레임의 꼭지점 좌표를 사용하여 복수의 이미지 프레임을 결합할 수 있다(S151). 분석 프로세서(210)는 인접한 프레임의 꼭지점으로 둘러싸인 폴리라인(polyline)에 의해 형성되는 도형의 면적으로부터 프레임 중복률을 계산할 수 있다. 분석 프로세서(210)는 복수의 이미지 프레임의 결합 결과를 바탕으로 관심 영역 내에서 촬영되지 않은 누락 부분이 존재하는지 여부를 결정할 수 있다(S152).
도 7을 참조하면, 복수의 이미지 프레임이 결합되어 있고, A 부분에 대응하는 이미지 프레임은 결합되어 있지 않다. 이런 경우, 분석 프로세서(210)는 각 이미지 프레임의 좌표를 사용하여 A 부분을 누락 부분으로 결정할 수 있다. 도 7에서,분석 프로세서(210)는 B 부분과 같이 복수의 이미지 프레임에 의해 둘러싸여 있지 않은 부분을 각 프레임별 좌표를 계산함으로써 누락 부분으로 결정할 수 있다. 분석 프로세서(210)는 관심 영역의 전체를 나타내는 사진(예를 들어, 관심 영역을 중심으로 상대적으로 넓은 범위를 나타내는 사진이거나, 또는 저해상도로 미리 촬영된 관심 영역의 사진 등)과 결합된 이미지 프레임 간의 비교를 통해 누락 부분을 결정할 수 있다.
한 실시예에 따르면, 복수의 이미지 프레임이 결합될 때의 컴퓨팅 자원이 위치 정보 및 자세 정보 등의 메타데이터의 효율적 사용을 통해 적게 소모될 수 있다. 또한 누락 부분이 신속하고 정확하게 결정됨으로써, 기간 시설의 점검을 위한 시간 및 비용도 절약될 수 있다.
다시 도 2를 참조하면, 촬영된 복수의 프레임의 결합 결과를 바탕으로 관심 영역 내에 누락 부분이 존재하는 것으로 결정되면, 이미지 분석 장치(200)는 통신부(230)를 통해 이미지 촬영 장치(100) 또는 제어 서버(300)에게 누락 부분에 관한 정보를 전달할 수 있다(S160, S160-1). 누락 부분에 관한 정보는 누락 부분의 중심 좌표일 수 있다. 이미지 분석 장치(200)가 제어 서버(300)에게 누락 부분에 관한 정보를 전달하면, 제어 서버(300)는 이미지 촬영 장치(100)에게 누락 부분의 추가 촬영을 지시하는 추가 촬영 명령을 전송할 수 있다(S160-2). 이때 누락 부분의 추가 촬영 명령은 누락 부분에 관한 정보를 포함할 수 있다. 이미지 촬영 장치(100)는 무선 송수신기(140)를 통해 이미지 분석 장치(200)로부터 누락 부분에 관한 정보를 수신하거나 또는 제어 서버(300)로부터 누락 부분에 대한 추가 촬영 명령을 수신하면, 누락 부분에 관한 정보를 바탕으로 누락 부분을 추가 촬영한다(S170). 이미지 촬영 장치(100)는 누락 부분을 미리 설정된 촬영 시간 동안 미리 설정된 프레임 속도(frame rate)로 촬영할 수 있다.
이후 이미지 촬영 장치(100)가 누락 부분을 촬영하고 누락 부분에 대응하는 이미지 프레임을 획득하면, 이미지 분석 장치(200)는 통신부(230)를 통해 누락 부분에 대응하는 이미지 프레임 및 누락 부분에 대응하는 이미지 프레임에 관한 메타데이터를 수신하고, 상기 메타데이터를 바탕으로 누락 부분에 대응하는 이미지 프레임을 결합된 이미지 프레임에 부가할 수 있다. 이미지 분석 장치(200)는 누락 부분의 추가 촬영을 통해 기간 시설 내의 관심 영역의 이미지가 획득된 것으로 판단되면, 관심 영역의 이미지를 바탕으로 기간 시설의 점검을 수행하거나, 또는 기간 시설의 점검을 수행하기 위한 점검 장치에게 관심 영역의 이미지를 전달할 수 있다.
도 8은 다른 실시예에 따른 이미지 분석 장치를 나타낸 블록도이다.
한 실시예에 따른 이미지 분석 장치는, 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 도 8을 참조하면, 컴퓨터 시스템(800)은, 버스(870)를 통해 통신하는 프로세서(810), 메모리(830), 입력 인터페이스 장치(850), 출력 인터페이스 장치(860), 및 저장 장치(840) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(800)은 또한 네트워크에 결합된 통신 장치(820)를 포함할 수 있다. 프로세서(810)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(830) 또는 저장 장치(840)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(830) 및 저장 장치(840)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다. 본 기재의 실시예에서 메모리는 프로세서의 내부 또는 외부에 위치할 수 있고, 메모리는 이미 알려진 다양한 수단을 통해 프로세서와 연결될 수 있다. 메모리는 다양한 형태의 휘발성 또는 비휘발성 저장 매체이며, 예를 들어, 메모리는 읽기 전용 메모리(read-only memory, ROM) 또는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있다.
따라서, 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.
통신 장치(820)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다.
한편, 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. 구체적으로, 실시예에 따른 방법(예, 네트워크 관리 방법, 데이터 전송 방법, 전송 스케줄 생성 방법 등)은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은, 실시예를 위해 특별히 설계되어 구성된 것이거나, 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체는 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치를 포함할 수 있다. 예를 들어, 컴퓨터 판독 가능 기록 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 롬(ROM), 램(RAM), 플래시 메모리 등일 수 있다. 프로그램 명령은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 통해 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상에서 실시예에 대하여 상세하게 설명하였지만 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 권리범위에 속하는 것이다.

Claims (20)

  1. 기간 시설의 이미지를 분석하는 장치로서,
    상기 기간 시설의 일부 또는 전부를 포함하는 관심 영역의 복수의 이미지 프레임 및 상기 복수의 이미지 프레임의 촬영 중 획득되는 메타데이터를 이미지 촬영 장치로부터 수신하는 통신부, 및
    상기 메타데이터를 사용하여 상기 복수의 이미지 프레임을 결합하고, 상기 복수의 이미지 프레임의 결합 결과를 바탕으로 상기 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 분석 프로세서
    를 포함하고,
    상기 통신부는 또한, 상기 누락 부분이 있을 때, 상기 누락 부분에 관한 정보를 상기 이미지 촬영 장치에게 전송하고,
    상기 메타데이터는, 상기 이미지 촬영 장치가 부착된 비행체의 위치 정보, 상기 이미지 촬영 장치 또는 상기 이미지 촬영 장치 내의 카메라의 자세 정보, 및 상기 이미지 촬영 장치 또는 상기 카메라로부터 상기 관심 영역 내의 촬영 지점까지의 거리 정보를 포함하고,
    상기 분석 프로세서는,
    상기 자세 정보를 사용하여 제1 동차 변환 행렬을 결정하고, 상기 제1 동차 변환 행렬을 사용하여 상기 위치 정보에 따른 비행체 좌표계로부터 카메라 좌표계로의 좌표 변환을 수행하고,
    상기 거리 정보를 사용하여 제2 동차 변환 행렬을 결정하고, 상기 제2 동차 변환 행렬을 사용하여 상기 카메라 좌표계에서 상기 촬영 지점이 포함된 전체 좌표계로의 좌표 변환을 수행하며, 상기 전체 좌표계에서 상기 복수의 이미지 프레임의 중심 좌표를 결정하는, 이미지 분석 장치.
  2. 제1항에서,
    상기 관심 영역에 대한 촬영 명령을 상기 통신부를 통해 상기 이미지 촬영 장치에게 전달하고, 상기 누락 부분에 대한 촬영 명령을 상기 통신부를 통해 상기 이미지 촬영 장치에게 전달하는 제어 프로세서
    를 더 포함하는 이미지 분석 장치.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제1항에서,
    상기 분석 프로세서는, 상기 거리 정보, 상기 카메라의 이미지 센서의 크기, 및 상기 카메라의 렌즈의 초점 거리를 바탕으로 시야각을 계산하고, 상기 중심 좌표와 상기 시야각을 사용하여 상기 복수의 이미지 프레임의 꼭지점 좌표를 결정하는, 이미지 분석 장치.
  8. 제1항에서,
    상기 분석 프로세서는, 상기 관심 영역의 전체를 나타내는 사진과 상기 복수의 이미지 프레임의 결합 결과를 비교하여 상기 누락 부분을 결정하는, 이미지 분석 장치.
  9. 제1항에서,
    상기 누락 부분에 관한 정보는 상기 누락 부분의 중심 좌표를 포함하는, 이미지 분석 장치.
  10. 기간 시설의 이미지를 획득하는 방법으로서,
    상기 기간 시설의 일부 또는 전부를 포함하는 관심 영역의 복수의 이미지 프레임 및 상기 복수의 이미지 프레임의 촬영 중 획득되는 메타데이터를 이미지 촬영 장치로부터 수신하는 단계,
    상기 메타데이터를 사용하여 상기 복수의 이미지 프레임을 결합하고, 상기 복수의 이미지 프레임의 결합 결과를 바탕으로 상기 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 단계, 그리고
    상기 누락 부분에 관한 정보를 상기 이미지 촬영 장치에게 전달하고, 상기 이미지 촬영 장치로부터 상기 누락 부분에 대응하는 이미지 프레임을 수신하는 단계
    를 포함하고,
    상기 메타데이터는 상기 이미지 촬영 장치가 부착된 비행체의 위치 정보, 상기 이미지 촬영 장치 또는 상기 이미지 촬영 장치 내의 카메라의 자세 정보, 및 상기 이미지 촬영 장치 또는 상기 카메라로부터 상기 관심 영역 내의 촬영 지점까지의 거리 정보를 포함하고,
    상기 메타데이터를 사용하여 상기 복수의 이미지 프레임을 결합하고, 상기 복수의 이미지 프레임의 결합 결과를 바탕으로 상기 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 단계는,
    상기 자세 정보를 사용하여 제1 동차 변환 행렬을 결정하고, 상기 제1 동차 변환 행렬을 사용하여 상기 위치 정보에 따른 비행체 좌표계로부터 카메라 좌표계로의 좌표 변환을 수행하는 단계,
    상기 거리 정보를 사용하여 제2 동차 변환 행렬을 결정하고, 상기 제2 동차 변환 행렬을 사용하여 상기 카메라 좌표계에서 상기 촬영 지점이 포함된 전체 좌표계로의 좌표 변환을 수행하는 단계, 그리고
    상기 전체 좌표계에서 상기 복수의 이미지 프레임의 중심 좌표를 결정하는 단계
    를 포함하는, 이미지 획득 방법.
  11. 삭제
  12. 제10항에서,
    상기 메타데이터를 사용하여 상기 복수의 이미지 프레임을 결합하고, 상기 복수의 이미지 프레임의 결합 결과를 바탕으로 상기 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 단계는,
    상기 복수의 이미지 프레임의 상기 중심 좌표와, 상기 복수의 이미지 프레임의 꼭지점 좌표를 사용하여 상기 복수의 이미지 프레임을 결합하는 단계
    를 더 포함하는, 이미지 획득 방법.
  13. 삭제
  14. 제12항에서,
    상기 복수의 이미지 프레임의 중심 좌표와, 상기 복수의 이미지 프레임의 꼭지점 좌표를 사용하여 상기 복수의 이미지 프레임을 결합하는 단계는,
    상기 거리 정보, 상기 카메라의 이미지 센서의 크기, 및 상기 카메라의 렌즈의 초점 거리를 바탕으로 시야각을 계산하고, 상기 중심 좌표와 상기 시야각을 사용하여 상기 꼭지점 좌표를 결정하는 단계
    를 포함하는, 이미지 획득 방법.
  15. 제10항에서,
    상기 메타데이터를 사용하여 상기 복수의 이미지 프레임을 결합하고, 상기 복수의 이미지 프레임의 결합 결과를 바탕으로 상기 관심 영역에서 촬영되지 않은 누락 부분을 결정하는 단계는,
    상기 관심 영역의 전체를 나타내는 사진과 상기 복수의 이미지 프레임의 결합 결과를 비교하여 상기 누락 부분을 결정하는 단계
    를 포함하는, 이미지 획득 방법.
  16. 제10항에서,
    상기 누락 부분에 관한 정보는 상기 누락 부분의 중심 좌표를 포함하는, 이미지 획득 방법.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020200038035A 2020-03-30 2020-03-30 기간 시설의 이미지를 획득하는 방법 및 장치 KR102439142B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200038035A KR102439142B1 (ko) 2020-03-30 2020-03-30 기간 시설의 이미지를 획득하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200038035A KR102439142B1 (ko) 2020-03-30 2020-03-30 기간 시설의 이미지를 획득하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20210121424A KR20210121424A (ko) 2021-10-08
KR102439142B1 true KR102439142B1 (ko) 2022-09-01

Family

ID=78610155

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200038035A KR102439142B1 (ko) 2020-03-30 2020-03-30 기간 시설의 이미지를 획득하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102439142B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171224A (ja) * 2004-12-14 2006-06-29 Mitsubishi Electric Corp 撮影映像処理システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130005215A (ko) * 2011-07-05 2013-01-15 한국전자통신연구원 주문형 공간영상 획득 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171224A (ja) * 2004-12-14 2006-06-29 Mitsubishi Electric Corp 撮影映像処理システム

Also Published As

Publication number Publication date
KR20210121424A (ko) 2021-10-08

Similar Documents

Publication Publication Date Title
US20210133996A1 (en) Techniques for motion-based automatic image capture
US10681269B2 (en) Computer-readable recording medium, information processing method, and information processing apparatus
CN108537885B (zh) 山体创面三维地形数据的获取方法
WO2019230604A1 (ja) 検査システム
JP2017201261A (ja) 形状情報生成システム
JP2023100642A (ja) 検査システム
WO2023150888A1 (en) System and method for firefighting and locating hotspots of a wildfire
JP2021117047A (ja) 無人飛行体を用いた写真測量方法および無人飛行体を用いた写真測量システム
KR20230082497A (ko) 3차원 포인트 클라우드를 이용한 구조물의 실시간 검진 자동화 방법 및 장치
US20220113421A1 (en) Online point cloud processing of lidar and camera data
WO2019163118A1 (ja) コンピュータシステム、ドローン制御方法及びプログラム
KR102235589B1 (ko) 무인기 착륙 시스템
KR102439142B1 (ko) 기간 시설의 이미지를 획득하는 방법 및 장치
JP2021096865A (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
JP6681101B2 (ja) 検査システム
KR101783585B1 (ko) 플랜트 시설물 관리 방법
WO2021115192A1 (zh) 图像处理装置、图像处理方法、程序及记录介质
KR101415145B1 (ko) 항공기 탑재용 eo/ir 장비 자동임무 수행을 위한 촬영표적좌표 생성방법
WO2019064457A1 (ja) コンピュータシステム、位置推測方法及びプログラム
JP2021022846A (ja) 点検方法、点検システム
JP7363225B2 (ja) 計測装置、計測システム、計測方法およびプログラム
WO2020088397A1 (zh) 位置推定装置、位置推定方法、程序以及记录介质
WO2023195394A1 (ja) 撮像支援装置、移動体、撮像支援方法、及びプログラム
KR20180054219A (ko) 전방위 영상의 좌표 맵핑 방법 및 장치
JP2019020218A (ja) データ間引き装置、測量装置、測量システム及びデータ間引き方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant