KR100991146B1 - 신경 회로망을 이용한 위성 영상 보정 방법 및 장치 - Google Patents

신경 회로망을 이용한 위성 영상 보정 방법 및 장치 Download PDF

Info

Publication number
KR100991146B1
KR100991146B1 KR1020080113771A KR20080113771A KR100991146B1 KR 100991146 B1 KR100991146 B1 KR 100991146B1 KR 1020080113771 A KR1020080113771 A KR 1020080113771A KR 20080113771 A KR20080113771 A KR 20080113771A KR 100991146 B1 KR100991146 B1 KR 100991146B1
Authority
KR
South Korea
Prior art keywords
image
satellite
neural network
pixels
satellite image
Prior art date
Application number
KR1020080113771A
Other languages
English (en)
Other versions
KR20100054929A (ko
Inventor
서석배
구인회
안상일
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020080113771A priority Critical patent/KR100991146B1/ko
Priority to PCT/KR2009/004722 priority patent/WO2010055992A2/ko
Publication of KR20100054929A publication Critical patent/KR20100054929A/ko
Application granted granted Critical
Publication of KR100991146B1 publication Critical patent/KR100991146B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)

Abstract

본 발명은 신경 회로망을 이용한 위성 영상 보정 방법 및 장치에 관한 것이다. 본 발명에 따른 신경 회로망을 이용한 위성 영상 보정 방법은, 위성 영상을 입력받는 단계, 위성 영상을 보정 처리하여 목표 영상을 생성하는 단계, 위성 영상을 복수의 그룹으로 그룹화하는 단계, 복수의 그룹에서 각각 일정 개수의 R, G, B 픽셀을 추출하는 단계, R, G, B 픽셀과 R, G, B픽셀에 대응하는 목표 영상의 R', G', B' 픽셀을 맵핑하여 신경 회로망에 입력하여 신경 회로망을 학습시키는 단계, 그리고 위성 영상을 학습된 신경 회로망에 입력하여 보정 영상을 생성하는 단계를 포함한다. 본 발명에 따르면, 위성 영상을 RGB 특성에 따라 그룹화하고 각 그룹의 일부 픽셀에 대해 신경 회로망을 이용하여 학습시킴으로써, 용량이 큰 칼라 위성 영상을 한 번에 보정 처리함으로써 시간을 단축시킬 수 있다. 또한 학습된 신경 회로망에 의해서 보정 전 위성 위성과 보정된 위성 영상의 관계를 수식화함으로써 보정을 수행하는 속도를 더욱 단축시킬 수 있다.
위성 영상, 신경 회로망, 분류, 픽셀

Description

신경 회로망을 이용한 위성 영상 보정 방법 및 장치{SATELITE IMAGE CORRECTION METHOD AND APPARATUS USING NEURAL NETWORK}
본 발명은 신경 회로망을 이용한 위성 영상 보정 방법 및 장치에 관한 것으로, 더욱 상세하게는 위성 영상을 RGB 특성에 따라 그룹화하고 각 그룹의 일부 픽셀에 의해 학습된 신경 회로망을 이용하여 위성 영상을 보정하는 방법 및 장치에 관한 것이다.
지구 관측 기술은 인간의 생존과 밀접한 관계가 있는 자원의 탐사, 환경의 감시 및 관리에 중요한 역할을 담당할 수 있는 기술로서 현재뿐만 아니라 미래의 사회를 위하여서도 매우 필요한 기술로 대두되고 있다. 전세계적으로 국가간의 경계가 없어지고 무한 경쟁으로 돌입하는 시대가 도래함에 따라, 지구 관측 기술은 자원 탐사 및 환경 관리에 적극적으로 활용되고 있다.
최근 들어 지구 관측 위성 영상 기술의 발전에 의해 인공 위성으로부터 고정밀, 대용량의 고해상도 위성 영상을 획득할 수 있게 되었다. 고해상도 위성 영상은 농작물 모니터링 및 분석, 국토 관리, 지도 제작, 국방 안보, 환경 관리, 입지 선정 등에 있어서 매우 유용한 자료가 되고 있다. 이와 같이 다양한 분야에서 고 해상도 위성 영상의 활용도가 높아짐에 따라, 수신된 영상을 최대한 신속하게 획득하고자 하는 요구 또한 증가하고 있다.
따라서, 고해상도 지구정찰위성의 개발이 활발해짐에 따라서 큰 용량을 가지는 영상을 한 번에 보정하여 배포 및 활용할 수 있는 기술의 중요성이 부각되고 있다. 특히 고해상도 칼라 위성 영상의 경우 처리 과정이 복잡하고 용량이 크기 때문에 많은 처리 시간이 요구된다.
이에 따라 신경 회로망 기법을 통하여 고해상도 칼라 영상을 처리하는 다양한 시도가 연구되고 있다. 신경 회로망(neural net)은 인간의 뇌신경 세포와 그 결합 구조를 모방하여 만든 전자 회로망으로 영상 인식, 유형 식별 및 비선형 사상(mapping)에 고도의 능력을 발휘한다. 신경 회로망은 생물의 신경 전달 과정을 단순화하고, 이를 수학적으로 해석한 모델로서, 복잡하게 얽혀 있는 신경 세포인 뉴런(Neuron, 신경 회로망에서는 네트워크를 이루는 최소 단위)을 통과시켜가면서 뉴런끼리의 연결 강도를 조절하는 일종의 학습(learning) 과정을 통해 문제를 분석한다. 현재 신경 회로망은 최적화와 예측 문제 해결 등에 많이 사용되고 있으며, 신호 처리, 영상 보정, 음성 인식, 로보틱스(robotics), 항법 시스템 등의 다방면에서 응용되고 있다.
그러나, 인공 위성에서 촬영된 칼라 위성 영상은 해상도가 높고 용량이 매우 크기 때문에 일반적인 신경 회로망을 통해 보정 처리하는데 많은 시간이 필요하며, 복잡한 보정 처리 단계를 거쳐야 한다는 문제점이 있다.
따라서 본 발명이 이루고자 하는 기술적 과제는 학습된 신경 회로망을 통하여 칼라 위성 영상의 보정 처리 시간을 단축시킬 수 있는 신경 회로망을 이용한 위성 영상 보정 방법을 제공하는 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 신경 회로망을 이용한 위성 영상 보정 방법은, 위성 영상을 입력받는 단계, 상기 위성 영상을 보정 처리하여 목표 영상을 생성하는 단계, 상기 위성 영상을 복수의 그룹으로 그룹화하는 단계, 상기 복수의 그룹에서 각각 일정 개수의 R, G, B 픽셀을 추출하는 단계, 상기 R, G, B 픽셀과 상기 R, G, B 픽셀에 대응하는 상기 목표 영상의 R', G', B' 픽셀을 맵핑하여 신경 회로망에 입력하여 상기 신경 회로망을 학습시키는 단계, 그리고 상기 위성 영상을 학습된 상기 신경 회로망에 입력하여 보정 영상을 생성하는 단계를 포함한다.
상기 위성 영상을 보정 처리하여 목표 영상을 생성하는 단계는, 히스토그램 보정, 레벨 조정, 다이나믹 레인지 조정 및 칼라 보정 중에서 적어도 하나를 이용하여 보정 처리할 수 있다.
상기 위성 영상을 복수의 그룹으로 그룹화하는 단계는, 상기 위성 영상을 RGB 특성에 따라 복수의 그룹으로 그룹화할 수 있다.
상기 위성 영상과 상기 보정된 영상 사이에는 아래 수학식과 같은 관계가 형성될 수 있다.
R" = Cr2·R2 + Cr1·R + Cr0
G" = Cr2·G2 + Cr1·G + Cr0
B" = Cr2·B2 + Cr1·B + Cr0
R, G, B는 위성 영상에 포함되는 R, G, B 픽셀 값이며, R", G", B"는 보정된 영상에 포함되는 보정된 R, G, B 픽셀 값이며, Cr2, Cr1, Cr0는 RGB 특성 계수이다.
본 발명의 다른 실시예에 따른 신경 회로망을 이용한 위성 영상 보정 장치는, 위성 영상을 입력받는 영상 입력부, 상기 위성 영상을 보정 처리하여 목표 영상을 생성하는 보정 처리부, 상기 위성 영상을 복수의 그룹으로 그룹화하고, 상기 복수의 그룹에서 각각 일정 개수의 R, G, B 픽셀을 추출하는 패턴 분류부, 상기 R, G, B 픽셀과 상기 R, G, B 픽셀에 대응하는 상기 목표 영상의 R', G', B' 픽셀이 맵핑되어 입력되는 신경 회로망, 그리고 상기 위성 영상을 학습된 상기 신경 회로망에 입력하여 보정 영상을 생성하는 보정 영상 생성부를 포함한다.
이와 같이 본 발명에 의하면, 위성 영상을 RGB 특성에 따라 그룹화하고 각 그룹의 일부 픽셀에 대해 신경 회로망을 이용하여 학습시킴으로써, 용량이 큰 칼라 위성 영상을 한 번에 보정 처리함으로써 시간을 단축시킬 수 있다.
또한 학습된 신경 회로망에 의해서 보정 전 위성 위성과 보정된 위성 영상의 관계를 수식화함으로써 보정을 수행하는 속도를 더욱 단축시킬 수 있다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
먼저 도 1a 및 도 1b를 통하여 일반적인 신경 회로망에 대하여 설명한다. 도 1a 및 도 1b는 일반적인 신경 회로망의 위성 영상 보정 처리 방법을 설명하기 위해 제공되는 도면이다.
도 1a에 따르면, 입력 위성 영상(101, 102, 103)은 인공 위성에서 촬영된 영상으로, 보정 전의 칼라 위성 영상이고 목표 위성 영상(111, 112, 113)은 최종적으로 얻고자 하는 보정된 칼라 위성 영상이다. 신경 회로망에 입력 위성 영상(101, 102, 103)과 목표 위성 영상(111, 112, 113)이 서로 맵핑되어 입력되면, 입력 위성 영상(111, 112, 113)과 목표 위성 영상(111, 112, 113)의 관계는 신경 회로망의 반복적인 학습에 의해서 그 규칙과 가중치 값들이 결정된다.
도 1a와 같은 반복적인 학습 단계를 마치게 되면, 도 1b에서 보는 바와 같이 신경 회로망은 학습결과를 통해 생성된 규칙과 가중치 값을 이용하여 학습에 참여한 입력 위성 영상(101, 102, 103)뿐만 아니라, 학습에 참여하지 않은 임의의 입력 위성 영상(104, 105, 106)에 대해서도 목표 위성 영상(111, 112, 113)과 유사한 출력 위성 영상(114, 115, 116)을 생성할 수 있다.
도 2는 본 발명의 실시예에 따른 위성 영상 보정 처리 장치의 구성을 나타낸 도면이다. 위성 영상 보정 처리 장치(200)는 영상 입력부(210), 보정 처리 부(220), 패턴 분류부(230), 신경 회로망(240) 및 보정 영상 생성부(250)를 포함한다.
영상 입력부(210)는 외부의 인공 위성으로부터 촬영된 위성 영상을 제공받는다. 인공 위성으로부터 촬영된 위성 영상은 보정 전의 칼라 영상으로서, 각각의 픽셀은 R, G, B의 3개 색상으로 구성된다. R, G, B 픽셀이 각각 8비트로 이루어질 경우 R, G, B 픽셀을 통해 구현되는 색상은 16,677,216 종류가 된다.
보정 처리부(220)는 입력된 위성 영상을 히스토그램 보정, 레벨 조정, 다이나믹 레인지 조정, 칼라 보정 등 영상 향상(image enhancement)에 사용되는 알고리즘을 통해 보정 처리하여 목표 영상을 생성한다. 따라서 R, G, B 픽셀을 포함하는 위성 영상은 보정 처리부(220)를 통해 R', G', B' 픽셀을 포함하는 목표 영상으로 보정 처리된다.
패턴 분류부(230)는 입력된 위성 영상을 RGB 특성에 따라서 복수의 그룹으로 분류하고, 각 그룹에서 일정한 개수의 R, G, B 픽셀을 추출하여 신경 회로망(240)을 통해 학습에 참여시킨다. R, G, B 픽셀을 그룹화하는 방식은 유클리드 디스턴스(euclid distance) 방식이 가장 많이 쓰이는데, 예를 들어 위성 영상에 포함되는 R 픽셀의 평균값을 계산하고, R 픽셀의 평균 값과 위성 영상에 포함된 R 픽셀 값의 차이를 구하여, 차이 값에 따라서 입력된 위성 영상을 그룹화 할 수 있다. 그 외에도 R, G, B 픽셀의 혼합 비율, 명도 또는 채도의 차이 등을 이용해서도 그룹화할 수 있다.
신경 회로망(240)에는 각각의 그룹에서 추출된 R, G, B 픽셀과 R, G, B 픽셀 이 각각 보정 처리된 R', G', B' 픽셀이 맵핑(mapping)되어 입력된다. 이와 같은 과정의 반복을 통하여 신경 회로망(240)은 각각의 그룹의 RGB 특성을 반영한 학습을 수행하며, 신경 회로망(240)은 학습 과정 동안 위성 영상 보정과 관련된 가중치를 수정한다.
즉, 신경 회로망(240)은 위성 영상과 목표 영상의 관계에 대하여 학습하게 된다. 그리고, 추후에 입력되는 위성 영상에 따른 입력 패턴과 가장 유사한 패턴 그룹을 찾음으로써, 보정된 위성 영상을 출력하도록 한다. 따라서 위성 영상 보정 처리 장치(200)는 위성 영상의 특성을 신경 회로망(240)에 학습시켜, 추후 학습에 참여하지 않은 임의의 위성 영상에 대해서 보정을 한 번에 수행할 수 있다.
보정 영상 생성부(250)는 학습된 신경 회로망(240)을 통해 보정된 위성 영상을 생성한다. 즉, 보정 영상 생성부(250)는 학습된 신경 회로망(240)에 위성 영상을 입력하여 보정 영상을 생성하도록 한다. 따라서 R, G, B 픽셀을 포함하는 위성 영상은 학습된 신경 회로망(240)를 통해 R", G", B" 픽셀을 포함하는 보정 영상으로 변환된다.
이하에서는 도 3 및 도 4를 통하여 신경 회로망(240)을 학습시키는 과정에 대해서 설명한다. 도 3은 본 발명의 실시예에 따른 신경 회로망을 학습시키는 방법을 나타낸 순서도이고, 도 4는 도 3에 따른 신경 회로망을 학습시키는 과정을 설명하기 위한 도면이다.
먼저 위성 영상 보정 처리 장치(200)의 영상 입력부(210)에 위성 영상(410)이 입력된다(S310). 도 4에서 보는 바와 같이 R, G, B 픽셀이 하나의 세트를 이루 고 있으며, 설명의 편의상 입력되는 보정 전 위성 영상(410)은 각각 25개의 R, G, B 픽셀로 이루어진 것으로 도시하였다.
그리고, 보정 처리부(220)는 입력된 위성 영상(410)에 대하여 보정 처리를 하여 목표 영상(420)을 생성한다(S320). 여기서, 목표 영상(420)은 보정의 목표가 되는 위성 영상이며, 보정 전 R, G, B 픽셀들은 각각 R', G', B' 픽셀로 보정된다.
패턴 분류부(230)는 입력된 위성 영상(410)을 RGB 특성에 따라서 복수의 그룹으로 분류시킨다(S330). 도 4에서는 위성 영상을 4개의 그룹(A 그룹, B 그룹, C 그룹, D 그룹)으로 분류시켰으며, 각각의 그룹에는 7개, 11개, 4개, 3개의 R, G, B 픽셀이 나누어 그룹화되는 것으로 도시하였다.
그리고, 패턴 분류부(230)는 각각의 그룹에서 1개씩의 R, G, B 픽셀을 추출한다(S340). 도 4에서는 설명의 편의상 각 그룹에서 추출되는 R, G, B 픽셀을 회색으로 도시하였다. 각 그룹에서 추출되는 R, G, B 픽셀은 해당되는 그룹의 RGB 특성을 대표할 수 있는 표준이 되는 픽셀로서, 해당 그룹에서 RGB 특성이 가장 평균치에 가까운 픽셀인 것이 바람직하다. 도 4와 같이 4개의 그룹에서 추출된 4개의 R, G, B 픽셀은 신경 회로망(240)을 학습시키는데 사용된다. 본 발명의 실시예에서는 각 그룹에서 1개의 R, G, B 픽셀을 추출하는 것으로 설명하였으나 그룹의 개수나 위성 영상의 용량에 따라서 추출되는 R, G, B 픽셀의 개수는 변경이 가능하다.
그리고, 4개의 그룹에서 추출된 4개의 R, G, B 픽셀과 목표 영상(420)에서 추출된 R', G', B' 픽셀이 맵핑되어 신경 회로망(240)에 입력된다(S350). 여기서, R', G', B' 픽셀은 R, G, B 픽셀이 보정 처리부(220)에 의해 보정 처리된 것으로서, 각각 R, G, B 픽셀에 대응한다.
이와 같이, 신경 회로망(240)에는 4개의 보정 전 R, G, B 픽셀과 각각의 R, G, B 픽셀이 보정된 R', G', B' 픽셀이 맵핑되어 입력됨으로써, 4개의 그룹(A 그룹, B 그룹, C 그룹, D 그룹)의 RGB 특성을 고르게 반영한 신경 회로망(240)의 학습이 진행된다(S360).
신경 회로망(240)은 학습 과정 동안 위성 영상 보정과 관련된 가중치(weight value)를 수정함으로써 학습한다. 신경 회로망(240)은 델타 규칙 등의 학습 규칙을 가지고 가중치 값을 조정하며, 학습을 통해 가중치 값은 수렴된다. 이와 같이, 추출된 4개의 R, G, B 픽셀뿐만 아니라 학습에 참여하지 않은 R, G, B 픽셀에 대해서도 학습된 신경 회로망(240)을 통한 보정이 가능해진다.
도 5는 신경 회로망을 이용하여 보정된 영상을 생성하는 과정을 설명하기 위한 도면이고, 도 6은 보정 전 위성 영상과 보정된 위성 영상과의 관계를 설명하기 위한 도면이다.
도 5에서 보는 바와 같이 보정 전 위성 영상(410)은 학습된 신경 회로망(240)을 통하여 보정된 위성 영상(430)으로 변환된다. 즉, 신경 회로망(240)은 학습을 통하여 수렴된 가중치 값을 가지고 있으므로, 신경 회로망(240)을 이용하면 입력된 위성 영상(410)의 R, G, B 픽셀은 도 5와 같이 보정된 위성 영상(430)의 R'', G'', B'' 픽셀로 보정된다.
따라서, 신경 회로망(240)을 학습하는 과정은 시간이 많이 소요되지만, 학습 된 신경 회로망(240)을 이용하여 보정을 수행하는 것은 단순 변환 계산만 수행되므로 처리 시간이 빠른 장점이 있다.
한편, 도 5에서 설명한 것과 같이, 학습된 신경 회로망(240)을 통하여 위성 영상(410)은 보정된 위성 영상(430)으로 변환되는데, 보정 전 위성 영상(410)과 보정된 위성 영상(430)으로부터 다음의 수학식 1을 유도할 수 있다.
R" = Cr2·R2 + Cr1·R + Cr0
G" = Cr2·G2 + Cr1·G + Cr0
B" = Cr2·B2 + Cr1·B + Cr0
여기서, R, G, B는 위성 영상(410)에 포함되는 R, G, B픽셀 값이며, R", G", B"는 보정된 위성 영상(430)에 포함되는 보정된 R, G, B픽셀 값이며, Cr2, Cr1, Cr0는 RGB 특성 계수이다.
수학식 1과 같이 보정 전 위성 영상(410)과 보정된 위성 영상(430)의 관계는 수학식 1과 같은 2차 다항식으로 변환 가능하다. 즉, 보정 전 위성 영상(410)과 보정된 위성 영상(430)의 각각의 픽셀을 구성하는 R, G, B에 대해서 수학식 1과 같은 2차 다항식을 수립하고, 그 특성을 각각의 계수 Cr2, Cr1, Cr0 로 표현할 수 있다.
이와 같이 보정 전 위성 영상(410)을 수학식 1을 이용해서 보정된 위성 영상(430)로 변환하면 도 6과 같이 한 번에 그리고 보다 빠르게 위성 영상에 대한 보정을 수행할 수 있다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
도 1a 및 도 1b는 일반적인 신경 회로망의 위성 영상 보정 처리 방법을 설명하기 위해 제공되는 도면이다.
도 2는 본 발명의 실시예에 따른 위성 영상 보정 처리 장치의 구성을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 신경 회로망을 학습시키는 방법을 나타낸 순서도이다.
도 4는 도 3에 따른 신경 회로망을 학습시키는 과정을 설명하기 위한 도면이다.
도 5는 신경 회로망을 이용하여 보정된 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 보정 전 위성 영상과 보정된 위성 영상과의 관계를 설명하기 위한 도면이다.

Claims (8)

  1. 삭제
  2. 위성 영상을 입력받는 단계,
    상기 위성 영상을 보정 처리하여 목표 영상을 생성하는 단계,
    상기 위성 영상을 복수의 그룹으로 그룹화하는 단계,
    상기 복수의 그룹에서 각각 일정 개수의 R, G, B 픽셀을 추출하는 단계,
    상기 R, G, B픽셀과 상기 R, G, B픽셀에 대응하는 상기 목표 영상의R', G', B' 픽셀을 맵핑하여 신경 회로망에 입력하여 상기 신경 회로망을 학습시키는 단계, 그리고
    상기 위성 영상을 학습된 상기 신경 회로망에 입력하여 보정 영상을 생성하는 단계를 포함하고,
    상기 위성 영상을 보정 처리하여 목표 영상을 생성하는 단계는,
    히스토그램 보정, 레벨 조정, 다이나믹 레인지 조정 및 칼라 보정 중에서 적어도 하나를 이용하여 보정 처리하는 것을 특징으로 하는 신경 회로망을 이용한 위성 영상의 보정 방법.
  3. 제2항에 있어서,
    상기 위성 영상을 복수의 그룹으로 그룹화하는 단계는,
    상기 위성 영상을 RGB 특성에 따라 복수의 그룹으로 그룹화하는 것을 특징으로 하는 신경 회로망을 이용한 위성 영상의 보정 방법.
  4. 제3항에 있어서,
    상기 위성 영상과 상기 보정된 영상 사이에는 아래 수학식과 같은 관계가 형성되는 것을 특징으로 하는 신경 회로망을 이용한 위성 영상의 보정 방법:
    R" = Cr2·R2 + Cr1·R + Cr0
    G" = Cr2·G2 + Cr1·G + Cr0
    B" = Cr2·B2 + Cr1·B + Cr0
    R, G, B는 위성 영상에 포함되는 R, G, B픽셀 값이며, R", G", B"는 보정된 영상에 포함되는 보정된 R, G, B픽셀 값이며, Cr2, Cr1, Cr0는RGB 특성 계수이다.
  5. 삭제
  6. 위성 영상을 입력받는 영상 입력부,
    상기 위성 영상을 보정 처리하여 목표 영상을 생성하는 보정 처리부,
    상기 위성 영상을 복수의 그룹으로 그룹화하고, 상기 복수의 그룹에서 각각 일정 개수의 R, G, B 픽셀을 추출하는 패턴 분류부,
    상기 R, G, B픽셀과 상기 R, G, B픽셀에 대응하는 상기 목표 영상의 R', G', B' 픽셀이 맵핑되어 입력되는 신경 회로망, 그리고
    상기 위성 영상을 학습된 상기 신경 회로망에 입력하여 보정 영상을 생성하는 보정 영상 생성부를 포함하고,
    상기 보정 처리부는,
    히스토그램 보정, 레벨 조정, 다이나믹 레인지 조정 및 칼라 보정 중에서 적어도 하나를 이용하여 보정 처리하는 것을 특징으로 하는 신경 회로망을 이용한 위성 영상의 보정 장치.
  7. 제6항에 있어서,
    상기 패턴 분류부는,
    상기 위성 영상을 RGB 특성에 따라 복수의 그룹으로 그룹화하는 것을 특징으로 하는 신경 회로망을 이용한 위성 영상의 보정 장치.
  8. 제7항에 있어서,
    상기 위성 영상과 상기 보정된 영상 사이에는 아래 수학식과 같은 관계가 형성되는 것을 특징으로 하는 신경 회로망을 이용한 위성 영상의 보정 장치:
    R" = Cr2·R2 + Cr1·R + Cr0
    G" = Cr2·G2 + Cr1·G + Cr0
    B" = Cr2·B2 + Cr1·B + Cr0
    R, G, B는 위성 영상에 포함되는 R, G, B픽셀 값이며, R", G", B"는 보정된 영상에 포함되는 보정된 R, G, B픽셀 값이며, Cr2, Cr1, Cr0는RGB 특성 계수이다.
KR1020080113771A 2008-11-17 2008-11-17 신경 회로망을 이용한 위성 영상 보정 방법 및 장치 KR100991146B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080113771A KR100991146B1 (ko) 2008-11-17 2008-11-17 신경 회로망을 이용한 위성 영상 보정 방법 및 장치
PCT/KR2009/004722 WO2010055992A2 (ko) 2008-11-17 2009-08-25 신경 회로망을 이용한 위성 영상 보정 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080113771A KR100991146B1 (ko) 2008-11-17 2008-11-17 신경 회로망을 이용한 위성 영상 보정 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20100054929A KR20100054929A (ko) 2010-05-26
KR100991146B1 true KR100991146B1 (ko) 2010-11-01

Family

ID=42170488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080113771A KR100991146B1 (ko) 2008-11-17 2008-11-17 신경 회로망을 이용한 위성 영상 보정 방법 및 장치

Country Status (2)

Country Link
KR (1) KR100991146B1 (ko)
WO (1) WO2010055992A2 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101473415B1 (ko) * 2012-12-28 2014-12-18 한국항공우주연구원 히스토그램 명세화를 이용한 검출기 성능저하 보상 방법
CN111062876B (zh) * 2018-10-17 2023-08-08 北京地平线机器人技术研发有限公司 用于校正模型训练和图像校正的方法和装置及电子设备
TWI738131B (zh) * 2019-11-28 2021-09-01 財團法人資訊工業策進會 影像系統及檢測方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284869A (ja) 1998-03-30 1999-10-15 Toyo Ink Mfg Co Ltd 色補正装置
JP2002162954A (ja) 2000-11-24 2002-06-07 Nippon Telegr & Teleph Corp <Ntt> 色再現方法,装置および色再現プログラム記録媒体
KR100679052B1 (ko) 2006-01-04 2007-02-06 삼성전자주식회사 최적 선호색 편집 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254336A (ja) * 2005-03-14 2006-09-21 Fuji Photo Film Co Ltd ホワイトバランス補正方法および装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284869A (ja) 1998-03-30 1999-10-15 Toyo Ink Mfg Co Ltd 色補正装置
JP2002162954A (ja) 2000-11-24 2002-06-07 Nippon Telegr & Teleph Corp <Ntt> 色再現方法,装置および色再現プログラム記録媒体
KR100679052B1 (ko) 2006-01-04 2007-02-06 삼성전자주식회사 최적 선호색 편집 장치 및 방법

Also Published As

Publication number Publication date
WO2010055992A3 (ko) 2010-07-08
WO2010055992A2 (ko) 2010-05-20
KR20100054929A (ko) 2010-05-26

Similar Documents

Publication Publication Date Title
Dev et al. CloudSegNet: A deep network for nychthemeron cloud image segmentation
CN108537742B (zh) 一种基于生成对抗网络的遥感图像全色锐化方法
US20200250427A1 (en) Shadow and cloud masking for agriculture applications using convolutional neural networks
CN105469098A (zh) 一种自适应特征权重合成的lidar数据地物精确分类方法
CN108428220A (zh) 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法
CN110070025A (zh) 基于单目图像的三维目标检测系统及方法
CN110136162B (zh) 无人机视角遥感目标跟踪方法及装置
Xiao et al. Deep learning-based spatiotemporal fusion of unmanned aerial vehicle and satellite reflectance images for crop monitoring
CN115861546B (zh) 一种基于神经体渲染的作物几何感知与三维表型重建方法
CN102713972A (zh) 使用神经网络的像素信息再现
JP7370922B2 (ja) 学習方法、プログラム及び画像処理装置
JP2021179833A (ja) 情報処理装置、情報処理方法及びプログラム
KR100991146B1 (ko) 신경 회로망을 이용한 위성 영상 보정 방법 및 장치
CN114125216A (zh) 一种面向软件定义卫星的成像系统及成像方法
CN110765927B (zh) 一种植被群落中伴生杂草的识别方法
CN116128980A (zh) 基于自编码器的相机内外参自动标定方法及系统
Li et al. A pseudo-siamese deep convolutional neural network for spatiotemporal satellite image fusion
Theran et al. A pixel level scaled fusion model to provide high spatial-spectral resolution for satellite images using LSTM networks
Lysenko et al. Determination of the not uniformity of illumination in process monitoring of wheat crops by UAVs
CN114092804A (zh) 遥感图像的识别方法和装置
CN113935917A (zh) 一种基于云图运算和多尺度生成对抗网络的光学遥感影像薄云去除方法
CN113781375B (zh) 一种基于多曝光融合的车载视觉增强方法
CN115760603A (zh) 一种基于大数据技术的干涉阵列宽带成像方法
CA2784817C (en) Filter setup learning for binary sensor
CN114077887A (zh) 显示屏逐点校正前的处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131029

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141028

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151027

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee