KR102176093B1 - Method for acquiring illumination invariant image using color space compression technique and device therefor - Google Patents

Method for acquiring illumination invariant image using color space compression technique and device therefor Download PDF

Info

Publication number
KR102176093B1
KR102176093B1 KR1020180172267A KR20180172267A KR102176093B1 KR 102176093 B1 KR102176093 B1 KR 102176093B1 KR 1020180172267 A KR1020180172267 A KR 1020180172267A KR 20180172267 A KR20180172267 A KR 20180172267A KR 102176093 B1 KR102176093 B1 KR 102176093B1
Authority
KR
South Korea
Prior art keywords
image
color
illumination
acquired
space compression
Prior art date
Application number
KR1020180172267A
Other languages
Korean (ko)
Other versions
KR20200082074A (en
Inventor
김곤우
양은성
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020180172267A priority Critical patent/KR102176093B1/en
Publication of KR20200082074A publication Critical patent/KR20200082074A/en
Application granted granted Critical
Publication of KR102176093B1 publication Critical patent/KR102176093B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • H04N1/648Transmitting or storing the primary (additive or subtractive) colour signals; Compression thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • H04N1/644Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor using a reduced set of representative colours, e.g. each representing a particular range in a colour space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control

Abstract

색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법 및 이를 위한 장치를 개시한다.
본 실시예의 일 측면에 의하면, 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법은 RGB 이미지를 취득하는 과정, 상기 취득한 RGB 이미지에 컬러 오프셋을 이용해 색공간 압축을 적용하는 과정, 상기 색공간 압축이 적용된 이미지를 2D color ratio space 이미지로 변환하는 과정, 상기 변환된 이미지를 이용해 PCA 기반의 색도 투영선(chromaticity projection line)

Figure 112018131749615-pat00054
을 추정하는 과정, 및 상기 추정된
Figure 112018131749615-pat00055
을 기반으로 1D 조명 불변 이미지로 변환하는 과정을 포함한다.Disclosed is a method for obtaining an illumination invariant image using a color space compression technique and an apparatus therefor.
According to an aspect of the present embodiment, a method of obtaining an illumination invariant image using a color space compression technique is a process of acquiring an RGB image, a process of applying color space compression using a color offset to the acquired RGB image, and the color space compression. The process of converting the applied image to a 2D color ratio space image, and a PCA-based chromaticity projection line using the converted image
Figure 112018131749615-pat00054
The process of estimating, and the estimated
Figure 112018131749615-pat00055
It includes the process of converting to a 1D illumination invariant image based on.

Description

색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법 및 이를 위한 장치{METHOD FOR ACQUIRING ILLUMINATION INVARIANT IMAGE USING COLOR SPACE COMPRESSION TECHNIQUE AND DEVICE THEREFOR}A method for acquiring an illumination invariant image using a color space compression technique, and an apparatus therefor {METHOD FOR ACQUIRING ILLUMINATION INVARIANT IMAGE USING COLOR SPACE COMPRESSION TECHNIQUE AND DEVICE THEREFOR}

본 발명은 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법 및 이를 위한 장치에 관한 것이다.The present invention relates to a method and apparatus for obtaining an illumination invariant image using a color space compression technique.

이 부분에 기술된 내용은 단순히 본 발명에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the present invention and does not constitute prior art.

로봇(또는, 모바일 로봇)의 안정적인 주행을 위해서 로봇의 정밀한 위치인식과 환경인지는 매우 중요한 문제이다. 만약 로봇이 위치인식 및 환경인지 없이 주행하게 되면, 로봇은 장애물과 자주 충돌하게 된다. 그러므로, 로봇의 안정적인 주행을 위해서는 환경지도가 필요하다. 환경지도는 정확도를 높이기 위해 고가의 GPS(Global Positioning System)를 사용하여 만들어지나, 실내에서는 고가의 GPS조차도 사용할 수 없기 때문에 실측을 통해 만들어진다. 환경지도 제작에 있어 GPS를 사용할 수 없거나 정확도 등의 문제를 해결하기 위한 기술로 Simultaneous Localization And Mapping(SLAM)이 연구되었다. SLAM은 로봇이 측정된 센서 데이터를 기반으로 위치 인식과 지도 작성을 동시에 진행하게 하는 기술이다. SLAM을 이용하는 경우, 로봇은 사전에 작성된 환경지도 없이 상대적인 위치인식을 통한 주행이 가능하며, 주행한 경로를 기반으로 환경지도를 획득할 수 있다. 최근 SLAM은 실내 로봇, 자율주행자동차, 무인 드론, Augmented Reality(AR)등 다양한 분야에서 활용되고 있으며, 그 중요성은 더욱 대두되고 있다.For the stable operation of the robot (or mobile robot), precise location recognition and environmental awareness of the robot are very important issues. If the robot runs without location awareness and environment awareness, the robot frequently collides with obstacles. Therefore, an environmental map is required for the stable operation of the robot. Environmental maps are made using an expensive GPS (Global Positioning System) to increase accuracy, but since even expensive GPS cannot be used indoors, they are made through actual measurement. Simultaneous Localization And Mapping (SLAM) has been studied as a technology to solve problems such as the inability to use GPS or accuracy in environmental map production. SLAM is a technology that enables the robot to simultaneously recognize the location and create a map based on the measured sensor data. In the case of using SLAM, the robot can drive through relative location recognition without an environment map created in advance, and obtain an environment map based on the route traveled. Recently, SLAM is being used in various fields such as indoor robots, autonomous vehicles, unmanned drones, and Augmented Reality (AR), and its importance is rising.

SLAM은 적용하는 알고리즘의 종류에 따라 크게 Filter-based SLAM과 Graph-based SLAM으로 나뉠 수 있다. Filter-based SLAM은 초창기 SLAM에서 많이 사용되어 왔지만, 오차 누적의 문제와 정보가 취득됨에 따라 연산량이 기하급수적으로 증가하는 문제 때문에 현재는 거의 사용되지 않는다. Graph-based SLAM은 초창기 상대적으로 Filter-based SLAM보다 많은 초기 연산량으로 인해 거의 사용되지 않았다. 하지만 Graph-based SLAM은 구현의 간편함과 안정적인 연산량 관리, 계속적인 지도 최적화 등의 이점 때문에 최근에는 많이 이용되고 있다.SLAM can be largely divided into Filter-based SLAM and Graph-based SLAM according to the type of algorithm to be applied. Filter-based SLAM has been widely used in SLAM in the early days, but it is rarely used at present because of the problem of error accumulation and the problem that the amount of computation increases exponentially as information is acquired. Graph-based SLAM was rarely used in the early days due to the relatively larger initial computational load than Filter-based SLAM. However, graph-based SLAM has been widely used in recent years because of the advantages of simplicity of implementation, stable computational management, and continuous map optimization.

SLAM은 사용하는 센서의 종류에 따라, 거리센서가 주 센서인 LiDAR SLAM과 이미지 센서가 주 센서인 visual SLAM(vSLAM)으로 나뉠 수 있다. 초창기 SLAM에 대한 연구에서는 연산량 문제로 인해 보다 사용하기 간편한 거리센서가 주로 사용되었다. 하지만 최근에는 컴퓨터의 발전으로 연산량 문제가 해결이 되었고, 이미지 센서가 거리센서에 비해 많은 정보를 취득할 수 있기 때문에 이미지 센서를 이용한 SLAM에 대한 연구가 활발히 진행되고 있다. 더 나아가, 각 센서의 장단점이 다르기 때문에 두 센서를 융합하여 사용하는 방식의 SLAM에 관한 연구도 활발히 진행되고 있다.SLAM can be divided into LiDAR SLAM, where the distance sensor is the main sensor, and visual SLAM (vSLAM), where the image sensor is the main sensor, depending on the type of sensor used. In the early study of SLAM, a distance sensor that is more convenient to use was mainly used due to the problem of computation. However, in recent years, the development of computers has solved the problem of computational volume, and since the image sensor can acquire more information than the distance sensor, research on SLAM using an image sensor is actively progressing. Furthermore, since the strengths and weaknesses of each sensor are different, studies on SLAM in a method of using two sensors by fusion are also actively progressing.

SLAM에서 가장 중요한 기술 중 하나는 Loop Closure Detection(LCD)이다. LCD는 주행하던 로봇이 이전에 방문했던 위치에 다시 방문하는 것을 검출하는 것이다. LCD를 통해 로봇의 위치정보가 보다 정확하게 추정될 수 있고, 추정된 위치정보를 이용하는 경우 환경지도를 최적화하는 것이 가능하다. 즉, LCD 없이는 환경지도 최적화가 불가능하다. One of the most important technologies in SLAM is Loop Closure Detection (LCD). The LCD detects that the traveling robot revisits to the previously visited location. The location information of the robot can be more accurately estimated through the LCD, and if the estimated location information is used, it is possible to optimize the environment map. In other words, it is impossible to optimize the environment map without LCD.

LCD는 사용하는 센서에 따라 그 방법이 달라진다. 일반적으로 거리센서를 사용하는 LCD는 ICP(Iterative Closest Point)를 사용하여 키프레임(keyframe)간의 유사도를 비교해 로봇이 방문했던 위치인지를 검출한다. 그러나, 이 방법은 정확도가 낮고 동일 위치라도 다른 정보를 취득할 확률이 높기 때문에, 거리센서를 단독으로 사용하는 SLAM이 아닐 경우에는 잘 사용되지 않는다. 이미지 센서를 사용하는 LCD는 Bag of Words(BoWs)가 주로 이용된다. BoWs는 물체에서 검출된 이미지 특징을 학습하여 취득된 이미지에서 해당 물체의 존재 유무를 검출하는 것이다. 이 방법은 특징 매칭에 비해 낮은 연산량과 확률적인 물체 검출이 가능하여 많이 사용되고 있다. 초기 BoWs는 지역 특징 기반으로 검출하기 시작하였으나, 이후 보다 빠른 연산이 가능한 이진 특징 기반으로 발전하였하다가 지금은 사전 학습 없이 실시간으로 검출하도록 개발되고 있다.The method of LCD differs depending on the sensor used. In general, LCDs using a distance sensor use ICP (Iterative Closest Point) to compare the similarity between keyframes to detect whether the robot has visited the location. However, since this method has low accuracy and a high probability of acquiring other information even at the same location, it is not well used unless the SLAM uses a distance sensor alone. LCDs using image sensors are mainly used in Bag of Words (BoWs). BoWs is to detect the presence or absence of the object in the acquired image by learning the image features detected in the object. Compared to feature matching, this method is widely used because it has a lower computational amount and enables probabilistic object detection. Initially, BoWs began to be detected based on local features, but later developed based on binary features capable of faster computation, but are now being developed to detect in real time without prior learning.

하지만 이미지 센서를 사용하는 SLAM에서 LCD는 거리센서에 없는 치명적인 단점을 가지고 있다. 그것은 이미지 센서로부터 취득된 정보는 광원에 종속적이라는 것이다. 동일 위치에서 취득된 이미지일지라도 광원 즉, 조명의 강도, 위치, 종류가 달라지면 특징 매칭이 불가능할 수도 있다. 따라서, 조명의 종류와 방향을 컨트롤할 수 있는 실내 환경에서는 이미지 센서를 사용하더라도 크게 문제가 되지 않으나, 시간에 따라서 광원의 위치와 강도가 변하는 실외 환경에서는 이것은 매우 치명적인 문제가 된다.However, in SLAM using an image sensor, LCD has a fatal disadvantage that distance sensors do not have. That is, the information obtained from the image sensor is light source dependent. Even if the image is acquired from the same location, feature matching may not be possible if the light source, that is, the intensity, location, and type of illumination is different. Therefore, even if an image sensor is used in an indoor environment in which the type and direction of lighting can be controlled, it is not a problem, but in an outdoor environment where the location and intensity of the light source changes over time, this becomes a very fatal problem.

본 실시예는, 광원의 위치, 강도, 종류에 관계없는 이미지를 획득하는 방법 및 그 장치를 제공하는 데 주된 목적이 있다.The main object of the present embodiment is to provide a method and apparatus for acquiring an image irrespective of the location, intensity, and type of a light source.

본 실시예의 일 측면에 의하면, 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법은 RGB 이미지를 취득하는 과정, 상기 취득한 RGB 이미지에 컬러 오프셋을 이용해 색공간 압축을 적용하는 과정, 상기 색공간 압축이 적용된 이미지를 2D color ratio space 이미지로 변환하는 과정, 상기 변환된 이미지를 이용해 PCA 기반의 색도 투영선(chromaticity projection line)

Figure 112018131749615-pat00001
을 추정하는 과정, 및 상기 추정된
Figure 112018131749615-pat00002
을 기반으로 1D 조명 불변 이미지로 변환하는 과정을 포함한다. According to an aspect of the present embodiment, a method of obtaining an illumination invariant image using a color space compression technique is a process of acquiring an RGB image, a process of applying color space compression using a color offset to the acquired RGB image, and the color space compression. The process of converting the applied image to a 2D color ratio space image, and a PCA-based chromaticity projection line using the converted image
Figure 112018131749615-pat00001
The process of estimating, and the estimated
Figure 112018131749615-pat00002
It includes the process of converting to a 1D illumination invariant image based on.

본 실시예의 다른 측면에 의하면, 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 장치는, RGB 이미지를 취득하는 이미지 취득부, 및 상기 취득한 RGB 이미지에 컬러 오프셋을 이용해 색공간 압축을 적용하고, 상기 색공간 압축이 적용된 이미지를 2D color ratio space 이미지로 변환하고, 상기 변환된 이미지를 이용해 PCA 기반의 색도 투영선

Figure 112018131749615-pat00003
을 추정하고, 상기 추정된
Figure 112018131749615-pat00004
을 기반으로 1D 조명 불변 이미지로 변환하는 이미지 처리부를 포함한다.According to another aspect of the present embodiment, an apparatus for obtaining an illumination invariant image using a color space compression technique includes an image acquisition unit for obtaining an RGB image, and a color space compression using a color offset to the obtained RGB image, and the Converts an image to which color space compression is applied to a 2D color ratio space image, and uses the converted image to use the PCA-based chromaticity projection line.
Figure 112018131749615-pat00003
And the estimated
Figure 112018131749615-pat00004
It includes an image processing unit that converts the 1D illumination constant image based on.

이상에서 설명한 바와 같이 본 실시예에 의하면, 광원의 위치, 강도, 종류에 관계없는 이미지를 획득할 수 있다. 이러한 이미지는 SLAM에서 이미지 센서를 이용할 수 있게 해준다.As described above, according to the present embodiment, an image irrespective of the location, intensity, and type of the light source can be obtained. These images allow the use of image sensors in SLAM.

도 1은 본 개시에 따른 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법의 순서도를 나타낸 도면,
도 2는 본 개시에 따른 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 장치의 구성도를 나타낸 도면이다.
1 is a diagram showing a flow chart of a method of obtaining an illumination invariant image using a color space compression technique according to the present disclosure;
2 is a diagram illustrating a configuration of an apparatus for obtaining an illumination invariant image using a color space compression technique according to the present disclosure.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to elements of each drawing, it should be noted that the same elements are assigned the same numerals as possible even if they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, in describing the constituent elements of the present invention, terms such as first, second, A, B, (a), (b) may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the component is not limited by the term. Throughout the specification, when a part'includes' or'includes' a certain element, it means that other elements may be further included rather than excluding other elements unless otherwise stated. . In addition, the'... Terms such as'sub' and'module' mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software.

이미지 센서로부터 취득된 데이터는 광원(또는 조명)에 종속적이다. 광원이 존재하는 환경에서 취득된 데이터는 광원의 세기나 방향으로부터 생기는 그림자에 의해 영향을 크게 받기 때문이다. 그렇기 때문에 이미지 센서를 이용하는 경우 풍부한 정보를 취득할 수 있음에도 불구하고, 이미지 센서는 실내와 같이 광원을 컨트롤할 수 있는 환경에서 주로 사용되어 왔다. 즉, 이미지 센서로부터 취득된 이미지는 광원의 세기에 따라 극단적인 명암 차이를 만들 수 있기 때문에, 광원의 세기가 강할 경우 그림자 영역의 정보가 취득되지 않거나 그림자가 없는 영역 즉, 일반 영역의 정보가 사라져버리는 문제가 생길 수 있다. 더 나아가서는 그림자 영역과 일반 영역의 연속적이지 않은 밝기로 인해 실제로는 엣지가 아닌 영역임에도 불구하고 엣지로 판단될 수도 있다. 이러한 문제를 해결하기 위해서 조명 불변 이미지를 취득하기 위한 연구가 진행되어 왔다. 일반적으로 조명 불변 이미지를 취득하기 위한 연구는 크게 세 부류로 나뉠 수 있다.The data acquired from the image sensor is dependent on the light source (or illumination). This is because the data acquired in the environment in which the light source is present is greatly affected by the shadow generated from the intensity or direction of the light source. Therefore, in the case of using an image sensor, although it is possible to obtain a wealth of information, image sensors have been mainly used in environments where light sources can be controlled, such as indoors. In other words, since the image acquired from the image sensor can make an extreme difference in contrast depending on the intensity of the light source, if the intensity of the light source is strong, information on the shadow area is not acquired or information on the shadow area, that is, the general area, disappears. There may be a problem of throwing away. Furthermore, due to the non-contiguous brightness of the shadow area and the general area, it may be judged as an edge even though it is actually a non-edge area. In order to solve this problem, research has been conducted to acquire an illumination invariant image. In general, research for acquiring an illumination invariant image can be largely divided into three categories.

첫 번째는 이미지에서 그림자를 검출하여 제거하는 방법에 대한 연구이다. 이 방법에 대한 연구는 가장 먼저 시작되었으며 현재까지도 꾸준히 진행되고 있다. 이 방법은 이미지의 그림자 영역과 일반 영역을 구분하는 그림자 검출(shadow detection) 과정과 검출된 부분을 복원하는 그림자 제거(shadow removal) 과정으로 나뉠 수 있다. 그림자 검출 과정은 그림자의 엣지 부분을 검출하거나 그림자 영역 자체를 검출하는 과정일 수 있다. 그림자를 검출하고 제거하는 방법으로는 단일 이미지 안에서 그림자의 엣지 맵을 검출하고, shadow removal 알고리즘을 사용하거나, 이미지에 있는 모든 그림자는 동일한 밝기 차이를 가지지 않는다는 것에 착안해 단순히 그림자의 엣지를 찾지 않고 분류(classification)를 통해 동일한 조명 강도 값을 가지는 그림자 영역을 찾아낸 뒤 각 영역의 가중치를 가지고 그림자 제거를 진행하는 방법이 있다. 그 외에도 2-D 색도 공간(chromaticity space)을 사용하여 그림자 영역을 클러스터링한 후 검출된 그림자 영역을 기반으로 그림자 제거를 진행하거나, 이미지 전체 영역의 조명 강도 레벨을 계산하고, 계산된 강도 레벨을 사용하여 이미지를 복원하는 방법도 있다. 그러나, 이러한 방법들은 과정이 그림자 검출 및 그림자 제거로 나누어지다 보니 연산량이 많다. 따라서 실시간 연산이 필요한 경우에는 적합하지 않으며, 그림자를 제거하는 것에 중점을 두기 때문에 조명에 대한 강인성도 떨어진다.The first is a study on how to detect and remove shadows from images. Research on this method was first started and is still ongoing. This method can be divided into a shadow detection process that separates a shadow area and a general area of an image, and a shadow removal process that restores the detected part. The shadow detection process may be a process of detecting an edge portion of a shadow or a shadow region itself. The shadow detection and removal method is to detect the edge map of the shadow within a single image and use the shadow removal algorithm, or simply classify the shadow edge without finding the edge of the shadow, noting that all shadows in the image do not have the same brightness difference. There is a method of finding shadow areas with the same lighting intensity value through (classification) and then removing the shadows with the weights of each area. In addition, after clustering shadow areas using a 2-D chromaticity space, shadow removal is performed based on the detected shadow area, or the illumination intensity level of the entire image area is calculated, and the calculated intensity level is used. There is also a way to restore the image. However, these methods have a large amount of computation as the process is divided into shadow detection and shadow removal. Therefore, it is not suitable when real-time calculation is required, and because it focuses on removing shadows, the robustness to lighting is also poor.

두 번째는 최근 딥러닝에 대한 연구가 활발하게 진행됨에 따라 조명 불변 이미지를 취득하는 과정에 딥러닝을 적용하는 방법에 대한 연구이다. 일반적으로, 학습을 통해 그림자 없는(shadow-free) 이미지를 취득하는데 이러한 알고리즘을 사용한 방법이 결과는 가장 좋다. 하지만 그림자 없는 이미지를 학습하기 위한 데이터셋을 구성하는 것이 매우 어렵다. 또한, 충분한 학습량을 확보해야 좋은 결과를 취득할 수 있는 딥러닝 모델의 특성상 사람이 그라운드-투스(Ground-Truth)를 지정할 수 있는 클러스터링이나 세그먼테이션과는 다르게 학습의 어려움이 있다. 그 밖에도, 학습 모델을 사용하기 위해서는 기본적으로 고사양의 GPU(Graphics Processing Unit)가 필요하다.The second is a study on how to apply deep learning to the process of acquiring lighting invariant images as research on deep learning has been actively conducted recently. In general, the best result is a method using these algorithms to acquire shadow-free images through learning. However, it is very difficult to construct a dataset for learning shadowless images. In addition, unlike clustering or segmentation in which a person can designate a ground-tooth (Ground-Truth), there is a difficulty in learning due to the nature of a deep learning model that can obtain good results only by securing a sufficient amount of learning. In addition, in order to use the learning model, a high-end GPU (Graphics Processing Unit) is basically required.

세 번째는 일반적으로 비젼 알고리즘에 많이 사용되는 IIT(Illumination Invariant Transform) 기법에 대한 연구이다. IIT 기법은 취득된 이미지에 특정 모델을 사용하여 반사율 값만을 남기고, 이로부터 조명 정보를 제거하여 원본 이미지(Intrinsic Image, II)로 변환하는 기법이다. 그 밖에도 원본 이미지를 취득하기 위해 다양한 방법들이 연구되어 왔으며, 일 예로 엔트로피를 최소화하거나 2D 위너 필터(wiener filter)를 사용하여 조명 정보를 제거하는 방법도 연구되어 왔다. 또, 각 RGB 센서의 최대 스팩트럼 반응 값을 사용하거나, PCA 기법을 사용하여 최적의 원본 이미지를 취득하는 알고리즘이 제안되기도 하였다. The third is a study on the IIT (Illumination Invariant Transform) technique, which is commonly used in vision algorithms. The IIT technique is a technique in which only the reflectance value is left using a specific model in the acquired image, and lighting information is removed from it and converted into an original image (Intrinsic Image, II). In addition, various methods have been studied in order to acquire the original image. For example, a method of minimizing entropy or removing lighting information using a 2D wiener filter has been studied. In addition, an algorithm for obtaining an optimal original image using the maximum spectral response value of each RGB sensor or PCA technique has been proposed.

뿐만 아니라, 원본 이미지를 취득하지 않고 독자적으로 조명 불변 이미지를 취득하는 연구도 진행되어 왔다. 예를 들면, RGB 색공간이 아닌 YCbCr 색공간을 사용하여 조명 불변 이미지를 취득하거나. 이미지의 주변광을 효율적으로 제거할 수 있는 Offset RGB(ORGB) 이미지를 이용하여 조명에 강인한 이미지를 취득하는 것이다. 그 결과, IIT 기법을 도로 검출 및 분류(road detection and classification)에 적용하여 원본 이미지를 사용한 것보다 좋은 결과를 취득하기도 하였다. 이러한 IIT 기법은 연산량이 적어서 실시간 동작에 유리하다. 또한, 다른 방법에 비해 IIT 기법은 조명의 종류와 강도에 상관 없이 일정한 이미지를 취득할 수 있는 장점이 있다. 반면, IIT 기법은 색공간 자체를 변화시키기 때문에 실제 이미지와는 다른 이질적인 이미지가 취득될 수 있지만, 그럼에도 이미지의 특성은 유지되기 때문에 비젼 알고리즘의 전처리 과정으로 적합하다.In addition, research has been conducted to independently acquire an illumination constant image without acquiring the original image. For example, using the YCbCr color space rather than the RGB color space to acquire an illumination invariant image. An image that is robust to lighting is acquired by using an Offset RGB (ORGB) image that can efficiently remove ambient light from an image. As a result, the IIT technique was applied to road detection and classification to obtain better results than the original image. This IIT technique is advantageous for real-time operation because the amount of computation is small. In addition, compared to other methods, the IIT technique has the advantage of obtaining a constant image regardless of the type and intensity of illumination. On the other hand, since the IIT technique changes the color space itself, a heterogeneous image different from the actual image can be obtained, but the characteristics of the image are maintained, so it is suitable as a preprocessing process for the vision algorithm.

이하에서는 본 개시에 따른 색공간 압축 기법을 이용해 일반적인 RGB 이미지로부터 조명 불변 이미지를 획득하기 위한 방법에 대해 구체적으로 설명한다. 본 개시에 따른 방법은 크게 두 가지 특징을 갖는다. Hereinafter, a method for obtaining an illumination invariant image from a general RGB image using a color space compression technique according to the present disclosure will be described in detail. The method according to the present disclosure has two main features.

첫 번째 특징은 색공간 압축(Color Space Compression) 기법을 IIT 기법에 적용하는 것이다. The first feature is to apply a color space compression technique to the IIT technique.

일반적으로, IIT 기법을 이용해 원본 이미지(intrinsic image)를 취득하기 위해서는 RGB 색공간 각 채널의 센서 값을 사용하여 color ratio space로 변환하는 과정이 필요하다. 이때, 암부 영역(예를 들어, 그림자 영역 등)의 경우 센서 값의 절대값이 작기 때문에 다른 영역에 비해 노이즈에 의한 영향을 크게 받는다. 따라서, 일반적인 노이즈 제거 알고리즘(예를 들어, 노이즈 리덕션(noise reduction) 등)이 적용된다면, 상기 암부 영역의 경우 노이즈 외의 정보량도 줄어들게 된다. 또한, 상기 암부 영역을 제거하기 위해 가중치 없이 색공간을 압축하게 되면 색비(color ratio)가 어긋나기 때문에 올바른 원본 이미지를 얻을 수 없다. 본 개시에서는 이러한 문제를 해결하기 위해 조명의 강도에 따른 센서반응을 선형으로 만드는 컬러 오프셋(color offset)을 사용하는 색압축 기법을 IIT 기법에 적용한다. In general, in order to acquire an intrinsic image using the IIT technique, a process of converting into a color ratio space using sensor values of each channel in an RGB color space is required. At this time, in the case of a dark area (eg, a shadow area), since the absolute value of the sensor value is small, it is significantly affected by noise compared to other areas. Therefore, if a general noise removal algorithm (eg, noise reduction, etc.) is applied, the amount of information other than noise in the dark region is also reduced. In addition, when the color space is compressed without weights to remove the dark area, a correct original image cannot be obtained because a color ratio is shifted. In the present disclosure, in order to solve this problem, a color compression technique using a color offset that makes the sensor response according to the intensity of illumination linear is applied to the IIT technique.

센서반응을 선형화하기 위해 먼저 조명에 따른 센서반응의 관계식을 파악한다. 일반적으로, 컬러 이미지 센서(또는 컬러 영상센서)에 사용되는 RGB 센서는 긴 파장(적색), 중간 파장(초록색) 및 짧은 파장(파란색)의 빛의 양을 각각 샘플링한다. 상기 RGB 센서는 하나로 구성될 수 있으며, 또는 R, G, B 센서가 결합된 구성일 수 있다. 따라서, 상기 RGB 센서에서 한 픽셀의 센서반응은 3개의 값으로 표현될 수 있다. x 위치의 픽셀에서 측정한 RGB센서의 센서반응은 R x = [Rx,1, Rx,2, Rx,3]으로 나타낼 수 있다. 상기 RGB 센서에서 측정된 센서반응 Rx,n은 [수학식 1]과 같이 모델링될 수 있다.In order to linearize the sensor response, we first grasp the relationship of the sensor response according to the lighting. In general, an RGB sensor used in a color image sensor (or a color image sensor) samples the amount of light of a long wavelength (red), a medium wavelength (green), and a short wavelength (blue), respectively. The RGB sensor may be configured as one, or may be a configuration in which R, G, and B sensors are combined. Accordingly, the sensor response of one pixel in the RGB sensor can be expressed as three values. The sensor response of the RGB sensor measured at the pixel at the x position can be expressed as R x = [R x,1 , R x,2 , R x,3 ]. The sensor response R x,n measured by the RGB sensor may be modeled as in [Equation 1].

Figure 112018131749615-pat00005
Figure 112018131749615-pat00005

여기서, n은 상기 RGB 센서 중 어느 하나(즉, R, G, B 중 어느 하나)를 의미하며, λ는 빛의 파장, Fn(λ)은 상기 RGB 센서 중 어느 하나 n의 스펙트럼 감도 함수, Ex(λ)은 광원의 스펙트럼 파워 분포, Sx(λ)는 물체 표면의 반사율을 나타낸다. Lx(λ)은 입사된 빛의 강도를 나타내는데, 광원에서 나온 빛에 직접 반사되어 들어오는 직접광 Lx,d(λ)과 광원으로부터의 빛이 어떤 다른 물체에 반사되어 다시 타겟 물체에 반사되어 들어오는 환경광 Lx,e(λ)으로 나누어 표현될 수 있다. Lx(λ)을 Lx,d(λ)과 Lx,e(λ)으로 표현하면, [수학식 2]와 같이 나타낼 수 있다.Here, n means any one of the RGB sensors (i.e., any one of R, G, B), λ is the wavelength of light, F n (λ) is a spectral sensitivity function of any one n of the RGB sensors, E x (λ) represents the spectral power distribution of the light source, and S x (λ) represents the reflectance of the object surface. L x (λ) represents the intensity of the incident light. The direct light L x,d (λ) that is reflected directly from the light from the light source and the light from the light source is reflected back to the target object. It can be expressed by dividing the ambient light L x,e (λ). If L x (λ) is expressed as L x,d (λ) and L x,e (λ), it can be expressed as [Equation 2].

Figure 112018131749615-pat00006
Figure 112018131749615-pat00006

Figure 112018131749615-pat00007
Figure 112018131749615-pat00008
는 광원과 반사면 간의 반사각을 나타내는 단위 벡터이고, μ는 객체 가려짐(object occlusion)과 빛 감쇠(light attenuation)에 의해 조정되는 변수이다. 따라서, 광원으로부터 직접광이 없는 영역이라면 μ는 0 (ex. 건물 그림자, 양산 안), 광원으로부터 직접광을 받는 영역이라면 μ는 1값을 가진다. 다시 말해, 빛의 강도를 나타내는 [수학식 2]는 직접광으로부터 야기되는 센서반응과 간접광으로부터 야기되는 센서반응의 합으로 나타낼 수 있다.
Figure 112018131749615-pat00007
Wow
Figure 112018131749615-pat00008
Is a unit vector representing the angle of reflection between the light source and the reflective surface, and μ is a variable that is adjusted by object occlusion and light attenuation. Therefore, if there is no direct light from the light source, μ has a value of 0 (ex. building shadow, in mass production), and if the area receives direct light from the light source, μ has a value of 1. In other words, [Equation 2] representing the intensity of light can be expressed as the sum of the sensor response caused by direct light and the sensor response caused by indirect light.

[수학식 3]은 직접광으로부터 야기되는 센서반응을 나타낸 것이며, [수학식 4]는 간접광으로부터 야기되는 센서반응을 나타낸 것이다.[Equation 3] shows the sensor response caused by direct light, and [Equation 4] shows the sensor response caused by indirect light.

Figure 112018131749615-pat00009
Figure 112018131749615-pat00009

Figure 112018131749615-pat00010
Figure 112018131749615-pat00010

픽셀 x에서의 센서반응 Rx을 [수학식 3]과 [수학식 4]를 이용해 나타내면 [수학식 5]와 같이 나타낼 수 있다.The sensor response at pixel x R x represents using the equation 3 and equation 4 may be expressed by [Equation 5].

Figure 112018131749615-pat00011
Figure 112018131749615-pat00011

다시, [수학식 5]를 [수학식 1]에 대입하면 [수학식 6]과 같은 결과를 도출할 수 있다.Again, if [Equation 5] is substituted into [Equation 1], the same result as [Equation 6] can be derived.

Figure 112018131749615-pat00012
Figure 112018131749615-pat00012

일반적인 환경에서 이미지 센서를 통해 취득된 이미지는 환경광 성분과 직접광 성분을 모두 포함하고 있다. 직접광 또는 환경광만이 포함된 이미지를 취득하는 것은 일반적인 상황에서 불가능하다. 그런데, 환경광이 포함된 이미지는 컬러 연속성(color consistency)이 보장되지 않기 때문에 IIT 기법을 이용해 올바른 원본 이미지를 복원하기 위해서는 상기 취득된 이미지에서 환경광 성분을 제거하고 직접광 성분만을 남겨야만 한다. 물리적으로 직접광 성분만이 존재하는 이미지를 취득하기 위해서는 상기 취득된 이미지에서 환경광 성분만을 빼면 되지만, 이것은 실질적으로 불가능하다. 그러나, 직접광 성분만이 존재하는 이미지에서의 센서반응은 한 점으로 수렴하기 때문에 센서반응이 수렴하는 점을 찾아서 이미지의 색공간을 압축함으로써 환경광 성분을 제거한 것과 같은 효과를 얻을 수 있다. 상기 RGB 센서의 수렴점을

Figure 112018131749615-pat00013
= [
Figure 112018131749615-pat00014
,
Figure 112018131749615-pat00015
,
Figure 112018131749615-pat00016
] 라고 할 때, 수렴점을 통해 보정된 센서반응
Figure 112018131749615-pat00017
은 [수학식 7]과 같이 나타낼 수 있다.In a general environment, an image acquired through an image sensor contains both an ambient light component and a direct light component. Acquiring an image containing only direct light or ambient light is impossible under normal circumstances. However, since an image containing ambient light does not guarantee color consistency, in order to restore a correct original image using the IIT technique, it is necessary to remove the ambient light component from the acquired image and leave only the direct light component. In order to acquire an image in which only the direct light component is physically present, it is necessary to subtract only the ambient light component from the acquired image, but this is practically impossible. However, since the sensor response in an image containing only the direct light component converges to one point, the same effect as removing the ambient light component can be obtained by finding the point where the sensor response converges and compressing the color space of the image. The convergence point of the RGB sensor
Figure 112018131749615-pat00013
= [
Figure 112018131749615-pat00014
,
Figure 112018131749615-pat00015
,
Figure 112018131749615-pat00016
], the sensor response corrected through the convergence point
Figure 112018131749615-pat00017
Can be expressed as [Equation 7].

Figure 112018131749615-pat00018
Figure 112018131749615-pat00018

이때, 수렴점

Figure 112018131749615-pat00019
를 찾기 위해 선형화 방법이 이용될 수 있으며, 수렴점
Figure 112018131749615-pat00020
는 컬러 오프셋이 된다.At this time, the convergence point
Figure 112018131749615-pat00019
The linearization method can be used to find the convergence point
Figure 112018131749615-pat00020
Becomes the color offset.

두 번째 특징은 IIT 기법에 주성분 분석(Principal Compression Analysis, PCA)을 적용하는 것이다. The second feature is to apply Principal Compression Analysis (PCA) to the IIT technique.

기존의 IIT 기법은 각 RGB 센서의 최대 스펙트럼 반응을 사용하여 취득된 이미지를 원본 이미지로 복원하였다. 하지만 이러한 방법은 사전에 센서의 스펙을 알고 있어야 가능하고, 취득된 이미지는 많은 노이즈를 가지고 있어 문제가 된다. 본 개시에서는 이러한 문제를 해결하기 위해 IIT 기법에 연산량이 적은 PCA를 사용하여 최적 결과를 취득하는 방법을 제안한다.The existing IIT technique restored the image acquired using the maximum spectral response of each RGB sensor to the original image. However, this method is possible only if you know the specifications of the sensor in advance, and the acquired image has a lot of noise, which is a problem. In order to solve this problem, the present disclosure proposes a method of obtaining an optimal result by using a PCA with a small amount of computation in the IIT technique.

IIT 기법은 크게 두 부분으로 나뉠 수 있다. 첫 번째는 RGB 색공간을 2D color ratio space로 변환하는 것이고, 두 번째는 상기 변환된 color ratio space에서 최적 색도 투영선

Figure 112018131749615-pat00021
을 찾아서 1D gray-scale 조명 불변 이미지(즉, 원본 이미지)로 변환하는 것이다.The IIT technique can be roughly divided into two parts. The first is to convert the RGB color space to a 2D color ratio space, and the second is to convert the optimal chromaticity projection line in the converted color ratio space.
Figure 112018131749615-pat00021
Is to find and convert it to a 1D gray-scale illumination invariant image (i.e. the original image).

먼저, 변환하기 위한 이미지 즉, 색공간 압축이 적용된 이미지에 PNL-assumption을 적용한다. PNL-assumption은 이미지가 Planckian illumination 조명아래서 랑베르 표면(Lambertian surfaces)에 반사되어 협대역 센서(Narrow-band sensors)로 취득되었다고 가정하는 것이다. PNL-assumption을 사용할 경우, 각 RGB 센서의 log 비를 통해 조명 정보가 제거된 2D color ratio space로 변환이 가능하다. 변환식은 [수학식 8]과 같이 나타낼 수 있다.First, PNL-assumption is applied to an image to be converted, that is, an image to which color space compression is applied. PNL-assumption assumes that the image is reflected on Lambertian surfaces under Planckian illumination illumination and acquired with narrow-band sensors. When PNL-assumption is used, it is possible to convert into a 2D color ratio space from which lighting information has been removed through the log ratio of each RGB sensor. The conversion equation can be expressed as [Equation 8].

Figure 112018131749615-pat00022
Figure 112018131749615-pat00022

하지만 일반적인 카메라에 사용되는 이미지 센서는 협대역 센서가 아니다. 따라서, PNL-assumption에 따른 오차가 발생하고 [수학식 8]은 적용이 불가능하다. 협대역 센서가 아닌 일반적인 광대역 센서(broad-band sensor)에 적용 가능한 변환식은 [수학식 9]와 같이 나타낼 수 있다.However, the image sensor used in a typical camera is not a narrow band sensor. Therefore, an error occurs according to PNL-assumption, and [Equation 8] cannot be applied. A conversion equation applicable to a general broad-band sensor other than a narrow-band sensor can be expressed as [Equation 9].

Figure 112018131749615-pat00023
Figure 112018131749615-pat00023

색비율을 사용하여 2D color ratio space 이미지를 취득하고, 그 후 PCA를 사용하여 최적의 색도 투영선

Figure 112018131749615-pat00024
의 각도를 추정한다. 이러한 방법은 기존의 엔트로피 최소화(entropy minimization)로
Figure 112018131749615-pat00025
을 찾아내는 것보다 노이즈에 강인하며 동작속도도 빠르다. 또한, 센서특성을 사용하여 원본 이미지를 취득하는 것에 비해 높은 정보량의 이미지를 취득할 수 있다.Acquire a 2D color ratio space image using the color ratio, and then use PCA to optimize the chromaticity projection line.
Figure 112018131749615-pat00024
Estimate the angle of This method can be accomplished by conventional entropy minimization.
Figure 112018131749615-pat00025
It is more robust to noise than to find and operates faster. In addition, it is possible to acquire an image of a higher information amount than that of acquiring an original image by using the sensor characteristics.

최적화된

Figure 112018131749615-pat00026
의 각도를 추정하기 위해서 PCA를 사용해 2D color ratio space 이미지의 값이 최대 분산을 이루는 고유벡터
Figure 112018131749615-pat00027
Figure 112018131749615-pat00028
를 추정한다. 먼저 이미지의 픽셀을 랜덤으로 샘플링하여 2 x n 행렬(X)를 구성한다. 구성된 행렬(X)를 사용하여 공분산 행렬 C = XX T 를 구성하고, 여기에 특이값 분해(singular value decomposition)를 적용하여 고유벡터
Figure 112018131749615-pat00029
Figure 112018131749615-pat00030
를 추정한다. 상기 공분산 행렬은 [수학식 10]을 이용해 구할 수 있다.Optimized
Figure 112018131749615-pat00026
Eigenvectors where the values of the 2D color ratio space image have the maximum variance using PCA to estimate the angle of
Figure 112018131749615-pat00027
and
Figure 112018131749615-pat00028
Estimate First, the pixels of the image are randomly sampled to form a 2 xn matrix ( X ). Construct a covariance matrix C = XX T using the constructed matrix ( X ), and apply a singular value decomposition to the eigenvector
Figure 112018131749615-pat00029
and
Figure 112018131749615-pat00030
Estimate The covariance matrix can be obtained using [Equation 10].

Figure 112018131749615-pat00031
Figure 112018131749615-pat00031

Figure 112018131749615-pat00032
Figure 112018131749615-pat00033
는 행렬 X의 고유벡터이고,
Figure 112018131749615-pat00034
Figure 112018131749615-pat00035
는 각각의 고유값이다. 둘 중 큰 분산 값을 가지는
Figure 112018131749615-pat00036
과 고유벡터
Figure 112018131749615-pat00037
는 투영선
Figure 112018131749615-pat00038
로 선택된다. 원본 이미지로 변환하기 위해 2D color ratio space에서 투영선
Figure 112018131749615-pat00039
과 직교하는 선분 위에 있는 픽셀들을 같은 반사율을 가진 표면으로 가정하고 1D gray scale space로 투영시킨다. 최종결과로는 조명 정보가 제거되어 반사율 정보만이 남은 원본 이미지를 획득할 수 있다.
Figure 112018131749615-pat00032
and
Figure 112018131749615-pat00033
Is the eigenvector of matrix X ,
Figure 112018131749615-pat00034
and
Figure 112018131749615-pat00035
Is each eigenvalue. Whichever has the greater variance
Figure 112018131749615-pat00036
And eigenvectors
Figure 112018131749615-pat00037
Is the projection line
Figure 112018131749615-pat00038
Is selected as Projection line in 2D color ratio space to convert to original image
Figure 112018131749615-pat00039
The pixels on the line segment perpendicular to and are projected in 1D gray scale space, assuming that the surface has the same reflectivity. As a final result, the lighting information is removed, and the original image with only the reflectance information remaining can be obtained.

이하의 [표 1]은 전체적인 프로세스를 나타낸 것이다.[Table 1] below shows the overall process.

Input : RI t , O
Output : II t
begin
for every input 3D Color Image RI t
AutoBalanceWhite(RI t )
for every channels n = R, G, B
for every pixels x
CI t x , n = (RI t x , n - O n )/(1 - O n )
end
end
for every pixels x
CRI t x , r = log(CI t x , R /(CI t x , R × CI t x , G × CI t x , B )1/3)
CRI t x , b = log(CI t x , B /(CI t x , R × CI t x , G × CI t x , B )1/3)
end
for sample size ss
Random sampling CRI t x
if mean of sampled pixel value 100 < CI t x < 200
add CRI t x to sampled pixel SI t y
end
end
get e 1, e 2 using SI t
α = | arctan (e 1/e 2) |
for every pixels x
II t x = (cos α × CRI t r ) + (sin α × CRI t bb )
end
normalization(II t )
return II t
end
end
Input : RI t , O
Output : II t
begin
for every input 3D Color Image RI t
AutoBalanceWhite( RI t )
for every channels n = R, G, B
for every pixels x
CI t x , n = ( RI t x , n - O n )/(1- O n )
end
end
for every pixels x
CRI t x , r = log( CI t x , R /( CI t x , R × CI t x , G × CI t x , B ) 1/3 )
CRI t x , b = log( CI t x , B /( CI t x , R × CI t x , G × CI t x , B ) 1/3 )
end
for sample size ss
Random sampling CRI t x
if mean of sampled pixel value 100 < CI t x <200
add CRI t x to sampled pixel SI t y
end
end
get e 1 , e 2 using SI t
α = | arctan ( e 1 / e 2 ) |
for every pixels x
II t x = (cos α × CRI t r ) + (sin α × CRI t bb )
end
normalization( II t )
return II t
end
end

RI t 는 시간 t에 취득된 3D RGB 이미지, O는 사전에 취득된 컬러 오프셋, II t 는 최종 결과로 획득되는 1D 조명 불변 이미지이다. 먼저 RI t 가 입력되면 입력된 이미지에 화이트 밸런스(white balance)를 보정한다. 이는 IIT 기법을 적용하기 위해 정확한 색온도의 이미지가 필요하기 때문이다. 다음으로 색온도가 보정된 RI t 에 색공간 압축(CSC) 기법을 적용하여 압축된 이미지 CI t 를 획득한다. CI t 는 사전에 취득된 O를 사용하여 RGB 각 채널에 [수학식 7]을 적용하여 획득할 수 있다. 획득된 CI t 는 2D 색비(color ratio) 이미지 CRI t 로 변환된다. CRI t 는 [수학식 9]를 이용해 도출할 수 있다. 다음으로 CRI t 에서 무작위로 ss개 만큼의 샘플을 선정한다. ss는 이미지의 크기를 반영하여 column * row/m로 계산되는데 본 개시에서는 m=1000으로 적용했다. 다만, 샘플 선정시, 제약조건이 붙을 수 있다. 이미지 정보의 암부 영역과 명부 영역은 노이즈가 크고 이것이 샘플 픽셀에 적용될 경우, PCA가 수렴하지 않는 문제가 발생하는 것을 막기 위해 샘플 픽셀에 CRIt를 더할 수 있다. 샘플된 이미지 SI t 를 사용하여 PCA를 적용하여 고유벡터 e 1, e 2를 취득하고 이것의 비를 사용하여 α를 취득한다. 마지막으로 α를 사용하여 CRI t x II t 로 변환한 후 II t 에 정규화(normalization)를 적용한다. 단, 정규화시 정규화 범위를 1이 아닌 0.8배수로 맞춘다. 0~0.1과 0.9~1에는 유요한 정보가 거의 존재하지 않고, 이렇게 함으로 대비가 높아져, 보다 높은 정보량을 가진 이미지를 획득할 수 있다. RI t is a 3D RGB image acquired at time t, O is a color offset acquired in advance, and II t is a 1D illumination invariant image acquired as a final result. First, if RI t is input, white balance is corrected in the input image. This is because an image with an accurate color temperature is required to apply the IIT technique. Next, a compressed image CI t is obtained by applying a color space compression (CSC) technique to RI t whose color temperature is corrected. CI t can be obtained by applying [Equation 7] to each RGB channel using O obtained in advance. The obtained CI t is converted into a 2D color ratio image CRI t . CRI t can be derived using [Equation 9]. Next, randomly select ss samples from CRI t . ss is calculated as column * row / m by reflecting the size of the image. In this disclosure, m = 1000 is applied. However, when selecting a sample, there may be constraints. When the dark and bright areas of the image information are noisy and applied to the sample pixel, a CRIt can be added to the sample pixel to prevent a problem that the PCA does not converge. Using the sampled image SI t , PCA is applied to obtain the eigenvectors e 1 and e 2 , and α is obtained using their ratio. Finally, convert CRI t x to II t using α and apply normalization to II t . However, when normalizing, the normalization range is set to a multiple of 0.8 instead of 1. Almost no useful information exists in 0~0.1 and 0.9~1, and by doing this, the contrast is increased, and an image with a higher amount of information can be obtained.

도 1은 본 개시에 따른 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법의 순서도를 나타낸 것이다.1 is a flowchart illustrating a method of obtaining an illumination invariant image using a color space compression technique according to the present disclosure.

먼저, RGB 이미지를 취득한다(S110). 일 예로, 상기 RGB 이미지는 RGB 센서를 이용해 시간 t에 취득한 이미지이다. 보다 정확한 색온도의 이미지를 취득하기 위해 상기 취득한 RGB 이미지에 화이트 밸런스를 보정할 수 있다.First, an RGB image is acquired (S110). For example, the RGB image is an image acquired at time t using an RGB sensor. In order to obtain a more accurate color temperature image, the white balance may be corrected on the acquired RGB image.

상기 취득한 RGB 이미지에 컬러 오프셋을 이용해 색공간 압축을 적용한다(S120). 상기 컬러 오프셋은 조명의 강도에 따른 센서반응이 선형이 될 수 있게 만드는 오프셋으로 사전에 구할 수 있다. Color space compression is applied to the acquired RGB image using a color offset (S120). The color offset can be obtained in advance as an offset that makes the sensor response according to the intensity of illumination linear.

이후, 상기 색공간 압축이 적용된 이미지를 2D color ratio space 이미지로 변환한다(S130). 상기 2D color ratio space 이미지는 [수학식 8] 또는 [수학식 9]를 이용해 도출할 수 있다. 이미지를 취득하기 위한 센서가 협대역 센서이면 [수학식 8]을, 광대역 센서이면 [수학식 9]를 이용한다.Thereafter, the image to which the color space compression is applied is converted into a 2D color ratio space image (S130). The 2D color ratio space image can be derived using [Equation 8] or [Equation 9]. [Equation 8] is used if the sensor for acquiring an image is a narrow band sensor, and [Equation 9] is used for a wide band sensor.

상기 변환된 이미지를 이용해 PCA 기반의 색도 투영선

Figure 112018131749615-pat00040
을 추정한다(S140). 상기 변환된 2D color ratio space 이미지에서 임의로 샘플을 선정하고, 선정된 샘플에 PCA 기반으로 색도 투영선
Figure 112018131749615-pat00041
을 추정한다. 상기 샘플은 이미지의 크기를 반영할 수 있다. 또한, 필요에 따라서는 샘플 선정시 제약조건이 붙을 수 있다. 상기 선정된 샘플로 행렬을 구성하고, 공분산 행렬을 구해 고유벡터를 추정하고, 상기 추정된 고유벡터로부터 투영선
Figure 112018131749615-pat00042
을 추정한다.PCA-based chromaticity projection line using the converted image
Figure 112018131749615-pat00040
Is estimated (S140). Randomly select a sample from the converted 2D color ratio space image, and a chromaticity projection line based on PCA on the selected sample
Figure 112018131749615-pat00041
Estimate The sample may reflect the size of the image. In addition, if necessary, constraints may be imposed upon sample selection. Construct a matrix from the selected samples, obtain a covariance matrix to estimate an eigenvector, and a projection line from the estimated eigenvector
Figure 112018131749615-pat00042
Estimate

상기 추정된

Figure 112018131749615-pat00043
을 기반으로 1D 조명 불변 이미지로 변환한다(S150). 이후, 상기 변환된 1D 조명 불변 이미지에 1이 아닌 0.8로 맞춰 정규화를 적용할 수 있다. Above estimated
Figure 112018131749615-pat00043
Converts to a 1D illumination constant image based on (S150). Thereafter, normalization may be applied to the converted 1D illumination invariant image by setting it to 0.8 instead of 1.

도 1에서는 과정 S110 내지 과정 S150을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 1에 기재된 순서를 변경하여 실행하거나 과정 S110 내지 과정 S150 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 1은 시계열적인 순서로 한정되는 것은 아니다.In FIG. 1, steps S110 to S150 are described as sequentially executing, but this is merely illustrative of the technical idea of an embodiment of the present invention. In other words, if one of ordinary skill in the technical field to which an embodiment of the present invention belongs, changes the order shown in FIG. 1 and executes one of the processes S110 to S150 without departing from the essential characteristics of the embodiment of the present invention. Since the above processes are executed in parallel, various modifications and variations may be applied, and thus FIG. 1 is not limited to a time series order.

한편, 도 1에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the processes shown in FIG. 1 can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. That is, the computer-readable recording medium is a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD-ROM, DVD, etc.), and carrier wave (e.g., Internet And storage media such as transmission through In addition, the computer-readable recording medium can be distributed over a computer system connected through a network to store and execute computer-readable codes in a distributed manner.

도 2는 본 개시에 따른 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 장치의 구성도를 나타낸 것이다.2 is a block diagram of an apparatus for obtaining an illumination invariant image using a color space compression technique according to the present disclosure.

도 2에서는 다수의 구성으로 나누어 설명하나 여러 개의 구성이 하나의 구성으로 통합되어 구현될 수 있으며 또는 하나의 구성이 여러 개의 구성으로 나누어 구현될 수도 있다.In FIG. 2, a description is made by dividing into a plurality of configurations, but multiple configurations may be integrated into one configuration, or one configuration may be divided into multiple configurations.

도 2를 참고하면, 본 개시에 따른 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 장치는 이미지 취득부(210)와 이미지 처리부(220)를 포함할 수 있다.Referring to FIG. 2, an apparatus for obtaining an illumination invariant image using a color space compression technique according to the present disclosure may include an image acquisition unit 210 and an image processing unit 220.

이미지 취득부(210)는 RGB 센서를 이용해 RGB 이미지를 취득한다. 이때 취득한 RGB 이미지는 3D RGB 이미지일 수 있다. The image acquisition unit 210 acquires an RGB image using an RGB sensor. At this time, the acquired RGB image may be a 3D RGB image.

이미지 처리부(220)는 이미지 취득부(210)에서 취득한 이미지에 컬러 오프셋을 이용해 색공간 압축을 적용하고, 2D color ratio space 변환한다. 상기 컬러 오프셋은 조명의 강도에 따른 센서반응이 선형이 될 수 있게 만드는 오프셋으로 사전에 구할 수 있다. 상기 변환된 2D color ratio space 이미지는 [수학식 8] 또는 [수학식 9]를 이용해 구할 수 있다. 이미지를 취득하기 위한 센서가 협대역 센서이면 [수학식 8]을, 광대역 센서이면 [수학식 9]를 이용한다.The image processing unit 220 applies color space compression to the image acquired by the image acquisition unit 210 by using a color offset, and performs 2D color ratio space conversion. The color offset can be obtained in advance as an offset that makes the sensor response according to the intensity of illumination linear. The converted 2D color ratio space image can be obtained using [Equation 8] or [Equation 9]. [Equation 8] is used if the sensor for acquiring an image is a narrow band sensor, and [Equation 9] is used for a wide band sensor.

이후, 이미지 처리부(220)는 PCA 기반의 색도 투영선

Figure 112018131749615-pat00044
을 추정하고, 상기 추정된
Figure 112018131749615-pat00045
을 기반으로 1D 조명 불변 이미지로 변환한다. 상기 색도 투영선
Figure 112018131749615-pat00046
은 상기 변환된 2D color ratio space 이미지에서 임의로 샘플을 선정하고, 선정된 샘플에 PCA 기반으로 추정할 수 있다. 상기 샘플은 이미지의 크기를 반영할 수 있다. 또한, 필요에 따라서는 샘플 선정시 제약조건이 붙을 수 있다. 상기 선정된 샘플로 행렬을 구성하고, 공분산 행렬을 구해 고유벡터를 추정하고, 상기 추정된 고유벡터로부터 색도 투영선
Figure 112018131749615-pat00047
을 추정한다.Then, the image processing unit 220 is a PCA-based chromaticity projection line
Figure 112018131749615-pat00044
And the estimated
Figure 112018131749615-pat00045
It converts to a 1D illumination invariant image based on. The chromaticity projection line
Figure 112018131749615-pat00046
May randomly select a sample from the converted 2D color ratio space image, and estimate the selected sample based on PCA. The sample may reflect the size of the image. In addition, if necessary, constraints may be imposed upon sample selection. Construct a matrix from the selected samples, obtain a covariance matrix to estimate an eigenvector, and a chromaticity projection line from the estimated eigenvector
Figure 112018131749615-pat00047
Estimate

이미지 처리부(220)는 보다 정확한 색온도의 이미지를 취득하기 위해 상기 취득한 RGB 이미지에 화이트 밸런스를 보정할 수 있다. 이후, 상기 변환된 1D 조명 불변 이미지에 1이 아닌 0.8로 맞춰 정규화를 적용할 수 있다.The image processing unit 220 may correct a white balance on the acquired RGB image in order to acquire an image having a more accurate color temperature. Thereafter, normalization may be applied to the converted 1D illumination invariant image by setting it to 0.8 instead of 1.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those of ordinary skill in the technical field to which the present embodiment belongs will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present exemplary embodiments are not intended to limit the technical idea of the present exemplary embodiment, but are illustrative, and the scope of the technical idea of the present exemplary embodiment is not limited by these exemplary embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.

Claims (10)

색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법에 있어서,
RGB 이미지를 취득하는 과정;
상기 취득한 RGB 이미지에 컬러 오프셋을 이용해 보정된 RGB 이미지를 생성하는 과정;
상기 보정된 RGB 이미지에 색공간 압축을 적용하는 과정;
상기 색공간 압축이 적용된 이미지를 2D color ratio space 이미지로 변환하는 과정;
상기 변환된 이미지를 이용해 PCA 기반의 색도 투영선(chromaticity projection line)
Figure 112020054673236-pat00048
을 추정하는 과정; 및
상기 추정된
Figure 112020054673236-pat00049
을 기반으로 1D 조명 불변 이미지로 변환하는 과정
을 포함하고,
상기 컬러 오프셋은 조명의 강도에 따른 센서반응이 선형이 되게 하는 오프셋으로서, 상기 보정된 RGB 이미지의 각 픽셀의 R, G, 및 B 컬러 성분들은 다음 수학식에 의해 결정되는 것을 특징으로 하는 조명 불변 이미지 획득 방법.
Figure 112020054673236-pat00058

여기서, x는 관련된 픽셀을 나타내고, n은 관련된 컬러 성분을 나타내고,
Figure 112020054673236-pat00059
은 보정된 RGB 이미지의 x번째 픽셀의 n 컬러 성분을 나타내며,
Figure 112020054673236-pat00060
는 시간 t에 획득한 상기 취득한 RGB 이미지의 x번째 픽셀의 n 컬러 성분이고,
Figure 112020054673236-pat00061
은 각 컬러 성분에 대응되는 상기 컬러 오프셋임.
In a method of obtaining an illumination invariant image using a color space compression technique,
The process of acquiring an RGB image;
Generating an RGB image corrected by using a color offset on the acquired RGB image;
Applying color space compression to the corrected RGB image;
Converting the image to which the color space compression is applied into a 2D color ratio space image;
PCA-based chromaticity projection line using the converted image
Figure 112020054673236-pat00048
The process of estimating; And
Above estimated
Figure 112020054673236-pat00049
The process of converting to a 1D lighting invariant image based on
Including,
The color offset is an offset that causes the sensor response according to the intensity of illumination to become linear, and the R, G, and B color components of each pixel of the corrected RGB image are determined by the following equation. How to acquire an image.
Figure 112020054673236-pat00058

Where x represents the associated pixel, n represents the associated color component,
Figure 112020054673236-pat00059
Represents the n color component of the x- th pixel of the corrected RGB image,
Figure 112020054673236-pat00060
Is the n color component of the x- th pixel of the acquired RGB image acquired at time t,
Figure 112020054673236-pat00061
Is the color offset corresponding to each color component.
제1항에 있어서,
상기 색공간 압축을 적용하기 전,
상기 취득한 RGB 이미지에 화이트 밸런스를 보정하는 과정을 더 포함하는 조명 불변 이미지 획득 방법.
The method of claim 1,
Before applying the color space compression,
A method of obtaining an illumination invariant image further comprising a step of correcting a white balance on the acquired RGB image.
제1항에 있어서,
상기
Figure 112018131749615-pat00050
을 추정하는 과정은,
상기 2D color ratio space 이미지에서 임의로 선정한 샘플을 이용하는 과정임을 특징으로 하는 조명 불변 이미지 획득 방법.
The method of claim 1,
remind
Figure 112018131749615-pat00050
The process of estimating is,
An illumination invariant image acquisition method, characterized in that a process of using a sample randomly selected from the 2D color ratio space image.
제1항에 있어서,
상기 변환된 1D 조명 불변 이미지에 정규화를 더 적용하는 과정을 포함하는 조명 불변 이미지 획득 방법.
The method of claim 1,
A method of obtaining an illumination invariant image comprising the process of further applying normalization to the converted 1D illumination invariant image.
삭제delete 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 장치에 있어서,
RGB 이미지를 취득하는 이미지 취득부; 및
상기 취득한 RGB 이미지에 컬러 오프셋을 이용해 보정된 RGB 이미지를 생성하고, 상기 보정된 RGB 이미지에 색공간 압축을 적용하고, 상기 색공간 압축이 적용된 이미지를 2D color ratio space 이미지로 변환하고, 상기 변환된 이미지를 이용해 PCA 기반의 색도 투영선(chromaticity projection line)
Figure 112020054673236-pat00051
을 추정하고, 상기 추정된
Figure 112020054673236-pat00052
을 기반으로 1D 조명 불변 이미지로 변환하는 이미지 처리부를 포함하고,
상기 컬러 오프셋은 조명의 강도에 따른 센서반응이 선형이 되게 하는 오프셋으로서, 상기 보정된 RGB 이미지의 각 픽셀의 R, G, 및 B 컬러 성분들은 다음 수학식에 의해 결정되는 것을 특징으로 하는 조명 불변 이미지 취득 장치.
Figure 112020054673236-pat00062

여기서, x는 관련된 픽셀을 나타내고, n은 관련된 컬러 성분을 나타내고,
Figure 112020054673236-pat00063
은 보정된 RGB 이미지의 x번째 픽셀의 n 컬러 성분을 나타내며,
Figure 112020054673236-pat00064
는 시간 t에 획득한 상기 취득한 RGB 이미지의 x번째 픽셀의 n 컬러 성분이고,
Figure 112020054673236-pat00065
은 각 컬러 성분에 대응되는 상기 컬러 오프셋임.
In an apparatus for obtaining an illumination invariant image using a color space compression technique,
An image acquisition unit that acquires an RGB image; And
A corrected RGB image is generated using a color offset to the acquired RGB image, color space compression is applied to the corrected RGB image, the color space compression applied image is converted into a 2D color ratio space image, and the converted PCA-based chromaticity projection line using images
Figure 112020054673236-pat00051
And the estimated
Figure 112020054673236-pat00052
Including an image processing unit for converting the 1D illumination constant image based on,
The color offset is an offset that causes the sensor response according to the intensity of illumination to become linear, and the R, G, and B color components of each pixel of the corrected RGB image are determined by the following equation. Image acquisition device.
Figure 112020054673236-pat00062

Where x represents the associated pixel, n represents the associated color component,
Figure 112020054673236-pat00063
Represents the n color component of the x- th pixel of the corrected RGB image,
Figure 112020054673236-pat00064
Is the n color component of the x- th pixel of the acquired RGB image acquired at time t,
Figure 112020054673236-pat00065
Is the color offset corresponding to each color component.
제6항에 있어서,
상기 이미지 처리부는,
상기 색공간 압축을 적용하기 전, 상기 취득한 RGB 이미지에 화이트 밸런스를 더 보정함을 특징으로 하는 조명 불변 이미지 취득 장치.
The method of claim 6,
The image processing unit,
Before applying the color space compression, a white balance is further corrected on the acquired RGB image.
제6항에 있어서,
상기 이미지 처리부는,
상기 2D color ratio space 이미지에서 임의로 선정한 샘플을 이용하여 상기
Figure 112020054673236-pat00053
을 추정함을 특징으로 하는 조명 불변 이미지 취득 장치.
The method of claim 6,
The image processing unit,
Using a randomly selected sample from the 2D color ratio space image, the
Figure 112020054673236-pat00053
Illumination invariant image acquisition device, characterized in that to estimate.
제6항에 있어서,
상기 이미지 처리부는,
상기 변환된 1D 조명 불변 이미지에 정규화를 더 적용함을 특징으로 하는 조명 불변 이미지 취득 장치.
The method of claim 6,
The image processing unit,
An illumination invariant image acquisition device, characterized in that normalization is further applied to the converted 1D illumination invariant image.
삭제delete
KR1020180172267A 2018-12-28 2018-12-28 Method for acquiring illumination invariant image using color space compression technique and device therefor KR102176093B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180172267A KR102176093B1 (en) 2018-12-28 2018-12-28 Method for acquiring illumination invariant image using color space compression technique and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180172267A KR102176093B1 (en) 2018-12-28 2018-12-28 Method for acquiring illumination invariant image using color space compression technique and device therefor

Publications (2)

Publication Number Publication Date
KR20200082074A KR20200082074A (en) 2020-07-08
KR102176093B1 true KR102176093B1 (en) 2020-11-09

Family

ID=71600224

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180172267A KR102176093B1 (en) 2018-12-28 2018-12-28 Method for acquiring illumination invariant image using color space compression technique and device therefor

Country Status (1)

Country Link
KR (1) KR102176093B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9866816B2 (en) * 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
KR102489429B1 (en) * 2021-03-09 2023-01-18 주식회사 케이에이알 System for receiving and transmitting video data for remote inspection device and method performing the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180176483A1 (en) * 2014-12-29 2018-06-21 Metaio Gmbh Method and sytem for generating at least one image of a real environment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180176483A1 (en) * 2014-12-29 2018-06-21 Metaio Gmbh Method and sytem for generating at least one image of a real environment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Taeyoung Kim, et. al, "PCA based Computation of illumination-invariant Space for Road Detection", 2017 WACV, 31 March, 2017.*

Also Published As

Publication number Publication date
KR20200082074A (en) 2020-07-08

Similar Documents

Publication Publication Date Title
US10885611B2 (en) Image dehazing and restoration
Artusi et al. A survey of specularity removal methods
JP6586430B2 (en) Estimation of vehicle position
Bradski et al. Learning-based computer vision with intel's open source computer vision library.
US8873837B2 (en) Image-based crack detection
EP2382598B1 (en) Processing of remotely acquired imaging data including moving objects
US11010606B1 (en) Cloud detection from satellite imagery
Tatoglu et al. Point cloud segmentation with LIDAR reflection intensity behavior
KR102170260B1 (en) Apparatus and method for fusing synthetic aperture radar image and multispectral image, method for detecting change using it
Jabari et al. Multispectral change detection using multivariate Kullback-Leibler distance
US10032077B1 (en) Vehicle track identification in synthetic aperture radar images
KR102176093B1 (en) Method for acquiring illumination invariant image using color space compression technique and device therefor
EP2731052A2 (en) Spectral scene simplification through background substraction
CN113705375A (en) Visual perception device and method for ship navigation environment
KR20110021500A (en) Method for real-time moving object tracking and distance measurement and apparatus thereof
Ramakrishnan et al. Shadow compensation for outdoor perception
Wang et al. Per-pixel water detection on surfaces with unknown reflectance
Wu et al. Identifying color in motion in video sensors
Akman et al. Computing saliency map from spatial information in point cloud data
US8891870B2 (en) Substance subtraction in a scene based on hyperspectral characteristics
Yehia et al. Effect of different spatial resolutions of multi-temporal satellite images change detection application
Schlamm et al. Improved detection and clustering of hyperspectral image data by preprocessing with a euclidean distance transformation
CN117523428B (en) Ground target detection method and device based on aircraft platform
Su et al. A robust approach for anti-jamming target tracking in forward looking infrared imagery
KR20110131675A (en) Color region segmentation system for intelligent transportation system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant