KR101191151B1 - Apparatus and method for terrain-type classification - Google Patents

Apparatus and method for terrain-type classification Download PDF

Info

Publication number
KR101191151B1
KR101191151B1 KR1020100047120A KR20100047120A KR101191151B1 KR 101191151 B1 KR101191151 B1 KR 101191151B1 KR 1020100047120 A KR1020100047120 A KR 1020100047120A KR 20100047120 A KR20100047120 A KR 20100047120A KR 101191151 B1 KR101191151 B1 KR 101191151B1
Authority
KR
South Korea
Prior art keywords
information
image
terrain
terrain classification
setting
Prior art date
Application number
KR1020100047120A
Other languages
Korean (ko)
Other versions
KR20110127552A (en
Inventor
성기열
이승연
곽동민
양동원
박준성
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020100047120A priority Critical patent/KR101191151B1/en
Publication of KR20110127552A publication Critical patent/KR20110127552A/en
Application granted granted Critical
Publication of KR101191151B1 publication Critical patent/KR101191151B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors

Abstract

본 발명은 영상 정보 및 환경 정보를 이용하여 복수의 지형 분류 파라미터 중에서 어느 하나의 지형 분류 파라미터를 선택하고, 상기 선택된 지형 분류 파라미터를 근거로 해당 영상 정보에 대한 지형을 분류하는 지형 분류 장치 및 그 방법에 관한 것이다. 이를 위하여 본 발명에 따른 지형 분류 장치는, 환경 정보를 감지하는 환경 센서부; 및 영상 정보의 종류, 상기 감지된 환경 정보, 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 기설정된 분류기에 대한 정보를 근거로 기저장된 복수의 지형 분류 파라미터 중에서 어느 하나의 지형 분류 파라미터를 선택하는 영상 처리부를 포함하여 구성된다.The present invention provides a terrain classification apparatus and method for selecting any one of a plurality of terrain classification parameters by using image information and environment information, and classifying terrain for the corresponding image information based on the selected terrain classification parameter. It is about. To this end, the terrain classification apparatus according to the present invention includes an environment sensor unit for sensing environment information; And a plurality of pre-stored based on the type of the image information, the sensed environment information, the method setting method of the preprocessing of the preset image information, the method setting method of the preset feature extraction process, and the information about the predetermined classifier. And an image processor for selecting any one of the terrain classification parameters.

Description

지형 분류 장치 및 그 방법{APPARATUS AND METHOD FOR TERRAIN-TYPE CLASSIFICATION}Terrain classification device and its method {APPARATUS AND METHOD FOR TERRAIN-TYPE CLASSIFICATION}

본 발명은 지형 분류 장치 및 그 방법에 관한 것으로 특히, 환경 변화에 강인한 지형 분류 장치 및 그 방법에 관한 것이다.The present invention relates to a topographic classification apparatus and a method thereof, and more particularly, to a topographic classification apparatus and a method that is robust to environmental changes.

무인 차량의 자율 주행을 위한 연구 및 개발이 활발하게 진행되고 있다. 여기서, 상기 자율 주행은, 사람의 개입 없이 사람의 두뇌 역할을 하는 컴퓨터(또는, 컨트롤러)와 눈의 역할을 하는 센서들을 이용하여 무인 차량 스스로 주변 상황을 인식하고 판단하여 이동하는 것을 의미한다. 이러한 자율 주행을 효율적으로 수행하기 위해서는 이동 경로의 지형을 적절하게 분류하고, 분류된 지형에 맞는 차량 제어가 필요하다. 특히, 제한된 포장로가 아닌 비포장로 및 야지와 같은 복잡한 자연 환경에서는 보다 정확한 지형 분류가 요구된다. 이에 따라, 입력된 영상을 기반으로 야지 지형을 분류하는 방법이 있으나, 그러한 방법들은 야지 환경에서의 계절에 따른 지형의 변화, 조도 변화 등의 영향을 고려하지 못하여 제한된 환경에서만 지형 분류를 수행할 수 있거나 주행 시험 직전에 지형 분류를 위해 해당 클래스로 다시 학습해야 한다.Research and development for autonomous driving of unmanned vehicles is actively progressing. Here, the autonomous driving means that the driverless vehicle recognizes and determines the surrounding situation by itself using a computer (or controller) that acts as a human brain and sensors that act as eyes without human intervention. In order to efficiently perform such autonomous driving, it is necessary to properly classify the terrain of the moving route and control a vehicle suitable for the classified terrain. In particular, more accurate terrain classification is required in complex natural environments, such as unpaved roads and fields, rather than limited pavements. Accordingly, there is a method for classifying the field terrain based on the input image. However, such methods cannot perform terrain classification only in a limited environment because it does not consider the effects of the seasonal change of the terrain and the change of illumination in the field. Or relearn to the class for terrain classification immediately before the driving test.

본 발명의 목적은, 영상 센서(카메라 등 포함) 및 환경 센서를 이용하여 무인 차량 전방의 지형 영상 정보와 환경 정보를 획득하고, 상기 획득된 환경 정보에 따른 지형 분류 파라미터를 근거로 실시간으로 영상기반 지형 분류를 수행하는 지형 분류 장치 및 그 방법을 제공하는 데 있다.An object of the present invention is to obtain terrain image information and environment information in front of an unmanned vehicle using an image sensor (including a camera, etc.) and an environmental sensor, and based on the terrain classification parameter according to the obtained environmental information in real time based on the image. A terrain classification device for performing terrain classification and a method thereof are provided.

본 발명의 다른 목적은, 환경 센서에 의해 획득된 환경 정보를 수치로 이산화 및 정량화하는 지형 분류 장치 및 그 방법을 제공하는 데 있다.It is another object of the present invention to provide a terrain classification apparatus and method for discretizing and quantifying environmental information obtained by an environmental sensor.

본 발명의 또 다른 목적은, 환경 센서에 의해 획득된 환경 정보를 이용하여 지형분류에 사용되는 파라미터 관리 방법을 제공하는 지형 분류 장치 및 그 방법을 제공하는 데 있다.It is still another object of the present invention to provide a terrain classification apparatus and method for providing a parameter management method used for terrain classification using environmental information obtained by an environmental sensor.

본 발명의 또 다른 목적은, 환경 센서에 의해 획득된 환경 정보에 따른 지형 분류 파라미터를 선택할 때, 미리 학습된 환경에 맞는 파라미터가 없는 경우, 기설정된 우선 순위를 근거로 가장 유사한 파라미터를 선택하는 방법을 제공하는 지형 분류 장치 및 그 방법을 제공하는 데 있다.It is still another object of the present invention to select a most similar parameter based on a preset priority when selecting a terrain classification parameter according to environmental information acquired by an environmental sensor, when there is no parameter suitable for a previously learned environment. The present invention provides a terrain classification apparatus and a method thereof.

상기 목적들을 달성하기 위한 본 발명에 따른 지형 분류 장치는, 환경 정보를 감지하는 환경 센서부; 및 영상 정보의 종류, 상기 감지된 환경 정보, 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 기설정된 분류기에 대한 정보를 근거로 기저장된 복수의 지형 분류 파라미터 중에서 어느 하나의 지형 분류 파라미터를 선택하는 영상 처리부를 포함할 수 있다.According to an aspect of the present invention, there is provided a terrain classification apparatus, comprising: an environment sensor unit configured to sense environment information; And a plurality of pre-stored based on the type of the image information, the sensed environment information, the method setting method of the preprocessing of the preset image information, the method setting method of the preset feature extraction process, and the information about the predetermined classifier. It may include an image processor for selecting any one of the terrain classification parameters.

본 발명과 관련된 일 예로서, 상기 영상 처리부는, 상기 선택된 지형 분류 파라미터를 근거로 상기 영상을 기반으로 지형을 분류하고, 상기 지형이 분류된 결과 영상에서의 오분류를 제거하고, 상기 오분류가 제거된 결과 정보를 무인 차량의 통합 제어 장치에 전송할 수 있다.As an example related to the present invention, the image processing unit classifies a terrain based on the image based on the selected terrain classification parameter, removes a misclassification in a result image in which the terrain is classified, and the misclassification is performed. The removed result information can be transmitted to the integrated control device of the unmanned vehicle.

본 발명과 관련된 일 예로서, 상기 환경 정보는, GPS 센서를 통해 감지된 월 정보와 시각 정보, 조도 센서를 통해 감지된 조도 정보 및, 습도 센서를 통해 감지된 습도 정보를 포함할 수 있다.As an example related to the present invention, the environment information may include wall information and time information detected through a GPS sensor, illuminance information detected through an illuminance sensor, and humidity information detected through a humidity sensor.

본 발명과 관련된 일 예로서, 상기 영상 정보의 전처리 과정의 수행 방법 설정 정보는, 상기 영상 정보에 대한 색 공간 변환에 이용될 색 공간 방법에 대한 설정 정보 및, 상기 색 공간 변환된 영상 정보에 대한 정규화 과정의 수행 여부에 대한 정보를 포함할 수 있다.As an example related to the present invention, the method setting information for performing the preprocessing of the image information may include setting information about a color space method to be used for color space conversion of the image information and information about the color space converted image information. It may include information on whether or not to perform the normalization process.

본 발명과 관련된 일 예로서, 상기 특징 추출 과정의 수행 방법 설정 정보는, 상기 전처리된 영상 정보에 대한 특징 벡터 추출에 이용될 특징 벡터 추출 방법에 대한 정보 및, 선형 판별 분석법의 수행 여부에 대한 정보를 포함할 수 있다.As an example related to the present invention, the method setting method setting information of the feature extraction process may include information on a feature vector extraction method to be used for feature vector extraction for the preprocessed image information and information on whether to perform a linear discriminant analysis method. It may include.

본 발명과 관련된 일 예로서, 상기 영상 처리부는, 상기 복수의 지형 분류 파라미터 중에서 상기 영상 정보의 종류, 상기 환경 정보, 상기 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 상기 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 상기 기설정된 분류기에 대한 정보에 대응하는 지형 분류 파라미터가 없을 때, 상기 환경 정보에 포함된 월 정보, 시각 정보, 조도 정보 및, 습도 정보의 기설정된 우선 순위를 근거로 차순위의 월 정보, 시각 정보, 조도 정보 및, 습도 정보에 대응하는 제1 환경 정보를 선택하고, 상기 복수의 지형 분류 파라미터 중에서 상기 영상 정보의 종류, 상기 선택된 제1 환경 정보, 상기 영상 정보의 전처리 과정의 수행 방법 설정 정보, 상기 특징 추출 과정의 수행 방법 설정 정보 및, 상기 분류기에 대한 정보에 대응하는 지형 분류 파라미터를 선택할 수 있다.As an example related to the present disclosure, the image processing unit may include a type of the image information, environment information, method of performing preprocessing of the predetermined image information, and the predetermined feature extraction process among the plurality of terrain classification parameters. When there is no setting method information and the terrain classification parameter corresponding to the information on the predetermined classifier, based on the predetermined priority of the month information, time information, roughness information, and humidity information included in the environment information Selects first environmental information corresponding to next month information, time information, illuminance information, and humidity information; and pre-processes the type of the image information, the selected first environment information, and the image information among the plurality of terrain classification parameters. Process method setting information of the process, method method setting information of the feature extraction process, and information on the classifier You can select the corresponding terrain classification parameters.

상기 목적들을 달성하기 위한 본 발명에 따른 지형 분류 방법은, 영상 정보의 종류, 환경 센서부를 통해 감지된 환경 정보, 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 기설정된 분류기에 대한 정보를 근거로 기저장된 복수의 지형 분류 파라미터 중에서 어느 하나의 지형 분류 파라미터를 선택하는 단계; 상기 선택된 지형 분류 파라미터를 근거로 상기 영상 정보에 대한 지형을 분류하는 단계; 및 상기 지형이 분류된 결과 영상에서의 오분류를 제거하는 단계를 포함하여 이루어진다.The terrain classification method according to the present invention for achieving the above object, the type of the image information, the environmental information detected by the environmental sensor, the method of performing the pre-processing process of the predetermined image information setting information, the method of performing a predetermined feature extraction process Selecting one of the terrain classification parameters from among the plurality of previously stored terrain classification parameters based on the setting information and the information on the preset classifier; Classifying terrain for the image information based on the selected terrain classification parameter; And eliminating misclassification in the result image of which the terrain is classified.

본 발명과 관련된 일 예로서, 상기 오분류가 제거된 결과 정보를 무인 차량의 통합 제어 장치에 전송하는 단계를 더 포함할 수 있다.As an example related to the present invention, the method may further include transmitting the result information from which the misclassification is removed to the integrated control apparatus of the unmanned vehicle.

본 발명과 관련된 일 예로서, 상기 환경 정보는, GPS 센서를 통해 감지된 월 정보와 시각 정보, 조도 센서를 통해 감지된 조도 정보 및, 습도 센서를 통해 감지된 습도 정보를 포함할 수 있다.As an example related to the present invention, the environment information may include wall information and time information detected through a GPS sensor, illuminance information detected through an illuminance sensor, and humidity information detected through a humidity sensor.

본 발명과 관련된 일 예로서, 상기 영상 정보의 전처리 과정의 수행 방법 설정 정보는, 상기 영상 정보에 대한 색 공간 변환에 이용될 색 공간 방법에 대한 설정 정보 및, 상기 색 공간 변환된 영상 정보에 대한 정규화 과정의 수행 여부에 대한 정보를 포함할 수 있다.As an example related to the present invention, the method setting information for performing the preprocessing of the image information may include setting information about a color space method to be used for color space conversion of the image information and information about the color space converted image information. It may include information on whether or not to perform the normalization process.

본 발명과 관련된 일 예로서, 상기 특징 추출 과정의 수행 방법 설정 정보는, 상기 전처리된 영상 정보에 대한 특징 벡터 추출에 이용될 특징 벡터 추출 방법에 대한 정보 및, 선형 판별 분석법의 수행 여부에 대한 정보를 포함할 수 있다.As an example related to the present invention, the method setting method setting information of the feature extraction process may include information on a feature vector extraction method to be used for feature vector extraction for the preprocessed image information and information on whether to perform a linear discriminant analysis method. It may include.

본 발명과 관련된 일 예로서, 상기 복수의 지형 분류 파라미터 중에서 상기 영상 정보의 종류, 상기 환경 정보, 상기 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 상기 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 상기 기설정된 분류기에 대한 정보에 대응하는 지형 분류 파라미터가 없을 때, 상기 환경 정보에 포함된 월 정보, 시각 정보, 조도 정보 및, 습도 정보의 기설정된 우선 순위를 근거로 차순위의 월 정보, 시각 정보, 조도 정보 및, 습도 정보에 대응하는 제1 환경 정보를 선택하는 단계; 및 상기 복수의 지형 분류 파라미터 중에서 상기 영상 정보의 종류, 상기 선택된 제1 환경 정보, 상기 영상 정보의 전처리 과정의 수행 방법 설정 정보, 상기 특징 추출 과정의 수행 방법 설정 정보 및, 상기 분류기에 대한 정보에 대응하는 지형 분류 파라미터를 선택하는 단계를 더 포함할 수 있다.As an example related to the present invention, the type of the image information, the environment information, the method of performing the preprocessing of the preset image information, the setting method of the predetermined feature extraction process, and the method of performing the predetermined feature extraction among the plurality of terrain classification parameters. And when there is no terrain classification parameter corresponding to the information on the preset classifier, month information of next order based on a preset priority of month information, time information, illuminance information, and humidity information included in the environment information, Selecting first environment information corresponding to time information, illuminance information, and humidity information; And a type of the image information, the selected first environment information, method setting information for performing the preprocessing of the image information, method setting information for performing the feature extraction, and information on the classifier among the plurality of terrain classification parameters. The method may further include selecting a corresponding terrain classification parameter.

본 발명의 실시예에 따른 환경 변화에 강인한 지형 분류 장치 및 그 방법은, 영상 센서(카메라 등 포함) 및 환경 센서를 이용하여 무인 차량의 전방의 영상정보 및 환경 정보를 획득하고, 상기 획득된 환경 정보에 따른 지형 분류 파라미터를 근거로 실시간으로 영상기반 지형 분류를 수행함으로써, 환경 변화에 강인한 지형 분류 방안을 제공하고, 전방의 일정 영역에 대한 지형 분류 결과를 실시간으로 제공하여 무인 차량의 자율 주행 성능을 향상시킬 수 있다.The terrain classification apparatus and method, which are robust against environmental changes, according to an embodiment of the present invention, may acquire image information and environmental information in front of an unmanned vehicle by using an image sensor (including a camera) and an environmental sensor. By performing image-based terrain classification in real time based on the terrain classification parameter according to the information, it provides a terrain classification scheme that is robust to environmental changes and provides real-time terrain classification results for a certain area in front of the autonomous vehicle. Can improve.

또한, 본 발명의 실시예에 따른 환경 변화에 강인한 지형 분류 장치 및 그 방법은, 환경 센서에 의해 획득된 환경 정보를 수치로 이산화 및 정량화함으로써, 지형 분류를 위한 설계 비용을 절감하고, 해당 환경에 대한 정확한 파라미터 설정이 가능할 수 있다.In addition, the terrain classification apparatus and method that are robust to environmental changes according to an embodiment of the present invention, by discretizing and quantifying the environmental information obtained by the environmental sensor to reduce the design cost for the terrain classification, Accurate parameter setting may be possible.

또한, 본 발명의 실시예에 따른 지형 분류 장치 및 그 방법은, 환경 센서에 의해 획득된 환경 정보를 활용한 효율적인 파라미터 관리 방법을 제공함으로써, 방대한 양의 파라미터에 대해 효율적인 활용이 가능할 수 있다.In addition, the terrain classification apparatus and the method according to an embodiment of the present invention, by providing an efficient parameter management method using the environmental information obtained by the environmental sensor, it is possible to efficiently utilize a large amount of parameters.

또한, 본 발명의 실시예에 따른 환경 변화에 강인한 지형 분류 장치 및 그 방법은, 환경 센서에 의해 획득된 환경 정보에 따른 지형 분류 파라미터를 선택할 때, 미리 학습된 환경에 맞는 파라미터가 없는 경우, 기설정된 우선 순위를 근거로 가장 유사한 파라미터를 선택하는 방법을 제공함으로써, 지형 분류 결과의 정확성을 높일 수 있다.In addition, the terrain classification apparatus and method that are robust to environmental changes according to an embodiment of the present invention, when selecting the terrain classification parameters according to the environmental information obtained by the environmental sensor, when there is no parameter suitable for the previously learned environment, By providing a method of selecting the most similar parameter based on the set priority, it is possible to increase the accuracy of the terrain classification result.

도 1은 본 발명의 실시예에 따른 지형 분류 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 지형 분류 방법을 나타낸 흐름도이다.
1 is a block diagram showing the configuration of a terrain classification apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a terrain classification method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be denoted by the same reference numerals regardless of the reference numerals and redundant description thereof will be omitted.

도 1은 본 발명의 실시예에 따른 지형 분류 장치의 구성을 나타낸 블록도로서, 이에 도시된 바와 같이, 지형 분류 장치(100)는, 영상 입력부(110), 환경 센서부(120), 저장부(130) 및, 영상 처리부(140)로 구성된다. 도 1에 도시된 지형 분류 장치(100)의 구성 요소가 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 지형 분류 장치(100)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 지형 분류 장치(100)가 구현될 수도 있다.1 is a block diagram showing a configuration of a terrain classification apparatus according to an embodiment of the present invention. As shown in the drawing, the terrain classification apparatus 100 includes an image input unit 110, an environmental sensor unit 120, and a storage unit. 130 and an image processor 140. Not all components of the terrain classification apparatus 100 illustrated in FIG. 1 are essential components, and the terrain classification apparatus 100 may be implemented by more components than those illustrated in FIG. The terrain classification apparatus 100 may be implemented by fewer components.

상기 영상 입력부(110)는, 영상 센서 모듈(이미지 센서 또는, 카메라)을 포함할 수 있다. 이때, 상기 영상 센서 모듈은, CCD(Charge-Coupled Device) 모듈, IR(Infrared) 모듈 등을 포함할 수 있다.The image input unit 110 may include an image sensor module (image sensor or camera). In this case, the image sensor module may include a charge-coupled device (CCD) module, an infrared (IR) module, and the like.

상기 영상 센서 모듈은, 상기 영상 센서 모듈에 의해 얻어지는 정지 영상 또는 동영상 등의 영상(image) 정보를 상기 영상 처리부(140)로 전송한다.The image sensor module transmits image information such as a still image or a moving image obtained by the image sensor module to the image processor 140.

상기 환경 센서부(120)는, GPS 센서, 조도 센서, 습도 센서 등의 환경 센서를 포함한다.The environmental sensor unit 120 includes an environmental sensor such as a GPS sensor, an illumination sensor, and a humidity sensor.

상기 GPS 센서는, 월(month) 정보, 시각 정보 등을 감지한다.The GPS sensor detects month information, time information, and the like.

상기 조도 센서는, 상기 지형 분류 장치(100) 주변의 조도 정보를 감지한다.The illuminance sensor detects illuminance information around the terrain classification apparatus 100.

상기 습도 센서는, 상기 지형 분류 장치(100) 주변의 습도 정보를 감지한다.The humidity sensor detects humidity information around the terrain classification apparatus 100.

상기 저장부(130)는, 상기 지형 분류 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.The storage unit 130 stores data and programs required for the terrain classification apparatus 100 to operate.

또한, 상기 저장부(130)는, 상기 영상 처리부(140)의 제어에 사용될 파라미터 데이터베이스(또는, 분류기 파라미터 데이터베이스)를 저장한다. 여기서, 상기 파라미터 데이터베이스는, 누적된 영상 정보, 환경 정보, 영상 정보의 전처리 과정의 수행 방법 설정 정보(또는, 전처리 수행과 관련된 정보), 특징 추출 과정의 수행 방법 설정 정보(또는, 특징 추출과 관련된 정보) 및, 사용된 분류기 정보 등을 근거로 임의의 학습 방법을 통해 생성된 파라미터(또는, 지형 분류 파라미터)들을 포함할 수 있다.In addition, the storage unit 130 stores a parameter database (or classifier parameter database) to be used for the control of the image processor 140. The parameter database may include accumulated image information, environment information, method of performing preprocessing of image information (or information related to preprocessing), method of extracting feature extraction method (or related to feature extraction). Information) and parameters (or terrain classification parameters) generated through any learning method based on the classifier information used and the like.

상기 영상 처리부(140)는, 상기 지형 분류 장치(100)의 전반적인 동작을 제어한다.The image processor 140 controls the overall operation of the terrain classification apparatus 100.

또한, 상기 영상 처리부(140)는, 상기 영상 입력부(110)에 포함된 영상 센서 모듈을 통해 수신되는 영상 정보를 처리하고, 상기 처리된 영상 정보를 표시부(미도시)에 표시하도록 제어한다.In addition, the image processor 140 processes image information received through the image sensor module included in the image input unit 110 and controls to display the processed image information on a display unit (not shown).

또한, 상기 영상 처리부(140)는, 상기 영상 입력부(110)에 포함된 영상 센서 모듈을 통해 수신되는 영상 정보에 대한 전처리 과정을 수행한다. 즉, 상기 영상 처리부(140)는, 상기 영상 정보에 대해 색 공간(color space) 변환을 수행하거나 또는, 미리 설정된 영상의 평균 및 분산 값으로 정규화 과정을 수행한다.In addition, the image processor 140 performs a preprocessing process on image information received through the image sensor module included in the image input unit 110. That is, the image processor 140 performs color space transformation on the image information or normalizes the average and variance values of a preset image.

예를 들어, 상기 영상 처리부(140)는, 상기 영상 정보에 대해 RGB 색 공간, HSI(Hue-Saturation-Intensity) 색 공간, LAB 색 공간 및, 그레이(Gray) 색 공간 중 어느 하나의 색 공간을 이용하여 색 공간 처리 과정을 수행한다.For example, the image processor 140 may select one of an RGB color space, a Hue-Saturation-Intensity (HSI) color space, a LAB color space, and a gray color space with respect to the image information. Color space processing is performed.

또한, 상기 영상 처리부(140)는, 상기 전처리 과정을 수행한 영상을 기준으로 영상을 블록화하여 블록별 웨이블릿 특징 또는 컬러 특징을 추출한다.In addition, the image processor 140 extracts a wavelet feature or a color feature for each block by blocking the image based on the image on which the preprocessing process is performed.

예를 들어, 상기 영상 처리부(140)는, 상기 전처리 과정을 수행한 영상에 대해 웨이블릿 평균(Wavelet Mean : WM)과 웨이블릿 에너지(Wavelet Energy : WE), 웨이블릿 평균(WM)과 웨이블릿 표준 편차(Wavelet Standard Deviation : WS) 및, 색상(Color)의 평균과 색상의 표준편차 중 어느 하나의 방법과 선형 판별 분석법(Linear Discriminant Analysis : LDA)을 이용하여 웨이블릿 특징 또는 컬러 특징을 추출한다.For example, the image processor 140 may perform a wavelet mean (WM), a wavelet energy (WE), a wavelet mean (WM), and a wavelet standard deviation (Wavelet) on the image on which the preprocessing process is performed. Wavelet feature or color feature is extracted using any one of Standard Deviation (WS)), the mean of color and the standard deviation of color, and linear discriminant analysis (LDA).

또한, 상기 영상 처리부(140)는, 상기 환경 센서부(120)에 포함된 상기 GPS 센서, 상기 조도 센서 및, 상기 습도 센서에 의해 각각 감지된 월 정보와 시각 정보, 조도 정보 및, 습도 정보 등을 근거로, 아래 [표1]에 기재된 바와 같이, 상기 감지된 각 정보들의 특성에 따라 각각의 값을 이산화 및 정량화한다.In addition, the image processor 140 may include the GPS sensor, the illuminance sensor, and the month information, time information, illuminance information, humidity information, etc. respectively detected by the GPS sensor, the illuminance sensor, and the humidity sensor included in the environmental sensor 120. Based on this, as shown in Table 1 below, the respective values are discretized and quantified according to the characteristics of the sensed information.

Figure 112010032282013-pat00001
Figure 112010032282013-pat00001

또한, 상기 영상 처리부(140)는, 상기 [표1]에 기재된 바와 같이, 상기 GPS 센서에 의해 감지되는 월 정보 및 시각 정보에 대해, 3월 내지 5월은 "봄"으로, 6월 내지 8월은 "여름"으로, 9월 내지 11월은 "가을"로, 12월 내지 2월은 "겨울"로 각각 분류한다.In addition, the image processing unit 140, as described in [Table 1], for the month information and time information detected by the GPS sensor, March to May is "spring", June to 8 Months are classified as "summer", September through November as "autumn," and December through February as "winter."

또한, 상기 영상 처리부(140)는, 각 계절별로 오전, 오후 및, 야간의 시간대를 각각 설정할 수 있다. 즉, 상기 영상 처리부(140)는, 상기 봄, 가을은 오전을 "06시 내지 12시"로, 오후를 "12시 내지 19시"로, 야간을 "19시 내지 06시"로 설정하고, 상기 여름은 오전을 "05시 내지 12시"로, 오후를 "12시 내지 20시"로, 야간을 "20시 내지 05시"로 설정하고, 상기 겨울은 오전을 "07시 내지 12시"로, 오후를 "12시 내지 18시"로, 야간을 "18시 내지 07시"로 각각 설정할 수 있다.In addition, the image processor 140 may set the time zones of morning, afternoon, and night for each season. That is, the image processor 140 sets the morning and morning to "06 to 12 o'clock", the afternoon to "12 to 19 o'clock, and the night to" 19 to 06 o'clock, " The summer sets the morning to "05 to 12", the afternoon to "12 to 20", the night to "20 to 05", and the winter to the "07 to 12" Afternoon can be set to "12 to 18:00" and night to "18:00 to 07:00", respectively.

또한, 상기 영상 처리부(140)는, 상기 조도 센서를 통해 감지된 조도 정보(또는, 조도 값)를 조도의 단위인 "Lux"를 근거로 0 내지 30,000 Lux는 "Low(낮음)"으로, 30,000 Lux 내지 70,000 Lux는 "Middle(중간)"으로, 70,000 Lux 이상은 "High(높음)"으로 설정할 수 있다.In addition, the image processor 140 may calculate the illumination information (or illuminance value) detected by the illuminance sensor from 0 to 30,000 Lux as “Low” based on “Lux”, which is a unit of illuminance, and 30,000. Lux to 70,000 Lux can be set to "Middle" and 70,000 Lux or more can be set to "High".

또한, 상기 영상 처리부(140)는, 상기 습도 센서를 통해 감지된 습도 정보(또는, 습도 값)를 습도의 단위인 "%"를 근거로 60% 이하는 "Low(낮음")으로, 60% 내지 75%는 "Middle(중간)"으로, 75% 내지 85%는 "High(높음)"으로, 85% 이상은 "Very High(매우 높음)"으로 설정할 수 있다.In addition, the image processor 140 is 60% or less of the humidity information (or humidity value) detected by the humidity sensor based on "%", which is a unit of humidity, 60%. To 75% can be set to "Middle", 75% to 85% can be set to "High", and 85% or more can be set to "Very High."

Figure 112010032282013-pat00002
Figure 112010032282013-pat00002

또한, 상기 저장부(130)는, 영상의 종류, 환경 정보, 전처리 특성(색 공간 처리 방법, 정규화 사용 여부 등 포함), 특징 추출의 특성(특징 벡터 추출 방법, 선형 판별 분석법 사용 여부 등 포함) 및, 사용된 분류기 방법 등을 근거로, 상기 [표2]에 기재된 바와 같이, 상기 각 정보의 특성에 따라 각각의 값을 대표하는 파라미터 명명 규칙 방법이 적용된 파라미터에 대한 정보를 데이터베이스화(파라미터 데이터베이스 또는, 분류기 파라미터 데이터베이스)하여 저장하고 있으며, 영상 처리부에서 요청시 해당 파라미터를 제공한다.In addition, the storage unit 130 may include image types, environment information, preprocessing characteristics (including color space processing methods, normalization use, etc.), characteristics of feature extraction (including feature vector extraction methods, linear discriminant analysis methods, etc.). And, based on the classifier method used and the like, as described in [Table 2], database information on the parameter to which the parameter naming rule method representing each value is applied according to the characteristics of each information (parameter database). Or, it is stored by classifier parameter database) and provides the corresponding parameter when requested by the image processor.

즉, 상기 영상 처리부(140)는, 상기 영상의 종류에 따라 파라미터의 첫 글자를 명명한다. 예를 들어, 상기 영상 처리부(140)는, 상기 영상의 종류가 CCD인 경우 파라미터의 첫 글자를 "C"로 명명(또는, 정의)하고, 상기 영상의 종류가 IR인 경우 파라미터의 첫 글자를 "I"로 명명한다.That is, the image processor 140 names the first letter of the parameter according to the type of the image. For example, when the type of the image is a CCD, the image processor 140 names (or defines) the first letter of the parameter as “C”. When the type of the image is IR, the image processor 140 may name the first letter of the parameter. Name it "I".

또한, 상기 영상 처리부(140)는, 상기 환경 정보에 따라 파라미터의 두 번째 내지 네 번째 글자를 명명한다. 예를 들어, 상기 영상 처리부(140)는, 상기 환경 정보의 GPS 정보에 따라 봄의 오전은 "0"으로, 오후는 "1"로, 야간은 "2"로 명명하고, 여름의 오전은 "3"으로, 오후는 "4"로, 야간은 "5"로 명명하고, 가을의 오전은 "6"으로, 오후는 "7"로, 야간은 "8"로 명명하고, 겨울의 오전은 "9"로, 오후는 "A"로, 야간은 "B"로 명명한다. 또한, 상기 영상 처리부(140)는, 상기 환경 정보의 조도 값에 따라 낮음(Low)은 "L"로, 중간(Middle)은 "M"으로, 높음(High)은 "H"로 명명한다. 또한, 상기 영상 처리부(140)는, 상기 환경 정보의 습도 값에 따라 낮음(Low)은 "L"로, 중간(Middle)은 "M"으로, 높은(High)은 "H"로, 매우 높음(Very High)은 "U"로 명명한다.In addition, the image processor 140 names the second to fourth letters of the parameter according to the environment information. For example, the image processor 140 may name the morning of spring "0", the afternoon of "1", the night of "2" according to the GPS information of the environment information, and the summer morning of " 3 ", afternoon" 4 ", nighttime" 5 ", autumn morning" 6 ", afternoon" 7 ", nighttime" 8 ", winter morning" 9 ", afternoon is" A ", night is named" B ". In addition, the image processor 140 may designate Low as "L", Middle as "M", and High as "H" according to the illumination value of the environment information. In addition, the image processor 140 may have a low value of "L", a middle value of "M", a high value of "H", and a very high value according to the humidity value of the environmental information. (Very High) is named "U".

또한, 상기 영상 처리부(140)는, 상기 전처리 과정의 색 공간 처리 방법 및 정규화 사용 여부에 따라 파라미터의 다섯 번째 내지 여섯 번째 글자를 명명한다. 예를 들어, 상기 영상 처리부(140)는, 상기 전처리 과정 중 색 공간 처리 과정을 근거로 RGB 색 공간의 경우 "R"로, HSI 색 공간의 경우 "H"로, LAB 색 공간의 경우 "L"로, 그레이 색 공간의 경우 "G"로 명명한다. 또한, 상기 영상 처리부(140)는, 상기 전처리 과정 중 정규화를 사용하지 않았을 경우 "0"으로, 정규화를 사용하였을 경우 "1"로 명명한다.In addition, the image processor 140 names the fifth to sixth letters of the parameter according to the color space processing method and normalization of the preprocessing process. For example, the image processor 140 may be “R” for an RGB color space, “H” for an HSI color space, or “L” for an LAB color space based on the color space processing process of the preprocessing process. "," It is named "G" for the gray color space. In addition, the image processor 140 may be named “0” when normalization is not used during the preprocessing process, or “1” when normalization is used.

또한, 상기 영상 처리부(140)는, 상기 전처리 과정을 수행한 영상에 대해 특징 추출 시 사용한 특징 벡터의 종류 및 LDA의 사용 여부에 따라 파라미터의 일곱 번째 내지 여덟 번째 글자를 명명한다. 예를 들어, 상기 영상 처리부(140)는, 특징 벡터로 웨이블릿 평균(WM)과 웨이블릿 에너지(WE)를 사용한 경우 "0"으로, 웨이블릿 평균(WM)과 웨이블릿 표준 편차(WS)를 사용한 경우 "1"로, 색상의 평균과 색상의 표준편차를 사용한 경우 "2"로 명명한다. 또한, 상기 영상 처리부(140)는, 선형 판별 분석법(LDA)을 사용하지 않은 경우 "0"으로, 사용한 경우 "1"로 명명한다.In addition, the image processor 140 names the seventh to eighth letters of the parameter according to the type of the feature vector used for feature extraction and the use of LDA for the image on which the preprocessing process is performed. For example, when the wavelet mean WM and wavelet energy WE are used as the feature vector, the image processor 140 is "0", and when the wavelet mean WM and wavelet standard deviation WS are used. 1 ", where" 2 "is used when the mean of the color and the standard deviation of the color are used. In addition, the image processing unit 140 names "0" when the linear discriminant analysis method (LDA) is not used and "1" when it is used.

또한, 상기 영상 처리부(140)는, 상기 파라미터의 확장자명에 대해서는 신경망 분류기를 사용한 경우 ".mlp"로, 서포트 벡터 머신(Support Vector Machine : SVM)을 사용한 경우 ".svm"으로, 가우시안 혼합 모델을 사용한 경우 ".gmm"으로 명명한다.In addition, the image processing unit 140, for the extension name of the parameter is ".mlp" when using a neural network classifier, ".svm" when using a support vector machine (SVM), Gaussian mixture model If used, name it ".gmm".

이와 같이, 상기 영상 처리부(140)는, 영상의 종류, 환경 정보, 전처리 과정의 처리에 대한 정보, 특징 추출 과정의 처리에 대한 정보, 사용된 분류기 방법 등을 근거로 8글자의 파일 이름과 3글자의 파일명으로 이루어진 지형 분류 파라미터를 생성하고, 상기 생성된 지형 분류 파라미터를 상기 저장부(130)에서 불러올 수 있다. As described above, the image processor 140 may include an 8-character file name and 3 based on the type of image, environment information, information on the preprocessing process, information on the feature extraction process, and the classifier method used. A terrain classification parameter consisting of a file name of a letter may be generated, and the generated terrain classification parameter may be loaded from the storage unit 130.

또한, 상기 실시예에서 기재된 파라미터 명명 규칙 방법 이외에도, 영상의 종류, 환경 정보, 전처리 과정의 수행 여부에 대한 정보, 특징 추출 과정의 수행 여부에 대한 정보, 확장자명 등을 다양하게 조합하여 파라미터를 명명할 수 있다.In addition to the parameter naming rule method described in the above embodiment, the parameter is named by various combinations of image types, environmental information, information on whether or not to perform a preprocessing process, information on whether or not to perform a feature extraction process, and extension names. can do.

Figure 112010032282013-pat00003
Figure 112010032282013-pat00003

또한, 상기 영상 처리부(140)는, 상기 [표3]에 기재된 바와 같이, 계절 및 시간을 근거로 각 상태에 대한 우선 순위를 설정한다.In addition, the image processing unit 140 sets priorities for each state based on seasons and times, as shown in Table 3 above.

예를 들어, 상기 영상 처리부(140)는, 상기 GPS 센서로부터 입력된 시간을 기준으로 파라미터를 "0" 내지 "B"로 각각 구분한다.For example, the image processor 140 divides the parameters into "0" to "B" based on the time input from the GPS sensor.

또한, 상기 영상 처리부(140)는, 상태 "0" (봄, 오전에 대응)에 대응하는 파라미터(봄, 오전)가 없을 경우, 그 다음 우선 순위에 대응하는 "1"에 대응하는 파라미터(봄, 오후)를 검색한다. 또한, 상기 영상 처리부(140)는, 상기 "1"에 대응하는 파라미터가 없을 경우, 그 다음 우선 순위에 해당하는 "6"에 대응하는 파라미터(가을, 오전)를 검색한다. 또한, 상기 영상 처리부(140)는, 상기 "6"에 대응하는 파라미터가 없을 경우, 그 다음 우선 순위에 해당하는 "7"(가을, 오후), "3"(여름, 오전), "4"(여름, 오후), "9"(겨울, 오전) 및, "A"(겨울, 오후)의 순으로 각각에 대응하는 파라미터를 검색하고, 상기 검색된 파라미터를 이용한다.In addition, when there is no parameter (spring and morning) corresponding to the state "0" (spring and morning), the image processing unit 140 may have a parameter corresponding to "1" corresponding to the next priority (spring). , Afternoon). In addition, when there is no parameter corresponding to “1”, the image processor 140 searches for a parameter corresponding to “6” corresponding to the next priority (autumn and morning). In addition, when there is no parameter corresponding to the “6”, the image processor 140 may select “7” (autumn or afternoon), “3” (summer or morning), or “4” corresponding to the next priority. (Summer, afternoon), "9" (winter, morning), and "A" (winter, afternoon) in order to search for the corresponding parameters, and use the retrieved parameters.

또한, 상기 영상 처리부(140)는, 상기 상태 "1", "3", "4", "6", "7", "9" 및, "A"에 대해서도, 각 상태에 대응하는 파라미터의 우선 순위를 각각 설정한다.In addition, the image processing unit 140 also includes parameters corresponding to the states for the states "1", "3", "4", "6", "7", "9", and "A". Set each priority.

또한, 상기 영상 처리부(140)는, 상기 상태 "0", "1", "3", "4", "6", "7", "9" 및, "A"의 경우, 오전 또는 오후에 촬영한 영상 정보에 대응하므로, 우선 순위 검색에 사용되는 파라미터의 경우, 오전 또는 오후에 해당하는 상태들(0, 1, 3, 4, 6, 7, 9, A 등 포함)만을 고려하여 설정한다.Also, in the case of the states "0", "1", "3", "4", "6", "7", "9", and "A", the image processing unit 140 may be morning or afternoon. Since it corresponds to the image information captured in the setting, the parameter used for priority search is set considering only the states (including 0, 1, 3, 4, 6, 7, 9, A, etc.) corresponding to the morning or afternoon. do.

또한, 상기 영상 처리부(140)는, 상기 상태 "2", "5", "8" 및, "B"의 경우, 야간에 촬영한 영상 정보에 대응하므로, 우선 순위 검색에 사용되는 파라미터의 경우 야간에 해당하는 상태들(2, 5, 8, B 등 포함)만을 고려하여 설정한다.In addition, in the case of the states "2", "5", "8", and "B", the image processing unit 140 corresponds to image information photographed at night, and thus, in the case of a parameter used for priority search Set by considering only the states (including 2, 5, 8, B, etc.) corresponding to the night.

이와 같이, 상기 영상 처리부(140)는, 각각의 상태 "0" 내지 "B"에 대해서, 각 상태에 대응하는 파라미터가 없을 경우, 그 다음 순으로 검색하게 될 파라미터의 우선 순위를 각각 설정하고, 상기 설정된 파라미터의 우선 순위에 의해, 임의의 상태에 대응하는 파라미터가 없는 경우에도, 상기 GPS 센서에 의해 감지된 계절 및 시간과 가장 유사한 파라미터를 이용할 수 있다.As described above, the image processing unit 140 sets, for each state "0" to "B", if there is no parameter corresponding to each state, respectively, priorities of the parameters to be searched in the next order, According to the priority of the set parameter, even when there is no parameter corresponding to any state, the parameter most similar to the season and time detected by the GPS sensor can be used.

Figure 112010032282013-pat00004
Figure 112010032282013-pat00004

또한, 상기 영상 처리부(140)는, 상기 [표4]에 기재된 바와 같이, 조도 값을 근거로 각 상태에 대란 우선 순위를 설정한다.In addition, the image processing unit 140 sets priority for each state based on the illuminance value as described in Table 4 above.

예를 들어, 상기 영상 처리부(140)는, 상기 조도 센서로부터 감지된 조도 값을 기준으로 파라미터를 "L", "M" 및, "H" 상태로 각각 구분한다.For example, the image processor 140 divides the parameters into "L", "M", and "H" states based on the illuminance value detected by the illuminance sensor.

또한, 상기 영상 처리부(140)는, 상기 상태 "L"에 대응하는 파라미터가 없을 경우, 그 다음 우선 순위에 해당하는 "M"에 대응하는 파라미터를 검색한다. 또한, 상기 영상 처리부(140)는, 상기 "M"에 대응하는 파라미터가 없을 경우, 그 다음 우선 순위에 해당하는 "L"에 대응하는 파라미터를 검색한다.In addition, when there is no parameter corresponding to the state "L", the image processor 140 searches for a parameter corresponding to "M" corresponding to the next priority. In addition, when there is no parameter corresponding to the "M", the image processor 140 searches for a parameter corresponding to "L" corresponding to the next priority.

이와 같이, 상기 영상 처리부(140)는, 각각의 상태 "L", "M" 및, "H"에 대해서, 각 상태에 대응하는 파라미터가 없을 경우, 그 다음 순으로 검색하게 될 파라미터의 우선 순위를 각각 설정하고, 상기 설정된 파라미터의 우선 순위에 의해, 임의의 상태에 대응하는 파라미터가 없는 경우에도, 상기 조도 센서에 의해 감지된 조도 값과 가장 유사한 파라미터를 이용할 수 있다.As described above, the image processing unit 140, for each state "L", "M", and "H", when there is no parameter corresponding to each state, the priority of the parameter to be searched in the next order Are respectively set, and the parameter most similar to the illuminance value detected by the illuminance sensor may be used even when there is no parameter corresponding to any state by the priority of the set parameters.

Figure 112010032282013-pat00005
Figure 112010032282013-pat00005

또한, 상기 영상 처리부(140)는, 상기 [표5]에 기재된 바와 같이, 습도 값을 근거로 각 상태에 대한 우선 순위를 설정한다.In addition, the image processing unit 140 sets the priority for each state based on the humidity value, as shown in Table 5 above.

예를 들어, 상기 영상 처리부(140)는, 상기 습도 센서로부터 감지된 습도 값을 기준으로 파라미터를 "L", "M", "H" 및, "U" 상태로 각각 구분한다.For example, the image processor 140 divides the parameters into "L", "M", "H", and "U" states based on the humidity value detected by the humidity sensor.

또한, 상기 영상 처리부(140)는, 상기 상태 "L"에 대응하는 파라미터가 없을 경우, 그 다음 우선 순위에 해당하는 "M"에 대응하는 파라미터를 검색한다. 또한, 상기 영상 처리부(140)는, 상기 "M"에 대응하는 파라미터가 없을 경우, 그 다음 우선 순위에 해당하는 "H"에 대응하는 파라미터를 검색한다. 또한, 상기 영상 처리부(140)는, 상기 "H"에 대응하는 파라미터가 없을 경우, 그 다음 우선 순위에 해당하는 "U"에 대응하는 파라미터를 검색한다.In addition, when there is no parameter corresponding to the state "L", the image processor 140 searches for a parameter corresponding to "M" corresponding to the next priority. In addition, when there is no parameter corresponding to the "M", the image processor 140 searches for a parameter corresponding to "H" corresponding to the next priority. In addition, when there is no parameter corresponding to the "H", the image processor 140 searches for a parameter corresponding to "U" corresponding to the next priority.

이와 같이, 상기 영상 처리부(140)는, 각각의 상태 "L", "M", "H" 및, "U"에 대해서, 각 상태에 대응하는 파라미터가 없을 경우, 그 다음 순으로 검색하게 될 파라미터의 우선 순위를 각각 설정하고, 상기 설정된 파라미터의 우선 순위에 의해, 임의의 상태에 대응하는 파라미터가 없는 경우에도, 상기 습도 센서에 의해 감지된 습도 값과 가장 유사한 파라미터를 이용할 수 있다.As such, the image processor 140 may search for each state "L", "M", "H", and "U" in the following order when there is no parameter corresponding to each state. Priority of each parameter is set, and even if there is no parameter corresponding to an arbitrary state according to the priority of the set parameter, a parameter most similar to the humidity value detected by the humidity sensor can be used.

또한, 상기 영상 처리부(140)는, 계절 및 시간, 조도 값 및, 습도 값에 대해서도 우선 순위를 설정할 수 있다. 즉, 상기 영상 처리부(140)는, 계절 및 시간, 조도 값 및, 습도 값 중 적어도 2개 이상에 대한 각각의 우선 순위를 판단해야 하는 경우, 상기 계절 및 시간, 조도 값 및, 습도 값에 대해 기설정된 우선 순위를 근거로 일단의 한 상태에 대한 우선 순위를 판단한 후, 다른 한 상태에 대한 우선 순위를 판단할 수 있다.In addition, the image processor 140 may set priorities for seasons, times, illuminance values, and humidity values. That is, when it is necessary to determine the priority of each of at least two or more of the season, time, illuminance value, and humidity value, the image processor 140 may determine the season, time, illuminance value, and humidity value. After determining the priority of one state on the basis of the predetermined priority, the priority of the other state may be determined.

또한, 상기 영상 처리부(140)는, 상기 영상 입력부(110)에 의해 수신된 영상의 종류, 상기 환경 센서부(120)에 의해 감지된 환경 정보(월 및 시각 정보, 조도 정보, 습도 정보 등 포함), 기설정된 전처리 과정의 정보, 기설정된 특징 추출 과정의 정보 및, 기설정된(또는, 기선택된) 분류기에 대한 정보를 근거로 상기 저장부(130)에 기저장된 복수의 지형 분류 파라미터 중에서 어느 하나의 지형 분류 파라미터를 선택한다. 이때, 상기 영상 처리부(140)는, 상기 감지된 환경 정보에 대응하는 파라미터가 없는 경우, 기설정된 우선 순위에 대응하는 환경 정보를 이용하여 파라미터를 선택할 수 있다. 여기서, 상기 기선택된 분류기는, 신경망 분류기, 서포트 벡터 머신 분류기, 가우시안 혼합 모델 기반 분류기 등일 수 있다.In addition, the image processor 140 may include a type of an image received by the image input unit 110 and environmental information (month and time information, illuminance information, humidity information, etc.) detected by the environmental sensor unit 120. ), Any one of a plurality of terrain classification parameters previously stored in the storage unit 130 based on information of a predetermined preprocessing process, information of a predetermined feature extraction process, and information about a predetermined (or predetermined) classifier. Select the terrain classification parameter. In this case, when there is no parameter corresponding to the detected environment information, the image processor 140 may select a parameter by using environment information corresponding to a preset priority. Here, the preselected classifier may be a neural network classifier, a support vector machine classifier, a Gaussian mixed model based classifier, or the like.

또한, 상기 영상 처리부(140)는, 상기 선택된 파라미터를 근거로 상기 영상 정보에 대한 지형 분류 과정을 수행한다.In addition, the image processor 140 performs a terrain classification process on the image information based on the selected parameter.

또한, 상기 영상 처리부(140)는, 상기 지형이 분류된 결과 영상에서의 오분류를 제거하고, 상기 오분류가 제거된 결과 정보를 상기 표시부를 통해 출력한다.In addition, the image processing unit 140 removes misclassification in the result image of which the terrain is classified, and outputs the result information from which the misclassification is removed through the display unit.

또한, 상기 영상 처리부(140)는, 상기 오분류가 제거된 결과 정보(또는, 상기 지형 분류 결과 정보)를 상기 지형 분류 장치(100)가 구비된 무인 차량의 통합 제어 장치(미도시)에 전송한다. 또한, 상기 무인 차량의 통합 제어 장치는, 상기 영상 처리부(140)로부터 전송된 오분류가 제거된 결과 정보(또는, 상기 지형 분류 결과 정보) 등을 근거로 지형 형상 데이터를 생성하고, 상기 생성된 지형 형상 데이터를 근거로 무인 차량의 동작을 제어할 수 있다. In addition, the image processor 140 transmits the result information (or the terrain classification result information) from which the misclassification has been removed to an integrated control device (not shown) of the unmanned vehicle provided with the terrain classification device 100. do. In addition, the integrated control apparatus of the unmanned vehicle generates terrain shape data based on the result information (or the terrain classification result information) from which misclassification transmitted from the image processor 140 is removed, and generates the generated terrain data. The operation of the driverless vehicle can be controlled based on the terrain shape data.

또한, 상기 지형 분류 장치(100)는, 상기 영상 처리부(140)의 제어에 의해 소정 신호 처리된 영상 정보를 표시하는 표시부(미도시)를 더 포함할 수 있다. In addition, the terrain classification apparatus 100 may further include a display unit (not shown) for displaying image information processed by a predetermined signal under the control of the image processor 140.

또한, 상기 표시부는, 상기 영상 처리부(140)의 제어에 의해 상기 영상 입력부(110)를 통해 수신된 영상 정보에 따른 지형 분류 결과(또는, 오분류가 제거된 결과 정보)를 표시한다.In addition, the display unit displays a terrain classification result (or result information from which misclassification has been removed) according to the image information received through the image input unit 110 under the control of the image processor 140.

이와 같이, 지형 분류 장치(100)는, 영상 센서(카메라 등 포함) 및 환경 센서를 이용하여 무인 차량의 영상 정보 및 환경 정보를 획득하고, 상기 획득된 환경 정보에 따른 지형 분류 파라미터를 근거로 실시간으로 지형 분류를 수행할 수 있다.As such, the terrain classification apparatus 100 obtains image information and environment information of an unmanned vehicle by using an image sensor (including a camera) and an environment sensor, and based on the terrain classification parameter according to the obtained environment information in real time. Terrain classification can be performed with

또한, 이와 같이, 상기 지형 분류 장치(100)는, 환경 센서에 의해 획득된 환경 정보를 수치로 이산화 및 정량화할 수 있다.In addition, the terrain classification apparatus 100 may discretize and quantify the environmental information acquired by the environmental sensor as a numerical value.

또한, 이와 같이, 상기 지형 분류 장치(100)는, 환경 센서에 의해 획득된 환경 정보를 이용하여 지형 분류에 사용되는 파라미터 관리 방법을 제공할 수 있다.In addition, as described above, the terrain classification apparatus 100 may provide a parameter management method used for terrain classification by using environment information obtained by an environment sensor.

또한, 이와 같이, 상기 지형 분류 장치(100)는, 환경 센서에 의해 획득된 환경 정보에 따른 지형 분류 파라미터를 선택할 때, 미리 학습된 환경에 맞는 파라미터가 없는 경우, 기설정된 우선 순위를 근거로 가장 유사한 파라미터를 선택하여 지형 분류 과정을 수행할 수 있다.In addition, when the terrain classification device 100 selects the terrain classification parameter according to the environment information acquired by the environment sensor, when there is no parameter suitable for the previously learned environment, the terrain classification apparatus 100 may be based on the preset priority. The terrain classification process can be performed by selecting similar parameters.

이하에서는, 본 발명에 따른 지형 분류 방법을 도 1 내지 도 2를 참조하여 상세히 설명한다.Hereinafter, the terrain classification method according to the present invention will be described in detail with reference to FIGS. 1 to 2.

도 2는 본 발명의 일 실시예에 따른 지형 분류 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a terrain classification method according to an embodiment of the present invention.

먼저, 영상 처리부(140)는, 지형 분류 장치(100)의 초기화(메모리 초기화, 변수 초기화, 분류기 초기 파라미터 설정 등) 과정을 수행한다(S110).First, the image processor 140 performs an initialization (memory initialization, variable initialization, classifier initial parameter setting, etc.) process of the terrain classification apparatus 100 (S110).

이후, 영상 입력부(110)는, 영상 센서 모듈을 통해 상기 영상 입력부(110)가 구비된 무인 차량의 전방(예를 들어, 상기 무인 차량의 진행 방향)을 촬상한 영상 정보(또는, 영상 프레임)를 수신한다. 이후, 상기 영상 처리부(140)는, 상기 수신된 영상 정보를 소정 신호 처리하여 표시부에 표시할 수 있다(S120).Thereafter, the image input unit 110, through the image sensor module, image information (or image frame) photographing the front of the driverless vehicle equipped with the image input unit 110 (for example, the driving direction of the driverless vehicle). Receive Thereafter, the image processor 140 may process the received image information by a predetermined signal and display it on the display unit (S120).

이후, 상기 영상 처리부(140)는, 상기 영상 입력부(110)를 통해 수신된 영상의 종류, 상기 환경 센서부(120)에 의해 감지된 월 정보 및 시각 정보, 조도 정보 및, 습도 정보 등의 환경 정보, 기설정된 전처리 과정의 정보(상기 색 공간 변환에 사용된 방법에 대한 정보 및, 상기 정규화 과정의 수행 여부에 대한 정보 등 포함), 기설정된 특징 추출 과정의 정보(상기 특징 벡터를 추출할 때 사용된 방법에 대한 정보 및, 상기 선형 판별 분석법 과정의 수행 여부에 대한 정보 등 포함) 및, 기설정된 분류기에 대한 정보를 근거로 상기 저장부(130)에 기저장된 복수의 지형 분류 파라미터 중에서 어느 하나의 지형 분류 파라미터를 선택한다. 여기서, 상기 기설정된 분류기는, 신경망 분류기, 서포트 벡터 머신 분류기 및, 가우시안 혼합 모델 기반 분류기 중 어느 하나의 분류기일 수 있다.Thereafter, the image processing unit 140 includes an environment such as a type of an image received through the image input unit 110, wall information and time information detected by the environmental sensor unit 120, illuminance information, and humidity information. Information, information of a predetermined preprocessing process (including information on the method used for the color space conversion and information on whether or not to perform the normalization process), information of a predetermined feature extraction process (when the feature vector is extracted Any one of a plurality of terrain classification parameters previously stored in the storage unit 130 based on information on the method used, information on whether the linear discriminant analysis method is performed), and information on a predetermined classifier. Select the terrain classification parameter. The predetermined classifier may be any one of a neural network classifier, a support vector machine classifier, and a Gaussian mixture model based classifier.

예를 들어, 상기 영상 처리부(140)는, 상기 [표2]를 참조하여, 상기 영상 입력부(110)를 통해 입력된 영상 종류가 CCD("C")이고, 상기 환경 센서부(120)에 의해 감지된 환경 정보 중 GPS 센서에 의해 감지된 시각 정보가 여름-오전("3")이고, 조도 값이 낮음("L")이고, 습도 값이 중간("M")이고, 상기 전처리 과정의 수행 결과 정보인 색 공간 변환에 사용된 방법이 RGB 색 공간 방법("R")이고, 상기 정규화 과정이 수행되고("1"), 상기 특징 추출 과정의 수행 결과 정보인 특징 벡터를 추출할 때 사용된 방법이 웨이블릿 평균(WM)과 웨이블릿 표준 편차(WS) 방법("1")이고, 선형 판별 분석법이 사용되지 않고("0"), 복수의 분류기 중 신경망 분류기(".mlp")를 사용한 경우, 상기 정보들을 근거로 상기 저장부(130)에 기저장된 복수의 지형 분류 파라미터들 중에서 "C3LMR110.mlp"에 대응하는 파라미터를 검색하고, 상기 검색된 "C3LMR110.mlp"에 대응하는 파라미터를 선택한다.For example, with reference to Table 2, the image processor 140 may be a CCD ("C") type of image input through the image input unit 110, and the image sensor unit 120 may be connected to the environmental sensor unit 120. The visual information detected by the GPS sensor among the environmental information detected is summer-am ("3"), low illuminance value ("L"), humidity value is medium ("M"), and the pretreatment process The method used for color space conversion that is the result of performing the operation is an RGB color space method ("R"), and the normalization process is performed ("1"), and the feature vector that is the result information of the feature extraction process is extracted. The method used was the wavelet mean (WM) and wavelet standard deviation (WS) method ("1"), no linear discriminant analysis was used ("0"), and the neural network classifier (".mlp") of the plurality of classifiers. Is used, corresponding to "C3LMR110.mlp" among a plurality of terrain classification parameters previously stored in the storage unit 130 based on the information. Retrieve la meter, and selects a parameter corresponding to the retrieved "C3LMR110.mlp".

이때, 상기 영상 처리부(140)는, 상기 환경 정보에 대응하는 임의의 파라미터가 없는 경우, 기설정된 우선 순위에 대응하는 환경 정보([표3] 내지 [표5])를 근거로 상기 환경 정보와 가장 유사한 임의의 파라미터를 선택할 수 있다.In this case, when there is no parameter corresponding to the environment information, the image processor 140 may determine the environment information based on the environment information ([Table 3] to [Table 5]) corresponding to a predetermined priority. You can select any parameter that is most similar.

예를 들어, 상기 영상 처리 (140)는, 상기 [표2]를 참조하여, 상기 영상 입력부(110)를 통해 입력된 영상 종류가 CCD("C")이고, 상기 환경 센서부(120)에 의해 감지된 환경 정보 중 GPS 센서에 의해 감지된 시각 정보가 여름-오전("3")이고, 조도 값이 낮음("L")이고, 습도 값이 중간("M")이고, 상기 전처리 과정의 수행 결과 정보인 색 공간 변환에 사용된 방법이 RGB 색 공간 방법("R")이고, 상기 정규화 과정이 수행되고("1"), 상기 특징 추출 과정의 수행 결과 정보인 특징 벡터를 추출할 때 사용된 방법이 웨이블릿 평균(WM)과 웨이블릿 표준 편차(WS) 방법("1")이고, 선형 판별 분석법이 사용되지 않고("0"), 복수의 분류기 중 신경망 분류기(".mlp")를 사용한 경우, 상기 저장부(130)에 기저장된 복수의 지형 분류 파라미터들 중에서 "C3LMR110.mlp"에 대응하는 파라미터를 검색하고, 상기 "C3LMR110.mlp"에 대응하는 파라미터가 없는 경우, 상기 기설정된 우선 순위 정보를 근거로 상기 GPS 센서에 의해 감지된 시각 정보인 여름-오전("3")의 다음 순서인 여름-오후("4")에 대응하는 "C4LMR110.mlp"에 대응하는 파라미터를 검색 및 선택한다. 또한, 상기 여름-오후("4")에 대응하는 파라미터("C4LMR110.mlp"에 대응하는 파라미터)가 없는 경우, 상기 [표3]을 근거로 상기 여름-오후("4")의 다음 우선 순위(차순위)에 해당하는 파라미터들을 순서대로 검색하여, 해당되는 파라미터를 선택할 수 있다.For example, in the image processing 140, the image type input through the image input unit 110 is a CCD (“C”) with reference to [Table 2], and the environmental sensor unit 120 is connected to the image sensor 140. The visual information detected by the GPS sensor among the environmental information detected is summer-am ("3"), low illuminance value ("L"), humidity value is medium ("M"), and the pretreatment process The method used for color space conversion that is the result of performing the operation is an RGB color space method ("R"), and the normalization process is performed ("1"), and the feature vector that is the result information of the feature extraction process is extracted. The method used was the wavelet mean (WM) and wavelet standard deviation (WS) method ("1"), no linear discriminant analysis was used ("0"), and the neural network classifier (".mlp") of the plurality of classifiers. In the case of using, search for a parameter corresponding to "C3LMR110.mlp" among a plurality of terrain classification parameters previously stored in the storage unit 130, If there is no parameter corresponding to "C3LMR110.mlp", summer-afternoon ("4") which is the next sequence of summer-am ("3") which is time information detected by the GPS sensor based on the preset priority information. Search for and select the parameter corresponding to "C4LMR110.mlp" corresponding to "). Further, when there is no parameter corresponding to the summer-afternoon ("4") (the parameter corresponding to "C4LMR110.mlp"), the next priority of the summer-afternoon ("4") is based on the above [Table 3]. The parameters corresponding to the ranks may be searched in order to select the corresponding parameters.

또한, 상기 영상 처리부(140)는, 최초 파라미터에 대응하는 파라미터가 없어서 우선 순위에 따른 유사 파라미터를 선택할 때, 상기 환경 정보에 포함된 GPS 값, 조도 값 및, 습도 값에 대해 설정된 우선 순위를 근거(예를 들어, GPS 값, 조도 값, 습도 값 순서로 설정)로 기설정된 우선 순위의 순서로 유사 파라미터를 선택하도록 구성할 수도 있다(S130).In addition, the image processor 140, based on the priority set for the GPS value, illuminance value, and humidity value included in the environment information when selecting a similar parameter according to the priority because there is no parameter corresponding to the initial parameter. It may be configured to select similar parameters in the order of priority set in advance (for example, GPS values, illuminance values, and humidity values).

이후, 상기 영상 처리부(140)는, 상기 수신된 영상 정보에 대한 전처리 과정을 수행한다. 또한, 상기 영상 처리부(140)는, 기설정된 전처리 과정의 정보(색 공간 변환에 사용된 방법에 대한 정보, 정규화 과정의 수행 여부에 대한 정보 등 포함)에 따라 전처리 과정을 수행한다. 즉, 상기 영상 처리부(140)는, RGB 색 공간, HSI 색 공간, LAB 색 공간 및, 그레이 색 공간 중 어느 하나의 방법을 이용하여 상기 영상 정보에 대한 색 공간 변환을 수행한다. 일 예로, 상기 영상 처리부(140)는, 다수의 색 공간 방법 중, RGB 색 공간 방법을 이용하여 상기 영상 정보에 대한 색 공간 변환을 수행할 수 있다. Thereafter, the image processor 140 performs a preprocessing process on the received image information. In addition, the image processor 140 performs a preprocessing process according to information of a preprocessing process (including information on a method used for color space conversion and information on whether to perform a normalization process). That is, the image processor 140 performs color space conversion on the image information by using any one of an RGB color space, an HSI color space, a LAB color space, and a gray color space. For example, the image processor 140 may perform color space conversion on the image information by using an RGB color space method among a plurality of color space methods.

또한, 상기 영상 처리부(140)는, 상기 색 공간 변환된 영상 정보에 대해 기설정된 정규화 과정의 수행 여부에 따라 미리 설정된 영상의 평균 및 분산 값으로 상기 색 공간 변환된 영상 정보에 대한 정규화 과정을 수행하거나 수행하지 않는다. 이때, 상기 정규화 과정의 수행 여부에 대한 결정은, 정규화 과정의 수행 여부에 대한 정보가 미리 설정되어 있을 수도 있고 또는, 상기 표시부에 정규화 과정의 수행 여부에 대한 정보를 표시하고 사용자 입력에 따라 정규화 과정의 수행 여부를 설정할 수도 있다. 일 예로, 상기 영상 처리부(140)는, 기설정된 값을 근거로 상기 색 공간 변환된 영상 정보에 대한 정규화 과정을 수행한다(S140).In addition, the image processor 140 performs a normalization process on the color space-converted image information with a mean and variance value of a preset image according to whether a preset normalization process is performed on the color space-converted image information. Or do not. In this case, the determination on whether to perform the normalization process may include preset information on whether to perform the normalization process, or display information on whether to perform the normalization process on the display unit and normalize the process according to a user input. You can also set whether to perform. For example, the image processor 140 performs a normalization process on the color space-converted image information based on a predetermined value (S140).

이후, 상기 영상 처리부(140)는, 기설정된 특징 추출 과정의 수행 정보(상기 특징 벡터를 추출할 때 사용된 방법에 대한 정보 및, 선형 판별 분석법(LDA) 과정의 수행 여부에 대한 정보 등 포함)에 따라 상기 전처리된 영상 정보를 다수의 블록으로 블록화하고, 상기 블록화된 영상 정보에 대해 블록별로 웨이블릿 특징 또는 컬러 특징을 추출한다. Thereafter, the image processor 140 includes information on performance of a predetermined feature extraction process (including information on a method used when the feature vector is extracted and information on whether to perform a linear discriminant analysis (LDA) process). The preprocessed image information is blocked into a plurality of blocks, and a wavelet feature or color feature is extracted for each block of the blocked image information.

즉, 상기 영상 처리부(140)는, 상기 전처리된 영상 정보를 다수의 블록으로 블록화하고, 웨이블릿 평균(WM)과 웨이블릿 에너지(WE), 웨이블릿 평균(WM)과 웨이블릿 표준 편차(WS) 및, 색상의 평균과 색상의 표준 편차 중 어느 하나의 방법을 이용하여 블록별로 상기 블록화된 영상 정보에 대한 특징 벡터를 추출한다. 일 예로, 상기 영상 처리부(140)는, 블록화된 영상 정보에 대해 웨이블릿 평균과 웨이블릿 표준 편차 방법을 이용하여 특징 벡터를 추출한다.That is, the image processor 140 blocks the preprocessed image information into a plurality of blocks, and wavelet mean WM and wavelet energy WE, wavelet mean WM, wavelet standard deviation WS, and color. A feature vector of the blocked image information is extracted for each block by using any one of a mean and a standard deviation of colors. For example, the image processor 140 extracts a feature vector on the blocked image information using a wavelet mean and a wavelet standard deviation method.

또한, 상기 영상 처리부(140)는, 상기 추출된 특징 벡터에 대한 선형 판별 분석법(LDA) 과정의 수행 여부에 따라 상기 추출된 특징 벡터에 대한 선형 판별 분석법 과정을 수행하거나 수행하지 않는다. 이때, 상기 선형 판별 분석법 과정의 수행 여부에 대한 결정은, 선형 판별 분석법 과정의 수행 여부에 대한 정보가 미리 설정되어 있을 수도 있고 또는, 상기 표시부에 판별 분석법 과정의 수행 여부에 대한 정보를 표시하고 사용자 입력에 따라 선형 판별 분석법 과정의 수행 여부를 설정할 수도 있다(S150).Also, the image processor 140 may or may not perform a linear discriminant analysis process on the extracted feature vectors depending on whether the linear discriminant analysis method (LDA) on the extracted feature vectors is performed. In this case, the determination on whether to perform the linear discriminant analysis process may include information on whether or not to perform the linear discriminant analysis process, or the display unit may display information on whether or not to perform the discriminant analysis process. Depending on the input, it may be set whether or not to perform a linear discriminant analysis process (S150).

이후, 상기 영상 처리부(140)는, 상기 선택된 지형 분류 파라미터를 근거로 상기 입력된 영상 정보에 대한 지형을 분류한다(S160).Thereafter, the image processor 140 classifies the terrain for the input image information based on the selected terrain classification parameter (S160).

이후, 상기 영상 처리부(140)는, 상기 지형이 분류된 결과 영상에서의 오분류(misclassification)를 제거한다. 또한, 상기 영상 처리부(140)는, 상기 오분류가 제거된 결과 정보(또는, 상기 지형 분류 결과 정보)를 무인 차량의 통합 제어 장치에 전송할 수 있다 (S170).Thereafter, the image processor 140 removes misclassification in the resultant image of which the terrain is classified. In addition, the image processor 140 may transmit the result information (or the terrain classification result information) from which the misclassification is removed to the integrated control device of the unmanned vehicle (S170).

본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

100: 지형 분류 장치 110: 영상 입력부
120: 환경 센서부 130: 저장부
140: 영상 처리부
100: terrain classification apparatus 110: image input unit
120: environmental sensor unit 130: storage unit
140: the image processing unit

Claims (12)

환경 정보를 감지하는 환경 센서부; 및
영상 정보의 종류, 상기 감지된 환경 정보, 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 기설정된 분류기에 대한 정보를 근거로 기저장된 복수의 지형 분류 파라미터 중에서 어느 하나의 지형 분류 파라미터를 선택하되,
상기 복수의 지형 분류 파라미터 중에서 상기 영상 정보의 종류, 상기 환경 정보, 상기 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 상기 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 상기 기설정된 분류기에 대한 정보에 대응하는 지형 분류 파라미터가 없을 때, 상기 환경 정보에 포함된 월 정보, 시각 정보, 조도 정보 및, 습도 정보의 기설정된 우선 순위를 근거로 차순위의 월 정보, 시각 정보, 조도 정보 및, 습도 정보에 대응하는 제1 환경 정보를 선택하고,
상기 복수의 지형 분류 파라미터 중에서 상기 영상 정보의 종류, 상기 선택된 제1 환경 정보, 상기 영상 정보의 전처리 과정의 수행 방법 설정 정보, 상기 특징 추출 과정의 수행 방법 설정 정보 및, 상기 분류기에 대한 정보에 대응하는 지형 분류 파라미터를 선택하는 영상 처리부를 포함하여 구성된 것을 특징으로 하는 지형 분류 장치.
An environmental sensor unit for sensing environmental information; And
A plurality of terrains stored in advance based on the type of the image information, the detected environment information, the method setting information for performing the preprocessing of the preset image information, the method setting information for performing the preset feature extraction, and the information on the predetermined classifier Select one terrain classification parameter from the classification parameters,
Among the plurality of topographic classification parameters, the type of the image information, the environment information, the method setting information for performing the preprocessing of the preset image information, the method setting information for performing the preset feature extraction, and the preset classifier When there is no terrain classification parameter corresponding to the information, the month information, the time information, the illumination information, and the humidity of the next order based on the preset priority of the month information, the time information, the illumination information, and the humidity information included in the environment information Select the first environment information corresponding to the information,
Corresponding to a type of the image information, the selected first environment information, execution method setting information of a preprocessing process of the image information, execution method setting information of the feature extraction process, and information on the classifier among the plurality of terrain classification parameters. And a video processor for selecting a terrain classification parameter.
제1항에 있어서, 상기 영상 처리부는,
상기 선택된 지형 분류 파라미터를 근거로 상기 영상을 기반으로 지형을 분류하고, 상기 지형이 분류된 결과 영상에서의 오분류를 제거하고, 상기 오분류가 제거된 결과 정보를 무인 차량의 통합 제어 장치에 전송하는 것을 특징으로 하는 지형 분류 장치.
The image processing apparatus of claim 1, wherein the image processor comprises:
Classify the terrain based on the image based on the selected terrain classification parameter, remove the misclassification in the result image where the terrain is classified, and transmit the result information from which the misclassification is removed to the integrated control device of the unmanned vehicle. Terrain classification device, characterized in that.
제1항에 있어서, 상기 환경 정보는,
GPS 센서를 통해 감지된 월 정보와 시각 정보, 조도 센서를 통해 감지된 조도 정보 및, 습도 센서를 통해 감지된 습도 정보를 포함하는 것을 특징으로 하는 지형 분류 장치.
The method of claim 1, wherein the environmental information,
And terrain information detected by the GPS sensor, illumination information detected by the illumination sensor, and humidity information detected by the humidity sensor.
제1항에 있어서, 상기 영상 정보의 전처리 과정의 수행 방법 설정 정보는,
상기 영상 정보에 대한 색 공간 변환에 이용될 색 공간 방법에 대한 설정 정보 및, 상기 색 공간 변환된 영상 정보에 대한 정규화 과정의 수행 여부에 대한 정보를 포함하는 것을 특징으로 하는 지형 분류 장치.
The method of claim 1, wherein the setting method setting information of the preprocessing process of the image information comprises:
And setting information on a color space method to be used for color space conversion on the image information, and information on whether or not to perform a normalization process on the color space converted image information.
제1항에 있어서, 상기 특징 추출 과정의 수행 방법 설정 정보는,
상기 전처리된 영상 정보에 대한 특징 벡터 추출에 이용될 특징 벡터 추출 방법에 대한 정보 및, 선형 판별 분석법의 수행 여부에 대한 정보를 포함하는 것을 특징으로 하는 지형 분류 장치.
The method of claim 1, wherein the setting method setting information of the feature extraction process is performed.
And a feature vector extraction method to be used for feature vector extraction of the preprocessed image information, and information on whether to perform a linear discriminant analysis method.
삭제delete 영상 정보의 종류, 환경 센서부를 통해 감지된 환경 정보, 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 기설정된 분류기에 대한 정보를 근거로 기저장된 복수의 지형 분류 파라미터 중에서 어느 하나의 지형 분류 파라미터를 선택하는 단계;
상기 복수의 지형 분류 파라미터 중에서 상기 영상 정보의 종류, 상기 환경 정보, 상기 기설정된 영상 정보의 전처리 과정의 수행 방법 설정 정보, 상기 기설정된 특징 추출 과정의 수행 방법 설정 정보 및, 상기 기설정된 분류기에 대한 정보에 대응하는 지형 분류 파라미터가 없을 때, 상기 환경 정보에 포함된 월 정보, 시각 정보, 조도 정보 및, 습도 정보의 기설정된 우선 순위를 근거로 차순위의 월 정보, 시각 정보, 조도 정보 및, 습도 정보에 대응하는 제1 환경 정보를 선택하는 단계;
상기 복수의 지형 분류 파라미터 중에서 상기 영상 정보의 종류, 상기 선택된 제1 환경 정보, 상기 영상 정보의 전처리 과정의 수행 방법 설정 정보, 상기 특징 추출 과정의 수행 방법 설정 정보 및, 상기 분류기에 대한 정보에 대응하는 지형 분류 파라미터를 선택하는 단계;
상기 선택된 지형 분류 파라미터를 근거로 상기 영상 정보에 대한 지형을 분류하는 단계; 및
상기 지형이 분류된 결과 영상에서의 오분류를 제거하는 단계를 포함하여 이루어진 것을 특징으로 하는 지형 분류 방법.
Based on the type of the image information, the environment information detected by the environmental sensor unit, the setting method setting information of the preprocessing process of the predetermined image information, the setting method setting method of the predetermined feature extraction process, and the preset classifier information Selecting one of the terrain classification parameters from the plurality of terrain classification parameters;
Among the plurality of topographic classification parameters, the type of the image information, the environment information, the method setting information for performing the preprocessing of the preset image information, the method setting information for performing the preset feature extraction, and the preset classifier When there is no terrain classification parameter corresponding to the information, the month information, the time information, the illumination information, and the humidity of the next order based on the preset priority of the month information, the time information, the illumination information, and the humidity information included in the environment information Selecting first environment information corresponding to the information;
Corresponding to a type of the image information, the selected first environment information, execution method setting information of a preprocessing process of the image information, execution method setting information of the feature extraction process, and information on the classifier among the plurality of terrain classification parameters. Selecting a terrain classification parameter;
Classifying terrain for the image information based on the selected terrain classification parameter; And
And removing misclassification in the resultant image of which the terrain is classified.
제7항에 있어서,
상기 오분류가 제거된 결과 정보를 무인 차량의 통합 제어 장치에 전송하는 단계를 더 포함하여 이루어진 것을 특징으로 하는 지형 분류 방법.
The method of claim 7, wherein
And transmitting the result information from which the misclassification has been removed to the integrated control device of the unmanned vehicle.
제7항에 있어서, 상기 환경 정보는,
GPS 센서를 통해 감지된 월 정보와 시각 정보, 조도 센서를 통해 감지된 조도 정보 및, 습도 센서를 통해 감지된 습도 정보를 포함하는 것을 특징으로 하는 지형 분류 방법.
The method of claim 7, wherein the environmental information,
And terrain information detected by the GPS sensor, illumination information detected by the illumination sensor, and humidity information detected by the humidity sensor.
제7항에 있어서, 상기 영상 정보의 전처리 과정의 수행 방법 설정 정보는,
상기 영상 정보에 대한 색 공간 변환에 이용될 색 공간 방법에 대한 설정 정보 및, 상기 색 공간 변환된 영상 정보에 대한 정규화 과정의 수행 여부에 대한 정보를 포함하는 것을 특징으로 하는 지형 분류 방법.
The method of claim 7, wherein the setting method setting information of the preprocessing process of the image information comprises:
And setting information on a color space method to be used for color space conversion on the image information, and information on whether or not to perform a normalization process on the color space converted image information.
제7항에 있어서, 상기 특징 추출 과정의 수행 방법 설정 정보는,
상기 전처리된 영상 정보에 대한 특징 벡터 추출에 이용될 특징 벡터 추출 방법에 대한 정보 및, 선형 판별 분석법의 수행 여부에 대한 정보를 포함하는 것을 특징으로 하는 지형 분류 방법.
The method of claim 7, wherein the setting method setting information of the feature extraction process,
And information on a feature vector extraction method to be used for feature vector extraction of the preprocessed image information, and information on whether to perform a linear discriminant analysis method.
삭제delete
KR1020100047120A 2010-05-19 2010-05-19 Apparatus and method for terrain-type classification KR101191151B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100047120A KR101191151B1 (en) 2010-05-19 2010-05-19 Apparatus and method for terrain-type classification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100047120A KR101191151B1 (en) 2010-05-19 2010-05-19 Apparatus and method for terrain-type classification

Publications (2)

Publication Number Publication Date
KR20110127552A KR20110127552A (en) 2011-11-25
KR101191151B1 true KR101191151B1 (en) 2012-10-15

Family

ID=45396171

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100047120A KR101191151B1 (en) 2010-05-19 2010-05-19 Apparatus and method for terrain-type classification

Country Status (1)

Country Link
KR (1) KR101191151B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101876063B1 (en) * 2016-10-04 2018-07-06 현대자동차주식회사 Method for deciding a road surface using vehicle data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040204812A1 (en) 2003-04-09 2004-10-14 Continental Teves Inc. Road recognition system
US20050134440A1 (en) 1997-10-22 2005-06-23 Intelligent Technolgies Int'l, Inc. Method and system for detecting objects external to a vehicle
US20100013615A1 (en) 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050134440A1 (en) 1997-10-22 2005-06-23 Intelligent Technolgies Int'l, Inc. Method and system for detecting objects external to a vehicle
US20040204812A1 (en) 2003-04-09 2004-10-14 Continental Teves Inc. Road recognition system
US20100013615A1 (en) 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification

Also Published As

Publication number Publication date
KR20110127552A (en) 2011-11-25

Similar Documents

Publication Publication Date Title
US11398018B2 (en) Video shadow and motion removal system
JP7190842B2 (en) Information processing device, control method and program for information processing device
CN104520732B (en) The method and relevant device of alignment sensor
CN111832605B (en) Training method and device for unsupervised image classification model and electronic equipment
CN101795400B (en) Method for actively tracking and monitoring infants and realization system thereof
CN103620381B (en) Floristics recognition device and method
Ragot et al. Benchmark of visual slam algorithms: Orb-slam2 vs rtab-map
JP6398979B2 (en) Video processing apparatus, video processing method, and video processing program
CN111601684A (en) Sharing learned information between robots
US10445602B2 (en) Apparatus and method for recognizing traffic signs
CN109829382B (en) Abnormal target early warning tracking system and method based on intelligent behavior characteristic analysis
CN102076531A (en) Vehicle clear path detection
CN104134364B (en) Real-time traffic sign identification method and system with self-learning capacity
DE102012218390A1 (en) Optimizing the detection of objects in images
CN105809146A (en) Image scene recognition method and device
RU2769288C2 (en) Grain field yield prediction
US8086551B2 (en) Electronic system with simulated sense perception and method of providing simulated sense perception
Zhang et al. Terrain classification in field environment based on Random Forest for the mobile robot
Zereen et al. Detecting real time object along with the moving direction for visually impaired people
Choi et al. Real-time power line detection network using visible light and infrared images
CN105404866A (en) Implementation method for multi-mode automatic implementation of human body state sensing
KR102568853B1 (en) Electronic apparatus and method for controlling thereof
CN114663807A (en) Smoking behavior detection method based on video analysis
CN104851102B (en) A kind of infrared small target detection method based on human visual system
KR101191151B1 (en) Apparatus and method for terrain-type classification

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191002

Year of fee payment: 8