KR20090092366A - Sensor fusion system and sensor fusion method - Google Patents

Sensor fusion system and sensor fusion method

Info

Publication number
KR20090092366A
KR20090092366A KR1020080017582A KR20080017582A KR20090092366A KR 20090092366 A KR20090092366 A KR 20090092366A KR 1020080017582 A KR1020080017582 A KR 1020080017582A KR 20080017582 A KR20080017582 A KR 20080017582A KR 20090092366 A KR20090092366 A KR 20090092366A
Authority
KR
South Korea
Prior art keywords
sensor
distance measuring
measuring sensor
distance
determined
Prior art date
Application number
KR1020080017582A
Other languages
Korean (ko)
Other versions
KR100937096B1 (en
Inventor
전재욱
송태훈
박지환
정순묵
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020080017582A priority Critical patent/KR100937096B1/en
Publication of KR20090092366A publication Critical patent/KR20090092366A/en
Application granted granted Critical
Publication of KR100937096B1 publication Critical patent/KR100937096B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • G01B7/14Measuring arrangements characterised by the use of electric or magnetic techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

A sensor fusion system and a sensor fusion method are provided to get a weighted value based on a sensor fusion table. A sensor fusion system comprises a first distance measuring sensor(20), a second distance measuring sensor(30), a fuzzy control part(10), an environment mapping module(40). The second distance measuring sensor has higher short location precision than the first distance measuring sensor. The fuzzy control part determines the sensor fusion weighted value based on the first purge linguistic variable and the second purge linguistic variable. The environment mapping module makes an environment map based on the sensor fusion weighted value on the measurement range of the first and the second distance measuring sensor.

Description

센서융합 시스템 및 센서융합 방법{SENSOR FUSION SYSTEM AND SENSOR FUSION METHOD}Sensor fusion system and sensor fusion method {SENSOR FUSION SYSTEM AND SENSOR FUSION METHOD}

본 발명은 센서융합 시스템 및 센서융합 방법에 관한 것으로서, 보다 상세하게는 저가형 거리 측정 센서의 부정확성을 극복하면서도 연산량을 감소시킬 수 있는 센서융합 시스템 및 센서융합 방법에 관한 것이다.The present invention relates to a sensor fusion system and a sensor fusion method, and more particularly, to a sensor fusion system and a sensor fusion method that can reduce the amount of calculation while overcoming inaccuracies of a low-cost distance measuring sensor.

근래에 이동로봇 기술 개발이 활발해지면서 이동로봇이 더 이상 산업현장에서만 쓰이지 않고 다양한 분야에 보급되고 있는데, 일 예로 청소용 로봇, 교육용 로못 등 가정에서 사용되어지는 로봇에서부터 군사용 목적으로도 이동 로봇 기술이 적용되고 있다.In recent years, as the development of mobile robot technology is active, mobile robots are not only used in industrial sites anymore but are spread in various fields. For example, mobile robot technology is applied to military purposes from robots used at home such as cleaning robots and educational robots. It is becoming.

이동로봇과 관련하여 현재의 자율주행 기술은 미리 프로그램화되어 있는 기능만을 수행하는 수준에 머물고 있을 뿐만 아니라 장애물을 회피하는 정도의 수준 정도이어서, 이동로봇의 자율주향을 만족시키지 못하고 있다.In relation to mobile robots, the current autonomous driving technology is not only at the level of performing only pre-programmed functions but also at the level of avoiding obstacles, and thus does not satisfy the autonomous orientation of mobile robots.

이는 최근에 가정에 널리 보급되어 있는 저가형 청소기 로봇인 룸바나 트릴로바이트를 보면 알 수 있다. 이러한 이동로봇들은 주어진 영역에서 미리 프로그램화 되어 있는 경로를 따라 이동하면서 장애물을 피하면서 청소를 하고 있고 정확한 지도를 형성하지는 않고 있다.This can be seen in rumba or trilobite, a low-cost cleaner robot that has been widely used in homes recently. These robots move along a pre-programmed path in a given area, avoiding obstacles, and do not form accurate maps.

이러한 문제점을 해결하기 위해, 이동로봇에 장치된 다양한 거리측정 센서, 예를 들어, 초음파 센서, 레이저 센서, 적외선 센서 등을 이용하여 장애물과의 거리를 측정하여 격자모양의 지도를 형성하고, 이동로봇이 이와 같이 작성된 지도에 따라 주행하게 하는 연구가 진행되고 있다.In order to solve this problem, a grid-shaped map is formed by measuring a distance from an obstacle using various distance measuring sensors installed in the mobile robot, for example, an ultrasonic sensor, a laser sensor, an infrared sensor, and the like. The research which makes it drive according to the map made in this way is progressing.

상기와 같은 거리측정 센서 중 초음파 센서는 보통 약 30ㅀ 정도의 퍼짐 현상(이하, '콘 형상'이라 함)이 있고, 적외선 센서는 약 15ㅀ 정도의 콘 현상을 갖는데, 이러한 콘 현상은 이동 로봇과 장애물까지의 거리정보를 획득하는데 부정확성을 내포하게 된다. 이와 같은 부정확성을 보상하기 위해 이동로봇에 사용되는 거리측정 센서들 간의 융합(Fusion)이나 보상에 관한 방법이 또한 제안되고 있다.Among the above-mentioned distance measuring sensors, the ultrasonic sensor usually has a spreading phenomenon of about 30 ㅀ (hereinafter referred to as a 'cone shape'), and the infrared sensor has a cone of about 15 ㅀ, which is a mobile robot. Inaccurateness in obtaining distance information to and from obstacles. In order to compensate for such inaccuracies, a method for fusion or compensation between ranging sensors used in a mobile robot has also been proposed.

한국공개특허공보 10-2007-0072449(거리 측정 센서 데이터들을 모순없이 효과적으로 융합하는 방법)에서는 각각의 거리측정 센서 데이터가 도출한 장애물까지의 거리값을 통해, 장애물이 존재할 수 있다고 생각되는 채워진 영역과, 비어있다고 생각되는 빈 영역을 구분하고, 단일 센서 데이터의 채워진 영역 모두가 다른 센서 데이터들의 빈 영역과 일치하는 경우를 거리측정 센서 데이터들 간에 모순이 일어나는 상충으로 정의한다.In Korean Patent Application Laid-Open No. 10-2007-0072449 (Method of effectively fusing distance measurement data without contradiction), the distance between the distance sensor data derived from each distance sensor data and the filled area where the obstacle may exist may be determined. In this case, a blank area that is considered to be empty is identified, and a case where all filled areas of a single sensor data coincide with empty areas of other sensor data is defined as a conflict in which contradiction occurs between the ranging sensor data.

그리고, 상충이 발생한 영역 중에서 단일 센서 데이터의 채워진 영역 모두가 다른 단일 센서 데이터의 빈 영역과 일치하는 완전 상충이 발생하는 경우, 채워진 영역 모두가 상충되는 센서 데이터는 올바른 센서 데이터로 간주하고, 빈 영역이 상충되는 센서 데이터는 잘못된 센서 데이터로 간주하고 있다.If a complete conflict occurs in which all of the filled regions of the single sensor data coincide with the empty regions of the other single sensor data among the regions in which the conflict occurs, the sensor data in which all of the filled regions conflict with each other is regarded as correct sensor data. This conflicting sensor data is considered incorrect sensor data.

또한, 상기 상충이 발생하는 영역 중에서 단일 센서 데이터의 채워진 영역 모두가 다수의 다른 센서 데이터의 빈 영역에 걸쳐져 있는 부분 상충이 발생하는 경우에는, 채워진 영역 모두가 상충되는 센서 데이터는 올바른 센서 데이터로 간주하고, 빈 영역이 상충과 관계되는 센서 데이터 중에서 상충 영역이 가장 넓은 데이터만을 잘못된 센서 데이터로 간주하는 방법을 제안하고 있다.In addition, when there is a partial conflict in which all of the filled regions of the single sensor data span an empty area of a plurality of different sensor data among the regions where the conflict occurs, the sensor data in which all of the filled regions conflict is regarded as correct sensor data. Then, a method is proposed in which only the widest conflicting data is regarded as false sensor data among the sensor data in which the empty area is related to the conflict.

그런데, 상기의 한국공개특허공보에 개시된 방법은 각각의 센서들 간의 상충을 확인하기 위해 각각의 거리측정 센서에 대한 격자모양의 환경지도를 생성하고, 이들 격자모양의 환경지도를 비교해야 하는 비교적 연산량이 많은 작업을 수행하여야 하는 단점이 있다. 이는 연산을 처리하는데 성능이 높은 프로세서를 선택하여야 하는 문제점과, 이동로봇의 센서들의 실시간성을 확보하기 힘든 문제점을 안고 있다.However, the method disclosed in the above-mentioned Korean Patent Publication discloses a relatively large amount of computation that generates a grid-like environment map for each distance measuring sensor to check for a conflict between the respective sensors, and compares these grid-like environment maps. This has the disadvantage of doing a lot of work. This has a problem of selecting a processor having high performance to process a calculation, and a problem that is difficult to secure real-time properties of sensors of a mobile robot.

또한, 거리측정 센서의 상충 조건을 판별하는데 정형화된 수식으로 표현하는데 한계가 있는 단점이 있다.In addition, there is a drawback that there is a limit in expressing a formula to determine the conflict condition of the distance measuring sensor.

이에, 본 발명은 저가형 거리측정 센서들의 센서 융합을 통해 보다 정확한 이동로봇의 주변 환경에 대한 격자모양의 환경지도를 작성하는데 있어서, 제1 거리측정 센서의 콘 현상으로 인한 부정확성과 반사각 민감성에 대한 단점을 근거리 정밀도가 제1 거리측정 센서보다 높은 제2 거리측정 센서로 보완하는 방법을 제안하는 것으로, 기존의 센서 융합에 비해 간결한 융합식을 이용하여 센서 융합의 연산량을 현저히 감소시킬 수 있는 센서융합 시스템 및 센서융합 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention provides a grid-like environment map of the surrounding environment of the mobile robot through sensor fusion of low-cost distance measuring sensors, and has disadvantages of inaccuracy and reflection angle sensitivity caused by the cone phenomenon of the first ranging sensor. Proposed method to complement the second distance measuring sensor with near-field accuracy higher than the first distance measuring sensor, and it is possible to reduce the amount of calculation of sensor fusion significantly by using simpler fusion formula than conventional sensor fusion. And a sensor fusion method.

상기 목적은 본 발명에 따라, 제1 거리 측정 센서와; 상기 제1 거리 측정 센서보다 근거리 정밀도가 높은 제2 거리 측정 센서와; 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 기 설정된 기준편차 이내인 경우, 상기 제1 거리 측정 센서에 의해 측정된 거리정보에 대한 제1 퍼지언어 변수와 상기 제2 거리 측정 센서에 의해 측정된 거리정보에 대한 제2 퍼지언어 변수를 결정하고, 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 기초하여 센서융합 가중치를 결정하는 퍼지 제어부와; 상기 퍼지 제어부에 의해 결정된 상기 센서융합 가중치에 기초하여, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서의 측정 범위 상에 결정되는 격자모양의 환경지도를 작성하는 환경지도 작성모듈을 포함하는 것을 특징으로 하는 센서융합 시스템에 의해서 달성된다.The object according to the invention, the first distance measuring sensor; A second distance measuring sensor having near-field accuracy higher than the first distance measuring sensor; A first fuzzy language variable for the distance information measured by the first distance measuring sensor when the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor is within a preset reference deviation; A fuzzy controller for determining a second fuzzy language variable for distance information measured by the second distance measuring sensor and determining a sensor fusion weight based on the first fuzzy language variable and the second fuzzy language variable; And an environment map preparation module for generating a grid-like environment map determined on a measurement range of the first distance measurement sensor and the second distance measurement sensor based on the sensor fusion weight determined by the fuzzy control unit. A sensor fusion system is achieved.

여기서, 상기 퍼지 제어부는, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차 이내인지 여부를 판단하는 거리정보 비교부와; 상기 거리정보 비교부에 의해 상기 기준편차 이내인 것으로 판단되는 경우, 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수를 결정하는 퍼지언어 생성모듈과; 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 대응하는 복수의 센서융합 가중치가 정의된 센서융합 규칙 테이블과; 상기 센서융합 규칙 테이블에 정의된 상기 복수의 센서융합 가중치 중 상기 퍼지언어 생성모듈에 의해 결정된 상기 제2 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 대응하는 어느 하나를 추출하는 가중치 결정부를 포함할 수 있다.The fuzzy controller may include: a distance information comparison unit configured to determine whether a deviation between the distance information measured by the first distance sensor and the second distance sensor is within the reference deviation; A fuzzy language generation module for determining the first fuzzy language variable and the second fuzzy language variable when it is determined that the distance information comparison unit is within the reference deviation; A sensor fusion rule table in which a plurality of sensor fusion weights corresponding to the first fuzzy language variable and the second fuzzy language variable are defined; And a weight determination unit configured to extract one of the plurality of sensor fusion weights defined in the sensor fusion rule table corresponding to the second fuzzy language variable and the second fuzzy language variable determined by the fuzzy language generation module. have.

또한, 상기 환경지도 작성모듈은 상기 환경지도 상의 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값을 수학식 W×Sensor_1[i][j] + (1-W)×Sensor_2[i][j] (여기서, W는 상기 센서융합 가중치이고, Sensor_1[i][j]는 상기 제1 거리 측정 센서에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이고, Sensor_2[i][j]는 상기 제2 거리 측정 센서에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이다)에 의해 산출하여 상기 환경지도를 작성할 수 있다.In addition, the environment mapping module generates a certainty value for the presence or absence of an obstacle in the [i] [j] th grid on the environment map (W × Sensor_1 [i] [j] + (1-W) × Sensor_2). [i] [j] where W is the sensor fusion weight and Sensor_1 [i] [j] is the presence or absence of an obstruction in the [i] [j] -th grating measured by the first distance measuring sensor Is a certainty value for Sensor_2 [i] [j] is a certainty value for the presence or absence of an obstacle in the [i] [j] th grid measured by the second distance measuring sensor). You can write

그리고, 상기 퍼지 제어부는, 상기 거리정보 비교부에 의해 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차를 초과하는 것으로 판단되는 경우, 상기 제2 거리 측정 센서에 의해 장해물이 감지되었는지 여부를 판단하고, 상기 제2 거리 측정 센서에 의해 장해물이 감지된 것으로 판단되는 경우 상기 제2 거리 측정 센서에 의해 측정된 거리정보를 상기 환경지도 작성모듈로 전달하는 오류 판단부를 더 포함할 수 있다.The fuzzy controller may determine whether the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor exceeds the reference deviation by the distance information comparing unit. It is determined whether an obstacle is detected by a distance measuring sensor, and when it is determined that an obstacle is detected by the second distance measuring sensor, the distance information measured by the second distance measuring sensor is transmitted to the environment mapping module. The apparatus may further include an error determining unit.

여기서, 상기 오류 판단부는, 상기 제2 거리 측정 센서에 의해 장해물이 감지되지 않은 것으로 판단된 경우, 상기 제1 거리 측정 센서에 의해 장해물이 감지된 것으로 판단되면 상기 제1 거리 측정 센서에 의해 측정된 거리정보를 상기 환경지도 작성모듈로 전달할 수 있다.Here, when it is determined that the obstacle is not detected by the second distance measuring sensor, the error determining unit is measured by the first distance measuring sensor when it is determined that the obstacle is detected by the first distance measuring sensor. Distance information may be transmitted to the environment mapping module.

한편, 상기 목적은 본 발명의 다른 실시 형태에 따라, 제1 거리 측정 센서와 상기 제1 거리 센서보다 근거리 정밀도가 높은 제2 거리 측정 센서를 이용한 센서융합 방법에 있어서, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 거리정보가 감지되는 단계와; 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보간의 편차가 기 설정된 기준편차 이내인지 여부를 판단하는 단계와; 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차 이내인 경우, 상기 제1 거리 측정 센서에 의해 측정된 거리정보에 대한 제1 퍼지언어 변수와 상기 제2 거리 측정 센서에 의해 측정된 거리정보에 대한 제2 퍼지언어 변수를 결정하는 단계와; 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 기초하여 센서융합 가중치를 결정하는 단계와; 상기 결정된 센서융합 가중치에 기초하여, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서의 측정 범위 상에 결정되는 격자모양의 환경지도를 작성하는 단계를 포함하는 것을 특징으로 하는 센서융합 방법에 의해서도 달성될 수 있다.On the other hand, the above object is a sensor fusion method using a first distance measuring sensor and a second distance measuring sensor having a higher near-field accuracy than the first distance sensor, according to another embodiment of the present invention, the first distance measuring sensor and Sensing distance information by the second distance measuring sensor; Determining whether the deviation between the distance information measured by the first distance sensor and the second distance sensor is within a preset reference deviation; When the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor is within the reference deviation, the first fuzzy language variable for the distance information measured by the first distance measuring sensor and the Determining a second fuzzy language variable for distance information measured by a second distance measuring sensor; Determining a sensor fusion weight based on the first fuzzy language variable and the second fuzzy language variable; Based on the determined sensor fusion weight, the sensor fusion method comprising the step of creating a grid-like environment map determined on the measurement range of the first distance sensor and the second distance sensor. Can be achieved.

여기서, 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 대응하는 복수의 센서융합 가중치가 정의된 센서융합 규칙 테이블을 설정하는 단계를 더 포함하며; 상기 센서융합 가중치를 결정하는 단계는 상기 센서융합 규칙 테이블에 정의된 상기 복수의 센서융합 가중치 중 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 대응하는 어느 하나를 추출하는 단계를 포함할 수 있다.And setting a sensor fusion rule table in which a plurality of sensor fusion weights corresponding to the first and second fuzzy language variables are defined; The determining of the sensor fusion weight may include extracting any one corresponding to the first fuzzy language variable and the second fuzzy language variable among the plurality of sensor fusion weights defined in the sensor fusion rule table. have.

그리고, 상기 환경지도를 작성하는 단계에서 상기 환경지도 상의 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값을 수학식 W×Sensor_1[i][j] + (1-W)×Sensor_2[i][j] (여기서, W는 상기 센서융합 가중치이고, Sensor_1[i][j]는 상기 제1 거리 측정 센서에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이고, Sensor_2[i][j]는 상기 제2 거리 측정 센서에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이다)에 의해 산출될 수 있다.In the step of creating the environment map, a certainty value for the presence or absence of an obstacle in the [i] [j] th grid on the environment map is expressed by Equation W × Sensor_1 [i] [j] + (1-W). × Sensor_2 [i] [j], where W is the sensor fusion weight and Sensor_1 [i] [j] is the presence of an obstacle in the [i] [j] th grating measured by the first distance measuring sensor Is a certainty value for whether or not, and Sensor_2 [i] [j] is a certainty value for the presence of an obstacle in the [i] [j] th grating measured by the second ranging sensor). have.

그리고, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차를 초과하는 것으로 판단되는 경우, 상기 제2 거리 측정 센서에 의해 장해물이 감지되었는지 여부를 판단하는 단계와; 상기 제2 거리 측정 센서에 의해 장해물이 감지된 것으로 판단되는 경우 상기 제1 거리 측정 센서에 오류가 발생한 것으로 판단하고, 상기 제2 거리 측정 센서에 의해 측정된 거리정보가 상기 환경지도의 작성에 반영되는 단계를 더 포함할 수 있다.In addition, when it is determined that the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor exceeds the reference deviation, it is determined whether the obstacle is detected by the second distance measuring sensor. Making a step; If it is determined that an obstacle is detected by the second distance measuring sensor, it is determined that an error has occurred in the first distance measuring sensor, and the distance information measured by the second distance measuring sensor is reflected in the preparation of the environment map. It may further comprise the step.

그리고, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차를 초과한 상태에서 상기 제2 거리 측정 센서에 의해 장해물이 감지되지 않은 것으로 판단된 경우, 상기 제1 거리 측정 센서에 의해 장해물이 감지된 것으로 판단되면 상기 제2 거리 측정 센서에 오류가 발생한 것으로 판단되어 상기 제1 거리 측정 센서에 의해 측정된 거리정보가 상기 환경지도의 작성에 반영되는 단계를 더 포함할 수 있다.In addition, when it is determined that the obstacle is not detected by the second distance measuring sensor while the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor exceeds the reference deviation, If it is determined that an obstacle is detected by the first distance measuring sensor, it is determined that an error occurs in the second distance measuring sensor, and the distance information measured by the first distance measuring sensor is reflected in the preparation of the environment map. It may further include.

여기서, 상기 제1 거리 측정 센서는 초음파 센서를 포함하며; 상기 제2 거리 측정 센서는 적외선 센서를 포함할 수 있다.Wherein the first distance measuring sensor comprises an ultrasonic sensor; The second distance measuring sensor may include an infrared sensor.

상기와 같은 구성을 통해, 제1 거리측정 센서의 콘 현상으로 인한 부정확성과 반사각 민감성에 대한 단점을 근거리 정밀도가 제1 거리측정 센서보다 높은 제2 거리측정 센서로 보완하는데 있어서, 기존의 센서 융합에 비해 간결한 융합식을 이용하여 센서 융합의 연산량을 현저히 감소시킬 수 있는 센서융합 시스템 및 센서융합 방법이 제공된다.Through the above configuration, in order to supplement the shortcomings of the inaccuracy and the reflection angle sensitivity due to the cone phenomenon of the first distance measuring sensor with the second distance measuring sensor whose near-field accuracy is higher than that of the first distance measuring sensor, A sensor fusion system and a sensor fusion method are provided that can significantly reduce the amount of computation of sensor fusion using a simpler fusion formula.

또한, 센서 융합에 사용되는 센서융합 가중치를 퍼지 제어기를 이용한 퍼지 이론을 이용함으로써 모호한 상황까지 센서융합 규칙 테이블에 근거하여 가중치를 구함으로써, 보다 효과적인 센서 융합이 가능하게 된다.In addition, by using the fuzzy theory using the fuzzy controller for the sensor fusion weight used in the sensor fusion to obtain a weight based on the sensor fusion rule table to the ambiguous situation, more effective sensor fusion is possible.

도 1은 본 발명에 따른 센서융합 시스템의 구성을 도시한 도면이고,1 is a view showing the configuration of a sensor fusion system according to the present invention,

도 2는 적외선 센서 및 초음파 센서가 이동로봇에 설치되는 구성의 일 예를 도시한 도면이고,2 is a view showing an example of the configuration that the infrared sensor and the ultrasonic sensor is installed in the mobile robot,

도 3은 초음파 센서에 의해 감지된 제1 거리정보에 따라 결정될 제1 퍼지언어 변수를 정의한 제1 퍼지언어 변수 테이블을 도시한 도면이고,FIG. 3 is a diagram illustrating a first fuzzy language variable table that defines a first fuzzy language variable to be determined according to first distance information detected by an ultrasonic sensor.

도 4는 적외선 센서에 의해 감지된 제2 거리정보에 따라 결정될 제2 퍼지언어 변수를 정의한 제2 퍼지언어 변수 테이블을 도시한 도면이고,4 is a diagram illustrating a second fuzzy language variable table that defines a second fuzzy language variable to be determined according to second distance information sensed by an infrared sensor,

도 5는 제1 퍼지언어 변수 및 제1 퍼지언어 변수를 입력으로 할 때 출력되는 출력 퍼지언어 변수와의 관계를 도시한 센서융합 테이블의 일 예를 도시한 도면이고,FIG. 5 is a diagram illustrating an example of a sensor fusion table showing a relationship between a first fuzzy language variable and an output fuzzy language variable outputted when the first fuzzy language variable is input.

도 6은 출력 퍼지언어 변수에 의해 결정되는 센서융합 가중치를 정의한 가중치 테이블의 일 예를 도시한 도면이고,FIG. 6 is a diagram illustrating an example of a weight table that defines sensor fusion weights determined by an output fuzzy language variable.

도 7 내지 도 9는 본 발명에 따른 퍼지 제어부에서 퍼지 제어 방식을 적용하는데 있어 적용되는 소속함수들의 예를 도시한 도면이고,7 to 9 are diagrams showing examples of the membership functions applied in applying the fuzzy control method in the fuzzy control unit according to the present invention,

도 10은 본 발명에 따른 센서융합 방법을 설명하기 위한 도면이다.10 is a view for explaining a sensor fusion method according to the present invention.

이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예들을 보다 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described embodiments of the present invention in more detail.

도 1은 본 발명에 따른 센서융합 시스템의 구성을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명에 따른 센서융합 시스템은, 제1 거리 측정 센서(20), 제2 거리 측정 센서(30), 퍼지 제어부(10) 및 환경지도 작성모듈(40)을 포함한다.1 is a view showing the configuration of a sensor fusion system according to the present invention. As shown in FIG. 1, the sensor fusion system according to the present invention includes a first distance measuring sensor 20, a second distance measuring sensor 30, a fuzzy control unit 10, and an environment mapping module 40. do.

제1 거리 측정 센서(20) 및 제2 거리 측정 센서(30)는 본 발명에 따른 센서융합 시스템이 적용된 이동로봇에 설치되어, 이동로봇의 이동시 전방에 장애물이 위치하는 경우 해당 장애물과의 거리정보를 측정한다.The first distance measuring sensor 20 and the second distance measuring sensor 30 are installed in the mobile robot to which the sensor fusion system according to the present invention is applied, and when the obstacle is located at the front when the mobile robot moves, the distance information with the corresponding obstacle. Measure

본 발명에서는 제2 거리 측정 센서(30)는 제1 거리 측정 센서(20)보다 근거리 정밀도가 높은 센서로 마련된다. 여기서, 본 발명에 따른 제1 거리 측정 센서(20)는 초음파 센서(20)가 적용되는 것을 일 예로 하며, 제2 거리 측정 센서(30)는 초음파 센서(20)보다 근거리 정밀도가 높은 적외선 센서(30)가 적용되는 것을 일 예로 한다.In the present invention, the second distance measuring sensor 30 is provided as a sensor having a higher near field accuracy than the first distance measuring sensor 20. Here, the first distance measuring sensor 20 according to the present invention is an example in which the ultrasonic sensor 20 is applied, the second distance measuring sensor 30 is an infrared sensor having a higher near-field accuracy than the ultrasonic sensor 20 ( 30) is applied as an example.

도 2는 적외선 센서(30) 및 초음파 센서(20)가 이동로봇에 설치되는 구성의 일 예를 도시한 도면이다. 도 2에서는 8개의 초음파 센서(20) 및 적외선 센서(30)가 각각 한쌍씩을 이루며, 45ㅀ 간격으로 방사상으로 설치되는 것을 일 예로 하고 있다. 또한, 쌍을 이루는 초음파 센서(20) 및 적외선 센서(30)는 그 중심 지향 방향이 동일한 직선상(L)에 위치하도록 배치된다. 여기서, 적외선 센서(30)의 측정 범위(30a)는 대략 4cm에서 30cm까지이며, 근거리에서 초음파 센서(20)에 비해 측정된 거리정보의 정밀도가 높음은 전술한 바와 같다. 그리고, 초음파 센서(20)의 측정 범위(20a)는 대략 10cm에서 300cm까지인 것을 일 예로 한다.2 is a diagram illustrating an example of a configuration in which the infrared sensor 30 and the ultrasonic sensor 20 are installed in the mobile robot. In FIG. 2, the eight ultrasonic sensors 20 and the infrared sensors 30 are formed in pairs, respectively, and are installed radially at intervals of 45 ms. In addition, the paired ultrasonic sensors 20 and the infrared sensors 30 are arranged such that their central directing directions are located on the same straight line L. FIG. Here, the measurement range 30a of the infrared sensor 30 is approximately 4cm to 30cm, and the accuracy of the distance information measured in comparison with the ultrasonic sensor 20 at a short range is as described above. In addition, it is assumed that the measurement range 20a of the ultrasonic sensor 20 is about 10 cm to about 300 cm.

이하에서는 제1 거리 측정 센서(20)가 초음파 센서(20)이고, 제2 거리 측정 센서(30)가 적외선 센서(30)인 것을 예로 하여 설명한다.Hereinafter, the first distance measuring sensor 20 is an ultrasonic sensor 20 and the second distance measuring sensor 30 is an infrared sensor 30.

퍼지 제어부(10)는 초음파 센서(20) 및 적외선 센서(30)에 의해 각각 측정된 거리정보를 이용하여 센서융합 가중치를 결정한다. 여기서, 퍼지 제어부(10)는 센서융합 가중치를 결정하는데 있어 퍼지 제어(Fuzzy control) 방식을 적용한다.The purge control unit 10 determines the sensor fusion weight using distance information measured by the ultrasonic sensor 20 and the infrared sensor 30, respectively. Here, the fuzzy control unit 10 applies a fuzzy control method in determining the sensor fusion weight.

보다 구체적으로 설명하면, 퍼지 제어부(10)는 초음파 센서(20) 및 적외선 센서(30)에 의해 측정된 거리정보를 각각 제1 퍼지언어 변수 및 제2 퍼지언어 변수로 변환하고, 제1 퍼지언어 변수 및 제2 퍼지언어 변수에 기초하여 센서융합 가중치를 결정한다.In more detail, the fuzzy controller 10 converts the distance information measured by the ultrasonic sensor 20 and the infrared sensor 30 into a first fuzzy language variable and a second fuzzy language variable, respectively, and the first fuzzy language. The sensor fusion weight is determined based on the variable and the second fuzzy language variable.

도 1을 참조하여 설명하면, 퍼지 제어부(10)는 거리정보 비교부(15), 퍼지언어 생성모듈(11), 센서융합 규칙 테이블(14) 및 가중치 결정부(13)를 포함할 수 있다.Referring to FIG. 1, the fuzzy controller 10 may include a distance information comparator 15, a fuzzy language generation module 11, a sensor fusion rule table 14, and a weight determiner 13.

거리정보 비교부(15)는 초음파 센서(20) 및 적외선 센서(30)로부터 측정되어 수신되는 거리정보(이하, 각각 '제1 거리정보' 및 '제2 거리정보'라 함)를 비교한다. 그리고, 거리정보 비교부(15)는 제1 거리정보 및 제2 거리정보 간의 편차가 기 설정된 기준편차 이내인 경우, 퍼지언어 생성모듈(11) 및 가중치 결정부(13)에 의해 센서융합 가중치가 결정되도록 한다. 여기서, 기준편차는 초음파 센서(20) 및 적외선 센서(30)에 의해 감지된 장애물까지의 거리정보가 어느 정도 수순에서 일치하는 것으로 판단할 수 있을 정도만의 차이를 보이는 경우를 반영하는 것으로, 기준편차를 벗어나게 되면 초음파 센서(20)와 적외선 센서(30) 중 어느 하나에 오류가 발생하는 것으로 인식할 수 있는 정도로 정의될 수 있다.The distance information comparison unit 15 compares distance information measured by the ultrasonic sensor 20 and the infrared sensor 30 (hereinafter, referred to as 'first distance information' and 'second distance information', respectively). When the deviation between the first distance information and the second distance information is within a preset reference deviation, the distance information comparison unit 15 uses the fuzzy language generation module 11 and the weight determination unit 13 to determine the sensor fusion weight. To be determined. Here, the reference deviation reflects the case where the distance information to the obstacle detected by the ultrasonic sensor 20 and the infrared sensor 30 shows only a difference that can be determined to be consistent in a certain order. If it is out of the can be defined to the extent that it can be recognized that an error occurs in any one of the ultrasonic sensor 20 and the infrared sensor 30.

거리정보 비교부(15)에 의해 제1 거리정보와 제2 거리정보 간의 편차기 기준편차 이내인 것으로 판단되면, 퍼지언어 생성모듈(11)은 제1 거리정보 및 제2 거리정보에 기초하여 제1 퍼지언어 변수 및 제2 퍼지언어 변수를 결정한다.If it is determined by the distance information comparison unit 15 that the deviation distance between the first distance information and the second distance information is within the standard deviation, the fuzzy language generation module 11 based on the first distance information and the second distance information Determine a fuzzy language variable and a second fuzzy language variable.

도 3에는 초음파 센서(20)에 의해 감지된 제1 거리정보에 따라 결정될 제1 퍼지언어 변수를 정의한 제1 퍼지언어 변수 테이블을 도시한 도면이고, 도 4는 적외선 센서(30)에 의해 감지된 제2 거리정보에 따라 결정될 제2 퍼지언어 변수를 정의한 제2 퍼지언어 변수 테이블을 도시한 도면이다. 여기서, 제1 퍼지언어 변수 테이블 및 제2 퍼지언어 변수 테이블은 도 1에 도시된 퍼지언어 변수 테이블(12)에 저장될 수 있으며, 퍼지언어 생성모듈(11)은 제1 거리정보 및 제2 거리정보가 입력되는 경우 퍼지언어 변수 테이블(12)을 참조하여 제1 퍼지언어 변수 및 제2 퍼지언어 변수를 결정한다.3 is a diagram illustrating a first fuzzy language variable table that defines a first fuzzy language variable to be determined according to first distance information detected by the ultrasonic sensor 20, and FIG. 4 is detected by the infrared sensor 30. FIG. 2 is a diagram illustrating a second fuzzy language variable table that defines a second fuzzy language variable to be determined according to second distance information. Here, the first fuzzy language variable table and the second fuzzy language variable table may be stored in the fuzzy language variable table 12 shown in FIG. 1, and the fuzzy language generation module 11 may include first distance information and second distance. When the information is input, the first fuzzy language variable and the second fuzzy language variable are determined by referring to the fuzzy language variable table 12.

퍼지언어 생성모듈(11)에 의해 결정된 제1 퍼지언어 변수 및 제2 퍼지언어 변수는 퍼지 제어의 입력 퍼지언어로 사용되며, 가중치 결정부(13)는 퍼지언어 생성모듈(11)로부터 입력되는 제1 퍼지언어 변수 및 제2 퍼지언어 변수에 기초하여 출력 퍼지언어 변수를 결정한다.The first fuzzy language variable and the second fuzzy language variable determined by the fuzzy language generation module 11 are used as an input fuzzy language of fuzzy control, and the weight determination unit 13 is inputted from the fuzzy language generation module 11. An output fuzzy language variable is determined based on the first fuzzy language variable and the second fuzzy language variable.

도 5는 제1 퍼지언어 변수 및 제1 퍼지언어 변수를 입력으로 할 때 출력되는 출력 퍼지언어 변수와의 관계를 도시한 센서융합 테이블의 일 예를 도시한 도면이고, 도 6은 출력 퍼지언어 변수에 의해 결정되는 센서융합 가중치를 정의한 가중치 테이블의 일 예를 도시한 도면이다. 여기서, 센서융합 테이블 및 가중치 테이블은 도 1에 도시된 센서융합 규칙 테이블(14)에 저장될 수 있고, 가중치 결정부(13)는 센서융합 규칙 테이블(14)을 참조하여 센서융합 가중치를 결정할 수 있다.FIG. 5 is a diagram illustrating an example of a sensor fusion table showing a relationship between a first fuzzy language variable and an output fuzzy language variable outputted when the first fuzzy language variable is input, and FIG. 6 is an output fuzzy language variable. FIG. 1 is a diagram illustrating an example of a weight table that defines sensor fusion weights determined by FIG. Here, the sensor fusion table and the weight table may be stored in the sensor fusion rule table 14 shown in FIG. 1, and the weight determination unit 13 may determine the sensor fusion weight with reference to the sensor fusion rule table 14. have.

한편, 도 7은 퍼지 제어 방식을 적용하는데 있어 제1 거리정보, 즉 초음파 센서(20)에 대한 소속함수의 일 예를 도시한 도면이고, 도 8은 퍼지 제어 방식을 적용하는데 있어 제2 거리정보, 즉 적외선 센서(30)에 대한 소속함수의 일 예를 도시한 도면이다. 도 7 및 도 8에 도시된 바와 같이, 근거리 정밀도가 높은 적외선 센서(30)에 대한 소속함수가 근거리에 분포되는 것을 알 수 있다.On the other hand, Figure 7 is a view showing an example of the first distance information, that is, the belonging function for the ultrasonic sensor 20 in applying the fuzzy control method, Figure 8 is a second distance information in applying the fuzzy control method. That is, the drawing shows an example of the belonging function for the infrared sensor 30. As shown in FIG. 7 and FIG. 8, it can be seen that the belonging function for the infrared sensor 30 having high near-field precision is distributed at a near distance.

또한, 도 9는 출력 퍼지언어 변수에 대한 센서융합 가중치의 소속함수를 도시한 도면이다. 여기서, 센서융합 가중치는 0~1까지의 값을 가지며, 결정된 센서융합 가중치는 환경지도 작성모듈(40)로 전송된다.FIG. 9 is a diagram illustrating a membership function of sensor fusion weights for output fuzzy language variables. Here, the sensor fusion weight has a value from 0 to 1, and the determined sensor fusion weight is transmitted to the environment mapping module 40.

한편, 환경지도 작성모듈(40)은 퍼지 제어부(10)의 가중치 결정부(13)에 의해 결정되어 출력되는 센서융합 가중치에 기초하여, 환경지도를 작성한다. 여기서, 환경지도는 초음파 센서(20) 및 적외선 센서(30)의 측정 범위(도 2의 20a,30a) 상에 결정되는 격자모양을 갖는다. 즉, 환경지도 상의 격자모양은 초음파 센서(20)의 측정 범위(20a) 및 콘 현상, 그리고 적외선 센서(30)의 측정 범위(30a) 및 콘 현상을 고려하여 그 사이즈가 결정될 수 있다.On the other hand, the environment map preparation module 40 creates an environment map based on the sensor fusion weights determined and output by the weight determination unit 13 of the fuzzy control unit 10. Here, the environmental map has a grid shape determined on the measurement range (20a, 30a of FIG. 2) of the ultrasonic sensor 20 and the infrared sensor 30. That is, the grid shape on the environment map may be determined in consideration of the measurement range 20a and cone phenomenon of the ultrasonic sensor 20 and the measurement range 30a and cone phenomenon of the infrared sensor 30.

그리고, 환경지도 작성모듈(40)은 환경지도 상의 [i][j]번째 격자에서의 장애물의 존재 여부에 대한 확실성값을 센서융합 가중치에 기초하여 [수학식 1]에 의해 산출한다.Then, the environment mapping module 40 calculates a certainty value for the presence or absence of an obstacle in the [i] [j] th grid on the environment map based on Equation 1 based on the sensor fusion weight.

[수학식 1][Equation 1]

W×Sensor_1[i][j] + (1-W)×Sensor_2[i][j]W × Sensor_1 [i] [j] + (1-W) × Sensor_2 [i] [j]

여기서, W는 센서융합 가중치이고, Sensor_1[i][j]는 초음파 센서(20)에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이고, Sensor_2[i][j]는 적외선 센서(30)에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이다.Where W is the sensor fusion weight, and Sensor_1 [i] [j] is the confidence value for the presence of an obstacle in the [i] [j] th grating measured by the ultrasonic sensor 20, and Sensor_2 [i] [j] is a certainty value for the presence or absence of an obstacle in the [i] [j] -th grating measured by the infrared sensor 30.

상기와 같이, 센서융합 가중치가 결정되면, 환경지도 상의 각 격자에서의 확실성값이 [수학식 1]의 의해 산출되는 바, 종래의 센서 융합 방법에 비해 그 연산량을 현저히 감소시킬 수 있게 된다.As described above, when the sensor fusion weight is determined, the certainty value at each grating on the environment map is calculated by Equation 1, so that the amount of computation can be significantly reduced compared to the conventional sensor fusion method.

다시, 도 1을 참조하여 설명하면, 본 발명에 따른 퍼지 제어부(10)는 오류 판단부(16)를 더 포함할 수 있다. 여기서, 오류 판단부(16)는 거리정보 비교부(15)에 의해 제1 거리정보 및 제2 거리정보 간의 편차가 상술한 기준편차를 초과하는 것으로 판단되는 경우, 제2 거리 측정 센서(30)인 적외선 센서(30)에 의해 장애물이 감지되었는지 여부를 판단하고, 적외선 센서(30)에 의해 장애물이 감지된 것으로 판단되면 초음파 센서(20)에 오류가 발생한 것으로 등록한다. 그리고, 오류 판단부(16)는 적외선 센서(30)의 감지결과인 제2 거리정보를 환경지도 작성모듈(40)로 전달한다.Referring back to FIG. 1, the fuzzy controller 10 according to the present invention may further include an error determiner 16. Here, when it is determined by the distance information comparison unit 15 that the deviation between the first distance information and the second distance information exceeds the above-described reference deviation, the error determining unit 16 may measure the second distance measuring sensor 30. It is determined whether the obstacle is detected by the infrared sensor 30, and if it is determined that the obstacle is detected by the infrared sensor 30, an error is registered in the ultrasonic sensor 20. In addition, the error determiner 16 transmits the second distance information, which is a detection result of the infrared sensor 30, to the environment map preparation module 40.

반면, 오류 판단부(16)는 제1 거리정보 및 제2 거리정보 간의 편차가 상술한 기준편차를 초과하는 것으로 판단된 상태에서 적외선 센서(30)에 의해 장애물이 감지되지 않은 것으로 판단되는 경우에는 다시 초음파 센서(20)에 의해 장애물이 감지되었는지 여부를 판단한다. 이 때, 오류 판단부(16)는 초음파 센서(20)에 의해 장애물이 감지된 것으로 판단되는 경우 적외선 센서(30)에 오류가 발생한 것으로 등록하고, 초음파 센서(20)에 의해 감지된 제1 거리정보를 환경지도 작성모듈(40)로 전달한다.On the other hand, if the error determination unit 16 determines that the obstacle is not detected by the infrared sensor 30 in a state where the deviation between the first distance information and the second distance information is determined to exceed the above-described reference deviation. Again, it is determined whether the obstacle is detected by the ultrasonic sensor 20. In this case, when it is determined that the obstacle is detected by the ultrasonic sensor 20, the error determination unit 16 registers that an error has occurred in the infrared sensor 30, and the first distance detected by the ultrasonic sensor 20. The information is transmitted to the environment mapping module 40.

이와 같이, 오류 판단부(16)는 근거리 정밀도가 높은 적외선 센서(30)가 장애물을 감지하였는지를 먼저 판단하고, 적외선 센서(30)에 의해 감지된 장애물, 즉 근거리에 위치한 장애물에 대해서는 적외선 센서(30)의 감지결과가 사용되도록 동작한다. 반면, 적외선 센서(30)에 의해 장애물이 감지되지 않고 초음파 센서(20)에 의해서만 장애물이 감지되는 상태인 경우에는 초음파 센서(20)의 감지결과가 사용되도록 동작하게 된다. 따라서, 상술한 센서융합 가중치에 따른 센서 융합 방식이 적용되지 않은 경우, 즉 제1 거리정보 및 제2 거리정보 간의 편차가 기준편차를 초과하는 경우에는 적외선 센서(30)와 초음파 센서(20)의 자체 특성이 반영되어 보다 정확한 측정이 가능하게 된다.As described above, the error determining unit 16 first determines whether the infrared sensor 30 having a high near-field accuracy detects an obstacle, and the infrared sensor 30 for an obstacle detected by the infrared sensor 30, that is, an obstacle located at a short distance. ) Is used to use the detection result. On the other hand, when the obstacle is not detected by the infrared sensor 30 and only the obstacle is detected by the ultrasonic sensor 20, the sensing result of the ultrasonic sensor 20 is used to operate. Therefore, when the sensor fusion method according to the above-described sensor fusion weight is not applied, that is, when the deviation between the first distance information and the second distance information exceeds the reference deviation, the infrared sensor 30 and the ultrasonic sensor 20 Its own characteristics are reflected, allowing for more accurate measurements.

이하에서는, 도 10을 참조하여 본 발명에 따른 센서융합 시스템을 이용한 센서융합 방법에 대해 상세히 설명한다. 여기서, 본 발명에 따른 센서융합 방법을 설명하는데 있어서, 제1 거리 측정 센서(20)로 초음파 센서(20)가 사용되고, 제2 거리 측정 센서(30)로 적외선 센서(30)가 사용된 것을 일 예로 하여 설명한다.Hereinafter, a sensor fusion method using the sensor fusion system according to the present invention will be described in detail with reference to FIG. 10. Here, in describing the sensor fusion method according to the present invention, the ultrasonic sensor 20 is used as the first distance measuring sensor 20, and the infrared sensor 30 is used as the second distance measuring sensor 30. It demonstrates as an example.

먼저, 초음파 센서(20) 및 적외선 센서(30)에 의해 제1 거리정보 및 제2 거리정보가 획득된다(S10). 그런 다음, 제1 거리정보와 제2 거리정보 간의 편차가 산출되어 기준편차와 비교된다(S11).First, first distance information and second distance information are obtained by the ultrasonic sensor 20 and the infrared sensor 30 (S10). Then, the deviation between the first distance information and the second distance information is calculated and compared with the reference deviation (S11).

여기서, 제1 거리정보와 제2 거리정보 간의 편차가 기준편차 이내인 것으로 판단되는 경우, 제1 거리정보 및 제2 거리정보에 각각 대응하는 제1 퍼지언어 변수 및 제2 퍼지언어 변수가 결정된다(S12). 여기서, 제1 퍼지언어 변수 및 제2 퍼지언어 변수에 대한 설명 및 결정 과정은 전술한 바와 같다.Here, when it is determined that the deviation between the first distance information and the second distance information is within the reference deviation, a first fuzzy language variable and a second fuzzy language variable corresponding to the first distance information and the second distance information, respectively, are determined. (S12). Here, the description and determination of the first fuzzy language variable and the second fuzzy language variable are as described above.

그리고, 제1 퍼지언어 변수 및 제2 퍼지언어 변수가 입력 퍼지언어로 사용되어 출력 퍼지언어 변수가 추출된다(S13). 그리고, 출력 퍼지언어 변수에 따른 센서융합 가중치가 결정된다(S14). 여기서, 출력 퍼지언어 변수의 추출 및 센서융합 가중치의 결정은 상술한 바와 같다.The first fuzzy language variable and the second fuzzy language variable are used as the input fuzzy language to extract the output fuzzy language variable (S13). Then, the sensor fusion weight according to the output fuzzy language variable is determined (S14). Here, extraction of the output fuzzy language variable and determination of the sensor fusion weight are as described above.

그리고, 결정된 센서융합 가중치에 기초하여 환경지도가 작성되며(S15), 이 때 센서융합 가중치는 [수학식 1]에 적용되어 환경지도의 각 격자에서의 장해물의 존재 여부에 대한 확실성값의 산출에 사용된다.Then, an environmental map is created based on the determined sensor fusion weight (S15). At this time, the sensor fusion weight is applied to [Equation 1] to calculate the certainty value for the presence of obstacles in each grid of the environmental map. Used.

한편, S11 단계에서 제1 거리정보와 제2 거리정보 간의 편차가 기준편차를 초과하는 경우, 적외선 센서(30)에 의해 장애물이 감지되었는지 여부가 판단된다(S20). 이 때, 적외선 센서(30)에 의해 장애물이 감지된 것으로 판단되는 경우, 초음파 센서(20)에 오류가 발생한 것으로 등록되고(S21), 적외선 센서(30)에 의해 감지된 제2 거리정보가 환경지도 작성에 반영될 수 있도록 전달된다(S22).On the other hand, if the deviation between the first distance information and the second distance information in step S11 exceeds the reference deviation, it is determined whether the obstacle is detected by the infrared sensor 30 (S20). At this time, when it is determined that the obstacle is detected by the infrared sensor 30, it is registered as an error in the ultrasonic sensor 20 (S21), the second distance information detected by the infrared sensor 30 is the environment It is delivered to be reflected in the map (S22).

반면, S20 단계에서 적외선 센서(30)가 장애물을 감지하지 않은 것으로 판단되는 경우, 초음파 센서(20)에 의해 장애물이 감지되었는지 여부가 판단된다(S30). 이 때 초음파 센서(20)에 의해 장애물이 감지된 것으로 판단되는 경우, 적외선 센서(30)에 오류가 발생한 것으로 등록되고(S31), 초음파 센서(20)에 의해 감지된 제2 거리정보가 환경지도 작성에 반영될 수 있도록 전달된다(S32). 여기서, S30 단계에서 초음파 센서(20)에 의해 장애물이 감지되지 않은 것으로 판단되는 경우는, 적외선 센서(30) 및 초음파 센서(20) 모두에 의해 장애물이 감지되지 않은 상태인 바, 이후의 동작이 진행된다.On the other hand, if it is determined in step S20 that the infrared sensor 30 does not detect the obstacle, it is determined whether the obstacle is detected by the ultrasonic sensor 20 (S30). In this case, when it is determined that the obstacle is detected by the ultrasonic sensor 20, an error is registered in the infrared sensor 30 (S31), and the second distance information detected by the ultrasonic sensor 20 is an environment map. It is delivered to be reflected in the creation (S32). Here, when it is determined that the obstacle is not detected by the ultrasonic sensor 20 in step S30, the obstacle is not detected by both the infrared sensor 30 and the ultrasonic sensor 20, the subsequent operation is Proceed.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (12)

제1 거리 측정 센서와;A first distance measuring sensor; 상기 제1 거리 측정 센서보다 근거리 정밀도가 높은 제2 거리 측정 센서와;A second distance measuring sensor having near-field accuracy higher than the first distance measuring sensor; 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 기 설정된 기준편차 이내인 경우, 상기 제1 거리 측정 센서에 의해 측정된 거리정보에 대한 제1 퍼지언어 변수와 상기 제2 거리 측정 센서에 의해 측정된 거리정보에 대한 제2 퍼지언어 변수를 결정하고, 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 기초하여 센서융합 가중치를 결정하는 퍼지 제어부와;A first fuzzy language variable for the distance information measured by the first distance measuring sensor when the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor is within a preset reference deviation; A fuzzy controller for determining a second fuzzy language variable for distance information measured by the second distance measuring sensor and determining a sensor fusion weight based on the first fuzzy language variable and the second fuzzy language variable; 상기 퍼지 제어부에 의해 결정된 상기 센서융합 가중치에 기초하여, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서의 측정 범위 상에 결정되는 격자모양의 환경지도를 작성하는 환경지도 작성모듈을 포함하는 것을 특징으로 하는 센서융합 시스템.And an environment map preparation module for generating a grid-like environment map determined on a measurement range of the first distance measurement sensor and the second distance measurement sensor based on the sensor fusion weight determined by the fuzzy control unit. Sensor fusion system. 제1항에 있어서,The method of claim 1, 상기 퍼지 제어부는,The purge control unit, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차 이내인지 여부를 판단하는 거리정보 비교부와;A distance information comparison unit determining whether a deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor is within the reference deviation; 상기 거리정보 비교부에 의해 상기 기준편차 이내인 것으로 판단되는 경우, 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수를 결정하는 퍼지언어 생성모듈과;A fuzzy language generation module for determining the first fuzzy language variable and the second fuzzy language variable when it is determined that the distance information comparison unit is within the reference deviation; 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 대응하는 복수의 센서융합 가중치가 정의된 센서융합 규칙 테이블과;A sensor fusion rule table in which a plurality of sensor fusion weights corresponding to the first fuzzy language variable and the second fuzzy language variable are defined; 상기 센서융합 규칙 테이블에 정의된 상기 복수의 센서융합 가중치 중 상기 퍼지언어 생성모듈에 의해 결정된 상기 제2 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 대응하는 어느 하나를 추출하는 가중치 결정부를 포함하는 것을 특징으로 하는 센서융합 시스템.And a weight determination unit configured to extract one of the plurality of sensor fusion weights defined in the sensor fusion rule table corresponding to the second fuzzy language variable and the second fuzzy language variable determined by the fuzzy language generation module. Sensor fusion system. 제2항에 있어서,The method of claim 2, 상기 환경지도 작성모듈은 상기 환경지도 상의 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값을 수학식The environment mapping module generates a certainty value as to whether an obstacle exists in the [i] [j] th grid on the environment map. W×Sensor_1[i][j] + (1-W)×Sensor_2[i][j]W × Sensor_1 [i] [j] + (1-W) × Sensor_2 [i] [j] (여기서, W는 상기 센서융합 가중치이고, Sensor_1[i][j]는 상기 제1 거리 측정 센서에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이고, Sensor_2[i][j]는 상기 제2 거리 측정 센서에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이다)에 의해 산출하여 상기 환경지도를 작성하는 것을 특징으로 하는 센서융합 시스템.Where W is the sensor fusion weight, and Sensor_1 [i] [j] is the certainty value for the presence of an obstacle in the [i] [j] th grating measured by the first ranging sensor, Sensor_2 [i] [j] is a certainty value as to whether or not an obstacle exists in the [i] [j] th grid measured by the second distance measuring sensor), thereby producing the environment map. Sensor fusion system. 제2항에 있어서,The method of claim 2, 상기 퍼지 제어부는,The purge control unit, 상기 거리정보 비교부에 의해 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차를 초과하는 것으로 판단되는 경우, 상기 제2 거리 측정 센서에 의해 장해물이 감지되었는지 여부를 판단하고, 상기 제2 거리 측정 센서에 의해 장해물이 감지된 것으로 판단되는 경우 상기 제2 거리 측정 센서에 의해 측정된 거리정보를 상기 환경지도 작성모듈로 전달하는 오류 판단부를 더 포함하는 것을 특징으로 하는 센서융합 시스템.If it is determined by the distance information comparing unit that the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor exceeds the reference deviation, the obstacle is detected by the second distance measuring sensor. Determining whether or not the detection, and if it is determined that the obstacle is detected by the second distance measuring sensor further comprises an error determination unit for transmitting the distance information measured by the second distance measuring sensor to the environment mapping module. Sensor fusion system, characterized in that. 제4항에 있어서,The method of claim 4, wherein 상기 오류 판단부는,The error determining unit, 상기 제2 거리 측정 센서에 의해 장해물이 감지되지 않은 것으로 판단된 경우, 상기 제1 거리 측정 센서에 의해 장해물이 감지된 것으로 판단되면 상기 제1 거리 측정 센서에 의해 측정된 거리정보를 상기 환경지도 작성모듈로 전달하는 것을 특징으로 하는 센서융합 시스템.When it is determined that the obstacle is not detected by the second distance measuring sensor, when it is determined that the obstacle is detected by the first distance measuring sensor, the distance information measured by the first distance measuring sensor is generated. Sensor fusion system, characterized in that the transfer to the module. 제1항 내지 제5항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 5, 상기 제1 거리 측정 센서는 초음파 센서를 포함하며;The first distance measuring sensor comprises an ultrasonic sensor; 상기 제2 거리 측정 센서는 적외선 센서를 포함하는 것을 특징으로 하는 센서융합 시스템.And the second distance measuring sensor comprises an infrared sensor. 제1 거리 측정 센서와 상기 제1 거리 센서보다 근거리 정밀도가 높은 제2 거리 측정 센서를 이용한 센서융합 방법에 있어서,In the sensor fusion method using a first distance measuring sensor and a second distance measuring sensor having a higher near-field accuracy than the first distance sensor, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 거리정보가 감지되는 단계와;Sensing distance information by the first distance measuring sensor and the second distance measuring sensor; 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보간의 편차가 기 설정된 기준편차 이내인지 여부를 판단하는 단계와;Determining whether the deviation between the distance information measured by the first distance sensor and the second distance sensor is within a preset reference deviation; 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차 이내인 경우, 상기 제1 거리 측정 센서에 의해 측정된 거리정보에 대한 제1 퍼지언어 변수와 상기 제2 거리 측정 센서에 의해 측정된 거리정보에 대한 제2 퍼지언어 변수를 결정하는 단계와;When the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor is within the reference deviation, the first fuzzy language variable for the distance information measured by the first distance measuring sensor and the Determining a second fuzzy language variable for distance information measured by a second distance measuring sensor; 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 기초하여 센서융합 가중치를 결정하는 단계와;Determining a sensor fusion weight based on the first fuzzy language variable and the second fuzzy language variable; 상기 결정된 센서융합 가중치에 기초하여, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서의 측정 범위 상에 결정되는 격자모양의 환경지도를 작성하는 단계를 포함하는 것을 특징으로 하는 센서융합 방법.And generating a grid-like environment map determined on the measurement ranges of the first distance measurement sensor and the second distance measurement sensor, based on the determined sensor fusion weights. 제7항에 있어서,The method of claim 7, wherein 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 대응하는 복수의 센서융합 가중치가 정의된 센서융합 규칙 테이블을 설정하는 단계를 더 포함하며;Setting a sensor fusion rule table in which a plurality of sensor fusion weights corresponding to the first and second fuzzy language variables are defined; 상기 센서융합 가중치를 결정하는 단계는 상기 센서융합 규칙 테이블에 정의된 상기 복수의 센서융합 가중치 중 상기 제1 퍼지언어 변수 및 상기 제2 퍼지언어 변수에 대응하는 어느 하나를 추출하는 단계를 포함하는 것을 특징으로 하는 센서융합 방법.The determining of the sensor fusion weight includes extracting any one corresponding to the first fuzzy language variable and the second fuzzy language variable among the plurality of sensor fusion weights defined in the sensor fusion rule table. Sensor fusion method characterized in that. 제8항에 있어서,The method of claim 8, 상기 환경지도를 작성하는 단계에서 상기 환경지도 상의 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값을 수학식In the step of creating the environment map, a certainty value as to whether there is an obstacle in the [i] [j] th grid on the environment map W×Sensor_1[i][j] + (1-W)×Sensor_2[i][j]W × Sensor_1 [i] [j] + (1-W) × Sensor_2 [i] [j] (여기서, W는 상기 센서융합 가중치이고, Sensor_1[i][j]는 상기 제1 거리 측정 센서에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이고, Sensor_2[i][j]는 상기 제2 거리 측정 센서에 의해 측정된 [i][j] 번째 격자에서의 장해물의 존재 여부에 대한 확실성값이다)에 의해 산출되는 것을 특징으로 하는 센서융합 방법.Where W is the sensor fusion weight, and Sensor_1 [i] [j] is the certainty value for the presence of an obstacle in the [i] [j] th grating measured by the first ranging sensor, Sensor_2 [i] [j] is a certainty value for the presence or absence of an obstacle in the [i] [j] -th grating measured by the second distance measuring sensor). 제7항에 있어서,The method of claim 7, wherein 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차를 초과하는 것으로 판단되는 경우, 상기 제2 거리 측정 센서에 의해 장해물이 감지되었는지 여부를 판단하는 단계와;Determining whether an obstacle is detected by the second distance measuring sensor when it is determined that a deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor exceeds the reference deviation. Wow; 상기 제2 거리 측정 센서에 의해 장해물이 감지된 것으로 판단되는 경우 상기 제1 거리 측정 센서에 오류가 발생한 것으로 판단하고, 상기 제2 거리 측정 센서에 의해 측정된 거리정보가 상기 환경지도의 작성에 반영되는 단계를 더 포함하는 것을 특징으로 하는 센서융합 방법.If it is determined that an obstacle is detected by the second distance measuring sensor, it is determined that an error has occurred in the first distance measuring sensor, and the distance information measured by the second distance measuring sensor is reflected in the preparation of the environment map. Sensor fusion method characterized in that it further comprises the step. 제10항에 있어서,The method of claim 10, 상기 제1 거리 측정 센서 및 상기 제2 거리 측정 센서에 의해 측정된 거리정보 간의 편차가 상기 기준편차를 초과한 상태에서 상기 제2 거리 측정 센서에 의해 장해물이 감지되지 않은 것으로 판단된 경우, 상기 제1 거리 측정 센서에 의해 장해물이 감지된 것으로 판단되면 상기 제2 거리 측정 센서에 오류가 발생한 것으로 판단되어 상기 제1 거리 측정 센서에 의해 측정된 거리정보가 상기 환경지도의 작성에 반영되는 단계를 더 포함하는 것을 특징으로 하는 센서융합 방법.When it is determined that the obstacle is not detected by the second distance measuring sensor when the deviation between the distance information measured by the first distance measuring sensor and the second distance measuring sensor exceeds the reference deviation, If it is determined that the obstacle is detected by the first distance measuring sensor, it is determined that an error has occurred in the second distance measuring sensor, and the distance information measured by the first distance measuring sensor is reflected in the preparation of the environment map. Sensor fusion method comprising a. 제7항 내지 제11항 중 어느 한 항에 있어서,The method according to any one of claims 7 to 11, 상기 제1 거리 측정 센서는 초음파 센서를 포함하며;The first distance measuring sensor comprises an ultrasonic sensor; 상기 제2 거리 측정 센서는 적외선 센서를 포함하는 것을 특징으로 하는 센서융합 방법.And the second distance measuring sensor comprises an infrared sensor.
KR1020080017582A 2008-02-27 2008-02-27 Sensor fusion system and sensor fusion method KR100937096B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080017582A KR100937096B1 (en) 2008-02-27 2008-02-27 Sensor fusion system and sensor fusion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080017582A KR100937096B1 (en) 2008-02-27 2008-02-27 Sensor fusion system and sensor fusion method

Publications (2)

Publication Number Publication Date
KR20090092366A true KR20090092366A (en) 2009-09-01
KR100937096B1 KR100937096B1 (en) 2010-01-15

Family

ID=41300934

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080017582A KR100937096B1 (en) 2008-02-27 2008-02-27 Sensor fusion system and sensor fusion method

Country Status (1)

Country Link
KR (1) KR100937096B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9563528B2 (en) 2011-12-23 2017-02-07 Samsung Electronics Co., Ltd. Mobile apparatus and localization method thereof
CN111273690A (en) * 2015-03-31 2020-06-12 深圳市大疆创新科技有限公司 Mobile platform operating system and method
CN112823321A (en) * 2018-10-10 2021-05-18 韩国机器人融合研究院 Position positioning system and method for mixing position identification results based on multiple types of sensors
KR102507068B1 (en) * 2022-08-04 2023-03-08 주식회사 인포웍스 A WEATHER-RUGGED FMCW LiDAR OBJECT DETECTION SYSTEM AND A METHOD FOR DETECTING OBJECT

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101190615B1 (en) * 2012-03-13 2012-10-12 고려대학교 산학협력단 Apparatus for estimating location of moving object for autonomous driving

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3607841B2 (en) * 1999-09-10 2005-01-05 富士通株式会社 Obstacle detection device
JP4352034B2 (en) 2005-09-13 2009-10-28 株式会社東芝 Object position detection device, map creation device, autonomous mobile device, object position detection method, and object position detection program
KR100844015B1 (en) * 2007-05-31 2008-07-04 포항공과대학교 산학협력단 Non-Conflict Effective Fusion Method of Distance Measuring Sensor Data

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9563528B2 (en) 2011-12-23 2017-02-07 Samsung Electronics Co., Ltd. Mobile apparatus and localization method thereof
CN111273690A (en) * 2015-03-31 2020-06-12 深圳市大疆创新科技有限公司 Mobile platform operating system and method
CN112823321A (en) * 2018-10-10 2021-05-18 韩国机器人融合研究院 Position positioning system and method for mixing position identification results based on multiple types of sensors
CN112823321B (en) * 2018-10-10 2024-04-16 韩国机器人融合研究院 Position locating system and method for mixing position recognition results based on multiple types of sensors
KR102507068B1 (en) * 2022-08-04 2023-03-08 주식회사 인포웍스 A WEATHER-RUGGED FMCW LiDAR OBJECT DETECTION SYSTEM AND A METHOD FOR DETECTING OBJECT

Also Published As

Publication number Publication date
KR100937096B1 (en) 2010-01-15

Similar Documents

Publication Publication Date Title
US8996292B2 (en) Apparatus and method generating a grid map
JP5048077B2 (en) Apparatus and method for creating an environment map for a moving body capable of quickly adapting to surrounding environmental changes and creating an environment map
US8712588B2 (en) Method and/or apparatus for navigating mobile robot using virtual sensor
CN111531549A (en) Robot system and positioning navigation method
CN108628318B (en) Congestion environment detection method and device, robot and storage medium
KR100937096B1 (en) Sensor fusion system and sensor fusion method
CN108415432B (en) Straight edge-based positioning method for robot
CN110895408B (en) Autonomous positioning method and device and mobile robot
CN107526085B (en) Ultrasonic array ranging modeling method and system
US20200233061A1 (en) Method and system for creating an inverse sensor model and method for detecting obstacles
US11656083B2 (en) Autonomous tunnel navigation with a robotic system
JP2009223757A (en) Autonomous mobile body, control system, and self-position estimation method
Lee et al. Sector-based maximal online coverage of unknown environments for cleaning robots with limited sensing
Beom et al. Mobile robot localization using a single rotating sonar and two passive cylindrical beacons
CN112051844A (en) Self-moving robot and control method thereof
Moshiri et al. Pseudo information measure: A new concept for extension of Bayesian fusion in robotic map building
CN114442625B (en) Environment map construction method and device based on multi-strategy combined control agent
JP2019191498A (en) Map creation device
WO2016158683A1 (en) Mapping device, autonomous traveling body, autonomous traveling body system, mobile terminal, mapping method, mapping program, and computer readable recording medium
CN107966702B (en) construction method and device of environment map
CN106597453B (en) A kind of mobile device independently builds drawing method and device entirely
Malone et al. Construction and use of roadmaps that incorporate workspace modeling errors
Li et al. Robot map building from sonar sensors and DSmT
Kwon et al. Thinning-based topological exploration using position possibility of topological nodes
Macias et al. Simultaneous localization and mapping using an RGB-D camera for autonomous mobile robot navigation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130102

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140106

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150708

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee