KR102075844B1 - 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 - Google Patents

다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 Download PDF

Info

Publication number
KR102075844B1
KR102075844B1 KR1020180120261A KR20180120261A KR102075844B1 KR 102075844 B1 KR102075844 B1 KR 102075844B1 KR 1020180120261 A KR1020180120261 A KR 1020180120261A KR 20180120261 A KR20180120261 A KR 20180120261A KR 102075844 B1 KR102075844 B1 KR 102075844B1
Authority
KR
South Korea
Prior art keywords
feature
obstacle
value
positioning
unit
Prior art date
Application number
KR1020180120261A
Other languages
English (en)
Inventor
엄태영
최영호
배기덕
박지현
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020180120261A priority Critical patent/KR102075844B1/ko
Priority to CN201980066879.0A priority patent/CN112823321B/zh
Priority to PCT/KR2019/008478 priority patent/WO2020075954A1/ko
Application granted granted Critical
Publication of KR102075844B1 publication Critical patent/KR102075844B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic

Abstract

본 발명은 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법에 관한 것으로, 일 실시예의 시스템은 물체의 주변에 위치한 장애물 정보를 감지하기 위한 다종 센서가 구성되는 센서부; 물체의 위치를 측위하기 위한 복수의 측위 정보가 저장되는 다종 데이터베이스가 구성되는 데이터베이스부; 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 특징검출부; 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치 영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑부; 및 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 위치측위부;를 포함하여 구성된다.

Description

다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법{Localization system merging results of multi-modal sensor based positioning and method thereof}
본 발명은 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법에 관한 것으로, 더욱 상세하게는 다종 센서가 감지하는 정보를 혼합하여 이동되는 물체의 위치를 정확히 측위할 수 있는 위치 측위 시스템 및 방법에 관한 것이다.
자율 주행이 가능한 로봇이나 드론은 산업용을 비롯한 각 분야에서 점차 사용이 증가되고 있는 추세이다. 이러한 로봇과 드론의 자율 주행에서 가장 중요한 기술은 이동되는 로봇이나 드론의 현재 위치를 정확하게 측위하는 기술이다.
이와 같이 로봇이나 드론의 위치를 측위하기 위해, GPS 위성으로부터 신호를 수신하여 현재 위치를 판단하기도 하고, 주행계(Odometer)와 관성항법장치(INS), 전자나침반 등을 사용하고 있으며, 이보다 정밀한 위치 파악을 위한 CDGPS를 사용하기도 한다.
그러나 GPS 위성 신호는 오차 범위가 크고(예: 약 5~10m 내외), 위성이 볼 수 없는 실내에서는 전혀 사용할 수 없으며 CDGPS는 가격이 비싸다는 문제점이 있었다.
이와 같은 문제점에 의해 다른 방식으로 위치 측위가 가능한 Rader/Laser, 무선랜, RFID의 연구 및 기술 개발이 지속적으로 이루어지고 있으나, 이러한 Rader/Laser, 무선랜, RFID는 실내에서의 위치 측위에 최적화되어 있는 기술로 실외에서는 사용되기 어려운 문제점이 있었다.
이러한 문제점에 의해 실내/실외에 상관 없이 로봇이나 드론의 위치를 정확히 측위할 수 있는 연구 및 기술 개발이 요구되고 있다.
이를 위한 선행기술인 대한민국 등록특허 제10-1255024호는 초음파 센서를 기반으로 타 물체의 위치와 방향을 추정할 수 있는 위치 추정 시스템 및 방법이 개시되어 있다. 그러나, 이러한 선행기술은 약한 위치인식이 가능한 초음파 센서만을 기반으로 물체의 위치와 방향을 추정하기 때문에 물체의 위치를 정확하게 추정하기 어려운 문제점이 있었다.
대한민국 등록특허 제10-1255024호
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 본 발명은 약한 위치인식이 가능한 센서를 다종으로 구성하여 장애물 정보를 감지하며, 감지한 장애물 정보와 복수의 측위 정보로부터 특징값을 검출하고, 검출한 특징값에 가중치를 두어 보정한 후 혼합하여 이동되는 물체의 위치를 정확히 측위할 수 있는 강한 위치인식이 수행 가능한 위치 측위 시스템 및 방법을 제공하는데 그 목적이 있다.
한편, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 다종 센서 기반 위치인식 결과들을 혼합한 위치 측위 시스템은 물체에 장착되며, 물체의 주변에 위치한 장애물 정보를 감지하기 위한 다종 센서가 구성되는 센서부; 물체의 위치를 측위하기 위한 복수의 측위 정보가 저장되는 다종 데이터베이스가 구성되는 데이터베이스부; 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 특징검출부; 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지(Fuzzy)논리를 적용하여 물체 위치 영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑부; 및 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 위치측위부;를 포함하여 구성된다.
그리고 다종 센서는 3D 라이더, 비전센서 및 초음파센서를 적어도 포함하여 구성된다.
또한, 다종 데이터베이스는 3D 모델 데이터베이스, 이미지 모델 데이터베이스 및 관계형 데이터베이스를 적어도 포함하여 구성된다.
한편, 퍼지매핑부는 특징값을 집합연산하도록 프로그래밍되는 집합연산부; 집합연산된 특징값간의 가중치를 산출하며, 산출된 가중치를 집합연산된 특징값에 부여하여 집합연산된 특징값을 보정하는 보정부; 보정된 특징값으로 물체 위치영역값과 장애물 위치값을 계산하는 위치계산부; 물체 위치영역값과 장애물 위치값이 계산될 때 초기맵을 생성하는 맵 생성부; 및 퍼지논리를 적용하도록 프로그래밍되는 퍼지제어부;를 포함하여 구성된다.
그리고 보정부는, 집합연산된 특징값 중 상대적으로 많은 매칭 수행을 통해 검출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출하여 보정할 수 있다.
또한, 보정부는, 집합연산된 특징값 중 매칭 수행을 통해 상대적으로 많은 특징점이 추출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출하여 보정할 수 있다.
한편, 위치측위부는, 초기맵에 물체 위치영역값에 따른 물체 위치영역과 장애물 위치값에 따른 장애물을 표시하는 표시부; 및 물체 위치영역 내에 표시된 장애물과 실제 물체 간의 거리를 계산하여 물체 위치영역 내에 물체 위치지점을 측정하는 위치지점 측정부;를 포함하여 구성된다.
그리고 상기 목적을 달성하기 위한 또 다른 기술적 수단으로서, 본 발명의 일 실시예에 따른 다종 센서 기반 위치인식 결과들을 혼합한 위치 측위 방법은 물체의 주변에 위치한 장애물 정보를 감지하는 단계; 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 저장된 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 단계; 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑 단계; 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 단계;를 포함한다.
본 발명에 따르면, 약한 위치인식이 가능한 센서를 다종으로 구성하여 강한 위치인식이 가능함으로써, 기존의 GPS, CDGPS, Rader/Laser, 무선랜, RFID 등과 같이 하나의 센서로만 구성된 위치 측위 시스템에 비해 상대적으로 이동되는 물체의 위치를 정확히 측위할 수 있는 장점이 있다.
한편, 본 발명에서 얻을 수 있는 효과들은 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템의 구성을 개략적으로 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템의 전체적인 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위방법의 순서도이다.
도 4는 특징값 검출 단계의 세부 순서도이다.
도 5는 퍼지매핑 단계의 세부 순서도이다.
도 6은 물체 위치 측위 단계의 세부 순서도이다.
도 7은 물체 위치 측위 단계에 따라 물체의 위치가 측위되는 과정을 설명하기 위한 도면이다.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. 또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
시스템의 구성
도 1은 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템의 구성을 개략적으로 나타내는 블록도이며, 도 2는 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템의 전체적인 구성을 나타내는 블록도이다.
도 1 및 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템(10)(이하에서는, '위치 측위 시스템'이라 함)은 약한 위치인식이 가능한 센서를 다종으로 구성하여 장애물 정보를 감지하며, 감지한 장애물 정보와 복수의 측위 정보로부터 특징값을 검출하고, 검출한 특징값에 가중치를 두어 보정한 후 혼합하여 이동되는 물체의 위치를 정확히 측위할 수 있는 강한 위치인식이 수행 가능한 위치 측위 시스템을 제공하는 것이다.
이러한 일 실시예의 위치 측위 시스템(10)은 도 1 내지 도 2를 참조하여 구체적으로 살펴보면, 물체에 장착되며, 물체의 주변에 위치한 장애물 정보를 감지하기 위한 다종 센서가 구성되는 센서부(100)와, 물체의 위치를 측위하기 위한 복수의 측위 정보가 저장되는 다종 데이터베이스가 구성되는 데이터베이스부(300)와, 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 특징검출부(200)와, 특징값에 가중치를 부여하여 특징값을 보정하며, 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치 영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑부(400) 및 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 위치측위부(500)를 포함하여 구성된다.
첨언하여, 일 실시예에서의 물체라 함은 로봇, 드론, 차량, 비행기, 기차 등의 이동 가능한 모든 객체를 의미하며, 보다 자세하게는 드론 또는 로봇을 의미할 수 있다.
센서부(100)에 구성된 다종 센서(110, 120, 130)는 도 2를 참조하여 구체적으로 살펴보면, 3D 라이더(110), 비전센서(120) 및 초음파센서(130)로 구성된다. 다만, 센서부(100)는 3D 라이더(110), 비전센서(120) 및 초음파센서(130)가 구성되는 것으로 한정하는 것이 아니며, 물체의 위치를 보다 정확히 측위하기 위해 다른 방식(광학식, 전파식, 음향식 등)으로 장애물 정보를 감지할 수 있는 다른 종류의 센서가 추가 구성되는 것이 바람직할 것이다.
센서부(100)에 구성되는 다종 센서 중 3D 라이더(110)는 레이저를 이용하여 객체를 감지하고 객체와의 거리를 계산하며, 주변환경을 3차원 입체 데이터로 감지하는 센서이다.
비전센서(120)는 이미지센서라고 불리는 센서의 한 종류로서, 카메라로 영상을 촬영하여 영상평면에 형성되는 객체의 영상을 전기신호로 변환하는 센서이다.
초음파센서(130)는 20Khz대 이상의 초음파 신호를 객체에 내보내고 객체로부터 반사되어 되돌아오는 시간을 측정하여 객체와의 거리를 측정하는 센서이다.
한편, 3D 라이더(110), 비전센서(120) 및 초음파센서(130)가 감지하는 객체라 함은, 본 발명의 일 실시예에서는 장애물을 의미하며, 장애물이라 함은, 건물을 비롯하여 이동되는 물체가 이동되면서 충돌할 가능성이 있으며, 센서부(100)가 감지하는 주변의 구조물, 시설물 또는 또다른 이동 물체 등을 의미한다. 이에 따라, 본 발명의 일 실시예에서는 3D 라이더(110), 비전센서(120) 및 초음파센서(130)는 장애물에 대한 장애물 정보를 감지하는 것으로 이해되는 것이 바람직할 것이다.
특징검출부(200)는 도 2를 참조하여 구체적으로 살펴보면, 3D 라이더(110)가 감지한 장애물 정보를 통해 특징값을 검출하는 제1 특징검출부(210), 비전센서(120)가 감지한 장애물 정보를 통해 특징값을 검출하는 제2 특징검출부(220) 및 초음파센서(130)가 감지한 장애물 정보를 통해 특징값을 검출하는 제3 특징검출부(230)를 포함하여 구성된다.
다만, 특징검출부(200)는 제1 특징검출부(210), 제2 특징검출부(220) 및 제3 특징검출부(230)가 구성되는 것으로 한정하는 것이 아니며, 센서부(100)에 3D 라이더(110), 비전센서(120) 및 초음파센서(130)와 다른 종류의 센서가 추가 구성되면, 추가 구성된 센서가 감지한 장애물 정보를 통해 특징값을 검출하도록 별도의 특징검출부가 더 구성되는 것이 바람직할 것이다.
특징검출부(200)에 구성된 특징검출부 중 제1 특징검출부(210)는 3D 라이더(110)가 감지한 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭을 수행하게 된다. 여기서, 제1 특징검출부(210)는 3D 라이더(110)가 포인트 클라우드(Point Cloud) 처리를 통해 생성한 객체의 표면에 측정된 점의 그룹으로부터 특징점을 추출할 수 있다.
제2 특징검출부(220)는 비전센서(120)가 감지한 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭을 수행하게 된다. 여기서, 제2 특징검출부(220)는 비전센서(120)가 장애물의 영상을 변환한 전기신호로부터 특징점을 추출할 수 있다.
제3 특징검출부(230)는 초음파센서(130)가 감지한 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭을 수행하게 된다. 여기서, 제3 특징검출부(230)는 초음파센서(130)가 측정한 장애물과의 거리로부터 특징점을 추출할 수 있다.
데이터베이스부(300)는 도 2를 참조하여 구체적으로 살펴보면, 제1 특징검출부(210)가 모델 기반의 매칭을 수행하기 위해 필요한 측위 정보가 저장되는 3D 모델 데이터베이스(310), 제2 특징검출부(220)가 모델 기반의 매칭을 수행하기 위해 필요한 측위 정보가 저장되는 신(장면) 모델 데이터베이스(320) 및 제3 특징검출부(230)가 모델 기반의 매칭을 수행하기 위해 필요한 측위 정보가 저장되는 관계형 데이터베이스(330)를 포함하여 구성된다.
다만, 데이터베이스부(300)는 3D 모델 데이터베이스(310), 신모델 데이터베이스(320) 및 관계형 데이터베이스(330)가 구성되는 것으로 한정하는 것이 아니며, 센서부(100)에 다른 종류의 센서가 추가 구성되어 특징검출부(200)에도 다른 특징검출부가 추가 구성되면, 추가 구성된 특징검출부가 모델 기반의 매칭을 수행하도록 별도의 데이터베이스가 더 구성되는 것이 바람직할 것이다.
데이터베이스부(300)에 구성된 데이터베이스 중 3D 모델 데이터베이스(310)는 장애물의 3차원 입체 데이터를 포함하는 측위 정보가 저장되는 데이터베이스를 의미한다.
이러한 3D 모델 데이터베이스(310)에 의해, 제1 특징검출부(210)는 3D 라이더(110)를 통해 추출한 특징점과 3D 모델 데이터베이스(310)에 저장된 장애물의 3차원 입체 데이터를 비교하여 일치되는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출할 수 있게 된다.
여기서, 제1 특징검출부(210)가 검출하는 특징값은 3D 라이더(110)가 3차원 입체 데이터로 감지한 장애물 정보와 3D 모델 데이터베이스(310)에 3차원 입체 데이터로 저장된 장애물 정보에서 일치되는 점의 그룹(또는 집합)으로 이해되어야 할 것이다.
신모델 데이터베이스(320)는 장애물의 신 데이터를 포함하는 측위 정보가 저장되는 데이터베이스를 의미한다.
이러한 신(Scene) 모델 데이터베이스(320)에 의해, 제2 특징검출부(220)는 비전센서(120)를 통해 추출한 특징점과 신 모델 데이터베이스(320)의 신(Scene) 데이터를 비교하여 일치되는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출할 수 있게 된다.
여기서, 제2 특징검출부(220)가 검출하는 특징값은 비전센서(120)가 이미지로 감지한 장애물 정보와 신 모델 데이터베이스(320)에 신 데이터로 저장된 장애물 정보에서 일치되는 이미지 또는 신(Secne, 장면)으로 이해되어야 할 것이다.
관계형 데이터베이스(330)는 초음파센서(130)가 발생시킨 초음파를 통해 재구성할 장애물 데이터가 저장되는 데이터베이스를 의미한다.
이러한 관계형 데이터베이스(330)에 의해, 제3 특징검출부(230)는 초음파센서(130)를 통해 추출한 특징점과 관계형 데이터베이스(330)의 장애물 데이터를 비교하여 일치되는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출할 수 있게 된다.
여기서, 제3 특징검출부(230)가 검출하는 특징값은 초음파센서(130)가 초음파를 통해 객체와의 거리가 계산된 데이터(예: 그래프, 표)를 포함하는 장애물 정보를 통해 관계형 데이터베이스(330)에서 재구성되는 장애물 데이터로 이해되어야 할 것이다.
퍼지매핑부(400)는 자연 언어 등의 불분명한 상태, 모호한 상태를 참 혹은 거짓의 이진 논리에서 벗어난 다치성으로 표현하는 논리개념인 퍼지논리(Fuzzy logic)가 적용되며, 이러한 퍼지논리를 기반으로 퍼지제어(Fuzzy control)를 수행하게 된다.
이러한 퍼지매핑부(400)는 도 2를 참조하여 구체적으로 살펴보면, 제1, 2, 3 특징검출부(210, 220, 230)에서 각각 검출한 특징값을 집합연산하도록 프로그래밍되는 집합연산부(410), 집합연산된 특징값간의 가중치를 산출하며, 산출된 가중치를 집합연산된 특징값에 부여하여 집합연산된 특징값을 보정하는 보정부(420), 보정된 특징값으로 물체 위치영역값과 장애물 위치값을 계산하는 위치계산부(430), 물체 위치영역값과 장애물 위치값이 계산될 때 초기맵을 생성하는 맵 생성부(440) 및 퍼지논리를 적용하도록 프로그래밍되는 퍼지제어부(450)를 포함하여 구성된다.
집합연산부(410)는 제1, 2, 3 특징검출부(210, 220, 230)에서 각각 검출한 특징값을 계층 구조로 집합연산한다.
더 나아가, 집합연산부(410)는 퍼지제어를 위한 퍼지집합을 수행하게 된다. 여기서, 퍼지집합이라 함은 특징값을 퍼지규칙(Fuzzy rule)에 따른 집합으로 정의하는 것을 의미한다.
보정부(420)는 집합연산된 특징값 중 제1, 2, 3 특징검출부(210, 220, 230)에서 상대적으로 많은 매칭 수행을 통해 검출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출할 수 있다.
이러한 가중치를 산출하는 방식과 달리, 보정부(420)는 집합연산된 특징값 중 제1, 2, 3 특징검출부(210, 220, 230)에서 상대적으로 많은 특징점이 추출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출할 수도 있다.
또한, 보정부(420)는 전술한 가중치 산출 방식을 병합하여 제1, 2, 3 특징검출부(210, 220, 230)에서 상대적으로 많은 매칭 수행을 통해 검출되면서 상대적으로 많은 특징점이 추출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출할 수도 있다.
그리고 보정부(420)는 산출한 가중치를 집합연산된 특징값에 각각 부여하여 특징값이 보정되도록 하며, 이러한 보정부(420)를 통해 보정된 특징값은 집합연산부(410)에 계층형으로 집합된다.
더 나아가, 보정부(420)는 퍼지제어를 위한 퍼지화를 수행하게 된다. 여기서, 퍼지화라 함은 특징값을 퍼지규칙에 따른 소속함수를 가진 퍼지값으로 변환하는 것을 의미한다.
위치계산부(430)는 퍼지제어를 위한 역퍼지화를 수행하게 된다. 여기서, 역퍼지화라 함은 보정부(420)로부터 퍼지값으로 변환되는 보정된 특징값을 수치화하는 것을 의미한다. 여기서, 위치계산부(430)가 특징값을 수치화하는 것은 소속함수를 가지는 퍼지값으로는 물체 위치영역값과 장애물 위치값을 계산할 수 없기 때문이다.
이와 같이, 위치계산부(430)는 역퍼지화를 수행하여 보정된 특징값을 수치화하며, 수치화된 특징값으로부터 물체 위치영역 정보를 추출하여 물체 위치영역값을 계산한다. 여기서, 물체 위치영역값은 물체가 위치되는 지점을 포함하는 영역값이며, 수치화된 값을 의미한다.
또한, 위치계산부(430)는 수치화된 특징값으로부터 장애물 위치 정보를 추출하여 장애물의 위치값을 계산한다. 여기서, 장애물 위치값은 장애물이 위치되는 지점을 포함하는 값이며, 수치화된 값을 의미한다.
맵 생성부(440)는 위치계산부(430)에서 물체 위치영역값과 장애물 위치값이 계산될 때, 물체 위치영역값과 장애물 위치값에 따른 물체 위치영역과 장애물이 표시될 초기맵을 생성한다. 여기서, 초기맵이라 함은 어떠한 데이터도 입력되지 않은 상태의 맵으로 이해되는 것이 바람직할 것이다.
위치측위부(500)는 도 2를 참조하여 구체적으로 살펴보면, 맵 생성부(440)로부터 생성된 초기맵에 위치계산부(430)에서 계산된 물체 위치영역값에 따른 물체 위치영역과 장애물 위치값에 따른 장애물을 표시하는 표시부(510) 및 물체 위치영역 내에 표시된 장애물과 실제 물체 간의 거리를 계산하여 물체 위치영역 내에 물체 위치지점을 측정하는 위치지점 측정부(520)를 포함하여 구성된다.
표시부(510)는 초기맵을 표시하기 위한 디스플레이로 구성될 수 있으며, 물체 위치의 측위를 위해 초기맵에 적어도 하나 이상의 물체 위치영역과 장애물을 표시하는 것이 바람직할 것이다.
그리고 표시부(510)는 물체 위치영역과 장애물만 표시하는 것이 아니라, 물체 위치영역과 장애물의 정보를 추가 표시할 수 있다.
위치지점 측정부(520)는 GPS, MEMs, Wi-fi, RFID, bluetooth, 지그비, 무선랜, Rader/Laser, LBS 중 적어도 하나를 통해 물체 위치영역 내에 표시된 장애물과 실제 물체간의 거리를 계산하는 것이 바람직할 것이다. 그리고 위치지점 측정부(520)는 측정한 물체 위치지점이 맵에 표시되도록 한다.
측위 방법
도 3은 본 발명의 일 실시예에 따른 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위방법의 순서도이며, 도 4는 특징값 검출 단계의 세부 순서도이고, 도 5는 퍼지매핑 단계의 세부 순서도이며, 도 6은 물체 위치 측위 단계의 세부 순서도이고, 도 7은 물체 위치 측위 단계에 따라 물체의 위치가 측위되는 과정을 설명하기 위한 도면이다.
이러한 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 방법은 도 3을 참조하여 구체적으로 살펴보면, 물체의 주변에 위치한 장애물 정보를 감지하는 단계(S10), 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 특징점과 저장된 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 단계(S20), 특징값에 가중치를 부여하여 특징값을 보정하며, 보정된 특징값을 통해 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 물체 위치영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑 단계(S30) 및 물체 위치 영역과 장애물 위치가 반영된 맵으로부터 물체의 위치를 측위하는 단계(S40)를 포함한다.
먼저, 특징값 검출 단계(S20)는 도 4를 참조하여 구체적으로 살펴보면, 특징점 기반 매칭 단계(S21)와 모델 기반 매칭 단계(S22)로 이루어진다.
특징점 기반 매칭단계(S21)는 추출한 특징점을 기반으로 장애물을 인식하는 단계이다.
모델 기반 매칭 단계(S22)는 추출한 특징점과 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 단계이다.
한편, 특징값 검출 단계(S20)는 특징점 기반 매칭 단계(S21)를 진행한 후에 모델 기반 매칭 단계(S22)를 진행하거나, 특징점 기반 매칭 단계(S21)와 모델 기반 매칭 단계(S22)를 동시에 진행하게 된다.
퍼지매핑 단계(S30)는 도 5 및 도 7를 참조하여 구체적으로 살펴보면, 집합연산 단계(S31), 가중치 산출 단계(S32), 가중치 부여 단계(S33), 보정 단계(S34), 위치 계산 단계(S35) 및 초기맵 생성 단계(S36)로 이루어지며, 퍼지제어가 수행되는 단계이기도 하다.
집합연산 단계(S31)는 특징값 검출 단계(S20)에서 검출된 특징값을 계층형으로 집합연산하는 단계이며, 퍼지매핑 단계(S30)에서 퍼지제어를 위한 퍼지집합을 수행하는 단계이기도 하다.
가중치 산출 단계(S32)는 집합연산 단계(S31)에서 집합연산된 특징값에 가중치를 산출하는 단계이다. 여기서, 가중치는 전술한 본 발명의 위치 측위 시스템(10)의 구성요소인 보정부(420)를 통해 설명한 내용과 동일하므로 자세한 설명은 생략하도록 하겠다.
가중치 부여 단계(S33)는 가중치 산출 단계(S32)에서 산출한 가중치를 집합연산된 특징값에 부여하는 단계이다.
보정 단계(S34)는 가중치 부여 단계(S33)에서 부여된 가중치에 따라 특징값을 보정하는 단계이다. 이때, 특징값이 보정됨에 따라 집합연산 단계(S31)의 계층 집합구조는 변경될 수 있다.
한편, 전술한 가중치 산출 단계(S32), 가중치 부여 단계(S33), 보정 단계(34)는 퍼지매핑 단계(S30)에서 퍼지제어를 위한 퍼지화를 수행하는 단계이기도 하다.
위치 계산 단계(S35)는 보정 단계(S34)에서 보정된 특징값을 통해 물체 위치영역값과 장애물 위치값을 계산하는 단계로서, 구체적으로 살펴보면, 위치 계산 단계(S35)는 보정된 특징값에서 물체 위치영역 정보를 추출하여 물체 위치영역값을 계산하며, 보정된 특징값에서 장애물 위치 정보를 추출하여 장애물 위치값을 계산하는 단계이다. 이러한 위치 계산 단계(S35)는 퍼지매핑 단계(S30)에서 퍼지제어를 위한 역퍼지화를 수행하는 단계이기도 하다.
초기맵 생성 단계(S36)는 퍼지논리를 적용하여 위치 계산 단계(S35)에서 계산된 물체 위치영역값에 따른 물체 위치영역(2)과 장애물 위치값에 따른 장애물 위치(3)가 반영될 초기맵(1)을 생성한다. 이러한 초기맵(1)은 어떠한 데이터도 입력되지 않은 상태의 맵을 의미한다.
물체 위치 측위 단계(S40)는 도 6 및 도 7을 참조하여 구체적으로 살펴보면, 초기맵 표시 단계(S41) 및 물체 위치지점 측정 단계(S42)로 이루어진다.
초기맵 표시 단계(S41)는 위치 계산 단계(S35)에서 계산된 물체 위치영역값에 따른 물체 위치영역(2)과 장애물 위치값에 따른 장애물(3)을 초기맵 생성 단계(S36)에서 생성된 초기맵(1)에 표시하는 단계이다. 이러한 초기맵 표시 단계(S41)에서는 물체의 위치를 측위 하기 위해 적어도 하나의 물체 위치영역(2)과 장애물(3)이 표시되는 것이 바람직할 것이다.
여기서, 물체 위치영역(2)이라 함은 초기맵(1)에 표시되는 물체 위치지점(4)를 포함하는 일정 영역을 의미하며, 장애물(3)은 실제 장애물 위치와 동일한 위치에 존재하는 객체를 의미한다.
물체 위치지점 측정 단계(S42)는 초기맵 표시 단계(S41)를 통해 초기맵(1)에 표시된 물체 위치영역(2)내의 장애물(3a, 3b, 3c)과 실제 물체 간의 거리를 계산하여 물체 위치영역(2)내에서 물체 위치지점(4)을 측정하는 단계이다. 이때, 장애물(3a, 3b, 3c)은 물체 위치영역(2)의 위치에 따라 갯수가 달라질 수 있으며, 물체 위치지점(4)의 측정을 위해 적어도 하나인 것이 바람직할 것이다.
더 나아가, 물체 위치지점 측정 단계(S42)는 장애물(3a, 3b, 3c)와 실제 물체 간의 거리를 계산하기 위해 GPS, MEMs, Wi-fi, RFID, bluetooth, 지그비, 무선랜, Rader/Laser, LBS 중 적어도 하나가 사용되는 단계이기도 하다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
1: 초기맵,
2: 물체 위치영역,
3: 장애물,
4: 물체 위치지점,
10: 위치 측위 시스템,
100: 센서부,
110: 3D 라이더,
120: 비전 센서,
130: 초음파 센서,
200: 특징검출부,
210: 제1 특징검출부,
220: 제2 특징검출부,
230: 제3 특징검출부,
300: 데이터베이스부,
310: 3D 모델 데이터베이스,
320: 신 모델 데이터베이스,
330: 관계형 데이터베이스,
400: 퍼지매핑부,
410: 집합연산부,
420: 보정부,
430: 위치계산부,
440: 맵 생성부,
450: 퍼지제어부,
500: 위치측위부,
510: 위치영역 표시부,
520: 위치지점 측정부.

Claims (8)

  1. 이동되는 물체의 위치를 측위하기 위한 다종 센서 기반 위치인식 결과들을 혼합한 위치 측위 시스템에 있어서,
    상기 물체에 장착되며, 상기 물체의 주변에 위치한 장애물 정보를 감지하기 위한 다종 센서가 구성되는 센서부;
    상기 물체의 위치를 측위하기 위한 복수의 측위 정보가 저장되는 다종 데이터베이스가 구성되는 데이터베이스부;
    상기 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 상기 특징점과 상기 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 특징검출부;
    상기 특징값에 가중치를 부여하여 상기 특징값을 보정하며, 상기 보정된 특징값을 통해 상기 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지논리를 적용하여 상기 물체 위치 영역과 상기 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑부; 및
    상기 물체 위치 영역과 상기 장애물 위치가 반영된 맵으로부터 상기 물체의 위치를 측위하는 위치측위부;를 포함하고,
    상기 퍼지매핑부는,
    상기 특징값을 집합연산하도록 프로그래밍되는 집합연산부;
    상기 집합연산된 특징값간의 가중치를 산출하며, 상기 산출된 가중치를 상기 집합연산된 특징값에 부여하여 상기 집합연산된 특징값을 보정하는 보정부;
    상기 보정된 특징값으로 물체 위치영역값과 장애물 위치값을 계산하는 위치계산부;
    상기 물체 위치영역값과 상기 장애물 위치값이 계산될 때 상기 초기맵을 생성하는 맵 생성부; 및
    상기 퍼지논리를 적용하도록 프로그래밍되는 퍼지제어부;를 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  2. 제1항에 있어서,
    상기 다종 센서는,
    3D 라이더, 비전센서 및 초음파센서를 적어도 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  3. 제1항에 있어서,
    상기 다종 데이터베이스는,
    3D 모델 데이터베이스, 이미지 모델 데이터베이스 및 관계형 데이터베이스를 적어도 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  4. 삭제
  5. 제1항에 있어서,
    상기 보정부는,
    상기 집합연산된 특징값 중 상대적으로 많은 매칭 수행을 통해 검출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출하여 보정하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  6. 제1항에 있어서,
    상기 보정부는,
    상기 집합연산된 특징값 중 매칭 수행을 통해 상대적으로 많은 특징점이 추출된 특징값을 포함하는 집합연산된 특징값으로부터 상대적으로 높은 가중치를 산출하여 보정하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  7. 제1항에 있어서,
    상기 위치측위부는,
    상기 초기맵에 상기 물체 위치영역값에 따른 상기 물체 위치영역과 상기 장애물 위치값에 따른 장애물을 표시하는 표시부; 및
    상기 물체 위치영역 내에 표시된 장애물과 실제 물체 간의 거리를 계산하여 상기 물체 위치영역 내에 물체 위치지점을 측정하는 위치지점 측정부;를 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템.
  8. 이동되는 물체의 위치를 측위하기 위한 다종 센서 기반 위치인식 결과들을 혼합한 제1항에 따른 위치 측위 시스템에 의한 위치 측위 방법에 있어서,
    센서부에 의해 상기 물체의 주변에 위치한 장애물 정보를 감지하는 단계;
    특징검출부에 의해 상기 장애물 정보로부터 특징점을 추출하여 장애물을 인식하는 특징점 기반의 매칭 및 상기 특징점과 저장된 복수의 측위 정보를 비교하여 일치되는 특징점을 가지는 장애물을 인식하는 모델 기반의 매칭을 수행하여 특징값을 검출하는 단계;
    집합연산부에 의해 특징검출부에서 검출한 특징값을 계층 구조로 집합연산하고, 보정부에 의해 상기 특징값에 가중치를 부여하여 상기 특징값을 보정하며, 위치계산부에 의해 상기 보정된 특징값을 통해 상기 물체의 위치영역값과 장애물 위치값을 계산하고, 퍼지제어부에 의해 퍼지논리를 적용하여 맵 생성부에 의해 물체 위치영역과 장애물 위치가 반영될 초기맵을 생성하는 퍼지매핑 단계; 및
    위치측위부에 의해 상기 물체 위치 영역과 상기 장애물 위치가 반영된 맵으로부터 상기 물체의 위치를 측위하는 단계;를 포함하는 것을 특징으로 하는 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 방법.
KR1020180120261A 2018-10-10 2018-10-10 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 KR102075844B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180120261A KR102075844B1 (ko) 2018-10-10 2018-10-10 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
CN201980066879.0A CN112823321B (zh) 2018-10-10 2019-07-10 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法
PCT/KR2019/008478 WO2020075954A1 (ko) 2018-10-10 2019-07-10 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180120261A KR102075844B1 (ko) 2018-10-10 2018-10-10 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR102075844B1 true KR102075844B1 (ko) 2020-02-10

Family

ID=69627423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180120261A KR102075844B1 (ko) 2018-10-10 2018-10-10 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법

Country Status (3)

Country Link
KR (1) KR102075844B1 (ko)
CN (1) CN112823321B (ko)
WO (1) WO2020075954A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111665855A (zh) * 2020-08-03 2020-09-15 陕西理工大学 一种机器人预设性编队控制方法
KR20220158362A (ko) * 2021-05-24 2022-12-01 한국로봇융합연구원 고랑 인식 장치 및 방법
CN115576328A (zh) * 2022-11-15 2023-01-06 之江实验室 基于模糊控制器的机器人导航避障方法及装置
KR20230030354A (ko) 2021-08-25 2023-03-06 한국로봇융합연구원 주변 환경을 고려한 신뢰도 높은 다종의 센서 데이터를 융합한 위치 측위 장치 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249550A2 (en) * 2022-06-20 2023-12-28 Grabtaxi Holdings Pte. Ltd. Method and device for placing road objects on map using sensor information

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100108093A (ko) * 2009-03-27 2010-10-06 국방과학연구소 방향별 주행성 속도지도를 활용한 무인차량의 지역경로계획장치 및 방법
KR101255024B1 (ko) 2011-10-24 2013-04-17 한국과학기술연구원 초음파 센서를 이용한 상대적 위치 추정 시스템 및 방법
KR101532320B1 (ko) * 2014-04-18 2015-07-22 국방과학연구소 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법
KR20180079428A (ko) * 2015-11-02 2018-07-10 스타쉽 테크놀로지스 오 자동 로컬리제이션을 위한 장치 및 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100866380B1 (ko) * 2007-02-13 2008-11-03 한국과학기술연구원 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법
KR100937096B1 (ko) * 2008-02-27 2010-01-15 성균관대학교산학협력단 센서융합 시스템 및 센서융합 방법
JP2012085223A (ja) * 2010-10-14 2012-04-26 Nikon Corp 撮影条件生成装置、撮像装置および撮影条件生成プログラム
CN103176185B (zh) * 2011-12-26 2015-01-21 上海汽车集团股份有限公司 用于检测道路障碍物的方法及系统
WO2016103464A1 (ja) * 2014-12-26 2016-06-30 三菱電機株式会社 障害物検知装置及び障害物検知方法
KR20180007412A (ko) * 2016-07-13 2018-01-23 한국전자통신연구원 멀티센서 기반의 융합형 물체 감지 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100108093A (ko) * 2009-03-27 2010-10-06 국방과학연구소 방향별 주행성 속도지도를 활용한 무인차량의 지역경로계획장치 및 방법
KR101255024B1 (ko) 2011-10-24 2013-04-17 한국과학기술연구원 초음파 센서를 이용한 상대적 위치 추정 시스템 및 방법
KR101532320B1 (ko) * 2014-04-18 2015-07-22 국방과학연구소 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법
KR20180079428A (ko) * 2015-11-02 2018-07-10 스타쉽 테크놀로지스 오 자동 로컬리제이션을 위한 장치 및 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111665855A (zh) * 2020-08-03 2020-09-15 陕西理工大学 一种机器人预设性编队控制方法
CN111665855B (zh) * 2020-08-03 2022-08-30 陕西理工大学 一种机器人预设性编队控制方法
KR20220158362A (ko) * 2021-05-24 2022-12-01 한국로봇융합연구원 고랑 인식 장치 및 방법
KR102541755B1 (ko) 2021-05-24 2023-06-12 한국로봇융합연구원 고랑 인식 장치 및 방법
KR20230030354A (ko) 2021-08-25 2023-03-06 한국로봇융합연구원 주변 환경을 고려한 신뢰도 높은 다종의 센서 데이터를 융합한 위치 측위 장치 및 방법
KR102558910B1 (ko) * 2021-08-25 2023-07-21 한국로봇융합연구원 주변 환경을 고려한 신뢰도 높은 다종의 센서 데이터를 융합한 위치 측위 장치 및 방법
CN115576328A (zh) * 2022-11-15 2023-01-06 之江实验室 基于模糊控制器的机器人导航避障方法及装置

Also Published As

Publication number Publication date
CN112823321B (zh) 2024-04-16
CN112823321A (zh) 2021-05-18
WO2020075954A1 (ko) 2020-04-16

Similar Documents

Publication Publication Date Title
KR102075844B1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
US11127203B2 (en) Leveraging crowdsourced data for localization and mapping within an environment
US10096129B2 (en) Three-dimensional mapping of an environment
US7627447B2 (en) Method and apparatus for localizing and mapping the position of a set of points on a digital model
Westman et al. Feature-based SLAM for imaging sonar with under-constrained landmarks
US20150235367A1 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
Yang et al. Vision‐based localization and robot‐centric mapping in riverine environments
CN112740274A (zh) 在机器人设备上使用光流传感器进行vslam比例估计的系统和方法
Lowe et al. Complementary perception for handheld slam
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
Bozorg et al. A new adaptive UKF algorithm to improve the accuracy of SLAM
Ishihara et al. Beacon-guided structure from motion for smartphone-based navigation
Sels et al. 3D model assisted fully automated scanning laser Doppler vibrometer measurements
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
US11561553B1 (en) System and method of providing a multi-modal localization for an object
JP2019075037A (ja) 情報処理装置、情報処理方法、およびプログラム
Chen et al. Perception system design for low-cost commercial ground robots: Sensor configurations, calibration, localization and mapping
Hu et al. Tescalib: Targetless extrinsic self-calibration of lidar and stereo camera for automated driving vehicles with uncertainty analysis
Azri et al. Visual analytics of 3D LiDAR point clouds in robotics operating systems
Wan et al. Enhance accuracy: Sensitivity and uncertainty theory in LiDAR odometry and mapping
Rossmann et al. Semantic navigation maps for mobile robot localization on planetary surfaces
Ölmez et al. Metric scale and angle estimation in monocular visual odometry with multiple distance sensors
Fitzgibbons et al. Application of vision in simultaneous localization and mapping
KR102558910B1 (ko) 주변 환경을 고려한 신뢰도 높은 다종의 센서 데이터를 융합한 위치 측위 장치 및 방법
Baligh Jahromi et al. Layout slam with model based loop closure for 3d indoor corridor reconstruction

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant