KR101850835B1 - 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법 - Google Patents
광선추적법을 이용한 이동 로봇의 실내 위치 추정방법 Download PDFInfo
- Publication number
- KR101850835B1 KR101850835B1 KR1020120157843A KR20120157843A KR101850835B1 KR 101850835 B1 KR101850835 B1 KR 101850835B1 KR 1020120157843 A KR1020120157843 A KR 1020120157843A KR 20120157843 A KR20120157843 A KR 20120157843A KR 101850835 B1 KR101850835 B1 KR 101850835B1
- Authority
- KR
- South Korea
- Prior art keywords
- mobile robot
- image
- estimating
- distance information
- ceiling
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 발명은 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법에 관한 것으로서, 더욱 상세하게는 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하고, 획득된 영상 데이터를 이진화하여 영상에 존재하는 윤곽선을 추출한 후, 광선추적법을 통해 상기 영상의 중심점에서부터 추출된 각각의 윤곽선까지의 픽셀거리 데이터를 획득하여, 각 픽셀 당 거리정보를 바탕으로 획득된 픽셀거리 데이터의 실제 거리정보를 산출하여, 산출된 각각의 윤곽선까지의 거리정보를 이용하여 위치추정 알고리즘을 통해 이동 로봇의 실내 위치정보를 추정함으로써, 기존의 복잡한 영상처리 과정 없이도 이동 로봇의 실내 위치정보를 보다 신속하고 정확하게 추정할 수 있는 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법에 관한 것이다.
이를 위하여 본 발명은, 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하는 단계; 상기 획득된 영상 데이터를 이진화하여 영상 이미지의 윤곽선을 추출하는 단계; 상기 영상의 중심점을 파악하고, 파악된 중심점으로부터 소정 각도 간격으로 각각의 개별 윤곽선까지의 픽셀 수를 카운팅하여 픽셀거리 데이터를 획득하는 단계; 상기 획득된 픽셀거리 데이터에 미리 설정된 픽셀 당 거리정보를 적용하여 상기 중심점으로부터 각각의 개별 윤곽선에 이르는 실제 거리정보를 산출하는 단계; 상기 산출된 거리정보를 확률기반 위치추정 알고리즘에 적용하여 이동 로봇의 위치를 추정하는 단계;를 포함하여 구성되는 것을 특징으로 한다.
이를 위하여 본 발명은, 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하는 단계; 상기 획득된 영상 데이터를 이진화하여 영상 이미지의 윤곽선을 추출하는 단계; 상기 영상의 중심점을 파악하고, 파악된 중심점으로부터 소정 각도 간격으로 각각의 개별 윤곽선까지의 픽셀 수를 카운팅하여 픽셀거리 데이터를 획득하는 단계; 상기 획득된 픽셀거리 데이터에 미리 설정된 픽셀 당 거리정보를 적용하여 상기 중심점으로부터 각각의 개별 윤곽선에 이르는 실제 거리정보를 산출하는 단계; 상기 산출된 거리정보를 확률기반 위치추정 알고리즘에 적용하여 이동 로봇의 위치를 추정하는 단계;를 포함하여 구성되는 것을 특징으로 한다.
Description
본 발명은 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법에 관한 것으로서, 더욱 상세하게는 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하고, 획득된 영상 데이터를 이진화하여 영상에 존재하는 윤곽선을 추출한 후, 광선추적법을 통해 상기 영상의 중심점에서부터 추출된 각각의 윤곽선까지의 픽셀거리 데이터를 획득하여, 각 픽셀 당 거리정보를 바탕으로 획득된 픽셀거리 데이터의 실제 거리정보를 산출하여, 산출된 각각의 윤곽선까지의 거리정보를 이용하여 위치추정 알고리즘을 통해 이동 로봇의 실내 위치정보를 추정함으로써, 기존의 복잡한 영상처리 과정 없이도 이동 로봇의 실내 위치정보를 보다 신속하고 정확하게 추정할 수 있는 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법에 관한 것이다.
실내 공간에서 자율 이동하는 이동 로봇의 위치를 파악하기 위해 사용되고 있는 기술로는, 먼저, 실내 환경의 천장에 일정 간격으로 다수개의 인공표식을 설치하고, 이동 로봇에 장착된 카메라(비전)로 천장을 촬영하여 촬영한 영상에 나타나는 인공표식을 확인함으로써 이동 로봇의 위치를 추정하는 방법을 들 수 있다.
그러나, 상술한 바와 같은 인공표식을 이용한 위치추정 방법은 천장에 카메라가 확인할 수 있는 인공표식을 일정간격으로 부착하여 이를 기반으로 위치를 추정하는 바, 커버 영역이 넓을 경우에는 천장에 많은 수의 인공표식을 사용해야 하므로 작업 영역의 크기에 따른 인공표식 개수 및 설치비용이 증가하는 문제점이 있다.
이에 따라, 최근에는 이동 로봇에 장착된 카메라로 천장을 촬영하고, 피처링(featuring) 과정을 통해 촬영한 영상에 나타나는 특징적 패턴을 추출하여 로봇에 미리 저장된 이동 공간 천장의 패턴 맵과 매칭함으로써, 이동 로봇의 위치를 추정하는 방법이 개발되었다.
그러나, 이와 같은 패턴 추출 방법을 적용하기 위해서는 카메라를 통해 획득된 천장의 이미지로부터 피처링 과정을 통해 점, 선, 원 등의 다양한 패턴을 추출하여 미리 저장되어 있는 천장의 패턴 맵 정보와 매칭하여 위치를 추정하는 바, 획득된 이미지 데이터로부터 이와 같은 특징적 패턴을 추출하기 위해서는 데이터 처리 과정에서 상당히 많은 연산량이 요구되며, 동시에 저장된 천장의 패턴 맵 정보와의 매칭에 있어서도 수많은 연산 과정이 필요하게 되어 전체적으로 위치 파악에 소요되는 시간과 비용이 증가하는 문제점이 있으며, 또한, 천장 조명 등의 외부적 요인에 따라 특징적 패턴의 추출이 실패하게 되는 경우가 종종 발생하게 되는 문제점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하고, 획득된 영상 데이터를 이진화하여 영상에 존재하는 윤곽선을 추출한 후, 광선추적법을 통해 상기 영상의 중심점에서부터 추출된 각각의 윤곽선까지의 픽셀거리 데이터를 획득하여, 각 픽셀 당 거리정보를 바탕으로 획득된 픽셀거리 데이터의 실제 거리정보를 산출하여, 산출된 각각의 윤곽선까지의 거리정보를 이용하여 위치추정 알고리즘을 통해 이동 로봇의 실내 위치정보를 추정함으로써, 기존의 복잡한 영상처리 과정 없이도 이동 로봇의 실내 위치정보를 보다 신속하고 정확하게 추정하는 데에 있다.
상기와 같은 목적을 달성하기 위한 본 발명은, 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하는 단계; 상기 획득된 영상 데이터를 이진화하여 영상 이미지의 윤곽선을 추출하는 단계; 상기 영상의 중심점을 파악하고, 파악된 중심점으로부터 소정 각도 간격으로 각각의 개별 윤곽선까지의 픽셀 수를 카운팅하여 픽셀거리 데이터를 획득하는 단계; 상기 획득된 픽셀거리 데이터에 미리 설정된 픽셀 당 거리정보를 적용하여 상기 중심점으로부터 각각의 개별 윤곽선에 이르는 실제 거리정보를 산출하는 단계; 상기 산출된 거리정보를 확률기반 위치추정 알고리즘에 적용하여 이동 로봇의 위치를 추정하는 단계;를 포함하여 구성되는 것을 특징으로 한다.
본 발명에 따른 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법은 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하고, 획득된 영상 데이터를 이진화하여 영상에 존재하는 윤곽선을 추출한 후, 광선추적법을 통해 상기 영상의 중심점에서부터 추출된 각각의 윤곽선까지의 픽셀거리 데이터를 획득하여, 각 픽셀당 거리정보를 바탕으로 획득된 픽셀거리 데이터의 실제 거리정보를 산출하여, 산출된 각각의 윤곽선까지의 거리정보를 이용하여 위치추정 알고리즘을 통해 이동 로봇의 실내 위치정보를 추정함으로써, 기존의 복잡한 영상처리 과정 없이도 이동 로봇의 실내 위치정보를 보다 신속하고 정확하게 추정할 수 있는 효과가 있다.
도 1은 본 발명에 따른 이동 로봇의 천장촬영 방법을 설명하기 위한 도면.
도 2는 본 발명에 따라 이동 로봇이 촬영한 천장의 영상 이미지를 예시적으로 보여주는 도면.
도 3은 본 발명에 따른 이진화 영상에서 추출된 구조물의 윤곽선을 보여주는 도면.
도 4는 본 발명에 적용되는 광선추적법을 이용한 거리측정 방법을 설명하기 위한 도면.
도 5는 본 발명의 일실시예에 따른 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법을 설명하기 위한 순서도.
도 2는 본 발명에 따라 이동 로봇이 촬영한 천장의 영상 이미지를 예시적으로 보여주는 도면.
도 3은 본 발명에 따른 이진화 영상에서 추출된 구조물의 윤곽선을 보여주는 도면.
도 4는 본 발명에 적용되는 광선추적법을 이용한 거리측정 방법을 설명하기 위한 도면.
도 5는 본 발명의 일실시예에 따른 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법을 설명하기 위한 순서도.
이하, 본 발명의 바람직한 실시예를 첨부 도면에 의거하여 상세하게 설명하기로 한다.
먼저, 도 1에서와 같이, 이동 로봇(10)의 실내 위치를 추정하고자 하는 경우, 본 발명이 적용되는 이동 로봇은 자신에게 구비된 카메라를 통해 천장의 영상을 촬영한다.
이때, 천장에는 조명기구나 스프링쿨러 등의 구분 가능한 천장 설치물(20)이 형성될 수 있으며, 또는 특정 형상의 구획선(미도시) 등이 설정되어 있을 수 있다.
이에 따라, 카메라를 통해 촬영된 천장의 영상에는 도 2에 도시된 바와 같이, 천장에 설치된 조명기구, 스프링쿨러 등의 천장 설치물(20)에 대한 영상 이미지(30)가 포함되며, 또는 앞에서 언급한 천장의 구획선이나 벽면과의 경계선 등이 포함될 수 있다.
도 2에 도시된 바와 같이, 천장의 영상이 획득되면, 영상의 화질을 개선하기 위한 영상 전처리 과정이 수행되게 되는데, 이때 적용되는 대표적 전처리 방법으로는 히스토그램 평활화 및 스트레칭 처리 기법이 적용될 수 있다.
이때, 영상 획득 과정에서의 노이즈 개입을 최소화하기 위해, 촬영을 위한 노출 시간은 되도록 짧게 설정하는 것이 바람직하며, 또한 천장을 넓게 촬영하기 위해 광각렌즈를 사용하는 경우에는, 촬영된 이미지에서 왜곡이 발생할 수 있으므로 이에 대한 보정이 수반되어야 한다.
상술한 바와 같은 영상 전처리 이후에는, 상기 전처리된 영상에 이진화 기법을 적용하여, 이진화된 흑백 영상을 획득한다.
이때, 적용되는 이진화 기법은 Sobel 및 Prewitt 등 일반적으로 쓰이는 다양한 이진화 알고리즘이 적용될 수 있다.
도 3은, 상술한 과정을 통해 이진화된 영상에서 추출된 구조물의 윤곽선(11)을 보여주는 도면이다.
이후, 도 4에 도시된 바와 같이, 구조물의 운곽선(11)이 추출된 영상의 중심점(13)을 파악하고, 파악된 중심점(13)에서부터 주변에 나타나는 각각의 윤곽선(11)에 대한 거리를 측정하게 된다.
상기, 추출된 영상의 중심점(13)은, 즉, 이동 로봇의 현재 위치 직상방의 천장 위치가 되며, 이에 따라 상기 중심점으로부터 각각의 윤곽선(11)에 이르는 거리를 파악함으로써 이동 로봇의 현재 위치를 파악할 수 있게 된다.
여기서, 중심점(13)으로부터 각각의 윤곽선(11)에 이르는 거리를 측정함에 있어서는 광선추적법(ray tracing)이 적용되는데, 광선추적법이란 컴퓨터 그래픽의 영상화 기법의 하나로서, 계산의 효율화를 위해 화소에 닿는 광선만을 거꾸로 추적해 대상물에 의한 광선의 경로도를 생성하는 방법이며, 이러한 광선추적법을 통해 영상 중심점(13)에서 각 각도별 윤곽선까지의 픽셀거리 데이터를 획득하게 된다.
즉, 영상의 중심점(13)으로부터 각각의 윤곽선(11)에 닿는 광선들(14)을 추적하여, 해당 광선의 경로에 존재하는 픽셀들의 수를 카운팅함으로써, 영상 중심점(13)에서 각 각도별 윤곽선까지의 픽셀거리 데이터를 얻을 수 있다.
이후, 획득된 픽셀거리 데이터에 미리 설정되어 있는 픽셀 당 거리정보를 적용하여 영상 중심점(13)으로부터 각각의 윤곽선에 이르는 실제 거리정보를 산출하고, 이를 이용하여 위치추정 알고리즘을 통해 이동 로봇의 실제 위치정보를 추정하게 된다.
여기서, 위치추정에 적용되는 알고리즘은 몬테카를로 위치추정 또는 확장 칼만필터 위치추정 방법과 같은 확률기반 위치추정 알고리즘 등이 적용될 수 있으며, 이들 위치추정 알고리즘들은 모두 널리 알려져 쓰이고 있는 공지 기술이므로 이에 대한 상세한 설명은 생략하기로 한다.
상술한 바와 같이, 본 발명에 따른 이동 로봇의 실내 위치 추정방법은 획득된 영상 데이터를 이진화하여 영상에 존재하는 윤곽선을 추출한 후, 광선 추적법을 통해 상기 영상의 중심점에서부터 각각의 윤곽선에 닿는 광선들을 추적하여, 해당 관선의 경로에 존재하는 픽셀들의 수를 카운팅함으로써, 기존의 복잡한 영상처리 과정 없이도 이동 로봇의 실내 위치정보를 보다 신속하고 정확하게 추정할 수 있다.
도 5는 본 발명의 일실시예에 따른 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법을 설명하기 위한 순서도 이다.
도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법은 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득한다.(S100)
이때, 카메라를 통해 촬영된 천장의 영상에는 천장에 설치된 조명기구, 스프링쿨러 등의 천장 설치물이 포함되며, 또는 천장의 구획선이나 벽면과의 경계선 등이 포함될 수 있다.
이후, 촬영된 영상의 화질을 개선하기 위한 영상 전처리 과정인 히스토그램 평활화 및 스트레칭 처리 기법이 진행된다.(S110)
그리고, 전처리된 영상에 Sobel 및 Prewitt 등의 이진화 기법을 적용하여, 이진화된 흑백 영상을 획득하고, 획득된 이진화 영상에서 구조물의 윤곽선을 추출한다.(S120)
이후, 구조물의 윤곽선이 추출된 영상의 중심점을 파악하고, 파악된 중심점으로부터 각각의 윤곽선에 닿는 광선들을 추적하여, 해당 광선의 경로에 존재하는 픽셀들의 수를 카운팅함으로써, 영상 중심점에서 각 각도별 윤곽선까지의 픽셀거리 데이터를 획득한다.(S130)
이후, 미리 설정되어 있는 픽셀 당 거리정보를 적용하여 영상 중심점으로부터 각각의 윤곽선에 이르는 실제 거리정보를 산출한다.(S140)
이렇게 산출된 실제 거리정보를 몬테카를로 위치추정 또는 확장 칼만필터 위치주정 방법과 같은 확률기반 위치추정 알고리즘 등에 적용하여 이동 로봇의 위치를 추정한다.(S150)
상술한 바와 같이, 본 발명에 따른 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법은 이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하고, 획득된 영상 데이터를 이진화하여 영상에 존재하는 윤곽선을 추출한 후, 광선추적법을 통해 상기 영상의 중심점에서부터 추출된 각각의 윤곽선까지의 픽셀거리 데이터를 획득하여, 각 픽셀 당 거리정보를 바탕으로 획득된 픽셀거리 데이터의 실제 거리정보를 산출하여, 산출된 각각의 윤곽선까지의 거리정보를 이용하여 위치추정 알고리즘을 통해 이동 로봇의 실내 위치정보를 추정함으로써, 기존의 복잡한 영상처리 과정 없이도 이동 로봇의 실내 위치정보를 보다 신속하고 정확하게 추정할 수 있는 효과가 있다.
이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경할 수 있다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백하다 할 것이다.
10 : 이동 로봇 11 : 윤곽선
13 : 영상의 중심점 14 : 윤곽선에 닿는 광선들
20 : 천장 설치물 30 : 천장 설치물에 대한 영상 이미지
13 : 영상의 중심점 14 : 윤곽선에 닿는 광선들
20 : 천장 설치물 30 : 천장 설치물에 대한 영상 이미지
Claims (6)
- 이동 로봇의 실내 위치 추정방법에 있어서,
이동 로봇에 구비된 카메라를 통해 천장의 영상 데이터를 획득하는 단계;
상기 획득된 영상 데이터를 이진화하여 영상 이미지의 윤곽선을 추출하는 단계;
상기 영상의 중심점을 파악하고, 파악된 중심점으로부터 소정 각도 간격으로 각각의 개별 윤곽선까지의 픽셀 수를 카운팅하여 픽셀거리 데이터를 획득하는 단계;
상기 획득된 픽셀거리 데이터에 미리 설정된 픽셀 당 거리정보를 적용하여 상기 중심점으로부터 각각의 개별 윤곽선에 이르는 실제 거리정보를 산출하는 단계;
상기 산출된 거리정보를 확률기반 위치추정 알고리즘에 적용하여 이동 로봇의 위치를 추정하는 단계;
를 포함하여 구성되는 것을 특징으로 하는 이동 로봇의 실내 위치 추정방법. - 제 1항에 있어서,
상기 천장의 영상 데이터를 획득하는 단계 이후에,
상기 획득된 영상 데이터를 전처리하는 단계를 추가로 포함하는 것을 특징으로 하는 이동 로봇의 실내 위치 추정방법. - 제 2항에 있어서,
상기 영상을 전처리하는 단계에서는,
히스토그램 평활화 기법 및 히스토그램 스트레칭 기법을 이용하여 영상을 전처리하는 것을 특징으로 하는 이동 로봇의 실내 위치 추정방법. - 제 1항에 있어서,
상기 획득된 영상 데이터를 이진화하여 영상 이미지의 윤곽선을 추출하는 단계에서는,
Sobel 이진화 알고리즘 또는 Prewitt 이진화 알고리즘이 적용되는 것을 특징으로 하는 이동 로봇의 실내 위치 추정방법. - 제 1항에 있어서,
상기 확률기반 위치추정 알고리즘에는,
몬테카를로 위치추정 알고리즘 또는 확장 칼만필터 위치추정 알고리즘이 적용되는 것을 특징으로 하는 이동 로봇의 실내 위치 추정방법. - 제 1항에 있어서,
상기 천장의 영상 데이터를 획득하는 단계에서 광각렌즈가 적용된 카메라를 사용하는 경우,
촬영된 이미지의 왜곡을 보정하는 단계가 추가로 수행되는 것을 특징으로 하는 이동 로봇의 실내 위치 추정 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120157843A KR101850835B1 (ko) | 2012-12-31 | 2012-12-31 | 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120157843A KR101850835B1 (ko) | 2012-12-31 | 2012-12-31 | 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140087485A KR20140087485A (ko) | 2014-07-09 |
KR101850835B1 true KR101850835B1 (ko) | 2018-05-30 |
Family
ID=51736400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120157843A KR101850835B1 (ko) | 2012-12-31 | 2012-12-31 | 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101850835B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210085717A (ko) | 2019-12-31 | 2021-07-08 | 한국기술교육대학교 산학협력단 | 반도체 공장용 위치보정방법 |
US11797020B1 (en) * | 2020-10-16 | 2023-10-24 | Amazon Technologies, Inc. | System for autonomous mobile device motion control using image data |
KR20240121567A (ko) | 2023-02-02 | 2024-08-09 | (주) 오로스테크놀로지 | 높은 정확도의 픽셀 캘리브레이션 장치 및 방법 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102047303B1 (ko) * | 2018-06-01 | 2019-11-21 | 엘지전자 주식회사 | 저조도 영상 내 소실점에 기반하여 방향을 추정하는 로봇 및 방법 |
KR20210087766A (ko) | 2020-01-03 | 2021-07-13 | 포테닛 주식회사 | 실내 공간 내에서 이송로봇의 이동경로 확인방법 |
KR102252888B1 (ko) | 2020-01-03 | 2021-05-17 | 포테닛 주식회사 | 공간 내에서 이송로봇의 위치 검출장치 및 방법 |
ES2954483T3 (es) * | 2020-03-16 | 2023-11-22 | Zeiss Carl Vision Int Gmbh | Métodos y dispositivos implementados por ordenador para determinar las dimensiones y distancias de las características de la cabeza |
CN113822095B (zh) * | 2020-06-02 | 2024-01-12 | 苏州科瓴精密机械科技有限公司 | 基于图像识别工作位置的方法、系统,机器人及存储介质 |
KR20240124058A (ko) | 2023-02-08 | 2024-08-16 | 한국전자통신연구원 | 이동체의 위치 추정 방법 및 장치 |
-
2012
- 2012-12-31 KR KR1020120157843A patent/KR101850835B1/ko active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210085717A (ko) | 2019-12-31 | 2021-07-08 | 한국기술교육대학교 산학협력단 | 반도체 공장용 위치보정방법 |
US11797020B1 (en) * | 2020-10-16 | 2023-10-24 | Amazon Technologies, Inc. | System for autonomous mobile device motion control using image data |
KR20240121567A (ko) | 2023-02-02 | 2024-08-09 | (주) 오로스테크놀로지 | 높은 정확도의 픽셀 캘리브레이션 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20140087485A (ko) | 2014-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101850835B1 (ko) | 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법 | |
JP6125188B2 (ja) | 映像処理方法及び装置 | |
EP2608536B1 (en) | Method for counting objects and apparatus using a plurality of sensors | |
KR102354299B1 (ko) | 단일 영상을 이용한 카메라 캘리브레이션 방법 및 이를 위한 장치 | |
JP2017528731A5 (ko) | ||
US9576204B2 (en) | System and method for automatic calculation of scene geometry in crowded video scenes | |
JP5672112B2 (ja) | ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム | |
JP2006105661A (ja) | ステレオ画像による平面推定方法 | |
CN103400379A (zh) | 一种基于图像的覆冰检测和厚度估计方法 | |
CN107016348A (zh) | 结合深度信息的人脸检测方法、检测装置和电子装置 | |
US20110103646A1 (en) | Procede pour generer une image de densite d'une zone d'observation | |
KR101469099B1 (ko) | 사람 객체 추적을 통한 자동 카메라 보정 방법 | |
JP2014170368A (ja) | 画像処理装置、方法及びプログラム並びに移動体 | |
US11801604B2 (en) | Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof | |
Hernández et al. | Stairway detection based on single camera by motion stereo | |
JP7448035B2 (ja) | 情報処理装置、3次元位置推定方法、及びプログラム | |
CN104346614B (zh) | 一种实景下的西瓜图像处理和定位方法 | |
KR101636389B1 (ko) | 케이블 하네스 자동 검사 방법 | |
CN111145254B (zh) | 一种基于双目视觉的门阀毛坯定位方法 | |
CA2994645C (en) | Step detection device and step detection method | |
CN107339988B (zh) | 定位处理方法和装置 | |
JP2012248004A (ja) | 画像処理装置、画像認識装置及び方法 | |
CN103455998A (zh) | 视频图像中阴影的检测方法及装置 | |
KR101305405B1 (ko) | 측면의 랜드마크를 인식하는 지능형 이동로봇의 위치인식 방법 | |
US10331977B2 (en) | Method for the three-dimensional detection of objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |