KR100262182B1 - 무인 이동 물체의 비젼 센서 장치와 이를 이용한 위치 추정방법 - Google Patents

무인 이동 물체의 비젼 센서 장치와 이를 이용한 위치 추정방법 Download PDF

Info

Publication number
KR100262182B1
KR100262182B1 KR1019980002694A KR19980002694A KR100262182B1 KR 100262182 B1 KR100262182 B1 KR 100262182B1 KR 1019980002694 A KR1019980002694 A KR 1019980002694A KR 19980002694 A KR19980002694 A KR 19980002694A KR 100262182 B1 KR100262182 B1 KR 100262182B1
Authority
KR
South Korea
Prior art keywords
brightness information
moving object
unmanned moving
omnidirectional
vision sensor
Prior art date
Application number
KR1019980002694A
Other languages
English (en)
Other versions
KR19990066624A (ko
Inventor
권욱현
하선우
김동성
이현철
김기응
Original Assignee
권욱현
하선우
김동성
이현철
김기응
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 권욱현, 하선우, 김동성, 이현철, 김기응 filed Critical 권욱현
Priority to KR1019980002694A priority Critical patent/KR100262182B1/ko
Publication of KR19990066624A publication Critical patent/KR19990066624A/ko
Application granted granted Critical
Publication of KR100262182B1 publication Critical patent/KR100262182B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/08Mirrors
    • G02B5/10Mirrors with curved faces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 무인 이동 물체의 비젼 시스템에서의 비젼 센서 장치와 이를 이용한 위치 추정 방법에 관한 것으로서, 본 발명에 의한 무인 이동 물체의 비젼 시스템에서의 비젼 센서 장치는, 상기 무인 이동 물체의 주변의 빛을 반사하는 반구형 거울면, 상기 반구형 거울면의 투명 하우징, 상기 투명 하우징을 지지하기 위한 지지대, 및 상기 반구형 거울면에 반사된 주변의 빛을 촬영하는 CCD 카메라를 포함하는 것임을 특징으로 한다. 본 발명에서는 반구형 거울면으로서 용이하게 구할 수 있는 사용할 수 없는 폐 연극용 인젝션 전구를 재활용함으로써 제작이 용이한 장점과 비용 절감의 장점이 있다.

Description

무인 이동 물체의 비젼 센서 장치와 이를 이용한 위치 추정 방법
본 발명은 무인 이동 물체의 비젼 시스템에서의 비젼 센서 장치와 이를 이용한 위치 추정 방법에 관한 것이다.
자율 주행 로봇과 같은 무인 이동 물체의 비젼 시스템은 그 속성상 센서가 필수적으로 사용되는데, 특히 초음파 센서와 비젼 센서가 가장 널리 사용된다.
초음파 센서는 거리를 간단하게 알아낼 수 있다는 장점이 있지만, 공기를 매질로 전파되고 비교적 파장이 긴 초음파를 이용하므로, 초음파 센서를 이용하여 수집된 정보는 해상도가 낮다. 이를 보완하기 위하여 복수개의 초음파 센서들을 복합적으로 사용하기도 하지만, 여전히 해상도가 낮아서 로봇이 주행하면서 생기는 작은 방향 오차를 찾아내기 힘들어서, 나아가야할 방향과 실제로 나아가고 있는 방향이 이루는 각도가 대체로 약 5°이내이다. 따라서, 로봇이 똑바로 주행하도록 하기 위하여는 방향 오차를 매우 정확하게 계산할 수 있어야 하고, 그러기 위하여 해상도가 큰 센서를 사용하는 것이 필수적이다. 초음파 센서보다 해상도가 큰 센서로는 비젼 센서가 있다. 무인 이동 물체의 이동을 위하여는 일반적으로 상기한 초음파 센서와 비젼 센서가 모두 사용된다.
도1은 일반적인 무인 이동 물체의 비젼 시스템의 블록 구성도이다.
도1에 도시된 바와 같이, 초음파 센서에 비하여 해상도가 큰 비젼 센서는 PC(10)의 확장 슬롯에 설치된 비젼 센서 보드(11)와 비젼 센서(12)를 사용한다. 비젼 센서(12)는 일반적으로 CCD 카메라를 포함한다. 상기 PC(10)는 로봇의 구동을 담당하는 VME 보드(13)와 연결된다. 또한, 초음파 센서(15)와 초음파 센서 보드(16)를 포함하여 비젼 센서를 보완한다.
본 발명은 도1에서 CCD 카메라를 포함하는 비젼 센서부(12)를 구현하는 하드웨어적 장치와 이를 이용하여 무인 이동 물체가 이동시 위치 추정 방법에 관한 것이다.
본 발명은 무인 이동 물체의 비젼 시스템에서의 비젼 센서 장치에 관한 것으로서, 주위의 밝기 데이터를 이용하여 무인 이동 물체의 위치를 파악할 수 있도록 하는 비젼 센서 장치와 이를 이용한 위치 추정 방법을 제안하는 것을 그 목적으로 한다.
도1은 일반적인 무인 이동 물체의 비젼 시스템의 블록 구성도,
도2는 본 발명의 일실시예에 의한 비젼 센서 장치의 구성도,
도3은 인젝션 전구를 고정하기 위한 고정대의 일실시예,
도4 및 도5는, 도2와 같이 구성된 본 발명에 의한 비젼 센서 장치가 무인 이동 물체에 부착되는 것을 설명하는 도면,
도6은 CCD 카메라에 의하여 얻어진 실제 영상 이미지,
도7은 밝기 정보에 의한 벡터들을 극좌표에 표시한 것,
도8은 카메라로부터 얻어진 이미지의 밝기 정보를 극좌표상에 그래프로 표시한 것,
도9은 임의의 지점에서 해당 지점의 전방향 밝기 정보를 저장한 후, 무인 이동 물체를 -24°자전시킨 것을 표시한 것,
도10는 저장된 전방향 밝기 정보의 m-값을 그래프로 표시한 것이고,
도11은 무인 이동 물체가 자전한 후의 전방향 밝기 정보에 대한 m-값과 저장된 전방향 밝기 정보를 겹쳐서 그린 것,
도12은 무인 이동 물체의 병진 운동시 20㎝ 지점에서의 그래프,
도13는 무인 이동 물체의 병진 운동시 40㎝ 지점에서의 그래프.
* 도면의 주요한 부분에 대한 부호의 설명 *
20 : 반구형 거울면 21 : 투명 하우징
22 : 지지대 23 : CCD 카메라
30 : 구형 인젝션 전구 31 : 고정판
32 : 프레임
40, 50 : 상판 41 : 금속제 L형 버팀쇠들
51, 52 : 아크릴부재 53 : 볼트
54 : 너트
상기한 목적을 달성하기 위하여, 본 발명에 의한 무인 이동 물체의 비젼 시스템에서의 비젼 센서 장치는, 상기 무인 이동 물체의 주변의 빛을 반사하는 반구형 거울면, 상기 반구형 거울면의 투명 하우징, 상기 투명 하우징을 지지하기 위한 지지대, 및 상기 반구형 거울면에 반사된 주변의 빛을 촬영하는 CCD 카메라를 포함하는 것임을 특징으로 한다.
상기한 비젼 센서 장치에서, 상기 반구형 거울면은 전구의 반 쪽의 반사를 방지하기 위하여 전구의 반구가 거울면인 인젝션 전구를 사용할 수 있다.
상기한 목적을 달성하기 위한 본 발명에 의한 위치 추정 방법은, 무인 이동 물체의 초기 주행시 총 주행 구간 중 여러 개의 중간 목표점인 체크 포인트에서 주위 환경에 대한 정보를 수집하는 단계; 주행시 도달 했어야할 체크 포인트에서의 전방향 밝기 정보를 읽는 단계; 현재 위치에서의 전방향 밝기 정보와 상기 단계에서 얻어진 전방향 밝기 정보의 일치 여부를 판단하는 단계; 상기 단계의 판단 결과, 일치하지 않으면 초음파 센서와 모터 인코더에 의존하여 주행하는 단계; 상기 단계에서 판단 결과, 일치하면 카메라로부터 읽어 들인 밝기 정보를 이용하여 벡터를 만드는 단계; 상기 벡터의 방위각을 구하여 방위각 부호 행벡터를 만드는 단계; 현재 위치에서의 방위각 부호 행벡터와 도달했어야할 체크포인트에서의 방위각 부호 행벡터를 오프셋값만큼 시프트시킨 행벡터의 내적값을 구하는 단계; 상기 내적값이 최대인 오프셋값을 방향 오차로 설정하는 단계; 상기 단계에서 설정된 방향 오차를 이용하여 두 밝기 정보가 일치하는지를 판단하는 단계; 및 상기 단계에서의 판단 결과 일치하는 경우에는 상기 오프셋값을 방향 오차의 보정에 사용하고, 일치하지 않는 경우에는 초음파 센서와 모터 인코더에 의존하여 주행하는 단계를 포함한다.
상기한 위치 추정 방법에서, 두 밝기 정보가 일치하는지를 판단하는 단계는, 현재 위치의 전방향 밝기 정보와 도달했어야 할 체크포인트의 전방향 밝기 정보 중 하나를 방향 오차인 오프셋값만큼 시프트하여, 두 전방향 밝기 정보의 각 원소의 차가 일정한 범위안에 있으면 일치하는 것으로 판단하는 것임을 특징으로 한다.
상기한 위치 추정 방법에서, 두 전방향 밝기 정보의 각 원소의 차가 일정한 범위안에 있지 않아서 두 밝기 정보가 일치 하지 않는 것으로 판단하는 경우, 해당 지점의 벡터가 가지는 방위가 0°에 가까우면 일치하지 않는 것으로 판단하고, 90°에 가까우면 두 밝기 정보를 벡터적으로 비교하여 일치 또는 불일치를 판단하는 것임을 특징으로 한다.
이하에서 첨부된 도면을 참조하면서 본 발명의 바람직한 일실시예들을 상세하게 설명한다.
도2는 본 발명의 일실시예에 의한 비젼 센서 장치의 구성도이다.
도2에 도시된 바와 같이, 본 발명에 의한 비젼 센서 장치는 주변의 빛을 반사하는 반구형 거울면(20), 상기 반구형 거울면(20)의 투명 하우징(21), 상기 투명 하우징(21)을 지지하기 위한 지지대(22), 및 상기 반구형 거울면(20)에 반사된 주변의 빛을 촬영하는 CCD 카메라(23)로 구성된다.
상기, 반구형 거울면(20)은 주위의 빛을 반사할 수 있도록 되어 있다. 이와 같은 반구형 거울면(20)으로는 전구 반쪽의 반사를 막기 위하여 만들어진 연극용 인젝션 전구를 사용할 수 있다.
반구형 거울면(20)으로서, 인젝션 전구를 사용하는 경우 인젝션 전구를 고정하기 위한 고정대를 사용할 수 있다.
도3은 인젝션 전구를 고정하기 위한 고정대의 일실시예이다.
구형 인젝션 전구(30)의 반쪽이 거울과 같이 은색 코팅되어 있으므로 본 발명에 의한 비젼 센서 장치에서의 반구형 거울면으로서 사용될 수 있다. 인젝션 전구(30)를 반구형 거울면으로 사용하는 경우에, 인젝션 전구(30)의 지지대는 인젝션 전구(30)를 고정하는 고정판(31)과 고정판을 지지하는 프레임(32)으로 구성되어 있다. 고정판(31)은 알루미늄 또는 아크릴 재료로 구현될 수 있고, 프레임(32)은 금속 또는 나무로 구현될 수 있다.
도2에 도시된 바와 같은 비젼 센서 장치에 의하면, 별도의 구동 장치 없이도 무인 이동 물체의 주위 360°전 방향에 대한 정보를 단 한 번의 샘플링으로 얻을 수 있으며, 또한 CCD 카메라에 비친 영상에서 하나의 원주를 잡아 그 원주 상의 화소들을 스캔하는 방식을 사용하므로, 모니터를 설치하여 카메라를 기계적으로 움직이는 방식에 비하여 빠른 속도로 처리할 수 있으므로, 실시간 처리가 가능하다.
도4 및 도5는, 도2와 같이 구성된 본 발명에 의한 비젼 센서 장치가 무인 이동 물체에 부착되는 것을 설명하는 도면이다.
도4 및 도5에 도시된 바와 같이, 본 발명에 의한 비젼 센서 장치의 하우징을 지지하고, CCD 카메라(23)를 연결하는 지지대(22)가 무인 이동 물체의 상판(Top Plate)에 연결된다.
도4는 지지대(22)와 무인 이동 물체의 상판(40)연결 방식으로서, 3개의 금속제 L형 버팀쇠들(41)을 사용하는 방식을 도시한 것이고, 도5는 3개의 L형 버팀쇠들(41) 대신에 두 개의 아크릴 부재(51,52)와 볼트(53) 및 너트(54)를 사용하는 방식을 도시한 것이다.
도4에서 3개의 금속제 L형 버팀쇠들(41)는 120°간격으로 배치되어 있다.
도5에 도시된 방식에서는 아크릴 부재들(51,52)을 사용하므로, 금속 재료에 비하여 가공이 용이하다. 제1 아크릴부재(51)는 상판(50)의 아래쪽에서 카메라(23)를 고정하며 동시에 지지대(22)의 아랫 부분을 받친다.
상판(50)의 중앙부의 구멍의 지름은 10㎝로 하고, 지지대(22)의 외경은 9㎝로 하여 1㎝ 차이가 나도록 하였는데, 제2 아크릴부재(52)는 이 오차를 메우고 지지대(22)가 수평 방향으로 흔들리지 않도록 지지대(22)를 고정시킨다.
제1 아크릴부재(51)를 가공하는데 있어서, 삼각형 모양으로 절삭하는데는 전동 톱을, 원형 절삭부는 선반을 사용하였고, 볼트를 끼워 넣을 구멍을 만드는데는 밀링 머신과 드릴을 사용하였다. 또한, 제2아크릴 부재(52)에서 지지대(22) 고정용 원형 절삭부를 가공에는 선반을, 볼트를 끼워 넣을 구멍을 만드는데에는 밀링 머신과 드릴을 역시 사용하였다.
이하에서는 상기에서 설명한 본 발명에 의한 비젼 센서 장치를 이용한 위치 추정 방법을 설명한다.
본 발명에 의한 비젼 센서 장치를 이용한 위치 추정 방법을 설명하기 위하여, 먼저 무인 이동 물체의 주행 과정을 간단하게 살펴본다.
무인 이동 물체가 임의의 시작점에서 출발하여 목표 지점까지 도달하는 과정에서 최초 주행 시 사람의 도움을 받는다. 이러한 최초의 주행에서 무인 이동 물체는 총 주행 구간을 여러 개의 중간 목표점(이하에서 '체크 포인트'라고 함)으로 분할하여, 각 체크 포인트에서의 주위 환경에 대한 정보를 수집한다. 주위 환경에 대한 정보에는 초음파 센서를 이용한 사방의 장애물이나 벽면까지의 거리 정보와 비젼 센서를 이용한 주위 360°전 방향에 대한 1°단위의 밝기 정보(이하에서 '전 방향 밝기 정보')를 포함된다.
환경 정보 수집을 위한 최초 주행이 끝난 후부터 무인 이동 물체는 센서와 이미 저장해 둔 체크 포인트의 환경 정보를 이용하여 독자적으로 주행한다. 이 때 비젼 센서 장치는 각 체크 포인트에서 무인 이동 물체의 방향 오차를 바로 잡기 위하여 사용된다.
먼저 모터의 인코더와 초음파 센서에서 얻은 거리 정보를 바탕으로 현재 도달하였어야 할 체크 포인트를 알아낸다. 그런 다음, 해당 체크 포인트의 전방향 밝기 정보를 찾아서 현재의 전방향 밝기 정보와 얼마나 일치하는지 판단한다.
상기 단계에서 일치하지 않으면 무인 이동 물체는 체크 포인트에 도달하는 것을 실패한 것으로 볼 수 있으므로, 이 경우는 초음파 센서와 모터의 인코더에 의존하여 주행하여야 한다. 한편, 밝기 정보가 일치하는 경우에는 카메라로부터 읽어들인 360개의 밝기 정보를 서로 이웃하는 것끼리 연결하여 360개의 벡터를 만든다.
이를 좀 더 상세하게 말하면, 360개의 밝기 정보는 각각 방향각과 해당 방향각의 밝기 정보인 (방향각, 해당 방향각에 대한 밝기 정보)의 2차원으로 구성할 수 있다. 따라서, 0°를 시점으로 하고, 1°를 종점으로 하는 벡터를 제0 벡터로 하고, 1°를 시점으로 하고, 2°를 종점으로 하는 벡터를 제1 벡터로 두는 방식으로 벡터들을 만들어 나가면 결국 358°와 359°지점으로 구성되는 제358 벡터에 이르고, 359°와 0°지점으로 구성되는 벡터까지 모두 고려하면 결국 360개의 벡터들을 얻는다. 이러한 벡터들을 극좌표상에 매핑하면 도7과 같은 하나의 폐곡선을 얻을 수 있다.
도6은 CCD 카메라에 의하여 얻어진 실제 영상 이미지이고, 도7은 밝기 정보에 의한 벡터들을 극좌표에 표시한 것이다.
도7에서 중심으로부터 거리는 밝기를, 0°지점으로부터의 각도는 해당 밝기가 나타난 방위를 가르킨다. 따라서, 도7에 도시된 폐곡선은 0°에서 90°사이의 범위에 밝은 물체가 많이 있음을 나타내는 것을 알 수 있다.
본 발명에 의한 위치 추정 방법에서 벡터는 크기와 방위각으로 구성되는데, 벡터의 방위각 θ는 x축의 도(°, degree)이고 y축이 밝기인 2차원 공간에서 θ는 다음의 수학식 1과 같이 주어진다.
θ=arctan(Δy/Δx)
본 발명에 의한 방법에서 1°단위로 밝기를 샘플링하기 때문에, 상기 수학식 1에서 Δx=1이다.
상기 수학식 1에 의하여 θ는 -90°와 +90°사이의 범위에 놓이게 된다. 여기에서 각 벡터의 방위각 θ가 음수인지, 0인지, 아니면 양수인지에 따라서, 음수이면 -1, 0이면 0, 양수이면 +1의 값을 가지는 1×360 크기의 벡터 방위각 부호 행 벡터(Signs Of Vector Direction Row Vector, 이하에서 'SOVDRV'라 함)를 만들어낸다. 즉, 만일 각각의 방위각으로 만든 행 벡터가 (+33°,+47°,-4°,0°,+83°,-17°,+79°…)인 벡터 순열이 있다고 하면, 이는 (+1, +1, -1, 0, +1, -1, +1,…)라는 행벡터를 얻는다.
현재 무인 이동 물체가 위치한 곳에서 SOVDRV(S1)와 현재 도달했어야 할 체크포인트의 SOVDRV(S2)의 두 개의 1×360 행벡터 중 하나를 오프셋만큼 랩 어라운드 시프트(Shift with wrap around)하여 S2'을 얻은 후, S1과 S2'을 내적한 S1·S2'의 내적값을 계산하고 오프셋을 1 증가시킨다. 오프셋은 0으로부터 시작하여, S2'이 다시 S2와 일치하게 될 때까지, 즉 시프트가 완전히 한 바퀴 끝날 때까지 증가하게 되며, 이 경우 1×359 행벡터이므로 359까지 증가하게 된다.
상기한 과정에서, S1·S2'이 최대가 되는 오프셋 값을 찾으면 그러한 오프셋 값이 방향 오차가 된다. 왜냐하면, 두 행 벡터가 완전히 일치하는 경우 내적값은 1 또는 0만의 합이 되기 때문이다. 다시 말해서, -1이 사라진다.
실험 결과, 상기한 방법으로 방향 오차를 계산하는 방법은 신뢰성이 매우 커서 밝기 정보의 일부가 바뀐 경우(원래는 없던 장애물이 나타나는 경우)에도 별 문제 없이 방향 오차를 정확하게 계산할 수 있다.
상기한 바와 같이 방향 오차를 계산한 다음, 두 밝기 정보가 과연 일치하는가를 판단한다. 즉, 현재의 전방향 밝기 정보와 도달했어야 할 체크포인트의 전방향 밝기 정보 중 하나를 앞서 계산한 오프셋만큼 랩 어라운드 시프트하여, 두 전방향 밝기 정보의 각 원소(0°에서 359°까지의 각 방향에 대하여 그 방향에 해당하는 밝기)간에 뺄셈을 하여 그 차가 일정한 범위 안에 있으면 해당 방향의 데이터는 일치한 것이고, 그렇지 않으면 일치하지 않는 것으로 판단한다.
이와 같이 360개의 데이터를 대상으로 일치 또는 불일치를 계산한 후 360개 중에 과연 몇 %가 일치하는지를 가지고 두 전방향 밝기 정보가 일치하는가 그렇지 않는가를 판단한다.
상기한 방법을 실제로 적용해 본 결과 몇 가지 문제점이 발견되었다. 첫 번째는 무인 이동 물체가 자전하는 경우 방향만 바뀌고 그 크기가 일정할 것으로 생각되었던 전방향 밝기 정보가 사실은 상당한 범위를 가지고 위 아래로 흔들린다는 점(즉 상기 도6에서와 같이 극좌표로 표시하는 경우에는 r이 커졌다 작아졌다 하는 방향으로 움직이는 점)이다. 따라서 단순히 두 밝기의 차가 일정 범위 안에 들어오는지의 여부만을 가지고 일치 또는 불일치를 판단하게 되면, 밝기 곡선의 개형은 일치하나 무인 이동 물체의 자전에 의하여 밝기 정보가 위아래로 흔들리는 경우에 대하여 오차가 커지게 된다. 둘째는 서로 이웃한 방향들간에 밝기 정보가 큰 폭으로 변화하는 경우, 실제로 그래프를 그려보면 서로 거의 일치하지만 상기한 방법에 의하여는 불일치하는 것으로 나타나는 점이다.
상기한 두 가지 문제점들을 해결하기 위하여, 두 밝기의 차가 일정 범위안에 들어오지 않는 경우 해당 방향에 대하여 바로 불일치 판정을 내지지 않고, 먼저 해당 지점의 벡터가 가지는 방위를 본다. 이 방위가 0°에 가까우면 불일치 판정을 내리고, 90°에 가까우면(즉, 인접한 값 사이에 급격한 밝기의 변화가 있으면) 두 개의 밝기 정보를 벡터적으로 비교(벡터의 크기와 방향을 비교)하여 일치 또는 불일치를 판단하게 된다. 이렇게 비교하는 경우, 새로운 장애물의 출현 여부를 판단하는데는 다소 문제가 있으나, 기본 목표인 방향 오차의 정밀한 보정에는 도움이 된다.
또한 두 밝기를 비교하는데 있어서, 360개의 모든 점들을 매 번 비교하지 않고 대신 현재점의 m-값들을 추출한 뒤, 이 m-값들과 이전에 저장해 둔 체크 포인트에서의 전방향 밝기 정보에서 해당하는 위치의 밝기 정보만을 가지고 차를 구하여 일치 여부를 판단하게 했다. m-값들은 기본적으로 밝기 정보 그래프에서 나타나는 피크값들이기 때문에, 하나의 전방향 밝기 정보에 대하여 그 특징으로 대표하고 있는 것으로 볼 수 있으므로, 이러한 비교 방식으로 연산량을 줄일 수 있다.
이와 같이 일치 여부를 판단한 후, 두 전방향 밝기 정보에 대하여 일치 판정이 나온 경우에는 처음에 계산한 오프셋을 방향 오차의 보정에 쓸 수 있고, 불일치 판정이 나온 경우에는 무인 이동 물체가 체크 포인트 도달에 실패했다는 결론을 내리게 되어 무인 이동 물체는 일단 초음파 센서와 모터 인코더에 의존하여 주행하여야 한다.
이하에서는, 본 발명에 의한 비젼 센서 장치를 사용한 위치 추정 방법을 실험한 결과들을 설명한다.
도8은 카메라로부터 얻어진 이미지의 밝기 정보를 극좌표상에 그래프로 표시한 것이고, 도9은 임의의 지점에서 해당 지점의 전방향 밝기 정보를 저장한 후, 무인 이동 물체를 -24°자전시킨 것을 표시한 것이다. 도10는 저장된 전방향 밝기 정보의 m-값을 그래프로 표시한 것이고, 도11은 무인 이동 물체가 자전한 후의 전방향 밝기 정보에 대한 m-값과 저장된 전방향 밝기 정보를 겹쳐서 그린 것이다.
무인 이동 물체가 자전하면 밝기 정보에 오차가 발생하기 때문에, 두 패턴이 일치하는지를 판단하는데 사용하는 문턱값(%값)이 자전각(실제 주행시에는 방향 오차에 해당)에 비례하여 변화하도록 했다. 회전각이 커지면 문턱값을 낮추고, 회전각이 작아지면 문턱값을 올린다. 더욱 구체적으로는 문턱값은 다음의 수학식 2와 같이 나타낼 수 있다.
문턱값 = a×(회전각)+b
상기 수학식 2에서, 계수 a와 b는 실험을 통하여 결정되는 값으로서, 본 실험에서는 -1/12와 70으로 하였다.
이제 무인 이동 물체의 자전 운동이 아닌 병진 운동을 살표보자. 무인 이동 물체가 약 40㎝의 거리를 일직선으로 움직일 때, 도12은 20㎝ 지점에서의 그래프이고, 도13는 40㎝ 지점에서의 그래프이다.
20㎝라는 짧은 거리를 이동하였기 때문에, 사람이 관찰하여도 환경 정보에 큰 변화는 없고, 단지 조금 회전한 것으로 보이며, 이는 도11에 나타난 결과와 일치한다. 그러나, 이동 거리가 더욱 길어지면 환경 정보의 전체적 개형 자체가 뚜렷이 바뀌게 되고 그 때에는 저장된 환경 정보와 이동해 간 지점에서의 환경 정보가 일치하지 않는다는 판단을 내려야 한다.
도13의 경우, 예상한 바와 같이, 저장된 전방향 밝기 정보와 현재 위치의 전방향 밝기 정보가 일치하지 않으므로 자전각은 N/A로 표시된다. 실제 주행시에 체크포인트에서 이러한 결과가 나오면 무인 이동 물체는 일단 초음파 센서와 모터 인코더에 의존하여 다음 체크 포인트까지 주행하여야 한다.
이상에서 설명한 바와 같이, 본 발명은 무인 이동 물체의 비젼 시스템에서의 비젼 센서 장치와 이를 이용하여 무인 이동 물체의 위치를 파악할 수 있도록 하는 비젼 센서 장치와 이를 이용한 위치 추정 방법을 제안하였다. 본 발명에서는 반구형 거울면으로서 용이하게 구할 수 있는 연극용 인젝션 전구를 사용함으로써 제작이 용이한 장점이 있다.

Claims (5)

  1. 무인 이동 물체의 비젼 시스템에서의 비젼 센서 장치에 있어서,
    상기 무인 이동 물체의 주변의 빛을 반사하는 반구형 거울면;
    상기 반구형 거울면의 투명 하우징;
    상기 투명 하우징을 지지하기 위한 지지대; 및
    상기 반구형 거울면에 반사된 주변의 빛을 촬영하는 CCD 카메라를 포함하는 것임을 특징으로 하는 비젼 센서 장치.
  2. 제1항에 있어서, 상기 반구형 거울면은 전구의 반 쪽의 반사를 방지하기 위하여 전구의 반구가 거울면인 인젝션 전구인 것임을 특징으로 하는 비젼 센서 장치.
  3. 제1항 및 제2항의 비젼 센서 장치를 이용한 무인 이동 물체의 위치 추정 방법에 있어서,
    무인 이동 물체의 초기 주행시 총 주행 구간 중 여러 개의 중간 목표점인 체크 포인트에서 주위 환경에 대한 정보를 수집하는 단계;
    주행시 도달 했어야할 체크 포인트에서의 전방향 밝기 정보를 읽는 단계;
    현재 위치에서의 전방향 밝기 정보와 상기 단계에서 얻어진 전방향 밝기 정보의 일치 여부를 판단하는 단계;
    상기 단계의 판단 결과, 일치하지 않으면 초음파 센서와 모터 인코더에 의존하여 주행하는 단계;
    상기 단계에서 판단 결과, 일치하면 카메라로부터 읽어 들인 밝기 정보를 이용하여 벡터를 만드는 단계;
    상기 벡터의 방위각을 구하여 방위각 부호 행벡터를 만드는 단계;
    현재 위치에서의 방위각 부호 행벡터와 도달했어야할 체크포인트에서의 방위각 부호 행벡터를 오프셋값만큼 시프트시킨 행벡터의 내적값을 구하는 단계;
    상기 내적값이 최대인 오프셋값을 방향 오차로 설정하는 단계; 상기 단계에서 설정된 방향 오차를 이용하여 두 밝기 정보가 일치하는지를 판단하는 단계; 및
    상기 단계에서의 판단 결과 일치하는 경우에는 상기 오프셋값을 방향 오차의 보정에 사용하고, 일치하지 않는 경우에는 초음파 센서와 모터 인코더에 의존하여 주행하는 단계를 포함하는 것임을 특징으로 하는 무인 이동 물체의 위치 추정 방법.
  4. 제3항에 있어서, 두 밝기 정보가 일치하는지를 판단하는 상기 단계는,
    현재 위치의 전방향 밝기 정보와 도달했어야 할 체크포인트의 전방향 밝기 정보 중 하나를 방향 오차인 오프셋값만큼 시프트하여, 두 전방향 밝기 정보의 각 원소의 차가 일정한 범위안에 있으면 일치하는 것으로 판단하는 것임을 특징으로 하는 무인 이동 물체의 위치 추정 방법.
  5. 제4항에 있어서, 상기 위치 추정 방법에서,
    두 전방향 밝기 정보의 각 원소의 차가 일정한 범위안에 있지 않아서 두 밝기 정보가 일치 하지 않는 것으로 판단하는 경우, 해당 지점의 벡터가 가지는 방위가 0°에 가까우면 일치하지 않는 것으로 판단하고, 90°에 가까우면 두 밝기 정보를 벡터적으로 비교하여 일치 또는 불일치를 판단하는 것임을 특징으로 하는 무인 이동 물체의 위치 추정 방법.
KR1019980002694A 1998-01-31 1998-01-31 무인 이동 물체의 비젼 센서 장치와 이를 이용한 위치 추정방법 KR100262182B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980002694A KR100262182B1 (ko) 1998-01-31 1998-01-31 무인 이동 물체의 비젼 센서 장치와 이를 이용한 위치 추정방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980002694A KR100262182B1 (ko) 1998-01-31 1998-01-31 무인 이동 물체의 비젼 센서 장치와 이를 이용한 위치 추정방법

Publications (2)

Publication Number Publication Date
KR19990066624A KR19990066624A (ko) 1999-08-16
KR100262182B1 true KR100262182B1 (ko) 2000-07-15

Family

ID=19532287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980002694A KR100262182B1 (ko) 1998-01-31 1998-01-31 무인 이동 물체의 비젼 센서 장치와 이를 이용한 위치 추정방법

Country Status (1)

Country Link
KR (1) KR100262182B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809317B1 (ko) * 2006-07-28 2008-03-05 두얼메카닉스 주식회사 위치 검출 방법 및 그 방법을 이용한 이동 장치

Also Published As

Publication number Publication date
KR19990066624A (ko) 1999-08-16

Similar Documents

Publication Publication Date Title
CN111435162B (zh) 激光雷达与相机同步方法、装置、设备和存储介质
Labrosse The visual compass: Performance and limitations of an appearance‐based method
US7075048B2 (en) Omni-directional radiation source and object locator
Jasiobedski et al. Pose determination and tracking for autonomous satellite capture
US20060177101A1 (en) Self-locating device and program for executing self-locating method
KR20150130511A (ko) 로봇 공학용 다중 감지 스테레오 비전 방법, 시스템 및 장치
Boochs et al. Increasing the accuracy of untaught robot positions by means of a multi-camera system
WO2020015748A1 (en) Systems and methods for lidar detection
EP3332215B1 (en) Systems and methods for northfinding
JP6479296B2 (ja) 位置姿勢推定装置および位置姿勢推定方法
US9734429B2 (en) Method, system and computer program product for detecting an obstacle with a camera
JPH07120555A (ja) 車両用環境認識装置
US6501537B1 (en) Range finding
JP2007278871A (ja) 動き量計算装置
KR100262182B1 (ko) 무인 이동 물체의 비젼 센서 장치와 이를 이용한 위치 추정방법
JP3465047B2 (ja) 垂直降下時に平坦区域を検出する立体視システム
JP2000304508A (ja) 3次元入力装置
CN112833791B (zh) 一种自旋转线结构光扫描系统时空标定方法
Abraham et al. Robust 3D vision for autonomous space robotic operations
Kim et al. A new omnidirectional image sensing system for assembly (OISSA)
KR102562617B1 (ko) 어레이 카메라 시스템
Shimizu et al. Wide-Angle Vision Sensor with High-Distortion Lens: Detection of Camera Location and Gaze Direction Based on the Two-Parallel-Line Algorithm
CN117405027B (zh) 一种基于单目相机的测距方法及终端
JP7407213B2 (ja) 方角特定装置、及び方角特定方法
Ng et al. Nonlinear distortion calibration of an optical flow sensor for monocular visual odometry

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee