KR101202613B1 - 위치인식 장치와 시스템 및 방법 - Google Patents

위치인식 장치와 시스템 및 방법 Download PDF

Info

Publication number
KR101202613B1
KR101202613B1 KR1020110030509A KR20110030509A KR101202613B1 KR 101202613 B1 KR101202613 B1 KR 101202613B1 KR 1020110030509 A KR1020110030509 A KR 1020110030509A KR 20110030509 A KR20110030509 A KR 20110030509A KR 101202613 B1 KR101202613 B1 KR 101202613B1
Authority
KR
South Korea
Prior art keywords
information
unit
identification
camera
acquisition unit
Prior art date
Application number
KR1020110030509A
Other languages
English (en)
Other versions
KR20120112917A (ko
Inventor
박규호
이영우
유종운
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020110030509A priority Critical patent/KR101202613B1/ko
Publication of KR20120112917A publication Critical patent/KR20120112917A/ko
Application granted granted Critical
Publication of KR101202613B1 publication Critical patent/KR101202613B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/02Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves
    • G01S1/68Marker, boundary, call-sign, or like beacons transmitting signals not carrying directional information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0252Radio frequency fingerprinting

Abstract

본 발명의 실시 예는 위치인식 장치와 시스템 및 방법에 관한 것이다.
실시 예에 따른 위치인식 장치는, 식별부의 현재 위치를 획득하는 위치획득부; 기준축과 상기 위치획득부의 조준축 사이의 각도를 센싱하는 센싱부; 및 상기 위치획득부로부터 상기 식별부의 현재 위치 정보와 상기 위치획득부의 정보를, 상기 센싱부로부터 상기 센싱된 각도 정보를, 상기 식별부로부터 상기 식별부의 위치 정보를 받아 상기 위치획득부의 위치 좌표를 계산하는 처리부;를 포함하고, 상기 센싱부는 상기 위치획득부의 기울기를 센싱하는 지자기 센서 또는 기울기 센서이고, 상기 처리부는 상기 센싱된 기울기 정보를 받아 상기 위치획득부의 위치 좌표를 보상한다.

Description

위치인식 장치와 시스템 및 방법{APPARATUS, SYSTEM AND METHOD FOR LOCATION DETECTION}
본 발명의 실시 예는 위치인식 장치와 시스템 및 방법에 관한 것이다.
위치인식 기술이란, 특정 장비가 스스로 공간지각능력을 갖는 기술을 의미한다. 종래의 위치인식 기술은 다양한 형태로 구현되었다. 이하, 구체적으로 설명하도록 한다.
실내에 위치한 임의의 물체의 위치를 인식하기 위한 지그비(Zigbee) 통신 방식은 지그비 통신이 가능한 복수의 센서 노드(Sensor Node)들을 실내 공간에 격자 무늬(Lattice Pattern)를 이루도록 설치하고, 지그비 통신 신호의 세기에 따라 위치 좌표를 파악한다. 지그비 통식 방식은 센서 노드의 수가 증가할수록 상기 물체의 위치를 산출함에 있어서 정확도가 높아진다.
실내에 위치한 임의의 물체의 위치를 인식하기 위한 다른 방식으로 UWB(Ultra Wide Band) 방식이 있다. 상기 UWB 방식은 GPS(Global Positioning System)와 유사한 원리로 구동되는 방식이다.
실내에 위치한 임의의 물체의 위치를 인식하기 위한 또 다른 방식으로 로봇을 이용한 방식이 있다. 상기 로봇을 이용한 방식은 실내의 각 벽면에 바코드와 유사하지만 형상이 다른 마커(Marker)들을 설치하고, 로봇이 카메라를 통해 두 개 이상의 마커를 인식하여 위치를 인식하는 방식이다.
실내에 위치한 임의의 물체의 위치를 인식하기 위한 또 다른 방식으로 마커를 이용한 방식이 있다. 상기 마커를 이용한 방식은 실내의 각 벽면에 색상으로 구분이 가능한 마커가 부착된 상태에서, 전자 나침반을 구비한 PDA 또는 휴대폰과 같은 이동성 장비를 이용한다. 구체적으로, 사용자가 하나의 마커를 조준하고, 조준된 마커의 색상을 이동성 장비에 선택 및 입력하고, 다른 하나의 마커에 대해서도 앞서 동일한 과정을 수행하여 사용자의 위치를 산출한다.
그러나, 상기 지그비 방식은 센서 노드의 수에 따라 정확도가 결정되므로 센서 노드의 설치 비용이 증가된다는 문제가 있고, 사용자의 신호 방해로 인하여 위치좌표 오류가 발생하는 문제가 있다. 상기 UWB 방식은 고해상도로 인식률이 높다는 장점이 있지만, 고비용임에도 불구하고 사용자로부터 신호를 방해받기 용이하여 오류율이 증가하는 문제가 있다. 상기 로봇을 이용한 방식은 복잡한 마커들을 구별하기 위해 마커의 크기가 커지는 문제가 있으며, 상기 문제에 따라 좌표의 정확도가 낮아지는 문제가 있다. 상기 마커를 이용한 방식은 사용자의 개입이 필수적이므로 자동적인 구동이 불가능하다는 문제가 있다. 그리고 사용자의 조준 오류는 위치좌표의 오류로 이어지므로, 오류가 커지는 문제가 있다.
한편, 실내에 위치한 임의의 물체의 위치를 인식하는 또 다른 방식으로 동기식 식별마커를 이용한 방식이 있다. 상기 동기식 식별마커를 이용한 방식은 대한민국 등록특허공보 제10-0936275호에 기재되어 있다.
상기 동기식 식별마크를 이용한 방식은 물체와 발광 마커의 각도를 임의의 상수 K를 통해 얻는다. 여기서, 상수 K는 측정이 가능하지만, 상수 K는 이상적인(Ideal) 경우에만 정확한 값을 추론할 수 있다. 따라서, 현실에서는 상수 K의 추론에 적지 않은 오차가 발생한다. 오차의 원인은 지자기 센서의 오차, 카메라 픽셀(pixel)의 오차 등이 있다.
또한, 상기 동기식 식별마크를 이용한 방식은 한 시점에 하나의 발광 마커만이 동작되고, 연속되는 두 시점에서 서로 다른 두 개의 발광 마커들이 동작해야만 위치를 계산할 수 있다. 따라서, 물체의 위치 계산에 있어서 소정의 시간이 필요하고, 상기 서로 다른 두 시점 사이에 물체가 이동하는 경우에는 위치를 계산하는데 오류가 발생하는 문제점이 있다.
실시 예는 물체의 위치를 정확하게 계산할 수 있는 위치인식 장치 및 방법을 제공한다.
또한, 실시 예는 실시간으로 물체의 위치를 계산할 수 있는 위치인식 장치 및 방법을 제공한다.
또한, 실시 예는 물체의 이동에 따른 오류가 없는 위치인식 장치 및 방법을 제공한다.
실시 예에 따른 위치인식 장치는, 식별부의 현재 위치를 획득하는 위치획득부; 기준축과 상기 위치획득부의 조준축 사이의 각도를 센싱하는 센싱부; 및 상기 위치획득부로부터 상기 식별부의 현재 위치 정보와 상기 위치획득부의 정보를, 상기 센싱부로부터 상기 센싱된 각도 정보를, 상기 식별부로부터 상기 식별부의 위치 정보를 받아 상기 위치획득부의 위치 좌표를 계산하는 처리부;를 포함한다.
여기서, 상기 센싱부는 상기 위치획득부의 기울기를 센싱하는 지자기 센서 또는 기울기 센서이고, 상기 처리부는 상기 센싱된 기울기 정보를 받아 상기 위치획득부의 위치 좌표를 보상할 수 있다.
여기서, 상기 위치획득부는 상기 식별부의 현재 위치를 촬영하는 카메라이고, 상기 처리부로 입력되는 상기 식별부의 현재 위치 정보는 영상이고, 상기 처리부로 입력되는 상기 위치획득부의 정보는 상기 카메라의 시야각 정보와 상기 영상의 해상도 정보를 포함할 수 있다.
실시 예에 따른 위치인식 시스템은, 복수의 식별마커들을 가지며, 상기 식별마커들 중 두 개의 식별마커가 온되면 나머지 식별마커들은 오프되도록 제어하는 식별부; 및 상기 온된 식별마커들의 현재 위치를 획득하는 위치획득부, 기준축과 상기 위치획득부의 조준축 사이의 각도를 센싱하는 센싱부 및 상기 위치획득부로부터 상기 식별마커들의 현재 위치 정보와 상기 위치획득부의 정보를, 상기 센싱부로부터 상기 센싱된 각도 정보를, 상기 식별부로부터 상기 식별마커들의 위치 정보를 입력받아 상기 위치획득부의 위치 좌표를 계산하는 처리부를 포함하는 위치인식 장치;를 포함한다.
여기서, 상기 센싱부는 상기 위치획득부의 기울기를 센싱하는 지자기 센서 또는 기울기 센서이고, 상기 처리부는 상기 센싱된 기울기 정보를 받아 상기 위치획득부의 위치 좌표를 보상할 수 있다.
여기서, 상기 위치획득부는 상기 식별부의 현재 위치를 촬영하는 카메라이고, 상기 처리부로 입력되는 상기 식별마커들의 현재 위치 정보는 영상이고, 상기 처리부로 입력되는 상기 위치획득부의 정보는 상기 카메라의 시야각 정보와 상기 영상의 해상도 정보를 포함할 수 있다.
여기서, 상기 식별마커들은 가시광선을 방출하는 발광 다이오드 또는 적외선 발광 다이오드일 수 있다.
실시 예에 따른 위치인식 방법은, 복수의 식별마커들의 위치 정보를 수신하는 단계; 카메라를 이용하여 상기 복수의 식별마커들 중 온된 두 개의 식별마커들의 현재 위치를 촬영하는 단계; 상기 촬영된 영상의 해상도 정보와 상기 카메라의 시야각 정보를 획득하는 단계; 기준축과 상기 카메라의 조준축 사이의 각도를 센싱하는 단계; 및 상기 촬영된 영상, 상기 촬영된 영상의 해상도 정보, 상기 카메라의 시야각 정보, 상기 센싱된 각도 정보 및 상기 복수의 식별마커들의 위치 정보를 이용하여 상기 카메라의 위치 좌표를 계산하는 단계;를 포함한다.
여기서, 상기 카메라의 위치 좌표를 계산하는 단계는, 상기 촬영된 영상의 해상도 정보와 상기 복수의 식별마커들의 위치 정보를 이용하여 상기 카메라의 조준축과 상기 두 개의 식별마커들을 잇는 직선이 교차하는 교차점의 위치 좌표를 계산하는 단계; 상기 촬영된 영상의 해상도 정보, 상기 카메라의 시야각 정보 및 상기 센싱된 각도 정보를 이용하여 상기 카메라에서 상기 교차점까지의 실제 거리를 계산하는 단계; 상기 교차점의 위치 좌표와 상기 실제 거리를 이용하여 상기 카메라의 위치 좌표를 계산하는 단계; 및 상기 촬영된 영상의 해상도 정보와 상기 실제 거리를 이용하여 상기 카메라의 위치 좌표를 보상하는 단계;를 포함할 수 있다.
여기서, 상기 카메라의 기울기를 센싱하는 단계; 및 상기 센싱된 기울기 정보를 이용하여 상기 카메라의 위치 좌표를 보상하는 단계를 더 포함할 수 있다.
실시 예에 따른 위치인식 장치와 시스템 및 방법을 사용하면, 물체의 위치를 정확하게 계산할 수 있다.
또한, 실시간으로 물체의 위치를 계산할 수 있다.
또한, 물체의 이동에 따른 오류를 제거할 수 있다.
도 1은 본 발명의 실시 예에 따른 위치인식 장치와 이를 포함하는 위치인식 시스템의 블록도.
도 2는 도 1에 도시된 위치인식 시스템의 적용 예를 보여주는 도면.
도 3 내지 도 11은 도 1에 도시된 처리부의 위치 계산 방법을 설명하기 위한 도면.
도 12는 도 1에 도시된 위치인식 장치의 위치인식 방법을 설명하기 위한 순서도.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 위치인식 장치와 이를 포함하는 위치인식 시스템의 블록도이고, 도 2는 도 1에 도시된 위치인식 시스템의 적용 예를 보여주는 도면이다.
도 1 및 도 2를 참조하면, 위치인식 시스템은 위치인식 장치(100)와 식별부(300)를 포함할 수 있다.
위치인식 장치(100)는 자신의 현재 위치를 계산한다. 위치인식 장치(100)는 독립적인 장치로서 구동될 수 있을 뿐만 아니라, 소정의 단말기 내부에 포함되어 구동될 수 있다. 여기서, 소정의 단말기란 개인용 퍼스널 컴퓨터, 노트북, 셀룰러폰, PDA, 스마트폰 등일 수 있다.
위치인식 장치(100)는 위치획득부(110), 센싱부(130) 및 처리부(150)를 포함할 수 있다.
위치획득부(110)는 식별부(300)로부터 식별부(300)의 현재 위치를 획득한다. 식별부(300)의 현재 위치 획득은 식별부(300)의 현재 위치를 촬영할 수 있는 카메라를 이용할 수 있다.
위치획득부(110)는 식별부(300)의 현재 위치 정보, 예를 들면 식별부(300)를 촬영한 영상을 처리부(150)로 전달한다.
위치획득부(110)는 자신의 정보를 처리부(150)로 전달한다. 여기서, 위치획득부(110)의 정보는, 예를 들어 위치획득부(110)가 카메라인 경우에는 카메라의 시야각 정보 및 상기 카메라에 의해 획득된 영상의 해상도 정보를 포함한다.
센싱부(130)는 위치획득부(110)의 각도를 센싱하고, 센싱된 각도 정보를 처리부(150)로 전달한다. 위치획득부(110)가 카메라인 경우, 센싱부(130)는 카메라의 조준축과 기준축 사이의 각도를 센싱하고, 센싱된 각도 정보를 처리부(150)로 전달할 수 있다.
또한, 센싱부(130)는 지자기 센서 또는 기울기 센서를 구비하여 위치획득부(110)의 기울기 정보를 처리부(150)로 전달할 수 있다.
처리부(150)는 식별부(300)의 위치 정보를 받는다. 식별부(300)의 위치 정보는 소정의 실내에 배치된 식별마커의 위치 좌표를 포함한다. 여기서, 식별부(300)의 위치 정보는 식별마커가 온(on)되는 시간 구간 정보도 포함한다. 또한, 식별부(300)의 위치 정보는 식별마커들간 실제 거리 정보도 포함한다.
처리부(150)는 식별부(300)의 위치 정보를 식별부(300)로부터 직접 받을 수도 있고, 위치인식 장치(100) 내에 별도의 수신기(미도시)를 통해 전달받을 수 있다.
처리부(150)는 위치획득부(110)로부터 식별부(300)의 현재 위치 정보와 위치획득부(110)의 정보를 입력받는다.
처리부(150)는 센싱부(130)로부터 위치획득부(110)의 각도 정보를 입력받는다. 여기서, 처리부(150)는 위치획득부(110)의 기울기 정보도 입력받을 수 있다.
처리부(150)는 식별부(300)의 위치 정보, 식별부(300)의 현재 위치 정보, 위치획득부(110)의 정보 및 위치획득부(110)의 각도 정보를 입력받아 위치인식 장치(100)의 위치 좌표를 계산한다. 여기서, 처리부(150)는 위치획득부(110)의 기울기 정보를 이용하여 위치인식 장치(100)의 위치 좌표를 보상할 수 있다. 구체적인 처리부(150)의 위치 계산 방법은 후술하도록 한다.
식별부(300)는 위치인식 장치(100)와는 독립적이다. 이러한 식별부(300)는 특정 실내에 배치될 수 있다.
식별부(300)는 특정 실내에 배치된 복수의 식별마커들(311, 312 … 318)을 갖는다.
식별부(300)의 식별마커들(311, 312 … 318)은 특정 파장의 빛을 방출하는 발광 소자일 수 있다. 예를 들면, 가시광선 영역의 빛을 방출하는 발광 다이오드 또는 적외선 발광 다이오드일 수 있다. 적외선 발광 다이오드는 인간의 눈에 보이지 않으므로, 인간의 시야 방해 요소를 제거할 수 있다.
식별부(300)는 상기 식별마커들(311, 312 … 318)의 온/오프를 제어한다. 구체적으로, 식별부(300)는, 제1 시간 구간(t1)에서는 전체 식별마커들(311, 312 … 318)들 중 제1 및 제2 식별마커(311, 312)만 온하고, 나머지 식별마커들(313, 314 … 318)은 오프한다. 그리고, 상기 제1 시간 구간(t1) 다음의 제2 시간 구간(t2)에서는 제3 및 제4 식별마커(313, 314)는 온하고, 나머지 식별마커들(311, 312, 315, 316, 317, 318)은 오프한다. 마찬가지로, 제3 시간 구간(t3)에서는 제5 및 제6 식별마커(315, 316)만 온하고, 제4 시간 구간(t4)에서는 제7 및 제8 식별마커(317, 318)만 온한다.
식별부(300)는 식별마커들(311, 312 … 318)의 위치 정보인 ‘식별부(300)의 위치 정보’를 위치인식 장치(100)로 전송한다. 여기서, 식별부(300)의 위치 정보는 복수의 식별마커들 각각이 온(on)되는 시간 구간 정보도 포함할 수 있다. 또한, 식별부(300)의 위치 정보는 식별마커들(311, 312 … 318)간 거리 정보도 포함한다.
식별부(300)는 식별부(300)의 위치 정보를 전송하기 위한 신호 송신기를 가질 수 있다.
이하에서는 위치인식 장치(100)의 처리부(150)가 어떻게 위치를 계산하는지를 구체적인 예를 들어 설명하도록 한다.
처리부(150)는 식별부(300)로부터 식별부(300)의 위치 정보를, 위치획득부(110)로부터 식별부(300)의 현재 위치 정보와 위치획득부(110)의 정보를, 센싱부(130)로부터 위치획득부(110)의 각도 및 기울기 정보를 받는다.
식별부(300)의 위치 정보는 식별마커들(311, 312 … 318)의 위치 정보, 식별마커들(311, 312 … 318) 각각이 온(on)되는 시간 구간 정보 및 식별마커들(311, 312 … 318)간 거리 정보를 포함한다.
식별부(300)의 현재 위치 정보는 위치획득부(110)가 카메라인 경우, 촬영된 영상일 수 있다.
위치획득부(110)의 정보는 위치획득부(110)가 카메라인 경우, 카메라의 시야각 정보 및 상기 카메라에 의해 촬영된 영상의 해상도 정보를 포함한다.
위치획득부(110)의 각도 정보는 위치획득부(110)가 카메라인 경우, 상기 카메라의 조준축과 기준축 사이의 각도 정보이다. 위치획득부(110)의 기울기 정보는 상기 카메라의 기울기 각도 정보이다.
처리부(150)는 상기 획득한 정보들을 이용하여 위치인식 장치(100)의 위치를 계산한다. 구체적으로 위치인식 장치(100)의 위치 계산 방법을 도 3 내지 도 9를 참조하여 구체적으로 설명한다.
도 3 내지 도 10는 도 1에 도시된 처리부(150)의 위치 계산 방법을 설명하기 위한 도면이다.
도 3 내지 도 10에 도시된 처리부(150) 위치 계산 방법은 도 2에 도시된 위치인식 장치(100)의 위치 좌표를 계산하기 위한 것이다. 도 1에 도시된 위치획득부(110)는 위치인식 장치(100)에 포함되므로, 위치인식 장치(100)의 위치 좌표는 위치획득부(110)의 위치 좌표와 동일한 것으로 가정한다.
도 3 내지 도 10에 있어서, 도면 부호 A는 도 1에 도시된 위치획득부(110)의 위치점이고, P는 도 2에 도시된 조준축이고, R은 도 2에 도시된 기준축, B는 도 2에 도시된 제1 및 제2 식별마커(311, 312)를 잇는 직선과 P의 교차점이고, θ는 R과 P 사이의 각도로서 위치획득부(110)의 각도이고, φ는 도 1에 도시된 위치획득부(110)의 시야각이다. 제1 식별마커(311)와 제2 식별마커(312)를 잇는 직선과 R은 평행하다. 그리고, 400은 위치획득부(110)에서 촬영된 영상이고, Po는 영상(400)과 P의 교차점이고, 312’은 A와 제2 식별마커(312)를 잇는 직선과 영상(400)의 교차점이다.
A에서 영상(400)을 바라본 모습은 도 4와 같다. 도 4에서, M은 영상(400)의 가로축 전체의 픽셀 개수이다.
우선, 처리부(150)는 B의 위치 좌표를 계산한다.
도 3을 참조하면, B의 위치 좌표는 제1 식별마커(311)에서 Po까지의 픽셀 개수(L1)와 제2 식별마커(312’)에서 Po까지의 픽셀 개수(L2)에 의해 계산될 수 있다. 여기서, L1과 L2는 위치획득부(110)로부터 받은 ‘해상도 정보’에 포함된 정보이다.
처리부(150)는 제1 및 제2 식별마커(311, 312) 사이의 실제 거리를 식별부(300)로부터 받았으므로, 처리부(150)는 B의 위치 좌표를 계산할 수 있다.
제1 식별마커(311)의 위치 좌표를 (x, y)라고 하고, 제1 식별마커(311)과 제2 식별마커(312’) 사이의 실제 거리를 L’이라 하면, B의 위치 좌표는 내분점 공식에 따라, (x+((L1)/(L1 + L2)*L’), y)로 표현할 수 있다.
다음으로, 처리부(150)는 L1의 실제 거리(L1’)와 도 4에 도시된 영상(400)의 실제 가로축 길이(M’)를 계산하여 A에서 Po까지의 실제 거리(R1’)를 계산한다. 처리부(150)는 위치획득부(110)로부터 ‘해상도 정보’와 φ를, 센싱부(130)로부터 θ를 받았으므로, 처리부(150)는 R1’을 계산할 수 있다.
도 5를 참조하면, 제1 식별마커(311)로부터 B까지의 실제 거리는 (L1)/(L1 +L2)*L’이므로, L1’은 ((L1)/(L1 + L2)*L’)*sin(θ)로 표현할 수 있다.
다음으로, 처리부(150)는 도 4에 도시된 영상(400)의 실제 가로축 길이(M’)를 계산한다. M’의 계산을 위해서는 도 6에 도시된 영상(400)의 가로축 전체의 픽셀 개수(M)가 필요하다.
M은 위치획득부(110)로부터 받은 ‘해상도 정보’에 포함된 정보이다. 따라서, 처리부(150)는 영상(400)의 가로축 전체의 픽셀 개수(M)를 알고 있으므로, M’의 계산은 아래의 <수학식 1>을 통해 계산할 수 있다.
Figure 112011024210386-pat00001
다음으로, 도 7을 참조하면, 처리부(150)는 A에서 Po까지의 실제 거리(R1’)를 계산한다.
처리부(150)는 위치획득부(110)로부터 받은 카메라의 시야각(Φ) 정보와 앞서 계산된 영상(400)의 실제 가로축 길이(M’)를 이용하면, R1’을 계산할 수 있다.
따라서, R1’은 (M’/2) / tan(Φ/2)로 표현될 수 있다.
다음으로, 도 8을 참조하면, 처리부(150)는 Po에서 B까지의 실제 거리(R2’)와 B에서 P1까지의 실제 거리(R3’)을 계산한다. R2’와 R3’는 아래의 <수학식 2>와 같이, L1’, L2’을 이용하여 계산된다. 여기서, L2’은 L2의 실제 거리이다.
Figure 112011024210386-pat00002
다음으로, 처리부(150)는 A의 위치 좌표를 계산한다.
A의 위치 좌표는 B의 위치 좌표와 앞서 계산된 R1’ 및 R2’를 이용한다.
따라서, A의 위치 좌표는, {x+((L1)/(L1+L2)*L’)-(R1’+R2’)*cosθ, y-(R1’+R2’)*sinθ}로 표현될 수 있다.
다음으로, 처리부(150)는 A의 위치 좌표를 보상한다.
A의 위치 좌표의 보상 이유는, 앞서 상술한 처리부(150)의 계산 과정은 P와 제2 식별마커(312) 사이의 실제 거리(L3’)를 사용하지 않았기 때문이다.
도 8을 참조하면, 삼각형의 닮은 비를 통해, L2를 L3’로 수정할 수 있다. 즉, L3’과 L2는 평행하므로, 아래의 <수학식 3>과 같은 관계가 성립한다.
Figure 112011024210386-pat00003
따라서, 피드백(Feedback) 과정을 통해, L2의 값을 L3’값으로 수정하면, 위치 보상된 A의 위치 좌표를 계산할 수 있다.
또한, 처리부(150)는 위치획득부(110)의 기울기를 보상하여 A의 위치 좌표를 계산할 수 있다. 도 9를 참조하여 구체적으로 설명한다.
도 9는 도 4에 도시된 영상(400)이 소정의 기울기를 가진 경우의 모습이다.
도 9에 도시된 기준축(R)의 위치와 도 4에 도시된 기준축(R)의 위치가 다르다. 이는 위치획득부(110)의 기울기에 따른 것이다. 만약, 도 9에 도시된 상태로 앞서 상술한 A의 위치 좌표를 계산하면, 오차가 발생한다.
따라서, 처리부(150)는 위치획득부(110)의 기울기에 따른 오차를 보상하여 A의 위치 좌표를 계산할 수 있다.
처리부(150) 센싱부(130)로부터 위치획득부(110)의 기울기 정보를 입력받고, 상기 위치획득부(110)의 기울기 정보를 이용하여 위치획득부(110)의 해상도 정보를 수정한다. 그리고, 수정된 위치획득부(110)의 해상도 정보를 이용하여 A의 위치 좌표를 계산할 수 있다.
구체적으로, 처리부(150)는 위치획득부(110)의 기울기 정보(φ)를 이용하여 아래의 <수학식 4>를 통해, L1을 Lp1으로, L2를 Lp2로 수정한다.
Figure 112011024210386-pat00004
따라서, 처리부(150)는 위치획득부(110)의 기울기를 보상하여 A의 위치 좌표를 더욱 정확하게 계산할 수 있다.
도 10은 처리부(150)의 A 위치 좌표 계산 방법을 설명하기 위한 도면이다.
도 3은 조준축(P)이 식별마커들(311, 312) 사이에 위치하는 경우이고, 도 10은 조준축(P)이 식별마커들(313, 314) 외측에 위치하는 경우이다. 도 10의 경우에 위치획득부(110)가 촬영한 영상(400’)은 도 11과 같다.
도 10의 경우에도, 처리부(150)는 앞서 상술한 유사한 과정을 통해, A의 위치 좌표를 계산할 수 있다.
먼저, 제4 식별마커(414)의 위치 좌표를 (x, y)로 가정하면, 외분점 공식을 통해 B’의 위치 좌표를 계산한다. B’의 위치 좌표는 (x + (L2/(L1-L2))*L’, y)이다.
다음으로, L1의 실제 거리(L1’)을 계산한다. 계산하면, L1’은 (L’+a)*sin(θ’) 이다.
다음으로, M의 실제 거리(M’)을 계산한다. 계산하면, M’은 M/L1 * (L’+a)*sin(θ’) 이다.
다음으로, A에서 B’까지의 실제 거리(R’)을 계산한다. 계산하면, R’은 (M’/2)/tan(Φ/2) + (L’+a)*cos(θ’) 이다.
다음으로, A의 위치 좌표를 계산한다. A의 위치 좌표는 B’의 위치 좌표와 R’을 이용하여 계산된다. A의 위치 좌표는 {x + (L2 /(L1 - L2 ))*L’- R’*cos(θ’), y-R’*sin(θ’)} 이다.
다음으로, A의 위치 좌표를 보상한다. L2를 L3’으로 수정하여 A의 위치 좌표를 보상한다. 여기서, 도 9에 도시된 위치획득부(110)의 기울기를 보상하는 방식을 이용하여 A의 위치 좌표를 보상할 수 있다.
이와 같이, 도 1에 도시된 위치인식 장치(100)는 종래의 동기식 식별마크를 이용한 방식에서 사용되는 상수 K를 사용하지 않는다. 따라서, 현실에서 정확하게 위치인식 장치의 위치를 계산할 수 있다.
또한, 도 1에 도시된 위치인식 시스템은 2개의 식별마커들이 동시에 턴온되는 식별부(300)와 위치인식 장치(100)를 통해 실시간으로 위치 정보를 계산할 수 있다.
실제 시뮬레이션 결과, 종래의 동기식 식별마크를 이용한 방식보다 약 15% 정도의 정확도 향상 효과를 확인할 수 있었다.
도 12는 도 1에 도시된 위치인식 장치(100)의 위치인식 방법을 설명하기 위한 순서도이다.
도 1 및 도 12을 참조하면, 위치인식 장치(100)는 식별부(300)로부터 복수의 식별마커들의 위치 정보를 수신한다(S1210). 식별마커들의 위치 정보는 식별마커들간 실제 거리와 식별마커들 각각이 온되는 시간구간에 대한 정보를 포함할 수 있다. 상기 식별마커들의 위치 정보는 무선 또는 유선을 통해 위치인식 장치(100)로 수신될 수 있다.
위치인식 장치(100)는 카메라를 이용하여 상기 복수의 식별마커들 중 온된 두 개의 식별마커들의 현재 위치를 촬영한다(S1220). 여기서, 카메라는 위치획득부(110)의 구체적 실시 예 중 하나일 수 있다. 카메라는 두 개의 식별마커들이 현재 위치가 촬영된 영상을 획득한다.
위치인식 장치(100)는 영상의 해상도 정보와 카메라의 시야각 정보를 획득한다(S1230). 영상의 해상도 정보는 영상의 가로축 전체의 픽셀 개수 정보와 영상에 조준점에서 두 식별마커들 사이의 픽셀 개수 정보를 포함한다. 시야각 정보는 카메라가 볼 수 있는 시야의 각도를 의미한다.
위치인식 장치(100)는 기준축과 카메라의 조준축 사이의 각도를 센싱한다(S1240). 기준축은 미리 설정된 기준 축을 의미한다. 여기서, 위치인식 장치(100)는, 도 9에 도시된 바와 같이, 카메라가 기울어질 수 있는 것을 예정한 것이다. 상기 카메라의 기울기를 지자기 센서나 기울기 센서를 이용하여 센싱하면, 카메라의 현재 위치 좌표를 보상하는데 사용되어 더욱 정확한 카메라의 위치 좌표를 계산할 수 있다.
위치인식 장치(100)는 영상, 영상의 해상도 정보, 카메라의 시야각 정보, 기준축과 조준축 사이의 각도 정보 및 식별마커들의 위치 정보를 이용하여 카메라의 위치 좌표를 계산한다(S1250).
카메라의 위치 좌표 계산은 앞서 상술한 도 3 내지 도 9, 도 10 내지 도 11과 관련된 설명 부분을 통해 계산될 수 있다.
구체적으로, 위치인식 장치(100)는 영상의 해상도 정보와 식별마커들의 위치 정보를 이용하여 카메라의 조준축과 두 개의 식별마커들을 잇는 직선이 교차하는 교차점의 위치 좌표를 계산한다. 상기 교차점의 위치 좌표는 두 개의 식별마커들 중 하나의 식별마커를 (x, y)로 가정하고, 조준점에서 두 개의 식별마커들 각각의 픽셀 개수 정보를 이용하여 내분점 또는 외분점 공식을 통해 계산될 수 있다.
다음으로, 위치인식 장치(100)는 영상의 해상도 정보, 카메라의 시야각 정보 및 각도 정보를 이용하여 카메라에서 교차점까지의 실제 거리를 계산한다. 카메라에서 교차점까지의 실제 거리는, 각도 정보를 이용하여 조준점에서 두 개의 식별마커들까지의 실제 거리를 계산하고, 영상의 가로축 전체 픽셀 개수 정보와 시야각 정보를 이용하여 영상의 가로축 실제 거리를 계산한다. 그리고, 시야각 정보와 영상의 가로축 실제 거리를 이용하여 카메라에서 교차점까지의 실제 거리를 계산한다.
다음으로, 위치인식 장치(100)는 교차점의 위치 좌표와 실제 거리를 이용하여 카메라의 위치 좌표를 계산한다. 카메라의 위치 좌표는 교차점의 위치 좌표와 카메라에서 교차점까지의 실제 거리 및 각도 정보를 이용하여 계산할 수 있다.
마지막으로, 위치인식 장치(100)는 영상의 해상도 정보와 실제 거리를 이용하여 카메라의 위치 좌표를 보상한다(S1260). 뿐만 아니라, 카메라의 위치 좌표 보상은 카메라의 기울기 정보를 이용하여 보상할 수 있다.
이러한 본 발명의 실시 예에 따른 위치인식 방법은 종래의 동기식 식별마크를 이용한 방식에서 사용되는 상수 K를 사용하지 않는다. 따라서, 현실에서 정확하게 카메라의 위치를 계산할 수 있다.
또한, 동시에 턴온되는 2개의 식별마커들을 한번에 촬영하고, 촬영된 영상을 기초로 카메라의 위치 좌표를 계산하므로, 실시간으로 카메라의 위치 좌표를 계산할 수 있다.
실제 시뮬레이션 결과, 종래의 동기식 식별마크를 이용한 방법보다 약 15% 정도의 정확도 향상 효과를 확인할 수 있었다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니다.
100: 위치인식 장치
110: 위치획득부
130: 센싱부
150: 처리부
300: 식별부

Claims (10)

  1. 식별부의 현재 위치를 획득하는 위치획득부;
    기준축과 상기 위치획득부의 조준축 사이의 각도를 센싱하는 센싱부; 및
    상기 위치획득부로부터 상기 식별부의 현재 위치 정보와 상기 위치획득부의 정보를, 상기 센싱부로부터 상기 센싱된 각도 정보를, 상기 식별부로부터 상기 식별부의 위치 정보를 받아 상기 위치획득부의 위치 좌표를 계산하는 처리부;를 포함하고,
    상기 센싱부는 상기 위치획득부의 기울기를 센싱하는 지자기 센서 또는 기울기 센서이고,
    상기 처리부는 상기 센싱된 기울기 정보를 받아 상기 위치획득부의 위치 좌표를 보상하는 위치인식 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 위치획득부는 상기 식별부의 현재 위치를 촬영하는 카메라이고,
    상기 처리부로 입력되는 상기 식별부의 현재 위치 정보는 영상이고,
    상기 처리부로 입력되는 상기 위치획득부의 정보는 상기 카메라의 시야각 정보와 상기 영상의 해상도 정보를 포함하는 위치인식 장치.
  4. 복수의 식별마커들을 가지며, 상기 식별마커들 중 두 개의 식별마커가 온되면 나머지 식별마커들은 오프되도록 제어하는 식별부; 및
    상기 온된 식별마커들의 현재 위치를 획득하는 위치획득부, 기준축과 상기 위치획득부의 조준축 사이의 각도를 센싱하는 센싱부 및 상기 위치획득부로부터 상기 식별마커들의 현재 위치 정보와 상기 위치획득부의 정보를, 상기 센싱부로부터 상기 센싱된 각도 정보를, 상기 식별부로부터 상기 식별마커들의 위치 정보를 입력받아 상기 위치획득부의 위치 좌표를 계산하는 처리부를 포함하는 위치인식 장치;
    를 포함하는 위치인식 시스템.
  5. 제 4 항에 있어서,
    상기 센싱부는 상기 위치획득부의 기울기를 센싱하는 지자기 센서 또는 기울기 센서이고,
    상기 처리부는 상기 센싱된 기울기 정보를 받아 상기 위치획득부의 위치 좌표를 보상하는 위치인식 시스템.
  6. 제 4 항에 있어서,
    상기 위치획득부는 상기 식별부의 현재 위치를 촬영하는 카메라이고,
    상기 처리부로 입력되는 상기 식별마커들의 현재 위치 정보는 영상이고,
    상기 처리부로 입력되는 상기 위치획득부의 정보는 상기 카메라의 시야각 정보와 상기 영상의 해상도 정보를 포함하는 위치인식 시스템.
  7. 제 4 항에 있어서,
    상기 식별마커들은 가시광선을 방출하는 발광 다이오드 또는 적외선 발광 다이오드인 위치인식 시스템.
  8. 복수의 식별마커들의 위치 정보를 수신하는 단계;
    카메라를 이용하여 상기 복수의 식별마커들 중 온된 두 개의 식별마커들의 현재 위치를 촬영하는 단계;
    상기 촬영된 영상의 해상도 정보와 상기 카메라의 시야각 정보를 획득하는 단계;
    기준축과 상기 카메라의 조준축 사이의 각도를 센싱하는 단계; 및
    상기 촬영된 영상, 상기 촬영된 영상의 해상도 정보, 상기 카메라의 시야각 정보, 상기 센싱된 각도 정보 및 상기 복수의 식별마커들의 위치 정보를 이용하여 상기 카메라의 위치 좌표를 계산하는 단계;를 포함하고,
    상기 카메라의 위치 좌표를 계산하는 단계는,
    상기 촬영된 영상의 해상도 정보와 상기 복수의 식별마커들의 위치 정보를 이용하여 상기 카메라의 조준축과 상기 두 개의 식별마커들을 잇는 직선이 교차하는 교차점의 위치 좌표를 계산하는 단계;
    상기 촬영된 영상의 해상도 정보, 상기 카메라의 시야각 정보 및 상기 센싱된 각도 정보를 이용하여 상기 카메라에서 상기 교차점까지의 실제 거리를 계산하는 단계;
    상기 교차점의 위치 좌표와 상기 실제 거리를 이용하여 상기 카메라의 위치 좌표를 계산하는 단계; 및
    상기 촬영된 영상의 해상도 정보와 상기 실제 거리를 이용하여 상기 카메라의 위치 좌표를 보상하는 단계;를 포함하는 위치인식 방법.
  9. 삭제
  10. 제 8 항에 있어서,
    상기 카메라의 기울기를 센싱하는 단계; 및
    상기 센싱된 기울기 정보를 이용하여 상기 카메라의 위치 좌표를 보상하는 단계를 더 포함하는 위치인식 방법.
KR1020110030509A 2011-04-04 2011-04-04 위치인식 장치와 시스템 및 방법 KR101202613B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110030509A KR101202613B1 (ko) 2011-04-04 2011-04-04 위치인식 장치와 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110030509A KR101202613B1 (ko) 2011-04-04 2011-04-04 위치인식 장치와 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20120112917A KR20120112917A (ko) 2012-10-12
KR101202613B1 true KR101202613B1 (ko) 2012-11-19

Family

ID=47282634

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110030509A KR101202613B1 (ko) 2011-04-04 2011-04-04 위치인식 장치와 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101202613B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016171387A1 (ko) * 2015-04-23 2016-10-27 임동권 위치 정보 제공 장치 및 노드 네트워크

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101421442B1 (ko) * 2013-05-07 2014-08-13 주식회사 레드로버 입체카메라 촬영위치 추적방법 및 그 시스템
KR102102803B1 (ko) * 2017-12-07 2020-04-22 (주) 판타즈모 정적 마커 그리드 기반 실시간 실내 위치 측위 방법 및 그 시스템
KR102444101B1 (ko) * 2019-12-10 2022-09-15 주식회사 한화 발파 패턴 좌표를 변환하여 제공하는 장치 및 그 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008215991A (ja) 2007-03-02 2008-09-18 Toyota Central R&D Labs Inc 測位装置及び測位システム
KR100906974B1 (ko) 2006-12-08 2009-07-08 한국전자통신연구원 카메라를 이용한 위치 인식 장치 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100906974B1 (ko) 2006-12-08 2009-07-08 한국전자통신연구원 카메라를 이용한 위치 인식 장치 및 그 방법
JP2008215991A (ja) 2007-03-02 2008-09-18 Toyota Central R&D Labs Inc 測位装置及び測位システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016171387A1 (ko) * 2015-04-23 2016-10-27 임동권 위치 정보 제공 장치 및 노드 네트워크
US10768302B2 (en) 2015-04-23 2020-09-08 Dong-Kwon LIM Positioning system using invisible light, sound and radio frequency signals

Also Published As

Publication number Publication date
KR20120112917A (ko) 2012-10-12

Similar Documents

Publication Publication Date Title
CN106291535B (zh) 一种障碍物检测装置、机器人及避障系统
JP4584213B2 (ja) カメラ及び標識を用いた移動ロボットの測位システム及び方法
US9928613B2 (en) Ground tracking apparatus, systems, and methods
US10062178B2 (en) Locating a portable device based on coded light
JP5079703B2 (ja) リアルタイムに位置を算出するためのシステムおよび方法
CN207115193U (zh) 一种用于处理任务区域的任务的移动电子设备
Liang et al. Towards robust visible light positioning under LED shortage by visual-inertial fusion
Lee et al. QR-code based Localization for Indoor Mobile Robot with validation using a 3D optical tracking instrument
KR101202613B1 (ko) 위치인식 장치와 시스템 및 방법
WO2019019819A1 (zh) 一种用于处理任务区域的任务的移动电子设备以及方法
CN112013850B (zh) 定位方法、装置、自移动设备和存储介质
US11402507B2 (en) Positional tracking system and method
KR101365291B1 (ko) 오브젝트의 위치 추정 방법 및 장치
US20060227998A1 (en) Method for using networked programmable fiducials for motion tracking
KR20160027605A (ko) 사용자기기의 실내 위치를 측정하기 위한 측위방법 및 이를 구현하기 위한 장치
KR20070061079A (ko) 카메라와 표식을 이용한 이동 로봇의 측위 시스템 및 방법
Sohn et al. Localization system for mobile robot using wireless communication with IR landmark
JP6573936B2 (ja) 位置測定用の端末装置,コンピュータプログラム,及びシステム
KR100581086B1 (ko) RFID Tag LED를 이용한 로봇 위치 측정 방법 및장치
JP6294588B2 (ja) 三次元表示可能な地中レーダシステム
US20120002044A1 (en) Method and System for Implementing a Three-Dimension Positioning
TW201621273A (zh) 行動定位裝置及其定位方法
Chae et al. Robot localization sensor for development of wireless location sensing network
KR20090020027A (ko) 이동체의 위치 검출 장치 및 방법
KR101672710B1 (ko) 증강현실을 이용한 실내 위치 모니터링 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161026

Year of fee payment: 5