KR101234798B1 - 이동 로봇의 위치 측정 방법 및 장치 - Google Patents
이동 로봇의 위치 측정 방법 및 장치 Download PDFInfo
- Publication number
- KR101234798B1 KR101234798B1 KR1020080117031A KR20080117031A KR101234798B1 KR 101234798 B1 KR101234798 B1 KR 101234798B1 KR 1020080117031 A KR1020080117031 A KR 1020080117031A KR 20080117031 A KR20080117031 A KR 20080117031A KR 101234798 B1 KR101234798 B1 KR 101234798B1
- Authority
- KR
- South Korea
- Prior art keywords
- mobile robot
- acceleration
- calculated
- feature point
- pitch
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000001133 acceleration Effects 0.000 claims abstract description 63
- 238000006073 displacement reaction Methods 0.000 claims abstract description 41
- 230000005484 gravity Effects 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 3
- 239000011295 pitch Substances 0.000 claims 12
- 238000005259 measurement Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 6
- 238000004140 cleaning Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1607—Calculation of inertia, jacobian matrixes and inverses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 카메라, 관성 센서 및 엔코더를 이용한 이동 로봇의 위치 측정에 관한 것이다.
본 발명의 일 실시예에 따른 이동 로봇의 위치 측정 장치는, 이동 로봇의 직진 가속도를 측정하는 가속도계; 상기 이동 로봇이 등속 운동을 하는 구간과 가감속 운동을 하는 구간을 판단하는 등속 판단부; 및 상기 이동 로봇이 등속 운동을 하는 구간에서, 상기 측정된 직진 가속도와 중력 가속도와의 관계를 이용하여, 상기 이동 로봇의 피치와 롤을 계산하는 자세 계산부; 이동 로봇의 상부면에 장착되어 천정 영상을 촬영하는 카메라; 상기 촬영된 천정 영상으로부터 특징점을 추출하는 특징점 추출부; 상기 계산된 피치와 롤을 이용하여 상기 추출된 특징점의 좌표를 보상하는 특징점 보상부; 및 상기 좌표가 보상된 특징점을 기초로 하여 상기 이동 로봇의 이동 변위를 계산하는 위치 계산부를 포함한다.
이동 로봇, 자세, 천정 영상, 특징점, 위치인식, 자이로, 가속도계, 엔코더
Description
본 발명은 이동 로봇(mobile robot)에 관한 것으로, 보다 상세하게는 카메라, 관성 센서 및 엔코더를 이용한 이동 로봇의 자세 측정 및 이동 로봇의 위치 측정에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장자동화의 일환으로 사용되거나, 인간이 견딜 수 없는 극한의 환경에서 인간을 대신하여 작업을 수행하는 데 사용되어 왔다. 이러한 로봇 공학분야는 근래에 들어 최첨단의 우주개발산업에 사용되면서 발전을 거듭하여 최근에 들어서는 인간친화적인 가정용 로봇의 개발에까지 이르렀다. 덧붙여, 로봇은 의료용 기기를 대체하여 인간 생체 내에 투입됨으로써, 기존의 의료용 기기로는 치료가 불가능했던 미세한 인간 생체조직의 치료에까지 이용된다. 이와 같은 눈부신 로봇공학의 발전은 인터넷에 의한 정보혁명과 이를 뒤이어 유행하고 있는 생명공학분야를 대체하여 새롭게 등장할 최첨단 분야로서 각광받고 있다.
이 중 상기 가정용 로봇은 산업용 로봇에 국한되어왔던 기존의 중공업 중심 의 로봇공학분야를 경공업 중심의 로봇공학 분야까지 확대시킨 주역으로서 가장 기본적으로 상기되는 것으로 청소용 로봇을 그 예로 들 수 있다. 이러한 상기 청소용 로봇은 통상 이동을 위한 구동수단과, 청소를 위한 청소 수단 그리고, 자신의 위치 또는 사용자 리모컨의 위치를 측정하기 위한 위치 측정 수단 등으로 구성된다.
청소용 로봇과 같은 이동 로봇에서 자기의 정확한 위치를 파악하는 것은 가장 기본적이고 중요한 기능이다. 이동 로봇의 절대 위치를 계산하는 방법으로는 초음파 센서를 탑재한 비콘(beacon)을 이용하는 방법, 실내용 GPS(Global Positioning System)를 가정 내에 설치하는 방법, 또는 카메라 영상을 이용하여 로봇이 가정내에서 특징점을 뽑아내어 등록하고 이를 기준으로 자기위치를 계산하는 방법 등이 있다. 또 상대 위치를 결정하는 방법으로는 엔코더(encoder)로부터 회전속도와 직진속도를 구하고 이를 적분하여 위치를 구하는 방법이나, 가속도 센서로부터 구한 가속도 값을 두 번 적분하여 위치를 구하는 방법, 또는 자이로 센서의 출력 값인 회전 속도를 적분하여 방향을 구하는 방법 등이 알려져 있다.
절대 위치를 계산하는 방법 중에 대표적인 것이 도 1에 도시한 바와 같은, 카메라와 엔코더를 이용한 방법이다.
이동 로봇은, 이동카메라에 의하여 획득된(captured) 영상이 입력되면(S11), 상기 입력된 영상으로부터 특징점(features)을 추출하여 등록한다(S12). 그런데, 등록된 특징점으로부터 이동 로봇의 이동 변위를 측정하기 위해서는 먼저, 이동 로봇이 위치하는 바닥으로부터 상기 특징점까지의 높이(특징점 높이)를 계산할 필요가 있다(S13). 이 때, 특징점 높이의 계산하기 위해서 엔코더로부터 입력되는 신 호(엔코더 신호)를 사용한다(S15). 일단, 상기 특징점 높이가 계산된 이후부터는 상기 등록된 특징점과, 이동 로봇이 이동 중에 얻은 특징점을 비교함으로써 이동 로봇의 이동 변위를 알 수 있다(S14).
그런데, 도 1의 방법에서, 만약 카메라의 자세가 부정확하면 오동작을 일으킬 가능성이 있다. 도 2는 동일한 위치에서 이동 로봇의 자세가 달라졌을 때 천장 영상이 변화되는 결과를 보여준다. 좌측의 영상(21)은 이동 로봇이 지면과 수평을 이룰 때의 천정 영상이고, 우측의 영상(22)은 이동 로봇 앞쪽이 약간 들렸을 때의 천정 영상이다. 우측과 같은 경우에서, 이동 로봇의 엔코더 값은 변하지 않지만 상기 획득된 영상(22)을 기초로, 이동 로봇은 자신이 후진한 것으로 판단한다. 이와 같이, 이동 로봇의 자세 내지 카메라의 자세가 정확하지 않으면, 미소한 피치(pitch)나 롤(roll)의 변화에 의해서도 센싱되는 값의 오차는 매우 커질 수 있기 때문에, 이동 변위를 센싱함에 있어서 이동 로봇의 자세를 정확히 측정하는 것은 매우 중요하다고 볼 수 있다.
그리고, 상기한 방법은 이동 로봇이 바닥면과 수평을 이루지 않는 경우에는 이동 변위의 오차가 크게 발생하는 단점이 있고, 신뢰하기 어려운 엔코더를 이용하여 이동 변위를 구한 후 특징점의 높이를 구하기 때문에 특징점의 등록시간이 오래 걸린다는 단점이 있다.
한편, 이동 로봇의 위치를 계산하는 다른 방법은 가속도계나 자이로와 같은 관성 센서의 값을 적분하여 이동 변위를 계산하고 엔코더 값과 융합(fusion)하여 정확도를 향상시키는 방법이다. 도 3은 이러한 방법을 수행하는 흐름을 보여준다.
이동 로봇은 3축 자이로의 값을 입력 받고(S31), 이를 이용하여 자신의 자세를 추정한다(S32). 또한, 이동 로봇은 3축 가속도계의 값을 입력 받고(S33), 중력 보상을 수행한다(S34). 그리고, 이동 로봇은 엔코더 값을 입력 받고(S35), 이를 상기 자이로에 의해 추정된 자세(roll, pitch, yaw) 및 중력 보상된 가속도계의 값으로부터 얻어지는 이동 변위를 계산한다.
그런데, 이와 같은 방식은, 이동 로봇이 저속으로 직진하는 경우에는 가속도계의 신호가 너무 미약하여 잡음과 구별이 안되기 때문에 위치 계산 성능이 떨어지고 관성 센서를 장시간 적분시에는 정확도가 떨어진다는 단점이 있다.
본 발명이 이루고자 하는 기술적 과제는, 피치(pitch) 자이로 및 롤(roll) 자이로 없이 가속도계를 이용하여 이동 로봇의 자세를 측정하는 방법 및 장치를 제공하는 것이다.
본 발명이 이루고자 하는 또 다른 기술적 과제는, 카메라, 관성센서 및 엔코더를 융합하여 이동 로봇의 위치를 계산하는 방법 및 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른, 이동 로봇의 위치 측정 장치는, 이동 로봇의 직진 가속도를 측정하는 가속도계; 상기 이동 로봇이 등속 운동을 하는 구간과 가감속 운동을 하는 구간을 판단하는 등속 판단부; 및 상기 이동 로봇이 등속 운동을 하는 구간에서, 상기 측정된 직진 가속도와 중력 가속도와의 관계를 이용하여, 상기 이동 로봇의 피치와 롤을 계산하는 자세 계산부; 이동 로봇의 상부면에 장착되어 천정 영상을 촬영하는 카메라; 상기 촬영된 천정 영상으로부터 특징점을 추출하는 특징점 추출부; 상기 계산된 피치와 롤을 이용하여 상기 추출된 특징점의 좌표를 보상하는 특징점 보상부; 및 상기 좌표가 보상된 특징점을 기초로 하여 상기 이동 로봇의 이동 변위를 계산하는 위치 계산부 를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른, 이동 로봇의 위치 측정 방법은, 가속도계를 이용하여 이동 로봇의 직진 가속도를 측정하는 단계; 상기 이동 로봇이 등속 운동을 하는 구간과 가감속 운동을 하는 구간을 판단하는 단계; 상기 이동 로봇이 등속 운동을 하는 구간에서, 상기 측정된 직진 가속도와 중력 가속도와의 관계를 이용하여, 상기 이동 로봇의 피치와 롤을 계산하는 단계; 천정 영상을 촬영하는 단계; 상기 촬영된 천정 영상으로부터 특징점을 추출하는 단계; 상기 계산된 피치와 롤을 이용하여 상기 추출된 특징점의 좌표를 보상하는 단계; 및 상기 좌표가 보상된 특징점을 기초로 하여 상기 이동 로봇의 이동 변위를 계산하는 단계를 포함한다.
본 발명에 따르면, 피치(pitch) 자이로 및 롤(roll) 자이로 없이도, 가속도계를 이용하여 이동 로봇의 자세를 측정할 수 있는 장점이 있다.
또한, 본 발명에 따르면, 카메라, 관성센서 및 엔코더를 융합함으로써, 이동 로봇의 위치 측정을 효율적으로 수행할 수 있는 장점도 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발 명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하 첨부된 도면들을 참조하여 본 발명의 일 실시예를 상세히 설명한다.
전술한 바와 같이, 카메라, 관성센서 및 엔코더를 융합하여 이동 로봇의 위치를 측정하기 위해서는, 우선적으로 이동 로봇의 자세(pose)를 정확하게 측정하는 것이 선행되어야 한다. 상기 "자세"라 함은 이동 로봇의 방향각, 즉 피치(pitch), 롤(roll), 및 요우(yaw)를 포함하는 개념이다.
다음의 도 4는 이동 로봇(50)의 자세를 정의하는 도면이다. 도 4에서, X, Y, Z 축은 공간상에서 고정된 글로벌 좌표축이고, xb, yb, zc는 이동 로봇(50)의 몸체에 부착된 로컬 좌표축이다. 이동 로봇(50)의 전진 방향을 X라고 할 때, 롤, 피치 및 요우는 도 4에 도시된 바와 같이 정의될 수 있다. 이와 같이, 롤, 피치 및 요우가 발생함에 의하여, 글로벌 좌표축과 이동 로봇(50)의 로컬 좌표축은 서로 일치하지 않게 된다.
일반적으로, 이동 로봇의 회전각, 즉 피치, 롤, 요는 자이로에 의하여 측정하고, 이동 로봇의 이동 변위는 엔코더 또는 가속도계에 의하여 측정한다. 그러나, 자이로는 가속도계에 가격면에서 훨씬 고가이고, 소형, 경량화를 추구하는 이동 로봇에 적용하기에 부적합한 면이 있다. 따라서, 본 발명에서는 상기 이동 로봇의 자세를 측정하기 위하여, 피치 자이로 및 롤 자이로를 사용하지 않고 가속도계를 이 용하여 이동 로봇의 피치 및 롤을 계산하는 방법을 제안하고자 한다. 이 경우, 이동 로봇에는 3축 자이로를 장착할 필요 없이, 단순히 요우 자이로만을 장착하면 된다.
도 5는 본 발명의 일 실시예에 따른, 이동 로봇의 자세 측정 장치(100)의 구성을 도시하는 블록도이다. 자세 측정 장치(100)는 모터(110), 엔코더(115), 등속 판단부(120), 가속도계(125), 자세 계산부(130) 및 자세 보상부(140)를 포함한다.
엔코더(115)는 상기 이동 로봇에 구비되는 주행바퀴와 연결되어 상기 주행바퀴의 회전 수를 감지하는 수단으로서 주행계(odometer)라고도 불린다. 회전 바퀴를 이동 수단으로 삼는 이동 로봇에는 엔코더(115)가 구비되어 있기 마련이다.
모터(110)는 모터 컨트롤러(미도시됨)의 제어에 따라 상기 이동 로봇에 동력을 제공한다. 모터(110)는 동력 제공 수단의 일 예일 뿐이고, 당업계에 알려진 어떤 형태의 액츄에이터가 적용되어도 무방하다.
등속 판단부(120)는 이동 로봇이 이동하는 전체 경로 중에서, 이동 로봇의 현재 위치가 등속 구간, 정지 구간, 가속 구간 및 감속 구간 중 어느 구간에 속하는지를 판단한다. 이와 같이, 등속 판단부(120)는 엔코더(115)의 출력 신호로부터 상기와 같은 구간들을 판단할 수도 있지만, 상기 모터 컨트롤러로부터 상기 구간들에 관한 정보를 직접 수신할 수도 있다. 왜냐하면, 일반적으로 모터 컨트롤러는 이동 로봇을 출발지로부터 도착지까지 이동시키기 위하여, 상기 이동 로봇의 운동이 도 6과 같은 사다리꼴 속도 프로파일을 갖도록 모터(110)를 제어하기 때문이다. 상기 사다리꼴 속도 프로파일은 가속 구간(61), 등속 구간(62) 및 감속 구간(63)의 조합으로 구성된다.
한편, 등속 판단부(120)는 현재 위치가 등속 구간 또는 정지 구간에 속하는 경우에는 제1 제어 신호를, 현재 위치가 가속 구간 또는 감속 구간에 속하는 경우에는 제2 제어 신호를 자세 계산부(130)에 전달한다.
가속도계(125)는 적어도 2축 이상의 가속도계이다. 일반적으로, 청소 등에 이용되는 이동 로봇은 바닥과 접한 상태에서만 이동하므로, 바닥과 수직인 방향을 위한 가속도계는 불필요하다. 가속도계(125)의 출력은 자세 계산부(130)에 제공된다.
자세 계산부(130)는 중력 가속도를 이용하여 피치 및 롤을 계산한다. 보다 자세한 계산 과정은 다음의 도 7 및 8을 참조하여 설명한다.
도 7은 도 4의 이동 로봇(50)에 피치(θ)가 발생하였을 때, xb 방향 가속도(acc_x)와 중력 가속도(g)와의 관계를 보여주는 도면이다. 현재 이동 로봇(50)은 정지되어 있거나, 등속 운동을 하고 있다고 가정하면, 기하학적 원리에 의하여 피치(θ)는 다음의 수학식 1과 같이 계산될 수 있다.
한편, 도 8은 도 7의 이동 로봇(50)에 롤(Φ)이 추가적으로 발생하였을 때, yb 방향 가속도(acc_y)와 중력 가속도(g)와의 관계를 보여주는 도면이다. 도 7에서는 이미 피치가 발생한 것을 전제하므로, 중력 가속도(g)의 연직 성분은 g·cosθ 가 된다. 따라서, 이동 로봇(50)이 정지되어 있거나, 등속 운동을 하고 있다면, 기하학적 원리에 의하여 롤(Φ)은 다음의 수학식 2와 같이 계산될 수 있다.
이와 같이, 이동 로봇(50)이 가속 또는 감속하지 않는 구간에서는, 가속도계(125)는 상기 수학식 1 및 수학식 2에 의하여, 피치 자이로 및 롤 자이로 없이도 피치 및 롤을 계산할 수 있다. 이러한 계산을 위해서, 자세 계산부(130)는 이동 로봇의 현재 위치가 등속 구간 또는 정지 구간에 속하는지에 관한 정보를 등속 판단부(120)로부터 제공받는다. 즉, 등속 판단부(120)로부터 제1 제어 신호를 수신한 구간에서만, 상기와 같이 롤 및 피치를 계산한다.
도 9는, 가감속(加減速)이 일어나지 않는 구간에서, 본 발명에서과 같이 가속도계에 의하여 계산된 피치가, 참조 시스템(예: 피치 자이로)에 의하여 계산된 피치와 비교적 정확히 일치함을 보여준다.
이와 같이, 상기 가감속이 일어나지 않는 구간에서는 피치와 롤을 계산할 수 있지만, 가감속이 일어나는 구간에서도 피치는 계산할 수 있다. 다음의 도 10은 가속도계(125)를 이동 로봇(50)의 전단부에 부착함으로써 가감속 중에 피치(θ)를 계산할 수 있는 원리를 보여준다. 도 10에서, 이동 로봇(50)의 전단부는 장애물(60)에 의하여 들려져 있다. 여기서, L은 이동 로봇(50)의 중심(정확히는 주행 바퀴의 중심)으로부터 가속도계(125)까지의 거리를 나타내고, d는 가속도계(125)로부터 계 산되는 zb 방향의 변위(들림 변위)이다. 상기 d는 zb 방향의 가속도(acc_z)를 시간에 대하여 2회 적분함으로써 계산될 수 있다. 이 때, 피치(θ)는 다음의 수학식 3과 같이 구할 수 있다.
한편, 가감속 구간에서는 xb, yb 방향의 가속도(acc_x)가 크기 때문에, 만약 슬립 등이 발생하여 엔코더(115)의 값을 신뢰할 수 없는 경우에는, 상기 이들 가속도를 가속도 값을 2번 적분하여 이동 로봇의 이동 변위를 계산할 수 있다. 그런데, 이와 같은 방법으로 이동 로봇의 이동 변위를 계산하기 위해서는 로컬 좌표축에서의 가속도 성분을 글로벌 좌표축에서의 가속도 성분으로 변환하는 과정이 선행되어야 한다.
자세 보상부(140)는 자세 계산부(130)에서 계산된 피치(θ) 및 롤(Φ)을 이용하여, 로컬 좌표축에서 가속도 성분(accb)을 글로벌 좌표축에서의 가속도 성분(accw)으로 변환한다. 여기서 R은 변환 행렬이다.
한편, 도 11은, 도 5의 이동 로봇의 자세 측정 장치(100)에서 사용된 기본 개념을 적용한, 본 발명의 일 실시예에 따른 이동 로봇의 위치 측정 장치(200)의 구성을 도시하는 블록도이다.
일단, 엔코더(215), 등속 판단부(220), 가속도계(225), 자세 계산부(230) 및 자세 보상부(240)의 기능 및 동작은 각각 도 5의 엔코더(115), 등속 판단부(120), 가속도계(125), 자세 계산부(130) 및 자세 보상부(140)의 기능 및 동작과 마찬가지이므로, 중복된 설명은 생략하고 차이나는 부분을 위주로 하여 설명하기로 한다.
카메라(245)는 이동 로봇의 상부면에 장착되어 천정 영상을 촬영한다. 카메라(245)는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor), 기타 당업계에 알려진 영상 획득(image capture) 수단으로 이루어질 수 있으며, 획득된 영상의 아날로그 신호를 디지털 신호로 변환하는 ADC(Analog-to-Digital Converter)를 더 포함할 수 있다.
특징점 추출부(247)는 카메라(245)로부터 획득된 천정 영상으로부터 적어도 하나 이상의 특징점을 추출한다. 상기 특징점은 천정 영상에서 특정 위치를 식별할 수 있도록 표시되는 점들이다. 상기 특징점은 상기 특정 위치 고유의 특징이 나타날 수 있는 점들로서 선택되는 것이 바람직하다. 예를 들어, 도 12와 같은 천정 영상(40)이 촬영되었다고 할 때, 천정 영상(40)에는 샹들리에(41), 형광등(42), 모서리 부분(43) 등 다른 위치와는 구별되게 하는 세부 영상들이 포함되어 있을 수 있다.
도 5의 자세 계산부(130)와 마찬가지로, 자세 계산부(230)는 등속 구간 또는 정지 구간에서는 수학식 1에 따라서 피치(θ)를 계산하고, 수학식 2에 따라서 롤(Φ)을 계산할 수 있다. 또한, 자세 계산부(230)는 가감속 구간에서는, 수학식 3에 의하여 상기 피치(θ)를 계산할 수 있다.
특징점 보상부(250)는 자세 계산부(230)에서 계산된 피치(θ) 및 롤(φ)과, 요우 자이로(235)에서 측정된 요우(ψ)를 이용하여 카메라(245)의 자세를 보상한다. 도 2에서 도시한 바와 같이, 이동 로봇이 이동하지 않더라도 자세의 변화만으로도 천정 영상은 변화되며 이에 의하여 이동 로봇이 이동한 것으로 잘못 판단될 수 있기 때문에 상기 카메라 자세의 보상은 필수적인 과정이다.
구체적으로, 카메라의 자세 보상에 의하여 보상된 특징점 좌표(Pcomp)는, 다음의 수학식 5와 같이, 변환 행렬(Q)에 천정 영상으로부터 획득된 특징점 좌표(Praw)를 곱함으로써 구할 수 있다.
높이 계산부(255)는 이동 로봇으로부터 상기 보상된 특징점까지의 높이를 계산한다. 왜냐하면, 이동 로봇으로부터 천정의 특징점까지의 높이를 알아야만 이동 로봇의 이동 변위를 계산할 수 있고, 상기 이동 변위를 누적하여 이동 로봇의 위치를 계산할 수 있기 때문이다.
도 13은 이동 로봇의 이동 변위(D)와 특징점(34)의 높이(H) 간의 기하학적 관계를 보여주는 도면이다. t1이라는 시점에 카메라(245)가 특징점(34)을 관찰하고, 이동 로봇이 D만큼 전진한 t2라는 시점에서 이동된 특징점(35)을 다시 관찰했을 때, 영상 좌표 상에서의 특징점(34)의 변위를 x라고 하면, 상기 이동 변위 D와 높이 H 간에는 다음의 수학식 6의 관계가 만족된다. 여기서, f는 카메라(245)의 렌즈(32)의 초점 거리이다.
수학식 6에서 보면, 초점 거리 f는 알려진 고정 값이고, x는 보상된 천정 영상으로부터 얻을 수 있는 값이다. 따라서, H만 알 수 있으면, 보상된 천정 영상으로부터 이동 로봇의 이동 변위(D)를 구할 수 있다.
그런데, 특징점 등록 단계에서는, 상기 특정한 특징점의 H는 역으로, 신뢰할 수 있는 이동 변위(D)로부터 계산되어야 한다. 이 때, 엔코더(215)로부터 D를 계산한다면, 슬립 등의 상황에서는 엔코더(215)의 측정 값을 신뢰할 수가 없기 때문에, 특징점의 등록에 매우 많은 시간이 소요되게 된다.
본 발명에서는, 자세 보상부(240)에서 제공되는 이동 변위(가속도계로부터 얻어진 이동 변위)를 상기 D로서 이용하는 것을 제안한다. 자세 보상부(240)에서 제공되는 이동 변위는 슬립 등에 영향이 없기 때문이다. 물론, 자세 보상부(240)에서 제공되는 이동 변위는 자세 계산부(230)에서 계산된 피치 및 요에 근거한 변환 행렬(수학식 4의 R)에 의하여 보상된 값이다.
이와 같이, 천정 영상의 특징점은 특징점 보상부(250)에서 보상 과정을 거치고, 높이가 계산된 후, 특징점 등록부(260)에 의하여 소정의 메모리에 등록된다.
일단, 특징점이 등록된 후부터는, 상기 특징점의 높이 H를 이용하면 이동 로봇의 이동 변위(D)를 실시간으로 구할 수 있는 것이다.
위치 계산부(265)는 실시간으로 이동 중에 촬영된 천정 영상으로부터 추출되는 특징점을, 특징점 등록부(260)에 의하여 제공되는 등록된 특징점(H를 포함하고 있음)과 비교함으로써 이동 로봇의 이동 변위를 계산할 수 있다. 이 때, 수학식 6에서 D를 구하는 과정이 수행된다. 위치 계산부(265)는 이동 로봇의 기존 위치에서 상기 계산되는 이동 변위를 누적하여 이동 로봇의 현재 위치를 파악할 수 있다.
지금까지 도 5 및 도 11의 각 구성요소들은 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 상기 구성요소들은 컴퓨터로 판독 가능한 저장 매체에 포함되어 있을 수도 있고, 복수의 컴퓨터에 그 일부가 분산되어 분포될 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
도 1은 카메라와 엔코더를 이용하여 이동로봇의 위치를 측정하는 종래 기술의 구성을 도시하는 도면.
도 2는 동일한 위치에서 이동 로봇의 자세가 달라졌을 때 천장 영상이 변화되는 결과를 보여주는 도면.
도 3은 관성 센서와 엔코더를 이용하여 이동로봇의 위치를 측정하는 종래 기술의 구성을 도시하는 도면.
도 4는 이동 로봇의 자세를 정의하는 도면.
도 5는 본 발명의 일 실시예에 따른, 이동 로봇의 자세 측정 장치의 구성을 도시하는 블록도.
도 6은 이동 로봇의 속도가 갖는 프로파일의 예를 도시한 도면.
도 7은 이동 로봇에 피치가 발생하였을 때, xb 방향 가속도와 중력 가속도와의 관계를 보여주는 도면.
도 8은 이동 로봇에 롤이 발생하였을 때, yb 방향 가속도와 중력 가속도와의 관계를 보여주는 도면.
도 9는 가속도계에 의하여 계산된 피치와 참조 시스템에 의하여 계산된 피치를 비교하는 그래프.
도 10은 가속도계를 이용하여 이동 로봇의 가감속 중에 피치를 계산할 수 있는 원리를 보여주는 도면.
도 11은 본 발명의 일 실시예에 따른 이동 로봇의 위치 측정 장치의 구성을 도시하는 블록도.
도 12는 천정 영상으로부터 추출된 특징점의 예를 보여주는 도면.
도 13은 이동 로봇의 이동 변위와 특징점의 높이 간의 기하학적 관계를 보여주는 도면.
(도면의 주요부분에 대한 부호 설명)
100 : 이동 로봇의 자세 측정 장치 110 : 모터
115, 215 : 엔코더 120, 220 : 등속 판단부
125, 225 : 가속도계 130, 230 : 자세 계산부
140, 240 : 자세 보상부 200 : 이동 로봇의 위치 측정 장치
245 : 카메라 247 : 특징점 추출부
250 : 특징점 보상부 255 : 높이 계산부
260 : 특징점 등록부 265 : 위치 계산부
Claims (12)
- 이동 로봇의 직진 가속도를 측정하는 가속도계;상기 이동 로봇이 등속 운동을 하는 구간과 가감속 운동을 하는 구간을 판단하는 등속 판단부;상기 이동 로봇이 등속 운동을 하는 구간에서, 상기 측정된 직진 가속도와 중력 가속도와의 관계를 이용하여, 상기 이동 로봇의 피치와 롤을 계산하는 자세 계산부;상기 이동 로봇의 상부면에 장착되어 천정 영상을 촬영하는 카메라;상기 촬영된 천정 영상으로부터 특징점을 추출하는 특징점 추출부;상기 계산된 피치와 롤을 이용하여 상기 추출된 특징점의 좌표를 보상하는 특징점 보상부; 및상기 좌표가 보상된 특징점을 기초로 하여 상기 이동 로봇의 이동 변위를 계산하는 위치 계산부를 포함하는, 이동 로봇의 위치 측정 장치.
- 제 1항에 있어서,상기 자세 계산부는 상기 피치는 arcsin(acc_x/g)로부터 계산하고, 상기 계산된 피치를 θ라고 할 때, 상기 롤은 arcsin(acc_y/g/cosθ)로부터 계산하는데, 상기 acc_x는 로컬 좌표축에서 상기 이동 로봇의 진행 방향의 가속도 성분이고, acc_y는 상기 로컬 좌표축에서 상기 진행 방향과 수직인 방향의 가속도 성분이며, g는 중력 가속도인, 이동 로봇의 위치 측정 장치.
- 제 1항에 있어서,상기 계산된 피치 및 롤과 상기 측정된 직진 가속도를 이용하여 글로벌 좌표축에서의 직진 가속도를 계산하는 자세 보상부; 및상기 계산된 직진 가속도로부터 계산되는 이동 거리를 이용하여 상기 이동 로봇으로부터 상기 보상된 특징점까지의 높이를 계산하는 높이 계산부를 더 포함하는, 이동 로봇의 위치 측정 장치.
- 제 3항에 있어서,자세 보상부는 상기 계산된 피치 및 롤을 기초로 하는 변환 행렬에 상기 측정된 직진 가속도를 곱하여 글로벌 좌표축에서의 직진 가속도를 계산하는데, 상기 변환 행렬은 로 표시되며, 상기 θ는 상기 계산된 피치이고, 상기 Φ는 상기 계산된 롤인, 이동 로봇의 위치 측정 장치.
- 제 3항에 있어서,상기 높이 계산부는 상기 높이를 D * f/x 로부터 구하는데, 상기 D는 상기 계산된 직진 가속도로부터 계산되는 이동 거리이고, 상기 f는 초점 거리이며, 상기 x는 상기 카메라로 촬영된 천정 영상 내에서의 특징점의 변위인, 이동 로봇의 위치 측정 장치.
- 제 1항에 있어서,상기 위치 계산부는 상기 이동 로봇의 이동 변위를 H * x /f 로부터 구하는데, 상기 H는 특징점의 높이이고, 상기 x는 상기 카메라로 촬영된 천정 영상 내에서의 특징점의 변위이며, 상기 f는 초점 거리인, 이동 로봇의 위치 측정 장치.
- 제 1항에 있어서,상기 가속도계는 상기 이동 로봇의 전단부에 장착되며,상기 자세 계산부는, 상기 가감속 구간에서, 상기 피치를 d/L로 계산하는데, 상기 d는 상기 가속도계로부터 계산될 수 있는 상기 이동 로봇의 들림 변위이고, 상기 L은 상기 이동 로봇의 중심으로부터 상기 가속도계까지의 거리인, 이동 로봇의 자세 측정 장치.
- 가속도계를 이용하여 이동 로봇의 직진 가속도를 측정하는 단계;상기 이동 로봇이 등속 운동을 하는 구간과 가감속 운동을 하는 구간을 판단하는 단계;상기 이동 로봇이 등속 운동을 하는 구간에서, 상기 측정된 직진 가속도와 중력 가속도와의 관계를 이용하여, 상기 이동 로봇의 피치와 롤을 계산하는 단계;카메라로 천정 영상을 촬영하는 단계;상기 촬영된 천정 영상으로부터 특징점을 추출하는 단계;상기 계산된 피치와 롤을 이용하여 상기 추출된 특징점의 좌표를 보상하는 단계; 및상기 좌표가 보상된 특징점을 기초로 하여 상기 이동 로봇의 이동 변위를 계산하는 단계를 포함하는, 이동 로봇의 위치 측정 방법.
- 제 9항에 있어서,상기 계산된 피치 및 롤과 상기 측정된 직진 가속도를 이용하여 글로벌 좌표축에서의 직진 가속도를 계산하는 단계; 및상기 계산된 직진 가속도로부터 계산되는 이동 거리를 이용하여 상기 이동 로봇으로부터 상기 보상된 특징점까지의 높이를 계산하는 단계를 더 포함하는, 이동 로봇의 위치 측정 방법.
- 제 10항에 있어서,상기 높이를 계산하는 단계는상기 높이를 D * f/x 로부터 구하는 단계를 포함하는데, 상기 D는 상기 계산된 직진 가속도로부터 계산되는 이동 거리이고, 상기 f는 초점 거리이며, 상기 x는 상기 카메라로 촬영된 천정 영상 내에서의 특징점의 변위인, 이동 로봇의 위치 측정 방법.
- 제 9항에 있어서,상기 이동 변위를 계산하는 단계는상기 이동 로봇의 이동 변위를 H * x /f 로부터 구하는 단계를 포함하는데, 상기 H는 특징점의 높이이고, 상기 x는 상기 카메라로 촬영된 천정 영상 내에서의 특징점의 변위이며, 상기 f는 초점 거리인, 이동 로봇의 위치 측정 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080117031A KR101234798B1 (ko) | 2008-11-24 | 2008-11-24 | 이동 로봇의 위치 측정 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080117031A KR101234798B1 (ko) | 2008-11-24 | 2008-11-24 | 이동 로봇의 위치 측정 방법 및 장치 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070072287A Division KR100922494B1 (ko) | 2007-07-19 | 2007-07-19 | 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090009172A KR20090009172A (ko) | 2009-01-22 |
KR101234798B1 true KR101234798B1 (ko) | 2013-02-20 |
Family
ID=40489082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080117031A KR101234798B1 (ko) | 2008-11-24 | 2008-11-24 | 이동 로봇의 위치 측정 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101234798B1 (ko) |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018204300A1 (en) * | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US10505057B2 (en) | 2017-05-01 | 2019-12-10 | Symbol Technologies, Llc | Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera |
US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11093896B2 (en) | 2017-05-01 | 2021-08-17 | Symbol Technologies, Llc | Product status detection system |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11592826B2 (en) | 2018-12-28 | 2023-02-28 | Zebra Technologies Corporation | Method, system and apparatus for dynamic loop closure in mapping trajectories |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11978011B2 (en) | 2017-05-01 | 2024-05-07 | Symbol Technologies, Llc | Method and apparatus for object status detection |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101658578B1 (ko) * | 2010-01-27 | 2016-09-22 | 삼성전자주식회사 | 복합 센서의 캘리브레이션 장치 및 방법 |
KR101705601B1 (ko) * | 2014-05-30 | 2017-02-13 | 동명대학교 산학협력단 | 3차원 깊이정보기반 자율주행 로봇의 위치추정 장치 및 그 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04145323A (ja) * | 1990-10-08 | 1992-05-19 | Japan Electron Control Syst Co Ltd | 車両の路面勾配検出装置 |
KR20000022154A (ko) * | 1996-06-24 | 2000-04-25 | 드레이어 론니 알 | 차량 안전 장치용 콘트롤러 |
KR20060049149A (ko) * | 2004-11-11 | 2006-05-18 | 가부시키가이샤 히타치세이사쿠쇼 | 이동 로봇 |
-
2008
- 2008-11-24 KR KR1020080117031A patent/KR101234798B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04145323A (ja) * | 1990-10-08 | 1992-05-19 | Japan Electron Control Syst Co Ltd | 車両の路面勾配検出装置 |
KR20000022154A (ko) * | 1996-06-24 | 2000-04-25 | 드레이어 론니 알 | 차량 안전 장치용 콘트롤러 |
KR20060049149A (ko) * | 2004-11-11 | 2006-05-18 | 가부시키가이샤 히타치세이사쿠쇼 | 이동 로봇 |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
WO2018204300A1 (en) * | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US11093896B2 (en) | 2017-05-01 | 2021-08-17 | Symbol Technologies, Llc | Product status detection system |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US11978011B2 (en) | 2017-05-01 | 2024-05-07 | Symbol Technologies, Llc | Method and apparatus for object status detection |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
US10505057B2 (en) | 2017-05-01 | 2019-12-10 | Symbol Technologies, Llc | Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
US11592826B2 (en) | 2018-12-28 | 2023-02-28 | Zebra Technologies Corporation | Method, system and apparatus for dynamic loop closure in mapping trajectories |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
Also Published As
Publication number | Publication date |
---|---|
KR20090009172A (ko) | 2009-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101234798B1 (ko) | 이동 로봇의 위치 측정 방법 및 장치 | |
KR100922494B1 (ko) | 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치 | |
KR100912874B1 (ko) | 이동 로봇의 리로케이션 방법 및 장치 | |
EP2495079B1 (en) | Slip detection apparatus and method for a mobile robot | |
KR101297388B1 (ko) | 위치 보정 기능을 제공하는 이동 장치 및 위치 보정 방법 | |
KR20190041315A (ko) | 관성 기반 항법 장치 및 상대사전적분에 따른 관성 기반 항법 방법 | |
JP2003505681A (ja) | 自動車のホイールジオメトリ及び/又は軸線ジオメトリを規定する装置 | |
JP2000097637A5 (ja) | 姿勢位置検出装置及び移動体姿勢検出装置 | |
KR20100081882A (ko) | 로봇의 슬립 감지 장치 및 방법 | |
JP2009031295A (ja) | 移動体姿勢検出装置 | |
US20200310435A1 (en) | Self-position estimation method | |
CN108801253A (zh) | 机器人建图定位系统及机器人 | |
US11715229B2 (en) | Moving body and system | |
KR100784125B1 (ko) | 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법 | |
CN114789439B (zh) | 斜坡定位校正方法、装置、机器人及可读存储介质 | |
Dang et al. | Mobile robot destination generation by tracking a remote controller using a vision-aided inertial navigation algorithm | |
KR101376536B1 (ko) | 센서 융합을 이용한 모바일 객체의 위치 인식방법 및 그 장치 | |
CN113776528B (zh) | 一种物流机器人及其定位方法 | |
JP6440406B2 (ja) | ストライド計測システム | |
KR102392122B1 (ko) | 이동 로봇 및 이의 위치 추정 방법 | |
JP7522004B2 (ja) | 車両位置制御装置および自律走行装置 | |
KR101170873B1 (ko) | 엔코더를 이용한 비젼 트래킹 시스템 및 방법 | |
JP2009125922A (ja) | 移動体システムおよび移動体のzmp算出方法 | |
KR101194073B1 (ko) | Igps를 이용한 비젼 트래킹 시스템 및 방법 | |
JP5057224B2 (ja) | 移動ロボット制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160118 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170117 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180117 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20200120 Year of fee payment: 8 |