KR20110080025A - Coordinates recognition method of automatic guided vehicle and apparatus thereof - Google Patents
Coordinates recognition method of automatic guided vehicle and apparatus thereof Download PDFInfo
- Publication number
- KR20110080025A KR20110080025A KR1020100000162A KR20100000162A KR20110080025A KR 20110080025 A KR20110080025 A KR 20110080025A KR 1020100000162 A KR1020100000162 A KR 1020100000162A KR 20100000162 A KR20100000162 A KR 20100000162A KR 20110080025 A KR20110080025 A KR 20110080025A
- Authority
- KR
- South Korea
- Prior art keywords
- coordinates
- reflectors
- unmanned
- global
- marks
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012795 verification Methods 0.000 claims description 8
- 230000001678 irradiating effect Effects 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 238000002940 Newton-Raphson method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 무인반송차량의 위치인식방법 및 그 장치에 관한 것이다.The present invention relates to a position recognition method of an unmanned transport vehicle and its apparatus.
일반적으로 각종 산업 현장에서는 관리 인력을 최소화하고 업무 효율을 높이기 위하여 무인반송차량(automatic guided vehicle) 등을 사용하고 있다. 예를 들어, 창고 관리 시스템에서는 물류의 입고, 출고를 자동으로 처리할 수 있도록 무인반송차량을 사용한다.In general, various industrial sites use automatic guided vehicles to minimize the management manpower and increase work efficiency. For example, the warehouse management system uses an unmanned carrier vehicle to automatically process the receipt and release of logistics.
이처럼 실내 공간을 이동하는 무인반송차량을 제어하기 위해서는 무인반송차량이 실내 공간상에서 어느 위치에 있는지를 인식하는 기능이 필요하다. 현재 무인반송차량의 자기위치를 계산하는 방법으로는 크게 인위적인 마크를 이용하는 방법과 자연적인 마크를 이용하는 방법으로 나눌 수 있다.As such, in order to control the unmanned vehicle moving in the indoor space, a function of recognizing which position in the indoor space is required is required. At present, the method of calculating the magnetic position of the unmanned transport vehicle can be divided into the method of using artificial marks and the method of using natural marks.
우선 인위적인 마크를 이용하는 방법으로서, 실내 공간의 천정 또는 벽면에 다수의 마크를 설치하고, 이를 카메라로 촬영한 후 영상에서 마크를 추출하여 화면상의 좌표와 무인 반송차량의 좌표를 일치시켜 무인반송차량의 자기 위치를 계산하는 방법이 있다.First of all, as a method of using artificial marks, a plurality of marks are installed on the ceiling or wall of an indoor space, photographed with a camera, and then extracted from the image to match the coordinates of the unmanned vehicle with the coordinates of the unmanned vehicle. There is a way to calculate the magnetic position.
그러나, 상술한 종래의 무인반송차량의 자기위치 인식방식에 있어서 인위적인 마크를 이용한 방식은, 실내 공간의 천정 또는 벽면에 설치된 다수의 마크의 좌표들이 무인반송차량에 사전에 등록되어 있고, 무인반송차량이 이동하면서 카메라로 촬영한 마크를 기 등록된 좌표와 비교하면서 자기 위치를 계산하는 방식이기 때문에 다수의 마크를 설정된 좌표 상에 정확하게 설치하여야 하는데, 실내 공간의 부설물(예를 들어, 조명등, 환기구 등) 등으로 인하여 설정된 좌표 상에 마크를 설치하기 어려운 문제점이 발생할 수 있다.However, in the above-described method of using the artificial mark in the magnetic position recognition method of the unmanned vehicle, the coordinates of a plurality of marks installed on the ceiling or the wall of the indoor space are registered in advance in the unmanned vehicle, Since this mark is a method of calculating a magnetic position while comparing a mark photographed by a camera with a pre-registered coordinate, it is necessary to accurately install a plurality of marks on a set coordinate. Etc.) may cause difficulty in installing marks on the set coordinates.
또한, 상술한 인위적인 마크 이외에 자연적인 마크를 이용하는 방법으로서, 천장을 카메라로 촬영한 후 영상에서 천정에 설치된 구조물 및 벽과의 경계면 정보를 추출하고, 이를 이용하여 무인반송차량의 자기 위치를 계산하는 방법을 사용할 수 있다.In addition, as a method of using a natural mark in addition to the above-described artificial marks, after photographing the ceiling with a camera and extracting the interface information between the structure and the wall installed in the ceiling from the image, and using this to calculate the magnetic position of the unmanned vehicle Method can be used.
그러나, 상술한 종래의 무인반송차량의 자기위치 인식방식에 있어서 자연적인 마크를 이용한 방식 또한, 주변 광원의 영향은 물론, 천장과 벽 사이의 경계면 인식 등에 많은 데이터 연산이 필요하여 많은 시간과 대용량의 메모리 및 부가적인 장비를 추가로 사용하여야 하는 문제점이 있었다.However, the above-described method using a natural mark in the conventional self-recognition method of the unmanned transport vehicle also requires a lot of time and a large amount of data operation as well as the influence of the surrounding light source and the recognition of the interface between the ceiling and the wall. There was a problem that additional memory and additional equipment must be used.
전술한 문제점을 해결하기 위한 본 발명의 목적은, 레이저 스캔을 수행하는 무인반송차량에서 실내 공간의 벽면이나 천정의 다수 위치에 설치된 리플렉터(마크)에서 반사되는 정보를 토대로 각 리플렉터의 좌표를 검출하고, 검출된 각 리플렉터의 좌표를 이용하여 무인반송차량의 방향이나 각도 등의 현재 위치를 정확하게 인식할 수 있도록 하는 무인반송차량의 위치인식방법 및 그 장치를 제공하는 데 있다.An object of the present invention for solving the above-mentioned problems is to detect the coordinates of each reflector based on information reflected from reflectors (marks) installed at multiple locations on the wall or ceiling of an indoor space in an unmanned vehicle carrying out a laser scan. In addition, the present invention provides a method and apparatus for recognizing a position of an unmanned vehicle, which can accurately recognize a current position such as the direction or angle of an unmanned vehicle using the detected coordinates of each reflector.
본 발명의 다른 목적은, 실내 공간에 위치한 무인반송차량에서 레이저 스캔을 통해 주변으로부터 반사되는 정보를 이용하여 각 리플렉터의 로컬좌표(상대좌표)를 생성한 후 이를 글로벌좌표(절대좌표)로 변환하고, 동일한 방식으로 실내 공간의 여러 위치에서 취합된 각 리플렉터의 글로벌좌표를 평균하여 각 리플렉터의 최종적인 글로벌좌표를 검출하도록 하는 무인반송차량의 위치인식방법 및 그 장치를 제공하는 데 있다.Another object of the present invention is to generate local coordinates (relative coordinates) of each reflector using information reflected from the surroundings through laser scanning in an unmanned transport vehicle located in an indoor space, and then convert them to global coordinates (absolute coordinates). The present invention provides a method and apparatus for recognizing a position of an unmanned carrier vehicle for averaging the global coordinates of each reflector collected at various locations in an indoor space in the same manner to detect the final global coordinates of each reflector.
본 발명의 또 다른 목적은, 무인반송차량에서 실내 공간의 벽면이나 천정의 다수 위치에 설치된 마크의 카메라 촬영 정보를 토대로 각 마크의 좌표를 검출하고, 검출된 각 마크의 좌표를 이용하여 무인반송차량의 방향이나 각도 등의 현재 위치를 정확하게 인식할 수 있도록 하는 무인반송차량의 위치인식방법 및 그 장치를 제공하는 데 있다.Still another object of the present invention is to detect coordinates of each mark based on camera photographing information of a mark installed on a wall or a ceiling of a plurality of locations in an indoor space in an unmanned vehicle, and use the detected coordinates of the unmanned vehicle The present invention provides a method and apparatus for recognizing a location of an unmanned vehicle for accurately recognizing a current position such as a direction or an angle of a vehicle.
본 발명의 또 다른 목적은, 실내 공간에 위치한 무인반송차량에서 카메라로 촬영한 가장 가까운 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 변환된 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 각 마크들의 최종적인 글로벌좌표를 검출하도록 하는 무인반송차량의 위치인식방법 및 그 장치를 제공하는 데 있다.Another object of the present invention, after setting the local coordinates of the nearest mark taken by the camera in the unmanned transport vehicle located in the indoor space as the origin of the global coordinates, and converts the local coordinates of the camera to the global coordinates, The present invention provides a method and apparatus for recognizing a position of an unmanned transport vehicle for detecting the final global coordinate of each mark by using the converted global coordinates of the camera and local coordinates of other marks photographed by the camera.
이러한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법은, (1) 무인반송차량에서 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하고, 복수의 리플렉터에 의해 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터의 좌표를 검출하는 단계, 그리고 (2) 무인반송차량은, (1) 단계를 통해 검출된 복수의 리플렉터의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량의 방향, 각도의 위치정보를 인식하는 단계를 포함할 수 있다.In order to achieve the above object, a method of recognizing a position of an unmanned transport vehicle according to an embodiment of the present invention includes: (1) irradiating a laser for identifying coordinates of a plurality of reflectors installed on a wall or a ceiling of an indoor space in an unmanned transport vehicle; And converting the local coordinates generated on the basis of the distance and angle information reflected by the plurality of reflectors into global coordinates to detect the coordinates of the plurality of reflectors, and (2) the unmanned transport vehicle through (1). Recognizing position information of the direction and angle of the current unmanned vehicle on the indoor space based on the detected coordinates of the plurality of reflectors.
상술한 (1) 단계는, (1-1) 무인반송차량은, 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하는 단계와, (1-2) 무인반송차량은, 복수의 리플렉터에 의해 반사된 거리, 각도정보를 토대로 복수의 리플렉터의 로컬좌표를 생성하는 단계와, (1-3) 무인반송차량은, (1-2) 단계에서 생성된 복수의 리플렉터의 로컬좌표를 글로벌좌표로 변환하는 단계와, (1-4) 무인반송차량은, 실내 공간상의 복수의 지점에서 (1-1) 단계 이후를 반복, 수행하여, 각 위치에 따른 복수의 리플렉터의 글로벌좌표를 확인하는 단계, 그리고 (1-5) 무인반송차량은, (1-4) 단계를 통해 반복 수행하여 확인한 복수의 리플렉터의 글로벌좌표를 평균하고, 평균값을 복수의 리플렉터의 최종 좌표로 검출하는 단계를 포함하는 것이 바람직하다.In the above-mentioned step (1), (1-1) the unmanned vehicle is irradiated with a laser for checking the coordinates of a plurality of reflectors installed on the wall or the ceiling of the indoor space, and (1-2) the unmanned vehicle (B) generating local coordinates of the plurality of reflectors based on the distance and angle information reflected by the plurality of reflectors, and (1-3) the unmanned transport vehicle includes the plurality of reflectors generated in step (1-2). The step of converting the local coordinates into the global coordinates and (1-4) the unmanned transport vehicle repeats the steps (1-1) and later at a plurality of points in the indoor space, thereby performing globalization of the plurality of reflectors according to each position. The step of checking the coordinates and (1-5) the unmanned transport vehicle averages the global coordinates of the plurality of reflectors, which are repeatedly performed through steps (1-4), and detects the average value as the final coordinates of the plurality of reflectors. It is preferred to include the step.
상술한 (2) 단계는, (2-1) 무인반송차량은, (1) 단계를 통해 검출된 복수의 리플렉터의 좌표를 토대로 각 리플렉터 간의 상대적인 거리를 확인하고 저장하는 단계와, (2-2) 무인반송차량은, (1) 단계를 통해 검출된 복수의 리플렉터의 좌표를 토대로 최장 거리에 위치한 리플렉터와 나머지 리플렉터 간의 상대적인 거리를 확인하고 저장하는 단계와, (2-3) 무인반송차량은, (2-1) 단계에서 저장된 데이터에서 (2-2) 단계에서 저장된 데이터와 5% 오차로 일치하는 데이터가 저장된 행의 인덱스를 확인하고, 해당 행의 인덱스로부터 무인반송차량과 최장 거리에 위치한 리플렉터 A의 위치를 확인하는 단계와, (2-4) 무인반송차량은, (2-3) 단계를 통해 확인된 최장 거리에 위치한 리플렉터 A를 기준으로 2π/3<리플렉터 B≤π, π<리플렉터 C≤2π/3에 존재하는 리플렉터 B, C가 복수 개 존재하는지를 확인하고, 복수 개 존재하면 각도가 가장 큰 것을 리플렉터 B, C로 결정하는 단계, 그리고 (2-5) 무인반송차량은, (2-3) 단계에서 확인된 리플렉터 A의 위치와 (2-4) 단계에서 결정된 리플렉터 B, C의 위치를 이용하여 무인반송차량의 현재 위치를 계산하는 단계를 포함하는 것이 바람직하다.In the above-mentioned step (2), the step (2-1) of the unmanned transport vehicle, the step of identifying and storing the relative distance between each reflector based on the coordinates of the plurality of reflectors detected through the step (1), (2-2 The unmanned carrier vehicle may include identifying and storing a relative distance between the reflector located at the longest distance and the remaining reflectors based on the coordinates of the plurality of reflectors detected through step (1), and (2-3) From the data stored in step (2-1), check the index of the row where the data matching the data stored in step (2-2) with 5% error is stored, and the reflector located at the longest distance from the unmanned carrier vehicle from the index of the row. The position of A and the step (2-4) of the unmanned transport vehicle are 2π / 3 <reflector B≤π, π <reflector based on the reflector A located at the longest distance identified through the step (2-3). Reflectors B and C present in C≤2π / 3 Checking whether there are a plurality, and if there are a plurality, determining the angles having the largest angles with the reflectors B and C, and (2-5) the unmanned vehicle is determined by the position of the reflector A identified in the step (2-3). It is preferable to include the step of calculating the current position of the unmanned transport vehicle using the positions of the reflectors B and C determined in step (2-4).
그리고, 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식방법은, (A) 무인반송차량에서 실내 공간의 벽면 또는 천정에 설치된 복수의 마크를 촬영하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 변환된 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 복수의 마크의 좌표를 검출하는 단계, 그리고 (B) 무인반송차량은, (A) 단계를 통해 검출된 복수의 마크의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량의 방향, 각도의 위치정보를 인식하는 단계를 포함할 수 있다.In addition, the position recognition method of the unmanned vehicle according to another embodiment of the present invention, (A) in the unmanned vehicle is photographed a plurality of marks installed on the wall or ceiling of the interior space, the shortest distance based on the information taken by the camera After setting the local coordinate of the mark as the origin of the global coordinate, convert the local coordinate of the camera to the global coordinate based on the origin, and use a plurality of marks using the local coordinates of the converted camera's global coordinate and other marks taken by the camera. Detecting coordinates of the vehicle and (B) the unmanned transport vehicle recognizes the position information of the direction and angle of the current unmanned transport vehicle located in the indoor space based on the coordinates of the plurality of marks detected through the step (A). It may include a step.
상술한 (A) 단계는, (A-1) 무인반송차량은, 실내 공간의 벽면 또는 천정에 설치된 복수의 마크의 좌표를 확인하기 위한 카메라 촬영을 수행하는 단계와, (A-2) 무인반송차량은, 카메라로 촬영한 정보를 토대로 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하는 단계와, (A-3) 무인반송차량은, (A-2) 단계에서 설정한 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인하는 단계와, (A-4) 무인반송차량은, (A-3) 단계에서 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 복수의 마크들의 글로벌좌표를 검출하는 단계, 그리고 (A-5) 무인반송차량은, (A-4) 단계를 통해 복수의 마크의 글로벌좌표가 검출될 때마다 오차 발생 방지를 위한 검증을 수행하는 단계를 포함하는 것이 바람직하다.In the above-mentioned step (A), the step (A-1) of the unmanned vehicle is performed by performing camera photography for checking the coordinates of a plurality of marks installed on the wall or the ceiling of the indoor space; The vehicle sets the local coordinates of the mark located at the shortest distance to the origin of the global coordinates based on the information captured by the camera, and (A-3) the unmanned vehicle is the global coordinates set in step (A-2). (B) converting the local coordinates of the camera into global coordinates based on the origin of the camera and checking the global coordinates of the camera; and (A-4) the unmanned transport vehicle, the global coordinates of the camera identified in step (A-3) and the camera. Detecting the global coordinates of the plurality of marks by using the local coordinates of the other marks photographed with (A-5), and the global coordinates of the plurality of marks are detected through (A-4). Whenever a verification is performed to prevent errors It is preferable to include a system.
상술한 (B) 단계는, (B-1) 무인반송차량은, (A) 단계를 통해 검출된 복수의 마크의 글로벌좌표를 고유의 ID별로 저장하는 단계와, (B-2) 무인반송차량은, (A) 단계를 통해 검출된 복수의 마크의 좌표 중 현 위치에서 최단 거리에 위치한 마크를 선택하는 단계와, (B-3) 무인반송차량은, (B-1) 단계에서 저장된 데이터 중에서 (B-2) 단계에서 선택된 마크를 포함하고 있는지 고유의 마크 ID를 통해 확인하는 단계와, (B-4) 무인반송차량은, (B-3) 단계를 통해 확인된 마크의 좌표를 (B-1) 단계에서 저장된 데이터를 이용하여 글로벌좌표로 변환하는 단계, 그리고 (B-5) 무인반송차량은, (B-3) 단계에서 확인된 마크의 위치와 (B-4) 단계에서 글로벌좌표로 변환된 마크의 위치를 이용하여 무인반송차량의 현재 위치를 계산하는 단계를 포함하는 것이 바람직하다.In the above-mentioned step (B), (B-1) the unmanned transport vehicle, storing the global coordinates of the plurality of marks detected through the step (A) for each unique ID, and (B-2) the unmanned transport vehicle (B) selecting the mark located at the shortest distance from the current position among the coordinates of the plurality of marks detected through step (A), and (B-3) the unmanned vehicle is selected from the data stored in step (B-1). (B-2) checking whether the mark selected in step (b-2) is included through the unique mark ID, and (b-4) the unmanned transport vehicle uses the coordinates of the mark confirmed in (b-3) (b). Step (1) converts the global coordinates to the global coordinates using the data stored in step (1), and (B-5) the unmanned transport vehicle, the position of the mark identified in step (B-3) and the global coordinates in step (B-4). It is preferable to include the step of calculating the current position of the unmanned transport vehicle using the position of the mark converted to.
또한, 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치는, 실내 공간의 벽면 또는 천정에 설치되어 레이저를 반사하는 복수의 리플렉터, 그리고 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하고, 리플렉터로부터 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터의 좌표를 검출하며, 검출된 복수의 리플렉터의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식하는 무인 반송차량을 포함하며, 무인 반송차량은, 실내 공간상으로 360도 회전하면서 레이저를 조사하며, 복수의 리플렉터에 의해 반사되는 신호를 수신하는 레이저 스캔부와, 레이저 스캔부로부터 입력되는 레이저 반사신호를 토대로 복수의 리플렉터의 로컬좌표를 생성하며, 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터의 좌표를 검출하는 좌표 검출부, 그리고 좌표 검출부로부터 입력되는 복수의 리플렉터의 글로벌좌표를 토대로 무인반송차량의 현재 위치를 인식하는 위치 인식부를 포함할 수 있다.In addition, the position recognition device of the unmanned vehicle according to an embodiment of the present invention, the plurality of reflectors installed on the wall or ceiling of the interior space reflects the laser, and irradiating the laser to check the coordinates of the plurality of reflectors The coordinates of the plurality of reflectors are detected by converting the local coordinates generated on the basis of the distance and angle information reflected from the reflector to the global coordinates, and based on the detected coordinates of the plurality of reflectors, And an unmanned transport vehicle for recognizing positional information, wherein the unmanned transport vehicle includes a laser scan unit for irradiating a laser while rotating 360 degrees in an interior space and receiving a signal reflected by a plurality of reflectors, and a laser scan unit Local coordinates of a plurality of reflectors are generated based on the input laser reflection signal, and the generated local coordinates are glowed. Coordinate detection unit detecting coordinates of a plurality of the reflector is converted into coordinates, and on the basis of the global coordinates of the plurality of the reflector to be input from the coordinate detection unit may include a position recognition to recognize the current position of the unmanned transporting vehicle.
그리고, 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식장치는, 실내 공간의 벽면 또는 천정에 설치되는 복수의 마크, 그리고 복수의 마크의 좌표를 확인하기 위한 카메라 촬영을 수행하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 글로벌좌표를 결정하고, 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 복수의 마크의 좌표를 검출하며, 검출된 복수의 마크의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식하는 무인 반송차량을 포함하며, 무인 반송차량은, 실내 공간에 설치된 복수의 마크를 촬영하는 카메라부와, 카메라부로부터 입력되는 촬영신호를 토대로 복수의 마크 중 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하고, 설정된 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인하며, 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 복수의 마크들의 글로벌좌표를 검출하는 좌표 검출부, 그리고 좌표 검출부로부터 입력되는 복수의 마크의 글로벌좌표를 토대로 무인반송차량의 현재 위치를 인식하는 위치 인식부를 포함할 수 있다.In addition, the position recognition device of the unmanned vehicle according to another embodiment of the present invention, the camera photographing to check the plurality of marks and the coordinates of the plurality of marks installed on the wall or ceiling of the indoor space, Based on the photographed information, the local coordinate of the shortest distance mark is set as the origin of the global coordinate, and then the global coordinate of the camera is determined based on the origin. A unmanned transport vehicle that detects coordinates of a mark and recognizes position information of a current direction and angle located on the indoor space based on the detected coordinates of the plurality of marks; A mark positioned at the shortest distance of the plurality of marks based on a camera unit photographing the mark Set the local coordinate as the origin of the global coordinate, check the camera's global coordinate by converting the camera's local coordinate to the global coordinate based on the set origin of the global coordinate, and confirm the camera's global coordinate and other marks taken by the camera. And a coordinate detection unit for detecting the global coordinates of the plurality of marks using the local coordinates of the plurality of marks, and a position recognition unit for recognizing the current position of the unmanned vehicle based on the global coordinates of the plurality of marks inputted from the coordinate detection unit.
이상에서와 같이 본 발명의 무인반송차량의 위치인식방법 및 그 장치에 따르면, 레이저 스캔을 수행하는 무인반송차량에서 각 리플렉터에서 반사되는 정보를 토대로 좌표를 검출하고, 검출된 각 리플렉터의 좌표를 이용하여 무인반송차량의 현재 위치를 정확하게 인식하기 때문에 무인반송차량이 이동하면서 카메라로 촬영한 마크를 기 등록된 마크의 좌표와 비교하면서 자기 위치를 계산하는 종래의 방식과 달리 다수의 리플렉터를 설정된 좌표 상에 정확하게 설치할 필요가 없으므로 무인반송차량 시스템의 설치 및 구현이 편리하며, 빠른 데이터 연산처리를 통해 무인반송차량의 현재 위치를 정확하게 인식할 수 있음은 물론, 이를 토대로 무인반송차량을 정밀하고 빠르게 제어할 수 있는 효과가 있다.As described above, according to the position recognition method and apparatus of the unmanned transport vehicle of the present invention, the coordinates are detected based on the information reflected from each reflector in the unmanned transport vehicle performing the laser scan, and the coordinates of the detected reflectors are used. Unlike the conventional method of calculating the self position by comparing the mark photographed by the camera with the registered mark while moving the unmanned vehicle, it accurately recognizes the current position of the unmanned vehicle. It is easy to install and implement the unmanned vehicle system because it does not need to be installed in the unmanned vehicle system.It is possible to accurately recognize the current position of the unmanned vehicle by fast data operation processing, and also to control the unmanned vehicle accurately and quickly. It can be effective.
또한, 카메라 촬영을 토대로 각 마크의 좌표를 검출할 경우에도 무인반송차량에서 카메라로 촬영한 가장 가까운 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 이를 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 각 마크들의 글로벌 좌표를 검출하기 때문에 레이저 스캔 방식의 무인반송차량과 마찬가지로 다수의 마크를 설정된 좌표 상에 정확하게 설치할 필요가 없으므로 무인반송차량 시스템의 설치 및 구현이 편리한 효과가 있다.In addition, even when detecting the coordinates of each mark based on camera shooting, the local coordinates of the nearest mark photographed by the camera in the unmanned transport vehicle are set as the origin of the global coordinates, and then the local coordinates of the camera are converted into the global coordinates based on this. Since the global coordinates of each mark are detected using the global coordinates of the camera and the local coordinates of the other marks taken by the camera, it is not necessary to accurately install a plurality of marks on the set coordinates like the unmanned carrier vehicle of the laser scan method. The installation and implementation of the unmanned vehicle system is convenient.
도 1은 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치의 구성을 개략적으로 나타낸 도면,
도 2는 도 1의 무인반송차량의 구성을 개략적으로 나타낸 블록도,
도 3은 본 발명의 일 실시예에 적용되는 각 리플렉터의 좌표검출을 설명하기 위한 도면,
도 4는 본 발명의 일 실시예에 적용되는 무인반송차량의 위치인식을 설명하기 위한 도면,
도 5 내지 도 7은 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법의 동작과정을 설명하기 위한 순서도,
도 8은 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식장치의 구성을 개략적으로 나타낸 도면,
도 9는 도 8의 무인반송차량의 구성을 개략적으로 나타낸 블록도,
도 10 내지 도 12는 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식방법의 동작과정을 설명하기 위한 순서도이다.1 is a view schematically showing the configuration of a position recognition device of an unmanned transport vehicle according to an embodiment of the present invention,
2 is a block diagram schematically showing the configuration of the unmanned vehicle of FIG.
3 is a view for explaining the coordinate detection of each reflector applied to an embodiment of the present invention;
4 is a view for explaining the position recognition of the unmanned carrier vehicle applied to an embodiment of the present invention,
5 to 7 is a flow chart for explaining the operation of the position recognition method of the unmanned vehicle according to an embodiment of the present invention,
8 is a view schematically showing the configuration of the position recognition device of the unmanned vehicle according to another embodiment of the present invention;
9 is a block diagram schematically showing the configuration of the unmanned vehicle of FIG. 8;
10 to 12 are flow charts for explaining the operation of the position recognition method of the unmanned vehicle according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 각 실시예에 따른 무인반송차량의 위치인식방법 및 그 장치를 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the position recognition method and apparatus of the unmanned vehicle according to each embodiment of the present invention.
도 1은 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치의 구성을 개략적으로 나타낸 도면이고, 도 2는 도 1의 무인반송차량의 구성을 개략적으로 나타낸 블록도이고, 도 3은 본 발명의 일 실시예에 적용되는 각 리플렉터의 좌표검출을 설명하기 위한 도면이며, 도 4는 본 발명의 일 실시예에 적용되는 무인반송차량의 위치인식을 설명하기 위한 도면이다.1 is a view schematically showing the configuration of the position recognition device of the unmanned transport vehicle according to an embodiment of the present invention, Figure 2 is a block diagram schematically showing the configuration of the unmanned transport vehicle of Figure 1, Figure 3 4 is a view for explaining the coordinate detection of each reflector applied to an embodiment of the present invention, Figure 4 is a view for explaining the position recognition of the unmanned carrier vehicle applied to an embodiment of the present invention.
도 1에 도시된 바와 같이 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치는, 복수의 리플렉터(reflector, 레이저 반사경)(10)와, 무인반송차량(20)을 포함하여 구성한다.As shown in FIG. 1, the position recognition apparatus of the unmanned transport vehicle according to the exemplary embodiment of the present invention includes a plurality of
복수의 리플렉터(10)는 실내 공간의 벽면 또는 천정에 설치되어 무인반송차량(20)에서 조사된 레이저를 반사한다.The plurality of
무인반송차량(20)은 실내 공간에 설치되어 있는 복수의 리플렉터(10)의 좌표를 확인하기 위한 레이저를 조사하고, 각 리플렉터(10)로부터 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터(10)의 좌표를 검출하며, 검출된 복수의 리플렉터(10)의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식한다.The
이때 무인반송차량(20)은 도 3a 내지 도 3c에 도시된 바와 같이, 실내 공간상의 여러 로컬좌표( 예를 들어, 도 3a에서는 (15,15)의 로컬좌표, 도 3b에서는 (25,25)의 로컬좌표, 도 3c에서는 (60,25)의 로컬좌표 )에서 각 리플렉터(10)의 반사신호에 따라 얻어진 거리, 각도 정보를 이용하여 글로벌좌표에서의 각 리플렉터(10)의 위치를 구하고, 여러 로컬좌표에서 구해진 각 리플렉터(10)의 글로벌좌표들의 평균치를 최종 좌표로 확정한다.In this case, as shown in FIGS. 3A to 3C, the
이에 따라 무인반송차량(20)은 카메라로 촬영한 마크를 기 등록된 마크의 좌표와 비교하면서 자기 위치를 계산하는 종래의 방식과 달리 다수의 리플렉터(10)를 설정된 좌표 상에 정확하게 설치할 필요가 없게 된다.Accordingly, the
또한, 무인반송차량(20)은 도 3에서와 같은 방식에 따라 검출된 각 리플렉터(10)의 글로벌좌표를 토대로 현재의 위치정보를 인식할 때에는 도 4에 도시된 바와 같은 방식을 사용한다.In addition, the
즉 도 4를 참조하면, 삼각형에서 세 변의 길이 k, l, m과 세 내각 α, β, γ를 알 경우, A, B, C( 본 발명에서의 리플렉터 위치 )까지의 거리 a, b, c는 다음과 같이 구할 수 있다.That is, referring to FIG. 4, when the lengths k, l and m of the three sides in the triangle and the three cabinets α, β and γ are known, the distances a, b and c to the reflector positions in the present invention a, b and c Can be obtained as
상술한 세 개의 비선형식에 대한 해 a, b, c는 하기의 Newton Raphson 방법을 사용하여 구하면 된다.The solutions a, b, and c for the three nonlinear forms described above may be obtained using the Newton Raphson method described below.
이러한 방식을 토대로 무인반송차량(20)은 각 리플렉터(10)의 글로벌좌표를 토대로 실내 공간상의 특정 위치에서 자신의 위치정보를 인식할 수 있다.Based on this method, the
상술한 무인반송차량(20)은 도 2에 도시된 바와 같이, 실내 공간상으로 360도 회전하면서 레이저를 조사하며, 복수의 리플렉터(10)에 의해 반사되는 신호를 수신하는 레이저 스캔부(22)와, 레이저 스캔부(22)로부터 입력되는 레이저 반사신호를 토대로 복수의 리플렉터(10)의 로컬좌표를 생성하며, 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터(10)의 좌표를 검출하되, 실내 공간상의 복수의 지점에 무인반송차량(20)을 위치시켜 검출한 복수의 리플렉터(10)의 글로벌좌표를 평균한 값을 복수의 리플렉터(10)의 최종 좌표로 검출하는 좌표 검출부(24)와, 좌표 검출부(24)로부터 입력되는 복수의 리플렉터(10)의 글로벌좌표를 토대로 무인반송차량(20)의 현재 위치를 인식하는 위치 인식부(26)를 포함한다.As shown in FIG. 2, the
이와 같이 구성된 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법을 도 5 내지 도 7을 참조하여 설명하면 다음과 같다.The position recognition method of the unmanned vehicle according to the exemplary embodiment of the present invention configured as described above will be described with reference to FIGS. 5 to 7.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법의 동작과정을 설명하기 위한 순서도이다.5 to 7 are flowcharts for explaining an operation process of the position recognition method of the unmanned vehicle according to an embodiment of the present invention.
우선, 무인반송차량(20)에서 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터(10)의 좌표를 확인하기 위한 레이저를 조사하고, 복수의 리플렉터(10)에 의해 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터(10)의 좌표를 검출한다(S10).First, the laser beam for checking the coordinates of the plurality of
이를 도 6을 참조하여 상세하게 설명하면, 특정 로컬좌표 상으로 이동된 무인반송차량(20)은 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터(10)의 좌표를 확인하기 위하여 레이저 스캔부(22)를 통해 실내 공간상으로 360도 회전하면서 레이저를 조사한다(S11).Referring to FIG. 6 in detail, the
무인반송차량(20)의 레이저 스캔부(22)는 복수의 리플렉터(10)에 의해 반사된 신호를 좌표 검출부(24)로 출력하고, 좌표 검출부(24)에서는 반사된 거리, 각도정보를 토대로 복수의 리플렉터(10)의 로컬좌표를 생성한다(S12).The
복수의 리플렉터(10)의 로컬좌표를 생성한 이후, 좌표 검출부(24)는 생성된 복수의 리플렉터(10)의 로컬좌표를 글로벌좌표로 변환한다(S13).After generating the local coordinates of the plurality of
특정 위치에서 복수의 리플렉터(10)의 로컬좌표를 글로벌좌표로 변환한 이후, 무인반송차량(20)의 좌표 검출부(24)는 실내 공간상의 복수의 지점에서 S11 단계 이후를 반복, 수행하여, 각 위치에 따른 복수의 리플렉터(10)의 글로벌좌표를 확인한다(S14).After converting the local coordinates of the plurality of
그리고 좌표 검출부(24)는 S14 단계를 통해 반복 수행하여 확인한 복수의 리플렉터(10)의 글로벌좌표를 평균하고, 평균값을 복수의 리플렉터(10)의 최종 좌표로 검출한다(S15).The coordinate
이처럼 S10 단계를 통해 복수의 리플렉터(10)의 좌표를 검출한 이후, 무인반송차량(20)은 검출된 복수의 리플렉터(10)의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량(20)의 방향, 각도의 위치정보를 인식한다(S20).After detecting the coordinates of the plurality of
이를 도 7을 참조하여 상세하게 설명하면, 무인반송차량(20)의 위치 인식부(26)는 S10 단계를 통해 좌표 검출부(24)에서 검출한 복수의 리플렉터(10)의 좌표를 토대로 각 리플렉터(10) 간의 상대적인 거리를 확인하고 저장한다(S21).Referring to FIG. 7, the
S21 단계를 통해 저장되는 복수의 리플렉터(10) 간의 상대적인 거리 데이터는 다음과 같은 행렬 데이터이다.The relative distance data between the plurality of
그리고 무인반송차량(20)의 위치 인식부(26)는 S10 단계를 통해 좌표 검출부(24)에서 검출한 복수의 리플렉터(10)의 좌표를 토대로 최장 거리에 위치한 리플렉터와 나머지 리플렉터 간의 상대적인 거리를 확인하고 저장한다(S22).In addition, the
S22 단계를 통해 저장되는 최장 거리에 위치한 리플렉터와 나머지 리플렉터와의 상대적인 거리 데이터는 다음의 행렬 데이터이다.Relative distance data between the reflector located at the longest distance stored through the step S22 and the remaining reflectors is the following matrix data.
이후 무인반송차량(20)의 위치 인식부(26)는 S21 단계에서 저장된 데이터에서 S22 단계에서 저장된 데이터와 5% 오차로 일치하는 데이터가 저장된 행의 인덱스를 확인하고, 해당 행의 인덱스로부터 무인반송차량(20)과 최장 거리에 위치한 리플렉터 A의 위치를 확인한다(S23).Then, the
그리고 무인반송차량(20)의 위치 인식부(26)는 S23 단계를 통해 확인된 최장 거리에 위치한 리플렉터 A를 기준으로 2π/3<리플렉터 B≤π, π<리플렉터 C≤2π/3에 존재하는 리플렉터 B, C가 복수 개 존재하는지를 확인하고, 복수 개 존재하면 각도가 가장 큰 것을 리플렉터 B, C로 결정한다(S24).In addition, the
S23 단계와 S24 단계를 통해 무인반송차량(20)의 위치인식을 위한 리플렉터 A, B, C가 결정된 이후, 무인반송차량(20)의 위치 인식부(26)는 S23 단계에서 확인된 리플렉터 A의 위치와 S24 단계에서 결정된 리플렉터 B, C의 위치를 이용하여 무인반송차량(20)의 현재 위치를 계산한다(S25).After the reflectors A, B, and C for the position recognition of the
즉 리플렉터 A=(x1,y1), 리플렉터 B=(x2,y2), 리플렉터 C=(x3,y3)일 때, 하기의 비선형 방정식을 도 4에서 설명한 Newton Raphson 방식을 사용하여 풀면, 무인반송차량(20)의 현재 위치(x,y,θ)를 계산할 수 있다.That is, when reflector A = (x1, y1), reflector B = (x2, y2), reflector C = (x3, y3), the following nonlinear equations are solved using the Newton Raphson method described in FIG. The current position (x, y, θ) of (20) can be calculated.
상술한 비선형 방정식을 풀 때, 초기값에 따라 두 개의 해가 존재할 수 있으므로 적합한 해를 찾기 위해서 삼각형 내부에 존재하는 무게중심의 초기값(x,y)으로 을 주어 원하는 해를 찾는다.
When solving the above-described nonlinear equations, two solutions may exist depending on the initial values. Therefore, to find a suitable solution, the initial value (x, y) of the center of gravity existing inside the triangle is found. To find the solution you want.
한편, 상술한 바와 같이 레이저 스캔을 이용하여 각 리플렉터(10)의 좌표를 검출하고, 이를 토대로 무인반송차량(20)의 위치를 인식하는 실시예와는 달리, 카메라를 이용하여 각 마크(100)의 좌표를 검출하고, 이를 토대로 무인반송차량(20)의 위치를 인식할 수 있는데, 이에 대한 실시예를 설명하면 다음과 같다.On the other hand, unlike the embodiment that detects the coordinates of each
도 8은 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식장치의 구성을 개략적으로 나타낸 도면이고, 도 9는 도 8의 무인반송차량의 구성을 개략적으로 나타낸 블록도이다.8 is a view schematically showing the configuration of the position recognition device of the unmanned carrier vehicle according to another embodiment of the present invention, Figure 9 is a block diagram schematically showing the configuration of the unmanned carrier vehicle of FIG.
도 8에 도시된 바와 같이 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치는, 복수의 마크(100)와, 무인반송차량(200)을 포함하여 구성한다.As shown in FIG. 8, the position recognition device of the unmanned transport vehicle according to the exemplary embodiment of the present invention includes a plurality of
복수의 마크(100)는 실내 공간의 벽면 또는 천정에 설치된다.The plurality of
무인반송차량(20)은 실내 공간상에 설치되어 있는 복수의 마크(100)의 좌표를 확인하기 위한 카메라 촬영을 수행하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 글로벌좌표를 결정하고, 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 복수의 마크(100)의 좌표를 검출하며, 검출된 복수의 마크(100)의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식한다.The
이때 무인반송차량(200)은 전술한 실시예에서의 설명과 마찬가지로 검출된 각 마크(100)의 글로벌좌표를 토대로 도 4에서와 같은 방식에 따라 현재의 위치정보를 인식한다.At this time, the
상술한 무인반송차량(200)은 도 9에 도시된 바와 같이, 실내 공간에 설치된 복수의 마크(100)를 촬영하는 카메라부(210)와, 카메라부(210)로부터 입력되는 촬영신호를 토대로 복수의 마크(100) 중 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하고, 설정된 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인하며, 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 복수의 마크(100)의 글로벌좌표를 검출하는 좌표 검출부(220)와, 좌표 검출부(220)로부터 입력되는 복수의 마크(100)의 글로벌좌표를 토대로 무인반송차량(200)의 현재 위치를 인식하는 위치 인식부(230)를 포함한다.As illustrated in FIG. 9, the
이때 좌표 검출부(220)는 카메라의 글로벌좌표를 이용하여 각 마크(100)의 글로벌좌표를 구하기 때문에 카메라부(210)로부터 입력되는 촬영신호를 토대로 복수의 마크(100)의 글로벌좌표가 추가될 때마다 오차의 발생을 줄이기 위하여, 해당 마크의 로컬좌표를 글로벌좌표로 변환하기 이전에 해당 로컬좌표의 검증을 수행하거나 또는 해당 마크의 로컬좌표를 글로벌좌표로 변환한 이후 복수의 마크 전체의 글로벌좌표를 재 스캔하여 좌표를 수정하는 검증을 수행한다.At this time, since the coordinate
이와 같이 구성된 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법을 도 10 내지 도 12를 참조하여 설명하면 다음과 같다.The position recognition method of the unmanned vehicle according to the embodiment of the present invention configured as described above will be described with reference to FIGS. 10 to 12.
도 10 내지 도 12는 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식방법의 동작과정을 상세하게 나타낸 순서도이다.10 to 12 are flowcharts showing in detail the operation of the position recognition method of the unmanned vehicle according to another embodiment of the present invention.
우선, 무인반송차량(200)에서 카메라부(210)를 통해 실내 공간의 벽면 또는 천정에 설치된 복수의 마크(200)를 촬영하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 변환된 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 복수의 마크(100)의 좌표를 검출한다(S100).First, the
이를 도 11을 참조하여 상세하게 설명하면, 특정 로컬좌표 상으로 이동된 무인반송차량(200)은 실내 공간의 벽면 또는 천정에 설치된 복수의 마크(100)의 좌표를 확인하기 위한 카메라 촬영을 수행한다(S110).This will be described in detail with reference to FIG. 11. The
무인반송차량(200)의 카메라부(210)는 촬영신호를 좌표 검출부(220)로 출력하고, 좌표 검출부(220)에서는 카메라부(210)에서 촬영한 정보를 토대로 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한다(S120).The
최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 이후, 무인반송차량(200)의 좌표 검출부(220)는 S120 단계에서 설정한 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인한다(S130).After setting the local coordinate of the mark located at the shortest distance as the origin of the global coordinate, the coordinate
무인반송차량(200)의 좌표 검출부(220)는 S130 단계에서 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 복수의 마크(100)의 글로벌좌표를 검출한다(S140).The coordinate detecting
그리고 복수의 마크(100)의 글로벌좌표를 검출한 무인반송차량(200)의 좌표 검출부(220)는 S140 단계를 통해 복수의 마크(100)의 글로벌좌표가 검출될 때마다 오차 발생 방지를 위한 검증을 수행한다(S150). S150 단계의 검증은, 해당 마크의 로컬좌표를 글로벌좌표로 변환하기 이전에 해당 로컬좌표를 확인하는 검증, 또는 해당 마크의 로컬좌표를 글로벌좌표로 변환한 이후 복수의 마크 전체의 글로벌좌표를 재 스캔하고, 이를 토대로 좌표를 수정하는 검증이다.In addition, the coordinate detecting
이처럼 S100 단계를 통해 복수의 마크(100)의 글로벌좌표를 검출한 이후, 무인반송차량(200)은 검출된 복수의 마크(100)의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량(200)의 방향, 각도의 위치정보를 인식한다(S200).After detecting the global coordinates of the plurality of
이를 도 12를 참조하여 상세하게 설명하면, 무인반송차량(200)의 위치 인식부(230)는 S100 단계를 통해 좌표 검출부(220)에서 검출한 복수의 마크(100)의 글로벌좌표를 고유의 ID별로 저장한다(S210).Referring to FIG. 12 in detail, the
그리고 무인반송차량(200)의 위치 인식부(230)에서 검출한 복수의 마크(100)의 좌표 중 현 위치에서 최단 거리에 위치한 마크를 선택한다(S220).The mark located at the shortest distance from the current position is selected from the coordinates of the plurality of
이후 무인반송차량(200)의 위치 인식부(230)는 S210 단계에서 저장된 데이터 중에서 S220 단계에서 선택된 마크를 포함하고 있는지 고유의 마크 ID를 통해 확인한다(S230).Thereafter, the
그리고 무인반송차량(200)의 위치 인식부(230)는 S230 단계를 통해 확인된 마크의 좌표를 S210 단계에서 저장된 데이터를 이용하여 글로벌좌표로 변환한다(S240). 즉 S210 단계에서 저장된 데이터 중에서 S230 단계를 통해 확인된 마크의 글로벌좌표 - S230 단계를 통해 확인된 마크의 로컬좌표로 S230 단계를 통해 확인된 마크의 좌표를 글로벌좌표로 변환할 수 있다.In addition, the
S230 단계와 S240 단계를 통해 무인반송차량(200)의 위치인식을 위한 마크 가 결정된 이후, 무인반송차량(200)의 위치 인식부(230)는 S230 단계에서 확인된 마크의 위치와 S240 단계에서 글로벌좌표로 변환된 마크의 위치를 이용하여 무인반송차량(200)의 현재 위치를 계산한다(S250).After the mark for the position recognition of the
여기에서, 상술한 본 발명에서는 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경할 수 있음을 이해할 수 있을 것이다.Herein, while the present invention has been described with reference to the preferred embodiments, those skilled in the art will variously modify the present invention without departing from the spirit and scope of the invention as set forth in the claims below. And can be changed.
10 : 리플렉터(reflector)
20, 200 : 무인반송차량
22 : 레이저 스캔부
24, 220 : 좌표 검출부
26, 230 : 위치 인식부
100 : 마크
210 : 카메라부10: reflector
20, 200: unmanned transport vehicle
22: laser scanning unit
24, 220: coordinate detection unit
26, 230: location recognition unit
100: mark
210: camera unit
Claims (15)
(2) 상기 무인반송차량은, 상기 (1) 단계를 통해 검출된 상기 복수의 리플렉터의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량의 방향, 각도의 위치정보를 인식하는 단계를
포함하는 무인반송차량의 위치인식방법.(1) Irradiate a laser to check the coordinates of a plurality of reflectors installed on the wall or ceiling of an indoor space in an unmanned transport vehicle, and use the global coordinates generated based on the distance and angle information reflected by the plurality of reflectors. Detecting the coordinates of the plurality of reflectors by converting to.
(2) The unmanned vehicle may include the step of recognizing the position information of the direction and angle of the current unmanned vehicle on the indoor space based on the coordinates of the plurality of reflectors detected through the step (1).
Position recognition method of an unmanned transport vehicle including.
상기 (1) 단계는,
(1-1) 상기 무인반송차량은, 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하는 단계,
(1-2) 상기 무인반송차량은, 상기 복수의 리플렉터에 의해 반사된 거리, 각도정보를 토대로 상기 복수의 리플렉터의 로컬좌표를 생성하는 단계,
(1-3) 상기 무인반송차량은, 상기 (1-2) 단계에서 생성된 상기 복수의 리플렉터의 로컬좌표를 글로벌좌표로 변환하는 단계,
(1-4) 상기 무인반송차량은, 실내 공간상의 복수의 지점에서 상기 (1-1) 단계 이후를 반복, 수행하여, 각 위치에 따른 상기 복수의 리플렉터의 글로벌좌표를 확인하는 단계, 그리고
(1-5) 상기 무인반송차량은, 상기 (1-4) 단계를 통해 반복 수행하여 확인한 상기 복수의 리플렉터의 글로벌좌표를 평균하고, 평균값을 상기 복수의 리플렉터의 최종 좌표로 검출하는 단계를
포함하는 무인반송차량의 위치인식방법.The method of claim 1,
Step (1),
(1-1) the unmanned vehicle is irradiated with a laser for checking the coordinates of the plurality of reflectors installed on the wall or ceiling of the indoor space,
(1-2) generating the local coordinates of the plurality of reflectors based on the distance and angle information reflected by the plurality of reflectors;
(1-3) converting the local coordinates of the plurality of reflectors generated in the step (1-2) into global coordinates,
(1-4) the step of checking the global coordinates of the plurality of reflectors according to each position by repeating and performing step (1-1) after the step (1-1) at a plurality of points on the indoor space, and
(1-5) The unmanned transport vehicle, averaging the global coordinates of the plurality of reflectors confirmed by repeating through the step (1-4), and detecting the average value as the final coordinates of the plurality of reflectors
Position recognition method of an unmanned transport vehicle including.
상기 (2) 단계는,
(2-1) 상기 무인반송차량은, 상기 (1) 단계를 통해 검출된 상기 복수의 리플렉터의 좌표를 토대로 각 리플렉터 간의 상대적인 거리를 확인하고 저장하는 단계,
(2-2) 상기 무인반송차량은, 상기 (1) 단계를 통해 검출된 상기 복수의 리플렉터의 좌표를 토대로 최장 거리에 위치한 리플렉터와 나머지 리플렉터 간의 상대적인 거리를 확인하고 저장하는 단계,
(2-3) 상기 무인반송차량은, 상기 (2-1) 단계에서 저장된 데이터에서 상기 (2-2) 단계에서 저장된 데이터와 5% 오차로 일치하는 데이터가 저장된 행의 인덱스를 확인하고, 해당 행의 인덱스로부터 상기 무인반송차량과 최장 거리에 위치한 리플렉터 A의 위치를 확인하는 단계,
(2-4) 상기 무인반송차량은, 상기 (2-3) 단계를 통해 확인된 최장 거리에 위치한 리플렉터 A를 기준으로 2π/3<리플렉터 B≤π, π<리플렉터 C≤2π/3에 존재하는 리플렉터 B, C가 복수 개 존재하는지를 확인하고, 복수 개 존재하면 각도가 가장 큰 것을 리플렉터 B, C로 결정하는 단계, 그리고
(2-5) 상기 무인반송차량은, 상기 (2-3) 단계에서 확인된 리플렉터 A의 위치와 상기 (2-4) 단계에서 결정된 리플렉터 B, C의 위치를 이용하여 상기 무인반송차량의 현재 위치를 계산하는 단계를
포함하는 무인반송차량의 위치인식방법.The method of claim 1,
Step (2),
(2-1) confirming and storing the relative distance between each reflector based on the coordinates of the plurality of reflectors detected through the step (1),
(2-2) checking and storing the relative distance between the reflector located at the longest distance and the remaining reflectors based on the coordinates of the plurality of reflectors detected through the step (1);
(2-3) The unmanned transport vehicle checks the index of the row where the data stored in the step (2-1) matches the data stored in the step (2-2) with a 5% error, and the corresponding Identifying the position of the reflector A located at the longest distance from the unmanned vehicle according to the index of the row;
(2-4) The unmanned vehicle is present at 2π / 3 <reflector B ≤ π, π <reflector C ≤ 2π / 3 with respect to reflector A located at the longest distance identified through step (2-3) Checking whether there are a plurality of reflectors B and C, and if there are a plurality of reflectors, determining the reflectors B and C having the largest angle, and
(2-5) The unmanned vehicle is presently present in the unmanned vehicle using the position of the reflector A identified in the step (2-3) and the positions of the reflectors B and C determined in the step (2-4). To calculate the position
Position recognition method of an unmanned transport vehicle including.
상기 (2-1) 단계를 통해 저장되는 상기 복수의 리플렉터 간의 상대적인 거리 데이터는,
의 행렬인 무인반송차량의 위치인식방법.The method of claim 3, wherein
Relative distance data between the plurality of reflectors stored through the step (2-1),
Position Recognition Method of Unmanned Carrier Vehicle which is a Matrix of.
상기 (2-2) 단계를 통해 저장되는 최장 거리에 위치한 리플렉터와 나머지 리플렉터와의 상대적인 거리 데이터는,
의 행렬인 무인반송차량의 위치인식방법.The method of claim 3, wherein
Relative distance data between the reflector located at the longest distance stored through the step (2-2) and the remaining reflectors,
Position Recognition Method of Unmanned Carrier Vehicle which is a Matrix of.
상기 (2-5) 단계는,
리플렉터 A=(x1,y1), 리플렉터 B=(x2,y2), 리플렉터 C=(x3,y3)일 때,
의 비선형 방정식을 풀어 상기 무인 반송차량의 현재 위치(x,y,θ)를 계산하며, 초기값에 따라 두 개의 해가 존재하므로 를 초기값으로 주어 원하는 해를 찾도록 하는 무인반송차량의 위치인식방법.The method of claim 3, wherein
Step (2-5) is,
When reflector A = (x1, y1), reflector B = (x2, y2), reflector C = (x3, y3),
Calculate the current position (x, y, θ) of the unmanned carrier vehicle by solving the nonlinear equation of, and since there are two solutions depending on the initial value The location recognition method of the unmanned carrier vehicle to give the initial value to find the desired solution.
(B) 상기 무인반송차량은, 상기 (A) 단계를 통해 검출된 상기 복수의 마크의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량의 방향, 각도의 위치정보를 인식하는 단계를
포함하는 무인반송차량의 위치인식방법.(A) Taking a plurality of marks installed on the wall or ceiling of an indoor space in an unmanned vehicle, and setting the local coordinate of the shortest distance mark as the origin of the global coordinate based on the information captured by the camera, and then the camera based on the origin. Converting local coordinates into global coordinates, and detecting coordinates of the plurality of marks using the converted global coordinates of the camera and local coordinates of other marks photographed by the camera, and
(B) The unmanned vehicle may include the step of recognizing the position information of the direction and angle of the current unmanned vehicle on the indoor space based on the coordinates of the plurality of marks detected through the step (A).
Position recognition method of an unmanned transport vehicle including.
상기 (A) 단계는,
(A-1) 상기 무인반송차량은, 실내 공간의 벽면 또는 천정에 설치된 복수의 마크의 좌표를 확인하기 위한 카메라 촬영을 수행하는 단계,
(A-2) 상기 무인반송차량은, 상기 카메라로 촬영한 정보를 토대로 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하는 단계,
(A-3) 상기 무인반송차량은, 상기 (A-2) 단계에서 설정한 글로벌좌표의 원점을 기준으로 상기 카메라의 로컬좌표를 글로벌좌표로 변환하여 상기 카메라의 글로벌좌표를 확인하는 단계,
(A-4) 상기 무인반송차량은, 상기 (A-3) 단계에서 확인된 상기 카메라의 글로벌좌표와 상기 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 상기 복수의 마크들의 글로벌좌표를 검출하는 단계, 그리고
(A-5) 상기 무인반송차량은, 상기 (A-4) 단계를 통해 상기 복수의 마크의 글로벌좌표가 검출될 때마다 오차 발생 방지를 위한 검증을 수행하는 단계를
포함하는 무인반송차량의 위치인식방법.The method of claim 7, wherein
The step (A)
(A-1) the unmanned vehicle is photographed by a camera for checking coordinates of a plurality of marks installed on a wall or a ceiling of an indoor space;
(A-2) setting the unmanned vehicle to the local coordinate of the mark located at the shortest distance based on the information photographed by the camera as the origin of the global coordinate;
(A-3) checking the global coordinates of the camera by converting the local coordinates of the camera into global coordinates based on the origin of the global coordinates set in the step (A-2),
(A-4) The unmanned transport vehicle detects the global coordinates of the plurality of marks using the global coordinates of the camera identified in the step (A-3) and the local coordinates of other marks photographed by the camera. Step, and
(A-5) The unmanned transport vehicle performs the verification for preventing the occurrence of an error every time global coordinates of the plurality of marks are detected through the step (A-4).
Position recognition method of an unmanned transport vehicle including.
상기 (A-5) 단계의 검증은,
해당 마크의 로컬좌표를 글로벌좌표로 변환하기 이전에 해당 로컬좌표를 확인하는 검증인 무인반송차량의 위치인식방법.The method of claim 8,
Verification of the step (A-5),
A method for recognizing the position of a unmanned carrier vehicle that verifies the local coordinate before converting the local coordinate of the mark into the global coordinate.
상기 (A-5) 단계의 검증은,
해당 마크의 로컬좌표를 글로벌좌표로 변환한 이후 상기 복수의 마크 전체의 글로벌좌표를 재 스캔하고, 이를 토대로 좌표를 수정하는 검증인 무인반송차량의 위치인식방법.The method of claim 8,
Verification of the step (A-5),
And rescanning the global coordinates of the entire plurality of marks after converting the local coordinates of the mark into global coordinates, and modifying the coordinates based on the marks.
상기 (B) 단계는,
(B-1) 상기 무인반송차량은, 상기 (A) 단계를 통해 검출된 상기 복수의 마크의 글로벌좌표를 고유의 ID별로 저장하는 단계,
(B-2) 상기 무인반송차량은, 상기 (A) 단계를 통해 검출된 상기 복수의 마크의 좌표 중 현 위치에서 최단 거리에 위치한 마크를 선택하는 단계,
(B-3) 상기 무인반송차량은, 상기 (B-1) 단계에서 저장된 데이터 중에서 상기 (B-2) 단계에서 선택된 마크를 포함하고 있는지 고유의 마크 ID를 통해 확인하는 단계,
(B-4) 상기 무인반송차량은, 상기 (B-3) 단계를 통해 확인된 마크의 좌표를 상기 (B-1) 단계에서 저장된 데이터를 이용하여 글로벌좌표로 변환하는 단계, 그리고
(B-5) 상기 무인반송차량은, 상기 (B-3) 단계에서 확인된 마크의 위치와 상기 (B-4) 단계에서 글로벌좌표로 변환된 마크의 위치를 이용하여 상기 무인반송차량의 현재 위치를 계산하는 단계를
포함하는 무인반송차량의 위치인식방법.The method of claim 7, wherein
Step (B) is,
(B-1) the unmanned transport vehicle, storing global coordinates of the plurality of marks detected through step (A) for each unique ID;
(B-2) selecting the mark located at the shortest distance from the current position among the coordinates of the plurality of marks detected through the step (A),
(B-3) checking, via the unique mark ID, whether the unmanned transport vehicle includes the mark selected in the step (B-2) among the data stored in the step (B-1),
(B-4) converting the coordinates of the mark confirmed through the step (B-3) into global coordinates using the data stored in the step (B-1), and
(B-5) The unmanned vehicle is presently present in the unmanned vehicle by using the position of the mark identified in the step (B-3) and the position of the mark converted into global coordinates in the step (B-4). To calculate the position
Position recognition method of an unmanned transport vehicle including.
상기 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하고, 상기 리플렉터로부터 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 상기 복수의 리플렉터의 좌표를 검출하며, 검출된 상기 복수의 리플렉터의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식하는 무인 반송차량을 포함하며,
상기 무인 반송차량은,
실내 공간상으로 360도 회전하면서 레이저를 조사하며, 상기 복수의 리플렉터에 의해 반사되는 신호를 수신하는 레이저 스캔부,
상기 레이저 스캔부로부터 입력되는 레이저 반사신호를 토대로 상기 복수의 리플렉터의 로컬좌표를 생성하며, 생성된 로컬좌표를 글로벌좌표로 변환하여 상기 복수의 리플렉터의 좌표를 검출하는 좌표 검출부, 그리고
상기 좌표 검출부로부터 입력되는 상기 복수의 리플렉터의 글로벌좌표를 토대로 상기 무인반송차량의 현재 위치를 인식하는 위치 인식부를 포함하는 무인반송차량의 위치인식장치.A plurality of reflectors installed on the wall or ceiling of the indoor space to reflect the laser; and
Irradiating a laser for identifying coordinates of the plurality of reflectors, converting local coordinates generated based on distance and angle information reflected from the reflectors into global coordinates to detect coordinates of the plurality of reflectors, and detecting the detected plurality of It includes an unmanned carrier vehicle that recognizes the position information of the current direction, angle located on the interior space based on the coordinates of the reflector of,
The unmanned transport vehicle,
A laser scan unit for irradiating a laser while rotating 360 degrees in an indoor space and receiving a signal reflected by the plurality of reflectors;
A coordinate detector configured to generate local coordinates of the plurality of reflectors based on a laser reflection signal input from the laser scan unit, convert the generated local coordinates into global coordinates, and detect coordinates of the plurality of reflectors;
And a position recognizing unit for recognizing a current position of the unmanned vehicle based on the global coordinates of the plurality of reflectors inputted from the coordinate detecting unit.
상기 좌표 검출부는,
실내 공간상의 복수의 지점에 상기 무인반송차량을 위치시켜 검출한 상기 복수의 리플렉터의 글로벌좌표를 평균한 값을 상기 복수의 리플렉터의 최종 좌표로 검출하는 무인반송차량의 위치인식장치.The method of claim 12,
The coordinate detector,
A position recognition device for an unmanned vehicle, which detects, as a final coordinate of the plurality of reflectors, a value obtained by averaging the global coordinates of the plurality of reflectors which are detected by positioning the unmanned vehicle at a plurality of points on an indoor space.
상기 복수의 마크의 좌표를 확인하기 위한 카메라 촬영을 수행하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 글로벌좌표를 결정하고, 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 상기 복수의 마크의 좌표를 검출하며, 검출된 상기 복수의 마크의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식하는 무인 반송차량을 포함하며,
상기 무인 반송차량은,
실내 공간에 설치된 상기 복수의 마크를 촬영하는 카메라부,
상기 카메라부로부터 입력되는 촬영신호를 토대로 상기 복수의 마크 중 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하고, 설정된 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인하며, 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 상기 복수의 마크들의 글로벌좌표를 검출하는 좌표 검출부, 그리고
상기 좌표 검출부로부터 입력되는 상기 복수의 마크의 글로벌좌표를 토대로 상기 무인반송차량의 현재 위치를 인식하는 위치 인식부를 포함하는 무인반송차량의 위치인식장치.A plurality of marks installed on the wall or ceiling of the indoor space, and
Perform camera shooting to check the coordinates of the plurality of marks, set the local coordinate of the shortest distance mark as the origin of the global coordinate based on the information photographed by the camera, and determine the global coordinate of the camera based on the origin; Coordinates of the plurality of marks are detected using the global coordinates of the camera and the local coordinates of other marks photographed by the camera, and the position information of the current direction and angle located in the indoor space based on the detected coordinates of the plurality of marks. It includes an unmanned return vehicle that recognizes,
The unmanned transport vehicle,
A camera unit for photographing the plurality of marks installed in an indoor space,
The local coordinate of the mark located at the shortest distance among the plurality of marks is set as the origin of the global coordinate based on the photographing signal input from the camera unit, and the local coordinate of the camera is converted into the global coordinate based on the origin of the set global coordinate. A coordinate detector which checks the global coordinates of the camera and detects the global coordinates of the plurality of marks using the confirmed global coordinates of the camera and local coordinates of other marks taken by the camera;
And a position recognizing unit for recognizing a current position of the unmanned vehicle based on the global coordinates of the plurality of marks inputted from the coordinate detecting unit.
상기 좌표 검출부는,
상기 카메라부로부터 입력되는 촬영신호를 토대로 상기 복수의 마크의 글로벌좌표가 추가될 때마다,
해당 마크의 로컬좌표를 글로벌좌표로 변환하기 이전에 해당 로컬좌표의 검증을 수행하거나 또는 해당 마크의 로컬좌표를 글로벌좌표로 변환한 이후 상기 복수의 마크 전체의 글로벌좌표를 재 스캔하여 좌표를 수정하는 검증을 수행하는 무인반송차량의 위치인식장치.The method of claim 14,
The coordinate detector,
Whenever the global coordinates of the plurality of marks are added based on the photographing signal input from the camera unit,
Correcting the coordinates by performing verification of the local coordinates before converting the local coordinates of the mark to global coordinates or by re-scanning the global coordinates of the entire plurality of marks after converting the local coordinates of the mark into global coordinates. Location recognition device of unmanned vehicle for verification.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100000162A KR101140839B1 (en) | 2010-01-04 | 2010-01-04 | Coordinates recognition method of automatic guided vehicle and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100000162A KR101140839B1 (en) | 2010-01-04 | 2010-01-04 | Coordinates recognition method of automatic guided vehicle and apparatus thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110080025A true KR20110080025A (en) | 2011-07-12 |
KR101140839B1 KR101140839B1 (en) | 2012-05-03 |
Family
ID=44919045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100000162A KR101140839B1 (en) | 2010-01-04 | 2010-01-04 | Coordinates recognition method of automatic guided vehicle and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101140839B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101445739B1 (en) * | 2012-11-13 | 2014-10-06 | 한국건설기술연구원 | Position Detecting Method of Road Traffic Sign |
KR101461482B1 (en) * | 2012-04-25 | 2014-11-18 | 한국항공우주산업 주식회사 | Method for tracking location of uninhabited aerial vehicle |
KR101519266B1 (en) * | 2013-12-18 | 2015-05-11 | 현대자동차주식회사 | Method for estimating indoor position of vehicle |
CN104648403A (en) * | 2013-11-22 | 2015-05-27 | 现代自动车株式会社 | Method, apparatus and system for detecting narrow road |
CN111337877A (en) * | 2020-03-19 | 2020-06-26 | 北京北特圣迪科技发展有限公司 | Reflector matching positioning method |
CN113075686A (en) * | 2021-03-19 | 2021-07-06 | 长沙理工大学 | Cable trench intelligent inspection robot mapping method based on multi-sensor fusion |
WO2023102467A1 (en) * | 2021-12-02 | 2023-06-08 | Argo AI, LLC | Automated vehicle pose validation |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101316524B1 (en) | 2013-01-03 | 2013-10-08 | 충남대학교산학협력단 | Method and apparatus for estimating location in the object using omnidirectional vision sensor |
KR20220147863A (en) | 2021-04-28 | 2022-11-04 | 주식회사 한화 | Automated guided vehicle and cargo management system including the same |
KR102507973B1 (en) | 2021-04-28 | 2023-03-08 | 주식회사 한화 | Automated guided vehicle and operation method of the same |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07248822A (en) * | 1994-03-10 | 1995-09-26 | Fujitsu Ltd | Automated guided vehicle and its running control method |
JPH11282529A (en) * | 1998-03-31 | 1999-10-15 | Murata Mach Ltd | Automatically guided vehicle |
JP4051883B2 (en) | 2000-12-20 | 2008-02-27 | 株式会社明電舎 | Unmanned vehicle position measurement system |
-
2010
- 2010-01-04 KR KR1020100000162A patent/KR101140839B1/en active IP Right Grant
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101461482B1 (en) * | 2012-04-25 | 2014-11-18 | 한국항공우주산업 주식회사 | Method for tracking location of uninhabited aerial vehicle |
KR101445739B1 (en) * | 2012-11-13 | 2014-10-06 | 한국건설기술연구원 | Position Detecting Method of Road Traffic Sign |
CN104648403A (en) * | 2013-11-22 | 2015-05-27 | 现代自动车株式会社 | Method, apparatus and system for detecting narrow road |
US9278695B2 (en) | 2013-11-22 | 2016-03-08 | Hyundai Motor Company | Method, apparatus and system for detecting narrow road |
CN104648403B (en) * | 2013-11-22 | 2019-12-31 | 现代自动车株式会社 | Method, device and system for detecting narrow road |
USRE47834E1 (en) | 2013-11-22 | 2020-02-04 | Hyundai Motor Company | Method, apparatus and system for detecting narrow road |
KR101519266B1 (en) * | 2013-12-18 | 2015-05-11 | 현대자동차주식회사 | Method for estimating indoor position of vehicle |
CN111337877A (en) * | 2020-03-19 | 2020-06-26 | 北京北特圣迪科技发展有限公司 | Reflector matching positioning method |
CN113075686A (en) * | 2021-03-19 | 2021-07-06 | 长沙理工大学 | Cable trench intelligent inspection robot mapping method based on multi-sensor fusion |
CN113075686B (en) * | 2021-03-19 | 2024-01-12 | 长沙理工大学 | Cable trench intelligent inspection robot graph building method based on multi-sensor fusion |
WO2023102467A1 (en) * | 2021-12-02 | 2023-06-08 | Argo AI, LLC | Automated vehicle pose validation |
US11861865B2 (en) | 2021-12-02 | 2024-01-02 | Argo AI, LLC | Automated vehicle pose validation |
Also Published As
Publication number | Publication date |
---|---|
KR101140839B1 (en) | 2012-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101140839B1 (en) | Coordinates recognition method of automatic guided vehicle and apparatus thereof | |
US20240028045A1 (en) | Systems and methods for optical target based indoor vehicle navigation | |
US20100001991A1 (en) | Apparatus and method of building map for mobile robot | |
US8121400B2 (en) | Method of comparing similarity of 3D visual objects | |
JP6548422B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
US8761440B2 (en) | Range image generation apparatus, position and orientation measurement apparatus, range image processing apparatus, method of controlling range image generation apparatus, and storage medium | |
KR101105737B1 (en) | Apparatus and method for recognizing position of mobile robot | |
US10165246B2 (en) | Method and device for processing stereoscopic data | |
CN101751560A (en) | Method, control program and system for identifying a container in a container crane assembly | |
EP3619682B1 (en) | A lighting plan generator | |
JP2015197780A (en) | vehicle detection and vehicle number recognition device | |
JP2010101807A (en) | Movable body position detection system | |
US10762467B2 (en) | Placement information registration device, placement information registration method, and placement information registration program | |
JP2013106238A (en) | Marker detection and tracking device | |
JP5989443B2 (en) | Semiconductor integrated circuit and object distance measuring device | |
KR101305405B1 (en) | Method for Localizing Intelligent Mobile Robot by using a lateral landmark | |
US11348273B2 (en) | Data capture system | |
KR101617540B1 (en) | Method and system for recognition of moving object in the area for creation of content based on current context information | |
CN112346041A (en) | Method and device for determining parallax problem in sensor data of two sensors | |
JP6067462B2 (en) | Vehicle detection device and vehicle detection system | |
KR101433583B1 (en) | Image recognition based free parking lot recognition apparatus and method | |
WO2022163224A1 (en) | Distance measuring device | |
KR100697636B1 (en) | Method for detecting error situation of calculating location based on artificial landmark | |
KR20210087766A (en) | A method for checking moving path of transfer robot indoor space | |
JP2014173922A (en) | Imaging apparatus, rotation angle estimation method, and rotation angle estimation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150416 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180222 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190321 Year of fee payment: 8 |