KR20110080025A - Coordinates recognition method of automatic guided vehicle and apparatus thereof - Google Patents

Coordinates recognition method of automatic guided vehicle and apparatus thereof Download PDF

Info

Publication number
KR20110080025A
KR20110080025A KR1020100000162A KR20100000162A KR20110080025A KR 20110080025 A KR20110080025 A KR 20110080025A KR 1020100000162 A KR1020100000162 A KR 1020100000162A KR 20100000162 A KR20100000162 A KR 20100000162A KR 20110080025 A KR20110080025 A KR 20110080025A
Authority
KR
South Korea
Prior art keywords
coordinates
reflectors
unmanned
global
marks
Prior art date
Application number
KR1020100000162A
Other languages
Korean (ko)
Other versions
KR101140839B1 (en
Inventor
임혁
신명찬
Original Assignee
(주)엔스퀘어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔스퀘어 filed Critical (주)엔스퀘어
Priority to KR1020100000162A priority Critical patent/KR101140839B1/en
Publication of KR20110080025A publication Critical patent/KR20110080025A/en
Application granted granted Critical
Publication of KR101140839B1 publication Critical patent/KR101140839B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE: A method and a device thereof of recognizing the location of manless returning vehicle are provided to easily install and implement a manless returning vehicle, since a plurality of marks are not accurately established on the fixed coordinate. CONSTITUTION: A manless returning vehicle radiates a laser for confirming the coordinate of the reflector of the plurality installed at the wall of the indoor space or the ceiling, converts the local coordinate created based on the angular information into the global coordinate, thereby detecting the coordinate of a plurality of reflectors. And the manless returning vehicle recognizes the locating information of the angle and the direction of present manless returning vehicle located on the indoor space based on the coordinate of a plurality of reflectors.

Description

무인반송차량의 위치인식방법 및 그 장치{Coordinates recognition method of automatic guided vehicle and apparatus thereof}Coordinates recognition method of automatic guided vehicle and apparatus

본 발명은 무인반송차량의 위치인식방법 및 그 장치에 관한 것이다.The present invention relates to a position recognition method of an unmanned transport vehicle and its apparatus.

일반적으로 각종 산업 현장에서는 관리 인력을 최소화하고 업무 효율을 높이기 위하여 무인반송차량(automatic guided vehicle) 등을 사용하고 있다. 예를 들어, 창고 관리 시스템에서는 물류의 입고, 출고를 자동으로 처리할 수 있도록 무인반송차량을 사용한다.In general, various industrial sites use automatic guided vehicles to minimize the management manpower and increase work efficiency. For example, the warehouse management system uses an unmanned carrier vehicle to automatically process the receipt and release of logistics.

이처럼 실내 공간을 이동하는 무인반송차량을 제어하기 위해서는 무인반송차량이 실내 공간상에서 어느 위치에 있는지를 인식하는 기능이 필요하다. 현재 무인반송차량의 자기위치를 계산하는 방법으로는 크게 인위적인 마크를 이용하는 방법과 자연적인 마크를 이용하는 방법으로 나눌 수 있다.As such, in order to control the unmanned vehicle moving in the indoor space, a function of recognizing which position in the indoor space is required is required. At present, the method of calculating the magnetic position of the unmanned transport vehicle can be divided into the method of using artificial marks and the method of using natural marks.

우선 인위적인 마크를 이용하는 방법으로서, 실내 공간의 천정 또는 벽면에 다수의 마크를 설치하고, 이를 카메라로 촬영한 후 영상에서 마크를 추출하여 화면상의 좌표와 무인 반송차량의 좌표를 일치시켜 무인반송차량의 자기 위치를 계산하는 방법이 있다.First of all, as a method of using artificial marks, a plurality of marks are installed on the ceiling or wall of an indoor space, photographed with a camera, and then extracted from the image to match the coordinates of the unmanned vehicle with the coordinates of the unmanned vehicle. There is a way to calculate the magnetic position.

그러나, 상술한 종래의 무인반송차량의 자기위치 인식방식에 있어서 인위적인 마크를 이용한 방식은, 실내 공간의 천정 또는 벽면에 설치된 다수의 마크의 좌표들이 무인반송차량에 사전에 등록되어 있고, 무인반송차량이 이동하면서 카메라로 촬영한 마크를 기 등록된 좌표와 비교하면서 자기 위치를 계산하는 방식이기 때문에 다수의 마크를 설정된 좌표 상에 정확하게 설치하여야 하는데, 실내 공간의 부설물(예를 들어, 조명등, 환기구 등) 등으로 인하여 설정된 좌표 상에 마크를 설치하기 어려운 문제점이 발생할 수 있다.However, in the above-described method of using the artificial mark in the magnetic position recognition method of the unmanned vehicle, the coordinates of a plurality of marks installed on the ceiling or the wall of the indoor space are registered in advance in the unmanned vehicle, Since this mark is a method of calculating a magnetic position while comparing a mark photographed by a camera with a pre-registered coordinate, it is necessary to accurately install a plurality of marks on a set coordinate. Etc.) may cause difficulty in installing marks on the set coordinates.

또한, 상술한 인위적인 마크 이외에 자연적인 마크를 이용하는 방법으로서, 천장을 카메라로 촬영한 후 영상에서 천정에 설치된 구조물 및 벽과의 경계면 정보를 추출하고, 이를 이용하여 무인반송차량의 자기 위치를 계산하는 방법을 사용할 수 있다.In addition, as a method of using a natural mark in addition to the above-described artificial marks, after photographing the ceiling with a camera and extracting the interface information between the structure and the wall installed in the ceiling from the image, and using this to calculate the magnetic position of the unmanned vehicle Method can be used.

그러나, 상술한 종래의 무인반송차량의 자기위치 인식방식에 있어서 자연적인 마크를 이용한 방식 또한, 주변 광원의 영향은 물론, 천장과 벽 사이의 경계면 인식 등에 많은 데이터 연산이 필요하여 많은 시간과 대용량의 메모리 및 부가적인 장비를 추가로 사용하여야 하는 문제점이 있었다.However, the above-described method using a natural mark in the conventional self-recognition method of the unmanned transport vehicle also requires a lot of time and a large amount of data operation as well as the influence of the surrounding light source and the recognition of the interface between the ceiling and the wall. There was a problem that additional memory and additional equipment must be used.

전술한 문제점을 해결하기 위한 본 발명의 목적은, 레이저 스캔을 수행하는 무인반송차량에서 실내 공간의 벽면이나 천정의 다수 위치에 설치된 리플렉터(마크)에서 반사되는 정보를 토대로 각 리플렉터의 좌표를 검출하고, 검출된 각 리플렉터의 좌표를 이용하여 무인반송차량의 방향이나 각도 등의 현재 위치를 정확하게 인식할 수 있도록 하는 무인반송차량의 위치인식방법 및 그 장치를 제공하는 데 있다.An object of the present invention for solving the above-mentioned problems is to detect the coordinates of each reflector based on information reflected from reflectors (marks) installed at multiple locations on the wall or ceiling of an indoor space in an unmanned vehicle carrying out a laser scan. In addition, the present invention provides a method and apparatus for recognizing a position of an unmanned vehicle, which can accurately recognize a current position such as the direction or angle of an unmanned vehicle using the detected coordinates of each reflector.

본 발명의 다른 목적은, 실내 공간에 위치한 무인반송차량에서 레이저 스캔을 통해 주변으로부터 반사되는 정보를 이용하여 각 리플렉터의 로컬좌표(상대좌표)를 생성한 후 이를 글로벌좌표(절대좌표)로 변환하고, 동일한 방식으로 실내 공간의 여러 위치에서 취합된 각 리플렉터의 글로벌좌표를 평균하여 각 리플렉터의 최종적인 글로벌좌표를 검출하도록 하는 무인반송차량의 위치인식방법 및 그 장치를 제공하는 데 있다.Another object of the present invention is to generate local coordinates (relative coordinates) of each reflector using information reflected from the surroundings through laser scanning in an unmanned transport vehicle located in an indoor space, and then convert them to global coordinates (absolute coordinates). The present invention provides a method and apparatus for recognizing a position of an unmanned carrier vehicle for averaging the global coordinates of each reflector collected at various locations in an indoor space in the same manner to detect the final global coordinates of each reflector.

본 발명의 또 다른 목적은, 무인반송차량에서 실내 공간의 벽면이나 천정의 다수 위치에 설치된 마크의 카메라 촬영 정보를 토대로 각 마크의 좌표를 검출하고, 검출된 각 마크의 좌표를 이용하여 무인반송차량의 방향이나 각도 등의 현재 위치를 정확하게 인식할 수 있도록 하는 무인반송차량의 위치인식방법 및 그 장치를 제공하는 데 있다.Still another object of the present invention is to detect coordinates of each mark based on camera photographing information of a mark installed on a wall or a ceiling of a plurality of locations in an indoor space in an unmanned vehicle, and use the detected coordinates of the unmanned vehicle The present invention provides a method and apparatus for recognizing a location of an unmanned vehicle for accurately recognizing a current position such as a direction or an angle of a vehicle.

본 발명의 또 다른 목적은, 실내 공간에 위치한 무인반송차량에서 카메라로 촬영한 가장 가까운 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 변환된 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 각 마크들의 최종적인 글로벌좌표를 검출하도록 하는 무인반송차량의 위치인식방법 및 그 장치를 제공하는 데 있다.Another object of the present invention, after setting the local coordinates of the nearest mark taken by the camera in the unmanned transport vehicle located in the indoor space as the origin of the global coordinates, and converts the local coordinates of the camera to the global coordinates, The present invention provides a method and apparatus for recognizing a position of an unmanned transport vehicle for detecting the final global coordinate of each mark by using the converted global coordinates of the camera and local coordinates of other marks photographed by the camera.

이러한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법은, (1) 무인반송차량에서 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하고, 복수의 리플렉터에 의해 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터의 좌표를 검출하는 단계, 그리고 (2) 무인반송차량은, (1) 단계를 통해 검출된 복수의 리플렉터의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량의 방향, 각도의 위치정보를 인식하는 단계를 포함할 수 있다.In order to achieve the above object, a method of recognizing a position of an unmanned transport vehicle according to an embodiment of the present invention includes: (1) irradiating a laser for identifying coordinates of a plurality of reflectors installed on a wall or a ceiling of an indoor space in an unmanned transport vehicle; And converting the local coordinates generated on the basis of the distance and angle information reflected by the plurality of reflectors into global coordinates to detect the coordinates of the plurality of reflectors, and (2) the unmanned transport vehicle through (1). Recognizing position information of the direction and angle of the current unmanned vehicle on the indoor space based on the detected coordinates of the plurality of reflectors.

상술한 (1) 단계는, (1-1) 무인반송차량은, 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하는 단계와, (1-2) 무인반송차량은, 복수의 리플렉터에 의해 반사된 거리, 각도정보를 토대로 복수의 리플렉터의 로컬좌표를 생성하는 단계와, (1-3) 무인반송차량은, (1-2) 단계에서 생성된 복수의 리플렉터의 로컬좌표를 글로벌좌표로 변환하는 단계와, (1-4) 무인반송차량은, 실내 공간상의 복수의 지점에서 (1-1) 단계 이후를 반복, 수행하여, 각 위치에 따른 복수의 리플렉터의 글로벌좌표를 확인하는 단계, 그리고 (1-5) 무인반송차량은, (1-4) 단계를 통해 반복 수행하여 확인한 복수의 리플렉터의 글로벌좌표를 평균하고, 평균값을 복수의 리플렉터의 최종 좌표로 검출하는 단계를 포함하는 것이 바람직하다.In the above-mentioned step (1), (1-1) the unmanned vehicle is irradiated with a laser for checking the coordinates of a plurality of reflectors installed on the wall or the ceiling of the indoor space, and (1-2) the unmanned vehicle (B) generating local coordinates of the plurality of reflectors based on the distance and angle information reflected by the plurality of reflectors, and (1-3) the unmanned transport vehicle includes the plurality of reflectors generated in step (1-2). The step of converting the local coordinates into the global coordinates and (1-4) the unmanned transport vehicle repeats the steps (1-1) and later at a plurality of points in the indoor space, thereby performing globalization of the plurality of reflectors according to each position. The step of checking the coordinates and (1-5) the unmanned transport vehicle averages the global coordinates of the plurality of reflectors, which are repeatedly performed through steps (1-4), and detects the average value as the final coordinates of the plurality of reflectors. It is preferred to include the step.

상술한 (2) 단계는, (2-1) 무인반송차량은, (1) 단계를 통해 검출된 복수의 리플렉터의 좌표를 토대로 각 리플렉터 간의 상대적인 거리를 확인하고 저장하는 단계와, (2-2) 무인반송차량은, (1) 단계를 통해 검출된 복수의 리플렉터의 좌표를 토대로 최장 거리에 위치한 리플렉터와 나머지 리플렉터 간의 상대적인 거리를 확인하고 저장하는 단계와, (2-3) 무인반송차량은, (2-1) 단계에서 저장된 데이터에서 (2-2) 단계에서 저장된 데이터와 5% 오차로 일치하는 데이터가 저장된 행의 인덱스를 확인하고, 해당 행의 인덱스로부터 무인반송차량과 최장 거리에 위치한 리플렉터 A의 위치를 확인하는 단계와, (2-4) 무인반송차량은, (2-3) 단계를 통해 확인된 최장 거리에 위치한 리플렉터 A를 기준으로 2π/3<리플렉터 B≤π, π<리플렉터 C≤2π/3에 존재하는 리플렉터 B, C가 복수 개 존재하는지를 확인하고, 복수 개 존재하면 각도가 가장 큰 것을 리플렉터 B, C로 결정하는 단계, 그리고 (2-5) 무인반송차량은, (2-3) 단계에서 확인된 리플렉터 A의 위치와 (2-4) 단계에서 결정된 리플렉터 B, C의 위치를 이용하여 무인반송차량의 현재 위치를 계산하는 단계를 포함하는 것이 바람직하다.In the above-mentioned step (2), the step (2-1) of the unmanned transport vehicle, the step of identifying and storing the relative distance between each reflector based on the coordinates of the plurality of reflectors detected through the step (1), (2-2 The unmanned carrier vehicle may include identifying and storing a relative distance between the reflector located at the longest distance and the remaining reflectors based on the coordinates of the plurality of reflectors detected through step (1), and (2-3) From the data stored in step (2-1), check the index of the row where the data matching the data stored in step (2-2) with 5% error is stored, and the reflector located at the longest distance from the unmanned carrier vehicle from the index of the row. The position of A and the step (2-4) of the unmanned transport vehicle are 2π / 3 <reflector B≤π, π <reflector based on the reflector A located at the longest distance identified through the step (2-3). Reflectors B and C present in C≤2π / 3 Checking whether there are a plurality, and if there are a plurality, determining the angles having the largest angles with the reflectors B and C, and (2-5) the unmanned vehicle is determined by the position of the reflector A identified in the step (2-3). It is preferable to include the step of calculating the current position of the unmanned transport vehicle using the positions of the reflectors B and C determined in step (2-4).

그리고, 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식방법은, (A) 무인반송차량에서 실내 공간의 벽면 또는 천정에 설치된 복수의 마크를 촬영하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 변환된 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 복수의 마크의 좌표를 검출하는 단계, 그리고 (B) 무인반송차량은, (A) 단계를 통해 검출된 복수의 마크의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량의 방향, 각도의 위치정보를 인식하는 단계를 포함할 수 있다.In addition, the position recognition method of the unmanned vehicle according to another embodiment of the present invention, (A) in the unmanned vehicle is photographed a plurality of marks installed on the wall or ceiling of the interior space, the shortest distance based on the information taken by the camera After setting the local coordinate of the mark as the origin of the global coordinate, convert the local coordinate of the camera to the global coordinate based on the origin, and use a plurality of marks using the local coordinates of the converted camera's global coordinate and other marks taken by the camera. Detecting coordinates of the vehicle and (B) the unmanned transport vehicle recognizes the position information of the direction and angle of the current unmanned transport vehicle located in the indoor space based on the coordinates of the plurality of marks detected through the step (A). It may include a step.

상술한 (A) 단계는, (A-1) 무인반송차량은, 실내 공간의 벽면 또는 천정에 설치된 복수의 마크의 좌표를 확인하기 위한 카메라 촬영을 수행하는 단계와, (A-2) 무인반송차량은, 카메라로 촬영한 정보를 토대로 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하는 단계와, (A-3) 무인반송차량은, (A-2) 단계에서 설정한 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인하는 단계와, (A-4) 무인반송차량은, (A-3) 단계에서 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 복수의 마크들의 글로벌좌표를 검출하는 단계, 그리고 (A-5) 무인반송차량은, (A-4) 단계를 통해 복수의 마크의 글로벌좌표가 검출될 때마다 오차 발생 방지를 위한 검증을 수행하는 단계를 포함하는 것이 바람직하다.In the above-mentioned step (A), the step (A-1) of the unmanned vehicle is performed by performing camera photography for checking the coordinates of a plurality of marks installed on the wall or the ceiling of the indoor space; The vehicle sets the local coordinates of the mark located at the shortest distance to the origin of the global coordinates based on the information captured by the camera, and (A-3) the unmanned vehicle is the global coordinates set in step (A-2). (B) converting the local coordinates of the camera into global coordinates based on the origin of the camera and checking the global coordinates of the camera; and (A-4) the unmanned transport vehicle, the global coordinates of the camera identified in step (A-3) and the camera. Detecting the global coordinates of the plurality of marks by using the local coordinates of the other marks photographed with (A-5), and the global coordinates of the plurality of marks are detected through (A-4). Whenever a verification is performed to prevent errors It is preferable to include a system.

상술한 (B) 단계는, (B-1) 무인반송차량은, (A) 단계를 통해 검출된 복수의 마크의 글로벌좌표를 고유의 ID별로 저장하는 단계와, (B-2) 무인반송차량은, (A) 단계를 통해 검출된 복수의 마크의 좌표 중 현 위치에서 최단 거리에 위치한 마크를 선택하는 단계와, (B-3) 무인반송차량은, (B-1) 단계에서 저장된 데이터 중에서 (B-2) 단계에서 선택된 마크를 포함하고 있는지 고유의 마크 ID를 통해 확인하는 단계와, (B-4) 무인반송차량은, (B-3) 단계를 통해 확인된 마크의 좌표를 (B-1) 단계에서 저장된 데이터를 이용하여 글로벌좌표로 변환하는 단계, 그리고 (B-5) 무인반송차량은, (B-3) 단계에서 확인된 마크의 위치와 (B-4) 단계에서 글로벌좌표로 변환된 마크의 위치를 이용하여 무인반송차량의 현재 위치를 계산하는 단계를 포함하는 것이 바람직하다.In the above-mentioned step (B), (B-1) the unmanned transport vehicle, storing the global coordinates of the plurality of marks detected through the step (A) for each unique ID, and (B-2) the unmanned transport vehicle (B) selecting the mark located at the shortest distance from the current position among the coordinates of the plurality of marks detected through step (A), and (B-3) the unmanned vehicle is selected from the data stored in step (B-1). (B-2) checking whether the mark selected in step (b-2) is included through the unique mark ID, and (b-4) the unmanned transport vehicle uses the coordinates of the mark confirmed in (b-3) (b). Step (1) converts the global coordinates to the global coordinates using the data stored in step (1), and (B-5) the unmanned transport vehicle, the position of the mark identified in step (B-3) and the global coordinates in step (B-4). It is preferable to include the step of calculating the current position of the unmanned transport vehicle using the position of the mark converted to.

또한, 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치는, 실내 공간의 벽면 또는 천정에 설치되어 레이저를 반사하는 복수의 리플렉터, 그리고 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하고, 리플렉터로부터 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터의 좌표를 검출하며, 검출된 복수의 리플렉터의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식하는 무인 반송차량을 포함하며, 무인 반송차량은, 실내 공간상으로 360도 회전하면서 레이저를 조사하며, 복수의 리플렉터에 의해 반사되는 신호를 수신하는 레이저 스캔부와, 레이저 스캔부로부터 입력되는 레이저 반사신호를 토대로 복수의 리플렉터의 로컬좌표를 생성하며, 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터의 좌표를 검출하는 좌표 검출부, 그리고 좌표 검출부로부터 입력되는 복수의 리플렉터의 글로벌좌표를 토대로 무인반송차량의 현재 위치를 인식하는 위치 인식부를 포함할 수 있다.In addition, the position recognition device of the unmanned vehicle according to an embodiment of the present invention, the plurality of reflectors installed on the wall or ceiling of the interior space reflects the laser, and irradiating the laser to check the coordinates of the plurality of reflectors The coordinates of the plurality of reflectors are detected by converting the local coordinates generated on the basis of the distance and angle information reflected from the reflector to the global coordinates, and based on the detected coordinates of the plurality of reflectors, And an unmanned transport vehicle for recognizing positional information, wherein the unmanned transport vehicle includes a laser scan unit for irradiating a laser while rotating 360 degrees in an interior space and receiving a signal reflected by a plurality of reflectors, and a laser scan unit Local coordinates of a plurality of reflectors are generated based on the input laser reflection signal, and the generated local coordinates are glowed. Coordinate detection unit detecting coordinates of a plurality of the reflector is converted into coordinates, and on the basis of the global coordinates of the plurality of the reflector to be input from the coordinate detection unit may include a position recognition to recognize the current position of the unmanned transporting vehicle.

그리고, 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식장치는, 실내 공간의 벽면 또는 천정에 설치되는 복수의 마크, 그리고 복수의 마크의 좌표를 확인하기 위한 카메라 촬영을 수행하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 글로벌좌표를 결정하고, 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 복수의 마크의 좌표를 검출하며, 검출된 복수의 마크의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식하는 무인 반송차량을 포함하며, 무인 반송차량은, 실내 공간에 설치된 복수의 마크를 촬영하는 카메라부와, 카메라부로부터 입력되는 촬영신호를 토대로 복수의 마크 중 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하고, 설정된 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인하며, 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 복수의 마크들의 글로벌좌표를 검출하는 좌표 검출부, 그리고 좌표 검출부로부터 입력되는 복수의 마크의 글로벌좌표를 토대로 무인반송차량의 현재 위치를 인식하는 위치 인식부를 포함할 수 있다.In addition, the position recognition device of the unmanned vehicle according to another embodiment of the present invention, the camera photographing to check the plurality of marks and the coordinates of the plurality of marks installed on the wall or ceiling of the indoor space, Based on the photographed information, the local coordinate of the shortest distance mark is set as the origin of the global coordinate, and then the global coordinate of the camera is determined based on the origin. A unmanned transport vehicle that detects coordinates of a mark and recognizes position information of a current direction and angle located on the indoor space based on the detected coordinates of the plurality of marks; A mark positioned at the shortest distance of the plurality of marks based on a camera unit photographing the mark Set the local coordinate as the origin of the global coordinate, check the camera's global coordinate by converting the camera's local coordinate to the global coordinate based on the set origin of the global coordinate, and confirm the camera's global coordinate and other marks taken by the camera. And a coordinate detection unit for detecting the global coordinates of the plurality of marks using the local coordinates of the plurality of marks, and a position recognition unit for recognizing the current position of the unmanned vehicle based on the global coordinates of the plurality of marks inputted from the coordinate detection unit.

이상에서와 같이 본 발명의 무인반송차량의 위치인식방법 및 그 장치에 따르면, 레이저 스캔을 수행하는 무인반송차량에서 각 리플렉터에서 반사되는 정보를 토대로 좌표를 검출하고, 검출된 각 리플렉터의 좌표를 이용하여 무인반송차량의 현재 위치를 정확하게 인식하기 때문에 무인반송차량이 이동하면서 카메라로 촬영한 마크를 기 등록된 마크의 좌표와 비교하면서 자기 위치를 계산하는 종래의 방식과 달리 다수의 리플렉터를 설정된 좌표 상에 정확하게 설치할 필요가 없으므로 무인반송차량 시스템의 설치 및 구현이 편리하며, 빠른 데이터 연산처리를 통해 무인반송차량의 현재 위치를 정확하게 인식할 수 있음은 물론, 이를 토대로 무인반송차량을 정밀하고 빠르게 제어할 수 있는 효과가 있다.As described above, according to the position recognition method and apparatus of the unmanned transport vehicle of the present invention, the coordinates are detected based on the information reflected from each reflector in the unmanned transport vehicle performing the laser scan, and the coordinates of the detected reflectors are used. Unlike the conventional method of calculating the self position by comparing the mark photographed by the camera with the registered mark while moving the unmanned vehicle, it accurately recognizes the current position of the unmanned vehicle. It is easy to install and implement the unmanned vehicle system because it does not need to be installed in the unmanned vehicle system.It is possible to accurately recognize the current position of the unmanned vehicle by fast data operation processing, and also to control the unmanned vehicle accurately and quickly. It can be effective.

또한, 카메라 촬영을 토대로 각 마크의 좌표를 검출할 경우에도 무인반송차량에서 카메라로 촬영한 가장 가까운 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 이를 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 각 마크들의 글로벌 좌표를 검출하기 때문에 레이저 스캔 방식의 무인반송차량과 마찬가지로 다수의 마크를 설정된 좌표 상에 정확하게 설치할 필요가 없으므로 무인반송차량 시스템의 설치 및 구현이 편리한 효과가 있다.In addition, even when detecting the coordinates of each mark based on camera shooting, the local coordinates of the nearest mark photographed by the camera in the unmanned transport vehicle are set as the origin of the global coordinates, and then the local coordinates of the camera are converted into the global coordinates based on this. Since the global coordinates of each mark are detected using the global coordinates of the camera and the local coordinates of the other marks taken by the camera, it is not necessary to accurately install a plurality of marks on the set coordinates like the unmanned carrier vehicle of the laser scan method. The installation and implementation of the unmanned vehicle system is convenient.

도 1은 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치의 구성을 개략적으로 나타낸 도면,
도 2는 도 1의 무인반송차량의 구성을 개략적으로 나타낸 블록도,
도 3은 본 발명의 일 실시예에 적용되는 각 리플렉터의 좌표검출을 설명하기 위한 도면,
도 4는 본 발명의 일 실시예에 적용되는 무인반송차량의 위치인식을 설명하기 위한 도면,
도 5 내지 도 7은 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법의 동작과정을 설명하기 위한 순서도,
도 8은 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식장치의 구성을 개략적으로 나타낸 도면,
도 9는 도 8의 무인반송차량의 구성을 개략적으로 나타낸 블록도,
도 10 내지 도 12는 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식방법의 동작과정을 설명하기 위한 순서도이다.
1 is a view schematically showing the configuration of a position recognition device of an unmanned transport vehicle according to an embodiment of the present invention,
2 is a block diagram schematically showing the configuration of the unmanned vehicle of FIG.
3 is a view for explaining the coordinate detection of each reflector applied to an embodiment of the present invention;
4 is a view for explaining the position recognition of the unmanned carrier vehicle applied to an embodiment of the present invention,
5 to 7 is a flow chart for explaining the operation of the position recognition method of the unmanned vehicle according to an embodiment of the present invention,
8 is a view schematically showing the configuration of the position recognition device of the unmanned vehicle according to another embodiment of the present invention;
9 is a block diagram schematically showing the configuration of the unmanned vehicle of FIG. 8;
10 to 12 are flow charts for explaining the operation of the position recognition method of the unmanned vehicle according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 각 실시예에 따른 무인반송차량의 위치인식방법 및 그 장치를 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the position recognition method and apparatus of the unmanned vehicle according to each embodiment of the present invention.

도 1은 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치의 구성을 개략적으로 나타낸 도면이고, 도 2는 도 1의 무인반송차량의 구성을 개략적으로 나타낸 블록도이고, 도 3은 본 발명의 일 실시예에 적용되는 각 리플렉터의 좌표검출을 설명하기 위한 도면이며, 도 4는 본 발명의 일 실시예에 적용되는 무인반송차량의 위치인식을 설명하기 위한 도면이다.1 is a view schematically showing the configuration of the position recognition device of the unmanned transport vehicle according to an embodiment of the present invention, Figure 2 is a block diagram schematically showing the configuration of the unmanned transport vehicle of Figure 1, Figure 3 4 is a view for explaining the coordinate detection of each reflector applied to an embodiment of the present invention, Figure 4 is a view for explaining the position recognition of the unmanned carrier vehicle applied to an embodiment of the present invention.

도 1에 도시된 바와 같이 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치는, 복수의 리플렉터(reflector, 레이저 반사경)(10)와, 무인반송차량(20)을 포함하여 구성한다.As shown in FIG. 1, the position recognition apparatus of the unmanned transport vehicle according to the exemplary embodiment of the present invention includes a plurality of reflectors 10 and an unmanned transport vehicle 20.

복수의 리플렉터(10)는 실내 공간의 벽면 또는 천정에 설치되어 무인반송차량(20)에서 조사된 레이저를 반사한다.The plurality of reflectors 10 are installed on the wall or ceiling of the indoor space to reflect the laser beam emitted from the unmanned vehicle 20.

무인반송차량(20)은 실내 공간에 설치되어 있는 복수의 리플렉터(10)의 좌표를 확인하기 위한 레이저를 조사하고, 각 리플렉터(10)로부터 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터(10)의 좌표를 검출하며, 검출된 복수의 리플렉터(10)의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식한다.The unmanned vehicle 20 irradiates a laser for checking the coordinates of the plurality of reflectors 10 installed in the indoor space, and globally generates the local coordinates generated based on the distance and angle information reflected from each reflector 10. The coordinates of the plurality of reflectors 10 are detected by converting the coordinates, and the position information of the current direction and angle located in the indoor space is recognized based on the detected coordinates of the reflectors 10.

이때 무인반송차량(20)은 도 3a 내지 도 3c에 도시된 바와 같이, 실내 공간상의 여러 로컬좌표( 예를 들어, 도 3a에서는 (15,15)의 로컬좌표, 도 3b에서는 (25,25)의 로컬좌표, 도 3c에서는 (60,25)의 로컬좌표 )에서 각 리플렉터(10)의 반사신호에 따라 얻어진 거리, 각도 정보를 이용하여 글로벌좌표에서의 각 리플렉터(10)의 위치를 구하고, 여러 로컬좌표에서 구해진 각 리플렉터(10)의 글로벌좌표들의 평균치를 최종 좌표로 확정한다.In this case, as shown in FIGS. 3A to 3C, the unmanned vehicle 20 may have various local coordinates (for example, local coordinates of (15,15) in FIG. 3A and (25,25) in FIG. 3B). The position of each reflector 10 in the global coordinate is obtained by using the distance and angle information obtained according to the reflection signal of each reflector 10 in the local coordinate of FIG. 3C, and the local coordinate of (60, 25) in FIG. The average value of the global coordinates of each reflector 10 obtained from the local coordinates is determined as the final coordinate.

이에 따라 무인반송차량(20)은 카메라로 촬영한 마크를 기 등록된 마크의 좌표와 비교하면서 자기 위치를 계산하는 종래의 방식과 달리 다수의 리플렉터(10)를 설정된 좌표 상에 정확하게 설치할 필요가 없게 된다.Accordingly, the unmanned vehicle 20 does not need to accurately install a plurality of reflectors 10 on the set coordinates, unlike the conventional method of calculating a magnetic position while comparing a mark photographed by a camera with the coordinates of a previously registered mark. do.

또한, 무인반송차량(20)은 도 3에서와 같은 방식에 따라 검출된 각 리플렉터(10)의 글로벌좌표를 토대로 현재의 위치정보를 인식할 때에는 도 4에 도시된 바와 같은 방식을 사용한다.In addition, the unmanned vehicle 20 uses the method as shown in FIG. 4 when recognizing the current position information based on the global coordinates of the reflectors 10 detected according to the method as shown in FIG.

즉 도 4를 참조하면, 삼각형에서 세 변의 길이 k, l, m과 세 내각 α, β, γ를 알 경우, A, B, C( 본 발명에서의 리플렉터 위치 )까지의 거리 a, b, c는 다음과 같이 구할 수 있다.That is, referring to FIG. 4, when the lengths k, l and m of the three sides in the triangle and the three cabinets α, β and γ are known, the distances a, b and c to the reflector positions in the present invention a, b and c Can be obtained as

Figure pat00001
Figure pat00001

상술한 세 개의 비선형식에 대한 해 a, b, c는 하기의 Newton Raphson 방법을 사용하여 구하면 된다.The solutions a, b, and c for the three nonlinear forms described above may be obtained using the Newton Raphson method described below.

Figure pat00002
Figure pat00002

이러한 방식을 토대로 무인반송차량(20)은 각 리플렉터(10)의 글로벌좌표를 토대로 실내 공간상의 특정 위치에서 자신의 위치정보를 인식할 수 있다.Based on this method, the unmanned vehicle 20 may recognize its location information at a specific location on the indoor space based on the global coordinates of each reflector 10.

상술한 무인반송차량(20)은 도 2에 도시된 바와 같이, 실내 공간상으로 360도 회전하면서 레이저를 조사하며, 복수의 리플렉터(10)에 의해 반사되는 신호를 수신하는 레이저 스캔부(22)와, 레이저 스캔부(22)로부터 입력되는 레이저 반사신호를 토대로 복수의 리플렉터(10)의 로컬좌표를 생성하며, 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터(10)의 좌표를 검출하되, 실내 공간상의 복수의 지점에 무인반송차량(20)을 위치시켜 검출한 복수의 리플렉터(10)의 글로벌좌표를 평균한 값을 복수의 리플렉터(10)의 최종 좌표로 검출하는 좌표 검출부(24)와, 좌표 검출부(24)로부터 입력되는 복수의 리플렉터(10)의 글로벌좌표를 토대로 무인반송차량(20)의 현재 위치를 인식하는 위치 인식부(26)를 포함한다.As shown in FIG. 2, the unmanned transport vehicle 20 irradiates a laser while rotating 360 degrees in an indoor space, and receives a signal reflected by the plurality of reflectors 10. And generate local coordinates of the plurality of reflectors 10 based on the laser reflection signal input from the laser scan unit 22, and convert the generated local coordinates into global coordinates to detect the coordinates of the plurality of reflectors 10. And a coordinate detector 24 for detecting, as final coordinates of the plurality of reflectors 10, a value obtained by averaging the global coordinates of the plurality of reflectors 10 detected by positioning the unmanned vehicle 20 at a plurality of points on the indoor space. And a position recognizing unit 26 for recognizing the current position of the unmanned vehicle 20 based on the global coordinates of the plurality of reflectors 10 input from the coordinate detecting unit 24.

이와 같이 구성된 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법을 도 5 내지 도 7을 참조하여 설명하면 다음과 같다.The position recognition method of the unmanned vehicle according to the exemplary embodiment of the present invention configured as described above will be described with reference to FIGS. 5 to 7.

도 5 내지 도 7은 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법의 동작과정을 설명하기 위한 순서도이다.5 to 7 are flowcharts for explaining an operation process of the position recognition method of the unmanned vehicle according to an embodiment of the present invention.

우선, 무인반송차량(20)에서 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터(10)의 좌표를 확인하기 위한 레이저를 조사하고, 복수의 리플렉터(10)에 의해 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 복수의 리플렉터(10)의 좌표를 검출한다(S10).First, the laser beam for checking the coordinates of the plurality of reflectors 10 installed on the wall or the ceiling of the indoor space in the unmanned transport vehicle 20 is irradiated, and based on the distance and angle information reflected by the plurality of reflectors 10. The coordinates of the plurality of reflectors 10 are detected by converting the generated local coordinates into global coordinates (S10).

이를 도 6을 참조하여 상세하게 설명하면, 특정 로컬좌표 상으로 이동된 무인반송차량(20)은 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터(10)의 좌표를 확인하기 위하여 레이저 스캔부(22)를 통해 실내 공간상으로 360도 회전하면서 레이저를 조사한다(S11).Referring to FIG. 6 in detail, the unmanned vehicle 20 moved on a specific local coordinate is the laser scanning unit 22 to check the coordinates of the plurality of reflectors 10 installed on the wall or ceiling of the indoor space. Irradiate the laser while rotating 360 degrees into the interior space through the (S11).

무인반송차량(20)의 레이저 스캔부(22)는 복수의 리플렉터(10)에 의해 반사된 신호를 좌표 검출부(24)로 출력하고, 좌표 검출부(24)에서는 반사된 거리, 각도정보를 토대로 복수의 리플렉터(10)의 로컬좌표를 생성한다(S12).The laser scanning unit 22 of the unmanned transport vehicle 20 outputs the signals reflected by the plurality of reflectors 10 to the coordinate detector 24, and the coordinate detector 24 stores a plurality of signals based on the reflected distance and angle information. Local coordinates of the reflector 10 are generated (S12).

복수의 리플렉터(10)의 로컬좌표를 생성한 이후, 좌표 검출부(24)는 생성된 복수의 리플렉터(10)의 로컬좌표를 글로벌좌표로 변환한다(S13).After generating the local coordinates of the plurality of reflectors 10, the coordinate detector 24 converts the generated local coordinates of the plurality of reflectors 10 into global coordinates (S13).

특정 위치에서 복수의 리플렉터(10)의 로컬좌표를 글로벌좌표로 변환한 이후, 무인반송차량(20)의 좌표 검출부(24)는 실내 공간상의 복수의 지점에서 S11 단계 이후를 반복, 수행하여, 각 위치에 따른 복수의 리플렉터(10)의 글로벌좌표를 확인한다(S14).After converting the local coordinates of the plurality of reflectors 10 to the global coordinates at a specific position, the coordinate detection unit 24 of the unmanned transport vehicle 20 repeats and performs step S11 after a plurality of points in the indoor space, The global coordinates of the plurality of reflectors 10 according to the position are checked (S14).

그리고 좌표 검출부(24)는 S14 단계를 통해 반복 수행하여 확인한 복수의 리플렉터(10)의 글로벌좌표를 평균하고, 평균값을 복수의 리플렉터(10)의 최종 좌표로 검출한다(S15).The coordinate detector 24 averages the global coordinates of the plurality of reflectors 10 repeatedly checked through step S14, and detects an average value as final coordinates of the plurality of reflectors 10 (S15).

이처럼 S10 단계를 통해 복수의 리플렉터(10)의 좌표를 검출한 이후, 무인반송차량(20)은 검출된 복수의 리플렉터(10)의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량(20)의 방향, 각도의 위치정보를 인식한다(S20).After detecting the coordinates of the plurality of reflectors 10 through the step S10 as described above, the unmanned vehicle 20 is based on the coordinates of the detected plurality of reflectors 10 of the current unmanned vehicle 20 located in the indoor space. Recognize the position information of the direction, the angle (S20).

이를 도 7을 참조하여 상세하게 설명하면, 무인반송차량(20)의 위치 인식부(26)는 S10 단계를 통해 좌표 검출부(24)에서 검출한 복수의 리플렉터(10)의 좌표를 토대로 각 리플렉터(10) 간의 상대적인 거리를 확인하고 저장한다(S21).Referring to FIG. 7, the position recognition unit 26 of the unmanned transport vehicle 20 is based on the coordinates of the plurality of reflectors 10 detected by the coordinate detection unit 24 in step S10 (the respective reflectors ( 10) check and store the relative distance between (S21).

S21 단계를 통해 저장되는 복수의 리플렉터(10) 간의 상대적인 거리 데이터는 다음과 같은 행렬 데이터이다.The relative distance data between the plurality of reflectors 10 stored through the step S21 is matrix data as follows.

Figure pat00003
Figure pat00003

그리고 무인반송차량(20)의 위치 인식부(26)는 S10 단계를 통해 좌표 검출부(24)에서 검출한 복수의 리플렉터(10)의 좌표를 토대로 최장 거리에 위치한 리플렉터와 나머지 리플렉터 간의 상대적인 거리를 확인하고 저장한다(S22).In addition, the position recognition unit 26 of the unmanned vehicle 20 confirms the relative distance between the reflector positioned at the longest distance and the remaining reflectors based on the coordinates of the plurality of reflectors 10 detected by the coordinate detector 24 through step S10. And store (S22).

S22 단계를 통해 저장되는 최장 거리에 위치한 리플렉터와 나머지 리플렉터와의 상대적인 거리 데이터는 다음의 행렬 데이터이다.Relative distance data between the reflector located at the longest distance stored through the step S22 and the remaining reflectors is the following matrix data.

Figure pat00004
Figure pat00004

이후 무인반송차량(20)의 위치 인식부(26)는 S21 단계에서 저장된 데이터에서 S22 단계에서 저장된 데이터와 5% 오차로 일치하는 데이터가 저장된 행의 인덱스를 확인하고, 해당 행의 인덱스로부터 무인반송차량(20)과 최장 거리에 위치한 리플렉터 A의 위치를 확인한다(S23).Then, the position recognizing unit 26 of the unmanned transport vehicle 20 checks the index of the row where the data stored in step S21 and the data matching the data stored in step S22 by 5% error are stored, and then unmanned transport from the index of the row. The position of the reflector A located at the longest distance from the vehicle 20 is checked (S23).

그리고 무인반송차량(20)의 위치 인식부(26)는 S23 단계를 통해 확인된 최장 거리에 위치한 리플렉터 A를 기준으로 2π/3<리플렉터 B≤π, π<리플렉터 C≤2π/3에 존재하는 리플렉터 B, C가 복수 개 존재하는지를 확인하고, 복수 개 존재하면 각도가 가장 큰 것을 리플렉터 B, C로 결정한다(S24).In addition, the position recognition unit 26 of the unmanned vehicle 20 is present at 2π / 3 <reflector B≤π, π <reflector C≤2π / 3 based on the reflector A located at the longest distance identified through step S23. It is checked whether there are a plurality of reflectors B and C, and if there are a plurality of reflectors, the ones having the largest angle are determined as the reflectors B and C (S24).

S23 단계와 S24 단계를 통해 무인반송차량(20)의 위치인식을 위한 리플렉터 A, B, C가 결정된 이후, 무인반송차량(20)의 위치 인식부(26)는 S23 단계에서 확인된 리플렉터 A의 위치와 S24 단계에서 결정된 리플렉터 B, C의 위치를 이용하여 무인반송차량(20)의 현재 위치를 계산한다(S25).After the reflectors A, B, and C for the position recognition of the unmanned vehicle 20 are determined through steps S23 and S24, the position recognition unit 26 of the unmanned vehicle 20 is determined by the reflector A of step S23. The current position of the unmanned vehicle 20 is calculated using the position and the positions of the reflectors B and C determined in step S24 (S25).

즉 리플렉터 A=(x1,y1), 리플렉터 B=(x2,y2), 리플렉터 C=(x3,y3)일 때, 하기의 비선형 방정식을 도 4에서 설명한 Newton Raphson 방식을 사용하여 풀면, 무인반송차량(20)의 현재 위치(x,y,θ)를 계산할 수 있다.That is, when reflector A = (x1, y1), reflector B = (x2, y2), reflector C = (x3, y3), the following nonlinear equations are solved using the Newton Raphson method described in FIG. The current position (x, y, θ) of (20) can be calculated.

Figure pat00005
Figure pat00005

상술한 비선형 방정식을 풀 때, 초기값에 따라 두 개의 해가 존재할 수 있으므로 적합한 해를 찾기 위해서 삼각형 내부에 존재하는 무게중심의 초기값(x,y)으로

Figure pat00006
을 주어 원하는 해를 찾는다.
When solving the above-described nonlinear equations, two solutions may exist depending on the initial values. Therefore, to find a suitable solution, the initial value (x, y) of the center of gravity existing inside the triangle is found.
Figure pat00006
To find the solution you want.

한편, 상술한 바와 같이 레이저 스캔을 이용하여 각 리플렉터(10)의 좌표를 검출하고, 이를 토대로 무인반송차량(20)의 위치를 인식하는 실시예와는 달리, 카메라를 이용하여 각 마크(100)의 좌표를 검출하고, 이를 토대로 무인반송차량(20)의 위치를 인식할 수 있는데, 이에 대한 실시예를 설명하면 다음과 같다.On the other hand, unlike the embodiment that detects the coordinates of each reflector 10 by using a laser scan as described above, and based on this to recognize the position of the unmanned vehicle 20, each mark 100 using a camera By detecting the coordinates of the, and based on this can recognize the position of the unmanned vehicle 20, an embodiment thereof will be described as follows.

도 8은 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식장치의 구성을 개략적으로 나타낸 도면이고, 도 9는 도 8의 무인반송차량의 구성을 개략적으로 나타낸 블록도이다.8 is a view schematically showing the configuration of the position recognition device of the unmanned carrier vehicle according to another embodiment of the present invention, Figure 9 is a block diagram schematically showing the configuration of the unmanned carrier vehicle of FIG.

도 8에 도시된 바와 같이 본 발명의 일 실시예에 따른 무인반송차량의 위치인식장치는, 복수의 마크(100)와, 무인반송차량(200)을 포함하여 구성한다.As shown in FIG. 8, the position recognition device of the unmanned transport vehicle according to the exemplary embodiment of the present invention includes a plurality of marks 100 and an unmanned transport vehicle 200.

복수의 마크(100)는 실내 공간의 벽면 또는 천정에 설치된다.The plurality of marks 100 are installed on the wall surface or the ceiling of the indoor space.

무인반송차량(20)은 실내 공간상에 설치되어 있는 복수의 마크(100)의 좌표를 확인하기 위한 카메라 촬영을 수행하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 글로벌좌표를 결정하고, 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 복수의 마크(100)의 좌표를 검출하며, 검출된 복수의 마크(100)의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식한다.The unmanned vehicle 20 performs camera shooting to check the coordinates of the plurality of marks 100 installed in the indoor space, and local coordinates of the shortest distance mark are based on the information captured by the camera. After setting to, the global coordinates of the camera are determined based on the origin, the coordinates of the plurality of marks 100 are detected using the global coordinates of the camera and the local coordinates of other marks photographed by the camera, and the detected plurality of marks Based on the coordinates of (100), it recognizes the location information of the current direction, angle located on the indoor space.

이때 무인반송차량(200)은 전술한 실시예에서의 설명과 마찬가지로 검출된 각 마크(100)의 글로벌좌표를 토대로 도 4에서와 같은 방식에 따라 현재의 위치정보를 인식한다.At this time, the unmanned vehicle 200 recognizes the current position information in the same manner as in FIG. 4 based on the detected global coordinates of the mark 100 as in the above-described embodiment.

상술한 무인반송차량(200)은 도 9에 도시된 바와 같이, 실내 공간에 설치된 복수의 마크(100)를 촬영하는 카메라부(210)와, 카메라부(210)로부터 입력되는 촬영신호를 토대로 복수의 마크(100) 중 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하고, 설정된 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인하며, 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 복수의 마크(100)의 글로벌좌표를 검출하는 좌표 검출부(220)와, 좌표 검출부(220)로부터 입력되는 복수의 마크(100)의 글로벌좌표를 토대로 무인반송차량(200)의 현재 위치를 인식하는 위치 인식부(230)를 포함한다.As illustrated in FIG. 9, the unmanned transport vehicle 200 includes a plurality of camera units 210 photographing a plurality of marks 100 installed in an indoor space and a plurality of marks based on a photographing signal input from the camera unit 210. Set the local coordinate of the mark located at the shortest distance among the marks 100 of the as the origin of the global coordinate, convert the camera's local coordinate to the global coordinate based on the set origin of the global coordinate, and check the camera's global coordinate. A coordinate detector 220 that detects global coordinates of the plurality of marks 100 using the global coordinates of the camera and the local coordinates of other marks photographed by the camera, and a plurality of marks 100 input from the coordinate detector 220. It includes a position recognition unit 230 for recognizing the current position of the unmanned transport vehicle 200 based on the global coordinates.

이때 좌표 검출부(220)는 카메라의 글로벌좌표를 이용하여 각 마크(100)의 글로벌좌표를 구하기 때문에 카메라부(210)로부터 입력되는 촬영신호를 토대로 복수의 마크(100)의 글로벌좌표가 추가될 때마다 오차의 발생을 줄이기 위하여, 해당 마크의 로컬좌표를 글로벌좌표로 변환하기 이전에 해당 로컬좌표의 검증을 수행하거나 또는 해당 마크의 로컬좌표를 글로벌좌표로 변환한 이후 복수의 마크 전체의 글로벌좌표를 재 스캔하여 좌표를 수정하는 검증을 수행한다.At this time, since the coordinate detector 220 obtains the global coordinate of each mark 100 using the global coordinates of the camera, when the global coordinates of the plurality of marks 100 are added based on the photographing signal input from the camera unit 210. In order to reduce the occurrence of an error every time, before the local coordinate of the mark is converted to the global coordinate, the verification of the local coordinate is performed or after converting the local coordinate of the mark to the global coordinate, Rescan to verify the coordinates.

이와 같이 구성된 본 발명의 일 실시예에 따른 무인반송차량의 위치인식방법을 도 10 내지 도 12를 참조하여 설명하면 다음과 같다.The position recognition method of the unmanned vehicle according to the embodiment of the present invention configured as described above will be described with reference to FIGS. 10 to 12.

도 10 내지 도 12는 본 발명의 다른 실시예에 따른 무인반송차량의 위치인식방법의 동작과정을 상세하게 나타낸 순서도이다.10 to 12 are flowcharts showing in detail the operation of the position recognition method of the unmanned vehicle according to another embodiment of the present invention.

우선, 무인반송차량(200)에서 카메라부(210)를 통해 실내 공간의 벽면 또는 천정에 설치된 복수의 마크(200)를 촬영하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 변환된 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 복수의 마크(100)의 좌표를 검출한다(S100).First, the unmanned vehicle 200 photographs a plurality of marks 200 installed on the wall or ceiling of an indoor space through the camera unit 210, and local coordinates of the shortest distance mark are based on the information captured by the camera. After setting to the origin of the camera, the local coordinates of the camera are converted into global coordinates based on the origin, and the coordinates of the plurality of marks 100 are detected by using the converted coordinates of the camera and the local coordinates of other marks photographed by the camera. (S100).

이를 도 11을 참조하여 상세하게 설명하면, 특정 로컬좌표 상으로 이동된 무인반송차량(200)은 실내 공간의 벽면 또는 천정에 설치된 복수의 마크(100)의 좌표를 확인하기 위한 카메라 촬영을 수행한다(S110).This will be described in detail with reference to FIG. 11. The unmanned vehicle 200 moved on a specific local coordinate performs camera photography to check the coordinates of a plurality of marks 100 installed on a wall or a ceiling of an indoor space. (S110).

무인반송차량(200)의 카메라부(210)는 촬영신호를 좌표 검출부(220)로 출력하고, 좌표 검출부(220)에서는 카메라부(210)에서 촬영한 정보를 토대로 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한다(S120).The camera unit 210 of the unmanned vehicle 200 outputs a photographing signal to the coordinate detector 220, and the coordinate detector 220 local coordinates of the mark located at the shortest distance based on the information photographed by the camera unit 210. Set to the origin of the global coordinate (S120).

최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 이후, 무인반송차량(200)의 좌표 검출부(220)는 S120 단계에서 설정한 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인한다(S130).After setting the local coordinate of the mark located at the shortest distance as the origin of the global coordinate, the coordinate detection unit 220 of the unmanned transport vehicle 200 sets the global coordinate of the camera based on the origin of the global coordinate set in step S120. Verify the global coordinates of the camera by converting to (S130).

무인반송차량(200)의 좌표 검출부(220)는 S130 단계에서 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 복수의 마크(100)의 글로벌좌표를 검출한다(S140).The coordinate detecting unit 220 of the unmanned vehicle 200 detects the global coordinates of the plurality of marks 100 using the global coordinates of the camera identified in step S130 and the local coordinates of other marks photographed by the camera (S140). .

그리고 복수의 마크(100)의 글로벌좌표를 검출한 무인반송차량(200)의 좌표 검출부(220)는 S140 단계를 통해 복수의 마크(100)의 글로벌좌표가 검출될 때마다 오차 발생 방지를 위한 검증을 수행한다(S150). S150 단계의 검증은, 해당 마크의 로컬좌표를 글로벌좌표로 변환하기 이전에 해당 로컬좌표를 확인하는 검증, 또는 해당 마크의 로컬좌표를 글로벌좌표로 변환한 이후 복수의 마크 전체의 글로벌좌표를 재 스캔하고, 이를 토대로 좌표를 수정하는 검증이다.In addition, the coordinate detecting unit 220 of the unmanned vehicle 200 that detects the global coordinates of the plurality of marks 100 is verified to prevent an error occurrence whenever the global coordinates of the plurality of marks 100 are detected through step S140. Perform (S150). The verification of step S150 is to verify the local coordinates before converting the local coordinates of the mark into global coordinates, or rescan the entire global coordinates of the plurality of marks after converting the local coordinates of the mark into global coordinates. Based on this, the coordinate correction is verified.

이처럼 S100 단계를 통해 복수의 마크(100)의 글로벌좌표를 검출한 이후, 무인반송차량(200)은 검출된 복수의 마크(100)의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량(200)의 방향, 각도의 위치정보를 인식한다(S200).After detecting the global coordinates of the plurality of marks 100 through the step S100 as described above, the unmanned vehicle 200 is based on the coordinates of the detected plurality of marks 100 and the current unmanned vehicle 200 located in the indoor space. Recognizes the position information of the direction, the angle of (S200).

이를 도 12를 참조하여 상세하게 설명하면, 무인반송차량(200)의 위치 인식부(230)는 S100 단계를 통해 좌표 검출부(220)에서 검출한 복수의 마크(100)의 글로벌좌표를 고유의 ID별로 저장한다(S210).Referring to FIG. 12 in detail, the position recognition unit 230 of the unmanned vehicle 200 sets unique IDs of the global coordinates of the plurality of marks 100 detected by the coordinate detection unit 220 through step S100. Stored separately (S210).

그리고 무인반송차량(200)의 위치 인식부(230)에서 검출한 복수의 마크(100)의 좌표 중 현 위치에서 최단 거리에 위치한 마크를 선택한다(S220).The mark located at the shortest distance from the current position is selected from the coordinates of the plurality of marks 100 detected by the position recognition unit 230 of the unmanned vehicle 200 (S220).

이후 무인반송차량(200)의 위치 인식부(230)는 S210 단계에서 저장된 데이터 중에서 S220 단계에서 선택된 마크를 포함하고 있는지 고유의 마크 ID를 통해 확인한다(S230).Thereafter, the position recognition unit 230 of the unmanned vehicle 200 checks whether the mark selected in step S220 is included in the data stored in step S210 through a unique mark ID (S230).

그리고 무인반송차량(200)의 위치 인식부(230)는 S230 단계를 통해 확인된 마크의 좌표를 S210 단계에서 저장된 데이터를 이용하여 글로벌좌표로 변환한다(S240). 즉 S210 단계에서 저장된 데이터 중에서 S230 단계를 통해 확인된 마크의 글로벌좌표 - S230 단계를 통해 확인된 마크의 로컬좌표로 S230 단계를 통해 확인된 마크의 좌표를 글로벌좌표로 변환할 수 있다.In addition, the position recognition unit 230 of the unmanned vehicle 200 converts the coordinates of the mark confirmed through the step S230 into global coordinates using the data stored in the step S210 (S240). That is, the global coordinates of the mark identified through the step S230 among the data stored in the step S210-the local coordinates of the mark confirmed through the step S230 may be converted into the global coordinates.

S230 단계와 S240 단계를 통해 무인반송차량(200)의 위치인식을 위한 마크 가 결정된 이후, 무인반송차량(200)의 위치 인식부(230)는 S230 단계에서 확인된 마크의 위치와 S240 단계에서 글로벌좌표로 변환된 마크의 위치를 이용하여 무인반송차량(200)의 현재 위치를 계산한다(S250).After the mark for the position recognition of the unmanned vehicle 200 is determined through the steps S230 and S240, the position recognition unit 230 of the unmanned vehicle 200 is global in the step S230 and the step S240 The current position of the unmanned vehicle 200 is calculated using the position of the mark converted into coordinates (S250).

여기에서, 상술한 본 발명에서는 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경할 수 있음을 이해할 수 있을 것이다.Herein, while the present invention has been described with reference to the preferred embodiments, those skilled in the art will variously modify the present invention without departing from the spirit and scope of the invention as set forth in the claims below. And can be changed.

10 : 리플렉터(reflector)
20, 200 : 무인반송차량
22 : 레이저 스캔부
24, 220 : 좌표 검출부
26, 230 : 위치 인식부
100 : 마크
210 : 카메라부
10: reflector
20, 200: unmanned transport vehicle
22: laser scanning unit
24, 220: coordinate detection unit
26, 230: location recognition unit
100: mark
210: camera unit

Claims (15)

(1) 무인반송차량에서 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하고, 상기 복수의 리플렉터에 의해 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 상기 복수의 리플렉터의 좌표를 검출하는 단계, 그리고
(2) 상기 무인반송차량은, 상기 (1) 단계를 통해 검출된 상기 복수의 리플렉터의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량의 방향, 각도의 위치정보를 인식하는 단계를
포함하는 무인반송차량의 위치인식방법.
(1) Irradiate a laser to check the coordinates of a plurality of reflectors installed on the wall or ceiling of an indoor space in an unmanned transport vehicle, and use the global coordinates generated based on the distance and angle information reflected by the plurality of reflectors. Detecting the coordinates of the plurality of reflectors by converting to.
(2) The unmanned vehicle may include the step of recognizing the position information of the direction and angle of the current unmanned vehicle on the indoor space based on the coordinates of the plurality of reflectors detected through the step (1).
Position recognition method of an unmanned transport vehicle including.
제 1 항에 있어서,
상기 (1) 단계는,
(1-1) 상기 무인반송차량은, 실내 공간의 벽면 또는 천정에 설치된 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하는 단계,
(1-2) 상기 무인반송차량은, 상기 복수의 리플렉터에 의해 반사된 거리, 각도정보를 토대로 상기 복수의 리플렉터의 로컬좌표를 생성하는 단계,
(1-3) 상기 무인반송차량은, 상기 (1-2) 단계에서 생성된 상기 복수의 리플렉터의 로컬좌표를 글로벌좌표로 변환하는 단계,
(1-4) 상기 무인반송차량은, 실내 공간상의 복수의 지점에서 상기 (1-1) 단계 이후를 반복, 수행하여, 각 위치에 따른 상기 복수의 리플렉터의 글로벌좌표를 확인하는 단계, 그리고
(1-5) 상기 무인반송차량은, 상기 (1-4) 단계를 통해 반복 수행하여 확인한 상기 복수의 리플렉터의 글로벌좌표를 평균하고, 평균값을 상기 복수의 리플렉터의 최종 좌표로 검출하는 단계를
포함하는 무인반송차량의 위치인식방법.
The method of claim 1,
Step (1),
(1-1) the unmanned vehicle is irradiated with a laser for checking the coordinates of the plurality of reflectors installed on the wall or ceiling of the indoor space,
(1-2) generating the local coordinates of the plurality of reflectors based on the distance and angle information reflected by the plurality of reflectors;
(1-3) converting the local coordinates of the plurality of reflectors generated in the step (1-2) into global coordinates,
(1-4) the step of checking the global coordinates of the plurality of reflectors according to each position by repeating and performing step (1-1) after the step (1-1) at a plurality of points on the indoor space, and
(1-5) The unmanned transport vehicle, averaging the global coordinates of the plurality of reflectors confirmed by repeating through the step (1-4), and detecting the average value as the final coordinates of the plurality of reflectors
Position recognition method of an unmanned transport vehicle including.
제 1 항에 있어서,
상기 (2) 단계는,
(2-1) 상기 무인반송차량은, 상기 (1) 단계를 통해 검출된 상기 복수의 리플렉터의 좌표를 토대로 각 리플렉터 간의 상대적인 거리를 확인하고 저장하는 단계,
(2-2) 상기 무인반송차량은, 상기 (1) 단계를 통해 검출된 상기 복수의 리플렉터의 좌표를 토대로 최장 거리에 위치한 리플렉터와 나머지 리플렉터 간의 상대적인 거리를 확인하고 저장하는 단계,
(2-3) 상기 무인반송차량은, 상기 (2-1) 단계에서 저장된 데이터에서 상기 (2-2) 단계에서 저장된 데이터와 5% 오차로 일치하는 데이터가 저장된 행의 인덱스를 확인하고, 해당 행의 인덱스로부터 상기 무인반송차량과 최장 거리에 위치한 리플렉터 A의 위치를 확인하는 단계,
(2-4) 상기 무인반송차량은, 상기 (2-3) 단계를 통해 확인된 최장 거리에 위치한 리플렉터 A를 기준으로 2π/3<리플렉터 B≤π, π<리플렉터 C≤2π/3에 존재하는 리플렉터 B, C가 복수 개 존재하는지를 확인하고, 복수 개 존재하면 각도가 가장 큰 것을 리플렉터 B, C로 결정하는 단계, 그리고
(2-5) 상기 무인반송차량은, 상기 (2-3) 단계에서 확인된 리플렉터 A의 위치와 상기 (2-4) 단계에서 결정된 리플렉터 B, C의 위치를 이용하여 상기 무인반송차량의 현재 위치를 계산하는 단계를
포함하는 무인반송차량의 위치인식방법.
The method of claim 1,
Step (2),
(2-1) confirming and storing the relative distance between each reflector based on the coordinates of the plurality of reflectors detected through the step (1),
(2-2) checking and storing the relative distance between the reflector located at the longest distance and the remaining reflectors based on the coordinates of the plurality of reflectors detected through the step (1);
(2-3) The unmanned transport vehicle checks the index of the row where the data stored in the step (2-1) matches the data stored in the step (2-2) with a 5% error, and the corresponding Identifying the position of the reflector A located at the longest distance from the unmanned vehicle according to the index of the row;
(2-4) The unmanned vehicle is present at 2π / 3 <reflector B ≤ π, π <reflector C ≤ 2π / 3 with respect to reflector A located at the longest distance identified through step (2-3) Checking whether there are a plurality of reflectors B and C, and if there are a plurality of reflectors, determining the reflectors B and C having the largest angle, and
(2-5) The unmanned vehicle is presently present in the unmanned vehicle using the position of the reflector A identified in the step (2-3) and the positions of the reflectors B and C determined in the step (2-4). To calculate the position
Position recognition method of an unmanned transport vehicle including.
제 3 항에 있어서,
상기 (2-1) 단계를 통해 저장되는 상기 복수의 리플렉터 간의 상대적인 거리 데이터는,
Figure pat00007

의 행렬인 무인반송차량의 위치인식방법.
The method of claim 3, wherein
Relative distance data between the plurality of reflectors stored through the step (2-1),
Figure pat00007

Position Recognition Method of Unmanned Carrier Vehicle which is a Matrix of.
제 3 항에 있어서,
상기 (2-2) 단계를 통해 저장되는 최장 거리에 위치한 리플렉터와 나머지 리플렉터와의 상대적인 거리 데이터는,
Figure pat00008

의 행렬인 무인반송차량의 위치인식방법.
The method of claim 3, wherein
Relative distance data between the reflector located at the longest distance stored through the step (2-2) and the remaining reflectors,
Figure pat00008

Position Recognition Method of Unmanned Carrier Vehicle which is a Matrix of.
제 3 항에 있어서,
상기 (2-5) 단계는,
리플렉터 A=(x1,y1), 리플렉터 B=(x2,y2), 리플렉터 C=(x3,y3)일 때,
Figure pat00009

의 비선형 방정식을 풀어 상기 무인 반송차량의 현재 위치(x,y,θ)를 계산하며, 초기값에 따라 두 개의 해가 존재하므로
Figure pat00010
를 초기값으로 주어 원하는 해를 찾도록 하는 무인반송차량의 위치인식방법.
The method of claim 3, wherein
Step (2-5) is,
When reflector A = (x1, y1), reflector B = (x2, y2), reflector C = (x3, y3),
Figure pat00009

Calculate the current position (x, y, θ) of the unmanned carrier vehicle by solving the nonlinear equation of, and since there are two solutions depending on the initial value
Figure pat00010
The location recognition method of the unmanned carrier vehicle to give the initial value to find the desired solution.
(A) 무인반송차량에서 실내 공간의 벽면 또는 천정에 설치된 복수의 마크를 촬영하고, 상기 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하고, 변환된 상기 카메라의 글로벌좌표와 상기 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 상기 복수의 마크의 좌표를 검출하는 단계, 그리고
(B) 상기 무인반송차량은, 상기 (A) 단계를 통해 검출된 상기 복수의 마크의 좌표를 토대로 실내 공간상에 위치한 현재 무인반송차량의 방향, 각도의 위치정보를 인식하는 단계를
포함하는 무인반송차량의 위치인식방법.
(A) Taking a plurality of marks installed on the wall or ceiling of an indoor space in an unmanned vehicle, and setting the local coordinate of the shortest distance mark as the origin of the global coordinate based on the information captured by the camera, and then the camera based on the origin. Converting local coordinates into global coordinates, and detecting coordinates of the plurality of marks using the converted global coordinates of the camera and local coordinates of other marks photographed by the camera, and
(B) The unmanned vehicle may include the step of recognizing the position information of the direction and angle of the current unmanned vehicle on the indoor space based on the coordinates of the plurality of marks detected through the step (A).
Position recognition method of an unmanned transport vehicle including.
제 7 항에 있어서,
상기 (A) 단계는,
(A-1) 상기 무인반송차량은, 실내 공간의 벽면 또는 천정에 설치된 복수의 마크의 좌표를 확인하기 위한 카메라 촬영을 수행하는 단계,
(A-2) 상기 무인반송차량은, 상기 카메라로 촬영한 정보를 토대로 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하는 단계,
(A-3) 상기 무인반송차량은, 상기 (A-2) 단계에서 설정한 글로벌좌표의 원점을 기준으로 상기 카메라의 로컬좌표를 글로벌좌표로 변환하여 상기 카메라의 글로벌좌표를 확인하는 단계,
(A-4) 상기 무인반송차량은, 상기 (A-3) 단계에서 확인된 상기 카메라의 글로벌좌표와 상기 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 상기 복수의 마크들의 글로벌좌표를 검출하는 단계, 그리고
(A-5) 상기 무인반송차량은, 상기 (A-4) 단계를 통해 상기 복수의 마크의 글로벌좌표가 검출될 때마다 오차 발생 방지를 위한 검증을 수행하는 단계를
포함하는 무인반송차량의 위치인식방법.
The method of claim 7, wherein
The step (A)
(A-1) the unmanned vehicle is photographed by a camera for checking coordinates of a plurality of marks installed on a wall or a ceiling of an indoor space;
(A-2) setting the unmanned vehicle to the local coordinate of the mark located at the shortest distance based on the information photographed by the camera as the origin of the global coordinate;
(A-3) checking the global coordinates of the camera by converting the local coordinates of the camera into global coordinates based on the origin of the global coordinates set in the step (A-2),
(A-4) The unmanned transport vehicle detects the global coordinates of the plurality of marks using the global coordinates of the camera identified in the step (A-3) and the local coordinates of other marks photographed by the camera. Step, and
(A-5) The unmanned transport vehicle performs the verification for preventing the occurrence of an error every time global coordinates of the plurality of marks are detected through the step (A-4).
Position recognition method of an unmanned transport vehicle including.
제 8 항에 있어서,
상기 (A-5) 단계의 검증은,
해당 마크의 로컬좌표를 글로벌좌표로 변환하기 이전에 해당 로컬좌표를 확인하는 검증인 무인반송차량의 위치인식방법.
The method of claim 8,
Verification of the step (A-5),
A method for recognizing the position of a unmanned carrier vehicle that verifies the local coordinate before converting the local coordinate of the mark into the global coordinate.
제 8 항에 있어서,
상기 (A-5) 단계의 검증은,
해당 마크의 로컬좌표를 글로벌좌표로 변환한 이후 상기 복수의 마크 전체의 글로벌좌표를 재 스캔하고, 이를 토대로 좌표를 수정하는 검증인 무인반송차량의 위치인식방법.
The method of claim 8,
Verification of the step (A-5),
And rescanning the global coordinates of the entire plurality of marks after converting the local coordinates of the mark into global coordinates, and modifying the coordinates based on the marks.
제 7 항에 있어서,
상기 (B) 단계는,
(B-1) 상기 무인반송차량은, 상기 (A) 단계를 통해 검출된 상기 복수의 마크의 글로벌좌표를 고유의 ID별로 저장하는 단계,
(B-2) 상기 무인반송차량은, 상기 (A) 단계를 통해 검출된 상기 복수의 마크의 좌표 중 현 위치에서 최단 거리에 위치한 마크를 선택하는 단계,
(B-3) 상기 무인반송차량은, 상기 (B-1) 단계에서 저장된 데이터 중에서 상기 (B-2) 단계에서 선택된 마크를 포함하고 있는지 고유의 마크 ID를 통해 확인하는 단계,
(B-4) 상기 무인반송차량은, 상기 (B-3) 단계를 통해 확인된 마크의 좌표를 상기 (B-1) 단계에서 저장된 데이터를 이용하여 글로벌좌표로 변환하는 단계, 그리고
(B-5) 상기 무인반송차량은, 상기 (B-3) 단계에서 확인된 마크의 위치와 상기 (B-4) 단계에서 글로벌좌표로 변환된 마크의 위치를 이용하여 상기 무인반송차량의 현재 위치를 계산하는 단계를
포함하는 무인반송차량의 위치인식방법.
The method of claim 7, wherein
Step (B) is,
(B-1) the unmanned transport vehicle, storing global coordinates of the plurality of marks detected through step (A) for each unique ID;
(B-2) selecting the mark located at the shortest distance from the current position among the coordinates of the plurality of marks detected through the step (A),
(B-3) checking, via the unique mark ID, whether the unmanned transport vehicle includes the mark selected in the step (B-2) among the data stored in the step (B-1),
(B-4) converting the coordinates of the mark confirmed through the step (B-3) into global coordinates using the data stored in the step (B-1), and
(B-5) The unmanned vehicle is presently present in the unmanned vehicle by using the position of the mark identified in the step (B-3) and the position of the mark converted into global coordinates in the step (B-4). To calculate the position
Position recognition method of an unmanned transport vehicle including.
실내 공간의 벽면 또는 천정에 설치되어 레이저를 반사하는 복수의 리플렉터, 그리고
상기 복수의 리플렉터의 좌표를 확인하기 위한 레이저를 조사하고, 상기 리플렉터로부터 반사된 거리, 각도정보를 토대로 생성된 로컬좌표를 글로벌좌표로 변환하여 상기 복수의 리플렉터의 좌표를 검출하며, 검출된 상기 복수의 리플렉터의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식하는 무인 반송차량을 포함하며,
상기 무인 반송차량은,
실내 공간상으로 360도 회전하면서 레이저를 조사하며, 상기 복수의 리플렉터에 의해 반사되는 신호를 수신하는 레이저 스캔부,
상기 레이저 스캔부로부터 입력되는 레이저 반사신호를 토대로 상기 복수의 리플렉터의 로컬좌표를 생성하며, 생성된 로컬좌표를 글로벌좌표로 변환하여 상기 복수의 리플렉터의 좌표를 검출하는 좌표 검출부, 그리고
상기 좌표 검출부로부터 입력되는 상기 복수의 리플렉터의 글로벌좌표를 토대로 상기 무인반송차량의 현재 위치를 인식하는 위치 인식부를 포함하는 무인반송차량의 위치인식장치.
A plurality of reflectors installed on the wall or ceiling of the indoor space to reflect the laser; and
Irradiating a laser for identifying coordinates of the plurality of reflectors, converting local coordinates generated based on distance and angle information reflected from the reflectors into global coordinates to detect coordinates of the plurality of reflectors, and detecting the detected plurality of It includes an unmanned carrier vehicle that recognizes the position information of the current direction, angle located on the interior space based on the coordinates of the reflector of,
The unmanned transport vehicle,
A laser scan unit for irradiating a laser while rotating 360 degrees in an indoor space and receiving a signal reflected by the plurality of reflectors;
A coordinate detector configured to generate local coordinates of the plurality of reflectors based on a laser reflection signal input from the laser scan unit, convert the generated local coordinates into global coordinates, and detect coordinates of the plurality of reflectors;
And a position recognizing unit for recognizing a current position of the unmanned vehicle based on the global coordinates of the plurality of reflectors inputted from the coordinate detecting unit.
제 12 항에 있어서,
상기 좌표 검출부는,
실내 공간상의 복수의 지점에 상기 무인반송차량을 위치시켜 검출한 상기 복수의 리플렉터의 글로벌좌표를 평균한 값을 상기 복수의 리플렉터의 최종 좌표로 검출하는 무인반송차량의 위치인식장치.
The method of claim 12,
The coordinate detector,
A position recognition device for an unmanned vehicle, which detects, as a final coordinate of the plurality of reflectors, a value obtained by averaging the global coordinates of the plurality of reflectors which are detected by positioning the unmanned vehicle at a plurality of points on an indoor space.
실내 공간의 벽면 또는 천정에 설치되는 복수의 마크, 그리고
상기 복수의 마크의 좌표를 확인하기 위한 카메라 촬영을 수행하고, 카메라로 촬영한 정보를 토대로 최단 거리 마크의 로컬좌표를 글로벌좌표의 원점으로 설정한 후 원점을 기준으로 카메라의 글로벌좌표를 결정하고, 카메라의 글로벌좌표와 카메라로 촬영된 다른 마크들의 로컬좌표를 이용하여 상기 복수의 마크의 좌표를 검출하며, 검출된 상기 복수의 마크의 좌표를 토대로 실내 공간상에 위치한 현재의 방향, 각도의 위치정보를 인식하는 무인 반송차량을 포함하며,
상기 무인 반송차량은,
실내 공간에 설치된 상기 복수의 마크를 촬영하는 카메라부,
상기 카메라부로부터 입력되는 촬영신호를 토대로 상기 복수의 마크 중 최단 거리에 위치한 마크의 로컬좌표를 글로벌좌표의 원점으로 설정하고, 설정된 글로벌좌표의 원점을 기준으로 카메라의 로컬좌표를 글로벌좌표로 변환하여 카메라의 글로벌좌표를 확인하며, 확인된 카메라의 글로벌좌표와 카메라로 촬영한 다른 마크들의 로컬좌표를 이용하여 상기 복수의 마크들의 글로벌좌표를 검출하는 좌표 검출부, 그리고
상기 좌표 검출부로부터 입력되는 상기 복수의 마크의 글로벌좌표를 토대로 상기 무인반송차량의 현재 위치를 인식하는 위치 인식부를 포함하는 무인반송차량의 위치인식장치.
A plurality of marks installed on the wall or ceiling of the indoor space, and
Perform camera shooting to check the coordinates of the plurality of marks, set the local coordinate of the shortest distance mark as the origin of the global coordinate based on the information photographed by the camera, and determine the global coordinate of the camera based on the origin; Coordinates of the plurality of marks are detected using the global coordinates of the camera and the local coordinates of other marks photographed by the camera, and the position information of the current direction and angle located in the indoor space based on the detected coordinates of the plurality of marks. It includes an unmanned return vehicle that recognizes,
The unmanned transport vehicle,
A camera unit for photographing the plurality of marks installed in an indoor space,
The local coordinate of the mark located at the shortest distance among the plurality of marks is set as the origin of the global coordinate based on the photographing signal input from the camera unit, and the local coordinate of the camera is converted into the global coordinate based on the origin of the set global coordinate. A coordinate detector which checks the global coordinates of the camera and detects the global coordinates of the plurality of marks using the confirmed global coordinates of the camera and local coordinates of other marks taken by the camera;
And a position recognizing unit for recognizing a current position of the unmanned vehicle based on the global coordinates of the plurality of marks inputted from the coordinate detecting unit.
제 14 항에 있어서,
상기 좌표 검출부는,
상기 카메라부로부터 입력되는 촬영신호를 토대로 상기 복수의 마크의 글로벌좌표가 추가될 때마다,
해당 마크의 로컬좌표를 글로벌좌표로 변환하기 이전에 해당 로컬좌표의 검증을 수행하거나 또는 해당 마크의 로컬좌표를 글로벌좌표로 변환한 이후 상기 복수의 마크 전체의 글로벌좌표를 재 스캔하여 좌표를 수정하는 검증을 수행하는 무인반송차량의 위치인식장치.
The method of claim 14,
The coordinate detector,
Whenever the global coordinates of the plurality of marks are added based on the photographing signal input from the camera unit,
Correcting the coordinates by performing verification of the local coordinates before converting the local coordinates of the mark to global coordinates or by re-scanning the global coordinates of the entire plurality of marks after converting the local coordinates of the mark into global coordinates. Location recognition device of unmanned vehicle for verification.
KR1020100000162A 2010-01-04 2010-01-04 Coordinates recognition method of automatic guided vehicle and apparatus thereof KR101140839B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100000162A KR101140839B1 (en) 2010-01-04 2010-01-04 Coordinates recognition method of automatic guided vehicle and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100000162A KR101140839B1 (en) 2010-01-04 2010-01-04 Coordinates recognition method of automatic guided vehicle and apparatus thereof

Publications (2)

Publication Number Publication Date
KR20110080025A true KR20110080025A (en) 2011-07-12
KR101140839B1 KR101140839B1 (en) 2012-05-03

Family

ID=44919045

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100000162A KR101140839B1 (en) 2010-01-04 2010-01-04 Coordinates recognition method of automatic guided vehicle and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101140839B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101445739B1 (en) * 2012-11-13 2014-10-06 한국건설기술연구원 Position Detecting Method of Road Traffic Sign
KR101461482B1 (en) * 2012-04-25 2014-11-18 한국항공우주산업 주식회사 Method for tracking location of uninhabited aerial vehicle
KR101519266B1 (en) * 2013-12-18 2015-05-11 현대자동차주식회사 Method for estimating indoor position of vehicle
CN104648403A (en) * 2013-11-22 2015-05-27 现代自动车株式会社 Method, apparatus and system for detecting narrow road
CN111337877A (en) * 2020-03-19 2020-06-26 北京北特圣迪科技发展有限公司 Reflector matching positioning method
CN113075686A (en) * 2021-03-19 2021-07-06 长沙理工大学 Cable trench intelligent inspection robot mapping method based on multi-sensor fusion
WO2023102467A1 (en) * 2021-12-02 2023-06-08 Argo AI, LLC Automated vehicle pose validation

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101316524B1 (en) 2013-01-03 2013-10-08 충남대학교산학협력단 Method and apparatus for estimating location in the object using omnidirectional vision sensor
KR20220147863A (en) 2021-04-28 2022-11-04 주식회사 한화 Automated guided vehicle and cargo management system including the same
KR102507973B1 (en) 2021-04-28 2023-03-08 주식회사 한화 Automated guided vehicle and operation method of the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248822A (en) * 1994-03-10 1995-09-26 Fujitsu Ltd Automated guided vehicle and its running control method
JPH11282529A (en) * 1998-03-31 1999-10-15 Murata Mach Ltd Automatically guided vehicle
JP4051883B2 (en) 2000-12-20 2008-02-27 株式会社明電舎 Unmanned vehicle position measurement system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101461482B1 (en) * 2012-04-25 2014-11-18 한국항공우주산업 주식회사 Method for tracking location of uninhabited aerial vehicle
KR101445739B1 (en) * 2012-11-13 2014-10-06 한국건설기술연구원 Position Detecting Method of Road Traffic Sign
CN104648403A (en) * 2013-11-22 2015-05-27 现代自动车株式会社 Method, apparatus and system for detecting narrow road
US9278695B2 (en) 2013-11-22 2016-03-08 Hyundai Motor Company Method, apparatus and system for detecting narrow road
CN104648403B (en) * 2013-11-22 2019-12-31 现代自动车株式会社 Method, device and system for detecting narrow road
USRE47834E1 (en) 2013-11-22 2020-02-04 Hyundai Motor Company Method, apparatus and system for detecting narrow road
KR101519266B1 (en) * 2013-12-18 2015-05-11 현대자동차주식회사 Method for estimating indoor position of vehicle
CN111337877A (en) * 2020-03-19 2020-06-26 北京北特圣迪科技发展有限公司 Reflector matching positioning method
CN113075686A (en) * 2021-03-19 2021-07-06 长沙理工大学 Cable trench intelligent inspection robot mapping method based on multi-sensor fusion
CN113075686B (en) * 2021-03-19 2024-01-12 长沙理工大学 Cable trench intelligent inspection robot graph building method based on multi-sensor fusion
WO2023102467A1 (en) * 2021-12-02 2023-06-08 Argo AI, LLC Automated vehicle pose validation
US11861865B2 (en) 2021-12-02 2024-01-02 Argo AI, LLC Automated vehicle pose validation

Also Published As

Publication number Publication date
KR101140839B1 (en) 2012-05-03

Similar Documents

Publication Publication Date Title
KR101140839B1 (en) Coordinates recognition method of automatic guided vehicle and apparatus thereof
US20240028045A1 (en) Systems and methods for optical target based indoor vehicle navigation
US20100001991A1 (en) Apparatus and method of building map for mobile robot
US8121400B2 (en) Method of comparing similarity of 3D visual objects
JP6548422B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
US8761440B2 (en) Range image generation apparatus, position and orientation measurement apparatus, range image processing apparatus, method of controlling range image generation apparatus, and storage medium
KR101105737B1 (en) Apparatus and method for recognizing position of mobile robot
US10165246B2 (en) Method and device for processing stereoscopic data
CN101751560A (en) Method, control program and system for identifying a container in a container crane assembly
EP3619682B1 (en) A lighting plan generator
JP2015197780A (en) vehicle detection and vehicle number recognition device
JP2010101807A (en) Movable body position detection system
US10762467B2 (en) Placement information registration device, placement information registration method, and placement information registration program
JP2013106238A (en) Marker detection and tracking device
JP5989443B2 (en) Semiconductor integrated circuit and object distance measuring device
KR101305405B1 (en) Method for Localizing Intelligent Mobile Robot by using a lateral landmark
US11348273B2 (en) Data capture system
KR101617540B1 (en) Method and system for recognition of moving object in the area for creation of content based on current context information
CN112346041A (en) Method and device for determining parallax problem in sensor data of two sensors
JP6067462B2 (en) Vehicle detection device and vehicle detection system
KR101433583B1 (en) Image recognition based free parking lot recognition apparatus and method
WO2022163224A1 (en) Distance measuring device
KR100697636B1 (en) Method for detecting error situation of calculating location based on artificial landmark
KR20210087766A (en) A method for checking moving path of transfer robot indoor space
JP2014173922A (en) Imaging apparatus, rotation angle estimation method, and rotation angle estimation program

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150416

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180222

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190321

Year of fee payment: 8