KR20240028311A - Automated guided vehicle and method for controlling movement of automated guided vehicle - Google Patents
Automated guided vehicle and method for controlling movement of automated guided vehicle Download PDFInfo
- Publication number
- KR20240028311A KR20240028311A KR1020230109607A KR20230109607A KR20240028311A KR 20240028311 A KR20240028311 A KR 20240028311A KR 1020230109607 A KR1020230109607 A KR 1020230109607A KR 20230109607 A KR20230109607 A KR 20230109607A KR 20240028311 A KR20240028311 A KR 20240028311A
- Authority
- KR
- South Korea
- Prior art keywords
- guided vehicle
- moving
- unmanned guided
- sensing information
- target object
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000003287 optical effect Effects 0.000 claims abstract description 53
- 238000005259 measurement Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 239000000463 material Substances 0.000 description 12
- 239000003550 marker Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Abstract
본 개시는 무인 반송차 및 무인 반송차의 이동을 제어하기 위한 방법에 관한 것이다. 본 개시의 일 실시예에 따른 무인 반송차는 본체의 일측에서 연장 형성되며, 이동 대상 객체에 형성되는 적어도 하나의 홀에 삽입되도록 구성되는 적어도 하나의 플레이트를 구비한 적재부, 이동 대상 객체의 광 송신부으로부터 광 신호를 감지하여 제1 센싱 정보를 출력하도록 구성되는 제1 센서부, 무인 반송차를 기준으로 상기 이동 대상 객체의 거리를 측정하여 제2 센싱 정보를 출력하도록 구성되는 제2 센서부, 이동 방향 및 이동 속도의 조정이 가능하도록 구성되는 이동부 및 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체의 위치 및 자세를 판단하고, 이동 대상 객체의 위치 및 자세에 따라 이동부를 제어하도록 구성되는 제어부를 포함한다. The present disclosure relates to an unmanned guided vehicle and a method for controlling the movement of the unmanned guided vehicle. An unmanned guided vehicle according to an embodiment of the present disclosure includes a loading unit extending from one side of the main body and having at least one plate configured to be inserted into at least one hole formed in the moving target object, and a light transmitting unit of the moving target object. A first sensor unit configured to detect an optical signal from and output first sensing information, a second sensor unit configured to measure the distance of the moving target object with respect to the unmanned guided vehicle and output second sensing information, moving A moving unit configured to adjust direction and movement speed, determine the position and posture of the moving object based on first sensing information and second sensing information, and control the moving portion according to the position and posture of the moving target object. Includes a configured control unit.
Description
본 개시는 무인 반송차 및 무인 반송차의 이동을 제어하기 위한 방법에 관한 것이다.The present disclosure relates to an unmanned guided vehicle and a method for controlling the movement of the unmanned guided vehicle.
최근, 무인 반송차(Automated Guided Vehicle; AGV)가 공장, 물류창고 등의 작업 공간에서 자재, 화물 등을 적재하고 자동 주행하여 목적 지점까지 운반하는데 널리 사용되고 있다.Recently, Automated Guided Vehicles (AGVs) have been widely used to load materials and cargo in work spaces such as factories and warehouses and transport them to destinations by automatically driving them.
이러한 무인 반송차에서 운반하고자 하는 자재, 화물 등의 위치를 측정하는 방법으로, 자재, 화물 등이 위치하는 설비 또는 바닥면에 마커 또는 QR 코드가 설치되고, 무인 반송차에 장착된 카메라를 통해 설비 또는 바닥면에 설치된 마커 또는 QR 코드를 인식함으로써, 운반하고자 하는 자재, 화물 등의 위치를 측정하는 기술이 알려져 있다.This is a method of measuring the location of materials, cargo, etc. to be transported in such unmanned guided vehicles. A marker or QR code is installed on the equipment or floor where the materials, cargo, etc. are located, and the equipment is installed through a camera mounted on the unmanned guided vehicle. Alternatively, there is a known technology for measuring the location of materials, cargo, etc. to be transported by recognizing a marker or QR code installed on the floor.
하지만, 이러한 방식은 밝기 등 주변 환경의 영향을 많이 받을 뿐만 아니라, 위치를 정밀하게 측정하는 데 한계가 있다. 또한, 운반하고자 하는 자재, 화물 등의 위치를 측정하더라도 무인 반송차에 운반하고자 하는 자재, 화물 등을 안정적으로 적재하는 데에도 어려움이 있다.However, this method is not only greatly affected by the surrounding environment, such as brightness, but also has limitations in accurately measuring the location. In addition, even if the location of the materials or cargo to be transported is measured, there is difficulty in stably loading the materials or cargo to be transported on the unmanned guided vehicle.
한편, 주차장 등의 장소에서 충전을 필요로 하는 전기차의 위치까지 배터리팩을 이동시키고 충전을 진행하는 이동식 충전 장치에 관한 연구가 진행 중이다. 이러한 이동식 충전 장치는 고정식 충전 장치에 비하여 공간 활용성 면에서 매우 유리하다. 하지만, 배터리팩은 외부 충격이나 진동 등에 민감하여 이동 중 사고의 위험이 높기 때문에 배터리팩을 운반하는 과정에서는 더욱 주의가 필요하며, 특히 배터리팩의 위치를 정밀하게 측정하여 배터리팩을 안정적으로 적재, 이송할 수 있는 기술이 필수적으로 요구된다.Meanwhile, research is in progress on a mobile charging device that moves the battery pack from a parking lot, etc. to the location of an electric vehicle that needs charging and performs charging. These mobile charging devices are very advantageous in terms of space utilization compared to stationary charging devices. However, since the battery pack is sensitive to external shocks and vibrations, there is a high risk of accidents during transportation, so extra care is required during the process of transporting the battery pack. In particular, the position of the battery pack must be precisely measured to ensure stable loading of the battery pack. Technology for transport is essential.
이처럼, 주변 환경의 영향을 받지 않으면서도 무인 반송차에 의해 운반하고자 하는 자재, 화물 등의 위치를 정밀하게 측정하여 무인 반송차에 운반하고자 하는 자재, 화물 등을 안정적으로 적재할 수 있는 방법 및 장치의 개발이 여전히 요구되고 있는 실정이다.In this way, a method and device for stably loading materials, cargo, etc. to be transported on an unmanned guided vehicle by precisely measuring the positions of materials, cargo, etc. to be transported by an unmanned guided vehicle without being affected by the surrounding environment. development is still required.
본 개시는 상술한 종래기술의 문제점을 해결하기 위한 것으로서, 운반하고자 하는 자재, 화물 등의 위치를 보다 정확히 측정하고 무인 반송차의 이동을 정밀하게 제어할 수 있는 방법을 제공하는 것에 그 목적이 있다.The present disclosure is intended to solve the problems of the prior art described above, and its purpose is to provide a method for more accurately measuring the positions of materials, cargo, etc. to be transported and precisely controlling the movement of the unmanned guided vehicle. .
또한, 무인 반송차에 운반하고자 하는 자재, 화물 등을 안정적으로 적재하고 이동시킬 수 있는 방법을 제공하는 것에도 그 목적이 있다.In addition, the purpose is to provide a method for stably loading and moving materials, cargo, etc. to be transported on an unmanned guided vehicle.
전술한 목적을 달성하기 위한 본 개시의 대표적인 구성은 다음과 같다.A representative configuration of the present disclosure to achieve the above-described objective is as follows.
본 개시의 일 실시예에 따른 무인 반송차는 본체의 일측에서 연장 형성되며, 이동 대상 객체에 형성되는 적어도 하나의 홀에 삽입되도록 구성되는 적어도 하나의 플레이트를 구비한 적재부, 이동 대상 객체의 광 송신부으로부터 광 신호를 감지하여 제1 센싱 정보를 출력하도록 구성되는 제1 센서부, 무인 반송차를 기준으로 상기 이동 대상 객체의 거리를 측정하여 제2 센싱 정보를 출력하도록 구성되는 제2 센서부, 이동 방향 및 이동 속도의 조정이 가능하도록 구성되는 이동부 및 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체의 위치 및 자세를 판단하고, 이동 대상 객체의 위치 및 자세에 따라 이동부를 제어하도록 구성되는 제어부를 포함한다. An unmanned guided vehicle according to an embodiment of the present disclosure includes a loading unit extending from one side of the main body and having at least one plate configured to be inserted into at least one hole formed in the moving target object, and a light transmitting unit of the moving target object. A first sensor unit configured to detect an optical signal from and output first sensing information, a second sensor unit configured to measure the distance of the moving target object with respect to the unmanned guided vehicle and output second sensing information, moving A moving unit configured to adjust direction and movement speed, determine the position and posture of the moving object based on first sensing information and second sensing information, and control the moving portion according to the position and posture of the moving target object. Includes a configured control unit.
본 개시의 일 실시예에 따르면, 제1 센서부는 적외선 LED를 포함하는 광 송신부로부터 주기적으로 송신되는 광 신호를 감지하도록 구성될 수 있다.According to an embodiment of the present disclosure, the first sensor unit may be configured to detect an optical signal periodically transmitted from an optical transmitter including an infrared LED.
본 개시의 일 실시예에 따르면, 제1 센서부는 PSD 센서 및 핀홀 카메라 모델을 포함하고, 제1 센싱 정보는 핀홀 카메라의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.According to an embodiment of the present disclosure, the first sensor unit includes a PSD sensor and a pinhole camera model, and the first sensing information includes location data of an optical signal that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor. can do.
본 개시의 일 실시예에 따르면, 이동 대상 객체의 위치는 무인 반송차의 위치에 대한 이동 대상 객체의 방향과 거리를 포함하고, 제어부는, 하기 수식에 따라 이동 대상 객체의 방향(θ)을 산출할 수 있다. According to an embodiment of the present disclosure, the location of the moving object includes the direction and distance of the moving object with respect to the position of the unmanned guided vehicle, and the control unit calculates the direction (θ) of the moving object according to the following formula: can do.
(f: 핀홀 카메라 모델의 초점 거리, d: 광 신호의 위치 데이터)(f: focal length of pinhole camera model, d: positional data of optical signal)
본 개시의 일 실시예에 따르면, 제2 센서부는 라이다 센서를 포함하고, 라이다 센서를 통해 제2 센싱 정보를 실시간으로 획득할 수 있다.According to an embodiment of the present disclosure, the second sensor unit includes a LiDAR sensor and can acquire second sensing information in real time through the LiDAR sensor.
본 개시의 일 실시예에 따르면, 제어부는, 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체의 방향(θ), 이동 대상 객체까지의 거리(e) 및 이동 대상 객체의 자세(α)를 산출하고, 하기 수식에 따라 이동 속도(v) 및 각속도(ω)를 결정할 수 있다.According to an embodiment of the present disclosure, the control unit determines the direction (θ) of the moving target object, the distance (e) to the moving target object, and the posture (α) of the moving target object based on the first sensing information and the second sensing information. ) can be calculated, and the moving speed (v) and angular velocity (ω) can be determined according to the formula below.
(r, k, h: control gain으로서 양의 실수)(r, k, h: positive real number as control gain)
본 개시의 일 실시예에 따른 무인 반송차의 이동을 제어하기 위한 방법은 제1 센서부로부터 이동 대상 객체의 광 송신부로부터 수신되는 광 신호에 대한 제1 센싱 정보를 획득하는 단계, 제2 센서부로부터 이동 대상 객체까지의 거리에 대한 제2 센싱 정보를 획득하는 단계, 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체의 위치 및 자세를 판단하는 단계 및 이동 대상 객체의 위치 및 자세에 따라 제어 명령을 생성하는 단계를 포함한다.A method for controlling the movement of an unmanned guided vehicle according to an embodiment of the present disclosure includes obtaining first sensing information about an optical signal received from a light transmitting unit of a moving object from a first sensor unit, a second sensor unit Obtaining second sensing information about the distance to the moving target object, determining the location and posture of the moving target object based on the first sensing information and the second sensing information, and determining the location and posture of the moving target object. and generating control commands accordingly.
본 개시의 일 실시예에 따르면, 이동 대상 객체로부터 수신되는 광 신호에 대한 제1 센싱 정보 및 이동 대상 객체까지의 거리 등에 대한 제2 센싱 정보를 모두 고려하여 이동 대상 객체의 위치 및 자세를 판단함으로써, 보다 정밀하게 이동 대상 객체의 상대적인 위치 및 자세를 측정할 수 있으며, 이를 기반으로 무인 반송차의 이동을 정밀하게 제어할 수 있다.According to an embodiment of the present disclosure, the location and posture of the moving object are determined by considering both the first sensing information about the light signal received from the moving object and the second sensing information about the distance to the moving object, etc. , the relative position and posture of the moving object can be measured more precisely, and based on this, the movement of the unmanned guided vehicle can be precisely controlled.
또한, 본 개시의 일 실시예에 따르면, 자재, 화물 등의 이동 대상 객체를 안착시키고 들어올릴 수 있는 적재부를 통해 이동 대상 객체를 안정적으로 적재하고 운반할 수 있다.In addition, according to an embodiment of the present disclosure, moving objects, such as materials and cargo, can be stably loaded and transported through a loading unit that can seat and lift moving objects.
도 1은 본 개시의 일 실시예에 따라 이동 대상 객체에 접근하는 무인 반송차의 모습을 예시적으로 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 무인 반송차의 개략적인 모습을 나타내는 사시도이다.
도 3은 본 개시의 일 실시예에 따른 무인 반송차의 기능적 구성을 개략적으로 도시한 블록도이다.
도 4는 본 개시의 일 실시예에 따른 무인 반송차의 제어부의 세부 구성을 개략적으로 도시한 블록도이다.
도 5는 본 개시의 일 실시예에 따라 무인 반송차에서 이동 대상 객체의 위치를 판단하는 모습을 예시적으로 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따라 제어 명령을 생성하는 모습을 예시적으로 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따른 무인 반송차를 전기차의 충전을 위한 배터리팩의 이동에 활용하는 모습을 예시적으로 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따라 이동 대상 객체가 지정되는 모습을 예시적으로 나타내는 도면이다.
도 9는 본 개시의 일 실시예에 따라 무인 반송차의 이동을 제어하는 과정을 예시적으로 보여주는 동작 흐름도이다.1 is a diagram illustrating an unmanned guided vehicle approaching a moving object according to an embodiment of the present disclosure.
Figure 2 is a perspective view schematically showing an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 3 is a block diagram schematically showing the functional configuration of an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 4 is a block diagram schematically showing the detailed configuration of a control unit of an unmanned guided vehicle according to an embodiment of the present disclosure.
FIG. 5 is a diagram exemplarily showing the location of a moving object in an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 6 is a diagram illustrating the creation of a control command according to an embodiment of the present disclosure.
FIG. 7 is a diagram illustrating the use of an unmanned guided vehicle to move a battery pack for charging an electric vehicle according to an embodiment of the present disclosure.
FIG. 8 is a diagram exemplarily showing how a movement target object is designated according to an embodiment of the present disclosure.
Figure 9 is an operation flowchart exemplarily showing a process of controlling the movement of an unmanned guided vehicle according to an embodiment of the present disclosure.
이하에서 기술되는 실시예들은 본 개시의 기술적 사상을 설명하기 위한 목적으로 예시된 것으로, 본 개시의 권리범위가 이하에 제시되는 실시예들이나 이에 대한 구체적인 설명으로 제한되는 것은 아니다.The embodiments described below are illustrative for the purpose of explaining the technical idea of the present disclosure, and the scope of the present disclosure is not limited to the embodiments or detailed descriptions presented below.
본 명세서에서 사용되는 모든 기술적 용어들 및 과학적 용어들은 달리 정의되지 않는 한 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 가지며, 본 명세서에서 사용되는 모든 용어들은 본 개시를 더욱 명확히 설명하기 위한 목적으로 선택된 것으로서 본 개시의 권리범위를 제한하기 위해 선택된 것이 아니다. 본 명세서에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다. 또한, 본 명세서에서 사용한 "제1", "제2" 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되는 것으로서, 상기 구성요소들은 이러한 용어에 의해 한정되지 않는다.All technical and scientific terms used in this specification, unless otherwise defined, have meanings commonly understood by those skilled in the art to which this disclosure pertains, and all terms used in this specification are defined in this disclosure. It was selected for the purpose of explaining more clearly and was not selected to limit the scope of the present disclosure. As used herein, expressions such as “comprising,” “comprising,” “having,” and the like are open terms implying the possibility of including other embodiments, unless otherwise stated in the phrase or sentence containing the expression. -ended terms). In addition, terms containing ordinal numbers, such as “first”, “second”, etc., used in this specification may be used to describe various components, but are used only for the purpose of distinguishing one component from another component. As such, the components are not limited by these terms.
이하, 첨부한 도면을 참조하여 본 개시의 바람직한 실시예에 대해 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 상세하게 설명한다. 첨부된 도면에서, 동일하거나 대응하는 구성요소는 동일한 참조부호를 통해 지시되어 있으며, 이하의 실시예들의 설명에 있어서 동일하거나 대응하는 구성요소는 중복하여 기술하는 것이 생략될 수 있다. 다만, 아래의 설명에서 특정 구성요소에 관한 기술이 생략되어 있더라도, 이는 그러한 구성요소가 해당 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, with reference to the attached drawings, preferred embodiments of the present disclosure will be described in detail so that those skilled in the art can easily implement them. In the accompanying drawings, identical or corresponding components are indicated by the same reference numerals, and in the description of the following embodiments, duplicate descriptions of identical or corresponding components may be omitted. However, even if descriptions of specific components are omitted in the description below, this does not mean that such components are not included in the embodiment.
도 1은 본 개시의 일 실시예에 따라 이동 대상 객체에 접근하는 무인 반송차의 모습을 예시적으로 나타내는 도면이다.1 is a diagram illustrating an unmanned guided vehicle approaching a moving object according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 이동 대상 객체(200)는 무인 반송차(100)에 적재되어 이동시킬 필요가 있는 객체를 지칭한다. 이동 대상 객체(200)는, 예를 들어 자재, 화물 내지 이를 비치하기 위한 팔레트일 수 있으며, 전기차의 충전을 위한 배터리팩일 수도 있다. 일 실시예에서, 이동 대상 객체(200)는 무인 반송차(100)에 안정적으로 탑재될 수 있도록 무인 반송차(100)의 적재부(110)가 삽입될 수 있는 구조로 형성될 수 있다. 일 실시예에서, 이동 대상 객체(200)의 하부에는 무인 반송차(100)의 적재부(110)가 삽입될 수 있도록 구성되는 적어도 하나의 홀이 형성될 수 있다. 예를 들어, 무인 반송차(100)의 적재부(110)가 포크 형태로 형성되는 경우에는 그에 상응하여 하나 또는 두 개의 홀이 형성될 수 있으며, 적재부(110)가 판 형상으로 이루어진 경우에는 하나의 홀이 형성될 수 있다.The
본 개시의 일 실시예에 따르면, 이동 대상 객체(200)는 광 송신부를 포함할 수 있다. 일 실시예에서, 광 송신부는 이동 대상 객체(200)의 일측, 예를 들어 이동 대상 객체(200)의 전면부에 설치되어 광 신호를 주기적으로 송신하는 기능을 수행할 수 있다. 일 실시예에 따르면, 광 송신부는 LED로 구성될 수 있다. 여기서, LED는 백색광, 적색광, 청색광, 녹색광 또는 적외선 LED가 모두 사용될 수 있으나, 바람직하게는, 외란을 쉽게 제거할 수 있는 적외선 LED가 사용될 수 있다. 일 실시예에서, 이동 대상 객체(200)의 광 송신부는 통합 제어 시스템에 의해 활성화 또는 비활성화될 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에서는 이동 대상 객체(200)에 광 송신부가 구비되는 것으로 예시하였으나, 이와 달리 별도의 설비에 광 송신부가 구비되고 이동 대상 객체(200)가 해당 설비에 비치되는 것도 가능하다.In one embodiment of the present disclosure, it is illustrated that the
도 2는 본 개시의 일 실시예에 따른 무인 반송차의 개략적인 모습을 나타내는 사시도이고, 도 3은 본 개시의 일 실시예에 따른 무인 반송차의 기능적 구성을 개략적으로 도시한 블록도이다.FIG. 2 is a perspective view schematically showing an unmanned guided vehicle according to an embodiment of the present disclosure, and FIG. 3 is a block diagram schematically showing the functional configuration of an unmanned guided vehicle according to an embodiment of the present disclosure.
도 2 및 3을 참조하면, 본 개시의 일 실시예에 따른 무인 반송차(100)는 객체의 적재, 이송 및 하역 등을 위한 무인 자율 주행 기기로서, 적재부(110), 제1 센서부(120), 제2 센서부(130), 이동부(140) 및 제어부(150)를 포함할 수 있다. 도 3에 도시된 구성요소들은 무인 반송차(100)의 모든 기능을 반영한 것이 아니어서, 무인 반송차(100)는 도시된 구성요소들 보다 많은 구성요소를 포함하거나 그보다 적은 구성요소를 포함할 수 있다. 예를 들면, 무인 반송차(100)는 무인 반송차(100)의 전면에 설치되어 무인 반송차(100)의 주변 환경의 이미지 정보를 수집하는 기능을 수행하는 이미지 센서(미도시)를 포함할 수 있다. 또한, 무인 반송차(100)는 무인 반송차(100)의 후방 내지 측면에 설치되어 장애물을 감지하는 기능을 수행하는 장애물 감지 센서(미도시)를 더 포함할 수 있다.Referring to FIGS. 2 and 3, the unmanned guided
본 개시의 일 실시예에 따른 무인 반송차(100)의 적재부(110)는 이동 대상 객체(200)가 적재되는 부분으로, 이동 대상 객체(200)를 안정적으로 로딩 또는 언로딩할 수 있도록 구성될 수 있다. 일 실시예에서, 적재부(110)는 무인 반송차(100)의 본체의 일측, 예를 들어 무인 반송차(100)의 본체의 전면부에 연장 형성될 수 있다.The
본 개시의 일 실시예 따르면, 적재부(110)는 이동 대상 객체(200)에 형성되는 적어도 하나의 홀에 삽입되도록 구성되는 적어도 하나의 플레이트를 구비할 수 있다. 도시된 실시예에서, 적재부(110)는 2개의 플레이트를 포함하는 포크 형상으로 이루어져 있으나, 본 개시가 이에 한정되는 것은 아니다. 적재부(110)의 크기 및 형상은 이동 대상 객체의 종류, 크기, 형상 등에 따라 변경될 수 있는 것으로, 예를 들어 적재부(110)는 하나의 플레이트로 구성된 판 형상으로 이루어진 수도 있다.According to one embodiment of the present disclosure, the
일 실시예에서, 적재부(110)는 본체에 상하로 이동 가능하게 설치될 수 있다. 이러한 구성에 의해서, 무인 반송차(100)는 적재부(110)의 상에 이동 대상 객체(200)를 안정적으로 로딩하여 이동 대상 객체(200)를 목적 지점까지 이동시킬 수 있다. 구체적으로, 적재부(110)를 이동 대상 객체(200)의 하부(즉, 이동 대상 객체(200)에 형성되는 적어도 하나의 홀)에 삽입한 후 적재부(110)를 상승시키면, 적재부(110) 상면에 의해 이동 대상 객체(200)가 지지되는 상태로 들어올려지면서 적재부(110)에 이동 대상 객체(200)가 안정적으로 적재된다. 이동 대상 객체(200)가 적재부(110)에 안정적으로 적재된 상태에서 무인 반송차(100)가 목적 지점에 도달하게 되면, 적재부(110)가 하강하여 이동 대상 객체(200)를 바닥(예컨대, 지면)에 내려놓고 이동 대상 객체(200)에 형성되는 적어도 하나의 홀에서 빠져나오면서 이동 대상 객체(200)가 목적 지점에 언로딩될 수 있다.In one embodiment, the
한편, 이동 대상 객체(200)를 무인 반송차(100)의 적재부(110)에 안정적으로 적재하기 위해서는 이동 대상 객체(200)의 위치, 보다 구체적으로는 이동 대상 객체(200)에 형성되는 홀의 위치를 정확하게 검출하고, 적재부(110)를 해당 위치로 이동 제어해야 한다. 이하에서는, 이동 대상 객체(200), 즉 이동 대상 객체(200)에 형성되는 적어도 하나의 홀의 위치와 자세를 정확하게 감지하기 위한 구성을 상세히 설명한다.Meanwhile, in order to stably load the moving
본 개시의 일 실시예에 따른 무인 반송차(100)의 제1 센서부(120)는, 수광 범위 내에 위치하는 이동 대상 객체(200)에서 송신하는 광 신호를 감지하는 기능을 수행할 수 있다. 일 실시예에서, 제1 센서부(120)는, 이동 대상 객체(200)의 광 송신부로부터 송신되는 광 신호를 감지하여 광 신호에 대한 제1 센싱 정보를 출력할 수 있다.The
본 개시의 일 실시예에 따르면, 제1 센서부(120)는 PSD 센서를 포함할 수 있다. PSD 센서는 실리콘 표면에 P-I-N 접합을 한 포토 다이오드의 일종으로, 횡방향 광기전력 효과를 이용하여 PSD 센서의 측정면에 결상되는 광 신호의 위치를 측정할 수 있다. 일 실시예에서, PSD 센서는 1차원 PSD 센서일 수 있다.According to one embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 제1 센서부(120)에는 핀홀 카메라 모델을 포함할 수 있다. 핀홀 카메라 모델은 핀홀을 통과한 광이 초점거리 뒤 상평면에 맺히도록 구성되며, 일 실시예에서, 핀홀 카메라 모델의 상평면은 PSD 센서의 측정면으로 구성될 수 있다. 이에 따라, 핀홀 카메라 모델의 핀홀을 통과한 광 신호가 핀홀 카메라 모델의 초점 거리 뒤에 위치하는 PSD 센서의 측정면에 결상될 수 있으며, PSD 센서는 측정면에 결상되는 광 신호의 위치를 측정할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따른 무인 반송차(100)의 제2 센서부(130)는, 무인 반송차(100)의 일측에 설치되어 무인 반송차(100)를 기준으로 주변 객체까지의 거리를 측정하는 기능을 수행할 수 있다. 일 실시예에서, 제2 센서부(130)는 무인 반송차(100)에서 이동 대상 객체(200)까지의 거리를 측정하고, 제2 센싱 정보를 출력할 수 있다. 일 실시예에서, 제2 센서부(130)는 무인 반송차(100)의 적재부(110)의 길이를 고려하여 무인 반송차(100)에서 이동 대상 객체(200)까지의 거리를 측정할 수 있다. 예컨대, 제2 센서부(130)는 무인 반송차(100)의 적재부(110)의 단부에서 이동 대상 객체(200)에 형성되는 홀까지의 거리를 측정할 수 있다. 일 실시예에서, 제2 센서부(130)는 무인 반송차(100)의 일측, 예를 들어 무인 반송차(100)의 전면부에 설치될 수 있다. 예를 들어, 제2 센서부(130)는 적재부(110)의 단부에 설치될 수 있으며, 적재부(110)가 포크 형태인 경우 각각의 플레이트 단부에 설치될 수 있다.The
본 개시의 일 실시예에 따르면, 제2 센서부(130)는 라이다(Light Detection And Ranging, LiDAR) 센서를 포함할 수 있다. 라이다 센서는 발광 소자와 수광 소자를 구비하여, 레이저 파장의 빛을 외부로 방출하고, 이 방출된 빛이 주위의 대상 물체에서 반사되어 되돌아오는 데 소요되는 시간을 측정하여 대상 물체까지의 거리 등을 파악하는, 소위 이동 시간차 원리를 이용한 장치이다. 일 실시예에서, 라이다 센서는 무인 반송차(100)를 기준으로 이동 대상 객체(200)의 거리를 측정할 수 있으며, 라이다 센서에 의해서 측정되는 거리에 관한 정보는 후술하는 제어부(150)에 전달될 수 있다. 여기서, 라이다 센서를 통해 측정되는 정보는 3D 공간에서 점들의 집합 형태로 나타내는 포인트 클라우드(point cloud) 정보일 수 있다.According to one embodiment of the present disclosure, the
본 개시의 일 실시예에 따른 무인 반송차(100)의 이동부(140)는, 무인 반송차(100)의 이동 방향 및 이동 속도를 조정하는 기능을 수행할 수 있다. 일 실시예에서, 이동부(140)는 무인 반송차(100)의 본체 바닥면에 적어도 한 개가 설치될 수 있다. 이동부(140)는 휠, 모터, 엔코더 및 모터 드라이브로 구성될 수 있으며, 각기 독립적으로 구동되도록 구성될 수 있다. 예컨대, 이동부(140)는 무인 반송차(100) 전방부에 2개, 후방부에 2개, 총 4개 설치될 수 있으며, 무인 반송차(100) 본체의 바닥면의 중심을 기준으로 대칭적으로 설치될 수 있다. 이동부(140) 각각은 본체 바닥면에 대하여 수직 방향(즉, 지면에 수직한 방향)을 기준으로 회전 가능하도록 설치될 수 있다. 이에 따라, 무인 반송차(100)는 직진 방향 이동 뿐만 아니라 이동부(140)를 회전시켜 측방향으로의 이동도 가능하게 된다. The moving
본 개시의 일 실시예에 따른 무인 반송차(100)의 제어부(150)는, 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체(200)의 위치 및 자세를 판단하고, 이에 따라 이동부(130)를 제어하는 기능을 수행할 수 있다.The
도 4는 본 개시의 일 실시예에 따른 무인 반송차의 제어부의 세부 구성을 개략적으로 도시한 블록도이다.Figure 4 is a block diagram schematically showing the detailed configuration of a control unit of an unmanned guided vehicle according to an embodiment of the present disclosure.
도 4를 참조하면, 본 개시의 일 실시에 따른 무인 반송차(100)의 제어부(150)는 센싱 정보 획득부(152), 위치 판단부(154), 자세 판단부(156) 및 이동 명령부(158)를 포함할 수 있다. 도 4에 도시된 구성요소들은 제어부(150)의 모든 기능을 반영한 것이 아니고, 필수적인 것도 아니어서, 제어부(150)는 도시된 구성요소들 보다 많은 구성요소를 포함하거나 그보다 적은 구성요소를 포함할 수 있다.Referring to FIG. 4, the
본 개시의 일 실시예에 따르면, 센싱 정보 획득부(152), 위치 판단부(154), 자세 판단부(156) 및 이동 명령부(158)는 그 중 적어도 일부가 외부 장치(미도시)와 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 장치, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 제어부(150)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 위치 제어부(150)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 개시에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present disclosure, at least some of the sensing
본 개시의 일 실시예에 따르면, 센싱 정보 획득부(152)는 제1 센싱 정보를 획득하는 기능을 수행할 수 있다. 앞서 설명한 바와 같이, 무인 반송차(100)는 제1 센서부(120)에 의해서 이동 대상 객체(200)의 광 송신부(즉, 적외선 LED)에서 송신되는 광 신호를 검출할 수 있으며, 센싱 정보 획득부(152)는 이로부터 광 신호에 대한 제1 센싱 정보를 획득할 수 있다. 일 실시예에서, 제1 센싱 정보는 핀홀 카메라 모델의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.According to an embodiment of the present disclosure, the sensing
본 개시의 일 실시예에 따르면, 센싱 정보 획득부(152)는 제2 센싱 정보를 획득하는 기능을 수행할 수 있다. 앞서 설명한 바와 같이, 무인 반송차(100)는 제2 센서부(130)에 의해서 무인 반송차(100)에서 무인 반송차(100) 주변 객체까지의 거리를 측정할 수 있으며, 센싱 정보 획득부(142)는 이로부터 무인 반송차(100)를 기준으로 이동 대상 객체(200)의 거리에 관한 제2 센싱 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the sensing
본 개시의 일 실시예에 따르면, 위치 판단부(154)는 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체(200)의 위치를 판단하는 기능을 수행할 수 있다. 일 실시예에서, 이동 대상 객체(200)의 위치는 무인 반송차(100)의 위치에 대한 이동 대상 객체(200)의 광 송신부의 위치일 수 있으며, 광 송신부의 위치는 무인 반송차(100)의 현재의 위치에 대한 광 송신부의 상대적인 방향과 거리에 관한 정보를 포함할 수 있다. 한편, 광 송신부가 이동 대상 객체(200)가 아닌 이동 대상 객체(200)가 비치된 설비에 설치되는 경우에는 무인 반송차(100)의 위치에 대한 설비의 상대적인 위치가 산출될 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 위치 판단부(154)는 제1 센싱 정보를 기반으로 이동 대상 객체(200)의 방향을 판단할 수 있다. 일 실시예에서, 위치 판단부(154)는 무인 반송차(100)의 진행 방향에 대한 광 신호의 배향 각도를 산출하는 방식으로 광 신호의 방향, 즉 이동 대상 객체(200)의 광 송신부의 방향을 산출할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 위치 판단부(154)는 제2 센싱 정보를 기반으로 이동 대상 객체(200)의 거리를 판단할 수 있다. 일 실시예에서, 위치 판단부(154)는 이동 대상 객체(200)의 광 송신부의 방향을 참조하여 이동 대상 객체(200)의 광 송신부까지의 거리를 산출할 수 있다.According to an embodiment of the present disclosure, the
도 5는 본 개시의 일 실시예에 따라 무인 반송차에서 이동 대상 객체의 위치를 판단하는 모습을 예시적으로 나타내는 도면이다. 여기서, 이동 대상 객체의 위치는, 무인 반송차(100)의 위치에 대한 이동 대상 객체(200)의 광 송신부의 상대적인 위치로서, 이동 대상 객체(200)의 광 송신부(210)의 방향과 거리를 포함한다.FIG. 5 is a diagram exemplarily showing the location of a moving object in an unmanned guided vehicle according to an embodiment of the present disclosure. Here, the position of the moving target object is the relative position of the light transmitting unit of the moving
도 5를 참조하면, 위치 판단부(154)는 제1 센서부(120)에서 검출되는 광 신호에 대한 제1 센싱 정보를 기반으로 이동 대상 객체(200)의 방향, 구체적으로 이동 대상 객체(200)의 광 송신부(210)의 방향(θ)을 산출할 수 있다. 본 개시의 일 실시예에 따르면, 위치 판단부(154)는 아래 수학식 1에 따라 이동 대상 객체(200)의 광 송신부(210)의 방향(θ), 즉 무인 반송차(100)의 진행 방향에 대한 광 신호의 배향 각도를 산출할 수 있다.Referring to FIG. 5, the
[수학식 1][Equation 1]
여기서, f는 핀홀 카메라 모델의 초점 거리로, 핀홀(121)에서 PSD 센서(123)의 측정면까지의 거리이다. d는 광 신호의 위치 데이터로, 제1 센서부(120)에서 수신, 검출한 광 신호에 대한 제1 센싱 정보로부터 획득할 수 있다. 구체적으로, 이동 대상 객체(200)의 광 송신부(즉, 적외선 LED)(210)에서 송신되는 광 신호가 핀홀 카메라 모델의 핀홀(121)을 통과하여 PSD 센서(123)의 측정면의 한 점에 입사되고, PSD 센서(123)가 PSD 센서(123)의 측정면에 입사된 광 신호의 위치를 측정하여 광 신호의 위치 데이터(d)를 출력할 수 있다.Here, f is the focal length of the pinhole camera model and is the distance from the
일 실시예에서, 위치 판단부(154)는 이동 대상 객체(200)의 광 송신부(210)의 방향(θ)을 참조하여 이동 대상 객체(200)의 거리, 구체적으로 무인 반송차(100)에서 이동 대상 객체(200)의 광 송신부(210)까지의 거리(rIR)를 산출할 수 있다. 구체적으로, 무인 반송차(100)의 제2 센서부(130)에서 측정되는 거리 데이터 중에서 이동 대상 객체(200)의 광 송신부(210)의 방향(θ)에 대한 거리 데이터를 무인 반송차(100)에서 이동 대상 객체(200)의 광 송신부까지의 거리로서 획득할 수 있다.In one embodiment, the
본 개시의 일 실시예에 따르면, 위치 판단부(154)는 무인 반송차(100)의 목표 위치까지의 도달 정확도를 높이기 위해, 이동 과정에서 실시간으로 또는 기 설정된 시간 간격으로 무인 반송차(100)의 현재의 위치에 대한 이동 대상 객체(200)의 상대적인 위치(방향과 거리)를 판단할 수 있으며, 위치 판단부(154)에서 판단된 이동 대상 객체(200), 즉 이동 대상 객체(200)의 광 송신부의 상대적인 위치는 후술하는 이동 명령부(158)에 전달될 수 있다.According to an embodiment of the present disclosure, in order to increase the accuracy of reaching the target location of the unmanned guided
본 개시의 일 실시예에 따르면, 자세 판단부(156)는 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체(200)의 자세를 판단하는 기능을 수행할 수 있다. 여기에서, 이동 대상 객체(200)의 자세는 무인 반송차(100)를 기준으로 이동 대상 객체(200)가 향하는 방향을 의미한다.According to an embodiment of the present disclosure, the
일 실시예에서, 자세 판단부(156)는 제2 센서부(130)의 제2 센싱 정보로부터 이동 대상 객체(200)가 향하는 방향을 결정할 수 있다. 또한, 자세 판단부(156)는 위치 판단부(154)에서 산출한 광 송신부의 방향, 즉 무인 반송차(100)가 이동 대상 객체(200)를 향하는 방향을 참조하여, 이동 대상 객체(200)의 자세를 산출할 수 있다. 자세 판단부(156)에서 산출된 이동 대상 객체(200)의 자세는 무인 반송차(100)가 이동 대상 객체(200)의 위치와 함께 무인 반송차의 이동을 제어하는 데에 활용된다.In one embodiment, the
본 개시의 일 실시예에 따르면, 이동 명령부(158)는 위치 판단부(154)와 자세 판단부(156)에서 판단된 이동 대상 객체(200)의 위치 및 자세에 따라 무인 반송차(100)에 이동을 명령하는 기능을 수행할 수 있다. 일 실시예에서, 이동 명령부(158)는 이동 대상 객체(200)의 위치(방향과 거리) 및 자세를 고려하여 제어 명령을 생성할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 이동 명령부(158)는 무인 반송차(100)의 이동 방향, 이동 거리 및 이동 속도 중 적어도 하나를 결정하고, 무인 반송차(100)에 이동을 명령할 수 있다. 일 실시예에서, 이동 명령부(158)는 무인 반송차(100)의 현재 위치에서의 이동 대상 객체(200)의 상대적인 위치와 자세에 관한 정보를 계속적으로 확인하면서 무인 반송차(100)의 이동을 실시간으로 제어할 수 있다.According to an embodiment of the present disclosure, the
도 6은 본 개시의 일 실시예에 따라 제어 명령을 생성하는 모습을 예시적으로 나타내는 도면이다.Figure 6 is a diagram illustrating the creation of a control command according to an embodiment of the present disclosure.
도 6과 같이 무인 반송차(100)를 이동 대상 객체(200)로 이동시킴에 있어서 정밀한 제어를 위하여 아래와 같은 순서로 제어 명령을 생성할 수 있다.As shown in FIG. 6, when moving the unmanned guided
(1) 무인 반송차(100)에서 이동 대상 객체(200)를 향하는 방향(θ) 산출 - 수학식 1 참조(1) Calculation of the direction (θ) toward the moving
(2) 무인 반송차(100)에서 이동 대상 객체(200)를 향하는 방향(θ)을 참조하여 이동 대상 객체(200)까지의 거리(e) 산출(2) Calculate the distance (e) from the unmanned guided
(3) 아래 수학식 2에 따라 이동 대상 객체(200)의 자세(α)산출 (3) Calculate the posture (α) of the moving
여기서, 이동 대상 객체(200)의 자세는 무인 반송차(100)에서 이동 대상 객체(200)를 향하는 방향(θ)으로 연장되는 연장선이 이동 대상 객체(200)를 기준으로 하는 좌표계에서 이루는 각도를 나타낸다.Here, the posture of the moving
[수학식 2][Equation 2]
(4) 무인 반송차(100)가 이동 대상 객체(200)를 향하는 방향(θ), 이동 대상 객체(200)까지의 거리(e), 이동 대상 객체(200)의 자세(α)를 기초로, 리야프노프 함수(Lyapunov Function)를 이용하여 아래 수학식 3에 따라, 무인 반송차(100)의 이동 속도 및 각속도를 결정(4) Based on the direction (θ) in which the unmanned guided
[수학식 3][Equation 3]
여기서, r, k h는 각각 control gain으로서 양의 실수이다.Here, r and k h are control gains and are positive real numbers, respectively.
(5) 이동 속도 및 각속도에 따라 제어 명령 생성(5) Generate control commands according to movement speed and angular velocity
이처럼, 무인 반송차에 대한 이동 대상 객체의 상대적인 위치와 자세를 고려하여 무인 반송차의 이동을 제어함으로써, 무인 반송차의 이동을 보다 정밀하게 제어할 수 있다. In this way, by controlling the movement of the unmanned guided vehicle by considering the relative position and posture of the moving object with respect to the unmanned guided vehicle, the movement of the unmanned guided vehicle can be controlled more precisely.
한편, 본 개시의 일 실시예에 따른 무인 반송차는 상술한 구성에 의해서 전기차 충전을 위한 배터리팩의 이동에 활용할 수 있다.Meanwhile, the unmanned guided vehicle according to an embodiment of the present disclosure can be used to move a battery pack for charging an electric vehicle by using the above-described configuration.
도 7은 본 개시의 일 실시예에 따른 무인 반송차를 전기차의 충전을 위한 배터리팩의 이동에 활용하는 모습을 예시적으로 나타내는 도면이다. 도 7에서, 이동 대상 객체(200)인, 다수의 배터리팩(200)이 충전 센터에 배치되고, 본 개시의 일 실시예에 따른 무인 반송차(100)가 충전 센터에 배치된 배터리팩(200)을 충전을 필요로 하는 전기차의 위치까지 이동시키는 모습을 예시적으로 나타낸다.FIG. 7 is a diagram illustrating the use of an unmanned guided vehicle to move a battery pack for charging an electric vehicle according to an embodiment of the present disclosure. In FIG. 7, a plurality of battery packs 200, which are moving target objects 200, are placed in a charging center, and an unmanned guided
배터리팩(200)의 하부에는 무인 반송차(100)의 적재부(110)가 삽입 결합될 수 있는 홀이 형성될 수 있다. 무인 반송차(100)는 배터리팩(200) 적재 시 배터리팩(200)과 전기적으로 연결되도록 구성되는 접촉단자를 구비할 수 있으며, 전기차 충전을 위하여 접촉 단자와 전기적으로 연결되는 충전 플러그를 더 구비할 수 있다.A hole may be formed in the lower part of the
주차 구역에 위치하는 전기차로부터 충전 호출이 있는 경우, 무인 반송차(100)는 충전 센터에서 완충된 배터리팩(200)을 로딩하여 이동하게 된다. 구체적으로, 무인 반송차(100)는 배터리팩(200)의 하부에 형성되는 홀에 무인 반송차(100)의 적재부를 삽입하여 배터리팩(200)을 적재하고 이동 경로를 따라 이동을 하게 된다. 무인 반송차(100)의 이동 경로를 따라 정지 위치를 표시하는 마커(300)가 설치되어 있어 무인 반송차(100)가 이동 경로를 따라 이동하여 충전 호출이 있는 전기차가 주차되어 있는 위치에 정지할 수 있으며, 무인 반송차(100)에 설치되는 충전 플러그에 의해서 전기차의 충전이 이루어질 수 있다.When a charging call is made from an electric vehicle located in a parking area, the unmanned guided
이처럼, 자율 주행이 가능한 무인 반송차를 활용하여 배터리팩을 이동시켜 전기차의 충전이 이루어짐으로써, 충전 설비가 구축되지 않은 장소에서도 복수의 전기차를 효율적으로 충전할 수 있다.In this way, electric vehicles are charged by moving the battery pack using an unmanned guided vehicle capable of autonomous driving, making it possible to efficiently charge multiple electric vehicles even in places where charging facilities are not built.
한편, 본 개시의 일 실시예에 따르면, 통합 제어 시스템에 의해서 무인 반송차의 이동이 필요한 이동 대상 객체를 결정, 지정할 수 있다.Meanwhile, according to an embodiment of the present disclosure, a moving target object requiring movement of an unmanned guided vehicle can be determined and designated by an integrated control system.
도 8은 본 개시의 일 실시예에 따라 이동 대상 객체가 지정되는 모습을 예시적으로 나타내는 도면이다. FIG. 8 is a diagram exemplarily showing how a movement target object is designated according to an embodiment of the present disclosure.
도 8을 참조하면, 복수의 객체(200a,200b, 200c, 200d)는 IoT 기반의 스마트 태그를 포함할 수 있으며, 스마트 태그는 통합 제어 시스템에서 전송하는 활성화 신호를 수신할 수 있다. 통합 제어 시스템에 의해서 복수의 객체(200a,200b, 200c, 200d) 중 무인 반송차(100)에 의해 이동시킬 필요가 있는 이동 대상 객체(200c)를 결정되고, 해당 이동 대상 객체(200c)에 활성화 신호를 전송하면, 이동 대상 객체(200c)의 광 송신부가 활성화되면서 광 신호를 송신한다. 무인 반송차(100)는 이동 대상 객체(200c)가 송신한 광 신호를 감지하고, 해당 이동 대상 객체(200c)를 향하는 방향으로 무인 반송차(100)의 이동을 제어할 수 있다.Referring to FIG. 8, the plurality of
도 9는 본 개시의 일 실시예에 따라 무인 반송차의 이동을 제어하는 과정을 예시적으로 보여주는 동작 흐름도이다.Figure 9 is an operation flowchart exemplarily showing a process of controlling the movement of an unmanned guided vehicle according to an embodiment of the present disclosure.
먼저, 단계(S902)에서 제어부(150)는, 무인 반송차가 이동하고자 하는 이동 대상 객체에서 송신되는 광 신호에 대한 제1 센싱 정보를 획득할 수 있다. 일 실시예에서, 이동 대상 객체는 광 신호를 주기적으로 송신하도록 구성되는 광 송신부를 포함할 수 있으며, 광 송신부는 적외선 LED로 구성될 수 있다. 앞서 설명한 바와 같이, 무인 반송차는 제1 센서부를 포함할 수 있으며, 제1 센싱 정보는 무인 반송차의 제1 센서부를 통해 실시간으로 획득될 수 있다. 일 실시예에서, 무인 반송차의 제1 센서부는 PSD 센서 및 핀홀 카메라 모델을 포함할 수 있으며, 제1 센싱 정보는 핀홀 카메라의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.First, in step S902, the
단계(S904)에서 제어부(150)는, 이동 대상 객체까지의 거리에 대한 제2 센싱 정보를 획득할 수 있다. 앞서 설명한 바와 같이, 무인 반송차는 제2 센서부를 포함할 수 있으며, 제2 센싱 정보는 무인 반송차의 제2 센서부를 통해 실시간으로 획득될 수 있다. 일 실시예에서, 무인 반송차의 제2 센서부는 라이다 센서를 포함할 수 있다.In step S904, the
다음으로, 단계(S906)에서 제어부(150)는, 단계(S902)에서 획득한 제1 센싱 정보 및 단계(S904)에서 획득한 제2 센싱 정보를 기반으로 이동 대상 객체의 위치를 판단할 수 있다. 여기서, 이동 대상 객체의 위치는 무인 반송차의 현재 위치에 대한 이동 대상 객체의 광 송신부의 거리와 방향을 포함할 수 있다. 일 실시예에서, 이동 대상 객체의 광 송신부의 방향은 광 송신부에서 송신하는 광 신호의 방향일 수 있으며, 제어부(150)는 무인 반송차의 진행 방향에 대한 광 신호의 배향 각도를 산출하는 방식으로 산출할 수 있다. 일 실시예에서, 광 송신부의 방향을 참조하여 무인 반송차의 광 송신부의 거리에 관한 정보를 획득할 수 있다.Next, in step S906, the
단계(S908)에서 제어부(150)는, 단계(S904)에서 획득한 제2 센싱 정보 및 단계(S906)에서 산출한 이동 대상 객체의 방향에 관한 정보를 참조하여 이동 대상 객체의 자세를 판단할 수 있다. In step S908, the
단계(S910)에서 제어부(150)는, 단계(S906)와 단계(S908)에서 판단된 이동 대상 객체의 위치(방향과 거리), 자세에 관한 정보를 기반으로 제어 명령을 생성할 수 있다. In step S910, the
이상 설명된 본 개시에 따른 실시예에서의 제어부는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 개시에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The control unit in the embodiment according to the present disclosure described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. A computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present disclosure or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. A hardware device may be replaced with one or more software modules to perform processing according to the present disclosure, and vice versa.
이상에서는 본 개시를 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면을 통해 설명하였으나, 이는 본 개시의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐이며, 본 개시가 상기 실시예들에 한정되는 것은 아니며, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있을 것이다.In the above, the present disclosure has been described through specific details such as specific components and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present disclosure, and the present disclosure is not limited to the above embodiments. , a person skilled in the art to which this disclosure pertains will be able to make various modifications and variations from this description.
따라서, 본 개시의 사상은 전술한 실시예에 국한되어 정해져서는 아니되며, 후술하는 청구범위뿐만 아니라 이와 균등하게 또는 등가적으로 변형된 모든 것들은 본 개시의 사상의 범주에 속하는 것으로 해석되어야 한다.Accordingly, the spirit of the present disclosure should not be limited to the above-described embodiments, and the claims described below as well as all equivalent or equivalent modifications thereto should be construed as falling within the scope of the spirit of the present disclosure.
100: 무인 반송차
110: 적재부
120: 제1 센서부
130: 제2 센서부
140: 이동부
150: 제어부
152: 센싱 정보 획득부
154: 위치 판단부
156: 자세 판단부
158: 이동 명령부
200: 이동 대상 객체100: Unmanned guided vehicle
110: loading unit
120: first sensor unit
130: Second sensor unit
140: moving part
150: control unit
152: Sensing information acquisition unit
154: Position determination unit
156: Posture judgment unit
158: Movement Command
200: Move target object
Claims (7)
상기 이동 대상 객체의 광 송신부으로부터 광 신호를 감지하여 제1 센싱 정보를 출력하도록 구성되는 제1 센서부,
상기 무인 반송차를 기준으로 상기 이동 대상 객체의 거리를 측정하여 제2 센싱 정보를 출력하도록 구성되는 제2 센서부,
이동 방향 및 이동 속도의 조정이 가능하도록 구성되는 이동부 및
상기 제1 센싱 정보 및 상기 제2 센싱 정보를 기반으로 상기 이동 대상 객체의 위치 및 자세를 판단하고, 상기 이동 대상 객체의 위치 및 자세에 따라 상기 이동부를 제어하도록 구성되는 제어부
를 포함하는
무인 반송차.a loading unit extending from one side of the main body and having at least one plate configured to be inserted into at least one hole formed in the object to be moved;
a first sensor unit configured to detect an optical signal from an optical transmitter of the moving object and output first sensing information;
a second sensor unit configured to measure the distance of the moving object with respect to the unmanned guided vehicle and output second sensing information;
A moving part configured to allow adjustment of the moving direction and moving speed, and
A control unit configured to determine the position and posture of the moving target object based on the first sensing information and the second sensing information and control the moving unit according to the position and posture of the moving target object.
containing
Unmanned guided vehicle.
상기 제1 센서부는 적외선 LED를 포함하는 상기 광 송신부로부터 주기적으로 송신되는 광 신호를 감지하도록 구성되는, 무인 반송차.According to paragraph 1,
The first sensor unit is configured to detect an optical signal periodically transmitted from the optical transmitter including an infrared LED.
상기 제1 센서부는 PSD 센서 및 핀홀 카메라 모델을 포함하고,
상기 제1 센싱 정보는 상기 핀홀 카메라의 핀홀을 통과하여 상기 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함하는, 무인 반송차.According to paragraph 1,
The first sensor unit includes a PSD sensor and a pinhole camera model,
The first sensing information includes location data of an optical signal that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor.
상기 이동 대상 객체의 위치는 상기 무인 반송차의 위치에 대한 상기 이동 대상 객체의 방향과 거리를 포함하고,
상기 제어부는, 하기 수식에 따라 상기 이동 대상 객체의 방향(θ)을 산출하는, 무인 반송차.
(f: 핀홀 카메라 모델의 초점 거리, d: 광 신호의 위치 데이터)According to paragraph 3,
The location of the moving target object includes the direction and distance of the moving target object with respect to the position of the unmanned guided vehicle,
The control unit calculates the direction (θ) of the moving object according to the following equation.
(f: focal length of pinhole camera model, d: positional data of optical signal)
상기 제2 센서부는 라이다 센서를 포함하고, 상기 라이다 센서를 통해 상기 제2 센싱 정보를 실시간으로 획득하는, 무인 반송차. According to paragraph 1,
The second sensor unit includes a LiDAR sensor, and acquires the second sensing information in real time through the LiDAR sensor.
상기 제어부는, 상기 제1 센싱 정보 및 상기 제2 센싱 정보를 기반으로 상기 이동 대상 객체의 방향(θ), 상기 이동 대상 객체까지의 거리(e) 및 상기 이동 대상 객체의 자세(α)를 산출하고,
하기 수식에 따라 이동 속도(v) 및 각속도(ω)를 결정하는, 무인 반송차.
(r, h k: control gain으로서 양의 실수)According to paragraph 1,
The control unit calculates the direction (θ) of the moving target object, the distance (e) to the moving target object, and the posture (α) of the moving target object based on the first sensing information and the second sensing information. do,
An unmanned guided vehicle that determines the moving speed (v) and angular speed (ω) according to the formula below.
(r, hk: positive real number as control gain)
제1 센서부로부터 이동 대상 객체의 광 송신부로부터 수신되는 광 신호에 대한 제1 센싱 정보를 획득하는 단계,
제2 센서부로부터 상기 이동 대상 객체까지의 거리에 대한 제2 센싱 정보를 획득하는 단계,
상기 제1 센싱 정보 및 상기 제2 센싱 정보를 기반으로 상기 이동 대상 객체의 위치 및 자세를 판단하는 단계 및
상기 이동 대상 객체의 위치 및 자세에 따라 제어 명령을 생성하는 단계를 포함하는
무인 반송차의 이동 제어 방법.As a method for controlling the movement of an unmanned guided vehicle,
Obtaining first sensing information about an optical signal received from the light transmitting unit of the moving object from the first sensor unit,
Obtaining second sensing information about the distance from the second sensor unit to the moving target object,
determining the location and posture of the moving object based on the first sensing information and the second sensing information; and
Comprising the step of generating a control command according to the position and posture of the moving target object.
Method for controlling the movement of an unmanned guided vehicle.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220105810 | 2022-08-23 | ||
KR1020220105810 | 2022-08-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240028311A true KR20240028311A (en) | 2024-03-05 |
Family
ID=90298846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230109607A KR20240028311A (en) | 2022-08-23 | 2023-08-22 | Automated guided vehicle and method for controlling movement of automated guided vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240028311A (en) |
-
2023
- 2023-08-22 KR KR1020230109607A patent/KR20240028311A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10583982B2 (en) | Shelf transport system, shelf transport vehicle, and shelf transport method | |
KR101319045B1 (en) | Mobile robot for autonomous freight transportation | |
JP6980637B2 (en) | Automated guided vehicle, automatic guided vehicle control method, and program | |
CN112875578A (en) | Unmanned forklift control system | |
KR102389494B1 (en) | Autonomous Forklift Truck | |
KR20200012298A (en) | Automated guided vehicle with auto positioning | |
JP2019053391A (en) | Mobile body | |
KR102300596B1 (en) | Method for narrow lane driving of autonomous forklift and apparatus for the same | |
US11269335B2 (en) | Autonomous cart | |
Liu | A laser intensity based autonomous docking approach for mobile robot recharging in unstructured environments | |
JP6684531B2 (en) | Unmanned transport system | |
JP2020154454A (en) | Autonomous mobile device, guidance system, and movement method of autonomous mobile device | |
KR20240028311A (en) | Automated guided vehicle and method for controlling movement of automated guided vehicle | |
CN114056863B (en) | Unmanned carrier system | |
KR102653633B1 (en) | Automated guided vehicle and method for controlling movement of automated guided vehicle | |
JP2019179497A (en) | Moving body and moving body system | |
CN215101784U (en) | Automatic drive fork truck | |
KR20240042394A (en) | Automated guided vehicle and method for controlling movement of automated guided vehicle | |
JPWO2019069921A1 (en) | Mobile | |
JP2021056764A (en) | Movable body | |
KR20240047672A (en) | Unmanned charging system | |
KR20230168516A (en) | Smart logistics vehicle and method of controlling the same | |
JP2020166702A (en) | Mobile body system, map creation system, route creation program and map creation program | |
KR20240031719A (en) | Smart logistics vehicle and method of controlling the same | |
KR102564884B1 (en) | Automated guided vehicle and method for controlling movement of automated guided vehicle |