KR20240028311A - Automated guided vehicle and method for controlling movement of automated guided vehicle - Google Patents

Automated guided vehicle and method for controlling movement of automated guided vehicle Download PDF

Info

Publication number
KR20240028311A
KR20240028311A KR1020230109607A KR20230109607A KR20240028311A KR 20240028311 A KR20240028311 A KR 20240028311A KR 1020230109607 A KR1020230109607 A KR 1020230109607A KR 20230109607 A KR20230109607 A KR 20230109607A KR 20240028311 A KR20240028311 A KR 20240028311A
Authority
KR
South Korea
Prior art keywords
guided vehicle
moving
unmanned guided
sensing information
target object
Prior art date
Application number
KR1020230109607A
Other languages
Korean (ko)
Inventor
황혜숙
남상은
김장희
Original Assignee
주식회사 서보스타
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 서보스타 filed Critical 주식회사 서보스타
Publication of KR20240028311A publication Critical patent/KR20240028311A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Abstract

본 개시는 무인 반송차 및 무인 반송차의 이동을 제어하기 위한 방법에 관한 것이다. 본 개시의 일 실시예에 따른 무인 반송차는 본체의 일측에서 연장 형성되며, 이동 대상 객체에 형성되는 적어도 하나의 홀에 삽입되도록 구성되는 적어도 하나의 플레이트를 구비한 적재부, 이동 대상 객체의 광 송신부으로부터 광 신호를 감지하여 제1 센싱 정보를 출력하도록 구성되는 제1 센서부, 무인 반송차를 기준으로 상기 이동 대상 객체의 거리를 측정하여 제2 센싱 정보를 출력하도록 구성되는 제2 센서부, 이동 방향 및 이동 속도의 조정이 가능하도록 구성되는 이동부 및 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체의 위치 및 자세를 판단하고, 이동 대상 객체의 위치 및 자세에 따라 이동부를 제어하도록 구성되는 제어부를 포함한다. The present disclosure relates to an unmanned guided vehicle and a method for controlling the movement of the unmanned guided vehicle. An unmanned guided vehicle according to an embodiment of the present disclosure includes a loading unit extending from one side of the main body and having at least one plate configured to be inserted into at least one hole formed in the moving target object, and a light transmitting unit of the moving target object. A first sensor unit configured to detect an optical signal from and output first sensing information, a second sensor unit configured to measure the distance of the moving target object with respect to the unmanned guided vehicle and output second sensing information, moving A moving unit configured to adjust direction and movement speed, determine the position and posture of the moving object based on first sensing information and second sensing information, and control the moving portion according to the position and posture of the moving target object. Includes a configured control unit.

Description

무인 반송차 및 무인 반송차의 이동을 제어하기 위한 방법{AUTOMATED GUIDED VEHICLE AND METHOD FOR CONTROLLING MOVEMENT OF AUTOMATED GUIDED VEHICLE}Unmanned guided vehicle and method for controlling the movement of unmanned guided vehicle {AUTOMATED GUIDED VEHICLE AND METHOD FOR CONTROLLING MOVEMENT OF AUTOMATED GUIDED VEHICLE}

본 개시는 무인 반송차 및 무인 반송차의 이동을 제어하기 위한 방법에 관한 것이다.The present disclosure relates to an unmanned guided vehicle and a method for controlling the movement of the unmanned guided vehicle.

최근, 무인 반송차(Automated Guided Vehicle; AGV)가 공장, 물류창고 등의 작업 공간에서 자재, 화물 등을 적재하고 자동 주행하여 목적 지점까지 운반하는데 널리 사용되고 있다.Recently, Automated Guided Vehicles (AGVs) have been widely used to load materials and cargo in work spaces such as factories and warehouses and transport them to destinations by automatically driving them.

이러한 무인 반송차에서 운반하고자 하는 자재, 화물 등의 위치를 측정하는 방법으로, 자재, 화물 등이 위치하는 설비 또는 바닥면에 마커 또는 QR 코드가 설치되고, 무인 반송차에 장착된 카메라를 통해 설비 또는 바닥면에 설치된 마커 또는 QR 코드를 인식함으로써, 운반하고자 하는 자재, 화물 등의 위치를 측정하는 기술이 알려져 있다.This is a method of measuring the location of materials, cargo, etc. to be transported in such unmanned guided vehicles. A marker or QR code is installed on the equipment or floor where the materials, cargo, etc. are located, and the equipment is installed through a camera mounted on the unmanned guided vehicle. Alternatively, there is a known technology for measuring the location of materials, cargo, etc. to be transported by recognizing a marker or QR code installed on the floor.

하지만, 이러한 방식은 밝기 등 주변 환경의 영향을 많이 받을 뿐만 아니라, 위치를 정밀하게 측정하는 데 한계가 있다. 또한, 운반하고자 하는 자재, 화물 등의 위치를 측정하더라도 무인 반송차에 운반하고자 하는 자재, 화물 등을 안정적으로 적재하는 데에도 어려움이 있다.However, this method is not only greatly affected by the surrounding environment, such as brightness, but also has limitations in accurately measuring the location. In addition, even if the location of the materials or cargo to be transported is measured, there is difficulty in stably loading the materials or cargo to be transported on the unmanned guided vehicle.

한편, 주차장 등의 장소에서 충전을 필요로 하는 전기차의 위치까지 배터리팩을 이동시키고 충전을 진행하는 이동식 충전 장치에 관한 연구가 진행 중이다. 이러한 이동식 충전 장치는 고정식 충전 장치에 비하여 공간 활용성 면에서 매우 유리하다. 하지만, 배터리팩은 외부 충격이나 진동 등에 민감하여 이동 중 사고의 위험이 높기 때문에 배터리팩을 운반하는 과정에서는 더욱 주의가 필요하며, 특히 배터리팩의 위치를 정밀하게 측정하여 배터리팩을 안정적으로 적재, 이송할 수 있는 기술이 필수적으로 요구된다.Meanwhile, research is in progress on a mobile charging device that moves the battery pack from a parking lot, etc. to the location of an electric vehicle that needs charging and performs charging. These mobile charging devices are very advantageous in terms of space utilization compared to stationary charging devices. However, since the battery pack is sensitive to external shocks and vibrations, there is a high risk of accidents during transportation, so extra care is required during the process of transporting the battery pack. In particular, the position of the battery pack must be precisely measured to ensure stable loading of the battery pack. Technology for transport is essential.

이처럼, 주변 환경의 영향을 받지 않으면서도 무인 반송차에 의해 운반하고자 하는 자재, 화물 등의 위치를 정밀하게 측정하여 무인 반송차에 운반하고자 하는 자재, 화물 등을 안정적으로 적재할 수 있는 방법 및 장치의 개발이 여전히 요구되고 있는 실정이다.In this way, a method and device for stably loading materials, cargo, etc. to be transported on an unmanned guided vehicle by precisely measuring the positions of materials, cargo, etc. to be transported by an unmanned guided vehicle without being affected by the surrounding environment. development is still required.

본 개시는 상술한 종래기술의 문제점을 해결하기 위한 것으로서, 운반하고자 하는 자재, 화물 등의 위치를 보다 정확히 측정하고 무인 반송차의 이동을 정밀하게 제어할 수 있는 방법을 제공하는 것에 그 목적이 있다.The present disclosure is intended to solve the problems of the prior art described above, and its purpose is to provide a method for more accurately measuring the positions of materials, cargo, etc. to be transported and precisely controlling the movement of the unmanned guided vehicle. .

또한, 무인 반송차에 운반하고자 하는 자재, 화물 등을 안정적으로 적재하고 이동시킬 수 있는 방법을 제공하는 것에도 그 목적이 있다.In addition, the purpose is to provide a method for stably loading and moving materials, cargo, etc. to be transported on an unmanned guided vehicle.

전술한 목적을 달성하기 위한 본 개시의 대표적인 구성은 다음과 같다.A representative configuration of the present disclosure to achieve the above-described objective is as follows.

본 개시의 일 실시예에 따른 무인 반송차는 본체의 일측에서 연장 형성되며, 이동 대상 객체에 형성되는 적어도 하나의 홀에 삽입되도록 구성되는 적어도 하나의 플레이트를 구비한 적재부, 이동 대상 객체의 광 송신부으로부터 광 신호를 감지하여 제1 센싱 정보를 출력하도록 구성되는 제1 센서부, 무인 반송차를 기준으로 상기 이동 대상 객체의 거리를 측정하여 제2 센싱 정보를 출력하도록 구성되는 제2 센서부, 이동 방향 및 이동 속도의 조정이 가능하도록 구성되는 이동부 및 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체의 위치 및 자세를 판단하고, 이동 대상 객체의 위치 및 자세에 따라 이동부를 제어하도록 구성되는 제어부를 포함한다. An unmanned guided vehicle according to an embodiment of the present disclosure includes a loading unit extending from one side of the main body and having at least one plate configured to be inserted into at least one hole formed in the moving target object, and a light transmitting unit of the moving target object. A first sensor unit configured to detect an optical signal from and output first sensing information, a second sensor unit configured to measure the distance of the moving target object with respect to the unmanned guided vehicle and output second sensing information, moving A moving unit configured to adjust direction and movement speed, determine the position and posture of the moving object based on first sensing information and second sensing information, and control the moving portion according to the position and posture of the moving target object. Includes a configured control unit.

본 개시의 일 실시예에 따르면, 제1 센서부는 적외선 LED를 포함하는 광 송신부로부터 주기적으로 송신되는 광 신호를 감지하도록 구성될 수 있다.According to an embodiment of the present disclosure, the first sensor unit may be configured to detect an optical signal periodically transmitted from an optical transmitter including an infrared LED.

본 개시의 일 실시예에 따르면, 제1 센서부는 PSD 센서 및 핀홀 카메라 모델을 포함하고, 제1 센싱 정보는 핀홀 카메라의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.According to an embodiment of the present disclosure, the first sensor unit includes a PSD sensor and a pinhole camera model, and the first sensing information includes location data of an optical signal that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor. can do.

본 개시의 일 실시예에 따르면, 이동 대상 객체의 위치는 무인 반송차의 위치에 대한 이동 대상 객체의 방향과 거리를 포함하고, 제어부는, 하기 수식에 따라 이동 대상 객체의 방향(θ)을 산출할 수 있다. According to an embodiment of the present disclosure, the location of the moving object includes the direction and distance of the moving object with respect to the position of the unmanned guided vehicle, and the control unit calculates the direction (θ) of the moving object according to the following formula: can do.

(f: 핀홀 카메라 모델의 초점 거리, d: 광 신호의 위치 데이터)(f: focal length of pinhole camera model, d: positional data of optical signal)

본 개시의 일 실시예에 따르면, 제2 센서부는 라이다 센서를 포함하고, 라이다 센서를 통해 제2 센싱 정보를 실시간으로 획득할 수 있다.According to an embodiment of the present disclosure, the second sensor unit includes a LiDAR sensor and can acquire second sensing information in real time through the LiDAR sensor.

본 개시의 일 실시예에 따르면, 제어부는, 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체의 방향(θ), 이동 대상 객체까지의 거리(e) 및 이동 대상 객체의 자세(α)를 산출하고, 하기 수식에 따라 이동 속도(v) 및 각속도(ω)를 결정할 수 있다.According to an embodiment of the present disclosure, the control unit determines the direction (θ) of the moving target object, the distance (e) to the moving target object, and the posture (α) of the moving target object based on the first sensing information and the second sensing information. ) can be calculated, and the moving speed (v) and angular velocity (ω) can be determined according to the formula below.

(r, k, h: control gain으로서 양의 실수)(r, k, h: positive real number as control gain)

본 개시의 일 실시예에 따른 무인 반송차의 이동을 제어하기 위한 방법은 제1 센서부로부터 이동 대상 객체의 광 송신부로부터 수신되는 광 신호에 대한 제1 센싱 정보를 획득하는 단계, 제2 센서부로부터 이동 대상 객체까지의 거리에 대한 제2 센싱 정보를 획득하는 단계, 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체의 위치 및 자세를 판단하는 단계 및 이동 대상 객체의 위치 및 자세에 따라 제어 명령을 생성하는 단계를 포함한다.A method for controlling the movement of an unmanned guided vehicle according to an embodiment of the present disclosure includes obtaining first sensing information about an optical signal received from a light transmitting unit of a moving object from a first sensor unit, a second sensor unit Obtaining second sensing information about the distance to the moving target object, determining the location and posture of the moving target object based on the first sensing information and the second sensing information, and determining the location and posture of the moving target object. and generating control commands accordingly.

본 개시의 일 실시예에 따르면, 이동 대상 객체로부터 수신되는 광 신호에 대한 제1 센싱 정보 및 이동 대상 객체까지의 거리 등에 대한 제2 센싱 정보를 모두 고려하여 이동 대상 객체의 위치 및 자세를 판단함으로써, 보다 정밀하게 이동 대상 객체의 상대적인 위치 및 자세를 측정할 수 있으며, 이를 기반으로 무인 반송차의 이동을 정밀하게 제어할 수 있다.According to an embodiment of the present disclosure, the location and posture of the moving object are determined by considering both the first sensing information about the light signal received from the moving object and the second sensing information about the distance to the moving object, etc. , the relative position and posture of the moving object can be measured more precisely, and based on this, the movement of the unmanned guided vehicle can be precisely controlled.

또한, 본 개시의 일 실시예에 따르면, 자재, 화물 등의 이동 대상 객체를 안착시키고 들어올릴 수 있는 적재부를 통해 이동 대상 객체를 안정적으로 적재하고 운반할 수 있다.In addition, according to an embodiment of the present disclosure, moving objects, such as materials and cargo, can be stably loaded and transported through a loading unit that can seat and lift moving objects.

도 1은 본 개시의 일 실시예에 따라 이동 대상 객체에 접근하는 무인 반송차의 모습을 예시적으로 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 무인 반송차의 개략적인 모습을 나타내는 사시도이다.
도 3은 본 개시의 일 실시예에 따른 무인 반송차의 기능적 구성을 개략적으로 도시한 블록도이다.
도 4는 본 개시의 일 실시예에 따른 무인 반송차의 제어부의 세부 구성을 개략적으로 도시한 블록도이다.
도 5는 본 개시의 일 실시예에 따라 무인 반송차에서 이동 대상 객체의 위치를 판단하는 모습을 예시적으로 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따라 제어 명령을 생성하는 모습을 예시적으로 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따른 무인 반송차를 전기차의 충전을 위한 배터리팩의 이동에 활용하는 모습을 예시적으로 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따라 이동 대상 객체가 지정되는 모습을 예시적으로 나타내는 도면이다.
도 9는 본 개시의 일 실시예에 따라 무인 반송차의 이동을 제어하는 과정을 예시적으로 보여주는 동작 흐름도이다.
1 is a diagram illustrating an unmanned guided vehicle approaching a moving object according to an embodiment of the present disclosure.
Figure 2 is a perspective view schematically showing an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 3 is a block diagram schematically showing the functional configuration of an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 4 is a block diagram schematically showing the detailed configuration of a control unit of an unmanned guided vehicle according to an embodiment of the present disclosure.
FIG. 5 is a diagram exemplarily showing the location of a moving object in an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 6 is a diagram illustrating the creation of a control command according to an embodiment of the present disclosure.
FIG. 7 is a diagram illustrating the use of an unmanned guided vehicle to move a battery pack for charging an electric vehicle according to an embodiment of the present disclosure.
FIG. 8 is a diagram exemplarily showing how a movement target object is designated according to an embodiment of the present disclosure.
Figure 9 is an operation flowchart exemplarily showing a process of controlling the movement of an unmanned guided vehicle according to an embodiment of the present disclosure.

이하에서 기술되는 실시예들은 본 개시의 기술적 사상을 설명하기 위한 목적으로 예시된 것으로, 본 개시의 권리범위가 이하에 제시되는 실시예들이나 이에 대한 구체적인 설명으로 제한되는 것은 아니다.The embodiments described below are illustrative for the purpose of explaining the technical idea of the present disclosure, and the scope of the present disclosure is not limited to the embodiments or detailed descriptions presented below.

본 명세서에서 사용되는 모든 기술적 용어들 및 과학적 용어들은 달리 정의되지 않는 한 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 가지며, 본 명세서에서 사용되는 모든 용어들은 본 개시를 더욱 명확히 설명하기 위한 목적으로 선택된 것으로서 본 개시의 권리범위를 제한하기 위해 선택된 것이 아니다. 본 명세서에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다. 또한, 본 명세서에서 사용한 "제1", "제2" 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되는 것으로서, 상기 구성요소들은 이러한 용어에 의해 한정되지 않는다.All technical and scientific terms used in this specification, unless otherwise defined, have meanings commonly understood by those skilled in the art to which this disclosure pertains, and all terms used in this specification are defined in this disclosure. It was selected for the purpose of explaining more clearly and was not selected to limit the scope of the present disclosure. As used herein, expressions such as “comprising,” “comprising,” “having,” and the like are open terms implying the possibility of including other embodiments, unless otherwise stated in the phrase or sentence containing the expression. -ended terms). In addition, terms containing ordinal numbers, such as “first”, “second”, etc., used in this specification may be used to describe various components, but are used only for the purpose of distinguishing one component from another component. As such, the components are not limited by these terms.

이하, 첨부한 도면을 참조하여 본 개시의 바람직한 실시예에 대해 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 상세하게 설명한다. 첨부된 도면에서, 동일하거나 대응하는 구성요소는 동일한 참조부호를 통해 지시되어 있으며, 이하의 실시예들의 설명에 있어서 동일하거나 대응하는 구성요소는 중복하여 기술하는 것이 생략될 수 있다. 다만, 아래의 설명에서 특정 구성요소에 관한 기술이 생략되어 있더라도, 이는 그러한 구성요소가 해당 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, with reference to the attached drawings, preferred embodiments of the present disclosure will be described in detail so that those skilled in the art can easily implement them. In the accompanying drawings, identical or corresponding components are indicated by the same reference numerals, and in the description of the following embodiments, duplicate descriptions of identical or corresponding components may be omitted. However, even if descriptions of specific components are omitted in the description below, this does not mean that such components are not included in the embodiment.

도 1은 본 개시의 일 실시예에 따라 이동 대상 객체에 접근하는 무인 반송차의 모습을 예시적으로 나타내는 도면이다.1 is a diagram illustrating an unmanned guided vehicle approaching a moving object according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 이동 대상 객체(200)는 무인 반송차(100)에 적재되어 이동시킬 필요가 있는 객체를 지칭한다. 이동 대상 객체(200)는, 예를 들어 자재, 화물 내지 이를 비치하기 위한 팔레트일 수 있으며, 전기차의 충전을 위한 배터리팩일 수도 있다. 일 실시예에서, 이동 대상 객체(200)는 무인 반송차(100)에 안정적으로 탑재될 수 있도록 무인 반송차(100)의 적재부(110)가 삽입될 수 있는 구조로 형성될 수 있다. 일 실시예에서, 이동 대상 객체(200)의 하부에는 무인 반송차(100)의 적재부(110)가 삽입될 수 있도록 구성되는 적어도 하나의 홀이 형성될 수 있다. 예를 들어, 무인 반송차(100)의 적재부(110)가 포크 형태로 형성되는 경우에는 그에 상응하여 하나 또는 두 개의 홀이 형성될 수 있으며, 적재부(110)가 판 형상으로 이루어진 경우에는 하나의 홀이 형성될 수 있다.The moving object 200 according to an embodiment of the present disclosure refers to an object that is loaded on the unmanned guided vehicle 100 and needs to be moved. The moving object 200 may be, for example, materials, cargo, or a pallet for storing them, or it may be a battery pack for charging an electric vehicle. In one embodiment, the moving object 200 may be formed in a structure into which the loading part 110 of the unmanned guided vehicle 100 can be inserted so that it can be stably mounted on the unmanned guided vehicle 100. In one embodiment, at least one hole configured to allow the loading unit 110 of the unmanned guided vehicle 100 to be inserted may be formed in the lower part of the moving object 200. For example, when the loading part 110 of the unmanned guided vehicle 100 is formed in the shape of a fork, one or two holes may be formed correspondingly, and if the loading part 110 is formed in a plate shape, One hole may be formed.

본 개시의 일 실시예에 따르면, 이동 대상 객체(200)는 광 송신부를 포함할 수 있다. 일 실시예에서, 광 송신부는 이동 대상 객체(200)의 일측, 예를 들어 이동 대상 객체(200)의 전면부에 설치되어 광 신호를 주기적으로 송신하는 기능을 수행할 수 있다. 일 실시예에 따르면, 광 송신부는 LED로 구성될 수 있다. 여기서, LED는 백색광, 적색광, 청색광, 녹색광 또는 적외선 LED가 모두 사용될 수 있으나, 바람직하게는, 외란을 쉽게 제거할 수 있는 적외선 LED가 사용될 수 있다. 일 실시예에서, 이동 대상 객체(200)의 광 송신부는 통합 제어 시스템에 의해 활성화 또는 비활성화될 수 있다.According to an embodiment of the present disclosure, the moving object 200 may include an optical transmitter. In one embodiment, the light transmitting unit may be installed on one side of the moving object 200, for example, in the front part of the moving object 200, and may perform a function of periodically transmitting an optical signal. According to one embodiment, the light transmitting unit may be composed of LED. Here, the LED may be any of white light, red light, blue light, green light, or infrared LED, but preferably, infrared LED that can easily remove disturbance may be used. In one embodiment, the light transmitting unit of the moving object 200 may be activated or deactivated by an integrated control system.

본 개시의 일 실시예에서는 이동 대상 객체(200)에 광 송신부가 구비되는 것으로 예시하였으나, 이와 달리 별도의 설비에 광 송신부가 구비되고 이동 대상 객체(200)가 해당 설비에 비치되는 것도 가능하다.In one embodiment of the present disclosure, it is illustrated that the moving object 200 is provided with an optical transmitter. However, differently from this, it is also possible that the optical transmitter is provided in a separate facility and the moving object 200 is provided in the corresponding facility.

도 2는 본 개시의 일 실시예에 따른 무인 반송차의 개략적인 모습을 나타내는 사시도이고, 도 3은 본 개시의 일 실시예에 따른 무인 반송차의 기능적 구성을 개략적으로 도시한 블록도이다.FIG. 2 is a perspective view schematically showing an unmanned guided vehicle according to an embodiment of the present disclosure, and FIG. 3 is a block diagram schematically showing the functional configuration of an unmanned guided vehicle according to an embodiment of the present disclosure.

도 2 및 3을 참조하면, 본 개시의 일 실시예에 따른 무인 반송차(100)는 객체의 적재, 이송 및 하역 등을 위한 무인 자율 주행 기기로서, 적재부(110), 제1 센서부(120), 제2 센서부(130), 이동부(140) 및 제어부(150)를 포함할 수 있다. 도 3에 도시된 구성요소들은 무인 반송차(100)의 모든 기능을 반영한 것이 아니어서, 무인 반송차(100)는 도시된 구성요소들 보다 많은 구성요소를 포함하거나 그보다 적은 구성요소를 포함할 수 있다. 예를 들면, 무인 반송차(100)는 무인 반송차(100)의 전면에 설치되어 무인 반송차(100)의 주변 환경의 이미지 정보를 수집하는 기능을 수행하는 이미지 센서(미도시)를 포함할 수 있다. 또한, 무인 반송차(100)는 무인 반송차(100)의 후방 내지 측면에 설치되어 장애물을 감지하는 기능을 수행하는 장애물 감지 센서(미도시)를 더 포함할 수 있다.Referring to FIGS. 2 and 3, the unmanned guided vehicle 100 according to an embodiment of the present disclosure is an unmanned autonomous driving device for loading, transporting, and unloading objects, and includes a loading unit 110 and a first sensor unit ( 120), a second sensor unit 130, a moving unit 140, and a control unit 150. The components shown in FIG. 3 do not reflect all functions of the unmanned guided vehicle 100, so the unmanned guided vehicle 100 may include more or fewer components than the illustrated components. there is. For example, the unmanned guided vehicle 100 may include an image sensor (not shown) installed on the front of the unmanned guided vehicle 100 to collect image information of the surrounding environment of the unmanned guided vehicle 100. You can. Additionally, the unmanned guided vehicle 100 may further include an obstacle detection sensor (not shown) that is installed at the rear or side of the unmanned guided vehicle 100 and performs a function of detecting obstacles.

본 개시의 일 실시예에 따른 무인 반송차(100)의 적재부(110)는 이동 대상 객체(200)가 적재되는 부분으로, 이동 대상 객체(200)를 안정적으로 로딩 또는 언로딩할 수 있도록 구성될 수 있다. 일 실시예에서, 적재부(110)는 무인 반송차(100)의 본체의 일측, 예를 들어 무인 반송차(100)의 본체의 전면부에 연장 형성될 수 있다.The loading unit 110 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure is a part where the moving object 200 is loaded, and is configured to stably load or unload the moving object 200. It can be. In one embodiment, the loading unit 110 may be formed to extend from one side of the main body of the unmanned guided vehicle 100, for example, to the front part of the main body of the unmanned guided vehicle 100.

본 개시의 일 실시예 따르면, 적재부(110)는 이동 대상 객체(200)에 형성되는 적어도 하나의 홀에 삽입되도록 구성되는 적어도 하나의 플레이트를 구비할 수 있다. 도시된 실시예에서, 적재부(110)는 2개의 플레이트를 포함하는 포크 형상으로 이루어져 있으나, 본 개시가 이에 한정되는 것은 아니다. 적재부(110)의 크기 및 형상은 이동 대상 객체의 종류, 크기, 형상 등에 따라 변경될 수 있는 것으로, 예를 들어 적재부(110)는 하나의 플레이트로 구성된 판 형상으로 이루어진 수도 있다.According to one embodiment of the present disclosure, the loading unit 110 may include at least one plate configured to be inserted into at least one hole formed in the moving object 200. In the illustrated embodiment, the loading unit 110 has a fork shape including two plates, but the present disclosure is not limited thereto. The size and shape of the loading unit 110 can be changed depending on the type, size, and shape of the object to be moved. For example, the loading unit 110 may have a plate shape made of one plate.

일 실시예에서, 적재부(110)는 본체에 상하로 이동 가능하게 설치될 수 있다. 이러한 구성에 의해서, 무인 반송차(100)는 적재부(110)의 상에 이동 대상 객체(200)를 안정적으로 로딩하여 이동 대상 객체(200)를 목적 지점까지 이동시킬 수 있다. 구체적으로, 적재부(110)를 이동 대상 객체(200)의 하부(즉, 이동 대상 객체(200)에 형성되는 적어도 하나의 홀)에 삽입한 후 적재부(110)를 상승시키면, 적재부(110) 상면에 의해 이동 대상 객체(200)가 지지되는 상태로 들어올려지면서 적재부(110)에 이동 대상 객체(200)가 안정적으로 적재된다. 이동 대상 객체(200)가 적재부(110)에 안정적으로 적재된 상태에서 무인 반송차(100)가 목적 지점에 도달하게 되면, 적재부(110)가 하강하여 이동 대상 객체(200)를 바닥(예컨대, 지면)에 내려놓고 이동 대상 객체(200)에 형성되는 적어도 하나의 홀에서 빠져나오면서 이동 대상 객체(200)가 목적 지점에 언로딩될 수 있다.In one embodiment, the loading unit 110 may be installed on the main body to be movable up and down. With this configuration, the unmanned guided vehicle 100 can stably load the moving object 200 on the loading unit 110 and move the moving object 200 to the destination point. Specifically, when the loading unit 110 is inserted into the lower part of the moving object 200 (i.e., at least one hole formed in the moving object 200) and the loading unit 110 is raised, the loading unit ( 110) As the movable object 200 is lifted in a state supported by the upper surface, the movable object 200 is stably loaded on the loading unit 110. When the unmanned guided vehicle 100 reaches the destination point while the moving object 200 is stably loaded on the loading unit 110, the loading unit 110 descends and moves the moving object 200 to the floor ( For example, the moving object 200 may be unloaded at the destination point by putting it down on the ground and exiting at least one hole formed in the moving object 200.

한편, 이동 대상 객체(200)를 무인 반송차(100)의 적재부(110)에 안정적으로 적재하기 위해서는 이동 대상 객체(200)의 위치, 보다 구체적으로는 이동 대상 객체(200)에 형성되는 홀의 위치를 정확하게 검출하고, 적재부(110)를 해당 위치로 이동 제어해야 한다. 이하에서는, 이동 대상 객체(200), 즉 이동 대상 객체(200)에 형성되는 적어도 하나의 홀의 위치와 자세를 정확하게 감지하기 위한 구성을 상세히 설명한다.Meanwhile, in order to stably load the moving object 200 on the loading unit 110 of the unmanned guided vehicle 100, the location of the moving object 200, more specifically, the hole formed in the moving object 200 The location must be accurately detected and the loading unit 110 must be controlled to move to the corresponding location. Hereinafter, a configuration for accurately detecting the position and posture of the moving object 200, that is, at least one hole formed in the moving object 200, will be described in detail.

본 개시의 일 실시예에 따른 무인 반송차(100)의 제1 센서부(120)는, 수광 범위 내에 위치하는 이동 대상 객체(200)에서 송신하는 광 신호를 감지하는 기능을 수행할 수 있다. 일 실시예에서, 제1 센서부(120)는, 이동 대상 객체(200)의 광 송신부로부터 송신되는 광 신호를 감지하여 광 신호에 대한 제1 센싱 정보를 출력할 수 있다.The first sensor unit 120 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure may perform a function of detecting an optical signal transmitted from a moving target object 200 located within a light receiving range. In one embodiment, the first sensor unit 120 may detect an optical signal transmitted from an optical transmitter of the moving object 200 and output first sensing information about the optical signal.

본 개시의 일 실시예에 따르면, 제1 센서부(120)는 PSD 센서를 포함할 수 있다. PSD 센서는 실리콘 표면에 P-I-N 접합을 한 포토 다이오드의 일종으로, 횡방향 광기전력 효과를 이용하여 PSD 센서의 측정면에 결상되는 광 신호의 위치를 측정할 수 있다. 일 실시예에서, PSD 센서는 1차원 PSD 센서일 수 있다.According to one embodiment of the present disclosure, the first sensor unit 120 may include a PSD sensor. The PSD sensor is a type of photodiode with a P-I-N junction on the silicon surface, and can measure the position of the optical signal formed on the measurement surface of the PSD sensor using the transverse photovoltaic effect. In one embodiment, the PSD sensor may be a one-dimensional PSD sensor.

본 개시의 일 실시예에 따르면, 제1 센서부(120)에는 핀홀 카메라 모델을 포함할 수 있다. 핀홀 카메라 모델은 핀홀을 통과한 광이 초점거리 뒤 상평면에 맺히도록 구성되며, 일 실시예에서, 핀홀 카메라 모델의 상평면은 PSD 센서의 측정면으로 구성될 수 있다. 이에 따라, 핀홀 카메라 모델의 핀홀을 통과한 광 신호가 핀홀 카메라 모델의 초점 거리 뒤에 위치하는 PSD 센서의 측정면에 결상될 수 있으며, PSD 센서는 측정면에 결상되는 광 신호의 위치를 측정할 수 있다.According to an embodiment of the present disclosure, the first sensor unit 120 may include a pinhole camera model. The pinhole camera model is configured so that light passing through the pinhole is focused on the image plane behind the focal distance. In one embodiment, the image plane of the pinhole camera model may be configured as the measurement plane of the PSD sensor. Accordingly, the optical signal passing through the pinhole of the pinhole camera model can be imaged on the measurement surface of the PSD sensor located behind the focal distance of the pinhole camera model, and the PSD sensor can measure the position of the optical signal imaged on the measurement surface. there is.

본 개시의 일 실시예에 따른 무인 반송차(100)의 제2 센서부(130)는, 무인 반송차(100)의 일측에 설치되어 무인 반송차(100)를 기준으로 주변 객체까지의 거리를 측정하는 기능을 수행할 수 있다. 일 실시예에서, 제2 센서부(130)는 무인 반송차(100)에서 이동 대상 객체(200)까지의 거리를 측정하고, 제2 센싱 정보를 출력할 수 있다. 일 실시예에서, 제2 센서부(130)는 무인 반송차(100)의 적재부(110)의 길이를 고려하여 무인 반송차(100)에서 이동 대상 객체(200)까지의 거리를 측정할 수 있다. 예컨대, 제2 센서부(130)는 무인 반송차(100)의 적재부(110)의 단부에서 이동 대상 객체(200)에 형성되는 홀까지의 거리를 측정할 수 있다. 일 실시예에서, 제2 센서부(130)는 무인 반송차(100)의 일측, 예를 들어 무인 반송차(100)의 전면부에 설치될 수 있다. 예를 들어, 제2 센서부(130)는 적재부(110)의 단부에 설치될 수 있으며, 적재부(110)가 포크 형태인 경우 각각의 플레이트 단부에 설치될 수 있다.The second sensor unit 130 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure is installed on one side of the unmanned guided vehicle 100 and measures the distance to surrounding objects based on the unmanned guided vehicle 100. It can perform a measuring function. In one embodiment, the second sensor unit 130 may measure the distance from the unmanned guided vehicle 100 to the moving object 200 and output second sensing information. In one embodiment, the second sensor unit 130 may measure the distance from the unmanned guided vehicle 100 to the moving object 200 in consideration of the length of the loading unit 110 of the unmanned guided vehicle 100. there is. For example, the second sensor unit 130 may measure the distance from the end of the loading unit 110 of the unmanned guided vehicle 100 to the hole formed in the moving object 200. In one embodiment, the second sensor unit 130 may be installed on one side of the unmanned guided vehicle 100, for example, on the front part of the unmanned guided vehicle 100. For example, the second sensor unit 130 may be installed at the end of the loading unit 110, and if the loading unit 110 has a fork shape, it may be installed at the end of each plate.

본 개시의 일 실시예에 따르면, 제2 센서부(130)는 라이다(Light Detection And Ranging, LiDAR) 센서를 포함할 수 있다. 라이다 센서는 발광 소자와 수광 소자를 구비하여, 레이저 파장의 빛을 외부로 방출하고, 이 방출된 빛이 주위의 대상 물체에서 반사되어 되돌아오는 데 소요되는 시간을 측정하여 대상 물체까지의 거리 등을 파악하는, 소위 이동 시간차 원리를 이용한 장치이다. 일 실시예에서, 라이다 센서는 무인 반송차(100)를 기준으로 이동 대상 객체(200)의 거리를 측정할 수 있으며, 라이다 센서에 의해서 측정되는 거리에 관한 정보는 후술하는 제어부(150)에 전달될 수 있다. 여기서, 라이다 센서를 통해 측정되는 정보는 3D 공간에서 점들의 집합 형태로 나타내는 포인트 클라우드(point cloud) 정보일 수 있다.According to one embodiment of the present disclosure, the second sensor unit 130 may include a Light Detection And Ranging (LiDAR) sensor. The LiDAR sensor is equipped with a light-emitting element and a light-receiving element, emits light of a laser wavelength to the outside, and measures the time it takes for this emitted light to reflect from the surrounding target object and return, such as the distance to the target object, etc. It is a device that uses the so-called travel time difference principle to determine. In one embodiment, the LIDAR sensor can measure the distance of the moving object 200 based on the unmanned guided vehicle 100, and information about the distance measured by the LIDAR sensor is stored in the control unit 150, which will be described later. can be passed on. Here, the information measured through the LIDAR sensor may be point cloud information expressed in the form of a set of points in 3D space.

본 개시의 일 실시예에 따른 무인 반송차(100)의 이동부(140)는, 무인 반송차(100)의 이동 방향 및 이동 속도를 조정하는 기능을 수행할 수 있다. 일 실시예에서, 이동부(140)는 무인 반송차(100)의 본체 바닥면에 적어도 한 개가 설치될 수 있다. 이동부(140)는 휠, 모터, 엔코더 및 모터 드라이브로 구성될 수 있으며, 각기 독립적으로 구동되도록 구성될 수 있다. 예컨대, 이동부(140)는 무인 반송차(100) 전방부에 2개, 후방부에 2개, 총 4개 설치될 수 있으며, 무인 반송차(100) 본체의 바닥면의 중심을 기준으로 대칭적으로 설치될 수 있다. 이동부(140) 각각은 본체 바닥면에 대하여 수직 방향(즉, 지면에 수직한 방향)을 기준으로 회전 가능하도록 설치될 수 있다. 이에 따라, 무인 반송차(100)는 직진 방향 이동 뿐만 아니라 이동부(140)를 회전시켜 측방향으로의 이동도 가능하게 된다. The moving unit 140 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure may perform a function of adjusting the moving direction and moving speed of the unmanned guided vehicle 100. In one embodiment, at least one moving unit 140 may be installed on the bottom of the main body of the unmanned guided vehicle 100. The moving unit 140 may be composed of a wheel, a motor, an encoder, and a motor drive, and each may be configured to be driven independently. For example, a total of four moving units 140 may be installed, two at the front and two at the rear of the unmanned guided vehicle 100, and are symmetrical with respect to the center of the bottom surface of the unmanned guided vehicle 100 main body. can be installed remotely. Each of the moving units 140 may be installed to be rotatable relative to a direction perpendicular to the bottom surface of the main body (i.e., a direction perpendicular to the ground). Accordingly, the unmanned guided vehicle 100 can move not only in a straight direction but also in a lateral direction by rotating the moving unit 140.

본 개시의 일 실시예에 따른 무인 반송차(100)의 제어부(150)는, 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체(200)의 위치 및 자세를 판단하고, 이에 따라 이동부(130)를 제어하는 기능을 수행할 수 있다.The control unit 150 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure determines the location and posture of the moving object 200 based on the first sensing information and the second sensing information, and moves accordingly. The function of controlling the unit 130 can be performed.

도 4는 본 개시의 일 실시예에 따른 무인 반송차의 제어부의 세부 구성을 개략적으로 도시한 블록도이다.Figure 4 is a block diagram schematically showing the detailed configuration of a control unit of an unmanned guided vehicle according to an embodiment of the present disclosure.

도 4를 참조하면, 본 개시의 일 실시에 따른 무인 반송차(100)의 제어부(150)는 센싱 정보 획득부(152), 위치 판단부(154), 자세 판단부(156) 및 이동 명령부(158)를 포함할 수 있다. 도 4에 도시된 구성요소들은 제어부(150)의 모든 기능을 반영한 것이 아니고, 필수적인 것도 아니어서, 제어부(150)는 도시된 구성요소들 보다 많은 구성요소를 포함하거나 그보다 적은 구성요소를 포함할 수 있다.Referring to FIG. 4, the control unit 150 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure includes a sensing information acquisition unit 152, a position determination unit 154, a posture determination unit 156, and a movement command unit. It may include (158). The components shown in FIG. 4 do not reflect all functions of the control unit 150 and are not essential, so the control unit 150 may include more or fewer components than the components shown. there is.

본 개시의 일 실시예에 따르면, 센싱 정보 획득부(152), 위치 판단부(154), 자세 판단부(156) 및 이동 명령부(158)는 그 중 적어도 일부가 외부 장치(미도시)와 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 장치, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 제어부(150)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 위치 제어부(150)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 개시에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present disclosure, at least some of the sensing information acquisition unit 152, the position determination unit 154, the posture determination unit 156, and the movement command unit 158 are connected to an external device (not shown). These may be communicating program modules. These program modules may be included in the control unit 150 in the form of operating devices, application modules, and other program modules, and may be physically stored in various known memory devices. Additionally, these program modules may be stored in a remote memory device capable of communicating with the location control unit 150. Meanwhile, these program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present disclosure.

본 개시의 일 실시예에 따르면, 센싱 정보 획득부(152)는 제1 센싱 정보를 획득하는 기능을 수행할 수 있다. 앞서 설명한 바와 같이, 무인 반송차(100)는 제1 센서부(120)에 의해서 이동 대상 객체(200)의 광 송신부(즉, 적외선 LED)에서 송신되는 광 신호를 검출할 수 있으며, 센싱 정보 획득부(152)는 이로부터 광 신호에 대한 제1 센싱 정보를 획득할 수 있다. 일 실시예에서, 제1 센싱 정보는 핀홀 카메라 모델의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.According to an embodiment of the present disclosure, the sensing information acquisition unit 152 may perform a function of acquiring first sensing information. As described above, the unmanned guided vehicle 100 can detect an optical signal transmitted from the light transmitting unit (i.e., infrared LED) of the moving object 200 by the first sensor unit 120 and obtain sensing information. The unit 152 may obtain first sensing information about the optical signal from this. In one embodiment, the first sensing information may include location data of an optical signal that passes through a pinhole of the pinhole camera model and is imaged on the measurement surface of the PSD sensor.

본 개시의 일 실시예에 따르면, 센싱 정보 획득부(152)는 제2 센싱 정보를 획득하는 기능을 수행할 수 있다. 앞서 설명한 바와 같이, 무인 반송차(100)는 제2 센서부(130)에 의해서 무인 반송차(100)에서 무인 반송차(100) 주변 객체까지의 거리를 측정할 수 있으며, 센싱 정보 획득부(142)는 이로부터 무인 반송차(100)를 기준으로 이동 대상 객체(200)의 거리에 관한 제2 센싱 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the sensing information acquisition unit 152 may perform a function of acquiring second sensing information. As described above, the unmanned guided vehicle 100 can measure the distance from the unmanned guided vehicle 100 to an object surrounding the unmanned guided vehicle 100 by the second sensor unit 130, and the sensing information acquisition unit ( 142) can obtain second sensing information about the distance of the moving object 200 with respect to the unmanned guided vehicle 100 from this.

본 개시의 일 실시예에 따르면, 위치 판단부(154)는 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체(200)의 위치를 판단하는 기능을 수행할 수 있다. 일 실시예에서, 이동 대상 객체(200)의 위치는 무인 반송차(100)의 위치에 대한 이동 대상 객체(200)의 광 송신부의 위치일 수 있으며, 광 송신부의 위치는 무인 반송차(100)의 현재의 위치에 대한 광 송신부의 상대적인 방향과 거리에 관한 정보를 포함할 수 있다. 한편, 광 송신부가 이동 대상 객체(200)가 아닌 이동 대상 객체(200)가 비치된 설비에 설치되는 경우에는 무인 반송차(100)의 위치에 대한 설비의 상대적인 위치가 산출될 수 있다.According to an embodiment of the present disclosure, the location determination unit 154 may perform a function of determining the location of the moving target object 200 based on the first sensing information and the second sensing information. In one embodiment, the location of the moving target object 200 may be the location of the light transmitting unit of the moving target object 200 relative to the location of the unmanned guided vehicle 100, and the location of the light transmitting unit may be the location of the unmanned guided vehicle 100. It may include information about the relative direction and distance of the optical transmitter with respect to its current location. Meanwhile, when the optical transmitter is installed in a facility equipped with the moving object 200 rather than the moving target object 200, the relative position of the facility with respect to the position of the unmanned guided vehicle 100 can be calculated.

본 개시의 일 실시예에 따르면, 위치 판단부(154)는 제1 센싱 정보를 기반으로 이동 대상 객체(200)의 방향을 판단할 수 있다. 일 실시예에서, 위치 판단부(154)는 무인 반송차(100)의 진행 방향에 대한 광 신호의 배향 각도를 산출하는 방식으로 광 신호의 방향, 즉 이동 대상 객체(200)의 광 송신부의 방향을 산출할 수 있다.According to an embodiment of the present disclosure, the location determination unit 154 may determine the direction of the moving target object 200 based on the first sensing information. In one embodiment, the position determination unit 154 calculates the orientation angle of the optical signal with respect to the direction of travel of the unmanned guided vehicle 100, that is, the direction of the optical signal, that is, the direction of the light transmitting unit of the moving target object 200. can be calculated.

본 개시의 일 실시예에 따르면, 위치 판단부(154)는 제2 센싱 정보를 기반으로 이동 대상 객체(200)의 거리를 판단할 수 있다. 일 실시예에서, 위치 판단부(154)는 이동 대상 객체(200)의 광 송신부의 방향을 참조하여 이동 대상 객체(200)의 광 송신부까지의 거리를 산출할 수 있다.According to an embodiment of the present disclosure, the location determination unit 154 may determine the distance of the moving target object 200 based on the second sensing information. In one embodiment, the position determination unit 154 may calculate the distance to the light transmitting unit of the moving object 200 by referring to the direction of the light transmitting unit of the moving object 200.

도 5는 본 개시의 일 실시예에 따라 무인 반송차에서 이동 대상 객체의 위치를 판단하는 모습을 예시적으로 나타내는 도면이다. 여기서, 이동 대상 객체의 위치는, 무인 반송차(100)의 위치에 대한 이동 대상 객체(200)의 광 송신부의 상대적인 위치로서, 이동 대상 객체(200)의 광 송신부(210)의 방향과 거리를 포함한다.FIG. 5 is a diagram exemplarily showing the location of a moving object in an unmanned guided vehicle according to an embodiment of the present disclosure. Here, the position of the moving target object is the relative position of the light transmitting unit of the moving target object 200 with respect to the position of the unmanned guided vehicle 100, and is determined by the direction and distance of the light transmitting unit 210 of the moving target object 200. Includes.

도 5를 참조하면, 위치 판단부(154)는 제1 센서부(120)에서 검출되는 광 신호에 대한 제1 센싱 정보를 기반으로 이동 대상 객체(200)의 방향, 구체적으로 이동 대상 객체(200)의 광 송신부(210)의 방향(θ)을 산출할 수 있다. 본 개시의 일 실시예에 따르면, 위치 판단부(154)는 아래 수학식 1에 따라 이동 대상 객체(200)의 광 송신부(210)의 방향(θ), 즉 무인 반송차(100)의 진행 방향에 대한 광 신호의 배향 각도를 산출할 수 있다.Referring to FIG. 5, the position determination unit 154 determines the direction of the moving object 200, specifically the moving object 200, based on the first sensing information about the light signal detected by the first sensor unit 120. ) of the light transmitting unit 210 can be calculated (θ). According to an embodiment of the present disclosure, the position determination unit 154 determines the direction (θ) of the light transmitting unit 210 of the moving target object 200, that is, the moving direction of the unmanned guided vehicle 100, according to Equation 1 below: The orientation angle of the optical signal can be calculated.

[수학식 1][Equation 1]

여기서, f는 핀홀 카메라 모델의 초점 거리로, 핀홀(121)에서 PSD 센서(123)의 측정면까지의 거리이다. d는 광 신호의 위치 데이터로, 제1 센서부(120)에서 수신, 검출한 광 신호에 대한 제1 센싱 정보로부터 획득할 수 있다. 구체적으로, 이동 대상 객체(200)의 광 송신부(즉, 적외선 LED)(210)에서 송신되는 광 신호가 핀홀 카메라 모델의 핀홀(121)을 통과하여 PSD 센서(123)의 측정면의 한 점에 입사되고, PSD 센서(123)가 PSD 센서(123)의 측정면에 입사된 광 신호의 위치를 측정하여 광 신호의 위치 데이터(d)를 출력할 수 있다.Here, f is the focal length of the pinhole camera model and is the distance from the pinhole 121 to the measurement surface of the PSD sensor 123. d is the location data of the optical signal, which can be obtained from the first sensing information about the optical signal received and detected by the first sensor unit 120. Specifically, the optical signal transmitted from the light transmitting unit (i.e., infrared LED) 210 of the moving object 200 passes through the pinhole 121 of the pinhole camera model and reaches a point on the measurement surface of the PSD sensor 123. incident, the PSD sensor 123 may measure the position of the optical signal incident on the measurement surface of the PSD sensor 123 and output position data (d) of the optical signal.

일 실시예에서, 위치 판단부(154)는 이동 대상 객체(200)의 광 송신부(210)의 방향(θ)을 참조하여 이동 대상 객체(200)의 거리, 구체적으로 무인 반송차(100)에서 이동 대상 객체(200)의 광 송신부(210)까지의 거리(rIR)를 산출할 수 있다. 구체적으로, 무인 반송차(100)의 제2 센서부(130)에서 측정되는 거리 데이터 중에서 이동 대상 객체(200)의 광 송신부(210)의 방향(θ)에 대한 거리 데이터를 무인 반송차(100)에서 이동 대상 객체(200)의 광 송신부까지의 거리로서 획득할 수 있다.In one embodiment, the position determination unit 154 determines the distance of the moving object 200, specifically the unmanned guided vehicle 100, by referring to the direction θ of the light transmitting unit 210 of the moving object 200. The distance (r IR ) of the moving object 200 to the light transmitting unit 210 can be calculated. Specifically, among the distance data measured by the second sensor unit 130 of the unmanned guided vehicle 100, the distance data regarding the direction θ of the light transmitting unit 210 of the moving object 200 is included in the unmanned guided vehicle 100. ) can be obtained as the distance from the light transmitting unit of the moving object 200.

본 개시의 일 실시예에 따르면, 위치 판단부(154)는 무인 반송차(100)의 목표 위치까지의 도달 정확도를 높이기 위해, 이동 과정에서 실시간으로 또는 기 설정된 시간 간격으로 무인 반송차(100)의 현재의 위치에 대한 이동 대상 객체(200)의 상대적인 위치(방향과 거리)를 판단할 수 있으며, 위치 판단부(154)에서 판단된 이동 대상 객체(200), 즉 이동 대상 객체(200)의 광 송신부의 상대적인 위치는 후술하는 이동 명령부(158)에 전달될 수 있다.According to an embodiment of the present disclosure, in order to increase the accuracy of reaching the target location of the unmanned guided vehicle 100, the position determination unit 154 moves the unmanned guided vehicle 100 in real time or at preset time intervals during the movement process. It is possible to determine the relative position (direction and distance) of the moving target object 200 with respect to the current position of the moving target object 200, that is, the moving target object 200 determined by the position determination unit 154. The relative position of the optical transmitter may be transmitted to the movement command unit 158, which will be described later.

본 개시의 일 실시예에 따르면, 자세 판단부(156)는 제1 센싱 정보 및 제2 센싱 정보를 기반으로 이동 대상 객체(200)의 자세를 판단하는 기능을 수행할 수 있다. 여기에서, 이동 대상 객체(200)의 자세는 무인 반송차(100)를 기준으로 이동 대상 객체(200)가 향하는 방향을 의미한다.According to an embodiment of the present disclosure, the posture determination unit 156 may perform a function of determining the posture of the moving target object 200 based on first sensing information and second sensing information. Here, the posture of the moving object 200 refers to the direction in which the moving object 200 faces relative to the unmanned guided vehicle 100.

일 실시예에서, 자세 판단부(156)는 제2 센서부(130)의 제2 센싱 정보로부터 이동 대상 객체(200)가 향하는 방향을 결정할 수 있다. 또한, 자세 판단부(156)는 위치 판단부(154)에서 산출한 광 송신부의 방향, 즉 무인 반송차(100)가 이동 대상 객체(200)를 향하는 방향을 참조하여, 이동 대상 객체(200)의 자세를 산출할 수 있다. 자세 판단부(156)에서 산출된 이동 대상 객체(200)의 자세는 무인 반송차(100)가 이동 대상 객체(200)의 위치와 함께 무인 반송차의 이동을 제어하는 데에 활용된다.In one embodiment, the posture determination unit 156 may determine the direction in which the moving object 200 is heading from the second sensing information of the second sensor unit 130. In addition, the posture determination unit 156 refers to the direction of the light transmitter calculated by the position determination unit 154, that is, the direction in which the unmanned guided vehicle 100 faces the moving target object 200, and determines the moving target object 200. The posture can be calculated. The posture of the moving object 200 calculated by the posture determination unit 156 is used by the unmanned guided vehicle 100 to control the movement of the unmanned guided vehicle 100 along with the position of the moving target object 200.

본 개시의 일 실시예에 따르면, 이동 명령부(158)는 위치 판단부(154)와 자세 판단부(156)에서 판단된 이동 대상 객체(200)의 위치 및 자세에 따라 무인 반송차(100)에 이동을 명령하는 기능을 수행할 수 있다. 일 실시예에서, 이동 명령부(158)는 이동 대상 객체(200)의 위치(방향과 거리) 및 자세를 고려하여 제어 명령을 생성할 수 있다.According to an embodiment of the present disclosure, the movement command unit 158 controls the unmanned guided vehicle 100 according to the position and posture of the moving target object 200 determined by the position determination unit 154 and the posture determination unit 156. It can perform the function of commanding movement. In one embodiment, the movement command unit 158 may generate a control command considering the location (direction and distance) and posture of the movement target object 200.

본 개시의 일 실시예에 따르면, 이동 명령부(158)는 무인 반송차(100)의 이동 방향, 이동 거리 및 이동 속도 중 적어도 하나를 결정하고, 무인 반송차(100)에 이동을 명령할 수 있다. 일 실시예에서, 이동 명령부(158)는 무인 반송차(100)의 현재 위치에서의 이동 대상 객체(200)의 상대적인 위치와 자세에 관한 정보를 계속적으로 확인하면서 무인 반송차(100)의 이동을 실시간으로 제어할 수 있다.According to an embodiment of the present disclosure, the movement command unit 158 may determine at least one of the movement direction, movement distance, and movement speed of the unmanned guided vehicle 100, and command the unmanned guided vehicle 100 to move. there is. In one embodiment, the movement command unit 158 moves the unmanned guided vehicle 100 while continuously checking information about the relative position and posture of the moving object 200 at the current location of the unmanned guided vehicle 100. can be controlled in real time.

도 6은 본 개시의 일 실시예에 따라 제어 명령을 생성하는 모습을 예시적으로 나타내는 도면이다.Figure 6 is a diagram illustrating the creation of a control command according to an embodiment of the present disclosure.

도 6과 같이 무인 반송차(100)를 이동 대상 객체(200)로 이동시킴에 있어서 정밀한 제어를 위하여 아래와 같은 순서로 제어 명령을 생성할 수 있다.As shown in FIG. 6, when moving the unmanned guided vehicle 100 to the moving object 200, control commands can be generated in the following order for precise control.

(1) 무인 반송차(100)에서 이동 대상 객체(200)를 향하는 방향(θ) 산출 - 수학식 1 참조(1) Calculation of the direction (θ) toward the moving object 200 in the unmanned guided vehicle 100 - see Equation 1

(2) 무인 반송차(100)에서 이동 대상 객체(200)를 향하는 방향(θ)을 참조하여 이동 대상 객체(200)까지의 거리(e) 산출(2) Calculate the distance (e) from the unmanned guided vehicle 100 to the moving object 200 with reference to the direction (θ) toward the moving object 200

(3) 아래 수학식 2에 따라 이동 대상 객체(200)의 자세(α)산출 (3) Calculate the posture (α) of the moving object 200 according to Equation 2 below:

여기서, 이동 대상 객체(200)의 자세는 무인 반송차(100)에서 이동 대상 객체(200)를 향하는 방향(θ)으로 연장되는 연장선이 이동 대상 객체(200)를 기준으로 하는 좌표계에서 이루는 각도를 나타낸다.Here, the posture of the moving object 200 refers to the angle formed by the extension line extending in the direction θ from the unmanned guided vehicle 100 toward the moving object 200 in the coordinate system based on the moving object 200. indicates.

[수학식 2][Equation 2]

(4) 무인 반송차(100)가 이동 대상 객체(200)를 향하는 방향(θ), 이동 대상 객체(200)까지의 거리(e), 이동 대상 객체(200)의 자세(α)를 기초로, 리야프노프 함수(Lyapunov Function)를 이용하여 아래 수학식 3에 따라, 무인 반송차(100)의 이동 속도 및 각속도를 결정(4) Based on the direction (θ) in which the unmanned guided vehicle 100 faces the moving target object 200, the distance to the moving target object 200 (e), and the posture (α) of the moving target object 200 , Determine the moving speed and angular velocity of the unmanned guided vehicle 100 according to Equation 3 below using the Lyapunov Function.

[수학식 3][Equation 3]

여기서, r, k h는 각각 control gain으로서 양의 실수이다.Here, r and k h are control gains and are positive real numbers, respectively.

(5) 이동 속도 및 각속도에 따라 제어 명령 생성(5) Generate control commands according to movement speed and angular velocity

이처럼, 무인 반송차에 대한 이동 대상 객체의 상대적인 위치와 자세를 고려하여 무인 반송차의 이동을 제어함으로써, 무인 반송차의 이동을 보다 정밀하게 제어할 수 있다. In this way, by controlling the movement of the unmanned guided vehicle by considering the relative position and posture of the moving object with respect to the unmanned guided vehicle, the movement of the unmanned guided vehicle can be controlled more precisely.

한편, 본 개시의 일 실시예에 따른 무인 반송차는 상술한 구성에 의해서 전기차 충전을 위한 배터리팩의 이동에 활용할 수 있다.Meanwhile, the unmanned guided vehicle according to an embodiment of the present disclosure can be used to move a battery pack for charging an electric vehicle by using the above-described configuration.

도 7은 본 개시의 일 실시예에 따른 무인 반송차를 전기차의 충전을 위한 배터리팩의 이동에 활용하는 모습을 예시적으로 나타내는 도면이다. 도 7에서, 이동 대상 객체(200)인, 다수의 배터리팩(200)이 충전 센터에 배치되고, 본 개시의 일 실시예에 따른 무인 반송차(100)가 충전 센터에 배치된 배터리팩(200)을 충전을 필요로 하는 전기차의 위치까지 이동시키는 모습을 예시적으로 나타낸다.FIG. 7 is a diagram illustrating the use of an unmanned guided vehicle to move a battery pack for charging an electric vehicle according to an embodiment of the present disclosure. In FIG. 7, a plurality of battery packs 200, which are moving target objects 200, are placed in a charging center, and an unmanned guided vehicle 100 according to an embodiment of the present disclosure is placed in the charging center. ) is shown as an example of moving an electric vehicle to the location of an electric vehicle that requires charging.

배터리팩(200)의 하부에는 무인 반송차(100)의 적재부(110)가 삽입 결합될 수 있는 홀이 형성될 수 있다. 무인 반송차(100)는 배터리팩(200) 적재 시 배터리팩(200)과 전기적으로 연결되도록 구성되는 접촉단자를 구비할 수 있으며, 전기차 충전을 위하여 접촉 단자와 전기적으로 연결되는 충전 플러그를 더 구비할 수 있다.A hole may be formed in the lower part of the battery pack 200 into which the loading part 110 of the unmanned guided vehicle 100 can be inserted and coupled. The unmanned guided vehicle 100 may be provided with a contact terminal configured to be electrically connected to the battery pack 200 when the battery pack 200 is loaded, and may further be provided with a charging plug electrically connected to the contact terminal for charging the electric vehicle. can do.

주차 구역에 위치하는 전기차로부터 충전 호출이 있는 경우, 무인 반송차(100)는 충전 센터에서 완충된 배터리팩(200)을 로딩하여 이동하게 된다. 구체적으로, 무인 반송차(100)는 배터리팩(200)의 하부에 형성되는 홀에 무인 반송차(100)의 적재부를 삽입하여 배터리팩(200)을 적재하고 이동 경로를 따라 이동을 하게 된다. 무인 반송차(100)의 이동 경로를 따라 정지 위치를 표시하는 마커(300)가 설치되어 있어 무인 반송차(100)가 이동 경로를 따라 이동하여 충전 호출이 있는 전기차가 주차되어 있는 위치에 정지할 수 있으며, 무인 반송차(100)에 설치되는 충전 플러그에 의해서 전기차의 충전이 이루어질 수 있다.When a charging call is made from an electric vehicle located in a parking area, the unmanned guided vehicle 100 loads a fully charged battery pack 200 at the charging center and moves. Specifically, the unmanned guided vehicle 100 inserts the loading part of the unmanned guided vehicle 100 into the hole formed in the lower part of the battery pack 200, loads the battery pack 200, and moves along the movement path. A marker 300 is installed along the movement path of the unmanned guided vehicle 100 to indicate a stopping position, so that the unmanned guided vehicle 100 moves along the moving path and stops at the location where the electric vehicle with a charging call is parked. The electric vehicle can be charged using a charging plug installed on the unmanned guided vehicle 100.

이처럼, 자율 주행이 가능한 무인 반송차를 활용하여 배터리팩을 이동시켜 전기차의 충전이 이루어짐으로써, 충전 설비가 구축되지 않은 장소에서도 복수의 전기차를 효율적으로 충전할 수 있다.In this way, electric vehicles are charged by moving the battery pack using an unmanned guided vehicle capable of autonomous driving, making it possible to efficiently charge multiple electric vehicles even in places where charging facilities are not built.

한편, 본 개시의 일 실시예에 따르면, 통합 제어 시스템에 의해서 무인 반송차의 이동이 필요한 이동 대상 객체를 결정, 지정할 수 있다.Meanwhile, according to an embodiment of the present disclosure, a moving target object requiring movement of an unmanned guided vehicle can be determined and designated by an integrated control system.

도 8은 본 개시의 일 실시예에 따라 이동 대상 객체가 지정되는 모습을 예시적으로 나타내는 도면이다. FIG. 8 is a diagram exemplarily showing how a movement target object is designated according to an embodiment of the present disclosure.

도 8을 참조하면, 복수의 객체(200a,200b, 200c, 200d)는 IoT 기반의 스마트 태그를 포함할 수 있으며, 스마트 태그는 통합 제어 시스템에서 전송하는 활성화 신호를 수신할 수 있다. 통합 제어 시스템에 의해서 복수의 객체(200a,200b, 200c, 200d) 중 무인 반송차(100)에 의해 이동시킬 필요가 있는 이동 대상 객체(200c)를 결정되고, 해당 이동 대상 객체(200c)에 활성화 신호를 전송하면, 이동 대상 객체(200c)의 광 송신부가 활성화되면서 광 신호를 송신한다. 무인 반송차(100)는 이동 대상 객체(200c)가 송신한 광 신호를 감지하고, 해당 이동 대상 객체(200c)를 향하는 방향으로 무인 반송차(100)의 이동을 제어할 수 있다.Referring to FIG. 8, the plurality of objects 200a, 200b, 200c, and 200d may include IoT-based smart tags, and the smart tags may receive an activation signal transmitted from an integrated control system. The integrated control system determines the moving target object 200c that needs to be moved by the unmanned guided vehicle 100 among the plurality of objects 200a, 200b, 200c, and 200d, and activates the corresponding moving target object 200c. When a signal is transmitted, the optical transmitting unit of the moving object 200c is activated and transmits an optical signal. The unmanned guided vehicle 100 may detect an optical signal transmitted by the moving object 200c and control the movement of the unmanned guided vehicle 100 in a direction toward the moving object 200c.

도 9는 본 개시의 일 실시예에 따라 무인 반송차의 이동을 제어하는 과정을 예시적으로 보여주는 동작 흐름도이다.Figure 9 is an operation flowchart exemplarily showing a process of controlling the movement of an unmanned guided vehicle according to an embodiment of the present disclosure.

먼저, 단계(S902)에서 제어부(150)는, 무인 반송차가 이동하고자 하는 이동 대상 객체에서 송신되는 광 신호에 대한 제1 센싱 정보를 획득할 수 있다. 일 실시예에서, 이동 대상 객체는 광 신호를 주기적으로 송신하도록 구성되는 광 송신부를 포함할 수 있으며, 광 송신부는 적외선 LED로 구성될 수 있다. 앞서 설명한 바와 같이, 무인 반송차는 제1 센서부를 포함할 수 있으며, 제1 센싱 정보는 무인 반송차의 제1 센서부를 통해 실시간으로 획득될 수 있다. 일 실시예에서, 무인 반송차의 제1 센서부는 PSD 센서 및 핀홀 카메라 모델을 포함할 수 있으며, 제1 센싱 정보는 핀홀 카메라의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.First, in step S902, the control unit 150 may obtain first sensing information about an optical signal transmitted from a moving target object to which the unmanned guided vehicle wants to move. In one embodiment, the moving target object may include an optical transmitter configured to periodically transmit an optical signal, and the optical transmitter may be configured with an infrared LED. As described above, the unmanned guided vehicle may include a first sensor unit, and the first sensing information may be acquired in real time through the first sensor unit of the unmanned guided vehicle. In one embodiment, the first sensor unit of the unmanned guided vehicle may include a PSD sensor and a pinhole camera model, and the first sensing information is position data of an optical signal that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor. may include.

단계(S904)에서 제어부(150)는, 이동 대상 객체까지의 거리에 대한 제2 센싱 정보를 획득할 수 있다. 앞서 설명한 바와 같이, 무인 반송차는 제2 센서부를 포함할 수 있으며, 제2 센싱 정보는 무인 반송차의 제2 센서부를 통해 실시간으로 획득될 수 있다. 일 실시예에서, 무인 반송차의 제2 센서부는 라이다 센서를 포함할 수 있다.In step S904, the control unit 150 may obtain second sensing information about the distance to the moving target object. As previously described, the unmanned guided vehicle may include a second sensor unit, and the second sensing information may be acquired in real time through the second sensor unit of the unmanned guided vehicle. In one embodiment, the second sensor unit of the unmanned guided vehicle may include a LiDAR sensor.

다음으로, 단계(S906)에서 제어부(150)는, 단계(S902)에서 획득한 제1 센싱 정보 및 단계(S904)에서 획득한 제2 센싱 정보를 기반으로 이동 대상 객체의 위치를 판단할 수 있다. 여기서, 이동 대상 객체의 위치는 무인 반송차의 현재 위치에 대한 이동 대상 객체의 광 송신부의 거리와 방향을 포함할 수 있다. 일 실시예에서, 이동 대상 객체의 광 송신부의 방향은 광 송신부에서 송신하는 광 신호의 방향일 수 있으며, 제어부(150)는 무인 반송차의 진행 방향에 대한 광 신호의 배향 각도를 산출하는 방식으로 산출할 수 있다. 일 실시예에서, 광 송신부의 방향을 참조하여 무인 반송차의 광 송신부의 거리에 관한 정보를 획득할 수 있다.Next, in step S906, the control unit 150 may determine the location of the moving object based on the first sensing information obtained in step S902 and the second sensing information obtained in step S904. . Here, the location of the moving object may include the distance and direction of the light transmitting unit of the moving object with respect to the current location of the unmanned guided vehicle. In one embodiment, the direction of the light transmitting unit of the moving object may be the direction of the optical signal transmitted from the optical transmitting unit, and the control unit 150 calculates the orientation angle of the optical signal with respect to the direction of travel of the unmanned guided vehicle. It can be calculated. In one embodiment, information about the distance of the optical transmitter of the automated guided vehicle can be obtained by referring to the direction of the optical transmitter.

단계(S908)에서 제어부(150)는, 단계(S904)에서 획득한 제2 센싱 정보 및 단계(S906)에서 산출한 이동 대상 객체의 방향에 관한 정보를 참조하여 이동 대상 객체의 자세를 판단할 수 있다. In step S908, the control unit 150 may determine the posture of the moving target object by referring to the second sensing information obtained in step S904 and the information about the direction of the moving target object calculated in step S906. there is.

단계(S910)에서 제어부(150)는, 단계(S906)와 단계(S908)에서 판단된 이동 대상 객체의 위치(방향과 거리), 자세에 관한 정보를 기반으로 제어 명령을 생성할 수 있다. In step S910, the control unit 150 may generate a control command based on information about the location (direction and distance) and posture of the moving object determined in steps S906 and S908.

이상 설명된 본 개시에 따른 실시예에서의 제어부는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 개시에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The control unit in the embodiment according to the present disclosure described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. A computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present disclosure or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. A hardware device may be replaced with one or more software modules to perform processing according to the present disclosure, and vice versa.

이상에서는 본 개시를 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면을 통해 설명하였으나, 이는 본 개시의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐이며, 본 개시가 상기 실시예들에 한정되는 것은 아니며, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있을 것이다.In the above, the present disclosure has been described through specific details such as specific components and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present disclosure, and the present disclosure is not limited to the above embodiments. , a person skilled in the art to which this disclosure pertains will be able to make various modifications and variations from this description.

따라서, 본 개시의 사상은 전술한 실시예에 국한되어 정해져서는 아니되며, 후술하는 청구범위뿐만 아니라 이와 균등하게 또는 등가적으로 변형된 모든 것들은 본 개시의 사상의 범주에 속하는 것으로 해석되어야 한다.Accordingly, the spirit of the present disclosure should not be limited to the above-described embodiments, and the claims described below as well as all equivalent or equivalent modifications thereto should be construed as falling within the scope of the spirit of the present disclosure.

100: 무인 반송차
110: 적재부
120: 제1 센서부
130: 제2 센서부
140: 이동부
150: 제어부
152: 센싱 정보 획득부
154: 위치 판단부
156: 자세 판단부
158: 이동 명령부
200: 이동 대상 객체
100: Unmanned guided vehicle
110: loading unit
120: first sensor unit
130: Second sensor unit
140: moving part
150: control unit
152: Sensing information acquisition unit
154: Position determination unit
156: Posture judgment unit
158: Movement Command
200: Move target object

Claims (7)

본체의 일측에서 연장 형성되며, 이동 대상 객체에 형성되는 적어도 하나의 홀에 삽입되도록 구성되는 적어도 하나의 플레이트를 구비한 적재부,
상기 이동 대상 객체의 광 송신부으로부터 광 신호를 감지하여 제1 센싱 정보를 출력하도록 구성되는 제1 센서부,
상기 무인 반송차를 기준으로 상기 이동 대상 객체의 거리를 측정하여 제2 센싱 정보를 출력하도록 구성되는 제2 센서부,
이동 방향 및 이동 속도의 조정이 가능하도록 구성되는 이동부 및
상기 제1 센싱 정보 및 상기 제2 센싱 정보를 기반으로 상기 이동 대상 객체의 위치 및 자세를 판단하고, 상기 이동 대상 객체의 위치 및 자세에 따라 상기 이동부를 제어하도록 구성되는 제어부
를 포함하는
무인 반송차.
a loading unit extending from one side of the main body and having at least one plate configured to be inserted into at least one hole formed in the object to be moved;
a first sensor unit configured to detect an optical signal from an optical transmitter of the moving object and output first sensing information;
a second sensor unit configured to measure the distance of the moving object with respect to the unmanned guided vehicle and output second sensing information;
A moving part configured to allow adjustment of the moving direction and moving speed, and
A control unit configured to determine the position and posture of the moving target object based on the first sensing information and the second sensing information and control the moving unit according to the position and posture of the moving target object.
containing
Unmanned guided vehicle.
제1항에 있어서,
상기 제1 센서부는 적외선 LED를 포함하는 상기 광 송신부로부터 주기적으로 송신되는 광 신호를 감지하도록 구성되는, 무인 반송차.
According to paragraph 1,
The first sensor unit is configured to detect an optical signal periodically transmitted from the optical transmitter including an infrared LED.
제1항에 있어서,
상기 제1 센서부는 PSD 센서 및 핀홀 카메라 모델을 포함하고,
상기 제1 센싱 정보는 상기 핀홀 카메라의 핀홀을 통과하여 상기 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함하는, 무인 반송차.
According to paragraph 1,
The first sensor unit includes a PSD sensor and a pinhole camera model,
The first sensing information includes location data of an optical signal that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor.
제3항에 있어서,
상기 이동 대상 객체의 위치는 상기 무인 반송차의 위치에 대한 상기 이동 대상 객체의 방향과 거리를 포함하고,
상기 제어부는, 하기 수식에 따라 상기 이동 대상 객체의 방향(θ)을 산출하는, 무인 반송차.

(f: 핀홀 카메라 모델의 초점 거리, d: 광 신호의 위치 데이터)
According to paragraph 3,
The location of the moving target object includes the direction and distance of the moving target object with respect to the position of the unmanned guided vehicle,
The control unit calculates the direction (θ) of the moving object according to the following equation.

(f: focal length of pinhole camera model, d: positional data of optical signal)
제1항에 있어서,
상기 제2 센서부는 라이다 센서를 포함하고, 상기 라이다 센서를 통해 상기 제2 센싱 정보를 실시간으로 획득하는, 무인 반송차.
According to paragraph 1,
The second sensor unit includes a LiDAR sensor, and acquires the second sensing information in real time through the LiDAR sensor.
제1항에 있어서,
상기 제어부는, 상기 제1 센싱 정보 및 상기 제2 센싱 정보를 기반으로 상기 이동 대상 객체의 방향(θ), 상기 이동 대상 객체까지의 거리(e) 및 상기 이동 대상 객체의 자세(α)를 산출하고,
하기 수식에 따라 이동 속도(v) 및 각속도(ω)를 결정하는, 무인 반송차.


(r, h k: control gain으로서 양의 실수)
According to paragraph 1,
The control unit calculates the direction (θ) of the moving target object, the distance (e) to the moving target object, and the posture (α) of the moving target object based on the first sensing information and the second sensing information. do,
An unmanned guided vehicle that determines the moving speed (v) and angular speed (ω) according to the formula below.


(r, hk: positive real number as control gain)
무인 반송차의 이동을 제어하기 위한 방법으로서,
제1 센서부로부터 이동 대상 객체의 광 송신부로부터 수신되는 광 신호에 대한 제1 센싱 정보를 획득하는 단계,
제2 센서부로부터 상기 이동 대상 객체까지의 거리에 대한 제2 센싱 정보를 획득하는 단계,
상기 제1 센싱 정보 및 상기 제2 센싱 정보를 기반으로 상기 이동 대상 객체의 위치 및 자세를 판단하는 단계 및
상기 이동 대상 객체의 위치 및 자세에 따라 제어 명령을 생성하는 단계를 포함하는
무인 반송차의 이동 제어 방법.
As a method for controlling the movement of an unmanned guided vehicle,
Obtaining first sensing information about an optical signal received from the light transmitting unit of the moving object from the first sensor unit,
Obtaining second sensing information about the distance from the second sensor unit to the moving target object,
determining the location and posture of the moving object based on the first sensing information and the second sensing information; and
Comprising the step of generating a control command according to the position and posture of the moving target object.
Method for controlling the movement of an unmanned guided vehicle.
KR1020230109607A 2022-08-23 2023-08-22 Automated guided vehicle and method for controlling movement of automated guided vehicle KR20240028311A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220105810 2022-08-23
KR1020220105810 2022-08-23

Publications (1)

Publication Number Publication Date
KR20240028311A true KR20240028311A (en) 2024-03-05

Family

ID=90298846

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230109607A KR20240028311A (en) 2022-08-23 2023-08-22 Automated guided vehicle and method for controlling movement of automated guided vehicle

Country Status (1)

Country Link
KR (1) KR20240028311A (en)

Similar Documents

Publication Publication Date Title
US10583982B2 (en) Shelf transport system, shelf transport vehicle, and shelf transport method
KR101319045B1 (en) Mobile robot for autonomous freight transportation
JP6980637B2 (en) Automated guided vehicle, automatic guided vehicle control method, and program
CN112875578A (en) Unmanned forklift control system
KR102389494B1 (en) Autonomous Forklift Truck
KR20200012298A (en) Automated guided vehicle with auto positioning
JP2019053391A (en) Mobile body
KR102300596B1 (en) Method for narrow lane driving of autonomous forklift and apparatus for the same
US11269335B2 (en) Autonomous cart
Liu A laser intensity based autonomous docking approach for mobile robot recharging in unstructured environments
JP6684531B2 (en) Unmanned transport system
JP2020154454A (en) Autonomous mobile device, guidance system, and movement method of autonomous mobile device
KR20240028311A (en) Automated guided vehicle and method for controlling movement of automated guided vehicle
CN114056863B (en) Unmanned carrier system
KR102653633B1 (en) Automated guided vehicle and method for controlling movement of automated guided vehicle
JP2019179497A (en) Moving body and moving body system
CN215101784U (en) Automatic drive fork truck
KR20240042394A (en) Automated guided vehicle and method for controlling movement of automated guided vehicle
JPWO2019069921A1 (en) Mobile
JP2021056764A (en) Movable body
KR20240047672A (en) Unmanned charging system
KR20230168516A (en) Smart logistics vehicle and method of controlling the same
JP2020166702A (en) Mobile body system, map creation system, route creation program and map creation program
KR20240031719A (en) Smart logistics vehicle and method of controlling the same
KR102564884B1 (en) Automated guided vehicle and method for controlling movement of automated guided vehicle