KR20240015561A - Automated guided vehicle and method for controlling movement of automated guided vehicle - Google Patents

Automated guided vehicle and method for controlling movement of automated guided vehicle Download PDF

Info

Publication number
KR20240015561A
KR20240015561A KR1020230051135A KR20230051135A KR20240015561A KR 20240015561 A KR20240015561 A KR 20240015561A KR 1020230051135 A KR1020230051135 A KR 1020230051135A KR 20230051135 A KR20230051135 A KR 20230051135A KR 20240015561 A KR20240015561 A KR 20240015561A
Authority
KR
South Korea
Prior art keywords
guided vehicle
unmanned guided
facility
equipment
data
Prior art date
Application number
KR1020230051135A
Other languages
Korean (ko)
Other versions
KR102653633B1 (en
Inventor
황혜숙
김장희
하성윤
손연준
Original Assignee
주식회사 서보스타
(주)모스텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 서보스타, (주)모스텍 filed Critical 주식회사 서보스타
Priority to PCT/KR2023/010721 priority Critical patent/WO2024025293A1/en
Publication of KR20240015561A publication Critical patent/KR20240015561A/en
Priority to KR1020240040851A priority patent/KR20240042394A/en
Application granted granted Critical
Publication of KR102653633B1 publication Critical patent/KR102653633B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 개시는 무인 반송차 및 무인 반송차의 이동을 제어하기 위한 방법에 관한 것이다. 본 개시의 일 실시예에 따른 무인 반송차의 설비로의 이동을 제어하기 위한 방법은 설비에서 송신되는 광 신호에 대한 센싱 데이터를 획득하는 단계, 센싱 데이터를 기반으로 설비의 방향을 산출하는 단계, 설비의 방향을 참조하여 무인 반송차에서 설비까지의 거리 데이터를 획득하는 단계, 설비의 방향 및 거리 데이터를 기반으로 무인 반송차에 대한 설비의 상대적인 위치를 산출하는 단계 및 설비의 상대적인 위치에 따라 무인 반송차의 이동 방향, 이동 거리 및 이동 속도 중 적어도 하나를 제어하는 단계를 포함한다.The present disclosure relates to an unmanned guided vehicle and a method for controlling the movement of the unmanned guided vehicle. A method for controlling the movement of an unmanned guided vehicle to a facility according to an embodiment of the present disclosure includes obtaining sensing data for an optical signal transmitted from the facility, calculating the direction of the facility based on the sensing data, Obtaining distance data from the unmanned guided vehicle to the facility by referring to the direction of the facility, calculating the relative position of the facility to the unmanned guided vehicle based on the direction and distance data of the facility, and unmanned vehicle according to the relative position of the facility. It includes controlling at least one of the moving direction, moving distance, and moving speed of the transport vehicle.

Description

무인 반송차 및 무인 반송차의 이동을 제어하기 위한 방법{AUTOMATED GUIDED VEHICLE AND METHOD FOR CONTROLLING MOVEMENT OF AUTOMATED GUIDED VEHICLE}Unmanned guided vehicle and method for controlling the movement of unmanned guided vehicle {AUTOMATED GUIDED VEHICLE AND METHOD FOR CONTROLLING MOVEMENT OF AUTOMATED GUIDED VEHICLE}

본 개시는 무인 반송차 및 무인 반송차의 이동을 제어하기 위한 방법에 관한 것이다.The present disclosure relates to an unmanned guided vehicle and a method for controlling the movement of the unmanned guided vehicle.

최근, 무인 반송차(Automated Guided Vehicle; AGV)가 공장, 물류창고 등의 작업 공간에서 자재, 화물 등을 적재하고 자동 주행하여 목적 지점까지 운반하는데 널리 사용되고 있다.Recently, Automated Guided Vehicles (AGVs) have been widely used to load materials and cargo in work spaces such as factories and warehouses and transport them to destinations by automatically driving them.

이러한 무인 반송차를 다른 설비(예컨대, 컨베이어 벨트, 작업대, 충전 장치 등)에 접근 또는 도킹시키기 위한 방법으로, 설비에 마커 또는 QR 코드가 구비되고, 무인 반송차에 장착된 카메라를 통해 설비에 구비된 마커 또는 QR 코드를 인식함으로써, 설비의 위치를 측정하는 기술이 알려져 있다. 하지만, 이러한 방식은 밝기 등 주변 환경의 영향을 많이 받을 뿐만 아니라, 설비의 위치를 정밀하게 측정하는 데 한계가 있다. 이는 설비에 대한 정교한 위치 제어가 필요한 경우에 특히 문제될 수 있다.As a method for accessing or docking such unmanned guided vehicles with other facilities (e.g., conveyor belts, work benches, charging devices, etc.), a marker or QR code is provided on the equipment, and the equipment is provided through a camera mounted on the unmanned guided vehicles. Technology for measuring the location of equipment by recognizing a marker or QR code is known. However, this method is not only greatly affected by the surrounding environment, such as brightness, but also has limitations in accurately measuring the location of equipment. This can be particularly problematic when precise positioning control of equipment is required.

이에 따라, 주변 환경의 영향을 받지 않으면서도 정밀하게 다른 설비의 위치를 측정하여 무인 반송차의 이동을 제어할 수 있는 방법 및 장치의 개발이 여전히 요구되고 있는 실정이다.Accordingly, there is still a need for the development of methods and devices that can control the movement of unmanned guided vehicles by precisely measuring the positions of other facilities without being influenced by the surrounding environment.

본 개시는 상술한 종래기술의 문제점을 해결하기 위한 것으로서, 설비의 위치를 보다 정확히 측정하고 무인 반송차의 위치 및 자세를 정밀하게 제어할 수 있는 방법을 제공하는 것에 그 목적이 있다.The present disclosure is intended to solve the problems of the prior art described above, and its purpose is to provide a method for more accurately measuring the location of equipment and precisely controlling the position and posture of the unmanned guided vehicle.

또한, 설비와의 상대적인 위치를 고려하여 설비에 근접하여 이동시킬 수 있도록 구성되는 무인 반송차를 제공하는 것에도 그 목적이 있다.In addition, the purpose is to provide an unmanned guided vehicle that is configured to move close to the facility in consideration of its relative position with the facility.

전술한 목적을 달성하기 위한 본 개시의 대표적인 구성은 다음과 같다.A representative configuration of the present disclosure to achieve the above-described objective is as follows.

본 개시의 일 실시예에 따른 무인 반송차의 설비로의 이동을 제어하기 위한 방법은 설비에서 송신되는 광 신호에 대한 센싱 데이터를 획득하는 단계, 센싱 데이터를 기반으로 설비의 방향을 산출하는 단계, 설비의 방향을 참조하여 무인 반송차에서 설비까지의 거리 데이터를 획득하는 단계, 설비의 방향 및 거리 데이터를 기반으로 무인 반송차에 대한 설비의 상대적인 위치를 산출하는 단계 및 설비의 상대적인 위치에 따라 무인 반송차의 이동 방향, 이동 거리 및 이동 속도 중 적어도 하나를 제어하는 단계를 포함한다.A method for controlling the movement of an unmanned guided vehicle to a facility according to an embodiment of the present disclosure includes obtaining sensing data for an optical signal transmitted from the facility, calculating the direction of the facility based on the sensing data, Obtaining distance data from the unmanned guided vehicle to the facility by referring to the direction of the facility, calculating the relative position of the facility to the unmanned guided vehicle based on the direction and distance data of the facility, and unmanned vehicle according to the relative position of the facility. It includes controlling at least one of the moving direction, moving distance, and moving speed of the transport vehicle.

본 개시의 일 실시예에 따르면, 광 신호를 주기적으로 송신하도록 구성되는 광 송신 장치가 설비에 구비될 수 있으며, 광 송신 장치는 적외선 LED를 포함할 수 있다.According to one embodiment of the present disclosure, an optical transmission device configured to periodically transmit an optical signal may be provided in the facility, and the optical transmission device may include an infrared LED.

본 개시의 일 실시예에 따르면, 무인 반송차는 광 검출부를 포함할 수 있으며, 센싱 데이터를 획득하는 단계에서, 센싱 데이터는 광 검출부를 통해 실시간으로 획득될 수 있다.According to an embodiment of the present disclosure, the unmanned guided vehicle may include a light detection unit, and in the step of acquiring sensing data, the sensing data may be acquired in real time through the light detection unit.

본 개시의 일 실시예에 따르면, 광 검출부는 PSD 센서 및 핀홀 카메라를 포함할 수 있으며, 센싱 데이터를 획득하는 단계에서, 센싱 데이터는 핀홀 카메라의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.According to an embodiment of the present disclosure, the light detector may include a PSD sensor and a pinhole camera. In the step of acquiring sensing data, the sensing data is light that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor. May include location data of the signal.

본 개시의 일 실시예에 따르면, 설비의 방향을 산출하는 단계에서는, 무인 반송차의 진행 방향에 대한 광 신호의 배향 각도를 산출할 수 있다. According to an embodiment of the present disclosure, in the step of calculating the direction of the facility, the orientation angle of the optical signal with respect to the direction of travel of the unmanned guided vehicle can be calculated.

본 개시의 일 실시예에 따르면, 무인 반송차는 라이다 센서를 포함할 수 있으며, 거리 데이터를 획득하는 단계에서, 거리 데이터는 라이다 센서를 통해 실시간으로 획득될 수 있다.According to an embodiment of the present disclosure, the unmanned guided vehicle may include a LiDAR sensor, and in the step of acquiring distance data, the distance data may be acquired in real time through the LiDAR sensor.

본 개시의 일 실시예에 따르면, 설비의 상대적인 위치를 산출하는 단계에서는, 무인 반송차의 현재 위치를 기준으로 설비의 상대적인 위치를 직교 좌표 형태로 산출할 수 있다.According to an embodiment of the present disclosure, in the step of calculating the relative position of the equipment, the relative position of the equipment may be calculated in the form of orthogonal coordinates based on the current position of the unmanned guided vehicle.

본 개시의 일 실시예에 따른 무인 반송차는 이동하고자 하는 설비에서 송신하는 광 신호를 검출하여 센싱 데이터를 출력하는 광 검출부, 설비까지의 거리 데이터를 획득하기 위한 거리 측정부, 이동 방향 및 이동 속도의 조정이 가능한 이동부, 센싱 데이터와 거리 데이터를 기반으로 설비의 상대적인 위치를 산출하고, 설비의 상대적인 위치에 따라 이동부의 이동 방향, 이동 속도 및 이동 거리 중 적어도 하나를 제어하기 위한 제어부를 포함한다.The unmanned guided vehicle according to an embodiment of the present disclosure includes an optical detector that detects an optical signal transmitted from a facility to be moved and outputs sensing data, a distance measurement unit to obtain data on the distance to the facility, and a moving direction and moving speed. It includes an adjustable moving part, a control unit for calculating the relative position of the equipment based on sensing data and distance data, and controlling at least one of the moving direction, moving speed, and moving distance of the moving part according to the relative position of the equipment.

본 개시의 일 실시예에 따르면, 광 검출부는 PSD 센서 및 핀홀 카메라를 포함할 수 있으며, 센싱 데이터는 핀홀 카메라의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.According to an embodiment of the present disclosure, the light detection unit may include a PSD sensor and a pinhole camera, and the sensing data may include position data of an optical signal that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor. there is.

본 개시의 일 실시예에 따르면, 거리 측정부는 라이다 센서를 포함할 수 있으며, 라이다 센서를 통해 거리 데이터를 실시간으로 획득할 수 있다.According to an embodiment of the present disclosure, the distance measuring unit may include a LiDAR sensor and may acquire distance data in real time through the LiDAR sensor.

본 개시의 일 실시예에 따르면, 제어부는, 무인 반송차의 진행 방향에 대한 설비에서 송신하는 광 신호의 배향 각도를 산출하는 방식으로 설비의 방향을 산출할 수 있다.According to an embodiment of the present disclosure, the control unit may calculate the direction of the facility by calculating an orientation angle of an optical signal transmitted from the facility with respect to the direction of travel of the unmanned guided vehicle.

본 개시의 일 실시예에 따르면, 제어부는, 센싱 데이터를 기반으로 설비의 방향을 산출하고, 설비의 방향을 참조하여 거리 데이터를 획득할 수 있으며, 설비의 방향 및 거리 데이터를 기반으로 무인 반송차에 대한 설비의 상대적인 위치를 산출할 수 있다. According to an embodiment of the present disclosure, the control unit may calculate the direction of the facility based on sensing data, obtain distance data by referring to the direction of the facility, and operate the unmanned guided vehicle based on the direction and distance data of the facility. The relative position of the facility can be calculated.

본 개시의 일 실시예에 따르면, 제어부는, 설비의 상대적인 위치를 직교 좌표 형태로 산출할 수 있다.According to an embodiment of the present disclosure, the control unit may calculate the relative position of the equipment in the form of orthogonal coordinates.

본 개시의 일 실시예에 따르면, 이동부는 무인 반송차의 본체 바닥면에 복수 개 설치되고, 이동부 각각은 독립적으로 회동 가능하도록 구성될 수 있다.According to an embodiment of the present disclosure, a plurality of moving units may be installed on the bottom surface of the main body of the unmanned guided vehicle, and each moving unit may be configured to be able to rotate independently.

이 외에도, 본 개시를 구현하기 위한 다른 방법, 다른 장치 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, other methods for implementing the present disclosure, other devices, and non-transitory computer-readable recording media for recording computer programs for executing the methods are further provided.

본 개시의 일 실시예에 따르면, 설비에서 송신되는 광 신호에 대한 센싱 데이터를 기반으로 설비의 상대적인 위치를 산출함으로써, 보다 정밀하게 설비의 위치를 측정할 수 있다.According to an embodiment of the present disclosure, the location of the facility can be measured more precisely by calculating the relative position of the facility based on sensing data for optical signals transmitted from the facility.

또한, 무인 반송차가 독립적으로 이동 및 회전이 가능하도록 구성되는 복수의 이동부를 구비함으로써, 무인 반송차의 이동을 보다 정밀하게 제어할 수 있다.Additionally, by providing the unmanned guided vehicle with a plurality of moving units configured to move and rotate independently, the movement of the unmanned guided vehicle can be controlled more precisely.

도 1은 본 개시의 일 실시예에 따른 무인 반송차가 운용되는 작업 환경을 예시적으로 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따라 설비에 접근하는 무인 반송차의 모습을 예시적으로 나타내는 도면이다.
도 3은 본 개시의 일 실시예에 따른 무인 반송차의 개략적인 모습을 나타내는 사시도이다.
도 4는 본 개시의 일 실시예에 따른 무인 반송차의 기능적 구성을 개략적으로 도시한 블록도이다.
도 5는 본 개시의 일 실시예에 따른 무인 반송차를 아래쪽에서 바라본 모습과 무인 반송차의 이동부의 개략적인 모습을 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따른 무인 반송차의 제어부의 세부 구성을 개략적으로 도시한 블록도이다.
도 7은 본 개시의 일 실시예에 따라 무인 반송차에서 설비의 방향을 산출하는 모습을 예시적으로 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따라 무인 반송차에서 설비의 상대적인 위치를 산출하는 모습을 예시적으로 나타내는 도면이다.
도 9는 본 개시의 일 실시예에 따라 무인 반송차의 이동을 제어하는 과정을 예시적으로 보여주는 동작 흐름도이다.
1 is a diagram illustrating a work environment in which an unmanned guided vehicle is operated according to an embodiment of the present disclosure.
Figure 2 is a diagram illustrating an unmanned guided vehicle approaching a facility according to an embodiment of the present disclosure.
Figure 3 is a perspective view schematically showing an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 4 is a block diagram schematically showing the functional configuration of an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 5 is a diagram showing a view from below of an unmanned guided vehicle according to an embodiment of the present disclosure and a schematic view of the moving part of the unmanned guided vehicle.
Figure 6 is a block diagram schematically showing the detailed configuration of a control unit of an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 7 is a diagram illustrating calculating the direction of a facility in an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 8 is a diagram illustrating calculating the relative position of equipment in an unmanned guided vehicle according to an embodiment of the present disclosure.
Figure 9 is an operation flowchart exemplarily showing a process of controlling the movement of an unmanned guided vehicle according to an embodiment of the present disclosure.

이하에서 기술되는 실시예들은 본 개시의 기술적 사상을 설명하기 위한 목적으로 예시된 것으로, 본 개시의 권리범위가 이하에 제시되는 실시예들이나 이에 대한 구체적인 설명으로 제한되는 것은 아니다.The embodiments described below are illustrative for the purpose of explaining the technical idea of the present disclosure, and the scope of the present disclosure is not limited to the embodiments or detailed descriptions presented below.

본 명세서에서 사용되는 모든 기술적 용어들 및 과학적 용어들은 달리 정의되지 않는 한 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 가지며, 본 명세서에서 사용되는 모든 용어들은 본 개시를 더욱 명확히 설명하기 위한 목적으로 선택된 것으로서 본 개시의 권리범위를 제한하기 위해 선택된 것이 아니다. 본 명세서에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.All technical and scientific terms used in this specification, unless otherwise defined, have meanings commonly understood by those skilled in the art to which this disclosure pertains, and all terms used in this specification are defined in this disclosure. It was selected for the purpose of explaining more clearly and was not selected to limit the scope of the present disclosure. As used herein, expressions such as “comprising,” “comprising,” “having,” and the like are open terms implying the possibility of including other embodiments, unless otherwise stated in the phrase or sentence containing the expression. -ended terms).

이하, 첨부한 도면을 참조하여 본 개시의 바람직한 실시예에 대해 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 상세하게 설명한다. 첨부된 도면에서, 동일하거나 대응하는 구성요소는 동일한 참조부호를 통해 지시되어 있으며, 이하의 실시예들의 설명에 있어서 동일하거나 대응하는 구성요소는 중복하여 기술하는 것이 생략될 수 있다. 다만, 아래의 설명에서 특정 구성요소에 관한 기술이 생략되어 있더라도, 이는 그러한 구성요소가 해당 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, with reference to the attached drawings, preferred embodiments of the present disclosure will be described in detail so that those skilled in the art can easily implement them. In the accompanying drawings, identical or corresponding components are indicated by the same reference numerals, and in the description of the following embodiments, duplicate descriptions of identical or corresponding components may be omitted. However, even if descriptions of specific components are omitted in the description below, this does not mean that such components are not included in the embodiment.

도 1은 본 개시의 일 실시예에 따른 무인 반송차가 운용되는 작업 환경을 예시적으로 나타내는 도면이다. 도시된 바와 같이, 작업 공간 내에 컨베이어 벨트, 작업대, 충전 장치 등의 설비가 설치되어 있으며, 복수의 무인 반송차가 소정의 루트를 따라 이동을 하면서 필요한 작업을 수행할 수 있다.1 is a diagram illustrating a work environment in which an unmanned guided vehicle is operated according to an embodiment of the present disclosure. As shown, facilities such as conveyor belts, work benches, and charging devices are installed in the work space, and a plurality of unmanned guided vehicles can perform necessary work while moving along a predetermined route.

무인 반송차가 도 1의 예시와 다른 환경에서도 사용될 수 있음은 물론이다. 예를 들어, 전기차의 충전을 위해 주차 공간에서 배터리를 이동하는 작업에 사용될 수도 있고, 실내가 아닌 야외 공간에서 작업을 수행하는 데에 사용될 수도 있다.Of course, the unmanned guided vehicle can be used in environments other than the example in FIG. 1. For example, it may be used to move a battery from a parking space to charge an electric vehicle, or it may be used to perform work in an outdoor space rather than indoors.

도 2는 본 개시의 일 실시예에 따라 설비에 접근하는 무인 반송차의 모습을 예시적으로 나타내는 도면이다.Figure 2 is a diagram illustrating an unmanned guided vehicle approaching a facility according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 설비(200)는 무인 반송차(100)의 작업 공간 내에 설치되는 장치이다. 설비(200)는 예를 들어 컨베이어 벨트, 작업대, 충전 장치 등일 수 있으며, 자재 등의 적재 또는 무인 반송차의 충전을 위해 무인 반송차(100)를 근접 이동시킬 필요가 있는 장치를 의미한다.Equipment 200 according to an embodiment of the present disclosure is a device installed in the work space of the unmanned guided vehicle 100. The equipment 200 may be, for example, a conveyor belt, workbench, charging device, etc., and refers to a device that needs to move the unmanned guided vehicle 100 closer to load materials or charge the unmanned guided vehicle.

본 개시의 일 실시예에 따르면, 설비(200)는 광 송신 장치를 포함할 수 있다. 일 실시예에서, 광 송신 장치는 설비(200)의 일측, 예를 들어 설비(100)의 전면부에 설치되어 광 신호를 주기적으로 송신하는 기능을 수행할 수 있다. 일 실시예에 따르면, 광 송신 장치는 LED로 구성될 수 있다. 여기서, 광 송신 장치로는 백색광, 적색광, 청색광, 녹색광 또는 적외선 LED가 모두 사용될 수 있으나, 바람직하게는 외란을 쉽게 제거할 수 있는 적외선 LED가 사용될 수 있다.According to one embodiment of the present disclosure, facility 200 may include an optical transmission device. In one embodiment, the optical transmission device may be installed on one side of the facility 200, for example, at the front of the facility 100, and may perform a function of periodically transmitting an optical signal. According to one embodiment, the light transmission device may be composed of LED. Here, white light, red light, blue light, green light, or infrared LED can all be used as the light transmitting device, but infrared LED, which can easily remove disturbance, can be used preferably.

도 3은 본 개시의 일 실시예에 따른 무인 반송차의 개략적인 모습을 나타내는 사시도이다.Figure 3 is a perspective view schematically showing an unmanned guided vehicle according to an embodiment of the present disclosure.

도 3을 참조하면, 본 개시의 일 실시예에 따른 무인 반송차(100)는 무인으로 자동 주행하여 이동할 수 있는 기기로서, 자재 등을 적재할 수 있는 수납 공간, 이동을 위한 구동 수단 등을 포함할 수 있다.Referring to FIG. 3, the unmanned guided vehicle 100 according to an embodiment of the present disclosure is a device that can drive and move unmanned automatically, and includes a storage space for loading materials, etc., a driving means for movement, etc. can do.

도 4는 본 개시의 일 실시예에 따른 무인 반송차의 기능적 구성을 개략적으로 도시한 블록도이다.Figure 4 is a block diagram schematically showing the functional configuration of an unmanned guided vehicle according to an embodiment of the present disclosure.

도 4를 참조하면, 본 개시의 일 실시에 따른 무인 반송차(100)는 광 검출부(110), 거리 측정부(120), 이동부(130) 및 제어부(140)를 포함할 수 있다. 도 4에 도시된 구성요소들은 무인 반송차(100)의 모든 기능을 반영한 것이 아니고, 필수적인 것도 아니어서, 무인 반송차(100)는 도시된 구성요소들 보다 많은 구성요소를 포함하거나 그보다 적은 구성요소를 포함할 수 있다. 예를 들면, 무인 반송차(100)는 무인 반송차(100)의 전면에 설치되어 무인 반송차(100)의 주변 환경의 이미지 정보를 수집하는 기능을 수행하는 이미지 센서(미도시)를 포함할 수 있다. 또한, 무인 반송차(100)는 무인 반송차(100)의 후방 내지 측면에 설치되어 장애물을 감지하는 기능을 수행하는 장애물 감지 센서(미도시)를 더 포함할 수 있다.Referring to FIG. 4 , the unmanned guided vehicle 100 according to an embodiment of the present disclosure may include a light detection unit 110, a distance measurement unit 120, a moving unit 130, and a control unit 140. The components shown in FIG. 4 do not reflect all functions of the unmanned guided vehicle 100 and are not essential, so the unmanned guided vehicle 100 includes more components than the illustrated components or fewer components. may include. For example, the unmanned guided vehicle 100 may include an image sensor (not shown) installed on the front of the unmanned guided vehicle 100 to collect image information of the surrounding environment of the unmanned guided vehicle 100. You can. Additionally, the unmanned guided vehicle 100 may further include an obstacle detection sensor (not shown) that is installed at the rear or side of the unmanned guided vehicle 100 and performs a function of detecting obstacles.

본 개시의 일 실시예에 따른 무인 반송차(100)의 광 검출부(110)는, 수광 범위 내에 위치하는 설비(200)에서 송신하는 광 신호를 수신, 검출하는 기능을 수행할 수 있다. 일 실시예에서, 광 검출부(110)는, 설비(200)의 광 송신 장치에서 송신되는 광 신호를 수신, 검출하여 광 신호에 대한 센싱 데이터를 출력할 수 있다.The light detection unit 110 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure may perform a function of receiving and detecting an optical signal transmitted from a facility 200 located within a light receiving range. In one embodiment, the optical detector 110 may receive and detect an optical signal transmitted from an optical transmission device of the facility 200 and output sensing data for the optical signal.

본 개시의 일 실시예에 따르면, 광 검출부(110)는 PSD 센서를 포함할 수 있다. PSD 센서는 실리콘 표면에 P-I-N 접합을 한 포토 다이오드의 일종으로, 횡방향 광기전력 효과를 이용하여 PSD 센서의 측정면에 결상되는 광 신호의 위치를 측정할 수 있다. 일 실시예에서, PSD 센서는 1차원 PSD 센서일 수 있다.According to one embodiment of the present disclosure, the light detection unit 110 may include a PSD sensor. The PSD sensor is a type of photodiode with a P-I-N junction on the silicon surface, and can measure the position of the optical signal formed on the measurement surface of the PSD sensor using the transverse photovoltaic effect. In one embodiment, the PSD sensor may be a one-dimensional PSD sensor.

본 개시의 일 실시예에 따르면, 광 검출부(110)에는 핀홀 카메라를 포함할 수 있다. 핀홀 카메라는 핀홀을 통과한 광이 초점거리 뒤 상평면에 맺히도록 구성된다. 일 실시예에서, 핀홀 카메라의 상평면은 PSD 센서의 측정면으로 구성될 수 있다. 이에 따라, 핀홀 카메라의 핀홀을 통과한 광 신호가 핀홀 카메라의 초점 거리 뒤에 위치하는 PSD 센서의 측정면에 결상될 수 있으며, PSD 센서는 측정면에 결상되는 광 신호의 위치를 측정할 수 있다.According to an embodiment of the present disclosure, the light detection unit 110 may include a pinhole camera. A pinhole camera is configured so that light passing through a pinhole is focused on the image plane behind the focal length. In one embodiment, the image plane of the pinhole camera may be configured as the measurement plane of the PSD sensor. Accordingly, the optical signal passing through the pinhole of the pinhole camera can be imaged on the measurement surface of the PSD sensor located behind the focal distance of the pinhole camera, and the PSD sensor can measure the position of the optical signal imaged on the measurement surface.

본 개시의 일 실시예에 따른 무인 반송차(100)의 거리 측정부(120)는, 무인 반송차(100)의 일측에 설치되어 무인 반송차(100) 주변 객체까지의 거리를 측정하는 기능을 수행할 수 있다.The distance measuring unit 120 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure is installed on one side of the unmanned guided vehicle 100 and has the function of measuring the distance to objects surrounding the unmanned guided vehicle 100. It can be done.

본 개시의 일 실시예에 따르면, 거리 측정부(120)는 라이다(Light Detection And Ranging, LiDAR) 센서를 포함할 수 있다. 라이다 센서는 발광 소자와 수광 소자를 구비하여, 레이저 파장의 빛을 외부로 방출하고, 이 방출된 빛이 주위의 대상 물체에서 반사되어 되돌아오는 데 소요되는 시간을 측정하여 대상 물체까지의 거리 등을 파악하는, 소위 이동 시간차 원리를 이용한 장치이다. 일 실시예에서, 라이다 센서는 무인 반송차(100) 주변 객체(예를 들어, 무인 반송차(100)에서 이동하고자 하는 설비(200))까지의 거리 데이터를 측정할 수 있으며, 라이다 센서에 의해서 측정되는 거리 데이터는 후술하는 제어부(140)에 전달될 수 있다. 여기서, 라이다 센서를 통해 측정되는 거리 데이터는 3D 공간에서 점들의 집합 형태로 나타내는 포인트 클라우드(point cloud) 정보일 수 있다.According to an embodiment of the present disclosure, the distance measuring unit 120 may include a Light Detection And Ranging (LiDAR) sensor. The LiDAR sensor is equipped with a light-emitting element and a light-receiving element, emits light of a laser wavelength to the outside, and measures the time it takes for this emitted light to reflect from the surrounding target object and return, such as the distance to the target object, etc. It is a device that uses the so-called travel time difference principle to determine. In one embodiment, the LiDAR sensor may measure distance data from an object surrounding the unmanned guided vehicle 100 (e.g., a facility 200 to be moved from the unmanned guided vehicle 100). The distance data measured by may be transmitted to the control unit 140, which will be described later. Here, the distance data measured through the LiDAR sensor may be point cloud information expressed in the form of a set of points in 3D space.

본 개시의 일 실시예에 따른 무인 반송차(100)의 이동부(130)는, 무인 반송차(100)의 이동 방향 및 이동 속도를 조정하는 기능을 수행할 수 있다.The moving unit 130 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure may perform a function of adjusting the moving direction and moving speed of the unmanned guided vehicle 100.

도 5는 본 개시의 일 실시예에 따른 무인 반송차를 아래쪽에서 바라본 모습과 무인 반송차의 이동부의 개략적인 모습을 나타내는 도면이다.FIG. 5 is a diagram illustrating a schematic view of an unmanned guided vehicle viewed from below and a moving part of the unmanned guided vehicle according to an embodiment of the present disclosure.

도 5에 도시된 바와 같이, 무인 반송차(100)의 이동부(130)는 무인 반송차(100)의 본체 바닥면에 적어도 한 개가 설치될 수 있다. 이동부(130)는 휠, 모터, 엔코더 및 모터 드라이브로 구성될 수 있으며, 각기 독립적으로 구동되도록 구성될 수 있다.As shown in FIG. 5, at least one moving unit 130 of the unmanned guided vehicle 100 may be installed on the bottom of the main body of the unmanned guided vehicle 100. The moving unit 130 may be composed of a wheel, a motor, an encoder, and a motor drive, and each may be configured to be driven independently.

도시된 실시예에서, 이동부(130)는 무인 반송차(100) 전방부에 2개, 후방부에 2개, 총 4개 설치될 수 있으며, 무인 반송차(100) 본체의 바닥면의 중심을 기준으로 대칭적으로 설치될 수 있다. 이동부(130) 각각은 본체 바닥면에 대하여 수직 방향(즉, 지면에 수직한 방향)을 기준으로 회전 가능하도록 설치될 수 있다. 이에 따라, 무인 반송차(100)는 직진 방향 이동 뿐만 아니라 이동부(130)를 회전시켜 측방향으로의 이동도 가능하게 된다. 이는 모든 방향으로 무인 반송차(100)의 미세한 이동을 가능하게 하여, 후술하는 바와 같이 설비(200)와의 상대적인 위치를 정밀하게 제어할 수 있도록 한다.In the illustrated embodiment, a total of four moving units 130 may be installed, two at the front and two at the rear of the unmanned guided vehicle 100, and located at the center of the bottom surface of the main body of the unmanned guided vehicle 100. It can be installed symmetrically based on . Each of the moving units 130 may be installed to be rotatable relative to a direction perpendicular to the bottom surface of the main body (i.e., a direction perpendicular to the ground). Accordingly, the unmanned guided vehicle 100 can move not only in a straight direction but also in a lateral direction by rotating the moving unit 130. This enables fine movement of the unmanned guided vehicle 100 in all directions, allowing precise control of its relative position with the equipment 200, as will be described later.

본 개시의 일 실시예에 따른 무인 반송차(100)의 제어부(140)는, 무인 반송차(100)에 대한 설비(200)의 상대적인 위치를 산출하고, 설비(200)의 상대적인 위치에 따라 이동부(130)의 이동 방향, 이동 속도 및 이동 거리 중 적어도 하나를 제어하는 기능을 수행할 수 있다.The control unit 140 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure calculates the relative position of the equipment 200 with respect to the unmanned guided vehicle 100 and moves according to the relative position of the equipment 200. It may perform a function of controlling at least one of the moving direction, moving speed, and moving distance of the unit 130.

도 6은 본 개시의 일 실시예에 따른 무인 반송차의 제어부의 세부 구성을 개략적으로 도시한 블록도이다.Figure 6 is a block diagram schematically showing the detailed configuration of a control unit of an unmanned guided vehicle according to an embodiment of the present disclosure.

도 6을 참조하면, 본 개시의 일 실시에 따른 무인 반송차(100)의 제어부(140)는 데이터 획득부(142), 방향 산출부(144), 위치 산출부(146) 및 이동 명령부(148)를 포함할 수 있다. 도 6에 도시된 구성요소들은 제어부(140)의 모든 기능을 반영한 것이 아니고, 필수적인 것도 아니어서, 제어부(140)는 도시된 구성요소들 보다 많은 구성요소를 포함하거나 그보다 적은 구성요소를 포함할 수 있다.Referring to FIG. 6, the control unit 140 of the unmanned guided vehicle 100 according to an embodiment of the present disclosure includes a data acquisition unit 142, a direction calculation unit 144, a position calculation unit 146, and a movement command unit ( 148) may be included. The components shown in FIG. 6 do not reflect all functions of the control unit 140 and are not essential, so the control unit 140 may include more or fewer components than the shown components. there is.

본 개시의 일 실시예에 따르면, 데이터 획득부(142), 방향 산출부(144), 위치 산출부(146) 및 이동 명령부(148)는 그 중 적어도 일부가 외부 장치(미도시)와 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 장치, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 제어부(140)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 위치 제어부(140)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 개시에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present disclosure, at least some of the data acquisition unit 142, direction calculation unit 144, location calculation unit 146, and movement command unit 148 communicate with an external device (not shown). These may be program modules. These program modules may be included in the control unit 140 in the form of operating devices, application program modules, and other program modules, and may be physically stored in various known memory devices. Additionally, these program modules may be stored in a remote memory device capable of communicating with the location control unit 140. Meanwhile, these program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present disclosure.

본 개시의 일 실시예에 따르면, 데이터 획득부(142)는 센싱 데이터를 획득하는 기능을 수행할 수 있다. 앞서 설명한 바와 같이, 무인 반송차(100)는 광 검출부(110)에 의해서 설비(200)의 광 송신 장치(예를 들어, 적외선 LED)에서 송신되는 광 신호를 검출할 수 있으며, 데이터 획득부(142)는 이로부터 광 신호에 대한 센싱 데이터를 획득할 수 있다. 일 실시예에서, 센싱 데이터는 핀홀 카메라의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.According to an embodiment of the present disclosure, the data acquisition unit 142 may perform a function of acquiring sensing data. As described above, the unmanned guided vehicle 100 can detect an optical signal transmitted from an optical transmission device (for example, an infrared LED) of the facility 200 by the optical detection unit 110, and the data acquisition unit ( 142) can obtain sensing data for the optical signal from this. In one embodiment, the sensing data may include position data of an optical signal that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor.

본 개시의 일 실시예에 따르면, 데이터 획득부(142)는 거리 데이터를 획득하는 기능을 수행할 수 있다. 앞서 설명한 바와 같이, 무인 반송차(100)는 거리 측정부(120)에 의해서 무인 반송차(100)에서 무인 반송차(100) 주변 객체까지의 거리를 측정할 수 있으며, 데이터 획득부(142)는 이로부터 무인 반송차(100)에서 설비(200)까지의 거리 데이터를 획득할 수 있다. 일 실시예에서, 데이터 획득부(142)는 후술하는 방향 산출부(142)에서 산출되는 설비(200)의 방향을 참조하여 무인 반송차(100)에서 설비(200)까지의 거리 데이터를 획득할 수 있다. 구체적으로, 무인 반송차(100)의 거리 측정부(120)에서 측정되는 거리 데이터 중에서 방향 산출부(142)에서 산출되는 설비(200)의 방향에 대한 거리 데이터를 무인 반송차(100)에서 설비(200)까지의 거리 데이터로서 획득할 수 있다.According to an embodiment of the present disclosure, the data acquisition unit 142 may perform a function of acquiring distance data. As described above, the unmanned guided vehicle 100 can measure the distance from the unmanned guided vehicle 100 to an object surrounding the unmanned guided vehicle 100 by the distance measuring unit 120, and the data acquisition unit 142 From this, distance data from the unmanned guided vehicle 100 to the facility 200 can be obtained. In one embodiment, the data acquisition unit 142 obtains distance data from the unmanned guided vehicle 100 to the facility 200 with reference to the direction of the facility 200 calculated by the direction calculation unit 142, which will be described later. You can. Specifically, among the distance data measured by the distance measuring unit 120 of the unmanned guided vehicle 100, the distance data for the direction of the equipment 200 calculated by the direction calculation unit 142 is used to It can be obtained as distance data up to (200).

본 개시의 일 실시예에 따르면, 방향 산출부(144)는 센싱 데이터를 기반으로 설비(200)의 방향을 산출하는 기능을 수행할 수 있다. 일 실시예에서, 설비(200)의 방향은 설비(200)에서 송신되는 광 신호의 방향에 대응할 수 있으며, 방향 산출부(144)는 무인 반송차(100)의 진행 방향에 대한 광 신호의 배향 각도를 산출하는 방식으로 광 신호의 방향, 즉 설비(200)의 방향을 산출할 수 있다.According to an embodiment of the present disclosure, the direction calculation unit 144 may perform a function of calculating the direction of the facility 200 based on sensing data. In one embodiment, the direction of the equipment 200 may correspond to the direction of an optical signal transmitted from the equipment 200, and the direction calculation unit 144 may determine the orientation of the optical signal with respect to the traveling direction of the unmanned guided vehicle 100. By calculating the angle, the direction of the optical signal, that is, the direction of the facility 200, can be calculated.

도 7은 본 개시의 일 실시예에 따라 무인 반송차에서 설비의 방향을 산출하는 모습을 예시적으로 나타내는 도면이다.Figure 7 is a diagram illustrating calculating the direction of a facility in an unmanned guided vehicle according to an embodiment of the present disclosure.

도 7을 참조하면, 방향 산출부(144)는 광 검출부(720)에서 검출되는 광 신호에 대한 센싱 데이터를 기반으로 설비(200)의 방향(θ)을 산출할 수 있다. 본 개시의 일 실시예에 따르면, 방향 산출부(144)는 아래 수학식 1에 따라 설비의 방향(θ), 즉 무인 반송차(100)의 진행 방향에 대한 광 신호의 배향 각도를 산출할 수 있다.Referring to FIG. 7 , the direction calculation unit 144 may calculate the direction θ of the facility 200 based on sensing data for the optical signal detected by the light detection unit 720. According to an embodiment of the present disclosure, the direction calculation unit 144 can calculate the orientation angle of the optical signal with respect to the direction of the facility (θ), that is, the traveling direction of the unmanned guided vehicle 100, according to Equation 1 below: there is.

여기서, f는 핀홀 카메라의 초점 거리로, 핀홀(721)에서 PSD 센서(723)의 측정면까지의 거리이며, d는 광 신호의 위치 데이터로, 광 검출부(720)에서 수신, 검출한 광 신호에 대한 센싱 데이터로부터 획득할 수 있다. 구체적으로, 설비(200)의 광 송신 장치(예를 들어, 적외선 LED)(710)에서 송신되는 광 신호가 핀홀 카메라의 핀홀(721)을 통과하여 PSD 센서(723)의 측정면의 한 점에 입사되고, PSD 센서(723)가 PSD 센서(723)의 측정면에 입사된 광 신호의 위치를 측정하여 광 신호의 위치 데이터(d)를 출력할 수 있다.Here, f is the focal length of the pinhole camera, which is the distance from the pinhole 721 to the measurement surface of the PSD sensor 723, and d is the position data of the optical signal, which is the optical signal received and detected by the optical detector 720. It can be obtained from sensing data for. Specifically, the optical signal transmitted from the optical transmitting device (e.g., infrared LED) 710 of the equipment 200 passes through the pinhole 721 of the pinhole camera and reaches a point on the measurement surface of the PSD sensor 723. is incident, and the PSD sensor 723 can measure the position of the optical signal incident on the measurement surface of the PSD sensor 723 and output position data (d) of the optical signal.

본 개시의 일 실시예에 따르면, 위치 산출부(146)는 방향 산출부(144)에서 산출되는 설비(200)의 방향 및 데이터 획득부(142)에서 획득한 거리 데이터를 기반으로 설비(200)의 위치를 산출하는 기능을 수행할 수 있다. 일 실시예에서, 설비(200)의 위치는 무인 반송차(100)의 현재 위치에 따른 상대적인 위치를 나타내는 것으로서, 위치 산출부(146)는 설비(200)의 상대적인 위치를 직교 좌표 형태, 예를 들어 (x, y) 좌표 형태로 산출할 수 있다.According to an embodiment of the present disclosure, the location calculation unit 146 calculates the equipment 200 based on the direction of the equipment 200 calculated by the direction calculation unit 144 and the distance data obtained by the data acquisition unit 142. It can perform the function of calculating the location of . In one embodiment, the location of the facility 200 represents a relative position according to the current location of the unmanned guided vehicle 100, and the location calculation unit 146 calculates the relative location of the facility 200 in the form of orthogonal coordinates, for example. For example, it can be calculated in the form of (x, y) coordinates.

도 8은 본 개시의 일 실시예에 따라 무인 반송차에서 설비의 상대적인 위치를 산출하는 모습을 예시적으로 나타내는 도면이다.Figure 8 is a diagram illustrating calculating the relative position of equipment in an unmanned guided vehicle according to an embodiment of the present disclosure.

도 8을 참조하면, 위치 산출부(146)는 설비의 방향(θ) 및 무인 반송차(100)에서 설비(200)까지의 거리 데이터를 기반으로 무인 반송차(100)에 대한 설비(200)의 상대적인 위치를 산출할 수 있다. 본 개시의 일 실시예에 따르면, 위치 산출부(146)는 아래 수학식 2에 따라, 무인 반송차의 이동 방향을 x축, 이동 방향에 수직한 방향을 y축으로 하고, 핀홀(821)을 원점으로 하는 좌표계에서의 설비(200)의 위치를 (xIR, yIR) 좌표 형태로 산출할 수 있다.Referring to FIG. 8, the location calculation unit 146 determines the location of the facility 200 for the unmanned guided vehicle 100 based on the direction (θ) of the facility and the distance data from the unmanned guided vehicle 100 to the facility 200. The relative position of can be calculated. According to an embodiment of the present disclosure, the position calculation unit 146 sets the moving direction of the unmanned guided vehicle as the x-axis, the direction perpendicular to the moving direction as the y-axis, and creates a pinhole 821 according to Equation 2 below. The location of the facility 200 in a coordinate system set as the origin can be calculated in the form of (x IR , y IR ) coordinates.

여기서, θ는 방향 산출부(144)에서 산출한 설비의 방향이고, rIR은 무인 반송차에서 설비까지의 거리 데이터로, 무인 반송차의 거리 측정부(즉, 라이다)에서 측정되는 거리 데이터 중 설비 방향(θ)에 대한 데이터이다.Here, θ is the direction of the facility calculated by the direction calculation unit 144, r IR is distance data from the unmanned guided vehicle to the facility, and distance data measured by the distance measurement unit (i.e., LIDAR) of the unmanned guided vehicle. This is data about the direction of equipment (θ).

본 개시의 일 실시예에 따르면, 위치 산출부(146)는 무인 반송차(100)의 목표 위치까지의 도달 정확도를 높이기 위해, 이동 과정에서 실시간으로 또는 기 설정된 시간 간격으로 무인 반송차(100)의 현재의 위치에 대한 설비(200)의 상대적인 위치를 산출할 수 있으며, 위치 산출부(146)에서 산출된 설비(100)의 상대적인 위치는 후술하는 이동 명령부(148)에 전달될 수 있다.According to an embodiment of the present disclosure, the location calculation unit 146 operates the unmanned guided vehicle 100 in real time or at preset time intervals during the movement process in order to increase the accuracy of reaching the target location of the unmanned guided vehicle 100. The relative position of the equipment 200 with respect to the current position can be calculated, and the relative position of the equipment 100 calculated by the position calculation unit 146 can be transmitted to the movement command unit 148, which will be described later.

본 개시의 일 실시예에 따르면, 이동 명령부(148)는 위치 산출부(146)에서 산출된 설비(200)의 상대적인 위치에 따라 무인 반송차(100)에 이동을 명령하는 기능을 수행할 수 있다. 구체적으로, 이동 명령부(148)는 무인 반송차(100)에 대한 설비(200)의 상대적인 거리와 방향을 고려하여 무인 반송차(100)의 이동부(130)의 구동을 제어하여 무인 반송차(100)의 위치를 변경시킬 수 있다.According to an embodiment of the present disclosure, the movement command unit 148 may perform the function of commanding the unmanned guided vehicle 100 to move according to the relative position of the facility 200 calculated by the position calculation unit 146. there is. Specifically, the movement command unit 148 controls the driving of the moving unit 130 of the unmanned guided vehicle 100 in consideration of the relative distance and direction of the equipment 200 with respect to the unmanned guided vehicle 100. The position of (100) can be changed.

본 개시의 일 실시예에 따르면, 이동 명령부(148)는 무인 반송차(100)의 이동 방향, 이동 거리 및 이동 속도 중 적어도 하나를 결정하고, 무인 반송차(100)에 이동을 명령할 수 있다. 일 실시예에서, 이동 명령부(148)는 무인 반송차(100)의 현재 위치에서의 설비(200)의 상대적인 위치에 관한 정보를 계속적으로 확인하면서 무인 반송차(100)의 이동을 실시간으로 제어할 수 있다.According to an embodiment of the present disclosure, the movement command unit 148 may determine at least one of the movement direction, movement distance, and movement speed of the unmanned guided vehicle 100, and command the unmanned guided vehicle 100 to move. there is. In one embodiment, the movement command unit 148 controls the movement of the unmanned guided vehicle 100 in real time while continuously checking information about the relative position of the equipment 200 at the current location of the unmanned guided vehicle 100. can do.

이처럼, 무인 반송차에 대한 설비의 상대적인 위치를 고려하여 무인 반송차의 이동을 제어함으로써, 무인 반송차의 이동을 보다 정밀하게 제어할 수 있다. 예를 들어, 무인 반송차의 충전을 위해 무인 반송차를 충전 장치에 도킹하는 경우와 같이 무인 반송차를 설비에 대해 정확한 위치에 이동시키는 것이 필요한 경우, 무인 반송차의 정밀 이동 제어가 가능하게 된다.In this way, by controlling the movement of the unmanned guided vehicle by considering the relative position of the equipment with respect to the unmanned guided vehicle, the movement of the unmanned guided vehicle can be controlled more precisely. For example, when it is necessary to move the unmanned guided vehicle to an accurate position relative to the facility, such as docking the unmanned guided vehicle to a charging device to charge the unmanned guided vehicle, precise movement control of the unmanned guided vehicle is possible. .

도 9는 본 개시의 일 실시예에 따라 무인 반송차의 이동을 제어하는 과정을 예시적으로 보여주는 동작 흐름도이다.Figure 9 is an operation flowchart exemplarily showing a process of controlling the movement of an unmanned guided vehicle according to an embodiment of the present disclosure.

먼저, 단계(S902)에서 제어부(140)는, 무인 반송차가 이동하고자 하는 설비에서 송신되는 광 신호에 대한 센싱 데이터를 획득할 수 있다. 일 실시예에서, 설비는 광 신호를 주기적으로 송신하도록 구성되는 광 송신 장치를 포함할 수 있으며, 광 송신 장치는 적외선 LED로 구성될 수 있다. 앞서 설명한 바와 같이, 무인 반송차는 광 검출부를 포함할 수 있으며, 센싱 데이터는 무인 반송차의 광 검출부를 통해 실시간으로 획득될 수 있다. 일 실시예에서, 무인 반송차의 광 검출부는 PSD 센서 및 핀홀 카메라를 포함할 수 있으며, 센싱 데이터는 핀홀 카메라의 핀홀을 통과하여 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함할 수 있다.First, in step S902, the control unit 140 may obtain sensing data for an optical signal transmitted from a facility where the unmanned guided vehicle is to move. In one embodiment, the fixture may include an optical transmission device configured to periodically transmit an optical signal, where the optical transmission device may consist of an infrared LED. As previously described, the unmanned guided vehicle may include a light detection unit, and sensing data may be acquired in real time through the light detection unit of the unmanned guided vehicle. In one embodiment, the light detection unit of the unmanned guided vehicle may include a PSD sensor and a pinhole camera, and the sensing data may include position data of an optical signal that passes through the pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor. there is.

단계(S904)에서 제어부(140)는, 단계(S902)에서 획득한 센싱 데이터를 기반으로 설비의 방향을 산출할 수 있다. 일 실시예에서, 설비의 방향은 설비에서 송신하는 광 신호의 방향에 대응할 수 있으며, 제어부(140)는 무인 반송차의 진행 방향에 대한 광 신호의 배향 각도를 산출하는 방식으로 설비의 방향을 산출할 수 있다.In step S904, the control unit 140 may calculate the direction of the facility based on the sensing data obtained in step S902. In one embodiment, the direction of the facility may correspond to the direction of an optical signal transmitted from the facility, and the control unit 140 calculates the direction of the facility by calculating the orientation angle of the optical signal with respect to the direction of travel of the unmanned guided vehicle. can do.

다음으로, 단계(S906)에서 제어부(140)는, 단계(S904)에서 산출되는 설비의 방향을 참조하여 무인 반송차에서 설비까지의 거리 데이터를 획득할 수 있다. 일 실시예에서, 거리 측정 장치(즉, 라이다 센서)를 통해 무인 반송차에서 이동하고자 하는 설비까지의 거리 데이터를 실시간으로 획득할 수 있다. Next, in step S906, the control unit 140 may obtain distance data from the unmanned guided vehicle to the facility by referring to the direction of the facility calculated in step S904. In one embodiment, distance data from the unmanned guided vehicle to the facility to be moved can be acquired in real time through a distance measuring device (i.e., lidar sensor).

단계(S908)에서 제어부(140)는, 단계(S904)에서 산출되는 설비의 방향 및 단계(S906)에서 획득한 거리 데이터를 기반으로 무인 반송차에 대한 설비의 상대적인 위치를 산출할 수 있다. 일 실시예에서, 설비의 상대적인 위치는 무인 반송차의 현재 위치를 기준으로 직교 좌표 형태, 즉 (x, y) 좌표 형태로 산출될 수 있다. In step S908, the control unit 140 may calculate the relative position of the facility with respect to the unmanned guided vehicle based on the direction of the facility calculated in step S904 and the distance data obtained in step S906. In one embodiment, the relative position of the equipment may be calculated in the form of Cartesian coordinates, that is, (x, y) coordinates, based on the current position of the unmanned guided vehicle.

마지막으로, 단계(S910)에서 제어부(140)는, 단계(S908)에서 산출한 설비의 상대적인 위치에 따라 무인 반송차의 이동 방향, 이동 거리 및 이동 속도 중 적어도 하나를 제어할 수 있다.Finally, in step S910, the control unit 140 may control at least one of the moving direction, moving distance, and moving speed of the unmanned guided vehicle according to the relative position of the equipment calculated in step S908.

이상 설명된 본 개시에 따른 실시예에서의 제어부는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 개시에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The control unit in the embodiment according to the present disclosure described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. A computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present disclosure or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. A hardware device may be replaced with one or more software modules to perform processing according to the present disclosure, and vice versa.

이상에서는 본 개시를 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면을 통해 설명하였으나, 이는 본 개시의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐이며, 본 개시가 상기 실시예들에 한정되는 것은 아니며, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있을 것이다.In the above, the present disclosure has been described through specific details such as specific components and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present disclosure, and the present disclosure is not limited to the above embodiments. , a person skilled in the art to which this disclosure pertains will be able to make various modifications and variations from this description.

따라서, 본 개시의 사상은 전술한 실시예에 국한되어 정해져서는 아니되며, 후술하는 청구범위뿐만 아니라 이와 균등하게 또는 등가적으로 변형된 모든 것들은 본 개시의 사상의 범주에 속하는 것으로 해석되어야 한다.Accordingly, the spirit of the present disclosure should not be limited to the above-described embodiments, and the claims described below as well as all equivalent or equivalent modifications thereto should be construed as falling within the scope of the spirit of the present disclosure.

100: 무인 반송차
110: 광 검출부
120: 거리 측정부
130: 이동부
140: 제어부
142: 데이터 획득부
144: 방향 산출부
146: 위치 산출부
148: 이동 명령부
200: 설비
100: Unmanned guided vehicle
110: Light detection unit
120: Distance measuring unit
130: moving part
140: control unit
142: Data acquisition unit
144: Direction calculation unit
146: Position calculation unit
148: Movement command
200: Equipment

Claims (15)

무인 반송차의 설비로의 이동을 제어하기 위한 방법으로서,
상기 설비에서 송신되는 광 신호에 대한 센싱 데이터를 획득하는 단계,
상기 센싱 데이터를 기반으로 상기 설비의 방향을 산출하는 단계,
상기 설비의 방향을 참조하여 상기 무인 반송차에서 상기 설비까지의 거리 데이터를 획득하는 단계,
상기 설비의 방향 및 상기 거리 데이터를 기반으로 상기 무인 반송차에 대한 상기 설비의 상대적인 위치를 산출하는 단계 및
상기 설비의 상대적인 위치에 따라 상기 무인 반송차의 이동 방향, 이동 거리 및 이동 속도 중 적어도 하나를 제어하는 단계를 포함하는
무인 반송차의 이동 제어 방법.
As a method for controlling the movement of an unmanned guided vehicle to a facility,
Obtaining sensing data for an optical signal transmitted from the facility,
Calculating the direction of the equipment based on the sensing data,
Obtaining distance data from the unmanned guided vehicle to the facility by referring to the direction of the facility,
Calculating the relative position of the facility with respect to the unmanned guided vehicle based on the direction of the facility and the distance data; and
Comprising the step of controlling at least one of the moving direction, moving distance, and moving speed of the unmanned guided vehicle according to the relative position of the equipment.
Method for controlling the movement of an unmanned guided vehicle.
제1항에 있어서,
광 신호를 주기적으로 송신하도록 구성되는 광 송신 장치가 상기 설비에 구비되고, 상기 광 송신 장치는 적외선 LED를 포함하는, 무인 반송차의 이동 제어 방법.
According to paragraph 1,
A method for controlling the movement of an unmanned guided vehicle, wherein the equipment is provided with an optical transmission device configured to periodically transmit an optical signal, and the optical transmission device includes an infrared LED.
제1항에 있어서,
상기 무인 반송차는 광 검출부를 포함하고,
상기 센싱 데이터를 획득하는 단계에서, 상기 센싱 데이터는 상기 광 검출부를 통해 실시간으로 획득되는, 무인 반송차의 이동 제어 방법.
According to paragraph 1,
The unmanned guided vehicle includes a light detection unit,
In the step of acquiring the sensing data, the sensing data is acquired in real time through the light detection unit.
제3항에 있어서,
상기 광 검출부는 PSD 센서 및 핀홀 카메라를 포함하고,
상기 센싱 데이터를 획득하는 단계에서, 상기 센싱 데이터는 상기 핀홀 카메라의 핀홀을 통과하여 상기 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함하는, 무인 반송차의 이동 제어 방법.
According to paragraph 3,
The light detection unit includes a PSD sensor and a pinhole camera,
In the step of acquiring the sensing data, the sensing data includes position data of an optical signal that passes through a pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor.
제1항에 있어서,
상기 설비의 방향을 산출하는 단계에서는, 상기 무인 반송차의 진행 방향에 대한 상기 광 신호의 배향 각도를 산출하는, 무인 반송차의 이동 제어 방법.
According to paragraph 1,
In the step of calculating the direction of the equipment, an orientation angle of the optical signal with respect to the direction of travel of the unmanned guided vehicle is calculated.
제1항에 있어서,
상기 무인 반송차는 라이다 센서를 포함하고,
상기 거리 데이터를 획득하는 단계에서, 상기 거리 데이터는 상기 라이다 센서를 통해 실시간으로 획득되는, 무인 반송차의 이동 제어 방법.
According to paragraph 1,
The unmanned guided vehicle includes a LiDAR sensor,
In the step of acquiring the distance data, the distance data is acquired in real time through the LiDAR sensor.
제1항에 있어서,
상기 설비의 상대적인 위치를 산출하는 단계에서는, 상기 무인 반송차의 현재 위치를 기준으로 상기 설비의 상대적인 위치를 직교 좌표 형태로 산출하는, 무인 반송차의 이동 제어 방법.
According to paragraph 1,
In the step of calculating the relative position of the equipment, a method for controlling the movement of an unmanned guided vehicle, wherein the relative position of the equipment is calculated in the form of orthogonal coordinates based on the current position of the unmanned guided vehicle.
제1항 내지 제7항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.A non-transitory computer-readable recording medium recording a computer program for executing the method according to any one of claims 1 to 7. 이동하고자 하는 설비에서 송신하는 광 신호를 검출하여 센싱 데이터를 출력하는 광 검출부,
상기 설비까지의 거리 데이터를 획득하기 위한 거리 측정부,
이동 방향 및 이동 속도의 조정이 가능한 이동부,
상기 센싱 데이터와 상기 거리 데이터를 기반으로 상기 설비의 상대적인 위치를 산출하고, 상기 설비의 상대적인 위치에 따라 상기 이동부의 이동 방향, 이동 속도 및 이동 거리 중 적어도 하나를 제어하기 위한 제어부
를 포함하는 무인 반송차.
An optical detection unit that detects optical signals transmitted from the equipment to be moved and outputs sensing data,
A distance measuring unit for acquiring distance data to the facility,
A moving part capable of adjusting the moving direction and moving speed,
A control unit for calculating the relative position of the equipment based on the sensing data and the distance data, and controlling at least one of the moving direction, moving speed, and moving distance of the moving part according to the relative position of the equipment.
An unmanned guided vehicle including.
제9항에 있어서,
상기 광 검출부는 PSD 센서 및 핀홀 카메라를 포함하고, 상기 센싱 데이터는 상기 핀홀 카메라의 핀홀을 통과하여 상기 PSD 센서의 측정면에 결상되는 광 신호의 위치 데이터를 포함하는, 무인 반송차.
According to clause 9,
The light detection unit includes a PSD sensor and a pinhole camera, and the sensing data includes location data of an optical signal that passes through a pinhole of the pinhole camera and is imaged on the measurement surface of the PSD sensor.
제9항에 있어서,
상기 거리 측정부는 라이다 센서를 포함하고, 상기 라이다 센서를 통해 상기 거리 데이터를 실시간으로 획득하는, 무인 반송차.
According to clause 9,
The distance measuring unit includes a LiDAR sensor, and acquires the distance data in real time through the LiDAR sensor.
제9항에 있어서,
상기 제어부는, 상기 무인 반송차의 진행 방향에 대한 상기 설비에서 송신하는 광 신호의 배향 각도를 산출하는 방식으로 상기 설비의 방향을 산출하는, 무인 반송차.
According to clause 9,
The control unit calculates the direction of the equipment by calculating an orientation angle of an optical signal transmitted from the equipment with respect to the direction of travel of the unmanned guided vehicle.
제9항에 있어서,
상기 제어부는, 상기 센싱 데이터를 기반으로 상기 설비의 방향을 산출하고, 상기 설비의 방향을 참조하여 상기 거리 데이터를 획득하며, 상기 설비의 방향 및 상기 거리 데이터를 기반으로 상기 무인 반송차에 대한 상기 설비의 상대적인 위치를 산출하는,
무인 반송차.
According to clause 9,
The control unit calculates the direction of the equipment based on the sensing data, obtains the distance data with reference to the direction of the equipment, and calculates the distance data for the unmanned guided vehicle based on the direction of the equipment and the distance data. Calculating the relative position of equipment,
Unmanned guided vehicle.
제13항에 있어서,
상기 제어부는, 상기 설비의 상대적인 위치를 직교 좌표 형태로 산출하는, 무인 반송차.
According to clause 13,
The control unit calculates the relative position of the equipment in the form of orthogonal coordinates.
제9항에 있어서,
상기 이동부는 상기 무인 반송차의 본체 바닥면에 복수 개 설치되고, 상기 이동부 각각은 독립적으로 회동 가능하도록 구성되는, 무인 반송차.
According to clause 9,
An unmanned guided vehicle, wherein a plurality of moving units are installed on the bottom of the main body of the unmanned guided vehicle, and each of the moving units is configured to be able to rotate independently.
KR1020230051135A 2022-07-26 2023-04-19 Automated guided vehicle and method for controlling movement of automated guided vehicle KR102653633B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2023/010721 WO2024025293A1 (en) 2022-07-26 2023-07-25 Automated guided vehicle and method for controlling movement of automated guided vehicle
KR1020240040851A KR20240042394A (en) 2022-07-26 2024-03-26 Automated guided vehicle and method for controlling movement of automated guided vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220092553 2022-07-26
KR1020220092553 2022-07-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240040851A Division KR20240042394A (en) 2022-07-26 2024-03-26 Automated guided vehicle and method for controlling movement of automated guided vehicle

Publications (2)

Publication Number Publication Date
KR20240015561A true KR20240015561A (en) 2024-02-05
KR102653633B1 KR102653633B1 (en) 2024-04-03

Family

ID=89904164

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230051135A KR102653633B1 (en) 2022-07-26 2023-04-19 Automated guided vehicle and method for controlling movement of automated guided vehicle

Country Status (1)

Country Link
KR (1) KR102653633B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123116A (en) * 2006-11-09 2008-05-29 Nissan Motor Co Ltd Automatic carrier and its control method
KR101931291B1 (en) * 2017-11-22 2018-12-20 한국해양대학교 산학협력단 System and Method for Controlling Attitude based on Optical Communication at AUV Underwater Docking
JP2022040922A (en) * 2020-08-31 2022-03-11 三菱ロジスネクスト株式会社 Unmanned conveying vehicle control system, conveyance system, unmanned conveying vehicle, and work content determination method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123116A (en) * 2006-11-09 2008-05-29 Nissan Motor Co Ltd Automatic carrier and its control method
KR101931291B1 (en) * 2017-11-22 2018-12-20 한국해양대학교 산학협력단 System and Method for Controlling Attitude based on Optical Communication at AUV Underwater Docking
JP2022040922A (en) * 2020-08-31 2022-03-11 三菱ロジスネクスト株式会社 Unmanned conveying vehicle control system, conveyance system, unmanned conveying vehicle, and work content determination method

Also Published As

Publication number Publication date
KR102653633B1 (en) 2024-04-03

Similar Documents

Publication Publication Date Title
CN107976999B (en) Mobile robot and obstacle avoidance and path planning method and system thereof
DK169003B1 (en) Method of navigating a driverless vehicle
KR101060988B1 (en) Apparatus and method for tracking moving objects using intelligent signal strength of Zigbee
CN105190461A (en) Mobile body and position detection device
Singh et al. Comparative analysis of range sensors for the robust autonomous navigation–a review
CN107830832A (en) Workpiece profile scanning system and method
Nishizawa et al. An implementation of on-board position estimation for a mobile robot-ekf based odometry and laser reflector landmarks detection
KR102179238B1 (en) Human following cruise and autonomous method for a vehicle
CN111516777A (en) Robot trolley and obstacle identification method thereof
JP6781535B2 (en) Obstacle determination device and obstacle determination method
US20200233431A1 (en) Mobile body, location estimation device, and computer program
Liu A laser intensity based autonomous docking approach for mobile robot recharging in unstructured environments
JP6684531B2 (en) Unmanned transport system
KR102653633B1 (en) Automated guided vehicle and method for controlling movement of automated guided vehicle
JP2017032329A (en) Obstacle determination device, mobile body, and obstacle determination method
WO2020195333A1 (en) Distance measurement circuit, ranging device, and moving body
KR20240042394A (en) Automated guided vehicle and method for controlling movement of automated guided vehicle
CN210210406U (en) Tracking robot
JP3149661B2 (en) Automatic guided vehicle position identification method
Golnabi Role of laser sensor systems in automation and flexible manufacturing
JP2020166702A (en) Mobile body system, map creation system, route creation program and map creation program
JP2020076663A (en) Unmanned mobile object and method for controlling unmanned mobile object
JP7396353B2 (en) Map creation system, signal processing circuit, mobile object and map creation method
Takeda et al. Automated vehicle guidance using spotmark
JP3244642B2 (en) Mobile body guidance equipment

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent