KR102687873B1 - Method for estimating location of unmanned vehicle using container location - Google Patents

Method for estimating location of unmanned vehicle using container location Download PDF

Info

Publication number
KR102687873B1
KR102687873B1 KR1020230196317A KR20230196317A KR102687873B1 KR 102687873 B1 KR102687873 B1 KR 102687873B1 KR 1020230196317 A KR1020230196317 A KR 1020230196317A KR 20230196317 A KR20230196317 A KR 20230196317A KR 102687873 B1 KR102687873 B1 KR 102687873B1
Authority
KR
South Korea
Prior art keywords
container
location
unmanned vehicle
image
estimating
Prior art date
Application number
KR1020230196317A
Other languages
Korean (ko)
Inventor
정수미
이승일
이훈
Original Assignee
(주)토탈소프트뱅크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)토탈소프트뱅크 filed Critical (주)토탈소프트뱅크
Priority to KR1020230196317A priority Critical patent/KR102687873B1/en
Application granted granted Critical
Publication of KR102687873B1 publication Critical patent/KR102687873B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/43Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/86Arrangements for image or video recognition or understanding using pattern recognition or machine learning using syntactic or structural representations of the image or video pattern, e.g. symbolic string recognition; using graph matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 일 실시예에 따르면, 무인 차량으로부터 촬영된 컨테이너 번호 이미지를 입력 받는 단계, 상기 컨테이너 번호 이미지에서 컨테이너 번호를 인식하는 단계, 기 저장된 컨테이너 별 위치 데이터에 기초하여, 상기 컨테이너 번호와 대응되는 컨테이너 위치를 인식하는 단계 및 상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계를 포함하는 무인 차량의 위치 추정 방법이 개시된다.According to one embodiment of the present invention, receiving a container number image taken from an unmanned vehicle, recognizing a container number from the container number image, and selecting a container number corresponding to the container number based on pre-stored location data for each container. A method for estimating the location of an unmanned vehicle is disclosed, including the steps of recognizing the location of a container and estimating the location of the unmanned vehicle by estimating the distance between the container location and the unmanned vehicle.

Description

컨테이너 위치를 이용한 무인 차량의 위치 추정 방법{METHOD FOR ESTIMATING LOCATION OF UNMANNED VEHICLE USING CONTAINER LOCATION}Method for estimating the location of an unmanned vehicle using container location {METHOD FOR ESTIMATING LOCATION OF UNMANNED VEHICLE USING CONTAINER LOCATION}

본 발명은 컨테이너 위치를 이용한 무인 차량의 위치 추정 방법에 관한 것이다.The present invention relates to a method for estimating the location of an unmanned vehicle using the location of a container.

현재, 컨테이너 터미널에서 대형화된 선박의 많은 물량에 대해서 양/적하 작업을 빠른 시간 내에 처리함으로써 선박의 정박시간을 최소화하기 위한 기술이 개발되고 있다.Currently, technology is being developed to minimize the berthing time of ships by processing the loading/unloading work in a short time for large quantities of large ships at container terminals.

특히, 자율 주행 기술의 발달로 인해 컨테이너 터미널에서 컨테이너의 운송이 무인 차량에 의해서도 이루어지고 있다.In particular, due to the development of autonomous driving technology, the transportation of containers at container terminals is also being carried out by unmanned vehicles.

이에 따라, 컨테이너 터미널을 주행하는 야드트럭(YT: Yard Truck)의 주행 관리에 있어서, 유인 YT와 무인 YT가 혼재되고 있다.Accordingly, in the driving management of yard trucks (YT: YT) running in a container terminal, manned YT and unmanned YT are mixed.

종래의 경우, 무선인식(RFID)을 이용하여 항만 장치장 내 무인 YT의 정지위치를 인식하거나 GPS와 DGPS를 이용하여 무인 YT가 현재 자기 위치를 인식하고 있다.In the conventional case, the stationary position of the unmanned YT in the port equipment is recognized using radio frequency identification (RFID), or the unmanned YT recognizes its current location using GPS and DGPS.

그러나, 무인 야드트럭에서 GPS 수신이 안되거나 오차범위가 5M 이상이 되는 경우, BAY, ROW 위치의 정확도가 낮아져 목적위치에 제대로 도착했는지에 대한 확인에 어려움이 생길 수 있다.However, if GPS reception is not possible in an unmanned yard truck or the error range is greater than 5M, the accuracy of BAY and ROW locations may decrease, making it difficult to confirm whether the vehicle has properly arrived at the destination location.

본 발명의 일 실시예에 따른 해결하고자 하는 과제는, 무인 야드트럭이 인식한 컨테이너 번호에 해당되는 컨테이너의 위치를 통해 무인 야드트럭의 위치를 확인하는 것을 포함한다.The problem to be solved according to an embodiment of the present invention includes confirming the location of the unmanned yard truck through the location of the container corresponding to the container number recognized by the unmanned yard truck.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved by the present invention is not limited to the technical problem mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

상기 과제를 해결하기 위해, 본 발명의 일 측면에 따른 무인 차량의 위치 추정 방법은, 무인 차량으로부터 촬영된 컨테이너 번호 이미지를 입력 받는 단계, 상기 컨테이너 번호 이미지에서 컨테이너 번호를 인식하는 단계, 기 저장된 컨테이너 별 위치 데이터에 기초하여, 상기 컨테이너 번호와 대응되는 컨테이너 위치를 인식하는 단계 및 상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계를 포함할 수 있다.In order to solve the above problem, a method for estimating the position of an unmanned vehicle according to an aspect of the present invention includes steps of receiving a container number image taken from an unmanned vehicle, recognizing a container number from the container number image, and pre-stored containers. Based on location data, the method may include recognizing a container location corresponding to the container number and estimating a distance between the container location and the unmanned vehicle to estimate the location of the unmanned vehicle.

여기서, 상기 무인 차량으로부터 촬영된 컨테이너 번호 이미지는, 컨테이너 터미널에서 장치가 완료된 복수의 컨테이너들 각각의 일면이 촬영된 이미지일 수 있다.Here, the container number image taken from the unmanned vehicle may be an image of one side of each container whose equipment has been completed at the container terminal.

여기서, 상기 컨테이너 번호 이미지에서 컨테이너 번호를 인식하는 단계는, 기 마련된 이미지의 문자 인식 프로그램에 의해 상기 컨테이너 번호 이미지에서 관심 영역(ROI, Region Of Interest) 이미지를 추출하는 단계 및 이미지 프로세싱에 의해 상기 추출된 관심 영역 이미지에서 문자와 숫자로 구성된 컨테이너 번호를 추출하여 문자를 인식하는 단계를 포함할 수 있다.Here, the step of recognizing the container number in the container number image includes extracting a region of interest (ROI) image from the container number image using a character recognition program for the image, and extracting the region of interest (ROI) image by image processing. It may include a step of extracting a container number composed of letters and numbers from the region of interest image and recognizing the letters.

여기서, 상기 저장된 컨테이너 별 위치 데이터는, 외부 트럭에 의해 적어도 하나의 컨테이너가 장치된 이후에, 상기 장치된 컨테이너의 장치 위치와 상기 컨테이너의 번호를 함께 저장한 데이터일 수 있다.Here, the stored location data for each container may be data that stores the device location of the installed container and the number of the container after at least one container is installed by an external truck.

여기서, 상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계는, 상기 컨테이너 번호와 대응되는 컨테이너의 위치 좌표를 획득하는 단계, 상기 컨테이너의 위치 좌표를 이용하여, 상기 컨테이너 번호 이미지가 직사각형 이미지로 촬영될 때의 상기 무인 차량의 제1 위치 좌표를 산출하는 단계, 기 촬영된 상기 컨테이너 번호 이미지의 형태에 기초하여, 좌표 변환 행렬을 구하는 단계 및 상기 좌표 변환 행렬을 이용하여 상기 제1 위치 좌표를 변환하여 제2 위치 좌표를 산출하는 단계를 포함할 수 있다.Here, estimating the location of the unmanned vehicle by estimating the distance between the container location and the unmanned vehicle includes obtaining location coordinates of the container corresponding to the container number, using the location coordinates of the container, Calculating first position coordinates of the unmanned vehicle when the container number image is photographed as a rectangular image, calculating a coordinate transformation matrix based on the shape of the previously photographed container number image, and calculating the coordinate transformation matrix. It may include calculating second position coordinates by converting the first position coordinates.

본 발명의 또 다른 측면에 따른 무인 차량의 위치 추정 방법은, 무인 차량의 현재 위치 정보를 식별하는 단계, 상기 현재 위치 정보에 기초하여, 상기 무인 차량에게 작업을 할당하는 단계, 상기 할당된 작업 내용에 기초하여 목적지 및 경로를 산출하는 단계, 상기 경로를 주행하는 무인 차량으로부터 촬영된 컨테이너 번호 이미지를 입력 받는 단계, 상기 컨테이너 번호 이미지에서 컨테이너 번호를 인식하는 단계, 기 저장된 컨테이너 별 위치 데이터에 기초하여, 상기 컨테이너 번호와 대응되는 컨테이너 위치를 인식하는 단계 및 상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계를 포함할 수 있다.A method for estimating the location of an unmanned vehicle according to another aspect of the present invention includes identifying current location information of an unmanned vehicle, assigning a task to the unmanned vehicle based on the current location information, and content of the assigned task. calculating the destination and route based on the route, receiving a container number image taken from an unmanned vehicle traveling on the route, recognizing the container number from the container number image, based on pre-stored location data for each container. , recognizing the container location corresponding to the container number, and estimating the location of the unmanned vehicle by estimating the distance between the container location and the unmanned vehicle.

여기서, 상기 경로를 주행하는 무인 차량으로부터 촬영된 복수의 랜드마크 이미지를 입력 받는 단계, 기 저장된 랜드마크 별 위치 데이터에 기초하여, 상기 랜드마크 이미지에 대응되는 위치를 인식하는 단계 및 상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계를 더 포함할 수 있다.Here, receiving a plurality of landmark images taken from an unmanned vehicle traveling on the route, recognizing a location corresponding to the landmark image based on pre-stored location data for each landmark, and the container location and It may further include estimating the location of the unmanned vehicle by estimating the distance between the unmanned vehicles.

이상에서 설명한 바와 같이 본 발명의 실시예 및 여러 측면에 의하면, 컨테이너 번호로 랜드마크를 만들어 무인 야드트럭 위치 정보 보정을 통해 정보공백을 해소할 수 있다.As described above, according to the embodiment and various aspects of the present invention, the information gap can be resolved by creating a landmark using the container number and correcting the unmanned yard truck location information.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 설명 또는 청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the effects described above, and should be understood to include all effects that can be inferred from the configuration of the invention described in the description or claims of the present invention.

도 1은 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법을 수행하기 위한 관제 시스템을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 무인 차량이 컨테이너 번호 이미지를 촬영하는 상황을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법의 컨테이너 번호를 인식하는 단계를 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 컨테이너 번호 이미지와 컨테이너 번호를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 컨테이너 별 위치 데이터를 설명하기 위한 도면이다.
도 7 및 도 8은 본 발명의 일 실시예에 따른 컨테이너 위치와 무인 차량 사이의 거리를 추정하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 무인 차량에게 할당된 작업 경로를 설명하기 위한 도면이다.
도 10은 본 발명의 다양한 실시예에 따른 랜드마크 이미지를 설명하기 위한 도면이다.
Figure 1 is a block diagram showing a control system for performing a method for estimating the location of an unmanned vehicle according to an embodiment of the present invention.
Figure 2 is a flowchart showing a method for estimating the location of an unmanned vehicle according to an embodiment of the present invention.
Figure 3 is a diagram for explaining a situation in which an unmanned vehicle photographs a container number image according to an embodiment of the present invention.
Figure 4 is a flowchart showing the step of recognizing a container number in the method for estimating the location of an unmanned vehicle according to an embodiment of the present invention.
Figure 5 is a diagram for explaining a container number image and container number according to an embodiment of the present invention.
Figure 6 is a diagram for explaining location data for each container according to an embodiment of the present invention.
7 and 8 are diagrams for explaining a method of estimating the distance between a container location and an unmanned vehicle according to an embodiment of the present invention.
Figure 9 is a diagram for explaining a work path assigned to an unmanned vehicle according to an embodiment of the present invention.
Figure 10 is a diagram for explaining a landmark image according to various embodiments of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the attached drawings. However, the present invention may be implemented in various different forms and, therefore, is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, combined)" with another part, this means not only "directly connected" but also "indirectly connected" with another member in between. "Includes cases where it is. Additionally, when a part is said to “include” a certain component, this does not mean that other components are excluded, but that other components can be added, unless specifically stated to the contrary.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that it does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

본 발명의 일 실시예는 컨테이너 위치를 이용한 무인 차량의 위치 추정 방법에 관한 것이다.One embodiment of the present invention relates to a method for estimating the location of an unmanned vehicle using the location of a container.

도 1은 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법을 수행하기 위한 관제 시스템을 나타낸 블록도이다.Figure 1 is a block diagram showing a control system for performing a method for estimating the location of an unmanned vehicle according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법을 수행하기 위한 관제 시스템(10)은 무인 차량 제어부(20), 터미널 운영 시스템(30) 및 통합 DB(40)와 연결될 수 있다.Referring to FIG. 1, the control system 10 for performing a method for estimating the location of an unmanned vehicle according to an embodiment of the present invention includes an unmanned vehicle control unit 20, a terminal operating system 30, and an integrated DB 40. can be connected

야드트럭 관제 시스템(1)은 서버(11)를 포함할 수 있다.The yard truck control system 1 may include a server 11.

서버(11)는 적어도 하나의 무인 차량 제어부(20)와 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The server 11 may be implemented as a computer device or a plurality of computer devices that communicate with at least one unmanned vehicle control unit 20 over a network to provide commands, codes, files, content, services, etc.

구체적으로, 컴퓨터 장치는 사용자 클라이언트 PC일 수 있다.Specifically, the computer device may be a user client PC.

또한, 무인 차량 제어부(20)가 포함하는 운영체제(Operating System, OS)나 적어도 하나의 프로그램(일례로 브라우저나 상기 설치된 어플리케이션)의 제어에 따라 서버(11)에 접속하여 서버(11)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다.In addition, the unmanned vehicle control unit 20 connects to the server 11 under the control of an operating system (OS) or at least one program (for example, a browser or the installed application) and provides information provided by the server 11. Services or content can be provided.

또한, 관제 시스템(10)은 유인 트럭(T1)과 무인 트럭(T2)으로부터 위치 정보를 수신하여, 유인 트럭(T1)과 무인 트럭(T2)을 인식할 수 있다.Additionally, the control system 10 can receive location information from the manned truck (T1) and the unmanned truck (T2) and recognize the manned truck (T1) and the unmanned truck (T2).

본 발명의 일 실시예에 따르면, 무인 차량 제어부(20)는 무선 또는 유선 통신 방식을 이용하여 네트워크를 통해 다른 전자 기기들 및/또는 서버(11)와 통신할 수 있다.According to an embodiment of the present invention, the unmanned vehicle control unit 20 may communicate with other electronic devices and/or the server 11 through a network using a wireless or wired communication method.

통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다.The communication method is not limited, and may include not only a communication method utilizing a communication network that the network may include (for example, a mobile communication network, wired Internet, wireless Internet, and a broadcasting network), but also short-range wireless communication between devices.

예를 들어, 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다.For example, networks include personal area network (PAN), local area network (LAN), campus area network (CAN), metropolitan area network (MAN), wide area network (WAN), broadband network (BBN), Internet, etc. It may include one or more arbitrary networks among the networks.

또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.Additionally, the network may include, but is not limited to, any one or more of network topologies including a bus network, star network, ring network, mesh network, star-bus network, tree or hierarchical network, etc. .

구체적으로, 서버(11)와 단말(20)은 메모리, 프로세서, 통신 모듈 및 입출력 인터페이스를 포함할 수 있다.Specifically, the server 11 and the terminal 20 may include memory, a processor, a communication module, and an input/output interface.

메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다.Memory is a computer-readable recording medium and may include non-permanent mass storage devices such as random access memory (RAM), read only memory (ROM), and disk drives.

또한, 메모리에는 운영체제나 적어도 하나의 프로그램 코드(일례로 전자 기기(3)에 설치되어 구동되는 어플리케이션 등을 위한 코드)가 저장될 수 있다.Additionally, an operating system or at least one program code (for example, code for an application installed and running on the electronic device 3) may be stored in the memory.

이러한 소프트웨어 구성요소들은 메모리와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다.These software components may be loaded from a computer-readable recording medium separate from the memory.

이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다.Such separate computer-readable recording media may include computer-readable recording media such as floppy drives, disks, tapes, DVD/CD-ROM drives, and memory cards.

다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈을 통해 메모리에 로딩될 수도 있다.In another embodiment, software components may be loaded into memory through a communication module rather than a computer-readable recording medium.

예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 네트워크를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리에 로딩될 수 있다.For example, at least one program may be loaded into memory based on a program (e.g., the application described above) that is installed by files provided over a network by developers or a file distribution system that distributes installation files for applications. there is.

프로세서는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다.A processor may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations.

명령은 메모리 또는 통신 모듈에 의해 프로세서로 제공될 수 있다.Instructions may be provided to the processor by a memory or communication module.

통신 모듈은 네트워크를 통해 무인 차량 제어부(20)와 서버(11)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 전자 기기 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다.The communication module may provide a function for the unmanned vehicle control unit 20 and the server 11 to communicate with each other through a network, and may provide a function for communication with other electronic devices or other servers.

입출력 인터페이스는 입출력 장치와의 인터페이스를 위한 수단일 수 있다.The input/output interface may be a means for interfacing with an input/output device.

예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다.For example, an input device may include a device such as a keyboard or mouse, and an output device may include a device such as a display for displaying a communication session of an application.

다른 예로 입출력 인터페이스는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다.As another example, an input/output interface may be a means of interfacing with a device that integrates input and output functions into one, such as a touch screen.

또한, 다른 실시예들에서 무인 차량 제어부(20) 및 서버(11)는 도 1의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.Additionally, in other embodiments, the unmanned vehicle control unit 20 and the server 11 may include more components than those shown in FIG. 1 .

한편, 터미널 운영 시스템(Terminal Operating System: TOS)(30)은 터미널로 반입예정인 선박으로부터 컨테이너에 대한 정보를 받고, 모든 컨테이너가 정확한 시간에 제 위치로 이동될 수 있도록 컨테이너 하역 장비와 운반 장비의 본선작업 계획을 수립하고 개별 하역 장비에 작업 지시를 전달하는 등의 컨테이너의 작업흐름을 관리하기 위한 시스템이다.Meanwhile, the Terminal Operating System (TOS) 30 receives information about containers from ships scheduled to be brought into the terminal, and operates container unloading equipment and transport equipment on the main ship so that all containers can be moved to the correct location at the correct time. It is a system for managing the workflow of containers, including establishing work plans and delivering work instructions to individual unloading equipment.

터미널 운영 시스템(30)은 서버(31)를 포함하며, 통합 DB(40)와 연결되어 터미널 운영 정보를 저장하고 관리할 수 있다.The terminal operating system 30 includes a server 31 and is connected to the integrated DB 40 to store and manage terminal operation information.

서버(31)는 적어도 하나의 유인 차량 단말(20)과 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The server 31 may be implemented as a computer device or a plurality of computer devices that communicate with at least one manned vehicle terminal 20 through a network to provide commands, codes, files, content, services, etc.

구체적으로, 컴퓨터 장치는 터미널 운영 관제 시스템의 사용자 컴퓨터 PC일 수 있다.Specifically, the computer device may be a user computer PC of a terminal operation control system.

이하에서는 본 발명의 일 실시예에 따른 관제 시스템(10)에 의해 수행되는 무인 차량의 위치 추정 방법의 구체적인 실시예를 설명하기로 한다.Hereinafter, a specific example of a method for estimating the location of an unmanned vehicle performed by the control system 10 according to an embodiment of the present invention will be described.

도 2는 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법을 나타낸 흐름도이다.Figure 2 is a flowchart showing a method for estimating the location of an unmanned vehicle according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법은 관제 시스템(10)에 의해 수행되며, 단계 S110에서 무인 차량의 현재 위치 정보를 식별할 수 있다.Referring to FIG. 2, the method for estimating the location of an unmanned vehicle according to an embodiment of the present invention is performed by the control system 10, and the current location information of the unmanned vehicle can be identified in step S110.

단계 S120에서 현재 위치 정보에 기초하여, 무인 차량에게 작업을 할당할 수 있다.In step S120, a task may be assigned to the unmanned vehicle based on the current location information.

단계 S130에서 할당된 작업 내용에 기초하여 목적지 및 경로를 산출할 수 있다.In step S130, the destination and route can be calculated based on the assigned task content.

이 때, 외부 시스템으로부터 작업 내용을 입력 받을 수도 있다.At this time, work details can also be input from an external system.

여기서, 외부 시스템은 터미널 운영 시스템(30)일 수 있다.Here, the external system may be the terminal operating system 30.

단계 S200에서 경로를 주행하는 무인 차량으로부터 촬영된 컨테이너 번호 이미지를 입력 받을 수 있다.In step S200, a container number image taken from an unmanned vehicle traveling on a route can be input.

여기서, 무인 차량으로부터 촬영된 컨테이너 번호 이미지는, 컨테이너 터미널에서 장치가 완료된 복수의 컨테이너들 각각의 일면이 촬영된 이미지일 수 있다.Here, the container number image taken from the unmanned vehicle may be an image of one side of each container whose equipment has been completed at the container terminal.

이에 따라, 무인 차량은 촬영부가 탑재되어, 운행 중에 컨테이너 번호 이미지를 촬영할 수 있다.Accordingly, the unmanned vehicle is equipped with a photographing unit and can capture container number images while driving.

이외에도, 무인 차량의 경로 상에 위치한 CCTV 등에 의해 촬영된 컨테이너 번호 이미지를 입력 받아 사용할 수도 있다.In addition, the container number image captured by CCTV located on the path of the unmanned vehicle can also be input and used.

단계 S300에서 컨테이너 번호 이미지에서 컨테이너 번호를 인식할 수 있다.In step S300, the container number can be recognized from the container number image.

본 발명의 일 실시예에서, 무인 차량의 위치 추정 방법의 컨테이너 번호를 인식하는 단계(S300)는 하기 도 4 및 도 5에서 상세히 설명한다.In one embodiment of the present invention, the step (S300) of recognizing the container number of the method for estimating the location of an unmanned vehicle is described in detail in FIGS. 4 and 5 below.

단계 S400에서 기 저장된 컨테이너 별 위치 데이터에 기초하여, 상기 컨테이너 번호와 대응되는 컨테이너 위치를 인식할 수 있다.In step S400, the container location corresponding to the container number may be recognized based on pre-stored location data for each container.

여기서, 저장된 컨테이너 별 위치 데이터는, 외부 트럭에 의해 적어도 하나의 컨테이너가 장치된 이후에, 장치된 컨테이너의 장치 위치와 컨테이너의 번호를 함께 저장한 데이터일 수 있다.Here, the stored location data for each container may be data that stores the device location of the installed container and the container number after at least one container has been installed by an external truck.

이에 대해서는, 하기 도 6에서 상세히 설명한다.This will be explained in detail in FIG. 6 below.

단계 S500에서 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정할 수 있다.In step S500, the location of the unmanned vehicle can be estimated by estimating the distance between the container location and the unmanned vehicle.

구체적으로, 기 촬영된 상기 컨테이너 번호 이미지의 형태에 기초하여, 좌표 값을 구하게 된다.Specifically, the coordinate value is obtained based on the shape of the previously photographed container number image.

이에 대해서는, 하기 도 7 및 도 8에서 상세히 설명한다.This will be explained in detail in FIGS. 7 and 8 below.

한편, 본 발명의 다양한 실시예에 따르면, 단계 S201에서 경로를 주행하는 무인 차량으로부터 촬영된 복수의 랜드마크 이미지를 입력 받을 수 있다.Meanwhile, according to various embodiments of the present invention, a plurality of landmark images taken from an unmanned vehicle traveling on a route can be received in step S201.

여기서, 복수의 랜드마크 이미지는, 바닥의 BAY 번호, 특정 건물의 위치 번호 등을 포함할 수 있다.Here, the plurality of landmark images may include the BAY number of the floor, the location number of a specific building, etc.

이후, 단계 S301에서 기 저장된 랜드마크 별 위치 데이터에 기초하여, 상기 랜드마크 이미지에 대응되는 위치를 인식할 수 있다.Thereafter, in step S301, the location corresponding to the landmark image may be recognized based on pre-stored location data for each landmark.

단계 S501에서 컨테이너 위치와 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정할 수 있다.In step S501, the location of the unmanned vehicle can be estimated by estimating the distance between the container location and the unmanned vehicle.

도 3은 본 발명의 일 실시예에 따른 무인 차량이 컨테이너 번호 이미지를 촬영하는 상황을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining a situation in which an unmanned vehicle photographs a container number image according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면, 단계 S200에서 경로를 주행하는 무인 차량으로부터 촬영된 컨테이너 번호 이미지를 입력 받을 수 있다.According to an embodiment of the present invention, in step S200, a container number image taken from an unmanned vehicle traveling on a route can be input.

여기서, 무인 차량으로부터 촬영된 컨테이너 번호 이미지는, 컨테이너 터미널에서 장치가 완료된 복수의 컨테이너들 각각의 일면이 촬영된 이미지일 수 있다.Here, the container number image taken from the unmanned vehicle may be an image of one side of each container whose equipment has been completed at the container terminal.

이에 따라, 무인 차량은 촬영부가 탑재되어, 운행 중에 컨테이너 번호 이미지를 촬영할 수 있다.Accordingly, the unmanned vehicle is equipped with a photographing unit and can capture container number images while driving.

구체적으로, 본 발명의 일 실시예에 따른 관제 시스템(10)은 현재 위치 정보에 기초하여, 무인 차량에게 작업을 할당할 수 있다.Specifically, the control system 10 according to an embodiment of the present invention can assign tasks to the unmanned vehicle based on current location information.

이후, 도 3에 나타난 바와 같이, 무인 차량은 3차원의 가상 경로를(P1)를 주행할 수 있다.Afterwards, as shown in FIG. 3, the unmanned vehicle can drive a three-dimensional virtual path (P1).

여기서, 3차원의 가상 경로는 직진, 좌회전 및 우회전 중 적어도 하나를 표시할 수 있다.Here, the 3D virtual path may display at least one of going straight, turning left, and turning right.

무인 차량이 주행하는 경로(P1)의 양측에는 장치가 완료된 복수의 컨테이너들이 위치하게 된다.A plurality of containers with completed equipment are located on both sides of the path (P1) along which the unmanned vehicle travels.

그리고, 복수의 컨테이너들 각각의 일면에는 컨테이너 번호(C1, C2, C3, C4)가 기재되어 있다.Additionally, container numbers (C1, C2, C3, C4) are written on one side of each of the plurality of containers.

무인 차량은 경로(P1)를 주행하면서, 각각의 컨테이너들과 가까워지거나 멀어질 수 있으며, 이를 통해 컨테이너로부터 무인 차량의 위치를 추정할 수 있다.While driving along the path P1, the unmanned vehicle can move closer to or farther away from each container, and through this, the location of the unmanned vehicle can be estimated from the container.

본 발명의 다양한 실시예에 따르면, 도 3에 도시된 이미지는 별도의 디스플레이에 표시될 수도 있다.According to various embodiments of the present invention, the image shown in FIG. 3 may be displayed on a separate display.

추가적으로, 관제 시스템(10)은 화면의 상단에 경고 메시지(W)를 표시할 수도 있다.Additionally, the control system 10 may display a warning message (W) at the top of the screen.

경고 메시지(W)는 차량의 경로 이탈이 감지된 경우 표시될 수 있으며, “경로이탈발생”의 텍스트와 기호의 조합으로 구성될 수 있다.The warning message (W) may be displayed when a vehicle departure from the route is detected, and may be composed of a combination of the text “Occurrence of route deviation” and a symbol.

한편, 차량이 가상 경로대로 주행되는 경우에는, 경고 메시지(W)는 화면에서 사라지며, 직진, 좌회전, 우회전, 일시 정지, 정지, OO초 뒤 정지, 목적지까지 OOkm 중 적어도 하나를 포함하는 주행에 관한 정보가 표시될 수 있다.Meanwhile, when the vehicle is driven according to the virtual route, the warning message (W) disappears from the screen, and the warning message (W) disappears from the screen and indicates that driving includes at least one of the following: straight ahead, left turn, right turn, pause, stop, stop after OO seconds, or OO km to the destination. Information about this may be displayed.

또한, 화면에 표시되지 않는 대안 경로들(A1, A2, A3, A4 및 A5)과 대기줄 정체 메시지 정보(D)가 미리 준비될 수 있다.Additionally, alternative routes (A1, A2, A3, A4, and A5) and waiting line congestion message information (D) that are not displayed on the screen can be prepared in advance.

대안 경로들(A1, A2, A3, A4 및 A5)이 차량의 위치 별로 미리 마련되어 저장됨에 따라, 만일 차량이 경로를 이탈하는 경우에, 해당 경로에서 목적지까지의 경로를 검색하는 것이 아니라 즉각적으로 저장된 대안 경로를 선택하여 표시할 수 있다.As alternative routes (A1, A2, A3, A4, and A5) are prepared and stored in advance for each vehicle location, if the vehicle deviates from the route, the route from the corresponding route to the destination is not searched but immediately saved. You can select and display alternative routes.

또한, 단말은 필요한 경우에, 새롭게 나타난 대안 경로에 따른 목적지까지의 전체 경로를 선택하여 표시할 수 있다.Additionally, if necessary, the terminal can select and display the entire route to the destination according to the newly appeared alternative route.

이에 따라, 작업자는 목적지까지의 경로 상황도 즉시 확인할 수 있다.Accordingly, the worker can immediately check the route status to the destination.

한편, 대기줄 정체 구간이 발생하는 경우에도, 대안 경로들(A1, A2, A3, A4 및 A5) 중 하나가 선택되어 표시될 수 있다.Meanwhile, even when a queue congestion section occurs, one of the alternative routes (A1, A2, A3, A4, and A5) may be selected and displayed.

이 때, “대기줄 정체 구간 발생” 메시지가 화면에 표시될 수 있다.At this time, the message “Congestion in waiting line has occurred” may be displayed on the screen.

또한, 산출된 경로를 시간 구간 별로 구분하고, 구분된 경로 마다 상기 유인 차량의 최대 속도, 주행 방향 및 주행 차선 정보를 생성할 수 있다.In addition, the calculated route can be divided into time sections, and information on the maximum speed, driving direction, and driving lane of the manned vehicle can be generated for each divided route.

예를 들어, “경로 중 3번째 구간 운행 중”(131)임을 표시할 수 있으며, “최대 속도(132)”와 “OO초 뒤 우회전”(133)메시지를 표시할 수 있다.For example, the message “Driving on the 3rd section of the route” (131) can be displayed, and the messages “Maximum speed (132)” and “Turn right in OO seconds” (133) can be displayed.

도 4는 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법의 컨테이너 번호를 인식하는 단계를 나타낸 흐름도이다.Figure 4 is a flowchart showing the step of recognizing a container number in the method for estimating the location of an unmanned vehicle according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에서 무인 차량의 위치 추정 방법의 컨테이너 번호를 인식하는 단계(S300)는, 단계 S310에서 기 마련된 이미지의 문자 인식 프로그램에 의해 상기 컨테이너 번호 이미지에서 관심 영역(ROI, Region Of Interest) 이미지를 추출할 수 있다.Referring to FIG. 4, in an embodiment of the present invention, the step of recognizing the container number of the method for estimating the position of an unmanned vehicle (S300) involves recognizing a region of interest in the container number image by using a character recognition program for the image prepared in step S310. (ROI, Region Of Interest) images can be extracted.

단계 S320에서 이미지 프로세싱에 의해 상기 추출된 관심 영역 이미지에서 문자와 숫자로 구성된 컨테이너 번호를 추출하여 문자를 인식할 수 있다.In step S320, a container number consisting of letters and numbers can be extracted from the extracted region of interest image through image processing to recognize the letter.

도 5는 본 발명의 일 실시예에 따른 컨테이너 번호 이미지와 컨테이너 번호를 설명하기 위한 도면이다.Figure 5 is a diagram for explaining a container number image and container number according to an embodiment of the present invention.

도 5의 (a) 및 (b)에 나타난 바와 같이, 컨테이너 번호 이미지는 다양한 형태로 마련될 수 있다.As shown in Figures 5 (a) and (b), the container number image can be prepared in various forms.

본 발명의 일 실시예에 따른 이미지의 문자 인식 프로그램은 종래의 문자 인식 프로그램을 응용할 수 있다.The image character recognition program according to an embodiment of the present invention can apply a conventional character recognition program.

또한, 본 발명의 일 실시예에 따른 무인 차량의 위치 추정 방법의 경우, 문자 인식을 정확히 수행하기 보다 대략적으로 문자인식을 수행하더라도, 기 저장된 컨테이너 별 위치 데이터와 비교할 수 있으므로, 컨테이너 번호의 특정 자릿수만을 인식하도록 설정될 수도 있다.In addition, in the case of the method for estimating the location of an unmanned vehicle according to an embodiment of the present invention, even if character recognition is performed roughly rather than accurately, it can be compared with previously stored location data for each container, so specific digits of the container number It can also be set to recognize only

예를 들어, 도 5의 (a)에서 가운데 숫자 7자리만 인식하도록 하거나, 도 5의 (b)에서 알파벳을 제외한 숫자만 인식하도록 할 수 있다.For example, in (a) of Figure 5, only the 7 middle digits can be recognized, or in (b) of Figure 5, only numbers excluding the alphabet can be recognized.

이에 따라, 본 발명의 일 실시예에 따른 문자 인식 프로그램은, 종래의 문자 인식 프로그램에 비해 간단한 프로그램으로 구성될 수 있다.Accordingly, the character recognition program according to an embodiment of the present invention may be composed of a simpler program than a conventional character recognition program.

도 6은 본 발명의 일 실시예에 따른 컨테이너 별 위치 데이터를 설명하기 위한 도면이다.Figure 6 is a diagram for explaining location data for each container according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에서, 저장된 컨테이너 별 위치 데이터는, 외부 트럭에 의해 적어도 하나의 컨테이너(C5)가 장치된 이후에, 장치된 컨테이너의 장치 위치와 상기 컨테이너의 번호를 함께 저장한 데이터일 수 있다.Referring to FIG. 6, in one embodiment of the present invention, the stored location data for each container includes the device location of the installed container and the number of the container after at least one container C5 is installed by an external truck. It may be data stored together.

구체적으로, 컨테이너 작업 정보를 미리 수집하여, 이동 전에 컨테이너 위치를 확인하고, 해당 위치를 저장한다.Specifically, container operation information is collected in advance, the location of the container is confirmed before moving, and the location is stored.

이후, 외부 트럭이 컨테이너를 이송하여 적재한 후, 컨테이너 이송 작업을 완료 보고하면, 해당 위치에 대한 정보(컨테이너 번호, 위치 정보)를 업데이트할 수 있다.Afterwards, after the external truck transfers and loads the container and reports completion of the container transfer operation, information about the location (container number, location information) can be updated.

도 7 및 도 8은 본 발명의 일 실시예에 따른 컨테이너 위치와 무인 차량 사이의 거리를 추정하는 방법을 설명하기 위한 도면이다.7 and 8 are diagrams for explaining a method of estimating the distance between a container location and an unmanned vehicle according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시예에 따른 컨테이너 위치와 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계(S500)는, 단계 S510에서 컨테이너 번호와 대응되는 컨테이너의 위치 좌표를 획득할 수 있다.Referring to FIG. 7, the step (S500) of estimating the location of the unmanned vehicle by estimating the distance between the container location and the unmanned vehicle according to an embodiment of the present invention includes the location of the container corresponding to the container number in step S510. Coordinates can be obtained.

단계 S520에서 컨테이너의 위치 좌표를 이용하여, 상기 컨테이너 번호 이미지가 직사각형 이미지로 촬영될 때의 상기 무인 차량의 제1 위치 좌표를 산출할 수 있다.In step S520, the first position coordinates of the unmanned vehicle when the container number image is captured as a rectangular image can be calculated using the position coordinates of the container.

단계 S530에서 기 촬영된 상기 컨테이너 번호 이미지의 형태에 기초하여, 좌표 변환 행렬을 구할 수 있다.In step S530, a coordinate transformation matrix can be obtained based on the shape of the previously captured container number image.

단계 S540에서 좌표 변환 행렬을 이용하여 제1 위치 좌표를 변환하여 제2 위치 좌표를 산출할 수 있다.In step S540, the first position coordinates can be converted using a coordinate transformation matrix to calculate the second position coordinates.

구체적으로, 도 8을 참조하면, 이상적으로 컨테이너 번호 이미지가 직사각형 이미지(521)로 촬영될 때 무인 차량의 위치가 컨테이너에 수직으로 위치함을 판단할 수 있다.Specifically, referring to FIG. 8 , ideally, when the container number image is captured as a rectangular image 521, it can be determined that the position of the unmanned vehicle is located perpendicular to the container.

이에 따라, 직사각형 이미지(521)가 작아지는 비율을 통해 무인 차량의 위치가 떨어진 정도를 산출하게 된다.Accordingly, the degree to which the unmanned vehicle's position has fallen is calculated through the rate at which the rectangular image 521 becomes smaller.

이후, 실제 컨테이너 번호 이미지의 형태(531)에 따라 컨테이너의 위치와 카메라와의 거리와 각도 정보를 추정할 수 있다.Afterwards, the location of the container and the distance and angle information from the camera can be estimated according to the shape 531 of the actual container number image.

본 발명의 일 실시예에 따른 좌표 변환 행렬을 이용하여 제1 위치 좌표를 변환하여 제2 위치 좌표를 산출하는 방법은 통상적인 좌표 변환 기술을 이용할 수 있다.The method of calculating the second position coordinates by transforming the first position coordinates using a coordinate transformation matrix according to an embodiment of the present invention may use a conventional coordinate transformation technology.

도 9는 본 발명의 일 실시예에 따른 무인 차량에게 할당된 작업 경로를 설명하기 위한 도면이다.Figure 9 is a diagram for explaining a work path assigned to an unmanned vehicle according to an embodiment of the present invention.

도 9에 나타난 바와 같이, 본 발명의 일 실시예에 따른 무인 차량에게 할당된 작업 경로는, GATE 부터 목적지(D1)까지 생성된 복수의 후보 경로들 중 목적지까지 최단 시간 내에 도착하는 최적 경로로 설정된 가상 경로(P1)일 수 있다.As shown in FIG. 9, the work path assigned to the unmanned vehicle according to an embodiment of the present invention is set as the optimal path to arrive at the destination in the shortest time among a plurality of candidate paths generated from GATE to the destination (D1). It may be a virtual path (P1).

차량은 GATE 부터 목적지(D1)까지의 복수의 교차로 지점을 이동할 수 있으므로, 차량이 이동하는 동선의 교차로를 따라 돌발 상황이 발생했을 때 대비할 수 있는 교차로 간의 이동 동선을 생성하여, 복수의 대안 경로들(A1, A2, A3, A4 및 A5)을 생성할 수 있다.Since the vehicle can move through multiple intersection points from the gate to the destination (D1), a movement line between intersections that can be prepared for when an unexpected situation occurs along the intersection of the vehicle's movement line is created, creating multiple alternative routes. (A1, A2, A3, A4, and A5).

또한, 차량의 위치에서 목적지까지 다양한 경로를 탐색한 이후에, 생성된 경로 중 가장 원활한 교통 상황과 최단 시간에 따른 경로대로 순위를 결정할 수 있다.In addition, after exploring various routes from the vehicle's location to the destination, the generated routes can be ranked according to the smoothest traffic situation and shortest time.

본 발명의 일 실시예에 따르면, 제1 차량은 경로 P1에 대해 시간 순서대로 제1 위치(L1), 제2 위치(L2), 제3 위치(L3), 제4 위치(L4) 및 제5 위치(L5)를 이동하도록 할당될 수 있다.According to one embodiment of the invention, the first vehicle moves to the first location (L1), the second location (L2), the third location (L3), the fourth location (L4) and the fifth location in chronological order with respect to the path P1. It can be assigned to move location (L5).

또한, 제2 차량은, 경로 P1을 이동하다가, 대안 경로 A1에 대해 시간 순서대로 제6 위치(L6) 및 제7 위치(L7)를 이동하도록 할당될 수 있다.Additionally, the second vehicle may be assigned to travel on the route P1 and then move to the sixth location L6 and the seventh location L7 in chronological order with respect to the alternative route A1.

이에 따라, 각각의 무인 차량에게 경로를 제공하고, 무인 차량으로부터 촬영된 컨테이너 이미지를 이용하여, 경로 대로 주행하고 있는지 여부를 판단할 수 있다.Accordingly, a route can be provided to each unmanned vehicle, and it can be determined whether it is driving according to the route using the container image taken from the unmanned vehicle.

도 10은 본 발명의 다양한 실시예에 따른 랜드마크 이미지를 설명하기 위한 도면이다.Figure 10 is a diagram for explaining a landmark image according to various embodiments of the present invention.

본 발명의 다양한 실시예에 따르면, 단계 S201에서 경로를 주행하는 무인 차량으로부터 촬영된 복수의 랜드마크 이미지를 입력 받을 수 있다.According to various embodiments of the present invention, a plurality of landmark images taken from an unmanned vehicle traveling on a route can be received in step S201.

여기서, 복수의 랜드마크 이미지는, 바닥의 BAY 번호, 특정 건물의 위치 번호 등을 포함할 수 있다.Here, the plurality of landmark images may include the BAY number of the floor, the location number of a specific building, etc.

도 10을 참조하면, 무인 차량(T2)은 바닥의 BAY 번호(541)를 촬영하여, 해당 위치를 확인할 수 있다.Referring to FIG. 10, the unmanned vehicle T2 can confirm its location by photographing the BAY number 541 on the floor.

또한, 무인 차량(T2)은 특정 건물의 위치 번호(551)를 촬영하여, 해당 위치를 확인할 수 있다.Additionally, the unmanned vehicle (T2) can confirm the location by photographing the location number 551 of a specific building.

랜드마크는 이에 한정되는 것은 아니며, 항만 내에 존재하여 위치를 확인할 수 있는 객체들을 포함할 수 있다.Landmarks are not limited to this and may include objects that exist within a port and whose location can be confirmed.

또한, 본 발명의 일 실시예에 따르면, 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 있어서, 무인 차량의 위치 추정 방법을 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체를 제공한다.In addition, according to one embodiment of the present invention, there is provided a computer-readable recording medium recording a program for performing on a computer, a computer-readable recording medium recording a program for performing on a computer a method for estimating the location of an unmanned vehicle. .

이러한 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Such computer-readable media may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the recording medium may be those specifically designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes magneto-optical media and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as single may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention.

Claims (7)

무인 차량으로부터 촬영된 제1 컨테이너 번호 이미지 및 무인 차량의 경로 상에 위치한 CCTV에 의해 촬영된 제2 컨테이너 번호 이미지-상기 무인 차량으로부터 촬영된 제1 컨테이너 번호 이미지는, 컨테이너 터미널에서 장치가 완료된 복수의 컨테이너들 각각의 일면이 촬영된 번호 및 알파벳을 포함한 이미지임-를 입력 받는 단계;
상기 제1 컨테이너 번호 이미지 및 상기 제2 컨테이너 번호 이미지에서 컨테이너 번호를 인식하는 단계;
외부 트럭에 의해 적어도 하나의 컨테이너가 장치된 이후에, 상기 장치된 컨테이너의 장치 위치와 상기 컨테이너의 번호가 함께 저장된 데이터인 컨테이너 별 위치 데이터에 기초하여, 상기 컨테이너 번호와 대응되는 컨테이너 위치를 인식하는 단계; 및
상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계를 포함하며,
상기 컨테이너 번호와 대응되는 컨테이너 위치를 인식하는 단계는,
인식된 상기 제1 컨테이너 번호 이미지 및 상기 제2 컨테이너 번호 이미지에서 컨테이너 번호의 특정 자릿수만을 인식하도록 하거나, 알파벳을 제외한 숫자만 인식하도록 설정하여, 인식된 부분적인 데이터와 상기 저장된 컨테이너 별 위치 데이터를 비교하여 컨테이너 위치를 인식하는 무인 차량의 위치 추정 방법.
A first container number image taken from an unmanned vehicle and a second container number image taken by a CCTV located on the path of the unmanned vehicle - the first container number image taken from the unmanned vehicle is a plurality of devices for which the device has been completed at the container terminal. A step of receiving input that one side of each container is an image including a photographed number and alphabet;
Recognizing a container number from the first container number image and the second container number image;
After at least one container is installed by an external truck, the location of the container corresponding to the container number is recognized based on location data for each container, which is data stored together with the device location of the installed container and the number of the container. step; and
It includes estimating the location of the unmanned vehicle by estimating the distance between the container location and the unmanned vehicle,
The step of recognizing the container location corresponding to the container number is,
In the recognized first container number image and the second container number image, only specific digits of the container number are recognized, or only numbers excluding alphabets are recognized, and the recognized partial data is compared with the stored location data for each container. A method for estimating the location of an unmanned vehicle that recognizes the location of a container.
삭제delete 제1항에 있어서,
상기 컨테이너 번호 이미지에서 컨테이너 번호를 인식하는 단계는,
기 마련된 이미지의 문자 인식 프로그램에 의해 상기 컨테이너 번호 이미지에서 관심 영역(ROI, Region Of Interest) 이미지를 추출하는 단계; 및
이미지 프로세싱에 의해 상기 추출된 관심 영역 이미지에서 문자와 숫자로 구성된 컨테이너 번호를 추출하여 문자를 인식하는 단계를 포함하는 무인 차량의 위치 추정 방법.
According to paragraph 1,
The step of recognizing the container number in the container number image is,
Extracting a region of interest (ROI) image from the container number image using a previously prepared image character recognition program; and
A method for estimating the location of an unmanned vehicle, comprising the step of extracting a container number consisting of letters and numbers from the extracted region of interest image through image processing and recognizing the letters.
삭제delete 제3항에 있어서
상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계는,
상기 컨테이너 번호와 대응되는 컨테이너의 위치 좌표를 획득하는 단계;
상기 컨테이너의 위치 좌표를 이용하여, 상기 컨테이너 번호 이미지가 직사각형 이미지로 촬영될 때의 상기 무인 차량의 제1 위치 좌표를 산출하는 단계;
기 촬영된 상기 컨테이너 번호 이미지의 형태에 기초하여, 좌표 변환 행렬을 구하는 단계; 및
상기 좌표 변환 행렬을 이용하여 상기 제1 위치 좌표를 변환하여 제2 위치 좌표를 산출하는 단계를 포함하는 무인 차량의 위치 추정 방법.
In paragraph 3
The step of estimating the location of the unmanned vehicle by estimating the distance between the container location and the unmanned vehicle,
Obtaining location coordinates of a container corresponding to the container number;
Using the position coordinates of the container, calculating first position coordinates of the unmanned vehicle when the container number image is captured as a rectangular image;
Obtaining a coordinate transformation matrix based on the shape of the previously photographed container number image; and
A method for estimating the position of an unmanned vehicle, comprising converting the first position coordinates using the coordinate transformation matrix to calculate second position coordinates.
무인 차량의 현재 위치 정보를 식별하는 단계;
상기 현재 위치 정보에 기초하여, 상기 무인 차량에게 작업을 할당하는 단계;
상기 할당된 작업 내용에 기초하여 목적지 및 경로를 산출하는 단계;
상기 경로를 주행하는 무인 차량으로부터 촬영된 제1 컨테이너 번호 이미지 및 상기 무인 차량의 경로 상에 위치한 CCTV에 의해 촬영된 제2 컨테이너 번호 이미지-상기 무인 차량으로부터 촬영된 제1 컨테이너 번호 이미지는, 컨테이너 터미널에서 장치가 완료된 복수의 컨테이너들 각각의 일면이 촬영된 번호 및 알파벳을 포함한 이미지임-를 입력 받는 단계;
상기 제1 컨테이너 번호 이미지 및 상기 제2 컨테이너 번호 이미지에서 컨테이너 번호를 인식하는 단계;
외부 트럭에 의해 적어도 하나의 컨테이너가 장치된 이후에, 상기 장치된 컨테이너의 장치 위치와 상기 컨테이너의 번호가 함께 저장된 데이터인 컨테이너 별 위치 데이터에 기초하여, 상기 컨테이너 번호와 대응되는 컨테이너 위치를 인식하는 단계; 및
상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계를 포함하며,
상기 컨테이너 번호와 대응되는 컨테이너 위치를 인식하는 단계는,
인식된 상기 제1 컨테이너 번호 이미지 및 상기 제2 컨테이너 번호 이미지에서 컨테이너 번호의 특정 자릿수만을 인식하도록 하거나, 알파벳을 제외한 숫자만 인식하도록 설정하여, 인식된 부분적인 데이터와 상기 저장된 컨테이너 별 위치 데이터를 비교하여 컨테이너 위치를 인식하는 무인 차량의 위치 추정 방법.
Identifying current location information of the unmanned vehicle;
assigning a task to the unmanned vehicle based on the current location information;
calculating a destination and route based on the assigned task content;
A first container number image taken from an unmanned vehicle traveling on the route and a second container number image taken by a CCTV located on the route of the unmanned vehicle - the first container number image taken from the unmanned vehicle is a container terminal A step in which the device receives an input that each side of a plurality of completed containers is an image including a photographed number and alphabet;
Recognizing a container number from the first container number image and the second container number image;
After at least one container is installed by an external truck, the location of the container corresponding to the container number is recognized based on location data for each container, which is data stored together with the device location of the installed container and the number of the container. step; and
It includes estimating the location of the unmanned vehicle by estimating the distance between the container location and the unmanned vehicle,
The step of recognizing the container location corresponding to the container number is,
In the recognized first container number image and the second container number image, only specific digits of the container number are recognized, or only numbers excluding alphabets are recognized, and the recognized partial data is compared with the stored location data for each container. A method for estimating the location of an unmanned vehicle that recognizes the location of a container.
제6항에 있어서,
상기 경로를 주행하는 무인 차량으로부터 촬영된 복수의 랜드마크 이미지를 입력 받는 단계;
기 저장된 랜드마크 별 위치 데이터에 기초하여, 상기 랜드마크 이미지에 대응되는 위치를 인식하는 단계; 및
상기 컨테이너 위치와 상기 무인 차량 사이의 거리를 추정하여 상기 무인 차량의 위치를 추정하는 단계를 더 포함하는 무인 차량의 위치 추정 방법.
According to clause 6,
Receiving a plurality of landmark images taken from an unmanned vehicle traveling on the route;
Recognizing a location corresponding to the landmark image based on pre-stored location data for each landmark; and
A method for estimating the location of an unmanned vehicle further comprising estimating the location of the unmanned vehicle by estimating the distance between the container location and the unmanned vehicle.
KR1020230196317A 2023-12-29 2023-12-29 Method for estimating location of unmanned vehicle using container location KR102687873B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230196317A KR102687873B1 (en) 2023-12-29 2023-12-29 Method for estimating location of unmanned vehicle using container location

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230196317A KR102687873B1 (en) 2023-12-29 2023-12-29 Method for estimating location of unmanned vehicle using container location

Publications (1)

Publication Number Publication Date
KR102687873B1 true KR102687873B1 (en) 2024-07-24

Family

ID=92171059

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230196317A KR102687873B1 (en) 2023-12-29 2023-12-29 Method for estimating location of unmanned vehicle using container location

Country Status (1)

Country Link
KR (1) KR102687873B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786187B1 (en) * 2015-06-09 2017-10-10 Amazon Technologies, Inc. Transportation network utilizing autonomous vehicles for transporting items
KR20190008709A (en) * 2017-07-17 2019-01-25 한국전자통신연구원 Robot apparatus for autonomous driving and method for autonomous driving the robot apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786187B1 (en) * 2015-06-09 2017-10-10 Amazon Technologies, Inc. Transportation network utilizing autonomous vehicles for transporting items
KR20190008709A (en) * 2017-07-17 2019-01-25 한국전자통신연구원 Robot apparatus for autonomous driving and method for autonomous driving the robot apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Noe Pion, "Benchmarking Image Retrieval for Visual Localization", 2020 International Conference on 3D Vision (2020.11.25-28.)* *
Yee Yang Yap, "Landmark-based Automated Guided Vehicle Localization Algorithm for Warehouse Application", EEET 2019 (2019.09.)* *

Similar Documents

Publication Publication Date Title
US11726477B2 (en) Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout
CN103557870B (en) Dynamic trajectory navigation method and cloud platform
US20200241564A1 (en) Proactive generation of tuning data for autonomous vehicle dispatch
US11175156B2 (en) Method and apparatus for improved location decisions based on surroundings
CN111422204B (en) Automatic driving vehicle passing judgment method and related equipment
US11859990B2 (en) Routing autonomous vehicles using temporal data
EP4141599B1 (en) Multi-robot route planning
JP2016045585A (en) Control device and driving simulation method of transport vehicle
US20200240800A1 (en) Routing multiple autonomous vehicles using local and general route planning
US11829135B2 (en) Tuning autonomous vehicle dispatch using vehicle performance
CN114322799B (en) Vehicle driving method and device, electronic equipment and storage medium
CN110914845A (en) System and apparatus for resource management
CN115686028A (en) Unmanned operation method and device based on manned driving, electronic equipment and storage medium
US11884268B2 (en) Motion planning in curvilinear coordinates for autonomous vehicles
CN117664128A (en) Scheduling path generation method, generation device, robot, and storage medium
KR102687873B1 (en) Method for estimating location of unmanned vehicle using container location
CN115796544A (en) Dispatching method and device for unmanned horizontal transportation of port
CN112179366B (en) Public transportation travel path guiding method, device, equipment and storage medium
JP2023176469A (en) Information processor, information processing method, and information processing program
JP7229111B2 (en) MAP UPDATE DATA GENERATION DEVICE AND MAP UPDATE DATA GENERATION METHOD
CN114485670A (en) Path planning method and device for mobile unit, electronic equipment and medium
CN113449798A (en) Port unmanned driving map generation method and device, electronic equipment and storage medium
JP7149078B2 (en) Information presentation device and information presentation method
CN112445220A (en) Control method and device for automatic guided vehicle, storage medium and electronic equipment
US20230290157A1 (en) Method and apparatus for predicting virtual road sign locations

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant