KR102248654B1 - Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof - Google Patents

Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof Download PDF

Info

Publication number
KR102248654B1
KR102248654B1 KR1020190124622A KR20190124622A KR102248654B1 KR 102248654 B1 KR102248654 B1 KR 102248654B1 KR 1020190124622 A KR1020190124622 A KR 1020190124622A KR 20190124622 A KR20190124622 A KR 20190124622A KR 102248654 B1 KR102248654 B1 KR 102248654B1
Authority
KR
South Korea
Prior art keywords
cart
image
road
task
neural network
Prior art date
Application number
KR1020190124622A
Other languages
Korean (ko)
Other versions
KR20210042203A (en
Inventor
김준광
정우영
손국진
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020190124622A priority Critical patent/KR102248654B1/en
Publication of KR20210042203A publication Critical patent/KR20210042203A/en
Application granted granted Critical
Publication of KR102248654B1 publication Critical patent/KR102248654B1/en

Links

Images

Classifications

    • G06K9/00798
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/40Carts, e.g. trolleys
    • B60W2300/405Golf carts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 골프장 내 카트의 자율주행을 위한 카트길 인식 장치 및 방법에 관한 것이다. 본 발명에 따르면, 골프장 내 카트의 자율주행을 위한 카트길 인식 장치에 있어서, 카트길을 포함하여 촬영된 학습 이미지를 입력 값으로 하고, 학습 이미지 내의 카트길의 경계를 따라 라벨링을 부여한 정답 이미지를 출력 값으로 하여, 카트길의 경계를 인식하기 위한 신경망을 학습시키는 학습부와, 상기 카트에 장착된 카메라로부터 촬영된 촬영 이미지를 획득하는 이미지 획득부, 및 상기 촬영 이미지를 상기 학습된 신경망에 입력하여, 상기 촬영 이미지로부터 카트길의 경계를 인식하는 제어부를 포함하는 카트길 인식 장치를 제공한다.
본 발명에 따르면, 골프장 내 카트에서 촬영된 이미지를 실시간 분석하여 카트길의 경계를 자동 인식하고 인식 결과를 기초로 골프장 내에서 카트의 자율 주행을 보조할 수 있는 이점을 제공하다.
The present invention relates to an apparatus and method for recognizing a cart road for autonomous driving of a cart in a golf course. According to the present invention, in an apparatus for recognizing a cart road for autonomous driving of a cart in a golf course, a learning image captured including a cart road is used as an input value, and a correct answer image with labeling along the boundary of the cart road in the learning image is provided. As an output value, a learning unit that learns a neural network for recognizing the boundary of the cart road, an image acquisition unit that acquires a photographed image from a camera mounted on the cart, and the photographed image are input to the learned neural network Thus, it provides a cart road recognition apparatus including a control unit for recognizing the boundary of the cart road from the photographed image.
According to the present invention, it is possible to automatically recognize the boundary of the cart road by analyzing an image photographed from a cart in a golf course in real time, and to assist the autonomous driving of the cart in the golf course based on the recognition result.

Description

골프장 내 카트의 자율주행을 위한 카트길 인식 장치 및 방법{Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof}A cart-path recognition apparatus and method for autonomous driving of a cart in a golf course TECHNICAL FIELD OF THE INVENTION

본 발명은, 골프장을 주행하는 카트의 촬영 이미지로부터 카트길의 경계를 인식하여 카트의 자율 주행이 가능하게 하는 골프장 내 카트의 자율주행을 위한 카트길 인식 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recognizing a cart road for autonomous driving of a cart in a golf course that enables autonomous driving of a cart by recognizing a boundary of a cart road from a photographed image of a cart traveling on a golf course.

최근 자율주행 연구가 활성화 되면서 딥러닝을 응용한 자율주행 기술이 대거 등장하고 있으며, 이에 대한 응용으로 저속형 이동체에 적용한 자율 주행 연구들도 활발하게 진행되고 있다. As autonomous driving research has recently been activated, a large number of autonomous driving technologies using deep learning have emerged, and autonomous driving studies applied to low-speed mobile vehicles are also actively progressing as an application for this.

골프장 환경에서의 카트 자율주행 기술은 저속으로 움직이는 카트에 다양한 센서와 제어 모듈로 구성될 수 있다. 안전한 자율주행을 위한 첫 번째 단계에서는 피사체 주변 환경을 인식하고 이해하는 것이다. 그러나, 차량 주위의 환경을 이해하는 것은 상당히 어려운 문제이다. Cart autonomous driving technology in a golf course environment can be composed of various sensors and control modules in a cart moving at a low speed. The first step toward safe autonomous driving is to recognize and understand the environment around the subject. However, understanding the environment around the vehicle is a very difficult problem.

일반 차량 도로는 정해진 설계 규정이 있어 어떠한 도로에서도 동일한 규격이나 조건을 가지는 반면, 골프장 환경 내 존재하는 카트길은 정해진 규정이나 규격이 없고 카트길의 폭이나 곡률 등이 골프장 별 혹은 코스 별로 매우 다양하게 존재한다.General vehicle roads have specified design rules and thus have the same standards or conditions in any road, whereas cart roads in the golf course environment do not have established rules or standards, and the width and curvature of the cart roads are very diverse for each golf course or course. do.

또한, 일반 차량 도로의 경우 영상 내 차선의 굵기, 색상, 방향을 이용한 소실점을 통하여 차선을 인식하는데, 영상에서 차선에 해당하는 픽셀들을 검출하고 그 픽셀들을 묶어서 하나의 선으로 표현하여 그 선의 각도와 굵기, 색깔 등이 유사할 경우 이를 차선으로 검출한다.In addition, in the case of a general vehicle road, lanes are recognized through vanishing points using the thickness, color, and direction of lanes in the image. Pixels corresponding to the lanes in the image are detected, and the pixels are grouped and expressed as a single line to determine the angle of the line and If the thickness and color are similar, it is detected as a lane.

그런데, 이러한 차량 도로와는 달리, 골프장 내 존재한 카트길의 경우 차선 자체가 존재하지 않아, 일반 도로에 적용되는 차선 인식 방법을 카트길의 검출 알고리즘에 적용하기 곤란하다. However, unlike such a vehicle road, in the case of a cart road existing in a golf course, there is no lane itself, so it is difficult to apply a lane recognition method applied to a general road to a cart road detection algorithm.

더욱이, 카트길의 곡선 도로의 곡률은 일반 차량 도로의 곡률보다 훨씬 큰 경향이 있기 때문에 소실점에 대한 정보는 오히려 학습에 방해되는 요소가 되므로 적절치 않다.Moreover, since the curvature of the curved road of the cart road tends to be much larger than the curvature of the general vehicle road, the information on the vanishing point rather becomes an element that hinders learning, so it is not appropriate.

본 발명의 배경이 되는 기술은 한국공개특허 제2019-0016717호(2019.02.19 공개)에 개시되어 있다.The technology behind the present invention is disclosed in Korean Patent Publication No. 2019-0016717 (published on February 19, 2019).

본 발명은 카트에서 촬영한 영상으로부터 카트길의 경계를 인식하여 골프장 내에서 카트의 자율 주행을 보조할 수 있는 골프장 내 카트의 자율주행을 위한 카트길 인식 장치 및 방법을 제공하는데 목적이 있다.An object of the present invention is to provide an apparatus and method for recognizing a cart road for autonomous driving of a cart in a golf course capable of assisting the autonomous driving of a cart within a golf course by recognizing the boundary of a cart road from an image captured by a cart.

본 발명은, 골프장 내 카트의 자율주행을 위한 카트길 인식 장치에 있어서, 카트길을 포함하여 촬영된 학습 이미지를 입력 값으로 하고, 학습 이미지 내의 카트길의 경계를 따라 라벨링을 부여한 정답 이미지를 출력 값으로 하여, 카트길의 경계를 인식하기 위한 신경망을 학습시키는 학습부와, 상기 카트에 장착된 카메라로부터 촬영된 촬영 이미지를 획득하는 이미지 획득부, 및 상기 촬영 이미지를 상기 학습된 신경망에 입력하여, 상기 촬영 이미지로부터 카트길의 경계를 인식하는 제어부를 포함하는 카트길 인식 장치를 제공한다.In the present invention, in a cart road recognition apparatus for autonomous driving of a cart in a golf course, taking a learning image captured including the cart road as an input value, and outputting a correct answer image with labeling along the boundary of the cart road in the learning image As a value, a learning unit for learning a neural network for recognizing the boundary of the cart road, an image acquisition unit for obtaining a photographed image taken from a camera mounted on the cart, and the photographed image are input to the learned neural network. , It provides a cart road recognition apparatus including a control unit for recognizing the boundary of the cart road from the photographed image.

또한, 상기 제어부는, 상기 카트길의 경계 인식 결과를 구동부에 제공하여 카트를 자율 주행시키도록 할 수 있다.In addition, the control unit may provide a result of recognizing the boundary of the cart road to a driving unit to allow the cart to be autonomously driven.

또한, 상기 카트길 인식 장치는, 상기 촬영 이미지 내에서 인식된 카트길의 경계를 이용하여 카트길의 곡률 정보를 측정하여 카트의 주행 방향 및 속도를 포함한 주행 정보를 생성하는 주행정보 생성부를 더 포함할 수 있다.In addition, the cart road recognition apparatus further includes a driving information generation unit configured to generate driving information including a driving direction and speed of the cart by measuring curvature information of the cart road using the boundary of the cart road recognized in the photographed image. can do.

또한, 상기 학습부는, 상기 학습 이미지 내에서 카트길의 경계에 위치한 1×1 크기의 픽셀 각각에 대해 라벨링을 부여한 제1 정답 이미지, 그리고 상기 학습 이미지 내 카트길의 경계에 위치한 픽셀과 그 주변부 픽셀들을 포함한 N×N 크기(N은 8 이상의 정수)의 그리드를 설정하여 그리드 내 속한 픽셀들에 대해 각각 라벨링을 부여한 제2 정답 이미지를 사용하여 상기 신경망을 학습시킬 수 있다.In addition, the learning unit includes a first correct answer image labeled with a 1×1 size pixel located at the border of the cart road in the training image, and a pixel located at the border of the cart road in the training image, and a pixel at the periphery thereof. The neural network may be trained by setting a grid of size N×N (where N is an integer equal to or greater than 8) and using a second correct answer image to which labels are given to pixels in the grid.

또한, 상기 신경망은, 하나의 학습 이미지가 입력되는 공유 레이어, 및 상기 공유 레이어에서 분기되고, 상기 하나의 학습 이미지에 대하여 서로 다른 방식으로 라벨링이 부여된 제1 및 제2 정답 이미지를 각각 목표값으로 하는 제1 및 제2 태스크 레이어를 포함하며, 상기 학습부는, 상기 공유 레이어의 동일한 입력 이미지에 대응하여 상기 제1 및 제2 태스크 레이어를 통하여 멀티 태스크를 수행하면서 상기 신경망을 학습시킬 수 있다.In addition, the neural network includes a shared layer into which one training image is input, and first and second correct answer images branched from the shared layer and labeled in different ways for the one training image, respectively, as target values. And first and second task layers, and the learning unit may train the neural network while performing multi-tasks through the first and second task layers in response to the same input image of the shared layer.

또한, 상기 공유 레이어는, 동일한 입력 이미지로부터 상기 멀티 태스크에 대한 공통된 특징을 추출하도록 학습되고, 상기 제1 및 제2 태스크 레이어는, 상기 공유 레이어의 출력으로부터 분기되고, 상기 공유 레이어의 출력을 입력받아 상기 제1 및 제2 정답 이미지를 각각 목표값으로 추종하면서 서로 독립된 특징을 추출하도록 학습될 수 있다.In addition, the shared layer is learned to extract a common feature for the multi-task from the same input image, and the first and second task layers are branched from the output of the shared layer, and the output of the shared layer is input. It may be learned to extract features independent from each other while following the first and second correct answer images as target values, respectively.

또한,상기 학습부는, 제1 학습 이미지의 입력에 대응하여 도출된 상기 제1 태스크 레이어의 출력과 상기 제1 정답 이미지를 비교하여 얻은 오차를 기초로 상기 공유 레이어 내 적용되는 가중치와 상기 제1 태스크 레이어 내 적용되는 가중치를 각각 조정한 다음, 상기 제1 학습 이미지의 입력에 대응하여 도출된 상기 제2 태스크 레이어의 출력과 상기 제2 정답 이미지를 비교하여 얻은 오차를 기초로 상기 공유 레이어 내 적용되는 가중치와 상기 제2 태스크 레이어 내 적용되는 가중치를 조정하되, N개의 학습 이미지를 이용하여 각각의 가중치 조정을 반복하여 상기 신경망을 반복 학습할 수 있다.In addition, the learning unit, based on an error obtained by comparing the output of the first task layer derived in response to the input of the first training image and the first correct answer image, the weight applied in the shared layer and the first task After each adjustment of the weight applied in the layer, based on an error obtained by comparing the output of the second task layer derived in response to the input of the first training image and the second correct answer image, the applied in the shared layer The weight and the weight applied in the second task layer may be adjusted, and the neural network may be repeatedly trained by repeating each weight adjustment using N training images.

또한, 상기 제어부는, 상기 카메라로부터 촬영된 촬영 이미지를 신경망에 입력하여 도출된 제1 및 제2 태스크 레이어의 출력 중에서 상기 제2 태스크 레이어의 출력을 선택하여 카트길의 인식 결과로 제공할 수 있다.In addition, the control unit may select the output of the second task layer from among the outputs of the first and second task layers derived by inputting the captured image captured from the camera into the neural network and provide the result of recognizing the cartgil. .

그리고, 본 발명은, 골프장 내 카트의 자율주행을 위한 카트길 인식 장치를 이용한 카트길 인식 방법에 있어서, 카트길을 포함하여 촬영된 학습 이미지를 입력 값으로 하고, 학습 이미지 내의 카트길의 경계를 따라 라벨링을 부여한 정답 이미지를 출력 값으로 하여, 카트길의 경계를 인식하기 위한 신경망을 학습시키는 단계와, 상기 카트에 장착된 카메라로부터 촬영된 촬영 이미지를 획득하는 단계, 및 상기 촬영 이미지를 상기 학습된 신경망에 입력하여, 상기 촬영 이미지로부터 카트길의 경계를 인식하는 단계를 포함하는 카트길 인식 방법을 제공한다.And, the present invention, in the cart road recognition method using a cart road recognition device for autonomous driving of a cart in a golf course, taking a learning image photographed including the cart road as an input value, and determining the boundary of the cart road in the learning image. Learning a neural network for recognizing the boundary of the cart road by using the correct answer image labeled accordingly as an output value, acquiring a photographed image taken from a camera mounted on the cart, and learning the photographed image Provided is a method for recognizing a cart road, including the step of recognizing a boundary of a cart road from the photographed image by inputting it into a neural network.

또한, 상기 카트길 인식 방법은, 상기 카트길의 경계 인식 결과를 구동부에 제공하여 카트를 자율 주행시키도록 하는 단계를 더 포함할 수 있다.In addition, the method for recognizing the cart road may further include providing a result of recognizing the boundary of the cart road to a driving unit to allow the cart to run autonomously.

또한, 상기 카트길 인식 방법은, 상기 촬영 이미지 내에서 인식된 카트길의 경계를 이용하여 카트길의 곡률 정보를 측정하여 카트의 주행 방향 및 속도를 포함한 주행 정보를 생성하는 단계를 더 포함할 수 있다.In addition, the cart road recognition method may further include generating driving information including the driving direction and speed of the cart by measuring curvature information of the cart road using the boundary of the cart road recognized in the photographed image. have.

본 발명에 따르면, 골프장 내 카트에서 촬영된 이미지를 실시간 분석하여 카트길의 경계를 자동 인식하고 인식 결과를 기초로 골프장 내에서 카트의 자율 주행을 보조할 수 있는 이점을 제공한다.According to the present invention, an image captured from a cart in a golf course is analyzed in real time to automatically recognize the boundary of a cart road, and an advantage of assisting the autonomous driving of a cart in a golf course is provided based on the recognition result.

도 1은 본 발명의 실시예에 따른 카트의 자율주행을 위한 카트길 인식 장치의 구성을 나타낸 도면이다.
도 2는 도 1을 이용한 카트길 인식 방법을 설명하는 도면이다.
도 3은 본 발명의 실시예에서 하나의 학습 이미지에 대응하여 생성되는 서로 다른 두 타입의 정답 이미지의 생성 방법을 예시한 도면이다.
도 4는 본 발명의 실시예에 따라 생성한 제1 및 제2 정답 이미지를 예시한 도면이다
도 5는 본 발명의 실시예에 사용되는 신경망의 구조를 간략히 나타낸 도면이다.
도 6은 도 5의 신경망 구조를 더욱 세부적으로 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 카트길 인식 결과 이미지를 예시한 도면이다.
1 is a diagram showing a configuration of an apparatus for recognizing a cart road for autonomous driving of a cart according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a method of recognizing a cart road using FIG. 1.
3 is a diagram illustrating a method of generating two different types of correct answer images generated corresponding to one learning image in an embodiment of the present invention.
4 is a diagram illustrating first and second correct answer images generated according to an embodiment of the present invention
5 is a diagram schematically showing the structure of a neural network used in an embodiment of the present invention.
6 is a diagram showing the neural network structure of FIG. 5 in more detail.
7 is a diagram illustrating an image of a cartgil recognition result according to an embodiment of the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement the present invention.

도 1은 본 발명의 실시예에 따른 카트의 자율주행을 위한 카트길 인식 장치의 구성을 나타낸 도면이다.1 is a diagram showing the configuration of an apparatus for recognizing a cart road for autonomous driving of a cart according to an embodiment of the present invention.

도 1에 나타낸 것과 같이, 본 발명의 실시예에 따른 카트길 인식 장치(100)는 골프장 내 카트(Cart)의 자율주행을 위한 장치로서, 학습부(110), 이미지 획득부(120), 제어부(130), 주행정보 생성부(140)를 포함한다.As shown in FIG. 1, the cart road recognition apparatus 100 according to an embodiment of the present invention is a device for autonomous driving of a cart in a golf course, and includes a learning unit 110, an image acquisition unit 120, and a control unit. (130), it includes a driving information generation unit 140.

학습부(110)는 카트길을 포함하여 촬영된 학습 이미지를 입력 값으로 하고, 학습 이미지 내의 카트길의 경계를 따라 라벨링을 부여한 정답 이미지를 출력 값으로 하여, 카트길의 경계를 인식하기 위한 신경망을 학습시킨다. The learning unit 110 is a neural network for recognizing the boundaries of the cart road by taking the training image captured including the cart road as an input value and the correct answer image labeled along the border of the cart road in the training image as an output value. To learn.

이러한 학습부(110)는 복수의 학습 이미지 및 그에 대응된 복수의 정답 이미지의 세트를 이용하여 신경망을 학습시킨다. 또한 학습 과정에서 신경망 내 가중치 조정을 통한 모델 최적화가 이루어진다. 학습이 완료된 이후부터는 소정 이미지의 입력에 대응하여 이미지 내에서 카트길의 경계면을 인식한 결과를 제공할 수 있다. The learning unit 110 trains the neural network using a set of a plurality of learning images and a plurality of correct answer images corresponding thereto. Also, during the learning process, model optimization is performed by adjusting the weights within the neural network. After the learning is completed, a result of recognizing the boundary of the cart road within the image may be provided in response to an input of a predetermined image.

이미지 획득부(120)는 카트에 장착된 카메라로부터 촬영된 촬영 이미지를 획득한다. 이미지 획득부(120)는 카트의 주행 중에 실시간 촬영된 영상을 프레임 단위로 제공할 수 있다.The image acquisition unit 120 acquires a photographed image captured from a camera mounted on a cart. The image acquisition unit 120 may provide an image captured in real time while the cart is driving in a frame unit.

제어부(130)는 획득된 촬영 이미지를 학습된 신경망에 입력하여 촬영 이미지로부터 카트길의 경계를 인식하고 인식 결과를 제공한다. The controller 130 inputs the acquired photographed image to the learned neural network, recognizes the boundary of the cart road from the photographed image, and provides a recognition result.

주행정보 생성부(140)는 촬영 이미지 내에서 인식된 카트길의 경계를 이용하여 카트길의 곡률 정보를 실시간 측정하여 카트의 주행 방향 및 속도를 포함한 주행 정보를 생성할 수 있다. The driving information generation unit 140 may generate driving information including a driving direction and speed of the cart by measuring curvature information of the cart road in real time using the boundary of the cart road recognized in the photographed image.

제어부(130)는 생성한 주행 정보를 카트의 구동부(미도시)로 전달하여 구동부를 제어함으로써 카트의 자율 주행을 지원할 수 있다. 여기서, 카트의 구동부는 일반적인 차량 구동부와 같이 주행에 필요한 구동 수단을 의미한다.The controller 130 may support autonomous driving of the cart by transmitting the generated driving information to a driving unit (not shown) of the cart and controlling the driving unit. Here, the driving unit of the cart means driving means necessary for driving, like a general vehicle driving unit.

여기서, 제어부(130)는 카트길의 경계 인식 결과를 구동부에 실시간 제공하여, 구동부에서 직접 카트길의 곡률 분석 및 주행 정보 생성을 수행하여 카트를 자율 주행시키도록 할 수도 있다.Here, the control unit 130 may provide a result of recognizing the boundary of the cart road in real time to the driving unit, so that the driving unit directly analyzes the curvature of the cart road and generates driving information so that the cart can be autonomously driven.

이러한 본 발명의 기술을 이용할 경우 카트에 사람이 탑승한 상태 뿐만 아니라 사람이 없는 상태에서도 자율 주행을 지원할 수도 있다. 예를 들어, 카트가 사람보다 먼저 코스를 이동하여 준비할 수도 있고, 카트의 진입이 어려운 길목(잔디, 페어웨이 등)에서 사람이 먼저 목적한 곳으로 이동하여 게임을 끊김 없이 진행하고 그 사이에 카트는 카트길을 따라 자율적으로 주행하면서 사람이 위치한 해당 목적지로 이동할 수 있다.When using the technology of the present invention, it is possible to support autonomous driving not only in a state in which a person is in the cart, but also in a state in which there is no person. For example, a cart may move ahead of a person to prepare, or a person moves to the destination first on a path (grass, fairway, etc.) where it is difficult to enter the cart, and the game continues without interruption. Can move autonomously along the cart road and move to the destination where the person is located.

다음은 본 발명의 실시예에 따른 카트길 인식 방법을 구체적으로 설명한다.Next, a method for recognizing a cart road according to an embodiment of the present invention will be described in detail.

도 2는 도 1을 이용한 카트길 인식 방법을 설명하는 도면이다. FIG. 2 is a diagram illustrating a method of recognizing a cart road using FIG. 1.

먼저, 학습부(110)는 카트길을 포함하여 촬영된 학습 이미지를 입력 값으로 하고, 학습 이미지 내의 카트길의 경계를 따라 라벨링을 부여한 정답 이미지를 출력 값으로 하여, 카트길의 경계를 인식하기 위한 신경망을 학습시킨다(S210).First, the learning unit 110 recognizes the boundary of the cart road by taking the training image taken including the cart road as an input value and the correct answer image labeled along the border of the cart road in the training image as an output value. The neural network for training is trained (S210).

여기서, 카트길의 경계란, 카트길(카트 도로)과 주변의 배경(예: 잔디, 페어웨이, 흙 부분) 간의 경계 부분(경계면)을 의미한다. Here, the boundary of the cart road means the boundary part (boundary surface) between the cart road (cart road) and the surrounding background (eg, grass, fairway, soil).

그런데 일반 도로와는 달리 카트길에는 별도의 차선이 없기 때문에, 차선의 색상, 굵기 등에 기반한 기존의 일반 도로의 차선 인식 기술은 카트길 인식에 적용되기 곤란하며 설사 적용한다 하더라도 차선의 부재로 인해 카트길의 도로 윤곽을 전혀 인식하지 못한다. 이는 실질적으로 골프장 내 카트길 환경은 단지 카트길과 그 주변의 배경(페어웨이, 잔디, 흙 등)으로 구분되기 때문이다.However, unlike general roads, since there is no separate lane on the cart road, the existing lane recognition technology of general roads based on the color and thickness of the lane is difficult to be applied to the cart road recognition. They do not recognize the contours of the road at all. This is because the cart road environment in the golf course is only divided into the cart road and the surrounding background (fairway, grass, soil, etc.).

본 발명의 실시예는 다양한 형태의 카트길에서 촬영하여 획득한 이미지들을 학습 데이터로 수집한 후, 학습 이미지 내에서 카트길의 경계면에 존재하는 픽셀들의 특징을 신경망을 통해 학습하고, 학습된 신경망을 기반으로 촬영 이미지로부터 카트길 경계를 인식한다. 여기서 다양한 형태란, 카트길의 모양이나 곡률 뿐만 아니라, 카트길 주변의 배경 속성(페어웨이, 잔디, 흙), 계절별 또는 시간별 카트 도로면과 배경 부분의 색상 변화 등을 포함할 수 있다.According to an embodiment of the present invention, after collecting images obtained by photographing various types of cartgil as training data, the characteristics of pixels existing on the boundary of the cartgil within the training image are learned through a neural network, and the learned neural network is used. Based on this, the cartgil boundary is recognized from the photographed image. Here, the various forms may include not only the shape or curvature of the cart road, but also background properties (fairways, grass, soil) around the cart road, and color change of the cart road surface and background part by season or time.

본 발명의 실시예에 따르면, S210 단계에서 학습부(110)는 하나의 학습 이미지에 대하여 서로 다른 방식으로 라벨링을 부여하여 만든 제1 정답 이미지 및 제2 정답 이미지를 이용하여 신경망을 학습시킨다.According to an embodiment of the present invention, in step S210, the learning unit 110 trains a neural network using a first correct answer image and a second correct answer image created by labeling one learning image in different ways.

이때, 제1 정답 이미지는 학습 이미지 내에서 카트길 경계면 부분을 따라 1×1 크기의 픽셀 단위로 각각 라벨링을 부여한 것이고, 제2 정답 이미지는 학습 이미지 내에서 카트길 경계 부분을 따라 N×N 크기(N은 8 이상의 정수)의 그리드 단위로 라벨링을 부여한 것에 해당한다. N=8인 경우 하나의 그리드는 64개 픽셀을 포함하여 구성된다. At this time, the first correct answer image is each labeled in 1×1 pixel units along the cartgil boundary in the training image, and the second correct answer image is N×N along the cartgil boundary within the training image. (N is an integer equal to or greater than 8) that corresponds to the labeling in grid units. When N=8, one grid includes 64 pixels.

여기서, 라벨링이란 이미지를 구성하는 모든 픽셀들 중 해당하는 픽셀 부분 또는 해당하는 그리드 내 픽셀들에만 '1'이 할당되는 것을 의미할 수 있다. 따라서, 각각의 정답 이미지란 이미지 내에서 별도 라벨링된 부분만 '1'의 값을 가지고, 나머지 픽셀들은 모두 '0'을 값을 가지는 형태로 구성될 수 있다.Here, labeling may mean that '1' is allocated only to a corresponding pixel portion or pixels within a corresponding grid among all pixels constituting an image. Accordingly, each correct answer image may be configured in a form having a value of '1' only for a separately labeled portion of the image, and all of the remaining pixels having a value of '0'.

도 3은 본 발명의 실시예에서 하나의 학습 이미지에 대응하여 생성되는 서로 다른 두 타입의 정답 이미지의 생성 방법을 예시한 도면이다.3 is a diagram illustrating a method of generating two different types of correct answer images generated corresponding to one learning image in an embodiment of the present invention.

이러한 도 3을 참조하면, 하나의 동일한 학습 이미지에 대하여 서로 다른 방식으로 라벨링이 부여된 제1 정답 이미지 및 제2 정답 이미지의 생성 방법을 각각 확인할 수 있다.Referring to FIG. 3, a method of generating a first correct answer image and a second correct answer image that are labeled in different ways for one and the same training image can be identified.

도 3(a)는 학습 이미지 내에서 카트길의 경계에 위치한 1×1 크기의 픽셀 각각에 대해 라벨링을 부여하여 만든 제1 정답 이미지를 나타낸다. 제1 정답 이미지는 학습 이미지를 구성하는 전체 픽셀들 중 카트길의 경계를 따라 위치한 픽셀에는 '1'을 할당하고 나머지는 모두 '0'을 할당한 이미지에 해당한다. 3(a) shows a first correct answer image created by labeling each 1×1 sized pixel located at the boundary of the cart road in the training image. The first correct answer image corresponds to an image in which '1' is assigned to a pixel located along the border of the cartgil among all pixels constituting the training image, and '0' is assigned to all other pixels.

생성 방법을 예를 들면, 사용자가 학습 이미지 내에서 카트길과 배경 간의 경계에 해당하는 부분에 마우스 등을 통해 선(라인)을 그어주면, 학습부(110)는 해당 선과 겹치는 픽셀 하나하나에 '1'의 값을 할당하여 제1 정답 이미지를 만들고 이를 신경망의 출력 값으로 활용할 수 있다. 여기서 그어지는 선의 굵기에 따라 선과 겹치는 픽셀수가 많아질 수 있는데, 선 굵기는 그리드의 폭크기인 8픽셀 길이보다는 작은 굵기(예르 들어, 1픽셀, 2픽셀, 4픽셀 길이 등)로 설정되는 것이 바람직하다. As an example of the generation method, when a user draws a line (line) through a mouse or the like on a part corresponding to the boundary between the cart road and the background in the training image, the learning unit 110 displays' By assigning a value of 1', a first correct answer image can be created and used as an output value of a neural network. Here, depending on the thickness of the drawn line, the number of pixels overlapping the line may increase, but the line thickness is preferably set to a thickness smaller than 8 pixels, which is the width of the grid (e.g., 1 pixel, 2 pixels, 4 pixels length, etc.). Do.

도 3(b)는 학습 이미지 내 카트길의 경계에 위치한 픽셀(기준 픽셀)과 그 주변부 픽셀들을 포함한 8×8 크기의 그리드(8×8 Grid)를 설정하여 그리드 내 속한 64개 픽셀들에 대해 각각 라벨링을 부여하여 만든 제2 정답 이미지를 나타낸다. 이러한 제2 정답 이미지는 학습 이미지 내 전체 픽셀들 중 카트길의 경계를 따라 설정한 각 그리드 상의 픽셀들에 '1'을 할당하고 그리드 외부의 픽셀들에 모두 '0'을 할당한 이미지에 해당한다. Fig. 3(b) shows 64 pixels in the grid by setting a 8×8 grid including pixels (reference pixels) located at the border of the cart road and surrounding pixels in the training image. A second correct answer image created by labeling each is shown. This second correct answer image corresponds to an image in which '1' is assigned to pixels on each grid set along the border of Cartgill among all pixels in the training image, and '0' is assigned to all pixels outside the grid. .

그 생성 방법을 예를 들면, 사용자가 카트길의 경계에 해당하는 라인을 마우스 등을 통해 그어주면, 학습부(110)는 해당 라인을 따라 8×8 크기의 그리드를 설정 배치하고 그리드 내에 위치한 젖체 픽셀들에 '1'의 값을 부여하고 이를 신경망의 출력 값으로 활용할 수 있다.For example, when the user draws a line corresponding to the boundary of the cart road with a mouse, etc., the learning unit 110 sets and places an 8×8 grid along the line and places the breast body in the grid. A value of '1' can be assigned to pixels, and this can be used as an output value of a neural network.

여기서 8×8 크기의 그리드 내의 기준 픽셀은 중심부에 위치한 4개 픽셀 중 하나가 선택될 수 있는데, 도 3(b)의 경우 4개 픽셀 중에서 좌상단의 픽셀 즉, 그리드 내에서 4행/4열에 위치한 픽셀을 기준 픽셀로 선택한 것을 예시한다. 물론, 가로/세로 크기가 홀수인 9×9 크기의 그리드라면 정중앙의 5행/5열에 위치한 픽셀을 기준 픽셀로 설정할 수 있다.Here, as the reference pixel in the 8×8 grid, one of the four pixels located in the center may be selected. An example of selecting a pixel as a reference pixel. Of course, if the grid has an odd horizontal/vertical size of 9×9, a pixel located in the center 5 rows and 5 columns can be set as the reference pixel.

본 발명의 실시예에서 제1 정답 이미지는 카트길의 경계라인의 특징을 라벨링한 것이라면, 제2 정답 이미지는 경계라인과 그 주변까지도 라벨링한 것에 해당할 수 있다.In an embodiment of the present invention, if the first correct answer image is a labeling feature of the boundary line of the cart road, the second correct answer image may correspond to labeling the boundary line and even its periphery.

골프장 환경에서는 차선 자체가 없어 차선의 굵기, 색상, 방향을 전혀 활용할 수 없으므로, 카트길 경계면 부분의 특징들이 매우 중요한데 제2 정답 이미지의 경우 경계면 부분을 8×8 그리드로 확장하여 주변부의 특징들을 강조할 수 있고, 이를 통해 학습 과정에서 경계면에 인접한 주변 특징들이 타 배경 부분과는 명확하게 분리될 수 있다.In a golf course environment, there are no lanes, so the thickness, color, and direction of the lanes cannot be utilized at all, so the features of the cart road boundary are very important. Through this, the surrounding features adjacent to the boundary surface can be clearly separated from other background parts in the learning process.

본 발명의 실시예에서 그리드의 크기는 총 64개 픽셀로 구성된 8×8 크기를 예시하고 있으나, 반드시 이에 한정되지 않는다. 예를 들어, 제2 정답 이미지의 생성을 위한 그리드의 크기는 학습에 사용되는 학습 이미지의 해상도, 추종하는 학습률 등에 따라 달라질 수 있다.In the embodiment of the present invention, the size of the grid is exemplified as an 8×8 size composed of 64 pixels, but is not limited thereto. For example, the size of the grid for generating the second correct answer image may vary depending on the resolution of the learning image used for learning, the following learning rate, and the like.

도 4는 본 발명의 실시예에 따라 생성한 제1 및 제2 정답 이미지를 예시한 도면이다. 이러한 도 4는 카트에 직접 설치된 카메라를 이용하여 경북 영천의 Ciel 골프 클럽 골프장 도로 환경에서 획득한 이미지 데이터를 나타낸다.4 is a diagram illustrating first and second correct answer images generated according to an embodiment of the present invention. 4 shows image data acquired in the road environment of the Ciel Golf Club golf course in Yeongcheon, Gyeongsangbuk-do using a camera directly installed on the cart.

도 4(a)는 제1 정답 이미지를 나타낸다. 이러한 도 4(a)의 경우 카트길의 경계를 따르는 픽셀에 하나하나에 라벨링을 부여한 것으로 라벨링된 부분이 하나의 이어진 선과 같은 형태로 보여진다. 여기서 설명의 편의상 라벨링된 부분을 실제보다는 굵은 선으로 표시한 것이다.4(a) shows a first correct answer image. In the case of FIG. 4(a), a label is given to each pixel along the boundary of the cart road, and the labeled portion is shown in the form of a continuous line. Here, for convenience of explanation, the labeled part is indicated by a thicker line than the actual one.

도 4(b)의 경우 카트길의 경계를 따라 그리드 단위로 라벨링을 부여한 것으로, 각각의 그리드 박스(grid box)들이 경계를 따라 위치하며 라벨링된 부분의 외곽은 그리드 박스들에 의해 불규칙적인 계단 형태를 가지게 된다.In the case of Fig. 4(b), labeling is given in grid units along the boundary of the cart road, and each grid box is located along the boundary, and the outer edge of the labeled part is in the form of an irregular staircase by grid boxes. Will have.

이러한 도 4로부터 동일한 학습 이미지에 대해 서로 다른 방식으로 라벨링된 제1 및 제2 정답 이미지를 확인할 수 있다. 두 가지 정답 이미지는 라벨링 방식이 상이하므로 학습되는 특징 영역도 상이하게 된다.From FIG. 4, first and second correct answer images labeled in different ways for the same training image can be confirmed. Since the two correct answer images have different labeling methods, the feature regions to be learned are also different.

즉, 제1 정답 이미지의 경우 경계면 부분의 픽셀을 라벨링한 것으로 경계면 상에 존재한 픽셀의 특징을 주로 학습할 수 있도록 하고, 제2 정답 이미지의 경우 경계면 상의 픽셀은 물론 그 주변부 픽셀들의 특징까지 함께 학습할 수 있도록 한다.In other words, in the case of the first correct answer image, the characteristics of the pixels present on the boundary surface are mainly learned by labeling the pixels of the boundary surface, and in the case of the second correct answer image, not only the pixels on the boundary surface but also the characteristics of the surrounding pixels are also included. Make it possible to learn.

본 발명의 실시예는 하나의 입력 값에 대해 다수의 출력 값을 가지는 신경망을 구성하여 상술한 두 가지 타입의 정답 이미지를 함께 학습시킨다. 즉, 하나의 신경망에서 두 타입의 정답 이미지를 함께 학습하도록 신경망에 멀티 출력 레이어를 구성하여 멀티 태스크를 수행한다.According to an embodiment of the present invention, a neural network having a plurality of output values for one input value is constructed, and the above two types of correct answer images are learned together. That is, multi-tasks are performed by configuring multiple output layers in the neural network so that two types of correct answer images are learned together in one neural network.

도 5는 본 발명의 실시예에 사용되는 신경망의 구조를 간략히 나타낸 도면이고, 도 6은 도 5의 신경망 구조를 더욱 세부적으로 나타낸 도면이다.5 is a diagram schematically showing the structure of a neural network used in an embodiment of the present invention, and FIG. 6 is a diagram showing the neural network structure of FIG. 5 in more detail.

도 5를 참조하면, 신경망은 공유 레이어(11), 그리고 공유 레이어(11)의 출력으로부터 브랜치(branch)로 분기된 제1 및 제2 태스크 레이어(12,13)를 포함한다.Referring to FIG. 5, the neural network includes a shared layer 11 and first and second task layers 12 and 13 branched from an output of the shared layer 11 to a branch.

공유 레이어(11)의 입력(in)에는 하나의 학습 이미지가 입력된다. 그리고 제1 및 제2 태스크 레이어(12,13)는 하나의 학습 이미지에 대하여 서로 다른 방식으로 라벨링이 부여된 제1 및 제2 정답 이미지를 각각 목표값으로 하여 학습을 진행한다.One learning image is input to the input (in) of the shared layer 11. In addition, the first and second task layers 12 and 13 perform learning by using the first and second correct answer images labeled in different ways for one learning image, respectively, as target values.

이에 따라, 학습부(110)는 공유 레이어(11)의 동일한 입력 이미지에 대응하여, 제1 및 제2 태스크 레이어(12,13)를 통하여 멀티 태스크(제1 및 제2 태스크)를 수행하면서 신경망을 학습시킨다. Accordingly, the learning unit 110 performs multi-tasks (first and second tasks) through the first and second task layers 12 and 13 in response to the same input image of the shared layer 11 while performing a neural network. To learn.

여기서 물론, 제1 태스크란 입력 이미지가 제1 정답 이미지를 추종하도록 제1 태스크 레이어(12)를 학습시키는 작업을 의미하고, 제2 태스크란 입력 이미지가 제2 정답 이미지를 추종하도록 제2 태스크 레이어(13)를 학습시키는 작업을 의미한다.Here, of course, the first task refers to a task of learning the first task layer 12 so that the input image follows the first correct answer image, and the second task refers to the second task layer so that the input image follows the second correct answer image. It means the work of learning (13).

여기서, 공유 레이어(11)는 두 태스크 레이어(12,13)의 전단에서 서로가 공유한 레이어에 해당한다. Here, the shared layer 11 corresponds to a layer shared by each other at the front end of the two task layers 12 and 13.

따라서, 학습 과정에서 공유 레이어(11) 내 포함된 복수의 레이어들은 두 가지 태스크에 대한 공통된 특징을 추출하도록 학습된다. 또한, 제1 태스크 레이어(12) 내 복수의 레이어들은 공유 레이어(11)의 출력을 입력받아 제1 태스크에 대한 독립된 특징을 추출하도록 학습되고, 제2 태스크 레이어(13) 내 복수의 레이어들은 공유 레이어(11)의 출력을 입력받아 제2 태스크에 대한 독립된 특징을 추출하도록 학습된다.Accordingly, in the learning process, a plurality of layers included in the shared layer 11 are learned to extract common features for two tasks. In addition, a plurality of layers in the first task layer 12 are learned to receive the output of the shared layer 11 and extract independent features for the first task, and a plurality of layers in the second task layer 13 are shared. It is trained to receive the output of the layer 11 and extract independent features for the second task.

이와 같이, 공유 레이어(11)는 동일한 입력 이미지로부터 멀티 태스크(두 가지 태스크)에 대한 공통된 특징을 추출하도록 학습되며, 제1 및 제2 태스크 레이어(12,13)는 공유 레이어(11)의 출력을 입력받아 제1 및 제2 정답 이미지를 각각 목표값으로 추종하면서 서로 독립된 특징을 추출하도록 학습된다.In this way, the shared layer 11 is learned to extract common features for multi-tasks (two tasks) from the same input image, and the first and second task layers 12 and 13 are output of the shared layer 11 It is learned to extract features independent from each other while following the first and second correct answer images as target values, respectively.

신경망의 구조를 도 6을 통하여 보다 상세히 설명하면 다음과 같다.The structure of the neural network will be described in more detail with reference to FIG. 6 as follows.

도 6을 참조하면, 공유 레이어(11)는 5개의 컨볼루션 레이어(conv1~conv5)와 3개의 폴링 레이어(pool)를 포함하며, 공통된 특징을 학습하도록 구성된다. Referring to FIG. 6, the shared layer 11 includes five convolution layers (conv1 to conv5) and three polling layers (pool), and is configured to learn common features.

각 레이어의 정면에 표시된 2개의 숫자는 해당 레이어에 입력되는 이미지의 사이즈(첫 번째 레이어의 경우, 480×640)를 나타내고, 측면에 표시된 숫자는 차원 수(첫 번째 레이어의 경우, RGB 특성에 의한 3차원)을 의미한다.The two numbers displayed on the front of each layer indicate the size of the image input to the layer (480 × 640 for the first layer), and the number on the side indicates the number of dimensions (for the first layer, due to RGB characteristics). 3D).

공유 레이어(11)에 입력된 480×640 크기의 학습 이미지는 복수의 레이어를 거치면서 학습되고 학습 과정에서 콘볼루션 레이어를 거치면서 곱셈 연산되면서 차원수가 점차 증가하고 폴링 레이어를 거치면서 이미지 크기가 감소한다. 이미지 크기를 축소하면서 특징을 추출할 경우 신경망의 학습 및 처리 속도를 높일 수 있다.The 480×640 training image input to the shared layer 11 is learned while passing through a plurality of layers, and the number of dimensions gradually increases as the multiplication operation is performed while passing through the convolution layer in the learning process, and the image size decreases through the polling layer. do. If features are extracted while reducing the image size, the learning and processing speed of the neural network can be increased.

공유 레이어(11) 내 6번째 레이어의 출력은 제1 및 제2 태스크 레이어(12,13)의 입력 값이 된다. 제1 및 제2 테스크 레이어(12,13)는 각각 3개의 콘볼루션 레이어(Conv6~8)를 포함하여 구성되며, 자신에게 할당된 제1 및 제2 태스크에 각각 대응하여 서로 독립된 특징을 추출한다.The output of the sixth layer in the shared layer 11 becomes an input value of the first and second task layers 12 and 13. Each of the first and second task layers 12 and 13 includes three convolutional layers (Conv6 to 8), and extracts features independent from each other in response to the first and second tasks assigned to them. .

여기서, 신경망의 학습 과정은 하나의 입력 이미지에 대응하여 각 태스크에서 출력되는 출력 데이터(out1, out2)를 추종 데이터(제1 정답 이미지, 제2 정답 이미지)와 비교하고 비교에 따른 오차가 기 설정된 임계 이하가 되도록, 신경망 내의 각각의 가중치를 조정(최적화)하는 과정을 통해 이루어진다. 이를 구체적으로 설명하면 다음과 같다.Here, the learning process of the neural network compares the output data (out1, out2) output from each task in response to one input image with tracking data (first correct answer image, second correct answer image), and an error according to the comparison is preset. It is achieved through the process of adjusting (optimizing) each weight in the neural network so that it is below the threshold. This will be described in detail as follows.

먼저, 학습부(110)는 제1 학습 이미지를 사용하여 제1 태스크를 수행한다. 즉, 제1 학습 이미지의 입력(in)에 대응하여 도출된 제1 태스크 레이어(12)의 출력(out1)과 제1 학습 이미지에 대한 제1 정답 이미지를 비교한 오차를 기초로, 공유 레이어(11) 내 적용되는 가중치와 제1 태스크 레이어(12) 내 적용되는 가중치를 각각 조정하는 작업을 거친다. First, the learning unit 110 performs a first task using a first learning image. That is, based on the error of comparing the output (out1) of the first task layer 12 derived in response to the input (in) of the first training image and the first correct answer image for the first training image, the shared layer ( 11) Each of the weights applied within and the weights applied within the first task layer 12 is adjusted.

여기서 물론, 공유 레이어(11) 내의 가중치란 공유 레이어(11)를 구성한 6개 레이어에 대한 각 layer 사이에 적용되는 가중치를 의미하고 제1 태스크 레이어(12) 내의 가중치란 제1 태스크 레이어(12)를 구성한 3개 layer에 대한 각 layer 사이에 적용되는 가중치를 의미한다.Here, of course, the weight in the shared layer 11 means a weight applied between each layer of the six layers constituting the shared layer 11, and the weight in the first task layer 12 means the first task layer 12 It means the weight applied between each layer for the three layers constituting.

이후, 동일한 제1 학습 이미지를 사용하여 제2 태스크를 수행한다. 즉, 학습부(110)는 제1 학습 이미지의 입력(in)에 대응하여 도출된 제2 태스크 레이어(13)의 출력(out2)과 제1 학습 이미지에 대한 제2 정답 이미지를 비교한 오차를 기초로, 공유 레이어(11) 내 적용되는 가중치와 제2 태스크 레이어(13) 내 적용되는 가중치를 조정하는 작업을 거친다. Thereafter, the second task is performed using the same first training image. That is, the learning unit 110 compares the output (out2) of the second task layer 13 derived in response to the input (in) of the first training image and the second correct answer image for the first training image. As a basis, the weight applied in the shared layer 11 and the weight applied in the second task layer 13 are adjusted.

여기서, 공유 레이어(10)는 두 가지 작업 모두의 경우에서 가중치 조정을 통한 최적화가 이루어지고, 공유 레이어(10)의 출력에서 분기된 제1 태스크 레이어(12)와 제2 태스크 레이어(13)에서는 간헐적으로 가중치 조정이 이루어진다.Here, the shared layer 10 is optimized through weight adjustment in both cases, and the first task layer 12 and the second task layer 13 branched from the output of the shared layer 10 Weight adjustment is made intermittently.

학습부(110)는 상술한 두 가지 작업을 여러 학습 이미지를 대상으로 반복적으로 수행하면서 학습을 진행한다. 즉, N개의 학습 이미지를 통해 각각의 가중치 조정을 반복하여 신경망을 반복 학습한다. The learning unit 110 performs learning while repeatedly performing the above-described two tasks for several learning images. That is, the neural network is repeatedly trained by repeating each weight adjustment through N training images.

여기서, 다수의 골프장에서 다양한 형태의 카트길을 대상으로 다방면으로 촬영된 학습 이미지들을 학습에 사용할 수 있다. 또한, 동일한 장소라 하더라도 시간대(낮, 밤)별, 계절 별, 날씨 별로 촬영한 이미지를 각각 학습에 사용함으로써 시스템의 신뢰도를 높일 수 있다.Here, learning images photographed in various directions for various types of cart roads in a plurality of golf courses may be used for learning. In addition, even in the same place, the reliability of the system can be increased by using images taken by time (day, night), season, and weather, respectively, for learning.

본 발명의 실시예에 사용된 신경망은 앞서 도 5 및 도 6에서 설명한 것과 같이 총 2개의 태스크로 구성되며 동시에 학습된다. 여기서, 본 발명의 실시예는 그리드 박스를 이용한 제2 태스크 레이어(13)에 대한 중요도(λ2)를 제1 태스크 레이어(12)의 중요도(λ1)보다 더욱 높게 설정할 수 있다. The neural network used in the embodiment of the present invention is composed of a total of two tasks as described above with reference to FIGS. 5 and 6 and is learned at the same time. Here, according to the exemplary embodiment of the present invention, the importance λ 2 of the second task layer 13 using the grid box may be set higher than the importance λ 1 of the first task layer 12.

이를 로스(loss)의 개념으로 설명하면 다음의 수학식 1과 같이 표현된다.If this is described as a concept of loss, it is expressed as in Equation 1 below.

Figure 112019102698145-pat00001
Figure 112019102698145-pat00001

여기서, Lreg는 학습 과정에서 그리드 박스를 이용한 제2 태스크 레이어(13)에서의 출력 값과 제2 정답 이미지 간의 비교 결과(차이)이고, Lod는 제1 태스크 레이어(12)에서의 출력 값과 제1 정답 이미지 간의 차이를 나타낸다.Here, L reg is the comparison result (difference) between the output value from the second task layer 13 using the grid box and the second correct answer image in the learning process, and L od is the output value from the first task layer 12 And the first correct answer image.

λi는 i번째 태스크의 중요도로서 각각 0과 1사이의 값을 가지며 본 실시예의 경우 제2 태스크의 중요도가 높기 때문에 λ12로 설정된다. 이에 따라, 신경망 학습 시에 제2 태스크의 학습 결과가 제1 태스크보다 더욱 많은 영향을 주게 된다.λ i is the importance of the i-th task and has a value between 0 and 1, respectively. In this embodiment, since the importance of the second task is high, λ 12 is set. Accordingly, when the neural network is trained, the learning result of the second task has more influence than the first task.

이처럼, 로스 값(Loss)은 신경망의 학습 과정에서 신경망의 실제 출력 값과 목표로 하는 추정 값 간의 오차를 나타낸다. 이때, 본 발명의 실시예의 경우 로스 값은 제1 및 제2 태스크에 의한 로스의 합으로 구성되며 각각의 로스에 적용되는 중요도를 달리 설정하여 학습을 수행할 수 있다.As such, the loss value (Loss) represents the error between the actual output value of the neural network and the target estimated value in the learning process of the neural network. In this case, in the case of the embodiment of the present invention, the loss value is composed of the sum of the losses by the first and second tasks, and learning may be performed by differently setting the importance applied to each loss.

실제로 본 발명의 실시예에서 초기에는 λ12로 동일하게 설정하여 학습을 진행하면서 학습 과정에서 적절한 값으로 지정하여 최종 변경해 주었다. 그 결과 검증 정확도가 초기에 설정한 목표 값에 수렴하면 학습은 종료된다.In fact, in the embodiment of the present invention, λ 12 was initially set equally, and while learning was performed, an appropriate value was designated and finally changed in the learning process. As a result, learning ends when the verification accuracy converges to the initially set target value.

상술한 본 발명의 실시예는 2개의 태스크를 예시하고 있으나, 골프장에 존재하는 바위, 사람, 카트, 나무 등의 객체(장애물) 검출을 위한 제3 태스크 레이어(미도시)를 공유 레이어(11)에서 추가로 분기시켜 구성할 수 있으며, 이를 통해 자율 주행 시에 객체 탐지와 회피 주행이 가능하도록 할 수 있다.Although the above-described embodiment of the present invention illustrates two tasks, a third task layer (not shown) for detecting objects (obstacles) such as rocks, people, carts, and trees existing in the golf course is shared layer 11 It can be configured by additionally branching from, and through this, object detection and avoidance driving can be performed during autonomous driving.

이와 같이 학습이 완료된 이후부터는 실제 카트에서 촬영된 영상을 신경망에 입력시켜 카트길을 자동 인식할 수 있다.After the learning is completed in this way, an image taken from an actual cart can be input into a neural network to automatically recognize the cart road.

즉, 이미지 획득부(120)는 골프장을 주행하는 카트에 장착된 카메라로부터 촬영 이미지를 획득한다(S220). 그리고 제어부(130)는 기 학습된 신경망에 촬영 이미지를 입력하여, 촬영 이미지로부터 카트길의 경계를 인식하여 인식 결과를 제공한다(S230).That is, the image acquisition unit 120 acquires a photographed image from a camera mounted on a cart driving a golf course (S220). Further, the controller 130 inputs a photographed image to the previously learned neural network, recognizes the boundary of the cart road from the photographed image, and provides a recognition result (S230).

여기서, 제어부(130)는 카메라로부터 촬영된 촬영 이미지를 신경망에 입력하여 도출된 두 가지 출력(out1, out2) 즉 제1 및 제2 태스크 레이어(12,13)의 출력 중에서, 제2 태스크 레이어(13)의 출력(out2)을 선택하여 카트길의 인식 결과로 제공할 수 있다. Here, the controller 130 inputs the captured image captured from the camera to the neural network, and among the outputs (out1, out2) derived, that is, the outputs of the first and second task layers 12, 13, the second task layer ( By selecting the output (out2) of 13), it can be provided as a recognition result of the cart road.

그 이유는 실제로 본 발명의 실시예를 통하여 멀티 태스크 기반의 학습을 진행한 결과 제2 태스크 레이어(13)의 출력 결과가 제1 태스크 레이어(12)의 출력 결과보다 더욱 신뢰도가 높은 것으로 파악되었기 때문이다. 다만, 본 발명이 반드시 이에 한정되지 않으며, 제1 태스크 레이어(12)의 출력을 이용하여 카트길 인식 결과를 제공할 수도 있음은 물론이다. The reason is that, as a result of performing multi-task-based learning through the embodiment of the present invention, it was found that the output result of the second task layer 13 is more reliable than the output result of the first task layer 12. to be. However, the present invention is not necessarily limited thereto, and it goes without saying that the cartgil recognition result may be provided by using the output of the first task layer 12.

다만, 도 5 및 도 6의 신경망 구조에서 제1 태스크 레이어(12)를 제외하여 학습을 진행한 경우, 즉 제2 태스크 레이어(13) 만을 단독으로 사용하여 제2 정답 이미지 만으로 학습을 진행한 경우에는 제1 및 제2 태스크를 멀티 태스크로 함께 학습한 경우에 비하여 인식 결과의 성능 신뢰도가 떨어졌기 때문에, 실제 신경망의 학습 과정에서는 반드시 두 가지 태스크를 모두 사용하며, 추후 S230 단계에서는 제2 태스크 레이어(13)의 출력만을 활용할 수 있다.However, when learning is performed by excluding the first task layer 12 in the neural network structure of FIGS. 5 and 6, that is, when learning is performed using only the second correct answer image using only the second task layer 13 alone In the case of learning the first and second tasks together as a multi-task, since the performance reliability of the recognition result is lower, both tasks are necessarily used in the learning process of the actual neural network, and in the step S230 later, the second task layer ( Only the output of 13) can be used.

이후, 제어부(130)는 카트길 경계를 인식한 결과를 카트의 구동부로 전달하여 카트의 자율 주행을 제어하거나 보조할 수 있다(S240).Thereafter, the control unit 130 may control or assist the autonomous driving of the cart by transmitting the result of recognizing the boundary of the cart road to the driving unit of the cart (S240).

다음은 본 실시예에 따른 카트길 인식 장치의 인식 성능을 테스트한 결과를 설명한다.Next, a result of testing the recognition performance of the cartgil recognition apparatus according to the present embodiment will be described.

아래의 표 1은 테스트를 위하여 획득한 데이터의 수를 나타낸다. Table 1 below shows the number of data acquired for the test.

데이터 수Number of data 학습 데이터Training data 1,3831,383 검증 데이터Verification data 345345 테스트 데이터Test data 562562

여기서, 학습 데이터는 실제 신경망의 학습에 사용된 이미지 데이터에 해당한다. 물론, 신경망에 입력되는 학습 데이터가 1383개 이므로, 학습 과정에서 필요한 제1 정답 이미지와 제2 정답 이미지 역시 각각 1383개씩 사용된다. 그리고, 검증 데이터는 학습 이후 신경망의 검증에 사용한 이미지 데이터를 나타내고, 테스트 데이터란 검증이 완료된 신경망의 실제 테스트에 사용된 데이터를 의미한다.Here, the training data corresponds to image data used for training the actual neural network. Of course, since there are 1383 pieces of training data input to the neural network, 1383 pieces of first and second correct answer images required in the learning process are also used. In addition, the verification data represents image data used for verification of the neural network after learning, and the test data means data used for an actual test of the neural network for which verification has been completed.

도 7은 본 발명의 실시예에 따라 도출된 카트길 인식 결과 이미지를 예시한 도면이다.7 is a diagram illustrating an image of a cartgil recognition result derived according to an embodiment of the present invention.

도 7은 4가지 테스트 데이터(테스트 이미지)를 신경망에 입력하여 도출된 카트길 인식 결과를 각각 나타낸다. 성능 검출 방법은 프레임별 ground-truth와의 IoU(Intersection over Union)가 50% 이상일 경우, 해당 프레임은 검출되었다고 정의하였다. 학습 데이터를 통하여 학습한 신경망의 가중치를 이용하여 테스트 데이터를 신경망에 적용하였을 때 그 성능이 거의 97.3%에 육박하였다.7 shows the results of Cartgill recognition derived by inputting four kinds of test data (test images) into a neural network. The performance detection method defined that when the IoU (Intersection over Union) with the ground-truth for each frame was 50% or more, the frame was detected. When the test data was applied to the neural network by using the weight of the neural network learned through the training data, the performance reached almost 97.3%.

이상과 같은 본 발명에 따르면, 골프장 내 카트에서 촬영된 이미지를 실시간 분석하여 카트길의 경계를 자동 인식하고 인식 결과를 기초로 골프장 내를 주행하는 카트의 자율 주행을 보조할 수 있는 이점이 있다. According to the present invention as described above, there is an advantage of automatically recognizing the boundary of a cart road by analyzing an image photographed from a cart in a golf course in real time, and assisting the autonomous driving of a cart traveling in the golf course based on the recognition result.

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

100: 카트길 인식 장치 110: 학습부
120: 이미지 획득부 130: 제어부
140: 주행정보 생성부
100: cartgil recognition device 110: learning unit
120: image acquisition unit 130: control unit
140: driving information generation unit

Claims (16)

골프장 내 카트의 자율주행을 위한 카트길 인식 장치에 있어서,
카트길을 포함하여 촬영된 학습 이미지를 입력 값으로 하고, 학습 이미지 내의 카트길의 경계를 따라 서로 다른 방식으로 라벨링을 부여한 제1 및 제2 정답 이미지를 출력 값으로 하여, 카트길의 경계를 인식하기 위한 신경망을 학습시키는 학습부;
상기 카트에 장착된 카메라로부터 촬영된 촬영 이미지를 획득하는 이미지 획득부; 및
상기 촬영 이미지를 상기 학습된 신경망에 입력하여, 상기 촬영 이미지로부터 카트길의 경계를 인식하는 제어부를 포함하며,
상기 제1 정답 이미지는 상기 학습 이미지 내에서 카트길의 경계에 위치한 1×1 크기의 픽셀 각각에 대해 라벨링을 부여한 것이고, 상기 제2 정답 이미지는 상기 학습 이미지 내 카트길의 경계에 위치한 픽셀과 그 주변부 픽셀들을 포함한 N×N 크기(N은 8 이상의 정수)의 그리드 내에 속한 픽셀들에 대해 라벨링을 부여한 것이며,
상기 신경망은,
상기 학습 이미지가 입력되고 하나의 입력 이미지로부터 후단의 멀티 태스크에 대한 공통된 특징을 추출하도록 학습되는 공유 레이어, 및 상기 공유 레이어의 출력을 각각 입력받아, 상기 제1 및 제2 정답 이미지를 각각 목표값으로 추종하면서 서로 독립된 특징을 추출하도록 학습되는 제1 및 제2 태스크 레이어를 포함하며,
상기 제어부는,
상기 촬영 이미지를 신경망에 입력하여 도출된 제1 및 제2 태스크 레이어의 출력 중 상기 제2 태스크 레이어의 출력을 카트길의 인식 결과로 제공하는 카트길 인식 장치.
In the cart road recognition device for autonomous driving of a cart in a golf course,
Recognize the boundary of the cart road by taking the training image captured including the cart road as an input value, and using the first and second correct answer images that are labeled in different ways along the border of the cart road in the training image as an output value. A learning unit that trains a neural network to perform;
An image acquisition unit that acquires a photographed image taken from a camera mounted on the cart; And
And a control unit for inputting the photographed image to the learned neural network and recognizing a boundary of the cart road from the photographed image,
The first correct answer image is a labeling for each 1×1 sized pixel located at the border of the cart road in the training image, and the second correct answer image is a pixel located at the border of the cart road in the training image and Labeling is given to pixels in a grid of size N×N (N is an integer greater than or equal to 8) including peripheral pixels,
The neural network,
The training image is input and a shared layer that is learned to extract a common feature for a multi-task at a later stage from one input image, and an output of the shared layer, respectively, are input, and the first and second correct answer images are respectively set to target values. It includes first and second task layers that are learned to extract features that are independent from each other while following with,
The control unit,
Cartgil recognition apparatus for providing the output of the second task layer among the outputs of the first and second task layers derived by inputting the captured image to a neural network as a result of recognition of the cartgil.
청구항 1에 있어서,
상기 제어부는,
상기 카트길의 경계 인식 결과를 구동부에 제공하여 카트를 자율 주행시키도록 하는 카트길 인식 장치.
The method according to claim 1,
The control unit,
A cart road recognition device for autonomously driving a cart by providing the result of recognizing the boundary of the cart road to a driving unit.
청구항 1에 있어서,
상기 촬영 이미지 내에서 인식된 카트길의 경계를 이용하여 카트길의 곡률 정보를 측정하여 카트의 주행 방향 및 속도를 포함한 주행 정보를 생성하는 주행정보 생성부를 더 포함하는 카트길 인식 장치.
The method according to claim 1,
Cart road recognition apparatus further comprising a driving information generating unit for generating driving information including the driving direction and speed of the cart by measuring the curvature information of the cart road using the boundary of the cart road recognized in the photographed image.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 학습부는,
제1 학습 이미지의 입력에 대응하여 도출된 상기 제1 태스크 레이어의 출력과 상기 제1 정답 이미지를 비교하여 얻은 오차를 기초로 상기 공유 레이어 내 적용되는 가중치와 상기 제1 태스크 레이어 내 적용되는 가중치를 각각 조정한 다음,
상기 제1 학습 이미지의 입력에 대응하여 도출된 상기 제2 태스크 레이어의 출력과 상기 제2 정답 이미지를 비교하여 얻은 오차를 기초로 상기 공유 레이어 내 적용되는 가중치와 상기 제2 태스크 레이어 내 적용되는 가중치를 조정하되,
N개의 학습 이미지를 이용하여 각각의 가중치 조정을 반복하여 상기 신경망을 반복 학습하는 카트길 인식 장치.
The method according to claim 1,
The learning unit,
A weight applied in the shared layer and a weight applied in the first task layer are determined based on an error obtained by comparing the output of the first task layer derived in response to the input of the first training image and the first correct answer image. After adjusting each,
A weight applied in the shared layer and a weight applied in the second task layer based on an error obtained by comparing the output of the second task layer derived in response to the input of the first training image and the second correct answer image But adjust
Cartgill recognition apparatus for repeatedly learning the neural network by repeating each weight adjustment using N training images.
삭제delete 골프장 내 카트의 자율주행을 위한 카트길 인식 장치를 이용한 카트길 인식 방법에 있어서,
카트길을 포함하여 촬영된 학습 이미지를 입력 값으로 하고, 학습 이미지 내의 카트길의 경계를 따라 서로 다른 방식으로 라벨링을 부여한 제1 및 제2 정답 이미지를 출력 값으로 하여, 카트길의 경계를 인식하기 위한 신경망을 학습시키는 단계;
상기 카트에 장착된 카메라로부터 촬영된 촬영 이미지를 획득하는 단계; 및
상기 촬영 이미지를 상기 학습된 신경망에 입력하여, 상기 촬영 이미지로부터 카트길의 경계를 인식하는 단계를 포함하며,
상기 제1 정답 이미지는 상기 학습 이미지 내에서 카트길의 경계에 위치한 1×1 크기의 픽셀 각각에 대해 라벨링을 부여한 것이고, 상기 제2 정답 이미지는 상기 학습 이미지 내 카트길의 경계에 위치한 픽셀과 그 주변부 픽셀들을 포함한 N×N 크기(N은 8 이상의 정수)의 그리드 내에 속한 픽셀들에 대해 라벨링을 부여한 것이며,
상기 신경망은,
상기 학습 이미지가 입력되고 하나의 입력 이미지로부터 후단의 멀티 태스크에 대한 공통된 특징을 추출하도록 학습되는 공유 레이어, 및 상기 공유 레이어의 출력을 각각 입력받아, 상기 제1 및 제2 정답 이미지를 각각 목표값으로 추종하면서 서로 독립된 특징을 추출하도록 학습되는 제1 및 제2 태스크 레이어를 포함하며,
상기 카트길의 경계를 인식하는 단계는,
상기 촬영 이미지를 신경망에 입력하여 도출된 제1 및 제2 태스크 레이어의 출력 중 상기 제2 태스크 레이어의 출력을 카트길의 인식 결과로 제공하는 카트길 인식 방법.
In the cart way recognition method using a cart way recognition device for autonomous driving of a cart in a golf course,
Recognize the boundary of the cart road by taking the training image taken including the cart road as an input value, and using the first and second correct answer images that are labeled in different ways along the border of the cart road in the training image as an output value. Training a neural network to perform;
Obtaining a photographed image taken from a camera mounted on the cart; And
And inputting the photographed image to the learned neural network, and recognizing a boundary of the cart road from the photographed image,
The first correct answer image is a labeling for each 1×1 sized pixel located at the border of the cart road in the training image, and the second correct answer image is a pixel located at the border of the cart road in the training image and Labeling is given to pixels in a grid of size N×N (N is an integer greater than or equal to 8) including peripheral pixels,
The neural network,
The learning image is input and a shared layer that is learned to extract a common feature for a subsequent multi-task from one input image, and an output of the shared layer, respectively, are received, and the first and second correct answer images are respectively set to target values. It includes first and second task layers that are learned to extract features that are independent from each other while following with,
Recognizing the boundary of the cart road,
A cartgil recognition method for providing the output of the second task layer among outputs of the first and second task layers derived by inputting the captured image to a neural network as a recognition result of the cartgil.
청구항 9에 있어서,
상기 카트길의 경계 인식 결과를 구동부에 제공하여 카트를 자율 주행시키도록 하는 단계를 더 포함하는 카트길 인식 방법.
The method of claim 9,
And providing a result of recognizing the boundary of the cart road to a driving unit to allow the cart to run autonomously.
청구항 9에 있어서,
상기 촬영 이미지 내에서 인식된 카트길의 경계를 이용하여 카트길의 곡률 정보를 측정하여 카트의 주행 방향 및 속도를 포함한 주행 정보를 생성하는 단계를 더 포함하는 카트길 인식 방법.
The method of claim 9,
And generating driving information including a driving direction and speed of the cart by measuring curvature information of the cart road using the recognized cart road boundary in the photographed image.
삭제delete 삭제delete 삭제delete 청구항 9에 있어서,
상기 신경망을 학습시키는 단계는,
제1 학습 이미지의 입력에 대응하여 도출된 상기 제1 태스크 레이어의 출력과 상기 제1 정답 이미지를 비교하여 얻은 오차를 기초로 상기 공유 레이어를 구성한 각각의 가중치와 상기 제1 태스크 레이어의 가중치를 조정한 다음,
상기 제1 학습 이미지의 입력에 대응하여 도출된 상기 제2 태스크 레이어의 출력과 상기 제2 정답 이미지를 비교하여 얻은 오차를 기초로 상기 공유 레이어를 구성한 각각의 가중치와 상기 제2 태스크 레이어의 가중치를 조정하되,
N개의 학습 이미지를 이용하여 각각의 가중치 조정을 반복하여 상기 신경망을 반복 학습하는 카트길 인식 방법.
The method of claim 9,
The step of training the neural network,
Adjust the weight of each of the shared layers and the weight of the first task layer based on an error obtained by comparing the output of the first task layer derived in response to the input of the first training image and the first correct answer image. next,
Based on an error obtained by comparing the output of the second task layer derived in response to the input of the first training image and the second correct answer image, the weights of each of the shared layers and the weight of the second task layer are calculated. But adjust,
Cartgill recognition method for repeatedly learning the neural network by repeating each weight adjustment using N training images.
삭제delete
KR1020190124622A 2019-10-08 2019-10-08 Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof KR102248654B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190124622A KR102248654B1 (en) 2019-10-08 2019-10-08 Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190124622A KR102248654B1 (en) 2019-10-08 2019-10-08 Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof

Publications (2)

Publication Number Publication Date
KR20210042203A KR20210042203A (en) 2021-04-19
KR102248654B1 true KR102248654B1 (en) 2021-05-10

Family

ID=75718751

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190124622A KR102248654B1 (en) 2019-10-08 2019-10-08 Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof

Country Status (1)

Country Link
KR (1) KR102248654B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102496998B1 (en) 2021-10-14 2023-02-08 주식회사 델타엑스 Method of self-driving golf cart and self-driving golf cart
KR20240072330A (en) 2022-11-11 2024-05-24 방석찬 Self-driving Golf Cart System and Self-driving Golf Card Operation Method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101896406B1 (en) * 2018-03-13 2018-10-22 연세대학교 산학협력단 Road crack detection apparatus of pixel unit and method thereof, and computer program for executing the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100999971B1 (en) * 2008-09-30 2010-12-09 주식회사 한터기술 System and its method for cruise line control of automatic driving vehicles
KR20180048407A (en) * 2016-10-31 2018-05-10 삼성전자주식회사 Apparatus and method for detecting a lane
KR101922852B1 (en) * 2017-01-10 2018-11-28 (주)베라시스 Method for Detecting Border of Grassland Using Image-Based Color Information
KR102043089B1 (en) * 2018-02-12 2019-11-11 경북대학교 산학협력단 Method for extracting driving lane, device and computer readable medium for performing the method
WO2021006374A1 (en) * 2019-07-08 2021-01-14 엘지전자 주식회사 Method and apparatus for monitoring brake system of vehicle in automated vehicle and highway systems

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101896406B1 (en) * 2018-03-13 2018-10-22 연세대학교 산학협력단 Road crack detection apparatus of pixel unit and method thereof, and computer program for executing the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102496998B1 (en) 2021-10-14 2023-02-08 주식회사 델타엑스 Method of self-driving golf cart and self-driving golf cart
KR20240072330A (en) 2022-11-11 2024-05-24 방석찬 Self-driving Golf Cart System and Self-driving Golf Card Operation Method

Also Published As

Publication number Publication date
KR20210042203A (en) 2021-04-19

Similar Documents

Publication Publication Date Title
KR101996167B1 (en) Apparatus for generating image used for learning of unmanned autonomous vehicle and method thereof
Dong et al. 4D crop monitoring: Spatio-temporal reconstruction for agriculture
CN109726627B (en) Neural network model training and universal ground wire detection method
KR102319541B1 (en) Learning method and testing method of object detector to be used for surveillance based on r-cnn capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same
CN108830171B (en) Intelligent logistics warehouse guide line visual detection method based on deep learning
Levinson et al. Traffic light mapping, localization, and state detection for autonomous vehicles
WO2015010451A1 (en) Method for road detection from one image
CN111213155A (en) Image processing method, device, movable platform, unmanned aerial vehicle and storage medium
KR20200060194A (en) Method of predicting depth values of lines, method of outputting 3d lines and apparatus thereof
EP3686798A1 (en) Learning method and learning device for objet detector based on cnn
CN106780484A (en) Robot interframe position and orientation estimation method based on convolutional neural networks Feature Descriptor
KR102248654B1 (en) Cart-path recognition apparatus for autonomous driving of cart in golf cource and method thereof
Moghadam et al. Road direction detection based on vanishing-point tracking
JP2020038660A (en) Learning method and learning device for detecting lane by using cnn, and test method and test device using the same
JP6846062B2 (en) A learning method and learning device that detects the lower line and upper line of a nearby obstacle and detects the existence of an object, and a test method and test device that uses the learning method and test device {LEARNING METHOD, LEARNING DEVICE FOR DETECTING OBJECTNESS BY DETECTING BOTTOM LINE OF NEAREST OBSTACLES AND TESTING METHOD, TESTING DEVICE USING THE SAMEM}
CN110197106A (en) Object designation system and method
CN110705385B (en) Method, device, equipment and medium for detecting angle of obstacle
JP2020038661A (en) Learning method and learning device for detecting lane by using lane model, and test method and test device using the same
KR101869266B1 (en) Lane detection system based on extream learning convolutional neural network and method thereof
Lin et al. Development of navigation system for tea field machine using semantic segmentation
CN109376677A (en) A kind of video behavior detection method merged based on shape-movement double fluid information
KR102372687B1 (en) Learning method and learning device for heterogeneous sensor fusion by using merging network which learns non-maximum suppression
JP6865342B2 (en) Learning method and learning device for CNN base lane detection, and test method and test device using this
JP2020061139A (en) Learning method of cnn for monitoring blind spots, testing method, learning device, and testing device
CN111950524B (en) Orchard local sparse mapping method and system based on binocular vision and RTK

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right