KR20210009032A - Kit device for automatic truck car and control method - Google Patents

Kit device for automatic truck car and control method Download PDF

Info

Publication number
KR20210009032A
KR20210009032A KR1020190085528A KR20190085528A KR20210009032A KR 20210009032 A KR20210009032 A KR 20210009032A KR 1020190085528 A KR1020190085528 A KR 1020190085528A KR 20190085528 A KR20190085528 A KR 20190085528A KR 20210009032 A KR20210009032 A KR 20210009032A
Authority
KR
South Korea
Prior art keywords
lane
data
autonomous vehicle
driving
unit
Prior art date
Application number
KR1020190085528A
Other languages
Korean (ko)
Other versions
KR102217388B1 (en
Inventor
홍범진
Original Assignee
홍범진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍범진 filed Critical 홍범진
Priority to KR1020190085528A priority Critical patent/KR102217388B1/en
Publication of KR20210009032A publication Critical patent/KR20210009032A/en
Application granted granted Critical
Publication of KR102217388B1 publication Critical patent/KR102217388B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K7/00Disposition of motor in, or adjacent to, traction wheel
    • B60K7/0007Disposition of motor in, or adjacent to, traction wheel the motor being electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D2201/0213

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed is an autonomous vehicle kit device and a control method using the same. In the present embodiment, a plurality of participants individually input an algorithm inputted to the autonomous vehicle, and driving is performed along a lane according to an inputted algorithm. The autonomous vehicle kit device includes: a body portion forming an external shape; a first motor and a second motor; an image module unit which provides image information about the front thereof; a sensor which detects the presence of an obstacle in front or the distance to the obstacle; a control unit which extracts data and lane data and provides the same to participants; and an input part for directly inputting an algorithm required for driving.

Description

자율 주행 차량용 키트 장치 및 이를 이용한 제어 방법{Kit device for automatic truck car and control method}Kit device for an autonomous vehicle and a control method using the same {Kit device for automatic truck car and control method}

본 발명은 복수의 참가자가 자율 주행 차량에 입력되는 알고리즘을 직접적으로 다양하게 입력 및 체험이 가능한 자율 주행 차량용 키트 장치 및 이를 이용한 제어 방법에 관한 것이다.The present invention relates to a kit device for an autonomous vehicle capable of directly and variously inputting and experiencing an algorithm input to an autonomous vehicle by a plurality of participants, and a control method using the same.

일반적으로 자율주행 차량이란 운전자가 없거나 운전자가 있더라도 차량을 직접 조작하지 않고 컴퓨터 등에 의해 주행, 정지, 회전, 가속 또는 감속 등의 운전이 자동으로 이루어지는 지능형 차량을 의미한다. 이러한 지능형 차량의 주요 과제는 주행차선의 유지, 인접차량과의 안전거리 확보와 근접 장애물의 검출과 충돌회피, 교통상황이나 도로 환경에 따른 차량속도 제어 등이 있다.In general, an autonomous vehicle refers to an intelligent vehicle in which driving, stopping, turning, acceleration, or deceleration is automatically performed by a computer or the like without directly manipulating the vehicle even if there is no driver or there is a driver. The main tasks of such an intelligent vehicle are maintenance of a driving lane, securing a safe distance with adjacent vehicles, detection of adjacent obstacles, collision avoidance, and vehicle speed control according to traffic conditions or road conditions.

최근에는 기술의 발전으로 차선이탈 경고 시스템(LDWS : Lane Departure Warning System)이나 차선유지와 같은 안전운전 보조시스템, 차량 자동 제어시스템 등이 개발되어 실용화가 급속하게 진행되고 있다. 특히, 주행차선의 검출은 자율주행 차량에서의 주요 과제를 해결하는 핵심기술 중의 하나로서 국제적인 관심 속에 많은 연구가 활발히 진행되고 있다.In recent years, due to the development of technology, a Lane Departure Warning System (LDWS), a safe driving assistance system such as lane maintenance, and an automatic vehicle control system have been developed, and the practical use is rapidly progressing. In particular, detection of driving lanes is one of the core technologies to solve major problems in autonomous vehicles, and many studies are actively being conducted amid international interest.

즉, 주행차선의 검출은 안전 운전에 지대한 영향을 미치게 되므로, 차선의 위치를 추정하고 판단하기 위해 여러 가지 센서들을 활용하여 정확한 주행차선을 검출하고 있다. 예컨대, 이미지 센서, 레이더(RADAR) 또는 라이다(LIDAR)센서 등 다양한 센서들이 차선의 검출이나 차량 전방의 물체 인식을 위해 단독 또는 융합된 형태로 자율주행 차량제어 시스템 구현에 사용되고 있다.That is, since detection of a driving lane has a great influence on safe driving, accurate driving lanes are detected using various sensors to estimate and determine the position of the lane. For example, various sensors, such as an image sensor, a radar (RADAR), or a lidar (LIDAR) sensor, are used to implement an autonomous vehicle control system in a single or combined form for detection of a lane or object recognition in front of a vehicle.

전술한 자율주행 차량과는 별도로 교육용 또는 학생들에도 코딩 교육을 위한 목적으로 차량의 외형을 이루는 간단한 구조로 이루어진 프레임과, 상기 프레임에 설치된 센서와, 통신을 위한 블루투스 모듈과, 상기 프레임의 전방과 후방에 구비된 바퀴와, 상기 바퀴에 구동력을 제공하는 모터 및 상기 모터의 회전수를 제어하는 제어기를 포함한 자율주행 차량 키트(kit) 형태의 제품이 학생 및 일반인을 대상으로 시판되고 있다.Apart from the above-described autonomous vehicle, a frame consisting of a simple structure that forms the exterior of the vehicle for the purpose of education or coding education for students, a sensor installed in the frame, a Bluetooth module for communication, and front and rear of the frame A product in the form of an autonomous vehicle kit including a wheel provided in the wheel, a motor that provides driving force to the wheel, and a controller that controls the number of rotations of the motor is being marketed to students and the general public.

상기 자율 주행 차량 키트는 오픈 소스로 제공된 로직을 복수의 체험자가 주행 환경에 따라 다양하게 조작해보거나 변경 하지 않고 단순히 기 입력된 주행 명령을 단순히 반복 체험하는 체험형 타입으로 사용되고 있다.The autonomous vehicle kit is used as an experiential type in which a plurality of experienced users variously manipulate or change the logic provided as an open source according to a driving environment, and simply repeatedly experience a previously input driving command.

이 경우 사용자의 다양한 아이디어 또는 주행 패턴을 시도해 볼 수 있는 기반이 없어서 코딩 교육의 목적이 무의미 해지는 문제점이 발생되었다.In this case, the purpose of coding education became meaningless because there was no basis for trying various ideas or driving patterns of users.

예를 들면 기존의 자율주행 차량 키트는 기 설정된 도로 라인을 따라 단순히 벗어나지 않고 출발 위치에서 종료 위치까지만 주행해보는 정도의 목적으로 사용됨으로써, 사용자가 직접 자율주행 차량의 이동에 따른 알고리즘을 조작 및 변화시켜 주행 결과를 확인하고, 반영하기 어려운 문제점이 유발되어 이에 대한 대책이 필요하게 되었다.For example, the existing autonomous vehicle kit is used for the purpose of driving only from the start position to the end position without simply deviating along a preset road line, so that the user can directly manipulate and change the algorithm according to the movement of the autonomous vehicle. A problem that is difficult to check and reflect the driving result has been caused, so a countermeasure is needed.

대한민국 등록특허공보 제10-1121777호Republic of Korea Patent Publication No. 10-1121777

본 발명의 실시 예들은 개별 참가자가 자율 주행 차량용 키트 장치의 작동을 위한 주행 알고리즘을 서로 다르게 조작해보고, 결과에 따라 수정 및 변경이 용이한 자율주행 차량용 키트 장치 및 이의 제어방법을 제공하고자 한다.Embodiments of the present invention are intended to provide a kit device for an autonomous vehicle, and a method for controlling the same, in which an individual participant operates a driving algorithm for operating a kit device for an autonomous vehicle differently, and is easy to modify and change according to a result.

본 발명의 일 실시 예에 의한 자율 주행 차량용 키트 장치는 자율 주행 차량(1)의 외형을 이루는 바디부(100); 상기 바디부(100)의 전방 하측에 구비된 전륜(10)에 구동력을 제공하는 제1 모터(210)와, 후방 하측에 구비된 후륜(20)에 구동력을 제공하는 제2 모터(220)를 포함하는 모터부(200); 상기 바디부(100)에 구비되고, 상기 바디부(100)가 차선(2)이 표시된 트랙(30)을 따라 주행할 때 상기 바디부(100)의 전방에 대한 영상 정보를 제공하는 영상 모듈부(300); 상기 바디부(100)가 상기 차선(2)을 따라 이동할 때 전방 장애물 유무 및 장애물까지의 거리를 감지하는 거리 감지부(400); 상기 영상 모듈부(300)와 상기 거리 감지부(400)에서 입력된 데이터를 기반으로 관심 영역을 설정하고, 설정된 관심 영역을 X축과 Y축으로 각각 n등분한 그리드 데이터와 차선 데이터를 추출한 후에 이를 참가자에게 제공하는 제어부(500); 및 상기 참가자가 상기 제어부(500)를 통해 제공된 그리드 데이터와 차선 데이터를 이용하여 상기 자율 주행 차량(1)의 구동에 필요한 알고리즘을 직접 입력하기 위한 입력부(600)를 포함한다.A kit device for an autonomous vehicle according to an embodiment of the present invention includes a body part 100 forming the outer shape of the autonomous vehicle 1; A first motor 210 providing driving force to the front wheels 10 provided at the front and lower sides of the body 100, and a second motor 220 providing driving force to the rear wheels 20 provided at the rear lower side. Motor unit 200 including; An image module unit provided in the body unit 100 and providing image information on the front of the body unit 100 when the body unit 100 travels along the track 30 marked with the lane 2 (300); A distance sensing unit 400 for detecting the presence or absence of an obstacle in front and a distance to the obstacle when the body unit 100 moves along the lane 2; After setting the region of interest based on data input from the image module unit 300 and the distance sensing unit 400, and extracting grid data and lane data obtained by dividing the set region of interest into n equal parts on the X and Y axes, The control unit 500 for providing this to the participant; And an input unit 600 for the participant to directly input an algorithm required for driving the autonomous vehicle 1 by using grid data and lane data provided through the control unit 500.

상기 바디부(100)의 전방에 설치되고, 상기 전방 트랙(30)의 기울기에 따라 상기 영상 모듈부(300)와 상기 거리 감지부(400)의 각도를 조절하기 위한 각도 조절부(700)가 구비된다.An angle adjusting part 700 installed in front of the body part 100 and configured to adjust an angle between the image module part 300 and the distance sensing part 400 according to the inclination of the front track 30 It is equipped.

본 발명의 일 실시 예에 의한 자율 주행 차량용 키트 장치의 제어 방법은 자율 주행 차량이 트랙을 따라 주행되기 위한 알고리즘을 참가자가 개별적으로 직접 조작하여 상기 자율 주행 차량의 구동을 체험해 보기 위해 상기 자율 주행 차량의 주행에 필요한 데이터를 센서를 통에 입력 받는 제1 단계(ST100); 상기 입력된 데이터 중 상기 자율 주행 차량의 주행에 필요한 관심 영역을 설정하는 제2 단계(ST200); 상기 설정된 관심 영역에서 상기 자율 주행 차량의 주행에 필요한 차선 데이터를 참가자에게 제공하기 위해 상기 관심 영역에 형성된 차선을 추출하기 위한 경계점을 설정하는 제3 단계(ST300); 상기 설정된 경계점에서 직선 데이터만을 추출하는 제4 단계(ST400); 상기 추출된 직선 데이터 중 차선 데이터만 검출한 후에 설정된 관심 영역의 XY축에서 그리드 데이터를 검출하는 제5 단계(ST500); 상기 그리드 데이터와 함께 상기 검출된 차선 데이터가 상기 참가자에게 제공되고, 상기 참가자는 검출된 차선 데이터 정보를 선택적으로 조정하는 제6 단계(ST600); 상기 참가자가 선택한 명령에 따라 상기 자율 주행 차량으로 주행 명령이 전송되고, 상기 자율 주행 차량은 트랙에 표시된 차선을 따라 주행이 이루어지는 제7 단계(ST600); 상기 차선을 따라 주행하는 도중 신호등을 감지하여 주행 상태를 결정하는 제8 단계(ST700); 및 상기 자율 주행 차량이 주행도중 돌발 상황 또는 장애물이 발견될 경우 주행 상태를 제어하는 제9 단계(ST800)를 포함한다.In the control method of the kit device for an autonomous vehicle according to an embodiment of the present invention, a participant individually directly manipulates an algorithm for driving the autonomous vehicle along a track to experience the driving of the autonomous vehicle. A first step (ST100) of receiving data required for driving of the vehicle through a sensor; A second step (ST200) of setting an ROI required for driving of the autonomous vehicle among the input data; A third step (ST300) of setting a boundary point for extracting a lane formed in the region of interest to provide the participant with lane data necessary for driving of the autonomous vehicle in the set region of interest; A fourth step (ST400) of extracting only straight line data from the set boundary point; A fifth step (ST500) of detecting grid data in an XY axis of a set region of interest after detecting only lane data among the extracted straight line data; A sixth step (ST600) of providing the detected lane data along with the grid data to the participant, and selectively adjusting the detected lane data information by the participant; A seventh step (ST600) in which a driving command is transmitted to the autonomous vehicle according to the command selected by the participant, and the autonomous vehicle is driven along a lane marked on a track; An eighth step (ST700) of determining a driving state by detecting a traffic light while driving along the lane; And a ninth step (ST800) of controlling a driving state when an unexpected situation or an obstacle is found in the autonomous vehicle while driving.

상기 제1 단계(ST100)는 상기 자율 주행 차량의 전방 영역에 대한 영상 정보 데이터와, 상기 자율 주행 차량의 전방 영역에 대한 거리 정보 데이터를 포함하고, 상기 제1 단계(ST100)는 차선과 차선 이외의 영역에 대한 감도 차이를 조정하는 감도 조정 단계(ST110); 상기 센서 중 영상 정보를 제공하는 영상 모듈부의 렌즈를 경유하면서 발생되는 렌즈 왜곡(lens distortion)을 계산한 후에 왜곡을 보정하는 왜곡 보정 단계(ST120)를 더 포함한다.The first step (ST100) includes image information data on the front area of the autonomous vehicle and distance information data on the front area of the autonomous vehicle, and the first step (ST100) includes other than lanes and lanes. A sensitivity adjustment step (ST110) of adjusting a difference in sensitivity for an area of A distortion correction step (ST120) of correcting the distortion after calculating lens distortion generated while passing through a lens of an image module unit providing image information among the sensors is further included.

상기 제3 단계(ST300)는 상기 영상 정보 데이터를 통해 입력된 컬러 영상 데이터를 그레이 컬러(gray color) 영상 데이터로 변경하는 단계(ST310);The third step (ST300) includes changing color image data input through the image information data into gray color image data (ST310);

상기 그레이 컬러(gray color) 영상 데이터 중 연속적으로 연장된 차선에 해당되는 차선 데이터만을 추출하기 위해 상기 그레이 컬러(gray color) 영상 데이터에서 상기 차선에 해당되지 않는 노이즈를 제거하기 위해 블러링(blurring)을 통해 노이즈 필터링을 실시하는 제1 노이즈 필터링 단계(ST320)를 포함한다.Blurring to remove noise that does not correspond to the lane from the gray color image data to extract only lane data corresponding to a continuously extended lane among the gray color image data And a first noise filtering step (ST320) of performing noise filtering through.

상기 제4 단계(ST400)는 호프 변환을 통해 경계점에서 차선에 해당되는 직선 데이터를 추출하기 위한 파라미터를 설정하는 단계(ST410); 상기 설정된 파라미터에 의해 최종 차선 데이터만을 추출하는 단계(ST420)를 포함한다.The fourth step (ST400) includes setting a parameter for extracting straight line data corresponding to a lane from a boundary point through a hop transformation (ST410); And extracting only the last lane data based on the set parameters (ST420).

상기 제5 단계(ST500)는 좌측 상단을 원점으로 하여 오른쪽 방향을 x축의 양의 방향으로 하고 아래쪽을 y축의 양의 방향으로 하는 영상 좌표계에서 추출된 직선 데이터로부터 주행에 필요한 전방 차선, 좌측 차선, 우측 차선 데이터만을 선별하여 데이터를 제공하는 단계(ST510)를 포함한다.In the fifth step (ST500), a front lane, a left lane required for driving, and a left lane, required for driving, are extracted from the straight line data extracted from the image coordinate system in which the right direction is the positive x-axis direction and the bottom is the positive y-axis direction with the upper left as the origin. And providing data by selecting only right lane data (ST510).

상기 제6 단계(ST600)는 상기 참가자가 상기 차선 데이터 정보와 함께 상기 트랙의 레이 아웃과 상기 자율 주행 차량의 구동 모드를 임의의 설정값으로 조절하되, In the sixth step (ST600), the participant adjusts the layout of the track and the driving mode of the autonomous vehicle to an arbitrary set value together with the lane data information,

복수의 참가자가 각각 서로 다른 설정값으로 조절이 이루어지는 것을 특징으로 한다. It is characterized in that a plurality of participants are adjusted to different settings, respectively.

본 발명의 실시 예들은 참가자가 차선을 따라 주행하는 자율 주행 차량의 이동에 따른 알고리즘을 각자 개별적으로 입력해보고 차선을 따라 정상적으로 주행이 이루어지는지 경험해 봄으로써 자연스럽게 알고리즘에 대한 정보를 습득할 수 있다.According to embodiments of the present invention, information about the algorithm may be naturally acquired by a participant individually inputting an algorithm according to the movement of an autonomous vehicle driving along a lane and experiencing whether driving is normally performed along the lane.

본 발명의 실시 예들은 자율 주행 차량의 동작 원리를 참가자들이 이해하고, 직접 구현하고 경험해 볼 수 있어 교육적 효과가 향상되며, 상기 자율 주행 차량 1대를 이용하여 복수의 참가자들이 공유하면서 개별적으로 직접 구현된 알고리즘을 개별적으로 구현해볼 수 있는 경험을 해봄으로써 참여도가 향상된 교육이 가능해 진다.Embodiments of the present invention enhance educational effects as participants can understand, implement and experience the operating principle of an autonomous vehicle, and implement them individually while sharing with a plurality of participants using one autonomous vehicle. Education with improved participation becomes possible by experiencing the experience of implementing the algorithm individually.

본 발명의 실시 예들은 참가자들마다 서로 다른 알고리즘을 입력해보고 그에 따라 자율 주행 차량이 차선을 따라 정상 또는 비정상 주행이 이루어지는 경우에 따른 경험을 통해 최적의 알고리즘을 구현해 볼 수 있는 경험을 해 볼 수 있다.In the embodiments of the present invention, different algorithms can be input for each participant, and accordingly, an experience in which an optimal algorithm can be implemented through an experience when an autonomous vehicle is driving normally or abnormally along a lane can be experienced. .

도 1 내지 도 2는 본 발명의 일 실시 예에 따른 자율 주행 차량용 키트 장치를 도시한 도면.
도 3은 본 발명의 일 실시 예에 따른 자율 주행 차량용 키트 장치에 구비된 제어부 및 상기 제어부와 연계된 구성을 도시한 블럭도.
도 4 내지 도 5는 본 발명의 일 실시 예에 의한 각도 조절부의 작동 상태도.
도 6 내지 도 7은 본 발명의 일 실시 예에 의한 자율 주행 차량용 키트 장치의 제어 방법을 도시한 순서도.
도 8은 도 6에 의한 그리드 데이터가 적용된 영상의 일 예를 도시한 도면.
도 9는 도 6에 의한 실제 주행 영상과 알고리즘이 적용된 영상을 일 예로 도시한 도면.
도 10 내지 도 11은 도 6에 도시된 제3 내지 제4 단계의 실시 예를 도시한 순서도.
도 12는 도 6에 도시된 제4 단계에 의해 참가자가 호프 변환에 따른 변수를 조정하는 상태를 일 예로 도시한 도면.
도 13은 본 발명의 일 실시 예에 의한 트랙에 신호등이 설치되고, 이를 감지하는 상태를 도시한 도면.
1 to 2 are views showing a kit device for an autonomous vehicle according to an embodiment of the present invention.
3 is a block diagram showing a control unit provided in the kit apparatus for an autonomous vehicle according to an embodiment of the present invention and a configuration associated with the control unit.
4 to 5 are operational state diagrams of the angle adjustment unit according to an embodiment of the present invention.
6 to 7 are flowcharts illustrating a method of controlling a kit device for an autonomous vehicle according to an embodiment of the present invention.
8 is a diagram illustrating an example of an image to which the grid data of FIG. 6 is applied.
9 is a view showing an example of an image to which an actual driving image and an algorithm of FIG. 6 are applied.
10 to 11 are flow charts illustrating an embodiment of the third to fourth steps shown in FIG. 6.
12 is a diagram illustrating a state in which a participant adjusts a variable according to a hop transformation according to a fourth step shown in FIG. 6 as an example.
13 is a view showing a state in which a traffic light is installed and detected on a track according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 자율 주행 차량용 키트 장치에 대해 도면을 참조하여 설명한다.A kit device for an autonomous vehicle according to an embodiment of the present invention will be described with reference to the drawings.

참고로 본 실시 예는 자율 주행 차량(1)에 참가자가 직접적으로 탑승하고 도로를 따라 주행하는 차량이 아니라 자율 주행 차량에 관심을 갖고 있는 복수의 학생 또는 일반인들을 포함하는 참가자가 직선 구간과 곡선 구간의 경로를 갖는 차선이 표시된 트랙을 따라 주행하는 자율 주행 차량(1)의 다양한 주행을 위한 알고리즘을 개별적으로 입력하되, 상기 참가자가 각기 서로 다른 알고리즘을 입력하여 차선을 따라 이동하는 자율 주행 차량의 이동 경로를 다양하게 체험해 볼 수 있게 하고자 한다.For reference, in this embodiment, a participant including a plurality of students or ordinary people who are interested in the autonomous driving vehicle, not a vehicle that a participant directly boards and drives along a road, is a straight section and a curved section. Individually input algorithms for various driving of the autonomous vehicle (1) driving along a track marked with a lane having a path of, but the participant inputs different algorithms to move the autonomous vehicle moving along the lane We want to be able to experience various routes.

이 경우 본 실시 예는 참가자의 독립적인 참여를 도모하고 상기 자율 주행 차량(1)이 차선을 따라 주행하다가 오류가 발생되는 경우에도 직접적으로 오류의 원인을 찾아내어 원인을 해결하도록 함으로써 정상 주행을 위한 해결책을 직접 해결하도록 유도하고, 자율주행 알고리즘 구현을 위한 사고 능력을 자연스럽게 습득 및 체험할 수 있도록 유도할 수 있다.In this case, the present embodiment promotes independent participation of the participant, and even when an error occurs while the autonomous vehicle 1 is driving along a lane, the cause of the error is directly found and the cause is solved. It is possible to induce a solution to be solved directly, and to naturally acquire and experience the thinking ability for implementing an autonomous driving algorithm.

첨부된 도 1 내지 도 3을 참조하면, 본 실시 예에 의한 자율 주행 차량용 키트 장치는 자율 주행 차량(1)의 외형을 이루는 바디부(100)와, 상기 바디부(100)의 전방 하측에 구비된 전륜(10)에 구동력을 제공하는 제1 모터(210)와, 후방 하측에 구비된 후륜(20)에 구동력을 제공하는 제2 모터(220)를 포함하는 모터부(200)와, 상기 바디부(100)에 구비되고, 상기 바디부(100)가 차선(2)이 표시된 트랙(30)을 따라 주행할 때 상기 바디부(100)의 전방에 대한 영상 정보를 제공하는 영상 모듈부(300)와, 상기 바디부(100)가 상기 차선(2)을 따라 이동할 때 전방 장애물의 유무 또는 장애물까지의 거리를 감지하는 거리 감지부(400)와, 상기 영상 모듈부(300)와 상기 거리 감지부(400)에서 입력된 데이터를 기반으로 관심 영역을 설정하고, 설정된 관심 영역을 X축과 Y축으로 각각 n등분한 그리드 데이터와 차선 데이터를 추출한 후에 이를 참가자에게 제공하는 제어부(500) 및 상기 참가자가 상기 제어부(500)를 통해 제공된 그리드 데이터와 차선 데이터를 이용하여 상기 자율 주행 차량(1)의 구동에 필요한 알고리즘을 직접 입력하기 위한 입력부(600)를 포함한다.1 to 3, the kit device for an autonomous vehicle according to the present embodiment includes a body part 100 forming the outer shape of an autonomous vehicle 1, and provided at the front and lower sides of the body part 100. A motor unit 200 including a first motor 210 providing driving force to the front wheel 10 and a second motor 220 providing driving force to the rear wheel 20 provided at the rear lower side, and the body An image module unit 300 provided in the unit 100 and providing image information on the front of the body unit 100 when the body unit 100 travels along the track 30 marked with the lane 2 ) And, when the body part 100 moves along the lane 2, a distance detection part 400 that detects the presence or absence of an obstacle in front or the distance to the obstacle, and the image module part 300 and the distance detection A control unit 500 configured to set a region of interest based on data input from the unit 400, extract grid data and lane data obtained by dividing the set region of interest into n equal parts on the X-axis and Y-axis, and provide it to the participant. And an input unit 600 for a participant to directly input an algorithm required for driving the autonomous vehicle 1 using grid data and lane data provided through the control unit 500.

바디부(100)는 경량화를 위해 플라스틱으로 제작되고, 상기 모터부(200)는 전륜(10)을 구동하기 위해 서보 모터 이루어진 제1 모터(210)와, 후륜(20)을 구동하기 위해 DC 모터로 이루어진 제2 모터(220)로 구성된다.The body part 100 is made of plastic for weight reduction, and the motor part 200 includes a first motor 210 made of a servo motor to drive the front wheel 10 and a DC motor to drive the rear wheel 20 It consists of a second motor 220 made of.

상기 제1 모터(210)는 조향을 위해 구비되고, 바디부(100)의 전진과 후진은 후륜(20)에 구비된 제2 모터(220)에 의해 이루어진다. 또한 제2 모터(220)는 후륜에 각각 구비되고, 회전 속도가 가변 될 수 있다.The first motor 210 is provided for steering, and the forward and backward movement of the body part 100 is performed by the second motor 220 provided in the rear wheel 20. In addition, the second motor 220 is provided on each of the rear wheels, and the rotation speed may be variable.

바디부(100)에는 전면에 구비된 송수신 모듈을 통해 입력부(600)에서 입력된 데이터를 수신할 수 있다.The body unit 100 may receive data input from the input unit 600 through a transmission/reception module provided on the front side.

참가자는 입력부(600)를 통해 제어 명령을 입력하고, 상기 제어부(500)는 참가자가 입력한 제어 명령에 따라 자율 주행 차량(1)이 차선(2)을 따라 직진 구간과, 곡선 구간을 따라 이동할 때 제1 모드와 제2 모드로 제어되도록 제어 한다.The participant inputs a control command through the input unit 600, and the controller 500 moves the autonomous vehicle 1 along the lane 2 and the curved section according to the control command input by the participant. In this case, the first mode and the second mode are controlled.

상기 제1 모드는 제2 모터(220)가 동일 속도로 회전되도록 제어하는 것으로 직진 구간을 이동할 때 사용된다.The first mode controls the second motor 220 to rotate at the same speed, and is used when moving a straight section.

제2 모드는 곡선 구간과 같이 굴곡진 구간을 주행할 때 제1 모터(210)와 제2 모터(220)의 분당 회전수가 서로 다르게 제어되며 이를 통해 차선(2)의 굴곡진 정도에 따라 안정적인 주행이 이루어진다.In the second mode, when driving a curved section such as a curved section, the number of revolutions per minute of the first motor 210 and the second motor 220 are controlled differently, and through this, stable driving according to the degree of bending of the lane 2 This is done.

영상 모듈부(300)는 일 예로 카메라 모듈이 사용될 수 있으며 상기 바디부(100)의 전방에 설치되며, 광각 렌즈가 사용되나 다른 렌즈가 사용되는 것도 가능할 수 있다.The image module unit 300 may be, for example, a camera module, installed in front of the body unit 100, and a wide-angle lens may be used, but other lenses may be used.

상기 영상 모듈부(300)는 바디부(100)의 전방을 기준으로 중앙에 위치되고, 150도 또는 150도 이상의 화각을 갖는 카메라가 사용되고. 해상도는 720P 또는 720P 이상의 해상도를 갖는다.The image module unit 300 is located in the center with respect to the front of the body unit 100, and a camera having a view angle of 150 degrees or more than 150 degrees is used. The resolution has a resolution of 720P or 720P or higher.

거리 감지부(400)는 일 예로 레이저 센서가 사용되며 상기 영상 모듈부(300)와 상기 거리 감지부(400)는 모두 제어부(500)로 해당 데이터를 전송한다.As an example, the distance sensing unit 400 uses a laser sensor, and both the image module unit 300 and the distance sensing unit 400 transmit corresponding data to the control unit 500.

상기 영상 모듈부(300)는 바디부(100)의 전방과 후방에 각각 1개씩 설치되는 것도 가능하고, 상기 거리 감지부(400) 또한 바디부(100)의 전방과 후방에 각각 1개씩 설치되는 것도 가능할 수 있다.The image module unit 300 may be installed at each of the front and rear sides of the body unit 100, and the distance sensing unit 400 is also installed at the front and rear sides of the body unit 100. It could also be possible.

본 실시 예는 참가자가 직접 자율 주행 차량(1)의 주행에 필요한 알고리즘을 직접 조작하고 체험해 보기 위한 것으로 상기 제어부(500)는 상기 영상 모듈부(300)와 거리 감지부(400)에서 입력된 데이터를 기반으로 설정된 관심 영역(S)에 해당되는 차선 데이터와, 그리드 데이터를 참가자에게 제공한다.The present embodiment is for a participant to directly manipulate and experience the algorithm required for driving of the autonomous vehicle 1, and the control unit 500 is inputted from the image module unit 300 and the distance detection unit 400. Lane data and grid data corresponding to the region of interest S set based on the data are provided to participants.

상기 관심 영역(S)은 바디부(100)의 전방 영역에 해당되고, 상기 전방 영역은 자율 주행 차량(1)이 차선을 따라 주행하는데 필요한 차선 정보를 정확하게 인지하기 위해 필요한 영역에 해당된다.The region of interest S corresponds to an area in front of the body 100, and the front area corresponds to an area necessary for accurately recognizing lane information required for the autonomous vehicle 1 to travel along a lane.

관심 영역(S)은 영상 모듈부(300)를 통해 감지되는 범위에 해당되며 차선인식을 위해 전방 관심 영역의 중앙을 기준으로 하측 영역에 대한 영상 데이터를 이용한다.The region of interest S corresponds to a range sensed by the image module unit 300 and uses image data for the lower region based on the center of the front region of interest for lane recognition.

상기 차선 데이터는 후술할 관심 영역(S)에 표시된 차선을 정확하게 인지하기 위해 바디부(100)의 전방 좌측과, 전방과, 전방 우측에 대한 차선 데이터를 포함한다.The lane data includes lane data for the front left side, the front side, and the front right side of the body 100 in order to accurately recognize the lane displayed in the region of interest S to be described later.

상기 차선 데이터는 후술할 실시 예에서 보다 상세하게 설명하기로 한다.The lane data will be described in more detail in an embodiment to be described later.

본 실시 예에 의한 자율 주행 차량(1)은 참가자가 직접 탑승하는 차량이 아니므로 바디부(100)의 전방 영역에 대해 데이터만 획득하는 경우에도 자율 주행 차량(1)이 트랙(30)에 표시된 차선(2)을 따라 이동이 용이하게 이루어진다.Since the autonomous vehicle 1 according to the present embodiment is not a vehicle on which the participant directly boards, the autonomous vehicle 1 is displayed on the track 30 even when only data is acquired for the front area of the body 100. It is easy to move along the lane 2.

입력부(600)는 PC또는 노트북 또는 연산 처리가 가능한 단말기와 연계된 키보드가 사용되나, 입력 가능한 다른 구성품으로 대체되는 것도 가능할 수 있다.The input unit 600 may be a PC or a laptop computer, or a keyboard associated with a terminal capable of arithmetic processing, but may be replaced with other components capable of input.

또한 입력부(600)는 모니터와 연계되어 참가자가 입력한 데이터를 시각적으로 확인할 수 있으며 영상 모듈부(300)를 통해 감지된 자율 주행 차량(1)의 전방에 해당되는 관심 영역에 대한 영상 정보를 확인해 볼 수 있다. In addition, the input unit 600 can visually check the data input by the participant in connection with the monitor, and check the image information on the region of interest corresponding to the front of the autonomous vehicle 1 sensed through the image module unit 300. can see.

첨부된 도 3 내지 도 5를 참조하면, 본 실시 예는 바디부(100)의 전방에 설치되고, 상기 전방 트랙(30)의 기울기에 따라 상기 영상 모듈부(300)와 상기 거리 감지부(400)의 각도를 조절하기 위한 각도 조절부(700)가 구비된다. 상기 바디부(100)에는 기울기 센서(800)가 구비되고, 제어부(500)는 상기 기울기 센서(800)로부터 현재 바디부(100)의 기울기 값을 입력 받아 기 설정된 기울기를 초과할 경우 틸팅 플레이트(710)의 각도를 상기 바디부(100)의 상측 또는 하측을 향해 회전시켜 영상 모듈부(300)와 거리 감지부(400)의 각도를 동시에 조절한다.3 to 5, the present embodiment is installed in front of the body part 100, and the image module part 300 and the distance sensing part 400 are installed according to the inclination of the front track 30. ) Is provided with an angle adjustment unit 700 for adjusting the angle. The body part 100 is provided with a tilt sensor 800, and the controller 500 receives the current tilt value of the body part 100 from the tilt sensor 800, and when it exceeds a preset tilt, a tilting plate ( The angle of the image module unit 300 and the distance sensing unit 400 are simultaneously adjusted by rotating the angle of 710 toward the upper or lower side of the body unit 100.

이 경우 본 실시 예는 트랙(3)의 기울기 유무와 상관 없이 정확하게 차선(2)을 인지하고 오차 발생을 최소화 시켜 안정적인 이동을 도모할 수 있다.In this case, the present embodiment can accurately recognize the lane 2 regardless of whether the track 3 is inclined or not and minimize the occurrence of errors, thereby achieving stable movement.

각도 조절부(700)는 바디부(100)의 전면에 판 형태의 틸딩 플레이트(710)가 구비되고, 상기 틸딩 플레이트(710)의 전면에 영상 모듈부(300)와 거리 감지부(400)가 설치된다.The angle adjustment unit 700 is provided with a plate-shaped tilting plate 710 on the front of the body portion 100, and the image module unit 300 and the distance sensing unit 400 are provided on the front of the tilting plate 710 Installed.

각도 조절부(700)는 틸딩 플레이트(710)의 후면에 일단이 연결되고, 타단이 후방으로 연장되며 일부 구간에 치형(G)이 형성된 제1 기어(720)와, 상기 제1 기어(720)의 치형(G)에 치합된 스퍼기어로 시계 방향 또는 시계 반대 방향으로 회전력을 제공하는 틸팅 모터(730)를 포함한다.The angle adjustment unit 700 has a first gear 720 having one end connected to the rear surface of the tilting plate 710, the other end extending rearward, and having a tooth shape G formed in some sections, and the first gear 720 It includes a tilting motor 730 that provides a rotational force in a clockwise or counterclockwise direction as a spur gear meshed with the teeth (G) of.

상기 틸딩 플레이트(710)는 후면 중앙에 구비된 힌지(H)를 매개로 바디부(100)에 결합된다.The tilting plate 710 is coupled to the body portion 100 via a hinge H provided in the center of the rear surface.

일 예로 상기 자율 주행 차량(1)이 경사진 구간을 주행할 경우 기울기 센서(800)에서 감지된 바디부(100)의 기울기 데이터가 제어부(500)에 전송되고, 상기 제어부(500)는 기 설정된 기울기 데이터와 비교하여 초과할 경우 상기 틸팅모터(730)를 작동시켜 틸딩 플레이트(710)를 상측 또는 하측 중의 어느 한 방향을 향해 이동되도록 제어한다.For example, when the autonomous vehicle 1 travels in an inclined section, tilt data of the body part 100 detected by the tilt sensor 800 is transmitted to the control unit 500, and the control unit 500 is When it exceeds the inclination data, the tilting motor 730 is operated to control the tilting plate 710 to move toward either the upper side or the lower side.

예를 들어 트랙(30)이 수평인 구간에서 자율 주행 차량(1)의 주행이 이루어질 경우에 상기 틸딩 플레이트(710)는 바디부(100)의 전면에 대해 수직 상태가 유지된다.For example, when the autonomous vehicle 1 is driven in a section in which the track 30 is horizontal, the tilting plate 710 is maintained in a vertical state with respect to the front surface of the body part 100.

첨부된 도 4에 도시된 바와 같이, 트랙(30)이 상측으로 경사진 구간이 존재할 경우 상기 바디부(100)의 전면에 구비된 영상 모듈부(300)를 통해 감지되는 전방의 차선 데이터는 바디부(100)의 전방에 해당되는 관심 영역(S)에 정확하게 감지되지 않고, 상기 관심 영역(S)을 벗어난 영역에 대한 감지가 이루어질 수 있다.As shown in FIG. 4, when there is a section in which the track 30 is inclined upward, the data of the forward lane detected through the image module unit 300 provided in the front of the body unit 100 is The region of interest S corresponding to the front of the unit 100 may not be accurately detected, and a region outside the region of interest S may be detected.

본 실시 예는 관심 영역(S)에 대한 정확한 감지를 위해 기울기 센서(800)에서 감지된 기울기 데이터에 의해 상기 트랙(30)의 경사 유무에 따라 상기 틸딩 플레이트(710)가 틸팅 이동되므로 안정적으로 관심 영역(S)에 대한 데이터를 제어부(500)로 전달할 수 있어 자율 주행 차량(1)이 차선(2)에 대한 인식과 주행이 항시 일정하게 유지된다.In this embodiment, the tilting plate 710 is tilted and moved according to the presence or absence of the inclination of the track 30 by the inclination data sensed by the inclination sensor 800 for accurate detection of the region of interest (S). Data on the area S can be transmitted to the control unit 500 so that the autonomous vehicle 1 recognizes and drives the lane 2 at all times.

참고로 상기 트랙(30)이 상측으로 경사질 경우 상기 틸딩 플레이트(710)는 실선 위치에서 점선으로 도시된 전방 상측으로 이동된다.For reference, when the track 30 is inclined upward, the tilting plate 710 is moved from the solid line position to the front upward side shown by the dotted line.

첨부된 도 5에 도시된 바와 같이, 상기 트랙(30)이 하측으로 경사질 경우 상기 틸딩 플레이트(710)는 실선 위치에서 점선으로 도시된 전방 하측으로 이동되어 관심 영역(S)에 대한 정확한 감지를 실시할 수 있다.As shown in FIG. 5, when the track 30 is inclined downward, the tilting plate 710 is moved from the solid line position to the front and lower side shown by the dotted line to accurately detect the region of interest (S). You can do it.

제어부(500)는 참가자가 입력하는 알고리즘 데이터에 의해 자율 주행 차량(1)의 작동이 안정적으로 이루어지도록 제어하며, 상기 자율 주행 차량(1)의 이동에 따른 주체는 상기 참가자에 의해 대부분 수행된다.The control unit 500 controls the operation of the autonomous vehicle 1 to be stably operated based on algorithm data input by the participant, and the subject according to the movement of the autonomous vehicle 1 is mostly performed by the participant.

본 발명의 일 실시 예에 의한 자율 주행 차량용 키트 장치의 제어 방법에 대해 도면을 참조하여 설명한다.A method of controlling a kit for an autonomous vehicle according to an embodiment of the present invention will be described with reference to the drawings.

첨부된 도 3 또는 도 6 내지 도 9를 참조하면, 본 실시 예는 자율 주행 차량이 차선을 따라 안정적으로 주행이 가능하도록 하기 위해 참가자가 직접 주행에 필요한 기본 적인 데이터를 전술한 제어부(500)를 통해 전달받아 입력부(600)를 통해 입력한 후에 안정적으로 주행이 이루어지는지 여부를 육안으로 확인하고, 만약 트랙(30)에 표시된 차선(2)을 따라 주행이 불안정하게 이루어지거나, 상기 차선(2)을 넘어설 경우 입력부(600)를 통해 다른 데이터를 입력하여 정상 주행을 도모하도록 할 수 있다.3 or 6 to 9, the present embodiment uses the above-described control unit 500 to provide basic data required for direct driving by a participant in order to stably drive an autonomous vehicle along a lane. After receiving through the input unit 600 and inputting through the input unit 600, it is visually checked whether the driving is stably performed, and if driving is unstable along the lane 2 indicated on the track 30, or the lane 2 If it exceeds, other data may be input through the input unit 600 to promote normal driving.

이를 위해 본 실시 예는 자율 주행 차량이 트랙을 따라 주행되기 위한 알고리즘을 참가자가 개별적으로 직접 조작하여 상기 자율 주행 차량의 구동을 체험해 보기 위해 상기 자율 주행 차량의 주행에 필요한 데이터를 센서를 통에 입력 받는 제1 단계(ST100)와, 상기 입력된 데이터 중 상기 자율 주행 차량의 주행에 필요한 관심 영역을 설정하는 제2 단계(ST200)와, 상기 설정된 관심 영역에서 상기 자율 주행 차량의 주행에 필요한 차선 데이터를 참가자에게 제공하기 위해 상기 관심 영역에 형성된 차선을 추출하기 위한 경계점을 설정하는 제3 단계(ST300)와, 상기 설정된 경계점에서 직선 데이터만을 추출하는 제4 단계(ST400)와, 상기 추출된 직선 데이터 중 차선 데이터만 검출한 후에 설정된 관심 영역의 XY축에서 그리드 데이터를 검출하는 제5 단계(ST500)와, 상기 그리드 데이터와 함께 상기 검출된 차선 데이터가 상기 참가자에게 제공되고, 상기 참가자는 검출된 차선 데이터 정보를 선택적으로 조정하는 제6 단계(ST600)와, 상기 참가자가 선택한 명령에 따라 상기 자율 주행 차량으로 주행 명령이 전송되고, 상기 자율 주행 차량은 트랙에 표시된 차선을 따라 주행이 이루어지는 제7 단계(ST600)와, 상기 차선을 따라 주행하는 도중 신호등의 색깔을 감지하여 주행 상태를 결정하는 제8 단계(ST700) 및 상기 자율 주행 차량이 주행도중 돌발 상황 또는 장애물이 발견될 경우 주행 상태를 제어하는 제9 단계(ST800)를 포함한다.To this end, in this embodiment, a participant individually directly manipulates an algorithm for driving the autonomous vehicle along a track to experience the driving of the autonomous vehicle, and transmits data necessary for driving the autonomous vehicle through a sensor. A first step (ST100) of receiving an input, a second step (ST200) of setting a region of interest necessary for driving of the autonomous vehicle among the input data, and a lane required for driving of the autonomous vehicle in the set region of interest A third step (ST300) of setting a boundary point for extracting a lane formed in the region of interest to provide data to the participant, a fourth step (ST400) of extracting only straight line data from the set boundary point, and the extracted straight line A fifth step (ST500) of detecting grid data in the XY axis of a set region of interest after detecting only lane data among data, and the detected lane data along with the grid data are provided to the participant, and the participant is detected. A sixth step of selectively adjusting lane data information (ST600), a driving command is transmitted to the autonomous vehicle according to the command selected by the participant, and the autonomous driving vehicle is driven along a lane displayed on the track. Step (ST600), an eighth step (ST700) of determining a driving state by detecting the color of a traffic light while driving along the lane, and controlling a driving state when an unexpected situation or an obstacle is found while the autonomous vehicle is driving. And a ninth step (ST800).

상기 제1 단계(ST100)는 상기 자율 주행 차량의 전방 영역에 대한 영상 정보 데이터와, 상기 자율 주행 차량의 전방 영역에 대한 거리 정보 데이터를 포함한다.The first step ST100 includes image information data on a front area of the autonomous vehicle and distance information data on a front area of the autonomous vehicle.

상기 영상 정보 데이터는 자율 주행 차량(1)의 전방에 해당되는 관심 영역(S)에 대한 영상 정보를 이용하여 차선 인식에 필요한 데이터를 획득한다.The image information data acquires data necessary for lane recognition by using image information on an ROI S corresponding to the front of the autonomous vehicle 1.

일 예로 영상 모듈부는 관심 영역(S)을 촬영하고 제어부(500)로 영상 정보 데이터를 전송한다.For example, the image module unit photographs the region of interest S and transmits image information data to the control unit 500.

참가자는 영상 정보 데이터로 입력된 차선 데이터에서 차선 이외의 영역에 대한 감도 차이를 조정한다(ST110).The participant adjusts the difference in sensitivity for areas other than the lane in the lane data input as image information data (ST110).

도로와 차선의 경계를 정확하게 감지하기 위해서는 감도 차이를 조정하여 차선으로 표시된 검은색과, 트랙을 나타내는 흰색의 픽셀에 따른 감도 차이를 조정한다.In order to accurately detect the boundary between a road and a lane, the difference in sensitivity is adjusted to adjust the difference in sensitivity according to the black displayed as the lane and the white pixel representing the track.

상기 차선과 차선 이외의 영역에 대한 감도 차이를 조정하는 이유는 도로와 차선의 경계를 정확하게 감지하기 하기 위해서이며, 도로에 이물질 또는 특정 구조물이 차선에 해당되는지 트랙의 다른 부분에 해당되는지 구분하여 자율 주행 차량이 차선을 따라 안정적으로 이동되도록 알고리즘을 참가자가 조정할 수 있다.The reason for adjusting the difference in sensitivity between the above lanes and areas other than the lanes is to accurately detect the boundary between the road and the lane, and differentiates whether a foreign substance or a specific structure on the road corresponds to a lane or another part of the track. The algorithm can be adjusted by the participant to ensure that the driving vehicle stably moves along the lane.

차선(2)은 일 예로 검은색 라인으로 트랙(30)에 표시되고, 상기 트랙(30)은 흰색으로 표시되는데, 빛의 경우 빨강과 초록과 파랑의 3원색을 모두 혼합할 경우 밝아지는 특성을 갖고 있으며 3원색의 혼합은 흰색으로 표시된다.The lane 2 is displayed on the track 30 as an example with a black line, and the track 30 is displayed in white. In the case of light, when all three primary colors of red, green, and blue are mixed, the characteristic is brightened. And the mixture of the three primary colors is displayed in white.

상기 흰색은 영상 모듈부로 감지할 경우 검은색으로 표시된 차선(2)에 비해 상대적으로 픽셀이 높아 상기 차선의 픽셀과 감도가 서로 다르게 감지된다.When the white color is detected by the image module unit, the pixel is relatively high compared to the lane 2 displayed in black, so that the pixel and the sensitivity of the lane are different from each other.

본 실시 예는 이러한 특성을 이용하여 차선(2)으로 표시된 검은색과 트랙(30)으로 표시된 흰색의 픽셀 차이를 감지하여 차선과 차선이 아닌 경계면을 우선 감지한다.The present embodiment detects a difference in pixels between the black indicated by the lane 2 and the white indicated by the track 30 by using this characteristic, and detects the boundary between the lane and the lane.

또한 제어부는 영상 모듈부의 렌즈를 경유하면서 발생되는 렌즈 왜곡(lens distortion)을 계산한 후에 왜곡을 보정하는 왜곡 보정 (ST120)을 통해 이미지 데이터와 실제 트랙과 서로 간에 매칭할 때 정확하게 매칭이 가능해 진다.In addition, the control unit calculates lens distortion generated while passing through the lens of the image module unit, and then performs a distortion correction (ST120) that corrects the distortion to enable accurate matching when the image data and the actual track are matched with each other.

예를 들면 렌즈 왜곡에 의해 이미지 데이터의 차선과 실제 트랙의 차선이 서로 다르게 나타날 수 있고, 이는 후술할 그리드 데이터의 센터 보다 가장 자리로 갈수록 왜곡이 증가되므로 정확한 차선 데이터를 획득하기 위해 보정을 실시한다.For example, due to lens distortion, the lanes of the image data and the lanes of the actual track may appear different from each other, and since distortion increases toward the edge of the grid data to be described later, correction is performed to obtain accurate lane data. .

일 예로 영상 왜곡을 제거한 뒤에 관심영역을 설정하기 위해 V4를 기준으로(도 8 참조) 전체 영역에 대한 왜곡을 제거한 후에 관심영역을 설정하고, 이를 사용자에게 제공하게 된다.For example, in order to set the region of interest after removing image distortion, the region of interest is set after removing the distortion of the entire region based on V4 (see FIG. 8), and the region of interest is provided to the user.

즉 영상 모듈부(300)에 구비된 렌즈에서 발생되는 렌즈 왜곡을 보정하기 위해 그리드 데이터의 센터 위치(V4위치와 H2가 교차되는 위치)를 기준으로 전체 영역에 대해 왜곡을 제거하여 정확한 영상 정보 데이터를 참가자에게 제공한다.That is, in order to correct lens distortion generated by the lens provided in the image module unit 300, accurate image information data by removing distortion for the entire area based on the center position of the grid data (position where V4 and H2 intersect). To the participant.

렌즈 왜곡이 발생되는 이유는 영상 모듈부에 구비된 렌즈의 자체적인 특성에 기인한다. 상기 렌즈 왜곡에 대한 보정은 센터를 중심으로 방사형태로 왜곡이 제거되며 이와 같이 왜곡에 대한 보정이 이루어질 경우 가장 자리 부분이 휘어지지 않고 평면 상태로 펴진 이미지 데이터가 획득된다.The reason why lens distortion occurs is due to the inherent characteristics of the lens provided in the image module unit. In the correction of the lens distortion, the distortion is removed in a radial form centered on the center. When the distortion is corrected in this way, image data that is flattened without bending the edge portion is obtained.

그리고 관심 영역(S)이 설정되는데, 상기 관심 영역(S)은 이미 전술 하였으므로 상세한 설명은 생략한다. In addition, the region of interest S is set. Since the region of interest S has already been described above, a detailed description thereof will be omitted.

첨부된 도 10 내지 도 12를 참조하면, 제3 단계(ST300)는 차선과 노이즈에 해당되는 경계점을 찾아 차선 추출에 필요한 정확한 차선 데이터만 추출할 수 있다.Referring to FIGS. 10 to 12, in the third step ST300, only accurate lane data required for lane extraction may be extracted by finding a boundary point corresponding to a lane and noise.

정확한 차선을 추출 하기에 앞서 차선은 직선으로 연장되며 차선과 이웃한 경계 영역이 존재한다.Prior to extracting the correct lane, the lane extends in a straight line and there is a boundary area adjacent to the lane.

상기 경계 영역은 정확한 차선 데이터를 추출 하기 위해 상기 차선과 차선이 아닌 경계점이 존재하게 되고, 상기 차선에 대한 추출에 앞서 상기 경계점을 먼저 제거할 경우 차선에 대한 추출이 유리해지고, 정확성도 동시에 향상된다.In the boundary area, boundary points other than the lanes and lanes exist in order to extract accurate lane data, and when the boundary points are first removed prior to extraction of the lanes, extraction of the lanes is advantageous and accuracy is improved at the same time. .

특히 노이즈에 해당되는 부분에 대해 컬러를 변경하거나, 이미지를 흐리게 함으로써 차선과 상관 없는 불필요한 노이즈를 사전에 제거할 수 있다. In particular, unnecessary noise irrelevant to the lane can be removed in advance by changing the color of the part corresponding to the noise or blurring the image.

이를 위해 본 실시 예는 영상 정보 데이터를 통해 입력된 컬러 영상 데이터를 그레이 컬러(gray color) 영상 데이터로 변경(ST310)한다.To this end, in the present embodiment, color image data input through image information data is changed to gray color image data (ST310).

본 실시 예는 보다 정확하게 차선만을 검출하기 위해서 그레이 컬러로 영상 데이터를 변경하여 에지 검출(edge detection)을 실시하여 이미지 향상(image enhancement)과 같은 이미지 처리(image processing)를 보다 용이하게 실시할 수 있다. 참가자는 변경에 따른 감도를 입력부를 통해 증가 또는 감소시켜 최적의 상태로 조정해 볼 수 있다.According to the present embodiment, image processing such as image enhancement may be performed more easily by performing edge detection by changing image data to gray color in order to more accurately detect only lanes. . Participants can adjust the sensitivity to the optimum state by increasing or decreasing the sensitivity according to the change through the input unit.

그리고 그레이 컬러(gray color) 영상 데이터 중 연속적으로 연장된 차선에 해당되는 차선 데이터만을 추출하기 위해 상기 그레이 컬러(gray color) 영상 데이터에서 상기 차선에 해당되지 않는 노이즈를 제거하기 위한 블러링(blurring)을 통해 제1 노이즈 필터링(ST320)을 실시한다.And blurring to remove noise not corresponding to the lane from the gray color image data in order to extract only lane data corresponding to the continuously extended lane among gray color image data. Through the first noise filtering (ST320) is performed.

상기 제1 노이즈 필터링(ST320)은 영상 데이터에서 획득된 이미지 중 차선이 아닌데 차선처럼 보이는 노이즈를 필터링 하기 위해서 이미지 전체를 흐리게 하여 불필요한 노이즈를 제거한다. The first noise filtering (ST320) removes unnecessary noise by blurring the entire image in order to filter noise that looks like a lane although it is not a lane among images obtained from image data.

이 경우 차선은 자유 주행 차량(1)의 전방에서 연속성이 있게 추출되나, 차선이 아닌 노이즈의 경우에는 비연속성인 특성이 유지되므로 차선과 차선이 아닌 경계점에 대한 구분이 명확해 지고 이러한 차이점을 통해 차선 추출을 위한 경계점을 참가자가 수치적으로 조절하여 이를 정확하게 찾을 수 있다.In this case, the lane is continuously extracted from the front of the free-running vehicle 1, but in the case of noise other than the lane, the non-continuous characteristic is maintained. The participant numerically adjusts the boundary points for lane extraction so that they can accurately find them.

이 경우 차선 추출에 대한 감도와 결과값이 약간씩 상이하게 나타나며 이를 통해 참가자 마다 직접 입력값을 변경 또는 수정해 볼 수 있다.In this case, the sensitivity and result values for lane extraction are slightly different, and through this, each participant can directly change or modify the input value.

첨부된 도 11 내지 도 12를 참조하면, 차선이 추출된 이후에는 차선과 노이즈에 해당되는 경계점이 명확해 졌으므로 차선에 해당되는 직선 데이터를 추출하기 위한 호프 변환이 이루어진다(ST400).Referring to FIGS. 11 to 12, since the boundary points corresponding to the lane and noise become clear after the lane is extracted, hop transformation for extracting straight line data corresponding to the lane is performed (ST400).

상기 호프 변환(ST400)은 경계점에서 차선에 해당되는 직선 데이터를 추출하기 위한 파라미터를 설정하고(ST410), 상기 설정된 파라미터에 의해 최종 차선 데이터가 추출(ST420)된다.The hop transform (ST400) sets a parameter for extracting straight line data corresponding to the lane at the boundary point (ST410), and the final lane data is extracted (ST420) by the set parameter.

상기 호프 변환은 일정 길이 이상 길이가 유지 되는 경우를 직선으로 검출하기 위한 파라미터와 일정 개수 이상의 점이 포함되는 경우를 직선으로 검출하기 위한 파라미터를 입력할 수 있는데, 본 발명에서는 차선인식을 위한 최적의 파라미터를 미리 입력하여 사용자의 편의를 도모하였다.In the hop transformation, a parameter for detecting a case where a length of a certain length or more is maintained as a straight line and a parameter for detecting a case in which a certain number or more points are included as a straight line may be input. In the present invention, the optimal parameter for lane recognition The user's convenience was sought by inputting in advance.

사용자는 차선의 경계점이 인식될 수 있도록 Canny Edge Detector의 Min threshold 파라미터와 Max threshold 값을 임의의 값으로 설정하는데, 도 8에 도시된 흰색 선이 Canny Edge Detector에서 추출된 차선의 경계점이고, 차선위에 그려진 빨간 선이 호프 변환을 통해 얻어진 직선에 해당된다.The user sets the Min threshold parameter and Max threshold value of the Canny Edge Detector to arbitrary values so that the boundary points of the lanes can be recognized.The white line shown in FIG. 8 is the boundary point of the lane extracted from the Canny Edge Detector, and above the lane. The drawn red line corresponds to the straight line obtained through the hop transformation.

경계점 추출은 색의 변화가 있는 경계면을(예를 들면 흰색에서 검정색으로 변하는 경계면) 흰색으로, 변화가 없는 부분은 검정색으로 표현하여 표시하고, 이와 같이 출력된 결과값에서 호프변환을 통해 시종점의 좌표값을 갖는 직선이 추출된다.Boundary point extraction is performed by expressing the boundary surface with color change (e.g., the boundary surface changing from white to black) in white and the non-changing part in black. A straight line with coordinate values is extracted.

이와 같이 실시할 경우 차선의 폭으로 인해 한 차선에 대해 두개의 경계면(흰색)이 추출되고, 호프변환이 이루어지면 한 차선을 두개의 직선으로 인식하게 되는데, 주행중에 차선을 밟지 않기 위해서 제2 노이즈 필터링(S330)이 실시된다.In this case, two boundary surfaces (white) are extracted for one lane due to the width of the lane, and when the hop transformation is performed, one lane is recognized as two straight lines. In order not to step on the lane while driving, the second noise Filtering (S330) is performed.

상기 제2 노이즈 필터링(ST330)은 차량과 가까운 쪽의 경계면을 알면 되기 때문에 추출된 모든 차선 후보 직선들로부터 왼쪽 차선, 오른쪽 차선으로 인식할 직선이 선택된다.Since the second noise filtering (ST330) needs to know the boundary surface near the vehicle, a straight line to be recognized as a left lane and a right lane is selected from all extracted candidate lane lines.

참고로 Canny Edge Detector에서 색의 변화에 따라 경계점을 설정하며, 이미지의 강도(intensity)가 급격하게 변하는 부분을 Edge(경계)라고 정의한다. For reference, the boundary point is set according to the color change in the Canny Edge Detector, and the part where the intensity of the image changes rapidly is defined as the edge.

상기 경계는 미분값을 통해 위치가 결정되고, maximum과, minimum의 두 군데를 찾을 수 있다.The position of the boundary is determined through a differential value, and two locations, maximum and minimum, can be found.

사용자가 변경할 수 있는 Canny Edge Detector의 파라미터는 상기 maximum과 minimum의 값을 변경시켜 경계를 찾을 수 있다.The parameters of the Canny Edge Detector that can be changed by the user can find the boundary by changing the maximum and minimum values.

일 예로 차선이 야간과 같이 어두운 환경일 경우 흰색도 회색, 또는 검정에 가까운 값을 갖게 되는데 이때 검정색 바닥면과 차선을 구분하기 위해서는 maximum과 minimum 값을 기 입력한 값보다 큰 값을 입력하면 된다.For example, when the lane is in a dark environment such as at night, white is also gray or has a value close to black. In this case, in order to distinguish between the black floor and the lane, the maximum and minimum values can be entered larger than the previously entered values.

따라서 사용자가 현재 자율주행 차량의 주행 환경에 따라 다양하게 Min threshold와, Max threshold 값을 조절하여 입력해 보고 자율 주행 차량의 주행 상태를 확인한 후에 최적의 주행을 도출해볼 수 있다.Therefore, the user can variously adjust and input the Min threshold and Max threshold values according to the driving environment of the current autonomous vehicle, check the driving state of the autonomous vehicle, and then derive the optimal driving.

호프 변환은 관심 영역에 대한 방향과 각도를 특정 각도로 설정할 수 있으며 참가자가 다양하게 입력값을 변경시켜 차선 추출을 위한 조정을 직접 실시할 수 있다.In the HOPE transformation, the direction and angle for the region of interest can be set to a specific angle, and the participant can change input values in various ways to make adjustments for lane extraction.

상기 관심 영역에 대한 방향과 각도는 파이/180도의 범위로 검색이 이루어진다.The direction and angle for the region of interest are searched in the range of pi/180 degrees.

상기 제5 단계(ST500)는 영상좌표계상에 위치한 직선 데이터를 추출한다.The fifth step (ST500) extracts linear data located on the image coordinate system.

예를 들면 좌측 상단을 원점으로 하여 오른쪽 방향을 x축의 양의 방향으로 하고 아래쪽을 y축의 양의 방향으로 하는 영상 좌표계에서 추출된 직선 데이터로부터 주행에 필요한 전방 차선, 좌측 차선, 우측 차선 데이터만을 선별하여 데이터를 제공(ST510)한다.For example, from the straight line data extracted from the image coordinate system with the upper left as the origin, the right direction as the positive x-axis, and the downwards as the positive y-axis, only data on the front lane, left lane, and right lane required for driving are selected. Thus, data is provided (ST510).

영상 좌표계에서 곡선은 멀리서 볼 때 좌측 또는 우측 방향으로 휘어진 것처럼 보이나, 상기 곡선을 확대하여 특정 길이로 분할할 경우 직선에 해당되므로 좌측 또는 우측 차선에 해당되는지 정확하게 판단할 수 있다.In the image coordinate system, the curve appears to be curved in the left or right direction when viewed from a distance, but when the curve is enlarged and divided into a specific length, it corresponds to a straight line, so it can be accurately determined whether it corresponds to the left or right lane.

전술한 도 8에 도시된 그리드 데이터는 상기 전방 영역에 해당되는 이미지 데이터를 X축과 Y축으로 각각 n등분한 그리드 데이터에 해당된다. 일 예로 본 실시 예에서는 도 8에 도시된 바와 같이 전방 영역의 X축을 8등분하고, Y축을 4등분 하였으며, X축은 모두 8등분 하였으므로 도면 기준으로 V4 위치가 정 중앙에 해당되고, 상기 V4를 기준으로 좌측과 우측 영역으로 구분된다. The above-described grid data shown in FIG. 8 corresponds to grid data obtained by dividing image data corresponding to the front area into n equal parts on the X-axis and Y-axis. For example, in this embodiment, as shown in FIG. 8, the X-axis of the front region is divided into eight, the Y-axis is divided into four, and all of the X-axis are divided into eight, so the position V4 corresponds to the center of the drawing, and the V4 is the reference. It is divided into left and right areas.

영상 데이터는 영상 모듈부(300)를 통해 입력될 때 바디부(100)의 전방을 기준을 설정되므로 H3는 바디부의 전방인 트랙(30)의 바닥에 해당되고, H2와 H1으로 갈수록 바디부(100)의 전방 상측 영역에 해당된다.When the image data is input through the image module unit 300, the front of the body unit 100 is set as a reference, so H3 corresponds to the bottom of the track 30, which is in front of the body unit, and as the image data goes to H2 and H1, the body unit ( It corresponds to the front upper area of 100).

일 예로 흰색으로 표시된 선은 차선에 해당되고, 빨간색으로 표시된 선은 자율 주행 차량(1)의 진행 방향을 기준으로 차선의 안쪽에 해당되며, 좌측 차선과 가로선(H1 내지 H3)이 만나는 교차점이 파란 점에 해당되고, 우측 차선과 가로선이 만나는 교차점이 빨간 점에 해당된다.For example, a line marked in white corresponds to a lane, a line marked in red corresponds to the inside of the lane based on the driving direction of the autonomous vehicle 1, and the intersection point where the left lane and horizontal lines (H1 to H3) meet is blue. It corresponds to a point, and the intersection of the right lane and the horizontal line corresponds to the red dot.

상기 파란 점과 빨간 점을 자율 주행 차량(1)의 진행 방향으로 서로 간에 연결할 경우 정 중앙 위치인 V4를 기준으로 안정적으로 주행 가능한 차선 데이터를 갖는 그리드 데이터가 생성된다(ST200).When the blue dot and the red dot are connected to each other in the traveling direction of the autonomous vehicle 1, grid data having lane data capable of stably driving is generated based on the center position V4 (ST200).

또한 직선 구간과 연결된 곡선 구간은 최대한 직선화 시켜 전술한 차선 데이터의 추출과 변환을 통해 최종적으로 곡선 구간에 해당되는 차선 데이터를 추출하여 인식할 수 있다.In addition, the curved section connected to the straight section may be linearized as much as possible, and the lane data corresponding to the curved section can be finally extracted and recognized through the extraction and transformation of the above-described lane data.

일 예로 영상 모듈부를 통해 입력된 원본 영상은 전술한 바와 같이 트랙(30)은 흰색으로 형성되고, 차선(2)은 검은색으로 표시하였으나, 서로 대비되는 색으로 변경되는 것도 가능할 수 있다.As an example, in the original image input through the image module unit, as described above, the track 30 is formed in white and the lane 2 is displayed in black, but it may be changed to a color contrasting with each other.

영상 모듈부는 영상 데이터를 제어부(500)로 전송하여 관심 영역에 대한 정보를 제공하고, 상기 제어부(500)는 관심 영역을 상측과 하측으로 구분한 후에 하측 영역에 대한 정보를 차선 추출 및 데이터 검출을 위해 활용하고, 상측은 신호등과 같은 구조물을 감지하기 위한 용도로 검출에 활용한다.The image module unit transmits image data to the control unit 500 to provide information on the region of interest, and the control unit 500 divides the region of interest into upper and lower regions, and then extracts information on the lower region and detects data. It is used for detection, and the upper side is used for detecting structures such as traffic lights.

특히 본 실시 예는 관심 영역의 하측 영상 데이터와, 상측 영상 데이터가 모두 제어부(500)로 입력되나, 신속한 영상 데이터 처리를 위해 상측 영상 데이터에서 신호등이 미 검색될 경우 하측 영상 데이터를 우선 처리하여 신속한 영상 데이터 처리를 가능하게 한다.In particular, in this embodiment, both the lower image data and the upper image data of the region of interest are input to the control unit 500, but if a traffic light is not found in the upper image data for rapid image data processing, It enables image data processing.

따라서 차선 추출과 검출이 보다 신속하고 안정적으로 이루어지므로 자율 주행 차량(1)이 차선을 벗어나지 않고 정확하게 이동될 수 있다.Therefore, since lane extraction and detection are performed more quickly and stably, the autonomous vehicle 1 can be accurately moved without leaving the lane.

상기 제6 단계(ST600)는 상기 참가자가 상기 차선 데이터 정보와 함께 상기 트랙의 레이아웃과 상기 자율 주행 차량의 구동 모드를 임의의 입력값으로 조절하되, 복수의 참가자가 각각 서로 다른 입력값으로 조절이 가능하므로 참가자 별로 다양한 입력값을 직접 입력해보고 구현해 볼 수 있어 교육 효과가 향상된다. In the sixth step (ST600), the participant adjusts the layout of the track and the driving mode of the autonomous vehicle together with the lane data information to an arbitrary input value, but the plurality of participants may adjust each to different input values. Because it is possible, it is possible to directly enter and implement various input values for each participant, improving the training effect.

이와 같이 참가자가 선택한 명령에 따라 상기 자율 주행 차량으로 주행 명령이 전송되고, 상기 자율 주행 차량은 트랙에 표시된 차선을 따라 주행이 이루어진다.In this way, a driving command is transmitted to the autonomous vehicle according to a command selected by the participant, and the autonomous vehicle travels along a lane marked on a track.

첨부된 도 13을 참조하면, 제8 단계(ST700)는 차선을 따라 주행하는 도중 신호등(50)을 감지하여 주행 상태를 결정한다. 상기 신호등(50)에 대한 감지는 영상 모듈부를 통해 관심 영역에 위치될 경우 신호등(50)의 위치를 우선 감지한다(ST710).Referring to FIG. 13, the eighth step ST700 determines a driving state by detecting a traffic light 50 while driving along a lane. The detection of the traffic light 50 first detects the position of the traffic light 50 when it is located in the region of interest through the image module unit (ST710).

신호등(50)은 일 예로 빨강색과 노랑색 또는 주황색과 녹색의 순서대로 위치되는데, 영상 모듈부에서 밝기를 판단하여 현재 빨강색과 노랑색과 녹색 중 어느 위치에서 점등이 되었는지 정확하게 판단한다(ST720).The traffic lights 50 are positioned in the order of red and yellow or orange and green, for example, and the image module unit determines brightness to accurately determine at which position of the current red, yellow, and green lights (ST720).

일 예로 제어부(500)는 현재 빨강색이 점등된 것으로 판단될 경우 모터부(200)의 작동이 중지되도록 하여 상기 신호등 이전에 자율 주행 차량(1)이 멈출 수 있도록 제어한다.For example, when it is determined that the red color is currently lit, the control unit 500 controls the operation of the motor unit 200 to be stopped so that the autonomous vehicle 1 can be stopped before the traffic light.

또한 제어부(500)는 신호등(50)의 점등 신호가 입력되지 않을 경우 자율 주행 차량(1)이 무조건 정지되도록 모터부(200)를 제어할 수 있다.In addition, the control unit 500 may control the motor unit 200 so that the autonomous vehicle 1 is unconditionally stopped when the lighting signal of the traffic light 50 is not input.

제9 단계(ST800)는 영상 모듈부에 의해 전송된 영상 데이터에 보행자 또는 장애물이 발견될 경우 거리 감지부(400)를 통해 자율 주행 차량(1)과의 이격된 위치를 판단한다.In the ninth step (ST800), when a pedestrian or an obstacle is found in the image data transmitted by the image module unit, the distance sensing unit 400 determines a position separated from the autonomous vehicle 1.

그리고 상기 보행자 또는 장애물과 충돌 되지 않도록 모터부(200)의 작동 상태를 제어하는데, 일 예로 속도를 감속하거나, 주행 위치를 변경하여 충돌을 회피할 수 있다.In addition, the operation state of the motor unit 200 is controlled so as not to collide with the pedestrian or obstacle. For example, a collision may be avoided by decelerating the speed or changing the driving position.

이상, 본 발명의 일 실시 예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다. As described above, one embodiment of the present invention has been described, but those of ordinary skill in the relevant technical field add, change, delete or add components within the scope not departing from the spirit of the present invention described in the claims. Various modifications and changes can be made to the present invention by means of the like, and it will be said that this is also included within the scope of the present invention.

2 : 차선
30 : 트랙
50 : 신호등
100 : 바디부
200 : 모터부
300 : 영상 모듈부
400 : 거리 감지부
500 : 제어부
600 : 입력부
700 : 각도 조절부
710 : 틸팅 플레이트
720 : 제1 기어
730 : 틸팅모터
800 : 기울기 센서
2: lane
30: track
50: traffic light
100: body
200: motor part
300: image module unit
400: distance detection unit
500: control unit
600: input
700: angle adjustment unit
710: tilting plate
720: first gear
730: tilting motor
800: tilt sensor

Claims (8)

자율 주행 차량(1)의 외형을 이루는 바디부(100);
상기 바디부(100)의 전방 하측에 구비된 제1 모터(210)와, 후방 하측에 구비된 후륜(20)에 구동력을 제공하는 제2 모터(220)를 포함하는 모터부(200);
상기 바디부(100)에 구비되고, 상기 바디부(100)가 차선(2)이 표시된 트랙(30)을 따라 주행할 때 상기 바디부(100)의 전방에 대한 영상 정보를 제공하는 영상 모듈부(300);
상기 바디부(100)가 상기 차선(2)을 따라 이동할 때 전방 장애물의 유무 또는 장애물까지의 거리를 감지하는 거리 감지부(400);
상기 영상 모듈부(300)와 상기 거리 감지부(400)에서 입력된 데이터를 기반으로 관심 영역을 설정하고, 설정된 관심 영역을 X축과 Y축으로 각각 n등분한 그리드 데이터와 차선 데이터를 추출한 후에 이를 참가자에게 제공하는 제어부(500); 및
상기 참가자가 상기 제어부(500)를 통해 제공된 그리드 데이터와 차선 데이터를 이용하여 상기 자율 주행 차량(1)의 구동에 필요한 알고리즘을 직접 입력하기 위한 입력부(600)를 포함하는 자율 주행 차량용 키트 장치.
A body portion 100 constituting the outer shape of the autonomous vehicle 1;
A motor unit 200 including a first motor 210 provided at a lower front side of the body 100 and a second motor 220 providing driving force to a rear wheel 20 provided at a lower rear side;
An image module unit provided in the body unit 100 and providing image information on the front of the body unit 100 when the body unit 100 travels along the track 30 marked with the lane 2 (300);
A distance sensing unit 400 for sensing the presence or absence of a front obstacle or a distance to the obstacle when the body unit 100 moves along the lane 2;
After setting the region of interest based on data input from the image module unit 300 and the distance sensing unit 400, and extracting grid data and lane data obtained by dividing the set region of interest into n equal parts on the X and Y axes, The control unit 500 for providing this to the participant; And
Kit apparatus for an autonomous vehicle comprising an input unit 600 for the participant to directly input an algorithm required for driving the autonomous vehicle 1 by using grid data and lane data provided through the control unit 500.
제1 항에 있어서,
상기 바디부(100)의 전방에 설치되고, 상기 전방 트랙(30)의 기울기에 따라 상기 영상 모듈부(300)와 상기 거리 감지부(400)의 각도를 조절하기 위한 각도 조절부(700)가 구비된 자율 주행 차량용 키트 장치.
The method of claim 1,
An angle adjusting part 700 installed in front of the body part 100 and configured to adjust an angle between the image module part 300 and the distance sensing part 400 according to the inclination of the front track 30 Kit equipment for self-driving vehicles equipped.
자율 주행 차량이 트랙을 따라 주행되기 위한 알고리즘을 참가자가 개별적으로 직접 조작하여 상기 자율 주행 차량의 구동을 체험해 보기 위해 상기 자율 주행 차량의 주행에 필요한 데이터를 센서를 통에 입력받는 제1 단계(ST100);
상기 입력된 데이터 중 상기 자율 주행 차량의 주행에 필요한 관심 영역을 설정하는 제2 단계(ST200);
상기 설정된 관심 영역에서 상기 자율 주행 차량의 주행에 필요한 차선 데이터를 참가자에게 제공하기 위해 상기 관심 영역에 형성된 차선을 추출하기 위한 경계점을 설정하는 제3 단계(ST300);
상기 설정된 경계점에서 직선 데이터만을 추출하는 제4 단계(ST400);
상기 추출된 직선 데이터 중 차선 데이터만 검출한 후에 설정된 관심 영역의 XY축에서 그리드 데이터를 검출하는 제5 단계(ST500)
상기 그리드 데이터와 함께 상기 검출된 차선 데이터가 상기 참가자에게 제공되고, 상기 참가자는 검출된 차선 데이터 정보를 선택적으로 조정하는 제6 단계(ST600);
상기 참가자가 선택한 명령에 따라 상기 자율 주행 차량으로 주행 명령이 전송되고, 상기 자율 주행 차량은 트랙에 표시된 차선을 따라 주행이 이루어지는 제7 단계(ST600);
상기 차선을 따라 주행하는 도중 신호등을 감지하여 주행 상태를 결정하는 제8 단계(ST700); 및
상기 자율 주행 차량이 주행도중 돌발 상황 또는 장애물이 발견될 경우 주행 상태를 제어하는 제9 단계(ST800)를 포함하는 자율 주행 차량용 키트 장치의 제어 방법.
The first step of receiving data necessary for driving of the autonomous vehicle through a sensor in order to experience the driving of the autonomous vehicle by individually directly manipulating the algorithm for the autonomous vehicle to travel along the track ( ST100);
A second step (ST200) of setting an ROI required for driving of the autonomous vehicle among the input data;
A third step (ST300) of setting a boundary point for extracting a lane formed in the region of interest to provide the participant with lane data necessary for driving of the autonomous vehicle in the set region of interest;
A fourth step (ST400) of extracting only straight line data from the set boundary point;
A fifth step (ST500) of detecting grid data in the XY axis of a set region of interest after detecting only lane data among the extracted straight line data (ST500)
A sixth step (ST600) of providing the detected lane data along with the grid data to the participant, and selectively adjusting the detected lane data information by the participant;
A seventh step (ST600) in which a driving command is transmitted to the autonomous vehicle according to the command selected by the participant, and the autonomous vehicle is driven along a lane marked on a track;
An eighth step (ST700) of determining a driving state by detecting a traffic light while driving along the lane; And
A control method of a kit apparatus for an autonomous vehicle comprising a ninth step (ST800) of controlling a driving state when an unexpected situation or an obstacle is found in the autonomous vehicle while driving.
제3 항에 있어서,
상기 제1 단계(ST100)는 상기 자율 주행 차량의 전방 영역에 대한 영상 정보 데이터와, 상기 자율 주행 차량의 전방 영역에 대한 거리 정보 데이터를 포함하고,
상기 제1 단계(ST100)는 차선과 차선 이외의 영역에 대한 감도 차이를 조정하는 감도 조정 단계(ST110);
상기 센서 중 영상 정보를 제공하는 영상 모듈부의 렌즈를 경유하면서 발생되는 렌즈 왜곡(lens distortion)을 계산한 후에 왜곡을 보정하는 왜곡 보정 단계(ST120)를 더 포함하는 자율 주행 차량용 키트 장치의 제어 방법.
The method of claim 3,
The first step (ST100) includes image information data on a front area of the autonomous vehicle and distance information data on a front area of the autonomous vehicle,
The first step (ST100) includes a sensitivity adjustment step (ST110) of adjusting a difference in sensitivity between a lane and an area other than the lane;
A method of controlling an autonomous vehicle kit apparatus further comprising a distortion correction step (ST120) of correcting the distortion after calculating lens distortion generated while passing through a lens of an image module unit providing image information among the sensors.
제4 항에 있어서,
상기 제3 단계(ST300)는 상기 영상 정보 데이터를 통해 입력된 컬러 영상 데이터를 그레이 컬러(gray color) 영상 데이터로 변경하는 단계(ST310);
상기 그레이 컬러(gray color) 영상 데이터 중 연속적으로 연장된 차선에 해당되는 차선 데이터만을 추출하기 위해 상기 그레이 컬러(gray color) 영상 데이터에서 상기 차선에 해당되지 않는 노이즈를 제거하기 위해 블러링(blurring)을 통해 노이즈 필터링을 실시하는 제1 노이즈 필터링 단계(ST320)를 포함하는 자율 주행 차량용 키트 장치의 제어 방법.
The method of claim 4,
The third step (ST300) includes changing color image data input through the image information data into gray color image data (ST310);
Blurring to remove noise that does not correspond to the lane from the gray color image data to extract only lane data corresponding to a continuously extended lane among the gray color image data Control method of a kit device for an autonomous vehicle comprising a first noise filtering step (ST320) performing noise filtering through.
제3 항에 있어서,
상기 제4 단계(ST400)는 호프 변환을 통해 경계점에서 차선에 해당되는 직선 데이터를 추출하기 위한 파라미터를 설정하는 단계(ST410);
상기 설정된 파라미터에 의해 최종 차선 데이터만을 추출하는 단계(ST420)를 포함하는 자율 주행 차량용 키트 장치의 제어 방법.
The method of claim 3,
The fourth step (ST400) includes setting a parameter for extracting straight line data corresponding to a lane from a boundary point through a hop transformation (ST410);
A method of controlling a kit for an autonomous vehicle comprising the step of extracting only the final lane data based on the set parameter (ST420).
제3 항에 있어서,
상기 제5 단계(ST500)는 좌측 상단을 원점으로 하여 오른쪽 방향을 x축의 양의 방향으로 하고 아래쪽을 y축의 양의 방향으로 하는 영상 좌표계에서 추출된 직선 데이터로부터 주행에 필요한 전방 차선, 좌측 차선, 우측 차선 데이터만을 선별하여 데이터를 제공하는 단계(ST510)를 포함하는 자율 주행 차량용 키트 장치의 제어 방법.
The method of claim 3,
In the fifth step (ST500), a front lane, a left lane required for driving, and a left lane, required for driving, are extracted from the straight line data extracted from the image coordinate system in which the right direction is the positive x-axis direction and the bottom is the positive y-axis direction with the upper left as the origin Control method of a kit for an autonomous vehicle comprising the step of selecting only right lane data and providing data (ST510).
제3 항에 있어서,
상기 제6 단계(ST600)는 상기 참가자가 상기 차선 데이터 정보와 함께 상기 트랙의 레이 아웃과 상기 자율 주행 차량의 구동 모드를 임의의 설정값으로 조절하되,
복수의 참가자가 각각 서로 다른 설정값으로 조절이 이루어지는 것을 특징으로 하는 자율 주행 차량용 키트 장치의 제어 방법.

The method of claim 3,
In the sixth step (ST600), the participant adjusts the layout of the track and the driving mode of the autonomous vehicle to an arbitrary set value together with the lane data information,
A method of controlling a kit for an autonomous vehicle, characterized in that a plurality of participants are each adjusted to different set values.

KR1020190085528A 2019-07-16 2019-07-16 Kit device for automatic truck car and control method KR102217388B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190085528A KR102217388B1 (en) 2019-07-16 2019-07-16 Kit device for automatic truck car and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190085528A KR102217388B1 (en) 2019-07-16 2019-07-16 Kit device for automatic truck car and control method

Publications (2)

Publication Number Publication Date
KR20210009032A true KR20210009032A (en) 2021-01-26
KR102217388B1 KR102217388B1 (en) 2021-02-18

Family

ID=74310075

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190085528A KR102217388B1 (en) 2019-07-16 2019-07-16 Kit device for automatic truck car and control method

Country Status (1)

Country Link
KR (1) KR102217388B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210148467A (en) * 2020-05-28 2021-12-08 금오공과대학교 산학협력단 Mobile bed autonomous traveling system that enables basic diagnosis of patients
CN114355908A (en) * 2021-12-22 2022-04-15 无锡江南智造科技股份有限公司 Navigation optimization method based on feature recognition
CN117876374A (en) * 2024-03-13 2024-04-12 西安航科创星电子科技有限公司 Metal slurry wiring hole filling and monitoring method for HTCC ceramic

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060088383A (en) * 2005-02-01 2006-08-04 한국과학기술원 Educational system for drawing up icon-based robot control program and its method
KR101121777B1 (en) 2010-04-14 2012-06-12 숭실대학교산학협력단 Lane detection method
KR20160125803A (en) * 2015-04-22 2016-11-01 국방과학연구소 Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060088383A (en) * 2005-02-01 2006-08-04 한국과학기술원 Educational system for drawing up icon-based robot control program and its method
KR101121777B1 (en) 2010-04-14 2012-06-12 숭실대학교산학협력단 Lane detection method
KR20160125803A (en) * 2015-04-22 2016-11-01 국방과학연구소 Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210148467A (en) * 2020-05-28 2021-12-08 금오공과대학교 산학협력단 Mobile bed autonomous traveling system that enables basic diagnosis of patients
CN114355908A (en) * 2021-12-22 2022-04-15 无锡江南智造科技股份有限公司 Navigation optimization method based on feature recognition
CN117876374A (en) * 2024-03-13 2024-04-12 西安航科创星电子科技有限公司 Metal slurry wiring hole filling and monitoring method for HTCC ceramic
CN117876374B (en) * 2024-03-13 2024-05-28 西安航科创星电子科技有限公司 Metal slurry wiring hole filling and monitoring method for HTCC ceramic

Also Published As

Publication number Publication date
KR102217388B1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
KR102217388B1 (en) Kit device for automatic truck car and control method
US8170752B2 (en) Parking assistance apparatus, vehicle-side apparatus of parking assistance apparatus, parking assist method, and parking assist program
US10328932B2 (en) Parking assist system with annotated map generation
EP2416558A1 (en) Calibration indicator used for calibration of onboard camera, calibration method of onboard camera using calibration indicator, and program for calibration device of onboard camera using calibration indicator
US9165468B2 (en) Video based intelligent vehicle control system
US9280824B2 (en) Vehicle-surroundings monitoring device
JP4093208B2 (en) Vehicle runway determination device
JP3951465B2 (en) Parking assistance device
EP3436879A1 (en) An autonomous vehicle with improved visual detection ability
JP6459205B2 (en) Vehicle display system
DE102018220325A1 (en) projection device
US20050125121A1 (en) Vehicle driving assisting apparatus
DE102018220296A1 (en) Vehicle control unit and method
US7751958B2 (en) White-line display apparatus for a vehicle
KR20110113185A (en) Method and device for determining an applicable lane marker
JP6512475B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
JP4075026B2 (en) Vehicle obstacle warning device
WO2019105665A1 (en) Parking assist method and apparatus
US20110157184A1 (en) Image data visualization
JP6375816B2 (en) Vehicle peripheral information display system and display device
JP6657034B2 (en) Abnormal image detection device, image processing system provided with abnormal image detection device, and vehicle equipped with image processing system
DE102018220279A1 (en) IMAGING APPARATUS AND METHOD
EP1017036A1 (en) Method and apparatus for detecting deviation of automobile from lane
US20070104352A1 (en) White-line display apparatus for a vehicle
DE102018220282A1 (en) VEHICLE PARK UNIT

Legal Events

Date Code Title Description
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant