KR20210009032A - Kit device for automatic truck car and control method - Google Patents
Kit device for automatic truck car and control method Download PDFInfo
- Publication number
- KR20210009032A KR20210009032A KR1020190085528A KR20190085528A KR20210009032A KR 20210009032 A KR20210009032 A KR 20210009032A KR 1020190085528 A KR1020190085528 A KR 1020190085528A KR 20190085528 A KR20190085528 A KR 20190085528A KR 20210009032 A KR20210009032 A KR 20210009032A
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- data
- autonomous vehicle
- driving
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000035945 sensitivity Effects 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 12
- 238000000605 extraction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005452 bending Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K7/00—Disposition of motor in, or adjacent to, traction wheel
- B60K7/0007—Disposition of motor in, or adjacent to, traction wheel the motor being electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G05D2201/0213—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 복수의 참가자가 자율 주행 차량에 입력되는 알고리즘을 직접적으로 다양하게 입력 및 체험이 가능한 자율 주행 차량용 키트 장치 및 이를 이용한 제어 방법에 관한 것이다.The present invention relates to a kit device for an autonomous vehicle capable of directly and variously inputting and experiencing an algorithm input to an autonomous vehicle by a plurality of participants, and a control method using the same.
일반적으로 자율주행 차량이란 운전자가 없거나 운전자가 있더라도 차량을 직접 조작하지 않고 컴퓨터 등에 의해 주행, 정지, 회전, 가속 또는 감속 등의 운전이 자동으로 이루어지는 지능형 차량을 의미한다. 이러한 지능형 차량의 주요 과제는 주행차선의 유지, 인접차량과의 안전거리 확보와 근접 장애물의 검출과 충돌회피, 교통상황이나 도로 환경에 따른 차량속도 제어 등이 있다.In general, an autonomous vehicle refers to an intelligent vehicle in which driving, stopping, turning, acceleration, or deceleration is automatically performed by a computer or the like without directly manipulating the vehicle even if there is no driver or there is a driver. The main tasks of such an intelligent vehicle are maintenance of a driving lane, securing a safe distance with adjacent vehicles, detection of adjacent obstacles, collision avoidance, and vehicle speed control according to traffic conditions or road conditions.
최근에는 기술의 발전으로 차선이탈 경고 시스템(LDWS : Lane Departure Warning System)이나 차선유지와 같은 안전운전 보조시스템, 차량 자동 제어시스템 등이 개발되어 실용화가 급속하게 진행되고 있다. 특히, 주행차선의 검출은 자율주행 차량에서의 주요 과제를 해결하는 핵심기술 중의 하나로서 국제적인 관심 속에 많은 연구가 활발히 진행되고 있다.In recent years, due to the development of technology, a Lane Departure Warning System (LDWS), a safe driving assistance system such as lane maintenance, and an automatic vehicle control system have been developed, and the practical use is rapidly progressing. In particular, detection of driving lanes is one of the core technologies to solve major problems in autonomous vehicles, and many studies are actively being conducted amid international interest.
즉, 주행차선의 검출은 안전 운전에 지대한 영향을 미치게 되므로, 차선의 위치를 추정하고 판단하기 위해 여러 가지 센서들을 활용하여 정확한 주행차선을 검출하고 있다. 예컨대, 이미지 센서, 레이더(RADAR) 또는 라이다(LIDAR)센서 등 다양한 센서들이 차선의 검출이나 차량 전방의 물체 인식을 위해 단독 또는 융합된 형태로 자율주행 차량제어 시스템 구현에 사용되고 있다.That is, since detection of a driving lane has a great influence on safe driving, accurate driving lanes are detected using various sensors to estimate and determine the position of the lane. For example, various sensors, such as an image sensor, a radar (RADAR), or a lidar (LIDAR) sensor, are used to implement an autonomous vehicle control system in a single or combined form for detection of a lane or object recognition in front of a vehicle.
전술한 자율주행 차량과는 별도로 교육용 또는 학생들에도 코딩 교육을 위한 목적으로 차량의 외형을 이루는 간단한 구조로 이루어진 프레임과, 상기 프레임에 설치된 센서와, 통신을 위한 블루투스 모듈과, 상기 프레임의 전방과 후방에 구비된 바퀴와, 상기 바퀴에 구동력을 제공하는 모터 및 상기 모터의 회전수를 제어하는 제어기를 포함한 자율주행 차량 키트(kit) 형태의 제품이 학생 및 일반인을 대상으로 시판되고 있다.Apart from the above-described autonomous vehicle, a frame consisting of a simple structure that forms the exterior of the vehicle for the purpose of education or coding education for students, a sensor installed in the frame, a Bluetooth module for communication, and front and rear of the frame A product in the form of an autonomous vehicle kit including a wheel provided in the wheel, a motor that provides driving force to the wheel, and a controller that controls the number of rotations of the motor is being marketed to students and the general public.
상기 자율 주행 차량 키트는 오픈 소스로 제공된 로직을 복수의 체험자가 주행 환경에 따라 다양하게 조작해보거나 변경 하지 않고 단순히 기 입력된 주행 명령을 단순히 반복 체험하는 체험형 타입으로 사용되고 있다.The autonomous vehicle kit is used as an experiential type in which a plurality of experienced users variously manipulate or change the logic provided as an open source according to a driving environment, and simply repeatedly experience a previously input driving command.
이 경우 사용자의 다양한 아이디어 또는 주행 패턴을 시도해 볼 수 있는 기반이 없어서 코딩 교육의 목적이 무의미 해지는 문제점이 발생되었다.In this case, the purpose of coding education became meaningless because there was no basis for trying various ideas or driving patterns of users.
예를 들면 기존의 자율주행 차량 키트는 기 설정된 도로 라인을 따라 단순히 벗어나지 않고 출발 위치에서 종료 위치까지만 주행해보는 정도의 목적으로 사용됨으로써, 사용자가 직접 자율주행 차량의 이동에 따른 알고리즘을 조작 및 변화시켜 주행 결과를 확인하고, 반영하기 어려운 문제점이 유발되어 이에 대한 대책이 필요하게 되었다.For example, the existing autonomous vehicle kit is used for the purpose of driving only from the start position to the end position without simply deviating along a preset road line, so that the user can directly manipulate and change the algorithm according to the movement of the autonomous vehicle. A problem that is difficult to check and reflect the driving result has been caused, so a countermeasure is needed.
본 발명의 실시 예들은 개별 참가자가 자율 주행 차량용 키트 장치의 작동을 위한 주행 알고리즘을 서로 다르게 조작해보고, 결과에 따라 수정 및 변경이 용이한 자율주행 차량용 키트 장치 및 이의 제어방법을 제공하고자 한다.Embodiments of the present invention are intended to provide a kit device for an autonomous vehicle, and a method for controlling the same, in which an individual participant operates a driving algorithm for operating a kit device for an autonomous vehicle differently, and is easy to modify and change according to a result.
본 발명의 일 실시 예에 의한 자율 주행 차량용 키트 장치는 자율 주행 차량(1)의 외형을 이루는 바디부(100); 상기 바디부(100)의 전방 하측에 구비된 전륜(10)에 구동력을 제공하는 제1 모터(210)와, 후방 하측에 구비된 후륜(20)에 구동력을 제공하는 제2 모터(220)를 포함하는 모터부(200); 상기 바디부(100)에 구비되고, 상기 바디부(100)가 차선(2)이 표시된 트랙(30)을 따라 주행할 때 상기 바디부(100)의 전방에 대한 영상 정보를 제공하는 영상 모듈부(300); 상기 바디부(100)가 상기 차선(2)을 따라 이동할 때 전방 장애물 유무 및 장애물까지의 거리를 감지하는 거리 감지부(400); 상기 영상 모듈부(300)와 상기 거리 감지부(400)에서 입력된 데이터를 기반으로 관심 영역을 설정하고, 설정된 관심 영역을 X축과 Y축으로 각각 n등분한 그리드 데이터와 차선 데이터를 추출한 후에 이를 참가자에게 제공하는 제어부(500); 및 상기 참가자가 상기 제어부(500)를 통해 제공된 그리드 데이터와 차선 데이터를 이용하여 상기 자율 주행 차량(1)의 구동에 필요한 알고리즘을 직접 입력하기 위한 입력부(600)를 포함한다.A kit device for an autonomous vehicle according to an embodiment of the present invention includes a
상기 바디부(100)의 전방에 설치되고, 상기 전방 트랙(30)의 기울기에 따라 상기 영상 모듈부(300)와 상기 거리 감지부(400)의 각도를 조절하기 위한 각도 조절부(700)가 구비된다.An
본 발명의 일 실시 예에 의한 자율 주행 차량용 키트 장치의 제어 방법은 자율 주행 차량이 트랙을 따라 주행되기 위한 알고리즘을 참가자가 개별적으로 직접 조작하여 상기 자율 주행 차량의 구동을 체험해 보기 위해 상기 자율 주행 차량의 주행에 필요한 데이터를 센서를 통에 입력 받는 제1 단계(ST100); 상기 입력된 데이터 중 상기 자율 주행 차량의 주행에 필요한 관심 영역을 설정하는 제2 단계(ST200); 상기 설정된 관심 영역에서 상기 자율 주행 차량의 주행에 필요한 차선 데이터를 참가자에게 제공하기 위해 상기 관심 영역에 형성된 차선을 추출하기 위한 경계점을 설정하는 제3 단계(ST300); 상기 설정된 경계점에서 직선 데이터만을 추출하는 제4 단계(ST400); 상기 추출된 직선 데이터 중 차선 데이터만 검출한 후에 설정된 관심 영역의 XY축에서 그리드 데이터를 검출하는 제5 단계(ST500); 상기 그리드 데이터와 함께 상기 검출된 차선 데이터가 상기 참가자에게 제공되고, 상기 참가자는 검출된 차선 데이터 정보를 선택적으로 조정하는 제6 단계(ST600); 상기 참가자가 선택한 명령에 따라 상기 자율 주행 차량으로 주행 명령이 전송되고, 상기 자율 주행 차량은 트랙에 표시된 차선을 따라 주행이 이루어지는 제7 단계(ST600); 상기 차선을 따라 주행하는 도중 신호등을 감지하여 주행 상태를 결정하는 제8 단계(ST700); 및 상기 자율 주행 차량이 주행도중 돌발 상황 또는 장애물이 발견될 경우 주행 상태를 제어하는 제9 단계(ST800)를 포함한다.In the control method of the kit device for an autonomous vehicle according to an embodiment of the present invention, a participant individually directly manipulates an algorithm for driving the autonomous vehicle along a track to experience the driving of the autonomous vehicle. A first step (ST100) of receiving data required for driving of the vehicle through a sensor; A second step (ST200) of setting an ROI required for driving of the autonomous vehicle among the input data; A third step (ST300) of setting a boundary point for extracting a lane formed in the region of interest to provide the participant with lane data necessary for driving of the autonomous vehicle in the set region of interest; A fourth step (ST400) of extracting only straight line data from the set boundary point; A fifth step (ST500) of detecting grid data in an XY axis of a set region of interest after detecting only lane data among the extracted straight line data; A sixth step (ST600) of providing the detected lane data along with the grid data to the participant, and selectively adjusting the detected lane data information by the participant; A seventh step (ST600) in which a driving command is transmitted to the autonomous vehicle according to the command selected by the participant, and the autonomous vehicle is driven along a lane marked on a track; An eighth step (ST700) of determining a driving state by detecting a traffic light while driving along the lane; And a ninth step (ST800) of controlling a driving state when an unexpected situation or an obstacle is found in the autonomous vehicle while driving.
상기 제1 단계(ST100)는 상기 자율 주행 차량의 전방 영역에 대한 영상 정보 데이터와, 상기 자율 주행 차량의 전방 영역에 대한 거리 정보 데이터를 포함하고, 상기 제1 단계(ST100)는 차선과 차선 이외의 영역에 대한 감도 차이를 조정하는 감도 조정 단계(ST110); 상기 센서 중 영상 정보를 제공하는 영상 모듈부의 렌즈를 경유하면서 발생되는 렌즈 왜곡(lens distortion)을 계산한 후에 왜곡을 보정하는 왜곡 보정 단계(ST120)를 더 포함한다.The first step (ST100) includes image information data on the front area of the autonomous vehicle and distance information data on the front area of the autonomous vehicle, and the first step (ST100) includes other than lanes and lanes. A sensitivity adjustment step (ST110) of adjusting a difference in sensitivity for an area of A distortion correction step (ST120) of correcting the distortion after calculating lens distortion generated while passing through a lens of an image module unit providing image information among the sensors is further included.
상기 제3 단계(ST300)는 상기 영상 정보 데이터를 통해 입력된 컬러 영상 데이터를 그레이 컬러(gray color) 영상 데이터로 변경하는 단계(ST310);The third step (ST300) includes changing color image data input through the image information data into gray color image data (ST310);
상기 그레이 컬러(gray color) 영상 데이터 중 연속적으로 연장된 차선에 해당되는 차선 데이터만을 추출하기 위해 상기 그레이 컬러(gray color) 영상 데이터에서 상기 차선에 해당되지 않는 노이즈를 제거하기 위해 블러링(blurring)을 통해 노이즈 필터링을 실시하는 제1 노이즈 필터링 단계(ST320)를 포함한다.Blurring to remove noise that does not correspond to the lane from the gray color image data to extract only lane data corresponding to a continuously extended lane among the gray color image data And a first noise filtering step (ST320) of performing noise filtering through.
상기 제4 단계(ST400)는 호프 변환을 통해 경계점에서 차선에 해당되는 직선 데이터를 추출하기 위한 파라미터를 설정하는 단계(ST410); 상기 설정된 파라미터에 의해 최종 차선 데이터만을 추출하는 단계(ST420)를 포함한다.The fourth step (ST400) includes setting a parameter for extracting straight line data corresponding to a lane from a boundary point through a hop transformation (ST410); And extracting only the last lane data based on the set parameters (ST420).
상기 제5 단계(ST500)는 좌측 상단을 원점으로 하여 오른쪽 방향을 x축의 양의 방향으로 하고 아래쪽을 y축의 양의 방향으로 하는 영상 좌표계에서 추출된 직선 데이터로부터 주행에 필요한 전방 차선, 좌측 차선, 우측 차선 데이터만을 선별하여 데이터를 제공하는 단계(ST510)를 포함한다.In the fifth step (ST500), a front lane, a left lane required for driving, and a left lane, required for driving, are extracted from the straight line data extracted from the image coordinate system in which the right direction is the positive x-axis direction and the bottom is the positive y-axis direction with the upper left as the origin. And providing data by selecting only right lane data (ST510).
상기 제6 단계(ST600)는 상기 참가자가 상기 차선 데이터 정보와 함께 상기 트랙의 레이 아웃과 상기 자율 주행 차량의 구동 모드를 임의의 설정값으로 조절하되, In the sixth step (ST600), the participant adjusts the layout of the track and the driving mode of the autonomous vehicle to an arbitrary set value together with the lane data information,
복수의 참가자가 각각 서로 다른 설정값으로 조절이 이루어지는 것을 특징으로 한다. It is characterized in that a plurality of participants are adjusted to different settings, respectively.
본 발명의 실시 예들은 참가자가 차선을 따라 주행하는 자율 주행 차량의 이동에 따른 알고리즘을 각자 개별적으로 입력해보고 차선을 따라 정상적으로 주행이 이루어지는지 경험해 봄으로써 자연스럽게 알고리즘에 대한 정보를 습득할 수 있다.According to embodiments of the present invention, information about the algorithm may be naturally acquired by a participant individually inputting an algorithm according to the movement of an autonomous vehicle driving along a lane and experiencing whether driving is normally performed along the lane.
본 발명의 실시 예들은 자율 주행 차량의 동작 원리를 참가자들이 이해하고, 직접 구현하고 경험해 볼 수 있어 교육적 효과가 향상되며, 상기 자율 주행 차량 1대를 이용하여 복수의 참가자들이 공유하면서 개별적으로 직접 구현된 알고리즘을 개별적으로 구현해볼 수 있는 경험을 해봄으로써 참여도가 향상된 교육이 가능해 진다.Embodiments of the present invention enhance educational effects as participants can understand, implement and experience the operating principle of an autonomous vehicle, and implement them individually while sharing with a plurality of participants using one autonomous vehicle. Education with improved participation becomes possible by experiencing the experience of implementing the algorithm individually.
본 발명의 실시 예들은 참가자들마다 서로 다른 알고리즘을 입력해보고 그에 따라 자율 주행 차량이 차선을 따라 정상 또는 비정상 주행이 이루어지는 경우에 따른 경험을 통해 최적의 알고리즘을 구현해 볼 수 있는 경험을 해 볼 수 있다.In the embodiments of the present invention, different algorithms can be input for each participant, and accordingly, an experience in which an optimal algorithm can be implemented through an experience when an autonomous vehicle is driving normally or abnormally along a lane can be experienced. .
도 1 내지 도 2는 본 발명의 일 실시 예에 따른 자율 주행 차량용 키트 장치를 도시한 도면.
도 3은 본 발명의 일 실시 예에 따른 자율 주행 차량용 키트 장치에 구비된 제어부 및 상기 제어부와 연계된 구성을 도시한 블럭도.
도 4 내지 도 5는 본 발명의 일 실시 예에 의한 각도 조절부의 작동 상태도.
도 6 내지 도 7은 본 발명의 일 실시 예에 의한 자율 주행 차량용 키트 장치의 제어 방법을 도시한 순서도.
도 8은 도 6에 의한 그리드 데이터가 적용된 영상의 일 예를 도시한 도면.
도 9는 도 6에 의한 실제 주행 영상과 알고리즘이 적용된 영상을 일 예로 도시한 도면.
도 10 내지 도 11은 도 6에 도시된 제3 내지 제4 단계의 실시 예를 도시한 순서도.
도 12는 도 6에 도시된 제4 단계에 의해 참가자가 호프 변환에 따른 변수를 조정하는 상태를 일 예로 도시한 도면.
도 13은 본 발명의 일 실시 예에 의한 트랙에 신호등이 설치되고, 이를 감지하는 상태를 도시한 도면.1 to 2 are views showing a kit device for an autonomous vehicle according to an embodiment of the present invention.
3 is a block diagram showing a control unit provided in the kit apparatus for an autonomous vehicle according to an embodiment of the present invention and a configuration associated with the control unit.
4 to 5 are operational state diagrams of the angle adjustment unit according to an embodiment of the present invention.
6 to 7 are flowcharts illustrating a method of controlling a kit device for an autonomous vehicle according to an embodiment of the present invention.
8 is a diagram illustrating an example of an image to which the grid data of FIG. 6 is applied.
9 is a view showing an example of an image to which an actual driving image and an algorithm of FIG. 6 are applied.
10 to 11 are flow charts illustrating an embodiment of the third to fourth steps shown in FIG. 6.
12 is a diagram illustrating a state in which a participant adjusts a variable according to a hop transformation according to a fourth step shown in FIG. 6 as an example.
13 is a view showing a state in which a traffic light is installed and detected on a track according to an embodiment of the present invention.
본 발명의 일 실시 예에 따른 자율 주행 차량용 키트 장치에 대해 도면을 참조하여 설명한다.A kit device for an autonomous vehicle according to an embodiment of the present invention will be described with reference to the drawings.
참고로 본 실시 예는 자율 주행 차량(1)에 참가자가 직접적으로 탑승하고 도로를 따라 주행하는 차량이 아니라 자율 주행 차량에 관심을 갖고 있는 복수의 학생 또는 일반인들을 포함하는 참가자가 직선 구간과 곡선 구간의 경로를 갖는 차선이 표시된 트랙을 따라 주행하는 자율 주행 차량(1)의 다양한 주행을 위한 알고리즘을 개별적으로 입력하되, 상기 참가자가 각기 서로 다른 알고리즘을 입력하여 차선을 따라 이동하는 자율 주행 차량의 이동 경로를 다양하게 체험해 볼 수 있게 하고자 한다.For reference, in this embodiment, a participant including a plurality of students or ordinary people who are interested in the autonomous driving vehicle, not a vehicle that a participant directly boards and drives along a road, is a straight section and a curved section. Individually input algorithms for various driving of the autonomous vehicle (1) driving along a track marked with a lane having a path of, but the participant inputs different algorithms to move the autonomous vehicle moving along the lane We want to be able to experience various routes.
이 경우 본 실시 예는 참가자의 독립적인 참여를 도모하고 상기 자율 주행 차량(1)이 차선을 따라 주행하다가 오류가 발생되는 경우에도 직접적으로 오류의 원인을 찾아내어 원인을 해결하도록 함으로써 정상 주행을 위한 해결책을 직접 해결하도록 유도하고, 자율주행 알고리즘 구현을 위한 사고 능력을 자연스럽게 습득 및 체험할 수 있도록 유도할 수 있다.In this case, the present embodiment promotes independent participation of the participant, and even when an error occurs while the
첨부된 도 1 내지 도 3을 참조하면, 본 실시 예에 의한 자율 주행 차량용 키트 장치는 자율 주행 차량(1)의 외형을 이루는 바디부(100)와, 상기 바디부(100)의 전방 하측에 구비된 전륜(10)에 구동력을 제공하는 제1 모터(210)와, 후방 하측에 구비된 후륜(20)에 구동력을 제공하는 제2 모터(220)를 포함하는 모터부(200)와, 상기 바디부(100)에 구비되고, 상기 바디부(100)가 차선(2)이 표시된 트랙(30)을 따라 주행할 때 상기 바디부(100)의 전방에 대한 영상 정보를 제공하는 영상 모듈부(300)와, 상기 바디부(100)가 상기 차선(2)을 따라 이동할 때 전방 장애물의 유무 또는 장애물까지의 거리를 감지하는 거리 감지부(400)와, 상기 영상 모듈부(300)와 상기 거리 감지부(400)에서 입력된 데이터를 기반으로 관심 영역을 설정하고, 설정된 관심 영역을 X축과 Y축으로 각각 n등분한 그리드 데이터와 차선 데이터를 추출한 후에 이를 참가자에게 제공하는 제어부(500) 및 상기 참가자가 상기 제어부(500)를 통해 제공된 그리드 데이터와 차선 데이터를 이용하여 상기 자율 주행 차량(1)의 구동에 필요한 알고리즘을 직접 입력하기 위한 입력부(600)를 포함한다.1 to 3, the kit device for an autonomous vehicle according to the present embodiment includes a
바디부(100)는 경량화를 위해 플라스틱으로 제작되고, 상기 모터부(200)는 전륜(10)을 구동하기 위해 서보 모터 이루어진 제1 모터(210)와, 후륜(20)을 구동하기 위해 DC 모터로 이루어진 제2 모터(220)로 구성된다.The
상기 제1 모터(210)는 조향을 위해 구비되고, 바디부(100)의 전진과 후진은 후륜(20)에 구비된 제2 모터(220)에 의해 이루어진다. 또한 제2 모터(220)는 후륜에 각각 구비되고, 회전 속도가 가변 될 수 있다.The
바디부(100)에는 전면에 구비된 송수신 모듈을 통해 입력부(600)에서 입력된 데이터를 수신할 수 있다.The
참가자는 입력부(600)를 통해 제어 명령을 입력하고, 상기 제어부(500)는 참가자가 입력한 제어 명령에 따라 자율 주행 차량(1)이 차선(2)을 따라 직진 구간과, 곡선 구간을 따라 이동할 때 제1 모드와 제2 모드로 제어되도록 제어 한다.The participant inputs a control command through the
상기 제1 모드는 제2 모터(220)가 동일 속도로 회전되도록 제어하는 것으로 직진 구간을 이동할 때 사용된다.The first mode controls the
제2 모드는 곡선 구간과 같이 굴곡진 구간을 주행할 때 제1 모터(210)와 제2 모터(220)의 분당 회전수가 서로 다르게 제어되며 이를 통해 차선(2)의 굴곡진 정도에 따라 안정적인 주행이 이루어진다.In the second mode, when driving a curved section such as a curved section, the number of revolutions per minute of the
영상 모듈부(300)는 일 예로 카메라 모듈이 사용될 수 있으며 상기 바디부(100)의 전방에 설치되며, 광각 렌즈가 사용되나 다른 렌즈가 사용되는 것도 가능할 수 있다.The
상기 영상 모듈부(300)는 바디부(100)의 전방을 기준으로 중앙에 위치되고, 150도 또는 150도 이상의 화각을 갖는 카메라가 사용되고. 해상도는 720P 또는 720P 이상의 해상도를 갖는다.The
거리 감지부(400)는 일 예로 레이저 센서가 사용되며 상기 영상 모듈부(300)와 상기 거리 감지부(400)는 모두 제어부(500)로 해당 데이터를 전송한다.As an example, the
상기 영상 모듈부(300)는 바디부(100)의 전방과 후방에 각각 1개씩 설치되는 것도 가능하고, 상기 거리 감지부(400) 또한 바디부(100)의 전방과 후방에 각각 1개씩 설치되는 것도 가능할 수 있다.The
본 실시 예는 참가자가 직접 자율 주행 차량(1)의 주행에 필요한 알고리즘을 직접 조작하고 체험해 보기 위한 것으로 상기 제어부(500)는 상기 영상 모듈부(300)와 거리 감지부(400)에서 입력된 데이터를 기반으로 설정된 관심 영역(S)에 해당되는 차선 데이터와, 그리드 데이터를 참가자에게 제공한다.The present embodiment is for a participant to directly manipulate and experience the algorithm required for driving of the
상기 관심 영역(S)은 바디부(100)의 전방 영역에 해당되고, 상기 전방 영역은 자율 주행 차량(1)이 차선을 따라 주행하는데 필요한 차선 정보를 정확하게 인지하기 위해 필요한 영역에 해당된다.The region of interest S corresponds to an area in front of the
관심 영역(S)은 영상 모듈부(300)를 통해 감지되는 범위에 해당되며 차선인식을 위해 전방 관심 영역의 중앙을 기준으로 하측 영역에 대한 영상 데이터를 이용한다.The region of interest S corresponds to a range sensed by the
상기 차선 데이터는 후술할 관심 영역(S)에 표시된 차선을 정확하게 인지하기 위해 바디부(100)의 전방 좌측과, 전방과, 전방 우측에 대한 차선 데이터를 포함한다.The lane data includes lane data for the front left side, the front side, and the front right side of the
상기 차선 데이터는 후술할 실시 예에서 보다 상세하게 설명하기로 한다.The lane data will be described in more detail in an embodiment to be described later.
본 실시 예에 의한 자율 주행 차량(1)은 참가자가 직접 탑승하는 차량이 아니므로 바디부(100)의 전방 영역에 대해 데이터만 획득하는 경우에도 자율 주행 차량(1)이 트랙(30)에 표시된 차선(2)을 따라 이동이 용이하게 이루어진다.Since the
입력부(600)는 PC또는 노트북 또는 연산 처리가 가능한 단말기와 연계된 키보드가 사용되나, 입력 가능한 다른 구성품으로 대체되는 것도 가능할 수 있다.The
또한 입력부(600)는 모니터와 연계되어 참가자가 입력한 데이터를 시각적으로 확인할 수 있으며 영상 모듈부(300)를 통해 감지된 자율 주행 차량(1)의 전방에 해당되는 관심 영역에 대한 영상 정보를 확인해 볼 수 있다. In addition, the
첨부된 도 3 내지 도 5를 참조하면, 본 실시 예는 바디부(100)의 전방에 설치되고, 상기 전방 트랙(30)의 기울기에 따라 상기 영상 모듈부(300)와 상기 거리 감지부(400)의 각도를 조절하기 위한 각도 조절부(700)가 구비된다. 상기 바디부(100)에는 기울기 센서(800)가 구비되고, 제어부(500)는 상기 기울기 센서(800)로부터 현재 바디부(100)의 기울기 값을 입력 받아 기 설정된 기울기를 초과할 경우 틸팅 플레이트(710)의 각도를 상기 바디부(100)의 상측 또는 하측을 향해 회전시켜 영상 모듈부(300)와 거리 감지부(400)의 각도를 동시에 조절한다.3 to 5, the present embodiment is installed in front of the
이 경우 본 실시 예는 트랙(3)의 기울기 유무와 상관 없이 정확하게 차선(2)을 인지하고 오차 발생을 최소화 시켜 안정적인 이동을 도모할 수 있다.In this case, the present embodiment can accurately recognize the
각도 조절부(700)는 바디부(100)의 전면에 판 형태의 틸딩 플레이트(710)가 구비되고, 상기 틸딩 플레이트(710)의 전면에 영상 모듈부(300)와 거리 감지부(400)가 설치된다.The
각도 조절부(700)는 틸딩 플레이트(710)의 후면에 일단이 연결되고, 타단이 후방으로 연장되며 일부 구간에 치형(G)이 형성된 제1 기어(720)와, 상기 제1 기어(720)의 치형(G)에 치합된 스퍼기어로 시계 방향 또는 시계 반대 방향으로 회전력을 제공하는 틸팅 모터(730)를 포함한다.The
상기 틸딩 플레이트(710)는 후면 중앙에 구비된 힌지(H)를 매개로 바디부(100)에 결합된다.The tilting
일 예로 상기 자율 주행 차량(1)이 경사진 구간을 주행할 경우 기울기 센서(800)에서 감지된 바디부(100)의 기울기 데이터가 제어부(500)에 전송되고, 상기 제어부(500)는 기 설정된 기울기 데이터와 비교하여 초과할 경우 상기 틸팅모터(730)를 작동시켜 틸딩 플레이트(710)를 상측 또는 하측 중의 어느 한 방향을 향해 이동되도록 제어한다.For example, when the
예를 들어 트랙(30)이 수평인 구간에서 자율 주행 차량(1)의 주행이 이루어질 경우에 상기 틸딩 플레이트(710)는 바디부(100)의 전면에 대해 수직 상태가 유지된다.For example, when the
첨부된 도 4에 도시된 바와 같이, 트랙(30)이 상측으로 경사진 구간이 존재할 경우 상기 바디부(100)의 전면에 구비된 영상 모듈부(300)를 통해 감지되는 전방의 차선 데이터는 바디부(100)의 전방에 해당되는 관심 영역(S)에 정확하게 감지되지 않고, 상기 관심 영역(S)을 벗어난 영역에 대한 감지가 이루어질 수 있다.As shown in FIG. 4, when there is a section in which the
본 실시 예는 관심 영역(S)에 대한 정확한 감지를 위해 기울기 센서(800)에서 감지된 기울기 데이터에 의해 상기 트랙(30)의 경사 유무에 따라 상기 틸딩 플레이트(710)가 틸팅 이동되므로 안정적으로 관심 영역(S)에 대한 데이터를 제어부(500)로 전달할 수 있어 자율 주행 차량(1)이 차선(2)에 대한 인식과 주행이 항시 일정하게 유지된다.In this embodiment, the tilting
참고로 상기 트랙(30)이 상측으로 경사질 경우 상기 틸딩 플레이트(710)는 실선 위치에서 점선으로 도시된 전방 상측으로 이동된다.For reference, when the
첨부된 도 5에 도시된 바와 같이, 상기 트랙(30)이 하측으로 경사질 경우 상기 틸딩 플레이트(710)는 실선 위치에서 점선으로 도시된 전방 하측으로 이동되어 관심 영역(S)에 대한 정확한 감지를 실시할 수 있다.As shown in FIG. 5, when the
제어부(500)는 참가자가 입력하는 알고리즘 데이터에 의해 자율 주행 차량(1)의 작동이 안정적으로 이루어지도록 제어하며, 상기 자율 주행 차량(1)의 이동에 따른 주체는 상기 참가자에 의해 대부분 수행된다.The
본 발명의 일 실시 예에 의한 자율 주행 차량용 키트 장치의 제어 방법에 대해 도면을 참조하여 설명한다.A method of controlling a kit for an autonomous vehicle according to an embodiment of the present invention will be described with reference to the drawings.
첨부된 도 3 또는 도 6 내지 도 9를 참조하면, 본 실시 예는 자율 주행 차량이 차선을 따라 안정적으로 주행이 가능하도록 하기 위해 참가자가 직접 주행에 필요한 기본 적인 데이터를 전술한 제어부(500)를 통해 전달받아 입력부(600)를 통해 입력한 후에 안정적으로 주행이 이루어지는지 여부를 육안으로 확인하고, 만약 트랙(30)에 표시된 차선(2)을 따라 주행이 불안정하게 이루어지거나, 상기 차선(2)을 넘어설 경우 입력부(600)를 통해 다른 데이터를 입력하여 정상 주행을 도모하도록 할 수 있다.3 or 6 to 9, the present embodiment uses the above-described
이를 위해 본 실시 예는 자율 주행 차량이 트랙을 따라 주행되기 위한 알고리즘을 참가자가 개별적으로 직접 조작하여 상기 자율 주행 차량의 구동을 체험해 보기 위해 상기 자율 주행 차량의 주행에 필요한 데이터를 센서를 통에 입력 받는 제1 단계(ST100)와, 상기 입력된 데이터 중 상기 자율 주행 차량의 주행에 필요한 관심 영역을 설정하는 제2 단계(ST200)와, 상기 설정된 관심 영역에서 상기 자율 주행 차량의 주행에 필요한 차선 데이터를 참가자에게 제공하기 위해 상기 관심 영역에 형성된 차선을 추출하기 위한 경계점을 설정하는 제3 단계(ST300)와, 상기 설정된 경계점에서 직선 데이터만을 추출하는 제4 단계(ST400)와, 상기 추출된 직선 데이터 중 차선 데이터만 검출한 후에 설정된 관심 영역의 XY축에서 그리드 데이터를 검출하는 제5 단계(ST500)와, 상기 그리드 데이터와 함께 상기 검출된 차선 데이터가 상기 참가자에게 제공되고, 상기 참가자는 검출된 차선 데이터 정보를 선택적으로 조정하는 제6 단계(ST600)와, 상기 참가자가 선택한 명령에 따라 상기 자율 주행 차량으로 주행 명령이 전송되고, 상기 자율 주행 차량은 트랙에 표시된 차선을 따라 주행이 이루어지는 제7 단계(ST600)와, 상기 차선을 따라 주행하는 도중 신호등의 색깔을 감지하여 주행 상태를 결정하는 제8 단계(ST700) 및 상기 자율 주행 차량이 주행도중 돌발 상황 또는 장애물이 발견될 경우 주행 상태를 제어하는 제9 단계(ST800)를 포함한다.To this end, in this embodiment, a participant individually directly manipulates an algorithm for driving the autonomous vehicle along a track to experience the driving of the autonomous vehicle, and transmits data necessary for driving the autonomous vehicle through a sensor. A first step (ST100) of receiving an input, a second step (ST200) of setting a region of interest necessary for driving of the autonomous vehicle among the input data, and a lane required for driving of the autonomous vehicle in the set region of interest A third step (ST300) of setting a boundary point for extracting a lane formed in the region of interest to provide data to the participant, a fourth step (ST400) of extracting only straight line data from the set boundary point, and the extracted straight line A fifth step (ST500) of detecting grid data in the XY axis of a set region of interest after detecting only lane data among data, and the detected lane data along with the grid data are provided to the participant, and the participant is detected. A sixth step of selectively adjusting lane data information (ST600), a driving command is transmitted to the autonomous vehicle according to the command selected by the participant, and the autonomous driving vehicle is driven along a lane displayed on the track. Step (ST600), an eighth step (ST700) of determining a driving state by detecting the color of a traffic light while driving along the lane, and controlling a driving state when an unexpected situation or an obstacle is found while the autonomous vehicle is driving. And a ninth step (ST800).
상기 제1 단계(ST100)는 상기 자율 주행 차량의 전방 영역에 대한 영상 정보 데이터와, 상기 자율 주행 차량의 전방 영역에 대한 거리 정보 데이터를 포함한다.The first step ST100 includes image information data on a front area of the autonomous vehicle and distance information data on a front area of the autonomous vehicle.
상기 영상 정보 데이터는 자율 주행 차량(1)의 전방에 해당되는 관심 영역(S)에 대한 영상 정보를 이용하여 차선 인식에 필요한 데이터를 획득한다.The image information data acquires data necessary for lane recognition by using image information on an ROI S corresponding to the front of the
일 예로 영상 모듈부는 관심 영역(S)을 촬영하고 제어부(500)로 영상 정보 데이터를 전송한다.For example, the image module unit photographs the region of interest S and transmits image information data to the
참가자는 영상 정보 데이터로 입력된 차선 데이터에서 차선 이외의 영역에 대한 감도 차이를 조정한다(ST110).The participant adjusts the difference in sensitivity for areas other than the lane in the lane data input as image information data (ST110).
도로와 차선의 경계를 정확하게 감지하기 위해서는 감도 차이를 조정하여 차선으로 표시된 검은색과, 트랙을 나타내는 흰색의 픽셀에 따른 감도 차이를 조정한다.In order to accurately detect the boundary between a road and a lane, the difference in sensitivity is adjusted to adjust the difference in sensitivity according to the black displayed as the lane and the white pixel representing the track.
상기 차선과 차선 이외의 영역에 대한 감도 차이를 조정하는 이유는 도로와 차선의 경계를 정확하게 감지하기 하기 위해서이며, 도로에 이물질 또는 특정 구조물이 차선에 해당되는지 트랙의 다른 부분에 해당되는지 구분하여 자율 주행 차량이 차선을 따라 안정적으로 이동되도록 알고리즘을 참가자가 조정할 수 있다.The reason for adjusting the difference in sensitivity between the above lanes and areas other than the lanes is to accurately detect the boundary between the road and the lane, and differentiates whether a foreign substance or a specific structure on the road corresponds to a lane or another part of the track. The algorithm can be adjusted by the participant to ensure that the driving vehicle stably moves along the lane.
차선(2)은 일 예로 검은색 라인으로 트랙(30)에 표시되고, 상기 트랙(30)은 흰색으로 표시되는데, 빛의 경우 빨강과 초록과 파랑의 3원색을 모두 혼합할 경우 밝아지는 특성을 갖고 있으며 3원색의 혼합은 흰색으로 표시된다.The
상기 흰색은 영상 모듈부로 감지할 경우 검은색으로 표시된 차선(2)에 비해 상대적으로 픽셀이 높아 상기 차선의 픽셀과 감도가 서로 다르게 감지된다.When the white color is detected by the image module unit, the pixel is relatively high compared to the
본 실시 예는 이러한 특성을 이용하여 차선(2)으로 표시된 검은색과 트랙(30)으로 표시된 흰색의 픽셀 차이를 감지하여 차선과 차선이 아닌 경계면을 우선 감지한다.The present embodiment detects a difference in pixels between the black indicated by the
또한 제어부는 영상 모듈부의 렌즈를 경유하면서 발생되는 렌즈 왜곡(lens distortion)을 계산한 후에 왜곡을 보정하는 왜곡 보정 (ST120)을 통해 이미지 데이터와 실제 트랙과 서로 간에 매칭할 때 정확하게 매칭이 가능해 진다.In addition, the control unit calculates lens distortion generated while passing through the lens of the image module unit, and then performs a distortion correction (ST120) that corrects the distortion to enable accurate matching when the image data and the actual track are matched with each other.
예를 들면 렌즈 왜곡에 의해 이미지 데이터의 차선과 실제 트랙의 차선이 서로 다르게 나타날 수 있고, 이는 후술할 그리드 데이터의 센터 보다 가장 자리로 갈수록 왜곡이 증가되므로 정확한 차선 데이터를 획득하기 위해 보정을 실시한다.For example, due to lens distortion, the lanes of the image data and the lanes of the actual track may appear different from each other, and since distortion increases toward the edge of the grid data to be described later, correction is performed to obtain accurate lane data. .
일 예로 영상 왜곡을 제거한 뒤에 관심영역을 설정하기 위해 V4를 기준으로(도 8 참조) 전체 영역에 대한 왜곡을 제거한 후에 관심영역을 설정하고, 이를 사용자에게 제공하게 된다.For example, in order to set the region of interest after removing image distortion, the region of interest is set after removing the distortion of the entire region based on V4 (see FIG. 8), and the region of interest is provided to the user.
즉 영상 모듈부(300)에 구비된 렌즈에서 발생되는 렌즈 왜곡을 보정하기 위해 그리드 데이터의 센터 위치(V4위치와 H2가 교차되는 위치)를 기준으로 전체 영역에 대해 왜곡을 제거하여 정확한 영상 정보 데이터를 참가자에게 제공한다.That is, in order to correct lens distortion generated by the lens provided in the
렌즈 왜곡이 발생되는 이유는 영상 모듈부에 구비된 렌즈의 자체적인 특성에 기인한다. 상기 렌즈 왜곡에 대한 보정은 센터를 중심으로 방사형태로 왜곡이 제거되며 이와 같이 왜곡에 대한 보정이 이루어질 경우 가장 자리 부분이 휘어지지 않고 평면 상태로 펴진 이미지 데이터가 획득된다.The reason why lens distortion occurs is due to the inherent characteristics of the lens provided in the image module unit. In the correction of the lens distortion, the distortion is removed in a radial form centered on the center. When the distortion is corrected in this way, image data that is flattened without bending the edge portion is obtained.
그리고 관심 영역(S)이 설정되는데, 상기 관심 영역(S)은 이미 전술 하였으므로 상세한 설명은 생략한다. In addition, the region of interest S is set. Since the region of interest S has already been described above, a detailed description thereof will be omitted.
첨부된 도 10 내지 도 12를 참조하면, 제3 단계(ST300)는 차선과 노이즈에 해당되는 경계점을 찾아 차선 추출에 필요한 정확한 차선 데이터만 추출할 수 있다.Referring to FIGS. 10 to 12, in the third step ST300, only accurate lane data required for lane extraction may be extracted by finding a boundary point corresponding to a lane and noise.
정확한 차선을 추출 하기에 앞서 차선은 직선으로 연장되며 차선과 이웃한 경계 영역이 존재한다.Prior to extracting the correct lane, the lane extends in a straight line and there is a boundary area adjacent to the lane.
상기 경계 영역은 정확한 차선 데이터를 추출 하기 위해 상기 차선과 차선이 아닌 경계점이 존재하게 되고, 상기 차선에 대한 추출에 앞서 상기 경계점을 먼저 제거할 경우 차선에 대한 추출이 유리해지고, 정확성도 동시에 향상된다.In the boundary area, boundary points other than the lanes and lanes exist in order to extract accurate lane data, and when the boundary points are first removed prior to extraction of the lanes, extraction of the lanes is advantageous and accuracy is improved at the same time. .
특히 노이즈에 해당되는 부분에 대해 컬러를 변경하거나, 이미지를 흐리게 함으로써 차선과 상관 없는 불필요한 노이즈를 사전에 제거할 수 있다. In particular, unnecessary noise irrelevant to the lane can be removed in advance by changing the color of the part corresponding to the noise or blurring the image.
이를 위해 본 실시 예는 영상 정보 데이터를 통해 입력된 컬러 영상 데이터를 그레이 컬러(gray color) 영상 데이터로 변경(ST310)한다.To this end, in the present embodiment, color image data input through image information data is changed to gray color image data (ST310).
본 실시 예는 보다 정확하게 차선만을 검출하기 위해서 그레이 컬러로 영상 데이터를 변경하여 에지 검출(edge detection)을 실시하여 이미지 향상(image enhancement)과 같은 이미지 처리(image processing)를 보다 용이하게 실시할 수 있다. 참가자는 변경에 따른 감도를 입력부를 통해 증가 또는 감소시켜 최적의 상태로 조정해 볼 수 있다.According to the present embodiment, image processing such as image enhancement may be performed more easily by performing edge detection by changing image data to gray color in order to more accurately detect only lanes. . Participants can adjust the sensitivity to the optimum state by increasing or decreasing the sensitivity according to the change through the input unit.
그리고 그레이 컬러(gray color) 영상 데이터 중 연속적으로 연장된 차선에 해당되는 차선 데이터만을 추출하기 위해 상기 그레이 컬러(gray color) 영상 데이터에서 상기 차선에 해당되지 않는 노이즈를 제거하기 위한 블러링(blurring)을 통해 제1 노이즈 필터링(ST320)을 실시한다.And blurring to remove noise not corresponding to the lane from the gray color image data in order to extract only lane data corresponding to the continuously extended lane among gray color image data. Through the first noise filtering (ST320) is performed.
상기 제1 노이즈 필터링(ST320)은 영상 데이터에서 획득된 이미지 중 차선이 아닌데 차선처럼 보이는 노이즈를 필터링 하기 위해서 이미지 전체를 흐리게 하여 불필요한 노이즈를 제거한다. The first noise filtering (ST320) removes unnecessary noise by blurring the entire image in order to filter noise that looks like a lane although it is not a lane among images obtained from image data.
이 경우 차선은 자유 주행 차량(1)의 전방에서 연속성이 있게 추출되나, 차선이 아닌 노이즈의 경우에는 비연속성인 특성이 유지되므로 차선과 차선이 아닌 경계점에 대한 구분이 명확해 지고 이러한 차이점을 통해 차선 추출을 위한 경계점을 참가자가 수치적으로 조절하여 이를 정확하게 찾을 수 있다.In this case, the lane is continuously extracted from the front of the free-running
이 경우 차선 추출에 대한 감도와 결과값이 약간씩 상이하게 나타나며 이를 통해 참가자 마다 직접 입력값을 변경 또는 수정해 볼 수 있다.In this case, the sensitivity and result values for lane extraction are slightly different, and through this, each participant can directly change or modify the input value.
첨부된 도 11 내지 도 12를 참조하면, 차선이 추출된 이후에는 차선과 노이즈에 해당되는 경계점이 명확해 졌으므로 차선에 해당되는 직선 데이터를 추출하기 위한 호프 변환이 이루어진다(ST400).Referring to FIGS. 11 to 12, since the boundary points corresponding to the lane and noise become clear after the lane is extracted, hop transformation for extracting straight line data corresponding to the lane is performed (ST400).
상기 호프 변환(ST400)은 경계점에서 차선에 해당되는 직선 데이터를 추출하기 위한 파라미터를 설정하고(ST410), 상기 설정된 파라미터에 의해 최종 차선 데이터가 추출(ST420)된다.The hop transform (ST400) sets a parameter for extracting straight line data corresponding to the lane at the boundary point (ST410), and the final lane data is extracted (ST420) by the set parameter.
상기 호프 변환은 일정 길이 이상 길이가 유지 되는 경우를 직선으로 검출하기 위한 파라미터와 일정 개수 이상의 점이 포함되는 경우를 직선으로 검출하기 위한 파라미터를 입력할 수 있는데, 본 발명에서는 차선인식을 위한 최적의 파라미터를 미리 입력하여 사용자의 편의를 도모하였다.In the hop transformation, a parameter for detecting a case where a length of a certain length or more is maintained as a straight line and a parameter for detecting a case in which a certain number or more points are included as a straight line may be input. In the present invention, the optimal parameter for lane recognition The user's convenience was sought by inputting in advance.
사용자는 차선의 경계점이 인식될 수 있도록 Canny Edge Detector의 Min threshold 파라미터와 Max threshold 값을 임의의 값으로 설정하는데, 도 8에 도시된 흰색 선이 Canny Edge Detector에서 추출된 차선의 경계점이고, 차선위에 그려진 빨간 선이 호프 변환을 통해 얻어진 직선에 해당된다.The user sets the Min threshold parameter and Max threshold value of the Canny Edge Detector to arbitrary values so that the boundary points of the lanes can be recognized.The white line shown in FIG. 8 is the boundary point of the lane extracted from the Canny Edge Detector, and above the lane. The drawn red line corresponds to the straight line obtained through the hop transformation.
경계점 추출은 색의 변화가 있는 경계면을(예를 들면 흰색에서 검정색으로 변하는 경계면) 흰색으로, 변화가 없는 부분은 검정색으로 표현하여 표시하고, 이와 같이 출력된 결과값에서 호프변환을 통해 시종점의 좌표값을 갖는 직선이 추출된다.Boundary point extraction is performed by expressing the boundary surface with color change (e.g., the boundary surface changing from white to black) in white and the non-changing part in black. A straight line with coordinate values is extracted.
이와 같이 실시할 경우 차선의 폭으로 인해 한 차선에 대해 두개의 경계면(흰색)이 추출되고, 호프변환이 이루어지면 한 차선을 두개의 직선으로 인식하게 되는데, 주행중에 차선을 밟지 않기 위해서 제2 노이즈 필터링(S330)이 실시된다.In this case, two boundary surfaces (white) are extracted for one lane due to the width of the lane, and when the hop transformation is performed, one lane is recognized as two straight lines. In order not to step on the lane while driving, the second noise Filtering (S330) is performed.
상기 제2 노이즈 필터링(ST330)은 차량과 가까운 쪽의 경계면을 알면 되기 때문에 추출된 모든 차선 후보 직선들로부터 왼쪽 차선, 오른쪽 차선으로 인식할 직선이 선택된다.Since the second noise filtering (ST330) needs to know the boundary surface near the vehicle, a straight line to be recognized as a left lane and a right lane is selected from all extracted candidate lane lines.
참고로 Canny Edge Detector에서 색의 변화에 따라 경계점을 설정하며, 이미지의 강도(intensity)가 급격하게 변하는 부분을 Edge(경계)라고 정의한다. For reference, the boundary point is set according to the color change in the Canny Edge Detector, and the part where the intensity of the image changes rapidly is defined as the edge.
상기 경계는 미분값을 통해 위치가 결정되고, maximum과, minimum의 두 군데를 찾을 수 있다.The position of the boundary is determined through a differential value, and two locations, maximum and minimum, can be found.
사용자가 변경할 수 있는 Canny Edge Detector의 파라미터는 상기 maximum과 minimum의 값을 변경시켜 경계를 찾을 수 있다.The parameters of the Canny Edge Detector that can be changed by the user can find the boundary by changing the maximum and minimum values.
일 예로 차선이 야간과 같이 어두운 환경일 경우 흰색도 회색, 또는 검정에 가까운 값을 갖게 되는데 이때 검정색 바닥면과 차선을 구분하기 위해서는 maximum과 minimum 값을 기 입력한 값보다 큰 값을 입력하면 된다.For example, when the lane is in a dark environment such as at night, white is also gray or has a value close to black. In this case, in order to distinguish between the black floor and the lane, the maximum and minimum values can be entered larger than the previously entered values.
따라서 사용자가 현재 자율주행 차량의 주행 환경에 따라 다양하게 Min threshold와, Max threshold 값을 조절하여 입력해 보고 자율 주행 차량의 주행 상태를 확인한 후에 최적의 주행을 도출해볼 수 있다.Therefore, the user can variously adjust and input the Min threshold and Max threshold values according to the driving environment of the current autonomous vehicle, check the driving state of the autonomous vehicle, and then derive the optimal driving.
호프 변환은 관심 영역에 대한 방향과 각도를 특정 각도로 설정할 수 있으며 참가자가 다양하게 입력값을 변경시켜 차선 추출을 위한 조정을 직접 실시할 수 있다.In the HOPE transformation, the direction and angle for the region of interest can be set to a specific angle, and the participant can change input values in various ways to make adjustments for lane extraction.
상기 관심 영역에 대한 방향과 각도는 파이/180도의 범위로 검색이 이루어진다.The direction and angle for the region of interest are searched in the range of pi/180 degrees.
상기 제5 단계(ST500)는 영상좌표계상에 위치한 직선 데이터를 추출한다.The fifth step (ST500) extracts linear data located on the image coordinate system.
예를 들면 좌측 상단을 원점으로 하여 오른쪽 방향을 x축의 양의 방향으로 하고 아래쪽을 y축의 양의 방향으로 하는 영상 좌표계에서 추출된 직선 데이터로부터 주행에 필요한 전방 차선, 좌측 차선, 우측 차선 데이터만을 선별하여 데이터를 제공(ST510)한다.For example, from the straight line data extracted from the image coordinate system with the upper left as the origin, the right direction as the positive x-axis, and the downwards as the positive y-axis, only data on the front lane, left lane, and right lane required for driving are selected. Thus, data is provided (ST510).
영상 좌표계에서 곡선은 멀리서 볼 때 좌측 또는 우측 방향으로 휘어진 것처럼 보이나, 상기 곡선을 확대하여 특정 길이로 분할할 경우 직선에 해당되므로 좌측 또는 우측 차선에 해당되는지 정확하게 판단할 수 있다.In the image coordinate system, the curve appears to be curved in the left or right direction when viewed from a distance, but when the curve is enlarged and divided into a specific length, it corresponds to a straight line, so it can be accurately determined whether it corresponds to the left or right lane.
전술한 도 8에 도시된 그리드 데이터는 상기 전방 영역에 해당되는 이미지 데이터를 X축과 Y축으로 각각 n등분한 그리드 데이터에 해당된다. 일 예로 본 실시 예에서는 도 8에 도시된 바와 같이 전방 영역의 X축을 8등분하고, Y축을 4등분 하였으며, X축은 모두 8등분 하였으므로 도면 기준으로 V4 위치가 정 중앙에 해당되고, 상기 V4를 기준으로 좌측과 우측 영역으로 구분된다. The above-described grid data shown in FIG. 8 corresponds to grid data obtained by dividing image data corresponding to the front area into n equal parts on the X-axis and Y-axis. For example, in this embodiment, as shown in FIG. 8, the X-axis of the front region is divided into eight, the Y-axis is divided into four, and all of the X-axis are divided into eight, so the position V4 corresponds to the center of the drawing, and the V4 is the reference. It is divided into left and right areas.
영상 데이터는 영상 모듈부(300)를 통해 입력될 때 바디부(100)의 전방을 기준을 설정되므로 H3는 바디부의 전방인 트랙(30)의 바닥에 해당되고, H2와 H1으로 갈수록 바디부(100)의 전방 상측 영역에 해당된다.When the image data is input through the
일 예로 흰색으로 표시된 선은 차선에 해당되고, 빨간색으로 표시된 선은 자율 주행 차량(1)의 진행 방향을 기준으로 차선의 안쪽에 해당되며, 좌측 차선과 가로선(H1 내지 H3)이 만나는 교차점이 파란 점에 해당되고, 우측 차선과 가로선이 만나는 교차점이 빨간 점에 해당된다.For example, a line marked in white corresponds to a lane, a line marked in red corresponds to the inside of the lane based on the driving direction of the
상기 파란 점과 빨간 점을 자율 주행 차량(1)의 진행 방향으로 서로 간에 연결할 경우 정 중앙 위치인 V4를 기준으로 안정적으로 주행 가능한 차선 데이터를 갖는 그리드 데이터가 생성된다(ST200).When the blue dot and the red dot are connected to each other in the traveling direction of the
또한 직선 구간과 연결된 곡선 구간은 최대한 직선화 시켜 전술한 차선 데이터의 추출과 변환을 통해 최종적으로 곡선 구간에 해당되는 차선 데이터를 추출하여 인식할 수 있다.In addition, the curved section connected to the straight section may be linearized as much as possible, and the lane data corresponding to the curved section can be finally extracted and recognized through the extraction and transformation of the above-described lane data.
일 예로 영상 모듈부를 통해 입력된 원본 영상은 전술한 바와 같이 트랙(30)은 흰색으로 형성되고, 차선(2)은 검은색으로 표시하였으나, 서로 대비되는 색으로 변경되는 것도 가능할 수 있다.As an example, in the original image input through the image module unit, as described above, the
영상 모듈부는 영상 데이터를 제어부(500)로 전송하여 관심 영역에 대한 정보를 제공하고, 상기 제어부(500)는 관심 영역을 상측과 하측으로 구분한 후에 하측 영역에 대한 정보를 차선 추출 및 데이터 검출을 위해 활용하고, 상측은 신호등과 같은 구조물을 감지하기 위한 용도로 검출에 활용한다.The image module unit transmits image data to the
특히 본 실시 예는 관심 영역의 하측 영상 데이터와, 상측 영상 데이터가 모두 제어부(500)로 입력되나, 신속한 영상 데이터 처리를 위해 상측 영상 데이터에서 신호등이 미 검색될 경우 하측 영상 데이터를 우선 처리하여 신속한 영상 데이터 처리를 가능하게 한다.In particular, in this embodiment, both the lower image data and the upper image data of the region of interest are input to the
따라서 차선 추출과 검출이 보다 신속하고 안정적으로 이루어지므로 자율 주행 차량(1)이 차선을 벗어나지 않고 정확하게 이동될 수 있다.Therefore, since lane extraction and detection are performed more quickly and stably, the
상기 제6 단계(ST600)는 상기 참가자가 상기 차선 데이터 정보와 함께 상기 트랙의 레이아웃과 상기 자율 주행 차량의 구동 모드를 임의의 입력값으로 조절하되, 복수의 참가자가 각각 서로 다른 입력값으로 조절이 가능하므로 참가자 별로 다양한 입력값을 직접 입력해보고 구현해 볼 수 있어 교육 효과가 향상된다. In the sixth step (ST600), the participant adjusts the layout of the track and the driving mode of the autonomous vehicle together with the lane data information to an arbitrary input value, but the plurality of participants may adjust each to different input values. Because it is possible, it is possible to directly enter and implement various input values for each participant, improving the training effect.
이와 같이 참가자가 선택한 명령에 따라 상기 자율 주행 차량으로 주행 명령이 전송되고, 상기 자율 주행 차량은 트랙에 표시된 차선을 따라 주행이 이루어진다.In this way, a driving command is transmitted to the autonomous vehicle according to a command selected by the participant, and the autonomous vehicle travels along a lane marked on a track.
첨부된 도 13을 참조하면, 제8 단계(ST700)는 차선을 따라 주행하는 도중 신호등(50)을 감지하여 주행 상태를 결정한다. 상기 신호등(50)에 대한 감지는 영상 모듈부를 통해 관심 영역에 위치될 경우 신호등(50)의 위치를 우선 감지한다(ST710).Referring to FIG. 13, the eighth step ST700 determines a driving state by detecting a
신호등(50)은 일 예로 빨강색과 노랑색 또는 주황색과 녹색의 순서대로 위치되는데, 영상 모듈부에서 밝기를 판단하여 현재 빨강색과 노랑색과 녹색 중 어느 위치에서 점등이 되었는지 정확하게 판단한다(ST720).The
일 예로 제어부(500)는 현재 빨강색이 점등된 것으로 판단될 경우 모터부(200)의 작동이 중지되도록 하여 상기 신호등 이전에 자율 주행 차량(1)이 멈출 수 있도록 제어한다.For example, when it is determined that the red color is currently lit, the
또한 제어부(500)는 신호등(50)의 점등 신호가 입력되지 않을 경우 자율 주행 차량(1)이 무조건 정지되도록 모터부(200)를 제어할 수 있다.In addition, the
제9 단계(ST800)는 영상 모듈부에 의해 전송된 영상 데이터에 보행자 또는 장애물이 발견될 경우 거리 감지부(400)를 통해 자율 주행 차량(1)과의 이격된 위치를 판단한다.In the ninth step (ST800), when a pedestrian or an obstacle is found in the image data transmitted by the image module unit, the
그리고 상기 보행자 또는 장애물과 충돌 되지 않도록 모터부(200)의 작동 상태를 제어하는데, 일 예로 속도를 감속하거나, 주행 위치를 변경하여 충돌을 회피할 수 있다.In addition, the operation state of the
이상, 본 발명의 일 실시 예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다. As described above, one embodiment of the present invention has been described, but those of ordinary skill in the relevant technical field add, change, delete or add components within the scope not departing from the spirit of the present invention described in the claims. Various modifications and changes can be made to the present invention by means of the like, and it will be said that this is also included within the scope of the present invention.
2 : 차선
30 : 트랙
50 : 신호등
100 : 바디부
200 : 모터부
300 : 영상 모듈부
400 : 거리 감지부
500 : 제어부
600 : 입력부
700 : 각도 조절부
710 : 틸팅 플레이트
720 : 제1 기어
730 : 틸팅모터
800 : 기울기 센서2: lane
30: track
50: traffic light
100: body
200: motor part
300: image module unit
400: distance detection unit
500: control unit
600: input
700: angle adjustment unit
710: tilting plate
720: first gear
730: tilting motor
800: tilt sensor
Claims (8)
상기 바디부(100)의 전방 하측에 구비된 제1 모터(210)와, 후방 하측에 구비된 후륜(20)에 구동력을 제공하는 제2 모터(220)를 포함하는 모터부(200);
상기 바디부(100)에 구비되고, 상기 바디부(100)가 차선(2)이 표시된 트랙(30)을 따라 주행할 때 상기 바디부(100)의 전방에 대한 영상 정보를 제공하는 영상 모듈부(300);
상기 바디부(100)가 상기 차선(2)을 따라 이동할 때 전방 장애물의 유무 또는 장애물까지의 거리를 감지하는 거리 감지부(400);
상기 영상 모듈부(300)와 상기 거리 감지부(400)에서 입력된 데이터를 기반으로 관심 영역을 설정하고, 설정된 관심 영역을 X축과 Y축으로 각각 n등분한 그리드 데이터와 차선 데이터를 추출한 후에 이를 참가자에게 제공하는 제어부(500); 및
상기 참가자가 상기 제어부(500)를 통해 제공된 그리드 데이터와 차선 데이터를 이용하여 상기 자율 주행 차량(1)의 구동에 필요한 알고리즘을 직접 입력하기 위한 입력부(600)를 포함하는 자율 주행 차량용 키트 장치.A body portion 100 constituting the outer shape of the autonomous vehicle 1;
A motor unit 200 including a first motor 210 provided at a lower front side of the body 100 and a second motor 220 providing driving force to a rear wheel 20 provided at a lower rear side;
An image module unit provided in the body unit 100 and providing image information on the front of the body unit 100 when the body unit 100 travels along the track 30 marked with the lane 2 (300);
A distance sensing unit 400 for sensing the presence or absence of a front obstacle or a distance to the obstacle when the body unit 100 moves along the lane 2;
After setting the region of interest based on data input from the image module unit 300 and the distance sensing unit 400, and extracting grid data and lane data obtained by dividing the set region of interest into n equal parts on the X and Y axes, The control unit 500 for providing this to the participant; And
Kit apparatus for an autonomous vehicle comprising an input unit 600 for the participant to directly input an algorithm required for driving the autonomous vehicle 1 by using grid data and lane data provided through the control unit 500.
상기 바디부(100)의 전방에 설치되고, 상기 전방 트랙(30)의 기울기에 따라 상기 영상 모듈부(300)와 상기 거리 감지부(400)의 각도를 조절하기 위한 각도 조절부(700)가 구비된 자율 주행 차량용 키트 장치.The method of claim 1,
An angle adjusting part 700 installed in front of the body part 100 and configured to adjust an angle between the image module part 300 and the distance sensing part 400 according to the inclination of the front track 30 Kit equipment for self-driving vehicles equipped.
상기 입력된 데이터 중 상기 자율 주행 차량의 주행에 필요한 관심 영역을 설정하는 제2 단계(ST200);
상기 설정된 관심 영역에서 상기 자율 주행 차량의 주행에 필요한 차선 데이터를 참가자에게 제공하기 위해 상기 관심 영역에 형성된 차선을 추출하기 위한 경계점을 설정하는 제3 단계(ST300);
상기 설정된 경계점에서 직선 데이터만을 추출하는 제4 단계(ST400);
상기 추출된 직선 데이터 중 차선 데이터만 검출한 후에 설정된 관심 영역의 XY축에서 그리드 데이터를 검출하는 제5 단계(ST500)
상기 그리드 데이터와 함께 상기 검출된 차선 데이터가 상기 참가자에게 제공되고, 상기 참가자는 검출된 차선 데이터 정보를 선택적으로 조정하는 제6 단계(ST600);
상기 참가자가 선택한 명령에 따라 상기 자율 주행 차량으로 주행 명령이 전송되고, 상기 자율 주행 차량은 트랙에 표시된 차선을 따라 주행이 이루어지는 제7 단계(ST600);
상기 차선을 따라 주행하는 도중 신호등을 감지하여 주행 상태를 결정하는 제8 단계(ST700); 및
상기 자율 주행 차량이 주행도중 돌발 상황 또는 장애물이 발견될 경우 주행 상태를 제어하는 제9 단계(ST800)를 포함하는 자율 주행 차량용 키트 장치의 제어 방법.The first step of receiving data necessary for driving of the autonomous vehicle through a sensor in order to experience the driving of the autonomous vehicle by individually directly manipulating the algorithm for the autonomous vehicle to travel along the track ( ST100);
A second step (ST200) of setting an ROI required for driving of the autonomous vehicle among the input data;
A third step (ST300) of setting a boundary point for extracting a lane formed in the region of interest to provide the participant with lane data necessary for driving of the autonomous vehicle in the set region of interest;
A fourth step (ST400) of extracting only straight line data from the set boundary point;
A fifth step (ST500) of detecting grid data in the XY axis of a set region of interest after detecting only lane data among the extracted straight line data (ST500)
A sixth step (ST600) of providing the detected lane data along with the grid data to the participant, and selectively adjusting the detected lane data information by the participant;
A seventh step (ST600) in which a driving command is transmitted to the autonomous vehicle according to the command selected by the participant, and the autonomous vehicle is driven along a lane marked on a track;
An eighth step (ST700) of determining a driving state by detecting a traffic light while driving along the lane; And
A control method of a kit apparatus for an autonomous vehicle comprising a ninth step (ST800) of controlling a driving state when an unexpected situation or an obstacle is found in the autonomous vehicle while driving.
상기 제1 단계(ST100)는 상기 자율 주행 차량의 전방 영역에 대한 영상 정보 데이터와, 상기 자율 주행 차량의 전방 영역에 대한 거리 정보 데이터를 포함하고,
상기 제1 단계(ST100)는 차선과 차선 이외의 영역에 대한 감도 차이를 조정하는 감도 조정 단계(ST110);
상기 센서 중 영상 정보를 제공하는 영상 모듈부의 렌즈를 경유하면서 발생되는 렌즈 왜곡(lens distortion)을 계산한 후에 왜곡을 보정하는 왜곡 보정 단계(ST120)를 더 포함하는 자율 주행 차량용 키트 장치의 제어 방법.The method of claim 3,
The first step (ST100) includes image information data on a front area of the autonomous vehicle and distance information data on a front area of the autonomous vehicle,
The first step (ST100) includes a sensitivity adjustment step (ST110) of adjusting a difference in sensitivity between a lane and an area other than the lane;
A method of controlling an autonomous vehicle kit apparatus further comprising a distortion correction step (ST120) of correcting the distortion after calculating lens distortion generated while passing through a lens of an image module unit providing image information among the sensors.
상기 제3 단계(ST300)는 상기 영상 정보 데이터를 통해 입력된 컬러 영상 데이터를 그레이 컬러(gray color) 영상 데이터로 변경하는 단계(ST310);
상기 그레이 컬러(gray color) 영상 데이터 중 연속적으로 연장된 차선에 해당되는 차선 데이터만을 추출하기 위해 상기 그레이 컬러(gray color) 영상 데이터에서 상기 차선에 해당되지 않는 노이즈를 제거하기 위해 블러링(blurring)을 통해 노이즈 필터링을 실시하는 제1 노이즈 필터링 단계(ST320)를 포함하는 자율 주행 차량용 키트 장치의 제어 방법.The method of claim 4,
The third step (ST300) includes changing color image data input through the image information data into gray color image data (ST310);
Blurring to remove noise that does not correspond to the lane from the gray color image data to extract only lane data corresponding to a continuously extended lane among the gray color image data Control method of a kit device for an autonomous vehicle comprising a first noise filtering step (ST320) performing noise filtering through.
상기 제4 단계(ST400)는 호프 변환을 통해 경계점에서 차선에 해당되는 직선 데이터를 추출하기 위한 파라미터를 설정하는 단계(ST410);
상기 설정된 파라미터에 의해 최종 차선 데이터만을 추출하는 단계(ST420)를 포함하는 자율 주행 차량용 키트 장치의 제어 방법.The method of claim 3,
The fourth step (ST400) includes setting a parameter for extracting straight line data corresponding to a lane from a boundary point through a hop transformation (ST410);
A method of controlling a kit for an autonomous vehicle comprising the step of extracting only the final lane data based on the set parameter (ST420).
상기 제5 단계(ST500)는 좌측 상단을 원점으로 하여 오른쪽 방향을 x축의 양의 방향으로 하고 아래쪽을 y축의 양의 방향으로 하는 영상 좌표계에서 추출된 직선 데이터로부터 주행에 필요한 전방 차선, 좌측 차선, 우측 차선 데이터만을 선별하여 데이터를 제공하는 단계(ST510)를 포함하는 자율 주행 차량용 키트 장치의 제어 방법.The method of claim 3,
In the fifth step (ST500), a front lane, a left lane required for driving, and a left lane, required for driving, are extracted from the straight line data extracted from the image coordinate system in which the right direction is the positive x-axis direction and the bottom is the positive y-axis direction with the upper left as the origin Control method of a kit for an autonomous vehicle comprising the step of selecting only right lane data and providing data (ST510).
상기 제6 단계(ST600)는 상기 참가자가 상기 차선 데이터 정보와 함께 상기 트랙의 레이 아웃과 상기 자율 주행 차량의 구동 모드를 임의의 설정값으로 조절하되,
복수의 참가자가 각각 서로 다른 설정값으로 조절이 이루어지는 것을 특징으로 하는 자율 주행 차량용 키트 장치의 제어 방법.
The method of claim 3,
In the sixth step (ST600), the participant adjusts the layout of the track and the driving mode of the autonomous vehicle to an arbitrary set value together with the lane data information,
A method of controlling a kit for an autonomous vehicle, characterized in that a plurality of participants are each adjusted to different set values.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190085528A KR102217388B1 (en) | 2019-07-16 | 2019-07-16 | Kit device for automatic truck car and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190085528A KR102217388B1 (en) | 2019-07-16 | 2019-07-16 | Kit device for automatic truck car and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210009032A true KR20210009032A (en) | 2021-01-26 |
KR102217388B1 KR102217388B1 (en) | 2021-02-18 |
Family
ID=74310075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190085528A KR102217388B1 (en) | 2019-07-16 | 2019-07-16 | Kit device for automatic truck car and control method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102217388B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210148467A (en) * | 2020-05-28 | 2021-12-08 | 금오공과대학교 산학협력단 | Mobile bed autonomous traveling system that enables basic diagnosis of patients |
CN114355908A (en) * | 2021-12-22 | 2022-04-15 | 无锡江南智造科技股份有限公司 | Navigation optimization method based on feature recognition |
CN117876374A (en) * | 2024-03-13 | 2024-04-12 | 西安航科创星电子科技有限公司 | Metal slurry wiring hole filling and monitoring method for HTCC ceramic |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060088383A (en) * | 2005-02-01 | 2006-08-04 | 한국과학기술원 | Educational system for drawing up icon-based robot control program and its method |
KR101121777B1 (en) | 2010-04-14 | 2012-06-12 | 숭실대학교산학협력단 | Lane detection method |
KR20160125803A (en) * | 2015-04-22 | 2016-11-01 | 국방과학연구소 | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest |
-
2019
- 2019-07-16 KR KR1020190085528A patent/KR102217388B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060088383A (en) * | 2005-02-01 | 2006-08-04 | 한국과학기술원 | Educational system for drawing up icon-based robot control program and its method |
KR101121777B1 (en) | 2010-04-14 | 2012-06-12 | 숭실대학교산학협력단 | Lane detection method |
KR20160125803A (en) * | 2015-04-22 | 2016-11-01 | 국방과학연구소 | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210148467A (en) * | 2020-05-28 | 2021-12-08 | 금오공과대학교 산학협력단 | Mobile bed autonomous traveling system that enables basic diagnosis of patients |
CN114355908A (en) * | 2021-12-22 | 2022-04-15 | 无锡江南智造科技股份有限公司 | Navigation optimization method based on feature recognition |
CN117876374A (en) * | 2024-03-13 | 2024-04-12 | 西安航科创星电子科技有限公司 | Metal slurry wiring hole filling and monitoring method for HTCC ceramic |
CN117876374B (en) * | 2024-03-13 | 2024-05-28 | 西安航科创星电子科技有限公司 | Metal slurry wiring hole filling and monitoring method for HTCC ceramic |
Also Published As
Publication number | Publication date |
---|---|
KR102217388B1 (en) | 2021-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102217388B1 (en) | Kit device for automatic truck car and control method | |
US8170752B2 (en) | Parking assistance apparatus, vehicle-side apparatus of parking assistance apparatus, parking assist method, and parking assist program | |
US10328932B2 (en) | Parking assist system with annotated map generation | |
EP2416558A1 (en) | Calibration indicator used for calibration of onboard camera, calibration method of onboard camera using calibration indicator, and program for calibration device of onboard camera using calibration indicator | |
US9165468B2 (en) | Video based intelligent vehicle control system | |
US9280824B2 (en) | Vehicle-surroundings monitoring device | |
JP4093208B2 (en) | Vehicle runway determination device | |
JP3951465B2 (en) | Parking assistance device | |
EP3436879A1 (en) | An autonomous vehicle with improved visual detection ability | |
JP6459205B2 (en) | Vehicle display system | |
DE102018220325A1 (en) | projection device | |
US20050125121A1 (en) | Vehicle driving assisting apparatus | |
DE102018220296A1 (en) | Vehicle control unit and method | |
US7751958B2 (en) | White-line display apparatus for a vehicle | |
KR20110113185A (en) | Method and device for determining an applicable lane marker | |
JP6512475B2 (en) | INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM | |
JP4075026B2 (en) | Vehicle obstacle warning device | |
WO2019105665A1 (en) | Parking assist method and apparatus | |
US20110157184A1 (en) | Image data visualization | |
JP6375816B2 (en) | Vehicle peripheral information display system and display device | |
JP6657034B2 (en) | Abnormal image detection device, image processing system provided with abnormal image detection device, and vehicle equipped with image processing system | |
DE102018220279A1 (en) | IMAGING APPARATUS AND METHOD | |
EP1017036A1 (en) | Method and apparatus for detecting deviation of automobile from lane | |
US20070104352A1 (en) | White-line display apparatus for a vehicle | |
DE102018220282A1 (en) | VEHICLE PARK UNIT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |