KR20220111749A - Tracking system for self driving cars - Google Patents
Tracking system for self driving cars Download PDFInfo
- Publication number
- KR20220111749A KR20220111749A KR1020210013874A KR20210013874A KR20220111749A KR 20220111749 A KR20220111749 A KR 20220111749A KR 1020210013874 A KR1020210013874 A KR 1020210013874A KR 20210013874 A KR20210013874 A KR 20210013874A KR 20220111749 A KR20220111749 A KR 20220111749A
- Authority
- KR
- South Korea
- Prior art keywords
- autonomous vehicle
- target
- vehicle
- tracking system
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000010363 phase shift Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2201/00—Application
- G05D2201/02—Control of position of land vehicles
- G05D2201/0213—Road vehicle, e.g. car or truck
Abstract
Description
본 발명은 자율주행 차량을 이용하여 목표물을 추적하는 자율주행 차량의 추적 시스템에 대한 것이다. The present invention relates to a tracking system for an autonomous vehicle that tracks a target using the autonomous vehicle.
자동차는 사용되는 원동기의 종류에 따라, 내연기관(internal combustion engine) 자동차, 외연기관(external combustion engine) 자동차, 가스터빈(gas turbine) 자동차 또는 전기자동차(electric vehicle) 등으로 분류될 수 있다.An automobile may be classified into an internal combustion engine automobile, an external combustion engine automobile, a gas turbine automobile, an electric vehicle, or the like, according to a type of a prime mover used.
자율주행 차량은 인간의 운전 없이 자동으로 주행할 수 있는 자동차이다. 무인자동차는 레이더, LIDAR(light detection and ranging), GPS, 카메라로 주위의 환경을 인식하여 목적지를 지정하는 것만으로 자율적으로 주행한다. 이미 실용화되고 있는 무인자동차로는 이스라엘 군에서 운용되는 미리 설정된 경로를 순찰하는 무인 차량과 국외 광산이나 건설 현장 등에서 운용되고 있는 덤프 트럭 등의 무인 운행 시스템 등이 있다.An autonomous vehicle is a vehicle that can drive automatically without human driving. Autonomous vehicles drive autonomously by recognizing their surroundings with radar, light detection and ranging (LIDAR), GPS, and cameras and specifying a destination. Unmanned vehicles that have already been put into practical use include unmanned vehicles that patrol preset routes operated by the Israeli military, and unmanned operation systems such as dump trucks operated in overseas mines and construction sites.
이러한 자율주행 차량의 첫 번째 핵심기술은 무인자동차 시스템과 Actual System이다. 실험실 내의 시뮬레이션뿐만 아니라 실제로 무인자동차 시스템을 구축하는 기술이며 구동장치인 가속기, 감속기 및 조향장치 등을 무인화 운행에 맞도록 구현하고, 무인자동차에 장착된 컴퓨터, 소프트웨어 그리고 하드웨어를 이용하여 제어를 가능하게 한다.The first core technologies of these autonomous vehicles are the driverless vehicle system and the actual system. It is a technology that not only simulates in the laboratory but also actually builds an unmanned car system. It implements the accelerator, reducer and steering device, which are driving devices, for unmanned operation, and enables control using the computer, software and hardware installed in the unmanned car. do.
두 번째 핵심기술은 비전, 센서를 이용하여 시각정보를 입력받고 처리하는 것이다. 무인화 운행을 위한 자율 주행의 기본이 되는 것으로, 영상정보를 받아들이고 이 영상 중에서 필요한 정보를 추출해내는 기술이다. 이것은 CCD(charge-coupled device) 카메라뿐만 아니라 초음파 센서 및 레인지 필더 등의 센서를 사용하여 거리와 주행에 필요한 정보를 융합하여 분석 및 처리를 통해 장애물 회피와 돌발상황에 대처할 수 있게 한다.The second core technology is to receive and process visual information using vision and sensors. As the basis of autonomous driving for unmanned driving, it is a technology that accepts image information and extracts necessary information from the image. It uses CCD (charge-coupled device) cameras as well as ultrasonic sensors and range filters to fuse information necessary for distance and driving, so that it can avoid obstacles and cope with unexpected situations through analysis and processing.
세 번째 핵심기술은 통합관제 시스템과 운행감시 고장진단체계 기술이다. 이 기술은 차량의 운행을 감시하고 수시로 바뀌는 상황에 따라 적절한 명령을 내리는 운행감시체계를 구축하고, 개별적 프로세서 및 센서에서 발생되는 여러 상황을 분석하여 시스템의 고장을 진단하여 오퍼레이터에 대한 적절한 정보를 제공하거나 경보를 알리는 기능을 수행할 수 있게 한다.The third core technology is the integrated control system and operation monitoring fault diagnosis system technology. This technology establishes a driving monitoring system that monitors the operation of the vehicle and gives appropriate commands according to the changing conditions, and provides appropriate information to the operator by analyzing various situations occurring from individual processors and sensors to diagnose system failures. or to perform the function of notifying an alarm.
네 번째 핵심기술은 지능제어 및 지능운행 장치이다. 이 기술은 무인운행기법으로 실제 차량모델을 이용한 수학적인 해석에 근거하여 제어명령을 생성하여 현재 무인자동차에 적용되고 있는 첫 번째 적용기술은 지능형 순향제어(ACC: Adaptive Cruise Control) 시스템이다. 지능형 순향제어는 레이더 가이드 기술에 기반을 두고 운전자가 페달을 조작하지 않아도 스스로 속도를 조절하여 앞차 또는 장애물과의 거리를 유지시켜주는 시스템이다. 운전자가 앞차와의 거리를 입력하면 자동차 전면에 부착된 장거리 레이더가 앞차의 위치를 탐지하여 일정속도를 유지하거나 감속, 가속하며 필요한 경우 완전히 정지하여 시야확보가 어려운 날씨에 유용하다.The fourth core technology is intelligent control and intelligent operation devices. This technology is an unmanned driving technique that generates control commands based on mathematical analysis using real vehicle models. Intelligent Forward Control is a system that maintains the distance from the vehicle in front or obstacles by adjusting the speed by itself without the driver operating the pedals based on radar guide technology. When the driver inputs the distance to the vehicle in front, the long-range radar attached to the front of the vehicle detects the position of the vehicle in front, maintains a constant speed, decelerates, accelerates, and stops completely if necessary, which is useful in weather where visibility is difficult.
다섯 번째 적용기술은 차선이탈방지 시스템이다. 이는 내부에 달린 카메라가 차선을 감지하여 의도하지 않은 이탈 상황을 운전자에게 알려주는 기술로 무인자동차에서는 도보와 중앙선을 구분하여 자동차가 차선을 따라 안전하게 주행할 수 있도록 해준다.The fifth applied technology is the lane departure prevention system. This is a technology that notifies the driver of an unintentional departure situation by detecting a lane with a camera installed inside.
여섯 번째 적용기술은 주차보조 시스템이다. 이는 운전자가 어시스트 버튼을 탐색한 수 후진기어를 넣고 브레이크 페달을 밟으면 자동차가 조향장치 조절하여 후진 일렬주차를 도와주는 시스템이다. 차량 장착형 센서뿐만 아니라 인프라를 기반으로 출발지에서 주차공간까지 차량을 자동으로 유도하여 주차 시 불필요하게 소모되는 시간과 에너지를 절약해주어 소요비용과 환경오염을 최소화 해준다.The sixth application technology is the parking assist system. This is a system that helps the car park in reverse line by adjusting the steering system when the driver presses the brake pedal after searching for the assist button and inserts the reverse gear. Based on infrastructure as well as vehicle-mounted sensors, the vehicle is automatically guided from the departure point to the parking space, saving unnecessary time and energy when parking, thereby minimizing cost and environmental pollution.
일곱 번째 적용기술은 자동주차 시스템이다. 이는 운전자가 주차장 앞에 차를 정지시킨 뒤 엔진을 끄고 내려서 리모콘 잠금 스위치를 2회 연속 누르면 자동차에 설치된 카메라가 차고의 반대편 벽에 미리 붙여놓은 반사경을 탐지해 적정한 접근 경로를 계산하여 스스로 주차를 하는 기술이다.The seventh application technology is the automatic parking system. This is a technology in which the driver stops the car in front of the parking lot, turns off the engine, gets off, and presses the remote control lock switch twice in succession. to be.
여덟 번째 적용 기술은 사각지대 정보 안내 시스템이다. 이는 자동차의 양측면에 장착된 센서가 사이드 미러로 보이지 않는 사각지대에 다른 차량이 있는지를 판단하여 운전자에게 경고를 해주는 것으로 복잡한 도로 상황에서 양측의 장애물 및 차량을 확인하여 차선을 변경하는 용도로 사용된다.The eighth application technology is the blind spot information guidance system. It is used to change lanes by checking obstacles and vehicles on both sides in complex road conditions, as sensors mounted on both sides of the car determine whether there are other vehicles in the blind spot that cannot be seen through the side mirrors and warn the driver. .
자율주행의 가장 큰 장점은 주행속도와 교통 관리 자료가 일치하기 때문에 조절장치를 더욱 고르게 하여 반복정지를 피해 연료 효율에 도움을 준다는 것과 노인, 아동, 장애인 등 운전을 할 수 없는 이들도 이용할 수 있다는 것이다. 이외에도 장시간 운전으로 인한 피로를 해결해주고, 교통사고의 위험을 크게 줄일 수 있는 것과 도로의 교통 흐름이 빨라지고 교통 혼잡을 줄일 수 있다는 장점이 있다.The biggest advantage of autonomous driving is that it helps fuel efficiency by avoiding repeated stops by making the control device more even because the driving speed and traffic management data match. will be. In addition, it has the advantages of solving fatigue caused by long-term driving, greatly reducing the risk of traffic accidents, speeding up road traffic flow, and reducing traffic congestion.
최근에는 이러한 자율주행 차량에 따라 수많은 새로운 용도가 발생될 것으로 보인다. 즉, 종래에는 차량이 목적지를 가기 위한 도구 개념에 불과했지만 운전이 생략되기 때문에 목적지 개념이 없는 운행도 생길 것으로 관측된다. 더욱 상세하게 사람을 찾는다거나 어떤 목표물을 찾기 위한 자율주행의 필요성도 있을 것이다. 그러나 아직까지는 선행기술문헌에서와 같이 자율주행 자체를 위한 장애물을 추적하는 방법만이 개시된 실정이다. In recent years, it is expected that many new uses will be created for these autonomous vehicles. That is, conventionally, the vehicle is only a tool concept for going to a destination, but since driving is omitted, it is observed that there will be a driving without a destination concept. There will also be a need for autonomous driving to find people in more detail or to find certain targets. However, only a method for tracking obstacles for autonomous driving itself has been disclosed as in the prior art literature.
본 발명은 상기한 종래기술의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 사람이나 목표물을 추적하기 위해 자율주행 차량을 이용하는 자율주행 차량의 추적 시스템을 제공한다. SUMMARY OF THE INVENTION The present invention is to solve the problems of the prior art, and an object of the present invention is to provide a tracking system for an autonomous vehicle that uses the autonomous vehicle to track a person or a target.
본 발명의 일 측면에 따른 자율주행 차량의 추적 시스템은 영상을 수집하여 목표물을 추적하는 관제서버, 상기 관제서버가 포착한 목표물의 위치를 경유지로 설정하는 자율주행 차량을 포함한다. A tracking system for an autonomous vehicle according to an aspect of the present invention includes a control server that tracks a target by collecting images, and an autonomous vehicle that sets the location of the target captured by the control server as a stopover.
이때, 상기 관제서버는 목표물의 위치할 것으로 예상되는 장소의 영상을 취득하는 영상수집모듈을 포함하고, 상기 영상수집모듈은 고정식 촬상장치와 비고정식 촬상장치에 의해 영상을 수집할 수 있다. In this case, the control server may include an image collection module for acquiring an image of a place where the target is expected to be located, and the image collection module may collect images by a stationary imaging device and a non-stationary imaging device.
또한, 상기 비고정식 촬상장치는 고정식 촬상장치가 촬상가능한 영역 이외의 영상을 수집할 수 있다. In addition, the non-fixed image pickup device may collect images other than an imageable area of the fixed image pickup device.
또한, 상기 관제서버는 수집된 영상을 판독하여 예비 목표물을 확정하고, 상기 예비 목표물의 정보를 상기 자율주행 차량에 송신할 수 있다. In addition, the control server may determine a preliminary target by reading the collected image, and transmit information on the preliminary target to the autonomous vehicle.
또한, 상기 자율주행 차량은 수신된 예비 목표물 중 적어도 하나를 선택하고 선택된 예비 목표물의 위치를 경유지로 설정할 수 있다. Also, the autonomous vehicle may select at least one of the received preliminary targets and set the location of the selected preliminary target as a waypoint.
또한, 상기 경유지는 예상 중심지로부터의 반경이 추적 진행 시간이 경과함에 따라 커질 수 있다. In addition, the radius of the waypoint from the expected center may increase as the tracking progress time elapses.
본 발명은 관제서버가 CCTV와 드론을 통해 예비 목표물의 영상을 취득하고 그 예비 목표물이 위치한 장소로 자율주행 차량이 신속하게 이동하게 되므로 현저하게 신속한 목표물의 추적이 가능하다. According to the present invention, since the control server acquires the image of the preliminary target through CCTV and the drone, and the autonomous vehicle quickly moves to the location where the preliminary target is located, it is possible to track the target remarkably quickly.
도 1은 본 발명의 일 실시예에 따른 자율주행 차량의 추적 시스템의 구성도이다.
도 2는 도 1에서의 감지부를 더욱 상세히 도시한 구성도이다.
도 3은 도 1에서의 제어부를 더욱 상세히 도시한 구성도이다.
도 4는 도 1에서의 관제서버를 더욱 상세히 도시한 구성도이다.
도 5는 본 발명의 일 실시예에 따른 자율주행 차량의 추적 시스템의 작용을 예시하는 도면이다. 1 is a configuration diagram of a tracking system for an autonomous vehicle according to an embodiment of the present invention.
FIG. 2 is a configuration diagram illustrating the sensing unit of FIG. 1 in more detail.
FIG. 3 is a configuration diagram illustrating the control unit in FIG. 1 in more detail.
4 is a configuration diagram illustrating the control server in FIG. 1 in more detail.
5 is a diagram illustrating an operation of a tracking system for an autonomous vehicle according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.
또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted.
또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the possibility of addition or existence of numbers, steps, operations, components, parts, or combinations thereof.
이하, 본 발명의 일 실시예에 따른 자율주행 차량의 추적 시스템을 설명한다. 도 1은 본 발명의 일 실시예에 따른 자율주행 차량의 추적 시스템의 구성도이고, 도 2는 도 1에서의 감지부를 더욱 상세히 도시한 구성도이며, 도 3은 도 1에서의 제어부를 더욱 상세히 도시한 구성도이고, 도 4는 도 1에서의 관제서버를 더욱 상세히 도시한 구성도이다. Hereinafter, a system for tracking an autonomous vehicle according to an embodiment of the present invention will be described. 1 is a configuration diagram of a tracking system for an autonomous vehicle according to an embodiment of the present invention, FIG. 2 is a configuration diagram illustrating the sensing unit in FIG. 1 in more detail, and FIG. 3 is a diagram illustrating the control unit in FIG. 1 in more detail It is a configuration diagram shown, and FIG. 4 is a configuration diagram showing the control server in FIG. 1 in more detail.
도면을 참조하면, 우선 본 발명의 일 실시예에 따른 자율주행 차량의 추적 시스템(1000)은 크게 자율주행 차량(100)과 관제서버(200)를 포함하여 이루어진다. 이때 관제서버(200)는 자율주행 차량(10)이 목표물을 찾기 위한 사전 탐사를 수행하고 예상 목표물을 선정하여 자율주행 차량(10)의 경유지가 목표물이 있는 장소로 설정되도록 한다. Referring to the drawings, first, a
더욱 상세하게 본 실시예에 따른 추적 시스템(1000)은 관제서버가 영상을 수집하여 목표물을 추적하고 관제서버(200)가 포착한 목표물의 위치를 경유지로 설정하여 자율주행 차량(100)이 구동된다. 이를 위해 자율주행 차량(100)은 입력부(110), 감지부(120), 출력부(130), 제어부(140), 통신부(150) 및 구동부(160)로 이루어진다. In more detail, in the
입력부(110)는 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우 자율주행 차량(100)의 입력부(110)는 조향 입력 장치, 가속 입력 장치, 브레이크 입력 장치를 포함할 수 있다. 또한, 입력부(110)는 자율주행 차량의 목적지를 입력하는 역할을 하고 입력된 목적지에 따라 제어부(140)가 구동을 제어하거나 서버(200)로부터 정보를 수신받아 경로를 연속적으로 설정하게 된다. 다만 본 실시예에서는 전술한 바와 같이 관제서버가 추적한 예상 목표물의 위치가 통신부(150)에 의해 수신된 후 자동으로 입력되는 것이 바람직하다. The
감지부(120)는 레이더(121) 및 라이다(122)를 포함하고, 카메라(123)를 더 포함하여 이루어질 수 있다. 우선, 레이더(121)는 전파를 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 레이더(121)는 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. The
레이더(121)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이더(121)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이더(121)는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 이때 레이더(121)는 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.The radar 121 may be implemented in a pulse radar method or a continuous wave radar method in view of a radio wave emission principle. The radar 121 may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods. The radar 121 detects an object based on a time of flight (TOF) method or a phase-shift method using an electromagnetic wave as a medium, and calculates the position of the detected object, the distance to the detected object, and the relative speed. can be detected. In this case, the radar 121 may be disposed at an appropriate position outside the vehicle in order to detect an object located in the front, rear, or side of the vehicle.
라이다(122)는 레이저 광을 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 라이다(122)는 광 송신부(미도시), 광 수신부(미도시) 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. The lidar 122 may generate information about an object outside the
라이다(122)는 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다(122)는 구동식 또는 비구동식으로 구현될 수 있는데, 구동식으로 구현되는 경우 라이다(122)는 모터에 의해 회전되며 자율주행 차량(100) 주변의 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다(122)는 광 스티어링에 의해 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 자율주행 차량(100)은 복수의 비구동식 라이다를 포함할 수 있다. 라이다(122)는 레이저 광 매개로 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 이때 라이다(122)는 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.The lidar 122 may be implemented in a time of flight (TOF) method or a phase-shift method. The lidar 122 may be implemented as a driving type or a non-driven type. When the lidar 122 is implemented as a driving type, the lidar 122 is rotated by a motor and may detect an object around the
한편, 카메라(123)는 영상을 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 이때 카메라(123)는 차량 외부의 목표물에 대하여 촬상할 수 있다. Meanwhile, the camera 123 may generate information about an object outside the
카메라(123)는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.The camera 123 may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor to process a received signal, and generate data about the object based on the processed signal. can
카메라(123)는 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라(123)는 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보, 오브젝트와의 상대 속도 정보, 오브젝트의 모션 정보 등을 획득할 수 있다. The camera 123 may be at least one of a mono camera, a stereo camera, and an Around View Monitoring (AVM) camera. The camera 123 may acquire position information of an object, information on a distance to an object, information on a relative speed with respect to an object, motion information of an object, and the like by using various image processing algorithms.
예를 들어, 카메라(123)는 획득된 영상에서 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 또한, 카메라(123)는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다.For example, the camera 123 may acquire distance information and relative velocity information from an object based on a change in the size of the object over time in the acquired image. Also, the camera 123 may acquire distance information and relative speed information with respect to an object through a pinhole model, road surface profiling, or the like.
또한, 카메라(123)는 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보, 상대 속도 정보와 타인의 손짓이나 몸짓 등의 모션에 대한 기초 정보를 획득할 수 있다. In addition, the camera 123 may acquire basic information about motion, such as distance information, relative speed information, and other people's hand gestures or gestures, based on disparity information in the stereo image obtained from the stereo camera. have.
카메라(123)는 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 카메라(123)는 차량 전방의 영상을 획득하기 위해 차량의 실내에서 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 나아가 카메라(123)는 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라(123)는 차량 후방의 영상을 획득하기 위해 차량의 실내에서 리어 글라스에 근접하게 배치될 수 있다. 이때, 카메라(123)는 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라(123)가 차량 측방의 영상을 획득하기 위해서는 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는 카메라(123)는 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다. The camera 123 may be mounted at a position where a field of view (FOV) can be secured in the vehicle to photograph the outside of the vehicle. The camera 123 may be disposed adjacent to the front windshield in the interior of the vehicle to acquire an image of the front of the vehicle. Furthermore, the camera 123 may be disposed around the front bumper or radiator grill. The camera 123 may be disposed adjacent to the rear glass in the interior of the vehicle to acquire an image of the rear of the vehicle. In this case, the camera 123 may be disposed around the rear bumper, the trunk, or the tailgate. In order for the camera 123 to acquire an image of the side of the vehicle, it may be disposed adjacent to at least one of the side windows in the interior of the vehicle. Alternatively, the camera 123 may be disposed around a side mirror, a fender, or a door.
한편, 본 실시예에서는 레이더(121), 라이다(122) 및 카메라(123)는 관제서버가 전송한 목표물의 영상에는 해당 위치의 특정 오브젝트가 포함되어 있으므로 실제로 해당 위치에서 오브젝트를 인식하여 목적지에 정확하게 도달했는지 여부를 판단하도록 할 수 있다. Meanwhile, in this embodiment, the radar 121, lidar 122, and camera 123 include a specific object at the corresponding position in the image of the target transmitted by the control server. It can be used to determine whether or not it has been correctly reached.
또한, 감지부(120)는 자율주행 차량의 위치 정보를 활용해야 되므로 GPS(124)를 필수적으로 더 포함한다. 본 실시예에서는 관제센터에서 목표물을 추적하는 경우에 목표물의 GPS 좌표를 생성하고 자율주행 차량은 본 GPS 좌표를 경유지로 설정하여 운행한다. In addition, since the
GPS(124)는 자율주행 차량(100)의 위치 데이터를 생성하는데 일반적인 GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 이러한 GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 자율주행 차량(100)의 위치 데이터를 생성할 수 있다. The
이때, GPS(124)는 IMU(Inertial Measurement Unit) 및 감지부(120)의 카메라(123) 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다. 또한, GPS(124)는 GNSS(Global Navigation Satellite System)로 명명될 수 있다.In this case, the
한편, 감지부(120)는 탑승자가 조향 작동을 수행하지 않더라도 음성 등으로 보호자 이외에 탑승객도 자율주행에 개입하기 위해 마이크(125)를 더 구비할 수 있다. 또한, 본 실시예에 따른 마이크(125)는 차량 외부에 있는 타인의 음성을 정보를 획득한다. 이는 타인의 음성으로 이루어진 명령을 수집하기 위함이다. On the other hand, the
나아가 생체정보센서(126)은 탑승객의 심박, 협압, 뇌파 등을 센싱하여 위급상황에 대비하도록 할 뿐만 아니라 부가적으로 차량의 입출입 시 지문, 홍채 정보를 센싱하여 오류 탑승을 막는 기능도 별도로 수행할 수 있다. 이러한 생체정보센서(126)를 활용하여 자율주행 차량(100)은 탑승객이 탑승하거나 하차한 것을 감지할 수 있다. Furthermore, the biometric information sensor 126 not only senses the passenger's heartbeat, pinch pressure, brain waves, etc. to prepare for an emergency, but additionally senses fingerprint and iris information when entering and exiting the vehicle to prevent erroneous boarding. can By utilizing the biometric information sensor 126 , the
출력부(130)는 자율주행 차량(100)의 내부 또는 외부에 배치되어 주행 관련 상황을 표시하고 나아가 차량의 외부에 형상, 모양 및 색체 중 어느 하나가 디스플레이되도록 하여 차량의 소유자 및 주위의 타인에게 예측 가능성을 제공하도록 할 수 있다. The
더욱 상세하게 본 실시예에 따른 출력부(130)는 사람을 추적하는 경우에는 관제서버로부터 그 사람의 이미지를 수신받아 차량의 외부에 그 이미지를 출력하여 주위 다른 사람의 도움을 요청하도록 할 수 있다. In more detail, when tracking a person, the
한편, 제어부(140)는 구동제어모듈(141)과 입출력제어모듈(142), 및 경로판단모듈(143)을 포함하여 이루어진다. Meanwhile, the
우선 구동제어모듈(141)은 메인 ECU로 구성될 수 있는데 자율주행 차량(100)의 구동부(160)를 제어하게 된다. 이때, 구동제어모듈(141)은 파워 트레인 구동 제어 장치, 샤시 구동 제어 장치, 도어/윈도우 구동 제어 장치, 안전 장치 구동 제어 장치, 램프 구동 제어 장치 및 공조 구동 제어 장치를 포함할 수 있다. 파워 트레인 구동 제어 장치는 동력원 구동 제어 장치 및 변속기 구동 제어 장치를 포함할 수 있다. 샤시 구동 제어 장치는, 조향 구동 제어 장치, 브레이크 구동 제어 장치 및 서스펜션 구동 제어 장치를 포함할 수 있다. 한편, 안전 장치 구동 제어 장치는 안전 벨트 제어를 위한 안전 벨트 구동 제어 장치를 포함할 수 있다.First, the driving control module 141 may be configured as a main ECU, and controls the driving unit 160 of the
또한 구동제어모듈(141)는 적어도 하나의 전자적 제어 장치(예를 들면, 제어 ECU(Electronic Control Unit))를 포함한다. 특히 수신되는 신호에 기초하여, 차량 구동 장치를 제어할 수 있다. 예를 들면, 구동제어모듈(141)는 감지부(120)에서 수신되는 신호에 기초하여, 파워 트레인, 조향 장치 및 브레이크 장치를 제어할 수 있다. In addition, the driving control module 141 includes at least one electronic control device (eg, a control ECU (Electronic Control Unit)). In particular, on the basis of the received signal, it is possible to control the vehicle drive unit. For example, the driving control module 141 may control a power train, a steering device, and a brake device based on a signal received from the
입출력제어모듈(142)는 전술한 출력부(130)를 제어하는데 목표물의 이미지, 및 목표물의 정보를 출력하고 이를 또 다른 자율주행 차량에서 전송하도록 통신부(150)를 제어하여 주위에 있는 다른 차량에서도 그 목표물의 이미지가 전송되어 내부적으로 열람하거나 외부적으로 마찬가지 방법으로 출력되도록 하여 목표물을 더욱 용이하게 찾을 수 있도록 한다. The input/output control module 142 controls the above-described
경로판단모듈(143)은 관제서버(200)가 송신한 예비 목표물 중에서 실제로 목표물과 흡사하다고 판단되는 것에 대한 선택이 이루어지는 경우에 그 예비 목표물이 있는 장소가 목적지 또는 경유지가 되도록 차량의 경로를 판단하는 역할을 수행한다. 이 경우 예비 목표물을 복수 개 선택하는 경우에는 이격된 거리에 따라 순차적으로 제1 경유지, 제2 경유지.. 등으로 산정하여 경로를 확정하게 된다. The path determination module 143 determines the path of the vehicle so that the place where the preliminary target is located is a destination or a waypoint, when a selection is made from among the preliminary targets transmitted by the
한편, 이 경우에 미아와 같이 움직이는 사람을 추적하는 경우에는 움직임을 반영하여 시간이 경과함에 따라 추적 반경이 커지게 된다. 따라서, 경로판단모듈(143)은 최초 미아가 발생한 장소를 예상 중심지로 하여 경유지까지의 반경이 점차 확대되도록 경유지를 설정하는 것이 바람직하다. On the other hand, in this case, when tracking a moving person like a lost child, the tracking radius increases as time passes by reflecting the movement. Therefore, it is preferable that the route determination module 143 sets the waypoint so that the radius to the waypoint gradually expands by taking the place where the first lost child occurs as the expected center.
통신부(150)는 자율주행 차량(100) 외부에 위치하는 관제서버(200), 타 차량, 단말기 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신부(150)는 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The communication unit 150 may exchange signals with at least one of the
예를 들어, 통신 장치는 C-V2X(Cellular V2X) 기술을 기반으로 외부 디바이스와 신호를 교환할 수 있다. 또한, 통신부(150)는 IEEE 802.11p PHY/MAC 계층 기술과 IEEE 1609 Network/Transport 계층 기술 기반의 DSRC(Dedicated Short Range Communications) 기술 또는 WAVE(Wireless Access in Vehicular Environment) 표준을 기반으로 외부 디바이스와 신호를 교환할 수 있다. For example, the communication apparatus may exchange a signal with an external device based on C-V2X (Cellular V2X) technology. In addition, the communication unit 150 is based on the IEEE 802.11p PHY / MAC layer technology and the IEEE 1609 Network / Transport layer technology based on DSRC (Dedicated Short Range Communications) technology or WAVE (Wireless Access in Vehicular Environment) standard based on the external device and signal can be exchanged for
한편, 관제서버(200)는 영상수집모듈(210) 및 영상판독모듈(220)을 포함하여 이루어진다. 영상수집모듈(210)은 폐쇄회로 카메라와 같은 고정식 촬상장치와 카메라가 구비된 드론과 같은 비고정식 촬상장치에 의해 영상을 수집한다. 이를 위해 영상수집모듈(210)은 추적 구역을 설정하여 고정식 촬상장치가 촬상 가능한 지역 이외의 영역에 대하여 드론의 구동신호를 생성하여 영상을 수집하도록 한다. Meanwhile, the
영상판독모듈(220)은 수집된 목표물 정보와 촬상한 이미지 또는 영상을 대비하여 목표물 인지 사전적으로 판단하게 된다. 영상판독모듈(220)은 이를 예비 목표물로 정의하고 자율주행 차량(100)에 송신하게 된다. 이 경우 예비 목표물은 다수개가 생성될 수 있으므로 그 다수개의 위치가 자율주행 차량의 경유지가 되어 주행 경로가 생성된다. The image reading module 220 compares the collected target information with the captured image or image to determine in advance whether the target is a target. The image reading module 220 defines this as a preliminary target and transmits it to the
이하, 본 발명의 작용을 예시한다. 도 5는 본 발명의 일 실시예에 따른 자율주행 차량의 추적 시스템의 작용을 설명하는 도면이다. Hereinafter, the operation of the present invention will be exemplified. 5 is a view for explaining an operation of a tracking system for an autonomous vehicle according to an embodiment of the present invention.
본 실시예에서는 미아가 발생하여 이를 추적하는 것을 작용으로 예시하였다. 미아가 발생된 경우에 그 정보가 관제서버로 보내지고 관제서버는 드론을 예상 중심지로 보내고 예비 목표물인 미아의 영상을 자율주행 차량으로 송신하게 되고 자율주행 차량은 미아의 위치를 경유지로 하여 구동되도록 제어되게 된다. 따라서, 드론에 의해 1차 추적 및 관련자에 의한 2차 추적에 따라 신속 정확한 목표물의 추적이 가능해 진다. In this embodiment, the occurrence of a missing child and tracking it was exemplified as an action. When a missing child occurs, the information is sent to the control server, the control server sends the drone to the expected center, and the image of the missing child, a preliminary target, is transmitted to the autonomous vehicle, and the autonomous vehicle is driven using the location of the missing child as a stopover. will be controlled Accordingly, it is possible to quickly and accurately track a target according to the primary tracking by the drone and the secondary tracking by the person concerned.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof.
또한, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.In addition, the present specification and drawings have been disclosed with respect to preferred embodiments of the present invention, and although specific terms are used, these are only used in a general sense to easily explain the technical content of the present invention and help the understanding of the present invention, It is not intended to limit the scope of the invention. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.
1000: 자율주행 차량의 추적 시스템
100: 자율주행 차량
110: 입력부
120: 감지부
130: 출력부
140: 제어부
150: 통신부
160: 구동부
200: 관제서버1000: tracking system of autonomous vehicle
100: autonomous vehicle
110: input unit
120: detection unit
130: output unit
140: control unit
150: communication department
160: driving unit
200: control server
Claims (6)
영상을 수집하여 목표물을 추적하는 관제서버;
상기 관제서버가 포착한 목표물의 위치를 경유지로 설정하는 자율주행 차량;
을 포함하는 것을 특징으로 하는 자율주행 차량의 추적 시스템.
In the tracking system of an autonomous vehicle,
a control server that tracks a target by collecting images;
an autonomous vehicle that sets the location of the target captured by the control server as a waypoint;
A tracking system for an autonomous vehicle comprising a.
상기 관제서버는 목표물의 위치할 것으로 예상되는 장소의 영상을 취득하는 영상수집모듈을 포함하고, 상기 영상수집모듈은 고정식 촬상장치와 비고정식 촬상장치에 의해 영상을 수집하는 것을 특징으로 하는 자율주행 차량의 추적 시스템.
According to claim 1,
The control server includes an image collection module that acquires an image of a place where the target is expected to be located, wherein the image collection module collects images using a fixed image pickup device and a non-stationary image pickup device. 's tracking system.
상기 비고정식 촬상장치는 고정식 촬상장치가 촬상가능한 영역 이외의 영상을 수집하는 것을 특징으로 하는 자율주행 차량의 추적 시스템.
3. The method of claim 2,
The non-stationary imaging device is a tracking system for an autonomous vehicle, characterized in that the stationary imaging device collects images other than an imageable area.
상기 관제서버는 수집된 영상을 판독하여 예비 목표물을 확정하고, 상기 예비 목표물의 정보를 상기 자율주행 차량에 송신하는 것을 특징으로 하는 자율주행 차량의 추적 시스템.
According to claim 1,
and the control server reads the collected image to determine a preliminary target, and transmits information on the preliminary target to the autonomous vehicle.
상기 자율주행 차량은 수신된 예비 목표물 중 적어도 하나를 선택하고 선택된 예비 목표물의 위치를 경유지로 설정하는 것을 특징으로 하는 자율주행 차량의 추적 시스템.
5. The method of claim 4,
The autonomous vehicle tracking system, characterized in that the autonomous vehicle selects at least one of the received preliminary targets and sets the location of the selected preliminary target as a waypoint.
상기 경유지는 예상 중심지로부터의 반경이 추적 진행 시간이 경과함에 따라 커지는 것을 특징으로 하는 자율주행 차량의 추적 시스템.
According to claim 1,
The tracking system of the autonomous vehicle, characterized in that the radius from the expected center increases as the tracking progress time elapses.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210013874A KR20220111749A (en) | 2021-02-01 | 2021-02-01 | Tracking system for self driving cars |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210013874A KR20220111749A (en) | 2021-02-01 | 2021-02-01 | Tracking system for self driving cars |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220111749A true KR20220111749A (en) | 2022-08-10 |
Family
ID=82846721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210013874A KR20220111749A (en) | 2021-02-01 | 2021-02-01 | Tracking system for self driving cars |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220111749A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102614378B1 (en) * | 2022-09-30 | 2023-12-15 | 한국전자기술연구원 | Autonomous vehicle location fine asynchronization method based on CCTV video |
-
2021
- 2021-02-01 KR KR1020210013874A patent/KR20220111749A/en not_active Application Discontinuation
Non-Patent Citations (1)
Title |
---|
한국등록특허 제10-1371718호(2014. 3. 10.), 차량의 주변 장애물 추적방법{TRACKING METHOD OF VEHICLE'S SURROUNDING OBSTACLES} |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102614378B1 (en) * | 2022-09-30 | 2023-12-15 | 한국전자기술연구원 | Autonomous vehicle location fine asynchronization method based on CCTV video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220111749A (en) | Tracking system for self driving cars | |
KR102658906B1 (en) | Emergency control system for self driving cars | |
KR102568270B1 (en) | Pedestrian communication system for self driving cars | |
KR102568283B1 (en) | Pedestrian communication system for self driving cars | |
KR20220115702A (en) | Pedestrian communication system for self driving cars | |
KR20220112310A (en) | Emergency control system for self driving cars | |
KR20220115690A (en) | Pedestrian safety system for self driving cars | |
KR20220115695A (en) | Accident prediction system for self driving cars | |
KR20220115689A (en) | Pedestrian safety system for self driving cars | |
KR20220112879A (en) | Temporory driving control system for self driving cars | |
KR20220115693A (en) | Emergency route generation system for self driving cars | |
KR20220115703A (en) | Pedestrian alert system for self driving cars | |
KR20220102670A (en) | Pedestrian alert system for self driving cars | |
KR20220115696A (en) | Pedestrian advertising system for self driving cars | |
KR20220115691A (en) | Traffic safety system by communication with self driving cars | |
KR20230033144A (en) | Blind Spot Warning System FOR SELF DRIVING CARS | |
KR20220112871A (en) | Dock driving method for self driving cars | |
KR20220112872A (en) | Rescue system for self driving cars | |
KR20230114778A (en) | Driving environment sharing system for autonomous vehicles | |
KR20230115353A (en) | Autonomous Driving Multimedia System | |
KR20230114773A (en) | Information entry system for self driving cars | |
KR20220115694A (en) | Group charging system for self driving cars | |
KR20230033148A (en) | Parking and exit system for self driving cars based on mutual communication | |
KR20220104079A (en) | Grouping system for self driving cars | |
KR20230114776A (en) | GROUP DRIVING system for autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |