KR20210027974A - Vehicle and controlling method of vehicle - Google Patents
Vehicle and controlling method of vehicle Download PDFInfo
- Publication number
- KR20210027974A KR20210027974A KR1020190109111A KR20190109111A KR20210027974A KR 20210027974 A KR20210027974 A KR 20210027974A KR 1020190109111 A KR1020190109111 A KR 1020190109111A KR 20190109111 A KR20190109111 A KR 20190109111A KR 20210027974 A KR20210027974 A KR 20210027974A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- vehicle
- unit
- learning
- control
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0052—Filtering, filters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/14—Cruise control
Abstract
Description
개시된 일 측면에 따른 차량은 차량의 자율주행에 관한 것이다. 구체적으로, 개시된 일 측면에 따른 차량은 차량이 자율주행 하는데 있어서, 주변 환경 영상을 촬영하고, 보정하는 것에 관한 것이다.The vehicle according to the disclosed aspect relates to autonomous driving of the vehicle. Specifically, the vehicle according to the disclosed aspect relates to capturing and correcting an image of a surrounding environment in the vehicle autonomously driving.
종래에 차량의 안전한 자율주행을 위하여 차량 주변의 환경을 영상으로 촬영하는 기술이 존재하였다. Conventionally, there has been a technology for capturing an environment around a vehicle as an image for safe autonomous driving of a vehicle.
구체적으로, 종래 기술은 사용자가 촬영된 영상을 인식하기 쉽게 하기 위해서, 촬영된 특정 영상을 처리하는 것이다.Specifically, in the prior art, in order to make it easier for a user to recognize a captured image, a specific captured image is processed.
그러나 상기와 같은 방법은 촬영된 영상에서 사용자가 특징점을 추출하고자 하는 목적과는 무관하게 단순한 영상처리만을 통하여 일반적인 특징점 만을 도출하는 문제점이 존재하였다.However, the above method has a problem of deriving only general feature points through simple image processing irrespective of the purpose for which the user wants to extract feature points from a captured image.
이에 차량의 자율주행에 있어서, 차량이 현재 주행중에 촬영한 화면 자체에서 사용자에게 필요한 특징점을 추출 하는 기술이 절실한 실정이다.Accordingly, in autonomous driving of a vehicle, there is an urgent need for a technology to extract feature points necessary for the user from the screen itself captured by the vehicle while the vehicle is currently driving.
상기와 같은 문제점을 해결하기 위하여, 개시된 일 측면은 인공 신경망을 통하여 차량 주변의 환경을 의미단위로 학습하고, 촬영된 영상을 학습된 의미단위로 분할하고, 이를 다시 복원하는 차량 및 차량의 제어방법을 제공한다.In order to solve the above problems, one aspect disclosed is a vehicle and a vehicle control method that learns the environment around the vehicle as a semantic unit through an artificial neural network, divides the captured image into the learned semantic unit, and restores it again. Provides.
개시된 일 측면에 따른 차량은 촬영된 영상을 표시하는 표시부; 주변 영상을 촬영하는 영상 촬영부; 촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하는 제1 인공 신경망; 상기 학습 결과에 기초하여 상기 촬영된 영상을 분할하고, 상기 분할된 영상에 검출 대상이 존재하는지 판단하고, 상기 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원하고, 상기 복원된 영상에 기초하여 가상 이미지를 생성하도록 상기 표시부를 제어하는 제어부;를 포함한다.A vehicle according to the disclosed aspect includes a display unit for displaying a photographed image; An image photographing unit for photographing surrounding images; A first artificial neural network that learns a semantic unit of an object present in the captured image by deep learning; Dividing the captured image based on the learning result, determining whether a detection target exists in the divided image, and highlighting the detection target by simplifying at least one of a pattern or shape of the detection target based on the determination result And a control unit for restoring the divided image into one image and controlling the display unit to generate a virtual image based on the restored image.
개시된 다른 측면에 따른 차량은, 상기 분할된 영상을 결합하도록 학습하는 제2 인공신경망;을 더 포함하고, 상기 제어부는, 상기 학습 결과에 기초하여 가상 이미지를 생성할 수 있다.The vehicle according to another disclosed aspect further includes a second artificial neural network that learns to combine the divided images, and the controller may generate a virtual image based on the learning result.
상기 제어부는, 상기 분할된 영상에 나타난 대상의 경계를 보정하고, 상기 분할된 영상의 노이즈를 제거할 수 있다.The control unit may correct a boundary of an object appearing in the divided image and may remove noise from the divided image.
상기 제어부는, 상기 차량이 주간 및 맑은 날 주행하는 상황으로 가정하고, 상기 가정된 상황에 기초하여 일정한 조도를 가지는 가상 이미지를 생성할 수 있다. The controller may assume that the vehicle is driving on a daytime and a sunny day, and may generate a virtual image having a constant illuminance based on the assumed situation.
상기 제어부는, 상기 대상의 의미 단위 및 엣지 정보에 기초하여 상기 대상의 색상 정보를 다르게 설정하고, 상기 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선할 수 있다.The controller may differently set color information of the target based on the semantic unit and edge information of the target, and may improve the image quality of the divided image based on the set color.
상기 제어부는, 상기 복원된 영상의 화질을 홀 필터(Hole Filter)에 의하여 개선할 수 있다.The control unit may improve the quality of the restored image by using a Hall filter.
상기 제어부는, 상기 대상의 의미 단위에 기초하여 상기 대상의 형태를 미리 설정된 형태로 단순화 할 수 있다.The control unit may simplify the shape of the object into a preset shape based on the meaning unit of the object.
상기 제어부는, 미리 설정된 검증 영상과 상기 복원된 영상을 비교하고, 상기 비교 결과 상기 복원된 영상이 상기 검증 영상과 동일한 것으로 판단하도록 학습하고, 상기 학습 결과에 기초하여 가상 이미지를 생성할 수 있다.The controller may compare a preset verification image with the restored image, learn to determine that the restored image is the same as the verification image as a result of the comparison, and generate a virtual image based on the learning result.
상기 제어부는, 스무딩 필터(Smoothing Filter)를 사용하여 상기 분할된 영상의 노이즈를 제거할 수 있다.The control unit may remove noise from the divided image using a smoothing filter.
상기 제어부는, 상기 차량의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성할 수 있다.The controller may determine a driving condition of the vehicle and generate the virtual image based on a result of the determination.
개시된 다른 측면에 따른 차량의 제어방법은 주변 영상을 촬영하고; 촬영된 영상을 표시하고; 촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하고, 상기 학습 결과에 기초하여 상기 촬영된 영상을 분할하고, 상기 분할된 영상에 검출 대상이 존재하는지 판단하고, 상기 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원하고, 상기 복원된 영상에 기초하여 가상 이미지를 생성한다.A method for controlling a vehicle according to another aspect of the disclosure includes photographing a surrounding image; Display the captured image; Learning the semantic unit of an object present in the captured image by deep learning, segmenting the captured image based on the learning result, determining whether a detection target exists in the segmented image, and determining whether a detection target exists in the segmented image, and based on the determination result Thus, at least one of the pattern or shape of the detection target is simplified to emphasize the detection target, restore the divided image to one image, and generate a virtual image based on the restored image.
개시된 다른 측면에 따른 차량의 제어방법은 상기 분할된 영상을 결합하도록 학습하는 것;을 더 포함하고, 상기 제어하는 것은, 상기 학습 결과에 기초하여 가상 이미지를 생성할 수 있다.The method of controlling a vehicle according to another aspect of the disclosure may further include learning to combine the divided images, and the controlling may generate a virtual image based on the learning result.
상기 제어하는 것은, 상기 분할된 영상에 나타난 대상의 경계를 보정하고, 상기 분할된 영상의 노이즈를 제거할 수 있다.The controlling may correct a boundary of an object appearing in the divided image and remove noise from the divided image.
상기 제어하는 것은, 상기 차량이 주간 및 맑은 날 주행하는 상황으로 가정하고, 상기 가정된 상황에 기초하여 일정한 조도를 가지는 가상 이미지를 생성할 수 있다. In the controlling, it is assumed that the vehicle is driving during the daytime and on a clear day, and a virtual image having a constant illuminance may be generated based on the assumed situation.
상기 제어하는 것은, 상기 대상의 의미 단위 및 엣지 정보에 기초하여 상기 대상의 색상 정보를 다르게 설정하고, 상기 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선할 수 있다.The controlling may differently set color information of the target based on the semantic unit and edge information of the target, and improve the image quality of the divided image based on the set color.
상기 제어하는 것은, 상기 복원된 영상의 화질을 홀 필터(Hole Filter)에 의하여 개선할 수 있다.The controlling may improve the quality of the restored image by using a Hall filter.
상기 제어하는 것은, 상기 대상의 의미 단위에 기초하여 상기 대상의 형태를 미리 설정된 형태로 단순화 할 수 있다.The controlling may simplify the shape of the object into a preset shape based on the meaning unit of the object.
상기 제어하는 것은, 미리 설정된 검증 영상과 상기 복원된 영상을 비교하고, 상기 비교 결과 상기 복원된 영상이 상기 검증 영상과 동일한 것으로 판단하도록 학습하고, 상기 학습 결과에 기초하여 가상 이미지를 생성할 수 있다.The controlling may include comparing a preset verification image and the restored image, learning to determine that the restored image is the same as the verification image as a result of the comparison, and generating a virtual image based on the learning result. .
상기 제어하는 것은, 스무딩 필터(Smoothing Filter)를 사용하여 상기 분할된 영상의 노이즈를 제거할 수 있다.In the controlling, noise of the divided image may be removed by using a smoothing filter.
상기 제어하는 것은, 상기 차량의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성할 수 있다.The controlling may determine the driving condition of the vehicle and generate the virtual image based on the determination result.
개시된 일 측면에 따른 차량 및 차량의 제어방법은 딥러닝을 통한 도로 주변 환경을 학습하고, 학습 결과에 기초하여 영상을 의미 단위로 분할하고, 분할된 영상에서 검출 대상을 강조함으로써, 차량의 자율주행에 필요한 영상의 품질을 개선할 수 있다. The vehicle and vehicle control method according to the disclosed aspect is by learning the environment around the road through deep learning, dividing the image into semantic units based on the learning result, and highlighting the detection target in the divided image, thereby enabling autonomous driving of the vehicle. It is possible to improve the quality of the image required for the application.
또한, 개시된 일 측면에 따른 차량 및 차량의 제어방법은 고품질의 안정적인 차량 주변 영상을 생성하고, 차량의 외부 환경 변화에 관계없이 일정한 상황을 가정하여 영상을 생성할 수 있다.In addition, the vehicle and the vehicle control method according to the disclosed aspect may generate a high-quality and stable vehicle surrounding image and generate an image by assuming a certain situation regardless of changes in the external environment of the vehicle.
도 1은 일 실시예에 따른 차량을 나타낸 것이다.
도 2은 일 실시예에 따른 차량의 제어 블록도이다.
도 3은 일 실시예에 따른 제어부가 가상 이미지를 생성하는 과정을 도시한 것이다.
도 4는 일 실시예에 따른 제어부가 분할된 영상의 화질을 개선하는 과정을 나타낸 것이다
도 5는 일 실시예에 따른 제1 인공 신경망이 대상의 의미 단위를 학습하는 것을 나타낸 것이다.
도 6은 일 실시예에 따른 제2 인공 신경망이 분할된 영상을 결합하고, 하나의 영상으로 복원하는 것을 학습하는 과정을 나타낸 것이다.
도 7은 일 실시예에 따른 제어부가 가상 이미지를 생성하는 과정에 대하여 나타낸 것이다.1 shows a vehicle according to an embodiment.
2 is a control block diagram of a vehicle according to an exemplary embodiment.
3 is a diagram illustrating a process of generating a virtual image by a controller according to an exemplary embodiment.
4 is a diagram illustrating a process of improving the quality of a divided image by a control unit according to an exemplary embodiment.
5 illustrates that a first artificial neural network learns a semantic unit of an object according to an embodiment.
6 is a diagram illustrating a process of learning to combine a segmented image by a second artificial neural network and reconstruct it into a single image according to an exemplary embodiment.
7 is a diagram illustrating a process of generating a virtual image by a controller according to an exemplary embodiment.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다. The same reference numerals refer to the same elements throughout the specification. This specification does not describe all elements of the embodiments, and general content in the technical field to which the present invention belongs or overlapping content between the embodiments will be omitted. The term'unit, module, member, block' used in the specification may be implemented in software or hardware, and according to embodiments, a plurality of'units, modules, members, blocks' may be implemented as one component, It is also possible for one'unit, module, member, block' to include a plurality of components.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be "connected" with another part, this includes not only the case of being directly connected, but also the case of indirect connection, and the indirect connection includes connection through a wireless communication network. do.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from other components, and the component is not limited by the above-described terms.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions, unless the context clearly makes exceptions.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. In each step, the identification code is used for convenience of explanation, and the identification code does not describe the order of each step, and each step may be implemented differently from the specified order unless a specific sequence is clearly stated in the context. have.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present invention will be described with reference to the accompanying drawings.
도 1 및 도 2는 개시된 실시예에 따른 차량(1)을 도시한 것이다.1 and 2 show a
도 1 및 도 2를 참조하면 개시된 실시예에 따른 차량(1)은 영상 촬영부(100), 제어부(200) 및 표시부(300)를 포함한다.1 and 2, the
개시된 실시예에 따른 영상 촬영부(100)는 차량(1)의 주변 환경을 촬영한다. 구체적으로, 개시된 일 실시예에 따른 영상 촬영부(100)는 카메라를 포함할 수 있다. 영상 촬영부(100)는 차량(1)이 자율 주행하는데 있어서 필요한 차량(1)의 전방, 측방 또는 후방 영상을 촬영할 수 있다. 영상 촬영부(100)가 촬영하는 차량(1) 주변 환경은 차량(1)이 주행하는 도로, 도로에 존재하는 교통 표지판, 신호등, 보행자 도로, 가로수, 횡단보도 또는 차선 등 고정된 대상일 수 있다. 또한, 영상 촬영부(100)가 촬영하는 차량(1) 주변 환경은 보행자 또는 다른 차량과 같은 이동하는 대상일 수 있다. The
다만, 영상 촬영부(100)가 촬영하는 차량 주변 환경은 이에 한정되지 않으며, 차량(1)의 자율 주행에 영향을 미치는 다른 요소를 포함할 수 있다. 또한, 영상 촬영부(100)는 카메라에 한정되지 않으며, 레이더, 센서 또는 라이다(Lidar)와 같이 차량(1) 주변의 물체를 감지하는 구성을 포함할 수 있다.However, the environment surrounding the vehicle captured by the
개시된 실시예에 따른 제어부(200)는 제1 인공 신경망 및 제2 인공신경망을 포함한다.The
제1 인공 신경망은 촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하고, 제2 인공 신경망은 분할된 영상을 사용자가 인식하기 편한 화면으로 결합하도록 학습한다.The first artificial neural network learns the semantic unit of the object present in the captured image by deep learning, and the second artificial neural network learns to combine the divided image into a screen that is easy for the user to recognize.
개시된 실시예에 따른 제어부(200)는 제1 인공 신경망의 학습 결과에 기초하여 영상 촬영부(100)에 의해 촬영된 영상을 분할하고, 분할된 영상에 검출 대상이 존재하는지 판단한다. The
또한, 개시된 실시예에 따른 제어부(200)는 검출 대상을 판단 하고, 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원 한다.In addition, the
또한, 제어부(200)는 도 4에서 후술할 바와 같이 촬영된 영상을 분할하고, 분할된 영상에 존재하는 대상의 엣지정보를 획득하고, 분할된 영상의 노이즈를 필터링 할 수 있다.In addition, the
제어부는 차량(1)내 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.The control unit includes a memory (not shown) that stores data about an algorithm for controlling the operation of components in the
개시된 실시예에 따른 표시부(300)는 제어부(200)가 생성한 가상 이미지를 표시한다. 가상 이미지는 촬영된 영상을 분할하고, 분할된 영상에서 검출 대상의 패턴 또는 형태를 단순화하고, 이를 강조한 후에, 분할된 영상을 결합하여 생성되는 이미지 이다.The
표시부(300)는 음극선관(Cathode Ray Tube: CRT), 디지털 광원 처리(Digital Light Processing: DLP) 패널, 플라즈마 디스플레이 패널(Plasma Display Penal), 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 전기 발광(Electro Luminescence: EL) 패널, 전기영동 디스플레이(Electrophoretic Display: EPD) 패널, 전기변색 디스플레이(Electrochromic Display: ECD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등으로 마련될 수 있으나, 이에 한정되지는 않는다.The
또한, 개시된 영상 촬영부(100), 제어부(200) 및 표시부(300)는 각각의 구성과 통신할 수 있는 통신 모듈을 포함할 수 있다. 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.In addition, the disclosed
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.The short-range communication module is a Bluetooth module, an infrared communication module, a radio frequency identification (RFID) communication module, a wireless local access network (WLAN) communication module, an NFC communication module, and a Zigbee communication module. It may include various short-range communication modules that transmit and receive.
유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. Wired communication modules include various wired communication modules such as Controller Area Network (CAN) communication modules, Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules. In addition to communication modules, various cable communication such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard232), power line communication, or POTS (plain old telephone service) May contain modules.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.The wireless communication module includes a Wi-Fi module, a wireless broadband module, a global system for mobile communication (GSM), a code division multiple access (CDMA), a wideband code division multiple access (WCDMA), and a universal mobile telecommunications system (UMTS). ), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), etc. may include a wireless communication module supporting various wireless communication methods.
무선 통신 모듈은 신호를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 제어부의 제어에 따라 무선 통신 인터페이스를 통해 제어부(200)로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변환 모듈을 더 포함할 수 있다.The wireless communication module may include a wireless communication interface including an antenna for transmitting signals and a transmitter. In addition, the wireless communication module may further include a signal conversion module that modulates a digital control signal output from the
무선 통신 모듈은 신호를 수신하는 안테나 및 수신기(Receiver)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 무선 통신 인터페이스를 통하여 수신한 아날로그 형태의 무선 신호를 디지털 제어 신호로 복조하기 위한 신호 변환 모듈을 더 포함할 수 있다. The wireless communication module may include a wireless communication interface including an antenna and a receiver for receiving signals. In addition, the wireless communication module may further include a signal conversion module for demodulating an analog wireless signal received through the wireless communication interface into a digital control signal.
도 1에 도시된 차량(1)의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted corresponding to the performance of the components of the
한편, 도 1 및 도 2 에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다. Meanwhile, each of the components shown in FIGS. 1 and 2 refers to software and/or hardware components such as a Field Programmable Gate Array (FPGA) and an Application Specific Integrated Circuit (ASIC).
이하는 제어부(200)가 가상 이미지를 생성하는 과정 및 제1 인공 신경망과 제2 인공 신경망이 학습하는 과정에 대하여 설명한다.Hereinafter, a process in which the
도 3은 제어부(200)가 가상 이미지를 생성하는 과정에 대하여 도시한 것이다.3 is a diagram illustrating a process in which the
도 3을 참조하면, 제1 인공 신경망은 도로에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습한다(2101). 제1 인공 신경망이 학습하는 과정은 도 5에서 자세히 후술한다.Referring to FIG. 3, the first artificial neural network learns a semantic unit of an object existing on a road by deep learning (2101). The learning process of the first artificial neural network will be described in detail later in FIG. 5.
제어부(200)는 제1 인공 신경망의 학습 결과에 기초하여 촬영된 영상을 분할 한다(2102). The
구체적으로, 제어부(200)는 제1 인공 신경망에서 학습한 도로에 존재하는 대상의 의미단위에 기초하여 촬영된 영상을 분할한다. 개시된 일 실시예에 따르면, 제1 인공 신경망은 도로에 존재하는 대상의 의미단위를 신호등, 차선, 보행자 및 횡단보도로 학습할 수 있고, 이러한 경우 제1 인공 신경망의 학습결과에 기초하여 제어부(200)는 4개의 의미 단위를 가지는 4개의 분할 영상을 생성할 수 있다. 다만, 제어부(200)가 영상을 분할하는 데 사용하는 의미 단위는 이에 한정되는 것은 아니고, 차량(1)의 주행에 필요한 다른 요소를 포함할 수 있다.Specifically, the
제어부(200)는 분할된 영상에 검출 대상이 존재하는지 판단한다(2103).The
구체적으로, 검출 대상은 차량(1)이 자율 주행 하는데 있어서, 사용자가 중점적으로 인식 해야하는 대상을 의미한다. Specifically, the detection target refers to an object that the user should intensively recognize when the
개시된 일 실시예에 따르면, 차량(1)이 비오는 날 밤 시간대에 주행을 하는 경우, 사용자는 차량(1) 주변의 차선을 인식하지 못할 가능성이 높다. 따라서,이러한 경우, 제어부(200)는 도로에 존재하는 차선을 검출 대상으로 할 수 있다. According to the disclosed embodiment, when the
개시된 다른 실시예에 따르면, 차량(1)이 어린이 보호구역을 주행하는 경우, 제어부(200)는 도로에 존재하는 보행자를 검출 대상으로 할 수 있다.According to another disclosed embodiment, when the
다만, 제어부(200)가 판단하는 검출대상은 이에 한정되지 않으며, 도로 상황 또는 차량의 주행상황에 따라 달라질 수 있다.However, the detection target determined by the
제어부(200)는 분할된 영상에 검출 대상이 존재하는 것으로 판단하면 검출대상을 강조한다(2104, 2105). 그러나, 제어부(200)는 분할된 영상에 검출 대상이 존재하지 않는 것으로 판단되면 계속하여 분할된 영상에 검출 대상이 존재하는지 판단한다(2104).When it is determined that the detection target exists in the divided image, the
제어부(200)가 검출 대상을 강조하는 방법은 검출 대상의 패턴 또는 형태를 단순화하고 강조하는 것을 포함할 수 있다.The method for the
검출 대상의 패턴 또는 형태를 단순화 하는 것은 도로에 존재하는 대상의 형태가 전형적인 형태가 아니거나, 사용자가 감지하기 어려운 상태로 판단되는 경우, 대상의 형태를 대상의 일반적인 형태로 단순화 하는 것을 의미한다. 또한, 검출 대상의 패턴 또는 형태를 강조하는 것은, 검출 대상의 엣지(edge)정보를 추출하고, 추출된 엣지(edge)정보에 기초하여 대상의 윤곽선 및 색상을 두드러지게 하는 것을 의미한다.Simplifying the pattern or shape of the object to be detected means simplifying the shape of the object to the general shape of the object when it is determined that the shape of the object existing on the road is not a typical shape or a state that is difficult for the user to detect. In addition, emphasizing the pattern or shape of the detection target means extracting edge information of the detection target and highlighting the outline and color of the target based on the extracted edge information.
개시된 일 실시예에 따르면, 제어부(200)가 도로에 존재하는 차선을 검출 대상으로 판단한 경우, 제어부(200)는 도로에 존재하는 차선의 일부가 지워져 있는 경우에도, 지워진 부분의 형태를 일반적인 차선의 형태로 보정할 수 있고, 차선의 색상 및 윤곽선도 강조할 수 있다.According to the disclosed embodiment, when the
다만, 제어부(200)가 검출 대상의 패턴 또는 형태를 단순화하고 강조하는 것은 이에 한정되지 않으며, 다른 단순화 방식 또는 강조방식을 사용할 수 있다. 또한, 제어부(200)가 검출 대상으로 판단하는 대상은 차량(1)의 주행에 영향을 미치는 다른 요소를 포함할 수 있다.However, the
제어부(200)는 분할된 영상을 복원한다(2106). The
구체적으로, 제어부(200)는 분할된 영상을 결합하여 실제 주행 영상과 같이 복원한다. 제어부(200)는 제2 인공 신경망의 학습 결과에 기초하여 분할된 영상을 결합할 수 있다. 제2 인공 신경망은 도로에 존재하는 대상의 의미 단위 및 엣지 정보에 기초하여 대상의 색상 정보를 다르게 설정하고, 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선하도록 학습할 수 있다. Specifically, the
또한, 제2 인공 신경망은 미리 설정된 검증 영상과 복원된 영상을 비교하고, 비교 결과 복원된 영상이 검증 영상과 동일한 것으로 판단하도록 학습할 수 있다. 여기서 미리 설정된 검증 영상은 차량(1)의 주행 환경에 무관하게 사용자가 차량(1) 주변 환경을 인식하기 쉽게 하기 위하여 낮 시간대, 맑은 기상 환경에서 주행하는 영상일 수 있다. 다만, 검증 영상은 이에 한정되지 않으며, 사용자 설정 또는 차량(1)의 주행 환경에 따라 달라질 수 있다.In addition, the second artificial neural network may learn to compare the preset verification image and the reconstructed image, and determine that the reconstructed image as a result of the comparison is the same as the verification image. Here, the preset verification image may be an image running in a daytime or sunny weather environment in order to make it easier for the user to recognize the environment surrounding the
제어부(200)는 복원된 영상에 기초하여 가상 이미지를 생성한다(2107). The
구체적으로, 제어부(200)는 차량(1)의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성할 수 있다. Specifically, the
도 4는 개시된 실시예에 따른 제어부(200)가 분할된 영상의 화질을 개선하는 과정을 나타낸 것이다.4 is a diagram illustrating a process of improving the image quality of a divided image by the
개시된 실시예에 따르면 영상 촬영부(100)는 차량(1) 주변 환경을 촬영하고(2201), 제어부(200)는 촬영된 대상의 의미 단위에 기초하여 영상을 분할한다(2202).According to the disclosed embodiment, the
제어부(200)는 분할된 영상에어 촬영된 대상의 엣지(edge) 정보를 획득한다(2203). 여기서 엣지(edge) 정보는 검출하고자 하는 대상의 윤곽선 정보일 수 있다. The
제어부(200)는 대상의 엣지(edge) 정보를 획득하고 분할 영상의 노이즈 필링을 수행한다(2204).The
구체적으로, 제어부(200)는 Bilateral Filtering과 같은 스무딩 필터를 적용하여 작은 노이즈 제거하는 과정을 포함하여 노이즈 필터링을 할 수 있다. 또한, 제어부(200)는 대상의 외곽선을 단순히 하면서 영상 분할시 발생한 hole을 채우고, 인식 대상이 아닌 불필요한 분할 영상을 제거하는 과정을 포함하여 노이즈 필터링을 할 수 있다.Specifically, the
다만, 제어부(200)가 수행하는 노이즈 필터링 과정은 이에 한정되지 아니하고, 분할 영상의 화질을 개선할 수 있는 다른 필터링 과정을 포함할 수 있다.However, the noise filtering process performed by the
제어부(200)는 상술한 과정을 통하여 분할 영상의 화질을 개선할 수 있다(2205).The
도 5는 제1 인공 신경망이 차량 주변의 대상을 대상의 의미단위에 기초하여 딥러닝에 의한 학습하는 것을 나타낸 것이다.5 shows that the first artificial neural network learns an object around a vehicle by deep learning based on the semantic unit of the object.
도 5를 참조하면, 개시된 제1 인공 신경망은 f1 내지 f5과정을 통하여 대상의 의미 단위를 학습한다. 대상의 의미 단위는 차량(1)이 자율 주행하는데 있어서 영향을 미칠 수 있는 차량(1) 주변의 요소를 의미한다. 상술한 바와 같이, 대상의 의미 단위의 예를 들면, 신호등, 차선, 보행자 및 횡단보도가 각각 대상의 의미 단위가 될 수 있다. Referring to FIG. 5, the disclosed first artificial neural network learns a semantic unit of an object through processes f1 to f5. The meaning unit of the object means the elements around the
개시된 일 측면에 따른 제1 인공 신경망은 f1 내지 f2 과정을 차량(1) 주변의 이미지를 획득하는 방식으로 학습할 수 있다. 또한, 제1 인공신경망은 학습된 이미지를 빅 데이터화 하여 Pin으로 사용할 수 있다. The first artificial neural network according to the disclosed aspect may learn processes f1 to f2 by acquiring an image around the
개시된 일 측면에 따른 제1 인공 신경망은 학습된 대상의 의미 단위에 기초하여 대상의 의미단위를 분류할 수 있다(P2). 제1 인공 신경망은 분류된 대상의 의미 단위에서 촬영된 영상에 존재하는 의미 단위를 Pout으로 추출할 수 있다. 추출된 대상의 의미 단위는 제어부(200)가 촬영된 영상을 분할하는데 사용될 수 있다.The first artificial neural network according to the disclosed aspect may classify the semantic unit of the object based on the semantic unit of the learned object (P2). The first artificial neural network may extract a semantic unit existing in an image captured from a semantic unit of the classified object as Pout. The semantic unit of the extracted object may be used to divide the image captured by the
또한, 개시된 일 실시예에 따른 제1 인공 신경망은 신경망은 CNN(Convolution Neural Network)을 포함할 수 있다. 여기서 CNN은 이미지(또는 영상의 이미지 프레임)를 입력값으로 입력하고, 입력된 이미지를 특징 맵(feature map)을 생성하는 특징 러닝(feature learning)과 생성된 특징 맵(feature map)을 입력값으로 이미지의 종류를 판단하는 분류(classification)으로 구분될 수 있다.In addition, the first artificial neural network according to the disclosed embodiment may include a convolution neural network (CNN). Here, CNN inputs an image (or an image frame of an image) as an input value, and uses a feature learning to generate a feature map and a generated feature map as an input value. It can be classified into classification, which determines the type of image.
먼저, 분류는 멀티-레이어 퍼셉트론(multi-layer perceptron)으로 구성될 수 있다. 퍼셉트론이란, 인체의 신경망의 기본 구조인 뉴런과 동일한 기능을 수행하는 기계 학습의 기본 구조를 의미한다. 즉, 퍼셉트론은 입력값에 가중치(weight)를 곱하고, 바이어스(bias)와 더한 후, 변형된 입력값을 전달함수(transfer function 또는 activation function)으로 구성된다. 전달함수의 역치값을 만족하는 변형된 입력값만을 출력값으로 출력한다. 퍼셉트론은, 출력되는 출력값이 원하는 결과값이 되도록 가중치 및 바이어스를 스스로 조정함으로써, 반복되는 입력값으로부터 원하는 결과값이 추론되도록 학습되는 구조이다.First, the classification may consist of a multi-layer perceptron. Perceptron refers to the basic structure of machine learning that performs the same functions as neurons, which are the basic structures of the human body's neural network. That is, the perceptron is composed of an input value multiplied by a weight, added with a bias, and then a modified input value as a transfer function or activation function. Only the transformed input value that satisfies the threshold value of the transfer function is output as an output value. The perceptron is a structure in which a desired result value is inferred from a repeated input value by self-adjusting a weight and a bias so that an output value is a desired result value.
영상의 종류를 판단하기 위해서, 신경망은 멀티-레이어 퍼셉트론에 촬영된 영상의 이미지 프레임에 포함된 각각의 픽셀값을 입력-레이어(Pin)에 입력할 수 있다. 또한, 개시된 신경망의 일 예인, CNN은 특징 학습(feature learning)에서 컨벌루젼 기법을 이용하여 특징 이미지를 생성할 수 있다.In order to determine the type of image, the neural network may input each pixel value included in an image frame of an image captured on a multi-layer perceptron into an input-layer Pin. In addition, the CNN, which is an example of the disclosed neural network, may generate a feature image using a convolution technique in feature learning.
다만, 제1 인공 신경망은 이에 한정되는 것은 아니고, 촬영된 영상 또는 이미지를 딥러닝에 의해 학습할 수 있는 다른 신경망을 포함할 수 있다.However, the first artificial neural network is not limited thereto, and may include another neural network capable of learning a captured image or image by deep learning.
도 6은 개시된 실시예에 따른 제2 인공 신경망이 분할된 영상을 결합하고, 하나의 영상으로 복원하는 것을 학습하는 과정을 나타낸 것이다.6 is a diagram illustrating a process of learning to combine divided images by a second artificial neural network according to the disclosed embodiment and reconstruct them into a single image.
도 6을 참조하면, 제2 인공 신경망은 상술한 제1 인공 신경망과 반대의 역할을 수행한다.Referring to FIG. 6, the second artificial neural network plays a role opposite to the above-described first artificial neural network.
구체적으로, 제2 인공 신경망은 N과정을 통하여 분류된 대상의 의미 단위에서 사용자가 인식해야 하는 의미 단위를 추출한다. 추출된 의미 단위는 강조가 필요한 검출 대상을 의미할 수 있다.Specifically, the second artificial neural network extracts a semantic unit that the user must recognize from the semantic unit of the object classified through the N process. The extracted semantic unit may mean a detection object that needs to be emphasized.
제어부(200)는 제2 인공 신경망에서 추출된 검출 대상의 의미 정보에 기초하여 분할된 영상을 하나의 영상으로 복원할 수 있다ⓒ.The
도 7은 제어부(200)가 가상 이미지를 생성하는 과정을 도시한 것이다.7 shows a process in which the
도 7을 참조하면, 제어부(200)는 제1 인공 신경망의 학습 결과에 기초하여 촬영된 영상을 분할하고, 제2 인공 신경망의 학습 결과에 기초하여 분할된 영상을 복원 한다(2301). 여기서, 복원된 영상은 사용자가 인식할 필요성이 있는 대상이 강조되어 있는 영상이다.Referring to FIG. 7, the
제어부(200)는 복원된 영상이 미리 설정된 검증 영상과 동일한지 판단한다(2301). 여기서 검증 영상은 사용자가 미리 설정한 기준을 충족하는 영상일 수 있다. The
개시된 일 실시예에 따른 검증 영상은 낮 시간대의 맑은 날을 가정한 주행 영상일 수 있다. 상기와 같은 검증 영상과 복원된 영상을 비교함으로써, 제어부(200)는 일정한 품질을 가지는 영상을 생성할 수 있다.The verification image according to the disclosed embodiment may be a driving image assuming a sunny day in the daytime. By comparing the verification image and the reconstructed image as described above, the
제어부(200)는 복원된 영상이 검증 영상과 동일한 것으로 판단되면 복원된 영상에 기초하여 가상 이미지를 생성한다(2303). 여기서, 가상 이미지는 사용자가 인식할 필요성이 있는 대상이 강조되고, 노이즈 필터링을 마친 영상일 수 있다. 그러나, 복원된 영상이 검증 영상과 동일하지 않은 것으로 판단되면, 제어부(200)는 계속하여 영상을 복원한다.If it is determined that the restored image is the same as the verification image, the
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. The instruction may be stored in the form of a program code, and when executed by a processor, a program module may be generated to perform the operation of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media in which instructions that can be read by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the accompanying drawings. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be practiced in a form different from the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.
1: 차량
100 : 영상 촬영부
200 : 제어부
300 : 표시부1: vehicle
100: video recording unit
200: control unit
300: display
Claims (20)
주변 영상을 촬영하는 영상 촬영부;
촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하는 제1 인공 신경망;
상기 학습 결과에 기초하여 상기 촬영된 영상을 분할하고, 상기 분할된 영상에 검출 대상이 존재하는지 판단하고, 상기 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원하고, 상기 복원된 영상에 기초하여 가상 이미지를 생성하도록 상기 표시부를 제어하는 제어부;를 포함하는 차량.A display unit that displays the captured image;
An image photographing unit for photographing surrounding images;
A first artificial neural network that learns a semantic unit of an object present in the captured image by deep learning;
Dividing the captured image based on the learning result, determining whether a detection target exists in the divided image, and highlighting the detection target by simplifying at least one of a pattern or shape of the detection target based on the determination result And a control unit for restoring the divided image into one image and controlling the display unit to generate a virtual image based on the restored image.
상기 분할된 영상을 결합하도록 학습하는 제2 인공신경망;을 더 포함하고,
상기 제어부는,
상기 학습 결과에 기초하여 가상 이미지를 생성하는 차량.The method of claim 1,
Further comprising; a second artificial neural network for learning to combine the divided images,
The control unit,
A vehicle that generates a virtual image based on the learning result.
상기 제어부는,
상기 분할된 영상에 나타난 대상의 경계를 보정하고, 상기 분할된 영상의 노이즈를 제거하는 차량.The method of claim 1,
The control unit,
A vehicle that corrects a boundary of an object appearing in the divided image and removes noise from the divided image.
상기 제어부는,
상기 차량이 주간 및 맑은 날 주행하는 상황으로 가정하고, 상기 가정된 상황에 기초하여 일정한 조도를 가지는 가상 이미지를 생성하는 차량. The method of claim 2,
The control unit,
A vehicle for generating a virtual image having a constant illuminance based on the assumed situation, assuming that the vehicle is driving during the day and on a clear day.
상기 제어부는
상기 대상의 의미 단위 및 엣지 정보에 기초하여 상기 대상의 색상 정보를 다르게 설정하고, 상기 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선하는 차량.The method of claim 1,
The control unit
A vehicle configured to differently set color information of the object based on the semantic unit and edge information of the object, and to improve the image quality of the divided image based on the set color.
상기 제어부는,
상기 복원된 영상의 화질을 홀 필터(Hole Filter)에 의하여 개선하는 차량.The method of claim 1,
The control unit,
A vehicle that improves the quality of the restored image by using a Hall filter.
상기 제어부는,
상기 대상의 의미 단위에 기초하여 상기 대상의 형태를 미리 설정된 형태로 단순화 하는 차량.The method of claim 1,
The control unit,
A vehicle that simplifies the shape of the object into a preset shape based on the meaning unit of the object.
상기 제어부는,
미리 설정된 검증 영상과 상기 복원된 영상을 비교하고, 상기 비교 결과 상기 복원된 영상이 상기 검증 영상과 동일한 것으로 판단하도록 학습하고, 상기 학습 결과에 기초하여 가상 이미지를 생성하는 차량.The method of claim 2,
The control unit,
A vehicle that compares a preset verification image and the restored image, learns to determine that the restored image is the same as the verification image as a result of the comparison, and generates a virtual image based on the learning result.
상기 제어부는,
스무딩 필터(Smoothing Filter)를 사용하여 상기 분할된 영상의 노이즈를 제거하는 차량.The method of claim 3,
The control unit,
A vehicle that removes noise from the segmented image using a smoothing filter.
상기 제어부는,
상기 차량의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성하는 차량.The method of claim 1,
The control unit,
A vehicle that determines the driving condition of the vehicle and generates the virtual image based on the determination result.
촬영된 영상을 표시하고;
촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하고, 상기 학습 결과에 기초하여 상기 촬영된 영상을 분할하고, 상기 분할된 영상에 검출 대상이 존재하는지 판단하고, 상기 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원하고, 상기 복원된 영상에 기초하여 가상 이미지를 생성하는 차량의 제어방법.Photographing surrounding images;
Display the captured image;
Learning the semantic unit of the object present in the captured image by deep learning, segmenting the captured image based on the learning result, determining whether a detection object exists in the segmented image, and determining whether the detection target exists Thus, at least one of the pattern or shape of the detection target is simplified to highlight the detection target, restore the divided image to one image, and generate a virtual image based on the restored image.
상기 분할된 영상을 결합하도록 학습하는 것;을 더 포함하고,
상기 제어하는 것은,
상기 학습 결과에 기초하여 가상 이미지를 생성하는 차량의 제어방법.The method of claim 11,
Learning to combine the divided images; further comprising,
To control the above,
A vehicle control method for generating a virtual image based on the learning result.
상기 제어하는 것은,
상기 분할된 영상에 나타난 대상의 경계를 보정하고, 상기 분할된 영상의 노이즈를 제거하는 차량의 제어방법.The method of claim 11,
To control the above,
A vehicle control method for correcting a boundary of an object appearing in the divided image and removing noise from the divided image.
상기 제어하는 것은,
상기 차량이 주간 및 맑은 날 주행하는 상황으로 가정하고, 상기 가정된 상황에 기초하여 일정한 조도를 가지는 가상 이미지를 생성하는 차량의 제어방법. The method of claim 12,
To control the above,
A vehicle control method for generating a virtual image having a constant illuminance based on the assumed situation, assuming that the vehicle is driving during the day and on a clear day.
상기 제어하는 것은,
상기 대상의 의미 단위 및 엣지 정보에 기초하여 상기 대상의 색상 정보를 다르게 설정하고, 상기 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선하는 차량의 제어방법.The method of claim 11,
To control the above,
A vehicle control method for differently setting color information of the object based on the semantic unit and edge information of the object, and improving the image quality of the divided image based on the set color.
상기 제어하는 것은,
상기 복원된 영상의 화질을 홀 필터(Hole Filter)에 의하여 개선하는 차량의 제어방법.The method of claim 11,
To control the above,
A vehicle control method for improving the quality of the restored image by using a hole filter.
상기 제어하는 것은,
상기 대상의 의미 단위에 기초하여 상기 대상의 형태를 미리 설정된 형태로 단순화 하는 차량의 제어방법.The method of claim 11,
To control the above,
A vehicle control method for simplifying the shape of the object into a preset shape based on the meaning unit of the object.
상기 제어하는 것은,
미리 설정된 검증 영상과 상기 복원된 영상을 비교하고, 상기 비교 결과 상기 복원된 영상이 상기 검증 영상과 동일한 것으로 판단하도록 학습하고, 상기 학습 결과에 기초하여 가상 이미지를 생성하는 차량의 제어방법.The method of claim 12,
To control the above,
A vehicle control method for comparing a preset verification image and the restored image, learning to determine that the restored image is the same as the verification image as a result of the comparison, and generating a virtual image based on the learning result.
상기 제어하는 것은,
스무딩 필터(Smoothing Filter)를 사용하여 상기 분할된 영상의 노이즈를 제거하는 차량의 제어방법.The method of claim 13,
To control the above,
A vehicle control method for removing noise from the divided image using a smoothing filter.
상기 제어하는 것은,
상기 차량의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성하는 차량의 제어방법.
The method of claim 11,
To control the above,
A vehicle control method for determining the driving condition of the vehicle and generating the virtual image based on the determination result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190109111A KR20210027974A (en) | 2019-09-03 | 2019-09-03 | Vehicle and controlling method of vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190109111A KR20210027974A (en) | 2019-09-03 | 2019-09-03 | Vehicle and controlling method of vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210027974A true KR20210027974A (en) | 2021-03-11 |
Family
ID=75142811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190109111A KR20210027974A (en) | 2019-09-03 | 2019-09-03 | Vehicle and controlling method of vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210027974A (en) |
-
2019
- 2019-09-03 KR KR1020190109111A patent/KR20210027974A/en active Search and Examination
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10504214B2 (en) | System and method for image presentation by a vehicle driver assist module | |
US9262693B2 (en) | Object detection apparatus | |
US20060215882A1 (en) | Image processing apparatus and method, recording medium, and program | |
CN109409186B (en) | Driver assistance system and method for object detection and notification | |
US11700457B2 (en) | Flicker mitigation via image signal processing | |
US11328428B2 (en) | Technologies for detection of occlusions on a camera | |
US11436839B2 (en) | Systems and methods of detecting moving obstacles | |
CN103440484A (en) | Flame detection method adaptive to large outdoor space | |
KR101534973B1 (en) | Image Processing Apparatus and Method for Removing Rain From Image Data | |
US20240013453A1 (en) | Image generation method and apparatus, and storage medium | |
CN110599516A (en) | Moving target detection method and device, storage medium and terminal equipment | |
US10755114B1 (en) | Efficient two-stage object detection scheme for embedded device | |
KR102171384B1 (en) | Object recognition system and method using image correction filter | |
CN102622594A (en) | Short-distance objective extraction method based on infrared rays and frame difference | |
CN110121055B (en) | Method and apparatus for object recognition | |
KR20210027974A (en) | Vehicle and controlling method of vehicle | |
JP2018106239A (en) | Image processing apparatus, image processing method and image processing program | |
Małecki et al. | Mobile system of decision-making on road threats | |
KR20190105273A (en) | Preprocessing method for color filtering robust against illumination environment and the system thereof | |
Andalibi et al. | Automatic glare detection via photometric, geometric, and global positioning information | |
CN104660954A (en) | Method and device for improving image brightness based on background modeling under low-illuminance scene | |
KR101865958B1 (en) | Method and apparatus for recognizing speed limit signs | |
KR20160040335A (en) | Low Power Vehicle Video Recorder with Infrared Lighting Functions for Vision Recognition Enhancement in Low Level Light Environment and Vehicle Video Recording Method thereof | |
Rajkumar et al. | Vehicle Detection and Tracking System from CCTV Captured Image for Night Vision | |
KR102592860B1 (en) | Pedestrian detection device and detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |