KR20210027974A - Vehicle and controlling method of vehicle - Google Patents

Vehicle and controlling method of vehicle Download PDF

Info

Publication number
KR20210027974A
KR20210027974A KR1020190109111A KR20190109111A KR20210027974A KR 20210027974 A KR20210027974 A KR 20210027974A KR 1020190109111 A KR1020190109111 A KR 1020190109111A KR 20190109111 A KR20190109111 A KR 20190109111A KR 20210027974 A KR20210027974 A KR 20210027974A
Authority
KR
South Korea
Prior art keywords
image
vehicle
unit
learning
control
Prior art date
Application number
KR1020190109111A
Other languages
Korean (ko)
Inventor
박민우
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020190109111A priority Critical patent/KR20210027974A/en
Publication of KR20210027974A publication Critical patent/KR20210027974A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control

Abstract

The present disclosure provides a vehicle and a vehicle control method for learning the environment around the vehicle as a semantic unit through an artificial neural network, dividing a captured image into the learned semantic unit, and reconstructing it. According to an aspect of the present disclosure, a vehicle comprises: a display unit displaying a captured image; an image capturing unit for capturing an image of the surrounding area; a first artificial neural network for learning a semantic unit of an object existing in the captured image by deep learning; and a control unit which divides the captured image based on the learning result, determines whether a detection target exists in the divided image, simplifies least one of a pattern or a shape of the detection target based on the determination result to emphasize the detection target, restores the divided image into one image, and controls the display unit to generate a virtual image based on the restored image.

Description

차량 및 차량의 제어방법{VEHICLE AND CONTROLLING METHOD OF VEHICLE}Vehicle and vehicle control method {VEHICLE AND CONTROLLING METHOD OF VEHICLE}

개시된 일 측면에 따른 차량은 차량의 자율주행에 관한 것이다. 구체적으로, 개시된 일 측면에 따른 차량은 차량이 자율주행 하는데 있어서, 주변 환경 영상을 촬영하고, 보정하는 것에 관한 것이다.The vehicle according to the disclosed aspect relates to autonomous driving of the vehicle. Specifically, the vehicle according to the disclosed aspect relates to capturing and correcting an image of a surrounding environment in the vehicle autonomously driving.

종래에 차량의 안전한 자율주행을 위하여 차량 주변의 환경을 영상으로 촬영하는 기술이 존재하였다. Conventionally, there has been a technology for capturing an environment around a vehicle as an image for safe autonomous driving of a vehicle.

구체적으로, 종래 기술은 사용자가 촬영된 영상을 인식하기 쉽게 하기 위해서, 촬영된 특정 영상을 처리하는 것이다.Specifically, in the prior art, in order to make it easier for a user to recognize a captured image, a specific captured image is processed.

그러나 상기와 같은 방법은 촬영된 영상에서 사용자가 특징점을 추출하고자 하는 목적과는 무관하게 단순한 영상처리만을 통하여 일반적인 특징점 만을 도출하는 문제점이 존재하였다.However, the above method has a problem of deriving only general feature points through simple image processing irrespective of the purpose for which the user wants to extract feature points from a captured image.

이에 차량의 자율주행에 있어서, 차량이 현재 주행중에 촬영한 화면 자체에서 사용자에게 필요한 특징점을 추출 하는 기술이 절실한 실정이다.Accordingly, in autonomous driving of a vehicle, there is an urgent need for a technology to extract feature points necessary for the user from the screen itself captured by the vehicle while the vehicle is currently driving.

상기와 같은 문제점을 해결하기 위하여, 개시된 일 측면은 인공 신경망을 통하여 차량 주변의 환경을 의미단위로 학습하고, 촬영된 영상을 학습된 의미단위로 분할하고, 이를 다시 복원하는 차량 및 차량의 제어방법을 제공한다.In order to solve the above problems, one aspect disclosed is a vehicle and a vehicle control method that learns the environment around the vehicle as a semantic unit through an artificial neural network, divides the captured image into the learned semantic unit, and restores it again. Provides.

개시된 일 측면에 따른 차량은 촬영된 영상을 표시하는 표시부; 주변 영상을 촬영하는 영상 촬영부; 촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하는 제1 인공 신경망; 상기 학습 결과에 기초하여 상기 촬영된 영상을 분할하고, 상기 분할된 영상에 검출 대상이 존재하는지 판단하고, 상기 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원하고, 상기 복원된 영상에 기초하여 가상 이미지를 생성하도록 상기 표시부를 제어하는 제어부;를 포함한다.A vehicle according to the disclosed aspect includes a display unit for displaying a photographed image; An image photographing unit for photographing surrounding images; A first artificial neural network that learns a semantic unit of an object present in the captured image by deep learning; Dividing the captured image based on the learning result, determining whether a detection target exists in the divided image, and highlighting the detection target by simplifying at least one of a pattern or shape of the detection target based on the determination result And a control unit for restoring the divided image into one image and controlling the display unit to generate a virtual image based on the restored image.

개시된 다른 측면에 따른 차량은, 상기 분할된 영상을 결합하도록 학습하는 제2 인공신경망;을 더 포함하고, 상기 제어부는, 상기 학습 결과에 기초하여 가상 이미지를 생성할 수 있다.The vehicle according to another disclosed aspect further includes a second artificial neural network that learns to combine the divided images, and the controller may generate a virtual image based on the learning result.

상기 제어부는, 상기 분할된 영상에 나타난 대상의 경계를 보정하고, 상기 분할된 영상의 노이즈를 제거할 수 있다.The control unit may correct a boundary of an object appearing in the divided image and may remove noise from the divided image.

상기 제어부는, 상기 차량이 주간 및 맑은 날 주행하는 상황으로 가정하고, 상기 가정된 상황에 기초하여 일정한 조도를 가지는 가상 이미지를 생성할 수 있다. The controller may assume that the vehicle is driving on a daytime and a sunny day, and may generate a virtual image having a constant illuminance based on the assumed situation.

상기 제어부는, 상기 대상의 의미 단위 및 엣지 정보에 기초하여 상기 대상의 색상 정보를 다르게 설정하고, 상기 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선할 수 있다.The controller may differently set color information of the target based on the semantic unit and edge information of the target, and may improve the image quality of the divided image based on the set color.

상기 제어부는, 상기 복원된 영상의 화질을 홀 필터(Hole Filter)에 의하여 개선할 수 있다.The control unit may improve the quality of the restored image by using a Hall filter.

상기 제어부는, 상기 대상의 의미 단위에 기초하여 상기 대상의 형태를 미리 설정된 형태로 단순화 할 수 있다.The control unit may simplify the shape of the object into a preset shape based on the meaning unit of the object.

상기 제어부는, 미리 설정된 검증 영상과 상기 복원된 영상을 비교하고, 상기 비교 결과 상기 복원된 영상이 상기 검증 영상과 동일한 것으로 판단하도록 학습하고, 상기 학습 결과에 기초하여 가상 이미지를 생성할 수 있다.The controller may compare a preset verification image with the restored image, learn to determine that the restored image is the same as the verification image as a result of the comparison, and generate a virtual image based on the learning result.

상기 제어부는, 스무딩 필터(Smoothing Filter)를 사용하여 상기 분할된 영상의 노이즈를 제거할 수 있다.The control unit may remove noise from the divided image using a smoothing filter.

상기 제어부는, 상기 차량의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성할 수 있다.The controller may determine a driving condition of the vehicle and generate the virtual image based on a result of the determination.

개시된 다른 측면에 따른 차량의 제어방법은 주변 영상을 촬영하고; 촬영된 영상을 표시하고; 촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하고, 상기 학습 결과에 기초하여 상기 촬영된 영상을 분할하고, 상기 분할된 영상에 검출 대상이 존재하는지 판단하고, 상기 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원하고, 상기 복원된 영상에 기초하여 가상 이미지를 생성한다.A method for controlling a vehicle according to another aspect of the disclosure includes photographing a surrounding image; Display the captured image; Learning the semantic unit of an object present in the captured image by deep learning, segmenting the captured image based on the learning result, determining whether a detection target exists in the segmented image, and determining whether a detection target exists in the segmented image, and based on the determination result Thus, at least one of the pattern or shape of the detection target is simplified to emphasize the detection target, restore the divided image to one image, and generate a virtual image based on the restored image.

개시된 다른 측면에 따른 차량의 제어방법은 상기 분할된 영상을 결합하도록 학습하는 것;을 더 포함하고, 상기 제어하는 것은, 상기 학습 결과에 기초하여 가상 이미지를 생성할 수 있다.The method of controlling a vehicle according to another aspect of the disclosure may further include learning to combine the divided images, and the controlling may generate a virtual image based on the learning result.

상기 제어하는 것은, 상기 분할된 영상에 나타난 대상의 경계를 보정하고, 상기 분할된 영상의 노이즈를 제거할 수 있다.The controlling may correct a boundary of an object appearing in the divided image and remove noise from the divided image.

상기 제어하는 것은, 상기 차량이 주간 및 맑은 날 주행하는 상황으로 가정하고, 상기 가정된 상황에 기초하여 일정한 조도를 가지는 가상 이미지를 생성할 수 있다. In the controlling, it is assumed that the vehicle is driving during the daytime and on a clear day, and a virtual image having a constant illuminance may be generated based on the assumed situation.

상기 제어하는 것은, 상기 대상의 의미 단위 및 엣지 정보에 기초하여 상기 대상의 색상 정보를 다르게 설정하고, 상기 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선할 수 있다.The controlling may differently set color information of the target based on the semantic unit and edge information of the target, and improve the image quality of the divided image based on the set color.

상기 제어하는 것은, 상기 복원된 영상의 화질을 홀 필터(Hole Filter)에 의하여 개선할 수 있다.The controlling may improve the quality of the restored image by using a Hall filter.

상기 제어하는 것은, 상기 대상의 의미 단위에 기초하여 상기 대상의 형태를 미리 설정된 형태로 단순화 할 수 있다.The controlling may simplify the shape of the object into a preset shape based on the meaning unit of the object.

상기 제어하는 것은, 미리 설정된 검증 영상과 상기 복원된 영상을 비교하고, 상기 비교 결과 상기 복원된 영상이 상기 검증 영상과 동일한 것으로 판단하도록 학습하고, 상기 학습 결과에 기초하여 가상 이미지를 생성할 수 있다.The controlling may include comparing a preset verification image and the restored image, learning to determine that the restored image is the same as the verification image as a result of the comparison, and generating a virtual image based on the learning result. .

상기 제어하는 것은, 스무딩 필터(Smoothing Filter)를 사용하여 상기 분할된 영상의 노이즈를 제거할 수 있다.In the controlling, noise of the divided image may be removed by using a smoothing filter.

상기 제어하는 것은, 상기 차량의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성할 수 있다.The controlling may determine the driving condition of the vehicle and generate the virtual image based on the determination result.

개시된 일 측면에 따른 차량 및 차량의 제어방법은 딥러닝을 통한 도로 주변 환경을 학습하고, 학습 결과에 기초하여 영상을 의미 단위로 분할하고, 분할된 영상에서 검출 대상을 강조함으로써, 차량의 자율주행에 필요한 영상의 품질을 개선할 수 있다. The vehicle and vehicle control method according to the disclosed aspect is by learning the environment around the road through deep learning, dividing the image into semantic units based on the learning result, and highlighting the detection target in the divided image, thereby enabling autonomous driving of the vehicle. It is possible to improve the quality of the image required for the application.

또한, 개시된 일 측면에 따른 차량 및 차량의 제어방법은 고품질의 안정적인 차량 주변 영상을 생성하고, 차량의 외부 환경 변화에 관계없이 일정한 상황을 가정하여 영상을 생성할 수 있다.In addition, the vehicle and the vehicle control method according to the disclosed aspect may generate a high-quality and stable vehicle surrounding image and generate an image by assuming a certain situation regardless of changes in the external environment of the vehicle.

도 1은 일 실시예에 따른 차량을 나타낸 것이다.
도 2은 일 실시예에 따른 차량의 제어 블록도이다.
도 3은 일 실시예에 따른 제어부가 가상 이미지를 생성하는 과정을 도시한 것이다.
도 4는 일 실시예에 따른 제어부가 분할된 영상의 화질을 개선하는 과정을 나타낸 것이다
도 5는 일 실시예에 따른 제1 인공 신경망이 대상의 의미 단위를 학습하는 것을 나타낸 것이다.
도 6은 일 실시예에 따른 제2 인공 신경망이 분할된 영상을 결합하고, 하나의 영상으로 복원하는 것을 학습하는 과정을 나타낸 것이다.
도 7은 일 실시예에 따른 제어부가 가상 이미지를 생성하는 과정에 대하여 나타낸 것이다.
1 shows a vehicle according to an embodiment.
2 is a control block diagram of a vehicle according to an exemplary embodiment.
3 is a diagram illustrating a process of generating a virtual image by a controller according to an exemplary embodiment.
4 is a diagram illustrating a process of improving the quality of a divided image by a control unit according to an exemplary embodiment.
5 illustrates that a first artificial neural network learns a semantic unit of an object according to an embodiment.
6 is a diagram illustrating a process of learning to combine a segmented image by a second artificial neural network and reconstruct it into a single image according to an exemplary embodiment.
7 is a diagram illustrating a process of generating a virtual image by a controller according to an exemplary embodiment.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다. The same reference numerals refer to the same elements throughout the specification. This specification does not describe all elements of the embodiments, and general content in the technical field to which the present invention belongs or overlapping content between the embodiments will be omitted. The term'unit, module, member, block' used in the specification may be implemented in software or hardware, and according to embodiments, a plurality of'units, modules, members, blocks' may be implemented as one component, It is also possible for one'unit, module, member, block' to include a plurality of components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be "connected" with another part, this includes not only the case of being directly connected, but also the case of indirect connection, and the indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from other components, and the component is not limited by the above-described terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions, unless the context clearly makes exceptions.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. In each step, the identification code is used for convenience of explanation, and the identification code does not describe the order of each step, and each step may be implemented differently from the specified order unless a specific sequence is clearly stated in the context. have.

이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present invention will be described with reference to the accompanying drawings.

도 1 및 도 2는 개시된 실시예에 따른 차량(1)을 도시한 것이다.1 and 2 show a vehicle 1 according to the disclosed embodiment.

도 1 및 도 2를 참조하면 개시된 실시예에 따른 차량(1)은 영상 촬영부(100), 제어부(200) 및 표시부(300)를 포함한다.1 and 2, the vehicle 1 according to the disclosed embodiment includes an image capturing unit 100, a control unit 200, and a display unit 300.

개시된 실시예에 따른 영상 촬영부(100)는 차량(1)의 주변 환경을 촬영한다. 구체적으로, 개시된 일 실시예에 따른 영상 촬영부(100)는 카메라를 포함할 수 있다. 영상 촬영부(100)는 차량(1)이 자율 주행하는데 있어서 필요한 차량(1)의 전방, 측방 또는 후방 영상을 촬영할 수 있다. 영상 촬영부(100)가 촬영하는 차량(1) 주변 환경은 차량(1)이 주행하는 도로, 도로에 존재하는 교통 표지판, 신호등, 보행자 도로, 가로수, 횡단보도 또는 차선 등 고정된 대상일 수 있다. 또한, 영상 촬영부(100)가 촬영하는 차량(1) 주변 환경은 보행자 또는 다른 차량과 같은 이동하는 대상일 수 있다. The image photographing unit 100 according to the disclosed embodiment photographs the surrounding environment of the vehicle 1. Specifically, the image capture unit 100 according to the disclosed embodiment may include a camera. The image capturing unit 100 may capture a front, side, or rear image of the vehicle 1 required for autonomous driving of the vehicle 1. The environment surrounding the vehicle 1 photographed by the image photographing unit 100 may be a fixed object such as a road on which the vehicle 1 runs, a traffic sign existing on the road, a traffic light, a pedestrian road, a street tree, a crosswalk, or a lane. . In addition, the environment surrounding the vehicle 1 photographed by the image photographing unit 100 may be a moving target such as a pedestrian or another vehicle.

다만, 영상 촬영부(100)가 촬영하는 차량 주변 환경은 이에 한정되지 않으며, 차량(1)의 자율 주행에 영향을 미치는 다른 요소를 포함할 수 있다. 또한, 영상 촬영부(100)는 카메라에 한정되지 않으며, 레이더, 센서 또는 라이다(Lidar)와 같이 차량(1) 주변의 물체를 감지하는 구성을 포함할 수 있다.However, the environment surrounding the vehicle captured by the image capturing unit 100 is not limited thereto, and may include other factors affecting the autonomous driving of the vehicle 1. In addition, the image capturing unit 100 is not limited to a camera, and may include a component that detects an object around the vehicle 1 such as a radar, a sensor, or a lidar.

개시된 실시예에 따른 제어부(200)는 제1 인공 신경망 및 제2 인공신경망을 포함한다.The control unit 200 according to the disclosed embodiment includes a first artificial neural network and a second artificial neural network.

제1 인공 신경망은 촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하고, 제2 인공 신경망은 분할된 영상을 사용자가 인식하기 편한 화면으로 결합하도록 학습한다.The first artificial neural network learns the semantic unit of the object present in the captured image by deep learning, and the second artificial neural network learns to combine the divided image into a screen that is easy for the user to recognize.

개시된 실시예에 따른 제어부(200)는 제1 인공 신경망의 학습 결과에 기초하여 영상 촬영부(100)에 의해 촬영된 영상을 분할하고, 분할된 영상에 검출 대상이 존재하는지 판단한다. The control unit 200 according to the disclosed embodiment divides the image captured by the image capturing unit 100 based on the learning result of the first artificial neural network, and determines whether a detection target exists in the divided image.

또한, 개시된 실시예에 따른 제어부(200)는 검출 대상을 판단 하고, 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원 한다.In addition, the control unit 200 according to the disclosed embodiment determines the detection target, and highlights the detection target by simplifying at least one of the pattern or shape of the detection target based on the determination result, and converts the divided image into one image. To restore.

또한, 제어부(200)는 도 4에서 후술할 바와 같이 촬영된 영상을 분할하고, 분할된 영상에 존재하는 대상의 엣지정보를 획득하고, 분할된 영상의 노이즈를 필터링 할 수 있다.In addition, the controller 200 may divide the captured image as will be described later in FIG. 4, obtain edge information of an object present in the divided image, and filter noise of the divided image.

제어부는 차량(1)내 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.The control unit includes a memory (not shown) that stores data about an algorithm for controlling the operation of components in the vehicle 1 or a program that reproduces the algorithm, and a processor that performs the above-described operation using data stored in the memory ( Not shown). In this case, the memory and the processor may be implemented as separate chips, respectively. Alternatively, the memory and processor may be implemented as a single chip.

개시된 실시예에 따른 표시부(300)는 제어부(200)가 생성한 가상 이미지를 표시한다. 가상 이미지는 촬영된 영상을 분할하고, 분할된 영상에서 검출 대상의 패턴 또는 형태를 단순화하고, 이를 강조한 후에, 분할된 영상을 결합하여 생성되는 이미지 이다.The display unit 300 according to the disclosed embodiment displays a virtual image generated by the control unit 200. The virtual image is an image generated by dividing a captured image, simplifying the pattern or shape of the detection target in the divided image, highlighting it, and combining the divided images.

표시부(300)는 음극선관(Cathode Ray Tube: CRT), 디지털 광원 처리(Digital Light Processing: DLP) 패널, 플라즈마 디스플레이 패널(Plasma Display Penal), 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 전기 발광(Electro Luminescence: EL) 패널, 전기영동 디스플레이(Electrophoretic Display: EPD) 패널, 전기변색 디스플레이(Electrochromic Display: ECD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등으로 마련될 수 있으나, 이에 한정되지는 않는다.The display unit 300 includes a cathode ray tube (CRT), a digital light processing (DLP) panel, a plasma display panel, a liquid crystal display (LCD) panel, and an electroluminescent ( Electro Luminescence: EL panel, Electrophoretic Display (EPD) panel, Electrochromic Display (ECD) panel, Light Emitting Diode (LED) panel, or Organic Light Emitting Diode: OLED ) It may be provided as a panel or the like, but is not limited thereto.

또한, 개시된 영상 촬영부(100), 제어부(200) 및 표시부(300)는 각각의 구성과 통신할 수 있는 통신 모듈을 포함할 수 있다. 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.In addition, the disclosed image capturing unit 100, the control unit 200, and the display unit 300 may include a communication module capable of communicating with respective components. For example, it may include at least one of a short-range communication module, a wired communication module, and a wireless communication module.

근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.The short-range communication module is a Bluetooth module, an infrared communication module, a radio frequency identification (RFID) communication module, a wireless local access network (WLAN) communication module, an NFC communication module, and a Zigbee communication module. It may include various short-range communication modules that transmit and receive.

유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. Wired communication modules include various wired communication modules such as Controller Area Network (CAN) communication modules, Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules. In addition to communication modules, various cable communication such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard232), power line communication, or POTS (plain old telephone service) May contain modules.

무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.The wireless communication module includes a Wi-Fi module, a wireless broadband module, a global system for mobile communication (GSM), a code division multiple access (CDMA), a wideband code division multiple access (WCDMA), and a universal mobile telecommunications system (UMTS). ), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), etc. may include a wireless communication module supporting various wireless communication methods.

무선 통신 모듈은 신호를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 제어부의 제어에 따라 무선 통신 인터페이스를 통해 제어부(200)로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변환 모듈을 더 포함할 수 있다.The wireless communication module may include a wireless communication interface including an antenna for transmitting signals and a transmitter. In addition, the wireless communication module may further include a signal conversion module that modulates a digital control signal output from the control unit 200 into an analog type wireless signal through a wireless communication interface under control of the control unit.

무선 통신 모듈은 신호를 수신하는 안테나 및 수신기(Receiver)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 무선 통신 인터페이스를 통하여 수신한 아날로그 형태의 무선 신호를 디지털 제어 신호로 복조하기 위한 신호 변환 모듈을 더 포함할 수 있다. The wireless communication module may include a wireless communication interface including an antenna and a receiver for receiving signals. In addition, the wireless communication module may further include a signal conversion module for demodulating an analog wireless signal received through the wireless communication interface into a digital control signal.

도 1에 도시된 차량(1)의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted corresponding to the performance of the components of the vehicle 1 shown in FIG. 1. In addition, it will be readily understood by those of ordinary skill in the art that the mutual positions of the components may be changed corresponding to the performance or structure of the system.

한편, 도 1 및 도 2 에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다. Meanwhile, each of the components shown in FIGS. 1 and 2 refers to software and/or hardware components such as a Field Programmable Gate Array (FPGA) and an Application Specific Integrated Circuit (ASIC).

이하는 제어부(200)가 가상 이미지를 생성하는 과정 및 제1 인공 신경망과 제2 인공 신경망이 학습하는 과정에 대하여 설명한다.Hereinafter, a process in which the controller 200 generates a virtual image and a process in which the first artificial neural network and the second artificial neural network learns will be described.

도 3은 제어부(200)가 가상 이미지를 생성하는 과정에 대하여 도시한 것이다.3 is a diagram illustrating a process in which the controller 200 generates a virtual image.

도 3을 참조하면, 제1 인공 신경망은 도로에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습한다(2101). 제1 인공 신경망이 학습하는 과정은 도 5에서 자세히 후술한다.Referring to FIG. 3, the first artificial neural network learns a semantic unit of an object existing on a road by deep learning (2101). The learning process of the first artificial neural network will be described in detail later in FIG. 5.

제어부(200)는 제1 인공 신경망의 학습 결과에 기초하여 촬영된 영상을 분할 한다(2102). The controller 200 divides the captured image based on the learning result of the first artificial neural network (2102).

구체적으로, 제어부(200)는 제1 인공 신경망에서 학습한 도로에 존재하는 대상의 의미단위에 기초하여 촬영된 영상을 분할한다. 개시된 일 실시예에 따르면, 제1 인공 신경망은 도로에 존재하는 대상의 의미단위를 신호등, 차선, 보행자 및 횡단보도로 학습할 수 있고, 이러한 경우 제1 인공 신경망의 학습결과에 기초하여 제어부(200)는 4개의 의미 단위를 가지는 4개의 분할 영상을 생성할 수 있다. 다만, 제어부(200)가 영상을 분할하는 데 사용하는 의미 단위는 이에 한정되는 것은 아니고, 차량(1)의 주행에 필요한 다른 요소를 포함할 수 있다.Specifically, the controller 200 divides the captured image based on the semantic unit of the object existing on the road learned by the first artificial neural network. According to the disclosed embodiment, the first artificial neural network may learn semantic units of objects existing on the road as traffic lights, lanes, pedestrians, and crosswalks. In this case, the controller 200 may be based on the learning result of the first artificial neural network. ) May generate 4 divided images having 4 semantic units. However, the semantic unit used by the controller 200 to divide the image is not limited thereto, and may include other elements necessary for driving of the vehicle 1.

제어부(200)는 분할된 영상에 검출 대상이 존재하는지 판단한다(2103).The controller 200 determines whether a detection target exists in the divided image (2103).

구체적으로, 검출 대상은 차량(1)이 자율 주행 하는데 있어서, 사용자가 중점적으로 인식 해야하는 대상을 의미한다. Specifically, the detection target refers to an object that the user should intensively recognize when the vehicle 1 is autonomously driving.

개시된 일 실시예에 따르면, 차량(1)이 비오는 날 밤 시간대에 주행을 하는 경우, 사용자는 차량(1) 주변의 차선을 인식하지 못할 가능성이 높다. 따라서,이러한 경우, 제어부(200)는 도로에 존재하는 차선을 검출 대상으로 할 수 있다. According to the disclosed embodiment, when the vehicle 1 is driving during a rainy night, there is a high possibility that the user may not recognize a lane around the vehicle 1. Therefore, in this case, the controller 200 may target a lane existing on the road.

개시된 다른 실시예에 따르면, 차량(1)이 어린이 보호구역을 주행하는 경우, 제어부(200)는 도로에 존재하는 보행자를 검출 대상으로 할 수 있다.According to another disclosed embodiment, when the vehicle 1 is driving in a child protection zone, the control unit 200 may target a pedestrian existing on a road to be detected.

다만, 제어부(200)가 판단하는 검출대상은 이에 한정되지 않으며, 도로 상황 또는 차량의 주행상황에 따라 달라질 수 있다.However, the detection target determined by the control unit 200 is not limited thereto, and may vary according to a road condition or a driving condition of the vehicle.

제어부(200)는 분할된 영상에 검출 대상이 존재하는 것으로 판단하면 검출대상을 강조한다(2104, 2105). 그러나, 제어부(200)는 분할된 영상에 검출 대상이 존재하지 않는 것으로 판단되면 계속하여 분할된 영상에 검출 대상이 존재하는지 판단한다(2104).When it is determined that the detection target exists in the divided image, the controller 200 highlights the detection target (2104, 2105). However, if it is determined that the detection target does not exist in the divided image, the controller 200 continuously determines whether the detection target exists in the divided image (2104).

제어부(200)가 검출 대상을 강조하는 방법은 검출 대상의 패턴 또는 형태를 단순화하고 강조하는 것을 포함할 수 있다.The method for the control unit 200 to emphasize the detection object may include simplifying and emphasizing the pattern or shape of the detection object.

검출 대상의 패턴 또는 형태를 단순화 하는 것은 도로에 존재하는 대상의 형태가 전형적인 형태가 아니거나, 사용자가 감지하기 어려운 상태로 판단되는 경우, 대상의 형태를 대상의 일반적인 형태로 단순화 하는 것을 의미한다. 또한, 검출 대상의 패턴 또는 형태를 강조하는 것은, 검출 대상의 엣지(edge)정보를 추출하고, 추출된 엣지(edge)정보에 기초하여 대상의 윤곽선 및 색상을 두드러지게 하는 것을 의미한다.Simplifying the pattern or shape of the object to be detected means simplifying the shape of the object to the general shape of the object when it is determined that the shape of the object existing on the road is not a typical shape or a state that is difficult for the user to detect. In addition, emphasizing the pattern or shape of the detection target means extracting edge information of the detection target and highlighting the outline and color of the target based on the extracted edge information.

개시된 일 실시예에 따르면, 제어부(200)가 도로에 존재하는 차선을 검출 대상으로 판단한 경우, 제어부(200)는 도로에 존재하는 차선의 일부가 지워져 있는 경우에도, 지워진 부분의 형태를 일반적인 차선의 형태로 보정할 수 있고, 차선의 색상 및 윤곽선도 강조할 수 있다.According to the disclosed embodiment, when the control unit 200 determines a lane existing on the road as a detection target, the control unit 200 determines the shape of the erased part of the general lane even when a part of the lane existing on the road is erased. The shape can be corrected, and the color and outline of the lane can also be emphasized.

다만, 제어부(200)가 검출 대상의 패턴 또는 형태를 단순화하고 강조하는 것은 이에 한정되지 않으며, 다른 단순화 방식 또는 강조방식을 사용할 수 있다. 또한, 제어부(200)가 검출 대상으로 판단하는 대상은 차량(1)의 주행에 영향을 미치는 다른 요소를 포함할 수 있다.However, the control unit 200 is not limited to simplifying and emphasizing the pattern or shape of the detection target, and other simplification methods or enhancement methods may be used. In addition, the target determined by the controller 200 as a detection target may include other factors that affect the driving of the vehicle 1.

제어부(200)는 분할된 영상을 복원한다(2106). The controller 200 restores the divided image (2106).

구체적으로, 제어부(200)는 분할된 영상을 결합하여 실제 주행 영상과 같이 복원한다. 제어부(200)는 제2 인공 신경망의 학습 결과에 기초하여 분할된 영상을 결합할 수 있다. 제2 인공 신경망은 도로에 존재하는 대상의 의미 단위 및 엣지 정보에 기초하여 대상의 색상 정보를 다르게 설정하고, 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선하도록 학습할 수 있다. Specifically, the controller 200 combines the divided images and restores them like an actual driving image. The controller 200 may combine the divided images based on the learning result of the second artificial neural network. The second artificial neural network may learn to set the color information of the object differently based on the semantic unit and edge information of the object existing on the road, and to improve the image quality of the divided image based on the set color.

또한, 제2 인공 신경망은 미리 설정된 검증 영상과 복원된 영상을 비교하고, 비교 결과 복원된 영상이 검증 영상과 동일한 것으로 판단하도록 학습할 수 있다. 여기서 미리 설정된 검증 영상은 차량(1)의 주행 환경에 무관하게 사용자가 차량(1) 주변 환경을 인식하기 쉽게 하기 위하여 낮 시간대, 맑은 기상 환경에서 주행하는 영상일 수 있다. 다만, 검증 영상은 이에 한정되지 않으며, 사용자 설정 또는 차량(1)의 주행 환경에 따라 달라질 수 있다.In addition, the second artificial neural network may learn to compare the preset verification image and the reconstructed image, and determine that the reconstructed image as a result of the comparison is the same as the verification image. Here, the preset verification image may be an image running in a daytime or sunny weather environment in order to make it easier for the user to recognize the environment surrounding the vehicle 1 regardless of the driving environment of the vehicle 1. However, the verification image is not limited thereto, and may vary according to a user setting or a driving environment of the vehicle 1.

제어부(200)는 복원된 영상에 기초하여 가상 이미지를 생성한다(2107). The controller 200 generates a virtual image based on the reconstructed image (2107).

구체적으로, 제어부(200)는 차량(1)의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성할 수 있다. Specifically, the controller 200 may determine the driving condition of the vehicle 1 and generate the virtual image based on the determination result.

도 4는 개시된 실시예에 따른 제어부(200)가 분할된 영상의 화질을 개선하는 과정을 나타낸 것이다.4 is a diagram illustrating a process of improving the image quality of a divided image by the control unit 200 according to the disclosed embodiment.

개시된 실시예에 따르면 영상 촬영부(100)는 차량(1) 주변 환경을 촬영하고(2201), 제어부(200)는 촬영된 대상의 의미 단위에 기초하여 영상을 분할한다(2202).According to the disclosed embodiment, the image photographing unit 100 photographs the surrounding environment of the vehicle 1 (2201), and the control unit 200 divides the image based on the semantic unit of the photographed object (2202).

제어부(200)는 분할된 영상에어 촬영된 대상의 엣지(edge) 정보를 획득한다(2203). 여기서 엣지(edge) 정보는 검출하고자 하는 대상의 윤곽선 정보일 수 있다. The control unit 200 acquires edge information of the object photographed by the divided image (2203). Here, the edge information may be contour information of an object to be detected.

제어부(200)는 대상의 엣지(edge) 정보를 획득하고 분할 영상의 노이즈 필링을 수행한다(2204).The controller 200 acquires edge information of an object and performs noise filling of the divided image (2204).

구체적으로, 제어부(200)는 Bilateral Filtering과 같은 스무딩 필터를 적용하여 작은 노이즈 제거하는 과정을 포함하여 노이즈 필터링을 할 수 있다. 또한, 제어부(200)는 대상의 외곽선을 단순히 하면서 영상 분할시 발생한 hole을 채우고, 인식 대상이 아닌 불필요한 분할 영상을 제거하는 과정을 포함하여 노이즈 필터링을 할 수 있다.Specifically, the control unit 200 may perform noise filtering including a process of removing small noise by applying a smoothing filter such as Bilateral Filtering. In addition, the control unit 200 may perform noise filtering, including a process of filling a hole generated during image segmentation while simply making an outline of an object, and removing unnecessary segmented images that are not a recognition target.

다만, 제어부(200)가 수행하는 노이즈 필터링 과정은 이에 한정되지 아니하고, 분할 영상의 화질을 개선할 수 있는 다른 필터링 과정을 포함할 수 있다.However, the noise filtering process performed by the control unit 200 is not limited thereto, and may include another filtering process capable of improving the image quality of the divided image.

제어부(200)는 상술한 과정을 통하여 분할 영상의 화질을 개선할 수 있다(2205).The controller 200 may improve the image quality of the divided image through the above-described process (2205).

도 5는 제1 인공 신경망이 차량 주변의 대상을 대상의 의미단위에 기초하여 딥러닝에 의한 학습하는 것을 나타낸 것이다.5 shows that the first artificial neural network learns an object around a vehicle by deep learning based on the semantic unit of the object.

도 5를 참조하면, 개시된 제1 인공 신경망은 f1 내지 f5과정을 통하여 대상의 의미 단위를 학습한다. 대상의 의미 단위는 차량(1)이 자율 주행하는데 있어서 영향을 미칠 수 있는 차량(1) 주변의 요소를 의미한다. 상술한 바와 같이, 대상의 의미 단위의 예를 들면, 신호등, 차선, 보행자 및 횡단보도가 각각 대상의 의미 단위가 될 수 있다. Referring to FIG. 5, the disclosed first artificial neural network learns a semantic unit of an object through processes f1 to f5. The meaning unit of the object means the elements around the vehicle 1 that can have an influence on the vehicle 1 autonomously driving. As described above, for example, traffic lights, lanes, pedestrians, and crosswalks of the semantic unit of the object may be the semantic units of the object, respectively.

개시된 일 측면에 따른 제1 인공 신경망은 f1 내지 f2 과정을 차량(1) 주변의 이미지를 획득하는 방식으로 학습할 수 있다. 또한, 제1 인공신경망은 학습된 이미지를 빅 데이터화 하여 Pin으로 사용할 수 있다. The first artificial neural network according to the disclosed aspect may learn processes f1 to f2 by acquiring an image around the vehicle 1. In addition, the first artificial neural network can convert the learned image into big data and use it as a pin.

개시된 일 측면에 따른 제1 인공 신경망은 학습된 대상의 의미 단위에 기초하여 대상의 의미단위를 분류할 수 있다(P2). 제1 인공 신경망은 분류된 대상의 의미 단위에서 촬영된 영상에 존재하는 의미 단위를 Pout으로 추출할 수 있다. 추출된 대상의 의미 단위는 제어부(200)가 촬영된 영상을 분할하는데 사용될 수 있다.The first artificial neural network according to the disclosed aspect may classify the semantic unit of the object based on the semantic unit of the learned object (P2). The first artificial neural network may extract a semantic unit existing in an image captured from a semantic unit of the classified object as Pout. The semantic unit of the extracted object may be used to divide the image captured by the controller 200.

또한, 개시된 일 실시예에 따른 제1 인공 신경망은 신경망은 CNN(Convolution Neural Network)을 포함할 수 있다. 여기서 CNN은 이미지(또는 영상의 이미지 프레임)를 입력값으로 입력하고, 입력된 이미지를 특징 맵(feature map)을 생성하는 특징 러닝(feature learning)과 생성된 특징 맵(feature map)을 입력값으로 이미지의 종류를 판단하는 분류(classification)으로 구분될 수 있다.In addition, the first artificial neural network according to the disclosed embodiment may include a convolution neural network (CNN). Here, CNN inputs an image (or an image frame of an image) as an input value, and uses a feature learning to generate a feature map and a generated feature map as an input value. It can be classified into classification, which determines the type of image.

먼저, 분류는 멀티-레이어 퍼셉트론(multi-layer perceptron)으로 구성될 수 있다. 퍼셉트론이란, 인체의 신경망의 기본 구조인 뉴런과 동일한 기능을 수행하는 기계 학습의 기본 구조를 의미한다. 즉, 퍼셉트론은 입력값에 가중치(weight)를 곱하고, 바이어스(bias)와 더한 후, 변형된 입력값을 전달함수(transfer function 또는 activation function)으로 구성된다. 전달함수의 역치값을 만족하는 변형된 입력값만을 출력값으로 출력한다. 퍼셉트론은, 출력되는 출력값이 원하는 결과값이 되도록 가중치 및 바이어스를 스스로 조정함으로써, 반복되는 입력값으로부터 원하는 결과값이 추론되도록 학습되는 구조이다.First, the classification may consist of a multi-layer perceptron. Perceptron refers to the basic structure of machine learning that performs the same functions as neurons, which are the basic structures of the human body's neural network. That is, the perceptron is composed of an input value multiplied by a weight, added with a bias, and then a modified input value as a transfer function or activation function. Only the transformed input value that satisfies the threshold value of the transfer function is output as an output value. The perceptron is a structure in which a desired result value is inferred from a repeated input value by self-adjusting a weight and a bias so that an output value is a desired result value.

영상의 종류를 판단하기 위해서, 신경망은 멀티-레이어 퍼셉트론에 촬영된 영상의 이미지 프레임에 포함된 각각의 픽셀값을 입력-레이어(Pin)에 입력할 수 있다. 또한, 개시된 신경망의 일 예인, CNN은 특징 학습(feature learning)에서 컨벌루젼 기법을 이용하여 특징 이미지를 생성할 수 있다.In order to determine the type of image, the neural network may input each pixel value included in an image frame of an image captured on a multi-layer perceptron into an input-layer Pin. In addition, the CNN, which is an example of the disclosed neural network, may generate a feature image using a convolution technique in feature learning.

다만, 제1 인공 신경망은 이에 한정되는 것은 아니고, 촬영된 영상 또는 이미지를 딥러닝에 의해 학습할 수 있는 다른 신경망을 포함할 수 있다.However, the first artificial neural network is not limited thereto, and may include another neural network capable of learning a captured image or image by deep learning.

도 6은 개시된 실시예에 따른 제2 인공 신경망이 분할된 영상을 결합하고, 하나의 영상으로 복원하는 것을 학습하는 과정을 나타낸 것이다.6 is a diagram illustrating a process of learning to combine divided images by a second artificial neural network according to the disclosed embodiment and reconstruct them into a single image.

도 6을 참조하면, 제2 인공 신경망은 상술한 제1 인공 신경망과 반대의 역할을 수행한다.Referring to FIG. 6, the second artificial neural network plays a role opposite to the above-described first artificial neural network.

구체적으로, 제2 인공 신경망은 N과정을 통하여 분류된 대상의 의미 단위에서 사용자가 인식해야 하는 의미 단위를 추출한다. 추출된 의미 단위는 강조가 필요한 검출 대상을 의미할 수 있다.Specifically, the second artificial neural network extracts a semantic unit that the user must recognize from the semantic unit of the object classified through the N process. The extracted semantic unit may mean a detection object that needs to be emphasized.

제어부(200)는 제2 인공 신경망에서 추출된 검출 대상의 의미 정보에 기초하여 분할된 영상을 하나의 영상으로 복원할 수 있다ⓒ.The controller 200 may restore the divided image into one image based on the semantic information of the detection target extracted from the second artificial neural network ⓒ.

도 7은 제어부(200)가 가상 이미지를 생성하는 과정을 도시한 것이다.7 shows a process in which the controller 200 generates a virtual image.

도 7을 참조하면, 제어부(200)는 제1 인공 신경망의 학습 결과에 기초하여 촬영된 영상을 분할하고, 제2 인공 신경망의 학습 결과에 기초하여 분할된 영상을 복원 한다(2301). 여기서, 복원된 영상은 사용자가 인식할 필요성이 있는 대상이 강조되어 있는 영상이다.Referring to FIG. 7, the controller 200 divides a captured image based on a learning result of a first artificial neural network, and restores the segmented image based on a learning result of a second artificial neural network (2301). Here, the reconstructed image is an image in which an object that the user needs to recognize is highlighted.

제어부(200)는 복원된 영상이 미리 설정된 검증 영상과 동일한지 판단한다(2301). 여기서 검증 영상은 사용자가 미리 설정한 기준을 충족하는 영상일 수 있다. The controller 200 determines whether the restored image is the same as the preset verification image (2301). Here, the verification image may be an image that satisfies a criterion preset by the user.

개시된 일 실시예에 따른 검증 영상은 낮 시간대의 맑은 날을 가정한 주행 영상일 수 있다. 상기와 같은 검증 영상과 복원된 영상을 비교함으로써, 제어부(200)는 일정한 품질을 가지는 영상을 생성할 수 있다.The verification image according to the disclosed embodiment may be a driving image assuming a sunny day in the daytime. By comparing the verification image and the reconstructed image as described above, the controller 200 may generate an image having a certain quality.

제어부(200)는 복원된 영상이 검증 영상과 동일한 것으로 판단되면 복원된 영상에 기초하여 가상 이미지를 생성한다(2303). 여기서, 가상 이미지는 사용자가 인식할 필요성이 있는 대상이 강조되고, 노이즈 필터링을 마친 영상일 수 있다. 그러나, 복원된 영상이 검증 영상과 동일하지 않은 것으로 판단되면, 제어부(200)는 계속하여 영상을 복원한다.If it is determined that the restored image is the same as the verification image, the controller 200 generates a virtual image based on the restored image (2303). Here, the virtual image may be an image in which an object that needs to be recognized by the user is emphasized and noise filtering has been completed. However, if it is determined that the restored image is not the same as the verification image, the controller 200 continues to restore the image.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. The instruction may be stored in the form of a program code, and when executed by a processor, a program module may be generated to perform the operation of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media in which instructions that can be read by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the accompanying drawings. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be practiced in a form different from the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.

1: 차량
100 : 영상 촬영부
200 : 제어부
300 : 표시부
1: vehicle
100: video recording unit
200: control unit
300: display

Claims (20)

촬영된 영상을 표시하는 표시부;
주변 영상을 촬영하는 영상 촬영부;
촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하는 제1 인공 신경망;
상기 학습 결과에 기초하여 상기 촬영된 영상을 분할하고, 상기 분할된 영상에 검출 대상이 존재하는지 판단하고, 상기 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원하고, 상기 복원된 영상에 기초하여 가상 이미지를 생성하도록 상기 표시부를 제어하는 제어부;를 포함하는 차량.
A display unit that displays the captured image;
An image photographing unit for photographing surrounding images;
A first artificial neural network that learns a semantic unit of an object present in the captured image by deep learning;
Dividing the captured image based on the learning result, determining whether a detection target exists in the divided image, and highlighting the detection target by simplifying at least one of a pattern or shape of the detection target based on the determination result And a control unit for restoring the divided image into one image and controlling the display unit to generate a virtual image based on the restored image.
제1 항에 있어서,
상기 분할된 영상을 결합하도록 학습하는 제2 인공신경망;을 더 포함하고,
상기 제어부는,
상기 학습 결과에 기초하여 가상 이미지를 생성하는 차량.
The method of claim 1,
Further comprising; a second artificial neural network for learning to combine the divided images,
The control unit,
A vehicle that generates a virtual image based on the learning result.
제1 항에 있어서,
상기 제어부는,
상기 분할된 영상에 나타난 대상의 경계를 보정하고, 상기 분할된 영상의 노이즈를 제거하는 차량.
The method of claim 1,
The control unit,
A vehicle that corrects a boundary of an object appearing in the divided image and removes noise from the divided image.
제2 항에 있어서,
상기 제어부는,
상기 차량이 주간 및 맑은 날 주행하는 상황으로 가정하고, 상기 가정된 상황에 기초하여 일정한 조도를 가지는 가상 이미지를 생성하는 차량.
The method of claim 2,
The control unit,
A vehicle for generating a virtual image having a constant illuminance based on the assumed situation, assuming that the vehicle is driving during the day and on a clear day.
제1 항에 있어서,
상기 제어부는
상기 대상의 의미 단위 및 엣지 정보에 기초하여 상기 대상의 색상 정보를 다르게 설정하고, 상기 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선하는 차량.
The method of claim 1,
The control unit
A vehicle configured to differently set color information of the object based on the semantic unit and edge information of the object, and to improve the image quality of the divided image based on the set color.
제1 항에 있어서,
상기 제어부는,
상기 복원된 영상의 화질을 홀 필터(Hole Filter)에 의하여 개선하는 차량.
The method of claim 1,
The control unit,
A vehicle that improves the quality of the restored image by using a Hall filter.
제1 항에 있어서,
상기 제어부는,
상기 대상의 의미 단위에 기초하여 상기 대상의 형태를 미리 설정된 형태로 단순화 하는 차량.
The method of claim 1,
The control unit,
A vehicle that simplifies the shape of the object into a preset shape based on the meaning unit of the object.
제2 항에 있어서,
상기 제어부는,
미리 설정된 검증 영상과 상기 복원된 영상을 비교하고, 상기 비교 결과 상기 복원된 영상이 상기 검증 영상과 동일한 것으로 판단하도록 학습하고, 상기 학습 결과에 기초하여 가상 이미지를 생성하는 차량.
The method of claim 2,
The control unit,
A vehicle that compares a preset verification image and the restored image, learns to determine that the restored image is the same as the verification image as a result of the comparison, and generates a virtual image based on the learning result.
제3 항에 있어서,
상기 제어부는,
스무딩 필터(Smoothing Filter)를 사용하여 상기 분할된 영상의 노이즈를 제거하는 차량.
The method of claim 3,
The control unit,
A vehicle that removes noise from the segmented image using a smoothing filter.
제1 항에 있어서,
상기 제어부는,
상기 차량의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성하는 차량.
The method of claim 1,
The control unit,
A vehicle that determines the driving condition of the vehicle and generates the virtual image based on the determination result.
주변 영상을 촬영하고;
촬영된 영상을 표시하고;
촬영된 영상에 존재하는 대상의 의미 단위를 딥러닝에 의해 학습하고, 상기 학습 결과에 기초하여 상기 촬영된 영상을 분할하고, 상기 분할된 영상에 검출 대상이 존재하는지 판단하고, 상기 판단 결과에 기초하여 검출 대상의 패턴 또는 형태 중 적어도 하나를 단순화하여 상기 검출 대상을 강조하고, 상기 분할된 영상을 하나의 영상으로 복원하고, 상기 복원된 영상에 기초하여 가상 이미지를 생성하는 차량의 제어방법.
Photographing surrounding images;
Display the captured image;
Learning the semantic unit of the object present in the captured image by deep learning, segmenting the captured image based on the learning result, determining whether a detection object exists in the segmented image, and determining whether the detection target exists Thus, at least one of the pattern or shape of the detection target is simplified to highlight the detection target, restore the divided image to one image, and generate a virtual image based on the restored image.
제11 항에 있어서,
상기 분할된 영상을 결합하도록 학습하는 것;을 더 포함하고,
상기 제어하는 것은,
상기 학습 결과에 기초하여 가상 이미지를 생성하는 차량의 제어방법.
The method of claim 11,
Learning to combine the divided images; further comprising,
To control the above,
A vehicle control method for generating a virtual image based on the learning result.
제11 항에 있어서,
상기 제어하는 것은,
상기 분할된 영상에 나타난 대상의 경계를 보정하고, 상기 분할된 영상의 노이즈를 제거하는 차량의 제어방법.
The method of claim 11,
To control the above,
A vehicle control method for correcting a boundary of an object appearing in the divided image and removing noise from the divided image.
제12 항에 있어서,
상기 제어하는 것은,
상기 차량이 주간 및 맑은 날 주행하는 상황으로 가정하고, 상기 가정된 상황에 기초하여 일정한 조도를 가지는 가상 이미지를 생성하는 차량의 제어방법.
The method of claim 12,
To control the above,
A vehicle control method for generating a virtual image having a constant illuminance based on the assumed situation, assuming that the vehicle is driving during the day and on a clear day.
제11 항에 있어서,
상기 제어하는 것은,
상기 대상의 의미 단위 및 엣지 정보에 기초하여 상기 대상의 색상 정보를 다르게 설정하고, 상기 설정된 색상에 기초하여 상기 분할된 영상의 화질을 개선하는 차량의 제어방법.
The method of claim 11,
To control the above,
A vehicle control method for differently setting color information of the object based on the semantic unit and edge information of the object, and improving the image quality of the divided image based on the set color.
제11 항에 있어서,
상기 제어하는 것은,
상기 복원된 영상의 화질을 홀 필터(Hole Filter)에 의하여 개선하는 차량의 제어방법.
The method of claim 11,
To control the above,
A vehicle control method for improving the quality of the restored image by using a hole filter.
제11 항에 있어서,
상기 제어하는 것은,
상기 대상의 의미 단위에 기초하여 상기 대상의 형태를 미리 설정된 형태로 단순화 하는 차량의 제어방법.
The method of claim 11,
To control the above,
A vehicle control method for simplifying the shape of the object into a preset shape based on the meaning unit of the object.
제12 항에 있어서,
상기 제어하는 것은,
미리 설정된 검증 영상과 상기 복원된 영상을 비교하고, 상기 비교 결과 상기 복원된 영상이 상기 검증 영상과 동일한 것으로 판단하도록 학습하고, 상기 학습 결과에 기초하여 가상 이미지를 생성하는 차량의 제어방법.
The method of claim 12,
To control the above,
A vehicle control method for comparing a preset verification image and the restored image, learning to determine that the restored image is the same as the verification image as a result of the comparison, and generating a virtual image based on the learning result.
제13 항에 있어서,
상기 제어하는 것은,
스무딩 필터(Smoothing Filter)를 사용하여 상기 분할된 영상의 노이즈를 제거하는 차량의 제어방법.
The method of claim 13,
To control the above,
A vehicle control method for removing noise from the divided image using a smoothing filter.
제11 항에 있어서,
상기 제어하는 것은,
상기 차량의 주행상황을 판단하고, 판단 결과에 기초하여 상기 가상 이미지를 생성하는 차량의 제어방법.

The method of claim 11,
To control the above,
A vehicle control method for determining the driving condition of the vehicle and generating the virtual image based on the determination result.

KR1020190109111A 2019-09-03 2019-09-03 Vehicle and controlling method of vehicle KR20210027974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190109111A KR20210027974A (en) 2019-09-03 2019-09-03 Vehicle and controlling method of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190109111A KR20210027974A (en) 2019-09-03 2019-09-03 Vehicle and controlling method of vehicle

Publications (1)

Publication Number Publication Date
KR20210027974A true KR20210027974A (en) 2021-03-11

Family

ID=75142811

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190109111A KR20210027974A (en) 2019-09-03 2019-09-03 Vehicle and controlling method of vehicle

Country Status (1)

Country Link
KR (1) KR20210027974A (en)

Similar Documents

Publication Publication Date Title
US10504214B2 (en) System and method for image presentation by a vehicle driver assist module
US9262693B2 (en) Object detection apparatus
US20060215882A1 (en) Image processing apparatus and method, recording medium, and program
CN109409186B (en) Driver assistance system and method for object detection and notification
US11700457B2 (en) Flicker mitigation via image signal processing
US11328428B2 (en) Technologies for detection of occlusions on a camera
US11436839B2 (en) Systems and methods of detecting moving obstacles
CN103440484A (en) Flame detection method adaptive to large outdoor space
KR101534973B1 (en) Image Processing Apparatus and Method for Removing Rain From Image Data
US20240013453A1 (en) Image generation method and apparatus, and storage medium
CN110599516A (en) Moving target detection method and device, storage medium and terminal equipment
US10755114B1 (en) Efficient two-stage object detection scheme for embedded device
KR102171384B1 (en) Object recognition system and method using image correction filter
CN102622594A (en) Short-distance objective extraction method based on infrared rays and frame difference
CN110121055B (en) Method and apparatus for object recognition
KR20210027974A (en) Vehicle and controlling method of vehicle
JP2018106239A (en) Image processing apparatus, image processing method and image processing program
Małecki et al. Mobile system of decision-making on road threats
KR20190105273A (en) Preprocessing method for color filtering robust against illumination environment and the system thereof
Andalibi et al. Automatic glare detection via photometric, geometric, and global positioning information
CN104660954A (en) Method and device for improving image brightness based on background modeling under low-illuminance scene
KR101865958B1 (en) Method and apparatus for recognizing speed limit signs
KR20160040335A (en) Low Power Vehicle Video Recorder with Infrared Lighting Functions for Vision Recognition Enhancement in Low Level Light Environment and Vehicle Video Recording Method thereof
Rajkumar et al. Vehicle Detection and Tracking System from CCTV Captured Image for Night Vision
KR102592860B1 (en) Pedestrian detection device and detection method

Legal Events

Date Code Title Description
A201 Request for examination