KR20210087496A - Object property detection, neural network training and intelligent driving method, device - Google Patents
Object property detection, neural network training and intelligent driving method, device Download PDFInfo
- Publication number
- KR20210087496A KR20210087496A KR1020217016723A KR20217016723A KR20210087496A KR 20210087496 A KR20210087496 A KR 20210087496A KR 1020217016723 A KR1020217016723 A KR 1020217016723A KR 20217016723 A KR20217016723 A KR 20217016723A KR 20210087496 A KR20210087496 A KR 20210087496A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- attribute
- lane
- property
- road
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 134
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 66
- 238000001514 detection method Methods 0.000 title claims abstract description 54
- 238000012549 training Methods 0.000 title claims abstract description 39
- 230000011218 segmentation Effects 0.000 claims abstract description 35
- 238000004590 computer program Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 59
- 238000000605 extraction Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 7
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 6
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 6
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000003746 surface roughness Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
본 실시예는 객체 속성 검출 방법, 신경망 훈련 방법 및 지능형 주행 방법, 장치, 전자 기기, 컴퓨터 저장매체 및 컴퓨터 프로그램을 제공한다. 상기 객체 속성 검출 방법은, 처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하는 단계 - 상기 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타냄 - ; 상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하는 단계 - 상기 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타냄 - ; 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계를 포함한다.The present embodiment provides an object attribute detection method, a neural network training method and an intelligent driving method, an apparatus, an electronic device, a computer storage medium, and a computer program. The method for detecting object properties includes: performing semantic segmentation on an image to be processed, and determining a mask image of the image to be processed, wherein the mask image indicates a position of an object in the image to be processed; determining, according to the mask image, an attribute characteristic belonging to the object among attribute characteristic maps of the image to be processed, wherein the attribute characteristic map of the image to be processed indicates attributes of the image to be processed; and determining a property of the object according to the property characteristic of the object.
Description
관련 출원의 상호 참조Cross-referencing of related applications
본 출원은 출원번호가 201911081216.4이고 출원일자가 2019년 11월 7일인 중국 특허 출원을 기반으로 제출되며, 당해 중국 특허 출원의 우선권을 요청하며, 당해 중국 특허 출원의 전부 내용을 참고로 본 출원에 인용한다.This application is filed based on a Chinese patent application with an application number of 201911081216.4 and an filing date of November 7, 2019, requesting priority to the Chinese patent application, and the entire contents of the Chinese patent application are incorporated herein by reference. .
본 출원은 컴퓨터 시각 처리 기술에 관한 것으로서, 객체 속성 검출, 신경망 훈련 및 지능형 주행 방법, 장치, 전자 기기, 컴퓨터 저장매체 및 컴퓨터 프로그램에 관한 것이나 이에 한정되지 않는다.The present application relates to computer visual processing technology, and relates to, but is not limited to, object property detection, neural network training and intelligent driving method, apparatus, electronic device, computer storage medium, and computer program.
컴퓨터 시각 기술의 지속적인 발전에 따라, 이미지 중 객체 속성에 대한 인식은 점차 연구 중점으로 되고있다. 예를 들어, 차선 속성에 대한 인식은 차선 분할, 경로 계획 및 충돌 경고 등에 유리하다. 관련 기술에서, 이미지 중 객체 속성을 정확히 인식하는 것은 시급히 해결해야 할 기술적 과제로 되었다.With the continuous development of computer vision technology, the recognition of object properties in images is gradually becoming a research focus. For example, recognition of lane attributes is beneficial for lane division, route planning and collision warning, etc. In the related art, it has become a technical task to be urgently solved to accurately recognize object properties in an image.
본 출원의 실시예는 객체 속성 검출의 기술적 방안을 제공하고자 한다.An embodiment of the present application is intended to provide a technical method for object attribute detection.
본 출원의 실시예는 객체 속성 검출 방법을 제공하며, 상기 방법은An embodiment of the present application provides a method for detecting object properties, the method comprising:
처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하는 단계 - 상기 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타냄 - ; performing semantic segmentation on the image to be processed, and determining a mask image of the image to be processed, the mask image indicating a position of an object in the image to be processed;
상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하는 단계 - 상기 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타냄 - ;determining, according to the mask image, an attribute characteristic belonging to the object among attribute characteristic maps of the image to be processed, wherein the attribute characteristic map of the image to be processed indicates attributes of the image to be processed;
상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계를 포함한다. and determining a property of the object according to the property characteristic of the object.
본 출원의 실시예는 신경망의 훈련 방법을 더 제공하며, 상기 방법은 An embodiment of the present application further provides a training method of a neural network, the method comprising:
샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 샘플 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정하는 단계 - 상기 태깅된 마스크 이미지는 상기 샘플 이미지 중 상기 객체의 위치를 나타내고, 상기 샘플 이미지의 속성 특징맵은 상기 샘플 이미지의 속성을 나타냄 - ;determining, according to the tagged mask image of the sample image, an attribute characteristic belonging to an object in the attribute characteristic map of the sample image, wherein the tagged mask image indicates a location of the object in the sample image, and a property of the sample image The feature map indicates the properties of the sample image;
상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계;determining a property of the object according to the property characteristic of the object;
결정된 상기 객체의 속성과 상기 객체의 태깅된 속성 간의 차이, 및 상기 태깅된 마스크 이미지와 상기 샘플 이미지에 대해 시멘틱 분할을 수행하여 결정된 상기 샘플 이미지의 마스크 이미지 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정하는 단계를 포함한다. According to a difference between the determined property of the object and the tagged property of the object, and a difference between the tagged mask image and the mask image of the sample image determined by performing semantic segmentation on the sample image, the network parameter value of the neural network including adjusting the
본 출원의 실시예는 지능형 주행 방법을 더 제공하며, 상기 방법은An embodiment of the present application further provides an intelligent driving method, the method comprising
상술한 어느 한 객체 속성 검출 방법을 이용하여, 지능형 주행 기기에 의해 획득된 도로 이미지 중 차선 속성을 검출하는 단계; detecting a lane property from a road image acquired by an intelligent driving device using any one of the object property detecting methods described above;
검출된 차선 속성에 따라, 상기 도로 이미지에 대응하는 도로 상에서 주행하도록 지능형 주행 기기를 지시하는 단계를 포함한다. instructing the intelligent driving device to drive on a road corresponding to the road image according to the detected lane attribute.
본 출원의 실시예는 객체 속성 검출 장치를 더 제공하며, 상기 장치는 제1 처리 모듈, 제2 처리 모듈 및 제3 처리 모듈을 포함하며, An embodiment of the present application further provides an object attribute detection apparatus, the apparatus comprising a first processing module, a second processing module and a third processing module,
제1 처리 모듈은 처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하도록 구성되고, 상기 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타내며;the first processing module is configured to perform semantic segmentation on the image to be processed, and determine a mask image of the image to be processed, the mask image indicating a position of an object in the image to be processed;
제2 처리 모듈은 상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하도록 구성되고, 상기 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타내며;a second processing module is configured to determine, according to the mask image, an attribute characteristic belonging to the object among the attribute characteristic map of the image to be processed, the attribute characteristic map of the image to be processed indicates the attribute of the image to be processed;
제3 처리 모듈은 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하도록 구성된다. The third processing module is configured to determine the property of the object according to the property characteristic of the object.
본 출원의 실시예는 신경망 훈련 장치를 더 제공하며, 상기 장치는 제4 처리 모듈, 제5 처리 모듈 및 조정 모듈을 포함하며, An embodiment of the present application further provides an apparatus for training a neural network, the apparatus comprising a fourth processing module, a fifth processing module and an adjustment module,
제4 처리 모듈은 샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 샘플 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정하도록 구성되고, 상기 태깅된 마스크 이미지는 상기 샘플 이미지 중 상기 객체의 위치를 나타내고, 상기 샘플 이미지의 속성 특징맵은 상기 샘플 이미지의 속성을 나타내며;a fourth processing module is configured to determine, according to the tagged mask image of the sample image, an attribute characteristic belonging to an object in the attribute characteristic map of the sample image, wherein the tagged mask image indicates a position of the object in the sample image , the attribute feature map of the sample image indicates the attribute of the sample image;
제5 처리 모듈은 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하도록 구성되고; a fifth processing module is configured to determine, according to the attribute characteristic of the object, a property of the object;
조정 모듈은 결정된 상기 객체의 속성과 상기 객체의 태깅된 속성 간의 차이, 및 상기 태깅된 마스크 이미지와 상기 샘플 이미지에 대해 시멘틱 분할을 수행하여 결정된 상기 샘플 이미지의 마스크 이미지 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정하도록 구성된다.The adjustment module is configured to: according to a difference between the determined property of the object and a tagged property of the object, and a difference between the tagged mask image and a mask image of the sample image determined by performing semantic segmentation on the sample image, of the neural network configured to adjust network parameter values.
본 출원의 실시예는 지능형 주행 장치를 더 제공하며, 상기 장치는 검출 모듈 및 지시 모듈을 포함하며, An embodiment of the present application further provides an intelligent driving device, the device comprising a detection module and an indication module,
검출 모듈은 상술한 어느 한 객체 속성 검출 방법을 이용하여, 지능형 주행 기기에 의해 획득된 도로 이미지 중 차선 속성을 검출하도록 구성되고;the detecting module is configured to detect the lane property among the road images acquired by the intelligent driving device, using any one of the object property detecting methods described above;
지시 모듈은 검출된 차선 속성에 따라, 상기 도로 이미지에 대응하는 도로 상에서 주행하도록 지능형 주행 기기를 지시하도록 구성된다.The instructing module is configured to instruct the intelligent driving device to drive on a road corresponding to the road image according to the detected lane attribute.
본 출원의 실시예는 전자 기기를 더 제출하며, 상기 전자 기기는 프로세서, 및 프로세서에서 실행 가능한 컴퓨터 프로그램을 저장하도록 구성되는 메모리를 포함하며, An embodiment of the present application further submits an electronic device, the electronic device comprising a processor and a memory configured to store a computer program executable in the processor,
상기 프로세서는 상기 컴퓨터 프로그램을 실행하면, 상술한 어느 한 객체 속성 검출 방법 또는 상술한 어느 한 신경망 훈련 방법 또는 상술한 어느 한 지능형 주행 방법을 수행하도록 구성된다. When the computer program is executed, the processor is configured to perform any one of the above-described object property detection methods, any of the above-described neural network training methods, or any of the above-described intelligent driving methods.
본 출원의 실시예는 컴퓨터 프로그램이 저장된 컴퓨터 저장매체를 더 제출하며, 상기 컴퓨터 프로그램은 상기 프로세서에 의해 수행되면, 상술한 어느 한 객체 속성 검출 방법 또는 상술한 어느 한 신경망 훈련 방법 또는 상술한 어느 한 지능형 주행 방법을 구현한다. An embodiment of the present application further submits a computer storage medium in which a computer program is stored, and when the computer program is executed by the processor, any one of the above-described object property detection methods or any of the above-described neural network training methods or any of the above-described methods Implement an intelligent driving method.
본 출원의 실시예는 컴퓨터 판독 가능한 코드가 포함된 컴퓨터 프로그램을 더 제출하며, 상기 컴퓨터 판독 가능한 코드가 전자 기기에서 실행되면, 상기 전자 기기 중 프로세서는 상술한 어느 한 객체 속성 검출 방법 또는 상술한 어느 한 신경망 훈련 방법 또는 상술한 어느 한 지능형 주행 방법을 구현한다.An embodiment of the present application further submits a computer program including a computer readable code, and when the computer readable code is executed in an electronic device, the processor of the electronic device may use any one of the above-described object attribute detection methods or any of the above Implement a neural network training method or any of the intelligent driving methods described above.
본 출원의 실시예에 의해 제출된 객체 속성 검출 방법, 신경망 훈련 방법 및 지능형 주행 방법, 장치, 전자 기기, 컴퓨터 저장매체 및 컴퓨터 프로그램에 있어서, 처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하며, 상기 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타내며; 상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하며, 상기 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타내며; 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정한다. 이와 같이, 본 출원의 실시예에 의해 제공된 객체 속성 검출 방법은 객체 속성 검출을 두 개의 단계로 나누며, 먼저 처리될 이미지에서 객체의 위치를 결정한 후, 처리될 이미지 중 객체의 위치를 기초로 처리될 이미지의 속성 특징맵을 결합하여 객체의 속성 특징을 결정한 후, 객체의 속성 특징에 따라 객체의 속성을 결정한다. 처리될 이미지 중 객체의 위치의 픽셀에 따라 객체가 위치한 영역의 특징을 결정하여, 결정된 특징에 따라 객체를 분류하는 것에 비해, 분류에 필요되는 특징 추출을 피하였으며, 본 출원의 실시예에 의해 제공된 객체 속성 검출 방법에서 추출된 객체의 속성 특징은 더욱 판별성을 가지며, 이에 따라 객체의 품종 분류를 더 정확하게 판별할 수 있다. In the object attribute detection method, neural network training method and intelligent driving method, apparatus, electronic device, computer storage medium and computer program submitted by the embodiments of the present application, semantic segmentation is performed on the image to be processed, determine a mask image of an image, the mask image indicating a position of an object in the image to be processed; determine, according to the mask image, an attribute characteristic belonging to the object among attribute characteristic maps of the image to be processed, wherein the attribute characteristic map of the image to be processed indicates the attribute of the image to be processed; According to the property characteristic of the object, the property of the object is determined. As such, the object attribute detection method provided by the embodiment of the present application divides object attribute detection into two steps, first determines the position of the object in the image to be processed, and then determines the position of the object in the image to be processed, and then determines the position of the object in the image to be processed. After determining the attribute characteristics of an object by combining the attribute characteristic maps of the image, the attributes of the object are determined according to the attribute characteristics of the object. Compared to classifying the object according to the determined feature by determining the feature of the region where the object is located according to the pixel of the position of the object in the image to be processed, feature extraction required for classification is avoided, and provided by the embodiment of the present application The attribute characteristics of the object extracted by the object attribute detection method have more discriminability, and accordingly, the type classification of the object can be more accurately determined.
이해할 것은, 상술한 일반적인 설명과 후술되는 세부 설명은 단지 예시적이고 해석적인 것이지 본 출원을 한정하는 것은 아니다.It should be understood that the foregoing general description and the following detailed description are merely illustrative and interpretative and not limiting of the present application.
여기의 첨부 도면은 명세서에 포함되어 본 명세서의 일부를 구성하며, 이러한 첨부 도면은 본 출원에 부합하는 실시예를 도시하며, 명세서와 함께 본 출원의 기술적 방안을 설명한다.
도 1은 본 출원의 실시예에 따른 객체 속성 검출 방법의 흐름도이다.
도 2는 본 출원의 실시예에 따른 차선 속성 검출의 흐름도이다.
도 3은 본 출원의 실시예에 따른 신경망 훈련 방법의 흐름도이다.
도 4는 본 출원의 실시예에 따른 지능형 주행 방법의 흐름도이다.
도 5는 본 출원의 실시예에 따른 객체 속성 검출 장치의 개략적인 구성도이다.
도 6은 본 출원의 실시예에 따른 신경망 훈련 장치의 개략적인 구성도이다.
도 7은 본 출원의 실시예에 따른 지능형 주행 장치의 개략적인 구성도이다.
도 8은 본 출원의 실시예에 따른 전자 기기의 개략적인 구성도이다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings herein are incorporated in and constitute a part of this specification, and these accompanying drawings show embodiments consistent with the present application, and together with the specification, describe the technical solutions of the present application.
1 is a flowchart of a method for detecting object properties according to an embodiment of the present application.
2 is a flowchart of lane attribute detection according to an embodiment of the present application.
3 is a flowchart of a neural network training method according to an embodiment of the present application.
4 is a flowchart of an intelligent driving method according to an embodiment of the present application.
5 is a schematic configuration diagram of an apparatus for detecting object properties according to an embodiment of the present application.
6 is a schematic configuration diagram of a neural network training apparatus according to an embodiment of the present application.
7 is a schematic configuration diagram of an intelligent driving apparatus according to an embodiment of the present application.
8 is a schematic configuration diagram of an electronic device according to an embodiment of the present application.
이하, 첨부 도면 및 실시예를 결합하여 본 출원을 더 상세히 설명한다. 이해할 것은, 여기서 제공된 실시예는 단지 본 출원을 해석할 뿐, 본 출원을 한정하지 않는다. 또한, 아래에 제공된 실시예는 본 출원의 일부 실시예를 실시하기 위한 것이지 본 출원을 실시하는 모든 실시예를 제공한 것은 아니며, 충돌하지 않는 경우, 본 출원의 실시예에서 기재된 기술적 방안은 임의로 조합하는 방식으로 실시될 수 있다. Hereinafter, the present application will be described in more detail in conjunction with the accompanying drawings and examples. It should be understood that the examples provided herein merely interpret the present application and do not limit the present application. In addition, the examples provided below are for implementing some examples of the present application, not all examples for implementing the present application, and in case of no conflict, the technical solutions described in the examples of the present application are arbitrarily combined can be carried out in this way.
설명할 것은, 본 출원의 실시예에서, 용어 '포함' 또는 이와 유사한 임의의 다른 용어는 비 배타적인 포함을 의미하며, 이에 따라 일련의 요소를 포함하는 방법 또는 장치는 명확히 기재된 요소를 포함할 뿐만 아니라, 명확히 열겨되지 않는 다른 요소를 더 포함하거나 방법 또는 장치의 실시에 고유된 요소를 더 포함한다. 더 많은 제한없이, "하나의 ...를 포함"이라는 어구로 정의된 요소는 당해 요소를 포함하는 방법 또는 장치에 다른 관련 요소(예를 들어, 방법 중 단계 또는 장치 중 유닛, 예를 들어, 유닛은 일부 회로, 일부 프로세서, 일부 프로그램 또는 소프트웨어 등일 수 있음)의 존재를 배제하지 않는다. It should be noted that, in the embodiments of the present application, the term 'comprising' or any other term similar thereto means non-exclusive inclusion, so that a method or apparatus comprising a series of elements not only includes the elements expressly described Rather, it further includes other elements not expressly disclosed, or further includes elements specific to the practice of a method or apparatus. Without further limitation, an element defined by the phrase "comprising a..." refers to another related element in a method or apparatus comprising the element (e.g., a step of a method or a unit of an apparatus, e.g., A unit may be some circuitry, some processor, some program or software, etc.).
예를 들어, 본 출원의 실시예에 의해 제공된 객체 속성 검출 방법, 신경망 훈련 방법 및 지능형 주행 방법은 일련의 단계를 포함하나 본 출원의 실시예에 의해 제공된 객체 속성 검출 방법, 신경망 훈련 방법 및 지능형 주행 방법은 기재된 단계에 한정되지 않는다. 마찬가지로, 본 출원의 실시예에 의해 제공된 객체 속성 검출 장치, 신경망 훈련 장치 및 지능형 주행 장치는 일련의 모듈을 포함하나 본 출원의 실시예에 의해 제공된 장치는 명확히 기재된 모듈에 한정되지 않고, 관련 정보 또는 정보를 기초로 처리할 때 필요되는 설정을 획득하는 모듈을 포함할 수 있다. For example, the object attribute detection method, neural network training method and intelligent driving method provided by the embodiments of the present application include a series of steps, but the object attribute detection method, neural network training method and intelligent driving method provided by the embodiments of the present application The method is not limited to the steps described. Similarly, the object property detection apparatus, neural network training apparatus, and intelligent driving apparatus provided by the embodiments of the present application include a series of modules, but the apparatus provided by the embodiments of the present application are not limited to the explicitly described modules, and related information or It may include a module for obtaining the necessary settings when processing based on the information.
본 명세서에서 용어 ‘및/또는’은 관련된 대상의 관련 관계를 설명할 뿐이며, 3가지 관계가 존재할 수 있음을 나타낸다. 예를 들어, A 및/또는 B는 A가 단독으로 존재, A와 B가 동시에 존재, B가 단독으로 존재하는 이 3가지 경우를 나타낼 수 있다. 또한, 본 명세서에서 '적어도 하나'는 복수 중 어느 하나 또는 복수 중 적어도 두 개의 임의의 조합을 나타낸다. 예를 들어, A, B, C 중 적어도 하나를 포함한다는 것은 A, B, C로 구성된 집합에서 선택된 임의의 하나 또는 복수 개의 요소를 포함하는 것을 나타낼 수 있다.In this specification, the term 'and/or' only describes a related relationship of a related object, and indicates that three relationships may exist. For example, A and/or B may represent these three cases in which A exists alone, A and B exist simultaneously, and B exists alone. Also, in the present specification, 'at least one' refers to any one of a plurality or any combination of at least two of the plurality. For example, including at least one of A, B, and C may indicate including any one or a plurality of elements selected from the set consisting of A, B, and C.
본 출원의 실시예는 단말기 및 서버로 구성된 컴퓨터 시스템에 적용될 수 있으며, 많은 다른 범용 또는 전용 컴퓨팅 시스템 환경 또는 구성과 함께 동작할 수 있다. 여기서, 단말기는 신 클라이언트, 씩 클라이언트, 핸드헬드형 또는 랩톱 기기, 마이크로 프로세서 기반 시스템, 셋톱박스, 프로그래머블 가전제품, 네트워크 PC, 소형 컴퓨터 시스템 등일 수 있고, 서버는 서버 컴퓨터 시스템 소형 컴퓨터 시스템, 대형 컴퓨터 시스템 및 상술한 임의의 시스템을 포함하는 분산 클라우드 컴퓨팅 기술 환경 등일 수 있다. Embodiments of the present application may be applied to a computer system consisting of a terminal and a server, and may operate with many other general-purpose or dedicated computing system environments or configurations. Here, the terminal may be a thin client, a thick client, a handheld or laptop device, a microprocessor-based system, a set-top box, a programmable home appliance, a network PC, a small computer system, or the like, and the server may be a server computer system small computer system, large computer system, or the like. system and a distributed cloud computing technology environment comprising any of the systems described above, and the like.
단말기, 서버 등 전자 기기는 컴퓨터 시스템에 의해 실행되는 컴퓨터 시스템이 실행 가능한 명령(예를 들어, 프로그램 모듈)의 일반적인 언어 환경에서 설명될 수 있다. 일반적으로, 프로그램 모듈은 특정 작업을 수행하거나 특정 추상 데이터 유형을 구현하는 루틴, 프로그램, 목적 프로그램, 컴포넌트, 논리, 데이터 구조 등을 포함할 수 있다. 컴퓨터 시스템/서버는 분산 클라우드 컴퓨팅 환경에서 실시될 수 있으며, 분산 클라우드 컴퓨팅 환경에서, 작업은 통신 네트워크를 통해 연결된 원격 처리 기기에 의해 수행된다. 분산 클라우드 컴퓨팅 환경에서, 프로그램 모듈은 저장 기기를 포함하는 로컬 또는 원격 컴퓨팅 시스템 저장매체에 위치할 수 있다. Electronic devices such as terminals and servers may be described in a general language environment of instructions (eg, program modules) executable by the computer system to be executed by the computer system. Generally, program modules may include routines, programs, object programs, components, logic, data structures, etc. that perform particular tasks or implement particular abstract data types. The computer system/server may be implemented in a distributed cloud computing environment, in which tasks are performed by remote processing devices connected through a communication network. In a distributed cloud computing environment, program modules may be located in a local or remote computing system storage medium including a storage device.
관련 기술에서, 차선과 같은 객체에 대한 속성 검출은 일반적으로 객체 분류 방법 및 시멘틱 분할 방법을 적용할 수 있다. 객체 분류 방법의 과정은, 이미지로부터 객체가 위치한 영역을 추출하고, 객체가 위치한 영역 이미지를 객체 분류 네트워크로 입력하고, 객체 분류를 통해 객체의 속성을 획득하는 것을 포함한다. 객체 분류 방법에 존재하는 주요한 문제는 객체가 점용한 그림 영역이 작아 식별 가능성이 낮고 객체 분류 네트워크가 유용한 판별적인 특징을 학습하기 매우 어려워 식별된 객체의 속성 정확도가 낮게되는 것이다. 시멘틱 분할 방법의 과정은, 이미지 중 객체의 각 픽셀의 속성을 예측한 후 모드를 취하는 방식으로 전체 객체의 속성을 결정하는 것을 포함한다. 즉, 객체의 각 픽셀의 속성 중 가장 많이 발생하는 속성을 객체 전체의 속성으로 한다. 시멘틱 분할 방법의 주요한 문제는 객체 전체에 있어서 객체 속성은 일체이나 시멘틱 분할 방법이 이러한 일체 관계를 파괴하여 인식된 객체의 속성의 정확도가 낮게 되는 것이다.In the related art, attribute detection for an object such as a lane may generally apply an object classification method and a semantic segmentation method. The process of the object classification method includes extracting a region in which an object is located from an image, inputting an image of the region in which the object is located to an object classification network, and acquiring properties of the object through object classification. The main problem that exists in the object classification method is that the pictorial area occupied by the object is small, so the identification probability is low, and it is very difficult for the object classification network to learn useful discriminant characteristics, so the attribute accuracy of the identified object is low. The process of the semantic segmentation method includes predicting the properties of each pixel of the object in the image and then determining the properties of the entire object by taking a mode. That is, the most frequently occurring property among the properties of each pixel of the object is set as the property of the entire object. The main problem of the semantic segmentation method is that the object properties are unified in the entire object, but the semantic segmentation method destroys this integral relationship, and thus the accuracy of the recognized object properties is low.
상술한 기술적 문제를 감안하여, 본 출원의 일부 실시예에서 객체 속성 검출 방법이 제출되며, 본 출원의 실시예는 이미지 분류, 차선 속성 인식, 자율 주행 등 시나리오에 적용될 수 있다. In consideration of the above-described technical problem, a method for detecting object properties is submitted in some embodiments of the present application, and the embodiments of the present application may be applied to scenarios such as image classification, lane attribute recognition, and autonomous driving.
도 1은 본 출원의 실시예에 따른 객체 속성 검출 방법의 흐름도이며, 도 1에 도시된 바와 같이, 당해 흐름은 아래와 같은 단계를 포함할 수 있다. 1 is a flowchart of a method for detecting object properties according to an embodiment of the present application, and as shown in FIG. 1 , the flow may include the following steps.
101 단계: 처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하며, 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타낸다.Step 101: Semantic segmentation is performed on the image to be processed, and a mask image of the image to be processed is determined, wherein the mask image indicates a position of an object in the image to be processed.
여기서, 처리될 이미지는 객체 속성 식별을 수행해야 할 이미지이다. 예를 들어, 처리될 이미지 중 객체는 차선 또는 다른 객체일 수 있다. Here, the image to be processed is an image for which object attribute identification is to be performed. For example, an object in the image to be processed may be a lane or another object.
예시적으로, 로컬 저장 영역 또는 네트워크로부터 처리될 이미지를 획득할 수 있으며, 처리될 이미지의 포멧은 통합 사진 전문가 단체(Joint Photographic Experts GROUP, JPEG), 비트맵(Bitmap, BMP), 이동성 네트워크 그래픽(Portable Network Graphics, PNG) 또는 다른 포멧일 수 있다. 설명할 것은, 여기서 단지 처리될 이미지의 포멧 및 내원에 대해 예를 들어 설명하였을 뿐이며, 본 발명의 실시예는 처리될 이미지의 포멧 및 내원에 대해 한정하지 않는다. Illustratively, an image to be processed may be acquired from a local storage area or a network, and the format of the image to be processed is a Joint Photographic Experts GROUP (JPEG), a bitmap (Bitmap, BMP), and a mobility network graphic ( Portable Network Graphics (PNG) or other formats. What will be described is that the format and visitation of the image to be processed are merely described by way of example, and the embodiment of the present invention is not limited to the format and visitation of the image to be processed.
본 출원의 실시예에서, 처리될 이미지 중 객체의 개수에 대해 한정하지 않으며, 처리될 이미지 중 객체는 하나일 수도 있고 복수 개일 수도 있다. 예시적으로, 객체가 차선인 경우, 처리될 이미지에는 복수 개의 차선이 존재할 수 있다. In the embodiments of the present application, the number of objects among the images to be processed is not limited, and one object or a plurality of objects among the images to be processed may be used. For example, when the object is a lane, a plurality of lanes may exist in the image to be processed.
분명히, 처리될 이미지에 복수 개의 객체가 존재하는 경우, 101 단계에 기초하여 얻은 마스크 이미지는 처리될 이미지 중 각 객체의 위치를 나타낸다. Obviously, when a plurality of objects exist in the image to be processed, the mask image obtained on the basis of
실제 응용에서, 처리될 이미지를 훈련 완료된 시멘틱 분할 네트워크에 입력하고, 시멘틱 분할 네트워크에서 처리될 이미지로부터 처리될 이미지의 마스크 이미지를 추출할 수 있다. In a practical application, an image to be processed may be input to a trained semantic segmentation network, and a mask image of the image to be processed may be extracted from the image to be processed in the semantic segmentation network.
102 단계: 마스크 이미지에 따라, 처리될 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정하며, 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타낸다. Step 102: According to the mask image, an attribute characteristic belonging to an object is determined among attribute characteristic maps of the image to be processed, and the attribute characteristic map of the image to be processed indicates attributes of the image to be processed.
본 출원의 실시예에서, 처리될 이미지의 속성은 이미지의 색채, 무늬, 표면거칠기 등 특징을 나타낼 수 있고, 처리될 이미지의 속성은 처리될 이미지의 각 픽셀의 속성으로부터 획득할 수 있다. 처리될 이미지의 픽셀의 속성은 처리될 이미지의 픽셀의 색채 등 정보를 나타낼 수 있다. 마찬가지로, 객체의 속성 특징은 객체의 색채, 무늬, 표면거칠기 등 특징을 나타낼 수 있다. 예시적으로, 객체의 속성 특징은 설정된 채널수의 특징맵으로 표현될 수 있다. 설정된 채널수는 객체 속성 인식의 효과에 따라 설정될 수 있다. 예를 들어, 설정된 채널수는 5, 6 또는 7이다. In the embodiment of the present application, the properties of the image to be processed may indicate characteristics such as color, pattern, and surface roughness of the image, and the properties of the image to be processed may be obtained from the properties of each pixel of the image to be processed. The property of a pixel of an image to be processed may indicate information such as a color of a pixel of the image to be processed. Similarly, the attribute characteristics of an object may indicate characteristics such as color, pattern, and surface roughness of the object. Exemplarily, the attribute characteristic of the object may be expressed as a characteristic map of the set number of channels. The set number of channels may be set according to the effect of object property recognition. For example, the set number of channels is 5, 6 or 7.
마스크 이미지가 처리될 이미지 중 객체의 위치를 나타낼 수 있으므로 마스크 이미지에 따라 처리될 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정할 수 있는 것은 분명하다. Since the mask image can indicate the position of the object in the image to be processed, it is clear that the attribute characteristic belonging to the object among the attribute characteristic map of the image to be processed according to the mask image can be determined.
103 단계: 객체의 속성 특징에 따라, 객체의 속성을 결정한다.Step 103: Determine an object property according to an object property characteristic.
여기서, 객체의 속성은 처리될 이미지 중 객체의 색채, 크기, 형태 등 정보를 나타낼 수 있다. 예를 들어, 객체가 차선인 경우, 차선의 속성은 차선의 색채, 선폭, 선 종류 등 정보를 나타낼 수 있다. Here, the properties of the object may represent information such as color, size, and shape of the object in the image to be processed. For example, when the object is a lane, the properties of the lane may indicate information such as a color, a line width, and a line type of the lane.
처리될 이미지에 복수 개의 객체가 존재하는 경우, 103 단계를 수행함으로써 처리될 이미지 중 각 객체의 속성을 획득할 수 있음을 알 수 있다.When a plurality of objects exist in the image to be processed, it can be seen that by performing
실제 응용에서, 객체의 속성 특징을 훈련 완료된 객체 분류 네트워크에 입력하고, 객체 분류 네트워크를 이용하여 객체의 속성 특징을 분류하여, 처리될 이미지 중 객체의 속성을 획득할 수 있다. In a practical application, the attribute characteristics of the object may be input into a trained object classification network, and the attribute characteristics of the object may be classified using the object classification network to obtain the attributes of the object in the image to be processed.
실제 응용에서, 101 단계 내지 103 단계는 전자 기기 중 프로세서를 이용하여 구현될 수 있다. 상기 프로세서는 전용 집적 회로(Application Specific Integrated Circuit, ASIC), 디지털 신호 처리기(Digital Signal Processor, DSP), 디지털 신호 처리 장치(Digital Signal Processing Device, DSPD), 프로그래머블 논리 장치(Programmable Logic Device, PLD), 현장 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA), 중앙 처리 장치(Central Processing Unit, CPU), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 중 적어도 하나일 수 있다. In actual application, steps 101 to 103 may be implemented using a processor in an electronic device. The processor is a dedicated integrated circuit (Application Specific Integrated Circuit, ASIC), a digital signal processor (Digital Signal Processor, DSP), a digital signal processing device (Digital Signal Processing Device, DSPD), a programmable logic device (Programmable Logic Device, PLD), It may be at least one of a field programmable gate array (FPGA), a central processing unit (CPU), a controller, a microcontroller, and a microprocessor.
본 출원의 실시예에서, 먼저 시멘틱 분할 방법을 적용하여 처리될 이미지의 마스크 이미지를 획득한 후, 마스크 이미지에 따라 객체의 속성 특징을 결정하여, 객체의 속성을 결정한다. 알 수 있듯이, 본 출원의 실시예에 의해 제공된 객체 속성 검출 방법은 객체 속성 검출을 두 개의 단계로 나누며, 먼저 처리될 이미지에서 객체의 위치를 결정한 후, 처리될 이미지 중 객체의 위치를 기초로 처리될 이미지의 속성 특징맵을 결합하여 객체의 속성 특징을 결정한 후, 객체의 속성 특징에 따라 객체의 속성을 결정한다. 처리될 이미지 중 객체의 위치의 픽셀에 따라 객체가 위치한 영역의 특징을 결정하여, 결정된 특징에 따라 객체를 분류하는 것에 비해, 분류에 필요되는 특징 추출을 피하였으며, 본 출원의 실시예에 의해 제공된 객체 속성 검출 방법에서 추출된 객체의 속성 특징은 더욱 판별성을 가지며, 이에 따라 객체의 품종 분류를 더 정확하게 판별할 수 있다. 또한, 본 출원의 실시예에 의해 제공된 객체 속성 검출 방법은 객체 전체를 분류하며, 단지 시멘틱 분할을 통해 객체 속성 검출을 수행하는 방안에 비해, 객체 전체에서 객체 속성의 검출을 수행하므로, 객체 속성을 정확히 획득할 수 있다. In an embodiment of the present application, first, a mask image of an image to be processed is obtained by applying a semantic segmentation method, and then the property characteristics of the object are determined according to the mask image to determine the properties of the object. As can be seen, the object attribute detection method provided by the embodiment of the present application divides object attribute detection into two steps, first determines the position of the object in the image to be processed, and then processes it based on the position of the object in the image to be processed After determining the attribute characteristics of the object by combining the attribute characteristic maps of the image to be used, the attributes of the object are determined according to the attribute characteristics of the object. Compared to classifying the object according to the determined feature by determining the feature of the region where the object is located according to the pixel of the position of the object in the image to be processed, feature extraction required for classification is avoided, and provided by the embodiment of the present application The attribute characteristics of the object extracted by the object attribute detection method have more discriminability, and accordingly, the type classification of the object can be more accurately determined. In addition, the object property detection method provided by the embodiment of the present application classifies the entire object, and performs detection of the object property in the entire object, compared to the method of only performing object property detection through semantic segmentation, so that the object property is can be obtained precisely.
예시적으로, 객체의 속성 특징에 따라 객체의 속성을 결정하는 구현 방식은, 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환한 후, 전환된 사전 설정된 길이의 객체의 속성 특징에 따라, 객체의 속성을 확정할 수 있다. 본 출원의 실시예에서, 사전 설정된 길이는 실제 응용 시나리오에 따라 설정될 수 있다. Illustratively, the implementation method for determining the property of the object according to the property characteristic of the object is to convert the property characteristic of the object to the characteristic of the preset length, and then according to the property characteristic of the converted object of the preset length, the properties can be determined. In an embodiment of the present application, the preset length may be set according to an actual application scenario.
구체적으로, 처리될 이미지에는 하나 또는 복수 개의 객체가 존재할 수 있으며, 상기 하나 또는 복수 개의 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환할 수 있다. 상기 하나 또는 복수 개의 객체의 사전 설정된 길이의 특징에 따라, 상기 하나 또는 복수 개의 객체에 대해 객체 분류를 수행하여, 상기 하나 또는 복수 개의 객체의 속성을 획득할 수 있다. Specifically, one or a plurality of objects may exist in the image to be processed, and an attribute characteristic of the one or plurality of objects may be converted into a characteristic of a preset length. According to a characteristic of a preset length of the one or a plurality of objects, an object classification may be performed on the one or a plurality of objects to obtain a property of the one or a plurality of objects.
또한, 처리될 이미지에 복수 개의 객체가 존재하고 복수 개 객체의 속성 특징의 길이가 동일한 경우, 처리될 이미지 중 복수 개 객체의 속성 특징에 따라, 상기 복수 개의 객체에 대해 직접 객체 분류를 수행하여, 상기 복수 개의 객체의 속성을 획득할 수도 있다.In addition, when a plurality of objects exist in the image to be processed and the attribute characteristics of the plurality of objects have the same length, object classification is performed directly on the plurality of objects according to the attribute characteristics of the plurality of objects among the images to be processed, Properties of the plurality of objects may be acquired.
이해할 수 있듯이, 일부 객체 분류 방법은 동일한 길이의 특징을 획득한 기초 위에 구현되므로 본 출원의 실시예에서 상이한 길이의 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환함으로써 객체 분류 구현에 유리하고, 나아가 객체의 속성을 획득하는데 유리하다. As can be understood, some object classification methods are implemented on the basis of acquiring features of the same length, so in the embodiment of the present application, it is advantageous to implement object classification by converting the attribute characteristics of objects of different lengths into features of preset lengths, and further It is advantageous for obtaining properties of an object.
예시적으로, 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환하는 구현방식은, 객체의 속성 특징에 대응하는 포인트를 k 개 부분으로 분할하고(k는 1보다 크거나 같은 정수임), 각 부분의 포인트에 대응하는 객체의 속성 특징의 평균치를 계산하여 k 개 평균치를 획득하며, 상술한 단계를 n 회 반복하고(임의의 2회 수행 과정에서 k의 값은 다르고, k는 객체의 속성 특징에 대응하는 포인트의 가능한 최대 개수보다 작으며, n은 1보다 큰 정수임), 획득된 평균치를 이용하여 사전 설정된 길이의 특징을 구성할 수 있다. Illustratively, the implementation method for converting the attribute characteristic of an object into a characteristic of a preset length is to divide the point corresponding to the attribute characteristic of the object into k parts (k is an integer greater than or equal to 1), and Calculate the average value of the attribute characteristics of the object corresponding to the points to obtain k average values, repeat the above step n times (in the process of performing two arbitrary times, the value of k is different, and k corresponds to the attribute characteristic of the object) less than the maximum possible number of points, n is an integer greater than 1), and the obtained average value can be used to construct a feature of a preset length.
구체적으로, 각 객체의 속성 특징에 대하여 각각 n 회 분할을 수행한다. 각 객체의 속성 특징의 픽셀 포인트에 대하여 제i차 분할을 수행하여, Ki 개 부분을 획득할 수 있으며, i는 1 내지 n이고, Ki는 제i차 분할 시 k의 값을 나타낸다. 본 출원의 실시예에서, 획득된 Ki 개 부분의 길이는 동일할 수도 있고 서로 다를 수도 있다. 제i차 분할에 의해 획득된 Ki 개 부분 각각에 대하여 균일한 풀링(pooling)을 수행하여 각 부분의 포인트에 대응하는 객체의 속성 특징의 평균치를 획득한다. 다음, 획득된 길이가 K1인 특징 내지 길이가 Kn인 특징을 연결하여, 길이가 P인 특징을 획득할 수 있으며, , P는 사전 설정된 길이를 나타낸다. Specifically, each of the attribute features of each object is divided n times. By performing the i-th division on the pixel points of the attribute feature of each object, Ki parts may be obtained, where i is 1 to n, and Ki represents the value of k at the time of the i-th division. In an embodiment of the present application, the lengths of the obtained Ki parts may be the same or different from each other. Uniform pooling is performed on each of the Ki parts obtained by the i-th division to obtain an average value of the attribute characteristics of the object corresponding to the points of each part. Next, by connecting the acquired feature of length K1 to the feature of length Kn, it is possible to obtain a feature of length P, , P denotes a preset length.
본 출원의 실시예에서, k는 실제 정황에 따라 설정될 수 있다. 예시적으로, 객체의 속성 특징의 픽셀 포인트의 가능한 최대 개수가 30이면, k의 값은 30보다 작거나 같다. In the embodiment of the present application, k may be set according to actual circumstances. Exemplarily, if the maximum possible number of pixel points of an attribute feature of an object is 30, then the value of k is less than or equal to 30.
하나의 구체적인 실예에서, 객체 속성 검출 방법은 차선 속성 검출 방법이고, 처리될 이미지는 도로 이미지이며, 객체는 차선이다. 이와 같이, 도로 이미지에 대하여 특징 추출을 수행하여 도로 이미지의 영역 특징맵 및 도로 이미지의 속성 특징맵을 결정하고, 도로 이미지의 영역 특징맵에 따라 도로 이미지 중 차선의 마스크 이미지를 결정하고, 도로 이미지 중 차선의 마스크 이미지에 따라 도로 이미지의 속성 특징맵 중 차선에 속하는 속성 특징을 결정하고, 차선의 속성 특징에 따라, 차선의 속성을 결정한다.In one specific embodiment, the object attribute detection method is a lane attribute detection method, the image to be processed is a road image, and the object is a lane. In this way, the feature extraction is performed on the road image to determine the area feature map of the road image and the attribute feature map of the road image, and the mask image of the lane among the road images is determined according to the area feature map of the road image, and the road image According to the mask image of the middle lane, the attribute characteristic belonging to the lane in the attribute characteristic map of the road image is determined, and the attribute of the lane is determined according to the attribute characteristic of the lane.
본 출원의 실시예에서, 도로 이미지의 영역 특징맵은 도로 이미지 중 차선의 위치를 나타내므로, 도로 이미지의 영역 특징맵에 따라 도로 이미지 중 차선의 마스크 이미지를 획득할 수 있다. In the embodiment of the present application, since the area feature map of the road image indicates the location of the lane in the road image, a mask image of the lane in the road image may be obtained according to the area feature map of the road image.
도 2는 본 출원의 실시예에 따른 차선 속성 검출의 흐름도이다. 도 2를 참조하면, 본 출원의 실시예에서, 도로 이미지를 훈련 완료된 시멘틱 분할 네트워크에 입력하고, 시멘틱 분할 네트워크에서 시멘틱 분할 네트워크를 이용하여 차선 분할 결과를 획득할 수 있다. 도 2에서 차선 분할 결과는 도로 이미지의 영역 특징맵으로 표현될 수 있다. 또한, 시멘틱 분할 네트워크를 이용하여 도로 이미지의 속성 특징맵을 획득할 수 있다. 이와 같이, 도로 이미지의 영역 특징맵에 따라 차선의 마스크 이미지를 획득할 수 있다. 차선의 마스크 이미지 및 도로 이미지의 속성 특징맵에 따라, 도로 이미지의 속성 특징맵 중 차선에 속하는 속성 특징을 획득할 수 있다. 2 is a flowchart of lane attribute detection according to an embodiment of the present application. Referring to FIG. 2 , in the embodiment of the present application, a road image may be input to a trained semantic segmentation network, and a lane segmentation result may be obtained by using the semantic segmentation network in the semantic segmentation network. In FIG. 2 , the lane division result may be expressed as an area feature map of a road image. Also, it is possible to obtain an attribute feature map of a road image using a semantic segmentation network. In this way, the mask image of the lane may be obtained according to the area feature map of the road image. According to the mask image of the lane and the attribute feature map of the road image, attribute features belonging to the lane among the attribute feature maps of the road image may be acquired.
실제 응용에서, 차선의 길이 및 각도는 일반적으로 다르다. 따라서, 본 출원의 실시예에서 획득된 각 차선의 속성 특징의 길이는 일반적으로 서로 다르며, 객체 분류 과정이 동일한 길이의 특징을 획득한 기초 위에 구현되어야 하는 경우, 길이가 서로 다른 차선의 속성 특징을 사전에 동일한 길이의 특징으로 전환할 수 있다. In practical applications, the lengths and angles of lanes are generally different. Therefore, the length of the attribute feature of each lane obtained in the embodiment of the present application is generally different from each other, and when the object classification process is to be implemented on the basis of acquiring the feature of the same length, attribute features of the lanes with different lengths are obtained. It can be converted to features of the same length in advance.
구체적인 구현시, 도 2를 참조하면, 각 차선의 속성 특징은 고정 길이 특징 추출 모듈에 입력될 수 있으며, 고정 길이 특징 추출 모듈은 아래의 단계를 수행할 수 있다. 즉, 각 차선의 속성 특징에 대응하는 포인트를 k 개 부분으로 분할하고(k는 1보다 크거나 같은 정수임), 각 부분의 포인트에 대응하는 차선의 속성 특징의 평균치를 계산하여 k 개 평균치를 획득하며, 상술한 단계를 n 회 반복하고(임의의 2회 수행 과정에서 k의 값은 다르고, k는 객체의 속성 특징에 대응하는 포인트의 가능한 최대 개수보다 작으며, n은 1보다 큰 정수임), 획득된 평균치를 이용하여 사전 설정된 길이의 특징을 구성할 수 있다.In a specific implementation, referring to FIG. 2 , the attribute feature of each lane may be input to a fixed-length feature extraction module, and the fixed-length feature extraction module may perform the following steps. That is, the points corresponding to the attribute features of each lane are divided into k parts (k is an integer greater than or equal to 1), and the average value of the attribute features of the lane corresponding to the points in each part is calculated to obtain k average values. and repeating the above steps n times (in the process of performing two arbitrary times, the value of k is different, k is less than the maximum possible number of points corresponding to the attribute characteristic of the object, and n is an integer greater than 1), The obtained average value can be used to construct a feature of a preset length.
하나의 구체적인 실예에서, 제1차는 한 차선의 속성 특징에 대하여 직접 풀링을 수행하여 하나의 특징값을 획득한 후, 상기 차선의 속성 특징의 픽셀에 대하여 각각 6 차 분할을 수행할 수 있다. 상기 차선의 속성 특징의 픽셀을 2 개 부분으로 분할하고 각 부분의 픽셀 값을 평균하여 2 개의 특징값을 획득한다. 상기 차선의 속성 특징의 픽셀을 3 개 부분으로 분할하고 각 부분의 픽셀 값을 평균하여 3 개의 특징값을 획득한다. 상기 차선의 속성 특징의 픽셀을 6 개 부분으로 분할하고 각 부분의 픽셀 값을 평균하여 6 개의 특징값을 획득한다. 상기 차선의 속성 특징의 픽셀을 8 개 부분으로 분할하고 각 부분의 픽셀 값을 평균하여 8 개의 특징값을 획득한다. 상기 차선의 속성 특징의 픽셀을 10 개 부분으로 분할하고 각 부분의 픽셀 값을 평균하여 10 개의 특징값을 획득한다. 상기 차선의 속성 특징의 픽셀을 12 개 부분으로 분할하고 각 부분의 픽셀 값을 평균하여 12 개의 특징값을 획득한다. 획득된 1, 2, 3, 6, 8, 10, 12 개의 특징값을 조합하여 길이가 42인 특징을 획득하며, 상기 차선의 사전 설정된 길이의 특징을 획득한다. In a specific embodiment, the first car may directly perform pooling on the attribute feature of one lane to obtain one feature value, and then perform sixth-order segmentation on each pixel of the attribute feature of the lane. The pixel of the attribute feature of the lane is divided into two parts, and the pixel values of each part are averaged to obtain two feature values. The pixel of the suboptimal attribute feature is divided into three parts, and the pixel values of each part are averaged to obtain three feature values. The pixel of the attribute feature of the lane is divided into six parts, and the pixel values of each part are averaged to obtain six feature values. The pixel of the attribute feature of the lane is divided into eight parts, and the pixel values of each part are averaged to obtain eight feature values. The pixel of the attribute feature of the lane is divided into 10 parts, and the pixel values of each part are averaged to obtain 10 feature values. The pixel of the suboptimal attribute feature is divided into 12 parts, and the pixel values of each part are averaged to obtain 12 feature values. By combining the obtained 1, 2, 3, 6, 8, 10, 12 feature values, a feature of length 42 is obtained, and a feature of the preset length of the lane is obtained.
다시 말하면, 각 차선의 속성 특징에 대하여, 모두 고정 길이 특징 추출 모듈을 통해 동일한 길이의 픽셀 속성 특징(길이가 모두 42임)을 획득할 수 있다. In other words, for the attribute features of each lane, pixel attribute features of the same length (all lengths of 42) may be obtained through the fixed-length feature extraction module.
도 2를 참조하면, 고정 길이 특징 추출 모듈을 이용하여 각 차선의 속성 특징을 동일한 길이의 특징으로 전환한 후, 동일한 길이의 특징을 훈련 완료된 객체 분류 네트워크에 입력하고, 객체 분류 네트워크를 이용하여 입력된 특징에 대하여 객체 분류를 수행하여, 각 차선의 속성을 획득할 수 있다. Referring to FIG. 2 , after converting the attribute features of each lane into features of the same length using the fixed-length feature extraction module, the features of the same length are input to the trained object classification network, and input using the object classification network By performing object classification on the specified features, it is possible to obtain the properties of each lane.
하나의 구체적인 실예에서, 객체 분류 네트워크는 2 개의 완전연결층을 포함할 수 있으며, 여기서 제1 완전연결층의 입력은 각 객체에 대응하는 동일한 길이(예를 들어, 길이가 42임)의 픽셀 속성 특징이고, 제1 완전연결층의 노드 수는 256 개이며, 제2 완전연결층의 노드 수는 128이고, 제2 완전연결층은 각 객체의 속성을 출력할 수 있다.In one specific embodiment, the object classification network may include two fully connected layers, wherein the input of the first fully connected layer is a pixel attribute of the same length (eg, length is 42) corresponding to each object. feature, the number of nodes in the first fully connected layer is 256, the number of nodes in the second fully connected layer is 128, and the second fully connected layer may output properties of each object.
설명할 것은, 도 2는 단지 객체 속성 검출의 한 구체적인 응용 시나리오를 예시적으로 설명하였다. 즉 차선 속성 인식을 수행한다. 본 출원의 실시예는 차선에 대해 속성 검출을 수행하는데 제한되지 않는다. 예를 들어, 다른 종류의 객체에 대하여 속성 검출을 진행할 수도 있다.It should be noted that FIG. 2 only exemplifies one specific application scenario of object attribute detection. That is, lane attribute recognition is performed. Embodiments of the present application are not limited to performing attribute detection for a lane. For example, attribute detection may be performed on different types of objects.
또한, 차선의 속성을 결정한 후, 도로 이미지, 결정된 도로 이미지 중 차선의 마스크 이미지 및 결정된 차선의 속성 특징에 따라, 도로 이미지 중 차선을 결정할 수도 있다.In addition, after determining the properties of the lanes, the lanes in the road images may be determined according to the road image, the mask image of the lanes among the determined road images, and the property characteristics of the determined lanes.
도로 이미지의 차선을 결정함으로써 차량 운전에 도움을 제공하는데 유리하고 차량 운전의 안전성을 향상하는데 유리함을 이해할 수 있다. By determining the lane of the road image, it can be understood that it is advantageous to provide assistance to driving a vehicle and to improve the safety of driving a vehicle.
본 출원의 일부 실시예에서, 상기 객체 속성 검출 방법은 신경망에 의해 수행되고, 상기 신경망은 샘플 이미지, 샘플 이미지의 태깅된 마스크 이미지 및 샘플 이미지의 객체의 태깅된 속성을 적용하여 훈련하여 획득된다. In some embodiments of the present application, the method for detecting object properties is performed by a neural network, and the neural network is obtained by training by applying a sample image, a tagged mask image of the sample image, and a tagged property of an object of the sample image.
여기서, 샘플 이미지는 사전에 결정된 객체를 포함하는 이미지이다. 예를 들어, 객체는 차선 또는 다른 객체일 수 있다. Here, the sample image is an image including a predetermined object. For example, the object may be a lane or other object.
예시적으로, 로컬 저장 영역 또는 네트워크로부터 샘플 이미지를 획득할 수 있으며, 샘플 이미지의 포멧은 JPEG, BMP, PNG 또는 다른 포멧일 수 있다. 설명할 것은, 여기서 단지 샘플 이미지의 포멧 및 내원에 대해 예를 들어 설명하였을 뿐이며, 본 발명의 실시예는 샘플 이미지의 포멧 및 내원에 대해 한정하지 않는다.Illustratively, the sample image may be obtained from a local storage area or a network, and the format of the sample image may be JPEG, BMP, PNG or other format. What will be described is that the format and visitation of the sample image are merely described as examples, and the embodiment of the present invention is not limited to the format and visitation of the sample image.
본 출원의 실시예에서, 샘플 이미지 중 객체의 개수에 대해 한정하지 않으며, 샘플 이미지 중 객체는 하나일 수도 있고 복수 개일 수도 있다. 예시적으로, 객체가 차선인 경우, 샘플 이미지에는 복수 개의 차선이 존재할 수 있다.In an embodiment of the present application, the number of objects in the sample image is not limited, and one or a plurality of objects in the sample image may be used. For example, when the object is a lane, a plurality of lanes may exist in the sample image.
실제 응용에서, 샘플 이미지의 태깅된 마스크 이미지는 사전에 설정될 수 있다. 샘플 이미지의 태깅된 마스크 이미지가 샘플 이미지 중 객체의 위치를 나타내므로 샘플 이미지의 태깅된 마스크 이미지에 따라 샘플 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정할 수 있는 것은 분명하다. 또한, 훈련 완료된 신경망이 객체의 속성 특징을 결정할 수 있도록 하는데 유리하고, 나아가 훈련 완료된 신경망이 객체의 속성 특징에 따라 객체의 속성을 결정할 수 있도록 하는데 유리하다. In practical application, the tagged mask image of the sample image can be set in advance. Since the tagged mask image of the sample image indicates the position of the object in the sample image, it is clear that the attribute characteristic belonging to the object in the attribute characteristic map of the sample image can be determined according to the tagged mask image of the sample image. In addition, it is advantageous for the trained neural network to determine the attribute characteristics of the object, and further, it is advantageous for the trained neural network to determine the attributes of the object according to the attribute characteristics of the object.
이하, 첨부 도면을 결합하여 상술한 신경망의 훈련 과정을 예시적으로 설명한다. Hereinafter, the training process of the above-described neural network will be exemplarily described in conjunction with the accompanying drawings.
도 3은 본 출원의 실시예에 따른 신경망 훈련 방법의 흐름도이며, 도 3에 도시된 바와 같이, 상기 흐름은 아래의 단계를 포함할 수 있다. 3 is a flowchart of a neural network training method according to an embodiment of the present application, and as shown in FIG. 3 , the flow may include the following steps.
301 단계: 샘플 이미지의 태깅된 마스크 이미지에 따라, 샘플 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정하며, 태깅된 마스크 이미지는 상기 샘플 이미지 중 객체의 위치를 나타내고, 샘플 이미지의 속성 특징맵은 상기 샘플 이미지의 속성을 나타낸다.Step 301: Determine, according to the tagged mask image of the sample image, an attribute characteristic belonging to an object in the attribute characteristic map of the sample image, the tagged mask image indicates the position of the object in the sample image, and the attribute characteristic map of the sample image denotes the property of the sample image.
본 출원의 실시예에서, 샘플 이미지의 속성은 이미지의 색채, 무늬, 표면거칠기 등 특징을 나타낼 수 있고, 샘플 이미지의 속성은 샘플 이미지의 각 픽셀의 속성으로부터 획득할 수 있다. 샘플 이미지의 픽셀의 속성은 샘플 이미지의 픽셀의 색채 등 정보를 나타낼 수 있다. 마찬가지로, 객체의 속성 특징은 객체의 색채, 무늬, 표면거칠기 등 특징을 나타낼 수 있다. 예시적으로, 객체의 속성 특징은 설정된 채널수의 특징맵으로 표현될 수 있다. 설정된 채널수는 객체 속성 인식의 효과에 따라 설정될 수 있다. 예를 들어, 설정된 채널수는 5, 6 또는 7이다.In an embodiment of the present application, the properties of the sample image may indicate characteristics such as color, pattern, and surface roughness of the image, and the properties of the sample image may be obtained from properties of each pixel of the sample image. The property of the pixel of the sample image may indicate information such as the color of the pixel of the sample image. Similarly, the attribute characteristics of an object may indicate characteristics such as color, pattern, and surface roughness of the object. Exemplarily, the attribute characteristic of the object may be expressed as a characteristic map of the set number of channels. The set number of channels may be set according to the effect of object property recognition. For example, the set number of channels is 5, 6 or 7.
302 단계: 객체의 속성 특징에 따라, 객체의 속성을 결정한다.Step 302: According to the property characteristics of the object, determine the property of the object.
본 단계의 구현방식은 앞서 기재된 내용에서 이미 설명하였으며, 여기서 더 설명하지 않는다. The implementation method of this step has already been described in the above description, and will not be further described herein.
303 단계: 결정된 객체의 속성과 객체의 태깅된 속성 간의 차이, 및 태깅된 마스크 이미지와 샘플 이미지에 대해 시멘틱 분할을 수행하여 결정된 샘플 이미지의 마스크 이미지 간의 차이에 따라, 신경망의 네트워크 파라미터 값을 조정한다.Step 303: Adjust the network parameter value of the neural network according to the difference between the determined property of the object and the tagged property of the object, and the difference between the tagged mask image and the mask image of the sample image determined by performing semantic segmentation on the sample image .
예시적으로, 본 단계의 구현방식은, 결정된 객체의 속성과 객체의 태깅된 속성 간의 차이, 및 태깅된 마스크 이미지와 샘플 이미지에 대해 시멘틱 분할을 수행하여 결정된 샘플 이미지의 마스크 이미지 간의 차이에 따라, 초기 신경망의 손실을 계산하고, 신경망의 손실에 따라 신경망의 네트워크 파라미터 값을 조정할 수 있다. Illustratively, the implementation method of this step is, according to the difference between the determined property of the object and the tagged property of the object, and the difference between the tagged mask image and the mask image of the sample image determined by performing semantic segmentation on the sample image, It is possible to calculate the loss of the initial neural network, and adjust the network parameter values of the neural network according to the loss of the neural network.
304 단계: 네트워크 파라미터가 조정된 신경망이 샘플 이미지에 대한 처리가 사전 설정된 요구사항을 충족하는지를 판단하며, 충족하지 않으면, 301 단계 내지 304 단계를 반복하고, 충족하면, 305 단계를 수행한다.Step 304: The neural network with the adjusted network parameters determines whether the processing on the sample image meets a preset requirement, if not, repeats
본 출원의 일부 실시예에서, 사전 설정된 요구사항은 네트워크 파라미터가 조정된 신경망의 손실이 설정된 손실값보다 작은 것일 수 있다. 본 출원의 실시예에서, 설정된 손실값은 실제 필요에 따라 사전에 설정될 수 있다. In some embodiments of the present application, the preset requirement may be that the loss of the neural network for which the network parameter is adjusted is smaller than the set loss value. In the embodiment of the present application, the set loss value may be set in advance according to actual needs.
305 단계: 네트워크 파라미터가 조정된 신경망을 훈련 완료된 신경망으로 한다.Step 305: The neural network whose network parameters are adjusted is set as a trained neural network.
실제 응용에서, 301 단계 내지 305 단계는 전자 기기 중 프로세서를 이용하여 구현될 수 있으며, 상기 프로세서는 ASIC, DSP, DSPD, PLD, FPGA, CPU, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 중 적어도 하나일 수 있다.In actual application, steps 301 to 305 may be implemented using a processor among electronic devices, and the processor may be at least one of ASIC, DSP, DSPD, PLD, FPGA, CPU, controller, microcontroller, and microprocessor. .
하나의 구체적인 실시방식에서, 상기 신경망은 차선 속성 검출에 사용되며, 샘플 이미지는 도로 샘플 이미지이고, 객체는 차선이다. 이와 같이, 먼저, 상기 도로 샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 도로 샘플 이미지의 속성 특징맵 중 상기 차선에 속하는 속성 특징을 결정하며, 상기 도로 샘플 이미지의 태깅된 마스크 이미지는 상기 도로 샘플 이미지 중 상기 차선의 위치를 나타낼 수 있다. 다음, 상기 차선의 속성 특징에 따라, 상기 차선의 속성을 결정할 수 있다. 마지막으로, 결정된 상기 차선의 속성과 상기 차선의 태깅된 속성 간의 차이, 및 상기 도로 샘플 이미지의 태깅된 마스크 이미지와 상기 도로 샘플 이미지의 영역 특징맵에 따라 결정된 상기 차선의 마스크 이미지(시멘틱 분할 네트워크를 통해 차선의 마스크 이미지를 검출할 수 있음) 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정할 수 있다.In one specific implementation, the neural network is used for detecting lane properties, the sample image is a road sample image, and the object is a lane. As such, first, according to the tagged mask image of the road sample image, an attribute characteristic belonging to the lane among the attribute characteristic map of the road sample image is determined, and the tagged mask image of the road sample image is the road sample image Among them, the position of the lane may be indicated. Next, according to the attribute characteristic of the lane, the attribute of the lane may be determined. Finally, the difference between the determined attribute of the lane and the tagged attribute of the lane, and the mask image of the lane determined according to the tagged mask image of the road sample image and the area feature map of the road sample image (a semantic segmentation network The network parameter value of the neural network may be adjusted according to a difference between the two-way mask images).
알 수 있듯이, 상술한 신경망 훈련 과정에서, 먼저 태깅된 마스크 이미지에 따라 객체의 속성 특징을 결정하여 객체의 속성을 결정하며, 훈련 단계에서 신경망 중 분할 네트워크는 아직 훈련되지 않았으므로, 훈련되지 않은 네트워크를 사용하여 차선의 마스크 이미지를 예측하면 후속 신경망 중 분류 네트워크가 수렴될 수 없으므로, 훈련 단계에서는 태깅된 마스크 이미지를 이용하여 객체의 속성 특징을 결정한다. As can be seen, in the above-described neural network training process, the properties of the object are first determined according to the tagged mask image to determine the properties of the object, and in the training stage, the split network among the neural networks is not yet trained, so the untrained network Since the classification network among the subsequent neural networks cannot converge when the suboptimal mask image is predicted using , the attribute characteristics of the object are determined using the tagged mask image in the training stage.
상술한 신경망 훈련 과정에서, 객체 속성을 결정할 때에도 두 개의 단계로 나누어 진다. 먼저, 태깅된 마스크 이미지에 따라 객체의 속성 특징을 결정한 후, 객체의 속성 특징에 따라 객체의 속성을 결정한다. 처리될 이미지 중 객체의 위치의 픽셀에 따라 객체가 위치한 영역의 특징을 결정하여, 결정된 특징에 따라 객체를 분류하는 것에 비해, 더 많고 판별성을 더 가진 속성 특징을 추출할 수 있으며, 이에 따라 분류를 더 잘 학습하고, 훈련 완료된 신경망이 객체를 검출하는 정확도를 향상시킨다. 신경망의 훈련 과정에서, 객체의 속성을 결정할 때에도 객체 전체에 대하여 분류를 수행하므로, 시멘틱 분할만을 통해 객체 속성 검출을 수행하는 방안에 비해, 객체의 전체로부터 객체 속성의 검출을 수행하는 것은 객체 속성을 더 정확하게 획득할 수 있으며, 이는 마찬가지로 훈련 완료된 신경망이 객체를 검출하는 정확도를 향상시킬 수 있다.In the above-described neural network training process, it is divided into two steps when determining object properties. First, the attribute characteristics of the object are determined according to the tagged mask image, and then the attributes of the object are determined according to the attribute characteristics of the object. By determining the characteristics of the region where the object is located according to the pixel of the position of the object in the image to be processed, more and more distinguishable attribute features can be extracted than classifying the object according to the determined characteristic It learns better, and the trained neural network improves the accuracy of detecting objects. In the training process of the neural network, even when determining the properties of the object, classification is performed on the entire object, so performing the object property detection from the whole object is compared to the method of performing object property detection through only semantic segmentation. It can be obtained more accurately, which can improve the accuracy of detecting objects by a trained neural network as well.
전술한 실시예에 의해 제출된 객체 속성 검출 방법의 기초 위에, 본 출원의 실시예는 지능형 주행 기기에 적용될 수 있는 지능형 주행 방법을 더 제출한다. 여기서, 지능형 주행 기기는 자동 운전 차량, 첨단 운전자 보조 시스템(Advanced Driving Assistant System, ADAS)이 구비된 차량, ADAS가 구비된 로봇 등을 포함하나 이에 한정되지 않는다. On the basis of the object attribute detection method submitted by the above-described embodiment, the embodiment of the present application further presents an intelligent driving method that can be applied to an intelligent driving device. Here, the intelligent driving device includes, but is not limited to, an autonomous driving vehicle, a vehicle equipped with an Advanced Driving Assistant System (ADAS), a robot equipped with an ADAS, and the like.
도 4는 본 출원의 실시예에 따른 지능 주행 방법의 흐름도이며, 도 4에 도시된 바와 같이, 상기 흐름은 아래의 단계를 포함할 수 있다. 4 is a flowchart of an intelligent driving method according to an embodiment of the present application, and as shown in FIG. 4 , the flow may include the following steps.
401 단계: 객체 속성 검출 방법이 차선 속성 검출 방법이고 처리될 이미지가 도로 이미지인 경우, 상술한 어느 한 객체 속성 검출 방법을 이용하여, 지능형 주행 기기에 의해 획득된 도로 이미지 중 차선 속성을 검출한다.Step 401: When the object property detecting method is the lane property detecting method and the image to be processed is a road image, the lane property among the road images acquired by the intelligent driving device is detected by using any one of the object property detecting methods described above.
여기서, 차선 속성은 선의 유형, 선의 색채, 선폭 등을 포함하나 이에 한정되지 않는다. 선의 유형은 단일 선, 이중 선, 실선 또는 파선일 수 있고, 선의 색채는 흰색, 노란색 또는 파란색, 또는 두 가지 색채의 조합 등일 수 있다. Here, the lane attribute includes, but is not limited to, a type of a line, a color of a line, a line width, and the like. The type of line may be a single line, a double line, a solid line, or a dashed line, and the color of the line may be white, yellow or blue, or a combination of two colors, and the like.
402 단계: 검출된 차선 속성에 따라, 상기 도로 이미지에 대응하는 도로 상에서 주행하도록 지능형 주행 기기를 지시한다.Step 402: Instruct the intelligent driving device to drive on a road corresponding to the road image according to the detected lane attribute.
실제 응용에서, 지능형 주행 기기가 주행(자동 운전 및 로봇)하도록 직접 제어할 수도 있고, 운전자에게 명령을 송신하여 운전자에 의해 차량(예를 들어, ADAS가 구비된 차량)의 주행을 제어할 수도 있다. In practical applications, the intelligent driving device may directly control the driving (automatic driving and robot), or it may transmit a command to the driver to control the driving of the vehicle (for example, a vehicle equipped with ADAS) by the driver. .
알 수 있듯이, 차선 속성 검출 방법에 기초하여 차선 속성을 획득할 수 있으며, 차량 운전에 도움을 제공하는데 유리하고 차량 운전의 안전성을 향상하는데 유리하다.As can be seen, it is possible to obtain the lane attribute based on the lane attribute detection method, which is advantageous in providing assistance to driving a vehicle and improving the safety of driving the vehicle.
통상의 기술자는 구체적인 실시방식의 상술한 방법에서 각 단계의 기재 순서가 엄격한 수행 순서를 의미하지 않고, 실시 과정에 대해 어떠한 한정을 구성하는 것이 아니며, 각 단계의 구체적인 수행 순서가 그 기능 및 가능한 내재적 논리로 확정되어야 함을 이해할 수 있다.A person skilled in the art will know that in the above-described method of a specific implementation mode, the description order of each step does not imply a strict execution order, and does not constitute any limitation on the implementation process, and the specific execution order of each step does not imply its function and possible inherent It can be understood that it must be confirmed by logic.
전술한 실시예에 의해 제출된 객체 속성 검출 방법의 기초 위에, 본 출원의 실시예는 객체 속성 검출 장치를 제출한다.On the basis of the object attribute detecting method submitted by the above-described embodiment, the embodiment of the present application provides an object attribute detecting apparatus.
도 5는 본 출원의 실시예에 따른 객체 속성 검출 장치의 개략적인 구성도이다. 도 5에 도시된 바와 같이, 상기 장치는 제1 처리 모듈(501), 제2 처리 모듈(502) 및 제3 처리 모듈(503)을 포함하며,5 is a schematic configuration diagram of an apparatus for detecting object properties according to an embodiment of the present application. 5 , the apparatus includes a
제1 처리 모듈(501)은 처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하도록 구성되고, 상기 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타내며;the
제2 처리 모듈(502)은 상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하도록 구성되고, 상기 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타내며;The
제3 처리 모듈(503)은 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하도록 구성된다.The
본 출원의 일부 실시예에서, 상기 제3 처리 모듈(503)은 상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환하고, 전환된 사전 설정된 길이의 상기 객체의 속성 특징에 따라 상기 객체의 속성을 결정하도록 구성된다.In some embodiments of the present application, the
본 출원의 일부 실시예에서, 상기 제3 처리 모듈(503)은 상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환함에 있어서, 상기 객체의 속성 특징에 대응하는 포인트를 k 개 부분으로 분할하고, 각 부분의 포인트에 대응하는 상기 객체의 속성 특징의 평균치를 계산하여 k 개 평균치를 획득하며, 상술한 단계를 n 회 반복하고(임의의 2회 수행 과정에서 k의 값은 다르고, k는 객체의 속성 특징에 대응하는 포인트의 가능한 최대 개수보다 작으며, n은 1보다 큰 정수임), 획득된 평균치를 이용하여 사전 설정된 길이의 특징을 구성하도록 구성된다.In some embodiments of the present application, the
본 출원의 일부 실시예에서, 상기 객체 속성 검출 장치는 차선 속성 검출 장치이고, 상기 처리될 이미지는 도로 이미지이며; In some embodiments of the present application, the object property detecting device is a lane property detecting device, and the image to be processed is a road image;
상기 제1 처리 모듈(501)은 상기 도로 이미지에 대하여 특징 추출을 수행하여 상기 도로 이미지의 영역 특징맵 및 상기 도로 이미지의 속성 특징맵을 결정하고, 상기 도로 이미지의 영역 특징맵에 따라 상기 도로 이미지 중 차선의 마스크 이미지를 결정하도록 구성되며; The
상기 제2 처리 모듈(502)은 상기 도로 이미지 중 차선의 마스크 이미지에 따라, 상기 도로 이미지의 속성 특징맵 중 차선에 속하는 속성 특징을 결정하도록 구성되며;the
상기 제3 처리 모듈(503)은 상기 차선의 속성 특징에 따라, 상기 차선의 속성을 결정하도록 구성된다.The
본 출원의 일부 실시예에서, 상기 제3 처리 모듈(503)은 또한, 상기 차선의 속성을 결정한 후, 상기 도로 이미지, 결정된 상기 도로 이미지 중 차선의 마스크 이미지 및 결정된 상기 차선의 속성에 따라, 상기 도로 이미지 중 차선을 결정하도록 구성된다.In some embodiments of the present application, the
본 출원의 일부 실시예에서, 상기 객체 속성 검출 장치는 신경망에 기초하여 구현되며, 상기 신경망은 샘플 이미지, 상기 샘플 이미지의 태깅된 마스크 이미지 및 상기 샘플 이미지의 객체의 태깅된 속성을 적용하여 훈련하여 획득된다.In some embodiments of the present application, the object property detection apparatus is implemented based on a neural network, and the neural network is trained by applying a sample image, a tagged mask image of the sample image, and a tagged property of an object of the sample image. is obtained
실제 응용에서, 제1 처리 모듈(501), 제2 처리 모듈(502) 및 제3 처리 모듈(503)은 모두 전자 기기 중 프로세서를 이용하여 구현될 수 있으며, 상기 프로세서는 ASIC, DSP, DSPD, PLD, FPGA, CPU, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 중 적어도 하나일 수 있다.In practical applications, the
도 6은 본 출원의 실시예에 따른 신경망 훈련 장치의 개략적인 구성도이다. 도 6에 도시된 바와 같이, 상기 장치는 제4 처리 모듈(601), 제5 처리 모듈(602) 및 조정 모듈(603)을 포함하며,6 is a schematic configuration diagram of a neural network training apparatus according to an embodiment of the present application. 6 , the apparatus includes a
제4 처리 모듈(601)은 샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 샘플 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정하도록 구성되고, 상기 태깅된 마스크 이미지는 상기 샘플 이미지 중 상기 객체의 위치를 나타내고, 상기 샘플 이미지의 속성 특징맵은 상기 샘플 이미지의 속성을 나타내며;The
제5 처리 모듈(602)은 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하도록 구성되고;the
조정 모듈(603)은 결정된 상기 객체의 속성과 상기 객체의 태깅된 속성 간의 차이, 및 상기 태깅된 마스크 이미지와 상기 샘플 이미지에 대해 시멘틱 분할을 수행하여 결정된 상기 샘플 이미지의 마스크 이미지 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정하도록 구성된다.The
본 출원의 일부 실시예에서, 상기 제5 처리 모듈(602)은 상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환하고, 전환된 사전 설정된 길이의 상기 객체의 속성 특징에 따라 상기 객체의 속성을 결정하도록 구성된다.In some embodiments of the present application, the
본 출원의 일부 실시예에서, 상기 제5 처리 모듈(602)은 상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환함에 있어서, 상기 객체의 속성 특징에 대응하는 포인트를 k 개 부분으로 분할하고, 각 부분의 포인트에 대응하는 상기 객체의 속성 특징의 평균치를 계산하여 k 개 평균치를 획득하며, 상술한 단계를 n 회 반복하고(임의의 2회 수행 과정에서 k의 값은 다르고, k는 객체의 속성 특징에 대응하는 포인트의 가능한 최대 개수보다 작으며, n은 1보다 큰 정수임), 획득된 평균치를 이용하여 사전 설정된 길이의 특징을 구성하도록 구성된다.In some embodiments of the present application, the
본 출원의 일부 실시예에서, 상기 신경망은 차선 속성 검출에 사용되며, 상기 샘플 이미지는 도로 샘플 이미지이고, 상기 객체는 차선이다.In some embodiments of the present application, the neural network is used to detect a lane property, the sample image is a road sample image, and the object is a lane.
상기 제4 처리 모듈(601)은 상기 도로 샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 도로 샘플 이미지의 속성 특징맵 중 상기 차선에 속하는 속성 특징을 결정하도록 구성되며, 상기 도로 샘플 이미지의 태깅된 마스크 이미지는 상기 도로 샘플 이미지 중 상기 차선의 위치를 나타내고;the
상기 제5 처리 모듈(602)은 상기 차선의 속성 특징에 따라, 상기 차선의 속성을 결정하도록 구성되며; the
상기 조정 모듈(603)은 결정된 상기 차선의 속성과 상기 차선의 태깅된 속성 간의 차이, 및 상기 도로 샘플 이미지의 태깅된 마스크 이미지와 상기 도로 샘플 이미지의 영역 특징맵에 따라 결정된 상기 차선의 마스크 이미지 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정할 수 있다.The
실제 응용에서, 제4 처리 모듈(601), 제5 처리 모듈(602) 및 조정 모듈(603)은 모두 전자 기기 중 프로세서를 이용하여 구현될 수 있으며, 상기 프로세서는 ASIC, DSP, DSPD, PLD, FPGA, CPU, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 중 적어도 하나일 수 있다.In practical application, the
도 7은 본 출원의 실시예에 따른 지능형 주행 장치의 개략적인 구성도이다. 도 7에 도시된 바와 같이, 상기 장치는 검출 모듈(701) 및 지시 모듈(702)을 포함하며, 7 is a schematic configuration diagram of an intelligent driving apparatus according to an embodiment of the present application. 7, the device includes a
검출 모듈(701)은 상기 객체 속성 검출 방법이 차선 속성 검출 방법이고 상기 처리될 이미지가 도로 이미지인 경우, 상술한 어느 한 객체 속성 검출 방법을 이용하여, 지능형 주행 기기에 의해 획득된 도로 이미지 중 차선 속성을 검출하도록 구성되고;The
지시 모듈(702)은 검출된 차선 속성에 따라, 상기 도로 이미지에 대응하는 도로 상에서 주행하도록 지능형 주행 기기를 지시하도록 구성된다.The
실제 응용에서, 검출 모듈(701) 및 지시 모듈(702)은 모두 지능형 주행 기기 중 프로세서를 이용하여 구현될 수 있으며, 상기 프로세서는 ASIC, DSP, DSPD, PLD, FPGA, CPU, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 중 적어도 하나일 수 있다.In practical applications, both the
또한, 본 실시예 중 각 기능 모듈은 하나의 처리 유닛에 집적되거나 각 유닛이 단독으로 물리적으로 존재할 수도 있으며 둘 또는 둘 이상의 유닛이 하나의 유닛에 집적될 수도 있다. 상술한 집적된 유닛은 하드웨어의 형식으로 구현될 수도 있고 소프트웨어 기능 모듈의 형식으로 구현될 수도 있다.In addition, in the present embodiment, each functional module may be integrated into one processing unit, or each unit may exist alone physically, or two or more units may be integrated into one unit. The above-described integrated unit may be implemented in the form of hardware or may be implemented in the form of a software function module.
상기 집적된 유닛은 소프트웨어 기능 모듈의 형식으로 구현되고 독립된 제품으로 판매 또는 사용되지 않을 시, 하나의 컴퓨터 판독 가능한 저장매체에 저장될 수 있으며, 이러한 이해를 기반으로, 본 실시예의 기술적 방안의 본질적 또는 종래 기술에 공헌을 이바지하는 부분, 또는 상기 기술적 방안의 전부 또는 일부는 소프트웨어 제품의 형식으로 구현될 수 있으며, 상기 컴퓨터 소프트웨어 제품은 저장매체에 저장되며, 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 장비 등 일 수 있음)또는 processor(프로세서)가 본 실시예에 따른 상기 방법의 전부 또는 일부 단계를 실행하도록 여러 개의 명령을 포함한다. 전술한 저장매체는 USB 메모리, 모바일 하드 디스크, 롬(Read Only Memory, ROM), 램(Random Access Memory, RAM), 디스켓 또는 광 디스크 등 프로그램 코드를 저장할 수 있는 여러 가지 매체를 포함한다.The integrated unit is implemented in the form of a software function module and, when not sold or used as an independent product, may be stored in one computer-readable storage medium, and based on this understanding, the essential or The part contributing to the prior art, or all or part of the technical solution may be implemented in the form of a software product, the computer software product being stored in a storage medium, and a computer device (personal computer, server or network equipment, etc.) ) or a processor (processor) includes several instructions to execute all or some steps of the method according to the present embodiment. The above-described storage medium includes various media capable of storing a program code, such as a USB memory, a mobile hard disk, a read only memory (ROM), a random access memory (RAM), a diskette or an optical disk.
구체적으로, 본 실시예 중 어느 한 객체 속성 검출 방법, 신경망 훈련 방법 또는 지능형 주행 방법에 대응하는 컴퓨터 프로그램 명령은 광 디스크, 하드 디스크, USB 메모리 등 저장매체에 저장될 수 있으며, 어느 한 객체 속성 검출 방법, 신경망 훈련 방법 또는 지능형 주행 방법에 대응하는 저장매체 중 컴퓨터 프로그램 명령이 전자 기기에 의해 판독되거나 수행되면, 전술한 실시예의 어느 한 객체 속성 검출 방법 또는 상술한 어느 한 신경망 훈련 방법 또는 상술한 어느 한 지능형 주행 방법을 구현한다.Specifically, a computer program command corresponding to any one of the object property detection method, the neural network training method, or the intelligent driving method of the present embodiment may be stored in a storage medium such as an optical disk, a hard disk, or a USB memory, and any one object property detection method When a computer program command in a storage medium corresponding to the method, the neural network training method, or the intelligent driving method is read or executed by the electronic device, any one of the object attribute detection method of the above-described embodiment or any of the above-described neural network training method or any of the above Implement an intelligent driving method.
전술한 실시예와 동일한 기술적 구상에 기초하여, 도 8을 참조하면, 본 출원의 실시예에 의해 제공된 전자 기기(80)를 도시하며, 메모리(81) 및 프로세서(82)를 포함할 수 있으며, Based on the same technical concept as the above-described embodiment, referring to FIG. 8, an
상기 메모리(81)는 컴퓨터 프로그램 및 데이터를 저장하도록 구성되고;the
상기 프로세서(82)는 상기 메모리에 저장된 컴퓨터 프로그램을 실행하여, 전술한 실시예의 어느 한 객체 속성 검출 방법 또는 상술한 어느 한 신경망 훈련 방법 또는 상술한 어느 한 지능형 주행 방법을 수행하도록 구성된다.The
실제 응용에서, 상기 메모리(81)는 RAM과 같은 휘발성 메모리(volatile memory), ROM, 플래시(flash memory), 하드 디스크(Hard Disk Drive, HDD) 또는 솔리드 스테이트 디스크(Solid-State Drive, SSD)와 같은 비 휘발성 메모리(non-volatile memory), 또는 상술한 종류의 메모리의 조합일 수 있으며, 명령 및 데이터를 프로세서(82)에 제공한다. In practical applications, the
상기 프로세서(82)는 ASIC, DSP, DSPD, PLD, FPGA, CPU, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 중 적어도 하나일 수 있다. 이해할 수 있듯이, 상이한 기기에 대하여, 상술한 프로세서 기능을 구현하는 전자 소자는 다른 것일 수도 있으며, 본 출원의 실시예는 구체적으로 한정하지 않는다. The
본 출원의 실시예는 컴퓨터 판독 가능한 코드가 포함된 컴퓨터 프로그램을 더 제출하며, 상기 컴퓨터 판독 가능한 코드가 전자 기기에서 실행되면, 상기 전자 기기 중 프로세서는 상술한 어느 한 객체 속성 검출 방법 또는 상술한 어느 한 신경망 훈련 방법 또는 상술한 어느 한 지능형 주행 방법을 구현한다.An embodiment of the present application further submits a computer program including a computer readable code, and when the computer readable code is executed in an electronic device, the processor of the electronic device may use any one of the above-described object attribute detection methods or any of the above Implement a neural network training method or any of the intelligent driving methods described above.
일부 실시예에서, 본 출원의 실시예에 의해 제공된 장치에 구비된 기능 또는 포함된 모듈은 위의 방법 실시예에서 설명된 방법을 수행할 수 있으며, 그 구체적인 구현은 위의 방법 실시예의 설명을 참조하면 되며, 간결을 위하여, 여기서 더 설명하지 않는다.In some embodiments, a function or a module included in an apparatus provided by an embodiment of the present application may perform the method described in the method embodiment above, for specific implementation, see the description of the method embodiment above. and, for the sake of brevity, no further explanation is given here.
상기에서 각 실시예에 대한 설명은 주로 실시예들 간의 상이점을 강조하였으며, 동일하거나 유사한 점들은 서로 참조하면 되므로 여기서 더 설명하지 않는다.In the above description of each embodiment, the differences between the embodiments are mainly emphasized, and the same or similar points are not described further here because the same or similar points may be referred to each other.
본 출원에 의해 제공된 각 방법 실시예에서 개시된 방법은 충돌하지 않는 경우 임의로 조합하여 신규 방법 실시예를 획득할 수 있다. The methods disclosed in each method embodiment provided by the present application may be arbitrarily combined to obtain a new method embodiment if they do not conflict.
본 출원에 의해 제공된 각 제품 실시예에서 개시된 특징은 충돌하지 않는 경우 임의로 조합하여 신규 제품 실시예를 획득할 수 있다.The features disclosed in each product embodiment provided by the present application can be arbitrarily combined to obtain a new product embodiment if they do not conflict.
본 출원에 의해 제공된 각 방법 또는 기기 실시예에서 개시된 특징은 충돌하지 않는 경우 임의로 조합하여 신규 방법 실시예 또는 기기 실시예를 획득할 수 있다.Features disclosed in each method or device embodiment provided by the present application may be arbitrarily combined to obtain a new method embodiment or device embodiment if they do not conflict.
이상의 실시방식의 설명을 통해, 통상의 기술자는 상술한 실시예의 방법이 소프트웨어 플라스 필요한 범용 하드웨어 플랫폼의 방식에 의해 구현될 수 있음을 명확히 알 수 있다 .물론, 하드웨어를 통할 수도 있으나 많은 경우 전자는 더 바람직한 실시방식이다. 이러한 이해에 기초하여, 본 발명의 기술적 방안은 본질적으로 또는 종래 기술에 공헌을 이바지하는 부분에 대해 소프트웨어 제품의 형식으로 구현할 수 있으며, 상기 컴퓨터 소프트웨어 제품은 저장매체(예를 들어, ROM/RAM, 디스켓, 광 디스크)에 저장되며, 단말기(핸드폰, 컴퓨터, 서버, 에어컨 또는 네트워크 장비 등)가 본 발명의 각 실시예에 따른 방법을 실행하도록 여러 개의 명령을 포함한다.Through the description of the above embodiment, a person skilled in the art can clearly see that the method of the above-described embodiment can be implemented by the method of a general-purpose hardware platform required for software. Of course, it may be through hardware, but in many cases, the former is more This is a preferred implementation method. Based on this understanding, the technical solution of the present invention can be implemented in the form of a software product essentially or for a part contributing to the prior art, and the computer software product is a storage medium (eg, ROM/RAM, It is stored on a diskette, an optical disk), and includes several instructions to cause a terminal (such as a mobile phone, computer, server, air conditioner or network equipment) to execute the method according to each embodiment of the present invention.
상기에서 첨부 도면을 결부하여 본 발명의 실시예를 설명하였으나 본 발명은 상술한 구체적인 실시방식에 제한되지 않으며, 상술한 구체적인 실시방식은 단지 예시적이고 제한적이 아니다. 본 분야의 당업자는 본 발명의 시사 하에 본 발명의 요지 및 특허청구범위를 벗어나지 않고, 형식상에서 많은 변경을 수행할 수도 있으며, 이들은 모두 본 발명의 보호범위에 속한다. In the above, embodiments of the present invention have been described in conjunction with the accompanying drawings, but the present invention is not limited to the specific embodiments described above, and the specific embodiments described above are merely exemplary and not limiting. Those skilled in the art may make many changes in form without departing from the spirit and scope of the present invention under the teaching of the present invention, all of which fall within the protection scope of the present invention.
본 출원의 실시예는 객체 속성 검출 방법, 신경망 훈련 방법 및 지능형 주행 방법, 장치, 전자 기기, 컴퓨터 저장매체 및 컴퓨터 프로그램을 제공한다. 상기 객체 속성 검출 방법은, 처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하는 단계 - 상기 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타냄 - ; 상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하는 단계 - 상기 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타냄 - ; 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계를 포함한다. 이와 같이, 본 출원의 실시예에서, 이미지 중 객체가 위치한 영역을 추출할 필요가 없고, 시멘틱 분할을 통해 획득된 분별성을 더 가진 마스크 이미지에 기반하여 객체의 속성 특징을 결정하므로, 객체 속성 검출의 정확도를 향상할 수 있다.Embodiments of the present application provide an object attribute detection method, a neural network training method and an intelligent driving method, an apparatus, an electronic device, a computer storage medium, and a computer program. The method for detecting object properties includes: performing semantic segmentation on an image to be processed, and determining a mask image of the image to be processed, wherein the mask image indicates a position of an object in the image to be processed; determining, according to the mask image, an attribute characteristic belonging to the object among attribute characteristic maps of the image to be processed, wherein the attribute characteristic map of the image to be processed indicates attributes of the image to be processed; and determining a property of the object according to the property characteristic of the object. As such, in the embodiment of the present application, there is no need to extract the region where the object is located from the image, and since the attribute characteristic of the object is determined based on the mask image with further discrimination obtained through semantic segmentation, object attribute detection can improve the accuracy of
Claims (21)
처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하는 단계 - 상기 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타냄 - ;
상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하는 단계 - 상기 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타냄 - ;
상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계를 포함하는 객체 속성 검출 방법.A method for detecting object properties, comprising:
performing semantic segmentation on the image to be processed, and determining a mask image of the image to be processed, the mask image indicating a position of an object in the image to be processed;
determining, according to the mask image, an attribute characteristic belonging to the object among attribute characteristic maps of the image to be processed, wherein the attribute characteristic map of the image to be processed indicates attributes of the image to be processed;
and determining an attribute of the object according to the attribute characteristic of the object.
상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계는,
상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환하는 단계;
전환된 사전 설정된 길이의 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계를 포함하는 객체 속성 검출 방법.According to claim 1,
According to the property characteristics of the object, the step of determining the property of the object,
converting an attribute characteristic of the object into a characteristic of a preset length;
and determining an attribute of the object according to an attribute characteristic of the object of the converted preset length.
상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환하는 단계는,
상기 객체의 속성 특징에 대응하는 포인트를 k 개 부분으로 분할하는 단계;
각 부분의 포인트에 대응하는 상기 객체의 속성 특징의 평균치를 계산하여 k 개 평균치를 획득하는 단계;
상술한 단계를 n 회 반복하는 단계 - 임의의 2회 수행 과정에서 k의 값은 다르고, k는 객체의 속성 특징에 대응하는 포인트의 가능한 최대 개수보다 작으며, n은 1보다 큰 정수임 - ;
획득된 평균치를 이용하여 상기 사전 설정된 길이의 특징을 구성하는 단계를 포함하는 객체 속성 검출 방법.3. The method of claim 2,
The step of converting the attribute characteristic of the object into a characteristic of a preset length comprises:
dividing points corresponding to the attribute characteristics of the object into k parts;
obtaining k average values by calculating an average value of the attribute characteristics of the object corresponding to the points of each part;
repeating the above-described step n times, in which the value of k is different in the course of performing two times, where k is less than the maximum possible number of points corresponding to the attribute characteristic of the object, and n is an integer greater than 1;
and constructing the feature of the preset length by using the obtained average value.
상기 객체 속성 검출 방법은 차선 속성 검출 방법이고, 상기 처리될 이미지는 도로 이미지이며;
상기 처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하는 단계는,
상기 도로 이미지에 대하여 특징 추출을 수행하여 상기 도로 이미지의 영역 특징맵 및 상기 도로 이미지의 속성 특징맵을 결정하는 단계;
상기 도로 이미지의 영역 특징맵에 따라 상기 도로 이미지 중 차선의 마스크 이미지를 결정하는 단계를 포함하며,
상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하는 단계는,
상기 도로 이미지 중 차선의 마스크 이미지에 따라, 상기 도로 이미지의 속성 특징맵 중 차선에 속하는 속성 특징을 결정하는 단계를 포함하며,
상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계는,
상기 차선의 속성 특징에 따라, 상기 차선의 속성을 결정하는 단계를 포함하는 객체 속성 검출 방법.4. The method according to any one of claims 1 to 3,
the object property detection method is a lane property detection method, and the image to be processed is a road image;
performing semantic segmentation on the image to be processed, and determining a mask image of the image to be processed,
determining an area feature map of the road image and an attribute feature map of the road image by performing feature extraction on the road image;
determining a mask image of a lane among the road images according to the area feature map of the road image;
The step of determining, according to the mask image, the attribute characteristic belonging to the object among the attribute characteristic map of the image to be processed,
determining, according to a mask image of a lane in the road image, an attribute characteristic belonging to a lane in an attribute characteristic map of the road image;
According to the property characteristics of the object, the step of determining the property of the object,
and determining an attribute of the lane according to the attribute characteristic of the lane.
상기 차선의 속성을 결정한 후, 상기 방법은
상기 도로 이미지, 결정된 상기 도로 이미지 중 차선의 마스크 이미지 및 결정된 상기 차선의 속성에 따라, 상기 도로 이미지 중 차선을 결정하는 단계를 더 포함하는 객체 속성 검출 방법.5. The method of claim 4,
After determining the properties of the lane, the method
and determining a lane in the road image according to the road image, a mask image of the lane among the determined road images, and the determined attribute of the lane.
상기 객체 속성 검출 방법은 신경망에 의해 수행되고, 상기 신경망은 샘플 이미지, 상기 샘플 이미지의 태깅된 마스크 이미지 및 상기 샘플 이미지의 객체의 태깅된 속성을 적용하여 훈련하여 획득되는 객체 속성 검출 방법.6. The method according to any one of claims 1 to 5,
The method for detecting object properties is performed by a neural network, and the neural network is obtained by training by applying a sample image, a tagged mask image of the sample image, and a tagged property of an object of the sample image.
샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 샘플 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정하는 단계 - 상기 태깅된 마스크 이미지는 상기 샘플 이미지 중 상기 객체의 위치를 나타내고, 상기 샘플 이미지의 속성 특징맵은 상기 샘플 이미지의 속성을 나타냄 - ;
상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계;
결정된 상기 객체의 속성과 상기 객체의 태깅된 속성 간의 차이, 및 상기 태깅된 마스크 이미지와 상기 샘플 이미지에 대해 시멘틱 분할을 수행하여 결정된 상기 샘플 이미지의 마스크 이미지 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정하는 단계를 포함하는 신경망의 훈련 방법.A method for training a neural network, comprising:
determining, according to the tagged mask image of the sample image, an attribute characteristic belonging to an object in the attribute characteristic map of the sample image, wherein the tagged mask image indicates a location of the object in the sample image, and a property of the sample image The feature map indicates the properties of the sample image;
determining a property of the object according to the property characteristic of the object;
According to a difference between the determined property of the object and the tagged property of the object, and a difference between the tagged mask image and the mask image of the sample image determined by performing semantic segmentation on the sample image, the network parameter value of the neural network A method of training a neural network, comprising adjusting
상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계는,
상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환하는 단계;
전환된 사전 설정된 길이의 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계를 포함하는 신경망의 훈련 방법.8. The method of claim 7,
According to the property characteristics of the object, the step of determining the property of the object,
converting an attribute characteristic of the object into a characteristic of a preset length;
and determining a property of the object according to a property characteristic of the object of the converted preset length.
상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환하는 단계는,
상기 객체의 속성 특징에 대응하는 포인트를 k 개 부분으로 분할하는 단계;
각 부분의 포인트에 대응하는 상기 객체의 속성 특징의 평균치를 계산하여 k 개 평균치를 획득하는 단계;
상술한 단계를 n 회 반복하는 단계 - 임의의 2회 수행 과정에서 k의 값은 다르고, k는 객체의 속성 특징에 대응하는 포인트의 가능한 최대 개수보다 작으며, n은 1보다 큰 정수임 - ;
획득된 평균치를 이용하여 상기 사전 설정된 길이의 특징을 구성하는 단계를 포함하는 신경망의 훈련 방법.9. The method of claim 8,
The step of converting the attribute characteristic of the object into a characteristic of a preset length comprises:
dividing points corresponding to the attribute characteristics of the object into k parts;
obtaining k average values by calculating an average value of the attribute characteristics of the object corresponding to the points of each part;
repeating the above-described step n times, in which the value of k is different in the course of performing two times, where k is less than the maximum possible number of points corresponding to the attribute characteristic of the object, and n is an integer greater than 1;
A method of training a neural network comprising the step of constructing a feature of the preset length using the obtained average value.
상기 신경망은 차선 속성 검출에 사용되며, 상기 샘플 이미지는 도로 샘플 이미지이고, 상기 객체는 차선이며;
상기 샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 샘플 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정하는 단계는,
상기 도로 샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 도로 샘플 이미지의 속성 특징맵 중 상기 차선에 속하는 속성 특징을 결정하는 단계 - 상기 도로 샘플 이미지의 태깅된 마스크 이미지는 상기 도로 샘플 이미지 중 상기 차선의 위치를 나타냄 - 를 포함하고,
상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하는 단계는,
상기 차선의 속성 특징에 따라, 상기 차선의 속성을 결정하는 단계를 포함하고,
상기 결정된 상기 객체의 속성과 상기 객체의 태깅된 속성 간의 차이, 및 상기 태깅된 마스크 이미지와 상기 샘플 이미지에 대해 시멘틱 분할을 수행하여 결정된 상기 샘플 이미지의 마스크 이미지 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정하는 단계는,
결정된 상기 차선의 속성과 상기 차선의 태깅된 속성 간의 차이, 및 상기 도로 샘플 이미지의 태깅된 마스크 이미지와 상기 도로 샘플 이미지의 영역 특징맵에 따라 결정된 상기 차선의 마스크 이미지 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정하는 단계를 포함하는 신경망의 훈련 방법.10. The method according to any one of claims 7 to 9,
the neural network is used for detecting lane properties, the sample image is a road sample image, and the object is a lane;
The step of determining, according to the tagged mask image of the sample image, an attribute characteristic belonging to an object in the attribute characteristic map of the sample image,
determining, according to the tagged mask image of the road sample image, an attribute characteristic belonging to the lane in the attribute characteristic map of the road sample image; indicates a location - including,
According to the property characteristics of the object, the step of determining the property of the object,
determining an attribute of the lane according to the attribute characteristic of the lane;
According to the difference between the determined property of the object and the tagged property of the object, and the difference between the tagged mask image and the mask image of the sample image determined by performing semantic segmentation on the sample image, the network parameter of the neural network The steps to adjust the value are:
According to the difference between the determined attribute of the lane and the tagged attribute of the lane, and the difference between the tagged mask image of the road sample image and the mask image of the lane determined according to the area feature map of the road sample image, A method of training a neural network comprising adjusting network parameter values.
제4항 내지 제6항 중 어느 한의 방법을 이용하여, 지능형 주행 기기에 의해 획득된 도로 이미지 중 차선 속성을 검출하는 단계;
검출된 차선 속성에 따라, 상기 도로 이미지에 대응하는 도로 상에서 주행하도록 지능형 주행 기기를 지시하는 단계를 포함하는 지능형 주행 방법.An intelligent driving method comprising:
A method comprising: detecting a lane property among road images acquired by an intelligent driving device using the method of any one of claims 4 to 6;
and instructing an intelligent driving device to drive on a road corresponding to the road image according to the detected lane attribute.
제1 처리 모듈, 제2 처리 모듈 및 제3 처리 모듈을 포함하며,
제1 처리 모듈은 처리될 이미지에 대해 시멘틱 분할을 수행하고, 상기 처리될 이미지의 마스크 이미지를 결정하도록 구성되고, 상기 마스크 이미지는 상기 처리될 이미지 중 객체의 위치를 나타내며;
제2 처리 모듈은 상기 마스크 이미지에 따라, 상기 처리될 이미지의 속성 특징맵 중 상기 객체에 속하는 속성 특징을 결정하도록 구성되고, 상기 처리될 이미지의 속성 특징맵은 상기 처리될 이미지의 속성을 나타내며;
제3 처리 모듈은 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하도록 구성되는 객체 속성 검출 장치.A device for detecting object properties, comprising:
a first processing module, a second processing module and a third processing module;
the first processing module is configured to perform semantic segmentation on the image to be processed, and determine a mask image of the image to be processed, the mask image indicating a position of an object in the image to be processed;
a second processing module is configured to determine, according to the mask image, an attribute characteristic belonging to the object among the attribute characteristic map of the image to be processed, the attribute characteristic map of the image to be processed indicates the attribute of the image to be processed;
and the third processing module is configured to determine, according to the attribute characteristic of the object, a property of the object.
상기 제3 처리 모듈은 상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환하고, 전환된 사전 설정된 길이의 상기 객체의 속성 특징에 따라 상기 객체의 속성을 결정하도록 구성되는 객체 속성 검출 장치.13. The method of claim 12,
and the third processing module is configured to convert the attribute characteristic of the object into a characteristic of a preset length, and determine the attribute of the object according to the converted attribute characteristic of the object of the preset length.
상기 제3 처리 모듈은 상기 객체의 속성 특징을 사전 설정된 길이의 특징으로 전환함에 있어서,
상기 객체의 속성 특징에 대응하는 포인트를 k 개 부분으로 분할하고, 각 부분의 포인트에 대응하는 상기 객체의 속성 특징의 평균치를 계산하여 k 개 평균치를 획득하며, 상술한 단계를 n 회 반복하고 - 임의의 2회 수행 과정에서 k의 값은 다르고, k는 객체의 속성 특징에 대응하는 포인트의 가능한 최대 개수보다 작으며, n은 1보다 큰 정수임 - , 획득된 평균치를 이용하여 사전 설정된 길이의 특징을 구성하도록 구성되는 객체 속성 검출 장치.14. The method of claim 13,
In the third processing module converting the attribute characteristic of the object into a characteristic of a preset length,
The points corresponding to the attribute characteristics of the object are divided into k parts, the average value of the attribute characteristics of the object corresponding to the points of each part is calculated to obtain k average values, and the above-described steps are repeated n times, and - In the process of performing two times, the value of k is different, k is less than the maximum possible number of points corresponding to the attribute feature of the object, and n is an integer greater than 1 - , a feature of a preset length using the obtained average value An object property detection device configured to configure
상기 객체 속성 검출 장치는 차선 속성 검출 장치이고, 상기 처리될 이미지는 도로 이미지이며;
상기 제1 처리 모듈은 상기 도로 이미지에 대하여 특징 추출을 수행하여 상기 도로 이미지의 영역 특징맵 및 상기 도로 이미지의 속성 특징맵을 결정하고, 상기 도로 이미지의 영역 특징맵에 따라 상기 도로 이미지 중 차선의 마스크 이미지를 결정하도록 구성되며;
상기 제2 처리 모듈은 상기 도로 이미지 중 차선의 마스크 이미지에 따라, 상기 도로 이미지의 속성 특징맵 중 차선에 속하는 속성 특징을 결정하도록 구성되며;
상기 제3 처리 모듈은 상기 차선의 속성 특징에 따라, 상기 차선의 속성을 결정하도록 구성되는 객체 속성 검출 장치.15. The method according to any one of claims 12 to 14,
the object property detecting device is a lane property detecting device, and the image to be processed is a road image;
The first processing module performs feature extraction on the road image to determine a region feature map of the road image and a property feature map of the road image, and determines a lane of the road image according to the region feature map of the road image. and determine a mask image;
the second processing module is configured to determine, according to the mask image of the lane in the road image, an attribute characteristic belonging to the lane in the attribute characteristic map of the road image;
and the third processing module is configured to determine, according to the attribute characteristic of the lane, an attribute of the lane.
상기 제3 처리 모듈은 또한, 상기 차선의 속성을 결정한 후, 상기 도로 이미지, 결정된 상기 도로 이미지 중 차선의 마스크 이미지 및 결정된 상기 차선의 속성에 따라, 상기 도로 이미지 중 차선을 결정하도록 구성되는 객체 속성 검출 장치.16. The method of claim 15,
The third processing module is further configured to: after determining the attribute of the lane, determine the lane in the road image according to the road image, the determined mask image of the lane among the road image, and the determined attribute of the lane detection device.
제4 처리 모듈, 제5 처리 모듈 및 조정 모듈을 포함하며,
제4 처리 모듈은 샘플 이미지의 태깅된 마스크 이미지에 따라, 상기 샘플 이미지의 속성 특징맵 중 객체에 속하는 속성 특징을 결정하도록 구성되고, 상기 태깅된 마스크 이미지는 상기 샘플 이미지 중 상기 객체의 위치를 나타내고, 상기 샘플 이미지의 속성 특징맵은 상기 샘플 이미지의 속성을 나타내며;
제5 처리 모듈은 상기 객체의 속성 특징에 따라, 상기 객체의 속성을 결정하도록 구성되고;
조정 모듈은 결정된 상기 객체의 속성과 상기 객체의 태깅된 속성 간의 차이, 및 상기 태깅된 마스크 이미지와 상기 샘플 이미지에 대해 시멘틱 분할을 수행하여 결정된 상기 샘플 이미지의 마스크 이미지 간의 차이에 따라, 상기 신경망의 네트워크 파라미터 값을 조정하도록 구성되는 신경망 훈련 장치.A neural network training device comprising:
a fourth processing module, a fifth processing module and an adjustment module;
a fourth processing module is configured to determine, according to the tagged mask image of the sample image, an attribute characteristic belonging to an object in the attribute characteristic map of the sample image, wherein the tagged mask image indicates a position of the object in the sample image , the attribute feature map of the sample image indicates the attribute of the sample image;
a fifth processing module is configured to determine, according to the attribute characteristic of the object, a property of the object;
The adjustment module is configured to: according to a difference between the determined property of the object and a tagged property of the object, and a difference between the tagged mask image and a mask image of the sample image determined by performing semantic segmentation on the sample image, of the neural network A neural network training device configured to adjust network parameter values.
검출 모듈 및 지시 모듈을 포함하며,
검출 모듈은 제4항 내지 제6항 중 어느 한의 방법을 이용하여, 지능형 주행 기기에 의해 획득된 도로 이미지 중 차선 속성을 검출하도록 구성되고;
지시 모듈은 검출된 차선 속성에 따라, 상기 도로 이미지에 대응하는 도로 상에서 주행하도록 지능형 주행 기기를 지시하도록 구성되는 지능형 주행 장치.An intelligent driving device comprising:
a detection module and an indication module;
the detection module is configured to detect, by using the method of any one of claims 4 to 6, a lane property among the road images acquired by the intelligent driving device;
the instructing module is configured to instruct the intelligent driving device to drive on a road corresponding to the road image according to the detected lane attribute.
프로세서 및 프로세서에서 실행 가능한 컴퓨터 프로그램을 저장하도록 구성되는 메모리를 포함하며,
상기 프로세서는 상기 컴퓨터 프로그램을 실행하면, 제1항 내지 제6항 중 어느 한 항에 따른 객체 속성 검출 방법 또는 제7항 내지 제10항 중 어느 한 항에 따른 신경망 훈련 방법 또는 제11항에 따른 지능형 주행 방법을 수행하도록 구성되는 전자 기기.As an electronic device,
a processor and a memory configured to store a computer program executable on the processor;
When the processor executes the computer program, the method for detecting object properties according to any one of claims 1 to 6, the method for training a neural network according to any one of claims 7 to 10, or the method according to claim 11 An electronic device configured to perform an intelligent driving method.
상기 컴퓨터 프로그램은 프로세서에 의해 실행되면, 제1항 내지 제6항 중 어느 한 항에 따른 객체 속성 검출 방법 또는 제7항 내지 제10항 중 어느 한 항에 따른 신경망 훈련 방법 또는 제11항에 따른 지능형 주행 방법을 구현하는 컴퓨터 저장매체.As a computer storage medium in which a computer program is stored,
When the computer program is executed by a processor, the method for detecting object properties according to any one of claims 1 to 6 or the method for training a neural network according to any one of claims 7 to 10 or the method according to claim 11 . A computer storage medium that implements an intelligent driving method.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911081216.4A CN112785595B (en) | 2019-11-07 | 2019-11-07 | Target attribute detection, neural network training and intelligent driving method and device |
CN201911081216.4 | 2019-11-07 | ||
PCT/CN2020/114109 WO2021088505A1 (en) | 2019-11-07 | 2020-09-08 | Target attribute detection, neural network training and intelligent driving methods and apparatuses |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210087496A true KR20210087496A (en) | 2021-07-12 |
Family
ID=75747824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217016723A KR20210087496A (en) | 2019-11-07 | 2020-09-08 | Object property detection, neural network training and intelligent driving method, device |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022513781A (en) |
KR (1) | KR20210087496A (en) |
CN (1) | CN112785595B (en) |
WO (1) | WO2021088505A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023146286A1 (en) * | 2022-01-28 | 2023-08-03 | 삼성전자 주식회사 | Electronic device and method for improving quality of image |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115661556B (en) * | 2022-10-20 | 2024-04-12 | 南京领行科技股份有限公司 | Image processing method and device, electronic equipment and storage medium |
WO2024185409A1 (en) * | 2023-03-08 | 2024-09-12 | Nec Corporation | Method, apparatus, and system for allocating hardware resources to process video streams |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3352655B2 (en) * | 1999-09-22 | 2002-12-03 | 富士重工業株式会社 | Lane recognition device |
JP4292250B2 (en) * | 2004-07-02 | 2009-07-08 | トヨタ自動車株式会社 | Road environment recognition method and road environment recognition device |
JP5664152B2 (en) * | 2009-12-25 | 2015-02-04 | 株式会社リコー | Imaging device, in-vehicle imaging system, and object identification device |
JP6569280B2 (en) * | 2015-04-15 | 2019-09-04 | 日産自動車株式会社 | Road marking detection device and road marking detection method |
CN105260699B (en) * | 2015-09-10 | 2018-06-26 | 百度在线网络技术(北京)有限公司 | A kind of processing method and processing device of lane line data |
CN105718870B (en) * | 2016-01-15 | 2019-06-14 | 武汉光庭科技有限公司 | Based on the preceding roadmarking extracting method to camera in automatic Pilot |
CN105956122A (en) * | 2016-05-03 | 2016-09-21 | 无锡雅座在线科技发展有限公司 | Object attribute determining method and device |
JP6802756B2 (en) * | 2017-05-18 | 2020-12-16 | 株式会社デンソーアイティーラボラトリ | Recognition system, common feature extraction unit, and recognition system configuration method |
US10679351B2 (en) * | 2017-08-18 | 2020-06-09 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
CN107729880A (en) * | 2017-11-15 | 2018-02-23 | 北京小米移动软件有限公司 | Method for detecting human face and device |
CN108229386B (en) * | 2017-12-29 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | Method, apparatus, and medium for detecting lane line |
KR102541561B1 (en) * | 2018-02-12 | 2023-06-08 | 삼성전자주식회사 | Method of providing information for driving vehicle and apparatus thereof |
US10671855B2 (en) * | 2018-04-10 | 2020-06-02 | Adobe Inc. | Video object segmentation by reference-guided mask propagation |
CN108764137A (en) * | 2018-05-29 | 2018-11-06 | 福州大学 | Vehicle traveling lane localization method based on semantic segmentation |
CN110163069B (en) * | 2019-01-04 | 2023-09-08 | 深圳市布谷鸟科技有限公司 | Lane line detection method for driving assistance |
CN110414428A (en) * | 2019-07-26 | 2019-11-05 | 厦门美图之家科技有限公司 | A method of generating face character information identification model |
-
2019
- 2019-11-07 CN CN201911081216.4A patent/CN112785595B/en active Active
-
2020
- 2020-09-08 JP JP2021533200A patent/JP2022513781A/en active Pending
- 2020-09-08 KR KR1020217016723A patent/KR20210087496A/en not_active Application Discontinuation
- 2020-09-08 WO PCT/CN2020/114109 patent/WO2021088505A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023146286A1 (en) * | 2022-01-28 | 2023-08-03 | 삼성전자 주식회사 | Electronic device and method for improving quality of image |
Also Published As
Publication number | Publication date |
---|---|
CN112785595B (en) | 2023-02-28 |
WO2021088505A1 (en) | 2021-05-14 |
JP2022513781A (en) | 2022-02-09 |
CN112785595A (en) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112232293B (en) | Image processing model training method, image processing method and related equipment | |
US10762376B2 (en) | Method and apparatus for detecting text | |
KR20210087496A (en) | Object property detection, neural network training and intelligent driving method, device | |
WO2022083402A1 (en) | Obstacle detection method and apparatus, computer device, and storage medium | |
CN109426801B (en) | Lane line instance detection method and device | |
CN111666921B (en) | Vehicle control method, apparatus, computer device, and computer-readable storage medium | |
CN111860695B (en) | Data fusion and target detection method, device and equipment | |
CN108564874B (en) | Ground mark extraction method, model training method, device and storage medium | |
CN112307978B (en) | Target detection method and device, electronic equipment and readable storage medium | |
Milford et al. | RatSLAM: Using models of rodent hippocampus for robot navigation and beyond | |
CN107845095B (en) | Moving object real-time detection method based on three-dimensional laser point cloud | |
JP6158882B2 (en) | Generating device, generating method, and generating program | |
US20220261653A1 (en) | Method of Processing Image Data in a Connectionist Network | |
CN109858349B (en) | Traffic sign identification method and device based on improved YOLO model | |
CN112912894B (en) | Road boundary identification method and device | |
KR20210088656A (en) | Methods, devices, devices and media for image generation and neural network training | |
CN111008561A (en) | Livestock quantity determination method, terminal and computer storage medium | |
US12008784B2 (en) | Systems and methods for image-based electrical connector assembly detection | |
CN111738036A (en) | Image processing method, device, equipment and storage medium | |
KR20210082518A (en) | Intersection detection, neural network training and smart driving methods, devices and devices | |
CN112654998A (en) | Lane line detection method and device | |
CN114648709A (en) | Method and equipment for determining image difference information | |
CN115131634A (en) | Image recognition method, device, equipment, storage medium and computer program product | |
US20240249503A1 (en) | Image processing method and related apparatus | |
CN111798518A (en) | Mechanical arm posture detection method, device and equipment and computer storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal |