KR102545199B1 - Electronic apparatus and control method thereof - Google Patents

Electronic apparatus and control method thereof Download PDF

Info

Publication number
KR102545199B1
KR102545199B1 KR1020170148111A KR20170148111A KR102545199B1 KR 102545199 B1 KR102545199 B1 KR 102545199B1 KR 1020170148111 A KR1020170148111 A KR 1020170148111A KR 20170148111 A KR20170148111 A KR 20170148111A KR 102545199 B1 KR102545199 B1 KR 102545199B1
Authority
KR
South Korea
Prior art keywords
confidence map
electronic device
information
image data
feature information
Prior art date
Application number
KR1020170148111A
Other languages
Korean (ko)
Other versions
KR20180051422A (en
Inventor
임태규
이영록
홍현석
한승훈
문보석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2017/012616 priority Critical patent/WO2018088804A1/en
Priority to US15/806,983 priority patent/US10558870B2/en
Publication of KR20180051422A publication Critical patent/KR20180051422A/en
Priority to US16/710,626 priority patent/US10878257B2/en
Application granted granted Critical
Publication of KR102545199B1 publication Critical patent/KR102545199B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

전자 장치 및 그 제어 방법이 개시된다. 본 발명에 따르면, 전자 장치의 제어 방법은 영상 데이터를 입력받는 단계, 복수의 필터를 이용하여 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 단계, 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 영상 데이터에 포함된 오브젝트를 검출하는 단계 및 검출된 오브젝트에 대한 정보를 제공하는 단계를 포함한다. 이에 따라, 전자 장치는 일반적인 도로 상황 뿐만 아니라, 야간 및 악천후 도로 상황 등에서도 주변 차량 및 보행자를 보다 정확하게 검출할 수 있다.An electronic device and a control method thereof are disclosed. According to the present invention, a control method of an electronic device includes the steps of receiving image data, obtaining feature information indicating an object from image data using a plurality of filters, and acquiring through at least two or more filters among the plurality of filters. The method includes detecting an object included in image data using feature information and providing information on the detected object. Accordingly, the electronic device can more accurately detect surrounding vehicles and pedestrians not only in normal road conditions but also in road conditions at night and in bad weather.

Description

전자 장치 및 그 제어 방법{Electronic apparatus and control method thereof}Electronic apparatus and control method thereof

본 발명은 전자 장치 및 그 제어 방법에 관한 것으로써, 보다 상세하게는 전자 장치에 입력된 영상 데이터로부터 오브젝트를 검출하기 위한 전자 장치 및 그 제어 방법에 관한 기술이다.The present invention relates to an electronic device and a control method thereof, and more particularly, to an electronic device for detecting an object from image data input to the electronic device and a control method thereof.

최근 자율 주행 관련 기술 등의 발달로, 차량 내에 탑재되어 주행 정보를 제공하는 헤드 업 디스플레이 혹은 차량 내에 탑재되어 주행 상황을 실시간으로 촬영하는 블랙박스와 같은 전자 장치는 차량의 상태를 모니터링하여 모니터링된 결과를 제공한다. 뿐만 아니라, 전자 장치는 차량이 주행하는 도로의 상황을 포함하는 주행 정보를 제공한다. 구체적으로, 전자 장치는 차량이 주행하는 도로 상황을 촬영하고, 촬영된 영상 데이터로부터 차량 주변에 있는 주변 차량, 보행자 등을 포함하는 오브젝트를 검출하고, 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 포함하는 주행 정보를 제공한다.With the recent development of autonomous driving-related technologies, electronic devices such as a head-up display mounted in a vehicle to provide driving information or a black box mounted in a vehicle to record the driving situation in real time monitor the state of the vehicle and monitor the result. provides In addition, the electronic device provides driving information including road conditions on which the vehicle is driving. Specifically, the electronic device photographs the road conditions on which the vehicle is driving, detects objects including surrounding vehicles and pedestrians around the vehicle from the captured image data, and detects type information, location information, and movement information of the detected object. Provides driving information including at least one of

이에 따라, 운전자는 전자 장치를 통해 제공된 다양한 주행 정보를 통해 앞 차량 간의 거리, 사각지대 위험 요소, 도로를 건너는 보행자가 있는지 등을 체크하여 차량 간 혹은 차량과 보행자 간의 사고 위험을 예방할 수 있다.Accordingly, the driver can prevent the risk of an accident between vehicles or between a vehicle and a pedestrian by checking the distance between vehicles in front, a blind spot risk factor, and whether there is a pedestrian crossing the road through various driving information provided through the electronic device.

그러나, 이 같은 종래의 전자 장치는 차량 주변에 복수의 주변 차량들이 주정차되어 있거나 혹은 복수의 보행자가 함께 차량 도로를 건너는 조건의 도로 상황, 악천후(눈, 비, 안개)의 도로 상황, 야간 시간대의 도로 상황에서, 촬영된 영상 데이터로부터 주변 차량 및 보행자를 검출하지 못하는 문제가 발생한다.However, such a conventional electronic device is a road condition under conditions where a plurality of nearby vehicles are parked or a plurality of pedestrians cross a vehicle road together, a road condition in bad weather (snow, rain, fog), and a night time zone. In a road situation, there arises a problem of not detecting surrounding vehicles and pedestrians from captured image data.

본 발명은 상술한 문제점을 해결하는 동시에 상술한 기술 개발 요청에 응답하기 위하여 안출된 것으로, 본 발명은 일반적인 도로 상황 뿐만 아니라, 야간 및 악천후 도로 상황 등에서도 주변 차량 및 보행자의 검출이 용이하도록 하기 위함을 목적으로 한다.The present invention was conceived to solve the above-mentioned problems and to respond to the above-mentioned technical development request, and the present invention is to facilitate detection of surrounding vehicles and pedestrians not only in general road conditions but also in night and bad weather road conditions. is aimed at

본 발명의 일 실시예에 따른 전자 장치의 제어 방법은 영상 데이터를 입력받는 단계, 복수의 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 단계, 상기 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 상기 영상 데이터에 포함된 오브젝트를 검출하는 단계 및 상기 검출된 오브젝트에 대한 정보를 제공하는 단계를 포함한다.A control method of an electronic device according to an embodiment of the present invention includes receiving image data, obtaining characteristic information representing an object from the image data using a plurality of filters, and using at least two or more of the plurality of filters. The method may include detecting an object included in the image data using feature information acquired through a filter and providing information on the detected object.

한편, 본 발명의 또다른 실시예에 따르면, 전자 장치는 영상 데이터를 입력받는 입력부, 상기 영상 데이터의 오브젝트에 대한 정보를 출력하는 출력부 및 복수의 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하고, 상기 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 상기 영상 데이터에 포함된 오브젝트를 검출하여 상기 검출된 오브젝트에 대한 정보를 출력하도록 상기 출력부를 제어하는 프로세서를 포함한다.Meanwhile, according to another embodiment of the present invention, the electronic device features an input unit for receiving image data, an output unit for outputting information on an object of the image data, and a plurality of filters to represent an object from the image data. A processor that obtains information, detects an object included in the image data using feature information acquired through at least two of the plurality of filters, and controls the output unit to output information on the detected object. includes

이상과 같이 다양한 실시예를 따르면, 본 발명에 따른 전자 장치는 일반적인 도로 상황 뿐만 아니라, 야간 및 악천후 도로 상황 등에서도 주변 차량 및 보행자를 보다 정확하게 검출할 수 있다.According to various embodiments as described above, the electronic device according to the present invention can more accurately detect surrounding vehicles and pedestrians not only in normal road conditions but also in night and bad weather conditions.

도 1은 일반적인 전자 장치에서 오브젝트를 인식하지 못하는 환경을 나타내는 예시도,
도 2는 본 발명의 일 실시예에 따른 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 개략적인 블록도,
도 3은 본 발명의 일 실시예에 따른 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 세부 블록도,
도 4는 종래의 전자 장치에서 오브젝트 검출 과정 및 검출 결과를 나타내는 예시도,
도 5는 본 발명의 일 실시예에 따른 전자 장치에서 오브젝트 검출 과정 및 검출 결과를 나타내는 예시도,
도 6은 본 발명에 따른 전자 장치에서 파이널 컨피던스 맵 생성에 이용되는 참조 컨피던스 맵의 사이즈를 조정하는 예시도,
도 7은 본 발명에 따른 전자 장치와 종래의 전자 장치에서 영상 데이터로부터 오브젝트를 검출한 검출 결과를 나타내는 예시도,
도 8은 본 발명의 일 실시예에 따른 전자 장치의 오브젝트 검출 결과에 따른 주행 정보를 제공하는 예시도,
도 9는 본 발명의 일 실시예에 따른 전자 장치의 세부 블록도,
도 10은 본 발명의 일 실시예에 따른 촬영된 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 제어 방법에 대한 흐름도,
도 11은 본 발명의 일 실시예에 따른 전자 장치에서 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 방법의 흐름도,
도 12는 본 발명의 일 실시예에 따른 전자 장치에서 오브젝트를 검출하는 방법의 흐름도이다.
1 is an exemplary view showing an environment in which an object is not recognized in a general electronic device;
2 is a schematic block diagram of an electronic device for detecting an object from image data according to an embodiment of the present invention;
3 is a detailed block diagram of an electronic device for detecting an object from image data according to an embodiment of the present invention;
4 is an exemplary view showing an object detection process and detection result in a conventional electronic device;
5 is an exemplary view showing an object detection process and detection result in an electronic device according to an embodiment of the present invention;
6 is an example of adjusting the size of a reference confidence map used for generating a final confidence map in an electronic device according to the present invention;
7 is an exemplary view showing a detection result of detecting an object from image data in an electronic device according to the present invention and a conventional electronic device;
8 is an exemplary diagram for providing driving information according to an object detection result of an electronic device according to an embodiment of the present invention;
9 is a detailed block diagram of an electronic device according to an embodiment of the present invention;
10 is a flowchart of a control method of an electronic device for detecting an object from captured image data according to an embodiment of the present invention;
11 is a flowchart of a method of obtaining characteristic information representing an object from image data in an electronic device according to an embodiment of the present invention;
12 is a flowchart of a method of detecting an object in an electronic device according to an embodiment of the present invention.

본 발명에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다. Prior to a detailed description of the present invention, the description method of the present specification and drawings will be described.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 발명의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims are general terms in consideration of functions in various embodiments of the present invention. However, these terms may vary depending on the intention of a technician working in the field, legal or technical interpretation, and the emergence of new technologies. In addition, some terms are arbitrarily selected by the applicant. These terms may be interpreted as the meanings defined in this specification, and if there is no specific term definition, they may be interpreted based on the overall content of this specification and common technical knowledge in the art.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. In addition, the same reference numerals or numerals in each drawing attached to this specification indicate parts or components that perform substantially the same function. For convenience of description and understanding, the same reference numerals or symbols are used in different embodiments. That is, even if all components having the same reference numerals are shown in a plurality of drawings, the plurality of drawings do not mean one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. Also, in the present specification and claims, terms including ordinal numbers such as “first” and “second” may be used to distinguish between elements. These ordinal numbers are used to distinguish the same or similar components from each other, and the meaning of the term should not be construed as being limited due to the use of these ordinal numbers. For example, the order of use or arrangement of elements associated with such an ordinal number should not be limited by the number. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprise" or "consist of" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.

본 발명의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.Terms such as "module", "unit", and "part" in the embodiments of the present invention are terms used to refer to components that perform at least one function or operation, and these components are hardware or software. It may be implemented or implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except for cases where each of them needs to be implemented with separate specific hardware, so that at least one processor (not shown).

또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Also, in an embodiment of the present invention, when a part is said to be connected to another part, this includes not only a direct connection but also an indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that it may further include other components without excluding other components unless otherwise specified.

이하, 본 발명의 다양한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일반적인 전자 장치에서 오브젝트를 인식하지 못하는 환경을 나타내는 예시도이다.1 is an exemplary diagram illustrating an environment in which an object is not recognized in a general electronic device.

도 1에 도시된 바와 같이, 차량과 같은 운송 장치 내 구비된 전자 장치(100)는 예를 들어, 운송 장치가 주행하는 도로 상황을 실시간으로 촬영하는 블랙박스, 스마트 폰 등이 될 수 있다. 이 같은 전자 장치(100)는 운송 장치가 주행하는 도로의 전방 영역 및 후방 영역을 실시간으로 촬영하고,오브젝트 검출 알고리즘을 이용하여 촬영된 영상 데이터 상에서 사람, 차량 등의 오브젝트를 검출할 수 있다.As shown in FIG. 1 , the electronic device 100 included in a transportation device such as a vehicle may be, for example, a black box, a smart phone, or the like that captures road conditions on which the transportation device is driving in real time. The electronic device 100 may capture the front area and the rear area of the road on which the transportation device is driving in real time, and detect objects such as people and vehicles from the captured image data using an object detection algorithm.

이후, 전자 장치(100)는 검출된 오브젝트의 유형 정보, 오브젝트의 위치 정보, 오브젝트의 이동 정보 중 적어도 하나를 제공한다. 이에 따라, 운송 장치를 운전하는 운전자는 전자 장치(100)를 통해 제공된 정보에 기초하여 주행 중인 전방 혹은 후방의 도로 환경 상태를 인지하여 안전한 주행을 할 수 있다.Then, the electronic device 100 provides at least one of type information of the detected object, location information of the object, and movement information of the object. Accordingly, the driver driving the transportation device can recognize the environmental conditions of the road in front or behind while driving based on the information provided through the electronic device 100 and can drive safely.

이 같이, 도로 상에 존재하는 다양한 오브젝트에 대한 정보를 제공하는 전자 장치(100)는 다음과 같은 환경 조건에서 해당 오브젝트를 검출하지 못한다. As such, the electronic device 100 that provides information on various objects existing on the road cannot detect the object under the following environmental conditions.

구체적으로, 도 1에 도시된 바와 같이, 운송 장치가 야간 도로를 주행하는 제1 주행 환경(10)에서, 전자 장치(100)는 촬영된 영상 데이터로부터 보행자에 대한 오브젝트를 검출하지 못한다. 또한, 전자 장치(100)는 운송 장치가 비가 오는 날씨에 도로를 주행하는 제2 주행 환경(20)에서, 전자 장치(100)는 촬영된 영상 데이터로부터 보행자 혹은 주변 차량에 대한 오브젝트를 검출하지 못한다. 또한, 보행자의 일부가 우산에 의해 가려지는 제3 주행 환경(30)에서, 전자 장치(100)는 촬영된 영상 데이터로부터 우산에 의해 가려진 보행자에 대한 오브젝트를 검출하지 못한다. Specifically, as shown in FIG. 1 , in the first driving environment 10 in which a transportation device drives on a road at night, the electronic device 100 cannot detect an object for a pedestrian from captured image data. In addition, in the second driving environment 20 in which the transportation device drives on the road in rainy weather, the electronic device 100 cannot detect objects for pedestrians or surrounding vehicles from captured image data. . Also, in the third driving environment 30 where a part of the pedestrian is covered by an umbrella, the electronic device 100 cannot detect an object for the pedestrian covered by the umbrella from the photographed image data.

이 같은 환경 조건은 운송 장치를 운전하기 어려운 환경 조건이 될 수 있다. 이 같은 환경 조건에서 전자 장치(100)가 주행 중인 도로 상에 존재하는 오브젝트를 검출하지 못할 경우, 운송 장치를 운전하는 운전자의 사고 발생 확률이 높아질 수 있다.Such environmental conditions may be difficult to operate the transportation device. Under these environmental conditions, when the electronic device 100 cannot detect an object present on the road on which it is driving, the probability of an accident occurring for a driver driving the transportation device may increase.

이하에서는, 전자 장치(100)의 각 구성에 대해서 상세히 설명하도록 한다.Hereinafter, each component of the electronic device 100 will be described in detail.

도 2는 본 발명의 일 실시예에 따른 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 개략적인 블록도이다.2 is a schematic block diagram of an electronic device for detecting an object from image data according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 전자 장치(100)는 입력부(110), 출력부(120), 저장부(130) 및 프로세서(140)를 포함한다.As shown in FIG. 2 , the electronic device 100 includes an input unit 110 , an output unit 120 , a storage unit 130 and a processor 140 .

입력부(110)는 카메라를 통해 촬영된 영상 데이터를 입력받는다. 출력부(120)는 입력부(110)를 통해 입력된 영상 데이터로부터 비디오 및 오디오 중 적어도 하나를 출력한다. 또한, 출력부(120)는 영상 데이터로부터 검출된 오브젝트에 대한 정보를 비디오 및 오디오 중 적어도 하나를 통해 출력한다. 여기서, 영상 데이터로부터 검출된 오브젝트에 대한 정보는, 오브젝트의 유형 정보, 위치 정보, 이동 정보 중 적어도 하나를 포함할 수 있다.The input unit 110 receives image data photographed through a camera. The output unit 120 outputs at least one of video and audio from image data input through the input unit 110 . Also, the output unit 120 outputs information about an object detected from image data through at least one of video and audio. Here, the information about the object detected from the image data may include at least one of object type information, location information, and movement information.

저장부(130)는 촬영된 영상 데이터에 포함된 오브젝트를 나타내는 특징점을 검출하기 위한 복수의 필터를 포함하는 필터 세트를 저장할 수 있다. The storage unit 130 may store a filter set including a plurality of filters for detecting feature points representing objects included in captured image data.

따라서, 후술할 프로세서(140)는 저장부(130)에 저장된 필터 세트를 이용하여 입력부(110)를 통해 입력된 영상 데이터로부터 오브젝트를 검출할 수 있다.Accordingly, the processor 140, which will be described later, may detect an object from image data input through the input unit 110 using a filter set stored in the storage unit 130.

구체적으로, 프로세서(140)는 필터 세트에 포함된 복수의 필터를 이용하여 입력부(110)를 통해 입력된 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득한다. 이후, 프로세서(1409)는 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 해당 영상 데이터에 포함된 오브젝트를 검출하고, 검출된 오브젝트에 대한 정보를 출력하도록 출력부(120)를 제어한다.Specifically, the processor 140 obtains feature information representing an object from image data input through the input unit 110 using a plurality of filters included in the filter set. Thereafter, the processor 1409 detects an object included in the corresponding image data using feature information obtained through at least two of the plurality of filters, and outputs information on the detected object to the output unit 120. to control

여기서, 특징 정보는 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함할 수 있다.Here, the feature information may include a probability value representing the reliability of the object and location information at which the object is located.

구체적으로, 프로세서(140)는 필터 세트를 구성하는 복수의 필터로부터 획득한 특징 정보 각각을 이용하여 복수의 필터 각각에 대응되는 컨피던스 맵을 생성한다. 이후, 프로세서(140)는 복수의 필터 각각에 대응되는 컨피던스 맵 중 제1 및 제2 컨피던스 맵을 획득하며, 획득한 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성한다. 이후, 프로세서(140)는 파이널 컨피던스 맵을 분석하여 입력부(110)를 통해 입력된 영상 데이터로부터 오브젝트를 검출할 수 있다.Specifically, the processor 140 generates a confidence map corresponding to each of a plurality of filters by using each feature information obtained from a plurality of filters constituting the filter set. Thereafter, the processor 140 obtains first and second confidence maps among confidence maps corresponding to each of a plurality of filters, and generates a final confidence map using the obtained first and second confidence maps. Thereafter, the processor 140 may analyze the final confidence map to detect an object from image data input through the input unit 110 .

여기서, 제1 컨피던스 맵은 복수의 필터 중 기설정된 필터 다음의 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이며, 제2 컨피던스 맵은 복수의 필터 중 마지막 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이 될 수 있다.Here, the first confidence map is a map generated using feature information obtained from a filter next to a preset filter among a plurality of filters, and the second confidence map is generated using feature information obtained from the last filter among the plurality of filters. can be a map.

본 발명에서는 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하는 것으로 한정하여 설명하였으나, 본 발명은 이에 한정되지 않으며, 제1 및 제2 컨피던스 맵과, 또다른 필터로부터 획득한 특징 정보를 이용하여 생성된 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성할 수 있다.In the present invention, the description was limited to generating a final confidence map using the first and second confidence maps, but the present invention is not limited thereto, and the first and second confidence maps and feature information obtained from another filter A final confidence map can be created using the confidence map generated using .

보다 구체적으로, 프로세서(140)는 필터 세트를 구성하는 복수의 필터 중 제1 필터를 이용하여 입력부(110)를 통해 입력된 영상 데이터로부터 영상 데이터에 포함된 오브젝트를 나타내는 제1 특징 정보를 획득한다. 이후, 프로세서(140)는 전술한 바와 같이, 제1 특징 정보에 기초하여 컨피던스 맵을 생성한다. 이후, 프로세서(140)는 복수의 필터 중 제2 필터를 이용하여, 제1 특징 정보에 기초하여 생성된 컨피던스 맵으로부터 해당 오브젝트를 나타내는 제2 특징 정보를 획득한다. 이후, 프로세서(140)는 제2 특징 정보에 기초하여 생성된 컨피던스 맵을 기설정된 사이즈로 폴링(pooling)한다. 이후, 프로세서(140)는 제3 필터를 이용하여, 폴링된 컨피던스 맵으로부터 해당 오브젝트를 나타내는 제3 특징 정보를 획득한다.More specifically, the processor 140 obtains first characteristic information indicating an object included in the image data from image data input through the input unit 110 by using a first filter among a plurality of filters constituting the filter set. . Then, the processor 140 generates a confidence map based on the first feature information as described above. Thereafter, the processor 140 obtains second characteristic information representing the corresponding object from the confidence map generated based on the first characteristic information by using a second filter among a plurality of filters. Thereafter, the processor 140 polls the confidence map generated based on the second feature information to a predetermined size. Thereafter, the processor 140 obtains third feature information representing the corresponding object from the polled confidence map by using a third filter.

만약, 제3 필터가 마직막 필터인 경우, 프로세서(140)는 제1 및 제2 필터 중 적어도 하나의 필터로부터 획득한 특징 정보에 기초하여 생성된 컨피던스 맵과 마지막 필터로부터 획득한 제3 특징 정보에 기초하여 생성된 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성할 수 있다.If the third filter is the last filter, the processor 140 generates a confidence map based on feature information obtained from at least one of the first and second filters and the third feature information obtained from the last filter. A final confidence map may be generated using the confidence map generated based thereon.

이후, 프로세서(140)는 기생성된 파이널 컨피던스 맵으로부터 오브젝트의 신뢰도를 나타내는 확률값과 기설정된 임계값을 비교하여 확률값이 기설정된 임계값 이상이면, 영상 데이터로부터 오브젝트를 검출한다. 이후, 프로세서(140)는 검출된 오브젝트의 형태를 바탕으로 해당 오브젝트를 유형 정보를 획득할 수 있다.Thereafter, the processor 140 compares a probability value representing the reliability of an object from the previously generated final confidence map with a preset threshold value, and if the probability value is equal to or greater than the preset threshold value, the object is detected from the image data. Thereafter, the processor 140 may obtain type information of a corresponding object based on the detected shape of the object.

따라서, 프로세서(140)는 입력된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 출력하도록 출력부(120)를 제어할 수 있다.Accordingly, the processor 140 may control the output unit 120 to output at least one of type information, location information, and movement information of an object detected from input image data.

또한, 프로세서(140)는 입력된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 이용하여 전자 장치(100)와 해당 오브젝트와의 거리 정보, 위험 상황 정보, 사각지대 알림 정보 중 적어도 하나를 생성한다. 이후, 프로세서(140)는 후술할 통신부(150)를 통해 운송 장치 내 구비되어 운송 장치의 주행 정보를 제공하는 타 전자 장치(미도시)로 전송한다. 이에 따라, 타 전자 장치(미도시)는 전자 장치(100)로부터 수신된 정보에 기초하여 기 검출된 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 제공할 수 있다.In addition, the processor 140 uses at least one of type information, location information, and movement information of the object detected from the input image data to provide distance information between the electronic device 100 and the corresponding object, dangerous situation information, and blind spot notification. generate at least one of the information. Thereafter, the processor 140 transmits the driving information of the transportation device to another electronic device (not shown) provided in the transportation device through a communication unit 150 to be described later. Accordingly, the other electronic device (not shown) may provide at least one of distance information to a pre-detected object, danger situation information, and blind spot notification information based on information received from the electronic device 100 .

이하에서는, 본 발명에 따른 전자 장치(100)에서 영상 데이터로부터 오브젝트를 검출하는 동작에 대해서 보다 상세히 설명하도록 한다.Hereinafter, an operation of detecting an object from image data in the electronic device 100 according to the present invention will be described in detail.

도 3은 본 발명의 일 실시예에 따른 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 세부 블록도이다.3 is a detailed block diagram of an electronic device for detecting an object from image data according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 프로세서(140)는 제1 내지 제3 연산부(141~143)를 포함하며, 저장부(130)는 필터 저장부(131), 특징 결과 저장부(132) 및 특징 정보 저장부(133)를 포함할 수 있다.As shown in FIG. 3, the processor 140 includes first to third calculation units 141 to 143, and the storage unit 130 includes a filter storage unit 131, a characteristic result storage unit 132, and a characteristic storage unit 130. An information storage unit 133 may be included.

구체적으로, 입력부(110)를 통해 최초 영상 데이터가 입력되면, 제1 연산부(141)는 필터 저장부(131)에 기저장된 필터 세트를 구성하는 복수의 필터 중 제1 필터에 설정된 파라메타를 이용하여 영상 데이터로부터 오브젝트에 대한 제1 특징값을 획득하여 특징 결과 저장부(132)에 저장한다.Specifically, when initial image data is input through the input unit 110, the first operation unit 141 uses parameters set in the first filter among a plurality of filters constituting the filter set previously stored in the filter storage unit 131. The first feature value of the object is acquired from the image data and stored in the feature result storage unit 132 .

제2 연산부(142)는 특징 결과 저장부(132)에 저장된 제1 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 제1 특징 정보를 획득하여 특징 정보 저장부(133)에 저장한다. 이에 따라, 제3 연산부(143)는 특징 정보 저장부(133)에 저장된 제1 특징 정보에 기초하여 제1 필터에 대응되는 제1 컨피던스 맵을 생성한다.The second operation unit 142 obtains first characteristic information including a probability value representing the reliability of an object and location information on which the corresponding object is located based on the first characteristic value stored in the characteristic result storage unit 132, and stores the characteristic information. stored in section 133. Accordingly, the third operation unit 143 generates a first confidence map corresponding to the first filter based on the first characteristic information stored in the characteristic information storage unit 133 .

제1 컨피던스 맵이 생성되면, 제1 연산부(141)는 제2 필터에 설정된 파라메타를 이용하여 제1 컨피던스 맵으로부터 해당 오브젝트에 대한 제2 특징값을 획득하여 특징 결과 저장부(132)에 저장한다.When the first confidence map is generated, the first operation unit 141 obtains a second feature value for the corresponding object from the first confidence map using the parameter set in the second filter and stores it in the feature result storage unit 132. .

이에 따라, 제2 연산부(142)는 특징 결과 저장부(132)에 저장된 제2 특징값에 기초하여 해당 오브젝트의 신뢰도를 나타내는 확률값 및 위치 정보를 포함하는 제2 특징 정보를 획득하여 특징 정보 저장부(133)에 저장한다. 이에 따라, 제3 연산부(143)는 특징 정보 저장부(133)에 저장된 제2 특징 정보에 기초하여 제2 필터에 대응되는 제2 컨피던스 맵을 생성한다.Accordingly, the second operation unit 142 obtains second characteristic information including a probability value representing the reliability of the corresponding object and location information based on the second characteristic value stored in the characteristic result storage unit 132, thereby obtaining the characteristic information storage unit. Save to (133). Accordingly, the third operation unit 143 generates a second confidence map corresponding to the second filter based on the second characteristic information stored in the characteristic information storage unit 133 .

이 같은 일련의 과정을 통해 복수의 필터 중 마지막 필터인 제3 필터에 대응되는 제3 컨피던스 맵이 생성되면, 제3 연산부(143)는 기생성된 제1 내지 제3 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성할 수 있다.When the third confidence map corresponding to the third filter, which is the last filter among the plurality of filters, is generated through such a series of processes, the third operation unit 143 calculates the final confidence map using the previously generated first to third confidence maps. You can create maps.

그러나, 본 발명은 이에 한정되지 않으며, 제3 연산부(143)는 기생성된 제1 및 제2 컨피던스 맵 중 하나와, 마지막 필터인 제3 필터에 대응하여 생성된 제3 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성할 수 있다.However, the present invention is not limited thereto, and the third operation unit 143 uses one of the pre-generated first and second confidence maps and the third confidence map generated in correspondence with the third filter, which is the last filter, to determine the final Confidence maps can be created.

파이널 컨피던스 맵이 생성되면, 제3 연산부(143)는 파이널 컨피던스 맵으로부터 해당 오브젝트의 신뢰도를 나타내는 확률값과 기설정된 임계값을 비교하여 확률값이 기설정된 임계값 이상이면, 해당 오브젝트를 검출하고, 검출된 오브젝트에 대한 정보를 출력부(120)로 전달한다. 이에 따라, 출력부(120)를 입력된 영상 데이터로부터 검출된 오브젝트에 대한 정보를 비디오 및 오디오 중 적어도 하나를 통해 출력할 수 있다.When the final confidence map is generated, the third operation unit 143 compares a probability value indicating the reliability of the corresponding object from the final confidence map with a preset threshold value, and if the probability value is greater than or equal to the preset threshold value, the corresponding object is detected, and the detected Information about the object is transferred to the output unit 120 . Accordingly, the output unit 120 may output information about the object detected from the input image data through at least one of video and audio.

이하에서는, 본 발명에 따른 전자 장치와 종래의 전자 장치에서 입력된 영상 데이터로부터 오브젝트를 검출하는 과정 및 검출 결과를 비교하여 설명하도록 한다.Hereinafter, a process and detection result of detecting an object from image data input in an electronic device according to the present invention and a conventional electronic device will be compared and described.

도 4는 종래의 전자 장치에서 오브젝트 검출 과정 및 검출 결과를 나타내는 예시도이다.4 is an exemplary diagram illustrating an object detection process and detection result in a conventional electronic device.

도 4에 도시된 바와 같이, 종래의 전자 장치(100')는 영상 데이터(410)가 입력되면, 필터 세트에 포함된 복수의 필터를 이용하여 입력된 영상 데이터로부터 오브젝트에 대한 특징값을 획득한다.As shown in FIG. 4, when image data 410 is input, the conventional electronic device 100' obtains feature values for an object from the input image data using a plurality of filters included in a filter set. .

이 경우, 종래의 전자 장치(100')는 영상 데이터(410)가 입력되면, 제1 필터에 설정된 파라메타를 이용하여 영상 데이터(410)로부터 오브젝트에 대한 제1 특징 정보를 획득한다. 이후, 전자 장치(100')는 제1 특징 정보에 기초하여 제1 필터에 대응되는 제1 컨피던스 맵(conv 1_1)(411)을 획득한다. In this case, when the image data 410 is input, the conventional electronic device 100' obtains first feature information about the object from the image data 410 using a parameter set in the first filter. Thereafter, the electronic device 100' obtains a first confidence map (conv 1_1) 411 corresponding to the first filter based on the first feature information.

이후, 전자 장치(100')는 제2 필터에 설정된 파라메타를 이용하여 제1 컨피던스 맵(411)로부터 제2 특징 정보를 획득하고, 획득한 제2 특징 정보에 기초하여 제2 필터에 대응되는 제2 컨피던스 맵(conv 1_2)(412)를 획득한다.Thereafter, the electronic device 100' obtains second feature information from the first confidence map 411 using the parameter set in the second filter, and based on the obtained second feature information, the electronic device 100' obtains second feature information corresponding to the second filter. 2 A confidence map (conv 1_2) 412 is acquired.

이후, 전자 장치(100')는 제2 컨피던스 맵(412)을 기설정된 사이즈로 폴링(pool 1)(413)하여 폴링된 컨피던스 맵을 획득한다. 이후, 전자 장치(100')는 제3 필터를 이용하여 폴링된 컨피던스 맵으로부터 제3 특징 정보를 획득하고, 획득한 제3 특징 정보에 기초하여 제3 필터에 대응되는 제3 컨피던스 맵(conv 2_1)(414)를 획득한다.Thereafter, the electronic device 100' polls (pool 1) 413 the second confidence map 412 with a preset size to obtain the polled confidence map. Thereafter, the electronic device 100 ′ obtains third feature information from the polled confidence map using a third filter, and based on the obtained third feature information, a third confidence map corresponding to the third filter (conv 2_1 ) (414) is obtained.

이 같은 일련의 처리 과정을 통해 마지막 n 번째 필터에 대응되는 n 번재 컨피던스 맵(conv 5_3)(415)가 획득되면, 종래의 전자 장치(100')는 기획득한 n 번째 컨피던스 맵(415)을 파이널 컨피던스 맵(420)으로 결정한다. When the n-th confidence map (conv 5_3) 415 corresponding to the last n-th filter is obtained through such a series of processing processes, the conventional electronic device 100' converts the obtained n-th confidence map 415 to the final It is determined by the confidence map 420 .

이후, 종래의 전자 장치(100')는 기결정된 파이널 컨피던스 맵(420)으로부터 파이널 특징 정보가 획득되면, 위치 예측기(RPN)(416)를 이용하여 기획득한 파이널 특징 정보로부터 최초 입력된 영상 데이터(410)에 포함된 오브젝트의 위치 정보를 획득한다. 여기서, 전술한 특징 정보는 오브젝트에 대한 특징값이 될 수 있다.Thereafter, when the final feature information is obtained from the predetermined final confidence map 420, the conventional electronic device 100 ′ uses the position predictor (RPN) 416 to obtain first image data from the final feature information ( 410) acquires location information of an object included. Here, the aforementioned feature information may be a feature value for an object.

따라서, 종래의 전자 장치(100')는 위치 예측기(RPN)를 통해 기획득한 파이널 특징 정보에 포함된 특징값으로부터 오브젝트가 위치하는 위치 정보를 획득할 수 있다. Accordingly, the conventional electronic device 100' may obtain location information where an object is located from feature values included in final feature information specially obtained through a location predictor (RPN).

이후, 종래의 전자 장치(100')는 기획득한 파이널 특징 정보에 포함된 특징값으로부터 오브젝트의 유형 정보를 획득한다. 이후, 종래의 전자 장치(100')는 기획득한 오브젝트의 유형 정보 및 위치 정보에 기초하여 해당 오브젝트의 유형 및 위치하는 지점이 표시된 오브젝트 검출 결과 정보(430)를 제공할 수 있다.Thereafter, the conventional electronic device 100' obtains object type information from a feature value included in the specially obtained final feature information. Thereafter, the conventional electronic device 100' may provide object detection result information 430 indicating the type and location of the corresponding object based on the type information and location information of the object that have been obtained in advance.

즉, 종래의 전자 장치(100')는 오브젝트 검출 결과 정보(430)를 통해 자동차(431)에 해당하는 제1 오브젝트가 검출된 오브젝트 검출 결과 정보(430)만을 제공한다. That is, the conventional electronic device 100 ′ provides only object detection result information 430 in which the first object corresponding to the car 431 is detected through the object detection result information 430 .

한편, 입력된 영상 데이터 상에는 자동차(431)에 해당하는 제1 오브젝트 및 제1 오브젝트와 일부 중첩된 사람에 해당하는 제2 오브젝트가 포함될 수 있다. 그러나, 종래의 전자 장치(100')는 제1 오브젝트와 중첩된 제2 오브젝트에 대해서 검출하지 못하고, 전술한 자동차(431)에 해당하는 제1 오브젝트가 검출된 오브젝트 검출 결과 정보(430)만을 제공한다.Meanwhile, a first object corresponding to the car 431 and a second object corresponding to a person partially overlapped with the first object may be included on the input image data. However, the conventional electronic device 100' does not detect the second object overlapping the first object, and provides only the object detection result information 430 in which the first object corresponding to the aforementioned car 431 is detected. do.

도 5는 본 발명의 일 실시예에 따른 전자 장치에서 오브젝트 검출 과정 및 검출 결과를 나타내는 예시도이다.5 is an exemplary diagram illustrating an object detection process and a detection result in an electronic device according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 전자 장치(100)는 영상 데이터(510)가 입력되면, 필터 세트에 포함된 복수의 필터 중 제1 필터에 설정된 파라메타를 이용하여 입력된 영상 데이터로부터 오브젝트에 대한 특징값을 획득한다. 이후, 전자 장치(100)는 기획득한 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 특징 정보를 획득한다. 이후, 전자 장치(100)는 기획득한 특징 정보에 기초하여 제1 필터에 대응되는 제1 컨피던스 맵(conv 1_1)(511)을 생성한다.As shown in FIG. 5 , when image data 510 is input, the electronic device 100 uses a parameter set for a first filter among a plurality of filters included in a filter set, and uses the input image data to provide characteristics of an object. get the value Thereafter, the electronic device 100 obtains feature information including a probability value indicating reliability of an object and location information on which the corresponding object is located, based on the specially obtained feature value. Thereafter, the electronic device 100 generates a first confidence map (conv 1_1) 511 corresponding to the first filter based on the specially obtained feature information.

제1 컨피던스 맵(511)이 생성되면, 전자 장치(100)는 제2 필터에 설정된 파라메타를 이용하여 제1 컨피던스 맵(511)으로부터 해당 오브젝트에 대한 특징값을 획득한다. 이후, 전자 장치(100)는 기획득한 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 특징 정보를 획득한다. 이후, 전자 장치(100)는 기획득한 특징 정보에 기초하여 제2 필터에 대응되는 제2 컨피던스 맵(conv 1_2)(512)을 생성한다.When the first confidence map 511 is generated, the electronic device 100 obtains a feature value for a corresponding object from the first confidence map 511 using parameters set in the second filter. Thereafter, the electronic device 100 obtains feature information including a probability value indicating reliability of an object and location information on which the corresponding object is located, based on the specially obtained feature value. Thereafter, the electronic device 100 generates a second confidence map (conv 1_2) 512 corresponding to the second filter based on the specially obtained feature information.

제2 컨피던스 맵(512)이 생성되면, 전자 장치(100)는 기생성된 제2 컨피던스 맵(512)을 기설정된 사이즈로 폴링하여, 폴링된 컨피던스 맵(513)을 생성한다. 이후, 전자 장치(100)는 제3 필터에 설정된 파라메타를 이용하여 폴링된 컨피던스 맵(513)으로부터 해당 오브젝트에 대한 특징값을 획득한다. 이후, 전자 장치(100)는 기획득한 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 특징 정보를 획득한다. 이후, 전자 장치(100)는 기획득한 특징 정보에 기초하여 제3 필터에 대응되는 제3 컨피던스 맵(conv 2_1)(514)을 생성한다.When the second confidence map 512 is generated, the electronic device 100 polls the pre-generated second confidence map 512 in a preset size to generate the polled confidence map 513 . Thereafter, the electronic device 100 obtains feature values of the object from the polled confidence map 513 using parameters set in the third filter. Thereafter, the electronic device 100 obtains feature information including a probability value indicating reliability of an object and location information on which the corresponding object is located, based on the specially obtained feature value. Thereafter, the electronic device 100 generates a third confidence map (conv 2_1) 514 corresponding to the third filter based on the specially obtained feature information.

이 같은 일련의 처리 과정을 통해 마지막 n 번째 필터에 대응되는 n 번재 컨피던스 맵(conv 8_2)(515)가 획득되면, 전자 장치(100)는 n 번재 컨피던스 맵(conv 8_2)(515)과, 이전 컨피던스 맵 중 기정의된 필터에 대응되는 컨피던스 맵을 획득한다. When the n-th confidence map (conv 8_2) 515 corresponding to the last n-th filter is obtained through such a series of processing processes, the electronic device 100 determines the n-th confidence map (conv 8_2) 515 and the previous one. Among the confidence maps, a confidence map corresponding to a predefined filter is obtained.

이후, 전자 장치(100)는 기획득한 n 번재 컨피던스 맵(conv 8_2)(515)과 기정의된 필터에 대응되는 컨피던스 맵을 참조 컨피던스 맵(이하 제1 내지 제4 참조 컨피던스 맵이라 함)으로 결정한다. 이후, 전자 장치(100)는 제1 내지 제4 참조 컨피던스 맵(521~525)의 사이즈를 동일한 사이즈로 조정한다. 이후, 전자 장치(100)는 동일한 사이즈로 조정된 제1 내지 참조 컨피던스 맵(521~525)을 이용하여 파이널 컨피던스 맵(530)을 생성한다.Thereafter, the electronic device 100 determines the n-th confidence map (conv 8_2) 515 and the confidence map corresponding to the predefined filter as reference confidence maps (hereinafter, referred to as first to fourth reference confidence maps). do. Then, the electronic device 100 adjusts the size of the first to fourth reference confidence maps 521 to 525 to the same size. Thereafter, the electronic device 100 generates a final confidence map 530 using the first to reference confidence maps 521 to 525 adjusted to the same size.

그러나, 본 발명은 이에 한정되지 않으며, 전자 장치(100)는 복수의 필터 각각에 대응하여 컨피던스 맵이 생성될 경우, 각각의 컨피던스 맵의 사이즈를 기설정된 동일한 사이즈로 조정할 수 있다.However, the present invention is not limited thereto, and when a confidence map is generated corresponding to each of a plurality of filters, the electronic device 100 may adjust the size of each confidence map to the same preset size.

파이널 컨피던스 맵(530)이 생성되면, 전자 장치(100)는 기생성된 파이널 컨피던스 맵(530)으로부터 오브젝트를 나타내는 특징 정보를 획득하고, 획득한 특징 정보에 기초하여 기입력된 영상 데이터에 포함된 오브젝트를 검출한다. 이후, 전자 장치(100)는 검출된 오브젝트의 위치 및 유형 정보에 기초하여 입력된 영상 데이터에 대한 오브젝트 검출 결과(540)를 제공한다.When the final confidence map 530 is generated, the electronic device 100 obtains feature information indicating an object from the previously created final confidence map 530, and based on the acquired feature information, the electronic device 100 is included in the previously input image data. detect an object Then, the electronic device 100 provides an object detection result 540 for the input image data based on the location and type information of the detected object.

도 4에서 설명한 바와 같이, 입력된 영상 데이터(510) 상에는 자동차에 해당하는 제1 오브젝트 및 제1 오브젝트와 일부 중첩된 사람에 해당하는 제2 오브젝트가 포함될 수 있다.As described with reference to FIG. 4 , the input image data 510 may include a first object corresponding to a car and a second object corresponding to a person partially overlapped with the first object.

이 경우, 본 발명에 따른 전자 장치(100)는 전술한 일련의 수행 과정을 통해 입력된 영상 데이터(510)로부터 자동차에 해당하는 제1 오브젝트(541) 및 제1 오브젝트와 일부 중첩된 사람에 해당하는 제2 오브젝트(542)를 검출하고, 제1 및 제2 오브젝트(541,542)가 검출된 오브젝트 검출 결과 정보(540)를 제공할 수 있다.In this case, the electronic device 100 according to the present invention corresponds to a first object 541 corresponding to a car and a person partially overlapped with the first object from the image data 510 input through the above-described series of execution processes. detects the second object 542 and provides object detection result information 540 in which the first and second objects 541 and 542 are detected.

이하에서는, 본 발명에 따른 전자 장치(100)에서 전술한 파이널 컨피던스 맵(530)을 생성하는데 이용된 제1 내지 제5 참조 컨피던스 맵(521~525)의 사이즈를 조정하는 동작에 대해서 설명하도록 한다.Hereinafter, an operation of adjusting the size of the first to fifth reference confidence maps 521 to 525 used to generate the aforementioned final confidence map 530 in the electronic device 100 according to the present invention will be described. .

도 6은 본 발명에 따른 전자 장치에서 파이널 컨피던스 맵 생성에 이용되는 참조 컨피던스 맵의 사이즈를 조정하는 예시도이다.6 is an exemplary view of adjusting the size of a reference confidence map used to generate a final confidence map in an electronic device according to the present invention.

도 5에서 설명한 바와 같이, 전자 장치(100)는 복수의 필터 각각에 대응되는 컨피던스 맵 중 기정의된 필터에 대응되는 컨피던스 맵과 마지막 n 번째 필터에 대응되는 컨피던스 맵을 제1 내지 제5 참조 컨피던스 맵(521~525)으로 결정할 수 있다.As described in FIG. 5 , the electronic device 100 selects a confidence map corresponding to a predefined filter among confidence maps corresponding to a plurality of filters and a confidence map corresponding to the last n-th filter as first to fifth reference confidence maps. It can be determined by the maps 521 to 525.

이 같은 제1 내지 제5 참조 컨피던스 맵(521~525)으로 결정으로 결정된 각각의 컨피던스 맵은 기설정된 사이즈로 폴링될 수 있다.Each confidence map determined as the first to fifth reference confidence maps 521 to 525 may be polled with a predetermined size.

예를 들어, 제1 참조 컨피던스 맵(521)으로 결정된 컨피던스 맵은 80 * 48의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있으며, 제2 참조 컨피던스 맵(522)으로 결정된 컨피던스 맵은 80 * 48의 픽셀 단위에서 40 * 24의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있다.For example, the confidence map determined as the first reference confidence map 521 may be a map scaled in pixel units of 80 * 48, and the confidence map determined as the second reference confidence map 522 may be 80 * 48 It can be a map scaled from pixel units of 40 * 24 pixels.

그리고, 제3 참조 컨피던스 맵(523)으로 결정된 컨피던스 맵은 40 * 24의 픽셀 단위에서 20 * 12의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있으며, 제4 참조 컨피던스 맵(524)으로 결정된 컨피던스 맵은 20 * 12의 픽셀 단위에서 10 * 6의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있다. 그리고, 제5 참조 컨피던스 맵(525)으로 결정된 마지막 n 번째 필터에 대응되는 컨피던스 맵은 10 * 6의 픽셀 단위에서 5 * 3의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있다.In addition, the confidence map determined as the third reference confidence map 523 may be a map whose size is adjusted from 40 * 24 pixel units to 20 * 12 pixel units, and the confidence map determined as the fourth reference confidence map 524 The map may be a map scaled from 20 * 12 pixels to 10 * 6 pixels. In addition, the confidence map corresponding to the last n-th filter determined as the fifth reference confidence map 525 may be a map whose size is adjusted from 10 * 6 pixel units to 5 * 3 pixel units.

따라서, 전자 장치(100)는 제1 내지 제5 참조 컨피던스 맵(521~525)으로 결정된 각각의 컨피던스 맵의 사이즈를 기설정된 동일한 사이즈로 조정한다.Accordingly, the electronic device 100 adjusts the size of each confidence map determined as the first to fifth reference confidence maps 521 to 525 to the same preset size.

실시예에 따라 전자 장치(100)는 제1 내지 제5 참조 컨피던스 맵(521~525)으로 결정된 각각의 컨피던스 맵의 사이즈의 중 가장 큰 사이즈로 표현된 제1 참조 컨피던스 맵(521)에 해당하는 컨피던스 맵의 사이즈로 나머지 제2 내지 제5 컨피던스 맵(522~525)에 해당하는 컨피던스 맵의 사이즈를 조정할 수 있다.According to an embodiment, the electronic device 100 corresponds to the first reference confidence map 521 represented by the largest size among the sizes of the respective confidence maps determined by the first to fifth reference confidence maps 521 to 525. The size of the confidence maps corresponding to the remaining second to fifth confidence maps 522 to 525 may be adjusted according to the size of the confidence map.

즉, 전자 장치(100)는 제2 내지 제5 컨피던스 맵(522~525)에 해당하는 각각의 컨피던스 맵을 80 * 48의 픽셀 단위의 사이즈로 표현될 수 있도록 조정한다. 이에 따라, 제1 내지 제5 참조 컨피던스 맵(521~525) 각각에 해당하는 컨피던스 맵은 80 * 48의 픽셀 단위의 사이즈로 이루어질 수 있다.That is, the electronic device 100 adjusts each confidence map corresponding to the second to fifth confidence maps 522 to 525 to be expressed in a size of 80 * 48 pixels. Accordingly, the confidence maps corresponding to each of the first to fifth reference confidence maps 521 to 525 may have a size of 80 * 48 pixels.

이후, 전자 장치(100)는 전술한 바와 같이, 동일한 사이즈로 조정된 제1 내지 제5 참조 컨피던스 맵(521~525)을 이용하여 도 5에서 설명한 바와 같은 파이널 컨피던스 맵(540)을 생성할 수 있다.Then, as described above, the electronic device 100 may generate the final confidence map 540 as described in FIG. 5 using the first to fifth reference confidence maps 521 to 525 adjusted to the same size. there is.

도 7은 본 발명에 따른 전자 장치와 종래의 전자 장치에서 영상 데이터로부터 오브젝트를 검출한 검출 결과를 나타내는 예시도이다.7 is an exemplary diagram illustrating a detection result of detecting an object from image data in an electronic device according to the present invention and a conventional electronic device.

도 7의 (a)에 도시된 바와 같이, 종래의 전자 장치(10)는 입력된 영상 데이터 상에 복수의 오브젝트가 서로 중첩되는 경우, 중첩된 오브젝트에 대해서 검출하지 못한다. 예를 들어, 횡단 보도 앞에 정차된 버스가 횡단 보도를 건너는 사람에 의해 일부 가려지거나, 횡단 보도 앞에 정차된 차량와 버스가 서로 중첩되거나, 무리의 사람들이 횡단 보도를 건너는 경우, 종래의 전자 장치(10)는 이 같은 도로 환경을 촬영한 영상 데이터(710)로부터 버스, 차량 및 횡단 보도를 건너는 무리의 사람들에 대한 오브젝트를 검출하지 못한다.As shown in (a) of FIG. 7 , when a plurality of objects overlap each other on input image data, the conventional electronic device 10 cannot detect the overlapped objects. For example, when a bus stopped in front of a crosswalk is partially covered by a person crossing a crosswalk, a vehicle and a bus stopped in front of a crosswalk overlap each other, or a group of people cross a crosswalk, a conventional electronic device (10 ) cannot detect objects for buses, vehicles, and a group of people crossing the crosswalk from the image data 710 photographing the road environment.

반면, 본 발명에 따른 전자 장치(10)는 전술한 실행 과정을 통해 도로 환경을 촬영한 영상 데이터(710)로부터 버스, 차량 및 횡단 보도를 건너는 무리의 사람들 각각에 대한 오브젝트를 검출할 수 있다.On the other hand, the electronic device 10 according to the present invention may detect objects for each bus, vehicle, and group of people crossing the crosswalk from the image data 710 of the road environment captured through the above-described execution process.

또한, 도 7의 (b)에 도시된 바와 같이, 종래의 전자 장치(10)는 야간의 도로 환경을 촬영한 영상 데이터(720)로부터 주행 중인 차량에 대한 오브젝트를 검출하지 못하는 반면, 본 발명에 다른 전자 장치(10)는 야간의 도로 환경을 촬영한 영상 데이터(720)로부터 주행 중인 차량에 대한 오브젝트를 검출할 수 있다.In addition, as shown in (b) of FIG. 7, the conventional electronic device 10 cannot detect an object for a vehicle in motion from image data 720 photographing a road environment at night. The other electronic device 10 may detect an object for a vehicle in motion from image data 720 capturing a road environment at night.

도 8은 본 발명의 일 실시예에 따른 전자 장치의 오브젝트 검출 결과에 따른 주행 정보를 제공하는 예시도이다.8 is an exemplary diagram for providing driving information according to an object detection result of an electronic device according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 전자 장치(100)는 촬영된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 이용하여 기검출된 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 생성하여 운송 장치 내에 구비된 타 전자 장치(200)로 전송한다.As shown in FIG. 8 , the electronic device 100 uses at least one of object type information, location information, and movement information detected from captured image data to obtain distance information from a previously detected object, dangerous situation information, and At least one of the blind spot notification information is generated and transmitted to the other electronic device 200 provided in the transportation device.

이에 따라, 타 전자 장치(200)는 전자 장치(100)로부터 수신된 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 제공할 수 있다.Accordingly, the other electronic device 200 may provide at least one of distance information to an object, danger situation information, and blind spot notification information received from the electronic device 100 .

예를 들어, 도 8에 도시된 바와 같이, 타 전자 장치(200)는 운송 장치의 주변 상황에 대한 위험 요소를 시각적으로 제공하는 전자 거울(E-Mirror)(810)를 통해 전자 장치(100)로부터 수신된 사각지대 알림 정보를 제공할 수 있다.For example, as shown in FIG. 8 , another electronic device 200 is an electronic device 100 through an E-Mirror 810 that visually provides risk factors for surrounding situations of the transportation device. Blind spot notification information received from may be provided.

구체적으로, 타 전자 장치(200)는 전자 장치(100)로부터 사각지대 알림 정보가 수신되면, 수신된 사각지대 알림 정보에 기초하여 전자 거울(810)의 일 영역이 나머지 영역과 상이하게 표시되도록 전자 거울(810)을 제어한다. 이에 따라, 전자 거울(810)의 일 영역은 적색(811)으로 표시됨으로써, 운송 장치의 운전자는 전자 거울(810)에 표시된 알림 정보에 기초하여 운송 장치 주변에 차량이 근접하였음을 인지할 수 있다.Specifically, when the blind spot notification information is received from the electronic device 100, the other electronic device 200 displays one area of the electronic mirror 810 differently from the other areas based on the received blind spot notification information. Controls the mirror 810. Accordingly, one area of the electronic mirror 810 is displayed in red 811, so that the driver of the transportation device can recognize that the vehicle has approached the vicinity of the transportation device based on the notification information displayed on the electronic mirror 810. .

뿐만 아니라, 타 전자 장치(200)는 주행 정보를 제공하는 헤드 업 디스플레이(HUD)(820)를 통해 전자 장치(100)로부터 수신된 사각지대 알림 정보를 제공할 수 있다.In addition, the other electronic device 200 may provide blind spot notification information received from the electronic device 100 through the head-up display (HUD) 820 that provides driving information.

구체적으로, 타 전자 장치(200)는 전자 장치(100)로부터 사각지대 알림 정보가 수신되면, 수신된 사각지대 알림 정보에 기초하여 주변 차량이 운송 차량에 근접해 있음을 표시하도록 헤드 업 디스플레이를 제어한다. 이에 따라, 헤드 업 디스플레이(820)는 화면의 일 영역(821)에 주변 차량이 운송 차량에 근접해 있음을 표시함으로써, 운송 장치의 운전자는 헤드 업 디스플레이(820)에 표시된 알림 정보에 기초하여 운송 장치 주변에 차량이 근접하였음을 인지할 수 있다.Specifically, when the blind spot notification information is received from the electronic device 100, the other electronic device 200 controls the head-up display to display that a nearby vehicle is close to the transportation vehicle based on the received blind spot notification information. . Accordingly, the head-up display 820 displays on one area 821 of the screen that a nearby vehicle is close to the transport vehicle, so that the driver of the transport device can view the transport device based on notification information displayed on the head-up display 820. It can be recognized that a vehicle is approaching nearby.

뿐만 아니라, 타 전자 장치(200)는 주행 정보를 제공하는 헤드 업 디스플레이(HUD)(820)를 통해 전자 장치(100)로부터 수신된 주변 차량에 대한 위험 상황 정보를 제공할 수 있다.In addition, the other electronic device 200 may provide dangerous situation information about surrounding vehicles received from the electronic device 100 through the head-up display (HUD) 820 that provides driving information.

구체적으로, 타 전자 장치(200)는 전자 장치(100)로부터 위험 상황 정보가 수신되면, 수신된 위험 상황 정보에 기초하여 운송 차량 전방에 주변 차량이 근접에 있음을 나타내는 주변 차량 정보(822)를 표시하도록 헤드 업 디스플레이(820)를 제어한다. 이에 따라, 헤드 업 디스플레이(820)는 화면의 일 영역(821)에 운송 차량과 근접한 주변 차량을 또다른 주변 차량과 상이하게 표시함으로써, 운송 장치의 운전자는 헤드 업 디스플레이(820)를 통해 운송 차량이 전방에 있는 주변 차량과 근접하고 있음을 인지할 수 있다.Specifically, when the dangerous situation information is received from the electronic device 100, the other electronic device 200 transmits the surrounding vehicle information 822 indicating that a nearby vehicle is in front of the transportation vehicle based on the received dangerous situation information. Controls the head-up display 820 to display. Accordingly, the head-up display 820 displays nearby vehicles close to the transport vehicle differently from other surrounding vehicles on one area 821 of the screen, so that the driver of the transport device can view the transport vehicle through the head-up display 820. It can be recognized that it is approaching a nearby vehicle in front.

한편, 본 발명에 따른 전자 장치(100)는 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 이용하여 해당 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 독립적으로 제공할 수 있다.Meanwhile, the electronic device 100 according to the present invention independently transmits at least one of distance information to a corresponding object, dangerous situation information, and blind spot notification information using at least one of type information, location information, and movement information of the detected object. can be provided with

이하에서는, 본 발명에 따른 전자 장치(100)의 세부 구성에 대해서 상세히 설명하도록 한다.Hereinafter, the detailed configuration of the electronic device 100 according to the present invention will be described in detail.

도 9는 본 발명의 일 실시예에 따른 전자 장치의 세부 블록도이다.9 is a detailed block diagram of an electronic device according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 전자 장치(100)는 입력부(110), 출력부(120), 저장부(130) 및 프로세서(140) 외에 통신부(150), 촬영부(160) 및 감지부(170)를 더 포함할 수 있다.As shown in FIG. 9 , the electronic device 100 includes an input unit 110, an output unit 120, a storage unit 130, and a processor 140, as well as a communication unit 150, a photographing unit 160, and a sensing unit ( 170) may be further included.

먼저, 전술한 바와 같이, 입력부(110)는 카메라를 통해 촬영된 영상 데이터를 입력받는다. 뿐만 아니라, 입력부(110)는 다양한 사용자 명령을 입력받아, 프로세서(140)로 전달하기 위한 입력 수단이 될 수 있다. 이 경우, 입력부(110)는 터치 입력이 가능한 터치 패드 혹은 각종 기능키, 숫자키, 문자키 등을 구비한 키 패드(Key Pad)로 구현될 수 있다.First, as described above, the input unit 110 receives image data photographed through a camera. In addition, the input unit 110 may be an input means for receiving various user commands and transmitting them to the processor 140 . In this case, the input unit 110 may be implemented as a touch pad capable of touch input or a key pad equipped with various function keys, numeric keys, character keys, and the like.

또한, 전술한 출력부(120)는 디스플레이부(121) 및 오디오 출력부(122)를 포함한다. 디스플레이부(121)는 운송 차량의 주행 정보 및 촬영된 영상 데이터에 포함된 비디오 영상을 화면상에 디스플레이한다. 또한, 디스플레이부(121)는 촬영된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나에 기초하여 생성된 해당 오브젝트의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 시각적으로 제공할 수 있다.In addition, the aforementioned output unit 120 includes a display unit 121 and an audio output unit 122. The display unit 121 displays driving information of the transportation vehicle and video images included in captured image data on a screen. In addition, the display unit 121 may display at least one of distance information, dangerous situation information, and blind spot notification information of a corresponding object generated based on at least one of type information, location information, and movement information of the object detected from the captured image data. can be provided visually.

오디오 출력부(122)는 차량의 주행 정보 및 촬영된 영상 데이터에 포함된 오디오 신호 등을 스피커를 통해 가청음 형태로 출력할 수 있다. 또한, 오디오 출력부(122)는 촬영된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나에 기초하여 생성된 해당 오브젝트의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나에 대한 오디오 신호를 출력할 수 있다.The audio output unit 122 may output vehicle driving information and an audio signal included in captured image data in the form of audible sound through a speaker. In addition, the audio output unit 122 may include at least one of distance information, dangerous situation information, and blind spot notification information of a corresponding object generated based on at least one of type information, location information, and movement information of the object detected from the captured image data. An audio signal for one can be output.

한편, 디스플레이부(121)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 등으로 구현될 수 있다. 특히, 디스플레이부(121)는 전술한 입력부(110)가 사용자의 터치 입력이 가능한 터치 입력부(미도시)를 포함하는 경우, 터치 입력부(미도시)와 함께 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수 있다.Meanwhile, the display unit 121 may be implemented as a liquid crystal display (LCD), an organic light emitting display (OLED), or the like. In particular, when the above-described input unit 110 includes a touch input unit (not shown) capable of a user's touch input, the display unit 121 is implemented in the form of a touch screen forming a mutual layer structure together with a touch input unit (not shown). It can be.

전술한 프로세서(140)는 전자 장치(100)를 구성하는 각 구성에 대한 동작을 전반적으로 제어한다. 특히, 프로세서(140)는 전술한 바와 같이, 입력부(110)를 통해 입력된 영상 데이터로부터 오브젝트를 검출하고, 검출된 오브젝트에 대한 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 제공할 수 있다.The above-described processor 140 controls the overall operation of each element constituting the electronic device 100 . In particular, as described above, the processor 140 may detect an object from image data input through the input unit 110 and provide at least one of type information, location information, and movement information of the detected object.

이 같은 프로세서(140)는 CPU(141), GPU(142), ROM(143) 및 RAM(144)을 포함할 수 있으며, CPU(141), GPU(142), ROM(143) 및 RAM(144)은 버스(145)를 통해 서로 연결될 수 있다.The processor 140 may include a CPU 141, a GPU 142, a ROM 143, and a RAM 144, and may include the CPU 141, the GPU 142, the ROM 143, and the RAM 144 ) may be connected to each other through the bus 145.

CPU(141)는 저장부(130)를 액세스하여, 저장부(130)에 저장된 OS를 이용하여 부팅을 수행한다. 또한 CPU(141)는 저장부(130)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The CPU 141 accesses the storage unit 130 and performs booting using the OS stored in the storage unit 130 . In addition, the CPU 141 performs various operations using various programs, contents, and data stored in the storage unit 130 .

GPU(142)는 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 디스플레이 화면을 생성한다. 구체적으로, GPU(142)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하고, 연상된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 디스플레이 화면을 생성한다. The GPU 142 creates a display screen including various objects such as icons, images, text, and the like. Specifically, the GPU 142 calculates attribute values such as coordinate values, shape, size, color, etc. of each object to be displayed according to the layout of the screen based on the received control command, and selects the object based on the associated attribute values. Create display screens of various layouts including

ROM(143)은 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, CPU(141)는 ROM(143)에 저장된 명령어에 따라 저장부(130)에 저장된 OS를 RAM(144)에 복사하고, OS를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(141)는 저장부(130)에 저장된 각종 프로그램을 RAM(144)에 복사하고, RAM(144)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 143 stores command sets for system booting and the like. When a turn-on command is input and power is supplied, the CPU 141 copies the OS stored in the storage 130 to the RAM 144 according to the command stored in the ROM 143 and executes the OS to boot the system. When booting is completed, the CPU 141 copies various programs stored in the storage unit 130 to the RAM 144 and executes the programs copied to the RAM 144 to perform various operations.

이 같은 프로세서(140)는 전술한 각 구성들과 결합되어 단일칩 시스템(System-on-a-chip 또는 System on chip, SOC, SoC)으로 구현될 수 있다.Such a processor 140 may be implemented as a single-chip system (System-on-a-chip or System on chip, SOC, SoC) by combining the above-described components.

한편, 상술한 프로세서(140)의 동작은 저장부(130)에 저장된 프로그램에 의해 이루어질 수 있다. 여기서, 저장부(130)는 ROM(143), RAM(144) 또는 전자 장치(100)에 탈착/장착 가능한 메모리 카드(예, SD 카드, 메모리 스틱), 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나로 구현될 수 있다.Meanwhile, the above-described operation of the processor 140 may be performed by a program stored in the storage unit 130 . Here, the storage unit 130 may include a ROM 143, a RAM 144, or a memory card (eg, an SD card or a memory stick) removable/mountable in the electronic device 100, a non-volatile memory, a volatile memory, or a hard disk drive. (HDD) or solid state drive (SSD).

통신부(150)는 전술한 운송 차량 내 구비된 타 전자 장치(200), 운송 차량 내에 있는 스마트 폰과 같은 단말 장치(미도시), 주변 차량에 구비된 전자 장치(100), 주변 차량에 구비된 타 전자 장치(200) 및 교통 상황을 수집하는 서버(미도시) 등과 통신을 수행할 수 있다.The communication unit 150 includes the above-described other electronic devices 200 included in the transportation vehicle, a terminal device such as a smart phone in the transportation vehicle (not shown), an electronic device 100 provided in the surrounding vehicles, and a terminal device provided in the surrounding vehicles. Communication may be performed with other electronic devices 200 and a server (not shown) that collects traffic conditions.

이 같은 통신부(150)는 근거리 무선 통신 모듈(미도시), 무선 통신 모듈(미도시) 등과 같은 통신 모듈로 구현될 수 있다. 여기서, 근거리 무선 통신 모듈(미도시)은 근거리에 위치한 타 전자 장치(200) 혹은 운송 차량 내에 있는 단말 장치(미도시) 등과 무선 통신을 수행하는 통신 모듈로써, 예를 들어, 블루투스(Bluetooth), 지그비(Zigbee), NFC(Near Field Communication) 등이 될 수 있다. The communication unit 150 may be implemented as a communication module such as a short-distance wireless communication module (not shown) or a wireless communication module (not shown). Here, the short-distance wireless communication module (not shown) is a communication module that performs wireless communication with another electronic device 200 located in a short distance or a terminal device (not shown) in a transportation vehicle. For example, Bluetooth, It can be Zigbee, Near Field Communication (NFC), and the like.

무선 통신 모듈(미도시)은 와이파이(WiFi), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Ling Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 교통 상황을 수집하는 서버(미도시) 등과 통신을 수행할 수 있다.A wireless communication module (not shown) connects to a mobile communication network according to various mobile communication standards such as WiFi, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Ling Term Evolution), etc. It is possible to perform communication with a collecting server (not shown) and the like.

뿐만 아니라, 통신부(150)는 HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), IEEE(Institute of Electrical and Eletronics Engineers) 1394 등의 유선 통신 모듈 중 적어도 하나를 포함하는 커넥터(미도시)를 더 포함할 수 있다.  이 같은 커넥터(미도시)는 프로세서(140)의 제어 명령에 따라 커넥터(미도시)에 연결된 유선 케이블을 통해 외부 서버(미도시)로부터 전송된 컨텐츠 데이터를 수신하거나, 기저장된 영상 데이터를 외부 기록 매체로 전송할 수 있다.  또한, 커넥터(미도시)는 커넥터(미도시)와 물리적으로 연결된 유선 케이블을 통해 전원 소스로부터 전원을 입력받을 수 있다.In addition, the communication unit 150 is a connector (not shown) including at least one of wired communication modules such as High-Definition Multimedia Interface (HDMI), Universal Serial Bus (USB), and Institute of Electrical and Electronic Engineers (IEEE) 1394. may further include. Such a connector (not shown) receives content data transmitted from an external server (not shown) through a wired cable connected to the connector (not shown) according to a control command of the processor 140, or externally records previously stored image data. can be transmitted on medium. In addition, a connector (not shown) may receive power from a power source through a wired cable physically connected to the connector (not shown).

촬영부(160)는 사용자 명령 혹은 이벤트 발생에 따라, 정지 영상 또는 동영상을 촬영하기 위한 것으로써, 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수 있다.The photographing unit 160 is for capturing a still image or a video according to a user command or an event occurrence, and may be implemented in plural units such as a front camera and a rear camera.

감지부(170)는 주변 밝기, 외부 온도 및 전자 장치(100)의 움직임 등을 감지하는 센서이다. 이 같은 감지부(170)는 조도 센서(미도시), 온도 센서(미도시) 움직임 센서(미도시), 지자기 센서(미도시), 중력 센서(미도시) 및 자이로 센서(미도시) 등을 포함할 수 있다.The sensing unit 170 is a sensor that detects ambient brightness, external temperature, and movement of the electronic device 100 . The sensing unit 170 includes an illuminance sensor (not shown), a temperature sensor (not shown), a motion sensor (not shown), a geomagnetic sensor (not shown), a gravity sensor (not shown), a gyro sensor (not shown), and the like. can include

조도 센서(미도시)는 주변 환경의 밝기를 감지하며, 온도 센서(미도시)는 외부 온도를 감지하는 센서가 될 수 있다.The illuminance sensor (not shown) may detect the brightness of the surrounding environment, and the temperature sensor (not shown) may be a sensor that detects an external temperature.

움직임 센서(Accelerometer Sensor)(미도시)는 이동하는 전자 장치(100)의 가속도나 충격의 세기를 측정하는 가속도 센서이다.  그리고, 지자기 센서(Magnetic Sensor)(미도시)는 지구 자기장을 이용하여 방위각을 탐지할 수 있는 센서이며, 중력 센서(Gravity Sensor)(미도시)는 중력이 어느 방향으로 작용하는지 탐지하는 센서로써, 전자 장치(100)가 구비된 운송 차량이 이동하는 방향에 따라 자동으로 회전하여 방향을 감지한다.  마지막으로, 자이로 센서(Gyroscope Sensor)(미도시)는 기존의 움직임 센서(미도시)에 각각 회전을 넣어 6축 방향을 인식하여 하여 좀더 세밀하고 정밀한 동작을 인식할 수 있도록 도와주는 센서이다.An accelerometer sensor (not shown) is an acceleration sensor that measures acceleration of the moving electronic device 100 or intensity of impact. And, the magnetic sensor (not shown) is a sensor that can detect the azimuth using the earth's magnetic field, and the gravity sensor (not shown) is a sensor that detects which direction gravity acts, The transportation vehicle equipped with the electronic device 100 detects the direction by automatically rotating according to the moving direction. Lastly, a gyroscope sensor (not shown) is a sensor that helps to recognize a more detailed and precise motion by recognizing the 6-axis direction by inserting rotation into each of the existing motion sensors (not shown).

지금까지 본 발명에 따른 전자 장치(100)에서 촬영된 영상 데이터로부터 오브젝트를 검출하는 동작에 대해서 상세히 설명하였다. 이하에서는 본 발명에 따른 전자 장치(100)에서 촬영된 영상 데이터로부터 오브젝트를 검출하는 방법에 대해서 상세히 설명하도록 한다.So far, an operation of detecting an object from image data photographed by the electronic device 100 according to the present invention has been described in detail. Hereinafter, a method of detecting an object from image data photographed by the electronic device 100 according to the present invention will be described in detail.

도 10은 본 발명의 일 실시예에 따른 촬영된 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 제어 방법에 대한 흐름도이다.10 is a flowchart of a control method of an electronic device for detecting an object from photographed image data according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 전자 장치(100)는 카메라를 통해 촬영된 영상 데이터를 입력받는다(S1010). 영상 데이터가 입력되면, 전자 장치(100)는 기저장된 필터 세트를 구성하는 복수의 필터를 이용하여 기입력된 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득한다(S1020). 이후, 전자 장치(100)는 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 영상 데이터에 포함된 오브젝트를 검출한다(S1030). 이후, 전자 장치(100)는 검출된 오브젝트에 정보를 제공한다(S1040).As shown in FIG. 10 , the electronic device 100 receives image data photographed through a camera (S1010). When image data is input, the electronic device 100 obtains feature information indicating an object from the previously input image data by using a plurality of filters constituting a pre-stored filter set (S1020). Thereafter, the electronic device 100 detects an object included in the image data using feature information acquired through at least two or more filters among a plurality of filters (S1030). Then, the electronic device 100 provides information to the detected object (S1040).

여기서, 특징 정보는 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함할 수 있다.Here, the feature information may include a probability value representing the reliability of the object and location information at which the object is located.

구체적으로, 전자 장치(100)는 필터 세트를 구성하는 복수의 필터로부터 획득한 특징 정보 각각을 이용하여 복수의 필터 각각에 대응되는 컨피던스 맵을 생성한다. 이후, 전자 장치(100)는 복수의 필터 각각에 대응되는 컨피던스 맵 중 기정의된 적어두 두 개의 필터 각각에 대응되는 제1 및 제2 컨피던스 맵을 획득하고, 획득한 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성한다. 이후, 전자 장치(100)는 제1 및 제2 컨피던스 맵을 이용하여 생성된 파이널 컨피던스 맵을 분석하여 기입력된 영상 데이터로부터 오브젝트를 검출할 수 있다.Specifically, the electronic device 100 generates a confidence map corresponding to each of the plurality of filters by using each of the characteristic information obtained from the plurality of filters constituting the filter set. Thereafter, the electronic device 100 acquires first and second confidence maps corresponding to each of at least two predefined filters among the confidence maps corresponding to each of a plurality of filters, and obtains the first and second confidence maps. Create a final confidence map using . Thereafter, the electronic device 100 may analyze the final confidence map generated using the first and second confidence maps to detect an object from previously input image data.

이하에서는, 전자 장치(100)에서 복수의 필터를 이용하여 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 방법 및 기획득한 특징 정보에 기초하여 영상 데이터에 포함된 오브젝트를 검출하는 방법에 대해서 상세히 설명하도록 한다.Hereinafter, a method of acquiring feature information indicating an object from image data using a plurality of filters in the electronic device 100 and a method of detecting an object included in image data based on the specially obtained feature information will be described in detail. do.

도 11은 본 발명의 일 실시예에 따른 전자 장치에서 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 방법의 흐름도이다.11 is a flowchart of a method of obtaining characteristic information representing an object from image data in an electronic device according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 전자 장치(100)는 영상 데이터가 입력되면, 복수의 필터 중 제1 필터를 이용하여 기입력된 영상 데이터로부터 오브젝트를 나타내는 제1 특징 정보를 획득한다(S1110).As shown in FIG. 11 , when image data is input, the electronic device 100 obtains first characteristic information indicating an object from the previously input image data by using a first filter among a plurality of filters (S1110).

이후, 전자 장치(100)는 제2 필터를 이용하여, 제1 특징 정보에 기초하여 생성된 컨피던스 맵으로부터 오브젝트를 나타내는 제2 특징 정보를 획득한다(S1120). 이후, 전자 장치(100)는 제2 특징 정보에 기초하여 생성된 컨피던스 맵을 기설정된 사이즈로 폴링한다(S1130). 이후, 전자 장치(100)는 제3 필터를 이용하여, 기설정된 사이즈로 폴링된 컨피던스 맵으로부터 오브젝트를 나타내는 제3 특징 정보를 획득한다(S1140).Thereafter, the electronic device 100 obtains second characteristic information indicating an object from a confidence map generated based on the first characteristic information by using a second filter (S1120). Thereafter, the electronic device 100 polls the confidence map generated based on the second feature information to a preset size (S1130). Thereafter, the electronic device 100 obtains third characteristic information indicating an object from a confidence map polled with a preset size by using a third filter (S1140).

구체적으로, 전자 장치(100)는 최초 영상 데이터가 입력되면, 복수의 필터 중 제1 필터에 설정된 파라메타를 이용하여 영상 데이터로부터 오브젝트에 대한 제1 특징값을 획득한다. 이후, 전자 장치(100)는 제1 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 제1 특징 정보를 획득한다. 이후, 전자 장치(100)는 획득한 제1 특징 정보에 기초하여 제1 필터에 대응되는 제1 컨피던스 맵을 생성한다.Specifically, when initial image data is input, the electronic device 100 obtains a first characteristic value of an object from the image data by using a parameter set in a first filter among a plurality of filters. After that, the electronic device 100 obtains first feature information including a probability value representing the reliability of the object and location information on which the object is located, based on the first feature value. Thereafter, the electronic device 100 generates a first confidence map corresponding to the first filter based on the acquired first feature information.

이후, 전자 장치(100)는 제1 필터에 설정된 파라메타를 이용하여 기생성된 제1 컨피던스 맵으로부터 해당 오브젝트에 대한 제2 특징값을 획득한다. 이후, 전자 장치(100)는 제2 특징값에 기초하여 해당 오브젝트의 신뢰도를 나타내는 확률값 및 위치 정보를 포함하는 제2 특징 정보를 획득하고, 획득한 제2 특징 정보에 기초하여 제2 필터에 대응되는 제2 컨피던스 맵을 생성한다.Thereafter, the electronic device 100 obtains a second characteristic value of the corresponding object from the pre-generated first confidence map using the parameter set in the first filter. Thereafter, the electronic device 100 obtains second feature information including a probability value representing the reliability of the corresponding object and location information based on the second feature value, and responds to a second filter based on the obtained second feature information. A second confidence map is created.

이후, 전자 장치(100)는 제2 컨피던스 맵을 기설정된 사이즈로 폴링한다. 예를 들어, 제2 컨피던스 맵이 80 * 48의 픽셀 단위로 표현된 맵인 경우, 전자 장치(100)는 제2 컨피던스 맵을 40 * 24의 픽셀 단위로 폴링할 수 있다. 이 같이, 제2 컨피던스 맵이 기설정된 사이즈로 폴링되면, 전자 장치(100)는 제3 필터에 설정된 파라메타를 이용하여 기설정된 사이즈로 폴링된 제2 컨피던스 맵으로부터 해당 오브젝트에 대한 제3 특징값을 획득한다. 이후, 전자 장치(100)는 제3 특징값에 기초하여 해당 오브젝트의 신뢰도를 나타내는 확률값 및 위치 정보를 포함하는 제2 특징 정보를 획득하고, 획득한 제2 특징 정보에 기초하여 제2 필터에 대응되는 제3 컨피던스 맵을 생성한다.Then, the electronic device 100 polls the second confidence map with a preset size. For example, if the second confidence map is a map expressed in units of 80 * 48 pixels, the electronic device 100 may poll the second confidence map in units of 40 * 24 pixels. In this way, when the second confidence map is polled with a preset size, the electronic device 100 determines a third characteristic value for the corresponding object from the second confidence map polled with a preset size using a parameter set in the third filter. Acquire Thereafter, the electronic device 100 obtains second feature information including a probability value representing the reliability of the corresponding object and location information based on the third feature value, and responds to a second filter based on the obtained second feature information. A third confidence map is created.

이 같은 일련의 처리 과정을 통해 복수의 필터 각각에 대응되는 컨피던스 맵이 생성되면, 전자 장치(100)는 복수의 컨피던스 맵 중 적어도 두 개의 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하고, 생성된 파이널 컨피던스 맵으로부터 오브젝트를 검출할 수 있다.When a confidence map corresponding to each of a plurality of filters is generated through such a series of processing processes, the electronic device 100 generates a final confidence map using at least two confidence maps among the plurality of confidence maps, and the generated final confidence map Objects can be detected from the confidence map.

도 12는 본 발명의 일 실시예에 따른 전자 장치에서 오브젝트를 검출하는 방법의 흐름도이다.12 is a flowchart of a method of detecting an object in an electronic device according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 전자 장치(100)는 복수의 필터로부터 획득한 특징 정보 각각을 이용하여 복수의 필터 각각에 대응되는 컨피던스 맵을 생성한다(S1210). 이후, 전자 장치(100)는 복수이 필터 각각에 대응되는 컨피던스 맵 중 제1 및 제2 컨피던스 맵을 획득한다(S1220) As shown in FIG. 12 , the electronic device 100 generates a confidence map corresponding to each of a plurality of filters using each feature information obtained from a plurality of filters (S1210). Thereafter, the electronic device 100 obtains first and second confidence maps from among the plurality of confidence maps corresponding to each filter (S1220).

여기서, 제1 컨피던스 맵은 복수의 필터 중 기설정된 필터 다음의 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이며, 제2 컨피던스 맵은 복수의 필터 중 마지막 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이 될 수 있다.Here, the first confidence map is a map generated using feature information obtained from a filter next to a preset filter among a plurality of filters, and the second confidence map is generated using feature information obtained from the last filter among the plurality of filters. can be a map.

이 같은 제1 및 제2 컨피던스 맵이 획득되면, 전자 장치(100)는 제1 및 제2 컨피던스 맵을 동일한 사이즈로 조정한다(S1220,S1230). 이후, 전자 장치(100)는 동일한 사이즈로 조정된 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하고, 생성된 파이널 컨피던스 맵을 분석하여 영상 데이터에 포함된 오브젝트를 검출한다(S1240,S1250).When the first and second confidence maps are obtained, the electronic device 100 adjusts the first and second confidence maps to the same size (S1220 and S1230). Thereafter, the electronic device 100 generates a final confidence map using the first and second confidence maps adjusted to the same size, analyzes the generated final confidence map, and detects an object included in the image data (S1240). S1250).

구체적으로, 전자 장치(100)는 파이널 컨피던스 맵으로부터 오브젝트를 나타내는 특징 정보를 획득하고, 획득한 특징 정보에 기초하여 기입력된 영상 데이터에 포함된 오브젝트를 검출할 수 있다. Specifically, the electronic device 100 may obtain feature information indicating an object from the final confidence map, and detect an object included in pre-input image data based on the acquired feature information.

보다 구체적으로, 전자 장치(100)는 파이널 컨피던스 맵으로부터 오브젝트를 나타내는 특징 정보가 획득되면, 기획득한 특징 정보에 포함된 오브젝트의 신뢰도를 나타내는 확률값과 기설정된 임계값을 비교한다. 비교 결과, 확률값이 기설정된 임계값 이상이면, 전자 장치(100)는 기획득한 특징 정보에 포함된 오브젝트의 위치 정보에 기초하여 해당 오브젝트를 검출한다. 이후, 전자 장치(100)는 파이널 컨피던스 맵으로부터 검출된 오브젝트의 유형 정보를 획득한다. 이후, 전자 장치(100)는 검출된 오브젝트의 위치 정보, 해당 오브젝트의 유형 정보 및 해당 오브젝트의 이동 정보 중 적어도 하나에 기초하여 기입력된 영상 데이터에 대한 오브젝트 검출 결과를 제공한다.More specifically, when characteristic information representing an object is obtained from the final confidence map, the electronic device 100 compares a probability value representing reliability of an object included in the obtained characteristic information with a preset threshold. As a result of the comparison, if the probability value is greater than or equal to a predetermined threshold value, the electronic device 100 detects the corresponding object based on the location information of the object included in the specially obtained feature information. Then, the electronic device 100 obtains type information of the object detected from the final confidence map. Thereafter, the electronic device 100 provides an object detection result for previously input image data based on at least one of location information of the detected object, type information of the object, and movement information of the object.

한편, 전자 장치(100)는 운송 장치 내 구비된 장치로써, 해당 운송 장치 내에 구비되어 주행 정보를 제공하는 타 전자 장치(200)와 통신을 수행할 수 있다. 이 경우, 전자 장치(100)는 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 이용하여 해당 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 타 전자 장치(200)로 전송할 수 있다. 이에 따라, 타 전자 장치(200)는 전자 장치(100)로부터 수신된 정보에 기초하여 전자 거울(E-Mirror) 또는 헤드 업 디스플레이를 통해 해당 오브젝트에 대한 알림 정보를 제공할 수 있다.Meanwhile, the electronic device 100 is a device included in the transport device and can communicate with another electronic device 200 provided in the transport device and providing driving information. In this case, the electronic device 100 uses at least one of type information, location information, and movement information of the object detected from the image data to obtain at least one of distance information to the corresponding object, dangerous situation information, and blind spot notification information. It can be transmitted to the electronic device 200. Accordingly, the other electronic device 200 may provide notification information on a corresponding object through an E-mirror or a head-up display based on the information received from the electronic device 100 .

한편, 상술한 바와 같은 전자 장치(100)의 제어 방법은 적어도 하나의 실행 프로그램으로 구현될 수 있으며, 이러한 실행 프로그램은 비일시적 컴퓨터 판독 가능 매체에 저장될 수 있다.Meanwhile, the control method of the electronic device 100 as described above may be implemented as at least one execution program, and such an execution program may be stored in a non-transitory computer readable medium.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.A non-transitory readable medium is not a medium that stores data for a short moment, such as a register, cache, or memory, but a medium that stores data semi-permanently and can be read by a device. Specifically, the above-described programs include RAM (Random Access Memory), flash memory, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electronically Erasable and Programmable ROM), registers, hard disks, removable disks, memory It may be stored in various types of recording media readable by a terminal, such as a card, USB memory, or CD-ROM.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and is common in the art to which the present invention pertains without departing from the gist of the present invention claimed in the claims. Of course, various modifications are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

100 : 전자 장치 110 : 입력부
120 : 출력부 121 : 디스플레이부
122 : 오디오 출력부 130 : 저장부
140 : 프로세서 150 : 통신부
160 : 촬영부 170 : 감지부
100: electronic device 110: input unit
120: output unit 121: display unit
122: audio output unit 130: storage unit
140: processor 150: communication unit
160: photographing unit 170: detection unit

Claims (20)

전자 장치의 제어 방법에 있어서,
영상 데이터를 입력받는 단계;
복수의 필터 중 제1 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 제1 특징 정보를 획득하고, 상기 제1 특징 정보에 기초하여 제1 컨피던스 맵을 생성하며, 상기 제1 컨피던스 맵으로부터 제2 필터를 이용하여 상기 오브젝트를 나타내는 제2 특징 정보를 획득하고, 상기 제2 특징 정보에 기초하여 제2 컨피던스 맵을 생성하며, 상기 제2 컨피던스 맵을 기설정된 사이즈로 폴링(pooling)한 폴링된 컨피던스 맵으로부터 제3 필터를 이용하여 상기 오브젝트를 나타내는 제3 특징 정보를 획득하고, 상기 제3 특징 정보에 기초하여 제3 컨피던스 맵을 생성하며, 제n-1 컨피던스 맵으로부터 제n 필터를 이용하여 상기 오브젝트를 나타내는 제n 특징 정보를 획득하고, 상기 제n 특징 정보에 기초하여 제n 컨피던스 맵을 생성하는 단계;
제1 내지 제n-1 컨피던스 맵 중 적어도 하나의 컨피던스 맵을 참조 컨피던스 맵으로 획득하고, 상기 참조 컨피던스 맵과 상기 제n 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하며, 상기 파이널 컨피던스 맵에 기초하여 상기 오브젝트를 검출하는 단계; 및
상기 검출된 오브젝트에 대한 유형 정보를 제공하는 단계;를 포함하며,
상기 전자 장치는 운송 장치 내에 구비된 장치이고,
상기 영상 데이터는 상기 운송 장치가 주행하는 도로의 후방 영역에 대한 영상 데이터를 포함하며,
상기 참조 컨피던스 맵은,
상기 복수의 필터 중 기설정된 필터 다음의 필터로부터 획득한 특징 정보를 이용하여 생성된 맵을 포함하고,
상기 제n 컨피던스 맵은,
상기 복수의 필터 중 마지막 필터로부터 획득한 특징 정보를 이용하여 생성된 맵인, 제어 방법.
In the control method of an electronic device,
receiving image data;
First feature information indicating an object is obtained from the image data by using a first filter among a plurality of filters, a first confidence map is generated based on the first feature information, and a second filter is obtained from the first confidence map. A polled confidence map obtained by obtaining second feature information representing the object using , generating a second confidence map based on the second feature information, and polling the second confidence map with a preset size. Obtains third feature information representing the object using a third filter from , generates a third confidence map based on the third feature information, and uses an n-th filter from the n-1 th confidence map to obtain the object obtaining n-th feature information representing , and generating an n-th confidence map based on the n-th feature information;
At least one confidence map among the 1st to n-1th confidence maps is acquired as a reference confidence map, a final confidence map is generated using the reference confidence map and the nth confidence map, and based on the final confidence map detecting the object; and
Including; providing type information on the detected object;
The electronic device is a device provided in a transportation device,
The image data includes image data of a rear area of the road on which the transportation device travels,
The reference confidence map,
Includes a map generated using feature information obtained from a filter next to a predetermined filter among the plurality of filters;
The n th confidence map,
A map generated using feature information obtained from a last filter among the plurality of filters.
제 1 항에 있어서,
상기 특징 정보는
상기 오브젝트의 신뢰도를 나타내는 확률값 및 상기 오브젝트가 위치하는 위치 정보를 포함하는 것을 특징으로 하는 제어 방법.
According to claim 1,
The feature information
The control method characterized in that it comprises a probability value representing the reliability of the object and location information where the object is located.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 참조 컨피던스 맵과 상기 제n 컨피던스 맵의 사이즈를 동일한 사이즈로 조정하는 단계;
를 더 포함하는 것을 특징으로 하는 제어 방법.
According to claim 1,
adjusting the size of the reference confidence map and the n-th confidence map to have the same size;
A control method characterized in that it further comprises.
제 1 항에 있어서,
상기 오브젝트를 검출하는 단계는,
상기 파이널 컨피던스 맵으로부터 상기 오브젝트의 신뢰도를 나타내는 확률값이 기설정된 임계 값 이상인지 여부에 따라, 상기 오브젝트를 검출하는 것을 특징으로 하는 제어 방법.
According to claim 1,
Detecting the object is
and detecting the object according to whether a probability value representing the reliability of the object from the final confidence map is greater than or equal to a predetermined threshold value.
제 1 항에 있어서,
상기 제공하는 단계는,
상기 검출된 오브젝트의 위치 정보, 이동 정보 중 적어도 하나를 제공하는 것을 특징으로 하는 제어 방법.
According to claim 1,
The step of providing,
and providing at least one of location information and movement information of the detected object.
제 8 항에 있어서,
상기 전자 장치는 주행 정보를 제공하는 타 전자 장치와 통신을 수행하며,
상기 제공하는 단계는,
상기 검출된 오브젝트의 유형 정보, 위치 정보, 이동 정보 중 적어도 하나를 이용하여 상기 오브젝트와의 거리 정보, 위험 상황 정보, 사각지대 알림 정보 중 적어도 하나를 상기 타 전자 장치에 제공하는 것을 특징으로 하는 제어 방법.
According to claim 8,
The electronic device communicates with another electronic device that provides driving information,
The step of providing,
and providing at least one of distance information to the object, dangerous situation information, and blind spot notification information to the other electronic device using at least one of type information, location information, and movement information of the detected object. method.
제 1 항에 있어서,
상기 영상 데이터는 상기 운송 장치가 주행하는 도로의 전방 영역에 대한 영상 데이터를 더 포함하는 것을 특징으로 하는 제어 방법.
According to claim 1,
The control method of claim 1 , wherein the image data further includes image data of an area in front of a road on which the transportation device travels.
전자 장치에 있어서,
영상 데이터를 입력받는 입력부;
상기 영상 데이터의 오브젝트에 대한 정보를 출력하는 출력부; 및
복수의 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하고,
상기 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 상기 영상 데이터에 포함된 오브젝트를 검출하여 상기 검출된 오브젝트에 대한 정보를 출력하도록 상기 출력부를 제어하는 프로세서;를 포함하며,
상기 프로세서는,
복수의 필터 중 제1 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 제1 특징 정보를 획득하고, 상기 제1 특징 정보에 기초하여 제1 컨피던스 맵을 생성하며, 상기 제1 컨피던스 맵으로부터 제2 필터를 이용하여 상기 오브젝트를 나타내는 제2 특징 정보를 획득하고, 상기 제2 특징 정보에 기초하여 제2 컨피던스 맵을 생성하며, 상기 제2 컨피던스 맵을 기설정된 사이즈로 폴링(pooling)한 폴링된 컨피던스 맵으로부터 제3 필터를 이용하여 상기 오브젝트를 나타내는 제3 특징 정보를 획득하고, 상기 제3 특징 정보에 기초하여 제3 컨피던스 맵을 생성하며, 제n-1 컨피던스 맵으로부터 제n 필터를 이용하여 상기 오브젝트를 나타내는 제n 특징 정보를 획득하고, 상기 제n 특징 정보에 기초하여 제n 컨피던스 맵을 생성하며,
제1 내지 제n-1 컨피던스 맵 중 적어도 하나의 컨피던스 맵을 참조 컨피던스 맵으로 획득하고, 상기 참조 컨피던스 맵과 상기 제n 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하며, 상기 파이널 컨피던스 맵에 기초하여 상기 오브젝트를 검출하며,
상기 전자 장치는 운송 장치 내에 구비된 장치이고,
상기 영상 데이터는 상기 운송 장치가 주행하는 도로의 후방 영역에 대한 영상 데이터를 포함하며,
상기 참조 컨피던스 맵은,
상기 복수의 필터 중 기설정된 필터 다음의 필터로부터 획득한 특징 정보를 이용하여 생성된 맵을 포함하고,
상기 제n 컨피던스 맵은,
상기 복수의 필터 중 마지막 필터로부터 획득한 특징 정보를 이용하여 생성된 맵인, 전자 장치.
In electronic devices,
an input unit for receiving image data;
an output unit outputting information about an object of the image data; and
Obtaining feature information indicating an object from the image data using a plurality of filters;
A processor for controlling the output unit to detect an object included in the image data using feature information acquired through at least two of the plurality of filters and output information on the detected object;
the processor,
First feature information indicating an object is obtained from the image data by using a first filter among a plurality of filters, a first confidence map is generated based on the first feature information, and a second filter is obtained from the first confidence map. A polled confidence map obtained by obtaining second feature information representing the object using , generating a second confidence map based on the second feature information, and polling the second confidence map with a preset size. Obtains third feature information representing the object using a third filter from , generates a third confidence map based on the third feature information, and uses an n-th filter from the n-1 th confidence map to obtain the object Obtaining n-th feature information representing , generating an n-th confidence map based on the n-th feature information,
At least one confidence map among the 1st to n-1th confidence maps is acquired as a reference confidence map, a final confidence map is generated using the reference confidence map and the nth confidence map, and based on the final confidence map detect the object,
The electronic device is a device provided in a transportation device,
The image data includes image data of a rear area of the road on which the transportation device travels,
The reference confidence map,
Includes a map generated using feature information obtained from a filter next to a predetermined filter among the plurality of filters;
The n th confidence map,
An electronic device that is a map generated using feature information obtained from a last filter among the plurality of filters.
제 11 항에 있어서,
상기 특징 정보는
상기 오브젝트의 신뢰도를 나타내는 확률값 및 상기 오브젝트가 위치하는 위치 정보를 포함하는 것을 특징으로 하는 전자 장치.
According to claim 11,
The feature information
The electronic device characterized in that it includes a probability value representing the reliability of the object and location information where the object is located.
삭제delete 삭제delete 삭제delete 제 11 항에 있어서,
상기 프로세서는,
상기 참조 컨피던스 맵과 상기 제n 컨피던스 맵의 사이즈를 동일한 사이즈로 조정하는 것을 특징으로 하는 전자 장치.
According to claim 11,
the processor,
The electronic device characterized in that the size of the reference confidence map and the size of the n-th confidence map are adjusted to the same size.
제 11 항에 있어서,
상기 프로세서는,
상기 파이널 컨피던스 맵으로부터 상기 오브젝트의 신뢰도를 나타내는 확률값이 기설정된 임계 값 이상인지 여부에 따라, 상기 오브젝트를 검출하는 것을 특징으로 하는 전자 장치.
According to claim 11,
the processor,
The electronic device characterized in that the object is detected according to whether a probability value representing the reliability of the object from the final confidence map is equal to or greater than a predetermined threshold value.
제 11 항에 있어서,
상기 프로세서는,
상기 검출된 오브젝트의 위치 정보, 이동 정보 중 적어도 하나를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
According to claim 11,
the processor,
The electronic device characterized by controlling the output unit to output at least one of location information and movement information of the detected object.
제 18 항에 있어서,
주행 정보를 제공하는 타 전자 장치와 통신을 수행하는 통신부;를 더 포함하며,
상기 프로세서는,
상기 검출된 오브젝트의 유형 정보, 위치 정보, 이동 정보 중 적어도 하나를 이용하여 상기 오브젝트와의 거리 정보, 위험 상황 정보, 사각지대 알림 정보 중 적어도 하나를 상기 타 전자 장치로 전송하도록 상기 통신부를 제어하는 것을 특징으로 하는 전자 장치.
According to claim 18,
It further includes; a communication unit that communicates with other electronic devices that provide driving information;
the processor,
Controlling the communication unit to transmit at least one of distance information to the object, danger situation information, and blind spot notification information to the other electronic device using at least one of type information, location information, and movement information of the detected object Electronic device characterized in that.
제 11 항에 있어서,
상기 영상 데이터는 상기 운송 장치가 주행하는 도로의 전방 영역에 대한 영상 데이터를 더 포함하는 것을 특징으로 하는 전자 장치.




According to claim 11,
The electronic device according to claim 1 , wherein the image data further includes image data of an area in front of a road on which the transportation device travels.




KR1020170148111A 2016-11-08 2017-11-08 Electronic apparatus and control method thereof KR102545199B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2017/012616 WO2018088804A1 (en) 2016-11-08 2017-11-08 Electronic apparatus and control method thereof
US15/806,983 US10558870B2 (en) 2016-11-08 2017-11-08 Electronic apparatus and control method thereof
US16/710,626 US10878257B2 (en) 2016-11-08 2019-12-11 Electronic apparatus and control method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662418924P 2016-11-08 2016-11-08
US62/418,924 2016-11-08
US201662419645P 2016-11-09 2016-11-09
US62/419,645 2016-11-09

Publications (2)

Publication Number Publication Date
KR20180051422A KR20180051422A (en) 2018-05-16
KR102545199B1 true KR102545199B1 (en) 2023-06-19

Family

ID=62452379

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170148111A KR102545199B1 (en) 2016-11-08 2017-11-08 Electronic apparatus and control method thereof

Country Status (2)

Country Link
EP (1) EP3523752A4 (en)
KR (1) KR102545199B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095152B1 (en) * 2019-06-07 2020-03-30 건국대학교 산학협력단 A method of recognizing a situation and apparatus performing the same
KR102340354B1 (en) * 2020-01-03 2021-12-16 영남대학교 산학협력단 Object Detection Method Using Multiscale Convolution Filter

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5448758B2 (en) * 2009-11-30 2014-03-19 キヤノン株式会社 Information processing apparatus, information processing method, information processing system, program, and data structure
KR101543105B1 (en) * 2013-12-09 2015-08-07 현대자동차주식회사 Method And Device for Recognizing a Pedestrian and Vehicle supporting the same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Pablo Arbeláez 외 2명, Hypercolumns for object segmentation and fine-grained localization, 2015 IEEE Conference on Computer Vision and Pattern Recognition (2015.10.15.)*
한국 공개특허공보 제10-2015-0066799호(2015.06.17.) 1부.*

Also Published As

Publication number Publication date
EP3523752A1 (en) 2019-08-14
EP3523752A4 (en) 2019-10-23
KR20180051422A (en) 2018-05-16

Similar Documents

Publication Publication Date Title
US10913461B2 (en) Driving behavior determining method, apparatus, and device, and storage medium
US11205348B2 (en) Drive assist device
US9451062B2 (en) Mobile device edge view display insert
EP3005228B1 (en) Information processing device, approaching object notification method, and program
US20180017799A1 (en) Heads Up Display For Observing Vehicle Perception Activity
KR102384743B1 (en) Autonomous driving apparatus and method for autonomous driving of a vehicle
KR20180068578A (en) Electronic device and method for recognizing object by using a plurality of senses
US9826166B2 (en) Vehicular surrounding-monitoring control apparatus
JP6743732B2 (en) Image recording system, image recording method, image recording program
US10477155B2 (en) Driving assistance method, driving assistance device, and recording medium recording program using same
CN113165651B (en) Electronic device and control method thereof
JP5991648B2 (en) Display control device for vehicle
KR102545199B1 (en) Electronic apparatus and control method thereof
US10878257B2 (en) Electronic apparatus and control method thereof
US11492002B2 (en) Electronic device attached to vehicle and control method therefor
KR102274544B1 (en) Electronic device and image processing method thereof
CN112930679A (en) Electronic device and control method thereof
KR20130053605A (en) Apparatus and method for displaying around view of vehicle
US20160379416A1 (en) Apparatus and method for controlling object movement
KR102356259B1 (en) Electronic apparatus and controlling method thereof
CN106781584B (en) Traffic light transformation prompting method
CN118025201A (en) Method and device for processing data of automatic driving system
TWM544647U (en) Vehicular host device with camera lens and radar

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E701 Decision to grant or registration of patent right
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant