KR20180051422A - Electronic apparatus and control method thereof - Google Patents

Electronic apparatus and control method thereof Download PDF

Info

Publication number
KR20180051422A
KR20180051422A KR1020170148111A KR20170148111A KR20180051422A KR 20180051422 A KR20180051422 A KR 20180051422A KR 1020170148111 A KR1020170148111 A KR 1020170148111A KR 20170148111 A KR20170148111 A KR 20170148111A KR 20180051422 A KR20180051422 A KR 20180051422A
Authority
KR
South Korea
Prior art keywords
information
electronic device
filters
image data
confidence map
Prior art date
Application number
KR1020170148111A
Other languages
Korean (ko)
Other versions
KR102545199B1 (en
Inventor
임태규
이영록
홍현석
한승훈
문보석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/806,983 priority Critical patent/US10558870B2/en
Priority to PCT/KR2017/012616 priority patent/WO2018088804A1/en
Publication of KR20180051422A publication Critical patent/KR20180051422A/en
Priority to US16/710,626 priority patent/US10878257B2/en
Application granted granted Critical
Publication of KR102545199B1 publication Critical patent/KR102545199B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06K9/00791
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

An electronic apparatus and a control method thereof are disclosed. According to the present invention, the control method of the electronic apparatus comprises the steps of: receiving video data; acquiring feature information representing an object from the video data by using a plurality of filters; detecting the object included in the video data by using the feature information acquired by at least two of the plurality of filters; and providing information on the detected object. As a result, the electronic apparatus can more accurately detect a surrounding vehicle and a pedestrian even under a dark road condition (such as at night time and bad weather) or the like as well as under a general road condition.

Description

전자 장치 및 그 제어 방법{Electronic apparatus and control method thereof}[0001] The present invention relates to an electronic apparatus and a control method thereof,

본 발명은 전자 장치 및 그 제어 방법에 관한 것으로써, 보다 상세하게는 전자 장치에 입력된 영상 데이터로부터 오브젝트를 검출하기 위한 전자 장치 및 그 제어 방법에 관한 기술이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic device and a control method thereof, and more particularly, to an electronic device for detecting an object from image data input to an electronic device and a control method thereof.

최근 자율 주행 관련 기술 등의 발달로, 차량 내에 탑재되어 주행 정보를 제공하는 헤드 업 디스플레이 혹은 차량 내에 탑재되어 주행 상황을 실시간으로 촬영하는 블랙박스와 같은 전자 장치는 차량의 상태를 모니터링하여 모니터링된 결과를 제공한다. 뿐만 아니라, 전자 장치는 차량이 주행하는 도로의 상황을 포함하는 주행 정보를 제공한다. 구체적으로, 전자 장치는 차량이 주행하는 도로 상황을 촬영하고, 촬영된 영상 데이터로부터 차량 주변에 있는 주변 차량, 보행자 등을 포함하는 오브젝트를 검출하고, 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 포함하는 주행 정보를 제공한다.BACKGROUND ART [0002] With the recent development of autonomous driving-related technologies and the like, an electronic device such as a head-up display mounted in a vehicle and providing driving information, or a black box mounted in a vehicle and photographing a driving situation in real time, Lt; / RTI > In addition, the electronic device provides the running information including the situation of the road on which the vehicle is running. Specifically, the electronic device captures the road conditions on which the vehicle travels, detects objects including nearby vehicles, pedestrians, and the like around the vehicle from the photographed image data, and displays the type information of the detected object, Or the like.

이에 따라, 운전자는 전자 장치를 통해 제공된 다양한 주행 정보를 통해 앞 차량 간의 거리, 사각지대 위험 요소, 도로를 건너는 보행자가 있는지 등을 체크하여 차량 간 혹은 차량과 보행자 간의 사고 위험을 예방할 수 있다.Accordingly, the driver can prevent the risk of an accident between the vehicles or between the vehicle and the pedestrian by checking the distance between the preceding vehicle, the risk of a blind spot, the presence of a pedestrian crossing the road, and the like through various travel information provided through the electronic device.

그러나, 이 같은 종래의 전자 장치는 차량 주변에 복수의 주변 차량들이 주정차되어 있거나 혹은 복수의 보행자가 함께 차량 도로를 건너는 조건의 도로 상황, 악천후(눈, 비, 안개)의 도로 상황, 야간 시간대의 도로 상황에서, 촬영된 영상 데이터로부터 주변 차량 및 보행자를 검출하지 못하는 문제가 발생한다.However, such a conventional electronic device has a problem that a plurality of nearby vehicles are parked around the vehicle, or a road condition under which a plurality of pedestrians cross the vehicle road together, a road situation of bad weather (snow, rain, fog) There arises a problem in that, in the road situation, the surrounding vehicles and the pedestrian can not be detected from the photographed image data.

본 발명은 상술한 문제점을 해결하는 동시에 상술한 기술 개발 요청에 응답하기 위하여 안출된 것으로, 본 발명은 일반적인 도로 상황 뿐만 아니라, 야간 및 악천후 도로 상황 등에서도 주변 차량 및 보행자의 검출이 용이하도록 하기 위함을 목적으로 한다.The present invention has been made in order to solve the above-described problems and to respond to the above-described technology development request. The present invention is intended to facilitate detection of nearby vehicles and pedestrians even in the case of night roads and bad weather conditions as well as general road conditions. .

본 발명의 일 실시예에 따른 전자 장치의 제어 방법은 영상 데이터를 입력받는 단계, 복수의 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 단계, 상기 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 상기 영상 데이터에 포함된 오브젝트를 검출하는 단계 및 상기 검출된 오브젝트에 대한 정보를 제공하는 단계를 포함한다.A method of controlling an electronic device according to an embodiment of the present invention includes receiving image data, acquiring feature information indicating an object from the image data using a plurality of filters, Detecting an object included in the image data using the feature information acquired through the filter, and providing information on the detected object.

한편, 본 발명의 또다른 실시예에 따르면, 전자 장치는 영상 데이터를 입력받는 입력부, 상기 영상 데이터의 오브젝트에 대한 정보를 출력하는 출력부 및 복수의 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하고, 상기 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 상기 영상 데이터에 포함된 오브젝트를 검출하여 상기 검출된 오브젝트에 대한 정보를 출력하도록 상기 출력부를 제어하는 프로세서를 포함한다.According to another aspect of the present invention, there is provided an electronic device including an input unit for inputting image data, an output unit for outputting information on the object of the image data, And controlling the output unit to output information about the detected object by detecting an object included in the image data using the feature information acquired through at least two filters among the plurality of filters, .

이상과 같이 다양한 실시예를 따르면, 본 발명에 따른 전자 장치는 일반적인 도로 상황 뿐만 아니라, 야간 및 악천후 도로 상황 등에서도 주변 차량 및 보행자를 보다 정확하게 검출할 수 있다.According to the various embodiments as described above, the electronic device according to the present invention can more accurately detect nearby vehicles and pedestrians, not only in general road conditions but also in nighttime and bad weather conditions.

도 1은 일반적인 전자 장치에서 오브젝트를 인식하지 못하는 환경을 나타내는 예시도,
도 2는 본 발명의 일 실시예에 따른 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 개략적인 블록도,
도 3은 본 발명의 일 실시예에 따른 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 세부 블록도,
도 4는 종래의 전자 장치에서 오브젝트 검출 과정 및 검출 결과를 나타내는 예시도,
도 5는 본 발명의 일 실시예에 따른 전자 장치에서 오브젝트 검출 과정 및 검출 결과를 나타내는 예시도,
도 6은 본 발명에 따른 전자 장치에서 파이널 컨피던스 맵 생성에 이용되는 참조 컨피던스 맵의 사이즈를 조정하는 예시도,
도 7은 본 발명에 따른 전자 장치와 종래의 전자 장치에서 영상 데이터로부터 오브젝트를 검출한 검출 결과를 나타내는 예시도,
도 8은 본 발명의 일 실시예에 따른 전자 장치의 오브젝트 검출 결과에 따른 주행 정보를 제공하는 예시도,
도 9는 본 발명의 일 실시예에 따른 전자 장치의 세부 블록도,
도 10은 본 발명의 일 실시예에 따른 촬영된 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 제어 방법에 대한 흐름도,
도 11은 본 발명의 일 실시예에 따른 전자 장치에서 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 방법의 흐름도,
도 12는 본 발명의 일 실시예에 따른 전자 장치에서 오브젝트를 검출하는 방법의 흐름도이다.
1 is an exemplary view showing an environment in which an object is not recognized in a general electronic device,
2 is a schematic block diagram of an electronic device for detecting objects from image data according to an embodiment of the present invention;
3 is a detailed block diagram of an electronic device for detecting an object from image data according to an embodiment of the present invention;
4 is an exemplary diagram showing an object detection process and a detection result in a conventional electronic device,
5 is an exemplary diagram illustrating an object detection process and a detection result in an electronic device according to an embodiment of the present invention.
6 is an exemplary diagram for adjusting the size of the reference confidence map used for generating the final confidence map in the electronic device according to the present invention,
7 is an exemplary diagram showing a detection result of an object detected from image data in an electronic device and a conventional electronic device according to the present invention,
8 is a diagram illustrating an example of providing travel information according to an object detection result of an electronic device according to an embodiment of the present invention.
9 is a detailed block diagram of an electronic device according to an embodiment of the present invention;
10 is a flowchart of a method of controlling an electronic device for detecting an object from photographed image data according to an embodiment of the present invention;
11 is a flowchart of a method for acquiring feature information representing an object from image data in an electronic device according to an embodiment of the present invention;
12 is a flowchart of a method of detecting an object in an electronic device according to an embodiment of the present invention.

본 발명에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다. Before describing the present invention in detail, a method of describing the present specification and drawings will be described.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 발명의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, the terms used in the specification and claims have chosen generic terms in light of their function in various embodiments of the present invention. However, these terms may vary depending on the intentions of the skilled artisan, the legal or technical interpretation, and the emergence of new technologies. In addition, some terms are arbitrarily selected by the applicant. These terms may be construed in the meaning defined herein and may be interpreted based on the general contents of this specification and the ordinary technical knowledge in the art without specific terms definition.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. In addition, the same reference numerals or signs in the drawings attached to the present specification indicate components or components that perform substantially the same function. For ease of explanation and understanding, different embodiments will be described using the same reference numerals or symbols. That is, even though all of the elements having the same reference numerals are shown in the plural drawings, the plural drawings do not mean one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. Further, in the present specification and claims, terms including ordinal numbers such as "first "," second ", etc. may be used for distinguishing between elements. These ordinals are used to distinguish between identical or similar elements, and the use of such ordinal numbers should not be construed as limiting the meaning of the term. For example, components associated with such an ordinal number should not be limited in the order of use, placement order, or the like. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise. In this application, the terms "comprise", "comprising" and the like are used to specify that there is a stated feature, number, step, operation, element, component, or combination thereof, But do not preclude the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the embodiments of the present invention, terms such as "module", "unit", "part", and the like are terms used to refer to components that perform at least one function or operation, Or may be implemented as a combination of hardware and software. It should also be understood that a plurality of "modules "," units ", "parts ", etc. may be integrated into at least one module or chip, (Not shown).

또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Further, in an embodiment of the present invention, when a part is connected to another part, this includes not only a direct connection but also an indirect connection through another medium. Also, the inclusion of a component in a component means that the component may include other components, not the exclusion of any other component, unless specifically stated otherwise.

이하, 본 발명의 다양한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일반적인 전자 장치에서 오브젝트를 인식하지 못하는 환경을 나타내는 예시도이다.1 is an exemplary diagram showing an environment in which an object is not recognized by a general electronic device.

도 1에 도시된 바와 같이, 차량과 같은 운송 장치 내 구비된 전자 장치(100)는 예를 들어, 운송 장치가 주행하는 도로 상황을 실시간으로 촬영하는 블랙박스, 스마트 폰 등이 될 수 있다. 이 같은 전자 장치(100)는 운송 장치가 주행하는 도로의 전방 영역 및 후방 영역을 실시간으로 촬영하고,오브젝트 검출 알고리즘을 이용하여 촬영된 영상 데이터 상에서 사람, 차량 등의 오브젝트를 검출할 수 있다.As shown in FIG. 1, an electronic device 100 provided in a transportation apparatus such as a vehicle may be, for example, a black box, a smart phone, or the like, which photographs the road conditions on which the transportation apparatus travels in real time. Such an electronic device 100 can photograph a front region and a rear region of a road on which a transportation apparatus travels in real time, and can detect objects such as people and vehicles on photographed image data using an object detection algorithm.

이후, 전자 장치(100)는 검출된 오브젝트의 유형 정보, 오브젝트의 위치 정보, 오브젝트의 이동 정보 중 적어도 하나를 제공한다. 이에 따라, 운송 장치를 운전하는 운전자는 전자 장치(100)를 통해 제공된 정보에 기초하여 주행 중인 전방 혹은 후방의 도로 환경 상태를 인지하여 안전한 주행을 할 수 있다.Then, the electronic device 100 provides at least one of the type information of the detected object, the position information of the object, and the movement information of the object. Accordingly, the driver who operates the transportation apparatus can recognize the road environmental conditions in the forward direction or the backward direction on the basis of the information provided through the electronic device 100, thereby enabling safe running.

이 같이, 도로 상에 존재하는 다양한 오브젝트에 대한 정보를 제공하는 전자 장치(100)는 다음과 같은 환경 조건에서 해당 오브젝트를 검출하지 못한다. In this way, the electronic device 100 providing information on various objects existing on the road can not detect the object under the following environmental conditions.

구체적으로, 도 1에 도시된 바와 같이, 운송 장치가 야간 도로를 주행하는 제1 주행 환경(10)에서, 전자 장치(100)는 촬영된 영상 데이터로부터 보행자에 대한 오브젝트를 검출하지 못한다. 또한, 전자 장치(100)는 운송 장치가 비가 오는 날씨에 도로를 주행하는 제2 주행 환경(20)에서, 전자 장치(100)는 촬영된 영상 데이터로부터 보행자 혹은 주변 차량에 대한 오브젝트를 검출하지 못한다. 또한, 보행자의 일부가 우산에 의해 가려지는 제3 주행 환경(30)에서, 전자 장치(100)는 촬영된 영상 데이터로부터 우산에 의해 가려진 보행자에 대한 오브젝트를 검출하지 못한다. Specifically, as shown in Fig. 1, in the first driving environment 10 in which the transportation apparatus travels on the night road, the electronic device 100 does not detect an object for a pedestrian from photographed image data. In addition, the electronic device 100 can not detect an object for a pedestrian or a nearby vehicle from the photographed image data in the second driving environment 20 where the transportation device travels on the road in the rainy weather . In addition, in the third driving environment 30 in which a part of the pedestrian is covered by the umbrella, the electronic device 100 does not detect the object for the pedestrian obstructed by the umbrella from the photographed image data.

이 같은 환경 조건은 운송 장치를 운전하기 어려운 환경 조건이 될 수 있다. 이 같은 환경 조건에서 전자 장치(100)가 주행 중인 도로 상에 존재하는 오브젝트를 검출하지 못할 경우, 운송 장치를 운전하는 운전자의 사고 발생 확률이 높아질 수 있다.These environmental conditions can be environmental conditions that make the transportation equipment difficult to operate. If the electronic device 100 can not detect an object existing on the road under such an environmental condition, the probability of occurrence of an accident by a driver driving the transportation device can be increased.

이하에서는, 전자 장치(100)의 각 구성에 대해서 상세히 설명하도록 한다.Hereinafter, each configuration of the electronic device 100 will be described in detail.

도 2는 본 발명의 일 실시예에 따른 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 개략적인 블록도이다.2 is a schematic block diagram of an electronic device for detecting objects from image data according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 전자 장치(100)는 입력부(110), 출력부(120), 저장부(130) 및 프로세서(140)를 포함한다.2, the electronic device 100 includes an input unit 110, an output unit 120, a storage unit 130, and a processor 140. The input unit 110, the output unit 120,

입력부(110)는 카메라를 통해 촬영된 영상 데이터를 입력받는다. 출력부(120)는 입력부(110)를 통해 입력된 영상 데이터로부터 비디오 및 오디오 중 적어도 하나를 출력한다. 또한, 출력부(120)는 영상 데이터로부터 검출된 오브젝트에 대한 정보를 비디오 및 오디오 중 적어도 하나를 통해 출력한다. 여기서, 영상 데이터로부터 검출된 오브젝트에 대한 정보는, 오브젝트의 유형 정보, 위치 정보, 이동 정보 중 적어도 하나를 포함할 수 있다.The input unit 110 receives image data photographed through a camera. The output unit 120 outputs at least one of video and audio from the image data input through the input unit 110. [ Also, the output unit 120 outputs information about the object detected from the image data through at least one of video and audio. Here, the information about the object detected from the image data may include at least one of type information of the object, position information, and movement information.

저장부(130)는 촬영된 영상 데이터에 포함된 오브젝트를 나타내는 특징점을 검출하기 위한 복수의 필터를 포함하는 필터 세트를 저장할 수 있다. The storage unit 130 may store a set of filters including a plurality of filters for detecting feature points representing objects included in the photographed image data.

따라서, 후술할 프로세서(140)는 저장부(130)에 저장된 필터 세트를 이용하여 입력부(110)를 통해 입력된 영상 데이터로부터 오브젝트를 검출할 수 있다.Accordingly, the processor 140, which will be described later, can detect the object from the image data input through the input unit 110 using the filter set stored in the storage unit 130. [

구체적으로, 프로세서(140)는 필터 세트에 포함된 복수의 필터를 이용하여 입력부(110)를 통해 입력된 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득한다. 이후, 프로세서(1409)는 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 해당 영상 데이터에 포함된 오브젝트를 검출하고, 검출된 오브젝트에 대한 정보를 출력하도록 출력부(120)를 제어한다.Specifically, the processor 140 acquires feature information indicating an object from the image data input through the input unit 110 using a plurality of filters included in the filter set. Thereafter, the processor 1409 detects an object included in the corresponding image data using the feature information acquired through at least two filters among the plurality of filters, and outputs the information on the detected object. .

여기서, 특징 정보는 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함할 수 있다.Here, the feature information may include a probability value indicating the reliability of the object and position information on the position of the object.

구체적으로, 프로세서(140)는 필터 세트를 구성하는 복수의 필터로부터 획득한 특징 정보 각각을 이용하여 복수의 필터 각각에 대응되는 컨피던스 맵을 생성한다. 이후, 프로세서(140)는 복수의 필터 각각에 대응되는 컨피던스 맵 중 제1 및 제2 컨피던스 맵을 획득하며, 획득한 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성한다. 이후, 프로세서(140)는 파이널 컨피던스 맵을 분석하여 입력부(110)를 통해 입력된 영상 데이터로부터 오브젝트를 검출할 수 있다.Specifically, the processor 140 generates a confidence map corresponding to each of the plurality of filters using each of the characteristic information obtained from the plurality of filters constituting the filter set. Thereafter, the processor 140 acquires first and second confidence maps of the respective confidence maps corresponding to the plurality of filters, and generates the final confidence map using the acquired first and second confidence maps. After that, the processor 140 analyzes the final confidence map and can detect the object from the input image data through the input unit 110. [

여기서, 제1 컨피던스 맵은 복수의 필터 중 기설정된 필터 다음의 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이며, 제2 컨피던스 맵은 복수의 필터 중 마지막 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이 될 수 있다.Here, the first confidence map is a map generated using the feature information acquired from the filter after the predetermined filter among the plurality of filters, and the second confidence map is generated using the feature information acquired from the last filter among the plurality of filters Gt; map < / RTI >

본 발명에서는 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하는 것으로 한정하여 설명하였으나, 본 발명은 이에 한정되지 않으며, 제1 및 제2 컨피던스 맵과, 또다른 필터로부터 획득한 특징 정보를 이용하여 생성된 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성할 수 있다.The present invention is limited to generating the final confidence map using the first and second confidence maps. However, the present invention is not limited to this, and the first and second confidence maps and the feature information The final confidence map can be generated using the generated confidence map.

보다 구체적으로, 프로세서(140)는 필터 세트를 구성하는 복수의 필터 중 제1 필터를 이용하여 입력부(110)를 통해 입력된 영상 데이터로부터 영상 데이터에 포함된 오브젝트를 나타내는 제1 특징 정보를 획득한다. 이후, 프로세서(140)는 전술한 바와 같이, 제1 특징 정보에 기초하여 컨피던스 맵을 생성한다. 이후, 프로세서(140)는 복수의 필터 중 제2 필터를 이용하여, 제1 특징 정보에 기초하여 생성된 컨피던스 맵으로부터 해당 오브젝트를 나타내는 제2 특징 정보를 획득한다. 이후, 프로세서(140)는 제2 특징 정보에 기초하여 생성된 컨피던스 맵을 기설정된 사이즈로 폴링(pooling)한다. 이후, 프로세서(140)는 제3 필터를 이용하여, 폴링된 컨피던스 맵으로부터 해당 오브젝트를 나타내는 제3 특징 정보를 획득한다.More specifically, the processor 140 acquires first characteristic information indicating an object included in the image data from the image data input through the input unit 110 using the first filter among the plurality of filters constituting the filter set . Thereafter, the processor 140 generates a confidence map based on the first feature information, as described above. Thereafter, the processor 140 uses the second filter among the plurality of filters to acquire second characteristic information indicating the object from the confidence map generated based on the first characteristic information. Thereafter, the processor 140 polls the confidence map generated based on the second feature information to a predetermined size. Thereafter, the processor 140 uses the third filter to obtain third feature information representing the object from the polled confidence map.

만약, 제3 필터가 마직막 필터인 경우, 프로세서(140)는 제1 및 제2 필터 중 적어도 하나의 필터로부터 획득한 특징 정보에 기초하여 생성된 컨피던스 맵과 마지막 필터로부터 획득한 제3 특징 정보에 기초하여 생성된 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성할 수 있다.If the third filter is a last filter, the processor 140 determines whether or not the third feature information acquired from the last filter and the confidence map generated based on the feature information obtained from at least one of the first and second filters It is possible to generate the final confidence map using the generated confidence map based on the confidence map.

이후, 프로세서(140)는 기생성된 파이널 컨피던스 맵으로부터 오브젝트의 신뢰도를 나타내는 확률값과 기설정된 임계값을 비교하여 확률값이 기설정된 임계값 이상이면, 영상 데이터로부터 오브젝트를 검출한다. 이후, 프로세서(140)는 검출된 오브젝트의 형태를 바탕으로 해당 오브젝트를 유형 정보를 획득할 수 있다.Thereafter, the processor 140 compares the probability value indicating the reliability of the object with the predetermined threshold value from the preliminarily generated final confidence map, and detects the object from the image data if the probability value is equal to or greater than a preset threshold value. Thereafter, the processor 140 may obtain the type information of the object based on the type of the detected object.

따라서, 프로세서(140)는 입력된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 출력하도록 출력부(120)를 제어할 수 있다.Accordingly, the processor 140 may control the output unit 120 to output at least one of type information, position information, and movement information of the detected object from the input image data.

또한, 프로세서(140)는 입력된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 이용하여 전자 장치(100)와 해당 오브젝트와의 거리 정보, 위험 상황 정보, 사각지대 알림 정보 중 적어도 하나를 생성한다. 이후, 프로세서(140)는 후술할 통신부(150)를 통해 운송 장치 내 구비되어 운송 장치의 주행 정보를 제공하는 타 전자 장치(미도시)로 전송한다. 이에 따라, 타 전자 장치(미도시)는 전자 장치(100)로부터 수신된 정보에 기초하여 기 검출된 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 제공할 수 있다.In addition, the processor 140 may use at least one of the type information, the position information, and the movement information of the object detected from the input image data to calculate distance information between the electronic device 100 and the object, dangerous situation information, Information. ≪ / RTI > Then, the processor 140 transmits the information to another electronic device (not shown) provided in the transportation apparatus through the communication unit 150, which will be described later, and provides the traveling information of the transportation apparatus. Accordingly, the other electronic device (not shown) can provide at least one of distance information, dangerous situation information and blind zone notification information to the previously detected object based on the information received from the electronic device 100. [

이하에서는, 본 발명에 따른 전자 장치(100)에서 영상 데이터로부터 오브젝트를 검출하는 동작에 대해서 보다 상세히 설명하도록 한다.Hereinafter, the operation of detecting an object from image data in the electronic device 100 according to the present invention will be described in more detail.

도 3은 본 발명의 일 실시예에 따른 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 세부 블록도이다.3 is a detailed block diagram of an electronic device for detecting an object from image data according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 프로세서(140)는 제1 내지 제3 연산부(141~143)를 포함하며, 저장부(130)는 필터 저장부(131), 특징 결과 저장부(132) 및 특징 정보 저장부(133)를 포함할 수 있다.3, the processor 140 includes first to third operation units 141 to 143, and the storage unit 130 includes a filter storage unit 131, a feature result storage unit 132, And an information storage unit 133.

구체적으로, 입력부(110)를 통해 최초 영상 데이터가 입력되면, 제1 연산부(141)는 필터 저장부(131)에 기저장된 필터 세트를 구성하는 복수의 필터 중 제1 필터에 설정된 파라메타를 이용하여 영상 데이터로부터 오브젝트에 대한 제1 특징값을 획득하여 특징 결과 저장부(132)에 저장한다.More specifically, when the first image data is input through the input unit 110, the first calculation unit 141 uses the parameters set in the first filter among the plurality of filters included in the filter set previously stored in the filter storage unit 131 Acquires the first characteristic value for the object from the image data, and stores the first characteristic value in the characteristic result storage unit 132.

제2 연산부(142)는 특징 결과 저장부(132)에 저장된 제1 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 제1 특징 정보를 획득하여 특징 정보 저장부(133)에 저장한다. 이에 따라, 제3 연산부(143)는 특징 정보 저장부(133)에 저장된 제1 특징 정보에 기초하여 제1 필터에 대응되는 제1 컨피던스 맵을 생성한다.The second calculation unit 142 obtains the first characteristic information including the probability value representing the reliability of the object and the position information of the object based on the first characteristic value stored in the characteristic result storage unit 132, (133). Accordingly, the third calculation unit 143 generates the first confidence map corresponding to the first filter based on the first feature information stored in the feature information storage unit 133. [

제1 컨피던스 맵이 생성되면, 제1 연산부(141)는 제2 필터에 설정된 파라메타를 이용하여 제1 컨피던스 맵으로부터 해당 오브젝트에 대한 제2 특징값을 획득하여 특징 결과 저장부(132)에 저장한다.When the first confidence map is generated, the first calculation unit 141 acquires the second characteristic value for the object from the first confidence map using the parameter set in the second filter, and stores the acquired second characteristic value in the characteristic result storage unit 132 .

이에 따라, 제2 연산부(142)는 특징 결과 저장부(132)에 저장된 제2 특징값에 기초하여 해당 오브젝트의 신뢰도를 나타내는 확률값 및 위치 정보를 포함하는 제2 특징 정보를 획득하여 특징 정보 저장부(133)에 저장한다. 이에 따라, 제3 연산부(143)는 특징 정보 저장부(133)에 저장된 제2 특징 정보에 기초하여 제2 필터에 대응되는 제2 컨피던스 맵을 생성한다.Accordingly, the second calculation unit 142 acquires second characteristic information including a probability value and positional information indicating the reliability of the object based on the second characteristic value stored in the characteristic result storage unit 132, (133). Accordingly, the third computing unit 143 generates the second confidence map corresponding to the second filter based on the second characteristic information stored in the characteristic information storage unit 133. [

이 같은 일련의 과정을 통해 복수의 필터 중 마지막 필터인 제3 필터에 대응되는 제3 컨피던스 맵이 생성되면, 제3 연산부(143)는 기생성된 제1 내지 제3 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성할 수 있다.If a third confidence map corresponding to the third filter, which is the last filter among the plurality of filters, is generated through the above-described series of processes, the third computing unit 143 uses the generated first to third confidence maps to determine the final confidence You can create a map.

그러나, 본 발명은 이에 한정되지 않으며, 제3 연산부(143)는 기생성된 제1 및 제2 컨피던스 맵 중 하나와, 마지막 필터인 제3 필터에 대응하여 생성된 제3 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성할 수 있다.However, the present invention is not limited to this, and the third calculation unit 143 may use the third confidence map generated corresponding to one of the generated first and second confidence maps and the third filter, You can create a confidence map.

파이널 컨피던스 맵이 생성되면, 제3 연산부(143)는 파이널 컨피던스 맵으로부터 해당 오브젝트의 신뢰도를 나타내는 확률값과 기설정된 임계값을 비교하여 확률값이 기설정된 임계값 이상이면, 해당 오브젝트를 검출하고, 검출된 오브젝트에 대한 정보를 출력부(120)로 전달한다. 이에 따라, 출력부(120)를 입력된 영상 데이터로부터 검출된 오브젝트에 대한 정보를 비디오 및 오디오 중 적어도 하나를 통해 출력할 수 있다.When the final confidence map is generated, the third computing unit 143 compares the probability value indicating the reliability of the object with the preset threshold value from the final confidence map, and if the probability value is equal to or greater than a preset threshold value, And transmits information about the object to the output unit 120. [ Accordingly, the output unit 120 can output information about the object detected from the input image data through at least one of video and audio.

이하에서는, 본 발명에 따른 전자 장치와 종래의 전자 장치에서 입력된 영상 데이터로부터 오브젝트를 검출하는 과정 및 검출 결과를 비교하여 설명하도록 한다.Hereinafter, a process of detecting an object from image data input from an electronic device according to the present invention and a conventional electronic device, and a detection result are compared and described.

도 4는 종래의 전자 장치에서 오브젝트 검출 과정 및 검출 결과를 나타내는 예시도이다.4 is an exemplary diagram showing an object detection process and a detection result in a conventional electronic device.

도 4에 도시된 바와 같이, 종래의 전자 장치(100')는 영상 데이터(410)가 입력되면, 필터 세트에 포함된 복수의 필터를 이용하여 입력된 영상 데이터로부터 오브젝트에 대한 특징값을 획득한다.4, in the conventional electronic device 100 ', when the image data 410 is inputted, a feature value of the object is obtained from the input image data using a plurality of filters included in the filter set .

이 경우, 종래의 전자 장치(100')는 영상 데이터(410)가 입력되면, 제1 필터에 설정된 파라메타를 이용하여 영상 데이터(410)로부터 오브젝트에 대한 제1 특징 정보를 획득한다. 이후, 전자 장치(100')는 제1 특징 정보에 기초하여 제1 필터에 대응되는 제1 컨피던스 맵(conv 1_1)(411)을 획득한다. In this case, when the image data 410 is inputted, the conventional electronic device 100 'acquires the first characteristic information on the object from the image data 410 using the parameter set in the first filter. Thereafter, the electronic device 100 'acquires a first confidence map (conv 1_1) 411 corresponding to the first filter based on the first feature information.

이후, 전자 장치(100')는 제2 필터에 설정된 파라메타를 이용하여 제1 컨피던스 맵(411)로부터 제2 특징 정보를 획득하고, 획득한 제2 특징 정보에 기초하여 제2 필터에 대응되는 제2 컨피던스 맵(conv 1_2)(412)를 획득한다.Thereafter, the electronic device 100 'acquires the second feature information from the first confidence map 411 using the parameter set in the second filter, and based on the acquired second feature information, 2 conviance map (conv 1 - 2) 412.

이후, 전자 장치(100')는 제2 컨피던스 맵(412)을 기설정된 사이즈로 폴링(pool 1)(413)하여 폴링된 컨피던스 맵을 획득한다. 이후, 전자 장치(100')는 제3 필터를 이용하여 폴링된 컨피던스 맵으로부터 제3 특징 정보를 획득하고, 획득한 제3 특징 정보에 기초하여 제3 필터에 대응되는 제3 컨피던스 맵(conv 2_1)(414)를 획득한다.Thereafter, the electronic device 100 'polls the second confidence map 412 to a predetermined size (pool 1) 413 to obtain the polled confidence map. Thereafter, the electronic device 100 'acquires the third feature information from the polled confidence map using the third filter, and based on the acquired third feature information, generates a third confidence map (conv 2_1 ) ≪ / RTI >

이 같은 일련의 처리 과정을 통해 마지막 n 번째 필터에 대응되는 n 번재 컨피던스 맵(conv 5_3)(415)가 획득되면, 종래의 전자 장치(100')는 기획득한 n 번째 컨피던스 맵(415)을 파이널 컨피던스 맵(420)으로 결정한다. When the n-th confidence map (conv 5 - 3) 415 corresponding to the last n-th filter is obtained through the series of processes, the conventional electronic device 100 'acquires the n-th confidence map 415, And determines it as the confidence map 420.

이후, 종래의 전자 장치(100')는 기결정된 파이널 컨피던스 맵(420)으로부터 파이널 특징 정보가 획득되면, 위치 예측기(RPN)(416)를 이용하여 기획득한 파이널 특징 정보로부터 최초 입력된 영상 데이터(410)에 포함된 오브젝트의 위치 정보를 획득한다. 여기서, 전술한 특징 정보는 오브젝트에 대한 특징값이 될 수 있다.Then, when the final feature information is obtained from the predetermined final confidence map 420, the conventional electronic device 100 'generates image data (hereinafter referred to as " final feature information ") from the final feature information estimated using the position predictor 410) of the object. Here, the above-described characteristic information may be a characteristic value for an object.

따라서, 종래의 전자 장치(100')는 위치 예측기(RPN)를 통해 기획득한 파이널 특징 정보에 포함된 특징값으로부터 오브젝트가 위치하는 위치 정보를 획득할 수 있다. Accordingly, the conventional electronic device 100 'can acquire the position information on the object from the feature value included in the final feature information estimated through the position predictor (RPN).

이후, 종래의 전자 장치(100')는 기획득한 파이널 특징 정보에 포함된 특징값으로부터 오브젝트의 유형 정보를 획득한다. 이후, 종래의 전자 장치(100')는 기획득한 오브젝트의 유형 정보 및 위치 정보에 기초하여 해당 오브젝트의 유형 및 위치하는 지점이 표시된 오브젝트 검출 결과 정보(430)를 제공할 수 있다.Thereafter, the conventional electronic device 100 'obtains the type information of the object from the feature values contained in the final feature information acquired. Thereafter, the conventional electronic device 100 'may provide the object detection result information 430 indicating the type and position of the object based on the type information of the object and the position information of the object.

즉, 종래의 전자 장치(100')는 오브젝트 검출 결과 정보(430)를 통해 자동차(431)에 해당하는 제1 오브젝트가 검출된 오브젝트 검출 결과 정보(430)만을 제공한다. That is, the conventional electronic device 100 'provides only the object detection result information 430 in which the first object corresponding to the car 431 is detected through the object detection result information 430.

한편, 입력된 영상 데이터 상에는 자동차(431)에 해당하는 제1 오브젝트 및 제1 오브젝트와 일부 중첩된 사람에 해당하는 제2 오브젝트가 포함될 수 있다. 그러나, 종래의 전자 장치(100')는 제1 오브젝트와 중첩된 제2 오브젝트에 대해서 검출하지 못하고, 전술한 자동차(431)에 해당하는 제1 오브젝트가 검출된 오브젝트 검출 결과 정보(430)만을 제공한다.On the input image data, a first object corresponding to the car 431 and a second object corresponding to a person partially overlapping the first object may be included. However, the conventional electronic device 100 'can not detect the second object overlapped with the first object, and only the object detection result information 430 in which the first object corresponding to the automobile 431 is detected do.

도 5는 본 발명의 일 실시예에 따른 전자 장치에서 오브젝트 검출 과정 및 검출 결과를 나타내는 예시도이다.5 is an exemplary diagram illustrating an object detection process and a detection result in an electronic device according to an exemplary embodiment of the present invention.

도 5에 도시된 바와 같이, 전자 장치(100)는 영상 데이터(510)가 입력되면, 필터 세트에 포함된 복수의 필터 중 제1 필터에 설정된 파라메타를 이용하여 입력된 영상 데이터로부터 오브젝트에 대한 특징값을 획득한다. 이후, 전자 장치(100)는 기획득한 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 특징 정보를 획득한다. 이후, 전자 장치(100)는 기획득한 특징 정보에 기초하여 제1 필터에 대응되는 제1 컨피던스 맵(conv 1_1)(511)을 생성한다.5, when the image data 510 is input, the electronic device 100 extracts characteristics of the object from the input image data using the parameters set in the first filter among the plurality of filters included in the filter set, ≪ / RTI > Thereafter, the electronic device 100 acquires the feature information including the probability value indicating the reliability of the object and the positional information at which the object is located, based on the feature value acquired. Then, the electronic device 100 generates a first confidence map (conv 1 _ 1) 511 corresponding to the first filter based on the characteristic information obtained by the process.

제1 컨피던스 맵(511)이 생성되면, 전자 장치(100)는 제2 필터에 설정된 파라메타를 이용하여 제1 컨피던스 맵(511)으로부터 해당 오브젝트에 대한 특징값을 획득한다. 이후, 전자 장치(100)는 기획득한 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 특징 정보를 획득한다. 이후, 전자 장치(100)는 기획득한 특징 정보에 기초하여 제2 필터에 대응되는 제2 컨피던스 맵(conv 1_2)(512)을 생성한다.When the first confidence map 511 is generated, the electronic device 100 acquires the feature value for the object from the first confidence map 511 using the parameter set in the second filter. Thereafter, the electronic device 100 acquires the feature information including the probability value indicating the reliability of the object and the positional information at which the object is located, based on the feature value acquired. Thereafter, the electronic device 100 generates a second confidence map (conv 1 - 2) 512 corresponding to the second filter based on the characteristic information acquired.

제2 컨피던스 맵(512)이 생성되면, 전자 장치(100)는 기생성된 제2 컨피던스 맵(512)을 기설정된 사이즈로 폴링하여, 폴링된 컨피던스 맵(513)을 생성한다. 이후, 전자 장치(100)는 제3 필터에 설정된 파라메타를 이용하여 폴링된 컨피던스 맵(513)으로부터 해당 오브젝트에 대한 특징값을 획득한다. 이후, 전자 장치(100)는 기획득한 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 특징 정보를 획득한다. 이후, 전자 장치(100)는 기획득한 특징 정보에 기초하여 제3 필터에 대응되는 제3 컨피던스 맵(conv 2_1)(514)을 생성한다.When the second confidence map 512 is generated, the electronic device 100 polls the generated second confidence map 512 to a preset size, and generates a polled confidence map 513. [ Then, the electronic device 100 acquires the feature value for the object from the polled confidence map 513 using the parameter set in the third filter. Thereafter, the electronic device 100 acquires the feature information including the probability value indicating the reliability of the object and the positional information at which the object is located, based on the feature value acquired. Thereafter, the electronic device 100 generates a third confidence map (conv 2_1) 514 corresponding to the third filter based on the feature information that has been estimated.

이 같은 일련의 처리 과정을 통해 마지막 n 번째 필터에 대응되는 n 번재 컨피던스 맵(conv 8_2)(515)가 획득되면, 전자 장치(100)는 n 번재 컨피던스 맵(conv 8_2)(515)과, 이전 컨피던스 맵 중 기정의된 필터에 대응되는 컨피던스 맵을 획득한다. When the n-th confidence map (conv 8_2) 515 corresponding to the last n-th filter is obtained through the series of processes, the electronic device 100 generates an n-th confidence map (conv 8_2) 515, And obtains a confidence map corresponding to the predetermined filter in the confidence map.

이후, 전자 장치(100)는 기획득한 n 번재 컨피던스 맵(conv 8_2)(515)과 기정의된 필터에 대응되는 컨피던스 맵을 참조 컨피던스 맵(이하 제1 내지 제4 참조 컨피던스 맵이라 함)으로 결정한다. 이후, 전자 장치(100)는 제1 내지 제4 참조 컨피던스 맵(521~525)의 사이즈를 동일한 사이즈로 조정한다. 이후, 전자 장치(100)는 동일한 사이즈로 조정된 제1 내지 참조 컨피던스 맵(521~525)을 이용하여 파이널 컨피던스 맵(530)을 생성한다.Then, the electronic device 100 determines the n-th confidence map (conv 8_2) 515 and the confidence map corresponding to the predetermined filter as the reference confidence map (hereinafter referred to as first to fourth reference confidence maps) do. Then, the electronic device 100 adjusts the sizes of the first to fourth reference confidence maps 521 to 525 to the same size. Then, the electronic device 100 generates the final confidence map 530 using the first to the reference confidence maps 521 to 525 adjusted to the same size.

그러나, 본 발명은 이에 한정되지 않으며, 전자 장치(100)는 복수의 필터 각각에 대응하여 컨피던스 맵이 생성될 경우, 각각의 컨피던스 맵의 사이즈를 기설정된 동일한 사이즈로 조정할 수 있다.However, the present invention is not limited to this, and the electronic device 100 can adjust the size of each of the confidence maps to the same predetermined size when a confidence map is generated corresponding to each of the plurality of filters.

파이널 컨피던스 맵(530)이 생성되면, 전자 장치(100)는 기생성된 파이널 컨피던스 맵(530)으로부터 오브젝트를 나타내는 특징 정보를 획득하고, 획득한 특징 정보에 기초하여 기입력된 영상 데이터에 포함된 오브젝트를 검출한다. 이후, 전자 장치(100)는 검출된 오브젝트의 위치 및 유형 정보에 기초하여 입력된 영상 데이터에 대한 오브젝트 검출 결과(540)를 제공한다.When the final confidence map 530 is generated, the electronic device 100 acquires feature information indicating an object from the generated final confidence map 530, and based on the acquired feature information, Object is detected. Then, the electronic device 100 provides the object detection result 540 for the input image data based on the detected object position and type information.

도 4에서 설명한 바와 같이, 입력된 영상 데이터(510) 상에는 자동차에 해당하는 제1 오브젝트 및 제1 오브젝트와 일부 중첩된 사람에 해당하는 제2 오브젝트가 포함될 수 있다.4, the first object corresponding to the automobile and the second object corresponding to the person partially overlapping the first object may be included in the input image data 510. [

이 경우, 본 발명에 따른 전자 장치(100)는 전술한 일련의 수행 과정을 통해 입력된 영상 데이터(510)로부터 자동차에 해당하는 제1 오브젝트(541) 및 제1 오브젝트와 일부 중첩된 사람에 해당하는 제2 오브젝트(542)를 검출하고, 제1 및 제2 오브젝트(541,542)가 검출된 오브젝트 검출 결과 정보(540)를 제공할 수 있다.In this case, the electronic device 100 according to the present invention includes a first object 541 corresponding to a car and a second object corresponding to a person partially overlapping the first object from the input image data 510 through a series of the above- And the first and second objects 541 and 542 may provide the object detection result information 540 that has been detected.

이하에서는, 본 발명에 따른 전자 장치(100)에서 전술한 파이널 컨피던스 맵(530)을 생성하는데 이용된 제1 내지 제5 참조 컨피던스 맵(521~525)의 사이즈를 조정하는 동작에 대해서 설명하도록 한다.Hereinafter, an operation of adjusting the sizes of the first to fifth reference confidence maps 521 to 525 used to generate the above-described final confidence map 530 in the electronic device 100 according to the present invention will be described .

도 6은 본 발명에 따른 전자 장치에서 파이널 컨피던스 맵 생성에 이용되는 참조 컨피던스 맵의 사이즈를 조정하는 예시도이다.6 is an exemplary diagram for adjusting the size of the reference confidence map used for generating the final confidence map in the electronic device according to the present invention.

도 5에서 설명한 바와 같이, 전자 장치(100)는 복수의 필터 각각에 대응되는 컨피던스 맵 중 기정의된 필터에 대응되는 컨피던스 맵과 마지막 n 번째 필터에 대응되는 컨피던스 맵을 제1 내지 제5 참조 컨피던스 맵(521~525)으로 결정할 수 있다.5, the electronic device 100 transmits a confidence map corresponding to a predetermined filter out of the confidence maps corresponding to each of the plurality of filters and a confidence map corresponding to the last n filter to the first through fifth reference confidences Maps 521 to 525 can be determined.

이 같은 제1 내지 제5 참조 컨피던스 맵(521~525)으로 결정으로 결정된 각각의 컨피던스 맵은 기설정된 사이즈로 폴링될 수 있다.Each of the confidence maps determined to be determined by the first to fifth reference confidence maps 521 to 525 can be polled to a predetermined size.

예를 들어, 제1 참조 컨피던스 맵(521)으로 결정된 컨피던스 맵은 80 * 48의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있으며, 제2 참조 컨피던스 맵(522)으로 결정된 컨피던스 맵은 80 * 48의 픽셀 단위에서 40 * 24의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있다.For example, the confidence map determined by the first reference confidence map 521 may be a map that is resized in units of 80 * 48 pixels, and the confidence map determined by the second reference confidence map 522 may be 80 * 48 May be a map whose size is adjusted by 40 * 24 pixels in pixel units.

그리고, 제3 참조 컨피던스 맵(523)으로 결정된 컨피던스 맵은 40 * 24의 픽셀 단위에서 20 * 12의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있으며, 제4 참조 컨피던스 맵(524)으로 결정된 컨피던스 맵은 20 * 12의 픽셀 단위에서 10 * 6의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있다. 그리고, 제5 참조 컨피던스 맵(525)으로 결정된 마지막 n 번째 필터에 대응되는 컨피던스 맵은 10 * 6의 픽셀 단위에서 5 * 3의 픽셀 단위로 사이즈가 조정된 맵이 될 수 있다.The confidence map determined by the third reference confidence map 523 may be a map in which the size is adjusted in units of 20 * 12 pixels in units of 40 * 24 pixels, and the reliability determined in the fourth reference confidence map 524 The map can be a map resized in units of 20 * 12 pixels, or 10 * 6 pixels. Then, the confidence map corresponding to the last nth filter determined by the fifth reference confidence map 525 may be a map in which the size is adjusted in 5 * 3 pixel units in 10 * 6 pixel units.

따라서, 전자 장치(100)는 제1 내지 제5 참조 컨피던스 맵(521~525)으로 결정된 각각의 컨피던스 맵의 사이즈를 기설정된 동일한 사이즈로 조정한다.Therefore, the electronic device 100 adjusts the size of each of the confidence maps determined by the first to fifth reference confidence maps 521 to 525 to the same predetermined size.

실시예에 따라 전자 장치(100)는 제1 내지 제5 참조 컨피던스 맵(521~525)으로 결정된 각각의 컨피던스 맵의 사이즈의 중 가장 큰 사이즈로 표현된 제1 참조 컨피던스 맵(521)에 해당하는 컨피던스 맵의 사이즈로 나머지 제2 내지 제5 컨피던스 맵(522~525)에 해당하는 컨피던스 맵의 사이즈를 조정할 수 있다.According to the embodiment, the electronic device 100 is provided with the first reference confidence map 521 corresponding to the first reference confidence map 521 represented by the largest size among the sizes of the respective confidence maps determined by the first to fifth reference confidence maps 521 to 525 The sizes of the confidence maps corresponding to the remaining second to fifth confidence maps 522 to 525 can be adjusted by the size of the confidence map.

즉, 전자 장치(100)는 제2 내지 제5 컨피던스 맵(522~525)에 해당하는 각각의 컨피던스 맵을 80 * 48의 픽셀 단위의 사이즈로 표현될 수 있도록 조정한다. 이에 따라, 제1 내지 제5 참조 컨피던스 맵(521~525) 각각에 해당하는 컨피던스 맵은 80 * 48의 픽셀 단위의 사이즈로 이루어질 수 있다.That is, the electronic device 100 adjusts each of the confidence maps corresponding to the second to fifth confidence maps 522 to 525 so as to be expressed by a size of 80 * 48 pixels. Accordingly, the reliability map corresponding to each of the first to fifth reference confidence maps 521 to 525 can be a size of 80 * 48 pixels.

이후, 전자 장치(100)는 전술한 바와 같이, 동일한 사이즈로 조정된 제1 내지 제5 참조 컨피던스 맵(521~525)을 이용하여 도 5에서 설명한 바와 같은 파이널 컨피던스 맵(540)을 생성할 수 있다.Then, the electronic device 100 can generate the final confidence map 540 as described in FIG. 5 using the first to fifth reference confidence maps 521 to 525 adjusted to the same size as described above have.

도 7은 본 발명에 따른 전자 장치와 종래의 전자 장치에서 영상 데이터로부터 오브젝트를 검출한 검출 결과를 나타내는 예시도이다.Fig. 7 is an exemplary diagram showing detection results of an object detected from image data in an electronic device and a conventional electronic device according to the present invention. Fig.

도 7의 (a)에 도시된 바와 같이, 종래의 전자 장치(10)는 입력된 영상 데이터 상에 복수의 오브젝트가 서로 중첩되는 경우, 중첩된 오브젝트에 대해서 검출하지 못한다. 예를 들어, 횡단 보도 앞에 정차된 버스가 횡단 보도를 건너는 사람에 의해 일부 가려지거나, 횡단 보도 앞에 정차된 차량와 버스가 서로 중첩되거나, 무리의 사람들이 횡단 보도를 건너는 경우, 종래의 전자 장치(10)는 이 같은 도로 환경을 촬영한 영상 데이터(710)로부터 버스, 차량 및 횡단 보도를 건너는 무리의 사람들에 대한 오브젝트를 검출하지 못한다.As shown in Fig. 7 (a), when the plurality of objects are superimposed on each other on the input image data, the conventional electronic device 10 can not detect the overlapped objects. For example, when a bus stopped in front of a crosswalk is partially obscured by a person crossing the crosswalk, or when a vehicle and a bus stopped in front of the crosswalk overlap each other, or when a crowd crosses the crosswalk, the conventional electronic device 10 Does not detect an object for a crowd of people crossing the bus, the vehicle, and the pedestrian crossing from the image data 710 that photographed such road environment.

반면, 본 발명에 따른 전자 장치(10)는 전술한 실행 과정을 통해 도로 환경을 촬영한 영상 데이터(710)로부터 버스, 차량 및 횡단 보도를 건너는 무리의 사람들 각각에 대한 오브젝트를 검출할 수 있다.On the other hand, the electronic device 10 according to the present invention can detect an object for each of a crowd of people crossing a bus, a vehicle, and a pedestrian crossing from the image data 710 photographed from the road environment through the above-described execution process.

또한, 도 7의 (b)에 도시된 바와 같이, 종래의 전자 장치(10)는 야간의 도로 환경을 촬영한 영상 데이터(720)로부터 주행 중인 차량에 대한 오브젝트를 검출하지 못하는 반면, 본 발명에 다른 전자 장치(10)는 야간의 도로 환경을 촬영한 영상 데이터(720)로부터 주행 중인 차량에 대한 오브젝트를 검출할 수 있다.7B, the conventional electronic device 10 can not detect an object for a running vehicle from image data 720 obtained by photographing a road environment at night, The other electronic device 10 can detect the object for the vehicle under running from the image data 720 photographed at the nighttime road environment.

도 8은 본 발명의 일 실시예에 따른 전자 장치의 오브젝트 검출 결과에 따른 주행 정보를 제공하는 예시도이다.8 is a diagram illustrating an example of providing driving information according to an object detection result of an electronic device according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 전자 장치(100)는 촬영된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 이용하여 기검출된 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 생성하여 운송 장치 내에 구비된 타 전자 장치(200)로 전송한다.8, the electronic device 100 uses the at least one of type information, position information, and movement information of the object detected from the photographed image data to calculate the distance information with respect to the previously detected object, And generates the at least one of the blind zone notification information and transmits it to the other electronic devices 200 provided in the transportation apparatus.

이에 따라, 타 전자 장치(200)는 전자 장치(100)로부터 수신된 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 제공할 수 있다.Accordingly, the other electronic device 200 may provide at least one of distance information with respect to the object received from the electronic device 100, dangerous situation information, and blind zone notification information.

예를 들어, 도 8에 도시된 바와 같이, 타 전자 장치(200)는 운송 장치의 주변 상황에 대한 위험 요소를 시각적으로 제공하는 전자 거울(E-Mirror)(810)를 통해 전자 장치(100)로부터 수신된 사각지대 알림 정보를 제공할 수 있다.8, the other electronic device 200 is connected to the electronic device 100 via an electronic mirror (E-Mirror) 810, which visually provides a risk factor for the circumstance of the transportation device. For example, Lt; RTI ID = 0.0 > notifications. ≪ / RTI >

구체적으로, 타 전자 장치(200)는 전자 장치(100)로부터 사각지대 알림 정보가 수신되면, 수신된 사각지대 알림 정보에 기초하여 전자 거울(810)의 일 영역이 나머지 영역과 상이하게 표시되도록 전자 거울(810)을 제어한다. 이에 따라, 전자 거울(810)의 일 영역은 적색(811)으로 표시됨으로써, 운송 장치의 운전자는 전자 거울(810)에 표시된 알림 정보에 기초하여 운송 장치 주변에 차량이 근접하였음을 인지할 수 있다.Specifically, when the blind zone notification information is received from the electronic device 100, the other electronic device 200 determines that one zone of the mirror 810 is displayed differently from the remaining zone based on the received blind zone notification information Thereby controlling the mirror 810. Accordingly, one area of the electronic mirror 810 is indicated by the red color 811, so that the driver of the transportation apparatus can recognize that the vehicle is close to the transportation apparatus based on the notification information displayed on the electronic mirror 810 .

뿐만 아니라, 타 전자 장치(200)는 주행 정보를 제공하는 헤드 업 디스플레이(HUD)(820)를 통해 전자 장치(100)로부터 수신된 사각지대 알림 정보를 제공할 수 있다.In addition, the other electronic device 200 may provide blind zone notification information received from the electronic device 100 via a head-up display (HUD) 820 that provides driving information.

구체적으로, 타 전자 장치(200)는 전자 장치(100)로부터 사각지대 알림 정보가 수신되면, 수신된 사각지대 알림 정보에 기초하여 주변 차량이 운송 차량에 근접해 있음을 표시하도록 헤드 업 디스플레이를 제어한다. 이에 따라, 헤드 업 디스플레이(820)는 화면의 일 영역(821)에 주변 차량이 운송 차량에 근접해 있음을 표시함으로써, 운송 장치의 운전자는 헤드 업 디스플레이(820)에 표시된 알림 정보에 기초하여 운송 장치 주변에 차량이 근접하였음을 인지할 수 있다.Specifically, when the blind zone notification information is received from the electronic device 100, the other electronic device 200 controls the head-up display to indicate that the neighboring vehicle is close to the transportation vehicle based on the received blind zone notification information . Accordingly, the head-up display 820 indicates to the one area 821 of the screen that the nearby vehicle is close to the transportation vehicle, so that the driver of the transportation device can display, It is possible to recognize that the vehicle is close to the surroundings.

뿐만 아니라, 타 전자 장치(200)는 주행 정보를 제공하는 헤드 업 디스플레이(HUD)(820)를 통해 전자 장치(100)로부터 수신된 주변 차량에 대한 위험 상황 정보를 제공할 수 있다.In addition, the other electronic device 200 can provide dangerous situation information on the neighboring vehicle received from the electronic device 100 through a head-up display (HUD) 820 that provides driving information.

구체적으로, 타 전자 장치(200)는 전자 장치(100)로부터 위험 상황 정보가 수신되면, 수신된 위험 상황 정보에 기초하여 운송 차량 전방에 주변 차량이 근접에 있음을 나타내는 주변 차량 정보(822)를 표시하도록 헤드 업 디스플레이(820)를 제어한다. 이에 따라, 헤드 업 디스플레이(820)는 화면의 일 영역(821)에 운송 차량과 근접한 주변 차량을 또다른 주변 차량과 상이하게 표시함으로써, 운송 장치의 운전자는 헤드 업 디스플레이(820)를 통해 운송 차량이 전방에 있는 주변 차량과 근접하고 있음을 인지할 수 있다.Specifically, when the dangerous situation information is received from the electronic device 100, the other electronic device 200 displays the surrounding vehicle information 822 indicating that the nearby vehicle is in the vicinity of the transportation vehicle on the basis of the received dangerous situation information Up display 820 for display. Accordingly, the head-up display 820 displays a nearby vehicle in a region 821 of the screen differently from another nearby vehicle in the vicinity of the transportation vehicle, so that the driver of the transportation device can display the transportation vehicle It can be recognized that the vehicle is close to the preceding vehicle in the front.

한편, 본 발명에 따른 전자 장치(100)는 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 이용하여 해당 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 독립적으로 제공할 수 있다.Meanwhile, the electronic device 100 according to the present invention uses at least one of the type information, the position information, and the movement information of the detected object to determine at least one of the distance information, the dangerous situation information, As shown in FIG.

이하에서는, 본 발명에 따른 전자 장치(100)의 세부 구성에 대해서 상세히 설명하도록 한다.Hereinafter, the detailed configuration of the electronic device 100 according to the present invention will be described in detail.

도 9는 본 발명의 일 실시예에 따른 전자 장치의 세부 블록도이다.9 is a detailed block diagram of an electronic device according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 전자 장치(100)는 입력부(110), 출력부(120), 저장부(130) 및 프로세서(140) 외에 통신부(150), 촬영부(160) 및 감지부(170)를 더 포함할 수 있다.9, the electronic device 100 includes a communication unit 150, a photographing unit 160, and a sensing unit 160 in addition to the input unit 110, the output unit 120, the storage unit 130, 170).

먼저, 전술한 바와 같이, 입력부(110)는 카메라를 통해 촬영된 영상 데이터를 입력받는다. 뿐만 아니라, 입력부(110)는 다양한 사용자 명령을 입력받아, 프로세서(140)로 전달하기 위한 입력 수단이 될 수 있다. 이 경우, 입력부(110)는 터치 입력이 가능한 터치 패드 혹은 각종 기능키, 숫자키, 문자키 등을 구비한 키 패드(Key Pad)로 구현될 수 있다.First, as described above, the input unit 110 receives image data photographed through a camera. In addition, the input unit 110 may be input means for receiving various user commands and transmitting the user commands to the processor 140. In this case, the input unit 110 may be implemented as a touch pad capable of touch input or a key pad having various function keys, numeric keys, and character keys.

또한, 전술한 출력부(120)는 디스플레이부(121) 및 오디오 출력부(122)를 포함한다. 디스플레이부(121)는 운송 차량의 주행 정보 및 촬영된 영상 데이터에 포함된 비디오 영상을 화면상에 디스플레이한다. 또한, 디스플레이부(121)는 촬영된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나에 기초하여 생성된 해당 오브젝트의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 시각적으로 제공할 수 있다.The output unit 120 includes a display unit 121 and an audio output unit 122. The display unit 121 displays the driving information of the transportation vehicle and the video image included in the photographed image data on the screen. Also, the display unit 121 displays at least one of the distance information, the dangerous situation information, and the blind zone notification information of the object generated based on at least one of the type information, the position information, and the movement information of the object detected from the photographed image data Can be visually provided.

오디오 출력부(122)는 차량의 주행 정보 및 촬영된 영상 데이터에 포함된 오디오 신호 등을 스피커를 통해 가청음 형태로 출력할 수 있다. 또한, 오디오 출력부(122)는 촬영된 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나에 기초하여 생성된 해당 오브젝트의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나에 대한 오디오 신호를 출력할 수 있다.The audio output unit 122 can output driving information of the vehicle and audio signals included in the photographed video data in the form of audible sound through a speaker. The audio output unit 122 may output at least one of the distance information, the dangerous situation information, and the blind zone notification information of the object generated based on at least one of the type information, the position information, and the movement information of the object detected from the photographed image data It is possible to output an audio signal for one.

한편, 디스플레이부(121)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 등으로 구현될 수 있다. 특히, 디스플레이부(121)는 전술한 입력부(110)가 사용자의 터치 입력이 가능한 터치 입력부(미도시)를 포함하는 경우, 터치 입력부(미도시)와 함께 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수 있다.Meanwhile, the display unit 121 may be implemented as a liquid crystal display (LCD), an organic light emitting diode (OLED), or the like. In particular, when the input unit 110 includes a touch input unit (not shown) capable of touch input by the user, the display unit 121 may be implemented as a touch screen having a mutual layer structure together with a touch input unit .

전술한 프로세서(140)는 전자 장치(100)를 구성하는 각 구성에 대한 동작을 전반적으로 제어한다. 특히, 프로세서(140)는 전술한 바와 같이, 입력부(110)를 통해 입력된 영상 데이터로부터 오브젝트를 검출하고, 검출된 오브젝트에 대한 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 제공할 수 있다.The processor 140 described above controls overall operation of each configuration of the electronic device 100. [ In particular, the processor 140 may detect an object from the image data input through the input unit 110 and provide at least one of type information, position information, and movement information for the detected object, as described above.

이 같은 프로세서(140)는 CPU(141), GPU(142), ROM(143) 및 RAM(144)을 포함할 수 있으며, CPU(141), GPU(142), ROM(143) 및 RAM(144)은 버스(145)를 통해 서로 연결될 수 있다.Such a processor 140 may include a CPU 141, a GPU 142, a ROM 143, and a RAM 144 and may include a CPU 141, a GPU 142, a ROM 143, and a RAM 144 May be connected to each other via a bus 145.

CPU(141)는 저장부(130)를 액세스하여, 저장부(130)에 저장된 OS를 이용하여 부팅을 수행한다. 또한 CPU(141)는 저장부(130)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The CPU 141 accesses the storage unit 130 and performs booting using the OS stored in the storage unit 130. [ The CPU 141 also performs various operations using various programs, contents, data stored in the storage unit 130, and the like.

GPU(142)는 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 디스플레이 화면을 생성한다. 구체적으로, GPU(142)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하고, 연상된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 디스플레이 화면을 생성한다. GPU 142 creates a display screen that includes various objects such as icons, images, text, and the like. Specifically, based on the received control command, the GPU 142 calculates attribute values such as coordinate values, shapes, sizes, and colors to be displayed by the respective objects according to the layout of the screen, And generates a display screen of various layouts including the display screen.

ROM(143)은 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, CPU(141)는 ROM(143)에 저장된 명령어에 따라 저장부(130)에 저장된 OS를 RAM(144)에 복사하고, OS를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(141)는 저장부(130)에 저장된 각종 프로그램을 RAM(144)에 복사하고, RAM(144)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 143 stores a command set for booting the system and the like. When the turn-on command is input and power is supplied, the CPU 141 copies the OS stored in the storage unit 130 to the RAM 144 according to the instruction stored in the ROM 143, and executes the OS to boot the system. When the booting is completed, the CPU 141 copies various programs stored in the storage unit 130 to the RAM 144, executes the program copied to the RAM 144, and performs various operations.

이 같은 프로세서(140)는 전술한 각 구성들과 결합되어 단일칩 시스템(System-on-a-chip 또는 System on chip, SOC, SoC)으로 구현될 수 있다.The processor 140 may be implemented as a system-on-a-chip (SOC) or a system-on-chip (SoC) in combination with the above-described components.

한편, 상술한 프로세서(140)의 동작은 저장부(130)에 저장된 프로그램에 의해 이루어질 수 있다. 여기서, 저장부(130)는 ROM(143), RAM(144) 또는 전자 장치(100)에 탈착/장착 가능한 메모리 카드(예, SD 카드, 메모리 스틱), 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나로 구현될 수 있다.Meanwhile, the operation of the processor 140 may be performed by a program stored in the storage unit 130. Here, the storage unit 130 may include a ROM 143, a RAM 144, or a memory card (e.g., SD card, memory stick) removable / attachable to the electronic device 100, a nonvolatile memory, (HDD) or a solid state drive (SSD).

통신부(150)는 전술한 운송 차량 내 구비된 타 전자 장치(200), 운송 차량 내에 있는 스마트 폰과 같은 단말 장치(미도시), 주변 차량에 구비된 전자 장치(100), 주변 차량에 구비된 타 전자 장치(200) 및 교통 상황을 수집하는 서버(미도시) 등과 통신을 수행할 수 있다.The communication unit 150 includes a terminal device (not shown) such as a smart phone in the transportation vehicle, an electronic device 100 provided in the nearby vehicle, And can communicate with other electronic devices 200 and a server (not shown) collecting traffic conditions and the like.

이 같은 통신부(150)는 근거리 무선 통신 모듈(미도시), 무선 통신 모듈(미도시) 등과 같은 통신 모듈로 구현될 수 있다. 여기서, 근거리 무선 통신 모듈(미도시)은 근거리에 위치한 타 전자 장치(200) 혹은 운송 차량 내에 있는 단말 장치(미도시) 등과 무선 통신을 수행하는 통신 모듈로써, 예를 들어, 블루투스(Bluetooth), 지그비(Zigbee), NFC(Near Field Communication) 등이 될 수 있다. The communication unit 150 may be implemented as a communication module such as a short-range wireless communication module (not shown), a wireless communication module (not shown), and the like. Here, the short-range wireless communication module (not shown) is a communication module that performs wireless communication with another electronic device 200 located in a short distance or a terminal device (not shown) in the transportation vehicle, Zigbee, and Near Field Communication (NFC).

무선 통신 모듈(미도시)은 와이파이(WiFi), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Ling Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 교통 상황을 수집하는 서버(미도시) 등과 통신을 수행할 수 있다.The wireless communication module (not shown) accesses the mobile communication network according to various mobile communication standards such as WiFi, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Ling Term Evolution) (Not shown) or the like which collects data.

뿐만 아니라, 통신부(150)는 HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), IEEE(Institute of Electrical and Eletronics Engineers) 1394 등의 유선 통신 모듈 중 적어도 하나를 포함하는 커넥터(미도시)를 더 포함할 수 있다.  이 같은 커넥터(미도시)는 프로세서(140)의 제어 명령에 따라 커넥터(미도시)에 연결된 유선 케이블을 통해 외부 서버(미도시)로부터 전송된 컨텐츠 데이터를 수신하거나, 기저장된 영상 데이터를 외부 기록 매체로 전송할 수 있다.  또한, 커넥터(미도시)는 커넥터(미도시)와 물리적으로 연결된 유선 케이블을 통해 전원 소스로부터 전원을 입력받을 수 있다.In addition, the communication unit 150 may include a connector (not shown) including at least one of wired communication modules such as High-Definition Multimedia Interface (HDMI), Universal Serial Bus (USB), IEEE (Institute of Electrical and Electronics Engineers) As shown in FIG. Such a connector (not shown) receives content data transmitted from an external server (not shown) through a wired cable connected to a connector (not shown) according to a control command of the processor 140, Media. Further, the connector (not shown) can receive power from a power source through a wired cable physically connected to a connector (not shown).

촬영부(160)는 사용자 명령 혹은 이벤트 발생에 따라, 정지 영상 또는 동영상을 촬영하기 위한 것으로써, 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수 있다.The photographing unit 160 photographs a still image or a moving image according to a user command or an event, and may be implemented as a plurality of cameras such as a front camera and a rear camera.

감지부(170)는 주변 밝기, 외부 온도 및 전자 장치(100)의 움직임 등을 감지하는 센서이다. 이 같은 감지부(170)는 조도 센서(미도시), 온도 센서(미도시) 움직임 센서(미도시), 지자기 센서(미도시), 중력 센서(미도시) 및 자이로 센서(미도시) 등을 포함할 수 있다.The sensing unit 170 senses the ambient brightness, the external temperature, and the movement of the electronic device 100. The sensing unit 170 may include an illumination sensor (not shown), a temperature sensor (not shown), a motion sensor (not shown), a geomagnetic sensor (not shown), a gravity sensor (not shown), and a gyro sensor .

조도 센서(미도시)는 주변 환경의 밝기를 감지하며, 온도 센서(미도시)는 외부 온도를 감지하는 센서가 될 수 있다.The illuminance sensor (not shown) senses the brightness of the surrounding environment, and the temperature sensor (not shown) may be a sensor that senses the external temperature.

움직임 센서(Accelerometer Sensor)(미도시)는 이동하는 전자 장치(100)의 가속도나 충격의 세기를 측정하는 가속도 센서이다.  그리고, 지자기 센서(Magnetic Sensor)(미도시)는 지구 자기장을 이용하여 방위각을 탐지할 수 있는 센서이며, 중력 센서(Gravity Sensor)(미도시)는 중력이 어느 방향으로 작용하는지 탐지하는 센서로써, 전자 장치(100)가 구비된 운송 차량이 이동하는 방향에 따라 자동으로 회전하여 방향을 감지한다.  마지막으로, 자이로 센서(Gyroscope Sensor)(미도시)는 기존의 움직임 센서(미도시)에 각각 회전을 넣어 6축 방향을 인식하여 하여 좀더 세밀하고 정밀한 동작을 인식할 수 있도록 도와주는 센서이다.An accelerometer sensor (not shown) is an acceleration sensor that measures the acceleration or impact strength of the moving electronic device 100. A magnetic sensor (not shown) is a sensor that can detect the azimuth using a geomagnetic field. A gravity sensor (not shown) detects a direction in which gravity acts. And automatically rotates according to the moving direction of the transportation vehicle equipped with the electronic device 100 to sense the direction. Finally, a gyroscope sensor (not shown) is a sensor that recognizes the 6-axis direction by rotating each of the existing motion sensors (not shown) to recognize more detailed and precise motion.

지금까지 본 발명에 따른 전자 장치(100)에서 촬영된 영상 데이터로부터 오브젝트를 검출하는 동작에 대해서 상세히 설명하였다. 이하에서는 본 발명에 따른 전자 장치(100)에서 촬영된 영상 데이터로부터 오브젝트를 검출하는 방법에 대해서 상세히 설명하도록 한다.The operation of detecting an object from image data photographed in the electronic device 100 according to the present invention has been described in detail. Hereinafter, a method for detecting an object from image data photographed by the electronic device 100 according to the present invention will be described in detail.

도 10은 본 발명의 일 실시예에 따른 촬영된 영상 데이터로부터 오브젝트를 검출하는 전자 장치의 제어 방법에 대한 흐름도이다.10 is a flowchart of a method of controlling an electronic device for detecting an object from photographed image data according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 전자 장치(100)는 카메라를 통해 촬영된 영상 데이터를 입력받는다(S1010). 영상 데이터가 입력되면, 전자 장치(100)는 기저장된 필터 세트를 구성하는 복수의 필터를 이용하여 기입력된 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득한다(S1020). 이후, 전자 장치(100)는 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 영상 데이터에 포함된 오브젝트를 검출한다(S1030). 이후, 전자 장치(100)는 검출된 오브젝트에 정보를 제공한다(S1040).As shown in Fig. 10, the electronic device 100 receives image data photographed through a camera (S1010). When the image data is input, the electronic device 100 acquires feature information indicating an object from the input image data using a plurality of filters constituting the pre-stored filter set (S1020). Thereafter, the electronic device 100 detects an object included in the image data using the feature information acquired through at least two filters among the plurality of filters (S1030). Then, the electronic device 100 provides information to the detected object (S1040).

여기서, 특징 정보는 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함할 수 있다.Here, the feature information may include a probability value indicating the reliability of the object and position information on the position of the object.

구체적으로, 전자 장치(100)는 필터 세트를 구성하는 복수의 필터로부터 획득한 특징 정보 각각을 이용하여 복수의 필터 각각에 대응되는 컨피던스 맵을 생성한다. 이후, 전자 장치(100)는 복수의 필터 각각에 대응되는 컨피던스 맵 중 기정의된 적어두 두 개의 필터 각각에 대응되는 제1 및 제2 컨피던스 맵을 획득하고, 획득한 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성한다. 이후, 전자 장치(100)는 제1 및 제2 컨피던스 맵을 이용하여 생성된 파이널 컨피던스 맵을 분석하여 기입력된 영상 데이터로부터 오브젝트를 검출할 수 있다.Specifically, the electronic device 100 generates a confidence map corresponding to each of the plurality of filters using each of the feature information obtained from the plurality of filters constituting the filter set. Thereafter, the electronic device 100 obtains the first and second confidence maps corresponding to each of the predetermined two or less filters of the confidence maps corresponding to each of the plurality of filters, and acquires the acquired first and second confidence maps To generate a final confidence map. Then, the electronic device 100 can analyze the final confidence map generated by using the first and second confidence maps, and detect the object from the previously input image data.

이하에서는, 전자 장치(100)에서 복수의 필터를 이용하여 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 방법 및 기획득한 특징 정보에 기초하여 영상 데이터에 포함된 오브젝트를 검출하는 방법에 대해서 상세히 설명하도록 한다.Hereinafter, a method of acquiring feature information representing an object from image data using a plurality of filters in the electronic device 100, and a method of detecting an object included in the image data based on the feature information of interest will be described in detail do.

도 11은 본 발명의 일 실시예에 따른 전자 장치에서 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 방법의 흐름도이다.11 is a flowchart of a method for acquiring feature information representing an object from image data in an electronic device according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 전자 장치(100)는 영상 데이터가 입력되면, 복수의 필터 중 제1 필터를 이용하여 기입력된 영상 데이터로부터 오브젝트를 나타내는 제1 특징 정보를 획득한다(S1110).As shown in FIG. 11, when the image data is input, the electronic device 100 acquires the first characteristic information indicating the object from the image data previously input using the first filter among the plurality of filters (S1110).

이후, 전자 장치(100)는 제2 필터를 이용하여, 제1 특징 정보에 기초하여 생성된 컨피던스 맵으로부터 오브젝트를 나타내는 제2 특징 정보를 획득한다(S1120). 이후, 전자 장치(100)는 제2 특징 정보에 기초하여 생성된 컨피던스 맵을 기설정된 사이즈로 폴링한다(S1130). 이후, 전자 장치(100)는 제3 필터를 이용하여, 기설정된 사이즈로 폴링된 컨피던스 맵으로부터 오브젝트를 나타내는 제3 특징 정보를 획득한다(S1140).Thereafter, the electronic device 100 acquires second feature information indicating an object from the confidence map generated based on the first feature information, using the second filter (S1120). Thereafter, the electronic device 100 polls the confidence map generated based on the second feature information to a predetermined size (S1130). Thereafter, the electronic device 100 acquires third feature information indicating an object from the confidence map polled at a predetermined size using the third filter (S1140).

구체적으로, 전자 장치(100)는 최초 영상 데이터가 입력되면, 복수의 필터 중 제1 필터에 설정된 파라메타를 이용하여 영상 데이터로부터 오브젝트에 대한 제1 특징값을 획득한다. 이후, 전자 장치(100)는 제1 특징값에 기초하여 오브젝트의 신뢰도를 나타내는 확률값 및 해당 오브젝트가 위치하는 위치 정보를 포함하는 제1 특징 정보를 획득한다. 이후, 전자 장치(100)는 획득한 제1 특징 정보에 기초하여 제1 필터에 대응되는 제1 컨피던스 맵을 생성한다.Specifically, when the original image data is input, the electronic device 100 acquires the first characteristic value for the object from the image data using the parameters set in the first filter among the plurality of filters. Thereafter, the electronic device 100 acquires the first feature information including the probability value indicating the reliability of the object and the position information on the object based on the first feature value. Then, the electronic device 100 generates a first confidence map corresponding to the first filter based on the acquired first feature information.

이후, 전자 장치(100)는 제1 필터에 설정된 파라메타를 이용하여 기생성된 제1 컨피던스 맵으로부터 해당 오브젝트에 대한 제2 특징값을 획득한다. 이후, 전자 장치(100)는 제2 특징값에 기초하여 해당 오브젝트의 신뢰도를 나타내는 확률값 및 위치 정보를 포함하는 제2 특징 정보를 획득하고, 획득한 제2 특징 정보에 기초하여 제2 필터에 대응되는 제2 컨피던스 맵을 생성한다.Thereafter, the electronic device 100 acquires the second characteristic value for the object from the first confidence map generated using the parameter set in the first filter. Thereafter, the electronic device 100 acquires second characteristic information including a probability value and positional information indicating the reliability of the object based on the second characteristic value, and acquires, based on the acquired second characteristic information, And generates a second confidence map.

이후, 전자 장치(100)는 제2 컨피던스 맵을 기설정된 사이즈로 폴링한다. 예를 들어, 제2 컨피던스 맵이 80 * 48의 픽셀 단위로 표현된 맵인 경우, 전자 장치(100)는 제2 컨피던스 맵을 40 * 24의 픽셀 단위로 폴링할 수 있다. 이 같이, 제2 컨피던스 맵이 기설정된 사이즈로 폴링되면, 전자 장치(100)는 제3 필터에 설정된 파라메타를 이용하여 기설정된 사이즈로 폴링된 제2 컨피던스 맵으로부터 해당 오브젝트에 대한 제3 특징값을 획득한다. 이후, 전자 장치(100)는 제3 특징값에 기초하여 해당 오브젝트의 신뢰도를 나타내는 확률값 및 위치 정보를 포함하는 제2 특징 정보를 획득하고, 획득한 제2 특징 정보에 기초하여 제2 필터에 대응되는 제3 컨피던스 맵을 생성한다.Thereafter, the electronic device 100 polls the second confidence map at a predetermined size. For example, if the second confidence map is a map expressed in units of 80 * 48 pixels, the electronic device 100 may poll the second confidence map in units of 40 * 24 pixels. When the second confidence map is polled to a preset size, the electronic device 100 uses the parameter set in the third filter to obtain a third characteristic value for the object from the second confidence map polled at a preset size . Thereafter, the electronic device 100 obtains second characteristic information including a probability value and positional information indicating the reliability of the object based on the third characteristic value, and supplies the second characteristic information to the second filter based on the acquired second characteristic information And generates a third confidence map.

이 같은 일련의 처리 과정을 통해 복수의 필터 각각에 대응되는 컨피던스 맵이 생성되면, 전자 장치(100)는 복수의 컨피던스 맵 중 적어도 두 개의 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하고, 생성된 파이널 컨피던스 맵으로부터 오브젝트를 검출할 수 있다.When a confidence map corresponding to each of the plurality of filters is generated through the series of processes, the electronic device 100 generates a final confidence map using at least two of the plurality of confidence maps, The object can be detected from the confidence map.

도 12는 본 발명의 일 실시예에 따른 전자 장치에서 오브젝트를 검출하는 방법의 흐름도이다.12 is a flowchart of a method of detecting an object in an electronic device according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 전자 장치(100)는 복수의 필터로부터 획득한 특징 정보 각각을 이용하여 복수의 필터 각각에 대응되는 컨피던스 맵을 생성한다(S1210). 이후, 전자 장치(100)는 복수이 필터 각각에 대응되는 컨피던스 맵 중 제1 및 제2 컨피던스 맵을 획득한다(S1220) As shown in FIG. 12, the electronic device 100 generates a confidence map corresponding to each of the plurality of filters using each of the feature information obtained from the plurality of filters (S1210). Then, the electronic device 100 acquires the first and second confidence maps of the plurality of the confidence maps corresponding to the respective filters (S1220)

여기서, 제1 컨피던스 맵은 복수의 필터 중 기설정된 필터 다음의 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이며, 제2 컨피던스 맵은 복수의 필터 중 마지막 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이 될 수 있다.Here, the first confidence map is a map generated using the feature information acquired from the filter after the predetermined filter among the plurality of filters, and the second confidence map is generated using the feature information acquired from the last filter among the plurality of filters Gt; map < / RTI >

이 같은 제1 및 제2 컨피던스 맵이 획득되면, 전자 장치(100)는 제1 및 제2 컨피던스 맵을 동일한 사이즈로 조정한다(S1220,S1230). 이후, 전자 장치(100)는 동일한 사이즈로 조정된 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하고, 생성된 파이널 컨피던스 맵을 분석하여 영상 데이터에 포함된 오브젝트를 검출한다(S1240,S1250).When such first and second confidence maps are obtained, the electronic device 100 adjusts the first and second confidence maps to the same size (S1220, S1230). Thereafter, the electronic device 100 generates a final confidence map using the first and second confidence maps adjusted to the same size, analyzes the generated final confidence map, and detects the objects included in the image data (S1240, S1250).

구체적으로, 전자 장치(100)는 파이널 컨피던스 맵으로부터 오브젝트를 나타내는 특징 정보를 획득하고, 획득한 특징 정보에 기초하여 기입력된 영상 데이터에 포함된 오브젝트를 검출할 수 있다. Specifically, the electronic device 100 can acquire the feature information representing the object from the final confidence map, and can detect the object included in the pre-input image data based on the acquired feature information.

보다 구체적으로, 전자 장치(100)는 파이널 컨피던스 맵으로부터 오브젝트를 나타내는 특징 정보가 획득되면, 기획득한 특징 정보에 포함된 오브젝트의 신뢰도를 나타내는 확률값과 기설정된 임계값을 비교한다. 비교 결과, 확률값이 기설정된 임계값 이상이면, 전자 장치(100)는 기획득한 특징 정보에 포함된 오브젝트의 위치 정보에 기초하여 해당 오브젝트를 검출한다. 이후, 전자 장치(100)는 파이널 컨피던스 맵으로부터 검출된 오브젝트의 유형 정보를 획득한다. 이후, 전자 장치(100)는 검출된 오브젝트의 위치 정보, 해당 오브젝트의 유형 정보 및 해당 오브젝트의 이동 정보 중 적어도 하나에 기초하여 기입력된 영상 데이터에 대한 오브젝트 검출 결과를 제공한다.More specifically, when the characteristic information indicating the object is obtained from the final confidence map, the electronic device 100 compares the probability value representing the reliability of the object included in the characteristic information acquired with the predetermined threshold with a preset threshold value. As a result of the comparison, if the probability value is greater than or equal to a predetermined threshold value, the electronic device 100 detects the object based on the positional information of the object included in the characteristic information acquired. Thereafter, the electronic device 100 obtains the type information of the detected object from the final confidence map. Thereafter, the electronic device 100 provides the object detection result for the previously input image data based on at least one of the position information of the detected object, the type information of the object, and the movement information of the object.

한편, 전자 장치(100)는 운송 장치 내 구비된 장치로써, 해당 운송 장치 내에 구비되어 주행 정보를 제공하는 타 전자 장치(200)와 통신을 수행할 수 있다. 이 경우, 전자 장치(100)는 영상 데이터로부터 검출된 오브젝트의 유형 정보, 위치 정보 및 이동 정보 중 적어도 하나를 이용하여 해당 오브젝트와의 거리 정보, 위험 상황 정보 및 사각지대 알림 정보 중 적어도 하나를 타 전자 장치(200)로 전송할 수 있다. 이에 따라, 타 전자 장치(200)는 전자 장치(100)로부터 수신된 정보에 기초하여 전자 거울(E-Mirror) 또는 헤드 업 디스플레이를 통해 해당 오브젝트에 대한 알림 정보를 제공할 수 있다.Meanwhile, the electronic device 100 is an apparatus provided in the transportation apparatus, and can communicate with another electronic apparatus 200 provided in the transportation apparatus and providing travel information. In this case, the electronic device 100 may receive at least one of distance information, dangerous situation information, and blind zone notification information with respect to the object using at least one of type information, position information, and movement information of the object detected from the image data To the electronic device (200). Accordingly, the other electronic device 200 can provide notification information about the object through an electronic mirror (E-Mirror) or a head-up display based on the information received from the electronic device 100.

한편, 상술한 바와 같은 전자 장치(100)의 제어 방법은 적어도 하나의 실행 프로그램으로 구현될 수 있으며, 이러한 실행 프로그램은 비일시적 컴퓨터 판독 가능 매체에 저장될 수 있다.On the other hand, the control method of the electronic device 100 as described above may be implemented as at least one executable program, which executable program may be stored in a non-transitory computer readable medium.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. Specifically, the above-described programs may be stored in a computer-readable recording medium such as a RAM (Random Access Memory), a flash memory, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electronically Erasable and Programmable ROM) Card, a USB memory, a CD-ROM, or the like.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

100 : 전자 장치 110 : 입력부
120 : 출력부 121 : 디스플레이부
122 : 오디오 출력부 130 : 저장부
140 : 프로세서 150 : 통신부
160 : 촬영부 170 : 감지부
100: electronic device 110: input
120: output unit 121: display unit
122: Audio output unit 130:
140: processor 150:
160: photographing unit 170:

Claims (20)

전자 장치의 제어 방법에 있어서,
영상 데이터를 입력받는 단계;
복수의 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하는 단계;
상기 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 상기 영상 데이터에 포함된 오브젝트를 검출하는 단계; 및
상기 검출된 오브젝트에 대한 정보를 제공하는 단계;
를 포함하는 제어 방법.
A method of controlling an electronic device,
Receiving image data;
Obtaining characteristic information representing an object from the image data using a plurality of filters;
Detecting an object included in the image data using feature information acquired through at least two filters among the plurality of filters; And
Providing information about the detected object;
≪ / RTI >
제 1 항에 있어서,
상기 특징 정보는
상기 오브젝트의 신뢰도를 나타내는 확률값 및 상기 오브젝트가 위치하는 위치 정보를 포함하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
The feature information
A probability value indicating the reliability of the object, and position information on which the object is located.
제 1 항에 있어서,
상기 획득하는 단계는,
상기 복수의 필터 중 제1 필터를 이용하여 상기 영상 데이터로부터 상기 오브젝트를 나타내는 제1 특징 정보를 획득하는 단계;
제2 필터를 이용하여, 상기 제1 특징 정보에 기초하여 생성된 컨피던스 맵으로부터 상기 오브젝트를 나타내는 제2 특징 정보를 획득하는 단계;
상기 제2 특징 정보에 기초하여 생성된 컨피던스 맵을 기설정된 사이즈로 폴링(pooling)하는 단계; 및
제3 필터를 이용하여, 상기 폴링된 컨피던스 맵으로부터 상기 오브젝트를 나타내는 제3 특징 정보를 획득하는 단계;
를 포함하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the acquiring comprises:
Obtaining first feature information representing the object from the image data using a first filter of the plurality of filters;
Acquiring second feature information representing the object from a confidence map generated based on the first feature information using a second filter;
The method comprising: pooling a confidence map generated based on the second feature information to a predetermined size; And
Obtaining third feature information representing the object from the polled confidence map using a third filter;
The control method comprising the steps of:
제 2 항에 있어서,
상기 검출하는 단계는,
상기 복수의 필터로부터 획득한 특징 정보 각각을 이용하여 상기 복수의 필터 각각에 대응되는 컨피던스 맵을 생성하는 단계;
상기 복수의 필터 각각에 대응되는 컨피던스 맵 중 제1 및 제2 컨피던스 맵을 획득하는 단계;
상기 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하는 단계; 및
상기 파이널 컨피던스 맵을 분석하여 상기 오브젝트를 검출하는 단계;
를 포함하는 것을 특징으로 하는 제어 방법.
3. The method of claim 2,
Wherein the detecting comprises:
Generating a confidence map corresponding to each of the plurality of filters using feature information obtained from the plurality of filters;
Obtaining a first and a second one of a plurality of confidence maps corresponding to the plurality of filters;
Generating a final confidence map using the first and second confidence maps; And
Analyzing the final confidence map to detect the object;
The control method comprising the steps of:
제 4 항에 있어서,
상기 제1 컨피던스 맵은,
상기 복수의 필터 중 기설정된 필터 다음의 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이며,
상기 제2 컨피던스 맵은,
상기 복수의 필터 중 마지막 필터로부터 획득한 특징 정보를 이용하여 생성된 맵인 것을 특징으로 하는 제어 방법.
5. The method of claim 4,
Wherein the first confidence map comprises:
A map generated by using feature information acquired from a filter next to a predetermined filter among the plurality of filters,
Wherein the second confidence map comprises:
Wherein the map is generated using feature information obtained from the last filter among the plurality of filters.
제 4 항에 있어서,
상기 제1 및 제2 컨피던스 맵의 사이즈를 동일한 사이즈로 조정하는 단계;
를 더 포함하는 것을 특징으로 하는 제어 방법.
5. The method of claim 4,
Adjusting the sizes of the first and second confidence maps to the same size;
Further comprising the steps of:
제 4 항에 있어서,
상기 오브젝트를 검출하는 단계는,
상기 파이널 컨피던스 맵으로부터 상기 오브젝트의 신뢰도를 나타내는 확률값이 기설정된 임계 값 이상인지 여부에 따라, 상기 오브젝트를 검출하는 것을 특징으로 하는 제어 방법.
5. The method of claim 4,
Wherein the detecting the object comprises:
And the object is detected based on whether or not a probability value indicating the reliability of the object is equal to or greater than a predetermined threshold value from the final confidence map.
제 1 항에 있어서,
상기 제공하는 단계는,
상기 검출된 오브젝트의 유형 정보, 위치 정보, 이동 정보 중 적어도 하나를 제공하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the providing step comprises:
And providing at least one of type information, position information, and movement information of the detected object.
제 8 항에 있어서,
상기 전자 장치는 운송 장치 내에 구비되어 주행 정보를 제공하는 타 전자 장치와 통신을 수행하며,
상기 제공하는 단계는,
상기 검출된 오브젝트의 유형 정보, 위치 정보, 이동 정보 중 적어도 하나를 이용하여 상기 오브젝트와의 거리 정보, 위험 상황 정보, 사각지대 알림 정보 중 적어도 하나를 상기 타 전자 장치에 제공하는 것을 특징으로 하는 제어 방법.
9. The method of claim 8,
The electronic device is provided in the transportation device and performs communication with other electronic devices providing driving information,
Wherein the providing step comprises:
And provides at least one of distance information, dangerous situation information, and blind zone notification information to the other electronic device using at least one of type information, position information, and movement information of the detected object Way.
제 1 항에 있어서,
상기 전자 장치는 운송 장치 내에 구비된 장치이며,
상기 영상 데이터는 상기 운송 장치가 주행하는 도로의 전방 영역 또는 후방 영역에 대한 영상 데이터인 것을 특징으로 하는 제어 방법.
The method according to claim 1,
The electronic device is a device provided in a transportation device,
Wherein the image data is image data for a front region or a rear region of a road on which the transportation apparatus travels.
전자 장치에 있어서,
영상 데이터를 입력받는 입력부;
상기 영상 데이터의 오브젝트에 대한 정보를 출력하는 출력부; 및
복수의 필터를 이용하여 상기 영상 데이터로부터 오브젝트를 나타내는 특징 정보를 획득하고,
상기 복수의 필터 중 적어도 두 개 이상의 필터를 통해 획득한 특징 정보를 이용하여 상기 영상 데이터에 포함된 오브젝트를 검출하여 상기 검출된 오브젝트에 대한 정보를 출력하도록 상기 출력부를 제어하는 프로세서;
를 포함하는 전자 장치.
In an electronic device,
An input unit for receiving image data;
An output unit for outputting information on an object of the image data; And
Acquiring feature information indicating an object from the image data using a plurality of filters,
A processor for detecting an object included in the image data using feature information acquired through at least two filters among the plurality of filters and controlling the output unit to output information about the detected object;
≪ / RTI >
제 11 항에 있어서,
상기 특징 정보는
상기 오브젝트의 신뢰도를 나타내는 확률값 및 상기 오브젝트가 위치하는 위치 정보를 포함하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The feature information
A probability value indicating the reliability of the object, and position information on which the object is located.
제 11 항에 있어서,
상기 프로세서는,
상기 복수의 필터 중 제1 필터를 이용하여 상기 영상 데이터로부터 상기 오브젝트를 나타내는 제1 특징 정보를 획득하고,
제2 필터를 이용하여, 상기 제1 특징 정보에 기초하여 생성된 컨피던스 맵으로부터 상기 오브젝트를 나타내는 제2 특징 정보를 획득하며,
상기 제2 특징 정보에 기초하여 생성된 컨피던스 맵을 기설정된 사이즈로 폴링(pooling)하고,
제3 필터를 이용하여, 상기 폴링된 컨피던스 맵으로부터 상기 오브젝트를 나타내는 제3 특징 정보를 획득하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor comprising:
Acquiring first characteristic information representing the object from the image data using a first filter among the plurality of filters,
Acquiring second feature information representing the object from a confidence map generated based on the first feature information using a second filter,
The method comprising the steps of: pooling a confidence map generated based on the second feature information to a preset size;
And acquires third feature information indicating the object from the polled confidence map using a third filter.
제 12 항에 있어서,
상기 프로세서는,
상기 복수의 필터로부터 획득한 특징 정보 각각을 이용하여 상기 복수의 필터 각각에 대응되는 컨피던스 맵을 생성하고,
상기 복수의 필터 각각에 대응되는 컨피던스 맵 중 제1 및 제2 컨피던스 맵을 획득하며,
상기 제1 및 제2 컨피던스 맵을 이용하여 파이널 컨피던스 맵을 생성하고,
상기 파이널 컨피던스 맵을 분석하여 상기 오브젝트를 검출하는 것을 특징으로 하는 전자 장치.
13. The method of claim 12,
The processor comprising:
Generates a confidence map corresponding to each of the plurality of filters using each of the feature information acquired from the plurality of filters,
Acquiring first and second confidence maps of a confidence map corresponding to each of the plurality of filters,
Generates a final confidence map using the first and second confidence maps,
And the object is detected by analyzing the final confidence map.
제 14 항에 있어서,
상기 제1 컨피던스 맵은,
상기 복수의 필터 중 기설정된 필터 다음의 필터로부터 획득한 특징 정보를 이용하여 생성된 맵이며,
상기 제2 컨피던스 맵은,
상기 복수의 필터 중 마지막 필터로부터 획득한 특징 정보를 이용하여 생성된 맵인 것을 특징으로 하는 전자 장치.
15. The method of claim 14,
Wherein the first confidence map comprises:
A map generated by using feature information acquired from a filter next to a predetermined filter among the plurality of filters,
Wherein the second confidence map comprises:
Wherein the map is generated using feature information obtained from the last filter among the plurality of filters.
제 14 항에 있어서,
상기 프로세서는,
상기 제1 및 제2 컨피던스 맵의 사이즈를 동일한 사이즈로 조정하는 것을 특징으로 하는 전자 장치.
15. The method of claim 14,
The processor comprising:
And adjusts the sizes of the first and second confidence maps to the same size.
제 14 항에 있어서,
상기 프로세서는,
상기 파이널 컨피던스 맵으로부터 상기 오브젝트의 신뢰도를 나타내는 확률값이 기설정된 임계 값 이상인지 여부에 따라, 상기 오브젝트를 검출하는 것을 특징으로 하는 전자 장치.
15. The method of claim 14,
The processor comprising:
And detects the object based on whether the probability value indicating the reliability of the object is equal to or greater than a predetermined threshold value from the final confidence map.
제 11 항에 있어서,
상기 프로세서는,
상기 검출된 오브젝트의 유형 정보, 위치 정보, 이동 정보 중 적어도 하나를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor comprising:
And controls the output unit to output at least one of type information, position information, and movement information of the detected object.
제 18 항에 있어서,
운송 장치 내에 구비되어 주행 정보를 제공하는 타 전자 장치와 통신을 수행하는 통신부;를 더 포함하며,
상기 프로세서는,
상기 검출된 오브젝트의 유형 정보, 위치 정보, 이동 정보 중 적어도 하나를 이용하여 상기 오브젝트와의 거리 정보, 위험 상황 정보, 사각지대 알림 정보 중 적어도 하나를 상기 타 전자 장치로 전송하도록 상기 통신부를 제어하는 것을 특징으로 하는 전자 장치.
19. The method of claim 18,
And a communication unit provided in the transportation device and performing communication with another electronic device providing traveling information,
The processor comprising:
And controls the communication unit to transmit at least one of distance information, dangerous situation information, and blind zone notification information to the other electronic device using at least one of type information, position information, and movement information of the detected object .
제 11 항에 있어서,
상기 전자 장치는 운송 장치 내에 구비된 장치이며,
상기 영상 데이터는 상기 운송 장치가 주행하는 도로의 전방 영역 또는 후방 영역에 대한 영상 데이터인 것을 특징으로 하는 전자 장치.




12. The method of claim 11,
The electronic device is a device provided in a transportation device,
Wherein the image data is image data for a front region or a rear region of a road on which the transportation apparatus travels.




KR1020170148111A 2016-11-08 2017-11-08 Electronic apparatus and control method thereof KR102545199B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/806,983 US10558870B2 (en) 2016-11-08 2017-11-08 Electronic apparatus and control method thereof
PCT/KR2017/012616 WO2018088804A1 (en) 2016-11-08 2017-11-08 Electronic apparatus and control method thereof
US16/710,626 US10878257B2 (en) 2016-11-08 2019-12-11 Electronic apparatus and control method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662418924P 2016-11-08 2016-11-08
US62/418,924 2016-11-08
US201662419645P 2016-11-09 2016-11-09
US62/419,645 2016-11-09

Publications (2)

Publication Number Publication Date
KR20180051422A true KR20180051422A (en) 2018-05-16
KR102545199B1 KR102545199B1 (en) 2023-06-19

Family

ID=62452379

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170148111A KR102545199B1 (en) 2016-11-08 2017-11-08 Electronic apparatus and control method thereof

Country Status (2)

Country Link
EP (1) EP3523752A4 (en)
KR (1) KR102545199B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095152B1 (en) * 2019-06-07 2020-03-30 건국대학교 산학협력단 A method of recognizing a situation and apparatus performing the same
KR20210087737A (en) * 2020-01-03 2021-07-13 영남대학교 산학협력단 Object Detection Method Using Multiscale Convolution Filter

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150066799A (en) * 2013-12-09 2015-06-17 현대자동차주식회사 Method And Device for Recognizing a Pedestrian and Vehicle supporting the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4933186B2 (en) * 2006-07-26 2012-05-16 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium
JP5448758B2 (en) * 2009-11-30 2014-03-19 キヤノン株式会社 Information processing apparatus, information processing method, information processing system, program, and data structure

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150066799A (en) * 2013-12-09 2015-06-17 현대자동차주식회사 Method And Device for Recognizing a Pedestrian and Vehicle supporting the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Pablo Arbeláez 외 2명, Hypercolumns for object segmentation and fine-grained localization, 2015 IEEE Conference on Computer Vision and Pattern Recognition (2015.10.15.)* *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095152B1 (en) * 2019-06-07 2020-03-30 건국대학교 산학협력단 A method of recognizing a situation and apparatus performing the same
WO2020246655A1 (en) * 2019-06-07 2020-12-10 건국대학교 산학협력단 Situation recognition method and device for implementing same
CN113767392A (en) * 2019-06-07 2021-12-07 建国大学教产学协力团 Situation recognition method and device for executing same
KR20210087737A (en) * 2020-01-03 2021-07-13 영남대학교 산학협력단 Object Detection Method Using Multiscale Convolution Filter

Also Published As

Publication number Publication date
EP3523752A4 (en) 2019-10-23
EP3523752A1 (en) 2019-08-14
KR102545199B1 (en) 2023-06-19

Similar Documents

Publication Publication Date Title
US11205348B2 (en) Drive assist device
US10303257B2 (en) Communication between autonomous vehicle and external observers
KR102028720B1 (en) Transparent display apparatus for displaying an information of danger element and method thereof
EP3005228B1 (en) Information processing device, approaching object notification method, and program
KR20220000977A (en) Apparatus and method for providing guidance information using crosswalk recognition result
CN111565989B (en) Autonomous driving apparatus and method for autonomous driving of vehicle
US10733879B2 (en) Roadside device, method of controlling roadside device and non-transitory storage medium
US20140063064A1 (en) Information providing method and information providing vehicle therefor
US20210192239A1 (en) Method for recognizing indication information of an indicator light, electronic apparatus and storage medium
CN111710189B (en) Control method for electronic device, and recording medium
CN113165651B (en) Electronic device and control method thereof
US10878257B2 (en) Electronic apparatus and control method thereof
CN114332821A (en) Decision information acquisition method, device, terminal and storage medium
KR102130966B1 (en) Apparatus and method for controlling traffic signal
KR102545199B1 (en) Electronic apparatus and control method thereof
KR101374653B1 (en) Apparatus and method for detecting movement of vehicle
KR102274544B1 (en) Electronic device and image processing method thereof
US11492002B2 (en) Electronic device attached to vehicle and control method therefor
KR101793156B1 (en) System and method for preventing a vehicle accitdent using traffic lights
KR20200070100A (en) A method for detecting vehicle and device for executing the method
JP7192696B2 (en) Control device, vehicle, and control method
KR102299501B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
US20220208004A1 (en) Driving support apparatus, driving support method, and computer-readable recording medium
JP2022042283A (en) Object recognition controller and method for object recognition

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E701 Decision to grant or registration of patent right
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant