KR102112250B1 - 오브젝트 검출 방법 및 장치 - Google Patents

오브젝트 검출 방법 및 장치 Download PDF

Info

Publication number
KR102112250B1
KR102112250B1 KR1020190024717A KR20190024717A KR102112250B1 KR 102112250 B1 KR102112250 B1 KR 102112250B1 KR 1020190024717 A KR1020190024717 A KR 1020190024717A KR 20190024717 A KR20190024717 A KR 20190024717A KR 102112250 B1 KR102112250 B1 KR 102112250B1
Authority
KR
South Korea
Prior art keywords
image
target frame
generating
original image
original
Prior art date
Application number
KR1020190024717A
Other languages
English (en)
Inventor
송호현
최현규
박찬규
Original Assignee
주식회사 넥스트칩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스트칩 filed Critical 주식회사 넥스트칩
Priority to KR1020190024717A priority Critical patent/KR102112250B1/ko
Application granted granted Critical
Publication of KR102112250B1 publication Critical patent/KR102112250B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

영상 내의 오브젝트를 검출하기 위해, 원본 영상을 수신하고, 원본 영상의 일부를 잘라냄으로써 제1 영상을 생성하며, 원본 영상을 미리 설정된 해상도로 다운 스케일링함으로써 제2 영상을 생성하고, 제1 영상 및 제2 영상을 병합함으로써 타겟 프레임을 생성하고, 타겟 프레임을 저장하고, 저장된 타겟 프레임 내의 적어도 하나의 오브젝트를 검출한다.

Description

오브젝트 검출 방법 및 장치{APPRATUS AND METHOD FOR DETECTING OBJECT}
아래의 실시예들은, 영상 내의 오브젝트를 검출하는 방법에 관한 것이다.
ADAS(Advanced Driver Assistance Systems)를 지원하는 차량 또는 자율주행 차량은, 사용자를 보조하거나 또는 차량의 경로를 생성하기 위해 차량 주변의 오브젝트를 자동으로 검출해야 한다. 예를 들어, 차량은 차량의 카메라를 이용하여 차량의 정면을 촬영함으로써 영상을 생성할 수 있다. 생성된 영상 내에는 도로, 다른 차량, 신호등 및 사람 등이 포함될 수 있다. 차량은 영상 내의 오브젝트를 검출하고, 검출된 오브젝트에 기초하여 사용자를 보조하거나, 경로를 생성할 수 있다.
일 실시예는 영상 내의 오브젝트를 검출하는 방법 및 장치를 제공할 수 있다.
다른 일 실시예는 원본 영상을 잘라낸 영상 및 다운 스케일링 영상을 이용하여 오브젝트를 검출하는 방법 및 장치를 제공할 수 있다.
일 측면에 따른, 오브젝트를 검출하는 방법은, 원본 영상을 수신하는 단계, 상기 원본 영상의 일부를 잘라(crop)냄으로써 제1 영상을 생성하는 단계, 상기 원본 영상을 미리 설정된 해상도로 다운 스케일링함으로써 제2 영상을 생성하는 단계, 상기 제1 영상 및 상기 제2 영상을 병합함으로써 타겟 프레임을 생성하는 단계, 상기 타겟 프레임을 저장하는 단계, 및 상기 저장된 타겟 프레임 내의 적어도 하나의 오브젝트를 검출하는 단계를 포함한다.
상기 원본 영상은 고 해상도(High Definition: HD) 영상이고, 상기 제2 영상은 VGA(Video Graphics Array) 영상일 수 있다.
상기 원본 영상 및 상기 제1 영상의 가로 크기는 동일할 수 있다.
상기 제1 영상은 상기 원본 영상 내의 소실점을 포함할 수 있다.
상기 오브젝트를 검출하는 단계는, 미리 설정된 크기의 윈도우를 생성하는 단계, 및 상기 윈도우에 기초하여 상기 타겟 프레임을 스캔함으로써 상기 오브젝트를 검출하는 단계를 포함할 수 있다.
상기 오브젝트 검출 방법은 상기 타겟 프레임을 저장하는 단계는, SDRAM(Synchronous Dynamic Random Access Memory)에 상기 타겟 프레임을 저장하는 단계를 포함할 수 있다.
상기 오브젝트를 검출하는 단계는, 상기 원본 영상 및 상기 제2 영상 중 하나를 다운 스케일링함으로써 제3 영상을 생성하는 단계를 더 포함하고, 상기 타겟 프레임을 생성하는 단계는, 상기 제1 영상, 상기 제2 영상 및 제3 영상을 병합함으로써 상기 타겟 프레임을 생성하는 단계를 포함할 수 있다.
다른 일 측면에 따른, 오브젝트를 검출하는 방법을 수행하는 전자 장치는, 오브젝트를 검출하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 원본 영상을 수신하는 단계, 상기 원본 영상의 일부를 잘라(crop)냄으로써 제1 영상을 생성하는 단계, 상기 원본 영상을 미리 설정된 해상도로 다운 스케일링함으로써 제2 영상을 생성하는 단계, 상기 제1 영상 및 상기 제2 영상을 병합함으로써 타겟 프레임을 생성하는 단계, 상기 타겟 프레임을 저장하는 단계, 및 상기 저장된 타겟 프레임 내의 적어도 하나의 오브젝트를 검출하는 단계를 수행한다.
상기 원본 영상은 고 해상도(High Definition: HD) 영상이고, 상기 제2 영상은 VGA(Video Graphics Array) 영상일 수 있다.
상기 전자 장치는, 상기 원본 영상을 생성하는 카메라를 더 포함할 수 있다.
상기 제1 영상은 상기 원본 영상 내의 소실점을 포함할 수 있다.
상기 오브젝트를 검출하는 단계는, 미리 설정된 크기의 윈도우를 생성하는 단계, 및 상기 윈도우에 기초하여 상기 타겟 프레임을 스캔함으로써 상기 오브젝트를 검출하는 단계를 포함할 수 있다.
상기 타겟 프레임을 저장하는 단계는, SDRAM(Synchronous Dynamic Random Access Memory)에 상기 타겟 프레임을 저장하는 단계를 포함할 수 있다.
상기 프로그램은, 상기 원본 영상 및 상기 제2 영상 중 하나를 다운 스케일링함으로써 제3 영상을 생성하는 단계를 더 수행하고, 상기 타겟 프레임을 생성하는 단계는, 상기 제1 영상, 상기 제2 영상 및 제3 영상을 병합함으로써 상기 타겟 프레임을 생성하는 단계를 포함할 수 있다.
상기 전자 장치는, ADAS(Advanced Driver Assistance Systems)를 지원하는 차량 또는 자율주행 차량에 포함될 수 있다.
영상 내의 오브젝트를 검출하는 방법 및 장치가 제공될 수 있다.
원본 영상을 잘라낸 영상 및 다운 스케일링 영상을 이용하여 오브젝트를 검출하는 방법 및 장치가 제공될 수 있다.
도 1은 일 예에 따른 차량의 원본 영상을 생성하는 방법을 도시한다.
도 2는 일 실시예에 따른 오브젝트를 검출하는 전자 장치의 구성도이다.
도 3은 일 실시예에 따른 오브젝트를 검출하는 방법의 흐름도이다.
도 4는 일 예에 따른 원본 영상에 기초하여 생성된 제1 영상 및 제2 영상을 각각 도시한다.
도 5는 일 예에 따른 제1 영상 및 제2 영상을 병합한 타겟 프레임을 도시한다.
도 6은 일 예에 따른 윈도우에 기초하여 타겟 프레임 내의 오브젝트를 검출하는 방법의 흐름도이다.
도 7은 일 예에 따른 제1 영상, 제2 영상 및 제3 영상을 병합한 타겟 프레임을 도시한다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 차량의 원본 영상을 생성하는 방법을 도시한다.
ADAS(Advanced Driver Assistance Systems)를 지원하는 차량 또는 자율주행 차량은, 사용자를 보조하거나 또는 차량의 경로를 생성하기 위해 차량 주변의 오브젝트를 자동으로 검출해야 한다. 예를 들어, 차량(110)은 차량(110)의 카메라를 이용하여 차량의 정면을 촬영함으로써 영상(120)을 생성할 수 있다. 생성된 영상(120) 내에는 도로, 다른 차량, 신호등 및 사람 등이 포함될 수 있다. 차량(110)은 영상(120) 내의 오브젝트를 검출하고, 검출된 오브젝트에 기초하여 사용자를 보조하거나, 경로를 생성할 수 있다. 도 1의 카메라는 차량의 전방을 향하도록 도시되었으나, 카메라의 방향은 도시된 실시예로 한정되지 않으며, 카메라는 차량의 모든 방향을 촬영할 수 있다.
오브젝트의 검출 정확도 및 검출 속도가 낮은 경우에는, 차량(110)의 보조 기능의 안전성이 보장될 수 없다. 이에 따라, 정확한 오브젝트의 검출 및 검출 속도가 요구된다. 최근에는 차량(110)의 근거리 뿐만 아니라, 원거리에 위치하는 오브젝트의 검출도 요구되고 있다. 원거리에 위치하는 오브젝트는 영상(120) 내의 크기가 작아 검출이 어려울 수 있다. 아래에서, 도 2 내지 도 7을 참조하여, 차량(110)의 근거리에 위치하는 오브젝트 및 원거리에 위치하는 오브젝트를 모두 효율적으로 검출하는 방법에 대해 상세히 설명된다.
도 2는 일 실시예에 따른 오브젝트를 검출하는 전자 장치의 구성도이다.
전자 장치(200)는 통신부(210), 프로세서(220), 및 메모리(230)를 포함한다. 실시예에 따라, 전자 장치(200)는 카메라(240)를 더 포함할 수 있다.
통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.
통신부(210)는 전자 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 전자 장치(300)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.
프로세서(220)는 통신부(310)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.
메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 영상 내의 오브젝트를 검출할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리(230)는 전자 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.
카메라(240)는 장면을 촬영함으로써 영상을 생성한다.
통신부(210), 프로세서(220), 메모리(230) 및 카메라(240)에 대해, 아래에서 도 3 내지 7을 참조하여 상세히 설명된다.
도 3은 일 실시예에 따른 오브젝트를 검출하는 방법의 흐름도이다.
아래의 단계들(310 내지 360)은 도 2를 참조하여 전술된 전자 장치(200)에 의해 수행된다.
단계(310)에서, 전자 장치(200)는 카메라(240)를 이용하여 원본 영상을 생성한다. 예를 들어, 원본 영상은 고 해상도(High Definition: HD) 영상일 수 있으나, 기재된 실시예로 한정되지 않으며 카메라(240)의 성능에 따라 고 해상도 이상의 해상도를 가질 수 있다.
단계(320 및 330)는 독립적이고, 병렬적으로 수행될 수 있다.
단계(320)에서, 전자 장치(200)는 원본 영상의 일부를 잘라(crop)냄으로써 제1 영상을 생성할 수 있다. 예를 들어, 원본 영상이 1280x960의 크기를 갖는 경우, 제1 영상의 크기는 1280x480일 수 있다. 즉, 원본 영상 및 제1 영상의 가로 크기가 동일하고, 세로 크기가 상이하도록 원본 영상을 와이드 크롭(wide-crop)함으로써 제1 영상이 생성될 수 있다.
일 측면에 따르면, 제1 영상은 원본 영상 내의 소실점을 포함하도록 생성될 수 있다. 원본 영상 내의 소실점을 포함하는 제1 영상에 대해 아래에서 도 4를 참조하여 상세히 설명된다.
단계(330)에서, 전자 장치(200)는 원본 영상을 다운 스케일링(down scaling)함으로써 제2 영상을 생성한다. 예를 들어, 원본 영상이 고 해상도(High Definition: HD) 영상인 경우, 다운 스케일링된 제2 영상은 VGA(Video Graphics Array) 영상일 수 있다. 원본 영상 및 제2 영상은 해상도가 상이할 뿐, 동일한 장면을 포함하고 있다. 제2 영상에 대해, 아래에서 도 4를 참조하여 상세히 설명된다.
단계(340)에서, 전자 장치(200)는 제1 영상 및 제2 영상을 병합함으로써 타겟 프레임(target frame)을 생성한다. 예를 들어, 타겟 프레임은 제1 영상 및 제2 영상이 하나의 영상으로 병합된 프레임일 수 있다. 다른 예로, 타겟 프레임은 제1 영상 및 제2 영상을 각각 포함하는 프레임일 수 있다. 아래에서 도 5를 참조하여, 하나의 영상으로 나타나는 타겟 프레임에 대해 상세히 설명된다.
단계(350)에서, 전자 장치(200)는 메모리(230)에 타겟 프레임을 저장한다. 예를 들어, 메모리(230)는 SDRAM(Synchronous Dynamic Random Access Memory)을 포함할 수 있고, SDRAM에 타겟 프레임이 저장될 수 있다.
단계(360)에서, 전자 장치(200)는 저장된 타겟 프레임 내의 오브젝트를 검출한다. 오브젝트의 검출은 오브젝트 인식과 동일한 의미로 이해될 수 있다. 예를 들어, 검출된 오브젝트는 차량의 운전자의 운전을 보조하기 위해 이용될 수 있다. 전자 장치(200)는 운전자에게 오브젝트에 대한 정보를 알려주거나, 해당 오브젝트를 회피하기 위해 차량의 기계 장치를 제어할 수 있다. 다른 예로, 검출된 오브젝트는 자율 주행 경로의 생성을 위해 이용될 수 있다.
일 예에 따르면, 타겟 프레임에 대해 설정된 윈도우(window)를 이용하여 오브젝트가 검출될 수 있다. 오브젝트를 검출하는 방법에 대해, 아래에서 6을 참조하여 상세하게 설명된다.
도 4는 일 예에 따른 원본 영상에 기초하여 생성된 제1 영상 및 제2 영상을 각각 도시한다.
VGA 급의 영상을 위한 오브젝트를 인식하는 알고리즘 또는 엔진을 이용하여 HD 급의 영상 내의 오브젝트를 검출하기 위해서는 추가의 처리가 필요하다. HD 급의 영상을 VGA 급의 영상으로 다운 스케일링해야한다. 또한, HD 급의 영상을 SDRAM에 저장해야 하므로, 기존의 VGA 급의 영상을 저장하는 것 보다 많은 리소스가 소모된다.
상기의 문제점을 해소하기 위해, HD 급의 원본 영상(410)을 잘라낸 제1 영상(420) 및 원본 영상(410)을 다운 스케일링한 제2 영상(430)이 동시에 오브젝트 검출을 위해 이용될 수 있다. 촬영된 원본 영상(410) 내에서 원거리에 위치한 오브젝트는 근거리에 위치한 오브젝트에 비해 상대적으로 크기가 작으므로, 추가의 다운 스케일링이 없더라도 기존의 엔진을 이용하여 검출될 수 있다. 반면에, 촬영된 원본 영상(410) 내에서 근거리에 위치한 오브젝트를 검출하기 위해 소요되는 시간은 해상도가 낮은 제2 영상(430)이 제1 영상(420)에 비해 적다.
일 실시예에 따른, 원본 영상(410) 내에는 의자(412) 및 다른 차량(411)이 포함될 수 있다. 예를 들어, 의자(412)는 근거리 오브젝트이고, 다른 차량(411)은 원거리 오브젝트일 수 있다. 제1 영상(420)은 원거리 오브젝트인 다른 차량(4110)을 검출하기 위해 이용될 수 있고, 제2 영상(430)은 근거리 오브젝트인 의자(412)를 검출하기 위해 이용될 수 있다.
원거리 오브젝트는 일반적으로 원본 영상(410)의 소실점(413)의 부근에 위치할 수 있다. 이에 따라, 제1 영상(420)은 원본 영상(410)의 소실점(413)을 포함하도록 생성될 수 있다. 예를 들어, 전자 장치(200)는 원본 영상(410) 내의 소실점(413)을 검출하고, 검출된 소실점(413)을 기준으로 원본 영상(410)의 일부를 잘라냄으로써 제1 영상(420)을 생성할 수 있다. 다른 예로, 일반적으로 카메라가 정면을 향해 설치된 경우, 소실점은 원본 영상(410)의 중심 영역과 가까운 곳에 나타나므로, 원본 영상(410)의 중심 영역을 포함하는 영역이 제1 영상(420)을 위해 미리 설정될 수 있다. 제1 영상(420) 내에는 소실점(422) 및 원거리 오브젝트인 다른 차량(421)이 포함될 수 있으나, 근거리 오브젝트인 의자(412)는 제외될 수 있다. 제2 영상(430)을 만을 이용하여 오브젝트를 검출하는 것에 비하여 제1 영상(420)을 추가로 이용하는 경우, 원거리의 오브젝트가 검출될 수 있다.
원본 영상(410)을 다운 스케일링함으로써 생성된 제2 영상(430)은 원본 영상(410)의 장면과 동일한 장면을 포함한다. 즉, 제2 영상(430)은 소실점(433), 다른 차량(431) 및 의자(432)를 포함한다.
도 5는 일 예에 따른 제1 영상 및 제2 영상을 병합한 타겟 프레임을 도시한다.
전자 장치(200)는 제1 영상(420) 및 제2 영상(430)을 병합함으로써 타겟 프레임(500)을 생성하고, 생성된 타겟 프레임(500)을 SDRAM에 저장할 수 있다. 타겟 프레임(500)이 하나의 영상으로 도시되었으나, 타겟 프레임(500)은 개별적인 제1 영상(420) 및 제2 영상(430)을 동일한 시간 구간 내에서 처리하기 위한 개념일 수 있다. 시간 구간은 카메라가 원본 영상(410)을 생성하는 주기에 영향을 받는 인자일 수 있다.
타겟 프레임(500)을 저장하기 위한 SDRAM의 리소스는 영상 또는 프레임의 픽셀의 개수에 비례한다. 예를 들어, 제1 영상(420)이 1280x960 크기이고, 제2 영상(430)이 640x480 크기인 경우, 타겟 프레임(500)을 위해 소모되는 리소스는 614400+307200=921600일 수 있다. 이에 반하여, 원본 영상(410)을 위해 소모되는 리소스는 1228800일 수 있다. 이에 따라, 타겟 프레임(500)은 원본 영상(410)에 비해 적은 리소스를 소모한다.
타겟 프레임(500)의 제1 영상(420)에 기초하여 원거리 오브젝트인 다른 차량이 검출될 수 있고, 제2 영상(430)에 기초하여 근거리 오브젝트인 의자가 검출될 수 있다.
타겟 프레임(500)에 기초한 오브젝트 검출 방법은 원거리 오브젝트 및 근거리 오브젝트를 동시에 신속하게 검출할 수 있고, 영상을 저장하기 위해 소모되는 리소스를 감소시킬 수 있다. 또한 매 프레임 마다 원거리 오브젝트 및 근거리 오브젝트를 검출함으로써 빨리 움직이는 오브젝트를 정확하게 검출할 수 있다.
도 6은 일 예에 따른 윈도우에 기초하여 타겟 프레임 내의 오브젝트를 검출하는 방법의 흐름도이다.
일 측면에 따른, 도 3을 참조하여 전술된 단계(360)는 아래의 단계들(610 및 620)을 포함할 수 있다.
단계(610)에서, 전자 장치(200)는 미리 설정된 크기의 윈도우 생성한다. 예를 들어, 미리 설정된 크기의 윈도우는 VGA 급의 영상 내의 오브젝트를 검출하기 위한 엔진에서 이용되는 윈도우일 수 있다.
단계(620)에서, 전자 장치(200)는 윈도우에 기초하여 타겟 프레임(500)을 스캔함으로써 오브젝트를 검출한다. 예를 들어, 전자 장치(200)는 윈도우를 타겟 프레임(500) 내에서 이동시키면서 오브젝트를 검출할 수 있다.
윈도우의 크기를 변경하지 않더라도, 타겟 프레임(500) 내에는 다양한 스케일의 영상 들이 포함될 수 있으므로, 각각의 영상에 대해서는 윈도우의 크기가 변경된 것 같은 효과가 나타날 수 있다. 한 가지의 윈도우를 이용하여 타겟 프레임(500)을 스캔하는 경우, 시간 효율적으로 오브젝트가 검출될 수 있다.
도 7은 일 예에 따른 제1 영상, 제2 영상 및 제3 영상을 병합한 타겟 프레임을 도시한다.
일 측면에 따르면, 전자 장치(200)는 추가적으로 원본 영상(410) 및 제2 영상(430) 중 하나를 다운 스케일링함으로써 제3 영상(710)을 생성할 수 있다. 즉, 제3 영상(710)은 원본 영상(410)의 장면과 동일한 장면을 나타낼 수 있다. 제3 영상(710)의 크기는 320x240일 수 있다.
타겟 프레임(700)은 제1 영상(420) 및 제2 영상(430)과 함께 제3 영상(430)을 더 포함할 수 있다. 타겟 프레임(700)이 제3 영상(430)을 포함하더라도, 타겟 프레임(700)을 위해 소모되는 리소스는 614400+307200+76800=998400일 수 있다. 여전히, 타겟 프레임(700)은 원본 영상(410)에 비해 적은 리소스를 소모한다. 제3 영상(710)에 의해 제1 영상(410) 및 제2 영상(420) 보다 근거리의 오브젝트가 더 잘 검출될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
200: 전자 장치
210: 통신부
220: 프로세서
230: 메모리
240: 카메라

Claims (16)

  1. 카메라를 이용하여 미리 설정된 주기로 원본 영상을 생성하는 단계;
    상기 원본 영상 내의 소실점이 포함되도록 상기 원본 영상의 일부를 잘라(crop)냄으로써 상기 원본 영상의 해상도와 동일한 해상도를 갖는 제1 영상을 생성하는 단계;
    상기 원본 영상을 미리 설정된 해상도로 다운 스케일링함으로써 제2 영상을 생성하는 단계;
    상기 제1 영상 및 상기 제2 영상을 병합함으로써 하나의 영상인 타겟 프레임을 생성하는 단계;
    상기 타겟 프레임을 저장하는 단계; 및
    상기 타겟 프레임에 대해 미리 설정된 크기를 갖는 하나의 윈도우를 이용하여 상기 타겟 프레임을 스캔함으로써 상기 미리 설정된 주기 내에서 상기 저장된 타겟 프레임 내의 적어도 하나의 오브젝트를 검출하는 단계
    를 포함하는,
    오브젝트 검출 방법.
  2. 제1항에 있어서,
    상기 원본 영상은 고 해상도(High Definition: HD) 영상이고,
    상기 제2 영상은 VGA(Video Graphics Array) 영상인,
    오브젝트 검출 방법.
  3. 제1항에 있어서,
    상기 원본 영상 및 상기 제1 영상의 가로 크기는 동일한,
    오브젝트 검출 방법.
  4. 제1항에 있어서,
    상기 제1 영상을 생성하는 단계는,
    상기 원본 영상 내의 상기 소실점을 검출하는 단계
    를 포함하는,
    오브젝트 검출 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 타겟 프레임을 저장하는 단계는,
    SDRAM(Synchronous Dynamic Random Access Memory)에 상기 타겟 프레임을 저장하는 단계
    를 포함하는,
    오브젝트 검출 방법.
  7. 제1항에 있어서,
    상기 원본 영상 및 상기 제2 영상 중 하나를 다운 스케일링함으로써 제3 영상을 생성하는 단계
    를 더 포함하고,
    상기 타겟 프레임을 생성하는 단계는,
    상기 제1 영상, 상기 제2 영상 및 제3 영상을 병합함으로써 상기 타겟 프레임을 생성하는 단계
    를 포함하는,
    오브젝트 검출 방법.
  8. 제1항, 제2항, 제3항, 제4항, 제6항 및 제7항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
  9. 오브젝트를 검출하는 방법을 수행하는 전자 장치는,
    오브젝트를 검출하는 프로그램이 기록된 메모리; 및
    상기 프로그램을 수행하는 프로세서
    를 포함하고,
    상기 프로그램은,
    카메라를 이용하여 미리 설정된 주기로 원본 영상을 생성하는 단계;
    상기 원본 영상 내의 소실점이 포함되도록 상기 원본 영상의 일부를 잘라(crop)냄으로써 상기 원본 영상의 해상도와 동일한 해상도를 갖는 제1 영상을 생성하는 단계;
    상기 원본 영상을 미리 설정된 해상도로 다운 스케일링함으로써 제2 영상을 생성하는 단계;
    상기 제1 영상 및 상기 제2 영상을 병합함으로써 하나의 영상인 타겟 프레임을 생성하는 단계;
    상기 타겟 프레임을 저장하는 단계; 및
    상기 타겟 프레임에 대해 미리 설정된 크기를 갖는 하나의 윈도우를 이용하여 상기 타겟 프레임을 스캔함으로써 상기 미리 설정된 주기 내에서 상기 저장된 타겟 프레임 내의 적어도 하나의 오브젝트를 검출하는 단계
    를 수행하는,
    전자 장치.
  10. 제9항에 있어서,
    상기 원본 영상은 고 해상도(High Definition: HD) 영상이고,
    상기 제2 영상은 VGA(Video Graphics Array) 영상인,
    전자 장치.
  11. 제9항에 있어서,
    상기 원본 영상을 생성하는 카메라
    를 더 포함하는,
    전자 장치.
  12. 제9항에 있어서,
    상기 제1 영상을 생성하는 단계는,
    상기 원본 영상 내의 상기 소실점을 검출하는 단계
    를 포함하는,
    전자 장치.
  13. 삭제
  14. 제9항에 있어서,
    상기 타겟 프레임을 저장하는 단계는,
    SDRAM(Synchronous Dynamic Random Access Memory)에 상기 타겟 프레임을 저장하는 단계
    를 포함하는,
    전자 장치.
  15. 제9항에 있어서,
    상기 프로그램은,
    상기 원본 영상 및 상기 제2 영상 중 하나를 다운 스케일링함으로써 제3 영상을 생성하는 단계
    를 더 수행하고,
    상기 타겟 프레임을 생성하는 단계는,
    상기 제1 영상, 상기 제2 영상 및 제3 영상을 병합함으로써 상기 타겟 프레임을 생성하는 단계
    를 포함하는,
    전자 장치.
  16. 제9항에 있어서,
    상기 전자 장치는, ADAS(Advanced Driver Assistance Systems)를 지원하는 차량 또는 자율주행 차량에 포함되는,
    전자 장치.
KR1020190024717A 2019-03-04 2019-03-04 오브젝트 검출 방법 및 장치 KR102112250B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190024717A KR102112250B1 (ko) 2019-03-04 2019-03-04 오브젝트 검출 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190024717A KR102112250B1 (ko) 2019-03-04 2019-03-04 오브젝트 검출 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102112250B1 true KR102112250B1 (ko) 2020-05-19

Family

ID=70913441

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190024717A KR102112250B1 (ko) 2019-03-04 2019-03-04 오브젝트 검출 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102112250B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014831A1 (ko) * 2020-07-14 2022-01-20 주식회사 넥스트칩 오브젝트 검출 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150102525A (ko) * 2014-02-28 2015-09-07 경북대학교 산학협력단 동등-높이 정합 영상을 이용하여 물체를 검출하기 위한 영상 처리 장치 및 방법, 그리고 그를 이용한 차량 운전 보조 시스템
KR101920281B1 (ko) * 2017-06-26 2018-11-21 (주)넥스트칩 차량 내에서 입력 영상 데이터로부터 객체를 검출하는 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150102525A (ko) * 2014-02-28 2015-09-07 경북대학교 산학협력단 동등-높이 정합 영상을 이용하여 물체를 검출하기 위한 영상 처리 장치 및 방법, 그리고 그를 이용한 차량 운전 보조 시스템
KR101920281B1 (ko) * 2017-06-26 2018-11-21 (주)넥스트칩 차량 내에서 입력 영상 데이터로부터 객체를 검출하는 장치 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014831A1 (ko) * 2020-07-14 2022-01-20 주식회사 넥스트칩 오브젝트 검출 방법 및 장치
KR20220008613A (ko) * 2020-07-14 2022-01-21 주식회사 넥스트칩 오브젝트 검출 방법 및 장치
KR102426562B1 (ko) 2020-07-14 2022-07-29 주식회사 넥스트칩 오브젝트 검출 방법 및 장치

Similar Documents

Publication Publication Date Title
KR102541559B1 (ko) 관심 객체를 검출하는 방법 및 장치
CN111815981B (zh) 用于检测远距离道路上的物体的系统和方法
JP2021185548A (ja) 物体検出装置、物体検出方法およびプログラム
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US11462112B2 (en) Multi-task perception network with applications to scene understanding and advanced driver-assistance system
CN109118532B (zh) 视觉景深估计方法、装置、设备及存储介质
US20220180483A1 (en) Image processing device, image processing method, and program
KR20220042313A (ko) 포인트 클라우드 데이터 라벨링 방법, 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체
KR102633140B1 (ko) 주행 정보를 결정하는 방법 및 장치
CN109063603B (zh) 基于区域动态筛选的图像预测方法和装置及电子设备
KR101920281B1 (ko) 차량 내에서 입력 영상 데이터로부터 객체를 검출하는 장치 및 방법
US11443151B2 (en) Driving assistant system, electronic device, and operation method thereof
WO2020154990A1 (zh) 目标物体运动状态检测方法、设备及存储介质
EP3716210A1 (en) Three-dimensional point group data generation method, position estimation method, three-dimensional point group data generation device, and position estimation device
US11250274B2 (en) In-vehicle device and control method
KR101699014B1 (ko) 스테레오 카메라를 이용한 객체 검출 방법 및 장치
KR20200028679A (ko) 차선을 검출하는 방법 및 장치
CN115147328A (zh) 三维目标检测方法及装置
KR102112250B1 (ko) 오브젝트 검출 방법 및 장치
KR102426562B1 (ko) 오브젝트 검출 방법 및 장치
KR20220097682A (ko) 인공지능 기반의 차량과 객체 간의 충돌 위험도 검출 시스템 및 방법
KR101875517B1 (ko) 영상 처리 방법 및 장치
US20210302991A1 (en) Method and system for generating an enhanced field of view for an autonomous ground vehicle
JP2008282106A (ja) 障害物検出方法および障害物検出装置
CN112241656A (zh) 图像检测方法和设备、处理器芯片电路以及存储介质

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant