KR101875517B1 - 영상 처리 방법 및 장치 - Google Patents
영상 처리 방법 및 장치 Download PDFInfo
- Publication number
- KR101875517B1 KR101875517B1 KR1020160172352A KR20160172352A KR101875517B1 KR 101875517 B1 KR101875517 B1 KR 101875517B1 KR 1020160172352 A KR1020160172352 A KR 1020160172352A KR 20160172352 A KR20160172352 A KR 20160172352A KR 101875517 B1 KR101875517 B1 KR 101875517B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- candidate regions
- target object
- candidate
- processor
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000007781 pre-processing Methods 0.000 claims abstract description 45
- 238000003672 processing method Methods 0.000 claims abstract description 11
- 238000004891 communication Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- G06K9/00791—
-
- G06K9/4676—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
영상을 처리하는 방법 및 장치가 제공된다. 영상 처리 방법 및 장치는 장면을 촬영한 영상을 수신하고, 전-처리 프로세서가 영상에 기초하여 타겟 오브젝트가 존재할 것으로 판단되는 후보 영역들을 영상 내에 설정하며, 후보 영역들에 대한 정보를 메인 프로세서로 전송하고, 메인 프로세서가 후보 영역들에 대한 정보에 기초하여 영상 내의 타겟 오브젝트를 검출한다.
Description
기술 분야는 영상을 처리하는 기술에 관한 것으로, 특히, 복수의 프로세서들을 이용하여 영상을 처리하는 기술에 관한 것이다.
자율 주행 차량은 승용 차량 플랫폼에 추가적인 센서들을 장착하고, 센서들에 의해 수집된 차량 주행 정보와 주변 환경 정보들을 통합하여 주행 경로를 생성한다. 그러나, 처리해야 할 정보들이 증가함에 따라, 통합적이고 효율적인 데이터 획득 및 생성 시스템 구성이 필요하고, 특히 장애물 및 차량의 주변 환경을 인지할 수 있는 시스템의 효율적 구성이 요구된다.
한국등록 특허 제 10-1510745(공고일 2015년 04월 03일)에는 3차원 레이저 스캐너를 이용한 차량의 무인 자율주행 시스템에 관한 발명이 개시된다. 공개 발명은, 무인 차량의 다양한 주변 환경 정보를 효율적으로 획득하고, 실제 환경에 근접한 환경정보를 실시간으로 높은 인지율을 가지고 인지할 수 있는 환경인지 시스템을 제공할 뿐만 아니라, 영상 정보 수집센서의 인식을 더욱 효과적으로 할 수 있고, 영상센서의 인식오류를 제거하여 차량의 환경인지 인식율을 높여 양질의 무인자율 주행 시스템 및 그 방법을 제공한다.
일 실시예는 영상 처리 장치 및 방법을 제공할 수 있다.
일 실시예는 복수의 프로세서들을 이용하는 영상 처리 장치 및 방법을 제공할 수 있다.
일 측면에 따른, 영상 처리 방법은 장면(scene)을 촬영한 영상을 수신하는 단계; 전-처리(pre-processing) 프로세서가 상기 영상에 기초하여 타겟 오브젝트(target object)가 존재할 것으로 판단되는 하나 이상의 후보(candidate) 영역들을 상기 영상 내에 설정하는 단계; 상기 하나 이상의 후보 영역들에 대한 정보를 메인(main) 프로세서로 전송하는 단계; 및 상기 메인 프로세서가 상기 하나 이상의 후보 영역들에 대한 정보에 기초하여 상기 영상 내의 타겟 오브젝트를 검출하는 단계를 포함한다.
상기 영상은 차량의 주위를 촬영한 영상이고, 상기 전-처리 프로세서 및 상기 메인 프로세서는 상기 차량을 제어하는 제어 장치에 포함될 수 있다.
상기 영상 처리 방법은 상기 메인 프로세서가 검출된 상기 타겟 오브젝트에 기초하여 상기 차량을 제어하는 단계를 더 포함할 수 있다.
하나 이상의 후보 영역들을 상기 영상 내에 설정하는 단계는, 상기 영상에 기초하여 오브젝트가 존재할 것으로 판단되는 하나 이상의 예비 후보 영역들을 상기 영상 내에 설정하는 단계; 및 상기 하나 이상의 예비 후보 영역들 중 상기 하나 이상의 후보 영역들을 결정하는 단계를 포함할 수 있다.
상기 하나 이상의 예비 후보 영역들 중 상기 하나 이상의 후보 영역들을 결정하는 단계는, 예비 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산하는 단계; 및 상기 계산된 확률이 미리 설정된 제1 임계 값 이상인 경우 상기 예비 후보 영역을 후보 영역으로 결정하는 단계를 포함할 수 있다.
상기 영상 내의 타겟 오브젝트를 검출하는 단계는, 상기 하나 이상의 후보 영역들에 대한 정보에 기초하여 상기 영상 내의 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산하는 단계; 및 상기 계산된 확률이 미리 설정된 제2 임계 값 이상인 경우 상기 오브젝트를 상기 타겟 오브젝트로 결정하는 단계를 포함하고, 상기 제2 임계 값은 상기 제1 임계 값을 초과할 수 있다.
상기 영상 처리 방법은 상기 영상의 크기를 미리 설정된 크기로 축소함으로써 축소 영상을 생성하는 단계를 더 포함하고, 상기 하나 이상의 후보 영역들은 상기 축소 영상 내에 설정될 수 있다.
상기 영상 처리 방법은 상기 축소 영상 내에 설정된 상기 하나 이상의 후보 영역들에 대응하는 영역을 상기 영상 내에 설정함으로써 상기 하나 이상의 후보 영역들에 대한 정보를 생성하는 단계를 더 포함할 수 있다.
다른 일 측면에 따른, 영상 처리 장치는, 장면(scene)을 촬영한 영상에 기초하여 타겟 오브젝트(target object)가 존재할 것으로 판단되는 하나 이상의 후보(candidate) 영역들을 상기 영상 내에 설정하는 전-처리(pre-processing) 프로세서; 상기 하나 이상의 후보 영역들에 대한 정보를 메인(main) 프로세서로 전송하는 인터페이스(interface); 및 상기 하나 이상의 후보 영역들에 대한 정보에 기초하여 상기 영상 내의 타겟 오브젝트를 검출하는 메인 프로세서를 포함한다.
상기 영상 처리 장치는 상기 장면을 촬영함으로써 상기 영상을 생성하는 카메라를 더 포함할 수 있다.
상기 영상은 차량의 주위를 촬영한 영상이고, 상기 영상 처리 장치는 상기 차량을 제어하는 제어 장치에 포함될 수 있다.
상기 전-처리 프로세서는, 상기 영상에 기초하여 오브젝트(object)가 존재할 것으로 판단되는 하나 이상의 예비 후보 영역들을 상기 영상 내에 설정하고, 상기 하나 이상의 예비 후보 영역들 중 상기 하나 이상의 후보 영역들을 결정할 수 있다.
상기 전-처리 프로세서는, 상기 영상의 크기를 미리 설정된 크기로 축소함으로써 축소 영상을 생성하고, 상기 하나 이상의 후보 영역들을 상기 축소 영상 내에 설정할 수 있다.
상기 전-처리 프로세서는, 상기 축소 영상 내에 설정된 상기 하나 이상의 후보 영역들에 대응하는 영역을 상기 영상 내에 설정함으로써 상기 하나 이상의 후보 영역들에 대한 정보를 생성할 수 있다.
상기 메인 프로세서는, 상기 검출된 타겟 오브젝트에 기초하여 차량을 제어할 수 있다.
영상을 처리하는 장치 및 방법이 제공된다.
복수의 프로세서들을 이용하여 영상을 처리하는 장치 및 방법이 제공된다.
도 1은 일 예에 따른 교통 상황을 도시한다.
도 2는 일 실시예에 따른 영상 처리 장치의 구성도이다.
도 3은 일 실시예에 따른 영상 처리 방법의 흐름도이다.
도 4는 일 예에 따른 후보 영역들을 영상 내에 설정하는 방법의 흐름도이다.
도 5는 일 예에 따른 예비 후보 영역들 중 후보 영역을 결정하는 방법의 흐름도이다.
도 6은 일 예에 따른 영상 내의 타겟 오브젝트를 검출하는 방법의 흐름도이다.
도 7은 일 예에 따른 축소 영상에 기초하여 후보 영역들에 대한 정보를 생성하는 방법의 흐름도이다.
도 2는 일 실시예에 따른 영상 처리 장치의 구성도이다.
도 3은 일 실시예에 따른 영상 처리 방법의 흐름도이다.
도 4는 일 예에 따른 후보 영역들을 영상 내에 설정하는 방법의 흐름도이다.
도 5는 일 예에 따른 예비 후보 영역들 중 후보 영역을 결정하는 방법의 흐름도이다.
도 6은 일 예에 따른 영상 내의 타겟 오브젝트를 검출하는 방법의 흐름도이다.
도 7은 일 예에 따른 축소 영상에 기초하여 후보 영역들에 대한 정보를 생성하는 방법의 흐름도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 교통 상황을 도시한다.
자율 주행하는 차량(110)은 운전자로부터의 입력이 거의 없거나 또는 전혀 없는 상황에서도, 인지된 주행 환경에 따라서 자율 모드(autonomous mode)로 주행할 수 있다. 주행 환경은 차량에 부착 또는 설치된 하나 이상의 센서들을 통해 인지될 수 있다. 예를 들어, 하나 이상의 센서들은 카메라, 라이다(LIDAR), 레이더(RADAR) 및 음성 인식 센서들을 포함할 수 있고, 기재된 예들로 제한되는 것은 아니다. 주행 환경은 도로, 차선의 종류, 주변 차량의 유무, 근접한 차량과의 거리, 날씨, 장애물의 유무 등을 포함할 수 있고, 기재된 예들로 제한되는 것은 아니다.
차량(110)이 주행 환경을 정확히 인지하기 위해서는 오브젝트(object)가 검출(detect)되어야 한다. 예를 들어, 오브젝트는 차량(100) 주변의 사람(120) 및 차량(130)을 포함하고, 기재된 실시예로 한정되지 않는다. 차량(110)이 사람(120) 및 차량(130)을 인식하는 방법으로써, 차량(110)이 차량(110) 주변의 영상을 촬영하고, 촬영된 영상 내의 사람(120) 및 차량(130)을 검출하는 방법이 이용될 수 있다. 촬영된 영상에 기초하여 사람(120) 및 차량(130)을 검출하는 과정은 높은 실시간성(realtime) 및 높은 정확도(accuracy)가 요구된다.
영상을 처리하기 위해 하나의 프로세서가 이용되는 것보다 복수의 프로세서들이 기능을 분담하는 방법이 고려될 수 있다. 예를 들어, 전-처리 프로세서(pre-processing processor)가 영상 처리를 위한 전-처리를 수행하고, 전-처리된 정보에 기초하여 메인 프로세서(main processor)가 나머지 작업(task)를 수행할 수 있다. 복수의 프로세서들이 기능을 분담하는 경우, 영상 처리의 실시간성 및 정확도가 향상될 수 있다. 아래의 도 2 내지 도 7을 참조하여, 복수의 프로세서들을 이용하여 영상을 처리하는 방법이 상세히 설명된다.
도 2는 일 실시예에 따른 영상 처리 장치의 구성도이다.
일 측면에 따르면, 도 1 내지 도 5를 참조하여 설명된 차량(110)에는 차량(110)을 제어하는 제어 장치가 장착될 수 있다. 제어 장치는 차량(110)의 주행 경로 정보를 생성하고, 주행 경로를 따라가도록 차량(110)의 기계적인 요소들을 제어할 수 있다. 예를 들어, 제어 장치는 시스템 온 칩(System-On-Chip; SOC)으로 구현될 수 있으나, 기재된 실시예로 한정되는 것은 아니다. 제어 장치는 주행 경로 정보를 생성하기 위해, 차량(110)의 주위를 촬영한 영상을 이용할 수 있다. 제어 장치는 영상을 처리하기 위해 영상 처리 장치(200)를 포함할 수 있다. 영상 처리 장치(200)가 영상에 기초하여 주행 경로를 생성하는 경우, 영상 처리 장치(200)는 제어 장치로 명명된다.
영상 처리 장치(200)는 카메라(210), 통신부(220), 전-처리 프로세서(230), 인터페이스(interface) 및 메인 프로세서(250)를 포함한다.
통신부(220)는 카메라(210), 전-처리 프로세서(230), 메모리(260)와 연결된다. 통신부(220)는 영상 처리 장치(200) 내의 회로망(circuitry)일 수 있다. 예를 들어, 통신부(220)는 내부 버스(internal bus) 및 외부 버스(internal bus)를 포함할 수 있다. 다른 예로, 통신부(220)는 영상 처리 장치(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(220)는 인터페이스일 수 있다. 통신부(220)는 외부의 장치로부터 데이터를 수신하여, 전-처리 프로세서(230) 및 메모리(260)에 데이터를 전송할 수 있다.
전-처리 프로세서(230)는 통신부(220)가 수신한 데이터 및 메모리(260)의 데이터를 처리할 수 있다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
전-처리 프로세서(230)는 메모리(예를 들어, 메모리(260))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 전-처리 프로세서(230)에 의해 유발된 인스트럭션들을 실행할 수 있다.
인터페이스(240)는 전-처리 프로세서(230)에서 처리된 데이터를 메인 프로세서(250)로 전송한다. 인터페이스(240)는 디지털 인터페이스 또는 아날로그 인터페이스일 수 있다. 예를 들어, 인터페이스(240)는 MIPI 인터페이스, BT.1200, 및 LVDS(Low-Voltage Differential Signaling)를 포함할 수 있다.
메인 프로세서(250)는 메모리(예를 들어, 메모리(260))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 전-처리 프로세서(230) 및 메인 프로세서(250)에 의해 유발된 인스트럭션들을 실행할 수 있다. 예를 들어, 메인 프로세서(250)는 인터페이스(240)를 통해 전-처리 프로세서(230)로부터 전송된 데이터를 처리한다.
메모리(260)는 통신부(220)가 수신한 데이터 전-처리 프로세서(230)가 처리한 데이터 및 메인 프로세서(250)가 처리한 데이터를 저장할 수 있다. 예를 들어, 메모리(260)는 촬영된 영상, 영상의 일부, 처리된 데이터 및 프로그램을 저장할 수 있다.
일 측면에 따르면, 메모리(260)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다. 메모리(260)는 통신부(220), 전-처리 프로세서(230) 및 메인 프로세서(250)의 각각에 포함된 내부 메모리일 수 있다. 메모리(260)가 통신부(220), 전-처리 프로세서(230) 및 메인 프로세서(250)의 각각에 포함되는 경우, 메모리(260)는 내부 SRAM(Internal Static RAM)일 수 있다.
메모리(260)는 영상을 처리하는 명령어 세트(예를 들어, 소프트웨어)를 저장할 수 있다. 영상을 처리하는 명령어 세트는 전-처리 프로세서(230) 및 메인 프로세서(250)에 의해 실행될 수 있다. 전-처리 프로세서(230) 및 메인 프로세서(250) 명령어 세트에 따라 영상을 처리할 수 있다.
아래에서 도 3 내지 도 7을 참조하여 카메라(210), 통신부(220), 전-처리 프로세서(230), 인터페이스(240), 메인 프로세서(250) 및 메모리(260)가 상세히 설명된다.
도 3은 일 실시예에 따른 영상 처리 방법의 흐름도이다.
단계(310)에서, 카메라(210)는 장면을 촬영함으로써 장면에 대한 영상을 생성한다. 예를 들어, 카메라(210)는 차량(110)의 주위를 촬영할 수 있다. 차량(110)의 주위는 차량(110)의 정면일 수 있다.
단계(320)에서, 전-처리 프로세서(230)는 촬영된 영상을 수신한다. 예를 들어, 전-처리 프로세서(230)는 카메라(210)로부터 영상을 수신할 수 있다.
단계(330)에서, 전-처리 프로세서(230)는 영상에 기초하여 타겟 오브젝트(target object)가 존재할 것으로 판단되는 하나 이상의 후보(candidate) 영역들을 영상 내에 설정한다. 타겟 오브젝트는 사람 및 차량을 포함할 수 있다. 후보 영역들 각각의 크기는 후보 영역 내의 오브젝트의 크기에 따라 상이할 수 있다. 후보 영역들을 영상 내에 설정하는 방법에 대해, 아래에서 도 4 및 5를 참조하여 상세히 설명된다.
단계(340)에서, 인터페이스(240)는 후보 영역들에 대한 정보를 메인 프로세서(250)로 전송한다. 인터페이스(240)는 전-처리 프로세서(230)에 의해 생성된 후보 영역들에 대한 정보의 데이터 형식을 메인 프로세서(250)가 처리할 수 있는 형식으로 변환하고, 변환된 후보 영역들에 대한 정보를 메인 프로세서(250)로 전송할 수 있다.
단계(350)에서, 메인 프로세서(250)는 후보 영역들에 대한 정보에 기초하여 영상 내의 타겟 오브젝트를 검출한다. 메인 프로세서(250)는 영상 내의 모든 타겟 오브젝트를 검출할 수 있다. 타겟 오브젝트를 검출하는 방법에 대해, 아래에서 도 6을 참조하여 상세히 설명된다.
단계(360)에서, 메인 프로세서(250)는 검출된 타겟 오브젝트에 기초하여 차량(110)을 제어한다. 예를 들어, 메인 프로세서(250)는 검출된 타겟 오브젝트에 기초하여 주행 경로를 설정하고, 주행 경로에 따라 차량(110)이 주행하도록 차량(110)을 제어할 수 있다.
<전-처리 프로세서에 의한 후보 영역 결정 방법>
도 4는 일 예에 따른 후보 영역들을 영상 내에 설정하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(320)는 아래의 단계들(410, 420)을 포함할 수 있다.
단계(410)에서, 전-처리 프로세서(230)는 오브젝트가 존재할 것으로 판단되는 하나 이상의 예비 후보(preliminary candidate) 영역들을 영상 내에 설정한다. 예를 들어, 전-처리 프로세서(230)는 오브젝트를 검출하는 알고리즘을 이용하여 예비 후보 영역들을 영상 내에 설정할 수 있다. 알고리즘은 높은 정확성이 요구되지 않으며, 오브젝트가 존재할 확률이 임계 값 이상인 경우, 해당 영역을 예비 후보 영역으로 설정할 수 있다.
단계(420)에서, 전-처리 프로세서(230)는 하나 이상의 예비 후보 영역들 중 하나 이상의 후보 영역들을 결정한다. 예를 들어, 전-처리 프로세서(230)는 예비 후보 영역의 오브젝트가 타겟 오브젝트로 판단되는 경우, 예비 후보 영역을 후보 영역으로 결정할 수 있다. 예비 후보 영역을 후보 영역으로 결정하는 방법에 대해, 아래에서 도 5를 참조하여 상세히 설명된다.
도 5는 일 예에 따른 예비 후보 영역들 중 후보 영역을 결정하는 방법의 흐름도이다.
도 4를 참조하여 전술된 단계(420)는 아래의 단계들(510, 520, 530)을 포함할 수 있다.
단계(510)에서, 전-처리 프로세서(230)는 예비 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산한다. 예를 들어, 전-처리 프로세서(230)는 제1 알고리즘을 이용하여 오브젝트가 타겟 오브젝트일 확률을 계산할 수 있다.
단계(520)에서, 전-처리 프로세서(230)는 계산된 확률이 제1 임계 값 이상인지 여부를 판단한다.
단계(530)에서, 전-처리 프로세서(230)는 계산된 확률이 제1 임계 값 이상인 경우, 예비 후보 영역을 후보 영역으로 결정한다.
<메인 프로세서에 의한
타겟
오브젝트
결정 방법>
도 6은 일 예에 따른 영상 내의 타겟 오브젝트를 검출하는 방법의 흐름도이다.
도 3를 참조하여 전술된 단계(350)는 아래의 단계들(610, 620, 630)을 포함할 수 있다.
단계(610)에서, 메인 프로세서(250)는 하나 이상의 후보 영역들에 대한 정보에 기초하여 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산한다. 예를 들어, 메인 프로세서(250)는 제2 알고리즘을 이용하여 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산할 수 있다. 제2 알고리즘은 제1 알고리즘에 비해 더 정확한 확률을 계산하는 알고리즘일 수 있다. 메인 프로세서(250)는 전-처리 프로세서(230) 외의 다른 프로세서 또는 센서로부터 추가 정보를 수신하고, 추가 정보를 제2 알고리즘의 입력으로 이용하여 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산할 수 있다.
단계(620)에서, 메인 프로세서(250)는 계산된 확률이 제2 임계 값 이상인지 여부를 판단한다. 제2 임계 값은 제1 임계 값을 초과할 수 있다.
단계(630)에서, 메인 프로세서(250)는 계산된 확률이 제2 임계 값 이상인 경우 후보 영역의 오브젝트를 타겟 오브젝트로 결정한다.
<축소 영상에 기초하여 후보 영역에 대한 정보를 생성>
도 7은 일 예에 따른 축소 영상에 기초하여 후보 영역들에 대한 정보를 생성하는 방법의 흐름도이다.
도 3 내지 도 6을 참조하여 전술된 단계들은 원본 영상에 대해 처리되는 것으로 설명되었으나, 처리 속도를 증가시키기 위해, 원본 영상을 축소한 축소 영상이 이용될 수 있다.
아래의 단계(710)는 도 3을 참조하여 전술된 단계(320)가 수행된 후 수행될 수 있다.
단계(710)에서, 전-처리 프로세서(230)는 원본 영상의 크기를 미리 설정된 크기로 축소함으로써 축소 영상을 생성한다.
단계(720)에서, 전-처리 프로세서(230)는 후보 영역들을 축소 영상 내에 설정한다. 축소 영상은 원본 영상에 비해 영상 크기가 작으므로, 축소 영상 내의 오브젝트 및 타겟 오브젝트를 검출하고, 후보 영역들을 설정하기 위해 필요한 자원이 원본 영상에 비해 감소한다.
축소 영상을 처리하는 경우, 오브젝트 또는 타겟 오브젝트가 존재할 것으로 판단되는 확률의 정확도가 원본 영상에 낮을 수 있다. 이러한 경우에는 상기의 확률과 비교되는 임계 값을 낮추는 경우 정확도가 낮아지는 문제를 해결할 수 있다. 전-처리 단계에서 확률의 정확도가 낮더라도 메인 프로세서(250)에서 정확한 결과가 계산될 수 있다. 단계(720)에 대한 상세한 설명은 도 3 및 4를 참조하여 전술된 단계(330)에 대한 설명이 유사하게 적용될 수 있으므로 이하에서 생략한다.
단계(730)에서, 전-처리 프로세서(230)는 후보 영역들에 대응하는 영역을 원본 영상 내에 설정함으로써 후보 영역들에 대한 정보를 생성한다. 예를 들어, 후보 영역들에 대한 정보는 축소 영상의 후보 영역에 대응하는 원본 영상의 영역에 관한 정보일 수 있다. 단계(730)가 수행된 후, 도 3을 참조하여 전술된 단계(340)가 수행된다.
단계(340)에서, 인터페이스(240)는 후보 영역들에 대한 정보를 메인 프로세서(250)로 전송한다.
단계(350)에서, 메인 프로세서(250)는 후보 영역들에 대한 정보에 기초하여 원본 영상 내의 타겟 오브젝트를 검출한다. 메인 프로세서(250)는 후보 영역들에 대한 정보에 기초하여 원본 영역에 후보 영역을 설정하고, 설정된 후보 영역 내의 타겟 오브젝트를 검출할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
200: 영상 처리 장치
210: 카메라
220: 통신부
230: 전-처리 프로세서
240: 인터페이스
250: 메인 프로세서
260: 메모리
210: 카메라
220: 통신부
230: 전-처리 프로세서
240: 인터페이스
250: 메인 프로세서
260: 메모리
Claims (16)
- 장면(scene)을 촬영한 영상을 수신하는 단계;
상기 영상의 크기를 미리 설정된 크기로 축소함으로써 축소 영상을 생성하는 단계;
전-처리(pre-processing) 프로세서가 상기 축소 영상에 기초하여 타겟 오브젝트(target object)가 존재할 것으로 판단되는 하나 이상의 예비 후보 영역들을 상기 축소 영상 내에 설정하는 단계;
상기 예비 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산하는 단계;
상기 계산된 확률이 미리 설정된 제1 임계 값 이상인 경우 상기 예비 후보 영역을 후보 영역으로 결정하는 단계;
하나 이상의 후보(candidate) 영역들을 상기 축소 영상 내에 설정하는 단계;
상기 축소 영상 내에 설정된 상기 하나 이상의 후보 영역들에 대응하는 영역을 상기 영상 내에 설정함으로써 상기 하나 이상의 후보 영역들에 대한 정보를 생성하는 단계;
상기 하나 이상의 후보 영역들에 대한 정보를 메인(main) 프로세서로 전송하는 단계; 및
상기 메인 프로세서가 상기 하나 이상의 후보 영역들에 대한 정보에 기초하여 상기 영상 내의 타겟 오브젝트를 검출하는 단계
를 포함하는,
영상 처리 방법.
- 제1항에 있어서,
상기 영상은 차량의 주위를 촬영한 영상이고,
상기 전-처리 프로세서 및 상기 메인 프로세서는 상기 차량을 제어하는 제어 장치에 포함되는,
영상 처리 방법.
- 제2항에 있어서,
상기 메인 프로세서가 검출된 상기 타겟 오브젝트에 기초하여 상기 차량을 제어하는 단계
를 더 포함하는,
영상 처리 방법.
- 삭제
- 삭제
- 제1항에 있어서,
상기 영상 내의 타겟 오브젝트를 검출하는 단계는,
상기 하나 이상의 후보 영역들에 대한 정보에 기초하여 상기 영상 내의 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산하는 단계; 및
상기 계산된 확률이 미리 설정된 제2 임계 값 이상인 경우 상기 오브젝트를 상기 타겟 오브젝트로 결정하는 단계
를 포함하고,
상기 제2 임계 값은 상기 제1 임계 값을 초과하는,
영상 처리 방법.
- 삭제
- 삭제
- 제1항, 제2항, 제3항, 및 제6항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
- 장면(scene)을 촬영한 영상의 크기를 미리 설정된 크기로 축소함으로써 축소 영상을 생성하고, 상기 축소 영상에 기초하여 타겟 오브젝트(target object)가 존재할 것으로 판단되는 하나 이상의 예비 후보 영역들을 상기 축소 영상 내에 설정하며, 상기 예비 후보 영역의 오브젝트가 타겟 오브젝트일 확률을 계산하고, 상기 계산된 확률이 미리 설정된 제1 임계 값 이상인 경우 상기 예비 후보 영역을 후보 영역으로 결정하고, 하나 이상의 후보(candidate) 영역들을 상기 영상 내에 설정하며, 상기 축소 영상 내에 설정된 상기 하나 이상의 후보 영역들에 대응하는 영역을 상기 영상 내에 설정함으로써 상기 하나 이상의 후보 영역들에 대한 정보를 생성하는 전-처리(pre-processing) 프로세서;
상기 하나 이상의 후보 영역들에 대한 정보를 메인(main) 프로세서로 전송하는 인터페이스(interface); 및
상기 하나 이상의 후보 영역들에 대한 정보에 기초하여 상기 영상 내의 타겟 오브젝트를 검출하는 메인 프로세서
를 포함하는,
영상 처리 장치.
- 제10항에 있어서,
상기 장면을 촬영함으로써 상기 영상을 생성하는 카메라
를 더 포함하는,
영상 처리 장치.
- 제10항에 있어서,
상기 영상은 차량의 주위를 촬영한 영상이고,
상기 영상 처리 장치는 상기 차량을 제어하는 제어 장치에 포함되는,
영상 처리 장치.
- 제10항에 있어서,
상기 전-처리 프로세서는,
상기 축소 영상에 기초하여 오브젝트(object)가 존재할 것으로 판단되는 하나 이상의 예비 후보 영역들을 상기 축소 영상 내에 설정하고,
상기 하나 이상의 예비 후보 영역들 중 상기 하나 이상의 후보 영역들을 결정하는,
영상 처리 장치.
- 삭제
- 삭제
- 제10항에 있어서,
상기 메인 프로세서는,
상기 검출된 타겟 오브젝트에 기초하여 차량을 제어하는,
영상 처리 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160172352A KR101875517B1 (ko) | 2016-12-16 | 2016-12-16 | 영상 처리 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160172352A KR101875517B1 (ko) | 2016-12-16 | 2016-12-16 | 영상 처리 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180070083A KR20180070083A (ko) | 2018-06-26 |
KR101875517B1 true KR101875517B1 (ko) | 2018-07-09 |
Family
ID=62788462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160172352A KR101875517B1 (ko) | 2016-12-16 | 2016-12-16 | 영상 처리 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101875517B1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102095152B1 (ko) * | 2019-06-07 | 2020-03-30 | 건국대학교 산학협력단 | 상황 인지 방법 및 이를 수행하는 장치 |
KR102426562B1 (ko) * | 2020-07-14 | 2022-07-29 | 주식회사 넥스트칩 | 오브젝트 검출 방법 및 장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004098827A (ja) * | 2002-09-09 | 2004-04-02 | Denso Corp | 障害物検知装置及びプログラム |
JP2007329762A (ja) * | 2006-06-08 | 2007-12-20 | Fujitsu Ten Ltd | 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置 |
JP2008304344A (ja) * | 2007-06-08 | 2008-12-18 | Kumamoto Univ | 物標検出装置 |
JP2009236623A (ja) * | 2008-03-26 | 2009-10-15 | Fujitsu Ten Ltd | 物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法 |
JP2015001659A (ja) * | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | 画像形成装置 |
-
2016
- 2016-12-16 KR KR1020160172352A patent/KR101875517B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004098827A (ja) * | 2002-09-09 | 2004-04-02 | Denso Corp | 障害物検知装置及びプログラム |
JP2007329762A (ja) * | 2006-06-08 | 2007-12-20 | Fujitsu Ten Ltd | 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置 |
JP2008304344A (ja) * | 2007-06-08 | 2008-12-18 | Kumamoto Univ | 物標検出装置 |
JP2009236623A (ja) * | 2008-03-26 | 2009-10-15 | Fujitsu Ten Ltd | 物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法 |
JP2015001659A (ja) * | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | 画像形成装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20180070083A (ko) | 2018-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11657604B2 (en) | Systems and methods for estimating future paths | |
KR102499398B1 (ko) | 차선 검출 방법 및 장치 | |
US10943132B2 (en) | Distant on-road object detection | |
JP7135665B2 (ja) | 車両制御システム、車両の制御方法及びコンピュータプログラム | |
JP7147420B2 (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
CN111506057B (zh) | 辅助自动驾驶的自动驾驶辅助眼镜 | |
CN113561963B (zh) | 一种泊车方法、装置及车辆 | |
CN111091037B (zh) | 用于确定驾驶信息的方法和设备 | |
KR102541560B1 (ko) | 객체 인식 방법 및 장치 | |
US10579888B2 (en) | Method and system for improving object detection and object classification | |
CN111507162B (zh) | 基于车辆间通信的协作的盲点警告方法及装置 | |
US11443151B2 (en) | Driving assistant system, electronic device, and operation method thereof | |
US20160098605A1 (en) | Lane boundary line information acquiring device | |
US20210174113A1 (en) | Method for limiting object detection area in a mobile system equipped with a rotation sensor or a position sensor with an image sensor, and apparatus for performing the same | |
KR101875517B1 (ko) | 영상 처리 방법 및 장치 | |
US11619495B2 (en) | Position estimating apparatus and position estimating method | |
US20220237921A1 (en) | Outside environment recognition device | |
KR20220097682A (ko) | 인공지능 기반의 차량과 객체 간의 충돌 위험도 검출 시스템 및 방법 | |
US20230227076A1 (en) | Device and method for generating trajectory, and non-transitory computer-readable medium storing computer program therefor | |
US20220237899A1 (en) | Outside environment recognition device | |
KR20210071454A (ko) | 차량 및 제어방법 | |
KR102614325B1 (ko) | 차량의 사고 이벤트를 분석하기 위한 전자 장치 및 그 동작방법 | |
US20240123977A1 (en) | Travel controller and method for travel control | |
JP7540375B2 (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
US20240034322A1 (en) | Travel controller and travel control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |