KR20190030344A - 객체 인식 방법 및 장치 - Google Patents
객체 인식 방법 및 장치 Download PDFInfo
- Publication number
- KR20190030344A KR20190030344A KR1020170117658A KR20170117658A KR20190030344A KR 20190030344 A KR20190030344 A KR 20190030344A KR 1020170117658 A KR1020170117658 A KR 1020170117658A KR 20170117658 A KR20170117658 A KR 20170117658A KR 20190030344 A KR20190030344 A KR 20190030344A
- Authority
- KR
- South Korea
- Prior art keywords
- candidate region
- image
- vehicle
- positioning information
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000001514 detection method Methods 0.000 claims description 40
- 230000003044 adaptive effect Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 230000004807 localization Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09623—Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
-
- G06K9/00805—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0953—Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G06K9/6201—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
객체 인식 방법 및 장치가 개시된다. 개시된 객체 인식 장치는 차량의 측위 정보를 획득하고, 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하고, 측위 정보 및 객체 정보에 기초하여 차량의 전방을 촬영한 영상에서 객체가 존재할 것으로 예측되는 후보 영역을 결정하며, 후보 영역을 이용하여 영상에서 객체를 인식한다.
Description
아래 실시예들은 객체 인식 방법 및 장치에 관한 것이다.
최근 자동차 산업의 발달로 운전자의 편의와 차량의 안전성 향상을 도모하기 위한 다양한 첨단 기술이 자동차에 적용되고 있다. 특히, 차량에 장착된 카메라를 통해 촬영된 차량의 전방 영상에서 객체를 인식하는 첨단 기술들이 급속도로 증대되고 있다. 야간, 눈, 비 등 다양한 환경에서 상대적으로 빠른 속도로 주행하는 차량에 이러한 첨단 기술이 활용되기 위해서는 높은 객체 인식률이 요구된다.
일실시예에 따른 인식 방법은 차량의 측위 정보(localization information)를 획득하는 단계; 상기 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하는 단계; 상기 측위 정보 및 상기 객체 정보에 기초하여, 상기 차량의 전방을 촬영한 영상에서 상기 객체가 존재할 것으로 예측되는 후보 영역(candidate region)을 결정하는 단계; 및 상기 후보 영역을 이용하여 상기 영상에서 상기 객체를 인식하는 단계를 포함한다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차에 기초하여 상기 후보 영역의 사이즈를 결정할 수 있다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차가 클수록 상기 후보 영역의 사이즈를 크게 결정할 수 있다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 중 상기 차량의 주행 방향에 대한 오차에 기초하여 상기 후보 영역의 수직 사이즈를 결정할 수 있다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 중 상기 차량의 주행 방향에 수직인 측면 방향에 대한 오차에 기초하여 상기 후보 영역의 수평 사이즈를 결정할 수 있다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 및 상기 객체 정보에 기초하여 상기 객체를 영상 도메인에 투사(project)시켰을 때 상기 영상에서 상기 객체가 위치할 것으로 예상되는 지점에 상기 후보 영역을 위치시킬 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 기본 검출 임계치에 기반하여 상기 영상에서 상기 객체가 인식되지 않은 경우, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기반하여 상기 후보 영역에서 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 기본 검출 임계치에 기반하여 상기 영상 중 후보 영역을 제외한 나머지 영역에서 상기 객체를 인식하고, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기초하여 상기 후보 영역에서 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 상기 영상에서 상기 후보 영역을 크롭(crop)하고, 상기 크롭된 후보 영역에서 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 상기 영상에서 상기 후보 영역 내에 중심점이 위치하는 후보 박스를 미리 결정된 개수 이상 생성하고, 상기 생성된 후보 박스가 적용된 RCNN(Region based Convolutional Neural Network)을 이용하여 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 상기 후보 영역에 대해 이미지 처리를 수행함으로써 상기 영상에서 상기 후보 영역에 대한 화질(image quality)을 개선시키고, 상기 화질이 개선된 후보 영역을 포함한 영상에서 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체 정보를 획득하는 단계는 상기 측위 정보에 기초하여 상기 차량의 전방에 위치할 것으로 예측되는 객체를 결정하고, 상기 결정된 객체의 타입 및 위치에 대한 정보를 획득할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체는 상기 차량이 주행하는 도로에서 미리 결정된 위치에 고정된 신호등, 표지판, 간판 중 적어도 하나를 포함할 수 있다.
일실시예에 따른 인식 장치는 프로세서; 및 상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 포함하는 메모리를 포함하고, 상기 적어도 하나의 명령어가 상기 프로세서에서 실행되면, 상기 프로세서는 차량의 측위 정보를 획득하고, 상기 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하고, 상기 측위 정보 및 상기 객체 정보에 기초하여, 상기 차량의 전방을 촬영한 영상에서 상기 객체가 존재할 것으로 예측되는 후보 영역을 결정하며, 상기 후보 영역을 이용하여 상기 영상에서 상기 객체를 인식한다.
도 1은 일실시예에 따라 영상에서 객체를 인식하는 과정을 설명하기 위한 도면이다.
도 2는 일실시예에 따라 차량의 측위 정보를 나타낸 도면이다.
도 3은 일실시예에 따라 후보 영역의 위치 및 사이즈를 나타낸 도면이다.
도 4는 일실시예에 따라 후보 영역을 이용하여 객체를 인식하는 예시를 나타낸 도면이다.
도 5는 일실시예에 따라 객체를 인식하는 인식 시스템을 나타낸 도면이다.
도 6은 일실시예에 따른 인식 방법을 나타낸 도면이다.
도 7은 일실시예에 따른 인식 장치를 나타낸 도면이다.
도 2는 일실시예에 따라 차량의 측위 정보를 나타낸 도면이다.
도 3은 일실시예에 따라 후보 영역의 위치 및 사이즈를 나타낸 도면이다.
도 4는 일실시예에 따라 후보 영역을 이용하여 객체를 인식하는 예시를 나타낸 도면이다.
도 5는 일실시예에 따라 객체를 인식하는 인식 시스템을 나타낸 도면이다.
도 6은 일실시예에 따른 인식 방법을 나타낸 도면이다.
도 7은 일실시예에 따른 인식 장치를 나타낸 도면이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
하기에서 설명될 실시예들은 차량에서 촬영된 영상에서 객체를 인식하는 데 사용될 수 있다. 실시예들은 이미지 센서를 장착한 차량, 자율 주행 자동차, 지능형 자동차 등에 적용될 수 있다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다.
도 1은 일실시예에 따라 영상에서 객체를 인식하는 과정을 설명하기 위한 도면이다.
도 1을 참조하면, 일실시예에 따른 차량(130)의 카메라에서 획득한 영상(110)과 측위 정보가 표시된 맵(120)이 도시된다.
일실시예에 따라 차량(130)에 카메라가 장착될 수 있다. 예를 들어, 카메라는 차량(130)의 윈드실드(windshield), 대시보드(dashboard), 백미러(rear-view mirror) 등 미리 정해진 위치에 고정되어 차량(130)의 전방을 촬영할 수 있다.
일실시예에 따라 차량(130)의 전방이 촬영된 영상(110)에는 객체(140)가 포함될 수 있다. 객체(140)는 차량(130)이 주행하는 도로에서 미리 결정된 위치에 고정되는 신호등, 표지판, 간판 중 적어도 하나를 포함할 수 있다. 객체(140)는 차량(130)의 주행에 참고해야 하는 정보를 전달하는 랜드마크(landmark)일 수 있다.
일실시예에 따라 인식 장치는 후보 영역(150)을 이용하여 영상(110)에서 객체(140)를 인식한다. 여기서, 객체 인식은 차량(130)의 주행 중에 인식이 필요한 신호등, 표지판, 간판 등의 다양한 객체를 검출하여 인식하는 것으로, 아래에서는 설명의 편의를 위해 객체 검출로도 지칭될 수 있다.
후보 영역(150)은 영상(110)에서 객체(140)가 존재할 것으로 예측되는 영역으로, 차량(130)의 측위 정보(localization information)와 객체(140)에 대한 객체 정보에 기초하여 결정된다.
일실시예에 따른 차량(130)의 측위 정보는 차량(130)의 현재 위치를 나타내는 정보로서, 예를 들어, 차량(130)의 위도, 경도 및 헤딩각(heading angle)에 대한 정보를 포함할 수 있다. 차량(130)의 측위 정보에 대해서는 도 2를 참조하여 보다 상세히 설명한다.
일실시예에 따른 객체 정보는 객체(140)의 타입 및 위치에 대한 정보를 포함할 수 있다. 이 때, 객체(140)는 차량(130)의 측위 정보에 기초하여 차량(130)의 전방에 위치할 것으로 예측되는 객체일 수 있다. 예를 들어, 측위 정보 중 위도, 경도에 기초하여 차량(130)의 현재 위치가 결정되고, 측위 정보 중 헤딩각을 통해 차량(130)의 현재 위치를 중심으로 한 FOV(Field of View)(131)가 결정될 수 있다. FOV(131) 내에 위치한 객체(140)가 차량(130)의 전방에 위치하는 것으로 결정되어 해당 객체(140)에 대한 객체 정보가 획득될 수 있다.
예를 들어, 객체 정보는 랜드마크 맵(landmark map)에서 획득될 수 있다. 랜드마크 맵은 도로 상에서 고정되어 시간에 따라 위치가 변하지 않는 다양한 신호등, 표지판, 간판 등에 대한 정보를 저장할 수 있다. 앞서 설명한 바와 같이, 차량(130)의 측위 정보로 차량(130)의 현재 위치가 결정되면 해당 차량(130)의 주변에 위치한 객체들의 분포 및 차량(130)과 각 객체 간의 상대위치가 결정됨으로써, 랜드마크 맵에 저장된 정보 중에서 차량(130)의 전방에 위치하는 것으로 결정된 객체(140)에 대한 객체 정보가 획득될 수 있다.
일실시예에 따른 객체(140)의 타입은 해당 객체(140)가 신호등, 표지판, 간판 중 어느 하나에 해당되는지 여부를 나타낼 수 있다. 또한, 객체(140)의 위치는 객체(140)의 위도, 경도를 포함할 수 있으며, 해당 객체(140)가 설치된 높이를 더 포함할 수 있다.
인식 장치는 영상(110)에서 객체(140)가 존재할 것으로 예측되는 후보 영역(150)을 이용하여 객체(140)를 인식함으로써, 야간, 우천, 눈, 역광과 같은 다양한 환경에서도 강인하게 객체(140)를 인식할 수 있다. 인식 장치에서 인식된 결과는 자율 주행 시스템, ADAS(Advanced Driver Assist System), 측위 시스템 등에서 교통 신호/규제를 인식하여 차량 주행에 적용하거나, 차량(130)에 대한 정확한 측위 획득에 이용될 수 있다.
도 2는 일실시예에 따라 차량의 측위 정보를 나타낸 도면이다.
도 2를 참조하면, 일실시예에 따른 차량(210)의 측위 정보를 표현할 수 있는 x, y 좌표와 x', y' 좌표가 도시된다.
일실시예에 따른 차량(210)의 측위 정보는 x, y 좌표 상의 위도, 경도와 헤딩각 h로 표시될 수 있다. 이 때, x 축은 경도를 나타내고, y 축은 위도를 나타낼 수 있다. 또한, 헤딩각 h는 x 축을 기준으로 차량(210)의 주행 방향을 각도로 나타내는 것으로, 요 앵글(yaw angle)로도 지칭될 수 있다. 차량(210)의 측위 정보는 차량(210)에 장착된 다양한 측위 시스템(예컨대, 고정밀 GPS(Global Positioning System), 랜드마크 측위법 등)을 통해 획득될 수 있다.
앞서 설명한 x, y 좌표 상의 측위 정보는 헤딩각 h를 이용하여 차량(210)의 주행 방향을 기준으로 한 x', y' 좌표 상의 측위 정보로 변환될 수 있다. x', y' 좌표에서 y' 축은 차량(210)의 주행 방향을 나타내고, x' 축은 차량(210)의 주행 방향에 수직인 측면 방향을 나타낼 수 있다. x', y' 좌표 상의 측위 정보는 도 1의 후보 영역(150)의 사이즈를 결정하는 데 이용될 수 있으며, 이에 대한 상세한 설명은 도 3을 참조하여 후술한다.
도 3은 일실시예에 따라 후보 영역의 위치 및 사이즈를 나타낸 도면이다.
도 3을 참조하면, 일실시예에 따라 영상 내에서 후보 영역(310)의 위치 및 사이즈를 제어하는 과정을 설명하기 위한 예시가 도시된다. 도 3에서는 설명의 편의를 위해 후보 영역(310)이 직사각형으로 도시되었으나, 이에 제한되지 않으며 다양한 형태의 후보 영역(310)이 적용될 수 있다.
일실시예에 따른 후보 영역(310)은 영상에서 객체(320)가 존재할 것으로 예측되는 영역으로, 일정한 위치와 사이즈를 가질 수 있다. 후보 영역(310)의 위치는 차량의 측위 정보와 객체(320)에 대한 객체 정보에 기초하여 객체(320)를 영상 도메인에 투사(project)시켰을 때 영상에서 객체(320)가 위치할 것으로 예상되는 지점으로 결정될 수 있다. 후보 영역(310)의 위치는 후보 영역(310)의 중심점(311)으로 나타낼 수 있다.
이 때, 차량의 측위 정보와 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 오차가 존재할 경우, 후보 영역(310)의 위치에도 동일하게 오차가 존재할 수 있다. 따라서, 후보 영역(310)은 존재할 수 있는 오차를 커버할 수 있는 사이즈를 가질 수 있다.
일실시예에 따른 후보 영역(310)의 사이즈는 차량의 측위 정보와 카메라의 파라미터 중 적어도 하나에 대한 오차에 기초하여 결정될 수 있다. 측위 정보 및 카메라의 파라미터 중 적어도 하나에 대한 오차가 클수록 후보 영역(310)의 사이즈가 크게 결정될 수 있다.
후보 영역(310)의 수직 사이즈(313)는 차량의 측위 정보 중 차량의 주행 방향에 대한 오차에 기초하여 결정될 수 있다. 예를 들어, 차량의 주행 방향에 대한 오차로 차량이 측위 정보로 예측된 위치보다 더 주행한 경우, 신호등이 위치할 것으로 예측된 지점보다 높게 신호등이 영상에 포함될 수 있다. 반대로, 차량의 주행 방향에 대한 오차로 차량이 측위 정보로 예측된 위치보다 덜 주행한 경우, 신호등이 위치할 것으로 예측된 지점보다 낮게 신호등이 영상에 포함될 수 있다. 따라서, 차량의 주행 방향에 대한 오차에 기초하여 후보 영역(310)의 수직 사이즈(313)를 결정할 필요가 있다.
또한, 후보 영역(310)의 수평 사이즈(315)는 차량의 측위 정보 중 차량의 측면 방향에 대한 오차에 기초하여 결정될 수 있다. 예를 들어, 차량의 측면 방향에 대한 오차로 차량이 측위 정보로 예측된 위치보다 더 우측에서 주행하는 경우, 신호등이 위치할 것으로 예측된 지점보다 좌측에 신호등이 영상에 포함될 수 있다. 반대의 경우, 신호등은 예측된 지점보다 우측에 위치할 수 있다. 따라서, 차량의 측면 방향에 대한 오차에 기초하여 후보 영역(310)의 수평 사이즈(315)를 결정할 필요가 있다.
이 때, 인식 장치는 차량의 주행 방향에 대한 오차가 클수록 후보 영역(310)의 수직 사이즈(313)를 크게 결정하고, 차량의 측면 방향에 대한 오차가 클수록 후보 영역(310)의 수평 사이즈(315)를 크게 결정할 수 있다.
여기서, 주행 방향에 대한 오차와 측면 방향에 대한 오차는 도 2에서 전술한 x, y 좌표 상의 측위 정보를 헤딩각 h에 기초하여 x', y' 좌표 상의 측위 정보로 변환하는 과정을 통해, x, y 좌표 상의 측위 정보에 대한 오차로부터 획득될 수 있다.
일실시예에 따른 카메라의 파라미터는 객체(320)를 영상 도메인에 투사시킬 때 고려되는 캘리브레이션 파라미터(calibration parameter)로서, 예를 들어, 카메라의 초점 거리(focal length), 차량에서 카메라가 설치된 위치, 카메라의 촬영 방향 등을 포함할 수 있다. 이러한 카메라의 파라미터에 대한 오차도 고려하여 후보 영역(310)의 사이즈가 결정될 수 있다.
도 4는 일실시예에 따라 후보 영역을 이용하여 객체를 인식하는 예시를 나타낸 도면이다.
도 4를 참조하면, 일실시예에 따라 후보 영역(410)을 이용하여 객체(420)의 인식률을 향상시키는 과정을 설명하기 위한 예시가 도시된다.
일실시예에 따라 후보 영역(410)을 이용하여 객체(420)를 강인하게 인식할 수 있는 4가지 방안들이 있으며, 이러한 3가지 방안들은 아래와 같다.
첫 번째 방안은 후보 영역(410)에 대해 적응적 검출 임계치를 적용하는 것이다.
일실시예에 따라 인식 장치는 임계치에 기반하여 영상에서 객체(420)를 인식할 수 있다. 예를 들어, 인식 장치는 영상 전체에서 객체(420)가 존재할 수 있는 후보 박스(411)를 여러 개 생성하고, 생성된 후보 박스(411)가 어떤 객체에 해당하는지 여부를 분류 과정(classification process)을 통해 판단할 수 있다. 여기서, 후보 박스(411)는 ROI(Region of Interest)로도 지칭될 수 있다.
분류 과정에서 후보 박스(411)가 특정 클래스(class)(예컨대, 신호등, 표지판, 간판 등)일 확률이 결정되는 데, 클래스 확률이 미리 결정된 임계치와 비교되어 객체 인식이 수행될 수 있다. 예를 들어, 신호등일 확률이 0.8로 결정된 경우에 미리 결정된 임계치가 0.7이면 해당 후보 박스(411)가 신호등으로 인식되는 반면, 만약 미리 결정된 임계치가 0.9이면 해당 후보 박스(411)가 신호등으로 인식되지 않는다.
이러한 임계치를 적응적으로 설정함으로써, 객체(420)를 강인하게 인식할 수 있다. 다시 말해, 후보 영역(410)에 대해서는 기본 검출 임계치보다 낮은 적응적 검출 임계치를 적용할 수 있다.
예를 들어, 인식 장치는 기본 검출 임계치에 기반하여 영상에서 객체(420)를 인식을 수행하였으나, 객체(420)가 인식되지 않은 경우 적응적 검출 임계치에 기반하여 후보 영역(410)에서 객체(420)를 인식할 수 있다. 이는 우선적으로 기본 검출 임계치에 기반하여 객체(420)가 인식되지 않은 경우에 한해 적응적 검출 임계치를 후보 영역(410)에만 적용함으로써 객체(420)를 인식하는 방안에 해당될 수 있다.
또는, 인식 장치는 기본 검출 임계치에 기반하여 영상 중 후보 영역(410)을 제외한 나머지 영역에서 객체(420)를 인식하고, 적응적 검출 임계치에 기초하여 후보 영역(410)에서 객체(420)를 인식할 수 있다. 이는 기본 검출 임계치와 적응적 검출 임계치를 서로 다른 영역에 적용하여 한 번에 객체(420)를 인식하는 방안에 해당될 수 있다. 이 경우, 앞서 설명한 후보 박스(411)의 중심점이 후보 영역(410) 내에 위치한 경우, 후보 영역(410)에 적용된 적응적 검출 임계치가 해당 후보 박스(411)에 적용될 수 있으며, 만약 후보 박스(411)의 중심점이 후보 영역(410) 밖에 위치한 경우, 기본 검출 임계치가 해당 후보 박스(411)에 적용될 수 있다.
두 번째 방안은 후보 영역(410)을 크롭(crop)하고, 크롭된 후보 영역(410)에서 객체(420)를 인식하는 것이다. 일실시예에 따라 인식 장치는 영상과 크롭된 후보 영역(410)에서 객체(420)를 인식할 수 있다. 이에 따라 후보 영역(410)에 대해서는 객체 인식이 두 번 수행됨으로써, 후보 영역(410)에 대한 객체 인식이 가중되어 수행될 수 있다.
세 번째 방안은 빠른-RCNN(Faster-Region based Convolutional Neural Network)에 적용되는 후보 박스(411)를 후보 영역(410) 내에서 많이 생성하는 것이다. 일실시예에 따라 인식 장치는 영상에서 후보 영역(410) 내에 중심점이 위치하는 후보 박스(411)를 미리 결정된 개수 이상 생성하고, 생성된 후보 박스(411)가 적용된 RCNN을 이용하여 객체(420)를 인식할 수 있다.
네 번째 방안은 후보 영역(410)에 영상 개선(image enhancement)을 수행하여 객체(420)를 인식하는 것이다. 영상 개선은 상당한 처리시간(processing time)이 요구되는 과정으로, 빠른 속도로 이동하는 차량에서 영상 전체에 대해 수행하기가 어려울 수 있다. 영상 전체가 아닌 후보 영역(410)에 대해서만 영상 개선을 수행함으로써 짧은 처리시간만으로도 객체 인식 성능을 효과적으로 향상시킬 수 있다. 다시 말해, 인식 장치는 후보 영역에 대해 이미지 처리를 수행함으로써 영상에서 후보 영역에 대한 화질(image quality)을 개선시키고, 화질이 개선된 후보 영역을 포함한 영상에서 객체(420)를 인식할 수 있다.
도 5는 일실시예에 따라 객체를 인식하는 인식 시스템을 나타낸 도면이다.
도 5를 참조하면, 일실시예에 따라 인식 시스템(500)은 측위 시스템(localization system)(510), 랜드마크 맵(520), 후보 영역 생성부(530), 카메라(540) 및 객체 검출부(550)를 포함할 수 있다.
측위 시스템(510)은 차량의 측위 정보를 생성할 수 있다. 측위 시스템(510)은 차량의 위도, 경도 및 헤딩각에 대한 정보를 측위 정보로 생성할 수 있다. 또한, 측위 시스템(510)은 헤딩각 h에 기초하여 x, y 좌표 상의 측위 정보인 위도, 경도를 x', y' 좌표 상의 측위 정보로 변환할 수도 있다. 측위 시스템(510)은 차량의 측위 정보를 후보 영역 생성부(530)로 전달할 수 있다.
랜드마크 맵(520)은 도로 상에서 미리 결정된 위치에 고정된 다양한 객체에 대한 정보를 저장할 수 있다. 예를 들어, 랜드마크 맵(520)은 도로 상에 고정된 객체들에 대한 타입 및 위치에 대한 정보를 포함할 수 있다. 타입은 해당 객체가 신호등, 표지판, 간판 중 어느 하나에 해당되는지 여부를 나타내고, 위치는 객체가 고정된 위치에 대한 위도, 경도, 지면으로부터의 높이를 나타낼 수 있다. 랜드마크 맵(520)은 주행 중인 차량의 전방에 위치하는 것으로 결정된 객체에 대한 객체 정보를 후보 영역 생성부(530)로 전달할 수 있다.
후보 영역 생성부(530)는 측위 정보 및 객체 정보에 기초하여, 카메라(540)에서 촬영된 영상에서 객체가 존재할 것으로 예측되는 후보 영역을 결정할 수 있다. 예를 들어, 후보 영역 생성부(530)는 측위 정보 및 객체 정보에 기초하여 객체를 영상 도메인에 투사시켰을 때 영상에서 객체가 위치할 것으로 예상되는 지점에 후보 영역을 위치시킬 수 있다. 또한, 후보 영역 생성부(530)는 측위 정보 및 영상을 촬영한 카메라(540)의 파라미터 중 적어도 하나에 대한 오차에 기초하여 후보 영역의 사이즈를 결정할 수 있다.
객체 검출부(550)는 후보 영역을 이용하여 영상에서 객체를 인식할 수 있다. 객체 검출부(550)는 기본 검출 임계치에 기반하여 영상에서 객체가 인식되지 않은 경우, 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기반하여 후보 영역에서 객체를 인식할 수 있다. 또한, 객체 검출부(550)는 기본 검출 임계치에 기반하여 영상 중 후보 영역을 제외한 나머지 영역에서 객체를 인식하고, 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기초하여 후보 영역에서 객체를 인식할 수 있다.
또는, 객체 검출부(550)는 영상에서 후보 영역을 크롭하고, 크롭된 후보 영역에서 객체를 인식할 수 있다. 또는, 객체 검출부(550)는 영상에서 후보 영역 내에 중심점이 위치하는 후보 박스를 미리 결정된 개수 이상 생성하고, 생성된 후보 박스가 적용된 RCNN을 이용하여 객체를 인식할 수 있다.
도 6은 일실시예에 따른 인식 방법을 나타낸 도면이다.
도 6을 참조하면, 일실시예에 따라 인식 장치에서 수행되는 인식 방법이 도시된다.
일실시예에 따른 인식 방법은 차량의 측위 정보를 획득하는 단계(610), 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하는 단계(620), 측위 정보 및 객체 정보에 기초하여 차량의 전방을 촬영한 영상에서 객체가 존재할 것으로 예측되는 후보 영역을 결정하는 단계(630), 후보 영역을 이용하여 영상에서 객체를 인식하는 단계(640)를 포함한다.
도 6에 도시된 각 단계들에는 도 1 내지 도 5를 통하여 전술한 사항들이 그대로 적용되므로, 보다 상세한 설명은 생략한다.
도 7은 일실시예에 따른 인식 장치를 나타낸 도면이다.
도 7을 참조하면, 일실시예에 따른 인식 장치(700)는 메모리(710) 및 프로세서(720)를 포함한다. 또한, 인식 장치(700)는 통신부(730)를 더 포함할 수 있다. 메모리(710), 프로세서(720) 및 통신부(730)는 버스(bus)(740)를 통하여 서로 통신할 수 있다.
메모리(710)는 컴퓨터에서 읽을 수 있는 명령어를 포함할 수 있다. 프로세서(720)는 메모리(710)에 저장된 명령어가 프로세서(720)에서 실행됨에 따라 앞서 언급된 동작들을 수행할 수 있다. 메모리(710)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(720)는 명령어들, 혹은 프로그램들을 실행하거나, 번호판 인식 장치(700)를 제어할 수 있다. 인식 장치(700)는 통신부(730)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다. 예를 들어, 인식 장치(700)는 외부 카메라에서 촬영된 영상을 수신하거나 측위 시스템으로부터 측위 정보를 수신할 수 있다.
프로세서(720)는 차량의 측위 정보를 획득하고, 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하고, 측위 정보 및 객체 정보에 기초하여 차량의 전방을 촬영한 영상에서 객체가 존재할 것으로 예측되는 후보 영역을 결정하며, 후보 영역을 이용하여 영상에서 객체를 인식한다.
그 밖에, 인식 장치(700)에 관해서는 상술된 동작을 처리할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
Claims (20)
- 차량의 측위 정보(localization information)를 획득하는 단계;
상기 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하는 단계;
상기 측위 정보 및 상기 객체 정보에 기초하여, 상기 차량의 전방을 촬영한 영상에서 상기 객체가 존재할 것으로 예측되는 후보 영역(candidate region)을 결정하는 단계; 및
상기 후보 영역을 이용하여 상기 영상에서 상기 객체를 인식하는 단계
를 포함하는 인식 방법. - 제1항에 있어서,
상기 후보 영역을 결정하는 단계는
상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차에 기초하여 상기 후보 영역의 사이즈를 결정하는, 인식 방법. - 제2항에 있어서,
상기 후보 영역을 결정하는 단계는
상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차가 클수록 상기 후보 영역의 사이즈를 크게 결정하는, 인식 방법. - 제1항에 있어서,
상기 후보 영역을 결정하는 단계는
상기 측위 정보 중 상기 차량의 주행 방향에 대한 오차에 기초하여 상기 후보 영역의 수직 사이즈를 결정하는, 인식 방법. - 제1항에 있어서,
상기 후보 영역을 결정하는 단계는
상기 측위 정보 중 상기 차량의 주행 방향에 수직인 측면 방향에 대한 오차에 기초하여 상기 후보 영역의 수평 사이즈를 결정하는, 인식 방법. - 제1항에 있어서,
상기 후보 영역을 결정하는 단계는
상기 측위 정보 및 상기 객체 정보에 기초하여 상기 객체를 영상 도메인에 투사(project)시켰을 때 상기 영상에서 상기 객체가 위치할 것으로 예상되는 지점에 상기 후보 영역을 위치시키는, 인식 방법. - 제1항에 있어서,
상기 객체를 인식하는 단계는
기본 검출 임계치에 기반하여 상기 영상에서 상기 객체가 인식되지 않은 경우, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기반하여 상기 후보 영역에서 상기 객체를 인식하는, 인식 방법. - 제1항에 있어서,
상기 객체를 인식하는 단계는
기본 검출 임계치에 기반하여 상기 영상 중 후보 영역을 제외한 나머지 영역에서 상기 객체를 인식하고, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기초하여 상기 후보 영역에서 상기 객체를 인식하는, 인식 방법. - 제1항에 있어서,
상기 객체를 인식하는 단계는
상기 영상에서 상기 후보 영역을 크롭(crop)하고, 상기 크롭된 후보 영역에서 상기 객체를 인식하는, 인식 방법. - 제1항에 있어서,
상기 객체를 인식하는 단계는
상기 영상에서 상기 후보 영역 내에 중심점이 위치하는 후보 박스를 미리 결정된 개수 이상 생성하고, 상기 생성된 후보 박스가 적용된 RCNN(Region based Convolutional Neural Network)을 이용하여 상기 객체를 인식하는, 인식 방법. - 제1항에 있어서,
상기 객체를 인식하는 단계는
상기 후보 영역에 대해 이미지 처리를 수행함으로써 상기 영상에서 상기 후보 영역에 대한 화질(image quality)을 개선시키고, 상기 화질이 개선된 후보 영역을 포함한 영상에서 상기 객체를 인식하는, 인식 방법. - 제1항에 있어서,
상기 객체 정보를 획득하는 단계는
상기 측위 정보에 기초하여 상기 차량의 전방에 위치할 것으로 예측되는 객체를 결정하고, 상기 결정된 객체의 타입 및 위치에 대한 정보를 획득하는, 인식 방법. - 제1항에 있어서,
상기 객체는
상기 차량이 주행하는 도로에서 미리 결정된 위치에 고정된 신호등, 표지판, 간판 중 적어도 하나를 포함하는, 인식 방법. - 제1항 내지 제13항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 저장 매체.
- 프로세서; 및
상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 포함하는 메모리
를 포함하고,
상기 적어도 하나의 명령어가 상기 프로세서에서 실행되면, 상기 프로세서는 차량의 측위 정보를 획득하고, 상기 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하고, 상기 측위 정보 및 상기 객체 정보에 기초하여, 상기 차량의 전방을 촬영한 영상에서 상기 객체가 존재할 것으로 예측되는 후보 영역을 결정하며, 상기 후보 영역을 이용하여 상기 영상에서 상기 객체를 인식하는,
인식 장치. - 제15항에 있어서,
상기 프로세서는
상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차에 기초하여 상기 후보 영역의 사이즈를 결정하는, 인식 장치. - 제15항에 있어서,
상기 프로세서는
상기 측위 정보 중 상기 차량의 주행 방향에 대한 오차에 기초하여 상기 후보 영역의 수직 사이즈를 결정하는, 인식 장치. - 제15항에 있어서,
상기 프로세서는
상기 측위 정보 중 상기 차량의 주행 방향에 수직되는 측면 방향에 대한 오차에 기초하여 상기 후보 영역의 수평 사이즈를 결정하는, 인식 장치. - 제15항에 있어서,
상기 프로세서는
기본 검출 임계치에 기반하여 상기 영상에서 상기 객체가 인식되지 않은 경우, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기반하여 상기 후보 영역에서 상기 객체를 인식하는, 인식 장치. - 제15항에 있어서,
상기 프로세서는
기본 검출 임계치에 기반하여 상기 영상 중 후보 영역을 제외한 나머지 영역에서 상기 객체를 인식하고, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기초하여 상기 후보 영역에서 상기 객체를 인식하는, 인식 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170117658A KR102541560B1 (ko) | 2017-09-14 | 2017-09-14 | 객체 인식 방법 및 장치 |
US16/014,078 US10885787B2 (en) | 2017-09-14 | 2018-06-21 | Method and apparatus for recognizing object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170117658A KR102541560B1 (ko) | 2017-09-14 | 2017-09-14 | 객체 인식 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190030344A true KR20190030344A (ko) | 2019-03-22 |
KR102541560B1 KR102541560B1 (ko) | 2023-06-08 |
Family
ID=65632358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170117658A KR102541560B1 (ko) | 2017-09-14 | 2017-09-14 | 객체 인식 방법 및 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10885787B2 (ko) |
KR (1) | KR102541560B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210083021A (ko) * | 2019-12-26 | 2021-07-06 | 주식회사 로탈 | 스테레오 카메라를 이용한 객체 위치 결정 시스템 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102696019B1 (ko) * | 2019-01-30 | 2024-08-19 | 삼성전자주식회사 | 영상 처리 장치 및 방법과 서비스 로봇 |
CN112149659B (zh) * | 2019-06-27 | 2021-11-09 | 浙江商汤科技开发有限公司 | 定位方法及装置、电子设备和存储介质 |
US11378652B2 (en) * | 2019-09-03 | 2022-07-05 | GM Global Technology Operations LLC | Enhancement of vehicle radar system robustness based on elevation information |
US11232554B1 (en) * | 2021-06-07 | 2022-01-25 | Elementary Robotics, Inc. | Machine-learning based camera image triggering for quality assurance inspection processes |
GB202013100D0 (en) * | 2020-08-21 | 2020-10-07 | Five Ai Ltd | Image annotation tools |
US11688176B2 (en) * | 2020-10-30 | 2023-06-27 | Nauto, Inc. | Devices and methods for calibrating vehicle cameras |
CN113569912A (zh) * | 2021-06-28 | 2021-10-29 | 北京百度网讯科技有限公司 | 车辆识别方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102861A (ja) * | 2015-12-04 | 2017-06-08 | トヨタ自動車株式会社 | 物体認識装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008091565A1 (en) * | 2007-01-23 | 2008-07-31 | Valeo Schalter & Sensoren Gmbh | Method and system for universal lane boundary detection |
US8260036B2 (en) | 2007-05-09 | 2012-09-04 | Honeywell International Inc. | Object detection using cooperative sensors and video triangulation |
KR101251776B1 (ko) * | 2010-11-26 | 2013-04-05 | 현대자동차주식회사 | 차량 센서의 인지영역 가변 조절 시스템 및 그 방법 |
JP5594246B2 (ja) | 2011-07-20 | 2014-09-24 | 株式会社デンソー | 車線認識装置 |
JP5968064B2 (ja) | 2012-05-08 | 2016-08-10 | アルパイン株式会社 | 走行レーン認識装置および走行レーン認識方法 |
CN103679691B (zh) * | 2012-09-24 | 2016-11-16 | 株式会社理光 | 连续型道路分割物检测方法和装置 |
JP6292054B2 (ja) * | 2013-11-29 | 2018-03-14 | 富士通株式会社 | 運転支援装置、方法、及びプログラム |
KR101519266B1 (ko) | 2013-12-18 | 2015-05-11 | 현대자동차주식회사 | 실내 차량 위치 측정방법 |
CN106574976B (zh) | 2014-04-09 | 2019-11-05 | 大陆-特韦斯股份有限公司 | 通过参考周围环境中的物体来进行车辆的位置校正 |
US9898668B2 (en) * | 2015-08-27 | 2018-02-20 | Qualcomm Incorporated | System and method of object detection |
JP6466811B2 (ja) * | 2015-09-30 | 2019-02-06 | 株式会社Soken | 走行区画線認識装置 |
EP3361281A4 (en) * | 2015-10-06 | 2019-05-01 | Pioneer Corporation | LIGHT CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
JP6485915B2 (ja) | 2015-10-28 | 2019-03-20 | 本田技研工業株式会社 | 道路区画線認識装置、車両制御装置、道路区画線認識方法、および道路区画線認識プログラム |
US20170270378A1 (en) * | 2016-03-16 | 2017-09-21 | Haike Guan | Recognition device, recognition method of object, and computer-readable recording medium |
EP3399465A1 (en) * | 2017-05-05 | 2018-11-07 | Dassault Systèmes | Forming a dataset for fully-supervised learning |
-
2017
- 2017-09-14 KR KR1020170117658A patent/KR102541560B1/ko active IP Right Grant
-
2018
- 2018-06-21 US US16/014,078 patent/US10885787B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102861A (ja) * | 2015-12-04 | 2017-06-08 | トヨタ自動車株式会社 | 物体認識装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210083021A (ko) * | 2019-12-26 | 2021-07-06 | 주식회사 로탈 | 스테레오 카메라를 이용한 객체 위치 결정 시스템 |
Also Published As
Publication number | Publication date |
---|---|
KR102541560B1 (ko) | 2023-06-08 |
US10885787B2 (en) | 2021-01-05 |
US20190080608A1 (en) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102541560B1 (ko) | 객체 인식 방법 및 장치 | |
US11042157B2 (en) | Lane/object detection and tracking perception system for autonomous vehicles | |
US10816984B2 (en) | Automatic data labelling for autonomous driving vehicles | |
US10816992B2 (en) | Method for transforming 2D bounding boxes of objects into 3D positions for autonomous driving vehicles (ADVs) | |
CN111247495B (zh) | 用于自动驾驶车辆的低速场景的行人交互系统 | |
CN109767637B (zh) | 倒计时信号灯识别及处理的方法和装置 | |
KR102499398B1 (ko) | 차선 검출 방법 및 장치 | |
CN111178122B (zh) | 道路场景中三维车道的检测及平面表示 | |
CN110390240B (zh) | 自动驾驶车辆中的车道后处理 | |
CN110969055B (zh) | 用于车辆定位的方法、装置、设备和计算机可读存储介质 | |
US10369993B2 (en) | Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free | |
WO2020062032A1 (en) | A pedestrian probability prediction system for autonomous vehicles | |
CN111091037B (zh) | 用于确定驾驶信息的方法和设备 | |
JP2019099138A (ja) | 車線維持補助方法及び装置 | |
US10803307B2 (en) | Vehicle control apparatus, vehicle, vehicle control method, and storage medium | |
KR102331000B1 (ko) | 자율주행차량의 관심 대상 신호등을 특정하기 위한 방법 및 이를 이용한 컴퓨팅 장치 | |
JP7334795B2 (ja) | 車両制御方法及び車両制御装置 | |
KR20190013080A (ko) | 영상 획득 방법 및 영상 획득 장치 | |
JP2020087191A (ja) | 車線境界設定装置、車線境界設定方法 | |
CN110766761A (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
CN114333339B (zh) | 深度神经网络功能模块去重复的方法 | |
US11893715B2 (en) | Control device and control method for mobile object, storage medium, and vehicle | |
US20230417885A1 (en) | Systems and methods for detecting erroneous lidar data | |
KR101875517B1 (ko) | 영상 처리 방법 및 장치 | |
Alrousan et al. | Multi-Sensor Fusion in Slow Lanes for Lane Keep Assist System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right |