KR20190030344A - 객체 인식 방법 및 장치 - Google Patents

객체 인식 방법 및 장치 Download PDF

Info

Publication number
KR20190030344A
KR20190030344A KR1020170117658A KR20170117658A KR20190030344A KR 20190030344 A KR20190030344 A KR 20190030344A KR 1020170117658 A KR1020170117658 A KR 1020170117658A KR 20170117658 A KR20170117658 A KR 20170117658A KR 20190030344 A KR20190030344 A KR 20190030344A
Authority
KR
South Korea
Prior art keywords
candidate region
image
vehicle
positioning information
information
Prior art date
Application number
KR1020170117658A
Other languages
English (en)
Other versions
KR102541560B1 (ko
Inventor
이재우
장철훈
이동욱
이원주
지대현
현윤석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170117658A priority Critical patent/KR102541560B1/ko
Priority to US16/014,078 priority patent/US10885787B2/en
Publication of KR20190030344A publication Critical patent/KR20190030344A/ko
Application granted granted Critical
Publication of KR102541560B1 publication Critical patent/KR102541560B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • G06K9/00805
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

객체 인식 방법 및 장치가 개시된다. 개시된 객체 인식 장치는 차량의 측위 정보를 획득하고, 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하고, 측위 정보 및 객체 정보에 기초하여 차량의 전방을 촬영한 영상에서 객체가 존재할 것으로 예측되는 후보 영역을 결정하며, 후보 영역을 이용하여 영상에서 객체를 인식한다.

Description

객체 인식 방법 및 장치{METHOD AND APPARATUS FOR RECOGNIZING OBJECT}
아래 실시예들은 객체 인식 방법 및 장치에 관한 것이다.
최근 자동차 산업의 발달로 운전자의 편의와 차량의 안전성 향상을 도모하기 위한 다양한 첨단 기술이 자동차에 적용되고 있다. 특히, 차량에 장착된 카메라를 통해 촬영된 차량의 전방 영상에서 객체를 인식하는 첨단 기술들이 급속도로 증대되고 있다. 야간, 눈, 비 등 다양한 환경에서 상대적으로 빠른 속도로 주행하는 차량에 이러한 첨단 기술이 활용되기 위해서는 높은 객체 인식률이 요구된다.
일실시예에 따른 인식 방법은 차량의 측위 정보(localization information)를 획득하는 단계; 상기 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하는 단계; 상기 측위 정보 및 상기 객체 정보에 기초하여, 상기 차량의 전방을 촬영한 영상에서 상기 객체가 존재할 것으로 예측되는 후보 영역(candidate region)을 결정하는 단계; 및 상기 후보 영역을 이용하여 상기 영상에서 상기 객체를 인식하는 단계를 포함한다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차에 기초하여 상기 후보 영역의 사이즈를 결정할 수 있다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차가 클수록 상기 후보 영역의 사이즈를 크게 결정할 수 있다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 중 상기 차량의 주행 방향에 대한 오차에 기초하여 상기 후보 영역의 수직 사이즈를 결정할 수 있다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 중 상기 차량의 주행 방향에 수직인 측면 방향에 대한 오차에 기초하여 상기 후보 영역의 수평 사이즈를 결정할 수 있다.
일실시예에 따른 인식 방법에서 상기 후보 영역을 결정하는 단계는 상기 측위 정보 및 상기 객체 정보에 기초하여 상기 객체를 영상 도메인에 투사(project)시켰을 때 상기 영상에서 상기 객체가 위치할 것으로 예상되는 지점에 상기 후보 영역을 위치시킬 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 기본 검출 임계치에 기반하여 상기 영상에서 상기 객체가 인식되지 않은 경우, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기반하여 상기 후보 영역에서 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 기본 검출 임계치에 기반하여 상기 영상 중 후보 영역을 제외한 나머지 영역에서 상기 객체를 인식하고, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기초하여 상기 후보 영역에서 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 상기 영상에서 상기 후보 영역을 크롭(crop)하고, 상기 크롭된 후보 영역에서 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 상기 영상에서 상기 후보 영역 내에 중심점이 위치하는 후보 박스를 미리 결정된 개수 이상 생성하고, 상기 생성된 후보 박스가 적용된 RCNN(Region based Convolutional Neural Network)을 이용하여 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체를 인식하는 단계는 상기 후보 영역에 대해 이미지 처리를 수행함으로써 상기 영상에서 상기 후보 영역에 대한 화질(image quality)을 개선시키고, 상기 화질이 개선된 후보 영역을 포함한 영상에서 상기 객체를 인식할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체 정보를 획득하는 단계는 상기 측위 정보에 기초하여 상기 차량의 전방에 위치할 것으로 예측되는 객체를 결정하고, 상기 결정된 객체의 타입 및 위치에 대한 정보를 획득할 수 있다.
일실시예에 따른 인식 방법에서 상기 객체는 상기 차량이 주행하는 도로에서 미리 결정된 위치에 고정된 신호등, 표지판, 간판 중 적어도 하나를 포함할 수 있다.
일실시예에 따른 인식 장치는 프로세서; 및 상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 포함하는 메모리를 포함하고, 상기 적어도 하나의 명령어가 상기 프로세서에서 실행되면, 상기 프로세서는 차량의 측위 정보를 획득하고, 상기 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하고, 상기 측위 정보 및 상기 객체 정보에 기초하여, 상기 차량의 전방을 촬영한 영상에서 상기 객체가 존재할 것으로 예측되는 후보 영역을 결정하며, 상기 후보 영역을 이용하여 상기 영상에서 상기 객체를 인식한다.
도 1은 일실시예에 따라 영상에서 객체를 인식하는 과정을 설명하기 위한 도면이다.
도 2는 일실시예에 따라 차량의 측위 정보를 나타낸 도면이다.
도 3은 일실시예에 따라 후보 영역의 위치 및 사이즈를 나타낸 도면이다.
도 4는 일실시예에 따라 후보 영역을 이용하여 객체를 인식하는 예시를 나타낸 도면이다.
도 5는 일실시예에 따라 객체를 인식하는 인식 시스템을 나타낸 도면이다.
도 6은 일실시예에 따른 인식 방법을 나타낸 도면이다.
도 7은 일실시예에 따른 인식 장치를 나타낸 도면이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
하기에서 설명될 실시예들은 차량에서 촬영된 영상에서 객체를 인식하는 데 사용될 수 있다. 실시예들은 이미지 센서를 장착한 차량, 자율 주행 자동차, 지능형 자동차 등에 적용될 수 있다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다.
도 1은 일실시예에 따라 영상에서 객체를 인식하는 과정을 설명하기 위한 도면이다.
도 1을 참조하면, 일실시예에 따른 차량(130)의 카메라에서 획득한 영상(110)과 측위 정보가 표시된 맵(120)이 도시된다.
일실시예에 따라 차량(130)에 카메라가 장착될 수 있다. 예를 들어, 카메라는 차량(130)의 윈드실드(windshield), 대시보드(dashboard), 백미러(rear-view mirror) 등 미리 정해진 위치에 고정되어 차량(130)의 전방을 촬영할 수 있다.
일실시예에 따라 차량(130)의 전방이 촬영된 영상(110)에는 객체(140)가 포함될 수 있다. 객체(140)는 차량(130)이 주행하는 도로에서 미리 결정된 위치에 고정되는 신호등, 표지판, 간판 중 적어도 하나를 포함할 수 있다. 객체(140)는 차량(130)의 주행에 참고해야 하는 정보를 전달하는 랜드마크(landmark)일 수 있다.
일실시예에 따라 인식 장치는 후보 영역(150)을 이용하여 영상(110)에서 객체(140)를 인식한다. 여기서, 객체 인식은 차량(130)의 주행 중에 인식이 필요한 신호등, 표지판, 간판 등의 다양한 객체를 검출하여 인식하는 것으로, 아래에서는 설명의 편의를 위해 객체 검출로도 지칭될 수 있다.
후보 영역(150)은 영상(110)에서 객체(140)가 존재할 것으로 예측되는 영역으로, 차량(130)의 측위 정보(localization information)와 객체(140)에 대한 객체 정보에 기초하여 결정된다.
일실시예에 따른 차량(130)의 측위 정보는 차량(130)의 현재 위치를 나타내는 정보로서, 예를 들어, 차량(130)의 위도, 경도 및 헤딩각(heading angle)에 대한 정보를 포함할 수 있다. 차량(130)의 측위 정보에 대해서는 도 2를 참조하여 보다 상세히 설명한다.
일실시예에 따른 객체 정보는 객체(140)의 타입 및 위치에 대한 정보를 포함할 수 있다. 이 때, 객체(140)는 차량(130)의 측위 정보에 기초하여 차량(130)의 전방에 위치할 것으로 예측되는 객체일 수 있다. 예를 들어, 측위 정보 중 위도, 경도에 기초하여 차량(130)의 현재 위치가 결정되고, 측위 정보 중 헤딩각을 통해 차량(130)의 현재 위치를 중심으로 한 FOV(Field of View)(131)가 결정될 수 있다. FOV(131) 내에 위치한 객체(140)가 차량(130)의 전방에 위치하는 것으로 결정되어 해당 객체(140)에 대한 객체 정보가 획득될 수 있다.
예를 들어, 객체 정보는 랜드마크 맵(landmark map)에서 획득될 수 있다. 랜드마크 맵은 도로 상에서 고정되어 시간에 따라 위치가 변하지 않는 다양한 신호등, 표지판, 간판 등에 대한 정보를 저장할 수 있다. 앞서 설명한 바와 같이, 차량(130)의 측위 정보로 차량(130)의 현재 위치가 결정되면 해당 차량(130)의 주변에 위치한 객체들의 분포 및 차량(130)과 각 객체 간의 상대위치가 결정됨으로써, 랜드마크 맵에 저장된 정보 중에서 차량(130)의 전방에 위치하는 것으로 결정된 객체(140)에 대한 객체 정보가 획득될 수 있다.
일실시예에 따른 객체(140)의 타입은 해당 객체(140)가 신호등, 표지판, 간판 중 어느 하나에 해당되는지 여부를 나타낼 수 있다. 또한, 객체(140)의 위치는 객체(140)의 위도, 경도를 포함할 수 있으며, 해당 객체(140)가 설치된 높이를 더 포함할 수 있다.
인식 장치는 영상(110)에서 객체(140)가 존재할 것으로 예측되는 후보 영역(150)을 이용하여 객체(140)를 인식함으로써, 야간, 우천, 눈, 역광과 같은 다양한 환경에서도 강인하게 객체(140)를 인식할 수 있다. 인식 장치에서 인식된 결과는 자율 주행 시스템, ADAS(Advanced Driver Assist System), 측위 시스템 등에서 교통 신호/규제를 인식하여 차량 주행에 적용하거나, 차량(130)에 대한 정확한 측위 획득에 이용될 수 있다.
도 2는 일실시예에 따라 차량의 측위 정보를 나타낸 도면이다.
도 2를 참조하면, 일실시예에 따른 차량(210)의 측위 정보를 표현할 수 있는 x, y 좌표와 x', y' 좌표가 도시된다.
일실시예에 따른 차량(210)의 측위 정보는 x, y 좌표 상의 위도, 경도와 헤딩각 h로 표시될 수 있다. 이 때, x 축은 경도를 나타내고, y 축은 위도를 나타낼 수 있다. 또한, 헤딩각 h는 x 축을 기준으로 차량(210)의 주행 방향을 각도로 나타내는 것으로, 요 앵글(yaw angle)로도 지칭될 수 있다. 차량(210)의 측위 정보는 차량(210)에 장착된 다양한 측위 시스템(예컨대, 고정밀 GPS(Global Positioning System), 랜드마크 측위법 등)을 통해 획득될 수 있다.
앞서 설명한 x, y 좌표 상의 측위 정보는 헤딩각 h를 이용하여 차량(210)의 주행 방향을 기준으로 한 x', y' 좌표 상의 측위 정보로 변환될 수 있다. x', y' 좌표에서 y' 축은 차량(210)의 주행 방향을 나타내고, x' 축은 차량(210)의 주행 방향에 수직인 측면 방향을 나타낼 수 있다. x', y' 좌표 상의 측위 정보는 도 1의 후보 영역(150)의 사이즈를 결정하는 데 이용될 수 있으며, 이에 대한 상세한 설명은 도 3을 참조하여 후술한다.
도 3은 일실시예에 따라 후보 영역의 위치 및 사이즈를 나타낸 도면이다.
도 3을 참조하면, 일실시예에 따라 영상 내에서 후보 영역(310)의 위치 및 사이즈를 제어하는 과정을 설명하기 위한 예시가 도시된다. 도 3에서는 설명의 편의를 위해 후보 영역(310)이 직사각형으로 도시되었으나, 이에 제한되지 않으며 다양한 형태의 후보 영역(310)이 적용될 수 있다.
일실시예에 따른 후보 영역(310)은 영상에서 객체(320)가 존재할 것으로 예측되는 영역으로, 일정한 위치와 사이즈를 가질 수 있다. 후보 영역(310)의 위치는 차량의 측위 정보와 객체(320)에 대한 객체 정보에 기초하여 객체(320)를 영상 도메인에 투사(project)시켰을 때 영상에서 객체(320)가 위치할 것으로 예상되는 지점으로 결정될 수 있다. 후보 영역(310)의 위치는 후보 영역(310)의 중심점(311)으로 나타낼 수 있다.
이 때, 차량의 측위 정보와 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 오차가 존재할 경우, 후보 영역(310)의 위치에도 동일하게 오차가 존재할 수 있다. 따라서, 후보 영역(310)은 존재할 수 있는 오차를 커버할 수 있는 사이즈를 가질 수 있다.
일실시예에 따른 후보 영역(310)의 사이즈는 차량의 측위 정보와 카메라의 파라미터 중 적어도 하나에 대한 오차에 기초하여 결정될 수 있다. 측위 정보 및 카메라의 파라미터 중 적어도 하나에 대한 오차가 클수록 후보 영역(310)의 사이즈가 크게 결정될 수 있다.
후보 영역(310)의 수직 사이즈(313)는 차량의 측위 정보 중 차량의 주행 방향에 대한 오차에 기초하여 결정될 수 있다. 예를 들어, 차량의 주행 방향에 대한 오차로 차량이 측위 정보로 예측된 위치보다 더 주행한 경우, 신호등이 위치할 것으로 예측된 지점보다 높게 신호등이 영상에 포함될 수 있다. 반대로, 차량의 주행 방향에 대한 오차로 차량이 측위 정보로 예측된 위치보다 덜 주행한 경우, 신호등이 위치할 것으로 예측된 지점보다 낮게 신호등이 영상에 포함될 수 있다. 따라서, 차량의 주행 방향에 대한 오차에 기초하여 후보 영역(310)의 수직 사이즈(313)를 결정할 필요가 있다.
또한, 후보 영역(310)의 수평 사이즈(315)는 차량의 측위 정보 중 차량의 측면 방향에 대한 오차에 기초하여 결정될 수 있다. 예를 들어, 차량의 측면 방향에 대한 오차로 차량이 측위 정보로 예측된 위치보다 더 우측에서 주행하는 경우, 신호등이 위치할 것으로 예측된 지점보다 좌측에 신호등이 영상에 포함될 수 있다. 반대의 경우, 신호등은 예측된 지점보다 우측에 위치할 수 있다. 따라서, 차량의 측면 방향에 대한 오차에 기초하여 후보 영역(310)의 수평 사이즈(315)를 결정할 필요가 있다.
이 때, 인식 장치는 차량의 주행 방향에 대한 오차가 클수록 후보 영역(310)의 수직 사이즈(313)를 크게 결정하고, 차량의 측면 방향에 대한 오차가 클수록 후보 영역(310)의 수평 사이즈(315)를 크게 결정할 수 있다.
여기서, 주행 방향에 대한 오차와 측면 방향에 대한 오차는 도 2에서 전술한 x, y 좌표 상의 측위 정보를 헤딩각 h에 기초하여 x', y' 좌표 상의 측위 정보로 변환하는 과정을 통해, x, y 좌표 상의 측위 정보에 대한 오차로부터 획득될 수 있다.
일실시예에 따른 카메라의 파라미터는 객체(320)를 영상 도메인에 투사시킬 때 고려되는 캘리브레이션 파라미터(calibration parameter)로서, 예를 들어, 카메라의 초점 거리(focal length), 차량에서 카메라가 설치된 위치, 카메라의 촬영 방향 등을 포함할 수 있다. 이러한 카메라의 파라미터에 대한 오차도 고려하여 후보 영역(310)의 사이즈가 결정될 수 있다.
도 4는 일실시예에 따라 후보 영역을 이용하여 객체를 인식하는 예시를 나타낸 도면이다.
도 4를 참조하면, 일실시예에 따라 후보 영역(410)을 이용하여 객체(420)의 인식률을 향상시키는 과정을 설명하기 위한 예시가 도시된다.
일실시예에 따라 후보 영역(410)을 이용하여 객체(420)를 강인하게 인식할 수 있는 4가지 방안들이 있으며, 이러한 3가지 방안들은 아래와 같다.
첫 번째 방안은 후보 영역(410)에 대해 적응적 검출 임계치를 적용하는 것이다.
일실시예에 따라 인식 장치는 임계치에 기반하여 영상에서 객체(420)를 인식할 수 있다. 예를 들어, 인식 장치는 영상 전체에서 객체(420)가 존재할 수 있는 후보 박스(411)를 여러 개 생성하고, 생성된 후보 박스(411)가 어떤 객체에 해당하는지 여부를 분류 과정(classification process)을 통해 판단할 수 있다. 여기서, 후보 박스(411)는 ROI(Region of Interest)로도 지칭될 수 있다.
분류 과정에서 후보 박스(411)가 특정 클래스(class)(예컨대, 신호등, 표지판, 간판 등)일 확률이 결정되는 데, 클래스 확률이 미리 결정된 임계치와 비교되어 객체 인식이 수행될 수 있다. 예를 들어, 신호등일 확률이 0.8로 결정된 경우에 미리 결정된 임계치가 0.7이면 해당 후보 박스(411)가 신호등으로 인식되는 반면, 만약 미리 결정된 임계치가 0.9이면 해당 후보 박스(411)가 신호등으로 인식되지 않는다.
이러한 임계치를 적응적으로 설정함으로써, 객체(420)를 강인하게 인식할 수 있다. 다시 말해, 후보 영역(410)에 대해서는 기본 검출 임계치보다 낮은 적응적 검출 임계치를 적용할 수 있다.
예를 들어, 인식 장치는 기본 검출 임계치에 기반하여 영상에서 객체(420)를 인식을 수행하였으나, 객체(420)가 인식되지 않은 경우 적응적 검출 임계치에 기반하여 후보 영역(410)에서 객체(420)를 인식할 수 있다. 이는 우선적으로 기본 검출 임계치에 기반하여 객체(420)가 인식되지 않은 경우에 한해 적응적 검출 임계치를 후보 영역(410)에만 적용함으로써 객체(420)를 인식하는 방안에 해당될 수 있다.
또는, 인식 장치는 기본 검출 임계치에 기반하여 영상 중 후보 영역(410)을 제외한 나머지 영역에서 객체(420)를 인식하고, 적응적 검출 임계치에 기초하여 후보 영역(410)에서 객체(420)를 인식할 수 있다. 이는 기본 검출 임계치와 적응적 검출 임계치를 서로 다른 영역에 적용하여 한 번에 객체(420)를 인식하는 방안에 해당될 수 있다. 이 경우, 앞서 설명한 후보 박스(411)의 중심점이 후보 영역(410) 내에 위치한 경우, 후보 영역(410)에 적용된 적응적 검출 임계치가 해당 후보 박스(411)에 적용될 수 있으며, 만약 후보 박스(411)의 중심점이 후보 영역(410) 밖에 위치한 경우, 기본 검출 임계치가 해당 후보 박스(411)에 적용될 수 있다.
두 번째 방안은 후보 영역(410)을 크롭(crop)하고, 크롭된 후보 영역(410)에서 객체(420)를 인식하는 것이다. 일실시예에 따라 인식 장치는 영상과 크롭된 후보 영역(410)에서 객체(420)를 인식할 수 있다. 이에 따라 후보 영역(410)에 대해서는 객체 인식이 두 번 수행됨으로써, 후보 영역(410)에 대한 객체 인식이 가중되어 수행될 수 있다.
세 번째 방안은 빠른-RCNN(Faster-Region based Convolutional Neural Network)에 적용되는 후보 박스(411)를 후보 영역(410) 내에서 많이 생성하는 것이다. 일실시예에 따라 인식 장치는 영상에서 후보 영역(410) 내에 중심점이 위치하는 후보 박스(411)를 미리 결정된 개수 이상 생성하고, 생성된 후보 박스(411)가 적용된 RCNN을 이용하여 객체(420)를 인식할 수 있다.
네 번째 방안은 후보 영역(410)에 영상 개선(image enhancement)을 수행하여 객체(420)를 인식하는 것이다. 영상 개선은 상당한 처리시간(processing time)이 요구되는 과정으로, 빠른 속도로 이동하는 차량에서 영상 전체에 대해 수행하기가 어려울 수 있다. 영상 전체가 아닌 후보 영역(410)에 대해서만 영상 개선을 수행함으로써 짧은 처리시간만으로도 객체 인식 성능을 효과적으로 향상시킬 수 있다. 다시 말해, 인식 장치는 후보 영역에 대해 이미지 처리를 수행함으로써 영상에서 후보 영역에 대한 화질(image quality)을 개선시키고, 화질이 개선된 후보 영역을 포함한 영상에서 객체(420)를 인식할 수 있다.
도 5는 일실시예에 따라 객체를 인식하는 인식 시스템을 나타낸 도면이다.
도 5를 참조하면, 일실시예에 따라 인식 시스템(500)은 측위 시스템(localization system)(510), 랜드마크 맵(520), 후보 영역 생성부(530), 카메라(540) 및 객체 검출부(550)를 포함할 수 있다.
측위 시스템(510)은 차량의 측위 정보를 생성할 수 있다. 측위 시스템(510)은 차량의 위도, 경도 및 헤딩각에 대한 정보를 측위 정보로 생성할 수 있다. 또한, 측위 시스템(510)은 헤딩각 h에 기초하여 x, y 좌표 상의 측위 정보인 위도, 경도를 x', y' 좌표 상의 측위 정보로 변환할 수도 있다. 측위 시스템(510)은 차량의 측위 정보를 후보 영역 생성부(530)로 전달할 수 있다.
랜드마크 맵(520)은 도로 상에서 미리 결정된 위치에 고정된 다양한 객체에 대한 정보를 저장할 수 있다. 예를 들어, 랜드마크 맵(520)은 도로 상에 고정된 객체들에 대한 타입 및 위치에 대한 정보를 포함할 수 있다. 타입은 해당 객체가 신호등, 표지판, 간판 중 어느 하나에 해당되는지 여부를 나타내고, 위치는 객체가 고정된 위치에 대한 위도, 경도, 지면으로부터의 높이를 나타낼 수 있다. 랜드마크 맵(520)은 주행 중인 차량의 전방에 위치하는 것으로 결정된 객체에 대한 객체 정보를 후보 영역 생성부(530)로 전달할 수 있다.
후보 영역 생성부(530)는 측위 정보 및 객체 정보에 기초하여, 카메라(540)에서 촬영된 영상에서 객체가 존재할 것으로 예측되는 후보 영역을 결정할 수 있다. 예를 들어, 후보 영역 생성부(530)는 측위 정보 및 객체 정보에 기초하여 객체를 영상 도메인에 투사시켰을 때 영상에서 객체가 위치할 것으로 예상되는 지점에 후보 영역을 위치시킬 수 있다. 또한, 후보 영역 생성부(530)는 측위 정보 및 영상을 촬영한 카메라(540)의 파라미터 중 적어도 하나에 대한 오차에 기초하여 후보 영역의 사이즈를 결정할 수 있다.
객체 검출부(550)는 후보 영역을 이용하여 영상에서 객체를 인식할 수 있다. 객체 검출부(550)는 기본 검출 임계치에 기반하여 영상에서 객체가 인식되지 않은 경우, 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기반하여 후보 영역에서 객체를 인식할 수 있다. 또한, 객체 검출부(550)는 기본 검출 임계치에 기반하여 영상 중 후보 영역을 제외한 나머지 영역에서 객체를 인식하고, 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기초하여 후보 영역에서 객체를 인식할 수 있다.
또는, 객체 검출부(550)는 영상에서 후보 영역을 크롭하고, 크롭된 후보 영역에서 객체를 인식할 수 있다. 또는, 객체 검출부(550)는 영상에서 후보 영역 내에 중심점이 위치하는 후보 박스를 미리 결정된 개수 이상 생성하고, 생성된 후보 박스가 적용된 RCNN을 이용하여 객체를 인식할 수 있다.
도 6은 일실시예에 따른 인식 방법을 나타낸 도면이다.
도 6을 참조하면, 일실시예에 따라 인식 장치에서 수행되는 인식 방법이 도시된다.
일실시예에 따른 인식 방법은 차량의 측위 정보를 획득하는 단계(610), 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하는 단계(620), 측위 정보 및 객체 정보에 기초하여 차량의 전방을 촬영한 영상에서 객체가 존재할 것으로 예측되는 후보 영역을 결정하는 단계(630), 후보 영역을 이용하여 영상에서 객체를 인식하는 단계(640)를 포함한다.
도 6에 도시된 각 단계들에는 도 1 내지 도 5를 통하여 전술한 사항들이 그대로 적용되므로, 보다 상세한 설명은 생략한다.
도 7은 일실시예에 따른 인식 장치를 나타낸 도면이다.
도 7을 참조하면, 일실시예에 따른 인식 장치(700)는 메모리(710) 및 프로세서(720)를 포함한다. 또한, 인식 장치(700)는 통신부(730)를 더 포함할 수 있다. 메모리(710), 프로세서(720) 및 통신부(730)는 버스(bus)(740)를 통하여 서로 통신할 수 있다.
메모리(710)는 컴퓨터에서 읽을 수 있는 명령어를 포함할 수 있다. 프로세서(720)는 메모리(710)에 저장된 명령어가 프로세서(720)에서 실행됨에 따라 앞서 언급된 동작들을 수행할 수 있다. 메모리(710)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(720)는 명령어들, 혹은 프로그램들을 실행하거나, 번호판 인식 장치(700)를 제어할 수 있다. 인식 장치(700)는 통신부(730)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다. 예를 들어, 인식 장치(700)는 외부 카메라에서 촬영된 영상을 수신하거나 측위 시스템으로부터 측위 정보를 수신할 수 있다.
프로세서(720)는 차량의 측위 정보를 획득하고, 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하고, 측위 정보 및 객체 정보에 기초하여 차량의 전방을 촬영한 영상에서 객체가 존재할 것으로 예측되는 후보 영역을 결정하며, 후보 영역을 이용하여 영상에서 객체를 인식한다.
그 밖에, 인식 장치(700)에 관해서는 상술된 동작을 처리할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (20)

  1. 차량의 측위 정보(localization information)를 획득하는 단계;
    상기 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하는 단계;
    상기 측위 정보 및 상기 객체 정보에 기초하여, 상기 차량의 전방을 촬영한 영상에서 상기 객체가 존재할 것으로 예측되는 후보 영역(candidate region)을 결정하는 단계; 및
    상기 후보 영역을 이용하여 상기 영상에서 상기 객체를 인식하는 단계
    를 포함하는 인식 방법.
  2. 제1항에 있어서,
    상기 후보 영역을 결정하는 단계는
    상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차에 기초하여 상기 후보 영역의 사이즈를 결정하는, 인식 방법.
  3. 제2항에 있어서,
    상기 후보 영역을 결정하는 단계는
    상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차가 클수록 상기 후보 영역의 사이즈를 크게 결정하는, 인식 방법.
  4. 제1항에 있어서,
    상기 후보 영역을 결정하는 단계는
    상기 측위 정보 중 상기 차량의 주행 방향에 대한 오차에 기초하여 상기 후보 영역의 수직 사이즈를 결정하는, 인식 방법.
  5. 제1항에 있어서,
    상기 후보 영역을 결정하는 단계는
    상기 측위 정보 중 상기 차량의 주행 방향에 수직인 측면 방향에 대한 오차에 기초하여 상기 후보 영역의 수평 사이즈를 결정하는, 인식 방법.
  6. 제1항에 있어서,
    상기 후보 영역을 결정하는 단계는
    상기 측위 정보 및 상기 객체 정보에 기초하여 상기 객체를 영상 도메인에 투사(project)시켰을 때 상기 영상에서 상기 객체가 위치할 것으로 예상되는 지점에 상기 후보 영역을 위치시키는, 인식 방법.
  7. 제1항에 있어서,
    상기 객체를 인식하는 단계는
    기본 검출 임계치에 기반하여 상기 영상에서 상기 객체가 인식되지 않은 경우, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기반하여 상기 후보 영역에서 상기 객체를 인식하는, 인식 방법.
  8. 제1항에 있어서,
    상기 객체를 인식하는 단계는
    기본 검출 임계치에 기반하여 상기 영상 중 후보 영역을 제외한 나머지 영역에서 상기 객체를 인식하고, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기초하여 상기 후보 영역에서 상기 객체를 인식하는, 인식 방법.
  9. 제1항에 있어서,
    상기 객체를 인식하는 단계는
    상기 영상에서 상기 후보 영역을 크롭(crop)하고, 상기 크롭된 후보 영역에서 상기 객체를 인식하는, 인식 방법.
  10. 제1항에 있어서,
    상기 객체를 인식하는 단계는
    상기 영상에서 상기 후보 영역 내에 중심점이 위치하는 후보 박스를 미리 결정된 개수 이상 생성하고, 상기 생성된 후보 박스가 적용된 RCNN(Region based Convolutional Neural Network)을 이용하여 상기 객체를 인식하는, 인식 방법.
  11. 제1항에 있어서,
    상기 객체를 인식하는 단계는
    상기 후보 영역에 대해 이미지 처리를 수행함으로써 상기 영상에서 상기 후보 영역에 대한 화질(image quality)을 개선시키고, 상기 화질이 개선된 후보 영역을 포함한 영상에서 상기 객체를 인식하는, 인식 방법.
  12. 제1항에 있어서,
    상기 객체 정보를 획득하는 단계는
    상기 측위 정보에 기초하여 상기 차량의 전방에 위치할 것으로 예측되는 객체를 결정하고, 상기 결정된 객체의 타입 및 위치에 대한 정보를 획득하는, 인식 방법.
  13. 제1항에 있어서,
    상기 객체는
    상기 차량이 주행하는 도로에서 미리 결정된 위치에 고정된 신호등, 표지판, 간판 중 적어도 하나를 포함하는, 인식 방법.
  14. 제1항 내지 제13항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 저장 매체.
  15. 프로세서; 및
    상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 포함하는 메모리
    를 포함하고,
    상기 적어도 하나의 명령어가 상기 프로세서에서 실행되면, 상기 프로세서는 차량의 측위 정보를 획득하고, 상기 차량의 전방에 위치한 객체에 대한 객체 정보를 획득하고, 상기 측위 정보 및 상기 객체 정보에 기초하여, 상기 차량의 전방을 촬영한 영상에서 상기 객체가 존재할 것으로 예측되는 후보 영역을 결정하며, 상기 후보 영역을 이용하여 상기 영상에서 상기 객체를 인식하는,
    인식 장치.
  16. 제15항에 있어서,
    상기 프로세서는
    상기 측위 정보 및 상기 영상을 촬영한 카메라의 파라미터 중 적어도 하나에 대한 오차에 기초하여 상기 후보 영역의 사이즈를 결정하는, 인식 장치.
  17. 제15항에 있어서,
    상기 프로세서는
    상기 측위 정보 중 상기 차량의 주행 방향에 대한 오차에 기초하여 상기 후보 영역의 수직 사이즈를 결정하는, 인식 장치.
  18. 제15항에 있어서,
    상기 프로세서는
    상기 측위 정보 중 상기 차량의 주행 방향에 수직되는 측면 방향에 대한 오차에 기초하여 상기 후보 영역의 수평 사이즈를 결정하는, 인식 장치.
  19. 제15항에 있어서,
    상기 프로세서는
    기본 검출 임계치에 기반하여 상기 영상에서 상기 객체가 인식되지 않은 경우, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기반하여 상기 후보 영역에서 상기 객체를 인식하는, 인식 장치.
  20. 제15항에 있어서,
    상기 프로세서는
    기본 검출 임계치에 기반하여 상기 영상 중 후보 영역을 제외한 나머지 영역에서 상기 객체를 인식하고, 상기 기본 검출 임계치보다 낮은 적응적 검출 임계치에 기초하여 상기 후보 영역에서 상기 객체를 인식하는, 인식 장치.
KR1020170117658A 2017-09-14 2017-09-14 객체 인식 방법 및 장치 KR102541560B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170117658A KR102541560B1 (ko) 2017-09-14 2017-09-14 객체 인식 방법 및 장치
US16/014,078 US10885787B2 (en) 2017-09-14 2018-06-21 Method and apparatus for recognizing object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170117658A KR102541560B1 (ko) 2017-09-14 2017-09-14 객체 인식 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190030344A true KR20190030344A (ko) 2019-03-22
KR102541560B1 KR102541560B1 (ko) 2023-06-08

Family

ID=65632358

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170117658A KR102541560B1 (ko) 2017-09-14 2017-09-14 객체 인식 방법 및 장치

Country Status (2)

Country Link
US (1) US10885787B2 (ko)
KR (1) KR102541560B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210083021A (ko) * 2019-12-26 2021-07-06 주식회사 로탈 스테레오 카메라를 이용한 객체 위치 결정 시스템

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102696019B1 (ko) * 2019-01-30 2024-08-19 삼성전자주식회사 영상 처리 장치 및 방법과 서비스 로봇
CN112149659B (zh) * 2019-06-27 2021-11-09 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
US11378652B2 (en) * 2019-09-03 2022-07-05 GM Global Technology Operations LLC Enhancement of vehicle radar system robustness based on elevation information
US11232554B1 (en) * 2021-06-07 2022-01-25 Elementary Robotics, Inc. Machine-learning based camera image triggering for quality assurance inspection processes
GB202013100D0 (en) * 2020-08-21 2020-10-07 Five Ai Ltd Image annotation tools
US11688176B2 (en) * 2020-10-30 2023-06-27 Nauto, Inc. Devices and methods for calibrating vehicle cameras
CN113569912A (zh) * 2021-06-28 2021-10-29 北京百度网讯科技有限公司 车辆识别方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008091565A1 (en) * 2007-01-23 2008-07-31 Valeo Schalter & Sensoren Gmbh Method and system for universal lane boundary detection
US8260036B2 (en) 2007-05-09 2012-09-04 Honeywell International Inc. Object detection using cooperative sensors and video triangulation
KR101251776B1 (ko) * 2010-11-26 2013-04-05 현대자동차주식회사 차량 센서의 인지영역 가변 조절 시스템 및 그 방법
JP5594246B2 (ja) 2011-07-20 2014-09-24 株式会社デンソー 車線認識装置
JP5968064B2 (ja) 2012-05-08 2016-08-10 アルパイン株式会社 走行レーン認識装置および走行レーン認識方法
CN103679691B (zh) * 2012-09-24 2016-11-16 株式会社理光 连续型道路分割物检测方法和装置
JP6292054B2 (ja) * 2013-11-29 2018-03-14 富士通株式会社 運転支援装置、方法、及びプログラム
KR101519266B1 (ko) 2013-12-18 2015-05-11 현대자동차주식회사 실내 차량 위치 측정방법
CN106574976B (zh) 2014-04-09 2019-11-05 大陆-特韦斯股份有限公司 通过参考周围环境中的物体来进行车辆的位置校正
US9898668B2 (en) * 2015-08-27 2018-02-20 Qualcomm Incorporated System and method of object detection
JP6466811B2 (ja) * 2015-09-30 2019-02-06 株式会社Soken 走行区画線認識装置
EP3361281A4 (en) * 2015-10-06 2019-05-01 Pioneer Corporation LIGHT CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6485915B2 (ja) 2015-10-28 2019-03-20 本田技研工業株式会社 道路区画線認識装置、車両制御装置、道路区画線認識方法、および道路区画線認識プログラム
US20170270378A1 (en) * 2016-03-16 2017-09-21 Haike Guan Recognition device, recognition method of object, and computer-readable recording medium
EP3399465A1 (en) * 2017-05-05 2018-11-07 Dassault Systèmes Forming a dataset for fully-supervised learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210083021A (ko) * 2019-12-26 2021-07-06 주식회사 로탈 스테레오 카메라를 이용한 객체 위치 결정 시스템

Also Published As

Publication number Publication date
KR102541560B1 (ko) 2023-06-08
US10885787B2 (en) 2021-01-05
US20190080608A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
KR102541560B1 (ko) 객체 인식 방법 및 장치
US11042157B2 (en) Lane/object detection and tracking perception system for autonomous vehicles
US10816984B2 (en) Automatic data labelling for autonomous driving vehicles
US10816992B2 (en) Method for transforming 2D bounding boxes of objects into 3D positions for autonomous driving vehicles (ADVs)
CN111247495B (zh) 用于自动驾驶车辆的低速场景的行人交互系统
CN109767637B (zh) 倒计时信号灯识别及处理的方法和装置
KR102499398B1 (ko) 차선 검출 방법 및 장치
CN111178122B (zh) 道路场景中三维车道的检测及平面表示
CN110390240B (zh) 自动驾驶车辆中的车道后处理
CN110969055B (zh) 用于车辆定位的方法、装置、设备和计算机可读存储介质
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
WO2020062032A1 (en) A pedestrian probability prediction system for autonomous vehicles
CN111091037B (zh) 用于确定驾驶信息的方法和设备
JP2019099138A (ja) 車線維持補助方法及び装置
US10803307B2 (en) Vehicle control apparatus, vehicle, vehicle control method, and storage medium
KR102331000B1 (ko) 자율주행차량의 관심 대상 신호등을 특정하기 위한 방법 및 이를 이용한 컴퓨팅 장치
JP7334795B2 (ja) 車両制御方法及び車両制御装置
KR20190013080A (ko) 영상 획득 방법 및 영상 획득 장치
JP2020087191A (ja) 車線境界設定装置、車線境界設定方法
CN110766761A (zh) 用于相机标定的方法、装置、设备和存储介质
CN114333339B (zh) 深度神经网络功能模块去重复的方法
US11893715B2 (en) Control device and control method for mobile object, storage medium, and vehicle
US20230417885A1 (en) Systems and methods for detecting erroneous lidar data
KR101875517B1 (ko) 영상 처리 방법 및 장치
Alrousan et al. Multi-Sensor Fusion in Slow Lanes for Lane Keep Assist System

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right