KR102908994B1 - 차량의 객체 판단 장치 및 방법 - Google Patents

차량의 객체 판단 장치 및 방법

Info

Publication number
KR102908994B1
KR102908994B1 KR1020190052918A KR20190052918A KR102908994B1 KR 102908994 B1 KR102908994 B1 KR 102908994B1 KR 1020190052918 A KR1020190052918 A KR 1020190052918A KR 20190052918 A KR20190052918 A KR 20190052918A KR 102908994 B1 KR102908994 B1 KR 102908994B1
Authority
KR
South Korea
Prior art keywords
vehicle
area
control unit
cluster
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190052918A
Other languages
English (en)
Other versions
KR20200128862A (ko
Inventor
원상복
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020190052918A priority Critical patent/KR102908994B1/ko
Publication of KR20200128862A publication Critical patent/KR20200128862A/ko
Application granted granted Critical
Publication of KR102908994B1 publication Critical patent/KR102908994B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 일 실시예에 따른 차량의 객체 판단 장치는 차량의 전방을 촬영하여 객체의 이미지 및 위치를 획득하는 카메라와, 상기 객체의 이미지의 크기 및 유효 시야를 기반으로 설정된 관심 영역 내 상기 객체를 감지하기 위해 감지 신호를 전송하고, 상기 감지 신호에 대응되는 반사 신호를 수신하는 검출부 및 상기 반사 신호를 기반으로 상기 객체의 위치를 검출하고, 상기 반사 신호를 기반으로 검출된 상기 객체의 위치를 기반으로 상기 카메라로부터 획득된 상기 객체의 위치를 판단하는 제어부를 포함하여, 차량으로부터 객체까지의 거리를 정확하게 판단하여 주행 보조 시스템이 오제어되는 것을 방지할 수 있다.

Description

차량의 객체 판단 장치 및 방법{APPARATUS AND METHOD FOR DETERMINING OBJECT OF VEHICLE}
본 발명은 차량의 객체 판단 장치 및 방법에 관한 것이다.
일반적으로 차량에는 주변 차량 또는 객체(보행자, 장애물)를 인식하기 위하여 카메라가 적용된다.
그러나, 카메라는 객체를 인식하는데 있어 객체와의 거리를 오인식하는 문제가 있다. 예를들어, 카메라는 키가 큰 사람은 차량으로부터 가깝게 위치하는 것으로 오인식하고 키가 작은 사람은 차량으로부터 멀리 위치하는 것으로 오인식하는 문제가 있다.
따라서, 카메라가 차량으로부터 객체까지의 거리를 오인식하면 주행을 보조하는 시스템(ADAS 시스템)을 정확하게 제어하기 어려워 사고를 유발할 수 있다.
본 발명의 일 목적은, 차량으로부터 객체까지의 거리를 정확하게 측정할 수 있는 차량의 객체 판단 장치 및 방법을 제공하는데 있다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 차량의 객체 판단 장치는 차량의 전방을 촬영하여 객체의 이미지 및 위치를 획득하는 카메라와, 상기 객체의 이미지의 크기 및 유효 시야(FOV, Field Of View)를 기반으로 설정된 관심 영역 내 상기 객체를 감지하기 위해 감지 신호를 전송하고, 상기 감지 신호에 대응되는 반사 신호를 수신하는 검출부 및 상기 반사 신호를 기반으로 상기 객체의 위치를 검출하고, 상기 반사 신호를 기반으로 검출된 상기 객체의 위치를 기반으로 상기 카메라로부터 획득된 객체의 위치를 판단하는 제어부를 포함한다.
상기 제어부는 상기 객체의 이미지의 크기를 기반으로 상기 객체가 존재할 가능성이 있는 영역을 객체 위치 후보 영역으로 설정하고, 상기 객체 위치 후보 영역과 상기 유효 시야가 중복되는 영역을 상기 관심 영역으로 설정한다.
상기 제어부는 상기 객체의 이미지의 크기가 기준값을 초과하는 경우, 상기 객체 위치 후보 영역을 상기 차량의 위치와 반대 방향으로 이동시켜 설정한다.
상기 제어부는 상기 객체의 이미지의 크기가 기준값 이하인 경우, 상기 객체 위치 후보 영역을 상기 차량이 위치하는 방향으로 이동시켜 상기 객체 위치 후보 영역을 설정한다.
상기 관심 영역은 지면과 수직한 방향으로 자른 복수의 단면을 포함하는 입체구조로 설정된다.
상기 제어부는 상기 단면을 분할하여 복수의 셀을 형성하고, 상기 셀로부터 반사된 신호의 검출 횟수를 카운팅하고, 소정 영역 내의 셀에서 카운팅된 검출 횟수의 평균이 제1 기준 범위 내인 경우, 상기 소정 영역 내의 셀을 결합하여 클러스터로 생성한다.
상기 제어부는 상기 클러스터와 이웃한 셀로부터 반사된 신호의 검출 횟수가 제2 기준 범위 내인 경우, 상기 이웃한 셀을 결합하여 상기 클러스터를 확장한다.
상기 제어부는 상기 클러스터를 구성하는 상기 셀의 갯수가 제3 기준 범위 내인 경우, 상기 클러스터로 생성된 상기 객체를 보행자로 판단한다.
상기 클러스터의 종횡비와 상기 카메라로부터 획득된 상기 객체 이미지의 종횡비를 비교하여 오차가 기준치 미만이면 상기 관심 영역 내에서 검출된 상기 객체가 상기 카메라에 의해 획득된 객체인 것으로 판단한다.
상기 제어부는 상기 입체구조 내에서 상기 클러스터가 생성된 상기 단면의 위치를 기반으로 상기 관심 영역 내에서 검출된 상기 객체의 위치를 판단한다.
본 발명의 일 실시예에 따른 차량의 객체 판단 방법은 차량의 전방을 촬영하여 객체 이미지 및 위치를 획득하는 단계와, 상기 객체의 이미지의 크기 및 유효 시야를 기반으로 설정된 관심 영역 내 상기 객체를 감지하기 위해 감지 신호를 전송하고, 상기 감지 신호에 대응되는 반사 신호를 수신하는 단계 및 상기 반사 신호를 기반으로 상기 객체의 위치를 검출하고, 상기 반사 신호를 기반으로 검출된 상기 객체의 위치를 기반으로 상기 카메라로부터 획득된 상기 객체의 위치를 판단하는 단계를 포함한다.
상기 관심 영역은 상기 객체의 이미지의 크기를 기반으로 상기 객체가 존재할 가능성이 있는 영역을 객체 위치 후보 영역으로 설정하고, 상기 객체 위치 후보 영역과 상기 유효 시야가 중복되는 영역을 기반으로 설정된다.
상기 객체 위치 후보 영역은 상기 객체의 이미지의 크기가 기준값을 초과하는 경우, 상기 차량의 위치와 반대 방향으로 이동하여 설정된다.
상기 객체 위치 후보 영역은 상기 객체의 이미지의 크기가 기준값 이하인 경우, 상기 차량이 위치하는 방향으로 이동하여 설정된다.
본 발명의 일 실시예에 따른 차량의 객체 판단 장치 및 방법은 객체의 크기와 무관하게 차량으로부터 객체까지의 거리를 정확하게 판단하여 주행 보조 시스템이 오제어되는 것을 방지할 수 있다.
또한, 본 발명의 일 실시예에 따른 차량의 객체 판단 장치 및 방법은 레이더 센서가 감지할 수 있는 전체 유효 시야에 대해 감지하는 것이 아닌, 관심 영역에서만 객체를 감지하도록 함으로써 레이더 센서의 부하를 방지할 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량의 객체 판단 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 객체 위치 후보 영역을 나타낸 도면이다.
도 3은 본 발명의 다른 실시예에 따른 객체 위치 후보 영역을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따라 설정되는 관심 영역을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 관심 영역을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따라 분할된 셀을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따라 마스크에 결합된 셀을 나타낸 도면이다.
도 8a는 본 발명의 일 실시예에 따라 생성된 클러스터를 나타낸 도면이고, 도
도 8b는 본 발명의 일 실시예에 따른 객체의 이미지를 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 차량의 객체 판단 방법을 나타낸 순서도이다.
도 10은 본 발명의 일 실시예에 따라 객체 위치 후보 영역의 설정 방법을 나타낸 순서도이다.
도 11은 본 발명의 일 실시예에 따라 관심 영역에서 카메라로 촬영한 객체가 검출되었는지 판단하는 방법을 나타낸 순서도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 일 실시예에 따른 차량의 객체 판단 장치를 나타낸 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 차량의 객체 판단 장치(100)는 카메라(110), 검출부(120) 및 제어부(130)를 포함할 수 있다.
카메라(110)는 차량 전방의 객체를 촬영할 수 있다. 또한, 카메라(110)는 촬영된 영상으로부터 객체의 이미지 및 위치 정보를 획득할 수 있다. 여기서, 객체는 차량 전방의 정지 차량, 이동 차량, 건물, 보행자 등을 포함할 수 있다.
카메라(110)는 일반적으로 CCD(Charge-Coupled Device) 카메라 또는 CMOS 컬러 이미지 센서를 포함할 수 있다. 여기서 CCD 및 CMOS는 모두 카메라(110)의 렌즈를 통해 들어온 빛을 전기 신호로 바꾸어 저장하는 센서를 의미한다.
검출부(120)는 관심 영역 내 객체를 감지하기 위하여 감지 신호를 전송하고, 감지 신호에 대응하는 반사 신호를 수신할 수 있다. 검출부(120)는 레이더 센서, 라이다 센서 등으로 구현될 수 있다. 여기서, 관심 영역은 객체 위치 후보 영역과 검출부(120)의 유효 시야(FOV, Field Of View)가 중복되는 영역으로 설정될 수 있다. 여기서, 유효 시야는 검출부(120)가 일반적으로 객체를 감지할 수 있는 영역을 의미하며, 유효 시야는 차량의 전방으로 방사되는 부채꼴 형태의 영역을 의미할 수 있다.
레이더 센서는 차량에 장착되어 레이더 신호를 관심 영역 내의 객체로 전송하고, 객체로부터 반사된 신호를 수신하여 객체까지의 거리, 방향 및 속도를 측정할 수 있다.
라이다 센서는 빛 또는 레이저를 사용하여 관심 영역 내의 객체와의 거리를 측정할 수 있다. 또한, 라이다 센서는 라이다 발광부를 이용하여 레이저 펄스를 방출하고 반사되는 레이저 펄스를 측정하여 객체와의 거리를 측정할 수 있다.
제어부(130)는 본 발명의 실시예에 따른 차량의 객체 판단 장치의 전반적인 동작을 제어할 수 있다.
제어부(130)는 카메라(110)로부터 획득된 객체의 이미지의 크기를 기반으로 설정된 객체 위치 후보 영역과 검출부(120)의 유효 시야가 중복되는 영역을 관심 영역으로 설정할 수 있다. 또한, 제어부(130)는 관심 영역 내에서 반사된 반사 신호를 기반으로 검출된 객체의 위치를 판단하면, 검출된 객체의 위치를 기반으로 카메라로부터 획득된 객체의 위치를 판단할 수 있다.
먼저, 제어부(130)는 카메라(110)로부터 획득된 객체가 존재할 가능성이 있는 영역을 객체 위치 후보 영역으로 설정할 수 있다. 아울러, 제어부(130)는 카메라(110)로부터 획득된 객체의 이미지의 크기를 기반으로 객체 위치 후보 영역을 이동하여 설정할 수 있다. 보다 자세한 설명은 도 2 및 도 3을 참조하여 설명한다.
도 2는 본 발명의 일 실시예에 따른 객체 위치 후보 영역을 나타낸 도면이다.
도 2에 도시된 바와 같이, 제어부(130)는 카메라(110)로부터 획득된 객체(20)가 존재할 가능성이 있는 영역을 객체 위치 후보 영역(21)으로 설정할 수 있다. 여기서, 객체 위치 후보 영역(21)은 객체(20)를 중심으로 좌,우,상,하로 소정 간격 이격된 사각형 형태의 영역을 의미할 수 있다.
제어부(130)가 카메라(110)로부터 획득된 객체의 이미지(20)의 크기가 기준값을 초과하지 않는 것으로 판단하면, 객체 위치 후보 영역(21)을 차량(V)이 위치하는 방향으로 이동하여 객체 위치 후보 영역(22)을 설정할 수 있다. 여기서, 객체의 이미지(20)의 크기는 객체의 높이 및 폭을 나타내는 픽셀 크기로 정의될 수 있으며, 기준값은 객체의 종류에 따라, 객체와 차량 사이의 거리에 따라 다르게 정의될 수 있다. 실시예에 따라 객체의 종류 및 차량 사이의 거리에 따라 설정되는 기준값은 표 1 내지 표 3과 같이 설정될 수 있다.
보행자(신장 170, 보통체중)
거리 객체크기
(픽셀 크기)
10m 400*100
20m 200*50
30m 133*33
40m 100*25
50m 80*20
차량(승용차)
거리 객체크기
(픽셀 크기)
10m 345*440
20m 172*220
30m 115*146
40m 86*110
50m 69*88
차량(트럭)
거리 객체크기
(픽셀 크기)
10m 732*590
20m 366*295
30m 244*197
40m 183*147
50m 146*118
일 예로, 제어부(130)는 카메라(110)로부터 획득된 객체의 크기가 80*20이면 차량으로부터 50m 전방에 객체가 존재할 것으로 판단하고, 50m 지점을 중심으로 객체 위치 후보 영역(21)을 설정할 수 있다,
그러나, 제어부(130)가 검출부(120)로부터 획득된 정보를 기반으로 객체가 차량으로부터 30m 전방에 존재하는 것으로 판단되면, 표 1을 참조하여 30m 전방에 위치한 객체의 기준값와 카메라(110)로부터 획득된 객체의 크기를 비교할 수 있다. 이는 실제 30m 전방에 존재하는 객체가 기준값을 갖는지 여부를 판단하기 위함이다. 제어부(130)는 카메라(110)로부터 획득된 객체의 크기(60*20)가 30m 전방에 위치한 객체의 기준값(133*33)을 초과하지 않는 것(이하인 것)으로 판단할 수 있다. 따라서, 제어부(130)는 50m 전방에 객체가 존재하는 것이 아닌 30m 전방에 키가 작은 보행자 존재하는 것으로 판단할 수 있으며, 이에 객체 위치 후보 영역을 차량이 위치하는 방향(즉, 차량으로부터 30m 전방의 지점)으로 이동하여 객체 위치 후보 영역(22)을 설정할 수 있다.또한, 도 3은 본 발명의 다른 실시예에 따른 객체 위치 후보 영역을 나타낸 도면이다.
도 3에 도시된 바와 같이, 제어부(130)는 카메라(110)로부터 획득된 객체(30)의 이미지의 크기가 기준값을 초과하는 것으로 판단하면, 객체 위치 후보 영역(31)을 차량(V)이 위치와 반대 방향으로 이동하여 객체 위치 후보 영역(32)을 설정할 수 있다.
일 예로, 제어부(130)는 카메라(110)로부터 획득된 객체의 크기가 200*50이면 차량으로부터 20m 전방에 객체가 존재할 것으로 판단하고, 20m 전방의 지점을 중심으로 객체 위치 후보 영역(31)을 설정할 수 있다,
그러나, 제어부(130)가 검출부(120)로부터 획득된 정보에 기반하여 객체가 차량으로부터 40m 전방에 존재하는 것으로 판단되면, 표 1을 참조하여 40m 전방에 위치한 객체의 기준값와 카메라(110)로부터 획득된 객체의 크기를 비교할 수 있다. 제어부(130)는 카메라(110)로부터 획득된 객체의 크기(200*50)가 40m 전방에 위치한 객체의 기준값(100*25)을 초과하는 것으로 판단할 수 있다. 따라서 제어부(130)는 20m 전방에 객체가 존재하는 것이 아닌 40m 전방에 키가 큰 보행자 존재하는 것으로 판단할 수 있으며, 이에 객체 위치 후보 영역을 차량의 위치와 반대 방향으로(즉, 차량으로부터 40m 전방) 이동하여 객체 위치 후보 영역(22)을 설정할 수 있다.
제어부(130)는 도 2 및 도 3에서 설명된 바와 같이, 객체의 이미지의 크기에 따라 이동하여 설정된 객체 위치 후보 영역과 검출부(120)의 유효 시야가 중복되는 영역을 관심 영역으로 설정할 수 있다. 보다 자세한 설명은 도 4 및 도 5를 참조하여 설명한다.
도 4는 본 발명의 일 실시예에 따라 설정되는 관심 영역을 나타낸 도면이다.
도 4에 도시된 바와 같이, 제어부(130)는 객체(40)의 크기를 기반으로 설정된 객체 위치 후보 영역(41)과 검출부(120)가 감지할 수 있는 유효 시야(42)가 중복되는 영역을 관심 영역(43)으로 설정할 수 있다.
도 5는 본 발명의 일 실시예에 따른 관심 영역을 나타낸 도면이다.
도 5에 도시된 바와 같이, 관심 영역(50)은 지면과 수직한 방향으로 자른 복수의 단면(51)을 포함하는 입체구조로 설정될 수 있다. 본 발명에서는 실시예에 따라 관심 영역(50)을 가로(A), 세로(B) 및 높이(C)를 갖는 직육면체로 설정하고 설명한다. 그러나, 입체구조가 직육면체로 한정되는 것은 아니고 다른 입체구조로 변경 가능하다.
본 발명에서 실시예에 따르면 관심 영역(50)의 가로(A)는 15m 내지 30m로 설정될 수 있으며 세로(B)와 높이(C)는 각각 2m로 설정될 수 있으며, 단면(51)은 가로(A) 방향으로 기준 단위로 이격되어 형성될 수 있다. 여기서 기준 단위는 0.1m로 설정될 수 있다.
제어부(130)는 입체구조의 관심 영역(50)의 단면(51)을 분할하여 복수의 셀을 형성할 수 있다. 또한, 제어부(130)는 검출부(120)로부터 객체로 신호를 전송하는 동작을 소정 횟수(30회 내지 50회) 반복하고, 검출부(120)로부터 전송된 신호가 셀로부터 반사된 경우, 반사된 신호의 검출 횟수를 셀 별로 각각 카운팅할 수 있다. 또한, 제어부(130)는 소정 영역 내에 포함되는 셀로부터 반사된 신호의 검출 횟수의 평균을 산출하고, 평균이 제1 기준 범위 내인 경우, 소정 영역 내에 포함되는 셀을 클러스터링하여 클러스터를 생성할 수 있다. 보다 자세한 설명은 도 6 내지 7을 참조하여 설명한다.
도 6은 본 발명의 일 실시예에 따라 분할된 셀을 나타낸 도면이다.
도 6에 도시된 바와 같이, 제어부(130)는 도 5의 입체구조의 단면(51)을 분할하여 복수의 셀(61)을 형성할 수 있다. 일 예로, 제어부(130)는 단면(51)을 기준 단위로 분할하여 복수의 셀(61)을 형성할 수 있다. 여기서 기준 단위는 0.1m로 설정할 수 있다. 일 예로, 하나의 단면(51)은 가로(A) 20개, 세로(B) 20개로 분할되어, 40개의 셀(61)로 분할될 수 있다.
제어부(130)는 검출부(120)로부터 전송된 신호가 셀(61)에서 반사되는 경우, 검출부(120)가 셀(61)로부터 반사된 신호를 수신한 횟수(검출 횟수)를 카운팅할 수 다.
아울러, 제어부(130)는 소정 영역 내에 포함되는 셀로부터 반사된 신호의 검출 횟수의 평균을 산출하기 위해 복수의 셀을 포함하는 소정 크기의 마스크(일 예로 3*3(9개의 셀))를 설정하고, 마스크 영역 내에 포함된 셀로부터 반사된 신호의 검출 횟수의 평균을 산출할 수 있다. 제어부(130)는 소정 영역에 포함된 복수의 셀로부터 반사된 신호가 검출된 검출 횟수의 평균이 제1 기준 범위 내에 해당되면 몸통 등과 같이 면적이 넓은 부분이 반사되어 검출된 것으로 판단할 수 있다. 보다 자세한 설명은 도 7을 참조하여 설명한다.
도 7은 본 발명의 일 실시예에 따라 마스크에 결합된 셀을 나타낸 도면이다.
도 7에 도시된 바와 같이, 제어부(130)는 검출부(120)로부터 객체로 신호를 전송하는 동작을 소정 횟수(30회 내지 50회) 반복하고, 검출부(120)로부터 전송된 신호가 셀로부터 반사된 경우, 반사된 신호를 카운팅하여 반사된 신호의 검출 횟수를 해당 셀(71)에 표시할 수 있다. 일 예로, 8은 해당 셀(71)에서 반사된 신호의 검출 횟수가 8번이라는 것을 의미할 수 있다.
제어부(130)는 마스크 영역 내에 포함된 셀에서 반사된 신호가 검출된 횟수(도 7의 경우, 8,8,8,6,15,8,6,12,11의 평균)의 평균이 제1 기준 범위 내에 해당되는 것으로 판단하면, 마스크 영역 내의 셀을 클러스터링하여 클러스터로 생성할 수 있다. 도 7에는 실시예에 따라 하나의 마스크(M)에 9개의 셀이 포함되는 것을 도시하였지만, 이에 한정되는 것은 아니고, 마스크 영역에 포함되는 셀의 갯수는 변경 가능하다.
제어부(130)는 마스크 영역 내에 포함된 셀에서 반사된 신호가 검출된 횟수의 평균이 소정 범위 내에 해당되면 몸통과 같이 면적이 큰 부분이 반사된 것으로 판단할 수 있다. 아울러, 제어부(130)는 몸통과 연결되는 팔과 다리와 같은 신체 부위가 인식되었는지 추가적으로 판단할 수 있다. 이를 위해 제어부(130)는 복수의 셀이 결합되어 생성된 클러스터와 인접한 셀(cell)들 중 검출 횟수가 제2 기준 범위(3 내지 10)내로 누적되었는지 판단할 수 있다. 제어부(130)는 클러스터와 인접한 셀 중 검출 횟수가 제2 기준 범위 내로 카운팅된 셀이 존재하는 것으로 판단되면, 해당 셀을 기 생성된 클러스터에 연결하여 클러스터를 확장할 수 있다.
본 발명의 실시예에 따르면, 제어부(130)는 제3 기준 범위 내의 복수의 셀이 클러스터를 생성하는 경우, 관심 영역에서 검출된 객체를 보행자로 판단할 수 있다. 여기서, 제3 기준 범위는 클러스터가 생성된 단면(51)의 위치(차량으로부터 단면까지의 거리)에 따라 변경될 수 있다.
일 예로, 제어부(130)는 차량으로부터 단면까지의 거리가 10m이고, 15 내지 20개의 셀이 연결되어 클러스터가 생성하는 경우, 객체를 보행자로 판단할 수 있다. 또한, 제어부(130)는 차량으로부터 단면까지의 거리가 20m이고, 13 내지 18개의 셀이 연결되어 클러스터를 생성하는 경우, 객체를 보행자로 판단할 수 있다. 또한, 제어부(130)는 차량으로부터 단면까지의 거리가 50m이고, 7-12개의 셀이 연결되어 클러스터를 생성하는 경우, 객체를 보행자로 판단할 수 있다.
아울러, 제어부(130)는 생성된 클러스터를 카메라(110)로부터 획득된 객체의 이미지와 비교하여 오차가 기준치 미만이면 관심 영역(도 5의 50)에서 카메라가 촬영한 객체가 검출된 것으로 판단할 수 있다. 보다 자세한 설명은 도 8a 및 도 8b를 참조하여 설명한다.
도 8a는 본 발명의 일 실시예에 따라 생성된 클러스터를 나타낸 도면이다.
도 8a에 도시된 바와 같이, 클러스터(81)는 복수의 셀이 연결된 형태로 생성될 수 있고, 제어부(130)는 클러스터(81)의 종횡비를 산출할 수 있다.
도 8b는 본 발명의 일 실시예에 따른 객체의 이미지를 나타낸 도면이다.
도 8b에 도시된 바와 같이, 제어부(130)는 카메라(110)로부터 획득된 이미지(82)의 종횡비를 산출할 수 있다.
제어부(130)는 도 8a의 클러스터(81)로부터 산출된 종횡비 및 카메라(110)로부터 획득된 객체 이미지(82)의 종횡비를 비교하고, 비교 결과 종횡비의 차이가 기준값 미만이면 단면(51)에서 검출된 객체는 카메라(110)로부터 획득된 객체인 것으로 판단할 수 있다.
제어부(130)는 관심 영역(도 5의 50)에서 카메라가 촬영한 객체가 검출된 것으로 판단하면, 클러스터가 생성된 단면(도 5의 51)의 위치(차량으로부터 단면까지의 거리)를 관심 영역에서 검출된 객체의 위치로 판단할 수 있다.
아울러 제어부(130)는 관심 영역에서 판단된 객체의 위치를 기반으로 카메라(110)로부터 획득된 객체 이미지의 위치를 판단할 수 있다.
도 9는 본 발명의 일 실시예에 따른 차량의 객체 판단 방법을 나타낸 순서도이다.
도 9에 도시된 바와 같이, 카메라(110)는 객체를 촬영하여 객체의 이미지 및 객체의 위치를 획득한다(S110).
제어부(130)는 카메라(110)로부터 획득된 객체의 이미지 크기를 기반으로 설정된 객체 위치 후보 영역을 설정한다(S120). S120의 보다 자세한 설명은 도 10을 참조하여 설명한다.
제어부(130)는 설정된 객체 위치 후보 영역 및 검출부(120)가 감지할 수 있는 유효 영역이 중복되는 영역을 관심 영역으로 설정한다(S130).
제어부(130)는 S130에서 설정된 관심 영역에서 카메라(110)로 촬영한 객체가 검출되었는지 여부를 판단하고, 검출된 객체의 위치를 판단한다(S140). S140의 보다 자세한 설명은 도 11을 참조한다.
제어부(130)는 S140에서 관심 영역에서 검출된 객체가 카메라(110)로 촬영한 객체인 것으로 판단하면, 관심 영역에서 검출된 객체의 위치를 기반으로 카메라로부터 획득된 객체의 위치를 판단한다(S150).
도 10은 본 발명의 일 실시예에 따라 객체 위치 후보 영역의 설정 방법을 나타낸 순서도이다.
도 10에 도시된 바와 같이, 제어부(130)는 카메라(110)로부터 획득된 객체가 존재할 가능성이 있는 영역을 객체 위치 후보 영역을 설정한다(S210). 여기서, 객체 위치 후보 영역은 객체(20)를 중심으로 좌,우,상,하로 소정 간격 이격된 사각형 형태의 영역을 의미할 수 있다.
제어부(130)는 객체 이미지의 크기가 기준값을 초과하는지 여부를 판단한다(S220). S220에서 제어부(130)는 객체 이미지의 크기가 기준값을 초과하지 않는 것으로 판단하면(N), 객체 위치 후보 영역을 차량이 위치하는 방향으로 이동시킨다(S230). 한편, 제어부(130)는 객체 이미지의 크기가 기준값을 초과하는 것으로 판단하면(Y), 객체 위치 후보 영역을 차량의 위치와 반대 방향으로 이동시킨다(S240).
도 11은 본 발명의 일 실시예에 따라 관심 영역에서 카메라로 촬영한 객체가 검출되었는지 판단하는 방법을 나타낸 순서도이다.
도 11에 도시되 바와 같이, 제어부(130)는 관심 영역을 입체구조로 설정한다(S310). 여기서, 관심 영역은 객체 위치 후보 영역과 검출부가 객체를 감지하는 유효 영역이 중복되는 영역을 의미할 수 있으며, 관심 영역은 지면과 수직한 방향으로 자른 복수의 단면을 포함하는 입체구조로 설정될 수 있다. S310에서 제어부(130)는 실시예에 따라 관심 영역을 가로, 세로 및 높이를 갖는 직육면체로 설정할 수 있다. 본 발명에서 실시예에 따르면 관심 영역의 가로는 15m 내지 30m로 설정될 수 있으며 세로와 높이는 각각 2m로 설정될 수 있으며, 단면은 가로 방향으로 기준 단위로 이격되어 형성될 수 있다.
제어부(130)는 S310에서 생성된 입체구조의 단면을 분할하여 복수의 셀을 형성한다(S320).
S320에서 제어부(130)는 단면을 기준 단위로 분할하여 복수의 셀을 형성할 수 있다. 여기서 기준 단위는 0.1m로 설정할 수 있다. 일 예로, 하나의 단면은 가로 20개, 세로 20개로 분할되어, 40개의 셀을 형성할 수 있다.
제어부(130)는 검출부(120)가 객체로 감지 신호를 전송하도록 제어한다(S330). S330에서 제어부(130)는 검출부(120)로부터 객체로 신호를 전송하는 동작을 소정 횟수(30회 내지 50회) 반복하도록 제어할 수 있다.
제어부(130)는 S330에서 반복하여 전송된 감지 신호가 복수의 셀에서 반사된 신호의 검출 횟수를 카운팅한다(S340). S340에서 제어부(130)는 반사된 신호의 검출 횟수를 셀 별로 각각 카운팅할 수 있다.
제어부(130)는 일 단면의 소정 영역에서 검출 횟수의 평균이 제1 기준 범위 내인 경우, 소정 영역에 포함된 셀을 클러스터링하여 클러스터를 생성한다(S350).
S350에서 제어부(130)는 소정 영역 내에 포함되는 셀로부터 반사된 신호의 검출 횟수의 평균을 산출하기 위해 복수의 셀을 포함하는 소정 크기의 마스크(일 예로 3*3(9개의 셀))를 설정하고, 마스크 영역 내에 포함된 셀로부터 반사된 신호의 검출 횟수의 평균을 산출할 수 있다. 또한, 제어부(130)는 소정 영역에 포함된 복수의 셀로부터 반사된 신호가 검출된 검출 횟수의 평균이 제1 기준 범위 내에 해당되면 몸통 등과 같이 면적이 넓은 부분이 반사되어 검출된 것으로 판단할 수 있다.
아울러, S350에서 제어부(130)는 몸통과 연결되는 팔과 다리와 같은 신체 부위가 인식되었는지 추가적으로 판단하고, 기 생성된 클러스터와 인접한 셀(cell)들 중 검출 횟수가 제2 기준 범위(3 내지 10)내로 카운팅된 셀이 존재하는지 여부를 판단할 수 있다. 제어부(130)는 클러스터와 인접한 셀 중 검출 횟수가 제2 기준 범위 내로 카운팅된 셀이 존재하는 것으로 판단되면, 해당 셀을 기 생성된 클러스터에 연결하여 클러스터를 확장할 수 있다.
또한, 제어부(130)는 생성된 클러스터가 제3 기준 범위 내의 복수의 셀로 형성되는 경우, 관심 영역에서 검출된 객체를 보행자로 판단할 수 있다. 여기서, 제3 기준 범위는 클러스터가 생성된 단면(51)의 위치(차량으로부터 단면까지의 거리)에 따라 변경될 수 있다.
일 예로, 제어부(130)는 차량으로부터 단면까지의 거리가 10m이고, 15 내지 20개의 셀이 연결되어 클러스터가 생성하는 경우, 객체를 보행자로 판단할 수 있다. 또한, 제어부(130)는 차량으로부터 단면까지의 거리가 20m이고, 13 내지 18개의 셀이 연결되어 클러스터를 생성하는 경우, 객체를 보행자로 판단할 수 있다. 또한, 제어부(130)는 차량으로부터 단면까지의 거리가 50m이고, 7-12개의 셀이 연결되어 클러스터를 생성하는 경우, 객체를 보행자로 판단할 수 있다.
제어부(130)는 S350에서 생성된 클러스터를 카메라(110)로부터 획득된 객체의 이미지와 비교한다(S360).
S360에서 제어부(130)는 클러스터의 종횡비를 산출하고, 객체의 이미지에 대한 종횡비를 산출한다. 그리고, 제어부(130)는 클러스터로부터 산출된 종횡비 및 카메라로부터 획득된 객체 이미지의 종횡비를 비교한다.
제어부(130)는 비교 결과 오차가 기준치 미만인지 여부를 판단한다(S370). S370에서 제어부(130)는 종횡비의 오차가 기준치 미만인 경우(Y), 관심 영역에서 검출되어 클러스터로 생성된 객체가 카메라(110)로부터 획득된 객체인 것으로 판단하고, 관심 영역에서 검출된 객체의 위치를 판단한다(S380). S380에서 제어부(130)는 클러스터가 생성된 단면의 위치를 기반으로 관심 영역에서 검출된 객체의 위치로 판단할 수 있다.
한편, S370에서 제어부(130)는 종횡비의 오차가 기준치 미만이 아닌 경우(N), S330을 수행하여 새로운 객체를 감지한다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
카메라 110
검출부 120
제어부 130

Claims (20)

  1. 차량의 전방을 촬영하여 객체의 이미지 및 위치를 획득하는 카메라;
    상기 객체의 이미지의 크기 및 유효 시야(FOV, Field Of View)를 기반으로 설정된 관심 영역 내 상기 객체를 감지하기 위해 감지 신호를 전송하고, 상기 감지 신호에 대응되는 반사 신호를 수신하는 검출부; 및
    상기 반사 신호를 기반으로 상기 객체의 위치를 검출하고, 상기 반사 신호를 기반으로 검출된 상기 객체의 위치를 기반으로 상기 카메라로부터 획득된 객체의 위치를 판단하는 제어부를 포함하되,
    상기 제어부는
    상기 관심 영역을 객체 위치 후보 영역과 유효 시야가 중복되는 영역으로 설정하고,
    상기 객체 위치 후보 영역의 설정 시 상기 객체의 종류 및 상기 객체와 차량 사이의 거리에 따라 미리 설정된 상기 객체의 기준값을 기반으로, 상기 카메라로부터 획득된 상기 객체의 크기에 상응하여 상기 객체가 존재할 것으로 판단된 제1 위치와 상기 검출부로부터 획득된 정보를 기반으로 상기 객체가 존재하는 제2 위치가 상이하면, 상기 카메라로부터 획득된 상기 객체의 크기와 상기 제2 위치에 상응하는 상기 객체의 기준값을 비교하는 차량의 객체 판단 장치.
  2. 청구항 1에 있어서,
    상기 제어부는
    상기 객체의 이미지의 크기를 기반으로 상기 객체가 존재할 가능성이 있는 영역을 객체 위치 후보 영역으로 설정하는 차량의 객체 판단 장치.
  3. 청구항 2에 있어서,
    상기 제어부는
    상기 객체의 이미지의 크기가 상기 기준값을 초과하는 경우, 상기 객체 위치 후보 영역을 상기 차량의 위치와 반대 방향으로 이동시켜 설정하는 차량의 객체 판단 장치.
  4. 청구항 2에 있어서,
    상기 제어부는
    상기 객체의 이미지의 크기가 상기 기준값 이하인 경우, 상기 객체 위치 후보 영역을 상기 차량이 위치하는 방향으로 이동시켜 상기 객체 위치 후보 영역을 설정하는 차량의 객체 판단 장치.
  5. 청구항 1에 있어서,
    상기 관심 영역은
    지면과 수직한 방향으로 자른 복수의 단면을 포함하는 입체구조로 설정되는 차량의 객체 판단 장치.
  6. 청구항 5에 있어서,
    상기 제어부는
    상기 단면을 분할하여 복수의 셀을 형성하고, 상기 셀로부터 반사된 신호의 검출 횟수를 카운팅하고, 소정 영역 내의 셀에서 카운팅된 검출 횟수의 평균이 제1 기준 범위 내인 경우, 상기 소정 영역 내의 셀을 결합하여 클러스터로 생성하는 차량의 객체 판단 장치.
  7. 청구항 6에 있어서,
    상기 제어부는
    상기 클러스터와 이웃한 셀로부터 반사된 신호의 검출 횟수가 제2 기준 범위 내인 경우, 상기 이웃한 셀을 결합하여 상기 클러스터를 확장하는 차량의 객체 판단 장치.
  8. 청구항 6에 있어서,
    상기 제어부는
    상기 클러스터를 구성하는 상기 셀의 갯수가 제3 기준 범위 내인 경우, 상기 클러스터로 생성된 상기 객체를 보행자로 판단하는 차량의 객체 판단 장치.
  9. 청구항 6에 있어서,
    상기 클러스터의 종횡비와 상기 카메라로부터 획득된 상기 객체 이미지의 종횡비를 비교하여 오차가 기준치 미만이면 상기 관심 영역 내에서 검출된 상기 객체가 상기 카메라에 의해 획득된 객체인 것으로 판단하는 차량의 객체 판단 장치.
  10. 청구항 6에 있어서,
    상기 제어부는
    상기 입체구조 내에서 상기 클러스터가 생성된 상기 단면의 위치를 기반으로 상기 관심 영역 내에서 검출된 상기 객체의 위치를 판단하는 차량의 객체 판단 장치.
  11. 카메라가 차량의 전방을 촬영하여 객체 이미지 및 위치를 획득하는 단계;
    검출부가 상기 객체의 이미지의 크기 및 유효 시야를 기반으로 설정된 관심 영역 내 상기 객체를 감지하기 위해 감지 신호를 전송하고, 상기 감지 신호에 대응되는 반사 신호를 수신하는 단계; 및
    상기 반사 신호를 기반으로 상기 객체의 위치를 검출하고, 상기 반사 신호를 기반으로 검출된 상기 객체의 위치를 기반으로 상기 카메라로부터 획득된 상기 객체의 위치를 판단하는 단계를 포함하되,
    상기 관심 영역을 객체 위치 후보 영역과 유효 시야가 중복되는 영역으로 설정하고,
    상기 객체 위치 후보 영역의 설정 시 상기 객체의 종류 및 상기 객체와 차량 사이의 거리에 따라 미리 설정된 상기 객체의 기준값을 기반으로, 상기 카메라로부터 획득된 상기 객체의 크기에 상응하여 상기 객체가 존재할 것으로 판단된 제1 위치와 상기 검출부로부터 획득된 정보를 기반으로 상기 객체가 존재하는 제2 위치가 상이하면, 상기 카메라로부터 획득된 상기 객체의 크기와 상기 제2 위치에 상응하는 상기 객체의 기준값을 비교하는 차량의 객체 판단 방법.
  12. 청구항 11에 있어서,
    상기 객체의 이미지의 크기를 기반으로 상기 객체가 존재할 가능성이 있는 영역을 객체 위치 후보 영역으로 설정하는 차량의 객체 판단 방법.
  13. 청구항 12에 있어서,
    상기 객체 위치 후보 영역은
    상기 객체의 이미지의 크기가 상기 기준값을 초과하는 경우, 상기 차량의 위치와 반대 방향으로 이동하여 설정되는 차량의 객체 판단 방법.
  14. 청구항 12에 있어서,
    상기 객체 위치 후보 영역은
    상기 객체의 이미지의 크기가 상기 기준값 이하인 경우, 상기 차량이 위치하는 방향으로 이동하여 설정되는 차량의 객체 판단 방법.
  15. 청구항 11에 있어서,
    상기 관심 영역은
    지면과 수직한 방향으로 자른 복수의 단면을 포함하는 입체구조로 설정되는 차량의 객체 판단 방법.
  16. 청구항 15에 있어서,
    상기 단면을 분할하여 복수의 셀을 형성하는 단계;
    상기 셀로부터 반사된 신호의 검출 횟수를 카운팅하는 단계; 및
    소정 영역 내의 셀에서 상기 카운팅된 검출 횟수의 평균이 제1 기준 범위 내인 경우, 상기 소정 영역 내의 셀을 결합하여 클러스터로 생성하는 단계를 더 포함하는 차량의 객체 판단 방법.
  17. 청구항 16에 있어서,
    상기 클러스터와 이웃한 셀로부터 반사된 신호의 검출 횟수가 제2 기준 범위 내인 경우, 상기 이웃한 셀을 결합하여 상기 클러스터를 확장하는 단계를 더 포함하는 차량의 객체 판단 방법.
  18. 청구항 16에 있어서,
    상기 클러스터를 구성하는 상기 셀의 갯수가 제3 기준 범위 내인 경우, 상기 클러스터로 생성된 상기 객체를 보행자로 판단하는 차량의 객체 판단 방법.
  19. 청구항 16에 있어서,
    상기 클러스터의 종횡비와 상기 카메라로부터 획득된 상기 객체의 이미지의 종횡비를 비교하여 오차가 기준치 미만이면 상기 관심 영역 내에서 검출된 상기 객체가 상기 카메라에 의해 획득된 객체인 것으로 판단하는 차량의 객체 판단 방법.
  20. 청구항 16에 있어서,
    상기 입체구조 내에서 상기 클러스터가 생성된 상기 단면의 위치를 기반으로 상기 관심 영역에서 검출된 상기 객체의 위치를 판단하는 차량의 객체 판단 방법.
KR1020190052918A 2019-05-07 2019-05-07 차량의 객체 판단 장치 및 방법 Active KR102908994B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190052918A KR102908994B1 (ko) 2019-05-07 2019-05-07 차량의 객체 판단 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190052918A KR102908994B1 (ko) 2019-05-07 2019-05-07 차량의 객체 판단 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200128862A KR20200128862A (ko) 2020-11-17
KR102908994B1 true KR102908994B1 (ko) 2026-01-08

Family

ID=73642460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190052918A Active KR102908994B1 (ko) 2019-05-07 2019-05-07 차량의 객체 판단 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102908994B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009204615A (ja) * 2007-02-16 2009-09-10 Mitsubishi Electric Corp 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009204615A (ja) * 2007-02-16 2009-09-10 Mitsubishi Electric Corp 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Tee-Ann Teo, "Pole-Like Road Object Detection From Mobile Lidar System Using a Coarse-to-Fine Approach", JSTARS (2015.08.28.)*
Yiming Zeng, "RT3D: Real-Time 3-D Vehicle Detection in LiDAR Point Cloud for Autonomous Driving", Robotics and Automation Letters 3.4 (2018.07.04.)*

Also Published As

Publication number Publication date
KR20200128862A (ko) 2020-11-17

Similar Documents

Publication Publication Date Title
US8854463B2 (en) Method and apparatus for generating a bird's-eye view image
JP6471528B2 (ja) 物体認識装置、物体認識方法
US9230165B2 (en) Object detection apparatus, vehicle-mounted device control system and storage medium of program of object detection
JP6151150B2 (ja) 物体検出装置及びそれを用いた車両
JP6623044B2 (ja) ステレオカメラ装置
EP1378762B1 (en) Identical object determination method and apparatus and displacement correction method and apparatus in a multisensor system
EP2919197B1 (en) Object detection device and object detection method
US9274213B2 (en) Method for calibrating a plurality of environment sensors in a vehicle
US8743183B2 (en) Parallax calculation method and parallax calculation device
US10776649B2 (en) Method and apparatus for monitoring region around vehicle
EP2889641A1 (en) Image processing apparatus, image processing method, program and image processing system
KR102008263B1 (ko) 융복합형 검지기 및 이를 이용한 교통 단속시스템
US20190145768A1 (en) Object Distance Detection Device
JP7278846B2 (ja) 物体位置検出装置、走行制御システム、および走行制御方法
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
KR20140038986A (ko) 카메라 센서에 의한 거리 측정
KR101868293B1 (ko) 차량용 라이다 장치
JP2013161190A (ja) 物体認識装置
JP2005141517A (ja) 車両検出方法及び車両検出装置
JP5434277B2 (ja) 走行支援装置および走行支援方法
KR102908994B1 (ko) 차량의 객체 판단 장치 및 방법
JP2014130429A (ja) 撮像装置及び立体物領域検出用プログラム
JP7052265B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP4088182B2 (ja) 画像情報処理システム
JP6561688B2 (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

D22 Grant of ip right intended

Free format text: ST27 STATUS EVENT CODE: A-1-2-D10-D22-EXM-PE0701 (AS PROVIDED BY THE NATIONAL OFFICE)

PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

Q13 Ip right document published

Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE)