KR102136924B1 - 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템 - Google Patents

피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템 Download PDF

Info

Publication number
KR102136924B1
KR102136924B1 KR1020180065992A KR20180065992A KR102136924B1 KR 102136924 B1 KR102136924 B1 KR 102136924B1 KR 1020180065992 A KR1020180065992 A KR 1020180065992A KR 20180065992 A KR20180065992 A KR 20180065992A KR 102136924 B1 KR102136924 B1 KR 102136924B1
Authority
KR
South Korea
Prior art keywords
point cloud
position information
camera
camera module
target object
Prior art date
Application number
KR1020180065992A
Other languages
English (en)
Other versions
KR20190139469A (ko
Inventor
김일환
최인구
김시한
박재형
정호기
서재규
Original Assignee
한국도로공사
한국교통대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국도로공사, 한국교통대학교산학협력단 filed Critical 한국도로공사
Priority to KR1020180065992A priority Critical patent/KR102136924B1/ko
Publication of KR20190139469A publication Critical patent/KR20190139469A/ko
Application granted granted Critical
Publication of KR102136924B1 publication Critical patent/KR102136924B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/23Testing, monitoring, correcting or calibrating of receiver elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/24Acquisition or tracking or demodulation of signals transmitted by the system
    • G01S19/26Acquisition or tracking or demodulation of signals transmitted by the system involving a sensor measurement for aiding acquisition or tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 평가 시스템에 관한 것이다. 일 실시예에 따른 평가 방법은, 상기 피테스트 카메라 모듈과 연동되는 측위 장치를 제공하는 단계; 상기 피테스트 카메라 모듈을 통해 상기 기준 타겟 객체를 포함하는 카메라 이미지를 획득하는 단계; 상기 획득된 카메라 이미지와 동기화된 상기 측위 장치의 위치 및 방향 중 적어도 어느 하나를 포함하는 기준 위치 정보를 생성하는 단계; 상기 기준 위치 정보에 기초하여, 상기 기준 타겟 객체에 관한 포인트 클라우드 데이터를 포함하는 포인트 클라우드를 획득하는 단계; 상기 포인트 클라우드 내에 상기 피테스트 카메라 모듈의 위치인 가상 카메라 위치 정보를 생성하는 단계; 상기 포인트 클라우드를 기초로 상기 가상 카메라 위치 정보로부터 상기 기준 타겟 객체의 기준 상대 위치 정보를 산출하는 단계; 상기 영상 인식 알고리즘을 통해 산출된 상기 기준 타겟 객체의 피평가 상대 위치 정보를 수신하는 단계; 및 상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보를 비교하여, 상기 피평가 상대 위치 정보의 산출 정확도를 평가하는 단계를 포함함으로써, 자율주행 자동차에 장착된 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가할 수 있다.

Description

피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템{Method and system for evaluating accuracy of relative positional measurement performed by test camera module}
본 발명은 자율주행을 위한 센싱 기술에 관한 것으로서, 더욱 상세하게는, 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템에 관한 것이다.
최근 IT 기술이 발전함에 따라, 승객을 목적 지점으로 운송하기 위한 차량의 자율 주행 기술이 급격히 발전하고 있다. 상기 자율 주행 기술은 다양한 요소 기술들을 필요로 하며, 측위(localization) 관련 기술이 대표적인 요소 기술이다. 측위는 대부분 GPS(global positioning system)와 같은 위성 항법 시스템(global navigation satellite system; GNSS)에 의해 수행된다. 그러나, 상기 위성 항법 시스템은 빌딩 숲 또는 터널과 같이 정확한 위성 신호를 얻기 어려운 환경에서는 오동작하는 문제점을 갖는다.
전술한 위성 항법 시스템의 단점을 보완하기 위해, 상기 위성 항법 시스템에 관성 측정 장치(Inertial Measurement Unit: IMU)를 융합한 센서융합 기반 측위 기술이 개발되었다. 그러나, 상기 관성 측정 장치에 의한 관성 항법은 측위시 주행 거리에 따라 오차가 누적될 수 있어, 상기 위성 항법 시스템이 장시간 동안 오동작을 하는 경우에는 불안정한 결과를 산출하는 문제가 있다.
최근에는, 위의 2 가지 측위 기술의 단점을 극복하기 위해, 위성 항법 및 관성 항법에 환경 인식 센서와 정밀 지도를 추가적으로 융합하는 더욱 발전된 형태의 센서융합기반 측위 기술이 활발히 개발되고 있다. 이 방법은 라이더, 레이저 스캐너, 레이더 또는 카메라와 같은 주변 환경 인식 센서에 의해 인식된 랜드마크와 정밀 지도 상의 랜드마크를 매칭함으로써 차량의 위치 정보를 보정함으로써 위성 항법과 관성 항법만을 사용하였을 때 발생하는 측위 오차를 감소시킬 수 있다.
상기 센서융합기반 측위를 위한 주변 환경 인식 센서 중 라이다는 데이터 기반의 정밀한 위치 정보를 출력하지만 고가이고 구동 장치로 인해 안정성이 떨어지며, 차량의 외관을 해치지 않으면서 장착하기 어려울 뿐만 아니라 랜드마크의 컬러를 구분하지 못하는 한계를 갖는다. 상기 레이저 스캐너와 상기 레이더도 카메라에 비해서는 고가의 센서여서 자율 주행 기술의 대중화에 장벽 요소가 된다.
최근에는, 비교적 저가의 환경 인식 센서인 카메라의 인식 능력을 향상시킴으로써, 이에 융합되는 라이더, 레이더 또는 레이저 스캐너의 정밀도 요구를 완화하여 전체 환경 인식 센서 시스템의 가격 상승 요인을 제한하거나 카메라 중심의 측위 기술을 개발하여, 경제성을 확보함으로써 자율주행기술의 대중화 및 상용화를 가속시키려는 노력이 활발히 이루어지고 있다. 또한, 카메라는, 전방 카메라나 어라운드 뷰 카메라에 의해 획득되는 차선 또는 도로 표지와 같은 랜드마크 인식을 통하여 심지어 차량이 도로의 몇 차선에 위치하는지까지 식별할 수 있도록 함으로써 자율주행 기술에서 요구되는 안전성을 향상시키고 그에 따라 응용 범위를 더욱 확장시키고 있다.
이와 같이 측위를 통한 자율 주행 차량의 위치 결정은 주행 안전과 직접적으로 연관되는 것이므로, 상기 카메라 모듈을 이용하여 센서융합기반 측위를 수행하는 경우 카메라에 의해 인식되는 랜드마크에 대한 카메라의 거리 측정은 정밀한 정확도를 가져야 한다. 또한, 차량의 경우 다양한 속도로 주행하기 때문에, 저속 및 고속 상황에서는 물론 정지 상황에서도 카메라는 정확히 거리 측정을 수행하여야 한다. 이와 같이, 센서융합기반 측위를 위해 환경 인식 센서로서 카메라를 사용하는 경우 카메라의 거리 측정 정확도가 중요하며, 그에 따라 상기 카메라의 거리 측정 정확도를 평가하는 평가 기술도 자율주행 기술의 상용화를 위해 매우 중요하다.
따라서, 본 발명이 해결하고자 하는 기술적 과제는, 자율주행 자동차에 장착 가능한 피평가 카메라 모듈의 상대 위치 산출 정확도가 실제 주행 환경에 적용 가능한 정도의 신뢰성을 갖는지를 평가하기 위한 평가 방법을 제공하는 것이다.
또한, 본 발명이 이루고자 하는 다른 기술적 과제는, 전술한 이점을 갖는 평가 시스템을 제공하는 것이다.
본 발명의 일 태양에 따르면, 기준 타겟 객체의 카메라 이미지 정보로부터 상기 기준 타겟 객체의 거리 및 방향 중 적어도 어느 하나를 포함하는 피평가 상대 위치 정보를 산출하는 영상 인식 알고리즘을 수행하는 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법이 제공된다. 일 실시예에 따른 평가 방법은, 상기 피테스트 카메라 모듈과 연동되는 측위 장치를 제공하는 단계; 상기 피테스트 카메라 모듈을 통해 상기 기준 타겟 객체를 포함하는 카메라 이미지를 획득하는 단계; 상기 획득된 카메라 이미지와 동기화된 상기 측위 장치의 위치 및 방향 중 적어도 어느 하나를 포함하는 기준 위치 정보를 생성하는 단계; 상기 기준 위치 정보에 기초하여, 상기 기준 타겟 객체에 관한 포인트 클라우드 데이터를 포함하는 포인트 클라우드를 획득하는 단계; 상기 포인트 클라우드 내에 상기 피테스트 카메라 모듈의 위치인 가상 카메라 위치 정보를 생성하는 단계; 상기 포인트 클라우드를 기초로 상기 가상 카메라 위치 정보로부터 상기 기준 타겟 객체의 기준 상대 위치 정보를 산출하는 단계; 상기 영상 인식 알고리즘을 통해 산출된 상기 기준 타겟 객체의 피평가 상대 위치 정보를 수신하는 단계; 및 상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보를 비교하여, 상기 피평가 상대 위치 정보의 산출 정확도를 평가하는 단계를 포함할 수 있다.
일 실시예에서, 상기 평가 방법은 상기 상대 좌표로 변환된 포인트 클라우드와 상기 카메라 이미지가 정합되는지 여부를 판정하는 검증 단계를 더 수행할 수 있다. 일 실시예에서, 상기 기준 타겟 객체는, 표지판, 노면 표시, 차선, 또는 가로등, 신호등, 전광판, 가로등, 시선유도 표지, 갈매기 표지, 고가 도로, 램프, 톨게이트, 과속 탐지기, 시선 유도봉, 교명주, 비상구 표시, 환풍기, 소화전, 화살표 신호, 지주, 간판, 방음벽, 중앙분리대 및 건축물 중 적어도 어느 하나일 수 있다.
일 실시예에서, 상기 피테스트 카메라 모듈과 상기 측위 장치는 물리적으로 동일 위치에 배치될 수 있다. 다른 실시예에서, 상기 피테스트 카메라 모듈은 제 1 위치에 배치되고, 상기 측위 장치는 상기 제 1 위치와 이격된 제 2 위치에 배치되고, 상기 제 1 위치와 상기 제 2 위치는 거리 및 각도 중 적어도 어느 하나를 파라미터로 하는 위치 관계식에 의해 상대적으로 특정될 수도 있다.
일 실시예에서, 상기 기준 위치 정보와 상기 위치 관계식에 기초하여 상기 피테스트 카메라 모듈의 위치와 방향이 산출될 수 있다. 또한, 상기 포인트 클라우드는 상기 측위 장치에 의해 실시간으로 생성되어 반영될 수도 있다. 다른 실시예에서, 상기 포인트 클라우드는 포인트 클라우드 서버에 저장되고, 상기 기준 위치 정보에 연관되어 선택적으로 획득될 수도 있다.
본 발명의 다른 태양에 따르면, 이동 수단에 탑재되고, 기준 타겟 객체를 포함하는 카메라 이미지로부터 상대 위치 정보를 산출하는 피테스트 카메라 모듈의 영상 인식 알고리즘의 정확도를 평가하기 위한 평가 시스템이 제공될 수 있다. 일 실시예에서, 상기 피테스트 카메라 모듈로부터 위치 관계식에 의해 상대적으로 특정 가능한 위치에 배치되고 기준 위치 정보를 생성하는 위치 정보 생성부를 포함하는 측위 장치; 상기 기준 위치 정보에 대응하는 포인트 클라우드에 기초하여, 상기 기준 위치 정보로부터 기준 상대 위치 정보를 산출하고, 상기 기준 상대 위치 정보와 상기 영상 인식 알고리즘으로부터 산출된 피평가 상대 위치 정보를 비교하여 상기 피평가 상대 위치 정보의 산출 정확도를 평가하는 연산 장치; 및 상기 피테스트 카메라 모듈, 상기 측위 장치 및 상기 연산 장치를 제어하는 제어부를 포함할 수 있다.
일 실시예에서, 상기 피테스트 카메라 모듈은, 상기 이동 수단이 정지된 상태 또는 주행 중인 상태에서 상기 카메라 이미지를 획득할 수 있다. 상기 피테스트 카메라 모듈은 상기 카메라 이미지를 상기 카메라 이미지의 획득 시각에 관한 정보와 연관시켜 저장할 수 있다. 상기 측위 장치는 상기 피테스트 카메라 모듈과 동일 장소 또는 이격된 장소에 배치될 수 있다. 상기 위치 정보 생성부는, 위성 항법 장치(GNSS)를 포함할 수 있다.
일 실시예에서, 상기 측위 장치는, 센서부 및 통신부 중 적어도 어느 하나를 더 포함하며, 상기 센서부는 관성 측정 장치를 포함하며, 상기 통신부는 상기 연산 장치 또는 상기 포인트 클라우드 정보가 저장된 포인트 클라우드 서버와의 통신을 수립할 수 있다. 상기 측위 장치는 상기 포인트 클라우드를 실시간 생성하기 위한 포인트 클라우드 생성부를 더 포함할 수 있다.
일 실시예에서, 상기 연산 장치는, 상기 기준 위치 정보로부터 상기 위치 관계식에 기초하여 상기 포인트 클라우드 내에 상기 피테스트 카메라 모듈의 가상 카메라 위치 정보를 산출하는 단계; 및 상기 포인트 클라우드에서 상기 기준 타겟 객체를 인식하고, 상기 가상 카메라 위치로부터 상기 기준 타겟 객체의 상기 기준 상대 위치 정보를 추출하는 단계를 수행하며, 상기 추출된 상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보가 비교될 수 있다.
일 실시예에서, 상기 평가 시스템은 상기 연산 장치가 상기 기준 타겟 객체를 인식하는 경우, 상기 인식된 기준 타겟 객체를 표시하는 가이드 정보를 출력 장치를 통해 사용자에게 제공할 수 있다. 상기 산출 정확도의 평가 결과는, 패스/패일, 점수 또는 등급화되어 표현될 수 있다. 상기 연산 장치는, 상기 포인트 클라우드의 점들과 상기 카메라 이미지가 정합하는지 여부를 판정하는 검증 단계를 더 수행할 수 있다.
본 발명의 실시예에 따르면, 피테스트 카메라 모듈의 카메라 이미지의 촬상 시점에 동기화된 측위 장치의 위치 및 방향에 기초하여 포인트 클라우드를 획득하고, 상기 포인트 클라우드 상의 기준 타겟 객체의 기준 상대 위치 정보를 산출하며, 상기 피테스트 카메라 모듈의 영상 인식 알고리즘을 통해서 얻어진 피평가 상대 위치 정보를 상기 기준 상대 위치 정보와 비교함으로써, 자율주행 자동차에 적용 가능한 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 정지, 저속 또는 고속 주행 중에 얻어진 카메라 이미지에 대해서도 상대 위치 산출 정확도를 신뢰성 있게 평가할 수 있는 평가 방법 및 시스템이 제공될 수 있다.
도 1a는 본 발명의 일 실시예에 따른 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 시스템을 도시한다.
도 1b는 본 발명의 일 실시예에 따른 피테스트 카메라 모듈과 측위 장치를 거리 및 각도 중 적어도 어느 하나에 의해 미리 정의된 위치에 상호 고정 배치된 구성을 도시한다.
도 1c는 본 발명의 일 실시예에 따른 측위 장치의 블록도이다.
도 1d는 본 발명의 다른 실시예에 따른 측위 장치의 블록도이다.
도 1e은 본 발명의 일 실시예에 따른 연산부의 블록도이다.
도 2는 본 발명의 일실시 예에 따른 포인트 클라우드의 좌표를 변환하는 동작을 설명하기 위한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법을 설명하기 위한 순서도이다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 포인트 클라우드 획득 동작을 설명하기 위한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법을 검증하는 단계를 설명하기 위한 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 평가 방법을 설명하기 위한 복수의 카메라 이미지들과 이에 동기화된 포인트 클라우드 사이의 관계를 설명하기 위한 모식도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 하기 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 하기 실시예에 한정되는 것은 아니다. 오히려, 이들 실시예는 본 발명을 더욱 충실하고 완전하게 하고, 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.
또한, 이하의 도면에서 각 층의 두께나 크기는 설명의 편의 및 명확성을 위하여 과장된 것이며, 도면상에서 동일 부호는 동일한 요소를 지칭한다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는" 는 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다.
본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다.
본 명세서에서 제 1, 제 2 등의 용어가 다양한 부재, 부품, 영역, 층들 및/또는 부분들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부분들은 이들 용어에 의해 한정되어서는 안됨은 자명하다. 이들 용어는 하나의 부재, 부품, 영역, 층 또는 부분을 다른 영역, 층 또는 부분과 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제 1 부재, 부품, 영역, 층 또는 부분은 본 발명의 가르침으로부터 벗어나지 않고서도 제 2 부재, 부품, 영역, 층 또는 부분을 지칭할 수 있다.
이하, 본 발명의 실시예들은 본 발명의 이상적인 실시예들을 개략적으로 도시하는 도면들을 참조하여 설명된다. 도면들에 있어서, 예를 들면, 부재들의 크기와 형상은 설명의 편의와 명확성을 위하여 과장될 수 있으며, 실제 구현시, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명의 실시예는 본 명세서에 도시된 부재 또는 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 된다. 이하에서는, 도면을 참조하여 본 발명의 다양한 실시예들에 대해 설명하기로 한다.
도 1a는 본 발명의 일 실시예에 따른 피테스트 카메라 모듈(110)의 상대 위치 산출 정확도를 평가하기 위한 평가 시스템(1000)을 도시하며, 도 1b는 본 발명의 일 실시예에 따른 피테스트 카메라 모듈(110)과 측위 장치(120)가 거리 및 각도 중 적어도 어느 하나에 의해 미리 정의된 위치에 상호 고정 배치된 구성을 도시한다.
도 1a를 참조하면, 평가 시스템(1000)은, 피테스트 카메라 모듈(110)과 함께 배치되는 측위 장치(120) 및 연산 장치(130)를 포함할 수 있다. 피테스트 카메라 모듈(110)은 적어도 하나의 기준 타겟 객체(160a-160d)를 포함하는 카메라 이미지를 획득할 수 있으며, 자체의 영상인식 알고리즘을 통해서 상기 획득된 카메라 이미지에 포함된 적어도 하나의 기준 타겟 객체(160a-160d)를 인식하고 인식된 기준 타겟 객체(160)에 대한 거리 및 방향 중 적어도 어느 하나의 정보(이하 설명에서 '피평가 상대 위치 정보'로 지칭한다)를 산출할 수 있다. 상기 카메라 이미지는, 정지 또는 주행 상태에서 획득될 수 있으며, 각 기준 타겟 객체(160a-d)에 대해 하나 또는 복수개일 수 있으며, 상기 기준 타켓 객체도 복수개일 수 있으며, 이 경우 상기 카메라 이미지는 각 기준 타켓 객체(160a-160d)마다 하나 또는 복수개일 수 있다.
일 실시예에서, 피테스트 카메라 모듈(110)은 상기 카메라 이미지의 획득을 위해 적어도 하나의 카메라 이미지 센서를 포함할 수 있으며, 상기 카메라 이미지는 적어도 하나의 기준 타켓 객체가 촬상된 2 차원 카메라 이미지 또는 3 차원 카메라 이미지일 수 있다. 피테스트 카메라 모듈(110)은 전방 카메라, 측면 카메라, 후방 카메라 또는 어라운브 뷰 카메라 중 적어도 어느 하나일 수 있으며, 이는 예시적일 뿐 본 발명이 이에 한정되는 것은 아니다. 또한, 피테스트 카메라 모듈(110)은 하나 또는 복수 개의 조합체일 수도 있다.
기준 타겟 객체는 자율주행을 위해 피테스트 카메라 모듈(110)이 유효하게 인식할 수 있는 여하의 환경적 요소로서, 도 1a에 도시된 것과 같이, 안전 또는 제한 속도 안내 표지판과 같은 표지판(160a), 노면 표시(160b), 차선(160c), 또는 가로등(160d)일 수 있다. 다른 기준 타겟 객체의 예로서 도로 상의 시설물인 신호등, 전광판, 가로등, 시선유도 표지, 갈매기 표지, 고가 도로, 램프, 톨게이트, 과속 탐지기, 시선 유도봉, 교명주, 비상구 표시, 환풍기, 소화전, 화살표 신호, 지주, 간판, 방음벽, 또는 중앙분리대일 수도 있다. 상기 기준 타겟 객체는 자율주행을 위해 유효하게 파악될 수 있는 여하의 환경적 요소로서 본 발명의 실시예가 이에 한정되는 것은 아니다. 예를 들면, 기준 타겟 객체(160)는 나무, 현수막, 또는 건축물과 같은 고정된 구조체 뿐만 아니라 동물 또는 사람과 같은 비고정된 객체일 수도 있다.
피테스트 카메라 모듈(110)은 정지된 상태에서 또는 이동 수단(VC)에 탑재되어 주행 중인 상태에서, 일정 범위의 시야(field of view)를 가지는 카메라 이미지를 획득할 수 있으며, 이에 의해 산출되는 피평가 상대 위치 정보는, 예를 들면, 차선 표시 검출과 도로 표면 검출 방식(2015 KSAE 부문 종합학술대회, 2015.5, 496-501의 108쪽 내지 114쪽의 김동석, 정호기 저 "센서 융합 기반 정밀 측위를 위한 노면 표시 검출"제하의 논문을 참조할 수 있으며, 이는 그 전체가 본 명세서에 개시된 것과 같이 참조된다) 및 표지판 기반 차로 인식 원리(2014년 11월, 한국 자동차 공학회 논문집 제22권 제7호497 쪽 내지 498쪽의 조계환, 서재규, 정호기 저 “도포표지판 검출 기반 주행 차로 인식 시스템” 제하의 논문을 참조할 수 있으며, 이는 그 전체가 본 명세서에 개시된 것과 같이 참조된다)와 같은 영상 인식 방법을 이용하여 적어도 하나의 기준 타겟 객체(160)를 인식할 수 있으며, 인식된 기준 타겟 객체(160)에 관한 피평가 상대 위치 정보가 피테스트 카메라 모듈(110)에 마련된 알고리즘을 통해 산출될 수 있다. 상기 알고리즘은, 피테스트 카메라 모듈(110) 내부에 마련되는 독립적인 연산부 또는 상기 피테스트 카메라 모듈(110)이 설치되는 실제 차량의 컴퓨팅 시스템 내에 마련된 연산부에서 수행될 수 있으며 본 발명이 이에 의해 한정되는 것은 아니다.
일 실시예에 따르면, 피테스트 카메라 모듈(110)은 이동 수단(VC) 내부 또는 외부에 장착될 수 있다. 도 1a에서는 피테스트 카메라 모듈(110)이 이동 수단(VC)의 전면 유리창의 내부에 배치되는 것을 예시한다. 다른 예에서 피테스트 카메라 모듈은 이동 수단(VC)의 루프 패널, 또는 후면 유리창 내에 배치될 수 있으며, 본 발명이 이에 한정되는 것은 아니다.
또한, 피테스트 카메라 모듈(110)은 측위 장치(120)와 거리 및 각도 중 적어도 어느 하나에 의해 미리 정의된 장소에 고정 배치될 수도 있다. 예를 들면, 도 1b에 도시된 것과 같이, 피테스트 카메라 모듈(110)과 측위 장치(120)는 서로 이격되어 고정 배치될 수 있다. 제 1 장소(SL1)에 제공된 지그와 같은 카메라 고정부(110P)를 갖는 프레임, 패널, 또는 이의 조합체와 같은 지지 구조체(FM)를 이용하여, 카메라 고정부(110P)에 피테스트 카메라 모듈(110)을 결합함으로써 제 1 장소(SL1)에 피테스트 카메라 모듈(110)을 배치할 수 있다. 지지 구조체(FM)는 이동 수단(VC)의 루프 패널, 본네트 또는 트렁크 도어에 결합될 수 있다. 일부 실시예에서, 지지 구조체(FM)는 루프 패널, 본네트 또는 트렁크 도어와 같은 이동 수단(VC)의 일부를 구성하도록 이동 수단(VC)에 일체화된 것일 수도 있다.
측위 장치(120)는 제 1 장소(SL1)로부터 이격된 제 2 장소(SL2)에 배치되고, 이로써, 측위 장치(120)와 피테스트 카메라 모듈(110)은 고정 위치에서 서로 이격되어 배치될 수 있다. 이때 피테스트 카메라 모듈(110)이 배치되는 제 1 장소(SL1)와 측위 장치(120)가 배치되는 제 2 장소(SL2)는 거리 및 각도 중 적어도 어느 하나를 파라미터로 하는 위치 관계식 L(r, θ)에 의해 상대적으로 특정될 수 있다.
상기 위치 관계식은 후술하는 바와 같이, 포인트 클라우드 좌표계를 카메라 좌표계로 변환하거나, 카메라 좌표계와 포인트 클라우드의 좌표계를 일치시키기 위해 회전(rotation) 및 변위(translation)를 추정하는 과정(calibration)에 활용된다. 일 실시예에서, 위치 관계식 L(r, θ)은 거리 및 방향 중 어느 하나를 파라미터로 하는 함수로 표현될 수도 있으며, 미리 정의된 것이어서 상수화될 수 있다. 위치 관계식 L(r, θ)은 제 1 장소(SL1)와 제 2 장소(SL2)의 상호 위치가 고정되어 특정될 수만 있으면, 거리 또는 방향이 아닌 다른 적합한 파라미터로 표현될 수 있을 것이며 본 발명이 이에 한정되는 것은 아니다.
다른 실시예에서, 피테스트 카메라 모듈(110)은 측위 장치(120)와 물리적으로 동일한 위치에 배치될 수도 있다. 이 경우, 제 1 위치(SL1)과 제 2 위치(SL2)는 동일한 위치이므로, 전술한 위치 관계식은 필요하지 않을 수 있다. 또 다른 실시예에서, 피테스트 카메라 모듈(110)과 측위 장치(120)는 서로 다른 이동 수단(VC)에 배치될 수 있다. 예를 들어, 피테스트 카메라 모듈(110)을 제 1 이동 수단(미도시)에 배치하고, 측위 장치(120)를 제 2 이동 수단(미도시)에 배치할 수도 있다. 이 경우, 위치 관계식 L(r, θ)은, 피테스트 카메라 모듈(110)의 제 1 위치와 측위 장치(120)의 제 2 위치가 시간에 따라 변하기 때문에, 이를 특정할 수 있는 속도, 가속도, 또는 방향과 같은 추가적인 파라미터를 더 요구할 수 있다.
피테스트 카메라 모듈(110)은 상기 획득된 카메라 이미지를 상기 카메라 이미지의 획득 시각에 관한 정보를 연관시켜 저장할 수도 있다. 상기 획득된 카메라 이미지 또는 이에 연관된 획득 시각에 관한 정보는 피테스트 카메라 모듈(110) 자체에 마련된 메모리 칩, 메모리 카드, 하드 디스크 또는 고상디스크드라이브와 같은 비휘발성 저장 매체에 저장되거나 후술하는 것과 같이 별도의 연산부(130) 또는 클라우드화된 저장 장치와 같은 외부 장치(140)에 저장될 수도 있다.
도 1c는 본 발명의 일 실시예에 따른 측위 장치(120A)를 도시하는 블록도이다.
도 1c를 참조하면, 측위 장치(120A)는, 피테스트 카메라 모듈(110)에 의해 획득된 카메라 이미지와 동기화된 측위 장치(120A) 자체의 위치 및 방향 중 적어도 어느 하나를 포함하는 기준 위치 정보(또는 절대 위치 정보라 지칭함)를 생성하는 장치이다. 측위 장치(120A)는 위치 정보 생성부(122)을 포함할 수 있다. 다른 실시예에서, 측위 장치(120A)는 센서부(128), 통신부(126) 및 제어부(124)를 더 포함할 수도 있다.
위치 정보 생성부(122)은 지구 상공에 배치되어 있는 다수의 위성으로부터 전송되는 신호를 수신하여 상기 기준 위치 정보를 생성하는 위성 항법 장치(GNSS)를 포함할 수 있다. 이 경우, 측위 장치(120)에 의해 생성된 상기 기준 위치 정보는, 예를 들어, 위치 정보 생성부(122)에 의해 수신되는 위성 신호에 기초하여 지구 기준 좌표계로 표현되는 측위 장치(120A)의 절대 위치에 관한 정보일 수 있다.
센서부(126)은 측위 장치(120A)의 주행 또는 움직임에 따라 발생되는 센싱 정보를 수집할 수 있다. 예를 들어, 센서부(126)은 가속도계와 자이로스코프로 구성된 관성 측정 장치(IMU)를 포함할 수 있으며, 위치 정보 생성부(122)에 의해 얻어지는 GNSS 신호와 함께 방향과 속도에 관한 부가적인 정보를 제공할 수 있다.
일 실시예에 따르면, 통신부(128)는 측위 장치(120A)와, 예를 들면, 연산 장치(130) 및/또는 포인트 클라우드 서버(140) 사이의 통신(NW)을 수립할 수 있다. 예를 들어, 통신부(128)는 무선 통신 또는 유선 통신을 통해서 상기 통신을 형성할 수 있다. 예컨대, 상기 무선 통신은 LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), 또는 GSM(Global System for Mobile Communications) 중 적어도 어느 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 또한, 상기 무선 통신은 WiFi(wireless fidelity), LiFi(light fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), 및 NFC(near field communication) 중 적어도 어느 하나를 사용하는 근거리 통신을 포함할 수 있다. 다른 실시예에서, 상기 유선 통신은 USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard-232), 전력선 통신, 또는 POTS(plain old telephone service) 및 시스템 버스 중 적어도 어느 하나를 포함할 수 있다.
일 실시예에 따르면, 제어부(124)는 측위 장치(120A)의 적어도 어느 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 제어부(124)는, 피테스트 카메라 모듈(110)에 의해 획득된 카메라 이미지와 측위 장치(120A)의 위치 정보 생성부(122)에 의해 생성된 상기 기준 위치 정보를 동기화하도록 피테스트 카메라 모듈(110) 또는 연산 장치(130)사이의 신호를 처리 및 제어할 수 있다.
일 실시예에서, 제어부(124)는, 센서부(126)에 의해 수집된 정보에 기초하여 측위 장치(120A)의 주행 속도, 방향 및 중력 가속도 중 적어도 어느 하나를 포함하는 상기 기준 위치 정보를 생성할 수 있다. 예컨대, 제어부(124)는 피테스트 카메라 모듈(110) 또는 연산 장치(130)로부터 상기 카메라 이미지의 촬상을 알리는 정보를 수신하는 것에 대응하여 상기 기준 위치 정보를 생성할 수 있다.
일 실시예에서, 제어부(124)는 통신부(128)을 제어하여 상기 기준 위치 정보에 대응하는 포인트 클라우드를 포인트 클라우드 서버(150)과 같은 외부 장치로부터 획득할 수 있다. 또한, 제어부(124)는 상기 획득된 포인트 클라우드를 연산 장치(130)로 제공할 수도 있다. 다른 실시예에서, 제어부(124)는 상기 생성된 기준 위치 정보를 통신부(128)을 통하여 연산 장치(130)로 제공할 수 있다. 이러한 경우, 연산 장치(130)는 측위 장치(120A)의 기준 위치 정보에 대응하는 포인트 클라우드를, 예를 들면, 포인트 클라우드 서버(150)와 같은 외부 장치로부터 직접 획득할 수도 있다.
도 1d는 본 발명의 다른 실시예에 따른 측위 장치(120B)의 블록도이다.
도 1d를 참조하면, 측위 장치(120B)는 실시간으로 포인트 클라우드를 직접 생성하는 측면에서 도 1c에 도시된 외부 장치(150)로부터 포인트 클라우드를 획득하는 측위 장치(120A)와 구별된다. 측위 장치(120B)는 위치 정보 생성부(122)와 함께 실시간 포인트 클라우드를 생성하기 위한 포인트 클라우드 생성부(125)를 더 포함할 수 있다.
일 실시예에서, 포인트 클라우드 생성부(125)는 이동 수단(VC)이 정지된 상태 또는 바람직하게는 이동 수단(VC)이 주행하는 상태에서 주위 환경의 포인트 클라우드를 생성할 수 있도록, 측정 광 또는 조절된 파장의 전자기파를 방사하는 방사부 및 상기 방사된 측정 광 또는 전자기파가 주변 환경을 구성하는 적어도 하나의 객체로부터 반사되는 반사 광 또는 반사 전자기파를 검출하는 수신부로 구성될 수 있다. 예를 들면, 포인트 클라우드 생성부(125)는 주위 환경의 객체로부터 반사되고 수신되는 신호로부터 객체를 복셀(voxel) 형태로 정의하는 포인트의 집합인 포인트 클라우드로 생성할 수 있으며, 레이더, 라이더 또는 이들의 조합을 포함할 수 있으며, 이에 관하여는 당해 기술 분야의 공지의 기술이 참조될 수 있다. 또한, 상기 레이더 및 라이더는 예시적일 뿐, 주변 환경을 인식하여 포인트 클라우드를 생성할 수 있는 다른 센서로 대체될 수도 있을 것이다.
일 실시예에서, 측위 장치(120B)는 통신부(128) 및 저장부(129)를 더 포함할 수도 있다. 도 1d의 구성 요소들 중 도 1c의 구성 요소와 동일한 명칭을 가지는 구성 요소에 관하여는, 모순되지 않는 한 도 1c의 개시 사항이 참조될 수 있다. 또한, 모순되지 않는 한 도 1c에 개시된 사항은 도 1d에 개시된 사항과 조합되어 실시될 수도 있다. 또한, 측위 장치(120B)는 상술한 구성요소들 외에 다른 구성요소를 추가적으로 포함할 수 있다. 예를 들어, 측위 장치(120B)는 도 1c에 개시된 센서부(126)을 더 포함할 수도 있다. 또한, 연산부(127)는 포인트 클라우드 생성부(125)로부터 생성된 포인트 클라우드를 저장 모듈(127), 또는 측위 장치(120) 외부에 제공되는 연산 장치(130), 또는 포인트 클라우드 서버(150)에 저장하기 위한 신호 처리 및 제어를 수행할 수 있다.
다시 도 1a를 참조하면, 연산 장치(130)는 측위 장치(120)에 의해 생성된 포인트 클라우드 상의 기준 타겟 객체와 상기 포인트 클라우드 상의 피테스트 카메라 모듈(110)의 위치로부터 기준 상대 위치 정보를 산출하는 장치이다. 일 실시예에서, 연산 장치(130)는, 연산 수행을 위한 반도체 연산부 및 이를 보조하기 위한 메모리를 포함할 수 있으며, 태블릿 PC(Tablet PC), 랩톱(Laptop), 개인용 컴퓨터(PC: Personal Computer), 슈퍼 컴퓨터, 서버, 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 무선 통신 단말기(Wireless Communication Terminal), 스마트폰(Smart Phone) 및 이동 통신 단말기(Mobile Communication Terminal) 중 적어도 어느 하나 또는 이들 중 어느 하나를 포함하는 클라우드 시스템으로 구현될 수 있다.
도 1e는 본 발명의 일 실시예에 따른 연산 장치(130)의 구성 요소를 설명하기 위한 블록도이며, 도 2는 본 발명의 일 실시예에 따라 연산 장치(130)에 의해 수행되는 포인트 클라우드의 좌표축 변환 동작을 도시하기 위한 예시도이다.
도 1e를 참조하면, 연산 장치(130)는 프로세서(132) 및 통신부(134)를 포함할 수 있다. 일 실시예에서, 통신부(134)는, 예를 들면, 피테스트 카메라 모듈(110)과 연산 장치(130) 및/또는 측위 장치(120)와 연산 장치(130) 사이의 통신을 수립할 수 있다. 예를 들어, 통신부(134)는 무선 통신 또는 유선 통신을 통해서 상기 통신을 형성할 수 있다. 상기 무선 통신과 상기 유선 통신은 상술한 바와 같은 다양한 유무선 통신 규격 중 적어도 어느 하나일 수 있다.
일 실시예에 따르면, 프로세서(132)는 측위 장치(120)에 의해 생성된 상기 기준 위치 정보에 기초하는 포인트 클라우드 내에 물리적 위치인 제 1 위치(SL1)에 위치한 피테스트 카메라 모듈(110)의 위치를 특정할 수 있다. 도 1b를 참조하여 설명한 것과 같이, 피테스트 카메라 모듈(110)의 제 1 위치(SL1)와 측위 장치(120)의 제 2 위치(SL2)가 동일한 경우에는 상기 포인트 클라우드의 기준 위치, 즉 원점 자체가 피테스트 카메라 모듈(110)의 위치로 특정될 수 있다.
다른 실시예에서, 피테스트 카메라 모듈(110)의 제 1 위치(SL1)와 측위 장치(120)의 제 2 위치(SL2)가 서로 다른 경우에는, 도 1b를 참조하여 설명된 소정의 위치 관계식 L(r, θ)에 의해 제 1 위치(SL1)와 제 2 위치(SL2)의 상대적 위치가 표현될 수 있으며, 프로세서(130)는 상기 포인트 클라우드 내에 피테스트 카메라 모듈(110)의 제 1 위치(SL1)를 산출하여 특정할 수 있다. 이와 같이, 피테스트 카메라 모듈(110)의 제 1 위치(SL1)는 포인트 클라우드 내에서 상기 위치 관계식에 의해 산출된 상기 포인트 클라우드 내의 가상화된 지점으로 특정될 수 있다. 본 명세서에는, 프로세서(132)에 의해 산출된 포인트 클라우드 내에 가상적으로 위치하는 피테스트 카메라 모듈(110)의 제 1 위치(SL1')의 좌표 정보를 '가상 카메라 위치 정보'라 지칭할 수 있다.
일 실시예에서, 프로세서(132)는 상기 가상 카메라 위치 정보에 기초하여, 측위 장치(120)로부터 직접 생성된 포인트 클라우드 또는 포인트 클라우드 서버(150)로부터 제공받은 포인트 클라우드 내에 피테스트 카메라 모듈(110)의 위치(SL1)를 특정할 수 있다. 이를 위해, 전술한 것과 같이, 프로세서(132)는 카메라 좌표축계와 포인트 클라우드의 좌표축계 사이의 변환을 수행할 수 있다. 도 2를 참조하면, 예를 들면, 측위 장치로부터 생성되거나 다운로드된 변환 전의 절대 좌표계의 포인트 클라우드(210)와 좌표 축계가 변환된 포인트 클라우드(230)가 예시된다. 일 실시예에서, 프로세서(132)는 상기 기준 좌표에 기초하여, 위도, 경도 및 고도와 같은 지구 방위 시스템으로 표현되는 상기 포인트 클라우드의 절대 좌표를, 예를 들면, 측위 장치의 제 2 위치를 원점으로 하는 좌표축계로 변환할 수 있다. 또는, 상기 포인트 클라우드는 상기 위치 관계식에 의해 특정되는 피테스트 카메라 모듈(110)의 위치를 원점으로 하는 상대 좌표 축계(또는 카메라 좌표 축계라 함)로 변환될 수도 있다.
이러한, 좌표축계의 변환은 도 1b에 도시된 위치 관계식을 이용하여, 피테스트 카메라 모듈(110)의 좌표축과 포인트 클라우드의 좌표축 사이의 회전(rotation) 및/또는 변위(translation)을 고려하여 추정하는 과정(calibration)을 포함할 수 있으며, 이를 이용하여 2 개의 좌표축 사이의 변환이 수행될 수 있다. 상기 변환을 위한 연산은 프로세스의 효율을 위하여 다양한 방식이 적용될 수 있으며, 본 발명이 이에 의해 한정되는 것은 아니다.
다른 실시예에서는, 피테스트 카메라 모듈(110)의 제 1 위치와 측위 장치(120)의 제 2 위치가 물리적으로 동일한 경우, 상기 포인트 클라우드의 절대 좌표를 가상 카메라 위치 정보인 제 1 위치를 원점으로 하는 좌표축계로 변환할 수도 있다. 이 경우, 프로세서(132)에서 별도의 좌표축 변환 연산이 단순화될 수도 있다.
일 실시예에서, 프로세서(132)는 상기 포인트 클라우드에서 기준 타겟 객체를 인식하고 상기 인식된 기준 타겟 객체에 대응하는 절대 좌표 또는 상대 좌표를 추출할 수 있다. 상기 기준 타겟 객체는 포인트 클라우드의 형태, 면적 등을 미리 정의된 템플릿과 비교함으로써 인식될 수 있다. 상기 기준 타겟 객체의 인식은 자동으로 인식되거나 사용자에 의한 입력을 통해 수동으로 인식될 수도 있다. 이는 예시적일 뿐 본 발명의 실시예가 이에 한정되지 않으며, 포인트 클라우드 내에서 기준 타켓 객체를 인식하는 것과 관련하여 다양한 공지 기술이 참작될 수 있을 것이다.
일 실시예에서, 상기 포인트 클라우드에서 하나 또는 2 이상의 기준 타겟 객체가 인식되면, 프로세서(132)는 상기 인식된 기준 타겟 객체를 표시하는 가이드 정보를 연산 장치(130)의 디스플레이 또는 연산 장치(130)의 스피커와 같은 출력 장치를 통해서 사용자에게 제공할 수 있다. 또한, 프로세서(132)는 복수의 기준 타겟 객체들 중 사용자의 입력에 의해 피테스트 카메라 모듈(110)에 의해 인식된 기준 타켓 객체에 해당하는 기준 타겟 객체를 제공할 수도 있다.
일 실시예에서, 프로세서(132)는 상기 포인트 클라우드 내에서 상기 기준 타겟 객체와 피테스트 카메라 모듈(110)의 가상 카메라 위치 정보로부터, 상기 기준 타켓 객체와 상기 가상 카메라 위치 정보 사이의 거리 및 방향, 즉, 가상 카메라의 위치를 기준으로 상기 인식된 기준 타겟 객체 사이의 거리 및 방향 중 적어도 어느 하나를 포함하는 기준 상대 위치 정보를 산출한다. 피테스트 카메라 모듈(110)이 자체 영상 인식 알고리즘을 통해 산출한 피평가 상대 위치 정보는 통신부(134)를 통하여 프로세서(132)로 전달되고, 프로세서(132)는 상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보를 비교를 하여 상기 피평가 상대 위치 정보의 산출 정확도를 평가하게 된다.
상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보의 오차가 미리 설정된 범위 내에 포함되는 경우, 피테스트 카메라 모듈(110)의 상대 위치 산출 정확도는 'PASS' 판정될 수 있다. 반대로, 상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보의 오차가 상기 미리 지정된 범위를 벗어나는 경우에는, 'FAIL' 판정될 수 있다. 다른 실시예에서, 상기 산출 정확도는 점수 또는 우수(G), 양호(M), 및 미흡(P)과 같은 등급을 나타내는 정성적 지수로 표현될 수도 있으며, 본 발명이 이에 한정되는 것은 아니다.
일 실시예에서, 프로세서(132)는 상기 평가의 신뢰성을 검증하기 위한 검증 단계를 더 수행할 수 있다. 이에 관하여는 도 5를 참조하여 상세히 후술하도록 한다.
도 3은 본 발명의 일 실시예에 따른 피테스트 카메라 모듈(110)의 상대 위치 산출 정확도를 평가하기 위한 평가 방법을 설명하기 위한 순서도이다. 도 4a 및 도 4b는 본 발명의 일 실시예에 따른 포인트 클라우드 획득 동작을 설명하기 위한 순서도이다. 하기의 개시 사항과 관련하여, 도 1a 내지 도 2를 참조하여 개시된 사항이 참조될 수 있으며, 중복되는 설명은 생략된다.
도 3을 참조하면, 이동 수단(예: 차량)(VC)에 피테스트 카메라 모듈(도 1의 110 참조)과 측위 장치(도 1의 120 참조)가 배치된다(S10). 도 1을 참조하여 전술한 것과 같이 상기 피테스트 카메라 모듈과 상기 측위 장치는 이동 수단의 내부 또는 외부에 배치될 수 있다. 상기 피테스트 카메라 모듈과 상기 측위 장치의 배치 위치는 물리적으로 동일하거나, 서로 이격되어 위치 관계식에 의해 특정 가능한 제 1 위치와 제 2 위치에 각각 배치될 수 있다. 또 다른 실시예에서, 상기 피테스트 카메라 모듈과 상기 측위 장치는 서로 다른 이동 수단에 배치될 수도 있다. 이와 같이, 서로 이격된 제 1 위치와 제 2 위치는, 거리 및 각도 중 적어도 어느 하나를 파라미터로 하는 위치 관계식 L(r, θ)에 의해 이들 위치가 상대적으로 특정되도록 결정된다.
이후, 상기 피테스트 카메라 모듈을 통해 기준 타겟 객체를 포함하는 카메라 이미지가 획득된다(S20). 일 실시예에 따르면, 상기 카메라 이미지는 이동 수단(VC)이 저속 또는 고속으로 주행하는 상태에서 또는 정지 상태에서 피테스트 카메라 모듈(110)에 의해 촬상된 적어도 어느 하나의 카메라 이미지를 포함할 수 있다. 상기 카메라 이미지는 시간의 경과에 따라 촬상된 복수의 이미지들일 수 있으며, 획득 시각에 관한 정보와 연관되어 저장될 수 있다.
이후, 상기 기준 타겟 객체의 카메라 이미지와 상기 카메라 이미지가 촬상된 시각에 동기화된 측위 장치의 기준 위치 정보가 생성될 수 있다(S30). 상기 기준 위치 정보는 상기 촬상된 카메라 이미지의 촬상 위치 계산을 위한 상기 측위 장치 자체의 위치 및 방향 중 적어도 어느 하나를 포함하는 절대 위치 정보이다.
이후, 상기 기준 위치 정보에 기초하여, 상기 기준 타겟 객체에 관한 포인트 클라우드 데이터를 포함하도록 소정의 임계 거리를 갖는 포인트 클라우드를 획득한다. 상기 포인트 클라우드는 미리 저장된 포인트 클라우드 정보에 유선 또는 무선 통신 수단을 통해 엑세스하여 획득되거나, 측위 장치에 마련된 포인트 클라우드 생성부(도 1d의 125 참조)에 의해 실시간으로 생성될 수 있다.
다른 실시예에서, 상기 포인트 클라우드가 유선 또는 무선 통신 수단을 통해 포인트 클라우드 서버로부터 획득될 수 있으며, 이는 도 4a에 도시된 바와 같이, 포인트 클라우드 서버(150)로 상기 기준 위치 정보에 대응하는 포인트 클라우드를 요청하는 단계(S51) 및 포인트 클라우드 서버(150)로부터 상기 요청에 대응하는 포인트 클라우드를 수신하는 단계(S53)를 통해서 수행될 수 있다. 상기 포인트 클라우드는 도로 상의 소정 위치들에 대한 절대 위치 정보와 함께 저장될 수 있으며, 상기 위치에 관한 정보에 의해 해당 저장된 포인트 클라우드 정보가 호출될 수 있다. 상기 테스트가 수행되는 도로는 차량의 주행이 가능한 임의의 도로이거나 테스트를 위해 인위적으로 조성된 실험 환경일 수도 있다.
상기 포인트 클라우드 서버로부터 상기 포인트 클라우드를 얻는 경우, 상기 측위 장치는 별도의 포인트 클라우드 생성부를 구비할 필요성이 약화되거나 소멸됨으로써 낮은 성능의 포인트 클라우드 생성부에 의해서, 심지어 포인트 클라우드 생성부가 없더라도 피테스트 카메라 모듈의 평가가 가능하므로 평가 수행을 위한 경제성이 확보될 수 있다. 나아가, 조밀한 간격의 포인트 클라우드를 생성할 수 있는 고성능의 장치(예: 레이더 및/또는 라이더)에 의해 생성된 포인트 클라우드 정보를 포인트 클라우드 서버에 저장하는 경우, 피테스트 카메라 모듈의 평가를 위하여 저장된 고정밀도 및 고해상도를 갖는 포인트 클라우드를 평가시 재활용할 수 있기 때문에, 피테스트 카메라 모듈의 평가의 경제성을 확보하면서도 고정밀도 및 고해상도의 포인트 클라우드에 의한 평가의 신뢰성이 향상될 수 있다.
도 4b에 도시된 바와 같이, 상기 포인트 클라우드는 별도의 포인트 클라우드 서버에 저장된 것에 한정되지 않고, 측위 장치(120)에 의해 직접 생성되어 실시간으로 획득될 수도 있다. 측위 장치(120)는 자체에 제공된 저장 모듈(도 1d의 127 참조)에 생성된 포인트 클라우드 정보를 저장할 수 있으며, 저장 모듈(127)로부터 직접 획득될 수도 있다. 이 경우, 포인트 클라우드를 획득하는 것은, 예를 들어, 측위 장치(120)를 통해 포인트 클라우드를 생성하는 단계(S52) 및 측위 장치로부터 상기 기준 위치 정보에 기초하여 소정의 범위를 가지는 포인트 클라우드를 획득하는 단계(S54)에 의해 수행될 수 있다.
다시, 도 3을 참조하면, 상기 포인트 클라우드가 획득된 후, 상기 포인트 클라우드 내에 피테스트 카메라 모듈(110)의 위치, 즉 가상 카메라 위치 정보가 생성될 수 있다(S60). 이 때, 지구 방위 시스템으로 표현되는 포인트 클라우드의 절대 좌표 축계는 포인트 클라우드의 기준점인 측위 장치의 동기화된 위치인 제 2 위치를 원점으로 하는 상대 좌표축계로 변환될 수 있다. 피테스트 카메라 모듈(110)의 제 1 위치와 상기 측위 장치의 제 2 위치가 물리적으로 동일하다면 피테스트 카메라 모듈의 상기 가상 카메라 위치 정보는 포인트 클라우드의 기준점일 것이다.
다른 실시예에서, 피테스트 카메라 모듈(110)의 제 1 위치와 상기 측위 장치의 제 2 위치가 다르고, 이들 사이의 위치가 위치 관계식에 의해 특정된다면, 상기 위치 관계식에 의해 회전 및/또는 변위를 수행하여, 제 2 위치를 원점으로 하는 상대 좌표축계의 포인트 클라우드 내에 제 1 위치에 해당하는 가상 카메라 위치 정보가 생성될 수 있다.
다른 실시예에서, 상기 위치 관계식에 의해 포인트 클라우드의 좌표 축계는 회전 및/또는 변위와 같은 연산을 통하여 제 1 위치를 원점으로 하는 카메라 좌표 축계로 변환될 수도 있다. 이 경우, 변환된 카메라 좌표 축계에 포인트 클라우드의 모든 점들은 가상 카메라 위치 정보를 기준으로 하는 상대 좌표를 갖게 된다.
이후, 상기 포인트 클라우드를 기초로, 상기 가상 카메라 위치 정보로부터 상기 기준 타겟 객체의 기준 상대 위치 정보가 산출될 수 있다(S70). 상기 기준 상대 위치 정보는 상기 포인트 클라우드 내에서 상기 가상 카메라 위치 정보와 인식된 기준 타겟 객체 사이의 거리 및 방향, 즉, 가상 카메라의 위치를 기준으로 상기 인식된 기준 타겟 객체 사이의 거리 및 방향에 관한 정보로서 후술하는 피평가 상대 위치 정보의 정확도를 평가하기 위한 기준이 되는 기준 위치 정보에 해당한다.
상기 기준 상대 위치 정보와 함께, 상기 피테스트 카메라 모듈의 영상 인식 알고리즘을 통해 산출된 상기 카메라 이미지 내의 상기 기준 타겟 객체의 피평가 상대 위치 정보가 수신된다(S80). 이후, 상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보를 비교하여 상기 피평가 상대 위치 정보의 산출 정확도를 평가하는 단계가 수행될 수 있다(S90). 상기 산출 정확도는 '패스(PASS)' 및 '패일(FAIL)', 점수 또는 등급과 같은 정성적 지수로 표현될 수도 있다.
도 5는 본 발명의 일 실시예에 따른 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법을 검증하는 단계를 설명하기 위한 순서도이다.
도 5를 참조하면, 상기 평가 방법은 도 3을 참조하여 설명된 평가 방법에 대하여 평가 방법에 따른 각 단계의 수행이 정확한지 여부를 평가하는 검증 단계를 더 포함한다. 상기 검증 단계는, 상기 산출 정확도를 평가하기 위해 수행된 다수의 단계들, 예를 들면 단계 S50 내지 단계 S80 에서 적어도 어느 하나의 단계에서 오류가 발생하였는지를 판단하는 것을 포함할 수 있다. 예를 들면, 상기 검증 단계는 단계 S50과 단계 S60 사이에서, 또는 단계 S60과 단계 S70 사이에서 수행될 수 있다.
일 실시예에서 상기 검증 단계는, 상기 포인트 클라우드의 점들과 카메라 이미지가 정합하는지 여부를 판단하는 단계에 의해 수행될 수 있다. 예를 들면, 카메라 이미지에, 제 2 위치를 원점으로 상대 좌표 축계로 변환된 포인트 클라우드를 투영하여 투영된 카메라 이미지 내의 객체들과 상기 객체들에 해당하는 포인트 클라우드의 각 포인트들 사이의 위치가 일치하는지 여부를 판단한다. 만약 투영된 카메라 이미지 내의 객체들과 포인트 클라우드의 포인트들 사이의 위치가 동일하다면 상기 포인트 클라우드와 카메라 이미지는 서로 정합된 것으로 판정된다.
이와 같이 포인트 클라우드와 피테스트 모듈 사이의 상대 위치가 실제 카메라 이미지가 촬상될 당시의 기준 타겟 객체와 테스트 카메라 모듈 사이의 상대 위치와 동일하다면 포인트 클라우드를 카메라 내부 변수를 사용하여 카메라 이미지에 투영하였을 때 동일한 기준 타겟 객체는 동일한 위치에 있어야 한다.
상기 정합하는지 여부로부터 검증 단계를 수행하는 것과 관련하여, 기준 타겟 객체의 일치 여부에 한정되는 것은 아니며 당해 기술 분야에 잘 알려진 것과 같이 카메라 이미지 내의 다양한 객체들과 포인트 클라우드의 점들 사이가 일치되는지 여부에 의해서도 검증 단계가 수행될 수 있다. 도 6a는 포인트 클라우드와 카메라 이미지가 정합된 경우를 도시하며, 도 6b는 포인트 클라우드와 카메라 이미지가 정합되지 않은 경우를 도시한다. 도 6a의 경우에는 검증 단계에 의해 상기 평가 방법은 '패스(PASS)'로 판정되며, 도 6b와 같은 경우에는 상기 평가 방법은 '패일(FAIL)'로 판정된다.
상기 정합하는지 여부는 평가자가 수동으로 수행할 수도 있고, 소정 알고리즘을 통해 자동으로 수행될 수도 있으며, 본 발명이 이에 의해 한정되는 것은 아니다. 또한, 상기 정합하는지 여부는 평가자가 정성적으로 평가하거나 객관적인 평가 수치를 사용하여 정량적으로 평가될 수도 있다.
상기 검증 단계에 의해 평가 방법이 FAIL로 판정되면, 평가 방법을 구성하는 단계들 중 어느 단계에서 오류가 있었는지를 수정하게 된다. 예를 들면, 단계 S30 에서 획득된 카메라 이미지와 측위 장치의 기준 위치 정보의 동기화에 오류가 있는지 또는 단계 S50에서 수행된 위치 관계식에 의한 포인트 클라우드의 상대 좌표축 변환에 오류가 있는지 검사될 수 있으며, 상기 오류가 있는 경우 이를 수정한 후 다시 평가 방법이 수행될 수 있다.
도 7은 본 발명의 다른 실시예에 따른 평가 방법을 설명하기 위한 복수의 카메라 이미지들(800)과 이에 동기화된 포인트 클라우드들(810) 사이의 관계를 설명하기 위한 모식도이다.
도 7을 참조하면, 피테스트 카메라 모듈은 이동 수단에 탑재되어 시간의 경과에 따라 복수의 카메라 이미지들(802, 804, 806; 800)을 생성한다. 상기 복수의 카메라 이미지들(802, 804, 806)은 시간의 경과에 따라 소정의 시간 간격을 가지고 주기적으로 생성될 수도 있다. 복수의 카메라 이미지들(800)은, 각각 카메라 이미지에 대응되는 태그 정보가 부가되어 카메라 이미지 데이터 베이스(미도시)에 저장될 수 있다. 일 실시예에 따르면, 측위 장치의 제어부 또는 연산부의 연산부는 소정 주기에 기초하여 피테스트 카메라 모듈이 주기적으로 복수의 카메라 이미지들(802, 804, 806)을 촬상하도록 할 수 있다. 상기 태그 정보는, 상기 카메라 이미지가 획득된 시각과 관련된 정보 및 상기 카메라 이미지가 획득된 기준 위치와 관련된 정보 중 적어도 어느 하나를 포함할 수 있다.
일 실시예에 따르면, 측위 장치 또는 연산부의 연산부는 피테스트 카메라 모듈에 대하여 복수의 카메라 이미지들(802, 804, 806)을 생성하도록 신호를 발생하고, 이와 동시에 측위 장치는 복수의 카메라 이미지들(802, 804, 806; 800)에 동기화된 기준 위치 정보들을 생성하여 측위 장치 내의 저장 모듈, 연산부의 저장 장치 또는 유선 또는 무선 통신에 의해 접근 가능한 여하의 저장 장치에 저장될 수도 있다.
또한, 복수의 카메라 이미지들(802, 804, 806)은 상기 태그 정보를 통하여 측위 장치(120)에 의해 실시간 생성되거나 포인트 클라우드 서버에 저장되어 호출될 수 있는 해당 포인트 클라우드(812, 814, 816)와 맵핑될 수 있다. 이에 따르면, 복수의 카메라 이미지들과 상기 포인트 클라우드가 비동기 상태인 경우에도 상기 태그 정보를 통해 서로 맵핑된 카메라 이미지와 포인트 클라우드를 이용하여 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가할 수 있도록 한다.
일 실시예에서, 연산 장치(도 1의 130 참조)는 피테스트 카메라 모듈(110)에 의해 획득된 복수의 카메라 이미지들 중 평가 대상으로 사용할 적어도 어느 하나의 카메라 이미지를 선택할 수 있다. 또한, 연산 장치(130)는 선택된 카메라 이미지의 태그 정보에 기초하여 선택된 카메라 이미지에 해당되는 기준 위치 정보를 갖는 포인트 클라우드를 획득할 수 있다.
이후, 도 3에 개시된 단계들 S50 내지 S80을 수행하여 기준 상대 위치 정보와 피테스트 카메라 모듈에 의해 산출된 상기 피평가 상대 위치 정보를 비교함으로써 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가할 수 있다.
본 발명에 따른 장치(또는 모듈) 또는 방법(예: 단계)의 일부 또는 전부는, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)(예: 피테스트 카메라 모듈의 메모리, 측위 장치의 저장 모듈, 연산부의 저장 모듈)에 저장 가능한 명령어들의 집합, 하드웨어 또는 이들의 조합으로 구현될 수 있다. 상기 명령어는, 마이크로칩과 같은 하나 이상의 연산부를 포함하는 하드웨어에 의해 실행될 수 있으며, 상기 하나 이상의 연산부가 상기 명령어에 해당하는 기능을 수행할 수 있다.
이상에서 설명한 본 발명이 전술한 실시예 및 첨부된 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.

Claims (20)

  1. 기준 타겟 객체의 카메라 이미지 정보로부터 상기 기준 타겟 객체의 거리 및 방향 중 적어도 어느 하나를 포함하는 피평가 상대 위치 정보를 산출하는 영상 인식 알고리즘을 수행하는 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법으로서,
    상기 피테스트 카메라 모듈과 측위 장치를 제공하는 단계;
    상기 피테스트 카메라 모듈을 통해 상기 기준 타겟 객체를 포함하는 카메라 이미지를 획득하는 단계;
    상기 획득된 카메라 이미지와 동기화된 상기 측위 장치의 위치 및 방향 중 적어도 어느 하나를 포함하는 기준 위치 정보를 생성하는 단계;
    상기 기준 위치 정보에 기초하여, 상기 기준 타겟 객체에 관한 포인트 클라우드 데이터를 포함하는 포인트 클라우드를 획득하는 단계;
    상기 포인트 클라우드 내에 상기 피테스트 카메라 모듈의 위치인 가상 카메라 위치 정보를 생성하는 단계;
    상기 포인트 클라우드를 기초로 상기 가상 카메라의 위치를 기준으로 하는 상기 기준 타겟 객체의 기준 상대 위치 정보를 산출하는 단계;
    상기 영상 인식 알고리즘을 통해 산출된 상기 기준 타겟 객체의 피평가 상대 위치 정보를 수신하는 단계; 및
    상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보를 비교하여, 상기 피평가 상대 위치 정보의 산출 정확도를 평가하는 단계를 포함하는 평가 방법.
  2. 제 1 항에 있어서,
    상기 평가 방법을 검증하는 단계를 더 포함하며,
    상기 검증하는 단계는,
    상대 좌표로 변환된 포인트 클라우드와 상기 카메라 이미지가 정합되는 여부를 판정하는 단계를 포함하는 평가 방법.
  3. 제 1 항에 있어서,
    상기 기준 타겟 객체는, 표지판, 노면 표시, 차선, 또는 가로등, 신호등, 전광판, 가로등, 시선유도 표지, 갈매기 표지, 고가 도로, 램프, 톨게이트, 과속 탐지기, 시선 유도봉, 교명주, 비상구 표시, 환풍기, 소화전, 화살표 신호, 지주, 간판, 방음벽, 중앙분리대, 및 건축물 중 적어도 어느 하나인 평가 방법.
  4. 제 1 항에 있어서,
    상기 피테스트 카메라 모듈과 상기 측위 장치는 물리적으로 동일 위치에 배치되는 평가 방법.
  5. 제 1 항에 있어서,
    상기 피테스트 카메라 모듈은 제 1 위치에 배치되고, 상기 측위 장치는 상기 제 1 위치와 이격된 제 2 위치에 배치되고,
    상기 제 1 위치와 상기 제 2 위치는 거리 및 각도 중 적어도 어느 하나를 파라미터로 하는 위치 관계식에 의해 상대적으로 특정되는 평가 방법.
  6. 제 5 항에 있어서,
    상기 기준 위치 정보와 상기 위치 관계식에 기초하여 상기 피테스트 카메라 모듈의 촬상 위치와 촬상 방향을 산출하는 단계를 포함하는 평가 방법.
  7. 제 1 항에 있어서,
    상기 포인트 클라우드는 상기 측위 장치에 의해 실시간으로 생성되는 평가 방법.
  8. 제 1 항에 있어서,
    상기 포인트 클라우드는 포인트 클라우드 서버에 저장되고, 상기 기준 위치 정보에 연관되어 선택적으로 획득되는 평가 방법.
  9. 이동 수단에 탑재되고, 기준 타겟 객체를 포함하는 카메라 이미지로부터 상대 위치 정보를 산출하는 피테스트 카메라 모듈의 영상 인식 알고리즘의 정확도를 평가하기 위한 평가 시스템으로서,
    상기 피테스트 카메라 모듈로부터 위치 관계식에 의해 상대적으로 특정 가능한 위치에 배치되고 촬상된 카메라 이미지의 촬상 위치 계산을 위한 측위 장치 자체의 위치 및 방향 중 적어도 어느 하나를 포함하는 기준 위치 정보를 생성하는 위치 정보 생성부를 포함하는 측위 장치;
    상기 기준 위치 정보에 대응하는 포인트 클라우드에 기초하여, 상기 기준 위치 정보로부터 가상 카메라의 위치를 기준으로 하는 상기 기준 타겟 객체의 거리 및 방향 중 적어도 어느 하나를 포함하는 기준 상대 위치 정보를 산출하고, 상기 기준 상대 위치 정보와 상기 영상 인식 알고리즘으로부터 산출된 기준 타겟 객체에 대한 거리 및 방향 중 적어도 어느 하나의 정보를 포함하는 피평가 상대 위치 정보를 비교하여 상기 피평가 상대 위치 정보의 산출 정확도를 평가하는 연산 장치; 및
    상기 피테스트 카메라 모듈, 상기 측위 장치 및 상기 연산 장치를 제어하는 제어부를 포함하는 평가 시스템.
  10. 제 9 항에 있어서,
    상기 피테스트 카메라 모듈은, 상기 이동 수단이 정지된 상태 또는 주행 중인 상태에서 상기 카메라 이미지를 획득하는 평가 시스템.
  11. 제 9 항에 있어서,
    상기 피테스트 카메라 모듈은 상기 카메라 이미지를 상기 카메라 이미지의 획득 시각에 관한 정보와 연관시켜 저장하는 평가 시스템.
  12. 제 9 항에 있어서,
    상기 측위 장치는 상기 피테스트 카메라 모듈과 동일 장소 또는 이격된 장소에 배치되는 평가 시스템.
  13. 제 9 항에 있어서,
    상기 위치 정보 생성부는, 위성 항법 장치(GNSS)를 포함하는 평가 시스템.
  14. 제 13 항에 있어서,
    상기 측위 장치는, 센서부 및 통신부 중 적어도 어느 하나를 더 포함하며,
    상기 센서부는 관성 측정 장치를 포함하며,
    상기 통신부는 상기 연산 장치 또는 포인트 클라우드 정보가 저장된 포인트 클라우드 서버와 무선 통신과 유선 통신 중 어느 하나를 통해 통신을 수립하는 평가 시스템.
  15. 제 13 항에 있어서,
    상기 측위 장치는 상기 포인트 클라우드를 실시간 생성하기 위한 포인트 클라우드 생성부를 더 포함하는 평가 시스템.
  16. 제 9 항에 있어서,
    상기 연산 장치는,
    상기 기준 위치 정보로부터 상기 위치 관계식에 기초하여 상기 포인트 클라우드 내에 상기 피테스트 카메라 모듈의 가상 카메라 위치 정보를 산출하는 단계; 및
    상기 포인트 클라우드에서 상기 기준 타겟 객체를 인식하고, 상기 가상 카메라 위치 정보로부터 상기 기준 타겟 객체의 상기 기준 상대 위치 정보를 추출하는 단계를 수행하며,
    상기 추출된 상기 기준 상대 위치 정보와 상기 피평가 상대 위치 정보가 비교되는 평가 시스템.
  17. 제 9 항에 있어서,
    상기 평가 시스템은 상기 연산 장치가 상기 기준 타겟 객체를 인식하는 경우, 상기 인식된 기준 타겟 객체를 표시하는 가이드 정보를 출력 장치를 통해 사용자에게 제공하는 평가 시스템.
  18. 제 9 항에 있어서,
    상기 산출 정확도의 평가 결과는, 패스/패일, 점수 또는 등급화되어 표현되는 평가 시스템.
  19. 제 9 항에 있어서,
    상기 연산 장치는, 상기 포인트 클라우드의 점들과 상기 카메라 이미지가 정합하는지 여부를 판정하는 검증 단계를 더 수행하는 평가 시스템.
  20. 제 9 항에 있어서,
    상기 기준 타겟 객체는, 표지판, 노면 표시, 차선, 또는 가로등, 신호등, 전광판, 가로등, 시선유도 표지, 갈매기 표지, 고가 도로, 램프, 톨게이트, 과속 탐지기, 시선 유도봉, 교명주, 비상구 표시, 환풍기, 소화전, 화살표 신호, 지주, 간판, 방음벽, 중앙분리대, 및 건축물 중 적어도 어느 하나인 평가 시스템.
KR1020180065992A 2018-06-08 2018-06-08 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템 KR102136924B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180065992A KR102136924B1 (ko) 2018-06-08 2018-06-08 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180065992A KR102136924B1 (ko) 2018-06-08 2018-06-08 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20190139469A KR20190139469A (ko) 2019-12-18
KR102136924B1 true KR102136924B1 (ko) 2020-07-23

Family

ID=69052201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180065992A KR102136924B1 (ko) 2018-06-08 2018-06-08 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102136924B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190647A (ja) 2009-02-17 2010-09-02 Mitsubishi Electric Corp 車両位置測定装置及び車両位置測定プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5090797B2 (ja) * 2006-06-15 2012-12-05 株式会社岩根研究所 Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置
KR101445739B1 (ko) * 2012-11-13 2014-10-06 한국건설기술연구원 도로표지판의 위치검출 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190647A (ja) 2009-02-17 2010-09-02 Mitsubishi Electric Corp 車両位置測定装置及び車両位置測定プログラム

Also Published As

Publication number Publication date
KR20190139469A (ko) 2019-12-18

Similar Documents

Publication Publication Date Title
JP6812404B2 (ja) 点群データを融合させるための方法、装置、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム
EP3967972A1 (en) Positioning method, apparatus, and device, and computer-readable storage medium
US11255973B2 (en) Method and apparatus for extracting lane line and computer readable storage medium
EP3836018B1 (en) Method and apparatus for determining road information data and computer storage medium
KR20200121274A (ko) 전자 지도를 업데이트하기 위한 방법, 장치 및 컴퓨터 판독 가능한 저장 매체
EP2458336B1 (en) Method and system for reporting errors in a geographic database
EP4296721A2 (en) Generating 3-dimensional maps of a scene using passive and active measurements
KR20210081984A (ko) 정밀도로지도 갱신을 위한 객체 변화 탐지 시스템 및 그 방법
CN105556329A (zh) 混合照片导航及地图绘制
KR102305328B1 (ko) 카메라 기반의 자동화된 정밀도로지도 생성 시스템 및 방법
US11216705B2 (en) Object detection based on machine learning combined with physical attributes and movement patterns detection
CN105512646A (zh) 一种数据处理方法、装置及终端
US11144770B2 (en) Method and device for positioning vehicle, device, and computer readable storage medium
CN110608746B (zh) 用于确定机动车的位置的方法和装置
US11002553B2 (en) Method and device for executing at least one measure for increasing the safety of a vehicle
WO2019198076A1 (en) Real-time raw data- and sensor fusion
JP2009180631A (ja) ナビゲーション装置、ナビゲーション方法およびプログラム
US20200279395A1 (en) Method and system for enhanced sensing capabilities for vehicles
CN110766761A (zh) 用于相机标定的方法、装置、设备和存储介质
CN103472472A (zh) 一种导航定位方法及装置
CN112447058B (zh) 泊车方法、装置、计算机设备及存储介质
US20200200870A1 (en) Radar Sensor Misalignment Detection for a Vehicle
JP2014215205A (ja) 情報処理装置、サーバ装置、情報処理方法並びに情報処理システム及び情報処理プログラム
US11187815B2 (en) Method of determining location of vehicle, apparatus for determining location, and system for controlling driving
KR102136924B1 (ko) 피테스트 카메라 모듈의 상대 위치 산출 정확도를 평가하기 위한 평가 방법 및 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right