KR20070051275A - 입체시각 시스템의 자동 보정 방법 - Google Patents

입체시각 시스템의 자동 보정 방법 Download PDF

Info

Publication number
KR20070051275A
KR20070051275A KR1020077003637A KR20077003637A KR20070051275A KR 20070051275 A KR20070051275 A KR 20070051275A KR 1020077003637 A KR1020077003637 A KR 1020077003637A KR 20077003637 A KR20077003637 A KR 20077003637A KR 20070051275 A KR20070051275 A KR 20070051275A
Authority
KR
South Korea
Prior art keywords
image
error
framing
determining
pitch
Prior art date
Application number
KR1020077003637A
Other languages
English (en)
Inventor
제로미 마르큐에
Original Assignee
르노 에스.아.에스.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 르노 에스.아.에스. filed Critical 르노 에스.아.에스.
Publication of KR20070051275A publication Critical patent/KR20070051275A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo

Abstract

본 발명은 차량에 탑재하여 배치되도록 한 입체시각 시스템(stereovision system)의 자동 보정 방법에 관한 것이다. 본 발명의 방법은, 제1 및 제2 포착 장치를 사용하여 적어도 하나의 차량용 통행 레인을 포함하는 동일한 장면(scene)의 좌측 이미지와 우측 이미지를 포착하는 단계(610)와; 기본적으로 평행한 2 개의 레인의 직선에 대응하는 적어도 2 개의 소멸선(vanishing line)에 대하여 좌측 이미지와 우측 이미지를 검색하는 단계(620)와; 상기 적어도 2 개의 소멸선의 검출 시, 좌측 이미지와 우측 이미지에 대하여 상기 적어도 2 개의 각각 검출된 소멸선의 교차점의 좌표를 결정하는 단계(640)와; 좌측 이미지와 우측 이미지에 대하여 결정된 교차점의 좌표로부터 피치(pitch) 각도 및 흔들림(yaw) 각도에 관한 카메라간 차(intercamera difference)의 형태로 피치 에러와 흔들림 에러를 결정하는 단계(650)를 포함한다.
입체시각 시스템, 카메라, 이미지, 피치 에러, 흔들림 에러, 자동 보정, 프레임, 좌표, 소멸선, 파라미터

Description

입체시각 시스템의 자동 보정 방법{METHOD FOR THE AUTOMATIC CALIBRATION OF A STEREOVISION SYSTEM}
본 발명은 차량에 탑재되도록 한 입체시각 시스템의 자동 보정 방법에 관한 것이다.
입체시각 시스템을 좌우측 2 개의 카메라와 통합시킨, 차량에 사용되는 장애물 검출 시스템은 조작 가능하도록 매우 정확하게 보정되어야 한다. 구체적으로, ±0.1°차수의 보정 에러 - 즉, 카메라 축의 정렬 에러 - 는 검출 시스템의 기능 장애를 야기할 수 있다. 현재, 이러한 정밀도는 기계적으로 달성하기에 매우 어렵다. 따라서, 카메라 축의 정렬 에러를 결정하고 결정된 정렬 에러의 기능으로서 카메라에 의해 검출된 이미지에 기초하여 이행된 측정값을 교정하는 데 있는 소위 전자 보정 방식이 고찰되어야 한다.
알려진 보정 방식들은 입체시각 시스템을 향해 배치되어야 하는 테스트 패턴의 사용을 필요로 한다. 따라서, 이 방식들은 워크숍에 개입시키기 위하여 차량의 수동적인 작업 정지를 필요로 하고 보정이 규칙적인 시간격으로 이행되어야 하므로 매우 값비싼데, 그 이유는 하나의 카메라에 대한 다른 카메라의 움직임이 차량의 라이프 사이클에서 ±0.1°미만인 것을 보장할 수 없기 때문이다.
J. DOURET에 의해 2004년 4월 2일자 제출된 University of Paris 6으로부터의 박사학위 논문에는, 그라운드 마킹(ground marking)의 도로상의 검출과 이들 마킹(개별 위치, 간격 및/또는 전반적 구조)에 부과된 기하학적 제약의 사전 지식에 기초한 테스트 패턴이 없는 보정 방식이 제안되어 있다. 이 방식은, 한편으로 이것의 용도가 미리 정해진 특징을 갖는 마킹이 시계(field of vision) 내에 배치되고 또한 이러한 마킹에 부과된 기하학적 제약이 체계화되어야 한다는 것을 미리 가정한다는 사실 때문에, 그리고 다른 한편으로, 이것의 용도가 한편으로 차도의 마킹에 의한 라인의 구분이 유용하고 또한 다른 한편 좌측 이미지와 우측 이미지에서 각각 검출된 마킹의 횡방향 및 종방향 위치를 나타내는 여러 마킹점들의 위치들 간에 일치가 확립되어야 한다는 것을 미리 가정한다는 사실 때문에 복잡한 것으로 판명되어 있다.
따라서, 본 발명은, 단순하고 자동적이며, 특히 테스트 패턴의 사용, 또는 인위적 개입, 또는 차량의 정지를 필요로 하지 않고, ±0.1°미만의 보정 정밀도를 얻을 수 있는, 차량에 탑재되도록 의도된 입체시각 시스템의 보정 방법을 생성하는 것을 목적으로 한다.
이러한 목적으로, 본 발명의 과제는, 차량에 탑재되도록 의도되고, 적어도 2 개의 이미지 포착 장치, 즉 제1의 소위 "좌측" 이미지를 포착하는 제1 포착 장치 및 제2의 소위 "우측" 이미지를 포착하는 제2 포착 장치를 포함하는 입체시각 시스템의 자동 보정 방법으로서,
a) 상기 제1 포착 장치 및 상기 제2 포착 장치에서 상기 차량용의 적어도 하나의 주행 트랙(running track)을 포함하는 하나의 동일한 장면(scene)의 좌측 이미지와 우측 이미지의 각각을 포착하는 단계,
b) 보정 에러를 결정하는 단계,
c) 상기 보정 에러에 기초하여 상기 좌측 및 우측 이미지의 조정을 실행하는 단계
를 포함하고, 상기 자동 보정 방법 중 단계 b)는,
b1) 상기 좌측 이미지 및 상기 우측 이미지를 통해서 주행 트랙의 거의 평행한 2 개의 직선에 대응하는 적어도 2 개의 소멸선(vanishing line), 특히 주행 트랙의 경계선 또는 마킹(marking) 선을 검색하는 단계,
b2) 상기 좌측 이미지 및 상기 우측 이미지에 대하여 상기 적어도 2 개의 각각 검출된 소멸선의 교차점의 좌표를 결정하는 단계,
b3) 상기 좌측 이미지 및 상기 우측 이미지에 대하여 결정된 상기 교차점 좌표에 기초하여 피치(pitch) 각도 및 흔들림(yaw) 각도의 각각의 카메라간 차(intercamera difference)의 형태로 피치 에러 및 흔들림 에러를 결정함으로써 보정 에러를 결정하는 단계
를 포함하며,
상기 좌측 및 우측 이미지의 상기 조정은 상기 피치 에러 및 상기 흔들림 에러의 함수로서 실행되는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법이다.
여기서 넓은 의미에서 주행 트랙은 도로 자체(차도와 길가를 포함함), 단독의 차도 또는 도로상에 여러 레인으로 구분된 주행 레인 모두를 의미한다.
본 발명에 따른 방법은 주행 트랙이 거의 평행한 선, 즉 주행 트랙의 에지에 대응하는 경계선이나 주행 트랙의 마킹 선 중 어느 한 선을 포함한다는 사실을 이용한다. 또한, 위에서 언급한 선행 기술과 반대로, 마킹 선은 반드시 미리 정해진 간격을 제시 또는 나타낼 필요가 없다. 최종적으로, 우측 이미지와 좌측 이미지에서의 소멸점의 결정만이 보정 에러, 특히 피치 에러 및 흔들림 에러를 결정할 수 있다.
특히 유리한 실시예에 따라, 피치 에러 및 흔들림 에러는 회전 각도(angle of roll)가 소정의 간격, 예컨대 -5°와 +5°사이에 있다고 가정함으로써 결정된다.
본 방법이 인위적인 개입 없이 실행된다는 사실 때문에, 본 방법은 차량이 충분히 평평한 주행 레인을 따르자마자 어떠한 비용 초과도 없이 반복적으로 실시될 수 있다. 본 방법은 소정의 주기성에 따라 규칙적인 시간 간격으로 실시되는 것이 바람직하다. 또한, 본 방법은 차량 정지를 필요로 하지 않고 차량이 변위하는 동안 실시되기에 적합하다. 이것은, 예를 들면 카메라의 기계적인 "재보정"의 경우에, 차량이 다시 충분히 평평한 주행 레인을 따르자마자 자동적으로 그리고 전자적으로 보정이 다시 실시될 수 있다는 것을 보장한다.
본 발명에 따른 방법의 특히 유리한 실시예에 따라, 본 발명은,
좌측 이미지와 우측 이미지에 대하여 결정된 소멸선의 방정식 파라미터의 프레이밍을 결정하는 단계,
소멸점의 방정식 파라미터의 프레이밍에 기초하여 좌측 이미지와 우측 이미지의 소멸점 좌표의 프레이밍을 결정하는 단계, 및
소멸선의 좌표의 프레이밍에 기초하여 피치 에러와 흔들림 에러의 프레이밍을 결정하는 단계를 더 포함한다.
본 발명의 기타 다른 이점 및 특징들은 다음의 설명에 비추어 명백해질 것이다.
도 1은 입체시각 시스템을 구비한 차량의 개략도.
도 2a 및 도 2b는 주행 트랙 상의 위치에서 차량에 설치된 카메라에 의해 포착된 이미지의 실례를 나타내는 도면.
도 3a, 도 3b 및 도 3c는 본 발명에 따른 방법에 사용되는 기하학적 모델의 3차원의 기하학적 예시도.
도 4a 및 도 4b는 본 발명에 따른 방법에 사용되는 일정한 파라미터의 계산법을 나타내는 도면.
도 5는 본 발명에 따른 방법의 간략화된 흐름도.
다음으로, 도 1에 나타낸 바와 같이, 주행 트랙(B) 상에서 이동하거나 또는 정지된 차량(V)(위로부터 보여짐)을 고려한다. 주행 트랙은 거의 평평한 것으로 가정한다. 따라서, 주행 트랙은 주행 트랙 자체(우측 및 좌측 에지)의 경계선(LB) 또는 측면(L1, L2)이나 중앙(LM)의 마킹 선 중 어느 하나로 이루어진 거의 평행한 선을 포함한다. 마킹 선(L1, L2)은 차도를 적절히 한정하는 반면, 선(L1, LM)(또는 L2, LM)은 이 차도상의 주행 레인을 한정한다. 도로의 에지(LB)가 충분히 직선적이고 도로의 직접적인 환경에 대해서 충분한 콘트라스트를 나타낸다면, 이 에지가 평행한 선으로서 이용할 수 있는 한, 도로의 마킹이 본 발명에 따른 방법의 실행에 반드시 필수적이지 않다는 것을 주목해야 한다. 특히, 휘도 콘트라스트나 색도 콘트라스트는 균등하게 작지만 도로 및 그 도로의 직접적인 환경의 스냅샷(snapshot) 상에서 검출가능한 이들 에지들을 렌더링하는데 충분할 수 있다.
차량은 어느 정도 이격 배치된 2 개의 카메라인 우측 CD와 좌측 CG를 포함하는 입체시각 시스템이 구비되어 있다. 이들 카메라는 전형적으로 디지털 이미지의 포착을 허용하는 CCD 카메라이다. 이미지는 2 개의 카메라와 통신하여 이들이 디지털화하는 이미지를 수신하는 중앙 처리 계산 시스템(S)에 의해 처리된다. 우선적으로, 좌측 및 우측 이미지는 변함 없이 고유한 보정 파라미터와 함께 변형되어 공간 지점이 카메라의 초점면의 지점에 투영되는 핀홀 모델로 축소되는데, 이 지점은 공간 지점을 카메라의 광학 중심에 결합하는 직선과 이 초점면의 교차점에 대응한다. (예를 들면 Prentice Hall에 의해 출판된 Forsyth와 Ponce 저서 "Computer Vision, A modem approach"의 3장을 참조). 이후 이미지는 예를 들면 콘트라스트 또는 선명도를 향상시켜 이미지의 라인을 검출하는 후속 단계를 용이하게 하도록 필터링 또는 사전 처리 포착 후의 주제를 형성한다.
차량에 배치된 각각의 카메라(CD, CG)는 도 2a 또는 도 2b에 나타낸 것과 같 은 이미지를 포착한다. 이미지(2a)는 차량이 직선적인 주행 레인을 따르는 상황에 대응한다. 이 이미지에서, 주행 트랙을 마킹하는 선(L1, L2)은 평행하고 이미지의 소멸점에 집중한다. 이미지(2b)는 차량이 도시 내의 굴곡을 따르는 상황에 대응한다. 이 이미지에서 검출할 수 있는 선(L1, L2)은 매우 짧은 직선 부분이다.
이제부터 본 방법의 특정 형태의 각각을 예시하는 도 3a, 도 3b, 도 3c 및 도 4a, 도 4b와 결합하여 도 5를 참조하여 단계적으로 본 발명에 따른 방법을 설명한다. 단계 610 내지 640은 우측 이미지와 좌측 이미지상에서 동일한 방식으로 정확하게 실시되고, 단계 650 내지 670은 2 개의 이미지를 조합하여 단계 610 내지 640에서 얻어진 결과를 이용한다.
직선의 검출
단계 610에서 우측 카메라(CD)에 의해 포착되어 이 카메라(CD)에 대한 핀홀 모델로 축소하도록 교정된 이미지뿐만 아니라, 좌측 카메라(CG)에 의해 포착되어 동일한 방식으로 교정된 이미지는 이후 선 검출 단계(620)로 넘겨진다. 이러한 목적으로 Hough 변환 또는 Radon 변환이 사용되는 것이 바람직하다. 매트릭스 필터링, 스레시홀딩(thresholding) 및 이미지 내의 경사도의 검출 등에 의한 직선을 검출하기 위한 임의의 다른 프로세스가 또한 이용될 수 있다. Hough 또는 Radon 변환의 사용은 이미지 내에 존재하는 선을 결정하고 더욱이 이 선에 속하는 지점의 수를 결정할 수 있다. 발견된 지점의 수의 함수로서, 차량이 직선 상황에 있는지 또는 곡선에 있는지를 결정할 수 있다. 첫 번째 경우에 입체적인 보정이 실시될 수 있지만 두 번째 경우는 아니다.
이들 선이 직선인 경우, 이 변환은 선의 검출에 이용되는 변환의 파라미터화에 의한 정밀도로 직선 방정식의 계수를 결정할 수 있다.
이러한 목적으로 좌측 카메라에 의해 포착된 좌측 이미지 및 도 3a에 예시된 오소노말 아핀(orthonormal affine) 기준 프레임 RIG = (OIG,
Figure 112007014011345-PCT00001
G -
Figure 112007014011345-PCT00002
G )에 대해서 정의하고, 여기서 좌표 (u0, v0)를 갖는 원점 OIG는 카메라의 포착 매트릭스(전형적으로는 CCD 매트릭스)의 중앙에 위치하는 것으로 가정되고, 기본 벡터
Figure 112007014011345-PCT00003
G와
Figure 112007014011345-PCT00004
G는 매트릭스의 수평 및 수직축에 각각 대응한다. 여기서 기준 프레임 RIG의 좌표(u0, v0)는 카메라의 이미지 매트릭스에 대하여 많은 픽셀로서 주어진다. 우측 이미지에 대해서도 마찬가지로 오소노말 아핀 기준 프레임 RID = (OID,
Figure 112007014011345-PCT00005
D,
Figure 112007014011345-PCT00006
D )를 정의한다. 여기서 단순화하기 위해 2 개의 포착 매트릭스 우측 및 좌측의 치수는 동일한 것으로 가정한다. 따라서, 각 우측 및 좌측 매트릭스의 중앙의 좌표(u0, v0)는 또한 동일하다.
이러한 기준 프레임에서 직선은 다음의 방정식을 갖는다:
Figure 112007014011345-PCT00007
여기서, θ 및 ω는 직선의 원점에서 기울기 및 세로 좌표를 특징화하는 파라미터이다.
따라서, Hough 또는 Radon 변환에 의해서 결정된 각각의 직선 방정식은 θ의 값과 ω의 값에 대응한다. 이용된 변환의 파라미터화에 따라, 파라미터의 이들 2 개 값의 프레이밍을 검출된 각 직선에 대하여 결정할 수 있다.
주행 트랙의 직선(L1)에 대응하는 우측 이미지의 제1 직선(LD1)에 대하여, θ 및 ω의 값 θD1 및 ωD1에 대한 다음의 프레이밍을 얻는다:
Figure 112007014011345-PCT00008
그리고 주행 트랙의 직선(L2)에 대응하는 우측 이미지의 제2 직선(LD2)에 대하여, θ 및 ω의 다음의 프레이밍 값 θD2 및 ωD2를 얻는다:
Figure 112007014011345-PCT00009
마찬가지로, 주행 트랙의 직선(L1)에 대응하는 우측 이미지의 제1 직선(LG1)에 대하여, θ 및 ω의 값 θG1 및 ωG1에 대한 다음의 프레이밍을 얻는다:
Figure 112007014011345-PCT00010
주행 트랙의 직선(L2)에 대응하는 우측 이미지의 제2 직선(LG2)에 대하여, θ 및 ω의 값 θG2 및 ωG2에 대한 다음의 프레이밍을 얻는다:
Figure 112007014011345-PCT00011
차량이 비직선형 레인 부분을 따르고 검출된 직선 부분이 이미지 내의 소멸점의 정확한 결정에 부적합한 도 2b의 유형의 상황을 제거하기 위해, 충분한 갯수의 지점이 얻어지는 이미지의 직선들만을 유지한다. 따라서, 테스트 단계(630)는 검출된 직선 각각에서 실시되어 2 개의 적은 지점을 포함하는 직선의 부분을 제거하고 이미지 내의 적어도 2 개의 직선에 대하여 지점의 개수가 임계값보다 큰지를 결정한다. 이 임계값은 경험적으로 정해지거나 연속적인 특징 이미지상에서의 실험의 결과이다. 어떠한 직선도 또는 직선의 일부도 충분한 갯수의 지점을 갖지 않은 경우, 본 방법의 다음 단계는 실시되지 않고 이미지 포착 단계(610)로 되돌아간다. 적어도 2 개의 직선이 충분한 갯수의 지점을 갖는 경우, 이들 우측 및 좌측 이미지에서 2 개의 직선만을 유지하는데, 예를 들면 2 개의 직선이 각 이미지에서 대부분의 지점을 가지면 다음 단계(640)로 간다.
소멸점의 결정
각각의 우측 및 좌측 이미지에 대하여 소멸점의 좌표, 즉 유지된 2 개의 직선의 교차점의 좌표를 결정한다.
위에서 정의된 표기 및 방정식에 기초하여, 우측 이미지 내에서의 직선(LD1, LD2)의 좌표(UDF, VDF)를 갖는 교차점은 다음의 관계식으로 정의된다:
Figure 112007014011345-PCT00012
여기서 θD1, ωD1, θD2, 및 ωD2는 관계식 (2) 내지 (5)로 정의된 간격에서 각각 변화된다.
따라서, 앞서 결정된 프레임 값으로부터, θD1, ωD1, θD2, 및 ωD2가 관계식 (2) 내지 (5)로 정의된 간격에서 각각 변화되는 관계식 (10) 및 (11)로 주어진 최대 및 최소의 UDF와 VDF를 검색함으로써, 다음 형태의 우측 이미지 내에서의 소멸점의 좌표 (UDF, VDF)의 프레이밍을 결정한다:
Figure 112007014011345-PCT00013
마찬가지로, 좌측 이미지 내에서의 직선(LG1, LG2)의 좌표(UGF, VGF)를 갖는 교차점은 다음의 관계식으로 정의된다:
Figure 112007014011345-PCT00014
여기서 θG1, ωG1, θG2, 및 ωG2는 관계식 (6) 내지 (9)로 정의된 간격에서 변화된다.
우측 이미지에 대해서도 마찬가지로, 좌측 이미지의 소멸점의 좌표(UGF, VGF)에 대하여 다음 형태의 프레이밍을 결정한다:
Figure 112007014011345-PCT00015
최소값 또는 최대값의 검색은 예컨대 θ 및 ω에 대한 0.1 또는 0.05 단위의 단계 등에 관계된 다양한 파라미터를 다양한 간격에서 변화시켜 실시된다. 다른 수학적 분석 기술이 특히 도함수의 계산에 의해 사용될 수 있음은 물론이다.
기하학적 모델
보정 에러의 결정을 설명하기 전에, 도 3a, 도 3b 및 도 3c를 참조하여 사용되는 기하학적 모델을 설명한다.
사용되는 기하학적 모델은 다음 방식의 3차원 공간에서 정의되는 복수의 우회전(right-handed) 오소노말 기준 프레임에 기초한다:
- OG 와 OD 각각을 좌측 카메라의 광학적 중심과 우측 카메라의 광학적 중심의 각각이 되도록 한다.
- OS를 세그먼트 [OG, OD]의 중앙이 되도록 한다; OG로부터 OD까지의 거리를 B로 표시한다.
- 한편의
Figure 112007014011345-PCT00016
G 와
Figure 112007014011345-PCT00017
G 및 다른 한편의
Figure 112007014011345-PCT00018
G 와
Figure 112007014011345-PCT00019
G 가 동선형(colinear) 이도록 RG = (OG,
Figure 112007014011345-PCT00020
G,
Figure 112007014011345-PCT00021
G,
Figure 112007014011345-PCT00022
G )를 좌측 카메라의 고유 기준 프레임이 되도록 한다; R1G와 RG 간의 차는 RG에서 좌표가 많은 픽셀로서가 아닌 미터 단위(예컨대, m, mm)로 주어지는 것에 있다.
- RD = (OD,
Figure 112007014011345-PCT00023
D,
Figure 112007014011345-PCT00024
D,
Figure 112007014011345-PCT00025
D ) 를 우측 카메라의 고유 기준 프레임이 되도록 한다.
- RR = (OR,
Figure 112007014011345-PCT00026
R,
Figure 112007014011345-PCT00027
R,
Figure 112007014011345-PCT00028
R ) 을 소위 도로 기준 프레임 또는 주행 트랙 기준 프레임이 되도록 하고, 벡터
Figure 112007014011345-PCT00029
R 은 도로의 평면에 속하는 직선(L1, L2)에 평행하고, 벡터
Figure 112007014011345-PCT00030
R 은 도로의 평면에 평행하면서
Figure 112007014011345-PCT00031
R 로 정의된 방향에 수직하고, 지점 OR은 도로의 평면에 위치하고 수직면에서 다음과 같이 지점(OS)의
Figure 112007014011345-PCT00032
R 로 정의된다.
Figure 112007014011345-PCT00033
- RS = (OS,
Figure 112007014011345-PCT00034
S,
Figure 112007014011345-PCT00035
S,
Figure 112007014011345-PCT00036
S ) 를 입체 기준 프레임이 되도록 하고, 벡터
Figure 112007014011345-PCT00037
S 는 지점(OG, OS, OD)를 통과하여 지점(OS)에서 지점(OG)로 향하는 직선과 동선 형이며, 벡터
Figure 112007014011345-PCT00038
S 는
Figure 112007014011345-PCT00039
S 에 수직 선택되어 벡터
Figure 112007014011345-PCT00040
G 와
Figure 112007014011345-PCT00041
D 의 벡터 곱에 동선형을 이룬다.
다음에, 기준 프레임 매트릭스의 다음 변화를 정의한다:
- 변환은 기준 프레임(RR)으로부터 기준 프레임(RS)으로 스위칭하는 것을 가능하게 하고, 이는 각도(αxr, αyr, αzr) 각각 및 축(
Figure 112007014011345-PCT00042
R,
Figure 112007014011345-PCT00043
R,
Figure 112007014011345-PCT00044
R ) 각각의 3 회전의 합성이고, 각도 {αxr, αyr, αzr}로 정의되며, 기준 프레임 매트릭스(MRSR)의 다음 변화에 대응하여,
Figure 112007014011345-PCT00045
RS 내의 지점(M)의 좌표(xS, yS, zS)는 다음과 같이 RR 내의 이들 좌표(xR, yR, zR)에 기초하여 계산된다:
Figure 112007014011345-PCT00046
- 변환은 기준 프레임(RS)으로부터 기준 프레임(RG)으로 스위칭하는 것을 가능하게 하고, 이는 각도(εxg, εyg, εzg) 각각 및 축(
Figure 112007014011345-PCT00047
G,
Figure 112007014011345-PCT00048
G,
Figure 112007014011345-PCT00049
G ) 각각의 3 회전의 합성이고, 각도 {εxg, εyg, εzg}로 정의되며, 기준 프레임 매트릭스(MRGS)의 다음 변화에 대응하여,
Figure 112007014011345-PCT00050
RG 내의 지점(M)의 좌표(xG, yG, zG)는 다음과 같이 RS 내의 좌표(xS, yS, zS)에 기초하여 계산된다:
Figure 112007014011345-PCT00051
- 변환은 기준 프레임(RS)으로부터 기준 프레임(RD)으로 스위칭하는 것을 가능하게 하고, 이는 각도(εxd, εyd, εzd) 각각 및 축(
Figure 112007014011345-PCT00052
D,
Figure 112007014011345-PCT00053
D,
Figure 112007014011345-PCT00054
D ) 각각의 3 회전의 합성이고, 각도 {εxd, εyd, εzd}로 정의되며, 기준 프레임 매트릭스(MRDS)의 다음 변화에 대응하여,
Figure 112007014011345-PCT00055
RD 내의 지점(M)의 좌표(xD, yD, zD)는 다음과 같이 RS 내의 좌표(xS, yS, zS) 에 기초하여 계산된다:
Figure 112007014011345-PCT00056
또한, 관계식 (20) 및 (22)로부터 RG 내의 지점(M)의 좌표(xG, yG, zG)가 다음과 같이 RR 내의 좌표(xR, yR, zR)에 기초하여 계산되는 것을 추정한다:
Figure 112007014011345-PCT00057
마찬가지로, 관계식 (20) 및 (24)로부터 RD 내의 지점(M)의 좌표(xD, yD, zD)가 다음과 같이 RR 내의 좌표(xR, yR, zR)에 기초하여 계산되는 것을 추정한다:
Figure 112007014011345-PCT00058
또한, 도로의 기준 프레임에 대해서 좌측 카메라에 대한 회전, 피치 및 흔들림의 명시 각도(apparent angle) {θxg, θyg, θzg}를 정의하고:
Figure 112007014011345-PCT00059
도로의 기준 프레임에 대해서 우측 카메라에 대한 회전, 피치 및 흔들림의 명시 각도 {θxd, θyd, θzd}를 정의한다:
Figure 112007014011345-PCT00060
또한, 카메라의 내부 보정 파라미터가 단계(610)에서 사용되어 핀홀 모델로 축소되면, RG 내의 좌표(XG, YG, ZG)를 갖는 지점(M)의 좌측 이미지 내의 투영의 좌표(UG, VG)는 다음과 같이 (XG, YG, ZG)에 기초하여 계산된다:
Figure 112007014011345-PCT00061
여기서 Ku는 이미지 내의 mm당 픽셀의 갯수이고 f는 카메라의 초점 길이이다. 단순화하기 위해서, 초점 길이 및 mm당 픽셀의 갯수는 여기서 양쪽 카메라에 대하여 동일한 것으로 가정한다.
우측 카메라에 대해서 동일하게 가정한 상태에서, RD 내의 좌표(XD, YD, ZD)를 갖는 지점(M)의 우측 이미지 내의 투영의 좌표(UD, VD)는 다음과 같이 (XD, YD, ZD)에 기초하여 계산된다:
Figure 112007014011345-PCT00062
피치 에러 및 흔들림 에러의 결정
입체 기준 프레임(RS)에 대해서 좌측 또는 우측 카메라의 기준 프레임의 축 각각의 편차와 관련된, 각도로 주어진 보정 에러는 εxg, εyz 및 εzg 각각으로 표시된다. 우측 카메라에 대하여, 이들 동일한 에러는 εxd, εyd 및 εzd 각각으로 표시된다. 본 발명의 문맥 중에서, 피치 각도의 카메라간 차로서 여기서 정의된 피치 에러(Δεy) 형태와:
Figure 112007014011345-PCT00063
흔들림 각도의 카메라간 차로서 여기서 정의된 흔들림 에러(Δεz) 형태의 입체 영상 시스템의 보정 에러를 결정하는 것에 관심이 있다:
Figure 112007014011345-PCT00064
조정 방식에 대한 기초로 유용한 공액선(epipolar line)의 거리 및 변위 측정의 에러에 가장 크게 영향을 미치는 것이 이들 2 개의 에러이다.
이러한 피치 에러 및 흔들림 에러의 결정에서, 각 카메라의 회전의 명시 각도가 작은 것으로, 전형적으로는 절대값으로 5°미만인 것으로 가정한다. 이러한 가정은, 특히 타이트한 곡선에서도 회전 각도가 5°를 초과하지 않는 한 의미 있다. 또한, 이러한 가정은, 설명되는 바와 같이, 피치와 흔들림, 즉 카메라의 기준 프레임에 대한 도로 평면의 명백한 에러를 계산하는 것이 가능하다. 그렇지만, 명백한 피치 에러와 흔들림 에러는 회전의 명시 각도에 따라 적게 변화된다. 결과적으로 회전 각도를 대략 인식함으로써 매우 정밀하게 명백한 피치 및 흔들림 에러를 결정하는 것이 가능하다.
피치 에러 및 흔들림 에러(Δεy, Δεz)의 인식은 우측 이미지 또는 좌측 이미지의 조정을 실행 가능하게 함으로써, 양호하게 보정된 입체시각 시스템의 상태로 축소되는데, 즉 우측 및 좌측 카메라의 축이 평행해진다. 이 조정 처리는 알려진 방식(예를 들면, "Computer vision, a modem approach" 제목의 11장에서 이미 인용된 문서를 참조)으로 비보정된 입체시각 시스템으로부터 발생하는 우측 및 좌측 이미지를 카메라의 광학적 중심과 결합하는 선에 평행한 공통 이미지 평면을 포함하는 2 개의 동등한 우측 및 좌측 이미지로 교체하는 것이다. 보통 이 조정은 카메라의 광학적 중심과 결합하는 선에 평행한 하나의 동일 이미지 평면 내로 원래의 이미지를 투영하는 것에 있다. 좌표계가 적절하게 선택되면, 조정 방법을 통해서 공액선은 조정된 이미지의 수평선이 되고 카메라의 광학적 중심과 결합하는 선에 평행해진다. 조정된 이미지는 입체시각에 의해 장애물을 검출하는 시스템에서 사용할 수 있고, 이는 일반적으로 우측 및 좌측 카메라의 축이 평행하다는 것을 미리 가정함으로써 필요로 한다. 보정 에러의 경우에, 즉 카메라의 축이 더 이상 평행하지 않은 경우, 공액선은 더 이상 필요로 하는 이미지의 선에 대응하지 않고, 거리 측정은 오류가 있고 장애물 검출은 불가능해진다.
우측 이미지 및 좌측 이미지 내의 소멸점 위치의 프레이밍에 의해서, 이후 증명되는 바와 같이, 다음 형태의 피치 에러(Δεy) 및 흔들림 에러(Δεz)의 프레이밍을 결정하는 것이 가능하다:
Figure 112007014011345-PCT00065
이 프레이밍은 이미지 포착 단계(610)로 되돌아가기 전에 단계(650)에서 우측 및 좌측 이미지 한쌍에 대하여 결정된다.
본 발명에 따른 방법의 특히 유리한 실시예에 따라, 피치 에러(Δεy) 및 흔들림 에러(Δεz)의 프레이밍의 결정은 복수의 이미지에 대하여 반복된다. 그리고 나서, 단계(660)에서 이 복수의 이미지에 대하여, Δεymax와 Δεzmax 의 이미지의 각각에 대하여 얻어진 값의 최소값(또는 하한선)뿐만 아니라, Δεymin와 Δεzmin 에 대하여 얻어진 값의 최대값(또는 상한선)이 결정된다. 이것은 결국 다음 형태의 보다 정확한 프레이밍을 산출한다:
Figure 112007014011345-PCT00066
여기서 함수 "min" 과 "max"는 상기 복수의 이미지에 대하여 결정된다. 도 4a 및 도 4b는 Δεymin과 Δεzmin (°로 주어짐) 각각이 연속한 이미지에 대하여 변화되는 방법 및 이 복수의 이미지에 대하여 결정된 최소값과 최대값을 추정하는 방법을 예시한다. 이렇게 얻어진 프레이밍이 포착된 이미지의 조정을 허용하고 장애 물 검출 처리에서 본 발명에 따른 처리에 의해 조정된 이미지의 사용을 허용하기에 충분히 정확한 것으로 판명되었다. 특히, Hough 변환에 대한 0.5°와 1 픽셀의 스텝 사이즈를 선택함으로써, ±0.15°내의 Δεy 의 프레이밍과 ±0.1°내의 Δεz 의 프레이밍을 얻는 것이 입증되었다.
최종 단계(670)에서, 단계(660 또는 650)에서 얻어진 피치 및 흔들림은 우측 및 좌측 이미지의 조정을 실시하는데 사용된다.
다음으로, 관계식 (35) 및 (36)의 프레이밍을 결정하는 프로세스를 설명한다. 이후 설명되는 단계들은 주로 근사 프로세스(approximation process)를 예시하는 것을 목적으로 한다. 적절히 행해진 일정 수의 근사 및 가정에 의해서, 많은 모르는 것들과 많은 수학적 관계식을 얻음으로써 피치 에러(Δεy) 및 흔들림 에러(Δεz)의 결정이 우측 및 좌측 이미지의 소멸점의 좌표만으로 가능하기 때문에, 기타 다른 수학 방정식이나 모델이 사용될 수 있다.
각도 {εxg, εyg, εzg} 및 {εxd, εyd, εzd}가 작은 것으로, 전형적으로는 1°미만인 것으로 가정하면, 관계식( 21) 및 (23)이 양호한 근사치로 표기될 수 있다:
Figure 112007014011345-PCT00067
Figure 112007014011345-PCT00068
매트릭스(MRGS, MRDS, MRSR)에 의해서 다음과 같이 매트릭스(ΔMR)를 결정한다:
ΔMR = (MRGS - MRDS ) MRSR
이 매트릭스(ΔMR)의 제1 행, 제2 열의 계수는
Figure 112007014011345-PCT00069
이고 이 매트릭스(ΔMR)의 제1 행, 제3 열의 계수는 다음과 같다.
Figure 112007014011345-PCT00070
각도 {αxr, αyr, αzr}가 충분히 작은 것으로, 전형적으로는 5°미만인 것으로 가정하면, 다음과 같이 표기할 수 있다:
Figure 112007014011345-PCT00071
관계식 (43) 및 (44)를 관계식 (27) 및 (28)과 결합함으로써 다음 형태의 피 치 에러 및 흔들림 에러의 근사치를 얻는다:
Figure 112007014011345-PCT00072
관계식 (25) 및 (27)에 의해서, 마킹 선(L1, L2)에 평행한 도로 평면 내의 직선에 속하는 좌표(xR, yR, zR)를 갖는 지점(M)에 대한 함수(xR, yR, zR)로서 비율yG/xG 를 계산하고, 방정식은 zR=0, yR=a, xR 임의수이다. 무한대에 가까운 xR을 마킹함으로써, 좌측 이미지의 소멸점(UG=UGF, VG=VGF, XG=XGF, YG=YGF, ZG=ZGF)에서 결정된 비율 yG/xG 의 값에 대응하는 비율 yG/xG 의 극한을 결정한다. 소멸점의 좌표에 관계식 (29) 및 (30)을 적용시킨 것과 이 극한을 비교함으로써, 다음 관계식을 추정한다:
Figure 112007014011345-PCT00073
관계식 (47) 및 (48)에 대하여 fug와 fvg 및 θxg의 함수로서 θyg와 θzg의 값을 추정한다:
Figure 112007014011345-PCT00074
우측 이미지에 대해서도 동일한 방식으로, 우측 이미지의 소멸점에 대하여 다음 관계식을 얻고:
Figure 112007014011345-PCT00075
관계식 (51) 및 (52)로부터 fud와 fvd 및 θxd의 함수로서 θyd와 θzd의 값을 추정한다:
Figure 112007014011345-PCT00076
요약하면, 피치 에러 및 흔들림 에러는 다음과 같다:
Figure 112007014011345-PCT00077
식 중,
Figure 112007014011345-PCT00078
여기서,
Figure 112007014011345-PCT00079
관계식 (25) 및 (26)에 따른 피치 에러 및 흔들림 에러의 프레이밍을 결정하기 위해서, θxg와 θxd 가 소정의 간격 [-A, A], 예컨대 [-5°, +5°]에서 변화되고 uDF, vDF, uGF 및 vGF가 관계식 (12), (13), (16), (17)로 정의된 간격에서 변화되는 경우, Δεy 와 Δεz 의 최소값 및 최대값을 결정한다. 최소 및 최대를 검색하는 임의의 수학적 방법이 이 목적에 적합하다. 가장 간단한 것은 충분히 세밀한 스텝에서 주어진 간격 내의 다양한 파라미터를 변화시키는 것과 매번 조사된 함수의 최소 또는 최대를 유지하는 것에 있다.
관계식 (55) 내지 (64)에서, 오소노말 아핀(orthonormal affine) 기준 프레임 또는 관련 위치의 원점의 좌표가 관계되지 않는다는 것을 주목해야 한다. 따라서, 본 발명에 따른 방법에 의한 피치 에러 및 흔들림 에러의 결정은 주행 트랙상의 차량의 위치와 무관하다.

Claims (13)

  1. 차량에 탑재되도록 하고, 적어도 2 개의 이미지 포착 장치, 즉 제1의 소위 "좌측" 이미지를 포착하는 제1 포착 장치 및 제2의 소위 "우측" 이미지를 포착하는 제2 포착 장치를 포함하는 입체시각 시스템의 자동 보정 방법으로서,
    a) 상기 제1 포착 장치 및 상기 제2 포착 장치에서 상기 차량용의 적어도 하나의 주행 트랙(running track)을 포함하는 하나의 동일한 장면(scene)의 좌측 이미지와 우측 이미지의 각각을 포착하는 단계와;
    b) 보정 에러를 결정하는 단계와;
    c) 상기 보정 에러에 기초하여 상기 좌측 및 우측 이미지의 조정을 실행하는 단계
    를 포함하고,
    상기 자동 보정 방법 중 단계 b)는,
    b1) 상기 좌측 이미지 및 상기 우측 이미지를 통해서 주행 트랙의 거의 평행한 2 개의 직선에 대응하는 적어도 2 개의 소멸선(vanishing line), 특히 주행 트랙의 경계선 또는 마킹(marking) 선을 검색하는 단계,
    b2) 상기 좌측 이미지 및 상기 우측 이미지에 대하여 상기 적어도 2 개의 각각 검출된 소멸선의 교차점의 좌표를 결정하는 단계,
    b3) 상기 좌측 이미지 및 상기 우측 이미지에 대하여 결정된 상기 교차점 좌표에 기초하여 피치(pitch) 각도 및 흔들림(yaw) 각도의 각각의 카메라간 차(intercamera difference)의 형태로 피치 에러 및 흔들림 에러를 결정함으로써 보정 에러를 결정하는 단계
    를 포함하며,
    상기 좌측 및 우측 이미지의 상기 조정은 상기 피치 에러 및 상기 흔들림 에러의 함수로서 실행되는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  2. 제1항에 있어서,
    단계 b3)은 상기 피치 에러값 및 상기 흔들림 에러값의 최소값과 최대값 사이의 제1 프레이밍(framing)을 결정하는 단계를 더 포함하는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 방법은 복수의 좌측 및 우측 이미지에 대하여 단계 a), b1), b2), b3)를 반복하는 단계와, 상기 복수의 좌측 및 우측 이미지에 대하여 획득된 상기 제1 프레이밍에 기초하여 상기 피치 에러값과 상기 흔들림 에러값의 제2 프레이밍을 결정하는 단계를 더 포함하는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  4. 제3항에 있어서,
    상기 제2 프레이밍은 상기 피치 에러값 및 상기 흔들림 에러값의 상기 제1 프레이밍에 대하여 획득된 최소값의 세트 중 최대값과, 상기 피치 에러값 및 상기 흔들림 에러값의 상기 제1 프레이밍에 대하여 획득된 최대값의 세트 중 최소값을 포함하는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    단계 b1)은 상기 좌측 이미지와 상기 우측 이미지에 대한 상기 소멸선의 방정식 파라미터의 프레이밍을 결정하는 단계를 더 포함하는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  6. 제5항에 있어서,
    단계 b2)는 단계 b1)에서 획득된 프레이밍에 기초하여 상기 좌측 이미지와 상기 우측 이미지의 소멸점 좌표의 프레이밍을 결정하는 단계를 더 포함하는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  7. 제6항에 있어서,
    단계 b3)은 단계 b2)에서 획득된 프레이밍에 기초하여 상기 피치 에러와 상기 흔들림 에러의 프레이밍을 결정하는 단계를 더 포함하는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    단계 b3)은 우측과 좌측 카메라에 대한 회전 각도가 소정의 간격, 특히 절대값으로 5°미만에 있는 것으로 가정하고, 그리고 상기 회전 각도가 이러한 간격에서 변화될 때 획득되는 상기 피치 에러 및 상기 흔들림 에러의 최대 및 최소 에러를 결정함으로써 실행되는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    단계 b3)은 피치 및 흔들림의 에러가 작은 것으로, 특히 절대값으로 1°미만인 것으로 가정함으로써 실행되는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 소멸선은 Hough 변환에 의해서 검출되는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 소멸선은 Radon 변환에 의해서 검출되는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 방법은 포착 후의 상기 우측 및 좌측 이미지를 교정하여 상기 제1 및 제2 이미지 포착 장치에 대한 핀홀 모델(pinhole model)로 축소하는 단계를 더 포함하는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 방법은 단계 b1)에서 검출된 상기 소멸선의 각각에 속하는 지점들의 수가 소정의 임계값보다 큰 경우에만 단계 b2) 및 단계 b3)을 실행하는 단계를 더 포함하는 것을 특징으로 하는 입체시각 시스템의 자동 보정 방법.
KR1020077003637A 2004-08-11 2005-06-27 입체시각 시스템의 자동 보정 방법 KR20070051275A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0408815A FR2874300B1 (fr) 2004-08-11 2004-08-11 Procede de calibration automatique d'un systeme de stereovision
FR04/08,815 2004-08-11

Publications (1)

Publication Number Publication Date
KR20070051275A true KR20070051275A (ko) 2007-05-17

Family

ID=34948013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077003637A KR20070051275A (ko) 2004-08-11 2005-06-27 입체시각 시스템의 자동 보정 방법

Country Status (6)

Country Link
US (1) US20070291125A1 (ko)
EP (1) EP1779677A1 (ko)
JP (1) JP2008509619A (ko)
KR (1) KR20070051275A (ko)
FR (1) FR2874300B1 (ko)
WO (1) WO2006021700A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8208716B2 (en) 2007-09-03 2012-06-26 Electronics And Telecommunications Research Institute Stereo vision system and stereo vision processing method
WO2012129421A2 (en) * 2011-03-23 2012-09-27 Tk Holdings Inc. Dynamic stereo camera calibration system and method

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
US20090037039A1 (en) * 2007-08-01 2009-02-05 General Electric Company Method for locomotive navigation and track identification using video
US20110115912A1 (en) * 2007-08-31 2011-05-19 Valeo Schalter Und Sensoren Gmbh Method and system for online calibration of a video system
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
DE102008026876A1 (de) 2008-06-05 2009-12-10 Hella Kgaa Hueck & Co. Stereokamerasystem und Verfahren zum Ermitteln mindestens eines Kalibrierfehlers eines Stereokamerasystems
US20100079385A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for calibrating an interactive input system and interactive input system executing the calibration method
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US9045600B2 (en) 2009-05-13 2015-06-02 Keraplast Technologies, Ltd. Biopolymer materials
JP5313080B2 (ja) * 2009-08-18 2013-10-09 クラリオン株式会社 直線成分低減装置および歩行者検出表示システム
JP5481337B2 (ja) * 2010-09-24 2014-04-23 株式会社東芝 画像処理装置
DE102011076795A1 (de) * 2011-05-31 2012-09-20 Robert Bosch Gmbh Verfahren zum Bestimmen einer Nickbewegung einer in einem Fahrzeug verbauten Kamera und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Frontscheinwerfers eines Fahrzeugs
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
WO2014198351A1 (en) * 2013-06-12 2014-12-18 Vidinoti Sa Method and apparatus for identifying local features
FR3014553A1 (fr) 2013-12-11 2015-06-12 Parrot Procede de calibration angulaire de la position d'une camera video embarquee dans un vehicule automobile
DE102014219428B4 (de) * 2014-09-25 2023-06-15 Continental Autonomous Mobility Germany GmbH Selbstkalibrierung eines Stereokamerasystems im Auto
EP3306267B1 (en) 2015-05-27 2020-04-01 Kyocera Corporation Arithmetic logic device, camera device, vehicle and calibration method
EP3358295B1 (en) * 2015-09-28 2020-10-07 Kyocera Corporation Image processing device, stereo camera device, vehicle, and image processing method
US11158088B2 (en) 2017-09-11 2021-10-26 Tusimple, Inc. Vanishing point computation and online alignment system and method for image guided stereo camera optical axes alignment
US11089288B2 (en) * 2017-09-11 2021-08-10 Tusimple, Inc. Corner point extraction system and method for image guided stereo camera optical axes alignment
DE102018201154A1 (de) * 2018-01-25 2019-07-25 HELLA GmbH & Co. KGaA Verfahren zur Kalibrierung von Sensoren und/oder von Sensoranordnungen
CN110382358A (zh) * 2018-04-27 2019-10-25 深圳市大疆创新科技有限公司 云台姿态修正方法、云台姿态修正装置、云台、云台系统和无人机
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
CN111854727B (zh) * 2019-04-27 2022-05-13 北京魔门塔科技有限公司 一种车辆位姿的修正方法和装置
US10891747B1 (en) * 2019-06-28 2021-01-12 Baidu Usa Llc Sensor calibration system for autonomous driving vehicles
EP4094433A4 (en) 2020-01-22 2024-02-21 Nodar Inc NON-RIGID STEREOSCOPIC VISION CAMERA SYSTEM
US11427193B2 (en) 2020-01-22 2022-08-30 Nodar Inc. Methods and systems for providing depth maps with confidence estimates
US11740078B2 (en) * 2020-07-21 2023-08-29 Argo AI, LLC Enhanced sensor alignment
CN111703584B (zh) * 2020-08-17 2020-12-08 北京远度互联科技有限公司 一种回中方法、光电吊舱、无人机及存储介质
WO2023059365A1 (en) 2021-10-08 2023-04-13 Nodar Inc. Real-time perception system for small objects at long range for autonomous vehicles
US11782145B1 (en) 2022-06-14 2023-10-10 Nodar Inc. 3D vision system with automatically calibrated stereo vision sensors and LiDAR sensor
WO2024011099A1 (en) * 2022-07-07 2024-01-11 Stoneridge Electronics Ab Image based reference position identification and use for camera monitoring system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP4573977B2 (ja) * 1999-09-22 2010-11-04 富士重工業株式会社 監視システムの距離補正装置、および監視システムの消失点補正装置
US6873732B2 (en) * 2001-07-09 2005-03-29 Xerox Corporation Method and apparatus for resolving perspective distortion in a document image and for calculating line sums in images
JP4803927B2 (ja) * 2001-09-13 2011-10-26 富士重工業株式会社 監視システムの距離補正装置および距離補正方法
JP3729141B2 (ja) * 2002-02-27 2005-12-21 日産自動車株式会社 道路白線認識装置
JP3797949B2 (ja) * 2002-03-28 2006-07-19 株式会社東芝 画像処理装置及びその方法
JP3986360B2 (ja) * 2002-05-14 2007-10-03 松下電器産業株式会社 カメラ校正装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8208716B2 (en) 2007-09-03 2012-06-26 Electronics And Telecommunications Research Institute Stereo vision system and stereo vision processing method
WO2012129421A2 (en) * 2011-03-23 2012-09-27 Tk Holdings Inc. Dynamic stereo camera calibration system and method
WO2012129421A3 (en) * 2011-03-23 2013-01-10 Tk Holdings Inc. Dynamic stereo camera calibration system and method

Also Published As

Publication number Publication date
WO2006021700A1 (fr) 2006-03-02
FR2874300B1 (fr) 2006-11-24
FR2874300A1 (fr) 2006-02-17
EP1779677A1 (fr) 2007-05-02
US20070291125A1 (en) 2007-12-20
JP2008509619A (ja) 2008-03-27

Similar Documents

Publication Publication Date Title
KR20070051275A (ko) 입체시각 시스템의 자동 보정 방법
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
CN110264525B (zh) 一种基于车道线与目标车辆的相机标定方法
CN107229908B (zh) 一种车道线检测方法
US9066085B2 (en) Stereoscopic camera object detection system and method of aligning the same
JP4962581B2 (ja) 区画線検出装置
JP3736346B2 (ja) 車線検出装置
US8885049B2 (en) Method and device for determining calibration parameters of a camera
CN111862235B (zh) 双目相机自标定方法及系统
EP1944734A2 (en) Distance correcting apparatus of surrounding monitoring system and vanishing point correcting apparatus thereof
JP2003083742A (ja) 監視システムの距離補正装置および距離補正方法
CN111862234B (zh) 双目相机自标定方法及系统
JP2010537331A (ja) ビデオ画像のオンライン較正方法およびシステム
CN107284455B (zh) 一种基于图像处理的adas系统
CN110462682B (zh) 物体检测装置以及车辆
CN110415298B (zh) 一种用于车道偏离的计算方法
EP1403615A2 (en) Apparatus and method for processing stereoscopic images
CN112184792B (zh) 一种基于视觉的道路坡度计算方法及装置
JP4670528B2 (ja) 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
JP2014074632A (ja) 車載ステレオカメラの校正装置及び校正方法
US20220254064A1 (en) External parameter calibration method, device and system for image acquisition apparatus
CN114550042A (zh) 一种道路消失点提取方法、车载传感器标定方法及装置
KR101394770B1 (ko) 곡선 차선 모델을 이용한 영상 안정화 방법 및 시스템
JPH04188014A (ja) 車間距離検出装置
KR101697229B1 (ko) 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J501 Disposition of invalidation of trial