KR100525931B1 - 이미지들을사용한거리검출방법 - Google Patents

이미지들을사용한거리검출방법 Download PDF

Info

Publication number
KR100525931B1
KR100525931B1 KR1019970037530A KR19970037530A KR100525931B1 KR 100525931 B1 KR100525931 B1 KR 100525931B1 KR 1019970037530 A KR1019970037530 A KR 1019970037530A KR 19970037530 A KR19970037530 A KR 19970037530A KR 100525931 B1 KR100525931 B1 KR 100525931B1
Authority
KR
South Korea
Prior art keywords
data
correlation
precision
target
pair
Prior art date
Application number
KR1019970037530A
Other languages
English (en)
Other versions
KR19980018429A (ko
Inventor
다케히데 히라바야쉬
히데오 쉬미즈
아키오 이즈미
Original Assignee
후지 덴키 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지 덴키 가부시끼가이샤 filed Critical 후지 덴키 가부시끼가이샤
Publication of KR19980018429A publication Critical patent/KR19980018429A/ko
Application granted granted Critical
Publication of KR100525931B1 publication Critical patent/KR100525931B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

본 발명의 목적은 이미지 센서법(20)으로 얻은 타겟(1)의 이미지 검출 결과의 신뢰도를 확인함으로써 타겟(1)까지의 정확한 거리를 제공하는 것이다.
광학법(10)은 이미지들을 이미지 센서법(20)의 한 쌍의 이미지 센서들(21,22)에 제공하여 이미지들의 패턴을 나타내는 한 쌍의 이미지 데이터(D1,D2)를 생성한다. 상관치 계산법(30)은 분할의 위치가 순차적으로 시프트되는 동안 두 이미지 데이터로부터 시야(S)에 의존하여 추출된 윈도우부 데이터(WD1, WD2)로부터 분할들(d1,d2)의 그룹들을 추출하고, 추출된 분할들(d1, d2)의 조합들(Ck)을 만들며, 각 조합들에 대한 분할들 사이의 상관치(Vk)를 계산한다. 신뢰도 검사법(50)은 최상의 상관이 얻어진 시프트 값(s) 근처에서의 상관치의 변화들의 상태에 기초하여 신뢰도에 대한 평가 기준으로서 사용되는 최상의 상관의 정밀도로서 양방향 경사도(φ+)와 음방향 경사도(φ-)를 얻고, 타겟(1)이 시야(S) 내에 있는지를 판단하며, 정밀도가 미리 결정된 레벨보다 높을 때만 타겟(1)까지의 거리 계산을 허용하고, 타겟(1)까지의 거리를 검출한다.

Description

이미지들을 사용한 거리 검출 방법
[발명의 분야]
본 발명은 이미지 센서들로부터 수신된 이미지들로부터, 앞쪽의 자동차와 같은 타겟(target)을 포착하고 그 거리를 계산하여, 충돌을 방지하기 위한 수동적 거리 검출 방법에 관한 것이다.
[종래 기술]
앞서 기술한 수동적 거리 검출 방법은 수평, 수직 또는 대각선으로 배치된 한 쌍의 이미지 센서들을 사용하여 거리 물체(distance object)에 대한 2개의 이미지들을 포착한다. 이 두 이미지들 사이의 시차(parallax)는 물체로부터의 거리를 계산하는데 이용된다. 거리 물체에 초음파들이나 광을 조사하여 그 반사 시간으로 거리를 검출하는 것을 포함하는 능동적 방법들에 비하여, 수동적 방법은 더 정확하고, 장거리 검출에 보다 적절하며, 또한 배경으로부터 구분되는 타겟들에 더 잘 맞는다. 수동적 방법은 자동 초점 카메라들에 이미 이용되고 있고, 특히 자동차 충돌들의 방지를 위한 장치들에 사용하는데 알맞을 것으로 예상된다.
시차를 이용한 거리 검출은 삼각 측량(triangulation)의 원리에 기초한다. 한 쌍의 렌즈들을 갖는 광학 시스템이 상이한 광 경로들을 통해 한 쌍의 이미지 센서들 위에 타겟의 이미지를 형성하기 위해 사용되고, 또한 이미지 형성 위치에 있는 타겟이 무한의 지점에 있을 때 기준 위치로부터의 오프셋(σ)이 검출되면, 삼각측량의 기본 거리들인 렌즈들간의 거리와 렌즈들 사이의 초점 거리를 각각 b와 f라 할 때 거리(d)는 다음 표현을 사용하여 계산될 수 있다.
d = bf/σ
실제 응용들에서는 거리(d) 대신 오프셋(σ)이 지표(indicator)로서 사용된다.
자동초점 카메라를 사용함에 있어서, 사용자는 뷰파인더(viewfinder)를 사용하여 거리가 계산될 타겟을 선택한다. 그러나, 충돌 방지 장치에서는, 운전자가 자동차의 바로 앞 또는 대각선 방향으로 위치된 타겟을 식별하도록 하는 것이 불가능하므로, 불특정 타겟들의 자동 검출을 허용하고 그들의 거리들을 계산하기 위해 이미지 센서들에 비교적 넓은 시야들이 설정되어야만 한다.
다행스럽게도, 공지된 바와 같이, 검출 타겟이 자동차의 전방에서 이미지 센서들의 정면으로부터 각 θ으로 대각선 방향에 있는 경우에도, 거리(d)는 이미지의 이미지 형성 위치에 있는 타겟이 각 θ의 방향으로 무한의 지점에 있을 때 기준 위치로부터의 오프셋(σ)을 검출함으로써 그 각 θ에 관계없이 위의 식을 사용하여 결정될 수 있다. 따라서, 문제는 시야에 있는 타겟을 검출하는 것에 있다,
제안된 한 가지 방법에서는, 시야가 다수의 좁은 부시야(sub-visual field)들로 나누어지고, 거리가 각 부시야에 대하여 계산되며, 검출된 거리들의 빈도(frequency) 분포에 기초하여 가장 정확한 거리일 것으로 보이는 검출된 거리를 선택한다. (설명의 편의를 위해 방법 A라 칭한다) 다른 방법에서는, 이미지 센서의 시야들 내의 각 부시야가 순차적으로 스캐닝되어 각 부시야에 대한 이미지들의 쌍 사이의 상관(correlation)을 결정하여, 최상의 상관이 판정된 스캐닝 범위에 타겟이 존재한다고 판단하여, 센서들로부터 타겟의 거리를 검출한다. (설명의 편의를 위해 방법 B라 칭한다)
[발명에 의해 해결될 문제들]
그러나, 타겟을 발견하고 타겟까지의 거리를 검출하기 위해 사용된 이미지 센서의 시야에서 타겟 이외의 물체들이 발견된다. 따라서, 각 부시야에 대한 거리를 검출하는데 있어서 오차들이 발생할 수 있고, 이것은 각 부시야에 대한 이미지 쌍들의 검사에 있어서 최상의 상관을 얻기 힘들게 할 것이다.
시야에 존재하는 물체들로부터의 거리들은 검출하고자 하는 타겟의 거리와는 종종 상이하고, 따라서 이것은 다른 물체들로부터 타겟을 구분하는데 장점이 된다.
그러나, 시야로부터의 상이한 거리를 가지며 한 쌍의 이미지 센서들간에 시차가 존재하는 물체가 타겟이 포착되게 되는 시야에 혼재하게(mixed)되면, 한 쌍의 이미지들 사이에 최상의 상관이 얻어질 수 없고, 거리 검출이 부정확하게 된다.
도 3을 참조하여 간략히 설명한다. 도면의 프레임에 도시된 복수의 쌍들의 이미지 센서들의 시야들 내의 이미지는 검출 타겟(1)(앞의 자동차), 배경과 경치를 포함하는데, 이 배경과 경치는 도로(RD), 가드레일(GR), 도로 신호(RS), 다른 자동차(Au), 나무들(Tr), 기둥들(Ps), 및 산(Mt)뿐만 아니라, 도로(RD)에 타겟(1)에 의해 만들어진 그림자(Sh)를 포함한다. 이 시야에서 타겟(1)을 포착하는 부시야는 일반적으로 각 쌍의 이미지 센서들에 대한 시야의 부분으로 설정되고, 이러한 부시야의 몇 가지 예들이 장방형들로 도시된다. 도면에서, 부시야들(S1 내지 S3)은 이미지 센서들의 쌍들이 각각 수직적으로 배치된 경우에 해당하고, 부시야들(S4 및 S5)은 각각 수평적으로 배치된 경우에 해당한다.
S1은 이상적인 시야로서, 전체 타겟(1)을 포함하되 외부 이미지들은 거의 존재하지 않도록 설정된다. 따라서, 이 부시야를 사용하면, 방법 A는 거리를 정확하게 검출할 수 있고, 방법 B는 최상의 상관을 제공할 수 있다. 부시야(S2)는 타겟(1)의 일부분을 포착하지만, 이미지 센서들로부터 멀리 위치한, 다가오는 자동차(Au) 및 산(Mt)의 이미지들을 포함한다. 따라서, 방법 A는 이 멀리 떨어져 있는 물체들의 거리들을 검출할 가능성이 높다. 방법 B는 가정된 특정 거리와의 상관을 결정하므로, 가정된 거리가 타겟(1)으로부터의 실제 거리에 가까운 경우에는 최상의 상관이 얻어질 수 있고, 가정이 부정확한 경우에는 불량한 상관이 얻어질 수 있다. 부시야(S3)는 타겟(1)의 일부분과 그 그림자(Sh)를 포착한다. 그림자에 대한 콘트라스트(contrast)가 매우 높기 때문에, 방법 A는 타겟(1)으로부터의 거리보다는 그림자(Sh)로부터의 거리를 검출할 가능성이 높으며, 방법 B는 가정이 충분히 정확하다고 하더라도 저하된 상관을 제공한다.
부시야(S4)는 타겟(1)의 대부분을 포착하며 특유의 이미지 패턴(distinctive image pattern)이 부족함에도 불구하고 혼재된 도로(RD)와 가드레일(GR)의 이미지들도 포착한다. 따라서, 방법 A는 혼재된 이미지들에 의해 야기된 부정확한 거리들을 제공할 가능성이 높고, 방법 B는 가정이 정확하더라도 낮은 상관치들을 제공할 가능성이 높다. 부시야(S5)는 타겟(1)의 특유의 패턴의 대부분을 포착한다. 따라서, 나무들(Tr)과 기둥들(Ps)의 이미지들이 시야에 혼재되어 있음에도 불구하고, 이러한 이미지들이 타겟(1) 근처에 있는 한 방법 A는 거리들을 정확하게 검출할 수 있다. 타겟(1)의 부정확한 포착에도 불구하고, 거리가 정확하게 가정되면 방법 B는 최상의 상관을 제공하여 타겟(1)이 존재하는 방향이 정확하게 검출되는 것을 막는다.
이러한 예들로부터 명백하게, 시야의 방향과 크기가 타겟을 정확하게 포착할수 있도록 설정될 수 있다면, 그것의 거리와 존재가 정확하게 검출될 수 있다. 외부 물체들의 이미지들, 특히 이미지 센서들로부터 상이한 거리들에서의 물체들의 이미지들의 혼재를 허용하도록 설정되면, 타겟의 거리와 방향이 정확하게 검출되지 않는다. 그러나, 검출 결과들이 정확한지 여부를 판단하는 것이 어렵기 때문에, 타겟의 거리와 방향은 실제적으로 오차들을 포함할 수 있는 인식 결과(perception result)들에 기초하여 결정된다. 특히 충돌 방지를 위해서는, 거리와 방향을 계산하기 위해서 자동적이고 정확한 타겟 포착이 필요하다.
따라서, 본 발명의 목적들 중 하나는 진실로 믿을 수 있는 결과들에만 기초하여 타겟의 거리와 존재 계산들을 제공할 수 있도록, 검출 결과들의 신뢰도를 평가하는 것이다.
[문제들을 해결하기 위한 방법]
본 발명에서 사용되는 거리 검출 방법은 이미지 패턴들을 나타내는 한 쌍의 이미지 데이터를 제공하기 위해서, 상이한 광 경로들을 통해 광 이미지들을 수신하는 한 쌍의 이미지 센서들을 사용하고; 상관치 계산법은 조합들을 제공하기 위하여 각 그룹에서 분할의 위치가 순차적으로 시프트될 때, 각 이미지로부터 추출된 검출 타겟을 포착하는데 사용된 시야에 대응하는 윈도우부 데이터(window part data)로부터 분할들의 그룹들을 추출하고, 분할들의 쌍 사이의 상관치를 계산하며; 신뢰도 검사는 윈도우부 데이터에 대응하는 윈도우를 통하여 보여지는 시야 내에 검출 타겟이 존재하는가를 결정하기 위하여, 최상의 상관치가 계산된 분할들의 시프트값 근방의 상관치의 변화들의 상태에 기초하여, 최상의 상관점의 정밀도가 최상의 상관의 신뢰도를 나타내도록 결정하고, 정밀도가 미리 정해진 레벨보다 높을 때에만 거리를 검출한다.
상기 구성에서 명백하게, 타겟을 포착하는 시야의 크기와 방향은 윈도우부 데이터의 개수와 이미지 데이터가 연속적으로 추출되는 추출 위치들에 의해 설정된다. 즉, 타겟은 윈도우부 데이터에 대응하는 윈도우를 통해 보여지는 시야에서 포착된다.
타겟까지의 거리를 검출함에 있어서, 본 발명은 상관치 계산법에 의해 위의 구성에 따라 분할들의 조합에 대한 상관치를 계산하고 윈도우부의 데이터로부터 추출된 최상의 상관에 대응하는 분할들의 위치의 시프트값으로부터 거리를 결정한다. 상이한 거리들의 다른 물체들이 시야를 공유하는 경우에는, 최적치 근방의 상관치들의 시프트 값들에 대한 의존도는 최상의 상관점의 정밀도가 저하되도록 변한다. 본 발명은 앞서 서술한 구성에 따른 신뢰도 검사법을 사용하여 정밀도를 상기 최상의 상관의 신뢰도 평가를 위한 지표로서 정밀도를 사용하기 위해 최상의 상관점에 대응하는 시프트값 근방에서의 상관치의 변화들의 상태로부터 정밀도를 계산하고, 이것이 지정된 레벨보다 높을 때에만 그 최상의 상관을 신뢰할 수 있다고 판단하여, 대응하는 시프트 값으로부터 타겟까지의 거리를 검출한다.
신뢰도 지표로서 정밀도는 바람직하게는 최상의 상관점 전후에서 복수의, 예컨대, 2개의 상관치들의 경사도들의 평균치이거나 또는 최상의 상관점 양쪽 경사도들 중에서 완만한 값이다. 후자의 경우, 경사도들의 평균치가 완만한 경사도의 값에 근접하도록 허용하기 위해 적절한 보정이 수행된다.
그러나, 정밀도는 시야에서 이미지의 콘트라스트가 증가할수록 이에 따라서 증가하는 경향이 있고, 따라서 이미지들의 콘트라스트 값들을 사용하여 보정된 유효 정밀도(effective precision)는 신뢰도 평가를 위한 기준으로서 적절히 사용될 수 있다. 콘트라스트 값은 시야에서 이미지들을 나타내는 윈도우부 데이터에서 내부 데이터 개수들에 대한 차분치들의 절대값들의 합이고, 각 윈도우부 데이터 쌍으로부터 얻은 유효 정밀도의 평균치는 보다 정확한 척도로서 사용되도록 결정되는 것이 바람직하다. 콘트라스트 값들을 계산하는데 사용되는 윈도우부 데이터의 차분치들은 상관치들의 계산의 기초로서 유용하고, 계산들은 상관치들이 윈도우부 데이터보다 차분 데이터에 기초한 상관치 계산법에 의해 계산되는 경우에 수행되어 양호한 결과들을 보다 쉽게 얻을 수 있다.
도 3의 예에서 보이는 바와 같이, 신뢰할 만한 검출 결과들은 가능한 한 적절하게 타겟을 포착하도록 시야가 설정되는지에 달려있다. 따라서, 본 발명에 의해 얻어진 신뢰할 만한 검출 결과들은 시야의 지정에 사용되어야 한다. 이를 위해서, 타겟이 포착될 시야의 방향과 크기를 지정하기 위한 시야 지정법은 상관치들을 계산하기 위한 기초로서 이용하기 위해 검출 결과들의 측면에서 타겟을 포착하는데 가장 알맞게 고려된 시야에 대응하는 윈도우부 데이터를 이미지 데이터로부터 추출하기 위해 상관치 계산법을 함께 사용해야 한다.
[실시예]
도면들을 참조하여 본 발명의 바람직한 실시예가 이하에 설명된다. 도 1은 본 실시예에서 사용된 여러 가지 방법들의 구성을 도시하는데, 동작을 설명하는 도면들과 다이어그램들을 포함한다. 도 2는 소프트웨어를 사용하여 구성된 상관치 계산법과 신뢰도 검사법의 동작을 나타내는 흐름도이다.
도 1A의 상단에 도시된 광학법(10) 및 이미지 센서법(20)은 시야(S)에서 타겟(1); 예컨대 광학법(10)의 우측에 도시된 자동차를 포착하기 위해 사용되고, 광학법(10)의 한 쌍의 렌즈들(11, 12)은 시야(S) 내에 타겟(1)을 포함하는 이미지를 이미지 센서법(20)에서 광 경로들(L1, L2)을 통해 한 쌍의 이미지 센서들(21, 22)상에 형성하는데, 이것은 도면에 굽은 직선들으로 표시되었다. 이 실시예는 실제로는 렌즈들의 쌍(11, 12)과 이미지 센서들의 쌍(21, 22)이 시야(S)에 대해 수직으로 배열되나, 도면에서는 설명의 편의를 위해 수평으로 도시되었다. 타겟(1)을 정확히 포착하기 위해서, 시야(S)는 도면에 도시된 바와 같이, 광학법(10)의 정면에 대하여 각도 θ로 배치되어야 한다.
신호 처리 및 변환 회로(23)가 이미지 센서법(20)에 포함된다. 신호 처리 및 변환 회로(23)는 예를 들면, CCD들을 포함하는 이미지 센서들(21 및 22)의 광센서들의 각각으로부터 아날로그 신호로서의 센서 신호들의 출력을 순차적으로 수신 및 증폭하고, 이 신호들을 디지털 신호들로 변환하여 센서 데이터로서 출력한다. 신호 처리 및 변환 회로(23)는 각 이미지 센서(21, 22)에 대하여 제공될 수 있다.
프로세서(70)는 센서 데이터를 메모리(71)에 순차적으로 로딩하는데, 이 메모리(71)에 데이터는 이미지 데이터(D1, D2)로 저장되어, 이미지 센서들(21, 22)에 의해 제공된 시야 내의 이미지들의 패턴을 나타낸다. 도 1에서, 프로세서(70)는 이미지 센서법(20) 아래에 파선들로 나타내었다.
도면에 도시된 실시예에서, 상관치 계산법(30)과 신뢰도 검사법(50)은 프로세서(70)에 소프트웨어로서 설치된다.
상관치 계산법(30)을 프로세서(70)와는 별도로 게이트 어레이(gate array)와 같은 집적회로 칩을 사용하여 하드웨어로서 구성함으로써, 복수의 이미지 센서들의 쌍들(21, 22)은 각 이미지 센서들의 쌍에 대한 상관치를 병렬로 계산하기 위해 복수의 이미지 센서들의 쌍들이 동시에 동작되도록 허용하는 이미지 센서법(20)에 포함될 수 있다.
도면에 도시된 실시예에서, 프로세서(70)에 설치된 상관치 계산법(30)은 시야 지정법(31)과 함께 사용된다. 지정 데이터(SD)에 응답하여, 시야 지정법(31)은 이미지 데이터(D1, D2)로부터 시야(S)의 방향과 크기에 대응하여 타겟(1)이 포착될 윈도우부 데이터(WD1, WD2)를 추출한다. 도면에서, 시야들의 방향은 각 θ 으로, 그리고 크기는 시야각(field of view angle: ψ)으로 표시되고, 대응하는 윈도우부 데이터(WD1, WD2)는 이미지 데이터(D1, D2)의 빗금쳐진 부분으로 나타내었다.
윈도우부 데이터(WD1, WD2)로부터 상관치를 계산하는 상관치 계산법(30)의 절차가 도 1B를 참고하여 설명된다.
도면에 도시된 바와 같이 윈도우부 데이터(WD1, WD2)로부터, 각 그룹의 분할들이 서로 오프셋되어 복수의 조합들(Ck : k = 0에서 ke)을 제공하기 위한 방식으로 분할들의 그룹들(d1, d2)이 추출된다. 윈도우부 데이터(WD1, WD2)는 각각 m개의 센서 데이터를 가지고 있다고 가정되고, 각 그룹의 각각의 분할(d1, d2)은 n개의 센서 데이터를 가지고 있다고 가정된다.
바람직하게, n은 m의 1/2 내지 2/3로 설정된다. 조합(CO)의 분할(d1)이 원도우부 데이터(WD1)의 우측 단부에서 추출되고, 분할(d2)이 윈도우부 데이터(WD2)의 좌측 단부에서 추출되는 것이 바람직하다. 이후의 추출 위치들은 이전의 추출 위치에 대하여 바람직하게 한 센서 데이터만큼 시프트된다.
상관치 계산법(30)은 각 조합(Ck)에서 분할들(d1, d2) 사이의 상관을 검사하여 상관치에 도달한다. 이 상관치는, (예컨대) 분할들(d1, d2)에서의 대응하는 센서 데이터에서 차분치들의 절대값들의 합일 수 있다. 이 경우, 분할들(d1, d2) 사이의 상관이 증가할수록 상관치는 감소한다. 이 계산의 결과들은 각 조합 번호(k)에 대한 상관치(Vk)로서 메모리(72)에 저장된다.
신뢰도 검사법(50)은 복수의 상관치들(Vk)을 수신하고 최상의 상관의 신뢰도 지표로서 시프트 값 근방에서의 상관치(Vk)의 변화들의 상태에 기초하여 최상의 상관점의 정밀도를 결정하는데, 시프트 값은 최상의 상관에 대응하는 분할들의 조합의 번호이다. 신뢰도 지표로서 정밀도는 최상의 상관점 전후에서 복수의(예컨대, 2) 상관치들의 경사도의 평균치이거나, 또는 최상의 상관점의 양측의 경사도들 중에서 완만한 값인 것이 바람직하다. 이것은 도 1C를 참조하여 설명된다.
도 1C의 수평축은 각 그룹에서 분할들의 조합의 번호(k)를 나타내고, 상관치(Vk)는 변수 k에 따라 일반적으로 복잡하게 변화한다. 그러나, 복잡함을 피하기 위해, 도면은 최상의 상관점 근방에서의 상관치(Vk)에서의 변화만을 도시한다. 도면에 주어진 예에서, 상관치는 분할들에서 대응하는 센서 데이터 사이에서 차분치들의 절대값들의 합으로 계산되고, 따라서 상관치(Vk)가 최소로 되는 변수 k의 값은 도면에서 최상의 상관점(s)이다. 도면에 도시된 예에서, 신뢰도의 지표로서 정밀도는 최상의 상관점(s)의 전후에서 2개의 상관치들(Vk)로부터 결정된 양방향 경사도((φ+) 및 음방향 경사도(φ-)의 평균치이거나, 또는 최상의 상관점(S)의 양측의 경사도들이 상당히 차이가 나는 경우에는, 두 경사도들 중 보다 완만한 것이 사용되어 정밀도가 낮게 나타날 수 있다. 후자의 경우, 보정은 평균치가 보다 완만한 경사도 값에 근접되도록 수행되어야 한다.
그러나, 이러한 방식으로 결정된 정밀도는 시야(S)에서 이미지들의 콘트라스트가 증가함에 따라서 함께 증가하는 경향이 있다. 보정된 유효 정밀도가 콘트라스트 값들을 사용하여 신뢰도의 지표로 사용될 수 있다. 콘트라스트 값은 윈도우부 데이터(WD1, WD2)에서 데이터 개수에 대한 차분치들의 절대값들의 합이고, 거리를 보다 정확하게 계산하기 위해서 각 윈도우부 데이터의 쌍으로부터 얻은 유효 정밀도의 평균치는 거리를 보다 정확하게 계산하기 위해서 결정되도록 하는 것이 알맞다. 경험적으로, 기초로서 윈도우부 데이터(WD1, WD2)를 사용하는 것보다는 이러한 차분 데이터를 상관치 계산법(30)에 제공하고 이로부터 상관치(Vk)를 계산하는 것이 보다 낫다.
본 발명은 위의 방법에서 결정된 정밀도 또는 유효 정밀도가 미리 결정된 레벨을 넘는 경우에만 타겟(1)의 이미지가 성공적으로 검출되었다고 결정한다. 이 경우, 정밀도는 윈도우부 데이터(WD1, WD2)로부터 얻어지고 시야(S)의 방향을 나타내는 각도 θ와 필드의 시야각(ψ)이 윈도우부 데이터(WD1, WD2)가 이미지 데이터(D1, D2)와 센서 데이터 개수로부터 추출된 위치들에 대응하기 때문에 타겟(1)은 윈도우부 데이터에 대응하는 시야(S) 내에서 검출되었다. 또한, 도 1B에서 보여지는 바와 같이, 최상의 상관점(s)은 이미지 센서들(21, 22)에 의해 포착된, 시야(S)내의 이미지들 사이의 시차에 의존하여 최상의 상관치가 얻어질 수 있는 방식으로 분할들(d1, d2)을 시프트하여 얻어진 값이다. 종래 기술에서 설명된 타겟(1)까지의 거리의 지표(σ)는 최상의 상관점(s)인 시프트 값으로부터 용이하게 계산된다.
이번에는 도 2를 참조하여, 상관치 계산법(30)과 신뢰도 검사법(50)의 동작에 대한 특정 예를 설명하는데, 양 방법 모두 프로세서(70) 내에 소프트웨어로서 설치된다. 도 2A는 상관치 계산법(30)의 동작예를 도시하는 흐름도이고, 도 2B는 신뢰도 검사법(50)의 동작예를 도시하는 흐름도이다. 도 2A에 주어진 상관치 계산법(30)의 예에서는, 상관치(Vk)를 계산하기 위한 기초로서 윈도우부 데이터에 대한 차분 데이터가 사용되고, 윈도우부 데이터(WD1)와 분할(d1)에 대한 데이터 번호는 (i)이며 윈도우부 데이터(WD2)와 분할(d2)에 대한 데이터 번호는 (j)이다. 또한, 대응하는 센서 데이터는 각각 Di, Dj로 표시된다.
상관치 계산법(30)의 제 1 단계(S31)에서, 윈도우부 데이터(WD1, WD2)의 내부 데이터 번호들(i, j)은 1로 초기화된다. 다음 단계(S32)에서, 윈도우부 데이터에 대한 차분 데이터(Si, Sj)는 Di+1과 Di, 그리고 Dj+1과 Dj 사이의 차분치로서 계산되고, 단계(S33)에서 (m)개의 데이터가 윈도우부 데이터에 존재하면, 데이터 번호(i)가 m-1과 비교된다. (i)가 m-1보다 작으면, 데이터 번호(i, j)는 단계(S34)에서 하나씩 증가되고 절차는 단계(S32)로 복귀한다. 차분 데이터에 대한 모든 계산들이 한번 수행되면, 절차는 단계(S33)에서 이 계산 루프를 나간다. 차분 데이터(Si, Sj)에 대한 계산들이 수행되므로, 단계(S35)에서 (m)의 값은 m-1로 치환되고, 이후, 절차는 단계(S36)로 진행하여 다음의 단계들을 준비한다.
단계(S36)에서, 분할들(d1, d2)의 조합 번호(k)에 대하여 최종치(ke)가 설정된다. 수 ke는 2(m-n)일 수 있는데, 여기서 (n)은 각 분할에서의 데이터 개수를 나타낸다. 조합 번호(k)는 변수로서 0으로 초기화된다.
다음으로, 단계(S36)에서, 시작 데이터 번호들(is, js)은 조합 번호(k)가 0인 경우에 분할들(d1, d2)에 대하여 설정된다. 도 1B에서 보여지는 바와 같이, is = m-n+l이고 js = 1이다. 이후, 최상의 상관치(Vs)에 대하여 충분히 큰 값(Vm)이 설정되고, 동작을 스위칭하기 위한 스위치 플래그(SF)가 1로 설정된다. 그리고 나서 동작은 조합 번호(k)에 대하여 상관치를 계산하고, 단계(S37)에서, 상관치 변수(V)가 0으로 설정되고, 분할들(d1, d2)의 데이터 번호 변수들(i, j)이 각각 (is, js)로 초기화되며, 분할(d1)에 대한 데이터 번호 변수(i)의 최종치(ie)가 설정된다. 최종치(ie)는 is+n-1과 같을 수 있다.
다음의 단계(S38)는 상관치들을 계산하는데, 이를 위해 분할(d1, d2)에 대한 차분 데이터(Si, Sj)간의 차의 절대값이 상관치 변수(V)에 가산된다. 다음 단계(S39)에서 변수(i)가 최종치(ie)에 도달하지 않았다고 판단하면, 단계(S40)에서 변수들(i, j)을 각각 1만큼 증가시키고, 절차는 단계(S38)로 복귀한다. 변수(i)가 최종적으로 최종치(ie)에 도달하여 동작이 단계(S39)에서 단계(S41)로 시프트하게 하면, 조합 번호(k)에 대한 분할들(d1, d2)의 상관치(V)는 계산되었고 k번째 상관치(Vk)로서 메모리(72)에 저장된다. 단계(S42)에서, 상관치(Vk)를 최상의 상관치(Vs)와 비교하고; Vk가 더 큰 경우에는, 이것이 직접 저장된다. 그렇지 않은 경우에는, 단계(S43)에서 동작이 단계(S44)로 진행하기 전에, 변수(k)의 현재 값이 최상의 상관치에 대응하는 시프트 값(s)으로서 저장된다.
단계(S44)에서, 조합 번호의 변수(k)는 (k)가 ke보다 작은지를 검사하기 위해 비교된다. 판단의 결과는 처음에는 긍정으로 나오므로, 동작은 단계(S45)로 진행하여 스위치 플래그(SF)가 양수인지를 판정한다. 단계(S36)에서 플래그(SF)는 1로 설정되어 있으므로, 그 결과는 처음에는 긍정이고, 단계(S46)에서, 분할(d1)의 시작 데이터 번호(is)가 하나 증가되어 도 1B에 도시된 바와 같이 분할(d1)을 좌측으로 하나의 데이터만큼 시프트시킨다. 다음 단계(S48)에서, 스위치 플래그(SF)의 부호가 전환되고 조합 번호의 변수(k)가 증가된다. 그 후 절차는 단계(S37)로 돌아가서 업데이트된 변수(k)에 대하여 상관치(Vk)를 계산하기 시작한다. 이 계산이 한번 수행되면, 동작은 단계(S45)로 진행한다. 스위치 플래그(SF)가 음수로 설정되었으므로, 판단 결과는 부정이고, 단계(S47)에서 분할(d2)의 시작 데이터 번호(js)를 하나 증가시킴으로써 우측으로 시프트한다. 그 후 동작은 단계(S48)로 진행한다.
이후의 단계들에서, 동일한 동작이 반복되어 조합 번호 변수(k)가 증가될 때 상관치(Vk)가 계산된다. 변수(k)가 최종치(ke)와 같아지면, 절차는 단계(S44)에서 루프를 나가 상관치 계산법(30)을 완료한다. 이 경우, 도 1B에서 조합들(C0 내지Cke)에 대한 2(m-n)+l개의 상관치들(Vk)이 도 1A의 프로세서(70)의 메모리(72)에 저장되고, 도 1C에 도시된 최상의 상관치에 대응하는 시프트 값(s)도 또한 그곳에 저장된다. 전술한 상관치 계산법(30)의 동작이 차분 데이터(Si, Sj)를 사용하였지만, 단계들(S31 내지 S35)은 생략될 수 있고 단계(S38)에서 센서 데이터(Di, Dj)가 그대로 사용되는 경우에는 Di와 Dj 간의 차분치의 절대값이 상관치(V)를 계산하는데 사용될 수 있다.
도 2B의 신뢰도 검사법(50)의 동작의 예가 이후로 설명된다. 단계들(S51 내지 S54)은 도 1C에 도시된 바와 같이, 메모리(72)로부터 판독한 최상의 상관점에서의 복수의 상관치(Vk)들과 시프트 값(s)에 기초하여, 최상의 상관의 정밀도의 지표로서 음방향 경사도(φ-)와 양방향 경사도(φ+)를 결정한다. 단계(S51)에서 (φ-는 Vs-2-Vs-1로부터 계산되고, 단계(S52)에서 그 양수 여부가 검사된다. 단계(S53)에서 φ+는 Vs+2-Vs+1로부터 계산되고, 단계(S54)에서 그 양수 여부가 검사된다. 단계들(S52, S54)에서 모두 양수이면, 도면에 도시된 본 예에서는, 단계(S55)에서 음방향 경사도(φ-)와 양방향 경사도(φ+)사이의 평균 경사도(φav)가 결정된다.
다음 단계(S56)에서, 음방향 경사도(φ-)와 양방향 경사도(φ+)의 크기들이 비교된다. 음방향 경사도(φ-)가 양방향 경사도(φ+)보다 크면, 단계(S57)에서 평균 경사도(φav)에 φ+-를 곱한다. 그렇지 않은 경우에는, 단계(S58)에서 φ-+를 곱한다. 이러한 방식으로, 평균 경사도(φav)가 두 경사도들 중에서 완만한 쪽에 근접하도록 보정이 수행된다. 그 결과로 생긴 경사도는 정밀도의 지표로 사용되는데, 경사도(φ-, φ+)들이 상당히 비대칭일 경우에는 특히 그러하다.
주어진 예에서, 경사도(φ)는 시야(S) 내의 이미지들의 콘트라스트에 의해 더 보정된다. 콘트라스트는 이미지들의 패턴 내의 명도 범위인데, 이어지는 단계(S59)에서, 도면에 Σ로 표시된 것과 같은 윈도우부에 대응하는 (m)개의 차분 데이터(Si, Sj)의 절대값들의 합의 평균치로서 콘트라스트 값(C)이 계산된다. 기술된 실시예에서는, 경사도(φ)를 콘트라스 값(C)으로 나누어 유효 경사도(φe)를 얻는다. 콘트라스트(C)에 의한 경사도(φ)의 보정은 여러 가지 과정들을 이용하여 이루어질 수 있다.
단계(S60)에서, 유효 경사도(φe)가 정해진 한계 레벨(φl) 보다 큰지를 검사한다. 그런 경우에는, 단계(S61)에서 최상의 상관에 대응하는 시프트 값(s)으로부터 타겟(1)의 거리 지표(σ)가 계산된다. 지표(σ)는 윈도우부 데이터의 데이터 항목 개수(m) 및 시프트 값(s)에서 분할들의 데이터 항목의 개수(n)에 의존하는 단순 선형 함수이고, 따라서 대단히 간단하게 계산될 수 있다. 단계(S60, S52, 또는 S54)에서의 판단 결과가 부정인 경우에는, 지표(σ)가 타겟(1)의 검출이 실패하였다는 것을 명백하게 나타내는 값(σf)으로 설정된다. 단계들(S61 및 S62) 후의 단계(S63)에서, 거리 지표(σ)가 출력되고 신뢰도 검사법(50)은 완료된다.
신뢰도가 평가된 타겟(1)의 검출 결과들은 시야 지정법(31)이 원하는 시야(S)를 지정하는 것을 허용하도록 사용될 수 있다. 예를 들어, 검출 결과들이 신뢰할 수 없도록 얻어지면, 타겟(1)이 정확히 포착될 수 있는 시야(S)는 시야(S)의 방향 또는 크기를 변경하여 얻어진 다른 검출 결과들로부터 판단될 수 있다. 이 경우, 유효 경사도(φe)는 가이드로서 효과적으로 이용될 수 있다.
[발명의 장점들]
앞에 서술한 바와 같이, 본 발명에 따른 이미지 센서 방법은 광학법으로부터 이미지들을 수신하여 한 쌍의 이미지 센서들 상에 이미지들의 패턴을 나타내는 한 쌍의 이미지 데이터를 생성시키고; 상관치 계산법은 분할 위치가 순차적으로 시프트하는 동안 각 이미지 데이터가 포착되는 타겟에서 시야에 대응하는 윈도우부 데이터로부터 분할들의 그룹들을 추출하고, 분할들의 각 조합에 대한 상관치를 계산하며; 신뢰도 검사법은 최상의 상관점 근방에서의 상관치의 변화들의 상태에 기초하여 신뢰도의 지표로서 최상의 상관의 정밀도를 계산하고, 정밀도가 미리 결정된 레벨을 넘을 때에만 타겟이 시야 내에 존재한다고 판단한다. 그 후, 타겟까지의 거리가 계산된다. 이러한 구성은, 타겟과는 상이한 거리들을 갖는 다른 물체들의 이미지들의 혼재에 의해 발생되는 잘못된 검출 결과를 제거하여 타겟까지의 거리의 정확한 계산을 가능하게 하고, 신뢰도의 지표가 타겟이 정확히 포착될 수 있는 시야를 설정하도록 사용될 수 있다.
신뢰도의 척도로서, 본 실시예에서는 최상의 상관점 전후에서 복수의 상관치들의 경사도들의 평균치를 사용한다. 이러한 방법의 장점은 정확한 정밀도가 용이하게 계산될 수 있다는 점이다. 최상의 상관점의 양방향들의 경사도들 중에서 보다 완만한 것을 사용하고 보정값에 의해 양 경사도들의 평균치가 보다 완만한 경사도 값에 근접하도록 하는 본 발명의 실시예는 신뢰도에 대한 정밀한 평가 기준을 제공할 수 있고, 또한 잘못된 검출 결과들을 제거할 수 있다.
또한, 시야 내의 이미지들의 콘트라스트의 값들에 따라 보정을 수행하는 본 발명의 실시예는 검출 결과들의 신뢰도를 평가하기 위하여 위에 기술된 것보다 더 합당한 기준을 사용할 수 있다는 특징을 갖는다. 보정을 위한 콘트라스트 값들로서 윈도우부 데이터에 대한 차분치들의 절대값들의 합을 사용하는 실시예는, 간단한 계산들을 사용하여 보다 정확한 콘트라스트 값들을 얻을 수 있다. 더욱이, 콘트라스트 값들의 계산에 사용된 차분치들의 상관치들의 계산들에 기초하는 실시예는 상관치들을 계산하기 위해 원래의 윈도우부 데이터를 이용하여 얻어진 것보다 종종 더 정확한 검출 결과들을 제공한다.
본 발명은 진실로 믿을 수 있는 결과들에만 기초하여 타겟의 거리와 존재 여부의 계산들을 제공할 수 있도록, 검출 결과들의 신뢰도를 평가한다.
도 1은 본 방법에서 사용된 여러 방법들의 구성의 예를 도시하며, 본 예를 설명하는 도면들과 다이어그램들을 포함한다. 도 1A는 본 방법의 예를 타겟과 함께 도시하는 블록도. 도 1B는 상관치 계산법을 설명하기 위해 윈도우부 데이터와 분할들의 그룹들을 도시하는 이미지 도면. 도 1C는 분할들의 조합 번호에 대한 상관치의 변화들의 상태를 도시하는 도면.
도 2는 둘 다 소프트웨어로서 구성된 상관치 계산법과 신뢰도 검사법을 도시하는 흐름도. 도 2A는 상관치 계산법의 예를 도시하는 흐름도. 도 2B는 신뢰도 검사법의 예를 도시하는 흐름도.
도 3은 본 발명의 목적을 나타내기 위해 복수의 쌍들의 이미지 센서들의 시야 및 그 시야내에 설정된 부시야들의 예를 도시한 스케치 도면.
* 도면의 주요 부분에 대한 부호의 설명 *
1 : 거리를 검출할 자동차 등의 타겟
10 : 광학법
11,12 : 광학법에서의 렌즈들의 쌍
20 : 이미지 센서법
21,22 : 이미지 센서들의 쌍
30 : 상관치 계산법
31 : 시야 지정법
50 : 신뢰도 검사법
70 : 프로세서 또는 소형 컴퓨터
71 : 이미지 데이터 저장용 메모리
72 : 상관치들 저장용 메모리
C : 콘트라스트
Ck : 분할들의 조합(K=0내지 ke)
Di : i-번째 센서 데이터
Dj : j-번째 센서 데이터
D1,D2 : 이미지 데이터의 쌍
d1, d2 : 분할들의 쌍
ID1, ID2 : 이미지 데이터의 쌍
i : 윈도우부 데이터 WD1 및 분할 d1에서의 데이터 번호
ie : 분할 d1에서의 최종 데이터 번호
is : 분할 d1에서의 시작 데이터 번호
j : 윈도우부 데이터 WD2 및 분할 d2에서의 데이터 번호
je : 분할 d2에서의 최종 데이터 번호
js : 분할 d2에서의 시작 데이터 번호
k : 분할들의 조합 번호
L1, L2 : 광 경로들의 쌍
m : 윈도우부 데이터의 데이터 항목들의 수
n : 분할의 데이터 항목들의 수
S : 시야
Si : i-번째 차분 데이터
Sj : j-번째 차분 데이터
s : 최상의 상관점에 대응하는 시프트 값
V : 상관치
Vk : 조합 번호(k)에 대응하는 상관치
WD1, WD2 : 윈도우부 데이터의 쌍
ψ : 시야의 크기를 나타내는 각
φ : 최상의 상관점의 정밀도를 나타내는 경사도
φe : 유효 경사도
φ+ : 최상의 상관점의 양 방향에서의 경사도
φ- : 최상의 상관점의 음 방향에서의 경사도
φ av : 양 방향 및 음 방향에서의 경사도들의 평균
φ1 : 경사도를 위한 한계 제어 레벨
σ : 타겟에서의 거리의 지표
θ : 시야의 거리를 나타내는 각

Claims (5)

  1. 거리 검출 방법에 있어서,
    상이한 광 경로들을 통해 광 이미지들을 수신하는 한 쌍의 이미지 센서들을 사용함으로써 이미지들의 패턴을 나타내는 한 쌍의 이미지 데이터를 획득하는 단계와,
    한 쌍의 분할들을 각각 포함하는 조합들을 제공하기 위해, 시야에 대응하는 윈도우부 데이터(window part data)로부터 분할들의 각 그룹들에서 분할들의 위치들을 순차적으로 시프트하는 동안 각 이미지 데이터로부터 추출된 검출 타겟을 포착하여, 분할들의 각 쌍 사이의 상관치를 각각 계산하는 단계와,
    최상의 상관점을 결정하기 위해 계산된 상관치들로부터 최상의 상관치를 선택하는 단계와,
    최상의 상관치의 양쪽의 상관치들의 변화 상태에 기초하여, 최상의 상관점의 신뢰도의 지표(indicator)로서 최상의 상관점에서 정밀도를 획득하는 단계로서, 상기 정밀도는 최상의 상관점 전후에서 복수의 상관치들의 경사도들의 평균치에 의해 획득되는, 상기 정밀도 획득 단계와,
    상기 정밀도가 미리 결정된 레벨을 초과할 때만 윈도우부 데이터에 대응하는 윈도우를 통해 보여진 시야내에 검출 타겟이 존재하는지를 판단하여 검출 타겟에 대한 거리를 검출하는 단계를 포함하는, 거리 검출 방법.
  2. 제 1 항에 있어서, 상기 최상의 상관의 신뢰도의 지표로서 정밀도는 상기 최상의 상관점 전후에서 경사도들을 갖는 복수의 상관치들에서 보다 완만한 경사도를 선택함으로써 획득되는, 거리 검출 방법.
  3. 제 1 항에 있어서, 상기 상관치는 윈도우부 데이터에서 내부 데이터에 대한 차분 데이터에 기초하여 계산되는, 거리 검출 방법.
  4. 제 1 항에 있어서, 상기 상관치와 연관하여 이미지 포착 시야의 방향과 폭을 지정하는 단계, 및 상기 상관치를 계산하기 위해 상기 시야에 대응하는 윈도우부 데이터를 이미지 데이터로부터 선택하는 단계를 더 포함하는, 거리 검출 방법 .
  5. 거리 검출 방법에 있어서,
    상이한 광 경로들을 통해 광 이미지들을 수신하는 한 쌍의 이미지 센서들을사용함으로써 이미지들의 패턴을 나타내는 한 쌍의 이미지 데이터를 획득하는 단계와,
    한 쌍의 분할들을 각각 포함하는 조합들을 제공하기 위해, 시야에 대응하는 윈도우부 데이터로부터 분할들의 각 그룹들에서 분할들의 위치들을 순차적으로 시프트하는 동안 각 이미지 데이터로부터 추출된 검출 타겟을 포착하여, 분할들의 각 쌍 사이의 상관치를 각각 계산하는 단계와,
    최상의 상관점을 결정하기 위해 계산된 상관치들로부터 최상의 상관치를 선택하는 단계와,
    최상의 상관치의 양쪽의 상관치들의 변화 상태에 기초하여, 최상의 상관점의 신뢰도의 지표로서 최상의 상관점에서 정밀도를 획득하는 단계로서, 상기 정밀도는 유효 정밀도를 제공하기 위해 윈도우부에서 이미지 콘트라스트 값에 기초하여 변화되며, 상기 콘트라스트 값의 지표로서, 상기 윈도우부 데이터에서 내부 데이터에 대한 차분치들의 절대값들의 합이 사용되는, 상기 정밀도 획득 단계와,
    상기 정밀도가 미리 결정된 레벨을 초과할 때만 윈도우부 데이터에 대응하는 윈도우를 통해 보여진 시야내에 검출 타겟이 존재하는지를 판단하여 검출 타겟에 대한 거리를 검출하는 단계를 포함하는, 거리 검출 방법.
KR1019970037530A 1996-08-06 1997-08-06 이미지들을사용한거리검출방법 KR100525931B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP20668796A JP3216792B2 (ja) 1996-08-06 1996-08-06 映像による距離検出方法
JP96-206687 1996-08-06

Publications (2)

Publication Number Publication Date
KR19980018429A KR19980018429A (ko) 1998-06-05
KR100525931B1 true KR100525931B1 (ko) 2005-12-26

Family

ID=16527458

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970037530A KR100525931B1 (ko) 1996-08-06 1997-08-06 이미지들을사용한거리검출방법

Country Status (4)

Country Link
US (1) US6021209A (ko)
JP (1) JP3216792B2 (ko)
KR (1) KR100525931B1 (ko)
DE (1) DE19732883A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3216792B2 (ja) * 1996-08-06 2001-10-09 富士電機株式会社 映像による距離検出方法
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6675121B1 (en) * 1999-07-06 2004-01-06 Larry C. Hardin Velocity measuring system
US20070162248A1 (en) * 1999-07-06 2007-07-12 Hardin Larry C Optical system for detecting intruders
JP4097869B2 (ja) * 2000-01-17 2008-06-11 日本放送協会 画像の対応点信頼度推定装置と対応点探索装置
US6317691B1 (en) * 2000-02-16 2001-11-13 Hrl Laboratories, Llc Collision avoidance system utilizing machine vision taillight tracking
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
JP2002350129A (ja) * 2001-05-23 2002-12-04 Canon Inc 計測装置
US7262798B2 (en) * 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography
US7221777B2 (en) * 2002-07-02 2007-05-22 Honda Giken Kogyo Kabushiki Kaisha Image analysis device
EP1391778A1 (en) * 2002-08-08 2004-02-25 Seiko Precision Inc. Apparatus for detecting the inclination angle of a projection screen and projector comprising the same
JP2004234423A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2007139756A (ja) * 2005-10-17 2007-06-07 Ricoh Co Ltd 相対位置検出装置、回転体走行検出装置及び画像形成装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP5544497B2 (ja) * 2012-03-13 2014-07-09 株式会社モルフォ 画像処理装置、画像処理方法及び画像処理プログラム
US10498948B1 (en) 2018-06-05 2019-12-03 Applied Materials, Inc. Methods and apparatus for absolute and relative depth measurements using camera focus distance

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930004882A (ko) * 1991-08-13 1993-03-23 가나이 쯔또무 디지탈 신호 프로세서
JPH0771916A (ja) * 1993-09-06 1995-03-17 Fuji Film Micro Device Kk 車載用距離計測装置
JPH07306038A (ja) * 1994-05-13 1995-11-21 Nippon Soken Inc 距離測定装置
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JPH1047955A (ja) * 1996-08-06 1998-02-20 Fuji Electric Co Ltd 映像による距離検出方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4561749A (en) * 1983-02-02 1985-12-31 Nippon Kogaku K.K. Focus detection apparatus
US4969036A (en) * 1989-03-31 1990-11-06 Bir Bhanu System for computing the self-motion of moving images devices
JP2676953B2 (ja) * 1989-10-27 1997-11-17 富士電機株式会社 映像位置検出装置
JP2676985B2 (ja) * 1990-06-26 1997-11-17 富士電機株式会社 光学器械の対象検出方式
JPH0588077A (ja) * 1991-06-20 1993-04-09 Fuji Photo Film Co Ltd 距離検出装置および方法
US5422828A (en) * 1991-12-18 1995-06-06 Choate; William C. Method and system for image-sequence-based target tracking and range estimation
JP3343697B2 (ja) * 1992-12-31 2002-11-11 株式会社リコー 合焦状態又は被写体距離検出装置
JP3197979B2 (ja) * 1993-04-19 2001-08-13 富士フイルムマイクロデバイス株式会社 位相差距離検出装置および方法
US5586063A (en) * 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
JP3059035B2 (ja) * 1993-12-14 2000-07-04 三菱電機株式会社 距離測定装置
JPH0894916A (ja) * 1994-09-28 1996-04-12 Nikon Corp 焦点検出装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930004882A (ko) * 1991-08-13 1993-03-23 가나이 쯔또무 디지탈 신호 프로세서
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JPH0771916A (ja) * 1993-09-06 1995-03-17 Fuji Film Micro Device Kk 車載用距離計測装置
JPH07306038A (ja) * 1994-05-13 1995-11-21 Nippon Soken Inc 距離測定装置
JPH1047955A (ja) * 1996-08-06 1998-02-20 Fuji Electric Co Ltd 映像による距離検出方法
US6021209A (en) * 1996-08-06 2000-02-01 Fuji Electric Co., Ltd. Distance detection method using images

Also Published As

Publication number Publication date
DE19732883A1 (de) 1998-02-12
JP3216792B2 (ja) 2001-10-09
KR19980018429A (ko) 1998-06-05
US6021209A (en) 2000-02-01
JPH1047955A (ja) 1998-02-20

Similar Documents

Publication Publication Date Title
KR100525931B1 (ko) 이미지들을사용한거리검출방법
KR930004880B1 (ko) 추미식 차간거리 측정장치
US6721679B2 (en) Distance measuring apparatus and distance measuring method
EP0686857A2 (en) Distance measurement apparatus for vehicle
JP3059035B2 (ja) 距離測定装置
US6697146B2 (en) Range finder for finding range by image realization
JP3562250B2 (ja) 先行車両検出装置
JPH07120258A (ja) 車載カメラを用いた距離検出装置
US5732292A (en) Focus detection apparatus for interpolating correlation value between two images and self-correlation value of either image
US6625398B1 (en) Camera with a multi-point distance measuring apparatus
US6038405A (en) Automatic focus detection device
JPH07244717A (ja) 車両用走行環境認識装置
US5113215A (en) Image position detecting device
JP3287166B2 (ja) 距離測定装置
JPH1096607A (ja) 物体検出装置および平面推定方法
US6144451A (en) Multiple points distance measuring apparatus
JP2001004367A (ja) 測距演算装置
JPH1151644A (ja) 車両用距離測定装置
JPH11223516A (ja) 3次元画像撮像装置
EP0387088A2 (en) Focus detection apparatus
JPH0933248A (ja) パッシブ三角測量式距離計
JP3783295B2 (ja) 車両の走行路区画線の検出方法
JP3923181B2 (ja) 車両用距離測定装置
JP2671611B2 (ja) 追尾式車間距離センサ
JPH06266825A (ja) 画像追尾装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081024

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee