KR19980018429A - 이미지를 사용한 거리 검출 방법 - Google Patents

이미지를 사용한 거리 검출 방법 Download PDF

Info

Publication number
KR19980018429A
KR19980018429A KR1019970037530A KR19970037530A KR19980018429A KR 19980018429 A KR19980018429 A KR 19980018429A KR 1019970037530 A KR1019970037530 A KR 1019970037530A KR 19970037530 A KR19970037530 A KR 19970037530A KR 19980018429 A KR19980018429 A KR 19980018429A
Authority
KR
South Korea
Prior art keywords
image
data
correlation
target
value
Prior art date
Application number
KR1019970037530A
Other languages
English (en)
Other versions
KR100525931B1 (ko
Inventor
다케히데 히라바야쉬
히데오 쉬미즈
아키오 이즈미
Original Assignee
나카사토 요시히코
후지 덴키(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나카사토 요시히코, 후지 덴키(주) filed Critical 나카사토 요시히코
Publication of KR19980018429A publication Critical patent/KR19980018429A/ko
Application granted granted Critical
Publication of KR100525931B1 publication Critical patent/KR100525931B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 목적은 이미지 센서법(20)으로 얻은 타켓(1)의 이미지 검출 결과의 신뢰도를 확인함으로써 정확한 타겟 거리를 제공하는 것이다.
광학법(10)으로 이미지 센서법(20)에서 이미지 센서 쌍(21, 22)의 이미지를 제공함으로써 이미지 패턴을 나타내는 이미지 데이터 쌍(D1, D2)을 발생한다. 상관치 연산 방법(30)에 의해, 이미지 데이터로부터 추출한 윈도우부 데이터(WD1, WD2)로부터 시야(S)에 따라 분할 그룹(d1, d2)을 추출하고, 분할 위치를 순차적으로 시프트하고, 상기 추출 분할(d1, d2)의 조합(Ck)을 형성하며, 각 조합에 대한 분할 사이의 상관치(Vk)를 계산한다. 신뢰도 검사법(50)에 의해, 신뢰도에 대한 평가 기준으로서 사용되는 최량 상관 관계로서 양방향 경사도(φ+)와 음방향 경사도(φ-)를 얻되 상기 최량 상관 관계를 얻은 시프트 값(s) 근방에서의 상관치 변화 상태에 기초하여 얻고, 타겟(1)이 시야(S) 내에 있는지를 판단하고 정밀도가 소정의 레벨 이상인 경우에만 타켓(1)까지의 거리 계산을 허용하고, 타켓(1)까지의 거리를 검출한다.

Description

이미지를 사용한 거리 검출 방법
본 발명은 이미지 센서에서 수신한 이미지로부터 앞의 자동차 등의 타겟(target)을 포착하고 그 거리를 계산하여 충돌을 방지하기 위한 소극적 거리 검출 방법에 관한 것이다.
전술한 소극적 거리 검출 방법에서는 이미지 센서 쌍을 수평·수직 또는 대각으로 배치하여 타겟에 대한 두 개의 이미지를 포착한다. 이 두 이미지 사이의 시차(parallax)를 이용하여 타겟과의 거리를 계산한다. 타겟에 초음파나 광을 조사하여 그 반사 시간으로부터 거리를 검출하는 능동적 방법에 비하여, 이 소극적 방법은 더 정확하고 장거리 검출에 보다 적절하며 주변 배경으로부터 잘 구분되는 타겟에 잘 맞는다. 수동적 방법은 자동 카메라에 이미 적용되고 있고, 자동차 충돌 방지 분야에 잘 적용될 것으로 예상된다.
시차를 이용한 거리 검출한 삼각 측량의 원리에 기초한다. 렌즈 쌍을 갖는 광학 시스템이 사용되어 이미지 센서 쌍에서 서로 상이한 광경로를 통한 타겟 이미지를 형성하고, 또한 이미지 형성 위치에 있는 타겟이 무한 거리에 있을 때의 기준 위치로부터의 오프셋(σ)을 검출하면, 삼각 측량의 기본 거리인 렌즈간 거리와 렌즈 사이의 초점 거리를 각각 b와 f라 할 때 거리(d)는
d=bf/σ
과 같이 표현할 수 있다. 실제 응용에서는 거리(d) 대신 오프셋(σ)이 지시자로서 사용된다.
자동초점 카메라를 사용함에 있어서, 사용자는 뷰파인더(viewfinder)를 사용하여 거리를 측정할 타겟을 선택한다. 그러나, 충돌 방지 장치에서는, 운전자에게 자동차 바로 앞에 있거나 대각 방향에 있는 타겟을 식별하도록 하는 것이 불가능하므로, 이미지 센서에 비교적 넓은 시야를 설정하여 불특정 타겟을 자동적으로 검출하고 그들과의 거리를 계산하도록 해야 한다.
다행스럽게도, 공지된 바와 같이, 검출 타겟이 자동차의 이미지 센서 정면으로부터 일정각(θ)으로 대각 방향에 있는 경우에도, 이미지 형성 위치에 있는 타겟이 각(θ) 방향으로 무한 거리에 있을 때 기준 위치로부터의 오프셋(σ)을 검출함으로써 그 각(θ)에 관계없이 위의 식을 사용하여 거리(d)를 결정할 수 있다. 따라서, 문제는 시야에 있는 타겟을 검출하는 것에 있다.
제안된 한 가지 방법에서는, 시야를 다수의 좁은 부시야(sub-visual fields)로 나누고 각 부시야에 대하여 거리를 계산한 후, 검출된 거리의 주파수 배치에 기초하여 가장 정확한 거리일 것으로 보이는 거리를 선택한다. (방법 A) 다른 방법에서는, 이미지 센서 시야 내의 각 부시야를 순차적으로 스캐닝하여 각 부시야에 대한 이미지 쌍의 상관 관계(correlation)를 결정함으로써, 양호한 상관 관계를 갖는 스캐닝 범위의 타겟이 존재한다고 판단하고 센서로부터의 거리를 검출한다.(방법 B)
그러나, 타겟을 발견하고 그 거리를 검출하기 위해 사용하는 이미지 센서의 시야에서 타겟 이외의 물체가 검출된다. 따라서, 각 부시야에 대한 거리를 검출하는 데 있어서 오차가 발생하고, 이로써 각 부시야에 대한 이미지 쌍 검사에 있어서 양호한 상관 관계를 얻는 것이 곤란하다.
시야에 존재하는 물체의 거리는 많은 경우 검출하고자 하는 타겟의 거리와는 상이하고, 따라서 다른 물체로부터 타겟을 구분할 필요가 있다.
그러나, 시야로부터 상이한 거리를 가지고 있고 이미지 센서 쌍 간에 시차가 존재하는 물체가 타겟을 포착하고자 하는 시야에 혼재되어 있는 경우에는, 이미지 쌍 사이에 양호한 상관 관계를 얻는 것이 불가능하고 따라서 거리 검출도 부정확하게 된다.
도 3을 참조하여 간략히 설명한다. 도면의 프레임에 도시된 복수의 이미지 센서의 시야 내의 이미지는 검출 타겟(1)(앞의 자동차)과 배경인데, 여기서 배경은 도로(RD), 가드레일(GR), 도로 신호(RS), 다른 자동차(Au), 나무(Tr), 기둥(Ps), 산(Mt), 그리고 타겟(1)이 도로(RD)에 만드는 그림자(Sh)를 포함한다. 이러한 시야에서 타겟(1)을 포착하는 부시야는 일반적으로 각 이미지 센서 쌍에 대한 시야의 일부분으로서 설정되고, 이러한 부시야의 몇 가지 예를 장방형으로 도시하였다. 도면에서, 부시야(S1-S3)는 이미지 센서 쌍이 수직으로 배치된 경우이고, 부시야(S4, S5)는 이미지 센서 쌍이 수평으로 배치된 경우이다.
S1은 이상적인 시야로서, 전체 타겟(1)을 포함하되 외부 이미지는 거의 존재하지 않도록 설정된다. 따라서, 이 부시야를 사용하여, 방법 A는 거리를 정확히 검출할 수 있고 방법 B는 양호한 상관 관계를 제공한다. 부시야(S2)는 타겟의 일부분을 포착함과 함께, 이미지 센서에 멀리 위치하는 이미지, 즉 다가오는 자동차(Au)와 산(Mt)의 이미지를 포함한다. 따라서, 방법 A는 이 멀리 떨어져 있는 물체의 거리를 검출할 가능성이 높다. 방법 B는 가정된 특정 거리와의 상관 관계를 판단하므로, 가정된 거리가 타겟(1)과의 실제 거리에 가까운 경우에는 양호한 상관 관계를 얻게 되고 가정이 틀린 경우에는 불량한 상관 관계를 얻게 된다. 부시야(S3)는 타겟(1)의 일부분과 그 그림자(Sh)를 포착한다. 그림자에 대한 대비도가 높기 때문에, 방법 A는 타겟(1)과의 거리보다는 그림자(Sh)와의 거리를 검출할 가능성이 높으며, 방법 B는 상당히 정확한 가정이 이루어지더라도 상관 관계가 저하된다.
부시야(S4)는 대부분 타겟(1)을 포함하고는 있지만 특유 이미지 패턴(distinctive image pattern)이 포함되어 있지 않고 또한 도로(RD)와 가드레일(GR)의 이미지가 혼재되어 있다. 따라서, 방법 A는 혼재된 이미지에 의해 잘못된 거리를 제공할 가능성이 높고, 방법 B는 정확한 가정이 이루어지더라도 낮은 상관 관계가 얻어진다. 부시야(S5)는 타겟(1)의 대부분의 특유 이미지 패턴을 포함하고 있다. 따라서, 나무(Tr)와 기둥(Ps)의 이미지가 부시야에 혼재되어 있음에도 불구하고, 이러한 이미지가 타겟(1) 근처에 있다면 방법 A는 거리를 정확히 검출할 수 있다. 타겟(1)을 부정확하게 포착하고 있음에도 불구하고, 방법 B는 거리를 정확히 가정한다면 양호한 상관 관계를 제공한다.
이러한 예로부터, 타겟을 정확히 포착할 수 있도록 시야의 방향과 크기를 설정할 수 있다면, 거리와 존재 유무를 정확히 검출할 수 있다. 다른 물체의 이미지, 특히 이미지 센서로부터 거리가 상이한 물체의 이미지가 시야에 혼재되어 있는 경우에는, 타겟의 거리와 방향을 정확히 검출할 수 없다. 그러나, 검출 결과가 정확한지 여부를 판단하는 것이 어렵기 때문에, 실제에 있어서는 오차를 포함할 수 있는 인식 결과(perception result)에 기초하여 타겟의 거리와 방향을 결정한다. 특히, 충돌 방지에 있어서는, 거리와 방향을 계산하기 위해서 정확하고도 자동적인 타겟 포착이 필요하다.
따라서, 본 발명의 한 가지 목적은 검출 결과의 신뢰도를 평가하여 진실로 믿을 수 있는 결과에만 기초하여 타겟의 거리와 존재 여부를 계산할 수 있도록 하는 것이다.
도 1은 본 발명에서 사용되는 여러 방법의 구성을 도시하며, 실시예를 나타내는 도면과 다이어그램을 포함하는 도면으로서, 도 1a는 본 발명의 예를 타켓과 함께 도시하는 블록도이고, 도 1b는 윈도우부 데이터와 분할 그룹을 도시하는 이미지 도면으로서서, 상관치 연산법을 나타내는 도면, 도 1c는 분학의 조합 번호에 대한 상관치 변화의 상태를 나타내는 도면.
도 2는 상관치 연산법과 신뢰도 검사법을 소프트웨어로서 구성한 흐름도로서, 도 2a는 상관치 연산법의 예를 도시하는 흐름도, 도 2b는 신뢰도 검사법의 예를 도시하는 흐름도.
도 3은 복수의 이미지 센서 쌍의 시야를 예로서 도시한 도면으로서, 부시야를 시야 내에 설정하여 본 발명의 목적을 나타내는 도면.
*도면의 주요 부분에 대한 부호의 설명*
1:거리를 검출한 타겟(예컨대, 자동차)
20:이미지 센서법30:상관치 연산법
31:시야 지정법70:프로세서 또는 소형 컴퓨터
72:상관치 저장요 메모리
본 발명의 거리 검출 방법은 상이한 광경로를 통한 광학 이미지를 수신하여 이미지 패턴을 나타내는 이미지 데이터 쌍을 제공하기 위한 이미지 센서쌍을 사용하고, 상관치 연산법에 의해 이미지 데이터로부터 추출한 윈도우부 데이터(windowpart data)로부터 각 이미지 데이터로부터 검출되는 검출 타겟 포착용 시야에 대응하는 분할 그룹을 추출하고, 각 그룹에서 분학 위치를 순차적으로 시프트하여 각각이 분할 쌍을 포함하는 조합을 제공하고, 각 조합에 대한 분할 사이의 상관치를 계산하며, 신뢰도 검사법에 의해 최량 상관 관계(best correlation)의 신뢰도에 대한 지시자로서 최량 상관 관계점의 정밀도를 결정하되 상기 최량 상관치를 계산한 시프트 값 근방에서의 상관치 변화 상태에 기초하여 상기 정밀도를 얻고, 이로써 상기 검출 타겟이 상기 윈도우부 데이터에 대응하는 윈도우를 통해서 본 시야 내에 있는지를 판단하고 상기 정밀도가 소정의 레벨 이상인 경우에만 상기 정밀도로부터 상기 검출 타겟까지의 거리를 검출한다.
상기 구성에서, 타겟을 포착하는 시야의 크기와 방향은 윈도우부 데이터의 개수와 이미지 데이터가 연속적으로 추출되는 추출 위치로부터 설정됨을 알 수 있다. 즉, 타겟은 윈도우부 데이터에 대응하는 윈도우를 통해 본 시야에서 포착한다.
타겟까지의 거리를 검출함에 있어서, 본 발명에서는 상관치 연산법에 의해 전술한 구성에 따라 분할 조합에 대한 상관치를 계산하고 그 윈도우부의 데이터에서 최량 상관 관계가 추출된 위치의 시프트 값으로부터 거리를 결정한다. 상이한 거리의 다른 물체가 시야를 공유하는 경우에는, 최적치 근방의 상관치의 시프트 값에 대한 의존도가 변화하여 최량 상관 관계점의 정밀도가 저하된다. 본 발명은 전술한 구성의 신뢰도 검사법을 사용하여 최량 상관 관계점에 대응하는 시프트 값 근방에서의 상관치의 변화 상태로부터 정밀도를 계산하여 이 정밀도를 상기 최량 상관 관계의 신뢰도 지시자로서 사용하고, 이 정밀도가 소정 레벨 이상일 때에만 상기 최량 상관 관계를 신뢰할 수 있다고 판단하여 이에 대응하는 시프트 값으로부터 타겟까지의 거리를 검출한다.
신뢰도 지시자로서의 정밀도는 바람직하게는 복수의 , 예컨대 최량 상관 관계 점 전후에서의 두 개의 상관치의 경사도의 평균치이거나 또는 최량 상관 관계점 양쪽 경사도 중에서 완만한 값이다. 후자의 경우, 경사도의 평균치가 완만한 쪽의 값에 근접할 수 있도록 적절한 정정이 수행된다.
그러나, 정밀도는 시야에서 이미지의 대비도가 증가할수록 이에 따라서 증가 하는 경향이 있고, 따라서 이미지의 대비도를 사용하여 정정한 유효 정밀도(effective precision)를 신뢰도 평가를 위한 기준으로서 적절히 사용할 수 있다. 대비도 값을 시야에서 이미지를 나타내는 윈도우부 데이터에서 내부 데이터 개수에 대한 차분치의 절대값의 합이고 각 윈도우부 데이터로부터 얻은 유효 정밀도의 평균치는 보아 정확한 기준으로서 바람직하게 사용되도록 결정된다. 대비도 값 계산에 사용되는 윈도우부 데이터의 차분치는 상관치의 계산을 위한 기초로서 유용하고, 상관치를 윈도우부 데이터가 아닌 차분치에 기초하여 상관치 연산법에 의해 계산하는 경우에 계산을 보다 쉽게 수행하여 보다 양호한 결과를 얻을 수 있다.
도 3의 예로부터, 검출 결과의 신뢰도는 타겟 포착용 시야를 가능한 한 적절하게 설정할 수 있는지에 달려있다는 것을 알 수 있다. 따라서, 본 발명에 의해 얻은 신뢰할 만한 검출 결과를 시야의 특정에 사용하여야 한다. 이를 위해서, 타겟을 포착할 시야의 방향과 크기를 특정하기 위한 시야 특정법을 상관치 연산법과 함께 사용함으로써, 검출 결과의 면에서 타켓 포착에 있어 가장 적절한 것으로 생각되는 시야에 대응하는 윈도우부 데이터를 이미지 데이터로부터 추출하여 이를 상관치 계산의 기초로서 사용한다.
도면을 참조하여 본 발명의 바람직한 실시예를 설명한다. 도 1은 본 실시예에서 사용되는 여러가지 방법의 구성을 도시하는데, 연산을 설명하는 그림과 다이어그램을 포함한다. 도 2는 소프트웨어를 사용한 상관치 연산법과 신뢰도 검사법의 연산예를 나타내는 흐름도이다.
도 1a의 상단에 도시된 광학법(10)과 이미지 센서법(20)은 시야(S)에서 타겟(1), 예컨대 광학법(10)의 우측에 도시된 자동차를 포착하기 위해 사용된다. 광학법(10)의 렌즈 쌍(11, 12)은 시야(S) 내에 타겟(1)을 포함하는 이미지를 이미지 센서법(20)에서 광경로(L1, L2)를 통해 이미지 센서 쌍(21, 22)에 형성하는 데, 이를 도면에 굽은 직선으로 표시하였다. 이 실시예를 실제로는 렌즈쌍(11, 12)과 이미지 센서 쌍(21, 22)을 시야(S)에 대한 수직으로 배열되었으나, 도면에서는 설명의 편이를 위해 수평으로 도시하였다. 타겟(1)을 정확히 포착하기 위해서, 시야(S)는 도시된 바와 같이 광학법(10)의 정면에 대하여 각도(θ)로 배치되어야 한다.
신호 처리/변환 회로(23)가 이미지 센서법(20)에 사용된다. 신호 처리/변환 회로(23)는 이미지 센서(21, 22)의 CCD와 같은 광센서로부터 센서 신호 출력을 아날로그 신호로서 순차적으로 수신 및 증폭하고, 이 신호를 디지털 신호로 변환하여 센서 데이터로 출력한다. 신호 처리/변환 회로(23)는 각 이미지 센서 (21, 22)에 대하여 제공될 수 있다.
프로세서(70)는 센서 데이터를 메모리(71)로 순차적으로 로딩하는데, 이 메모리(71)에 데이터는 이미지 데이터(D1, D2)로서 저장되어 이미지 센서(21, 22)가 제공하는 시야 내의 이미지 패턴을 나타낸다. 도 1에서, 프로세서(70)는 이미지 센서법(20) 아래에 파선으로 나타내었다.
도시된 실시예에서, 상관치 연산법(30)과 신뢰도 검사법(50)은 프로세서(70)에 소프트웨어로서 설치된다.
프로세서(70)와는 별도로 게이트 어레이(gate array)와 같은 직접 회로를 사용하여 상관치 연산법(30)을 하드웨어로서 구성함으로써, 복수의 이미지 센서 쌍(21, 22)을 이미지 센서법(20)에 결합시켜 복수의 이미지 센서 쌍이 동시에 동작하여 각 이미지 센서 쌍에 대한 상관치를 병렬 방식으로 계산할 수 있다.
도시된 실시예에서, 프로세서(70)에 설치된 상관치 연산법(30)은 시야 특정법(31)과 함께 사용한다. 특정 데이터(SD)에 대응하여, 시야 특정법(31)은 이미지 데이터(D1, D2)로부터 시야의 방향과 크기에 대응하여 타겟(1)을 포착할 윈도우부 데이터(WD1, WD2)를 추출한다. 도면에서, 시야 방향은 각(θ)으로 그리고 크기는 시야각(ψ)으로 표시하였고, 대응하는 윈도우부 데이터(WD1, WD2)는 이미지 데이터(D1, D2)의 해칭 표시한 부분으로 나타내었다.
윈도우부 데이터(WD1, WD2)로부터 상관치를 계산하는 상관치 연산법(30)의 정차를 도1(b)를 참조하여 설명한다.
윈도우부 데이터(WD1, WD2)로부터, 각 분할이 서로 오프셋되어 도시된 바와 같이 복수의 조합(Ck:k=0에서 ke)을 얻을 수 있는 방식으로 분할 그룹(d1, d2)이 추출된다. 윈도우부 데이터(WD1, WD2)는 각각 m개의 센서 데이터를 가지고 있고 각각의 분할 그룹(d1, d2)은 n개의 센서 데이터를 가지고 있다고 가정한다.
바람직하게는, n을 m의 1/2 내지 2/3로 설정한다. 조합(C0)의 분할(d1)이 윈도우부 데이터(WD1)의 우측 단부에서 추출되고, 분할(d2)은 윈도우부 데이터(WD2)의 좌측 단부에서 추출되도록 한다. 이후의 추출 위치는 이전의 추출 위치에 대하여 바람직하게는 한 센서 데이터만큼 시프트된다.
상관치 연산법(30)은 각 조합(Ck)에서 분할(d1, d2) 사이의 상관 관계를 검사하여 상관치를 얻는다. 이 상관치는, 예컨대 분할(d1, d2)의 대응하는 센서 데이터에 대한 차분치의 절대값의 합일 수 있다. 이 경우, 분할(d1, d2) 사이의 상관 관계가 증가할수록 상관치는 감소한다. 이 계산의 결과는 각 조합 번호(k)에 대한 상관치(Vk)로서 메모리(72)에 저장된다.
신뢰도 검사법(50)은 복수의 상관치(Vk)를 수신하고 최량 상관 관계의 신뢰도 지시자로서 시프트 값 근방에서의 상관치(Vk)의 변화 상태에 기초하여 최량 상관 관계점의 정밀도를 결정하는 데, 상기 시프트 값을 최량 상관 관계에 대응하는 분할 조합의 번호이다. 최량 상관 관계의 신뢰도 지시자로서의 정밀도는 바람직하게는 최량 상관 관계점 전후에서의 복수의(예컨대, 2) 상관치의 경사도의 평균이거나, 또는 최량 상관 관계점의 양측의 경사도 중에서 완만한 값이다. 도 1c를 참조하여 이를 설명한다.
도 1c의 수평축은 각 그룹에서 분할 조합의 번호(k)를 나타내고, 상관치(Vk)는 변수 k에 따라 일반적으로 복잡하게 변화한다. 그러나, 복잡함을 피하기 위해, 도면에서는 최량 상관 관계점 근방에서의 상관치(Vk) 변동을 도시한다. 도시된 예에서, 상관치는 분할에서 대응하는 센서 데이터 사이에서 차분값의 절대값의 합으로서 계산되고, 따라서 상관치(Vk)가 최소로 되는 변수 k의 값은 도면에서 최량 상관 관계점(s)이다. 도시된 예에서, 신뢰도 지시자인 정밀도는 상기 최량 상관 관계점(s)의 전후에서 두 개의 상관치(Vk)로부터 결정되는 양방향 경사도(φ+) 및 음방향 경사도(φ-)의 평균치이거나, 또는 양측의 경사도가 상당히 차이가 나는 경우에는 보다 완만한 경사도를 정밀도로서 사용하여 정밀도를 낮게 나타낸다. 후자의 경우, 평균치가 완만한 경사도 값에 근접할 수 있도록 정정 과정을 수행해야 한다.
그러나, 이러한 방식으로 결정된 정밀도는 시야(S)의 대비도가 증가함에 따라서 함께 증가하는 경향이 있다. 대비도를 사용하여 정정한 유효 정밀도를 신뢰도 지시자로서 사용할 수 있다. 대비도 값은 윈도우부 데이터(WD1, WD2)에서 데이터 개수에 대한 차분치의 절대값의 합이고, 거리를 보다 정확하게 계산하기 위해서 각 윈도우부 데이터 쌍으로부터 얻은 유효 정밀도의 평균치를 결정하여야 한다. 윈도우부 데이터의 차분치는 상관치(Vk)의 계산에 유용하다. 경험적으로, 윈도우부 데이터에 기초하는 것보다는 차분치를 상관치 연산법(30)에 제공하고 이로부터 상관치(Vk)를 계산하는 것이 보다 양호한 결과를 제공한다.
본 발명은 전술한 바와 같이 얻은 정밀도 또는 유효 정밀도가 소정의 레벨을 넘는 경우에만 타겟(1)의 이미지가 성공적으로 검출되었다고 결정한다. 이 경우, 상기 정밀도는 윈도우부 데이터(WD1, WD2)로부터 얻었고 시야(S)의 방향을 나타내는 각도(θ)와 필드의 시야각(ψ)이 윈도우부 데이터(WD1, WD2)가 이미지 데이터(D1, D2)와 센서 데이터 개수로부터 추출된 위치에 대응하기 때문에, 타겟(1)은 윈도우부 데이터에 대응하는 시야(S) 내에 검출된 것이다. 또한, 도 1b에서 보는 바와 같이, 최량 상관 관계점(s)은 이미지 센서(21, 22)에 의해 포착된 시야(S) 내의 이미지 사이의 시차에 따라 최량 상관치를 얻을 수 있는 방식으로 분할(d1, d2)을 시프트하여 얻은 값이다. 종래 기술에서 타겟(1)까지의 거리의 지지사(σ)는 최량상관 관계점(s)인 시프트 값으로부터 용이하게 계산된다.
이번에는 도 2를 참조하여 상관치 연산법(30)과 신뢰도 검사법(50)의 연산에 대한 예를 설명하는데, 양 방법 모두 프로세서(70) 내에 소프트웨어로서 설치되어 있다. 도 2a는 상관치 연산법(30)의 연산예를 나타내는 흐름도이고, 도 2b는 신뢰도 검사법(50)의 연산예를 나타내는 흐름도이다. 도 2a에 도시된 상관치 연산법(30)의 예에서는, 상관치(Vk)를 계산하기 위한 기초로서 윈도우부 데이터에 대한 차분 데이터를 사용하고, 윈도우부 데이터(WD1)와 분할 그룹(d1)에 대한 데이터 개수는 (i)이며 윈도우부 데이터(WD2)와 분할(d2)에 대한 데이터 개수는 (j)이다. 또한, 대응하는 센서 데이터는 각각 Di, Dj로 표시한다.
상관치 연산법(30)의 제1단계(S31)에서, 윈도우부 데이터(WD1, WD2)의 내부 데이터 개수(i, j)는 1로 초기화된다. 다음 단계(S32)에서, 윈도우부 데이터에 대한 데이터(Si, Sj)를 Dj+1과 Di, 그리고 Dj+1과 Di사이의 차분치로서 계산하고, 단계(S33)에서 (m) 데이터가 윈도우부 데이터에 존재하면 데이터 번호(i)를 m-1과 비교한다. (i)가 m-1보다 작으면 데이터 번호(i, j)는 단계(S34)에서 하나씩 증가되고 프로시저는 단계(S32)로 복귀한다. 차분 데이터에 대한 모든 연산이 수행되면, 프로시저는 단계(S33)에서 이 연산 루프를 이탈한다. 차분 데이터(Si, Sj)에 대한 연산이 수행되었으므로서, 단계(S35)에서 값(m)을 m-1로 치환하고, 그리고 나서 단계(S36)으로 진행하여 이후에 단계를 준비한다.
단계(S36)에서, 분할(d1, d2)의 조합 번호(k)에 대하여 최종치(ke)가 설정된다. ke는 2(m-n)일 수 있는데, 여기서 (n)은 각 분할에서의 데이터 개수이다. 합의 번호(k)는 변수로서 0으로 초기화된다.
다음으로, 단계(S36)에서, 시작 데이터 번호(is, js)는 조합 번호(k)가 0인 경우에 분할(d1, d2)에 대하여 설정된다. 도 1b에서 보는 바와 같이, is=m-n+1이고 js=1이다. 그리고, 최량 상관치(Vs)에 대하여 충분히 큰 값(Vm)이 설정되고, 연산 스위칭을 위한 스위치 플래그(SF)가 1로 설정된다. 그리고 나서, 조합 번호(k)에 대하여 상관치를 계산하고, 단계(37)에서 상관치 변수(V)를 0으로 설정하고 분할(d1, d2)의 데이터 번호 변수 (i, j)를 각각 (is, js)로 초기화하며 분할(d1)에 대한 데이터 번호 변수(i)의 최종치(ie)를 설정한다. 상기 최종치(ie)는 is+n-1일 수 있다.
다음의 단계(S38)에서는 상관치를 계산하는데, 이를 위해 분할(d1, d2)에 대한 차분 데이타(Si, Sj) 사이의 차이의 절대값을 상관치 변수(V)에 가산한다. 단계(S39)에서 변수(i)가 최종치(ie)에 도달하지 않았다고 판단하면, 단계(S40)에서 변수(i, j)를 각각 1만큼 증가시키고, 프로시저는 단계(S38)로 복귀한다. 변수(i)가 최종적으로 최종치(ie)에 도달하여 연산이 단계(S39)에서 단계(S41)로 이동하게 되면, 조합 번호(k)에 대한 분할(d1, d2)의 상관치(V)는 계산되었고 k번재 상관치(Vk)로서 메모리(72)에 저장된다. 단계(S42)에서 상관치(Vk)를 최량 상관치(Vs)와 비교하고, Vk가 더 큰 경우에는 이 값을 직접 저장한다. 그렇지 않은 경우에는, 단계(S43)에서 변수(k)의 현재값을 최량 상관치에 대응하는 시프트 값(s)으로서 저장하고 단계(S44)로 진행한다.
단계(S44)에서 조합 번호의 변수(k)는 최종치(ke)와 비교하여 (k)가 ke보다 작은지 검사한다. 이 검사의 결과는 초기에는 긍정으로 나오므로, 연산은 단계(S45)로 진행하여 스위치 플래그(SF)가 세팅되어 있는지를 검사한다. 단계(S36)에서 플래그(SF)를 1로 설정하였으므로 그 결과는 긍정적이고, 단계(S46)에서 분할(d1)의 시작 데이터 번호(is)를 하나 증가시켜 도 1b에 도시된 바와 같이 분할(d1)을 좌측으로 하나 시프트시킨다. 다음 단계(S48)에서, 스위치 플래그(SF)의 부호를 스위칭하고 조합 번호의 변수(k)를 증가히시킨다. 그리고 나서, 프로시저는 단계(S37)로 돌아가서 갱신된 변수(k)에 대하여 상관치(Vk)를 계산하기 시작한다. 이 계산이 종료하면, 연산은 단계(S45)로 진행한다. 스위치 플래그(SF)가 음수로 설정되었으므로, 판단 결과는 부정적이고, 단계(S47)에서 분할(d2)의 시작 데이터 번호(js)를 하나 증가시킴으로써 우측으로 시프트한다. 연산은 단계(S48)로 진행한다.
이후의 단계에서, 동일한 연산이 반복되어 조합 번호 변수(k)를 증가시키면서 상관치(Vk)를 계산한다. 변수(k)가 최종치(ke)와 같아지면, 프로시저는 단계(S44)에서 루프를 이탈하여 상관치 연산법(30)을 완료한다. 이 경우, 도 1b에서 조합(C0내지 Cke)에 대한 2(m-n)+1 상관치(Vk)가 도 1a의 프로세서(70)의 메모리(72)에 저장되고, 도 1c에 도시된 최량 상관치에 대응하는 시프트 값(s)도 또한 메모리(72)에 저장된다. 전술한 상관치 연산법(30)의 처리 과정은 차분 데이터(Si, Sj)를 사용하였지만, 단계(S31 내지 S35)는 생략할 수 있고, 단계(S38)에서 센서 데이터(Di, Dj)를 그대로 사용하는 경우에는 Di와 Dj사이의 차분치의 절대값을 사용하여 상관치(V)를 계산할 수 있다.
도 2b의 신뢰도 검사법(50)의 처리 과정의 예를 설명한다. 단계(S51) 내지 단계(S54)는 도 1c에 도시된 바와 같이 메모리(72)로부터 판독한 최량 상관 관계점에서의 복수의 상관치(Vk)와 시프트 값(s)에 기초하여 최량 상관 관계의 정밀도 지시자로서 음방향 경사도(φ-)와 양방향 경사도(φ+)를 결정한다. 단계(S51)에서 φ-는 VkS-1-VkS-1로부터 계산하고, 단계(S54)에서 그 양수 여부를 검사한다. 단계(S52, S54)에서 모두 양수인 경우에는, 도면에 도시된 본 실시예에서는, 단계(S55)에서 음방향 경사도(φ-)와 양방향 경사도(φ-)의 평균치(φav)를 결정한다.
다음 단계(S56)에서, 음방향 경사도(φ-)와 양방향 경사도(φ+)의 크기를 비교한다. 음방향 경사도(φ-)의 크기가 양방향 경사도(φ+)의 크기보다 클 경우에는, 단계(S57)에서 평균 경사도(φav)에 φ-+를 곱한다. 그렇지 않은 경우에는, 단계(S58)에서 φ-+를 곱한다. 이러한 방식으로 정정을 수행하여, 평균 경사도(φav)가 양 경사도 중에서 완만한 쪽에 근접하도록 한다. 그 정정 결과를 정밀도의 지시자로서 사용하는데, 경사도(φ-, φ+)가 비대칭일 경우에는 특히 그러하다.
앞의 예에서, 경사도(φ)는 시야(S) 내의 이미지 대비도에 의해 더 정정된다. 대비도는 이미지 패턴 내의 명도 범위인데, 단계(S59)에서 윈도우부에 대응하는 (m)개의 차분 데이터(Si, Sj)의 절대값의 합의 평균치로서 대비도 값(C)을 계산한다.(도면에서 Σ로 표시) 기술한 실시예에서는, 경사도(φ)를 대비도 값(C)으로 나누어 유효 경사도(φe)를 얻는다. 대비도(C)에 의한 경사도(φ)의 정정은 여러 가지 과정을 이용하여 이룰 수 있다.
단계(S60)에서, 유효 경사도(φe)가 소정의 한계 레벨(φl) 이상인지를 검사한다. 이상인 경우에는, 단계(S61)에서 최량 상관 관계에 대응하는 시프트 값(s)으로부터 타겟(1)의 거리 지시자(σ)를 계산한다. 지시자(σ)는 윈도우부 데이터의 데이터 항목 개수(m), 및 시프트 값(s)에서 분할의 데이터 항목의 개수(n)에 대한 단순 선형 함수이고, 따라서 대단히 간단하게 계산할 수 있다. 단계(S60, S52 또는 S54)에서의 판단 결과가 부정인 경우에는 지시자(σ)그 클리어되는데, 이는 타겟(1)의 검출이 실패하였다는 것을 나타낸다. 단계(S63)에서, 거리 지시자(σ)가 출력되고, 이로써 신뢰도 검사법(50)은 완료된다.
신뢰도를 평가한 타겟(1)의 검출 결과를 사용하여 시야 특정법(31)에서 시야(S)를 특정한다. 예를 들어, 검출 결과가 신뢰할 수 없다면, 타겟(1)을 정확히 포착할 수 있는 시야(S)는, 시야(S)의 방향 또는 크기를 변경하여 얻은 다른 검출 결과로부터 판단할 수 있다. 이 경우, 유효 경사도(φe)를 효과적으로 참고할 수 있다.
전술한 바와 같이, 본 발명에 따른 이미지 센서 방법은 상이한 광경로를 통한 광학 이미지를 수신하여 이미지 패턴을 나타내는 이미지 데이터 쌍을 제공하기 위한 이미지 센서 쌍을 사용하고, 상관치 연산법에 의해 이미지 데이터로부터 추출한 윈도우부 데이터로부터 각 이미지 데이터로부터 검출되는 검출 타겟 포착용 시야에 대응하는 분할 그룹을 추출하고, 각 그룹에서 분할 위치를 순차적으로 시프트 하여 각각이 분할 쌍을 포함하는 조합을 제공하고, 각 조합에 대한 분할 사이의 상관치를 계산하며, 신뢰도 검사법에 의해 최량 상관 관계의 신뢰도에 대한 지시자로서 최량 상관 관계점의 정밀도를 결정하되 상기 최량 상관치를 계산한 시프트 값 근방에서의 상관치 변화 상태에 기초하여 상기 정밀도를 얻고, 이로써 상기 검출 타겟이 상기 윈도우부 데이터에 대응하는 윈도우를 통해서 본 시야 내에 있는지를 판단하고 상기 정밀도가 소정의 레벨 이상인 경우에만 타겟이 존재한다고 판단한다. 그리고 나서, 타겟까지의 거리를 계산한다. 이러한 구성에 의해, 타겟과는 상이한 거리를 갖는 다른 물체의 이미지가 혼재된 것에 의해 발생되는 잘못된 검출 결과를 제거하여 타겟까지의 거리를 정확하게 검출할 수 있고, 신뢰도 지시자를 사용하여 타겟을 정확히 포착할 수 있는 시야를 설정할 수 있다.
신뢰도 기준으로서, 본 실시예에서는 최량 상관 관계점 전후에서의 복수의 상관치의 경사도의 평균값을 사용하였다. 이러한 방법의 장점은 정확한 정밀도를 용이하게 계산할 수 있다는 점이다. 최량 상관 관계점의 양방향의 경사도 중에서 보다 완만한 경사를 사용하고 정정값에 의해 양 경사도의 평균값이 보다 완만한 경사도 값에 근접하도록 하는 본 발명의 실시예는 신뢰도에 대한 정밀한 평가 기준을 제공하고, 또한 잘못된 검출 결과를 제거한다.
또한, 본 발명에서 시야 내의 이미지 대비도에 따라 정정을 수행하는 실시예는 검출 결과의 신뢰도를 평가함에 있어서 전술한 실시예에 비해 보다 더 합당한 기준을 제공할 수 있다. 정정용 대비도 값으로서 윈도우부 데이터에 대한 차분치의 절대값의 합을 사용하는 실시예에 의하면, 간단한 계산을 통해 보다 정확한 대비도 값을 얻을 수 있다. 더욱이, 대비도 계산에 사용된 차분치에 기초하여 정정 값을 계산하는 실시예에 의하면, 원래 윈도우부 데이터를 이용하여 정정값을 계산하는 실시예에 비해 보다 더 정확한 검출 결과를 얻을 수 있다.

Claims (7)

  1. 상이한 광경로를 통한 광학 이미지를 수신하여 이미지 패턴을 나타내는 이미지 데이터 쌍을 제공하기 위한 이미지 센서 쌍을 사용하는 이미지를 사용한 거리 검출 방법에 있어서, 상관치 연산 방법(correlation value calculation method)에 의해 이미지 데이터로부터 추출한 윈도우부 데이터(window part data)로부터 각 이미지 데이터로부터 검출되는 검출 타겟 포착용 시야에 대응하는 분할 그룹을 추출하고, 각 그룹에서 분할 위치를 순차적으로 시프트하여 각각이 분할 쌍을 포함하는 조합을 제공하고, 각 조합에 대한 분할 사이의 상관치를 계산하며, 신뢰도 검사 방법(reliability test method)에 의해 최량 상관 관계의 신뢰도에 대한 지시자로서 최량 상관 관계점의 정밀도(precision)를 결정하되 상기 최량 상관치를 계산한 시프트 값 근방에서의 상관치 변화 상태에 기초하여 상기 정밀도를 얻고, 이로써 상기 검출 타겟이 상기 윈도우부 데이터에 대응하는 윈도우를 통해서 본 시야 내에 있는지를 판단하고 상기 정밀도가 소정의 레벨 이상인 경우에만 상기 정밀도로부터 상기 검출 타겟까지의 거리를 검출하는 것을 특징으로 하는 이미지를 사용한 거리 검출방법.
  2. 제1항에 있어서, 상기 신뢰도 검사 방법이 상기 최량 상관 관계의 신뢰도 지시자로서 상기 최량 상관 관계점 전후에서의 복수의 상관치의 경사도의 평균치를 이용하는 것을 특징으로 하는 이미지를 사용한 거리 검출 방법.
  3. 제1항에 있어서, 상기 신뢰도 검사 방법이 상기 최량 상관 관계의 신뢰도 지시자로서 상기 최량 상관 관계점 전후에서의 복수의 상관치의 경사도 중에서 보다 완만한 것을 이용하는 것을 특징으로 하는 이미지를 사용한 거리 검출 방법.
  4. 제1항에 있어서, 상기 신뢰도 검사 방법이 윈도우부의 이미지 대비도에 기초하여 상기 최량 상관 관계의 신뢰도 지시자로서 사용되는 정밀도를 정정함으로써 유효 정밀도(effective precision)를 제공하는 것을 특징으로 하는 이미지를 사용한 거리 검출 방법.
  5. 제4항에 있어서, 상기 대비도의 지시자로서 상기 윈도우부에서 내부 데이터에 대한 차분치의 절대값의 합을 사용하는 것을 특징으로 하는 이미지를 사용한 거리 검출 방법.
  6. 제1항에 있어서, 상기 상관치 연산 방법이 상기 윈도우부 데이터에서 내부 데이터에 대한 차분 데이터에 기초하여 상관치를 계산하는 것을 특징으로 하는 이미지를 사용한 거리 검출 방법.
  7. 제1항에 있어서, 시야 특정 방법이 제공되어 상기 상관치 연산방법과 결합하여 이미지 포착 시야의 방향과 폭을 특정하고, 이미지 데이터로부터 상기 시야에 대응하는 윈도우부 데이터를 추출하며, 상관치 계산을 위한 데이터를 제공하는 것을 특징으로 하는 이미지를 사용한 거리 검출 방법.
KR1019970037530A 1996-08-06 1997-08-06 이미지들을사용한거리검출방법 KR100525931B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP20668796A JP3216792B2 (ja) 1996-08-06 1996-08-06 映像による距離検出方法
JP96-206687 1996-08-06

Publications (2)

Publication Number Publication Date
KR19980018429A true KR19980018429A (ko) 1998-06-05
KR100525931B1 KR100525931B1 (ko) 2005-12-26

Family

ID=16527458

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970037530A KR100525931B1 (ko) 1996-08-06 1997-08-06 이미지들을사용한거리검출방법

Country Status (4)

Country Link
US (1) US6021209A (ko)
JP (1) JP3216792B2 (ko)
KR (1) KR100525931B1 (ko)
DE (1) DE19732883A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3216792B2 (ja) * 1996-08-06 2001-10-09 富士電機株式会社 映像による距離検出方法
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US20070162248A1 (en) * 1999-07-06 2007-07-12 Hardin Larry C Optical system for detecting intruders
US6675121B1 (en) * 1999-07-06 2004-01-06 Larry C. Hardin Velocity measuring system
JP4097869B2 (ja) * 2000-01-17 2008-06-11 日本放送協会 画像の対応点信頼度推定装置と対応点探索装置
US6317691B1 (en) * 2000-02-16 2001-11-13 Hrl Laboratories, Llc Collision avoidance system utilizing machine vision taillight tracking
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
JP2002350129A (ja) * 2001-05-23 2002-12-04 Canon Inc 計測装置
US7262798B2 (en) * 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography
US7221777B2 (en) * 2002-07-02 2007-05-22 Honda Giken Kogyo Kabushiki Kaisha Image analysis device
EP1391778A1 (en) * 2002-08-08 2004-02-25 Seiko Precision Inc. Apparatus for detecting the inclination angle of a projection screen and projector comprising the same
JP2004234423A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2007139756A (ja) * 2005-10-17 2007-06-07 Ricoh Co Ltd 相対位置検出装置、回転体走行検出装置及び画像形成装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP5544497B2 (ja) * 2012-03-13 2014-07-09 株式会社モルフォ 画像処理装置、画像処理方法及び画像処理プログラム
US10498948B1 (en) 2018-06-05 2019-12-03 Applied Materials, Inc. Methods and apparatus for absolute and relative depth measurements using camera focus distance

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4561749A (en) * 1983-02-02 1985-12-31 Nippon Kogaku K.K. Focus detection apparatus
US4969036A (en) * 1989-03-31 1990-11-06 Bir Bhanu System for computing the self-motion of moving images devices
JP2676953B2 (ja) * 1989-10-27 1997-11-17 富士電機株式会社 映像位置検出装置
JP2676985B2 (ja) * 1990-06-26 1997-11-17 富士電機株式会社 光学器械の対象検出方式
JPH0588077A (ja) * 1991-06-20 1993-04-09 Fuji Photo Film Co Ltd 距離検出装置および方法
JPH0546386A (ja) * 1991-08-13 1993-02-26 Hitachi Ltd データプロセツサ
US5422828A (en) * 1991-12-18 1995-06-06 Choate; William C. Method and system for image-sequence-based target tracking and range estimation
JP3343697B2 (ja) * 1992-12-31 2002-11-11 株式会社リコー 合焦状態又は被写体距離検出装置
JP3197979B2 (ja) * 1993-04-19 2001-08-13 富士フイルムマイクロデバイス株式会社 位相差距離検出装置および方法
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
US5586063A (en) * 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
JPH0771916A (ja) * 1993-09-06 1995-03-17 Fuji Film Micro Device Kk 車載用距離計測装置
JP3059035B2 (ja) * 1993-12-14 2000-07-04 三菱電機株式会社 距離測定装置
JPH07306038A (ja) * 1994-05-13 1995-11-21 Nippon Soken Inc 距離測定装置
JPH0894916A (ja) * 1994-09-28 1996-04-12 Nikon Corp 焦点検出装置
JP3216792B2 (ja) * 1996-08-06 2001-10-09 富士電機株式会社 映像による距離検出方法

Also Published As

Publication number Publication date
DE19732883A1 (de) 1998-02-12
JPH1047955A (ja) 1998-02-20
US6021209A (en) 2000-02-01
KR100525931B1 (ko) 2005-12-26
JP3216792B2 (ja) 2001-10-09

Similar Documents

Publication Publication Date Title
KR19980018429A (ko) 이미지를 사용한 거리 검출 방법
KR930004880B1 (ko) 추미식 차간거리 측정장치
JP2768042B2 (ja) 距離測定装置
JPH0450611A (ja) 距離測定装置
US6697146B2 (en) Range finder for finding range by image realization
JP3562250B2 (ja) 先行車両検出装置
KR940000019B1 (ko) 거리측정장치
JPH07120258A (ja) 車載カメラを用いた距離検出装置
JP3807583B2 (ja) 道路領域判定装置
JPH0552562A (ja) 先行車追尾用車間距離検出装置
JPH07244717A (ja) 車両用走行環境認識装置
US20020048011A1 (en) Rangefinder device and camera
JPH1096607A (ja) 物体検出装置および平面推定方法
JPH1151644A (ja) 車両用距離測定装置
JPH11223516A (ja) 3次元画像撮像装置
JP2001004367A (ja) 測距演算装置
JP2635232B2 (ja) 車間距離検出装置
JP3373331B2 (ja) 車間距離検出装置
JP3632315B2 (ja) 距離検出装置
JPH0933248A (ja) パッシブ三角測量式距離計
JP3354448B2 (ja) 車両用距離測定装置
JPH07190757A (ja) 距離測定装置
JP3819549B2 (ja) 車両用距離測定装置
JP3923181B2 (ja) 車両用距離測定装置
JP2527231B2 (ja) 距離測定装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081024

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee