KR101011515B1 - 결합된 에지 크기 및 에지 방향 분석 기술들을 이용한 이미지 데이터 내의 물체 인식 방법 - Google Patents

결합된 에지 크기 및 에지 방향 분석 기술들을 이용한 이미지 데이터 내의 물체 인식 방법 Download PDF

Info

Publication number
KR101011515B1
KR101011515B1 KR1020080101345A KR20080101345A KR101011515B1 KR 101011515 B1 KR101011515 B1 KR 101011515B1 KR 1020080101345 A KR1020080101345 A KR 1020080101345A KR 20080101345 A KR20080101345 A KR 20080101345A KR 101011515 B1 KR101011515 B1 KR 101011515B1
Authority
KR
South Korea
Prior art keywords
interest
image
regions
threshold
detected
Prior art date
Application number
KR1020080101345A
Other languages
English (en)
Other versions
KR20090038388A (ko
Inventor
제이슨 에이. 세피크
Original Assignee
록히드 마틴 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 록히드 마틴 코포레이션 filed Critical 록히드 마틴 코포레이션
Publication of KR20090038388A publication Critical patent/KR20090038388A/ko
Application granted granted Critical
Publication of KR101011515B1 publication Critical patent/KR101011515B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

결합된 에지 크기 및 에지 방향 분석 기술들을 이용하여 이미지 내의 관심 영역들을 검출하는 방법들이 제시된다. 일 실시예는 추적 또는 무기 시스템들에 대한 가능한 타겟들이 될 수 있는 해양 환경에서 핫 스폿들을 검출하기 위해 열 이미징 데이터를 이용하는 것에 특징이 있다. 에지 크기 및 에지 방향 데이터가 강도 이미지로부터 유도된 다음, 강도 이미지와 결합되고, 노이즈 및 배경 요소들을 제거하기 위해 형태학적으로 분석된다. 이후, 결합된 이미지 데이터는 선택적으로 필터링되어, 수평의 비 타겟 요소들을 제거한 다음, 타겟 크기 정보에 대해 더 분석됨으로써, 검출되고 분석된 핫 스폿들중 어느 것이 유효한 타겟들인지를 결정한다. 다른 실시예는 입력으로서, 관련된 에지 크기 및 에지 방향 이미지들과 함께, 강도 이미지를 수신하는 것에 특징이 있으며, 상기 에지 크기 및 에지 방향 이미지들은 모두 검증 방법 외의 수단에 의해 생성된다. 또 다른 실시예는 수평의 이미지 요소들을 선택적으로 필터링하지 않는 검출 방법에 특징이 있다.
물체 인식, 에지 크기, 에지 방향, 형태학적 분석, 강도 이미지, 노이즈

Description

결합된 에지 크기 및 에지 방향 분석 기술들을 이용한 이미지 데이터 내의 물체 인식 방법{METHOD OF OBJECT RECOGNITION IN IMAGE DATA USING COMBINED EDGE MAGNITUDE AND EDGE DIRECTION ANALYSIS TECHNIQUES}
본 발명은 일반적으로 다차원 이미지들의 분석에 관한 것으로서, 보다 특정하게는 배경으로부터 관심 영역(area of interest) 또는 물체(object)의 형상 및 크기를 추출하는 시스템 및 방법에 관한 것이다.
물체 인식은 관심있는 특정의 물체들 또는 영역들을 식별하기 위해 2차원 이미지의 분석을 필요로 한다. 많은 시스템들은 3-단계 프로세스를 포함한다. 이러한 프로세스에서는, 프리 스크리너(pre-screener)가 관심 영역들 또는 후보 물체들을 식별하는데, 이들은 이후 각 영역을 보다 상세하게 평가하는 중간 판별기(intermediate discriminator)에 의해 분석된다. 이후, 나머지 영역들을 추가적으로 분석하여, 이들을 명확히 식별하고, 이미지 내에서의 이들의 위치를 설정한다.
전방 적외선 관측 장비(Forward-looking Infrared, FLIR)와 같은 2차원 이미징 시스템들은 거의 연속적인 방식으로 유입 정보를 분석하고, 카메라 또는 센서에 의해 식별되는 임의의 관심 영역들을 식별하여 위치를 정해야 한다. 이미지 분석을 위한 하나의 방법은 블랍 분석(blob analysis)으로서 알려져있다. 당업자에게 그 기본 원리가 알려져있는 이러한 분석 방법은 고속의 동작을 가능하게 하며, 이상적인 조건들 하에서는 상당히 정확하다. 이는, 픽셀들이 서로 인접하는 경우 이러한 픽셀들을 블랍(blob)으로 그룹화하는 연결성 분석(connectivity analysis)이라 불리는 방법이다. 식별되는 각 블랍에 대해, 영역, 주변 길이(perimeter) 및 위치와 같은 특성들이 결정될 수 있다. 하나의 주요 한계는, 이미지 내에 추가의 피쳐(feature)들이 존재하는 경우 그 속도 및 효율성이 상당히 저하될 수 있다는 것이다. 이러한 추가의 피쳐들은 부가적인 처리 및 계산 자원들을 필요로 하게 되어, 성능을 저하시킨다.
이와같은 블랍 파인딩(blob-finding) 방법은, FLIR 시스템에서, 예상되는 타겟의 개략적인 크기 및 형상을 갖는 웜 물체(warm object)를 찾는 데에 이용된다. 이것은, 열로 변하기 전에는 태양으로부터의 직접 방사를 검출할 수 없었던 기존의 FLIR 시스템들에서 적절했다. 보다 최근의 더 작은 FLIR 시스템들은 보다 짧은 파장들을 택하며, 종종 반사되는 햇빛에 의해 보이지 않게 될 수 있다. 이는, 동일한 해상도를 달성하기 위해 더 넓은 스펙트럼에서 선택해야 하는 보다 작은 센서들 및 그에 따른 보다 작은 구경(aperature)들을 필요로 함으로 인해 야기되는 결과이다. 열을 직접 방사하지 않는 것은 블랙(black)으로서 나타내는 큰 구경의 FLIR 시스템들과 달리, 작은 구경의 시스템들은 자신들의 시야에 있는 거의 모든 피쳐로부터 반사되는 태양 방사를 포획하는 경향이 있다. 이는 잠재적인 거짓 경보(false alarm)가 검출되는 수를 크게 증가시키는데, 그 이유는 센서가 자신의 시야 내에서 적외선 태양 에너지를 반사하는 모든 것을 검출하기 때문이다. 픽셀이 배경 픽셀인지 아니면 물체 픽셀인지를 검출할 때 즉시 결정할 수 있는 어떠한 확실한 방법도 없기 때문에, 센서는 들어오는 모든 픽셀들을 분석하여, 이들이 잠재적인 타겟의 일부인지의 여부를 결정해야 한다.
이러한 시스템들이 추가의 평가를 요구하는 많은 영역들에 직면하게 되는 증가되는 처리 요건들때문에, 이러한 시스템들의 효율성은 상당히 떨어지게 된다. 어떠한 최악의 경우, 시스템은 들어오는 데이터의 흐름을 유지할 수 없음으로 인해 효율적으로 동작할 수 없게 된다.
본 발명은 이미지 내에서 관심 영역들을 식별하는 시스템 및 방법에 관한 것으로서, 에지 크기 및 에지 방향 분석의 결합을 이용한다. 보다 구체적으로, 이미지는, 주위 배경과 대비될 뿐 아니라, 빌트인(built-in) 및 사용자에 의해 정의되는 강도 및 형상 기준들의 결합을 충족시키는 영역들에 대해 분석된다.
현재의 블랍 파인딩 검출 알고리즘들에서는, 검출이 정확하게 이루어지는 것과 물체들 또는 영역들이 부정확하게 이루어지는 '거짓 경보들'의 사이에는 균형이 있다. 감도가 증가하고, 검출 파라미터들이 보다 넓게 구성되기 때문에, 검출의 레벨은 증가하지만, 거짓 경보들의 비율 역시 그에 대응하게 증가하게 된다. 본 발명은, 예를 들어 검출된 블랍의 형상 및 그 검출 풋프린트(footprint)의 크기를 모두 분석함으로써, 거짓 경보의 검출을 증가시키지 않으면서, 증가된 감도를 통해 검증 정확도를 증가시킬 수 있다.
단일의 입력 이미지에 대해서만 작용하는 다른 검출 방법들과 달리, 본 발명의 방법은 최초의 강도 이미지, 에지 크기 이미지 및 에지 방향 이미지를 이용한다. 이러한 이미지들을 결합하여 이용하게 되면, "거짓 경보"의 검출을 크게 증가시키지 않으면서 이미지 내의 고 콘스트라트 요소(high-contrast element) 및 저 콘스트라스트 요소 모두를 검출할 수 있게 된다. 이것은, 심지어 증가된 감도 레벨들에서 조차도, 알고리즘이 검출된 블랍의 형상을 여전히 확인함으로써, 형상 및 크기에 대해 검출 파라미터들을 충족시키지 않으면 폐기하기 때문에 가능하다.
주위 배경 보다 큰 실체의 강도에 의존하는 다른 검출 방법들과 달리, 본 발명의 방법은 실체 또는 실체들과 주위 배경 간의 강도 차이에 집중한다. 이에 의해, 본 발명의 방법은, 검출을 요구하는 물체들 또는 영역들이 자신들의 주위 배경과 다른 이미지 강도를 갖는 임의의 입력 이미지에 대해 기능할 수 있게 된다. 중파(mid-wave) 및 장파 적외선, 비디오 및 밀리미터파(millimeter-wave)를 포함하는 임의의 이미지 입력은 본 발명의 방법을 이용하여 분석될 수 있다. 사용자에 의해 정해지는 검출 파라미터들은 임의의 이용가능한 형태의 이미지를 이용하여 임의의 타입의 물체 또는 영역 검출 패러다임을 수용하도록 조정될 수 있다.
또한, 다른 검출 방법들과 달리, 감도 및 확실한 검출 비율이 증가함에 따라, 처리 로드는 적절한 레벨로 유지된다. 충분히 복잡한 검출 방법이 궁극적으로는 이미지 내의 모든 관심 영역을 정확하게 식별할 수 있기는 하지만, 본 발명의 방법은 계산적으로 충분한 시도에 의해 이미지 내의 관심 물체들 및 영역들을 신속하고 정확하게 검출할 수 있게 함으로써, 실시간 동작을 촉진시킨다.
본 발명의 방법의 바람직한 실시예에서, 목표들중 하나는 거짓 경보들인 핫 스폿(hotspot)들의 추출을 최소화하면서 중파 적외선 이미지로부터 타겟형(target-like)의 핫 스폿들을 추출하는 것이다. 입력 데이터로서 공급되는 타겟 크기 파라미터들에 의해, 본 발명의 방법은 바다위 또는 개방된 땅 등의 특정의 환경들에 대해 조정될 수 있게 된다. 이는, 알려진 그리고 알려지지 않은 타겟들 및 타겟 영역들을 모두 식별하는 데에 이용될 수 있다. 본 실시예는 미사일 시스템들 및 기타 무기 시스템들을 위한 타겟 획득 시스템으로서 의도된다.
대안적인 실시예들에서, 목표는 x-레이 스캐너를 통과하는 수화물 내의 크고 밀도 높은 물체들을 식별하고, 비디오 모니터링을 이용하여 차량들을 검출하고 추적하거나, PET 스캔 상에서 관심있는 영역들을 식별하는 것이다. 본 발명의 방법은, 자동화된 형태의 물체 또는 영역 검출, 추적 또는 식별이 요구되는 모든 방식에 효율적으로 적용될 수 있다.
본 발명의 방법의 바람직한 실시예에서, 적외선 강도 이미지는 임계 크기 및 임계 방향 이미지를 생성하는 데에 이용된다. 이후, 이러한 이미지들은 임계 이미지들의 일부가 아닌 픽셀들의 임의의 영역들이 추가적으로 분석되지 않도록 하는 데에 이용된다. 이는 후속 검출 단계들에서 처리될 필요가 있는 정보량을 크게 감소시킨다.
또한, 에지 및 크기 검출 방식들의 결합은 에지 트레이싱(edge tracing) 또는 템플릿 매칭(template matching)과 같이 계산에 비용이 많이 드는 단계들의 필요성을 제거한다. 방향 이미지는, 그것이 비교적 타원 형상 패턴의 방사 에너지인지를 체크함으로써, 타겟 영역이 단지 수평선 또는 반사된 태양의 섬광이 아님을 보장하는 데에 이용된다. 크기 이미지는 강도 이미지를 마스크하고, 후속 검출 단계들이 이미지 내의 충분한 콘트라스트를 갖는 영역들 상에만 집중될 수 있도록 하는 데에 이용된다.
강도 또는 방향 기울기들에 있어서 너무 선형적인 임의의 핫 스폿들을 폐기한 후, 본 방법의 실시예는 계속해서 수평선들 또는 유사한 수평의 배경 효과들의 존재에 의해 검출된 핫 스폿들 내에 들어간 임의의 왜곡 또는 노이즈를 제거한다. 다른 실시예들에서는, 수평선들의 제거가, 거짓의 양의 핫 스폿들 또는 왜곡되거나 불명료한 유효 타겟들을 생성할 수 있는 나무 또는 다른 자연물들의 제거를 대신할 수 있다. 이러한 조정은, 장파 적외선에 대해서는 중요하지 않지만, 중파 적외선, 밀리미터파 및 비디오 검출기들의 효율성을 증가시키는 데에는 가장 중요한데, 그 이유는 장파 적외선 검출기들과 달리, 다른 센서들은 반사된 직접적인 태양 방사를 검출하기 때문이다.
본 방법의 일 실시예에서, 핫 스폿의 일반적인 형상을 신속하게 확인하고 배경 왜곡들을 제거함으로써, 일단 핫 스폿들의 리스트가 삭감되면, 나머지 핫 스폿들은 자신들의 전체적인 크기 및 강도에 기초하여 평가된다. 또한, 핫 스폿들은, (유용한 경우) 알려진 타겟 정보에 대해 평가될 수 있다. 본 방법의 실시예의 출력은 타겟들의 리스트인데, 이 리스트는 이후 다른 동작을 위해 무기 또는 추적 시스템에 전달될 수 있다.
본 발명의 추가의 적용가능한 범위는 하기에 제공되는 상세한 설명으로부터 명확해질 것이다. 하지만, 상세한 설명 및 특정의 예들이 본 발명의 바람직한 실시예들을 나타내기는 하지만, 단지 예시적으로 제공된 것임을 이해해야 한다. 왜냐하면 본 발명의 정신 및 범위 내에서 다양한 변경들 및 수정들이 상세한 설명으로부터 당업자에게 자명하기 때문이다.
본 발명은 하기에 주어지는 상세한 설명 및 단지 예시적으로 제공되어 본 발명을 한정하지 않는 첨부 도면들로부터 충분히 이해될 것이다.
도면들은 본 발명의 상세한 설명에서 상세히 설명될 것이다.
본 발명의 배경으로부터 관심 영역 또는 물체의 형상 및 크기를 추출하는 시스템 및 방법은, 계산적으로 충분한 시도에 의해 이미지 내의 관심 물체들 및 영역들을 신속하고 정확하게 검출할 수 있게 함으로써, 실시간 동작을 촉진시킬 수 있다.
또한, 본 발명은 자동화된 형태의 물체 또는 영역 검출, 추적 또는 식별이 요구되는 모든 방식에 효율적으로 적용될 수 있다.
하기의 본 발명의 상세한 설명은 첨부 도면들을 참조한다. 다른 도면들 내의 동일한 참조 부호들은 동일하거나 유사한 요소들을 나타낸다. 또한, 하기의 상세한 설명은 본 발명을 한정하지 않는다. 대신에, 본 발명의 범위는 첨부된 청구항들 및 그 등가물들에 의해서만 한정된다.
여기에서 설명되는 본 발명의 방법은 이미지 내에서 관심 물체들 또는 영역들을 자동으로 검출하는 것에 관한 것이다. 이미지는 유입 데이터 스트림의 일부 또는 정지 이미지(still image)가 될 수 있으며, 적외선, 비디오, x-레이, 자기 공명, 밀리미터파 또는 이들의 결합 또는 혼합을 포함한 임의 수의 이미징 시스템들로부터 발생될 수 있다.
도 1은 본 발명에 따라 적응되고 프로그램되는 컴퓨터 시스템의 다이어그램이다. 소프트웨어 프로그램으로서 생성되는 본 방법의 일 실시예는 그 프로그램이 이용되었는 지의 여부에 따라 시스템 메모리(2020)의 애플리케이션 프로그램들(2050) 섹션 또는 하드 드라이브(2150)의 애플리케이션 프로그램들(2170) 영역에 상주할 수 있다. 본 방법의 이러한 실시예에 공급되는 검출 파라미터들은 시스템 메모리(2050)의 프로그램 데이터(2040) 부분 또는 하드 드라이브(2150)의 프로그램 데이터(2170)에 상주할 수 있다. 대안적으로, 본 방법의 프로그램 실시예 또는 검출 파라미터들은 테이프, 자기 디스크, 광 디스크 또는 다른 제거가능한 저장 매체와 같은 제거가능한 매체(2110) 상에 저장될 수 있다. 또한, 검출 파라미터들은 키보드, 마우스, 터치 스크린, 마이크로폰, 무선 수신기 또는 MODEM과 같은 입력 장치(2130)를 통해 프로그램 실시예에 제공될 수 있다.
또한, 센서 어레이, 카메라, 무선 수신기 또는 MODEM과 같은 입력 장치(2130)는 본 방법이 동작할 수 있도록 입력 이미지 데이터를 공급하는 바람직한 방법이다. 이러한 입력 이미지 데이터는 또한 하드 드라이브(2150)의 프로그램 데이터(2170) 섹션에 저장되거나, 제거가능한 매체(2110) 포맷 상에 공급될 수 있다.
본 방법의 프로그램 실시예의 출력은 추가의 처리를 위해 시스템 메모리(2020)의 프로그램 데이터(2040) 섹션 또는 하드 드라이브(2150)의 프로그램 데이터(2170) 섹션에 전달되거나, 또는 제거가능한 매체(2110) 포맷 상에 저장될 수 있다. 출력은 또한, 모니터, 프린터, 무선 전송기, 스피커 또는 모뎀과 같은 출력 장치(2090)를 통해, 디스플레이되고, 프린트되고, 전송되거나, 또는 그렇지 않으면 생성된다.
이러한 프로그램 실시예가 본 방법의 바람직한 실시예이기는 하지만, 본 방 법에서 설명되는 기능적인 부분들 및 기능적인 단계들은 ASIC, FPGA 또는 CPLD와 같은 다양한 전문 회로들 및 회로 어셈블리들을 통해서도 이루어질 수 있다.
도 3은 무기들 및 추적 시스템들에 대한 잠재적인 타겟들을 검출하도록 된 본 발명의 장치의 일 실시예를 포함하는 기능 유닛들의 블록도를 도시한다. 입력 장치(3010)로부터 이미지 데이터(3020)가 수신되어 관심 영역 검출기(3030)에 전송되며, 이러한 관심 영역 검출기(3030)는 가능한 모든 관심 영역들을 식별한 다음, 본 방법의 검출 단계(1-20)의 일 실시예에 의해 더 분석될 수 있도록 이러한 관심 영역들을 마크한다.
다음으로, 상기 장치의 일 실시예는, 이미지 데이터(3020)와 함께, 검출된 관심 영역들(3040)을, 부정확하게 검출된 영역들 및 다른 점에서는 적절하게 검출된 영역들 내의 왜곡들 및 노이즈를 제거하기 위해 검출된 영역들의 리스트를 잘라내는 제 1 패스를 위해 노이즈 및 배경 필터(3110)에 전달한다. 이는, 본 방법의 필터링 단계(1-30)의 일 실시예에 따라 이루어진다. 또한, 이 단계에서, 타겟 크기 정보(3060)가 입력 장치(3050)를 통해 필터에 전달된다. 이 데이터는 이미지 내에 존재할 수 있는 노이즈 및 왜곡들의 특정한 특성을 결정하는 것을 돕는다. 본 발명의 대안적인 실시예들에서, 타겟 크기 정보 및 다른 검출 파라미터들은 검출 프로세스의 임의의 시점에서 도입될 수 있다. 이러한 검출 파라미터들은 요구에 따라 이용되는 메모리 내에 미리 정의될 수 있다.
다음으로, 상기 장치의 일 실시예는, 타겟 크기 정보(3060)와 함께, 필터링된 관심 영역들(3070)을, 부정확하게 검출된 영역들을 제거하고 검출된 영역들을 특정의 타겟 크기 및 타겟 갯수 데이터에 대해 평가하는 제 2 패스를 위해 타겟 유효화 유닛(validation unit)(3080)에 전달한다. 이는, 본 방법의 유효화 단계(1-40)의 일 실시예를 통해 이루어진다. 본 장치의 이러한 부분의 일 실시예로부터의 결과적인 출력이 최종 타겟들의 리스트(3090)인데, 이는 전송, 디스플레이, 저장 또는 추가의 분석을 위해 출력 장치(3100)에 전달된다.
도 4는 본 방법의 일 실시예의 하이 레벨(high-level)도이다. 본 방법의 실시예들은 알고리즘 입력들을 받는 것(1-10)으로부터 시작되는 이러한 기본적인 흐름도를 따르게 될 것이다. 여기에 나타낸 입력들(1-10)은 이미지 데이터 및 검출 파라미터들이다. 이미지 데이터는 본 방법을 수행하도록 프로그램된 또는 다르게 구성된 본 장치의 일 실시예에 연결된 검출기 또는 검출기들의 세트로부터 직접 수신되거나, 어떠한 유효한 형태의 신호 전송, 저장 매체(광 디스크들, 자기 디스크들, 자기 테이프, 플래시 메모리, 또는 기타 다른 저장 매체, 또는 이미지 데이터를 저장 또는 전송하는 데에 적절한 임의의 다른 정보 전달 수단 등)로부터의 적재(loading)를 포함하는 임의수의 다른 방법들로 공급될 수 있다.
검출 파라미터들은 본 방법의 일 실시예로 프로그램되거나, 또는 본 방법이 수행될 때에 내부 또는 외부 소스로부터 공급될 수 있다. 검출 파라미터들은 수신되는 이미지 데이터의 타입에 기초하여 본 방법의 일 실시예에 의해 결정되거나, 본 방법의 일 실시예의 사용자에 의해 공급될 수 있는데, 이는 특정의 파라미터들인 저장된 파라미터 세트들을 수동으로 입력하거나, 본 방법의 일 실시예에서 이미 저장되어 있는 미리 정의된 검출 파라미터들의 세트를 선택함으로써 이루어진다. 본 방법의 일 실시예에서 아직 존재하지 않는 검출 파라미터들의 입력은, 키보드, 터치 스크린을 포함하는 임의의 이용가능한 데이터 입력 수단, RF 또는 모뎀과 같은 데이터 전송 시스템의 이용, 광 디스크, 자기 디스크, 플래시 메모리, 자기 테이프, 프린트된 도큐먼트 또는 다른 데이터 저장 매체와 같은 저장 매체 상의 데이터의 이용을 통해 이루어질 수 있다.
이후, 이러한 알고리즘 입력들(1-10)은 잠재적인 관심 영역들을 검출하는 검출 단계(1-20)를 통과한다. 일단 검출 단계(1-20)가 수행되면, 본 방법의 다음 단계는 부정확하게 검출된 관심 영역들을 필터링하는 필터링 단계(1-300)이다. 부정확하게 검출된 영역들을 제거한 후에는, 유효화 단계(1-40)를 이용하여, 검출된 영역들이 유효한지를 결정한다. 유효화 단계(1-40)의 일 실시예는 필터링된 검출 결과들과 알고리즘 입력들(1-10)로서 공급된 검출 파라미터들을 비교한다. 유효화 단계(1-40)를 통과한 관심 영역들은 알고리즘 출력들(1-50)로서 전달된다. 여기에 나타낸 알고리즘 출력들(1-50)이 검출 리스트이기는 하지만, 이러한 출력들은 본 방법의 일 실시예에 따라 많은 형태를 취할 수 있다. 다른 형태의 출력들의 예로는, 강조된 특정 영역들을 갖는 이미지, 또는 크기 또는 강도와 같은 특징에 의해 분류되는 검출 영역들의 어레이가 있다.
도 5는 타겟 검출을 목적으로 하는 본 방법의 일 실시예의 하이 레벨도이다. 이러한 실시예에서는, 크기 및 방향 이미지들(2-20)을 발생시키기 위한 프로세스가 검출 단계(2-30)의 일 실시예 이전에 포함된다. 본 실시예의 알고리즘 입력들(2-10)은 강도 이미지 및 타겟 크기 정보이다. 본 방법의 다른 실시예들에서, 크기 및 방향 이미지들의 발생은 검출 단계(2-30)의 보다 넓은 특징에 포함되거나, 크기 및 방향 이미지들이 본 방법에서 입력으로서 공급될 수 있다. 도 2는 이러한 본 방법의 일 실시예를 도시한다. 본 방법의 이러한 실시예의 입력들(1000)은 크기 이미지 및 방향 이미지를 포함한다.
이미지 내의 에지 강도 및 에지 크기를 결정하기 위한 방법들로서 당업자들에게 소벨 이미지(sobel image)들이 널리 알려져있기는 하지만, 임의의 형태의 에지 강도 및 에지 크기 계산이 본 발명의 방법에 적절하다. 여기에서 설명되는 실시예들은 에지 발생을 위해 8-방향 소벨 이미지를 이용하지만, 16-방향 소벨 또는 캐니(Canney)와 같은 기타 널리 알려져있는 에지 발생 방법들에 대해서도 이용될 수 있다.
도 5에 나타낸 검출 단계(2-30)의 실시예는 가능한 타겟 검출(Detect Potential Target)로서 보다 더 구체적으로 특징화되며, 유효화 단계(2-50)의 실시예는 검출된 타겟의 유효화로서 보다 더 구체적으로 특징화된다. 본 실시예의 알고리즘 출력(2-60)은 무기들 또는 추적 시스템에 대해 의도되는 타겟 검출 리스트이다. 하지만, 정보 및 일반적인 기능 고장의 전체적인 흐름은 도 4 및 5에서와 같다. 특정의 실시예들은 그 응용 및 목적에 있어서 서로 다르지만, 전체적인 기능 영역들 및 정보의 흐름은 동일하게 유지된다.
도 6은 검출 단계(1-20)의 일 실시예를 도시한다. 이러한 검출 단계(1-20)의 실시예는 가능한 관심 영역들의 검출로서 특징화되며, 3개의 단계들로 구성되는데, 이들중 첫번째 단계는 크기 이미지의 형태학적인 처리(morphological processing)(20-100)이다. 이러한 단계는 형태학적인 기술들에 의한 추가의 처리를 위해 이미지들을 분명하게 하고 강화하는 것과 관련된다.
도 7은 형태학적 처리 단계(20-100)의 일 실시예를 도시한다. 이러한 형태학적 처리의 실시예는 크기 이미지의 이진화(binarization)로 시작된다. 이는 최소 임계 크기 값을 충족시키지 않는 모든 픽셀들의 크기 이미지를 제거한다. 이후, 이진화된 이미지는 수축(erosion)(20-120)되고, 소정의 횟수 만큼(20-140) 팽창(dilation)(20-130)된다. 본 실시예에서의 이러한 수축 및 팽창 동작들은 3×3 이미지 마스크를 이용하여 수행된다. 수축 및 팽창 동작들에서의 이미지 마스크들의 이용은 잘 알려져있고, 그 자체 및 특정의 마스크 구성들은 알고리즘 마다 특정하기 때문에, 당업자에 의해 결정될 수 있다. 본 실시예에서 요구되는 수축 및 팽창의 수는 본 방법에 입력으로서 공급되는 검출 파라미터들의 일부이며, 수축 그리고/또는 팽창들은 0 내지 4번 이루어질 수 있다. 이는, 본 실시예가 단지 수축들 만을 포함하거나, 단지 팽창들 만을 포함하거나, 이 둘의 결합을 포함하거나, 또는 수축과 팽창중 어느 것도 포함하지 않을 수 있음을 의미한다. 본 발명의 다른 실시예들에서, 수축들 및 팽창들의 수는 시스템에서 고정되거나, 실시예의 쌍방향 테스트를 통해 결정될 수 있다.
본 발명의 다른 실시예들에서, 수축 및 팽창의 순환에 의해 이루어지는 형태학적 처리는 반드시 필요하지 않다. 대안적으로, 다른 크기 및 형상의 픽셀 마스크가 이용될 수 있고, 단지 팽창들 또는 수축들 만이 수행되거나, 또는 수축 및 팽창의 시퀀스가 스위치되어 다른 형태학적 효과를 발생시킬 수 있다. 만일 있는 경우, 요구되는 수축들 또는 팽창들의 수는 사용자에 의해 직접 제공되거나, 이미지 데이터 그 자체로부터 결정되거나, 본 방법의 다른 실시예들에서의 어떠한 다른 이용가능한 수단에 의해 정해질 수 있다.
이러한 본 방법의 실시예에서, 충분한 수의 수축들 및 팽창들이 일어난 후(20-140), 임의의 나머지 노이즈를 제거하기 위해 임의의 다른 픽셀들에 적어도 8-연결(8-connected)되지 않은 픽셀들인 싱글톤 픽셀(singleton pixel)들을 이진화된 이미지에서 벗겨낸다. 본 방법의 다른 실시예들은 이 단계를 생략하거나, 다른 파라미터들 또는 설정에 기초하여 픽셀들을 제거할 수 있다. 예를 들어, 본 방법의 대안적인 실시예들에서는, 모든 싱글톤 픽셀들 및 모든 8-연결 픽셀 쌍들이 제거될 수 있다.
다른 실시예들에서, 형태학적인 제거 동안, 특정의 크기 및 형상을 갖는 것들을 제외한 모든 픽셀들이 제거될 수 있다. 만일 본 발명의 일 실시예가 특정하게 직사각형 물체들을 위치시키도록 의도된다면, 3개 미만의 인접하는 비제로(nonzero) 픽셀들을 갖는 모든 픽셀들이 제거될 수 있다. 만일 본 발명의 일 실시예가 단지 크고 둥근 물체들을 위치시키는 데에만 의도된다면, 특정한 크기 미만의 픽셀 클러스터들은 본 방법의 이러한 단계에서 고려되지 않을 수 있다. 형태학적 제거에 대한 다른 기준들은 면적에 대한 주변의 길이의 비율 또는 조밀함(compactness)을 포함할 수 있다.
일단 형태학적 처리(2-100)가 완료되면, 형태학적으로 처리된 크기 이미지와 최초의 강도 이미지를 함께 곱함으로써, 마스크된 이미지가 생성된다(20-200). 형 태학적으로 처리된 크기 이미지는 이진이기 때문에, 이는 형태학적으로 처리된 크기 이미지의 비제로 영역들에 강도 픽셀들을 포함하는 마스크된 이미지를 야기한다. 본 방법의 다른 실시예들에서는, 마스크된 이미지가 필요하지 않거나, 전체적인 형태학적 처리 동작이 강도 이미지, 방향 이미지 또는 이미지 데이터로부터의 어떠한 다른 것에 대해 수행될 수 있다.
본 방법의 일 실시예에서, 마스크된 이미지가 생성된 후(20-200), 모든 관심 영역들이 식별되고 카운트된다(20-300). 식별 및 카운팅 단계(20-300)의 일 실시예는 8-연결성 논리(8-connectivity logic)를 갖는 컴포넌트 라벨러(component laberler)의 이용을 수반한다. 8-연결성 논리를 작동시키는 컴포넌트 라벨러는, 각 픽셀이 다른 픽셀에 적어도 8번 연결되는 임의의 그룹의 픽섹들을 단일의 연속적인 영역으로서 식별한다. 8번 연결되는 상태가 되기 위해, 픽셀은 사이드 또는 코너로 인접하는 픽셀과 접촉해야 한다. 다른 실시예들은, 특정의 크기, 형상, 강도 프로파일 또는 다른 면적 측정치를 찾는 것과 같이, 검출된 관심 영역들을 식별하여 카운트하고, 모든 관심 영역들이 카운트되지 않는 다른 방법들을 이용할 수 있다. 가능성있게는, 4-연결성 논리와 같은 다른 연결성 논리를 이용하여, 마크된 관심 영역들의 크기 및 분포를 감소 또는 증가시킬 수 있다.
관심 영역이 검출되고 카운팅되면, 본 방법 발명의 실시예는, 본 명세서에서 부정확하게 검출된 영역을 필터링하는 것으로서 특정되는 필터링 단계(1-30)로 이동한다.
도 8은 필터링 단계(1-30)의 일 실시예를 나타낸다. 이러한 필터링 단계의 실시예는 멀티스레드(multi-thread)될 수 있는데, 이는 한번에 복수의 관심 영역들 상에서 동작할 수 있다는 것을 의미한다. 필터링 단계의 실시예의 이러한 단계에서 임의의 병렬 프로세싱은 부정확하게 검출된 관심 영역을 필터링하기 위해 필요한 시간량을 감소시킨다. 더 빠른 프로세싱 시간은 또한 본 방법 발명의 실시예들이 더 높은 이미지 데이터 프레임 레이트에서 동작할 수 있게 할 수 있게 함으로써, 결과의 정확도를 개선할 수 있다. 멀티스레드 필터링 단계의 실시예들은 병렬 프로세싱, 파이프라인 프로세싱, 분산형 컴퓨터, 또는 복수의 데이터 요소들을 동시에 처리하는 임의의 다른 수단을 사용하여 달성될 수 있다. 본 발명의 다른 실시예들은 여러 단계들 중 어느 하나에서 병렬 프로세싱을 사용할 수 있으며, 이러한 단계들에서 그렇게 하는 것이 가능할 수 있다. 일반적으로, 소프트웨어 애플리케이션에서, 'for' 루프(loop)로 달성될 수 있는 단계들의 임의의 세트는 병렬 프로세싱을 위한 후보이다.
이러한 필터링 단계(1-30)의 실시예는 제약 필터(Constraints Filter)(30-100)의 적용으로 시작된다. 방향성 제약 필터(Directional Constraints Filter)(30-100)로 특정된 제약 필터의 실시예가 도 9에 예시되어 있다.
방향성 제약 필터(30-100)의 이러한 실시예에서, 어떠한 최소 개수의 에지 방향을 갖지 않는 임의의 검출된 관심 영역은 더 이상 고려하지 않아도 된다. 방향성 제약 필터(30-100)의 대안적 실시예들에서, 최소 개수의 에지 방향들은 검출 파라미터들에서 제공된 개수이거나, 외부적으로 제공된 개수, 또는 분석되는 이미지 데이터의 특성에 근거하여 계산된 개수일 수 있다. 최소 개수의 에지 방향들이 증가함에 따라, 방향성 제약 필터를 통과하는 영역의 형상은 점점 더 타원형(oval)으 로 될 수 있다. 이것은 관심 영역들을, 이들이 또렷하게 분해되지 않는 범위에서, 식별하는 데에 유용한데, 왜냐하면 이러한 영역의 정확한 형상은 불명확할 수 있고, 이러한 영역의 에지 방향과 크기 이미지들은 일반적으로 타원형이기 때문이다. 방향성 제약 필터(30-100)의 이러한 실시예는 2개 내지 6개의 최소 에지 방향들을 요구할 수 있다. 임의의 주어진 반복에 사용되는 특정 최소 개수가 검출 파라미터들에 의해 결정된다. 방향성 제약 필터들의 대안적인 실시예들은 최소 개수의 방향들의 사용자 입력을 요구할 수 있거나, 또는 이미지 데이터에서 검출된 또는 다른 관련 센서들에 의해 검출된 특징 또는 조건에 근거하여 이것을 동적으로 계산할 수 있다.
이러한 방향성 필터링 프로세스의 실시예는, 관심 영역에서의 픽셀들에 대응하는 방향 이미지로부터 픽셀들을 추출함으로써 시작하고, 필터는 30-100 상에서 동작한다. 추출되면, 이러한 픽셀들은 카운팅되어 이러한 픽셀들이 가지고 있는 각각의 개별적인 방향의 총 개수가 결정된다(30-120). 만일 카운팅 프로세스(30-120)의 결과 어떤 최소 개수의 방향들보다 많게 되면(30-130), 이러한 영역은 유효한 형상인 것으로 고려되어 본 발명의 프로세스의 이러한 실시예의 필터링 단계의 다음 단계인 수평 왜곡 제거(30-400)로 이동한다. 하지만, 만일 카운팅 프로세스(30-120)의 결과 최소 개수의 방향들보다 많지 않다면(30-400), 처리되고 있는 이러한 영역은 비유효한 것으로 고려되고, 본 발명의 프로세스의 이러한 실시예에서는, 관심 영역에서의 픽셀들에 제로 값을 할당함으로써 더 이상 고려되지 않는다(30-300).
카운팅 프로세스(30-120)의 실시예는 어레이 사용을 수반할 수 있으며, 어레 이의 각각의 셀은 픽셀 방향을 나타낸다. 이러한 어레이는 초기에 모두 제로 값들을 가질 수 있고, 특정 방향을 접할 때 마다 어레이의 적당한 셀의 값이 증분된다. 만일 필터링되는 관심 영역에 대응하는 방향 이미지에서의 픽셀들의 카운팅을 끝내면서, 셀의 비제로 셀의 개수가 방향 파라미터들에서의 방향 세트의 최소 개수에 이르거나 또는 초과한다면, 관심 영역은 후속 프로세싱을 보장하도록 충분하게 타원형인 것으로 고려된다.
필터링 단계(1-30)의 다른 실시예들은 강도 또는 크기에 근거하여 제약 필터(30-100)의 다른 형태를 사용할 수 있거나, 또는 방향성 필터의 다른 실시예를 사용할 수 있다. 방향성 제약 필터(30-100)의 다른 실시예들은 강도 구배, 표면적, 둘레 대 면적 비율을 사용할 수 있고, 또는 관심 영역의 형상을 결정하기 위해 에지 추적을 사용할 수 있다.
필터링 단계(1-30)의 실시예에서, 만일 관심 영역이 제약 필터(30-100)를 통과한다면, 왜곡 제거(30-400)의 실시예를 거치게 된다. 왜곡 제거는, 배경 요소, 섬광, 반사된 신호들 또는 초기 검출 동안 관심 영역을 왜곡시킬 수 있는 다른 요소들이 분리되고 제거되는 단계이다. 왜곡 제거의 실시예들은 특정 애플리케이션에 따라 달라질 수 있고, 본 발명의 실시예는 이에 맞추어 구현될 수 있다.
왜곡 제거의 일 실시예는 수평 왜곡 제거(30-400)이고, 그 실시예가 도 10에 도시되어 있다. 이것은 수평선 및 해안선 그리고 수평 방향을 갖는 바람직하지 않은 영향들이 제거되는 노이즈 및 왜곡 제거의 형태이다. 이러한 왜곡 제거의 실시예는, 해안선, 수평선, 일출, 일몰 및 물에서 반사된 섬광이 정확한 검출에 있어 가장 중요한 방해 요인이 되는 해양 애플리케이션용의 본 방법 발명의 실시예에 적합하다. 본 발명의 프로세스의 다른 실시예들, 예를 들어, PET 스캔의 이미지 분석을 위한 실시예는 이러한 단계를 주변 전자기장의 영향과 같은 다른 왜곡 원인을 보상하는 것으로 대체할 수 있거나, 또는 이러한 단계 전체를 생략할 수 있다. 왜곡 제거의 또 다른 대안적 실시예들은 강도 기반의 왜곡 제거, 미디언 필터링(median filtering), 또는 솔트 및 페퍼 노이즈 제거(salt and pepper noise removal)를 포함할 수 있다.
이러한 수평 왜곡 제거(30-400)의 실시예는, 관심 영역이 입력 이미지의 수평 시야각(field of view, FOV)의 특정 퍼센트보다 큰 퍼센트를 차지하는지 여부를 결정함으로써 시작된다(30-410). 이는 관심 영역의 최대 픽셀 폭을 계산한 다음 강도 이미지의 총 픽셀 폭으로 나눔으로써 달성되며, 사용되는 검출기의 분해능에 의해 결정된다. 상기 특정 퍼센트는 예측되는 수평 노이즈의 양에 따라 조절될 수 있는 사용자 정의 파라미터이다. 이러한 퍼센트는 또한 하드 코딩(hard-coding)될 수 있거나 또는 관측되는 이미지의 타입 및 원하는 해당 물체에 따라 사용자에 의해 반복적으로 조절될 수 있다. 이러한 수평 왜곡 제거(30-400) 프로세스의 실시예는 45%와 80% 사이에 있는 수를 사용한다. 임의의 주어진 반복에서 사용되는 특정 수는 검출 파라미터에 의해 결정된다. 수평 왜곡 제거 프로세스의 대안적인 실시예들은 이러한 퍼센트의 사용자 입력을 요구할 수 있거나, 또는 이미지 데이터에서 검출된 또는 다른 관련 센서들에 의해 검출된 특징 또는 조건에 근거하여 이를 동적으로 결정할 수 있다.
수평 왜곡 제거(30-400)의 다른 실시예들은 절대 픽셀 폭 또는 관심 영역 상에서의 폭/높이 비율을 사용하여 잠재적으로 수평 왜곡을 갖는 지의 여부를 결정할 수 있고, 또는 배경 노이즈 또는 다른 정의된 기준의 임계 퍼센트에 대한 영역을 평가할 수 있다. 수평 노이즈 왜곡(30-400)의 또 다른 실시예는 이러한 초기 점검에 신경쓰지 않을 수 있으며, 잠재적으로 관심 영역들 모두가 수평으로 왜곡되어 있다고 가정할 수 있다.
수평 왜곡 제거(30-400)의 실시예에서, 만일 관심 영역이 수평 FOV의 특정 퍼센트 보다 많은 퍼센트를 차지한다면, 왜곡된 픽셀들을 식별하는 첫번째 단계는, 관심 영역이 수평으로 배향된 픽셀들의 임계 퍼센트보다 더 많은 퍼센트로 이루어졌는지 여부를 결정하는 것이다(30-430). 이는, 왜곡 제거가 행해지는 관심 영역에 대응하는 방향 이미지에서의 픽셀들 모두를 카운팅한 다음 이를 방향 이미지의 관심 영역에서의 픽셀들의 전체 개수로 나눔으로써 달성된다. 만일 이러한 관심 영역에 관한 계산이 임계 퍼센트(이는 0.5 내지 0.85 범위의 사용자 정의 파라미터이다)에 도달하거나 또는 임계 퍼센트를 초과한다면, 수평으로 배향된 픽셀들 모두는 관심 영역으로부터 제거되며(30-430), 그리고 관심 영역에서의 남아있는 픽셀들은 3x3 픽셀 마스크로 몇 차례 팽창(30-440)되어, 픽셀 제거(30-430)에 의해 생성된 관심 영역에서의 임의의 구멍들을 채운다. 팽창의 횟수는 검출 파라미터에 포함된 사용자 정의 값일 수 있거나 또는 픽셀 제거 임계치 퍼센트에 따라 달라질 수 있다. 이러한 본 방법 발명의 이러한 단계의 실시예는 검출 파라미터에 따라 0번 내지 3번의 팽창을 사용할 수 있다.
수평 왜곡 제거(30-400)의 다른 실시예들은 수평 픽셀 콘텐츠에 대한 임계 퍼센트 점검(30-420)을 생략할 수 있고, 이러한 점검을 위해 다른 범위의 임계 퍼센트 값들을 사용할 수 있고, 또는 이러한 단계를 대각선으로 배향된 픽셀들을 포함하는 프로세스와 같은 다른 프로세스로 대체할 수 있다. 수평 왜곡 제거(30-400)의 다른 실시예들은 또한 팽창에서 사용되는 마스크의 타입을 변경할 수 있고, 팽창의 횟수를 변경할 수 있고, 또는 팽창 단계를 완전히 대체하거나 생략할 수 있다. 예를 들어, 대안적인 실시예는, 픽셀 제거에 의해 생성된 갭(gap)들을 채우기 위해 순수한 픽셀 팽창 대신에 형태학적 폐쇄 프로세스(morphological closing process)를 사용할 수 있다.
수평 왜곡 제거(30-400)의 실시예에서, 만일 관심 영역이 이미지의 수평 FOV의 특정 퍼센트 보다 많은 퍼센트를 차지하지 않는다면, 다음 단계는 관심 영역이 이미지의 수직 에지와 접촉하는지 여부를 결정하는 것이다(30-460). 이것은 관심 영역 내의 임의의 픽셀들이 이미지의 에지의 픽셀들의 특정 개수 내에 있는 지를 확인함으로써 이루어진다. 본 방법 발명의 이러한 단계의 실시예는 검출 파라미터에 의해 결정되는 1 내지 7의 픽셀들의 수를 사용할 수 있다. 다른 실시예들은 값을 하드코딩할 수 있고, 임계 퍼센트를 사용할 수 있고, 또는 이러한 단계를 완전히 생략할 수 있다.
만일 관심 영역이 이미지의 수직 에지에 접촉한다면, 관심 영역을 점검하여, 이미지의 수평 FOV의 퍼센트보다 많은 퍼센트를 포함하는지 여부를 결정한다(30-470). 이는 관심 영역의 최대 픽셀 폭을 계산한 다음 이를 강도 이미지의 총 픽셀 폭으로 나눔으로써 달성되며, 이것은 사용되는 검출기의 분해능에 의해 결정된다. 특정 퍼센트는 예측된 수평 노이즈의 양에 따라 조절될 수 있는 사용자 정의의 파라미터이다. 본 방법 발명의 이러한 단계의 실시예는 25%와 50% 사이의 임계 퍼센트를 사용할 수 있다. 수평 왜곡 제거(30-400)의 다른 실시예들은 절대 픽셀 폭 또는 관심 영역 관한 폭/높이 비율을 사용하여 얼마나 많은 수평 캐릭터를 가지는 지를 결정할 수 있다. 수평 노이즈 제거(30-400)의 또 다른 실시예들은 다른 퍼센트 범위, 동적으로 결정된 범위를 사용할 수 있고, 또는 이러한 점검에 신경쓰지 않을 수 있으며, 이미지의 수직 에지에 접촉하는 관심 영역들 모두는 수평으로 왜곡되었다고 가정할 수 있다.
수평 왜곡 제거(30-400)의 일 실시예에서, 만일 관심 영역이 수직 이미지 에지에 접촉하고(30-460), 이미지의 수평 FOV(30-470)의 임의의 퍼센트보다 많은 퍼센트를 차지한다면, 이러한 영역에 대응하는 방향 이미지의 제1의 몇 개의 픽셀들은 가장 왼쪽 픽셀에서 시작하여 오른쪽으로 이동하여 검사된다. 검사될 픽셀들의 수는 검출 파라미터들에 의해 결정된다. 본 방법 발명의 이러한 단계의 실시예에서, 픽셀들의 수는 8 내지 15의 범위에 있을 수 있다. 다른 실시예들은 영역에서의 총 픽셀들의 퍼센트, 영역에서의 픽셀들 모두를 검사할 수 있거나, 또는 이러한 단계를 생략할 수 있다.
결정된 픽셀들의 수는 이들 중 얼마나 많은 것들이 사실상 수평인지를 알기 위해 검사된다. 만일 검사된 픽셀들의 총 수로 나누어져 구해진 수평 픽셀들의 수가 미리정의된 임계 퍼센트를 초과한다면, 이러한 관심 영역은 더 처리될 필요가 있다고 추정된다. 본 방법 발명의 이러한 단계의 실시예는 80% 내지 100% 범위에 있는 퍼센트를 사용하고, 정확한 수는 검출 파라미터들에서 결정된다. 미리정의된 임계 퍼센트는 또한 하드코딩될 수 있다. 본 방법 발명의 이러한 단계의 실시예는 외부 입력 또는 임계 퍼센트의 동적 계산을 가능하게 하거나, 또는 모든 픽셀들을 검사하지 않을 수 있다.
만일 이러한 검사된 픽셀들 모두가 동일한 수평 방향을 갖는 다면(30-480), 수평 방향을 갖는 관심 영역에서의 픽셀들 모두가 제거되며(30-490), 그리고 관심 영역에서의 나머지 픽셀들은 독점적인 3x3 픽셀 마스크로 팽창(30-440)되어, 픽셀 제거(30-490)에 의해 생성된 관심 영역에서의 임의의 구멍들이 채워진다. 본 방법 발명의 이러한 단계의 실시예는 복수의 픽셀 팽창을 요구할 수 있고, 팽창의 수는 본 발명의 실시예가 동작하고자 하는 특정의 환경에 의해 결정된다. 본 발명의 단계의 이러한 실시예는 0번 내지 3번의 팽창을 요구할 수 있고, 주어진 반복에 대한 실제 팽창의 수는 검출 파라미터들에 의해 결정된다.
수평 왜곡 제거(30-400)의 다른 실시예들은 수평 픽셀 콘텐츠에 대한 매 픽셀 마다의 점검을 생략할 수 있고, 대신에 임계 퍼센트 점검을 사용하거나, 또는 이러한 단계를 대각선으로 배향된 픽셀들을 포함하는 프로세스와 같은 다른 프로세스로 대체할 수 있다. 수평 왜곡 제거(30-400)의 다른 실시예들은 또한 팽창에서 사용되는 마스크의 타입을 바꿀 수 있고, 픽셀 마스크없이 팽창을 수행할 수 있고, 팽창의 수를 증가시키거나 감소시킬 수 있으며, 또한 팽창 단계를 대체할 수 있거나 완전히 생략할 수 있다. 예를 들어, 대안적 실시예는 픽셀 제거에 의해 생성된 갭들을 채우기 위해 순수한 픽셀 팽창 대신에 형태학적 폐쇄 프로세스를 사용할 수 있다.
수평 왜곡 제거(30-400)의 완료시, 본 방법 발명의 실시예는 가중치 팩터(weighting factor) 및 픽셀 결합 단계(30-500)로 진행하여, 관심 영역과 배경 간의 콘트라스트를 강화할 수 있다. 이는 또한 복수의 관심 영역들을 서로 구별하는 것을 돕는다. 도 11은 가중치 팩터 및 픽셀 결합 단계(30-500)의 실시예를 도시하며, 여기에서는 가중치 팩터 및 필터링된 픽셀과 마스킹된 픽셀 결합(30-500)으로 특정되어 있다.
본 발명의 일 실시예에서, 초기 검출 시에 융합(merging)될 수 있는 것으로, 형태학적 프로세싱(20-100), 방향성 제약 필터링(30-100), 및 수평 노이즈 제거(30-400)의 결과로서 따로 떨어져 있는, 관심 영역들의 강도를 조절하기 위해 가중치 팩터가 적용된다. 본 발명의 실시예에서 융합 프로세스는 다양한 관심 영역의 강도가 서로에 대해 균일하게 나타나게 한다. 가중치 팩터는 남아있는 영역들의 강도를 조절하기 위해 사용되며, 이에 따라 관심 영역들은 후속 프로세싱에 대한 적절한 강도를 갖는다.
관심 영역들이 일반적으로 초기 검출 시에 융합되지 않거나 또는 검출된 물체 또는 영역의 강도가 상대적으로 균일한 것으로 예측되는 실시예들에서, 가중치 팩터 및 픽셀 결합 단계(30-500)는 수정, 생략되거나, 다른 기능으로 대체될 수 있다. 레이더(RADAR)와 같은 활성 조명원과 함께 사용되는 실시예에서, 가중치 팩터는 불필요한데, 그 이유는 타겟 상의 예측된 조명 강도가 절대 비교를 위해 이용가 능하기 때문이다. 본 방법 발명의 실시예들은 활성 센서와 함께 동작하도록 될 필요가 있다. 이는, 섹션 제거, 다른 섹션 강화, 또는 특정 종류의 활성 센서, 원하는 동작 환경 및 요구되는 검출 타입에 따라 파라미터들을 수정하고 조절하는 것을 수반한다.
가중치 팩터 및 필터링된 픽셀과 마스킹된 픽셀 결합 프로세스(30-500)의 이러한 실시예는 가중치 팩터가 적용되는 필터링된 관심 영역을 이진화(30-510)함으로써 시작되며, 크기 이미지로부터의 필터링된 관심 영역과 유사한 픽셀들의 평균값으로서 가중치 팩터를 계산(30-520)함으로써 시작된다. 이진화는 이미 필터링된 픽셀들을 제거하기 위해 입력 이미지 데이터에 적용될 수 있는 필터링된 영역의 마스크를 생성한다. 이러한 이진화된 마스크에서의 픽셀들은 마스킹된 이미지로부터의 유사한 픽셀들과 곱해져(30-530), 제2의 마스킹된 이미지를 만들며, 이는 초기 필터링 및 픽셀 제거 프로세스 이후의 영역에서의 남아있는 강도 픽셀들 만을 보여준다. 이러한 픽셀들은 계산된 가중치 팩터와 곱해짐으로써(30-540), 이들의 강도는 다른 관심 영역들의 강도 또는 노이즈 또는 왜곡의 다른 소스의 강도에 따라 인위적으로 높거나 낮게 나타나지 않는다.
필터링 단계(1-30)의 다른 실시예들은 가중치 팩터 및 픽셀 결합 단계(30-500)를 대체 또는 생략할 수 있다. 가중치 팩터 및 픽셀 결합 단계의 다른 실시예들은 가중치 팩터를 사용하지 않거나, 최대, 최소, 또는 중앙 픽셀값과 같은 다른 가중치 팩터, 또는 픽셀 강도에 의해 직접 결정되지 않은 세트 팩터를 사용할 수 있다. 이진 마스크의 생성은 또한 가중치 팩터 및 픽셀 결합 단계(30-500)의 다른 실시예들에서 생략 또는 수정될 수 있다. 요구되는 성능 레벨, 하드웨어 제약, 동작 환경 또는 다른 유사한 요인들에 따라 적절한 다른 실시예들이 고려될 수 있다.
가중치 팩터의 계산 및 필터링된 픽셀과 마스킹된 픽셀의 결합(30-500) 프로세스의 종료시, 본 방법 발명의 실시예는 가중치 팩터 및 픽셀 결합 단계(30-600)의 결과에 따라 칸벌루션 수행(30-600)으로 진행할 수 있다.
필터링 단계(1-30)의 실시예에 도시되어 있는 칸벌루션 단계(30-600)의 실시예는, 검출 파라미터들에서 특정된 필터링의 타입에 따라 크기에 있어서 3x3 내지 9x9 범위를 가질 수 있는, 미리정의된 독점적 커널을 사용하여 수행되는 2차원 칸벌루션이다. 필터링 옵션은 가우시안 로우패스(Gaussian lowpass), 평균화, 순환 평균화(circular averaging), 라플라시안, 선형, 비선형, 샤프닝(sharpening), 또는 비샤프닝(un-sharpening)을 포함할 수 있다. 칸벌루션 프로세스(30-600)의 다른 실시예들은 서로 다른 크기와 형상 커널들을 사용할 수 있고, 더 크거나 더 적은 치수 상에서 동작할 수 있다. 칸벌루션 프로세스의 이러한 실시예는 관심 영역에서의 픽셀 강도를 고르게 하는 것을 돕는다. 복수의 핫 스폿들을 갖는 관심 영역들이 칸벌루션 프로세스에 의해 고르게 되어, 단지 하나의 일반적인 핫 스폿 만이 남게 된다. 이는 또한 관심 영역의 에지를 테이퍼링(tapering)하는 효과가 있으며, 칸벌루션 이후 일어날 수 있는 쓰레시홀딩 프로세스(thresholding process)를 용이하게 한다.
칸벌루션 프로세스의 이러한 실시예는 종종 두 개의 관심 영역을 하나로 결합할 수 있다. 이것은 두 개의 관심 영역이 동일한 해당 물체의 일부일 때에 일어 날 수 있다. 쓰레시홀딩 프로세스는 칸벌루션 프로세스 이후 수행되어, 부적절하게 결합된 관심 영역의 임의의 인스턴스(instance)들을 정정할 수 있다.
칸벌루션 프로세스(30-600)는 본 방법 발명의 이러한 실시예에서의 필터링 단계(1-30)의 실시예의 마지막 부분이다. 필터링 단계(1-30)의 종료시, 본 방법 발명의 실시예는 유효화 단계(1-40)로 진입할 수 있다. 유효화 단계(1-40)의 실시예는 도 12에 도시되어 있고, 여기서 검출된 영역이 유효한지 여부의 결정(1-40)으로서 특정되어 있다.
유효화 단계(1-40)의 이러한 실시예는 남아있는 관심 영역에 임계치를 적용(40-100)하는 것으로 시작한다. 이는, 필터링 단계(1-30)를 통과했지만, 가중치 팩터의 적용(30-540) 이후 너무 강한 또는 충분히 강하지 않은 관심 영역들을 제거하기 위해 수행된다. 쓰레시홀딩 프로세스의 이러한 실시예는 후속 프로세싱 단계로 진행될 해당 물체들의 수를 감소시키기 위해 사용된다. 시스템은 일반적으로 시스템 부분들 모두에 의한 사용을 위해 이용가능한 프로세싱 전력의 양을 제한하기 때문에, 후속 프로세싱을 요구하는 데이터의 양을 감소시키는 것이 유리하다. 쓰레시홀딩 프로세스의 이러한 실시예는, 후속 프로세싱 및 분석을 위한 검출의 수를 감소시키는 것이 가능한 하나의 영역이다. 쓰레시홀딩 프로세스의 실시예들은 이중 쓰레시홀딩 또는 대역 통과 필터링을 사용할 수 있다. 쓰레시홀딩 프로세스의 또 다른 실시예들은, 사용되고 평가되는 데이터 및 프로세서의 타입에 대해 특히 최적화된 필터링 또는 쓰레시홀딩 동작을 요구할 수 있다. 남아있는 관심 영역에 임계치를 적용(40-100)하는 실시예에서, 임계값 아래의 강도를 갖는 픽셀들은 불충분하게 강한 것으로 버려질 수 있다. 관심 영역들은 쓰레시홀딩 프로세스의 이러한 단계의 실시예에 의해 전체적으로 제거되거나 줄어들 수 있다. 이것은, 검출 단계(1-20) 및 필터링 단계(1-30) 이후, 여전히 유효한 관심 영역들로 고려되지 않는 검출된 관심 영역들의 부분들을 제거한다. 제거된 영역들 모두는 이제 더 이상 처리되지 않는다.
도 13은 남아있는 관심 영역들에 대한 임계치 적용 프로세스(40-100)의 실시예를 도시하며, 이는 남아있는 관심 영역들 모두의 식별 및 카운팅(40-110)에 의해 시작된다. 남아있는 관심 영역들 모두의 식별 및 카운팅의 일 실시예(40-100)는 8-연결성 논리를 갖는 컴포넌트 라벨러의 이용을 수반한다. 다른 실시예들은 16-연결성과 같은 다른 방법을 사용하여 남아있는 관심 영역들을 식별하고 카운팅할 수 있으며, 관심 영역들 모두가 카운팅될 수 있는 것은 아니다. 4-연결성 논리와 같은 다른 연결성 논리가 사용되어, 식별되는 관심 영역들의 크기 및 분산을 잠재적으로 감소 또는 증가시킬 수 있다. 4-연결성 논리를 사용하는 실시예는 제한된 프로세싱 전력을 갖는 시스템에 대해 더 적합할 수 있다.
나머지 관심 영역들에 임계치 파라미터를 적용하는 단계(40-100)의 실시예에서, 만일 두 개 또는 그 이상의 관심 영역들이 존재하고, 검출 파라미터들이 이미지에서의 복수의 타겟들의 예측된 존재를 표시한다면(40-160), 단계(40-100)는 임계 파라미터들을 발생시켜 적용하지 않으면서 끝나고, 대신에 유효화 단계(1-40)의 이러한 실시예는 중심 및 크기의 계산 단계(40-800)로 이동한다.
나머지 관심 영역들에 임계치 파라미터를 적용하는 단계(40-100)의 실시예에서는, 수평선이 장면에 존재하는지 여부를 결정하는 것과, 만일 존재하는 경우에는 그것이 이미지의 상부에 얼마나 가깝게 있는 지를 결정하는 것이 필요할 수 있다. 만일 수평선이 이미지에 존재한다면, 수평선 플래그 변수가 설정된다. 만일 수평선이 픽셀들에서의 어떤 미리 정의된 거리 내에 있지 않다면, 수평선 플래그 값은 유효하지 않은 것으로 고려된다.
나머지 관심 영역들에 임계치 파라미터를 적용하는 단계(40-100)의 실시예에서, 만일 남아있는 관심 영역이 단지 하나만 있고(40-120), 그리고 어떠한 수평 픽셀도 섹션(40-130)으로부터 제거되지 않았다면, 또는 수평선 플래그 값이 유효하지 않으며 그리고 검출 파라미터들이 이미지에서의 복수의 관심 영역들의 예측된 존재를 표시하지 않는다면(40-150), 단계(40-100)는 임계 파라미터들을 발생시켜 적용하지 않으면서 끝나고, 대신에 유효화 단계(1-40)의 이러한 실시예는 중심 및 크기의 계산 단계(40-800)로 이동한다.
그러나, 상기 조건들중 어느 것도, 나머지 관심 영역들에 임계치 파라미터를 적용하는 단계(40-100)의 실시예에서 충족되지 않는다면, 이미지는 쓰레시홀딩되고, 임계값이 발생되어 적용되어야 한다(40-200). 도 14는 임계값을 발생시켜 이미지에 적용하는 프로세스(40-200)를 도시한다.
임계값을 발생시켜 이미지에 적용하는 프로세스(40-200)의 실시예에서, 초기 임계값이 발생되어(40-300), 이미지에 적용된다(40-400). 초기 임계값 발생(40-300) 프로세스의 실시예는 다음과 같은 의사 코드(pseudo-code)를 사용하여 달성된다. 변수 thresh_val은 임계값이고, blob_img는 이미지 데이터가 필터링 단계(1- 30)의 실시예를 통과한 이후에 남아있는 관심 영역들을 포함하는 이미지 파일의 이름이다.

Factor = kk1
img_stat = blob_img에서의 비제로 픽셀들 모두의 중앙값
std_val = blob_img에서의 비제로 픽셀들 모두의 표준편차

if img_stat > (std_val*yy)
img_stat = blob_img에서의 비제로 픽셀들 모두의 평균값
factor = kk2;
end

if 알려진 복수의 타겟들이 서로중 하나의 타겟 길이 내에 있다면
img_stat = blob_img에서의 비제로 픽셀들 모두의 평균값
factor = kk3;
end

thresh_val = img_stat + factor*std_val;
일단 계산이 되면, 이러한 초기 임계값은 이미지에서의 픽셀들 모두에 적용된다(40-400). 이러한 실시예에서의 발생된 임계치의 적용은 관심 영역으로부터 이러한 픽셀들을 버림으로써 수행될 수 있는데, 이미지에서의 이러한 픽셀들를 제로화시킴으로써, 이러한 픽셀들의 강도는 발생된 임계치 아래에 있게 된다.
도 15는 임계값을 발생시켜 이미지에 적용하는 프로세스(40-200)의 이러한 실시예에서 임계값 적용 단계(40-400)의 실시예를 도시한 것이다. 임계값 적용 단계(40-400)의 이러한 실시예는 이미지의 카피를 수행함(40-410)으로써 시작된다. 이후, 임계값이 전체 이미지에 한번에 적용되고(40-420), 쓰레시홀딩된 이미지를 생성하기 위해 본래 이미지와 곱해진 이진 결과 이미지를 생성한다.
이후, 상기 설명한 컴포넌트 라벨러 프로세스의 실시예가 적용되어, 쓰레시홀딩된 이미지에서의 새로운 쓰레시홀딩된 관심 영역을 재발생시킨다(40-430). 이렇게 새롭게 라벨링된 이미지 카피물(40-400)은 또 다른 임계값이 후속적으로 발생되어야하는 경우에 처리될 이미지로서의 역할을 수행한다. 임계값 적용 프로세스(40-400)의 다른 실시예에서, 그 값이 임계값의 특정 퍼센트보다 크거나 또는 특정 퍼센트 내에 있는 픽셀들은 버려질 수 있다. 이러한 프로세스의 가능한 대안적 실시예들은 많이 있으며, 그 각각의 방법은 다른 결과를 발생시킬 수 있다. 단지 테스트를 통해서만, 또 다른 쓰레시홀딩 방법이 본 방법 발명의 또 다른 실시예에 적합한지의 여부가 결정될 수 있다.
임계값을 발생시켜 이미지에 적용하는 이러한 프로세스(40-200)의 실시예에서, 적당한 양의 남아있는 관심 영역들을 갖는 지의 여부를 결정(40-600)하기 위해, 임계치 적용(40-400) 이후 이미지를 점검한다. 만일 이미지에 충분한 관심 영역들이 남아있지 않다면(40-600), 업데이트된 임계값이 발생되어(40-500) 이미지에 적용된다(40-400). 만일 이미지에 충분한 관심 영역들이 여전히 남아있지 않다면, 임계치 발생, 적용 및 이미지 점검 프로세스 자체가 다시 반복된다.
적당한 양의 남아있는 관심 영역들(40-600)은, 앞서의 의사 코드에서 팩터(Factor)로서 나타나는 임계치 팩터의 값과 쓰레시홀딩 이후에 남아있는 관심 영역들의 수 양쪽 모두를 검사함으로써, 임계값을 발생시켜 이미지에 적용하는 프로세스(40-200)의 실시예에서 결정된다. 도 16은 결정 프로세스의 실시예를 도시한다. 도 16의 순서도는 충분한 관심 영역들이 남아있는 지에 대한 프로세스(40-600)의 실시예를 나타내고 있으며, 이는 임의의 관심 영역들이 남아있는지 여부를 결정함으로써 시작한다(46-610). 만일 어떠한 영역들도 남아있지 않다면, 제로인지의 여부를 결정하기 위해 임계치 팩터가 점검된다(40-650). 결과적으로, 비제로 임계치 팩터는 업데이트된 임계값을 발생시키고(40-500), 임계치 팩터 제로는 쓰레시홀딩이 완료되었고 알고리즘이 다시 시작되어야 함(1-10)을 표시한다.
만일 남아있는 관심 영역들이 있다면, 검출 파라미터는 이미지에서 예측된 알려져있는 복수의 관심 영역들이 있는 지의 여부를 결정하기 위해 점검된다. 만일 없다면, 본 방법 발명의 이러한 단계(40-600)의 실시예는 남아있는 영역의 크기 및 중심을 계산하는 단계(40-800)로 진행한다. 만일 복수의 관심 영역들이 검출 파라미터들에 따라 예측된다면, 남아있는 영역들의 수는 예측된 영역들의 수와 비교된다(40-630). 만일 남아있는 영역들이 예측된 영역들 만큼 존재하거나 또는 그 이상 존재한다면, 또는 임계치 팩터가 1이라면(40-640), 본 방법 발명의 이러한 단계(40-640)의 실시예는 남아있는 영역들의 중심 및 크기를 계산하는 단계로 진행한다. 만일 임계치 팩터가 1이 아니고(40-640), 그리고 남아있는 영역들이 예측된 영역들 보다 작다면, 업데이트된 임계값이 발생된다(40-500).
이러한 프로세스의 대안적 실시예들은 후속적인 분석 또는 제 2 라운드의 필터링 단계(1-30)를 위해 픽셀들 또는 관심 영역들을 플래그하는 것을 수반할 수 있다. 유효화 단계(1-40)의 다른 실시예들은, 예를 들어 본 방법 발명의 실시예를 지원하는 하드웨어 또는 소프트웨어가, 검출된 영역들 모두를 쓰레시홀딩없이 또는 감소된 레벨의 쓰레시홀딩으로 개별적으로 평가할 수 있을 정도로 충분한 프로세싱 전력을 가지고 있다면, 이와 같은 충분한 관심 영역들이 남아있는 지에 대한 프로세스(40-600)를 완전히 생략할 수 있다.
충분한 관심 영역들이 남아있는 지에 대한 프로세스(40-600)의 실시예에서, 만일 결정 논리의 결과가 업데이트된 임계값 발생(40-500)이라면, 업데이트된 임계값 발생 프로세스(40-500)의 실시예가 실행된다. 업데이트된 임계값 발생 프로세스(40-500)의 실시예는 다음과 같은 의사 코드를 사용하여 달성된다.

while num of areas = 0 & factor > 0
if factor > 1
factor = factor - .5;
elseif factor > .25
factor = factor - .25;
end
thresh_val = img_stat + factor*std_val;
blob_img = temp2 > thresh_val;
[temp, num of areas] = bwlabel(blob_img, 8);
end

if 복수의 타겟들이 존재한다면
while 영역의 수 = 1 & factor >= 1
factor = factor = factor - .5;
thresh_val = img_stat + factor*std_val;
blob_img = temp2 > thresh_val;
[temp, num of areas] = bwlabel(blob_img, 8);
end
end
blob_img = temp2. * blob_img;

temp2는 앞서 언급된 카피된 이미지이다.
blob_img는 이진화된 쓰레시홀딩 이미지이다.
bwlabel은 루틴을 라벨링하는 매트랩(MATLABS)(소프트웨어 프로그램) 컴포넌트이다.
업데이트된 임계값 발생(40-600)의 실시예에서, 임계치 팩터는 업데이트된 임계값이 발생될 때 마다 감소된다. 이는 어떠한 관심 영역도 존재하지 않는 장면에서 관심 영역들을 식별하기 위한 알고리즘의 무한 루핑을 방지하고, 대신에 남아있는 관심 영역들에서 픽셀들의 중심 강도 또는 평균 강도 보다 큰 어떤 양의 강도를 갖는 영역들 만을 궁극적으로 알고리즘이 처리하도록 한다. 이것은 시스템이 임의의 하나의 이미지를 분석하는 데에 너무 많은 시간을 소비하는 것을 방지하고, 결과적으로 프레임들을 드랍(drop)시키는 것을 방지한다.
임계값을 발생시켜 이미지에 적용하는 프로세스(40-200)의 다른 실시예들은 평균값 또는 중앙값 아래의 픽셀 강도 또는 높은 중심성 측정치를 갖는 픽셀 강도에 중점을 둘 수 있다. 또 다른 실시예들은 강도에 대한 절대 임계치를 갖거나, 순수한 방향성 임계값을 가질 수 있다. 본 방법 발명의 유효화 단계(1-40)의 다른 실시예들에서 쓰레시홀딩은 없을 수 있다.
유효화 단계(1-40)의 실시예에서의 남아있는 관심 영역들에 임계치 파라미터를 적용하는 프로세스(40-100)의 실시예를 통과한 픽셀들은 이제 중심 및 크기 계산 프로세스(40-800)로 이동한다. 중심 및 크기 계산 프로세스(40-800)의 실시예에서, 각각의 남아있는 관심 영역들의 중심 및 크기는 질량 중심에 의해 계산되는데, 여기에서는 픽셀 강도가 더해지고, 중심은 블랍의 질량 중심에 있는 것으로 구해진다. 이 위치가 반드시 블랍의 중앙에 있는 것은 아니며, 또한 가장 큰 강도를 갖는 픽셀이 있는 위치에 있는 것도 아니다. 이것은 일반적으로 높은 강도 픽셀의 농도가 있는 위치이고, 보통은 관심 영역들의 중심에 있다. 관심 영역들의 크기는 단지 관심 영역들의 픽셀에서의 최대 수평 길이 및 수직 길이이다.
검출된 영역이 유효한지의 여부를 결정하는 단계(1-40)의 이러한 실시예에서, 중심 및 크기 계산 프로세스(40-800)의 실시예 이후 최종 크기 임계치 프로세스(40-900)의 실시예가 실행되고, 여기서 (검출 파라미터들에서 정의된 바와 같이) 예측된 크기 값들의 특정 퍼센트 내에 있지 않는 관심 영역들은 버려진다. 최종 크기 임계치 프로세스(40-900)의 실시예는 예측된 크기 값을 관심 영역들의 수평 및 수직 길이와 비교함으로써 달성된다. 만일 예측된 크기 값들이 어떠한 미리정의된 측정치들 내에서 매칭되지 않는 다면(예를 들어, 전체 이미지 크기의 특정 크기, 비율, 또는 퍼센트 보다 더 크거나 더 작으면), 이러한 관심 영역들은 검출 리스트에 부가되지 않는다. 이러한 최종 크기 임계치 프로세스(40-900) 이후 남아있는 임의의 관심 영역들이 본 방법 발명의 이러한 실시예의 출력을 포함하는 검출 리스트(1-50)이다.
본 방법 발명의 다른 실시예들은 크기 제약을 생략 또는 변경하거나, 사이드 간에 너무 멀리 빗나가 있는 중심을 갖는 관심 영역들을 버릴 수 있다. 본 방법 발명의 다른 실시예들의 출력은 실시예들의 목적 및 응용에 따라 어레이 또는 이미지 또는 좌표 세트일 수 있다.
이와 같이 설명된 본 발명은 많은 방식으로 변형될 수 있다. 이러한 변형은 본 발명의 정신 및 범위를 벗어나는 것으로 고려되서는 안되며, 당업자에게 명백한 모든 변경들은 하기의 청구항들의 범위 내에 있는 것으로 의도된다.
도 1은 본 발명의 양상들에 따라 개발된 프로그램이 저장되고 실행될 컴퓨팅 환경을 도시한다.
도 2는 본 발명의 양상들에 따라 이미지 내의 관심 영역들을 검출하는 방법을 도시한다.
도 3은 본 발명의 다른 가능한 실시예를 블록도의 형태로 나타낸다.
도 4는 본 발명에 따른 하이 레벨 흐름도이다.
도 5는 실시간 이미지 데이터로부터 타겟들을 검출하도록 의도되는 본 방법의 일 실시예의 하이 레벨 흐름도이다.
도 6은 본 방법의 검출 양상의 일 실시예를 하이 레벨 흐름도로 도시한다.
도 7은 크기 이미지가 형태학적으로 처리되는 본 방법의 일부분의 일 실시예를 도시한다.
도 8은 본 방법의 필터링 양상의 일 실시예를 하이 레벨 흐름도로 도시한다.
도 9는 이미지의 방향을 평가하여 관심 영역의 일반적인 형상을 결정하는 본 방법의 일부분의 일 실시예를 도시한다.
도 10은 마크된 이미지의 수평 방위의 왜곡들이 제거되는 본 방법의 일부분의 일 실시예를 도시한다.
도 11은 관심 영역이 개선된 콘스트라스트에 대해 강화되는 본 방법의 일부분의 일 실시예를 도시한다.
도 12는 본 방법의 유효화 양상의 일 실시예를 하이 레벨 흐름도로 도시한다.
도 13은 관심 영역들이 검출 임계치들에 대해 평가되어, 이들이 유효한 검출인지를 결정하는 본 방법의 일부분의 일 실시예를 도시한다.
도 14는 검출 임계치들이 발생되고, 적용되고, 적절하게 업데이트되는 본 방법의 일부분의 일 실시예를 도시한다.
도 15는 이미지에 임계값을 적용하는 것과 관련된 본 방법의 일부분의 일 실시예를 도시한다.
도 16은 적당한 수의 나머지 관심 영역들이 있는 지를 결정하는 것과 관련된 본 방법의 일부분의 일 실시예를 도시한다.

Claims (25)

  1. 소벨 크기 및 소벨 방향 이미지들의 결합을 이용하여 2차원 적외선(IR) 이미지들 내의 관심 영역들을 검출 및 분석함으로써 타겟들을 식별하는 방법으로서,
    입력으로서, 적외선(IR) 강도 이미지, 임계 소벨 크기 이미지, 임계 소벨 방향 이미지 및 타겟 크기 파라미터들을 수신하는 단계와;
    상기 소벨 크기 이미지를 형태학적으로 처리한 다음 상기 강도 이미지와 결합하여, 검출된 관심 영역들을 포함하는 마스크된 이미지를 생성함으로써, 가능한 타겟들을 검출하는 단계와;
    상기 소벨 방향 이미지 내의 최소수의 개별적인 방향들에 대해 각 관심 영역을 체크함으로써, 부정확하게 검출된 관심 영역들을 필터링하는 단계와; 그리고
    상기 필터링된 관심 영역들을 강도, 크기 또는 폭 임계치들중 적어도 하나에 대해 평가하고, 상기 임계치들의 특정의 비율 내에 없는 상기 필터링된 관심 영역들을 비 타겟들로서 폐기시킴으로써, 상기 필터링된 관심 영역들이 유효한 타겟들인지를 결정하는 단계를 포함하는 것을 특징으로 하는 타겟들을 식별하는 방법.
  2. 에지 크기 및 방향 정보를 결합함으로써 이미지 내의 관심 영역들을 검출하는 방법으로서,
    입력 이미지 데이터 및 검출 파라미터들을 수신하는 단계와;
    에지 크기를 이용하여 가능한 관심 영역들을 검출하는 단계와;
    에지 방향 및 에지 크기를 이용하여, 부정확한 검출들로서 식별되는 관심 영역들을 필터링하는 단계와; 그리고
    상기 관심 영역들이 상기 검출 파라미터들을 충족시키는 지를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  3. 제 2 항에 있어서,
    상기 입력 이미지 데이터를 수신하는 단계는, 상기 검출 파라미터들에 포함된 임계값을 갖는 임계 크기 이미지 및 임계 방향 이미지를 발생시키기 위해, 상기 이미지 내의 에지들의 크기 및 방향을 검출하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  4. 제 2 항에 있어서,
    상기 검출 파라미터들은 타겟 크기 정보를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  5. 제 2 항에 있어서,
    상기 입력 이미지 데이터는 IR 강도 이미지를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  6. 제 3 항에 있어서,
    상기 에지 크기를 이용하여 가능한 관심 영역들을 검출하는 단계는,
    상기 이미지 데이터로부터 노이즈를 제거하고 갭을 채우기 위해, 상기 크기 이미지를 형태학적으로 처리하는 단계와;
    상기 형태학적으로 처리된 이미지 및 최초의 강도 이미지를 마스크된 이미지 내에 결합하는 단계와; 그리고
    상기 마스크된 이미지 내의 상기 관심 영역들을 식별하여 카운트하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  7. 제 6 항에 있어서,
    상기 이미지 데이터로부터 노이즈를 제거하고 갭을 채우기 위해, 상기 크기 이미지를 형태학적으로 처리하는 단계는,
    상기 크기 이미지를 이진화하여, 이진화된 이미지를 생성하는 단계와; 그리고
    0 및 1의 이웃을 이용하여, 상기 이진화된 이미지를 소정 횟수 만큼 팽창 및 수축시키는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  8. 제 7 항에 있어서,
    상기 팽창 및 수축 동작들의 소정의 횟수는 상기 검출 파라미터들로부터 결정되는 타겟들의 알려진 수에 의해 결정되는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  9. 제 7 항에 있어서,
    상기 이미지 데이터로부터 노이즈를 제거하고 갭을 채우기 위해, 상기 크기 이미지를 형태학적으로 처리하는 단계는, 상기 소정 횟수의 팽창 및 수축 동작들 이후, 상기 이진화된 이미지로부터 싱글톤 픽셀들을 제거하는 단계를 더 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  10. 제 6 항에 있어서,
    상기 형태학적으로 처리된 이미지 및 최초의 강도 이미지를 마스크된 이미지 내에 결합하는 단계는, 상기 형태학적으로 처리된 이미지와 상기 최초의 강도 이미지를 곱하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  11. 제 6 항에 있어서,
    상기 마스크된 이미지 내의 상기 관심 영역들을 식별하여 카운트하는 단계는, 상기 마스크된 이미지 내의 인접하는 픽셀들의 그룹들을 식별하기 위해 상기 마스크된 이미지에 대하여 형태학적인 이미지 분석을 행하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  12. 제 6 항에 있어서,
    상기 에지 방향 및 에지 크기를 이용하여, 부정확한 검출들로서 식별되는 관심 영역들을 필터링하는 단계는,
    검출된 관심 영역을 방향성 제약 필터로 평가하는 단계와;
    상기 검출된 관심 영역으로부터 배경 요소들을 제거하는 단계와;
    가중치 팩터로 상기 검출된 관심 영역을 강화하는 단계와; 그리고
    미리 정의된 커널로 상기 검출된 관심 영역에 대한 칸벌루션을 수행하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  13. 제 12 항에 있어서,
    상기 검출된 관심 영역을 방향성 제약 필터로 평가하는 단계는,
    상기 방향 이미지로부터 상기 검출된 관심 영역의 픽셀들을 추출하는 단계와;
    상기 검출된 관심 영역의 픽셀들이 상기 방향 이미지 내에서 얼마나 많은 개별적인 별개의 방향들을 갖는 지를 카운트하는 단계와;
    상기 개별적인 별개의 방향들의 카운트를 최소 임계값과 비교하는 단계와; 그리고
    상기 최소 임계값 미만의 상기 개별적인 별개의 방향들의 카운트를 갖는 상기 검출된 임의의 관심 영역들은 관심 영역으로서 더 이상 고려하지 않는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  14. 제 12 항에 있어서,
    상기 검출된 관심 영역으로부터 배경 요소들을 제거하는 단계는,
    상기 검출된 관심 영역이 상기 입력 이미지 데이터의 수평 시야를 미리 결정된 비율 이상으로 점유하고, 상기 검출된 관심 영역 내의 픽셀들의 소정의 비율 이상이 수평 기울기 방향을 갖는 경우, 상기 검출된 관심 영역으로부터 수평 기울기 방향을 갖는 픽셀들을 제거하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  15. 제 14 항에 있어서,
    상기 검출된 관심 영역으로부터 배경 요소들을 제거하는 단계는,
    상기 검출된 관심 영역으로부터 수평 기울기 방향을 갖는 픽셀들을 제거한 후, 상기 검출된 관심 영역 내의 나머지 픽셀들을 소정 횟수 만큼 팽창시키는 단계를 더 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  16. 제 12 항에 있어서,
    상기 검출된 관심 영역으로부터 배경 요소들을 제거하는 단계는,
    상기 검출된 관심 영역이 상기 이미지 입력 데이터의 수직 에지를 접촉하고, 상기 검출된 관심 영역이 상기 이미지의 수평 시야를 소정의 비율 점유하고, 상기 검출된 관심 영역의 소정 수의 가장 왼쪽 픽셀들이 특정의 수평 기울기 방향을 갖 는 경우, 상기 검출된 관심 영역으로부터, 특정의 수평 기울기 방향을 갖는 픽셀들을 제거하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  17. 제 16 항에 있어서,
    상기 검출된 관심 영역으로부터 배경 요소들을 제거하는 단계는,
    상기 검출된 관심 영역으로부터 상기 특정의 수평 기울기 방향을 갖는 픽셀들을 제거한 후, 상기 검출된 관심 영역 내의 나머지 픽셀들을 소정 횟수 만큼 팽창시키는 단계를 더 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  18. 제 13 항에 있어서,
    상기 가중치 팩터로 상기 검출된 관심 영역을 강화하는 단계는,
    상기 검출된 관심 영역을 이진화하는 단계와;
    상기 평가되고 있는 것과 동일한 관심 영역으로부터의 픽셀들을 나타내는 상기 크기 이미지 내의 픽셀들의 평균값으로부터, 상기 가중치 팩터를 계산하는 단계와; 그리고
    상기 이진화된 것과 동일한 관심 영역으로부터의 픽셀들을 나타내는 상기 마스크된 이미지 내의 픽셀들을, 상기 이진화된 검출된 관심 영역 및 상기 가중치 팩터와 곱하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  19. 제 12 항에 있어서,
    상기 관심 영역들이 상기 검출 파라미터들을 충족시키는 지를 결정하는 단계는,
    나머지의 검출된 관심 영역들에 임계 파라미터들을 적용하는 단계와;
    상기 나머지의 검출된 관심 영역들의 중심, 크기 및 폭을 계산하는 단계와; 그리고
    크기 임계치를 충족시키지 않는 상기 나머지의 검출된 관심 영역들을 폐기하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  20. 제 19 항에 있어서,
    상기 나머지의 검출된 관심 영역들에 임계 파라미터들을 적용하는 단계는,
    연속적인 픽셀들의 그룹들을 식별하기 위해, 형태학적 이미지 분석을 이용하여 상기 나머지의 검출된 관심 영역들을 식별하여 카운팅하는 단계와; 그리고
    하나 이상의 상기 검출된 관심 영역이 남아있거나,
    상기 나머지의 검출된 관심 영역으로부터 수평 픽셀들이 제거되었거나,
    상기 검출된 관심 영역으로부터 배경 요소들을 제거하는 단계가 상기 이미지 데이터 내의 제거가능한 배경 요소들의 존재를 나타내었거나, 또는
    상기 검출 파라미터들이, 알려진 관심 영역들중 하나의 크기 미만 만큼 상기 이미지 데이터 내에서 분리되어 있는 상기 알려진 관심 영역들의 존재를 나타내는 경우,
    임계값을 발생시켜 상기 나머지의 검출된 관심 영역들에 적용하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  21. 제 20 항에 있어서,
    상기 임계값을 발생시켜 상기 나머지의 검출된 관심 영역들에 적용하는 단계는,
    임계값을 발생시키는 단계와;
    상기 임계값을 적용하는 단계와; 그리고
    임계 팩터에 의해 결정되는 만큼 상기 임계값 발생 단계 및 적용 단계를 반복하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  22. 제 21 항에 있어서,
    상기 임계값을 발생시키는 단계는,
    상기 나머지의 검출된 관심 영역들에 기초하여 이미지 통계를 계산하는 단계와;
    상기 계산된 이미지 통계 및 상기 검출 파라미터들에 기초하여 상기 임계 팩터의 값을 설정하는 단계와; 그리고
    상기 계산된 이미지 통계 및 상기 임계 팩터의 값에 기초하여 상기 임계값을 계산하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  23. 제 21 항에 있어서,
    상기 임계값을 적용하는 단계는,
    픽셀들이 상기 임계값 미만의 값을 갖는 경우, 상기 나머지의 검출된 관심 영역들로부터 상기 픽셀들을 제거하는 단계와;
    상기 픽셀이 제거된 이후의 상기 나머지의 검출된 관심 영역들의 수와 미리 정의된 관심 영역들의 수를 비교하고, 만일 상기 픽셀이 제거된 후 상기 나머지의 관심 영역들의 수가 상기 미리 정의된 관심 영역들의 수와 같거나 초과하지 않는 경우, 상기 임계 팩터의 값이 정의된 최소값을 초과하는 지를 체크하는 단계와; 그리고
    상기 임계 값이 상기 정의된 최소값을 초과하고, 상기 픽셀이 제거된 후 상기 나머지의 검출된 관심 영역들의 수가 상기 미리 정의된 관심 영역들의 수 보다 작은 경우, 상기 임계값을 발생시키는 단계를 반복하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  24. 제 19 항에 있어서,
    상기 크기 임계치를 충족시키지 않는 상기 나머지의 검출된 관심 영역들을 폐기하는 단계는,
    상기 나머지의 검출된 관심 영역들의 상기 계산된 중심, 크기 및 폭을 미리 정의된 크기 값과 비교하고, 만일 상기 나머지의 검출된 관심 영역들이 허용가능한 크기 값의 특정 비율 내에 있지 않는 경우, 상기 나머지의 검출된 관심 영역들을 폐기하는 단계를 포함하는 것을 특징으로 하는 이미지 내의 관심 영역들을 검출하는 방법.
  25. 컴퓨터에 의해 실행될 때, 이미지 내의 관심 영역들을 검출하는 방법을 수행하는 컴퓨터 실행가능한 프로그램이 저장되어 있는 컴퓨터 판독가능한 매체로서, 상기 방법은,
    입력 이미지 데이터 및 검출 파라미터들을 수신하는 단계와;
    크기 이미지 및 방향 이미지를 발생시키기 위해, 상기 이미지 내의 에지들의 크기 및 방향을 검출하는 단계와;
    에지 크기를 이용하여 가능한 관심 영역들을 검출하는 단계와;
    에지 방향 및 에지 크기를 이용하여, 부정확한 검출들로서 식별되는 관심 영역들을 필터링하는 단계와; 그리고
    상기 관심 영역들이 상기 검출 파라미터들을 충족시키는 지의 여부를 결정하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 판독가능한 매체.
KR1020080101345A 2007-10-15 2008-10-15 결합된 에지 크기 및 에지 방향 분석 기술들을 이용한 이미지 데이터 내의 물체 인식 방법 KR101011515B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/907,596 US8160382B2 (en) 2007-10-15 2007-10-15 Method of object recognition in image data using combined edge magnitude and edge direction analysis techniques
US11/907,596 2007-10-15

Publications (2)

Publication Number Publication Date
KR20090038388A KR20090038388A (ko) 2009-04-20
KR101011515B1 true KR101011515B1 (ko) 2011-01-31

Family

ID=40042901

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080101345A KR101011515B1 (ko) 2007-10-15 2008-10-15 결합된 에지 크기 및 에지 방향 분석 기술들을 이용한 이미지 데이터 내의 물체 인식 방법

Country Status (4)

Country Link
US (1) US8160382B2 (ko)
EP (1) EP2051207A3 (ko)
KR (1) KR101011515B1 (ko)
CA (1) CA2640931A1 (ko)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090245580A1 (en) * 2006-07-21 2009-10-01 Darryl Greig Modifying parameters of an object detector based on detection information
US8200022B2 (en) * 2008-03-24 2012-06-12 Verint Systems Ltd. Method and system for edge detection
DE102008057083A1 (de) * 2008-11-13 2010-05-27 Siemens Aktiengesellschaft Verfahren zum Erfassen und Anzeigen von medizinischen Bilddaten
US8108147B1 (en) * 2009-02-06 2012-01-31 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for automatic omni-directional visual motion-based collision avoidance
KR101182188B1 (ko) * 2009-11-13 2012-09-12 엄두간 적외선 센서 및 이를 이용한 감지 방법
JP4977923B2 (ja) * 2010-03-03 2012-07-18 日本電気株式会社 アクティブ型車両視界補助装置及び車両視界補助方法
TWI416433B (zh) * 2010-05-07 2013-11-21 Primax Electronics Ltd 紅眼影像偵測方法及其相關裝置
AU2011281313B2 (en) * 2010-07-21 2015-01-22 Mbda Uk Limited Image processing method
EP2622578B1 (en) 2010-09-30 2015-01-14 Analogic Corporation Object classification using two-dimensional projection
JP2012141812A (ja) * 2010-12-29 2012-07-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム
WO2012141663A1 (en) 2011-04-13 2012-10-18 Alptekin Temizel A method for individual tracking of multiple objects
US8611598B2 (en) * 2011-07-26 2013-12-17 Harman International (China) Holdings Co., Ltd. Vehicle obstacle detection system
JP5826611B2 (ja) * 2011-11-17 2015-12-02 株式会社ミツトヨ 硬さ試験機、及び硬さ試験方法
KR20130072073A (ko) * 2011-12-21 2013-07-01 한국전자통신연구원 영상 윤곽선 추출 장치 및 방법
JP5977556B2 (ja) * 2012-03-27 2016-08-24 株式会社ミツトヨ 硬さ試験機
GB2510842A (en) * 2013-02-14 2014-08-20 Siemens Medical Solutions A method for fusion of data sets
CN103871058B (zh) * 2014-03-12 2017-02-08 北京航空航天大学 基于压缩采样矩阵分解的红外小目标检测方法
US9508006B2 (en) * 2014-11-03 2016-11-29 Intelescope Solutions Ltd. System and method for identifying trees
US10248839B2 (en) * 2015-11-30 2019-04-02 Intel Corporation Locating objects within depth images
US9792522B2 (en) 2015-12-01 2017-10-17 Bloomsky, Inc. Weather information extraction using sequential images
US10558204B2 (en) * 2016-09-19 2020-02-11 Palo Alto Research Center Incorporated System and method for scalable real-time micro-object position control with the aid of a digital computer
US10186036B1 (en) * 2016-11-04 2019-01-22 Gopro, Inc. Systems and methods for horizon identification in an image
CN110100198B (zh) * 2016-12-23 2022-03-22 生物辐射实验室股份有限公司 印迹图像中的背景信号的减少
US10795056B2 (en) 2017-06-23 2020-10-06 Tianjin Kantian Technology Co., Ltd. Local weather forecast
CN108122013A (zh) * 2017-12-29 2018-06-05 重庆锐纳达自动化技术有限公司 一种跟随运动中排除非跟随目标的方法
CN108734731B (zh) * 2018-05-29 2021-09-28 中科院广州电子技术有限公司 一种基于机器视觉的类圆颗粒目标计数方法
CN109408725B (zh) * 2018-11-07 2020-09-29 京东数字科技控股有限公司 用于确定用户兴趣的方法和装置
CN109635679B (zh) * 2018-11-26 2023-01-24 深圳深知未来智能有限公司 一种实时的靶纸定位及环线识别方法
CN109598301B (zh) * 2018-11-30 2020-12-01 腾讯科技(深圳)有限公司 检测区域去除方法、装置、终端和存储介质
CN110097533B (zh) * 2019-02-12 2023-04-07 哈尔滨新光光电科技股份有限公司 一种光斑外形尺寸和位置的精确测试方法
CA3057655A1 (en) * 2019-10-04 2021-04-04 Wave9 Technology Inc. Remote montoring method using image processing intelligence
KR102504675B1 (ko) * 2020-11-17 2023-03-02 엘아이지넥스원 주식회사 필드 프로그래머블 게이트 어레이로 구현된 저 지연 점 표적 탐지 추적 장치
CN114693707B (zh) * 2020-12-31 2023-09-26 北京小米移动软件有限公司 物体轮廓模板获取方法、装置、设备及存储介质
CN113313652A (zh) * 2021-04-27 2021-08-27 中国电子科技集团公司第十四研究所 一种采用形态学去除安检图像杂波的方法
CN113421301B (zh) * 2021-07-08 2022-08-05 浙江大学 一种田间作物中心区域定位方法及系统
CN114529779B (zh) * 2021-12-31 2023-04-07 扬州市恒泰人防设备有限公司 一种人防门锈蚀状态检测系统及方法
CN115115607B (zh) * 2022-07-19 2024-06-07 重庆大学 一种基于图像分析的图像形状特征提取识别方法
CN115393360B (zh) * 2022-10-28 2023-03-24 常州海图信息科技股份有限公司 一种尾绳监测控制方法及尾绳监测控制装置
CN115661110B (zh) * 2022-11-08 2023-08-01 西南交通大学 一种透明工件识别与定位的方法
CN115828054B (zh) * 2023-02-10 2023-05-02 成都信息工程大学 一种通过改进拉普拉斯自动识别南支槽的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980017645A (ko) * 1996-08-31 1998-06-05 배순훈 화상전화기의 목표물 추적장치 및 방법
KR20020078610A (ko) * 2001-04-06 2002-10-19 티오엠테크놀로지 주식회사 적외선 영상에서의 관심 대상 분할 방법
US6819779B1 (en) 2000-11-22 2004-11-16 Cognex Corporation Lane detection system and apparatus
US7068852B2 (en) 2001-01-23 2006-06-27 Zoran Corporation Edge detection and sharpening process for an image

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4603430A (en) * 1984-09-21 1986-07-29 Hughes Aircraft Company Target discrimination utilizing median filters
US4685143A (en) * 1985-03-21 1987-08-04 Texas Instruments Incorporated Method and apparatus for detecting edge spectral features
US6445832B1 (en) * 2000-10-10 2002-09-03 Lockheed Martin Corporation Balanced template tracker for tracking an object image sequence
EP1202214A3 (en) * 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
US7116823B2 (en) * 2002-07-10 2006-10-03 Northrop Grumman Corporation System and method for analyzing a contour of an image by applying a Sobel operator thereto
US7146057B2 (en) * 2002-07-10 2006-12-05 Northrop Grumman Corporation System and method for image analysis using a chaincode
US6912309B2 (en) * 2003-03-06 2005-06-28 Lockheed Martin Corporation Method and system for identifying objects in an image
US7657059B2 (en) * 2003-08-08 2010-02-02 Lockheed Martin Corporation Method and apparatus for tracking an object
US7512258B2 (en) 2005-07-19 2009-03-31 The Boeing Company System and method for passive wire detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980017645A (ko) * 1996-08-31 1998-06-05 배순훈 화상전화기의 목표물 추적장치 및 방법
US6819779B1 (en) 2000-11-22 2004-11-16 Cognex Corporation Lane detection system and apparatus
US7068852B2 (en) 2001-01-23 2006-06-27 Zoran Corporation Edge detection and sharpening process for an image
KR20020078610A (ko) * 2001-04-06 2002-10-19 티오엠테크놀로지 주식회사 적외선 영상에서의 관심 대상 분할 방법

Also Published As

Publication number Publication date
US8160382B2 (en) 2012-04-17
CA2640931A1 (en) 2009-04-15
US20090226033A1 (en) 2009-09-10
EP2051207A3 (en) 2010-08-04
EP2051207A2 (en) 2009-04-22
KR20090038388A (ko) 2009-04-20

Similar Documents

Publication Publication Date Title
KR101011515B1 (ko) 결합된 에지 크기 및 에지 방향 분석 기술들을 이용한 이미지 데이터 내의 물체 인식 방법
Zhao et al. An accurate iris segmentation framework under relaxed imaging constraints using total variation model
US20140037159A1 (en) Apparatus and method for analyzing lesions in medical image
US9294665B2 (en) Feature extraction apparatus, feature extraction program, and image processing apparatus
US10452922B2 (en) IR or thermal image enhancement method based on background information for video analysis
Xu et al. 2D Barcode localization and motion deblurring using a flutter shutter camera
Fabijańska Variance filter for edge detection and edge-based image segmentation
CN112446225B (zh) 光学代码的模块尺寸的确定
US8189860B2 (en) Systems and methods of using spatial/spectral/temporal imaging for hidden or buried explosive detection
Sosnowski et al. Image processing in thermal cameras
Handore et al. Performance analysis of various methods of tumour detection
KR101769741B1 (ko) 동공 탐지를 통한 홍채 인식 방법 및 홍채 인식 장치
WO2013102797A1 (en) System and method for detecting targets in maritime surveillance applications
CN117333489A (zh) 一种薄膜破损检测装置及检测系统
CN113822927B (zh) 一种适用弱质量图像的人脸检测方法、装置、介质及设备
CN111476074A (zh) 基于毫米波图像的人体异物检测方法
CN117496560A (zh) 一种基于多维向量的指纹纹线识别方法及装置
Valizadeh et al. A novel hybrid algorithm for binarization of badly illuminated document images
JP3906221B2 (ja) 画像処理方法及び画像処理装置
Giannarou et al. Edge detection using quantitative combination of multiple operators
KR101429271B1 (ko) 표적 추적방법 및 이를 이용한 표적 추적장치
Abraham et al. A fuzzy based automatic bridge detection technique for satellite images
Nigam et al. Evaluation and analysis of different type of edge detection techniques on cartridge case image
RU2661793C1 (ru) Способ обработки матрицы чисел
US7193196B2 (en) Methods and systems for evaluating optical systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140107

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150107

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee