KR100229565B1 - 그림자 영역 추출 장치 및 그 방법 - Google Patents

그림자 영역 추출 장치 및 그 방법 Download PDF

Info

Publication number
KR100229565B1
KR100229565B1 KR1019970025147A KR19970025147A KR100229565B1 KR 100229565 B1 KR100229565 B1 KR 100229565B1 KR 1019970025147 A KR1019970025147 A KR 1019970025147A KR 19970025147 A KR19970025147 A KR 19970025147A KR 100229565 B1 KR100229565 B1 KR 100229565B1
Authority
KR
South Korea
Prior art keywords
shadow
area
parameter
region
dark
Prior art date
Application number
KR1019970025147A
Other languages
English (en)
Other versions
KR19990001722A (ko
Inventor
김정엽
Original Assignee
윤종용
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자주식회사 filed Critical 윤종용
Priority to KR1019970025147A priority Critical patent/KR100229565B1/ko
Publication of KR19990001722A publication Critical patent/KR19990001722A/ko
Application granted granted Critical
Publication of KR100229565B1 publication Critical patent/KR100229565B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 입력 영상으로부터 정보를 추출하여 영상의 내용을 해석하는 방법에 관한 것으로, 특히 임의 영상으로부터 칼라 불변량 특성과 밝기 정보를 이용하여 그림자 영역을 추출하고, 칼라 정보가 포함된 밝은 그림자의 경우는 연결 영역을 계산하며, 칼라 정보가 거의 포함되어 있지 않은 어두운 그림자의 경우는 연결 영역을 계산할 수 없고 단지 그림자임을 판별하는 방법을 제안하며, 이들 두가지 형태의 그림자를 각각 검출하는 방법을 제안하고, 이들 2개 모듈을 이용하여 하나의 통합적인 검출 방법을 제안하도록, 임의의 촬영된 칼라 영상을 입력받아 화소별로 영역을 분할 처리하는 입력 회로(10) ; 상기 입력 회로(10)로부터 입력된 정보를 기지로 가정하여 각 영역의 속성을 중심으로 그림자 영역을 판별하는 그림자 영역 검출회로(20) 및 ; 상기 그림자 영역 검출회로(20)로부터 판별된 그림자의 각 영역별 분류 형태(어두운 그림자, 밝은 그림자, 물체) 또는 밝은 그림자의 연결 영역을 출력하는 출력 회로(30)를 포함하여 구성한 그림자 영역 추출 장치 및 그 방법에 관한 것이다.

Description

그림자 영역 추출 장치 및 그 방법
본 발명은 입력 영상으로부터 정보를 추출하여 영상의 내용을 해석하는 방법에 관한 것으로, 특히 임의 영상으로부터 칼라 불변량 특성과 밝기 정보를 이용하여 그림자 영역을 추출하고, 칼라 정보가 포함된 밝은 그림자의 경우는 연결 영역을 계산하며, 칼라 정보가 거의 포함되어 있지 않은 어두운 그림자의 경우는 연결 영역을 계산할 수 없고 단지 그림자임을 판별하는 방법을 제안하며, 이들 두가지 형태의 그림자를 각각 검출하는 방법을 제안하고, 이들 2개 모듈을 이용하여 하나의 통합적인 검출 방법을 제안하도록 한, 그림자 영역 추출 장치 및 그 방법에 관한 것이다.
입력 영상으로부터 정보를 추출하여, 영상의 내용을 해석하는 방법은 여러 가지가 있다.
영상의 내용을 해석하기 위해서는 영상 내부에 임의의 의미있는 영역의 해석이 필수적이다.
즉, 특정 물체 또는 배경 등의 형태로 정보를 분류한 후에, 물체의 특성을 고려하여 기술(description)하는 것이 필요하다.
인간은 정경(scene)을 볼 때, 어떤 물체가 있고, 무슨 색이며, 크기 및 놓인 방향등의 여러 가지 정보를 쉽게 추출하여 이해하고, 이들로부터 의미있는 정보들을 연결함으로써 정경에 대한 해석을 하여, 스스로가 어떠한 환경에 존재하고 있는지를 파악하여, 상황에 대한 적절한 의사 결정 및 행동을 취하게 된다.
그러나, 위험 요소 및 다른 이유로 인간이 주변 환경을 해석할 수 없는 경우가 있다.
이러한 경우, 카메라 및 여러 가지 센서를 장착한 이동체를 이용하여 인간의 기능을 대신하게 만드는 것이 일반적이다.
인간과 같은 지각 능력 및 판단 능력이 없는 무생물인 이동체에 인간과 같은 지각 능력을 부여하기 위해, 카메라 및 여러 가지 센서로부터 얻어진 영상을 해석하는 기술은 매우 중요한 연구 분야이다.
대개의 경우는, 빛의 가시 영역에 대한 흑백 영상에서 출발하여 칼라 영상 및 적외선 영상 및 기타 다른 센서로부터 얻어진 데이터에 이르기까지 광범위한 자료를 이용하여 여러 가지 유용한 정보를 추출하는 방법들이 있다.
그 중 지각 능력을 모사하는 가장 중요한 자료는 빛의 가시 영역을 촬영한 영상이다.
일반적으로, 영상에는 해당 정경의 조명(illuminant), 물체의 형상(shape) 및 이들의 기하학적인 배치(geometry)에 의하여 그림자(shadow)가 발생한다.
그림자 영역은 영상 분할(image segmentation)시 독립적인 영역으로 분류되는 경향이 있어, 바람직하지 못한 결과를 초래하는 경우가 많다.
그림자가 물체와 같은 방식으로 해석되어 잘못된 정보를 기록하거나 처리할 가능성이 높기 때문이다.
그림자는 어두운 그림자(dark-shadow), 밝은 그림자(bright-shadow)의 2가지 형태로 분류하였으며, 어두운 그림자는 칼라 정보가 거의 없는 어두운 경우이고, 밝은 그림자는 비교적 밝은 영역으로서, 칼라 정보를 포함하고 있어 연결 영역을 계산할 수 있으며, 영역 내부의 특성은 일반 물체의 영역과 거의 유사한 경향을 가진다.
그러므로, 하나의 그림자 검출 방법(shadow detection scheme)을 적용하는 경우, 이들 2가지 그림자들의 특성이 서로 다르므로, 효율적인 추출이 어렵다.
그림자 영역은 다양한 영상에서 발생하며, 대개의 경우 인간은 매우 쉽게 물체와 그림자를 구별할 수 있다.
그러나, 컴퓨터를 통한 영상에서의 그림자 영역 판별은 매우 어려우며, 여러 가지 문제점들을 안고 있다.
적절한 해석을 위해서는 정경(scene) 내부의 각 물체에 관한 정보(shape, position, color)와 조명에 관한 정보(geometry, color) 등이 존재해야만 한다.
실제, 임의의 영상에서 그러한 관련 정보들의 추출은 매우 어려우며, 삼차원(3-D) 해석을 통한 그림자(shadow) 영역의 추정은 여러 가지 제한을 가지게 된다.
캑시아 지앙(Caxia Jiang)의 연구에서는 배경이 일정하고 안정적인 특수한 영상에 대하여 그림자 영역의 추출을 시도하였다.
배경보다 더 어두운 부분을 찾아 어두운 그림자(dark-shadow) 만을 추출할 수 있을뿐이며, 배경이 안정적이고 명확한 경우에만 적용할 수 있는 단점이 있다.
그외에도 항공 사진에 적용하는 등 여러 가지 적용 방법들이 존재하나, 대부분 밝기 정보의 편차 및 제한적인 상황에서 발생하는 특수한 형태(항공 사진의 경우 dark-shadow가 지배적임)를 이용하는 것이 일반적이다.
또한, 흑백 영상에 적용되며, 단순히 밝기값의 정도를 이용하여 명확한 그림자 영역(dark-shadow) 만을 추출하는 방법이 대부분이고, 칼라 영상에 대하여 적용한 경우는 거의 없다.
이에 본 발명은 상기한 바와 같은 종래의 제 문제점들을 해소시키기 위하여 창안된 것으로, 임의 영상으로부터 칼라 불변량 특성과 밝기 정보를 이용하여 그림자 영역을 추출하고, 칼라 정보가 포함된 밝은 그림자의 경우는 연결 영역을 계산하며, 칼라 정보가 거의 포함되어 있지 않은 어두운 그림자의 경우는 연결 영역을 계산할 수 없고 단지 그림자임을 판별하는 방법을 제안하며, 이들 두가지 형태의 그림자를 각각 검출하는 방법을 제안하고, 이들 2개 모듈을 이용하여 하나의 통합적인 검출 방법을 제안하도록 한 그림자 영역 추출 장치 및 그 방법을 제공하는데 그 목적이 있다.
또한, 본 발명에서는 기존의 흑백 영상에서 벗어나, 칼라 영상을 입력으로 하고 있으며, 칼라 영상으로부터 추가적인 정보들을 이용하여 더욱 정확하고 안정적인 그림자 영역을 추출할 수 있는 방법을 제공하는데 제 2 의 목적이 있다.
도 1 은 본 발명에 따른 그림자 영역 추출 장치 블록 구성도,
도 2 는 본 발명에 따른 그림자 영역 추출 방법 동작 흐름도,
도 3 은 본 발명에 따라 분할된 영역별로 라벨을 부여하여 영역을 표시한 에시도,
도 4 의 a및 b는 본 발명에 따른 실시 예시도이다.
도면의 주요 부분에 대한 부호의 설명
10 : 입력 회로 11 : 영상 분할부
12 : 영역 표시부 13 : 인접 영역표 생성부
20 : 그림자 영역 검출회로 21 : 1차 파라미터 계산부
22 : 1차 판별부 23 : 2차 파라미터 계산부
24 : 2차 판별부 30 : 출력 회로
상기한 바와 같은 목적을 달성하기 위한 본 발명은, 임의의 촬영된 칼라 영상을 입력받아 화소별로 영역을 분할 처리하는 입력 회로(10) ; 상기 입력 회로(10)로부터 입력된 정보를 기지로 가정하여 각 영역의 속성을 중심으로 그림자 영역을 판별하는 그림자 영역 검출회로(20) 및 ; 상기 그림자 영역 검출회로(20)로부터 판별된 그림자의 각 영역별 분류 형태(어두운 그림자, 밝은 그림자, 물체) 또는 밝은 그림자의 연결 영역을 출력하는 출력 회로(30)를 포함하여 구성함을 특징으로 한다.
상기 입력 회로(10)는 입력된 칼라 영상으로부터 동일한 색으로 구성된 화소별로 영역을 분할하는 영상 분할부(11)와 ; 상기 영상 분할부(11)에서 분할된 영역별로 서로 다른 라벨을 부여하여 영역별 처리가 가능하도록, 동일한 속성을 가지는 영역들에 동일한 라벨을 할당하는 영역 표시부(12) 및 ; 상기 영상 분할부(11)에서 분할된 각 영역들의 연결 정보를 제공하기 위하여 해당 영역을 중심으로 어떤 영역이 인접해 있는지의 정보를 생성하는 인접 영역표 생성부(13)를 포함하여 구성함을 특징으로 한다.
상기 그림자 영역 검출회로(20)는 어두운 그림자의 판별에 필요한 변수를 추출하기 위한 파라미터를 계산하는 1차 파라미터 계산부(21)와 ; 상기 1차 파라미터 계산부(21)에서 계산된 1차 파라미터를 이용하여 어두운 그림자를 판별하는 1차 판별부(22) ; 임의의 영역중 밝은 그림자의 판별에 필요한 변수를 추출하기 위한 파라미터를 계산하는 2차 파라미터 계산부(23) 및 ; 상기 2차 파라미터 계산부(23)에서 계산된 2차 파라미터를 이용하여 밝은 그림자를 판별하는 2차 판별부(24)를 포함하여 구성함을 특징으로 한다.
본 발명의 목적에 따른 그림자 영역 추출 장치의 작동 원리를 상세히 설명하면 다음과 같다.
임의 영상으로부터 칼라 불변량(color invariant) 특성과 밝기(intensity) 정보에 기초한 변수(parameter)를 이용하여, 그림자(shadow) 영역을 추출하기 위하여, 임의의 촬영된 칼라 영상이 입력 회로(10)로 입력되면, 상기 입력 회로(10)의 영상 분할부(11)는 입력된 칼라 영상으로부터 동일한 색으로 구성된 화소별로 영역을 분할한다.
상기 영상 분할부(11)에서 분할된 영역은, 영역 표시부(12)를 통하여 영역별 처리가 가능하도록, 도 3 에 도시한 바와 같이 분할된 영역별로 서로 다른 라벨(label)을 부여한다.
[ 표 1 ]
인접 영역표
영역 번호 인접 영역 개수 인접 영역 번호
0 3 1 2 6
1 4 0 2 5 6
2 5 0 1 3 4 5
3 3 2 4 5
4 3 2 3 5
5 5 1 2 3 4 6
6 3 0 1 5
상기와 같이 라벨이 부여된 해당 영역을 중심으로 인접 영역표 생성부(13)는, 인접한 영역들을 모두 나열함으로써 상기 표(표 1)와 같은 표로 구성함과 아울러, 밝은 그림자(bright-shadow) 판별시 중요한 인접 정보를 제공한다.
상기와 같이 입력 회로(10)를 통하여 그림자 영역별로 분할되어 라벨이 부여된 정보는, 그림자 영역 검출회로(20)의 1차 파라미터 계산부(21)를 통하여 어두운 그림자(dark-shadow)의 판별에 필요한 변수를 추출한다.
한편, 상기와 같이 추출되는 어두운 그림자(dark-shadow)의 특징은 크게 세가지로 나눌 수 있다.
첫째로, 영역내의 밝기(intensity) 평균값이 매우 낮고, 둘째로, 밝기(intensity) 정보의 크기(scale) 범위가 매우 낮기 때문에 칼라 불변량(color invariant)의 변화(variance)가 매우 높으며, 셋째로는, 색포화도(saturation)가 매우 낮다.
어두운 그림자(dark-shadow)의 판별에 필요한 변수(parameter)는, 영역 내부의 평균 밝기(intensity), 영역 내부의 화소당 평균 거리(distance) 또는 칼라 불변량(color invariant) 및 영역 내부의 평균 색포화도(saturation) 등으로 구성되며, 각각의 파라미터가 모두 일정한 조건을 만족시키는 경우에 한하여 어두운 그림자(dark-shadow)로 판별한다.
여기서, 상기 파라미터 계산에 사용되는 일부 변수의 계산은 다음과 같다.
칼라 불변량(color invariant)은 다음 식 1 과 같이 표현되며, 입력 영상의 각 화소별로 알지비(RGB) 값을 사용하여 계산할 수 있다.
이 변수는 형태(shape) 등의 변화에 대하여도 안정적인 특성을 가지는 장점이 있다.
Figure kpo00001
또한, 화소별 밝기값(intensity)은 다음 식 2 와 같이 표현되고, 색포화도(saturation)는 하기 식 3 과 같이 표현된다.
Figure kpo00002
Figure kpo00003
첫째로, 상기 식 1 ~ 식 3 을 이용하여 구한 영역 내부의 평균 밝기(intensity)인 ICL은 다음 식 4 와 같다.
NCL은 해당 영역의 총 화소수를 나타내며, 평균 밝기값은 해당 영역에 포함되는 모든 화소의 밝기값을 평균하여 취한 값이다.
Figure kpo00004
둘째로, 영역 내부의 화소당 평균 거리(distance) 또는 칼라 불변량(color invariant)인 Cd,CL은 다음 식 5 에 나타내었으며, 해당 화소를 중심으로 한 주변 화소들의 칼라 불변량(color invariant)의 편차를 나타내는 항이다.
상기 식 5 의 경우는 3×3 로칼 윈도우(local window)를 사용한 예이다.
Figure kpo00005
셋째로, 영역 내부의 평균 색포화도(saturation)는 다음 식 6 과 같고, 색의 농도를 나타내며, SCL은 해당 영역의 평균 색포화도를 의미한다.
Figure kpo00006
상기 식 4 ~ 식 6 과 같이 계산된 1차 변수 계산값을 도표화하면 다음 표(표 2)와 같다.
[ 표 2 ]
1차 변수 계산값
영역번호 평균 intensity 평균 saturation invariant(C)distance
0 120.3 0.72 0.21
1 102.6 0.54 0.17
2 73.2 0.35 0.62
3 165.3 0.12 0.31
4 113.0 0.63 0.37
5 35.3 0.27 0.75
6 96.8 0.85 0.45
상기와 같이 1차 파라미터 계산부(21)를 통하여 계산된 세 개의 파라미터를 이용하여 1차 판별부(22)에서 어두운 그림자(dark-shadow)를 판별하는 방법은 다음과 같다.
첫번째 파라미터인 해당 영역의 평균 밝기값은, 최대치의 10% 이하(예를 들어 222의 경우 25)인 경우에 어두운 그림자(dark-shadow)의 특성을 가지는 것으로 처리한다.
두번째 파라미터인 영역 내부의 화소당 평균 거리(distance) 또는 칼라 불변량(color invariant)은, 최대 거리인 1.414의 60% 이상인 경우에 어두운 그림자(dark-shadow)의 특성을 가지는 것으로 처리한다.
세번째 파라미터인 평균 색포화도(saturation)는 50% 이하를 어두운 그림자(dark-shadow)의 특성을 가지는 것으로 처리한다.
이상의 세가지 제한 조건을 모두 만족하는 영역은 어두운 그림자(dark-shadow)로 판별하고, 그 외 영역은 2차 파라미터 계산부(23)에서 처리된다.
상기 2차 파라미터 계산부(23)는, 임의 영역중 밝은 그림자(bright-shadow)를 판별하기 위한 변수를 계산한다.
이때, 상기와 같이 계산되는 밝은 그림자(bright-shadow)의 특징은, 영역내의 밝기(intensity) 평균값이 비교적 낮고, 인접 영역중에 칼라 불변량(color invariant)이 유사한 영역 즉, 연결 영역이 존재한다.
밝은 그림자(bright-shadow)의 판별을 위한 변수(parameter)의 계산에는, 영역 내부의 평균 밝기(intensity), 인접 영역간의 화소당 평균 거리(distance) 또는 칼라 불변량(color invariant)의 2가지 변수가 사용된다.
여기서, 상기 파라미터 계산에 사용되는 일부 변수의 계산은 다음과 같다.
영역 내부의 평균 밝기(intensity)는 상기 식 4 와 같이 계산되고, 인접 영역간의 화소당 평균 거리(distance)인 CCL은 다음 식 7 과 같이 계산된다.
평균 칼라 불변량(color invariant)의 계산에 이용되는 대상은, 해당 영역의 평균 밝기값(intensity) 이상의 화소들을 기준으로 하며, 이는 어두운 부분에서의 칼라 불변량(color invariant)이 대개의 경우 안정성이 저하되는 경향이 있기 때문이다.
Figure kpo00007
실제 판별에 이용되는 칼라 거리(distance)인
Figure kpo00008
는 다음 식 8 과 같으며, 단순한 벡터 거리의 계산이고, i는 현재 관심 영역을 의미하며, j는 인접 영역을 의미한다.
Figure kpo00009
상기 두 개의 파라미터를 통합하여 하나의 판별 변수를 구성할 수 있으며, 통합 변수는 다음 식 9 와 같다.
인접 영역중에 상당히 유사한 색을 가지고 밝기 차가 있는 영역은 밝은 그림자(bright-shadow)와 물체(object)의 쌍이 될 가능성이 높다.
통합 파라미터인 Pij는 영역 i가 영역 j에 대하여 그림자(shadow)가 될 가능성을 나타내며, 인접 영역과의 칼라 불변량(color invariant)의 거리가 작을수록, 해당 영역이 어두울수록 밝은 그림자(bright-shadow)일 가능성이 커지는 형태를 가진다.
Figure kpo00010
상기 식 7 ~ 식 9 와 같이 계산된 2차 변수 계산값을 도표화하면 다음 표(표 3)와 같다.
[ 표 3 ]
2차 변수 계산값
영역 번호 인접 영역 번호 영역 intensity invariant(C)distance
0 1 120.3 0.02
2 0.23
6 0.35
1 0 102.6 0.02
2 0.45
5 0.12
6 0.27
2 0 73.2 0.23
1 0.45
3 0.15
4 0.33
5 0.08
..... ..... ..... .....
..... ..... ..... .....
상기와 같이 2차 파라미터 계산부(23)를 통하여 계산된 통합 파라미터(Pij)를 이용하여 2차 판별부(24)에서 밝은 그림자(bright-shadow)를 판별하는 방법은 다음과 같다
첫째, 모든 영역에 대하여 인접 영역들과의 파라미터인 P를 계산한 후, 통합 파라미터가 Pij> TH1 이면, 1차적으로 밝은 그림자(bright-shadow) 후보로 선정한다.
이때, TH1은 적정 한계(threshold)로서, 실험적으로 결정되는 항이다.
둘째, 후보로 선정된 영역과 모든 인접 영역의 해당 파라미터(P) 값으로, 다음 도표(표 4)와 같이 리스트를 작성한다.
[ 표 4 ]
2차 변수 전체 리스트(list)
후보 영역 인접 영역 P
1 2 30
1 3 17
1 5 27
2 1 28
2 5 15
3 1 43
3 4 55
셋째, 상기 도표(표 4)의 리스트 중에서 후보 및 인접 영역중, 이미 어두운 그림자(dark-shadow)로 분류된 경우를 리스트에서 제거하여, 정리된 리스트를 하기 도표(표 5)와 같이 구성한다.
상기 도표(표 5)에서는 영역 2가 어두운 그림자(dark-shadow)로 분류된 경우를 나타낸다.
[ 표 5 ]
2차 변수 수정 리스트(dark-shadow 영역 제거)
후보 영역 인접 영역 P
1 3 17
1 5 27
3 1 43
3 4 55
넷째, 상기 도표(표 5)의 리스트 중에서 후보 영역과 인접 영역들 간의 그림자(shadow) 가능성 파라미터가 가장 큰 경우를 선택하여 밝은 그림자(bright-shadow)와 물체(object)의 쌍으로 판별하고, 다음 도표(표 6)와 같은 최종 리스트를 작성한다.
이때, 선정된 그림자(shadow) - 연결 영역의 쌍에서, 밝기가 어두운 영역을 그림자(shadow)로, 밝은 영역을 연결 영역으로 결정한다.
상기와 같이 그림자 영역 검출회로(20)를 통하여 검출된 정보는, 출력 회로(30)를 통하여 각 영역별 분류 형태 즉, 어두운 그림자(dark-shadow), 밝은 그림자(bright-shadow), 물체(object)를 출력하고, 밝은 그림자(bright-shadow)인 경우는 연결 영역까지 출력한다.
상기 연결 영역을 도표화 하면 하기 도표(표 7)와 같다.
[ 표 6 ]
2차 변수 최종 리스트
후보 영역 인접 영역 P
1 5 27
3 4 55
상기 동작을 동작 순서에 따른 흐름도로 나타내면, 도 2 에 도시한 바와 같이, 칼라 영상, 라벨이 부여된 영상, 연결 영역 등의 입력 모듈을 입력하는 제 1 단계(100)와 ; 입력된 각 영역에 대하여 1차 파라미터를 계산하는 제 2 단계(200) ; 계산된 1차 파라미터가 어두운 그림자인가를 판별하여 어두운 그림자인 경우, 현재 영역을 어두운 그림자로 선정하는 제 3 단계(300) ; 반면에 계산된 1차 파라미터가 어두운 그림자가 아닌 경우 2차 파라미터를 계산하는 제 4 단계(400) ; 계산된 2차 파라미터가 밝은 그림자인가를 판별하여 밝은 그림자가 아닌 경우, 현재 영역을 물체로 선정하는 제 5 단계(500) 및 ; 계산된 2차 파라미터가 밝은 그림자인 경우, 현재 영역을 밝은 그림자로 선정한 후, 연결 영역을 계산하는 제 6 단계(600)를 포함하여 이루어진다.
[ 표 7 ]
영역 연결 정보
후보 영역 인접 영역 P
1 2 21.2
1 3 1.4
1 4 1.7
1 5 5.4
1 6 9.7
2 1 152.4
2 3 10.3
3 1 1.7
3 2 1.7
3 4 8.9
4 1 8.7
4 3 38.1
4 5 12.3
4 6 9.1
5 1 51.5
5 4 22.5
5 6 49.5
6 1 9.3
6 4 1.7
6 5 5.0
따라서, 도 4 의 a에 도시한 바와 같이 분할된 영역별로 라벨을 부여한 영역을, 본 발명에서 제안하는 방법에 따라 그림자 영역을 추출하면, 도 4 의 b와 같은 영상을 얻게된다.
이상에서 상세히 설명한 바와 같이 본 발명은, 임의 영상으로부터 칼라 불변량(color invariant) 특성과 밝기(intensity) 정보 등 다양한 변수의 사용으로, 그림자에 의한 칼라 변화를 적절히 추정함으로써, 그림자(shadow) 영역을 더욱 효과적으로 추출할 수 있다.
또한, 칼라 정보가 포함된 밝은 그림자(bright-shadow)의 경우는 연결 영역을 계산함으로써, 그림자 효과가 배제된 동일한 색의 물체 영역을 추정하는데 이용될 수 있으며, 어두운 영역에 대한 색포화도 정보를 사용함으로써, 어두운 물체와 그림자의 구분시 식별력을 증가시킬 수 있는 효과가 있다.

Claims (4)

  1. 임의의 촬영된 칼라 영상을 입력받아 화소별로 영역을 분할 처리하는 입력 회로(10) ;
    상기 입력 회로(10)로부터 입력된 정보를 기지로 가정하여 각 영역의 속성을 중심으로 그림자 영역을 판별하는 그림자 영역 검출회로(20) 및 ;
    상기 그림자 영역 검출회로(20)로부터 판별된 그림자의 각 영역별 분류 형태(어두운 그림자, 밝은 그림자, 물체) 또는 밝은 그림자의 연결 영역을 출력하는 출력 회로(30)를 포함하여 구성됨을 특징으로 하는, 그림자 영역 추출 장치.
  2. 1 항에 있어서,
    상기 입력 회로(10)는 입력된 칼라 영상으로부터 동일한 색으로 구성된 화소별로 영역을 분할하는 영상 분할부(11)와 ;
    상기 영상 분할부(11)에서 분할된 영역별로 서로 다른 라벨을 부여하여 영역별 처리가 가능하도록, 동일한 속성을 가지는 영역들에 동일한 라벨을 할당하는 영역 표시부(12) 및 ;
    상기 영상 분할부(11)에서 분할된 각 영역들의 연결 정보를 제공하기 위하여 해당 영역을 중심으로 어떤 영역이 인접해 있는지의 정보를 생성하는 인접 영역표 생성부(13)를 포함하여 구성됨을 특징으로 하는, 그림자 영역 추출 장치.
  3. 1 항에 있어서,
    상기 그림자 영역 검출회로(20)는 어두운 그림자의 판별에 필요한 변수를 추출하기 위한 파라미터를 계산하는 1차 파라미터 계산부(21)와 ; 상기 1차 파라미터 계산부(21)에서 계산된 1차 파라미터를 이용하여 어두운 그림자를 판별하는 1차 판별부(22) ; 임의의 영역중 밝은 그림자의 판별에 필요한 변수를 추출하기 위한 파라미터를 계산하는 2차 파라미터 계산부(23) 및 ; 상기 2차 파라미터 계산부(23)에서 계산된 2차 파라미터를 이용하여 밝은 그림자를 판별하는 2차 판별부(24)를 포함하여 구성됨을 특징으로 하는, 그림자 영역 추출 장치.
  4. 칼라 영상, 라벨이 부여된 영상, 연결 영역 등의 입력 모듈을 입력하는 제 1 단계(100)와 ;
    입력된 각 영역에 대하여 1차 파라미터를 계산하는 제 2 단계(200) ;
    계산된 1차 파라미터가 어두운 그림자인가를 판별하여 어두운 그림자인 경우, 현재 영역을 어두운 그림자로 선정하는 제 3 단계(300) ;
    반면에 계산된 1차 파라미터가 어두운 그림자가 아닌 경우 2차 파라미터를 계산하는 제 4 단계(400) ;
    계산된 2차 파라미터가 밝은 그림자인가를 판별하여 밝은 그림자가 아닌 경우, 현재 영역을 물체로 선정하는 제 5 단계(500) 및 ;
    계산된 2차 파라미터가 밝은 그림자인 경우, 현재 영역을 밝은 그림자로 선정한 후, 연결 영역을 계산하는 제 6 단계(600)를 포함하여 이루어짐을 특징으로 하는, 그림자 영역 추출 방법.
KR1019970025147A 1997-06-17 1997-06-17 그림자 영역 추출 장치 및 그 방법 KR100229565B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970025147A KR100229565B1 (ko) 1997-06-17 1997-06-17 그림자 영역 추출 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970025147A KR100229565B1 (ko) 1997-06-17 1997-06-17 그림자 영역 추출 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR19990001722A KR19990001722A (ko) 1999-01-15
KR100229565B1 true KR100229565B1 (ko) 1999-11-15

Family

ID=19509831

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970025147A KR100229565B1 (ko) 1997-06-17 1997-06-17 그림자 영역 추출 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR100229565B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101394474B1 (ko) * 2009-04-27 2014-05-29 서울대학교산학협력단 그림자 추정 장치
KR101648562B1 (ko) * 2010-04-26 2016-08-16 한화테크윈 주식회사 이동 물체 탐지 장치

Also Published As

Publication number Publication date
KR19990001722A (ko) 1999-01-15

Similar Documents

Publication Publication Date Title
Sanin et al. Shadow detection: A survey and comparative evaluation of recent methods
Salvador et al. Cast shadow segmentation using invariant color features
KR100474848B1 (ko) 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법
Cho et al. Adaptive skin-color filter
Finlayson et al. On the removal of shadows from images
EP2959454B1 (en) Method, system and software module for foreground extraction
EP2101296B1 (en) Eye detecting device, eye detecting method, and program
EP3407258B1 (en) Image processing device, image processing system, and program
US20120076421A1 (en) Methods and systems for estimating illumination source characteristics from a single image
Duth et al. Color detection in RGB-modeled images using MAT LAB
Xiong et al. Early smoke detection of forest fires based on SVM image segmentation
JPH0793561A (ja) エッジ及び輪郭抽出装置
CN107038690A (zh) 一种基于多特征融合的运动阴影去除方法
JP2012023572A (ja) ホワイトバランス係数算出装置及びプログラム
KR100229565B1 (ko) 그림자 영역 추출 장치 및 그 방법
EP3435281B1 (en) Skin undertone determining method and an electronic device
Mandal et al. Human visual system inspired object detection and recognition
JPH07311833A (ja) 人物の顔の検出装置
Fernández-Carbajales et al. Visual attention based on a joint perceptual space of color and brightness for improved video tracking
Saxena et al. Colour detection in objects using NIN implemented CNN
Jang et al. Skin region segmentation using an image-adapted colour model
Flores et al. Morphological operators for segmentation of color sequences
GB2396504A (en) Identification of image pixels representing skin by subtraction of colour component values from one another
Hossen et al. Fire detection from video based on temporal variation, temporal periodicity and spatial variance analysis
Devi et al. Active facial tracking

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080708

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee