KR20030028568A - 화상 처리 장치 및 방법과 촬상 장치 - Google Patents

화상 처리 장치 및 방법과 촬상 장치 Download PDF

Info

Publication number
KR20030028568A
KR20030028568A KR10-2003-7002092A KR20037002092A KR20030028568A KR 20030028568 A KR20030028568 A KR 20030028568A KR 20037002092 A KR20037002092 A KR 20037002092A KR 20030028568 A KR20030028568 A KR 20030028568A
Authority
KR
South Korea
Prior art keywords
background
region
area
foreground
processing
Prior art date
Application number
KR10-2003-7002092A
Other languages
English (en)
Other versions
KR100904340B1 (ko
Inventor
데쯔지로 곤도
준이찌 이시바시
다까시 사와오
나오끼 후지와라
다까히로 나가노
세이지 와다
도루 미야께
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2001181397A external-priority patent/JP4660979B2/ja
Priority claimed from JP2001181399A external-priority patent/JP4660980B2/ja
Priority claimed from JP2001181395A external-priority patent/JP4596212B2/ja
Priority claimed from JP2001181398A external-priority patent/JP4596214B2/ja
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20030028568A publication Critical patent/KR20030028568A/ko
Application granted granted Critical
Publication of KR100904340B1 publication Critical patent/KR100904340B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 배경 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리할 수 있도록 한다. 영역 특정부(103)는 입력 화상에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 정보를 출력한다. 영역 처리부(5001)는 영역 정보에 의해서 특정되는 영역마다 입력 화상을 처리한다. 본 발명은, 화상을 처리하는 화상 처리 장치에 적용할 수 있다.

Description

화상 처리 장치 및 방법과 촬상 장치{IMAGE PROCESSING APPARATUS AND METHOD AND IMAGE PICKUP APPARATUS}
입력 화상에 기초하여, 보다 고해상도의 화상을 생성하는 처리의 하나로서, 클래스 분류 적응 처리가 있다. 클래스 분류 적응 처리의 예로서, 공간 방향으로, 보다 고해상도의 화상을 생성하는 처리에서 사용되는 계수를 미리 생성하고, 생성한 계수에 기초하여, 공간 방향으로 보다 고해상도의 화상을 생성하는 처리를 예로 들 수 있다.
도 1은 SD(Standard Definition(표준 정밀도)) 화상으로부터 HD(High Definition(고정밀도)) 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수를 생성하는, 종래의 화상 처리 장치의 구성을 도시한 블록도이다.
프레임 메모리(11)는 HD 화상인 입력 화상을 프레임 단위로 기억한다. 프레임 메모리(11)는 기억하고 있는 HD 화상을 가중 평균부(12) 및 대응 화소 취득부(16)에 공급한다.
가중 평균부(12)는 프레임 메모리(11)에 기억되어 있는 HD 화상을 4분의 1 가중 평균하여, SD 화상을 생성하고, 생성한 SD 화상을 프레임 메모리(13)에 공급한다.
프레임 메모리(13)는 가중 평균부(12)로부터 공급된 SD 화상을 프레임 단위로 기억하고, 기억하고 있는, SD 화상을 클래스 분류부(14) 및 예측 탭 취득부(15)에 공급한다.
클래스 분류부(14)는, 클래스 탭 취득부(21) 및 파형 분류부(22)로 구성되고, 프레임 메모리(13)에 기억되어 있는, SD 화상의, 주목하고 있는 화소인 주목 화소를 클래스 분류한다. 클래스 탭 취득부(21)는 프레임 메모리(13)로부터, 주목 화소에 대응하는, SD 화상의 화소인, 소정의 수의 클래스 탭을 취득하고, 취득한 클래스 탭을 파형 분류부(22)에 공급한다.
도 2는 클래스 탭 취득부(21)가 취득하는 클래스 탭을 설명하는 도면이다. 클래스 탭 취득부(21)는 도 2에 도시한 바와 같이, 소정의 위치의 11개의 클래스 탭을 취득한다.
파형 분류부(22)는 클래스 탭에 기초하여, 주목 화소를 복수의 클래스 중 하나의 클래스로 분류하고, 분류된 클래스에 대응하는 클래스 번호를 예측 탭 취득부(15)에 공급한다. 파형 분류부(22)는 11개의 클래스 탭에 기초하여, 주목 화소를 2048의 클래스 중 하나의 클래스로 분류한다.
예측 탭 취득부(15)는 클래스 번호에 기초하여, 프레임 메모리(13)로부터 분류된 클래스에 대응하는, SD 화상의 화소인, 소정의 수의 예측 탭을 취득하고, 취득한 예측 탭 및 클래스 번호를 대응 화소 취득부(16)에 공급한다.
도 3은 예측 탭 취득부(15)가 취득하는 예측 탭을 설명하는 도면이다. 예측 탭 취득부(15)는 도 3에 도시한 바와 같이, 소정의 위치의 9개의 예측 탭을 취득한다.
대응 화소 취득부(16)는 예측 탭 및 클래스 번호에 기초하여, 프레임 메모리(11)로부터, 예측할 화소값에 대응하는 HD 화상의 화소를 취득하고, 예측 탭, 클래스 번호, 및 취득한 예측할 화소값에 대응하는 HD 화상의 화소를 정규 방정식 생성부(17)에 공급한다.
정규 방정식 생성부(17)는 예측 탭, 클래스 번호, 및 취득한 예측할 화소값에 기초하여, 각 클래스에 대응하여, 예측 탭 및 예측할 화소값의 관계에 대응하는 정규 방정식을 생성하고, 각 클래스에 대응하는, 생성한 정규 방정식을 계수 계산부(18)에 공급한다.
계수 계산부(18)는 정규 방정식 생성부(17)로부터 공급된 정규 방정식을 풀어, 각 클래스에 대응하는 계수 세트를 계산하고, 클래스 번호와 함께 계산한 계수 세트를 계수 세트 메모리(19)에 공급한다.
계수 세트 메모리(19)는 클래스 번호에 기초하여, 산출된 계수 세트를 클래스에 대응시켜 기억한다.
도 4는 클래스 분류 적응 처리의 개략을 설명하는 도면이다. 클래스 분류 적응 처리에서, HD 화상인 교사 화상으로부터, 4분의 1 가중 평균의 처리에 의해 대응하는, SD 화상을 생성한다. 생성된 SD 화상은 학생 화상이라고 칭한다.
이어서, HD 화상인 교사 화상, 및 대응하는, SD 화상인 학생 화상에 기초하여, SD 화상으로부터 HD 화상을 생성하기 위한 계수 세트가 생성된다. 계수 세트는, 선형 예측 등에 의해 SD 화상으로부터 HD 화상을 생성하기 위한 계수로 구성된다.
이와 같이 생성된 계수 세트 및 SD 화상으로부터, 선형 예측 등에 의해 4배 밀한 화상이 생성된다. 계수 세트 및 입력 화상으로부터, 보다 고밀도의 화상 등을 생성하는 처리를 맵핑이라고도 칭한다.
생성된 4배 밀한 화상, 및 대응하는 HD 화상에 기초하여, SNR의 비교, 또는 눈으로 확인함에 의한 정성 평가가 행해진다.
특정한 교사 화상, 및 대응하는 학생 화상으로부터 생성된 계수 세트는 특정한 교사 화상, 및 대응하는 학생 화상의 셀프의 계수 세트라고 칭한다. 셀프의 계수 세트를 사용한 맵핑은 셀프 맵핑이라고 칭한다. 복수의 다른 교사 화상, 및 대응하는 학생 화상으로부터 생성된 계수 세트는 크로스의 계수 세트라고 칭한다.
한편, 정지되어 있는 소정의 배경 앞에서 이동하는 전경인 물체를 비디오 카메라로 촬상하여 얻어지는 화상에는 물체의 이동 속도가 비교적 빠른 경우, 움직임 불선명이 생겨 배경과 전경의 뒤섞임이 생긴다.
종래의 클래스 분류 적응 처리에서는, 도 5에 도시한 바와 같이 전경, 배경, 및 전경 및 배경의 혼합이 생기는 부분 전체에 대하여, 이상과 같은 학습 처리에 의해 하나의 계수 세트가 생성되고, 이 계수 세트에 기초하여 맵핑의 처리가 실행된다.
도 6의 흐름도를 참조하면, SD 화상으로부터 HD 화상을 생성하는 처리에서 사용되는 계수를 생성하는, 종래의 학습 처리를 설명한다. 단계 S11에서, 화상 처리 장치는 학생 화상에 미처리의 화소가 있는지의 여부를 판정하고, 학생 화상에 미처리의 화소가 있다고 판정된 경우, 단계 S12로 진행하고 래스터 스캔순으로 학생 화상으로부터 주목 화소를 취득한다.
단계 S13에서, 클래스 분류부(14)의 클래스 탭 취득부(21)는 프레임 메모리(13)에 기억되어 있는 학생 화상으로부터, 주목 화소에 대응하는 클래스 탭을 취득한다. 단계 S14에서, 클래스 분류부(14)의 파형 분류부(22)는 클래스 탭에 기초하여, 주목 화소를 클래스 분류한다. 단계 S15에서, 예측 탭 취득부(15)는 분류된 클래스에 기초하여, 프레임 메모리(13)에 기억되어 있는 학생 화상으로부터 주목 화소에 대응하는 예측 탭을 취득한다.
단계 S16에서, 대응 화소 취득부(16)는 분류된 클래스에 기초하여, 프레임 메모리(11)에 기억되어 있는, 교사 화상 으로부터 예측할 화소값에 대응하는 화소를 취득한다.
단계 S17에서, 정규 방정식 생성부(17)는 분류된 클래스에 기초하여, 클래스마다의 행렬에, 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값을 가산하여, 단계 S11로 되돌아가고, 화상 처리 장치는 미처리의 화소가 있는지의 여부의 판정을 다시 반복한다. 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값을 가산하는 클래스마다의 행렬은 클래스마다의 계수를 계산하기 위한 정규 방정식에 대응한다.
단계 S11에서, 학생 화상에 미처리의 화소가 없다고 판정된 경우, 단계 S18로 진행하고, 정규 방정식 생성부(17)는 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값이 설정된 클래스마다의 행렬을 계수 계산부(18)에 공급한다. 계수 계산부(18)는 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값이 설정된 클래스마다의 행렬을 풀어, 클래스마다의 계수 세트를 계산한다.
단계 S19에서, 계수 계산부(18)는 계산된 클래스마다의 계수를 계수 세트 메모리(19)에 출력한다. 계수 세트 메모리(19)는 클래스마다 계수 세트를 기억하여, 처리는 종료한다.
도 7은 클래스 분류 적응 처리에 의해, SD 화상으로부터 HD 화상을 생성하는 종래의 화상 처리 장치의 구성을 도시한 블록도이다.
프레임 메모리(31)는, SD 화상인 입력 화상을 프레임 단위로 기억한다. 프레임 메모리(31)는 기억하고 있는, SD 화상을 맵핑부(32)에 공급한다.
맵핑부(32)에 입력된 SD 화상은 클래스 분류부(41) 및 예측 탭 취득부(42)에 공급된다.
클래스 분류부(41)는 클래스 탭 취득부(51) 및 파형 분류부(52)로 구성되고, 프레임 메모리(31)에 기억되어 있는, SD 화상의 주목하고 있는 화소인, 주목 화소를 클래스 분류한다. 클래스 탭 취득부(51)는 프레임 메모리(31)로부터 주목 화소에 대응하는 소정의 수의 클래스 탭을 취득하고, 취득한 클래스 탭을 파형 분류부(52)에 공급한다.
파형 분류부(52)는 클래스 탭에 기초하여, 소정의 수의 클래스 중 하나의 클래스에 주목 화소를 분류하고, 분류된 클래스에 대응하는 클래스 번호를 예측 탭 취득부(42)에 공급한다.
예측 탭 취득부(42)는 클래스 번호에 기초하여, 프레임 메모리(31)에 기억되어 있는 입력 화상으로부터, 분류된 클래스에 대응하는 소정의 수의 예측 탭을 취득하고, 취득한 예측 탭 및 클래스 번호를 예측 연산부(43)에 공급한다.
예측 연산부(43)는 클래스 번호에 기초하여, 계수 세트 메모리(33)에 기억되어 있는 계수 세트로부터, 클래스에 대응하는 계수 세트를 취득한다. 예측 연산부(43)는 클래스에 대응하는 계수 세트, 및 예측 탭에 기초하여, 선형 예측에 의해 예측 화상의 화소값을 예측한다. 예측 연산부(43)는 예측한 화소값을 프레임 메모리(34)에 공급한다.
프레임 메모리(34)는, 예측 연산부(43)로부터 공급된 예측된 화소값을 기억하여, 예측된 화소값이 설정된, HD 화상을 출력한다.
도 8은 입력 화상의 화소값, 및 클래스 분류 적응 처리에 의해 생성된 출력 화상의 화소값을 도시한 도면이다. 도 8에서, □은 입력 신호를 나타내고, ●은 출력 신호를 나타낸다. 도 8에 도시한 바와 같이, 클래스 분류 적응 처리에 의해 생성되는 화상은 SD 화상의 대역 제한에서 잃어버린 파형을 포함한다. 그러한 의미에서, 클래스 분류 적응 처리에 의한 보다 고해상도의 화상의 생성 처리는 해상도를 창조하고 있다고 할 수 있다.
도 9의 흐름도를 참조하면, 클래스 분류 적응 처리를 실행하는 화상 처리 장치에 의한 SD 화상으로부터 HD 화상을 생성하는 종래의 화상의 창조 처리를 설명한다.
단계 S31에서, 화상 처리 장치는 입력 화상에 미처리의 화소가 있는지의 여부를 판정하고, 입력 화상에 미처리의 화소가 있다고 판정된 경우, 단계 S32로 진행하며, 맵핑부(32)는 계수 세트 메모리(33)에 기억되어 있는 계수 세트를 취득한다. 단계 S33에서 화상 처리 장치는 래스터 스캔순으로 입력 화상으로부터 주목 화소를 취득한다.
단계 S34에서 클래스 분류부(41)의 클래스 탭 취득부(51)는 프레임 메모리(31)에 기억되어 있는 입력 화상으로부터, 주목 화소에 대응하는 클래스 탭을 취득한다. 단계 S35에서 클래스 분류부(41)의 파형 분류부(52)는 클래스 탭에 기초하여, 주목 화소를 하나의 클래스에 클래스 분류한다.
단계 S36에서, 예측 탭 취득부(42)는 분류된 클래스에 기초하여, 프레임 메모리(31)에 기억되어 있는 입력 화상으로부터 주목 화소에 대응하는 예측 탭을 취득한다.
단계 S37에서 예측 연산부(43)는 분류된 클래스에 대응하는 계수 세트, 및 예측 탭에 기초하여, 선형 예측에 의해 예측 화상의 화소값을 예측한다.
단계 S38에서 예측 연산부(43)는 예측된 화소값을 프레임 메모리(34)에 출력한다. 프레임 메모리(34)는 예측 연산부(43)로부터 공급된 화소값을 기억한다. 단계는 단계 S31로 되돌아가 미처리의 화소가 있는지 여부의 판정을 반복한다.
단계 S31에서, 입력 화상에 미처리의 화소가 없다고 판정된 경우, 단계 S39로 진행하고, 프레임 메모리(34)는 예측값이 설정된 기억하고 있는 예측 화상을 출력하고, 처리는 종료한다.
또한, 화상의 엣지 강조 처리는 화상의 해상도감을 상승시키는 처리로서, 널리 이용되고 있다.
그러나, 정지하고 있는 배경 앞에서 물체가 이동할 때, 이동하는 물체의 화상 자신의 뒤섞임에 의한 움직임 불선명뿐만 아니라, 배경의 화상과 이동하는 물체의 화상과의 혼합이 발생한다. 종래, 배경의 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리하는 것은 생각되어 있지 않았다.
또한, 엣지 강조 처리를 움직임 불선명을 포함하는 화상에 적용하면, 부자연스러운 화상이 되는 경우가 있었다. 이러한 부자연스러운 화상이 되지 않도록, 엣지 강조의 정도를 낮게 설정하면, 화상의 해상도감이 충분히 상승하지 못하였다.
<발명의 개시>
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 배경의 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리할 수 있도록 하는 것을 목적으로 한다.
또는, 움직임 불선명을 포함하는 화상을 부자연스러운 화상으로 하지 않고, 해상도감을 충분히 상승시킬 수 있도록 하는 것을 목적으로 한다.
본 발명의 제1 화상 처리 장치는 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과, 영역 특정 정보에 의해 특정되는 영역마다, 입력 화상 데이터를 처리하는 처리 수단을 포함하는 것을 특징으로 한다.
처리 수단은, 영역 특정 정보에 대응하고, 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
처리 수단은, 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
처리 수단은, 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하도록 할 수 있다.
영역 특정 수단은, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하며, 처리 수단은 또한 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다 입력 화상 데이터를 처리하도록 할 수 있다.
처리 수단은 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에서 사용되는 계수를 생성하도록 할 수 있다.
처리 수단은 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 의해 출력 화상 데이터를 생성하도록 할 수 있다.
처리 수단은 영역 특정 정보에 의해 특정되는 영역마다 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제1 화상 처리 방법은 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 의해 특정되는 영역마다 입력 화상 데이터를 처리하는 처리 단계를 포함하는 것을 특징으로 한다.
처리 단계는, 영역 특정 정보에 대응하고, 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
처리 단계는, 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
처리 단계는 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하도록 할 수 있다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하며, 처리 단계는 또한 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다 입력 화상 데이터를 처리하도록 할 수 있다.
처리 단계는, 영역 특정 정보에 의해 특정되는 영역마다 클래스 분류 적응 처리에서 사용되는 계수를 생성하도록 할 수 있다.
처리 단계는, 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 의해 출력 화상 데이터를 생성하도록 할 수 있다.
처리 단계는 영역 특정 정보에 의해 특정되는 영역마다, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제1 기록 매체의 프로그램은 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 의해 특정되는 영역마다 입력 화상 데이터를 처리하는 처리 단계를 포함하는 것을 특징으로 한다.
처리 단계는, 영역 특정 정보에 대응하고, 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
처리 단계는, 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
처리 단계는 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하도록 할 수 있다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하며, 처리 단계는 또 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다 입력 화상 데이터를 처리하도록 할 수 있다.
처리 단계는 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응처리에서 사용되는 계수를 생성하도록 할 수 있다.
처리 단계는 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 의해 출력 화상 데이터를 생성하도록 할 수 있다.
처리 단계는 영역 특정 정보에 의해 특정되는 영역마다 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제1 프로그램은, 컴퓨터에, 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 의해 특정되는 영역마다 입력 화상 데이터를 처리하는 처리 단계를 실행시키는 것을 특징으로 한다.
처리 단계는, 영역 특정 정보에 대응하고, 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
처리 단계는, 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
처리 단계는 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하도록 할 수 있다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하며, 처리 단계는 또한커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다 입력 화상 데이터를 처리하도록 할 수 있다.
처리 단계는 영역 특정 정보에 의해 특정되는 영역마다 클래스 분류 적응 처리에서 사용되는 계수를 생성하도록 할 수 있다.
처리 단계는 영역 특정 정보에 의해 특정되는 영역마다 클래스 분류 적응 처리에 의해 출력 화상 데이터를 생성하도록 할 수 있다.
처리 단계는 영역 특정 정보에 의해 특정되는 영역마다 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제1 촬상 장치는 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과, 화상 데이터에 기초하여 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하며, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과, 영역 특정 정보에 의해 특정되는 영역마다 화상 데이터를 처리하는 처리 수단을 포함하는 것을 특징으로 한다.
처리 수단은, 영역 특정 정보에 대응하고, 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
처리 수단은, 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
처리 수단은 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하도록 할 수 있다.
영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 처리 수단은 또한 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다 입력 화상 데이터를 처리하도록 할 수 있다.
처리 수단은 영역 특정 정보에 의해서 특정되는 영역마다 클래스 분류 적응 처리에서 사용되는 계수를 생성하도록 할 수 있다.
처리 수단은 영역 특정 정보에 의해 특정되는 영역마다 클래스 분류 적응 처리에 의해 출력 화상 데이터를 생성하도록 할 수 있다.
처리 수단은 영역 특정 정보에 의해서 특정되는 영역마다 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제2 화상 처리 장치는 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과, 영역 특정 정보에 대응하고, 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 수단을 포함하는 것을 특징으로 한다.
클래스 결정 수단은 혼합 영역, 전경 영역 및 배경 영역 중 일부 영역만의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
화상 처리 장치는, 결정된 클래스에 대응하고, 입력 화상 데이터의 화소 데이터를 처리하고, 클래스 분류 적응 처리에서 사용되는 계수를 생성하는 생성 수단을 더 마련할 수 있다.
화상 처리 장치는, 결정된 클래스에 대응하고, 클래스마다의 계수에 기초하여, 입력 화상 데이터의 화소 데이터를 처리하고, 입력 화상 데이터를 출력 화상 데이터로 변환하는 변환 수단을 더 마련할 수 있다.
영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 클래스 결정 수단은, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
본 발명의 제2 화상 처리 방법은 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 대응하고, 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 단계를 포함하는 것을 특징으로 한다.
클래스 결정 단계는, 혼합 영역, 전경 영역 및 배경 영역 중의 일부의 영역만의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
화상 처리 방법은, 결정된 클래스에 대응하고, 입력 화상 데이터의 화소 데이터를 처리하여, 클래스 분류 적응 처리에 있어서 사용되는 계수를 생성하는 생성 단계를 더 마련할 수 있다.
화상 처리 방법은, 결정된 클래스에 대응하고, 클래스마다의 계수에 기초하여, 입력 화상 데이터의 화소 데이터를 처리하고, 입력 화상 데이터를 출력 화상 데이터로 변환하는 변환 단계를 더 마련할 수 있다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 클래스 결정 단계는, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
본 발명의 제2 기록 매체의 프로그램은 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 대응하여 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 단계를 포함하는 것을 특징으로 한다.
클래스 결정 단계는 혼합 영역, 전경 영역 및 배경 영역 중 일부의 영역만의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
기록 매체의 프로그램은, 결정된 클래스에 대응하고, 입력 화상 데이터의 화소 데이터를 처리하여, 클래스 분류 적응 처리에서 사용되는 계수를 생성하는 생성 단계를 더 마련할 수 있다.
기록 매체의 프로그램은, 결정된 클래스에 대응하고, 클래스마다의 계수에 기초하여, 입력 화상 데이터의 화소 데이터를 처리하여, 입력 화상 데이터를 출력 화상 데이터로 변환하는 변환 단계를 더 마련할 수 있다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 클래스 결정 단계는, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
본 발명의 제2 프로그램은, 컴퓨터에, 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 대응하고, 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 단계를실행시키는 것을 특징으로 한다.
클래스 결정 단계는, 혼합 영역, 전경 영역 및 배경 영역 중 일부 영역만의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
프로그램은, 결정된 클래스에 대응하고, 입력 화상 데이터의 화소 데이터를 처리하고, 클래스 분류 적응 처리에서 사용되는 계수를 생성하는 생성 단계를 더 마련할 수 있다.
프로그램은, 결정된 클래스에 대응하고, 클래스마다의 계수에 기초하여, 입력 화상 데이터의 화소 데이터를 처리하고, 입력 화상 데이터를 출력 화상 데이터로 변환하는 변환 단계를 더 마련할 수 있다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 클래스 결정 단계는, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
본 발명의 제2 촬상 장치는, 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을, 소정 수의 화소 데이터로 이루어지는 촬상 화상 데이터로서 출력하는 촬상 수단과, 촬상 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과, 영역 특정 정보에 대응하는 촬상 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 수단을 포함하는 것을 특징으로 한다.
클래스 결정 수단은 혼합 영역, 전경 영역 및 배경 영역 중 일부 영역만의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
촬상 장치는, 결정된 클래스에 대응하고, 입력 화상 데이터의 화소 데이터를 처리하고, 클래스 분류 적응 처리에서 사용되는 계수를 생성하는 생성 수단을 더 마련할 수 있다.
촬상 장치는, 결정된 클래스에 대응하고, 클래스마다의 계수에 기초하여, 입력 화상 데이터의 화소 데이터를 처리하고, 입력 화상 데이터를 출력 화상 데이터로 변환하는 변환 수단을 더 마련할 수 있다.
영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 클래스 결정 수단은, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 화소 데이터에 대응하는 클래스를 결정하도록 할 수 있다.
본 발명의 제3 화상 처리 장치는 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역특정 정보를 출력하는 영역 특정 수단과 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하는 엣지 강조 수단을 포함하는 것을 특징으로 한다.
영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하며, 엣지 강조 수단은, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제3 화상 처리 방법은 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하는 엣지 강조 단계를 포함하는 것을 특징으로 한다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 엣지 강조 단계는, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제3 기록 매체의 프로그램은, 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하는 엣지 강조 단계를 포함하는 것을 특징으로 한다.
영역 특정 단계는, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 엣지 강조 단계는, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제3 프로그램은, 컴퓨터에, 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 영역 특정 정보에 대응하고, 입력 화상 데이터의 엣지를 강조하는 엣지 강조 단계를 실행시키는 것을 특징으로 한다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 엣지 강조 단계는, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 입력 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제3 촬상 장치는 시간 적분 효과를 갖는 소정 수의 화소를 갖는촬상 소자에 의해 촬상된 피사체 화상을 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과, 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과, 영역 특정 정보에 대응하고, 화상 데이터의 엣지를 강조하는 엣지 강조 수단을 포함하는 것을 특징으로 한다.
영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하고, 엣지 강조 수단은, 특정된 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 대응하고, 화상 데이터의 엣지를 강조하도록 할 수 있다.
본 발명의 제4 화상 처리 장치는 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과, 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하는 처리 수단을 포함하는 것을 특징으로 한다.
처리 수단은 영역 특정 수단에 의해 특정되는 하나의 영역을, 다른 영역의 처리의 방식과 다른 방식으로 처리하도록 할 수 있다.
영역 특정 수단은 전경 영역 및 배경 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
화상 처리 장치는 영역 특정 정보에 기초하여, 혼합 영역의 화소 데이터를 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하는 분리 수단을 더 마련하고, 처리 수단은 전경 오브젝트 성분 및 배경 오브젝트 성분 중 적어도 한쪽을 처리하도록 할 수 있다.
본 발명의 제4 화상 처리 방법은 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하는 처리 단계를 포함하는 것을 특징으로 한다.
처리 단계는, 영역 특정 단계의 처리에 의해 특정되는 1개의 영역을, 다른 영역의 처리의 방식과 다른 방식으로 처리하도록 할 수 있다.
영역 특정 단계는 전경 영역 및 배경 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
화상 처리 방법은, 영역 특정 정보에 기초하여, 혼합 영역의 화소 데이터를 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하는 분리 단계를 더 마련하고, 처리 단계는 전경 오브젝트 성분 및 배경 오브젝트 성분 중 적어도 한쪽을 처리하도록 할 수 있다.
본 발명의 제4 기록 매체의 프로그램은 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하는 처리 단계를 포함하는 것을 특징으로 한다.
처리 단계는 영역 특정 단계의 처리에 의해 특정되는 하나의 영역을, 다른 영역의 처리의 방식과 다른 방식으로 처리하도록 할 수 있다.
영역 특정 단계는, 전경 영역 및 배경 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
영역 특정 단계는 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
기록 매체의 프로그램은 영역 특정 정보에 기초하여, 혼합 영역의 화소 데이터를 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하는 분리 단계를 더 마련하고, 처리 단계는 전경 오브젝트 성분 및 배경 오브젝트 성분 중 적어도 한쪽을 처리하도록 할 수 있다.
본 발명의 제4 프로그램은, 컴퓨터에 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와, 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하는 처리 단계를 실행시키는 것을 특징으로 한다.
처리 단계는 영역 특정 단계의 처리에 의해 특정되는 1개의 영역을 다른 영역의 처리의 방식과 다른 방식으로 처리하도록 할 수 있다.
영역 특정 단계는, 전경 영역 및 배경 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
영역 특정 단계는, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
프로그램은 영역 특정 정보에 기초하여, 혼합 영역의 화소 데이터를, 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하는 분리 단계를 더 마련하고, 처리 단계는 전경 오브젝트 성분 및 배경 오브젝트 성분 중 적어도 한쪽을 처리하도록 할 수 있다.
본 발명의 제4 촬상 장치는 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을, 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과, 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과, 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터를 처리하는 처리 수단을 포함하는 것을 특징으로 한다.
처리 수단은 영역 특정 수단에 의해 특정되는 1개의 영역을, 다른 영역의 처리의 방식과 다른 방식으로 처리하도록 할 수 있다.
영역 특정 수단은 전경 영역 및 배경 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하도록 할 수 있다.
촬상 장치는 영역 특정 정보에 기초하여, 혼합 영역의 화소 데이터를 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하는 분리 수단을 더 마련하고, 처리 수단은 전경 오브젝트 성분 및 배경 오브젝트 성분 중 적어도 한쪽을 처리하도록 할 수 있다.
입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역이 특정되어, 특정 결과에 대응하는 영역 특정 정보가 출력되고, 영역 특정 정보에 의해 특정되는 영역마다 입력 화상 데이터가 처리된다.
입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역이 특정되어, 특정 결과에 대응하는 영역 특정 정보가 출력되고, 영역 특정 정보에 대응하여 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스가 결정된다.
이에 의해, 배경의 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리할 수 있다.
입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합영역과, 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역이 특정되어, 특정 결과에 대응하는 영역 특정 정보가 출력되고, 영역 특정 정보에 대응하여 입력 화상 데이터의 엣지가 강조된다.
이에 의해, 움직임 불선명을 포함하는 화상을 부자연스러운 화상으로 하지 않고, 해상도감을 충분히 상승시킬 수 있다.
입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과 전경 오브젝트 성분으로 이루어지는 전경 영역 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽이 특정되고, 특정 결과에 대응하는 영역 특정 정보가 출력되며, 혼합 영역 및 비혼합 영역 중 적어도 한쪽 영역의 화소 데이터가 처리된다.
이에 의해, 배경의 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리할 수 있다.
본 발명은, 화상 처리 장치 및 방법과 촬상 장치에 관한 것으로, 특히 센서에 의해 검출한 신호와 현실 세계와의 차이를 고려한 화상 처리 장치 및 방법과 촬상 장치에 관한 것이다.
도 1은 종래의 화상 처리 장치의 구성을 도시한 블록도.
도 2는 클래스 탭을 설명하는 도면.
도 3은 예측 탭을 설명하는 도면.
도 4는 클래스 분류 적응 처리의 개략을 설명하는 도면.
도 5는 종래의 계수 세트를 설명하는 도면.
도 6은 종래의 학습 처리를 설명하는 흐름도.
도 7은 종래의 화상 처리 장치의 구성을 도시한 블록도.
도 8은 입력 화상의 화소값, 및 클래스 분류 적응 처리에 의해 생성된 출력 화상의 화소값을 나타내는 도면.
도 9는 종래의 화상의 창조 처리를 설명하는 흐름도.
도 10은 본 발명에 따른 화상 처리 장치의 일 실시예의 구성을 도시한 블록도.
도 11은 화상 처리 장치의 기능의 구성을 도시한 블록도.
도 12는 센서에 의한 촬상을 설명하는 도면.
도 13은 화소의 배치를 설명하는 도면.
도 14는 검출 소자의 동작을 설명하는 도면.
도 15A는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면.
도 15B는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상에 대응하는 모델을 설명하는 도면.
도 16은 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면.
도 17은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델도.
도 18은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 19는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 20은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 21은 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 나타낸 도면.
도 22는 화소와 화소값을 시간 방향으로 전개한 모델과의 대응을 도시한 도면.
도 23은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 24는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 25는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 26은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 27은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 28은 분할된 화상과, 화소의 화소값을 시간 방향으로 전개한 모델도와의 대응을 도시한 도면.
도 29는 분리된 화상과, 화소의 화소값을 시간 방향으로 전개한 모델도와의 대응을 도시한 도면.
도 30은 분할된 화상의 예를 나타낸 도면.
도 31은 분리된 화상의 예를 나타낸 도면.
도 32는 움직임 불선명이 제거된 화상과, 화소의 화소값을 시간 방향으로 전개한 모델도와의 대응을 도시한 도면.
도 33은 본 발명에 따른 화상 처리 장치의 처리를 설명하는 도면.
도 34는 본 발명에 따른 화상 처리 장치의 화상의 처리를 설명하는 흐름도.
도 35는 영역 특정부(103)의 구성의 일례를 도시한 블록도.
도 36은 전경에 대응하는 오브젝트가 이동하고 있을 때의 화상을 설명하는 도면.
도 37은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 38은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 39는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 40은 영역 판정의 조건을 설명하는 도면.
도 41A는 영역 특정부(103)의 영역의 특정한 결과의 예를 나타낸 도면.
도 41B는 영역 특정부(103)의 영역의 특정한 결과의 예를 나타낸 도면.
도 41C는 영역 특정부(103)의 영역의 특정한 결과의 예를 나타낸 도면.
도 41D는 영역 특정부(103)의 영역의 특정한 결과의 예를 나타낸 도면.
도 42는 영역 특정부(103)의 영역의 특정한 결과의 예를 나타낸 도면.
도 43은 영역 특정 처리를 설명하는 흐름도.
도 44는 영역 특정부(103)의 구성의 다른 일례를 도시한 블록도.
도 45는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 46은 배경 화상의 예를 나타낸 도면.
도 47은 2치 오브젝트 화상 추출부(302)의 구성을 도시한 블록도.
도 48A는 상관값의 산출을 설명하는 도면.
도 48B는 상관값의 산출을 설명하는 도면.
도 49A는 상관값의 산출을 설명하는 도면.
도 49B는 상관값의 산출을 설명하는 도면.
도 50은 2치 오브젝트 화상의 예를 나타낸 도면.
도 51은 시간 변화 검출부(303)의 구성을 도시한 블록도.
도 52는 영역 판정부(342)의 판정을 설명하는 도면.
도 53은 시간 변화 검출부(303)의 판정의 예를 나타낸 도면.
도 54는 영역 판정부(103)의 영역 특정 처리를 설명하는 흐름도.
도 55는 영역 판정 처리의 상세 내용을 설명하는 흐름도.
도 56은 영역 특정부(103)의 또 다른 구성을 도시한 블록도.
도 57은 로버스트화부(361)의 구성을 설명하는 블록도.
도 58은 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 59는 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 60은 영역 특정 처리를 설명하는 흐름도.
도 61은 로버스트화 처리의 상세 내용을 설명하는 흐름도.
도 62는 혼합비 산출부(104)의 구성의 일례를 도시한 블록도.
도 63은 이상적인 혼합비α의 예를 나타낸 도면.
도 64는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 65는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 66은 전경 성분의 상관 관계를 이용한 근사를 설명하는 도면.
도 67은 C, N, 및 P의 관계를 설명하는 도면.
도 68은 추정 혼합비 처리부(401)의 구성을 도시한 블록도.
도 69는 추정 혼합비의 예를 나타낸 도면.
도 70은 혼합비 산출부(104)의 다른 구성을 도시한 블록도.
도 71은 혼합비의 산출의 처리를 설명하는 흐름도.
도 72는 추정 혼합비의 연산의 처리를 설명하는 흐름도.
도 73은 혼합비α를 근사하는 직선을 설명하는 도면.
도 74은 혼합비α를 근사하는 평면을 설명하는 도면.
도 75는 혼합비α를 산출할 때의 복수의 프레임의 화소의 대응을 설명하는 도면.
도 76은 혼합비 추정 처리부(401)의 다른 구성을 도시한 블록도.
도 77은 추정 혼합비의 예를 나타낸 도면.
도 78은 혼합비의 산출 처리를 설명하는 흐름도.
도 79는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리를 설명하는 흐름도.
도 80은 전경 배경 분리부(105)의 구성의 일례를 도시한 블록도.
도 81A는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시한 도면.
도 81B는 입력 화상, 전경 성분 화상, 및 배경 성분 화상에 대응하는 모델을 도시한 도면.
도 82는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 83은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 84는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 85는 분리부(601)의 구성의 일례를 도시한 블록도.
도 86A는 분리된 전경 성분 화상의 예를 나타낸 도면.
도 86B는 분리된 배경 성분 화상의 예를 나타낸 도면.
도 87은 전경과 배경과의 분리 처리를 설명하는 흐름도.
도 88은 움직임 불선명 제거부(106)의 구성의 일례를 도시한 블록도.
도 89는 처리 단위를 설명하는 도면.
도 90은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 91은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 92는 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 93은 움직임 불선명 제거부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 제거 처리를 설명하는 흐름도.
도 94는 배경 성분 화상의 모델을 도시한 도면.
도 95는 보정된 배경 성분 화상의 모델을 도시한 도면.
도 96은 계수 세트를 생성하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도.
도 97은 교사 화상과 학생 화상과의 관계를 설명하는 도면.
도 98은 학습부(1006)의 구성을 도시한 블록도.
도 99A는 클래스 분류 처리를 설명하는 도면.
도 99B는 클래스 분류 처리를 설명하는 도면.
도 100A는 ADRC 처리를 설명하는 도면.
도 100B는 ADRC 처리를 설명하는 도면.
도 101은 움직임 불선명 제거 화상 처리부(108)가 생성하는 계수 세트를 설명하는 도면.
도 102는 움직임 불선명 제거 화상 처리부(108)에 의한, 계수 세트를 생성하는 학습 처리를 설명하는 흐름도.
도 103은 배경 성분 화상에 대응하는 계수 세트의 생성 처리를 설명하는 흐름도.
도 104는 클래스 분류 적응 처리를 실행하여, 공간 방향으로 보다 고해상도의 화상을 생성하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도.
도 105는 움직임 불선명이 제거된 전경 성분 화상의 모델을 도시한 도면.
도 106은 움직임 불선명이 부가된 전경 성분 화상의 모델을 도시한 도면.
도 107은 맵핑부(1103)의 구성을 도시한 블록도.
도 108은 움직임 불선명 제거 화상 처리부(108)의 화상의 창조 처리를 설명하는 흐름도.
도 109는 배경 성분 화상에 대응하는 화상의 예측 처리를 설명하는 흐름도.
도 110은 본 발명에 따른 화상 처리 장치의 화상의 처리를 설명하는 흐름도.
도 111은 화상마다, 서로 다른 효과의 엣지 강조 처리를 적용하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도.
도 112는 엣지 강조부(1203)의 구성을 도시한 블록도.
도 113A는 엣지 강조 처리를 설명하는 도면.
도 113B는 엣지 강조 처리를 설명하는 도면.
도 113C는 엣지 강조 처리를 설명하는 도면.
도 114는 필터 계수를 도시한 도면.
도 115는 고역 통과 필터(1221)의 동작을 설명하는 도면.
도 116은 필터 계수를 도시한 도면.
도 117은 고역 통과 필터(1221)의 동작을 설명하는 도면.
도 118은 엣지 강조부(1203)의 다른 구성을 도시한 블록도.
도 119는 필터 계수를 도시한 도면.
도 120은 필터(1241)의 동작을 설명하는 도면.
도 121은 필터 계수를 도시한 도면.
도 122는 필터(1241)의 동작을 설명하는 도면.
도 123은 움직임 불선명 제거 화상 처리부(108)의 처리를 설명하는 도면.
도 124는 움직임 불선명 제거 화상 처리부(108)의 엣지 강조 처리를 설명하는 흐름도.
도 125는 계수 세트를 생성하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도.
도 126은 노이즈를 제거하는 클래스 분류 적응 처리에 사용되는 계수 세트를생성하는 학습 처리를 설명하는 흐름도.
도 127은 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도.
도 128은 움직임 불선명 제거 화상 처리부(108)의 처리를 설명하는 도면.
도 129는 도 127에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)의 화상의 처리를 설명하는 흐름도.
도 130은 화상 처리 장치의 기능의 다른 구성을 도시한 블록도.
도 131은 혼합비 산출부(3001)의 구성의 일례를 도시한 블록도.
도 132는 전경 배경 분리부(3002)의 구성의 일례를 도시한 블록도.
도 133은 화상 처리 장치의 기능의 다른 구성을 도시한 블록도.
도 134는 분리 화상 처리부(4002)의 처리를 설명하는 도면.
도 135는 전경 배경 분리부(4001)의 구성의 일례를 도시한 블록도.
도 136은 분리부(4101)의 구성의 일례를 도시한 블록도.
도 137은 계수 세트를 생성하는 분리 화상 처리부(4002)의 구성을 도시한 블록도.
도 138은 공간 방향으로 보다 고해상도의 화상을 생성하는 분리 화상 처리부(4002)의 구성을 도시한 블록도.
도 139A는 교사 화상의 혼합 영역에서의 화상의 예를 나타낸 도면.
도 139B는 교사 화상의 혼합 영역에서의 화상의 화소값의 변화를 나타내는 도면.
도 140A는 종래의 클래스 분류 적응 처리에 의해 생성된, 혼합 영역의 화상의 예를 나타낸 도면.
도 140B는 종래의 클래스 분류 적응 처리에 의해 생성된, 혼합 영역의 화상의 화소값의 변화를 나타낸 도면.
도 141A는 분리 화상 처리부(4002)에 의해 생성된, 혼합 영역의 화상의 예를 나타낸 도면.
도 141B는 분리 화상 처리부(4002)에 의해 생성된, 혼합 영역의 화상의 화소값의 변화를 나타낸 도면.
도 142A는 교사 화상의 전경 영역에서의 화상의 예를 나타낸 도면.
도 142B는 교사 화상의 전경 영역에서의 화상의 화소값의 변화를 나타낸 도면.
도 143A는 종래의 클래스 분류 적응 처리에 의해 생성된, 전경 영역의 화상의 예를 나타낸 도면.
도 143B는 종래의 클래스 분류 적응 처리에 의해 생성된, 전경 영역의 화상의 화소값의 변화를 나타낸 도면.
도 144A는 분리 화상 처리부(4002)에 의해 생성된, 전경 영역의 화상의 예를 나타낸 도면.
도 144B는 분리 화상 처리부(4002)에 의해 생성된, 전경 영역의 화상의 화소값의 변화를 나타낸 도면.
도 145는, 도 133에 구성을 도시한 화상 처리 장치의 화상의 처리를 설명하는 흐름도.
도 146은 전경 배경 분리부(4001)에 의한 전경과 배경과의 분리 처리를 설명하는 흐름도.
도 147은 분리 화상 처리부(4002)에 의한, 계수 세트를 생성하는 학습 처리를 설명하는 흐름도.
도 148은 분리 화상 처리부(4002)의 화상의 창조 처리를 설명하는 흐름도.
도 149는 분리 화상 처리부(4002)의 구성을 도시한 블록도.
도 150은 분리 화상 처리부(4002)의 처리를 설명하는 도면.
도 151은 도 133에 구성을 도시한 화상 처리 장치의 화상의 처리를 설명하는 흐름도.
도 152는 분리 화상 처리부(4002)에 의한 분리된 화상의 처리를 설명하는 흐름도.
도 153은 화상 처리 장치의 기능의 또 다른 구성을 도시한 블록도.
도 154는 전경 배경 분리부(4601)의 구성의 일례를 도시한 블록도.
도 155는 화상 처리 장치의 기능의 또 다른 구성을 도시한 블록도.
도 156은 영역 처리부(5001)의 처리를 설명하는 도면.
도 157은 계수 세트를 생성하는 영역 처리부(5001)의 구성을 도시한 블록도.
도 158은 공간 방향으로, 보다 고해상도의 화상을 생성하는 영역 처리부(5001)의 구성을 도시한 블록도.
도 159A는 교사 화상의 혼합 영역에서의 화상의 예를 나타낸 도면.
도 159B는 교사 화상의 혼합 영역에서의 화상의 화소값의 변화를 나타내는도면.
도 160A는 종래의 클래스 분류 적응 처리에 의해 생성된, 혼합 영역의 화상의 예를 나타낸 도면.
도 160B는 종래의 클래스 분류 적응 처리에 의해 생성된, 혼합 영역의 화상의 화소값의 변화를 나타내는 도면.
도 161A는 영역 처리부(5001)에 의해 생성된, 혼합 영역의 화상의 예를 나타낸 도면.
도 161B는 영역 처리부(5001)에 의해 생성된, 혼합 영역의 화상의 화소값의 변화를 나타낸 도면.
도 162A는 교사 화상의 전경 영역에서의 화상의 예를 나타낸 도면.
도 162B는 교사 화상의 전경 영역에서의 화상의 화소값의 변화를 나타낸 도면.
도 163A는 종래의 클래스 분류 적응 처리에 의해 생성된, 전경 영역의 화상의 예를 나타낸 도면.
도 163B는 종래의 클래스 분류 적응 처리에 의해 생성된, 전경 영역의 화상의 화소값의 변화를 나타낸 도면.
도 164A는 영역 처리부(5001)에 의해 생성된, 전경 영역의 화상의 예를 나타낸 도면.
도 164B는 영역 처리부(5001)에 의해 생성된, 전경 영역의 화상의 화소값의 변화를 나타낸 도면.
도 165는, 도 155에 구성을 도시한 화상 처리 장치의 화상의 처리를 설명하는 흐름도.
도 166은 영역 처리부(5001)에 의한, 계수 세트를 생성하는 학습 처리를 설명하는 흐름도.
도 167은 영역 처리부(5001)의 화상의 창조 처리를 설명하는 흐름도.
도 168은 영역 처리부(5001)의 구성을 도시한 블록도.
도 169는 영역 처리부(5001)의 처리를 설명하는 도면.
도 170은 도 155에 구성을 도시한 화상 처리 장치의 화상의 처리를 설명하는 흐름도.
도 171은 영역 처리부(5001)의 엣지 강조 처리를 설명하는 흐름도.
도 172는 도 155에 도시한 화상 처리 장치의 처리를 설명하는 도면.
도 173은 계수 세트를 생성하는 영역 처리부(5001)의 구성을 도시한 블록도.
도 174는 도 173에 구성을 도시한 영역 처리부(5001)가 생성하는 계수 세트를 설명하는 도면.
도 175는 계수 세트를 생성하는 학습 처리를 설명하는 흐름도.
도 176은 노이즈가 제거된 화상을 생성하는 영역 처리부(5001)의 구성을 도시한 블록도.
도 177은 도 176에 구성을 도시한 영역 처리부(5001)의 화상의 창조 처리를 설명하는 흐름도.
도 178은 화상 처리 장치의 기능의 구성을 도시한 블록도.
도 179는 본 발명에 따른 화상 처리 장치의 화상의 처리를 설명하는 흐름도.
도 180은 계수 세트를 생성하는 분리 화상 처리부(7001)의 구성을 도시한 블록도.
도 181은 학습부(7024)의 구성을 도시한 블록도.
도 182는 분리 화상 처리부(7001)에 의한, 계수 세트를 생성하는 학습 처리를 설명하는 흐름도.
도 183은 배경 성분 화상에 대응하는 계수 세트의 생성 처리를 설명하는 흐름도.
도 184는 배경 성분 화상에 클래스 분류 적응 처리를 적응하여, 공간 방향으로 보다 고해상도의 화상을 생성함과 함께, 전경 성분 화상을 선형 보간하는 분리 화상 처리부(7001)의 구성을 도시한 블록도.
도 185는 맵핑부(7302)의 구성을 도시한 블록도.
도 186은 도 184에 구성을 도시한 분리 화상 처리부(7001)의 처리를 설명하는 도면.
도 187은 도 184의 분리 화상 처리부(7001)의 처리를 설명하는 흐름도.
도 188은 배경 성분 화상에 대응하는 화상의 예측 처리를 설명하는 흐름도.
도 189는 배경 성분 화상에만 엣지 강조 처리를 적용하는 분리 화상 처리부(7001)의 구성을 도시한 블록도.
도 190은 엣지 강조부(7501)의 구성을 도시한 블록도.
도 191은 엣지 강조부(7501)의 다른 구성을 도시한 블록도.
도 192는 도 189에 구성을 도시한 분리 화상 처리부(7001)의 처리를 설명하는 도면.
도 193은 도 189에 구성을 도시한 분리 화상 처리부(7001)의 처리를 설명하는 흐름도.
도 194는 화상 처리 장치의 기능의 다른 구성을 도시한 블록도.
<발명을 실시하기 위한 최량의 형태>
도 10은 본 발명에 따른 화상 처리 장치의 일 실시예의 구성을 도시한 블록도이다. CPU(Central processing Unit : 71)는 ROM(Read Only Memory : 72), 또는 기억부(78)에 기억되어 있는 프로그램에 따라 각종 처리를 실행한다. RAM(Random Access Memory : 73)에는 CPU(71)가 실행하는 프로그램이나 데이터 등이 적절하게 기억된다. 이들 CPU(71), ROM(72) 및 RAM(73)은 버스(74)에 의해 서로 접속되어 있다.
CPU(71)에는 또, 버스(74)를 통하여 입출력 인터페이스(75)가 접속되어 있다. 입출력 인터페이스(75)에는 키보드, 마우스, 마이크로폰 등으로 이루어지는 입력부(76), 디스플레이, 스피커 등으로 이루어지는 출력부(77)가 접속되어 있다. CPU(71)는 입력부(76)로부터 입력되는 명령에 대응하여 각종 처리를 실행한다. 그리고, CPU(71)는 처리 결과 얻어진 화상이나 음성 등을 출력부(77)에 출력한다.
입출력 인터페이스(75)에 접속되어 있는 기억부(78)는, 예를 들면 하드디스크 등으로 구성되며, CPU(71)가 실행하는 프로그램이나 각종 데이터를 기억한다. 통신부(79)는 인터넷, 그 밖의 네트워크를 통하여 외부의 장치와 통신한다. 이 예의 경우, 통신부(79)는 센서의 출력을 취득하는 취득부로서 기능한다.
또한, 통신부(79)를 통하여 프로그램을 취득하고, 기억부(78)에 기억해도 된다.
입출력 인터페이스(75)에 접속되어 있는 드라이브(80)는 자기 디스크(91), 광 디스크(92), 광 자기 디스크(93), 또는 반도체 메모리(94) 등이 장착되었을 때, 이들을 구동하여, 거기에 기록되어 있는 프로그램이나 데이터 등을 취득한다. 취득된 프로그램이나 데이터는, 필요에 따라 기억부(78)에 전송되어, 기억된다.
도 11은 본 발명에 따른 화상 처리 장치의 기능의 구성을 도시한 블록도이다. 또, 화상 처리 장치의 각 기능을 하드웨어로 실현할지, 소프트웨어로 실현할지는 상관하지 않는다. 즉, 본 명세서의 각 블록도는 하드웨어의 블록도라고 생각해도 되며, 소프트웨어에 의한 기능 블록도라고 생각해도 된다.
여기서, 움직임 불선명이란, 촬상의 대상이 되는 현실 세계에서의 오브젝트의 움직임과, 센서의 촬상의 특성에 의해 생기는, 움직이고 있는 오브젝트에 대응하는 화상에 포함되어 있는 왜곡을 말한다.
이 명세서에서는, 촬상의 대상이 되는 현실 세계에서의 오브젝트에 대응하는 화상을 화상 오브젝트라고 칭한다.
화상 처리 장치에 공급된 입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임검출부(102)에 공급한다. 오브젝트 추출부(101)는, 예를 들면 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트의 윤곽을 검출함으로써, 전경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출한다.
오브젝트 추출부(101)는 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면 입력 화상과, 추출된 전경의 오브젝트에 대응하는 화상 오브젝트와의 차로부터 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출한다.
또한, 예를 들면 오브젝트 추출부(101)는 내부에 설치되어 있는 배경 메모리에 기억되어 있는, 배경 의 화상과 입력 화상과의 차로부터, 전경의 오브젝트에 대응하는 화상 오브젝트, 및 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하도록 해도 된다.
움직임 검출부(102)는, 예를 들면 블록 매칭법, 구배법, 위상 상관법, 및 헬리커시브법 등의 방법에 의해 개략적으로 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보(움직임 벡터에 대응하는 화소의 위치를 특정하는 정보)를 영역 특정부(103) 및 움직임 불선명 제거부(106)에 공급한다.
움직임 검출부(102)가 출력하는 움직임 벡터에는 움직임량 v에 대응하는 정보가 포함되어 있다.
또한, 예를 들면 움직임 검출부(102)는 화상 오브젝트에 화소를 특정하는 화소 위치 정보와 함께 화상 오브젝트마다의 움직임 벡터를 움직임 불선명 제거부(106)에 출력하도록 해도 된다.
움직임량 v는, 움직이고 있는 오브젝트에 대응하는 화상의 위치의 변화를 화소 간격을 단위로서 나타내는 값이다. 예를 들면, 전경에 대응하는 오브젝트의 화상이, 임의의 프레임을 기준으로 하여 다음 프레임에서 4 화소분 떨어진 위치에 표시되도록 이동하고 있을 때, 전경에 대응하는 오브젝트의 화상의 움직임량 v는 4가 된다.
영역 특정부(103)는 입력된 화상의 화소의 각각을, 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 특정하고, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는지 나타내는 정보(이하, 영역 정보라고 칭함)를 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 제거부(106)에 공급한다. 전경 영역, 배경 영역, 또는 혼합 영역의 상세한 내용은 후술한다.
혼합비 산출부(104)는 입력 화상, 및 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 혼합 영역에 포함되는 화소에 대응하는 혼합비(이하, 혼합비α라고 칭함)를 산출하고, 산출한 혼합비를 전경 배경 분리부(105)에 공급한다.
혼합비α는, 후술하는 수학식 3에 나타낸 바와 같이, 화소값에서의 배경의 오브젝트에 대응하는 화상의 성분(이하, 배경 성분이라고도 칭함)의 비율을 나타낸 값이다.
전경 배경 분리부(105)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 전경의 오브젝트에 대응하는화상의 성분(이하, 전경 성분이라고도 칭함)만으로 이루어지는 전경 성분 화상과, 배경 성분만으로 이루어지는 배경 성분 화상으로 입력 화상을 분리하여, 전경 성분 화상을 움직임 불선명 제거부(106)에 공급하고, 배경 성분 화상을 보정부(107)에 공급한다.
움직임 불선명 제거부(106)는 움직임 벡터로부터 알 수 있는 움직임량 v 및 영역 정보에 기초하여, 전경 성분 화상에 포함되는 1 이상의 화소를 나타낸 처리 단위를 결정한다. 처리 단위는 움직임 불선명량의 조정의 처리 대상이 되는 1군의 화소를 지정하는 데이터이다.
움직임 불선명 제거부(106)는 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보, 및 처리 단위에 기초하여, 전경 성분 화상에 포함되는 움직임 불선명을 제거하고, 움직임 불선명을 제거한 전경 성분 화상을 움직임 불선명 제거 화상 처리부(108)에 출력한다.
보정부(107)는 배경 성분 화상에서의 혼합 영역에 대응하는 화소의 화소값을 보정한다. 배경 성분 화상의 혼합 영역에 대응하는 화소의 화소값은 분리되기 전의 혼합 영역의 화소의 화소값으로부터 전경 성분이 제거됨으로써, 산출된다. 따라서, 배경 성분 화상의 혼합 영역에 대응하는 화소의 화소값은 인접하는 배경 영역의 화소의 화소값에 비교하여, 혼합비α에 대응하여 감소하고 있다.
보정부(107)는 이러한 배경 성분 화상에서의 혼합 영역에 대응하는 화소의 화소값의 혼합비α에 대응하는 게인의 저하를 보정하고, 보정한 배경 성분 화상을움직임 불선명 제거 화상 처리부(108)에 공급한다.
움직임 불선명 제거 화상 처리부(108)는 클래스 분류 적응 처리에 의해, 움직임 불선명이 제거된 전경 성분 화상, 및 보정된 배경 성분 화상을 개별적으로 처리한다.
예를 들면, 움직임 불선명 제거 화상 처리부(108)는 움직임 불선명이 제거된 전경 성분 화상, 및 보정된 배경 성분 화상마다, 보다 고해상도의 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수를 생성한다.
예를 들면, 움직임 불선명 제거 화상 처리부(108)는 움직임 불선명이 제거된 전경 성분 화상, 및 보정된 배경 성분 화상마다 클래스 분류 적응 처리를 적용하여, 보다 고해상도의 화상을 창조한다.
이어서, 도 12 내지 도 27을 참조하여, 화상 처리 장치에 공급되는 입력 화상에 대하여 설명한다.
도 12는 센서에 의한 촬상을 설명하는 도면이다. 센서는, 예를 들면, 고체 촬상 소자인 CCD(Charge-Coupled Device) 에리어 센서를 구비한 CCD 비디오 카메라 등으로 구성된다. 현실 세계에서의, 전경에 대응하는 오브젝트(111)는, 현실 세계에서의, 배경에 대응하는 오브젝트(112)와, 센서 사이를, 예를 들면 도 12의 좌측으로부터 우측으로 수평으로 이동한다.
센서는 전경에 대응하는 오브젝트(111)를 배경에 대응하는 오브젝트(112)와 함께 촬상한다. 센서는 촬상한 화상을 1 프레임 단위로 출력한다. 예를 들면, 센서는, 1초동안 30 프레임으로 이루어지는 화상을 출력한다. 센서의 노광 시간은1/30초로 할 수 있다. 노광 시간은 센서가 입력된 광의 전하로의 변환을 개시하고나서, 입력된 광의 전하로의 변환을 종료하기까지의 기간이다. 이하, 노광 시간을 셔터 시간이라고도 칭한다.
도 13은 화소의 배치를 설명하는 도면이다. 도 13에서, A 내지 I는 개개의 화소를 나타낸다. 화소는 화상에 대응하는 평면상에 배치되어 있다. 하나의 화소에 대응하는 1개의 검출 소자는 센서 위에 배치되어 있다. 센서가 화상을 촬상할 때, 1개의 검출 소자는 화상을 구성하는 1개의 화소에 대응하는 화소값을 출력한다. 예를 들면, 검출 소자의 X 방향의 위치는 화상 위의 가로 방향의 위치에 대응하고, 검출 소자의 Y 방향의 위치는 화상 위의 세로 방향의 위치에 대응한다.
도 14에 도시한 바와 같이, 예를 들면 CCD인 검출 소자는 셔터 시간에 대응하는 기간, 입력된 광을 전하로 변환하고, 변환된 전하를 축적한다. 전하량은, 입력된 광의 세기와, 광이 입력되어 있는 시간과 거의 비례한다. 검출 소자는 셔터 시간에 대응하는 기간에서, 입력된 광으로부터 변환된 전하를 이미 축적되어 있는 전하에 추가해 간다. 즉, 검출 소자는 셔터 시간에 대응하는 기간, 입력되는 광을 적분하고, 적분된 광에 대응하는 양의 전하를 축적한다. 검출 소자는 시간에 대하여, 적분 효과가 있다고 할 수 있다.
검출 소자에 축적된 전하는 도시하지 않은 회로에 의해, 전압값으로 변환되고, 전압값은 또한 디지털 데이터 등의 화소값으로 변환되어 출력된다. 따라서, 센서로부터 출력되는 개개의 화소값은 전경 또는 배경에 대응하는 오브젝트가 공간적으로 넓이를 갖는 어느 한 부분을 셔터 시간에 대하여 적분한 결과인, 일차원 공간에 사영된 값을 갖는다.
화상 처리 장치는 이러한 센서의 축적의 동작에 의해, 출력 신호에 매립되어 버린 유의한 정보, 예를 들면 혼합비α를 추출한다.
도 15A 및 도 15B는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면이다. 도 15A는 움직임을 수반하는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 도시하고 있다. 도 15A에 도시한 예에서, 전경에 대응하는 오브젝트는 화면에 대하여 수평으로 좌측으로부터 우측으로 움직이고 있다.
도 15B는, 도 15A에 도시한 화상의 하나의 라인에 대응하는 화소값을 시간 방향으로 전개한 모델도이다. 도 15B의 가로 방향은 도 15A의 공간 방향 X에 대응하고 있다.
배경 영역의 화소는 배경 성분, 즉 배경의 오브젝트에 대응하는 화상의 성분만으로부터, 그 화소값이 구성되어 있다. 전경 영역의 화소는, 전경 성분, 즉 전경의 오브젝트에 대응하는 화상의 성분만으로부터 그 화소값이 구성되어 있다.
혼합 영역의 화소는 배경 성분, 및 전경 성분으로부터 그 화소값이 구성되어 있다. 혼합 영역은, 배경 성분, 및 전경 성분으로부터 그 화소값이 구성되어 있으므로, 왜곡 영역이라고도 할 수 있다. 혼합 영역은, 또한 커버드 백그라운드 영역 및 언커버드 백그라운드 영역으로 분류된다.
커버드 백그라운드 영역은 전경 영역에 대하여, 전경의 오브젝트의 진행 방향의 전단부에 대응하는 위치의 혼합 영역으로서, 시간의 경과에 대응하여 배경 성분이 전경에 덮여 감춰지는 영역을 말한다.
이것에 대하여, 언커버드 백그라운드 영역은 전경 영역에 대하여, 전경의 오브젝트의 진행 방향의 후단부에 대응하는 위치의 혼합 영역으로서, 시간의 경과에 대응하여 배경 성분이 나타나는 영역을 말한다.
이와 같이, 전경 영역, 배경 영역, 또는 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역을 포함하는 화상이 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 입력 화상으로서 입력된다.
도 16은 이상과 같은 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면이다. 도 15A에 도시한 화상에 대응하는 경우, 배경 영역은 정지 부분이고, 전경 영역은 움직임 부분이고, 혼합 영역의 커버드 백그라운드 영역은 배경으로부터 전경으로 변화하는 부분이고, 혼합 영역의 언커버드 백그라운드 영역은 전경으로부터 배경으로 변화하는 부분이다.
도 17은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델도이다. 예를 들면, 인접하여 1열로 배열되어 있는 화소로서, 화면의 1개의 라인상에 배열된 화소를 선택할 수 있다.
도 17에 도시한 F01 내지 F04의 화소값은 정지하고 있는 전경의 오브젝트에 대응하는 화소의 화소값이다. 도 17에 도시한 B01 내지 B04의 화소값은 정지하고있는 배경의 오브젝트에 대응하는 화소의 화소값이다.
도 17에서의 세로 방향은, 도 17의 상측으로부터 하측을 향하여 시간이 경과한다. 도 17의 구형의 상변의 위치는 센서가 입력된 광의 전하로의 변환을 개시하는 시각에 대응하고, 도 17의 구형의 하변의 위치는 센서가 입력된 광의 전하로의 변환을 종료하는 시각에 대응한다. 즉, 도 17의 구형의 상변으로부터 하변까지의 거리는 셔터 시간에 대응한다.
이하에서, 셔터 시간과 프레임 간격이 동일한 경우를 예로 설명한다.
도 17에서의 가로 방향은, 도 15A에서 설명한 공간 방향 X에 대응한다. 보다 구체적으로는, 도 17에 도시한 예에서 도 17의 "F01"이라고 기재된 구형의 좌변으로부터 "B04"이라고 기재된 구형의 우변까지의 거리는 화소의 피치의 8배, 즉 연속하고 있는 8개의 화소의 간격에 대응한다.
전경의 오브젝트 및 배경의 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에서 센서에 입력되는 광은 변화하지 않는다.
여기서, 셔터 시간에 대응하는 기간을 2개 이상의 동일한 길이의 기간으로 분할한다. 예를 들면, 가상 분할수를 4라고 하면, 도 17에 도시한 모델도는 도 18에 도시한 모델로서 나타낼 수 있다. 가상 분할수는 전경에 대응하는 오브젝트의 셔터 시간 내에서의 움직임량 v 등에 대응하여 설정된다. 예를 들면, 4인 움직임량 v에 대응하여, 가상 분할수는 4가 되고, 셔터 시간에 대응하는 기간은 4개로 분할된다.
도 17의 가장 상측 행은, 셔터가 개방하여 최초의, 분할된 기간에 대응한다.도면의 상측으로부터 2번째의 행은 셔터가 개방하여 2번째의, 분할된 기간에 대응한다. 도면의 상측으로부터 3번째의 행은 셔터가 개방하여 3번째의, 분할된 기간에 대응한다. 도면의 상측으로부터 4번째의 행은 셔터가 개방하여 4번째의, 분할된 기간에 대응한다.
이하, 움직임량 v에 대응하여 분할된 셔터 시간을 셔터 시간/v라고도 칭한다.
전경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 광은 변화하지 않으므로, 전경 성분 F01/v는 화소값 F01을 가상 분할수로 나눈 값과 동일하다. 마찬가지로, 전경에 대응하는 오브젝트가 정지하고 있을 때, 전경 성분 F02/v는 화소값 F02를 가상 분할수로 나눈 값과 동일하며, 전경 성분 F03/v는 화소값 F03을 가상 분할수로 나눈 값과 동일하고, 전경 성분 F04/v는 화소값 F04를 가상 분할수로 나눈 값과 동일하다.
배경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 광은 변화하지 않으므로, 배경 성분 B01/v는 화소값 B01을 가상 분할수로 나눈 값과 동일하다. 마찬가지로, 배경에 대응하는 오브젝트가 정지하고 있을 때, 배경 성분 B02/v는 화소값 B02를 가상 분할수로 나눈 값과 동일하고, B03/v는 화소값 B03을 가상 분할수로 나눈 값과 동일하고, B04/v는 화소값 B04를 가상 분할수로 나눈 값과 동일하다.
즉, 전경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에서, 센서에 입력되는 전경의 오브젝트에 대응하는 광이 변화하지 않으므로,셔터가 개방하여 최초의, 셔터 시간/v에 대응하는, 전경 성분 F01/v와, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는, 전경 성분 F01/v와, 셔터가 개방하여 3번째의, 셔터 시간/v에 대응하는, 전경 성분 F01/v와, 셔터가 개방하여 4번째의, 셔터 시간/v에 대응하는, 전경 성분 F01/v는 동일한 값이 된다. F02/v 내지 F04/v도 F01/v와 마찬가지의 관계를 갖는다.
배경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에서 센서에 입력되는 배경의 오브젝트에 대응하는 광은 변화하지 않으므로, 셔터가 개방하여 최초의 셔터 시간/v에 대응하는 배경 성분 B01/v와, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는 배경 성분 B01/v와, 셔터가 개방하여 3번째의, 셔터 시간/v에 대응하는 배경 성분 B01/v와, 셔터가 개방하고 4번째의, 셔터 시간/v에 대응하는 배경 성분 B01/v는 동일한 값이 된다. B02/v 내지 B04/v도 마찬가지의 관계를 갖는다.
이어서, 전경에 대응하는 오브젝트가 이동하여, 배경에 대응하는 오브젝트가 정지하고 있는 경우에 대해 설명한다.
도 19는 전경에 대응하는 오브젝트가 도 19의 우측을 향하여 이동하는 경우의 커버드 백그라운드 영역을 포함하는, 1개의 라인 상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 19에서 전경의 움직임량 v는 4이다. 1 프레임은 짧은 시간이므로, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 19에서, 전경에 대응하는 오브젝트의 화상은, 어느 한 프레임을 기준으로 하여 다음 프레임에서 4 화소분 우측에 표시되도록 이동한다.
도 19에서 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는 전경 영역에 속한다. 도 19에서 좌측으로부터 5번째 내지 좌측으로부터 7번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다. 도 19에서 가장 우측의 화소는 배경 영역에 속한다.
전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트를 피복되어 감춰지도록 이동하고 있으므로, 커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은 셔터 시간에 대응하는 기간의 어느 한 시점에서, 배경 성분으로부터 전경 성분으로 교대한다.
예를 들면, 도 19에 굵은 선으로 나타낸 화소값 M은 수학식 1로 표현된다.
예를 들면, 좌측으로부터 5번째의 화소는 하나의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간/v에 대응하는, 전경 성분을 포함하므로, 좌측으로부터 5번째의 화소의 혼합비α는 1/4이다. 좌측으로부터 6번째의 화소는 2개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간/v에 대응하는, 전경 성분을 포함하므로, 좌측으로부터 6번째의 화소의 혼합비α는 1/2이다. 좌측으로부터 7번째의 화소는 3개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 1개의 셔터 시간/v에 대응하는, 전경 성분을 포함하므로, 좌측으로부터 7번째의 화소의 혼합비α는 3/4이다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있으므로, 예를 들면 도 19 의 좌측으로부터 4번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분 F07/v는 도 19의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는, 전경 성분과 같다. 마찬가지로, 전경 성분 F07/v는 도 19의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v에 대응하는, 전경 성분과, 도 19의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v에 대응하는, 전경 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이며, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있으므로, 예를 들면 도 19 중 좌측으로부터 3번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분 F06/v는 도 19 중 좌측으로부터 4번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는, 전경 성분과 같다. 마찬가지로, 전경 성분 F06/v는 도 19의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v에 대응하는, 전경 성분과, 도 19 중의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v에 대응하는, 전경 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이며, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있으므로, 예를 들면 도 19의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분 F05/v는 도 19의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는, 전경 성분과 같다. 마찬가지로, 전경 성분 F05/v는 도 19의좌측으로부터 4번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v에 대응하는, 전경 성분과, 도 19의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v에 대응하는, 전경 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이며, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있으므로, 예를 들면 도 19의 가장 좌측의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분 F04/v는, 도 19의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는, 전경 성분과 같다. 마찬가지로, 전경 성분 F04/v는 도 19의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v에 대응하는, 전경 성분과, 도 19의 좌측으로부터 4번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v에 대응하는, 전경 성분과 각각 같다.
움직이고 있는 오브젝트에 대응하는, 전경의 영역은 이와 같이 움직임 불선명을 포함하므로, 왜곡 영역이라고도 할 수 있다.
도 20은 전경이 도면의 우측을 향하여 이동하는 경우의, 언커버드 백그라운드 영역을 포함하는 하나의 라인 상의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 도 20에서, 전경의 움직임량 v는 4이다. 1 프레임은 짧은 시간이므로, 전경에 대응하는 오브젝트가 강체이며, 등속으로 이동하고 있다고 가정할 수 있다. 도 20에서, 전경에 대응하는 오브젝트의 화상은, 어느 한 프레임을 기준으로 하여 다음 프레임에서 4 화소분 우측으로 이동한다.
도 20에서 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는 배경 영역에속한다. 도 20에서 좌측으로부터 5번째 내지 좌측으로부터 7번째의 화소는 언커버드 백그라운드인 혼합 영역에 속한다. 도 20에서 가장 우측의 화소는 전경 영역에 속한다.
배경에 대응하는 오브젝트를 덮고 있는 전경에 대응하는 오브젝트가 시간의 경과에 함께 배경에 대응하는 오브젝트의 앞부터 제거되도록 이동하고 있으므로, 언커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은 셔터 시간에 대응하는 기간의 어느 한 시점에서 전경 성분으로부터 배경 성분으로 교체한다.
예를 들면, 도 20에 굵은 선 테두리를 한 화소값 M'은 수학식 2로 표시된다.
예를 들면, 좌측으로부터 5번째의 화소는 3개의 셔터 시간/v에 대응하는 배경 성분을 포함하며, 1개의 셔터 시간/v에 대응하는, 전경 성분을 포함하므로, 좌측으로부터 5번째의 화소의 혼합비α는 3/4이다. 좌측으로부터 6번째의 화소는 2개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간/v에 대응하는, 전경 성분을 포함하므로, 좌측으로부터 6번째의 화소의 혼합비α는 1/2이다. 좌측으로부터 7번째의 화소는 1개의 셔터 시간/v에 대응하는 배경 성분을 포함하여, 3개의 셔터 시간/v에 대응하는, 전경 성분을 포함하므로, 좌측으로부터 7번째의 화소의 혼합비α는 1/4이다.
수학식 1 및 수학식 2을 보다 일반화하면, 화소값 M은 수학식 3으로 표현된다.
여기서, α는 혼합비이다. B는 배경의 화소값이고, Fi/v는 전경 성분이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 움직임량 v가 4이므로, 예를 들면 도 20의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분 F01/v는, 도 20의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는, 전경 성분과 같다. 마찬가지로, F01/v는 도 20의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v에 대응하는, 전경 성분과, 도 20의 좌측으로부터 8번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v에 대응하는, 전경 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있으며, 또한 가상 분할수가 4이므로, 예를 들면 도 20의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분 F02/v는, 도 20의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는, 전경 성분과 같다. 마찬가지로, 전경 성분 F02/v는 도 20의 좌측으로부터 8번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v에 대응하는, 전경 성분과 같다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 움직임량 v가 4이므로, 예를 들면 도 20의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분 F03/v는, 도 20의 좌측으로부터 8번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v에 대응하는, 전경 성분과 같다.
도 18 내지 도 20의 설명에서 가상 분할수는 4라고 설명했지만, 가상 분할수는 움직임량 v에 대응한다. 움직임량 v는 일반적으로 전경에 대응하는 오브젝트의 이동 속도에 대응한다. 예를 들면, 전경에 대응하는 오브젝트가 임의의 프레임을 기준으로 하여 다음 프레임에서 4 화소분 우측에 표시되도록 이동하고 있을 때, 움직임량 v는 4가 된다. 움직임량 v에 대응하여, 가상 분할수는 4가 된다. 마찬가지로, 예를 들면, 전경에 대응하는 오브젝트가 임의의 프레임을 기준으로 하여 다음 프레임에서 6 화소분 좌측에 표시되도록 이동하고 있을 때, 움직임량 v는 6이 되고, 가상 분할수는 6이 된다.
도 21 및 도 22에, 이상에서 설명한, 전경 영역, 배경 영역, 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역과, 분할된 셔터 시간에 대응하는, 전경 성분 및 배경 성분과의 관계를 나타낸다.
도 21은 정지하고 있는 배경의 앞을 이동하고 있는 오브젝트에 대응하는, 전경을 포함하는 화상으로부터, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시한다. 도 21에 도시한 예에서, A로 나타낸, 전경에 대응하는 오브젝트는 화면에 대하여 수평으로 이동하고 있다.
프레임 #n+1은 프레임 #n의 다음 프레임이고, 프레임 #n+2는 프레임 #n+1의다음 프레임이다.
프레임 #n 내지 프레임 #n+2 중 어느 하나로부터 추출한, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출하여, 움직임량 v를 4로 하고, 추출된 화소의 화소값을 시간 방향으로 전개한 모델을 도 22에 도시한다.
전경 영역의 화소값은 전경에 대응하는 오브젝트가 이동하므로, 셔터 시간/v의 기간에 대응하는, 4개의 서로 다른 전경 성분으로 구성된다. 예를 들면, 도 22에 도시한 전경 영역의 화소 중 가장 좌측에 위치하는 화소는 F01/v, F02/v, F03/v, 및 F04/v로 구성된다. 즉, 전경 영역의 화소는 움직임 불선명을 포함하고 있다.
배경에 대응하는 오브젝트가 정지하고 있으므로, 셔터 시간에 대응하는 기간에서, 센서에 입력되는 배경에 대응하는 광은 변화하지 않는다. 이 경우, 배경 영역의 화소값은 움직임 불선명을 포함하지 않는다.
커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역에 속하는 화소의 화소값은 전경 성분과, 배경 성분으로 구성된다.
이어서, 오브젝트에 대응하는 화상이 움직이고 있을 때, 복수의 프레임에서의 인접하여 1열로 배열되어 있는 화소로서, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델에 대하여 설명한다. 예를 들면, 오브젝트에 대응하는 화상이 화면에 대하여 수평으로 움직이고 있을 때, 인접하여 1열로 배열되어 있는 화소로서, 화면의 1개의 라인상에 배열되어 있는 화소를 선택할 수 있다.
도 23은 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 프레임 #n은 프레임 #n-1의 다음 프레임이고, 프레임 #n+1은 프레임 #n의 다음 프레임이다. 다른 프레임도 마찬가지로 칭한다.
도 23에 도시한 B01 내지 B12의 화소값은 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소값이다. 배경에 대응하는 오브젝트가 정지하고 있으므로, 프레임 #n-1 내지 프레임 n+1에서 대응하는 화소의 화소값은 변화하지 않는다. 예를 들면, 프레임 #n-1에서의 B05의 화소값을 갖는 화소의 위치에 대응하는 프레임 #n 에서의 화소, 및 프레임 #n+1에서의 화소는 각각 B05의 화소값을 갖는다.
도 24는 정지하고 있는 배경에 대응하는 오브젝트와 함께 도 24의 우측으로 이동하는 전경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 24에 도시한 모델은 커버드 백그라운드 영역을 포함한다.
도 24에서, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 이동하므로, 전경의 움직임량 v는 4이고, 가상 분할수는 4이다.
예를 들면, 도 24의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은, F12/v가 되고, 도 24의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F12/v가 된다. 도 24의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분, 및 도 24의 좌측으로부터 4번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F12/v가 된다.
도 24의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분은 F11/v가 되고, 도 24의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분도 F11/v가 된다. 도 24의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F11/v가 된다.
도 24의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분은 F10/v가 되고, 도 24의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분도 F10/v가 된다. 도 24의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있으므로, 도 24의 프레임 #n-1의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 배경 성분은 B01/v가 된다. 도 24의 프레임 #n-1의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 최초 및 2번째의, 셔터 시간/v의 배경 성분은 B02/v가 된다. 도 24의 프레임 #n-1의 좌측으로부터 4번째의 화소의, 셔터가 개방하여 최초 내지 3번째의, 셔터 시간/v의 배경 성분은 B03/v가 된다.
도 24의 프레임 #n-1에서, 가장 좌측의 화소는 전경 영역에 속하며, 좌측으로부터 2번째 내지 4번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 24의 프레임 #n-1의 좌측으로부터 5번째의 화소 내지 12번째의 화소는 배경 영역에 속하고, 그 화소값은 각각 B04 내지 B11이 된다.
도 24의 프레임 #n의 좌측으로부터 1번째의 화소 내지 5번째의 화소는 전경 영역에 속한다. 프레임 #n의 전경 영역에서의 셔터 시간/v의 전경 성분은 F05/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 이동하므로, 도 24의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F12/v로 되고, 도 24의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F12/v로 된다. 도 24의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분, 및 도 24 중의 좌측으로부터 8번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F12/v로 된다.
도 24의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분은 F11/v로 되고, 도 24의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분도 F11/v로 된다. 도 24의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F11/v로 된다.
도 24의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분은 F10/v로 되고, 도 24의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분도 F10/v로 된다. 도 24의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F09/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있으므로, 도 24의 프레임 #n의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 배경 성분은 B05/v로 된다. 도 24의 프레임 #n의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 최초 및 2번째의, 셔터 시간/v의 배경 성분은 B06/v로 된다. 도 24의 프레임 #n의 좌측으로부터 8번째의 화소의, 셔터가 개방하여 최초 내지 3번째의, 셔터 시간/v의 배경 성분은 B07/v로 된다.
도 24의 프레임 #n에서, 좌측으로부터 6번째 내지 8번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 24 중의 프레임 #n의 좌측으로부터 9번째의 화소 내지 12번째의 화소는, 배경 영역에 속하여, 화소값은, 각각, B08 내지 Bl1로 된다.
도 24 중의 프레임 #n+1의 좌측으로부터 1번째의 화소 내지 9번째의 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의, 셔터 시간/v의 전경 성분은, F01/v 내지 F12/v 중 하나이다.
전경에 대응하는 오브젝트가, 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 이동하므로, 도 24의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F12/v로 되고, 도 24의 좌측으로부터 10번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F12/v로 된다. 도 24의 좌측으로부터 11번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분, 및 도 24의 좌측으로부터 12번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F12/v로 된다.
도 24의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 기간의 전경 성분은 F11/v로 되고, 도 24의 좌측으로부터 10번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분도 F11/v로 된다. 도 24의 좌측으로부터 11번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F11/v로 된다.
도 24의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분은 F10/v로 되고, 도 24의 좌측으로부터 10번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분도, F10/v로 된다. 도 24의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F09/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있으므로, 도 24의 프레임 #n+1의 좌측으로부터 10번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 배경 성분은 B09/v로 된다. 도 24의 프레임 #n+1의 좌측으로부터 11번째의 화소의, 셔터가 개방하여 최초 및 2번째의, 셔터 시간/v의 배경 성분은 B10/v로 된다. 도 24의 프레임 #n+1의 좌측으로부터 12번째의 화소의, 셔터가 개방하여 최초 내지 3번째의, 셔터 시간/v의 배경 성분은 B11/v로 된다.
도 24의 프레임 #n+1에서 좌측으로부터 10번째 내지 12번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 대응한다.
도 25는, 도 24에 도시한 화소값으로부터 전경 성분을 추출한 화상의 모델도이다.
도 26은 정지하고 있는 배경과 함께 도 26의 우측으로 이동하는 오브젝트에 대응하는, 전경을 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 26에서 언커버드 백그라운드 영역이 포함되어 있다.
도 26에서, 전경에 대응하는 오브젝트는 강체이고, 또한 등속으로 이동하고 있다고 가정할 수 있다. 전경에 대응하는 오브젝트가, 다음 프레임에서 4 화소분 우측에 표시되도록 이동하고 있으므로, 움직임량 v는 4이다.
예를 들면, 도 26의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F13/v로 되고, 도 26의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F13/v로 된다. 도 26의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분, 및 도 26의 좌측으로부터 4번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F13/v로 된다.
도 26의 프레임 #n-1의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F14/v로 되고, 도 26의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F14/v로 된다. 도 26의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F15/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있으므로, 도 26의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 2번째 내지 4번째의, 셔터 시간/v의 배경 성분은 B25/v로 된다. 도 26의 프레임 #n-1의 좌측으로부터 2번째의 화소의, 셔터가 개방하여 3번째 및 4번째의, 셔터 시간/v의 배경 성분은 B26/v로 된다. 도 26의 프레임 #n-1의 좌측으로부터 3번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 배경 성분은 B27/v로 된다.
도 26의 프레임 #n-1에서, 가장 좌측의 화소 내지 3번째의 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 26의 프레임 #n-1의 좌측으로부터 4번째의 화소 내지 12번째의 화소는, 전경 영역에 속한다. 프레임의 전경 성분은 F13/v 내지 F24/v 중 어느 하나이다.
도 26의 프레임 #n의 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B28로 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 이동하므로, 도 26의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은, F13/v로 되어, 도 26의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F13/v로 된다. 도 26의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분, 및 도 26의 좌측으로부터 8번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F13/v로 된다.
도 26의 프레임 #n의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F14/v로 되고, 도 26의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F14/v로 된다. 도 26의 좌측으로부터 8번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F15/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있으므로, 도 26의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방하여 2번째 내지 4번째의, 셔터 시간/v의 배경 성분은 B29/v로 된다. 도 26의 프레임 #n의 좌측으로부터 6번째의 화소의, 셔터가 개방하여 3번째 및 4번째의, 셔터 시간/v의 배경 성분은 B30/v로 된다. 도 26의 프레임 #n의 좌측으로부터 7번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 배경 성분은 B31/v로 된다.
도 26의 프레임 #n에서, 좌측으로부터 5번째의 화소 내지 7번째의 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 26의 프레임 #n의 좌측으로부터 8번째의 화소 내지 12번째의 화소는, 전경 영역에 속한다. 프레임 #n의 전경 영역에서의 셔터 시간/v의 기간에 대응하는 값은 F13/v 내지 F20/v 중 어느 하나이다.
도 26의 프레임 #n+1의 가장 좌측의 화소 내지 좌측으로부터 8번째의 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B32로 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 이동하므로, 도 26의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F13/v로 되고, 도 26의 좌측으로부터 10번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F13/v로 된다. 도 26의 좌측으로부터 11번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간/v의 전경 성분, 및 도 26의 좌측으로부터 12번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간/v의 전경 성분은 F13/v로 된다.
도 26의 프레임 #n+1의 좌측으로부터 10번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F14/v로 되고, 도 26의 좌측으로부터 11번째의 화소의, 셔터가 개방하여 2번째의, 셔터 시간/v의 전경 성분도 F14/v로 된다. 도 26의 좌측으로부터 12번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경 성분은 F15/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있으므로, 도 26의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방하여 2번째 내지 4번째의, 셔터 시간/v의 배경 성분은 B33/v로 된다. 도 26의 프레임 #n+1의 좌측으로부터 10번째의 화소의, 셔터가 개방하여 3번째 및 4번째의, 셔터 시간/v의 배경 성분은 B34/v로 된다. 도 26의 프레임 #n+1의 좌측으로부터 11번째의 화소의, 셔터가 개방하여 4번째의,셔터 시간/v의 배경 성분은 B35/v로 된다.
도 26의 프레임 #n+1에서, 좌측으로부터 9번째의 화소 내지 11번째의 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 26의 프레임 #n+1의 좌측으로부터 12번째의 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의 셔터 시간/v의 전경 성분은 F13/v 내지 F16/v 중 어느 하나이다.
도 27은, 도 26에 도시한 화소값으로부터 전경 성분을 추출한 화상의 모델도이다.
도 28은 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역에 속하는 화소마다 분할된 화상과, 화소의 화소값을 시간 방향으로 전개한 모델도와의 대응을 도시한 도면이다.
도 28에 도시한 바와 같이, 영역 특정부(103)는 입력 화상의 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 특정한다.
도 29는 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분, 언커버드 백그라운드 영역의 전경 성분, 및 언커버드 백그라운드 영역의 배경 성분으로 분리된 입력 화상과, 화소의 화소값을 시간 방향으로 전개한 모델도와의 대응을 도시한 도면이다.
도 29에 도시한 바와 같이, 입력 화상은 영역 특정부(103)에 의해, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역으로 특정된다. 입력 화상은 전경 배경 분리부(105)에 의해, 특정된 전경 영역, 배경 영역,커버드 백그라운드 영역, 및 언커버드 백그라운드 영역, 및 혼합비 산출부(104)에 의해 검출된 혼합비α에 기초하여, 전경 영역의 화상, 커버드 백그라운드 영역의 전경 성분, 및 언커버드 백그라운드 영역의 전경 성분으로 이루어지는 전경 성분 화상, 및 배경 영역의 화상, 커버드 백그라운드 영역의 배경 성분, 및 언커버드 백그라운드 영역의 배경 성분으로 이루어지는 배경 성분 화상으로 분리된다.
분리된 전경 성분 화상, 및 배경 성분 화상은 각각의 화상마다, 처리된다.
전경 배경 분리부(105)는 입력 화상을 영역 정보 및 혼합비α에 기초하여, 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상으로 분리하도록 해도 된다.
도 30은 전경 영역, 배경 영역, 및 혼합 영역으로 분할된 화상의 예를 나타낸 도면이다. 영역 특정부(103)는 입력 화상의, 전경 영역, 배경 영역, 및 혼합 영역을 특정한다. 화상 처리 장치는 전경 영역, 배경 영역, 및 혼합 영역을 나타내는 영역 정보에 기초하여, 입력 화상을 전경 영역의 화상, 배경 영역의 화상, 및 혼합 영역의 화상으로 분할할 수 있다.
도 31에 도시한 바와 같이, 전경 배경 분리부(105)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 혼합 영역의 화상을 혼합 영역의 전경 성분 화상 및 혼합 영역의 배경 성분 화상으로 분리한다.
도 32에 도시한 바와 같이, 분리된 배경 성분 화상은 혼합 영역의 화소값이보정되고, 분리된 전경 성분 화상은 움직임 불선명이 제거된다.
도 33에 도시한 바와 같이, 입력 화상은, 영역으로 분할되어, 전경 성분과 배경 성분으로 분리된다. 분리된 입력 화상은 전경 성분 화상 및 배경 성분 화상에 합성된다.
전경 성분 화상에 포함되는 움직임 불선명은 제거된다. 배경 성분 화상은 혼합 영역에 대응하는 화소값이 보정된다.
움직임 불선명이 제거된 전경 성분 화상, 및 보정된 배경 성분 화상은 개별적으로 처리된다.
도 34는 본 발명에 따른 화상 처리 장치의 화상의 처리를 설명하는 흐름도이다.
단계 S101에서, 영역 특정부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보와 입력 화상에 기초하여, 입력 화상의 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 특정한다. 영역 특정 처리의 상세한 내용은 후술하겠다.
단계 S102에서, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보 및 입력 화상에 기초하여, 혼합비α를 산출한다. 혼합비 산출부(104)의 혼합비α를 산출하는 처리의 상세한 내용은 후술하겠다.
단계 S103에서, 전경 배경 분리부(105)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 입력 화상을, 전경 성분으로 이루어지는 전경 성분 화상, 및 배경 성분으로 이루어지는 배경 성분 화상으로 분리한다. 전경 배경 분리부(105)의 화상의 분리 처리의 상세한 내용은 후술한다.
단계 S104에서, 움직임 불선명 제거부(106)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보, 및 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상의 움직임 불선명을 제거한다.
단계 S105에서, 보정부(107)는 전경 배경 분리부(105)로부터 공급된 배경 성분 화상의 혼합 영역에 대응하는 화소값을 보정한다.
단계 S106에서, 움직임 불선명 제거 화상 처리부(108)는 움직임 불선명이 제거된 전경 성분 화상, 및 보정된 배경 성분 화상마다, 화상의 처리를 실행하여, 처리는 종료한다. 움직임 불선명 제거 화상 처리부(108)가 실행하는 화상 처리의 상세한 내용은 후술하겠다.
이와 같이, 본 발명에 따른 화상 처리 장치는 입력 화상을, 전경 성분 화상 및 배경 성분 화상으로 분리하여, 전경 성분 화상으로부터 움직임 불선명을 제거하고, 움직임 불선명이 제거된 전경 성분 화상, 및 배경 성분 화상마다 화상 처리를 실행한다.
이하, 영역 특정부(103), 혼합비 산출부(104), 전경 배경 분리부(105), 움직임 불선명 제거부(106), 및 움직임 불선명 제거 화상 처리부(108) 각각의 구성에 대하여 설명한다.
도 35는 영역 특정부(103)의 구성의 일례를 도시한 블록도이다. 도 35에 구성을 도시한 영역 특정부(103)는 움직임 벡터를 이용하지 않는다. 프레임 메모리(201)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(201)는 처리의 대상이 프레임 #n일 때, 프레임 #n의 2개 전의 프레임인 프레임 #n-2, 프레임 #n의 1개 전의 프레임인 프레임 #n-1, 프레임 #n, 프레임 #n의 하나 후의 프레임인 프레임 #n+1, 및 프레임 #n의 2개 후의 프레임인 프레임 #n+2를 기억한다.
정동 판정부(202-1)는 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소의 화소값, 및 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값을 프레임 메모리(201)로부터 판독하고, 판독한 화소값의 차의 절대값을 산출한다. 정동 판정부(202-1)는 프레임 #n+2의 화소값과 프레임 #n+1의 화소값과의 차의 절대값이 미리 설정되어 있는 임계값 Th보다 큰지의 여부를 판정하고, 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다. 프레임 #n+2의 화소의 화소값과 프레임 #n+1의 화소의 화소값과의 차의 절대값이 임계값 Th이하라고 판정된 경우, 정동 판정부(202-1)는 정지를 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다.
정동 판정부(202-2)는 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값, 및 프레임 #n의 대상이 되는 화소의 화소값을 프레임 메모리(201)로부터 판독하고, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-2)는 프레임 #n+1의 화소값과 프레임 #n의 화소값과의 차의 절대값이 미리 설정되어 있는 임계값 Th보다 큰지의 여부를 판정하고, 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다. 프레임 #n+1의 화소의 화소값과 프레임 #n의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-2)는 정지를 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다.
정동 판정부(202-3)는 프레임 #n의 영역 특정 대상인 화소의 화소값, 및 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값을 프레임 메모리(201)로부터 판독하고, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-3)는 프레임 #n의 화소값과 프레임 #n-1의 화소값과의 차의 절대값이 미리 설정되어 있는 임계값 Th보다 큰지의 여부를 판정하여, 화소값의 차의 절대값이, 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다. 프레임 #n의 화소의 화소값과 프레임 #n-1의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-3)는 정지를 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다.
정동 판정부(202-4)는 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값, 및 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소의 화소값을 프레임 메모리(201)로부터 판독하고, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-4)는 프레임 #n-1의 화소값과 프레임 #n-2의 화소값과의 차의 절대값이미리 설정되어 있는 임계값 Th보다 큰지의 여부를 판정하고, 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다. 프레임 #n-1의 화소의 화소값과 프레임 #n-2의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-4)는 정지를 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 언커버드 백그라운드 영역에 속한다고 판정하여, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 언커버드 백그라운드 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에, 언커버드 백그라운드 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-1)는 이와 같이 "1" 또는 "0"이 설정된 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)으로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 정지 영역에 속한다고 판정하여, 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 정지 영역에 속하지 않는다고 판정하여, 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에 정지 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 움직임 영역에 속한다고 판정하여, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내거나, 또는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 움직임 영역에 속하지 않는다고 판정하여, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-4)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 커버드 백그라운드 영역에 속한다고 판정하여, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내거나, 또는 정동 판정부(202-4)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 커버드 백그라운드 영역에 속하지 않는다고 판정하여, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-3)는 이와 같이 "1" 또는 "0"이 설정된 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
판정 플래그 저장 프레임 메모리(204)는 영역 판정부(203-1)로부터 공급된, 언커버드 백그라운드 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 정지 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 움직임 영역 판정 플래그, 및 영역 판정부(203-3)로부터 공급된, 커버드 백그라운드 영역 판정 플래그를 각각 기억한다.
판정 플래그 저장 프레임 메모리(204)는 기억하고 있는 언커버드 백그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그를 합성부(205)에 공급한다. 합성부(205)는 판정 플래그 저장 프레임 메모리(204)로부터 공급된, 언커버드 백그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그에 기초하여, 각 화소가 언커버드 백그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하여, 판정 플래그 저장 프레임 메모리(206)에 공급한다.
판정 플래그 저장 프레임 메모리(206)는 합성부(205)로부터 공급된 영역 정보를 기억함과 함께, 기억하고 있는 영역 정보를 출력한다.
이어서, 영역 특정부(103)의 처리의 예를 도 36 내지 도 40을 참조하여 설명한다. 전경에 대응하는 오브젝트가 이동하고 있을 때, 오브젝트에 대응하는 화상의 화면 위의 위치는 프레임마다 변화한다. 도 36에 도시한 바와 같이, 프레임 #n에서 Yn(x, y)로 나타내는 위치에 위치하는 오브젝트에 대응하는 화상은 다음 프레임인 프레임 #n+1에서 Yn+1(x, y)에 위치한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 배열되는 화소의 화소값을 시간 방향으로 전개한 모델도를 도 37에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대하여 수평일 때, 도 37에 있어서의 모델도는 하나의 라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 도시한다.
도 37에서, 프레임 #n에서의 라인은 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에서, 좌측으로부터 2번째의 화소 내지 13번째의 화소에 포함되어 있는 오브젝트에 대응하는, 전경 성분은, 프레임 #n+1에서, 좌측으로부터 6번째 내지 17번째의 화소에 포함된다.
프레임 #n에서, 커버드 백그라운드 영역에 속하는 화소는, 좌측으로부터 11번째 내지 13번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 2번째 내지 4번째의 화소이다. 프레임 #n+1에서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 6번째 내지 8번째의 화소이다.
도 37에 도시한 예에서, 프레임 #n에 포함되는 전경 성분이 프레임 #n+1에서 4 화소 이동하고 있으므로, 움직임량 v는 4이다. 가상 분할수는 움직임량 v에 대응하여 4이다.
이어서, 주목하고 있는 프레임의 전후에서의 혼합 영역에 속하는 화소의 화소값의 변화에 대하여 설명한다.
도 38에 도시한 배경이 정지하고, 전경의 움직임량 v가 4인 프레임 #n에서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째의 화소이다. 움직임량 v가 4이므로, 1개 전의 프레임 #n-1에서 좌측으로부터 15번째 내지 17번째의 화소는 배경 성분만을 포함하여, 배경 영역에 속한다. 또한, 1개 전의 프레임 #n-2에서 좌측으로부터 15번째 내지 17번째의 화소는 배경 성분만을 포함하여, 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있으므로, 프레임 #n-1의 좌측으로부터 15번째의 화소의 화소값은 프레임 #n-2의 좌측으로부터 15번째의 화소의 화소값으로부터 변화하지 않는다. 마찬가지로, 프레임 #n-1의 좌측으로부터 16번째의 화소의 화소값은 프레임 #n-2의 좌측으로부터 16번째의 화소의 화소값으로부터 변화하지 않고, 프레임 #n-1의 좌측으로부터 17번째의 화소의 화소값은 프레임 #n-2의 좌측으로부터 17번째의 화소의 화소값으로부터 변화하지 않는다.
즉, 프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소에 대응하는 프레임 #n-1 및 프레임 #n-2의 화소는 배경 성분만으로 이루어져, 화소값이 변화하지 않으므로, 그 차의 절대값은 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소에 대한 정동 판정은 정동 판정부(202-4)에 의해 정지라고 판정된다.
프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소는 전경 성분을 포함하므로, 프레임 #n-1에서의 배경 성분만으로 이루어지는 경우와, 화소값이 서로 다르다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소, 및 대응하는 프레임 #n-1의 화소에 대한 정동 판정은 정동 판정부(202-3)에 의해 움직임이라고 판정된다.
이와 같이, 영역 판정부(203-3)는 정동 판정부(202-3)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-4)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
도 39에 도시한 배경이 정지하고, 전경의 움직임량 v가 4인 프레임 #n에서, 언커버드 백그라운드 영역에 포함되는 화소는 좌측으로부터 2번째 내지 4번째의 화소이다. 움직임량 v가 4이므로, 1개 후의 프레임 #n+1에서, 좌측으로부터 2번째 내지 4번째의 화소는 배경 성분만을 포함하여, 배경 영역에 속한다. 또한, 1개 후의 프레임 #n+2에서, 좌측으로부터 2번째 내지 4번째의 화소는 배경 성분만을 포함하여, 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있으므로, 프레임 #n+2의 좌측으로부터 2번째의 화소의 화소값은 프레임 #n+1의 좌측으로부터 2번째의 화소의 화소값으로부터 변화하지 않는다. 마찬가지로, 프레임 #n+2의 좌측으로부터 3번째의 화소의 화소값은 프레임 #n+1의 좌측으로부터 3번째의 화소의 화소값으로부터 변화하지 않고, 프레임 #n+2의 좌측으로부터 4번째의 화소의 화소값은 프레임 #n+1의 좌측으로부터 4번째의 화소의 화소값으로부터 변화하지 않는다.
즉, 프레임 #n에서의 언커버드 백그라운드 영역에 속하는 화소에 대응하는 프레임 #n+1 및 프레임 #n+2의 화소는 배경 성분만으로 이루어져, 화소값이 변화하지 않으므로, 그 차의 절대값은 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는 프레임 #n+1 및 프레임 #n+2 화소에 대한 정동 판정은 정동 판정부(202-1)에 의해 정지라고 판정된다.
프레임 #n에서의 언커버드 백그라운드 영역에 속하는 화소는 전경 성분을 포함하므로, 프레임 #n+1에서의 배경 성분만으로 이루어지는 경우와, 화소값이 서로 다르다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소, 및 대응하는 프레임#n+1의 화소에 대한 정동 판정은 정동 판정부(202-2)에 의해 움직임이라고 판정된다.
이와 같이, 영역 판정부(203-1)는 정동 판정부(202-2)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-1)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 40은 프레임 #n에서의 영역 특정부(103)의 판정 조건을 나타내는 도면이다. 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소가 정지라고 판정되고, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임이라고 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 정지라고 판정되고, 프레임 #n의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 정지라고 판정했을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 정지 영역에 속한다고 판정한다.
프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임이라고 판정되고, 프레임 #n의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임이라고 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 움직임 영역에 속한다고 판정한다.
프레임 #n의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 움직임이라고 판정되어, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소가 정지라고 판정했을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 41A 내지 도 41D는 영역 특정부(103)의 영역 특정 결과의 예를 나타낸 도면이다. 도 41A에서 커버드 백그라운드 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 도 41B에서 언커버드 백그라운드 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다.
도 41C에서, 움직임 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 도 41D에서 정지 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다.
도 42는 판정 플래그 저장 프레임 메모리(206)가 출력하는 영역 정보 중, 혼합 영역을 나타내는 영역 정보를 화상으로서 도시한 도면이다. 도 42에서, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 속한다고 판정된 화소, 즉 혼합 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 판정 플래그 저장 프레임 메모리(206)가 출력하는 혼합 영역을 나타내는 영역 정보는 혼합 영역과 전경영역 내의 텍스쳐가 없는 부분에 둘러싸인 텍스쳐가 있는 부분을 나타낸다.
이어서, 도 43의 흐름도를 참조하여, 영역 특정부(103)의 영역 특정 처리를 설명한다. 단계 S201에서, 프레임 메모리(201)는 판정의 대상이 되는 프레임 #n을 포함하는 프레임 #n-2 내지 프레임 #n+2의 화상을 취득한다.
단계 S202에서 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 정지인지의 여부를 판정하여, 정지라고 판정된 경우, 단계 S203로 진행하고, 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 정지인지의 여부를 판정한다.
단계 S203에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 정지라고 판정된 경우, 단계 S204로 진행하고, 영역 판정부(203-2)는 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에 정지 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 단계는 단계 S205로 진행한다.
단계 S202에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서, 움직임이라고 판정된 경우, 또는 단계 S203에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임이라고 판정된 경우, 프레임 #n의 화소가 정지 영역에는 속하지 않으므로, 단계 S204의 처리는 스킵되어, 단계는 단계 S205로 진행한다.
단계 S205에서 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 움직임이 있는지의 여부를 판정하여, 움직임이라고 판정된 경우, 단계 S206로 진행하고, 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임의 여부를 판정한다.
단계 S206에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임이라고 판정된 경우, 단계 S207로 진행하고, 영역 판정부(203-2)는 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 단계는 단계 S208로 진행한다.
단계 S205에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 정지라고 판정된 경우, 또는 단계 S206에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 정지라고 판정된 경우, 프레임 #n의 화소가 움직임 영역에는 속하지 않으므로, 단계 S207의 처리는 스킵되어, 단계는 단계 S208로 진행한다.
단계 S208에서 정동 판정부(202-4)는 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에서 정지인지의 여부를 판정하여, 정지라고 판정된 경우, 단계 S209로 진행하고, 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 움직임의 여부를 판정한다.
단계 S209에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 움직임이라고 판정된 경우, 단계 S210로 진행하여, 영역 판정부(203-3)는 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-3)는 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 단계는 단계 S211로 진행한다.
단계 S208에서, 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에서 움직임이라고 판정된 경우, 또는 단계 S209에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 정지라고 판정된 경우, 프레임 #n의 화소가 커버드 백그라운드 영역에는 속하지 않으므로, 단계 S210의 처리는 스킵되어, 단계는 단계 S211로 진행한다.
단계 S211에서 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임의 여부를 판정하여, 움직임이라고 판정된 경우, 단계 S212로 진행하고, 정동 판정부(202-1)는 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에서 정지인지의 여부를 판정한다.
단계 S212에서, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에서 정지라고 판정된 경우, 단계 S213로 진행하고, 영역 판정부(203-1)는 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에, 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-1)는 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하여, 단계는 단계 S214로 진행한다.
단계 S211에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 정지라고 판정된 경우, 또는 단계 S212에서 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에서 움직임이라고 판정된 경우, 프레임 #n의 화소가 언커버드 백그라운드 영역에는 속하지 않으므로, 단계 S213의 처리는 스킵되어, 단계는 단계 S214로 진행한다.
단계 S214에서, 영역 특정부(103)는 프레임 #n의 모든 화소에 대하여 영역을 특정했는지의 여부를 판정하여, 프레임 #n의 모든 화소에 대하여 영역을 특정하지 않았다고 판정된 경우, 단계는 단계 S202에 되돌아가, 다른 화소에 대하여, 영역 특정 처리를 반복한다.
단계 S214에서 프레임 #n의 모든 화소에 대하여 영역을 특정했다고 판정된 경우, 단계 S215로 진행하고, 합성부(205)는 판정 플래그 저장 프레임 메모리(204)에 기억되어 있는, 언커버드 백그라운드 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그에 기초하여, 혼합 영역을 나타내는 영역 정보를 생성하고, 또한 각 화소가 언커버드 백그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하고, 생성한 영역 정보를 판정 플래그 저장 프레임 메모리(206)에 설정하여 처리는 종료한다.
이와 같이, 영역 특정부(103)는 프레임에 포함되어 있는 화소의 각각에 대하여, 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
또, 영역 특정부(103)는 언커버드 백그라운드 영역 및 커버드 백그라운드 영역에 대응하는 영역 정보에 논리합을 적용함으로써, 혼합 영역에 대응하는 영역 정보를 생성하고, 프레임에 포함되어 있는 화소의 각각에 대하여, 움직임 영역, 정지 영역, 또는 혼합 영역에 속하는 것을 나타내는 플래그로 이루어지는 영역 정보를 생성하도록 해도 된다.
전경에 대응하는 오브젝트가 텍스쳐를 갖는 경우, 영역 특정부(103)는 보다정확하게 움직임 영역을 특정할 수 있다.
영역 특정부(103)는 움직임 영역을 나타내는 영역 정보를 전경 영역을 나타내는 영역 정보로서, 또한 정지 영역을 나타내는 영역 정보를 배경 영역을 나타내는 영역 정보로서 출력할 수 있다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명했지만, 배경 영역에 대응하는 화상이 움직임을 포함해도 상술한 영역을 특정하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 영역 특정부(103)는 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 서로 다른 움직임을 포함하고 있을 때, 영역 특정부(103)는 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
도 44는 영역 특정부(103)의 구성의 다른 예를 도시한 블록도이다. 도 44에 도시한 영역 특정부(103)는 움직임 벡터를 사용하지 않는다. 배경 화상 생성부(301)는 입력 화상에 대응하는 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다. 배경 화상 생성부(301)는, 예를 들면 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여, 배경 화상을 생성한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 배열되는 화소의 화소값을 시간 방향으로 전개한 모델도의 예를 도 45에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대하여 수평일 때,도 45에서의 모델도는 하나의 라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 도시한다.
도 45에서 프레임 #n에서의 라인은 프레임 #n-1 및 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에서, 좌측으로부터 6번째의 화소 내지 17번째의 화소에 포함되어 있는 오브젝트에 대응하는, 전경 성분은, 프레임 #n-1에서, 좌측으로부터 2번째 내지 13번째의 화소에 포함되고, 프레임 #n+1에서 좌측으로부터 10번째 내지 21번째의 화소에 포함된다.
프레임 #n-1에서 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 11번째 내지 13번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 2번째 내지 4번째의 화소이다. 프레임 #n에서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 6번째 내지 8번째의 화소이다. 프레임 #n+1에서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 19번째 내지 21번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 10번째 내지 12번째의 화소이다.
프레임 #n-1에서 배경 영역에 속하는 화소는, 좌측으로부터 1번째의 화소, 및 좌측으로부터 14번째 내지 21번째의 화소이다. 프레임 #n에서, 배경 영역에 속하는 화소는 좌측으로부터 1 번째 내지 5번째의 화소, 및 좌측으로부터 18번째 내지 21번째의 화소이다. 프레임 #n+1에서, 배경 영역에 속하는 화소는 좌측으로부터 1번째 내지 9번째의 화소이다.
배경 화상 생성부(301)가 생성하는 도 45의 예에 대응하는 배경 화상의 예를 도 46에 도시한다. 배경 화상은 배경의 오브젝트에 대응하는 화소로 구성되고, 전경의 오브젝트에 대응하는 화상의 성분을 포함하지 않는다.
2치 오브젝트 화상 추출부(302)는, 배경 화상 및 입력 화상의 상관 관계에 기초하여, 2치 오브젝트 화상을 생성하고, 생성한 2치 오브젝트 화상을 시간 변화 검출부(303)에 공급한다.
도 47은 2치 오브젝트 화상 추출부(302)의 구성을 도시한 블록도이다. 상관값 연산부(321)는 배경 화상 생성부(301)로부터 공급된 배경 화상 및 입력 화상의 상관 관계를 연산하여, 상관값을 생성하고, 생성한 상관값을 임계값 처리부(322)에 공급한다.
상관값 연산부(321)는, 예를 들면 도 48A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 내의 블록과, 도 48B에 도시한 바와 같이 배경 화상 내의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 내의 블록에, 수학식 4를 적용하여, Y4에 대응하는 상관값을 산출한다.
상관값 연산부(321)는, 이와 같이 각 화소에 대응하여 산출된 상관값을 임계값 처리부(322)에 공급한다.
또한, 상관값 연산부(321)는, 예를 들면 도 49A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 내의 블록과, 도 49B에 도시한 바와 같이, 배경 화상 내의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 내의 블록에, 수학식 7을 적용하여, Y4에 대응하는 차분 절대값을 산출하도록 해도 된다.
상관값 연산부(321)는 이와 같이 산출된 차분 절대값을 상관값으로서, 임계값 처리부(322)에 공급한다.
임계값 처리부(322)는 상관 화상의 화소값과 임계값 th0을 비교하여, 상관값이 임계값 th0 이하인 경우, 2치 오브젝트 화상의 화소값에 1을 설정하고, 상관값이 임계값 th0보다 큰 경우, 2치 오브젝트 화상의 화소값에 0을 설정하며, 0 또는 1이 화소값으로 설정된 2치 오브젝트 화상을 출력한다. 임계값 처리부(322)는 임계값 th0을 미리 기억하도록 해도 되며, 또는 외부로부터 입력된 임계값 th0을 사용하도록 해도 된다.
도 50은, 도 45에 도시한 입력 화상의 모델에 대응하는 2치 오브젝트 화상의 예를 나타낸 도면이다. 2치 오브젝트 화상에서, 배경 화상과 상관이 높은 화소에는 화소값에 0이 설정된다.
도 51은 시간 변화 검출부(303)의 구성을 도시한 블록도이다. 프레임 메모리(341)는 프레임 #n의 화소에 대하여 영역을 판정할 때, 2치 오브젝트 화상 추출부(302)로부터 공급된, 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상을 기억한다.
영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상에 기초하여, 프레임 #n의 각 화소에 대하여 영역을 판정하여, 영역 정보를 생성하고, 생성한 영역 정보를 출력한다.
도 52는 영역 판정부(342)의 판정을 설명하는 도면이다. 프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 0일 때, 영역 판정부(342)는 프레임 #n의 주목하고 있는 화소가 배경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상의 대응하는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상의 대응하는 화소가 1일 때, 영역 판정부(342)는 프레임 #n의 주목하고 있는 화소가 전경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는 프레임 #n의 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는 프레임 #n의 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 53은, 도 45에 도시한 입력 화상의 모델에 대응하는 2치 오브젝트 화상에 대하여, 시간 변화 검출부(303)가 판정한 예를 나타낸 도면이다. 시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이므로, 프레임 #n의 좌측으로부터 1번째 내지 5번째의 화소를 배경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n+1의 대응하는 화소가 0이므로, 좌측으로부터 6번째 내지 9번째의 화소를 언커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 1이고, 프레임 #n+1의 대응하는 화소가 1이므로, 좌측으로부터 10번째 내지 13번째의 화소를 전경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 0이므로, 좌측으로부터 14번째 내지 17번째의 화소를 커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이므로, 좌측으로부터 18번째 내지 21번째의 화소를 배경 영역에 속한다고 판정한다.
이어서, 도 54의 흐름도를 참조하여, 영역 판정부(103)의 영역 특정 처리를 설명한다. 단계 S301에서, 영역 판정부(103)의 배경 화상 생성부(301)는 입력 화상에 기초하여, 예를 들면 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다.
단계 S302에서, 2치 오브젝트 화상 추출부(302)는, 예를 들면 도 48A 및 도 48B를 참조하여 설명한 연산에 의해, 입력 화상과 배경 화상 생성부(301)로부터 공급된 배경 화상과의 상관값을 연산한다. 단계 S303에서, 2치 오브젝트 화상 추출부(302)는, 예를 들면 상관값과 임계값 th0을 비교함으로써, 상관값 및 임계값 th0으로부터 2치 오브젝트 화상을 연산한다.
단계 S304에서, 시간 변화 검출부(303)는 영역 판정의 처리를 실행하여, 처리는 종료한다.
도 55의 흐름도를 참조하여, 단계 S304에 대응하는 영역 판정 처리의 상세 내용을 설명한다. 단계 S321에서, 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서, 주목하는 화소가 0인지의 여부를 판정하고, 프레임 #n에서 주목하는 화소가 0이라고 판정된 경우, 단계 S322로 진행하고, 프레임 #n의 주목하는 화소가 배경 영역에 속한다고 설정하고, 처리는종료한다.
단계 S321에서, 프레임 #n에서, 주목하는 화소가 1이라고 판정된 경우, 단계 S323으로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 1이고, 또한, 프레임 #n-1에서, 대응하는 화소가 0인지의 여부를 판정하고, 프레임 #n에서 주목하는 화소가 1이고, 또한 프레임 #n-1에서, 대응하는 화소가 0이라고 판정된 경우, 단계 S324로 진행하고, 프레임 #n의 주목하는 화소가 커버드 백그라운드 영역에 속한다고 설정하고 처리는 종료한다.
단계 S323에서, 프레임 #n에서 주목하는 화소가 0이거나, 또는 프레임 #n-1에서, 대응하는 화소가 1이라고 판정된 경우, 단계 S325로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서, 주목하는 화소가 1이고, 또한 프레임 #n+1에서 대응하는 화소가 0인지의 여부를 판정하여, 프레임 #n에서 주목하는 화소가 1이고, 또한 프레임 #n+1에서 대응하는 화소가 0이라고 판정된 경우, 단계 S326으로 진행하여, 프레임 #n의 주목하는 화소가 언커버드 백그라운드 영역에 속한다고 설정하고, 처리는 종료한다.
단계 S325에서, 프레임 #n에서 주목하는 화소가 0이거나, 또는 프레임 #n+1에서, 대응하는 화소가 1이라고 판정된 경우, 단계 S327로 진행하여, 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 #n의 주목하는 화소를 전경 영역으로 설정하고, 처리는 종료한다.
이와 같이, 영역 특정부(103)은 입력된 화상과 대응하는 배경 화상과의 상관값에 기초하여, 입력 화상의 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역 중 어느 하나에 속하는지 특정하고, 특정한 결과에 대응하는 영역 정보를 생성할 수 있다.
도 56은 영역 특정부(103)의 다른 구성을 도시한 블록도이다. 도 56에 도시한 영역 특정부(103)는 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보를 사용한다. 도 44에 도시한 경우와 마찬가지의 부분에는, 동일한 번호를 붙이고, 그 설명은 생략한다.
로버스트화부(361)는, 2치 오브젝트 화상 추출부(302)로부터 공급된 N개의 프레임의 2치 오브젝트 화상에 기초하여, 로버스트화된 2치 오브젝트 화상을 생성하여, 시간 변화 검출부(303)에 출력한다.
도 57은 로바스트화부(361)의 구성을 설명하는 블록도이다. 움직임 보상부(381)는 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보에 기초하여, N개의 프레임의 2치 오브젝트 화상의 움직임을 보상하고, 움직임이 보상된 2치 오브젝트 화상을 스위치(382)에 출력한다.
도 58 및 도 59의 예를 참조하여, 움직임 보상부(381)의 움직임 보상에 대하여 설명한다. 예를 들면, 프레임 #n의 영역을 판정할 때, 도 58에 예를 도시한 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상이 입력된 경우, 움직임 보상부(381)는 움직임 검출부(102)로부터 공급된 움직임 벡터에 기초하여, 도 59에 예를 도시한 바와 같이, 프레임 #n-1의 2치 오브젝트 화상, 및 프레임 #n+1의 2치 오브젝트 화상을 움직임 보상하고, 움직임 보상된 2치 오브젝트 화상을스위치(382)에 공급한다.
스위치(382)는 1 번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-1)에 출력하고, 2번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-2)에 출력한다. 마찬가지로, 스위치(382)는 3번째 내지 N-1번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 각각을 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나에 출력하고, N 번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-N)에 출력한다.
프레임 메모리(383-1)는 1번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-1)에 출력한다. 프레임 메모리(383-2)는 2번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-2)에 출력한다.
마찬가지로, 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 각각은 3번째의 프레임 내지 N-1번째의 프레임의 움직임 보상된 2치 오브젝트 화상 중 어느 하나를 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1)) 중 어느 하나에 출력한다. 프레임 메모리(383-N)는 N 번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-N)에 출력한다.
가중치 부여부(384-1)는 프레임 메모리(383-1)로부터 공급된 1번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 가중치 w1을 곱하여,적산부(385)에 공급한다. 가중치 부여부(384-2)는 프레임 메모리(383-2)로부터 공급된 2번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게 w2을 곱하여, 적산부(385)에 공급한다.
마찬가지로, 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1))의 각각은 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나로부터 공급된 3번째 내지 N-1번째 중 어느 한 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게 w3 내지 무게 w(N-1) 중 어느 하나를 곱하여, 적산부(385)에 공급한다. 가중치 부여부(384-N)는 프레임 메모리(383-N)로부터 공급된 N 번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게 wN을 곱하여, 적산부(385)에 공급한다.
적산부(385)는 1 내지 N 번째의 프레임의 움직임 보상되고, 각각 무게 w1 내지 wN 중 어느 하나가 곱해진, 2치 오브젝트 화상의 대응하는 화소값을 적산하고, 적산된 화소값을 미리 정한 임계값 th0과 비교함으로써 2치 오브젝트 화상을 생성한다.
이와 같이, 로바스트화부(361)는 N개의 2치 오브젝트 화상으로부터 로버스트화된 2치 오브젝트 화상을 생성하여, 시간 변화 검출부(303)에 공급하므로, 도 56에 구성을 도시한 영역 특정부(103)는 입력 화상에 노이즈가 포함되어도, 도 44에 도시한 경우와 비교하여, 보다 정확하게 영역을 특정할 수 있다.
이어서, 도 56에 구성을 도시한 영역 특정부(103)의 영역 특정 처리에 대하여, 도 60의 흐름도를 참조하여 설명한다. 단계 S341 내지 단계 S343의 처리는 도54의 흐름도에서 설명한 단계 S301 내지 단계 S303과 각각 마찬가지이므로 그 설명은 생략한다.
단계 S344에서 로버스트화부(361)는 로버스트화의 처리를 실행한다.
단계 S345에서 시간 변화 검출부(303)는 영역 판정의 처리를 실행하고, 처리는 종료한다. 단계 S345의 처리의 상세한 내용은 도 55의 흐름도를 참조하여 설명한 처리와 마찬가지이므로 그 설명은 생략한다.
이어서, 도 61의 흐름도를 참조하여, 도 60의 단계 S344의 처리에 대응하는 로버스트화의 처리의 상세 내용에 대하여 설명한다. 단계 S361에서, 움직임 보상부(381)는 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보에 기초하여, 입력된 2치 오브젝트 화상의 움직임 보상의 처리를 실행한다. 단계 S362에서, 프레임 메모리(383-1 내지 383-N) 중 어느 하나는 스위치(382)를 통하여 공급된 움직임 보상된 2치 오브젝트 화상을 기억한다.
단계 S363에서, 로버스트화부(361)는 N개의 2치 오브젝트 화상이 기억되었는지의 여부를 판정하고, N개의 2치 오브젝트 화상이 기억되어 있지 않다고 판정된 경우, 단계 S361에 되돌아가고, 2치 오브젝트 화상의 움직임 보상의 처리 및 2치 오브젝트 화상의 기억의 처리를 반복한다.
단계 S363에서 N개의 2치 오브젝트 화상이 기억되었다고 판정된 경우, 단계 S364로 진행하고, 가중치 부여부(384-1 내지 384-N)의 각각은 N개의 2치 오브젝트 화상의 각각에 w1 내지 wN 중 어느 한 무게을 곱하여, 가중치 부여를 행한다.
단계 S365에서 적산부(385)는 가중치 부여된 N개의 2치 오브젝트 화상을 적산한다.
단계 S366에서, 적산부(385)는 예를 들면 미리 정해진 임계값 th1과의 비교 등에 의해, 적산된 화상으로부터 2치 오브젝트 화상을 생성하고, 처리는 종료한다.
이와 같이, 도 56에 구성을 도시한 영역 특정부(103)는 로바스트화된 2치 오브젝트 화상에 기초하여, 영역 정보를 생성할 수 있다.
이상과 같이, 영역 특정부(103)는 프레임에 포함되어 있는 화소의 각각에 대하여, 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
도 62는 혼합비 산출부(104)의 구성의 일례를 도시한 블록도이다. 추정 혼합비 처리부(401)는 입력 화상에 기초하여, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
추정 혼합비 처리부(402)는 입력 화상에 기초하여, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
전경에 대응하는 오브젝트가 셔터 시간 내에 등속으로 움직이고 있다고 가정할 수 있으므로, 혼합 영역에 속하는 화소의 혼합비α는 이하의 성질을 갖는다. 즉, 혼합비α는 화소의 위치의 변화에 대응하여, 직선적으로 변화한다. 화소의 위치의 변화를 1차원이라고 하면, 혼합비α의 변화는 직선으로 표현할 수 있고, 화소의 위치의 변화를 2차원이라고 하면, 혼합비α의 변화는 평면으로 표현할 수 있다.
또, 1 프레임의 기간은 짧으므로, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다면 가정이 성립한다.
이 경우, 혼합비α의 기울기는 전경의 셔터 시간 내에서의 움직임량 v의 역비로 된다.
이상적인 혼합비α의 예를 도 63에 도시한다. 이상적인 혼합비α의 혼합 영역에서의 기울기 l은 움직임량 v의 역수로서 나타낼 수 있다.
도 63에 도시한 바와 같이, 이상적인 혼합비α는 배경 영역에서, 1의 값을 갖고, 전경 영역에서 0의 값을 갖고, 혼합 영역에서 0보다 크고 1 미만의 값을 갖는다.
도 64의 예에서, 프레임 #n의 좌측으로부터 7번째의 화소의 화소값 C06은 프레임 #n-1의 좌측으로부터 7번째의 화소의 화소값 P06을 이용하여, 수학식 8로 나타낼 수 있다.
수학식 8에서, 화소값 C06을 혼합 영역의 화소의 화소값 M과, 화소값 P06을 배경 영역의 화소의 화소값 B로 표현한다. 즉, 혼합 영역의 화소의 화소값 M 및 배경 영역의 화소의 화소값 B는 각각 수학식 9 및 수학식 10과 같이 표현할 수 있다.
수학식 8에서의 2/v는 혼합비α에 대응한다. 움직임량 v가 4이므로, 프레임 #n의 좌측으로부터 7번째의 화소의 혼합비α는 0.5가 된다.
이상과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값이라고 간주하고, 프레임 #n 전의 프레임 #n-1의 화소값 P을 배경 영역의 화소값로 간주함으로써, 혼합비α를 나타내는 수학식 3은 수학식 11과 같이 다시 표현할 수 있다.
수학식 11의 f는, 주목하고 있는 화소에 포함되는 전경 성분의 합 ΣiFi/v 이다. 수학식 11에 포함되는 변수는 혼합비α 및 전경 성분의 합 f의 2개이다.
마찬가지로, 언커버드 백그라운드 영역에서의 움직임량 v가 4이고, 시간 방향의 가상 분할수가 4인, 화소값을 시간 방향으로 전개한 모델을 도 65에 도시한다.
언커버드 백그라운드 영역에서, 상술한 커버드 백그라운드 영역에서의 표현과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값으로 간주하고, 프레임 #n 후의 프레임 #n+1의 화소값 N을 배경 영역의 화소값으로 간주함으로써, 혼합비α를 도시한 수학식 3은 수학식 12와 같이 표현할 수 있다.
또, 배경의 오브젝트가 정지하고 있는 것으로 설명했지만, 배경의 오브젝트가 움직이고 있는 경우에도, 배경의 움직임량 v에 대응시킨 위치의 화소의 화소값을 이용함으로써, 수학식 8 내지 수학식 12를 적용할 수 있다. 예를 들면, 도 64에서, 배경에 대응하는 오브젝트의 움직임량 v가 2이고, 가상 분할수가 2일 때, 배경에 대응하는 오브젝트가 도 65의 우측으로 움직이고 있을 때, 수학식 10에서의 배경 영역의 화소의 화소값 B는 화소값 P04가 된다.
수학식 11 및 수학식 12는 각각 2개의 변수를 포함하므로, 그 상태에서는 혼합비α를 구할 수 없다. 여기서, 화상은 일반적으로 공간적으로 상관이 강하므로 근접하는 화소끼리 거의 동일한 화소값이 된다.
그래서, 전경 성분은 공간적으로 상관이 강하므로, 전경 성분의 합 f를 전 또는 후의 프레임으로부터 도출할 수 있도록 식을 변형하여, 혼합비α를 구한다.
도 66의 프레임 #n의 좌측으로부터 7번째의 화소의 화소값 Mc는 수학식 13으로 나타낼 수 있다.
수학식 13의 우변 제1항의 2/v는 혼합비α에 상당한다. 수학식 13의 우변 제2항은 후의 프레임 #n+1의 화소값을 이용하여, 수학식 14와 같이 나타내는 것으로 한다.
여기서, 전경 성분의 공간 상관 관계를 이용하여, 수학식 15가 성립한다.
수학식 14는, 수학식 15를 이용하여, 수학식 16과 같이 치환할 수 있다.
결과적으로, β는 수학식 17로 나타낼 수 있다.
일반적으로, 수학식 15로 나타낸 바와 같이 혼합 영역에 관계하는 전경 성분이 같다고 가정하면, 혼합 영역의 모든 화소에 대하여, 내분비의 관계로부터 수학식 18이 성립한다.
수학식 18이 성립하면, 수학식 11은, 수학식 19로 표현한 바와 같이 전개할 수 있다.
마찬가지로, 수학식 18이 성립하면, 수학식 12는, 수학식 20으로 표현한 바와 같이 전개할 수 있다.
수학식 19 및 수학식 20에서, C, N, 및 P은, 기지의 화소값이므로, 수학식 19 및 수학식 20에 포함되는 변수는 혼합비α뿐이다. 수학식 19 및 수학식 20에서의 C, N, 및 P의 관계를 도 67에 도시한다. C는, 혼합비α를 산출하는, 프레임 #n의 주목하고 있는 화소의 화소값이다. N은, 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n+1의 화소의 화소값이다. P는, 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n-1의 화소의 화소값이다.
따라서, 수학식 19 및 수학식 20의 각각에 1개의 변수가 포함되게 되므로, 3개의 프레임의 화소의 화소값을 이용하여, 혼합비α를 산출할 수 있다. 수학식 19 및 수학식 20을 풀어, 올바른 혼합비α가 산출되기 위한 조건은, 혼합 영역에 관계하는 전경 성분이 같은 즉, 전경의 오브젝트가 정지하여 있을 때 촬상된 전경의 화상 오브젝트에서, 전경의 오브젝트의 움직임의 방향에 대응하는, 화상 오브젝트의 경계에 위치하는 화소로서, 움직임량 v의 2배의 수의 연속하고 있는 화소의 화소값이, 일정한 것이다.
이상과 같이, 커버드 백그라운드 영역에 속하는 화소의 혼합비α는, 수학식 21에 의해 산출되고, 언커버드 백그라운드 영역에 속하는 화소의 혼합비α는, 수학식 22에 의해 산출된다.
도 68는, 추정 혼합비 처리부(401)의 구성을 도시한 블록도이다. 프레임 메모리(421)는, 입력된 화상을 프레임 단위로 기억하고, 입력 화상으로서 입력되어 있는 프레임으로부터 1개 후의 프레임을 프레임 메모리(422) 및 혼합비 연산부(423)에 공급한다.
프레임 메모리(422)는 입력된 화상을 프레임 단위로 기억하고, 프레임 메모리(421)로부터 공급되어 있는 프레임으로부터 1개 후의 프레임을 혼합비 연산부(423)에 공급한다.
따라서, 입력 화상으로서 프레임 #n+1이 혼합비 연산부(423)에 입력되어 있을 때, 프레임 메모리(421)는, 프레임 #n을 혼합비 연산부(423)에 공급하고, 프레임 메모리(422)는, 프레임 #n-1을 혼합비 연산부(423)에 공급한다.
혼합비 연산부(423)는, 수학식 21로 표현한 연산에 의해, 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n-1의 화소의 화소값 P에 기초하여, 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다. 예를 들면, 배경이 정지하고 있을 때, 혼합비 연산부(423)는, 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 프레임 내의 위치가 동일하고, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 프레임 내의 위치가 동일하며, 프레임 #n-1의 화소의 화소값 P에 기초하여, 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는, 입력 화상에 기초하여, 추정 혼합비를 산출하여, 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는, 추정 혼합비 처리부(401)가 수학식 21로 표현한 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 데 대하여, 수학식 22로 표현한 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 부분이 다른 것을 제외하고, 추정 혼합비 처리부(401)와 마찬가지이므로, 그 설명은 생략한다.
도 69는, 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 나타낸 도면이다. 도 69에 도시한 추정 혼합비는, 등속으로 움직이고 있는 오브젝트에대응하는, 전경의 움직임량 v가 11인 경우의 결과를, 1 라인에 대하여 도시한 것이다.
추정 혼합비는, 혼합 영역에서, 도 63에 도시한 바와 같이, 거의 직선적으로 변화하고 있는 것을 알 수 있다.
도 62를 다시 참조하면, 혼합비 결정부(403)는, 영역 특정부(103)로부터 공급된, 혼합비α의 산출의 대상이 되는 화소가, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보에 기초하여, 혼합비α를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비α로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α로 설정한다. 혼합비 결정부(403)는, 영역 정보에 기초하여 설정한 혼합비α를 출력한다.
도 70은 혼합비 산출부(104)의 다른 구성을 도시한 블록도이다. 선택부(441)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 커버드 백그라운드 영역에 속하는 화소 및, 이것에 대응하기 전 및 후의 프레임의 화소를 추정 혼합비 처리부(442)에 공급한다. 선택부(441)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 언커버드 백그라운드 영역에 속하는 화소 및, 이것에 대응하기 전 및 후의 프레임의 화소를 추정 혼합비 처리부(443)에 공급한다.
추정 혼합비 처리부(442)는, 선택부(441)로부터 입력된 화소값에 기초하여, 수학식 21로 표현한 연산에 의해, 커버드 백그라운드 영역에 속하는 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 선택부(444)에 공급한다.
추정 혼합비 처리부(443)는 선택부(441)로부터 입력된 화소값에 기초하여, 수학식 22로 표현한 연산에 의해, 언커버드 백그라운드 영역에 속하는, 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 선택부(444)에 공급한다.
선택부(444)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 대상이 되는 화소가 전경 영역에 속하는 경우, 0인 추정 혼합비를 선택하여, 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1인 추정 혼합비를 선택하여, 혼합비α로 설정한다. 선택부(444)는 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(442)로부터 공급된 추정 혼합비를 선택하여 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(443)로부터 공급된 추정 혼합비를 선택하여 혼합비α로 설정한다. 선택부(444)는 영역 정보에 기초하여 선택하여 설정한 혼합비α를 출력한다.
이와 같이, 도 70에 도시한 다른 구성을 갖는 혼합비 산출부(104)는 화상이 포함되는 화소마다 혼합비α를 산출하고, 산출한 혼합비α를 출력할 수 있다.
도 71의 흐름도를 참조하여, 도 62에 구성을 도시한 혼합비 산출부(104)의 혼합비α의 산출 처리를 설명한다. 단계 S401에서, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보를 취득한다. 단계 S402에서 추정 혼합비 처리부(401)는 커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다. 혼합비 추정의 연산 처리의 상세한 내용은 도 72의 흐름도를 참조하여, 후술한다.
단계 S403에서, 추정 혼합비 처리부(402)는, 언커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산의 처리를 실행하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
단계 S404에서, 혼합비 산출부(104)는, 프레임 전체에 대하여, 혼합비α를 추정하였는지의 여부를 판정하여, 프레임 전체에 대하여, 혼합비α를 추정하지 않았다고 판정된 경우, 단계 S402에 되돌아가, 다음의 화소에 대하여 혼합비α를 추정하는 처리를 실행한다.
단계 S404에서, 프레임 전체에 대하여, 혼합비α를 추정하였다고 판정된 경우, 단계 S405로 진행하여, 혼합비 결정부(403)는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는, 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 혼합비α를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비α로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 처리는 종료한다.
이와 같이, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보, 및 입력 화상에 기초하여, 각 화소에 대응하는 특징량인 혼합비α를 산출할 수 있다.
도 70에 구성을 도시한 혼합비 산출부(104)의 혼합비α의 산출 처리는 도 71의 흐름도에서 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
다음에, 도 71의 단계 S402에 대응하는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 72의 흐름도를 참조하여 설명한다.
단계 S421에서 혼합비 연산부(423)는 프레임 메모리(421)로부터 프레임 #n의 주목 화소의 화소값 C를 취득한다.
단계 S422에서 혼합비 연산부(423)는 프레임 메모리(422)로부터 주목 화소에 대응하는 프레임 #n-1의 화소의 화소값 P를 취득한다.
단계 S423에서 혼합비 연산부(423)는 입력 화상에 포함되는 주목 화소에 대응하는, 프레임 #n+1의 화소의 화소값 N을 취득한다.
단계 S424에서 혼합비 연산부(423)는 프레임 #n의 주목 화소의 화소값 C, 프레임 #n-1의 화소의 화소값 P, 및 프레임 #n+1의 화소의 화소값 N에 기초하여, 추정 혼합비를 연산한다.
단계 S425에서, 혼합비 연산부(423)는, 프레임 전체에 대하여, 추정 혼합비를 연산하는 처리를 종료하였는지의 여부를 판정하여, 프레임 전체에 대하여, 추정 혼합비를 연산하는 처리를 종료하지 않았다고 판정된 경우, 단계 S421에 되돌아가,다음의 화소에 대하여 추정 혼합비를 산출하는 처리를 반복한다.
단계 S425에서, 프레임 전체에 대하여, 추정 혼합비를 연산하는 처리를 종료하였다고 판정된 경우, 처리는 종료한다.
이와 같이, 추정 혼합비 처리부(401)는, 입력 화상에 기초하여, 추정 혼합비를 연산할 수 있다.
도 71의 단계 S403에 있어서의 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 식을 이용한, 도 72의 흐름도에 도시한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 도 70에 도시한 추정 혼합비 처리부(442) 및 추정 혼합비 처리부(443)는, 도 72에 도시한 흐름도와 마찬가지의 처리를 실행하여 추정 혼합비를 연산하므로, 그 설명은 생략한다.
또한, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명했지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있어도 상술한 혼합비α를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 추정 혼합비 처리부(401)는 배경의 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 서로 다른 배경의 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는 혼합 영역에 속하는 화소에 대응하는 화소로서, 배경의 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
또한, 혼합비 산출부(104)는 모든 화소에 대하여, 커버드 백그라운드 영역에대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여, 산출된 추정 혼합비를 혼합비α로서 출력하도록 해도 된다. 이 경우에서, 혼합비α는 커버드 백그라운드 영역에 속하는 화소에 대하여, 배경 성분의 비율을 나타내고, 언커버드 백그라운드 영역에 속하는 화소에 대하여, 전경 성분의 비율을 나타낸다. 언커버드 백그라운드 영역에 속하는 화소에 대하여, 이와 같이 산출된 혼합비α와 1과의 차분의 절대값을 산출하고, 산출한 절대값을 혼합비α로 설정하면, 신호 처리 장치는 언커버드 백그라운드 영역에 속하는 화소에 대하여, 배경 성분의 비율을 나타낸 혼합비α를 구할 수 있다.
또, 마찬가지로, 혼합비 산출부(104)는, 모든 화소에 대하여, 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여, 산출된 추정 혼합비를 혼합비α로서 출력하도록 해도 된다.
다음에, 혼합비 산출부(104)의 다른 처리에 대하여 설명한다.
셔터 시간 내에서, 전경에 대응하는 오브젝트가 등속으로 움직이는 것에 의한, 화소의 위치의 변화에 대응하여, 혼합비α가 직선적으로 변화하는 성질을 이용하여, 공간 방향으로 혼합비α와 전경 성분의 합 f를 근사한 식을 세울 수 있다. 혼합 영역에 속하는 화소의 화소값 및 배경 영역에 속하는 화소의 화소값의 세트의 복수를 이용하여, 혼합비α와 전경 성분의 합 f를 근사한 식을 풀어, 혼합비α를 산출한다.
혼합비α의 변화를, 직선으로서 근사하면, 혼합비α는, 수학식 23으로 표시된다.
수학식 23에서, i는 주목하고 있는 화소의 위치를 0으로 한 공간 방향의 인덱스이다. 참조 부호 1은 혼합비α의 직선의 기울기이다. p는 혼합비α의 직선의 세그먼트임과 함께, 주목하고 있는 화소의 혼합비α이다. 수학식 23에서, 인덱스 i는 기지이지만, 기울기l 및 세그먼트 p는 미지이다.
인덱스 i, 기울기l, 및 세그먼트 p의 관계를 도 73에 도시한다.
도 73에서, ○은 주목 화소를 나타내며, ●은 근방 화소를 나타낸다.
혼합비α를 수학식 23과 같이 근사함으로써, 복수의 화소에 대하여 복수의 서로 다른 혼합비α는 2개의 변수로 표현된다. 도 73에 도시한 예에서, 5개의 화소에 대한 5개의 혼합비는 2개의 변수인 기울기l 및 세그먼트 p에 의해 표현된다.
도 74에 도시한 평면에서 혼합비α를 근사하면, 화상의 수평 방향 및 수직 방향의 2개의 방향에 대응하는 움직임 v를 고려했을 때, 수학식 23을 평면으로 확장하여, 혼합비α는 수학식 24로 표현된다. 도 74에서, ○은 주목 화소를 나타낸다.
수학식 24에서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다. m은, 혼합비α의 면의 수평 방향의 기울기이고, q는 혼합비α의 면의 수직 방향의 기울기이다. p는 혼합비α의 면의 세그먼트이다.
예를 들면, 도 64에 도시한 프레임 #n에서 C05 내지 C07에 대하여, 각각 수학식 25 내지 수학식 27이 성립된다.
전경 성분이 근방에서 일치하는데, 즉 F01 내지 F03이 동일한 것으로 하며, F01 내지 F03을 Fc로 치환하면 수학식 28이 성립된다.
수학식 28에서, x는 공간 방향의 위치를 나타낸다.
α(x)를 수학식 24로 치환하면, 수학식 28은 수학식 29로서 나타낼 수 있다.
수학식 29에서, (-m·Fc), (-q·Fc), 및 (1-p)·Fc는, 수학식 30 내지 수학식 32로 나타낸 바와 같이 치환되어 있다.
수학식 29에서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다.
이와 같이, 전경에 대응하는 오브젝트가 셔터 시간 내에서 등속으로 이동하고, 전경에 대응하는 성분이 근방에서 일정하다는 가정이 성립하므로, 전경 성분의 합은 수학식 29로 근사된다.
또, 혼합비α를 직선으로 근사하는 경우, 전경 성분의 합은 수학식 33으로 나타낼 수 있다.
수학식 13의 혼합비α 및 전경 성분의 합을, 수학식 24 및 수학식 29를 이용하여 치환하면, 화소값 M은 수학식 34로 표현된다.
수학식 34에서, 미지의 변수는 혼합비α의 면의 수평 방향의 기울기 m, 혼합비α의 면의 수직 방향의 기울기 q, 혼합비α의 면의 세그먼트 p, s, t, 및 u의 6개이다.
주목하고 있는 화소의 근방의 화소에 대응시켜, 수학식 34로 표현한 정규 방정식에 화소값 M 또는 화소값 B를 설정하고, 화소값 M 또는 화소값 B가 설정된 복수의 정규 방정식을 최소 제곱법으로 풀어, 혼합비α를 산출한다.
예를 들면, 주목하고 있는 화소의 수평 방향의 인덱스 j를 0으로 하고, 수직 방향의 인덱스 k를 0으로 하고, 주목하고 있는 화소의 근방의 3×3의 화소에 대하여, 수학식 34로 표현한 정규 방정식에 화소값 M 또는 화소값 B를 설정하면, 수학식 35 내지 수학식 43을 얻는다.
주목하고 있는 화소의 수평 방향의 인덱스 j가 0이고, 수직 방향의 인덱스 k가 0이므로, 주목하고 있는 화소의 혼합비α는 수학식 24로부터, j=0 및 k=0일 때의 값, 즉 세그먼트 p와 같다.
따라서, 수학식 35 내지 수학식 43의 9개의 식에 기초하여, 최소 제곱법에 의해, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u의 각각의 값을 산출하고, 세그먼트 p를 혼합비α로서 출력하면 된다.
이어서, 최소 제곱법을 적용하여 혼합비α를 산출하는 보다 구체적인 순서를설명한다.
인덱스 i 및 인덱스 k를 1개의 인덱스 x로 표현하면, 인덱스 i, 인덱스 k, 및 인덱스 x의 관계는 수학식 44로 표현된다.
수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 각각 변수 w0, w1, w2, w3, w4, 및 w5로 표현하고, jB, kB, B, j, k, 및 1을 각각 a0, a1, a2, a3, a4, 및 a5로 표현한다. 오차 ex를 고려하면, 수학식 35 내지 수학식 43은 수학식 45로 바꿔 쓸 수 있다.
수학식 45에서, x는 0 내지 8의 정수 중 어느 하나의 값이다.
수학식 45로부터, 수학식 46을 유도할 수 있다.
여기서, 최소 제곱법을 적용하기 위하여, 오차의 제곱합 E를 수학식 47로 표현한 바와 같이 정의한다.
오차가 최소로 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Wv의 편미분이 0으로 된다. 여기서, v는 0 내지 5의 정수 중 어느 하나의 값이다. 따라서, 수학식 48을 충족하도록 wy를 구한다.
수학식 48에 수학식 46을 대입하면, 수학식 49를 얻는다.
수학식 49의 v에 0 내지 5의 정수 중 어느 하나를 대입하여 얻어지는 6개의 식에, 예를 들면 소거법(Gauss-Jordan의 소거법) 등을 적용하여, wy를 산출한다. 상술한 바와 같이, w0은 수평 방향의 기울기 m이고, w1은 수직 방향의 기울기 q이고, w2는 세그먼트 p이고, w3은 s이고, w4는 t이고, w5는 u이다.
이상과 같이, 화소값 M 및 화소값 B를 설정한 식에, 최소 제곱법을 적용함으로써, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 구할 수 있다.
수학식 35 내지 수학식 43에 대응하는 설명에서, 혼합 영역에 포함되는 화소의 화소값을 M으로 하고, 배경 영역에 포함되는 화소의 화소값을 B로 하여 설명했지만, 주목하고 있는 화소가 커버드 백그라운드 영역에 포함되는 경우, 또는 언커버드 백그라운드 영역에 포함되는 경우의 각각에 대하여, 정규 방정식을 세울 필요가 있다.
예를 들면, 도 64에 도시한, 프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 구하는 경우, 프레임 #n의 화소의 C04 내지 C08, 및 프레임 #n-1의 화소의 화소값 P04 내지 P08이 정규 방정식에 설정된다.
도 65에 도시한, 프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 구하는 경우, 프레임 #n의 화소의 C28 내지 C32, 및 프레임 #n+1의 화소의 화소값 N28 내지 N32가 정규 방정식으로 설정된다.
또한, 예를 들면 도 75에 도시한, 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 이하의 수학식 50 내지 수학식 58이 성립된다. 혼합비α를 산출하는 화소의 화소값은 Mc5이다. 도 75에서, ○은 배경이로 간주하는 화소를 나타내고, ●은 혼합 영역의 화소로 간주하는 화소를 나타낸다.
프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 수학식 50 내지 수학식 58에서, 프레임 #n의 화소에 대응하는 프레임 #n-1의 화소의 배경 영역의 화소의 화소값 Bc1 내지 Bc9가 사용된다.
도 75에 도시한, 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 이하의 수학식 59 내지 수학식 67이 성립된다. 혼합비α를 산출하는화소의 화소값은 Mu5이다.
프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 수학식 59 내지 수학식 67에서 프레임 #n의 화소에 대응하는, 프레임 #n+1의 화소의 배경 영역의 화소의 화소값 Bu1 내지 Bu9가 사용된다.
도 76은 추정 혼합비 처리부(401)의 구성을 도시한 블록도이다. 추정 혼합비 처리부(401)에 입력된 화상은 지연 회로(501) 및 가산부(502)에 공급된다.
지연 회로(501)는 입력 화상을 1 프레임 지연시켜, 가산부(502)에 공급한다. 가산부(502)에 입력 화상으로서 프레임 #n이 입력되어 있을 때, 지연 회로(501)는 프레임 #n-1을 가산부(502)에 공급한다.
가산부(502)는 혼합비α를 산출하는 화소의 근방의 화소의 화소값, 및 프레임 #n-1의 화소값을 정규 방정식으로 설정한다. 예를 들면, 가산부(502)는 수학식 50 내지 수학식 58에 기초하여, 정규 방정식에 화소값 Mc1 내지 Mc9 및 화소값 Bc1 내지 Bc9를 설정한다. 가산부(502)는 화소값이 설정된 정규 방정식을 연산부(503)에 공급한다.
연산부(503)는 가산부(502)로부터 공급된 정규 방정식을 소거법 등에 의해 풀고 추정 혼합비를 구하고, 구해진 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상에 기초하여, 추정 혼합비를 산출하여, 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는 추정 혼합비 처리부(401)와 마찬가지의 구성을 갖으므로, 그 설명은 생략한다.
도 77은 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 나타낸 도면이다. 도 77에 도시한 추정 혼합비는 등속으로 움직이고 있는 오브젝트에 대응하는, 전경의 움직임 v가 11이고, 7×7 화소의 블록을 단위로 하여 방정식을 생성하여 산출된 결과를 1 라인에 대하여 나타낸 것이다.
추정 혼합비는 혼합 영역에서, 도 63에 도시한 바와 같이 거의 직선적으로 변화하고 있는 것을 알 수 있다.
혼합비 결정부(403)는 영역 특정부(101)로부터 공급된 혼합비가 산출되는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보에 기초하여, 혼합비를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비로 설정한다. 혼합비 결정부(403)는 영역 정보에 기초하여 설정한 혼합비를 출력한다.
도 78의 흐름도를 참조하여, 추정 혼합비 처리부(401)가 도 76에 도시한 구성을 갖는 경우의, 혼합비 산출부(102)의 혼합비의 산출 처리를 설명한다. 단계 S501에서 혼합비 산출부(102)는 영역 특정부(101)로부터 공급된 영역 정보를 취득한다. 단계 S502에서, 추정 혼합비 처리부(401)는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 실행하여, 추정 혼합비를 혼합비 결정부(403)에 공급한다. 혼합비 추정의 처리의 상세한 내용은 도 79의 흐름도를 참조하여, 후술한다.
단계 S503에서, 추정 혼합비 처리부(402)는 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 실행하여, 추정 혼합비를 혼합비 결정부(403)에 공급한다.
단계 S504에서 혼합비 산출부(102)는 프레임 전체에 대하여, 혼합비를 추정했는지의 여부를 판정하여, 프레임 전체에 대하여, 혼합비를 추정하지 않았다고 판정된 경우, 단계 S502로 되돌아가, 다음 화소에 대하여 혼합비를 추정하는 처리를 실행한다.
단계 S504에서, 프레임 전체에 대하여 혼합비를 추정했다고 판정된 경우, 단계 S505로 진행하여, 혼합비 결정부(403)는 영역 특정부(101)로부터 공급된 혼합비가 산출되는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지 나타내는 영역 정보에 기초하여, 혼합비를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비로 설정하고, 처리는 종료한다.
이와 같이, 혼합비 산출부(102)는 영역 특정부(101)로부터 공급된 영역 정보, 및 입력 화상에 기초하여, 각 화소에 대응하는 특징량인 혼합비α를 산출할 수 있다.
혼합비α를 이용함으로써, 움직이고 있는 오브젝트에 대응하는 화상에 포함되는 움직임 불선명의 정보를 남긴 상태에서, 화소값에 포함되는 전경 성분과 배경 성분을 분리하는 것이 가능해진다.
또한, 혼합비α에 기초하여 화상을 합성하면, 실제 세계를 실제로 다시 촬영한 것처럼 움직이고 있는 오브젝트의 스피드에 맞는 옳은 움직임 불선명을 포함하는 화상을 만드는 것이 가능해진다.
이어서, 도 78의 단계 S502에 대응하는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 79의 흐름도를 참조하여 설명한다.
단계 S521에서, 가산부(502)는 입력된 화상에 포함되는 화소값, 및 지연 회로(501)로부터 공급되는 화상에 포함되는 화소값을 커버드 백그라운드 영역의 모델에 대응하는 정규 방정식에 설정한다.
단계 S522에서, 추정 혼합비 처리부(401)는 대상이 되는 화소에 대한 설정이 종료했는지의 여부를 판정하여, 대상이 되는 화소에 대한 설정이 종료하지 않았다고 판정된 경우, 단계 S521에 되돌아가, 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S522에서 대상이 되는 화소에 대한 화소값의 설정이 종료했다고 판정된경우, 단계 S523으로 진행하고, 연산부(503)는 화소값이 설정된 정규 방정식에 기초하여, 추정 혼합비를 연산하여 구해진 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상에 기초하여, 추정 혼합비를 연산할 수 있다.
도 78의 단계 S153에서의 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는 언커버드 백그라운드 영역의 모델에 대응하는 정규 방정식을 이용한, 도 79의 흐름도에 도시한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명했지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있어도 상술한 혼합비를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 추정 혼합비 처리부(401)는 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 서로 다른 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는 혼합 영역에 속하는 화소에 대응하는 화소로서, 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
이어서, 전경 배경 분리부(105)에 대하여 설명한다. 도 80은 전경 배경 분리부(105)의 구성의 일례를 도시한 블록도이다. 전경 배경 분리부(105)에 공급된 입력 화상은 분리부(601), 스위치(602), 및 스위치(604)에 공급된다. 커버드 백그라운드 영역을 나타낸 정보, 및 언커버드 백그라운드 영역을 나타내는, 영역 특정부(103)로부터 공급된 영역 정보는 분리부(601)에 공급된다. 전경 영역을 나타내는 영역 정보는 스위치(602)에 공급된다. 배경 영역을 나타내는 영역 정보는 스위치(604)에 공급된다.
혼합비 산출부(104)로부터 공급된 혼합비α는 분리부(601)에 공급된다. 분리부(601)는 커버드 백그라운드 영역을 나타내는 영역 정보, 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α에 기초하여 입력 화상으로부터 전경 성분을 분리하고, 분리한 전경 성분을 합성부(603)에 공급함과 함께, 입력 화상으로부터 배경 성분을 분리하고, 분리한 배경 성분을 합성부(605)에 공급한다.
스위치(602)는 전경 영역을 나타내는 영역 정보에 기초하여, 전경에 대응하는 화소가 입력되었을 때, 닫혀, 입력 화상에 포함되는 전경에 대응하는 화소만을 합성부(603)에 공급한다.
스위치(604)는 배경 영역을 나타내는 영역 정보에 기초하여, 배경에 대응하는 화소가 입력되었을 때, 닫혀, 입력 화상에 포함되는 배경에 대응하는 화소만을 합성부(605)에 공급한다.
합성부(603)는 분리부(601)로부터 공급된 전경에 대응하는 성분, 스위치(602)로부터 공급된 전경에 대응하는 화소에 기초하여, 전경 성분 화상을 합성하고, 합성한 전경 성분 화상을 출력한다. 전경 영역과 혼합 영역은 중복되지 않으므로, 합성부(603)는 예를 들면 전경에 대응하는 성분과, 전경에 대응하는 화소와 논리합의 연산을 적용하여, 전경 성분 화상을 합성한다.
합성부(603)는 전경 성분 화상의 합성 처리의 최초로 실행되는 초기화의 처리에서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 전경성분 화상의 합성 처리에서, 전경 성분 화상을 저장(덮어쓰기)한다. 따라서, 합성부(603)가 출력하는 전경 성분 화상 중, 배경 영역에 대응하는 화소에는 화소값으로서 0이 저장되어 있다.
합성부(605)는 분리부(601)로부터 공급된 배경에 대응하는 성분, 스위치(604)로부터 공급된 배경에 대응하는 화소에 기초하여, 배경 성분 화상을 합성하고, 합성한 배경 성분 화상을 출력한다. 배경 영역과 혼합 영역은 중복되지 않으므로, 합성부(605)는, 예를 들면 배경에 대응하는 성분과, 배경에 대응하는 화소와 논리합의 연산을 적용하여, 배경 성분 화상을 합성한다.
합성부(605)는 배경 성분 화상의 합성 처리의 최초로 실행되는 초기화의 처리에서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 배경 성분 화상의 합성 처리에서, 배경 성분 화상을 저장(덮어쓰기)한다. 따라서, 합성부(605)가 출력하는 배경 성분 화상 중, 전경 영역에 대응하는 화소에는 화소값으로서 0이 저장되어 있다.
도 81A는 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상을 도시한 도면이다. 도 81B는 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상에 대응하는 모델을 도시한 도면이다.
도 81A는 표시되는 화상의 모식도이고, 도 81B는, 도 81A에 대응하는, 전경 영역에 속하는 화소, 배경 영역에 속하는 화소, 및 혼합 영역에 속하는 화소를 포함하는 1 라인의 화소를 시간 방향으로 전개한 모델도를 도시한다.
도 81A 및 도 81B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 배경 성분 화상은, 배경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 배경 성분으로 구성된다.
도 81A 및 도 81B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상은 전경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 전경 성분으로 구성된다.
혼합 영역의 화소의 화소값은 전경 배경 분리부(105)에 의해, 배경 성분과, 전경 성분으로 분리된다. 분리된 배경 성분은 배경 영역에 속하는 화소와 함께, 배경 성분 화상을 구성한다. 분리된 전경 성분은 전경 영역에 속하는 화소와 함께, 전경 성분 화상을 구성한다.
이와 같이, 전경 성분 화상은 배경 영역에 대응하는 화소의 화소값이 0으로 되고, 전경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다. 마찬가지로, 배경 성분 화상은 전경 영역에 대응하는 화소의 화소값이 0으로 되고, 배경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다.
이어서, 분리부(601)가 실행하는, 혼합 영역에 속하는 화소로부터 전경 성분, 및 배경 성분을 분리하는 처리에 대하여 설명한다.
도 82는 도면의 좌측으로부터 우측으로 이동하는 오브젝트에 대응하는, 전경을 포함하는 2개의 프레임의 전경 성분 및 배경 성분을 나타낸 화상의 모델이다.도 82에 도시한 화상의 모델에서, 전경의 움직임량 v는 4이고, 가상 분할수는 4로 되어 있다.
프레임 #n에서, 가장 좌측의 화소, 및 좌측으로부터 14번째 내지 18번째의 화소는 배경 성분만으로 이루어지며, 배경 영역에 속한다. 프레임 #n에서, 좌측으로부터 2번째 내지 4번째의 화소는, 배경 성분 및 전경 성분을 포함하며, 언커버드 백그라운드 영역에 속한다. 프레임 #n에서 좌측으로부터 11번째 내지 13번째의 화소는 배경 성분 및 전경 성분을 포함하며, 커버드 백그라운드 영역에 속한다. 프레임 #n에서 좌측으로부터 5번째 내지 10번째의 화소는 전경 성분만으로 이루어지며, 전경 영역에 속한다.
프레임 #n+1에서 좌측으로부터 1번째 내지 5번째의 화소, 및 좌측으로부터 18번째의 화소는 배경 성분만으로 이루어지며, 배경 영역에 속한다. 프레임 #n+1에서, 좌측으로부터 6번째 내지 8번째의 화소는 배경 성분 및 전경 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n+1에서 좌측으로부터 15번째 내지 17번째의 화소는 배경 성분 및 전경 성분을 포함하며, 커버드 백그라운드 영역에 속한다. 프레임 #n+1에서, 좌측으로부터 9번째 내지 14번째의 화소는 전경 성분만으로 이루어지며, 전경 영역에 속한다.
도 83은 커버드 백그라운드 영역에 속하는 화소로부터 전경 성분을 분리하는 처리를 설명하는 도면이다. 도 83에서, α1 내지 α18은 프레임 #n에서의 화소의 각각에 대응하는 혼합비이다. 도 83에서, 좌측으로부터 15번째 내지 17번째의 화소는 커버드 백그라운드 영역에 속한다.
프레임 #n의 좌측으로부터 15번째의 화소의 화소값 C15는 수학식 68로 표현된다.
여기서, α15는 프레임 #n의 좌측으로부터 15번째의 화소의 혼합비이다. P15는, 프레임 #n-1의 좌측으로부터 15번째의 화소의 화소값이다.
수학식 68에 기초하여, 프레임 #n의 좌측으로부터 15번째의 화소의 전경 성분의 합 f15는 수학식 69로 표현된다.
마찬가지로, 프레임 #n의 좌측으로부터 16번째의 화소의 전경 성분의 합 f16은 수학식 70으로 표현되고, 프레임 #n의 좌측으로부터 17번째의 화소의 전경 성분의 합 f17은 수학식 71로 표현된다.
이와 같이, 커버드 백그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경 성분 fc는 수학식 72로 계산된다.
P는 1개 전의 프레임의 대응하는 화소의 화소값이다.
도 84는 언커버드 백그라운드 영역에 속하는 화소로부터 전경 성분을 분리하는 처리를 설명하는 도면이다. 도 84에서, α1 내지 α18은 프레임 #n에서의 화소의 각각에 대응하는 혼합비이다. 도 84에서, 좌측으로부터 2번째 내지 4번째의 화소는 언커버드 백그라운드 영역에 속한다.
프레임 #n의 좌측으로부터 2번째의 화소의 화소값 C02는 수학식 73으로 표현된다.
여기서, α2는 프레임 #n의 좌측으로부터 2번째의 화소의 혼합비이다. N02는 프레임 #n+1의 좌측으로부터 2번째의 화소의 화소값이다.
수학식 73에 기초하여, 프레임 #n의 좌측으로부터 2번째의 화소의 전경 성분의 합 F02는 수학식 74로 표현된다.
마찬가지로, 프레임 #n의 좌측으로부터 3번째의 화소의 전경 성분의 합 f 03은 수학식 75로 표현되고, 프레임 #n의 좌측으로부터 4번째의 화소의 전경 성분의 합 F04는 수학식 76으로 표현된다.
이와 같이, 언커버드 백그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경 성분 fu는 수학식 77로 계산된다.
N은 1개 후의 프레임의 대응하는 화소의 화소값이다.
이와 같이, 분리부(601)는 영역 정보에 포함되는 커버드 백그라운드 영역을 나타낸 정보, 및 언커버드 백그라운드 영역을 나타낸 정보, 및 화소마다의 혼합비α에 기초하여, 혼합 영역에 속하는 화소로부터 전경 성분, 및 배경 성분을 분리 할 수 있다.
도 85는 이상에서 설명한 처리를 실행하는 분리부(601)의 구성의 일례를 도시한 블록도이다. 분리부(601)에 입력된 화상은 프레임 메모리(621)에 공급되고, 혼합비 산출부(104)로부터 공급된, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α는 분리 처리 블록(622)에 입력된다.
프레임 메모리(621)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(621)는 처리의 대상이 프레임 #n일 때, 프레임 #n의 1개 전의 프레임인 프레임 #n-1, 프레임 #n, 및 프레임 #n의 하나 후의 프레임인 프레임 #n+1을 기억한다.
프레임 메모리(621)는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소를 분리 처리 블록(622)에 공급한다.
분리 처리 블록(622)은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소의 화소값에 도 83 및 도 84를 참조하여 설명한 연산을 적용하여, 프레임 #n의 혼합 영역에 속하는 화소로부터 전경 성분 및 배경 성분을 분리하여, 프레임 메모리(623)에 공급한다.
분리 처리 블록(622)은 언커버드 영역 처리부(631), 커버드 영역 처리부(632), 합성부(633), 및 합성부(634)로 구성되어 있다.
언커버드 영역 처리부(631)의 승산기(641)는 혼합비α를, 프레임 메모리(621)로부터 공급된 프레임 #n+1의 화소의 화소값을 곱하여, 스위치(642)에 출력한다. 스위치(642)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n+1의 화소에 대응함)가 언커버드 백그라운드 영역일 때, 닫혀, 승산기(641)로부터 공급된 혼합비α를 곱한 화소값을 연산기(643) 및 합성부(634)에 공급한다.스위치(642)로부터 출력되는 프레임 #n+1의 화소의 화소값에 혼합비α를 곱한 값은 프레임 #n의 대응하는 화소의 화소값의 배경 성분과 같다.
연산기(643)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(642)로부터 공급된 배경 성분을 감하여, 전경 성분을 구한다. 연산기(643)는 언커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경 성분을 합성부(633)에 공급한다.
커버드 영역 처리부(632)의 승산기(651)는 혼합비α를 프레임 메모리(621)로부터 공급된 프레임 #n-1의 화소의 화소값을 곱하여, 스위치(652)에 출력한다. 스위치(652)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n-1의 화소에 대응함)가 커버드 백그라운드 영역일 때, 닫혀, 승산기(651)로부터 공급된 혼합비α를 곱한 화소값을 연산기(653) 및 합성부(634)에 공급한다. 스위치(652)로부터 출력되는 프레임 #n-1의 화소의 화소값에 혼합비α를 곱한 값은, 프레임 #n의 대응하는 화소의 화소값의 배경 성분과 같다.
연산기(653)는, 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(652)로부터 공급된 배경 성분을 감하여, 전경 성분을 구한다. 연산기(653)는 커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경 성분을 합성부(633)에 공급한다.
합성부(633)는 프레임 #n의 연산기(643)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 전경 성분, 및 연산기(653)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성하여, 프레임 메모리(623)에 공급한다.
합성부(634)는 프레임 #n의 스위치(642)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 배경 성분, 및 스위치(652)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성하여, 프레임 메모리(623)에 공급한다.
프레임 메모리(623)는 분리 처리 블록(622)으로부터 공급된 프레임 #n의 혼합 영역의 화소의 전경 성분과, 배경 성분을 각각에 기억한다.
프레임 메모리(623)는 기억하고 있는 프레임 #n의 혼합 영역의 화소의 전경 성분, 및 기억하고 있는 프레임 #n의 혼합 영역의 화소의 배경 성분을 출력한다.
특징량인 혼합비α를 이용함으로써, 화소값에 포함되는 전경 성분과 배경 성분을 완전하게 분리하는 것이 가능해진다.
합성부(603)는 분리부(601)로부터 출력된 프레임 #n의 혼합 영역의 화소의 전경 성분과, 전경 영역에 속하는 화소를 합성하여 전경 성분 화상을 생성한다. 합성부(605)는 분리부(601)로부터 출력된 프레임 #n의 혼합 영역의 화소의 배경 성분과, 배경 영역에 속하는 화소를 합성하여 배경 성분 화상을 생성한다.
도 86A는 도 82의 프레임 #n에 대응하는, 전경 성분 화상의 예를 나타낸 도면이다. 도 86B는 도 82의 프레임 #n에 대응하는, 배경 성분 화상의 예를 나타낸 도면이다.
도 86A는, 도 82의 프레임 #n에 대응하는, 전경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌측으로부터 14번째의 화소는 전경과 배경이 분리되기 전에, 배경 성분만으로 이루어져 있었으므로, 화소값이 0으로 된다.
좌측으로부터 2번째 내지 4번째의 화소는 전경과 배경과가 분리되기 전에,언커버드 백그라운드 영역에 속하여, 배경 성분이 0으로 되고, 전경 성분이 그대로 남겨져 있다. 좌측으로부터 11번째 내지 13번째의 화소는 전경과 배경이 분리되기 전에 커버드 백그라운드 영역에 속하여, 배경 성분이 0으로 되고, 전경 성분이 그대로 남겨져 있다. 좌측으로부터 5번째 내지 10번째의 화소는 전경 성분만으로 이루어지므로, 그대로 남겨진다.
도 86B는, 도 82의 프레임 #n에 대응하는, 배경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌측으로부터 14번째의 화소는 전경과 배경이 분리되기 전에 배경 성분만으로 이루어져 있었으므로, 그대로 남겨진다.
좌측으로부터 2번째 내지 4번째의 화소는 전경과 배경이 분리되기 전에, 언커버드 백그라운드 영역에 속하여, 전경 성분이 0으로 되고, 배경 성분이 그대로 남겨져 있다. 좌측으로부터 11번째 내지 13번째의 화소는 전경과 배경이 분리되기 전에, 커버드 백그라운드 영역에 속하여, 전경 성분이 0으로 되고, 배경 성분이 그대로 남겨져 있다. 좌측으로부터 5번째 내지 10번째의 화소는 전경과 배경이 분리되기 전에, 전경 성분만으로 이루어져 있었으므로, 화소값이 0으로 된다.
이어서, 도 87에 도시한 흐름도를 참조하여, 전경 배경 분리부(105)에 의한 전경과 배경의 분리 처리를 설명한다. 단계 S601에서, 분리부(601)의 프레임 메모리(621)는 입력 화상을 취득하여, 전경과 배경의 분리 대상이 되는 프레임 #n을 그 전의 프레임 #n-1 및 그 후의 프레임 #n+1과 함께 기억한다.
단계 S602에서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 영역 정보를 취득한다. 단계 S603에서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 혼합비α를 취득한다.
단계 S604에서 언커버드 영역 처리부(631)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 배경 성분을 추출한다.
단계 S605에서, 언커버드 영역 처리부(631)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 전경 성분을 추출한다.
단계 S606에서, 커버드 영역 처리부(632)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 배경 성분을 추출한다.
단계 S607에서 커버드 영역 처리부(632)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 전경 성분을 추출한다.
단계 S608에서, 합성부(633)는 단계 S605의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 전경 성분과, 단계 S607의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성한다. 합성된 전경 성분은 합성부(603)에 공급된다. 또한, 합성부(603)는 스위치(602)를 통하여 공급된 전경 영역에 속하는 화소와, 분리부(601)로부터 공급된 전경 성분을 합성하여, 전경 성분 화상을 생성한다.
단계 S609에서, 합성부(634)는 단계 S604의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 배경 성분과, 단계 S606의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성한다. 합성된 배경 성분은, 합성부(605)에 공급된다. 또한, 합성부(605)는 스위치(604)를 통하여 공급된, 배경 영역에 속하는 화소와, 분리부(601)로부터 공급된 배경 성분을 합성하여, 배경 성분 화상을 생성한다.
단계 S610에서, 합성부(603)는 전경 성분 화상을 출력한다. 단계 S611에서 합성부(605)는 배경 성분 화상을 출력하고, 처리는 종료한다.
이와 같이, 전경 배경 분리부(105)는 영역 정보 및 혼합비α에 기초하여, 입력 화상으로부터 전경 성분과 배경 성분을 분리하여, 전경 성분만으로 이루어지는 전경 성분 화상, 및 배경 성분만으로 이루어지는 배경 성분 화상을 출력할 수 있다.
이어서, 전경 성분 화상으로부터의 움직임 불선명의 제거에 대하여 설명한다.
도 88은 움직임 불선명 제거부(106)의 구성의 일례를 도시한 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보, 및 영역 특정부(103)로부터 공급된 영역 정보는 처리 단위 결정부(801) 및 모델화부(802)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 가산부(804)에 공급된다.
처리 단위 결정부(801)는 움직임 벡터와 그 위치 정보, 및 영역 정보에 기초하여, 움직임 벡터와 함께, 생성한 처리 단위를 모델화부(802)에 공급한다. 처리단위 결정부(801)는 생성한 처리 단위를 가산부(804)에 공급한다.
도 89의 A로서 예를 도시한, 처리 단위 결정부(801)가 생성하는 처리 단위는 전경 성분 화상의 커버드 백그라운드 영역에 대응하는 화소로부터 시작하여, 언커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 배열되는 연속하는 화소, 또는 언커버드 백그라운드 영역에 대응하는 화소로부터 시작하여, 커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 배열되는 연속하는 화소를 나타낸다. 처리 단위는, 예를 들면 좌측 상부점(처리 단위로 지정되는 화소로서, 화상 상에서 가장 좌측 또는 가장 상측에 위치하는 화소의 위치) 및 우측 하부점 2개의 데이터로 이루어진다.
모델화부(802)는 움직임 벡터 및 입력된 처리 단위에 기초하여, 모델화를 실행한다. 보다 구체적으로는, 예를 들면 모델화부(802)는 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할수, 및 화소마다의 전경 성분의 수에 대응하는 복수의 모델을 미리 기억해 두고, 처리 단위, 및 화소값의 시간 방향의 가상 분할 수에 기초하여, 도 90에 도시한 바와 같은, 화소값과 전경 성분과의 대응을 지정하는 모델을 선택하도록 해도 된다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 셔터 시간 내의 움직임량 v가 5일 때에는, 모델화부(802)는 가상 분할수를 5로 하고, 가장 좌측에 위치하는 화소가 1개의 전경 성분을 포함하고, 좌측으로부터 2번째의 화소가 2개의 전경 성분을 포함하고, 좌측으로부터 3번째의 화소가 3개의 전경 성분을 포함하고, 좌측으로부터 4번째의 화소가 4개의 전경 성분을 포함하고, 좌측으로부터 5번째의화소가 5개의 전경 성분을 포함하고, 좌측으로부터 6번째의 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 7번째의 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 8번째의 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 9번째의 화소가 4개의 전경 성분을 포함하고, 좌측으로부터 10번째의 화소가 3개의 전경 성분을 포함하고, 좌측으로부터 11번째의 화소가 2개의 전경 성분을 포함하고, 좌측으로부터 12번째의 화소가 1개의 전경 성분을 포함하여, 전체적으로 8개의 전경 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(802)는 미리 기억하고 있는 모델로부터 선택하는 것은 아니며, 움직임 벡터, 및 처리 단위가 공급되었을 때, 움직임 벡터, 및 처리 단위에 기초하여, 모델을 생성하도록 해도 된다.
모델화부(802)는 선택한 모델을 방정식 생성부(803)에 공급한다.
방정식 생성부(803)는 모델화부(802)로부터 공급된 모델에 기초하여, 방정식을 생성한다. 도 90에 도시한 전경 성분 화상의 모델을 참조하여, 전경 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5이고, 가상 분할수가 5일 때의, 방정식 생성부(803)가 생성하는 방정식에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간/v에 대응하는, 전경 성분이 F01/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소값 C01 내지 C12와의 관계는 수학식 78 내지 수학식 89로 표현된다.
방정식 생성부(803)는 생성한 방정식을 변형하여 방정식을 생성한다. 방정식 생성부(803)가 생성하는 방정식을 수학식 90 내지 수학식 101로 표현된다.
수학식 90 내지 수학식 101은 수학식 102로서 나타낼 수도 있다.
수학식 102에서, j는 화소의 위치를 나타낸다. 이 예에서, j는 1 내지 12 중 어느 1개의 값을 갖는다. 또, i는 전경값의 위치를 나타낸다. 이 예에서, i는 1 내지 8 중 어느 1개의 값을 갖는다. aij는 i 및 j의 값에 대응하여, 0 또는 1의 값을 갖는다.
오차를 고려하여 표현하면, 수학식 102는 수학식 103과 같이 표현할 수 있다.
수학식 103에서, ej는 주목 화소 Cj에 포함되는 오차이다.
수학식 103은 수학식 104로 바꿔 쓸 수 있다.
여기서, 최소 제곱법을 적용하기 위해, 오차의 제곱합 E를 수학식 105로 표현한 바와 같이 정의한다.
오차가 최소로 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Fk에 의한 편미분의 값이 0으로 되면 된다. 수학식 106을 충족하도록 Fk를 구한다.
수학식 106에서 움직임량 v는 고정값이므로, 수학식 107을 유도할 수 있다.
수학식 107을 전개하여, 이항하면, 수학식 108을 얻는다.
수학식 108의 k에 1 내지 8의 정수 중 어느 1개를 대입하여 얻어지는 8개의 식으로 전개한다. 얻어진 8개의 식을 행렬에 의해 1개의 식으로 표현할 수 있다. 이 식을 정규 방정식이라고 한다.
이러한 최소 제곱법에 기초한, 방정식 생성부(803)가 생성하는 정규 방정식의 예를 수학식 109에 나타낸다.
수학식 109를 A·F=v·C로 나타내면, C, A, v가 기지이며, F는 미지이다. 또한, A, v는 모델화의 시점에서 기지이지만, C는 가산 동작에서 화소값을 입력함으로써 기지로 된다.
최소 제곱법에 기초한 정규 방정식에 의해 전경 성분을 산출함으로써, 화소 C에 포함되어 있는 오차를 분산시킬 수 있다.
방정식 생성부(803)는 이와 같이 생성된 정규 방정식을 가산부(804)에 공급한다.
가산부(804)는 처리 단위 결정부(801)로부터 공급된 처리 단위에 기초하여, 전경 성분 화상에 포함되는 화소값 C를 방정식 생성부(803)로부터 공급된 행렬의 식에 설정한다. 가산부(804)는 화소값 C를 설정한 행렬을 연산부(805)에 공급한다.
연산부(805)는 소거법(Gauss-Jordan의 소거법) 등의 해법에 기초한 처리에 의해, 움직임 불선명이 제거된 전경 성분 Fi/v를 산출하고, 움직임 불선명이 제거된 전경의 화소값인 0 내지 8의 정수 중 어느 한 i에 대응하는 Fi를 산출하여, 도 91에 예를 도시하는, 움직임 불선명이 제거된 화소값인 Fi로 이루어지는, 움직임 불선명이 제거된 전경 성분 화상을 출력한다.
또, 도 91에 도시한 움직임 불선명이 제거된 전경 성분 화상에서, C03 내지 C10 각각에 F01 내지 F08 각각이 설정되어 있는 것은 화면에 대한 전경 성분 화상의 위치를 변화시키지 않기 위해서이며, 임의의 위치에 대응시킬 수 있다.
또한, 예를 들면 도 92에 도시한 바와 같이, 처리 단위에 대응하는 화소의 수가 8이고, 움직임량 v가 4일 때, 움직임 불선명 제거부(106)는 수학식 110로 표현한 행렬의 식을 생성한다.
움직임 불선명 제거부(106)는, 이와 같이 처리 단위의 길이에 대응한 수의 식을 성립하여, 움직임 불선명량이 조정된 화소값인 Fi를 산출한다. 마찬가지로, 예를 들면, 처리 단위에 포함되는 화소의 수가 100일 때, 100개의 화소에 대응하는 식을 생성하여, Fi를 산출한다.
이상과 같이, 움직임 불선명 제거부(106)는 움직임량 v 및 처리 단위에 대응하여, 식을 생성하고, 생성한 식에 전경 성분 화상의 화소값을 설정하여, 움직임 불선명이 제거된 전경 성분 화상을 산출한다.
이어서, 도 93의 흐름도를 참조하여, 움직임 불선명 제거부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 제거 처리를 설명한다.
단계 S801에서 움직임 불선명 제거부(106)의 처리 단위 결정부(801)는 움직임 벡터 및 영역 정보에 기초하여, 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(802)에 공급한다.
단계 S802에서 움직임 불선명 제거부(106)의 모델화부(802)는, 움직임량 v 및 처리 단위에 대응하여, 모델의 선택이나 생성을 행한다. 단계 S803에서 방정식생성부(803)는 선택된 모델에 기초하여 정규 방정식을 작성한다.
단계 S804에서, 가산부(804)는 작성된 정규 방정식에 전경 성분 화상의 화소값을 설정한다. 단계 S805에서, 가산부(804)는 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행하였는지의 여부를 판정하고, 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행하지 않았다고 판정된 경우, 단계 S804로 되돌아가, 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S805에서 처리 단위의 모든 화소의 화소값의 설정을 행하였다고 판정된 경우, 단계 S806로 진행하여, 연산부(805)는 가산부(804)로부터 공급된 화소값이 설정된 정규 방정식에 기초하여, 움직임 불선명을 제거한 전경의 화소값을 산출하고, 처리는 종료한다.
이와 같이, 움직임 불선명 제거부(106)는 움직임 벡터 및 영역 정보에 기초하여, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명을 제거할 수 있다.
즉, 샘플 데이터인 화소값에 포함되는 움직임 불선명을 제거할 수 있다.
이어서, 보정부(107)에 의한 배경 성분 화상의 보정에 대하여 설명한다.
도 94는, 도 90에 예를 도시한 전경 성분 화상의 모델에 대응하는, 배경 성분 화상의 모델이 예를 나타낸 도면이다.
도 94에 도시한 바와 같이, 원래의 입력 화상의 혼합 영역에 대응하는, 배경 성분 화상의 화소의 화소값은 전경 성분이 제거되어 있으므로, 원래의 입력 화상의 배경 영역에 대응하는 화소에 비교하여, 혼합비α에 대응하여 적은 수의 배경 성분에 의해 구성되어 있다.
예를 들면, 도 94에 예를 도시한 배경 성분 화상에서, 화소값 C01은 4개의 배경 성분 B02/V로 구성되고, 화소값 C02는 3개의 배경 성분 B03/V로 구성되고, 화소값 C03은 2개의 배경 성분 B04/V로 구성되고, 화소값 C04는 1개의 배경 성분 B05/V로 구성된다.
또한, 도 94에 예를 도시한 배경 성분 화상에서, 화소값 C09는 1개의 배경 성분 B10/V로 구성되고, 화소값 C10은 2개의 배경 성분 B11/V로 구성되고, 화소값 C11은 3개의 배경 성분 B12/V로 구성되고, 화소값 C12는 4개의 배경 성분 B13/V로 구성된다.
이와 같이, 원래의 입력 화상의 혼합 영역에 대응하는 화소의 화소값이 원래의 입력 화상의 배경 영역에 대응하는 화소에 비교하여, 적은 수의 배경 성분에 의해 구성되어 있으므로, 전경 성분 화상의 혼합 영역에 대응하는 화상은 배경 영역의 화상에 비교하여, 예를 들면 어두운 화상으로 된다.
보정부(107)는, 이러한 배경 성분 화상의 혼합 영역에 대응하는 화소의 화소값의 각각에 혼합비α에 대응하는 상수을 곱하여, 배경 성분 화상의 혼합 영역에 대응하는 화소의 화소값을 보정한다.
예를 들면, 도 94에 도시한 배경 성분 화상이 입력되었을 때, 보정부(107)는 화소값 C01에 5/4를 승산하고, 화소값 C02에 5/3를 승산하고, 화소값 C11에 5/3을 승산하고, 화소값 C12에 5/4를 승산한다. 도 91에 예를 나타내는, 움직임 불선명이 제거된 전경 성분 화상과의 화소의 위치를 정합시키기 위해, 보정부(107)는 화소값 C03 내지 C11의 화소값을 0으로 한다.
보정부(107)는 도 95에 예를 도시한, 혼합 영역에 대응하는 화소의 화소값을 보정한 배경 성분 화상을 출력한다.
이와 같이, 보정부(107)는 배경 성분 화상의 혼합 영역에 대응하는 화소의 화소값을 보정함과 함께, 움직임 불선명이 제거된 전경 성분 화상과의 화소의 위치를 정합시킨다.
도 96은 공간 방향으로 보다 고해상도의 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수 세트를 생성하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도이다. 예를 들면, 도 96에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는 입력된, HD 화상에 기초하여, SD 화상으로부터 HD 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수 세트를 생성한다.
배경 성분 교사 화상 프레임 메모리(1001)는 보정부(107)로부터 공급된, 교사 화상 의 보정된 배경 성분 화상을 기억한다. 배경 성분 교사 화상 프레임 메모리(1001)는, 기억하고 있는, 교사 화상 의 배경 성분 화상을 가중 평균부(1003-1) 및 학습부(1006-1)에 공급한다.
전경 성분 교사 화상 프레임 메모리(1002)는 움직임 불선명 제거부(106)로부터 공급된, 교사 화상의 움직임 불선명이 제거된 전경 성분 화상을 기억한다. 전경 성분 교사 화상 프레임 메모리(1002)는, 기억하고 있는, 교사 화상 의 전경 성분 화상을 가중 평균부(1003-2) 및 학습부(1006-2)에 공급한다.
가중 평균부(1003-1)는 배경 성분 교사 화상 프레임 메모리(1001)로부터 공급된, 예를 들면 HD 화상인 교사 화상의 배경 성분 화상을 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 배경 성분 학생 화상 프레임 메모리(1004)에 공급한다.
예를 들면, 가중 평균부(1003-1)는 도 97에 도시한 바와 같이, 교사 화상의 2×2(가로×세로)의 4개의 화소(도 97에서 ○로 나타낸 부분)을 1 단위로 하고, 각 단위의 4개의 화소의 화소값을 가산하며, 가산된 결과를 4로 제산한다. 가중 평균부(1 003-1)는 이와 같이, 4분의 1 가중 평균된 결과를, 각 단위의 중심에 위치하는 학생 화상의 화소(도면에서, ●로 나타낸 부분)에 설정한다.
배경 성분 학생 화상 프레임 메모리(1004)는 가중 평균부(1003-1)로부터 공급된, 교사 화상의 배경 성분 화상에 대응하는 학생 화상을 기억한다. 배경 성분 학생 화상 프레임 메모리(1004)는, 기억하고 있는, 교사 화상 의 배경 성분 화상에 대응하는 학생 화상을 학습부(1006-1)에 공급한다.
가중 평균부(1003-2)는 전경 성분 교사 화상 프레임 메모리(1002)로부터 공급된, 예를 들면 HD 화상인 교사 화상의 전경 성분 화상을 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 전경 성분 학생 화상 프레임 메모리(1005)에 공급한다.
전경 성분 학생 화상 프레임 메모리(1005)는, 가중 평균부(1003-2)로부터 공급된, 교사 화상의 전경 성분 화상에 대응하는, SD 화상인 학생 화상을 기억한다. 전경 성분 학생 화상 프레임 메모리(1005)는, 기억하고 있는, 교사 화상 의 전경 성분 화상에 대응하는 학생 화상을 학습부(1006-2)에 공급한다.
학습부(1006-1)는 배경 성분 교사 화상 프레임 메모리(1001)로부터 공급된, 교사 화상 의 배경 성분 화상, 및 배경 성분 학생 화상 프레임 메모리(1004)로부터 공급된, 교사 화상의 배경 성분 화상에 대응하는 학생 화상에 기초하여, 배경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(1007)에 공급한다.
학습부(1006-2)는, 전경 성분 교사 화상 프레임 메모리(1002)로부터 공급된, 교사 화상 의 전경 성분 화상, 및 전경 성분 학생 화상 프레임 메모리(1005)로부터 공급된, 교사 화상의 전경 성분 화상에 대응하는 학생 화상에 기초하여, 전경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(1007)에 공급한다.
계수 세트 메모리(1007)는 학습부(1006-1)로부터 공급된 배경 성분 화상에 대응하는 계수 세트, 및 학습부(1006-2)로부터 공급된 전경 성분 화상에 대응하는 계수 세트를 기억한다.
이하, 학습부(1006-1) 및 학습부(1006-2)를 개별적으로 구별할 필요가 없을 때, 단순히 학습부(1006)라고 칭한다.
도 98은 학습부(1006)의 구성을 도시한 블록도이다.
클래스 분류부(1031)는 클래스 탭 취득부(1051) 및 파형 분류부(1052)로 구성되고, 입력된 학생 화상의 주목하고 있는 화소인, 주목 화소를 클래스 분류한다. 클래스 탭 취득부(1051)는 주목 화소에 대응하는 학생 화상의 화소인 소정의 수의 클래스 탭을 취득하고, 취득한 클래스 탭을 파형 분류부(1052)에 공급한다.
예를 들면, 도 97에서 상측으로부터 i 번째로, 좌측으로부터 j 번째의 학생 화상의 화소(도면에서 ●로 나타낸 부분)을 Xij로 나타내면, 클래스 탭 취득부(1051) 는 주목 화소 Xij의 좌측 위, 상부, 우측 위, 좌측, 우측, 좌측 아래, 하부, 우측 아래에 인접하는 8개의 화소 X(i-1)(j-1), X(i-1)j, X(i-1)(j+1), Xi(j-1), Xi(j+1), X(i-1)(j-1), X(i-1), X(i+1)(j+1)에 자신을 포함시켜, 합계 9 화소로 구성되는 클래스 탭을 취득한다. 이 클래스 탭은 파형 분류부(1052)에 공급된다.
또, 이 경우, 클래스 탭은 3×3 화소로 이루어지는 정방형 형상의 블록으로 구성되게 되지만, 클래스 분류용 블록의 형상은, 정방형일 필요는 없으며, 그밖의 예를 들면 장방형이나, 십자형, 그 밖의 임의의 형태로 하는 것이 가능하다. 또한, 클래스 탭을 구성하는 화소 수도, 3×3의 9 화소에 한정되는 것은 아니다.
파형 분류부(1052)는, 입력 신호를 그 특징에 기초하여 몇 개의 클래스로 분류하는 클래스 분류 처리를 실행하고, 클래스 탭에 기초하여, 주목 화소를 1개의 클래스로 분류한다. 파형 분류부(1052)는, 예를 들면 주목 화소를 512의 클래스 중 하나의 클래스로 분류하고, 분류된 클래스에 대응하는 클래스 번호를 예측 탭 취득부(1032)에 공급한다.
여기서, 클래스 분류 처리에 대하여 간단히 설명한다.
지금, 예를 들면 도 99A에 도시한 바와 같이, 임의의 주목 화소와, 그것에 인접하는 3개의 화소에 의해 2×2 화소로 이루어지는 클래스 탭을 구성하고, 또한 각 화소는 1 비트로 표현되는 (0 또는 1 중 어느 하나의 레벨을 취하는) 것으로 한다. 도 99A에 도시한 ●은 주목 화소를 나타낸다. 이 경우, 주목 화소를 포함하는 2×2의 4 화소의 블록은 각 화소의 레벨 분포에 의해, 도 99B에 도시한 바와 같이, 16(=(21)4) 패턴으로 분류할 수 있다. 도 99B에서, ○은 0을 나타내며, ●은 1을 나타낸다. 따라서, 지금은, 주목 화소는 16의 패턴으로 분류할 수 있으며, 이러한 패턴 분리가 클래스 분류 처리로서, 클래스 분류부(1031)에서 행해진다.
또, 클래스 분류 처리는, 화상(클래스 탭)의 액티비티(화상의 복잡함)(변화의 심함) 등도 고려하여 행하도록 할 수 있다.
여기서, 통상 각 화소에는 예를 들면 8 비트 정도가 할당된다. 또한, 본 실시예에서는 상술한 바와 같이, 클래스 탭은 3×3의 9 화소로 구성된다. 따라서, 이러한 클래스 탭을 대상으로 클래스 분류 처리를 행한 것에서는, (28)9라는 방대한 수의 클래스로 분류되게 된다.
그래서, 본 실시예에서는 파형 분류부(1052)에서, 클래스 탭에 대하여 ADRC 처리가 실시되고, 이에 의해 클래스 탭을 구성하는 화소의 비트 수를 작게 함으로써, 클래스 수를 삭감한다.
설명을 간단히 하기 위해, 도 100A에 도시한 바와 같이 직선 상에 배열된 4 화소로 구성되는 클래스 탭을 생각하면, ADRC 처리에서는 그 화소값의 최대값 MAX와 최소값 MIN이 검출된다. 그리고, DR=MAX-MIN을 클래스 탭으로 구성되는 블록이 국소적인 다이내믹 범위로 하고, 이 다이내믹 범위 DR에 기초하여, 클래스 탭의 블록을 구성하는 화소의 화소값이 K 비트로 재양자화된다.
즉, 블록 내의 각 화소값으로부터, 최소값 MIN을 감산하고, 그 감산값을 DR/2K로 제산한다. 그리고, 그 결과 얻어지는 제산값에 대응하는 코드(ADRC 코드)로 변환된다. 구체적으로는, 예를 들면 K=2로 한 경우, 도 100B에 도시한 바와 같이 제산값이 다이내믹 범위 DR를 4(=22)개 등분하여 얻어지는 어느 한 범위에 속할지 판정되어, 제산값이 가장 위 레벨의 범위, 아래로부터 2번째의 레벨의 범위, 아래로부터 3번째의 레벨의 범위, 또는 가장 상위의 레벨의 범위에 속하는 경우에는, 각각 예를 들면 00B, 01B, 10B, 또는 11B 등의 2 비트로 코드화된다(B는 2진수인 것을 나타냄). 그리고, 복호측에서는 ADRC 코드00B, 01B, 10B, 또는 11B는 다이내믹 범위 DR을 4등분하여 얻어지는 가장 아래의 레벨의 범위의 중심값 L00, 아래로부터 2번째의 레벨의 범위의 중심값 L01, 아래로부터 3번째의 레벨의 범위의 중심값 L10, 또는 가장 상위 레벨의 범위의 중심값 L11로 변환되고, 그 값에, 최소값 MIN이 가산되는 것으로 복호가 행해진다.
여기서, 이러한 ADRC 처리는 난-엣지 매칭이라고 한다.
또, ADRC 처리에 대해서는 본건 출원인이 앞서 출원한, 예를 들면 일본 특개평3-53778호 공보 등에 그 상세 내용이 개시되어 있다.
클래스 탭을 구성하는 화소에 할당되어 있는 비트 수보다 적은 비트 수로 재 양자화를 행하는 ADRC 처리를 실시함으로써, 상술한 바와 같이 클래스 수를 삭감할 수 있으며, 이러한 ADRC 처리가 파형 분류부(1052)에서 행해진다.
또, 본 실시예에서는 파형 분류부(1052)에서, ADRC 코드에 기초하여, 클래스분류 처리가 행해지지만, 클래스 분류 처리는 그 밖의 예를 들면 DPCM(예측 부호화)나, BTC(Block Truncation Coding), VQ(벡터 양자화), DCT(이산 코사인 변환), Hadamard 변환 등을 실시한 데이터를 대상으로 행하도록 할 수도 있다.
예측 탭 취득부(1032)는 클래스 번호에 기초하여, 학생 화상의 화소로부터 클래스에 대응하여, 원래 화상(교사 화상)의 예측값을 계산하기 위한 단위인, 예측 탭을 취득하고, 취득한 예측 탭 및 클래스 번호를 대응 화소 취득부(1033)에 공급한다.
예를 들면, 도 97에서 학생 화상의 화소 Xij(도면에서 ●로 나타낸 부분)을 중심으로 하는, 원래 화상(교사 화상)에서의 2×2의 9 화소의 화소값을 그 가장 좌측으로부터 우측 방향, 또한 위로부터 아래 방향으로, Yij(1), Yij(2), Yij(3), Yij(4)로 나타낸다고 하면, 화소 Yij(1) 내지 Yij(4)의 예측값의 계산에 필요한 계수를 산출하기 위해, 예측 탭 취득부(1032)는, 예를 들면 학생 화상의 화소 Xij를 중심으로 하는 3×3의 9 화소 X(i-j)(j-i), X(i-j)j, X(i-j)(j+i), Xi(j-i), Xij, Xi(j-i), X(i+j)(j-i), X(i+j)j, X(i+j)(j+i)로 구성되는 정방 형상의 예측 탭을 취득한다.
구체적으로는, 예를 들면 도 97에서 사각형으로 된 교사 화상에서의 화소 Y33(1) 내지 Y33(4)의 4 화소의 예측값의 계산에 필요한 계수를 산출하기 위해서는, 화소 X22, X23, X24, X32, X33, X34, X42, X43, X44에 의해 예측 탭이 구성된다(이 경우의주목 화소는 X33이 됨).
대응 화소 취득부(1033)는 예측 탭 및 클래스 번호에 기초하여, 예측할 화소값에 대응하는 교사 화상의 화소의 화소값을 취득하고, 예측 탭, 클래스 번호, 및 취득한 예측할 화소값에 대응하는 교사 화상의 화소의 화소값을 정규 방정식 생성부(1034)에 공급한다.
예를 들면, 대응 화소 취득부(1033)는 교사 화상에서의 화소 Y33(1) 내지 Y33(4)의 4 화소의 예측값의 계산에 필요한 계수를 산출할 때, 예측할 화소값에 대응하는 교사 화상의 화소로서 화소 Y33(1) 내지 Y33(4)의 화소값을 취득한다.
정규 방정식 생성부(1034)는, 예측 탭, 클래스 번호, 및 취득한 예측할 화소값에 기초하여, 예측 탭 및 예측할 화소값의 관계에 대응하는, 적응 처리에서 사용되는 계수 세트를 산출하기 위한 정규 방정식을 생성하고, 클래스 번호와 함께, 생성한 정규 방정식을 계수 계산부(1035)에 공급한다.
계수 계산부(1035)는 정규 방정식 생성부(1034)로부터 공급된 정규 방정식을 풀어, 분류된 클래스에 대응하는, 적응 처리에서 사용되는 계수 세트를 계산한다. 계수 계산부(1035)는 클래스 번호와 함께, 계산한 계수 세트를 계수 세트 메모리(1007)에 공급한다.
정규 방정식 생성부(1034)는 이러한 정규 방정식에 대응하는 행렬을 생성하고, 계수 계산부(1035)는 생성된 행렬에 기초하여, 계수 세트를 계산하도록 해도 된다.
여기서, 적응 처리에 대하여 설명한다.
예를 들면, 지금 교사 화상의 화소값 y의 예측값 E[y]를, 그 주변의 몇개의 화소의 화소값(이하, 적절하게 학생 데이터라고 함)x1, x2, …와, 소정의 예측 계수 w1, w2, …의 선형 결합에 의해 규정되는 선형 1차 결합 모델에 의해 구해지는 것을 생각한다. 이 경우, 예측값 E[y]는 다음식으로 표현할 수 있다.
그래서, 일반화하기 위해, 예측 계수 w의 집합으로 이루어지는 행렬 W, 학생 데이터의 집합으로 이루어지는 행렬 X, 및 예측값 E[y]의 집합으로 이루어지는 행렬 Y'을,
로 정의하면, 다음과 같은 관측 방정식이 성립한다.
그리고, 이 관측 방정식에 최소 제곱법을 적용하여, 원래 화상의 화소값 y에 가까운 예측값 E[y]를 구하는 것을 생각한다. 이 경우, 원래 화상의 화소값(이하, 적절하게, 교사 데이터라고 함) y의 집합으로 이루어지는 행렬 Y, 및 원래 화상의 화소값 y 에 대한 예측값 E[y]의 잔차 e의 집합으로 이루어지는 행렬 E를,
로 정의하면, 수학식 112로부터 다음과 같은 잔차 방정식이 성립한다.
이 경우, 원래 화상의 화소값 y에 가까운 예측값 E[y]를 구하기 위한 예측 계수 wi는 제곱 오차를 최소로 함으로써 구할 수 있다.
따라서, 상술한 제곱 오차를 예측 계수 wi로 미분한 것이 0으로 되는 경우, 즉 다음 식을 충족하는 예측 계수 wi가 원래 화상의 화소값 y에 가까운 예측값 E[y]를 구하기 위해 최적값으로 된다.
그래서, 우선 수학식 113을 예측 계수 wi로 미분함으로써, 다음식이 성립한다.
수학식 114 및 수학식 115로부터, 수학식 116이 얻어진다.
또한 수학식 113의 잔차 방정식에서의 학생 데이터 x, 예측 계수 w, 교사 데이터 y, 및 잔차 e의 관계를 고려하면, 수학식 116으로부터 다음과 같은 정규 방정식을 얻을 수 있다.
수학식 117의 정규 방정식은, 구해지는 예측 계수 w의 수와 동일한 수만큼 성립시킬 수 있으며, 따라서 수학식 117을 풀어, 최적의 예측 계수 w를 구할 수 있다. 또, 수학식 117을 푸는데 있어서는, 예를 들면 소거법(Gauss-Jordan의 소거법) 등을 적용하는 것이 가능하다.
이상과 같이 하여, 클래스마다 최적의 예측 계수 w를 구하고, 또한 그 예측 계수 w를 이용하여, 수학식 111에 의해 교사 화상의 화소값 y에 가까운 예측값 E [y]를 구하는 것이 적응 처리이다.
정규 방정식 생성부(1034)는 클래스마다 최적의 예측 계수 w를 산출하기 위한 정규 방정식을 생성하고, 계수 계산부(1035)는 생성된 정규 방정식에 기초하여, 예측 계수 w를 산출한다.
또, 적응 처리는 추출된 화상에는 포함되어 있지 않은, 원래 화상에 포함되는 성분이 재현되는 점에서, 보간 처리와는 다르다. 즉, 적응 처리는 수학식 111만을 보는 한해서는, 소위 보간 필터를 이용한 보간 처리와 동일하지만, 그 보간 필터의 탭 계수에 상당하는 예측 계수 w가, 교사 데이터 y를 이용한, 말하자면 학습에 의해 구해지기 때문에, 원래 화상에 포함되는 성분을 재현할 수 있다. 이 때문에, 적응 처리는 말하자면 화상의 창조 작용이 있는 처리라고 할 수 있다.
도 101은, 도 96에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)가 생성하는 계수 세트를 설명하는 도면이다. 입력 화상은 영역 특정부(103)에 의해, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역이 특정된다.
영역이 특정되고, 혼합비 산출부(104)에 의해 혼합비α가 검출된 입력 화상은, 전경 배경 분리부(105)에 의해 전경 성분 화상, 및 배경 성분 화상으로 분리된다.
분리된 전경 성분 화상은, 움직임 불선명 제거부(106)에 의해, 움직임 불선명이 제거된다. 분리된 배경 성분 화상의 혼합 영역에 대응하는 화소값은 보정부(107)에 의해 전경 성분 화상의 움직임 불선명의 제거에 대응하여 보정된다.
움직임 불선명 제거 화상 처리부(108)는, 움직임 불선명이 제거된 전경 성분 화상, 및 보정된 배경 성분 화상에 기초하여, 전경 성분 화상에 대응하는 계수 세트, 및 배경 성분 화상에 대응하는 계수 세트를 개개에 산출한다.
즉, 학습부(1006-1)는 분리되고, 보정된 배경 성분 화상에 기초하여, 배경 성분 화상에 대응하는 계수 세트를 산출하고, 학습부(1006-2)는 분리되고, 움직임 불선명이 제거된 전경 성분 화상에 기초하여, 전경 성분 화상에 대응하는 계수 세트를 산출한다.
배경 성분 화상에 대응하는 계수 세트는 분리되고, 보정된 배경 성분 화상에 적용하는 화소값을 예측하는 클래스 분류 적응 처리에서, 배경 성분 화상에 대응하는 화상의 화소값의 예측에 사용된다.
전경 성분 화상에 대응하는 계수 세트는 입력 화상으로부터 분리되고, 움직임 불선명이 제거된 전경 성분 화상에 적용하는 화소값을 예측하는 클래스 분류 적응 처리에서, 전경 성분 화상에 대응하는 화상의 화소값의 예측에 사용된다.
전경 성분 화상에 대응하는 예측 화상은, 움직임 불선명이 부가된다. 배경 성분 화상에 대응하는 예측 화상은 전경 성분 화상의 움직임 불선명의 부가에 대응하여 보정된다.
보정된 배경 성분 화상에 대응하는 예측 화상, 및 움직임 불선명이 부가된 전경 성분 화상에 대응하는 예측 화상은, 합성되어, 하나의 예측 화상이 된다.
도 102의 흐름도를 참조하여, 도 96에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)에 의한, 클래스 분류 적응 처리에 의한, 화소값의 예측에 사용되는 계수 세트를 생성하는 학습 처리를 설명한다.
단계 S1001에서, 가중 평균부(1003-1) 및 가중 평균부(1003-2)는 배경 성분 화상에 대응하는 학생 화상, 및 전경 성분 화상에 대응하는 학생 화상을 생성한다. 즉, 가중 평균부(1003-1)는 배경 성분 교사 화상 프레임 메모리(1001)에 기억되어 있는, 교사 화상의 배경 성분 화상을, 예를 들면, 4분의 1 가중 평균하여, 교사 화상의 배경 성분 화상에 대응하는 학생 화상을 생성한다.
가중 평균부(1003-2)는 전경 성분 교사 화상 프레임 메모리(1002)에 기억되어 있는, 교사 화상의 전경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 전경 성분 화상에 대응하는 학생 화상을 생성한다.
단계 S1002에서, 학습부(1006-1)는 배경 성분 교사 화상 프레임 메모리(1001)에 기억되어 있는, 교사 화상 의 배경 성분 화상, 및 배경 성분 학생 화상 프레임 메모리(1004)에 기억되어 있는, 교사 화상 의 배경 성분 화상에 대응하는 학생 화상에 기초하여, 배경 성분 화상에 대응하는 계수 세트를 생성한다. 단계 S1002에서의 계수 세트의 생성 처리의 상세한 내용은 도 103의 흐름도를 참조하여 후술한다.
단계 S1003에서, 학습부(1006-2)는 전경 성분 교사 화상 프레임메모리(1002)에 기억되어 있는, 교사 화상 의 전경 성분 화상, 및 전경 성분 학생 화상 프레임 메모리(1005)에 기억되어 있는, 교사 화상 의 전경 성분 화상에 대응하는 학생 화상에 기초하여, 전경 성분 화상에 대응하는 계수 세트를 생성한다.
단계 S1004에서, 학습부(1006-1) 및 학습부(1006-2)는 각각 배경 성분 화상에 대응하는 계수 세트, 또는 전경 성분 화상에 대응하는 계수 세트를 계수 세트 메모리(1007)에 출력한다. 계수 세트 메모리(1007)는 배경 성분 화상에 대응하는 계수 세트, 또는 전경 성분 화상의 대응하는 계수 세트를 각각에 기억하고, 처리는 종료한다.
이와 같이, 도 96에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는, 배경 성분 화상에 대응하는 계수 세트, 및 전경 성분 화상에 대응하는 계수 세트를 생성할 수 있다.
또, 단계 S1002 및 단계 S1003의 처리를 직렬로 실행해도, 병렬로 실행해도 되는 것은 물론이다.
이어서, 도 103의 흐름도를 참조하여, 단계 S1002의 처리에 대응하는 학습부(1006-1)가 실행하는 배경 성분 화상에 대응하는 계수 세트의 생성 처리를 설명한다.
단계 S1021에서, 학습부(1006-1)는 배경 성분 화상에 대응하는 학생 화상에 미처리의 화소가 있는지의 여부를 판정하고, 배경 성분 화상에 대응하는 학생 화상에 미처리의 화소가 있다고 판정된 경우, 단계 S1022로 진행하여, 래스터 스캔순으로, 배경 성분 화상에 대응하는 학생 화상으로부터 주목 화소를 취득한다.
단계 S1023에서, 클래스 분류부(1031)의 클래스 탭 취득부(1051)는 배경 성분 학생 화상 프레임 메모리(1004)에 기억되어 있는 학생 화상으로부터 주목 화소에 대응하는 클래스 탭을 취득한다. 단계 S1024에서, 클래스 분류부(1031)의 파형 분류부(1052)는 클래스 탭에 대하여 ADRC 처리를 적용하고, 이에 의해 클래스 탭을 구성하는 화소의 비트 수를 작게 하여, 주목 화소를 클래스 분류한다. 단계 S1025에서 예측 탭 취득부(1032)는 분류된 클래스에 기초하여, 배경 성분 학생 화상 프레임 메모리(1004)에 기억되어 있는 학생 화상으로부터 주목 화소에 대응하는 예측 탭을 취득한다.
단계 S1026에서, 대응 화소 취득부(1033)는 분류된 클래스에 기초하여, 배경 성분 교사 화상 프레임 메모리(1001)에 기억되어 있는, 교사 화상 의 배경 성분 화상으로부터 예측할 화소값에 대응하는 화소를 취득한다.
단계 S1027에서 정규 방정식 생성부(1034)는 분류된 클래스에 기초하여, 클래스마다의 행렬에, 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값을 가산하고, 단계 S1021에 되돌아가, 학습부(1006-1)는 미처리의 화소가 있는지의 여부의 판정을 반복한다. 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값을 가산하는 클래스마다의 행렬은 클래스마다의 계수 세트를 계산하기 위한 정규 방정식에 대응하고 있다.
단계 S1021에서 학생 화상에 미처리의 화소가 없다고 판정된 경우, 단계 S1028로 진행하고, 정규 방정식 생성부(1034)는 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값이 설정된 클래스마다의 행렬을 계수 계산부(1035)에 공급한다.계수 계산부(1035)는 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값이 설정된, 클래스마다의 행렬을 풀어, 배경 성분 화상에 대응하는, 클래스마다의 계수 세트를 계산한다.
또, 계수 계산부(1035)는 선형 예측에 의해 화소값을 예측하기 위한 계수 세트에 한하지 않고, 비선형 예측에 의해 화소값을 예측하기 위한 계수 세트를 계산하도록 해도 된다.
단계 S1029에서, 계수 계산부(1035)는 배경 성분 화상에 대응하는, 클래스마다의 계수 세트를 계수 세트 메모리(1007)에 출력하고, 처리는 종료한다.
이와 같이, 학습부(1006-1)는 배경 성분 화상에 대응하는 계수 세트를 생성 할 수 있다.
단계 S1003에 대응하는, 학습부(1006-2)에 의한, 전경 성분 화상에 대응하는 계수 세트의 생성 처리는 전경 성분 교사 화상 프레임 메모리(1002)에 기억되어 있는 전경 성분 화상, 및 전경 성분 학생 화상 프레임 메모리(105)에 기억되어 있는 전경 성분 화상에 대응하는 학생 화상을 사용하는 것을 제외하고, 도 103의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
이와 같이, 도 96에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는 보정된 배경 성분 화상에 대응하는 계수 세트, 및 움직임 불선명이 제거된 전경 성분 화상에 대응하는 계수 세트를 개별적으로 생성할 수 있다.
도 104는 클래스 분류 적응 처리를 실행하여, 공간 방향으로, 보다 고해상도의 화상을 생성하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도이다. 예를 들면, 도 104에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는, SD 화상인 입력 화상에 기초하여, 클래스 분류 적응 처리를 실행하여, HD 화상을 생성한다.
배경 성분 화상 프레임 메모리(1101)는 보정부(107)로부터 공급된, 보정된 배경 성분 화상을 기억한다. 배경 성분 화상 프레임 메모리(1101)는 기억하고 있는 배경 성분 화상을 맵핑부(1103-1)에 공급한다.
전경 성분 화상 프레임 메모리(1102)는 움직임 불선명 제거부(106)로부터 공급된, 움직임 불선명이 제거된 전경 성분 화상을 기억한다. 전경 성분 화상 프레임 메모리(1102)는 기억하고 있는 전경 성분 화상을 맵핑부(1103-2)에 공급한다.
맵핑부(1103-1)는 계수 세트 메모리(1104)에 기억되어 있는, 배경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 배경 성분 화상 프레임 메모리(1101)에 기억되어 있는, 배경 성분 화상에 대응하는 예측 화상을 생성한다. 맵핑부(1103-1)는 생성한 예측 화상을 보정부(1105)에 공급한다.
보정부(1105)는 움직임 불선명 부가부(1106)가 부가하는 움직임 불선명에 대응하여, 배경 성분 화상의 혼합 영역에 대응하는 예측 화상의 소정의 화소의 화소값에 0을 설정하거나, 또는 부가되는 움직임 불선명에 대응하는 소정의 값으로, 예측 화상의 소정의 화소의 화소값을 제산한다. 보정부(1105)는 이와 같이 보정된 예측 화상을 합성부(1107)에 공급한다.
맵핑부(1103-2)는 계수 세트 메모리(1104)에 기억되어 있는, 전경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 전경 성분 화상프레임 메모리(1102)에 기억되어 있는 전경 성분 화상에 대응하는 예측 화상을 생성한다. 맵핑부(1103-2)는 생성한 예측 화상을 움직임 불선명 부가부(1106)에 공급한다.
움직임 불선명 부가부(1106)는 원하는 움직임 불선명 조정량 v', 예를 들면 입력 화상의 움직임량 v의 절반의 값의 움직임 불선명 조정량 v'나, 움직임량 v와 무관한 값의 움직임 불선명 조정량 v'을 부여함으로써, 예측 화상에 움직임 불선명을 부가한다. 움직임 불선명 부가부(1106)는 움직임 불선명이 제거된 전경 성분 화상의 예측 화상의 화소값 Fi를 움직임 불선명 조정량 v'로 제산함으로써, 전경 성분 Fi/v'을 산출하고, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명이 부가된 화소값을 생성한다.
예를 들면, 도 105에 도시한 예측 화상이 입력되고, 움직임 불선명 조정량 v'이 3일 때, 도 106에 도시한 바와 같이 화소값 C02는 (F01)/v'이 되고, 화소값 C03은 (F01+ F02)/v'이 되고, 화소값 C04는 (F01+F02+F03)/v'이 되고, 화소값 C05는 (F02+F03+F04)/v'이 된다.
움직임 불선명 부가부(1106)는 이와 같이 움직임 불선명을 부가한, 전경 성분 화상의 예측 화상을 합성부(1107)에 공급한다.
합성부(1107)는 보정부(1105)로부터 공급된 보정된 배경 성분 화상에 대응하는 예측 화상, 및 움직임 불선명 부가부(1106)로부터 공급된, 움직임 불선명이 부가된 전경 성분 화상에 대응하는 예측 화상을 합성하고, 합성된 예측 화상을 프레임 메모리(1108)에 공급한다.
프레임 메모리(1108)는, 합성부(1107)로부터 공급된 예측 화상을 기억함과 함께, 기억하고 있는 화상을 출력 화상으로서 출력한다.
이하, 맵핑부(1103-1) 및 맵핑부(1103-2)를 개개에 구별할 필요가 없을 때, 단순히 맵핑부(1103)라고 칭한다.
도 107은 맵핑부(1103)의 구성을 도시한 블록도이다.
맵핑 처리부(1131)는 클래스 분류 처리를 실행하는 클래스 분류부(1141)와, 적응 처리를 실행하는 예측 탭 취득부(1142) 및 예측 연산부(1143)로 구성되어 있다.
클래스 분류부(1141)는 클래스 탭 취득부(1151) 및 파형 분류부(1152)로 구성되고, 배경 성분 화상, 또는 전경 성분 화상 중 어느 한쪽의 입력 화상의, 주목하고 있는 화소인 주목 화소를 클래스 분류한다.
클래스 탭 취득부(1151)는 입력 화상의 주목 화소에 대응하는, 소정의 수의 클래스 탭을 취득하고, 취득한 클래스 탭을 파형 분류부(1152)에 공급한다.
예를 들면, 클래스 탭 취득부(1151)는 9개의 클래스 탭을 취득하고, 취득한 클래스 탭을 파형 분류부(1152)에 공급한다.
파형 분류부(1152)는 클래스 탭에 대하여, ADRC 처리를 적용하고, 이에 의해, 클래스 탭을 구성하는 화소의 비트 수를 작게 하여, 주목 화소를 소정의 수의 클래스 중 하나의 클래스로 분류하고, 분류된 클래스에 대응하는 클래스 번호를 예측 탭 취득부(1142)에 공급한다. 예를 들면, 파형 분류부(1152)는, 주목 화소를 512의 클래스 중 하나의 클래스로 분류하고, 분류된 클래스에 대응하는 클래스 번호를 예측 탭 취득부(1142)에 공급한다.
예측 탭 취득부(1142)는 클래스 번호에 기초하여, 입력 화상으로부터 클래스에 대응하는 소정의 수의 예측 탭을 취득하고, 취득한 예측 탭 및 클래스 번호를 예측 연산부(1143)에 공급한다.
예측 연산부(1143)는 클래스 번호에 기초하여, 계수 세트 메모리(1104)에 기억되어 있는, 배경 성분 화상에 대응하는 계수 세트, 및 전경 성분 화상에 대응하는 계수 세트로부터 입력 화상에 대응하여, 클래스에 대응하는 계수 세트를 취득한다. 예측 연산부(1143)는 입력 화상에 대응하여, 클래스에 대응하는 계수 세트, 및 예측 탭에 기초하여, 선형 예측에 의해 예측 화상의 화소값을 예측한다. 예측 연산부(1143)는 예측한 화소값을 프레임 메모리(1132)에 공급한다.
또, 예측 연산부(1143)는 비선형 예측에 의해 예측 화상의 화소값을 예측하 도록 해도 된다.
프레임 메모리(1132)는 맵핑 처리부(1131)로부터 공급된 예측된 화소값을 기억하고, 예측된 화소값으로 이루어지는 화상을 출력한다.
이어서, 도 108의 흐름도를 참조하여, 도 104에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)의 화상의 창조 처리를 설명한다.
단계 S1101에서 맵핑부(1103-1)는 계수 세트 메모리(1104)에 기억되어 있는, 배경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 배경 성분 화상 프레임 메모리(1101)에 기억되어 있는, 배경 성분 화상에 대응하는 화상을 예측한다. 배경 성분 화상에 대응하는 화상의 예측 처리의 상세한 내용은도 109의 흐름도를 참조하여 후술한다.
단계 S1102에서 맵핑부(1103-2)는 계수 세트 메모리(1104)에 기억되어 있는, 전경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 전경 성분 화상 프레임 메모리(1102)에 기억되어 있는 전경 성분 화상에 대응하는 화상을 예측한다.
단계 S1103에서 보정부(1105)는 배경 성분 화상에 대응하는 예측된 화상을 보정한다.
단계 S1104에서 움직임 불선명 부가부(1106)는 전경 성분 화상에 대응하는 예측된 화상에 움직임 불선명을 부가한다.
단계 S1105에서 합성부(1107)는 배경 성분 화상에 대응하는 예측 화상, 및 전경 영역에 대응하는 예측 화상을 합성한다. 합성부(1107)는 합성된 화상을 프레임 메모리(1108)에 공급한다. 프레임 메모리(1108)는 합성부(1107)로부터 공급된 화상을 기억한다.
단계 S1106에서 프레임 메모리(1108)는 기억하고 있는 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 104에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)를 갖는 화상 처리 장치는 배경 성분 화상에 대응하는 예측 화상을 생성하고, 움직임 불선명이 제거된 전경 성분 화상에 대응하는 예측 화상을 개별적으로 생성할 수 있다.
또, 단계 S1101 및 단계 S1102의 처리를 직렬로 실행해도 병렬로 실행해도물론 된다.
도 109의 흐름도를 참조하여, 단계 S1101에 대응하는, 맵핑부(1103-1)에 의한 배경 성분 화상에 대응하는 화상의 예측 처리를 설명한다.
단계 S1121에서 맵핑부(1103-1)는 배경 성분 화상에 미처리의 화소가 있는지의 여부를 판정하고, 배경 성분 화상에 미처리의 화소가 있다고 판정된 경우, 단계 S1122로 진행하고, 맵핑 처리부(1131)는 계수 세트 메모리(1104)에 기억되어 있는, 배경 성분 화상에 대응하는 계수 세트를 취득한다. 단계 S1123에서 맵핑 처리부(1131)는 래스터 스캔순으로, 배경 성분 화상 프레임 메모리(1101)에 기억되어 있는, 배경 성분 화상으로부터 주목 화소를 취득한다.
단계 S1124에서 클래스 분류부(1141)의 클래스 탭 취득부(1151)는 배경 성분 화상 프레임 메모리(1101)에 기억되어 있는, 배경 성분 화상으로부터 주목 화소에 대응하는 클래스 탭을 취득한다. 단계 S1125에서 클래스 분류부(1141)의 파형 분류부(1152)는 클래스 탭에 대하여, ADRC 처리를 적용하고, 이에 의해 클래스 탭을 구성하는 화소의 비트 수를 작게 하여, 주목 화소를 클래스 분류한다. 단계 S1126에서 예측 탭 취득부(1142)는 분류된 클래스에 기초하여, 배경 성분 화상 프레임 메모리(1101)에 기억되어 있는, 배경 성분 화상으로부터 주목 화소에 대응하는 예측 탭을 취득한다.
단계 S1127에서, 예측 연산부(1143)는 배경 성분 화상 및 분류된 클래스에 대응하는 계수 세트, 및 예측 탭에 기초하여, 선형 예측에 의해 예측 화상의 화소값을 예측한다.
또, 예측 연산부(1143)는 선형 예측에 한하지 않고, 비선형 예측에 의해 예측 화상의 화소값을 예측하도록 해도 된다.
단계 S1128에서 예측 연산부(1143)는 예측된 화소값을 프레임 메모리(1132)에 출력한다. 프레임 메모리(1132)는 예측 연산부(1143)로부터 공급된 화소값을 기억한다. 단계는 단계 S1121로 되돌아가, 미처리의 화소가 있는지의 여부의 판정을 반복한다.
단계 S1121에서 배경 성분 화상에 미처리의 화소가 없다고 판정된 경우, 단계 S1129로 진행하고, 프레임 메모리(1132)는 기억되어 있는, 배경 성분 화상에 대응하는 예측 화상을 출력하고, 처리는 종료한다.
이와 같이, 맵핑부(1103-1)는 보정된 배경 성분 화상에 기초하여, 배경 성분 화상에 대응하는 화상을 예측할 수 있다.
단계 S1102에 대응하는, 맵핑부(1103-2)에 의한 전경 성분 화상에 대응하는 예측 화상의 생성 처리는 전경 성분 화상 프레임 메모리(1102)에 기억되어 있는 전경 성분 화상, 및 전경 성분 화상에 대응하는 계수 세트를 사용하는 것을 제외하고, 도 109의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
이와 같이, 도 104에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는 배경 성분 화상에 대응하는 예측 화상을 생성하고, 움직임 불선명이 제거된 전경 성분 화상에 대응하는 예측 화상을 개별적으로 생성할 수 있다.
도 110은 본 발명에 따른 화상 처리 장치의 화상의 다른 처리를 설명하는 흐름도이다. 도 110의 흐름도에서 설명하는 처리에서, 움직임 불선명이 제거된 화상에 엣지 강조 처리가 적용된다.
단계 S1201에서 영역 특정부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보와 입력 화상에 기초하여, 입력 화상의 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 특정한다. 단계 S1201의 처리는 단계 S101의 처리와 마찬가지이므로, 처리의 상세한 설명은 생략한다.
단계 S1202에서 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보 및 입력 화상에 기초하여, 혼합비α를 산출한다. 단계 S1202의 처리는 단계 S102의 처리와 마찬가지이므로, 처리의 상세한 설명은 생략한다.
단계 S1203에서 전경 배경 분리부(105)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 입력 화상을 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상으로 분리한다. 단계 S1203의 처리는, 단계 S103의 처리와 마찬가지이므로, 처리의 상세한 설명은 생략한다.
단계 S1204에서, 움직임 불선명 제거부(106)는, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보, 및 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상의 움직임 불선명을 제거한다. 단계 S1204의 처리는, 단계 S104의 처리와 마찬가지이므로, 처리의 상세한 설명은 생략한다.
단계 S1205에서 보정부(107)는 전경 배경 분리부(105)로부터 공급된 배경 성분 화상의 혼합 영역에 대응하는 화소값을 보정한다. 단계 S1205의 처리는 단계 S105의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S1206에서 움직임 불선명 제거 화상 처리부(108)는 움직임 불선명이 제거된 전경 성분 화상, 및 보정된 배경 성분 화상마다 엣지 강조 처리를 실행하여, 처리는 종료한다. 움직임 불선명 제거 화상 처리부(108)가 실행하는 엣지 강조 처리의 상세한 내용은 후술하겠다.
이와 같이, 본 발명에 따른 화상 처리 장치는 입력 화상을 전경 성분 화상 및 배경 성분 화상으로 분리하고, 전경 성분 화상으로부터 움직임 불선명을 제거하여, 움직임 불선명이 제거된 전경 성분 화상, 및 배경 성분 화상마다 화상 처리를 실행한다.
도 111은 배경 성분 화상, 또는 전경 성분 화상마다 서로 다른 효과의 엣지 강조 처리를 적용하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도이다.
배경 성분 화상 프레임 메모리(1201)는 보정부(107)로부터 공급된, 보정된 배경 성분 화상을 기억한다. 배경 성분 화상 프레임 메모리(1201)는 기억하고 있는 배경 성분 화상을 엣지 강조부(1203-1)에 공급한다.
전경 성분 화상 프레임 메모리(1202)는 움직임 불선명 제거부(106)로부터 공급된, 움직임 불선명이 제거된 전경 성분 화상을 기억한다. 전경 성분 화상 프레임 메모리(1202)는 기억하고 있는 전경 성분 화상을 엣지 강조부(1203-2)에 공급한다.
엣지 강조부(1203-1)는 배경 성분 화상 프레임 메모리(1201)에 기억되어 있는, 배경 성분 화상에, 배경 성분 화상에 적합한 엣지 강조 처리를 적용한다.
예를 들면, 엣지 강조부(1203-1)는 정지하고 있는 화상인 배경 성분 화상에, 전경 성분 화상과 비교하여, 엣지를 보다 강조하는 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 노이즈가 포함되어 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 발생시키지 않고, 배경 성분 화상의 해상도감을 보다 증가시킬 수 있다.
엣지 강조부(1203-1)는 엣지를 강조한 배경 성분 화상을, 보정부(1204)에 공급한다.
움직임 불선명 부가부(1205)가 부가하는 움직임 불선명에 대응하여, 보정부(1204)는 배경 성분 화상의 혼합 영역의 화소의 화소값을 0으로 설정하거나, 또는 부가되는 움직임 불선명에 대응하는 소정의 값으로, 혼합 영역의 화소의 화소값을 제산한다. 보정부(1204)는 이와 같이 보정된 화상을 합성부(1206)에 공급한다.
엣지 강조부(1203-2)는 전경 성분 화상 프레임 메모리(1202)에 기억되어 있는 전경 성분 화상에, 전경 성분 화상에 적합한 엣지 강조 처리를 적용한다.
예를 들면, 엣지 강조부(1203-2)는 전경 성분 화상에, 배경 성분 화상과 비교하여, 엣지 강조의 정도가 적은 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 움직임 불선명이 제거된 전경 성분 화상에 노이즈가 포함되어도, 전경 성분 화상에서, 해상도감을 향상시키면서, 부자연스러운 화상의 열화를 감소시킬 수 있다.
엣지 강조부(1203-2)는 엣지 강조한 전경 성분 화상을 움직임 불선명 부가부(1205)에 공급한다.
이하, 엣지 강조부(1203-1) 및 엣지 강조부(1203-2)를 개개에 구별할 필요가 없을 때, 단순히 엣지 강조부(1203)라고 칭한다.
도 112는 엣지 강조부(1203)의 구성을 도시한 블록도이다. 전경 성분 화상 및 배경 성분 화상 중 어느 한쪽의 입력 화상은 고역 통과 필터(1221) 및 가산부(1223)에 입력된다.
고역 통과 필터(1221)는 입력된 필터 계수에 기초하여, 입력 화상으로부터 화소 위치에 대하여 화소값이 급격하게 변화하고 있는, 소위 화상의 주파수가 높은 성분을 추출하고, 화소 위치에 대하여 화소값의 변화가 적은, 소위 화상의 주파수가 낮은 성분을 제거하여, 엣지 화상을 생성한다.
예를 들면, 고역 통과 필터(1221)는 도 113A에 도시한 화상이 입력되었을 때, 도 113B에 도시한 엣지 화상을 생성한다.
입력되는 필터 계수가 변화했을 때, 고역 통과 필터(1221)는 추출하는 화상의 주파수, 제거하는 화상의 주파수, 및 추출하는 화상의 게인을 변화시킨다.
도 114 내지 도 117을 참조하여, 필터 계수와 엣지 화상과의 관계를 설명한다.
도 114는 필터 계수의 제1 예를 나타낸 도면이다. 도 114에서, E는 10의 계승을 나타낸다. 예를 들면, E-04는 10-4를 나타내며, E-02는 10-2를 나타낸다.
예를 들면, 고역 통과 필터(1221)는 입력 화상의, 주목하고 있는 화소인 주목 화소의 화소값, 주목 화소를 기준으로 하여, 공간 방향 Y의 소정의 방향으로 1 화소 내지 15 화소의 거리만큼 떨어져 있는 화소의 화소값, 및 주목 화소를 기준으로 하여, 공간 방향 Y의 다른 방향으로 1 화소 내지 15 화소의 거리만큼 떨어져 있는 화소의 화소값 각각에, 도 114에 도시한 필터 계수 중 대응하는 계수를 승산한다. 고역 통과 필터(1221)는 각각의 화소의 화소값에 대응하는 계수를 승산하여 얻어진 결과의 총합을 산출하고, 산출된 총합을 주목 화소의 화소값으로 설정한다.
예를 들면, 도 114에 도시한 필터 계수를 사용할 때, 고역 통과 필터(1221)는 주목 화소의 화소값에 1.2169396을 승산하여, 주목 화소로부터 화면의 상측 방향으로 1 화소의 거리만큼 떨어져 있는 화소의 화소값에 -0.52530356을 승산하고, 주목 화소로부터 화면의 상측 방향으로 2 화소의 거리만큼 떨어져 있는 화소의 화소값에 -0.22739914를 승산한다.
도 114에 도시한 필터 계수를 사용할 때, 고역 통과 필터(1221)는 마찬가지로, 주목 화소로부터 화면의 상측 방향으로 3 화소 내지 13 화소의 거리만큼 떨어져 있는 화소에 대응하는 계수를 승산하여, 주목 화소로부터 화면의 상측 방향으로 14 화소의 거리만큼 떨어져 있는 화소의 화소값에 -0.00022540586을 승산하고, 주목 화소로부터 화면의 상측 방향으로 15 화소의 거리만큼 떨어져 있는 화소의 화소값에-0.00039273163을 승산한다.
도 114에 도시한 필터 계수를 사용할 때, 고역 통과 필터(1221)는 주목 화소로부터 화면의 하측 방향으로 1 화소 내지 15 화소의 거리만큼 떨어져 있는 화소에 마찬가지로 대응하는 계수를 승산한다.
고역 통과 필터(1221)는 주목 화소의 화소값, 주목 화소로부터 화면의 상측 방향으로 1 화소 내지 15 화소의 거리만큼 떨어져 있는 화소의 화소값, 및 주목 화소로부터 화면의 하측 방향으로 1 화소 내지 15 화소의 거리만큼 떨어져 있는 화소의 화소값 각각에, 대응하는 계수를 승산하여 얻어진 결과의 총합을 산출한다. 고역 통과 필터(1221)는 산출된 총합을 주목 화소의 화소값으로 설정한다.
고역 통과 필터(1221)는 주목 화소의 위치를 공간 방향 X로 순차적으로 이동시켜, 상술한 처리를 반복하고, 화면 전체의 화소에 대하여 화소값을 산출한다.
이어서, 고역 통과 필터(1221)는 상술한 바와 같이 계수에 기초하여 화소값이 산출된 화상의, 주목하고 있는 화소인 주목 화소의 화소값, 주목 화소를 기준으로 하여, 공간 방향 X의 소정 방향으로 1 화소 내지 15 화소의 거리만큼 떨어져 있는 화소의 화소값, 및 주목 화소를 기준으로 하여, 공간 방향 X의 다른 방향으로 1 화소 내지 15 화소의 거리만큼 떨어져 있는 화소의 화소값 각각에 도 114에 도시한 필터 계수 중 대응하는 계수를 승산한다. 고역 통과 필터(1221)는 각각의 화소의 화소값에 대응하는 계수를 승산하여 얻어진 결과의 총합을 산출하고, 산출된 총합을 주목 화소의 화소값으로 설정한다.
고역 통과 필터(1221)는 주목 화소의 위치를 공간 방향 Y로 순차적으로 이동시키고, 상술한 처리를 반복하여 화면 전체의 화소에 대하여, 화소값을 산출한다.
즉, 이 예에서 고역 통과 필터(1221)는 도 114에 도시한 계수를 사용하는 소위 1차원 필터이다.
도 115는 도 114의 계수를 사용할 때의 고역 통과 필터(1221)의 동작을 도시한 도면이다. 도 115에 도시한 바와 같이, 도 114의 계수를 사용할 때, 고역 통과 필터(1221)에서의, 추출되는 화상 성분의 최대의 게인은 1이다.
도 116은 필터 계수의 제2 예를 나타낸 도면이다.
도 117은, 도 114에 도시한 필터 계수를 사용한 처리와 마찬가지의 처리를, 도 116의 계수를 사용하고 실행했을 때의 고역 통과 필터(1221)의 동작을 도시한 도면이다. 도 117에 도시한 바와 같이, 도 116의 계수를 사용할 때, 고역 통과 필터(1221)에서의, 추출되는 화상 성분의 최대의 게인은 1.5이다.
이와 같이, 고역 통과 필터(1221)는 공급되는 필터 계수에 의해 추출하는 화상 성분의 게인을 변화시킨다.
여기서는 예시하지 않았지만, 마찬가지로 서로 다른 필터 계수가 공급되었을 때, 고역 통과 필터(1221)는 추출하는 화상의 주파수, 및 제거하는 화상의 주파수를 변화시킬 수 있다.
도 112를 다시 참조하면, 고역 통과 필터(1221)는 생성한 엣지 화상을 게인 조정부(1222)에 공급한다.
게인 조정부(1222)는 입력된 게인 조정 계수에 기초하여, 고역 통과 필터(1221)로부터 공급된 엣지 화상을 증폭하거나, 또는 감쇠한다. 입력되는 게인 조정 계수가 변화했을 때, 게인 조정부(1222)는, 엣지 화상의 증폭율(감쇠율)을 변화시킨다. 예를 들면, 게인 조정부(1222)는 1 이상의 증폭율을 지정하는 게인 조정 계수가 입력되었을 때, 엣지 화상을 증폭하고, 1 미만의 증폭율을 지정하는 게인 조정 계수가 입력되었을 때, 엣지 화상을 감쇠한다.
게인 조정부(1222)는 게인이 조정된 엣지 화상을 가산부(1223)에 공급한다.
가산부(1223)는 분할된 입력 화상과, 게인 조정부(1222)로부터 공급된, 게인이 조정된 엣지 화상을 가산하고, 가산된 화상을 출력한다.
예를 들면, 가산부(1223)는 도 113A에 도시한 입력 화상이 입력되고, 도 113B에 도시한 엣지 화상이 고역 통과 필터(1221)로부터 공급되었을 때, 도 113A의 입력 화상과 도 113B의 엣지 화상을 가산하여, 도 113C에 도시한 화상을 출력한다.
이와 같이, 엣지 강조부(1203)는 입력된 화상에 엣지 강조 처리를 적용한다.
예를 들면, 도 112에 구성을 나타내는 엣지 강조부(1203-1)는, 도 116에 도시한 계수를 사용하여, 엣지 강조의 정도의보다 강한 엣지 강조 처리를 배경 성분 화상에 적용한다. 도 112에 구성을 나타내는 엣지 강조부(1203-2)는 도 114에 도시한 계수를 사용하여, 엣지 강조의 정도의 비교적 약한 엣지 강조 처리를 전경 성분 화상에 적용한다.
도 118는, 엣지 강조부(1203)의 다른 구성을 나타내는 블록도이다. 도 118에 도시한 예에서, 엣지 강조부(1203)는 필터(1241)로 구성되어 있다.
필터(1241)는 입력된 필터 계수에 기초하여, 입력 화상의, 화소 위치에 대하여 화소값이 급격하게 변화하고 있는, 소위 화상의 주파수가 높은 성분을 증폭시켜, 엣지 강조 화상을 생성한다.
예를 들면, 필터(1241)는 도 119에 예를 도시한 계수가 공급되었을 때, 도 119에 예를 나타내는 계수에 기초하여, 고역 통과 필터(1221)에서 설명한 처리와 마찬가지의 처리를 실행한다.
도 120는 도 119의 계수를 사용할 때의 필터(1241)의 동작을 도시한 도면이다. 도 120에 도시한 바와 같이, 도 119의 계수를 사용할 때, 필터(1241)는 화상의 주파수가 높은 성분을 2배로 증폭시켜, 화상의 주파수가 낮은 성분을 그대로 통과시키고, 엣지 강조 화상을 생성한다.
도 119의 계수를 사용할 때의 필터(1241)는 도 114의 계수를 이용하여, 게인 조정부(1222)의 게인이 1일 때의, 도 112에 구성을 도시한 엣지 강조부(1203)의 출력 화상과 동일한 출력 화상을 출력한다.
도 121은 필터(1241)에 공급되는 필터 계수의 제2 예를 나타낸 도면이다.
도 122는 도 121의 계수를 사용할 때의 필터(1241)의 동작을 도시하는 도면이다. 도 122에 도시한 바와 같이, 도 121의 계수를 사용할 때, 필터(1241)는 화상의 주파수가 높은 성분을 2.5배로 증폭시켜, 화상의 주파수가 낮은 성분을 그대로 통과시키고, 엣지 강조 화상을 생성한다.
도 121의 계수를 사용할 때의 필터(1241)는, 도 11 6의 계수를 이용하여, 게인 조정부(1222)의 게인이 1일 때의, 도 112에 구성을 나타내는 엣지 강조부(1203)의 출력 화상과 동일한 출력 화상을 출력한다.
이와 같이, 도 118에 구성을 나타내는 엣지 강조부(1203)는 입력되는 필터 계수에 의해 화상의 고주파 성분의 게인을 변화시켜, 화상의 엣지의 강조의 정도를변경할 수 있다.
예를 들면, 도 118에 구성을 도시한 엣지 강조부(1203-1)는 도 121에 도시한 계수를 사용하여, 엣지 강조의 정도가 보다 강한 엣지 강조 처리를 배경 성분 화상에 적용한다. 도 118에 구성을 도시한 엣지 강조부(1203-2)는 도 119에 도시한 계수를 사용하여, 엣지 강조의 정도가 비교적 약한 엣지 강조 처리를 전경 성분 화상에 적용한다.
이상과 같이, 엣지 강조부(1203-1) 및 엣지 강조부(1203-2)는 예를 들면 서로 다른 필터 계수 또는 게인 조정 계수에 기초하여, 전경 성분 화상 또는 배경 성분 화상의 성질에 대응한 엣지 강조 처리를 전경 성분 화상 또는 배경 성분 화상마다 적용한다.
도 111를 다시 참조하면, 움직임 불선명 부가부(1205)는 움직임 불선명 부가부(1106)와 마찬가지의 처리에 의해, 원하는 움직임 불선명 조정량 v', 예를 들면, 입력 화상의 움직임량 v의 절반의 값의 움직임 불선명 조정량 v'이나, 움직임량 v와 무관계의 값의 움직임 불선명 조정량 v'을 부여함으로써, 화상에 움직임 불선명을 부가한다. 움직임 불선명 부가부(1205)는, 움직임 불선명이 제거된 전경 성분 화상의 화소값 Fi를 움직임 불선명 조정량 v'로 제산함으로써, 전경 성분 Fi/v'을 산출하여, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명이 부가된 화소값을 생성한다.
움직임 불선명 부가부(1205)는 엣지 강조한 전경 성분 화상에 움직임 불선명을 부가하고, 움직임 불선명을 부가한 전경 성분 화상을 합성부(1206)에 공급한다.
합성부(1206)는 보정부(1204)로부터 공급된, 엣지 강조되고, 보정된 배경 성분 화상, 및 움직임 불선명 부가부(1205)로부터 공급된, 엣지 강조되고, 움직임 불선명이 부가된 전경 성분 화상을 합성하고, 합성된 화상을 프레임 메모리(1207)에 공급한다.
프레임 메모리(1207)는 합성부(1206)로부터 공급된, 합성된 화상을 기억함과 함께, 기억하고 있는 화상을 출력 화상으로서 출력한다.
이와 같이, 도 111에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는 배경 성분 화상, 또는 전경 성분 화상마다 각각의 화상의 성질에 대응한 엣지 강조 처리를 적용하므로, 화상을 부자연스럽게 열화시키지 않고, 화상의 해상도감을 증가시킬 수 있다.
도 123은, 도 111에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)의 처리를 설명하는 도면이다.
입력 화상의 전경 영역, 언커버드 백그라운드 영역, 커버드 백그라운드 영역 및 배경 영역은 영역 특정부(103)에 특정된다. 영역이 특정된 입력 화상은 전경 배경 분리부(105)에 의해 배경 성분 화상, 및 전경 성분 화상으로 분리된다.
분리된 전경 성분 화상은 움직임 불선명 제거부(106)에 의해, 움직임 불선명이 제거된다. 분리된 배경 성분 화상은 보정부(107)에 의해, 혼합 영역에 대응하는 화소의 화소값이 보정된다.
보정된 배경 성분 화상, 및 움직임 불선명이 제거된 전경 성분 화상은 도 111에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)에 의해, 각각의 화상의성질에 대응하여, 각각의 화상마다 엣지 강조된다.
엣지 강조된 배경 성분 화상은 전경 성분 화상의 움직임 불선명의 부가에 대응하여, 보정된다. 엣지 강조된 전경 성분 화상은 원하는 움직임 불선명이 부가된다.
엣지 강조되어, 보정된 배경 성분 화상, 및 엣지 강조되고, 움직임 불선명이 부가된 전경 성분 화상은 합성된다.
이어서, 도 124의 흐름도를 참조하여, 도 110의 단계 S1206에 대응하는 움직임 불선명 제거 화상 처리부(108)의 엣지 강조 처리를 설명한다.
단계 S1401에서 엣지 강조부(1203-1)는 배경 성분 화상의 성질에 대응한 엣지 강조에 처리에 의해 배경 성분 화상 프레임 메모리(1201)에 기억되어 있는, 배경 성분 화상을 엣지 강조한다.
단계 S1402에서 엣지 강조부(1203-2)는 전경 성분 화상의 성질에 대응한 엣지 강조에 처리에 의해, 전경 성분 화상 프레임 메모리(1202)에 기억되어 있는 전경 성분 화상을 엣지 강조한다.
단계 S1403에서 보정부(1204)는 전경 성분 화상의 움직임 불선명의 부가에 대응하여, 배경 성분 화상의 화소값을 보정한다.
단계 S1404에서 움직임 불선명 부가부(1205)는 전경 성분 화상에 원하는 움직임 불선명을 부가한다.
단계 S1405에서 합성부(1206)는, 엣지 강조되고, 보정된 배경 성분 화상, 및 엣지 강조되고, 움직임 불선명이 부가된 전경 성분 화상을 합성한다.합성부(1206)는 합성된 화상을 프레임 메모리(1207)에 공급한다. 프레임 메모리(1207)는 합성부(1206)로부터 공급된 화상을 기억한다.
단계 S1406에서 프레임 메모리(1207)는 기억하고 있는 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 111에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는 배경 성분 화상, 및 전경 성분 화상마다 각각의 성질에 대응하여 엣지 강조 처리를 실행할 수 있으므로, 화상에 부자연스러운 왜곡을 발생시키지 않고, 해상도감을 향상시킬 수 있다.
또, 단계 S1401 및 단계 S1402의 처리를 직렬로 실행해도, 병렬로 실행해도 물론 된다.
도 125는 움직임 불선명이 제거된 전경 성분 화상에 대응하는 노이즈를 제거하는 클래스 분류 적응 처리에 있어서 사용되는 계수 세트를 생성하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도이다.
도 125에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는 보정된 배경 성분 화상을 사용하지 않는다.
교사 화상 프레임 메모리(2201)는 움직임 불선명 제거부(2001)로부터 공급된, 움직임 불선명이 제거된 전경 성분 화상을 기억한다. 교사 화상 프레임 메모리(2201)는, 기억하고 있는, 교사 화상 인, 움직임 불선명이 제거된 전경 성분 화상을 노이즈 부가부(2202) 및 학습부(2204)에 공급한다.
노이즈 부가부(2202)는 난수를 생성하여, 교사 화상 프레임 메모리(2201)로부터 공급된 전경 성분 화상의 각 화소값에 난수를 가산하고, 전경 성분 화상에 노이즈를 부가한다. 노이즈 부가부(2202)는 노이즈가 부가된 전경 성분 화상을 학생 화상 프레임 메모리(2203)에 공급한다.
학생 화상 프레임 메모리(2203)는 노이즈 부가부(2202)로부터 공급된, 노이즈가 부가 된 전경 성분 화상인 학생 화상을 기억한다. 학생 화상 프레임 메모리(2203)는 기억하고 있는 학생 화상을 학습부(2204)에 공급한다.
학습부(2204)는 교사 화상 프레임 메모리(2201)로부터 공급된 전경 성분 화상인 교사 화상, 및 학생 화상 프레임 메모리(2203)로부터 공급된, 노이즈가 부가 된 전경 성분 화상인 학생 화상에 기초하여, 노이즈가 부가된 전경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(2205)에 공급한다.
계수 세트 메모리(2205)는 학습부(2204)로부터 공급된 배경 성분 화상에 대응하는 계수 세트를 기억한다.
도 126의 흐름도를 참조하여, 도 125에 구성을 나타내는 움직임 불선명 제거 화상 처리부(108)에 의한 노이즈를 제거하는 클래스 분류 적응 처리에 사용되는 계수 세트를 생성하는 학습 처리를 설명한다.
단계 S2201에서 노이즈 부가부(2202)는 교사 화상 프레임 메모리(2201)에 기억되어 있는, 교사 화상인 전경 성분 화상의 화소값에 난수를 가산하여, 교사 화상인 전경 성분 화상에 대응하는 학생 화상을 생성한다.
단계 S2202에서 학습부(2204)는 교사 화상 프레임 메모리(2201)에 기억되어있는 전경 성분 화상인 교사 화상, 및 학생 화상 프레임 메모리(2203)에 기억되어 있는 노이즈가 부가된 전경 성분 화상인 학생 화상에 기초하여, 노이즈가 부가된 전경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(2205)에 공급한다. 계수 세트를 생성하는 처리의 상세한 내용은 도 103의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
계수 세트 메모리(2205)는 노이즈가 부가된 전경 성분 화상에 대응하는 계수 세트를 기억하고, 처리는 종료한다.
이와 같이, 도 125에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)는 노이즈가 부가된 전경 성분 화상에 대응하는 계수 세트를 생성할 수 있다.
도 127은 움직임 불선명이 제거된 전경 성분 화상에 클래스 분류 적응 처리를 실행하여, 노이즈를 제거하고, 배경 성분 화상을 엣지 강조하는 움직임 불선명 제거 화상 처리부(108)의 구성을 도시한 블록도이다.
프레임 메모리(2301)는 움직임 불선명 제거부(2001)로부터 공급된, 움직임 불선명이 제거된 전경 성분 화상을 기억한다. 프레임 메모리(2301)는 기억하고 있는, 움직임 불선명이 제거된 전경 성분 화상을 맵핑부(2302)에 공급한다.
맵핑부(2302)는 계수 세트 메모리(2303)에 기억되어 있는, 전경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 프레임 메모리(2301)에 기억되어 있는 전경 성분 화상에 대응하는, 노이즈가 제거된 예측 화상을 생성한다. 맵핑부(2302)는 생성한 예측 화상을 프레임 메모리(2304)에 공급한다.
프레임 메모리(2304)는 노이즈가 제거된 예측 화상을 기억하고, 기억하고 있는 예측 화상을 합성부(2308)에 공급한다.
프레임 메모리(2305)는 보정부(2002)로부터 공급된 배경 성분 화상을 기억한다. 프레임 메모리(2305)는 기억하고 있는 배경 성분 화상을 엣지 강조부(2306)에 공급한다.
엣지 강조부(2306)는 엣지 강조 처리에 의해, 프레임 메모리(2305)에 기억되어 있는, 배경 성분 화상의 엣지를 강조하고, 엣지 강조한 배경 성분 화상을 프레임 메모리(2307)에 공급한다.
프레임 메모리(2307)는 엣지 강조된 배경 성분 화상을 기억하고, 기억하고 있는 배경 성분 화상을 합성부(2308)에 공급한다.
합성부(2308)는 프레임 메모리(2304)로부터 공급된, 전경 성분 화상에 대응하는 노이즈가 제거된 예측 화상, 및 프레임 메모리(2307)로부터 공급된, 엣지 강조된 배경 성분 화상을 합성하고, 합성한 화상을 출력 화상으로서 출력한다.
도 128은 움직임 불선명 제거 화상 처리부(108)의 처리를 설명하는 도면이다.
도 128에 도시한 바와 같이, 입력 화상은 영역으로 분할되고, 전경 성분과 배경 성분으로 분리된다. 분리된 입력 화상은 전경 성분 화상 및 배경 성분 화상에 합성된다.
전경 성분 화상에 포함되는 움직임 불선명은 제거된다. 배경 성분 화상은 혼합 영역에 대응하는 화소값이 보정된다.
움직임 불선명이 제거된 전경 성분 화상은 움직임 불선명 제거 화상 처리부(108)에 의해 클래스 분류 적응 처리가 적용되어, 노이즈가 제거되고, 보정된 배경 성분 화상은 움직임 불선명 제거 화상 처리부(108)에 의해 엣지가 강조된다.
이어서, 도 129의 흐름도를 참조하여, 도 127에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)의 화상의 창조 처리를 설명한다.
단계 S2301에서, 맵핑부(2302)는 계수 세트 메모리(2303)에 기억되어 있는, 전경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 프레임 메모리(7301)에 기억되어 있는 전경 성분 화상으로부터 노이즈를 제거한 화상을 예측한다. 화상의 예측 처리의 상세한 내용은 전경 성분 화상을 배경 성분 화상을 대신하여 사용하는 것이 다른 것외에는, 도 109의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
맵핑부(2302)는 전경 성분 화상으로부터 노이즈가 제거된 화상을 프레임 메모리(2304)에 공급한다. 프레임 메모리(2304)는 전경 성분 화상에 대응하는, 노이즈가 제거된 예측 화상을 기억하고, 기억하고 있는 예측 화상을 합성부(2308)에 공급한다.
단계 S2302에서, 엣지 강조부(2306)는 프레임 메모리(2305)에 기억되어 있는, 배경 성분 화상을 엣지 강조한다. 엣지 강조부(2306)는 엣지 강조된 화상을 프레임 메모리(2307)에 공급한다. 프레임 메모리(2307)는 엣지 강조된 화상을 기억하고, 기억하고 있는 엣지 강조된 화상을 합성부(2308)에 공급한다.
단계 S2303에서, 합성부(2308)는 전경 성분 화상에 대응하는, 노이즈가 제거된 예측 화상, 및 엣지 강조된 배경 성분 화상을 합성한다. 합성부(2308)는 기억하고 있는 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 127에 구성을 도시한 움직임 불선명 제거 화상 처리부(108)를 갖는 화상 처리 장치는 전경 성분 화상에 대응하는 노이즈가 제거된 예측 화상을 생성하고, 배경 성분 화상을 엣지 강조하여, 노이즈가 제거된 예측 화상 및 엣지 강조된 배경 성분 화상을 합성하여 출력할 수 있으므로, 움직임 불선명의 제거 처리에 의한 전경 성분 화상의 노이즈를 저감시킬 수 있을 뿐 아니라, 화상 전체의 해상도감을 증가시킬 수 있다.
또, 단계 S2301 및 단계 S2302의 처리를, 직렬로 실행해도, 병렬로 실행해도 물론 된다.
도 130은 화상 처리 장치의 기능의 다른 구성을 도시한 블록도이다. 도 11에 도시한 화상 처리 장치가 영역 특정과 혼합비α의 산출을 순서대로 행하는 데 대하여, 도 130에 도시한 화상 처리 장치는 영역 특정과 혼합비α의 산출을 병행하여 행한다.
도 11의 블록도에 도시한 기능과 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(3001), 및 전경 배경 분리부(3002)에 공급된다.
혼합비 산출부(3001)는 입력 화상에 기초하여, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를, 입력 화상에 포함되는 화소의 각각에 대하여 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를 전경 배경 분리부(3002)에 공급한다.
도 131은 혼합비 산출부(3001)의 구성의 일례를 도시한 블록도이다.
도 131에 도시한 추정 혼합비 처리부(401)는 도 62에 도시한 추정 혼합비 처리부(401)와 동일하다. 도 131에 도시한 추정 혼합비 처리부(402)는, 도 62에 도시한 추정 혼합비 처리부(402)와 동일하다
추정 혼합비 처리부(401)는 입력 화상에 기초하여, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
추정 혼합비 처리부(402)는 입력 화상에 기초하여, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
전경 배경 분리부(3002)는 혼합비 산출부(3001)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비와 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 입력 화상을 배경 성분 화상, 및 전경 성분 화상으로 분리하고, 분리된 화상을 움직임 불선명 제거 화상 처리부(108)에 공급한다.
도 132는 전경 배경 분리부(3002)의 구성의 일례를 도시한 블록도이다.
도 80에 도시한 움직임 불선명 제거부(106)와 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(3021)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 혼합비 산출부(3001)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비 중 어느 한쪽을 선택하고, 선택한 추정 혼합비를 혼합비α로서 분리부(601)에 공급한다.
분리부(601)는 선택부(3021)로부터 공급된 혼합비α 및 영역 정보에 기초하여, 혼합 영역에 속하는 화소의 화소값으로부터 전경 성분 및 배경 성분을 추출하고, 언커버드 백그라운드 영역의 배경 성분, 언커버드 백그라운드 영역의 전경 성분, 커버드 백그라운드 영역의 배경 성분, 및 커버드 백그라운드 영역의 전경 성분으로 분리한다.
분리부(601)는, 도 85에 도시한 구성과 동일한 구성으로 할 수 있다.
이와 같이, 도 130에 구성을 도시한 화상 처리 장치는 배경 성분 화상, 및 전경 성분 화상마다 각각의 성질에 대응하여 처리를 실행할 수 있다.
이상과 같이, 본 발명의 화상 처리 장치에서는 배경 성분 화상 및 전경 성분 화상으로 입력 화상이 분리되고, 분리된 화상에 적합한 처리가 실행되므로, 예를 들면 부자연스러운 화상을 생성하지 않고, 보다 해상도가 높은 화상이 생성된다.
도 133은 화상 처리 장치의 기능의 다른 구성을 나타내는 블록도이다.
도 11에 도시한 경우와 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다.
움직임 검출부(102)는 예를 들면 블록 매칭법, 구배법, 위상 상관법, 및 펠리카시브법 등의 방법에 의해, 개략적으로 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보를 영역 특정부(103)에 공급한다.
영역 특정부(103)는 입력된 화상의 화소의 각각을 전경 영역, 배경 영역, 또는 언커버드 백그라운드 영역, 혹은 커버드 백그라운드 영역으로 이루어지는 혼합 영역 중 어느 하나에 특정하고, 영역 정보를 혼합비 산출부(104), 및 전경 배경 분리부(4001)에 공급한다.
혼합비 산출부(104)는 입력 화상, 및 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 혼합 영역에 포함되는 화소에 대응하는 혼합비α를 산출하고, 산출한 혼합비를 전경 배경 분리부(4001)에 공급한다.
전경 배경 분리부(4001)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 전경의 오브젝트에 대응하는 화상의 성분과, 배경 성분만으로 이루어지는 배경 성분 화상을 분리하여, 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분만으로 이루어지는 화상(이하,언커버드 백그라운드 영역의 배경 성분 화상이라고 칭함), 언커버드 백그라운드 영역의 전경 성분만으로 이루어지는 화상(이하, 언커버드 백그라운드 영역의 전경 성분 화상이라고 칭함), 커버드 백그라운드 영역의 배경 성분만으로 이루어지는 화상(이하, 커버드 백그라운드 영역의 배경 성분 화상이라고 칭함), 커버드 백그라운드 영역의 전경 성분만으로 이루어지는 화상(이하, 커버드 백그라운드 영역의 전경 성분 화상이라고 칭함), 및 전경 영역의 화상을 분리 화상 처리부(4002)에 공급한다.
분리 화상 처리부(4002)는, 전경 배경 분리부(4001)로부터 공급된, 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 및 전경 영역의 화상을 각각 처리한다.
예를 들면, 분리 화상 처리부(4002)는 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 및 전경 영역의 화상마다, 보다 고해상도의 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수를 생성한다.
예를 들면, 분리 화상 처리부(4002)는 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 및 전경 영역의 화상마다 클래스 분류 적응 처리를 적용하여, 보다 고해상도의 화상을창조한다.
도 134는, 도 133에 구성을 도시한 분리 화상 처리부(4002)의 처리를 설명하는 도면이다. 입력 화상은, 영역 특정부(103)에 의해 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역이 특정된다.
영역이 특정되고, 혼합비 산출부(104)에 의해 혼합비α가 검출된 입력 화상은, 전경 배경 분리부(4001)에 의해, 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상으로 분리된다.
분리 화상 처리부(4002)는 분리된 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상에 기초하여, 전경 영역의 화상에 대응하는 계수 세트, 배경 영역의 화상에 대응하는 계수 세트, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트, 및 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트를 개개에 산출한다.
배경 영역에 대응하는 계수 세트는, 화소값을 예측하는 클래스 분류 적응 처리에서, 배경 영역의 화소값의 예측에 사용된다. 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트는, 화소값을 예측하는 클래스 분류 적응 처리에서, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 화소값의 예측에 사용된다. 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트는, 화소값을 예측하는 클래스 분류 적응 처리에서, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 화소값의 예측에 사용된다.
커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트는, 화소값을 예측하는 클래스 분류 적응 처리에서, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 화소값의 예측에 사용된다. 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트는, 화소값을 예측하는 클래스 분류 적응 처리에서, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 화소값의 예측에 사용된다.
전경 영역에 대응하는 계수 세트는, 화소값을 예측하는 클래스 분류 적응 처리에서, 전경 영역의 화소값의 예측에 사용된다.
배경 영역의 화상에 대응하는 예측 화상, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 예측 화상, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 예측 화상, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 예측 화상, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 예측 화상, 및 전경 영역의 화상에 대응하는 예측 화상은 합성되어, 하나의 예측 화상이 된다.
도 135는 전경 배경 분리부(4001)의 구성의 일례를 도시한 블록도이다. 전경 배경 분리부(4001)에 공급된 입력 화상은 분리부(4101), 스위치(4102), 및 스위치(4103)에 공급된다. 커버드 백그라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 나타낸, 영역 특정부(103)로부터 공급된 영역 정보는분리부(4101)에 공급된다. 전경 영역을 나타내는 영역 정보는 스위치(4102)에 공급된다. 배경 영역을 나타내는 영역 정보는 스위치(4103)에 공급된다.
혼합비 산출부(104)로부터 공급된 혼합비α는 분리부(4101)에 공급된다.
분리부(4101)는 커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α에 기초하여, 입력 화상의 커버드 백그라운드 영역으로부터 전경 성분을 분리함과 함께, 배경 성분을 분리하고, 분리된 전경 성분으로 구성되는 커버드 백그라운드 영역의 전경 성분 화상, 및 분리된 배경 성분으로 구성되는 커버드 백그라운드 영역의 배경 성분 화상을 출력한다.
분리부(4101)는 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α에 기초하여, 입력 화상의 언커버드 백그라운드 영역에서 전경 성분을 분리함과 함께, 배경 성분을 분리하고, 분리된 전경 성분으로 구성되는 언커버드 백그라운드 영역의 전경 성분 화상, 및 분리된 배경 성분으로 구성되는 언커버드 백그라운드 영역의 배경 성분 화상을 출력한다.
스위치(4102)는 전경 영역을 나타내는 영역 정보에 기초하여, 전경 영역에 대응하는 화소가 입력되었을 때, 닫혀 전경 영역의 화상을 출력한다.
스위치(4103)는 배경 영역을 나타내는 영역 정보에 기초하여, 배경 영역에 대응하는 화소가 입력되었을 때, 닫혀 배경 영역의 화상을 출력한다.
도 136은 분리부(41)01의 구성의 일례를 도시한 블록도이다. 분리부(4101)에 입력된 화상은 프레임 메모리(4121)에 공급되고, 혼합비 산출부(104)로부터 공급된, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α는 분리 처리 블록(4122)에 입력된다.
프레임 메모리(4121)는, 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(4121)는 처리의 대상이 프레임 #n일 때, 프레임 #n의 1개 전의 프레임인 프레임 #n-1, 프레임 #n, 및 프레임 #n의 1개 후의 프레임인 프레임 #n+1을 기억한다.
프레임 메모리(4121)는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소를 분리 처리 블록(4122)에 공급한다.
분리 처리 블록(4122)은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보와 혼합비α에 기초하여, 프레임 메모리(4121)로부터 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소의 화소값에 도 83 및 도 84을 참조하여 설명한 연산을 적용하여, 프레임 #n의 혼합 영역에 속하는 화소로부터 전경 성분 및 배경 성분을 분리한다.
분리 처리 블록(4122)은 언커버드 영역 처리부(4131), 및 커버드 영역 처리부(4132)로 구성되어 있다.
언커버드 영역 처리부(4131)의 승산기(4141)는 혼합비α를 프레임 메모리(4121)로부터 공급된 프레임 #n+1의 화소의 화소값에 곱하여, 스위치(4142)에 출력한다. 스위치(4142)는 프레임 메모리(4121)로부터 공급된 프레임 #n의 화소(프레임 #n+1의 화소에 대응함)가 언커버드 백그라운드 영역일 때, 닫혀 승산기(4141)로부터 공급된 혼합비α를 곱한 화소값을 연산기(4143)에 공급한다. 스위치(4142)로부터 출력되는 프레임 #n+1의 화소의 화소값에 혼합비α를 곱한 값은 프레임 #n의 대응하는 화소의 화소값의 배경 성분과 같고, 언커버드 백그라운드영역의 배경 성분 화상으로서 출력된다.
연산기(4143)는 프레임 메모리(4121)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(4142)로부터 공급된 배경 성분을 감하여, 전경 성분을 구한다. 연산기(4143)는 언커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경 성분 화상을 출력한다.
커버드 영역 처리부(4132)의 승산기(4151)는 혼합비α를 프레임 메모리(4121)로부터 공급된 프레임 #n-1의 화소의 화소값을 곱하여, 스위치(4152)에 출력한다. 스위치(4152)는 프레임 메모리(4121)로부터 공급된 프레임 #n의 화소(프레임 #n-1의 화소에 대응함)가 커버드 백그라운드 영역일 때, 닫혀 승산기(4151)로부터 공급된 혼합비α를 곱한 화소값을 연산기(4153)에 공급한다. 스위치(4152)로부터 출력되는 프레임 #n-1의 화소의 화소값에 혼합비α를 곱한 값은 프레임 #n의 대응하는 화소의 화소값의 배경 성분과 같고, 커버드 백그라운드 영역의 배경 성분 화상으로서 출력된다.
연산기(4153)는 프레임 메모리(4121)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(4152)로부터 공급된 배경 성분을 감하여, 전경 성분을 구한다. 연산기(4153)는 커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경 성분 화상을 출력한다.
특징량인 혼합비α를 이용함으로써, 화소값에 포함되는 전경 성분과 배경 성분을 완전하게 분리하는 것이 가능해진다.
도 137은 공간 방향으로, 보다 고해상도의 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수 세트를 생성하는 분리 화상 처리부(4002)의 구성을 도시한 블록도이다. 예를 들면, 도 137에 구성을 도시한 분리 화상 처리부(4002)는 입력된, HD 화상에 기초하여, SD 화상으로부터 HD 화상을 생성하는 클래스 분류 적응 처리에 있어서 사용되는 계수 세트를 생성한다.
배경 영역 교사 화상 프레임 메모리(4201)는 전경 배경 분리부(4001)로부터 공급된, 교사 화상 의 배경 영역의 화상을 기억한다. 배경 영역 교사 화상 프레임 메모리(4201)는, 기억하고 있는, 교사 화상 의 배경 영역의 화상을 가중 평균부(4207-1) 및 학습부(4214-1)에 공급한다.
언커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4202)는, 전경 배경 분리부(4001)로부터 공급된, 교사 화상의 언커버드 백그라운드 영역의 배경 성분 화상을 기억한다. 언커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4202)는, 기억하고 있는, 교사 화상 의 언커버드 백그라운드 영역의 배경 성분 화상을 가중 평균부(4207-2) 및 학습부(4214-2)에 공급한다.
언커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4203)는, 전경 배경 분리부(4001)로부터 공급된, 교사 화상의 언커버드 백그라운드 영역의 전경 성분 화상을 기억한다. 언커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4203)는, 기억하고 있는, 교사 화상 의 언커버드 백그라운드 영역의 전경 성분 화상을 가중 평균부(4207-3) 및 학습부(4214-3)에 공급한다.
커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4204)는, 전경 배경 분리부(4001)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상을 기억한다. 커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4204)는, 기억하고 있는, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상을 가중 평균부(4207-4) 및 학습부(4214-4)에 공급한다.
커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4205)는, 전경 배경 분리부(4001)로부터 공급된, 교사 화상의 커버드 백그라운드 영역의 전경 성분 화상을 기억한다. 커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4205)는, 기억하고 있는, 교사 화상 의 커버드 백그라운드 영역의 전경 성분 화상을 가중 평균부(4207-5) 및 학습부(4214-5)에 공급한다.
전경 영역 교사 화상 프레임 메모리(4206)는 전경 배경 분리부(4001)로부터 공급된, 교사 화상의 전경 영역의 화상을 기억한다. 전경 영역 교사 화상 프레임 메모리(4206)는, 기억하고 있는, 교사 화상 의 전경 영역의 화상을 가중 평균부(4207-6) 및 학습부(4214-6)에 공급한다.
가중 평균부(4207-1)는 배경 영역 교사 화상 프레임 메모리(4201)로부터 공급된, 예를 들면 HD 화상인 교사 화상의 배경 영역의 화상을 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 배경 영역 학생 화상 프레임 메모리(4208)에 공급한다.
배경 영역 학생 화상 프레임 메모리(4208)는 가중 평균부(4207-1)로부터 공급된, 교사 화상 의 배경 영역의 화상에 대응하는 학생 화상을 기억한다. 배경 영역 학생 화상 프레임 메모리(4208)는, 기억하고 있는, 교사 화상 의 배경 영역의 화상에 대응하는 학생 화상을 학습부(4214-1)에 공급한다.
가중 평균부(4207-2)는 언커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4202)로부터 공급된, HD 화상인 교사 화상의 언커버드 백그라운드 영역의 배경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 언커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4209)에 공급한다.
언커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4209)는 가중 평균부(4207-2)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는, SD 화상인 학생 화상을 기억한다.
언커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4209)는, 기억하고 있는, 교사 화상 의 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 학생 화상을 학습부(4214-2)에 공급한다.
가중 평균부(4207-3)는 언커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4203)로부터 공급된, HD 화상인 교사 화상의 언커버드 백그라운드 영역의 전경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 언커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4210)에 공급한다.
언커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4210)는 가중 평균부(4207-3)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는, SD 화상인 학생 화상을 기억한다.
언커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4210)는, 기억하고 있는, 교사 화상 의 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 학생 화상을 학습부(4214-3)에 공급한다.
가중 평균부(4207-4)는 커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4204)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4211)에 공급한다.
커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4211)는 가중 평균부(4207-4)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상에 대응하는, SD 화상인 학생 화상을 기억한다. 커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4211)는, 기억하고 있는, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 학생 화상을 학습부(4214-4)에 공급한다.
가중 평균부(4207-5)는 커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4205)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역의 전경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4212)에 공급한다.
커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4212)는 가중 평균부(4207-5)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역의 전경 성분화상에 대응하는, SD 화상인 학생 화상을 기억한다. 커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4212)는, 기억하고 있는, 교사 화상 의 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 학생 화상을 학습부(4214-5)에 공급한다.
가중 평균부(4207-6)는 전경 영역 교사 화상 프레임 메모리(4206)로부터 공급된, 예를 들면 HD 화상인 교사 화상의 전경 영역의 화상을 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 전경 영역 학생 화상 프레임 메모리(4213)에 공급한다.
전경 영역 학생 화상 프레임 메모리(4213)는 가중 평균부(4207-6)로부터 공급된, 교사 화상 의 전경 영역의 화상에 대응하는, SD 화상인 학생 화상을 기억한다. 전경 영역 학생 화상 프레임 메모리(4213)는, 기억하고 있는, 교사 화상 의 전경 영역의 화상에 대응하는 학생 화상을 학습부(4214-6)에 공급한다.
학습부(4214-1)는 배경 영역 교사 화상 프레임 메모리(4201)로부터 공급된, 교사 화상 의 배경 영역의 화상, 및 배경 영역 학생 화상 프레임 메모리(4208)로부터 공급된, 교사 화상 의 배경 영역의 화상에 대응하는 학생 화상에 기초하여, 배경 영역에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(4215)에 공급한다.
학습부(4214-2)는 언커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4202)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역의 배경 성분 화상, 및 언커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4209)로부터공급된, 교사 화상 의 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 학생 화상에 기초하여, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(4215)에 공급한다.
학습부(4214-3)는 언커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4203)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4210)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 학생 화상에 기초하여, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(4215)에 공급한다.
학습부(4214-4)는 커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4204)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상, 및 커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4211)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 학생 화상에 기초하여, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(4215)에 공급한다.
학습부(4214-5)는 커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4205)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역의 전경 성분 화상, 및 커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4212)로부터 공급된, 교사 화상의 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 학생 화상에 기초하여, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트를생성하고, 생성한 계수 세트를 계수 세트 메모리(4215)에 공급한다.
학습부(4214-6)는 전경 영역 교사 화상 프레임 메모리(4206)로부터 공급된, 교사 화상 의 전경 영역의 화상, 및 전경 영역 학생 화상 프레임 메모리(4213)로부터 공급된, 교사 화상 의 전경 영역의 화상에 대응하는 학생 화상에 기초하여, 전경 영역에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(4215)에 공급한다.
계수 세트 메모리(4215)는 학습부(4214-1)로부터 공급된, 배경 영역에 대응하는 계수 세트, 학습부(4214-2)로부터 공급된, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트, 학습부(4214-3)로부터 공급된, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트, 학습부(4214-4)로부터 공급된, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트, 학습부(4214-5)로부터 공급된, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트, 및 학습부(4214-6)로부터 공급된 전경 영역에 대응하는 계수 세트를 기억하다.
또, 학습부(4214-1 내지 4214-6)는 학습부(1006)과 마찬가지의 구성을 갖으므로, 그 설명은 생략한다.
도 138은 클래스 분류 적응 처리를 실행하여, 공간 방향으로 보다 고해상도의 화상을 생성하는 분리 화상 처리부(4002)의 구성을 도시한 블록도이다. 예를 들면, 도 138에 구성을 도시한 분리 화상 처리부(4002)는, SD 화상인 입력 화상에 기초하여, 클래스 분류 적응 처리를 실행하여, HD 화상을 생성한다.
배경 영역 프레임 메모리(4301)는 전경 배경 분리부(4001)로부터 공급된, 배경 영역에 속하는 화소로 이루어지는 배경 영역의 화상을 기억한다. 배경 영역 프레임 메모리(4301)는 기억하고 있는 배경 영역의 화상을 맵핑부(4307-1)에 공급한다.
언커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4302)는 전경 배경 분리부(4001)로부터 공급된, 언커버드 백그라운드 영역의 배경 성분 화상을 기억한다. 언커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4302)는 기억하고 있는 언커버드 백그라운드 영역의 배경 성분 화상을 맵핑부(4307-2)에 공급한다.
언커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4303)는 전경 배경 분리부(4001)로부터 공급된, 언커버드 백그라운드 영역의 전경 성분 화상을 기억한다. 언커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4303)는 기억하고 있는 언커버드 백그라운드 영역의 전경 성분 화상을 맵핑부(4307-3)에 공급한다.
커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4304)는 전경 배경 분리부(4001)로부터 공급된, 커버드 백그라운드 영역의 배경 성분 화상을 기억한다. 커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4304)는 기억하고 있는 커버드 백그라운드 영역의 배경 성분 화상을 맵핑부(4307-4)에 공급한다.
커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4305)는 전경 배경 분리부(4001)로부터 공급된, 커버드 백그라운드 영역의 전경 성분 화상을 기억한다. 커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4305)는 기억하고 있는 커버드 백그라운드 영역의 전경 성분 화상을 맵핑부(4307-5)에 공급한다.
전경 영역 프레임 메모리(4306)는 전경 배경 분리부(4001)로부터 공급된, 전경 영역에 속하는 화소로 이루어지는 전경 영역의 화상을 기억한다. 전경 영역 화상 프레임 메모리(2306)는 기억하고 있는 전경 영역의 화상을 맵핑부(4307-6)에 공급한다.
맵핑부(4307-1)는 계수 세트 메모리(4308)에 기억되어 있는, 배경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 배경 영역 프레임 메모리(4301)에 기억되어 있는, 배경 영역의 화상에 대응하는 예측 화상을 생성한다. 맵핑부(4307-1)는 생성한 예측 화상을 합성부(4309)에 공급한다.
맵핑부(4307-2)는 계수 세트 메모리(4308)에 기억되어 있는, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 언커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4302)에 기억되어 있는, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 예측 화상을 생성한다. 맵핑부(4307-2)는 생성한 예측 화상을 합성부(4309)에 공급한다.
맵핑부(4307-3)는 계수 세트 메모리(4308)에 기억되어 있는, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 언커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4303)에 기억되어 있는, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 예측 화상을 생성한다. 맵핑부(4307-3)는 생성한 예측 화상을 합성부(4309)에 공급한다.
맵핑부(4307-4)는 계수 세트 메모리(4308)에 기억되어 있는, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4304)에 기억되어 있는, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 예측 화상을 생성한다. 맵핑부(4307-4)는 생성한 예측 화상을 합성부(4309)에 공급한다.
맵핑부(4307-5)는 계수 세트 메모리(4308)에 기억되어 있는, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4305)에 기억되어 있는, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 예측 화상을 생성한다. 맵핑부(4307-5)는 생성한 예측 화상을 합성부(4309)에 공급한다.
맵핑부(4307-6)는 계수 세트 메모리(4308)에 기억되어 있는 전경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 전경 영역 프레임 메모리(4306)에 기억되어 있는 전경 영역의 화상에 대응하는 예측 화상을 생성한다. 맵핑부(4307-6)는 생성한 예측 화상을 합성부(4309)에 공급한다.
합성부(4309)는 맵핑부(4307-1)로부터 공급된, 배경 영역의 화상에 대응하는 예측 화상, 맵핑부(4307-2)로부터 공급된, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 예측 화상, 맵핑부(4307-3)로부터 공급된, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 예측 화상, 맵핑부(4307-4)로부터 공급된, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 예측 화상, 맵핑부(4307-5)로부터 공급된, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 예측 화상, 및 맵핑부(4307-6)로부터 공급된 전경 영역의 화상에 대응하는 예측 화상을 합성하고, 합성된 예측 화상을 프레임 메모리(4310)에 공급한다.
프레임 메모리(4310)는 합성부(4309)로부터 공급된 예측 화상을 기억함과 함께, 기억하고 있는 화상을 출력 화상으로서 출력한다.
또, 맵핑부(4307-1 내지 4307-6)는 맵핑부(1103)와 마찬가지의 구성을 갖으므로, 그 설명은 생략한다.
도 139A 내지 도 144B에 도시한 화상을 참조하여, 도 138에 구성을 도시한 분리 화상 처리부(4002)를 갖는 본 발명의 화상 처리 장치의 처리의 결과의 예를 설명한다.
예로 도시한 결과를 생성하는 처리에서, 본 발명의 화상 처리 장치의 클래스 분류 적응 처리에서의 클래스의 수의 총합은 종래의 클래스 분류 적응 처리에서의 클래스의 수와 거의 동일하다. 즉, 종래의 클래스 분류 적응 처리에서의 클래스의 수는 2048로 하고, 각 영역의 화상에 대응하는, 본 발명의 화상 처리 장치의 클래스 분류 적응 처리에서의 클래스의 수는 512로 하였다.
또한, 종래의 클래스 분류 적응 처리에서의 예측 탭의 수, 및 본 발명의 화상 처리 장치의 각 영역의 클래스 분류 적응 처리에 있어서의 예측 탭의 수는 9개로 하여, 동일하게 하였다.
도 139A 내지 도 141B를 참조하여, 커버드 백그라운드 영역에서의 예측의 결과를 설명한다.
도 139A는 교사 화상의 혼합 영역에서의 화상의 예를 나타낸 도면이다. 도 139B는 교사 화상의 혼합 영역에서의 화상의, 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
도 140A는, 도 139A에 도시한 교사 화상에 대응하는 종래의 클래스 분류 적응 처리에 의해 생성된, 혼합 영역의 화상의 예를 나타낸 도면이다. 도 140B는, 도 139A에 도시한 교사 화상에 대응하는, 종래의 클래스 분류 적응 처리에 의해 생성된, 혼합 영역에서의 화상의, 공간 방향의 위치에 대응하는 화소값의 변화를 도시한 도면이다.
도 141A는, 도 139A에 도시한 교사 화상에 대응하는, 도 138에 구성을 도시한 분리 화상 처리부(4002)에 의해 생성된, 혼합 영역의 화상의 예를 나타낸 도면이다. 도 141B는, 도 139A에 도시한 교사 화상에 대응하는, 도 138에 구성을 도시한 분리 화상 처리부(4002)에 의해 생성된, 혼합 영역에서의 화상의 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
종래의 클래스 분류 적응 처리에 의해 생성된, 혼합 영역에서의 화상의 화소값은 교사 화상과 비교하여, 계단형상으로 변화하고, 생성된 실제 화상에서도 단계적으로 변화하고 있는 것이 눈으로 확인할 수 있다.
이것에 대하여, 도 138에 구성을 도시한 분리 화상 처리부(4002)에 의해 생성된, 혼합 영역에서의 화상의 화소값은 종래에 비교하여, 보다 완만하게 변화하여, 교사 화상에 의해 가까운 변화를 보인다. 분리 화상 처리부(4002)에 의해 생성된 화상을 눈으로 확인해도, 종래와 비교하여 매끄러운한 화상인 것을 확인할 수 있다.
도 138에 구성을 도시한 분리 화상 처리부(4002)에 의해 생성된, 혼합 영역에서의 화상은 입력 화상을 전경 영역, 혼합 영역, 또는 배경 영역으로 분할하여, 생성된 화상과 비교해도 보다 완만하게 변화하고 있다.
도 142A 내지 도 144B를 참조하여, 화소의 위치에 대하여 화소값이 거의 직선적으로 변화하고 있는 전경 영역에서의 예측의 결과를 설명한다.
도 142A는 화소값이 거의 직선적으로 변화하고 있는, 교사 화상 의 전경 영역에서의 화상의 예를 나타낸 도면이다. 도 142B는 화소값이 거의 직선적으로 변화하고 있는, 교사 화상 의 전경 영역에서의 화상의, 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
도 143A는 종래의 클래스 분류 적응 처리에 의해 생성된, 도 142A의 화상에 대응하는, 전경 영역의 화상의 예를 나타낸 도면이다. 도 143B는 종래의 클래스 분류 적응 처리에 의해 생성된 도 142A의 화상에 대응하는, 전경 영역에서의 화상의 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
도 144A는, 도 138에 구성을 도시한 분리 화상 처리부(4002)에 의해 생성된, 도 142A의 화상에 대응하는, 전경 영역의 화상의 예를 나타낸 도면이다. 도 144B는 도 138에 구성을 도시한 분리 화상 처리부(4002)에 의해 생성된 도 142A의 화상에 대응하는, 전경 영역에서의 화상의, 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
종래의 클래스 분류 적응 처리에 의해 생성된 전경 영역에서의 화상의 화소값은 혼합 영역과 마찬가지로, 교사 화상과 비교하여, 계단형상으로 변화하여, 실제의 화상에서도 단계적으로 변화하고 있는 것을 눈으로 확인할 수 있다.
이것에 대하여, 도 138에 구성을 도시한 분리 화상 처리부(4002)에 의해 생성된, 전경 영역에서의 화상의 화소값은 종래와 비교하여, 보다 완만하게 변화하여교사 화상에 매우 가까운 값이 된다. 분리 화상 처리부(4002)에 의해 생성된 화상을 눈으로 확인하는 것에서는 교사 화상과의 차이가 확인되지 않았다.
도 145는, 도 133에 구성을 도시한 화상 처리 장치의 화상의 처리를 설명하는 흐름도이다.
단계 S4001에서 영역 특정부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보와 입력 화상에 기초하여, 입력 화상의 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 특정한다. 단계 S4001의 처리는, 단계 S101의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S4002에서 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보 및 입력 화상에 기초하여, 혼합비α를 산출한다. 단계 S4002의 처리는 단계 S102의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S4003에서, 전경 배경 분리부(4001)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 입력 화상을 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상으로 분리한다. 전경 배경 분리부(4001)의 화상의 분리 처리의 상세한 내용은 후술하겠다.
단계 S4004에서, 분리 화상 처리부(4002)는 분리된 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상마다 화상의 처리를 실행하여, 처리는 종료한다. 분리 화상 처리부(4002)가 실행하는 화상 처리의 상세한 내용은 후술하겠다.
이와 같이, 본 발명에 따른 화상 처리 장치는 입력 화상을 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상으로 분리하고, 분리된 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상마다 화상 처리를 실행한다.
이어서, 도 146에 도시한 흐름도를 참조하여, 전경 배경 분리부(4001)에 의한 전경과 배경과의 분리 처리를 설명한다. 단계 S4101에서 분리부(4101)의 프레임 메모리(4121)는 입력 화상을 취득하여, 전경과 배경과의 분리의 대상이 되는 프레임 #n을 그 전의 프레임 #n-1 및 그 후의 프레임 #n+1과 함께 기억한다.
단계 S4102에서 분리부(4101)의 분리 처리 블록(4122)은 영역 특정부(103)로부터 공급된 영역 정보를 취득한다. 단계 S4103에서 분리부(4101)의 분리 처리 블록(4122)은 혼합비 산출부(104)로부터 공급된, 혼합비α를 취득한다.
단계 S4104에서, 언커버드 영역 처리부(4131)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(4121)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 배경 성분을 추출하여, 언커버드 백그라운드 영역의 배경 성분 화상으로서 출력한다.
단계 S4105에서 언커버드 영역 처리부(4131)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(4121)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 전경 성분을 추출하여, 언커버드 백그라운드 영역의 전경 성분 화상으로서 출력한다.
단계 S4106에서 커버드 영역 처리부(4132)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(4121)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 배경 성분을 추출하여, 커버드 백그라운드 영역의 배경 성분 화상으로서 출력한다.
단계 S4107에서, 커버드 영역 처리부(4132)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(4121)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 전경 성분을 추출하고, 커버드 백그라운드 영역의 전경 성분 화상으로서 출력하고, 처리는 종료한다.
이와 같이, 전경 배경 분리부(4001)는 영역 정보 및 혼합비α에 기초하여, 입력 화상으로부터 전경 성분과, 배경 성분을 분리하여, 전경 성분만으로 이루어지는 전경 성분 화상, 및 배경 성분만으로 이루어지는 배경 성분 화상을 출력할 수 있다.
도 147의 흐름도를 참조하여, 도 137에 구성을 도시한 분리 화상 처리부(4002)에 의한 클래스 분류 적응 처리에 의한 화소값의 예측에 사용되는 계수 세트를 생성하는 학습 처리를 설명한다.
단계 S4201에서, 가중 평균부(4207-1 내지 4207-6)는 배경 영역의 화상, 전경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 및 커버드 백그라운드 영역의 전경 성분 화상의 학생 화상을 생성한다. 즉, 가중 평균부(4207-1)는 배경 영역 교사 화상 프레임 메모리(4201)에 기억되어 있는, 교사 화상 의 배경 영역의 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 배경 영역의 화상에 대응하는 학생 화상을 생성한다.
가중 평균부(4207-2)는 언커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4202)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역의 배경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 학생 화상을 생성한다.
가중 평균부(4207-3)는 언커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4203)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역의 전경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 학생 화상을 생성한다.
가중 평균부(4207-4)는 커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4204)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 학생 화상을 생성한다.
가중 평균부(4207-5)는 커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4205)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역의 전경 성분화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 학생 화상을 생성한다.
가중 평균부(4207-6)는 전경 영역 교사 화상 프레임 메모리(4206)에 기억되어 있는, 교사 화상 의 전경 영역의 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 전경 영역의 화상에 대응하는 학생 화상을 생성한다.
단계 S4202에서 학습부(4214-1)는 배경 영역 교사 화상 프레임 메모리(4201)에 기억되어 있는, 교사 화상 의 배경 영역의 화상, 및 배경 영역 학생 화상 프레임 메모리(4208)에 기억되어 있는, 교사 화상 의 배경 영역의 화상에 대응하는 학생 화상에 기초하여, 배경 영역에 대응하는 계수 세트를 생성한다.
단계 S4203에서 학습부(4214-2)는 언커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4202)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역의 배경 성분 화상, 및 언커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4209)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 학생 화상에 기초하여, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트를 생성한다.
단계 S4204에서 학습부(4214-3)는, 언커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4203)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4210)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 학생 화상에 기초하여, 언커버드 백그라운드 영역의 전경 성분화상에 대응하는 계수 세트를 생성한다.
단계 S4205에서, 학습부(4214-4)는 커버드 백그라운드 영역 배경 성분 교사 화상 프레임 메모리(4204)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상, 및 커버드 백그라운드 영역 배경 성분 학생 화상 프레임 메모리(4211)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 학생 화상에 기초하여, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트를 생성한다.
단계 S4206에서 학습부(4214-5)는 커버드 백그라운드 영역 전경 성분 교사 화상 프레임 메모리(4205)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역의 전경 성분 화상, 및 커버드 백그라운드 영역 전경 성분 학생 화상 프레임 메모리(4212)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 학생 화상에 기초하여, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트를 생성한다.
단계 S4207에서, 학습부(4214-6)는 전경 영역 교사 화상 프레임 메모리(4206)에 기억되어 있는, 교사 화상 의 전경 영역의 화상, 및 전경 영역 학생 화상 프레임 메모리(4213)에 기억되어 있는, 교사 화상 의 전경 영역의 화상에 대응하는 학생 화상에 기초하여, 전경 영역에 대응하는 계수 세트를 생성한다.
단계 S4208에서, 학습부(4214-1 내지 4214-6)는 각각 배경 영역에 대응하는 계수 세트, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트, 또는 전경 영역에 대응하는 계수 세트를 계수 세트 메모리(4215)에 출력한다. 계수 세트 메모리(4215)는 배경 영역, 전경 영역, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 또는 커버드 백그라운드 영역의 전경 성분 화상 각각에 대응하는 계수 세트를 기억하여, 처리는 종료한다.
이와 같이, 도 137에 구성을 도시한 분리 화상 처리부(4002)는 배경 영역의 화상에 대응하는 계수 세트, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트, 및 전경 영역의 화상에 대응하는 계수 세트를 생성할 수 있다.
단계 S4202 내지 단계 S4207의 처리의 상세한 내용은 도 103의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 단계 S4202 내지 단계 S4207의 처리를 직렬로 실행해도, 병렬로 실행해도 물론 가능하다.
이어서, 도 148의 흐름도를 참조하여, 도 138에 구성을 나타내는 분리 화상 처리부(4002)의 화상의 창조 처리를 설명한다.
단계 S4301에서 맵핑부(4307-1)는, 계수 세트 메모리(4308)에 기억되어 있는, 배경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해,배경 영역 프레임 메모리(4301)에 기억되어 있는, 배경 영역의 화상에 대응하는 화상을 예측한다.
단계 S4302에서 맵핑부(4307-2)는 계수 세트 메모리(4308)에 기억되어 있는, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 언커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4302)에 기억되어 있는, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 화상을 예측한다.
단계 S4303에서, 맵핑부(4307-3)는 계수 세트 메모리(4308)에 기억되어 있는, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 언커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4303)에 기억되어 있는, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 화상을 예측한다.
단계 S4304에서 맵핑부(4307-4)는 계수 세트 메모리(4308)에 기억되어 있는, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4304)에 기억되어 있는, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 화상을 예측한다.
단계 S4305에서 맵핑부(4307-5)는 계수 세트 메모리(4308)에 기억되어 있는, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 커버드 백그라운드 영역 전경 성분 화상 프레임메모리(4305)에 기억되어 있는, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 화상을 예측한다.
단계 S4306에서 맵핑부(4307-6)는 계수 세트 메모리(4308)에 기억되어 있는 전경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 전경 영역 프레임 메모리(4306)에 기억되어 있는 전경 영역의 화상에 대응하는 화상을 예측한다.
단계 S4307에서 합성부(4309)는 배경 영역의 화상에 대응하는 예측 화상, 언커버드 백그라운드 영역의 배경 성분 화상에 대응하는 예측 화상, 언커버드 백그라운드 영역의 전경 성분 화상에 대응하는 예측 화상, 커버드 백그라운드 영역의 배경 성분 화상에 대응하는 예측 화상, 커버드 백그라운드 영역의 전경 성분 화상에 대응하는 예측 화상, 및 전경 영역에 대응하는 예측 화상을 합성한다. 합성부(4309)는 합성된 화상을 프레임 메모리(4310)에 공급한다. 프레임 메모리(4310)는 합성부(4309)로부터 공급된 화상을 기억한다.
단계 S4308에서 프레임 메모리(4310)는 기억하고 있는 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 138에 구성을 도시한 분리 화상 처리부(4002)를 갖는 화상 처리 장치는 분리된 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상 및 전경 영역의 화상마다 예측 화상을 생성할 수 있다.
단계 S4301 내지 단계 S4306의 처리의 상세한 내용은 도 109의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 단계 S4301 내지 단계 S4306의 처리를 직렬로 실행해도 병렬로 실행해도 물론 된다.
도 149는 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 또는 전경 영역의 화상마다 서로 다른 효과의 엣지 강조 처리를 적용하는 분리 화상 처리부(4002)의 구성을 도시한 블록도이다.
배경 영역 프레임 메모리(4501)는 전경 배경 분리부(4001)로부터 공급된, 배경 영역에 속하는 화소로 이루어지는 배경 영역의 화상을 기억한다. 배경 영역 프레임 메모리(4501)는 기억하고 있는 배경 영역의 화상을 엣지 강조부(4507-1)에 공급한다.
언커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4502)는 전경 배경 분리부(4001)로부터 공급된, 언커버드 백그라운드 영역의 배경 성분 화상을 기억한다. 언커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4502)는 기억하고 있는 언커버드 백그라운드 영역의 배경 성분 화상을 엣지 강조부(4507-2)에 공급한다.
언커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4503)는 전경 배경 분리부(4001)로부터 공급된, 언커버드 백그라운드 영역의 전경 성분 화상을 기억한다. 언커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4503)는 기억하고 있는 언커버드 백그라운드 영역의 전경 성분 화상을 엣지 강조부(4507-3)에 공급한다.
커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4504)는 전경 배경 분리부(4001)로부터 공급된, 커버드 백그라운드 영역의 배경 성분 화상을 기억한다. 커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4504)는 기억하고 있는 커버드 백그라운드 영역의 배경 성분 화상을 엣지 강조부(4507-4)에 공급한다.
커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4505)는 전경 배경 분리부(4001)로부터 공급된, 커버드 백그라운드 영역의 전경 성분 화상을 기억한다. 커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4505)는 기억하고 있는 커버드 백그라운드 영역의 전경 성분 화상을 엣지 강조부(4507-5)에 공급한다.
전경 영역 프레임 메모리(4506)는 전경 배경 분리부(4001)로부터 공급된 전경 영역에 속하는 화소로 이루어지는 전경 영역의 화상을 기억한다. 전경 영역 프레임 메모리(4506)는 기억하고 있는 전경 영역의 화상을 엣지 강조부(4507-6)에 공급한다.
엣지 강조부(4507-1)는 배경 영역 프레임 메모리(4501)에 기억되어 있는, 배경 영역의 화상에 배경 영역의 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 배경 영역의 화상을 합성부(4508)에 공급한다.
예를 들면, 엣지 강조부(4507-1)는 정지하고 있는 화상인 배경 영역의 화상에 전경 영역과 비교하여, 엣지를 보다 강조하는 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 발생시키지 않고, 배경 영역의 화상의 해상도감을 보다 증가시킬 수 있다.
엣지 강조부(4507-2)는 언커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4502)에 기억되어 있는 화상에, 언커버드 백그라운드 영역의 배경 성분 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 화상을 합성부(4508)에 공급한다.
예를 들면, 엣지 강조부(4507-2)는 정지하고 있는 화상인 언커버드 백그라운드 영역의 배경 성분 화상에, 전경 영역과 비교하여, 엣지를 보다 강조하는 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 발생시키지 않고, 배경 영역의 화상의 해상도감을 보다 증가시킬 수 있다.
엣지 강조부(4507-3)는 언커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4503)에 기억되어 있는 화상에, 언커버드 백그라운드 영역의 전경 성분 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 화상을 합성부(4508)에 공급한다.
예를 들면, 엣지 강조부(4507-3)는 움직이고 있는 전경 성분으로 이루어지는 커버드 백그라운드 영역의 전경 성분 화상에 배경 영역과 비교하여, 엣지 강조의 정도가 적은 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 커버드 백그라운드 영역의 전경 성분 화상에서 해상도감을 향상시키면서, 움직이고 있는 화상에 엣지강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 감소시킬 수 있다.
엣지 강조부(4507-4)는 커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4504)에 기억되어 있는 화상에, 커버드 백그라운드 영역의 배경 성분 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 화상을 합성부(4508)에 공급한다.
예를 들면, 엣지 강조부(4507-4)는 정지하고 있는 화상인 커버드 백그라운드 영역의 배경 성분 화상에, 전경 영역과 비교하여, 엣지를 보다 강조하는 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 발생시키지 않고, 배경 영역의 화상의 해상도감을 보다 증가시킬 수 있다.
엣지 강조부(4507-5)는 커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4505)에 기억되어 있는 화상에, 커버드 백그라운드 영역의 전경 성분 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 화상을 합성부(4508)에 공급한다.
예를 들면, 엣지 강조부(4507-5)는 움직이고 있는 전경 성분으로 이루어지는 커버드 백그라운드 영역의 전경 성분 화상에, 배경 영역과 비교하여, 엣지 강조의 정도가 적은 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 커버드 백그라운드 영역의 전경 성분 화상에서 해상도감을 향상시키면서, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 감소시킬 수 있다.
엣지 강조부(4507-6)는 전경 영역 프레임 메모리(4506)에 기억되어 있는 전경 영역의 화상에, 전경 영역의 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 전경 영역의 화상을 합성부(4508)에 공급한다.
예를 들면, 엣지 강조부(4507-6)는 움직이고 있는 전경 영역의 화상에, 배경 영역과 비교하여, 엣지 강조의 정도가 적은 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 전경 영역의 화상에서 해상도감을 향상시키면서, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 감소시킬 수 있다.
합성부(4508)는 엣지 강조부(4507-1)로부터 공급된, 엣지 강조된 배경 영역의 화상, 엣지 강조부(4507-2)로부터 공급된, 엣지 강조된 언커버드 백그라운드 영역의 배경 성분 화상, 엣지 강조부(4507-3)로부터 공급된, 엣지 강조된 언커버드 백그라운드 영역의 전경 성분 화상, 엣지 강조부(4507-4)로부터 공급된, 엣지 강조된 커버드 백그라운드 영역의 배경 성분 화상, 엣지 강조부(4507-5)로부터 공급된, 엣지 강조된 커버드 백그라운드 영역의 전경 성분 화상, 및 엣지 강조부(4507-6)로부터 공급된, 엣지 강조된 전경 영역의 화상을 합성하고, 합성된 화상을 프레임 메모리(4509)에 공급한다.
프레임 메모리(4509)는 합성부(4508)로부터 공급된, 합성된 화상을 기억함과 함께 기억하고 있는 화상을 출력 화상으로서 출력한다.
이와 같이, 도 149에 구성을 도시한 분리 화상 처리부(4002)는 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 또는 전경 영역의 화상마다 각각의 화상의 성질에 대응한 엣지 강조 처리를 적용하므로, 화상을 부자연스럽게 열화시키지 않고, 화상의 해상도감을 증가시킬 수 있다.
엣지 강조부(4507-1 내지 4507-6)는 엣지 강조부(1203)와 마찬가지의 구성을 갖으므로, 그 설명은 생략한다.
도 150은 도 149에 구성을 도시한 분리 화상 처리부(4002)의 처리를 설명하는 도면이다. 입력 화상은 영역 특정부(103)에 의해, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역이 특정된다.
영역이 특정되어, 혼합비 산출부(104)에 의해 혼합비α가 검출된 입력 화상은 전경 배경 분리부(4001)에 의해 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상으로 분리된다.
분리 화상 처리부(4002)는 분리된 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상마다 엣지 강조 처리를 적용한다.
각각에 엣지 강조된, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상은 합성되어, 하나의 화상이 된다.
도 151은, 도 133에 구성을 도시한 화상 처리 장치의 화상의 처리를 설명하는 흐름도이다.
단계 S4501에서 영역 특정부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보와 입력 화상에 기초하여, 입력 화상의 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 특정한다. 단계 S4501의 처리는 단계 S4001의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S4502에서 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보 및 입력 화상에 기초하여, 혼합비α를 산출한다. 단계 S4502의 처리는 단계 S4002의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S4503에서 전경 배경 분리부(4001)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 입력 화상을 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상으로 분리한다. 단계 S4503의 처리는 단계 S4003의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S4504에서 분리 화상 처리부(4002)는, 분리된 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상마다, 엣지 강조 처리를 실행하고, 처리는 종료한다. 분리 화상 처리부(4002)가 실행하는 화상 처리의 상세한 내용은 후술하겠다.
이와 같이, 본 발명에 따른 화상 처리 장치는 입력 화상을 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상으로 분리하고, 분리된 전경 영역의 화상, 배경 영역의 화상, 커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 및 언커버드 백그라운드 영역의 배경 성분 화상마다 엣지 강조 처리를 실행한다.
이어서, 도 152의 흐름도를 참조하여, 단계 S4504에 대응하는 분리 화상 처리부(4002)의 엣지 강조 처리를 설명한다.
단계 S4521에서, 엣지 강조부(4507-1)는 배경 영역의 화상의 성질에 대응한 엣지 강조에 처리에 의해 배경 영역 프레임 메모리(4501)에 기억되어 있는, 배경 영역의 화상을 엣지 강조한다.
단계 S4522에서 엣지 강조부(4507-2)는 언커버드 백그라운드 영역의 배경 성분 화상의 성질에 대응한 엣지 강조에 처리에 의해, 언커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4502)에 기억되어 있는, 언커버드 백그라운드 영역의 배경 성분 화상을 엣지 강조한다.
단계 S4523에서 엣지 강조부(4507-3)는 언커버드 백그라운드 영역의 전경 성분 화상의 성질에 대응한 엣지 강조에 처리에 의해, 언커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4503)에 기억되어 있는, 언커버드 백그라운드 영역의 전경 성분 화상을 엣지 강조한다.
단계 S4524에서 엣지 강조부(4507-4)는 커버드 백그라운드 영역의 배경 성분화상의 성질에 대응한 엣지 강조에 처리에 의해, 커버드 백그라운드 영역 배경 성분 화상 프레임 메모리(4504)에 기억되어 있는, 커버드 백그라운드 영역의 배경 성분 화상을 엣지 강조한다.
단계 S4525에서, 엣지 강조부(4507-5)는 커버드 백그라운드 영역의 전경 성분 화상의 성질에 대응한 엣지 강조에 처리에 의해, 커버드 백그라운드 영역 전경 성분 화상 프레임 메모리(4505)에 기억되어 있는, 커버드 백그라운드 영역의 전경 성분 화상을 엣지 강조한다.
단계 S4526에서, 엣지 강조부(4507-6)는 전경 영역의 화상의 성질에 대응한 엣지 강조에 처리에 의해, 전경 영역 프레임 메모리(4506)에 기억되어 있는 전경 영역의 화상을 엣지 강조한다.
단계 S4527에서, 합성부(4508)는 각각에 엣지 강조된 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 및 전경 영역의 화상을 합성한다. 합성부(4508)는 합성된 화상을 프레임 메모리(4509)에 공급한다. 프레임 메모리(4509)는 합성부(4508)로부터 공급된 화상을 기억한다.
단계 S4528에서, 프레임 메모리(4509)는 기억하고 있는 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 149에 구성을 도시한 분리 화상 처리부(4002)는 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 및 전경 영역의 화상마다 각각의 성질에 대응하여 엣지 강조 처리를 실행할 수 있으므로, 움직이고 있는 화상에 부자연스러운 왜곡을 발생시키지 않고, 해상도감을 향상시킬 수 있다.
또, 단계 S4521 내지 단계 S4526의 처리를 직렬로 실행해도, 병렬로 실행해도 물론 된다.
도 153은 입력 화상을 분리하고, 분리된 화상마다 처리하는 화상 처리 장치의 기능의 다른 구성을 도시한 블록도이다. 도 133에 도시한 화상 처리 장치가 영역 특정과 혼합비α의 산출을 순서대로 행하는 데 대하여, 도 153에 도시한 화상 처리 장치는, 영역 특정과 혼합비α의 산출을 병행하여 행한다.
도 133의 블록도에 도시한 기능과 마찬가지의 부분에는 동일한 번호를 붙여, 그 설명은 생략한다.
입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(3001), 및 전경 배경 분리부(4601)에 공급된다.
혼합비 산출부(3001)는 입력 화상에 기초하여, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를, 입력 화상에 포함되는 화소의 각각에 대하여 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를 전경 배경 분리부(4601)에 공급한다.
전경 배경 분리부(4601)는 혼합비 산출부(3001)로부터 공급된, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비와 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 입력 화상을, 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 및 전경 영역의 화상으로 분리하고, 분리된 화상을 분리 화상 처리부(4002)에 공급한다.
도 154는, 전경 배경 분리부(4601)의 구성의 일례를 도시한 블록도이다.
도 135에 도시한 전경 배경 분리부(4001)와 마찬가지의 부분에는 동일한 번호를 붙여, 그 설명은 생략한다.
선택부(4621)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 혼합비 산출부(3001)로부터 공급된, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비 중 어느 한쪽을 선택하고, 선택한 추정 혼합비를 혼합비α로서 분리부(4101)에 공급한다.
분리부(4101)는, 선택부(4621)로부터 공급된 혼합비α 및 영역 정보에 기초하여, 혼합 영역에 속하는 화소의 화소값으로부터 전경 성분 및 배경 성분을 추출하여, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 및 커버드 백그라운드영역의 전경 성분 화상으로 분리한다.
분리부(4101)는 도 136에 도시한 구성과 동일한 구성으로 할 수 있다.
이와 같이, 도 153에 구성을 도시한 화상 처리 장치는 배경 영역의 화상, 언커버드 백그라운드 영역의 배경 성분 화상, 언커버드 백그라운드 영역의 전경 성분 화상, 커버드 백그라운드 영역의 배경 성분 화상, 커버드 백그라운드 영역의 전경 성분 화상, 및 전경 영역의 화상마다 각각의 성질에 대응하여 처리를 실행할 수 있다.
도 155는 화상 처리 장치의 기능의 또 다른 구성을 도시한 블록도이다.
도 11에 도시한 경우와 마찬가지의 부분에는 동일한 번호를 붙여 그 설명은 생략한다.
화상 처리 장치에 공급된 입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 및 영역 처리부(5001)에 공급된다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다.
움직임 검출부(102)는, 예를 들면 블록 맵핑법, 구배법, 위상 상관법, 및 펠리커시브법 등의 방법에 의해, 개략적으로 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보를 영역 특정부(103)에 공급한다.
영역 특정부(103)는, 입력된 화상의 화소의 각각을, 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 특정하여, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는가 나타내는 영역 정보를 영역 처리부(5001)에 공급한다.
영역 처리부(5001)는, 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 전경 영역, 배경 영역, 또는 혼합 영역마다, 입력 화상을 분할하여, 분할된 입력 화상마다 화상 처리를 실행한다. 예를 들면, 영역 처리부(5001)는, 전경 영역, 배경 영역, 또는 혼합 영역마다, 입력 화상을 분할하여, 분할된 입력 화상마다, 보다 고해상도의 화상을 생성하는 클래스 분류 적응 처리로 사용되는 계수를 생성한다.
예를 들면, 영역 처리부(5001)는, 전경 영역, 배경 영역, 또는 혼합 영역마다, 입력 화상을 분할하여, 분할된 입력 화상마다 클래스 분류 적응 처리를 적용하여, 보다 고해상도의 화상을 창조한다.
도 156는, 도 155에 구성을 도시한 영역 처리부(5001)의 처리를 설명하는 도면이다. 영역 처리부(5001)는 배경 영역에 대응하는 계수 세트, 언커버드 백그라운드 영역에 대응하는 계수 세트, 전경 영역에 대응하는 계수 세트, 및 커버드 백그라운드 영역에 대응하는 계수 세트를 개개에 산출한다.
배경 영역에 대응하는 계수 세트는 화소값을 예측하는 클래스 분류 적응 처리에서, 배경 영역의 화소값의 예측에 사용된다. 언커버드 백그라운드 영역에 대응하는 계수 세트는, 화소값을 예측하는 클래스 분류 적응 처리에서, 언커버드 백그라운드 영역의 화소값의 예측에 사용된다.
커버드 백그라운드 영역에 대응하는 계수 세트는 화소값을 예측하는 클래스 분류 적응 처리에서, 커버드 백그라운드 영역의 화소값의 예측에 사용된다. 전경 영역에 대응하는 계수 세트는 화소값을 예측하는 클래스 분류 적응 처리에서, 전경 영역의 화소값의 예측에 사용된다.
배경 화상에 대응하는 예측 화상, 언커버드 백그라운드 영역에 대응하는 예측 화상, 커버드 백그라운드 영역에 대응하는 예측 화상, 및 전경 화상에 대응하는 예측 화상은 합성되어, 하나의 예측 화상이 된다.
도 157은 공간 방향으로, 보다 고해상도의 화상을 생성하는 클래스 분류 적응 처리에 있어서 사용되는 계수 세트를 생성하는 영역 처리부(5001)의 구성을 도시한 블록도이다. 교사 화상 프레임 메모리(5101)는, 예를 들면 HD 화상인 입력 화상을 프레임 단위로 기억한다. 교사 화상 프레임 메모리(5101)는 기억하고 있는 입력 화상을 영역 분할부(5102)에 공급한다.
영역 분할부(5102)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 배경 영역, 전경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역에 교사 화상을 분할한다.
영역 분할부(5102)는 분할된 교사 화상인, 교사 화상의 배경 영역에 속하는 화소로 이루어지는 화상을 배경 영역 교사 화상 프레임 메모리(5103)에 공급하고, 교사 화상의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 언커버드 백그라운드 영역 교사 화상 프레임 메모리(5104)에 공급하고, 교사 화상의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 커버드 백그라운드 영역 교사 화상 프레임 메모리(5105)에 공급하고, 교사 화상의 전경 영역에 속하는 화소로 이루어지는 화상을 전경 영역 교사 화상 프레임 메모리(5106)에 공급한다.
배경 영역 교사 화상 프레임 메모리(5103)는 영역 분할부(5102)로부터 공급된, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상을 기억한다. 배경 영역 교사 화상 프레임 메모리(5103)는, 기억하고 있는, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상을 가중 평균부(5107-1) 및 학습부(5112-1)에 공급한다.
언커버드 백그라운드 영역 교사 화상 프레임 메모리(5104)는 영역 분할부(5102)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 기억한다. 언커버드 백그라운드 영역 교사 화상 프레임 메모리(5104)는, 기억하고 있는, 교사 화상 의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 가중 평균부(5107-2) 및 학습부(5112-2)에 공급한다.
커버드 백그라운드 영역 교사 화상 프레임 메모리(5105)는 영역 분할부(5102)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 기억한다. 커버드 백그라운드 영역 교사 화상 프레임 메모리(5105)는, 기억하고 있는, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 가중 평균부(5107-3) 및 학습부(5112-3)에 공급한다.
전경 영역 교사 화상 프레임 메모리(5106)는 영역 분할부(5102)로부터 공급된, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상을 기억한다. 전경 영역 교사 화상 프레임 메모리(5106)는, 기억하고 있는, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상을 가중 평균부(5107-4) 및 학습부(5112-4)에 공급한다.
가중 평균부(5107-1)는 배경 영역 교사 화상 프레임 메모리(5103)로부터 공급된, 예를 들면 HD 화상인 교사 화상의 배경 영역에 속하는 화소로 이루어지는 화상을 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 배경 영역 학생 화상 프레임 메모리(5108)에 공급한다.
배경 영역 학생 화상 프레임 메모리(5108)는 가중 평균부(5107-1)로부터 공급된, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상을 기억한다. 배경 영역 학생 화상 프레임 메모리(5108)는, 기억하고 있는, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상을 학습부(5112-1)에 공급한다.
가중 평균부(5107-2)는 언커버드 백그라운드 영역 교사 화상 프레임 메모리(5104)로부터 공급된, HD 화상인 교사 화상의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을, 예를 들면 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 언커버드 백그라운드 영역 학생 화상 프레임 메모리(5109)에 공급한다.
언커버드 백그라운드 영역 학생 화상 프레임 메모리(5109)는 가중 평균부(5107-2)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역에 속하는화소로 이루어지는 화상에 대응하는, SD 화상인 학생 화상을 기억한다. 언커버드 백그라운드 영역 학생 화상 프레임 메모리(5109)는, 기억하고 있는, 교사 화상 의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상을 학습부(5112-2)에 공급한다.
가중 평균부(5107-3)는 커버드 백그라운드 영역 교사 화상 프레임 메모리(5105)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 예를 들면, 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 커버드 백그라운드 영역 학생 화상 프레임 메모리(5110)에 공급한다.
커버드 백그라운드 영역 학생 화상 프레임 메모리(5110)는 가중 평균부(5107-3)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는, SD 화상인 학생 화상을 기억한다. 커버드 백그라운드 영역 학생 화상 프레임 메모리(5110)는, 기억하고 있는, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상을 학습부(5112-3)에 공급한다.
가중 평균부(5107-4)는 전경 영역 교사 화상 프레임 메모리(5106)로부터 공급된, 예를 들면 HD 화상인 교사 화상의 전경 영역에 속하는 화소로 이루어지는 화상을 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 전경 영역 학생 화상 프레임 메모리(5111)에 공급한다.
전경 영역 학생 화상 프레임 메모리(5111)는 가중 평균부(5107-4)로부터 공급된, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상에 대응하는, SD 화상인 학생 화상을 기억한다. 전경 영역 학생 화상 프레임 메모리(5111)는, 기억하고 있는, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상을 학습부(5112-4)에 공급한다.
학습부(5112-1)는 배경 영역 교사 화상 프레임 메모리(5103)로부터 공급된, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상, 및 배경 영역 학생 화상 프레임 메모리(5108)로부터 공급된, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상에 기초하여, 배경 영역에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(5113)에 공급한다.
학습부(5112-2)는 언커버드 백그라운드 영역 교사 화상 프레임 메모리(5104)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상, 및 언커버드 백그라운드 영역 학생 화상 프레임 메모리(5109)로부터 공급된, 교사 화상 의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상에 기초하여, 언커버드 백그라운드 영역에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(5113)에 공급한다.
학습부(5112-3)는 커버드 백그라운드 영역 교사 화상 프레임 메모리(5105)로부터 공급된, 교사 화상 의 커버드백브라운드 영역에 속하는 화소로 이루어지는 화상, 및 커버드 백그라운드 영역 학생 화상 프레임 메모리(5110)로부터 공급된, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상에 기초하여, 커버드 백그라운드 영역에 대응하는 계수 세트를 생성하고,생성한 계수 세트를 계수 세트 메모리(5113)에 공급한다.
학습부(5112-4)는 전경 영역 교사 화상 프레임 메모리(5106)로부터 공급된, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상, 및 전경 영역 학생 화상 프레임 메모리(5111)로부터 공급된, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상에 기초하여, 전경 영역에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(5113)에 공급한다.
계수 세트 메모리(5113)는 학습부(5112-1)로부터 공급된, 배경 영역에 대응하는 계수 세트, 학습부(5112-2)로부터 공급된, 언커버드 백그라운드 영역에 대응하는 계수 세트, 학습부(5112-3)로부터 공급된, 커버드 백그라운드 영역에 대응하는 계수 세트, 및 학습부(5112-4)로부터 공급된 전경 영역에 대응하는 계수 세트를 기억한다.
학습부(5112-1) 내지 학습부(5112-4)는 학습부(1006)와 마찬가지의 구성을 갖으므로, 그 설명은 생략한다.
도 158은 클래스 분류 적응 처리를 실행하여, 공간 방향으로 보다 고해상도의 화상을 생성하는 영역 처리부(5001)의 구성을 도시한 블록도이다. 프레임 메모리(5201)는, 예를 들면 SD 화상인 입력 화상을 프레임 단위로 기억한다. 프레임 메모리(5201)는 기억하고 있는 입력 화상을 영역 분할부(5202)에 공급한다.
영역 분할부(5202)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 배경 영역, 전경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역마다 입력 화상을 분할한다. 즉, 영역 분할부(5202)는 분할된 입력 화상인, 배경 영역에 속하는 화소로 이루어지는 화상을 배경 영역 프레임 메모리(5203)에 공급하고, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 언커버드 백그라운드 영역 프레임 메모리(5204)에 공급하고, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 커버드 백그라운드 영역 프레임 메모리(5205)에 공급하고, 전경 영역에 속하는 화소로 이루어지는 화상을 전경 영역 프레임 메모리(5206)에 공급한다.
배경 영역 프레임 메모리(5203)는 영역 분할부(5202)로부터 공급된, 배경 영역에 속하는 화소로 이루어지는 화상을 기억한다. 배경 영역 프레임 메모리(5203)는 기억하고 있는 배경 영역에 속하는 화소로 이루어지는 화상을 맵핑부(5207-1)에 공급한다.
언커버드 백그라운드 영역 프레임 메모리(5204)는 영역 분할부(5202)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 기억한다. 언커버드 백그라운드 영역 프레임 메모리(5204)는 기억하고 있는 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 맵핑부(5207-2)에 공급한다.
커버드 백그라운드 영역 프레임 메모리(5205)는 영역 분할부(5202)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 기억한다. 커버드 백그라운드 영역 프레임 메모리(5205)는 기억하고 있는 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 맵핑부(5207-3)에 공급한다.
전경 영역 프레임 메모리(5206)는, 영역 분할부(5202)로부터 공급된 전경 영역에 속하는 화소로 이루어지는 화상을 기억한다. 전경 영역 프레임 메모리(5206)는 기억하고 있는 전경 영역에 속하는 화소로 이루어지는 화상을 맵핑부(5207-4)에 공급한다.
맵핑부(5207-1)는 계수 세트 메모리(5208)에 기억되어 있는, 배경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 배경 영역 프레임 메모리(5203)에 기억되어 있는, 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상을 생성한다. 맵핑부(5207-1)는 생성한 예측 화상을 합성부(5209)에 공급한다.
맵핑부(5207-2)는 계수 세트 메모리(5208)에 기억되어 있는, 언커버드 백그라운드 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 언커버드 백그라운드 영역 프레임 메모리(5204)에 기억되어 있는, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상을 생성한다. 맵핑부(5207-2)는 생성한 예측 화상을 합성부(5209)에 공급한다.
맵핑부(5207-3)는 계수 세트 메모리(5208)에 기억되어 있는, 커버드 백그라운드 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 커버드 백그라운드 영역 프레임 메모리(5205)에 기억되어 있는, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상을 생성한다. 맵핑부(5207-3)는 생성한 예측 화상을 합성부(5209)에 공급한다.
맵핑부(5207-4)는 계수 세트 메모리(5208)에 기억되어 있는 전경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 전경 영역 프레임 메모리(5206)에 기억되어 있는 전경 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상을 생성한다. 맵핑부(5207-4)는 생성한 예측 화상을 합성부(5209)에 공급한다.
합성부(5209)는 맵핑부(5207-1)로부터 공급된, 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상, 맵핑부(5207-2)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상, 맵핑부(5207-3)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상, 및 맵핑부(5207-4)로부터 공급된 전경 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상을 합성하고, 합성된 예측 화상을 프레임 메모리(5210)에 공급한다.
프레임 메모리(5210)는 합성부(5209)로부터 공급된 예측 화상을 기억함과 함께, 기억하고 있는 화상을 출력 화상으로서 출력한다.
맵핑부(5207-1 내지 5207-4)는 맵핑부(1103)와 마찬가지의 구성을 갖으므로, 그 설명은 생략한다.
도 159A 내지 도 164B에 도시한 화상을 참조하여, 도 158에 구성을 도시한 영역 처리부(5001)를 갖는 본 발명의 화상 처리 장치의 처리의 결과의 예를 설명한다.
예로 나타낸 결과를 생성하는 처리에서, 본 발명의 화상 처리 장치의 클래스 분류 적응 처리에서의 클래스의 수의 총합은 종래의 클래스 분류 적응 처리에서의 클래스의 수와 동일하다. 즉, 종래의 클래스 분류 적응 처리에서의 클래스의 수는 2048로 하여, 본 발명의 화상 처리 장치의 각 영역의 클래스 분류 적응 처리에서의클래스의 수는 3112로 하였다.
또한, 종래의 클래스 분류 적응 처리에서의 예측 탭의 수, 및 본 발명의 화상 처리 장치의 각 영역의 클래스 분류 적응 처리에서의 예측 탭의 수는 9개로 하여, 동일하게 하였다.
도 159A 내지 도 161B를 참조하여, 커버드 백그라운드 영역에서의 예측 결과를 설명한다.
도 159A는, 교사 화상의 혼합 영역에서의 화상의 예를 나타낸 도면이다. 도 159B는 교사 화상의 혼합 영역에서의 화상의 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
도 160A는, 도 159A에 도시한 교사 화상에 대응하는 종래의 클래스 분류 적응 처리에 의해 생성된 혼합 영역의 화상의 예를 나타낸 도면이다. 도 160B는, 도 159A에 도시한 교사 화상에 대응하는 종래의 클래스 분류 적응 처리에 의해 생성된 혼합 영역에서의 화상의 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
도 161A는, 도 159A에 도시한 교사 화상에 대응하는 도 158에 구성을 도시한 영역 처리부(5001)에 의해 생성된 혼합 영역의 화상의 예를 나타낸 도면이다. 도 161B는, 도 159A에 도시한 교사 화상에 대응하는 도 158에 구성을 도시한 영역 처리부(5001)에 의해 생성된 혼합 영역에서의 화상의 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
종래의 클래스 분류 적응 처리에 의해 생성된 혼합 영역에서의 화상의 화소값은 교사 화상과 비교하여, 계단형으로 변화하고, 생성된 실제의 화상에서도 단계적으로 변화하고 있는 것이 눈으로 확인할 수 있다.
이것에 대하여, 도 158에 구성을 도시한 영역 처리부(5001)에 의해 생성된 혼합 영역에서의 화상의 화소값은 종래와 비교하여, 보다 완만하게 변화하고, 교사 화상에 의해 가까운 변화를 나타낸다. 영역 처리부(5001)에 의해 생성된 화상을 눈으로 확인해도, 종래와 비교하여 매끄러운 화상인 것을 확인할 수 있다.
도 162A 내지 도 164B를 참조하여, 화소의 위치에 대하여 화소값이 거의 직선적으로 변화하고 있는 전경 영역에서의 예측의 결과를 설명한다.
도 162A는 화소값이 거의 직선적으로 변화하고 있는, 교사 화상의 전경 영역에서의 화상의 예를 나타낸 도면이다. 도 162B는 화소값이 거의 직선적으로 변화하고 있는, 교사 화상 의 전경 영역에서의 화상의, 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
도 163A는 종래의 클래스 분류 적응 처리에 의해 생성된, 도 162A의 화상에 대응하는, 전경 영역의 화상의 예를 나타낸 도면이다. 도 163B는 종래의 클래스 분류 적응 처리에 의해 생성된, 도 162A의 화상에 대응하는, 전경 영역에서의 화상의 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
도 164A는, 도 158에 구성을 도시한 영역 처리부(5001)에 의해 생성된 도 162A의 화상에 대응하는, 전경 영역의 화상의 예를 나타낸 도면이다. 도 164B는 도 158에 구성을 도시한 영역 처리부(5001)에 의해 생성된, 도 162A의 화상에 대응하는, 전경 영역에서의 화상의, 공간 방향의 위치에 대응하는 화소값의 변화를 나타낸 도면이다.
종래의 클래스 분류 적응 처리에 의해 생성된, 전경 영역에서의 화상의 화소값은 혼합 영역과 마찬가지로 교사 화상과 비교하여, 계단형으로 변화하고, 실제의 화상에서도 단계적으로 변화하고 있는 것을 눈으로 확인할 수 있다.
이것에 대하여, 도 158에 구성을 도시한 영역 처리부(5001)에 의해 생성된, 전경 영역에서의 화상의 화소값은 종래와 비교하여, 보다 완만하게 변화하고, 교사 화상에 매우 가까운 값이 된다. 영역 처리부(5001)에 의해 생성된 화상을 눈으로 확인한 결과 교사 화상과의 차이를 인식할 수 없었다.
또한, 소정의 화상에 대하여, 종래의 클래스 분류 적응 처리에 의해 생성된 화상의 각 영역에서의 SN비와, 본 발명에 따른 화상 처리 장치의 클래스 분류 적응 처리에 의해 생성된 화상의 각 영역에서의 SN비를 구하여 비교하였다.
종래의 클래스 분류 적응 처리에 의해 생성된 화상의 커버드 백그라운드 영역에서의 SN비는 32.1716㏈이고, 언커버드 백그라운드 영역에서의 SN비는 31.8744㏈이고, 전경 영역에서의 SN비는 31.8835㏈이고, 배경 영역에서의 SN비는 31.9985㏈ 였다.
이것에 대하여, 본 발명에 따른 화상 처리 장치에 의해 생성된 화상의 커버드 백그라운드 영역에서의 SN비는 32.1799㏈이고, 언커버드 백그라운드 영역에서의 SN비는 31.8922㏈이고, 전경 영역에서의 SN비는 32.0925㏈이고, 배경 영역에서의 SN비는 32.0177㏈였다.
이와 같이, 본 발명에 따른 화상 처리 장치에 의해 생성된 화상의 SN비는 어느 영역에서도 종래의 클래스 분류 적응 처리에 의해 생성된 화상의 SN비와 비교하여 높다.
도 165는, 도 155에 구성을 도시한 화상 처리 장치의 화상의 처리를 설명하는 흐름도이다.
단계 S5001에서, 영역 특정부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보에 기초하여, 입력 화상의 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 특정한다. 단계 S5001의 처리는, 단계 S101의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S5002에서, 영역 처리부(5001)는 입력 화상을 특정된 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역으로 분할하고, 분할된, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역마다 화상의 처리를 실행하고, 처리는 종료한다.
이와 같이, 본 발명에 따른 화상 처리 장치는 입력 화상을 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역으로 분할하고, 분할된, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역마다 화상 처리를 실행한다.
도 166의 흐름도를 참조하여, 도 157에 구성을 도시한 영역 처리부(5001)에 의한, 클래스 분류 적응 처리에 의한 화소값의 예측에 사용되는 계수 세트를 생성하는 학습 처리를 설명한다.
단계 S5101에서 영역 분할부(5102)는 영역 특정부(103)로부터 공급된 영역정보에 기초하여, 교사 화상 프레임 메모리(5101)에 기억되어 있는, 교사 화상 을 영역 분할한다. 즉, 영역 분할부(5102)는 영역 분할된 교사 화상인, 교사 화상의 배경 영역에 속하는 화소로 이루어지는 화상을 배경 영역 교사 화상 프레임 메모리(5103)에 공급한다. 영역 분할부(5102)는 영역 분할된 교사 화상인, 교사 화상의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 언커버드 백그라운드 영역 교사 화상 프레임 메모리(5104)에 공급한다.
영역 분할부(5102)는 영역 분할된 교사 화상인, 교사 화상의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 커버드 백그라운드 영역 교사 화상 프레임 메모리(5105)에 공급한다. 영역 분할부(5102)는 영역 분할된 교사 화상인, 교사 화상의 전경 영역에 속하는 화소로 이루어지는 화상을 전경 영역 교사 화상 프레임 메모리(5106)에 공급한다.
단계 S5102에서, 가중 평균부(5107-1 내지 5107-4)는 배경 영역, 전경 영역, 언커버드 백그라운드 영역, 및 커버드 백그라운드 영역의 학생 화상을 생성한다. 즉, 가중 평균부(5107-1)는 배경 영역 교사 화상 프레임 메모리(5103)에 기억되어 있는, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상을 생성한다. 가중 평균부(5107-2)는 언커버드 백그라운드 영역 교사 화상 프레임 메모리(5104)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상을 생성한다.
가중 평균부(5107-3)는 커버드 백그라운드 영역 교사 화상 프레임 메모리(5105)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 생성한다. 가중 평균부(5107-4)는 전경 영역 교사 화상 프레임 메모리(5106)에 기억되어 있는, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상의 전경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상을 생성한다.
단계 S5103에서, 학습부(5112-1)는 배경 영역 교사 화상 프레임 메모리(5103)에 기억되어 있는, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상, 및 배경 영역 학생 화상 프레임 메모리(5108)에 기억되어 있는, 교사 화상 의 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상에 기초하여, 배경 영역에 대응하는 계수 세트를 생성한다.
단계 S5104에서, 학습부(5112-2)는 언커버드 백그라운드 영역 교사 화상 프레임 메모리(5104)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상, 및 언커버드 백그라운드 영역 학생 화상 프레임 메모리(5109)에 기억되어 있는, 교사 화상 의 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상에 기초하여, 언커버드 백그라운드 영역에 대응하는 계수 세트를 생성한다.
단계 S5105에서, 학습부(5112-3)는 커버드 백그라운드 영역 교사 화상 프레임 메모리(5105)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상, 및 커버드 백그라운드 영역 학생 화상 프레임 메모리(5110)에 기억되어 있는, 교사 화상 의 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상에 기초하여, 커버드 백그라운드 영역에 대응하는 계수 세트를 생성한다.
단계 S5106에서 학습부(5112-4)는 전경 영역 교사 화상 프레임 메모리(5106)에 기억되어 있는, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상, 및 전경 영역 학생 화상 프레임 메모리(5111)에 기억되어 있는, 교사 화상 의 전경 영역에 속하는 화소로 이루어지는 화상에 대응하는 학생 화상에 기초하여, 전경 영역에 대응하는 계수 세트를 생성한다.
단계 S5107에서 학습부(5112-1 내지 5112-4)는 각각 배경 영역에 대응하는 계수 세트, 언커버드 백그라운드 영역에 대응하는 계수 세트, 커버드 백그라운드 영역에 대응하는 계수 세트, 또는 전경 영역에 대응하는 계수 세트를 계수 세트 메모리(5113)에 공급한다. 계수 세트 메모리(5113)는 배경 영역, 전경 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역의 각각에 대응하는 계수 세트를 기억하여, 처리는 종료한다.
이와 같이, 도 157에 구성을 도시한 영역 처리부(5001)는 배경 영역에 대응하는 계수 세트, 언커버드 백그라운드 영역에 대응하는 계수 세트, 커버드 백그라운드 영역에 대응하는 계수 세트, 및 전경 영역에 대응하는 계수 세트를 생성할 수있다.
단계 S5103 내지 단계 S5106의 처리의 상세한 내용은 도 103의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 단계 S5103 내지 단계 S5106의 처리를 직렬로 실행해도, 병렬로 실행해도 물론 된다.
이어서, 도 167의 흐름도를 참조하여, 도 158에 구성을 도시한 영역 처리부(5001)의 화상의 창조 처리를 설명한다.
단계 S5201에서 영역 분할부(5202)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 배경 영역, 전경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역으로 입력 화상을 분할한다. 즉, 영역 분할부(5202)는 분할된 입력 화상인, 배경 영역에 속하는 화소로 이루어지는 화상을 배경 영역 프레임 메모리(5203)에 공급하고, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 언커버드 백그라운드 영역 프레임 메모리(5204)에 공급하고, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 커버드 백그라운드 영역 프레임 메모리(5205)에 공급하고, 전경 영역에 속하는 화소로 이루어지는 화상을 전경 영역 프레임 메모리(5206)에 공급한다.
단계 S5202에서, 맵핑부(5207-1)는 계수 세트 메모리(5208)에 기억되어 있는, 배경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 배경 영역 프레임 메모리(5203)에 기억되어 있는, 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 화상을 예측한다.
단계 S5203에서 맵핑부(5207-2)는 계수 세트 메모리(5208)에 기억되어 있는, 언커버드 백그라운드 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 언커버드 백그라운드 영역 프레임 메모리(5204)에 기억되어 있는, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 화상을 예측한다.
단계 S5204에서 맵핑부(5207-3)는 계수 세트 메모리(5208)에 기억되어 있는, 커버드 백그라운드 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 커버드 백그라운드 영역 프레임 메모리(5205)에 기억되어 있는, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 화상을 예측한다.
단계 S5205에서 맵핑부(5207-4)는 계수 세트 메모리(5208)에 기억되어 있는 전경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 전경 영역 프레임 메모리(5206)에 기억되어 있는 전경 영역에 속하는 화소로 이루어지는 화상에 대응하는 화상을 예측한다.
단계 S5206에서, 합성부(5209)는 배경 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상에 대응하는 예측 화상, 및 전경 영역에 대응하는 예측 화상을 합성한다. 합성부(5209)는, 합성된 화상을 프레임 메모리(5210)에 공급한다. 프레임 메모리(5210)는, 합성부(5209)로부터 공급된 화상을 기억한다.
단계 S5207에서 프레임 메모리(5210)는 기억하고 있는 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 158에 구성을 도시한 영역 처리부(5001)를 갖는 화상 처리 장치는 배경 영역, 언커버드 백그라운드 영역, 커버드 백그라운드 영역과 전경 영역마다, 입력 화상을 분할하고, 분할된 화상마다 예측 화상을 생성할 수 있다.
단계 S5202 내지 단계 S5205의 처리의 상세한 내용은 도 109의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 단계 S5202 내지 단계 S5205의 처리를 직렬로 실행해도, 병렬로 실행해도 물론 된다.
또한, 움직임 불선명 제거 화상 처리부(108), 분리 화상 처리부(4002), 및 영역 처리부(5001)가 실행하는 처리는, SD 화상과 HD 화상에 대응하는 계수의 생성, 또는, SD 화상으로부터 HD 화상을 생성하는 처리에 한하지 않고, 예를 들면 공간 방향에 의해 해상도가 높은 화상을 생성하기 위한 계수를 생성하고, 공간 방향에 의해 해상도가 높은 화상을 생성하도록 해도 된다. 또한 움직임 불선명 제거 화상 처리부(108), 분리 화상 처리부(4002), 및 영역 처리부(5001)는 시간 방향으로, 보다 해상도가 높은 화상을 생성하는 처리를 실행하도록 해도 된다.
또, 움직임 불선명 제거 화상 처리부(108), 분리 화상 처리부(4002), 및 영역 처리부(5001)는 소정의 정보로부터 계수를 생성하고, 생성된 계수에 기초하여, 클래스 분류 적응 처리를 실행하도록 해도 된다.
또한, 움직임 불선명 제거 화상 처리부(108), 분리 화상 처리부(4002), 및 영역 처리부(5001)는 클래스 분류의 처리에 기초하여, 예를 들면 원하는 크기로의화상의 사이즈의 변환, RGB 등의 색 신호의 추출, 노이즈의 제거, 화상의 압축, 또는 부호화 등 다른 처리를 실행하도록 해도 된다. 예를 들면, 움직임 불선명 제거 화상 처리부(108), 분리 화상 처리부(4002), 및 영역 처리부(5001)에 분류된 클래스 및 각각의 화상에 대응하는 움직임 벡터에 기초하여, 움직임 벡터에 따른 방향의 압축율을 낮게 하고, 움직임 벡터에 직교하는 방향의 압축율을 높게 하여, 각 영역마다의 화상을 압축시키도록 하면, 종래와 비교하여 화상의 열화가 적은 상태에서 압축비를 높일 수 있다.
도 168은 배경 영역, 언커버드 백그라운드 영역, 커버드 백그라운드 영역, 또는 전경 영역마다 다른 효과의 엣지 강조 처리를 적용하는 영역 처리부(5001)의 다른 구성을 나타낸 블록도이다.
프레임 메모리(5501)는 입력 화상을 프레임 단위로 기억한다. 프레임 메모리(5501)는 기억하고 있는 입력 화상을 영역 분할부(5502)에 공급한다.
영역 분할부(5502)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 배경 영역, 전경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역에 입력 화상을 분할한다. 즉, 영역 분할부(5502)는 분할된 입력 화상인, 배경 영역에 속하는 화소로 이루어지는 배경 화상을 배경 영역 프레임 메모리(5503)에 공급하고, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 언커버드 백그라운드 영역 프레임 메모리(5504)에 공급하고, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 커버드 백그라운드 영역 프레임 메모리(5505)에 공급하고, 전경 영역에 속하는 화소로 이루어지는 전경 화상을 전경 영역 프레임메모리(5506)에 공급한다.
배경 영역 프레임 메모리(5503)는 영역 분할부(5502)로부터 공급된, 배경 영역에 속하는 화소로 이루어지는 배경 화상을 기억한다. 배경 영역 프레임 메모리(5503)는 기억하고 있는 배경 화상을 엣지 강조부(5507-1)에 공급한다.
언커버드 백그라운드 영역 프레임 메모리(5504)는 영역 분할부(5502)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 기억한다. 언커버드 백그라운드 영역 프레임 메모리(5504)는 기억하고 있는 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 엣지 강조부(5507-2)에 공급한다.
커버드 백그라운드 영역 프레임 메모리(5505)는 영역 분할부(5502)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 기억한다. 커버드 백그라운드 영역 프레임 메모리(5505)는 기억하고 있는 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 엣지 강조부(5507-3)에 공급한다.
전경 영역 프레임 메모리(5506)는 영역 분할부(5502)로부터 공급된 전경 영역에 속하는 화소로 이루어지는 전경 화상을 기억한다. 전경 영역 입력 화상 프레임 메모리(506)는 기억하고 있는 전경 화상을 엣지 강조부(5507-4)에 공급한다.
엣지 강조부(5507-1)는 배경 영역 프레임 메모리(5503)에 기억되어 있는, 배경 화상에, 배경 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 배경 화상을 합성부(5508)에 공급한다.
예를 들면, 엣지 강조부(5507-1)는 정지하고 있는 화상인 배경 화상에 언커버드 백그라운드 영역, 커버드 백그라운드 영역, 또는 전경 영역과 비교하여, 엣지를 보다 강조하는 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 발생시키지 않고, 배경 화상의 해상도감을 보다 증가시킬 수 있다.
엣지 강조부(5507-2)는 언커버드 백그라운드 영역 프레임 메모리(5504)에 기억되어 있는 화상에, 언커버드 백그라운드 영역의 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 화상을 합성부(5508)에 공급한다.
예를 들면, 엣지 강조부(5507-2)는 움직이고 있는 전경 성분을 포함하는 화상인 언커버드 백그라운드 영역의 화상에 배경 영역과 비교하여, 엣지 강조의 정도가 적은 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 언커버드 백그라운드 영역의 화상에서, 해상도감을 향상시키면서, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 감소시킬 수 있다.
엣지 강조부(5507-3)는 커버드 백그라운드 영역 프레임 메모리(5505)에 기억되어 있는 화상에, 커버드 백그라운드 영역의 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 화상을 합성부(5508)에 공급한다.
예를 들면, 엣지 강조부(5507-3)는 움직이고 있는 전경 성분을 포함하는 화상인 커버드 백그라운드 영역의 화상에, 배경 영역과 비교하여, 엣지 강조의 정도가 적은 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 커버드 백그라운드 영역의 화상에서 해상도감을 향상시키면서, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 감소시킬 수 있다.
엣지 강조부(5507-4)는 전경 영역 프레임 메모리(5506)에 기억되어 있는 전경 화상에, 전경 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 전경 화상을 합성부(5508)에 공급한다.
예를 들면, 엣지 강조부(5507-4)는, 움직이고 있는 전경 화상에, 배경 영역과 비교하여, 엣지 강조의 정도가 적은 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 전경 화상에서 해상도감을 향상시키면서, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 감소시킬 수 있다.
합성부(5508)는, 엣지 강조부(5507-1)로부터 공급된, 엣지 강조된 배경 화상, 엣지 강조부(5507-2)로부터 공급된, 엣지 강조된 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상, 엣지 강조부(5507-3)로부터 공급된, 엣지 강조된 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상, 및 엣지 강조부(5507-4)로부터 공급된, 엣지 강조된 전경 화상을 합성하고, 합성된 화상을 프레임 메모리(5509)에 공급한다.
프레임 메모리(5509)는 합성부(5508)로부터 공급된, 합성된 화상을 기억함과 함께, 기억하고 있는 화상을 출력 화상으로서 출력한다.
이와 같이, 도 168에 구성을 도시한 영역 처리부(5001)는 배경 영역, 언커버드 백그라운드 영역, 커버드 백그라운드 영역, 또는 전경 영역마다, 각각의 화상의 성질에 대응한 엣지 강조 처리를 적용하므로, 화상을 부자연스럽게 열화시키지 않고, 화상의 해상도감을 증가시킬 수 있다.
엣지 강조부(5507-1 내지 5507-4)는 엣지 강조부(1203)와 마찬가지의 구성을 갖으므로, 그 설명은 생략한다.
도 169는, 도 168에 구성을 도시한 영역 처리부(5001)의 처리를 설명하는 도면이다.
입력 화상의 전경 영역, 언커버드 백그라운드 영역, 커버드 백그라운드 영역 및 배경 영역은 영역 특정부(103)에 특정된다.
영역이 특정된 입력 화상은, 영역 처리부(5001)에 의해 영역마다 분할된다. 분할된 배경 영역의 화상, 언커버드 백그라운드 영역의 화상, 커버드 백그라운드 영역의 화상, 및 전경 영역의 화상은 도 168에 구성을 도시한 영역 처리부(5001)에 의해, 각각의 화상의 성질에 대응하여, 각각의 화상마다 엣지 강조된다.
각각에 엣지 강조된, 배경 영역의 화상, 언커버드 백그라운드 영역의 화상, 커버드 백그라운드 영역의 화상, 및 전경 영역의 화상은 합성된다.
도 170은 도 115에 구성을 도시한 화상 처리 장치의 화상의 처리를 설명하는 흐름도이다.
단계 S5501에서, 영역 특정부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보에 기초하여, 입력 화상의 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 특정한다. 단계 S5501의 처리는 단계 S5001의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S5502에서, 영역 처리부(5001)는 입력 화상을 특정된 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역으로 분할하고, 분할된, 전경 영역, 배경 영역, 커버드 백그라운드 영역과 전갱이 커버드 백그라운드 영역마다, 화상의 엣지 강조 처리를 실행하고, 처리는 종료한다.
이와 같이, 본 발명에 따른 화상 처리 장치는 입력 화상을 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역으로 분할하고, 분할된, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역마다 엣지 강조 처리를 실행한다.
이어서, 도 171의 흐름도를 참조하여, 단계 S5502에 대응하는 영역 처리부(5001)의 엣지 강조 처리를 설명한다.
단계 S5521에서, 영역 분할부(5502)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 배경 영역, 전경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역으로 입력 화상을 분할한다. 즉, 영역 분할부(5502)는 분할된 입력 화상인, 배경 영역에 속하는 화소로 이루어지는 배경 화상을 배경 영역 프레임 메모리(5503)에 공급하고, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 언커버드 백그라운드 영역 프레임 메모리(5504)에 공급하고, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상을 커버드 백그라운드 영역 프레임 메모리(5505)에 공급하고, 전경 영역에 속하는 화소로 이루어지는 전경 화상을 전경 영역 프레임 메모리(5506)에 공급한다.
단계 S5522에서 엣지 강조부(5507-1)는 배경 화상의 성질에 대응한 엣지 강조에 처리에 의해, 배경 영역 프레임 메모리(5503)에 기억되어 있는, 배경 화상을 엣지 강조한다.
단계 S5523에서 엣지 강조부(5507-2)는 언커버드 백그라운드 영역의 화상의 성질에 대응한 엣지 강조에 처리에 의해, 언커버드 백그라운드 영역 프레임메모리(5504)에 기억되어 있는, 언커버드 백그라운드 영역의 화상을 엣지 강조한다.
단계 S5524에서 엣지 강조부(5507-3)는 커버드 백그라운드 영역의 화상의 성질에 대응한 엣지 강조에 처리에 의해, 커버드 백그라운드 영역 프레임 메모리(5505)에 기억되어 있는, 커버드 백그라운드 영역의 화상을 엣지 강조한다.
단계 S5525에서 엣지 강조부(5507-4)는 전경 화상의 성질에 대응한 엣지 강조에 처리에 의해, 전경 영역 프레임 메모리(5506)에 기억되어 있는 전경 화상을 엣지 강조한다.
단계 S5526에서 합성부(5508)는 각각에 엣지 강조된 배경 화상, 언커버드 백그라운드 영역의 화상, 커버드 백그라운드 영역의 화상, 및 전경 화상을 합성한다. 합성부(5508)는 합성된 화상을 프레임 메모리(5509)에 공급한다. 프레임 메모리(5509)는 합성부(5508)로부터 공급된 화상을 기억한다.
단계 S5527에서 프레임 메모리(5509)는 기억하고 있는, 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 168에 구성을 도시한 영역 처리부(5001)는 배경 화상, 언커버드 백그라운드 영역의 화상, 커버드 백그라운드 영역의 화상, 및 전경 화상마다 각각의 성질에 대응하여 엣지 강조 처리를 실행할 수 있으므로, 움직이고 있는 화상에 부자연스러운 왜곡을 발생시키지 않고, 해상도감을 향상시킬 수 있다.
또, 단계 S5522 내지 단계 S5525의 처리를 물론, 직렬로 실행해도, 병렬로 실행해도 된다.
도 172는 도 131에 구성을 도시한 화상 처리 장치의 또 다른 처리를 설명하는 도면이다.
도 172에 도시한 바와 같이, 입력 화상은 전경 영역, 배경 영역, 및 혼합 영역이 특정되고, 특정된 전경 영역, 배경 영역, 및 혼합 영역마다의 화상으로 분할된다.
분할된 전경 영역의 화상, 및 배경 영역의 화상은 각각에 예를 들면, 계수의 생성 처리, 또는 노이즈 제거 처리 등이 적용된다.
도 173은 노이즈를 제거하는 클래스 분류 적응 처리에서 사용되는 계수 세트를 생성하는 영역 처리부(5001)의 구성을 나타낸 블록도이다. 교사 화상 프레임 메모리(5701)는 입력 화상을 프레임 단위로 기억한다. 교사 화상 프레임 메모리(5701)는 기억하고 있는 입력 화상을 영역 분할부(5702)에 공급한다.
영역 분할부(5702)는, 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 배경 영역, 또는 전경 영역으로 입력 화상인 교사 화상을 분할한다.
도 173에 구성을 도시한 영역 처리부(5001)는 언커버드 백그라운드 영역의 화상, 및 커버드 백그라운드 영역의 화상을 사용하지 않는다.
영역 분할부(5702)는 분할된 교사 화상인, 교사 화상의 배경 영역의 화상을 배경 영역 교사 화상 프레임 메모리(5703)에 공급하고, 교사 화상의 전경 영역의 화상을 전경 영역 교사 화상 프레임 메모리(5704)에 공급한다.
배경 영역 교사 화상 프레임 메모리(5703)는 영역 분할부(5702)로부터 공급된, 교사 화상 의 배경 영역의 화상을 기억한다. 배경 영역 교사 화상 프레임 메모리(5703)는, 기억하고 있는, 교사 화상 의 배경 영역의 화상을 노이즈 부가부(5705-1) 및 학습부(5708-1)에 공급한다.
전경 영역 교사 화상 프레임 메모리(5704)는 영역 분할부(5702)로부터 공급된, 교사 화상의 전경 영역의 화상을 기억한다. 전경 영역 교사 화상 프레임 메모리(5704)는, 기억하고 있는, 교사 화상 의 전경 영역의 화상을 노이즈 부가부(5705-2) 및 학습부(5708-2)에 공급한다.
노이즈 부가부(5705-1)는 예를 들면 난수를 생성하여, 배경 영역 교사 화상 프레임 메모리(5703)로부터 공급된, 교사 화상 의 배경 영역의 화상의 화소값에 난수를 가산하고, 배경 영역의 화상에 노이즈를 부가한다. 노이즈 부가부(5705-1)는 노이즈를 부가한 배경 영역의 화상을 배경 영역 학생 화상 프레임 메모리(5706)에 공급한다.
배경 영역 학생 화상 프레임 메모리(5706)는 노이즈 부가부(5705-1)로부터 공급된, 노이즈가 부가된 배경 영역의 화상을 학생 화상으로서 기억한다. 배경 영역 학생 화상 프레임 메모리(5706)는, 기억하고 있는, 교사 화상 의 배경 영역의 화상에 대응하는 학생 화상을 학습부(5708-1)에 공급한다.
노이즈 부가부(5705-2)는, 예를 들면 난수를 생성하고, 전경 영역 교사 화상 프레임 메모리(5704)로부터 공급된, 교사 화상 의 전경 영역의 화상의 화소값에 난수를 가산하여, 전경 영역의 화상에 노이즈를 부가한다. 노이즈 부가부(5705-2)는 노이즈를 부가한 전경 영역의 화상을 전경 영역 학생 화상 프레임 메모리(5707)에 공급한다.
전경 영역 학생 화상 프레임 메모리(5707)는 노이즈 부가부(5705-2)로부터 공급된, 노이즈가 부가 된 전경 영역의 화상을 학생 화상으로서 기억한다. 전경 영역 학생 화상 프레임 메모리(5707)는, 기억하고 있는, 교사 화상 의 전경 영역의 화상에 대응하는 학생 화상을 학습부(5708-2)에 공급한다.
학습부(5708-1)는 배경 영역 교사 화상 프레임 메모리(5703)로부터 공급된, 배경 영역의 화상인 교사 화상, 및 배경 영역 학생 화상 프레임 메모리(5706)로부터 공급된, 노이즈가 부가 되어 있는 학생 화상에 기초하여, 배경 영역에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(5709)에 공급한다.
학습부(5708-2)는 전경 영역 교사 화상 프레임 메모리(5704)로부터 공급된 전경 영역의 화상인 교사 화상, 및 전경 영역 학생 화상 프레임 메모리(5707)로부터 공급된, 노이즈가 부가 되어 있는 학생 화상에 기초하여, 전경 영역에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(5709)에 공급한다.
계수 세트 메모리(5709)는 학습부(5708-1)로부터 공급된, 배경 영역에 대응하는 계수 세트, 및 학습부(5708-2)로부터 공급된 전경 영역에 대응하는 계수 세트를 기억한다.
도 174는, 도 173에 구성을 도시한 영역 처리부(5001)가 생성하는 계수 세트를 설명하는 도면이다. 영역 처리부(5001)는 배경 영역에 대응하는 계수 세트, 및 전경 영역에 대응하는 계수 세트를 개별적으로 산출한다. 영역 처리부(5001)는 언커버드 백그라운드 영역 또는 커버드 백그라운드 영역에 대응하는 계수 세트를 생성하지 않는다.
즉, 영역 분할부(5702)는 입력 화상을 배경 영역의 화상, 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상, 커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상, 및 전경 영역의 화상으로 분할한다.
학습부(5708-1)는 분할된 배경 영역의 화상에 기초하여, 배경 영역에 대응하는 계수 세트를 산출하고, 학습부(5708-2)는 분할된 전경 영역의 화상에 기초하여, 전경 영역에 대응하는 계수 세트를 산출한다.
배경 영역에 대응하는 계수 세트는 노이즈가 제거된 화소값을 예측하는 클래스 분류 적응 처리에서, 배경 영역의 화소값의 예측에 사용된다. 전경 영역에 대응하는 계수 세트는 노이즈가 제거된 화소값을 예측하는 클래스 분류 적응 처리에서, 전경 영역의 화소값의 예측에 사용된다.
배경 영역의 화상에 대응하는 예측 화상, 언커버드 백그라운드 영역에 대응하는 화상, 커버드 백그라운드 영역에 대응하는 화상, 및 전경 영역의 화상에 대응하는 예측 화상은 합성되어, 하나의 화상이 된다.
도 175의 흐름도를 참조하여, 도 173에 구성을 도시한 영역 처리부(5001)에 의한 클래스 분류 적응 처리에 의한 화소값의 예측에 사용되는 계수 세트를 생성하는 학습 처리를 설명한다.
단계 S5701에서 영역 분할부(5702)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 교사 화상 프레임 메모리(5701)에 기억되어 있는, 교사 화상 을 영역 분할한다. 즉, 영역 분할부(5702)는 영역 분할된 교사 화상인, 교사 화상의 배경 영역의 화상을 배경 영역 교사 화상 프레임 메모리(5703)에 공급한다. 영역분할부(5702)는 영역 분할된 교사 화상인 교사 화상의 전경 영역의 화상을 전경 영역 교사 화상 프레임 메모리(5704)에 공급한다.
단계 S5702에서 노이즈 부가부(5705-1, 5705-2)는 배경 영역과 전경 영역 각각의 학생 화상을 생성한다. 즉, 예를 들면, 노이즈 부가부(5705-1)는 난수를 생성하여, 배경 영역 교사 화상 프레임 메모리(5703)에 기억되어 있는, 배경 영역의 화상의 화소값에 난수를 가산하고, 배경 영역의 화상에 노이즈를 부가한다. 노이즈 부가부(5705-2)는 난수를 생성하여, 전경 영역 교사 화상 프레임 메모리(5704)에 기억되어 있는 전경 영역의 화상의 화소값에 난수를 가산하고, 전경 영역의 화상에 노이즈를 부가한다.
단계 S5703에서 학습부(5708-1)는 배경 영역 교사 화상 프레임 메모리(5703)에 기억되어 있는, 배경 영역의 화상인 교사 화상, 및 배경 영역 학생 화상 프레임 메모리(5706)에 기억되어 있는 노이즈가 부가된 학생 화상에 기초하여, 배경 영역에 대응하는 계수 세트를 생성한다. 계수 세트의 생성 처리의 상세한 내용은 도 103의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S5704에서, 학습부(5708-2)는 전경 영역 교사 화상 프레임 메모리(5704)에 기억되어 있는 전경 영역의 화상인 교사 화상, 및 전경 영역 학생 화상 프레임 메모리(5707)에 기억되어 있는 노이즈가 부가된 학생 화상에 기초하여, 전경 영역에 대응하는 계수 세트를 생성한다. 계수 세트의 생성 처리의 상세한 내용은 도 103의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S5705에서 학습부(5708-1 및 5708-2)는 각각 배경 영역에 대응하는 계수 세트, 또는 전경 영역에 대응하는 계수 세트를 계수 세트 메모리(5709)에 공급한다. 계수 세트 메모리(5709)는 배경 영역, 또는 전경 영역의 각각에 대응하는 계수 세트를 기억하고, 처리는 종료한다.
이와 같이, 도 173에 구성을 도시한 영역 처리부(5001)는 배경 영역에 대응하는 계수 세트, 및 전경 영역에 대응하는 계수 세트를 생성할 수 있다.
또, 단계 S5703 및 단계 S5704의 처리를 직렬로 실행해도, 병렬로 실행해도 되는 것은 물론이다.
도 176는, 클래스 분류 적응 처리를 실행하여, 노이즈를 제거한 화상을 생성하는 영역 처리부(5001)의 구성을 도시한 블록도이다. 프레임 메모리(5901)는 입력 화상을 프레임 단위로 기억한다. 프레임 메모리(5901)는 기억하고 있는 입력 화상을 영역 분할부(5902)에 공급한다.
영역 분할부(5902)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 배경 영역과 전경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역마다 입력 화상을 분할한다. 즉, 영역 분할부(5902)는 분할된 입력 화상인, 배경 영역의 화상을 배경 영역 프레임 메모리(5903)에 공급하여, 전경 영역의 화상을 전경 영역 프레임 메모리(5904)에 공급한다.
영역 분할부(5902)는 분할된 입력 화상인 커버드 백그라운드영역, 및 언커버드 백그라운드 영역의 화상을 합성부(5907)에 공급한다.
배경 영역 프레임 메모리(5903)는 영역 분할부(5902)로부터 공급된, 배경 영역에 속하는 화소로 이루어지는 배경 영역의 화상을 기억한다. 배경 영역 프레임 메모리(5903)는 기억하고 있는 배경 영역의 화상을 맵핑부(5905-1)에 공급한다.
전경 영역 프레임 메모리(5904)는 영역 분할부(5902)로부터 공급된 전경 영역에 속하는 화소로 이루어지는 전경 영역의 화상을 기억한다. 전경 영역 입력 화상 프레임 메모리(506)는 기억하고 있는 전경 영역의 화상을 맵핑부(5905-2)에 공급한다.
맵핑부(5905-1)는 계수 세트 메모리(5906)에 기억되어 있는, 배경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 배경 영역 프레임 메모리(5903)에 기억되어 있는, 배경 영역의 화상에 대응하는 노이즈를 제거한 예측 화상을 생성한다. 맵핑부(5905-1)는 생성한 예측 화상을 합성부(5907)에 공급한다.
맵핑부(5905-2)는 계수 세트 메모리(5906)에 기억되어 있는 전경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 전경 영역 프레임 메모리(5904)에 기억되어 있는 전경 영역의 화상에 대응하는 노이즈를 제거한 예측 화상을 생성한다. 맵핑부(5905-2)는 생성한 예측 화상을 합성부(5907)에 공급한다.
합성부(5907)는 맵핑부(5905-1)로부터 공급된, 배경 영역의 화상에 대응하는 예측 화상, 맵핑부(5905-2)로부터 공급된 전경 영역의 화상에 대응하는 예측 화상, 및 영역 분할부(5902)로부터 공급된, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역의 화상을 합성하고, 합성된 화상을 프레임 메모리(5908)에 공급한다.
프레임 메모리(5908)는 합성부(5907)로부터 공급된 화상을 기억함과 함께, 기억하고 있는 화상을 출력 화상으로서 출력한다.
이어서, 도 177의 흐름도를 참조하여, 도 176에 구성을 도시한 영역 처리부(5001)의 화상의 창조 처리를 설명한다.
단계 S5901에서, 영역 분할부(5902)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 배경 영역, 전경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역으로 입력 화상을 분할한다. 즉, 영역 분할부(5902)는 분할된 입력 화상인, 배경 영역에 속하는 화소로 이루어지는 배경 영역의 화상을 배경 영역 프레임 메모리(5903)에 공급하고, 전경 영역에 속하는 화소로 이루어지는 전경 영역의 화상을 전경 영역 프레임 메모리(5904)에 공급한다.
영역 분할부(5902)는 언커버드 백그라운드 영역에 속하는 화소로 이루어지는 화상, 및 커버드 백그라운드 영역에 속하는 화소를 합성부(5907)에 공급한다.
단계 S5902에서 맵핑부(5905-1)는 계수 세트 메모리(5906)에 기억되어 있는, 배경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 배경 영역 프레임 메모리(5903)에 기억되어 있는, 배경 영역의 화상에 대응하는, 노이즈를 제거한 화상을 예측한다. 노이즈를 제거한 화상의 예측 처리의 상세한 내용은 도 109의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S5903에서 맵핑부(5905-2)는 계수 세트 메모리(5906)에 기억되어 있는 전경 영역에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 전경영역 프레임 메모리(5904)에 기억되어 있는 전경 영역의 화상에 대응하는 노이즈를 제거한 화상을 예측한다. 노이즈를 제거한 화상의 예측 처리의 상세한 내용은 도 109의 흐름도를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S5904에서 합성부(5907)는 배경 영역의 화상에 대응하는 예측 화상, 및 전경 영역에 대응하는 예측 화상, 및 언커버드 백그라운드 영역의 화상, 및 커버드 백그라운드 영역의 화상을 합성한다. 합성부(5907)는 합성된 화상을 프레임 메모리(5908)에 공급한다. 프레임 메모리(5908)는 합성부(5907)로부터 공급된 화상을 기억한다.
단계 S5905에서 프레임 메모리(5908)는 기억하고 있는 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 176에 구성을 도시한 영역 처리부(5001)를 갖는 화상 처리 장치는 배경 영역, 언커버드 백그라운드 영역, 커버드 백그라운드 영역과 전경 영역마다, 입력 화상을 분할하여, 분할된 배경 영역의 화상, 및 전경 영역의 화상마다 예측 화상을 생성하고, 생성한 예측 화상을 언커버드 백그라운드 영역, 및 커버드 백그라운드 영역의 화상과 합성할 수 있으므로, 혼합 영역에서 부자연스러운 화상의 열화를 발생시키지 않고, 화상 전체의 노이즈를 저감시킬 수 있다.
또, 단계 S5902 및 단계 S5903의 처리를 직렬로 실행해도, 병렬로 실행해도 물론 된다.
또한, 본 발명에서 화상 처리는 그대로 화상을 통과시키는 처리를 포함한다. 도 178은 본 발명에 따른 화상 처리 장치의 기능의 또 다른 구성을 도시한 블록도이다.
도 11에 도시한 경우와 마찬가지의 부분에는 동일한 번호를 붙여 있어, 그 설명은 생략한다.
화상 처리 장치에 공급된 입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다.
움직임 검출부(102)는, 예를 들면 블록 맵핑법, 구배법, 위상 상관법, 및 펠리커시브법 등의 방법에 의해, 개략적으로 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보(움직임 벡터에 대응하는 화소의 위치를 특정하는 정보)를 영역 특정부(103)에 공급한다.
영역 특정부(103)는 입력된 화상의 화소 각각을, 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 특정하여, 영역 정보를 혼합비 산출부(104), 및 전경 배경 분리부(105)에 공급한다. 전경 영역, 배경 영역, 또는 혼합 영역의 상세한 내용은 후술하겠다.
혼합비 산출부(104)는 입력 화상, 및 영역 특정부(103)로부터 공급된 영역정보에 기초하여, 혼합 영역에 포함되는 화소에 대응하는 혼합비α를 산출하고, 산출한 혼합비를 전경 배경 분리부(105)에 공급한다.
전경 배경 분리부(105)는, 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 전경 성분 화상과 배경 성분 화상과 입력 화상을 분리하여, 전경 성분 화상 및 배경 성분 화상을 분리 화상 처리부(7001)에 공급한다.
분리 화상 처리부(7001)는 전경 성분 화상 및 배경 성분 화상에, 각각 다른 처리를 적용한다. 예를 들면, 분리 화상 처리부(7001)는 배경 성분 화상에 기초하여, 보다 고해상도의 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수를 생성한다.
예를 들면, 분리 화상 처리부(7001)는 배경 성분 화상에, 클래스 분류 적응 처리를 적용하여, 보다 고해상도의 화상을 창조함과 함께, 전경 성분 화상에 선형 보간의 처리를 적용하여, 화소를 생성한다.
또한, 분리 화상 처리부(7001)는 배경 성분 화상에만, 엣지 강조 처리를 적용하고, 전경 성분 화상은 그대로 통과시킨다.
도 179는 본 발명에 따른 화상 처리 장치의 화상의 처리를 설명하는 흐름도이다.
단계 S7001에서, 영역 특정부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보와 입력 화상에 기초하여, 입력 화상의 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 특정한다. 단계S7001의 처리는 단계 S101의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S7002에서, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보 및 입력 화상에 기초하여, 혼합비α를 산출한다. 단계 S7002의 처리는 단계 S102의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S7003에서, 전경 배경 분리부(105)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α에 기초하여, 입력 화상을 전경 성분으로 이루어지는 전경 성분 화상, 및 배경 성분으로 이루어지는 배경 성분 화상으로 분리한다. 단계 S7003의 처리는, 단계 S103의 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S7004에서, 분리 화상 처리부(7001)는, 전경 성분 화상, 및 배경 성분 화상마다, 화상의 처리를 실행하고, 처리는 종료한다. 분리 화상 처리부(7001)가 실행하는 화상 처리의 상세한 내용은 후술한다.
이와 같이, 본 발명에 따른 화상 처리 장치는, 입력 화상을 전경 성분 화상 및 배경 성분 화상으로 분리하고, 분리된 전경 성분 화상, 및 배경 성분 화상마다 화상 처리를 실행한다.
도 180은 배경 성분 화상에 대응하는, 공간 방향으로 보다 고해상도의 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수 세트를 생성하는 분리 화상 처리부(7001)의 구성을 도시한 블록도이다. 예를 들면, 도 180에 구성을 도시한 분리 화상 처리부(7001)는 입력된, HD 화상에 기초하여, 배경 성분 화상에 대응하고, SD 화상으로부터 HD 화상을 생성하는 클래스 분류 적응 처리에서 사용되는 계수 세트를 생성한다.
도 180에 구성을 나타내는 분리 화상 처리부(7001)는, 전경 성분 화상을 사용하지 않는다. 교사 화상 프레임 메모리(7021)는 전경 배경 분리부(105)로부터 공급된 배경 성분 화상을 기억한다. 교사 화상 프레임 메모리(7021)는 기억하고 있는 배경 성분 화상, 즉 교사 화상을 가중 평균부(7022) 및 학습부(7024)에 공급한다.
가중 평균부(7022)는 교사 화상 프레임 메모리(7021)로부터 공급된, 예를 들면, 교사 화상인 HD 화상의 배경 성분 화상을 4분의 1 가중 평균하여, 학생 화상인 SD 화상을 생성하고, 생성한 SD 화상을 학생 화상 프레임 메모리(7023)에 공급한다.
학생 화상 프레임 메모리(7023)는, 가중 평균부(7022)로부터 공급된, 교사 화상 인 배경 성분 화상에 대응하는 학생 화상을 기억한다. 학생 화상 프레임 메모리(7023)는 기억하고 있는 학생 화상을 학습부(7024)에 공급한다.
학습부(7024)는 교사 화상 프레임 메모리(7021)로부터 공급된, 교사 화상 인 배경 성분 화상, 및 학생 화상 프레임 메모리(7023)로부터 공급된 배경 성분 화상에 대응하는 학생 화상에 기초하여, 배경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(7025)에 공급한다.
계수 세트 메모리(7025)는 학습부(7024)로부터 공급된 배경 성분 화상에 대응하는 계수 세트를 기억한다.
도 181은 학습부(7024)의 구성을 나타내는 블록도이다.
클래스 분류부(7121)는 클래스 탭 취득부(7131) 및 파형 분류부(7132)로 구성되고, 입력된 학생 화상의, 주목하고 있는 화소인 주목 화소를 클래스 분류한다. 클래스 탭 취득부(7131)는 주목 화소에 대응하는 학생 화상의 화소인, 소정의 수의 클래스 탭을 취득하고, 취득한 클래스 탭을 파형 분류부(7132)에 공급한다.
파형 분류부(7132)는 입력 신호를 그 특징에 기초하여 몇 개의 클래스로 분류하는 클래스 분류 처리를 실행하고, 클래스 탭에 기초하여 주목 화소를 1개의 클래스로 분류한다. 파형 분류부(7132)는 예를 들면 주목 화소를 512의 클래스 중 하나의 클래스로 분류하고, 분류된 클래스에 대응하는 클래스 번호를 예측 탭 취득부(7122)에 공급한다.
예측 탭 취득부(7122)는 클래스 번호에 기초하여, 학생 화상의 화소로부터 클래스에 대응하여, 원래 화상(교사 화상)의 예측값을 계산하기 위한 단위인, 예측 탭을 취득하고, 취득한 예측 탭 및 클래스 번호를 대응 화소 취득부(7123)에 공급한다.
대응 화소 취득부(7123)는 예측 탭 및 클래스 번호에 기초하여, 예측할 화소값에 대응하는 교사 화상의 화소의 화소값을 취득하고, 예측 탭, 클래스 번호, 및 취득한 예측할 화소값에 대응하는 교사 화상의 화소의 화소값을 정규 방정식 생성부(7124)에 공급한다.
정규 방정식 생성부(7124)는 예측 탭, 클래스 번호, 및 취득한 예측할 화소값에 기초하여, 예측 탭 및 예측할 화소값의 관계에 대응하는 적응 처리에서 사용되는 계수 세트를 산출하기 위한 정규 방정식을 생성하여, 클래스 번호와 함께 생성한 정규 방정식을 계수 계산부(7125)에 공급한다.
계수 계산부(7125)는 정규 방정식 생성부(7124)로부터 공급된 정규 방정식을 풀어, 분류된 클래스에 대응하는 적응 처리에서 사용되는 계수 세트를 계산한다. 계수 계산부(7125)는 클래스 번호와 함께 계산한 계수 세트를 계수 세트 메모리(7025)에 공급한다.
정규 방정식 생성부(7124)는 이러한 정규 방정식에 대응하는 행렬을 생성하여, 계수 계산부(7125)는 생성된 행렬에 기초하여, 계수 세트를 계산하도록 해도 된다.
정규 방정식 생성부(7124)는 클래스마다 최적의 예측 계수 w를 산출하기 위한 정규 방정식을 생성하고, 계수 계산부(7125)는 생성된 정규 방정식에 기초하여, 예측 계수 w를 산출한다.
또한, 적응 처리는 공간 방향으로 보다 해상도가 높은 화상을 창조하는 처리에 한하지 않고, 예를 들면 화상의 해상도를 그대로 하고 노이즈를 더 저감시킨 화상을 창조하도록 할 수도 있다.
도 182의 흐름도를 참조하여, 도 180에 구성을 도시한 분리 화상 처리부(7001)에 의한 클래스 분류 적응 처리에 의한 화소값의 예측에 사용되는 계수 세트를 생성하는 학습 처리를 설명한다.
단계 S7021에서 가중 평균부(7022)는 교사 화상 프레임 메모리(7021)에 기억되어 있는, 교사 화상 인 배경 성분 화상을, 예를 들면 4분의 1 가중 평균하여, 교사 화상인 배경 성분 화상에 대응하는 학생 화상을 생성한다.
단계 S7022에서 학습부(7024)는 교사 화상 프레임 메모리(7021)에 기억되어 있는, 교사 화상 인 배경 성분 화상, 및 학생 화상 프레임 메모리(7023)에 기억되어 있는, 배경 성분 화상에 대응하는 학생 화상에 기초하여, 배경 성분 화상에 대응하는 계수 세트를 생성하고, 생성한 계수 세트를 계수 세트 메모리(7025)에 공급한다. 계수 세트 메모리(7025)는 배경 성분 화상에 대응하는 계수 세트를 기억하여, 처리는 종료한다.
이와 같이, 도 180에 구성을 도시한 분리 화상 처리부(7001)는 배경 성분 화상에 대응하는 계수 세트를 생성할 수 있다.
이어서, 도 183의 흐름도를 참조하여, 단계 S7022의 처리에 대응하는 학습부(7024)가 실행하는 배경 성분 화상에 대응하는 계수 세트의 생성 처리를 설명한다.
단계 S7121에서 학습부(7024)는 배경 성분 화상에 대응하는 학생 화상에 미처리의 화소가 있는지의 여부를 판정하여, 배경 성분 화상에 대응하는 학생 화상에 미처리의 화소가 있다고 판정된 경우, 단계 S7122로 진행하여, 래스터 스캔순으로 배경 성분 화상에 대응하는 학생 화상으로부터 주목 화소를 취득한다.
단계 S7123에서 클래스 분류부(7121)의 클래스 탭 취득부(7131)는 학생 화상 프레임 메모리(7023)에 기억되어 있는 학생 화상으로부터, 주목 화소에 대응하는 클래스 탭을 취득한다. 단계 S7124에서 클래스 분류부(7121)의 파형 분류부(7132)는 클래스 탭에 대하여, ADRC 처리를 적용하고, 이에 의해 클래스 탭을 구성하는 화소의 비트 수를 작게 하여, 주목 화소를 클래스 분류한다. 단계 S7125에서 예측탭 취득부(7122)는 분류된 클래스에 기초하여, 학생 화상 프레임 메모리(7023)에 기억되어 있는 학생 화상으로부터 주목 화소에 대응하는 예측 탭을 취득한다.
단계 S7126에서 대응 화소 취득부(7123)는 분류된 클래스에 기초하여, 교사 화상 프레임 메모리(7021)에 기억되어 있는, 교사 화상 인 배경 성분 화상으로부터 예측할 화소값에 대응하는 화소를 취득한다.
단계 S7127에서 정규 방정식 생성부(7124)는 분류된 클래스에 기초하여, 클래스마다의 행렬에, 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값을 가산하고, 단계 S7121로 되돌아가 학습부(7024)는 미처리의 화소가 있는지의 여부의 판정을 반복한다. 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값이 가산되는 클래스마다의 행렬은 클래스마다의 계수 세트를 계산하기 위한 정규 방정식에 대응하고 있다.
단계 S7121에서 학생 화상에 미처리의 화소가 없다고 판정된 경우, 단계 S7128로 진행하고, 정규 방정식 생성부(7124)는 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값이 설정된, 클래스마다의 행렬을 계수 계산부(7125)에 공급한다. 계수 계산부(7125)는 예측 탭 및 예측할 화소값에 대응하는 화소의 화소값이 설정된, 클래스마다의 행렬을 풀어, 배경 성분 화상에 대응하는 클래스마다의 계수 세트를 계산한다.
또, 계수 계산부(7125)는 선형 예측에 의해 화소값을 예측하기 위한 계수 세트에 한하지 않고, 비선형 예측에 의해 화소값을 예측하기 위한 계수 세트를 계산하도록 해도 된다.
단계 S7129에서 계수 계산부(7125)는 배경 성분 화상에 대응하는, 클래스마다의 계수 세트를 계수 세트 메모리(7025)에 출력하고, 처리는 종료한다.
이와 같이, 학습부(7024)는 배경 성분 화상에 대응하는 계수 세트를 생성할 수 있다.
이와 같이, 도 180에 구성을 도시한 분리 화상 처리부(7001)는 배경 성분 화상에 대응하는 계수 세트를 생성할 수 있다.
도 184는 배경 성분 화상에, 클래스 분류 적응 처리를 실행하여, 공간 방향으로 보다 고해상도의 화상을 생성하여, 전경 성분 화상을 선형 보간하는 분리 화상 처리부(7001)의 구성을 나타낸 블록도이다. 예를 들면, 도 184에 구성을 도시한 분리 화상 처리부(7001)는, SD 화상인 입력 화상의 배경 성분 화상에, 클래스 분류 적응 처리를 적용하고, SD 화상인 입력 화상의 전경 성분 화상에 선형 보간의 처리를 적용하여, HD 화상을 생성한다.
프레임 메모리(7301)는 분리 화상 처리부(105)로부터 공급된 배경 성분 화상을 기억한다. 프레임 메모리(7301)는 기억하고 있는 배경 성분 화상을 맵핑부(7302)에 공급한다.
맵핑부(7302)는 계수 세트 메모리(7303)에 기억되어 있는, 배경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해, 프레임 메모리(7301)에 기억되어 있는, 배경 성분 화상에 대응하는 예측 화상을 생성한다. 맵핑부(7302)는 생성한 예측 화상을 프레임 메모리(7304)에 공급한다.
프레임 메모리(7304)는 기억하고 있는 배경 성분 화상에 대응하는 예측 화상을 기억하고, 기억하고 있는 예측 화상을 합성부(7308)에 공급한다.
프레임 메모리(7305)는 분리 화상 처리부(105)로부터 공급된 전경 성분 화상을 기억한다. 프레임 메모리(7305)는 기억하고 있는 전경 성분 화상을 선형 보간 처리부(7306)에 공급한다.
선형 보간 처리부(7306)는 선형 보간의 처리에 의해, 프레임 메모리(7305)에 기억되어 있는 전경 성분 화상에 대응하는 보간된 화상을 생성한다.
예를 들면, 도 97에서 사각형으로 된, 보간되는 화상에서의 화소 Y33(1)의 화소값을 산출할 때, 선형 보간 처리부(7306)는 화소 X22, X23, X24, X32, X33, X34, X42, X43, X44각각에, 대응하는 소정의 가중치를 승산하고, 승산된 결과의 합을 화소 Y33(1)의 화소값으로 한다. 마찬가지로, 보간되는 화상에서의 화소 Y33(2)의 화소값을 산출할 때, 선형 보간 처리부(7306)는 화소 X22, X23, X24, X32, X33, X34, X42, X43, X44각각에 화소 Y33(1)의 화소값을 산출하는 경우와 다른, 소정의 가중치를 승산하여, 승산된 결과의 합을 화소 Y33(2)의 화소값으로 한다.
선형 보간 처리부(7306)는 마찬가지의 보간의 처리로 화소 X22, X23, X24, X32, X33, X34, X42, X43, X44에 기초하여, 화소 Y33(3) 및 화소 Y33(4)의 화소값을 산출한다.
선형 보간 처리부(7306)는 보간한 화상을 프레임 메모리(7307)에 공급한다.
프레임 메모리(7307)는 전경 성분 화상에 기초하여 보간된 화상을 기억하고,기억하고 있는 화상을 합성부(7308)에 공급한다.
합성부(7308)는 프레임 메모리(7304)로부터 공급된, 배경 성분 화상에 대응하는 예측 화상, 및 프레임 메모리(7307)로부터 공급된, 전경 성분 화상에 기초하여 보간된 화상을 합성하고, 합성한 화상을 출력 화상으로서 출력한다.
도 185는 맵핑부(7302)의 구성을 도시한 블록도이다.
맵핑 처리부(7321)는 클래스 분류 처리를 실행하는 클래스 분류부(7331), 및 적응 처리를 실행하는 예측 탭 취득부(7332) 및 예측 연산부(7333)로 구성되어 있다.
클래스 분류부(7331)는 클래스 탭 취득부(7351) 및 파형 분류부(7352)로 구성되고, 배경 성분 화상의 주목하고 있는 화소인 주목 화소를 클래스 분류한다.
클래스 탭 취득부(7351)는 입력 화상의 주목 화소에 대응하는, 소정의 수의 클래스 탭을 취득하고, 취득한 클래스 탭을 파형 분류부(7352)에 공급한다. 예를 들면, 클래스 탭 취득부(7351)는 9개의 클래스 탭을 취득하고, 취득한 클래스 탭을 파형 분류부(7352)에 공급한다.
파형 분류부(7352)는, 클래스 탭에 대하여, ADRC 처리를 적용하고, 이에 의해, 클래스 탭을 구성하는 화소의 비트 수를 작게 하여, 주목 화소를 소정의 수의 클래스 중 하나의 클래스로 분류하고, 분류된 클래스에 대응하는 클래스 번호를 예측 탭 취득부(7332)에 공급한다. 예를 들면, 파형 분류부(7352)는 주목 화소를 512의 클래스 중 하나의 클래스로 분류하고, 분류된 클래스에 대응하는 클래스 번호를 예측 탭 취득부(7332)에 공급한다.
예측 탭 취득부(7332)는 클래스 번호에 기초하여, 입력 화상으로부터 클래스에 대응하는, 소정의 수의 예측 탭을 취득하고, 취득한 예측 탭 및 클래스 번호를 예측 연산부(7333)에 공급한다.
예측 연산부(7333)는 클래스 번호에 기초하여, 계수 세트 메모리(7303)에 기억되어 있는, 배경 성분 화상에 대응하는 계수 세트로부터 클래스에 대응하는 계수 세트를 취득한다. 예측 연산부(7333)는 클래스에 대응하는 계수 세트, 및 예측 탭에 기초하여, 선형 예측에 의해 예측 화상의 화소값을 예측한다. 예측 연산부(7333)는 예측한 화소값을 프레임 메모리(7322)에 공급한다.
또, 예측 연산부(7333)는 비선형 예측에 의해 예측 화상의 화소값을 예측하 도록 해도 된다.
프레임 메모리(7322)는 맵핑 처리부(7321)로부터 공급된, 예측된 화소값을 기억하고, 예측된 화소값으로 이루어지는 화상을 출력한다.
도 186은 도 184에 구성을 도시한 분리 화상 처리부(7001)의 처리를 설명하는 도면이다.
도 186에 도시한 바와 같이, 입력 화상은 영역으로 분할되고, 전경 성분과 배경 성분으로 분리된다. 분리된 입력 화상은 전경 성분 화상 및 배경 성분 화상에 합성된다.
분리 화상 처리부(7001)에 의해, 분리된 배경 성분 화상에는 클래스 분류 적응 처리가 적용된다. 분리 화상 처리부(7001)에 의해, 분리된 전경 성분 화상에는 선형 보간 처리가 적용된다.
이어서, 도 187의 흐름도를 참조하여, 도 184에 구성을 도시한 분리 화상 처리부(7001)의 화상의 창조 처리를 설명한다.
단계 S7301에서, 맵핑부(7302)는 계수 세트 메모리(7303)에 기억되어 있는, 배경 성분 화상에 대응하는 계수 세트에 기초하여, 클래스 분류 적응 처리에 의해 프레임 메모리(7301)에 기억되어 있는, 배경 성분 화상에 대응하는 화상을 예측한다. 배경 성분 화상에 대응하는 화상의 예측 처리의 상세한 내용은 도 188의 흐름도를 참조하여 후술한다.
맵핑부(7302)는 배경 성분 화상에 대응하는 예측된 화상을 프레임 메모리(7304)에 공급한다. 프레임 메모리(7304)는 배경 성분 화상에 대응하는 예측된 화상을 기억하고, 기억하고 있는 예측된 화상을 합성부(7308)에 공급한다.
단계 S7302에서 선형 보간 처리부(7306)는 프레임 메모리(7305)에 기억되어 있는 전경 성분 화상을 선형 보간한다. 선형 보간 처리부(7306)는 선형 보간된 화상을 프레임 메모리(7307)에 공급한다. 프레임 메모리(7307)는 선형 보간된 화상을 기억하고, 기억하고 있는 선형 보간된 화상을 합성부(7308)에 공급한다.
단계 S7303에서 합성부(7308)는 배경 성분 화상에 대응하는 예측 화상, 및 전경 성분 화상을 선형 보간한 화상을 합성한다. 합성부(7308)는 기억하고 있는 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 184에 구성을 도시한 분리 화상 처리부(7001)를 갖는 화상 처리 장치는 배경 성분 화상에 대응하는 예측 화상을 생성하고, 전경 성분 화상에 대응하는 선형 보간된 화상을 개별적으로 생성하고, 생성된 화상을 합성하여 출력할수 있다.
또, 단계 S7301 및 단계 S7302의 처리를 직렬로 실행해도, 병렬로 실행해도 물론 된다.
도 188의 흐름도를 참조하여, 단계 S7301에 대응하는 맵핑부(7302)에 의한 배경 성분 화상에 대응하는 화상의 예측 처리를 설명한다.
단계 S7321에서 맵핑부(7302)는 배경 성분 화상에 미처리의 화소가 있는지의 여부를 판정하여, 배경 성분 화상에 미처리의 화소가 있다고 판정된 경우, 단계 S7322로 진행하고, 맵핑 처리부(7321)는 계수 세트 메모리(7303)에 기억되어 있는, 배경 성분 화상에 대응하는 계수 세트를 취득한다. 단계 S7323에서 맵핑 처리부(7321)는 래스터 스캔순으로, 프레임 메모리(7301)에 기억되어 있는, 배경 성분 화상으로부터 주목 화소를 취득한다.
단계 S7324에서 클래스 분류부(7331)의 클래스 탭 취득부(7351)는 프레임 메모리(7301)에 기억되어 있는, 배경 성분 화상으로부터, 주목 화소에 대응하는 클래스 탭을 취득한다. 단계 S7325에서 클래스 분류부(7331)의 파형 분류부(7352)는 클래스 탭에 대하여, ADRC 처리를 적용하고, 이에 의해 클래스 탭을 구성하는 화소의 비트 수를 작게 하여, 주목 화소를 클래스 분류한다. 단계 S7326에서 예측 탭 취득부(7332)는 분류된 클래스에 기초하여, 프레임 메모리(7301)에 기억되어 있는, 배경 성분 화상으로부터 주목 화소에 대응하는 예측 탭을 취득한다.
단계 S7327에서 예측 연산부(7333)는 배경 성분 화상 및 분류된 클래스에 대응하는 계수 세트, 및 예측 탭에 기초하여, 선형 예측에 의해 예측 화상의 화소값을 예측한다.
또, 예측 연산부(7333)는, 선형 예측에 한하지 않고, 비선형 예측에 의해 예측 화상의 화소값을 예측하도록 해도 된다.
단계 S7328에서, 예측 연산부(7333)는, 예측된 화소값을 프레임 메모리(7322)에 출력한다. 프레임 메모리(7322)는, 예측 연산부(7333)로부터 공급된 화소값을 기억한다. 단계는, 단계 S7321에 되돌아가, 미처리의 화소가 있는지의 여부의 판정을 반복한다.
단계 S7321에서, 배경 성분 화상에 미처리의 화소가 없다고 판정된 경우, 단계 S7329로 진행하고, 프레임 메모리(7322)는, 기억되어 있는, 배경 성분 화상에 대응하는 예측 화상을 출력하고, 처리는 종료한다.
이와 같이, 맵핑부(7302)는, 배경 성분 화상에 기초하여, 배경 성분 화상에 대응하는 화상을 예측 할 수 있다.
이와 같이, 도 184에 구성을 나타내는 분리 화상 처리부(7001)는, 배경 성분 화상에 대응하는 예측 화상을 생성하고, 전경 성분 화상을 선형 보간 할 수 있기 때문에, 움직임 불선명을 포함하는 전경 성분 화상에 부자연스러운 화상의 열화를 발생시키지 않고, 공간 방향의 해상도를 증가시킨 화상을 생성 할 수 있다.
도 189는, 배경 성분 화상에 엣지 강조 처리를 적용하는 분리 화상 처리부(7001)의 다른 구성을 나타내는 블록도이다. 도 189에 구성을 나타내는 분리 화상 처리부(7001)는, 배경 성분 화상에 엣지 강조 처리를 적용하여, 그 대로의 전경 성분 화상과, 엣지 강조 처리가 적용된 배경 성분 화상을 합성한다.
전경 배경 분리부(105)로부터 공급된 배경 성분 화상은 엣지 강조부(7501)에 입력되고, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 합성부(7502)에 입력된다.
엣지 강조부(7501)는 전경 배경 분리부(105)로부터 공급된 배경 성분 화상에, 배경 성분 화상에 적합한 엣지 강조 처리를 적용하여, 엣지 강조한 배경 성분 화상을 합성부(7502)에 공급한다.
예를 들면, 엣지 강조부(7501)는 정지하고 있는 화상인 배경 성분 화상에 엣지를 보다 강조하는 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 발생시키지 않고, 배경 성분 화상의 해상도감을 보다 증가시킬 수 있다.
또한, 예를 들면 배경이 움직이고 있을 때, 엣지 강조부(7501)는 배경 성분 화상에, 배경이 정지하고 있는 경우와 비교하여, 엣지 강조의 정도가 적은 엣지 강조 처리를 실행한다. 이와 같이 함으로써, 움직이고 있는 화상에 엣지 강조 처리를 적용했을 때의 부자연스러운 화상의 열화를 발생시키지 않고, 배경 성분 화상의 해상도감을 보다 증가시킬 수 있다.
합성부(7502)는 엣지 강조부(7501)로부터 공급된, 엣지 강조된 배경 성분 화상, 및 전경 배경 분리부(105)로부터 공급된 전경 성분 화상을 합성하고, 합성된 화상을 출력한다.
이와 같이, 도 189에 구성을 나타내는 분리 화상 처리부(7001)는 그 상태에서의 전경 성분 화상과, 배경 성분 화상의 성질에 대응한 엣지 강조 처리가 적용된배경 성분 화상을 합성하므로, 화상을 부자연스럽게 열화시키지 않고, 화상의 해상도감을 증가시킬 수 있다.
도 190은 엣지 강조부(7501)의 구성을 도시한 블록도이다. 배경 성분 화상은 고역 통과 필터(7521) 및 가산부(7523)에 입력된다.
고역 통과 필터(7521)는 입력된 필터 계수에 기초하여, 배경 성분 화상으로부터 화소 위치에 대하여 화소값이 급격하게 변화하고 있는, 소위 화상의 주파수가 높은 성분을 추출하고, 화소 위치에 대하여 화소값의 변화가 적은, 소위 화상의 주파수가 낮은 성분을 제거하여, 엣지 화상을 생성한다.
고역 통과 필터(7521)는 생성한 엣지 화상을 게인 조정부(7522)에 공급한다.
게인 조정부(7522)는 입력된 게인 조정 계수에 기초하여, 고역 통과 필터(7521)로부터 공급된 엣지 화상을 증폭하거나, 또는 감쇠한다. 입력되는 게인 조정 계수가 변화했을 때, 게인 조정부(7522)는 엣지 화상의 증폭율(감쇠율)을 변화시키는, 예를 들면, 게인 조정부(7522)는 1 이상의 증폭율을 지정하는 게인 조정 계수가 입력되었을 때, 엣지 화상을 증폭시키고, 1 미만의 증폭율을 지정하는 게인 조정 계수가 입력되었을 때, 엣지 화상을 감쇠한다.
게인 조정부(7522)는 게인이 조정된 엣지 화상을 가산부(7523)에 공급한다.
가산부(7523)는 배경 성분 화상과, 게인 조정부(7522)로부터 공급된, 게인이 조정된 엣지 화상을 가산하고, 가산된 화상을 출력한다.
이와 같이, 엣지 강조부(7501)는 배경 성분 화상에 엣지 강조 처리를 적용한다.
도 191은 엣지 강조부(7501)의 다른 구성을 도시한 블록도이다. 도 191에 도시한 예에서 엣지 강조부(7501)는 필터(7541)로 구성되어 있다.
필터(7541)는 입력된 필터 계수에 기초하여, 배경 성분 화상의, 화소 위치에 대하여 화소값이 급격하게 변화하고 있는, 소위 화상의 주파수가 높은 성분을 증폭시켜, 엣지 강조 화상을 생성한다.
이상과 같이, 엣지 강조부(7501)는, 예를 들면, 다른 필터 계수 또는 게인 조정 계수에 기초하여, 배경 성분 화상의 성질에 대응한 엣지 강조 처리를 실행한다.
도 192는 도 189에 구성을 도시한 분리 화상 처리부(7001)의 처리를 설명하는 도면이다.
도 192에 도시한 바와 같이, 입력 화상은, 영역으로 분할되고, 전경 성분과 배경 성분으로 분리된다. 분리된 입력 화상은 전경 성분 화상 및 배경 성분 화상에 합성된다.
분리 화상 처리부(7001)에 의해, 분리된 배경 성분 화상에는 엣지 강조 처리가 적용되고, 엣지 강조된 배경 성분 화상이 출력된다. 분리된 전경 성분 화상은 그대로 출력된다.
이어서, 도 193의 흐름도를 참조하여, 도 189에 구성을 도시한 분리 화상 처리부(7001)의 처리를 설명한다.
단계 S7501에서 엣지 강조부(7501)는 배경 성분 화상에 엣지 강조 처리를 적용한다. 엣지 강조부(7501)는 엣지 강조된 배경 성분 화상을 합성부(7502)에 공급한다.
단계 S7502에서 합성부(7502)는 엣지 강조된 배경 성분 화상과, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상을 합성하고, 합성된 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 189에 구성을 나타내는 분리 화상 처리부(7001)을 갖는 화상 처리 장치는, 배경 성분 화상을 엣지 강조하여, 엣지 강조된 배경 성분 화상과, 그 대로의 전경 성분 화상을 합성하고, 합성된 화상을 출력할 수 있으므로, 움직임 불선명을 포함하는 전경 성분 화상에 부자연스러운 화상의 열화를 발생시키지 않고, 해상도감을 증가시킨 화상을 생성할 수 있다.
도 194는 화상 처리 장치의 기능의 또 다른 구성을 도시한 블록도이다. 도 178에 도시한 화상 처리 장치가 영역 특정과 혼합비α의 산출을 순서대로 행하는 데 대하여, 도 194에 도시한 화상 처리 장치는 영역 특정과 혼합비α의 산출을 병행하여 행한다.
도 178의 블록도에 도시한 기능과 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(3001), 및 전경 배경 분리부(3002)에 공급된다.
혼합비 산출부(3001)는 입력 화상에 기초하여, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를 입력 화상에 포함되는 화소의 각각에 대하여 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를 전경 배경 분리부(3002)에 공급한다.
이상과 같이, 본 발명에 따른 화상 처리 장치는 배경의 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리할 수 있다.
또한, 본 발명에 따른 화상 처리 장치는 움직임 불선명을 포함하는 화상을, 부자연스러운 화상으로 하지 않고, 해상도감을 충분히 향상시킬 수 있다.
또, 전경이 되는 오브젝트의 움직임의 방향은 좌측으로부터 우측으로 하여 설명하였지만, 그 방향에 한정되지 않은 것은 물론이다.
이상에서는, 3차원 공간과 시간 축 정보를 갖는 현실 공간의 화상을 비디오 카메라를 이용하여 2차원 공간과 시간 축 정보를 갖는 시공 사이에의 사영을 행한 경우를 예로 했지만, 본 발명은 이 예에 한하지 않고, 보다 많은 제1 차원의 제1 정보를 보다 적은 제2 차원의 제2 정보에 사영한 경우에 적응하는 것이 가능하다.
또, 센서는 CCD에 한하지 않고, 고체 촬상 소자인, 예를 들면 CMOS (Complementary Metal Oxide Semiconductor (상보성 금속 산화막 반도체)), BBD (Bucket Brigade Device), CID(Charge Injection Device), 또는 CPD(Charge Priming Device) 등의 센서라도 되며, 또한 검출 소자가 매트릭스형으로 배치되어 있는 센서에 한하지 않고, 검출 소자가 1열로 배열되어 있는 센서라도 된다.
본 발명의 신호 처리를 행하는 프로그램을 기록한 기록 매체는, 도 10에 도시한 바와 같이, 컴퓨터와는 별도로 사용자에게 프로그램을 제공하기 위해 배포되는 프로그램이 기록되어 있는 자기 디스크(91)(플로피(등록상표) 디스크를 포함함), 광 디스크(92)(CD-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)를 포함함), 광 자기 디스크(93)(MD (Mini-Disc) (상표)를 포함함), 혹은 반도체 메모리(94)등으로 이루어지는 패키지 미디어에 의해 구성되는 것뿐만 아니라, 컴퓨터에 미리 조립된 상태에서 사용자에게 제공되는 프로그램이 기록되어 있는 ROM (72)이나 기억부(78)에 포함되는 하드디스크 등으로 구성된다.
또, 본 명세서에서 기록 매체에 기록되는 프로그램을 기술하는 단계는 기재된 순서에 따라 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않고 병렬적 혹은 개별로 실행되는 처리도 포함하는 것이다.
제1 본 발명에 따르면, 배경의 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리할 수 있게 된다.
제2 본 발명에 따르면, 배경의 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리할 수 있게 된다.
제3 본 발명에 따르면, 움직임 불선명을 포함하는 화상을, 부자연스러운 화상으로 하지 않고, 해상도감을 충분히 향상시킬 수 있게 된다.
제4 본 발명에 따르면, 배경의 화상과 이동하는 물체의 화상과의 혼합에 대응하여 화상을 처리할 수 있게 된다.

Claims (100)

  1. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과,
    상기 영역 특정 정보에 의해서 특정되는 영역마다, 상기 입력 화상 데이터를 처리하는 처리 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  2. 제1항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 대응하여, 상기 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 것을 특징으로 하는 화상 처리 장치.
  3. 제1항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 대응하여, 상기 입력 화상 데이터의 엣지를 강조하는 것을 특징으로 하는 화상 처리 장치.
  4. 제1항에 있어서,
    상기 처리 수단은, 상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터를 처리하는 것을 특징으로 하는 화상 처리 장치.
  5. 제1항에 있어서,
    상기 영역 특정 수단은, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하며,
    상기 처리 수단은 또한 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다, 상기 입력 화상 데이터를 처리하는 것을 특징으로 하는 화상 처리 장치.
  6. 제1항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 의해서 특정되는 영역마다, 클래스 분류 적응 처리에 있어서 사용되는 계수를 생성하는 것을 특징으로 하는 화상 처리 장치.
  7. 제1항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 의해서 특정되는 영역마다, 클래스 분류 적응 처리에 의해, 출력 화상 데이터를 생성하는 것을 특징으로 하는 화상 처리 장치.
  8. 제1항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 의해서 특정되는 영역마다, 상기 입력 화상 데이터의 엣지를 강조하는 것을 특징으로 하는 화상 처리 장치.
  9. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 의해 특정되는 영역마다, 상기 입력 화상 데이터를 처리하는 처리 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  10. 제9항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스가 결정되는 것을 특징으로 하는 화상 처리 방법.
  11. 제9항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 화상 처리 방법.
  12. 제9항에 있어서,
    상기 처리 단계에 있어서는, 상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터가 처리되는 것을 특징으로 하는 화상 처리 방법.
  13. 제9항에 있어서,
    상기 영역 특정 단계에 있어서는, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되고, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되며,
    상기 처리 단계에 있어서는, 또한 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다, 상기 입력 화상 데이터가 처리되는 것을 특징으로 하는 화상처리 방법.
  14. 제9항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 있어서 사용되는 계수가 생성되는 것을 특징으로 하는 화상 처리 방법.
  15. 제9항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 의해, 출력 화상 데이터가 생성되는 것을 특징으로 하는 화상 처리 방법.
  16. 제9항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해서 특정되는 영역마다, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 화상 처리 방법.
  17. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리용의 프로그램으로서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 의해 특정되는 영역마다 상기 입력 화상 데이터를 처리하는 처리 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  18. 제17항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스가 결정되는 것을 특징으로 하는 기록 매체.
  19. 제17항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 기록 매체.
  20. 제17항에 있어서,
    상기 처리 단계에 있어서는, 상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터가 처리되는 것을 특징으로 하는 기록 매체.
  21. 제17항에 있어서,
    상기 영역 특정 단계에 있어서는, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되며,
    상기 처리 단계에 있어서는, 또한 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다, 상기 입력 화상 데이터가 처리되는 것을 특징으로 하는 기록 매체.
  22. 제17항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 있어서 사용되는 계수가 생성되는 것을 특징으로 하는 기록 매체.
  23. 제17항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 의해 출력 화상 데이터가 생성되는 것을 특징으로 하는 기록 매체.
  24. 제17항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해 특정되는 영역마다, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 기록 매체.
  25. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 컴퓨터에,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 의해서 특정되는 영역마다 상기 입력 화상 데이터를 처리하는 처리 단계
    를 실행시키는 프로그램.
  26. 제25항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스가 결정되는 것을 특징으로 하는 프로그램.
  27. 제25항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 프로그램.
  28. 제25항에 있어서,
    상기 처리 단계에 있어서는, 상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터가 처리되는 것을 특징으로 하는 프로그램.
  29. 제25항에 있어서,
    상기 영역 특정 단계에 있어서는, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되어, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되고,
    상기 처리 단계에 있어서는, 또한 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다 상기 입력 화상 데이터가 처리되는 것을 특징으로 하는 프로그램.
  30. 제25항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 있어서 사용되는 계수가 생성되는 것을 특징으로 하는 프로그램.
  31. 제25항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 의해 출력 화상 데이터가 생성되는 것을 특징으로 하는 프로그램.
  32. 제25항에 있어서,
    상기 처리 단계에 있어서는, 상기 영역 특정 정보에 의해 특정되는 영역마다, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 프로그램.
  33. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과,
    상기 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과,
    상기 영역 특정 정보에 의해서 특정되는 영역마다, 상기 화상 데이터를 처리하는 처리 수단
    을 포함하는 것을 특징으로 하는 촬상 장치.
  34. 제33항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 대응하고, 상기 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 것을 특징으로 하는 촬상 장치.
  35. 제33항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 대응하고, 상기 화상 데이터의 엣지를 강조하는 것을 특징으로 하는 촬상 장치.
  36. 제33항에 있어서,
    상기 처리 수단은, 상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터를 처리하는 것을 특징으로 하는 촬상 장치.
  37. 제33항에 있어서,
    상기 영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하고,
    상기 처리 수단은 또한 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역마다, 상기 화상 데이터를 처리하는 것을 특징으로 하는 촬상 장치.
  38. 제33항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 의해 특정되는 영역마다, 클래스 분류 적응 처리에 있어서 사용되는 계수를 생성하는 것을 특징으로 하는 촬상 장치.
  39. 제33항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 의해서 특정되는 영역마다, 클래스 분류 적응 처리에 의해 출력 화상 데이터를 생성하는 것을 특징으로 하는 촬상 장치.
  40. 제33항에 있어서,
    상기 처리 수단은, 상기 영역 특정 정보에 의해 특정되는 영역마다, 상기 화상 데이터의 엣지를 강조하는 것을 특징으로 하는 촬상 장치.
  41. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리 장치에있어서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과,
    상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  42. 제41항에 있어서,
    상기 클래스 결정 수단은, 상기 혼합 영역, 상기 전경 영역, 및 상기 배경 영역 중의 일부의 영역만의 상기 화소 데이터에 대응하는 클래스를 결정하는 것을 특징으로 하는 화상 처리 장치.
  43. 제41항에 있어서,
    결정된 상기 클래스에 대응하고, 상기 입력 화상 데이터의 상기 화소 데이터를 처리하고, 클래스 분류 적응 처리에 있어서 사용되는 계수를 생성하는 생성 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  44. 제41항에 있어서,
    결정된 상기 클래스에 대응하고, 상기 클래스마다의 계수에 기초하여, 상기 입력 화상 데이터의 상기 화소 데이터를 처리하고, 상기 입력 화상 데이터를 출력 화상 데이터로 변환하는 변환 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  45. 제41항에 있어서,
    상기 영역 특정 수단은, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하며, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하고,
    상기 클래스 결정 수단은, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하며, 상기 입력 화상 데이터의 상기 화소 데이터에 대응하는 상기 클래스를 결정하는 것을 특징으로 하는 화상 처리 장치.
  46. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  47. 제46항에 있어서,
    상기 클래스 결정 단계에 있어서는, 상기 혼합 영역, 상기 전경 영역, 및 상기 배경 영역 중의 일부의 영역만의 상기 화소 데이터에 대응하는 클래스가 결정되는 것을 특징으로 하는 화상 처리 방법.
  48. 제46항에 있어서,
    결정된 상기 클래스에 대응하고, 상기 입력 화상 데이터의 상기 화소 데이터를 처리하고, 클래스 분류 적응 처리에 있어서 사용되는 계수를 생성하는 생성 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  49. 제46항에 있어서,
    결정된 상기 클래스에 대응하고, 상기 클래스마다의 계수에 기초하여, 상기 입력 화상 데이터의 상기 화소 데이터를 처리하고, 상기 입력 화상 데이터를 출력화상 데이터로 변환하는 변환 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  50. 제46항에 있어서,
    상기 영역 특정 단계에 있어서는, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되어, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되고,
    상기 클래스 결정 단계에서는 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 입력 화상 데이터의 상기 화소 데이터에 대응하는 상기 클래스가 결정되는 것을 특징으로 하는 화상 처리 방법.
  51. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리용의 프로그램으로서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  52. 제51항에 있어서,
    상기 클래스 결정 단계에 있어서는, 상기 혼합 영역, 상기 전경 영역, 및 상기 배경 영역 중 일부 영역만의 상기 화소 데이터에 대응하는 클래스가 결정되는 것을 특징으로 하는 기록 매체.
  53. 제51항에 있어서,
    상기 프로그램은 결정된 상기 클래스에 대응하고, 상기 입력 화상 데이터의 상기 화소 데이터를 처리하고, 클래스 분류 적응 처리에 있어서 사용되는 계수를 생성하는 생성 단계를 더 포함하는 것을 특징으로 하는 기록 매체.
  54. 제51항에 있어서,
    상기 프로그램은 결정된 상기 클래스에 대응하고, 상기 클래스마다의 계수에 기초하여, 상기 입력 화상 데이터의 상기 화소 데이터를 처리하고, 상기 입력 화상 데이터를 출력 화상 데이터로 변환하는 변환 단계를 더 포함하는 것을 특징으로 하는 기록 매체.
  55. 제51항에 있어서,
    상기 영역 특정 단계에 있어서는, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되고,
    상기 클래스 결정 단계에 있어서는, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 입력 화상 데이터의 상기 화소 데이터에 대응하는 상기 클래스가 결정되는 것을 특징으로 하는 기록 매체.
  56. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 컴퓨터에,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 단계
    를 실행시키는 프로그램.
  57. 제56항에 있어서,
    상기 클래스 결정 단계에 있어서는, 상기 혼합 영역, 상기 전경 영역, 및 상기 배경 영역 중 일부의 영역만의 상기 화소 데이터에 대응하는 클래스가 결정되는 것을 특징으로 하는 프로그램.
  58. 제56항에 있어서,
    결정된 상기 클래스에 대응하고, 상기 입력 화상 데이터의 상기 화소 데이터를 처리하고, 클래스 분류 적응 처리에 있어서 사용되는 계수를 생성하는 생성 단계를 더 포함하는 것을 특징으로 하는 프로그램.
  59. 제56항에 있어서,
    결정된 상기 클래스에 대응하고, 상기 클래스마다의 계수에 기초하여, 상기 입력 화상 데이터의 상기 화소 데이터를 처리하며, 상기 입력 화상 데이터를 출력 화상 데이터로 변환하는 변환 단계를 더 포함하는 것을 특징으로 하는 프로그램.
  60. 제56항에 있어서,
    상기 영역 특정 단계에 있어서는, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되어, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되고,
    상기 클래스 결정 단계에 있어서는, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 입력 화상 데이터의 상기 화소 데이터에 대응하는 상기 클래스가 결정되는 것을 특징으로 하는 프로그램.
  61. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을 소정 수의 화소 데이터로 이루어지는 촬상 화상 데이터로서 출력하는 촬상 수단과,
    상기 촬상 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과,
    상기 영역 특정 정보에 대응하고, 상기 촬상 화상 데이터의 각 화소 데이터에 대응하는 클래스를 결정하는 클래스 결정 수단
    을 포함하는 것을 특징으로 하는 촬상 장치.
  62. 제61항에 있어서,
    상기 클래스 결정 수단은, 상기 혼합 영역, 상기 전경 영역, 및 상기 배경 영역 중의 일부의 영역만의 상기 화소 데이터에 대응하는 클래스를 결정하는 것을특징으로 하는 촬상 장치.
  63. 제61항에 있어서,
    결정된 상기 클래스에 대응하고, 상기 촬상 화상 데이터의 상기 화소 데이터를 처리하여, 클래스 분류 적응 처리에 있어서 사용되는 계수를 생성하는 생성 수단을 더 포함하는 것을 특징으로 하는 촬상 장치.
  64. 제61항에 있어서,
    결정된 상기 클래스에 대응하고, 상기 클래스마다의 계수에 기초하여, 상기 촬상 화상 데이터의 상기 화소 데이터를 처리하여, 상기 촬상 화상 데이터를 출력 화상 데이터로 변환하는 변환 수단을 더 포함하는 것을 특징으로 하는 촬상 장치.
  65. 제61항에 있어서,
    상기 영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하고,
    상기 클래스 결정 수단은, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 촬상 화상 데이터의 상기 화소 데이터에 대응하는 상기 클래스를 결정하는 것을 특징으로 하는 촬상 장치.
  66. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과,
    상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 엣지를 강조하는 엣지 강조 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  67. 제66항에 있어서,
    상기 영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하고,
    상기 엣지 강조 수단은, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 입력 화상 데이터의 엣지를 강조하는 것을 특징으로 하는 화상 처리 장치.
  68. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 엣지를 강조하는 엣지 강조 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  69. 제68항에 있어서,
    상기 영역 특정 단계에 있어서, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되고,
    상기 엣지 강조 단계에 있어서, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 화상 처리 방법.
  70. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리용 프로그램으로서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 엣지를 강조하는 엣지 강조 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  71. 제70항에 있어서,
    상기 영역 특정 단계에 있어서, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되고,
    상기 엣지 강조 단계에 있어서, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 기록 매체.
  72. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 컴퓨터에,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 영역 특정 정보에 대응하고, 상기 입력 화상 데이터의 엣지를 강조하는 엣지 강조 단계
    를 실행시키는 프로그램.
  73. 제72항에 있어서,
    상기 영역 특정 단계에 있어서, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되고,
    상기 엣지 강조 단계에 있어서, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 입력 화상 데이터의 엣지가 강조되는 것을 특징으로 하는 프로그램.
  74. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과,
    상기 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역과, 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과,
    상기 영역 특정 정보에 대응하고, 상기 화상 데이터의 엣지를 강조하는 엣지 강조 수단
    을 포함하는 것을 특징으로 하는 촬상 장치.
  75. 제74항에 있어서,
    상기 영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하고,
    상기 엣지 강조 수단은, 특정된 상기 커버드 백그라운드 영역 또는 상기 언커버드 백그라운드 영역에 대응하고, 상기 화상 데이터의 엣지를 강조하는 것을 특징으로 하는 촬상 장치.
  76. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역, 및 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과,
    상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터를 처리하는 처리 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  77. 제76항에 있어서,
    상기 처리 수단은, 상기 영역 특정 수단에 의해 특정되는 1개의 영역을, 다른 영역의 처리의 방식과 다른 방식으로 처리하는 것을 특징으로 하는 화상 처리 장치.
  78. 제76항에 있어서,
    상기 영역 특정 수단은, 상기 전경 영역 및 상기 배경 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하는 것을 특징으로 하는 화상처리 장치.
  79. 제76항에 있어서,
    상기 영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하는 것을 특징으로 하는 화상 처리 장치.
  80. 제76항에 있어서,
    상기 영역 특정 정보에 기초하여, 상기 혼합 영역의 상기 화소 데이터를 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하는 분리 수단을 더 포함하고,
    상기 처리 수단은, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분 중 적어도 한쪽을 처리하는 것을 특징으로 하는 화상 처리 장치.
  81. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역, 및 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터를 처리하는 처리 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  82. 제81항에 있어서,
    상기 처리 단계에 있어서, 상기 영역 특정 단계의 처리에 의해 특정되는 1개의 영역이, 다른 영역의 처리의 방식과 다른 방식으로 처리되는 것을 특징으로 하는 화상 처리 방법.
  83. 제81항에 있어서,
    상기 영역 특정 단계에 있어서, 상기 전경 영역 및 상기 배경 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되는 것을 특징으로 하는 화상 처리 방법.
  84. 제81항에 있어서,
    상기 영역 특정 단계에 있어서, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되는것을 특징으로 하는 화상 처리 방법.
  85. 제81항에 있어서,
    상기 영역 특정 정보에 기초하여, 상기 혼합 영역의 상기 화소 데이터를 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하는 분리 단계를 더 포함하고,
    상기 처리 단계에 있어서, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분 중 적어도 한쪽이 처리되는 것을 특징으로 하는 화상 처리 방법.
  86. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 화상 처리용 프로그램으로서,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역, 및 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터를 처리하는 처리 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  87. 제86항에 있어서,
    상기 처리 단계에 있어서, 상기 영역 특정 단계의 처리에 의해 특정되는 1개의 영역이, 다른 영역의 처리의 방식과 다른 방식으로 처리되는 것을 특징으로 하는 기록 매체.
  88. 제86항에 있어서,
    상기 영역 특정 단계에 있어서, 상기 전경 영역 및 상기 배경 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되는 것을 특징으로 하는 기록 매체.
  89. 제86항에 있어서,
    상기 영역 특정 단계에 있어서, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되는 것을 특징으로 하는 기록 매체.
  90. 제86항에 있어서,
    상기 프로그램은, 상기 영역 특정 정보에 기초하여, 상기 혼합 영역의 상기화소 데이터를 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하는 분리 단계를 더 포함하고,
    상기 처리 단계에 있어서, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분 중 적어도 한쪽이 처리되는 것을 특징으로 하는 기록 매체.
  91. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 입력 화상 데이터를 처리하는 컴퓨터에,
    상기 입력 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역, 및 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 단계와,
    상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터를 처리하는 처리 단계
    를 실행시키는 프로그램.
  92. 제91항에 있어서,
    상기 처리 단계에 있어서, 상기 영역 특정 단계의 처리에 의해 특정되는 하나의 영역이, 다른 영역의 처리의 방식과 다른 방식으로 처리되는 것을 특징으로하는 프로그램.
  93. 제91항에 있어서,
    상기 영역 특정 단계에 있어서, 상기 전경 영역 및 상기 배경 영역이 더 특정되며, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되는 것을 특징으로 하는 프로그램.
  94. 제91항에 있어서,
    상기 영역 특정 단계에 있어서, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역이 더 특정되어, 특정 결과에 대응하는 상기 영역 특정 정보가 출력되는 것을 특징으로 하는 프로그램.
  95. 제91항에 있어서,
    상기 영역 특정 정보에 기초하여, 상기 혼합 영역의 상기 화소 데이터를 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하는 분리 단계를 더 포함하고,
    상기 처리 단계에 있어서, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분 중 적어도 한쪽이 처리되는 것을 특징으로 하는 프로그램.
  96. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과,
    상기 화상 데이터에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분, 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역, 및 상기 전경 오브젝트 성분으로 이루어지는 전경 영역, 및 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 중 한쪽에 의해 구성되는 비혼합 영역 중 적어도 한쪽을 특정하고, 특정 결과에 대응하는 영역 특정 정보를 출력하는 영역 특정 수단과,
    상기 혼합 영역 및 상기 비혼합 영역 중 적어도 한쪽 영역의 상기 화소 데이터를 처리하는 처리 수단
    을 포함하는 것을 특징으로 하는 촬상 장치.
  97. 제96항에 있어서,
    상기 처리 수단은, 상기 영역 특정 수단에 의해 특정되는 1개의 영역을 다른 영역의 처리의 방식과 다른 방식으로 처리하는 것을 특징으로 하는 촬상 장치.
  98. 제96항에 있어서,
    상기 영역 특정 수단은 상기 전경 영역 및 상기 배경 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하는 것을 특징으로 하는 촬상 장치.
  99. 제96항에 있어서,
    상기 영역 특정 수단은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 더 특정하고, 특정 결과에 대응하는 상기 영역 특정 정보를 출력하는 것을 특징으로 하는 촬상 장치.
  100. 제96항에 있어서,
    상기 영역 특정 정보에 기초하여, 상기 혼합 영역의 상기 화소 데이터를 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하는 분리 수단을 더 포함하고,
    상기 처리 수단은, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분 중 적어도 한쪽을 처리하는 것을 특징으로 하는 촬상 장치.
KR1020037002092A 2001-06-15 2002-06-13 화상 처리 장치 및 방법과 촬상 장치 KR100904340B1 (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
JP2001181397A JP4660979B2 (ja) 2001-06-15 2001-06-15 画像処理装置および方法、記録媒体、並びにプログラム
JP2001181399A JP4660980B2 (ja) 2001-06-15 2001-06-15 画像処理装置および方法、記録媒体、並びにプログラム
JP2001181395A JP4596212B2 (ja) 2001-06-15 2001-06-15 画像処理装置および方法、記録媒体、並びにプログラム
JP2001181398A JP4596214B2 (ja) 2001-06-15 2001-06-15 画像処理装置および方法、記録媒体、並びにプログラム
JPJP-P-2001-00181398 2001-06-15
JPJP-P-2001-00181395 2001-06-15
JPJP-P-2001-00181399 2001-06-15
JPJP-P-2001-00181397 2001-06-15
PCT/JP2002/005875 WO2002103635A1 (fr) 2001-06-15 2002-06-13 Dispositif et procede de traitement d'images et dispositif de prises de vue

Publications (2)

Publication Number Publication Date
KR20030028568A true KR20030028568A (ko) 2003-04-08
KR100904340B1 KR100904340B1 (ko) 2009-06-23

Family

ID=27482340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037002092A KR100904340B1 (ko) 2001-06-15 2002-06-13 화상 처리 장치 및 방법과 촬상 장치

Country Status (5)

Country Link
US (1) US7336818B2 (ko)
EP (1) EP1396818B1 (ko)
KR (1) KR100904340B1 (ko)
CA (1) CA2418810C (ko)
WO (1) WO2002103635A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100574227B1 (ko) * 2003-12-18 2006-04-26 한국전자통신연구원 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
KR101366596B1 (ko) * 2007-08-03 2014-03-14 삼성전자주식회사 이차원 정지 화상에 대해 몰입감을 생성하는 방법 및시스템 그리고 상기 몰입감 생성을 위한 팩터 조절 방법,이미지 콘텐트 분석 방법 및 스케일링 파라미터 예측 방법

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003001456A1 (fr) * 2001-06-26 2003-01-03 Sony Corporation Appareil et procede de traitement de l'image, et appareil de prise de vue
JP4596220B2 (ja) 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
WO2005079061A1 (ja) * 2004-02-13 2005-08-25 Sony Corporation 画像処理装置と画像処理方法およびプログラム
WO2005079062A1 (ja) * 2004-02-13 2005-08-25 Sony Corporation 画像処理装置と画像処理方法およびプログラム
JP4677753B2 (ja) * 2004-10-01 2011-04-27 株式会社ニコン 動画像処理装置及び方法
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US7446914B2 (en) * 2005-03-16 2008-11-04 Kabushiki Kaisha Toshiba Image processing apparatus
US20080192116A1 (en) * 2005-03-29 2008-08-14 Sportvu Ltd. Real-Time Objects Tracking and Motion Capture in Sports Events
KR100735551B1 (ko) * 2005-10-14 2007-07-04 삼성전자주식회사 칼라 영역별 적응적 필터링 방법 및 장치
WO2007077719A1 (ja) * 2005-12-27 2007-07-12 Kyocera Corporation 撮像装置およびその画像処理方法
US7532767B2 (en) * 2006-05-31 2009-05-12 Xerox Corporation Removing ringing and blocking artifacts from JPEG compressed document images
JP4139430B1 (ja) * 2007-04-27 2008-08-27 シャープ株式会社 画像処理装置及び方法、画像表示装置及び方法
TWI431608B (zh) * 2007-09-12 2014-03-21 Quanta Comp Inc 影像處理方法及電腦可讀取媒介
JP5061883B2 (ja) * 2007-12-21 2012-10-31 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および学習装置
WO2009150696A1 (ja) * 2008-06-10 2009-12-17 富士通株式会社 画像補正装置および画像補正方法
JP2010193420A (ja) * 2009-01-20 2010-09-02 Canon Inc 装置、方法、プログラムおよび記憶媒体
JP4780215B2 (ja) * 2009-03-27 2011-09-28 富士ゼロックス株式会社 画像処理装置および画像処理プログラム
JP5460173B2 (ja) * 2009-08-13 2014-04-02 富士フイルム株式会社 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
KR20110065997A (ko) * 2009-12-10 2011-06-16 삼성전자주식회사 영상처리장치 및 영상처리방법
JP2013239108A (ja) * 2012-05-17 2013-11-28 Sony Corp 画像処理装置および方法、学習装置および方法、並びに、プログラム
US9928628B2 (en) 2013-05-13 2018-03-27 Nokia Technologies Oy Method, apparatus and computer program product to represent motion in composite images
US9135683B2 (en) * 2013-09-05 2015-09-15 Arecont Vision, Llc. System and method for temporal video image enhancement
US9253415B2 (en) * 2013-11-27 2016-02-02 Adobe Systems Incorporated Simulating tracking shots from image sequences
US10984538B2 (en) * 2016-03-09 2021-04-20 Nec Corporation Image-processing device, image-processing method, and recording medium
US11665308B2 (en) 2017-01-31 2023-05-30 Tetavi, Ltd. System and method for rendering free viewpoint video for sport applications
WO2020110169A1 (ja) * 2018-11-26 2020-06-04 株式会社ソニー・インタラクティブエンタテインメント 学習装置、前景領域推定装置、学習方法、前景領域推定方法、及び、プログラム
US11145040B2 (en) * 2019-08-09 2021-10-12 The Boeing Company Dynamic background clutter suppression
TWI733188B (zh) * 2019-09-11 2021-07-11 瑞昱半導體股份有限公司 用於獨立物件之運動估計的裝置以及方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9204115D0 (en) * 1992-02-26 1992-04-08 British Broadcasting Corp Video image processing
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
US5946044A (en) * 1995-06-30 1999-08-31 Sony Corporation Image signal converting method and image signal converting apparatus
US5870103A (en) * 1996-09-25 1999-02-09 Eastman Kodak Company Method for creating realistic-looking composite images
JP3812763B2 (ja) * 1996-12-04 2006-08-23 ソニー株式会社 キー信号生成装置及び方法
US6208351B1 (en) * 1997-12-22 2001-03-27 Adobe Systems Incorporated Conversion of alpha-multiplied color data
US6404901B1 (en) * 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2000030040A (ja) 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
CA2647018A1 (en) * 1999-12-28 2001-07-05 Sony Corporation Signal processing device and method, and recording medium
JP4507045B2 (ja) 2000-12-21 2010-07-21 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4507044B2 (ja) 2000-12-21 2010-07-21 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4491965B2 (ja) * 1999-12-28 2010-06-30 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4479098B2 (ja) * 2000-12-21 2010-06-09 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4674408B2 (ja) * 2001-04-10 2011-04-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100574227B1 (ko) * 2003-12-18 2006-04-26 한국전자통신연구원 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
KR101366596B1 (ko) * 2007-08-03 2014-03-14 삼성전자주식회사 이차원 정지 화상에 대해 몰입감을 생성하는 방법 및시스템 그리고 상기 몰입감 생성을 위한 팩터 조절 방법,이미지 콘텐트 분석 방법 및 스케일링 파라미터 예측 방법

Also Published As

Publication number Publication date
US20040062450A1 (en) 2004-04-01
CA2418810A1 (en) 2002-12-27
EP1396818B1 (en) 2012-10-03
CA2418810C (en) 2010-10-05
EP1396818A4 (en) 2010-11-17
KR100904340B1 (ko) 2009-06-23
WO2002103635A1 (fr) 2002-12-27
EP1396818A1 (en) 2004-03-10
US7336818B2 (en) 2008-02-26

Similar Documents

Publication Publication Date Title
KR100904340B1 (ko) 화상 처리 장치 및 방법과 촬상 장치
KR100859381B1 (ko) 화상 처리 장치 및 방법 및 촬상 장치
JP4596212B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100846261B1 (ko) 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치
KR100864338B1 (ko) 화상 처리 장치 및 방법과 촬상 장치
KR100859382B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100897965B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100924401B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램을 기록한 기록 매체 및 촬상 장치
KR100843815B1 (ko) 화상 처리 장치 및 방법
KR100799011B1 (ko) 화상 처리 장치
KR100848427B1 (ko) 화상 처리 장치
JP4596213B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100875780B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100864336B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100835443B1 (ko) 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
KR100894923B1 (ko) 화상 처리 장치, 방법 및 기록 매체와 촬상 장치
JP4660980B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596211B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100858761B1 (ko) 화상 처리 장치
JP4660979B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치
JP2004302823A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2004302822A (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120611

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee