KR20040014958A - 화상 처리 장치 및 방법, 및 촬상 장치 - Google Patents

화상 처리 장치 및 방법, 및 촬상 장치 Download PDF

Info

Publication number
KR20040014958A
KR20040014958A KR10-2003-7002832A KR20037002832A KR20040014958A KR 20040014958 A KR20040014958 A KR 20040014958A KR 20037002832 A KR20037002832 A KR 20037002832A KR 20040014958 A KR20040014958 A KR 20040014958A
Authority
KR
South Korea
Prior art keywords
pixel
foreground
component
mixing ratio
region
Prior art date
Application number
KR10-2003-7002832A
Other languages
English (en)
Other versions
KR100864336B1 (ko
Inventor
데쯔지로 곤도
준이찌 이시바시
다까시 사와오
나오끼 후지와라
다까히로 나가노
세이지 와다
도루 미야께
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20040014958A publication Critical patent/KR20040014958A/ko
Application granted granted Critical
Publication of KR100864336B1 publication Critical patent/KR100864336B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

본 발명은, 화상에 있어서의 서로 섞임 상태를 알 수 있게 한다. 영역 특정부(103)는, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정한다. 혼합비 산출부(104)는, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출한다. 적어도 영역 특정부(103) 및 혼합비 산출부(104) 중 어느 한쪽은, 복수 종류의 컴포넌트에 기초하여 화상 처리한다. 본 발명은, 화상 처리 장치에 적용할 수 있다.

Description

화상 처리 장치 및 방법, 및 촬상 장치{IMAGE PROCESSING APPARATUS AND METHOD, AND IMAGE PICKUP APPARATUS}
현실 세계에서의 사상을 센서로 검출하여, 화상 센서가 출력하는 샘플링 데이터를 처리하는 기술이 널리 이용되고 있다. 를 들면, 정지하고 있는 소정의 배경 앞에서 이동하는 물체를 비디오 카메라로 촬상하여 얻어지는 화상에는, 물체의 이동 속도가 비교적 빠른 경우, 움직임 불선명이 생기게 된다.
그러나, 정지하고 있는 배경 앞에서 물체가 이동할 때, 이동하는 물체의 화상 자신의 서로 섞임에 의한 움직임 불선명뿐만 아니라, 배경 화상과 이동하는 물체의 화상의 서로 섞임이 생긴다. 종래에는, 배경 화상과 이동하는 물체의 화상의 서로 섞임 상태에 대응하는 처리는, 생각되고 있지 않았다.
본 발명은, 화상 처리 장치 및 방법, 및 촬상 장치에 관한 것으로, 특히, 센서에 의해 검출한 신호와 현실 세계의 차이를 고려한 화상 처리 장치 및 방법, 및 촬상 장치에 관한 것이다.
도 1은 본 발명에 따른 화상 처리 장치의 일 실시 형태를 도시하는 도면.
도 2는 화상 처리 장치를 도시하는 블록도.
도 3은 센서에 의한 촬상을 설명하는 도면.
도 4는 화소의 배치를 설명하는 도면.
도 5는 검출 소자의 동작을 설명하는 도면.
도 6A는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면.
도 6B는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상에 대응하는 모델을 설명하는 도면.
도 7은 배경 영역, 전경 영역, 혼합 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역을 설명하는 도면.
도 8은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에 있어서의, 인접해서 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델 도면.
도 9는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 10은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 11은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 12는 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시하는 도면.
도 13은 화소와 화소값을 시간 방향으로 전개한 모델과의 대응을 도시하는 도면.
도 14는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 15는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 16은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 17은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 18은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 19는 움직임 불선명의 양의 조정 처리를 설명하는 흐름도.
도 20은 영역 특정부(103)의 구성의 일례를 도시하는 블록도.
도 21은 전경에 대응하는 오브젝트가 이동하여 있을 때의 화상을 설명하는 도면.
도 22는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 23은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 24는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 25는 영역 판정의 조건을 설명하는 도면.
도 26A는 영역 특정부(103)의 영역 특정의 결과의 예를 도시하는 도면.
도 26B는 영역 특정부(103)의 영역 특정의 결과의 예를 도시하는 도면.
도 26C는 영역 특정부(103)의 영역 특정의 결과의 예를 도시하는 도면.
도 26D는 영역 특정부(103)의 영역 특정의 결과의 예를 도시하는 도면.
도 27은 영역 특정부(103)의 영역 특정의 결과의 예를 도시하는 도면.
도 28은 영역 특정의 처리를 설명하는 흐름도.
도 29는 영역 특정부(103)의 구성의 다른 일례를 도시하는 블록도.
도 30은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 31은 배경 화상의 예를 도시하는 도면.
도 32는 2값 오브젝트 화상 추출부(302)의 구성을 도시하는 블록도.
도 33A는 상관값의 산출을 설명하는 도면.
도 33B는 상관값의 산출을 설명하는 도면.
도 34A는 상관값의 산출을 설명하는 도면.
도 34B는 상관값의 산출을 설명하는 도면.
도 35는 2값 오브젝트 화상의 예를 도시하는 도면.
도 36은 시간 변화 검출부(303)의 구성을 도시하는 블록도.
도 37은 영역 판정부(342)의 판정을 설명하는 도면.
도 38은 시간 변화 검출부(303)의 판정의 예를 도시하는 도면.
도 39는 영역 판정부(103)의 영역 특정의 처리를 설명하는 흐름도.
도 40은 영역 판정의 처리의 상세를 설명하는 흐름도.
도 41은 영역 특정부(103)의 또 다른 구성을 도시하는 블록도.
도 42는 로버스트화부(361)의 구성을 설명하는 블록도.
도 43은 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 44는 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 45는 영역 특정의 처리를 설명하는 흐름도.
도 46은 로버스트화의 처리의 상세를 설명하는 흐름도.
도 47은 혼합비 산출부(104)의 구성의 일례를 도시하는 블록도.
도 48은 이상적인 혼합비α의 예를 도시하는 도면.
도 49는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 50은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 51은 전경의 성분의 상관을 이용한 근사를 설명하는 도면.
도 52는 C, N, 및 P의 관계를 설명하는 도면.
도 53은 추정 혼합비 처리부(401)의 구성을 도시하는 블록도.
도 54는 추정 혼합비의 예를 도시하는 도면.
도 55는 혼합비 산출부(104)의 다른 구성을 도시하는 블록도.
도 56은 혼합비의 산출 처리를 설명하는 흐름도.
도 57은 추정 혼합비의 연산 처리를 설명하는 흐름도.
도 58은 혼합비α를 근사하는 직선을 설명하는 도면.
도 59는 혼합비α를 근사하는 평면을 설명하는 도면.
도 60은 혼합비α를 산출할 때의 복수의 프레임의 화소의 대응을 설명하는 도면.
도 61은 혼합비 추정 처리부(401)의 다른 구성을 도시하는 블록도.
도 62는 추정 혼합비의 예를 도시하는 도면.
도 63은 커버드 백 그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 설명하는 흐름도.
도 64는 전경 배경 분리부(105)의 구성의 일례를 도시하는 블록도.
도 65A는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시하는 도면.
도 65B는 입력 화상, 전경 성분 화상, 및 배경 성분 화상의 모델을 도시하는 도면.
도 66은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 67은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 68은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 69는 분리부(601)의 구성의 일례를 도시하는 블록도.
도 70A는 분리된 전경 성분 화상의 예를 도시하는 도면.
도 70B는 분리된 배경 성분 화상의 예를 도시하는 도면.
도 71은 전경과 배경의 분리 처리를 설명하는 흐름도.
도 72는 움직임 불선명 조정부(106)의 구성의 일례를 도시하는 블록도.
도 73은 처리 단위를 설명하는 도면.
도 74는 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 75는 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 76은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 77은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 78은 움직임 불선명 조정부(106)의 다른 구성을 도시하는 도면.
도 79는 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 양의 조정 처리를 설명하는 흐름도.
도 80은 움직임 불선명 조정부(106)의 구성의 다른 일례를 도시하는 블록도.
도 81은 화소값과 전경의 성분의 대응을 지정하는 모델의 예를 도시하는 도면.
도 82는 전경의 성분의 산출을 설명하는 도면.
도 83은 전경의 성분의 산출을 설명하는 도면.
도 84는 전경의 움직임 불선명의 제거 처리를 설명하는 흐름도.
도 85는 화상 처리 장치의 기능의 다른 구성을 도시하는 블록도.
도 86은 합성부(1001)의 구성을 도시하는 도면.
도 87은 화상 처리 장치의 기능의 또 다른 구성을 도시하는 블록도.
도 88은 혼합비 산출부(1101)의 구성을 도시하는 블록도.
도 89는 전경 배경 분리부(1102)의 구성을 도시하는 블록도.
도 90은 화상 처리 장치의 기능의 또 다른 구성을 도시하는 블록도.
도 91은 합성부(1201)의 구성을 도시하는 도면.
도 92는 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역 정보를 생성하는 화상 처리 장치의 일 실시 형태를 도시하는 도면.
도 93은 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 관계를 설명하는 도면.
도 94는 컴포넌트 신호를 이용한 영역 판정의 처리를 설명하는 흐름도.
도 95는 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역 정보를 생성하는 화상 처리 장치의 다른 실시 형태를 도시하는 도면.
도 96은 컴포넌트 신호를 이용한 영역 판정의 다른 처리를 설명하는 흐름도.
도 97은 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역 정보를 생성하는 화상 처리 장치의 또 다른 실시 형태를 도시하는 도면.
도 98은 정지 영역 및 움직임 영역에서의, 공간 상관 및 시간 상관의 관계를 도시하는 도면.
도 99는 공간 상관의 산출의 예를 설명하는 도면.
도 100은 시간 상관의 산출의 예를 설명하는 도면.
도 101은 정지 영역에서의 시간 상관 및 공간 상관을 설명하는 도면.
도 102는 움직임 영역에서의 시간 상관 및 공간 상관을 설명하는 도면.
도 103은 입력 화상의 예를 도시하는 도면.
도 104는 1 화소마다, 움직임 영역 또는 정지 영역을 판정한 결과를 도시하는 도면.
도 105는 15 화소×15 화소의 블록을 단위로 하여, 움직임 영역 또는 정지 영역을 판정한 결과를 도시하는 도면.
도 106은 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역의 판정 결과를 도시하는 도면.
도 107은 컴포넌트 신호를 이용한 영역 판정의 처리를 설명하는 흐름도.
도 108은 컴포넌트 신호로서 입력되는 입력 화상 및 영역 정보를 기초로, 혼합비를 산출하는 화상 처리 장치의 일 실시 형태를 도시하는 도면.
도 109는 각 성분에 있어서의 혼합비의 관계를 도시하는 도면.
도 110은 컴포넌트 신호를 이용한 혼합비의 산출 처리를 설명하는 흐름도.
도 111은 컴포넌트 신호로서 입력되는 입력 화상 및 영역 정보를 기초로, 혼합비를 산출하는 화상 처리 장치의 다른 실시 형태를 도시하는 도면.
도 112는 컴포넌트 신호를 이용한 혼합비의 산출의 다른 처리를 설명하는 흐름도.
도 113은 컴포넌트 신호로서 입력되는 입력 화상 및 영역 정보를 기초로, 혼합비를 산출하는 화상 처리 장치의 또 다른 실시 형태를 도시하는 도면.
도 114는 혼합비 산출부(1421)의 구성을 도시하는 블록도.
도 115는 컴포넌트 신호로서 입력되는 입력 화상 및 영역 정보를 기초로, 혼합비를 산출하는 또 다른 처리를 설명도.
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 화상에 있어서의 서로 섞임 상태를 알 수 있도록 하는 것을 목적으로 한다.
본 발명의 제1 화상 처리 장치는, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 수단과, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출수단을 포함하고, 적어도 영역 특정 수단 및 혼합비 검출수단 중 어느 한쪽은, 복수 종류의 컴포넌트에 기초하여 화상처리하는 것을 특징으로 한다.
영역 특정 수단에, 복수 종류의 컴포넌트마다 혼합영역을 검출하고, 개개의 컴포넌트에 대응하는 검출수단을 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합비 검출수단과, 컴포넌트 혼합비 검출수단으로 검출된 복수 종류의 컴포넌트에 대응하는 혼합영역의 검출결과에 기초해서, 화상 데이터에 대응하는 혼합영역을 특정하는 혼합 영역 검출수단을 설치할 수 있다.
영역 특정 수단에, 화상 데이터의 주목 프레임의 주목 화상에 대응하는 주목 화상 데이터와, 주목 화상의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초해서 산출하는 공간 상관값 산출수단과, 주목 데이터와, 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초해서 시간 상관값 산출수단과, 주목 화소에 대응하는 공간 상관값 및 시간 상관값을 기초로, 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정수단을 설치할 수 있다.
영역 특정 수단에, 주목 프레임의 전경 영역, 및 주목 프레임 근방의 근방 프레임의 전경 영역을 기초로, 혼합 영역을 특정하는 혼합 영역 특정수단을 설치할 수 있다.
혼합비 검출수단에, 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출수단과, 컴포넌트 혼합비 검출수단으로 검출된 복수 종류의 컴포넌트에 대응하는 혼합비의 검출결과를 통합함으로써, 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출수단을 설치할 수 있다.
혼합비 검출수단에, 복수 종류의 컴포넌트의 화소값을 화소마다 통합하고, 통합 데이터로서 출력하는 통합 수단과, 통합 데이터에 기초하여, 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출수단을 설치할 수 있다.
통합 수단은, 복수 종류의 컴포넌트의 화소값을 화소마다 가산하여, 가산한 결과를 통합 데이터로서 출력하도록 할 수 있다.
본 발명의 화상 처리 방법은, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 스텝과, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 스텝과, 검출된 혼합비의 출력을 제어하는 출력 제어스텝을 포함하고, 적어도 영역 특정 스텝 및 혼합비 검출 스텝 중 어느 한쪽은, 복수 종류의 컴포넌트에 기초하여 화상 처리하는 것을 특징으로 한다.
영역 특정 스텝에, 복수 종류의 컴포넌트마다 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합 영역 검출 스텝과, 컴포넌트 혼합 영역 검출 스텝의 처리로 검출된 복수 종류의 컴포넌트에 대응하는 혼합 영역의 검출 결과에 기초하여, 화상 데이터에 대응하는 혼합 영역을 특정하는 혼합 영역 특정 스텝을 설치할 수 있다.
영역 특정 스텝에, 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 스텝과, 주목 화소 데이터와, 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 스텝과, 주목 화소에 대응하는 공간 상관값 및 시간 상관값을 기초로, 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정 스텝을 설치할 수 있다.
영역 특정 스텝에, 주목 프레임의 전경 영역, 및 주목 프레임 근방의 근방 프레임의 전경 영역을 기초로, 혼합 영역을 특정하는 혼합 영역 특정 스텝을 설치할 수 있다.
혼합비 검출 스텝에, 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트혼합비 검출 스텝과, 컴포넌트 혼합비 검출 스텝의 처리로 검출된 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 스텝을 설치할 수 있다.
혼합비 검출 스텝에, 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 스텝과, 통합 데이터에 기초하여, 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 스텝을 설치할 수 있다.
통합 스텝은, 복수 종류의 컴포넌트의 화소값을 화소마다 가산하여, 가산한 결과를 통합 데이터로서 출력하도록 할 수 있다.
본 발명의 제1 기록 매체의 프로그램은, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 스텝과, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 스텝과, 검출된 혼합비의 출력을 제어하는 출력 제어 스텝을 포함하고, 적어도 영역 특정 스텝 및 혼합비 검출 스텝 중 어느 한쪽은, 복수 종류의 컴포넌트에 기초하여 화상 처리시키는 것을 특징으로 한다.
영역 특정 스텝에, 복수 종류의 컴포넌트마다 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합 영역 검출 스텝과, 컴포넌트 혼합 영역 검출 스텝의 처리로 검출된 복수 종류의 컴포넌트에 대응하는 혼합 영역의 검출 결과에 기초하여, 화상 데이터에 대응하는 혼합 영역을 특정하는 혼합 영역 특정 스텝을 설치할 수 있다.
영역 특정 스텝에, 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 스텝과, 주목 화소 데이터와, 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 스텝과, 주목 화소에 대응하는 공간 상관값 및 시간 상관값을 기초로, 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정 스텝을 설치할 수 있다.
영역 특정 스텝에, 주목 프레임의 전경 영역, 및 주목 프레임 근방의 근방 프레임의 전경 영역을 기초로, 혼합 영역을 특정하는 혼합 영역 특정 스텝을 설치할 수 있다.
혼합비 검출 스텝에, 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출 스텝과, 컴포넌트 혼합비 검출 스텝의 처리로 검출된 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 스텝을 설치할 수 있다.
혼합비 검출 스텝에, 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 스텝과, 통합 데이터에 기초하여, 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 스텝을 설치할 수 있다.
통합 스텝은, 복수 종류의 컴포넌트의 화소값을 화소마다 가산하여, 가산한 결과를 통합 데이터로서 출력하도록 할 수 있다.
본 발명의 제1 프로그램은, 컴퓨터에, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 스텝과, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 스텝과, 검출된 혼합비의 출력을 제어하는 출력 제어 스텝을 실행시키고, 적어도 영역 특정 스텝 및 혼합비 검출 스텝 중 어느 한쪽은, 복수 종류의 컴포넌트에 기초하여 화상 처리시키는 것을 특징으로 한다.
영역 특정 스텝에, 복수 종류의 컴포넌트마다 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합 영역 검출 스텝과, 컴포넌트 혼합 영역 검출 스텝의 처리로 검출된 복수 종류의 컴포넌트에 대응하는 혼합 영역의 검출 결과에 기초하여, 화상 데이터에 대응하는 혼합 영역을 특정하는 혼합 영역 특정 스텝을 설치할 수 있다.
영역 특정 스텝에, 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 스텝과, 주목 화소 데이터와, 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 스텝과, 주목 화소에 대응하는 공간 상관값 및 시간 상관값을 기초로, 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정 스텝을 설치할 수 있다.
영역 특정 스텝에, 주목 프레임의 전경 영역, 및 주목 프레임 근방의 근방 프레임의 전경 영역을 기초로, 혼합 영역을 특정하는 혼합 영역 특정 스텝을 설치할 수 있다.
혼합비 검출 스텝에, 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출 스텝과, 컴포넌트 혼합비 검출 스텝의 처리로 검출된 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 스텝을 설치할 수 있다.
혼합비 검출 스텝에, 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 스텝과, 통합 데이터에 기초하여, 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 스텝을 설치할 수 있다.
통합 스텝은, 복수 종류의 컴포넌트의 화소값을 화소마다 가산하여, 가산한 결과를 통합 데이터로서 출력하도록 할 수 있다.
본 발명의 제1 촬상 장치는, 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 촬상된 피사체 화상을, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 수단과, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 수단을 포함하고, 적어도 영역 특정 수단 및 혼합비 검출 수단 중 어느 한쪽은, 복수 종류의 컴포넌트에 기초하여 화상 처리하는 것을 특징으로 한다.
영역 특정 수단에, 복수 종류의 컴포넌트마다 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합 영역 검출 수단과, 컴포넌트 혼합 영역 검출 수단으로 검출된 복수 종류의 컴포넌트에 대응하는 혼합 영역의 검출 결과에 기초하여, 화상 데이터에 대응하는 혼합 영역을 특정하는 혼합 영역 특정 수단을 설치할 수 있다.
영역 특정 수단에, 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 수단과, 주목 화소 데이터와, 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 주목 화소에 대응하는 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 수단과, 주목 화소에 대응하는 공간 상관값 및 시간 상관값을 기초로, 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정 수단을 설치할 수 있다.
영역 특정 수단에, 주목 프레임의 전경 영역, 및 주목 프레임 근방의 근방 프레임의 전경 영역을 기초로, 혼합 영역을 특정하는 혼합 영역 특정 수단을 설치할 수 있다.
혼합비 검출 수단에, 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출 수단과, 컴포넌트 혼합비 검출 수단으로 검출된 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 수단을 설치할 수 있다.
혼합비 검출 수단에, 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 수단과, 통합 데이터에 기초하여, 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 수단을 설치할 수 있다.
통합 수단은, 복수 종류의 컴포넌트의 화소값을 화소마다 가산하여, 가산한 결과를 통합 데이터로서 출력하도록 할 수 있다.
본 발명의 제2 화상 처리 장치는, 화상 데이터를 취득하는 화상 데이터 취득 수단과, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 수단을 포함하는 것을 특징으로 한다.
처리 실행 수단은, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리를 실행하도록 할 수 있다.
처리 실행 수단은, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리를 실행하도록 할 수 있다.
본 발명의 제2 화상 처리 방법은, 화상 데이터를 취득하는 화상 데이터 취득 스텝과, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 스텝을 포함하는 것을 특징으로 한다.
처리 실행 스텝은, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리를 실행하도록 할 수 있다.
처리 실행 스텝은, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리를 실행하도록 할 수 있다.
본 발명의 제2 기록 매체의 프로그램은, 화상 데이터를 취득하는 화상 데이터 취득 스텝과, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 스텝을 포함하는 것을 특징으로 한다.
처리 실행 스텝은, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리를 실행하도록 할 수 있다.
처리 실행 스텝은, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리를 실행하도록 할 수 있다.
본 발명의 제2 프로그램은, 컴퓨터에, 화상 데이터를 취득하는 화상 데이터 취득 스텝과, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 스텝을 실행시키는 것을 특징으로 한다.
처리 실행 스텝은, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리를 실행하도록 할 수 있다.
처리 실행 스텝은, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리를 실행하도록 할 수 있다.
본 발명의 제2 촬상 장치는, 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 촬상된 피사체 화상을, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과, 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 수단을 포함하는 것을 특징으로 한다.
처리 실행 수단은, 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리를 실행하도록 할 수 있다.
처리 실행 수단은, 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리를 실행하도록 할 수 있다.
화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역이 특정되고, 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비가 검출되어, 적어도 영역의 특정 및 혼합비의 검출 중 어느 한쪽은, 복수 종류의 컴포넌트에 기초하여 화상 처리된다.
화상 데이터가 취득되고, 취득된 화상 데이터의 복수 종류의 컴포넌트에 기초해서, 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 화상 데이터에 대응하여, 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리가 실행된다.
이에 따라, 화상에 있어서의 서로 섞임 상태를 알 수 있다.
도 1은, 본 발명에 따른 화상 처리 장치의 일 실시 형태를 도시하는 도면이다. CPU(Central Processing Unit)(21)는, ROM(Read OnlYMemory)(22), 또는 기억부(28)에 기억되어 있는 프로그램에 따라서 각종의 처리를 실행한다. RAM(Random Access Memory)(23)에는, CPU(21)가 실행하는 프로그램이나 데이터 등이 적절하게기억된다. 이들 CPU(21), ROM(22), 및 RAM(23)은, 버스(24)에 의해 서로 접속되어 있다.
CPU(21)에는 또, 버스(24)를 통해 입출력 인터페이스(25)가 접속되어 있다. 입출력 인터페이스(25)에는, 키보드, 마우스, 마이크로 폰 등으로 이루어지는 입력부(26), 디스플레이, 스피커 등으로 이루어지는 출력부(27)가 접속되어 있다. CPU(21)는, 입력부(26)로부터 입력되는 명령에 대응하여 각종의 처리를 실행한다. 그리고, CPU(21)는, 처리 결과 얻어진 화상이나 음성 등을 출력부(27)에 출력한다.
입출력 인터페이스(25)에 접속되어 있는 기억부(28)는, 예를 들면 하드디스크 등으로 구성되어, CPU(21)가 실행하는 프로그램이나 각종의 데이터를 기억한다. 통신부(29)는, 인터넷, 그 밖의 네트워크를 통해 외부의 장치와 통신한다. 이 예의 경우, 통신부(29)는 센서의 출력을 취득하는 취득부로서 기능한다.
또한, 통신부(29)를 통해 프로그램을 취득하고, 기억부(28)에 기억해도 좋다.
입출력 인터페이스(25)에 접속되어 있는 드라이브(30)는, 자기 디스크(51), 광 디스크(52), 광 자기 디스크(53), 또는 반도체 메모리(54) 등이 장착되었을 때, 이들을 구동하여, 거기에 기록되어 있는 프로그램이나 데이터 등을 취득한다. 취득된 프로그램이나 데이터는, 필요에 따라서 기억부(28)에 전송되어, 기억된다.
도 2는, 화상 처리 장치를 도시하는 블록도이다.
또, 화상 처리 장치의 각 기능을 하드웨어로 실현하느냐, 소프트웨어로 실현하느냐는 상관없다. 즉, 본 명세서의 각 블록도는, 하드웨어의 블록도라고 생각해도, 소프트웨어에 의한 기능 블록도라고 생각해도 좋다.
이 명세서에서는, 촬상의 대상이 되는, 현실 세계에서의 오브젝트에 대응하는 화상을, 화상 오브젝트라고 칭한다.
화상 처리 장치에 공급된 입력 화상은, 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는, 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트를 거칠게 추출하여, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는, 예를 들면, 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트의 윤곽을 검출함으로써, 전경의 오브젝트에 대응하는 화상 오브젝트를 거칠게 추출한다.
오브젝트 추출부(101)는, 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 거칠게 추출하여, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는, 예를 들면, 입력 화상과, 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 차로부터, 배경의 오브젝트에 대응하는 화상 오브젝트를 거칠게 추출한다.
또한, 예를 들면, 오브젝트 추출부(101)는, 내부에 설치되어 있는 배경 메모리에 기억되어 있는 배경 화상과, 입력 화상의 차로부터, 전경의 오브젝트에 대응하는 화상 오브젝트, 및 배경의 오브젝트에 대응하는 화상 오브젝트를 거칠게 추출하도록 해도 좋다.
움직임 검출부(102)는, 예를 들면, 블록 매칭법, 경사법, 위상 상관법, 및 펠리커시브법 등의 수법에 의해, 거칠게 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 이동 벡터를 산출하여, 산출한 이동 벡터 및 이동 벡터의 위치 정보(이동 벡터에 대응하는 화소의 위치를 특정하는 정보)를 영역 특정부(103) 및 움직임 불선명 조정부(106)에 공급한다.
움직임 검출부(102)가 출력하는 이동 벡터에는, 움직임량 v에 대응하는 정보가 포함되어 있다.
또, 예를 들면, 움직임 검출부(102)는, 화상 오브젝트에 화소를 특정하는 화소 위치 정보와 같이, 화상 오브젝트마다의 이동 벡터를 움직임 불선명 조정부(106)에 출력하도록 해도 좋다.
움직임량 v는, 움직이고 있는 오브젝트에 대응하는 화상의 위치의 변화를 화소 간격을 단위로 하여 나타내는 값이다. 예를 들면, 전경에 대응하는 오브젝트의 화상이, 어떤 프레임을 기준으로 하여 다음 프레임에 있어서 4화소분 떨어진 위치에 표시되도록 이동하여 있을 때, 전경에 대응하는 오브젝트의 화상의 움직임량 v는 4가 된다.
또, 오브젝트 추출부(101) 및 움직임 검출부(102)는, 움직이고 있는 오브젝트에 대응한 움직임 불선명량의 조정을 행하는 경우에 필요해진다.
영역 특정부(103)는, 입력된 화상의 화소의 각각을, 전경 영역, 배경 영역,또는 혼합 영역 중 어느 하나에 특정하여, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는지를 나타내는 정보(이하, 영역 정보라고 칭한다)를 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는, 입력 화상, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합 영역(63)에 포함되는 화소에 대응하는 혼합비(이하, 혼합비α 라고 칭한다)를 산출하여, 산출한 혼합비를 전경 배경 분리부(105)에 공급한다.
혼합비α는, 후술하는 식 3에 도시된 바와 같이, 화소값에 있어서의, 배경의 오브젝트에 대응하는 화상의 성분(이하, 배경의 성분이라고도 칭한다)의 비율을 나타내는 값이다.
전경 배경 분리부(105)는, 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α를 기초로, 전경의 오브젝트에 대응하는 화상의 성분(이하, 전경의 성분이라고도 칭한다)만으로 이루어지는 전경 성분 화상과, 배경의 성분만으로 이루어지는 배경 성분 화상과 입력 화상을 분리하여, 전경 성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다. 또, 분리된 전경 성분 화상을 최종적인 출력으로 하는 것도 생각된다. 종래의 혼합 영역을 고려하지 않고 전경과 배경만을 특정하여, 분리하고 있는 방식에 비교하여 정확한 전경과 배경을 얻을 수 있다.
움직임 불선명 조정부(106)는, 이동 벡터로부터 알 수 있는 움직임량 v 및 영역 정보를 기초로, 전경 성분 화상에 포함되는 1 이상의 화소를 나타내는 처리단위를 결정한다. 처리 단위는, 움직임 불선명의 양의 조정 처리의 대상이 되는 1군의 화소를 지정하는 데이터이다.
움직임 불선명 조정부(106)는, 화상 처리 장치에 입력된 움직임 불선명 조정량, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 이동 벡터 및 그 위치 정보, 및 처리 단위를 기초로, 전경 성분 화상에 포함되는 움직임 불선명을 제거하거나, 움직임 불선명의 양을 감소시키거나, 또는 움직임 불선명의 양을 증가시키는 등 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(107)에 출력한다. 이동 벡터와 그 위치 정보는 사용하지 않는 수도 있다.
여기서, 움직임 불선명이란, 촬상의 대상이 되는, 현실 세계에서의 오브젝트의 움직임과, 센서의 촬상의 특성에 의해 생기는, 움직이고 있는 오브젝트에 대응하는 화상에 포함되어 있는 왜곡을 말한다.
선택부(107)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명의 양이 조정된 전경 성분 화상 중 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
다음에, 도 3 내지 도 18을 참조하여, 화상 처리 장치에 공급되는 입력 화상에 대해서 설명한다.
도 3은, 센서에 의한 촬상을 설명하는 도면이다. 센서는, 예를 들면, 고체 촬상 소자인 CCD(Charge-Coupled Device) 에어리어 센서를 구비한 CCD 비디오 카메라 등으로 구성된다. 현실 세계에서의, 전경에 대응하는 오브젝트(111)는, 현실 세계에서의, 배경에 대응하는 오브젝트(112)와, 센서 사이를, 예를 들면, 도 중의 좌측으로부터 우측으로 수평으로 이동한다.
센서는, 전경에 대응하는 오브젝트(111)를, 배경에 대응하는 오브젝트(112)와 함께 촬상한다. 센서는, 촬상한 화상을 1프레임 단위로 출력한다. 예를 들면, 센서는, 1초 동안에 30 프레임으로 이루어지는 화상을 출력한다. 센서의 노광 시간은, 1/30초로 할 수 있다. 노광 시간은, 센서가 입력된 빛의 전하에의 변환을 개시하고 나서, 입력된 빛의 전하에의 변환을 종료하기까지의 기간이다. 이하, 노광 시간을 셔터 시간이라고도 칭한다.
도 4는, 화소의 배치를 설명하는 도면이다. 도 4 중에 있어서, A 내지 I는, 개개의 화소를 나타낸다. 화소는, 화상에 대응하는 평면상에 배치되어 있다. 하나의 화소에 대응하는 1개의 검출 소자는, 센서상에 배치되어 있다. 센서가 화상을 촬상할 때, 1개의 검출 소자는, 화상을 구성하는 하나의 화소에 대응하는 화소값을 출력한다. 예를 들면, 검출 소자의 x방향의 위치는, 화상 상의 가로방향의 위치에 대응하고, 검출 소자의 Y방향의 위치는, 화상 상의 세로 방향의 위치에 대응한다.
도 5에 도시한 바와 같이, 예를 들면, CCD인 검출 소자는, 셔터 시간에 대응하는 기간, 입력된 빛을 전하로 변환하여, 변환된 전하를 축적한다. 전하의 양은, 입력된 빛의 강함과, 빛이 입력되어 있는 시간에 거의 비례한다. 검출 소자는, 셔터 시간에 대응하는 기간에 있어서, 입력된 빛으로부터 변환된 전하를, 이미 축적되어 있는 전하에 부가해 간다. 즉, 검출 소자는, 셔터 시간에 대응하는 기간, 입력되는 빛을 적분하여, 적분된 광에 대응하는 양의 전하를 축적한다. 검출 소자는, 시간에 대해서, 적분 효과라고도 말할 수 있다.
검출 소자에 축적된 전하는, 도시하지 않은 회로에 의해, 전압값으로 변환되고, 전압값은 다시 디지털 데이터 등의 화소값으로 변환되어 출력된다. 따라서, 센서로부터 출력되는 개개의 화소값은, 전경 또는 배경에 대응하는 오브젝트가 공간적으로 확대를 갖는 어느 부분을, 셔터 시간에 대해서 적분한 결과인, 일차원의 공간에 사영된 값을 갖는다.
화상 처리 장치는, 이러한 센서의 축적의 동작에 의해, 출력 신호에 파묻혀 버린 유의의 정보, 예를 들면, 혼합비α를 추출한다. 화상 처리 장치는, 전경의 화상 오브젝트 자신이 서로 혼합됨으로써 생기는 왜곡의 양, 예를 들면, 움직임 불선명의 양 등을 조정한다. 또한, 화상 처리 장치는, 전경의 화상 오브젝트와 배경 화상 오브젝트가 서로 혼합됨으로써 생기는 왜곡의 양을 조정한다.
도 6A는, 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면이다. 도 6B는, 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상에 대응하는 모델을 설명하는 도면이다.
도 6A는, 움직임을 따르는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 도시하고 있다. 도 6A에 도시하는 예에 있어서, 전경에 대응하는 오브젝트는, 화면에 대해서 수평으로 좌측으로부터 우측으로 움직이고 있다.
도 6B는, 도 6A에 도시하는 화상의 1개의 라인에 대응하는 화소값을 시간 방향으로 전개한 모델 도면이다. 도 6B의 가로방향은, 도 6A의 공간 방향 x에 대응하고 있다.
배경 영역의 화소는, 배경의 성분, 즉, 배경의 오브젝트에 대응하는 화상의 성분만으로, 그 화소값이 구성되어 있다. 전경 영역의 화소는, 전경의 성분, 즉, 전경의 오브젝트에 대응하는 화상의 성분만으로, 그 화소값이 구성되어 있다.
혼합 영역의 화소는, 배경의 성분, 및 전경의 성분으로, 그 화소값이 구성되어 있다. 혼합 영역은, 배경의 성분, 및 전경의 성분으로, 그 화소값이 구성되어 있기 때문에, 왜곡 영역이라고도 할 수 있다. 혼합 영역은, 또한, 커버드 백 그라운드 영역 및 언커버드 백 그라운드 영역으로 분류된다.
커버드 백 그라운드 영역은, 전경 영역에 대해서, 전경의 오브젝트의 진행 방향의 전단부에 대응하는 위치의 혼합 영역이고, 시간의 경과에 대응하여 배경 성분이 전경에 덮여 숨겨지는 영역을 말한다.
이것에 대해서, 언커버드 백 그라운드 영역은, 전경 영역에 대해서, 전경의 오브젝트의 진행 방향의 후단부에 대응하는 위치의 혼합 영역이고, 시간의 경과에 대응하여 배경 성분이 나타나는 영역을 말한다.
이와 같이, 전경 영역, 배경 영역, 또는 커버드 백 그라운드 영역 또는 언커버드 백 그라운드 영역을 포함하는 화상이, 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 입력 화상으로서 입력된다.
도 7은, 이상과 같은, 배경 영역, 전경 영역, 혼합 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역을 설명하는 도면이다. 도 6A에 도시하는 화상에 대응하는 경우, 배경 영역은, 정지 부분이고, 전경 영역은, 움직임 부분이고, 혼합 영역의 커버드 백 그라운드 영역은, 배경으로부터 전경으로 변화하는 부분이고, 혼합 영역의 언커버드 백 그라운드 영역은, 전경으로부터 배경으로 변화하는 부분이다.
도 8은, 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에 있어서의, 인접해서 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 예를 들면, 인접해서 1열로 배열되어 있는 화소로서, 화면의 1개의 라인상에 나란히 배열되어 있는 화소를 선택 할 수 있다.
도 8에 도시하는 FO1 내지 F04의 화소값은, 정지하고 있는 전경의 오브젝트에 대응하는 화소의 화소값이다. 도 8에 도시하는 BO1 내지 BO4의 화소값은, 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소값이다.
도 8에 있어서의 세로 방향은, 도 중의 위에서 밑을 향해서 시간이 경과한다. 도 8 중의 직사각형의 상변의 위치는, 센서가 입력된 빛의 전하에의 변환을 개시하는 시각에 대응하고, 도 8 중의 직사각형의 하변의 위치는, 센서가 입력된 빛의 전하에의 변환을 종료하는 시각에 대응한다. 즉, 도 8 중의 직사각형의 상변에서 하변까지의 거리는, 셔터 시간에 대응한다.
이하에 있어서, 셔터 시간과 프레임 간격이 동일한 경우를 예로 설명한다.
도 8에 있어서의 가로방향은, 도 6A에서 설명한 공간 방향 x에 대응한다. 보다 구체적으로는, 도 8에 도시하는 예에 있어서, 도 8 중의 " FO1"라고 기재된 직사각형의 좌변에서 " B04"라고 기재된 직사각형의 우변까지의 거리는, 화소의 피치의 8배, 즉, 연속하고 있는 8개의 화소의 간격에 대응한다.
전경의 오브젝트 및 배경의 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 빛은 변화하지 않는다.
여기서, 셔터 시간에 대응하는 기간을 2개 이상의 동일한 길이의 기간으로 분할한다. 예를 들면, 가상 분할수를 4로 하면, 도 8에 도시하는 모델도는, 도 9에 도시하는 모델로서 도시할 수 있다. 가상 분할수는, 전경에 대응하는 오브젝트의 셔터 시간 내에서의 움직임량 v 등에 대응하여 설정된다. 예를 들면, 4인 움직임량 v에 대응하여, 가상 분할수는, 4이 되고, 셔터 시간에 대응하는 기간은 4개로 분할된다.
도 중의 가장 위의 행은, 셔터가 개방되고 최초의, 분할된 기간에 대응한다. 도 중의 위에서 2번째의 행은, 셔터가 개방되고 2번째의, 분할된 기간에 대응한다. 도 중의 위에서 3번째의 행은, 셔터가 개방되고 3번째의, 분할된 기간에 대응한다. 도 중의 위에서 4번째의 행은, 셔터가 개방되고 4번째의, 분할된 기간에 대응한다.
이하, 움직임량 v에 대응하여 분할된 셔터 시간을 셔터 시간/v라고도 칭한다.
전경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 빛은 변화하지 않기 때문에, 전경의 성분 F01/v는, 화소값 F01을 가상 분할수로 나눈 값과같다. 마찬가지로, 전경에 대응하는 오브젝트가 정지하고 있을 때, 전경의 성분 F02/v는, 화소값 F02를 가상 분할수로 나눈 값과 같고, 전경의 성분 F03/v는, 화소값 F03을 가상 분할수로 나눈 값과 같고, 전경의 성분 F04/v는, 화소값 F04를 가상 분할수로 나눈 값과 같다.
배경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 빛은 변화하지 않기 때문에, 배경의 성분 B01/v는, 화소값 B01을 가상 분할수로 나눈 값과 같다. 마찬가지로, 배경에 대응하는 오브젝트가 정지하고 있을 때, 배경의 성분 B02/v는, 화소값 B02를 가상 분할수로 나눈 값과 같고, B03/v는, 화소값 B03을 가상 분할수로 나눈 값과 같고, B04/v는, 화소값 BO4를 가상 분할수로 나눈 값과 같다.
즉, 전경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 전경의 오브젝트에 대응하는 빛이 변화하지 않기 때문에, 셔터가 개방되고 최초의, 셔터 시간/v에 대응하는 전경의 성분 FO1/v와, 셔터가 개방되고 2번째의, 셔터 시간/v에 대응하는 전경의 성분 FO1/v와, 셔터가 개방되고 3번째의, 셔터 시간/v에 대응하는 전경의 성분 FO1/v와, 셔터가 개방되고 4번째의, 셔터 시간/v에 대응하는 전경의 성분 F01/v는, 동일한 값이 된다. F02/v 내지 F04/v도, F01/v와 동일한 관계를 갖는다.
배경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 배경의 오브젝트에 대응하는 빛은 변화하지 않기 때문에, 셔터가 개방되고 최초의, 셔터 시간/v에 대응하는 배경의 성분 B01/v 와, 셔터가 개방되고 2번째의, 셔터 시간/v에 대응하는 배경의 성분 B01/v와, 셔터가 개방되고 3번째의, 셔터 시간/v에 대응하는 배경의 성분 B01/v와, 셔터가 개방되고 4번째의, 셔터 시간/v에 대응하는 배경의 성분 B01/v는, 동일한 값이 된다. BO2/v 내지 B04/v도, 동일한 관계를 갖는다.
다음에, 전경에 대응하는 오브젝트가 이동하여, 배경에 대응하는 오브젝트가 정지하고 있는 경우에 대해 설명한다.
도 10은, 전경에 대응하는 오브젝트가 도 중의 우측을 향하여 이동하는 경우의, 커버드 백 그라운드 영역을 포함하는, 1개의 라인 상의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 도 10에 있어서, 전경의 움직임량 v는 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다는 가정할 수 있다. 도 10에 있어서, 전경에 대응하는 오브젝트의 화상은, 어떤 프레임을 기준으로 하여 다음 프레임에 있어서 4화소분 우측으로 표시되도록 이동한다.
도 10에 있어서, 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는, 전경 영역에 속한다. 도 10에 있어서, 좌측으로부터 5번째 내지 좌측으로부터 7번째의 화소는, 커버드 백 그라운드 영역인 혼합 영역에 속한다. 도 1O에 있어서, 가장 우측의 화소는, 배경 영역에 속한다.
전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트를 덮어서 숨기도록 이동하여 있기 때문에, 커버드 백 그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 어느 시점에서, 배경의 성분으로부터, 전경의 성분으로 교체한다.
예를 들면, 도 10 중에 태선 프레임을 붙인 화소값 M은, 식 1로 표시된다.
예를 들면, 좌측으로부터 5번째의 화소는, 1개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 3개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌측으로부터 5번째의 화소의 혼합비α는, 1/4이다. 좌측으로부터 6번째의 화소는, 2개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 2개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌측으로부터 6번째의 화소의 혼합비α는, 1/2이다. 좌측으로부터 7번째의 화소는, 3개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 하나의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌측으로부터 7번째의 화소의 혼합비α는, 3/4이다.
전경에 대응하는 오브젝트가, 강체이고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 10 중의 좌측으로부터 4번째의 화소의, 셔터가 개방되고 최초의, 셔터 시간/v의 전경의 성분 F07/v는, 도 10 중의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F07/v는, 도 10 중의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 10 중의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v에 대응하는 전경의 성분과, 각각 간다.
전경에 대응하는 오브젝트가, 강체이고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 10 중의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분 F06/v는, 도 10 중의 좌측으로부터 4번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F06/v는, 도 10 중의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 10 중의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
전경에 대응하는 오브젝트가, 강체이고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 10 중의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분 F05/v는, 도 10 중의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F05/v는, 도 10 중의 좌측으로부터 4번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 10 중의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
전경에 대응하는 오브젝트가, 강체이고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 10 중의 가장 좌측의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분 F04/v는, 도 10 중의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F04/v는, 도 10 중의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 10 중의 좌측으로부터 4번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
움직이고 있는 오브젝트에 대응하는 전경의 영역은, 이와 같이 움직임 불선명을 포함하기 때문에, 왜곡 영역이라고도 말할 수 있다.
도 11은, 전경이 도 중의 우측을 향하여 이동하는 경우의, 언커버드 백 그라운드 영역을 포함하는, 1개의 라인 상의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 도 11에 있어서, 전경의 움직임량 v는 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다는 가정할 수 있다. 도 11에 있어서, 전경에 대응하는 오브젝트의 화상은, 어떤 프레임을 기준으로 하여 다음 프레임에 있어서 4화소분 우측으로 이동한다.
도 11에 있어서, 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는, 배경 영역에 속한다. 도 11에 있어서, 좌측으로부터 5번째 내지 좌측으로부터 7번째의 화소는, 언커버드 백 그라운드인 혼합 영역에 속한다. 도 11에 있어서, 가장 우측의 화소는, 전경 영역에 속한다.
배경에 대응하는 오브젝트를 덮고 있는 전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트의 앞으로부터 제거되도록 이동하여 있기 때문에, 언커버드 백 그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 어느 시점에서, 전경의 성분으로부터, 배경의 성분으로교체한다.
예를 들면, 도 11 중에 태선 프레임을 붙인 화소값 M'은, 식 2로 표시된다.
예를 들면, 좌측으로부터 5번째의 화소는, 3개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 1개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌측으로부터 5번째의 화소의 혼합비α는, 3/4이다. 좌측으로부터 6번째의 화소는, 2개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 2개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌측으로부터 6번째의 화소의 혼합비α는, 1/2이다. 좌측으로부터 7번째의 화소는, 1개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 3개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌측으로부터 7번째의 화소의 혼합비α는, 1/4이다.
식 1 및 식 2를 보다 일반화하면, 화소값 M은, 식 3으로 표시된다.
여기서, α는, 혼합비이다. B는, 배경의 화소값이고, Fi/v는, 전경의 성분이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한, 움직임량 v가 4이기 때문에, 예를 들면, 도 11 중의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 최초의, 셔터 시간/v의 전경의 성분 FO1/v는, 도 11 중의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, FO1/v는, 도 11 중의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 11 중의 좌측으로부터 8번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한, 가상 분할수가 4이기 때문에, 예를 들면, 도 11 중의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 최초의, 셔터 시간/v의 전경의 성분 F02/v는, 도 11 중의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F02/v는, 도 11 중의 좌측으로부터 8번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v에 대응하는 전경의 성분과 같다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한, 움직임량 v가 4이기 때문에, 예를 들면, 도 11 중의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 최초의, 셔터 시간/v의 전경의 성분 F03/v는, 도 11 중의 좌측으로부터 8번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다.
도 9 내지 도 11의 설명에 있어서, 가상 분할수는, 4라고 설명하였지만, 가상 분할수는, 움직임량 v에 대응한다. 움직임량 v는, 일반적으로, 전경에 대응하는 오브젝트의 이동 속도에 대응한다. 예를 들면, 전경에 대응하는 오브젝트가, 어떤 프레임을 기준으로 하여 다음 프레임에 있어서 4화소분 우측으로 표시되도록 이동하여 있을 때, 움직임량 v는 4가 된다. 움직임량 v에 대응하여, 가상 분할수는 4가 된다. 마찬가지로, 예를 들면, 전경에 대응하는 오브젝트가, 어떤 프레임을 기준으로 하여 다음 프레임에 있어서 6 화소분 좌측으로 표시되도록 이동하여 있을 때, 움직임량 v는, 6이 되고, 가상 분할수는, 6이 된다.
도 12 및 도 13에, 이상으로 설명한, 전경 영역, 배경 영역, 커버드 백 그라운드 영역 또는 언커버드 백 그라운드 영역으로 이루어지는 혼합 영역과, 분할된 셔터 시간에 대응하는 전경의 성분 및 배경의 성분의 관계를 도시한다.
도 12는, 정지하고 있는 배경의 앞을 이동하여 있은 오브젝트에 대응하는 전경을 포함하는 화상으로부터, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시한다. 도 12에 도시하는 예에 있어서, A로 도시하는, 전경에 대응하는 오브젝트는, 화면에 대해서 수평으로 이동되어 있다.
프레임 #n+1은, 프레임 #n의 다음 프레임이고, 프레임 #n+2는, 프레임 #n+1의 다음 프레임이다.
프레임 #N내지 프레임 #n+2 중 어느 것으로부터 추출한, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출하고, 움직임량 v를 4로 하여, 추출된 화소의 화소값을 시간 방향으로 전개한 모델을 도 13에 도시한다.
전경 영역의 화소값은, 전경에 대응하는 오브젝트가 이동하기 때문에, 셔터 시간/v의 기간에 대응하는, 4개의 다른 전경의 성분으로 구성된다. 예를 들면, 도13에 도시하는 전경 영역의 화소 중 가장 좌측에 위치하는 화소는, F01/v, F02/v, F03/v, 및 F04/v로 구성된다. 즉, 전경 영역의 화소는, 움직임 불선명을 포함하고 있다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 배경에 대응하는 빛은 변화하지 않는다. 이 경우, 배경 영역의 화소값은, 움직임 불선명을 포함하지 않는다.
커버드 백 그라운드 영역 또는 언커버드 백 그라운드 영역으로 이루어지는 혼합 영역에 속하는 화소의 화소값은, 전경의 성분과, 배경의 성분으로 구성된다.
다음에, 오브젝트에 대응하는 화상이 움직이고 있을 때, 복수의 프레임에 있어서의, 인접해서 1열로 배열되어 있는 화소이고, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델에 대해서 설명한다. 예를 들면, 오브젝트에 대응하는 화상이 화면에 대해서 수평으로 움직이고 있을 때, 인접해서 1열로 배열되어 있는 화소로서, 화면의 1개의 라인상에 나란히 배열되어 있는 화소를 선택 할 수 있다.
도 14는, 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접해서 1열로 배열되어 있는 화소이고, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 프레임 #n은, 프레임 #n-1의 다음 프레임이고, 프레임 #n+1은, 프레임 #n의 다음 프레임이다. 다른 프레임도 마찬가지로 칭한다.
도 14에 도시하는 BO1 내지 B12의 화소값은, 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소값이다. 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1 내지 프레임 n+1에 있어서, 대응하는 화소의 화소값은, 변화하지 않는다. 예를 들면, 프레임 #n-1에 있어서의 B05의 화소값을 갖는 화소의 위치에 대응하는, 프레임 #n에서의 화소, 및 프레임 #n+1에 있어서의 화소는, 각각 B05의 화소값을 갖는다.
도 15는, 정지하고 있는 배경에 대응하는 오브젝트와 함께 도 중의 우측으로 이동하는 전경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접해서 1열로 배열되어 있는 화소이고, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 도 15에 도시하는 모델은, 커버드 백 그라운드 영역을 포함한다.
도 15에 있어서, 전경에 대응하는 오브젝트가, 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 이동하기 때문에, 전경의 움직임량 v는 4이고, 가상 분할수는 4이다.
예를 들면, 도 15 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F12/v가 되고, 도 15 중의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F12/v가 된다. 도 15 중의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분, 및 도 15 중의 좌측으로부터 4번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F12/v가 된다.
도 15 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분은 F11/v가 되고, 도 15 중의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분도 F11/v가 된다. 도 15 중의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F11/v가 된다.
도 15 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분은 F10/v가 되고, 도 15 중의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분도 F10/v가 된다. 도 15 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 15 중의 프레임 #n-1의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 배경의 성분은 BO1/v가 된다. 도 15 중의 프레임 #n-1의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 최초 및 2번째의 셔터 시간/v의 배경의 성분은 B02/v가 된다. 도 15 중의 프레임 #n-1의 좌측으로부터 4번째의 화소의, 셔터가 개방되고 최초 내지 3번째의 셔터 시간/v의 배경의 성분은 B03/v가 된다.
도 15 중의 프레임 #n-1에 있어서, 가장 좌측의 화소는, 전경 영역에 속하고, 좌측에서 2번째 내지 4번째의 화소는, 커버드 백 그라운드 영역인 혼합 영역에 속한다.
도 15 중의 프레임 #n-1의 좌측으로부터 5번째의 화소 내지 12번째의 화소는, 배경 영역에 속하고, 그 화소값은 각각 B04 내지 B11이 된다.
도 15 중의 프레임 #n의 좌측으로부터 1번째의 화소 내지 5번째의 화소는, 전경 영역에 속한다. 프레임 #n의 전경 영역에서의, 셔터 시간/v의 전경의 성분은, FO5/v 내지 F12/v 중 어느 것이다.
전경에 대응하는 오브젝트가, 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 이동하기 때문에, 도 15 중의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F12/v가 되고, 도 15 중의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F12/v가 된다. 도 15 중의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분, 및 도 15 중의 좌측으로부터 8번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F12/v가 된다.
도 15 중의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분은 F11/v가 되고, 도 15 중의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분도 F11/v가 된다. 도 15 중의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F11/v가 된다.
도 15 중의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분은 F10/v가 되고, 도 15 중의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분도 F10/v가 된다. 도 15 중의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 4번째의셔터 시간/v의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 15 중의 프레임 #n의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 배경의 성분은 B05/v가 된다. 도 15 중의 프레임 #n의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 최초 및 2번째의 셔터 시간/v의 배경의 성분은 BO6/v가 된다. 도 15 중의 프레임 #n의 좌측으로부터 8번째의 화소의, 셔터가 개방되고 최초 내지 3번째의, 셔터 시간/v의 배경의 성분은 B07/v가 된다.
도 15 중의 프레임 #n에 있어서, 좌측에서 6번째 내지 8번째의 화소는, 커버드 백 그라운드 영역인 혼합 영역에 속한다.
도 15 중의 프레임 #n의 좌측으로부터 9번째의 화소 내지 12번째의 화소는, 배경 영역에 속하고, 화소값은 각각 BO8 내지 B11이 된다.
도 15 중의 프레임 #n+1의 좌측으로부터 1번째의 화소 내지 9번째의 화소는, 전경 영역에 속한다. 프레임 #n+1의 전경 영역에 있어서의, 셔터 시간/v의 전경의 성분은 FO1/v 내지 Fl2/v 중 어느 것이다.
전경에 대응하는 오브젝트가, 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 이동하기 때문에, 도 15 중의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F12/v가 되고, 도 15 중의 좌측으로부터 10번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F12/v가 된다. 도 15 중의 좌측으로부터 11번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분, 및 도 15 중의 좌측으로부터 12번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F12/v가 된다.
도 15 중의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 기간의 전경의 성분은 F11/v가 되고, 도 15 중의 좌측으로부터 10번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분도 F11/v가 된다. 도 15 중의 좌측으로부터 11번째의 화소의, 셔터가 개방되고 4번째의, 셔터 시간/v의 전경의 성분은 F11/v가 된다.
도 15 중의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방되고 3번째의, 셔터 시간/v의 전경의 성분은 F10/v가 되고, 도 15 중의 좌측으로부터 10번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분도 F10/v가 된다. 도 15 중의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 15 중의 프레임 #n+1의 좌측으로부터 10번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 배경의 성분은 BO9/v가 된다. 도 15 중의 프레임 #n+1의 좌측으로부터 11번째의 화소의, 셔터가 개방되고 최초 및 2번째의 셔터 시간/v의 배경의 성분은 B10/v가 된다. 도 15 중의 프레임 #n+1의 좌측으로부터 12번째의 화소의, 셔터가 개방되고 최초 내지 3번째의, 셔터 시간/v의 배경의 성분은 B11/v가 된다.
도 15 중의 프레임 #n+1에 있어서, 좌측에서 10번째 내지 12번째의 화소는, 커버드 백 그라운드 영역인 혼합 영역에 대응한다.
도 16은, 도 15에 도시하는 화소값으로부터 전경의 성분을 추출한 화상의 모델 도면이다.
도 17은, 정지하고 있는 배경과 함께 도 중의 우측으로 이동하는 오브젝트에 대응하는 전경을 촬상한 화상의 3개의 프레임의, 인접해서 1열로 배열되어 있는 화소이고, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 17에 있어서, 언커버드 백 그라운드 영역이 포함되어 있다.
도 17에 있어서, 전경에 대응하는 오브젝트는, 강체이고, 또한 등속으로 이동하고 있다는 가정할 수 있다. 전경에 대응하는 오브젝트가, 다음 프레임에 있어서 4화소분 우측으로 표시되도록 이동하여 있기 때문에, 움직임량 v는 4이다.
예를 들면, 도 17 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방되고 최초의, 셔터 시간/v의 전경의 성분은 F13/v가 되고, 도 17 중의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F13/v가 된다. 도 17 중의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분, 및 도 17 중의 좌측으로부터 4번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F13/v가 된다.
도 17 중의 프레임 #n-1의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F14/v가 되고, 도 17 중의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F14/v가 된다. 도 17 중의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 최초의, 셔터 시간/v의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방되고 2번째 내지 4번째의, 셔터 시간/v의 배경의 성분은 B25/v가 된다. 도 17 중의 프레임 #n-1의 좌측으로부터 2번째의 화소의, 셔터가 개방되고 3번째 및 4번째의, 셔터 시간/v의 배경의 성분은 B26/v가 된다. 도 17 중의 프레임 #n-1의 좌측으로부터 3번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 배경의 성분은 B27/v가 된다.
도 17 중의 프레임 #n-1에 있어서, 가장 좌측의 화소 내지 3번째의 화소는, 언커버드 백 그라운드 영역인 혼합 영역에 속한다.
도 17 중의 프레임 #n-1의 좌측으로부터 4번째의 화소 내지 12번째의 화소는, 전경 영역에 속한다. 프레임의 전경의 성분은 F13/v 내지 F 24/v 중 어느 것이다.
도 17 중의 프레임 #n의 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는, 배경 영역에 속하고, 화소값은 각각 B25 내지 B28이 된다.
전경에 대응하는 오브젝트가, 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 이동하기 때문에, 도 17 중의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F13/v가 되고, 도 17 중의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F13/v가 된다. 도 17 중의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분, 및 도 17 중의 좌측으로부터 8번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F13/v가 된다.
도 17 중의 프레임 #n의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F14/v가 되고, 도 17 중의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F14/v가 된다. 도 17 중의 좌측으로부터 8번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17 중의 프레임 #n의 좌측으로부터 5번째의 화소의, 셔터가 개방되고 2번째 내지 4번째의 셔터 시간/v의 배경의 성분은 B29/v가 된다. 도 17 중의 프레임 #n의 좌측으로부터 6번째의 화소의, 셔터가 개방되고 3번째 및 4번째의 셔터 시간/v의 배경의 성분은 B30/v가 된다. 도 17 중의 프레임 #n의 좌측으로부터 7번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 배경의 성분은 B31/v가 된다.
도 17 중의 프레임 #n에 있어서, 좌측으로부터 5번째의 화소 내지 7번째의 화소는, 언커버드 백 그라운드 영역인 혼합 영역에 속한다.
도 17 중의 프레임 #n의 좌측으로부터 8번째의 화소 내지 12번째의 화소는, 전경 영역에 속한다. 프레임 #n의 전경 영역에 있어서의, 셔터 시간/v의 기간에 대응하는 값은, F13/v 내지 F 20/v 중 어느 것이다.
도 17 중의 프레임 #n+1의 가장 좌측의 화소 내지 좌측으로부터 8번째의 화소는, 배경 영역에 속하고, 화소값은 각각 B25 내지 B32가 된다.
전경에 대응하는 오브젝트가, 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4화소 우측으로 표시되도록 이동하기 때문에, 도 17 중의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F13/v가 되고, 도 17 중의 좌측으로부터 10번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F13/v가 된다. 도 17 중의 좌측으로부터 11번째의 화소의, 셔터가 개방되고 3번째의 셔터 시간/v의 전경의 성분, 및 도 17 중의 좌측으로부터 12번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 전경의 성분은 F13/v가 된다.
도 17 중의 프레임 #n+1의 좌측으로부터 10번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F14/v가 되고, 도 17 중의 좌측으로부터 11번째의 화소의, 셔터가 개방되고 2번째의 셔터 시간/v의 전경의 성분도 F14/v가 된다. 도 17 중의 좌측으로부터 12번째의 화소의, 셔터가 개방되고 최초의 셔터 시간/v의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17 중의 프레임 #n+1의 좌측으로부터 9번째의 화소의, 셔터가 개방되고 2번째 내지 4번째의, 셔터 시간/v의 배경의 성분은 B33/v가 된다. 도 17 중의 프레임 #n+1의 좌측으로부터 10번째의 화소의, 셔터가 개방되고 3번째 및 4번째의 셔터 시간/v의 배경의 성분은 B34/v가 된다. 도 17 중의 프레임 #n+1의 좌측으로부터 11번째의 화소의, 셔터가 개방되고 4번째의 셔터 시간/v의 배경의 성분은 B35/v가 된다.
도 17 중의 프레임 #n+1에 있어서, 좌측으로부터 9번째의 화소 내지 11번째의 화소는, 언커버드 백 그라운드 영역인 혼합 영역에 속한다.
도 17 중의 프레임 #n+1의 좌측으로부터 12번째의 화소는, 전경 영역에 속한다. 프레임 #n+1의 전경 영역에 있어서의, 셔터 시간/v의 전경의 성분은 F13/v 내지 F16/v 중 어느 것이다.
도 18은, 도 17에 도시하는 화소값으로부터 전경의 성분을 추출한 화상의 모델 도면이다.
도 2로 돌아가서, 영역 특정부(103)는, 복수의 프레임의 화소값을 이용하여, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 또는 언커버드 백 그라운드 영역에 속하는 것을 나타내는 플래그를 화소마다 대응하고, 영역 정보로서, 혼합비 산출부(104) 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는, 복수의 프레임의 화소값, 및 영역 정보를 기초로, 혼합 영역에 포함되는 화소에 대해서 화소마다 혼합비α를 산출하여, 산출한 혼합비α를 전경 배경 분리부(105)에 공급한다.
전경 배경 분리부(105)는, 복수의 프레임의 화소값, 영역 정보, 및 혼합비α를 기초로, 전경의 성분만으로 이루어지는 전경 성분 화상을 추출하여, 움직임 불선명 조정부(106)에 공급한다.
움직임 불선명 조정부(106)는, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 이동 벡터, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양을 조정한 전경 성분 화상을 출력한다.
도 19의 흐름도를 참조하여, 화상 처리 장치에 의한 움직임 불선명의 양의조정 처리를 설명한다. 스텝 S11에 있어서, 영역 특정부(103)는, 입력 화상을 기초로, 입력 화상의 화소마다 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 또는 언커버드 백 그라운드 영역 중 어느 것에 속하는지를 도시하는 영역 정보를 생성하는 영역 특정의 처리를 실행한다. 영역 특정 처리의 상세는, 후술한다. 영역 특정부(103)는, 생성한 영역 정보를 혼합비 산출부(104)에 공급한다.
또, 스텝 S11에 있어서, 영역 특정부(103)는, 입력 화상을 기초로, 입력 화상의 화소마다 전경 영역, 배경 영역, 또는 혼합 영역(커버드 백 그라운드 영역, 또는 언커버드 백 그라운드 영역의 구별을 하지 않는다) 중 어느 것에 속하는지를 도시하는 영역 정보를 생성하도록 해도 좋다. 이 경우에 있어서, 전경 배경 분리부(105) 및 움직임 불선명 조정부(106)는, 이동 벡터의 방향을 기초로, 혼합 영역이 커버드 백 그라운드 영역인지, 또는 언커버드 백 그라운드 영역인지를 판정한다. 예를 들면, 이동 벡터의 방향에 대응하여, 전경 영역, 혼합 영역, 및 배경 영역과 차례대로 나란히 배열되어 있을 때, 그 혼합 영역은, 커버드 백 그라운드 영역이라고 판정되고, 이동 벡터의 방향에 대응하여, 배경 영역, 혼합 영역, 및 전경 영역과 차례대로 나란히 배열되어 있을 때, 그 혼합 영역은, 언커버드 백 그라운드 영역이라고 판정된다.
스텝 S12에 있어서, 혼합비 산출부(104)는, 입력 화상 및 영역 정보를 기초로, 혼합 영역에 포함되는 화소마다, 혼합비α를 산출한다. 혼합비 산출의 처리의 상세는, 후술한다. 혼합비 산출부(104)는, 산출한 혼합비α를 전경 배경 분리부(105)에 공급한다.
스텝 S13에 있어서, 전경 배경 분리부(105)는, 영역 정보, 및 혼합비α를 기초로, 입력 화상으로부터 전경의 성분을 추출하여, 전경 성분 화상으로서 움직임 불선명 조정부(106)에 공급한다.
스텝 S14에 있어서, 움직임 불선명 조정부(106)는, 이동 벡터 및 영역 정보를 기초로, 움직임 방향으로 나란히 배열되는 연속한 화소이고, 언커버드 백 그라운드 영역, 전경 영역, 및 커버드 백 그라운드 영역 중 어느 하나에 속하는 것의 화상 상의 위치를 도시하는 처리 단위를 생성하여, 처리 단위에 대응하는 전경 성분에 포함되는 움직임 불선명의 양을 조정한다. 움직임 불선명의 양의 조정 처리의 상세에 대해서는, 후술한다.
스텝 S15에 있어서, 화상 처리 장치는, 화면 전체에 대해서 처리를 종료하였는지의 여부를 판정하여, 화면 전체에 대해서 처리를 종료하지 않고 있다고 판정된 경우, 스텝 S14로 진행하고, 처리 단위에 대응하는 전경의 성분을 대상으로 한 움직임 불선명의 양의 조정 처리를 반복한다.
스텝 S15에 있어서, 화면 전체에 대해서 처리를 종료했다고 판정된 경우, 처리는 종료된다.
이와 같이, 화상 처리 장치는, 전경과 배경을 분리하여, 전경에 포함되는 움직임 불선명의 양을 조정 할 수 있다. 즉, 화상 처리 장치는, 전경의 화소의 화소값인 샘플 데이터에 포함되는 움직임 불선명의 양을 조정할 수 있다.
이하, 영역 특정부(103), 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)의 각각의 구성에 대해서 설명한다.
도 20은, 영역 특정부(103)의 구성의 일례를 도시하는 블록도이다. 도 20에 구성을 도시하는 영역 특정부(103)는, 이동 벡터를 이용하지 않는다. 프레임 메모리(201)는, 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(201)는, 처리의 대상이 프레임 #n일 때, 프레임 #n의 2개 앞 프레임인 프레임 #n-2, 프레임 #n의 1개 앞의 프레임인 프레임 #n-1, 프레임 #n, 프레임 #n의 1개 뒤 프레임인 프레임 #n+1, 및 프레임 #n의 2개 뒤 프레임인 프레임 #n+2를 기억한다.
정동 판정부(202-1)는, 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값을 프레임 메모리(201)로부터 읽어 내고, 읽어 낸 화소값의 차의 절대값을 산출한다. 정동 판정부(202-1)는, 프레임 #n+2의 화소값과 프레임 #n+1의 화소값의 차의 절대값이, 미리 설정되어 있는 임계값 Th보다 큰지의 여부를 판정하여, 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다. 프레임 #n+2의 화소의 화소값과 프레임 #n+1의 화소의 화소값의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-1)는, 정지를 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다.
정동 판정부(202-2)는, 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값, 및 프레임 #n의 대상이 되는 화소의 화소값을 프레임 메모리(201)로부터 읽어 내어, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-2)는, 프레임 #n+1의 화소값과 프레임 #n의 화소값의 차의 절대값이, 미리 설정되어 있는 임계값 Th보다 큰지의 여부를 판정하여, 화소값의 차의 절대값이, 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다. 프레임 #n+1의 화소의 화소값과 프레임 #n의 화소의 화소값의 차의 절대값이, 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-2)는, 정지를 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다.
정동 판정부(202-3)는, 프레임 #n의 영역 특정의 대상인 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값을 프레임 메모리(201)로부터 읽어 내어, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-3)는, 프레임 #n의 화소값과 프레임 #n-1의 화소값의 차의 절대값이, 미리 설정되어 있는 임계값 Th보다 큰지의 여부를 판정하여, 화소값의 차의 절대값이, 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다. 프레임 #n의 화소의 화소값과 프레임 #n-1의 화소의 화소값의 차의 절대값이, 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-3)는, 정지를 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다.
정동 판정부(202-4)는, 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소의 화소값을 프레임 메모리(201)로부터 읽어 내어, 화소값의 차의 절대값을 산출한다.정동 판정부(202-4)는, 프레임 #n-1의 화소값과 프레임 #-2의 화소값의 차의 절대값이, 미리 설정되어 있는 임계값 Th보다 큰지의 여부를 판정하여, 화소값의 차의 절대값이, 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다. 프레임 #n-1의 화소의 화소값과 프레임 #n-2의 화소의 화소값의 차의 절대값이, 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-4)는, 정지를 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다.
영역 판정부(203-1)는, 정동 판정부(202-1)로부터 공급된 정동 판정이 정지를 나타내고, 또한, 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 언커버드 백 그라운드 영역에 속한다고 판정하고, 영역의 판정되는 화소에 대응하는 언커버드 백 그라운드 영역 판정 플래그에, 언커버드 백 그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-1)는, 정동 판정부(202-1)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는, 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 언커버드 백 그라운드 영역에 속하지 않는다고 판정하고, 영역의 판정되는 화소에 대응하는 언커버드 백 그라운드 영역 판정 플래그에, 언커버드 백 그라운드 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-1)는, 이와 같이 "1" 또는 "0"이 설정된 언커버드 백 그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는, 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고, 또한, 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 정지 영역에 속한다고 판정하고, 영역의 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는, 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는, 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 정지 영역에 속하지 않는다고 판정하고, 영역의 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는, 이와 같이 "1" 또는 "0"이 설정된 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는, 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고, 또한, 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 움직임 영역에 속한다고 판정하고, 영역의 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는, 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내거나, 또는, 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 움직임 영역에 속하지 않는다고 판정하고, 영역의 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는, 이와 같이 "1" 또는 "0"이 설정된 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-3)는, 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고, 또한, 정동 판정부(202-4)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 커버드 백 그라운드 영역에 속한다고 판정하고, 영역의 판정되는 화소에 대응하는 커버드 백 그라운드 영역 판정 플래그에, 커버드 백 그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-3)는, 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내거나, 또는, 정동 판정부(202-4)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 커버드 백 그라운드 영역에 속하지 않는다고 판정하고, 영역의 판정되는 화소에 대응하는 커버드 백 그라운드 영역 판정 플래그에, 커버드 백 그라운드 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-3)는, 이와 같이 "1" 또는 "0"이 설정된 커버드 백 그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
판정 플래그 저장 프레임 메모리(204)는, 영역 판정부(203-1)로부터 공급된 언커버드 백 그라운드 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 정지영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 움직임 영역 판정 플래그, 및 영역 판정부(203-3)로부터 공급된 커버드 백 그라운드 영역 판정 플래그를 각각 기억한다.
판정 플래그 저장 프레임 메모리(204)는, 기억하고 있는 언커버드 백 그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백 그라운드 영역 판정 플래그를 합성부(205)에 공급한다. 합성부(205)는, 판정 플래그 저장 프레임 메모리(204)로부터 공급된, 언커버드 백 그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백 그라운드 영역 판정 플래그를 기초로, 각 화소가, 언커버드 백 그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백 그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하여, 판정 플래그 저장 프레임 메모리(206)에 공급한다.
판정 플래그 저장 프레임 메모리(206)는, 합성부(205)로부터 공급된 영역 정보를 기억하는 동시에, 기억하고 있는 영역 정보를 출력한다.
다음에, 영역 특정부(103)의 처리의 예를 도 21 내지 도 25를 참조하여 설명한다.
전경에 대응하는 오브젝트가 이동하여 있을 때, 오브젝트에 대응하는 화상의 화면 상의 위치는, 프레임마다 변화한다. 도 21에 도시한 바와 같이, 프레임 #n에서, Yn(x, y)로 도시되는 위치에 위치하는 오브젝트에 대응하는 화상은, 다음 프레임인 프레임 #n+1에 있어서, Yn+1(x, y)에 위치한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접해서 1열로 배열하는화소의 화소값을 시간 방향으로 전개한 모델도를 도 22에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대해서 수평일 때, 도 22에 있어서의 모델도는, 1개의 라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 도시한다.
도 22에 있어서, 프레임 #n에 있어서의 라인은, 프레임 #n+1에 있어서의 라인과 동일하다.
프레임 #n에 있어서, 좌측으로부터 2번째의 화소 내지 13번째의 화소에 포함되어 있는 오브젝트에 대응하는 전경의 성분은, 프레임 #n+1에 있어서, 좌측으로부터 6번째 내지 17번째의 화소에 포함된다.
프레임 #n에 있어서, 커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 11번째 내지 13번째의 화소이고, 언커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 2번째 내지 4번째의 화소이다. 프레임 #n+1에 있어서, 커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 15번째 내지 17번째의 화소이고, 언커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 6번째 내지 8번째의 화소이다.
도 22에 도시하는 예에 있어서, 프레임 #n에 포함되는 전경의 성분이, 프레임 #n+1에 있어서 4화소 이동하여 있기 때문에, 움직임량 v는 4이다. 가상 분할수는, 움직임량 v에 대응하여 4이다.
다음에, 주목하고 있는 프레임의 전후에 있어서의 혼합 영역에 속하는 화소의 화소값의 변화에 대해서 설명한다.
도 23에 도시하는, 배경이 정지하고, 전경의 움직임량 v가 4인 프레임 #n에 있어서, 커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 15번째 내지 17번째의 화소이다. 움직임량 v가 4이기 때문에, 1개 앞의 프레임 #n-1에 있어서, 좌측으로부터 15번째 내지 17번째의 화소는, 배경의 성분만을 포함하여, 배경 영역에 속한다. 또한, 다시 1개 앞의 프레임 #n-2에 있어서, 좌측으로부터 15번째 내지 17번째의 화소는, 배경의 성분만을 포함하여, 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1의 좌측으로부터 15번째의 화소의 화소값은, 프레임 #n-2의 좌측으로부터 15번째의 화소의 화소값에서 변화하지 않는다. 마찬가지로, 프레임 #n-1의 좌측으로부터 16번째의 화소의 화소값은, 프레임 #n-2의 좌측으로부터 16번째의 화소의 화소값에서 변화하지 않고, 프레임 #n-1의 좌측으로부터 17번째의 화소의 화소값은, 프레임 #n-2의 좌측으로부터 17번째의 화소의 화소값에서 변화하지 않는다.
즉, 프레임 #n에 있어서의 커버드 백 그라운드 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소는, 배경의 성분만으로 이루어지고, 화소값이 변화하지 않기 때문에, 그 차의 절대값은, 거의 0의 값이 된다. 따라서, 프레임 #n에 있어서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소에 대한 정동 판정은, 정동 판정부(202-4)에 의해 정지라고 판정된다.
프레임 #n에 있어서의 커버드 백 그라운드 영역에 속하는 화소는, 전경의 성분을 포함하기 때문에, 프레임 #n-1에 있어서의 배경의 성분만으로 이루어지는 경우와, 화소값이 다르다. 따라서, 프레임 #n에 있어서의 혼합 영역에 속하는 화소,및 대응하는 프레임 #n-1의 화소에 대한 정동 판정은, 정동 판정부(202-3)에 의해, 움직임으로 판정된다.
이와 같이, 영역 판정부(203-3)는, 정동 판정부(202-3)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-4)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 커버드 백 그라운드 영역에 속한다고 판정한다.
도 24에 도시하는, 배경이 정지하고, 전경의 움직임량 v가 4인 프레임 #n에 있어서, 언커버드 백 그라운드 영역에 포함되는 화소는, 좌측으로부터 2번째 내지 4번째의 화소이다. 움직임량 v가 4이기 때문에, 1개 뒤 프레임 #n+1에 있어서, 좌측으로부터 2번째 내지 4번째의 화소는, 배경의 성분만을 포함하여, 배경 영역에 속한다. 또한, 또 1개 뒤 프레임 #n+2에 있어서, 좌측으로부터 2번째 내지 4번째의 화소는, 배경의 성분만을 포함하여, 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n+2의 좌측으로부터 2번째의 화소의 화소값은, 프레임 #n+1의 좌측으로부터 2번째의 화소의 화소값에서 변화하지 않는다. 마찬가지로, 프레임 #n+2의 좌측으로부터 3번째의 화소의 화소값은, 프레임 #n+1의 좌측으로부터 3번째의 화소의 화소값에서 변화하지 않고, 프레임 #n+2의 좌측으로부터 4번째의 화소의 화소값은, 프레임 #n+1의 좌측으로부터 4번째의 화소의 화소값에서 변화하지 않는다.
즉, 프레임 #n에 있어서의 언커버드 백 그라운드 영역에 속하는 화소에 대응하는, 프레임 #n+1 및 프레임 #n+2의 화소는, 배경의 성분만으로 이루어지고, 화소값이 변화하지 않기 때문에, 그 차의 절대값은, 거의 0의 값이 된다. 따라서, 프레임 #n에 있어서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n+1 및 프레임 #n+2의 화소에 대한 정동 판정은, 정동 판정부(202-1)에 의해 정지라고 판정된다.
프레임 #n에서의 언커버드 백 그라운드 영역에 속하는 화소는, 전경의 성분을 포함하기 때문에, 프레임 #n+1에 있어서의 배경의 성분만으로 이루어지는 경우와, 화소값이 다르다. 따라서, 프레임 #n에 있어서의 혼합 영역에 속하는 화소, 및 대응하는 프레임 #n+1의 화소에 대한 정동 판정은, 정동 판정부(202-2)에 의해 움직임으로 판정된다.
이와 같이, 영역 판정부(203-1)는, 정동 판정부(202-2)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-1)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 언커버드 백 그라운드 영역에 속한다고 판정한다.
도 25는, 프레임 #n에서의 영역 특정부(103)의 판정 조건을 도시하는 도면이다. 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소가 정지라고 판정되고, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임으로 판정되었을 때, 영역 특정부(103)는, 프레임 #n의 판정의 대상이 되는 화소가 커버드 백 그라운드 영역에 속한다고 판정한다.
프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 정지라고 판정되고, 프레임 #n의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 정지라고 판정하였을 때, 영역 특정부(103)는, 프레임 #n의 판정의 대상이 되는 화소가 정지 영역에 속한다고 판정한다.
프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임으로 판정되고, 프레임 #n의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임으로 판정되었을 때, 영역 특정부(103)는, 프레임 #n의 판정의 대상이 되는 화소가 움직임 영역에 속한다고 판정한다.
프레임 #n의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임으로 판정되고, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소가 정지라고 판정하였을 때, 영역 특정부(103)는, 프레임 #n의 판정의 대상이 되는 화소가 언커버드 백 그라운드 영역에 속한다고 판정한다.
도 26A 내지 도 26D는, 영역 특정부(103)의 영역 특정의 결과의 예를 도시하는 도면이다. 도 26A에 있어서, 커버드 백 그라운드 영역에 속한다고 판정된 화소는, 백으로 표시되어 있다. 도 26B에 있어서, 언커버드 백 그라운드 영역에 속한다고 판정된 화소는, 백으로 표시되어 있다.
도 26C에 있어서, 움직임 영역에 속한다고 판정된 화소는, 백으로 표시되어있다. 도 26D에 있어서, 정지 영역에 속한다고 판정된 화소는, 백으로 표시되어 있다.
도 27은, 판정 플래그 저장 프레임 메모리(206)가 출력하는 영역 정보 중, 혼합 영역을 도시하는 영역 정보를 화상으로서 도시하는 도면이다. 도 27에 있어서, 커버드 백 그라운드 영역 또는 언커버드 백 그라운드 영역에 속한다고 판정된 화소, 즉 혼합 영역에 속한다고 판정된 화소는, 백으로 표시되어 있다. 판정 플래그 저장 프레임 메모리(206)가 출력하는 혼합 영역을 나타내는 영역 정보는, 혼합 영역, 및 전경 영역 내의 텍스쳐가 없는 부분에 둘러싸인 텍스쳐가 있는 부분을 도시한다.
다음에, 도 28의 흐름도를 참조하여, 영역 특정부(103)의 영역 특정의 처리를 설명한다. 스텝 S201에 있어서, 프레임 메모리(201)는, 판정의 대상이 되는 프레임 #n을 포함하는 프레임 #n-2 내지 프레임 #n+2의 화상을 취득한다.
스텝 S202에 있어서, 정동 판정부(202-3)는, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소로, 정지인지의 여부를 판정하여, 정지라고 판정된 경우, 스텝 S203으로 진행하고, 정동 판정부(202-2)는, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 정지인지의 여부를 판정한다. 스텝 S203에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 정지라고 판정된 경우, 스텝 S204로 진행하고, 영역 판정부(203-2)는, 영역의 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는, 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 수속은, 스텝 S205로 진행한다.
스텝 S202에 있어서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소로, 움직임으로 판정된 경우, 또는, 스텝 S203에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 움직임으로 판정된 경우, 프레임 #n의 화소가 정지 영역에는 속하지 않기 때문에, 스텝 S204의 처리는 스킵되고, 수속은, 스텝 S205로 진행한다.
스텝 S205에 있어서, 정동 판정부(202-3)는, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소로, 움직임인지의 여부를 판정하여, 움직임으로 판정된 경우, 스텝 S206으로 진행하고, 정동 판정부(202-2)는, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 움직임인지의 여부를 판정한다.
스텝 S206에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 움직임으로 판정된 경우, 스텝 S207로 진행하고, 영역 판정부(203-2)는, 영역의 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는, 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 수속은, 스텝 S208로 진행한다.
스텝 S205에 있어서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소로, 정지라고 판정된 경우, 또는, 스텝 S206에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 정지라고 판정된 경우, 프레임 #n의 화소가 움직임 영역에는 속하지 않기 때문에, 스텝 S207의 처리는 스킵되고, 수속은, 스텝 S208로진행한다.
스텝 S208에 있어서, 정동 판정부(202-4)는, 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소로, 정지인지의 여부를 판정하여, 정지라고 판정된 경우, 스텝 S209로 진행하고, 정동 판정부(202-3)는, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소로, 움직임인지의 여부를 판정한다.
스텝 S209에 있어서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소로, 움직임으로 판정된 경우, 스텝 S210으로 진행하고, 영역 판정부(203-3)는, 영역의 판정되는 화소에 대응하는 커버드 백 그라운드 영역 판정 플래그에, 커버드 백 그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-3)는, 커버드 백 그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 수속은, 스텝 S211로 진행한다.
스텝 S208에 있어서, 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소로, 움직임으로 판정된 경우, 또는, 스텝 S209에 있어서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소로, 정지라고 판정된 경우, 프레임 #n의 화소가 커버드 백 그라운드 영역에는 속하지 않기 때문에, 스텝 S210의 처리는 스킵되고, 수속은, 스텝 S211로 진행한다.
스텝 S211에 있어서, 정동 판정부(202-2)는, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 움직임인지의 여부를 판정하여, 움직임으로 판정된 경우, 스텝 S212로 진행하고, 정동 판정부(202-1)는, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소로, 정지인지의 여부를 판정한다.
스텝 S212에 있어서, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소로, 정지라고 판정된 경우, 스텝 S213으로 진행하고, 영역 판정부(203-1)는, 영역의 판정되는 화소에 대응하는 언커버드 백 그라운드 영역 판정 플래그에, 언커버드 백 그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-1)는, 언커버드 백 그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 수속은, 스텝 S214로 진행한다.
스텝 S211에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소로, 정지라고 판정된 경우, 또는, 스텝 S212에 있어서, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소로, 움직임으로 판정된 경우, 프레임 #n의 화소가 언커버드 백 그라운드 영역에는 속하지 않기 때문에, 스텝 S213의 처리는 스킵되고, 수속은, 스텝 S214로 진행한다.
스텝 S214에 있어서, 영역 특정부(103)는, 프레임 #n의 모든 화소에 대해서 영역을 특정하였는지의 여부를 판정하여, 프레임 #n의 모든 화소에 대해서 영역을 특정하지 않는다고 판정된 경우, 수속은, 스텝 S202로 돌아가서, 다른 화소에 대해서, 영역 특정의 처리를 반복한다.
스텝 S214에 있어서, 프레임 #n의 모든 화소에 대해서 영역을 특정하였다고 판정된 경우, 스텝 S215로 진행하고, 합성부(205)는, 판정 플래그 저장 프레임 메모리(204)에 기억되어 있는 언커버드 백 그라운드 영역 판정 플래그, 및 커버드 백 그라운드 영역 판정 플래그를 기초로, 혼합 영역을 나타내는 영역 정보를 생성하고, 또한, 각 화소가, 언커버드 백 그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백 그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하여, 생성한 영역 정보를 판정 플래그 저장 프레임 메모리(206)에 설정하고, 처리는 종료된다.
이와 같이, 영역 특정부(103)는, 프레임에 포함되어 있는 화소의 각각에 대해서, 움직임 영역, 정지 영역, 언커버드 백 그라운드 영역, 또는 커버드 백 그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성 할 수 있다.
또, 영역 특정부(103)는, 언커버드 백 그라운드 영역 및 커버드 백 그라운드 영역에 대응하는 영역 정보에 논리합을 적용함으로써, 혼합 영역에 대응하는 영역 정보를 생성하고, 프레임에 포함되어 있는 화소의 각각에 대해서, 움직임 영역, 정지 영역, 또는 혼합 영역에 속하는 것을 나타내는 플래그로 이루어지는 영역 정보를 생성하도록 해도 좋다.
전경에 대응하는 오브젝트가 텍스쳐를 갖는 경우, 영역 특정부(103)는, 보다 정확하게 움직임 영역을 특정 할 수 있다.
영역 특정부(103)는, 움직임 영역을 나타내는 영역 정보를 전경 영역을 나타내는 영역 정보로서, 또한, 정지 영역을 나타내는 영역 정보를 배경 영역을 나타내는 영역 정보로서 출력 할 수 있다.
또, 배경에 대응하는 오브젝트가 정지하고 있다고 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 영역을 특정하는 처리를 적용 할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 똑같이 움직이고 있을 때, 영역 특정부(103)는, 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에대응하는 오브젝트가 정지하고 있는 경우와 같이 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 다른 움직임을 포함하고 있을 때, 영역 특정부(103)는, 움직임에 대응한 화소를 선택하여, 상술의 처리를 실행한다.
도 29는, 영역 특정부(103)의 구성의 다른 일례를 도시하는 블록도이다. 도 29에 도시하는 영역 특정부(103)는, 이동 벡터를 사용하지 않는다. 배경 화상 생성부(301)는, 입력 화상에 대응하는 배경 화상을 생성하여, 생성한 배경 화상을 2값 오브젝트 화상 추출부(302)에 공급한다. 배경 화상 생성부(301)는, 예를 들면, 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여, 배경 화상을 생성한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접해서 1열로 배열하는 화소의 화소값을 시간 방향으로 전개한 모델도의 예를 도 30에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대해서 수평일 때, 도 30에 있어서의 모델도는, 1개의 라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 도시한다.
도 30에 있어서, 프레임 #n에 있어서의 라인은, 프레임 #n-1 및 프레임 #n+1에 있어서의 라인과 동일하다.
프레임 #n에 있어서, 좌측으로부터 6번째의 화소 내지 17번째의 화소에 포함되어 있는 오브젝트에 대응하는 전경의 성분은, 프레임 #n-1에 있어서, 좌측으로부터 2번째 내지 13번째의 화소에 포함되고, 프레임 #n+1에 있어서, 좌측으로부터 10번째 내지 21번째의 화소에 포함된다.
프레임 #n-1에 있어서, 커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 11번째 내지 13번째의 화소이고, 언커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 2번째 내지 4번째의 화소이다. 프레임 #n에 있어서, 커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 15번째 내지 17번째의 화소이고, 언커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 6번째 내지 8번째의 화소이다. 프레임 #n+1에 있어서, 커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 19번째 내지 21번째의 화소이고, 언커버드 백 그라운드 영역에 속하는 화소는, 좌측으로부터 10번째 내지 12번째의 화소이다.
프레임 #n-1에 있어서, 배경 영역에 속하는 화소는, 좌측으로부터 1번째의 화소, 및 좌측으로부터 14번째 내지 21번째의 화소이다. 프레임 #n에 있어서, 배경 영역에 속하는 화소는, 좌측으로부터 1번째 내지 5번째의 화소, 및 좌측으로부터 18번째 내지 21번째의 화소이다. 프레임 #n+1에 있어서, 배경 영역에 속하는 화소는, 좌측으로부터 1번째 내지 9번째의 화소이다.
배경 화상 생성부(301)이 생성하는, 도 30의 예에 대응하는 배경 화상의 예를 도 31에 도시한다. 배경 화상은, 배경의 오브젝트에 대응하는 화소로 구성되고, 전경의 오브젝트에 대응하는 화상의 성분을 포함하지 않는다.
2값 오브젝트 화상 추출부(302)는, 배경 화상 및 입력 화상의 상관을 기초로, 2값 오브젝트 화상을 생성하여, 생성한 2값 오브젝트 화상을 시간 변화 검출부(303)에 공급한다.
도 32는, 2값 오브젝트 화상 추출부(302)의 구성을 도시하는 블록도이다.상관값 연산부(321)는, 배경 화상 생성부(301)로부터 공급된 배경 화상 및 입력 화상의 상관을 연산하여, 상관값을 생성하고, 생성한 상관값을 임계값 처리부(322)에 공급한다.
상관값 연산부(321)는, 예를 들면, 도 33A에 도시한 바와 같이, x4를 중심으로 한 3×3의 배경 화상 중의 블록과, 도 33B에 도시한 바와 같이, 배경 화상 중의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 중의 블록에, 식 4를 적용하여, Y4에 대응하는 상관값을 산출한다.
상관값 연산부(321)는, 이와 같이 각 화소에 대응하여 산출된 상관값을 임계값 처리부(322)에 공급한다.
또한, 상관값 연산부(321)는, 예를 들면, 도 34A에 도시한 바와 같이, x4를 중심으로 한 3×3의 배경 화상 중의 블록과, 도 34B에 도시한 바와 같이, 배경 화상 중의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 중의 블록에, 식 7을 적용하여, Y4에 대응하는 차분 절대값을 산출하도록 해도 좋다.
상관값 연산부(321)는, 이와 같이 산출된 차분 절대값을 상관값으로서, 임계값 처리부(322)에 공급한다.
임계값 처리부(322)는, 상관 화상의 화소값과 임계값 th0을 비교해서, 상관값이 임계값 th0 이하인 경우, 2값 오브젝트 화상의 화소값에 1을 설정하고, 상관값이 임계값 th0보다 큰 경우, 2값 오브젝트 화상의 화소값에 0을 설정하고, O 또는 1이 화소값으로 설정된 2값 오브젝트 화상을 출력한다. 임계값 처리부(322)는, 임계값 th0을 미리 기억하도록 해도 좋고, 또는, 외부로부터 입력된 임계값 th0을 사용하도록 해도 좋다.
도 35는, 도 30에 도시하는 입력 화상의 모델에 대응하는 2값 오브젝트 화상의 예를 도시하는 도면이다. 2값 오브젝트 화상에 있어서, 배경 화상과 상관이 강한 화소에는, 화소값에 0이 설정된다.
도 36은, 시간 변화 검출부(303)의 구성을 도시하는 블록도이다. 프레임 메모리(341)는, 프레임 #n의 화소에 대해서 영역을 판정할 때, 2값 오브젝트 화상 추출부(302)로부터 공급된, 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2값 오브젝트 화상을 기억한다.
영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2값 오브젝트 화상을 기초로, 프레임 #n의 각 화소에 대해서 영역을 판정하여, 영역 정보를 생성하고, 생성한 영역 정보를 출력한다.
도 37은, 영역 판정부(342)의 판정을 설명하는 도면이다. 프레임 #n의 2값 오브젝트 화상의 주목하고 있는 화소가 0일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 배경 영역에 속한다고 판정한다.
프레임 #n의 2값 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1의 2값 오브젝트 화상의 대응하는 화소가 1이고, 프레임 #n+1의 2값 오브젝트 화상의 대응하는 화소가 1일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 전경 영역에 속한다고 판정한다.
프레임 #n의 2값 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1의 2값 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 커버드 백 그라운드 영역에 속한다고 판정한다.
프레임 #n의 2값 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n+1의 2값 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 언커버드 백 그라운드 영역에 속한다고 판정한다.
도 38은, 도 30에 도시하는 입력 화상의 모델에 대응하는 2값 오브젝트 화상에 대하여, 시간 변화 검출부(303)의 판정한 예를 도시하는 도면이다. 시간 변화 검출부(303)는, 2값 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 프레임 #n의 좌측으로부터 1번째 내지 5번째의 화소를 배경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는, 2값 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #+1의 대응하는 화소가 0이기 때문에, 좌측으로부터 6번째 내지 9번째의 화소를 언커버드 백 그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는, 2값 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 1이고, 프레임 #n+1의 대응하는 화소가 1이기 때문에, 좌측으로부터 10번째 내지 13번째의 화소를 전경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는, 2값 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 0이기 때문에, 좌측으로부터 14번째 내지 17번째의 화소를 커버드 백 그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는, 2값 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 좌측으로부터 18번째 내지 21번째의 화소를 배경 영역에 속한다고 판정한다.
다음에, 도 39의 흐름도를 참조하여, 영역 판정부(103)의 영역 특정의 처리를 설명한다. 스텝 S301에 있어서, 영역 판정부(103)의 배경 화상 생성부(301)는, 입력 화상을 기초로, 예를 들면, 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성하고, 생성한 배경 화상을 2값 오브젝트 화상 추출부(302)에 공급한다.
스텝 S302에 있어서, 2값 오브젝트 화상 추출부(302)는, 예를 들면, 도 33A 및 도 33B를 참조하여 설명한 연산에 의해, 입력 화상과 배경 화상 생성부(301)에서 공급된 배경 화상과의 상관값을 연산한다. 스텝 S303에 있어서, 2값 오브젝트 화상 추출부(302)는, 예를 들면, 상관값과 임계값 th0을 비교함으로써, 상관값 및임계값 th0으로부터 2값 오브젝트 화상을 연산한다.
스텝 S304에 있어서, 시간 변화 검출부(303)는, 영역 판정의 처리를 실행하고, 처리는 종료된다.
도 40의 흐름도를 참조하여, 스텝 S304에 대응하는 영역 판정의 처리의 상세를 설명한다. 스텝 S321에 있어서, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에 있어서, 주목하는 화소가 0인지의 여부를 판정하여, 프레임 #n에 있어서, 주목하는 화소가 0이라고 판정된 경우, 스텝 S322로 진행하고, 프레임 #n의 주목하는 화소가 배경 영역에 속한다고 설정하고, 처리는 종료된다.
스텝 S321에 있어서, 프레임 #n에 있어서, 주목하는 화소가 1이라고 판정된 경우, 스텝 S323으로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에 있어서, 주목하는 화소가 1이고, 또한, 프레임 #n-1에 있어서, 대응하는 화소가 0인지의 여부를 판정하고, 프레임 #n에 있어서, 주목하는 화소가 1이고, 또한, 프레임 #n-1에 있어서, 대응하는 화소가 0이라고 판정된 경우, 스텝 S324로 진행하여, 프레임 #n의 주목하는 화소가 커버드 백 그라운드 영역에 속한다고 설정하고, 처리는 종료된다.
스텝 S323에 있어서, 프레임 #n에 있어서, 주목하는 화소가 0이거나, 또는, 프레임 #n-1에 있어서, 대응하는 화소가 1이라고 판정된 경우, 스텝 S325로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에 있어서, 주목하는 화소가 1이고, 또한, 프레임 #n+1에 있어서, 대응하는 화소가 0인지의 여부를 판정하여, 프레임 #n에 있어서, 주목하는 화소가 1이고, 또한, 프레임 #n+1에 있어서, 대응하는 화소가 0이라고 판정된 경우, 스텝 S326으로 진행하고, 프레임 #n의 주목하는 화소가 언커버드 백 그라운드 영역에 속한다고 설정하고, 처리는 종료된다.
스텝 S325에 있어서, 프레임 #n에 있어서, 주목하는 화소가 0이거나, 또는, 프레임 #n+1에 있어서, 대응하는 화소가 1이라고 판정된 경우, 스텝 S327로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 #n의 주목하는 화소를 전경 영역으로 설정하고, 처리는 종료된다.
이와 같이, 영역 특정부(103)는, 입력된 화상과 대응하는 배경 화상의 상관값을 기초로, 입력 화상의 화소가 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역 중 어느 하나에 속하는지를 특정하여, 특정한 결과에 대응하는 영역 정보를 생성 할 수 있다.
도 41은, 영역 특정부(103)의 다른 구성을 도시하는 블록도이다. 도 41에 도시하는 영역 특정부(103)는, 움직임 검출부(102)로부터 공급되는 이동 벡터와 그 위치 정보를 사용한다. 도 29에 도시하는 경우와 동일 부분에는, 동일한 번호를 붙이고, 그 설명은 생략한다.
로버스트화부(361)는, 2값 오브젝트 화상 추출부(302)로부터 공급된, N개의 프레임의 2값 오브젝트 화상을 기초로, 로버스트화된 2값 오브젝트 화상을 생성하여, 시간 변화 검출부(303)에 출력한다.
도 42는, 로버스트화부(361)의 구성을 설명하는 블록도이다. 움직임 보상부(381)는, 움직임 검출부(102)로부터 공급된 이동 벡터와 그 위치 정보를 기초로, N개의 프레임의 2값 오브젝트 화상의 움직임을 보상하여, 움직임이 보상된 2값 오브젝트 화상을 스위치(382)에 출력한다.
도 43 및 도 44의 예를 참조하여, 움직임 보상부(381)의 움직임 보상에 대해서 설명한다. 예를 들면, 프레임 #n의 영역을 판정할 때, 도 43에 예를 도시하는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2값 오브젝트 화상이 입력된 경우, 움직임 보상부(381)는, 움직임 검출부(102)로부터 공급된 이동 벡터를 기초로, 도 44에 예를 도시하도록, 프레임 #n-1의 2값 오브젝트 화상, 및 프레임 #n+1의 2값 오브젝트 화상을 움직임 보상하여, 움직임 보상된 2값 오브젝트 화상을 스위치(382)에 공급한다.
스위치(382)는, 1번째의 프레임의 움직임 보상된 2값 오브젝트 화상을 프레임 메모리(383-1)에 출력하고, 2번째의 프레임의 움직임 보상된 2값 오브젝트 화상을 프레임 메모리(383-2)에 출력한다. 마찬가지로, 스위치(382)는, 3번째 내지 N-1번째의 프레임의 움직임 보상된 2값 오브젝트 화상의 각각을 프레임 메모리(383-3) 내지 프레임 메모리((383-(N-1))) 중 어느 하나에 출력하고, N번째의 프레임의 움직임 보상된 2값 오브젝트 화상을 프레임 메모리(383-N)에 출력한다.
프레임 메모리(383-1)는, 1번째의 프레임의 움직임 보상된 2값 오브젝트 화상을 기억하고, 기억되어 있는 2값 오브젝트 화상을 웨이팅부(384-1)에 출력한다.프레임 메모리(383-2)는, 2번째의 프레임의 움직임 보상된 2값 오브젝트 화상을 기억하고, 기억되어 있는 2값 오브젝트 화상을 웨이팅부(384-2)에 출력한다.
마찬가지로, 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1))의 각각은, 3번째의 프레임 내지 N-1번째의 프레임의 움직임 보상된 2값 오브젝트 화상 중 어느 하나를 기억하고, 기억되어 있는 2값 오브젝트 화상을 웨이팅부(384-3) 내지 웨이팅부(384-(N-1)) 중 어느 하나에 출력한다. 프레임 메모리(383-N)는, N번째의 프레임의 움직임 보상된 2값 오브젝트 화상을 기억하고, 기억되어 있는 2값 오브젝트 화상을 웨이팅부(384-N)에 출력한다.
웨이팅부(384-1)는, 프레임 메모리(383-1)로부터 공급된 1번째의 프레임의 움직임 보상된 2값 오브젝트 화상의 화소값에 미리 정한 무게 w1을 곱하여, 적산부(385)에 공급한다. 웨이팅부(384-2)는, 프레임 메모리(383-2)로부터 공급된 2번째의 프레임의 움직임 보상된 2값 오브젝트 화상의 화소값에 미리 정한 무게 w2를 곱하여, 적산부(385)에 공급한다.
마찬가지로, 웨이팅부(384-3) 내지 웨이팅부(384-(N-1))의 각각은, 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 것으로부터 공급된 3번째 내지 N-1번째 중 어느 프레임의 움직임 보상된 2값 오브젝트 화상의 화소값에 미리 정한 무게 w3 내지 무게 w(N-1) 중 어느 것을 곱하여, 적산부(385)에 공급한다. 웨이팅부(384-N)는, 프레임 메모리(383-N)에서 공급된 N번째의 프레임의 움직임 보상된 2값 오브젝트 화상의 화소값에 미리 정한 무게 wN을 곱하여, 적산부(385)에 공급한다.
적산부(385)는, 1 내지 N번째의 프레임의 움직임 보상되어, 각각 무게 w1 내지 wN 중 어느 것이 곱해진, 2값 오브젝트 화상의 대응하는 화소값을 적산하여, 적산된 화소값을 미리 정한 임계값 th0과 비교함으로써 2값 오브젝트 화상을 생성한다.
이와 같이, 로버스트화부(361)는, N개의 2값 오브젝트 화상으로부터 로버스트화된 2값 오브젝트 화상을 생성하여, 시간 변화 검출부(303)에 공급하기 때문에, 도 41에 구성을 도시하는 영역 특정부(103)는, 입력 화상에 노이즈가 포함되어 있더라도, 도 29에 도시하는 경우에 비교해서, 보다 정확하게 영역을 특정 할 수 있다.
다음에, 도 41에 구성을 도시하는 영역 특정부(103)의 영역 특정의 처리에 대해서, 도 45의 흐름도를 참조하여 설명한다. 스텝 S341 내지 스텝 S343의 처리는, 도 39의 흐름도로 설명한 스텝 S301 내지 스텝 S303과 각각 동일하므로 그 설명은 생략한다.
스텝 S344에 있어서, 로버스트화부(361)는, 로버스트화의 처리를 실행한다.
스텝 S345에 있어서, 시간 변화 검출부(303)는, 영역 판정의 처리를 실행하고, 처리는 종료된다. 스텝 S345의 처리의 상세는, 도 40의 흐름도를 참조하여 설명한 처리와 동일하기 때문에 그 설명은 생략한다.
다음에, 도 46의 흐름도를 참조하여, 도 45의 스텝 S344의 처리에 대응하는, 로버스트화의 처리의 상세에 대해서 설명한다. 스텝 S361에 있어서, 움직임 보상부(381)는, 움직임 검출부(102)로부터 공급되는 이동 벡터와 그 위치 정보를 기초로, 입력된 2값 오브젝트 화상의 움직임 보상의 처리를 실행한다. 스텝 S362에 있어서, 프레임 메모리(383-1) 내지 (383-N) 중 어느 것인가는, 스위치(382)를 통해 공급된 움직임 보상된 2값 오브젝트 화상을 기억한다.
스텝 S363에 있어서, 로버스트화부(361)는, N개의 2값 오브젝트 화상이 기억되었는지의 여부를 판정하여, N개의 2값 오브젝트 화상이 기억되어 있지 않다고 판정된 경우, 스텝 S361로 돌아가서, 2값 오브젝트 화상의 움직임 보상의 처리 및 2값 오브젝트 화상의 기억의 처리를 반복한다.
스텝 S363에 있어서, N개의 2값 오브젝트 화상이 기억되었다고 판정된 경우, 스텝 S364로 진행하고, 웨이팅부(384-1) 내지 (384-N)의 각각은, N개의 2값 오브젝트 화상의 각각에 w1 내지 wN 중 어느 무게를 곱하여 웨이팅한다.
스텝 S365에 있어서, 적산부(385)는, 웨이팅된 N개의 2값 오브젝트 화상을 적산한다.
스텝 S366에 있어서, 적산부(385)는, 예를 들면, 미리 정해진 임계값 th1과의 비교 등에 의해, 적산된 화상으로부터 2값 오브젝트 화상을 생성하고, 처리는 종료된다.
이와 같이, 도 41에 구성을 도시하는 영역 특정부(103)는, 로버스트화된 2값 오브젝트 화상을 기초로, 영역 정보를 생성 할 수 있다.
이상과 같이, 영역 특정부(103)는, 프레임에 포함되어 있는 화소의 각각에 대해서, 움직임 영역, 정지 영역, 언커버드 백 그라운드 영역, 또는 커버드 백 그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성 할 수 있다.
도 47은, 혼합비 산출부(104)의 구성의 일례를 도시하는 블록도이다. 추정 혼합비 처리부(401)는, 입력 화상을 기초로, 커버드 백 그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
추정 혼합비 처리부(402)는, 입력 화상을 기초로, 언커버드 백 그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
전경에 대응하는 오브젝트가 셔터 시간 내에 등속으로 움직이고 있다고 가정할 수 있기 때문에, 혼합 영역에 속하는 화소의 혼합비α는, 이하의 성질을 갖는다. 즉, 혼합비α는, 화소의 위치의 변화에 대응하여, 직선적으로 변화한다. 화소의 위치의 변화를 1차원이라고 하면, 혼합비α의 변화는, 직선으로 표현할 수 있고, 화소의 위치의 변화를 2차원이라고 하면, 혼합비α의 변화는, 평면으로 표현 할 수 있다.
또, 1프레임의 기간은 짧기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다는 가정이 성립한다.
이 경우, 혼합비α의 기울기는, 전경의 셔터 시간 내에서의 움직임량 v의 역비가 된다.
이상적인 혼합비α의 예를 도 48에 도시한다. 이상적인 혼합비α의 혼합 영역에서의 기울기 l은, 움직임량 v의 역수로서 나타낼 수 있다.
도 48에 도시한 바와 같이, 이상적인 혼합비α는, 배경 영역에서, 1의 값을가지고, 전경 영역에서, 0의 값을 가지고, 혼합 영역에서, 0을 넘어 1 미만의 값을 갖는다.
도 49의 예에 있어서, 프레임 #n의 좌측으로부터 7번째의 화소의 화소값 CO6은, 프레임 #n-1의 좌측으로부터 7번째의 화소의 화소값 P06을 이용하여, 식 8로 나타낼 수 있다.
식 8에 있어서, 화소값 C06을 혼합 영역의 화소의 화소값 M과, 화소값 P06을 배경 영역의 화소의 화소값 B라고 표현한다. 즉, 혼합 영역의 화소의 화소값 M 및 배경 영역의 화소의 화소값 B는, 각각, 식 9 및 식 10과 같이 표현 할 수 있다.
식 8 중의 2/v는, 혼합비α에 대응한다. 움직임량 v가 4이기 때문에, 프레임 #n의 좌측으로부터 7번째의 화소의 혼합비α는, 0.5가 된다.
이상과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값이라고 간주하고, 프레임 #N전의 프레임 #n-1의 화소값 P를 배경 영역의 화소값이라고 간주함으로써, 혼합비α를 도시하는 식 3은, 식 11과 같이 바꿔 쓸 수 있다.
식 11의 f는, 주목하고 있는 화소에 포함되는 전경의 성분의 합ΣiFi/v이다. 식 11에 포함되는 변수는, 혼합비α및 전경의 성분의 합 f의 2개이다.
마찬가지로, 언커버드 백 그라운드 영역에 있어서의, 움직임량 v가 4이고, 시간 방향의 가상 분할수가 4이다, 화소값을 시간 방향으로 전개한 모델을 도 50에 도시한다.
언커버드 백 그라운드 영역에 있어서, 상술한 커버드 백 그라운드 영역에서의 표현과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값이라고 간주하고, 프레임 #N뒤의 프레임 #n+1의 화소값 N을 배경 영역의 화소값이라고 간주함으로써, 혼합비α를 도시하는 식 3은, 식 12와 같이 표현 할 수 있다.
또, 배경의 오브젝트가 정지하고 있다고 설명하였지만, 배경의 오브젝트가 움직이고 있는 경우에 있어서도, 배경의 움직임량 v에 대응시킨 위치의 화소의 화소값을 이용함으로써, 식 8 내지 식 12를 적용 할 수 있다. 예를 들면, 도 49에 있어서, 배경에 대응하는 오브젝트의 움직임량 v가 2이고, 가상 분할수가 2일 때, 배경에 대응하는 오브젝트가 도 중의 우측으로 움직이고 있을 때, 식 10에 있어서의 배경 영역의 화소의 화소값 B는, 화소값 PO4가 된다.
식 11 및 식 12는, 각각 2개의 변수를 포함하기 때문에, 그대로는 혼합비α를 구할 수 없다. 여기서, 화상은 일반적으로 공간적으로 상관이 강하기 때문에 근접하는 화소끼리 거의 동일한 화소값이 된다.
그래서, 전경 성분은, 공간적으로 상관이 강하기 때문에, 전경의 성분의 합 f를 앞 또는 뒤 프레임으로부터 도출할 수 있도록 식을 변형하여, 혼합비α를 구한다.
도 51의 프레임 #n의 좌측으로부터 7번째의 화소의 화소값 Mc는, 식 13으로 나타낼 수 있다.
식 13의 우변 제1항의 2/v는, 혼합비α에 상당한다. 식 13의 우변 제2항은, 뒤 프레임 #n+1의 화소값을 이용하여, 식 14와 같이 나타내는 것으로 한다.
여기서, 전경의 성분의 공간 상관을 이용하여, 식 15가 성립하면 한다.
식 14는, 식 15를 이용하여, 식 16과 같이 치환할 수 있다.
결과로서, β는, 식 17로 나타낼 수 있다.
일반적으로, 식 15에 도시한 바와 같이 혼합 영역에 관계하는 전경의 성분이 같다고 가정하면, 혼합 영역의 모든 화소에 대해서, 내분비의 관계로부터 식 18이 성립한다.
식 18이 성립한다고 한다면, 식 11은, 식 19에 도시한 바와 같이 전개 할 수 있다.
마찬가지로, 식 18이 성립한다고 한다면, 식 12는, 식 20에 도시한 바와 같이 전개 할 수 있다.
식 19 및 식 20에 있어서, C, N, 및 P는, 기지의 화소값이기 때문에, 식 19 및 식 20에 포함되는 변수는, 혼합비α만이다. 식 19 및 식 20에 있어서의, C, N, 및 P의 관계를 도 52에 도시한다. C는, 혼합비α를 산출하는, 프레임 #n의 주목하고 있는 화소의 화소값이다. N은, 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n+1의 화소의 화소값이다. P는, 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n-1의 화소의 화소값이다.
따라서, 식 19 및 식 20의 각각에 1개의 변수가 포함되는 것이 되기 때문에, 3개의 프레임의 화소의 화소값을 이용하여, 혼합비α를 산출 할 수 있다. 식 19 및 식 20을 푸는 것에 의해, 바른 혼합비α가 산출되기 위한 조건은, 혼합 영역에 관계하는 전경의 성분이 같은, 즉, 전경의 오브젝트가 정지하고 있을 때 촬상된 전경의 화상 오브젝트에 있어서, 전경의 오브젝트의 움직임의 방향에 대응하는, 화상 오브젝트의 경계에 위치하는 화소이고, 움직임량 v의 2배의 수의 연속하고 있는 화소의 화소값이, 일정한 것이다.
이상과 같이, 커버드 백 그라운드 영역에 속하는 화소의 혼합비α는, 식 21에 의해 산출되고, 언커버드 백 그라운드 영역에 속하는 화소의 혼합비α는, 식 22에 의해 산출된다.
도 53은, 추정 혼합비 처리부(401)의 구성을 도시하는 블록도이다. 프레임 메모리(421)는, 입력된 화상을 프레임 단위로 기억하고, 입력 화상으로서 입력되어 있는 프레임으로부터 1개 뒤 프레임을 프레임 메모리(422) 및 혼합비 연산부(423)에 공급한다.
프레임 메모리(422)는, 입력된 화상을 프레임 단위로 기억하고, 프레임 메모리(421)로부터 공급되어 있는 프레임으로부터 1개 뒤 프레임을 혼합비 연산부(423)에 공급한다.
따라서, 입력 화상으로서 프레임 #n+1이 혼합비 연산부(423)에 입력되어 있을 때, 프레임 메모리(421)는, 프레임 #n을 혼합비 연산부(423)에 공급하고, 프레임 메모리(422)는, 프레임 #n-1을 혼합비 연산부(423)에 공급한다.
혼합비 연산부(423)는, 식 21에 도시하는 연산에 의해, 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n-1의 화소의 화소값 P를 기초로, 주목하고 있는 화소의 추정 혼합비를 산출하여, 산출한 추정 혼합비를 출력한다. 예를 들면, 배경이 정지하고 있을 때, 혼합비 연산부(423)는, 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 프레임 내의 위치가 동일한, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 프레임 내의 위치가 동일한, 프레임 #n-1의 화소의 화소값 P를 기초로, 주목하고 있는 화소의 추정 혼합비를 산출하여, 산출한 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는, 입력 화상을 기초로, 추정 혼합비를 산출하여, 혼합비 결정부(403)에 공급 할 수 있다.
또, 추정 혼합비 처리부(402)는, 추정 혼합비 처리부(401)가 식 21에 도시하는 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 데 대해서, 식 22에 나타내는 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 부분이 다른 것을 제외하고, 추정 혼합비 처리부(401)와 동일하기 때문에, 그 설명은 생략한다.
도 54는, 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 도시하는 도면이다. 도 54에 도시하는 추정 혼합비는, 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임량 v가 11인 경우의 결과를, 1라인에 대해서 도시하는 것이다.
추정 혼합비는, 혼합 영역에 있어서, 도 48에 도시한 바와 같이, 거의 직선적으로 변화하고 있는 것을 알 수 있다.
도 47로 돌아가서, 혼합비 결정부(403)는, 영역 특정부(103)로부터 공급된, 혼합비α의 산출의 대상이 되는 화소가, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 또는 언커버드 백 그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 기초로, 혼합비α를 설정한다. 혼합비 결정부(403)는, 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비α로 설정하고, 대상이 되는 화소가 커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α로 설정한다. 혼합비 결정부(403)는, 영역 정보를 기초로 설정한 혼합비α를 출력한다.
도 55는, 혼합비 산출부(104)의 다른 구성을 도시하는 블록도이다. 선택부(441)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 커버드 백 그라운드 영역에 속하는 화소 및, 이것에 대응하기 전 및 후의 프레임의 화소를 추정 혼합비 처리부(442)에 공급한다. 선택부(441)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 언커버드 백 그라운드 영역에 속하는 화소 및, 이것에 대응하기 전 및 후의 프레임의 화소를 추정 혼합비 처리부(443)에 공급한다.
추정 혼합비 처리부(442)는, 선택부(441)로부터 입력된 화소값을 기초로, 식 21에 도시하는 연산에 의해, 커버드 백 그라운드 영역에 속하는, 주목하고 있는 화소의 추정 혼합비를 산출하여, 산출한 추정 혼합비를 선택부(444)에 공급한다.
추정 혼합비 처리부(443)는, 선택부(441)로부터 입력된 화소값을 기초로, 식 22에 도시하는 연산에 의해, 언커버드 백 그라운드 영역에 속하는, 주목하고 있는 화소의 추정 혼합비를 산출하여, 산출한 추정 혼합비를 선택부(444)에 공급한다.
선택부(444)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 대상이 되는 화소가 전경 영역에 속하는 경우, 0인 추정 혼합비를 선택하여, 혼합비α로설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1인 추정 혼합비를 선택하여, 혼합비α로 설정한다. 선택부(444)는, 대상이 되는 화소가 커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(442)로부터 공급된 추정 혼합비를 선택하여 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(443)로부터 공급된 추정 혼합비를 선택하여 혼합비α로 설정한다. 선택부(444)는, 영역 정보를 기초로 선택하여 설정한 혼합비α를 출력한다.
이와 같이, 도 55에 도시하는 다른 구성을 갖는 혼합비 산출부(104)는, 화상이 포함되는 화소마다 혼합비α를 산출하여, 산출한 혼합비α를 출력 할 수 있다.
도 56의 흐름도를 참조하여, 도 47에 구성을 도시하는 혼합비 산출부(104)의 혼합비α의 산출 처리를 설명한다. 스텝 S401에 있어서, 혼합비 산출부(104)는, 영역 특정부(103)로부터 공급된 영역 정보를 취득한다. 스텝 S402에 있어서, 추정 혼합비 처리부(401)는, 커버드 백 그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다. 혼합비 추정의 연산 처리의 상세는, 도 57의 흐름도를 참조하여, 후술한다.
스텝 S403에 있어서, 추정 혼합비 처리부(402)는, 언커버드 백 그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
스텝 S404에 있어서, 혼합비 산출부(104)는, 프레임 전체에 대해서, 혼합비α를 추정하였는지의 여부를 판정하고, 프레임 전체에 대해서, 혼합비α를 추정하지 않고 있다고 판정된 경우, 스텝 S402로 돌아가서, 다음의 화소에 대해서 혼합비α를 추정하는 처리를 실행한다.
스텝 S404에 있어서, 프레임 전체에 대해서, 혼합비α를 추정하였다고 판정된 경우, 스텝 S405로 진행하고, 혼합비 결정부(403)는, 화소가, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 또는 언커버드 백 그라운드 영역 중 어느 하나에 속하는지를 도시하는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합비α를 설정한다. 혼합비 결정부(403)는, 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비α로 설정하고, 대상이 되는 화소가 커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 처리는 종료된다.
이와 같이, 혼합비 산출부(104)는, 영역 특정부(103)로부터 공급된 영역 정보, 및 입력 화상을 기초로, 각 화소에 대응하는 특징량인 혼합비α를 산출할 수 있다.
도 55에 구성을 도시하는 혼합비 산출부(104)의 혼합비α의 산출 처리는, 도 56의 흐름도로 설명한 처리와 동일하기 때문에, 그 설명은 생략한다.
다음에, 도 56의 스텝 S402에 대응하는, 커버드 백 그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 57의 흐름도를 참조하여 설명한다.
스텝 S421에 있어서, 혼합비 연산부(423)는, 프레임 메모리(421)로부터, 프레임 #n의 주목 화소의 화소값 C를 취득한다.
스텝 S422에 있어서, 혼합비 연산부(423)는, 프레임 메모리(422)로부터, 주목 화소에 대응하는, 프레임 #n-1의 화소의 화소값 P를 취득한다.
스텝 S423에 있어서, 혼합비 연산부(423)는, 입력 화상에 포함되는 주목 화소에 대응하는, 프레임 #n+1의 화소의 화소값 N을 취득한다.
스텝 S424에 있어서, 혼합비 연산부(423)는, 프레임 #n의 주목 화소의 화소값 C, 프레임 #n-1의 화소의 화소값 P, 및 프레임 #n+1의 화소의 화소값 N을 기초로, 추정 혼합비를 연산한다.
스텝 S425에 있어서, 혼합비 연산부(423)는, 프레임 전체에 대해서, 추정 혼합비를 연산하는 처리를 종료하였는지의 여부를 판정하고, 프레임 전체에 대해서, 추정 혼합비를 연산하는 처리를 종료하지 않고 있다고 판정된 경우, 스텝 S421로 돌아가서, 다음의 화소에 대해서 추정 혼합비를 산출하는 처리를 반복한다.
스텝 S425에 있어서, 프레임 전체에 대해서, 추정 혼합비를 연산하는 처리를 종료하였다고 판정된 경우, 처리는 종료된다.
이와 같이, 추정 혼합비 처리부(401)는, 입력 화상을 기초로, 추정 혼합비를 연산 할 수 있다.
도 56의 스텝 S403에 있어서의 언커버드 백 그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백 그라운드 영역의 모델에 대응하는 식을 이용한, 도 57의 흐름도에 도시하는 처리와 동일하기 때문에, 그 설명은 생략한다.
또, 도 55에 도시하는 추정 혼합비 처리부(442) 및 추정 혼합비 처리부(443)는, 도 57에 도시하는 흐름도와 동일한 처리를 실행하여 추정 혼합비를 연산하기 때문에, 그 설명은 생략한다.
또한, 배경에 대응하는 오브젝트가 정지하고 있다고 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 혼합비α를 구하는 처리를 적용 할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 똑같이 움직이고 있을 때, 추정 혼합비 처리부(401)는, 배경의 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 같이 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 다른 배경의 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는, 혼합 영역에 속하는 화소에 대응하는 화소로서, 배경의 움직임에 대응한 화소를 선택하여, 상술의 처리를 실행한다.
또한, 혼합비 산출부(104)는, 모든 화소에 대해서, 커버드 백 그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여, 산출된 추정 혼합비를 혼합비α로서 출력하도록 해도 좋다. 이 경우에 있어서, 혼합비α는, 커버드 백 그라운드 영역에 속하는 화소에 대해서, 배경의 성분의 비율을 나타내고, 언커버드 백 그라운드 영역에 속하는 화소에 대해서, 전경의 성분의 비율을 나타낸다. 언커버드 백 그라운드 영역에 속하는 화소에 대해서, 이와 같이 산출된 혼합비α와 1의 차분의 절대값을 산출하여, 산출한 절대값을 혼합비α로 설정하면, 화상 처리 장치는, 언커버드 백 그라운드 영역에 속하는 화소에 대해서, 배경의 성분의 비율을 나타내는 혼합비α를 구할 수 있다.
또, 마찬가지로, 혼합비 산출부(104)는, 모든 화소에 대해서, 언커버드 백 그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여, 산출된 추정 혼합비를 혼합비α로서 출력하도록 해도 좋다.
다음에, 혼합비α가 직선적으로 변화하는 성질을 이용하여 혼합비α를 산출하는 혼합비 산출부(104)에 대해서 설명한다.
상술한 바와 같이, 식 11 및 식 12는, 각각 2개의 변수를 포함하기 때문에, 그대로는 혼합비α를 구할 수 없다.
그래서, 셔터 시간 내에 있어서, 전경에 대응하는 오브젝트가 등속으로 움직이는 것에 의한, 화소의 위치의 변화에 대응하고, 혼합비α가 직선적으로 변화하는 성질을 이용하여, 공간 방향으로, 혼합비α와 전경의 성분의 합 f를 근사한 식을 세운다. 혼합 영역에 속하는 화소의 화소값 및 배경 영역에 속하는 화소의 화소값의 조의 복수를 이용하여, 혼합비α와 전경의 성분의 합 f를 근사한 식을 푼다.
혼합비α의 변화를, 직선으로서 근사하면, 혼합비α는, 식 23으로 표시된다.
식 23에 있어서, i는, 주목하고 있는 화소의 위치를 0으로 한 공간 방향의 인덱스이다. l은, 혼합비α의 직선의 기울기이다. p는, 혼합비α의 직선의 세그먼트인 동시에, 주목하고 있는 화소의 혼합비α이다. 식 23에 있어서, 인덱스 i는, 기지이지만, 기울기 l 및 세그먼트 p는, 미지이다.
인덱스 i, 기울기 l, 및 세그먼트 p의 관계를 도 58에 도시한다. 도 58에있어서, 흰 동그라미는, 주목 화소를 도시하고, 검은 동그라미는, 근방 화소를 도시한다.
혼합비α를 식 23과 같이 근사함으로써, 복수의 화소에 대해서 복수의 다른 혼합비α는, 2개의 변수로 표현된다. 도 58에 도시하는 예에 있어서, 5개의 화소에 대한 5개의 혼합비는, 2개의 변수인 기울기 l 및 세그먼트 p에 의해 표현된다.
도 59에 도시하는 평면에서 혼합비α를 근사하면, 화상의 수평 방향 및 수직 방향의 2개의 방향에 대응하는 움직임 v를 고려했을 때, 식 23을 평면에 확장하여, 혼합비α는, 식 24로 표시된다. 도 59에 있어서, 흰 동그라미는, 주목 화소를 도시한다.
식 24에 있어서, j는, 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는, 수직 방향의 인덱스이다. m은, 혼합비α의 면의 수평 방향의 기울기이고, q는, 혼합비α의 면의 수직 방향의 기울기이다. p는, 혼합비α의 면의 세그먼트이다.
예를 들면, 도 49에 도시하는 프레임 #n에 있어서, C05 내지 C07에 대해서, 각각, 식 25 내지 식 27이 성립한다.
전경의 성분이 근방에서 일치하는, 즉, FO1 내지 F03이 같다고 하고, FO1 내지 F03을 Fc로 치환하면 식 28이 성립한다.
식 28에 있어서, x는, 공간 방향의 위치를 나타낸다.
α(x)를 식 24로 치환하면, 식 28은, 식 29로서 나타낼 수 있다.
식 29에 있어서, (-m·Fc), (-q·Fc), 및 (1-p)·Fc는, 식 30 내지 식 32에 도시한 바와 같이 치환되어 있다.
식 29에 있어서, j는, 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는, 수직 방향의 인덱스이다.
이와 같이, 전경에 대응하는 오브젝트가 셔터 시간 내에 있어서 등속으로 이동하여, 전경에 대응하는 성분이 근방에서 일정하다고 하는 가정이 성립하기 때문에, 전경의 성분의 합은, 식 29으로 근사된다.
또, 혼합비α를 직선으로 근사하는 경우, 전경의 성분의 합은, 식 33으로 나타낼 수 있다.
식 13의 혼합비α및 전경 성분의 합을, 식 24 및 식 29를 이용하여 치환하면, 화소값 M은, 식 34로 표시된다.
식 34에 있어서, 미지의 변수는, 혼합비α의 면의 수평 방향의 기울기 m, 혼합비α의 면의 수직 방향의 기울기 q, 혼합비α의 면의 세그먼트 p, s, t, 및 u의 6개이다.
주목하고 있는 화소 근방의 화소에 대응시켜, 식 34에 나타내는 정규 방정식에, 화소값 M 또는 화소값 B를 설정하여, 화소값 M 또는 화소값 B가 설정된 복수의정규 방정식을 최소 제곱법으로 풀어, 혼합비α를 산출한다.
예를 들면, 주목하고 있는 화소의 수평 방향의 인덱스 j를 0으로 하고, 수직 방향의 인덱스 k를 0으로 하고, 주목하고 있는 화소 근방의 3×3의 화소에 대해서, 식 34에 나타내는 정규 방정식에 화소값 M 또는 화소값 B를 설정하면, 식 35 내지 식 43을 얻는다.
주목하고 있는 화소의 수평 방향의 인덱스 j가 0이고, 수직 방향의 인덱스 k 가 0이기 때문에, 주목하고 있는 화소의 혼합비α는, 식 24에서, j=0 및 k=0일 때의 값, 즉, 세그먼트 p와 같다.
따라서, 식 35 내지 식 43의 9개의 식을 기초로, 최소 제곱법에 의해, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u의 각각의 값을 산출하여, 세그먼트 p를 혼합비α로서 출력하면 좋다.
다음에, 최소 제곱법을 적용하여 혼합비α를 산출하는 보다 구체적인 수순을 설명한다.
인덱스 i 및 인덱스 k를 1개의 인덱스 x로 표현하면,인덱스 i, 인덱스 k, 및 인덱스 x의 관계는 식 44로 표시된다.
수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 각각 변수 w0, w1, w2, w3, w4, 및 W5로 표현하고, jB, kB, B, j, k, 및 1을 각각 a0, a1, a2, a3, a4, 및 a5로 표현한다. 오차 ex를 고려하면, 식 35 내지 식 43은식 45로 고쳐 쓸 수 있다.
식 45에 있어서, x는, 0 내지 8의 정수 중 어느 값이다.
식 45로부터, 식 46을 유도할 수 있다.
여기서, 최소 제곱법을 적용하기 위해서, 오차의 제곱합 E를 식 47에 나타내는 바와 같이 정의한다.
오차가 최소가 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Wv의 편미분이 0이 되면 좋다. 여기서, v는, 0 내지 5의 정수 중 어느 값이다. 따라서, 식 48을 만족시키도록 wy를 구한다.
식 48에 식 46을 대입하면, 식 49를 얻는다.
식 49의 v에 0 내지 5의 정수 중 어느 하나를 대입해서 얻어지는 6개의 식에, 예를 들면, 소출법(Gauss-Jordan의 소거법) 등을 적용하여, wy를 산출한다. 상술한 바와 같이, wO는 수평 방향의 기울기 m이고, w1은 수직 방향의 기울기 q이고, w2는 세그먼트 p이고, w3은 s이고, w4는 t이고, W5는 u이다.
이상과 같이, 화소값 M 및 화소값 B를 설정한 식에, 최소 제곱법을 적용함으로써, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 구할 수 있다.
식 35 내지 식 43에 대응하는 설명에 있어서, 혼합 영역에 포함되는 화소의 화소값을 M으로 하고, 배경 영역에 포함되는 화소의 화소값을 B로서 설명하였지만, 주목하고 있는 화소가, 커버드 백 그라운드 영역에 포함되는 경우, 또는 언커버드 백 그라운드 영역에 포함되는 경우의 각각에 대해서, 정규 방정식을 세울 필요가 있다.
예를 들면, 도 49에 도시하는, 프레임 #n의 커버드 백 그라운드 영역에 포함되는 화소의 혼합비α를 구하는 경우, 프레임 #n의 화소의 C04 내지 C08, 및 프레임 #n-1의 화소의 화소값 P04 내지 P08이, 정규 방정식으로 설정된다.
도 50에 도시하는, 프레임 #n의 언커버드 백 그라운드 영역에 포함되는 화소의 혼합비α를 구하는 경우, 프레임 #n의 화소의 C28 내지 C32, 및 프레임 #n+1의화소의 화소값 N28 내지 N32이, 정규 방정식으로 설정된다.
또한, 예를 들면, 도 60에 도시하는, 커버드 백 그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 이하의 식 50 내지 식 58이 세워진다. 도 60에 있어서, 흰 동그라미는, 배경이라고 간주되는 화소를 나타내고, 검은 동그라미는, 혼합 영역의 화소라고 간주되는 화소를 나타낸다. 혼합비α를 산출하는 화소의 화소값은, Mc5이다.
프레임 #n의 커버드 백 그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 식 50) 내지 식 58)에 있어서, 프레임 #n의 화소에 대응하는, 프레임 #n-1의 화소의 배경 영역의 화소의 화소값 Bc1 내지 Bc9가 사용된다.
도 60에 도시하는, 언커버드 백 그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 이하의 식 59 내지 식 67이 세워진다. 혼합비α를 산출하는 화소의 화소값은 Mu5이다.
프레임 #n의 언커버드 백 그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 식 59) 내지 식 67)에 있어서, 프레임 #n의 화소에 대응하는, 프레임 #n+1의 화소의 배경 영역의 화소의 화소값 Bu1 내지 Bu9가 사용된다.
도 61은, 추정 혼합비 처리부(401)의 구성을 도시하는 블록도이다. 추정 혼합비 처리부(401)에 입력된 화상은, 지연 회로(501) 및 추가 도입부(502)에 공급된다.
지연 회로(501)는, 입력 화상을 1프레임 지연시켜, 추가 도입부(502)에 공급한다. 추가 도입부(502)에, 입력 화상으로서 프레임 #n이 입력되어 있을 때, 지연 회로(501)는, 프레임 #n-1을 추가 도입부(502)에 공급한다.
추가 도입부(502)는, 혼합비α를 산출하는 화소 근방의 화소의 화소값, 및 프레임 #n-1의 화소값을, 정규 방정식으로 설정한다. 예를 들면, 추가 도입부(502)는, 식 50 내지 식 58에 기초하여, 정규 방정식에 화소값 Mc1 내지 Mc9 및 화소값 Bc1 내지 Bc9를 설정한다. 추가 도입부(502)는, 화소값이 설정된 정규 방정식을 연산부(503)에 공급한다.
연산부(503)는, 추가 도입부(502)로부터 공급된 정규 방정식을 소출법 등에의해 풀어 추정 혼합비를 구하고, 구해진 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는, 입력 화상을 기초로, 추정 혼합비를 산출하여, 혼합비 결정부(403)에 공급 할 수 있다.
또, 추정 혼합비 처리부(402)는, 추정 혼합비 처리부(401)와 동일한 구성을 갖기 때문에, 그 설명은 생략한다.
도 62는, 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 도시하는 도면이다. 도 62에 도시하는 추정 혼합비는, 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임 v가 11이고, 7×7 화소의 블록을 단위로서 방정식을 생성하여 산출된 결과를, 1라인에 대해서 도시하는 것이다.
추정 혼합비는, 혼합 영역에 있어서, 도 61에 도시한 바와 같이, 거의 직선적으로 변화하고 있는 것을 알 수 있다.
다음에, 도 61에 구성을 도시하는 추정 혼합비 처리부(401)에 의한, 커버드백 그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 63의 흐름도를 참조하여 설명한다.
스텝 S521에 있어서, 추가 도입부(502)는, 입력된 화상에 포함되는 화소값, 및 지연 회로(501)로부터 공급되는 화상에 포함되는 화소값을, 커버드 백 그라운드 영역의 모델에 대응하는 정규 방정식으로 설정한다.
스텝 S522에 있어서, 추정 혼합비 처리부(401)는, 대상이 되는 화소에 대한 설정이 종료하였는지의 여부를 판정하여, 대상이 되는 화소에 대한 설정이 종료하지 않고 있다고 판정된 경우, 스텝 S521로 돌아가서, 정규 방정식에의 화소값의 설정의 처리를 반복한다.
스텝 S522에 있어서, 대상이 되는 화소에 대한 화소값의 설정이 종료하였다고 판정된 경우, 스텝 S523으로 진행하고, 연산부(503)는, 화소값이 설정된 정규 방정식을 기초로, 추정 혼합비를 연산하여, 구해진 추정 혼합비를 출력한다.
이와 같이, 도 61에 구성을 도시하는 추정 혼합비 처리부(401)는, 입력 화상을 기초로, 추정 혼합비를 연산 할 수 있다.
언커버드 백 그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백 그라운드 영역의 모델에 대응하는 정규 방정식을 이용한, 도 63의 흐름도에 도시하는 처리와 동일하기 때문에, 그 설명은 생략한다.
또, 배경에 대응하는 오브젝트가 정지하고 있다고 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 혼합비를 구하는 처리를 적용 할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 똑같이 움직이고 있을때, 추정 혼합비 처리부(401)는, 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 같이 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 다른 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는, 혼합 영역에 속하는 화소에 대응하는 화소로서, 움직임에 대응한 화소를 선택하여, 상술의 처리를 실행한다.
이와 같이, 혼합비 산출부(102)는, 영역 특정부(101)로부터 공급된 영역 정보, 및 입력 화상을 기초로, 각 화소에 대응하는 특징량인 혼합비α를 산출 할 수 있다.
혼합비α를 이용함으로써, 움직이고 있는 오브젝트에 대응하는 화상에 포함되는 움직임 불선명의 정보를 남긴 채로, 화소값에 포함되는 전경의 성분과 배경의 성분을 분리하는 것이 가능하게 된다.
또한, 혼합비α에 기초하여 화상을 합성하면, 실 세계를 실제로 다시 촬영한 것 같은 움직이고 있는 오브젝트의 스피드에 맞춘 바른 움직임 불선명을 포함하는 화상을 만드는 것이 가능하게 된다.
다음에, 전경 배경 분리부(105)에 대해서 설명한다. 도 64는, 전경 배경 분리부(105)의 구성의 일례를 도시하는 블록도이다. 전경 배경 분리부(105)에 공급된 입력 화상은, 분리부(601), 스위치(602), 및 스위치(604)에 공급된다. 커버드 백 그라운드 영역을 도시하는 정보, 및 언커버드 백 그라운드 영역을 도시하는, 영역 특정부(103)로부터 공급된 영역 정보는, 분리부(601)에 공급된다. 전경 영역을 도시하는 영역 정보는, 스위치(602)에 공급된다. 배경 영역을 도시하는 영역 정보는, 스위치(604)에 공급된다.
혼합비 산출부(104)로부터 공급된 혼합비α는, 분리부(601)에 공급된다.
분리부(601)는 커버드 백 그라운드 영역을 도시하는 영역 정보, 언커버드 백 그라운드 영역을 나타내는 영역 정보, 및 혼합비α를 기초로, 입력 화상으로부터 전경의 성분을 분리하여, 분리한 전경의 성분을 합성부(603)에 공급하는 동시에, 입력 화상으로부터 배경의 성분을 분리하여, 분리한 배경의 성분을 합성부(605)에 공급한다.
스위치(602)는 전경 영역을 나타내는 영역 정보를 기초로, 전경에 대응하는 화소가 입력되었을 때, 폐쇄되고, 입력 화상에 포함되는 전경에 대응하는 화소만을 합성부(603)에 공급한다.
스위치(604)는 배경 영역을 도시하는 영역 정보를 기초로, 배경에 대응하는 화소가 입력되었을 때, 폐쇄되고, 입력 화상에 포함되는 배경에 대응하는 화소만을 합성부(605)에 공급한다.
합성부(603)는 분리부(601)로부터 공급된 전경에 대응하는 성분, 스위치(602)로부터 공급된 전경에 대응하는 화소를 기초로, 전경 성분 화상을 합성하여, 합성한 전경 성분 화상을 출력한다. 전경 영역과 혼합 영역은 중복되지 않기 때문에, 합성부(603)는, 예를 들면, 전경에 대응하는 성분과, 전경에 대응하는 화소와 논리합의 연산을 적용하여, 전경 성분 화상을 합성한다.
합성부(603)는 전경 성분 화상의 합성의 처리의 최초로 실행되는 초기화의 처리에 있어서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하여, 전경 성분 화상의 합성의 처리에 있어서, 전경 성분 화상을 저장(덧씌우기)한다. 따라서, 합성부(603)가 출력하는 전경 성분 화상 중, 배경 영역에 대응하는 화소에는, 화소값으로서 0이 저장되어 있다.
합성부(605)는, 분리부(601)로부터 공급된 배경에 대응하는 성분, 스위치(604)로부터 공급된 배경에 대응하는 화소를 기초로, 배경 성분 화상을 합성하여, 합성한 배경 성분 화상을 출력한다. 배경 영역과 혼합 영역은 중복되지 않기 때문에, 합성부(605)는, 예를 들면, 배경에 대응하는 성분과, 배경에 대응하는 화소와 논리합의 연산을 적용하여, 배경 성분 화상을 합성한다.
합성부(605)는, 배경 성분 화상의 합성의 처리의 최초로 실행되는 초기화의 처리에 있어서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하여, 배경 성분 화상의 합성의 처리에 있어서, 배경 성분 화상을 저장(덧씌우기)한다. 따라서, 합성부(605)가 출력하는 배경 성분 화상 중, 전경 영역에 대응하는 화소에는, 화소값으로서 0이 저장되어 있다.
도 65A는, 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상을 도시하는 도면이다. 도 65B는, 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상의 모델을 도시하는 도면이다.
도 65A는, 표시되는 화상의 모식도이고, 도 65B는, 도 65A에 대응하는 전경 영역에 속하는 화소, 배경 영역에 속하는 화소, 및 혼합 영역에 속하는 화소를 포함하는 1라인의 화소를 시간 방향으로 전개한 모델도를 도시한다.
도 65A 및 도 65B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 배경 성분 화상은, 배경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 배경의 성분으로 구성된다.
도 65A 및 도 65B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상은, 전경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 전경의 성분으로 구성된다.
혼합 영역의 화소의 화소값은, 전경 배경 분리부(105)에 의해, 배경의 성분과, 전경의 성분으로 분리된다. 분리된 배경의 성분은, 배경 영역에 속하는 화소와 같이, 배경 성분 화상을 구성한다. 분리된 전경의 성분은, 전경 영역에 속하는 화소와 같이, 전경 성분 화상을 구성한다.
이와 같이, 전경 성분 화상은, 배경 영역에 대응하는 화소의 화소값이 0이 되고, 전경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다. 마찬가지로, 배경 성분 화상은, 전경 영역에 대응하는 화소의 화소값이 0이 되고, 배경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다.
다음에, 분리부(601)가 실행하는, 혼합 영역에 속하는 화소로부터 전경의 성분, 및 배경의 성분을 분리하는 처리에 대해서 설명한다.
도 66은 도 중의 좌측으로부터 우측으로 이동하는 오브젝트에 대응하는 전경을 포함하는, 2개의 프레임의 전경의 성분 및 배경의 성분을 도시하는 화상의 모델이다. 도 66에 도시하는 화상의 모델에 있어서, 전경의 움직임량 v는 4이고, 가상 분할수는 4로 되어 있다.
프레임 #n에 있어서, 가장 좌측의 화소, 및 좌측으로부터 14번째 내지 18번째의 화소는, 배경의 성분만으로 이루어지고, 배경 영역에 속한다. 프레임 #n에 있어서, 좌측으로부터 2번째 내지 4번째의 화소는, 배경의 성분 및 전경의 성분을 포함하고, 언커버드 백 그라운드 영역에 속한다. 프레임 #n에 있어서, 좌측으로부터 11번째 내지 13번째의 화소는, 배경의 성분 및 전경의 성분을 포함하고, 커버드 백 그라운드 영역에 속한다. 프레임 #n에 있어서, 좌측으로부터 5번째 내지 10번째의 화소는, 전경의 성분만으로 이루어지고, 전경 영역에 속한다.
프레임 #n+1에 있어서, 좌측으로부터 1번째 내지 5번째의 화소, 및 좌측으로부터 18번째의 화소는, 배경의 성분만으로 이루어지고, 배경 영역에 속한다. 프레임 #n+1에 있어서, 좌측으로부터 6번째 내지 8번째의 화소는, 배경의 성분 및 전경의 성분을 포함하고, 언커버드 백 그라운드 영역에 속한다. 프레임 #n+1에 있어서, 좌측으로부터 15번째 내지 17번째의 화소는, 배경의 성분 및 전경의 성분을 포함하고, 커버드 백 그라운드 영역에 속한다. 프레임 #n+1에 있어서, 좌측으로부터 9번째 내지 14번째의 화소는, 전경의 성분만으로 이루어지고, 전경 영역에 속한다.
도 67은, 커버드 백 그라운드 영역에 속하는 화소로부터 전경의 성분을 분리하는 처리를 설명하는 도면이다. 도 67에 있어서, α1 내지 α18은, 프레임 #n에 있어서의 화소의 각각에 대응하는 혼합비이다. 도 67에 있어서, 좌측으로부터 15번째 내지 17번째의 화소는, 커버드 백 그라운드 영역에 속한다.
프레임 #n의 좌측으로부터 15번째의 화소의 화소값 C15는, 식 68로 표시된다.
여기서, α15는, 프레임 #n의 좌측으로부터 15번째의 화소의 혼합비이다. P 15는, 프레임 #n-1의 좌측으로부터 15번째의 화소의 화소값이다.
식 68을 기초로, 프레임 #n의 좌측으로부터 15번째의 화소의 전경의 성분의 합 f15는, 식 69로 표시된다.
마찬가지로, 프레임 #n의 좌측으로부터 16번째의 화소의 전경의 성분의 합 f16은, 식 70으로 표시되고, 프레임 #n의 좌측으로부터 17번째의 화소의 전경의 성분의 합 f17은, 식 71로 표시된다.
이와 같이, 커버드 백 그라운드 영역에 속하는 화소의 화소값 C에 포함되는전경의 성분 fc은, 식 72로 계산된다.
P는, 1개 앞의 프레임의, 대응하는 화소의 화소값이다.
도 68은, 언커버드 백 그라운드 영역에 속하는 화소로부터 전경의 성분을 분리하는 처리를 설명하는 도면이다. 도 68에 있어서, α1 내지 α18은, 프레임 #n에 있어서의 화소의 각각에 대응하는 혼합비이다. 도 68에 있어서, 좌측으로부터 2번째 내지 4번째의 화소는, 언커버드 백 그라운드 영역에 속한다.
프레임 #n의 좌측으로부터 2번째의 화소의 화소값 C02는, 식 73으로 표시된다.
여기서, α2는, 프레임 #n의 좌측으로부터 2번째의 화소의 혼합비이다. N02는, 프레임 #n+1의 좌측으로부터 2번째의 화소의 화소값이다.
식 73을 기초로, 프레임 #n의 좌측으로부터 2번째의 화소의 전경의 성분의 합 f02는, 식 74로 표시된다.
마찬가지로, 프레임 #n의 좌측으로부터 3번째의 화소의 전경의 성분의 합 f03은, 식 75로 표시되고, 프레임 #n의 좌측으로부터 4번째의 화소의 전경의 성분의 합 f04는, 식 76으로 표시된다.
이와 같이, 언커버드 백 그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경의 성분 fu는, 식 77로 계산된다.
N은, 1개 뒤 프레임의, 대응하는 화소의 화소값이다.
이와 같이, 분리부(601)는, 영역 정보에 포함되는, 커버드 백 그라운드 영역을 도시하는 정보, 및 언커버드 백 그라운드 영역을 도시하는 정보, 및 화소마다의 혼합비α를 기초로, 혼합 영역에 속하는 화소로부터 전경의 성분, 및 배경의 성분을 분리 할 수 있다.
도 69는, 이상에서 설명한 처리를 실행하는 분리부(601)의 구성의 일례를 도시하는 블록도이다. 분리부(601)에 입력된 화상은, 프레임 메모리(621)에 공급되고, 혼합비 산출부(104)로부터 공급된 커버드 백 그라운드 영역 및 언커버드 백 그라운드 영역을 도시하는 영역 정보, 및 혼합비α는, 분리 처리 블록(622)에 입력된다.
프레임 메모리(621)는, 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(621)는, 처리의 대상이 프레임 #n일 때, 프레임 #n의 1개 앞의 프레임인 프레임 #n-1, 프레임 #n, 및 프레임 #n의 1개 뒤 프레임인 프레임 #n+1을 기억한다.
프레임 메모리(621)는, 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소를 분리 처리 블록(622)에 공급한다.
분리 처리 블록(622)은, 커버드 백 그라운드 영역 및 언커버드 백 그라운드 영역을 도시하는 영역 정보, 및 혼합비α를 기초로, 프레임 메모리(621)에서 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소의 화소값에 도 67 및 도 68을 참조하여 설명한 연산을 적용하고, 프레임 #n의 혼합 영역에 속하는 화소로부터 전경의 성분 및 배경의 성분을 분리하여, 프레임 메모리(623)에 공급한다.
분리 처리 블록(622)은, 언커버드 영역 처리부(631), 커버드 영역 처리부(632), 합성부(633), 및 합성부(634)로 구성되어 있다.
언커버드 영역 처리부(631)의 승산기(641)는, 혼합비α를, 프레임 메모리(621)에서 공급된 프레임 #n+1의 화소의 화소값에 곱하여, 스위치(642)에 출력한다. 스위치(642)는, 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n+1의 화소에 대응하는)가 언커버드 백 그라운드 영역일 때, 폐쇄되고,승산기(641)로부터 공급된 혼합비α를 곱한 화소값을 연산기(643) 및 합성부(634)에 공급한다. 스위치(642)로부터 출력되는 프레임 #n+1의 화소의 화소값에 혼합비α를 곱한 값은, 프레임 #n의 대응하는 화소의 화소값의 배경의 성분과 같다.
연산기(643)는, 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(642)로부터 공급된 배경의 성분을 빼서, 전경의 성분을 구한다. 연산기(643)는, 언커버드 백 그라운드 영역에 속하는, 프레임 #n의 화소의 전경의 성분을 합성부(633)에 공급한다.
커버드 영역 처리부(632)의 승산기(651)는, 혼합비α를, 프레임 메모리(621)로부터 공급된 프레임 #n-1의 화소의 화소값에 곱하여, 스위치(652)에 출력한다. 스위치(652)는, 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n-1의 화소에 대응한다)가 커버드 백 그라운드 영역일 때, 폐쇄되고, 승산기(651)로부터 공급된 혼합비α를 곱한 화소값을 연산기(653) 및 합성부(634)에 공급한다. 스위치(652)로부터 출력되는 프레임 #n-1의 화소의 화소값에 혼합비α를 곱한 값은, 프레임 #n의 대응하는 화소의 화소값의 배경의 성분과 같다.
연산기(653)는, 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(652)로부터 공급된 배경의 성분을 빼서, 전경의 성분을 구한다. 연산기(653)는, 커버드 백 그라운드 영역에 속하는, 프레임 #n의 화소의 전경의 성분을 합성부(633)에 공급한다.
합성부(633)는, 프레임 #n의, 연산기(643)로부터 공급된, 언커버드 백 그라운드 영역에 속하는 화소의 전경의 성분, 및 연산기(653)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 전경의 성분을 합성하여, 프레임 메모리(623)에 공급한다.
합성부(634)는, 프레임 #n의, 스위치(642)로부터 공급된, 언커버드 백 그라운드 영역에 속하는 화소의 배경의 성분, 및 스위치(652)로부터 공급된, 커버드 백 그라운드 영역에 속하는 화소의 배경의 성분을 합성하여, 프레임 메모리(623)에 공급한다.
프레임 메모리(623)는, 분리 처리 블록(622)로부터 공급된, 프레임 #n의 혼합 영역의 화소의 전경의 성분과, 배경의 성분을 각각에 기억한다.
프레임 메모리(623)는, 기억하고 있는 프레임 #n의 혼합 영역의 화소의 전경의 성분, 및 기억하고 있는 프레임 #n의 혼합 영역의 화소의 배경의 성분을 출력한다.
특징량인 혼합비α를 이용함으로써, 화소값에 포함되는 전경의 성분과 배경의 성분을 완전하게 분리하는 것이 가능하게 된다.
합성부(603)는, 분리부(601)로부터 출력된, 프레임 #n의 혼합 영역의 화소의 전경의 성분과, 전경 영역에 속하는 화소를 합성하여 전경 성분 화상을 생성한다. 합성부(605)는, 분리부(601)로부터 출력된, 프레임 #n의 혼합 영역의 화소의 배경의 성분과, 배경 영역에 속하는 화소를 합성하여 배경 성분 화상을 생성한다.
도 70A는, 도 66의 프레임 #n에 대응하는, 전경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌측으로부터 14번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 배경의 성분만으로 이루어져 있었기 때문에, 화소값이 0이 된다.
좌측으로부터 2번째 내지 4번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 언커버드 백 그라운드 영역에 속하여, 배경의 성분이 0이 되고, 전경의 성분이 그대로 남겨져 있다. 좌측으로부터 11번째 내지 13번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 커버드 백 그라운드 영역에 속하여, 배경의 성분이 0이 되고, 전경의 성분이 그대로 남겨져 있다. 좌측으로부터 5번째 내지 10번째의 화소는, 전경의 성분만으로 이루어지기 때문에, 그대로 남겨진다.
도 70B는, 도 66의 프레임 #n에 대응하는, 배경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌측으로부터 14번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 배경의 성분만으로 이루어져 있었기 때문에, 그대로 남겨진다.
좌측으로부터 2번째 내지 4번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 언커버드 백 그라운드 영역에 속하여, 전경의 성분이 0이 되고, 배경의 성분이 그대로 남겨져 있다. 좌측으로부터 11번째 내지 13번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 커버드 백 그라운드 영역에 속하여, 전경의 성분이 0이 되고, 배경의 성분이 그대로 남겨져 있다. 좌측으로부터 5번째 내지 10번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 전경의 성분만으로 이루어져 있었기 때문에, 화소값이 0이 된다.
다음에, 도 71에 도시하는 흐름도를 참조하여, 전경 배경 분리부(105)에 의한 전경과 배경의 분리 처리를 설명한다. 스텝 S601에 있어서, 분리부(601)의 프레임 메모리(621)는, 입력 화상을 취득하여, 전경과 배경의 분리의 대상이 되는 프레임 #n을, 그 앞 프레임 #n-1 및 그 후의 프레임 #n+1과 같이 기억한다.
스텝 S602에 있어서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 영역 정보를 취득한다. 스텝 S603에 있어서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 혼합비α를 취득한다.
스텝 S604에 있어서, 언커버드 영역 처리부(631)는, 영역 정보 및 혼합비α를 기초로, 프레임 메모리(621)로부터 공급된, 언커버드 백 그라운드 영역에 속하는 화소의 화소값으로부터, 배경의 성분을 추출한다.
스텝 S605에 있어서, 언커버드 영역 처리부(631)는, 영역 정보 및 혼합비α를 기초로, 프레임 메모리(621)로부터 공급된, 언커버드 백 그라운드 영역에 속하는 화소의 화소값으로부터, 전경의 성분을 추출한다.
스텝 S606에 있어서, 커버드 영역 처리부(632)는, 영역 정보 및 혼합비α를 기초로, 프레임 메모리(621)로부터 공급된, 커버드 백 그라운드 영역에 속하는 화소의 화소값으로부터, 배경의 성분을 추출한다.
스텝 S607에 있어서, 커버드 영역 처리부(632)는, 영역 정보 및 혼합비α를 기초로, 프레임 메모리(621)로부터 공급된, 커버드 백 그라운드 영역에 속하는 화소의 화소값으로부터, 전경의 성분을 추출한다.
스텝 S608에 있어서, 합성부(633)는, 스텝 S605의 처리로 추출된 언커버드 백 그라운드 영역에 속하는 화소의 전경의 성분과, 스텝 S607의 처리로 추출된 커버드 백 그라운드 영역에 속하는 화소의 전경의 성분을 합성한다. 합성된 전경의 성분은, 합성부(603)에 공급된다. 또한, 합성부(603)는 스위치(602)를 통해 공급된 전경 영역에 속하는 화소와, 분리부(601)로부터 공급된 전경의 성분을 합성하여, 전경 성분 화상을 생성한다.
스텝 S609에 있어서, 합성부(634)는, 스텝 S604의 처리로 추출된 언커버드 백 그라운드 영역에 속하는 화소의 배경의 성분과, 스텝 S606의 처리로 추출된 커버드 백 그라운드 영역에 속하는 화소의 배경의 성분을 합성한다. 합성된 배경의 성분은 합성부(605)에 공급된다. 또한, 합성부(605)는 스위치(604)를 통해 공급된 배경 영역에 속하는 화소와, 분리부(601)로부터 공급된 배경의 성분을 합성하여, 배경 성분 화상을 생성한다.
스텝 S610에 있어서, 합성부(603)는, 전경 성분 화상을 출력한다. 스텝 S61 1에 있어서, 합성부(605)는, 배경 성분 화상을 출력하고, 처리는 종료된다.
이와 같이, 전경 배경 분리부(105)는, 영역 정보 및 혼합비α를 기초로, 입력 화상으로부터 전경의 성분과, 배경의 성분을 분리하여, 전경의 성분만으로 이루어지는 전경 성분 화상, 및 배경의 성분만으로 이루어지는 배경 성분 화상을 출력 할 수 있다.
다음에, 전경 성분 화상으로부터의 움직임 불선명의 양의 조정에 대해서 설명한다.
도 72는, 움직임 불선명 조정부(106)의 구성의 일례를 도시하는 블록도이다. 움직임 검출부(102)로부터 공급된 이동 벡터와 그 위치 정보, 및 영역 특정부(103)로부터 공급된 영역 정보는, 처리 단위 결정부(801) 및 모델화부(802)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은, 추가 도입부(804)에 공급된다.
처리 단위 결정부(801)는, 이동 벡터와 그 위치 정보, 및 영역 정보를 기초로, 이동 벡터와 함께, 생성한 처리 단위를 모델화부(802)에 공급한다. 처리 단위 결정부(801)는, 생성한 처리 단위를 추가 도입부(804)에 공급한다.
처리 단위 결정부(801)이 생성하는 처리 단위는, 도 73에 있어서 A에서 예를 도시하는 바와 같이, 전경 성분 화상의 커버드 백 그라운드 영역에 대응하는 화소로부터 시작되어, 언커버드 백 그라운드 영역에 대응하는 화소까지의 움직임 방향으로 나란히 배열되는 연속하는 화소, 또는 언커버드 백 그라운드 영역에 대응하는 화소로부터 시작되어, 커버드 백 그라운드 영역에 대응하는 화소까지의 움직임 방향으로 나란히 배열되는 연속하는 화소를 도시한다. 처리 단위는, 예를 들면, 좌상점(처리 단위로 지정되는 화소이고, 화상상에서 가장 좌측 또는 가장 위에 위치하는 화소의 위치) 및 우하점의 2개의 데이터로 이루어진다.
모델화부(802)는, 이동 벡터 및 입력된 처리 단위를 기초로, 모델화를 실행한다. 보다 구체적으로는, 예를 들면, 모델화부(802)는, 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할수, 및 화소마다의 전경의 성분의 수에 대응하는 복수의 모델을 미리 기억시켜 놓고, 처리 단위, 및 화소값의 시간 방향의 가상 분할수를 기초로, 도 74에 도시한 바와 같은, 화소값과 전경의 성분의 대응을 지정하는 모델을 선택하도록 해도 좋다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 셔터 시간 내의 움직임량 v가 5일 때에 있어서는, 모델화부(802)는, 가상 분할수를 5로 하여, 가장 좌측으로 위치하는 화소가 1개의 전경의 성분을 포함하고, 좌측으로부터 2번째의 화소가 2개의 전경의 성분을 포함하고, 좌측으로부터 3번째의 화소가 3개의 전경의 성분을 포함하고, 좌측으로부터 4번째의 화소가 4개의 전경의 성분을 포함하고, 좌측으로부터 5번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 6번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 7번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 8번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 9번째의 화소가 4개의 전경의 성분을 포함하고, 좌측으로부터 10번째의 화소가 3개의 전경의 성분을 포함하고, 좌측으로부터 11번째의 화소가 2개의 전경의 성분을 포함하고, 좌측으로부터 12번째의 화소가 1개의 전경의 성분을 포함하고, 전체로서 8개의 전경의 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(802)는, 미리 기억하고 있는 모델로부터 선택하는 것은 아니고, 이동 벡터, 및 처리 단위가 공급되었을 때, 이동 벡터, 및 처리 단위를 기초로, 모델을 생성하도록 해도 좋다.
모델화부(802)는, 선택한 모델을 방정식 생성부(803)에 공급한다.
방정식 생성부(803)는, 모델화부(802)으로부터 공급된 모델을 기초로, 방정식을 생성한다. 도 74에 도시하는 전경 성분 화상의 모델을 참조하여, 전경의 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5이고, 가상 분할수가 5일 때의, 방정식 생성부(803)가 생성하는 방정식에 대해서 설명한다.
전경 성분 화상에 포함되는 셔터 시간/v에 대응하는 전경 성분이 F01/v 내지FO8/v일 때, FO1/v 내지 F08/v와 화소값 CO1 내지 C12의 관계는, 식 78 내지 식 8 9로 표시된다.
방정식 생성부(803)는, 생성한 방정식을 변형하여 방정식을 생성한다. 방정식 생성부(803)가 생성하는 방정식을, 식 90 내지 식 101으로 나타낸다.
식 90 내지 식 101은 식 102로서 나타낼 수도 있다.
식 102에 있어서, j는, 화소의 위치를 나타낸다. 이 예에 있어서, j는, 1 내지 12 중 어느 하나의 값을 갖는다. 또, i는, 전경값의 위치를 나타낸다. 이 예에 있어서, i는, 1 내지 8 중 어느 하나의 값을 갖는다. aij는, i 및 j의 값에 대응하여, 0 또는 1의 값을 갖는다.
오차를 고려해서 표현하면, 식 102는, 식 103과 같이 나타낼 수 있다.
식 103에 있어서, ej는, 주목 화소 cj에 포함되는 오차이다.
식 103은, 식 104로 고쳐 쓸 수 있다.
여기서, 최소 제곱법을 적용하기 때문에, 오차의 제곱합 E를 식 105로 나타낸 바와 같이 정의한다.
오차가 최소가 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Fk에 의한 편미분의 값이 0이 되면 좋다. 식 106을 만족시키도록 Fk를 구한다.
식 106에 있어서, 움직임량 v는 고정값이기 때문에, 식 107을 유도할 수 있다.
식 107을 전개하여, 이항하면, 식 108을 얻을 수 있다.
식 108의 k에 1 내지 8의 정수 중 어느 하나를 대입하여 얻어지는 8개의 식으로 전개한다. 얻어진 8개의 식을, 행렬에 의해 1개의 식에 의해 나타낼 수 있다. 이 식을 정규 방정식이라고 부른다.
이러한 최소 제곱법에 기초하는, 방정식 생성부(803)가 생성하는 정규 방정식의 예를 식 109에 나타낸다.
식 109)를 A·F=v·C라고 나타내면, C, A, v가 기지이고, F는 미지이다. 또한, A, v는, 모델화의 시점에서 기지이지만, C은, 추가 도입 동작에 있어서 화소값을 입력함으로써 기지가 된다.
최소 제곱법에 기초하는 정규 방정식에 의해 전경 성분을 산출함으로써, 화소 C에 포함되어 있는 오차를 분산시킬 수 있다.
방정식 생성부(803)는, 이와 같이 생성된 정규 방정식을 추가 도입부(804)에 공급한다.
추가 도입부(804)는, 처리 단위 결정부(801)로부터 공급된 처리 단위를 기초로, 전경 성분 화상에 포함되는 화소값 C를, 방정식 생성부(803)로부터 공급된 행렬의 식으로 설정한다. 추가 도입부(804)는, 화소값 C를 설정한 행렬을 연산부(805)에 공급한다.
연산부(805)는, 소출법(Gauss-Jordan의 소거법) 등의 해법에 기초하는 처리에 의해, 움직임 불선명이 제거된 전경 성분 Fi/v를 산출하고, 움직임 불선명이 제거된 전경의 화소값인, 0 내지 8의 정수 중 어느 i에 대응하는 Fi를 산출하여, 도 75에 예를 도시한, 움직임 불선명이 제거된 화소값인 Fi로 이루어지는, 움직임 불선명이 제거된 전경 성분 화상을 움직임 불선명 부가부(806) 및 선택부(807)에 출력한다.
또, 도 75에 도시하는 움직임 불선명이 제거된 전경 성분 화상에 있어서, C03 내지 C10의 각각에 F01 내지 F08의 각각이 설정되어 있는 것은, 화면에 대한 전경 성분 화상의 위치를 변화시키지 않기 위함이고, 임의의 위치에 대응시킬 수 있다.
움직임 불선명 부가부(806)는, 움직임량 v와는 다른 값의 움직임 불선명 조정량 v', 예를 들면, 움직임량 v의 반의 값의 움직임 불선명 조정량 v'이나, 움직임량 v와 무관계한 값의 움직임 불선명 조정량 v'를 제공함으로써, 움직임 불선명의 양을 조정 할 수 있다. 예를 들면, 도 76에 도시한 바와 같이, 움직임 불선명 부가부(806)는, 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'로 나눔으로써, 전경 성분 Fi/v'를 산출하고, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명의 양이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'가 3일 때, 화소값 C02는, (FO1)/v'가 되고, 화소값 C03은, (FO1+FO2)/v'가 되고, 화소값 CO4는, (FO1+F02+F03)/v'가 되고, 화소값 C05는, (F02+F03+F04)/v'가 된다.
움직임 불선명 부가부(806)는, 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(807)에 공급한다.
선택부(807)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 연산부(805)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(806)로부터 공급된 움직임 불선명의 양이 조정된 전경 성분 화상 중 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이, 움직임 불선명 조정부(106)는, 선택 신호 및 움직임 불선명 조정량 v'를 기초로, 움직임 불선명의 양을 조정 할 수 있다.
또한, 예를 들면, 도 77에 도시한 바와 같이, 처리 단위에 대응하는 화소의 수가 8이고, 움직임량 v가 4일 때, 움직임 불선명 조정부(106)는, 식 110에 나타내는 행렬의 식을 생성한다.
움직임 불선명 조정부(106)는, 이와 같이 처리 단위의 길이에 대응한 수의식을 세워, 움직임 불선명의 양이 조정된 화소값인 Fi를 산출한다. 마찬가지로, 예를 들면, 처리 단위에 포함되는 화소의 수가 100일 때, 100개의 화소에 대응하는 식을 생성하여, Fi를 산출한다.
도 78은, 움직임 불선명 조정부(106)의 다른 구성을 도시하는 도면이다. 도 72에 도시하는 경우와 동일 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(821)는, 선택 신호를 기초로, 입력된 이동 벡터와 그 위치 신호를 그대로 처리 단위 결정부(801) 및 모델화부(802)에 공급하거나, 또는 이동 벡터의 크기를 움직임 불선명 조정량 v'로 치환하여, 그 크기가 움직임 불선명 조정량 v'로 치환된 이동 벡터와 그 위치 신호를 처리 단위 결정부(801) 및 모델화부(802)에 공급한다.
이와 같이 함으로써, 도 78의 움직임 불선명 조정부(106)의 처리 단위 결정부(801) 내지 연산부(805)는, 움직임량 v와 움직임 불선명 조정량 v'의 값에 대응하여, 움직임 불선명의 양을 조정 할 수 있다. 예를 들면, 움직임량 v가 5이고, 움직임 불선명 조정량 v'가 3일 때, 도 78의 움직임 불선명 조정부(106)의 처리 단위 결정부(801) 내지 연산부(805)는, 도 74에 도시하는 움직임량 v가 5인 전경 성분 화상에 대해서, 3인 움직임 불선명 조정량 v'에 대응하는 도 76에 도시한 바와 같은 모델에 따라서, 연산을 실행하고, (움직임량 v)/(움직임 불선명 조정량 v')=5/3, 즉 거의 1.7의 움직임량 v에 따른 움직임 불선명을 포함하는 화상을 산출한다. 또, 이 경우, 산출되는 화상은, 3인 움직임량 v에 대응한 움직임 불선명을 포함하는 것은 아니기 때문에, 움직임 불선명 부가부(806)의 결과와는 움직임량 v와 움직임 불선명 조정량 v'의 관계의 의미가 다른 점에 주의가 필요하다.
이상과 같이, 움직임 불선명 조정부(106)는, 움직임량 v 및 처리 단위에 대응하여, 식을 생성하고, 생성한 식에 전경 성분 화상의 화소값을 설정하여, 움직임 불선명의 양이 조정된 전경 성분 화상을 산출한다.
다음에, 도 79의 흐름도를 참조하여, 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 양의 조정 처리를 설명한다.
스텝 S801에 있어서, 움직임 불선명 조정부(106)의 처리 단위 결정부(801)는, 이동 벡터 및 영역 정보를 기초로, 처리 단위를 생성하여, 생성한 처리 단위를 모델화부(802)에 공급한다.
스텝 S802에 있어서, 움직임 불선명 조정부(106)의 모델화부(802)는, 움직임량 v 및 처리 단위에 대응하여, 모델의 선택이나 생성을 행한다. 스텝 S803에 있어서, 방정식 생성부(803)는, 선택된 모델을 기초로, 정규 방정식을 작성한다.
스텝 S804에 있어서, 추가 도입부(804)는, 작성된 정규 방정식에 전경 성분 화상의 화소값을 설정한다. 스텝 S805에 있어서, 추가 도입부(804)는, 처리 단위에 대응하는 모든 화소의 화소값의 설정을 했는지의 여부를 판정하여, 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행하고 있지 않다고 판정된 경우, 스텝 S804로 돌아가서, 정규 방정식에의 화소값의 설정의 처리를 반복한다.
스텝 S805에 있어서, 처리 단위의 모든 화소의 화소값의 설정을 했다고 판정된 경우, 스텝 S806으로 진행하고, 연산부(805)는, 추가 도입부(804)로부터 공급된 화소값이 설정된 정규 방정식을 기초로, 움직임 불선명의 양을 조정한 전경의 화소값을 산출하고, 처리는 종료된다.
이와 같이, 움직임 불선명 조정부(106)는, 이동 벡터 및 영역 정보를 기초로, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명의 양을 조정 할 수 있다.
즉, 샘플 데이터인 화소값에 포함되는 움직임 불선명의 양을 조정 할 수 있다.
이상과 같이, 도 2에 구성을 도시하는 화상 처리 장치는, 입력 화상에 포함되는 움직임 불선명의 양을 조정 할 수 있다. 도 2에 구성을 도시하는 화상 처리 장치는, 파묻힌 정보인 혼합비α를 산출하여, 산출한 혼합비α를 출력 할 수 있다.
도 80은, 움직임 불선명 조정부(106)의 구성의 다른 일례를 도시하는 블록도이다. 움직임 검출부(102)로부터 공급된 이동 벡터와 그 위치 정보는, 처리 단위 결정부(901) 및 보정부(905)에 공급되고, 영역 특정부(103)로부터 공급된 영역 정보는, 처리 단위 결정부(901)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은, 연산부(904)에 공급된다.
처리 단위 결정부(901)는, 이동 벡터와 그 위치 정보, 및 영역 정보를 기초로, 이동 벡터와 함께, 생성한 처리 단위를 모델화부(902)에 공급한다.
모델화부(902)는, 이동 벡터 및 입력된 처리 단위를 기초로, 모델화를 실행한다. 보다 구체적으로는, 예를 들면, 모델화부(902)는, 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할수, 및 화소마다의 전경의 성분의 수에 대응하는 복수의 모델을 미리 기억시켜 놓고, 처리 단위, 및 화소값의 시간 방향의가상 분할수를 기초로, 도 81에 도시한 바와 같은, 화소값과 전경의 성분의 대응을 지정하는 모델을 선택하도록 해도 좋다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 움직임량 v가 5일 때 에 있어서는, 모델화부(902)는, 가상 분할수를 5로 하여, 가장 좌측으로 위치하는 화소가 1개의 전경의 성분을 포함하고, 좌측으로부터 2번째의 화소가 2개의 전경의 성분을 포함하고, 좌측으로부터 3번째의 화소가 3개의 전경의 성분을 포함하고, 좌측으로부터 4번째의 화소가 4개의 전경의 성분을 포함하고, 좌측으로부터 5번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 6번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 7번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 8번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 9번째의 화소가 4개의 전경의 성분을 포함하고, 좌측으로부터 10번째의 화소가 3개의 전경의 성분을 포함하고, 좌측으로부터 11번째의 화소가 2개의 전경의 성분을 포함하고, 좌측으로부터 12번째의 화소가 1개의 전경의 성분을 포함하고, 전체로서 8개의 전경의 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(902)는, 미리 기억하고 있는 모델로부터 선택하는 것은 아니고, 이동 벡터, 및 처리 단위가 공급되었을 때, 이동 벡터, 및 처리 단위를 기초로, 모델을 생성하도록 해도 좋다.
방정식 생성부(903)는, 모델화부(902)로부터 공급된 모델을 기초로, 방정식을 생성한다.
도 81 내지 도 83에 도시하는 전경 성분 화상의 모델을 참조하여, 전경의 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5일 때의, 방정식 생성부(903)이 생성하는 방정식의 예에 대해서 설명한다.
전경 성분 화상에 포함되는 셔터 시간/v에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, FO1/v 내지 F08/v와 화소값 C01 내지 C12의 관계는, 상술한 바와 같이, 식 78 내지 식 89로 표시된다.
화소값 C12 및 C11에 주목하면, 화소값 C12는, 식 111에 나타낸 바와 같이, 전경의 성분 F08/v만을 포함하고, 화소값 C11은, 전경의 성분 F08/v 및 전경의 성분 F07/v의 곱의 합으로 이루어진다. 따라서, 전경의 성분 F07/v는, 식 112로 구할 수 있다.
마찬가지로, 화소값 C10 내지 CO1에 포함되는 전경의 성분을 고려하면, 전경의 성분 F06/v 내지 FO1/v는, 식 113 내지 식 118에 의해 구할 수 있다.
방정식 생성부(903)는, 식 111 내지 식 118에 예를 나타내는, 화소값의 차에 의해 전경의 성분을 산출하기 위한 방정식을 생성한다. 방정식 생성부(903)는, 생성한 방정식을 연산부(904)에 공급한다.
연산부(904)는, 방정식 생성부(903)로부터 공급된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값을 설정한 방정식을 기초로, 전경의 성분을 산출한다. 연산부(904)는, 예를 들면, 식 111 내지 식 118이 방정식 생성부(903)로부터 공급되었을 때, 식 111 내지 식 118에 화소값 C05 내지 C12를 설정한다.
연산부(904)는, 화소값이 설정된 식에 기초하여, 전경의 성분을 산출한다. 예를 들면, 연산부(904)는, 화소값 C05 내지 C12가 설정된 식 111 내지 식 118에 기초하는 연산에 의해, 도 82에 도시한 바와 같이, 전경의 성분 FO1/v 내지 FO8/v를 산출한다. 연산부(904)는, 전경의 성분 FO1/v 내지 F08/v를 보정부(905)에 공급한다.
보정부(905)는, 연산부(904)로부터 공급된 전경의 성분에, 처리 단위 결정부(901)로부터 공급된 이동 벡터에 포함되는 움직임량 v을 곱하여, 움직임 불선명을 제거한 전경의 화소값을 산출한다. 예를 들면, 보정부(905)는, 연산부(904)로부터 공급된 전경의 성분 F01/v 내지 F08/v가 공급되었을 때, 전경의성분 F01/v 내지 F08/v의 각각에, 5인 움직임량 v를 곱함으로써, 도 8 3에 도시한 바와 같이, 움직임 불선명을 제거한 전경의 화소값 F01 내지 F08을 산출한다.
보정부(905)는, 이상과 같이 산출된, 움직임 불선명을 제거한 전경의 화소값으로 이루어지는 전경 성분 화상을 움직임 불선명 부가부(906) 및 선택부(907)에 공급한다.
움직임 불선명 부가부(906)는, 움직임량 v와는 다른 값의 움직임 불선명 조정량', 예를 들면, 움직임량 v의 반의 값의 움직임 불선명 조정량 v', 움직임량 v와 무관계한 값의 움직임 불선명 조정량 v'로, 움직임 불선명의 양을 조정 할 수 있다. 예를 들면, 도 76에 도시한 바와 같이, 움직임 불선명 부가부(906)는, 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'로 나눔으로써, 전경 성분 Fi/v'를 산출하고, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명의 양이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'가 3일 때, 화소값 C02는, (F01)/v'가 되고, 화소값 C03은, (F01+FO2)/v'가 되고, 화소값 C04는, (F01+F02+F03)/v'가 되고, 화소값 C05는, (F02+F03+FO4)/v'가 된다.
움직임 불선명 부가부(906)는, 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(907)에 공급한다.
선택부(907)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 보정부(905)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(906)로부터 공급된 움직임 불선명의 양이 조정된 전경 성분 화상 중 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이, 움직임 불선명 조정부(106)는, 선택 신호 및 움직임 불선명 조정량 v'를 기초로, 움직임 불선명의 양을 조정 할 수 있다.
다음에, 도 80에 구성을 도시하는 움직임 불선명 조정부(106)에 의한 전경의 움직임 불선명의 양의 조정 처리를 도 84의 흐름도를 참조하여 설명한다.
스텝 S901에 있어서, 움직임 불선명 조정부(106)의 처리 단위 결정부(901)는, 이동 벡터 및 영역 정보를 기초로, 처리 단위를 생성하여, 생성한 처리 단위를 모델화부(902) 및 보정부(905)에 공급한다.
스텝 S902에 있어서, 움직임 불선명 조정부(106)의 모델화부(902)는, 움직임량 v 및 처리 단위에 대응하여, 모델의 선택이나 생성을 행한다. 스텝 S903에 있어서, 방정식 생성부(903)는, 선택 또는 생성된 모델을 기초로, 전경 성분 화상의 화소값의 차에 의해 전경의 성분을 산출하기 위한 방정식을 생성한다.
스텝 S904에 있어서, 연산부(904)는, 작성된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값이 설정된 방정식을 기초로, 화소값의 차분으로부터 전경의 성분을 추출한다. 스텝 S905에 있어서, 연산부(904)는, 처리 단위에 대응하는 모든 전경의 성분을 추출하였는지의 여부를 판정하여, 처리 단위에 대응하는 모든 전경의 성분을 추출하지 않는다고 판정된 경우, 스텝 S904로 돌아가서, 전경의 성분을 추출의 처리를 반복한다.
스텝 S905에 있어서, 처리 단위에 대응하는 모든 전경의 성분을 추출하였다고 판정된 경우, 스텝 S906으로 진행하고, 보정부(905)는, 움직임량 v를 기초로, 연산부(904)로부터 공급된 전경의 성분 FO1/v 내지 F08/v의 각각을 보정하여, 움직임 불선명을 제거한 전경의 화소값 FO1 내지 F08을 산출한다.
스텝 S907에 있어서, 움직임 불선명 부가부(906)는, 움직임 불선명의 양을 조정한 전경의 화소값을 산출하고, 선택부(907)는, 움직임 불선명이 제거된 화상 또는 움직임 불선명의 양이 조정된 화상 중 어느 하나를 선택하여, 선택한 화상을 출력하고, 처리는 종료된다.
이와 같이, 도 80에 구성을 도시하는 움직임 불선명 조정부(106)는, 보다 간단한 연산으로, 보다 신속하게, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명을 조정 할 수 있다.
위너·필터 등 종래의 움직임 불선명을 부분적으로 제거하는 수법이, 이상 상태에서는 효과가 인정되지만, 양자화되어, 노이즈를 포함한 실제의 화상에 대해서 충분한 효과를 얻을 수 없는데 대해서, 도 80에 구성을 도시하는 움직임 불선명 조정부(106)에 있어서도, 양자화되어, 노이즈를 포함한 실제의 화상에 대해서도 충분한 효과가 인정되고, 정밀도가 좋은 움직임 불선명의 제거가 가능해진다.
도 85는, 화상 처리 장치의 기능의 다른 구성을 도시하는 블록도이다.
도 2에 도시하는 부분과 동일 부분에는 동일한 번호를 붙이고, 그 설명은 적절하게 생략한다.
영역 특정부(103)는, 영역 정보를 혼합비 산출부(104) 및 합성부(1001)에 공급한다.
혼합비 산출부(104)는, 혼합비α를 전경 배경 분리부(105) 및 합성부(1001)에 공급한다.
전경 배경 분리부(105)는, 전경 성분 화상을 합성부(1001)에 공급한다.
합성부(1001)는, 혼합비 산출부(104)로부터 공급된 혼합비α, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 임의의 배경 화상과, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상을 합성하여, 임의의 배경 화상과 전경 성분 화상이 합성된 합성 화상을 출력한다.
도 86은, 합성부(1001)의 구성을 도시하는 도면이다. 배경 성분 생성부(1021)는, 혼합비α및 임의의 배경 화상을 기초로, 배경 성분 화상을 생성하여, 혼합 영역 화상 합성부(1022)에 공급한다.
혼합 영역 화상 합성부(1022)는, 배경 성분 생성부(1021)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써, 혼합 영역 합성 화상을 생성하여, 생성한 혼합 영역 합성 화상을 화상 합성부(1023)에 공급한다.
화상 합성부(1023)는, 영역 정보를 기초로, 전경 성분 화상, 혼합 영역 화상 합성부(1022)로부터 공급된 혼합 영역 합성 화상, 및 임의의 배경 화상을 합성하고, 합성 화상을 생성하여 출력한다.
이와 같이, 합성부(1001)는, 전경 성분 화상을, 임의의 배경 화상에 합성 할 수 있다.
특징량인 혼합비α를 기초로 전경 성분 화상을 임의의 배경 화상과 합성하여 얻어진 화상은, 단순히 화소를 합성한 화상에 비교해서, 보다 자연스러운 것이 된다.
도 87은, 움직임 불선명의 양을 조정하는 화상 처리 장치의 기능의 또 다른구성을 도시하는 블록도이다. 도 2에 도시하는 화상 처리 장치가 영역 특정과 혼합비α의 산출을 순서대로 행하는 데 대해서, 도 87에 도시하는 화상 처리 장치는, 영역 특정과 혼합비α의 산출을 병행하여 행한다.
도 2의 블록도에 도시하는 기능과 동일 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
입력 화상은, 혼합비 산출부(1101), 전경 배경 분리부(1102), 영역 특정부103, 및 오브젝트 추출부(101)에 공급된다.
혼합비 산출부(1101)는, 입력 화상을 기초로, 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비를, 입력 화상에 포함되는 화소의 각각에 대해서 산출하여, 산출한 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비를 전경 배경 분리부(1102)에 공급한다.
도 88은, 혼합비 산출부(1101)의 구성의 일례를 도시하는 블록도이다.
도 88에 도시하는 추정 혼합비 처리부(401)는, 도 47에 도시하는 추정 혼합비 처리부(401)와 동일하다. 도 88에 도시하는 추정 혼합비 처리부(402)는, 도 47에 도시하는 추정 혼합비 처리부(402)와 동일하다
추정 혼합비 처리부(401)는, 입력 화상을 기초로, 커버드 백 그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하여, 산출한 추정혼합비를 출력한다.
추정 혼합비 처리부(402)는, 입력 화상을 기초로, 언커버드 백 그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하여, 산출한 추정 혼합비를 출력한다.
전경 배경 분리부(1102)는, 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 입력 화상으로부터 전경 성분 화상을 생성하여, 생성한 전경 성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다.
도 89는, 전경 배경 분리부(1102)의 구성의 일례를 도시하는 블록도이다.
도 64에 도시하는 전경 배경 분리부(105)와 동일 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(1121)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비 중 어느 한쪽을 선택하여, 선택한 추정 혼합비를 혼합비α로서 분리부(601)에 공급한다.
분리부(601)는, 선택부(1121)로부터 공급된 혼합비α및 영역 정보를 기초로, 혼합 영역에 속하는 화소의 화소값으로부터 전경의 성분 및 배경의 성분을 추출하여, 추출한 전경의 성분을 합성부(603)에 공급하는 동시에, 배경의 성분을 합성부(605)에 공급한다.
분리부(601)는, 도 69에 도시하는 구성과 동일한 구성으로 할 수 있다.
합성부(603)는, 전경 성분 화상을 합성하여 출력한다. 합성부(605)는, 배경 성분 화상을 합성하여 출력한다.
도 87에 도시하는 움직임 불선명 조정부(106)는, 도 2에 도시하는 경우와 동일한 구성으로 할 수 있고, 영역 정보 및 이동 벡터를 기초로, 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양이 조정된 전경 성분 화상을 출력한다.
도 87에 도시하는 선택부(107)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명의 양이 조정된 전경 성분 화상 중 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이, 도 87에 구성을 도시하는 화상 처리 장치는, 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상에 대해서, 그 화상에 포함되는 움직임 불선명의 양을 조정하여 출력 할 수 있다. 도 87에 구성을 도시하는 화상 처리 장치는, 제1 실시예와 같이, 파묻힌 정보인 혼합비α를 산출하여, 산출한 혼합비α를 출력 할 수 있다.
도 90은, 전경 성분 화상을 임의의 배경 화상과 합성하는 화상 처리 장치의 기능의 다른 구성을 도시하는 블록도이다. 도 85에 도시하는 화상 처리 장치가 영역 특정과 혼합비α의 산출을 직렬로 행하는 데 대해서, 도 90에 도시하는 화상 처리 장치는, 영역 특정과 혼합비α의 산출을 병렬로 행한다.
도 87의 블록도에 도시하는 기능과 동일 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
도 90에 도시하는 혼합비 산출부(1101)는, 입력 화상을 기초로, 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비를, 입력 화상에 포함되는 화소의 각각에 대해서 산출하여, 산출한 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비를 전경 배경 분리부(1102) 및 합성부(1201)에 공급한다.
도 90에 도시하는 전경 배경 분리부(1102)는, 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 입력 화상으로부터 전경 성분 화상을 생성하여, 생성한 전경 성분 화상을 합성부(1201)에 공급한다.
합성부(1201)는, 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 영역특정부(103)로부터 공급된 영역 정보를 기초로, 임의의 배경 화상과, 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상을 합성하여, 임의의 배경 화상과 전경 성분 화상이 합성된 합성 화상을 출력한다.
도 91은, 합성부(1201)의 구성을 도시하는 도면이다. 도 86의 블록도에 도시하는 기능과 동일 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(1221)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백 그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비 중 어느 한쪽을 선택하여, 선택한 추정 혼합비를 혼합비α로서 배경 성분 생성부(1021)에 공급한다.
도 91에 도시하는 배경 성분 생성부(1021)는, 선택부(1221)로부터 공급된 혼합비α및 임의의 배경 화상을 기초로, 배경 성분 화상을 생성하여, 혼합 영역 화상 합성부(1022)에 공급한다.
도 91에 도시하는 혼합 영역 화상 합성부(1022)는, 배경 성분 생성부(1021)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써, 혼합 영역 합성 화상을 생성하여, 생성한 혼합 영역 합성 화상을 화상 합성부(1023)에 공급한다.
화상 합성부(1023)는, 영역 정보를 기초로, 전경 성분 화상, 혼합 영역 화상 합성부(1022)로부터 공급된 혼합 영역 합성 화상, 및 임의의 배경 화상을 합성하여, 합성 화상을 생성하여 출력한다.
이와 같이, 합성부(1201)는, 전경 성분 화상을, 임의의 배경 화상에 합성 할수 있다.
다음에, 컴포넌트 신호로서 입력되는 입력 화상을 처리하는 본 발명에 따른 화상 처리 장치에 대해서 설명한다.
이 명세서에 있어서, 컴포넌트란, 컴포넌트 신호에 있어서의, 휘도 신호 및 색차 신호, 또는 RGB(Red-green-blue) 신호 등의 개별의 신호를 말한다.
이하의 설명에 있어서, 컴포넌트 1은, 휘도치 Y로 하고, 컴포넌트 2는, 색차 U로 하고, 컴포넌트 3은, 색차 V로 한 예를 기초로 설명한다.
도 92는, 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역 정보를 생성하는 화상 처리 장치의 일 실시 형태를 도시하는 도면이다.
입력 화상의 컴포넌트 신호의 하나인 컴포넌트 1은, 영역 특정부(103-1)에 입력된다. 입력 화상의 컴포넌트 신호의 다른 하나인 컴포넌트 2는, 영역 특정부(103-2)에 입력된다. 입력 화상의 컴포넌트 신호의 또 다른 하나인 컴포넌트 3은, 영역 특정부(103-3)에 입력된다.
영역 특정부(103-1)는, 컴포넌트 1을 기초로, 영역 정보 1을 생성하여, 생성한 영역 정보 1을 논리합 처리부(1301)에 공급한다. 영역 특정부(103-1)는, 영역 특정부(103)와 동일한 구성을 갖기 때문에, 그 설명은 생략한다.
영역 특정부(103-2)는, 컴포넌트 2를 기초로, 영역 정보 2를 생성하여, 생성한 영역 정보 2를 논리합 처리부(1301)에 공급한다. 영역 특정부(103-2)는, 영역 특정부(103)와 동일한 구성을 갖기 때문에, 그 설명은 생략한다.
영역 특정부(103-3)는, 컴포넌트 3을 기초로, 영역 정보 3을 생성하여, 생성한 영역 정보 3을 논리합 처리부(1301)에 공급한다. 영역 특정부(103-3)는, 영역 특정부(103)와 동일한 구성을 갖기 때문에, 그 설명은 생략한다.
논리합 처리부(1301)는, 영역 특정부(103-1)로부터 공급된 영역 정보 1, 영역 특정부(103-2)로부터 공급된 영역 정보 2, 및 영역 특정부(103-3)로부터 공급된 영역 정보 3을 기초로, 영역 정보 1이 나타내는 전경 영역, 영역 정보 2가 나타내는 전경 영역, 및 영역 정보 3이 나타낸는 전경 영역의 논리합을 연산하여, 논리합에 의해 연산된 전경 영역을 설정한 영역 정보를 생성한다. 논리합 처리부(1301)는, 영역 특정부(103-1)로부터 공급된 영역 정보 1, 영역 특정부(103-2)로부터 공급된 영역 정보 2, 및 영역 특정부(103-3)로부터 공급된 영역 정보 3을 기초로, 영역 정보 1이 나타내는 배경 영역, 영역 정보 2가 나타내는 배경 영역, 및 영역 정보 3이 나타내는 배경 영역의 논리합을 연산하여, 논리합에 의해 연산된 배경 영역을 설정한 영역 정보를 생성한다.
논리합 처리부(1301)는, 영역 특정부(103-1)로부터 공급된 영역 정보 1, 영역 특정부(103-2)로부터 공급된 영역 정보 2, 및 영역 특정부(103-3)로부터 공급된 영역 정보 3을 기초로, 영역 정보 1이 나타내는 커버드 백 그라운드 영역, 영역 정보 2가 나타내는 커버드 백 그라운드 영역, 및 영역 정보 3이 나타내는 커버드 백 그라운드 영역의 논리합을 연산하여, 논리합에 의해 연산된 커버드 백 그라운드 영역을 설정한 영역 정보를 생성한다. 논리합 처리부(1301)는, 영역 특정부(103-1)로부터 공급된 영역 정보 1, 영역 특정부(103-2)로부터 공급된 영역 정보 2, 및 영역 특정부(103-3)로부터 공급된 영역 정보 3을 기초로, 영역 정보 1이 나타내는 언커버드 백 그라운드 영역, 영역 정보 2가 나타내는 언커버드 백 그라운드 영역, 및 영역 정보 3이 나타내는 언커버드 백 그라운드 영역의 논리합을 연산하여, 논리합에 의해 연산된 언커버드 백 그라운드 영역을 설정한 영역 정보를 생성한다.
논리합 처리부(1301)는, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역이 설정된 영역 정보를 출력한다.
도 93은, 컴포넌트 신호에 포함되는, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 관계를 설명하는 도면이다. 도 93에 있어서, A는, 컴포넌트 1을 도시하고, B는, 컴포넌트 2를 도시하고, C는, 컴포넌트 3을 도시한다.
센서는, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3에 대응하는, 예를 들면, 3개의 CCD 에어리어 센서를 갖는다. 컴포넌트 1에 대응하는 CCD 에어리어 센서의 특성, 컴포넌트 2에 대응하는 CCD 에어리어 센서의 특성, 및 컴포넌트 3에 대응하는 CCD 에어리어 센서의 특성은, 동일하고, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3에 생기는 왜곡은 동일하다.
센서는, 1개의 전경에 대응하는 오브젝트(111) 및 1개의 배경에 대응하는 오브젝트(112)를 촬상하여, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3을 출력한다.
1개의 전경에 대응하는 오브젝트(111) 및 1개의 배경에 대응하는 오브젝트(112)를 포함하는 현실 세계는 하나이고, 현실 세계에서 생기고 있는 현상은 1개이다. 즉, 예를 들면, 전경에 대응하는 오브젝트(111)의 형상은 1개이고, 전경에 대응하는 오브젝트(111)의 움직임은 1개이다.
따라서, 1개의 전경에 대응하는 오브젝트(111) 및 1개의 배경에 대응하는 오브젝트(112)를 센서로 촬상했을 때, 컴포넌트 1의 전경 영역, 배경 영역, 및 혼합 영역, 및 혼합비α, 컴포넌트 2의 전경 영역, 배경 영역, 및 혼합 영역, 및 혼합비α, 및 컴포넌트 3의 전경 영역, 배경 영역, 및 혼합 영역, 및 혼합비α는, 각각 동일하다.
그러나, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3을 기초로, 각각을 동일한 처리를 해서, 각각에, 동일한 영역 정보 및 혼합비α를 반드시 산출할 수 있는 것은 아니다.
예를 들면, 색차 신호인 컴포넌트 3에 대응하는 색차 신호가 거의 0이 되는 색채를 갖는, 전경에 대응하는 오브젝트(111) 및 배경에 대응하는 오브젝트(112)를 촬상했을 때, 휘도 신호인 컴포넌트 1 및 색차 신호인 컴포넌트 2는, 유효한 값을 포함하지만, 색차 신호인 컴포넌트 3은, 유효한 값을 거의 포함하지 않는다. 이러한 경우, 컴포넌트 3을 기초로, 영역 신호 및 혼합비α를 산출해도, 유의의 값을 구할 수는 없다
또한, 예를 들면, 휘도 신호인 컴포넌트 1이 시간 방향 및 공간 방향으로 거의 변화하지 않고, 색차 신호만이 시간 방향 또는 공간 방향의 변화할 때, 컴포넌트 1을 기초로, 영역 신호 및 혼합비α를 산출해도, 유의의 값을 구할 수는 없고, 컴포넌트 2 또는 컴포넌트 3을 기초로, 영역 신호 및 혼합비α를 산출하면, 유의의 값을 구할 수 있다.
또한, 특정한 성분에 대응하는 CCD 에어리어 센서가 에러를 일으키는 경우가 있을 수 있다.
이상과 같이, 산출하려고 하는 1개의 영역 정보 및 혼합비α에 대응하는, 복수의 컴포넌트를 사용하여 처리를 실행함으로써, 예를 들면, 1개의 컴포넌트 신호 또는 1개의 컴포지트 신호를 사용한 처리에 비교해서, 보다 정밀도가 높은 결과가 얻을 수 있다.
또한, 복수의 컴포넌트를 사용하여 통계 처리를 행할 때, 데이터가 증가하기 때문에, 처리 결과의 정밀도가 보다 향상된다. 또한, 예를 들면, 복수의 컴포넌트에 최소 제곱법을 적용하여 산출된 혼합비α의 정밀도는, 1개의 컴포넌트 신호 또는 1개의 컴포지트 신호를 사용한 처리에 의해 산출된 혼합비α의 정밀도에 비교해서 보다 높다.
다음에, 도 94의 흐름도를 참조하여, 도 92에 구성을 도시하는 화상 처리 장치에 의한, 컴포넌트 신호를 이용한 영역 판정의 처리를 설명한다.
스텝 S1301에 있어서, 영역 특정부(103-1)는, 컴포넌트 1을 기초로, 영역 특정의 처리를 실행하여, 영역 정보 1을 생성하고, 생성한 영역 정보 1을 논리합 처리부(1301)에 공급한다. 스텝 S1301의 처리는, 스텝 S11의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1302에 있어서, 영역 특정부(103-2)는, 컴포넌트 2를 기초로, 영역 특정의 처리를 실행하여, 영역 정보 2를 생성하고, 생성한 영역 정보 2를 논리합 처리부(1301)에 공급한다. 스텝 S1302의 처리는, 스텝 S11의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1303에 있어서, 영역 특정부(103-3)는, 컴포넌트 3을 기초로, 영역 특정의 처리를 실행하여, 영역 정보 3을 생성하고, 생성한 영역 정보 3을 논리합 처리부(1301)에 공급한다. 스텝 S1303의 처리는, 스텝 S11의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1304에 있어서, 논리합 처리부(1301)는, 컴포넌트 1에 의해 특정된 전경 영역, 컴포넌트 2에 의해 특정된 전경 영역, 및 컴포넌트 3에 의해 특정된 전경 영역의 논리합을 구하여, 논리합에 의해 연산된 전경 영역을 영역 정보로 설정한다.
스텝 S1305에 있어서, 논리합 처리부(1301)는, 컴포넌트 1에 의해 특정된 배경 영역, 컴포넌트 2에 의해 특정된 배경 영역, 및 컴포넌트 3에 의해 특정된 배경 영역의 논리합을 구하여, 논리합에 의해 연산된 배경 영역을 영역 정보로 설정한다.
스텝 S1306에 있어서, 논리합 처리부(1301)는, 컴포넌트 1에 의해 특정된 커버드 백 그라운드 영역, 컴포넌트 2에 의해 특정된 커버드 백 그라운드 영역, 및 컴포넌트 3에 의해 특정된 커버드 백 그라운드 영역의 논리합을 구하여, 논리합에 의해 연산된 커버드 백 그라운드 영역을 영역 정보로 설정한다.
스텝 S1307에 있어서, 논리합 처리부(1301)는, 컴포넌트 1에 의해 특정된 언커버드 백 그라운드 영역, 컴포넌트 2에 의해 특정된 언커버드 백 그라운드 영역, 및 컴포넌트 3에 의해 특정된 언커버드 백 그라운드 영역의 논리합을 구하여, 논리합에 의해 연산된 언커버드 백 그라운드 영역을 영역 정보로 설정한다. 논리합 처리부(1301)는, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백그라운드 영역을 설정한 영역 정보를 출력하고, 처리는 종료된다.
이와 같이, 도 92에 구성을 도시하는 화상 처리 장치는, 컴포넌트 신호의 각 성분마다 영역을 특정하고, 특정된 영역의 논리합을 구하여 최종적인 영역 정보를 생성한다. 도 92에 구성을 도시하는 화상 처리 장치는, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역의 각 영역을 새게하지 않고 특정한 영역 정보를 출력 할 수 있다.
도 95는, 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역 정보를 생성하는 화상 처리 장치의 다른 실시 형태를 도시하는 도면이다.
도 92에 도시하는 경우와 동일 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
논리곱 처리부(1321)는, 영역 특정부(103-1)로부터 공급된 영역 정보 1, 영역 특정부(103-2)로부터 공급된 영역 정보 2, 및 영역 특정부(103-3)로부터 공급된 영역 정보 3을 기초로, 영역 정보 1이 나타내는 전경 영역, 영역 정보 2가 나타내는 전경 영역, 및 영역 정보 3이 나타내는 전경 영역의 논리곱을 연산하여, 논리곱에 의해 연산된 전경 영역을 설정한 영역 정보를 생성한다. 논리곱 처리부(1321)는, 영역 특정부(103-1)로부터 공급된 영역 정보 1, 영역 특정부(103-2)로부터 공급된 영역 정보 2, 및 영역 특정부(103-3)로부터 공급된 영역 정보 3을 기초로, 영역 정보 1이 나타내는 배경 영역, 영역 정보 2가 나타내는 배경 영역, 및 영역 정보 3이 나타내는 배경 영역의 논리곱을 연산하여, 논리곱에 의해 연산된 배경 영역을 설정한 영역 정보를 생성한다.
논리곱 처리부(1321)는, 영역 특정부(103-1)로부터 공급된 영역 정보 1, 영역 특정부(103-2)로부터 공급된 영역 정보 2, 및 영역 특정부(103-3)로부터 공급된 영역 정보 3을 기초로, 영역 정보 1이 나타내는 커버드 백 그라운드 영역, 영역 정보 2가 나타내는 커버드 백 그라운드 영역, 및 영역 정보 3이 나타내는 커버드 백 그라운드 영역의 논리곱을 연산하여, 논리곱에 의해 연산된 커버드 백 그라운드 영역을 설정한 영역 정보를 생성한다. 논리곱 처리부(1321)는, 영역 특정부(103-1)로부터 공급된 영역 정보 1, 영역 특정부(103-2)로부터 공급된 영역 정보 2, 및 영역 특정부(103-3)로부터 공급된 영역 정보 3을 기초로, 영역 정보 1이 나타내는 언커버드 백 그라운드 영역, 영역 정보 2가 나타내는 언커버드 백 그라운드 영역, 및 영역 정보 3이 나타내는 언커버드 백 그라운드 영역의 논리곱을 연산하여, 논리곱에 의해 연산된 언커버드 백 그라운드 영역을 설정한 영역 정보를 생성한다.
논리곱 처리부(1321)는, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역이 설정된 영역 정보를 출력한다.
다음에, 도 96의 흐름도를 참조하여, 도 95에 구성을 도시하는 화상 처리 장치에 의한, 성분을 이용한 영역 판정의 처리를 설명한다.
스텝 S1321에 있어서, 영역 특정부(103-1)는, 컴포넌트 1을 기초로, 영역 특정의 처리를 실행하여, 영역 정보 1을 생성하고, 생성한 영역 정보 1을 논리곱 처리부(1321)에 공급한다. 스텝 S1321의 처리는, 스텝 S11의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1322에 있어서, 영역 특정부(103-2)는, 컴포넌트 2를 기초로, 영역 특정의 처리를 실행하여, 영역 정보 2를 생성하고, 생성한 영역 정보 2를 논리곱 처리부(1321)에 공급한다. 스텝 S1322의 처리는, 스텝 S11의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1323에 있어서, 영역 특정부(103-3)는, 컴포넌트 3을 기초로, 영역 특정의 처리를 실행하여, 영역 정보 3을 생성하고, 생성한 영역 정보 3을 논리곱 처리부(1321)에 공급한다. 스텝 S1323의 처리는, 스텝 S11의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1324에 있어서, 논리곱 처리부(1321)는, 컴포넌트 1에 의해 특정된 전경 영역, 컴포넌트 2에 의해 특정된 전경 영역, 및 컴포넌트 3에 의해 특정된 전경 영역의 논리곱을 구하여, 논리곱에 의해 연산된 전경 영역을 영역 정보로 설정한다.
스텝 S1325에 있어서, 논리곱 처리부(1321)는, 컴포넌트 1에 의해 특정된 배경 영역, 컴포넌트 2에 의해 특정된 배경 영역, 및 컴포넌트 3에 의해 특정된 배경 영역의 논리곱을 구하여, 논리곱에 의해 연산된 배경 영역을 영역 정보로 설정한다.
스텝 S1326에 있어서, 논리곱 처리부(1321)는, 컴포넌트 1에 의해 특정된 커버드 백 그라운드 영역, 컴포넌트 2에 의해 특정된 커버드 백 그라운드 영역, 및 컴포넌트 3에 의해 특정된 커버드 백 그라운드 영역의 논리곱을 구하여, 논리곱에 의해 연산된 커버드 백 그라운드 영역을 영역 정보로 설정한다.
스텝 S1327에 있어서, 논리곱 처리부(1321)는, 컴포넌트 1에 의해 특정된 언커버드 백 그라운드 영역, 컴포넌트 2에 의해 특정된 언커버드 백 그라운드 영역, 및 컴포넌트 3에 의해 특정된 언커버드 백 그라운드 영역의 논리곱을 구하여, 논리곱에 의해 연산된 언커버드 백 그라운드 영역을 영역 정보로 설정한다. 논리곱 처리부(1321)는, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역을 설정한 영역 정보를 출력하고, 처리는 종료된다.
이와 같이, 도 95에 구성을 도시하는 화상 처리 장치는, 각 성분마다 영역을 특정하고, 특정된 영역의 논리곱을 구하여 최종적인 영역 정보를 생성한다. 도 95에 구성을 도시하는 화상 처리 장치는, 에러가 적은 영역 정보를 출력 할 수 있다.
도 97은, 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역 정보를 생성하는 화상 처리 장치의 또 다른 실시 형태를 도시하는 도면이다.
영역 특정부(1331)는, 입력된 컴포넌트 신호에 포함되는 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3을 화소마다 가산하고, 화소마다 가산된 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3을 기초로, 화소마다, 움직임 영역인지, 또는 정지 영역인지를 판정한다. 영역 특정부(1331)는, 움직임 영역 또는 정지 영역의 판정 결과를 기초로, 영역 정보를 생성하여, 생성한 영역 정보를 출력한다.
도 98 내지 도 102를 참조하여, 영역 특정부(1331)의 처리를 설명한다.
화상의 통계적인 성질로부터, 도 98에 도시한 바와 같이, 화상의 정지 영역에 있어서, 시간 상관은, 공간 상관에 비교해서 강하다. 또한, 화상의 움직임 영역에 있어서, 반대로, 공간 상관은, 시간 상관에 비교해서 강하다.
영역 특정부(1331)는, 움직임 영역 또는 정지 영역의 판정을 위한 공간 상관을 산출할 때, 도 99에 도시한 바와 같이, 예를 들면, 주목하고 있는 화소를 중심으로 하여, 5 화소×5 화소의 블록의 화소에 대해서, 인접하는 화소의 화소값의 차분을 산출하고, 산출한 차분의 절대값의 총합을 구한다. 영역 특정부(1331)는, 산출한 차분의 절대값의 총합을, 차분의 수로 제산함으로써, 공간 상관에 대응하는 상관값을 산출한다.
예를 들면, 영역 특정부(1331)는, 주목하고 있는 화소가 x33이고, 블록에 포함되는 화소의 화소값이 x11 내지 x55일 때, 식 119)에 나타내는, 인접하는 화소의 화소값의 차분의 절대값의 총합인 차분 절대값 합을 산출한다.
영역 특정부(1331)는, 차분 절대값 합을, 차분의 수, 즉, 40으로 제산함으로써, 공간 상관에 대응하는 상관값을 산출한다.
또한, 영역 특정부(1331)는, 움직임 영역 또는 정지 영역의 판정을 위한 시간 상관을 산출할 때, 주목하는 화소의 화소값과, 전 프레임의 대응하는 위치의 화소의 화소값의 차분을 산출하는 동시에, 주목하는 화소의 화소값과, 다음 프레임의 대응하는 위치의 화소의 화소값의 차분을 산출한다. 보다 강한 상관을 나타내는 차분을 사용하고, 경계에 있어서, 영역이 넓게 판정되는 것을 방지하기 위해서, 영역 특정부(1331)는, 앞 프레임의 대응하는 위치의 화소의 화소값과의 차분, 및 전프레임의 대응하는 위치의 화소의 화소값과의 차분 중, 값이 작은 차분을 선택한다.
영역 특정부(1331)는, 선택한 차분의 절대값의 총합을 구한다. 영역 특정부(1331)는, 산출한 차분의 절대값의 총합을, 차분의 수로 제산함으로써, 시간 상관에 대응하는 상관값을 산출한다.
예를 들면, 영역 특정부(1331)는, 주목하고 있는 프레임이 프레임 #n일 때, 도 10O에 도시한 바와 같이, 예를 들면, 주목하고 있는 화소 x22를 중심으로 하여, 3 화소×3 화소의 블록의 각각의 화소에 대해서 차분을 산출한다.
영역 특정부(1331)는, 프레임 #n의 화소의 화소값 x11과, 프레임 #n-1의 대응하는 위치의 화소의 화소값 x11의 차분, 및 프레임 #n의 화소의 화소값 x11과, 프레임 #n+1의 대응하는 위치의 화소의 화소값 x11의 차분을 산출한다. 영역 특정부(1331)는, 프레임 #n-1의 대응하는 위치의 화소의 화소값 x11과의 차분, 및 프레임 #n+1의 대응하는 위치의 화소의 화소값 x11과의 차분 중, 값이 작은 차분을 선택한다.
마찬가지로, 영역 특정부(1331)는, 프레임 #n의 화소의 화소값 x12 내지 x33의 각각과, 프레임 #n-1의 대응하는 위치의 화소의 화소값 x12 내지 x33의 각각의 차분, 및 프레임 #n의 화소의 화소값 x12 내지 x33의 각각과, 프레임 #n+1의 대응하는 위치의 화소의 화소값 x12 내지 x33의 각각의 차분을 산출한다. 영역 특정부(1331)는, 프레임 #n-1의 대응하는 위치의 화소의 화소값 x12 내지 x33의 각각과의 차분, 및 프레임 #n+1의 대응하는 위치의 화소의 화소값 x12 내지 x33의 각각과의 대응하는 차분 중, 값이 작은 차분을 선택한다.
영역 특정부(1331)는, 선택한 9개의 차분의 절대값의 총합을 구한다. 영역 특정부(1331)는, 산출한 차분의 절대값의 총합을, 차분의 수, 즉 9로 제산함으로써, 시간 상관에 대응하는 상관값을 산출한다.
또, 영역 특정부(1331)는, 1개의 화소마다 시간 상관 및 공간 상관을 산출하도록 해도 좋다. 또, 영역 특정부(1331)는, 시간 상관 및 공간 상관을 나타내는 값으로서, 차분 절대값 합에 한하지 않고, 차분 제곱합 등 그 밖의 상관을 나타내는 값을 산출하도록 해도 좋다.
또, 시간 상관 및 공간 상관을 산출하는 블록에 포함되는 화소의 수는, 본 발명으로 한정되는 것은 아니다.
도 101은, 정지 영역에서의 시간 상관 및 공간 상관을 설명하는 도면이다. 예를 들면, 정지 영역에 있어서, 화상이 정지하고 있기 때문에, 주목하고 있는 화소의 화소값 J는, 인접하는 프레임에 있어서의, 위치가 대응하는 화소의 화소값 J와 동일하다. 따라서, 정지 영역에 있어서, 시간 상관은 매우 강하다.
이것에 대해서, 주목하고 있는 화소에 인접하는 화소는, 화소값 J와 다른, 화소값 I 또는 화소값 K를 갖는다.
이와 같이, 정지 영역에 있어서, 공간 상관은, 시간 상관에 비교해서 약하다.
도 102는, 움직임 영역에 있어서의 시간 상관 및 공간 상관을 설명하는 도면이다. 예를 들면, 움직임 영역의, 주목하고 있는 화소에 포함되는 화상의 성분I/4, J/4, K/4, 및 L/4 중, 화상의 성분 I/4, J/4, 및 K/4는, 이웃의 화소에 포함되고, 화상의 성분 J/4, K/4, 및 L/4는, 다른 이웃의 화소에 포함된다. 따라서, 움직임 영역에 있어서, 공간 상관은 강하다.
이것에 대해서, 주목하고 있는 화소에 대응하는, 인접하는 프레임의 화소는, 다른 화상의 성분을 포함한다.
이와 같이, 움직임 영역에 있어서, 시간 상관은, 공간 상관에 비교해서 약하다.
이상과 같이, 영역 특정부(1331)는, 공간 상관 및 시간 상관을 구하여, 공간 상관과 시간 상관을 비교함으로써, 주목 화소가 움직임 영역에 포함되는지, 또는 정지 영역에 포함되는지를 알 수 있다.
영역 특정부(1331)는, 프레임에 포함되는 모든 화소에 대해서, 움직임 영역 또는 정지 영역의 판정을 실행한다.
영역 특정부(1331)는, 움직임 영역 또는 정지 영역의 판정 결과를 기초로, 화소마다, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역 중 어느 하나에 속하는지를 판정하여, 영역 정보를 생성한다.
예를 들면, 전경 영역과 동일한 영역이 움직임 영역으로서 판정될 때, 영역 특정부(1331)는, 이하와 같이, 화소마다, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역을 판정한다. 영역 특정부(1331)는, 프레임 #n의 주목하고 있는 화소가 움직임으로 판정되었을 때, 프레임 #n의 주목하고 있는 화소가 전경 영역에 속한다고 판정한다.
영역 특정부(1331)는, 프레임 #n의 주목하고 있는 화소가 정지라고 판정되고, 프레임 #n의 주목하고 있는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임으로 판정되었을 때, 프레임 #n의 주목하고 있는 화소가 커버드 백 그라운드 영역에 속한다고 판정한다.
영역 특정부(1331)는, 프레임 #n의 주목하고 있는 화소가 정지라고 판정되고, 프레임 #n의 주목하고 있는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소가 움직임으로 판정되었을 때, 프레임 #n의 주목하고 있는 화소가 언커버드 백 그라운드 영역에 속한다고 판정한다.
영역 특정부(1331)는, 정지라고 판정되고, 커버드 백 그라운드 영역 또는 언커버드 백 그라운드 영역에 속하지 않은 화소를 배경 영역에 속한다고 판정한다.
또, 전경 영역 및 혼합 영역으로 이루어지는 영역이 움직임 영역으로서 판정될 때, 영역 특정부(1331)는, 인접하는 프레임의 정지 영역을 참조하여, 화소마다, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역을 판정한다.
도 103 내지 도 106을 참조하여, 처리 결과의 예에 대해서 설명한다.
도 103은, 영역 특정부(1331)에 입력된 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3에 대응하는 입력 화상의 예를 도시하는 도면이다.
도 104는, 도 103에 도시하는 입력 화상에 대응하여, 영역 특정부(1331)가, 1화소마다, 움직임 영역 또는 정지 영역을 판정한 결과를 도시하는 도면이다. 도 104에 있어서, 백은 움직임 영역을 도시하고, 흑은 정지 영역을 도시한다. 오판정되어 있는 부분이 있지만, 움직임 영역 또는 정지 영역이, 전체적으로, 거의 특정되어 있는 것을 알 수 있다.
도 105는, 도 103에 도시하는 입력 화상에 대응하여, 영역 특정부(1331)가, 15 화소×15 화소의 블록을 단위로 하여, 움직임 영역 또는 정지 영역을 판정한 결과를 도시하는 도면이다. 도 105에 있어서, 백은 움직임 영역을 도시하고, 흑은 정지 영역을 도시한다. 움직임 영역 또는 정지 영역이, 거의 정확하게 특정되어 있는 것을 알 수 있다.
도 106은, 도 105에 도시하는, 움직임 영역 또는 정지 영역의 판정 결과를 기초로, 영역 특정부(1331)에 의한, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역의 판정 결과를 도시하는 도면이다. 도106에 있어서, A는 배경 영역을 도시하고, B는 언커버드 백 그라운드 영역을 도시하고, C는 전경 영역을 도시하고, D는 커버드 백 그라운드 영역을 도시한다.
거의 정확한 움직임 영역 또는 정지 영역의 특정에 기초하여, 영역이 판정되어 있기 때문에, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 및 언커버드 백 그라운드 영역을 거의 정확하게 특정하고 있는 것을 알 수 있다.
다음에, 도 107의 흐름도를 참조하여, 영역 특정부(1331)에 의한, 성분을 이용한 영역 판정의 처리를 설명한다.
스텝 S1331에 있어서, 영역 특정부(1331)는, 각 화소마다, 성분의 총합을 산출한다.
스텝 S1332에 있어서, 영역 특정부(1331)는, 예를 들면, 소정 수의 화소로이루어지는 블록을 단위로 하여, 공간 상관을 구한다. 스텝 S1333에 있어서, 영역 특정부(1331)는, 예를 들면, 소정 수의 화소로 이루어지는 블록을 단위로 하여, 시간 상관을 구한다.
스텝 S1334에 있어서, 영역 특정부(1331)는, 각 화소마다, 공간 상관과 시간 상관을 비교해서, 공간 상관보다 시간 상관이 강한지의 여부를 판정하여, 공간 상관보다 시간 상관이 강하다고 판정된 경우, 스텝 S1335로 진행하여, 주목하고 있는 화소를 정지 영역으로 설정하고, 처리는, 스텝 S1337로 진행한다.
스텝 S1334에 있어서, 공간 상관보다 시간 상관이 강하지 않다고 판정된 경우, 시간 상관보다 공간 상관이 강하기 때문에, 스텝 S1336으로 진행하고, 영역 특정부(1331)는, 주목하고 있는 화소를 움직임 영역으로 설정하고, 처리는, 스텝 S1337로 진행한다.
스텝 S1334 내지 스텝 S1336의 처리는, 프레임 내의 모든 화소의 각각에 대해서 실행된다.
스텝 S1337에 있어서, 영역 특정부(1331)는, 정지 또는 움직임의 설정을 기초로, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 또는 언커버드 백 그라운드 영역을 판정하고, 처리는 종료된다.
예를 들면, 스텝 S1337에 있어서, 프레임 #n의 주목하고 있는 화소가 움직임으로 판정되었을 때, 영역 특정부(1331)는, 프레임 #n의 주목하고 있는 화소가 전경 영역에 속한다고 판정한다.
프레임 #n의 주목하고 있는 화소가 정지라고 판정되고, 프레임 #n의 주목하고 있는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임으로 판정되었을 때, 영역 특정부(1331)는, 프레임 #n의 주목하고 있는 화소가 커버드 백 그라운드 영역에 속한다고 판정한다.
프레임 #n의 주목하고 있는 화소가 정지라고 판정되고, 프레임 #n의 주목하고 있는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소가 움직임으로 판정되었을 때, 영역 특정부(1331)는, 프레임 #n의 주목하고 있는 화소가 언커버드 백 그라운드 영역에 속한다고 판정한다.
영역 특정부(1331)는, 정지라고 판정되고, 커버드 백 그라운드 영역 또는 언커버드 백 그라운드 영역에 속하지 않은 화소를 배경 영역에 속한다고 판정한다.
이와 같이, 도 97에 도시하는 영역 특정부(1331)는, 성분을 기초로, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 또는 언커버드 백 그라운드 영역을 특정 할 수 있다.
도 108은, 컴포넌트 신호로서 입력되는 입력 화상 및 영역 정보를 기초로, 혼합비α를 산출하는 화상 처리 장치의 일 실시 형태를 나타내는 도면이다.
혼합비 산출부(104-1)는, 영역 정보 및 컴포넌트 1을 기초로, 혼합비 1을 산출하여, 산출한 혼합비 1을 평균 처리부(1401)에 공급한다. 혼합비 산출부(104-1)는, 혼합비 산출부(104)와 동일한 구성을 갖기 때문에, 그 설명은 생략한다.
혼합비 산출부(104-2)는, 영역 정보 및 컴포넌트 2를 기초로, 혼합비 2를 산출하여, 산출한 혼합비 2를 평균 처리부(1401)에 공급한다. 혼합비 산출부(104-2)는, 혼합비 산출부(104)와 동일한 구성을 갖기 때문에, 그 설명은 생략한다.
혼합비 산출부(104-3)는, 영역 정보 및 컴포넌트 3을 기초로, 혼합비 3을 산출하여, 산출한 혼합비 3을 평균 처리부(1401)에 공급한다. 혼합비 산출부(104-3)는, 혼합비 산출부(104)와 동일한 구성을 갖기 때문에, 그 설명은 생략한다.
평균 처리부(1401)는, 혼합비 산출부(104-1)로부터 공급된 혼합비 1, 혼합비 산출부(104-2)로부터 공급된 혼합비 2, 및 혼합비 산출부(104-3)로부터 공급된 혼합비 3의 평균값을 산출하여, 산출한 평균값을 혼합비α로서 출력한다.
도 109에 있어서 A로 도시한 바와 같이, 소정의 화소에 있어서의, 컴포넌트 1인 휘도치 Y에 대응하는 혼합비α, 컴포넌트 2인 색차 U에 대응하는 혼합비α, 컴포넌트 3인 색차 V에 대응하는 혼합비α는 동일하다. 도 108에 구성을 도시하는 화상 처리 장치는, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3을 사용하여 혼합비α를 산출함으로써, 보다 정확한 혼합비α를 산출 할 수 있게 된다.
도 110의 흐름도를 참조하여, 도 108에 구성을 도시하는 화상 처리 장치에 의한, 컴포넌트 신호를 이용한 혼합비α의 산출 처리를 설명한다.
스텝 S1401에 있어서, 혼합비 산출부(104-1)는, 영역 정보 및 컴포넌트 1을 기초로, 혼합비 1을 산출한다. 혼합비 산출부(104-1)는, 산출한 혼합비 1을 평균 처리부(1401)에 공급한다. 스텝 S1401의 처리는, 스텝 S12의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1402에 있어서, 혼합비 산출부(104-2)는, 영역 정보 및 컴포넌트 2를 기초로, 혼합비 2를 산출한다. 혼합비 산출부(104-2)는, 산출한 혼합비 2를 평균 처리부(1401)에 공급한다. 스텝 S1402의 처리는, 스텝 S12의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1403에 있어서, 혼합비 산출부(104-3)는, 영역 정보 및 컴포넌트 3을 기초로, 혼합비 3을 산출한다. 혼합비 산출부(104-3)는, 산출한 혼합비 3을 평균 처리부(1401)에 공급한다. 스텝 S1403의 처리는, 스텝 S12의 처리와 동일하기 때문에, 그 상세한 설명은 생략한다.
스텝 S1404에 있어서, 평균 처리부(1401)는, 컴포넌트 1을 기초로 한 혼합비 1, 컴포넌트 2를 기초로 한 혼합비 2, 및 컴포넌트 3을 기초로 한 혼합비 3의 평균값을 구하여, 산출한 평균값을 혼합비α로서 출력하고, 처리는 종료된다.
이와 같이, 도 108에 구성을 도시하는 화상 처리 장치는, 각 성분마다 혼합비를 산출하여, 산출된 혼합비의 평균값을 구해 최종적인 혼합비α를 생성한다. 도 108에 구성을 도시하는 화상 처리 장치는, 1개의 컴포넌트로 발생한 에러에 의한 영향을 적게 한 혼합비α를 산출 할 수 있다.
도 111은, 컴포넌트 신호로서 입력되는 입력 화상 및 영역 정보를 기초로, 혼합비α를 산출하는 화상 처리 장치의 다른 실시 형태를 도시하는 도면이다. 도 108에 도시하는 경우와 동일 부분에는, 동일한 번호를 붙이고, 그 설명은 생략한다.
다수결 처리부(1411)는, 혼합비 산출부(104-1)에서 공급된 혼합비 1, 혼합비 산출부(104-2)로부터 공급된 혼합비 2, 및 혼합비 산출부(104-3)로부터 공급된 혼합비 3을 미리 정한 구간으로 분류하여, 구간의 대표값에 대응하는 도수를 구한다. 다수결 처리부(1411)는, 대표값에 대응하는 도수를 기초로, 혼합비α를 정하고, 정한 혼합비α를 출력한다.
예를 들면, 구간의 폭이 0.1이고, 대표값이, 0.0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 및 1.0일 때, 다수결 처리부(1411)는, 혼합비 1이 0.12이고, 혼합비 2가 0.13이고, 혼합비 3이 0.41일 때, 대표값 0.1의 도수를 2로 하고, 대표값 0.4의 도수를 1로 한다. 다수결 처리부(1411)는, 가장 큰 도수 2에 대응하는 대표값 0.1을 혼합비α로 설정한다.
도 112의 흐름도를 참조하여, 도 111에 구성을 도시하는 화상 처리 장치에 의한, 컴포넌트를 이용한 혼합비α의 산출 처리를 설명한다.
스텝 S1411 내지 스텝 S1413의 처리의 각각은, 스텝 S1401 내지 스텝 S1403의 처리의 각각과 동일하기 때문에, 그 설명은 생략한다.
스텝 S1414에 있어서, 다수결 처리부(1411)는, 각 컴포넌트의 혼합비를, 미리 정한 구간으로 분류하여, 도수를 구한다.
스텝 S1415에 있어서, 다수결 처리부(1411)는, 도수를 기초로, 혼합비α를 정하고, 처리는 종료된다.
이와 같이, 도 111에 구성을 도시하는 화상 처리 장치는, 각 성분마다 혼합비를 산출하여, 산출된 혼합비의 도수를 기초로, 최종적인 혼합비α를 생성한다. 도 111에 구성을 도시하는 화상 처리 장치는, 1개의 컴포넌트의 에러에 의한, 크게 값이 다른 혼합비의 영향을 제거한, 신뢰성이 높은 혼합비α를 산출 할 수 있다.
도 113은, 컴포넌트 신호로서 입력되는 입력 화상 및 영역 정보를 기초로, 혼합비α를 산출하는 화상 처리 장치의 또 다른 실시 형태를 나타내는 도면이다.
혼합비 산출부(1421)는, 화소마다, 입력된 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 화소값을 가산하여, 가산된 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 화소값, 및 영역 정보를 기초로, 혼합비α를 산출하고, 산출한 혼합비α를 출력한다.
도 114는, 혼합비 산출부(1421)의 구성을 도시하는 블록도이다. 가산부(1431)는, 화소마다, 입력된 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 화소값을 가산하여, 가산된 값을 추정 혼합비 처리부(401) 및 추정 혼합비 처리부(402)에 공급한다.
추정 혼합비 처리부(401)는, 화소마다, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 화소값이 가산된 값을 기초로, 커버드 백 그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
커버드 백 그라운드 영역에 속하는 화소의 혼합비α를 나타내는 식 21은, 컴포넌트마다, 식 120 내지 식 122로 표현 할 수 있다.
CY는, 휘도치 Y인 컴포넌트 1에 있어서의, 프레임 #n의 화소값을 나타낸다.NY는, 컴포넌트 1에 있어서의, 프레임 #n의 뒤 프레임 #N+1의 화소값을 나타낸다. PY는, 컴포넌트 1에 있어서의, 프레임 #n의 앞 프레임 #n-1의 화소값을 나타낸다.
CU는, 색차 U인 컴포넌트 2에 있어서의, 프레임 #n의 화소값을 나타낸다. NU는, 컴포넌트 2에 있어서의, 프레임 #n의 뒤 프레임 #N+1의 화소값을 나타낸다. PU는, 컴포넌트 2에 있어서의, 프레임 #n의 앞 프레임 #n-1의 화소값을 나타낸다.
CV는, 색차 V인 컴포넌트 3에 있어서의, 프레임 #n의 화소값을 나타낸다. NV는, 컴포넌트 3에 있어서의, 프레임 #n의 뒤 프레임 #N+1의 화소값을 나타낸다. PV는, 컴포넌트 3에 있어서의, 프레임 #n의 앞 프레임 #n-1의 화소값을 나타낸다.
산출하려고 하는 혼합비α는, 컴포넌트 1 내지 컴포넌트 3에 있어서, 동일한 값이기 때문에, 식 123)이 성립한다.
식 120) 내지 식 123)으로부터 식 124)를 유도할 수 있다.
또한, 식 124)로부터, 혼합비α를 산출하기 위한 식 125)를 유도할 수 있다.
이와 같이, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 화소값을 가산한 값을 기초로, 혼합비α를 산출 할 수 있다.
추정 혼합비 처리부(402)는, 화소마다, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 화소값이 가산된 값을 기초로, 언커버드 백 그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
혼합비 결정부(403)는, 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비α로 설정하고, 대상이 되는 화소가 커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α로 설정한다. 혼합비 결정부(403)는, 영역 정보를 기초로 설정한 혼합비α를 출력한다.
이와 같이, 혼합비 산출부(1421)는, 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3을 사용하여, 1개의 신호를 기초로 산출한 혼합비α에 비교해서, 보다 정밀도가 높은 혼합비α를 산출 할 수 있다.
다음에, 도 115의 흐름도를 참조하여, 도 113의 화상 처리 장치에 의한, 컴포넌트 신호로서 입력되는 입력 화상 및 영역 정보를 기초로, 혼합비α를 산출하는 처리를 설명한다. 스텝 S1421에 있어서, 가산부(1431)는, 화소마다, 입력된 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3의 화소값을 합계한다. 가산부(1431)는, 합계된 화소값을 추정 혼합비 처리부(401) 및 추정 혼합비 처리부(402)에 공급한다.
스텝 S1422에 있어서, 추정 혼합비 처리부(401)는, 합계된 화소값을 기초로,커버드 백 그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출한다. 추정 혼합비 처리부(401)는, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다. 스텝 S1422의 처리의 상세는, 스텝 S402와 동일하기 때문에, 그 설명은 생략한다.
스텝 S1423에 있어서, 추정 혼합비 처리부(402)는, 합계된 화소값을 기초로, 언커버드 백 그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출한다. 추정 혼합비 처리부(402)는, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다. 스텝 S1423의 처리의 상세는, 스텝 S403과 동일하기 때문에, 그 설명은 생략한다.
스텝 S1424에 있어서, 혼합비 산출부(104)는, 프레임 전체에 대해서, 혼합비를 추정하였는지의 여부를 판정하고, 프레임 전체에 대해서, 혼합비를 추정하지 않고 있다고 판정된 경우, 스텝 S1422로 돌아가서, 다음의 화소에 대해서 혼합비를 추정하는 처리를 반복한다.
스텝 S1424에 있어서, 프레임 전체에 대해서, 혼합비를 추정하였다고 판정된 경우, 스텝 S1425로 진행하고, 혼합비 결정부(403)는, 화소가, 전경 영역, 배경 영역, 커버드 백 그라운드 영역, 또는 언커버드 백 그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 기초로, 혼합비α를 설정한다. 혼합비 결정부(403)는, 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비α로 설정하고, 대상이 되는 화소가 커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비처리부(401)에서 공급된 추정 혼합비를 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백 그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 처리는 종료된다.
이와 같이, 도 113에 구성을 도시하는 화상 처리 장치는, 영역 정보, 및 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3을 기초로, 보다 정밀도 높게, 각 화소에 대응하는 특징량인 혼합비α를 산출 할 수 있다.
또, 혼합비α는, 화소값에 포함되는 배경의 성분의 비율로서 설명하였지만, 화소값에 포함되는 전경의 성분의 비율로 해도 좋다.
또한, 전경이 되는 오브젝트의 움직임의 방향은 좌측으로부터 우측으로 설명하였지만, 그 방향으로 한정되지 않은 것은 물론이다.
이상에 있어서는, 3차원 공간과 시간 축 정보를 갖는 현실 공간의 화상을 비디오 카메라를 이용하여 2차원 공간과 시간 축 정보를 갖는 시공간으로의 사영을 행한 경우를 예로 하였지만, 본 발명은, 이 예에 한하지 않고, 보다 많은 제1 차원의 제1 정보를, 보다 적은 제2 차원의 제2 정보에 사영한 경우에, 그 사영에 의해서 발생하는 왜곡을 보정하거나, 유의 정보를 추출하거나, 또는 보다 자연스럽게 화상을 합성하는 경우에 적응하는 것이 가능하다.
또, 센서는, CCD에 한하지 않고, 고체 촬상 소자인, 예를 들면, CMOS(Complementary Metal Oxide Semiconductor(상보성 금속 산화막 반도체)), BBD(Bucket Brigade Device), CID(Charge Injection Device), 또는 CPD(Charge Priming Device) 등의 센서라도 좋고, 또한, 검출 소자가 매트릭스 형상으로 배치되어 있는 센서에 한하지 않고, 검출 소자가 1열로 배열되어 있는 센서라도 좋다.
본 발명의 신호 처리를 행하는 프로그램을 기록한 기록 매체는, 도 1에 도시한 바와 같이, 컴퓨터와는 별도로, 사용자에게 프로그램을 제공하기 위해서 배포되는, 프로그램이 기록되어 있는 자기 디스크(51) (플로피(등록상표) 디스크를 포함한다), 광 디스크(52)(CD-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)를 포함한다), 광 자기 디스크(53)(MD(Mini-Disc)(상표)를 포함한다), 또는 반도체 메모리(54) 등으로 이루어지는 패키지 미디어에 의해 구성될 뿐만 아니라, 컴퓨터에 미리 조립된 상태에서 사용자에게 제공되는, 프로그램이 기록되어 있는 ROM(22)이나, 기억부(28)에 포함되는 하드디스크 등으로 구성된다.
또, 본 명세서에 있어서, 기록 매체에 기록되는 프로그램을 기술하는 스텝은, 기재된 순서에 따라서 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않더라도, 병렬적 또는 개별로 실행되는 처리를 포함하는 것이다.
<산업상이용가능성>
제1 본 발명에 따르면, 화상에 있어서의 서로 섞임 상태를 아는 것이 가능해진다. 제2 본 발명에 따르면, 화상에 있어서의 서로 섞임 상태를 아는 것이 가능해진다.

Claims (50)

  1. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로서, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 상기 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 수단과,
    상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 수단을 포함하고,
    적어도 상기 영역 특정 수단 및 상기 혼합비 검출 수단 중 어느 한쪽은, 상기 복수 종류의 컴포넌트에 기초하여 화상 처리하는 것을 특징으로 하는 화상 처리 장치.
  2. 제1항에 있어서, 상기 영역 특정 수단은,
    상기 복수 종류의 컴포넌트마다 상기 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합영역 검출 수단과,
    상기 컴포넌트 혼합 영역 검출 수단으로 검출된 상기 복수 종류의 컴포넌트에 대응하는 상기 혼합 영역의 검출 결과에 기초하여, 상기 화상 데이터에 대응하는 상기 혼합 영역을 특정하는 혼합 영역 특정 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  3. 제1항에 있어서, 상기 영역 특정 수단은,
    상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 상기 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 수단과,
    상기 주목 화소 데이터와, 상기 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 수단과,
    상기 주목 화소에 대응하는 상기 공간 상관값 및 상기 시간 상관값을 기초로, 상기 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  4. 제3항에 있어서, 상기 영역 특정 수단은, 상기 주목 프레임의 상기 전경 영역, 및 상기 주목 프레임 근방의 근방 프레임의 상기 전경 영역을 기초로, 상기 혼합 영역을 특정하는 혼합 영역 특정 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  5. 제1항에 있어서, 상기 혼합비 검출 수단은,
    상기 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출 수단과,
    상기 컴포넌트 혼합비 검출 수단으로 검출된 상기 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 상기 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  6. 제1항에 있어서, 상기 혼합비 검출 수단은,
    상기 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 수단과,
    상기 통합 데이터에 기초하여, 상기 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  7. 제6항에 있어서, 상기 통합 수단은, 상기 복수 종류의 컴포넌트의 상기 화소값을 화소마다 가산하여, 가산한 결과를 상기 통합 데이터로서 출력하는 것을 특징으로 하는 화상 처리 장치.
  8. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로서, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 상기 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 스텝과,
    상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 스텝과,
    검출된 상기 혼합비의 출력을 제어하는 출력 제어 스텝을 포함하고,
    적어도 상기 영역 특정 스텝 및 상기 혼합비 검출 스텝의 어느 한쪽은, 상기 복수 종류의 컴포넌트에 기초하여 화상 처리하는 것을 특징으로 하는 화상 처리 방법.
  9. 제8항에 있어서, 상기 영역 특정 스텝은,
    상기 복수 종류의 컴포넌트마다 상기 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합 영역 검출 스텝과,
    상기 컴포넌트 혼합 영역 검출 스텝의 처리로 검출된 상기 복수 종류의 컴포넌트에 대응하는 상기 혼합 영역의 검출 결과에 기초하여, 상기 화상 데이터에 대응하는 상기 혼합 영역을 특정하는 혼합 영역 특정 스텝을 포함하는 것을 특징으로 하는 화상 처리 방법.
  10. 제8항에 있어서, 상기 영역 특정 스텝은,
    상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 상기 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 스텝과,
    상기 주목 화소 데이터와, 상기 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 스텝과,
    상기 주목 화소에 대응하는 상기 공간 상관값 및 상기 시간 상관값을 기초로, 상기 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정 스텝을 포함하는 것을 특징으로 하는 화상 처리 방법.
  11. 제10항에 있어서, 상기 영역 특정 스텝은, 상기 주목 프레임의 상기 전경 영역, 및 상기 주목 프레임 근방의 근방 프레임의 상기 전경 영역을 기초로, 상기 혼합 영역을 특정하는 혼합 영역 특정 스텝을 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  12. 제8항에 있어서, 상기 혼합비 검출 스텝은,
    상기 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출 스텝과,
    상기 컴포넌트 혼합비 검출 스텝의 처리로 검출된 상기 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 상기 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 스텝을 포함하는 것을 특징으로 하는 화상 처리 방법.
  13. 제8항에 있어서, 상기 혼합비 검출 스텝은,
    상기 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 스텝과,
    상기 통합 데이터에 기초하여, 상기 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 스텝을 포함하는 것을 특징으로 하는 화상 처리 방법.
  14. 제13항에 있어서, 상기 통합 스텝에 있어서, 상기 복수 종류의 컴포넌트의 상기 화소값이 화소마다 가산되어, 가산된 결과가 상기 통합 데이터로서 출력되는 것을 특징으로 하는 화상 처리 방법.
  15. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로서, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 상기 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리용의 프로그램으로서,
    상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 스텝과,
    상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 스텝과,
    검출된 상기 혼합비의 출력을 제어하는 출력 제어 스텝을 포함하고,
    적어도 상기 영역 특정 스텝 및 상기 혼합비 검출 스텝 중 어느 한쪽은, 상기 복수 종류의 컴포넌트에 기초하여 화상 처리시키는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  16. 제15항에 있어서, 상기 영역 특정 스텝은,
    상기 복수 종류의 컴포넌트마다 상기 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합 영역 검출 스텝과,
    상기 컴포넌트 혼합 영역 검출 스텝의 처리로 검출된 상기 복수 종류의 컴포넌트에 대응하는 상기 혼합 영역의 검출 결과에 기초하여, 상기 화상 데이터에 대응하는 상기 혼합 영역을 특정하는 혼합 영역 특정 스텝을 포함하는 것을 특징으로 하는 기록 매체.
  17. 제15항에 있어서, 상기 영역 특정 스텝은,
    상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 상기 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 스텝과,
    상기 주목 화소 데이터와, 상기 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 스텝과,
    상기 주목 화소에 대응하는 상기 공간 상관값 및 상기 시간 상관값을 기초로, 상기 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정 스텝을 포함하는 것을 특징으로 하는 기록 매체.
  18. 제17항에 있어서, 상기 영역 특정 스텝은, 상기 주목 프레임의 상기 전경 영역, 및 상기 주목 프레임 근방의 근방 프레임의 상기 전경 영역을 기초로, 상기 혼합 영역을 특정하는 혼합 영역 특정 스텝을 더 포함하는 것을 특징으로 하는 기록 매체.
  19. 제15항에 있어서, 상기 혼합비 검출 스텝은,
    상기 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출 스텝과,
    상기 컴포넌트 혼합비 검출 스텝의 처리로 검출된 상기 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 상기 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 스텝을 포함하는 것을 특징으로 하는 기록 매체.
  20. 제15항에 있어서, 상기 혼합비 검출 스텝은,
    상기 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 스텝과,
    상기 통합 데이터에 기초하여, 상기 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 스텝을 포함하는 것을 특징으로 하는 기록 매체.
  21. 제20항에 있어서, 상기 통합 스텝에 있어서, 상기 복수 종류의 컴포넌트의 상기 화소값이 화소마다 가산되어, 가산된 결과가 상기 통합 데이터로서 출력되는 것을 특징으로 하는 기록 매체.
  22. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로서, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 상기 화소 데이터로 이루어지는 화상 데이터를 처리하는 컴퓨터에,
    상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 스텝과,
    상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 스텝과,
    검출된 상기 혼합비의 출력을 제어하는 출력 제어 스텝을 실행시키고,
    적어도 상기 영역 특정 스텝 및 상기 혼합비 검출 스텝 중 어느 한쪽은, 상기 복수 종류의 컴포넌트에 기초하여 화상 처리시키는 것을 특징으로 하는 프로그램.
  23. 제22항에 있어서, 상기 영역 특정 스텝은,
    상기 복수 종류의 컴포넌트마다 상기 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합 영역 검출 스텝과,
    상기 컴포넌트 혼합 영역 검출 스텝의 처리로 검출된 상기 복수 종류의 컴포넌트에 대응하는 상기 혼합 영역의 검출 결과에 기초하여, 상기 화상 데이터에 대응하는 상기 혼합 영역을 특정하는 혼합 영역 특정 스텝을 포함하는 것을 특징으로 하는 프로그램.
  24. 제22항에 있어서, 상기 영역 특정 스텝은, 상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 상기 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 스텝과,
    상기 주목 화소 데이터와, 상기 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 스텝과,
    상기 주목 화소에 대응하는 상기 공간 상관값 및 상기 시간 상관값을 기초로, 상기 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역 특정 스텝을 포함하는 것을 특징으로 하는 프로그램.
  25. 제24항에 있어서, 상기 영역 특정 스텝은, 상기 주목 프레임의 상기 전경 영역, 및 상기 주목 프레임 근방의 근방 프레임의 상기 전경 영역을 기초로, 상기 혼합 영역을 특정하는 혼합 영역 특정 스텝을 더 포함하는 것을 특징으로 하는 프로그램.
  26. 제22항에 있어서, 상기 혼합비 검출 스텝은,
    상기 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출 스텝과,
    상기 컴포넌트 혼합비 검출 스텝의 처리로 검출된 상기 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 상기 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 스텝을 포함하는 것을 특징으로 하는 프로그램.
  27. 제22항에 있어서, 상기 혼합비 검출 스텝은,
    상기 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 스텝과,
    상기 통합 데이터에 기초하여, 상기 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 스텝을 포함하는 것을 특징으로 하는 프로그램.
  28. 제27항에 있어서, 상기 통합 스텝에 있어서, 상기 복수 종류의 컴포넌트의 상기 화소값이 화소마다 가산되어, 가산된 결과가 상기 통합 데이터로서 출력되는 것을 특징으로 하는 프로그램.
  29. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 촬상된 피사체 화상을, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과,
    상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 수단과,
    상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 수단을 포함하고,
    적어도 상기 영역 특정 수단 및 상기 혼합비 검출 수단 중 어느 한쪽은, 상기 복수 종류의 컴포넌트에 기초하여 화상 처리하는 것을 특징으로 하는 촬상 장치.
  30. 제29항에 있어서, 상기 영역 특정 수단은,
    상기 복수 종류의 컴포넌트마다 상기 혼합 영역을 검출하여, 개개의 컴포넌트에 대응하는 검출 결과를 컴포넌트 혼합 영역 정보로서 출력하는 컴포넌트 혼합 영역 검출 수단과,
    상기 컴포넌트 혼합 영역 검출 수단으로 검출된 상기 복수 종류의 컴포넌트에 대응하는 상기 혼합 영역의 검출 결과에 기초하여, 상기 화상 데이터에 대응하는 상기 혼합 영역을 특정하는 혼합 영역 특정 수단을 포함하는 것을 특징으로 하는 촬상 장치.
  31. 제29항에 있어서, 상기 영역 특정 수단은,
    상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는 주목 화소 데이터와, 상기 주목 화소의 공간 방향의 근방에 위치하는 공간 근방 화소의 화소 데이터의 상관을 나타내는 공간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 공간 상관값 산출 수단과,
    상기 주목 화소 데이터와, 상기 주목 화소의 시간 방향의 근방에 위치하는 시간 근방 화소의 화소 데이터의 상관을 나타내는 시간 상관값을, 상기 주목 화소에 대응하는 상기 복수 종류의 컴포넌트에 기초하여 산출하는 시간 상관값 산출 수단과,
    상기 주목 화소에 대응하는 상기 공간 상관값 및 상기 시간 상관값을 기초로, 상기 전경 오브젝트 성분만으로 이루어지는 전경 영역을 특정하는 전경 영역특정 수단을 포함하는 것을 특징으로 하는 촬상 장치.
  32. 제31항에 있어서, 상기 영역 특정 수단은, 상기 주목 프레임의 상기 전경 영역, 및 상기 주목 프레임 근방의 근방 프레임의 상기 전경 영역을 기초로, 상기 혼합 영역을 특정하는 혼합 영역 특정 수단을 더 포함하는 것을 특징으로 하는 촬상 장치.
  33. 제29항에 있어서, 상기 혼합비 검출 수단은,
    상기 복수 종류의 컴포넌트마다 혼합비를 검출하는 컴포넌트 혼합비 검출 수단과,
    상기 컴포넌트 혼합비 검출 수단으로 검출된 상기 복수 종류의 컴포넌트에 대응하는 혼합비의 검출 결과를 통합함으로써, 상기 화상 데이터에 대응하는 혼합비를 검출하는 컴포넌트 통합 혼합비 검출 수단을 포함하는 것을 특징으로 하는 촬상 장치.
  34. 제29항에 있어서, 상기 혼합비 검출 수단은,
    상기 복수 종류의 컴포넌트의 화소값을 화소마다 통합하여, 통합 데이터로서 출력하는 통합 수단과,
    상기 통합 데이터에 기초하여, 상기 화상 데이터에 대응하는 혼합비를 검출하는 통합 데이터 혼합비 검출 수단을 포함하는 것을 특징으로 하는 촬상 장치.
  35. 제34항에 있어서, 상기 통합 수단은, 상기 복수 종류의 컴포넌트의 상기 화소값을 화소마다 가산하여, 가산한 결과를 상기 통합 데이터로서 출력하는 것을 특징으로 하는 촬상 장치.
  36. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로서, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 상기 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 화상 데이터를 취득하는 화상 데이터 취득 수단과,
    취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  37. 제36항에 있어서, 상기 처리 실행 수단은, 취득된 상기 화상 데이터의 상기복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리를 실행하는 것을 특징으로 하는 화상 처리 장치.
  38. 제36항에 있어서, 상기 처리 실행 수단은, 취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리를 실행하는 것을 특징으로 하는 화상 처리 장치.
  39. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로서, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 상기 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 화상 데이터를 취득하는 화상 데이터 취득 스텝과,
    취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 스텝을 포함하는 것을 특징으로 하는 화상 처리 방법.
  40. 제39항에 있어서, 상기 처리 실행 스텝에 있어서, 취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리가 실행되는 것을 특징으로 하는 화상 처리 방법.
  41. 제39항에 있어서, 상기 처리 실행 스텝에 있어서, 취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리가 실행되는 것을 특징으로 하는 화상 처리 방법.
  42. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된소정 수의 화소 데이터로서, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 상기 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리용의 프로그램으로서,
    상기 화상 데이터를 취득하는 화상 데이터 취득 스텝과,
    취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 스텝을 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  43. 제42항에 있어서, 상기 처리 실행 스텝에 있어서, 취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리가 실행되는 것을 특징으로 하는 기록 매체.
  44. 제42항에 있어서, 상기 처리 실행 스텝에 있어서, 취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리가 실행되는 것을 특징으로 하는 기록 매체.
  45. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로서, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 상기 화소 데이터로 이루어지는 화상 데이터를 처리하는 컴퓨터에,
    상기 화상 데이터를 취득하는 화상 데이터 취득 스텝과,
    취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 스텝을 실행시키는 것을 특징으로 하는 프로그램.
  46. 제45항에 있어서, 상기 처리 실행 스텝에 있어서, 취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리가 실행되는 것을 특징으로 하는 프로그램.
  47. 제45항에 있어서, 상기 처리 실행 스텝에 있어서, 취득된 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리가 실행되는 것을 특징으로 하는 프로그램.
  48. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 촬상된 피사체 화상을, 동일 화소 위치에 대해서 복수 종류의 컴포넌트를 갖는 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과,
    상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리, 및 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리 중 어느 한쪽의 처리를 실행하는 처리 실행 수단을 포함하는 것을 특징으로 하는 촬상 장치.
  49. 제48항에 있어서, 상기 처리 실행 수단은, 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분 및 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역을 특정하는 영역 특정 처리를 실행하는 것을 특징으로 하는 촬상 장치.
  50. 제48항에 있어서, 상기 처리 실행 수단은, 상기 화상 데이터의 상기 복수 종류의 컴포넌트에 기초해서, 상기 화상 데이터에 대응하여, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역에 있어서의, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 처리를 실행하는 것을 특징으로 하는 촬상 장치.
KR1020037002832A 2001-06-27 2002-06-26 화상 처리 장치 및 방법, 및 촬상 장치 KR100864336B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001194607A JP4596223B2 (ja) 2001-06-27 2001-06-27 画像処理装置および方法、記録媒体、並びにプログラム
JPJP-P-2001-00194607 2001-06-27
PCT/JP2002/006382 WO2003003304A1 (fr) 2001-06-27 2002-06-26 Appareil et procede de traitement d'image et appareil de recuperation d'image

Publications (2)

Publication Number Publication Date
KR20040014958A true KR20040014958A (ko) 2004-02-18
KR100864336B1 KR100864336B1 (ko) 2008-10-17

Family

ID=19032711

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037002832A KR100864336B1 (ko) 2001-06-27 2002-06-26 화상 처리 장치 및 방법, 및 촬상 장치

Country Status (9)

Country Link
US (1) US7352917B2 (ko)
EP (2) EP1403821B1 (ko)
JP (1) JP4596223B2 (ko)
KR (1) KR100864336B1 (ko)
CN (1) CN1269080C (ko)
CA (1) CA2420020C (ko)
DE (1) DE60237687D1 (ko)
MX (1) MXPA03001520A (ko)
WO (1) WO2003003304A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
KR100643230B1 (ko) * 2004-08-30 2006-11-10 삼성전자주식회사 디스플레이장치의 제어방법
JP2006086933A (ja) * 2004-09-17 2006-03-30 Canon Inc 撮像装置及び制御方法
US7710461B2 (en) * 2004-12-21 2010-05-04 Sony Corporation Image processing device, image processing method, and image processing program
JP5202246B2 (ja) 2008-11-20 2013-06-05 キヤノン株式会社 動画像処理装置、及び方法、プログラム
EP2280550A1 (en) * 2009-06-25 2011-02-02 Thomson Licensing Mask generation for motion compensation
JP5409481B2 (ja) * 2010-03-29 2014-02-05 富士フイルム株式会社 複眼撮影装置及びプログラム
JP5665401B2 (ja) * 2010-07-21 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9098767B2 (en) 2011-04-11 2015-08-04 Hewlett-Packard Development Company, L.P. System and method for determining the informative zone of an image
US9350924B2 (en) 2014-08-25 2016-05-24 John G. Posa Portable electronic devices with integrated image/video compositing
CN106846336B (zh) * 2017-02-06 2022-07-15 腾讯科技(上海)有限公司 提取前景图像、替换图像背景的方法及装置
US10565739B2 (en) 2017-12-29 2020-02-18 Cerner Innovation, Inc. Automated icon accessibility assessment algorithm and tool
CN110018529B (zh) * 2019-02-22 2021-08-17 南方科技大学 降雨测量方法、装置、计算机设备和存储介质
CN113129227A (zh) * 2021-03-29 2021-07-16 影石创新科技股份有限公司 图像处理方法、装置、计算机设备和存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
GB9204115D0 (en) * 1992-02-26 1992-04-08 British Broadcasting Corp Video image processing
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
US5870103A (en) * 1996-09-25 1999-02-09 Eastman Kodak Company Method for creating realistic-looking composite images
JP3812763B2 (ja) * 1996-12-04 2006-08-23 ソニー株式会社 キー信号生成装置及び方法
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
US6208351B1 (en) * 1997-12-22 2001-03-27 Adobe Systems Incorporated Conversion of alpha-multiplied color data
US6134346A (en) * 1998-01-16 2000-10-17 Ultimatte Corp Method for removing from an image the background surrounding a selected object
US6404901B1 (en) * 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
JP4507044B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4491965B2 (ja) * 1999-12-28 2010-06-30 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4479098B2 (ja) * 2000-12-21 2010-06-09 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4507045B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 信号処理装置および方法、並びに記録媒体
US6839463B1 (en) * 2000-12-22 2005-01-04 Microsoft Corporation System and method providing subpixel-edge-offset-based determination of opacity
JP4596202B2 (ja) * 2001-02-05 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4596203B2 (ja) * 2001-02-19 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596222B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Also Published As

Publication number Publication date
EP1403821A4 (en) 2006-06-28
CN1269080C (zh) 2006-08-09
CA2420020C (en) 2010-09-28
EP1862971A2 (en) 2007-12-05
US7352917B2 (en) 2008-04-01
JP4596223B2 (ja) 2010-12-08
US20040067040A1 (en) 2004-04-08
CN1471692A (zh) 2004-01-28
JP2003016452A (ja) 2003-01-17
EP1862971A3 (en) 2013-08-21
KR100864336B1 (ko) 2008-10-17
DE60237687D1 (de) 2010-10-28
MXPA03001520A (es) 2003-06-24
EP1403821B1 (en) 2010-09-15
EP1403821A1 (en) 2004-03-31
WO2003003304A1 (fr) 2003-01-09
CA2420020A1 (en) 2003-02-18

Similar Documents

Publication Publication Date Title
KR100918544B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100846261B1 (ko) 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치
KR100864338B1 (ko) 화상 처리 장치 및 방법과 촬상 장치
KR100859382B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100897965B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100843815B1 (ko) 화상 처리 장치 및 방법
KR100924401B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램을 기록한 기록 매체 및 촬상 장치
JP4596220B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100799011B1 (ko) 화상 처리 장치
KR100848427B1 (ko) 화상 처리 장치
KR100864336B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100835443B1 (ko) 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
KR100875780B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100894923B1 (ko) 화상 처리 장치, 방법 및 기록 매체와 촬상 장치
KR100858761B1 (ko) 화상 처리 장치
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20111005

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20121008

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee