KR20020089423A - 화상 처리 장치 - Google Patents

화상 처리 장치 Download PDF

Info

Publication number
KR20020089423A
KR20020089423A KR1020027013152A KR20027013152A KR20020089423A KR 20020089423 A KR20020089423 A KR 20020089423A KR 1020027013152 A KR1020027013152 A KR 1020027013152A KR 20027013152 A KR20027013152 A KR 20027013152A KR 20020089423 A KR20020089423 A KR 20020089423A
Authority
KR
South Korea
Prior art keywords
pixel
frame
image
background
foreground
Prior art date
Application number
KR1020027013152A
Other languages
English (en)
Other versions
KR100846248B1 (ko
Inventor
데쯔지로 곤도
준이찌 이시바시
다까시 사와오
다까히로 나가노
나오끼 후지와라
도루 미야께
세이지 와다
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20020089423A publication Critical patent/KR20020089423A/ko
Application granted granted Critical
Publication of KR100846248B1 publication Critical patent/KR100846248B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 배경의 화상 및 이동하는 물체의 화상 등 복수의 오브젝트가 서로 섞여 있는 영역을 검출할 수 있도록 한 화상 처리 장치에 관한 것이다. 배경 화상 생성부(121)는, 화상 데이터에 기초하여 배경 화상을 생성한다. 2치 오브젝트 화상 추출부(121)는, 주목 프레임의 화상 데이터의 각 화소와 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 배경 화상의 화소와의 상관치를 검출한다. 시간 변화 검출부(123)는, 상관치의 각 화소 위치마다의 시간 변화에 기초하여 주목 프레임에 있어서의 현실 세계의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출한다. 본 발명은 센서에 의해 검출한 신호와 현실 세계의 차이를 고려한 화상 처리 장치에 적용할 수 있다.

Description

화상 처리 장치{IMAGE PROCESSOR}
현실 세계에 있어서의 사실과 현상을 센서로 검출하여, 화상, 음성, 온도, 압력, 가속도 또는 냄새에 대응하는 데이터 등의 센서가 출력하는 샘플링 데이터를 처리하는 기술이 널리 이용되고 있다.
예를 들면, 정지하고 있는 소정 배경의 앞에서 이동하는 물체를 비디오 카메라로 촬상하여 얻어지는 화상에는, 물체의 이동 속도가 셔터 스피드와 비교하여 빠른 경우, 흔들림이 발생하게 된다.
배경의 앞에서 물체가 이동할 때, 이동하는 물체의 화상 자신이 서로 섞임으로 인한 흔들림 뿐만 아니라, 배경의 화상과 이동하는 물체의 화상이 서로 섞이는 경우가 발생한다.
종래에는 배경의 화상과 이동하는 물체의 화상이 서로 섞이게 된 영역을 검출하는 것은 고려되지 않았다.
본 발명은 화상 처리 장치에 관한 것으로, 특히 센서에 의해 검출한 신호와 현실 세계와의 차이를 고려한 화상 처리 장치에 관한 것이다.
도 1은 본 발명의 원리를 설명하는 도면이다.
도 2는 본 발명을 적용하는 시스템의 구성예를 도시한 블록도이다.
도 3은 도 2의 신호 처리부의 구성예를 도시한 블록도이다.
도 4는 신호 처리부(12)를 도시한 블록도이다.
도 5는 센서에 의한 촬상을 설명하는 도면이다.
도 6은 화소의 배치를 설명하는 도면이다.
도 7은 검출 소자의 동작을 설명하는 도면이다.
도 8a는 움직이고 있는 전경(前景)에 대응하는 오브젝트와 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면이다.
도 8b는 움직이고 있는 전경에 대응하는 오브젝트와 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상에 대응하는 모델을 설명하는 도면이다.
도 9는 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 설명하는 도면이다.
도 10은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에 있어서의 인접하여 1열로 늘어선 화소의 화소값을 시간 방향으로 전개한 모델도이다.
도 11은 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 12는 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 13은 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 14는 전경 영역, 배경 영역 및 혼합 영역의 화소를 추출한 예를 도시한 도면이다.
도 15는 화소와 화소값을 시간 방향으로 전개한 모델의 대응을 나타낸 도면이다.
도 16는 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 17는 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 18은 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 19는 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 20은 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 21은 흔들림의 양의 조정 처리를 설명하는 플로우차트이다.
도 22는 영역 특정부(103)의 구성을 도시한 블록도이다.
도 23는 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 24는 배경 화상의 예를 나타낸 도면이다.
도 25는 2치 오브젝트 화상 추출부(122)의 구성을 도시한 블록도이다.
도 26a는 상관치의 산출을 설명하는 도면이다.
도 26b는 상관치의 산출을 설명하는 도면이다.
도 27a는 상관치의 산출을 설명하는 도면이다.
도 27b는 상관치의 산출을 설명하는 도면이다.
도 28은 2치 오브젝트 화상의 예를 나타낸 도면이다.
도 29는 시간 변화 검출부(123)의 구성을 도시한 블록도이다.
도 30은 영역 판정부(142)의 판정을 설명하는 도면이다.
도 31은 시간 변화 검출부(123)의 판정의 예를 나타낸 도면이다.
도 32는 영역 특정부(103)의 영역 특정 처리를 설명하는 플로우차트이다.
도 33은 영역 판정 처리의 상세를 설명하는 플로우차트이다.
도 34는 영역 특정부(103)의 다른 구성을 도시한 블록도이다.
도 35는 로버스트화부(151)의 구성을 설명하는 블록도이다.
도 36은 움직임 보상부(161)의 움직임 보상을 설명하는 도면이다.
도 37은 움직임 보상부(161)의 움직임 보상을 설명하는 도면이다.
도 38은 영역 특정 처리를 설명하는 플로우차트이다.
도 39는 로버스트화 처리의 상세를 설명하는 플로우차트이다.
도 40은 혼합비 산출부(104)의 구성의 일례를 도시한 블록도이다.
도 41은 이상적인 혼합비(α)의 예를 나타낸 도면이다.
도 42는 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 43은 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 44는 전경 성분의 상관을 이용한 근사를 설명하는 도면이다.
도 45는 C, N 및 P의 관계를 설명하는 도면이다.
도 46는 추정 혼합비 처리부(201)의 구성을 도시한 블록도이다.
도 47은 추정 혼합비의 예를 나타낸 도면이다.
도 48은 혼합비 산출부(104)의 다른 구성을 도시한 블록도이다.
도 49는 혼합비의 산출 처리를 설명하는 플로우차트이다.
도 50은 추정 혼합비의 연산 처리를 설명하는 플로우차트이다.
도 51은 전경 배경 분리부(105)의 구성의 일례를 도시한 블록도이다.
도 52a는 입력 화상, 전경 성분 화상 및 배경 성분 화상을 도시한 도면이다.
도 52b는 입력 화상, 전경 성분 화상 및 배경 성분 화상에 대응하는 모델을 도시한 도면이다.
도 53은 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 54는 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 55는 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 56은 분리부(251)의 구성의 일례를 도시한 블록도이다.
도 57a는 분리된 전경 성분 화상의 예를 나타낸 도면이다.
도 57b는 분리된 배경 성분 화상의 예를 나타낸 도면이다.
도 58은 전경과 배경의 분리 처리를 설명하는 플로우차트이다.
도 59는 흔들림 조정부(106)의 구성의 일례를 도시한 블록도이다.
도 60은 처리 단위를 설명하는 도면이다.
도 61은 전경 성분 화상의 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 62는 전경 성분 화상의 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 63은 전경 성분 화상의 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 64는 전경 성분 화상의 화소값을 시간 방향으로 전개하여 셔터 시간에 대응하는 기간을 분할한 모델도이다.
도 65는 흔들림 조정부(106)의 다른 구성을 도시한 도면이다.
도 66는 흔들림 조정부(106)에 의한 전경 성분 화상에 포함되는 흔들림의 양의 조정 처리를 설명하는 플로우차트이다.
도 67은 신호 처리부(12)의 기능의 다른 구성을 도시한 블록도이다.
도 68은 합성부(371)의 구성을 도시한 도면이다.
도 69는 신호 처리부(12)의 기능의 또 다른 구성을 도시한 블록도이다.
도 70은 혼합비 산출부(401)의 구성을 도시한 블록도이다.
도 71은 전경 배경 분리부(402)의 구성을 도시한 블록도이다.
도 72는 신호 처리부(12)의 기능의 다른 구성을 도시한 블록도이다.
도 73은 합성부(431)의 구성을 도시한 도면이다.
본 발명은 이러한 상황을 감안하여 이루어진 것으로서, 배경의 화상 및 이동하는 물체의 화상 등 복수의 오브젝트가 서로 섞인 영역을 검출할 수 있도록 하는 것을 목적으로 한다.
본 발명의 제1 화상 처리 장치는, 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 수단과, 주목 프레임의 화상 데이터의 각 화소와 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 배경 화상의 화소와의 상관치를 검출하는 상관치 검출 수단과, 상관치의 각 화소 위치마다의 시간 변화에 기초하여 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 수단을 포함하는 것을 특징으로 한다.
상관치 검출 수단은, 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와 주변의 화소에 대응하는 위치의 배경 화상의 화소를 기초로 상관치를 검출하도록 할 수 있다.
상관치 검출 수단은, 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와 주변의 화소에 대응하는 위치의 배경 화상의 화소와의 차분값을 상관치로서 검출하도록 할 수 있다.
화상 처리 장치는, 상관치와 임계값을 비교함으로써 상관치를 2치화하는 2치화 수단을 더 설치하고, 혼합 영역 검출 수단은, 2치화된 상관치를 기초로 주목 프레임에 있어서의 혼합 영역을 검출하도록 할 수 있다.
혼합 영역 검출 수단은, 상관치의 각 화소 위치마다의 시간 변화에 기초하여 추가로 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 검출하도록 할 수 있다.
화상 처리 장치는, 검출된 혼합 영역의 복수의 오브젝트가 서로 섞이는 비율로서의 혼합비를 검출하는 혼합비 검출 수단을 더 설치할 수 있다.
화상 처리 장치는, 혼합 영역 및 혼합비를 기초로 오브젝트를 분리하는 분리 수단을 더 설치할 수 있다.
화상 처리 장치는, 분리된 오브젝트에 포함되는 흔들림의 양을 조정하는 조정 수단을 더 설치할 수 있다.
본 발명의 제1 화상 처리 방법은, 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 단계와, 주목 프레임의 화상 데이터의 각 화소와 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 배경 화상의 화소의 상관치를 검출하는 상관치 검출 단계와, 상관치의 각 화소 위치마다의 시간 변화에 기초하여 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 단계를 포함하는 것을 특징으로 한다.
본 발명의 제1 기록 매체의 프로그램은, 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 단계와, 주목 프레임의 화상 데이터의 각 화소와 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 배경 화상의 화소의 상관치를 검출하는 상관치 검출 단계와, 상관치의 각 화소 위치마다의 시간 변화에 기초하여 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 단계를 포함하는 것을 특징으로 한다.
본 발명의 제2 화상 처리 장치는, 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 수단과, 각 프레임의 화상 데이터의 각 화소와 각 프레임의화상 데이터의 각 화소와 대응하는 위치의 배경 화상의 화소의 상관치를 검출하는 상관치 검출 수단과, 주목 프레임 근방의 프레임의 움직임 벡터에 기초하여 주목 프레임 근방의 프레임의 상관치를 움직임 보상하는 움직임 보상 수단과, 주목 프레임의 상관치 및 움직임 보상 수단으로 움직임 보상된 주목 프레임 근방의 프레임의 상관치를 적산하는 적산 수단과, 적산 수단의 출력의 각 화소 위치마다의 시간 변화에 기초하여 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 수단을 포함하는 것을 특징으로 한다.
화상 처리 장치는, 움직임 벡터를 검출하는 움직임 벡터 검출 수단을 더 설치할 수 있다.
상관치 검출 수단은, 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와 주변의 화소에 대응하는 위치의 배경 화상의 화소를 기초로 상관치를 검출하도록 할 수 있다.
상관치 검출 수단은, 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와 주변의 화소에 대응하는 위치의 배경 화상의 화소의 차분값을 상관치로서 검출하도록 할 수 있다.
화상 처리 장치는, 상관치와 임계값을 비교함으로써 상관치를 2치화하는 2치화 수단과 2치화된 상관치를 가중하는 가중 수단을 더 설치하고, 움직임 보상 수단은, 주목 프레임 근방의 프레임의 2치화된 상관치를 움직임 보상하고, 적산 수단은, 주목 프레임 근방의 프레임의, 움직임 보상되고 또한 가중된 상관치를 적산하도록 할 수 있다.
혼합 영역 검출 수단은, 상관치의 각 화소 위치마다의 시간 변화에 기초하여 추가로 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 검출하도록 할 수 있다.
화상 처리 장치는, 검출된 혼합 영역의 복수의 오브젝트가 서로 섞이는 비율로서의 혼합비를 검출하는 혼합비 검출 수단을 더 설치할 수 있다.
화상 처리 장치는, 혼합 영역 및 혼합비를 기초로 오브젝트를 분리하는 분리 수단을 더 설치할 수 있다.
화상 처리 장치는, 분리된 오브젝트에 포함되는 흔들림의 양을 조정하는 조정 수단을 더 설치할 수 있다.
본 발명의 제2 화상 처리 방법은, 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 단계와, 각 프레임의 화상 데이터의 각 화소와 각 프레임의 화상 데이터의 각 화소와 대응하는 위치의 배경 화상의 화소의 상관치를 검출하는 상관치 검출 단계와, 주목 프레임 근방의 프레임의 움직임 벡터에 기초하여 주목 프레임 근방의 프레임의 상관치를 움직임 보상하는 움직임 보상 단계와, 주목 프레임의 상관치 및 움직임 보상 단계의 처리에서 움직임 보상된 주목 프레임 근방의 프레임의 상관치를 적산하는 적산 단계와, 적산 단계의 처리의 출력의 각 화소 위치마다의 시간 변화에 기초하여 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 단계를 포함하는 것을 특징으로 한다.
본 발명의 제2 기록 매체의 프로그램은, 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 단계와, 각 프레임의 화상 데이터의 각 화소와 각 프레임의 화상 데이터의 각 화소와 대응하는 위치의 배경 화상의 화소의 상관치를 검출하는 상관치 검출 단계와, 주목 프레임 근방의 프레임의 움직임 벡터에 기초하여 주목 프레임 근방의 프레임의 상관치를 움직임 보상하는 움직임 보상 단계와, 주목 프레임의 상관치 및 움직임 보상 단계의 처리로 움직임 보상된 주목 프레임 근방의 프레임의 상관치를 적산하는 적산 단계와, 적산 단계의 처리의 출력의 각 화소 위치마다의 시간 변화에 기초하여 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 단계를 포함하는 것을 특징으로 한다.
본 발명의 촬상 장치는, 각각 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을 소정 수의 화소 데이터로 이루어진 화상 데이터로서 출력하는 촬상 수단과, 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 수단과, 주목 프레임의 화상 데이터의 각 화소와 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 배경 화상의 화소의 상관치를 검출하는 상관치 검출 수단과, 상관치의 각 화소 위치마다의 시간 변화에 기초하여 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 수단을 포함하는 것을 특징으로 한다.
상관치 검출 수단은, 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와 주변의 화소에 대응하는 위치의 배경 화상의 화소를 기초로 상관치를 검출하도록할 수 있다.
상관치 검출 수단은, 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와 주변의 화소에 대응하는 위치의 배경 화상의 화소의 차분값을 상관치로서 검출하도록 할 수 있다.
촬상 장치는, 상관치와 임계값을 비교함으로써 상관치를 2치화하는 2치화 수단을 더 설치하고, 혼합 영역 검출 수단은, 2치화된 상관치를 기초로 주목 프레임에 있어서의 혼합 영역을 검출하도록 할 수 있다.
혼합 영역 검출 수단은, 상관치의 각 화소 위치마다의 시간 변화에 기초하여 추가로 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 검출하도록 할 수 있다.
촬상 장치는, 검출된 혼합 영역의 복수의 오브젝트가 서로 섞이는 비율로서의 혼합비를 검출하는 혼합비 검출 수단을 더 설치할 수 있다.
촬상 장치는, 혼합 영역 및 혼합비를 기초로 오브젝트를 분리하는 분리 수단을 더 설치할 수 있다.
촬상 장치는, 분리된 오브젝트에 포함되는 흔들림의 양을 조정하는 조정 수단을 더 설치할 수 있다.
도 1은 본 발명의 원리를 나타내고 있다. 동도에 도시한 바와 같이, 공간과 시간축을 갖는 현실 사회(1)의 정보인 제1 신호가 센서(2)에 의해 취득되어 데이터화된다. 센서(2)가 취득한 데이터(3)인 검출 신호는, 현실 사회(1)의 정보를 현실 사회보다 낮은 차원의 시공간에 사영하여 얻어진 정보이다. 따라서, 사영하여 얻어진 정보는 사영에 의해 발생하는 변형을 갖고 있다. 다시 말하면, 센서(2)가 출력하는 데이터(3)는 현실 사회(1)의 정보에 대해 변형을 갖고 있다. 또한, 데이터(3)는 사영에 의한 변형을 갖고 있는데, 이것을 보정하기 위한 유의 정보를 포함하고 있다.
그래서, 본 발명에 있어서는 센서(2)가 출력한 데이터를 신호 처리부(4)에서 신호 처리함으로써, 그 변형이 제거되거나 저감되거나 또는 조정된다. 또는 본 발명에 있어서는, 센서(2)가 출력한 데이터를 신호 처리부(4)에서 신호 처리함으로써 유의 정보가 추출된다.
도 2는, 본 발명이 적용되는 신호 처리 장치의 구성예를 나타내고 있다. 센서(11)는, 예를 들면 비디오 카메라로 구성되고, 현실 사회의 화상을 촬상하여 얻어진 화상 데이터를 신호 처리부(12)로 출력한다. 신호 처리부(12)는, 예를 들면 퍼스널컴퓨터 등으로 구성되고, 센서(11)에서 입력된 데이터를 처리하여 사영에 의해 발생하는 변형의 양을 조정하거나 사영에 의해 파묻힌 유의 정보가 포함되는 영역을 특정하거나 특정한 영역으로부터 다시 유의 정보를 추출하거나 추출한 유의 정보에 기초하여 입력된 데이터를 처리한다.
여기에서 말하는 유의 정보는, 예를 들면 후술하는 혼합비이다.
그리고, 사영에 의해 파묻힌 유의 정보가 포함되는 영역을 나타내는 정보도 유의 정보로 생각할 수 있다. 여기에서는 후술하는 영역 정보가 유의 정보에 상당한다.
여기에서 말하는 유의 정보가 포함되는 영역은, 예를 들면 후술하는 혼합 영역이다.
신호 처리부(12)는, 예를 들면 도 3에 도시한 바와 같이 구성된다. CPU(Central Processing Unit; 21)는, ROM(Read Only Memory; 22) 또는 기억부(28)에 기억되어 있는 프로그램에 따라 각종 처리를 실행한다. RAM(Random Access Memory; 23)에는, CPU(21)가 실행하는 프로그램이나 데이터 등이 적절하게 기억된다. 이들 CPU(21), ROM(22) 및 RAM(23)은 버스(24)에 의해 서로 접속되어 있다.
CPU(21)에는 또한 버스(24)를 통해 입출력 인터페이스(25)가 접속되어 있다. 입출력 인터페이스(25)에는 키보드, 마우스, 마이크로폰 등으로 이루어진 입력부(26), 디스플레이, 스피커 등으로 이루어진 출력부(27)가 접속되어 있다. CPU(21)는, 입력부(26)로부터 입력되는 지령에 대응하여 각종 처리를 실행한다. 그리고, CPU(21)는 처리 결과 얻어진 화상이나 음성 등을 출력부(27)로 출력한다.
입출력 인터페이스(25)에 접속되어 있는 기억부(28)는, 예를 들면 하드디스크 등으로 구성되고, CPU(21)가 실행하는 프로그램이나 각종 데이터를 기억한다. 통신부(29)는 인터넷, 그 외의 네트워크를 통해 외부 장치와 통신한다. 이 예의 경우, 통신부(29)는 센서(11)의 출력을 받아들이는 취득부로서 작용한다.
또한, 통신부(29)를 통해 프로그램을 취득하여 기억부(28)에 기억해도 된다.
입출력 인터페이스(25)에 접속되어 있는 드라이브(30)는, 자기 디스크(51), 광 디스크(52), 광자기 디스크(53) 또는 반도체 메모리(54) 등이 장착되었을 때, 이들을 구동하여 이것에 기록되어 있는 프로그램이나 데이터 등을 취득한다. 취득된 프로그램이나 데이터는 필요에 따라 기억부(28)에 전송되어 기억된다.
이어서, 센서에 의해 취득된 데이터로부터 유의 정보가 파묻혀 있는 영역을 특정하거나 파묻힌 유의 정보를 추출하는 처리를 실행하는 신호 처리 장치에 대해 보다 구체적인 예를 들어 설명한다. 이하의 예에 있어서, CCD 라인 센서 또는 CCD 에어리어 센서가 센서에 대응하고, 영역 정보나 혼합비가 유의 정보에 대응하고, 혼합 영역에서 전경과 배경이 혼합되어 있는 경우나 흔들림이 왜곡에 대응한다.
도 4는 신호 처리부(12)를 도시한 블록도이다.
그리고, 신호 처리부(12)의 각 기능을 하드웨어로 실현할지 소프트웨어로 실현할지는 문제삼지 않는다. 즉, 본 명세서의 각 블록도는 하드웨어의 블록도로 생각해도 소프트웨어에 의한 기능 블록도로 생각해도 된다.
여기에서 흔들림이란, 촬상의 대상이 되는, 현실 세계에 있어서의 오브젝트의 움직임과 센서(11)의 촬상 특성으로 인해 발생하는, 움직이고 있는 오브젝트에 대응하는 화상에 포함되어 있는 왜곡을 말한다.
이 명세서에서는, 촬상의 대상이 되는 현실 세계에서의 오브젝트에 대응하는 화상을 화상 오브젝트라 한다.
신호 처리부(12)에 공급된 입력 화상은, 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(104) 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는, 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트를 대충 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는, 예를 들면 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트의 윤곽을 검출함으로써, 전경의 오브젝트에 대응하는 화상 오브젝트를 대충 추출한다.
오브젝트 추출부(101)는, 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 대충 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는, 예를 들면 입력 화상과 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 차이로부터 배경의 오브젝트에 대응하는 화상 오브젝트를 대충 추출한다.
또한 예를 들면 오브젝트 추출부(101)는, 내부에 설치되어 있는 배경 메모리에 기억되어 있는 배경의 화상과 입력 화상의 차이로부터, 전경의 오브젝트에 대응하는 화상 오브젝트 및 배경의 오브젝트에 대응하는 화상 오브젝트를 대충 추출하도록 해도 된다.
움직임 검출부(102)는, 예를 들면 블록 매칭법, 구배법, 위상 상관법 및 페루리커시브법 등의 수법에 의해, 대충 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보(움직임 벡터에 대응하는 화소의 위치를 특정하는 정보)를 영역 특정부(103) 및 흔들림 추출부(106)에 공급한다.
움직임 검출부(102)가 출력하는 움직임 벡터에는 움직임량(v)에 대응하는 정보가 포함되어 있다.
또한 예를 들면 움직임 검출부(102)는, 화상 오브젝트에 화소를 특정하는 화소 위치 정보와 함께 화상 오브젝트마다의 움직임 벡터를 흔들림 조정부(106)로 출력하도록 해도 된다.
움직임량(v)은, 움직이고 있는 오브젝트에 대응하는 화상의 위치 변화를 화소 간격을 단위로 하여 나타내는 값이다. 예를 들면, 전경에 대응하는 오브젝트의 화상이 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 떨어진 위치에 표시되도록 이동하고 있을 때, 전경에 대응하는 오브젝트의 화상의 움직임량(v)은 4가 된다.
그리고 오브젝트 추출부(101) 및 움직임 검출부(102)는, 움직이고 있는 오브젝트에 대응하여 흔들림의 양을 조정하는 경우에 필요해진다.
영역 특정부(103)는, 입력된 화상의 화소의 각각을 전경 영역, 배경 영역 또는 혼합 영역 중 어느 하나로 특정하고, 화소마다 전경 영역, 배경 영역 또는 혼합 영역 중 어느 하나에 속하는지를 나타내는 정보(이하, 영역 정보라 함)를 혼합비 산출부(104), 전경 배경 분리부(105) 및 흔들림 조정부(106)에 공급한다.
혼합비 산출부(104)는, 입력 화상 및 영역 특정부(103)로부터 공급된 영역정보를 기초로 혼합 영역(63)에 포함되는 화소에 대응하는 혼합비(이하, 혼합비(α)라 함)를 산출하고, 산출한 혼합비를 전경 배경 분리부(105)에 공급한다.
혼합비(α)는, 후술하는 수학식 3에 나타낸 바와 같이 화소값에 있어서의 배경의 오브젝트에 대응하는 화상의 성분(이하, 배경의 성분이라고도 함)의 비율을 나타내는 값이다.
전경 배경 분리부(105)는, 영역 특정부(103)로부터 공급된 영역 정보 및 혼합비 산출부(104)로부터 공급된 혼합비(α)를 기초로 전경의 오브젝트에 대응하는 화상의 성분(이하, 전경의 성분이라고도 함)만으로 이루어진 전경 성분 화상과 배경의 성분만으로 이루어진 배경 성분 화상으로 입력 화상을 분리하여, 상기 성분 화상을 흔들림 조정부(106) 및 선택부(107)에 공급한다. 그리고, 분리된 전경 성분 화상을 최종적인 출력으로 할 수도 있다. 종래의 혼합 영역의 임의의 화소 위치에서 전경과 배경을 단번에 분리한 방식에 비하여 정확한 전경과 배경을 얻을 수 있다.
흔들림 조정부(106)는, 움직임 벡터로부터 알 수 있는 움직임량(v) 및 영역 정보를 기초로 전경 성분 화상에 포함되는 1 이상의 화소를 나타내는 처리 단위를 결정한다. 처리 단위는, 흔들림의 양의 조정 처리의 대상이 되는 1군의 화소를 지정하는 데이터이다.
흔들림 조정부(106)는, 신호 처리부(12)에 입력된 흔들림 조정량, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보, 그리고 처리 단위를 기초로 전경 성분 화상에 포함되는흔들림을 제거하거나 흔들림의 양을 감소시키거나 또는 흔들림의 양을 증가시키는 등 전경 성분 화상에 포함되는 흔들림의 양을 조정하고, 흔들림의 양을 조정한 전경 성분 화상을 선택부(107)로 출력한다. 움직임 벡터와 그 위치 정보는 사용하지 않는 경우도 있다.
선택부(107)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로 전경 배경 분리부(105)로부터 공급된 전경 성분 화상 및 흔들림 조정부(106)로부터 공급된 흔들림의 양이 조정된 전경 성분 화상 중 어느 하나를 선택하고, 선택한 전경 성분 화상을 출력한다.
이어서, 도 5 내지 도 20을 참조하여 신호 처리부(12)에 공급되는 입력 화상에 대해 설명한다.
도 5는 센서에 의한 화상을 설명하는 도면이다. 센서(11)는, 예를 들면 고체 촬상 소자인 CCD(Charge-Coupled Device) 에어리어 센서를 구비한 CCD 비디오 카메라 등으로 구성된다. 현실 세계에 있어서의 전경에 대응하는 오브젝트(111)는, 현실 세계에 있어서의, 배경에 대응하는 오브젝트(112)와 센서(11) 사이를 예를 들면 도면중의 왼쪽에서 오른쪽으로 수평하게 이동한다.
센서(11)는, 전경에 대응하는 오브젝트(111)를 배경에 대응하는 오브젝트(112)와 함께 촬상한다. 센서(11)는 촬상한 화상을 1프레임 단위로 출력한다. 예를 들면, 센서(11)는 1초 동안에 30프레임으로 이루어진 화상을 출력한다. 센서(11)의 노광 시간은 1/30초로 할 수 있다. 노광 시간은, 센서(11)가 입력된 광의 전하로의 변환을 개시하고 나서 입력된 광의 전하로의 변환을 종료할 때까지의 기간이다. 이하, 노광 시간을 셔터 시간이라고도 한다.
도 6은 화소의 배치를 설명하는 도면이다. 도 6에 있어서, A 내지 I는 개개의 화소를 나타낸다. 화소는, 화상에 대응하는 평면상에 배치되어 있다. 1개의 화소에 대응하는 1개의 검출 소자는 센서(11) 위에 배치되어 있다. 센서(11)가 화상을 촬상할 때, 1개의 검출 소자는 화상을 달성하는 1개의 화소에 대응하는 화소값을 출력한다. 예를 들면, 검출 소자의 X방향의 위치는 화상상의 횡방향의 위치에 대응하고, 검출 소자의 Y방향의 위치는 화상상의 종방향의 위치에 대응한다.
도 7에 도시한 바와 같이, 예를 들면 CCD인 검출 소자는 셔터 시간에 대응하는 기간, 입력된 광을 전하로 변환하여 변환된 전하를 축적한다. 전하의 양은 입력된 광의 강도와 광이 입력되고 있는 시간에 거의 비례한다. 검출 소자는, 셔터 시간에 대응하는 기간에 있어서, 입력된 광에서 변환된 전하를 이미 축적되어 있는 전하에 더해 간다. 즉, 검출 소자는 셔터 시간에 대응하는 기간, 입력되는 광을 적분하고, 적분된 광에 대응하는 양의 전하를 축적한다. 검출 소자는, 시간에 대해 적분 효과가 있다고도 할 수 있다.
검출 소자에 축적된 전하는, 도시하지 않은 회로에 의해 전압치로 변환되고, 전압치는 다시 디지털 데이터 등의 화소값으로 변환되어 출력된다. 따라서, 센서(11)에서 출력되는 개개의 화소값은, 전경 또는 배경에 대한 오브젝트의 공간적으로 확산을 갖는 임의의 부분을 셔터 시간에 대해 적분한 결과인 1차원 공간에 사영된 값을 갖는다.
신호 처리부(12)는, 이와 같은 센서(11)의 축적 동작에 의해 출력 신호에 파묻힌 유의한 정보, 예를 들면 혼합비(α)를 추출한다. 신호 처리부(12)는, 전경의 화상 오브젝트 자신이 서로 섞임으로 인해 발생하는 변형의 양, 예를 들면 흔들림의 양 등을 조정한다. 또한, 신호 처리부(12)는 전경의 화상 오브젝트와 배경의 화상 오브젝트가 서로 섞임으로 인해 발생하는 변형의 양을 조정한다.
도 8a는, 움직임을 수반하는 전경에 대응하는 오브젝트와 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 도시하고 있다. 도 8a에 도시한 예에 있어서, 전경에 대응하는 오브젝트는 화면에 대해 수평하게 왼쪽에서 오른쪽으로 움직이고 있다.
도 8b는, 도 8a에 도시한 화상의 1개의 라인에 대응하는 화소값을 시간 방향으로 전개한 모델도이다. 도 8b의 횡방향은 도 8a의 공간 방향(X)에 대응하고 있다.
배경 영역의 화소는, 배경의 성분, 즉 배경의 오브젝트에 대응하는 화상의 성분으로만 그 화소값이 구성되어 있다. 전경 영역의 화소는, 전경의 성분, 즉 전경의 오브젝트에 대응하는 화상의 성분으로만 그 화소값이 구성되어 있다.
혼합 영역의 화소는, 배경의 성분 및 전경의 성분으로 그 화소값이 구성되어 있다. 혼합 영역은, 배경의 성분 및 전경의 성분으로 그 화소값이 구성되어 있기 때문에 변형 영역이라고도 할 수 있다. 혼합 영역은 다시 커버드 백그라운드 영역 및 언커버드 백그라운드 영역으로 분류된다.
커버드 백그라운드 영역은, 전경 영역에 대해 전경의 오브젝트의 진행방향의 전단부에 대응하는 위치의 혼합 영역으로서, 시간의 경과에 대응하여 배경 성분이전경에 덮여 감춰지는 영역을 말한다.
이에 비하여 언커버드 백그라운드 영역은, 전경 영역에 대해 전경의 오브젝트의 진행방향의 후단부에 대응하는 위치의 혼합 영역으로서, 시간의 경과에 대응하여 배경 성분이 나타나는 영역을 말한다.
이와 같이 전경 영역, 배경 영역 또는 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 포함하는 화상이, 영역 특정부(103), 혼합비 산출부(104) 및 전경 배경 분류부(105)에 입력 화상으로서 입력된다.
도 9는, 이상과 같은 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 설명하는 도면이다. 도 8b에 도시한 화상에 대응하는 경우, 배경 영역은 정지 부분이고, 전경 영역은 움직임 부분이고, 혼합 영역의 커버드 백그라운드 영역은 배경에서 전경으로 변화하는 부분이고, 혼합 영역의 언커버드 백그라운드 영역은 전경에서 배경으로 변화하는 부분이다.
도 10은, 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에 있어서의 인접하여 1열로 늘어선 화소의 화소값을 시간 방향으로 전개한 모델도이다. 예를 들면, 인접하여 1열로 늘어선 화소로서 화면의 1개의 라인상에 늘어선 화소를 선택할 수 있다.
도 10에 나타낸 FO1 내지 F04의 화소값은 정지하고 있는 전경의 오브젝트에 대응하는 화소의 화소값이다. 도 10에 나타낸 B01 내지 B04의 화소값은 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소값이다.
도 10에 있어서의 종방향은 도면중의 위에서 아래를 향해 시간이 경과한다.도 10중의 직사각형의 윗변의 위치는 센서(11)가 입력된 광의 전하로의 변환을 개시하는 시각에 대응하고, 도 10중의 직사각형의 아랫변의 위치는 센서(11)가 입력된 광의 전하로의 변환을 종료하는 시각에 대응한다. 즉, 도 10중의 직사각형의 윗변에서 아랫변까지의 거리는 셔터 시간에 대응한다.
도 10에 있어서의 횡방향은 도 8a에서 설명한 공간 방향(X)에 대응한다. 보다 구체적으로는 도 10에 도시한 예에 있어서, 도 10중의 “F01”이라 기재된 직사각형의 좌변에서 “B04”라 기재된 직사각형의 우변까지의 거리는, 화소 피치의 8배, 즉 연속한 8개의 화소의 간격에 대응한다.
전경의 오브젝트 및 배경의 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서 센서(11)에 입력되는 광은 변화하지 않는다.
여기에서, 셔터 시간에 대응하는 기간을 2개 이상의 동일한 길이의 기간으로 분할한다. 예를 들면, 가상 분할수를 4로 하면, 도 10에 나타낸 모델도는 도 11에 나타낸 모델로서 나타낼 수 있다. 가상 분할수는, 전경에 대응하는 오브젝트의 움직임량(v) 등에 대응하여 설정된다. 예를 들면, 4인 움직임량(v)에 대응하여 가상 분할수는 4로 되고, 셔터 시간에 대응하는 기간은 4개로 분할된다.
도면중의 가장 위의 행은 셔터가 열리고 최초의 분할된 기간에 대응한다. 도면중의 위에서 2번째 행은 셔터가 열리고 2번째의 분할된 기간에 대응한다. 도면중의 위에서 3번째 행은 셔터가 열리고 3번째의 분할된 기간에 대응한다. 도면중의 위에서 4번째 행은 셔터가 열리고 4번째의 분할된 기간에 대응한다.
이하, 움직임량(v)에 대응하여 분할된 셔터 시간을 셔터 시간(/v)이라고도한다.
전경에 대응하는 오브젝트가 정지하고 있을 때, 센서(11)에 입력되는 광은 변화하지 않기 때문에, 전경의 성분(F01/v)은 화소값(F01)을 가상 분할수로 나눈 값과 동일하다. 마찬가지로 전경에 대응하는 오브젝트가 정지하고 있을 때, 전경의 성분(F02/v)은 화소값(F02)을 가상 분할수로 나눈 값과 동일하고, 전경의 성분(F03/v)은 화소값(F03)을 가상 분할수로 나눈 값과 동일하고, 전경의 성분(F04/v)은 화소값(F04)을 가상 분할수로 나눈 값과 동일하다.
배경에 대응하는 오브젝트가 정지하고 있을 때, 센서(11)에 입력되는 광은 변화하지 않기 때문에, 배경의 성분(B01/v)은 화소값(B01)을 가상 분할수로 나눈 값과 동일하다. 마찬가지로 배경에 대응하는 오브젝트가 정지하고 있을 때, 배경의 성분(B02/v)은 화소값(B02)을 가상 분할수로 나눈 값과 동일하고, 배경의 성분(B03/v)은 화소값(B03)을 가상 분할수로 나눈 값과 동일하고, 배경의 성분(B04/v)은 화소값(B04)을 가상 분할수로 나눈 값과 동일하다.
즉, 전경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서 센서(11)에 입력되는 전경의 오브젝트에 대응하는 광이 변화하지 않기 때문에, 셔터가 열리고 최초의 셔터 시간(/v)에 대응하는 전경의 성분(F01/v)과, 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 전경의 성분(F01/v)과, 셔터가 열리고 3번째 셔터 시간(/v)에 대응하는 전경의 성분(F01/v)과, 셔터가 열리고 4번째 셔터 시간(/v)에 대응하는 전경의 성분(F01/v)은 동일한 값이 된다. F02/v 내지 F04/v도 F01/v와 동일한 관계를 갖는다.
배경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서 센서(11)에 입력되는 배경의 오브젝트에 대응하는 광은 변화하지 않기 때문에, 셔터가 열리고 최초의 셔터 시간(/v)에 대응하는 배경의 성분(B01/v)과, 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 배경의 성분(B01/v)과, 셔터가 열리고 3번째 셔터 시간(/v)에 대응하는 배경의 성분(B01/v)과, 셔터가 열리고 4번째 셔터 시간(/v)에 대응하는 배경의 성분(B01/v)은 동일한 값이 된다. B02/v 내지 B04/v도 동일한 관계를 갖는다.
이어서, 전경에 대응하는 오브젝트가 이동하고, 배경에 대응하는 오브젝트가 정지하고 있는 경우에 대해 설명한다.
도 12는, 전경에 대응하는 오브젝트가 도면중의 오른쪽을 향해 이동하는 경우의 커버드 백그라운드 영역을 포함하는 1개의 라인상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 12에 있어서, 전경의 움직임량(v)은 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고 등속으로 이동하고 있다고 가정할 수 있다. 도 12에 있어서, 전경에 대응하는 오브젝트의 화상은, 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 오른쪽에 표시되도록 이동한다.
도 12에 있어서, 가장 왼쪽의 화소 내지 왼쪽에서 4번째 화소는 전경 영역에 속한다. 도 12에 있어서, 왼쪽에서 5번째 내지 왼쪽에서 7번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다. 도 12에 있어서, 가장 오른쪽의 화소는 배경 영역에 속한다.
전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트를 덮어 가리도록 이동하고 있기 때문에, 커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 임의의 시점에서 배경의 성분에서 전경의 성분으로 변한다.
예를 들면, 도 12중에 굵은선 틀로 표시한 화소값(M)은 수학식 1로 표시된다.
예를 들면, 왼쪽에서 5번째 화소는, 1개의 셔터 시간(/v)에 대응하는 배경의 성분을 포함하고, 3개의 셔터 시간(/v)에 대응하는 전경의 성분을 포함하기 때문에, 왼쪽에서 5번째 화소의 혼합비(α)는 1/4이다. 왼쪽에서 6번째의 화소는, 2개의 셔터 시간(/v)에 대응하는 배경의 성분을 포함하고, 2개의 셔터 시간(/v)에 대응하는 전경의 성분을 포함하기 때문에, 왼쪽에서 6번째 화소의 혼합비(α)는 1/2이다. 왼쪽에서 7번째의 화소는, 3개의 셔터 시간(/v)에 대응하는 배경의 성분을 포함하고, 1개의 셔터 시간(/v)에 대응하는 전경의 성분을 포함하기 때문에, 왼쪽에서 7번째 화소의 혼합비(α)는 3/4이다.
전경에 대응하는 오브젝트가 강체이고 전경의 화상이 다음 프레임에서 4화소 오른쪽에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면 도 12중의 왼쪽에서 4번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의성분(F07/v)은, 도 12중의 왼쪽에서 5번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 전경의 성분과 동일하다. 마찬가지로 전경의 성분(F07/v)은, 도 12중의 왼쪽에서 6번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)에 대응하는 전경의 성분과, 도 12중의 왼쪽에서 7번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)에 대응하는 전경의 성분과 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고 전경의 화상이 다음 프레임에서 4화소 오른쪽에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면 도 12중의 왼쪽에서 3번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분(F06/v)은, 도 12중의 왼쪽에서 4번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 전경의 성분과 동일하다. 마찬가지로 전경의 성분(F06/v)은, 도 12중의 왼쪽에서 5번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)에 대응하는 전경의 성분과, 도 12중의 왼쪽에서 6번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)에 대응하는 전경의 성분과 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고 전경의 화상이 다음 프레임에서 4화소 오른쪽에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면 도 12중의 왼쪽에서 2번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분(F05/v)은, 도 12중의 왼쪽에서 3번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 전경의 성분과 동일하다. 마찬가지로 전경의 성분(F05/v)은, 도 12중의 왼쪽에서 4번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)에 대응하는 전경의 성분과, 도 12중의 왼쪽에서 5번째 화소의 셔터가 열리고 4번째 셔터시간(/v)에 대응하는 전경의 성분과 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고 전경의 화상이 다음 프레임에서 4화소 오른쪽에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면 도 12중의 가장 왼쪽의 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분(F04/v)은, 도 12중의 왼쪽에서 2번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 전경의 성분과 동일하다. 마찬가지로 전경의 성분(F04/v)은, 도 12중의 왼쪽에서 3번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)에 대응하는 전경의 성분과, 도 12중의 왼쪽에서 4번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)에 대응하는 전경의 성분과 각각 동일하다.
움직이고 있는 오브젝트에 대응하는 전경의 영역은, 이와 같이 흔들림을 포함하므로 변형 영역이라고도 할 수 있다.
도 13은, 전경이 도면중의 오른쪽을 향해 이동하는 경우의 언커버드 백그라운드 영역을 포함하는 1개의 라인상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 13에 있어서, 전경의 움직임량(v)은 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고 등속으로 이동하고 있다고 가정할 수 있다. 도 13에 있어서, 전경에 대응하는 오브젝트의 화상은, 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 오른쪽으로 이동한다.
도 13에 있어서, 가장 왼쪽의 화소 내지 왼쪽에서 4번째의 화소는 배경 영역에 속한다. 도 13에 있어서, 왼쪽에서 5번째 내지 왼쪽에서 7번째의 화소는 언커버드 백그라운드인 혼합 영역에 속한다. 도 13에 있어서, 가장 오른쪽의 화소는배경 영역에 속한다.
배경에 대응하는 오브젝트를 덮는 전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트의 앞에서 제거되도록 이동하고 있기 때문에, 언커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 임의의 시점에서 전경의 성분에서 배경의 성분으로 변한다.
예를 들면, 도 13중에 굵은선 틀로 표시한 화소값(M')은 수학식 2로 표시된다.
예를 들면 왼쪽에서 5번째의 화소는, 3개의 셔터 시간(/v)에 대응하는 배경의 성분을 포함하고, 1개의 셔터 시간(/v)에 대응하는 전경의 성분을 포함하기 때문에, 왼쪽에서 5번째 화소의 혼합비(α)는 3/4이다. 왼쪽에서 6번째의 화소는, 2개의 셔터 시간(/v)에 대응하는 배경의 성분을 포함하고, 2개의 셔터 시간(/v)에 대응하는 전경의 성분을 포함하기 때문에, 왼쪽에서 6번째 화소의 혼합비(α)는 1/2이다. 왼쪽에서 7번째의 화소는, 1개의 셔터 시간(/v)에 대응하는 배경의 성분을 포함하고, 3개의 셔터 시간(/v)에 대응하는 전경의 성분을 포함하기 때문에, 왼쪽에서 7번째 화소의 혼합비(α)는 1/4이다.
수학식 1 및 수학식 2를 보다 일반화하면, 화소값(M)은 수학식 3으로 표시된다.
여기에서, α는 혼합비이다. B는 배경의 화소값이고, Fi/v는 전경의 성분이다.
전경에 대응하는 오브젝트가 강체이고 등속으로 움직인다고 가정할 수 있고 또한 움직임량(v)이 4이기 때문에, 예를 들면 도 13중의 왼쪽에서 5번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분(F01/v)은, 도 13중의 왼쪽에서 6번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 전경의 성분과 동일하다. 마찬가지로 F01/v는, 도 13중의 왼쪽에서 7번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)에 대응하는 전경의 성분과, 도 13중의 왼쪽에서 8번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)에 대응하는 전경의 성분과 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고 등속으로 움직인다고 가정할 수 있고 또한 가상 분할수가 4이기 때문에, 예를 들면 도 13중의 왼쪽에서 6번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분(F02/v)은, 도 13중의 왼쪽에서 7번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 전경의 성분과 동일하다. 마찬가지로 F02/v는, 도 13중의 왼쪽에서 8번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)에 대응하는 전경의 성분과 동일하다.
전경에 대응하는 오브젝트가 강체이고 등속으로 움직인다고 가정할 수 있고 또한 움직임량(v)이 4이기 때문에, 예를 들면 도 13중의 왼쪽에서 7번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분(F03/v)은, 도 13중의 왼쪽에서 8번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)에 대응하는 전경의 성분과 동일하다.
도 11 내지 도 13의 설명에 있어서 가상 분할수는 4로 하여 설명하였으나, 가상 분할수는 움직임량(v)에 대응한다. 움직임량(v)은 일반적으로 전경에 대응하는 오브젝트의 이동 속도에 대응한다. 예를 들면 전경에 대응하는 오브젝트가, 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 오른쪽에 표시되도록 이동하고 있을 때, 움직임량(v)은 4가 된다. 움직임량(v)에 대응하여 가상 분할수는 4가 된다. 마찬가지로 예를 들면 전경에 대응하는 오브젝트가, 임의의 프레임을 기준으로 하여 다음 프레임에서 6화소분 왼쪽에 표시되도록 이동하고 있을 때, 움직임량(v)은 6이 되고, 가상 분할수는 6이 된다.
도 14 및 도 15에 이상에서 설명한 전경 영역, 배경 영역, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역으로 이루어진 혼합 영역과, 분할된 셔터 시간에 대응하는 전경의 성분 및 배경의 성분의 관계를 나타낸다.
도 14는, 정지하고 있는 배경의 앞을 이동하고 있는 오브젝트에 대응하는 전경을 포함하는 화상으로부터, 전경 영역, 배경 영역 및 혼합 영역의 화소를 추출한 예를 도시한다. 도 14에 도시한 예에 있어서, 배경에 대응하는 오브젝트는 화면에 대해 수평하게 이동하고 있다.
프레임 (#n+1)은 프레임 (#n)의 다음 프레임이고, 프레임 (#n+2)은 프레임 (#n+1)의 다음 프레임이다.
프레임 (#n) 내지 프레임 (#n+2) 중 어느 하나로부터 추출한 전경 영역, 배경 영역 및 혼합 영역의 화소를 추출하여 움직임량(v)을 4로 하고, 추출된 화소의 화소값을 시간 방향으로 전개한 모델을 도 15에 나타낸다.
전경 영역의 화소값은, 전경에 대응하는 오브젝트가 이동하기 때문에, 셔터 시간(/v)의 기간에 대응하는 4개의 다른 전경의 성분으로 구성된다. 예를 들면, 도 15에 나타낸 전경 영역의 화소 중 가장 왼쪽에 위치하는 화소는 F01/v, F02/v, F03/v 및 F04/v로 구성된다. 즉, 전경 영역의 화소는 흔들림을 포함하고 있다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 셔터 시간에 대응하는 기간에서 센서(11)에 입력되는 배경에 대응하는 광은 변화하지 않는다. 이 경우, 배경 영역의 화소값은 흔들림을 포함하지 않는다.
커버드 백그라운드 영역 또는 언커버드 백그라운드 영역으로 이루어진 혼합 영역에 속하는 화소의 화소값은 전경의 성분과 배경의 성분으로 구성된다.
이어서, 오브젝트에 대응하는 화상이 움직이고 있을 때, 복수의 프레임에 있어서의 인접하여 1열로 늘어선 화소로서, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델에 대해 설명한다. 예를 들면, 오브젝트에 대응하는 화상이 화면에 대해 수평하게 움직이고 있을 때, 인접하여 1열로 늘어선 화소로서 화면의 1개의 라인상에 늘어선 화소를 선택할 수 있다.
도 16은, 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의 인접하여 1열로 늘어선 화소로서, 프레임상에서 동일 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 프레임 (#n)은 프레임 (#n-1)의 다음 프레임이고, 프레임 (#n+1)은 프레임 (#n)의 다음 프레임이다. 다른 프레임도 동일하게 칭한다.
도 16에 도시한 B01 내지 B12의 화소값은, 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소값이다. 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 (#n-1) 내지 프레임 (#n+1)에서 대응하는 화소의 화소값은 변화하지 않는다. 예를 들면, 프레임 (#n-1)에 있어서의 B05의 화소값을 갖는 화소의 위치에 대응하는 프레임 (#n)에서의 화소 및 프레임 (#n+1)에서의 화소는 각각 B05의 화소값을 갖는다.
도 17은 정지하고 있는 배경에 대응하는 오브젝트와 함께 도면중의 오른쪽으로 이동하는 전경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의 인접하여 1열로 늘어선 화소로서, 프레임상에서 동일 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 17에 도시한 모델은 커버드 백그라운드 영역을 포함한다.
도 17에 있어서, 전경에 대응하는 오브젝트가 강체이고 등속으로 이동하는 것으로 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 오른쪽에 표시되도록 이동하기 때문에, 전경의 움직임량(v)은 4이고, 가상 분할수는 4이다.
예를 들면, 도 17중의 프레임 (#n-1)의 가장 왼쪽 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F12/v이고, 도 17중의 왼쪽에서 2번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분도 F12/v가 된다. 도 17중의 왼쪽에서 3번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분 및 도 17중의 왼쪽에서 4번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은F12/v가 된다.
도 17중의 프레임 (#n-1)의 가장 왼쪽의 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분은 F11/v가 되고, 도 17중의 왼쪽에서 2번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분도 F11/v가 된다. 도 17중의 왼쪽에서 3번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F11/v가 된다.
도 17중의 프레임 (#n-1)의 가장 왼쪽의 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분은 F10/v가 되고, 도 17중의 왼쪽에서 2번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분도 F10/v가 된다. 도 17중의 프레임 (#n-1)의 가장 왼쪽의 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17중의 프레임 (#n-1)의 왼쪽에서 2번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 배경의 성분은 B01/v가 된다. 도 17중의 프레임 (#n-1)의 왼쪽에서 3번째 화소의 셔터가 열리고 최초 및 2번째 셔터 시간(/v)의 배경의 성분은 B02/v가 된다. 도 17중의 프레임 (#n-1)의 왼쪽에서 4번째 화소의 셔터가 열리고 최초 내지 3번째 셔터 시간(/v)의 배경의 성분은 B03/v가 된다.
도 17중의 프레임 (#n-1)에 있어서, 가장 왼쪽의 화소는 전경 영역에 속하고, 왼쪽에서 2번째 내지 4번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 17중의 프레임 (#n-1)의 왼쪽에서 5번째 화소 및 12번째 화소는 배경 영역에 속하고, 그 화소값은 각각 B04 내지 B11이 된다.
도 17중의 프레임 (#n)의 왼쪽에서 1번째 화소 내지 5번째 화소는 전경 영역에 속한다. 프레임 (#n)의 전경 영역에 있어서의 셔터 시간(/v)의 전경의 성분은 F05/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 17중의 프레임 (#n)의 왼쪽에서 5번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F12/v가 되고, 도 17중의 왼쪽에서 6번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분도 F12/v가 된다. 도 17중의 왼쪽에서 7번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분 및 도 17중의 왼쪽에서 8번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F12/v가 된다.
도 17중의 프레임 (#n)의 왼쪽에서 5번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분은 F11/v가 되고, 도 17중의 왼쪽에서 6번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분도 F11/v가 된다. 도 17중의 왼쪽에서 7번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F11/v가 된다.
도 17중의 프레임 (#n)의 왼쪽에서 5번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분은 F10/v가 되고, 도 17중의 왼쪽에서 6번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)에 대응하는 전경의 성분도 F10/v가 된다. 도 17중의 프레임 (#n)의 왼쪽에서 5번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17중의 프레임 (#n)의 왼쪽에서 6번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 배경의 성분은 B05/v가 된다. 도 17중의 프레임 (#n)의 왼쪽에서 7번째 화소의 셔터가 열리고 최초 및 2번째 셔터 시간(/v)의 배경의 성분은 B06/v가 된다. 도 17중의 프레임 (#n)의 왼쪽에서 8번째 화소의 셔터가 열리고 최초 내지 3번째 셔터 시간(/v)의 배경의 성분은 B07/v가 된다.
도 17중의 프레임 (#n)에 있어서, 왼쪽에서 6번째 내지 8번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 17중의 프레임 (#n)의 왼쪽에서 9번째 화소 내지 12번째 화소는 배경 영역에 속하고, 화소값은 각각 B08 내지 B11이 된다.
도 17중의 프레임 (#n)의 왼쪽에서 1번째 화소 내지 9번째 화소는 전경 영역에 속한다. 프레임 (#n+1)의 전경 영역에 있어서의 셔터 시간(/v)의 전경의 성분은 F01/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 17중의 프레임 (#n+1)의 왼쪽에서 9번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F12/v가 되고, 도 17중의 왼쪽에서 10번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분도 F12/v가 된다. 도 17중의 왼쪽에서 11번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분 및 도 17중의 왼쪽에서 12번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F12/v가 된다.
도 17중의 프레임 (#n+1)의 왼쪽에서 9번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분은 F11/v가 되고, 도 17중의 왼쪽에서 10번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분도 F11/v가 된다. 도 17중의 왼쪽에서 11번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F11/v가 된다.
도 17중의 프레임 (#n+1)의 왼쪽에서 9번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분은 F10/v가 되고, 도 17중의 왼쪽에서 10번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분도 F10/v가 된다. 도 17중의 프레임 (#n+1)의 왼쪽에서 9번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17중의 프레임 (#n+1)의 왼쪽에서 10번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 배경의 성분은 B09/v가 된다. 도 17중의 프레임 (#n+1)의 왼쪽에서 11번째 화소의 셔터가 열리고 최초 및 2번째 셔터 시간(/v)의 배경의 성분은 B010/v가 된다. 도 17중의 프레임 (#n+1)의 왼쪽에서 12번째 화소의 셔터가 열리고 최초 내지 3번째의 셔터 시간(/v)의 배경의 성분은 B11/v가 된다.
도 17중의 프레임 (#n+1)에 있어서, 왼쪽에서 10번째 내지 12번째 화소는 커버드 백그라운드 영역인 혼합 영역에 대응한다.
도 18은, 도 17에 도시한 화소값으로부터 전경의 성분을 추출한 화상의 모델도이다.
도 19는, 정지하고 있는 배경과 함께 도면중의 오른쪽으로 이동하는 오브젝트에 대응하는 전경을 촬상한 화상의 3개 프레임의 인접하여 1열로 늘어선 화소로서, 프레임상에서 동일 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 19에 있어서, 언커버드 백그라운드 영역이 포함되어 있다.
도 19에 있어서, 전경에 대응하는 오브젝트가 강체이고 또한 등속으로 이동하는 것으로 가정할 수 있다. 전경에 대응하는 오브젝트가 다음 프레임에서 4화소분 오른쪽에 표시되도록 이동하고 있기 때문에, 움직임량(v)은 4이다.
예를 들면, 도 19중의 프레임 (#n-1)의 가장 왼쪽 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F13/v이 되고, 도 19중의 왼쪽에서 2번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분도 F13/v가 된다. 도 19중의 왼쪽에서 3번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분 및 도 19중의 왼쪽에서 4번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F13/v가 된다.
도 19중의 프레임 (#n-1)의 왼쪽에서 2번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F14/v가 되고, 도 19중의 왼쪽에서 3번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분도 F14/v가 된다. 도 19중의 왼쪽에서 3번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 19중의 프레임 (#n-1)의 가장 왼쪽 화소의 셔터가 열리고 2번째 내지 4번째의 셔터 시간(/v)의 배경의성분은 B25/v가 된다. 도 19중의 프레임 (#n-1)의 왼쪽에서 2번째 화소의 셔터가 열리고 3번째 및 4번째 셔터 시간(/v)의 배경의 성분은 B26/v가 된다. 도 19중의 프레임 (#n-1)의 왼쪽에서 3번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 배경의 성분은 B27/v가 된다.
도 19중의 프레임 (#n-1)에 있어서, 가장 왼쪽 화소 내지 3번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 19중의 프레임 (#n-1)의 왼쪽에서 4번째 화소 내지 12번째 화소는 전경 영역에 속한다. 프레임의 전경의 성분은 F13/v 내지 F24/v 중 어느 하나이다.
도 19중의 프레임 (#n)의 가장 왼쪽 화소 내지 4번째 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B28이 된다.
전경에 대응하는 오브젝트가 강체이고 등속으로 이동하는 것으로 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 오른쪽에 표시되도록 이동하기 때문에, 도 19중의 프레임 (#n+1)의 왼쪽에서 5번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F13/v가 되고, 도 19중의 왼쪽에서 6번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분도 F13/v가 된다. 도 19중의 왼쪽에서 7번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분 및 도 19중의 왼쪽에서 8번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F13/v가 된다.
도 19중의 프레임 (#n)의 왼쪽에서 6번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F14/v가 되고, 도 19중의 왼쪽에서 7번째 화소의 셔터가열리고 2번째 셔터 시간(/v)의 전경의 성분도 F14/v가 된다. 도 19중의 왼쪽에서 8번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 19중의 프레임 (#n)의 왼쪽에서 5번째 화소의 셔터가 열리고 2번째 내지 4번째의 셔터 시간(/v)의 배경의 성분은 B29/v가 된다. 도 19중의 프레임 (#n)의 왼쪽에서 6번째 화소의 셔터가 열리고 3번째 및 4번째 셔터 시간(/v)의 배경의 성분은 B30/v가 된다. 도 19중의 프레임 (#n)의 왼쪽에서 7번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 배경의 성분은 B31/v가 된다.
도 19중의 프레임 (#n)에 있어서, 왼쪽에서 5번째 화소 내지 7번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 19중의 프레임 (#n)의 왼쪽에서 8번째 화소 내지 12번째 화소는 전경 영역에 속한다. 프레임 (#n)의 전경 영역에 있어서의 셔터 시간(/v)에 대응하는 값은 F13/v 내지 F20/v 중 어느 하나이다.
도 19중의 프레임 (#n+1)의 가장 왼쪽 화소 내지 왼쪽에서 8번째 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B32가 된다.
전경에 대응하는 오브젝트가 강체이고 등속으로 이동하는 것으로 가정할 수 있고, 전경의 화소가 다음 프레임에서 4화소 오른쪽에 표시되도록 이동하기 때문에, 도 19중의 프레임 (#n+1)의 왼쪽에서 9번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F13/v가 되고, 도 19중의 왼쪽에서 10번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분도 F13/v가 된다. 도 19중의 왼쪽에서 11번째 화소의 셔터가 열리고 3번째 셔터 시간(/v)의 전경의 성분 및 도 19중의 왼쪽에서 12번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 전경의 성분은 F13/v가 된다.
도 19중의 프레임 (#n+1)의 왼쪽에서 10번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F14/v가 되고, 도 19중의 왼쪽에서 11번째 화소의 셔터가 열리고 2번째 셔터 시간(/v)의 전경의 성분도 F14/v가 된다. 도 19중의 왼쪽에서 12번째 화소의 셔터가 열리고 최초의 셔터 시간(/v)의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 19중의 프레임 (#n+1)의 왼쪽에서 9번째 화소의 셔터가 열리고 2번째 내지 4번째의 셔터 시간(/v)의 배경의 성분은 B33/v가 된다. 도 19중의 프레임 (#n+1)의 왼쪽에서 10번째 화소의 셔터가 열리고 3번째 및 4번째 셔터 시간(/v)의 배경의 성분은 B34/v가 된다. 도 19중의 프레임 (#n+1)의 왼쪽에서 11번째 화소의 셔터가 열리고 4번째 셔터 시간(/v)의 배경의 성분은 B35/v가 된다.
도 19중의 프레임 (#n+1)에 있어서, 왼쪽에서 9번째 화소 내지 11번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 19중의 프레임 (#n+1)의 왼쪽에서 12번째 화소는 전경 영역에 속한다. 프레임 (#n+1)의 전경 영역에 있어서의 셔터 시간(/v)의 전경의 성분은 F13/v 내지 F16/v 중 어느 하나이다.
도 20은, 도 19에 도시한 화소값으로부터 전경의 성분을 추출한 화상의 모델도이다.
도 4로 복귀하여 영역 특정부(103)는, 복수의 프레임의 화소값을 사용하여 전경 영역, 배경 영역, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 속하는 것을 나타내는 플래그를 화소마다 대응시켜 영역 정보로서 혼합비 산출부(104) 및 흔들림 조정부(106)에 공급한다.
혼합비 산출부(104)는, 복수의 프레임의 화소값 및 영역 정보를 기초로 혼합 영역에 포함되는 화소에 대해 화소마다 혼합비(α)를 산출하고, 산출한 혼합비(α)를 전경 배경 분리부(105)에 공급한다.
전경 배경 분리부(105)는, 복수의 프레임의 화소값, 영역 정보 및 혼합비(α)를 기초로 전경의 성분만으로 이루어진 전경 성분 화상을 추출하여 흔들림 조정부(106)에 공급한다.
흔들림 조정부(106)는, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로 전경 성분 화상에 포함되는 흔들림의 양을 조정하여 흔들림의 양을 조정한 전경 성분 화상을 출력한다.
도 21의 플로우차트를 참조하여 신호 처리부(12)에 의한 흔들림의 양의 조정 처리를 설명한다. 단계 S101에서, 영역 특정부(103)는 입력 화상을 기초로 입력 화상의 화소마다 전경 영역, 배경 영역, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역 중 어느 것에 속하는지를 나타내는 영역 정보를 생성하는 영역 특정 처리를 실행한다. 영역 특정 처리의 상세는, 도 30의 플로우차트를 참조하여 후술한다. 영역 특정부(103)는 생성된 영역 정보를 혼합비 산출부(104)에 공급한다.
그리고 단계 S101에서, 영역 특정부(103)는 입력 화상을 기초로 입력 화상의 화소마다 전경 영역, 배경 영역 또는 혼합 영역(커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 구별하지 않음) 중 어느 것에 속하는지를 나타내는 영역 정보를 생성하도록 해도 된다. 이 경우에 있어서 전경 배경 분리부(105) 및 흔들림 조정부(106)는, 움직임 벡터의 방향을 기초로 혼합 영역이 커버드 백그라운드 영역인지 또는 언커버드 백그라운드 영역인지를 판정한다. 예를 들면, 움직임 벡터의 방향에 대응하여 전경 영역, 혼합 영역 및 배경 영역으로 차례로 늘어서 있을 때, 그 혼합 영역은 커버드 백그라운드 영역으로 판정되고, 움직임 벡터의 방향에 대응하여 배경 영역, 혼합 영역 및 전경 영역으로 차례로 늘어서 있을 때, 그 혼합 영역은 언커버드 백그라운드 영역으로 판정된다.
단계 S102에서, 혼합비 산출부(104)는 입력 화상 및 영역 정보를 기초로 혼합 영역에 포함되는 화소마다 혼합비(α)를 산출한다. 혼합비 산출 처리의 상세는 도 49의 플로우차트를 참조하여 후술한다. 혼합비 산출부(104)는 산출한 혼합비(α)를 전경 배경 분리부(105)에 공급한다.
단계 S103에서, 전경 배경 분리부(105)는 영역 정보 및 혼합비(α)를 기초로 입력 화상에서 전경의 성분을 추출하여 전경 성분 화상으로서 흔들림 조정부(106)에 공급한다.
단계 S104에서, 흔들림 조정부(106)는 움직임 벡터 및 영역 정보를 기초로 움직임 방향으로 늘어선 연속한 화소로서, 언커버드 백그라운드 영역 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것의 화상상의 위치를 나타내는 처리 단위를 생성하고, 처리 단위에 대응하는 전경 성분에 포함되는 흔들림의 양을 조정한다. 흔들림의 양의 조정 처리의 상세에 대해서는 도 66의 플로우차트를 참조하여 후술한다.
단계 S105에서, 신호 처리부(12)는 화면 전체에 대해 처리를 종료하였는지의 여부를 판정하고, 화면 전체에 대해 처리를 종료하지 않았다고 판정된 경우 단계 S104로 진행하고, 처리 단위에 대응하는 전경의 성분을 대상으로 한 흔들림의 양의 조정 처리를 반복한다.
단계 S106에서, 화면 전체에 대해 처리를 종료하였다고 판정된 경우 처리는 종료한다.
이와 같이 신호 처리부(12)는, 전경과 후경을 분리하여 전경에 포함되는 흔들림의 양을 조정할 수 있다. 즉, 신호 처리부(12)는 전경의 화소의 화소값인 샘플 데이터에 포함되는 흔들림의 양을 조정할 수 있다.
이하, 영역 특정부(103), 혼합비 산출부(104), 전경 배경 분리부(105) 및 흔들림 조정부(106) 각각의 구성의 일례에 대해 설명한다.
도 22는 영역 특정부(103)의 구성을 도시한 블록도이다. 도 22에 도시한 영역 특정부(103)는 움직임 벡터를 사용하지 않는다. 배경 화상 생성부(121)는, 입력 화상에 대응하는 배경 화상을 생성하고, 생성된 배경 화상을 2치 오브젝트 화상 추출부(122)에 공급한다. 배경 화상 생성부(121)는, 예를 들면 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 늘어선 화소의 화소값을 시간 방향으로 전개한 모델도의 예를 도 23에 나타낸다. 예를 들면, 전경의 오브젝트에 대응하는 화소의 움직임 방향이 화면에 대해 수평할 때, 도 23에 있어서의 모델도는 1개의 라인상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 나타낸다.
도 23에 있어서, 프레임 (#n)에 있어서의 라인은 프레임 (#n-1) 및 프레임 (#n+1)에 있어서의 라인과 동일하다.
프레임 (#n)에 있어서, 왼쪽에서 6번째 화소 내지 17번째 화소에 포함되어 있는 오브젝트에 대응하는 전경의 성분은, 프레임 (#n-1)에 있어서 왼쪽에서 2번째 내지 13번째 화소에 포함되고, 프레임 (#n+1)에 있어서 왼쪽에서 10번째 내지 21번째 화소에 포함된다.
프레임 (#n-1)에 있어서, 커버드 백그라운드 영역에 속하는 화소는 왼쪽에서 11번째 내지 13번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 왼쪽에서 2번째 내지 4번째 화소이다. 프레임 (#n)에 있어서, 커버드 백그라운드 영역에 속하는 화소는 왼쪽에서 15번째 내지 17번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 왼쪽에서 6번째 내지 8번째 화소이다. 프레임 (#n+1)에 있어서, 커버드 백그라운드 영역에 속하는 화소는 왼쪽에서 19번째 내지 21번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 왼쪽에서 10번째 내지 12번째 화소이다.
프레임 (#n-1)에 있어서, 배경 영역에 속하는 화소는 왼쪽에서 1번째 화소 및 왼쪽에서 14번째 내지 21번째 화소이다. 프레임 (#n)에 있어서, 배경 영역에 속하는 화소는 왼쪽에서 1번째 내지 5번째 화소 및 왼쪽에서 18번째 내지 21번째 화소이다. 프레임 (#n+1)에 있어서, 배경 영역에 속하는 화소는 왼쪽에서 1번째 내지 9번째 화소이다.
배경 화상 생성부(121)가 생성한 도 23의 예에 대응하는 배경 화상의 예를 도 24에 나타낸다. 배경 화상은 배경의 오브젝트에 대응하는 화소로 구성되고, 전경의 오브젝트에 대응하는 화상의 성분을 포함하지 않는다.
2치 오브젝트 화상 추출부(122)는, 배경 화상 및 입력 화상의 상관을 기초로 2치 오브젝트 화상을 생성하고, 생성된 2치 오브젝트 화상을 시간 변화 검출부(123)에 공급한다.
도 25는, 2치 오브젝트 화상 추출부(122)의 구성을 도시한 블록도이다. 상관치 연산부(131)는, 배경 화상 생성부(121)로부터 공급된 배경 화상 및 입력 화상의 상관을 연산하여 상관치를 생성하고, 생성된 상관치를 임계값 처리부(132)에 공급한다.
상관치 연산부(131)는, 예를 들면 도 26a에 도시한 바와 같이 X4를 중심으로 한 3×3의 배경 화상중의 블록과, 도 26b에 도시한 바와 같이 배경 화상중의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상중의 블록에 수학식 4를 적용하여 Y4에 대응하는 상관치를 산출한다.
상관치 연산부(131)는, 이와 같이 각 화소에 대응하여 산출된 상관치를 임계값 처리부(132)에 공급한다.
또한 상관치 연산부(131)는, 예를 들면 도 27a에 도시한 바와 같이 X4를 중심으로 한 3×3의 배경 화상중의 블록과, 도 27b에 도시한 바와 같이 배경 화상중의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상중의 블록에 수학식 7을 적용하여 Y4에 대응하는 차분 절대값을 산출하도록 해도 된다.
상관치 연산부(131)는, 이와 같이 산출된 차분 절대값을 상관치로 하여 임계값 처리부(132)에 공급한다.
임계값 처리부(132)는, 상관 화상의 화소값과 임계값(th0)을 비교하여 상관값이 임계값(th0) 이하인 경우, 2치 오브젝트 화상의 화소값에 1을 설정하고, 상관값이 임계값(th0)보다 큰 경우, 2치 오브젝트 화상의 화소값에 0을 설정하여, 0 또는 1이 화소값으로 설정된 2치 오브젝트 화상을 출력한다. 임계값 처리부(132)는, 임계값(th0)을 미리 기억하도록 해도 되고 또는 외부로부터 입력된 입계값(th0)을 사용하도록 해도 된다.
도 28는, 도 23에 도시한 입력 화상의 모델에 대응하는 2치 오브젝트 화상의 예를 나타낸 도면이다. 2치 오브젝트 화상에 있어서, 배경 화상과 상관이 높은 화소에는 화소값에 0이 설정된다.
도 29는 시간 변화 검출부(123)의 구성을 도시한 블록도이다. 프레임 메모리(141)는, 프레임 (#n)의 화소에 대해 영역을 판정할 때, 2치 오브젝트 화상 추출부(122)로부터 공급된 프레임 (#n-1), 프레임 (#n) 및 프레임 (#n+1)의 2치 오브젝트 화상을 기억한다.
영역 판정부(142)는, 프레임 메모리(141)에 기억되어 있는 프레임 (#n-1), 프레임 (#n) 및 프레임 (#n+1)의 2치 오브젝트 화상을 기초로 프레임 (#n)의 각 화소에 대해 영역을 판정하여 영역 정보를 생성하고, 생성한 영역 정보를 출력한다.
도 30은 영역 판정부(142)의 판정을 설명하는 도면이다. 프레임 (#n)의 2치 오브젝트 화상의 주목하고 있는 화소가 0일 때, 영역 판정부(142)는 프레임 (#n)의 주목하고 있는 화소가 배경 영역에 속하는 것으로 판정한다.
프레임 (#n)의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임(#n-1)의 2치 오브젝트 화상의 대응하는 화소가 1이고, 프레임 (#n+1)의 2치 오브젝트 화상의 대응하는 화소가 1일 때, 영역 판정부(142)는 프레임 (#n)의 주목하고 있는 화소가 전경 영역에 속하는 것으로 판정한다.
프레임 (#n)의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 (#n-1)의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(142)는 프레임 (#n)의 주목하고 있는 화소가 커버드 백그라운드 영역에 속하는 것으로 판정한다.
프레임 (#n)의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 (#n+1)의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(142)는 프레임 (#n)의 주목하고 있는 화소가 언커버드 백그라운드 영역에 속하는 것으로 판정한다.
도 31은, 도 23에 나타낸 입력 화상의 모델에 대응하는 2치 오브젝트 화상에 대해 시간 변화 검출부(123)가 판정한 예를 나타낸 도면이다. 시간 변화 검출부(123)는 2치 오브젝트 화상의 프레임 (#n)이 대응하는 화소가 0이기 때문에, 프레임 (#n)의 왼쪽에서 1번째 내지 5번째 화소를 배경 영역에 속하는 것으로 판정한다.
시간 변화 검출부(123)는, 2치 오브젝트 화상의 프레임 (#n)의 화소가 1이고, 프레임 (#n+1)이 대응하는 화소가 0이기 때문에, 왼쪽에서 6번째 내지 9번째 화소를 언커버드 백그라운드 영역에 속하는 것으로 판정한다.
시간 변화 검출부(123)는, 2치 오브젝트 화상의 프레임 (#n)의 화소가 1이고, 프레임 (#n-1)이 대응하는 화소가 1이고, 프레임 (#n+1)이 대응하는 화소가 1이기 때문에, 왼쪽에서 10번째 내지 13번째 화소를 전경 영역에 속하는 것으로 판정한다.
시간 변화 검출부(123)는, 2치 오브젝트 화상의 프레임 (#n)의 화소가 1이고, 프레임 (#n-1)이 대응하는 화소가 0이기 때문에, 왼쪽에서 14번째 내지 17번째 화소를 커버드 백그라운드 영역에 속하는 것으로 판정한다.
시간 변화 검출부(123)는, 2치 오브젝트 화상의 프레임 (#n)이 대응하는 화소가 0이기 때문에, 왼쪽에서 18번째 내지 21번째 화소를 배경 영역에 속하는 것으로 판정한다.
이어서, 도 30의 플로우차트를 참조하여 영역 특정부(103)의 영역 특정 처리를 설명한다. 단계 S111에서, 영역 특정부(103)의 배경 화상 생성부(121)는 입력 화상을 기초로, 예를 들면 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(122)에 공급한다.
단계 S112에서, 2치 오브젝트 화상 추출부(122)는, 예를 들면 도 26a 및 도 26b를 참조하여 설명한 연산에 의해, 입력 화상과 배경 화상 생성부(121)로부터 공급된 배경 화상의 상관치를 연산한다. 단계 S113에서, 2치 오브젝트 화상 추출부(122)는, 예를 들면 상관치와 임계값(th0)을 비교함으로써 상관치 및 임계값(th0)으로부터 2치 오브젝트 화상을 연산한다.
단계 S114에서, 시간 변화 검출부(123)는 영역 판정 처리를 실행하고, 처리는 종료된다.
도 31의 플로우차트를 참조하여 단계 S114에 대응하는 영역 판정 처리의 상세를 설명한다. 단계 S121에서, 시간 변화 검출부(123)의 영역 판정부(142)는, 프레임 메모리(141)에 기억되어 있는 프레임 (#n)에서 주목하는 화소가 0인지의 여부를 판정하고, 프레임 (#n)에서 주목하는 화소가 0이라고 판정된 경우 단계 S122로 진행하고, 프레임 (#n)의 주목하는 화소가 배경 영역에 속한다고 설정하고 처리는 종료한다.
단계 S121에서, 프레임 (#n)에서 주목하는 화소가 1이라고 판정된 경우 단계 S123으로 진행하고, 시간 변화 검출부(123)의 영역 판정부(142)는, 프레임 메모리(141)에 기억되어 있는 프레임 (#n)에서 주목하는 화소가 1이고, 또한 프레임 (#n-1)에서 대응하는 화소가 0인지의 여부를 판정하고, 프레임 (#n)에서 주목하는 화소가 1이고, 또한 프레임 (#n-1)에서 대응하는 화소가 0이라고 판정된 경우 단계 S124로 진행하고, 프레임 (#n)이 주목하는 화소가 커버드 백그라운드 영역에 속한다고 설정하고 처리는 종료한다.
단계 S123에서, 프레임 (#n)에서 주목하는 화소가 0이거나 또는 프레임 (#n-1)에서 대응하는 화소가 1이라고 판정된 경우 단계 S125로 진행하고, 시간 변화 검출부(123)의 영역 판정부(142)는, 프레임 메모리(141)에 기억되어 있는 프레임 (#n)에서 주목하는 화소가 1이고, 또한 프레임 (#n+1)에서 대응하는 화소가 0인지의 여부를 판정하고, 프레임 (#n)에서 주목하는 화소가 1이고, 또한 프레임 (#n+1)에서 대응하는 화소가 0이라고 판정된 경우 단계 S126으로 진행하고, 프레임 (#n)이 주목하는 화소가 언커버드 백그라운드 영역에 속한다고 설정하고 처리는 종료한다.
단계 S125에서, 프레임 (#n)에서 주목하는 화소가 0인지 또는 프레임 (#n+1)에서 대응하는 화소가 1이라고 판정된 경우 단계 S127로 진행하고, 시간 변화 검출부(123)의 영역 판정부(142)는, 프레임 (#n)이 주목하는 화소를 전경 영역으로 설정하여 처리는 종료한다.
이와 같이 영역 특정부(103)는, 입력된 화상과 대응하는 배경 화상의 상관치를 기초로 입력 화상의 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역 중 어느 것에 속하는지를 특정하고, 특정한 결과에 대응하는 영역 정보를 생성할 수 있다.
도 34는 영역 특정부(103)의 다른 구성을 도시한 블록도이다. 도 34에 도시한 영역 특정부(103)는, 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보를 사용한다. 도 22에 도시한 경우와 동일한 부분에는 동일한 부호를 붙이며 그 설명은 생략한다.
로버스트화부(151)는, 2치 오브젝트 화상 추출부(122)로부터 공급된 N개의 프레임의 2치 오브젝트 화상을 기초로 로버스트화된 2치 오브젝트 화상을 생성하여 시간 변화 검출부(123)로 출력한다.
도 35는 로버스트화부(151)의 구성을 설명하는 블록도이다. 움직임 보상부(161)는, 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로 N개의 프레임의 2치 오브젝트 화상의 움직임을 보상하여 움직임이 보상된 2치 오브젝트 화상을 스위치(162)로 출력한다.
도 36 및 도 37의 예를 참조하여 움직임 보상부(161)의 움직임 보상에 대해 설명한다. 예를 들면, 프레임 (#n)의 영역을 판정할 때, 도 36에 예를 나타낸 프레임 (#n-1), 프레임 (#n) 및 프레임 (#n+1)의 2치 오브젝트 화상이 입력된 경우, 움직임 보상부(161)는 움직임 검출부(102)로부터 공급된 움직임 벡터를 기초로 도 37에 예를 나타낸 바와 같이 프레임 (#n-1)의 2치 오브젝트 화상 및 프레임 (#n+1)의 2치 오브젝트 화상을 움직임 보상하여 움직임 보상된 2치 오브젝트 화상을 스위치(162)에 공급한다.
스위치(162)는, 1번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(163-1)로 출력하고, 2번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(163-2)로 출력한다. 마찬가지로, 스위치(162)는 3번째 내지 N-1번째 프레임의 움직임 보상된 2치 오브젝트 화상의 각각을 프레임 메모리(163-3) 내지 프레임 메모리(163-(N-1)) 중 어느 하나로 출력하고, N번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(163-N)로 출력한다.
프레임 메모리(163-1)는, 1번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중부(164-1)로 출력한다. 프레임 메모리(163-2)는, 2번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중부(164-2)로 출력한다.
마찬가지로, 프레임 메모리(163-3) 내지 프레임 메모리(163-(N-1))의 각각은, 3번째 프레임 내지 N-1번째 프레임의 움직임 보상된 2치 오브젝트 화상 중 어느 하나를 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중부(164-3) 내지 가중부(164-(N-1))로 출력한다. 프레임 메모리(163-N)는, N번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중부(164-N)로 출력한다.
가중부(164-1)는, 프레임 메모리(163-1)로부터 공급된 1번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게(w1)를 곱하여 적산부(165)에 공급한다. 가중부(164-2)는, 프레임 메모리(163-2)로부터 공급된 2번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게(w2)를 곱하여 적산부(165)에 공급한다.
마찬가지로, 가중부(164-3) 내지 가중부(164-(N-1))의 각각은, 프레임 메모리(163-3) 내지 프레임 메모리(163-(N-1)) 중 어느 하나로부터 공급된 3번째 내지 N-1번째 중 어느 한 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게(w3) 내지 무게(w(N-1)) 중 어느 하나를 곱하여 적산부(165)에 공급한다. 가중부(164-N)는, 프레임 메모리(163-N)로부터 공급된 N번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게(wN)를 곱하여 적산부(165)에 공급한다.
적산부(165)는, 1 내지 N번째 프레임의 움직임 보상되고, 각각 무게(w1) 내지 무게(wN) 중 어느 하나가 곱해진 2치 오브젝트 화상의 대응하는 화소값을 적산하고, 적산된 화소값을 미리 정한 임계값(th0)과 비교함으로써 2치 오브젝트 화상을 생성한다.
이와 같이 로버스트화부(151)는, N개의 2치 오브젝트 화상으로부터 로버스트화된 2치 오브젝트 화상을 생성하여 시간 변화 검출부(123)에 공급하기 때문에, 도 34에 구성을 도시한 영역 특정부(103)는 입력 화상 노이즈가 포함되어 있어도 도 22에 도시한 경우에 비교하여 보다 정확하게 영역을 특정할 수 있다.
이어서, 도 34에 구성을 도시한 영역 특정부(103)의 영역 특정 처리에 대해, 도 38의 플로우차트를 참조하여 설명한다. 단계 S131 내지 단계 S133의 처리는, 도 32의 플로우차트에서 설명한 단계 S111 내지 단계 S113과 각각 동일하므로 그 설명을 생략한다.
단계 S134에서, 로버스트화부(151)는 로버스트화의 처리를 실행한다.
단계 S135에서, 시간 변화 검출부(123)는 영역 판정의 처리를 실행하고 처리는 종료한다. 단계 S135의 처리의 상세는, 도 33의 플로우차트를 참조하여 설명한 처리와 동일하므로 그 설명은 생략한다.
이어서, 도 39에 나타낸 플로우차트를 참조하여 도 38의 단계 S134의 처리에 대응하는 로버스트화의 처리의 상세에 대해 설명한다. 단계 S141에서, 움직임 보상부(161)는 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보를 기초로 입력된 2치 오브젝트 화상의 움직임 보상 처리를 실행한다. 단계 S142에서, 프레임 메모리(163-1 내지 163-N) 중 어느 하나는 스위치(162)를 통해 공급된 움직임 보상된 2치 오브젝트 화상을 기억한다.
단계 S143에서, 로버스트화부(151)는 N개의 2치 오브젝트 화상이 기억되었는지의 여부를 판정하고, N개의 2치 오브젝트 화상이 기억되어 있지 않다고 판정된경우, 단계 S141로 복귀하여 2치 오브젝트 화상의 움직임 보상의 처리 및 2치 오브젝트 화상의 기억의 처리를 반복한다.
단계 S143에서, N개의 2치 오브젝트 화상이 기억되었다고 판정된 경우, 단계 S144로 진행하여 가중부(164-1 내지 164-N)의 각각은 N개의 2치 오브젝트 화상의 각각에 w1 내지 wN 중 어느 한 무게를 곱하여 가중한다.
단계 S145에서, 적산부(165)는 가중된 N개의 2치 오브젝트 화상을 적산한다.
단계 S146에서, 적산부(165)는 예를 들면 미리 정해진 임계값(th1)과의 비교 등에 의해 적산된 화상으로부터 2치 오브젝트 화상을 생성하고 처리는 종료한다.
이와 같이 도 34에 구성을 도시한 영역 특정부(103)는, 로버스트화된 2치 오브젝트 화상을 기초로 영역 정보를 생성할 수 있다.
이상과 같이 영역 특정부(103)는, 프레임에 포함되어 있는 화소의 각각에 대해 움직임 영역, 정지 영역, 언커버드 백그라운드 영역 또는 커버드 백그라운드 영역에 속함을 나타내는 영역 정보를 생성할 수 있다.
그리고 영역 특정부(103)는, 언커버드 백그라운드 영역 및 커버드 백그라운드 영역에 대응하는 영역 정보에 논리합을 적용함으로써 혼합 영역에 대응하는 영역 정보를 생성하고, 프레임에 포함되어 있는 화소의 각각에 대해 움직임 영역, 정지 영역 또는 혼합 영역에 속함을 나타내는 플래그로 이루어진 영역 정보를 생성하도록 해도 된다.
영역 특정부(103)는, 움직임 영역을 나타내는 영역 정보를 전경 영역을 나타내는 영역 정보로서, 또한 정지 영역을 나타내는 영역 정보를 배경 영역을 나타내는 영역 정보로서 출력할 수 있다.
도 40은 혼합비 산출부(104)의 구성의 일례를 도시한 블록도이다. 추정 혼합비 처리부(201)는, 입력 화상을 기초로 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(203)에 공급한다.
추정 혼합비 처리부(202)는, 입력 화상을 기초로 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(203)에 공급한다.
전경에 대응하는 오브젝트가 셔터 시간내에 등속으로 움직이고 있다고 가정할 수 있으므로, 혼합 영역에 속하는 화소의 혼합비(α)는 이하의 성질을 갖는다. 즉, 혼합비(α)는 화소 위치의 변화에 대응하여 직선적으로 변화한다. 화소 위치의 변화를 1차원이라 하면 혼합비(α)의 변화는 직선으로 실현할 수 있고, 화소 위치의 변화를 2차원이라 하면 혼합비(α)의 변화는 평면으로 실현할 수 있다.
그리고 1프레임의 기간은 짧기 때문에, 전경에 대응하는 오브젝트가 강체이고 등속으로 이동하고 있다는 가정이 성립된다.
이 경우, 혼합비(α)의 기울기는 전경의 움직임량(v)의 역비가 된다.
이상적인 혼합비(α)의 예를 도 41에 나타낸다. 이상적인 혼합비(α)의 혼합 영역에 있어서의 기울기 1은 움직임량(v)의 역수로서 나타낼 수 있다.
도 41에 나타낸 바와 같이, 이상적인 혼합비(α)는 배경 영역에서 1의 값을 갖고, 전경 영역에서 0의 값을 갖고, 혼합 영역에서 0을 초과 1 미만의 값을 갖는다.
도 42의 예에 있어서, 프레임 (#n)의 왼쪽에서 7번째 화소의 화소값(C06)은, 프레임 (#n-1)의 왼쪽에서 7번째 화소의 화소값(C06)을 이용하여 수학식 8로 표시할 수 있다.
수학식 8에 있어서, 화소값(C06)을 혼합 영역의 화소의 화소값(M)이라, 화소값(P06)을 배경 영역의 화소의 화소값(B)이라 표현한다. 즉, 혼합 영역의 화소의 화소값(M) 및 배경 영역의 화소의 화소값(B)은 각각 수학식 9 및 수학식 10과 같이 표현할 수 있다.
수학식 8의 2/v는 혼합비(α)에 대응한다. 움직임량(v)이 4이므로 프레임 (#n)의 왼쪽에서 7번째 화소의 혼합비(α)는 0.5가 된다.
이상과 같이, 주목하고 있는 프레임 (#n)의 화소값(C)을 혼합 영역의 화소값으로 간주하고, 프레임 (#n)의 앞 프레임 (#n-1)의 화소값(P)을 배경 영역의 화소값으로 간주함으로써, 혼합비(α)를 나타내는 수학식 3은 수학식 11과 같이 다시 표현할 수 있다.
수학식 11의 f는, 주목하고 있는 화소에 포함되는 전경 성분의 합(ΣiFi/v)이다. 수학식 11에 포함되는 변수는, 혼합비(α) 및 전경 성분의 합(f)의 2개이다.
마찬가지로, 언커버드 백그라운드 영역에 있어서의 움직임량(v)이 4이고, 시간 방향의 가상 분할수가 4인 화소값을 시간 방향으로 전개한 모델을 도 43에 나타낸다.
언커버드 백그라운드 영역에 있어서, 상기 기술한 커버드 백그라운드 영역에 있어서의 표현과 마찬가지로, 주목하고 있는 프레임 (#n)의 화소값(C)을 혼합 영역의 화소값으로 간주하고, 프레임 (#n)의 뒤 프레임 (#n+1)의 화소값(N)을 배경 영역의 화소값으로 간주함으로써, 혼합비(α)를 나타내는 수학식 3은 수학식 12와 같이 표현할 수 있다.
그리고, 배경의 오브젝트가 정지하고 있는 것으로 설명하였으나, 배경의 오브젝트가 움직이고 있는 경우에도 배경의 움직임량(v)에 대응시킨 위치의 화소의화소값을 이용함으로써 수학식 8 내지 수학식 12를 적용할 수 있다. 예를 들면, 도 42에 있어서 배경에 대응하는 오브젝트의 움직임량(v)이 2이고, 가상 분할수가 2일 때, 배경에 대응하는 오브젝트가 도면중의 우측으로 움직이고 있을 때, 수학식 10에 있어서의 배경 영역의 화소의 화소값(B)은 화소값(P04)이 된다.
수학식 11 및 수학식 12는, 각각 2개의 변수를 포함하므로 그 상태로는 혼합비(α)를 구할 수 없다. 여기에서, 화상은 일반적으로 공간적으로 상관이 높으므로 근접하는 화소 끼리에서 거의 동일한 화소값이 된다.
따라서, 전경 성분은 공간 상관이 높으므로 전경 성분의 합(f)을 앞 또는 뒤의 프레임으로부터 도출할 수 있도록 수학식을 변형하여 혼합비(α)를 구한다.
도 44의 프레임 (#n)의 왼쪽에서 7번째 화소의 화소값(Mc)은 수학식 13으로 표현할 수 있다.
수학식 13의 우변 제1항의 2/v는 혼합비(α)에 상당한다. 수학식 13의 우변 제2항은 뒤 프레임 (#n+1)의 화소값을 이용하여 수학식 14와 같이 나타낼 수 있다.
여기에서, 전경 성분의 공간 상관을 이용하여 수학식 15가 성립한다.
수학식 14는 수학식 15를 이용하여 수학식 16과 같이 다시 표현할 수 있다.
결과적으로 β는 수학식 17로 나타낼 수 있다.
일반적으로 수학식 15에 나타낸 바와 같이 혼합 영역에 관계하는 전경의 성분이 동일하다고 가정하면, 혼합 영역의 모든 화소에 대해 내분비(內分比)의 관계로부터 수학식 18이 성립한다.
수학식 18이 성립하면, 수학식 11은 수학식 19에 나타내는 바와 같이 전개할 수 있다.
마찬가지로, 수학식 18이 성립하면, 수학식 12는 수학식 20에 나타내는 바와 같이 전개할 수 있다.
수학식 19 및 수학식 20에 있어서 C, N 및 P는 이미 알고 있는 화소값이므로, 수학식 19 및 수학식 20에 포함되는 변수는 혼합비(α)뿐이다. 수학식 19 및 수학식 20에 있어서의 C, N 및 P의 관계를 도 45에 나타낸다. C는 혼합비(α)를 산출하는 프레임 (#n)이 주목하고 있는 화소의 화소값이다. N은 주목하고 있는 화소와 공간 방향의 위치가 대응하는 프레임 (#n+1)의 화소의 화소값이다. P는 주목하고 있는 화소와 공간 방향의 위치가 대응하는 프레임 (#n-1)의 화소의 화소값이다.
따라서, 수학식 19 및 수학식 20의 각각에 1개의 변수가 포함되게 되므로, 3개의 프레임의 화소의 화소값을 이용하여 혼합비(α)를 산출할 수 있다. 수학식 19 및 수학식 20을 풀이함으로써 정확한 혼합비(α)가 산출되기 위한 조건은, 혼합 영역에 관계하는 전경의 성분이 동일한, 즉 전경의 오브젝트가 정지하고 있을 때에 촬상된 전경의 화상 오브젝트에 있어서, 전경의 오브젝트의 움직임의 방향에 대응하는 화상 오브젝트의 경계에 위치하는 화소로서, 움직임량(v)의 2배의 수의 연속하는 화소의 화소값이 일정해야 하는 것이다.
이상과 같이 커버드 백그라운드 영역에 속하는 화소의 혼합비(α)는 수학식 21에 의해 산출되고, 언커버드 백그라운드 영역에 속하는 화소의 혼합비(α)는 수학식 22에 의해 산출된다.
도 46은 추정 혼합비 처리부(201)의 구성을 도시한 블록도이다. 프레임 메모리(221)는, 입력된 화상을 프레임 단위로 기억하고, 입력 화상으로서 입력되어 있는 프레임부터 1개 뒤의 프레임을 프레임 메모리(222) 및 혼합비 연산부(223)에 공급한다.
프레임 메모리(222)는, 입력된 화상을 프레임 단위로 기억하고, 프레임 메모리(221)로부터 공급되는 프레임부터 1개 뒤의 프레임을 혼합비 연산부(223)에 공급한다.
따라서, 입력 화상으로서 프레임 (#n+1)이 혼합비 연산부(223)에 입력되어 있을 때, 프레임 메모리(221)는 프레임 (#n)을 혼합비 연산부(223)에 공급하고, 프레임 메모리(222)는 프레임 (#n-1)을 혼합비 연산부(223)에 공급한다.
혼합비 연산부(223)는, 수학식 21에 나타낸 연산에 의해 프레임 (#n)이 주목하고 있는 화소의 화소값(C), 주목하고 있는 화소와 공간적 위치가 대응하는 프레임 (#n+1)의 화소의 화소값(N) 및 주목하고 있는 화소와 공간적 위치가 대응하는 프레임 (#n-1)의 화소의 화소값(P)를 기초로 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다. 예를 들면, 배경이 정지하고 있을 때, 혼합비 연산부(223)는 프레임 (#n)이 주목하고 있는 화소의 화소값(C), 주목하고 있는 화소와 프레임내의 위치가 동일한 프레임 (#n+1)의 화소의 화소값(N), 및 주목하고 있는 화소와 프레임내의 위차가 동일한 프레임 (#n-1)의 화소의 화소값(P)을 기초로 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
이와 같이 추정 혼합비 처리부(201)는, 입력 화상을 기초로 추정 혼합비를 산출하여 혼합비 결정부(203)에 공급할 수 있다.
그리고 추정 혼합비 처리부(202)는, 추정 혼합비 처리부(201)가 수학식 21에 나타낸 연산에 의해 주목하고 있는 화소의 추정 혼합비를 산출하는 것에 비해, 수학식 22에 나타낸 연산에 의해 주목하고 있는 화소의 추정 혼합비를 산출하는 부분이 다른 점을 제외하고는 추정 혼합비 처리부(201)와 동일하므로 그 설명은 생략한다.
도 47은, 추정 혼합비 처리부(201)에 의해 산출된 추정 혼합비의 예를 나타낸 도면이다. 도 47에 나타낸 추정 혼합비는, 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임량(v)이 11인 경우의 결과를 1라인에 대해 나타내는 것이다.
추정 혼합비는, 혼합 영역에 있어서 도 41에 나타낸 바와 같이 거의 직선적으로 변화하고 있음을 알 수 있다.
도 40으로 복귀하여 혼합비 결정부(203)는, 영역 특정부(103)로부터 공급된 혼합비(α)의 산출 대상이 되는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 기초로 혼합비(α)를 설정한다. 혼합비 결정부(203)는, 대상이 되는 화소가 전경 영역에 속하는 경우 0을 혼합비(α)로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우 1을 혼합비(α)로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(201)로부터 공급된 추정 혼합비를 혼합비(α)로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(202)로부터 공급된 추정 혼합비를 혼합비(α)로 설정한다. 혼합비 결정부(203)는, 영역 정보를 기초로 설정한 혼합비(α)를 출력한다.
도 48은 혼합비 산출부(104)의 다른 구성을 도시한 블록도이다. 선택부(231)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로 커버드 백그라운드 영역에 속하는 영역 및 이것에 대응하는 앞 및 뒤 프레임의 화소를 추정 혼합비 처리부(232)에 공급한다. 선택부(231)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로 언커버드 백그라운드 영역에 속하는 화소 및 이것에 대응하는 앞 및 뒤 프레임의 화소를 추정 혼합비 처리부(233)에 공급한다.
추정 혼합비 처리부(232)는, 선택부(231)로부터 입력된 화소값을 기초로 수학식 21에 나타내는 연산에 의해 커버드 백그라운드 영역에 속하는 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 선택부(234)에 공급한다.
추정 혼합비 처리부(233)는, 선택부(231)로부터 입력된 화소값을 기초로 수학식 22에 나타내는 연산에 의해 언커버드 백그라운드 영역에 속하는 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 선택부(234)에 공급한다.
선택부(234)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로 대상이 되는 화소가 전경 영역에 속하는 경우 0인 추정 혼합비를 선택하여 혼합비(α)로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우 1인 추정 혼합비를 선택하여 혼합비(α)로 설정한다. 선택부(234)는, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(232)로부터 공급된 추정 혼합비를 선택하여 혼합비(α)로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(233)로부터 공급된 추정 혼합비를 선택하여 혼합비(α)로 설정한다. 선택부(234)는 영역 정보를 기초로 선택하여 설정한 혼합비(α)를 출력한다.
이와 같이 도 48에 도시한 다른 구성을 갖는 혼합비 산출부(104)는, 화상이 포함되는 화소마다 혼합비(α)를 산출하고, 산출한 혼합비(α)를 출력할 수 있다.
도 49의 플로우차트를 참조하여 도 40에 구성을 도시한 혼합비 산출부(104)의 혼합비(α)의 산출 처리를 설명한다. 단계 S151에서, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보를 취득한다. 단계 S152에서, 추정 혼합비 처리부(201)는 커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하고, 산출한 추정 혼합비를 혼합비 결정부(203)에 공급한다. 혼합비 추정의 연산 처리의 상세는 도 50의 플로우차트를 참조하여 후술한다.
단계 S153에서, 추정 혼합비 처리부(202)는 언커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하고, 산출한 추정 혼합비를 혼합비 결정부(203)에 공급한다.
단계 S154에서, 혼합비 산출부(104)는 프레임 전체에 대해 혼합비(α)를 추정하였는지의 여부를 판정하고, 프레임 전체에 대해 혼합비(α)를 추정하고 있지 않다고 판정된 경우 단계 S152로 되돌아가고, 다음 화소에 대해 혼합비(α)를 추정하는 처리를 실행한다.
단계 S154에서, 프레임 전체에 대해 혼합비(α)를 추정하였다고 판정된 경우 단계 S155로 진행하고, 혼합비 결정부(203)는, 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역 중 어느 것에 속하는지를 나타내는 영역 특정부(103)로부터 공급된 영역 정보를 기초로 혼합비(α)를 설정한다. 혼합비 결정부(203)는, 대상이 되는 화소가 전경 영역에 속하는 경우 0을 혼합비(α)로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우 1을 혼합비(α)로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(201)로부터 공급된 추정 혼합비를 혼합비(α)로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(202)로부터 공급된 추정 혼합비를 혼합비(α)로 설정하고 처리는 종료한다.
이와 같이 혼합비 산출비(104)는, 영역 특정부(103)로부터 공급된 영역 정보 및 입력 화상을 기초로 각 화소에 대응하는 특징량인 혼합비(α)를 산출할 수 있다.
도 48에 구성을 도시한 혼합비 산출부(104)의 혼합비(α)의 산출 처리는, 도 49의 플로우차트에서 설명한 처리와 동일하므로 그 설명은 생략한다.
이어서, 도 49의 단계 S152에 대응하는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 50의 플로우차트를 참조하여 설명한다.
단계 S171에서, 혼합비 연산부(223)는 프레임 메모리(221)로부터 프레임 (#n)의 주목 화소의 화소값(C)을 취득한다.
단계 S172에서, 혼합비 연산부(223)는 프레임 메모리(222)로부터 주목 화소에 대응하는 프레임 (#n-1)의 화소의 화소값(P)을 취득한다.
단계 S173에서, 혼합비 연산부(223)는 입력 화상에 포함되는 주목 화소에 대응하는 프레임 (#n+1)의 화소의 화소값(N)을 취득한다.
단계 S174에서, 혼합비 연산부(223)는 프레임 (#n)의 주목 화소의 화소값(C), 프레임 (#n-1)의 화소의 화소값(P) 및 프레임 (#n+1)의 화소의 화소값(N)을 기초로 추정 혼합비를 연산한다.
단계 S175에서, 혼합비 연산부(223)는 프레임 전체에 대해 추정 혼합비를 연산하는 처리를 종료하였는지의 여부를 판정하고, 프레임 전체에 대해 추정 혼합비를 연산하는 처리를 종료하지 않았다고 판정된 경우, 단계 S171로 복귀하여 다음 화소에 대해 추정 혼합비를 산출하는 처리를 반복한다.
단계 S175에서, 프레임 전체에 대해 추정 혼합비를 연산하는 처리를 종료하였다고 판정된 경우, 처리는 종료한다.
이와 같이 추정 혼합비 처리부(201)는, 입력 화상을 기초로 추정 혼합비를 연산할 수 있다.
도 49의 단계 S153에 있어서의 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 식을 이용한 도 50의 플로우차트에 나타낸 처리와 동일하므로 그 설명은 생략한다.
그리고, 도 48에 도시한 추정 혼합비 처리부(232) 및 추정 혼합비 처리부(233)는, 도 50에 나타낸 플로우차트와 동일한 처리를 실행하여 추정 혼합비를 연산하므로 그 설명은 생략한다.
또한, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였으나, 배경 영역에 대응하는 화상이 움직임을 포함하고 있어도 상기 기술한 혼합비(α)를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 일정하게 움직이고 있을 때, 추정 혼합비 처리부(201)는 배경의 움직임에 대응하여 화상 전체를 시프트시키고, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한 배경 영역이 대응하는 화상이 국소마다 다른 배경의 움직임을 포함하고 있을 때, 추정 혼합비 처리부(201)는 혼합 영역에 속하는 화소에 대응하는 화소로서, 배경의 움직임에 대응한 화소를 선택하여 상기 기술한 처리를 실행한다.
그리고, 도 40 또는 도 48에 도시한 혼합비 산출부(104)의 구성은 일례이다.
또한, 혼합비 산출부(104)는 모든 화소에 대해 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여 산출된 추정 혼합비를 혼합비(α)로서 출력하도록 해도 된다. 이 경우에 있어서, 혼합비(α)는 커버드 백그라운드 영역에 속하는 화소에 대해 배경의 성분 비율을 나타내고, 언커버드 백그라운드 영역에 속하는 화소에 대해 전경의 성분 비율을 나타낸다. 언커버드 백그라운드 영역에 속하는 화소에 대해, 이와 같이 산출된 혼합비(α)와 1의 차분의 절대값을 산출하고, 산출한 절대값을 혼합비(α)로 설정하면, 신호 처리부(12)는 언커버드 백그라운드 영역에 속하는 화소에 대해 배경의 성분 비율을 나타내는 혼합비(α)를 구할 수 있다.
그리고 마찬가지로 혼합비 산출부(104)는, 모든 화소에 대해 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여 산출된 추정 혼합비를 혼합비(α)로서 출력하도록 해도 된다.
이어서, 전경 배경 분리부(105)에 대해 설명한다. 도 51은, 전경 배경 분리부(105)의 구성을 일례를 도시한 블록도이다. 전경 배경 분리부(105)에 공급된 입력 화상은 분리부(251), 스위치(252) 및 스위치(254)에 공급된다. 커버드 백그라운드 영역을 나타내는 정보 및 언커버드 백그라운드 영역을 나타내는 영역 특정부(103)로부터 공급된 영역 정보는 분리부(251)에 공급된다. 전경 영역을 나타내는 영역 정보는 스위치(252)에 공급된다. 배경 영역을 나타내는 영역 정보는 스위치(254)에 공급된다.
혼합비 산출부(104)로부터 공급된 혼합비(α)는 분리부(251)에 공급된다.
분리부(251)는, 커버드 백그라운드 영역을 나타내는 영역 정보, 언커버드 백그라운드 영역을 나타내는 영역 정보 및 혼합비(α)를 기초로, 입력 정보에서 전경의 성분을 분리하고, 분리한 전경의 성분을 합성부(253)에 공급함과 동시에, 입력 화상에서 배경의 성분을 분리하고, 분리한 배경의 성분을 합성부(255)에 공급한다.
스위치(252)는, 전경 영역을 나타내는 영역 정보를 기초로 전경에 대응하는 화소가 입력되었을 때에 닫히고, 입력 화상에 포함되는 전경에 대응하는 화소만을 합성부(253)에 공급한다.
스위치(254)는, 배경 영역을 나타내는 영역 정보를 기초로 배경에 대응하는 화소가 입력되었을 때에 닫히고, 입력 화상에 포함되는 배경에 대응하는 화소만을 합성부(255)에 공급한다.
합성부(253)는, 분리부(251)로부터 공급된 전경에 대응하는 성분, 스위치(252)로부터 공급된 전경에 대응하는 화소를 기초로 전경 성분 화상을 합성하고, 합성한 전경 성분 화상을 출력한다. 전경 영역과 혼합 영역은 중복하지 않기 때문에, 합성부(253)는 예를 들면 전경에 대응하는 성분과 전경에 대응하는 화소에 논리합의 연산을 적용하여 전경 성분 화상을 합성한다.
합성부(253)는, 전경 성분 화상의 합성 처리가 최초로 실행되는 초기화의 처리에 있어서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 격납하고, 전경 성분 화상의 합성 처리에 있어서, 전경 성분 화상을 격납(상서)한다. 따라서, 합성부(253)가 출력하는 전경 성분 화상 중 배경 영역에 대응하는 화소에는 화소값으로서 0이 격납되어 있다.
합성부(255)는, 분리부(251)로부터 공급된 배경에 대응하는 성분, 스위치(254)로부터 공급된 배경에 대응하는 화소를 기초로 배경 성분 화상을 합성하고, 합성한 배경 성분 화상을 출력한다. 배경 영역과 혼합 영역은 중복하지 않기 때문에, 합성부(255)는 예를 들면 배경에 대응하는 성분과 배경에 대응하는 화소에 논리합의 연산을 적용하여 배경 성분 화상을 합성한다.
합성부(255)는, 배경 성분 화상의 합성 처리가 최초로 실행되는 초기화의 처리에 있어서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 격납하고, 배경 성분 화상의 합성 처리에 있어서, 배경 성분 화상을 격납(상서)한다. 따라서, 합성부(255)가 출력하는 배경 성분 화상 중 전경 영역에 대응하는 화소에는 화소값으로서 0이 격납되어 있다.
도 52a는 표시되는 화상의 모식도이고, 도 52b는 도 52a에 대응하는 전경 영역에 속하는 화소, 배경 영역에 속하는 화소 및 혼합 영역에 속하는 화소를 포함하는 1라인의 화소를 시간 방향으로 전개한 모델도를 나타낸다.
도 52a 및 도 52b에 도시한 바와 같이, 전경 배경 분리부(105)에서 출력되는 배경 성분 화상은, 배경 영역에 속하는 화소 및 혼합 영역의 화소에 포함되는 배경 성분으로 구성된다.
도 52a 및 도 52b에 도시한 바와 같이, 전경 배경 분리부(105)에서 출력되는 전경 성분 화상은, 전경 영역에 속하는 화소 및 혼합 영역의 화소에 포함되는 전경 성분으로 구성된다.
혼합 영역의 화소의 화소값은, 전경 배경 분리부(105)에 의해 배경의 성분과 전경의 성분으로 분리된다. 분리된 배경의 성분은, 배경 영역에 속하는 화소와 함께 배경 성분 화상을 구성한다. 분리된 전경의 성분은, 전경 영역에 속하는 화소와 함께 전경 성분 화상을 구성한다.
이와 같이 전경 성분 화상은, 배경 영역에 대응하는 화소의 화소값이 0이 되고, 전경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미 있는 화소값이 설정된다. 마찬가지로 배경 성분 화상은, 전경 영역에 대응하는 화소의 화소값이 0이 되고, 배경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미 있는 화소값이 설정된다.
이어서 분리부(251)가 실행하는, 혼합 영역에 속하는 화소에서 전경의 성분 및 배경의 성분을 분리하는 처리에 대해 설명한다.
도 53은, 도면중의 왼쪽에서 오른쪽으로 이동하는 오브젝트에 대응하는 전경을 포함하는 2개의 프레임의 전경의 성분 및 배경의 성분을 나타내는 화상의 모델이다. 도 53에 나타낸 화상의 모델에 있어서, 전경의 움직임량(v)은 4이고 가상 분할수는 4로 되어 있다.
프레임 (#n)에 있어서, 가장 왼쪽 화소 및 왼쪽에서 14번째 내지 18번째 화소는 배경 성분만으로 이루어지며 배경 영역에 속한다. 프레임 (#n)에 있어서, 왼쪽에서 2번째 내지 4번째 화소는 배경의 성분 및 전경의 성분을 포함하며 언커버드 백그라운드 영역에 속한다. 프레임 (#n)에 있어서, 왼쪽에서 11번째 내지 13번째 화소는 배경의 성분 및 전경의 성분을 포함하며 커버드 백그라운드 영역에 속한다. 프레임 (#n)에 있어서, 왼쪽에서 5번째 내지 10번째 화소는 전경의 성분으로 이루어지며 전경 영역에 속한다.
프레임 (#n+1)에 있어서, 왼쪽에서 1번째 내지 5번째의 화소 및 왼쪽에서 18번째 화소는 배경 성분만으로 이루어지며 배경 영역에 속한다. 프레임 (#n+1)에 있어서, 왼쪽에서 6번째 내지 8번째 화소는 배경의 성분 및 전경의 성분을 포함하며 언커버드 백그라운드 영역에 속한다. 프레임 (#n+1)에 있어서, 왼쪽에서 15번째 내지 17번째 화소는 배경의 성분 및 전경의 성분을 포함하며 커버드 백그라운드 영역에 속한다. 프레임 (#n+1)에 있어서, 왼쪽에서 9번째 내지 14번째 화소는 전경의 성분으로 이루어지며 전경 영역에 속한다.
도 54는, 커버드 백그라운드 영역에 속하는 화소로부터 전경의 성분을 분리하는 처리를 설명하는 도면이다. 도 54에 있어서, α1 내지 α18은 프레임 (#n)에 있어서의 화소의 각각에 대응하는 혼합비이다. 도 54에 있어서, 왼쪽에서 15번째 내지 17번째 화소는 커버드 백그라운드 영역에 속한다.
프레임 (#n)의 왼쪽에서 15번째 화소의 화소값(C15)은 수학식 23으로 나타낸다.
여기에서, α15는 프레임 (#n)의 왼쪽에서 15번째 화소의 혼합비이다. P15는 프레임 (#n-1)의 왼쪽에서 15번째 화소의 화소값이다.
수학식 23을 기초로, 프레임 (#n)의 왼쪽에서 15번째 화소의 전경 성분의 합(f15)은 수학식 24로 나타낸다.
마찬가지로, 프레임 (#n)의 왼쪽에서 16번째 화소의 전경 성분의 합(f16)은, 수학식 25로 표현되고, 프레임 (#n)의 왼쪽에서 17번째 화소의 전경 성분의 합(f17)은 수학식 26으로 나타낸다.
이와 같이, 커버드 백그라운드 영역에 속하는 화소의 화소값(C)에 포함되는 전경의 성분(fc)은 수학식 27로 계산된다.
P는 1개 전의 프레임의 대응하는 화소의 화소값이다.
도 55는, 언커버드 백그라운드 영역에 속하는 화소에서 전경의 성분을 분리하는 처리를 설명하는 도면이다. 도 55에 있어서, α1 내지 α18은 프레임 (#n)에 있어서의 화소의 각각에 대응하는 혼합비이다. 도 55에 있어서, 왼쪽에서 2번째 내지 4번째 화소는 언커버드 백그라운드 영역에 속한다.
프레임 (#n)의 왼쪽에서 2번째 화소의 화소값(C02)은 수학식 28로 나타낸다.
여기에서, α2는 프레임 (#n)의 왼쪽에서 2번째 화소의 혼합비이다. N02는 프레임 (#n+1)의 왼쪽에서 2번째 화소의 화소값이다.
수학식 28을 기초로 프레임 (#n)의 왼쪽에서 2번째 화소의 전경 성분의 합(f02)은 수학식 29로 나타낸다.
마찬가지로, 프레임 (#n)의 왼쪽에서 3번째 화소의 전경 성분의 합(f03)은 수학식 30으로 표현되고, 프레임 (#n)의 왼쪽에서 4번째 화소의 전경 성분의 합(f04)은 수학식 31로 나타낸다.
이와 같이, 언커버드 백그라운드 영역에 속하는 화소의 화소값(C)에 포함되는 전경의 성분(fu)은 수학식 32로 계산된다.
N은 1개 후의 프레임의, 대응하는 화소의 화소값이다.
이와 같이 분리부(251)는, 영역 정보에 포함되는 커버드 백그라운드 영역을 나타내는 정보 및 언커버드 백그라운드 영역를 나타내는 정보, 그리고 화소마다의 혼합비(α)를 기초로 혼합 영역에 속하는 화소에서 전경의 성분 및 배경의 성분을 분리할 수 있다.
도 56은, 이상에서 설명한 처리를 실행하는 분리부(251)의 구성의 일례를 도시한 블록도이다. 분리부(251)에 입력된 화상은 프레임 메모리(301)에 공급되고, 혼합비 산출부(104)로부터 공급된 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보 그리고 혼합비(α)는 분리 처리 블록(302)에 입력된다.
프레임 메모리(301)는, 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(301)는, 처리 대상이 프레임 (#n)일 때, 프레임 (#n)의 1개 전 프레임인 프레임 (#n-1), 프레임 (#n) 및 프레임 (#n+1)의 1개 후 프레임인 프레임 (#n+1)을 기억한다.
프레임 메모리(301)는, 프레임 (#n-1), 프레임 (#n) 및 프레임 (#n+1)의 대응하는 화소를 분리 처리 블록(302)에 공급한다.
분리 처리 블록(302)은, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 그리고 혼합비(α)를 기초로, 프레임 메모리(301)로부터공급된 프레임 (#n-1), 프레임 (#n) 및 프레임 (#n+1)의 대응하는 화소의 화소값에 도 54 및 도 55를 참조하여 설명한 연산을 적용하여 프레임 (#n)의 혼합 영역에 속하는 화소에서 전경의 성분 및 배경의 성분을 분리하여 프레임 메모리(303)에 공급한다.
분리 처리 블록(302)은, 언커버드 영역 처리부(311), 커버드 영역 처리부(312), 합성부(313) 및 합성부(314)로 구성되어 있다.
언커버드 영역 처리부(311)의 승산기(321)는, 혼합비(α)를 프레임 메모리(301)로부터 공급된 프레임 (#n+1)의 화소의 화소값에 곱하여 스위치(322)로 출력한다. 스위치(322)는, 프레임 메모리(301)로부터 공급된 프레임 (#n)의 화소(프레임 (#n+1)의 화소에 대응함)가 언커버드 백그라운드 영역일 때에 닫히고, 승산기(321)로부터 공급된 혼합비(α)를 곱한 화소값을 연산기(322) 및 합성부(314)에 공급한다. 스위치(322)에서 출력되는 프레임 (#n+1)의 화소의 화소값에 혼합비(α)를 곱한 값은, 프레임 (#n)의 대응하는 화소의 화소값의 배경의 성분과 동일하다.
연산기(322)는, 프레임 메모리(301)로부터 공급된 프레임 (#n)의 화소의 화소값에서, 스위치(322)로부터 공급된 배경의 성분을 감산하여 전경의 성분을 구한다. 연산기(323)는, 언커버드 백그라운드 영역에 속하는 프레임 (#n)의 화소의 전경 성분을 합성부(313)에 공급한다.
커버드 영역 처리부(312)의 승산기(331)는, 혼합비(α)를 프레임 메모리(301)로부터 공급된 프레임 (#n-1)의 화소의 화소값에 곱하여 스위치(332)로출력한다. 스위치(332)는, 프레임 메모리(301)로부터 공급된 프레임 (#n)의 화소(프레임 (#n-1)의 화소에 대응함)가 커버드 백그라운드 영역일 때에 닫히고, 승산기(331)로부터 공급된 혼합비(α)를 곱한 화소값을 연산기(333) 및 합성부(314)에 공급한다. 스위치(332)에서 출력되는 프레임 (#n-1)의 화소의 화소값에 혼합비(α)를 곱한 값은, 프레임 (#n)의 대응하는 화소의 화소값의 배경의 성분과 동일하다.
연산기(333)는, 프레임 메모리(301)로부터 공급된 프레임 (#n)의 화소의 화소값으로부터, 스위치(332)로부터 공급된 배경의 성분을 감산하여 전경의 성분을 구한다. 연산기(333)는, 커버드 백그라운드 영역에 속하는 프레임 (#n)의 화소의 전경 성분을 합성부(313)에 공급한다.
합성부(313)는, 프레임 (#n)의 연산기(323)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 전경 성분 및 연산기(333)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성하여 프레임 메모리(303)에 공급한다.
합성부(314)는, 프레임 (#n)의 스위치(322)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 배경 성분 및 스위치(332)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성하여 프레임 메모리(303)에 공급한다.
프레임 메모리(303)는, 분리 처리 블록(302)으로부터 공급된 프레임 (#n)의 혼합 영역의 화소의 전경 성분과 배경 성분을 각각에 기억한다.
프레임 메모리(303)는, 기억하고 있는 프레임 (#n)의 혼합 영역의 화소의 전경 성분 및 기억하고 있는 프레임 (#n)의 혼합 영역의 배경 성분을 출력한다.
특징량인 혼합비(α)를 이용함으로써, 화소값에 포함되는 전경의 성분과 배경의 성분을 완전히 분리할 수 있게 된다.
합성부(253)는, 분리부(251)에서 출력된 프레임 (#n)의 혼합 영역의 화소의 전경 성분과 전경 영역에 속하는 화소를 합성하여 전경 성분 화상을 생성한다. 합성부(255)는, 분리부(251)에서 출력된 프레임 (#n)의 혼합 영역의 화소의 배경 성분과 배경 영역에 속하는 화소를 합성하여 배경 성분 화상을 생성한다.
도 57a는, 도 53의 프레임 (#n)에 대응하는 전경 성분 화상의 예를 나타낸 도면이다. 도 57b는, 도 53의 프레임 (#n)에 대응하는 배경 성분 화상의 예를 나타낸 도면이다.
도 57a는, 도 53의 프레임 (#n)에 대응하는 전경 성분 화상의 예를 나타낸다. 가장 왼쪽 화소 및 왼쪽에서 14번째 화소는, 전경과 배경이 분리되기 전에 배경의 성분만으로 이루어져 있었기 때문에 화소값이 0이 된다.
왼쪽에서 2번째 내지 4번째의 화소는, 전경과 배경이 분리되기 전에 언커버드 백그라운드 영역에 속하고, 배경의 성분이 0이 되고, 전경의 성분이 그대로 남아 있다. 왼쪽에서 11번째 내지 13번째 화소는, 전경과 배경이 분리되기 전에 커버드 백그라운드 영역에 속하고, 배경의 성분이 0이 되고, 전경의 성분이 그대로 남아 있다. 왼쪽에서 5번째 내지 10번재 화소는, 전경의 성분만으로 이루어지기 때문에 그대로 남는다.
도 57b는, 도 53의 프레임 (#n)에 대응하는 배경 성분 화상의 예를 나타낸다. 가장 왼쪽 화상 및 왼쪽에서 14번째 화소는, 전경과 배경이 분리되기 전에 배경의 성분만으로 이루어져 있었기 때문에 그대로 남는다.
왼쪽에서 2번째 내지 4번째의 화소는, 전경과 배경이 분리되기 전에 언커버드 백그라운드 영역에 속하고, 전경의 성분이 0이 되고, 배경의 성분이 그대로 남아 있다. 왼쪽에서 11번째 내지 13번째의 화소는, 전경과 배경이 분리되기 전에 커버드 백그라운드 영역에 속하고, 전경의 성분이 0이 되고, 배경의 성분이 그대로 남아 있다. 왼쪽에서 5번째 내지 10번째의 화소는, 전경과 배경이 분리되기 전에 전경의 성분만으로 이루어져 있었기 때문에 화소값이 0이 된다.
이어서, 도 58에 나타낸 플로우차트를 참조하여 전경 배경 분리부(105)에 의해 전경과 배경의 분리 처리를 설명한다. 단계 S201에서 분리부(251)의 프레임 메모리(301)는, 입력 화상을 취득하고, 전경과 배경의 분리 대상이 되는 프레임 (#n)을 그 전의 프레임 (#n-1) 및 그 후의 프레임 (#n+1)과 함께 기억한다.
단계 S202에서, 분리부(251)의 분리 처리 블록(302)은, 혼합비 산출부(104)로부터 공급된 영역 정보를 취득한다. 단계 S203에서, 분리부(251)의 분리 처리 블록(302)은 혼합비 산출부(104)로부터 공급된 혼합비(α)를 취득한다.
단계 S204에서, 언커버드 영역 처리부(311)는 영역 정보 및 혼합비(α)를 기초로 프레임 메모리(301)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 화소값에서 배경의 성분을 추출한다.
단계 S205에서, 언커버드 영역 처리부(311)는 영역 정보 및 혼합비(α)를 기초로 프레임 메모리(301)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 화소값에서 전경의 성분을 추출한다.
단계 S206에서, 커버드 영역 처리부(312)는 영역 정보 및 혼합비(α)를 기초로 프레임 메모리(301)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 화소값에서 배경의 성분을 추출한다.
단계 S207에서, 커버드 영역 처리부(312)는 영역 정보 및 혼합비(α)를 기초로 프레임 메모리(301)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 화소값에서 전경의 성분을 추출한다.
단계 S208에서, 합성부(313)는, 단계 S205의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 전경 성분과, 단계 S207의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성한다. 합성된 전경의 성분은 합성부(253)에 공급된다. 또한 합성부(253)는, 스위치(252)를 통해 공급된 전경 영역에 속하는 화소와 분리부(251)로부터 공급된 전경의 성분을 합성하여 전경 성분 화상을 생성한다.
단계 S209에서, 합성부(314)는 단계 S204의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 배경 성분과, 단계 S206의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성한다. 합성된 배경의 성분은 합성부(255)에 공급된다. 또한 합성부(255)는, 스위치(254)를 통해 공급된 배경 영역에 속하는 화소와 분리부(251)로부터 공급된 배경의 성분을 합성하여 배경 성분 화상을 생성한다.
단계 S201에서, 합성부(253)는 전경 성분 화상을 출력한다. 단계 S211에서, 합성부(255)는 배경 성분 화상을 출력하고 처리는 종료한다.
이와 같이 전경 배경 분리부(105)는, 영역 정보 및 혼합비(α)를 기초로 입력 화상으로부터 전경의 성분과 배경의 성분을 분리하고, 전경의 성분만으로 이루어진 전경 성분 화상 및 배경의 성분만으로 이루어진 배경 성분 화상을 출력할 수 있다.
이어서, 전경 성분 화상으로부터의 흔들림의 양의 조정에 대해 설명한다.
도 59는 흔들림 조정부(106)의 구성의 일례를 도시한 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보 및 영역 특정부(103)로부터 공급된 영역 정보는, 처리 단위 결정부(351) 및 모델화부(352)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 대입부(354)에 공급된다.
처리 단위 결정부(351)는, 움직임 벡터와 그 위치 정보 및 영역 정보를 기초로 움직임 벡터와 함께 생성된 처리 단위를 모델화부(352)에 공급한다. 처리 단위 결정부(351)는, 생성된 처리 단위를 대입부(354)에 공급한다.
도 60의 A로 표시한 바와 같이, 예를 들면 처리 단위 결정부(351)가 생성하는 처리 단위는, 전경 성분 화상의 커버드 백그라운드 영역에 대응하는 화소부터 시작되어 언커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 늘어선 연속하는 화소, 또는 언커버드 백그라운드 영역에 대응하는 화소부터 시작되어 커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 늘어선 연속하는 화소를 나타낸다. 처리 단위는, 예를 들면 좌상점(처리 단위로 지정된 화소로서, 화상상에서 가장 왼쪽 또는 가장 위쪽에 위치하는 화소의 위치) 및 우하점 2개의 데이터로 이루어진다.
모델화부(352)는, 움직임 벡터 및 입력된 처리 단위를 기초로 모델화를 실행한다. 보다 구체적으로는, 예를 들면 모델화부(352)는 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할수 및 화소마다의 전경의 성분의 수에 대응하는 복수의 모델을 미리 기억해 두고, 처리 단위 및 화소값의 시간 방향의 가상 분할수를 기초로, 도 61에 나타낸 바와 같은 화소값과 전경의 성분의 대응을 지정하는 모델을 선택하도록 해도 된다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 움직임량(v)이 5일 때에는, 모델화부(352)는 가상 분할수를 5로 하고, 가장 왼쪽에 위치하는 화소가 1개의 전경 성분을 포함하고, 왼쪽에서 2번째 화소가 2개의 전경 성분을 포함하고, 왼쪽에서 3번째 화소가 3개의 전경 성분을 포함하고, 왼쪽에서 4번째 화소가 4개의 전경 성분을 포함하고, 왼쪽에서 5번째 화소가 5개의 전경 성분을 포함하고, 왼쪽에서 6번째 화소가 5개의 전경 성분을 포함하고, 왼쪽에서 7번째 화소가 5개의 전경 성분을 포함하고, 왼쪽에서 8번째 화소가 5개의 전경 성분을 포함하고, 왼쪽에서 9번째 화소가 4개의 전경 성분을 포함하고, 왼쪽에서 10번째 화소가 3개의 전경 성분을 포함하고, 왼쪽에서 11번째 화소가 2개의 전경 성분을 포함하고, 왼쪽에서 12번째 화소가 1개의 전경 성분을 포함하여 전체적으로 8개의 전경의 성분으로 이루어진 모델을 선택한다.
그리고 모델화부(352)는, 미리 기억되어 있는 모델로부터 선택하는 것이 아니라, 움직임 벡터 및 처리 단위가 공급되었을 때, 움직임 벡터 및 처리 단위를 기초로 모델을 생성하도록 해도 된다.
모델화부(352)는 선택한 모델을 방정식 생성부(353)에 공급한다.
방정식 생성부(353)는, 모델화부(352)로부터 공급된 모델을 기초로 방정식을 생성한다. 도 61에 나타낸 전경 성분 화상의 모델을 참조하여 전경 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량(v)이 5이고, 가상 분할수가 5일 때의 방정식 생성부(353)이 생성하는 방정식에 대해 설명한다.
전경 성분 화상에 포함되는 셔터 시간(/v)에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소값(C01 내지 C12)의 관계는 수학식 33 내지 수학식 44로 나타낸다.
방정식 생성부(353)는, 생성된 방정식을 변형하여 방정식을 생성한다. 방정식 생성부(353)가 생성하는 방정식을 수학식 45 내지 수학식 56에 나타낸다.
수학식 45 내지 수학식 56은 수학식 57로서 나타낼 수도 있다.
수학식 57에 있어서, j는 화소의 단위를 나타낸다. 이 예에 있어서, j는 1 내지 12 중 어느 하나의 값을 갖는다. 또한, i는 전경치의 위치를 나타낸다. 이 예에 있어서, i는 1 내지 8 중 어느 하나의 값을 갖는다. aij는 i 및 j의 값에 대응하여 0 또는 1의 값을 갖는다.
오차를 고려하여 나타내면, 수학식 57은 수학식 58과 같이 나타낼 수 있다.
수학식 58에 있어서, ej는 주목 화소(Cj)에 포함되는 오차이다.
수학식 58은 수학식 59로 다시 표현할 수 있다.
여기서, 최소자승법을 적용하기 위해, 오차의 자승합(E)을 수학식 60에 나타내는 바와 같이 정의한다.
오차가 최소로 되기 위해서는, 오차의 제곱합(E)에 대한 변수(Fk)에 의한 편차분의 값이 0이 되면 된다. 수학식 61을 만족하도록 Fk를 구한다.
수학식 61에 있어서 움직임량(v)은 고정치이기 때문에, 수학식 62를 유도할 수 있다.
수학식 62를 전개하여 이항하면, 수학식 63을 얻는다.
수학식 63의 k에 1 내지 8의 정수 중 어느 하나를 대입하여 얻어지는 8개의 식으로 전개한다. 얻어진 8개의 식을 행열에 의해 1개의 식으로 나타낼 수 있다. 이 식을 정규 방정식이라 부른다.
이와 같은 최소자승법에 기초한 방정식 생성부(353)가 생성하는 정규 방정식의 예를 수학식 64에 나타낸다.
수학식 64를 A·F=v·C라 나타내면, C, A, v가 이미 알고 있는 값이고 F는 미지이다. 또한, A, v는 모델화의 시점에서 이미 알고 있는 값이지만, C는 보충동작에 있어서 화소값을 입력함으로써 미리 알고 있는 값이 된다.
최소자승법에 기초한 정규 방정식에 의해 전경 성분을 산출함으로써, 화소(C)에 포함되어 있는 오차를 분산시킬 수 있다.
방정식 생성부(353)는, 이와 같이 생성된 정규 방정식을 대입부(354)에 공급한다.
대입부(354)는, 처리 단위 결정부(351)로부터 공급된 처리 단위를 기초로, 전경 성분 화상에 포함되는 화소값(C)을 방정식 생성부(353)로부터부터 공급된 행열의 식으로 설정한다. 대입부(354)는 화소값(C)을 설정한 행열을 연산부(353)에 공급한다.
연산부(355)는, 가우스-졸단(Gauss-Jordan)의 소거법 등의 해법에 기초한 처리에 의해 흔들림이 제거된 전경 성분(Fi/v)을 산출하고, 흔들림이 제거된 전경의 화소값인 0 내지 8의 정수 중 어느 하나의 i에 대응하는 Fi를 산출하여 도 62에 예를 나타낸 흔들림이 제거된 화소값인 Fi로 이루어진 흔들림이 제거된 전경 성분 화상을 흔들림 부가부(356) 및 선택부(357)에 출력한다.
그리고, 도 62에 나타낸 흔들림이 제거된 전경 성분 화상에 있어서, C03 내지 C10의 각각에 F01 내지 F08의 각각이 설정되어 있는 것은 화면에 대한 전경 성분 화상의 위치를 변화시키지 않기 위함이고, 임의의 위치에 대응시킬 수 있다.
흔들림 부가부(356)는, 움직임량(v)과는 다른 값의 흔들림 조정량(v'), 예를 들면 움직임량(v)의 절반의 값의 흔들림 조정량(v'), 움직임량(v)과 관계가 없는 값의 흔들림 조정량(v')으로 흔들림의 양을 조정할 수 있다. 예를 들면, 도 63에나타낸 바와 같이 흔들림 부가부(356)는 흔들림이 제거된 전경의 화소값(Fi)을 흔들림 조정량(v')으로 나눔으로써 전경 성분(Fi/v')을 산출하고, 전경 성분(Fi/v')의 합을 산출하여 흔들림의 양이 조정된 화소값을 생성한다. 예를 들면 흔들림 조정량(v')이 3일 때, 화소값(C02)은 (F01)/v'가 되고, 화소값(C03)은 (F01+F02)/v'가 되고, 화소값(C04)은 (F01+F02+F03)/v'가 되고, 화소값(C05)은 (F02+F03+F04)/v'가 된다.
흔들림 부가부(356)는 흔들림의 양을 조정한 전경 성분 화상을 선택부(357)에 공급한다.
선택부(357)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로 연산부(355)로부터 공급된 흔들림이 제거된 전경 성분 화상 및 흔들림 부가부(356)로부터 공급된 흔들림의 양이 조정된 전경 성분 화상 중 어느 하나를 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이 흔들림 조정부(106)는, 선택 신호 및 흔들림 조정량(v')을 기초로 흔들림의 양을 조정할 수 있다.
또한, 예를 들면 도 64에 나타낸 바와 같이 처리 단위에 대응하는 화소의 수가 8이고, 움직임량(v)이 4일 때, 흔들림 조정부(106)는 수학식 65로 나타내는 행열의 식을 생성한다.
흔들림 조정부(106)는, 이와 같이 처리 단위의 길이에 대응한 수식을 세워 흔들림의 양이 조정된 화소값이 Fi를 산출한다. 마찬가지로 예를 들면 처리 단위에 포함되는 화소의 수가 100일 때, 100개의 화소에 대응하는 식을 생성하여 Fi를 산출한다.
도 65는 흔들림 조정부(106)의 다른 구성을 도시한 도면이다. 도 59에 도시한 경우와 동일한 부분에는 동일한 번호를 붙이며 그 설명은 생략한다.
선택부(361)는, 선택 신호를 기초로 입력된 움직임 벡터와 그 위치 신호를 그대로 처리 단위 결정부(351) 및 모델화부(352)에 공급하거나 또는 움직임 벡터의 크기를 흔들림 조정량(v')으로 치환하여 그 크기가 흔들림 조정량(v')으로 치환된 움직임 벡터와 그 위치 신호를 처리 단위 결정부(351) 및 모델화부(352)에 공급한다.
이와 같이 함으로써, 도 65의 흔들림 조정부(106)의 처리 단위 결정부(351) 내지 연산부(355)는, 움직임량(v)과 흔들림 조정량(v')의 값에 대응하여 흔들림의 양을 조정할 수 있다. 예를 들면, 움직임량(v)이 5이고, 흔들림 조정량(v')이 3일 때, 도 65의 흔들림 조정부(106)의 처리 단위 결정부(351) 내지 연산부(355)는, 도61에 나타낸 움직임량(v)이 5인 전경 성분 화상에 대해 3인 흔들림 조정량(v')에 대응하는 도 63에 나타낸 바와 같은 모델에 따라 연산을 실행하여, (움직임량(v))/(흔들림 조정량(v'))=5/3, 즉 대략 1.7의 움직임량(v)에 따른 흔들림을 포함하는 화상을 산출한다. 그리고, 이 경우 산출되는 화상은 3인 움직임량(v)에 대응한 흔들림을 포함하는 것은 아니다.
이상과 같이, 흔들림 조정부(106)는 움직임량(v) 및 처리 단위에 대응하여 식을 생성하고, 생성한 식에 전경 성분 화상의 화소값을 설정하여 흔들림의 양이 조정된 전경 성분 화상을 산출한다.
이어서, 도 66의 플로우차트를 참조하여 흔들림 조정부(106)에 의한 전경 성분 화상에 포함되는 흔들림의 양의 조정 처리를 설명한다.
단계 S251에서, 흔들림 조정부(106)의 처리 단위 결정부(351)는, 움직임 벡터 및 영역 정보를 기초로 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(352)에 공급한다.
단계 S252에서, 흔들림 조정부(106)의 모델화부(352)는, 움직임량(v) 및 처리 단위에 대응하여 모델의 선택이나 생성을 행한다. 단계 S253에서, 방정식 생성부(353)는 선택된 모델을 기초로 정규 방정식을 작성한다.
단계 S254에서, 대입부(354)는 작성된 정규 방정식에 전경 성분 화상의 화소값을 설정한다. 단계 S255에서, 대입부(354)는 처리 단위에 대응하는 모든 화소의 화소값을 설정하였는지의 여부를 판정하고, 처리 단위에 대응하는 모든 화소의 화소값을 설정하지 않았다고 판정된 경우, 단계 S254로 복귀하여 정규 방정식으로의화소값의 설정 처리를 반복한다.
단계 S255에서, 처리 단위의 모든 화소의 화소값을 설정하였다고 판정된 경우 단계 S256으로 진행하고, 연산부(355)는 대입부(354)로부터 공급된 화소값이 설정된 정규 방정식을 기초로 흔들림의 양을 조정한 전경의 화소값을 산출하고 처리는 종료한다.
이와 같이 흔들림 조정부(106)는, 움직임 벡터 및 영역 정보를 기초로 흔들림을 포함하는 전경 화상에서 흔들림의 양을 조정할 수 있다.
즉, 샘플 데이터인 화소값에 포함되는 흔들림의 양을 조정할 수 있다.
그리고, 도 59에 도시한 흔들림 조정부(106)의 구성은 일례이며 유일한 구성은 아니다.
이상과 같이 도 4에 구성을 도시한 신호 처리부(12)는, 입력 화상에 포함되는 흔들림의 양을 조정할 수 있다. 도 4에 구성을 도시한 신호 처리부(13)는, 파묻힌 정보인 혼합비(α)를 산출하고, 산출한 혼합비(α)를 출력할 수 있다.
도 67은 신호 처리부(12)의 기능의 다른 구성을 도시한 블록도이다.
도 4에 도시한 부분과 동일한 부분에는 동일한 번호를 붙이며 그 설명은 적절히 생략한다.
영역 특정부(103)는, 영역 정보를 혼합비 산출부(104) 및 합성부(371)에 공급한다.
혼합비 산출부(104)는, 혼합비(α)를 전경 배경 분리부(105) 및 합성부(371)에 공급한다.
전경 배경 분리부(105)는, 전경 성분 화상을 합성부(371)에 공급한다.
합성부(371)는, 혼합비 산출부(104)로부터 공급된 혼합비(α), 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 임의의 배경 화상과 전경 배경 분리부(105)로부터 공급된 전경 성분 화상을 합성하여 임의의 배경 화상과 전경 성분 화상이 합성된 합성 화상을 출력한다.
도 68은 합성부(371)의 구성을 도시한 도면이다. 배경 성분 생성부(381)는 혼합비(α) 및 임의의 배경 화상을 기초로 배경 성분 화상을 생성하여 혼합 영역 화상 합성부(382)에 공급한다.
혼합 영역 화상 합성부(382)는, 배경 성분 생성부(381)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써 혼합 영역 합성 화상을 생성하고, 생성한 혼합 영역 합성 화상을 화상 합성부(383)에 공급한다.
화상 합성부(383)는, 영역 정보를 기초로 전경 성분 화상, 혼합 영역 화상 합성부(382)로부터 공급된 혼합 영역 합성 화상 및 임의의 배경 화상을 합성해서 합성 화상을 생성하여 출력한다.
이와 같이 합성부(371)는, 전경 성분 화상을 임의의 배경 화상에 합성할 수 있다.
특징량인 혼합비(α)를 기초로 전경 성분 화상을 임의의 배경 화상과 합성하여 얻어진 화상은, 단지 화소를 합성한 화상에 비교하여 보다 자연스러운 것으로 된다.
도 69는 흔들림의 양을 조정하는 신호 처리부(12)의 기능의 또 다른 구성을도시한 블록도이다. 도 4에 도시한 신호 처리부(12)가 영역 특정과 혼합비(α)의 산출을 시리얼하게 실행하는 것에 비하여, 도 69에 도시한 신호 처리부(12)는 영역 특정과 혼합비(α)의 산출을 패러렐하게 실행한다.
도 4의 블록도에 도시한 기능과 동일한 부분에는 동일한 번호를 붙이며 그 설명은 생략한다.
입력 화상은 혼합비 산출부(401), 전경 배경 분리부(402), 영역 특정부(103) 및 오브젝트 추출부(101)에 공급된다.
혼합비 산출부(401)는, 입력 화상을 기초로 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 혼합 추정비 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비를, 입력 화상에 포함되는 화소의 각각에 대해 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비를 전경 배경 분리부(402)에 공급한다.
도 70에 혼합비 산출부(401)의 구성의 일례를 도시한 블록도이다.
도 70에 도시한 추정 혼합비 처리부(201)는, 도 40에 도시한 추정 혼합비 처리부(201)과 동일하다. 도 70에 도시한 추정 혼합비 처리부(202)는 도 40에 도시한 추정 혼합비 처리부(202)와 동일하다.
추정 혼합비 처리부(201)는, 입력 화상을 기초로 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
추정 혼합비 처리부(202)는, 입력 화상을 기초로 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
전경 배경 분리부(402)는, 혼합비 산출부(401)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 그리고 영역 특정부(103)으로부터 공급된 영역 정보를 기초로 입력 화상으로부터 전경 성분 화상을 생성하고, 생성한 전경 성분 화상을 흔들림 조정부(106) 및 선택부(107)에 공급한다.
도 71은 전경 배경 분리부(402)의 구성의 일례를 도시한 블록도이다.
도 51에 도시한 전경 배경 분리부(105)와 동일한 부분에는 동일한 번호를 붙이며 그 설명은 생략한다.
선택부(421)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합비 산출부(401)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비 중 어느 하나를 선택하고, 선택한 추정 혼합비를 혼합비(α)로서 분리부(251)에 공급한다.
분리부(251)는, 선택부(421)로부터 공급된 혼합비(α) 및 영역 정보를 기초로 혼합 영역에 속하는 화소의 화소값으로부터 전경의 성분 및 배경의 성분을 추출하고, 추출한 전경의 성분을 합성부(253)에 공급함과 동시에 배경의 성분을합성부(255)에 공급한다.
분리부(251)는 도 56에 도시한 구성과 동일한 구성으로 할 수 있다.
합성부(253)는 전경 성분 화상을 합성하여 출력한다. 합성부(255)는 배경 성분 화상을 합성하여 출력한다.
도 69에 도시한 흔들림 조정부(106)는, 도 4에 도시한 경우와 동일한 구성으로 할 수 있고, 영역 정보 및 움직임 벡터를 기초로 전경 배경 분리부(402)로부터 공급된 전경 성분 화상에 포함되는 흔들림의 양을 조정하여 흔들림의 양이 조정된 전경 성분 화상을 출력한다.
도 69에 도시한 선택부(107)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로 전경 배경 분리부(402)로부터 공급된 전경 성분 화상 및 흔들림 조정부(106)로부터 공급된 흔들림의 양이 조정된 전경 성분 화상 중 어느 하나를 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이 도 69에 구성을 도시한 신호 처리부(12)는, 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상에 대해 그 화상에 포함되는 흔들림의 양을 조정하여 출력할 수 있다. 도 69에 구성을 도시한 신호 처리부(12)는, 제1 실시예와 마찬가지로 파묻힌 정보인 혼합비(α)를 산출하고, 산출한 혼합비(α)를 출력할 수 있다.
도 72는 전경 성분 화상을 임의의 배경 화상과 합성하는 신호 처리부(12)의 기능의 다른 구성을 도시한 블록도이다. 도 67에 도시한 신호 처리부(12)가 영역 특정과 혼합비(α)의 산출을 시리얼로 실행함에 비하여, 도 72에 도시한 신호 처리부(12)는 영역 특정과 혼합비(α)의 산출을 패러렐하게 실행한다.
도 69의 블록도에 도시한 기능과 동일한 부분에는 동일한 번호를 붙이며 그 설명은 생략한다.
도 72에 도시한 혼합비 산출부(401)는, 입력 화상을 기초로 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비를 입력 화상에 포함되는 화소의 각각에 대해 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비를 전경 배경 분리부(402) 및 합성부(431)에 공급한다.
도 72에 도시한 전경 배경 분리부(402)는, 혼합비 산출부(401)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 그리고 영역 특정부(103)로부터 공급된 영역 정보를 기초로 입력 화상으로부터 전경 성분 화상을 생성하고, 생성한 전경 성분 화상을 합성부(431)에 공급한다.
합성부(431)는, 혼합비 산출부(401)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 임의의 배경 화상과 전경 배경 분리부(402)로부터 공급된 전경 성분 화상을 합성하여 임의의 배경 화상과 전경 성분 화상이 합성된합성 화상을 출력한다.
도 73은 합성부(431)의 구성을 도시한 도면이다. 도 68의 블록도에 도시한 기능과 동일한 성분에는 동일한 번호를 붙이며 그 설명은 생략한다.
선택부(441)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로 혼합비 산출부(401)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에 있어서의 추정 혼합비 중 어느 하나를 선택하고, 선택한 추정 혼합비를 혼합비(α)로서 배경 성분 생성부(381)에 공급한다.
도 73에 도시한 배경 성분 생성부(381)는, 선택부(441)로부터 공급된 혼합비(α) 및 임의의 배경 화상을 기초로 배경 성분 화상을 생성하여 혼합 영역 화상 합성부(382)에 공급한다.
도 73에 도시한 혼합 영역 화상 합성부(382)는, 배경 성분 생성부(381)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써, 혼합 영역 합성 화상을 생성하고, 생성한 혼합 영역 합성 화상을 화상 합성부(383)에 공급한다.
화상 합성부(383)는, 영역 정보를 기초로 전경 성분 화상, 혼합 영역 화상 합성부(382)로부터 공급된 혼합 영역 합성 화상 및 임의의 배경 화상을 합성해서 합성 화상을 생성하여 출력한다.
이와 같이 합성부(431)는, 전경 성분 화상을 임의의 배경 화상에 합성할 수 있다.
그리고, 혼합비(α)는 화소값에 포함되는 배경의 성분 비율로서 설명하였으나, 화소값에 포함되는 전경의 성분 비율로 해도 된다.
또한, 전경으로 된 오브젝트의 움직임의 방향은 왼쪽에서 오른쪽으로 설명하였으나, 그 방향으로 한정되지 않음은 물론이다.
이상에서는, 3차원 공간과 시간축 정보를 갖는 현실 공간의 화상을 비디오 카메라를 사용하여 2차원 공간과 시간축 정보를 갖는 시공간으로의 사영을 실행한 경우를 예로 들었으나, 본 발명은 이 예로 한정되지 않고 보다 많은 제1 차원의 제1 정보를 보다 적은 제2 차원의 제2 정보에 사영한 경우에, 그 사영에 의해 발생하는 변형을 보정하거나 유의 정보를 추출하거나 또는 보다 자연스럽게 화상을 합성하는 경우에 적응할 수 있다.
그리고, 센서(11)는 CCD로 한정되지 않고, 고체 촬상 소자인 예를 들면 CMOS(Complementary Metal Oxide Semiconductor(상보성 금속 산화막 반도체)), BBD(Bucket Brigade Device), CID(Charge Injection Device) 또는 CPD(Charge Priming Device) 등의 센서여도 되고, 또한 검출 소자가 매트릭스상으로 배치되어 있는 센서로 한정되지 않고, 검출 소자가 1열로 늘어선 센서여도 된다.
본 발명의 신호 처리를 실행하는 프로그램을 기록한 기록 매체는, 도 3에 도시한 바와 같이 컴퓨터와는 별도로, 사용자에게 프로그램을 제공하기 위해 배포되는 프로그램이 기록되어 있는 자기 디스크(51)(플로피 디스크를 포함함), 광 디스크(52)(CD-ROM(Compact Disk-Read Only Memory), DVD(Digital Versatile Disk)를 포함함), 광자기 디스크(53)(MD(Mini-Disk)를 포함함) 또는 반도체 메모리(54) 등으로 이루어진 패키지 미디어에 의해 구성될 뿐만 아니라, 컴퓨터에 미리 내장된상태에서 사용자에게 제공되는 프로그램이 기록되어 있는 ROM(22)이나 기억부(28)에 포함되는 하드 디스크 등으로 구성된다.
그리고 본 명세서에 있어서, 기록 매체에 기록되는 프로그램이 기술하는 단계는, 기재된 순서에 따라 시계열적으로 실행되는 처리는 물론, 반드시 시계열적으로 처리되지 않아도 병렬적 또는 개별로 실행되는 처리도 포함하는 것이다.
제1 발명에 따르면, 복수의 오브젝트가 서로 섞여 있는 혼합 영역을 검출할 수 있게 된다.
제2 발명에 따르면, 복수의 오브젝트가 서로 섞여 있는 혼합 영역을 검출할 수 있게 된다.
제3 발명에 따르면, 복수의 오브젝트가 서로 섞여 있는 혼합 영역을 검출할 수 있게 된다.

Claims (29)

  1. 각각 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어진 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 수단과,
    주목 프레임의 화상 데이터의 각 화소와, 상기 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 상기 배경 화상의 화소와의 상관치를 검출하는 상관치 검출 수단과,
    상기 상관치의 각 화소 위치마다의 시간 변화에 기초하여 상기 주목 프레임에 있어서의, 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  2. 제1항에 있어서, 상기 상관치 검출 수단은, 상기 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와, 상기 주변 화소에 대응하는 위치의 상기 배경 화상의 화소를 기초로 상기 상관치를 검출하는 것을 특징으로 하는 화상 처리 장치.
  3. 제1항에 있어서, 상기 상관치 검출 수단은, 상기 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와 상기 주변 화소에 대응하는 위치의 상기 배경 화상의화소와의 차분값을 상기 상관치로서 검출하는 것을 특징으로 하는 화상 처리 장치.
  4. 제1항에 있어서, 상기 상관치와 임계값을 비교함으로써 상기 상관치를 2치화하는 2치화 수단을 더 포함하고,
    상기 혼합 영역 검출 수단은, 2치화된 상기 상관치를 기초로 상기 주목 프레임에 있어서의 상기 혼합 영역을 검출하는 것을 특징으로 하는 화상 처리 장치.
  5. 제1항에 있어서, 상기 혼합 영역 검출 수단은, 상기 상관치의 각 화소 위치마다의 시간 변화에 기초하여, 추가로 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 검출하는 것을 특징으로 하는 화상 처리 장치.
  6. 제1항에 있어서, 검출된 상기 혼합 영역의 상기 복수의 오브젝트가 서로 섞이는 비율로서의 혼합비를 검출하는 혼합비 검출 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  7. 제6항에 있어서, 상기 혼합 영역 및 상기 혼합비를 기초로 상기 오브젝트를 분리하는 분리 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  8. 제7항에 있어서, 분리된 상기 오브젝트에 포함되는 흔들림의 양을 조정하는 조정 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  9. 각각 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어진 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 단계와,
    주목 프레임의 화상 데이터의 각 화소와, 상기 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 상기 배경 화상의 화소와의 상관치를 검출하는 상관치 검출 단계와,
    상기 상관치의 각 화소 위치마다의 시간 변화에 기초하여 상기 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  10. 각각 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어진 화상 데이터를 처리하는 화상 처리용 프로그램으로서, 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체에 있어서,
    상기 화상 처리용 프로그램은:
    상기 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 단계와,
    주목 프레임의 화상 데이터의 각 화소와, 상기 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 상기 배경 화상의 화소와의 상관치를 검출하는 상관치검출 단계와,
    상기 상관치의 각 화소 위치마다의 시간 변화에 기초하여, 상기 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  11. 각각 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어진 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 수단과,
    각 프레임의 화상 데이터의 각 화소와, 상기 각 프레임의 화상 데이터의 각 화소와 대응하는 위치의 상기 배경 화상의 화소와의 상관치를 검출하는 상관치 검출 수단과,
    주목 프레임 근방의 프레임의 움직임 벡터에 기초하여 상기 주목 프레임 근방의 상기 프레임의 상기 상관치를 움직임 보상하는 움직임 보상 수단과,
    상기 주목 프레임의 상기 상관치 및 상기 움직임 보상 수단에서 움직임 보상된, 상기 주목 프레임 근방의 상기 프레임의 상관치를 적산하는 적산 수단과,
    상기 적산 수단의 출력의, 각 화소 위치마다의 시간 변화에 기초하여, 상기 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  12. 제11항에 있어서, 상기 움직임 벡터를 검출하는 움직임 벡터 검출 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  13. 제11항에 있어서, 상기 상관치 검출 수단은, 상기 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와, 상기 주변 화소에 대응하는 위치의 상기 배경 화상의 화소를 기초로 상기 상관치를 검출하는 것을 특징으로 하는 화상 처리 장치.
  14. 제11항에 있어서, 상기 상관치 검출 수단은, 상기 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와, 상기 주변 화소에 대응하는 위치의 상기 배경 화상의 화소와의 차분값을 상기 상관치로서 검출하는 것을 특징으로 하는 화상 처리 장치.
  15. 제11항에 있어서, 상기 상관치와 임계값을 비교함으로써 상기 상관치를 2치화하는 2치화 수단과,
    2치화된 상기 상관치를 가중하는 가중 수단
    을 더 포함하고,
    상기 움직임 보상 수단은, 상기 주목 프레임 근방의 프레임의 2치화된 상기상관치를 움직임 보상하고,
    상기 적산 수단은, 상기 주목 프레임 근방의 프레임의, 움직임 보상되고 또한 가중된 상기 상관치를 적산하는 것을 특징으로 하는 화상 처리 장치.
  16. 제11항에 있어서, 상기 혼합 영역 검출 수단은, 상기 상관치의 각 화소 위치마다의 시간 변화에 기초하여 추가로 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 검출하는 것을 특징으로 하는 화상 처리 장치.
  17. 제11항에 있어서, 검출된 상기 혼합 영역의 복수의 오브젝트가 서로 섞이는 비율로서의 혼합비를 검출하는 혼합비 검출 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  18. 제17항에 있어서, 상기 혼합 영역 및 상기 혼합비를 기초로 상기 오브젝트를 분리하는 분리 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  19. 제18항에 있어서, 분리된 상기 오브젝트에 포함되는 흔들림의 양을 조정하는 조정 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  20. 각각 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어진 화상 데이터를 처리하는 화상 처리 방법에있어서,
    상기 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 단계와,
    각 프레임의 화상 데이터의 각 화소와, 상기 각 프레임의 화상 데이터의 각 화소와 대응하는 위치의 상기 배경 화상의 화소와의 상관치를 검출하는 상관치 검출 단계와,
    주목 프레임 근방의 프레임의 움직임 벡터에 기초하여 상기 주목 프레임 근방의 상기 프레임의 상기 상관치를 움직임 보상하는 움직임 보상 단계와,
    상기 주목 프레임의 상관치 및 상기 움직임 보상 단계의 처리에서 움직임 보상된, 상기 주목 프레임 근방의 프레임의 상관치를 적산하는 적산 단계와,
    상기 적산 단계의 처리의 출력의, 각 화소 위치마다의 시간 변화에 기초하여, 상기 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  21. 각각 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 취득된 소정 수의 화상 데이터로 이루어진 화상 데이터를 처리하는 화상 처리용 프로그램으로서, 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체에 있어서,
    상기 화상 처리용 프로그램은:
    상기 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 단계와,
    각 프레임의 화상 데이터의 각 화소와, 상기 각 프레임의 화상 데이터의 각화소와 대응하는 위치의 상기 배경 화상의 화소와의 상관치를 검출하는 상관치 검출 단계와,
    상기 주목 프레임 근방의 프레임의 움직임 벡터에 기초하여 상기 주목 프레임 근방의 상기 프레임의 상기 상관치를 움직임 보상하는 움직임 보상 단계와,
    상기 주목 프레임의 상기 상관치 및 상기 움직임 보상 단계의 처리로 움직임 보상된, 상기 주목 프레임 근방의 상기 프레임의 상관치를 적산하는 적산 단계와,
    상기 적산 단계의 처리의 출력의, 각 화소 위치마다의 시간 변화에 기초하여, 상기 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  22. 촬상 장치에 있어서,
    각각 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을, 소정 수의 화소 데이터로 이루어진 화상 데이터로서 출력하는 촬상 수단과,
    상기 화상 데이터에 기초하여 배경 화상을 생성하는 배경 화상 생성 수단과,
    주목 프레임의 화상 데이터의 각 화소와, 상기 주목 프레임의 화상 데이터의 각 화소와 대응하는 위치의 상기 배경 화상의 화소와의 상관치를 검출하는 상관치 검출 수단과,
    상기 상관치의 각 화소 위치마다의 시간 변화에 기초하여, 상기 주목 프레임에 있어서의 현실 세계에서의 복수의 오브젝트가 서로 섞인 영역으로서의 혼합 영역을 검출하는 혼합 영역 검출 수단
    을 포함하는 것을 특징으로 하는 촬상 장치.
  23. 제22항에 있어서, 상기 상관치 검출 수단은, 상기 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와, 상기 주변의 화소에 대응하는 위치의 상기 배경 화상의 화소를 기초로 상기 상관치를 검출하는 것을 특징으로 하는 촬상 장치.
  24. 제22항에 있어서, 상기 상관치 검출 수단은, 상기 주목 프레임의 화상 데이터의 주목 화소의 주변 화소와, 상기 주변의 화소에 대응하는 위치의 상기 배경 화상의 화소와의 차분값을 상기 상관치로서 검출하는 것을 특징으로 하는 촬상 장치.
  25. 제22항에 있어서, 상기 상관치와 임계값을 비교함으로써 상기 상관치를 2치화하는 2치화 수단을 더 포함하고,
    상기 혼합 영역 검출 수단은, 2치화된 상관치를 기초로 상기 주목 프레임에 있어서의 상기 혼합 영역을 검출하는 것을 특징으로 하는 촬상 장치.
  26. 제22항에 있어서, 상기 혼합 영역 검출 수단은, 상기 상관치의 각 화소 위치마다의 시간 변화에 기초하여 추가로 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 검출하는 것을 특징으로 하는 촬상 장치.
  27. 제22항에 있어서, 검출된 상기 혼합 영역의 상기 복수의 오브젝트가 서로 섞이는 비율로서의 혼합비를 검출하는 혼합비 검출 수단을 더 포함하는 것을 특징으로 하는 촬상 장치.
  28. 제27항에 있어서, 상기 혼합 영역 및 혼합비를 기초로 상기 오브젝트를 분리하는 분리 수단을 더 포함하는 것을 특징으로 하는 촬상 장치.
  29. 제28항에 있어서, 분리된 상기 오브젝트에 포함되는 흔들림의 양을 조정하는 조정 수단을 더 포함하는 것을 특징으로 하는 촬상 장치.
KR1020027013152A 2001-02-01 2002-02-01 화상 처리 장치 KR100846248B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001025847A JP4596201B2 (ja) 2001-02-01 2001-02-01 画像処理装置および方法、並びに記録媒体
JPJP-P-2001-00025847 2001-02-01

Publications (2)

Publication Number Publication Date
KR20020089423A true KR20020089423A (ko) 2002-11-29
KR100846248B1 KR100846248B1 (ko) 2008-07-16

Family

ID=18890765

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027013152A KR100846248B1 (ko) 2001-02-01 2002-02-01 화상 처리 장치

Country Status (5)

Country Link
US (1) US7412075B2 (ko)
JP (1) JP4596201B2 (ko)
KR (1) KR100846248B1 (ko)
CN (2) CN1324531C (ko)
WO (1) WO2002061685A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100814424B1 (ko) * 2006-10-23 2008-03-18 삼성전자주식회사 폐색영역 검출장치 및 검출방법

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4660980B2 (ja) * 2001-06-15 2011-03-30 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4729812B2 (ja) 2001-06-27 2011-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2003339029A (ja) * 2002-05-20 2003-11-28 Sony Corp 動きベクトル補正回路及び方法
US20070162110A1 (en) * 2006-01-06 2007-07-12 Vipul Bhupendra Dave Bioabsorbable drug delivery devices
JP4587185B2 (ja) * 2008-02-27 2010-11-24 キヤノン株式会社 撮像システム及び撮像装置の制御方法
JP2010011016A (ja) * 2008-06-26 2010-01-14 Sony Corp 追尾点検出装置および方法、プログラム、並びに記録媒体
CN101882316A (zh) * 2010-06-07 2010-11-10 深圳市融创天下科技发展有限公司 一种图像区域划分/编码方法、装置及系统
JP5645079B2 (ja) * 2011-03-31 2014-12-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US10121062B2 (en) * 2014-11-03 2018-11-06 Koninklijke Philips N.V. Device, system and method for automated detection of orientation and/or location of a person
CN106851045A (zh) * 2015-12-07 2017-06-13 北京航天长峰科技工业集团有限公司 一种图像拼接重叠区域运动目标处理方法
CN105611154A (zh) * 2015-12-21 2016-05-25 深圳市金立通信设备有限公司 一种图像处理的方法及终端
KR102652023B1 (ko) * 2016-10-28 2024-03-26 삼성에스디에스 주식회사 실시간 교통 정보 제공 방법 및 장치
US10467507B1 (en) * 2017-04-19 2019-11-05 Amazon Technologies, Inc. Image quality scoring

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
FR2675002B1 (fr) * 1991-04-05 1993-06-18 Thomson Csf Procede de classification des pixels d'une image appartenant a une sequence d'images animees et procede d'interpolation temporelle d'images utilisant ladite classification.
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
IL108957A (en) * 1994-03-14 1998-09-24 Scidel Technologies Ltd Video sequence imaging system
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
KR970028786A (ko) * 1995-11-30 1997-06-24 배순훈 흔들림 방지 카메라 장치
US5787203A (en) * 1996-01-19 1998-07-28 Microsoft Corporation Method and system for filtering compressed video images
US5764814A (en) * 1996-03-22 1998-06-09 Microsoft Corporation Representation and encoding of general arbitrary shapes
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
JP3812763B2 (ja) * 1996-12-04 2006-08-23 ソニー株式会社 キー信号生成装置及び方法
US6008865A (en) * 1997-02-14 1999-12-28 Eastman Kodak Company Segmentation-based method for motion-compensated frame interpolation
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
US6631212B1 (en) * 1999-09-13 2003-10-07 Eastman Kodak Company Twostage scheme for texture segmentation based on clustering using a first set of features and refinement using a second set of features
EP2278549A1 (en) * 1999-09-24 2011-01-26 Nippon Telegraph And Telephone Corporation Method and apparatus for extracting segmentation mask
JP4479098B2 (ja) * 2000-12-21 2010-06-09 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4507044B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4491965B2 (ja) * 1999-12-28 2010-06-30 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4507045B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 信号処理装置および方法、並びに記録媒体
US6731799B1 (en) * 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6954498B1 (en) * 2000-10-24 2005-10-11 Objectvideo, Inc. Interactive video manipulation
KR100938423B1 (ko) * 2003-07-23 2010-01-22 엘지전자 주식회사 카메라 폰 흔들림 보정방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100814424B1 (ko) * 2006-10-23 2008-03-18 삼성전자주식회사 폐색영역 검출장치 및 검출방법

Also Published As

Publication number Publication date
JP2002230556A (ja) 2002-08-16
CN1459080A (zh) 2003-11-26
US20040022448A1 (en) 2004-02-05
US7412075B2 (en) 2008-08-12
KR100846248B1 (ko) 2008-07-16
CN1249629C (zh) 2006-04-05
WO2002061685A1 (fr) 2002-08-08
CN1324531C (zh) 2007-07-04
CN1684108A (zh) 2005-10-19
JP4596201B2 (ja) 2010-12-08

Similar Documents

Publication Publication Date Title
JP4491965B2 (ja) 信号処理装置および方法、並びに記録媒体
KR100864338B1 (ko) 화상 처리 장치 및 방법과 촬상 장치
KR100725192B1 (ko) 신호 처리 장치 및 방법, 및 기록 매체
JP4507044B2 (ja) 画像処理装置および方法、並びに記録媒体
JP4507045B2 (ja) 信号処理装置および方法、並びに記録媒体
KR100846261B1 (ko) 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치
KR100897965B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100859382B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
JP4479098B2 (ja) 信号処理装置および方法、並びに記録媒体
KR100846248B1 (ko) 화상 처리 장치
US20040105493A1 (en) Image processing apparatus and method, and image pickup apparatus
US20050259870A1 (en) Image processing apparatus and method, and image pickup apparatus
US20030174899A1 (en) Image processing apparatus
KR100835443B1 (ko) 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
US20040067040A1 (en) Image processing apparatus and method, and image pickup apparatus
KR100894923B1 (ko) 화상 처리 장치, 방법 및 기록 매체와 촬상 장치
JP2003006658A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2002366949A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치
JP2003016446A (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120702

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee