KR100799011B1 - 화상 처리 장치 - Google Patents

화상 처리 장치 Download PDF

Info

Publication number
KR100799011B1
KR100799011B1 KR1020027013329A KR20027013329A KR100799011B1 KR 100799011 B1 KR100799011 B1 KR 100799011B1 KR 1020027013329 A KR1020027013329 A KR 1020027013329A KR 20027013329 A KR20027013329 A KR 20027013329A KR 100799011 B1 KR100799011 B1 KR 100799011B1
Authority
KR
South Korea
Prior art keywords
pixel
foreground
background
frame
area
Prior art date
Application number
KR1020027013329A
Other languages
English (en)
Other versions
KR20020089432A (ko
Inventor
데쯔지로 곤도
나오끼 후지와라
준이찌 이시바시
다까시 사와오
다까히로 나가노
도루 미야께
세이지 와다
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20020089432A publication Critical patent/KR20020089432A/ko
Application granted granted Critical
Publication of KR100799011B1 publication Critical patent/KR100799011B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Picture Signal Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 선명하지 않은 화상 등에 포함되는 움직임 불선명의 양을 조정할 수 있도록 한다. 처리 단위 결정부(901)는 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정한다. 방정식 생성부(903)는 처리 단위에 기초하여 복수의 관계식으로 이루어지는 연립 방정식을 생성한다. 연산부(904)는 연립 방정식을 풀어, 움직임 불선명량이 조정된 전경 오브젝트 성분을 생성한다. 본 발명은 센서에 의해 검출한 신호와 현실 세계의 차이를 고려한 화상 처리 장치에 적용할 수 있다.
Figure 112002032648010-pct00098
전경, 배경, 화상 처리, 오브젝트, 움직임, 불선명

Description

화상 처리 장치{IMAGE PROCESSING APPARATUS}
본 발명은 화상 처리 장치에 관한 것으로, 특히 센서에 의해 검출된 신호와 현실 세계와의 차이를 고려한 화상 처리 장치에 관한 것이다.
현실 세계에서의 사상을 센서로 검출하고, 센서가 검출하는 샘플링 데이터를 처리하는 기술이 널리 이용되고 있다.
예를 들면, 정지하고 있는 소정의 배경 앞에서 이동하는 물체를 비디오 카메라로 촬상하여 얻어진 화상에는, 물체의 이동 속도가 비교적 빠른 경우, 움직임 불선명이 생기게 된다.
종래, 이와 같은 움직임 불선명을 억제하는 데에는, 예를 들면 전자 셔터의 속도를 빠르게, 노광 시간을 짧게 하도록 하고 있다.
그러나, 이와 같이 셔터 속도를 빠르게 하는 방법은, 촬상을 행하기 전에 비디오 카메라의 셔터 속도를 조정할 필요가 있다. 따라서, 이미 얻어진 흐릿한 화상을 보정하여, 선명한 화상을 얻은 것은 불가능하다는 과제가 있었다.
본 발명은 이와 같은 상황을 감안하여 이루어진 것으로, 흐릿한 화상 등의 검출 신호에 포함되는 움직임 불선명의 양을 조정할 수 있도록 하는 것을 목적으로 하고 있다.
본 발명의 화상 처리 장치는, 화상 데이터에서 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어진 전경 영역, 화상 데이터에서 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역, 및 화상 데이터에서 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합된 영역으로서, 전경 오브젝트의 움직임 방향 선단부측에 형성되는 커버드 백그라운드 영역 및 전경 오브젝트의 움직임 방향 후단부측에 형성되는 언커버드 백그라운드 영역을 포함하는 혼합 영역을 나타내는 영역 정보와, 화상 데이터에 기초하여 전경 영역을 중심으로 하는 커버드 백그라운드 영역의 외측 단부로부터 언커버드 백그라운드 영역의 외측 단부까지의, 전경 오브젝트의 움직임 방향과 일치하는 적어도 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정하는 처리 단위 결정 수단과, 처리 단위에 기초하여 결정되는 처리 단위 내의 화소의 화소치와, 혼합 영역에서의 전경 오브젝트 성분을 설정한 분할수로 분할하여 이루어진 미지수인 분할치를 설정함으로써, 복수의 관계식으로 이루어지는 연립 방정식을 생성하는 연립 방정식 생성 수단과, 연립 방성식을 풀어 움직임 불선명량이 조정된 전경 오브젝트 성분을 연산하는 연산 수단을 포함하는 것을 특징으로 한다.
연산 수단은, 혼합 영역의 단부로부터 1번째의 화소에 포함되는 전경 오브젝트 성분을, 인접한 화소로서, 직선상의 혼합 영역의 단부로부터 2번째의 화소에 포함되는 전경 오브젝트 성분으로부터 감산하면, 2번째의 화소에 대응하는 하나의 전경 오브젝트 성분이 산출되는 성질을 이용하여, 연립 방정식을 단부의 화소에 대응 하는 관계식으로부터 순차적으로 풀어, 움직임 불선명량이 조정된 전경 오브젝트 성분을 연산하도록 할 수 있다.
연립 방정식 생성 수단은 전경 오브젝트의 움직임량에 대응한 분할수를 기초로, 연립 방정식을 생성하도록 할 수 있다.
본 발명의 화상 처리 방법은, 화상 데이터에서 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어진 전경 영역, 화상 데이터에서 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역, 및 화상 데이터에서 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합된 영역으로서, 전경 오브젝트의 움직임 방향 선단부측에 형성되는 커버드 백그라운드 영역 및 전경 오브젝트의 움직임 방향 후단부측에 형성되는 언커버드 백그라운드 영역을 포함하는 혼합 영역을 나타내는 영역 정보와, 화상 데이터에 기초하여 전경 영역을 중심으로 하는 커버드 백그라운드 영역의 외측 단부로부터 언커버드 백그라운드 영역의 외측 단부까지의, 전경 오브젝트의 움직임 방향과 일치하는 적어도 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정하는 처리 단위 결정 단계와, 처리 단위에 기초하여 결정되는 처리 단위 내의 화소의 화소치와, 혼합 영역에서의 전경 오브젝트 성분을 설정한 분할수로 분할하여 이루어진 미지수인 분할치를 설정함으로써, 복수의 관계식으로 이루어지는 연립 방정식을 생성하는 연립 방정식 생성 단계와, 연립 방성식을 풀어 움직임 불선명량이 조정된 전경 오브젝트 성분을 연산하는 연산 단계를 포함하는 것을 특징으로 한다.
연산 단계는, 혼합 영역의 단부로부터 1번째의 화소에 포함되는 전경 오브젝 트 성분을, 인접한 화소로서, 직선상의 혼합 영역의 단부로부터 2번째의 화소에 포함되는 전경 오브젝트 성분으로부터 감산하면, 2번째의 화소에 대응하는 하나의 전경 오브젝트 성분이 산출되는 성질을 이용하여, 연립 방정식을 단부의 화소에 대응하는 관계식으로부터 순차적으로 풀어, 움직임 불선명량이 조정된 전경 오브젝트 성분을 연산하도록 할 수 있다.
연립 방정식 생성 단계는, 전경 오브젝트의 움직임량에 대응한 분할수를 기초로, 상기 연립 방정식을 생성하도록 할 수 있다.
본 발명의 기록 매체의 프로그램은, 화상 데이터에서 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어진 전경 영역, 화상 데이터에서 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역, 및 화상 데이터에서 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합된 영역으로서, 전경 오브젝트의 움직임 방향 선단부측에 형성되는 커버드 백그라운드 영역 및 전경 오브젝트의 움직임 방향 후단부측에 형성되는 언커버드 백그라운드 영역을 포함하는 혼합 영역을 나타내는 영역 정보와, 상기 화상 데이터에 기초하여 상기 전경 영역을 중심으로 하는 커버드 백그라운드 영역의 외측 단부로부터 언커버드 백그라운드 영역의 외측 단부까지의, 전경 오브젝트의 움직임 방향과 일치하는 적어도 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정하는 처리 단위 결정 단계와, 처리 단위에 기초하여 결정되는 처리 단위 내의 화소의 화소치와, 상기 혼합 영역에서의 상기 전경 오브젝트 성분을 설정한 분할수로 분할하여 이루어진 미지수인 분할치를 설정함으로써, 복수의 관계식으로 이루어지는 연립 방정식을 생성하는 연립 방정식 생성 단계와, 연립 방성식을 풀어 움직임 불선명량이 조정된 전경 오브젝트 성분을 연산하는 연산 단계를 포함하는 것을 특징으로 한다.
연산 단계는, 혼합 영역의 단부로부터 1번째의 화소에 포함되는 상기 전경 오브젝트 성분을, 인접한 화소로서, 상기 직선상의 상기 혼합 영역의 단부로부터 2번째의 화소에 포함되는 상기 전경 오브젝트 성분으로부터 감산하면, 2번째의 화소에 대응하는 하나의 전경 오브젝트 성분이 산출되는 성질을 이용하여, 상기 연립 방정식을 상기 단부의 화소에 대응하는 관계식으로부터 순차적으로 풀어, 움직임 불선명량이 조정된 상기 전경 오브젝트 성분을 연산하도록 할 수 있다.
연립 방정식 생성 단계는, 전경 오브젝트의 움직임량에 대응한 분할수를 기초로, 연립 방정식을 생성하도록 할 수 있다.
본 발명의 촬상 장치는, 각각 시간 적분 효과를 갖는 소정수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을 소정수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과, 화상 데이터에서 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어진 전경 영역, 화상 데이터에서 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역, 및 화상 데이터에서 전경 오브젝트 성분과 배경 오브젝트 성분이 혼합된 영역으로서, 전경 오브젝트의 움직임 방향 선단부측에 형성되는 커버드 백그라운드 영역 및 전경 오브젝트의 움직임 방향 후단부측에 형성되는 언커버드 백그라운드 영역을 포함하는 혼합 영역을 나타내는 영역 정보와, 화상 데이터에 기초하여 전경 영역을 중심으로 하는 커버드 백그라운드 영역의 외측 단부로부터 언커버드 백그라운드 영역의 외측 단부까지의, 전 경 오브젝트의 움직임 방향과 일치하는 적어도 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정하는 처리 단위 결정 수단과, 처리 단위에 기초하여 결정되는 처리 단위 내의 화소의 화소치와, 혼합 영역에서의 전경 오브젝트 성분을 설정한 분할수로 분할하여 이루어진 미지수인 분할치를 설정함으로써, 복수의 관계식으로 이루어지는 연립 방정식을 생성하는 연립 방정식 생성 수단과, 연립 방성식을 풀어 움직임 불선명량이 조정된 전경 오브젝트 성분을 연산하는 연산 수단을 포함하는 것을 특징으로 한다.
연산 수단은, 혼합 영역의 단부로부터 1번째의 화소에 포함되는 전경 오브젝트 성분을, 인접한 화소로서, 직선상의 혼합 영역의 단부로부터 2번째의 화소에 포함되는 전경 오브젝트 성분으로부터 감산하면, 2번째의 화소에 대응하는 하나의 전경 오브젝트 성분이 산출되는 성질을 이용하여, 연립 방정식을 단부의 화소에 대응하는 관계식으로부터 순차적으로 풀어, 움직임 불선명량이 조정된 전경 오브젝트 성분을 연산하도록 할 수 있다.
연립 방정식 생성 수단은 전경 오브젝트의 움직임량에 대응한 분할수를 기초로, 연립 방정식을 생성하도록 할 수 있다.
도 1은 본 발명의 원리를 설명하는 도면.
도 2는 본 발명을 적용하는 시스템의 구성예를 도시하는 블럭도.
도 3은 도 2의 신호 처리부의 구성예를 도시하는 블럭도.
도 4는 신호 처리부(12)를 도시하는 블럭도.
도 5는 센서에 의한 촬상을 설명하는 도면.
도 6은 화상의 배치를 설명하는 도면.
도 7은 검출 소자의 동작을 설명하는 도면.
도 8A는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어진 화상을 설명하는 도면.
도 8B는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어진 화상의 모델을 설명하는 도면.
도 9는 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면.
도 10은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 일렬로 정렬되어 있는 화상의 화소치를 시간 방향으로 전개한 모델도.
도 11은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 12는 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 13은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 14는 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시하는 도면.
도 15는 화소와 화소치를 시간 방향으로 전개한 모델과의 대응을 도시하는 도면.
도 16은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 도면.
도 17은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 도면.
도 18은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 도면.
도 19는 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 도면.
도 20은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 도면.
도 21은 움직임 불선명의 양의 조정 처리를 설명하는 플로우챠트.
도 22는 영역 특정부(103)의 구성의 일 예를 도시하는 블럭도.
도 23은 전경에 대응하는 오브젝트가 움직이고 있을 때의 화상을 설명하는 도면.
도 24는 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 25는 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 도면.
도 26은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 도면.
도 27은 영역 판정의 조건을 설명하는 도면.
도 28A는 영역 특정부(103)의 영역의 특정의 결과 예를 도시하는 도면.
도 28B는 영역 특정부(103)의 영역의 특정의 결과 예를 도시하는 도면.
도 28C는 영역 특정부(103)의 영역의 특정의 결과 예를 도시하는 도면.
도 28D는 영역 특정부(103)의 영역의 특정의 결과 예를 도시하는 도면.
도 29는 영역 특정부(103)의 영역의 특정의 결과 예를 도시하는 도면.
도 30은 특정 영역의 처리를 설명하는 플로우챠트.
도 31은 영역 특정부(103)의 구성의 다른 일 예를 도시하는 블럭도.
도 32는 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 33은 배경 화소의 예를 도시하는 도면.
도 34는 2치 오브젝트 화상 추출부(302)의 구성을 도시하는 블럭도.
도 35A는 상관치의 산출을 설명하는 도면.
도 35B는 상관치의 산출을 설명하는 도면.
도 36A는 상관치의 산출을 설명하는 도면.
도 36B는 상관치의 산출을 설명하는 도면.
도 37은 2치 오브젝트 화상의 예를 도시하는 도면.
도 38은 시간 변화 검출부(303)의 구성을 도시하는 블럭도.
도 39는 영역 판정부(342)의 판정을 설명하는 도면.
도 40은 시간 변화 검출부(303)의 판정의 예를 도시하는 도면.
도 41은 영역 판정부(103)의 영역 특정의 처리를 설명하는 플로우챠트.
도 42는 판정 영역의 처리의 상세를 설명하는 플로우챠트.
도 43은 영역 판정부(103)의 또 다른 구성을 도시하는 블럭도.
도 44는 로버스트화부(361)의 구성을 설명하는 블럭도.
도 45는 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 46은 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 47은 영역 특정의 처리를 설명하는 플로우챠트.
도 48은 로버스트화의 처리의 상세를 설명하는 플로우챠트.
도 49는 혼합비 산출부(104)의 구성의 일 예를 도시하는 블럭도.
도 50은 이상적인 혼합비 α의 예를 도시하는 도면.
도 51은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 52는 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 53은 전경의 성분의 상관을 이용한 근사를 설명하는 도면.
도 54는 C, N, 및 P의 관계를 설명하는 도면.
도 55는 추정 혼합비 처리부(401)의 구성을 도시하는 블럭도.
도 56은 추정 혼합비의 예를 도시하는 도면.
도 57은 혼합비 산출부(104)의 다른 구성을 도시하는 블럭도.
도 58은 혼합비의 연산 처리를 설명하는 플로우챠트.
도 59는 추정 혼합비의 연산 처리를 설명하는 플로우챠트.
도 60은 혼합비 α를 근사하는 직선을 설명하는 도면.
도 61은 혼합비 α를 근사하는 평면을 설명하는 도면.
도 62는 혼합비 α를 산출할 때의 복수의 프레임의 화소의 대응을 설명하는 도면.
도 63은 혼합비 추정 처리부(401)의 다른 구성을 도시하는 블럭도.
도 64는 추정 혼합비의 예를 도시하는 도면.
도 65는 혼합비의 산출의 처리를 설명하는 플로우챠트.
도 66은 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 설명하는 플로우챠트.
도 67은 전경 배경 분리부(105)의 구성의 일 예를 도시하는 블럭도.
도 68A는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시하는 도면.
도 68B는 입력 화상, 전경 성분 화상, 및 배경 성분 화상의 모델을 나타내는 도면.
도 69는 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 70은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 71은 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 72는 분리부(601)의 구성의 일 예를 도시하는 블럭도.
도 73A는 분리된 전경 성분 화상의 예를 도시하는 도면.
도 73B는 분리된 배경 성분 화상의 예를 도시하는 도면.
도 74는 전경과 배경의 분리 처리를 설명하는 플로우챠트.
도 75는 움직임 불선명 조정부(106)의 구성을 도시하는 블럭도.
도 76은 처리 단위를 설명하는 도면.
도 77은 화소치와 전경의 성분과의 대응을 지정하는 모델의 예를 도시하는 도면.
도 78은 전경의 성분의 산출을 설명하는 도면.
도 79는 전경의 성분의 산출을 설명하는 도면.
도 80은 전경 성분 화상의 화소치를 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 81은 전경의 움직임 불선명량의 조정 처리를 설명하는 플로우챠트.
도 82는 신호 처리부(12)의 기능의 다른 구성을 도시하는 블럭도.
도 83은 합성부(1001)의 구성을 나타내는 도면.
도 84는 신호 처리부(12)의 기능의 또 다른 구성을 도시하는 블럭도.
도 85는 혼합비 산출부(1101)의 구성을 도시하는 블럭도.
도 86은 전경 배경 분리부(1102)의 구성을 도시하는 블럭도.
〈실시예〉
도 1은 본 발명의 원리를 도시하고 있다. 도 1에 도시한 바와 같이, 공간과 시간축을 갖는 현실 사회(1)의 정보인 제1 신호가 센서(2)에 의해 취득되어, 데이터화된다. 센서(2)가 취득한 데이터(3)인 검출 신호는 현실 사회(1)의 정보를 현실 사회보다 낮은 차원의 시공간으로 사영하여 얻어진 정보이다. 따라서, 사영하여 얻어진 정보는 사영에 의해 발생하는 왜곡을 갖고 있다. 다시 말하면, 센서(2)가 출력하는 데이터(3)는 현실 사회(1)의 정보에 대해 왜곡을 갖고 있다. 또, 데이터(3)는 사영에 의한 왜곡을 갖고 있지만, 이를 보정하기 위한 유의 정보를 포함하고 있다.
따라서, 본 발명에서는 센서(2)가 출력한 데이터를 신호 처리부(4)에서 신호 처리함으로써, 그 왜곡이 제거되든지 저감되든지, 또는 조정된다. 또, 본 발명에서는 센서(2)가 출력한 데이터를 신호 처리부(4)에서 신호 처리함으로써, 유의 정보가 추출된다.
도 2는 본 발명이 적용되는 신호 처리 장치의 구성예를 도시하고 있다. 센서(11)는 예를 들면 비디오 카메라로 구성되며, 현실 사회의 화상을 촬상하여, 얻어진 화상 데이터를 신호 처리부(12)에 출력한다. 신호 처리부(12)는 예를 들면 퍼스널 컴퓨터 등으로 구성되고, 센서(11)로부터 입력된 데이터를 처리하여, 사영에 의해 발생하는 왜곡의 양을 조정하고, 사영에 의해 매립된 유의 정보가 포함되는 영역을 특정하거나, 또한 특정한 영역으로부터 유의 정보를 추출하거나, 추출한 유의 정보에 기초하여, 입력된 데이터를 처리하기도 한다.
여기서 말하는 유의 정보는 예를 들면 후술하는 혼합비이다.
또, 사영에 의해 매립된 유의 정보가 포함되는 영역을 나타내는 정보도 유의 정보로 고려할 수 있다. 여기에서는 후술하는 영역 정보가 유의 정보에 상당한다.
여기에서 말하는 유의 정보가 포함되는 영역은 예를 들면 후술하는 혼합 영역이다.
신호 처리부(12)는 예를 들면 도 3에 도시한 바와 같이 구성된다. CPU(Central Processing Unit; 21)는 ROM(Read Only Memory; 22), 또는 기억부(28)에 기억되어 있는 프로그램에 따라 각종 처리를 실행한다. RAM(Random Access Memory; 23)에는, CPU(21)가 실행하는 프로그램이나 데이터 등이 적절하게 기억된다. 이들 CPU(21), ROM(22) 및 RAM(23)은 버스(24)에 의해 서로 접속되어 있다.
CPU(21)에는 또 버스(24)를 통해 입출력 인터페이스(25)가 접속되어 있다. 입출력 인터페이스(25)에는 키보드, 마우스, 마이크로폰 등으로 이루어지는 입력부(26), 디스플레이, 스피커 등으로 이루어지는 출력부(27)가 접속되어 있다. CPU(21)는 입력부(26)로부터 입력되는 명령에 대응하여 각종 처리를 실행한다. 그리고, CPU(21)는 처리의 결과 얻어진 화상이나 음성 등을 출력부(27)에 출력한다.
입출력 인터페이스(25)에 접속되어 있는 기억부(28)는 예를 들면 하드 디스크 등으로 구성되고, CPU(21)가 실행하는 프로그램이나 각종 데이터를 기억한다. 통신부(29)는 인터넷, 그 외의 네트워크를 통해 외부의 장치와 통신한다. 이 예의 경우, 통신부(29)는 센서(11)의 출력을 취득하는 취득부로서 기능한다.
또, 통신부(29)를 통해 프로그램을 취득하여, 기억부(28)에 기억해도 된다.
입출력 인터페이스(25)에 접속되어 있는 드라이브(30)는 자기 디스크(51), 광디스크(52), 광자기 디스크(53), 또는 반도체 메모리(54) 등이 장착될 때, 이들을 구동하여, 여기에 기록되어 있는 프로그램이나 데이터 등을 취득한다. 취득된 프로그램이나 데이터는 필요에 따라 기억부(28)에 전송되어, 기억된다.
다음에, 센서에 의해 취득된 데이터로부터, 유의 정보가 매립되어 있는 영역을 특정하거나, 매립된 유의 정보를 추출하는 처리를 행하는 신호 처리 장치에 대해 보다 구체적인 예를 들어 설명한다. 이하의 예에서, CCD 라인 센서 또는 CCD 에리어 센서가 센서에 대응하고, 영역 정보나 혼합비가 유의 정보에 대응하고, 혼합 영역에서 전경과 배경이 혼합되어 있는 것이나 움직임 불선명이 왜곡에 대응한다.
도 4는 신호 처리부(12)를 도시하는 블럭도이다.
또, 신호 처리부(12)의 각 기능을 하드웨어로 실현하든지, 소프트웨어로 실현하든지는 상관없다. 즉, 본 명세서의 각 블럭도는 하드웨어의 블럭도로 생각해도, 소프트웨어에 의한 기능 블럭도로 생각해도 된다.
여기에서, 움직임 불선명이라는 것은 촬상의 대상이 되는 현실 세계에서의 오브젝트의 움직임과, 센서(11)의 촬상의 특성에 의해 생기는, 움직이고 있는 오브젝트에 대응하는 화상에 포함되어 있는 왜곡을 말한다.
본 명세서에서는, 촬상의 대상이 되는, 현실 세계에서의 오브젝트에 대응하는 화상을 화상 오브젝트로 칭한다.
신호 처리부(12)에 공급된 입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트의 윤곽을 검출함으로써, 전경의 오브젝트에 대응하는 화상 오브젝트를 세밀하게 추출한다.
오브젝트 추출부(101)는 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면 입력 화상과, 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 차이로부터, 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출한다.
또, 예를 들면 오브젝트 추출부(101)는 내부에 설치되어 있는 배경 메모리에 기억되어 있는 배경의 화상과 입력 화상의 차이로부터, 전경의 오브젝트에 대응하는 화상 오브젝트, 및 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하도록 해도 된다.
움직임 검출부(102)는 예를 들면 블럭 매칭법, 구배법, 위상 상관법, 및 펠리커시브법 등의 방법에 의해 개략적으로 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보(움직임 벡터에 대응하는 화소의 위치를 특정하는 정보)를 영역 특정부(103) 및 움직임 불선명 추출부(106)에 공급한다.
움직임 검출부(102)가 출력하는 움직임 벡터에는, 움직임량 v에 대응하는 정보가 포함되어 있다.
또, 예를 들면 움직임 검출부(102)는 화상 오브젝트에 화소를 특정하는 화소 위치 정보와 함께, 화상 오브젝트마다의 움직임 벡터를 움직임 불선명 조정부(106)에 출력하도록 해도 된다.
움직임량 v는 움직이고 있는 오브젝트에 대응하는 화상의 위치 변화를 화소 간격을 단위로 하여 나타내는 값이다. 예를 들면, 전경에 대응하는 오브젝트의 화상이 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 이격된 위치에 표시되도록 이동하고 있을 때, 전경에 대응하는 오브젝트의 화상의 움직임량 v는 4로 된다.
또, 오브젝트 추출부(101) 및 움직임 검출부(102)는 움직이고 있는 오브젝트에 대응한 움직임 불선명량의 조정을 행하는 경우에 필요하게 된다.
영역 특정부(103)는 입력된 화상의 화소 각각을 전경 영역, 배경 영역 또는 혼합 영역 중 어느 하나로 특정하고, 화소마다 전경 영역, 배경 영역 또는 혼합 영역 중 어느 하나에 속하는지를 나타내는 정보(이하, 영역 정보라고 함)를 혼합비 산출부(104), 전경 배경 분리부(105) 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는 입력 화상, 및 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 혼합 영역(63)에 포함되는 화소에 대응하는 혼합비(이하, 혼합비 α로 함)을 산출하고, 산출한 혼합비를 전경 배경 분리부(105)에 공급한다.
혼합비 α는 후술하는 수학식 3에 나타낸 바와 같이, 화소치에서의 배경의 오브젝트에 대응하는 화상의 성분(이하, 배경 성분이라고 함)의 비율을 나타내는 값이다.
전경 배경 분리부(105)는 영역 특정부(103)으로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비 α에 기초하여, 전경의 오브젝트에 대응하는 화상의 성분(이하, 전경 성분이라고 함)만으로 이루어진 전경 성분 화상과, 배경의 성분만으로 이루어진 배경 성분 화상으로 입력 화상을 분리하여, 전경 성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다. 또, 분리된 전경 성분 화상을 최종적인 출력으로 하는 것도 생각할 수 있다. 종래의 혼합 영역을 고려하지 않고 전경과 배경만을 특정하여, 분리하고 있던 방식에 비해 정확한 전경과 배경을 얻을 수가 있다.
움직임 불선명 조정부(106)는 움직임 벡터로부터 알 수 있는 움직임량 v 및 영역 정보에 기초하여, 전경 성분 화상에 포함되는 1 이상의 화소를 나타내는 처리 단위를 결정하다. 처리 단위는 움직임 불선명양의 조정 처리의 대상이 되는 1군의 화소를 지정하는 데이터이다.
움직임 불선명 조정부(106)는 신호 처리부(12)에 입력된 움직임 불선명 조정량, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보와, 처리 단위를 기초로 하여 전경 성분 화상에 포함되는 움직임 불선명을 제거하거나, 움직임 불선명의 양을 감소시키거나, 움직임 불선명의 양을 증가시키는 등 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(107)에 출 력한다. 움직임 벡터와 그 위치 정보는 사용하지 않는 경우도 있다.
선택부(107)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로 하여, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명의 양이 조정된 전경 성분 화상 중 어느 한 쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
다음에, 도 5 내지 도 20을 참조하여, 신호 처리부(12)에 공급된 입력 화상에 대해 설명한다.
도 5는 센서에 의한 촬상을 설명하는 도면이다. 센서(11)는 예를 들면 고체 촬상 소자인 CCD (Charge-Coupled Device) 에리어 센서를 구비한 CCD 비디오 카메라 등으로 구성된다. 현실 세계에서의 전경에 대한 오브젝트(111)는 현실 세계에서의 배경에 대응하는 오브젝트(112)와, 센서(11) 사이를 예를 들면 도 5의 좌측에서 우측으로 수평으로 이동한다.
센서(11)는 전경에 대응하는 오브젝트(111)를 배경에 대응하는 오브젝트(112)와 함께 촬상한다. 센서(11)는 촬상한 화상을 1 프레임 단위로 출력한다. 예를 들면 센서(11)는 1초간에 30프레임으로 이루어지는 화상을 출력한다. 센서(11)의 노광 시간은 1/30초로 할 수 있다. 노광 시간은 센서(11)가 입력된 광의 전하로의 변환을 개시하고 나서, 입력된 광의 전하로의 변환을 종료하기 까지의 기간이다. 이하, 노광 시간을 셔터 시간으로 칭한다.
도 6은 화소의 배치를 설명하는 도면이다. 도 6에서, A 내지 I는 개별의 화소를 나타낸다. 화소는 화상에 대응하는 평면 상에 배치된다. 하나의 화소에 대 응하는 하나의 검출 소자는 센서(11) 상에 배치된다. 센서(11)가 화상을 촬상할 때, 하나의 검출 소자는 화상을 구성하는 하나의 화소에 대응하는 화소치를 출력한다. 예를 들면, 검출 소자의 X 방향의 위치는 화상 상의 횡방향의 위치에 대응하고, 검출 소자의 Y 방향의 위치는 화상 상의 종방향의 위치에 대응한다.
도 7에 도시한 바와 같이, 예를 들면 CCD인 검출 소자는 셔터 시간에 대응하는 기간, 입력된 광을 전하로 변환하고, 변환된 전하를 축적한다. 전하의 양은 입력된 광의 강도와, 광이 입력되고 있는 기간에 거의 비례한다. 검출 소자는 셔터 시간에 대응하는 기간에서, 입력된 광으로부터 변환된 전하를 이미 축적되어 있는 전하에 부가하여 간다. 즉, 검출 소자는 셔터 기간에 대응하는 기간, 입력되는 광을 적분하여 적분된 광에 대응하는 양의 전하를 축적한다. 검출 소자는 시간에 대해 적분 효과가 있다고 말할 수 있다.
검출 소자에 축적된 전하는 도시하지 않은 회로에 의해, 전압치로 변환되고, 전압치는 다시 디지털 데이터 등의 화소치로 변환되어 출력된다. 따라서, 센서(11)로부터 출력되는 각각의 화소치는 전경 또는 배경에 대응하는 오브젝트의 공간적으로 넓이를 갖는 특정 부분을 셔터 시간에 대해 적분한 결과인, 1차원의 공간으로 사영된 값을 갖는다.
신호 처리부(12)는 이와 같은 센서(11)의 적분의 동작에 의해, 출력 신호에 매립되어 버린 유의한 정보, 예를 들면 혼합비 α를 추출한다. 신호 처리부(12)는 전경의 화상 오브젝트 자신이 서로 혼재한 것에 의해 생기는 왜곡량, 예를 들면 움직임 불선명의 양 등을 조정한다. 또, 신호 처리부(12)는 전경의 화상 오브젝트와 배경의 화상 오브젝트가 서로 혼재한 것에 의해 생긴 왜곡의 양을 조정한다.
도 8A는 움직임을 수반하는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 도시하고 있다. 도 8A에 도시하는 예에서, 전경에 대응하는 오브젝트는 화면에 대해 수평으로 좌에서 우로 움직이고 있다.
도 8B는 도 8A에 도시한 화상의 하나의 라인에 대응하는 화소치를 시간 방향으로 전개한 모델도이다. 도 8B의 횡방향은 도 8A의 공간 방향 X에 대응하고 있다.
배경 영역의 화소는 배경의 성분, 즉 배경의 오브젝트에 대응하는 화상의 성분만으로, 그 화소치가 구성되어 있다. 전경 영역의 화소는 전경의 성분, 즉 전경의 오브젝트에 대응하는 화상의 성분만으로 그 화소치가 구성되어 있다.
혼합 영역의 화소는 배경의 성분, 및 전경의 성분으로 그 화소치가 구성되어 있다. 혼합 영역은 배경의 성분, 및 전경의 성분으로 그 화소치가 구성되어 있기 때문에, 왜곡 영역이라고도 할 수 있다. 혼합 영역은 더욱 커버드 백그라운드 영역 및 언커버드 백그라운드 영역으로 분류된다.
커버드 백그라운드 영역은, 전경 영역에 대해, 전경의 오브젝트의 진행 방향의 전단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 전경에 덮혀 가려지는 영역을 말한다.
이에 대해, 언커버드 백그라운드 영역은, 전경 영역에 대해, 전경의 오브젝트의 진행 방향의 후단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하 여 배경 성분이 나타나는 영역을 말한다.
이와 같이, 전경 영역, 배경 영역, 또는 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 포함하는 화상이 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 입력 화상으로서 입력된다.
도 9는 이상과 같은, 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면이다. 도 8B에 나타낸 화상에 대응하는 경우, 배경 영역은 정지 부분이고, 전경 영역은 움직임 부분이고, 혼합 영역의 커버드 백그라운드 영역은 배경으로부터 전경으로 변화하는 부분이고, 혼합 영역의 언커버드 백그라운드 영역은 전경으로부터 배경으로 변화하는 부분이다.
도 10은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 1열로 정렬되어 있는 화소의 화소치를 시간 방향으로 전개한 모델도이다. 예를 들면, 인접하여 1열로 정렬되어 있는 화소로서, 화면의 하나의 라인 상에 정렬되어 있는 화소를 선택할 수 있다.
도 10에 나타낸 F01 내지 F04의 화소치는 정지하고 있는 전경의 오브젝트에 대응하는 화소의 화소치이다. 도 19에 나타낸 B01 내지 B04의 화소치는 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소치이다.
도 10에서의 종방향은 도 10의 위에서 아래로 향하여 시간이 경과한다. 도 10 중의 사각형의 상변의 위치는 센서(11)가 입력된 광의 전하로의 변환을 개시하는 시각에 대응하고, 도 10 중의 사각형의 하변의 위치는 센서(11)가 입력된 광의 전하로의 변환을 종료하는 시각에 대응한다. 즉, 도 10 중의 사각형의 상변으로부 터 하변 까지의 거리는 셔터 시간에 대응한다.
이하에서, 셔터 시간과 프레임 간격이 동일한 경우를 예로 들어 설명한다.
도 10에서의 횡방향은 도 8A에서 설명한 공간 방향 X에 대응한다. 보다 구체적으로는, 도 10에 도시한 예에서, 도 10 중의 "F01"로 기재된 사각형의 좌변으로부터 "B04"로 기재한 사각형의 우변 까지의 거리는, 화소의 피치의 8배, 즉 연속하고 있는 8개의 화소의 간격에 대응한다.
전경의 오브젝트 및 배경의 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에서, 센서(11)에 입력된 광은 변화하지 않는다.
여기에서, 셔터 시간에 대응하는 기간을 두 개 이상의 동일 길이의 기간으로 분할한다. 예를 들어 가상 분할수를 4로 하면, 도 10에 도시한 모델도는 도 11에 도시한 모델로서 나타낼 수 있다. 가상 분할수는 전경에 대응하는 오브젝트의 셔터 시간 내에서의 움직임량 v 등에 대응하여 설정된다. 예를 들면, 4인 움직임량 v에 대응하여, 가상 분할수는 4가 되고, 셔터 시간에 대응하는 기간은 4개로 분할된다.
도 11 중에서 가장 윗행은 셔터가 개방하여 최초의 분할된 기간에 대응한다. 도 11에서 위로부터 2번째의 행은 셔터가 개방하여 2번째의 분할된 기간에 대응한다. 도 11에서 위로부터 3번째의 행은 셔터가 개방하여 3번째의 분할된 기간에 대응한다. 도 11에서 위로부터 4번째의 행은 셔터가 개방하여 4번째의 분할된 기간에 대응한다.
이하, 움직임량 v에 대응하여 분할된 셔터 시간을 셔터 시간/v로 칭한다.
전경에 대응하는 오브젝트가 정지하고 있을 때, 센서(11)에 입력된 광은 변화하지 않기 때문에, 전경의 성분 F01/v는 화소치 F01를 가상 분할수로 나눈 값과 같다. 마찬가지로, 전경에 대응하는 오브젝트가 정지하고 있을 때, 전경의 성분 F02/v는 화소치 F02를 가상 분할수로 나눈 값과 같고, 전경의 성분 F03/v는 화소치 F03를 가상 분할수로 나눈 값과 같으며, 전경의 성분 F04/v는 화소치 F04를 가상 분할수로 나눈 값과 같다.
배경에 대응하는 오브젝트가 정지하고 있을 때, 센서(11)에 입력되는 광은 변화하지 않기 때문에, 배경의 성분 B01/v는 화소치 B01를 가상 분할수로 나눈 값과 같다. 마찬가지로, 배경에 대응하는 오브젝트가 정지하고 있을 때, 배경의 성분 B02/v는 화소치 B02를 가상 분할수로 나눈 값과 같고, B03/v는 화소치 B03를 가상 분할수로 나눈 값과 같고, B04/v는 화소치 B04를 가상 분할수로 나눈 값과 같다.
즉, 전경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에서, 센서(11)에 입력되는 전경의 오브젝트에 대응하는 광이 변화하지 않기 때문에, 셔터가 개방하여 최초의 셔터 시간/v에 대응하는 전경의 성분 F01/v와, 셔터가 개방하여 두번째의 셔터 시간/v에 대응하는 전경의 성분 F01/v와, 셔터가 개방하여 세번째의 셔터 시간/v에 대응하는 전경의 성분 F01/v와, 셔터가 개방하여 네번째의 셔터 시간/v에 대응하는 전경의 성분 F01/v은 동일한 값으로 된다. F02/v 내지 F04/v도 마찬가지의 관계를 갖는다.
배경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기 간에서, 센서(11)에 입력되는 배경의 오브젝트에 대응하는 광은 변화하지 않기 때문에, 셔터가 개방하여 최초의 셔터 시간/v에 대응하는 배경의 성분 B01/v와, 셔터가 개방하여 두번째의 셔터 시간/v에 대응하는 배경의 성분 B01/v와, 셔터가 개방하여 세번째의 셔터 시간/v에 대응하는 배경의 성분 B01/v와, 셔터가 개방하여 네번째의 셔터 시간/v에 대응하는 배경의 성분 B01/v은 동일한 값으로 된다. B02/v 내지 B04/v도 마찬가지의 관계를 갖는다.
다음에, 전경에 대응하는 오브젝트가 이동하고, 배경에 대응하는 오브젝트가 정지하고 있는 경우에 대해 설명한다.
도 12는 전경에 대응하는 오브젝트가 도 12에서 좌측을 향하여 이동하는 경우의, 커버드 백그라운드 영역을 포함하는, 하나의 라인 상의 화소의 화소치를 시간 방향으로 전개한 모델도이다. 도 12에서, 전경의 움직임량 v은 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 12에서, 전경에 대응하는 오브젝트의 화상은 임의의 프레임을 기준으로 하여 다음의 프레임에서 4화소분 우측에 표시되도록 이동한다.
도 12에서, 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는 전경 영역에 속한다. 도 12에서 좌로부터 5번째 내지 7번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다. 도 12에서 가장 우측의 화소는 배경 영역에 속한다.
전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트를 덮어 가려지도록 이동하고 있기 때문에, 커버드 백그라운드 영역에 속하는 화소 의 화소치에 포함되는 부분은, 셔터 시간에 대응하는 기간의 임의의 시점에서 배경의 성분으로부터 전경의 성분으로 교체된다.
예를 들면, 도 12에서 굵은선으로 둘러싼 화소치 M은 수학식 1로 나타낸다.
Figure 112002032648010-pct00001
예를 들면, 좌로부터 5번째의 화소는 하나의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 세 개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌로부터 5번째의 화소의 혼합비 α는 1/4이다. 좌로부터 6번째의 화소는 두 개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 두 개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌로부터 6번째의 화소의 혼합비 α는 1/2이다. 좌로부터 7번째의 화소는 세 개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 하나의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌로부터 7번째의 화소의 혼합비 α는 3/4이다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음의 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면 도 12에서 좌로부터 3번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분 F07/v는, 도 12에서 좌로부터 5번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F07/v는, 도 12에서 좌로부터 6번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 12에서 좌로부터 7번째의 화소의, 셔터가 개방하여 4번째 의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음의 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면 도 12에서 좌로부터 4번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분 F06/v는, 도 12에서 좌로부터 4번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F06/v는 도 12에서 좌로부터 5번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 12에서 좌로부터 6번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음의 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면 도 12에서 좌로부터 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분 F05/v는, 도 12에서 좌로부터 3번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F05/v는 도 12에서 좌로부터 4번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 12에서 좌로부터 5번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음의 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면 도 12에서 가장 좌측의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성 분 F04/v는, 도 12에서 좌로부터 2번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F04/v는 도 12에서 좌로부터 3번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 12에서 좌로부터 4번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
움직이고 있는 오브젝트에 대응하는 전경의 영역은 이와 같이 움직임 불선명을 포함하기 때문에, 왜곡 영역이라고도 할 수 있다.
도 13은 전경이 도면 중의 우측을 향하여 이동하는 경우의, 언커버드 백그라운드 영역을 포함하는, 하나의 라인 상의 화소의 화소치를 시간 방향으로 전개한 모델도이다. 도 13에서, 전경의 움직임량 v은 4이다. 1 프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 13에서, 전경에 대응하는 오브젝트의 화상은 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 우측으로 이동한다.
도 13에서, 가장 좌측의 화소 내지 좌로부터 4번째의 화소는 배경 영역에 속한다. 도 13에서, 좌로부터 5번째 내지 7번째의 화소는 언커버드 백그라운드인 혼합 영역에 속한다. 도 13에서 가장 우측의 화소는 전경 영역에 속한다.
배경에 대응하는 오브젝트를 덮고 있던 전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트의 앞에서 제거되도록 이동하고 있기 때문에, 언커버드 백그라운드 영역에 속하는 화소의 화소치에 포함되는 성분은, 셔터 시간에 대응하는 기간의 임의의 시점에서, 전경의 성분으로부터 배경의 성분으로 교체된다.
예를 들면, 도 13에서 굵은선으로 둘러싼 화소치 M'은 수학식 2로 나타낸다.
Figure 112002032648010-pct00002
예를 들면 좌로부터 5번째의 화소는 세 개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 하나의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌로부터 5번째의 화소의 혼합비 α는 3/4이다. 좌로부터 6번째의 화소는 두 개의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 두 개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌로부터 6번째의 화소의 혼합비 α는 1/2이다. 좌로부터 7번째의 화소는 하나의 셔터 시간/v에 대응하는 배경의 성분을 포함하고, 세 개의 셔터 시간/v에 대응하는 전경의 성분을 포함하기 때문에, 좌로부터 7번째의 화소의 혼합비 α는 1/4이다.
수학식 1 및 수학식 2를 보다 일반화하면, 화소치 M는 수학식 3로 나타낸다.
Figure 112002032648010-pct00003
여기에서, α는 혼합비이다. B는 배경의 화소치이고, Fi/v는 전경의 성분이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 또 움직임량 v가 4이기 때문에, 예를 들면, 도 13에서 좌로부터 5번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분 F01/v는 도 13에서 좌로부터 6번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v에 대응하는 전경의 성분 과 같다. 마찬가지로, F01/v는 도 13에서 좌로부터 7번째의 화소의, 셔터가 개방하여 세번째의 셔터 시간/v에 대응하는 전경의 성분과, 도 13에서 좌로부터 8번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v에 대응하는 전경의 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 또 가상 분할수가 4이기 때문에, 예를 들면 도 13에서 좌로부터 6번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분 F02/v는 도 13에서 좌로부터 7번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다. 마찬가지로, 전경의 성분 F02/v는 도 13에서 좌로부터 8번째의 화소의, 셔터가 개방하여 세번째의 셔터 시간/v에 대응하는 전경의 성분과 같다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 또 움직임량 v이 4이기 때문에, 예를 들면 도 13에서 좌로부터 7번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분 F03/v는 도 13에서 좌로부터 8번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v에 대응하는 전경의 성분과 같다.
도 11 내지 도 13의 설명에서, 가상 분할수는 4라고 설명했지만, 가상 분할수는 움직임량 v에 대응한다. 움직임량 v는 일반적으로 전경에 대응하는 오브젝트의 이동 속도에 대응한다. 예를 들면, 전경에 대응하는 오브젝트가 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 우측에 표시되도록 이동하고 있을 때, 움직임량 v는 4로 된다. 움직임량 v에 대응하여, 가상 분할수는 4로 된다. 마찬 가지로, 예를 들면 전경에 대응하는 오브젝트가 임의의 프레임을 기준으로 하여 다음 프레임에서 6화소분 좌측에 표시되도록 이동하고 있을 때, 움직임량 v는 6으로 되고, 가상 분할수는 6으로 된다.
도 14 및 도 15에, 이상에서 설명한 전경 영역, 배경 영역, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역으로 이루어지는 혼합 영역과, 분할된 셔터 시간에 대응하는 전경의 성분 및 배경의 성분과의 관계를 도시한다.
도 14는 정지하고 있는 배경의 앞을 움직이고 있는 오브젝트에 대응하는 전경을 포함하는 화상으로부터, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시한다. 도 14에 도시한 예에서, 전경에 대응하는 오브젝트는 화면에 대해 수평으로 움직이고 있다.
프레임 #n+1는 프레임 #n의 다음 프레임이고, 프레임 #n+2는 프레임 #n+1의 다음 프레임이다.
프레임 #n 내지 프레임 #n+2 중 어느 하나로부터 추출한, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출하고, 움직임량 v를 4로 하여, 추출된 화소의 화소치를 시간 방향으로 전개한 모델을 도 15에 도시한다.
전경 영역의 화소치는 전경에 대응하는 오브젝트가 이동하기 때문에, 셔터 시간/v의 기간에 대응하는, 네 개의 서로 다른 전경의 성분으로 구성된다. 예를 들면, 도 15에 도시한 전경 영역의 화소 중 가장 좌측에 위치하는 화소는 F01/v, F02/v, F03/v, 및 F04/v로 구성된다. 즉, 전경 영역의 화소는 움직임 불선명을 포함하고 있다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 셔터 시간에 대응하는 기간에서, 센서(11)에 입력되는 배경에 대응하는 광은 변환하지 않는다. 이 경우, 배경 영역의 화소치는 움직임 불선명을 포함하지 않는다.
커버드 백그라운드 영역 또는 언커버드 백그라운드 영역으로 이루어지는 혼합 영역에 속하는 화소의 화소치는, 전경의 성분과 배경의 성분으로 구성된다.
다음에, 오브젝트에 대응하는 화상이 이동하고 있을 때, 복수의 프레임에서의, 인접하여 일렬로 정렬되어 있는 화소로서, 프레임 상에서 동일 위치의 화소의 화소치를 시간 방향으로 전개한 모델에 대해 설명한다. 예를 들면, 오브젝트에 대응하는 화상이 화면에 대해 수평으로 움직이고 있을 때, 인접하여 일렬로 정렬되어 있는 화소로서, 화면의 하나의 라인 상에 정렬되어 있는 화소를 선택할 수 있다.
도 16은 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상의 세 개의 프레임의, 인접하여 일렬로 정렬되어 있는 화소로서, 프레임 상에서 동일 위치의 화소의 화소치를 시간 방향으로 전개한 모델도이다. 프레임 #n은 프레임 #n-1의 다음 프레임이고, 프레임 #n+1은 프레임 #n의 다음 프레임이다. 다음 프레임도 마찬가지로 칭한다.
도 16에 나타낸 B01 내지 B12의 화소치는, 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소치이다. 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1 내지 프레임 n+1에서, 대응하는 화소의 화소치는 변화하지 않는다. 예를 들면 프레임 #n-1에서의 B05의 화소치를 갖는 화소의 위치에 대응하는, 프레임 #n에서의 화소, 및 프레임 #n+1에서의 화소는 각각 B05의 화소치를 갖는다.
도 17은 정지하고 있는 배경에 대응하는 오브젝트와 함께 도면중의 우측으로 이동하는 전경에 대응하는 오브젝트를 촬상한 화상의 세 개의 프레임의, 인접하여 일렬로 정렬되어 있는 화소로서, 프레임 상에서 동일 위치의 화소의 화소치를 시간 방향으로 전개한 모델도이다. 도 17에 도시한 모델은 커버드 백그라운드 영역을 포함한다.
도 17에서, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상의 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 전경의 움직임량 v는 4이고, 가상 분할수는 4이다.
예를 들면, 도 17 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F12/v가 되고, 도 17에서 좌로부터 2번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도, F12/v가 된다. 도 17에서 좌로부터 3번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분, 및 도 17에서 좌로부터 4번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F12/v가 된다.
도 17 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분은 F11/v가 되고, 도 17에서 좌로부터 2번째 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분도 F11/v가 된다. 도 17에서 좌로부터 3번째 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F11/v가 된다.
도 17 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 3번째의 셔 터 시간/v의 전경의 성분은 F10/v가 되고, 도 17에서 좌로부터 2번째 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분도 F10/v가 된다. 도 17 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17 중의 프레임 #n-1의 좌로부터 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 배경의 성분은 B01/v가 된다. 도 17 중의 프레임 #n-1의 좌로부터 3번째의 화소의, 셔터가 개방하여 최초 및 2번째의 셔터 시간/v의 배경의 성분은 B02/v가 된다. 도 17 중의 프레임 #n-1의 좌로부터 4번째의 화소의, 셔터가 개방하여 최초 내지 3번째의 셔터 시간/v의 배경의 성분은 B03/v가 된다.
도 17 중의 프레임 #n-1에서, 가장 좌측의 화소는 전경 영역에 속하고, 좌측로부터 2번째 내지 4번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 17 중의 프레임 #n-1의 좌로부터 5번째의 화소 내지 12번째의 화소는 배경 영역에 속하고, 그 화소치는 각각 B04 내지 B11이 된다.
도 17 중의 프레임 #n의 좌로부터 1번째의 화소 내지 5번째의 화소는 전경 영역에 속한다. 프레임 #n의 전경 영역에서의 셔터 시간/v의 전경의 성분은 F05/v 내지 F12/v 중의 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 17 중의 프레임 #n의 좌로부터 5번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F12/v가 되고, 도 17에서 좌로부터 6번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도, F12/v가 된다. 도 17에서 좌로부터 7번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분, 및 도 17에서 좌로부터 8번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F12/v가 된다.
도 17 중의 프레임 #n의 좌로부터 5번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분은 F11/v가 되고, 도 17에서 좌로부터 6번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분도, F11/v가 된다. 도 17에서 좌로부터 7번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F11/v가 된다.
도 17 중의 프레임 #n의 좌로부터 5번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분은 F10/v가 되고, 도 17에서 좌로부터 6번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분도, F10/v가 된다. 도 17 중의 프레임 #n의 좌로부터 5번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17 중의 프레임 #n의 좌로부터 6번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 배경의 성분은 B05/v가 된다. 도 17 중의 프레임 #n의 좌로부터 7번째의 화소의, 셔터가 개방하여 최초 및 2번째의 셔터 시간/v의 배경의 성분은 B06/v가 된다. 도 17 중의 프레임 #n의 좌로부터 8번째의 화소의, 셔터가 개방하여 최초 내지 3번째의 셔터 시간/v의 전경의 성분은 B07/v가 된다.
도 17 중의 프레임 #n에서, 좌측으로부터 6번째 내지 8번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 17 중의 프레임 #n의 좌로부터 9번째의 화소 내지 12번째의 화소는 배경 영역에 속하고, 화소치는 각각 B08 내지 B11이 된다.
도 17 중의 프레임 #n+1의 좌로부터 1번째의 화소 내지 9번째의 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의 셔터 시간/v의 전경의 성분은 F01/v 내지 F12/v 중의 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 17 중의 프레임 #n+1의 좌로부터 9번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F12/v가 되고, 도 18에서 좌로부터 10번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도 F12/v가 된다. 도 17에서 좌로부터 11번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분, 및 도 17에서 좌로부터 12번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F12/v가 된다.
도 17 중의 프레임 #n+1의 좌로부터 9번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분은 F11/v가 되고, 도 17에서 좌로부터 10번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분도 F11/v가 된다. 도 17에서 좌로부터 11번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F11/v가 된다.
도 17 중의 프레임 #n+1의 좌로부터 9번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분은 F10/v가 되고, 도 17에서 좌로부터 10번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분도 F10/v가 된다. 도 17 중의 프레임 #n+1의 좌로부터 9번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17 중의 프레임 #n+1의 좌로부터 10번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 배경의 성분은 B09/v가 된다. 도 17 중의 프레임 #n+1의 좌로부터 11번째의 화소의, 셔터가 개방하여 최초 및 2번째의 셔터 시간/v의 배경의 성분은 B10/v가 된다. 도 17 중의 프레임 #n+1의 좌로부터 12번째의 화소의, 셔터가 개방하여 최초 내지 3번째의 셔터 시간/v의 전경의 성분은 B11/v가 된다.
도 17 중의 프레임 #n+1에서, 좌측으로부터 10번째 내지 12번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 대응한다.
도 18은 도 17에 나타낸 화소치로부터 전경의 성분을 추출한 화상의 모델도이다.
도 19는 정지하고 있는 배경과 함께 도면 중의 우측으로 이동하는 오브젝트에 대응하는 전경을 촬상한 화상의 세 개의 프레임의, 인접하여 1열로 정렬되어 있는 화소로서, 프레임 상에서 동일 위치의 화소의 화소치를 시간 방향으로 전개한 모델도이다. 도 19에서, 언커버드 백그라운드 영역이 포함되어 있다.
도 19에서, 전경에 대응하는 오브젝트는 강체이고, 또 등속으로 이동하고 있다고 가정할 수 있다. 전경에 대응하는 오브젝트가 다음 프레임에서 4화소분 우측에 표시하도록 이동하고 있기 때문에, 움직임량 v는 4이다.
예를 들면, 도 19 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F13/v가 되고, 도 19에서 좌로부터 2번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도 F13/v가 된다. 도 19에서 좌로부터 3번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분 및 도 19에서 좌로부터 4번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F13/v가 된다.
도 19 중의 프레임 #n-1의 좌로부터 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F14/v가 되고, 도 19에서 좌로부터 3번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도 F14/v가 된다. 도 19에서 좌로부터 3번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 19 중의 프레임 #n-1의 가장 좌측의 화소의, 셔터가 개방하여 2번째 내지 4번째의 셔터 시간/v의 배경의 성분은 B25/v가 된다. 도 19 중의 프레임 #n-1의 좌로부터 2번째의 화소의, 셔터가 개방하여 3번째 및 4번째의 셔터 시간/v의 배경의 성분은 B26/v가 된다. 도 19 중의 프레임 #n-1의 좌로부터 3번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 배경의 성분은 B27/v가 된다.
도 19 중의 프레임 #n-1에서 가장 좌측의 화소 내지 3번째의 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 19 중의 프레임 #n-1의 좌로부터 4번째의 화소 내지 12번째의 화소는 전경 영역에 속한다. 프레임의 전경의 성분은 F13/v 내지 F24/v 중의 어느 하나이다.
도 19 중의 프레임 #n의 가장 좌측의 화소 내지 좌로부터 4번째의 화소는 배경 영역에 속하고, 화소치는 각각 B25 내지 B28이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 19 중의 프레임 #n의 좌로부터 5번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F13/v가 되고, 도 19에서 좌로부터 6번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도 F13/v가 된다. 도 19에서 좌로부터 7번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분, 및 도 19에서 좌로부터 8번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F13/v가 된다.
도 19 중의 프레임 #n의 좌로부터 6번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F14/v가 되고, 도 19에서 좌로부터 7번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도 F14/v가 된다. 도 19에서 좌로부터 8번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 19 중의 프레임 #n의 좌로부터 5번째의 화소의, 셔터가 개방하여 2번째 내지 4번째의 셔터 시간/v의 배경의 성분은 B29/v가 된다. 도 19 중의 프레임 #n의 좌로부터 6번째의 화소의, 셔터가 개방하여 3번째 및 4번째의 셔터 시간/v의 배경의 성분은 B30/v가 된다. 도 19 중의 프레임 #n의 좌로부터 7번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 배경의 성분은 B31/v가 된다.
도 19 중의 프레임 #n에서 좌로부터 5번째 내지 7번째의 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 19 중의 프레임 #n의 좌로부터 8번째의 화소 내지 12번째의 화소는 전경 영역에 속한다. 프레임 #n의 전경 영역에서의 셔터 시간/v의 기간에 대응하는 값은 F13/v 내지 F20/v 중의 어느 하나이다.
도 19 중의 프레임 #n+1의 가장 좌측의 화소 내지 좌로부터 8번째의 화소는 배경 영역에 속하고, 화소치는 각각 B25 내지 B32가 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 19 중의 프레임 #n+1의 좌로부터 9번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F13/v가 되고, 도 19에서 좌로부터 10번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도 F13/v가 된다. 도 19에서 좌로부터 11번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간/v의 전경의 성분, 및 도 19에서 좌로부터 12번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 전경의 성분은 F13/v가 된다.
도 19 중의 프레임 #n+1의 좌로부터 10번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F14/v가 되고, 도 19에서 좌로부터 11번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간/v의 전경의 성분도, F14/v가 된다. 도 19에서 좌로부터 12번째의 화소의, 셔터가 개방하여 최초의 셔터 시간/v의 전경의 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 19 중의 프레임 #n+1의 좌로부터 9번째의 화소의, 셔터가 개방하여 2번째 내지 4번째의 셔터 시간/v의 배경의 성분은 B33/v가 된다. 도 19 중의 프레임 #n+1의 좌로부터 10번째의 화소의, 셔터가 개방하여 3번째 및 4번째의 셔터 시간/v의 배경의 성분은 B34/v가 된다. 도 19 중의 프레임 #n+1의 좌로부터 11번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간/v의 배경의 성분은 B35/v가 된다.
도 19 중의 프레임 #n+1에서 좌로부터 9번째의 화소 내지 11번째의 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 19 중의 프레임 #n+1의 좌로부터 12번째의 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의 셔터 시간/v의 전경의 성분은 F13/v 내지 F16/v 중 어느 하나이다.
도 20은 도 19에 나타낸 화소치로부터 전경의 성분을 추출한 화상의 모델도이다.
도 4를 다시 참조하면, 영역 특정부(103)는 복수의 프레임의 화소치를 이용 하여, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역에 속하는 것을 나타내는 그래프를 화소마다 대응시켜, 영역 정보로서 혼합비 산출부(104) 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는 복수의 프레임의 화소치, 및 영역 정보를 기초로 하여, 혼합 영역에 포함되는 화소에 대해 화소마다 혼합비 α를 산출하고, 산출한 혼합비 α를 전경 배경 분리부(105)에 공급한다.
전경 배경 분리부(105)는 복수의 프레임의 화소치, 영역 정보, 및 혼합비 α를 기초로 하여, 전경의 성분만으로 이루어진 전경 성분 화상을 추출하여, 움직임 불선명 조정부(106)에 공급한다.
움직임 불선명 조정부(106)는 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로 하여, 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양을 조정한 전경 성분 화상을 출력한다.
도 21의 플로우챠트를 참조하여, 신호처리부(12)에 의한 움직임 불선명의 양의 조정 처리를 설명한다. 단계 S11에서, 영역 특정부(103)는 입력 화상을 기초로 하여, 입력 화상의 화소마다 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 생성하는 영역 특정의 처리를 실행한다. 영역 특정의 처리의 상세는 후술한다. 영역 특정부(103)는 생성한 영역 정보를 혼합비 산출부(104)에 공급한다.
또, 단계 S11에서, 영역 특정부(103)는 입력 화상을 기초로 하여, 입력 화상 의 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 (커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역의 구별을 하지 않음) 중 어디에 속하는지를 나타내는 영역 정보를 생성하도록 해도 된다. 이 경우에서, 전경 배경 분리부(105) 및 움직임 불선명 조정부(106)는 움직임 벡터의 방향을 기초로 하여, 혼합 영역이 커버드 백그라운드 영역인지, 또는 언커버드 백그라운드 영역인지를 판정한다. 예를 들면, 움직임 벡터의 방향에 대응하여, 전경 영역, 혼합 영역, 및 배경 영역으로 순서대로 정렬되어 있을 때, 그 혼합 영역은 커버드 백그라운드 영역으로 판정되고, 움직임 벡터의 방향에 대응하여, 배경 영역, 혼합 영역, 및 전경 영역으로 순서대로 정렬되어 있을 때, 그 혼합 영역은 언커버드 백그라운드 영역으로 판정된다.
단계 S12에서, 혼합비 산출부(104)는 입력 화상 및 영역 정보를 기초로 하여, 혼합 영역에 포함되는 화소마다 혼합비 α를 산출한다. 혼합비 산출의 처리의 상세는 후술한다. 혼합비 산출부(104)는 산출한 혼합비 α를 전경 배경 분리부(105)에 공급한다.
단계 S13에서 전경 배경 분리부(105)는 영역 정보, 및 혼합비 α를 기초로 하여 입력 화상으로부터 전경의 성분을 추출하여, 전경 성분 화상으로서 움직임 불선명 조정부(106)에 공급한다.
단계 S14에서, 움직임 불선명 조정부(106)는 움직임 벡터 및 영역 정보를 기초로 하여, 움직임 방향으로 정렬된 연속된 화소로서, 언커버드 백그라운드 영역, 전경 영역, 및 커버드 백그라운드 영역 중 어디에 속하는 것의 화상 상의 위치를 나타내는 처리 단위를 생성하고, 처리 단위에 대응하는 전경 성분에 포함되는 움직 임 불선명의 양을 조정한다. 움직임 불선명의 양의 조정 처리의 상세에 대해서는 후술한다.
단계 S15에서 신호 처리부(12)는 화면 전체에 대해 처리를 종료했는지의 여부를 판정하고, 화면 전체에 대해 처리를 종료하지 않았다고 판정된 경우, 단계 S14로 진행하여, 처리 단위에 대응하는 전경의 성분을 대상으로 한 움직임 불선명의 양의 조정 처리를 반복한다.
단계 S15에서, 화면 전체에 대해 처리를 종료했다고 판정된 경우, 처리는 종료한다.
이와 같이, 신호 처리부(12)는 전경과 배경을 분리하여, 전경에 포함되는 움직임 불선명의 양을 조정할 수 있다. 즉, 신호 처리부(12)는 전경의 화소의 화소치인 샘플링 데이터에 포함되는 움직임 불선명의 양을 조정할 수 있다.
이하, 영역 특정부(103), 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106) 각각의 구성에 대해 설명한다.
도 22는 영역 특정부(103)의 구성의 일 예를 도시하는 블럭도이다. 도 22에 구성을 나타내는 영역 특정부(103)는 움직임 벡터를 이용하지 않는다. 프레임 메모리(201)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(201)는 처리의 대상이 프레임 #n일 때, 프레임 #n의 2개 전의 프레임인 프레임 #n-2, 프레임 #n의 1개 전의 프레임인 프레임 #n-1, 프레임 #n, 프레임 #n의 1개 후의 프레임인 프레임 #n+1, 및 프레임 #n의 2개 후의 프레임인 프레임 #n+2를 기억한다.
정동 판정부(202-1)는 프레임 #n의 영역 판정의 대상인 화소의 화상 상의 위 치와 동일 위치에 있는 프레임 #n+2의 화소의 화소치, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일 위치에 있는 #n+1의 화소의 화소치를 프레임 메모리(201)로부터 판독하여, 판독한 화소치의 차의 절대치를 산출한다. 정동 판정부(202-1)는 프레임 #n+2의 화소치와 프레임 #n+1의 화소치의 차의 절대치가 미리 설정하고 있는 임계치 Th 보다 큰지의 여부를 판정하고, 차의 절대치가 임계치 Th 보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다. 프레임 #n+2의 화소의 화소치와 프레임 #n+1의 화소의 화소치의 차의 절대치가 임계치 Th 이하라고 판정된 경우, 정동 판정부(202-1)는 정지를 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다.
정동 판정부(202-2)는 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n+1의 화소의 화소치, 및 프레임 #n의 대상이 되는 화소의 화소치를 프레임 메모리(201)로부터 판독하여, 화소치의 차의 절대치를 산출한다. 정동 판정부(202-2)는 프레임 #n+1의 화소치와 프레임 #n의 화소치의 차의 절대치가 미리 설정되어 있는 임계치 Th 보다 큰지의 여부를 판정하고, 화소치의 차의 절대치가 임계치 Th 보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다. 프레임 #n+1의 화소의 화소치와 프레임 #n의 화소의 화소치의 차의 절대치가 임계치 Th 이하라고 판정된 경우, 정동 판정부(202-2)는 정지를 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다.
정동 판정부(202-3)는 프레임 #n의 영역 판정의 대상인 화소의 화소치, 및 프레임 #n의 영역 판정의 대상인 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n-1의 화소의 화소치를 프레임 메모리(201)로부터 판독하여, 화소치의 차의 절대치를 산출한다. 정동 판정부(202-3)는 프레임 #n의 화소치와 프레임 #n-1의 화소치의 차의 절대치가 미리 설정되어 있는 임계치 Th 보다 큰지의 여부를 판정하고, 화소치의 차의 절대치가 임계치 Th 보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다. 프레임 #n의 화소의 화소치와 프레임 #n-1의 화소의 화소치와의 차의 절대치가 임계치 Th 이하이라고 판정된 경우, 정동 판정부(202-3)는 정지를 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다.
정동 판정부(202-4)는 프레임 #n의 영역 판정의 대상인 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n-1의 화소의 화소치, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n-2의 화소의 화소치를 프레임 메모리(201)로부터 판독하여, 화소치의 차의 절대치를 산출한다. 정동 판정부(202-4)는 프레임 #n-1의 화소치와 프레임 #n-2의 화소치와의 차의 절대치가 미리 설정하고 있는 임계치 Th 보다 큰지의 여부를 판정하고, 화소치의 차의 절대치가 임계치 Th 보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다. 프레임 #n-1의 화소의 화소치와 프레임 #n-2의 화소의 화소치의 차의 절대치가 임계치 Th 이하이라고 판정된 경우, 정동 판정부(202-4)는 정지를 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 정지를 나타내고, 또 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 판정의 대상인 화소가 언커버드 백그라운드 영역에 속한다고 판정하여, 영역이 판정된 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그로, 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 움직임을 나타내든가, 또는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 판정의 대상인 화소가 언커버드 백그라운드 영역에 속하지 않는다고 판정하여, 영역이 판정된 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그로, 언커버드 백그라운드 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-1)는 이와 같이 "1" 또는 "0"이 설정된 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 판정의 대상인 화소가 정지 영역에 속한다고 판정하여, 영역이 판정된 화소에 대응하는 정지 영역 판정 플래그로, 정지 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내든가, 또는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 판정의 대상인 화소가 정지 영역에 속하지 않 는다고 판정하여, 영역이 판정된 화소에 대응하는 정지 영역 판정 플래그로, 정지 영역에 속하지 않는 것을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고, 또 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 판정의 대상인 화소가 움직임 영역에 속한다고 판정하여, 영역이 판정된 화소에 대응하는 움직임 영역 판정 플래그로, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내든가, 또는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 판정의 대상인 화소가 움직임 영역에 속하지 않는다고 판정하여, 영역이 판정된 화소에 대응하는 움직임 영역 판정 플래그로, 움직임 영역에 속하지 않는 것을 나타내는 "0"를 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-4)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 판정의 대상인 화소가 커버드 백그라운드 영역에 속한다고 판정하여, 영역이 판정된 화소에 대응하는 커버드 백그라운드 영역 판정 플래그로, 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"를 설정한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내든가, 또는 정동 판정부(202-4)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 판정의 대상인 화소가 커버드 백그라운드 영역에 속하지 않는다고 판정하여, 영역이 판정된 화소에 대응하는 커버드 백그라운드 영역 판정 플래그로, 커버드 백그라운드 영역에 속하지 않는 것을 나타내는 "0"를 설정한다.
영역 판정부(203-3)는 이와 같이 "1" 또는 "0"이 설정된 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
판정 플래그 저장 프레임 메모리(204)는 영역 판정부(203-1)로부터 공급된 언커버드 백그라운드 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 정지 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 움직임 영역 판정 플래그, 및 영역 판정부(203-3)로부터 공급된 커버드 백그라운드 영역 판정 플래그를 각각 기억한다.
판정 플래그 저장 프레임 메모리(204)는 기억하고 있는 언커버드 백그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그를 합성부(205)에 공급한다. 합성부(205)는 판정 플래그 저장 프레임 메모리(204)로부터 공급된, 언커버드 백그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그를 기초로 하여, 각 화소가 언커버드 백그라운드 영역, 정지 영역, 움 직임 영역 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하여, 판정 플래그 저장 프레임 메모리(206)에 공급한다.
판정 플래그 저장 프레임 메모리(206)는 합성부(205)로부터 공급된 영역 정보를 기억함과 함께, 기억하고 있는 영역 정보를 출력한다.
다음에, 영역 특정부(103)의 처리의 예를 도 23 내지 도 27을 참조하여 설명한다.
전경에 대응하는 오브젝트가 이동하고 있을 때, 오브젝트에 대응하는 화상의 화면상의 위치는 프레임마다 변화한다. 도 23에 도시한 바와 같이, 프레임 #n에서, Yn(x, y)로 나타내는 위치에 위치하는 오브젝트에 대응하는 화상은, 다음 프레임인 프레임 #n+1에서, Yn+1(x,y)에 위치한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 일렬로 정렬된 화소의 화소치를 시간 방향으로 전개한 모델도를 도 24에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대해 수평일 때, 도 24에서의 모델도는 하나의 라인 상의 인접하는 화소의 화소치를 시간 방향으로 전개한 모델을 나타낸다.
도 24에서, 프레임 #n에서의 라인은 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에서, 좌로부터 2번째의 화소 내지 13번째의 화소에 포함되어 있는 오브젝트에 대응하는 전경의 성분은, 프레임 #n+1에서 좌로부터 6번째 내지 17번째의 화소에 포함된다.
프레임 #n에서, 커버드 백그라운드 영역에 속하는 화소는 좌로부터 11번째 내지 13번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌로부터 2번째 내지 4번째의 화소이다. 프레임 #n+1에서, 커버드 백그라운드 영역에 속하는 화소는 좌로부터 15번째 내지 17번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌로부터 6번째 내지 8번째의 화소이다.
도 24에 도시한 예에서, 프레임 #n에 포함되는 전경의 성분이 프레임 #n+1에서 4화소 이동하고 있기 때문에, 움직임량 v은 4이다. 가상 분할수는 움직임량 v에 대응하여 4이다.
다음에, 주목하고 있는 프레임의 전후에서의 혼합 영역에 속하는 화소의 화소치의 변화에 대해 설명한다.
도 25에 도시한, 배경이 정지하고, 전경의 움직임량 v이 4인 프레임 #n에서, 커버드 백그라운드 영역에 속하는 화소는 좌로부터 15번째 내지 17번째의 화소이다. 움직임량 v이 4이기 때문에, 하나 전의 프레임 #n-1에서 좌로부터 15번째 내지 17번째의 화소는 배경의 성분만을 포함하고, 배경 영역에 속한다. 또, 더 하나 전의 프레임 #n-2에서 좌로부터 15번째 내지 17번째의 화소는 배경의 성분만을 포함하며, 배경 영역에 속한다.
여기에서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1의 좌로부터 15번째의 화소의 화소치는 프레임 #n-2의 좌로부터 15번째의 화소의 화소치로부터 변화하지 않는다. 마찬가지로, 프레임 #n-1의 좌로부터 16번째의 화소의 화소치는 프레임 #n-2의 좌로부터 16번째의 화소의 화소치로부터 변화하지 않고, 프레임 #n-1의 좌로부터 17번째의 화소의 화소치는 프레임 #n-2의 좌로부터 17 번째의 화소의 화소치로부터 변화하지 않는다.
즉, 프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소는, 배경의 성분만으로 이루어지고, 화소치가 변화하지 않기 때문에, 그 차의 절대치는 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소에 대한 정동 판정은 정동 판정부(202-4)에 의해 정지로 판정된다.
프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소는 전경의 성분을 포함하기 때문에, 프레임 #n-1에서의 배경의 성분만으로 이루어지는 경우와, 화소치가 다르다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소, 및 대응하는 프레임 #n-1의 화소에 대한 정동 판정은 정동 판정부(202-3)에 의해 움직임으로 판정된다.
이와 같이, 영역 판정부(203-3)는 정동 판정부(202-3)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-4)로부터 정지를 나타내는 정동 판정의 결과가 공급될 때, 대응하는 화소가 커버드 백그라운드 영역에 속한다고 판정된다.
도 26에 도시한, 배경이 정지하고, 전경의 움직임량 v이 4인 프레임 #n에서, 언커버드 백그라운드 영역에 포함되는 화소는 좌로부터 2번째 내지 4번째의 화소이다. 움직임량 v이 4이기 때문에, 하나 후의 프레임 #n+1에서, 좌로부터 2번째 내지 4번째의 화소는 배경의 성분만을 포함하고, 배경 영역에 속한다. 또, 더 하나 후의 프레임 #n+2에서 좌로부터 2번째 내지 4번째의 화소는 배경의 성분만을 포함 하고, 배경 영역에 속한다.
여기에서 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n+2의 좌로부터 2번째의 화소의 화소치는 프레임 #n+1의 좌로부터 2번째의 화소의 화소치로부터 변화하지 않는다. 마찬가지로, 프레임 #n+2의 좌로부터 3번째의 화소의 화소치는 프레임 #n+1의 좌로부터 3번째의 화소의 화소치로부터 변화하지 않고, 프레임 #n+2의 좌로부터 4번째의 화소의 화소치는 프레임 #n+1의 좌로부터 4번째의 화소의 화소치로부터 변화하지 않는다.
즉, 프레임 #n에서의 언커버드 백그라운드 영역에 속하는 화소에 대응하는, 프레임 #n+1 및 프레임 #n+2의 화소는 배경의 성분만으로 이루어지고, 화소치가 변화하지 않기 때문에, 그 차의 절대치는 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n+1 및 프레임 #n+2의 화소에 대한 정동 판정은 정동 판정부(202-1)에 의해 정지로 판정된다.
프레임 #n에서의 언커버드 백그라운드 영역에 속하는 화소는 전경의 성분을 포함하기 때문에, 프레임 #n+1에서의 배경의 성분만으로 이루어지는 경우와, 화소치가 다르다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소, 및 대응하는 프레임 #n+1의 화소에 대한 정동 판정은 정동 판정부(202-2)에 의해 움직임으로 판정된다.
이와 같이, 영역 판정부(203-1)는 정동 판정부(202-2)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-1)로부터 정지를 나타내는 정동 판정의 결과가 공급될 때, 대응하는 화소가 언커버드 백그라운드 영역에 속한다 고 판정한다.
도 27은 프레임 #n에서의 영역 판정부(103)의 판정 조건을 나타내는 도면이다. 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n-2의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n-1의 화소가 정지로 판정되고, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임으로 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 정지로 판정되고, 프레임 #n의 화소와 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n+1의 화소가 정지로 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 정지 영역에 속한다고 판정한다.
프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임으로 판정되고, 프레임 #n의 화소와 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n+1의 화소가 움직임으로 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 움직임 영역에 속한다고 판정한다.
프레임 #n의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n+1의 화소가 움직임으로 판정되고, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n+1의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일 위치에 있는 프레임 #n+2의 화소가 정지로 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 28A 내지 도 28D는 영역 특정부(103)의 판정의 결과의 예를 도시하는 도면이다. 도 28A에서, 커버드 백그라운드 영역에 속한다고 판정된 화소는 백으로 표시되어 있다. 도 28B에서 언커버드 백그라운드 영역에 속한다고 판정된 화소는 백으로 표시되어 있다.
도 28C에서, 움직임 영역에 속한다고 판정된 화소는 백으로 표시되어 있다. 도 28D에서 정지 영역에 속한다고 판정된 화소는 백으로 표시되어 있다.
도 29는 판정 플래그 저장 프레임 메모리(206)가 출력하는 영역 정보 중, 혼합 영역을 나타내는 영역 정보를 화상으로 나타내는 도면이다. 도 29에서, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 속한다고 판정된 화소, 즉 혼합 영역에 속한다고 판정된 화소는, 백으로 표시되어 있다. 판정 플래그 저장 프레임 메모리(206)가 출력하는 혼합 영역을 나타내는 영역 정보는, 혼합 영역, 및 전경 영역 내의 텍스쳐가 없는 부분으로 둘러싼 텍스쳐가 갖는 부분을 나타낸다.
다음에, 도 30의 플로우챠트를 참조하여, 영역 특정부(103)의 영역 특정의 처리를 설명한다. 단계 S201에서, 프레임 메모리(201)는 특정의 대상이 되는 프레임 #n을 포함하는 프레임 #n-2 내지 프레임 #n+2의 화상을 취득한다.
단계 S202에서, 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동 일 위치의 화소에서, 정지인지의 여부를 판정하고, 정지로 판정된 경우, 단계 S203으로 진행하고, 정동 판정부(102-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 정지인지의 여부를 판정한다.
단계 S203에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서, 정지로 판정된 경우, 단계 S204로 진행하고, 영역 판정부(203-2)는 영역이 판정된 화소에 대응하는 정지 영역 판정 플래그에 정지 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 프로세스는 단계 S205로 진행한다.
단계 S202에서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서, 움직임으로 판정된 경우, 또는 단계 S203에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서, 움직임으로 판정된 경우, 프레임 #n의 화소가 정지 영역에는 속하지 않기 때문에, 단계 S204의 처리는 스킵되어, 프로세스는 단계 S205로 진행한다.
단계 S205에서 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서, 움직임인지의 여부를 판정하고, 움직임으로 판정된 경우, 단계 S206으로 진행하고, 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임인지의 여부를 판정한다.
단계 S206에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서, 움직임으로 판정된 경우, 단계 S207로 진행하고, 영역 판정부(203-3)는 영역이 판정된 화소에 대응하는 움직임 영역 판정 플래그에 움직임 영역에 속하는 것을 나타 내는 "1"을 설정한다. 영역 판정부(203-2)는 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 프로세스는 단계 S208로 진행한다.
단계 S205에서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서, 정지로 판정된 경우, 또는 단계 S206에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서, 정지로 판정된 경우, 프레임 #n의 화소가 움직임 영역에는 속하지 않기 때문에, 단계 S207의 처리는 스킵되어, 프로세스는 단계 S208로 진행한다.
단계 S208에서 정동 판정부(202-4)는 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에서 정지인지의 여부를 판정하고, 정지로 판정된 경우, 단계 S209로 진행하고, 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 움직임인지의 여부를 판정한다.
단계 S209에서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서, 움직임으로 판정된 경우, 단계 S210으로 진행하고, 영역 판정부(203-3)는 영역이 판정된 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 프로세스는 단계 S211로 진행한다.
단계 S208에서, 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에서, 움직임으로 판정된 경우, 또는 단계 S209에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서, 정지로 판정된 경우, 프레임 #n의 화소가 커버드 백그라운드 영역에는 속하지 않기 때문에, 단계 S210의 처리는 스킵되고, 프로세스는 단계 S211로 진행한다.
단계 S211에서 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임인지의 여부를 판정하고, 움직임으로 판정된 경우, 단계 S212로 진행하고, 정동 판정부(202-1)는 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에서 정지인지의 여부를 판정한다.
단계 S212에서, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에서, 정지로 판정된 경우, 단계 S213로 진행하고, 영역 판정부(203-1)는 영역이 판정된 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-1)는 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 프로세스는 단계 S214로 진행한다.
단계 S211에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서, 정지로 판정된 경우, 또는 단계 S212에서 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에서, 움직임으로 판정된 경우, 프레임 #n의 화소가 언커버드 백그라운드 영역에는 속하지 않기 때문에, 단계 S213의 처리는 스킵되고, 프로세스는 단계 S214로 진행한다.
단계 S214에서, 영역 특정부(103)는 프레임 #n의 모든 화소에 대해 영역을 특정했는지의 여부를 판정하고, 프레임 #n의 모든 화소에 대해 영역을 특정하고 있지 않다고 판정된 경우, 프로세스는 단계 S202으로 리턴하여, 다른 화소에 대해 영역 특정의 처리를 반복한다.
단계 S214에서, 프레임 #n의 모든 화소에 대해 영역을 특정했다고 판정된 경우, 단계 S215로 진행하고, 합성부(205)는 판정 플래그 저장 프레임 메모리(204)에 기억되어 있는 언커버드 백그라운드 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그를 기초로, 혼합 영역을 나타내는 영역 정보를 생성하고, 또 각 화소가 언커버드 백그라운드 영역, 정지 영역, 움직임 영역 및 커버드백 그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하고, 생성한 영역 정보를 판정 플래그 저장 프레임 메모리(206)에 설정하고, 처리는 종료한다.
이와 같이, 영역 특정부(103)는 프레임에 포함되어 있는 화소 각각에 대해, 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
또, 영역 특정부(103)는 언커버드 백그라운드 영역 및 커버드 백그라운드 영역에 대응하는 영역 정보에 논리합을 적용함으로써, 혼합 영역에 대응하는 영역 정보를 생성하여, 프레임에 포함되어 있는 화소 각각에 대해, 움직임 영역, 정지 영역, 또는 혼합 영역에 속하는 것을 나타내는 플래그로 이루어지는 영역 정보를 생성하도록 해도 된다.
전경에 대응하는 오브젝트가 텍스쳐를 갖는 경우, 영역 특정부(103)는 보다 정확하게 움직임 영역을 특정할 수 있다.
영역 특정부(103)는 움직임 영역을 나타내는 영역 정보를 전경 영역을 나타내는 영역 정보로서, 또 정지 영역을 나타내는 영역 정보를 배경 영역을 나타내는 영역 정보로서 출력할 수 있다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명했지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있어도 상술한 영역을 특정하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 균일하게 움직이고 있을 때, 영역 특정부(103)는 그 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또, 배경 영역에 대응하는 화상이 국소마다 다른 움직임을 포함하고 있을 때, 영역 특정부(103)는 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
도 31은 영역 특정부(103)의 구성의 다른 예를 도시하는 블럭도이다. 도 31에 나타낸 영역 특정부(103)는 움직임 벡터를 사용하지 않는다. 배경 화상 생성부(301)는 입력 화상에 대응하는 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다. 배경 화상 생성부(301)는 예를 들면 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여, 배경 화상을 생성한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 일렬로 정렬된 화소의 화소치를 시간 방향으로 전개한 모델도의 예를 도 32에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대해 수평일 때, 도 32에서의 모델도는 하나의 라인 상의 인접하는 화소의 화소치를 시간 방향으로 전개한 모델을 나타낸다.
도 32에서, 프레임 #n에서의 라인은 프레임 #n-1 및 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에서, 좌로부터 6번째의 화소 내지 17번째의 화소에 포함되어 있는 오브젝트에 대응하는 전경의 성분은 프레임 #n-1에서 좌로부터 2번째 내지 13번째의 화소에 포함되고, 프레임 #n+1에서 좌로부터 10번째 내지 21번째의 화소에 포함된다.
프레임 #n-1에서 커버드 백그라운드 영역에 속하는 화소는 좌로부터 11번째 내지 13번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌로부터 2번째 내지 4번째의 화소이다. 프레임 #n에서 커버드 백그라운드 영역에 속하는 화소는 좌로부터 15번째 내지 17번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌로부터 6번째 내지 8번째의 화소이다. 프레임 #n+1에서 커버드 백그라운드 영역에 속하는 화소는 좌로부터 19번째 내지 21번째의 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌로부터 10번째 내지 12번째의 화소이다.
프레임 #n-1에서, 배경 영역에 속하는 화소는 좌로부터 1번째의 화소, 및 좌로부터 14번째 내지 21번째의 화소이다. 프레임 #n에서 배경 영역에 속하는 화소는 좌로부터 1번째 내지 5번째 화소, 및 좌로부터 18번째 내지 21번째의 화소이다. 프레임 #n+1에서 배경 영역에 속하는 화소는 좌로부터 1번째 내지 9번째의 화소이다.
배경 화상 생성부(301)가 생성하는, 도 32의 예에 대응하는 배경 화상의 예를 도 33에 도시한다. 배경 화상은 배경의 오브젝트에 대응하는 화소로 구성되고, 전경의 오브젝트에 대응하는 화상의 성분을 포함하지 않는다.
2치 오브젝트 화상 추출부(302)는 배경 화상 및 입력 화상의 상관을 기초로 하여, 2치 오브젝트 화상을 생성하고, 생성한 2치 오브젝트 화상을 시간 변화 검출부(303)에 공급한다.
도 34는 오브젝트 화상 추출부(302)의 구성을 도시하는 블럭도이다. 상관치 연산부(321)는 배경 화상 생성부(301)로부터 공급된 배경 화상 및 입력 화상의 상관을 연산하여, 상관을 생성하고, 생성한 상관치를 임계치 처리부(322)에 공급한다.
상관치 연산부(321)는 예를 들면 도 35A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 중의 블럭과, 도 35B에 도시한 바와 같이, 배경 화상 중의 블럭에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 중의 블럭에 수학식 4를 적용하여 Y4에 대응하는 상관치를 산출한다.
Figure 112002032648010-pct00004
Figure 112002032648010-pct00005
Figure 112002032648010-pct00006
상관치 연산부(321)는 이와 같이 각 화소에 대응하여 산출된 상관치를 임계치 처리부(322)에 공급한다.
또, 상관치 연산부(321)는 예를 들면 도 36A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 중의 블럭과, 도 36B에 도시한 바와 같이, 배경 화상 중의 블럭에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 중의 블럭에 수학식 7을 적용하여 Y4에 대응하는 차분 절대치합을 산출하도록 해도 된다.
Figure 112002032648010-pct00007
상관치 연산부(321)는 이와 같이 산출된 차분 절대치합을 상관치로 하여, 임계치 처리부(322)에 공급한다.
임계치 처리부(322)는 상관 화상의 화소치와 임계치 th0를 비교하여, 상관치가 임계치 th0 이하인 경우, 2치 오브젝트 화상의 화소치에 1을 설정하고, 상관치가 임계치 th0 보다 큰 경우, 2치 오브젝트 화상의 화소치에 0을 설정하여, 0 또는 1이 화소치로 설정된 2치 오브젝트 화상을 출력한다. 임계치 처리부(322)는 임계치 th0를 미리 기억하도록 해도 되고, 또는 외부로부터 입력된 임계치 th0을 사용하도록 해도 된다.
도 37은 도 32에 도시한 입력 화상의 모델에 대응하는 2치 오브젝트 화상의 예를 도시하는 도면이다. 2치 오브젝트 화상에서, 배경 화상과 상관이 높은 화소에는 화소치로 0이 설정된다.
도 38은 시간 변화 검출부(303)의 구성을 도시하는 블럭도이다. 프레임 메모리(341)는 프레임 #4의 화소에 대해 영역을 판정할 때, 2치 오브젝트 화상 추출 부(302)로부터 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상을 기억한다.
영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상을 기초로 하여, 프레임 #n의 각 화소에 대해 영역을 판정하여, 영역 정보를 생성하고, 생성한 영역 정보를 출력한다.
도 39는 영역 판정부(342)의 판정을 설명하는 도면이다. 프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 0일 때, 영역 판정부(342)는 프레임 #n이 주목하고 있는 화소가 배경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상의 대응하는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상이 대응하는 화소가 1일 때, 영역 판정부(342)는 프레임 #n이 주목하고 있는 화소가 전경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는 프레임 #n이 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는 프레임 #n이 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 40은 도 32에 도시한 입력 화상의 모델에 대응하는 2치 오브젝트 화상에 대해, 시간 변화 검출부(303)이 판정한 예를 도시하는 도면이다. 시간 변화 검출 부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 프레임 #n의 좌로부터 1번째 내지 5번째의 화소를 배경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n+1의 대응하는 화소가 0이기 때문에, 좌로부터 6번째 내지 9번째의 화소를 언커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 1이고, 프레임 #n+1의 대응하는 화소가 1이기 때문에, 좌로부터 10번째 내지 13번째의 화소를 전경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 0이기 때문에, 좌로부터 14번째 내지 17번째의 화소를 커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 좌로부터 18번째 내지 21번째의 화소를 배경 영역에 속한다고 판정한다.
다음에, 도 41의 플로우챠트를 참조하여, 영역 특정부(103)의 영역 판정의 처리를 설명한다. 단계 S301에서, 영역 특정부(103)의 배경 화상 생성부(301)는 입력 화상을 기초로 하여, 예를 들면 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다.
단계 S302에서, 2치 오브젝트 화상 추출부(302)는 예를 들면, 도 35A 및 도 35B를 참조하여 설명한 연산에 의해, 입력 화상과 배경 화상 생성부(301)로부터 공급된 배경 화상과의 상관치를 연산한다. 단계 S303에서 2치 오브젝트 화상 추출부(302)는 예를 들면 상관치와 임계치 th0를 비교함으로써, 상관치 및 임계치 th0로부터 2치 오브젝트 화상을 연산한다.
단계 S304에서, 시간 변화 검출부(303)는 영역 판정의 처리를 실행하고, 처리는 종료한다.
도 42의 플로우챠트를 참조하여 단계 S304에 대응하는 영역 판정의 처리의 상세를 설명한다. 단계 S321에서, 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서, 주목하는 화소가 0인지의 여부를 판정하고, 프레임 #n에서 주목하는 화소가 0이라고 판정된 경우, 단계 S322로 진행하고, 프레임 #n의 주목하는 화소가 배경 영역에 속한다고 설정하여 처리는 종료한다.
단계 S321에서 프레임 #n에서 주목하는 화소가 1이라고 판정된 경우, 단계 S323으로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 1이고, 또 프레임 #n-1에서 대응하는 화소가 0인지의 여부를 판정하고, 프레임 #n에서 주목하는 화소가 1이고 또 프레임 #n-1에서 대응하는 화소가 0이라고 판정된 경우, 단계 S324로 진행하고, 프레임 #n의 주목하는 화소가 커버드 백그라운드 영역에 속한다고 설정하고, 처리는 종료한다.
단계 S323에서, 프레임 #n에서 주목하는 화소가 0이든지, 또는 프레임 #n-1 에서 대응하는 화소가 1이라고 판정된 경우, 단계 S325로 진행하며, 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 1이고, 또 프레임 #n+1에서 대응하는 화소가 0인지의 여부를 판정하고, 프레임 #n에서 주목하는 화소가 1이고, 또 프레임 #n+1에서 대응하는 화소가 0이라고 판정된 경우, 단계 S326로 진행하며, 프레임 #n의 주목하는 화소가 언커버드 백그라운드 영역에 속한다고 설정하고 처리는 종료한다.
단계 S325에서, 프레임 #n에서 주목하는 화소가 0이든지, 또는 프레임 #n+1에서 대응하는 화소가 1이라고 판정된 경우, 단계 S327로 진행하며 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 #n의 주목하는 화소를 전경 영역으로 설정하고 처리는 종료한다.
이와 같이, 영역 특정부(103)는 입력된 화상과 대응하는 배경 화상과의 상관치를 기초로 하여, 입력 화상의 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 특정하고, 특정한 결과에 대응하는 영역 정보를 생성할 수 있다.
도 43은 영역 특정부(103)의 다른 구성을 도시하는 블럭도이다. 도 43에 도시한 영역 특정부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 사용한다. 도 31에 도시한 경우와 동일한 부분에는 동일 부호를 붙이어, 그 설명을 생략한다
로버스트화부(361)는 2치 오브젝트 화상 추출부(302)로부터 공급된, N개의 프레임의 2치 오브젝트 화상을 기초로 하여, 로버스트화된 2치 오브젝트 화상을 생 성하여, 시간 변화 검출부(303)에 출력한다.
도 44는 로버스트화부(361)의 구성을 설명하는 블럭도이다. 움직임 보상부(381)는 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로 하여, N개의 프레임의 2치 오브젝트 화상의 움직임을 보상하여, 움직임이 보상된 2치 오브젝트 화상을 스위치(382)에 출력한다.
도 45 및 도 46의 예를 참조하여, 움직임 보상부(381)의 움직임 보상에 대해 설명한다. 예를 들면, 프레임 #n의 영역을 판정할 때, 도 45에 예를 나타내는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상이 입력된 경우, 움직임 보상부(381)는 움직임 검출부(102)로부터 공급된 움직임 벡터를 기초로 하여, 도 46에 예를 나타낸 바와 같이, 프레임 #n-1의 2치 오브젝트 화상, 및 프레임 #n+1의 2치 오브젝트 화상을 움직임 보상하여, 움직임 보상된 2치 오브젝트 화상을 스위치(382)에 공급한다.
스위치(382)는 1번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-1)에 출력하고, 2번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-2)에 출력한다. 마찬가지로, 스위치(382)는 3번째 내지 N-1번째의 프레임의 움직임 보상된 2치 오브젝트 화상 각각을 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나에 출력하고, N번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-N)에 출력한다.
프레임 메모리(383-1)는 1번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-1)에 출력한 다. 프레임 메모리(383-2)는 2번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-2)에 출력한다.
마찬가지로, 가중치 부여부(384-3) 내지 프레임 메모리(383-(N-1))의 각각은 3번째의 프레임 내지 N-1번째 프레임의 움직임 보상된 2치 오브젝트 화상 중 어느 하나를 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1)) 중 어느 하나에 출력한다. 프레임 메모리(383-N)는 N번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-N)에 출력한다.
가중치 부여부(384-1)는 프레임 메모리(383-1)로부터 공급된 1번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 화소치에 미리 정한 가중치 w1를 곱해, 적산부(385)에 공급한다. 가중치 부여부(384-2)는 프레임 메모리(383-2)로부터 공급된 2번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 화소치에 미리 정한 가중치 w2를 곱해 적산부(385)에 공급한다.
마찬가지로, 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1))의 각각은 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1))의 어느 하나로부터 공급된 3번째 내지 N-1번째 중 어느 하나의 프레임의 움직임 보상된 2치 오브젝트 화상의 화소치에 미리 정한 가중치 w3 내지 가중치 w(N-1) 중 어느 하나를 곱해, 적산부(385)에 공급한다. 가중치 부여부(384-N)는 프레임 메모리(383-N)로부터 공급된 N번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 화소치에 미리 정한 가 중치 wN를 곱해 적산부(385)에 공급한다.
적산부(385)는 1 내지 N번째의 프레임의 움직임 보상되고, 각각 가중치 w1 내지 wN 중 어느 하나가 승산된, 2치 오브젝트 화상의 대응하는 화소치를 적산하고, 적산된 화소치를 미리 정한 임계치 th0와 비교함으로써 2치 오브젝트 화상을 생성한다.
이와 같이, 로버스트화부(361)는 N개의 2치 오브젝트 화상으로부터 로버스트화된 2치 오브젝트 화상을 생성하여, 시간 변화 검출부(303)에 공급하기 때문에, 도 43에서 구성을 도시하는 영역 특정부(103)는 입력 화상에 노이즈가 포함되어 있어도, 도 31에 도시하는 경우에 비하여, 보다 정확하게 영역을 특정할 수 있다.
다음에, 도 43에 구성을 도시하는 영역 특정부(103)의 영역 특정의 처리에 대해, 도 47의 플로우챠트를 참조하여 설명한다. 단계 S341 내지 단계 S343의 처리는 도 41의 플로우챠트에서 설명한 단계 S301 내지 단계 S303과 각각 마찬가지이므로, 그 설명은 생략한다.
단계 S344에서, 로버스트화부(361)는 로버스트화의 처리를 실행한다.
단계 S345에서, 시간 변화 검출부(303)는 영역 특정의 처리를 실행하고, 처리는 종료한다. 단계 S345의 처리의 상세는 도 42의 플로우챠트를 참조하여 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
다음에, 도 48의 플로우챠트를 참조하여, 도 47의 단계 S344의 처리에 대응하는, 로버스트화의 처리의 상세에 대해 설명한다. 단계 S361에서 움직임 보상부(381)는 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기 초로 하여, 입력된 2치 오브젝트 화상의 움직임 보상 처리를 실행한다. 단계 S362에서 프레임 메모리(383-1 내지 388-N) 중 어느 하나는 스위치(382)를 통해 공급된 움직임 보상된 2치 오브젝트 화상을 기억한다.
단계 S363에서 로버스트화부(361)는 N개의 2치 오브젝트 화상이 기억되었는지의 여부를 판정하고, N개의 2치 오브젝트 화상이 기억되어 있지 않다고 판정된 경우, 단계 S361로 리턴하여, 2치 오브젝트 화상의 움직임 보상 처리 및 2치 오브젝트 화상의 기억 처리를 반복한다.
단계 S363에서, N개의 2치 오브젝트 화상이 기억되었다고 판정된 경우, 단계 S364로 진행하고, 가중치 부여부(384-1 내지 384-N) 각각은 N개의 2치 오브젝트 화상의 각각에 w1 내지 wN 중 어느 하나의 가중치를 승산하여 가중치 부여를 행한다.
단계 S365에서, 적산부(385)는 가중된 N개의 2치 오브젝트 화상을 적산한다.
단계 S366에서, 적산부(385)는 예를 들면 미리 정한 임계치 th1과의 비교 등에 의해, 적산된 화상으로부터 2치 오브젝트 화상을 생성하고, 처리는 종료한다.
이와 같이, 도 43에 구성을 도시하는 영역 특정부(103)는 로버스트화된 2치 오브젝트 화상을 기초로 하여, 영역 정보를 생성할 수 있다.
이상과 같이, 영역 특정부(103)는 프레임에 포함되어 있는 화소의 각각에 대해, 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
도 49는 혼합비 산출부(104)의 구성의 일 예를 도시하는 블럭도이다. 추정 혼합비 처리부(401)는 입력 화상을 기초로 하여, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
추정 혼합비 처리부(402)는 입력 화상을 기초로 하여, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
전경에 대응하는 오브젝트가 셔터 시간 내에 등속으로 움직이고 있다고 가정할 수 있기 때문에, 혼합 영역에 속하는 화소의 혼합비 α는 이하의 성질을 갖는다. 즉, 혼합비 α는 화소의 위치의 변화에 대응하여, 직선적으로 변화한다. 화소의 위치의 변화를 1차원으로 하면, 혼합비 α의 변화는 직선으로 표현할 수 있고, 화소의 위치의 변화를 2차원으로 하면, 혼합비 α의 변화는 평면으로 표현할 수 있다.
또, 1 프레임의 기간은 짧기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다는 가정이 성립한다.
이 경우, 혼합비 α의 기울기는 전경의 셔터 시간 내에서의 움직임량 v의 역비가 된다.
이상적인 혼합비 α의 예를 도 50에 도시한다. 이상적인 혼합비 α의 혼합 영역에서의 기울기 l은 움직임량 v의 역수로서 나타낼 수 있다.
도 50에 도시한 바와 같이, 이상적인 혼합비 α는 배경 영역에서 l의 값을 갖고, 전경 영역에서 0의 값을 갖고, 혼합 영역에서 0을 초과하고 1미만의 값을 갖는다.
도 51의 예에서, 프레임 #n의 좌로부터 7번째의 화소의 화소치 C06은 프레임 #n-1의 좌로부터 7번째의 화소의 화소치 P06을 이용하여, 수학식 8로 나타낼 수 있다.
Figure 112002032648010-pct00008
수학식 8에서, 화소치 C06을 혼합 영역의 화소의 화소치 M와, 화소치 P06을 배경 영역의 화소의 화소치 B로 표현한다. 즉, 혼합 영역의 화소의 화소치 M 및 배경 영역의 화소의 화소치 B는 각각 수학식 9 및 10과 같이 표현할 수 있다.
Figure 112002032648010-pct00009
Figure 112002032648010-pct00010
수학식 8 중의 2/v는 혼합비 α에 대응한다. 움직임량 v가 4이기 때문에, 프레임 #n의 좌로부터 7번째의 화소의 혼합비 α는 0.5로 된다.
이상과 같이, 주목하고 있는 프레임 #n의 화소치 C를 혼합 영역의 화소치로 간주하고, 프레임 #n의 앞의 프레임 #n-1의 화소치 P를 배경 영역의 화소치로 간주하여, 혼합비 α를 나타내는 수학식 3은 수학식 11과 같이 개시된다.
Figure 112002032648010-pct00011
수학식 11의 f는 주목하고 있는 화소에 포함되는 전경의 성분의 합 ∑iFi/v이다. 수학식 11에 포함되는 변수는 혼합비 α 및 전경의 성분의 합 f의 2개이다.
마찬가지로, 언커버드 백그라운드 영역에서의 움직임량 v이 4이고, 시간 방향의 가상 분할수가 4인, 화소치를 시간 방향으로 전개한 모델을 도 52에 도시한다.
언커버드 백그라운드 영역에서, 상술한 커버드 백그라운드 영역에서의 표현과 마찬가지로, 주목하고 있는 프레임 #n의 화소치 C를 혼합 영역의 화소치로 간주하고, 프레임 #n 다음의 프레임 #n+1의 화소치 N을 배경 영역의 화소치로 간주하여, 혼합비 α를 나타내는 수학식 3은 수학식 12와 같이 표현할 수 있다.
Figure 112002032648010-pct00012
또, 배경의 오브젝트가 정지하고 있는 것으로 설명했지만, 배경의 오브젝트가 움직이고 있는 경우에도, 배경의 움직임량 v에 대응시킨 위치의 화소의 화소치를 이용함으로써, 수학식 8 내지 12를 적용할 수 있다. 예를 들어, 도 51에서, 배경에 대응하는 오브젝트의 움직임량 v이 2이고, 가상 분할수가 2일 때, 배경에 대응하는 오브젝트가 도면 중의 우측으로 움직이고 있을 때, 수학식 10에서의 배경 영역의 화소의 화소치 B는 화소치 P04로 된다.
수학식 11 및 수학식 12는 각각 2개의 변수를 포함하기 때문에, 그 상태로는 혼합비 α를 구할 수 없다. 여기에서, 화상은 일반적으로 공간적으로 상관이 강하 기 때문에 근접하는 화소끼리 거의 동일한 화소치로 된다.
따라서, 전경 성분은 공간적으로 상관이 강하기 때문에, 전경의 성분의 합 f를 전 또는 후의 프레임으로부터 도출시키도록 식을 변형하여, 혼합비 α를 구한다.
도 53의 프레임 #n의 좌로부터 7번째의 화소의 화소치 Mc는 수학식 13으로 표현할 수 있다.
Figure 112002032648010-pct00013
수학식 13의 우변 제1항의 2/v는 혼합비 α에 상당한다. 수학식 13의 우변 제2 항은 후의 프레임 #n+1의 화소치를 이용하여, 수학식 14와 같이 나타내는 것으로 한다.
Figure 112002032648010-pct00014
여기에서, 전경의 성분의 공간 상관을 이용하여, 수학식 15가 성립하는 것으로 한다.
Figure 112002032648010-pct00015
수학식 14는 수학식 15를 이용하여 수학식 16과 같이 개시할 수 있다.
Figure 112002032648010-pct00016
결과적으로, β는 수학식 17로 나타낼 수 있다.
Figure 112002032648010-pct00017
일반적으로, 수학식 15에서 나타낸 바와 같이, 혼합 영역에 관계하는 전경의 성분이 같다고 가정하면, 혼합 영역의 모든 화소에 대해, 내분비의 관계로부터 수학식 18이 성립한다.
Figure 112002032648010-pct00018
수학식 18이 성립한다고 하면, 수학식 11은 수학식 19에 나타낸 바와 같이 전개할 수 있다.
Figure 112002032648010-pct00019
마찬가지로, 수학식 18이 성립한다고 하면, 수학식 12는 수학식 20에 나타낸 바와 같이 전개할 수 있다.
Figure 112002032648010-pct00020
수학식 19 및 수학식 20에서, C, N 및 P는 기지의 화소치이기 때문에, 수학식 19 및 수학식 20에 포함되는 변수는 혼합비 α만이다. 수학식 19 및 수학식 20에서의 C, N 및 P의 관계를 도 54에 도시한다. C는, 혼합비 α를 산출하는, 프레임 #n의 주목하고 있는 화소의 화소치이다. N은, 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n+1의 화소의 화소치이다. P는, 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n-1의 화소의 화소치이다.
따라서, 수학식 19 및 수학식 20 각각에 1개의 변수가 포함되게 되기 때문에, 3개의 프레임의 화소의 화소치를 이용하여 혼합비 α를 산출할 수 있다. 수학식 19 및 수학식 20을 풀어, 정확한 혼합비 α가 산출되기 위한 조건은, 혼합 영역에 관계하는 전경의 성분이 같은, 즉 전경의 오브젝트가 정지하고 있을 때 촬상된 전경의 화상 오브젝트에서, 전경의 오브젝트의 움직임 방향에 대응하는 화상 오브젝트의 경계에 위치하는 화소로서, 움직임량 v의 2배의 수의 연속하고 있는 화소의 화소치가 일정한 것이다.
이상과 같이, 커버드 백그라운드 영역에 속하는 화소의 혼합비 α는 수학식 21에 의해 산출되고, 언커버드 백그라운드 영역에 속하는 화소의 혼합비 α는 수학식 22에 의해 도출된다.
Figure 112002032648010-pct00021
Figure 112002032648010-pct00022
도 55는 추정 혼합비 처리부(401)의 구성을 도시하는 블럭도이다. 프레임 메모리(421)는 입력된 화상을 프레임 단위로 기억하고, 입력 화상으로서 입력되어 있는 프레임으로부터 1개 후의 프레임을 프레임 메모리(422) 및 혼합비 연산부(423)에 공급한다.
프레임 메모리(422)는 입력된 화상을 프레임 단위로 기억하고, 프레임 메모리(421)로부터 공급되어 있는 프레임으로부터 1개 후의 프레임을 혼합비 연산부(423)에 공급한다.
따라서, 입력 화상으로서 프레임 #n+1이 혼합비 연산부(423)에 입력되어 있을 때, 프레임 메모리(421)는 프레임 #n을 혼합비 연산부(423)에 공급하고, 프레임 메모리(422)는 프레임 #n-1을 혼합비 연산부(423)에 공급한다.
혼합비 연산부(423)는 수학식 21에 나타낸 연산에 의해, 프레임 #n의 주목하고 있는 화소의 화소치 C와, 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n+1의 화소의 화소치 N과, 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n-1의 화소의 화소치 P를 기초로 하여, 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다. 예를 들면 배경이 정지하고 있을 때, 혼합비 연산부(423)는 프레임 #n의 주목하고 있는 화소의 화소치 C와, 주목하고 있는 화소와 프레임 내의 위치가 동일하고, 프레임 #n+1의 화소의 화소치 N과, 주목하고 있는 화소와 프레임 내의 위치가 동일하고, 프레임 #n-1의 화소의 화소치 P를 기초로 하여, 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 산출하여 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는 추정 혼합비 처리부(401)가 수학식 21에 나타낸 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 데에 비해, 수학식 22에 나타낸 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 부분이 다른 것을 제외하고, 추정 혼합비 처리부(401)과 마찬가지이므로, 그 설명은 생략한다.
도 56은 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 도시하는 도면이다. 도 56에 도시한 추정 혼합비는 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임량 v이 11인 경우의 결과를, 1라인에 대해 도시한 것이다.
추정 혼합비는, 혼합 영역에서 도 50에 도시한 바와 같이 거의 직선적으로 변화하는 것을 알 수 있다.
도 49를 다시 참조하면, 혼합비 결정부(403)는 영역 특정부(103)으로부터 공급된, 혼합비 α의 산출 대상이 되는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 기초로 하여, 혼합비 α를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비 α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비 α로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비 α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비 α로 설정한다. 혼합비 결정부(403)는 영역 정보를 기초로 설정한 혼합비 α를 출력한다.
도 57은 혼합비 산출부(104)의 다른 구성을 도시하는 블럭도이다. 선택부(441)는 영역 특정부(103)으로부터 공급된 영역 정보를 기초로 하여, 커버드 백그라운드 영역에 속하는 화소 및 이에 대응하는 전 및 후 프레임의 화소를 추정 혼합비 처리부(442)에 공급한다. 선택부(441)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 언커버드 백그라운드 영역에 속하는 화소 및 이에 대응하는 전 및 후 프레임의 화소를 추정 혼합비 처리부(443)에 공급한다.
추정 혼합비 처리부(442)는 선택부(441)로부터 입력된 화소치를 기초로 하여 수학식 21에 나타낸 연산에 의해 커버드 백그라운드 영역에 속하는 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 선택부(444)에 공급한다.
추정 혼합비 처리부(443)는 선택부(441)로부터 입력된 화소치를 기초로 하여, 수학식 22에 나타낸 연산에 의해 언커버드 백그라운드 영역에 속하는 주목하고 있는 화소의 추정 혼합비를 산출하여 산출한 추정 혼합비를 선택부(444)에 공급한다.
선택부(444)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로 하여, 대상이 되는 화소가 전경 영역에 속하는 경우, 0인 추정 혼합비를 선택하여 혼합비 α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1인 추정 혼합비를 선택하여 혼합비 α로 설정한다. 선택부(444)는 대상이 되는 화소가 커버드 백그 라운드 영역에 속하는 경우, 추정 혼합비 처리부(442)로부터 공급된 추정 혼합비를 선택하여 혼합비 α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(443)으로부터 공급된 추정 혼합비를 선택하여 혼합비 α로 설정한다. 선택부(444)는 영역 정보를 기초로 선택하여 설정한 혼합비 α를 출력한다.
이와 같이, 도 57에 도시한 다른 구성을 갖는 혼합비 산출부(104)는 화상이 포함되는 화소마다 혼합비 α를 산출하여 산출한 혼합비 α를 출력할 수 있다.
도 58의 플로우챠트를 참조하여, 도 49에 구성을 도시하는 혼합비 산출부(104)의 혼합비 α의 산출 처리를 설명한다. 단계 S401에서, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보를 취득한다. 단계 S402에서, 추정 혼합비 처리부(401)는 커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다. 혼합비 추정의 연산 처리의 상세는 도 59의 플로우챠트를 참조하여 후술한다.
단계 S403에서, 추정 혼합비 처리부(402)는 언커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
단계 S404에서, 혼합비 산출부(104)는 프레임 전체에 대해, 혼합비 α를 추정했는지의 여부를 판정하고, 프레임 전체에 대해 혼합비 α를 추정하고 있지 않다고 판정된 경우, 단계 S402로 돌아가 다음 화소에 대해 혼합비 α를 추정하는 처리 를 실행한다.
단계 S404에서, 프레임 전체에 대해 혼합비 α를 추정했다고 판정된 경우, 단계 S405로 진행하고, 혼합비 결정부(403)는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어디에 속하는지를 나타내는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로 하여, 혼합비 α를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 1을 혼합비 α로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비 α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비 α로 설정하고, 처리는 종료한다.
이와 같이, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보 및 입력 화상을 기초로 하여, 각 화소에 대응하는 특징량인 혼합비 α를 산출할 수 있다.
도 57에 구성을 도시한 혼합비 산출부(104)의 혼합비 α의 산출 처리는, 도 58의 플로우챠트로 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
다음에, 도 58의 단계 S402에 대응하는 커버드 백그라운드 영역 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 59의 플로우챠트를 참조하여 설명한다.
단계 S421에서, 혼합비 연산부(423)는 프레임 메모리(421)로부터 프레임 #n의 주목 화소의 화소치 C를 취득한다.
단계 S422에서, 혼합비 연산부(423)는 프레임 메모리(422)로부터 주목 화소 에 대응하는, 프레임 #n-1의 화소의 화소치 P를 취득한다.
단계 S423에서 혼합비 연산부(423)는 입력 화상에 포함되는 주목 화소에 대응하는, 프레임 #n+1의 화소의 화소치 N을 취득한다.
단계 S424에서, 혼합비 연산부(423)는 프레임 #n의 주목 화소의 화소치 C, 프레임 #n-1의 화소의 화소치 P, 및 프레임 #n+1의 화소의 화소치 N을 기초로 하여, 추정 혼합비를 연산한다.
단계 S425에서, 혼합비 연산부(423)는 프레임 전체에 대해 추정 혼합비를 연산하는 처리를 종료했는지의 여부를 판정하고, 프레임 전체에 대해 추정 혼합비를 연산하는 처리를 종료하지 않았다고 판정된 경우, 단계 S421로 돌아가 다음 화소에 대해 추정 혼합비를 연산하는 처리를 반복한다.
단계 S425에서, 프레임 전체에 대해 추정 혼합비를 연산하는 처리를 종료했다고 판정된 경우, 처리는 종료한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 연산할 수 있다.
도 58의 단계 S403에서의 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 식을 이용한 도 59의 플로우챠트에 도시한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 도 57에 도시한 추정 혼합비 처리부(442) 및 추정 혼합비 처리부(443)는 도 59에 도시한 플로우챠트와 마찬가지의 처리를 실행하여 추정 혼합비를 연산하므로 그 설명은 생략한다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명했지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있어도 상술한 혼합비 α를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 균일하게 이동하고 있을 때, 추정 혼합비 처리부(401)는 배경의 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또, 배경 영역에 대응하는 화상이 국소마다 상이한 배경의 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는 혼합 영역에 속하는 화소에 대응하는 화소로서 배경의 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
또, 혼합비 산출부(104)는 모든 화소에 대해 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여, 산출된 추정 혼합비를 혼합비 α로서 출력하도록 해도 된다. 이 경우, 혼합비 α는 커버드 백그라운드 영역에 속하는 화소에 대해 배경의 성분의 비율을 나타내고, 언커버드 백그라운드 영역에 속하는 화소에 대해 전경의 성분의 비율을 나타낸다. 언커버드 백그라운드 영역에 속하는 화소에 대해, 이와 같이 산출된 혼합비 α와 1의 차분의 절대치를 산출하고, 산출한 절대치를 혼합비 α로 설정하면, 신호 처리부(12)는 언커버드 백그라운드 영역에 속하는 화소에 대해 배경의 성분의 비율을 나타내는 혼합비 α를 구할 수 있다.
또, 마찬가지로, 혼합비 산출부(104)는 모든 화소에 대해 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여, 산출된 추정 혼합비를 혼합비 α로서 출력하도록 해도 된다.
다음에, 혼합비 산출부(104)의 다른 처리에 대해 설명한다.
셔터 시간 내에서, 전경에 대응하는 오브젝트가 등속으로 움직이는 것에 의한 화소의 위치 변화에 대응하여, 혼합비 α가 직선적으로 변화하는 성질을 이용하여, 공간 방향으로 혼합비 α와 전경의 성분의 합 f를 근사한 식을 세울 수 있다. 혼합 영역에 속하는 화소의 화소치 및 배경 영역에 속하는 화소의 화소치의 세트의 복수를 이용하여, 혼합비 α와 전경의 성분의 합 f를 근사한 식을 푸는 것에 의해, 혼합비 α를 산출한다.
혼합비 α의 변화를 직선으로 근사하면, 혼합비 α는 수학식 23으로 나타낼 수 있다.
Figure 112002032648010-pct00023
수학식 23에서, i는 주목하고 있는 화소의 위치를 0으로 한 공간 방향의 인덱스이다. l은 혼합비 α의 직선의 기울기이다. p는 혼합비 α의 직선의 절편임과 함께, 주목하고 있는 화소의 혼합비 α이다. 수학식 23에서, 인덱스 i는 이미 알고 있는 것이지만, 기울기 i 및 절편 p는 모르는 것이다.
인덱스 i, 기울기 l, 및 절편 p의 관계를 도 60에 도시한다.
혼합비 α를 수학식 23과 같이 근사함으로써, 복수의 화소에 대해 복수의 서로 다른 혼합비 α는 두 개의 변수로 표현된다. 도 60에 도시한 예에서, 5개의 화소에 대한 5개의 혼합비는 두 개의 변수인 기울기 l 및 절편 p에 의해 표현된다.
도 61에 도시한 평면에서 혼합비 α를 근사하면, 화상의 수평 방향 및 수직 방향의 두 방향에 대응하는 기울기 v를 고려할 때, 수학식 23을 평면으로 확장하여 혼합비 α는 수학식 24로 나타낼 수 있다.
Figure 112002032648010-pct00024
수학식 24에서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다. m은 혼합비 α의 면의 수평 방향의 기울기이고, q는 혼합비 α의 면의 수직 방향의 기울기이다. p는 혼합비 α의 면의 절편이다.
예를 들면, 도 51에 도시한 프레임 #n에서 C05 내지 C07에 대해 각각 수학식 25 내지 27이 성립한다.
Figure 112002032648010-pct00025
Figure 112002032648010-pct00026
Figure 112002032648010-pct00027
전경의 성분이 근방에서 일치하는, 즉 F01 내지 F03이 같은 것으로 하여, F01 내지 F03를 Fc로 치환하면 수학식 28이 성립한다.
Figure 112002032648010-pct00028
수학식 28에서, x는 공간 방향의 위치를 나타낸다.
α(x)를 수학식 24로 치환하면, 수학식 28는 수학식 29로 나타낼 수 있다.
Figure 112002032648010-pct00029
수학식 29에서, (-m·Fc), (-q·Fc), 및 (1-p)·Fc는 수학식 30 내지 32에 나타낸 바와 같이 치환되어 있다.
Figure 112002032648010-pct00030
Figure 112002032648010-pct00031
Figure 112002032648010-pct00032
수학식 29에서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다.
이와 같이, 전경에 대응하는 오브젝트 셔터 시간 내에서 등속으로 이동하고, 전경에 대응하는 성분이 근방에서 일정하다고 하는 가정이 성립하기 때문에, 전경의 성분의 합은 수학식 29로 근사된다.
또, 혼합비 α를 직선으로 근사하는 경우, 전경의 성분의 합은 수학식 33으로 나타낼 수 있다.
Figure 112002032648010-pct00033
수학식 13의 혼합비 α 및 전경 성분의 합을 수학식 24 및 수학식 29을 이용하여 치환하면, 화소치 M은 수학식 34로 표현된다.
Figure 112002032648010-pct00034
수학식 34에서 미지의 변수는 혼합비 α의 면의 수평 방향의 기울기 m, 혼합비 α의 면의 수직 방향의 기울기 q, 혼합비 α의 면의 절편 p, s, t 및 u의 6개이다.
주목하고 있는 화소의 근방의 화소에 대응시켜, 수학식 34에 화소치 M 및 화소치 B를 설정하고, 화소치 M 및 화소치 B가 설정된 복수의 식에 대해 최소 자승법으로 풀어 혼합비 α를 산출한다.
예를 들면, 주목하고 있는 화소의 수평 방향의 인덱스 j를 0으로 하고, 수직 방향의 인덱스 k를 0으로 하여, 주목하고 있는 화소의 근방의 3×3의 화소에 대해, 수학식 34에서 나타내는 정규 방정식에 화소치 M 또는 화소치 B를 설정하면, 수학식 35 내지 43을 얻는다.
Figure 112002032648010-pct00035
Figure 112002032648010-pct00036
Figure 112002032648010-pct00037
Figure 112002032648010-pct00038
Figure 112002032648010-pct00039
Figure 112002032648010-pct00040
Figure 112002032648010-pct00041
Figure 112002032648010-pct00042
Figure 112002032648010-pct00043
주목하고 있는 화소의 수평 방향의 인덱스 j가 0이고, 수직 방향의 인덱스 k가 0이기 때문에, 주목하고 있는 화소의 혼합비 α는 수학식 24로부터 j=0 및 k=0일 때의 값, 즉 절편 p와 같다.
따라서, 수학식 35 내지 43의 9개의 수학식을 기초로 하여, 최소 자승법에 의해 수평 방향의 기울기 m, 수직 방향의 기울기 q, 절편 p, s, t 및 u의 각각의 값을 산출하고, 절편 p를 혼합비 α로 출력하면 된다.
다음에, 최소 자승법을 적용하여 혼합비 α를 산출함으로써 구체적인 수순을 설명한다.
인덱스 i 및 인덱스 k를 하나의 인덱스 x로 표현하면, 인덱스 i, 인덱스 k, 및 인덱스 x의 관계는 수학식 44로 표현된다.
Figure 112002032648010-pct00044
수평 방향의 기울기 m, 수직 방향의 기울기 q, 절편 p, s, t 및 u를 각각 변수 w0, w1, w2, w3, w4 및 w5로 표현하고, jB, kB, B, j, k 및 l를 각각 a0, a1, a2, a3, a4, 및 a5로 표현한다. 오차 ex를 고려하면, 수학식 35 내지 43은 수학식 45로 치환할 수 있다.
Figure 112002032648010-pct00045
수학식 45에서, x는 0 내지 8의 정수 중 어느 하나의 값이다.
수학식 45로부터 수학식 46을 유도할 수 있다.
Figure 112002032648010-pct00046
여기에서, 최소 자승법을 적용하기 위해서, 오차의 자승합 E를 수학식 47로 표현하는 바와 같이 정의한다.
Figure 112002032648010-pct00047
오차가 최소가 되기 위해서는, 오차의 자승합 E에 대한, 변수 Wv의 편미분이 0이 되면 된다. 여기에서, v는 0 내지 5의 정수 중 어느 하나의 값이다. 따라서, 수학식 48을 만족하도록 wy를 구한다.
Figure 112002032648010-pct00048
수학식 48에 수학식 46을 대입하면, 수학식 49를 얻는다.
Figure 112002032648010-pct00049
수학식 49의 v에 0 내지 5의 정수 중 어느 하나를 대입하여 얻어지는 6개의 식으로 이루어지는 정규 방정식에, 예를 들면 소출법(Gauss-Jordan의 소거법) 등을 적용하여, wy를 산출한다. 상술한 바와 같이, w0은 수평 방향의 기울기 m이고, w1은 수직 방향의 기울기 q이고, w2는 절편 p이고, w3은 s이고, w4는 t이고, w5는 u이다.
상술한 바와 같이, 화소치 M 및 화소치 B를 설정한 식에, 최소 자승법을 적용함으로써, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 절편 p, s, t 및 u를 구할 수 있다.
여기에서, 절편 p가 인덱스 i, k가 0인 점, 즉 중심 위치에서의 혼합비 α로 되어 있기 때문에, 이를 출력한다.
수학식 35 내지 43에 대응하는 설명에서, 혼합 영역에 포함되는 화소의 화소치를 M으로 하고, 배경 영역에 포함되는 화소의 화소치를 B로 하여 설명했지만, 주목하고 있는 화소가 커버드 백그라운드 영역에 포함되는 경우, 또는 언커버드 백그라운드 영역에 포함되는 경우 각각에 대해, 정규 방정식을 세울 필요가 있다.
예를 들면, 도 51에 도시한 프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 구하는 경우, 프레임 #n의 화소의 C04 내지 C08, 및 프레임 #n-1의 화소의 화소치 P04 내지 P08이 정규 방정식으로 설정된다.
도 52에 도시하는, 프레임 #n의 언커버드 백그라운드 영역 영역에 포함되는 화소의 혼합비 α를 구하는 경우, 프레임 #n의 화소의 C28 내지 C32, 및 프레임 #n+1의 화소의 화소치 N28 내지 N32가 정규 방정식으로 설정된다.
또, 예를 들면, 도 62에 도시하는, 커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 이하의 수학식 50 내지 58이 세워진다. 혼합비 α를 산출하는 화소의 화소치는 Mc5이다.
Figure 112002032648010-pct00050
Figure 112002032648010-pct00051
Figure 112002032648010-pct00052
Figure 112002032648010-pct00053
Figure 112002032648010-pct00054
Figure 112002032648010-pct00055
Figure 112002032648010-pct00056
Figure 112002032648010-pct00057
Figure 112002032648010-pct00058
프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 수학식 50 내지 58에서, 프레임 #n의 화소에 대응하는 프레임 #n-1의 화소의 배경 영역의 화소의 화소치 Bc1 내지 Bc9가 사용된다.
도 62에 나타내는 언커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 이하의 수학식 59 내지 67이 성립된다. 혼합비 α를 산출하는 화소의 화소치는 Mu5이다.
Figure 112002032648010-pct00059
Figure 112002032648010-pct00060
Figure 112002032648010-pct00061
Figure 112002032648010-pct00062
Figure 112002032648010-pct00063
Figure 112002032648010-pct00064
Figure 112002032648010-pct00065
Figure 112002032648010-pct00066
Figure 112002032648010-pct00067
프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 수학식 59 내지 67에서, 프레임 #n의 화소에 대응하는, 프레임 #n+1의 화소의 배경 영역의 화소의 화소치 Bu1 내지 Bu9가 사용된다.
도 63은 추정 혼합비 처리부(401)의 구성을 도시하는 블럭도이다. 추정 혼합비 처리부(401)에 입력된 화상은 지연부(501) 및 보충부(502)에 공급된다.
지연 회로(221)는 입력 회상을 1 프레임 지연시켜, 보충부(502)에 공급한다. 보충부(502)에 입력 화상으로서 프레임 #n이 입력되어 있을 때, 지연 회로(221)는 프레임 #n-1를 보충부(502)에 공급한다.
보충부(502)는 혼합비 α를 산출하는 화소의 근방의 화소의 화소치 및 프레임 #n-1의 화소치를 정규 방정식에 설정한다. 예를 들면 보충부(502)는 수학식 50 내지 58에 기초하여, 정규 방정식에 화소치 Mc1 내지 Mc9 및 화소치 Bc1 내지 Bc9를 설정한다. 보충부(502)는 화소치가 설정된 정규 방정식을 연산부(503)에 공급한다.
연산부(503)는 보충부(502)로부터 공급된 정규 방정식을 소출법 등에 의해 풀어 추정 혼합비를 구하고, 구한 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 하여, 추정 혼합비를 산출하여 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는 추정 혼합비 처리부(401)와 마찬가지의 구성 을 가지므로 그 설명은 생략한다.
도 64는 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 도시하는 도면이다. 도 64에 도시한 추정 혼합비는 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임량 v이 11이고, 7×7 화소의 블럭을 단위로 하여 방정식을 생성하여 산출된 결과를 1라인에 대해 도시한 것이다.
추정 혼합비는 혼합 영역에서 도 50에 도시한 바와 같이, 거의 직선적으로 변화하고 있는 것을 알 수 있다.
혼합비 결정부(403)는 오브젝트 추출부(101)로부터 공급된 혼합비가 산출되는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 기초로 하여, 혼합비를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비로 설정한다. 혼합비 결정부(403)는 영역 정보를 기초로 설정한 혼합비를 출력한다.
도 65의 플로우챠트를 참조하여, 추정 혼합비 처리부(401)가 도 63에 나타낸 구성을 갖는 경우에서의, 움직임 검출부(102)의 혼합비의 산출 처리를 설명한다. 단계 S501에서, 움직임 검출부(102)는 오브젝트 추출부(101)로부터 공급된 영역 정 보를 취득한다. 단계 S502에서 추정 혼합비 처리부(401)는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 실행하고, 추정 혼합비를 혼합비 결정부(403)에 공급한다. 혼합비 추정의 처리의 상세는 도 66의 플로우챠트를 참조하여 후술한다.
단계 S503에서, 추정 혼합비 처리부(402)는 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 실행하고, 추정 혼합비를 혼합비 결정부(403)에 공급한다.
단계 S504에서, 움직임 검출부(102)는 프레임 전체에 대해 혼합비를 추정했는지의 여부를 판정하고, 프레임 전체에 대해 혼합비를 추정하고 있지 않다고 판정된 경우, 단계 S502로 돌아가 다음 화소에 대해 혼합비를 추정하는 처리를 실행한다.
단계 S504에서, 프레임 전체에 대해 혼합비 α를 추정했다고 판정된 경우, 단계 S505로 진행하고, 혼합비 결정부(403)는 영역 특정부(101)로부터 공급된, 혼합비가 산출되는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어디에 속하는지를 나타내는 영역 정보를 기초로 하여, 혼합비 α를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비 α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비 설정하고, 처리는 종료한다.
이와 같이, 움직임 검출부(102)는 오브젝트 추출부(101)로부터 공급된 영역 정보 및 입력 화상을 기초로 하여, 각 화소에 대응하는 특징량인 혼합비 α를 산출할 수 있다.
혼합비 α를 이용함으로써, 움직이고 있는 오브젝트에 대응하는 화상에 포함되는 움직임 불선명의 정보를 남긴 채, 화소치에 포함되는 전경의 성분과 배경의 성분을 분리하는 것이 가능하게 된다.
또, 혼합비 α에 기초하여 화상을 합성하면, 마치 실세계를 실제로 다시 촬영한 것 같은, 움직이고 있는 오브젝트의 스피드에 맞춘 정확한 움직임 불선명을 포함하는 화상을 만드는 것이 가능하게 된다.
다음에, 도 65의 단계 S502에 대응하는, 커버드 백그라운드 영역 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 66의 플로우챠트를 참조하여 설명한다.
단계 S521에서 보충부(502)는 입력된 화상에 포함되는 화소치, 및 지연 회로(221)로부터 공급되는 화상에 포함되는 화소치를 커버드 백그라운드 영역의 모델에 대응하는 정규 방정식에 설정한다.
단계 S522에서, 추정 혼합비 처리부(401)는 대상이 되는 화소에 대한 설정이 종료했는지의 여부를 판정하고, 대상이 되는 화소에 대한 설정이 종료하지 않았다고 판정된 경우, 단계 S521로 돌아가 정규 방정식에의 화소치의 설정 처리를 반복한다.
단계 S522에서 대상이 되는 화소에 대한 화소치의 설정이 종료했다고 판정된 경우, 단계 S523으로 진행하고, 연산부(173)는 화소치가 설정된 정규 방정식을 기초로 하여 추정 혼합비를 연산하여 구해진 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 하여, 추정 혼합비를 연산할 수 있다.
도 65의 단계 S153에서의 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 정규 방정식을 이용한, 도 66의 플로우챠트에 도시하는 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명했지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있어도 상술한 혼합비를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 균일하게 움직이고 있을 때, 추정 혼합비 처리부(401)는 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또, 배경 영역에 대응하는 화상이 국소마다 상이한 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는 혼합 영역에 속하는 화소에 대응하는 화소로서, 움직임에 대응한 화소를 선택하여 상술한 처리를 실행한다.
다음에, 전경 배경 분리부(105)에 대해 설명한다. 도 67은 전경 배경 분리부(105)의 구성의 일예를 도시하는 블럭도이다. 전경 배경 분리부(105)에 공급된 입력 화상은 분리부(601), 스위치(602), 및 스위치(604)에 공급된다. 커버드 백그 라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 나타내는 영역 특정부(103)로부터 공급된 영역 정보는 분리부(601)에 공급된다. 전경 영역을 나타내는 영역 정보는 스위치(602)에 공급된다. 배경 영역을 나타내는 영역 정보는 스위치(604)에 공급된다.
혼합비 산출부(104)로부터 공급된 혼합비 α는 분리부(601)에 공급된다.
분리부(601)는 커버드 백그라운드 영역을 나타내는 영역 정보, 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비 α를 기초로 하여, 입력 화상으로부터 전경의 성분을 분리하고, 분리한 전경의 성분을 합성부(603)에 공급함과 함께, 입력 화상으로부터 배경의 성분을 분리하고, 분리한 배경의 성분을 합성부(605)에 공급한다.
스위치(602)는 전경 영역을 나타내는 영역 정보를 기초로 하여, 전경에 대응하는 화소가 입력될 때 닫혀, 입력 화상에 포함되는 전경에 대응하는 화소만을 합성부(603)에 공급한다.
스위치(604)는 배경 영역을 나타내는 영역 정보를 기초로 하여, 배경에 대응하는 화소가 입력될 때 닫혀, 입력 화상에 포함되는 배경에 대응하는 화소만을 합성부(605)에 공급한다.
합성부(603)는 분리부(601)로부터 공급된 전경에 대응하는 성분, 스위치(602)로부터 공급된 전경에 대응하는 화소를 기초로 하여, 전경 성분 화상을 합성하고, 합성한 전경 성분 화상을 출력한다. 전경 영역과 혼합 영역은 중복되지 않기 때문에, 합성부(603)는 예를 들면 전경에 대응하는 성분과 전경에 대응하는 화소에 논리합의 연산을 적용하여 전경 성분 화상을 합성한다.
합성부(603)는 전경 성분 화상의 합성 처리의 최초에 실행되는 초기화의 처리에서, 내장하고 있는 프레임 메모리에 모든 화소치가 0인 화상을 저장하고, 전경 성분 화상의 합성 처리에서 전경 성분 화상을 저장(덮어쓰기)한다. 따라서, 합성부(603)가 출력하는 전경 성분 화상 중, 배경 영역에 대응하는 화소에는, 화소치로서 0이 저장되어 있다.
합성부(605)는 분리부(601)로부터 공급된 배경에 대응하는 성분, 스위치(604)로부터 공급된 배경에 대응하는 화소를 기초로 하여, 배경 성분 화상을 합성하고, 합성한 배경 성분 화상을 출력한다. 배경 성분과 혼합 성분은 중복되지 않으므로, 합성부(605)는 예를 들면 배경에 대응하는 성분과, 배경에 대응하는 화소에 논리합의 연산을 적용하여, 배경 성분 화상을 합성한다.
합성부(605)는 배경 성분 화상의 합성 처리의 최초에 실행되는 초기화의 처리에서, 내장하고 있는 프레임 메모리에 모든 화소치가 0인 화상을 저장하고, 배경 성분 화상의 합성 처리에서 배경 성분 화상을 저장(덮어쓰기)한다. 따라서, 합성부(605)가 출력하는 배경 성분 화상 중, 전경 영역에 대응하는 화소에는, 화소치로서 0이 저장되어 있다.
도 68A는 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상의 모식도이고, 도 68B는 도 68A에 대응하는 전경 영역에 속하는 화소, 배경 영역에 속하는 화소, 및 혼합 영역에 속하는 화소를 포함하는 1라인의 화소를 시간 방향으로 전개한 모델도를 도시한다.
도 68A 및 도 68B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 배경 성분 화상은 배경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 배경의 성분으로 구성된다.
도 68A 및 도 68B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상은 전경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 전경의 성분으로 구성된다.
혼합 영역의 화소의 화소치는 전경 배경 분리부(105)에 의해 배경의 성분과 전경의 성분으로 분리된다. 분리된 배경의 성분은 배경 영역에 속하는 화소와 함께 배경 성분 화상을 구성한다. 분리된 전경의 성분은 전경 영역에 속하는 화소와 함께 전경 성분 화상을 구성한다.
이와 같이, 전경 성분 화상은 배경 영역에 대응하는 화소의 화소치가 0으로 되고, 전경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소치가 설정된다. 마찬가지로, 배경 성분 화상은 전경 영역에 대응하는 화소의 화소치가 0으로 되고, 배경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소치가 설정된다.
다음에, 분리부(601)가 실행하는, 혼합 영역에 속하는 화소로부터 전경의 성분, 및 배경의 성분을 분리하는 처리에 대해 설명한다.
도 69는 도면에서 좌로부터 우로 이동하는 오브젝트에 대응하는 전경을 포함하는, 두 개의 프레임의 전경의 성분 및 배경의 성분을 도시하는 화상의 모델이다. 도 69에 도시한 화상의 모델에서, 전경의 움직임량 v는 4이고, 가상 분할수는 4로 되어 있다.
프레임 #n에서, 가장 좌측 화소, 및 좌로부터 14번째 내지 18번째의 화소는 배경의 성분만으로 이루어지고, 배경 영역에 속한다. 프레임 #n에서 좌로부터 2번째 내지 4번째의 화소는 배경의 성분 및 전경의 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n에서 좌로부터 11번째 내지 13번째의 화소는 배경의 성분 및 전경의 성분을 포함하고, 커버드 백그라운드 영역에 속한다. 프레임 #n에서 좌로부터 5번째 내지 10번째의 화소는 전경의 성분만으로 이루어지고, 전경 영역에 속한다.
프레임 #n+1에서, 좌로부터 1번째 내지 5번째의 화소, 및 좌로부터 18번째의 화소는 배경의 성분만으로 이루어지고, 배경 영역에 속한다. 프레임 #n+1에서 좌로부터 6번째 내지 8번째의 화소는 배경의 성분 및 전경의 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n+1에서 좌로부터 15번째 내지 17번째의 화소는 배경의 성분 및 전경의 성분을 포함하고, 커버드 백그라운드 영역에 속한다. 프레임 #n+1에서 좌로부터 9번째 내지 14번째의 화소는 전경의 성분만으로 이루어지고, 전경 영역에 속한다.
도 70은 커버드 백그라운드 영역에 속하는 화소로부터 전경의 성분을 분리하는 처리를 설명하는 도면이다. 도 70에서 α1 내지 α18은 프레임 #n에서의 화소 각각에 대응하는 혼합비이다. 도 70에서 좌로부터 15번째 내지 17번째의 화소는 커버드 백그라운드 영역에 속한다.
프레임 #n의 좌로부터 15번째의 화소의 화소치 C15는 수학식 68로 표현된다.
Figure 112002032648010-pct00068
여기에서, α15는 프레임 #n의 좌로부터 15번째의 화소의 혼합비이다. P15는 프레임 #n-1의 좌로부터 15번째의 화소의 화소치이다.
수학식 68을 기초로, 프레임 #n의 좌로부터 15번째의 화소의 전경의 성분의 합 f15는 수학식 69로 표현된다.
Figure 112002032648010-pct00069
마찬가지로, 프레임 #n의 좌로부터 16번째의 화소의 전경의 성분의 합 f16은 수학식 70으로 표현되고, 프레임 #n의 좌로부터 17번째의 화소의 전경의 성분의 합 f17은 수학식 71로 표현된다.
Figure 112002032648010-pct00070
Figure 112002032648010-pct00071
이와 같이, 커버드 백그라운드 영역에 속하는 화소의 화소치 C에 포함되는 전경의 성분 fc는 수학식 72로 계산된다.
Figure 112002032648010-pct00072
P는 하나 전의 프레임의 대응하는 화소의 화소치이다.
도 71은 언커버드 백그라운드 영역에 속하는 화소로부터 전경의 성분을 분리하는 처리를 설명하는 도면이다. 도 71에서 α1 내지 α18은 프레임 #n에서의 화소 각각에 대응하는 혼합비이다. 도 71에서 좌로부터 2번째 내지 4번째의 화소는 언커버드 백그라운드 영역에 속한다.
프레임 #n의 좌로부터 2번째의 화소의 화소치 C02는 수학식 73으로 표현된다.
Figure 112002032648010-pct00073
여기에서, α2는 프레임 #n의 좌로부터 2번째의 화소의 혼합비이다. N02는 프레임 #n+1의 좌로부터 2번째의 화소의 화소치이다.
수학식 73을 기초로 프레임 #n의 좌로부터 2번째의 화소의 전경의 성분의 합 f02는 수학식 74으로 표현된다.
Figure 112002032648010-pct00074
마찬가지로, 프레임 #n의 좌로부터 3번째의 화소의 전경의 성분의 합 f03은 수학식 75로 표현되고, 프레임 #n의 좌로부터 4번째의 화소의 전경의 성분의 합 f04는 수학식 76으로 표현된다.
Figure 112002032648010-pct00075
Figure 112002032648010-pct00076
이와 같이, 언커버드 백그라운드 영역에 속하는 화소의 화소치 C에 포함되는 전경의 성분 fu는 수학식 77로 계산된다.
Figure 112002032648010-pct00077
N은 하나 후의 프레임의 대응하는 화소의 화소치이다.
이와 같이, 분리부(601)는 영역 정보에 포함되는 커버드 백그라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 나타내는 정보, 및 화소마다의 혼합비 α를 기초로 하여, 혼합 영역에 속하는 화소로부터 전경의 성분, 및 배경의 성분을 분리할 수 있다.
도 72는 이상에서 설명한 처리를 실행하는 분리부(601)의 구성의 일 예를 도시하는 블럭도이다. 분리부(601)에 입력된 화상은 프레임 메모리(621)에 공급되고, 혼합비 산출부(104)로부터 공급된 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비 α는 분리 처리 블럭(622)에 입력된다.
프레임 메모리(621)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(621)는 처리 대상이 프레임 #n일 때, 프레임 #n의 하나 전의 프레임인 프레임 #n-1, 프레임 #n, 및 프레임 #n의 하나 후의 프레임인 프레임 #n+1를 기억한다.
프레임 메모리(621)는 프레임 #n-1, 프레임 #n 및 프레임 #n+1의 대응하는 화소를 분리 처리 블럭(622)에 공급한다.
분리 처리 블럭(622)은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비 α를 기초로 하여, 프레임 메모리(621)로부터 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소의 화소치에 도 70 및 도 71을 참조하여 설명한 연산을 적용하여, 프레임 #n의 혼합 영역에 속하는 화소로부터 전경의 성분 및 배경의 성분을 분리하여 프레임 메모리(623)에 공급한다.
분리 처리 블럭(622)은 언커버드 영역 처리부(631), 커버드 영역 처리부(632), 합성부(633), 및 합성부(634)로 구성되어 있다.
언커버드 영역 처리부(631)의 연산부(641)는 혼합비 α를 프레임 메모리(621)로부터 공급된 프레임 #n+1의 화소의 화소치에 곱해, 스위치(642)에 출력한다. 스위치(642)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소 (프레임 #n-1의 화소에 대응함)가 언커버드 백그라운드 영역일 때, 닫히게 되어, 연산기(641)로부터 공급된 혼합비 α를 곱한 화소치를 연산기(643) 및 합성부(634)에 공급한다. 스위치(642)로부터 출력된 프레임 #n+1의 화소의 화소치에 혼합비 α를 곱한 값은 프레임 #n의 대응하는 화소의 화소치의 배경의 성분과 같다.
연산기(643)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소치로부터 스위치(642)로부터 공급된 배경의 성분을 감하여, 전경의 성분을 구한다. 연산기(643)는 언커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경의 성분을 합성부(633)에 공급한다.
커버드 영역 처리부(632)의 승산기(651)는 혼합비 α를 프레임 메모리(621)로부터 공급된 프레임 #n-1의 화소의 화소치에 곱해, 스위치(652)에 출력한다. 스위치(652)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소 (프레임 #n-1의 화소에 대응함)가 커버드 백그라운드 영역일 때, 닫히게 되어, 연산기(651)로부터 공급된 혼합비 α를 곱한 화소치를 연산기(653) 및 합성부(634)에 공급한다. 스위치(652)로부터 출력된 프레임 #n-1의 화소의 화소치에 혼합비 α를 곱한 값은 프레임 #n의 대응하는 화소의 화소치의 배경의 성분과 같다.
연산기(653)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소치로부터 스위치(652)로부터 공급된 배경의 성분을 감하여, 전경의 성분을 구한다. 연산기(653)는 커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경의 성분을 합성부(633)에 공급한다.
합성부(633)는 프레임 #n의 연산기(643)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 전경의 성분, 및 연산기(653)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 전경의 성분을 합성하여, 프레임 메모리(623)에 공급한다.
합성부(634)는 프레임 #n의 연산기(642)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 배경의 성분, 및 스위치(652)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 배경의 성분을 합성하여, 프레임 메모리(623)에 공급한다.
프레임 메모리(623)는 분리 처리 블럭(622)로부터 공급된 프레임 #n의 혼합 영역의 화소의 전경의 성분과, 배경의 성분을 각각 기억한다.
프레임 메모리(623)는 기억하고 있는 프레임 #n의 혼합 영역의 화소의 전경의 성분, 및 기억하고 있는 프레임 #n의 혼합 영역의 화소의 배경의 성분을 출력한다.
특징량인 혼합비 α를 이용함으로써, 화소치에 포함되는 전경의 성분과 배경의 성분을 완전히 분리하는 것이 가능하게 된다.
합성부(603)는 분리부(601)로부터 출력된, 프레임 #n의 혼합 영역의 화소의 전경의 성분과, 전경 영역에 속하는 화소를 합성하여 전경 성분 화상을 생성한다. 합성부(605)는 분리부(601)로부터 출력된, 프레임 #n의 혼합 영역의 화소의 배경의 성분과, 배경 영역에 속하는 화소를 합성하여 배경 성분 화상을 생성한다.
도 73A는 도 69의 프레임 #n에 대응하는 전경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌로부터 14번째의 화소는 전경과 배경이 분리되기 전에 배경의 성분만으로 이루어져 있기 때문에, 화소치가 0이 된다.
좌로부터 2번째 내지 4번째의 화소는 전경과 배경이 분리되기 전에 언커버드 백그라운드 영역에 속하고, 배경의 성분이 0이 되어, 전경의 성분이 그대로 남아 있다. 좌로부터 11번째 내지 13번째의 화소는 전경과 배경이 분리되기 전에 커버 드 백그라운드 영역에 속하고, 배경의 성분이 0이 되어, 전경의 성분이 그대로 남겨 있다. 좌로부터 5번째 내지 10번째의 화소는 전경의 성분만으로 이루어져 있기 때문에, 그대로 남는다.
도 73B는 도 69의 프레임 #n에 대응하는 배경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌로부터 14번째의 화소는 전경과 배경이 분리되기 전에 배경의 성분만으로 이루어져 있기 때문에, 그대로 남는다.
좌로부터 2번째 내지 4번째의 화소는 전경과 배경이 분리되기 전에 언커버드 백그라운드 영역에 속하고, 전경의 성분이 0이 되어, 배경의 성분이 그대로 남아 있다. 좌로부터 11번째 내지 13번째의 화소는 전경과 배경이 분리되기 전에 커버드 백그라운드 영역에 속하고, 전경의 성분이 0이 되어, 배경의 성분이 그대로 남아 있다. 좌로부터 5번째 내지 10번째의 화소는 전경과 배경이 분리되기 전에 전경의 성분만으로 이루어져 있기 때문에, 화소치가 0이 된다.
다음에, 도 74에 도시한 플로우챠트를 참조하여, 전경 배경 분리부(105)에 의한 전경과 배경의 분리 처리를 설명한다. 단계 S601에서 분리부(601)의 프레임 메모리(621)는 입력 화상을 취득하고, 전경과 배경의 분리의 대상이 되는 프레임 #n을 그 전의 프레임 #n-1 및 그 후의 프레임 #n+1과 함께 기억한다.
단계 S602에서, 분리부(601)의 분리 처리 블럭(622)은 혼합비 산출부(104)로부터 공급된 영역 정보를 취득한다. 단계 S603에서, 분리부(601)의 분리 처리 블럭(622)은 혼합비 산출부(104)로부터 공급된, 혼합비 α를 취득한다.
단계 S604에서 언커버드 영역 처리부(631)는 영역 정보 및 혼합비 α를 기초 로 하여, 프레임 메모리(621)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소치로부터 배경의 성분을 추출한다.
단계 S605에서 언커버드 영역 처리부(631)는 영역 정보 및 혼합비 α를 기초로 하여, 프레임 메모리(621)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소치로부터 전경의 성분을 추출한다.
단계 S606에서 커버드 영역 처리부(632)는 영역 정보 및 혼합비 α를 기초로 하여, 프레임 메모리(621)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소치로부터 배경의 성분을 추출한다.
단계 S607에서 커버드 영역 처리부(632)는 영역 정보 및 혼합비 α를 기초로 하여, 프레임 메모리(621)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 화소치로부터 전경의 성분을 추출한다.
단계 S608에서 합성부(633)는 단계 S605의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 전경의 성분과, 단계 S607의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 전경의 성분을 합성한다. 합성된 전경의 성분은 합성부(603)에 공급된다. 또한, 합성부(603)는 스위치(602)를 통해 공급된 전경 영역에 속하는 화소와, 분리부(601)로부터 공급된 전경의 성분을 합성하여, 전경 성분 화상을 생성한다.
단계 S609에서 합성부(634)는 단계 S604의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 배경의 성분과, 단계 S606의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 배경의 성분을 합성한다. 합성된 배경 성분은 합성부(605)에 공급된다. 또한, 합성부(605)는 스위치(604)를 통해 공급된 배경 영역에 속하는 화소와, 분리부(601)로부터 공급된 배경의 성분을 합성하여, 배경 성분 화상을 생성한다.
단계 S610에서 합성부(603)는 전경 성분 화상을 출력한다. 단계 S611에서 합성부(605)는 배경 성분 화상을 출력하고 처리는 종료한다.
이와 같이, 전경 배경 분리부(105)는 영역 정보 및 혼합비 α를 기초로 하여, 입력 화상으로부터 전경의 성분과 배경의 성분을 분리하여, 전경의 성분만으로 이루어지는 전경 성분 화상 및 배경의 성분만으로 이루어지는 배경 성분 화상을 출력할 수 있다.
도 75는 움직임 불선명 조정부(106)의 구성을 도시하는 블럭도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보는 처리 단위 결정부(901) 및 보정부(905)에 공급되고, 영역 특정부(103)로부터 공급된 영역 정보는 처리 단위 결정부(901)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 연산부(904)에 공급된다.
처리 단위 결정부(901)는 움직임 벡터와 그 위치 정보, 및 영역 정보를 기초로 움직임 벡터와 함께 생성한 처리 단위를 모델화부(902)에 공급한다.
도 76의 A에서 도시한 바와 같이, 예를 들면 처리 단위 결정부(901)가 생성하는 처리 단위는 전경 성분 화상의 커버드 백그라운드 영역에 대응하는 화소로부터 시작하여 언커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 나열되는 연속하는 화소, 또는 언커버드 백그라운드 영역에 대응하는 화소로부터 시 작하여 커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 나열되는 연속하는 화소를 나타낸다. 처리 단위는 예를 들면 좌상점(처리 단위로 지정되는 화소로서, 화상 상에서 가장 왼쪽 또는 가장 위에 위치하는 화소의 위치) 및 좌하점의 두 개의 데이터로 이루어진다.
모델화부(902)는 움직임 벡터 및 입력된 처리 단위를 기초로, 모델화를 실행한다. 보다 구체적으로는, 예를 들면 모델화부(902)는 처리 단위에 포함되는 화소의 수, 화소치의 시간 방향의 가상 분할수, 및 화소마다의 전경의 성분의 수에 대응하는 복수의 모델을 미리 기억하여 두고, 처리 단위, 및 화소치의 시간 방향의 가상 분할수를 기초로 하여, 도 77에 도시한 바와 같은 화소치와 전경의 성분의 대응을 지정하는 모델을 선택하도록 해도 된다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 움직임량 v이 5일 때에는, 모델화부(902)는 가상 분할수를 5로 하고, 가장 좌측에 위치하는 화소가 하나의 전경의 성분을 포함하고, 좌로부터 2번째의 화소가 두 개의 전경의 성분을 포함하고, 좌로부터 3번째의 화소가 세 개의 전경의 성분을 포함하고, 좌로부터 4번째의 화소가 4개의 전경의 성분을 포함하고, 좌로부터 5번째의 화소가 5개의 전경의 성분을 포함하고, 좌로부터 6번째의 화소가 5개의 전경의 성분을 포함하고, 좌로부터 7번째의 화소가 5개의 전경의 성분을 포함하고, 좌로부터 8번째의 화소가 5개의 전경의 성분을 포함하고, 좌로부터 9번째의 화소가 4개의 전경의 성분을 포함하고, 좌로부터 10번째의 화소가 3개의 전경의 성분을 포함하고, 좌로부터 11번째의 화소가 2개의 전경의 성분을 포함하고, 좌로부터 12번째의 화소가 1개의 전경의 성분을 포함하여, 전체적으로 8개의 전경의 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(902)는 미리 기억하고 있는 모델로부터 선택하는 것이 아니라, 움직임 벡터, 및 처리 단위가 공급될 때, 움직임 벡터 및 처리 단위를 기초로 모델을 생성하도록 해도 된다.
방정식 생성부(903)는 모델화부(902)로부터 공급된 모델을 기초로 방정식을 생성한다.
도 77 내지 도 79에 도시한 전경 성분 화상의 모델을 참조하여, 전경의 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5일 때의, 방정식 생성부(903)가 생성하는 방정식의 예에 대해 설명한다.
전경 성분 화상에 포함되는 셔터 시간/v에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소치 C01 내지 C12의 관계는 수학식 78 내지 89로 표현된다.
Figure 112002032648010-pct00078
Figure 112002032648010-pct00079
Figure 112002032648010-pct00080
Figure 112002032648010-pct00081
Figure 112002032648010-pct00082
Figure 112002032648010-pct00083
Figure 112002032648010-pct00084
Figure 112002032648010-pct00085
Figure 112002032648010-pct00086
Figure 112002032648010-pct00087
Figure 112002032648010-pct00088
Figure 112002032648010-pct00089
화소치 C12 및 C11에 주목하면, 화소치 C12는 수학식 90에 나타낸 바와 같이, 전경의 성분 F08/v만을 포함하고, 화소치 C11은 전경의 성분 F08/v 및 전경의 성분 F07/v의 합으로 이루어진다. 따라서, 전경의 성분 F07/v는 수학식 91로 구할 수 있다.
Figure 112002032648010-pct00090
Figure 112002032648010-pct00091
마찬가지로, 화소치 C10 내지 C01에 포함되는 전경의 성분을 고려하면, 전경의 성분 F06/v 내지 F01/v는 수학식 92 내지 97에 의해 구할 수 있다.
Figure 112002032648010-pct00092
Figure 112002032648010-pct00093
Figure 112002032648010-pct00094
Figure 112002032648010-pct00095
Figure 112002032648010-pct00096
Figure 112002032648010-pct00097
방정식 생성부(903)는 수학식 90 내지 97에 예를 나타내는, 화소치의 차에 의해 전경의 성분을 산출하기 위한 방정식을 생성한다. 방정식 생성부(903)는 생 성한 방정식을 연산부(904)에 공급한다.
연산부(904)는 방정식 생성부(903)로부터 공급된 방정식에 전경 성분 화상의 화소치를 설정하고, 화소치를 설정한 방정식을 기초로 하여 전경의 성분을 산출한다. 연산부(904)는 예를 들면 수학식 90 내지 97이 방정식 생성부(903)으로부터 공급될 때, 수학식 90 내지 97에 화소치 C05 내지 C12를 설정한다.
연산부(904)는 화소치가 설정된 식에 기초하여, 전경의 성분을 산출한다. 예를 들면, 연산부(904)는 화소치 C05 내지 C12가 설정된 수학식 90 내지 97에 기초하는 연산에 의해, 도 78에 도시한 바와 같이, 전경의 성분 F01/v 내지 F08/v를 산출한다. 연산부(904)는 전경의 성분 F01/v 내지 F08/v를 보정부(905)에 공급한다.
보정부(905)는 연산부(904)로부터 공급된 전경의 성분에, 처리 단위 결정부(901)로부터 공급된 움직임 벡터에 포함되는 움직임량 v를 곱해, 움직임 불선명을 제거한 전경의 화소치를 산출한다. 예를 들면, 보정부(905)는 연산부(904)로부터 공급된 전경의 성분 F01/v 내지 F08/v가 공급될 때, 전경의 성분 F01/v 내지 F98/v 각각에 5인 움직임량 v를 곱함으로써, 도 79에 도시한 바와 같이 움직임 불선명을 제거한 전경의 화소치 F01 내지 F08를 산출한다.
보정부(905)는 이상과 같이 산출된 움직임 불선명을 제거한 전경의 화소치로 이루어지는 전경 성분 화상을 움직임 불선명 부가부(906) 및 선택부(907)에 공급한다.
움직임 불선명 부가부(906)는 움직임량 v과는 다른 값의 움직임 불선명 조정 량 v', 예를 들면 움직임량 v의 절반 값의 움직임 불선명 조정량 v', 움직임량 v와 무관계인 값의 움직임 불선명 조정량 v'으로 움직임 불선명의 양을 조정할 수 있다. 예를 들면, 도 80에 도시한 바와 같이, 움직임 불선명 부가부(906)는 움직임 불선명이 제거된 전경의 화소치 Fi를 움직임 불선명 조정량 v'으로 제함으로써, 전경 성분 Fi/v'를 산출하고 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명의 양이 조정된 화소치를 생성한다. 예를 들면 움직임 불선명 조정량 v'가 3일 때, 화소치 C02는 (F01)/v'로 되고, 화소치 C03은 (F01+F02)/v'로 되고, 화소치 C04는 (F01+F02+F03)/v'로 되고, 화소치 C05는 (F02+F03+F04)/v'로 된다.
움직임 불선명 부가부(906)는 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(907)에 공급한다.
선택부(907)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 보정부(905)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(906)으로부터 공급된 움직임 불선명의 양이 조정된 전경 성분 화상 중 어느 한쪽을 선택하여, 선택한 전경 성분 화상을 출력한다.
이와 같이, 움직임 불선명 조정부(106)는 선택 신호 및 움직임 불선명 조정량 v'를 기초로 움직임 불선명의 양을 조정할 수 있다.
다음에, 움직임 불선명 조정부(106)에 의한 전경의 움직임 불선명량의 조정 처리를 도 81의 플로우챠트를 참조하여 설명한다.
단계 S901에서 움직임 불선명 조정부(106)의 처리 단위 결정부(901)는 움직임 벡터 및 영역 정보를 기초로 하여, 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(902) 및 보정부(905)에 공급한다.
단계 S902에서, 움직임 불선명 조정부(106)의 모델화부(902)는 움직임량 v 및 처리 단위에 대응하여, 모델의 선택이나 생성을 행한다. 단계 S903에서, 방정식 생성부(903)는 선택 또는 생성된 모델을 기초로 전경 성분 화상의 화소치의 차에 의해 전경의 성분을 산출하기 위한 방정식을 생성한다.
단계 S904에서 연산부(904)는 작성된 방정식에 전경 성분 화상의 화소치를 설정하고, 화소치가 설정된 방정식을 기초로 하여 화소치의 차분으로부터 전경의 성분을 추출한다. 단계 S905에서 연산부(904)는 처리 단위에 대응하는 모든 전경의 성분을 추출했는지의 여부를 판정하고, 처리 단위에 대응하는 모든 전경의 성분을 추출되어 있지 않다고 판정된 경우, 단계 S904로 돌아가 전경의 성분에 추출 처리를 반복한다.
단계 S905에서, 처리 단위에 대응하는 모든 전경의 성분을 추출했다고 판정된 경우, 단계 S906으로 진행하고, 보정부(905)는 움직임량 v를 기초로 연산부(904)로부터 공급된 전경의 성분 F01/v 내지 F08/v 각각을 보정하여, 움직임 불선명을 제거한 전경의 화소치 F01 내지 F08을 산출한다.
단계 S907에서, 움직임 불선명 부가부(906)는 움직임 불선명의 양을 조정한 전경의 화소치를 산출하고, 선택부(907)는 움직임 불선명이 제거된 화상 또는 움직임 불선명의 양이 조정된 화상 중 어느 하나를 선택하고, 선택한 화상을 출력하며, 처리는 종료한다.
이와 같이, 도 75에 구성을 도시한 움직임 불선명 조정부(106)는 움직임 불 선명을 포함하는 전경 화상의 움직임 불선명을 조정할 수 있다.
위너 필터 등의 종래의 움직임 불선명을 부분적으로 제거하는 방법이 이상 상태에서는 효과가 인정되지만, 양자화되고 노이즈를 포함한 실제의 화상에 대해서 충분한 효과가 얻어지지 않는 것에 대하여, 도 75에 구성을 도시하는 움직임 불선명 조정부(106)에서, 양자화되고 노이즈를 포함한 실제의 화상에 대해서도 충분한 효과가 인정되어, 정밀도가 양호한 움직임 불선명의 제거가 가능하게 된다.
도 82는 신호 처리부(12)의 기능의 다른 구성을 도시하는 블럭도이다.
도 4에 도시한 부분과 마찬가지의 부분에는 동일 부호를 붙이고, 그 설명은 적절히 생략한다.
영역 특정부(103)는 영역 정보를 혼합비 산출부(104) 및 합성부(1001)에 공급한다.
혼합비 산출부(104)는 혼합비 α를 전경 배경 분리부(105) 및 합성부(1001)에 공급한다.
전경 배경 분리부(105)는 전경 성분 화상을 합성부(1001)에 공급한다.
합성부(1001)는 혼합비 산출부(104)로부터 공급된 혼합비 α, 영역 특정부(103)으로부터 공급된 영역 정보를 기초로 임의의 배경 화상과, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상을 합성하여, 임의의 배경 화상과 전경 성분 화상이 합성된 합성 화상을 출력한다.
도 83은 합성부(1001)의 구성을 도시하는 도면이다. 배경 성분 생성부(1021)는 혼합비 α 및 임의의 배경 화상을 기초로 배경 성분 화상을 생성하 고 혼합 영역 화상 합성부(1022)에 공급한다.
혼합 영역 화상 합성부(1022)는 배경 성분 생성부(1021)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써, 혼합 영역 합성 화상을 생성하고 생성한 혼합 영역 합성 화상을 화상 합성부(1023)에 공급한다.
화상 합성부(1023)는 영역 정보를 기초로 전경 성분 화상, 혼합 영역 화상 합성부(1022)로부터 공급된 혼합 영역 합성 화상, 및 임의의 배경 화상을 합성하여 합성 화상을 생성하여 출력한다.
이와 같이, 합성부(1001)는 전경 성분 화상을 임의의 배경 화상에 합성할 수 있다.
특징량인 혼합비 α를 기초로 전경 성분 화상을 임의의 배경 화상과 합성하여 얻어진 화상은, 단순히 화소를 합성한 화상에 비교하여, 보다 자연스러운 것으로 이루어진다.
도 84는 움직임 불선명의 양을 조정하는 신호 처리부(12)의 기능의 또 다른 구성을 도시하는 블럭도이다. 도 4에 도시한 신호 처리부(12)가 영역 특정과 혼합비 α의 산출을 순서대로 행하는 데에 비해, 도 84에 도시하는 신호 처리부(12)는 영역 특정과 혼합비 α의 산출을 병행하여 행한다.
도 4의 블럭도에 도시하는 기능과 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
입력 화상은 혼합비 산출부(1101), 전경 배경 분리부(1102), 영역 특정부(103), 및 오브젝트 추출부(101)에 공급된다.
혼합비 산출부(1101)는 입력 화상을 기초로, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비를, 입력 화상에 포함되는 화소의 각각에 대해 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비를 전경 배경 분리부(1102)에 공급한다.
도 85는 혼합비 연산부(1101)의 구성의 일 예를 도시하는 블럭도이다.
도 85에 도시한 추정 혼합비 처리부(401)는 도 49에 도시하는 추정 혼합비 처리부(401)와 동일하다. 도 85에 도시하는 추정 혼합비 처리부(402)는 도 49에 도시하는 추정 혼합비 처리부(402)와 동일하다.
추정 혼합비 처리부(401)는 입력 화상을 기초로 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
추정 혼합비 처리부(402)는 입력 화상을 기초로 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
전경 배경 분리부(1102)는 혼합비 산출부(1101)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 영역 특정부(103)으로부터 공급된 영역 정보를 기초로, 입력 화상으로부터 전경 성분 화상을 생성하고 생성한 전경 성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다.
도 86은 전경 배경 분리부(1102)의 구성의 일 예를 도시하는 블럭도이다.
도 67에 도시하는 전경 배경 분리부(105)와 마찬가지의 부분에는 동일 부호를 붙이고 그 설명은 생략한다.
선택부(1121)는 영역 특정부(103)으로부터 공급된 영역 정보를 기초로, 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비 중 어느 한 쪽을 선택하고, 선택한 추정 혼합비를 혼합비 α로서 분리부(601)에 공급한다.
분리부(601)는 선택부(1121)로부터 공급된 혼합비 α 및 영역 정보를 기초로 혼합 영역에 속하는 화소의 화소치로부터 전경의 성분 및 배경의 성분을 추출하고, 추출한 전경의 성분을 합성부(603)에 공급함과 함께, 배경의 성분을 합성부(605)에 공급한다.
분리부(601)는 도 72에 도시하는 구성과 동일한 구성으로 할 수 있다.
합성부(603)는 전경 성분 화상을 합성하여 출력한다. 합성부(605)는 배경 성분 화상을 합성하여 출력한다.
도 84에 도시하는 움직임 불선명 조정부(106)는 도 4에 도시한 경우와 마찬가지의 구성으로 할 수 있고, 영역 정보 및 움직임 벡터를 기초로 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양이 조정된 전경 성분 화상을 출력한다.
도 84에 나타내는 선택부(107)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명의 양이 조정된 전경 성분 화상 중 어느 한 쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이, 도 84에 구성을 도시하는 신호 처리부(12)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상에 대해, 그 화상에 포함되는 움직임 불선명의 양을 조정하여 출력할 수 있다. 도 84에 구성을 도시하는 신호 처리부(12)는 제1 실시예와 마찬가지로, 매립된 정보인 혼합비 α를 산출하고, 산출한 혼합비 α를 출력할 수 있다.
또, 혼합비 α는 화소치에 포함되는 배경의 성분의 비율로 설명했지만, 화소치에 포함되는 전경의 성분의 비율로 해도 된다.
또, 전경이 되는 오브젝트의 움직임 방향은 좌로부터 우로 설명했지만, 그 방향에 한정되지 않는 것은 물론이다.
이상에서는, 3차원 공간과 시간축 정보를 갖는 현실 공간의 화상을 비디오 카메라를 이용하여 2차원 공간과 시간축 정보를 갖는 시공간으로의 사영을 행한 경우를 예로 했지만, 본 발명은 이 예에 한하지 않고, 보다 많은 제1 차원의 제1 정보를 보다 작은 제2 차원의 제2 정보에 사영한 경우에, 그 사영에 의해 발생하는 왜곡을 보정하거나, 유의 정보를 추출하거나, 보다 자연스럽게 화상을 합성하는 경우에 적응하는 것이 가능하다.
또, 센서(11)는 CCD에 한하지 않고, 고체 촬상 소자인, 예를 들면 CMOS (Complementary Metal Oxide Semiconductor (보상성 금속 산화막 반도체)), BBD (Bucket Brigade Device), CID (Charge Injection Device), 또는 CPD (Charge Priming Device) 등의 센서이어도 되고, 또 검출 소자가 매트릭스 형상으로 배치되어 있는 센서에 한하지 않고, 검출 소자가 1열로 정렬되어 있는 센서이어도 된다.
본 발명의 신호 처리를 행하는 프로그램을 기록한 기록 매체는 도 3에 도시한 바와 같이, 컴퓨터와는 별도로 유저에게 프로그램을 제공하기 위해 배포되는, 프로그램이 기록되어 있는 자기 디스크(51; 플로피 디스크를 포함함), 광 디스크(52; CD-ROM(Compact Disk-Read Only Memory), DVD(Digital Versatile Disk)를 포함함), 광자기 디스크(53; MD(Mini-Disk)를 포함함), 또는 반도체 메모리(54) 등으로 이루어지는 패키지 미디어에 의해 구성되는 것만이 아니라, 컴퓨터에 사전에 내장된 상태로 유저에게 제공되는, 프로그램이 기록되어 있는 ROM(22)이나, 기억부(28)에 포함되는 하드 디스크 등으로 구성된다.
또, 본 명세서에서, 기록 매체에 기록되는 프로그램을 기록하는 단계는 기재된 순서에 따라 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않아도, 병렬적 또는 개별로 실행되는 처리를 포함하는 것이다.
제1 본 발명에 의하면, 선명하지 않은 화상 등의 검출 신호에 포함되는 움직임 불선명의 양을 조정할 수 있게 된다.
제2 본 발명에 의하면, 움직임 불선명의 양을 조정할 수 있게 된다.

Claims (12)

  1. 각각 시간 적분 효과를 갖는 소정수의 화소를 갖는 촬상 소자에 의해 취득된 소정수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 화상 데이터에서 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어진 전경 영역, 상기 화상 데이터에서 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역, 및 상기 화상 데이터에서 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합된 영역으로서, 상기 전경 오브젝트의 움직임 방향 선단부측에 형성되는 커버드 백그라운드 영역 및 상기 전경 오브젝트의 움직임 방향 후단부측에 형성되는 언커버드 백그라운드 영역을 포함하는 혼합 영역을 나타내는 영역 정보와, 상기 화상 데이터에 기초하여, 상기 전경 영역을 중심으로 하는 상기 커버드 백그라운드 영역의 외측 단부로부터 상기 언커버드 백그라운드 영역의 외측 단부까지의, 상기 전경 오브젝트의 움직임 방향과 일치하는 적어도 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정하는 처리 단위 결정 수단과,
    상기 처리 단위에 기초하여 결정되는 상기 처리 단위 내의 화소의 화소치와, 상기 혼합 영역에서의 상기 전경 오브젝트 성분을 설정한 분할수로 분할하여 이루어진 미지수인 분할치를 설정함으로써, 복수의 관계식으로 이루어지는 연립 방정식을 생성하는 연립 방정식 생성 수단과,
    상기 연립 방성식을 풀어 움직임 불선명량이 조정된 상기 전경 오브젝트 성분을 연산하는 연산 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  2. 제1항에 있어서,
    상기 연산 수단은, 상기 혼합 영역의 단부로부터 첫번째의 화소에 포함되는 상기 전경 오브젝트 성분을, 인접한 화소로서, 상기 직선상의 상기 혼합 영역의 단부로부터 2번째의 화소에 포함되는 상기 전경 오브젝트 성분으로부터 감산하면, 상기 2번째의 화소에 대응하는 하나의 상기 전경 오브젝트 성분이 산출되는 성질을 이용하여, 상기 연립 방정식을 상기 단부의 화소에 대응하는 관계식으로부터 순차적으로 풀어, 움직임 불선명량이 조정된 상기 전경 오브젝트 성분을 연산하는 것을 특징으로 하는 화상 처리 장치.
  3. 제1항에 있어서,
    상기 연립 방정식 생성 수단은, 상기 전경 오브젝트의 움직임량에 대응한 상기 분할수를 기초로, 상기 연립 방정식을 생성하는 것을 특징으로 하는 화상 처리 장치.
  4. 각각 시간 적분 효과를 갖는 소정수의 화소를 갖는 촬상 소자에 의해 취득된 소정수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 화상 데이터에서 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어진 전경 영역, 상기 화상 데이터에서 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역, 및 상기 화상 데이터에서 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합된 영역으로서, 상기 전경 오브젝트의 움직임 방향 선단부측에 형성되는 커버드 백그라운드 영역 및 상기 전경 오브젝트의 움직임 방향 후단부측에 형성되는 언커버드 백그라운드 영역을 포함하는 혼합 영역을 나타내는 영역 정보와, 상기 화상 데이터에 기초하여, 상기 전경 영역을 중심으로 하는 상기 커버드 백그라운드 영역의 외측 단부로부터 상기 언커버드 백그라운드 영역의 외측 단부까지의, 상기 전경 오브젝트의 움직임 방향과 일치하는 적어도 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정하는 처리 단위 결정 단계와,
    상기 처리 단위에 기초하여 결정되는 상기 처리 단위 내의 화소의 화소치와, 상기 혼합 영역에서의 상기 전경 오브젝트 성분을 설정한 분할수로 분할하여 이루어진 미지수인 분할치를 설정함으로써, 복수의 관계식으로 이루어지는 연립 방정식을 생성하는 연립 방정식 생성 단계와,
    상기 연립 방성식을 풀어, 움직임 불선명량이 조정된 상기 전경 오브젝트 성분을 연산하는 연산 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  5. 제4항에 있어서,
    상기 연산 단계에서 상기 혼합 영역의 단부로부터 1번째의 화소에 포함되는 상기 전경 오브젝트 성분을, 인접한 화소로서, 상기 직선상의 상기 혼합 영역의 단부로부터 2번째의 화소에 포함되는 상기 전경 오브젝트 성분으로부터 감산하면, 상기 2번째의 화소에 대응하는 하나의 상기 전경 오브젝트 성분이 산출되는 성질을 이용하여, 상기 연립 방정식을 상기 단부의 화소에 대응하는 관계식으로부터 순차적으로 풀어, 움직임 불선명량이 조정된 상기 전경 오브젝트 성분이 연산되는 것을 특징으로 하는 화상 처리 방법.
  6. 제4항에 있어서,
    상기 연립 방정식 생성 단계에서, 상기 전경 오브젝트의 움직임량에 대응한 상기 분할수를 기초로, 상기 연립 방정식이 생성되는 것을 특징으로 하는 화상 처리 방법.
  7. 각각 시간 적분 효과를 갖는 소정수의 화소를 갖는 촬상 소자에 의해 취득된 소정수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리용 프로그램으로서,
    상기 화상 데이터에서 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어진 전경 영역, 상기 화상 데이터에서 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역, 및 상기 화상 데이터에서 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합된 영역으로서, 상기 전경 오브젝트의 움직임 방향 선단부측에 형성되는 커버드 백그라운드 영역 및 상기 전경 오브젝트의 움직임 방향 후단부측에 형성되는 언커버드 백그라운드 영역을 포함하는 혼합 영역을 나타내는 영역 정보와, 상기 화상 데이터에 기초하여, 상기 전경 영역을 중심으로 하는 상기 커버드 백그라운드 영역의 외측 단부로부터 상기 언커버드 백그라운드 영역의 외측 단부까지의, 상기 전경 오브젝트의 움직임 방향과 일치하는 적어도 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정하는 처리 단위 결정 단계와,
    상기 처리 단위에 기초하여 결정되는 상기 처리 단위 내의 화소의 화소치와, 상기 혼합 영역에서의 상기 전경 오브젝트 성분을 설정한 분할수로 분할하여 이루어진 미지수인 분할치를 설정함으로써, 복수의 관계식으로 이루어지는 연립 방정식을 생성하는 연립 방정식 생성 단계와,
    상기 연립 방성식을 풀어, 움직임 불선명량이 조정된 상기 전경 오브젝트 성분을 연산하는 연산 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  8. 제7항에 있어서,
    상기 연산 단계에서, 상기 혼합 영역의 단부로부터 1번째의 화소에 포함되는 상기 전경 오브젝트 성분을, 인접한 화소로서, 상기 직선상의 상기 혼합 영역의 단 부로부터 2번째의 화소에 포함되는 상기 전경 오브젝트 성분으로부터 감산하면, 상기 2번째의 화소에 대응하는 하나의 상기 전경 오브젝트 성분이 산출되는 성질을 이용하여, 상기 연립 방정식을 상기 단부의 화소에 대응하는 관계식으로부터 순차적으로 풀어, 움직임 불선명량이 조정된 상기 전경 오브젝트 성분이 연산되는 것을 특징으로 하는 기록 매체.
  9. 제7항에 있어서,
    상기 연립 방정식 생성 단계에서, 상기 전경 오브젝트의 움직임량에 대응한 상기 분할수를 기초로, 상기 연립 방정식이 생성되는 것을 특징으로 하는 기록 매체.
  10. 각각 시간 적분 효과를 갖는 소정수의 화소를 갖는 촬상 소자에 의해 촬상된 피사체 화상을, 소정수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과,
    상기 화상 데이터에서 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어진 전경 영역, 상기 화상 데이터에서 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역, 및 상기 화상 데이터에서 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분이 혼합된 영역으로서, 상기 전경 오브젝트의 움직임 방향 선단부측에 형성되는 커버드 백그라운드 영역 및 상기 전경 오브젝트의 움직임 방향 후단부측에 형성되는 언커버드 백그라운드 영역을 포함하는 혼합 영역을 나타내는 영역 정보와, 상기 화상 데이터에 기초하여, 상기 전경 영역을 중심으로 하는 상기 커버드 백그라운드 영역의 외측 단부로부터 상기 언커버드 백그라운드 영역의 외측 단부까지의, 상기 전경 오브젝트의 움직임 방향과 일치하는 적어도 하나의 직선상의 화소 데이터로 이루어지는 처리 단위를 결정하는 처리 단위 결정 수단과,
    상기 처리 단위에 기초하여 결정되는 상기 처리 단위 내의 화소의 화소치와, 상기 혼합 영역에서의 상기 전경 오브젝트 성분을 설정한 분할수로 분할하여 이루어진 미지수인 분할치를 설정함으로써, 복수의 관계식으로 이루어지는 연립 방정식을 생성하는 연립 방정식 생성 수단과,
    상기 연립 방성식을 풀어, 움직임 불선명량이 조정된 상기 전경 오브젝트 성분을 연산하는 연산 수단
    을 포함하는 것을 특징으로 하는 촬상 장치.
  11. 제10항에 있어서,
    상기 연산 수단은, 상기 혼합 영역의 단부로부터 1번째의 화소에 포함되는 상기 전경 오브젝트 성분을, 인접한 화소로서, 상기 직선상의 상기 혼합 영역의 단부로부터 2번째의 화소에 포함되는 상기 전경 오브젝트 성분으로부터 감산하면, 상기 2번째의 화소에 대응하는 하나의 상기 전경 오브젝트 성분이 산출되는 성질을 이용하여, 상기 연립 방정식을 상기 단부의 화소에 대응하는 관계식으로부터 순차적으로 풀어, 움직임 불선명량이 조정된 상기 전경 오브젝트 성분을 연산하는 것을 특징으로 하는 촬상 장치.
  12. 제10항에 있어서,
    상기 연립 방정식 생성 수단은 상기 전경 오브젝트의 움직임량에 대응한 상기 분할수를 기초로, 상기 연립 방정식을 생성하는 것을 특징으로 하는 촬상 장치.
KR1020027013329A 2001-02-05 2002-02-05 화상 처리 장치 KR100799011B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001028223A JP4106874B2 (ja) 2001-02-05 2001-02-05 画像処理装置および方法、並びに記録媒体
JPJP-P-2001-00028223 2001-02-05

Publications (2)

Publication Number Publication Date
KR20020089432A KR20020089432A (ko) 2002-11-29
KR100799011B1 true KR100799011B1 (ko) 2008-01-28

Family

ID=18892762

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027013329A KR100799011B1 (ko) 2001-02-05 2002-02-05 화상 처리 장치

Country Status (7)

Country Link
US (1) US7024050B2 (ko)
EP (1) EP1361540B1 (ko)
JP (1) JP4106874B2 (ko)
KR (1) KR100799011B1 (ko)
CN (1) CN1269075C (ko)
DE (1) DE60219141T2 (ko)
WO (1) WO2002063561A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
KR100859381B1 (ko) * 2001-06-15 2008-09-22 소니 가부시끼 가이샤 화상 처리 장치 및 방법 및 촬상 장치
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
CA2420827C (en) * 2001-06-26 2010-03-23 Tetsujiro Kondo Image processing apparatus and method, and image pickup apparatus
JP4196274B2 (ja) * 2003-08-11 2008-12-17 ソニー株式会社 画像信号処理装置および方法、プログラム、並びに記録媒体
US7486991B2 (en) * 2003-12-24 2009-02-03 Cardiac Pacemakers, Inc. Baroreflex modulation to gradually decrease blood pressure
US8331723B2 (en) 2004-03-25 2012-12-11 Ozluturk Fatih M Method and apparatus to correct digital image blur due to motion of subject or imaging device
US9826159B2 (en) 2004-03-25 2017-11-21 Clear Imaging Research, Llc Method and apparatus for implementing a digital graduated filter for an imaging apparatus
US10721405B2 (en) 2004-03-25 2020-07-21 Clear Imaging Research, Llc Method and apparatus for implementing a digital graduated filter for an imaging apparatus
JP2006092156A (ja) * 2004-09-22 2006-04-06 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
CN100464570C (zh) * 2004-12-21 2009-02-25 索尼株式会社 图像处理装置、学习装置和系数生成装置及方法
US7616203B1 (en) * 2006-01-20 2009-11-10 Adobe Systems Incorporated Assigning attributes to regions across frames
US20080099662A1 (en) * 2006-10-31 2008-05-01 Muth Global Visions, Llc Method for adjusting an object detection apparatus
TWI431608B (zh) * 2007-09-12 2014-03-21 Quanta Comp Inc 影像處理方法及電腦可讀取媒介
JP2011091533A (ja) * 2009-10-21 2011-05-06 Sony Corp 画像処理装置および方法、並びに、プログラム
JP2013048717A (ja) 2011-08-31 2013-03-14 Sony Corp 画像処理装置及び方法、記録媒体、並びにプログラム
US9892510B2 (en) 2012-10-24 2018-02-13 Sony Corporation Method and apparatus for automatic cancer diagnosis using percentage scoring
CN109636731B (zh) * 2018-10-23 2020-11-13 惠州Tcl移动通信有限公司 一种图像拖影的消除方法、电子设备及存储介质
KR20210096090A (ko) 2018-12-06 2021-08-04 소니 세미컨덕터 솔루션즈 가부시키가이샤 수신 장치 및 송신 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04352289A (ja) * 1991-05-30 1992-12-07 Mitsubishi Electric Corp 映像信号処理装置
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5063603A (en) * 1989-11-06 1991-11-05 David Sarnoff Research Center, Inc. Dynamic method for recognizing objects and image processing system therefor
SK399692A3 (en) 1990-09-20 1995-01-05 British Broadcasting Corp Method of determination of suitable motion vector
GB9204117D0 (en) * 1992-02-26 1992-04-08 British Broadcasting Corp Video image processing
US5831627A (en) * 1996-06-27 1998-11-03 R/Greenberg Associates System and method for providing improved graphics generation performance using memory lookup
KR100224752B1 (ko) * 1997-06-11 1999-10-15 윤종용 표적 추적 방법 및 장치
US6404901B1 (en) 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
US6665342B1 (en) * 1999-07-02 2003-12-16 International Business Machines Corporation System and method for producing a still image representation of a motion video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04352289A (ja) * 1991-05-30 1992-12-07 Mitsubishi Electric Corp 映像信号処理装置
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体

Also Published As

Publication number Publication date
KR20020089432A (ko) 2002-11-29
CN1269075C (zh) 2006-08-09
DE60219141D1 (de) 2007-05-10
US20030174899A1 (en) 2003-09-18
EP1361540A1 (en) 2003-11-12
EP1361540B1 (en) 2007-03-28
JP2002230544A (ja) 2002-08-16
DE60219141T2 (de) 2008-01-03
EP1361540A4 (en) 2005-12-21
US7024050B2 (en) 2006-04-04
WO2002063561A1 (fr) 2002-08-15
JP4106874B2 (ja) 2008-06-25
CN1459078A (zh) 2003-11-26

Similar Documents

Publication Publication Date Title
KR100846261B1 (ko) 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치
KR100918544B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100799011B1 (ko) 화상 처리 장치
KR100859382B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100843815B1 (ko) 화상 처리 장치 및 방법
KR100897965B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
JP4596220B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100848427B1 (ko) 화상 처리 장치
KR100864336B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100835443B1 (ko) 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
KR100875780B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100894923B1 (ko) 화상 처리 장치, 방법 및 기록 매체와 촬상 장치
KR100858761B1 (ko) 화상 처리 장치
JP2002373335A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치
JP4596225B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120117

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130114

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee