KR100843815B1 - 화상 처리 장치 및 방법 - Google Patents

화상 처리 장치 및 방법 Download PDF

Info

Publication number
KR100843815B1
KR100843815B1 KR1020037002730A KR20037002730A KR100843815B1 KR 100843815 B1 KR100843815 B1 KR 100843815B1 KR 1020037002730 A KR1020037002730 A KR 1020037002730A KR 20037002730 A KR20037002730 A KR 20037002730A KR 100843815 B1 KR100843815 B1 KR 100843815B1
Authority
KR
South Korea
Prior art keywords
image
foreground
pixel
background
processing
Prior art date
Application number
KR1020037002730A
Other languages
English (en)
Other versions
KR20040014940A (ko
Inventor
데쯔지로 곤도
다까히로 나가노
준이찌 이시바시
다까시 사와오
나오끼 후지와라
세이지 와다
도루 미야께
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20040014940A publication Critical patent/KR20040014940A/ko
Application granted granted Critical
Publication of KR100843815B1 publication Critical patent/KR100843815B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Abstract

본 발명은 촬상한 화상을 실시간으로 전경 성분 화상과 배경 성분 화상으로 분리하는 것으로, 촬상부(74)에 의해 촬상된 화상을, 전경 성분 화상과 배경 성분 화상으로 분리하여, 화상 축적부(72)에 축적시킴과 함께, 과금 처리부(75)는 분리에 걸리는 요금에 대하여, 과금 처리를 실행한다. 이 때, 분리부(91)는 분리한 전경 성분 화상에 움직임 불선명 처리를 실시하고, 배경 성분 화상과 함께 합성부(92)에 출력한다. 합성부(92)는 입력된 움직임 불선명 처리된 전경 성분 화상과, 분리된 배경 성분 화상을 합성하여 합성 화상을 생성하여, 표시부(73)에 표시한다. 본 발명은 카메라 단말 장치에 적응할 수 있다.
화상 축적부, 전경 성분 화상, 배경 성분 화상, 촬상부, 분리부

Description

화상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD}
본 발명은, 화상 처리 장치 및 방법에 관한 것으로, 특히 촬상한 화상을 실시간으로 전경 성분 화상과 배경 성분 화상으로 분리하고, 또한 전경 성분 화상에 대해서는 움직임 불선명 처리를 실시간으로 실행할 수 있도록 한 화상 처리 장치 및 방법에 관한 것이다.
촬상한 화상을 가공하는 기술이 일반적으로 보급되고 있다.
지금까지, 다른 2개의 화상의 합성이나, 움직임이 있는 피사체를 촬상한 경우에 생기는 움직임 불선명을 제거하기 위해서는, 한번 촬상한 화상을 촬상 종료 후에 각각 합성하거나, 또는, 움직임 불선명을 제거할 필요가 있다.
그런데, 후자의 움직임이 있는 피사체를 촬상한 경우, 움직임에 의해 생기는 움직임 불선명을 제거하기 위해서는, 실시간(리얼타임)으로 실행하는 방법이 있다. 즉, 예를 들면, 도 1A에서 도시한 바와 같이, 골프 스윙을 행하고 있는 피사체를 촬상한 경우, 표시 화상에는 골프 클럽의 움직임에 의해 골프 클럽이 번져 표시된다. 이 번지는 듯이 표시되는 현상이 소위 움직임 불선명이다.
이 움직임 불선명을 리얼타임으로 제거하기 위해서는, 도 1B에 도시한 바와 같이 고속도 카메라에 의해 촬상하는 방법을 생각할 수 있다. 단, 고속도 카메라에 의해 촬상을 실시하면, 촬상 시의 밝기가 부족하기 때문에(1회의 셔터 시간이 짧아 취득할 수 있는 광의 양이 적어져, 그 만큼 밝기가 부족하게 됨), 특수한 강한 광을 발하는 조명을 피사체에 조사하거나, 도 2에 도시한 바와 같이 셔터와 동일한 타이밍에서 피사체에 강한 광을 발하는 플래시를 조사하여, 고속도 카메라로 촬상할 필요가 있다.
그러나, 상술한 방법에서는 화상의 합성 처리는 리얼타임으로 행할 수 없기 때문에, 합성 처리를 행할 때, 합성에 필요한 화상이 존재하지 않으면, 다시 동일한 장소에서 촬상해야하는 과제가 있었다. 또, 움직임 불선명의 제거 처리는 리얼타임으로 실행하는 방법이 있지만, 예를 들면 야간에 행하는 야생 동물의 생태 관찰을 목적으로 한 촬영인 경우, 상술한 방법으로는 강력한 조명을 사용할 필요가 있기 때문에, 피사체가 되는 야생 동물에게 경계감을 주어, 본래의 생태를 관찰할 수 없게 되는 과제가 있었다.
<발명의 개시>
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 화상의 가공 처리에서의 합성 처리와 움직임 불선명의 조정 처리를 리얼타임으로 실현할 수 있도록 하는 것이다.
본 발명의 화상 처리 장치는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 입력하는 입력 수단과, 입력 수단에 의해 입력된 화상 데이터의, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분과, 화상 데이터의 배경 오브젝트 를 구성하는 배경 오브젝트 성분이 혼합된 혼합 영역의 혼합비를 추정하는 혼합비 추정 수단과, 혼합비 추정 수단에 의해 추정된 혼합비에 기초하여, 입력 수단에 의해 입력된 화상 데이터를, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로, 실시간으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상, 및 배경 성분 화상을 실시간으로 기억하는 기억 수단을 포함하는 것을 특징으로 한다.
상기 화상을 구성하는 광을 광전 변환하고, 광전 변환함으로써 얻어진 전하를 시간적으로 적분하는 소정 수의 촬상 소자에 의해, 화소마다, 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로서 촬상하는 촬상 수단을 더 포함하도록 할 수 있다.
상기 촬상 수단에 대하여 촬상을 명령하는 촬상 명령 수단과, 촬상 명령 수단의 명령에 따라 과금 처리를 실행하는 촬상 과금 수단을 더 포함하도록 할 수 있다.
상기 분리 수단에 의해 실시간으로 분리된 전경 성분 화상, 및 배경 성분 화상, 및 기억 수단에 의해 이미 기억된 전경 성분 화상, 및 배경 성분 화상을 표시하는 화상 표시 수단과, 화상 표시 수단에 의해 표시된 분리 수단에 의해 실시간으로 분리된 전경 성분 화상, 및 배경 성분 화상, 및 기억 수단에 의해 이미 기억된 전경 성분 화상, 및 배경 성분 화상 중, 원하는 전경 성분 화상, 및 배경 성분 화상을 지정하는 화상 지정 수단과, 지정 수단에 의해 지정된 원하는 전경 성분 화 상, 및 배경 성분 화상을 합성하는 합성 수단을 더 포함하도록 할 수 있다.
상기 합성 수단에 대하여 화상의 합성을 명령하는 합성 명령 수단과, 합성 명령 수단의 명령에 따라 과금 처리를 실행하는 합성 과금 수단을 더 포함하도록 할 수 있다. 상기 기억 수단에 대하여, 분리 수단에 의해 분리된 전경 성분 화상, 및 배경 성분 화상의 실시간으로의 기억을 할지 여부를 명령하는 기억 명령 수단과, 기억 명령 수단의 명령에 따라 과금 처리를 실행하는 기억 과금 수단을 더 포함하도록 할 수 있다.
상기 분리 수단에 의해 실시간으로 분리된 전경 성분 화상, 또는 기억 수단에 의해 이미 기억되어 있는 전경 성분 화상의 움직임 불선명을 조정하는 움직임 불선명 조정 수단을 더 포함하도록 할 수 있다.
상기 움직임 불선명 조정 수단에 의해 움직임 불선명이 조정된 전경 성분 화상을 표시하는 움직임 불선명 조정 화상 표시 수단을 더 포함하도록 할 수 있다.
상기 움직임 불선명 조정 수단에 의해 움직임 불선명이 조정되어 있는, 전경 성분 화상과 배경 성분 화상을 합성하는 합성 수단을 더 포함하도록 할 수 있어, 움직임 불선명 조정 화상 표시 수단으로 움직임 불선명 조정 수단에 의해 움직임 불선명 조정되어 있는, 전경 성분 화상과 배경 성분 화상이 합성 수단에 의해 합성된 화상을 표시시키도록 할 수 있다.
상기 움직임 불선명 조정 수단이 전경 성분 화상의 움직임 불선명을 조정하는 시간을 계측하는 처리 시간 계측 수단과, 처리 시간 계측 수단에 의해 계측된 시간에 따라 과금 처리를 실행하는 움직임 불선명 조정 과금 수단을 더 포함하도록 할 수 있다.
자신의 가동 시간을 계측하는 가동 시간 계측 수단과, 가동 시간 계측 수단에 의해 계측된 시간에 따라 과금 처리를 실행하는 가동 과금 수단을 더 포함하도록 할 수 있다.
본 발명의 화상 처리 방법은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 입력하는 입력 단계와, 입력 단계의 처리에서 입력된 화상 데이터의, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합된 혼합 영역의 혼합비를 추정하는 혼합비 추정 단계와, 혼합비 추정 단계의 처리에 의해 추정된 혼합비에 기초하여, 입력 단계의 처리에서 입력된 화상 데이터를, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로, 실시간으로 분리하는 분리 단계와, 분리 단계의 처리에 의해 분리된 전경 성분 화상, 및 배경 성분 화상을 실시간으로 기억하는 기억 단계를 포함하는 것을 특징으로 한다.
상기 화상을 구성하는 광을 광전 변환하고, 광전 변환함으로써 얻어진 전하를 시간적으로 적분하는 소정 수의 촬상 소자에 의해, 화소마다, 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로서 촬상하는 촬상 단계를 더 포함하도록 할 수 있다.
상기 촬상 단계의 처리에 대하여 촬상을 명령하는 촬상 명령 단계와, 촬상 명령 단계의 처리에서의 명령에 따라 과금 처리를 실행하는 촬상 과금 단계를 더 포함하도록 할 수 있다.
상기 분리 단계의 처리에 의해 실시간으로 분리된 전경 성분 화상, 및 배경 성분 화상, 및 기억 단계의 처리에 의해 이미 기억된 전경 성분 화상, 및 배경 성분 화상을 표시하는 화상 표시 단계와, 화상 표시 단계의 처리에 의해 표시된, 분리 단계의 처리에 의해 실시간으로 분리된 전경 성분 화상, 및 배경 성분 화상, 및 기억 단계의 처리에 의해 이미 기억된 전경 성분 화상, 및 배경 성분 화상 중, 원하는 전경 성분 화상, 및 배경 성분 화상을 지정하는 화상 지정 단계와, 지정 단계의 처리에 의해 지정된 원하는 전경 성분 화상, 및 배경 성분 화상을 합성하는 합성 단계를 더 포함하도록 할 수 있다.
상기 합성 단계의 처리에 대하여 화상의 합성을 명령하는 합성 명령 단계와, 합성 명령 단계의 처리에서의 명령에 따라 과금 처리를 실행하는 합성 과금 단계를 더 포함하도록 할 수 있다.
상기 기억 단계의 처리에 대하여, 분리 단계의 처리에 의해 분리된 전경 성분 화상, 및 배경 성분 화상의 실시간으로의 기억을 할지 여부를 명령하는 기억 명령 단계와, 기억 명령 단계의 처리에서의 명령에 따라 과금 처리를 실행하는 기억 과금 단계를 더 포함하도록 할 수 있다. 상기 분리 단계의 처리에 의해 실시간으로 분리된 전경 성분 화상, 또는 기억 단계의 처리에 의해 이미 기억되어 있는 전경 성분 화상의 움직임 불선명을 조정하는 움직임 불선명 조정 단계를 더 포함하도록 할 수 있다.
상기 움직임 불선명 조정 단계의 처리에 의해 움직임 불선명이 조정된 전경 성분 화상을 표시하는 움직임 불선명 조정 화상 표시 단계를 더 포함하도록 할 수 있다.
상기 움직임 불선명 조정 단계의 처리에 의해 움직임 불선명 조정되어 있는, 전경 성분 화상과 배경 성분 화상을 합성하는 합성 단계를 더 포함하도록 할 수 있으며, 움직임 불선명 조정 화상 표시 단계의 처리에는 움직임 불선명 조정 단계의 처리에 의해 움직임 불선명이 조정되어 있는, 전경 성분 화상과 배경 성분 화상이 합성 단계의 처리에 의해 합성된 화상을 표시시키도록 할 수 있다.
상기 움직임 불선명 조정 단계의 처리가, 전경 성분 화상의 움직임 불선명을 조정하는 시간을 계측하는 처리 시간 계측 단계와, 처리 시간 계측 단계의 처리에 의해 계측된 시간에 따라 과금 처리를 실행하는 움직임 불선명 조정 과금 단계를 더 포함하도록 할 수 있다.
자신의 가동 시간을 계측하는 가동 시간 계측 단계와, 가동 시간 계측 단계의 처리에 의해 계측된 시간에 따라 과금 처리를 실행하는 가동 과금 단계를 더 포함하도록 할 수 있다.
본 발명의 기록 매체의 프로그램은, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터의 입력을 제어하는 입력 제어 단계와, 입력 제어 단계의 처리에서 입력된 화상 데이터의, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합된 혼합 영역의 혼합비의 추정을 제어하는 혼합비 추정 제어 단계와, 혼합비 추정 제어 단계의 처리에 의해 추정된 혼합비에 기초하여, 입력 제어 단계의 처리에서 입력된 화상 데이터를, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의, 실시간의 분리를 제어하는 분리 제어 단계와, 분리 제어 단계의 처리에 의해 분리된 전경 성분 화상, 및 배경 성분 화상을 실시간에서의 기억을 제어하는 기억 제어 단계를 포함하는 것을 특징으로 한다.
상기 화상을 구성하는 광을 광전 변환하고, 광전 변환함으로써 얻어진 전하를 시간적으로 적분하는 소정 수의 촬상 소자에 의해, 화소마다, 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로서의 촬상을 제어하는 촬상 제어 단계를 더 포함하도록 할 수 있다.
상기 촬상 제어 단계의 처리에 대한 촬상의 명령을 제어하는 촬상 명령 제어 단계와, 촬상 명령 제어 단계의 처리에서의 명령에 따른 과금 처리의 실행을 제어하는 촬상 과금 제어 단계를 더 포함하도록 할 수 있다.
상기 분리 제어 단계의 처리에 의해 실시간의 분리가 제어된 전경 성분 화상, 및 배경 성분 화상, 및 기억 제어 단계의 처리에 의해 이미 기억이 제어된 전경 성분 화상, 및 배경 성분 화상의 표시를 제어하는 화상 표시 제어 단계와, 화상 표시 제어 단계의 처리에 의해 표시가 제어된 분리 제어 단계의 처리에 의해 실시간의 분리가 제어된 전경 성분 화상, 및 배경 성분 화상, 및 기억 제어 단계의 처리에 의해 이미 기억이 제어된 전경 성분 화상, 및 배경 성분 화상 중, 원하는 전경 성분 화상, 및 배경 성분 화상의 지정을 제어하는 화상 지정 제어 단계와, 지정 제어 단계의 처리에 의해 지정이 제어된 원하는 전경 성분 화상, 및 배경 성분 화상의 합성을 제어하는 합성 제어 단계를 더 포함하도록 할 수 있다.
상기 합성 제어 단계의 처리에 대한 화상의 합성의 명령을 제어하는 합성 명령 제어 단계와, 합성 명령 제어 단계의 처리에 의해 제어된 명령에 따라 과금 처리의 실행을 제어하는 합성 과금 제어 단계를 더 포함하도록 할 수 있다.
상기 기억 제어 단계의 처리에 대하여, 분리 제어 단계의 처리에 의해 분리가 제어된 전경 성분 화상, 및 배경 성분 화상의 실시간으로의 기억을 할지 여부의 명령을 제어하는 기억 명령 제어 단계와, 기억 명령 제어 단계의 처리에 의해 제어된 명령에 따라 과금 처리의 실행을 제어하는 기억 과금 제어 단계를 더 포함하도록 할 수 있다.
상기 분리 제어 단계의 처리에 의해 실시간으로 분리가 제어된 전경 성분 화상, 또는 기억 제어 단계의 처리에 의해 이미 기억이 제어되어 있는 전경 성분 화상의 움직임 불선명의 조정을 제어하는 움직임 불선명 조정 제어 단계를 더 포함하도록 할 수 있다.
상기 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어된 전경 성분 화상의 표시를 제어하는 움직임 불선명 조정 화상 표시 제어 단계를 더 포함하도록 할 수 있다.
상기 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어되어 있는, 전경 성분 화상과 배경 성분 화상과의 합성을 제어하는 합성 제어 단계를 더 포함하도록 할 수 있어, 움직임 불선명 조정 화상 표시 제어 단계의 처리에서 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어되어 있는 전경 성분 화상과 배경 성분 화상이, 합성 제어 단계의 처리에 의해 합성이 제어된 화상의 표시를 제어시키도록 할 수 있다.
상기 움직임 불선명 조정 제어 단계의 처리가, 전경 성분 화상의 움직임 불선명의 조정을 제어하는 시간의 계측을 제어하는 처리 시간 계측 제어 단계와, 처리 시간 계측 제어 단계의 처리에 의해 계측이 제어된 시간에 따라 과금 처리의 실행을 제어하는 움직임 불선명 조정 과금 제어 단계를 더 포함하도록 할 수 있다.
자신의 가동 시간의 계측을 제어하는 가동 시간 계측 제어 단계와, 가동 시간 계측 제어 단계의 처리에 의해 계측이 제어된 시간에 따라 과금 처리의 실행을 제어하는 가동 과금 제어 단계를 더 포함하도록 할 수 있다.
본 발명의 프로그램은, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터의 입력을 제어하는 입력 제어 단계와, 입력 제어 단계의 처리에서 입력된 화상 데이터의, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합된 혼합 영역의 혼합비의 추정을 제어하는 혼합비 추정 제어 단계와, 혼합비 추정 제어 단계의 처리에 의해 추정된 혼합비에 기초하여, 입력 제어 단계의 처리에서 입력된 화상 데이터를, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로의, 실시간의 분리를 제어하는 분리 제어 단계와, 분리 제어 단계의 처리에 의해 분리된 전경 성분 화상, 및 배경 성분 화상의 실시간의 기억을 제어하는 기억 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
상기 화상을 구성하는 광을 광전 변환하고, 광전 변환함으로써 얻어진 전하를 시간적으로 적분하는 소정 수의 촬상 소자에 의해, 화소마다, 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로서의 촬상을 제어하는 촬상 제어 단계를 더 포함하도록 할 수 있다.
상기 촬상 제어 단계의 처리에 대한 촬상의 명령을 제어하는 촬상 명령 제어 단계와, 촬상 명령 제어 단계의 처리에서의 명령에 따른 과금 처리의 실행을 제어하는 촬상 과금 제어 단계를 더 포함하도록 할 수 있다.
상기 분리 제어 단계의 처리에 의해 실시간의 분리가 제어된 전경 성분 화상, 및 배경 성분 화상, 및 기억 제어 단계의 처리에 의해 이미 기억이 제어된 전경 성분 화상, 및 배경 성분 화상의 표시를 제어하는 화상 표시 제어 단계와, 화상 표시 제어 단계의 처리에 의해 표시가 제어된 분리 제어 단계의 처리에 의해 실시간의 분리가 제어된 전경 성분 화상, 및 배경 성분 화상, 및 기억 제어 단계의 처리에 의해 이미 기억이 제어된 전경 성분 화상, 및 배경 성분 화상 중, 원하는 전경 성분 화상, 및 배경 성분 화상의 지정을 제어하는 화상 지정 제어 단계와, 지정 제어 단계의 처리에 의해 지정이 제어된 원하는 전경 성분 화상, 및 배경 성분 화상의 합성을 제어하는 합성 제어 단계를 더 포함하도록 할 수 있다.
상기 합성 제어 단계의 처리에 대한 화상의 합성의 명령을 제어하는 합성 명령 제어 단계와, 합성 명령 제어 단계의 처리에 의해 제어된 명령에 따라 과금 처리의 실행을 제어하는 합성 과금 제어 단계를 더 포함하도록 할 수 있다.
상기 기억 제어 단계의 처리에 대하여, 분리 제어 단계의 처리에 의해 분리가 제어된 전경 성분 화상, 및 배경 성분 화상의 실시간으로의 기억을 할지 여부의 명령을 제어하는 기억 명령 제어 단계와, 기억 명령 제어 단계의 처리에 의해 제어된 명령에 따라 과금 처리의 실행을 제어하는 기억 과금 제어 단계를 더 포함하도록 할 수 있다.
상기 분리 제어 단계의 처리에 의해 실시간으로 분리가 제어된 전경 성분 화상, 또는 기억 제어 단계의 처리에 의해 이미 기억이 제어되어 있는 전경 성분 화상의 움직임 불선명의 조정을 제어하는 움직임 불선명 조정 제어 단계를 더 포함하도록 할 수 있다.
상기 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어된 전경 성분 화상의 표시를 제어하는 움직임 불선명 조정 화상 표시 제어 단계를 더 포함하도록 할 수 있다.
상기 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어되어 있는, 전경 성분 화상과 배경 성분 화상과의 합성을 제어하는 합성 제어 단계를 더 포함하도록 할 수 있어, 움직임 불선명 조정 화상 표시 제어 단계의 처리에서는 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어되어 있는, 전경 성분 화상과 배경 성분 화상이 합성 제어 단계의 처리에 의해 합성이 제어된 화상의 표시를 제어시키도록 할 수 있다.
상기 움직임 불선명 조정 제어 단계의 처리가, 전경 성분 화상의 움직임 불선명의 조정을 제어하는 시간의 계측을 제어하는 처리 시간 계측 제어 단계와, 처리 시간 계측 제어 단계의 처리에 의해 계측이 제어된 시간에 따라 과금 처리의 실행을 제어하는 움직임 불선명 조정 과금 제어 단계를 더 포함하도록 할 수 있다.
자신의 가동 시간의 계측을 제어하는 가동 시간 계측 제어 단계와, 가동 시간 계측 제어 단계의 처리에 의해 계측이 제어된 시간에 따라 과금 처리의 실행을 제어하는 가동 과금 제어 단계를 더 포함하도록 할 수 있다.
본 발명의 화상 처리 장치 및 방법, 및 프로그램에서는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터가 입력되고, 입력된 화상 데이터의, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합된 혼합 영역의 혼합비가 추정되고, 추정된 혼합비에 기초하여 입력된 화상 데이터가 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 실시간으로 분리되고, 분리된 전경 성분 화상, 및 배경 성분 화상이 실시간으로 기억된다.
도 1A는 종래의 화상 처리 방법을 도시한 도면.
도 1B는 종래의 화상 처리 방법을 도시한 도면.
도 2는 종래의 화상 처리 방법을 도시한 도면.
도 3은 본 발명을 적용한 화상 처리 시스템의 일 실시 형태의 구성을 도시한 도면.
도 4는 도 3의 카메라 단말 장치의 구성을 도시한 도면.
도 5는 도 3의 텔레비전 수상기 단말 장치의 구성을 도시한 도면.
도 6은 도 4의 카메라 단말 장치의 구성을 도시한 블록도.
도 7은 도 5의 텔레비전 수상기 단말 장치의 구성을 도시한 블록도.
도 8은 도 6의 신호 처리부의 구성을 도시한 블록도.
도 9는 화상 처리 장치를 도시한 블록도.
도 10은 센서에 의한 촬상을 설명하는 도면.
도 11은 화소의 배치를 설명하는 도면.
도 12는 검출 소자의 동작을 설명하는 도면.
도 13A는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면.
도 13B는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면.
도 14는 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면.
도 15는 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델도.
도 16은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 17은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 18은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 19는 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시한 도면.
도 20은 화소와 화소값을 시간 방향으로 전개한 모델과의 대응을 도시한 도면.
도 21은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 22는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 23은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 24는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 25는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 26은 움직임 불선명량의 조정 처리를 설명하는 흐름도.
도 27은 영역 특정부(103)의 구성의 일례를 도시한 블록도.
도 28은 전경에 대응하는 오브젝트가 이동하고 있을 때의 화상을 설명하는 도면.
도 29는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 30은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 31은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 32는 영역 판정의 조건을 설명하는 도면.
도 33A는 영역 특정부(103)의 영역의 특정한 결과의 예를 도시한 도면.
도 33B는 영역 특정부(103)의 영역의 특정한 결과의 예를 도시한 도면.
도 33C는 영역 특정부(103)의 영역의 특정한 결과의 예를 도시한 도면.
도 33D는 영역 특정부(103)의 영역의 특정한 결과의 예를 도시한 도면.
도 34는 영역 특정부(103)의 영역의 특정한 결과의 예를 도시한 도면.
도 35는 영역 특정 처리를 설명하는 흐름도.
도 36은 영역 특정부(103)의 구성의 다른 일례를 도시한 블록도.
도 37은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 38은 배경 화상의 예를 도시한 도면.
도 39는 2치 오브젝트 화상 추출부(302)의 구성을 도시한 블록도.
도 40A는 상관값의 산출을 설명하는 도면.
도 40B는 상관값의 산출을 설명하는 도면.
도 41A는 상관값의 산출을 설명하는 도면.
도 41B는 상관값의 산출을 설명하는 도면.
도 42는 2치 오브젝트 화상의 예를 도시한 도면.
도 43은 시간 변화 검출부(303)의 구성을 도시한 블록도.
도 44는 영역 판정부(342)의 판정을 설명하는 도면.
도 45는 시간 변화 검출부(303)의 판정의 예를 도시한 도면.
도 46은 영역 판정부(103)의 영역 특정 처리를 설명하는 흐름도.
도 47은 영역 판정 처리의 상세한 내용을 설명하는 흐름도.
도 48은 영역 특정부(103)의 또 다른 구성을 도시한 블록도.
도 49는 로버스트화부(361)의 구성을 설명한 블록도.
도 50은 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 51은 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 52는 영역 특정 처리를 설명하는 흐름도.
도 53은 로버스트화 처리의 상세한 내용을 설명하는 흐름도.
도 54는 혼합비 산출부(104)의 구성의 일례를 도시한 블록도.
도 55는 이상적인 혼합비α의 예를 도시한 도면.
도 56은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 57은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 58은 전경의 성분의 상관을 이용한 근사를 설명하는 도면.
도 59는 C, N, 및 P의 관계를 설명하는 도면.
도 60은 추정 혼합비 처리부(401)의 구성을 도시한 블록도.
도 61은 추정 혼합비의 예를 도시한 도면.
도 62는 혼합비 산출부(104)의 다른 구성을 도시한 블록도.
도 63은 혼합비의 산출 처리를 설명하는 흐름도.
도 64는 추정 혼합비의 연산 처리를 설명하는 흐름도.
도 65는 혼합비α를 근사하는 직선을 설명하는 도면.
도 66은 혼합비α를 근사하는 평면을 설명하는 도면.
도 67은 혼합비α를 산출할 때의 복수의 프레임의 화소의 대응을 설명하는 도면.
도 68은 혼합비 추정 처리부(401)의 다른 구성을 도시한 블록도.
도 69는 추정 혼합비의 예를 도시한 도면.
도 70은 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리를 설명하는 흐름도.
도 71은 전경 배경 분리부(105)의 구성의 일례를 도시한 블록도.
도 72A는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시한 도면.
도 72B는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시한 도면.
도 73은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 74는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 75는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 76은 분리부(601)의 구성의 일례를 도시한 블록도.
도 77A는 분리된 전경 성분 화상, 및 배경 성분 화상의 예를 도시한 도면.
도 77B는 분리된 전경 성분 화상, 및 배경 성분 화상의 예를 도시한 도면.
도 78은 전경과 배경과의 분리 처리를 설명하는 흐름도.
도 79는 움직임 불선명 조정부(106)의 구성의 일례를 도시한 블록도.
도 80은 처리 단위를 설명하는 도면.
도 81은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 82는 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 83은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 84는 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 85는 움직임 불선명 조정부(106)의 다른 구성을 도시한 도면.
도 86은 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명량의 조정 처리를 설명하는 흐름도.
도 87은 움직임 불선명 조정부(106)의 구성의 다른 일례를 도시한 블록도.
도 88은 화소값과 전경의 성분과의 대응을 지정하는 모델의 예를 도시한 도면.
도 89는 전경의 성분의 산출을 설명하는 도면.
도 90은 전경의 성분의 산출을 설명하는 도면.
도 91은 전경의 움직임 불선명의 제거 처리를 설명하는 흐름도.
도 92는 화상 처리 장치의 기능의 다른 구성을 도시한 블록도.
도 93은 합성부(1001)의 구성을 도시한 도면.
도 94는 화상 처리 장치의 기능의 또 다른 구성을 도시한 블록도.
도 95는 혼합비 산출부(1101)의 구성을 도시한 블록도.
도 96은 전경 배경 분리부(1102)의 구성을 도시한 블록도.
도 97는 화상 처리 장치의 기능의 또 다른 구성을 도시한 블록도.
도 98은 합성부(1201)의 구성을 도시한 도면.
도 99는 카메라 단말 장치의 합성 서비스 처리를 설명하는 흐름도.
도 100은 합성 서비스의 과금 처리를 설명하는 흐름도.
도 101은 합성 서비스의 과금 처리를 설명하는 도면.
도 102A는 합성 서비스의 과금 처리를 설명하는 도면.
도 102B는 합성 서비스의 과금 처리를 설명하는 도면.
도 102C는 합성 서비스의 과금 처리를 설명하는 도면.
도 103은 카메라 단말 장치에 의한 리얼타임 합성 서비스를 설명하는 도면.
도 104는 카메라 단말 장치의 다른 실시예를 설명하는 도면.
도 105는 카메라 단말 장치에 의한 리얼타임 합성 서비스 처리를 설명하는 흐름도.
도 106은 카메라 단말 장치에 의한 리얼타임 합성 서비스를 설명하는 도면.
도 107은 카메라 단말 장치에 의한 리얼타임 합성 서비스를 설명하는 도면.
<발명을 실시하기 위한 최량의 형태>
도 3은, 본 발명에 따른 화상 처리 시스템의 일 실시 형태를 도시한 도면이다.
본 발명의 화상 처리 시스템은, 예를 들면 인터넷 등의 네트워크(1)상에, 카메라 단말 장치(2), 텔레비전 단말 장치(3), 과금 서버(5), 금융 서버(고객용 : 6), 및 금융 서버(제공자용 : 7)가 접속되어 있으며 서로 데이터를 수수할 수 있는 구성으로 되어 있다. 카메라 단말 장치(2)는 화상을 촬상하고, 촬상한 화상을 실시간으로 분리하거나, 합성하여, 표시한다. 이 때, 화상의 분리나 합성 처리에 대해서는, 요금이 발생하는 구성으로 되어 있다. 따라서, 이 카메라 단말 장치(2)는, 예를 들면 대출되는 것으로서, 화상의 분리나 합성 처리에 따른 요금은 네트워 크(1)를 통해 과금 서버(5)에 의해 그 사용자의 금융 서버(6)로부터 제공자(예를 들면, 카메라 단말 장치(2)를 대출하고 있는 업자)의 금융 서버(7)에 과금되는 것으로 해도 된다. 텔레비전 수상기 단말 장치(3)는 카메라 장치(4)에 의해 촬상된 화상을 실시간으로 분리하거나, 합성하여 표시한다. 이 화상의 분리나 합성에 드는 요금에 대해서도 카메라 단말 장치(2)와 마찬가지로 할 수 있다.
도 4는 본 발명에 따른 카메라 단말 장치(2)의 구성을 도시한 도면이다. CPU(Central Processing Unit : 21)는 ROM(Read Only Memory : 22), 또는 기억부(28)에 기억되어 있는 프로그램에 따라 각종 처리를 실행한다. RAM(Random Access Memory : 23)에는, CPU(21)가 실행하는 프로그램이나 데이터 등이 적절하게 기억된다. 이들 CPU(21), ROM(22), 및 RAM(23)은 버스(24)에 의해 서로 접속되어 있다.
CPU(21)에는 또한 버스(44)를 통하여 입출력 인터페이스(25)가 접속되어 있다. 입출력 인터페이스(25)에는 키보드, 마우스, 마이크로폰 등으로 이루어지는 입력부(26), 디스플레이, 스피커 등으로 이루어지는 출력부(27)가 접속되어 있다. CPU(21)는 셔터 버튼이나, 각종 입력 키 등으로 이루어지는 입력부(26)로부터 입력되는 명령에 대응하여 각종 처리를 실행한다. 또한, 입력부(26)에는 촬상 소자로서의 센서(26a)가 접속되어 있고, 촬상된 화상이 입력된다. 그리고, CPU(21)는 처리 결과 얻어진 화상이나 음성 등을 출력부(27)에 출력하고, 화상에 대해서는 LCD(Liquid Crystal Display : 27a)에 표시시킨다.
입출력 인터페이스(25)에 접속되어 있는 기억부(28)는 예를 들면 하드디스크 등으로 구성되고, CPU(21)가 실행하는 프로그램이나 각종 데이터를 기억한다.
통신부(29)는 인터넷, 그 밖의 네트워크를 통하여 외부의 장치와 통신한다.
또한, 통신부(29)를 통하여 프로그램을 취득하고, 기억부(28)에 기억해도 된다. 입출력 인터페이스(25)에 접속되어 있는 드라이브(30)는 자기 디스크(41), 광 디스크(42), 광 자기 디스크(43), 혹은 반도체 메모리(44) 등이 장착되었을 때, 이들을 구동하여, 거기에 기록되어 있는 프로그램이나 데이터 등을 취득한다. 취득된 프로그램이나 데이터는 필요에 따라 기억부(28)에 전송되어, 기억된다.
도 5는 본 발명에 따른 텔레비전 수상기(3)의 구성을 도시한 도면이다. 텔레비전 수상기(3)의 구성은, 기본적으로 카메라 단말 장치(2)의 구성과 동일한 구성으로 되어 있다. 즉, 텔레비전 수상기 단말 장치(3)의 CPU(51), ROM(52), RAM(53), 버스(54), 입출력 인터페이스(55), 입력부(56), 출력부(57), 기억부(58), 통신부59, 드라이브(60), 자기 디스크(61), 광 디스크(62), 광 자기 디스크(63) 및 반도체 메모리(64)는 카메라 단말 장치(2)의 CPU(21), ROM(22), RAM(23), 버스(24), 입출력 인터페이스(25), 입력부(26), 출력부(27), 기억부(28), 통신부(29), 드라이브(30), 자기 디스크(41), 광 디스크(52), 광 자기 디스크(53), 및 반도체 메모리(54)에 각각 대응하고 있다. 또, 이 예에서는 텔레비전 수상기 단말 장치(3)의 통신부(59)에는 도 1A와 도 1B에서 도시한 바와 같이, 카메라 장치(4)가 접속되어, 촬상된 화상이 입력된다.
또한, 과금 서버(5), 금융 서버(고객용 : 6), 및 금융 서버(제공자용 : 7)에 대해서는 그 기본 구성이 텔레비전 수상기 단말 장치(3)와 마찬가지이므로, 그 설 명은 생략한다.
이어서, 도 6을 참조하여, 카메라 단말 장치(2)에 대하여 설명한다.
카메라 단말 장치(2)의 신호 처리부(71)는 촬상부(74)(도 4의 센서(76a)에 상당함)로부터 입력되는 화상, 또는, 그것 이외의 입력에 의해 입력되는 화상에 기초하여, 입력 화상을 그대로 표시부(73)에 표시시키는 것 외에, 입력 화상의 전경, 입력 화상의 배경, 입력 화상의 전경과 화상 축적부(72)에 미리 축적된 배경과의 합성 화상, 입력 화상의 배경과 화상 축적부(72)에 미리 축적된 전경과의 합성 화상, 화상 축적부(72)에 미리 축적된 전경과 배경의 합성 화상, 화상 축적부(72)에 미리 축적된 전경, 및 화상 축적부(72)에 미리 축적된 배경 중 어느 하나를 생성하여 표시부(73)에 표시시킨다.
또한, 신호 제어부(71)에 입력되는 화상은 반드시 화상이 아니어도 된다. 즉, 신호 제어부(71)는 상술한 각종 출력 화상을 표시부(73)에 표시시킬 때, 각 화상마다 ID를 붙이고(전경 성분 화상, 배경 성분 화상, 또는 합성 화상 모두에 대해서도 ID를 붙임), 화상 축적부(72)에 축적시키므로, 축적된 화상을 지정하는 화상 ID를 입력함으로써, 신호 제어부(71)는 화상 축적부(72)에 축적된 화상중 화상 ID에 대응하는 화상을 입력 화상으로서 사용할 수 있다.
과금 처리부(75)는 신호 처리부(71)의 화상 분리 처리, 또는 화상 합성 처리에 드는 요금에 대하여, 네트워크(1)를 통하여 과금 서버(5)와 함께 과금 처리를 실행한다. 과금 처리부(75)는 자기 ID를 기억하고 있어, 과금 처리시에, 사용자의 ID, 인증 정보, 및 이용 금액과 함께 과금 서버(5)에 송신한다.
또한, 신호 처리부(71)의 상세한 내용에 대해서는 도 8을 참조하여 후술한다.
이어서, 도 7을 참조하여 텔레비전 수상기 단말 장치(3)의 구성에 대하여 설명한다. 텔레비전 수상기 단말 장치(3)에 대해서는 카메라 단말 장치(2)에 설치되어 있는 촬상부(74)가 설치되어 있지 않고, 대신에 외부의 카메라 장치(4)에 의해 촬상된 화상, 또는 도시하지 않은 안테나로부터 수신되는 전파로부터 NTSC(Nationa1 Television Standards Committee) 신호로서 신호 처리부(81)에 화상을 출력하는 튜너(84) 이외의 구성은 마찬가지다. 즉, 텔레비전 수상기 단말 장치(3)의 신호 처리부(81), 화상 축적부(82), 표시부(83), 및 과금 처리부(85)는 카메라 단말 장치(2)의 신호 처리부(71), 화상 축적부(72), 표시부(73), 및 과금 처리부(75)에 대응하는 것이므로, 그 설명은 생략한다.
이어서, 도 8을 참조하여, 신호 처리부(71)의 구성에 대하여 설명한다.
신호 처리부(71)의 분리부(91)는 촬상부(74)로부터 입력되는 입력 화상, 그 밖의 입력 화상, 또는 화상 ID에 의해 지정된 화상 축적부(72)에 축적된 화상을 전경 성분 화상과 배경 성분 화상으로 분리하여, 원하는 화상을 합성부(92)에 출력한다. 즉, 원하는 화상이란, 출력하려는 화상이 전경 성분 화상인 경우에는 분리한 화상 중 전경 성분 화상만을 합성부(92)에 출력하고, 반대로 출력하려는 화상에 필요한 화상이 배경 성분 화상인 경우에는, 분리한 화상 중 배경 성분 화상만을 합성부(92)에 출력한다. 또한, 이 때, 합성부(92)에 출력한 화상에 대해서는 각 화상마다 ID를 붙여 화상 축적부(72)에 축적시킨다. 물론, 분리부(91)는 입력된 화상 을 분리 처리하지 않고 그대로 합성부(92)에 출력할 수도 있다. 그 때도, 분리부(91)는 출력 화상에 ID를 붙여 화상 축적부(72)에 축적시킨다.
합성부(92)는 분리부(91)로부터 입력되는 화상에, 필요에 따라 화상 축적부(72)에 축적된 화상을 합성하여 합성 화상으로서 출력한다. 즉, 입력 화상의 전경, 입력 화상의 배경을 출력하는 경우, 합성부(92)는 분리부(91)로부터 입력된 전경 성분 화상이 또는 배경 성분 화상을 그대로 출력한다. 또한, 입력 화상의 전경과 화상 축적부(72)에 미리 축적된 배경과의 합성 화상, 입력 화상의 배경과 화상 축적부(72)에 미리 축적된 전경과의 합성 화상을 출력하는 경우, 합성부(92)는 분리부(91)로부터 입력된 전경 성분 화상, 또는 배경 성분 화상에, 화상 축적부(72)에 미리 축적된 배경 성분 화상, 또는 전경 성분 화상을 합성하여 출력한다. 또한, 화상 축적부(72)에 미리 축적된 전경과 배경의 합성 화상, 화상 축적부(72)에 미리 축적된 전경, 또는 화상 축적부(72)에 미리 축적된 배경을 출력하는 경우, 합성부(92)는 화상 축적부(72)에 미리 축적된 전경 성분 화상과 배경 성분 화상을 합성하여 출력하거나, 또는 화상 축적부(72)에 미리 축적된 전경 성분 화상, 혹은 배경 성분 화상을 그대로 출력한다.
또한, 과금 처리부(75)는 분리부(91)의 분리 처리시, 및 합성부(92)의 합성 처리 시에 과금 처리를 행한다. 따라서, 분리부(91)에서 분리 처리가 이루어지지 않고, 그대로 합성부(92)에 출력되는 경우, 및 합성부(92)에서 합성 처리가 이루어지지 않은 상태에서 출력되는 경우에는 과금되지 않도록 해도 된다.
도 9는 분리부(91)를 도시한 블록도이다.
또, 분리부(91)의 각 기능을 하드웨어로 실현하거나, 소프트웨어로 실현하거나 하는 것은 상관없다. 즉, 본 명세서의 각 블록도는 하드웨어의 블록도라고 생각해도, 소프트웨어에 의한 기능 블록도라고 생각해도 무방하다.
분리부(91)에 공급된 입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경 오브젝트에 대응하는 화상 오브젝트를 대략 추출하여, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면, 입력 화상에 포함되는 전경 오브젝트에 대응하는 화상 오브젝트의 윤곽을 검출함으로써, 전경 오브젝트에 대응하는 화상 오브젝트를 대략 추출한다.
오브젝트 추출부(101)는 입력 화상에 포함되는 배경 오브젝트에 대응하는 화상 오브젝트를 대략 추출하여, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면, 입력 화상과, 추출된 전경 오브젝트에 대응하는 화상 오브젝트와의 차로부터, 배경 오브젝트에 대응하는 화상 오브젝트를 대략 추출한다.
또한 예를 들면, 오브젝트 추출부(101)는, 내부에 설치되어 있는 배경 메모리에 기억되어 있는 배경 화상과, 입력 화상과의 차로부터, 전경 오브젝트에 대응하는 화상 오브젝트, 및 배경 오브젝트에 대응하는 화상 오브젝트를 대략 추출하도록 해도 된다.
움직임 검출부(102)는 예를 들면, 블록 매칭법, 구배법, 위상 상관법, 및 펠 리커시브법 등의 방법에 의해, 대략 추출된 전경 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보(움직임 벡터에 대응하는 화소의 위치를 특정하는 정보)를 영역 특정부(103) 및 움직임 불선명 추출부(106)에 공급한다.
움직임 검출부(102)가 출력하는 움직임 벡터에는, 움직임량 v에 대응하는 정보가 포함되어 있다.
또한 예를 들면, 움직임 검출부(102)는, 화상 오브젝트에 화소를 특정하는 화소 위치 정보와 함께, 화상 오브젝트마다의 움직임 벡터를 움직임 불선명 조정부(106)에 출력하도록 해도 된다.
움직임량 v는 움직이고 있는 오브젝트에 대응하는 화상의 위치 변화를 화소 간격을 단위로 하여 나타내는 값이다. 예를 들면, 전경에 대응하는 오브젝트의 화상이, 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소 떨어진 위치에 표시되도록 이동하고 있을 때, 전경에 대응하는 오브젝트의 화상의 움직임량 v는 4가 된다.
또, 오브젝트 추출부(101) 및 움직임 검출부(102)는, 움직이고 있는 오브젝트에 대응한 움직임 불선명량의 조정을 행하는 경우에 필요하다.
영역 특정부(103)는 입력된 화상의 화소 각각을, 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나로 특정하고, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는지를 나타내는 정보(이하, 영역 정보라고 함)를 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)에 공급 한다.
혼합비 산출부(104)는 입력 화상, 및 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 혼합 영역에 포함되는 화소에 대응하는 혼합비(이하, 혼합비 α라고 칭함)를 산출하고, 산출한 혼합비를 전경 배경 분리부(105)에 공급한다.
혼합비 α는 후술하는 수학식 3에 나타낸 바와 같이, 화소값에 있어서의, 배경 오브젝트에 대응하는 화상 성분(이하, 배경 성분이라고도 함)의 비율을 나타내는 값이다.
전경 배경 분리부(105)는 영역 특정부(103)로부터 공급된 영역 정보 및 혼합비 산출부(104)로부터 공급된 혼합비 α에 기초하여, 전경 오브젝트에 대응하는 화상의 성분(이하, 전경 성분이라고도 함)만으로 이루어지는 전경 성분 화상과, 배경 성분만으로 이루어지는 배경 성분 화상으로 입력 화상을 분리하여, 전경 성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다. 또, 분리된 전경 성분 화상을 최종적인 출력으로 하는 것도 고려된다. 종래의 혼합 영역을 고려하지 않고 전경과 배경만을 특정하여 분리하고 있던 방식에 비하여 정확한 전경과 배경을 얻을 수 있다.
움직임 불선명 조정부(106)는 움직임 벡터로부터 알 수 있는 움직임량 v 및 영역 정보에 기초하여, 전경 성분 화상에 포함되는 1이상의 화소를 나타내는 처리 단위를 결정한다. 처리 단위는 움직임 불선명량의 조정 처리 대상이 되는 1군의 화소를 지정하는 데이터이다.
움직임 불선명 조정부(106)는 분리부(91)에 입력된 움직임 불선명 조정량, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보, 및 처리 단위에 기초하여, 전경 성분 화상에 포함되는 움직임 불선명을 제거하는, 움직임 불선명량을 감소시키는, 또는 움직임 불선명량을 증가시키는 등 전경 성분 화상에 포함되는 움직임 불선명량을 조정하여, 움직임 불선명량을 조정한 전경 성분 화상을 선택부(107)에 출력한다. 움직임 벡터와 그 위치 정보는 사용하지 않는 경우도 있다.
여기서, 움직임 불선명이란, 촬상 대상이 되는 현실 세계에서의 오브젝트의 움직임과, 센서 촬상의 특성에 의해 생기는 움직이고 있는 오브젝트에 대응하는 화상에 포함되어 있는 왜곡을 뜻한다.
선택부(107)는 예를 들면 사용자의 선택에 대응한 선택 신호에 기초하여, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명량이 조정된 전경 성분 화상 중 어느 한쪽을 선택하여, 선택한 전경 성분 화상을 출력한다.
다음에, 도 10 내지 도 25를 참조하여 분리부(91)에 공급되는 입력 화상에 대하여 설명한다.
도 10은 센서에 의한 촬상을 설명하는 도면이다. 센서는 예를 들면, 고체 촬상 소자인 CCD(Charge-Coupled Device) 에리어 센서를 구비한 CCD 비디오 카메라 등으로 구성된다. 현실 세계에서의, 전경에 대응하는 오브젝트(111)는, 현실 세계에서의, 배경에 대응하는 오브젝트(112)와 센서 사이를, 예를 들면 도면 중의 좌측에서 우측으로 수평으로 이동한다.
센서는 전경에 대응하는 오브젝트(111)를 배경에 대응하는 오브젝트(112)와 함께 촬상한다. 센서는 촬상한 화상을 1프레임 단위로 출력한다. 예를 들면, 센서는 1초에 30 프레임으로 이루어지는 화상을 출력한다. 센서의 노광 시간은 1/30초로 할 수 있다. 노광 시간은 센서가 입력된 광을 전하로의 변환을 개시하고 나서, 입력된 광을 전하로의 변환을 종료하기까지의 기간이다. 이하, 노광 시간을 셔터 시간이라고도 한다.
도 11은 화소의 배치를 설명하는 도면이다. 도 11에서, A 내지 I는 개개의 화소를 나타낸다. 화소는 화상에 대응하는 평면 상에 배치되어 있다. 하나의 화소에 대응하는 하나의 검출 소자는 센서 상에 배치되어 있다. 센서가 화상을 촬상할 때, 하나의 검출 소자는 화상을 구성하는 하나의 화소에 대응하는 화소값을 출력한다. 예를 들면, 검출 소자의 X방향의 위치는 화상 상의 가로 방향의 위치에 대응하고, 검출 소자의 Y방향의 위치는 화상 상의 세로 방향의 위치에 대응한다.
도 12에 도시한 바와 같이, 예를 들면, CCD인 검출 소자는 셔터 시간에 대응하는 기간, 입력된 광을 전하로 변환하여, 변환된 전하를 축적한다. 전하량은 입력된 광의 세기와, 광이 입력되고 있는 시간에 거의 비례한다. 검출 소자는 셔터 시간에 대응하는 기간에 있어서, 입력된 광으로부터 변환된 전하를 이미 축적되어 있는 전하에 부가해 간다. 즉, 검출 소자는 셔터 시간에 대응하는 기간, 입력되는 광을 적분하여, 적분된 광에 대응하는 량의 전하를 축적한다. 검출 소자는 시간에 대하여 적분 효과가 있다고도 할 수 있다.
검출 소자에 축적된 전하는 도시하지 않은 회로에 의해 전압값으로 변환되 고, 전압값은 다시 디지털 데이터 등의 화소값으로 변환되어 출력된다. 따라서, 센서로부터 출력되는 개개의 화소값은, 전경 또는 배경에 대응하는 오브젝트의 공간적으로 확대를 갖는 어떤 부분을 셔터 시간에 대하여 적분한 결과인, 1차원의 공간에 사영된 값을 갖는다.
분리부(91)는 이러한 센서의 축적 동작에 의해, 출력 신호에 매립되어 버린 유의 정보, 예를 들면, 혼합비 α를 추출한다. 분리부(91)는 전경의 화상 오브젝트 자신이 혼합됨으로써 생기는 왜곡량, 예를 들면 움직임 불선명량 등을 조정한다. 또한, 분리부(91)는 전경의 화상 오브젝트와 배경 화상 오브젝트가 혼합됨으로써 생기는 왜곡량을 조정한다.
도 13A, 도 13B는 움직임을 수반하는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면이다. 도 13A는 움직임을 수반하는 전경에 대응하는 오브젝트와, 정지하고 있는 배경을 대으하는 오브젝트를 촬상하여 얻어지는 화상을 도시하고 있다. 도 13A에 도시한 예에서, 전경에 대응하는 오브젝트는 화면에 대하여 수평으로 좌측으로부터 우측으로 움직이고 있다.
도 13B는 도 13A에 나타내는 화상의 1라인에 대응하는 화소값을 시간 방향으로 전개한 모델도이다. 도 13B의 가로 방향은 도 13A의 공간 방향 X에 대응하고 있다.
배경 영역의 화소는 배경 성분, 즉 배경 오브젝트에 대응하는 화상의 성분만으로 그 화소값이 구성되어 있다. 전경 영역의 화소는 전경 성분, 즉 전경 오브젝 트에 대응하는 화상의 성분만으로 그 화소값이 구성되어 있다.
혼합 영역의 화소는 배경 성분 및 전경 성분으로 그 화소값이 구성되어 있다. 혼합 영역은 배경 성분 및 전경 성분으로 그 화소값이 구성되어 있기 때문에, 왜곡 영역이라고도 할 수 있다. 혼합 영역은 또한, 커버드 백그라운드 영역 및 언커버드백그라운드 영역으로 분류된다.
커버드 백그라운드 영역은 전경 영역에 대하여 전경 오브젝트의 진행 방향 전단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 전경에 덮여 가려지는 영역을 말한다.
이에 대하여, 언커버드 백그라운드 영역은 전경 영역에 대하여 전경 오브젝트의 진행 방향 후단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 나타나는 영역을 말한다.
이와 같이, 전경 영역, 배경 영역, 또는 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역을 포함하는 화상이, 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 입력 화상으로서 입력된다.
도 14는 이상과 같은, 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면이다. 도 13A, 도 13B에 도시한 화상에 대응하는 경우, 배경 영역은 정지 부분이고, 전경 영역은 움직임 부분이고, 혼합 영역의 커버드 백그라운드 영역은 배경으로부터 전경으로 변화하는 부분이고, 혼합 영역의 언커버드 백그라운드 영역은 전경으로부터 배경으로 변화하는 부분이다.
도 15는 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델도이다. 예를 들면, 인접하여 1열로 배열되어 있는 화소로서, 화면의 1라인 상에 배열되어 있는 화소를 선택할 수 있다.
도 15에 나타내는 F01 내지 F04의 화소값은 정지하고 있는 전경 오브젝트에 대응하는 화소의 화소값이다. 도 15에 나타내는 B01 내지 B04의 화소값은 정지하고 있는 배경 오브젝트에 대응하는 화소의 화소값이다.
도 15에서의 세로 방향은 도면 중의 위에서 아래를 향하여 시간이 경과한다. 도 15의 직사각형 상변의 위치는 센서가 입력된 광을 전하로의 변환을 개시하는 시각에 대응하고, 도 15의 직사각형 하변의 위치는 센서가 입력된 광을 전하로의 변환을 종료하는 시각에 대응한다. 즉, 도 15의 직사각형 상변에서 하변까지의 거리는 셔터 시간에 대응한다.
이하에 있어서, 셔터 시간과 프레임 간격이 동일한 경우를 예로 설명한다.
도 15에서의 가로 방향은 도 13A에서 설명한 공간 방향 X에 대응한다. 보다 구체적으로는, 도 15에 나타내는 예에 있어서, 도 15의 "F01"이라고 기재된 직사각형의 좌변으로부터 "B04"라고 기재된 직사각형의 우변까지의 거리는 화소 피치의 8배, 즉 연속하고 있는 8개의 화소 간격에 대응한다.
전경 오브젝트 및 배경 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서 센서에 입력되는 광은 변화하지 않는다.
여기서, 셔터 시간에 대응하는 기간을 두 개 이상의 동일한 길이의 기간으로 분할한다. 예를 들면, 가상 분할 수를 4로 하면, 도 15에 도시한 모델도는 도 9에 나타내는 모델로서 나타낼 수 있다. 가상 분할 수는 전경에 대응하는 오브젝트의 셔터 시간 내에서의 움직임량 v 등에 대응하여 설정된다. 예를 들면, 4인 움직임량 v에 대응하여, 가상 분할 수는 4가 되어, 셔터 시간에 대응하는 기간은 4개로 분할된다.
도면 중의 가장 위의 행은 셔터가 개방되어 최초 분할된 기간에 대응한다. 도면 중 위에서 2번째 행은 셔터가 개방되어 2번째 분할된 기간에 대응한다. 도면 중 위에서 3번째 행은 셔터가 개방되어 3번째 분할된 기간에 대응한다. 도면 중 위에서 4번째 행은 셔터가 개방되어 4번째의 분할된 기간에 대응한다.
이하, 움직임량 v에 대응하여 분할된 셔터 시간을 셔터 시간/v라고도 부른다.
전경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 광은 변화하지 않기 때문에, 전경 성분 F01/v는, 화소값 F01을 가상 분할 수로 나눈 값과 동일하다. 마찬가지로, 전경에 대응하는 오브젝트가 정지하고 있을 때, 전경 성분 F02/v는 화소값 F02를 가상 분할 수로 나눈 값과 동일하고, 전경 성분 F03/v는 화소값 F03을 가상 분할 수로 나눈 값과 동일하고, 전경 성분 F04/v는 화소값 F04를 가상 분할 수로 나눈 값과 동일하다.
배경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 광은 변화하지 않기 때문에, 배경 성분 B01/v는 화소값 B01을 가상 분할 수로 나눈 값과 동일하다. 마찬가지로, 배경에 대응하는 오브젝트가 정지하고 있을 때, 배경 성분 B02/v는 화소값 B02를 가상 분할 수로 나눈 값과 동일하고, B03/v는 화소값 B03을 가상 분할 수로 나눈 값과 동일하고, B04/v는 화소값 B04를 가상 분할 수로 나눈 값과 동일하다.
즉, 전경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에서, 센서에 입력되는 전경 오브젝트에 대응하는 광이 변화하지 않기 때문에, 셔터가 개방되어 최초의, 셔터 시간/v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 2번째의, 셔터 시간/v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 3번째의, 셔터 시간/v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 4번째의, 셔터 시간/v에 대응하는 전경 성분 F01/v는, 동일한 값이 된다. F02/v 내지 F04/v도 F01/v와 마찬가지의 관계를 갖는다.
배경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에서, 센서에 입력되는 배경 오브젝트에 대응하는 광은 변화하지 않기 때문에, 셔터가 개방되어 최초의, 셔터 시간/v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 2번째의, 셔터 시간/v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 3번째의, 셔터 시간/v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 4번째의, 셔터 시간/v에 대응하는 배경 성분 B01/v는, 동일한 값이 된다. B02/v 내지 B04/v도 마찬가지의 관계를 갖는다.
다음에, 전경에 대응하는 오브젝트가 이동하고, 배경에 대응하는 오브젝트가 정지하고 있는 경우에 대해 설명한다.
도 17은 전경에 대응하는 오브젝트가 도면의 우측으로 이동하는 경우의, 커 버드 백그라운드 영역을 포함하는, 1라인 상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 17에서, 전경의 움직임량 v는 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 17에서, 전경에 대응하는 오브젝트의 화상은, 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 우측에 표시되도록 이동한다.
도 17에서, 가장 좌측 화소 내지 좌측으로부터 4번째 화소는 전경 영역에 속한다. 도 17에서, 좌측으로부터 5번째 내지 좌측으로부터 7번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다. 도 17에서, 가장 우측 화소는 배경 영역에 속한다.
전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트를 덮어 숨기듯이 이동하고 있기 때문에, 커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 어느 시점에서, 배경 성분으로부터 전경 성분으로 바뀐다.
예를 들면, 도 17에 굵은 선 테두리를 한 화소값 M은 수학식 1로 표현된다.
Figure 112003006449741-pct00001
예를 들면, 좌측으로부터 5번째 화소는 1개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 5번째 화소의 혼합비 α는 1/4이다. 좌측으로부터 6번째 화소는 2개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간/v에 대응하는 전 경 성분을 포함하기 때문에, 좌측으로부터 6번째 화소의 혼합비 α는 1/2이다. 좌측으로부터 7번째 화소는 3개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 1개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 7번째 화소의 혼합비 α는 3/4이다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 17에서의 좌측으로부터 4번째 화소의, 셔터가 개방되어 최초의, 셔터 시간/v의 전경 성분 F07/v는, 도 17에서의 좌측으로부터 5번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F07/v는, 도 17에서의 좌측으로부터 6번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 17에서의 좌측으로부터 7번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v에 대응하는 전경 성분과 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 17에서의 좌측으로부터 3번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분 F06/v는, 도 17에서의 좌측으로부터 4번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F06/v는, 도 17에서의 좌측으로부터 5번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 17에서의 좌측으로부터 6번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v에 대응하는 전경 성분과, 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 17에서의 좌측으로부터 2번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분 F05/v는, 도 17에서의 좌측으로부터 3번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v 에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F05/v는, 도 17에서의 좌측으로부터 4번째 화소의, 셔터가 개방하여 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 17의 좌측으로부터 5번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v에 대응하는 전경 성분과 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 17에서의 가장 좌측 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분 F04/v는, 도 17에서의 좌측으로부터 2번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F04/v 는, 도 17에서의 좌측으로부터 3번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 17에서의 좌측으로부터 4번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v에 대응하는 전경 성분과, 각각 동일하다.
움직이고 있는 오브젝트에 대응하는 전경의 영역은 이와 같이 움직임 불선명을 포함하기 때문에, 왜곡 영역이라고도 말할 수 있다.
도 18은 전경이 도면 중의 우측으로 이동하는 경우의, 언커버드 백그라운드 영역을 포함하는, 1라인 상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 18에서, 전경의 움직임량 v는 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 18에서, 전경에 대응하는 오브젝트의 화상은 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 우측으로 이동한다.
도 18에서, 가장 좌측 화소 내지 좌측으로부터 4번째 화소는 배경 영역에 속한다. 도 18에서, 좌측으로부터 5번째 내지 좌측으로부터 7번째 화소는 언커버드 백그라운드인 혼합 영역에 속한다. 도 18에서, 가장 우측 화소는 전경 영역에 속한다.
배경에 대응하는 오브젝트를 덮고 있는 전경에 대응하는 오브젝트가 시간의 경과에 따라 배경에 대응하는 오브젝트의 앞으로부터 제거되도록 이동하고 있기 때문에, 언커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 어느 시점에서, 전경 성분으로부터 배경 성분으로 바뀐다.
예를 들면, 도 18에 굵은 선 테두리를 한 화소값 M'는 수학식 2로 표현된다.
Figure 112003006449741-pct00002
예를 들면, 좌측으로부터 5번째 화소는 3개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 1개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 5번째 화소의 혼합비 α는 3/4이다. 좌측으로부터 6번째 화소는 2개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간/v에 대응하는 전 경 성분을 포함하기 때문에, 좌측으로부터 6번째 화소의 혼합비 α는 1/2이다. 좌측으로부터 7번째 화소는 1개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 7번째 화소의 혼합비 α는 1/4이다.
수학식 1 및 수학식 2를 보다 일반화하면, 화소값 M은 수학식 3으로 표현된다.
Figure 112003006449741-pct00003
여기서, α는 혼합비이다. B는 배경의 화소값이고, Fi/v는 전경 성분이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 움직임량 v가 4이기 때문에, 예를 들면, 도 18에서의 좌측으로부터 5번째 화소의, 셔터가 개방되어 최초의, 셔터 시간/v의 전경 성분 F01/v는, 도 18에서의 좌측으로부터 6번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v에 대응하는 전경 성분과 동일하다. 마찬가지로, F01/v는, 도 18에서의 좌측으로부터 7번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 18에서의 좌측으로부터 8번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v에 대응하는 전경 성분과, 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 가상 분할 수가 4이기 때문에, 예를 들면, 도 18에서의 좌측으로부터 6번 째 화소의, 셔터가 개방되어 최초의, 셔터 시간/v의 전경 성분 F02/v는, 도 18에서의 좌측으로부터 7번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F02/v는, 도 18에서의 좌측으로부터 8번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v에 대응하는 전경 성분과 동일하다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 움직임량 v가 4이기 때문에, 예를 들면, 도 18에서의 좌측으로부터 7번째 화소의 셔터가 개방되어 최초의, 셔터 시간/v의 전경 성분 F03/v는, 도 18에서의 좌측으로부터 8번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v에 대응하는 전경 성분과 동일하다.
도 16 내지 도 18의 설명에 있어서, 가상 분할 수는 4인 것으로 설명하였지만, 가상 분할 수는 움직임량 v에 대응한다. 움직임량 v는 일반적으로 전경에 대응하는 오브젝트의 이동 속도에 대응한다. 예를 들면, 전경에 대응하는 오브젝트가 임의의 프레임을 기준으로 하여 다음 프레임에서 4화소분 우측에 표시되도록 이동하고 있을 때, 움직임량 v는 4가 된다. 움직임량 v에 대응하여 가상 분할 수는 4가 된다. 마찬가지로, 예를 들면, 전경에 대응하는 오브젝트가 임의의 프레임을 기준으로 하여 다음 프레임에서 6 화소분 좌측에 표시되도록 이동하고 있을 때, 움직임량 v는 6이 되고, 가상 분할 수는 6이 된다.
도 19 및 도 20에 이상에서 설명한, 전경 영역, 배경 영역, 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역과, 분할된 셔터 시간에 대응하는 전경 성분 및 배경 성분과의 관계를 나타낸다.
도 19는 정지하고 있는 배경의 앞을 이동하고 있는 오브젝트에 대응하는 전경을 포함하는 화상으로부터, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 나타낸다. 도 19에 나타내는 예에 있어서, A로 나타내는 전경에 대응하는 오브젝트는 화면에 대하여 수평으로 이동하고 있다.
프레임 #n+1은 프레임 #n의 다음 프레임이고, 프레임 #n+2는 프레임 #n+1의 다음 프레임이다.
프레임 #n 내지 프레임 #n+2 중 어느 하나로부터 추출한, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출하고, 움직임량 v를 4로 하여, 추출된 화소의 화소값을 시간 방향으로 전개한 모델을 도 20에 나타낸다.
전경 영역의 화소값은 전경에 대응하는 오브젝트가 이동하기 때문에, 셔터 시간/v의 기간에 대응하는, 4개의 다른 전경 성분으로 구성된다. 예를 들면, 도 20에 나타내는 전경 영역의 화소 중 가장 좌측에 위치하는 화소는, F01/v, F02/v, F03/v, 및 F04/v로 구성된다. 즉, 전경 영역의 화소는 움직임 불선명을 포함하고 있다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 셔터 시간에 대응하는 기간에서, 센서에 입력되는 배경에 대응하는 광은 변화하지 않는다. 이 경우, 배경 영역의 화소값은 움직임 불선명을 포함하지 않는다.
커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역에 속하는 화소의 화소값은, 전경 성분과 배경 성분으로 구성된다.
다음에, 오브젝트에 대응하는 화상이 움직이고 있을 때, 복수의 프레임에 있어서의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델에 대하여 설명한다. 예를 들면, 오브젝트에 대응하는 화상이 화면에 대하여 수평으로 움직이고 있을 때, 인접하여 1열로 배열되어 있는 화소로서, 화면의 1라인 상에 배열되어 있는 화소를 선택할 수 있다.
도 21은 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 프레임 #n은 프레임 #n-1의 다음 프레임이고, 프레임 #n+1은 프레임 #n의 다음 프레임이다. 다른 프레임도 마찬가지로 칭한다.
도 21에 나타내는 B01 내지 B12의 화소값은 정지하고 있는 배경 오브젝트에 대응하는 화소의 화소값이다. 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1 내지 프레임 n+1에 있어서, 대응하는 화소의 화소값은 변화하지 않는다. 예를 들면, 프레임 #n-1에서의 B05의 화소값을 갖는 화소의 위치에 대응하는, 프레임 #n에서의 화소, 및 프레임 #n+1에서의 화소는, 각각 B05의 화소값을 갖는다.
도 22는 정지하고 있는 배경에 대응하는 오브젝트와 함께 도면 중의 우측으로 이동하는 전경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시 간 방향으로 전개한 모델도이다. 도 22에 나타내는 모델은 커버드 백그라운드 영역을 포함한다.
도 22에서, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 전경의 움직임량 v는 4이고, 가상 분할 수는 4이다.
예를 들면, 도 22에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F12/v가 되고, 도 22에서의 좌측으로부터 2번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F12/v가 된다. 도 22에서의 좌측으로부터 3번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분, 및 도 22에서의 좌측으로부터 4번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F12/v가 된다.
도 22에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분은 F11/v가 되고, 도 22에서의 좌측으로부터 2번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분도 F11/v가 된다. 도 22에서의 좌측으로부터 3번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F11/v로 된다.
도 22에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분은 F10/v가 되고, 도 22에서의 좌측으로부터 2번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분도 F1O/v가 된다. 도 22에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성 분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 22에서의 프레임 #n-1의 좌측으로부터 2번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 배경 성분은 B01/v가 된다. 도 22에서의 프레임 #n-1의 좌측으로부터 3번째 화소의, 셔터가 개방되어 최초 및 2번째의 셔터 시간/v의 배경 성분은 B02/v가 된다. 도 22에서의 프레임 #n-1의 좌측으로부터 4번째 화소의, 셔터가 개방되어 최초 내지 3번째의 셔터 시간/v의 배경 성분은 B03/v가 된다.
도 22에서의 프레임 #n-1에 있어서, 가장 좌측 화소는 전경 영역에 속하고, 좌측으로부터 2번째 내지 4번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 22에서의 프레임 #n-1의 좌측으로부터 5번째 화소 내지 12번째 화소는 배경 영역에 속하고, 그 화소값은 각각 B04 내지 B11이 된다.
도 22에서의 프레임 #n의 좌측으로부터 1번째 화소 내지 5번째 화소는 전경 영역에 속한다. 프레임 #n의 전경 영역에서의 셔터 시간/v의 전경 성분은 F05/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 22에서의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F12/v가 되고, 도 22에서의 좌측으로부터 6번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F12/v가 된다. 도 22에서의 좌 측으로부터 7번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분, 및 도 22에서의 좌측으로부터 8번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F12/v가 된다.
도 22에서의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분은 F11/v가 되고, 도 22에서의 좌측으로부터 6번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분도 F11/v가 된다. 도 22에서의 좌측으로부터 7번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F11/v가 된다.
도 22에서의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분은 F10/v가 되고, 도 22에서의 좌측으로부터 6번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분도 F1O/v가 된다. 도 22에서의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 22에서의 프레임 #n의 좌측으로부터 6번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 배경 성분은 B05/v가 된다. 도 22에서의 프레임 #n의 좌측으로부터 7번째 화소의, 셔터가 개방되어 최초 및 2번째의 셔터 시간/v의 배경 성분은 B06/v가 된다. 도 22에서의 프레임 #n의 좌측으로부터 8번째 화소의, 셔터가 개방되어 최초 내지 3번째의 셔터 시간/v의 배경 성분은 B07/v가 된다.
도 22에서의 프레임 #n에서, 좌측으로부터 6번째 내지 8번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 22에서의 프레임 #n의 좌측으로부터 9번째 화소 내지 12번째 화소는 배경 영역에 속하고, 화소값은 각각 B08 내지 B11이 된다.
도 22에서의 프레임 #n+1의 좌측으로부터 1번째 화소 내지 9번째 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의, 셔터 시간/v의 전경 성분은 F01/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 22에서의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F12/v가 되고, 도 22에서의 좌측으로부터 10번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F12/v가 된다. 도 22에서의 좌측으로부터 11번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분, 및 도 22에서의 좌측으로부터 12번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F12/v가 된다.
도 22에서의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 기간의 전경 성분은 F11/v가 되고, 도 22에서의 좌측으로부터 10번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분도 F11/v가 된다. 도 22에서의 좌측으로부터 11번째 화소의, 셔터가 개방되어 4번째의, 셔터 시간/v의 전경 성분은 F11/v가 된다.
도 22에서의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 개방되어 3 번째의 셔터 시간/v의 전경 성분은 F10/v가 되고, 도 22에서의 좌측으로부터 10번째 화소의 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분도 F1O/v가 된다. 도 22에서의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 22의 프레임 #n+1의 좌측으로부터 10번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 배경 성분은 B09/v가 된다. 도 22에서의 프레임 #n+1의 좌측으로부터 11번째 화소의, 셔터가 개방되어 최초 및 2번째의 셔터 시간/v의 배경 성분은 B10/v가 된다. 도 22에서의 프레임 #n+1의 좌측으로부터 12번째 화소의, 셔터가 개방되어 최초 내지 3번째의, 셔터 시간/v의 배경 성분은 B11/v가 된다.
도 22에서의 프레임 #n+1에서, 좌측으로부터 10번째 내지 12번째 화소는 커버드 백그라운드 영역인 혼합 영역에 대응한다.
도 23은 도 22에 도시한 화소값으로부터 전경 성분을 추출한 화상의 모델도이다.
도 24는 정지하고 있는 배경과 함께 도면 중의 우측으로 이동하는 오브젝트에 대응하는 전경을 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 24에서, 언커버드 백그라운드 영역이 포함되어 있다.
도 24에서, 전경에 대응하는 오브젝트는 강체이고, 또한 등속으로 이동하고 있다고 가정할 수 있다. 전경에 대응하는 오브젝트가 다음 프레임에서 4화소분 우 측에 표시되도록 이동하고 있기 때문에, 움직임량 v는 4이다.
예를 들면, 도 24에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 최초의, 셔터 시간/v의 전경 성분은 F13/v가 되고, 도 24에서의 좌측으로부터 2번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F13/v가 된다. 도 24에서의 좌측으로부터 3번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분, 및 도 24에서의 좌측으로부터 4번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F13/v가 된다.
도 24에서의 프레임 #n-1의 좌측으로부터 2번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F14/v가 되고, 도 24에서의 좌측으로부터 3번째 화소의 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F14/v가 된다. 도 24에서의 좌측으로부터 3번째 화소의 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 24에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 2번째 내지 4번째의, 셔터 시간/v의 배경 성분은 B25/v가 된다. 도 24에서의 프레임 #n-1의 좌측으로부터 2번째 화소의, 셔터가 개방되어 3번째 및 4번째의, 셔터 시간/v의 배경 성분은 B26/v가 된다. 도 24에서의 프레임 #n-1의 좌측으로부터 3번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 배경 성분은 B27/v가 된다.
도 24에서의 프레임 #n-1에 있어서, 가장 좌측 화소 내지 3번째 화소는, 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 24에서의 프레임 #n-1의 좌측으로부터 4번째 화소 내지 12번째 화소는 전경 영역에 속한다. 프레임의 전경 성분은 F13/v 내지 F24/v 중 어느 하나이다.
도 24에서의 프레임 #n의 가장 좌측 화소 내지 좌측으로부터 4번째 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B28이 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 24에서의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F13/v가 되고, 도 24에서의 좌측으로부터 6번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F13/v가 된다. 도 24에서의 좌측으로부터 7번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분, 및 도 24에서의 좌측으로부터 8번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F13/v가 된다.
도 24에서의 프레임 #n의 좌측으로부터 6번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F14/v가 되고, 도 24에서의 좌측으로부터 7번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F14/v가 된다. 도 24에서의 좌측으로부터 8번째 화소의 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 24에서의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 개방되어 2번째 내지 4번째의 셔터 시간/v의 배경 성분은 B29/v가 된다. 도 24에서의 프레임 #n의 좌측으로부터 6번째 화소 의, 셔터가 개방되어 3번째 및 4번째의 셔터 시간/v의 배경 성분은 B30/v가 된다. 도 24에서의 프레임 #n의 좌측으로부터 7번째 화소의 셔터가 개방되어 4번째의 셔터 시간/v의 배경 성분은 B31/v가 된다.
도 24에서의 프레임 #n에 있어서, 좌측으로부터 5번째 화소 내지 7번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 24에서의 프레임 #n의 좌측으로부터 8번째 화소 내지 12번째 화소는 전경 영역에 속한다. 프레임 #n의 전경 영역에서의, 셔터 시간/v의 기간에 대응하는 값은 F13/v 내지 F20/v 중 어느 하나이다.
도 24에서의 프레임 #n+1의 가장 좌측 화소 내지 좌측으로부터 8번째 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B32가 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 24에서의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F13/v가 되고, 도 24에서의 좌측으로부터 10번째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F13/v가 된다. 도 24에서의 좌측으로부터 11번째 화소의, 셔터가 개방되어 3번째의 셔터 시간/v의 전경 성분, 및 도 24에서의 좌측으로부터 12번째 화소의, 셔터가 개방되어 4번째의 셔터 시간/v의 전경 성분은 F13/v가 된다.
도 24에서의 프레임 #n+1의 좌측으로부터 10번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F14/v가 되고, 도 24에서의 좌측으로부터 11번 째 화소의, 셔터가 개방되어 2번째의 셔터 시간/v의 전경 성분도 F14/v가 된다. 도 24에서의 좌측으로부터 12번째 화소의, 셔터가 개방되어 최초의 셔터 시간/v의 전경 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 24에서의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 개방되어 2번째 내지 4번째의, 셔터 시간/v의 배경 성분은 B33/v가 된다. 도 24에서의 프레임 #n+1의 좌측으로부터 10번째 화소의, 셔터가 개방되어 3번째 및 4번째의 셔터 시간/v의 배경 성분은 B34/v가 된다. 도 24에서의 프레임 #n+1의 좌측으로부터 11번째 화소의 셔터가 개방되어 4번째의 셔터 시간/v의 배경 성분은 B35/v가 된다.
도 24에서의 프레임 #n+1에서, 좌측으로부터 9번째 화소 내지 11번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 24에서의 프레임 #n+1의 좌측으로부터 12번째 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의, 셔터 시간/v의 전경 성분은 F13/v 내지 F16/v 중 어느 하나이다.
도 25는 도 24에 도시한 화소값으로부터 전경 성분을 추출한 화상의 모델도이다.
도 9로 되돌아가, 영역 특정부(103)는 복수의 프레임 화소값을 이용하여, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역에 속하는 것을 나타내는 플래그를 화소마다 대응시켜, 영역 정보로서 혼합비 산출부(104) 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는 복수의 프레임 화소값 및 영역 정보에 기초하여, 혼합 영역에 포함되는 화소에 대하여 화소마다 혼합비 α를 산출하고, 산출한 혼합비 α를 전경 배경 분리부(105)에 공급한다.
전경 배경 분리부(105)는 복수의 프레임 화소값, 영역 정보 및 혼합비 α에 기초하여, 전경 성분만으로 이루어지는 전경 성분 화상을 추출하여 움직임 불선명 조정부(106)에 공급한다.
움직임 불선명 조정부(106)는 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터, 및 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 전경 성분 화상에 포함되는 움직임 불선명량을 조정하고, 움직임 불선명량을 조정한 전경 성분 화상을 출력한다.
도 26의 흐름도를 참조하여, 분리부(91)에 의한 움직임 불선명량의 조정 처리를 설명한다. 단계 S11에 있어서, 영역 특정부(103)는 입력 화상을 기초로, 입력 화상의 화소마다 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 것에 속하는지를 나타내는 영역 정보를 생성하는 영역 특정 처리를 실행한다. 영역 특정 처리의 상세한 내용은 후술한다. 영역 특정부(103)는 생성한 영역 정보를 혼합비 산출부(104)에 공급한다.
또, 단계 S11에서, 영역 특정부(103)는 입력 화상을 기초로, 입력 화상의 화소마다 전경 영역, 배경 영역, 또는 혼합 영역(커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역의 구별을 하지 않음)의 어느 것에 속하는지를 나타내는 영역 정보를 생성하도록 해도 된다. 이 경우에 있어서, 전경 배경 분리부(105) 및 움직 임 불선명 조정부(106)는, 움직임 벡터의 방향을 기초로 혼합 영역이 커버드 백그라운드 영역인지 또는 언커버드 백그라운드 영역인지를 판정한다. 예를 들면, 움직임 벡터의 방향에 대응하여, 전경 영역, 혼합 영역, 및 배경 영역으로 순차로 배열되어 있을 때, 그 혼합 영역은 커버드 백그라운드 영역이라고 판정되고, 움직임 벡터의 방향에 대응하여, 배경 영역, 혼합 영역, 및 전경 영역으로 순차로 배열되어 있을 때, 그 혼합 영역은 언커버드 백그라운드 영역이라고 판정된다.
단계 S12에서, 혼합비 산출부(104)는 입력 화상 및 영역 정보에 기초하여, 혼합 영역에 포함되는 화소마다 혼합비 α를 산출한다. 혼합비 산출 처리의 상세한 내용은 후술한다. 혼합비 산출부(104)는 산출한 혼합비 α를 전경 배경 분리부(105)에 공급한다.
단계 S13에서, 전경 배경 분리부(105)는 영역 정보 및 혼합비 α에 기초하여 입력 화상으로부터 전경 성분을 추출하여, 전경 성분 화상으로서 움직임 불선명 조정부(106)에 공급한다.
단계 S14에서, 움직임 불선명 조정부(106)는 움직임 벡터 및 영역 정보에 기초하여, 움직임 방향으로 배열되는 연속한 화소로서, 언커버드 백그라운드 영역, 전경 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것의 화상 상의 위치를 나타내는 처리 단위를 생성하고, 처리 단위에 대응하는 전경 성분에 포함되는 움직임 불선명량을 조정한다. 움직임 불선명량의 조정 처리에 대한 상세한 내용에 대해서는 후술한다.
단계 S15에서, 분리부(91)는 화면 전체에 대하여 처리를 종료하였는지 여부 를 판정하여, 화면 전체에 대하여 처리를 종료하지 않았다고 판정된 경우, 단계 S14로 진행하여, 처리 단위에 대응하는 전경 성분을 대상으로 한 움직임 불선명량의 조정 처리를 반복한다.
단계 S15에서, 화면 전체에 대하여 처리를 종료하였다고 판정된 경우, 처리는 종료된다.
이와 같이, 분리부(91)는 전경과 배경을 분리하여 전경에 포함되는 움직임 불선명량을 조정할 수 있다. 즉, 분리부(91)는 전경 화소의 화소값인 샘플 데이터에 포함되는 움직임 불선명량을 조정할 수 있다.
이하, 영역 특정부(103), 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)의 각 구성에 대하여 설명한다.
도 27은 영역 특정부(103)의 구성 일례를 나타내는 블록도이다. 도 27에 구성을 나타내는 영역 특정부(103)는 움직임 벡터를 이용하지 않는다. 프레임 메모리(201)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(201)는 처리 대상이 프레임 #n일 때, 프레임 #n의 2개 앞의 프레임인 프레임 #n-2, 프레임 #n의 하나 앞의 프레임인 프레임 #n-1, 프레임 #n, 프레임 #n의 하나 뒤의 프레임인 프레임 #n+1, 및 프레임 #n의 2개 뒤의 프레임인 프레임 #n+2를 기억한다.
정동(靜動) 판정부(202-1)는 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값을 프레임 메모리(201)로부터 판독하여, 판독한 화소값의 차의 절대값 을 산출한다. 정동 판정부(202-1)는 프레임 #n+2의 화소값과 프레임 #n+1의 화소값의 차의 절대값이 사전에 설정한 임계값 Th보다 큰지 여부를 판정하여, 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다. 프레임 #n+2의 화소의 화소값과 프레임 #n+1의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-1)는 정지를 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다.
정동 판정부(202-2)는, 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값, 및 프레임 #n의 대상이 되는 화소의 화소값을 프레임 메모리(201)로부터 판독하여, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-2)는, 프레임 #n+1의 화소값과 프레임 #n의 화소값의 차의 절대값이 사전에 설정한 임계값 Th보다 큰지 여부를 판정하여, 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다. 프레임 #n+1의 화소의 화소값과 프레임 #n의 화소의 화소값의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-2)는 정지를 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다.
정동 판정부(202-3)는, 프레임 #n의 영역 특정의 대상인 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값을 프레임 메모리(201)로부터 판독하여, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-3)는, 프레임 #n의 화소값과 프레임 #n-1의 화소값의 차의 절대값이 사전에 설정한 임계값 Th보다 큰지 여부를 판정하여, 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다. 프레임 #n의 화소의 화소값과 프레임 #n-1의 화소의 화소값의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-3)는 정지를 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다.
정동 판정부(202-4)는, 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소의 화소값을 프레임 메모리(201)로부터 판독하여, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-4)는, 프레임 #n-1의 화소값과 프레임 #n-2의 화소값의 차의 절대값이 사전에 설정한 임계값 Th보다 큰지 여부를 판정하여, 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다. 프레임 #n-1의 화소의 화소값과 프레임 #n-2의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-4)는 정지를 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에, 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 언커버드 백그라운드 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에, 언커버드 백그라운드 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-1)는 이와 같이 "1" 또는 "0"이 설정된 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 정지 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 정지 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 움직임 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내거나, 또는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 움직임 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-4)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내거나, 또는 정동 판정부(202-4)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 커버드 백그라운드 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-3)는 이와 같이 "1" 또는 "0"이 설정된 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
판정 플래그 저장 프레임 메모리(204)는, 영역 판정부(203-1)로부터 공급된 언커버드 백그라운드 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 정지 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 움직임 영역 판정 플래그, 및 영역 판정부(203-3)로부터 공급된 커버드 백그라운드 영역 판정 플래그를 각각 기억한다.
판정 플래그 저장 프레임 메모리(204)는, 기억하고 있는 언커버드 백그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그를 합성부(205)에 공급한다. 합성부(205)는 판정 플래그 저장 프레임 메모리(204)로부터 공급된, 언커버드 백그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그에 기초하여, 각 화소가, 언커버드 백그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 생성하여, 판정 플래그 저장 프레임 메모리(206)에 공급한다.
판정 플래그 저장 프레임 메모리(206)는 합성부(205)로부터 공급된 영역 정보를 기억함과 함께, 기억하고 있는 영역 정보를 출력한다.
다음에, 영역 특정부(103) 처리의 예를 도 28 내지 도 32를 참조하여 설명한다.
전경에 대응하는 오브젝트가 이동하고 있을 때, 오브젝트에 대응하는 화상의 화면 상의 위치는 프레임마다 변화한다. 도 28에 도시한 바와 같이, 프레임 #n에서, Yn(x, y)로 나타나는 위치에 위치하는 오브젝트에 대응하는 화상은, 다음 프레임인 프레임 #n+1에서 Yn+1(x, y)에 위치한다.
전경 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 배열되는 화소의 화소값을 시간 방향으로 전개한 모델도를 도 29에 나타낸다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대하여 수평일 때, 도 29에서의 모델도는 1라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 나타낸다.
도 29에서, 프레임 #n에서의 라인은 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에 있어서, 좌측으로부터 2번째 화소 내지 13번째 화소에 포함되어 있는 오브젝트에 대응하는 전경 성분은, 프레임 #n+1에 있어서 좌측으로부터 6번째 내지 17번째 화소에 포함된다.
프레임 #n에서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 11번째 내지 13번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부 터 2번째 내지 4번째 화소이다. 프레임 #n+1에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 6번째 내지 8번째 화소이다.
도 29에 도시한 예에서, 프레임 #n에 포함되는 전경 성분이, 프레임 #n+1에서 4화소 이동하고 있기 때문에, 움직임량 v는 4이다. 가상 분할 수는 움직임량 v에 대응하며, 4이다.
다음에, 주목하고 있는 프레임의 전후에서의 혼합 영역에 속하는 화소의 화소값의 변화에 대하여 설명한다.
도 30에 도시한 배경이 정지하고, 전경의 움직임량 v가 4인 프레임 #n에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째 화소이다. 움직임량 v가 4이기 때문에, 하나 이전 프레임 #n-1에서, 좌측으로부터 15번째 내지 17번째 화소는 배경 성분만을 포함하여, 배경 영역에 속한다. 또한, 하나 더 이전 프레임 #n-2에서, 좌측으로부터 15번째 내지 17번째 화소는 배경 성분만을 포함하여, 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1의 좌측으로부터 15번째 화소의 화소값은 프레임 #n-2의 좌측으로부터 15번째 화소의 화소값에서 변화하지 않는다. 마찬가지로, 프레임 #n-1의 좌측으로부터 16번째 화소의 화소값은 프레임 #n-2의 좌측으로부터 16번째 화소의 화소값에서 변화하지 않고, 프레임 #n-1의 좌측으로부터 17번째 화소의 화소값은 프레임 #n-2의 좌측으로부터 17번째 화소의 화소값에서 변화하지 않는다.
즉, 프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소는, 배경 성분만으로 이루어지고, 화소값이 변화하지 않기 때문에, 그 차의 절대값은 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소에 대한 정동 판정은, 정동 판정부(202-4)에 의해 정지라고 판정된다.
프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소는 전경 성분을 포함하기 때문에, 프레임 #n-1에서의 배경 성분만으로 이루어지는 경우와 화소값이 서로 다르다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소 및 대응하는 프레임 #n-1의 화소에 대한 정동 판정은, 정동 판정부(202-3)에 의해 움직임이라고 판정된다.
이와 같이, 영역 판정부(203-3)는 정동 판정부(202-3)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-4)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
도 31에 도시한 배경이 정지하고, 전경의 움직임량 v가 4인 프레임 #n에 있어서, 언커버드 백그라운드 영역에 포함되는 화소는 좌측으로부터 2번째 내지 4번째 화소이다. 움직임량 v가 4이기 때문에, 하나 뒤의 프레임 #n+1에서, 좌측으로부터 2번째 내지 4번째 화소는 배경 성분만을 포함하여, 배경 영역에 속한다. 또한, 하나 더 뒤의 프레임 #n+2에서, 좌측으로부터 2번째 내지 4번째 화소는 배경 성분만을 포함하여, 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n+2의 좌측으로부터 2번째 화소의 화소값은, 프레임 #n+1의 좌측으로부터 2번째 화소의 화소값에서 변화하지 않는다. 마찬가지로, 프레임 #n+2의 좌측으로부터 3번째 화소의 화소값은 프레임 #n+1의 좌측으로부터 3번째 화소의 화소값에서 변화하지 않고, 프레임 #n+2의 좌측으로부터 4번째 화소의 화소값은 프레임 #n+1의 좌측으로부터 4번째 화소의 화소값에서 변화하지 않는다.
즉, 프레임 #n에서의 언커버드 백그라운드 영역에 속하는 화소에 대응하는, 프레임 #n+1 및 프레임 #n+2의 화소는, 배경 성분만으로 이루어지고, 화소값이 변화하지 않기 때문에, 그 차의 절대값은 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n+1 및 프레임 #n+2의 화소에 대한 정동 판정은, 정동 판정부(202-1)에 의해 정지라고 판정된다.
프레임 #n에서의 언커버드 백그라운드 영역에 속하는 화소는, 전경 성분을 포함하기 때문에, 프레임 #n+1에서의 배경 성분만으로 이루어지는 경우와, 화소값이 서로 다르다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소 및 대응하는 프레임 #n+1의 화소에 대한 정동 판정은, 정동 판정부(202-2)에 의해 움직임으로 판정된다.
이와 같이, 영역 판정부(203-1)는 정동 판정부(202-2)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-1)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 32는 프레임 #n에서의 영역 특정부(103)의 판정 조건을 나타내는 도면이다. 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소가 정지라고 판정되고, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임이라고 판정되었을 때, 영역 특정부(103)는, 프레임 #n의 판정 대상이 되는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 정지라고 판정되고, 프레임 #n의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 정지라고 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정 대상이 되는 화소가 정지 영역에 속한다고 판정한다.
프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임이라고 판정되고, 프레임 #n의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임이라고 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정 대상이 되는 화소가 움직임 영역에 속한다고 판정한다.
프레임 #n의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임이라고 판정되고, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화 소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소가 정지라고 판정되었을 때, 영역 특정부(103)는, 프레임 #n의 판정 대상이 되는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 33A 내지 도 33D는 영역 특정부(103)의 영역 특정 결과의 예를 나타내는 도면이다. 도 33A에서, 커버드 백그라운드 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 도 33B에서, 언커버드 백그라운드 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다.
도 33C에서, 움직임 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 도 33D에서, 정지 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다.
도 34는 판정 플래그 저장 프레임 메모리(206)가 출력하는 영역 정보 중, 혼합 영역을 나타내는 영역 정보를 화상으로서 나타내는 도면이다. 도 34에서, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 속한다고 판정된 화소, 즉 혼합 영역에 속한다고 판정된 화소는, 백색으로 표시되어 있다. 판정 플래그 저장 프레임 메모리(206)가 출력하는 혼합 영역을 나타내는 영역 정보는, 혼합 영역, 및 전경 영역 내의 텍스쳐가 없는 부분으로 둘러싸인 텍스쳐가 있는 부분을 나타낸다.
이어서, 도 35의 흐름도를 참조하여, 영역 특정부(103)의 영역 특정 처리를 설명한다. 단계 S201에서, 프레임 메모리(201)는, 판정 대상이 되는 프레임 #n을 포함하는 프레임 #n-2 내지 프레임 #n+2의 화상을 취득한다.
단계 S202에서, 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 정지인지 여부를 판정하여, 정지라고 판정된 경우, 단계 S203으로 진행하고, 정동 판정부(202-2)는, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 정지인지 여부를 판정한다.
단계 S203에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 정지라고 판정된 경우, 단계 S204로 진행하여, 영역 판정부(203-2)는 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 단계는 단계 S205로 진행한다.
단계 S202에서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 또는 단계 S203에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 프레임 #n의 화소가 정지 영역에는 속하지 않기 때문에, 단계 S204 처리는 스킵되고, 단계는 단계 S205로 진행한다.
단계 S205에서, 정동 판정부(202-3)는, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 움직임인지 여부를 판정하여, 움직임으로 판정된 경우, 단계 S206로 진행하여, 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 움직임인지 여부를 판정한다.
단계 S206에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 단계 S207로 진행하여, 영역 판정부(203-2)는, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 단계는 단계 S208로 진행한다.
단계 S205에서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 정지라고 판정된 경우, 또는 단계 S206에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 정지라고 판정된 경우, 프레임 #n의 화소가 움직임 영역에는 속하지 않기 때문에, 단계 S207 처리는 스킵되고, 단계는 단계 S208로 진행한다.
단계 S208에서, 정동 판정부(202-4)는, 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에 대해 정지인지 여부를 판정하여, 정지라고 판정된 경우, 단계 S209로 진행하여, 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 움직임인지 여부를 판정한다.
단계 S209에서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 단계 S210으로 진행하여, 영역 판정부(203-3)는, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-3)는 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 단계는 단계 S211로 진행한다.
단계 S208에서, 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 또는 단계 S209에서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 정지라고 판정된 경우, 프레임 #n의 화소가 커버드 백그라운드 영역에는 속하지 않기 때문에, 단계 S2]10 처리는 스킵되고, 단계는 단계 S211로 진행한다.
단계 S211에서, 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 움직임인지 여부를 판정하여, 움직임으로 판정된 경우, 단계 S212로 진행하여, 정동 판정부(202-1)는 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에 대해 정지인지 여부를 판정한다.
단계 S212에서, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에 대해 정지라고 판정된 경우, 단계 S213으로 진행하여, 영역 판정부(203-1)는, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에, 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-1)는, 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 단계는 단계 S214로 진행한다.
단계 S211에서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 정지라고 판정된 경우, 또는 단계 S212에서, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 프레임 #n의 화소가 언커버드 백그라운드 영역에는 속하지 않기 때문에, 단계 S213 처리는 스킵되고, 단계는 단계 S214로 진행한다.
단계 S214에서, 영역 특정부(103)는, 프레임 #n의 모든 화소에 대하여 영역을 특정했는지 여부를 판정하고, 프레임 #n의 모든 화소에 대하여 영역을 특정하지 않았다고 판정된 경우, 단계 S202로 되돌아가, 다른 화소에 대하여 영역 특정 처리를 반복한다.
단계 S214에서, 프레임 #n의 모든 화소에 대하여 영역을 특정하였다고 판정된 경우, 단계 S215로 진행하여, 합성부(205)는, 판정 플래그 저장 프레임 메모리(204)에 기억되어 있는 언커버드 백그라운드 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그에 기초하여, 혼합 영역을 나타내는 영역 정보를 생성하고, 또한, 각 화소가, 언커버드 백그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하여, 생성한 영역 정보를 판정 플래그 저장 프레임 메모리(206)로 설정하고, 처리는 종료한다.
이와 같이, 영역 특정부(103)는 프레임에 포함되어 있는 화소 각각에 대하여, 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
또, 영역 특정부(103)는, 언커버드 백그라운드 영역 및 커버드 백그라운드 영역에 대응하는 영역 정보에 논리합을 적용함으로써, 혼합 영역에 대응하는 영역 정보를 생성하고, 프레임에 포함되어 있는 화소 각각에 대하여, 움직임 영역, 정지 영역, 또는 혼합 영역에 속하는 것을 나타내는 플래그로 이루어지는 영역 정보를 생성하도록 해도 된다.
전경에 대응하는 오브젝트가 텍스쳐를 갖는 경우, 영역 특정부(103)는 보다 정확하게 움직임 영역을 특정할 수 있다.
영역 특정부(103)는 움직임 영역을 나타내는 영역 정보를 전경 영역을 나타내는 영역 정보로서, 또한 정지 영역을 나타내는 영역 정보를 배경 영역을 나타내 는 영역 정보로서 출력할 수 있다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 영역을 특정하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 일정하게 움직이고 있을 때, 영역 특정부(103)는 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소별로 서로 다른 움직임을 포함하고 있을 때, 영역 특정부(103)는 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
도 36은 영역 특정부(103)의 다른 구성 일례를 나타내는 블록도이다. 도 36에 나타내는 영역 특정부(103)는 움직임 벡터를 사용하지 않는다. 배경 화상 생성부(301)는 입력 화상에 대응하는 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다. 배경 화상 생성부(301)는 예를 들면, 입력 화상에 포함되는 배경 오브젝트에 대응하는 화상 오브젝트를 추출하여, 배경 화상을 생성한다.
전경 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 배열되는 화소의 화소값을 시간 방향으로 전개한 모델도의 예를 도 37에 나타낸다. 예를 들면, 전경 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대하여 수평일 때, 도 37에서의 모델도는 1라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 나타낸다.
도 37에서 프레임 #n에서의 라인은 프레임 #n-1 및 프레임 #n+1에서의 라인 과 동일하다.
프레임 #n에서, 좌측으로부터 6번째 화소 내지 17번째 화소에 포함되어 있는 오브젝트에 대응하는 전경 성분은, 프레임 #n-1에 있어서, 좌측으로부터 2번째 내지 13번째 화소에 포함되고, 프레임 #n+1에 있어서, 좌측으로부터 10번째 내지 21번째 화소에 포함된다.
프레임 #n-1에서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 11번째 내지 13번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 2번째 내지 4번째 화소이다. 프레임 #n에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 6번째 내지 8번째 화소이다. 프레임 #n+1에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 19번째 내지 21번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 10번째 내지 12번째 화소이다.
프레임 #n-1에서, 배경 영역에 속하는 화소는 좌측으로부터 1번째 화소 및 좌측으로부터 14번째 내지 21번째 화소이다. 프레임 #n에 있어서, 배경 영역에 속하는 화소는 좌측으로부터 1번째 내지 5번째 화소 및 좌측으로부터 18번째 내지 21번째 화소이다. 프레임 #n+1에 있어서, 배경 영역에 속하는 화소는 좌측으로부터 1번째 내지 9번째 화소이다.
배경 화상 생성부(301)가 생성하는, 도 37의 예에 대응하는 배경 화상의 예를 도 38에 도시한다. 배경 화상은 배경 오브젝트에 대응하는 화소로 구성되고, 전경 오브젝트에 대응하는 화상의 성분을 포함하지 않는다.
2치 오브젝트 화상 추출부(302)는 배경 화상 및 입력 화상의 상관을 기초로, 2치 오브젝트 화상을 생성하고, 생성한 2치 오브젝트 화상을 시간 변화 검출부(303)에 공급한다.
도 39는 2치 오브젝트 화상 추출부(302)의 구성을 나타내는 블록도이다. 상관값 연산부(321)는, 배경 화상 생성부(301)로부터 공급된 배경 화상 및 입력 화상의 상관을 연산하여 상관값을 생성하고, 생성한 상관값을 임계값 처리부(322)에 공급한다.
상관값 연산부(321)는, 예를 들면, 도 40A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 내의 블록과, 도 40B에 도시한 바와 같이, 배경 화상 내의 블록에 대응하는 Y4를 중심과 한 3×3의 입력 화상 내의 블록에, 수학식 4를 적용하여 Y4에 대응하는 상관값을 산출한다.
Figure 112003006449741-pct00004
Figure 112003006449741-pct00005
Figure 112003006449741-pct00006
상관값 연산부(321)는 이와 같이 각 화소에 대응하여 산출된 상관값을 임계값 처리부(322)에 공급한다.
또한, 상관값 연산부(321)는 예를 들면, 도 41A에 도시한 바와 같이 X4를 중심으로 한 3×3의 배경 화상 중의 블록과, 도 41B에 도시한 바와 같이, 배경 화상 중의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 내의 블록에, 수학식 7을 적용하여, Y4에 대응하는 차분 절대값 합을 산출하도록 해도 된다.
Figure 112003006449741-pct00007
상관값 연산부(321)는 이와 같이 산출된 차분 절대값 합을 상관값으로서 임계값 처리부(322)에 공급한다.
임계값 처리부(322)는 상관 화상의 화소값과 임계값 th0을 비교하여, 상관값이 임계값 th0 이하인 경우 2치 오브젝트 화상의 화소값으로 1을 설정하고, 상관값이 임계값 th0보다 큰 경우, 2치 오브젝트 화상의 화소값으로 0을 설정하여, O 또는 1이 화소값으로 설정된 2치 오브젝트 화상을 출력한다. 임계값 처리부(322)는 임계값 th0을 사전에 기억하도록 해도 되고, 또는 외부로부터 입력된 임계값 th0을 사용하도록 해도 된다.
도 42는 도 37에 도시한 입력 화상의 모델에 대응하는 2치 오브젝트 화상의 예를 나타내는 도면이다. 2치 오브젝트 화상에 있어서, 배경 화상과 상관이 높은 화소에는 화소값으로 0이 설정된다.
도 43은 시간 변화 검출부(303)의 구성을 나타내는 블록도이다. 프레임 메모리(341)는 프레임 #n의 화소에 대하여 영역을 판정할 때, 2치 오브젝트 화상 추출부(302)로부터 공급된, 프레임 #n-1, 프레임 #n, 및 프레임 #+1의 2치 오브젝트 화상을 기억한다.
영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n-1, 프레임 #n, 및 프레임 #+1의 2치 오브젝트 화상을 기초로, 프레임 #n의 각 화소에 대하여 영역을 판정하여, 영역 정보를 생성하고, 생성한 영역 정보를 출력한다.
도 44는 영역 판정부(342)의 판정을 설명하는 도면이다. 프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 O일 때, 영역 판정부(342)는 프레임 #n의 주목하고 있는 화소가 배경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상의 대응하는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상의 대응하는 화소가 1일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 전경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는, 프레임 #n 의 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 45는 도 37에 도시한 입력 화상의 모델에 대응하는 2치 오브젝트 화상에 대하여, 시간 변화 검출부(303)가 판정한 예를 나타내는 도면이다. 시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 프레임 #n의 좌측으로부터 1번째 내지 5번째 화소를 배경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n+1의 대응하는 화소가 0이기 때문에, 좌측으로부터 6번째 내지 9번째 화소를 언커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 1이고, 프레임 #n+1의 대응하는 화소가 1이기 때문에, 좌측으로부터 10번째 내지 13번째 화소를 전경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 0이기 때문에, 좌측으로부터 14번째 내지 17번째 화소를 커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 좌측으로부터 18번째 내지 21번째 화소를 배경 영역에 속한다고 판정한다.
다음에, 도 46의 흐름도를 참조하여, 영역 판정부(103)의 영역 특정 처리를 설명한다. 단계 S301에서, 영역 판정부(103)의 배경 화상 생성부(301)는 입력 화상을 기초로, 예를 들면, 입력 화상에 포함되는 배경 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다.
단계 S302에서, 2치 오브젝트 화상 추출부(302)는 예를 들면, 도 40A및 도 40B를 참조하여 설명한 연산에 의해, 입력 화상과 배경 화상 생성부(301)로부터 공급된 배경 화상과의 상관값을 연산한다. 단계 S303에서, 2치 오브젝트 화상 추출부(302)는 예를 들면, 상관값과 임계값 th0을 비교함으로써, 상관값 및 임계값 th0으로부터 2치 오브젝트 화상을 연산한다.
단계 S304에서, 시간 변화 검출부(303)는 영역 판정 처리를 실행하고, 처리는 종료한다.
도 47의 흐름도를 참조하여, 단계 S304에 대응하는 영역 판정 처리의 상세를 설명한다. 단계 S321에서, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 O인지 여부를 판정하여, 프레임 #n에서 주목하는 화소가 0이라고 판정된 경우, 단계 S322로 진행하여, 프레임 #n의 주목하는 화소가 배경 영역에 속한다고 설정하고, 처리는 종료한다.
단계 S321에서, 프레임 #n에 있어서, 주목하는 화소가 1이라고 판정된 경우, 단계 S323로 진행하여, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에서, 주목하는 화소가 1이고, 또한 프레임 #n- 1에서, 대응하는 화소가 O인지 여부를 판정하여, 프레임 #n에서 주목하는 화소가 1이고, 또한 프레임 #n-1에서 대응하는 화소가 0이라고 판정된 경우, 단계 S324로 진행하여, 프레임 #n의 주목하는 화소가 커버드 백그라운드 영역에 속한다고 설정하고, 처리는 종료한다.
단계 S323에서, 프레임 #n에서 주목하는 화소가 0이거나, 또는 프레임 #n-1에서 대응하는 화소가 1이라고 판정된 경우, 단계 S325로 진행하여, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 1이고, 또한 프레임 #n+1에서 대응하는 화소가 O인지 여부를 판정하여, 프레임 #n에서 주목하는 화소가 1이고, 또한 프레임 #n+1에서 대응하는 화소가 0이라고 판정된 경우, 단계 S326로 진행하여, 프레임 #n의 주목하는 화소가 언커버드 백그라운드 영역에 속한다고 설정하고, 처리는 종료한다.
단계 S325에서, 프레임 #n에서 주목하는 화소가 0이거나, 또는 프레임 #n+1에서 대응하는 화소가 1이라고 판정된 경우, 단계 S327로 진행하여, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 #n의 주목하는 화소를 전경 영역이라고 설정하고, 처리는 종료한다.
이와 같이, 영역 특정부(103)는 입력된 화상과 대응하는 배경 화상의 상관값에 기초하여, 입력 화상의 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 특정하여, 특정한 결과에 대응하는 영역 정보를 생성할 수 있다.
도 48은 영역 특정부(103)의 다른 구성을 나타내는 블록도이다. 도 48에 나 타내는 영역 특정부(103)는, 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보를 사용한다. 도 36에 도시한 경우와 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
로버스트화부(361)는, 2치 오브젝트 화상 추출부(302)로부터 공급된, N개의 프레임의 2치 오브젝트 화상을 기초로, 로버스트화된 2치 오브젝트 화상을 생성하여 시간 변화 검출부(303)에 출력한다.
도 49는 로버스트화부(361)의 구성을 설명하는 블록도이다. 움직임 보상부(381)는 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보에 기초하여, N개의 프레임의 2치 오브젝트 화상의 움직임을 보상하여, 움직임이 보상된 2치 오브젝트 화상을 스위치(382)에 출력한다.
도 50 및 도 51의 예를 참조하여, 움직임 보상부(381)의 움직임 보상에 대하여 설명한다. 예를 들면, 프레임 #n의 영역을 판정할 때, 도 50에 예를 나타내는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상이 입력된 경우, 움직임 보상부(381)는, 움직임 검출부(102)로부터 공급된 움직임 벡터에 기초하여, 도 51에 예를 나타내는 바와 같이, 프레임 #n-1의 2치 오브젝트 화상, 및 프레임 #n+1의 2치 오브젝트 화상을 움직임 보상하여, 움직임 보상된 2치 오브젝트 화상을 스위치(382)에 공급한다.
스위치(382)는 1번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-1)에 출력하고, 2번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-2)에 출력한다. 마찬가지로, 스위치(382)는 3번째 내지 N-1번째 프레임의 움직임 보상된 2치 오브젝트 화상의 각각을 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나로 출력하고, N번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-N)에 출력한다.
프레임 메모리(383-1)는 1번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-1)에 출력한다. 프레임 메모리(383-2)는 2번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-2)에 출력한다.
마찬가지로, 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1))의 각각은, 3번째 프레임 내지 N-1번째 프레임의 움직임 보상된 2치 오브젝트 화상 중 어느 하나를 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1)) 중 어느 하나로 출력한다. 프레임 메모리(383-N)는 N 번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-N)에 출력한다.
가중치 부여부(384-1)는, 프레임 메모리(383-1)로부터 공급된 1번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 사전에 정한 가중치 w1을 곱하여 적산부(385)에 공급한다. 가중치 부여부(384-2)는 프레임 메모리(383-2)로부터 공급된 2번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 사전에 정한 가중치 w2을 곱하여 적산부(385)에 공급한다.
마찬가지로, 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1))의 각각은, 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나로부터 공 급된 3번째 내지 N-1번째 중 어느 하나 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 사전에 정한 가중치 w3 내지 가중치 w(N-1) 중 어느 하나를 곱하여 적산부(385)에 공급한다. 가중치 부여부(384-N)는 프레임 메모리(383-N)로부터 공급된 N번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 사전에 정한 가중치 wN을 곱하여 적산부(385)에 공급한다.
적산부(385)는 1 내지 N번째 프레임의 움직임이 보상되고, 각각 가중치 w1 내지 wN 중 어느 하나가 곱해진, 2치 오브젝트 화상의 대응하는 화소값을 적산하고, 적산된 화소값을 사전에 정한 임계값 th0과 비교하여 2치 오브젝트 화상을 생성한다.
이와 같이, 로버스트화부(361)는 N개의 2치 오브젝트 화상으로부터 로버스트화된 2치 오브젝트 화상을 생성하여 시간 변화 검출부(303)에 공급하기 때문에, 도 48에 구성을 나타내는 영역 특정부(103)는, 입력 화상에 노이즈가 포함되어 있더라도, 도 36에 나타내는 경우에 비하여 보다 정확하게 영역을 특정할 수 있다.
다음에, 도 48에 구성을 나타내는 영역 특정부(103)의 영역 특정 처리에 대하여 도 52의 흐름도를 참조하여 설명한다. 단계 S341 내지 단계 S343 처리는 도 46의 흐름도에서 설명한 단계 S301 내지 단계 S303과 각각 마찬가지이므로 그 설명은 생략한다.
단계 S344에서, 로버스트화부(361)는 로버스트화 처리를 실행한다.
단계 S345에서, 시간 변화 검출부(303)는 영역 판정 처리를 실행하고, 처리는 종료한다. 단계 S345 처리의 상세는 도 47의 흐름도를 참조하여 설명한 처리와 마찬가지이기 때문에 그 설명은 생략한다.
다음에, 도 53의 흐름도를 참조하여, 도 52의 단계 S344 처리에 대응하는 로버스트화 처리의 상세에 대하여 설명한다. 단계 S361에서, 움직임 보상부(381)는 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보에 기초하여, 입력된 2치 오브젝트 화상의 움직임 보상 처리를 실행한다. 단계 S362에서, 프레임 메모리(383-1 내지 383-N) 중 어느 하나는, 스위치(382)를 통해 공급된 움직임 보상된 2치 오브젝트 화상을 기억한다.
단계 S363에서, 로버스트화부(361)는 N개의 2치 오브젝트 화상이 기억되었는지 여부를 판정하여, N개의 2치 오브젝트 화상이 기억되어 있지 않다고 판정된 경우, 단계 S361로 되돌아가, 2치 오브젝트 화상의 움직임 보상 처리 및 2치 오브젝트 화상의 기억 처리를 반복한다.
단계 S363에서, N개의 2치 오브젝트 화상이 기억되었다고 판정된 경우, 단계 S364로 진행하여, 가중치 부여부(384-1 내지 384-N)의 각각은, N개의 2치 오브젝트 화상의 각각에 w1 내지 wN 중 어느 하나의 가중치를 곱하여 가중한다.
단계 S365에서, 적산부(385)는 가중된 N개의 2치 오브젝트 화상을 적산한다.
단계 S366에서, 적산부(385)는 예를 들면, 사전에 정해진 임계값 th1과의 비교 등에 의해, 적산된 화상으로부터 2치 오브젝트 화상을 생성하고, 처리는 종료한다.
이와 같이, 도 48에 구성을 나타내는 영역 특정부(103)는 로버스트화된 2치 오브젝트 화상을 기초로 영역 정보를 생성할 수 있다.
이상과 같이, 영역 특정부(103)는, 프레임에 포함되어 있는 화소 각각에 대하여, 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
도 54는 혼합비 산출부(104)의 구성의 일례를 도시한 블록도이다. 추정 혼합비 처리부(401)는 입력 화상에 기초하여, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
추정 혼합비 처리부(402)는 입력 화상에 기초하여, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
전경에 대응하는 오브젝트가 셔터 시간 내에 등속으로 움직이고 있다고 가정할 수 있으므로, 혼합 영역에 속하는 화소의 혼합비α는 이하의 성질을 갖는다. 즉, 혼합비α는 화소의 위치의 변화에 대응하여, 직선적으로 변화한다. 화소의 위치의 변화를 1차원이라고 하면, 혼합비α의 변화는 직선으로 표현할 수 있고, 화소의 위치의 변화를 2차원이라고 하면, 혼합비α의 변화는 평면에서 표현할 수 있다.
또, 1 프레임의 기간은 짧으므로, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정이 성립한다.
이 경우, 혼합비α의 기울기는 전경의 셔터 시간 내에서의 움직임량 v의 역비로 된다.
이상적인 혼합비α의 예를 도 55에 도시한다. 이상적인 혼합비α의 혼합 영 역에서의 기울기(1)는 움직임량 v의 역수로서 나타낼 수 있다.
도 55에 도시한 바와 같이, 이상적인 혼합비α는 배경 영역에서, 1의 값을 갖고, 전경 영역에서 0의 값을 갖고, 혼합 영역에서 0을 넘어 1 미만의 값을 갖는다.
도 56의 예에서, 프레임 #n의 좌측으로부터 7번째의 화소의 화소값 C06은 프레임 #n-1의 좌측으로부터 7번째의 화소의 화소값 P06을 이용하여, 수학식 8로 나타낼 수 있다.
Figure 112003006449741-pct00008
수학식 8에서, 화소값 C06을 혼합 영역의 화소의 화소값 M과, 화소값 P06을 배경 영역의 화소의 화소값 B로 표현한다. 즉, 혼합 영역의 화소의 화소값 M 및 배경 영역의 화소의 화소값 B는 각각 수학식 9 및 수학식 10과 같이 표현할 수 있다.
Figure 112003006449741-pct00009
Figure 112003006449741-pct00010
수학식 8 중 2/v는 혼합비α에 대응한다. 움직임량 v가 4이므로, 프레임 #n 의 좌측으로부터 7번째의 화소의 혼합비α는 0.5가 된다.
이상과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값이라고 봤을 때, 프레임 #n의 전의 프레임 #n-1의 화소값 P을 배경 영역의 화소값로 간주함으로써, 혼합비α를 나타낸 수학식 3은 수학식 11과 같이 다시 쓸 수 있다.
Figure 112003006449741-pct00011
수학식 11의 f는, 주목하고 있는 화소에 포함되는 전경의 성분의 합 ΣiFi/v 이다. 수학식 11에 포함되는 변수는 혼합비α 및 전경의 성분의 합 f의 2개이다.
마찬가지로, 언커버드 백그라운드 영역에서의 움직임량 v가 4이고, 시간 방향의 가상 분할수가 4인, 화소값을 시간 방향으로 전개한 모델을 도 57에 도시한다.
언커버드 백그라운드 영역에서, 상술한 커버드 백그라운드 영역에서의 표현과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값으로 간주하고, 프레임 #n 후의 프레임 #n+1의 화소값 N을 배경 영역의 화소값으로 간주함으로써, 혼합비α를 도시한 수학식 3은 수학식 12와 같이 표현할 수 있다.
Figure 112003006449741-pct00012
또, 배경의 오브젝트가 정지하고 있다고 해서 설명했지만, 배경의 오브젝트가 움직이고 있는 경우에도, 배경의 움직임량 v에 대응시킨 위치의 화소의 화소값 을 이용함으로써, 수학식 8 내지 수학식 12를 적용할 수 있다. 예를 들면, 도 56에서, 배경에 대응하는 오브젝트의 움직임량 v가 2이고, 가상 분할수가 2일 때, 배경에 대응하는 오브젝트가 도면 내의 우측으로 움직이고 있을 때, 수학식 10에서의 배경 영역의 화소의 화소값 B는 화소값 P04가 된다.
수학식 11 및 수학식 12는 각각 2개의 변수를 포함하므로, 그 상태에서는 혼합비α를 구할 수 없다. 여기서, 화상은 일반적으로 공간적으로 상관이 강하므로 근접하는 화소끼리 거의 동일한 화소값이 된다.
그래서, 전경 성분은 공간적으로 상관이 강하므로, 전경의 성분의 합 f를 전 또는 후의 프레임으로부터 끌어낼 수 있도록 식을 변형하여, 혼합비α를 구한다.
도 58의 프레임 #n의 좌측으로부터 7번째의 화소의 화소값 Mc는 수학식 13으로 나타낼 수 있다.
Figure 112003006449741-pct00013
수학식 13의 우변 제1항의 2/v는 혼합비α에 상당한다. 수학식 13의 우변 제2항은 후의 프레임 #n+1의 화소값을 이용하여, 수학식 14와 같이 나타내는 것으로 한다.
Figure 112003006449741-pct00014
여기서, 전경의 성분의 공간 상관을 이용하여, 수학식 15가 성립한다.
Figure 112003006449741-pct00015
수학식 14는, 수학식 15를 이용하여, 수학식 16과 같이 치환할 수 있다.
Figure 112003006449741-pct00016
결과적으로, β는 수학식 17로 나타낼 수 있다.
Figure 112003006449741-pct00017
일반적으로, 수학식 15에 도시한 바와 같이 혼합 영역에 관계하는 전경의 성분이 같다고 가정하면, 혼합 영역의 모든 화소에 대하여, 내분비의 관계로부터 수학식 18이 성립한다.
Figure 112003006449741-pct00018
수학식 18이 성립하면, 수학식 11은, 수학식 19에 도시한 바와 같이 전개 할 수 있다.
Figure 112003006449741-pct00019
마찬가지로, 수학식 18이 성립하면, 수학식 12는 수학식 20에 도시한 바와 같이 전개 할 수 있다.
Figure 112003006449741-pct00020
수학식 19 및 수학식 20에서, C, N, 및 P은, 기지의 화소값이기 때문에, 수학식 19 및 수학식 20에 포함되는 변수는, 혼합비α만 이다.
수학식 19 및 수학식 20에서의, C, N, 및 P의 관계를 도 59에 도시한다. C는, 혼합비α를 산출하는 프레임 #n의 주목하고 있는 화소의 화소값이다.
N은, 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n+1의 화소의 화소값이다. P는 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n-1의 화소의 화소값이다.
따라서, 수학식 19 및 수학식 20의 각각에 1개의 변수가 포함되기 때문에, 3개의 프레임의 화소의 화소값을 이용하여, 혼합비α를 산출할 수 있다. 수학식 19 및 수학식 20을 풀어, 옳은 혼합비α가 산출되기 위한 조건은, 혼합 영역에 관계하는 전경의 성분이 같다, 즉, 전경의 오브젝트가 정지하여 있을 때 촬상된 전경의 화상 오브젝트에서, 전경의 오브젝트의 움직임의 방향에 대응하는, 화상 오브젝트의 경계에 위치하는 화소이고, 움직임량 v의 2배의 수의 연속하고 있는 화소의 화소값이, 일정한 것이다.
이상과 같이, 커버드 백그라운드 영역에 속하는 화소의 혼합비α는, 수학식 21) 에 의해 산출되어, 언커버드 백그라운드 영역에 속하는 화소의 혼합비α는, 수학식 22) 에 의해 산출된다.
Figure 112003006449741-pct00021
Figure 112003006449741-pct00022
도 60은 추정 혼합비 처리부(401)의 구성을 나타내는 블록도이다. 프레임 메모리(421)는, 입력된 화상을 프레임 단위로 기억하여, 입력 화상으로서 입력되어 있는 프레임으로부터 1개 후의 프레임을 프레임 메모리422 및 혼합비 연산부(423)에 공급한다.
프레임 메모리422는, 입력된 화상을 프레임 단위로 기억하여, 프레임 메모리(421)로부터 공급되어 있는 프레임으로부터 1개 후의 프레임을 혼합비 연산부(423)에 공급한다.
따라서, 입력 화상으로서 프레임 #n+1이 혼합비 연산부(423)에 입력되어 있을 때, 프레임 메모리(421)는, 프레임 #n을 혼합비 연산부(423)에 공급하여, 프레임 메모리422는, 프레임 #n-1을 혼합비 연산부(423)에 공급한다.
혼합비 연산부(423)는, 수학식 21에 도시한 연산에 의해, 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 공간적 위치가 대응하는, 프 레임 #n-1의 화소의 화소값 P에 기초하여, 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다. 예를 들면, 배경이 정지하여 있을 때, 혼합비 연산부(423)는, 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 프레임 내의 위치가 동일한, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 프레임 내의 위치가 동일한, 프레임 #n-1의 화소의 화소값 P에 기초하여, 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는, 입력 화상에 기초하여, 추정 혼합비를 산출하여, 혼합비 결정부(403)에 공급 할 수 있다.
또, 추정 혼합비 처리부(402)는, 추정 혼합비 처리부(401)가 수학식 21에 도시한 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 데 대하여, 수학식 22에 도시한 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 부분이 다른 것을 제외하여, 추정 혼합비 처리부(401) 와 마찬가지이므로, 그 설명은 생략한다.
도 61은 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비가 예를 도시한 도면이다. 도 61에 도시한 추정 혼합비는, 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임량 v가 11인 경우의 결과를, 1 라인에 대하여 도시한 것이다.
추정 혼합비는, 혼합 영역에서, 도 55에 도시한 바와 같이, 거의 직선적으로 변화하고 있는 것을 알 수 있다.
도 54로 되돌아가, 혼합비 결정부(403)는, 영역 특정부(103)로부터 공급된, 혼합비α의 산출의 대상이 되는 화소가, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어디에 속하는지를 나타내는 영역 정보에 기초하여, 혼합비α를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비α에 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비α에 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α에 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α에 설정한다. 혼합비 결정부(403)는 영역 정보에 기초하여 설정한 혼합비α를 출력한다.
도 62는 혼합비 산출부(104)의 다른 구성을 도시한 블록도이다. 선택부(441)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 커버드 백그라운드 영역에 속하는 화소 및, 이것에 대응하기 전 및 후의 프레임의 화소를 추정 혼합비 처리부(442)에 공급한다. 선택부(441)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 언커버드 백그라운드 영역에 속하는 화소 및, 이것에 대응하기 전 및 후의 프레임의 화소를 추정 혼합비 처리부(443)에 공급한다.
추정 혼합비 처리부(442)는 선택부441로부터 입력된 화소값에 기초하여, 수학식 21) 에 도시한 연산에 의해 커버드 백그라운드 영역에 속하는 주목하고 있는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 선택부(444)에 공급한다.
추정 혼합비 처리부(443)는 선택부(441)로부터 입력된 화소값에 기초하여, 수학식 22에 도시한 연산에 의해 언커버드 백그라운드 영역에 속하는, 주목하고 있 는 화소의 추정 혼합비를 산출하고, 산출한 추정 혼합비를 선택부(444)에 공급한다.
선택부(444)는 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 대상이 되는 화소가 전경 영역에 속하는 경우, 0인 추정 혼합비를 선택하여, 혼합비α에 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1인 추정 혼합비를 선택하여, 혼합비α에 설정한다. 선택부(444)는 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(442)로부터 공급된 추정 혼합비를 선택하여 혼합비α에 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(443)로부터 공급된 추정 혼합비를 선택하여 혼합비α에 설정한다. 선택부(444)는 영역 정보에 기초하여 선택하여 설정한 혼합비α를 출력한다.
이와 같이, 도 62에 도시한 다른 구성을 갖는 혼합비 산출부(104)는, 화상이 포함되는 화소마다 혼합비α를 산출하고, 산출한 혼합비α를 출력 할 수 있다.
도 63의 흐름도를 참조하여, 도 54에 구성을 나타내는 혼합비 산출부(104)의 혼합비α의 산출 처리를 설명한다. 단계 S401에서, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보를 취득한다. 단계 S402에서, 추정 혼합비 처리부(401)는 커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다. 혼합비 추정의 연산 처리의 상세한 내용은 도 64의 흐름도를 참조하여 후술한다.
단계 S403에서, 추정 혼합비 처리부(402)는, 언커버드 백그라운드 영역에 대 응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
단계 S404에서, 혼합비 산출부(104)는, 프레임 전체에 대하여, 혼합비α를 추정하였는지의 여부를 판정하여, 프레임 전체에 대하여, 혼합비α를 추정하지 않다고 판정된 경우, 단계 S402에 되돌아가, 다음의 화소에 대하여 혼합비α를 추정하는 처리를 실행한다.
단계 S404에서, 프레임 전체에 대하여, 혼합비α를 추정하였다고 판정된 경우, 단계 S405로 진행하여, 혼합비 결정부(403)는, 화소가, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는 가를 도시한다, 영역 특정부(103)로부터 공급된 영역 정보에 기초하여, 혼합비α를 설정한다. 혼합비 결정부(403)는, 대상이 되는 화소가 전경 영역에 속하는 경우, 0를 혼합비α에 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1를 혼합비α에 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α에 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α에 설정하고, 처리는 종료한다.
이와 같이, 혼합비 산출부(104)는, 영역 특정부(103)로부터 공급된 영역 정보, 및 입력 화상에 기초하여, 각 화소에 대응하는 특징량인 혼합비α를 산출 할 수 있다.
도 62에 구성을 나타내는 혼합비 산출부(104)의 혼합비α의 산출 처리는, 도 63의 흐름도로 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
다음에, 도 63의 단계 S402에 대응하는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리를 도 64의 흐름도를 참조하여 설명한다.
단계 S421에서, 혼합비 연산부(423)는 프레임 메모리(421)로부터, 프레임 #n의 주목 화소의 화소값 C을 취득한다.
단계 S422에서, 혼합비 연산부(423)는 프레임 메모리422로부터, 주목 화소에 대응하는, 프레임 #n-1의 화소의 화소값 P을 취득한다.
단계 S423에서, 혼합비 연산부(423)는 입력 화상에 포함되는 주목 화소에 대응하는, 프레임 #n+1의 화소의 화소값 N을 취득한다.
단계 S424에서, 혼합비 연산부(423)는 프레임 #n의 주목 화소의 화소값 C, 프레임 #n-1의 화소의 화소값 P, 및 프레임 #n+1의 화소의 화소값 N에 기초하여, 추정 혼합비를 연산한다.
단계 S425에서, 혼합비 연산부(423)는 프레임 전체에 대하여, 추정 혼합비를 연산하는 처리를 종료하였는지의 여부를 판정하여, 프레임 전체에 대하여, 추정 혼합비를 연산하는 처리를 종료하지 않는다고 판정된 경우, 단계 S421에 되돌아가, 다음의 화소에 대하여 추정 혼합비를 산출하는 처리를 반복한다.
단계 S425에서, 프레임 전체에 대하여, 추정 혼합비를 연산하는 처리를 종료하였다고 판정된 경우, 처리는 종료한다.
이와 같이, 추정 혼합비 처리부(401)는, 입력 화상에 기초하여, 추정 혼합비를 연산 할 수 있다.
도 63의 단계 S403에 있어서의 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 식을 이용한, 도 64의 흐름도에 도시한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 도 62에 도시한 추정 혼합비 처리부(442) 및 추정 혼합비 처리부(443)는, 도 64에 도시한 흐름도와 마찬가지 처리를 실행하고 추정 혼합비를 연산하므로, 그 설명은 생략한다.
또한, 배경에 대응하는 오브젝트가 정지하고 있다고해서 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 혼합비α를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직여 있을 때, 추정 혼합비 처리부(401)는, 배경의 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 같이 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 다른 배경의 움직임을 포함하여 있을 때, 추정 혼합비 처리부(401)는, 혼합 영역에 속하는 화소에 대응하는 화소로서, 배경의 움직임에 대응한 화소를 선택하여, 상술 처리를 실행한다.
또한, 혼합비 산출부(104)는 모든 화소에 대하여, 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리만을 실행하여, 산출된 추정 혼합비를 혼합비α로서 출력하도록 해도 된다. 이 경우에서, 혼합비α는, 커버드 백그라운드 영역에 속하는 화소에 대하여, 배경의 성분의 비율을 도시하여, 언커버드 백그라운드 영역에 속하는 화소에 대하여, 전경의 성분의 비율을 도시한다. 언커버드 백그라운드 영역에 속하는 화소에 대하여, 이와 같이 산출된 혼합비α와 1와의 차분의 절 대값을 산출하고, 산출한 절대값을 혼합비α에 설정하면, 분리부(91)는, 언커버드 백그라운드 영역에 속하는 화소에 대하여, 배경의 성분의 비율을 도시한 혼합비α를 구할 수 있다.
또, 마찬가지로, 혼합비 산출부(104)는, 모든 화소에 대하여, 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리만을 실행하여, 산출된 추정 혼합비를 혼합비α로서 출력하도록 해도 된다.
이어서, 혼합비α가 직선적으로 변화하는 성질을 이용하여 혼합비α를 산출하는 혼합비 산출부(104)에 대하여 설명한다.
상술한 바와 같이, 수학식 11 및 수학식 12는 각각 2개의 변수를 포함하므로, 그 상태에서는 혼합비α를 구할 수 없다.
따라서, 셔터 시간 내에 전경에 대응하는 오브젝트가 등속으로 움직이는 것에 의한, 화소의 위치의 변화에 대응하여, 혼합비α가 직선적으로 변화하는 성질을 이용하여, 공간 방향으로 혼합비α와 전경의 성분의 합 f를 근사한 식을 성립할 수 있다. 혼합 영역에 속하는 화소의 화소값 및 배경 영역에 속하는 화소의 화소값의 조의 복수를 이용하여, 혼합비α와 전경의 성분의 합 f를 근사한 식을 푼다.
혼합비α의 변화를, 직선으로서 근사하면, 혼합비α는, 수학식 23으로 표시된다.
Figure 112003006449741-pct00023
수학식 23에서, i는 주목하고 있는 화소의 위치를 0으로 한 공간 방향의 인 덱스이다. 참조 부호 1은 혼합비α의 직선의 기울기이다. p는 혼합비α의 직선의 세그먼트임과 함께, 주목하고 있는 화소의 혼합비α이다. 수학식 23에서, 인덱스 i는 기지이지만, 기울기1 및 세그먼트 p는 미지이다.
인덱스 i, 기울기(1), 및 세그먼트 p의 관계를 도 65에 도시한다. 도 65에서, ○은 주목 화소를 나타내며, ●은 근방 화소를 나타낸다.
혼합비α를 수학식 23과 같이 근사함으로써, 복수의 화소에 대하여 복수의 다른 혼합비α는 2개의 변수로 표현된다. 도 65에 도시한 예에서, 5개의 화소에 대한 5개의 혼합비는 2개의 변수인 기울기(1) 및 세그먼트 p에 의해 표현된다.
도 66에 도시한 평면에서 혼합비α를 근사하면, 화상의 수평 방향 및 수직 방향의 2개의 방향에 대응하는 움직여 v를 고려했을 때, 수학식 23을 평면으로 확장하고, 혼합비α는 수학식 24로 표시된다. 도 66에서, ○은 주목 화소를 나타낸다.
Figure 112003006449741-pct00024
수학식 24에서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다. m은, 혼합비α의 면의 수평 방향의 기울기이고, q는 혼합비α의 면의 수직 방향의 기울기이다. p는 혼합비α의 면의 세그먼트이다.
예를 들면, 도 56에 도시한 프레임 #n에서 C05 내지 C07에 대하여, 각각 수학식 25 내지 수학식 27이 성립된다.
Figure 112003006449741-pct00025
Figure 112003006449741-pct00026
Figure 112003006449741-pct00027
전경의 성분이 근방에서 일치하는데, 즉 F01 내지 F03이 동일하다고 해도, F01 내지 F03을 Fc로 치환하면 수학식 28이 성립된다.
Figure 112003006449741-pct00028
수학식 28에서, x는 공간 방향의 위치를 나타낸다.
α(x)를 수학식 24로 치환하면, 수학식 28은 수학식 29로서 나타낼 수 있다.
Figure 112003006449741-pct00029
수학식 29에서, (-m·Fc), (-q·Fc), 및 (1-p)·Fc는, 수학식 30 내지 수학식 32에 도시한 바와 같이 치환되고 있다.
Figure 112003006449741-pct00030
Figure 112003006449741-pct00031
Figure 112003006449741-pct00032
수학식 29에서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다.
이와 같이, 전경에 대응하는 오브젝트가 셔터 시간 내에서 등속으로 이동하고, 전경에 대응하는 성분이 근방에서 일정하다는 가정이 성립하므로, 전경의 성분의 합은 수학식 29로 근사된다.
또, 혼합비α를 직선으로 근사하는 경우, 전경의 성분의 합은 수학식 33으로 나타낼 수 있다.
Figure 112003006449741-pct00033
수학식 13의 혼합비α 및 전경 성분의 합을, 수학식 24 및 수학식 29를 이용하여 치환하면, 화소값 M은 수학식 34로 표시된다.
Figure 112003006449741-pct00034
수학식 34에서, 미지의 변수는 혼합비α의 면의 수평 방향의 기울기 m, 혼합비α의 면의 수직 방향의 기울기 q, 혼합비α의 면의 세그먼트 p, s, t, 및 u의 6 개이다.
주목하고 있는 화소의 근방의 화소에 대응시켜, 수학식 34에 도시한 정규 방정식에 화소값 M 또는 화소값 B를 설정하고, 화소값 M 또는 화소값 B가 설정된 복수의 정규 방정식을 최소 제곱법으로 풀어, 혼합비α를 산출한다.
예를 들면, 주목하고 있는 화소의 수평 방향의 인덱스 j를 0으로 하고, 수직 방향의 인덱스 k를 0으로 하고, 주목하고 있는 화소의 근방의 3×3의 화소에 대하여, 수학식 34에 나타낸 정규 방정식에 화소값 M 또는 화소값 B를 설정하면, 수학식 35 내지 수학식 43을 얻는다.
Figure 112003006449741-pct00035
Figure 112003006449741-pct00036
Figure 112003006449741-pct00037
Figure 112003006449741-pct00038
Figure 112003006449741-pct00039
Figure 112003006449741-pct00040
Figure 112003006449741-pct00041
Figure 112003006449741-pct00042
Figure 112003006449741-pct00043
주목하고 있는 화소의 수평 방향의 인덱스 j가 0이고, 수직 방향의 인덱스 k가 0이므로, 주목하고 있는 화소의 혼합비α는 수학식 24로부터, j=0 및 k=0일 때의 값, 즉 세그먼트 p와 같다.
따라서, 수학식 35 내지 수학식 43의 9개의 식에 기초하여, 최소 제곱법에 의해, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u의 각각의 값을 산출하고, 세그먼트 p를 혼합비α로서 출력하면 된다.
이어서, 최소 제곱법을 적용하여 혼합비α를 산출하는 보다 구체적인 순서를 설명한다.
인덱스 i 및 인덱스 k를 1개의 인덱스 x로 표현하면, 인덱스 i, 인덱스 k, 및 인덱스 x의 관계는 수학식 44로 표시된다.
Figure 112003006449741-pct00044
수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 각각 변수 w0, w1, w2, w3, w4, 및 w5로 표현하고, jB, kB, B, j, k, 및 1을 각각 a0, a1, a2, a3, a4, 및 a5로 표현한다. 오차 ex를 고려하면, 수학식 35 내지 수학식 43은 수학식 45로 바꿔 쓸 수 있다.
Figure 112003006449741-pct00045
수학식 45에서, x는 0 내지 8의 정수 중 어느 하나의 값이다.
수학식 45로부터, 수학식 46을 유도할 수 있다.
Figure 112003006449741-pct00046
여기서, 최소 제곱법을 적용하기 때문에, 오차의 제곱합 E를 수학식 47에 나타낸 바와 같이 정의한다.
Figure 112003006449741-pct00047
오차가 최소가 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Wv의 편미분이 0이 된다. 여기서, v는 0 내지 5의 정수 중 어느 하나의 값이다. 따라서, 수학식 48을 충족하도록 wy를 구한다.
Figure 112003006449741-pct00048
수학식 48에 수학식 46을 대입하면, 수학식 49를 얻는다.
Figure 112003006449741-pct00049
수학식 49의 v에 0 내지 5의 정수 중 어느 하나를 대입하여 얻어지는 6개의 식에, 예를 들면 소거법(Gauss-Jordan의 소거법) 등을 적용하여, wy를 산출한다. 상술한 바와 같이, w0은 수평 방향의 기울기 m이고, w1은 수직 방향의 기울기 q이고, w2는 세그먼트 p이고, w3은 s이고, w4는 t이고, w5는 u이다.
이상과 같이, 화소값 M 및 화소값 B를 설정한 식에, 최소 제곱법을 적용함으로써, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 구할 수 있다.
수학식 35 내지 수학식 43에 대응하는 설명에서, 혼합 영역에 포함되는 화소의 화소값을 M으로 하고, 배경 영역에 포함되는 화소의 화소값을 B로서 설명했지만, 주목하고 있는 화소가 커버드 백그라운드 영역에 포함되는 경우, 또는 언커버드 백그라운드 영역에 포함되는 경우의 각각에 대하여, 정규 방정식을 세울 필요가 있다.
예를 들면, 도 56에 도시한, 프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 구하는 경우, 프레임 #n의 화소의 C04 내지 C08, 및 프레임 #n-1의 화소의 화소값 P04 내지 P08이 정규 방정식에 설정된다.
도 57에 도시한, 프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 구하는 경우, 프레임 #n의 화소의 C28 내지 C32, 및 프레임 #n+1의 화소의 화소값 N28 내지 N32가 정규 방정식에 설정된다.
또한, 예를 들면 도 67에 도시한, 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 이하의 수학식 50 내지 수학식 58이 성립된다. 혼합비α를 산출하는 화소의 화소값은 Mc5이다. 도 67에서, ○은, 배경이로 간주하는 화소를 도시하여, ●은, 혼합 영역의 화소로 간주하는 화소를 나타낸다.
Figure 112003006449741-pct00050
Figure 112003006449741-pct00051
Figure 112003006449741-pct00052
Figure 112003006449741-pct00053
Figure 112003006449741-pct00054
Figure 112003006449741-pct00055
Figure 112003006449741-pct00056
Figure 112003006449741-pct00057
Figure 112003006449741-pct00058
프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 수학식 50 내지 수학식 58에서, 프레임 #n의 화소에 대응하는 프레임 #n-1의 화소의 배경 영역의 화소의 화소값 Bc1 내지 Bc9가 사용된다.
도 67에 도시한, 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 이하의 수학식 59 내지 수학식 67이 성립된다. 혼합비α를 산출하는 화소의 화소값은 Mu5이다.
Figure 112003006449741-pct00059
Figure 112003006449741-pct00060
Figure 112003006449741-pct00061
Figure 112003006449741-pct00062
Figure 112003006449741-pct00063
Figure 112003006449741-pct00064
Figure 112003006449741-pct00065
Figure 112003006449741-pct00066
Figure 112003006449741-pct00067
프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 수학식 59 내지 수학식 67에서 프레임 #n의 화소에 대응하는 프레임 #n+1의 화소의 배경 영역의 화소의 화소값 Bu1 내지 Bu9가 사용된다.
도 68은 추정 혼합비 처리부(401)의 구성을 도시한 블록도이다. 추정 혼합비 처리부(401)에 입력된 화상은 지연 회로(501) 및 가산부(502)에 공급된다.
지연 회로(501)는 입력 화상을 1 프레임 지연시켜, 가산부(502)에 공급한다. 가산부(502)에 입력 화상으로서 프레임 #n이 입력되어 있을 때, 지연 회로(501)는 프레임 #n-1을 가산부(502)에 공급한다.
가산부(502)는 혼합비α를 산출하는 화소의 근방의 화소의 화소값, 및 프레임 #n-1의 화소값을 정규 방정식에 설정한다. 예를 들면, 가산부(502)는 수학식 50 내지 수학식 58에 기초하여, 정규 방정식에 화소값 Mc1 내지 Mc9 및 화소값 Bc1 내지 Bc9를 설정한다. 가산부(502)는 화소값이 설정된 정규 방정식을 연산부(503)에 공급한다.
연산부(503)는 가산부(502)로부터 공급된 정규 방정식을 소거법 등에 의해 풀어 추정 혼합비를 구하여, 구해진 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상에 기초하여, 추정 혼합비를 산출하여, 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는 추정 혼합비 처리부(401)와 마찬가지의 구성을 갖으므로, 그 설명은 생략한다.
도 69은 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 도시한 도면이다. 도 69에 도시한 추정 혼합비는 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임 v가 11이고, 7×7 화소의 블록을 단위로서 방정식을 생성하여 산출된 결과를 1 라인에 대하여 도시한 것이다.
추정 혼합비는 혼합 영역에서, 도 68에 도시한 바와 같이 거의 직선적으로 변화하고 있는 것을 알 수 있다.
이어서, 도 68에 구성을 도시한 추정 혼합 처리부(401)에 의한 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리를 도 70의 흐름도를 참조하여 설명한다.
단계 S521에서, 가산부(502)는 입력된 화상에 포함되는 화소값, 및 지연 회로(501)로부터 공급되는 화상에 포함되는 화소값을 커버드 백그라운드 영역의 모델에 대응하는 정규 방정식에 설정한다.
단계 S522에서, 추정 혼합비 처리부(401)는 대상이 되는 화소에 대한 설정이 종료했는지의 여부를 판정하여, 대상이 되는 화소에 대한 설정이 종료하지 않다고 판정된 경우, 단계 S521에 되돌아가, 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S522에서 대상이 되는 화소에 대한 화소값의 설정이 종료했다고 판정된 경우, 단계 S523으로 진행하고, 연산부(503)는 화소값이 설정된 정규 방정식에 기초하여, 추정 혼합비를 연산하여 구해진 추정 혼합비를 출력한다.
이와 같이, 도 68에 구성을 도시한 추정 혼합비 처리부(401)는 입력 화상에 기초하여, 추정 혼합비를 연산할 수 있다.
언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리는 언커버드 백그라운드 영역의 모델에 대응하는 정규 방정식을 이용한, 도 70의 흐름도에 도시한 처리와 마찬가지이므로, 그 설명은 생략한다.
또, 배경에 대응하는 오브젝트가 정지하고 있다고 설명했지만, 배경 영역에 대응하는 화상이 움직임을 포함해도 상술한 혼합비를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 추정 혼합비 처리부(401)는 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 같이 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 다른 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는 혼합 영역에 속하는 화소에 대응하는 화소로 하여, 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
이와 같이, 혼합비 산출부(102)는 영역 특정부(101)로부터 공급된 영역 정보, 및 입력 화상을 기초로, 각 화소에 대응하는 특징량인 혼합비α를 산출할 수 있다.
혼합비α를 이용함으로써, 움직이고 있는 오브젝트에 대응하는 화상에 포함되는 움직임 불선명 정보를 남긴 상태에서, 화소값에 포함되는 전경의 성분과 배경의 성분을 분리할 수 있게 된다.
또한, 혼합비α에 기초하여 화상을 합성하면, 실제 세계를 실제로 다시 촬영한 것처럼 움직이고 있는 오브젝트의 스피드에 맞춘 정확한 움직임 불선명을 포함하는 화상을 만들 수 있게 된다.
이어서, 전경 배경 분리부(105)에 대하여 설명한다. 도 71은 전경 배경 분리부(105)의 구성의 일례를 도시한 블록도이다. 전경 배경 분리부(105)에 공급된 입력 화상은 분리부(601), 스위치(602), 및 스위치(604)에 공급된다. 커버드 백그 라운드 영역을 나타낸 정보, 및 언커버드 백그라운드 영역을 나타낸 영역 특정부(103)로부터 공급된 영역 정보는 분리부(601)에 공급된다. 전경 영역을 나타낸 영역 정보는 스위치(602)에 공급된다. 배경 영역을 나타낸 영역 정보는 스위치(604)에 공급된다.
혼합비 산출부(104)로부터 공급된 혼합비α는 분리부(601)에 공급된다. 분리부(601)는 커버드 백그라운드 영역을 나타낸 영역 정보, 언커버드 백그라운드 영역을 나타낸 영역 정보, 및 혼합비α에 기초하여 입력 화상으로부터 전경의 성분을 분리하고, 분리한 전경의 성분을 합성부(603)에 공급함과 함께, 입력 화상으로부터 배경의 성분을 분리하고여, 분리한 배경의 성분을 합성부(605)에 공급한다.
스위치(602)는 전경 영역을 나타낸 영역 정보에 기초하여, 전경에 대응하는 화소가 입력되었을 때, 닫혀, 입력 화상에 포함되는 전경에 대응하는 화소만을 합성부(603)에 공급한다.
스위치(604)는 배경 영역을 나타낸 영역 정보에 기초하여, 배경에 대응하는 화소가 입력되었을 때, 닫혀, 입력 화상에 포함되는 배경에 대응하는 화소만을 합성부(605)에 공급한다.
합성부(603)는 분리부(601)로부터 공급된 전경에 대응하는 성분, 스위치(602)로부터 공급된 전경에 대응하는 화소에 기초하여, 전경 성분 화상을 합성하고, 합성한 전경 성분 화상을 출력한다. 전경 영역과 혼합 영역은 중복되지 않으므로, 합성부(603)는 예를 들면 전경에 대응하는 성분과, 전경에 대응하는 화소와 논리합의 연산을 적용하여, 전경 성분 화상을 합성한다.
합성부(603)는 전경 성분 화상의 합성 처리의 최초로 실행되는 초기화 처리에서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 전경 성분 화상의 합성 처리에서, 전경 성분 화상을 저장(덮어쓰기)한다. 따라서, 합성부(603)가 출력하는 전경 성분 화상 중, 배경 영역에 대응하는 화소에는 화소값으로서 0이 저장되어 있다.
합성부(605)는 분리부(601)로부터 공급된 배경에 대응하는 성분, 스위치(604)로부터 공급된 배경에 대응하는 화소에 기초하여, 배경 성분 화상을 합성하고, 합성한 배경 성분 화상을 출력한다. 배경 영역과 혼합 영역은 중복되지 않으므로, 합성부(605)는, 예를 들면 배경에 대응하는 성분과, 배경에 대응하는 화소와 논리합의 연산을 적용하여, 배경 성분 화상을 합성한다.
합성부(605)는 배경 성분 화상의 합성 처리의 최초로 실행되는 초기화 처리에서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 배경 성분 화상의 합성 처리에서, 배경 성분 화상을 저장(덮어쓰기)한다. 따라서, 합성부(605)가 출력하는 배경 성분 화상 중, 전경 영역에 대응하는 화소에는 화소값으로서 0이 저장되어 있다.
도 72A와 도 72B는 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상을 도시한 도면이다.
도 72A는 표시되는 화상의 모식도이고, 도 72B는, 도 72A에 대응하는 전경 영역에 속하는 화소, 배경 영역에 속하는 화소, 및 혼합 영역에 속하는 화소를 포 함하는 1 라인의 화소를 시간 방향으로 전개한 모델도를 도시한다.
도 72A 및 도 72B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 배경 성분 화상은 배경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 배경의 성분으로 구성된다.
도 72A 및 도 72B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상은 전경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 전경의 성분으로 구성된다.
혼합 영역의 화소의 화소값은 전경 배경 분리부(105)에 의해, 배경의 성분과, 전경의 성분으로 분리된다. 분리된 배경의 성분은 배경 영역에 속하는 화소와 같이, 배경 성분 화상을 구성한다. 분리된 전경의 성분은 전경 영역에 속하는 화소와 같이, 전경 성분 화상을 구성한다.
이와 같이, 전경 성분 화상은 배경 영역에 대응하는 화소의 화소값이 0이 되고, 전경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다. 마찬가지로, 배경 성분 화상은 전경 영역에 대응하는 화소의 화소값이 0이 되고, 배경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다.
이어서, 분리부(601)가 실행하는 혼합 영역에 속하는 화소로부터 전경의 성분, 및 배경의 성분을 분리하는 처리에 대하여 설명한다.
도 73는 도면의 좌측으로부터 우측으로 이동하는 오브젝트에 대응하는 전경을 포함하는 2개의 프레임의 전경의 성분 및 배경의 성분을 나타낸 화상의 모델이 다. 도 73에 도시한 화상의 모델에서, 전경의 움직임량 v는 4이고, 가상 분할수는 4로 되어 있다.
프레임 #n에서, 가장 좌측의 화소, 및 좌측으로부터 14번째 내지 18번째의 화소는 배경의 성분만으로 이루어지며, 배경 영역에 속한다. 프레임 #n에서, 좌측으로부터 2번째 내지 4번째의 화소는, 배경의 성분 및 전경의 성분을 포함하여, 언커버드 백그라운드 영역에 속한다. 프레임 #n에서 좌측으로부터 11번째 내지 13번째의 화소는 배경의 성분 및 전경의 성분을 포함하여, 커버드 백그라운드 영역에 속한다. 프레임 #n에서 좌측으로부터 5번째 내지 10번째의 화소는 전경의 성분만으로 이루어져, 전경 영역에 속한다.
프레임 #n+1에서 좌측으로부터 1번째 내지 5번째의 화소, 및 좌측으로부터 18번째의 화소는 배경의 성분만으로 이루어져, 배경 영역에 속한다. 프레임 #n+1에서, 좌측으로부터 6번째 내지 8번째의 화소는 배경의 성분 및 전경의 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n+1에서 좌측으로부터 15번째 내지 17번째의 화소는 배경의 성분 및 전경의 성분을 포함하며, 커버드 백그라운드 영역에 속한다. 프레임 #n+1에서, 좌측으로부터 9번째 내지 14번째의 화소는 전경의 성분만으로 이루어져, 전경 영역에 속한다.
도 74는 커버드 백그라운드 영역에 속하는 화소로부터 전경의 성분을 분리하는 처리를 설명하는 도면이다. 도 74에서, α1 내지 α18은 프레임 #n에서의 화소의 각각에 대응하는 혼합비이다. 도 74에서, 좌측으로부터 15번째 내지 17번째의 화소는 커버드 백그라운드 영역에 속한다.
프레임 #n의 좌측으로부터 15번째의 화소의 화소값 C15는 수학식 68로 표시된다.
Figure 112003006449741-pct00068
여기서, α15는 프레임 #n의 좌측으로부터 15번째의 화소의 혼합비이다. P15는, 프레임 #n-1의 좌측으로부터 15번째의 화소의 화소값이다.
수학식 68에 기초하여, 프레임 #n의 좌측으로부터 15번째의 화소의 전경의 성분의 합 f15는 수학식 69로 표시된다.
Figure 112003006449741-pct00069
마찬가지로, 프레임 #n의 좌측으로부터 16번째의 화소의 전경의 성분의 합 f16은 수학식 70으로 표시되고, 프레임 #n의 좌측으로부터 17번째의 화소의 전경의 성분의 합 f17은 수학식 71로 표시된다.
Figure 112003006449741-pct00070
Figure 112003006449741-pct00071
이와 같이, 커버드 백그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경의 성분 fc는 수학식 72로 계산된다.
Figure 112003006449741-pct00072
P는 1개 전의 프레임의 대응하는 화소의 화소값이다.
도 75는 언커버드 백그라운드 영역에 속하는 화소로부터 전경의 성분을 분리하는 처리를 설명하는 도면이다. 도 75에서, α1 내지 α18은 프레임 #n에서의 화소의 각각에 대응하는 혼합비이다. 도 75에서, 좌측으로부터 2번째 내지 4번째의 화소는 언커버드 백그라운드 영역에 속한다.
프레임 #n의 좌측으로부터 2번째의 화소의 화소값 C02는 수학식 73으로 표시된다.
Figure 112003006449741-pct00073
여기서, α2는 프레임 #n의 좌측으로부터 2번째의 화소의 혼합비이다. N02는 프레임 #n+1의 좌측으로부터 2번째의 화소의 화소값이다.
수학식 73에 기초하여, 프레임 #n의 좌측으로부터 2번째의 화소의 전경의 성분의 합 F02는 수학식 74로 표시된다.
Figure 112003006449741-pct00074
마찬가지로, 프레임 #n의 좌측으로부터 3번째의 화소의 전경의 성분의 합 f 03은 수학식 75로 표시되고, 프레임 #n의 좌측으로부터 4번째의 화소의 전경의 성분의 합 F04는 수학식 76으로 표시된다.
Figure 112003006449741-pct00075
Figure 112003006449741-pct00076
이와 같이, 언커버드 백그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경의 성분 fu는 수학식 77로 계산된다.
Figure 112003006449741-pct00077
N은 1개 후의 프레임의 대응하는 화소의 화소값이다.
이와 같이, 분리부(601)는 영역 정보에 포함되는 커버드 백그라운드 영역을 나타낸 정보, 및 언커버드 백그라운드 영역을 나타낸 정보, 및 화소마다의 혼합비α에 기초하여, 혼합 영역에 속하는 화소로부터 전경의 성분, 및 배경의 성분을 분리 할 수 있다.
도 76는 이상에서 설명한 처리를 실행하는 분리부(601)의 구성의 일례를 도 시한 블록도이다. 분리부(601)에 입력된 화상은 프레임 메모리(621)에 공급되어, 혼합비 산출부(104)로부터 공급된 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타낸 영역 정보, 및 혼합비α는 분리 처리 블록(622)에 입력된다.
프레임 메모리(621)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(621)는 처리의 대상이 프레임 #n일 때, 프레임 #n의 1개 전의 프레임인 프레임 #n-1, 프레임 #n, 및 프레임 #n의 하나 후의 프레임인 프레임 #n+1을 기억한다.
프레임 메모리(621)는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소를 분리 처리 블록(622)에 공급한다.
분리 처리 블록(622)은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타낸 영역 정보, 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소의 화소값에 도 74 및 도 75를 참조하여 설명한 연산을 적용하고, 프레임 #n의 혼합 영역에 속하는 화소로부터 전경의 성분 및 배경의 성분을 분리하여, 프레임 메모리(623)에 공급한다.
분리 처리 블록(622)은 언커버드 영역 처리부(631), 커버드 영역 처리부(632), 합성부(633), 및 합성부(634)로 구성되어 있다.
언커버드 영역 처리부(631)의 승산기(641)는 혼합비α를, 프레임 메모리(621)로부터 공급된 프레임 #n+1의 화소의 화소값을 곱하여, 스위치(642)에 출력한다. 스위치(642)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n+1의 화소에 대응함)가 언커버드 백그라운드 영역일 때, 닫혀, 승산기(641)로부터 공급된 혼합비α를 곱한 화소값을 연산기(643) 및 합성부(634)에 공급한다. 스위치(642)로부터 출력되는 프레임 #n+1의 화소의 화소값에 혼합비α를 곱한 값은 프레임 #n의 대응하는 화소의 화소값의 배경의 성분과 동일하다.
연산기(643)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(642)로부터 공급된 배경의 성분을 감하여, 전경의 성분을 구한다. 연산기(643)는 언커버드 백그라운드 영역에 속하는 프레임 #n의 화소의 전경의 성분을 합성부(633)에 공급한다.
커버드 영역 처리부(632)의 승산기(651)는 혼합비α를 프레임 메모리(621)로부터 공급된 프레임 #n-1의 화소의 화소값을 곱하여, 스위치(652)에 출력한다. 스위치(652)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n-1의 화소에 대응함)가 커버드 백그라운드 영역일 때, 닫혀, 승산기(651)로부터 공급된 혼합비α를 곱한 화소값을 연산기(653) 및 합성부(634)에 공급한다. 스위치(652)로부터 출력되는 프레임 #n-1의 화소의 화소값에 혼합비α를 곱한 값은, 프레임 #n의 대응하는 화소의 화소값의 배경의 성분과 동일하다.
연산기(653)는, 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(652)로부터 공급된 배경의 성분을 감하여, 전경의 성분을 구한다. 연산기(653)는 커버드 백그라운드 영역에 속하는 프레임 #n의 화소의 전경의 성분을 합성부(633)에 공급한다.
합성부(633)는 프레임 #n의 연산기(643)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 전경의 성분, 및 연산기(653)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 전경의 성분을 합성하여, 프레임 메모리(623)에 공급한 다.
합성부(634)는 프레임 #n의 스위치(642)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 배경의 성분, 및 스위치(652)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 배경의 성분을 합성하여, 프레임 메모리(623)에 공급한다.
프레임 메모리(623)는 분리 처리 블록(622)으로부터 공급된 프레임 #n의 혼합 영역의 화소의 전경의 성분과, 배경의 성분을 각각에 기억한다.
프레임 메모리(623)는 기억하고 있는 프레임 #n의 혼합 영역의 화소의 전경의 성분, 및 기억하고 있는 프레임 #n의 혼합 영역의 화소의 배경의 성분을 출력한다.
특징량인 혼합비α를 이용함으로써, 화소값에 포함되는 전경의 성분과 배경의 성분을 완전하게 분리하는 것이 가능해진다.
합성부(603)는 분리부(601)로부터 출력된 프레임 #n의 혼합 영역의 화소의 전경의 성분과, 전경 영역에 속하는 화소를 합성하여 전경 성분 화상을 생성한다. 합성부(605)는 분리부(601)로부터 출력된 프레임 #n의 혼합 영역의 화소의 배경의 성분과, 배경 영역에 속하는 화소를 합성하여 배경 성분 화상을 생성한다.
도 77A, 도 77B는 도 73의 프레임 #n에 대응하는 전경 성분 화상의 예와 배경 성분 화상의 예를 도시한 도면이다.
도 77A는, 도 73의 프레임 #n에 대응하는 전경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌측으로부터 14번째의 화소는 전경과 배경이 분리되기 전 에, 배경의 성분만으로 이루어져 있었으므로, 화소값이 0이 된다.
좌측으로부터 2번째 내지 4번째의 화소는 전경과 배경과가 분리되기 전에, 언커버드 백그라운드 영역에 속하고, 배경의 성분이 0이 되어, 전경의 성분이 그대로 남겨져 있다. 좌측으로부터 11번째 내지 13번째의 화소는 전경과 배경이 분리되기 전에 커버드 백그라운드 영역에 속하고, 배경의 성분이 0이 되어, 전경의 성분이 그대로 남겨져 있다. 좌측으로부터 5번째 내지 10번째의 화소는 전경의 성분만으로 이루어지므로, 그대로 남겨진다.
도 77B는, 도 73의 프레임 #n에 대응하는 배경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌측으로부터 14번째의 화소는 전경과 배경과가 분리되기 전에 배경의 성분만으로 이루어져 있었으므로, 그대로 남겨진다.
좌측으로부터 2번째 내지 4번째의 화소는 전경과 배경과가 분리되기 전에, 언커버드 백그라운드 영역에 속하고, 전경의 성분이 0이 되어, 배경의 성분이 그대로 남겨져 있다. 좌측으로부터 11번째 내지 13번째의 화소는 전경과 배경이 분리되기 전에, 커버드 백그라운드 영역에 속하고, 전경의 성분이 0이 되어, 배경의 성분이 그대로 남겨져 있다. 좌측으로부터 5번째 내지 10번째의 화소는 전경과 배경이 분리되기 전에 전경의 성분만으로 이루어져 있었으므로, 화소값이 0이 된다.
이어서, 도 78에 도시한 흐름도를 참조하여, 전경 배경 분리부(105)에 의한 전경과 배경과의 분리 처리를 설명한다. 단계 S601에서, 분리부(601)의 프레임 메모리(621)는 입력 화상을 취득하여, 전경과 배경과의 분리의 대상이 되는 프레임 #n을 그 전의 프레임 #n-1 및 그 후의 프레임 #n+1과 같이 기억한다.
단계 S602에서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 영역 정보를 취득한다. 단계 S603에서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 혼합비α를 취득한다.
단계 S604에서 언커버드 영역 처리부(631)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 배경의 성분을 추출한다.
단계 S605에서, 언커버드 영역 처리부(631)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 전경의 성분을 추출한다.
단계 S606에서, 커버드 영역 처리부(632)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 배경의 성분을 추출한다.
단계 S607에서 커버드 영역 처리부(632)는 영역 정보 및 혼합비α에 기초하여, 프레임 메모리(621)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 전경의 성분을 추출한다.
단계 S608에서, 합성부(633)는 단계 S605 처리로 추출된 언커버드 백그라운드 영역에 속하는 화소의 전경의 성분과, 단계 S607 처리로 추출된 커버드 백그라운드 영역에 속하는 화소의 전경의 성분을 합성한다. 합성된 전경의 성분은 합성부(603)에 공급된다. 또한, 합성부(603)는 스위치(602)를 통하여 공급된 전경 영역에 속하는 화소와, 분리부(601)로부터 공급된 전경의 성분을 합성하여, 전경 성 분 화상을 생성한다.
단계 S609에서, 합성부(634)는 단계 S604 처리로 추출된 언커버드 백그라운드 영역에 속하는 화소의 배경의 성분과, 단계 S606 처리로 추출된 커버드 백그라운드 영역에 속하는 화소의 배경의 성분을 합성한다. 합성된 배경의 성분은, 합성부(605)에 공급된다. 또한, 합성부(605)는 스위치(604)를 통하여 공급된 배경 영역에 속하는 화소와, 분리부(601)로부터 공급된 배경의 성분을 합성하여, 배경 성분 화상을 생성한다.
단계 S610에서, 합성부(603)는 전경 성분 화상을 출력한다. 단계 S611에서 합성부(605)는 배경 성분 화상을 출력하여, 처리는 종료한다.
이와 같이, 전경 배경 분리부(105)는 영역 정보 및 혼합비α에 기초하여, 입력 화상으로부터 전경의 성분과 배경의 성분을 분리하여, 전경의 성분만으로 이루어지는 전경 성분 화상, 및 배경의 성분만으로 이루어지는 배경 성분 화상을 출력할 수 있다.
이어서, 전경 성분 화상으로부터의 움직임 불선명의 제거에 대하여 설명한다.
도 79는 움직임 불선명이 제거부(106)의 구성의 일례를 도시한 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보, 및 영역 특정부(103)로부터 공급된 영역 정보는 처리 단위 결정부(801) 및 모델화부(802)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 가산부(804)에 공급된다.
처리 단위 결정부(801)는 움직임 벡터와 그 위치 정보, 및 영역 정보에 기초하여, 움직임 벡터와 함께, 생성한 처리 단위를 모델화부(802)에 공급한다. 처리 단위 결정부(801)는 생성한 처리 단위를 가산부(804)에 공급한다.
처리 단위 결정부(801)가 생성하는 처리 단위A는 도 80에 예를 나타낸 바와 같이, 전경 성분 화상의 커버드 백그라운드 영역에 대응하는 화소로부터 시작하고, 언커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 배열되는 연속하는 화소, 또는 언커버드 백그라운드 영역에 대응하는 화소로부터 시작하고, 커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 배열되는 연속하는 화소를 나타낸다. 처리 단위A는, 예를 들면 좌측 상부점(처리 단위로 지정되는 화소로서, 화상 상에서 가장 좌측 또는 가장 상측에 위치하는 화소의 위치) 및 우측 하부점 2개의 데이터로 이루어진다.
모델화부(802)는 움직임 벡터 및 입력된 처리 단위A에 기초하여, 모델화를 실행한다. 보다 구체적으로는, 예를 들면 모델화부(802)는 처리 단위A에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할수, 및 화소마다의 전경의 성분의 수에 대응하는 복수의 모델을 미리 기억해 두고, 처리 단위A, 및 화소값의 시간 방향의 가상 분할 수에 기초하여, 도 81에 도시한 바와 같은 화소값과 전경의 성분과의 대응을 지정하는 모델을 선택하도록 해도 된다.
예를 들면, 처리 단위A에 대응하는 화소의 수가 12로서 셔터 시간 내의 움직임량 v가 5일 때에는 모델화부(802)는 가상 분할수를 5로 하고, 가장 좌측으로 위치하는 화소가 1개의 전경의 성분을 포함하고, 좌측으로부터 2번째의 화소가 2개의 전경의 성분을 포함하고, 좌측으로부터 3번째의 화소가 3개의 전경의 성분을 포함하고, 좌측으로부터 4번째의 화소가 4개의 전경의 성분을 포함하고, 좌측으로부터 5번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 6번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 7번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 8번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 9번째의 화소가 4개의 전경의 성분을 포함하고, 좌측으로부터 10번째의 화소가 3개의 전경의 성분을 포함하고, 좌측으로부터 11번째의 화소가 2개의 전경의 성분을 포함하고, 좌측으로부터 12번째의 화소가 1개의 전경의 성분을 포함하여, 전체적으로 8개의 전경의 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(802)는 미리 기억하고 있는 모델로부터 선택하는 것은 아니며, 움직임 벡터, 및 처리 단위A가 공급되었을 때, 움직임 벡터, 및 처리 단위에 기초하여, 모델을 생성하도록 해도 된다.
모델화부(802)는 선택한 모델을 방정식 생성부(803)에 공급한다.
방정식 생성부(803)는 모델화부(802)로부터 공급된 모델에 기초하여, 방정식을 생성한다. 도 81에 도시한 전경 성분 화상의 모델을 참조하여, 전경의 성분의 수가 8이고, 처리 단위A에 대응하는 화소의 수가 12이고, 움직임량 v가 5이고, 가상 분할수가 5일 때의 방정식 생성부(803)가 생성하는 방정식에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간/v에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소값 C01 내지 C12와의 관계는 수학식 78 내지 수학식 89로 표시된다.
Figure 112003006449741-pct00078
Figure 112003006449741-pct00079
Figure 112003006449741-pct00080
Figure 112003006449741-pct00081
Figure 112003006449741-pct00082
Figure 112003006449741-pct00083
Figure 112003006449741-pct00084
Figure 112003006449741-pct00085
Figure 112003006449741-pct00086
Figure 112003006449741-pct00087
Figure 112003006449741-pct00088
Figure 112003006449741-pct00089
방정식 생성부(803)는 생성한 방정식을 변형하여 방정식을 생성한다. 방정식 생성부(803)가 생성하는 방정식을 수학식 90 내지 수학식 101에 나타낸다.
Figure 112003006449741-pct00090
Figure 112003006449741-pct00091
Figure 112003006449741-pct00092
Figure 112003006449741-pct00093
Figure 112003006449741-pct00094
Figure 112003006449741-pct00095
Figure 112003006449741-pct00096
Figure 112003006449741-pct00097
Figure 112003006449741-pct00098
Figure 112003006449741-pct00099
Figure 112003006449741-pct00100
Figure 112003006449741-pct00101
수학식 90 내지 수학식 101은 수학식 102로서 나타낼 수도 있다.
Figure 112003006449741-pct00102
수학식 102에서, j는 화소의 위치를 나타낸다. 이 예에서, j는 1 내지 12 중 어느 1개의 값을 갖는다. 또, i는 전경값의 위치를 나타낸다. 이 예에서, i는 1 내지 8 중 어느 1개의 값을 갖는다. aij는 i 및 j의 값에 대응하여, 0 또는 1의 값을 갖는다.
오차를 고려하여 표현하면, 수학식 102는 수학식 103과 같이 나타낼 수 있다.
Figure 112003006449741-pct00103
수학식 103에서, ej는 주목 화소 Cj에 포함되는 오차이다.
수학식 103은 수학식 104로 바꿔 쓸 수 있다.
Figure 112003006449741-pct00104
여기서, 최소 제곱법을 적용하기 위해, 오차의 제곱합 E를 수학식 105에 나타낸 바와 같이 정의한다.
Figure 112003006449741-pct00105
오차가 최소가 되기 위해서는, 오차의 제곱합 E에 대한 변수 Fk에 의한 편미분의 값이 0이 된다. 수학식 106을 충족하도록 Fk를 구한다.
Figure 112003006449741-pct00106
수학식 106에서 움직임량 v는 고정값이므로, 수학식 107을 유도할 수 있다.
Figure 112003006449741-pct00107
수학식 107을 전개하여, 이항하면, 수학식 108을 얻는다.
Figure 112003006449741-pct00108
수학식 108의 k에 1 내지 8의 정수 중 어느 1개를 대입하여 얻어지는 8개의 식에 전개한다. 얻어진 8개의 식을 행렬에 의해 1개의 식으로 나타낼 수 있다. 이 식을 정규 방정식이라고 한다.
이러한 최소 제곱법에 기초한, 방정식 생성부(803)가 생성하는 정규 방정식의 예를 수학식 109에 나타낸다.
Figure 112003006449741-pct00109
수학식 109를 A·F=v·C로 나타내면, C, A, v가 기지이며, F는 미지이다. 또한, A, v는 모델화의 시점에서 기지이지만, C는 가산 동작에서 화소값을 입력함으로써 기지로 된다.
최소 제곱법에 기초한 정규 방정식에 의해 전경 성분을 산출함으로써, 화소 C에 포함되어 있는 오차를 분산시킬 수 있다.
방정식 생성부(803)는 이와 같이 생성된 정규 방정식을 가산부(804)에 공급한다.
가산부(804)는 처리 단위 결정부(801)로부터 공급된 처리 단위에 기초하여, 전경 성분 화상에 포함되는 화소값 C를 방정식 생성부(803)로부터 공급된 행렬의 식에 설정한다. 가산부(804)는 화소값 C를 설정한 행렬을 연산부(805)에 공급한다.
연산부(805)는 소거법(Gauss-Jordan의 소거법) 등의 해법에 기초한 처리에 의해, 움직임 불선명이 제거된 전경 성분 Fi/v를 산출하고, 움직임 불선명이 제거된 전경의 화소값인 0 내지 8의 정수 중 어느 한 i에 대응하는 Fi를 산출하여, 도 82에 예를 나타내는 움직임 불선명이 제거된 화소값인 Fi로 이루어지는, 움직임 불선명이 제거된 전경 성분 화상을 출력한다.
또, 도 82에 도시한 움직임 불선명이 제거된 전경 성분 화상에서, C03 내지 C10 각각에 F01 내지 F08 각각이 설정되어 있는 것은 화면에 대한 전경 성분 화상의 위치를 변화시키지 않기 때문이며, 임의의 위치에 대응시킬 수 있다.
움직임 불선명 부가부(806)는 움직임량 v와는 다른 값의 움직임 불선명 조정량 v', 예를 들면 움직임량 v의 반의 값의 움직임 불선명 조정량 v'나, 움직임량 v와 무관한 값의 움직임 불선명 조정량 v'을 제공함으로써, 움직임 불선명의 량을 조정할 수 있다. 예를 들면, 도 83에 도시한 바와 같이 움직임 불선명 부가부(806)는 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'로 제함으로써, 전경 성분 Fi/v'을 산출하고, 전경 성분 Fi/v'의 합을 산출하며, 움직임 불선명량이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'이 3일 때, 화소값 C02는 (FO1)/v'이 되고, 화소값 C03은 (FO1+FO2)/v'이 되며, 화소값 C04는 (F01+F02+F03)/v'이 되고, 화소값 C05는 (F02+F03+F04)/v'이 된다.
움직임 불선명 부가부(806)는 움직임 불선명량을 조정한 전경 성분 화상을 선택부(807)에 공급한다.
선택부(807)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 연산부(805)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(806)로부터 공급된 움직임 불선명량이 조정된 전경 성분 화상 중 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이, 움직임 불선명 조정부(106)는 선택 신호 및 움직임 불선명 조정량 v'을 기초로, 움직임 불선명량을 조정할 수 있다.
또한, 예를 들면 도 84에 도시한 바와 같이, 처리 단위에 대응하는 화소의 수가 8이고, 움직임량 v가 4일 때, 움직임 불선명이 제거부(106)는 수학식 110에 도시한 행렬의 식을 생성한다.
Figure 112003006449741-pct00110
움직임 불선명이 제거부(106)는, 이와 같이 처리 단위의 길이에 대응한 수의 식을 성립하여, 움직임 불선명량이 조정된 화소값인 Fi를 산출한다. 마찬가지로, 예를 들면, 처리 단위에 포함되는 화소의 수가 100일 때, 100개의 화소에 대응하는 식을 생성하여, Fi를 산출한다.
도 85는 움직임 불선명 조정부(106)의 다른 구성을 도시한 도면이다. 도 79에 도시한 경우와 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(821)는 선택 신호를 기초로, 입력된 움직임 벡터와 그 위치 신호를 그대로 처리 단위 결정부(801) 및 모델화부(802)에 공급하거나, 또는 움직임 벡터의 크기를 움직임 불선명 조정량 v'로 치환하여, 그 크기가 움직임 불선명 조정량 v'로 치환된 움직임 벡터와 그 위치 신호를 처리 단위 결정부(801) 및 모델화부(802)에 공급한다.
이와 같이 함으로써, 도 85의 움직임 불선명 조정부(106) 처리 단위 결정부(801) 내지 연산부(805)는 움직임량 v와 움직임 불선명 조정량 v'과의 값에 대응하여, 움직임 불선명량을 조정할 수 있다. 예를 들면, 움직임량 v가 5이고, 움직임 불선명 조정량 v'이 3일 때, 도 85의 움직임 불선명 조정부(106) 처리 단위 결정부(801) 내지 연산부(805)는 도 81에 도시한 움직임량 v가 5인 전경 성분 화상에 대하여, 3인 움직임 불선명 조정량 v' 대응하는 도 83에 도시한 바와 같은 모델에 따라, 연산을 실행하고, (움직임량 v)/(움직임 불선명 조정량 v')= 5/3, 즉 거의 1.7의 움직임량 v에 따른 움직임 불선명을 포함하는 화상을 산출한다. 또, 이 경우, 산출되는 화상은 3인 움직임량 v에 대응한 움직임 불선명을 포함하는 것은 아니므로, 움직임 불선명 부가부(806)의 결과와는 움직임량 v와 움직임 불선명 조정량 v'의 관계의 사정이 상이한 점에 주의가 필요하다.
이상과 같이, 움직임 불선명이 제거부(106)는 움직임량 v 및 처리 단위에 대응하여, 식을 생성하고, 생성한 식에 전경 성분 화상의 화소값을 설정하여, 움직임 불선명이 제거된 전경 성분 화상을 산출한다.
이어서, 도 86의 흐름도를 참조하여, 움직임 불선명이 제거부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 제거 처리를 설명한다.
단계 S801에서 움직임 불선명이 제거부(106) 처리 단위 결정부(801)는 움직임 벡터 및 영역 정보에 기초하여, 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(802)에 공급한다.
단계 S802에서 움직임 불선명이 제거부(106)의 모델화부(802)는, 움직임량 v 및 처리 단위에 대응하여, 모델의 선택이나 생성을 행한다. 단계 S803에서 방정식 생성부(803)는 선택된 모델에 기초하여 정규 방정식을 작성한다.
단계 S804에서, 가산부(804)는 작성된 정규 방정식에 전경 성분 화상의 화소값을 설정한다. 단계 S805에서, 가산부(804)는 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행하는지의 여부를 판정하여, 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행하고 있지 않다고 판정된 경우, 단계 S804로 되돌아가, 정규 방정식으로의 화소값의 설정 처리를 반복한다.
단계 S805에서 처리 단위의 모든 화소의 화소값의 설정을 행한다고 판정된 경우, 단계 S806로 진행하여, 연산부(805)는 가산부(804)로부터 공급된 화소값이 설정된 정규 방정식에 기초하여, 움직임 불선명량을 조정한 전경의 화소값을 산출하여, 처리는 종료한다.
이와 같이, 움직임 불선명이 제거부(106)는 움직임 벡터 및 영역 정보에 기초하여, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명을 제거할 수 있다.
즉, 샘플 데이터인 화소값에 포함되는 움직임 불선명을 제거할 수 있다.
도 87은 움직임 불선명 조정부(106)의 구성의 다른 일례를 도시한 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보는 처리 단위 결정부(901) 및 보정부(905)에 공급되고, 영역 특정부(103)로부터 공급된 영역 정보는 처리 단위 결정부(901)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 연산부(904)에 공급된다.
처리 단위 결정부(901)는 움직임 벡터와 그 위치 정보, 및 영역 정보를 기초로, 처리 단위를 생성하여, 움직임 벡터와 함께 생성한 처리 단위를 모델화부(902)에 공급한다.
모델화부(902)는 움직임 벡터 및 입력된 처리 단위를 기초로, 모델화를 실행한다. 보다 구체적으로는, 예를 들면 모델화부(902)는 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할수, 및 화소마다의 전경의 성분의 수에 대응하는 복수의 모델을 미리 기억해 두고, 처리 단위, 및 화소값의 시간 방향의 가상 분할수를 기초로, 도 88에 도시한 바와 같은 화소값과 전경의 성분과의 대응을 지정하는 모델을 선택한다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 움직임량 v가 5일 때에는 모델화부(902)는 가상 분할수를 5로 하고, 가장 좌측에 위치하는 화소가 1개의 전경의 성분을 포함하고, 좌측으로부터 2번째의 화소가 2개의 전경의 성분을 포함하며, 좌측으로부터 3번째의 화소가 3개의 전경의 성분을 포함하고, 좌측으로부터 4번째의 화소가 4개의 전경의 성분을 포함하고, 좌측으로부터 5번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 6번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 7번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 8번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 9번째의 화소가 4개의 전경의 성분을 포함하고, 좌측으로부터 10번째의 화소가 3개의 전경의 성분을 포함하고, 좌측으로부터 11번째의 화소가 2개의 전경의 성분을 포함하고, 좌측으로부터 12번째의 화소가 1개의 전경의 성분을 포함하여, 전체적으로 8개의 전경의 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(902)는 미리 기억하고 있는 모델로부터 선택하는 것은 아니며, 움직임 벡터, 및 처리 단위가 공급되었을 때, 움직임 벡터, 및 처리 단위를 기초로, 모델을 생성하도록 해도 된다.
방정식 생성부(903)는 모델화부(902)로부터 공급된 모델을 기초로, 방정식을 생성한다.
도 88 내지 도 90에 도시한 전경 성분 화상의 모델을 참조하여, 전경의 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5일 때의 방정식 생성부(903)가 생성하는 방정식의 예에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간 /v에 대응하는 전경 성분이 F001/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소값 C01 내지 C12와의 관계는 상술한 바와 같이 수학식 78 내지 수학식 89로 표시된다.
화소값 C12 및 C11에 주목하면, 화소값 C12는 수학식 111에 도시한 바와 같이, 전경의 성분 F08/v만을 포함하고, 화소값 C11은 전경의 성분 F08/v 및 전경의 성분 F07/v의 곱의 합으로 이루어진다. 따라서, 전경의 성분 F07/v는 수학식 112로 구할 수 있다.
F08/v=C12
F07/v=C11-C12
마찬가지로, 화소값 C10 내지 C01에 포함되는 전경의 성분을 고려하면, 전경의 성분 F06/v 내지 F01/v는 수학식 113 내지 수학식 118에 의해 구할 수 있다.
F06/v=C10-C11
F05/v=C09-C10
F04/v=C08-C09
F03/v=C07-C08+C12
F02/v=C06-C07+C11-C12
F01/v=C05-C06+C10-C11
방정식 생성부(903)는 수학식 111 내지 수학식 118에 예를 나타낸, 화소값의 차에 의해 전경의 성분을 산출하기 위한 방정식을 생성한다. 방정식 생성부(903)는 생성한 방정식을 연산부(904)에 공급한다.
연산부(904)는 방정식 생성부(903)로부터 공급된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값을 설정한 방정식을 기초로, 전경의 성분을 산출한다. 연산부(904)는, 예를 들면 수학식 111 내지 수학식 118이 방정식 생성부(903)로부터 공급되었을 때, 수학식 111 내지 수학식 118에 화소값 C05 내지 C12를 설정한다.
연산부(904)는 화소값이 설정된 식에 기초하여, 전경의 성분을 산출한다. 예를 들면, 연산부(904)는 화소값 C05 내지 C12가 설정된 수학식 111 내지 수학식 118에 기초한 연산에 의해, 도 89에 도시한 바와 같이, 전경의 성분 F01/v 내지 F08/v를 산출한다. 연산부(904)는 전경의 성분 F01/v 내지 F08/v를 보정부(905)에 공급한다.
보정부(905)는 연산부(904)로부터 공급된 전경의 성분에, 처리 단위 결정부(901)로부터 공급된 움직임 벡터에 포함되는 움직임량 v을 곱하고, 움직임 불선명을 제거한 전경의 화소값을 산출한다. 예를 들면, 보정부(905)는, 연산부(904)로부터 공급된 전경의 성분 F01/v 내지 F08/v가 공급되었을 때, 전경의 성분 F01/v 내지 F08/v 각각에 5인 움직임량 v를 곱하여, 도 90에 도시한 바와 같이, 움직임 불선명을 제거한 전경의 화소값 F01 내지 F08을 산출한다.
보정부(905)는 이상과 같이 산출된 움직임 불선명을 제거한 전경의 화소값으로 이루어지는 전경 성분 화상을 움직임 불선명 부가부(906) 및 선택부(907)에 공급한다.
움직임 불선명 부가부(906)는 움직임량 v와는 다른 값의 움직임 불선명 조정량 v', 예를 들면, 움직임량 v의 반의 값의 움직임 불선명 조정량 v', 움직임량 v와 무관한 값의 움직임 불선명 조정량 v'로, 움직임 불선명량을 조정할 수 있다. 예를 들면, 도 83에 도시한 바와 같이, 움직임 불선명 부가부(906)는 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'로 제함으로써, 전경 성분 Fi/v'를 산출하고, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명량이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'가 3일 때, 화소값 C02는 (F01)/v'가 되고, 화소값 C03은 (F01+F02)/v'이 되고, 화소값 C04는 (F0HF02+F03)/v'이 되고, 화소값 C05는 (F02+F03+F04)/v'이 된다.
움직임 불선명 부가부(906)는 움직임 불선명량을 조정한 전경 성분 화상을 선택부(907)에 공급한다.
선택부(907)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 보 정부(905)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(906)로부터 공급된 움직임 불선명량이 조정된 전경 성분 화상의 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이, 움직임 불선명 조정부(106)는 선택 신호 및 움직임 불선명 조정량 v'을 기초로, 움직임 불선명량을 조정할 수 있다.
이어서, 도 87에 구성을 도시한 움직임 불선명 조정부(106)에 의한 전경의 움직임 불선명량의 조정 처리를 도 91의 흐름도를 참조하여 설명한다.
단계 S901에서 움직임 불선명 조정부(106) 처리 단위 결정부(901)는 움직임 벡터 및 영역 정보를 기초로, 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(902) 및 보정부(905)에 공급한다.
단계 S902에서, 움직임 불선명 조정부(106)의 모델화부(902)는 움직임량 v 및 처리 단위에 대응하여, 모델의 선택이나 생성을 행한다. 단계 S903에서 방정식 생성부(903)는 선택 또는 생성된 모델을 기초로, 전경 성분 화상의 화소값의 차에 의해 전경의 성분을 산출하기 위한 방정식을 생성한다.
단계 S904에서, 연산부(904)는 작성된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값이 설정된 방정식을 기초로, 화소값의 차분으로부터 전경의 성분을 추출한다. 단계 S905에서, 연산부(904)는 처리 단위에 대응하는 모든 전경의 성분을 추출했는지의 여부를 판정하여, 처리 단위에 대응하는 모든 전경의 성분을 추출하지 않다고 판정된 경우, 단계 S904에 되돌아가고, 전경의 성분을 추출 처리를 반복한다.
단계 S905에서, 처리 단위에 대응하는 모든 전경의 성분을 추출하였다고 판정된 경우, 단계 S906에 진행하고, 보정부(905)는 움직임량 v를 기초로, 연산부(904)로부터 공급된 전경의 성분 F01/v 내지 F08/v 각각을 보정하여, 움직임 불선명을 제거한 전경의 화소값 F01 내지 F08을 산출한다.
단계 S907에서, 움직임 불선명 부가부(906)는 움직임 불선명량을 조정한 전경의 화소값을 산출하고, 선택부(907)는 움직임 불선명이 제거된 화상 또는 움직임 불선명량이 조정된 화상 중 어느 하나를 선택하고, 선택한 화상을 출력하여, 처리는 종료한다.
이와 같이, 도 87에 구성을 도시한 움직임 불선명 조정부(106)는 보다 간단한 연산으로, 보다 신속하게, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명을 조정할 수 있다.
위너 필터 등 종래의 움직임 불선명을 부분적으로 제거하는 수법이, 이상 상태에서는 효과가 인정되지만, 양자화되어, 노이즈를 포함한 실제의 화상에 대하여 충분한 효과를 얻을 수 없게 되는데 대하여, 도 87에 구성을 도시한 움직임 불선명 조정부(106)에서도 양자화되어, 노이즈를 포함한 실제의 화상에 대해서도 충분한 효과가 인정되어, 정밀도가 좋은 움직임 불선명의 제거가 가능해진다.
이상과 같이, 도 9에 구성을 도시한 분리부(91)는 입력 화상에 포함되는 움직임 불선명량을 조정할 수 있다.
도 92는 분리부(91)의 기능의 다른 구성을 도시한 블록도이다.
도 9에 도시한 부분과 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명 은 적절하게 생략한다.
영역 특정부(103)는 영역 정보를 혼합비 산출부(104) 및 합성부(1001)에 공급한다.
혼합비 산출부(104)는 혼합비α를 전경 배경 분리부(105) 및 합성부(1001)에 공급한다.
전경 배경 분리부(105)는 전경 성분 화상을 합성부(1001)에 공급한다.
합성부(1001)는 혼합비 산출부(104)로부터 공급된 혼합비α, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 임의의 배경 화상과, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상을 합성하여, 임의의 배경 화상과 전경 성분 화상이 합성된 합성 화상을 출력한다.
도 93은 합성부(1001)의 구성을 도시한 도면이다. 배경 성분 생성부(1021)는 혼합비α 및 임의의 배경 화상을 기초로, 배경 성분 화상을 생성하여, 혼합 영역 화상 합성부(1022)에 공급한다.
혼합 영역 화상 합성부(1022)는 배경 성분 생성부(1021)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써, 혼합 영역 합성 화상을 생성하고, 생성한 혼합 영역 합성 화상을 화상 합성부(1023)에 공급한다.
화상 합성부(1023)는 영역 정보를 기초로, 전경 성분 화상, 혼합 영역 화상 합성부(1022)로부터 공급된 혼합 영역 합성 화상, 및 임의의 배경 화상을 합성하여, 합성 화상을 생성하여 출력한다.
이와 같이, 합성부(1001)는 전경 성분 화상을 임의의 배경 화상에 합성할 수 있다.
특징량인 혼합비α를 기초로 전경 성분 화상을 임의의 배경 화상과 합성하여 얻어진 화상은 단순히 화소를 합성한 화상과 비교하여, 보다 자연스러운 것으로 된다.
도 94는 움직임 불선명량을 조정하는 분리부(91)의 기능의 또 다른 구성을 도시한 블록도이다. 도 9에 도시한 분리부(91)가 영역 특정과 혼합비α의 산출을 순서대로 행하는데 대하여, 도 94에 도시한 분리부(91)는 영역 특정과 혼합비α의 산출을 병행하여 행한다.
도 9의 블록도에 도시한 기능과 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
입력 화상은 혼합비 산출부(1101), 전경 배경 분리부(1102), 영역 특정부(103), 및 오브젝트 추출부(101)에 공급된다.
혼합비 산출부(1101)는 입력 화상을 기초로, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를, 입력 화상에 포함되는 화소 각각에 대하여 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를 전경 배경 분리부(1102)에 공급한다.
도 95는 혼합비 산출부(1101)의 구성의 일례를 도시한 블록도이다.
도 95에 도시한 추정 혼합비 처리부(401)는 도 54에 도시한 추정 혼합비 처 리부(401)와 동일하다. 도 95에 도시한 추정 혼합비 처리부(402)는 도 54에 도시한 추정 혼합비 처리부(402)와 동일하다
추정 혼합비 처리부(401)는 입력 화상을 기초로, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
추정 혼합비 처리부(402)는 입력 화상을 기초로, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
전경 배경 분리부(1102)는 혼합비 산출부(1101)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 입력 화상으로부터 전경 성분 화상을 생성하고, 생성한 전경 성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다.
도 96은 전경 배경 분리부(1102)의 구성의 일례를 나타내는 블록도이다.
도 71에 도시한 전경 배경 분리부(105)와 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(1121)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비 중 어느 한쪽을 선택하고, 선택한 추정 혼합비를 혼합비α로 하여 분 리부(601)에 공급한다.
분리부(601)는 선택부(1121)로부터 공급된 혼합비α 및 영역 정보를 기초로, 혼합 영역에 속하는 화소의 화소값으로부터 전경의 성분 및 배경의 성분을 추출하고, 추출한 전경의 성분을 합성부(603)에 공급함과 함께, 배경의 성분을 합성부(605)에 공급한다.
분리부(601)는 도 76에 도시한 구성과 동일한 구성으로 할 수 있다.
합성부(603)는 전경 성분 화상을 합성하여 출력한다. 합성부(605)는 배경 성분 화상을 합성하여 출력한다.
도 94에 도시한 움직임 불선명 조정부(106)는 도 9에 도시한 경우 와 마찬가지의 구성으로 할 수 있으며, 영역 정보 및 움직임 벡터를 기초로, 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상에 포함되는 움직임 불선명량을 조정하여, 움직임 불선명량이 조정된 전경 성분 화상을 출력한다.
도 94에 도시한 선택부(107)는, 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명량이 조정된 전경 성분 화상 중 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이, 도 94에 구성을 도시한 분리부(91)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상에 대하여, 그 화상에 포함되는 움직임 불선명량을 조정하여 출력할 수 있다. 도 94에 구성을 도시한 분리부(91)는 제1 실시예와 같이 매립된 정보인 혼합비α를 산출하여, 산출한 혼합비α를 출력할 수 있다.
도 97은 전경 성분 화상을 임의의 배경 화상과 합성하는 분리부(91)의 기능의 다른 구성을 도시한 블록도이다. 도 92에 도시한 분리부(91)가 영역 특정과 혼합비α의 산출을 직렬로 행하는데 대하여, 도 97에 도시한 분리부(91)는 영역 특정과 혼합비α의 산출을 병렬로 행한다.
도 94의 블록도에 도시한 기능과 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
도 97에 도시한 혼합비 산출부(1101)는 입력 화상을 기초로, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를 입력 화상에 포함되는 화소의 각각에 대하여 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비를 전경 배경 분리부(1102) 및 합성부(1201)에 공급한다.
도 97에 도시한 전경 배경 분리부(1102)는 혼합비 산출부(1101)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 입력 화상으로부터 전경 성분 화상을 생성하고, 생성한 전경 성분 화상을 합성부(1201)에 공급한다.
합성부(1201)는 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 임의의 배경 화상과, 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상을 합성하여, 임의의 배경 화상과 전경 성분 화상이 합성된 합성 화상을 출력한다.
도 98은 합성부(1201)의 구성을 도시한 도면이다. 도 93의 블록도에 도시하는 기능과 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(1221)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합비 산출부(1101)로부터 공급된, 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우의 추정 혼합비 중 어느 한쪽을 선택하고, 선택한 추정 혼합비를 혼합비α로 하여 배경 성분 생성부(1021)에 공급한다.
도 98에 도시한 배경 성분 생성부(1021)는 선택부(1221)로부터 공급된 혼합비α 및 임의의 배경 화상을 기초로, 배경 성분 화상을 생성하여, 혼합 영역 화상 합성부(1022)에 공급한다.
도 98에 도시한 혼합 영역 화상 합성부(1022)는 배경 성분 생성부(1021)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써, 혼합 영역 합성 화상을 생성하고, 생성한 혼합 영역 합성 화상을 화상 합성부(1023)에 공급한다.
화상 합성부(1023)는 영역 정보를 기초로, 전경 성분 화상, 혼합 영역 화상 합성부(1022)로부터 공급된 혼합 영역 합성 화상, 및 임의의 배경 화상을 합성하여, 합성 화상을 생성하여 출력한다.
이와 같이, 합성부(1201)는 전경 성분 화상을 임의의 배경 화상에 합성할 수 있다.
또, 혼합비α는 화소값에 포함되는 배경 성분의 비율로서 설명하였지만, 화소값에 포함되는 전경의 성분의 비율로 해도 된다.
또한, 전경이 되는 오브젝트의 움직임의 방향은 좌측으로부터 우측으로 하여 설명했지만, 그 방향으로 한정되지 않는 것은 물론이다.
이상에서는, 3차원 공간과 시간 축 정보를 갖는 현실 공간의 화상을 비디오 카메라를 이용하여 2차원 공간과 시간 축 정보를 갖는 시공간으로의 사영을 행한 경우를 예로 했지만, 본 발명은 이 예에 한하지 않고, 보다 많은 제1 차원의 제1 정보를, 보다 적은 제2 차원의 제2 정보에 사영한 경우에, 그 사영에 의해 발생하는 왜곡을 보정하거나, 유의 정보를 추출하거나, 또는 보다 자연스럽게 화상을 합성하는 경우에 적응하는 것이 가능하다.
또, 센서는 CCD에 한하지 않고, 고체 촬상 소자인, 예를 들면 BBD (Bucket Brigade Device), CID(Charge Injection Device), CPD(Charge Priming Device), 또는 CMOS(Complementary Mental Oxide Semiconductor) 센서이어도 되며, 또한 검출 소자가 매트릭스 형상으로 배치되어 있는 센서에 한하지 않고, 검출 소자가 1열로 배열되어 있는 센서라도 무방하다.
이어서, 도 99의 흐름도를 참조하여, 카메라 단말 장치(2)가 리얼타임으로 촬상한 화상의 전경 성분 화상에 지정된 배경 성분 화상을 합성한 화상을 출력하는 합성 서비스 처리에 대하여 설명한다. 또한, 카메라 단말 장치(2)는 사용자에게 대출한 것으로 하고, 분리 처리와 합성 처리 각각에 과금되는 경우의 예에 대하여 설명한다.
단계 S1001에서, 셔터 버튼이 눌러졌는지의 여부가 판정되고, 셔터 버튼이 눌러질 때까지 이 처리가 반복되며, 셔터 버튼이 눌려지면, 단계 S1002에서 신호 제어부(71)는 촬상부(74)로부터 입력되는 화상을 배경 성분 화상과 전경 성분 화상으로 분리하는 처리를 실행한다. 이 화상 분리 처리는, 상술한 분리부(91)에 의해 실행되는 일련 처리로서, 즉 도 35의 흐름도를 참조하여 설명한 영역 특정 처리, 도 63을 참조하여 설명한 혼합비의 산출 처리, 도 78의 흐름도를 참조하여 설명한 전경과 배경의 분리 처리, 및 도 86의 흐름도를 참조하여 설명한 전경 성분 화상의 움직임 불선명량의 조정 처리에 의해 실행되는, 입력 화상을 전경 성분 화상과 배경 성분 화상으로 분리하는 처리이다. 또한, 여기 처리에 대해서는, 상술한 바와 마찬가지이므로, 그 설명은 생략한다.
단계 S1003에서, 과금 처리부(75)는 네트워크(1)를 통하여 과금 서버(5)에 대하여 과금 처리를 실행한다. 또한, 동시에 단계 S1021에서, 과금 서버(5)는 카메라 단말 장치(2)에 대하여 과금 처리를 실행한다.
여기서, 도 100의 흐름도를 참조하여, 상술한 과금 처리를 설명한다. 또한, 과금 처리에서, 카메라 단말 장치(2)를 빌린 사용자는, 예를 들면 사용 개시 전에 미리 자신의 계좌 ID(크레디트 카드의 카드 번호 등이라도 됨)와 인증 정보를 입력한다.
단계 S1101에서, 도 101에 도시한 바와 같이, 과금 처리부(75)는 처리 내용(서비스)를 지정하여 사용자(화상의 분리를 의뢰하는 사용자)를 식별하는 ID 정보, 인증 정보(패스워드 등), 이용 금액, 및 자체에 기억되어 있는 ID(제공자를 식별하는 ID)를 네트워크(1)를 통하여 과금 서버(5)에 송신한다. 지금의 경우, 서비스로서 화상의 분리 처리가 지정된다.
단계 S1121에서, 도 101에 도시한 바와 같이, 과금 서버(24)는 카메라 단말 장치(2)로부터 송신되어 온(사용자의) ID에 기초하여, 인증 정보, 고객 계좌 ID, 및 이용 금액을 고객 계좌의 금융 기관이 관리하는 금융 서버(6)에 조회한다.
단계 S1141에서, 도 101에 도시한 바와 같이, 금융 서버(고객용 : 6)는 고객 계좌 ID와 인증 정보에 기초하여, 인증 처리를 실행하고, 인증 결과와 이용의 가부의 정보를 과금 서버(5)에 통지한다.
단계 S1122에서, 도 101에 도시한 바와 같이, 과금 서버(5)는 인증 결과와 이용 가부의 정보를 카메라 단말 장치(2)에 송신한다. 또한, 이하의 설명에서는 인증 결과에 문제가 없고, 그 이용이 가능하다는 조건에서 설명을 진행시킨다. 또한, 인증 결과에 문제가 있고, 그 이용이 인정되지 않는다는 정보가 수신된 경우, 그 처리는 종료하게 된다.
단계 S1102에서, 도 101에 도시한 바와 같이, 카메라 단말 장치(2)는 인증 결과에 문제가 없으며, 금융 기관의 이용이 가능하다는 조건의 경우, 서비스를 제공한다. 즉, 지금의 경우, 카메라 단말 장치(2)는 화상 분리 처리를 실행한다.
단계 S1103에서, 카메라 단말 장치(2)는 서비스의 이용 통지를 과금 서버(5)에 송신한다. 단계 S1123에서, 과금 서버(5)는 고객 계좌 ID, 이용 금액, 및 제공자 계좌 ID를 금융 서버(고객용 : 6)에 통지한다.
단계 S1142에서, 금융 서버(고객용 : 6)는 고객 계좌 ID의 계좌로부터 이용 금액을 제공자 금융 서버(제공자용 : 7)에 불입한다.
여기서, 도 99의 흐름도의 설명으로 되돌아간다.
단계 S1004에서, 신호 제어부(71)는 화상 축적부(72)에서 분리한 화상을 보존한다. 단계 S1005에서, 과금 처리부(75)는 셔터가 계속 눌러졌는지의 여부를 판정하여, 계속 눌러지고 있다고 판정한 경우, 그 처리는 단계 S1002로 되돌아간다. 즉, 계속 눌러져 있는 동안에는 과금 처리가 계속 실행된다.
단계 S1005에서, 셔터가 눌러져 있지 않다고 판정된 경우, 단계 S1006에서, 신호 제어부(71)는 배경 성분 화상으로서 선택되는 화상의 ID가 입력되었는지의 여부를 판정하고, 입력될 때까지 그 처리를 반복한다. 또한, 배경 성분 화상을 지정하는 ID는, 사용 개시 전에 설정하도록 해도 되며, 사전에 설정이 없는 경우에는 디폴트로 지정되는 ID가 입력되도록 해 두어도 되며, 셔터가 눌러지고나서 분리 처리 및 합성 처리가 원활하게 행해지도록 해도 된다.
단계 S1007에서, 신호 제어부(71)는 지정된 ID의 배경 성분 화상을 분리 처리에 의해 분리한 전경 성분 화상과 합성한다. 예를 들면, 도 102A에서 도시한 바와 같은 화상이 촬상부(74)에 의해 촬상되면, 신호 제어부(71)는 그 화상을 전경 성분 화상과 배경 성분 화상으로 분리한다. 그 후, 단계 S1006 처리에서 도 102B에 도시한 바와 같이, 화상 축적부(72)에 축적된 화상(배경 B1 내지 B3, 및 전경 F1 내지 F3) 중 배경 B3이 선택되면, 신호 제어부(71)는 배경 B3과 도 102A 중심부의 전경 성분 화상을 합성하여, 도 102C에서 도시한 바와 같은 합성 화상을 생성한 다.
단계 S1008, S1022에서, 카메라 단말 장치(2)의 과금 처리부(71)와 과금 서버(5)는 합성 처리에 대한 과금 처리를 실행한다. 또한, 과금 처리에 대해서는, 도 100의 흐름도를 참조하여, 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S1009에서, 카메라 단말 장치(2)의 신호 제어부(71)는 합성 화상을 표시부(73)에 표시함과 함께, 그 화상에 ID를 붙여 화상 축적부(72)에 보존시킨다.
이상의 예에서는, 셔터 버튼이 눌러져 있는 기간에, 분리 처리가 반복되고, 그에 따른 과금도 계속 실행되는 예에 대하여 설명해 왔지만, 셔터가 눌러질 때마다 과금되도록 해도 된다.
이어서, 도 103에 도시한 바와 같이, 움직이는 피사체를 카메라 장치(4)에 의해 촬상하여 리얼타임으로 움직임 불선명을 제거하여 표시시키거나, 또는 도 104에 도시한 바와 같이, 리얼타임으로 움직임 불선명을 제거하여, 또 다른 배경 성분 화상을 합성하는 처리를 실현할 수 있는 텔레비전 수상기 단말 장치(3)에 대하여, 도 105를 참조하여 설명한다.
또한, 도 105에 도시한 텔레비전 수상기 단말 장치(3)는 도 104에 도시한 바와 같이, 야생 동물의 야간 관찰 등에 사용하기 위해 대출되는 것으로 한다. 이 때, 텔레비전 수상기 단말 장치(3)에 대한 과금 처리는 대출 시간에 대한 요금(시설 이용 시간에 대응하는 요금)과, 움직임 불선명이 제거 처리와 합성 처리에 대한 요금인 것으로 한다. 또한, 움직임 불선명이 제거 처리와 합성 처리는 피사체의 화상(전경 성분 화상)에 움직임이 있는 상태일 때에만 과금되는 것으로 한다.
텔레비전 수상기 단말 장치(3)의 시설 이용 시간 계측부(2001)는 텔레비전 수상기 단말 장치(3)가 대출되고나서의 시간을 계측하는 것으로, 계측된 시간을 카운터(2001a)에 기억시키고, 최종적으로 계측된 시설 이용 시간을 과금 처리부(85)에 출력한다. 정동 판정부(2002)는 카메라 장치(4)로부터 입력되는 촬상된 화상을 스캔하여, 피사체의 화상(전경 성분 화상)에 움직임이 생겼는지의 여부를 판정하여, 움직임이 있었던 경우, 움직임이 있었던 것을 나타내는 신호를 처리 시간 계측부(2003)에 출력한다. 처리 시간 계측부(2003)는 정동 판정부(2002)로부터 움직임이 있었다는 것을 나타내는 신호가 입력되면, 그 신호가 입력되어 있는 시간을 계측하여 카운터(2003a)에 기억시키고, 최종적으로 과금 처리 시에 카운터(2003a)에 기억된 처리 시간을 과금 처리부(85)에 출력한다. 이 때 과금 처리부(85)는 시설 이용 시간 계측부(2001)로부터 입력된 시설 이용 시간과, 처리 시간 계측부(2003)로부터 입력된 처리 시간에 따라 이용 금액을 산출하여, 과금 서버(5)에 대하여 과금 처리를 실행한다.
신호 처리부(81)의 구성은, 도 8에 도시한 신호 처리부(71)와 마찬가지이므로 그 설명을 생략한다.
이어서, 도 106의 흐름도를 참조하여, 야생 동물의 야간 관찰에 사용하는 경우, 텔레비전 수상기 단말 장치(3)에 의해 리얼타임 합성 서비스 처리에 대하여 설명한다.
단계 S1201에서, 텔레비전 수상기 단말 장치(3)의 시설 이용 시간 계측부(2001)는 시설 이용 시간의 계측을 개시한다. 이 타이밍에서 카메라 장치(4)에 의해 촬상된 화상이 순차적으로 신호 처리부(71)와 정동 판정부(2002)에 출력되기 시작한다. 단계 S1202에서, 정동 판정부 (2002)는 피사체에 움직임이 있었는지의 여부를 판정하여, 움직임이 있었다고 판정될 때까지 그 처리를 반복하고, 움직임이 있었다고 판정된 경우, 그 처리는 단계 S1203으로 진행한다.
단계 S1203에서, 정동 판정부(2002)로부터 움직임이 검출된 것을 나타내는 신호가 출력됨으로써 처리 시간 계측부(2003)는 처리 시간의 계측을 개시한다.
단계 S1204에서 신호 제어부(81)의 분리부(91)가 입력된 화상의 분리 처리를 실행한다. 이 처리는 도 99의 흐름도 내의 단계 S1002 처리와 마찬가지이고, 움직임 불선명량의 조정 처리(도 86의 흐름도 참조)가 포함되어 있고, 그 처리에 의해 화상의 분리 처리와 함께, 전경 성분 화상의 움직임 불선명의 조정 처리에 의해 움직임 불선명을 제거할 수 있다. 또한, 지금의 경우, 화상이 분리된 후, 전경 성분 화상만이 합성부(92)에 출력된다.
단계 S1205에서, 합성부(92)는 합성하려는 배경 성분 화상을 화상 축적부(72)로부터 읽어 들이고, 단계 S1206에서 합성부(92)는 읽어 들인 배경 성분 화상과, 분리부(91)로부터 입력된 움직임 불선명이 제거된 전경 성분 화상을 합성하여, 표시부(83)에 출력하여, 표시시킨다.
단계 S1207에서, 정동 판정부(2002)는, 움직임이 있었는지, 즉 여전히 움직임이 계속적으로 있는지의 여부를 판정하여, 움직임이 있다고 판정된 경우, 그 처리는 단계 S1204로 되돌아가, 그 이후 처리가 반복된다.
단계 S1207에서, 움직임이 없다고 판정된 경우, 단계 S1208에서 처리 시간 계측부(2003)는 실제의 분리 처리(움직임 불선명이 제거 처리)와 합성 처리에 걸린 시간을 계측하여, 카운터(2003a)에 기억시킨다.
단계 S1209에서, 시설 이용 시간 계측부(2001)는, 시설 이용이 종료되었는지의 여부를 판정하는데, 예를 들면 시설 이용이 종료된 경우, 단계 S1210에서 카운터(2001a)에 기억되어 있던 시설 이용 시간을 계측하고, 과금 처리부(75)에 출력한다.
단계 S1211, S1121에서, 텔레비전 수상기 단말 장치(3)의 과금 처리부(85)와 과금 서버(5)는 시설 이용 시간과 움직임 불선명이 제거 처리와 합성 처리 처리 시간에 기초하여 과금 처리를 산출함과 함께, 대응하는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는 도 100의 흐름도를 참조하여, 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
이상과 같은 처리에 의해, 야생 동물의 야간 관찰과 같이 미약한 광이라도, 움직임 불선명 처리한 화상을 촬상할 수 있는 서비스를 제공할 수 있으며, 또한 텔레비전 수상기 단말 장치(3)의 대출 시간(시설 이용 시간) 과, 처리 시간(움직임 불선명 처리와 합성 처리에 드는 시간)에 따른 과금 처리가 실현할 수 있으므로, 야간에 동물이 움직이지 않고 있는 시간은 분리 및 합성 처리에 관한 비용이 발생하지 않으므로, 사용자는 분리 처리나 합성 처리가 필요로 되는 상황이 발생한 타이밍에서만 요금을 지불하게 된다.
또한, 도 106의 흐름도를 참조하여 설명한 리얼타임 합성 서비스 처리로, 대출 시간에 의한 과금 처리를 없애고, 처리 시간만으로 과금하도록 하여, 골프 스윙 의 확인을 위해, 예를 들면 골프장 등에서 텔레비전 수상기 단말 장치(3)를 대출하는 경우 처리에 대하여 도 107의 흐름도를 참조하여 설명한다.
이 처리는 도 106의 흐름도에서의 단계 S1201, S1210 처리를 생략한 것으로 한다. 즉, 단계 S1301에서 정동 판정부(2002)는 피사체에 움직임이 있었는지의 여부를 판정하여, 움직임이 있다고 판정될 때까지 그 처리를 반복하고, 움직임이 있다고 판정된 경우, 그 처리는 단계 S1302로 진행한다. 즉, 사용자가 골프 스윙을 할 때까지는 그 처리는 실행되지 않고, 과금 처리도 되지 않는다.
단계 S1302에서 정동 판정부(2002)로부터 움직임이 검출된 것을 나타내는 신호가 출력됨으로써 처리 시간 계측부(2003)는 처리 시간의 계측을 개시한다.
단계 S1303에서, 신호 제어부(81)의 분리부(91)가 입력된 화상의 분리 처리를 실행한다. 이 처리는 도 99의 흐름도 중 단계 S1002 처리와 마찬가지이며, 움직임 불선명량의 조정 처리가 포함되어 있고, 그 처리에 의해 화상의 분리 처리와 함께, 전경 성분 화상의 움직임 불선명의 조정 처리에 의해 움직임 불선명을 제거할 수 있다.
단계 S1304에서, 합성부(92)는 합성하려는 배경 성분 화상을 화상 축적부(82)로부터 읽어 들이고, 단계 S1305에서 합성부(92)는 읽어 들인 배경 성분 화상과, 분리부(91)로부터 입력된 움직임 불선명이 제거된 전경 성분 화상을 합성하고, 표시부(83)에 출력하여 표시시킨다. 지금의 경우, 골프 클럽의 스윙이 움직임 불선명이 제거된 상태로 표시되어 있으면 되므로, 촬상된 화상과 다른 배경 성분 화상을 특히 합성할 필요는 없으므로, 반드시 화상 축적부(82)로부터 배경 성분 화상을 읽어 내지 않아도 된다.
단계 S1306에서 정동 판정부(2002)는 움직임이 있는지, 즉 여전히 움직이고 있는지의 여부를 판정하여, 움직임이 있다고 판정된 경우, 그 처리는 단계 S1204로 되돌아가고, 그 이후 처리가 반복된다.
단계 S1306에서 움직임이 없다고 판정된 경우, 단계 S1307에서 처리 시간 계측부(2003)는 실제의 분리 처리(움직임 불선명이 제거 처리)와 합성 처리에 걸린 시간을 계측하여, 카운터(2003a)에 기억시킨다.
단계 S1308에서 시설 이용 시간 계측부(2001)는 시설 이용이 종료됐는지의 여부를 판정하고, 예를 들면 시설 이용이 종료된 경우(카메라 단말 장치(2)를 반환하는 경우), 단계 S1309, S1321에서 카메라 단말 장치(2)의 과금 처리부(71)와 과금 서버(5)는 시설 이용 시간과 움직임 불선명이 제거 처리와 합성 처리 처리 시간에 기초하여 과금 처리를 산출함과 함께, 대응하는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는 도 100의 흐름도를 참조하여, 설명한 처리와 마찬가지이므로, 그 설명은 생략한다.
이상에서는, 텔레비전 수상기 단말 장치(3)의 동작에 대하여 설명했지만, 예를 들면 카메라 단말 장치(2)에 의해 마찬가지 처리를 실행시키는 것도 가능하다.
이상에 의하면, 본 발명의 분리부(91)는 촬상한 화상을 실시간으로, 전경 성분 화상과 배경 성분 화상(전경 성분 화상)으로 분리하고, 전경 성분 화상에 대해서는 실시간으로 움직임 불선명 조정 처리를 실시하는 것이 가능해진다.
본 발명의 신호 처리를 행하는 프로그램을 기록한 기록 매체는 도 4, 5에 도 시한 바와 같이, 컴퓨터와는 별도로, 사용자에게 프로그램을 제공하기 위해 배포되는 프로그램이 기록되어 있는 자기 디스크(41, 61)(플렉시블 디스크를 포함함), 광 디스크(42, 62)(CD-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)를 포함함), 광 자기 디스크(43, 63)(MD(Mini-Disc)(상표)를 포함함), 혹은 반도체 메모리(44, 64) 등으로 이루어지는 패키지 미디어에 의해 구성되는 것뿐만 아니라, 컴퓨터에 사전에 내장된 상태에서 사용자에게 제공되는 프로그램이 기록되어 있는 ROM(22, 52)이나, 기억부(28, 58)에 포함되는 하드디스크 등으로 구성된다.
또, 본 명세서에서, 기록 매체에 기록되는 프로그램을 기술하는 단계는 기재된 순서에 따라 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않아도 병렬적 혹은 개별로 실행되는 처리도 포함하는 것이다.
본 발명에 따르면, 촬상한 화상을 실시간으로, 전경 성분 화상과 배경 성분 화상(전경 성분 화상)으로 분리하여, 전경 성분 화상에 대해서는 실시간으로 움직임 불선명 조정 처리를 실시하는 것이 가능해진다.




Claims (44)

  1. 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 입력하는 입력 수단과,
    상기 입력 수단에 의해 입력된 화상 데이터의, 상기 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분과, 상기 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합된 혼합 영역의 혼합비를 추정하는 혼합비 추정 수단과,
    상기 혼합비 추정 수단에 의해 추정된 혼합비에 기초하여, 상기 입력 수단에 의해 입력된 화상 데이터를, 상기 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 상기 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 실시간으로 분리하는 분리 수단과,
    상기 분리 수단에 의해 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상을 실시간으로 기억하는 기억 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  2. 제1항에 있어서,
    화상을 구성하는 광을 광전 변환하고, 광전 변환함으로써 얻어진 전하를 시간적으로 적분하는 소정 수의 촬상 소자에 의해, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로서 촬상하는 촬상 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  3. 제2항에 있어서,
    상기 촬상 수단에 대하여 촬상을 명령하는 촬상 명령 수단과,
    상기 촬상 명령 수단의 명령에 따라 과금 처리를 실행하는 촬상 과금 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  4. 제1항에 있어서,
    상기 분리 수단에 의해 실시간으로 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상, 및 상기 기억 수단에 의해 이미 기억된 상기 전경 성분 화상, 및 상기 배경 성분 화상을 표시하는 화상 표시 수단과,
    상기 화상 표시 수단에 의해 표시된, 상기 분리 수단에 의해 실시간으로 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상, 및 상기 기억 수단에 의해 이미 기억된 상기 전경 성분 화상, 및 상기 배경 성분 화상 중, 원하는 전경 성분 화상, 및 배경 성분 화상을 지정하는 화상 지정 수단과,
    상기 지정 수단에 의해 지정된 원하는 전경 성분 화상, 및 배경 성분 화상을 합성하는 합성 수단
    을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  5. 제4항에 있어서,
    상기 합성 수단에 대하여 화상의 합성을 명령하는 합성 명령 수단과,
    상기 합성 명령 수단의 명령에 따라 과금 처리를 실행하는 합성 과금 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  6. 제1항에 있어서,
    상기 기억 수단에 대하여, 상기 분리 수단에 의해 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상의 실시간으로의 기억을 할지 여부를 명령하는 기억 명령 수단과,
    상기 기억 명령 수단의 명령에 따라 과금 처리를 실행하는 기억 과금 수단
    을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  7. 제1항에 있어서,
    상기 분리 수단에 의해 실시간으로 분리된 상기 전경 성분 화상, 또는 상기 기억 수단에 의해 이미 기억되어 있는 상기 전경 성분 화상의 움직임 불선명을 조정하는 움직임 불선명 조정 수단
    을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  8. 제7항에 있어서,
    상기 움직임 불선명 조정 수단에 의해 움직임 불선명이 조정된 상기 전경 성 분 화상을 표시하는 움직임 불선명 조정 화상 표시 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  9. 제8항에 있어서,
    상기 움직임 불선명 조정 수단에 의해 움직임 불선명이 조정되어 있는, 상기 전경 성분 화상과 상기 배경 성분 화상을 합성하는 합성 수단을 더 포함하고,
    상기 움직임 불선명 조정 화상 표시 수단은, 상기 움직임 불선명 조정 수단에 의해 움직임 불선명이 조정되어 있는, 상기 전경 성분 화상과 상기 배경 성분 화상이, 상기 합성 수단에 의해 합성된 화상을 표시하는 것을 특징으로 하는 화상 처리 장치.
  10. 제7항에 있어서,
    상기 움직임 불선명 조정 수단이, 상기 전경 성분 화상의 움직임 불선명을 조정하는 시간을 계측하는 처리 시간 계측 수단과,
    상기 처리 시간 계측 수단에 의해 계측된 시간에 따라 과금 처리를 실행하는 움직임 불선명 조정 과금 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  11. 제8항에 있어서,
    자신의 가동 시간을 계측하는 가동 시간 계측 수단과,
    상기 가동 시간 계측 수단에 의해 계측된 시간에 따라 과금 처리를 실행하는 가동 과금 수단
    을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  12. 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 입력하는 입력 단계와,
    상기 입력 단계의 처리에 의해 입력된 화상 데이터의, 상기 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분과, 상기 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합된 혼합 영역의 혼합비를 추정하는 혼합비 추정 단계와,
    상기 혼합비 추정 단계의 처리에 의해 추정된 혼합비에 기초하여, 상기 입력 단계의 처리에 의해 입력된 화상 데이터를, 상기 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 상기 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 실시간으로 분리하는 분리 단계와,
    상기 분리 단계의 처리서 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상을 실시간으로 기억하는 기억 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  13. 제12항에 있어서,
    화상을 구성하는 광을 광전 변환하고, 광전 변환함으로써 얻어진 전하를 시간적으로 적분하는 소정 수의 촬상 소자에 의해, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로서 촬상하는 촬상 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  14. 제13항에 있어서,
    상기 촬상 단계의 처리에 대하여 촬상을 명령하는 촬상 명령 단계와,
    상기 촬상 명령 단계의 처리에서의 명령에 따라 과금 처리를 실행하는 촬상 과금 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  15. 제12항에 있어서,
    상기 분리 단계의 처리에 의해 실시간으로 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상, 및 상기 기억 단계의 처리에 의해 이미 기억된 상기 전경 성분 화상, 및 상기 배경 성분 화상을 표시하는 화상 표시 단계와,
    상기 화상 표시 단계의 처리에 의해 표시된, 상기 분리 단계의 처리에 의해 실시간으로 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상, 및 상기 기억 단계의 처리에 의해 이미 기억된 상기 전경 성분 화상, 및 상기 배경 성분 화상 중, 원하는 전경 성분 화상, 및 배경 성분 화상을 지정하는 화상 지정 단계와,
    상기 지정 단계의 처리에 의해 지정된 원하는 전경 성분 화상, 및 배경 성분 화상을 합성하는 합성 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  16. 제15항에 있어서,
    상기 합성 단계의 처리에 대하여 화상의 합성을 명령하는 합성 명령 단계와,
    상기 합성 명령 단계의 처리에서의 명령에 따라 과금 처리를 실행하는 합성 과금 단계
    를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  17. 제12항에 있어서,
    상기 기억 단계의 처리에 대하여, 상기 분리 단계의 처리에 의해 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상의 실시간으로의 기억을 할지 여부를 명령하는 기억 명령 단계와,
    상기 기억 명령 단계의 처리에서의 명령에 따라 과금 처리를 실행하는 기억 과금 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  18. 제12항에 있어서,
    상기 분리 단계의 처리에 의해 실시간으로 분리된 상기 전경 성분 화상, 또는 상기 기억 단계의 처리에 의해 이미 기억되어 있는 상기 전경 성분 화상의 움직임 불선명을 조정하는 움직임 불선명 조정 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  19. 제18항에 있어서,
    상기 움직임 불선명 조정 단계의 처리에 의해 움직임 불선명이 조정된 상기 전경 성분 화상을 표시하는 움직임 불선명 조정 화상 표시 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  20. 제19항에 있어서,
    상기 움직임 불선명 조정 단계의 처리에 의해 움직임 불선명이 조정되어 있는, 상기 전경 성분 화상과 상기 배경 성분 화상을 합성하는 합성 단계를 더 포함하며,
    상기 움직임 불선명 조정 화상 표시 단계의 처리는, 상기 움직임 불선명 조정 단계의 처리에 의해 움직임 불선명이 조정되어 있는, 상기 전경 성분 화상과 상기 배경 성분 화상이, 상기 합성 단계의 처리에 의해 합성된 화상을 표시하는 것을 특징으로 하는 화상 처리 방법.
  21. 제18항에 있어서,
    상기 움직임 불선명 조정 단계의 처리가, 상기 전경 성분 화상의 움직임 불선명을 조정하는 시간을 계측하는 처리 시간 계측 단계와,
    상기 처리 시간 계측 단계의 처리에 의해 계측된 시간에 따라 과금 처리를 실행하는 움직임 불선명 조정 과금 단계
    를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  22. 제19항에 있어서,
    자신의 가동 시간을 계측하는 가동 시간 계측 단계와,
    상기 가동 시간 계측 단계의 처리에 의해 계측된 시간에 따라 과금 처리를 실행하는 가동 과금 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  23. 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터의 입력을 제어하는 입력 제어 단계와,
    상기 입력 제어 단계의 처리에 의해 입력된 화상 데이터의, 상기 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분과, 상기 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분이 혼합된 혼합 영역의 혼합비의 추정을 제어하는 혼합비 추정 제어 단계와,
    상기 혼합비 추정 제어 단계의 처리에 의해 추정된 혼합비에 기초하여, 상기 입력 제어 단계의 처리에 의해 입력된 화상 데이터를, 상기 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 상기 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로의, 실시간으로의 분리를 제어하는 분리 제어 단계와,
    상기 분리 제어 단계의 처리에 의해 분리된 상기 전경 성분 화상, 및 상기 배경 성분 화상의 실시간으로의 기억을 제어하는 기억 제어 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  24. 제23항에 있어서,
    화상을 구성하는 광을 광전 변환하고, 광전 변환함으로써 얻어진 전하를 시간적으로 적분하는 소정 수의 촬상 소자에 의해, 화소마다, 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로서의 촬상을 제어하는 촬상 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  25. 제24항에 있어서,
    상기 촬상 제어 단계의 처리에 대한 촬상의 명령을 제어하는 촬상 명령 제어 단계와,
    상기 촬상 명령 제어 단계의 처리에서의 명령에 따른 과금 처리의 실행을 제어하는 촬상 과금 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  26. 제23항에 있어서,
    상기 분리 제어 단계의 처리에 의해 실시간으로의 분리가 제어된 상기 전경 성분 화상, 및 상기 배경 성분 화상, 및 상기 기억 제어 단계의 처리에 의해 이미 기억이 제어된 상기 전경 성분 화상, 및 상기 배경 성분 화상의 표시를 제어하는 화상 표시 제어 단계와,
    상기 화상 표시 제어 단계의 처리에 의해 표시가 제어된, 상기 분리 제어 단계의 처리에 의해 실시간으로의 분리가 제어된 상기 전경 성분 화상, 및 상기 배경 성분 화상, 및 상기 기억 제어 단계의 처리에 의해 이미 기억이 제어된 상기 전경 성분 화상, 및 상기 배경 성분 화상 중, 원하는 전경 성분 화상, 및 배경 성분 화상의 지정을 제어하는 화상 지정 제어 단계와,
    상기 지정 제어 단계의 처리에 의해 지정이 제어된 원하는 전경 성분 화상, 및 배경 성분 화상의 합성을 제어하는 합성 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  27. 제26항에 있어서,
    상기 합성 제어 단계의 처리에 대한 화상의 합성의 명령을 제어하는 합성 명령 제어 단계와,
    상기 합성 명령 제어 단계의 처리에 의해 제어된 명령에 따라 과금 처리의 실행을 제어하는 합성 과금 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  28. 제23항에 있어서,
    상기 기억 제어 단계의 처리에 대하여, 상기 분리 제어 단계의 처리에 의해 분리가 제어된 상기 전경 성분 화상, 및 상기 배경 성분 화상의 실시간으로의 기억을 할지 여부의 명령을 제어하는 기억 명령 제어 단계와,
    상기 기억 명령 제어 단계의 처리에 의해 제어된 명령에 따라 과금 처리의 실행을 제어하는 기억 과금 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  29. 제23항에 있어서,
    상기 분리 제어 단계의 처리에 의해 실시간으로 분리가 제어된 상기 전경 성분 화상, 또는 상기 기억 제어 단계의 처리에 의해 이미 기억이 제어되어 있는 상기 전경 성분 화상의 움직임 불선명의 조정을 제어하는 움직임 불선명 조정 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  30. 제29항에 있어서,
    상기 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어된 상기 전경 성분 화상의 표시를 제어하는 움직임 불선명 조정 화상 표시 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  31. 제30항에 있어서,
    상기 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어되어 있는, 상기 전경 성분 화상과 상기 배경 성분 화상과의 합성을 제어하는 합성 제어 단계를 더 포함하고,
    상기 움직임 불선명 조정 화상 표시 제어 단계의 처리는, 상기 움직임 불선명 조정 제어 단계의 처리에 의해 움직임 불선명 조정이 제어되어 있는, 상기 전경 성분 화상과 상기 배경 성분 화상이 상기 합성 제어 단계의 처리에 의해 합성이 제어된 화상의 표시를 제어하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  32. 제29항에 있어서,
    상기 움직임 불선명 조정 제어 단계의 처리가, 상기 전경 성분 화상의 움직임 불선명의 조정을 제어하는 시간의 계측을 제어하는 처리 시간 계측 제어 단계와,
    상기 처리 시간 계측 제어 단계의 처리에 의해 계측이 제어된 시간에 따라 과금 처리의 실행을 제어하는 움직임 불선명 조정 과금 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  33. 제30항에 있어서,
    자신의 가동 시간의 계측을 제어하는 가동 시간 계측 제어 단계와,
    상기 가동 시간 계측 제어 단계의 처리에 의해 계측이 제어된 시간에 따라 과금 처리의 실행을 제어하는 가동 과금 제어 단계를 더 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
KR1020037002730A 2001-06-27 2002-06-26 화상 처리 장치 및 방법 KR100843815B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2001-00194610 2001-06-27
JP2001194610A JP4596226B2 (ja) 2001-06-27 2001-06-27 画像処理装置および方法、記録媒体、並びにプログラム
PCT/JP2002/006384 WO2003003306A1 (fr) 2001-06-27 2002-06-26 Appareil et procede de traitement d'images

Publications (2)

Publication Number Publication Date
KR20040014940A KR20040014940A (ko) 2004-02-18
KR100843815B1 true KR100843815B1 (ko) 2008-07-03

Family

ID=19032714

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037002730A KR100843815B1 (ko) 2001-06-27 2002-06-26 화상 처리 장치 및 방법

Country Status (8)

Country Link
US (1) US7260260B2 (ko)
EP (1) EP1403822B1 (ko)
JP (1) JP4596226B2 (ko)
KR (1) KR100843815B1 (ko)
CN (1) CN1248163C (ko)
CA (1) CA2420068C (ko)
DE (1) DE60235278D1 (ko)
WO (1) WO2003003306A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2004304765A (ja) * 2003-03-20 2004-10-28 Fuji Photo Film Co Ltd 画像記録装置および方法並びにプログラム
JP4148041B2 (ja) 2003-06-27 2008-09-10 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4392583B2 (ja) 2003-06-27 2010-01-06 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4392584B2 (ja) 2003-06-27 2010-01-06 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4196274B2 (ja) * 2003-08-11 2008-12-17 ソニー株式会社 画像信号処理装置および方法、プログラム、並びに記録媒体
JP4461937B2 (ja) * 2003-09-30 2010-05-12 セイコーエプソン株式会社 低解像度の複数の画像に基づく高解像度の画像の生成
US7606441B2 (en) * 2003-11-27 2009-10-20 Seiko Epson Corporation Image processing device and a method for the same
KR101119067B1 (ko) * 2004-08-24 2012-06-12 주식회사 비즈모델라인 무선 단말기
KR100643230B1 (ko) * 2004-08-30 2006-11-10 삼성전자주식회사 디스플레이장치의 제어방법
JP2006092156A (ja) * 2004-09-22 2006-04-06 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
US7831656B2 (en) * 2004-12-29 2010-11-09 International Business Machines Corporation Effortless association between services in a communication system and methods thereof
KR100748059B1 (ko) 2005-08-11 2007-08-09 주식회사 오아시스미디어 실시간 다층 동영상 합성보드
JP4979956B2 (ja) * 2006-02-07 2012-07-18 株式会社沖データ 電子透かし埋め込み装置および電子透かし埋め込み方法
CN101512596B (zh) * 2006-09-14 2012-06-13 富士通株式会社 图像处理方法和装置
JP4861109B2 (ja) * 2006-09-27 2012-01-25 富士通株式会社 画像データ処理装置、画像データ処理方法、画像データ処理プログラム、および、撮像装置
KR101287843B1 (ko) 2006-11-01 2013-07-18 엘지전자 주식회사 단말기 및 구도화면 제공방법
JP5152559B2 (ja) * 2007-07-19 2013-02-27 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP4862004B2 (ja) * 2008-03-05 2012-01-25 エヌ・ティ・ティ・コムウェア株式会社 奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラム
US8515124B2 (en) * 2010-02-04 2013-08-20 Electronics And Telecommunications Research Institute Method and apparatus for determining fake image
TWI471521B (zh) * 2010-07-23 2015-02-01 Pixart Imaging Inc 位移估測方法及使用該方法之位移偵測裝置
CN102254322A (zh) * 2011-06-09 2011-11-23 上海智翔信息科技股份有限公司 一种图像提取方法及装置
US10432877B2 (en) * 2014-06-30 2019-10-01 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
CN109743511B (zh) * 2019-01-03 2021-04-20 苏州佳世达光电有限公司 自动调整播放画面显示方向的方法及系统
CN113170224A (zh) * 2019-04-30 2021-07-23 华为技术有限公司 一种视频处理的方法和装置
CN112492216B (zh) * 2020-12-14 2022-06-07 维沃移动通信有限公司 拍摄控制方法和拍摄控制装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
GB9217098D0 (en) * 1992-08-12 1992-09-23 British Broadcasting Corp Derivation of studio camera position and motion from the camera image
CN1125029A (zh) * 1993-06-07 1996-06-19 亚特兰大科技公司 用户终端的显示系统
JP3531978B2 (ja) * 1994-08-10 2004-05-31 富士通株式会社 ソフトウエアの課金方式
US5978424A (en) * 1996-11-18 1999-11-02 Zenith Electronics Corporation Frame identification system
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
US6404901B1 (en) 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP4507045B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4479098B2 (ja) * 2000-12-21 2010-06-09 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4491965B2 (ja) * 1999-12-28 2010-06-30 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4507044B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4596202B2 (ja) * 2001-02-05 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4596203B2 (ja) * 2001-02-19 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596222B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法

Also Published As

Publication number Publication date
CN1466736A (zh) 2004-01-07
JP2003016456A (ja) 2003-01-17
CA2420068C (en) 2010-05-25
CN1248163C (zh) 2006-03-29
US20040052415A1 (en) 2004-03-18
CA2420068A1 (en) 2003-02-19
KR20040014940A (ko) 2004-02-18
DE60235278D1 (de) 2010-03-25
EP1403822A1 (en) 2004-03-31
JP4596226B2 (ja) 2010-12-08
US7260260B2 (en) 2007-08-21
WO2003003306A1 (fr) 2003-01-09
EP1403822A4 (en) 2006-01-25
EP1403822B1 (en) 2010-02-03

Similar Documents

Publication Publication Date Title
KR100843815B1 (ko) 화상 처리 장치 및 방법
KR100918544B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100846261B1 (ko) 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치
KR100859382B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100897965B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
JP4596220B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100799011B1 (ko) 화상 처리 장치
JP4596203B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100835443B1 (ko) 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
KR100864336B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100894923B1 (ko) 화상 처리 장치, 방법 및 기록 매체와 촬상 장치
JP4150949B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596217B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596209B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596218B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596225B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치
JP2004302823A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2004302822A (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120619

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee