KR20040014956A - 통신 장치 및 방법 - Google Patents

통신 장치 및 방법 Download PDF

Info

Publication number
KR20040014956A
KR20040014956A KR10-2003-7002821A KR20037002821A KR20040014956A KR 20040014956 A KR20040014956 A KR 20040014956A KR 20037002821 A KR20037002821 A KR 20037002821A KR 20040014956 A KR20040014956 A KR 20040014956A
Authority
KR
South Korea
Prior art keywords
image
foreground
pixel
background
frame
Prior art date
Application number
KR10-2003-7002821A
Other languages
English (en)
Other versions
KR100886618B1 (ko
Inventor
데쯔지로 곤도
다까시 사와오
준이찌 이시바시
다까히로 나가노
나오끼 후지와라
도루 미야께
세이지 와다
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20040014956A publication Critical patent/KR20040014956A/ko
Application granted granted Critical
Publication of KR100886618B1 publication Critical patent/KR100886618B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving video stream encryption
    • H04N21/23473Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving video stream encryption by pre-encrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving video stream encryption
    • H04N21/23476Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving video stream encryption by partially encrypting, e.g. encrypting the ending portion of a movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2541Rights Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2543Billing, e.g. for subscription services
    • H04N21/25435Billing, e.g. for subscription services involving characteristics of content or additional data, e.g. video resolution or the amount of advertising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25875Management of end-user data involving end-user authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/26613Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for generating or managing keys in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4627Rights management associated to the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4753End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for user identification, e.g. by entering a PIN or password
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6175Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6334Control signals issued by server directed to the network components or client directed to client for authorisation, e.g. by transmitting a key
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL

Abstract

본 발명은 촬상한 화상의 전경 성분 화상과 배경 성분 화상을 네트워크를 이용하여 고속으로 처리하도록 할 수 있게 하는 것이다. 클라이언트 컴퓨터(27)는 분리하고싶은 화상 데이터를 지정하는 정보를 분리 처리 서버(11)에 출력한다. 분리 처리 서버(11)는 축적 서버(18)로부터 지정된 화상 데이터를 취득하여 움직임 검출 서버(12)로 출력하여 움직임 검출 처리시킨 후, 화상 데이터, 움직임 벡터, 및 위치 정보를 영역 특정 서버(13)로 출력한다. 지역 특정 서버(13)는 화상 데이터의 영역 정보를 생성하고 화상 데이터, 움직임 벡터, 및 위치 정보에 부가하여 영역 정보를 혼합비 산출 서버(14)에 출력한다. 혼합비 산출 서버(14)는 화상 데이터, 움직임 벡터, 위치 정보, 및 영역 정보로부터 혼합비를 산출하여 이들 정보에 기초하여 전경 배경 서버(15)가 입력된 화상의 전경과 배경을 분리한다. 본 발명은 화상 처리의 비즈니스 모델에 적용시킬 수 있다.

Description

통신 장치 및 방법{COMMUNICATION APPARATUS AND METHOD}
네트워크를 통해 사용자가 원하는 화상을 합성하는 기술이 일반적으로 보급되고 있다.
이러한 합성 화상은 사용자가 네트워크 상의 축적 서버 등에 축적된 화상을 지정하거나, 자신이 디지털 스틸 카메라 등으로 촬상한 화상 등의, 복수의 기존의 화상을 중첩시켜 접합한다는 처리에 의해 생성되거나, 텍스쳐 맵핑에 의해 합성되어 생성되어 있었다.
그러나, 상술과 같은 방법에 의해 생성되는 합성 화상은 예를 들면, 움직임이 있는 물체를 촬상할 때 생기는 소위 움직임 불선명의 조정 등을 할 수 없기 때문에, 결과적으로 정밀도가 낮은 합성 처리밖에 실행할 수 없어 시각적으로 부자연스러운 합성 화상을 생성할 수밖에 없다는 과제가 있었다.
또한, 이들 처리를 일괄하여 소정의 처리용 서버에서 실행시키고자 하면, 그 처리에 시간이 걸릴뿐만 아니라, 예를 들면, 동일한 배경 화상을 중첩시킴에도 불구하고, 합성하고자 하는 화상의 수와 동일한 횟수만큼 처리가 반복되게 되어 그 처리에 시간이 걸릴뿐만 아니라 처리 시간에 의해 과금되도록 하는 서비스일 때에는, 사용자의 부담액도 커지게 되는 과제가 있었다.
본 발명은 통신 장치 및 방법에 관한 것으로, 네트워크의 복수의 서버에서 분산하여 화상의 가공 처리를 실행함으로써 그 처리 속도를 향상시킬뿐만 아니라 분산 처리함으로써, 사용자에 의해 필요로 되는 처리만을 실행할 수 있도록 하여, 그 서비스에 관련되는 비용을 저감시키도록 한 통신 장치 및 방법에 관한 것이다.
도 1은 본 발명을 적용한 화상 처리 시스템의 일 실시 형태의 구성을 도시하는 도면.
도 2는 도 1의 분리 처리 서버의 구성을 도시하는 도면.
도 3은 도 1의 카메라 단말 장치의 구성을 도시하는 도면.
도 4는 도 1의 분리 처리 서버의 기능을 도시하는 도면.
도 5는 도 1의 분리 처리 서버의 기능을 도시하는 도면.
도 6은 도 1의 움직임 검출 서버의 기능을 도시하는 도면.
도 7은 도 1의 움직임 검출 서버의 기능을 도시하는 도면.
도 8은 도 1의 영역 특정 서버의 기능을 도시하는 도면.
도 9는 도 1의 영역 특정 서버의 기능을 도시하는 도면.
도 10은 도 1의 혼합비 산출 서버의 기능을 도시하는 도면.
도 11은 도 1의 혼합비 산출 서버의 기능을 도시하는 도면.
도 12는 도 1의 전경 배경 분리 처리 서버의 기능을 도시하는 도면.
도 13은 도 1의 전경 배경 분리 처리 서버의 기능을 도시하는 도면.
도 14는 도 1의 움직임 불선명 조정 서버의 기능을 도시하는 도면.
도 15는 도 1의 움직임 불선명 조정 서버의 기능을 도시하는 도면.
도 16은 도 1의 부호화 서버의 기능을 도시하는 도면.
도 17은 도 1의 부호화 서버의 기능을 도시하는 도면.
도 18은 도 1의 축적 서버의 기능을 도시하는 도면.
도 19는 도 1의 축적 서버의 기능을 도시하는 도면.
도 20은 도 1의 합성 서버의 기능을 도시하는 도면.
도 21은 도 1의 합성 서버의 기능을 도시하는 도면.
도 22는 도 1의 수정 서버의 기능을 도시하는 도면.
도 23은 도 1의 수정 서버의 기능을 도시하는 도면.
도 24는 도 1의 구입 서버의 기능을 도시하는 도면.
도 25는 도 1의 매각 서버의 기능을 도시하는 도면.
도 26은 도 1의 검색 서버의 기능을 도시하는 도면.
도 27은 분리 처리 서버를 도시하는 블록도.
도 28은 센서에 의한 촬상을 설명하는 도면.
도 29는 화소의 배치를 설명하는 도면.
도 30은 검출 소자의 동작을 설명하는 도면.
도 31A는 움직이고 있는 전경에 대응하는 오브젝트와 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면.
도 31B는 움직이고 있는 전경에 대응하는 오브젝트와 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면.
도 32는 배경 영역, 전경 영역, 혼합 영역, 커버된 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면.
도 33은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델 도면.
도 34는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 35는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 36은 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 37은 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시하는 도면.
도 38은 화소와 화소값을 시간 방향으로 전개한 모델과의 대응을 도시하는 도면.
도 39는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 40은 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 41은 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 42는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 43은 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 44는 움직임 불선명의 양의 조정 처리를 설명하는 흐름도.
도 45는 영역 특정부(103)의 구성의 일례를 나타내는 블록도.
도 46은 전경에 대응하는 오브젝트가 이동하고 있을 때의 화상을 설명하는 도면.
도 47은 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 48은 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 49는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 50은 영역 판정의 조건을 설명하는 도면.
도 51A는 영역 특정부(103)의 영역의 특정 결과의 예를 도시하는 도면.
도 51B는 영역 특정부(103)의 영역의 특정 결과의 예를 도시하는 도면.
도 51C는 영역 특정부(103)의 영역의 특정 결과의 예를 도시하는 도면.
도 51D는 영역 특정부(103)의 영역의 특정 결과의 예를 도시하는 도면.
도 52는 영역 특정부(103)의 영역의 특정 결과의 예를 도시하는 도면.
도 53은 영역 특정 처리를 설명하는 흐름도.
도 54는 영역 특정부(103)의 구성의 다른 일례를 나타내는 블록도.
도 55는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 56은 배경 화상의 예를 도시하는 도면.
도 57은 2치 오브젝트 화상 추출부(302)의 구성을 나타태는 블록도.
도 58A는 상관값의 산출을 설명하는 도면.
도 58B는 상관값의 산출을 설명하는 도면.
도 59A는 상관값의 산출을 설명하는 도면.
도 59B는 상관값의 산출을 설명하는 도면.
도 60은 2치 오브젝트 화상의 예를 도시하는 도면.
도 61은 시간 변화 검출부(303)의 구성을 나타내는 블록도.
도 62는 영역 판정부(342)의 판정을 설명하는 도면.
도 63은 시간 변화 검출부(303)의 판정의 예를 도시하는 도면.
도 64는 영역 판정부(103)의 영역 특정 처리를 설명하는 흐름도.
도 65는 영역 판정의 처리의 상세를 설명하는 흐름도.
도 66은 영역 특정부(103)의 또 다른 구성을 나타내는 블록도.
도 67은 로버스트화부(361)의 구성을 설명하는 블록도이다.
도 68은 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 69는 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 70은 영역 특정 처리를 설명하는 흐름도.
도 71은 로버스트화 처리의 상세를 설명하는 흐름도.
도 72는 혼합비 산출부(104)의 구성의 일례를 나타내는 블록도.
도 73은 이상적인 혼합비 α의 예를 도시하는 도면.
도 74는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 75는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 76은 전경 성분의 상관을 이용한 근사를 설명하는 도면.
도 77은 C, N, 및 P의 관계를 설명하는 도면.
도 78은 추정 혼합비 처리부(401)의 구성을 나타내는 블록도.
도 79는 추정 혼합비의 예를 도시하는 도면.
도 80은 혼합비 산출부(104)의 다른 구성을 나타내는 블록도.
도 81은 혼합비 산출의 처리를 설명하는 흐름도.
도 82는 추정 혼합비 연산의 처리를 설명하는 흐름도.
도 83은 혼합비α를 근사하는 직선을 설명하는 도면.
도 84는 혼합비α를 근사하는 평면을 설명하는 도면.
도 85는 혼합비α를 산출할 때의 복수의 프레임의 화소의 대응을 설명하는 도면.
도 86은 혼합비 추정 처리부(401)의 다른 구성을 나타내는 블록도이다.
도 87은 추정 혼합비의 예를 도시하는 도면.
도 88은 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 설명하는 흐름도.
도 89는 전경 배경 분리부(105)의 구성의 일례를 나타내는 블록도.
도 90A는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시하는 도면.
도 90B는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시하는 도면.
도 91은 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 92는 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 93은 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 94는 분리부(601)의 구성의 일례를 나타내는 블록도.
도 95A는 분리된 전경 성분 화상, 및 배경 성분 화상의 예를 도시하는 도면.
도 95B는 분리된 전경 성분 화상, 및 배경 성분 화상의 예를 도시하는 도면.
도 96은 전경과 배경과의 분리의 처리를 설명하는 흐름도.
도 97은 움직임 불선명 조정부(106)의 구성의 일례를 나타내는 블록도.
도 98은 처리 단위를 설명하는 도면.
도 99는 전경 성분 화상의 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 100은 전경 성분 화상의 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 101은 전경 성분 화상의 화소값을 시간 방향으로 전개하고, 셔터 시간에 대응하는 기간을 분할한 모델 도면.
도 102는 전경 성분 화상의 화소값을 시간 방향으로 전개하고, 셔터 시간에대응하는 기간을 분할한 모델 도면.
도 103은 움직임 불선명 조정부(106)의 다른 구성을 도시하는 도면.
도 104는 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명량의 조정 처리를 설명하는 흐름도.
도 105는 움직임 불선명 조정부(106)의 구성의 다른 일례를 나타내는 블록도.
도 106은 화소값과 전경 성분과의 대응을 지정하는 모델의 예를 도시하는 도면.
도 107은 전경 성분의 산출을 설명하는 도면.
도 108은 전경 성분의 산출을 설명하는 도면.
도 109는 전경의 움직임 불선명의 제거의 처리를 설명하는 흐름도.
도 110은 분리 처리 서버의 기능의 다른 구성을 나타내는 블록도.
도 111은 합성부(1001)의 구성을 도시하는 도면.
도 112는 분리 처리 서버의 기능의 또 다른 구성을 나타내는 블록도.
도 113은 혼합비 산출부(1101)의 구성을 나타내는 블록도.
도 114는 전경 배경 분리부(1102)의 구성을 나타내는 블록도.
도 115는 분리 처리 서버 기능의 또 다른 구성을 나타내는 블록도.
도 116은 합성부(1201)의 구성을 도시하는 도면.
도 117은 분리 서비스를 설명하는 흐름도.
도 118은 과금 처리를 설명하는 흐름도.
도 119는 과금 처리를 설명하는 도면.
도 120은 과금 처리의 그 밖의 예를 설명하는 흐름도.
도 121은 움직임 검출 서비스를 설명하는 흐름도.
도 122는 영역 특정 서비스를 설명하는 흐름도.
도 123은 혼합비 산출 서비스를 설명하는 흐름도.
도 124는 전경 배경 분리 서비스를 설명하는 흐름도.
도 125는 움직임 불선명 조정 서비스를 설명하는 흐름도.
도 126은 부호화 서버를 설명하는 도면.
도 127은 부호화 서비스를 설명하는 흐름도.
도 128은 부호화 처리에 의한 압축 시의 압축 능력을 설명하는 도면.
도 129는 부호화 서버의 그 밖의 예를 설명하는 도면.
도 130은 합성 서비스를 설명하는 흐름도.
도 131은 암호용 움직임 불선명 부가부를 설명하는 도면.
도 132는 암호용 움직임 불선명 제거부를 설명하는 도면.
도 133은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 134는 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 135는 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 136은 암호화 처리를 설명하는 흐름도.
도 137은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 138은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 139는 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 140은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 141은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 142는 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 143은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 144는 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 145는 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 146은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 147은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 148은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 149는 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 150은 암호용 움직임 불선명을 부가하는 처리를 설명하는 도면.
도 151은 암호용 서비스를 설명하는 흐름도.
도 152는 수정 서버를 설명하는 도면.
도 153A는 수정 처리를 설명하는 도면.
도 153B는 수정 처리를 설명하는 도면.
도 153C는 수정 처리를 설명하는 도면.
도 153D는 수정 처리를 설명하는 도면.
도 154는 수정 서비스를 설명하는 흐름도.
도 155는 구입 서비스를 설명하는 흐름도.
도 156은 매각 서비스를 설명하는 흐름도.
도 157은 매각 과금 처리를 설명하는 흐름도.
도 158은 검색 서버를 설명하는 도면.
도 159는 검색 서비스를 설명하는 흐름도.
도 160은 검색 서비스를 설명하는 도면.
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 상술한 화상 합성 처리를 네트워크의 복수의 서버에서 분산하여 처리함으로써 그 처리 속도를 향상시킬뿐만 아니라, 분산하여 처리함으로써 사용자에 의해 필요로 되는 처리만을 실행할 수 있도록 함으로써, 그 서비스에 관련되는 비용을 저감시키는 것이다.
본 발명의 제1 통신 장치는, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 빛의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터를, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 사용자의 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보 입력 수단에 의해 입력된 요구 정보에 기초하여, 분리 수단에 의해 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터를 출력하는 부호화 데이터 출력 수단을 포함하는 것을 특징으로 한다.
상기 요구 정보에 따라, 과금에 관련한 처리를 실행하는 과금 수단을 더 설치하도록 할 수 있다.
상기 과금 수단에는, 요구 정보에 따라 사용자의 식별자, 통신 장치의 식별자 및 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는, 과금 정보에 기초하여 사용자의 금융 강좌에 대하여 과금에 관한 처리를 실행시키도록 할 수 있다.
과금 수단에는, 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 부호화 데이터 출력 수단에는, 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 과금에 관련한 처리가 완료된 사용자에게만 취득 가능한 방법으로 부호화 데이터를 출력시키도록 할 수 있다.
상기 요구 정보 입력 수단에는, 사용자의 요구 정보 외에 소정의 화상 데이터를 입력시키도록 할 수 있고, 부호화 데이터 출력 수단에는, 요구 정보 입력 수단에 의해 입력된 요구 정보와 소정의 화상 데이터에 기초하여, 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 유의 정보로서의 부호화 데이터를, 과금 수단에 의해 과금에 관련한 처리가 완료된 후 사용자에게만 취득 가능한 방법으로 출력시키도록 할 수 있다.
상기 소정의 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보를 생성하는 영역 정보 생성 수단을 더 설치하도록 할 수 있고, 유의 정보에는 영역 정보를 포함시키고, 부호화 데이터 출력 수단에는 요구 정보 입력 수단에 의해 입력된 요구 정보와 소정의 화상 데이터에 기초하여, 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 영역 정보로서의 부호화 데이터를, 과금 수단에 의해 과금에 관련한 처리가 완료된 후 사용자에게만 취득 가능한 방법으로 출력시키도록 할 수 있다.
상기 소정의 화상 데이터의 혼합 영역의 전경 영역과 배경 영역이 혼합된 비율을 나타내는 혼합비를 생성하는 혼합비 생성 수단을 더 설치하도록 할 수 있고, 유의 정보에는 혼합비를 포함시키고, 부호화 데이터 출력 수단에는 요구 정보 입력 수단에 의해 입력된 요구 정보와 소정의 화상 데이터에 기초하여, 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 혼합비로서의 부호화 데이터를, 과금 수단에 의해 과금에 관련한 처리가 완료된 후 사용자에게만 취득 가능한 방법으로 출력시키도록 할 수 있다.
상기 분리 수단에는, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 소정의 화상을 구성하는 빛의 양에 따라 결정되는 화소값으로 이루어지는 소정의 화상 데이터를 영역 정보 및 혼합비에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리시키고, 유의 정보에는 전경 성분 화상과 배경 성분 화상을 포함시키고, 부호화데이터 출력 수단에는 요구 정보 입력 수단에 의해 입력된 요구 정보와 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 전경 성분 화상과 배경 성분 화상으로서의 부호화 데이터를, 과금 수단에 의해 과금에 관련한 처리가 완료되었을 때 사용자에게만 취득 가능한 방법으로 출력시키도록 할 수 있다.
상기 요구 정보 입력 수단에는, 사용자의 요구 정보 외에 소정의 화상 데이터를 식별하는 화상 데이터 식별자를 입력시키고, 부호화 데이터 출력 수단에는 요구 정보 입력 수단에 의해 입력된 요구 정보와 화상 데이터 식별자에 대응하는 소정의 화상 데이터에 기초하여, 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 유의 정보로서의 부호화 데이터를, 과금 수단에 의해 과금에 관련된 처리가 완료된 후 사용자에게만 취득 가능한 방법으로 출력시키도록 할 수 있다.
상기 화상 데이터 식별자에 대응하는 소정의 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 화상 데이터 식별자에 대응하는 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보를 생성하는 영역 정보 생성 수단을 더 설치하도록 시킬 수 있고, 유의 정보에는 영역 정보를 포함시키고, 부호화 데이터 출력 수단에는 요구 정보 입력 수단에 의해 입력된 요구 정보와 소정의 화상 데이터에 기초하여, 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 영역 정보로서의 부호화 데이터를, 과금 수단에 의해 과금에 관련한 처리가 완료된 후 사용자에게만 취득 가능한 방법으로 출력시키도록 할 수 있다.
상기 화상 데이터 식별자에 대응하는 소정의 화상 데이터 중의 혼합 영역의 혼합비를 생성하는 혼합비 생성 수단을 더 설치하도록 할 수 있고, 유의 정보에는 혼합비를 포함시키고, 부호화 데이터 출력 수단에는 요구 정보 입력 수단에 의해 입력된 요구 정보와 화상 데이터 식별자에 대응하는 소정의 화상 데이터에 기초하여, 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 혼합비로서의 부호화 데이터를, 과금 수단에 의해 과금에 관련한 처리가 완료된 후 사용자에게만 취득 가능한 방법으로 출력시키도록 할 수 있다.
상기 분리 수단에는, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 소정의 화상을 구성하는 빛의 양에 따라 결정되는 화소값으로 이루어지는 소정의 화상 데이터를, 영역 정보 및 혼합비에 기초하여, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리시키고, 유의 정보에는 전경 성분 화상과 배경 성분 화상을 포함시키고, 부호화 데이터 출력 수단에는 요구 정보 입력 수단에 의해 입력된 요구 정보와, 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 전경 성분 화상과 배경 성분 화상으로서의 부호화 데이터를, 과금 수단에 의해 과금에 관련한 처리가 완료되었을 때 사용자에게만 취득 가능한 방법으로 출력시키도록 할 수 있다.
본 발명의 제1 통신 방법은, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 빛의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터를, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 단계와, 사용자의 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보에 기초하여, 분리 단계의 처리에 의해 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터를 출력하는 부호화 데이터 출력 단계를 포함하는 것을 특징으로 한다.
본 발명의 제1 기록 매체 프로그램은, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 빛의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와, 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보에 기초하여, 분리 제어 단계의 처리에 의해 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터의 출력을 제어하는 부호화 데이터 출력 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제1 프로그램은, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 빛의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와, 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보에 기초하여 분리 제어 단계의 처리에 의해 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터의 출력을 제어하는 부호화 데이터 출력 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제 1의 통신 장치 및 방법과 제1 프로그램에서는, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 빛의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리되고, 사용자의 요구 정보가 입력되고 입력된 요구 정보에 기초하여 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터가 출력된다.
<발명을 실시하기 위한 최량의 형태>
도 1은 본 발명에 따른 화상 처리 시스템의 일 실시 형태를 도시하는 도면이다.
본 발명의 화상 처리 시스템은 예를 들면, 인터넷 등의 네트워크(1) 상에 분리 처리 서버(11), 움직임 검출 서버(12), 영역 특정 서버(13), 혼합비 산출 서버(14), 전경 배경 분리 처리 서버(15), 움직임 불선명 조정 서버(16), 부호화 서버(17), 축적 서버(18-1, 18-2), 합성 서버(19), 수정 서버(20), 구입 서버(21), 매각 서버(22), 검색 서버(23), 과금 서버(24), 금융 서버(고객용)(25), 금융 서버(제공자용)(26), 클라이언트 컴퓨터(27), 및 카메라 단말 장치(28-1 내지 28-n)가 접속되어 있고 서로 데이터를 수수할 수 있는 구성으로 되어 있다. 분리 처리 서버(11), 움직임 검출 서버(12), 영역 특정 서버(13), 혼합비 산출 서버(14), 전경 배경 분리 처리 서버(15), 움직임 불선명 조정 서버(16), 부호화 서버(17), 합성 서버(19), 수정 서버(20), 구입 서버(21), 매각 서버(22), 검색 서버(23), 과금 서버(24), 금융 서버(고객용)(25), 및 금융 서버(제공자용)(26)는 각각 분리 서비스, 움직임 검출 서비스, 영역 특정 서비스, 혼합비 산출 서비스, 전경 배경 분리 서비스, 움직임 불선명 조정 서비스, 부호화 서비스, 합성 서비스, 수정 서비스, 구입 서비스, 매각 서비스, 검색 서비스, 과금 서비스 및 금융 서비스(고객용 및 제공자용)를 제공하는 제공자에 의해 관리, 또는 운영되는 서버이다. 또한, 이하의 설명에서, 축적 서버(18-1, 18-2), 및 카메라 단말 장치(28-1 내지 28-n)를 개별적으로 구별할 필요가 없을 때 간단히 축적 서버(18), 및 카메라 단말 장치(28)라고 칭한다. 또한, 그 밖의 서버 및 기기에 대해서도 마찬가지로 적용한다.
도 2는 본 발명에 따른 분리 처리 서버(11)의 구성을 도시하는 도면이다. CPU(Central Processing Unit)(41)은 ROM(Read Only Memory)(42), 또는 기억부(48)에 기억되어 있는 프로그램에 따라 각종 처리를 실행한다. RAM(Random Access Memory)(43)에는 CPU(41)가 실행하는 프로그램이나 데이터 등이 적절하게 기억된다. 이들 CPU(41), ROM(42), 및 RAM(43)은 버스(44)에 의해 서로 접속되어 있다.
CPU(41)에는 또한 버스(44)를 통해 입출력 인터페이스(45)가 접속되어 있다. 입출력 인터페이스(45)에는 키보드, 마우스, 마이크로폰 등으로 이루어지는 입력부(46), 디스플레이, 스피커 등으로 이루어지는 출력부(47)가 접속되어 있다. CPU(41)는 입력부(46)로부터 입력되는 명령에 대응하여 각종 처리를 실행한다. 그리고, CPU(41)는 처리의 결과 얻어진 화상이나 음성 등을 출력부(47)에 출력한다.
입출력 인터페이스(45)에 접속되어 있는 기억부(48)는, 예를 들면 하드디스크 등으로 구성되며, CPU(41)가 실행하는 프로그램이나 각종 데이터를 기억한다.통신부(49)는 인터넷, 그 밖의 네트워크를 통해 외부의 장치와 통신한다.
또한, 통신부(49)를 통해 프로그램을 취득하고 기억부(48)에 기억해도 된다. 입출력 인터페이스(45)에 접속되어 있는 드라이브(50)는 자기 디스크(61), 광 디스크(62), 광 자기 디스크(63), 혹은 반도체 메모리(64) 등이 장착되었을 때, 이들을 구동하여 거기에 기록되어 있는 프로그램이나 데이터 등을 취득한다. 취득된 프로그램이나 데이터는 필요에 따라 기억부(48)에 전송되어 기억된다.
또한, 움직임 검출 서버(12), 영역 특정 서버(13), 혼합비 산출 서버(14), 전경 배경 분리 처리 서버(15), 움직임 불선명 조정 서버(16), 부호화 서버(17), 축적 서버(18-1, 18-2), 합성 서버(19), 수정 서버(20), 구입 서버(21), 매각 서버(22), 검색 서버(23), 과금 서버(24), 금융 서버(고객용)(25), 금융 서버(제공자용)(26), 및 클라이언트 컴퓨터(27)에 대해서는 그 기본 구성이 분리 처리 서버(11)와 마찬가지이기 때문에 그 설명은 생략한다.
도 3은 본 발명에 따른 카메라 단말 장치(28)의 구성을 도시하는 도면이다. 카메라 단말 장치(28)의 구성은 입력부(76)에 센서(76a) 및 GPS(Global Positioning System)(76b)가 설치되고, 출력부(77)에는 LCD(Liquid Crystal Display)(77a)가 설치되어 있는 것 이외는, 분리 처리 서버(11)의 구성과 마찬가지의 구성으로 되어 있다. 즉, 카메라 단말 장치(28)의 CPU(71), ROM(72), RAM(73), 버스(74), 입출력 인터페이스(75), 입력부(76), 출력부(77), 기억부(78), 통신부(79), 드라이브(80), 자기 디스크(91), 광 디스크(92), 광 자기 디스크(93), 및 반도체 메모리(94)는 각각 분리 처리 서버(11)의 CPU(41), ROM(42), RAM(43),버스(44), 입출력 인터페이스(45), 입력부(46), 출력부(47), 기억부(48), 통신부(49), 드라이브(50), 자기 디스크(61), 광 디스크(62), 광 자기 디스크(63), 및 반도체 메모리(64)에 각각 대응하고 있다.
센서(76a)는 촬상 소자로서 촬상한 화상을 입력부(76)에 출력한다. GPS(76b)는 도시하지 않은 정지 위성으로부터 송신되어 오는 신호에 기초하여, 지구상의 위치 정보(위도 및 경도)를 검출하고 그 검출한 위치 정보를 입력부(76)에 출력한다. LCD(77a)는 출력부로부터 출력되는 화상을 표시한다.
다음에, 도 4, 도 5를 참조하여 분리 처리 서버(11)에 대하여 설명한다.
분리 처리 서버(11)는 도 4에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 화상을 후술하는 방법에 의해 전경 성분 화상과 배경 성분 화상으로 분리하고, 입력 화상, 전경 성분 화상 및 배경 성분 화상의 각각에 ID(Identifier)를 붙여 생성하여 클라이언트 컴퓨터(27)에 출력하거나, 자체에서 기억하거나, 축적 서버(18)에 출력하여 축적시키거나, 또는 네트워크 상의 그 밖의 서버에 출력하여 기억시킨다. 여기서, 전경 성분 화상이란 입력되는 화상 중에서 움직임의 성분을 갖는 화상을 나타내고, 배경 성분 화상이란 입력되는 화상 중의 움직임 성분을 포함하지 않은 정지 부분의 화상을 나타낸다. 이 때, 과금 처리부(11a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 분리 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 도 5에서 도시한 바와 같이, 분리 처리 서버(11)는 화상 대신에, 화상을 지정하는 화상 ID가 입력되면, 네트워크(1) 상의 후술하는 검색 서버(23)나 축적 서버(18)를 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 화상 ID에 대응하는 화상 데이터를 판독하고, 전경 성분 화상과 배경 성분 화상으로 분리한 후, 각각에 대응하는 ID를 붙여 자체에서 기억하거나, 또는 네트워크(1) 상의 그 밖의 서버에 출력하여 그 서버에 대응하는 처리를 실행시킨다.
또한, 이하의 설명에서 화상을 지정하는 정보로서 화상 ID를 예로들어 설명해 가지만, 화상을 지정할 수 있는 정보이면 되며, 예를 들면, 후술하는 화상 위치 정보이어도 좋다.
다음에, 도 6, 도 7을 참조하여 움직임 검출 서버(12)에 대하여 설명한다.
도 6에서 도시한 바와 같이, 움직임 검출 서버(12)의 오브젝트 추출부(12a)는 예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 화상 내의 화상 오브젝트를 추출하여 움직임 검출부(12b)에 출력한다. 움직임 검출부(12b)는 입력된 화상 오브젝트의 움직임 벡터와 위치 정보를 검출하여 클라이언트 컴퓨터(27)에 출력하거나, 자체에서 기억하거나, 또는 네트워크(1) 상의 그 밖의 서버에 출력하여 그 서버에 대응하는 처리를 실행시킨다. 이 때, 과금 처리부(12c)는 네트워크(1)를 통해 과금 서버(24)에 대하여 각 화상 오브젝트마다의 움직임 벡터와 위치 정보의 검출 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 본 명세서에서 촬상의 대상으로 되는, 현실 세계에서의 오브젝트에 대응하는 화상을 오브젝트라고 칭한다.
또한, 도 7에서 도시한 바와 같이, 움직임 검출 서버(12)는 화상 대신에 화상을 지정하는 화상 ID가 입력되면, 네트워크(1) 상의 후술하는 검색 서버(23)나축적 서버(18)를 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 화상 ID에 대응하는 화상 데이터를 판독하여 상기와 마찬가지의 처리를 실행한다.
다음에, 도 8, 도 9를 참조하여 영역 특정 서버(13)에 대하여 설명한다.
영역 특정 서버(13)는 도 8에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 화상과, 그 화상 내의 오브젝트를 지정하는 오브젝트 지정 정보에 의해, 입력된 화상의 화소의 각각을 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 특정하고, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는가를 나타내는 정보(이하, 영역 정보라 칭한다)를 생성하여 클라이언트 컴퓨터(27)에 출력하거나, 자체에서 기억하거나, 또는 네트워크(1) 상의 그 밖의 서버에 출력하여 그 서버에 대응하는 처리를 실행시킨다. 이 때, 과금 처리부(13a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 영역 특정 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 도 9에서 도시한 바와 같이, 영역 특정 서버(13)는 화상 대신에 화상을 지정하는 화상 ID가 입력되면, 네트워크(1) 상의 후술하는 검색 서버(23)나 축적 서버(18)를 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 화상 ID에 대응하는 화상을 호출하고 그 화상의 오브젝트 지정 정보에 대응하는 영역 정보를 출력한다.
다음에, 도 10, 도 11을 참조하여 혼합비 산출 서버(14)에 대하여 설명한다.
혼합비 산출 서버(14)는 도 10에서 도시한 바와 같이, 네트워크(1)를 통해예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 화상, 그 화상 내의 오브젝트를 지정하는 오브젝트 지정 정보 및 영역 정보에 기초하여, 혼합 영역에 포함되는 화소에 대응하는 혼합비(이하, 혼합비α라 칭한다)를 산출하고, 산출한 혼합비를 클라이언트 컴퓨터(27)에 출력하거나, 자체에서 기억하거나, 또는 네트워크 상의 그 밖의 서버에 출력하여 그 서버에 대응하는 처리를 실행시킨다. 이 때, 과금 처리부(14a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 혼합비 산출 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 도 11에서 도시한 바와 같이, 혼합비 산출 서버(14)는 화상 대신에 화상을 지정하는 화상 ID가 입력되면, 네트워크(1) 상의 후술하는 검색 서버(23)나 축적 서버(18)를 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 화상 ID에 대응하는 화상을 호출하여 상기와 마찬가지의 처리를 실행한다.
다음에, 도 12, 도 13을 참조하여, 전경 배경 분리 처리 서버(15)에 대하여 설명한다.
전경 배경 분리 처리 서버(15)는 도 12에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 화상, 그 화상 내의 오브젝트를 지정하는 오브젝트 지정 정보, 영역 정보, 및 혼합비α에 기초하여, 전경의 오브젝트에 대응하는 화상의 성분(이하, 전경 성분이라고도 칭한다)만으로 이루어지는 전경 성분 화상과, 배경 성분(이하, 배경 성분이라고도 칭한다)만으로 이루어지는 배경 성분 화상으로 입력 화상을 분리하여 각 화상마다 ID를 붙여 클라이언트 컴퓨터(27)에 출력하거나, 자체에서 기억하거나, 또는 네트워크 상의 그 밖의 서버에 출력하여 그 서버에 대응하는 처리를 실행시킨다. 이 때, 과금 처리부(15a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 전경 배경 분리 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 도 13에서 도시한 바와 같이, 전경 배경 분리 처리 서버(15)는 화상 대신에 화상을 지정하는 화상 ID가 입력되면, 네트워크(1) 상의 후술하는 검색 서버(23)나 축적 서버(18)를 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 화상 ID에 대응하는 화상을 호출하여 상기와 마찬가지의 처리를 실행한다.
다음에, 도 14, 도 15를 참조하여, 움직임 불선명 조정 서버(16)에 대하여 설명한다. 움직임 불선명 조정 서버(16)는 도 14에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 전경 성분 화상, 움직임 벡터 및 움직임 불선명량에 기초하여, 전경 성분 화상에 포함되는 움직임 불선명을 제거하거나, 움직임 불선명의 양을 감소시키거나, 또는 움직임 불선명의 양을 증가시키는 등, 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양을 조정한 전경 성분 화상을 생성하여 화상마다 ID를 붙여 클라이언트 컴퓨터(27)에 출력하거나, 자체에서 기억하거나, 또는 네트워크 상의 그 밖의 서버에 출력하여 그 서버에 대응하는 처리를 실행시킨다. 이 때, 과금 처리부(16a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 움직임 불선명 조정 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 도 15에서 도시한 바와 같이, 움직임 불선명 조정 서버(16)는 전경 성분 화상 대신에 전경 성분 화상을 지정하는 전경 성분 화상 ID가 입력되면, 네트워크(1) 상의 후술하는 검색 서버(23)나축적 서버(18)를 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 전경 성분 화상 ID에 대응하는 전경 성분 화상을 호출하여 상기와 마찬가지의 처리를 실행한다.
다음에, 도 16, 도 17을 참조하여 부호화 서버(17)에 대하여 설명한다.
부호화 서버(17)는 도 16에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 화상을 전경 성분 화상과 배경 성분 화상으로 분리하고, 각각에 ID를 붙여 자체에서 기억하거나, 또는 네트워크 상의 그 밖의 서버에 출력하여 기억시키고, 기억시킨 그 서버의 URL(Universal Resource Locator) 등의 전경 성분 화상 및 배경 성분 화상이 출력(기억)된 서버의 네트워크(1) 상의 위치를 나타내는 부호로 이루어지는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성하고, 이들 화상의 움직임 벡터, 위치 정보, 및 혼합비 등의 정보와 함께 출력한다. 또한, 부호화 정보가 출력하는 정보는, 부호화 정보, 화상과 화상 및 부호화 정보의 어느 것이어도 되며, 필요에 따라 출력하는 정보를 바꿀 수 있다. 또한, 이 때, 과금 처리부(17a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 부호화 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 도 17에서 도시한 바와 같이, 부호화 서버(17)는 화상 대신에 화상을 지정하는 화상 ID가 입력되면, 네트워크(1) 상의 후술하는 검색 서버(23)나 축적 서버(18)에 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 화상 ID에 대응하는 화상을 호출하여 상기와 마찬가지의 처리를 실행한다.
다음에, 도 18, 도 19를 참조하여 축적 서버(18)에 대하여 설명한다.
축적 서버(18)는 도 18에서 도시한 바와 같이, 네트워크(1) 상에 접속되고, 각종 서버로부터 송신되어 오는 화상을 축적함과 함께, 축적시킨 화상에 대응하는 화상 위치 정보를 화상 ID와 함께 출력한다. 이 화상 위치 정보에 의해 예를 들면, 클라이언트 컴퓨터(27)는 네트워크(1)를 통해 액세스하여 원하는 화상을 호출할 수 있다. 즉, 도 19에서 도시한 바와 같이, 예를 들면, 클라이언트 컴퓨터(27)가 화상 위치 정보에 기초하여, 네트워크(1) 형상의 축적 서버(18)에 액세스하여 원하는 화상에 대응하는 화상 ID를 지정함으로써, 원하는 화상을 읽어낼 수 있다. 또한, 본 명세서 내에서는 화상 위치 정보와 화상 ID를 별도로 설명해 가지만, 화상 위치 정보는 화상 ID의 일부로 하도록 해도 되고, 이 경우, 화상 ID에 의해 화상 위치 정보를 인식할 수 있어, 네트워크(1) 상의 어느 서버에 기억(축적, 또는 처리)되어 있는가를 인식할 수 있도록 해도 된다. 또한, 축적 서버(18)는 화상 데이터 이외에도 움직임 벡터, 위치 정보, 혼합비 및 움직임 불선명량을 기억하도록 해도 좋다.
다음에, 도 20, 도 21을 참조하여 합성 서버(19)에 대하여 설명한다.
합성 서버(19)는 도 20에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 화상 A, B라는 2개의 화상과 움직임 벡터 및 위치 정보, 혼합비 및 움직임 불선명량으로부터 화상 A, B를 합성하여 합성 화상(A+B)을 생성하여 클라이언트 컴퓨터(27)에 출력하거나, 자체에서 기억하거나, 또는 네트워크(1) 상의 그 밖의 서버에 출력하여 그 서버에 대응하는 처리를실행시킨다. 이 경우, 화상 A, B는 한쪽이 전경 성분 화상으로서, 다른 쪽이 배경 성분 화상으로서 취급됨으로써 양자가 합성되게 된다. 이 때, 과금 처리부(19a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 합성 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 도 21에서 도시한 바와 같이, 합성 서버(19)는 화상 A, B 대신에 화상을 지정하는 화상 A-ID, B-ID가 입력되면, 네트워크(1) 상의 후술하는 검색 서버(23)나 축적 서버(18)에 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 화상 A-ID, B-ID에 대응하는 화상을 호출하여 상기와 마찬가지의 처리를 실행한다.
다음에, 도 22,도 23을 참조하여 수정 서버(20)에 대하여 설명한다.
수정 서버(20)는 도 22에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 클라이언트 컴퓨터(27) 등으로부터 입력되는 화상을 움직임 벡터 및 위치 정보, 혼합비 및 움직임 불선명량에 기초하여 수정하고, 수정 화상을 생성하여 클라이언트 컴퓨터(27)에 출력하거나, 자체에서 기억하거나, 또는 네트워크 상의 그 밖의 서버에 출력하여 그 서버에 대응하는 처리를 실행시킨다. 이 때, 과금 처리부(20a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 수정 처리에 관련되는 요금의 과금 처리를 실행한다. 또한, 도 23에서 도시한 바와 같이, 수정 서버(20)는 화상 대신에 화상을 지정하는 화상 ID가 입력되면 네트워크(1) 상의 후술하는 검색 서버(23)나 축적 서버(18)에 액세스하거나, 자신의 기억부(예를 들면, 도 3의 기억부(78))를 검색하여 입력된 화상 ID에 대응하는 화상을 호출하여 상기와 마찬가지의 처리를 실행한다.
다음에, 도 24를 참조하여 구입 서버(21)에 대하여 설명한다.
구입 서버(21)는 도 24에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 소정의 화상의 구입을 희망하는 사용자에 의해 클라이언트 컴퓨터(27) 등이 조작되고, 구입을 희망하는 화상을 지정하는 화상 ID가 입력되면, 대응하는 화상을 네트워크(1) 상의 분리 처리 서버(11), 축적 서버(18), 합성 서버(19), 또는 수정 서버(20) 등에 액세스하여 대응하는 화상을 호출하여 클라이언트 컴퓨터(27)에 출력한다. 이 때, 과금 처리부(21a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 구입하는 화상에 관련되는 요금의 과금 처리를 실행한다.
다음에, 도 25를 참조하여 매각 서버(22)에 대하여 설명한다.
매각 서버(22)는 도 25에서 도시한 바와 같이, 네트워크(1)를 통해 예를 들면, 분리 처리 서버(11), 합성 서버(19), 또는 수정 서버(20)에 의해 생성된, 소정의 사용자가 소유하는 분리 화상, 합성 화상, 또는 수정 화상의 매각을 희망하는 화상이 입력되면, 매각을 희망하는 화상을 네트워크(1) 상의 분리 처리 서버(11), 축적 서버(18), 합성 서버(19), 또는 수정 서버(20) 등에 기억시킴과 함께, 과금 처리부(22a)가 네트워크(1)를 통해 과금 서버(24)에 대하여 매각하는 화상에 관련되는 요금의 과금 처리를 실행한다(이 경우, 매각 처리 서비스의 제공자가, 매각을 희망하는 사용자에게, 매각된 화상에 대응하는 가격분의 지불 처리를 실행하게 된다).
다음에, 도 26을 참조하여 검색 서버(26)에 대하여 설명한다.
검색 서버(26)는 예를 들면, 클라이언트 컴퓨터(1)에 의해 사용자가 원하는화상의 특징을 나타내는 정보나, 카메라 단말 장치(28-1 내지 28-n)의 물리적인 위치 정보로부터 네트워크(1) 상의 카메라 단말 장치(28-1 내지 28-n)에서 현재 촬상하고 있는 화상, 또는 미리 촬상된 화상을 검색하여, 요구 화상으로서 클라이언트 컴퓨터(1)에 출력한다. 이 때, 과금 처리부(23a)는 네트워크(1)를 통해 과금 서버(24)에 대하여 검색 처리에 관련되는 요금의 과금 처리를 실행한다.
또한, 본 명세서에서는, 부호화란 화상 데이터에 기초하여 얻어지는, 전경 성분 화상, 배경 성분 화상, 움직임 벡터, 위치 정보, 움직임 불선명량 및 혼합비의 정보로 변환하는 것을 부호화라고 하고, 그 데이터를 부호화 데이터라고 부르는 것으로 한다.
도 27은 분리 처리 서버(11)를 나타내는 블록도이다.
또한, 분리 처리 서버(11)의 각 기능을 하드웨어로 실현하거나 소프트웨어로 실현하는가는 불문한다. 즉, 본 명세서의 각 블록도는 하드웨어의 블록도라고 생각하거나, 소프트웨어에 의한 기능 블록도라고 생각해도 된다.
분리 처리 서버(11)에 공급된 입력 화상은 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면, 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상 오브젝트의 윤곽을 검출함으로써, 전경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출한다.
오브젝트 추출부(101)는 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하고, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면, 입력 화상과 추출된 전경의 오브젝트에 대응하는 화상 오브젝트와의 차로부터 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출한다.
또한, 예를 들면, 오브젝트 추출부(101)는 내부에 설치되어 있는 배경 메모리에 기억되어 있는 배경의 화상과 입력 화상의 차로부터 전경의 오브젝트에 대응하는 화상 오브젝트, 및 배경의 오브젝트에 대응하는 화상 오브젝트를 개략적으로 추출하도록 해도 된다.
움직임 검출부(102)는 예를 들면, 블록 매칭법, 구배법, 위상 상관법, 및 펠리커시브법 등의 방법에 의해 개략적으로 추출된 전경의 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보(움직임 벡터에 대응하는 화소의 위치를 특정하는 정보)를 영역 특정부(103) 및 움직임 불선명 조정부(106)에 공급한다.
움직임 검출부(102)가 출력하는 움직임 벡터에는 움직임량 v에 대응하는 정보가 포함된다.
또한, 예를 들면, 움직임 검출부(102)는 화상 오브젝트에 화소를 특정하는 화소 위치 정보와 함께 화상 오브젝트마다의 움직임 벡터를 움직임 불선명 조정부(106)에 출력하도록 해도 좋다.
움직임량 v는 움직이고 있는 오브젝트에 대응하는 화상의 위치의 변화를 화소 간격을 단위로 나타내는 값이다. 예를 들면, 전경에 대응하는 오브젝트의 화상이 임의의 프레임을 기준으로 하여 다음의 프레임에서 4 화소만큼 떨어진 위치에 표시되도록 이동하고 있을 때, 전경에 대응하는 오브젝트의 화상의 움직임량 v는 4가 된다.
또, 오브젝트 추출부(101) 및 움직임 검출부(102)는 움직이고 있는 오브젝트에 대응한 움직임 불선명량의 조정을 행하는 경우에 필요하게 된다.
영역 특정부(103)는 입력된 화상의 화소의 각각을 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 특정하고, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는가를 나타내는 정보를 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는 입력 화상, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로 혼합 영역에 포함되는 화소에 대응하는 혼합비를 산출하고, 산출한 혼합비를 전경 배경 분리부(105)에 공급한다.
혼합비α는 후술하는 식(3)으로 나타낸 바와 같이, 화소값에서의, 배경의 오브젝트에 대응하는 화상의 성분(이하, 배경 성분이라고도 칭한다)의 비율을 나타내는 값이다.
전경 배경 분리부(105)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비α를 기초로, 전경의 오브젝트에 대응하는 화상의 성분(이하, 전경 성분이라고도 칭한다)만으로 이루어지는 전경 성분 화상과, 배경 성분만으로 이루어지는 배경 성분 화상으로 입력 화상을 분리하여, 전경성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다. 또, 분리된 전경 성분 화상을 최종적인 출력으로 하는 것도 생각할 수 있다. 종래의 혼합 영역을 고려하지 않고 전경과 배경만을 특정하여 분리하고 있던 방식에 비하여, 정확한 전경과 배경을 얻을 수 있다.
움직임 불선명 조정부(106)는 움직임 벡터로부터 알 수 있는 움직임량 v 및 영역 정보를 기초로, 전경 성분 화상에 포함되는 1 이상의 화소를 나타내는 처리 단위를 결정한다. 처리 단위는 움직임 불선명량의 조정 처리의 대상이 되는 1군의 화소를 지정하는 데이터이다.
움직임 불선명 조정부(106)는 분리 처리 서버(11)에 입력된 움직임 불선명 조정량, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보와 처리 단위를 기초로 전경 성분 화상에 포함되는 움직임 불선명을 제거하거나, 움직임 불선명량을 감소시키거나, 또는 움직임 불선명량을 증가시키는 등 전경 성분 화상에 포함되는 움직임 불선명 양을 조정하고, 움직임 불선명 양을 조정한 전경 성분 화상을 선택부(107)에 출력한다. 움직임 벡터와 그 위치 정보는 사용하지 않는 것도 있다.
여기서, 움직임 불선명이란 촬상의 대상으로 되는, 현실 세계에서의 오브젝트의 움직임과 센서의 촬상의 특성에 의해 생기는, 움직이고 있는 오브젝트에 대응하는 화상에 포함되어 있는 왜곡을 말한다.
선택부(107)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명 양이 조정된 전경 성분 화상 중 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
다음에, 도 28 내지 도 43을 참조하여 분리 처리 서버(11)에 공급되는 입력 화상에 대하여 설명한다.
도 28은 센서(76a)에 의한 촬상을 설명하는 도면이다. 센서(76a)는 예를 들면, 고체 촬상 소자인 CCD(Charge-Coupled Device) 에리어 센서를 구비한 CCD 비디오 카메라 등으로 구성된다. 현실 세계에서의, 전경에 대응하는 오브젝트(112)는, 현실 세계에서의, 배경에 대응하는 오브젝트(111)와 센서 사이를 예를 들면, 도면 중의 좌측으로부터 우측으로 수평으로 이동한다.
센서(76a)는 전경에 대응하는 오브젝트(112)를 배경에 대응하는 오브젝트(111)와 함께 촬상한다. 센서(76a)는 촬상한 화상을 1 프레임 단위로 출력한다. 예를 들면, 센서(76a)는 1초간 30 프레임으로 이루어지는 화상을 출력한다. 센서(76a)의 노광 시간은 1/30초로 할 수 있다. 노광 시간은 센서(76a)가 입력된 광의 전하로의 변환을 개시하고 나서, 입력된 광의 전하로의 변환을 종료하기까지의 기간이다. 이하, 노광 시간을 셔터 시간이라고도 칭한다.
도 29는 화소의 배치를 설명하는 도면이다. 도 29에서의 A 내지 I는 개개의 화소를 나타낸다. 화소는 화상에 대응하는 평면 상에 배치되어 있다. 1개의 화소에 대응하는 1개의 검출 소자는 센서(76a) 상에 배치되어 있다. 센서(76a)가 화상을 촬상할 때, 1개의 검출 소자는 화상을 구성하는 1개의 화소에 대응하는 화소값을 출력한다. 예를 들면, 검출 소자의 X 방향의 위치는 화상 상의 가로 방향의 위치에 대응하고, 검출 소자의 Y 방향의 위치는 화상 상의 세로 방향의 위치에 대응한다.
도 30에 도시한 바와 같이, 예를 들면, CCD 인 검출 소자는 셔터 시간에 대응하는 기간에, 입력된 광을 전하로 변환하고 변환된 전하를 축적한다. 전하의 양은 입력된 광의 세기와 광이 입력되고 있는 시간에 거의 비례한다. 검출 소자는 셔터 시간에 대응하는 기간에서 입력된 광으로부터 변환된 전하를 이미 축적되어 있는 전하에 더해간다. 즉, 검출 소자는 셔터 시간에 대응하는 기간, 입력되는 광을 적분하여 적분된 광에 대응하는 양의 전하를 축적한다. 검출 소자는 시간에 대하여, 적분 효과가 있다고도 말할 수 있다.
검출 소자에 축적된 전하는 도시하지 않은 회로에 의해, 전압값으로 변환되고, 전압값은 다시 디지털 데이터 등의 화소값으로 변환되어 출력된다. 따라서, 센서(76a)로부터 출력되는 개개의 화소값은 전경 또는 배경에 대응하는 오브젝트가 공간적으로 넓이를 갖는 임의의 부분을, 셔터 시간에 대하여 적분한 결과인, 일차원의 공간에 사영된 값을 갖는다.
분리 처리 서버(11)는 이러한 센서(76a)의 축적 동작에 의해 출력 신호에 묻혀 버린 유의한 정보, 예를 들면, 혼합비α를 추출한다. 분리 처리 서버(11)는 전경의 화상 오브젝트 자신이 뒤섞임으로 인해 생기는 왜곡의 양, 예를 들면, 움직임 불선명량 등을 조정한다. 또한, 분리 처리 서버(11)는 전경의 화상 오브젝트와 배경의 화상 오브젝트가 뒤섞임으로 인해 생기는 왜곡의 양을 조정한다.
도 31A 내지 도 31D는 움직이고 있는 전경에 대응하는 오브젝트와 정지하고있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면이다. 도 31A는 움직임을 수반하는 전경에 대응하는 오브젝트와 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 도시하고 있다. 도 31A에 도시하는 예에서, 전경에 대응하는 오브젝트는 화면에 대하여 수평으로 좌측으로부터 우측으로 움직이고 있다.
도 31B는 도 31A에 도시한 화상의 1개의 라인에 대응하는 화소값을 시간 방향으로 전개한 모델 도면이다. 도 31B의 가로 방향은 도 31A의 공간 방향 X에 대응하고 있다.
배경 영역의 화소는 배경 성분, 즉, 배경의 오브젝트에 대응하는 화상의 성분만으로 그 화소값이 구성되어 있다. 전경 영역의 화소는 전경 성분, 즉, 전경의 오브젝트에 대응하는 화상의 성분만으로 그 화소값이 구성되어 있다.
혼합 영역의 화소는 배경 성분, 및 전경 성분으로 그 화소값이 구성되어 있다. 혼합 영역은 배경 성분, 및 전경 성분으로 그 화소값이 구성되어 있기 때문에, 왜곡 영역이라고도 할 수 있다. 혼합 영역은 다시 커버드 백그라운드 영역 및 언커버드 백그라운드 영역으로 분류된다.
커버드 백그라운드 영역은 전경 영역에 대하여 전경의 오브젝트의 진행 방향의 전단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 전경에 덮여 숨겨지는 영역을 말한다.
이것에 대하여 언커버드 백그라운드 영역은 전경 영역에 대하여 전경의 오브젝트의 진행 방향의 후단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 나타나는 영역을 말한다.
이와 같이, 전경 영역, 배경 영역, 또는 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역을 포함하는 화상이 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 입력 화상으로서 입력된다.
도 32는, 이상과 같은 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면이다. 도 31A와 도 31B에 도시한 화상에 대응하는 경우, 배경 영역은 정지 부분이고, 전경 영역은 움직임 부분이고, 혼합 영역의 커버드 백그라운드 영역은 배경으로부터 전경으로 변화하는 부분이고, 혼합 영역의 언커버드 백그라운드 영역은 전경으로부터 배경으로 변화하는 부분이다.
도 33은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 예를 들면, 인접하여 1열로 배열되어 있는 화소로서 화면의 1개의 라인 상에 배열되어 있는 화소를 선택할 수 있다.
도 33에 도시한 FO1 내지 F04의 화소값은 정지하고 있는 전경의 오브젝트에 대응하는 화소의 화소값이다. 도 33에 도시한 BO1 내지 BO4의 화소값은 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소값이다.
도 33에서의 세로 방향은 시간에 대응하고, 도면 중의 위에서 아래로 향해 시간이 경과한다. 도 33 중의 구형의 윗변의 위치는 센서(76a)가 입력된 광의 전하로의 변환을 개시하는 시각에 대응하고, 도 33 중의 구형의 밑변의 위치는센서(76a)가 입력된 광의 전하로의 변환을 종료하는 시각에 대응한다. 즉, 도 33 중의 구형의 윗변에서 밑변까지의 거리는 셔터 시간에 대응한다.
이하에서 셔터 시간과 프레임 간격이 동일한 경우를 예로들어 설명한다.
도 33에서의 가로 방향은 도 31A에서 설명한 공간 방향 X에 대응한다. 보다 구체적으로는, 도 33에 도시한 예에서 도 33 중의 "FO1"로 기재된 구형의 좌변으로부터 "BO4"로 기재된 구형의 우변까지의 거리는 화소 피치의 8배, 즉, 연속하고 있는 8개의 화소의 간격에 대응한다.
전경의 오브젝트 및 배경의 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에서 센서(76a)에 입력되는 광은 변화하지 않는다.
여기서, 셔터 시간에 대응하는 기간을 2개 이상의 동일한 길이의 기간으로 분할한다. 예를 들면, 가상 분할 수를 4로 하면, 도 33에 도시한 모델도는 도 9에 도시한 모델로서 나타낼 수 있다. 가상 분할 수는 전경에 대응하는 오브젝트의 셔터 시간 내에서의 움직임량 v 등에 대응하여 설정된다. 예를 들면, 4인 움직임량 v에 대응하여 가상 분할 수는 4로 되고, 셔터 시간에 대응하는 기간은 4개로 분할된다.
도면 중의 가장 위의 행은, 셔터가 열리고 최초의, 분할된 기간에 대응한다. 도면 중의 위로부터 2번째의 행은 셔터가 열리고 2번째의, 분할된 기간에 대응한다. 도면 중의 위로부터 3번째의 행은 셔터가 열리고 3번째의, 분할된 기간에 대응한다. 도면 중의 위로부터 4번째의 행은 셔터가 열리고 4번째의, 분할된 기간에 대응한다.
이하, 움직임량 v에 대응하여 분할된 셔터 시간을 셔터 시간/v라고도 칭한다.
전경에 대응하는 오브젝트가 정지하고 있을 때, 센서(76a)에 입력되는 광은 변화하지 않기 때문에, 전경 성분 F01/v는 화소값 F01을 가상 분할 수로 나눈 값과 같다. 마찬가지로, 전경에 대응하는 오브젝트가 정지하고 있을 때, 전경 성분 F02/v는 화소값 F02를 가상 분할 수로 나눈 값과 같고, 전경 성분 FO3/v는 화소값 F03을 가상 분할 수로 나눈 값과 같고, 전경 성분 F04/v는 화소값 F04를 가상 분할 수로 나눈 값과 같다.
배경에 대응하는 오브젝트가 정지하고 있을 때, 센서(76a)에 입력되는 광은 변화하지 않기 때문에, 배경 성분 B01/v는 화소값 B01을 가상 분할 수로 나눈 값과 같다. 마찬가지로, 배경에 대응하는 오브젝트가 정지하고 있을 때 배경 성분 B02/v는 화소값 B02를 가상 분할 수로 나눈 값과 같고, B03/v는 화소값 B03을 가상 분할 수로 나눈 값과 같고, B04/v는 화소값 B04를 가상 분할 수로 나눈 값과 같다.
즉, 전경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 센서(76a)에 입력되는 전경의 오브젝트에 대응하는 광이 변화하지 않기 때문에, 셔터가 열리고 최초의, 셔터 시간/v에 대응하는 전경 성분 FO1/v와, 셔터가 열리고 2번째의, 셔터 시간/v에 대응하는 전경 성분 FO1/v와, 셔터가 열리고 3번째의, 셔터 시간/v에 대응하는 전경 성분 FO1/v와, 셔터가 열리고 4번째의, 셔터 시간/v에 대응하는 전경 성분 FO1/v는 동일한 값이 된다. F02/v 내지 F04/v도 F01/v와 마찬가지의 관계를 갖는다.
배경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 센서(76a)에 입력되는 배경의 오브젝트에 대응하는 광은 변화하지 않기 때문에, 셔터가 열리고 최초의, 셔터 시간/v에 대응하는 배경 성분 BO1/v와, 셔터가 열리고 2번째의, 셔터 시간/v에 대응하는 배경 성분 BO1/v와, 셔터가 열리고 3번째의, 셔터 시간/v에 대응하는 배경 성분 BO1/v와, 셔터가 열리고 4번째의, 셔터 시간/v에 대응하는 배경 성분 BO1/v는 동일한 값이 된다. B02/v 내지 B04/v도 마찬가지의 관계를 갖는다.
다음에, 전경에 대응하는 오브젝트가 이동하고, 배경에 대응하는 오브젝트가 정지하고 있는 경우에 대해 설명한다.
도 35는 전경에 대응하는 오브젝트가 도면의 우측을 향하여 이동하는 경우의, 커버드 백그라운드 영역을 포함하는, 1개의 라인 상의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 도 35에서 전경의 움직임량 v는 4이다. 1 프레임은 짧은 시간이기 때문에 전경에 대응하는 오브젝트가 강체이고 등속으로 이동하고 있다고 가정할 수 있다. 도 35에서 전경에 대응하는 오브젝트의 화상은 임의의 프레임을 기준으로 하여 다음의 프레임에서 4 화소분 우측으로 표시되도록 이동한다.
도 35에서 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는 전경 영역에 속한다. 도 35에서 좌측으로부터 5번째 내지 좌측으로부터 7번째의 화소는 커버된 백 그라운드 영역인 혼합 영역에 속한다. 도 35에서 가장 우측의 화소는 배경 영역에 속한다.
전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트를 덮어 감추도록 이동하고 있기 때문에, 커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은 셔터 시간에 대응하는 기간의 어느 시점에서 배경 성분으로부터 전경 성분으로 교체된다.
예를 들면, 도 35 중에 굵은선 틀을 붙인 화소값 M은 식(1)로 표현된다.
예를 들면, 좌측으로부터 5번째의 화소는 1개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 5번째의 화소의 혼합비α는 1/4이다. 좌측으로부터 6번째의 화소는 2개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 6번째의 화소의 혼합비α는 1/2이다. 좌측으로부터 7번째의 화소는 3개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 1개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 7번째의 화소의 혼합비α는 3/4이다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음의 프레임에서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 35의 좌측으로부터 4번째 화소의, 셔터가 열리고 최초의, 셔터 시간/v의 전경 성분 F07/v는 도 35 중의 좌측으로부터 5번째 화소의, 셔터가 열리고 2번째의 셔터시간/v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F07/v는 도 35의 좌측으로부터 6번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 35의 좌측으로부터 7번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v에 대응하는 전경 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고 전경의 화상이 다음의 프레임에서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 35의 좌측으로부터 3번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분 F06/v는 도 35의 좌측으로부터 4번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 FO6/v는 도 35의 좌측으로부터 5번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 35의 좌측으로부터 6번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v에 대응하는 전경 성분이 각각 같다.
전경에 대응하는 오브젝트가 강체이고 전경의 화상이 다음의 프레임에서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 35의 좌측으로부터 2번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분 F05/v는 도 35의 좌측으로부터 3번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F05/v는 도 35의 좌측으로부터 4번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 35의 좌측으로부터 5번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v에 대응하는 전경 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고 전경의 화상이 다음의 프레임에서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 35 중의 가장 좌측 화소의, 셔텨가 열리고 최초의 셔터 시간/v의 전경 성분 F04/v는 도 35의 좌측으로부터 2번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F04/v 는 도 35의 좌측으로부터 3번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 35의 좌측으로부터 4번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v에 대응하는 전경 성분과 각각 같다.
움직이고 있는 오브젝트에 대응하는 전경의 영역은 이와 같이 움직임 불선명을 포함하기 때문에 왜곡 영역이라고도 말할 수 있다.
도 36은 전경이 도면 중의 우측을 향하여 이동하는 경우의, 언커버드 백그라운드 영역을 포함하는, 1개의 라인 상의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 도 36에서 전경의 움직임량 v는 4이다. 1 프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고 등속으로 이동하고 있다고 가정할 수 있다. 도 36에서 전경에 대응하는 오브젝트의 화상은 임의의 프레임을 기준으로 하여 다음의 프레임에서 4 화소분 우측으로 이동한다.
도 36에서 가장 좌측의 화소 내지 좌측으로부터 4번째의 화소는 배경 영역에 속한다. 도 36에서 좌측으로부터 5번째 내지 좌측으로부터 7번째의 화소는 언커버드 백그라운드인 혼합 영역에 속한다. 도 36에서 가장 우측의 화소는 전경 영역에 속한다.
배경에 대응하는 오브젝트를 덮고 있던 전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트의 전으로부터 제거되도록 이동하고 있기 때문에, 언커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은 셔터 시간에 대응하는 기간의 어느 시점에서 전경 성분으로부터 배경 성분으로 교체된다.
예를 들면, 도 36 중에 굵은선 틀을 붙인 화소값 M'은 식(2)으로 표현된다.
예를 들면, 좌측으로부터 5번째 화소는 3개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 1개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 5번째 화소의 혼합비α는 3/4이다. 좌측으로부터 6번째의 화소는 2개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 6번째 화소의 혼합비α는 1/2이다. 좌측으로부터 7번째 화소는 1개의 셔터 시간/v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간/v에 대응하는 전경 성분을 포함하기 때문에, 좌측으로부터 7번째 화소의 혼합비α는 1/4이다.
식(1) 및 식(2)을 보다 일반화하면 화소값 M은 식(3)으로 표현된다.
여기서, α는 혼합비이다. B는 배경의 화소값이고, Fi/v는 전경 성분이다.
전경에 대응하는 오브젝트가 강체이고 등속으로 움직인다고 가정할 수 있고, 또한, 움직임량 v가 4이기 때문에, 예를 들면, 도 36 중의 좌측으로부터 5번째 화소의, 셔터가 열리고 최초의, 셔터 시간/v의 전경 성분 FO1/v는, 도 36 중의 좌측으로부터 6번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v에 대응하는 전경 성분과 같다. 마찬가지로, FO1/v는 도 36 중의 좌측으로부터 7번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v에 대응하는 전경 성분과, 도 36 중의 좌측으로부터 8번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v에 대응하는 전경 성분과 각각 같다.
전경에 대응하는 오브젝트가 강체이고 등속으로 움직인다고 가정할 수 있고, 또한, 가상 분할 수가 4이기 때문에, 예를 들면, 도 36 중의 좌측으로부터 6번째 화소의, 셔터가 열리고 최초의, 셔터 시간/v의 전경 성분 F02/v는, 도 36 중의 좌측으로부터 7번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F02/v는 도 36 중의 좌측으로부터 8번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v에 대응하는 전경 성분과 같다.
전경에 대응하는 오브젝트가 강체이고 등속으로 움직인다고 가정할 수 있고, 또한, 움직임량 v가 4이기 때문에 예를 들면, 도 36 중의 좌측으로부터 7번째 화소의, 셔터가 열리고 최초의, 셔터 시간/v의 전경 성분 F03/v는, 도 36 중의 좌측으로부터 8번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v에 대응하는 전경 성분과 같다.
도 34 내지 도 36의 설명에서 가상 분할 수는 4로 하여 설명하였지만, 가상 분할 수는 움직임량 v에 대응한다. 움직임량 v는 일반적으로 전경에 대응하는 오브젝트의 이동 속도에 대응한다. 예를 들면, 전경에 대응하는 오브젝트가 임의의 프레임을 기준으로 하여 다음의 프레임에서 4 화소분 우측에 표시되도록 이동하고 있을 때, 움직임량 v는 4가 된다. 움직임량 v에 대응하여 가상 분할 수는 4가 된다. 마찬가지로, 예를 들면, 전경에 대응하는 오브젝트가 임의의 프레임을 기준으로 하여 다음의 프레임에서 6 화소분 좌측에 표시되도록 이동하고 있을 때, 움직임량 v는 6이 되어 가상 분할 수는 6이 된다.
도 37 및 도 38은 이상에서 설명한 전경 영역, 배경 영역, 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역과, 분할된 셔터 시간에 대응하는 전경 성분 및 배경 성분과의 관계를 도시한다.
도 37은 정지하고 있는 배경의 앞을 이동하고 있는 오브젝트에 대응하는 전경을 포함하는 화상으로부터 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시한다. 도 37에 도시한 예에서 전경에 대응하는 오브젝트 A는 화면에 대하여 수평으로 이동하고 있다.
프레임 #n+1은 프레임 #n의 다음 프레임이고, 프레임 #n+2는 프레임 #n+1의 다음 프레임이다.
프레임#n 내지 프레임 #n+2 중 어느 하나로부터 추출한 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출하고, 움직임량 v를 4로 하여 추출된 화소의 화소값을 시간 방향으로 전개한 모델을 도 38에 도시한다.
전경 영역의 화소값은 전경에 대응하는 오브젝트 A가 이동하기 때문에, 셔터 시간/v의 기간에 대응하는 4개의 서로 다른 전경 성분으로 구성된다. 예를 들면, 도 38에 도시하는 전경 영역의 화소중 가장 좌측에 위치하는 화소는, F01/v, F02/v, F03/v, 및 F04/v 로 구성된다. 즉, 전경 영역의 화소는 움직임 불선명을 포함하고 있다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 셔터 시간에 대응하는 기간에 센서(76a)에 입력되는 배경에 대응하는 광은 변화하지 않는다. 이 경우, 배경 영역의 화소값은 움직임 불선명을 포함하지 않는다.
커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로부터 이루어지는 혼합 영역에 속하는 화소의 화소값은 전경 성분과 배경 성분으로 구성된다.
다음에, 오브젝트에 대응하는 화상이 움직이고 있을 때, 복수의 프레임에서의, 인접하여 1열로 배열되어 있는 화소로서, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델에 대하여 설명한다. 예를 들면, 오브젝트에 대응하는 화상이 화면에 대하여 수평으로 움직이고 있을 때, 인접하여 1열로 배열되어 있는 화소로서 화면의 1개의 라인상에 배열되어 있는 화소를 선택할 수 있다.
도 39는 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 프레임 #n은 프레임 #n-1의 다음의 프레임이고, 프레임 #n+1은 프레임 #n의 다음의 프레임이다. 다른 프레임도 마찬가지로 칭한다.
도 39에 도시하는 BO1 내지 B12의 화소값은 정지하고 있는 배경의 오브젝트에 대응하는 화소의 화소값이다. 배경에 대응하는 오브젝트가 정지하고 있기 때문에 프레임 #n-1 내지 프레임n+1에서 대응하는 화소의 화소값은 변화하지 않는다. 예를 들면, 프레임 #n-1에서의 BO5의 화소값을 갖는 화소의 위치에 대응하는, 프레임 #n에서의 화소, 및 프레임 #n+1에서의 화소는 각각 B05의 화소값을 갖는다.
도 40은 정지하고 있는 배경에 대응하는 오브젝트와 함께 도면 중의 우측으로 이동하는 전경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델 도면이다. 도 40에 도시한 모델은 커버드 백그라운드 영역을 포함한다.
도 40에서 전경에 대응하는 오브젝트가 강체이고 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 이동하기 때문에 전경의 움직임량 v는 4이고 가상 분할 수는 4이다.
예를 들면, 도 40 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F12/v로 되고, 도 40 중의 좌측으로부터 2번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F12/v로 된다. 도 40 중의 좌측으로부터 3번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분 및 도 40 중의 좌측으로부터 4번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F12/v로 된다.
도 40 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 열리고 2번째의 셔터시간/v의 전경 성분은 F11/v로 되고, 도 40 중의 좌측으로부터 2번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분도 F11/v로 된다. 도 40 중의 좌측으로부터 3번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F11/v로 된다.
도 40 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분은 F1O/v로 되고, 도 40 중의 좌측으로부터 2번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분도 F1O/v가 된다. 도 40 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F09/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 40 중의 프레임 #n-1의 좌측으로부터 2번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 배경 성분은 BO1/v로 된다. 도 40 중의 프레임 #n-1의 좌측으로부터 3번째 화소의, 셔터가 열리고 최초 및 2번째의 셔터 시간/v의 배경 성분은 B02/v로 된다. 도 40 중의 프레임 #n-1의 좌측으로부터 4번째 화소의, 셔터가 열리고 최초 내지 3번째의 셔터 시간/v의 배경 성분은 B03/v로 된다.
도 40 중의 프레임 #n-1에서 가장 좌측의 화소는 전경 영역에 속하고, 좌측에서 2번째 내지 4번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 40 중의 프레임 #n-1의 좌측으로부터 5번째의 화소 내지 12번째의 화소는 배경 영역에 속하고 그 화소값은 각각 B04 내지 B11이 된다.
도 40 중의 프레임 #n의 좌측으로부터 1번째 화소 내지 5번째 화소는 전경영역에 속한다. 프레임 #n의 전경 영역에서의, 셔터 시간/v의 전경 성분은 F05/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 이동하기 때문에, 도 40 중의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F12/v로 되고, 도 40 중의 좌측으로부터 6번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F12/v로 된다. 도 40 중의 좌측으로부터 7번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분, 및 도 40 중의 좌측으로부터 8번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F 12/v로 된다.
도 40 중의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분은 F11/v로 되고, 도 40 중의 좌측으로부터 6번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분도 F11/v로 된다. 도 40 중의 좌측으로부터 7번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F11/v로 된다.
도 40 중의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분은 F1O/v로 되고, 도 40 중의 좌측으로부터 6번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분도 F1O/v로 된다. 도 40 중의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 FO9/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 40 중의 프레임 #n의 좌측으로부터 6번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 배경 성분은 B05/v로 된다. 도 40 중의 프레임 #n의 좌측으로부터 7번째 화소의, 셔터가 열리고 최초 및 2번째의 셔터 시간/v의 배경 성분은 B06/v로 된다. 도 40 중의 프레임 #n의 좌측으로부터 8번째 화소의, 셔터가 열리고 최초 내지 3번째의 셔터 시간/v의 배경 성분은 B07/v로 된다.
도 40 중의 프레임 #n에서 좌측에서 6번째 내지 8번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 40 중의 프레임 #n의 좌측으로부터 9번째 화소 내지 12번째 화소는 배경 영역에 속하고 화소값은 각각 B08 내지 B11이 된다.
도 40 중의 프레임 #n+1의 좌측으로부터 1번째 화소 내지 9번째 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의, 셔터 시간/v의 전경 성분은 FO1/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음의 프레임에서 4 화소 우측에 표시되도록 이동하기 때문에, 도 40 중의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F12/v가 되고, 도 40 중의 좌측으로부터 10번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F12/v가 된다. 도 40 중의 좌측으로부터 11번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분, 및 도 40 중의 좌측으로부터 12번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F12/v로 된다.
도 40 중의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 기간의 전경 성분은 F11/v가 되고, 도 40 중의 좌측으로부터 10번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분도 F11/v로 된다. 도 40 중의 좌측으로부터 11번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F11/v로 된다.
도 40 중의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분은 F1O/v로 되고, 도 40 중의 좌측으로부터 10번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분도 F1O/v로 된다. 도 40 중의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F09/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 40 중의 프레임 #n+1의 좌측으로부터 10번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 배경 성분은 B09/v가 된다. 도 40 중의 프레임 #n+1의 좌측으로부터 11번째 화소의, 셔터가 열리고 최초 및 2번째의 셔터 시간/v의 배경 성분은 B1O/v로 된다. 도 40 중의 프레임 #n+1의 좌측으로부터 12번째 화소의, 셔터가 열리고 최초 내지 3번째 셔터 시간/v의 배경 성분은 B11/v로 된다.
도 40 내의 프레임 #n+1에서 좌측으로부터 10번째 내지 12번째 화소는 커버된 백 그라운드 영역인 혼합 영역에 대응한다.
도 41은 도 40에 도시한 화소값으로부터 전경 성분을 추출한 화상의 모델 도면이다.
도 42는 정지하고 있는 배경과 함께 도면 내의 우측으로 이동하는 오브젝트에 대응하는 전경을 촬상한 화상 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 42에서 언커버드 백그라운드 영역이 포함되어 있다.
도 42에서 전경에 대응하는 오브젝트는 강체이고 또한 등속으로 이동하고 있다고 가정할 수 있다. 전경에 대응하는 오브젝트가 다음의 프레임에서 4 화소분 우측에 표시되도록 이동하고 있기 때문에 움직임량 v는 4이다.
예를 들면, 도 42 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F13/v로 되고, 도 42 중의 좌측으로부터 2번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F13/v로 된다. 도 42 중의 좌측으로부터 3번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분, 및 도 42 중의 좌측으로부터 4번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F13/v로 된다.
도 42 중의 프레임 #n-1의 좌측으로부터 2번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F14/v로 되고, 도 42 중의 좌측으로부터 3번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F14/v로 된다. 도 42 중의 좌측으로부터 3번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F15/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 42 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 열리고 2번째 내지 4번째의 셔터 시간/v의 배경 성분은 B25/v로 된다. 도 42 중의 프레임 #n-1의 좌측으로부터 2번째 화소의, 셔터가 열리고 3번째 및 4번째의 셔터 시간/v의 배경 성분은 B26/v로 된다. 도 42 중의 프레임 #n-1의 좌측으로부터 3번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 배경 성분은 B27/v로 된다.
도 42 중의 프레임 #n-1에서 가장 좌측 화소 내지 3번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 42 중의 프레임 #n-1의 좌측으로부터 4번째 화소 내지 12번째 화소는 전경 영역에 속한다. 프레임의 전경 성분은 F13/v 내지 F24/v 중 어느 하나이다.
도 42 중의 프레임 #n의 가장 좌측의 화소 내지 좌측으로부터 4번째 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B28이 된다.
전경에 대응하는 오브젝트가 강체이고 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4 화소 우측에 표시되도록 이동하기 때문에, 도 42 중의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F13/v로 되고, 도 42 중의 좌측으로부터 6번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F13/v로 된다. 도 42 중의 좌측으로부터 7번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분, 및 도 42 중의 좌측으로부터 8번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F 13/v로 된다.
도 42 중의 프레임 #n의 좌측으로부터 6번째 화소의, 셔터가 열리고 최초의셔터 시간/v의 전경 성분은 F14/v로 되고, 도 42 중의 좌측으로부터 7번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F14/v로 된다. 도 42 중의 좌측으로부터 8번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F15/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 42 중의 프레임 #n의 좌측으로부터 5번째 화소의, 셔터가 열리고 2번째 내지 4번째의 셔터 시간/v의 배경 성분은 B29/v로 된다. 도 42 중의 프레임 #n의 좌측으로부터 6번째 화소의, 셔터가 열리고 3번째 및 4번째의 셔터 시간/v의 배경 성분은 B30/v로 된다. 도 42 중의 프레임 #n의 좌측으로부터 7번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 배경 성분은 B31/v로 된다.
도 42 중의 프레임 #n에서 좌측으로부터 5번째 화소 내지 7번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 42 중의 프레임 #n의 좌측으로부터 8번째 화소 내지 12번째 화소는 전경 영역에 속한다. 프레임 #n의 전경 영역에서의 셔터 시간/v의 기간에 대응하는 값은 F13/v 내지 F20/v 중 어느 하나이다.
도 42 중의 프레임 #n+1의 가장 좌측의 화소 내지 좌측으로부터 8번째 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B32가 된다.
전경에 대응하는 오브젝트가 강체이고 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음의 프레임에서 4 화소 우측에 표시되도록 이동하기 때문에, 도 42 중의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F13/v가 되고, 도 42 중의 좌측으로부터 10번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F13/v가 된다. 도 42 중의 좌측으로부터 11번째 화소의, 셔터가 열리고 3번째의 셔터 시간/v의 전경 성분, 및 도 42 중의 좌측으로부터 12번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 전경 성분은 F13/v가 된다.
도 42 중의 프레임 #n+1의 좌측으로부터 10번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F14/v로 되고, 도 42 중의 좌측으로부터 11번째 화소의, 셔터가 열리고 2번째의 셔터 시간/v의 전경 성분도 F14/v로 된다. 도 42 중의 좌측으로부터 12번째 화소의, 셔터가 열리고 최초의 셔터 시간/v의 전경 성분은 F15/v로 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에 도 42 중의 프레임 #n+1의 좌측으로부터 9번째 화소의, 셔터가 열리고 2번째 내지 4번째의 셔터 시간/v의 배경 성분은 B33/v로 된다. 도 42 중의 프레임 #n+1의 좌측으로부터 10번째 화소의, 셔터가 열리고 3번째 및 4번째의 셔터 시간/v의 배경 성분은 B34/v로 된다. 도 42 중의 프레임 #n+1의 좌측으로부터 11번째 화소의, 셔터가 열리고 4번째의 셔터 시간/v의 배경 성분은 B35/v로 된다.
도 42 중의 프레임 #n+1에서 좌측으로부터 9번째 화소 내지 11번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 42 중의 프레임 #n+1의 좌측으로부터 12번째 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의 셔터 시간/v의 전경 성분은 F13/v 내지 F16/v 중어느 하나이다.
도 43은 도 42에 도시하는 화소값으로부터 전경 성분을 추출한 화상의 모델 도면이다.
도 27을 다시 참조하면, 영역 특정부(103)는 복수의 프레임의 화소값을 이용하여 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역에 속하는 것을 나타내는 플래그를 화소마다 대응시켜 영역 정보로서 혼합비 산출부(104) 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는 복수의 프레임의 화소값, 및 영역 정보를 기초로 혼합 영역에 포함되는 화소에 대하여 화소마다 혼합비α를 산출하고 산출한 혼합비α를 전경 배경 분리부(105)에 공급한다.
전경 배경 분리부(105)는 복수의 프레임의 화소값, 영역 정보, 및 혼합비α를 기초로 전경 성분만으로 이루어지는 전경 성분 화상을 추출하여 움직임 불선명 조정부(106)에 공급한다.
움직임 불선명 조정부(106)는 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하고 움직임 불선명의 양을 조정한 전경 성분 화상을 출력한다.
도 44의 흐름도를 참조하여, 분리 처리 서버(11)에 의한 움직임 불선명의 양의 조정의 처리를 설명한다. 단계 S11에서 영역 특정부(103)는 입력 화상을 기초로 입력 화상의 화소마다 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는가를 나타내는 영역 정보를 생성하는 영역 특정한 처리를 실행한다. 영역 특정한 처리의 상세는, 후술한다. 영역 특정부(103)는 생성한 영역 정보를 혼합비 산출부(104)에 공급한다.
또, 단계 S11에서 영역 특정부(103)는 입력 화상을 기초로 입력 화상의 화소마다 전경 영역, 배경 영역, 또는 혼합 영역(커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역의 구별을 하지 않는다) 중 어느 하나에 속하는가를 나타내는 영역 정보를 생성하도록 해도 좋다. 이 경우에 전경 배경 분리부(105) 및 움직임 불선명 조정부(106)는 움직임 벡터의 방향을 기초로 혼합 영역이 커버드 백그라운드 영역인지 또는 언커버드 백그라운드 영역인지를 판정한다. 예를 들면, 움직임 벡터의 방향에 대응하여 전경 영역, 혼합 영역, 및 배경 영역으로 차례로 배열되어 있을 때, 그 혼합 영역은 커버드 백그라운드 영역이라고 판정되고, 움직임 벡터의 방향에 대응하여 배경 영역, 혼합 영역, 및 전경 영역으로 차례로 배열되어 있을 때, 그 혼합 영역은 언커버드 백그라운드 영역이라고 판정된다.
단계 S12에서 혼합비 산출부(104)는 입력 화상 및 영역 정보를 기초로 혼합 영역에 포함되는 화소마다 혼합비α를 산출한다. 혼합비 산출의 처리의 상세는 후술한다. 혼합비 산출부(104)는 산출한 혼합비α를 전경 배경 분리부(105)에 공급한다.
단계 S13에서 전경 배경 분리부(105)는 영역 정보, 및 혼합비α를 기초로 입력 화상으로부터 전경 성분을 추출하여 전경 성분 화상으로서 움직임 불선명 조정부(106)에 공급한다.
단계 S14에서 움직임 불선명 조정부(106)는 움직임 벡터 및 영역 정보를 기초로, 움직임 방향으로 배열되는 연속한 화소로서 언커버드 백그라운드 영역, 전경 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것의 화상 상의 위치를 나타내는 처리 단위를 생성하고, 처리 단위에 대응하는 전경 성분에 포함되는 움직임 불선명의 양을 조정한다. 움직임 불선명의 양의 조정의 처리의 상세에 대해서는 후술한다.
단계 S15에서 분리 처리 서버(11)는 화면 전체에 대하여 처리를 종료하였는지의 여부를 판정하여 화면 전체에 대하여 처리를 종료하지 않았다고 판정된 경우, 단계 S14로 진행하여 처리 단위에 대응하는 전경 성분을 대상으로 한 움직임 불선명의 량의 조정의 처리를 반복한다.
단계 S15에서 화면 전체에 대하여 처리를 종료하였다고 판정된 경우 처리는 종료한다.
이와 같이, 분리 처리 서버(11)는 전경과 배경을 분리하여 전경에 포함되는 움직임 불선명의 양을 조정할 수 있다. 즉, 분리 처리 서버(11)는 전경의 화소의 화소값인 샘플 데이터에 포함되는 움직임 불선명의 양을 조정할 수 있다.
이하, 영역 특정부(103), 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)의 각각의 구성에 대하여 설명한다.
도 45는 영역 특정부(103)의 구성의 일례를 나타내는 블록도이다. 도 45에 구성을 나타내는 영역 특정부(103)는 움직임 벡터를 이용하지 않는다. 프레임 메모리(201)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(201)는 처리의 대상이 프레임 #n일 때 프레임 #n의 2개 전의 프레임인 프레임 #n-2, 프레임#n의 1개 전의 프레임인 프레임 #n-1, 프레임 #n, 프레임 #n의 1개 뒤의 프레임인 프레임 #n+1, 및 프레임 #n의 2개 뒤의 프레임인 프레임 #n+2를 기억한다.
정동 판정부(202-1)는 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소의 화소값, 및 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값을 프레임 메모리(201)로부터 읽어 내고, 읽어 낸 화소값의 차의 절대값을 산출한다. 정동 판정부(202-1)는 프레임 #n+2의 화소값과 프레임 #n+1의 화소값과의 차의 절대값이 미리 설정하고 있는 임계값 Th보다 큰지를 판정하여 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다. 프레임 #n+2의 화소의 화소값과 프레임 #n+1의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-1)는 정지를 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다.
정동 판정부(202-2)는 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값, 및 프레임 #n의 대상이 되는 화소의 화소값을 프레임 메모리(201)로부터 읽어 내어 화소값의 차의 절대값을 산출한다. 정동 판정부(202-2)는 프레임 #n+1의 화소값과 프레임 #n의 화소값과의 차의 절대값이 미리 설정하고 있는 임계값 Th보다 큰지의 여부를 판정하여 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다. 프레임 #n+1의 화소의 화소값과 프레임 #n의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-2)는 정지를 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다.
정동 판정부(202-3)는 프레임 #n의 영역 특정 대상인 화소의 화소값, 및 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값을 프레임 메모리(201)로부터 읽어 내어 화소값의 차의 절대값을 산출한다. 정동 판정부(202-3)는 프레임 #n의 화소값과 프레임 #n-1의 화소값과의 차의 절대값이 미리 설정하고 있는 임계값 Th보다 큰지의 여부를 판정하고 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다. 프레임 #n의 화소의 화소값과 프레임 #n-1의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-3)는 정지를 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다.
정동 판정부(202-4)는 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값, 및 프레임 #n의 영역 특정 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소의 화소값을 프레임 메모리(201)로부터 읽어 내어 화소값의 차의 절대값을 산출한다. 정동 판정부(202-4)는 프레임 #n-1의 화소값과 프레임 #n-2의 화소값과의 차의 절대값이 미리 설정하고 있는 임계값 Th보다 큰지의 여부를 판정하고 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다. 프레임 #n-1의 화소의 화소값과 프레임 #n-2의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-4)는 정지를 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는, 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 언커버드 백그라운드 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에 언커버드 백그라운드 영역에 속하지 않음을 나타내는 "O"를 설정한다.
영역 판정부(203-1)는 이와 같이 "1" 또는 "0"이 설정된 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 정지 영역에 속한다고 판정하고,영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에 정지 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는, 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 정지 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에 정지 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 움직임 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에 움직임 영역에 속함을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내거나, 또는, 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 움직임 영역에 속하지 않는다 판정하고, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에 움직임 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는, 이와 같이 "1" 또는 "0"이 설정된 움직임 영역 판정플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-4)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에 커버드 백그라운드 영역에 속함을 나타내는 "1"을 설정한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내거나, 또는, 정동 판정부(202-4)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정 대상인 화소가 커버드 백그라운드 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에 커버드 백그라운드 영역에 속하지 않음을 나타내는 "O"를 설정한다.
영역 판정부(203-3)는 이와 같이 "1" 또는 "0"이 설정된 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
판정 플래그 저장 프레임 메모리(204)는 영역 판정부(203-1)로부터 공급된 언커버드 백그라운드 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 정지 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 움직임 영역 판정 플래그, 및 영역 판정부(203-3)로부터 공급된 커버드 백그라운드 영역 판정 플래그를 각각 기억한다.
판정 플래그 저장 프레임 메모리(204)는 기억하고 있는 언커버드 백그라운드영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그를 합성부(205)에 공급한다. 합성부(205)는 판정 플래그 저장 프레임 메모리(204)로부터 공급된 언커버드 백그라운드 영역판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그 및 커버드 백그라운드 영역 판정 플래그를 기초로 각 화소가 언커버드 백그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하여 판정 플래그 저장 프레임 메모리(206)에 공급한다.
판정 플래그 저장 프레임 메모리(206)는 합성부(205)로부터 공급된 영역 정보를 기억함과 함께 기억하고 있는 영역 정보를 출력한다.
다음에, 영역 특정부(103)의 처리의 예를 도 46 내지 도 50을 참조하여 설명한다.
전경에 대응하는 오브젝트가 이동하고 있을 때, 오브젝트에 대응하는 화상의 화면상의 위치는 프레임마다 변화한다. 도 46에 도시한 바와 같이, 프레임 #n에서 Yn(x, y)로 나타내는 위치에 위치하는 오브젝트에 대응하는 화상은 다음의 프레임인 프레임 #n+1에서 Yn+1(x, y)에 위치한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 배열하는 화소의 화소값을 시간 방향으로 전개한 모델도를 도 22에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대하여 수평일 때, 도 47에의 모델도는 1개의 라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 도시한다.
도 47에서 프레임 #n 에서의 라인은 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에서 좌측으로부터 2번째 화소 내지 13번째 화소에 포함되어 있는 오브젝트에 대응하는 전경 성분은 프레임 #n+1에서 좌측으로부터 6번째 내지 17번째 화소에 포함된다.
프레임 #n에서 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 11번째 내지 13번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 2번째 내지 4번째 화소이다. 프레임 #n+1에서 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 6번째 내지 8번째의 화소이다.
도 47에 도시하는 예에서 프레임 #n에 포함되는 전경 성분이 프레임 #n+1에서 4 화소 이동하고 있기 때문에 움직임량 v는 4이다. 가상 분할 수는 움직임량 v에 대응하여 4이다.
다음에, 주목하고 있는 프레임의 전후에서의 혼합 영역에 속하는 화소의 화소값의 변화에 대하여 설명한다.
도 48에 도시한, 배경이 정지하고 전경의 움직임량 v가 4인 프레임 #n에서 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째 화소이다. 움직임량 v가 4이기 때문에 1개 전의 프레임 #n-1에서 좌측으로부터 15번째 내지 17번째 화소는 배경 성분만을 포함하고 배경 영역에 속한다. 또한, 1개 더 전의 프레임 #n-2에서 좌측으로부터 15번째 내지 17번째 화소는 배경 성분만을 포함하고 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1의 좌측으로부터 15번째 화소의 화소값은 프레임 #n-2의 좌측으로부터 15번째 화소의 화소값으로부터 변화하지 않는다. 마찬가지로, 프레임 #n-1의 좌측으로부터 16번째 화소의 화소값은 프레임 #n-2의 좌측으로부터 16번째 화소의 화소값으로부터 변화하지 않고, 프레임 #n-1의 좌측으로부터 17번째 화소의 화소값은 프레임 #n-2의 좌측으로부터 17번째 화소의 화소값으로부터 변화하지 않는다.
즉, 프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소에 대응하는 프레임 #n-1 및 프레임 #n-2의 화소는 배경 성분만으로 이루어지고 화소값이 변화하지 않기 때문에, 그 차의 절대값은 거의 0의 값이 된다. 따라서, 프레임 #n 에서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소에 대한 정동 판정은 정동 판정부(202-4)에 의해 정지라고 판정된다.
프레임 #n 에서의 커버드 백그라운드 영역에 속하는 화소는 전경 성분을 포함하기 때문에, 프레임 #n-1에서의 배경 성분만으로 이루어지는 경우와 화소값이 서로 다르다. 따라서, 프레임 #n 에서의 혼합 영역에 속하는 화소, 및 대응하는 프레임 #n-1의 화소에 대한 정동 판정은 정동 판정부(202-3)에 의해 움직임으로 판정된다.
이와 같이, 영역 판정부(203-3)는 정동 판정부(202-3)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-4)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때 대응하는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
도 49에 도시하는 배경이 정지하고 전경의 움직임량 v가 4인 프레임 #n에서 언커버드 백그라운드 영역에 포함되는 화소는 좌측으로부터 2번째 내지 4번째의 화소이다. 움직임량 v가 4이기 때문에, 1개 뒤의 프레임 #n+1에서 좌측으로부터 2번째 내지 4번째 화소는 배경 성분만을 포함하고 배경 영역에 속한다. 또한, 1개 더 뒤의 프레임 #n+2에서 좌측으로부터 2번째 내지 4번째 화소는 배경 성분만을 포함하고 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n+2의 좌측으로부터 2번째 화소의 화소값은 프레임 #n+1의 좌측으로부터 2번째 화소의 화소값으로부터 변화하지 않는다. 마찬가지로, 프레임 #n+2의 좌측으로부터 3번째 화소의 화소값은 프레임 #n+1의 좌측으로부터 3번째 화소의 화소값으로부터 변화하지 않고, 프레임 #n+2의 좌측으로부터 4번째 화소의 화소값은 프레임 #n+1의 좌측으로부터 4번째 화소의 화소값으로부터 변화하지 않는다.
즉, 프레임 #n 에서의 언커버드 백그라운드 영역에 속하는 화소에 대응하는 프레임 #n+1 및 프레임 #n+2의 화소는 배경 성분만으로 이루어지고 화소값이 변화하지 않기 때문에, 그 차의 절대값은 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는 프레임 #n+1 및 프레임 #n+2의 화소에 대한 정동 판정은 정동 판정부(202-1)에 의해 정지라고 판정된다.
프레임 #n 에서의 언커버드 백그라운드 영역에 속하는 화소는 전경 성분을 포함하기 때문에, 프레임 #n+1에서의 배경 성분만으로 이루어지는 경우와 화소값이 서로 다르다. 따라서, 프레임 #n 에서의 혼합 영역에 속하는 화소, 및 대응하는프레임 #n+1의 화소에 대한 정동 판정은 정동 판정부(202-2)에 의해 움직임으로 판정된다.
이와 같이, 영역 판정부(203-1)는 정동 판정부(202-2)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-1)로부터 정지를 도시하는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 50은 프레임 #n에서의 영역 특정부(103)의 판정 조건을 나타내는 도면이다. 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소와, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소가 정지라고 판정되고, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와 프레임 #n의 화소가 움직임으로 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와 프레임 #n의 화소가 정지라고 판정되고, 프레임 #n의 화소와 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 정지라고 판정하였을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 정지 영역에 속한다고 판정한다.
프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와 프레임 #n의 화소가 움직임으로 판정되고, 프레임 #n의화소와 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임으로 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정의 대상이 되는 화소가 움직임 영역에 속한다고 판정한다.
프레임 #n의 화소와 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임으로 판정되고, 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소와 프레임 #n의 판정의 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소가 정지라고 판정되었을 때, 영역 특정부(1O3)는 프레임 #n의 판정의 대상이 되는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 51A 내지 도 51D는 영역 특정부(103)의 영역의 특정 결과의 예를 도시하는 도면이다. 도 51A에서 커버드 백그라운드 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 도 51B에서 언커버드 백그라운드 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다.
도 51C에서 움직임 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 도 51D에서 정지 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다.
도 52는 판정 플래그 저장 프레임 메모리(206)가 출력하는 영역 정보 중 혼합 영역을 나타내는 영역 정보를 화상으로서 도시하는 도면이다. 도 52에서 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 속한다고 판정된 화소, 즉 혼합 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 판정 플래그 저장 프레임 메모리(206)가 출력하는 혼합 영역을 나타내는 영역 정보는 혼합 영역, 및전경 영역 내의 텍스쳐가 없는 부분에 둘러싸인 텍스쳐가 있는 부분을 나타낸다.
다음에, 도 53의 흐름도를 참조하여 영역 특정부(103)의 영역 특정한 처리를 설명한다. 단계 S201에서 프레임 메모리(201)는 판정의 대상이 되는 프레임 #n을 포함하는 프레임 #n-2 내지 프레임 #n+2의 화상을 취득한다.
단계 S202에서 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 정지인지의 여부를 판정하여 정지라고 판정된 경우, 단계 S203으로 진행하여 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 정지인지의 여부를 판정한다.
단계 S203에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 정지라고 판정된 경우, 단계 S204로 진행하여 영역 판정부(203-2)는 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에 정지 영역에 속함을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고 프로세스는 단계 S205로 진행한다.
단계 S202에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 움직임으로 판정된 경우, 또는, 단계 S203에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임으로 판정된 경우, 프레임 #n의 화소가 정지 영역에는 속하지 않기 때문에 단계 S204의 처리는 스킵되고, 프로세스는 단계 S205로 진행한다.
단계 S205에서 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 움직임인지 아닌지 여부를 판정하여 움직임으로 판정된 경우,단계 S206으로 진행하여 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임인지 아닌지 여부를 판정한다.
단계 S206에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임으로 판정된 경우, 단계 S207로 진행하여 영역 판정부(203-2)는 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에 움직임 영역에 속함을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 프로세스는 단계 S208로 진행한다.
단계 S205에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 정지라고 판정된 경우, 또는, 단계 S206에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 정지라고 판정된 경우, 프레임 #n의 화소가 움직임 영역에는 속하지 않기 때문에 단계 S207의 처리는 스킵되고, 프로세스는 단계 S208로 진행한다.
단계 S208에서 정동 판정부(202-4)는 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에서 정지인지 아닌지 여부를 판정하여 정지라고 판정된 경우, 단계 S209로 진행하여 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 움직임인지 아닌지 여부를 판정한다.
단계 S209에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 움직임으로 판정된 경우, 단계 S210으로 진행하여 영역 판정부(203-3)는 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-3)는 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 프로세스는 단계 S211로 진행한다.
단계 S208에서 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에서 움직임으로 판정된 경우, 또는, 단계 S209에서 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에서 정지라고 판정된 경우, 프레임 #n의 화소가 커버드 백그라운드 영역에는 속하지 않기 때문에 단계 S210의 처리는 스킵되고, 프로세스는 단계 S211로 진행한다.
단계 S211에서 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 움직임인지 아닌지 여부를 판정하여 움직임으로 판정된 경우, 단계 S212로 진행하여 정동 판정부(202-1)는 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에서 정지인지 아닌지 여부를 판정한다.
단계 S212에서 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소로 정지라고 판정된 경우, 단계 S213으로 진행하여 영역 판정부(203-1)는 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에 언커버드 백그라운드 영역에 속함을 나타내는 "1"을 설정한다. 영역 판정부(203-1)는 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 프로세스는 단계 S214로 진행한다.
단계 S211에서 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에서 정지라고 판정된 경우, 또는, 단계 S212에서 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에서 움직임으로 판정된 경우, 프레임 #n의 화소가 언커버드 백그라운드 영역에는 속하지 않기 때문에 단계 S213의 처리는 스킵되고, 프로세스는 단계S214로 진행한다.
단계 S214에서 영역 특정부(103)는 프레임 #n의 모든 화소에 대하여 영역을 특정하였는지의 여부를 판정하여 프레임 #n의 모든 화소에 대하여 영역을 특정하지 않았다고 판정된 경우, 프로세스는 단계 S202로 되돌아가 다른 화소에 대하여 영역 특정 처리를 반복한다.
단계 S214에서 프레임 #n의 모든 화소에 대하여 영역을 특정하였다고 판정된 경우, 단계 S215로 진행하여 합성부(205)는 판정 플래그 저장 프레임 메모리(204)에 기억되어 있는 언커버드 백그라운드 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그를 기초로 혼합 영역을 나타내는 영역 정보를 생성하고, 다시 각 화소가 언커버드 백그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하고, 생성한 영역 정보를 판정 플래그 저장 프레임 메모리(206)에 설정하고 처리는 종료한다.
이와 같이, 영역 특정부(103)는 프레임에 포함되어 있는 화소의 각각에 대하여 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속함을 나타내는 영역 정보를 생성할 수 있다.
또, 영역 특정부(103)는 언커버드 백그라운드 영역 및 커버드 백그라운드 영역에 대응하는 영역 정보에 논리합을 적용함으로써, 혼합 영역에 대응하는 영역 정보를 생성하여, 프레임에 포함되어 있는 화소의 각각에 대하여 움직임 영역, 정지 영역, 또는 혼합 영역에 속함을 나타내는 플래그로 이루어지는 영역 정보를 생성하도록 해도 좋다.
전경에 대응하는 오브젝트가 텍스쳐를 갖는 경우, 영역 특정부(103)는 보다 정확하게 움직임 영역을 특정할 수 있다.
영역 특정부(103)는 움직임 영역을 나타내는 영역 정보를 전경 영역을 나타내는 영역 정보로서, 또한, 정지 영역을 나타내는 영역 정보를 배경 영역을 나타내는 영역 정보로서 출력할 수 있다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 영역을 특정하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 영역 특정부(103)는 이 움직임에 대응하여 화상 전체를 시프트시켜 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 서로 다른 움직임을 포함하고 있을 때, 영역 특정부(103)는 움직임에 대응한 화소를 선택하여 상술한 처리를 실행한다.
도 54는 영역 특정부(103)의 구성의 다른 일례를 나타내는 블록도이다. 도 54에 나타내는 영역 특정부(103)는 움직임 벡터를 사용하지 않는다. 배경 화상 생성부(301)는 입력 화상에 대응하는 배경 화상을 생성하고 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다. 배경 화상 생성부(301)는 예를 들면, 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성한다.
전경의 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 배열하는 화소의 화소값을 시간 방향으로 전개한 모델도의 예를 도 55에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대하여 수평일 때 도 55에서의 모델도는 1개의 라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 도시한다.
도 55에서 프레임 #n에서의 라인은 프레임 #n-1 및 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에서 좌측으로부터 6번째의 화소 내지 17번째의 화소에 포함되어 있는 오브젝트에 대응하는 전경 성분은 프레임 #n-1에서 좌측으로부터 2번째 내지 13번째 화소에 포함되고, 프레임 #n+1에서 좌측으로부터 10번째 내지 21번째 화소에 포함된다.
프레임 #n-1에서 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 11번째 내지 13번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 2번째 내지 4번째 화소이다. 프레임 #n에서 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 15번째 내지 17번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 6번째 내지 8번째의 화소이다. 프레임 #n+1에서 커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 19번째 내지 21번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측으로부터 10번째 내지 12번째의 화소이다.
프레임 #n-1에서 배경 영역에 속하는 화소는 좌측으로부터 1번째 화소, 및 좌측으로부터 14번째 내지 21번째 화소이다. 프레임 #n에서 배경 영역에 속하는 화소는 좌측으로부터 1번째 내지 5번째의 화소, 및 좌측으로부터 18번째 내지 21번째의 화소이다. 프레임 #n+1에서 배경 영역에 속하는 화소는 좌측으로부터 1번째 내지 9번째의 화소이다.
배경 화상 생성부(301)가 생성하는 도 55의 예에 대응하는 배경 화상의 예를 도 56에 도시한다. 배경 화상은 배경의 오브젝트에 대응하는 화소로 구성되고, 전경의 오브젝트에 대응하는 화상의 성분을 포함하지 않는다.
2치 오브젝트 화상 추출부(302)는 배경 화상 및 입력 화상의 상관을 기초로 2치 오브젝트 화상을 생성하고, 생성한 2치 오브젝트 화상을 시간 변화 검출부(303)에 공급한다.
도 57은 2치 오브젝트 화상 추출부(302)의 구성을 나타내는 블록도이다. 상관값 연산부(321)는 배경 화상 생성부(301)로부터 공급된 배경 화상 및 입력 화상의 상관을 연산하여 상관값을 생성하고, 생성한 상관값을 임계값 처리부(322)에 공급한다.
상관값 연산부(321)는 예를 들면, 도 58A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 내의 블록과, 도 58B에 도시한 바와 같이, 배경 화상 내의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 내의 블록에 식 (4)을 적용하여 Y4에 대응하는 상관값을 산출한다.
상관값 연산부(321)는 이와 같이 각 화소에 대응하여 산출된 상관값을 임계값 처리부(322)에 공급한다.
또한, 상관값 연산부(321)는 예를 들면, 도 59A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 내의 블록과, 도 59B에 도시한 바와 같이, 배경 화상 중의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 중의 블록에 식 (7) 을 적용하여 Y4에 대응하는 차분 절대값을 산출하도록 해도 좋다.
상관값 연산부(321)는 이와 같이 산출된 차분 절대값을 상관값으로서 임계값 처리부(322)에 공급한다.
임계값 처리부(322)는 상관 화상의 화소값과 임계값 th0을 비교하여 상관값이 임계값 th0 이하인 경우, 2치 오브젝트 화상의 화소값에 1을 설정하고, 상관값이 임계값 th0보다 큰 경우, 2치 오브젝트 화상의 화소값에 O을 설정하여, O 또는1이 화소값으로 설정된 2치 오브젝트 화상을 출력한다. 임계값 처리부(322)는 임계값 th0을 미리 기억하도록 해도 좋고, 또는 외부로부터 입력된 임계값 th0을 사용하도록 해도 좋다.
도 60은 도 55에 나타내는 입력 화상의 모델에 대응하는 2치 오브젝트 화상의 예를 나타내는 도면이다. 2치 오브젝트 화상에서 배경 화상과 상관이 높은 화소에는 화소값에 0이 설정된다.
도 61은 시간 변화 검출부(303)의 구성을 나타내는 블록도이다. 프레임 메모리(341)는 프레임 #n의 화소에 대하여 영역을 판정할 때, 2치 오브젝트 화상 추출부(302)로부터 공급된, 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상을 기억한다.
영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상을 기초로 프레임 #n의 각 화소에 대하여 영역을 판정하여 영역 정보를 생성하여 생성한 영역 정보를 출력한다.
도 62는 영역 판정부(342)의 판정을 설명하는 도면이다. 프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 0일 때, 영역 판정부(342)는 프레임 #n이 주목하고 있는 화소가 배경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상이 대응하는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상이 대응하는 화소가 1일 때, 영역 판정부(342)는 프레임 #n이 주목하고 있는 화소가 전경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는 프레임 #n이 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는 프레임 #n이 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 63은 도 55에 나타내는 입력 화상의 모델에 대응하는 2치 오브젝트 화상에 대하여 시간 변화 검출부(303)가 판정한 예를 나타내는 도면이다. 시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 프레임 #n의 좌측으로부터 1번째 내지 5번째의 화소를 배경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n+1이 대응하는 화소가 0이기 때문에, 좌측으로부터 6번째 내지 9번째 화소를 언커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 1이고, 프레임 #n+1의 대응하는 화소가 1이기 때문에, 좌측으로부터 10번째 내지 13번째의 화소를 전경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 O이기 때문에, 좌측으로부터 14번째 내지 17번째의 화소를 커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 좌측으로부터 18번째 내지 21번째의 화소를 배경 영역에 속한다고 판정한다.
다음에, 도 64의 흐름도를 참조하여 영역 판정부(103)의 영역 특정 처리를 설명한다. 단계 S301에서 영역 판정부(103)의 배경 화상 생성부(301)는 입력 화상을 기초로 예를 들면, 입력 화상에 포함되는 배경의 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성하여 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다.
단계 S302에서 2치 오브젝트 화상 추출부(302)는 예를 들면, 도 58A, 도 58B를 참조하여 설명한 연산에 의해 입력 화상과 배경 화상 생성부(301)로부터 공급된 배경 화상과의 상관값을 연산한다. 단계 S303에서 2치 오브젝트 화상 추출부(302)는 예를 들면, 상관값과 임계값 th0을 비교함으로써 상관치 및 임계치 th0으로부터 2치 오브젝트 화상을 연산한다.
단계 S304에서 시간 변화 검출부(303)는 영역 판정 처리를 실행하고 처리는 종료한다.
도 65의 흐름도를 참조하여, 단계 S304에 대응하는 영역 판정의 처리의 상세를 설명한다. 단계 S321에서 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 O 인지의 여부를 판정하여 프레임 #n에서 주목하는 화소가 O으로 판정된 경우, 단계 S322로 진행하여 프레임 #n의 주목하는 화소가 배경 영역에 속하는 것으로 설정하고 처리는 종료한다.
단계 S321에서 프레임 #n에서 주목하는 화소가 1이라고 판정된 경우, 단계 S323으로 진행하여 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 1이고, 또한, 프레임 #n-1에서 대응하는 화소가 O 인지의 여부를 판정하고, 프레임 #n에서 주목하는 화소가 1이고 또한, 프레임 #n-1에서 대응하는 화소가 0이라고 판정된 경우, 단계 S324로 진행하여 프레임 #n의 주목하는 화소가 커버드 백그라운드 영역에 속하는 것으로 설정하고 처리는 종료한다.
단계 S323에서 프레임 #n에서 주목하는 화소가 0인지, 또는, 프레임 #n-1에서 대응하는 화소가 1이라고 판정된 경우, 단계 S325로 진행하여 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 1이고, 또한, 프레임 #n+1에서 대응하는 화소가 0인지의 여부를 판정하여 프레임 #n에서 주목하는 화소가 1이고, 또한, 프레임 #n+1에서 대응하는 화소가 0이라고 판정된 경우, 단계 S326으로 진행하고, 프레임 #n의 주목하는 화소가 언커버드 백그라운드 영역에 속하는 것으로 설정하고 처리는 종료한다.
단계 S325에서 프레임 #n에서 주목하는 화소가 0인지, 또는, 프레임 #n+1에서 대응하는 화소가 1이라고 판정된 경우, 단계 S327로 진행하여 시간 변화 검출부(303)의 영역 판정부(342)는 프레임 #n의 주목하는 화소를 전경 영역으로 설정하고 처리는 종료한다.
이와 같이, 영역 특정부(103)는 입력된 화상과 대응하는 배경 화상과의 상관값을 기초로 입력 화상의 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역 중 어느 하나에 속하는가를 특정하고, 특정한 결과에 대응하는 영역 정보를 생성할 수 있다.
도 66은 영역 특정부(103)의 다른 구성을 나타내는 블록도이다. 도 66에 나타내는 영역 특정부(103)는 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보를 사용한다. 도 54에 나타내는 경우와 동일한 부분에는 동일한 번호를 붙이고 그 설명은 생략한다.
로버스트화부(361)는 2치 오브젝트 화상 추출부(302)로부터 공급된 N개의 프레임의 2치 오브젝트 화상을 기초로 로버스트화된 2치 오브젝트 화상을 생성하여 시간 변화 검출부(303)에 출력한다.
도 67은 로버스트화부(361)의 구성을 설명하는 블록도이다. 움직임 보상부(381)는 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로 N개의 프레임의 2치 오브젝트 화상의 움직임을 보상하여 움직임이 보상된 2치 오브젝트 화상을 스위치(382)에 출력한다.
도 68 및 도 69의 예를 참조하여, 움직임 보상부(381)의 움직임 보상에 대하여 설명한다. 예를 들면, 프레임 #n의 영역을 판정할 때, 도 68에 예를 나타내는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상이 입력된 경우, 움직임 보상부(381)는 움직임 검출부(102)로부터 공급된 움직임 벡터를 기초로 도 69에 예를 도시한 바와 같이 프레임 #n-1의 2치 오브젝트 화상, 및 프레임 #n+1의 2치 오브젝트 화상을 움직임 보상하여 움직임 보상된 2치 오브젝트 화상을스위치(382)에 공급한다.
스위치(382)는 1번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-1)에 출력하고, 2번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-2)에 출력한다. 마찬가지로, 스위치(382)는 3번째 내지 N-1번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 각각을 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나에 출력하고, N 번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-N)에 출력한다.
프레임 메모리(383-1)는 1번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-1)에 출력한다. 프레임 메모리(383-2)는 2번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-2)에 출력한다.
마찬가지로, 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1))의 각각은 3번째 프레임 내지 N-1번째 프레임의 움직임 보상된 2치 오브젝트 화상 중 어느 하나를 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1)) 중 어느 하나에 출력한다. 프레임 메모리(383-N)는 N 번째의 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-N)에 출력한다.
가중치 부여부(384-1)는 프레임 메모리(383-1)로부터 공급된 1번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 가중치 w1을 곱하여 적산부(385)에 공급한다. 가중치 부여부(384-2)는 프레임 메모리(383-2)로부터 공급된2번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게 w2를 곱하여 적산부(385)에 공급한다.
마찬가지로, 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1))의 각각은 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나로부터 공급된 3번째 내지 N-1번째 중 어느 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게 w3 내지 무게 w(N-1) 중 어느 하나를 곱하여 적산부(385)에 공급한다. 가중치 부여부(384-N)는 프레임 메모리(383-N)에서 공급된 N 번째의 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 미리 정한 무게 wN을 곱하여 적산부(385)에 공급한다.
적산부(385)는 1 내지 N 번째의 프레임의 움직임 보상되고 각각 무게 w1 내지 wN 중 어느 하나가 곱해진 2치 오브젝트 화상의 대응하는 화소값을 적산하고, 적산된 화소값을 미리 정해둔 임계값 th0과 비교함으로써 2치 오브젝트 화상을 생성한다.
이와 같이, 로버스트화부(361)는 N개의 2치 오브젝트 화상으로부터 로버스트화된 2치 오브젝트 화상을 생성하여 시간 변화 검출부(303)에 공급하기 때문에, 도 66에 구성을 나타내는 영역 특정부(103)는 입력 화상에 노이즈가 포함되어 있더라도, 도 54에 나타내는 경우에 비교하여 보다 정확하게 영역을 특정할 수 있다.
다음에, 도 66에 구성을 나타내는 영역 특정부(103)의 영역 특정 처리에 대하여, 도 70의 흐름도를 참조하여 설명한다. 단계 S341 내지 단계 S343의 처리는 도 64의 흐름도에서 설명한 단계 S301 내지 단계 S303과 각각 동일하므로 그 설명은 생략한다.
단계 S344에서 로버스트화부(361)는 로버스트화의 처리를 실행한다.
단계 S345에서 시간 변화 검출부(303)는 영역 판정 처리를 실행하고 처리는 종료한다. 단계 S345의 처리의 상세는 도 65의 흐름도를 참조하여 설명한 처리와 마찬가지이므로 그 설명은 생략한다.
다음에, 도 71의 흐름도를 참조하여, 도 70의 단계 S344의 처리에 대응하는 로버스트화의 처리의 상세에 대하여 설명한다. 단계 S361에서 움직임 보상부(381)는 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보를 기초로 입력된 2치 오브젝트 화상의 움직임 보상의 처리를 실행한다. 단계 S362에서 프레임 메모리(383-1 내지 383-N)의 어느 하나는 스위치(382)를 통해 공급된 움직임 보상된 2치 오브젝트 화상을 기억한다.
단계 S363에서 로버스트화부(361)는 N개의 2치 오브젝트 화상이 기억되었는지의 여부를 판정하고, N개의 2치 오브젝트 화상이 기억되어 있지 않다고 판정된 경우, 단계 S361로 되돌아가 2치 오브젝트 화상의 움직임 보상의 처리 및 2치 오브젝트 화상의 기억의 처리를 반복한다.
단계 S363에서 N개의 2치 오브젝트 화상이 기억되었다고 판정된 경우, 단계 S364로 진행하여 가중치 부여부(384-1 내지 384-N)의 각각은 N개의 2치 오브젝트 화상의 각각에 w1 내지 wN 중 어느 하나의 무게를 곱해 가중치 부여를 행한다.
단계 S365에서 적산부(385)는 가중치 부여된 N개의 2치 오브젝트 화상을 적산한다.
단계 S366에서 적산부(385)는 예를 들면, 미리 정해진 임계값 th1과의 비교 등에 의해 적산된 화상으로부터 2치 오브젝트 화상을 생성하고 처리는 종료한다.
이와 같이, 도 66에 구성을 나타내는 영역 특정부(103)는 로버스트화된 2치 오브젝트 화상을 기초로 영역 정보를 생성할 수 있다.
이상과 같이, 영역 특정부(103)는 프레임에 포함되어 있는 화소의 각각에 대하여 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
도 72는 혼합비 산출부(104)의 구성의 일례를 나타내는 블록도이다. 추정 혼합비 처리부(401)는 입력 화상을 기초로 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하여 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
추정 혼합비 처리부(402)는 입력 화상을 기초로 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
전경에 대응하는 오브젝트가 셔터 시간 내에 등속으로 움직이고 있다고 가정할 수 있기 때문에, 혼합 영역에 속하는 화소의 혼합비α는 이하의 성질을 갖는다. 즉, 혼합비α는 화소의 위치의 변화에 대응하여 직선적으로 변화한다. 화소의 위치의 변화를 1차원이라고 하면, 혼합비α의 변화는 직선으로 표현할 수 있고, 화소의 위치의 변화를 2차원이라고 하면, 혼합비α의 변화는 평면으로 표현할 수 있다.
또, 1 프레임의 기간은 짧기 때문에, 전경에 대응하는 오브젝트가 강체이고등속으로 이동하고 있다고 가정이 성립한다.
이 경우, 혼합비α의 기울기는 전경의 셔터 시간 내에서의 움직임량 v의 역비가 된다.
이상적인 혼합비α의 예를 도 73에 도시한다. 이상적인 혼합비α의 혼합 영역에서의 기울기(1)는 움직임량 v의 역수로서 나타낼 수 있다.
도 73에 도시한 바와 같이, 이상적인 혼합비α는 배경 영역에서 1의 값을 가지고, 전경 영역에서 O의 값을 가지고, 혼합 영역에서 0보다 크고 1 미만의 값을 갖는다.
도 74의 예에서 프레임 #n의 좌측으로부터 7번째 화소의 화소값 C06은 프레임 #n-1의 좌측으로부터 7번째 화소의 화소값 P06을 이용하여 식(8)로 나타낼 수 있다.
식(8)에서, 화소값 C06을 혼합 영역의 화소의 화소값 M과 화소값 P06을 배경 영역의 화소의 화소값 B로 표현한다. 즉, 혼합 영역의 화소의 화소값 M 및 배경 영역의 화소의 화소값 B는 각각 식(9) 및 식(10)과 같이 표현할 수 있다.
식(8) 중의 2/v는 혼합비α에 대응한다. 움직임량 v가 4이기 때문에 프레임 #n의 좌측으로부터 7번째 화소의 혼합비α는 0.5가 된다.
이상과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값이라고 간주하고, 프레임 #n 전의 프레임 #n-1의 화소값 P를 배경 영역의 화소값이라고 간주함으로써 혼합비α를 나타내는 식(3)은 식(11)과 같이 다시 쓸 수 있다.
식 (11)의 f는 주목하고 있는 화소에 포함되는 전경 성분의 합 ΣiFi/v 이다. 식(11)에 포함되는 변수는 혼합비α 및 전경 성분의 합 f의 2개이다.
마찬가지로, 언커버드 백그라운드 영역에서의 움직임량 v가 4이고, 시간 방향의 가상 분할 수가 4인 화소값을 시간 방향으로 전개한 모델을 도 75에 도시한다.
언커버드 백그라운드 영역에서 상술한 커버드 백그라운드 영역에서의 표현과 마찬가지로 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값이라고 간주하고, 프레임 #n의 뒤의 프레임 #n+1의 화소값 N을 배경 영역의 화소값이라고 간주함으로써, 혼합비α를 나타내는 식(3)은 식(12)과 같이 표현할 수 있다.
또, 배경의 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경의 오브젝트가 움직이고 있는 경우에도 배경의 움직임량 v에 대응시킨 위치의 화소의 화소값을 이용함으로써 식(8) 내지 식(12)을 적용할 수 있다. 예를 들면, 도 74에서 배경에 대응하는 오브젝트의 움직임량 v가 2이고, 가상 분할 수가 2일 때, 배경에 대응하는 오브젝트가 도면 중의 우측으로 움직이고 있을 때, 식(10)에서의 배경 영역의 화소의 화소값 B는 화소값 P04가 된다.
식(11) 및 식(12)은 각각 2개의 변수를 포함하기 때문에 그대로는 혼합비α를 구할 수 없다. 여기서, 화상은 일반적으로 공간적으로 상관이 강하기 때문에 근접하는 화소끼리 거의 동일한 화소값이 된다.
그래서, 전경 성분은 공간적으로 상관이 강하기 때문에, 전경 성분의 합 f를 전 또는 후의 프레임으로부터 도출할 수 있도록 식을 변형하여 혼합비α를 구한다.
도 76의 프레임 #n의 좌측으로부터 7번째 화소의 화소값 Mc은 식(13)으로 나타낼 수 있다.
식(13)의 우변 제1항의 2/v는 혼합비α에 상당한다. 식(13)의 우변 제2항은 뒤의 프레임 #n+1의 화소값을 이용하여 식(14)과 같이 나타내는 것으로 한다.
여기서, 전경 성분의 공간 상관을 이용하여, 식(15)이 성립한다고 한다.
F=F05=F06=F07=F08=F09=F10=F11=F12
식(14)은 식(15)을 이용하여 식(16)과 같이 치환할 수 있다.
결과로서, β는 식(17)으로 나타낼 수 있다.
일반적으로, 식(15)에 표현한 바와 같이 혼합 영역에 관계하는 전경 성분이 같다고 가정하면, 혼합 영역의 모든 화소에 대하여 내분비의 관계로부터 식(18)이 성립한다.
식(18)이 성립한다고 한다면, 식(11)은 식(19)에 표현한 바와 같이 전개할수 있다.
마찬가지로, 식(18)이 성립한다고 하면 식(12)은 식(20)에 표현한 바와 같이 전개할 수 있다.
식(19) 및 식(2O)에서 C, N, 및 P는 기지의 화소값이기 때문에 식(19) 및 식(20)에 포함되는 변수는 혼합비α만이다. 식(19) 및 식(20)에서의 C, N, 및 P의 관계를 도 77에 도시한다. C는 혼합비α를 산출하는 프레임 #n의 주목하고 있는 화소의 화소값이다. N은 주목하고 있는 화소와 공간 방향의 위치가 대응하는 프레임 #n+1의 화소의 화소값이다. P는 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n+1의 화소의 화소값이다.
따라서, 식(19) 및 식(20)의 각각에 1개의 변수가 포함되어지기 때문에 3개의 프레임의 화소의 화소값을 이용하여 혼합비α를 산출할 수 있다. 식(19) 및 식(20)을 풀음으로써 올바른 혼합비α가 산출되기 위한 조건은 혼합 영역에 관계하는 전경 성분이 같은, 즉, 전경의 오브젝트가 정지하고 있을 때 촬상된 전경의 화상 오브젝트에서 전경의 오브젝트의 움직임의 방향에 대응하는, 화상 오브젝트의 경계에 위치하는 화소로서, 움직임량 v의 2배의 수가 연속하고 있는 화소의 화소값이 일정한 것이다.
이상과 같이, 커버드 백그라운드 영역에 속하는 화소의 혼합비α는 식(21) 에 의해 산출되고, 언커버드 백그라운드 영역에 속하는 화소의 혼합비α는 식(22)에 의해 산출된다.
도 78은 추정 혼합비 처리부(401)의 구성을 나타내는 블록도이다. 프레임 메모리(421)는 입력된 화상을 프레임 단위로 기억하고, 입력 화상으로서 입력되어 있는 프레임으로부터 1개 뒤의 프레임을 프레임 메모리(422) 및 혼합비 연산부(423)에 공급한다.
프레임 메모리(422)는 입력된 화상을 프레임 단위로 기억하고, 프레임 메모리(421)로부터 공급되어 있는 프레임으로부터 1개 뒤의 프레임을 혼합비 연산부(423)에 공급한다.
따라서, 입력 화상으로서 프레임 #n+1이 혼합비 연산부(423)에 입력되어 있을 때, 프레임 메모리(421)는 프레임 #n을 혼합비 연산부(423)에 공급하고 프레임 메모리(422)는 프레임 #n-1을 혼합비 연산부(423)에 공급한다.
혼합비 연산부(423)는 식(21)로 표현한 연산에 의해 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n-1의 화소의 화소값 P를 기초로, 주목하고 있는 화소의 추정 혼합비를 산출하여 산출한 추정 혼합비를 출력한다. 예를 들면, 배경이 정지하고 있을 때, 혼합비 연산부(423)는 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 프레임 내의 위치가 동일한 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 프레임 내의 위치가 동일한 프레임 #n-1의 화소의 화소값 P를 기초로, 주목하고 있는 화소의 추정 혼합비를 산출하여 산출한 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 산출하여 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는 추정 혼합비 처리부(401)가 식(21)으로 표현한 연산에 의해 주목하고 있는 화소의 추정 혼합비를 산출하는 데 대하여, 식(22)으로 표현한 연산에 의해 주목하고 있는 화소의 추정 혼합비를 산출하는 부분이 다른 것을 제외하고, 추정 혼합비 처리부(401)와 마찬가지이기 때문에 그 설명은 생략한다.
도 79는 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비가 예를 나타내는 도면이다. 도 79에 나타내는 추정 혼합비는 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임량 v가 11인 경우의 결과를 1 라인에 대하여 나타내는 것이다.
추정 혼합비는 혼합 영역에서 도 73에 도시한 바와 같이 거의 직선적으로 변화하고 있음을 알 수 있다.
도 72에 되돌아가 혼합비 결정부(403)는 영역 특정부(103)로부터 공급된 혼합비α의 산출의 대상이 되는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는가를 나타내는 영역 정보를 기초로 혼합비α를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우 0을 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우 1을 혼합비α로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α로 설정한다. 혼합비 결정부(403)는 영역 정보를 기초로 설정한 혼합비α를 출력한다.
도 80은 혼합비 산출부(104)의 다른 구성을 나타내는 블록도이다. 선택부(441)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로 커버드 백그라운드 영역에 속하는 화소 및, 이것에 대응하기 전 및 후의 프레임의 화소를 추정 혼합비 처리부(442)에 공급한다. 선택부(441)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로 언커버드 백그라운드 영역에 속하는 화소 및, 이것에 대응하기 전 및 후 프레임의 화소를 추정 혼합비 처리부(443)에 공급한다.
추정 혼합비 처리부(442)는 선택부(441)로부터 입력된 화소값을 기초로 식(21)으로 표현한 연산에 의해 커버드 백그라운드 영역에 속하는 주목하고 있는 화소의 추정 혼합비를 산출하여 산출한 추정 혼합비를 선택부(444)에 공급한다.
추정 혼합비 처리부(443)는 선택부(441)에서 입력된 화소값을 기초로 식(22)으로 표현한 연산에 의해, 언커버드 백그라운드 영역에 속하는 주목하고 있는 화소의 추정 혼합비를 산출하여 산출한 추정 혼합비를 선택부(444)에 공급한다.
선택부(444)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로 대상이 되는 화소가 전경 영역에 속하는 경우, 0인 추정 혼합비를 선택하여 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우 1인 추정 혼합비를 선택하여 혼합비α로 설정한다. 선택부(444)는 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(442)로부터 공급된 추정 혼합비를 선택하여 혼합비α로 설정하여 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(443)로부터 공급된 추정 혼합비를 선택하여 혼합비α로 설정한다. 선택부(444)는 영역 정보를 기초로 선택하여 설정한 혼합비α를 출력한다.
이와 같이, 도 80에 나타내는 다른 구성을 갖는 혼합비 산출부(104)는 화상이 포함되는 화소마다 혼합비α를 산출하여 산출한 혼합비α를 출력할 수 있다.
도 81의 흐름도를 참조하여, 도 72에 구성을 나타내는 혼합비 산출부(104)의 혼합비α의 산출 처리를 설명한다. 단계 S401에서 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보를 취득한다. 단계 S402에서 추정 혼합비 처리부(401)는 커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하여 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다. 혼합비 추정 연산 처리의 상세는 도 82의 흐름도를 참조하여 후술한다.
단계 S403에서 추정 혼합비 처리부(402)는 언커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하여 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
단계 S404에서 혼합비 산출부(104)는 프레임 전체에 대하여 혼합비α를 추정하였는지의 여부를 판정하여 프레임 전체에 대하여 혼합비α를 추정하지 않는다고 판정된 경우, 단계 S402로 되돌아가 다음의 화소에 대하여 혼합비α를 추정하는 처리를 실행한다. 단계 S404에서 프레임 전체에 대하여 혼합비α를 추정하였다고 판정된 경우, 단계 S405로 진행하여 혼합비 결정부(403)는 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는가를 나타내는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로 혼합비α를 설정한다. 혼합비 결정부(403)는 대상이 되는 화소가 전경 영역에 속하는 경우 0을 혼합비α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우 1을 혼합비α로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비α로 설정하고, 처리는 종료한다.
이와 같이, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보, 및 입력 화상을 기초로 각 화소에 대응하는 특징량인 혼합비α를 산출할 수 있다.
도 80에 구성을 나타내는 혼합비 산출부(104)의 혼합비α의 산출 처리는 도 81 의 흐름도에서 설명한 처리와 마찬가지이기 때문에 그 설명은 생략한다.
다음에, 도 81의 단계 S402에 대응하는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 82의 흐름도를 참조하여 설명한다.
단계 S421에서 혼합비 연산부(423)는 프레임 메모리(421)로부터 프레임 #n의 주목 화소의 화소값 C을 취득한다.
단계 S422에서 혼합비 연산부(423)는 프레임 메모리(422)로부터 주목 화소에 대응하는 프레임 #n-1의 화소의 화소값 P를 취득한다.
단계 S423에서 혼합비 연산부(423)는 입력 화상에 포함되는 주목 화소에 대응하는 프레임 #n+1의 화소의 화소값 N을 취득한다.
단계 S424에서 혼합비 연산부(423)는 프레임 #n의 주목 화소의 화소값 C, 프레임 #n-1의 화소의 화소값 P, 및 프레임 #n+1의 화소의 화소값 N을 기초로 추정 혼합비를 연산한다.
단계 S425에서 혼합비 연산부(423)는 프레임 전체에 대하여 추정 혼합비를 연산하는 처리를 종료하였는지의 여부를 판정하고, 프레임 전체에 대하여 추정 혼합비를 연산하는 처리를 종료하지 않았다고 판정한 경우, 단계 S421로 되돌아가 다음의 화소에 대하여 추정 혼합비를 산출하는 처리를 반복한다.
단계 S425에서 프레임 전체에 대하여 추정 혼합비를 연산하는 처리를 종료한 것으로 판정된 경우 처리는 종료한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 연산할 수 있다.
도 81의 단계 S403에서의 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는 언커버드 백그라운드 영역의 모델에 대응하는 식을 이용한 도 82의 흐름도에 나타내는 처리와 마찬가지이기 때문에 그 설명은 생략한다.
또, 도 80에 나타내는 추정 혼합비 처리부(442) 및 추정 혼합비 처리부(443)는 도 82에 나타내는 흐름도와 마찬가지의 처리를 실행하여 추정 혼합비를 연산하기 때문에 그 설명은 생략한다.
또한, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 혼합비α를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 추정 혼합비 처리부(401)는 배경의 움직임에 대응하여 화상 전체를 시프트시켜 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마간가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 상이한 배경의 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는 혼합 영역에 속하는 화소에 대응하는 화소로서 배경의 움직임에 대응한 화소를 선택하여 상술한 처리를 실행한다.
또한, 혼합비 산출부(104)는 모든 화소에 대하여 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여 산출된 추정 혼합비를 혼합비α로서 출력하도록 해도 좋다. 이 경우에, 혼합비α는 커버드 백그라운드 영역에 속하는 화소에 대하여 배경 성분의 비율을 나타내고, 언커버드 백그라운드 영역에 속하는 화소에 대하여 전경 성분의 비율을 나타낸다. 언커버드 백그라운드 영역에 속하는 화소에 대하여 이와 같이 산출된 혼합비α와 1의 차분의 절대값을 산출하여 산출한 절대값을 혼합비α로 설정하면, 분리 처리 서버(11)는 언커버드 백그라운드 영역에 속하는 화소에 대하여 배경 성분의 비율을 나타내는 혼합비α를 구할 수 있다.
또, 마찬가지로 혼합비 산출부(104)는 모든 화소에 대하여 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여 산출된 추정 혼합비를 혼합비α로서 출력하도록 해도 좋다.
다음에, 혼합비α가 직선적으로 변화하는 성질을 이용하여 혼합비α를 산출하는 혼합비 산출부(104)에 대하여 설명한다.
상술한 바와 같이, 식(11) 및 식(12)은 각각 2개의 변수를 포함하기 때문에 그대로는 혼합비α를 구할 수 없다.
그래서, 셔터 시간 내에 전경에 대응하는 오브젝트가 등속으로 움직이는 것에 의한, 화소의 위치의 변화에 대응하여, 혼합비α가 직선적으로 변화하는 성질을 이용하여 공간 방향으로 혼합비α와 전경 성분의 합 f를 근사한 식을 세운다. 혼합 영역에 속하는 화소의 화소값 및 배경 영역에 속하는 화소의 화소값의 조의 복수를 이용하여 혼합비α와 전경 성분의 합 f를 근사한 식을 푼다.
혼합비α의 변화를 직선으로 근사하면 혼합비α는 식(23)으로 표현된다.
식(23)에서 i는 주목하고 있는 화소의 위치를 0으로 한 공간 방향의 인덱스이다. 1은 혼합비α의 직선의 기울기이다. P는 혼합비α의 직선의 세그먼트임과 함께 주목하고 있는 화소의 혼합비α이다. 식(23)에서 인덱스 i는 기지이지만, 기울기 1 및 세그먼트 p는 미지이다.
인덱스 i, 기울기1, 및 세그먼트 p의 관계를 도 83에 도시한다.
혼합비α를 식(23)과 같이 근사함으로써 복수의 화소에 대하여 복수의 서로 다른 혼합비α는 2개의 변수로 표현된다. 도 83에 나타내는 예에서 5개의 화소에 대한 5개의 혼합비는 2개의 변수인 기울기 1 및 세그먼트 p에 의해 표현된다. 또한, 도 83에서는 흰 동그라미가 주목 화소를, 검은 동그라미가 근방 화소를 각각 나타내고 있다.
도 84에 나타내는 평면에서 혼합비α를 근사하면, 화상의 수평 방향 및 수직 방향의 2개의 방향에 대응하는 움직임 v를 고려했을 때, 식(23)을 평면으로 확장하여 혼합비α는 식(24)로 표현된다. 또한, 도 84에서는 흰 동그라미가 주목 화소를 나타내고 있다.
식(24)에서 j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다. m은 혼합비α의 면의 수평 방향의 기울기이고, q는 혼합비α의 면의 수직 방향의 기울기이다. P는 혼합비α인 면의 세그먼트이다.
예를 들면, 도 74에 나타내는 프레임 #n에서 C05 내지 C07에 대하여 각각 식(25) 내지 식(27)이 성립한다.
전경 성분이 근방에서 일치하는 즉, F01 내지 F03이 같다고 하여 FO1 내지 F03을 Fc로 치환하면 식(28)이 성립한다.
식(28)에서 x는 공간 방향의 위치를 나타낸다.
α(x)를 식(24)로 치환하면 식(28)은 식(29)로 나타낼 수 있다.
식(29)에서 (-m·Fc), (-q·Fc), 및 (1-p)·Fc은 식(30) 내지 식(32)으로 표현한 바와 같이 치환되고 있다.
식(29)에서 j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다.
이와 같이, 전경에 대응하는 오브젝트가 셔터 시간 내에 등속으로 이동하고, 전경에 대응하는 성분이 근방에서 일정하다고 하는 가정이 성립하기 때문에 전경 성분의 합은 식(29)로 근사된다.
또, 혼합비α를 직선으로 근사하는 경우 전경 성분의 합은 식(33)으로 나타낼 수 있다.
식(13)의 혼합비α 및 전경 성분의 합을 식(24) 및 식(29)을 이용하여 치환하면 화소값 M은 식(34)로 표현된다.
식(34)에서 미지의 변수는 혼합비α의 면의 수평 방향의 기울기 m, 혼합비α의 면의 수직 방향의 기울기 q, 혼합비α의 면의 세그먼트 p, s, t, 및 u의 6개이다.
주목하고 있는 화소의 근방의 화소에 대응시켜, 식(34)으로 표현한 정규 방정식에 화소값 M 또는 화소값 B를 설정하고, 화소값 M 또는 화소값 B가 설정된 복수의 정규 방정식을 최소 제곱법으로 풀어 혼합비α를 산출한다. 예를 들면, 주목하고 있는 화소의 수평 방향의 인덱스 j를 0으로 하고, 수직 방향의 인덱스 k를 0으로 하고, 주목하고 있는 화소의 근방의 3×3의 화소에 대하여 식(34)으로 표현한 정규 방정식에 화소값 M 또는 화소값 B를 설정하면 식(35) 내지 식(43)을 얻는다.
주목하고 있는 화소의 수평 방향의 인덱스 j가 0이고, 수직 방향의 인덱스 k가 0이기 때문에, 주목하고 있는 화소의 혼합비α는 식(24)에 의해 j=0 및 k=0일 때의 값, 즉, 세그먼트 p와 같다.
따라서, 식(35) 내지 식(43)의 9개의 식을 기초로 최소 제곱법에 의해 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u의 각각의 값을 산출하여 세그먼트 p를 혼합비α로서 출력하면 된다.
다음에, 최소 제곱법을 적용하여 혼합비α를 산출하는 보다 구체적인 순서를 설명한다.
인덱스 i 및 인덱스 k를 1개의 인덱스 x로 표현하면, 인덱스 i, 인덱스 k, 및 인덱스 x의 관계는 식(44)으로 표현된다.
수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 각각 변수 w0, w1, w2, w3, w4, 및 W5라고 표현하고, jB, kB, B, j, k, 및 1을 각각 a0, a1, a2, a3, a4, 및 a5라고 표현한다. 오차 ex를 고려하면 식(35) 내지 식(43)은 식(45)로 다시 쓸 수 있다.
식(45)에서 x는 0 내지 8의 정수 중 어느 하나의 값이다. 식(45)로부터 식(46)을 유도할 수 있다.
여기서, 최소 제곱법을 적용하기 위해서 오차의 제곱합 E를 식(47) 에 도시한 바와 같이 정의한다.
오차가 최소로 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Wv의 편미분이 O으로 되면 된다. 여기서, v는 0 내지 5의 정수 중 어느 하나의 값이다. 따라서, 식(48)을 만족하도록 wy를 구한다.
식(48)에 식(46)을 대입하면 식(49)을 얻는다.
식(49)의 v에 0 내지 5의 정수 중 어느 1개를 대입하여 얻어지는 6개의 식에 예를 들면, 소인법(Gauss-Jordan의 소거법) 등을 적용하여 wy를 산출한다. 상술한 바와 같이, wO는 수평 방향의 기울기 m이고, w1은 수직 방향의 기울기 q이고, w2는 세그먼트 p이고, w3은 s이고, w4는 t이고, w5는 u 이다.
이상과 같이, 화소값 M 및 화소값 B를 설정한 식에 최소 제곱법을 적용함으로써 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 구할 수 있다.
식(35) 내지 식(43)에 대응하는 설명에서, 혼합 영역에 포함되는 화소의 화소값을 M으로 하고, 배경 영역에 포함되는 화소의 화소값을 B로 하여 설명하였지만, 주목하고 있는 화소가 커버드 백그라운드 영역에 포함되는 경우, 또는 언커버드 백그라운드 영역에 포함되는 경우의 각각에 대하여 정규 방정식을 세울 필요가 있다.
예를 들면, 도 74에 도시한 프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 구하는 경우, 프레임 #n의 화소의 C04 내지 C08, 및 프레임 #n-1의 화소의 화소값 P04 내지 P08이 정규 방정식에 설정된다.
도 75에 도시한 프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 구하는 경우, 프레임 #n의 화소의 C28 내지 C32, 및 프레임 #n+1의 화소의 화소값 N28 내지 N32가 정규 방정식에 설정된다.
또한, 예를 들면, 도 85에 도시한 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 이하의 식(50) 내지 식(58)이 세워진다. 혼합비α를 산출하는 화소의 화소값은 Mc5이다. 또한, 도 85에서 흰 동그라미는 배경으로 간주하는 화소를 나타내고, 검은 동그라미는 혼합 영역의 화소라고 간주하는 화소를 각각 나타내고 있다.
프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 식(50) 내지 식(58)에서 프레임 #n의 화소에 대응하는 프레임 #n-1의 화소의 배경 영역의 화소의 화소값 Bc1 내지 Bc9가 사용된다.
도 85에 도시한 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 이하의 식(59) 내지 식(67)이 세워진다. 혼합비α를 산출하는 화소의 화소값은 Mu5이다.
프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비α를 산출할 때, 식(59) 내지 식(67)에서 프레임 #n의 화소에 대응하는 프레임 #n+1의 화소의 배경 영역의 화소의 화소값 Bu1 내지 Bu9가 사용된다.
도 86은 추정 혼합비 처리부(401)의 구성을 나타내는 블록도이다. 추정 혼합비 처리부(401)에 입력된 화상은 지연 회로(501) 및 덧셈부(502)에 공급된다.
지연 회로(501)는 입력 화상을 1 프레임 지연시켜 덧셈부(502)에 공급한다. 덧셈부(502)에 입력 화상으로서 프레임 #n이 입력되어 있을 때, 지연 회로(501)는 프레임 #n-1을 덧셈부(502)에 공급한다.
덧셈부(502)는 혼합비α를 산출하는 화소의 근방의 화소의 화소값, 및 프레임 #n-1의 화소값을 정규 방정식에 설정한다. 예를 들면, 덧셈부(502)는 식(50) 내지 식(58)에 기초하여 정규 방정식에 화소값 Mc1 내지 Mc9 및 화소값 Bc1 내지 Bc9를 설정한다. 덧셈부(502)는 화소값이 설정된 정규 방정식을 연산부(503)에 공급한다.
연산부(503)는 덧셈부(502)로부터 공급된 정규 방정식을 소인법 등에 의해 풀어 추정 혼합비를 구하고 구해진 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 산출하여 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는 추정 혼합비 처리부(401)와 마찬가지의 구성을 갖기 때문에 그 설명은 생략한다.
도 87은 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 나타내는 도면이다. 도 87에 나타내는 추정 혼합비는 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임 v가 11이고, 7×7 화소의 블록을 단위로 하여 방정식을 생성하여 산출된 결과를 1 라인에 대하여 나타내는 것이다.
추정 혼합비는 혼합 영역에서 도 86에 도시한 바와 같이, 거의 직선적으로 변화하고 있음을 알 수 있다.
다음에, 도 86에 구성을 나타내는 추정 혼합비 처리부(401)에 의한 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 88의 흐름도를 참조하여 설명한다.
단계 S521에서 덧셈부(502)는 입력된 화상에 포함되는 화소값, 및 지연 회로(501)로부터 공급되는 화상에 포함되는 화소값을 커버드 백그라운드 영역의 모델에 대응하는 정규 방정식에 설정한다.
단계 S522에서 추정 혼합비 처리부(401)는 대상이 되는 화소에 대한 설정이 종료하였는지의 여부를 판정하고, 대상이 되는 화소에 대한 설정이 종료하지 않았다고 판정된 경우, 단계 S521로 되돌아가 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S522에서 대상이 되는 화소에 대한 화소값의 설정이 종료되었다고 판정된 경우, 단계 S523으로 진행하여 연산부(173)는 화소값이 설정된 정규 방정식을 기초로 추정 혼합비를 연산하여 구해진 추정 혼합비를 출력한다.
이와 같이, 도 86에 구성을 나타내는 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 연산할 수 있다.
언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는 언커버드 백그라운드 영역의 모델에 대응하는 정규 방정식을 이용한 도 88의 흐름도에 나타내는 처리와 마찬가지이기 때문에 그 설명은 생략한다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 혼합비를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 추정 혼합비 처리부(401)는 이 움직임에 대응하여 화상 전체를 시프트시켜 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 상이한 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는 혼합 영역에 속하는 화소에 대응하는 화소로서 움직임에 대응한 화소를 선택하여 상술한 처리를 실행한다.
이와 같이, 혼합비 산출부(102)는 영역 특정부(101)로부터 공급된 영역 정보, 및 입력 화상을 기초로 각 화소에 대응하는 특징량인 혼합비α를 산출할 수 있다.
혼합비α를 이용함으로써, 움직이고 있는 오브젝트에 대응하는 화상에 포함되는 움직임 불선명의 정보를 남긴 채로 화소값에 포함되는 전경 성분과 배경 성분을 분리하는 것이 가능하게 된다.
또한, 혼합비α에 기초하여 화상을 합성하면, 실제 세계를 실제로 재촬영한 것 같은 움직이고 있는 오브젝트의 스피드에 맞는 올바른 움직임 불선명을 포함하는 화상을 만드는 것이 가능하게 된다.
다음에, 전경 배경 분리부(105)에 대하여 설명한다. 도 89는 전경 배경 분리부(105)의 구성의 일례를 나타내는 블록도이다. 전경 배경 분리부(105)에 공급된 입력 화상은 분리부(601), 스위치(602), 및 스위치(604)에 공급된다. 커버드 백그라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 도시내는 영역 특정부(103)로부터 공급된 영역 정보는 분리부(601)에 공급된다. 전경 영역을 나타내는 영역 정보는 스위치(602)에 공급된다. 배경 영역을 나타내는 영역 정보는 스위치(604)에 공급된다.
혼합비 산출부(104)로부터 공급된 혼합비α는 분리부(601)에 공급된다. 분리부(601)는 커버드 백그라운드 영역을 나타내는 영역 정보, 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α를 기초로 입력 화상으로부터 전경 성분을 분리하여 분리한 전경 성분을 합성부(603)에 공급함과 함께 입력 화상으로부터 배경 성분을 분리하고 분리한 배경 성분을 합성부(605)에 공급한다.
스위치(602)는 전경 영역을 나타내는 영역 정보를 기초로 전경에 대응하는 화소가 입력되었을 때, 닫혀지고, 입력 화상에 포함되는 전경에 대응하는 화소만을 합성부(603)에 공급한다.
스위치(604)는 배경 영역을 나타내는 영역 정보를 기초로 배경에 대응하는 화소가 입력되었을 때, 닫혀지고 입력 화상에 포함되는 배경에 대응하는 화소만을 합성부(605)에 공급한다.
합성부(603)는 분리부(601)로부터 공급된 전경에 대응하는 성분, 스위치(602)로부터 공급된 전경에 대응하는 화소를 기초로 전경 성분 화상을 합성하고, 합성한 전경 성분 화상을 출력한다. 전경 영역과 혼합 영역도 중복하지 않기 때문에 합성부(603)는 예를 들면, 전경에 대응하는 성분과 전경에 대응하는 화소에 논리합의 연산을 적용하여 전경 성분 화상을 합성한다.
합성부(603)는 전경 성분 화상의 합성 처리의 최초에 실행되는 초기화의 처리에서 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 전경 성분 화상의 합성의 처리에서 전경 성분 화상을 저장(덮어쓰기)한다. 따라서, 합성부(603)가 출력하는 전경 성분 화상 내, 배경 영역에 대응하는 화소에는 화소값으로서 0이 저장되어 있다.
합성부(605)는 분리부(601)로부터 공급된 배경에 대응하는 성분, 스위치(604)로부터 공급된 배경에 대응하는 화소를 기초로 배경 성분 화상을 합성하고, 합성한 배경 성분 화상을 출력한다. 배경 영역과 혼합 영역은 중복하지 않기 때문에, 합성부(605)는 예를 들면, 배경에 대응하는 성분과 배경에 대응하는 화소에 논리합의 연산을 적용하여 배경 성분 화상을 합성한다.
합성부(605)는 배경 성분 화상의 합성 처리의 최초에 실행되는 초기화의 처리에서, 내장하고 있는 프레임, 메모리에 모든 화소값이 O 인 화상을 저장하고, 배경 성분 화상의 합성의 처리에서 배경 성분 화상을 저장(덮어 쓰기)한다. 따라서, 합성부(605)가 출력하는 배경 성분 화상 내, 전경 영역에 대응하는 화소에는 화소값으로서 0이 저장되어 있다.
도 90A, 도 90B는 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상을 나타내는 도면이다.
도 90A는 표시되는 화상의 모식도이고, 도 90B는 도 90A에 대응하는 전경 영역에 속하는 화소, 배경 영역에 속하는 화소, 및 혼합 영역에 속하는 화소를 포함하는 1 라인의 화소를 시간 방향으로 전개한 모델도를 도시한다.
도 90A 및 도 90B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 배경 성분 화상은 배경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 배경 성분으로 구성된다.
도 90A 및 도 90B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상은 전경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 전경 성분으로 구성된다.
혼합 영역의 화소의 화소값은 전경 배경 분리부(105)에 의해 배경 성분과 전경 성분으로 분리된다. 분리된 배경 성분은 배경 영역에 속하는 화소와 함께 배경 성분 화상을 구성한다. 분리된 전경 성분은 전경 영역에 속하는 화소와 함께 전경 성분 화상을 구성한다.
이와 같이, 전경 성분 화상은 배경 영역에 대응하는 화소의 화소값이 0으로 되고, 전경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미있는 화소값이 설정된다. 마찬가지로, 배경 성분 화상은 전경 영역에 대응하는 화소의 화소값이 0으로 되고, 배경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미있는 화소값이 설정된다.
다음에, 분리부(601)가 실행하는 혼합 영역에 속하는 화소로부터 전경 성분, 및 배경 성분을 분리하는 처리에 대하여 설명한다.
도 91은 도면 중의 좌측으로부터 우측으로 이동하는 오브젝트에 대응하는 전경을 포함하는 2개의 프레임의 전경 성분 및 배경 성분을 나타내는 화상의 모델이다. 도 91에 나타내는 화상의 모델에서 전경의 움직임량 v는 4이고 가상 분할 수는 4로 되어 있다.
프레임 #n에서 가장 좌측의 화소, 및 좌측으로부터 14번째 내지 18번째 화소는 배경 성분만으로 이루어지고 배경 영역에 속한다. 프레임 #n에서 좌측으로부터 2번째 내지 4번째 화소는 배경 성분 및 전경 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n에서 좌측으로부터 11번째 내지 13번째 화소는 배경 성분 및 전경 성분을 포함하고, 커버드 백그라운드 영역에 속한다. 프레임 #n에서 좌측으로부터 5번째 내지 10번째 화소는 전경 성분만으로 이루어지고, 전경 영역에 속한다.
프레임 #n+1에서 좌측으로부터 1번째 내지 5번째 화소, 및 좌측으로부터 18번째 화소는 배경 성분만으로 이루어지고, 배경 영역에 속한다. 프레임 #n+1에서 좌측으로부터 6번째 내지 8번째 화소는 배경 성분 및 전경 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n+1에서 좌측으로부터 15번째 내지 17번째 화소는 배경 성분 및 전경 성분을 포함하고, 커버드 백그라운드 영역에 속한다. 프레임 #n+1에서 좌측으로부터 9번째 내지 14번째 화소는 전경 성분만으로 이루어지고, 전경 영역에 속한다.
도 92는 커버드 백그라운드 영역에 속하는 화소로부터 전경 성분을 분리하는 처리를 설명하는 도면이다. 도 92에서, α1 내지 α18은 프레임 #n에서의 화소의 각각에 대응하는 혼합비이다. 도 92에서 좌측으로부터 15번째 내지 17번째 화소는 커버드 백그라운드 영역에 속한다. 프레임 #n의 좌측으로부터 15번째 화소의 화소값 C15는 식(68)로 표현된다.
여기서, α15는 프레임 #n의 좌측으로부터 15번째 화소의 혼합비이다. P15는 프레임 #n-1의 좌측으로부터 15번째 화소의 화소값이다.
식(68)을 기초로 프레임 #n의 좌측으로부터 15번째 화소의 전경 성분의 합 f15는 식(69)로 표현된다.
마찬가지로, 프레임 #n의 좌측으로부터 16번째 화소의 전경 성분의 합 f16은 식(70)으로 표현되고, 프레임 #n의 좌측으로부터 17번째 화소의 전경 성분의 합 f17은 식(71)로 표현된다.
이와 같이, 커버드 백그라운드 영역에 속하는 화소의 화소값 C 에 포함되는 전경 성분 fc은 식(72)로 계산된다.
P는 1개 전 프레임의 대응하는 화소의 화소값이다.
도 93은 언커버드 백그라운드 영역에 속하는 화소로부터 전경 성분을 분리하는 처리를 설명하는 도면이다. 도 93에서 α1 내지 α18은 프레임 #n 에서의 화소의 각각에 대응하는 혼합비이다. 도 93에서 좌측으로부터 2번째 내지 4번째 화소는 언커버드 백그라운드 영역에 속한다. 프레임 #n의 좌측으로부터 2번째 화소의 화소값 C02는 식(73)으로 표현된다.
여기서, α2는 프레임 #n의 좌측으로부터 2번째 화소의 혼합비이다. N02는 프레임 #n+1의 좌측으로부터 2번째 화소의 화소값이다.
식(73)을 기초로 프레임 #n의 좌측으로부터 2번째 화소의 전경 성분의 합 f02는 식(74)로 표현된다.
마찬가지로, 프레임 #n의 좌측으로부터 3번째 화소의 전경 성분의 합 f03은 식(75)로 표현되고, 프레임 #n의 좌측으로부터 4번째 화소의 전경 성분의 합 f04는 식(76)으로 표현된다.
이와 같이, 언커버드 백그라운드 영역에 속하는 화소의 화소값 C 에 포함되는 전경 성분 fu는 식(77)로 계산된다.
N은, 하나 뒤의 프레임의 대응하는 화소의 화소값이다.
이와 같이, 분리부(601)는 영역 정보에 포함되는 커버드 백그라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 나타내는 정보, 및 화소마다의 혼합비α를 기초로 혼합 영역에 속하는 화소로부터 전경 성분, 및 배경 성분을 분리할 수 있다.
도 94는 이상에서 설명한 처리를 실행하는 분리부(601)의 구성의 일례를 나타내는 블록도이다. 분리부(601)에 입력된 화상은 프레임 메모리(621)에 공급되고, 혼합비 산출부(104)로부터 공급된 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α는 분리 처리 블록(622)에 입력된다.
프레임 메모리(621)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(621)는 처리의 대상이 프레임 #n일 때, 프레임 #n의 1개 전의 프레임인 프레임#n-1, 프레임 #n, 및 프레임 #n의 1개 뒤의 프레임인 프레임 #n+1을 기억한다.
프레임 메모리(621)는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소를 분리 처리 블록(622)에 공급한다.
분리 처리 블록(622)은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비α를 기초로 프레임 메모리(621)로부터 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소의 화소값에 도 92 및 도 93을 참조하여 설명한 연산을 적용하여 프레임 #n의 혼합 영역에 속하는 화소로부터 전경 성분 및 배경 성분을 분리하여 프레임 메모리(623)에 공급한다.
분리 처리 블록(622)은 커버되지 않은 영역 처리부(631), 커버된 영역 처리부(632), 합성부(633), 및 합성부(634)로 구성되어 있다.
커버되지 않은 영역 처리부(631)의 승산기(641)는 혼합비α를 프레임 메모리(621)로부터 공급된 프레임 #n+1의 화소의 화소값에 곱하여 스위치(642)에 출력한다. 스위치(642)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n+1의 화소에 대응한다)가 언커버드 백그라운드 영역일 때, 닫혀지고 승산기(641)로부터 공급된 혼합비α를 곱한 화소값을 연산기(643) 및 합성부(634)에 공급한다. 스위치(642)로부터 출력되는 프레임 #n+1의 화소의 화소값에 혼합비α를 곱한 값은 프레임 #n의 대응하는 화소의 화소값의 배경 성분과 같다.
연산기(643)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터 스위치(642)로부터 공급된 배경 성분을 감하여 전경 성분을 구한다. 연산기(643)는 언커버드 백그라운드 영역에 속하는 프레임 #n의 화소의 전경 성분을합성부(633)에 공급한다.
커버된 영역 처리부(632)의 승산기(651)는 혼합비α를 프레임 메모리(621)로부터 공급된 프레임 #n-1의 화소의 화소값에 곱하여 스위치(652)에 출력한다. 스위치(652)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n-1의 화소에 대응한다)가 커버드 백그라운드 영역일 때, 닫혀지고 승산기(651)로부터 공급된 혼합비α를 곱한 화소값을 연산기(653) 및 합성부(634)에 공급한다. 스위치(652)로부터 출력되는 프레임 #n-1의 화소의 화소값에 혼합비α를 곱한 값은 프레임 #n의 대응하는 화소의 화소값의 배경 성분과 같다.
연산기(653)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터 스위치(652)로부터 공급된 배경 성분을 감하여 전경 성분을 구한다. 연산기(653)는 커버드 백그라운드 영역에 속하는 프레임 #n의 화소의 전경 성분을 합성부(633)에 공급한다. 합성부(633)는 프레임 #n의 연산기(643)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 전경 성분, 및 연산기(653)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성하여 프레임 메모리(623)에 공급한다.
합성부(634)는 프레임 #n의 스위치(642)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 배경 성분, 및 스위치(652)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성하여 프레임 메모리(623)에 공급한다.
프레임 메모리(623)는 분리 처리 블록(622)으로부터 공급된 프레임 #n의 혼합 영역 화소의 전경 성분과 배경 성분을 각각에 기억한다.
프레임 메모리(623)는 기억하고 있는 프레임 #n의 혼합 영역 화소의 전경 성분, 및 기억하고 있는 프레임 #n의 혼합 영역 화소의 배경 성분을 출력한다.
특징량인 혼합비α를 이용함으로써 화소값에 포함되는 전경 성분과 배경 성분을 완전하게 분리하는 것이 가능하게 된다.
합성부(603)는 분리부(601)로부터 출력된 프레임 #n의 혼합 영역 화소의 전경 성분과, 전경 영역에 속하는 화소를 합성하여 전경 성분 화상을 생성한다. 합성부(605)는 분리부(601)로부터 출력된 프레임 #n의 혼합 영역의 화소의 배경 성분과 배경 영역에 속하는 화소를 합성하여 배경 성분 화상을 생성한다.
도 95A, 도 95B는, 도 91의 프레임 #n에 대응하는 전경 성분 화상의 예와 배경 성분 화상의 예를 나타내는 도면이다.
도 95A는, 도 91의 프레임 #n에 대응하는 전경 성분 화상의 예를 도시한다. 가장 좌측의 화소, 및 좌측으로부터 14번째 화소는 전경과 배경이 분리되기 전에 배경 성분만으로 이루어져 있었기 때문에 화소값이 0이 된다.
좌측으로부터 2번째 내지 4번째 화소는 전경과 배경이 분리되기 전에 언커버드 백그라운드 영역에 속하여 배경 성분이 0이 되며 전경 성분이 그대로 남겨져 있다. 좌측으로부터 11번째 내지 13번째 화소는 전경과 배경이 분리되기 전에 커버드 백그라운드 영역에 속하여 배경 성분이 0이 되며 전경 성분이 그대로 남겨져 있다. 좌측으로부터 5번째 내지 10번째 화소는 전경 성분만으로 이루어지기 때문에 그대로 남겨진다.
도 95B는, 도 91의 프레임 #n에 대응하는 배경 성분 화상의 예를 도시한다.가장 좌측의 화소, 및 좌측으로부터 14번째 화소는 전경과 배경이 분리되기 전에, 배경 성분만으로 이루어져 있었기 때문에 그대로 남겨진다.
좌측으로부터 2번째 내지 4번째 화소는 전경과 배경이 분리되기 전에 언커버드 백그라운드 영역에 속하여 전경 성분이 0이 되며 배경 성분이 그대로 남겨져 있다. 좌측으로부터 11번째 내지 13번째 화소는 전경과 배경이 분리되기 전에 커버드 백그라운드 영역에 속하여 전경 성분이 O이 되며 배경 성분이 그대로 남겨져 있다. 좌측으로부터 5번째 내지 10번째 화소는 전경과 배경이 분리되기 전에 전경 성분만으로 이루어져 있었기 때문에 화소값이 O이 된다.
다음에, 도 96에 나타내는 흐름도를 참조하여 전경 배경 분리부(105)에 의한 전경과 배경의 분리 처리를 설명한다. 단계 S601에서 분리부(601)의 프레임 메모리(621)는 입력 화상을 취득하여 전경과 배경의 분리 대상이 되는 프레임 #n을 그 전의 프레임 #n-1 및 그 후의 프레임 #n+1과 함께 기억한다.
단계 S602에서 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 영역 정보를 취득한다. 단계 S603에서 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 혼합비α를 취득한다.
단계 S604에서 커버되지 않은 영역 처리부(631)는 영역 정보 및 혼합비α를 기초로 프레임 메모리(621)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 배경 성분을 추출한다.
단계 S605에서 커버되지 않은 영역 처리부(631)는 영역 정보 및 혼합비α를 기초로 프레임 메모리(621)로부터 공급된 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 전경 성분을 추출한다.
단계 S606에서 커버된 영역 처리부(632)는 영역 정보 및 혼합비α를 기초로 프레임 메모리(621)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 배경 성분을 추출한다. 단계 S607에서 커버된 영역 처리부(632)는 영역 정보 및 혼합비α를 기초로 프레임 메모리(621)로부터 공급된 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터 전경 성분을 추출한다.
단계 S608에서 합성부(633)는 단계 S605의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 전경 성분과, 단계 S607의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성한다. 합성된 전경 성분은 합성부(603)에 공급된다. 또한, 합성부(603)는 스위치(602)를 통해 공급된 전경 영역에 속하는 화소와 분리부(601)로부터 공급된 전경 성분을 합성하여 전경 성분 화상을 생성한다.
단계 S609에서 합성부(634)는 단계 S604의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 배경 성분과, 단계 S606의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성한다. 합성된 배경 성분은 합성부(605)에 공급된다. 또한, 합성부(605)는 스위치(604)를 통해 공급된 배경 영역에 속하는 화소와 분리부(601)로부터 공급된 배경 성분을 합성하여 배경 성분 화상을 생성한다.
단계 S610에서 합성부(603)는 전경 성분 화상을 출력한다. 단계 S611에서 합성부(605)는 배경 성분 화상을 출력하고 처리는 종료한다.
이와 같이, 전경 배경 분리부(105)는 영역 정보 및 혼합비α를 기초로 입력 화상으로부터 전경 성분과 배경 성분을 분리하여 전경 성분만으로 이루어지는 전경 성분 화상, 및 배경 성분만으로 이루어지는 배경 성분 화상을 출력할 수 있다.
다음에, 전경 성분 화상의 움직임 불선명의 양의 조정에 대하여 설명한다.
도 97은 움직임 불선명 조정부(106)의 구성의 일례를 나타내는 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보는 처리 단위 결정부(801), 모델화부(802), 및 연산부(805)에 공급된다. 영역 특정부(103)로부터 공급된 영역 정보는 처리 단위 결정부(801)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 덧셈부(804)에 공급된다.
처리 단위 결정부(801)는 움직임 벡터와 그 위치 정보, 및 영역 정보를 기초로 처리 단위를 생성하고 생성한 처리 단위를 모델화부(802) 및 덧셈부(804)에 공급한다.
처리 단위 결정부(801)가 생성하는 처리 단위 A는 도 98에 예를 도시한 바와 같이 전경 성분 화상의 커버드 백그라운드 영역에 대응하는 화소로부터 시작하여 언커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 나란히 연속하는 화소, 또는 언커버드 백그라운드 영역에 대응하는 화소로부터 시작하여 커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 나란히 연속하는 화소를 나타낸다. 처리 단위 A는 예를 들면, 좌측 상점(처리 단위로 지정되는 화소로서, 화상상에서 가장 좌측 또는 가장 위에 위치하는 화소의 위치) 및 우측 아래 2개의 데이터로 이루어진다.
모델화부(802)는 움직임 벡터 및 입력된 처리 단위 A를 기초로 모델화를 실행한다. 보다 구체적으로는, 예를 들면 모델화부(802)는 처리 단위 A에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할 수, 및 화소마다의 전경 성분의 수에 대응하는 복수의 모델을 미리 기억해 두고, 처리 단위 A, 및 화소값의 시간 방향의 가상 분할 수를 기초로 도 99에 도시한 바와 같은 화소값과 전경 성분과의 대응을 지정하는 모델을 선택한다.
예를 들면, 처리 단위 A에 대응하는 화소의 수가 12이고 셔터 시간 내의 움직임량 v가 5일 때에는, 모델화부(802)는 가상 분할 수를 5로 하고, 가장 좌측에 위치하는 화소가 1개의 전경 성분을 포함하고, 좌측으로부터 2번째 화소가 2개의 전경 성분을 포함하고, 좌측으로부터 3번째 화소가 3개의 전경 성분을 포함하고, 좌측으로부터 4번째 화소가 4개의 전경 성분을 포함하고, 좌측으로부터 5번째 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 6번째 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 7번째 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 8번째 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 9번째 화소가 4개의 전경 성분을 포함하고, 좌측으로부터 10번째 화소가 3개의 전경 성분을 포함하고, 좌측으로부터 11번째 화소가 2개의 전경 성분을 포함하고, 좌측으로부터 12번째 화소가 1개의 전경 성분을 포함하여, 전체적으로 8개의 전경 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(802)는 미리 기억하여 있는 모델로부터 선택하는 것은 아니고 움직임 벡터, 및 처리 단위 A가 공급되었을 때 움직임 벡터, 및 처리 단위를 기초로 모델을 생성하도록 해도 좋다.
모델화부(802)는 선택한 모델을 방정식 생성부(803)에 공급한다.
방정식 생성부(803)는 모델화부(802)로부터 공급된 모델을 기초로 방정식을 생성한다. 도 99에 나타내는 전경 성분 화상의 모델을 참조하여 전경 성분의 수가 8이고, 처리 단위 A에 대응하는 화소의 수가 12이고, 움직임량 v가 5이고, 가상 분할 수가 5일 때의 방정식 생성부(803)가 생성하는 방정식에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간/v에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, FO1/v 내지 F08/v와 화소값 CO1 내지 C12와의 관계는 식(78) 내지 식(89)로 표현된다.
방정식 생성부(803)는 생성한 방정식을 변형하여 방정식을 생성한다. 방정식 생성부(803)가 생성하는 방정식을 식(90) 내지 식(101)으로 표현한다.
식(90) 내지 식(101)은 식(102)로서 나타낼 수 있다.
식(102)에서, j는 화소의 위치를 나타낸다. 이 예에서, j는 1 내지 12 중 어느 1개의 값을 갖는다. 또, i는 전경값의 위치를 나타낸다. 이 예에서, i는 1 내지 8 중 어느 1개의 값을 갖는다. aij는 i 및 j의 값에 대응하며 0 또는 1의 값을 갖는다.
오차를 고려하여 표현하면 식(102)은 식(103)과 같이 나타낼 수 있다.
식(103)에서, ej는 주목 화소 cj 에 포함되는 오차이다.
식(103)은 식(104)로 다시 쓸 수 있다.
여기서, 최소 제곱법을 적용하기 위해서 오차의 제곱합 E를 식(105)로 표현한 바와 같이 정의한다.
오차가 최소가 되기 위해서는, 오차의 제곱합 E에 대한 변수 Fk에 의한 편미분의 값이 0이 되면 좋다. 식(106)을 만족하도록 Fk을 구한다.
식(106)에서, 움직임량 v는 고정값이므로 식(107)을 유도할 수 있다.
식(107)을 전개하여, 이항하면 식(108)을 얻는다.
식(108)의 k에 1 내지 8의 정수 중 어느 1개를 대입하여 얻어지는 8개의 식으로 전개한다. 얻어진 8개의 식을 행렬에 의해 1개의 식에 의해 나타낼 수 있다. 이 식을 정규 방정식이라고 부른다.
이러한 최소 제곱법에 기초한 방정식 생성부(803)가 생성하는 정규 방정식의 예를 식(109)으로 표현한다.
식(109)을 A·F=v·C로 나타내면, C, A, v가 기지이고 F는 미지이다. 또한, A, v는 모델화의 시점에서 기지이지만, C는 덧셈 동작에서 화소값을 입력함으로써 기지로 된다.
최소 제곱법에 기초하는 정규 방정식에 의해 전경 성분을 산출함으로써 화소 C 에 포함되어 있는 오차를 분산시킬 수 있다.
방정식 생성부(803)는 이와 같이 생성된 정규 방정식을 덧셈부(804)에 공급한다.
덧셈부(804)는 처리 단위 결정부(801)로부터 공급된 처리 단위를 기초로 전경 성분 화상에 포함되는 화소값 C를 방정식 생성부(803)로부터 공급된 행렬의 식에 설정한다. 덧셈부(804)는 화소값 C를 설정한 행렬을 연산부(805)에 공급한다.
연산부(805)는 소인법(Gauss-Jordan의 소거법) 등의 해법에 기초하는 처리에 의해 움직임 불선명이 제거된 전경 성분 Fi/v를 산출하여, 움직임 불선명이 제거된 전경의 화소값인, 0 내지 8의 정수 중 어느 하나의 i에 대응하는 Fi를 산출하여,도 1OO에 예를 나타내는, 움직임 불선명이 제거된 화소값인 Fi로 이루어지는 움직임 불선명이 제거된 전경 성분 화상을 움직임 불선명 부가부(806) 및 선택부(807)에 출력한다.
또, 도 1OO에 나타내는 움직임 불선명이 제거된 전경 성분 화상에서 C03 내지 C10의 각각에 F01 내지 F08의 각각이 설정되어 있는 것은, 화면에 대한 전경 성분 화상의 위치를 변화시키지 않기 때문이고 임의의 위치에 대응시킬 수 있다.
움직임 불선명 부가부(806)는 움직임량 v 와는 다른 값의 움직임 불선명 조정량 v', 예를 들면, 움직임량 v의 절반의 값의 움직임 불선명 조정량 v'이나 움직임량 v와 관계없는 값의 움직임 불선명 조정량 v'을 부여함으로써 움직임 불선명의 량을 조정할 수 있다. 예를 들면, 도 101에 도시한 바와 같이, 움직임 불선명 부가부(806)는 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'로 나눔으로써 전경 성분 Fi/v'를 산출하여, 전경 성분 Fi/v'의 합을 산출하여 움직임 불선명의 양이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'이 3일 때, 화소값 CO2는 (FO1)/v'가 되고, 화소값 C03은 (F01+F02)/v'이 되고, 화소값 C04는 (F01+F02+F03)/v'가 되고, 화소값 C05는 (F02+F03+FO4)/v'가 된다.
움직임 불선명 부가부(806)는 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(807)에 공급한다.
선택부(807)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로 연산부(805)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(806)로부터 공급된 움직임 불선명의 량이 조정된 전경 성분 화상 중 어느한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다.
이와 같이, 움직임 불선명 조정부(106)는 선택 신호 및 움직임 불선명 조정량 v'을 기초로 움직임 불선명의 양을 조정할 수 있다.
또한, 예를 들면, 도 102에 도시한 바와 같이, 처리 단위에 대응하는 화소의 수가 8이고 움직임량 v가 4일 때, 움직임 불선명 조정부(106)는 식(110)으로 표현한 행렬의 식을 생성한다.
움직임 불선명 조정부(106)는 이와 같이 처리 단위의 길이에 대응한 수의 식을 세워 움직임 불선명의 량이 조정된 화소값인 Fi를 산출한다. 마찬가지로, 예를 들면, 처리 단위에 포함되는 화소의 수가 100일 때, 100개의 화소에 대응하는 식을 생성하여 Fi를 산출한다.
도 103은 움직임 불선명 조정부(106)의 다른 구성을 나타내는 도면이다. 도 97에 나타내는 경우와 동일한 부분에는 동일한 번호를 붙이고 그 설명은 생략한다. 선택부(821)는 선택 신호를 기초로 입력된 움직임 벡터와 그 위치 신호를 그대로 처리 단위 결정부(801) 및 모델화부(802)에 공급하거나 또는 움직임 벡터의 크기를 움직임 불선명 조정량 v'으로 치환하여 그 크기가 움직임 불선명 조정량 v'로 치환된 움직임 벡터와 그 위치 신호를 처리 단위 결정부(801) 및 모델화부(802)에 공급한다.
이와 같이 함으로써, 도 103의 움직임 불선명 조정부(106)의 처리 단위 결정부(801) 내지 연산부(805)는 움직임량 v와 움직임 불선명 조정량 v'과의 값에 대응하여 움직임 불선명의 량을 조정할 수 있다. 예를 들면, 움직임량 v가 5이고 움직임 불선명 조정량 v'이 3일 때, 도 103의 움직임 불선명 조정부(106)의 처리 단위 결정부(801) 내지 연산부(805)는 도 99에 나타내는 움직임량 v가 5인 전경 성분 화상에 대하여 3인 움직임 불선명 조정량 v' 대응하는 도 1O1에 도시한 바와 같은 모델에 따라 연산을 실행하고, (움직임량 v)/(움직임 불선명 조정량 v')=5/3, 즉 거의 1.7인 움직임량 v에 따른 움직임 불선명을 포함하는 화상을 산출한다. 또, 이 경우, 산출되는 화상은 3인 움직임량 v에 대응한 움직임 불선명을 포함하는 것은 아니기 때문에, 움직임 불선명 부가부(806)의 결과와는 움직임량 v와 움직임 불선명 조정량 v'의 관계의 의미가 다른 점에 주의가 필요하다.
이상과 같이, 움직임 불선명 조정부(106)는 움직임량 v 및 처리 단위에 대응하여 식을 생성하고, 생성한 식에 전경 성분 화상의 화소값을 설정하여 움직임 불선명의 량이 조정된 전경 성분 화상을 산출한다.
다음에, 도 104의 흐름도를 참조하여 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 량의 조정의 처리를 설명한다.
단계 S801에서 움직임 불선명 조정부(106)의 처리 단위 결정부(801)는 움직임 벡터 및 영역 정보를 기초로 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(802)에 공급한다.
단계 S802에서 움직임 불선명 조정부(106)의 모델화부(802)는 움직임량 v 및 처리 단위에 대응하여 모델의 선택이나 생성을 행한다. 단계 S803에서 방정식 생성부(803)는 선택된 모델을 기초로 정규 방정식을 작성한다.
단계 S804에서 덧셈부(804)는 작성된 정규 방정식에 전경 성분 화상의 화소값을 설정한다. 단계 S805에서, 덧셈부(804)는 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행했는가의 여부를 판정하고, 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행하고 있지 않다고 판정된 경우, 단계 S804로 되돌아가 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S805에서, 처리 단위의 모든 화소의 화소값의 설정을 행한 것으로 판정된 경우, 단계 S806으로 진행하여 연산부(805)는 덧셈부(804)로부터 공급된 화소값이 설정된 정규 방정식을 기초로 움직임 불선명의 량을 조정한 전경의 화소값을 산출하고 처리는 종료한다.
이와 같이, 움직임 불선명 조정부(106)는 움직임 벡터 및 영역 정보를 기초로 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명의 량을 조정할 수 있다.
즉, 샘플 데이터인 화소값에 포함되는 움직임 불선명의 량을 조정할 수 있다.
도 105는 움직임 불선명 조정부(106)의 구성의 다른 일례를 나타내는 블록도이다.
움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보는 처리 단위 결정부(901) 및 보정부(905)에 공급되고, 영역 특정부(103)로부터 공급된 영역 정보는 처리 단위 결정부(901)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 연산부(904)에 공급된다.
처리 단위 결정부(9O1)는 움직임 벡터와 그 위치 정보, 및 영역 정보를 기초로 처리 단위를 생성하고, 움직임 벡터와 함께 생성한 처리 단위를 모델화부(902)에 공급한다.
모델화부(902)는 움직임 벡터 및 입력된 처리 단위를 기초로 모델화를 실행한다. 보다 구체적으로는, 예를 들면, 모델화부(902)는 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할 수, 및 화소마다의 전경 성분의 수에 대응하는 복수의 모델을 미리 기억해 두고, 처리 단위, 및 화소값의 시간 방향의 가상 분할 수를 기초로 도 106에 도시한 바와 같은, 화소값과 전경 성분과의 대응을 지정하는 모델을 선택한다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 움직임량 v가 5일 때에는, 모델화부(902)는 가상 분할 수를 5로 하고, 가장 좌측에 위치하는 화소가 1개의 전경 성분을 포함하고, 좌측으로부터 2번째 화소가 2개의 전경 성분을 포함하고, 좌측으로부터 3번째 화소가 3개의 전경 성분을 포함하고, 좌측으로부터 4번째 화소가 4개의 전경 성분을 포함하고, 좌측으로부터 5번째 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 6번째 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 7번째 화소가 5개의 전경 성분을 포함하고, 좌측으로부터 8번째 화소가 5개의전경 성분을 포함하고, 좌측으로부터 9번째 화소가 4개의 전경 성분을 포함하고, 좌측으로부터 10번째 화소가 3개의 전경 성분을 포함하고, 좌측으로부터 11번째 화소가 2개의 전경 성분을 포함하고, 좌측으로부터 12번째 화소가 1개의 전경 성분을 포함하여, 전체적으로 8개의 전경 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(902)는 미리 기억하고 있는 모델로부터 선택하는 것은 아니고, 움직임 벡터, 및 처리 단위가 공급되었을 때, 움직임 벡터, 및 처리 단위를 기초로 모델을 생성하도록 해도 좋다.
방정식 생성부(903)는 모델화부(902)로부터 공급된 모델을 기초로 방정식을 생성한다.
도 106 내지 도 108에 나타내는 전경 성분 화상의 모델을 참조하여 전경 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5일 때의 방정식 생성부(903)가 생성하는 방정식의 예에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간/v에 대응하는 전경 성분이 FO1/v 내지 F08/v일 때 FO1/v 내지 FO8/v와 화소값 CO1 내지 C12의 관계는 상술한 바와 같이, 식(78) 내지 식(89)으로 표현된다.
화소값 C12 및 C11에 주목하면 화소값 C12는 식(111)으로 표현한 바와 같이, 전경 성분 F08/v만을 포함하고, 화소값 C11은 전경 성분 F08/v 및 0 전경 성분 FO7/v의 곱의 합으로 이루어진다. 따라서, 전경 성분 F07/v는 식(112)로 구할 수 있다.
마찬가지로, 화소값 C10 내지 CO1에 포함되는 전경 성분을 고려하면, 전경 성분 F06/v 내지 FO01/v는 식(113) 내지 식(118)에 의해 구할 수 있다.
방정식 생성부(903)는 식(111) 내지 식(118)에 예를 나타내는 화소값의 차에 의해 전경 성분을 산출하기 위한 방정식을 생성한다. 방정식 생성부(903)은 생성한 방정식을 연산부(904)에 공급한다.
연산부(904)는 방정식 생성부(903)로부터 공급된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값을 설정한 방정식을 기초로 전경 성분을 산출한다. 연산부(904)는 예를 들면, 식(111) 내지 식(118)이 방정식 생성부(903)로부터 공급되었을 때, 식(111) 내지 식(118)에 화소값 C05 내지 C12를 설정한다.
연산부(904)는 화소값이 설정된 식에 기초하여 전경 성분을 산출한다. 예를 들면, 연산부(9O4)는 화소값 C05 내지 C12가 설정된 식(111) 내지 식(118)에 기초하는 연산에 의해, 도 107에 도시한 바와 같이, 전경 성분 FO1/v 내지 F08/v를 산출한다. 연산부(904)는 전경 성분 FO1/v 내지 FO8/v를 보정부(905)에 공급한다.
보정부(905)는 연산부(904)로부터 공급된 전경 성분에 처리 단위 결정부(901)로부터 공급된 움직임 벡터에 포함되는 움직임량 v를 곱하여 움직임 불선명을 제거한 전경의 화소값을 산출한다. 예를 들면, 보정부(905)는 연산부(904)로부터 공급된 전경 성분 F01/v 내지 FO8/v가 공급되었을 때, 전경 성분 F01/v 내지 F08/v의 각각에 5인 움직임량 v를 곱함으로써 도 108에 도시한 바와 같이, 움직임 불선명을 제거한 전경의 화소값 FO1 내지 F08을 산출한다.
보정부(905)는, 이상과 같이 산출된, 움직임 불선명을 제거한 전경의 화소값으로 이루어지는 전경 성분 화상을 움직임 불선명 부가부(906) 및 선택부(907)에 공급한다.
움직임 불선명 부가부(906)는 움직임량 v 와는 다른 값의 움직임 불선명 조정량 v', 예를 들면, 움직임량 v의 절반의 값의 움직임 불선명 조정량 v', 움직임량 v와 관계없는 값의 움직임 불선명 조정량 v'으로 움직임 불선명의 양을 조정할 수 있다. 예를 들면, 도 101에 도시한 바와 같이, 움직임 불선명 부가부(906)는 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'로 나눔으로써 전경 성분 Fi/v'를 산출하여, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명의 량이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'이 3일 때, 화소값 C02는 (F01)/v'가 되고, 화소값 C03은 (F01+F02)/v'가 되고, 화소값 C04는 (FO1+FO2+F03)/v'가 되고, 화소5 값 C05는 (F02+F03+F04)/v'가 된다.
움직임 불선명 부가부(906)는 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(907)에 공급한다.
선택부(907)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로 보정부(905)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(906)로부터 공급된 움직임 불선명의 양이 조정된 전경 성분 화상 중 어느 한쪽을 선택하고, 선택한 전경 성분 화상을 출력한다. 이와 같이, 움직임 불선명 조정부(1O6)는 선택 신호 및 움직임 불선명 조정량 v'을 기초로 움직임 불선명의 양을 조정할 수 있다.
다음에, 도 105에 구성을 나타내는 움직임 불선명 조정부(106)에 의한 전경의 움직임 불선명의 량의 조정 처리를 도 109의 흐름도를 참조하여 설명한다.
단계 S901에서, 움직임 불선명 조정부(106)의 처리 단위 결정부(901)는 움직임 벡터 및 영역 정보를 기초로 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(902) 및 보정부(905)에 공급한다.
단계 S902에서, 움직임 불선명 조정부(106)의 모델화부(902)는 움직임량 v 및 처리 단위에 대응하여 모델의 선택이나 생성을 행한다. 단계 S903에서, 방정식 생성부(903)는 선택 또는 생성된 모델을 기초로 전경 성분 화상의 화소값의 차에 의해 전경 성분을 산출하기 위한 방정식을 생성한다.
단계 S904에서, 연산부(904)는 작성된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값이 설정된 방정식을 기초로 화소값의 차분으로부터 전경 성분을 추출한다. 단계 S905에서, 연산부(904)는 처리 단위에 대응하는 모든 전경 성분을 추출하였는지의 여부를 판정하고, 처리 단위에 대응하는 모든 전경 성분을 추출하지 않은 것으로 판정된 경우, 단계 S904로 되돌아가 전경 성분의 추출 처리를 반복한다.
단계 S905에서, 처리 단위에 대응하는 모든 전경 성분을 추출하였다고 판정된 경우, 단계 S906으로 진행하여, 보정부(905)는 움직임량 v를 기초로 연산부(904)로부터 공급된 전경 성분 FO1/v 내지 FO8/v의 각각을 보정하여 움직임 불선명을 제거한 전경의 화소값 F01 내지 F08을 산출한다.
단계 S907에서, 움직임 불선명 부가부(906)는 움직임 불선명의 량을 조정한전경의 화소값을 산출하고, 선택부(907)는 움직임 불선명이 제거된 화상 또는 움직임 불선명의 량이 조정된 화상 중 어느 하나를 선택하고, 선택한 화상을 출력하고 처리는 종료한다.
이와 같이, 도 105에 구성을 나타내는 움직임 불선명 조정부(106)는 보다 간단한 연산으로 보다 신속하게 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명을 조정할 수 있다.
위너 필터등 종래의 움직임 불선명을 부분적으로 제거하는 방법이, 이상 상태에서는 효과가 인정되지만, 양자화되고 노이즈를 포함한 실제의 화상에 대하여 충분한 효과가 얻어지지 않는 것에 대하여 도 105에 구성을 나타내는 움직임 불선명 조정부(106)에서도 양자화되고 노이즈를 포함한 실제의 화상에 대하여도 충분한 효과가 인정되어, 정밀도가 높은 움직임 불선명의 제거가 가능해진다.
이상과 같이, 도 27에 구성을 나타내는 분리 처리 서버(11)는 입력 화상에 포함되는 움직임 불선명의 량을 조정할 수 있다.
도 110은 분리 처리 서버(11)의 기능의 다른 구성을 나타내는 블록도이다.
도 27에 나타내는 부분과 동일한 부분에는 동일한 번호를 붙여 그 설명은 적절하게 생략한다.
영역 특정부(103)는 영역 정보를 혼합비 산출부(104) 및 합성부(1001)에 공급한다.
혼합비 산출부(104)는 혼합비α를 전경 배경 분리부(105) 및 합성부(1001)에 공급한다.
전경 배경 분리부(105)는 전경 성분 화상을 합성부(1001)에 공급한다.
합성부(1001)는 혼합비 산출부(104)로부터 공급된 혼합비α, 영역 특정부(103)로부터 공급된 영역 정보를 기초로 임의의 배경 화상과 전경 배경 분리부(105)로부터 공급된 전경 성분 화상을 합성하여 임의의 배경 화상과 전경 성분 화상이 합성된 합성 화상을 출력한다.
도 111은 합성부(1001)의 구성을 나타내는 도면이다. 배경 성분 생성부(1021)는 혼합비α 및 임의의 배경 화상을 기초로 배경 성분 화상을 생성하여 혼합 영역 화상 합성부(1022)에 공급한다.
혼합 영역 화상 합성부(1022)는 배경 성분 생성부(1021)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써 혼합 영역 합성 화상을 생성하고, 생성한 혼합 영역 합성 화상을 화상 합성부(1023)에 공급한다.
화상 합성부(1023)는 영역 정보를 기초로 전경 성분 화상, 혼합 영역 화상 합성부(1022)로부터 공급된 혼합 영역 합성 화상, 및 임의의 배경 화상을 합성하고 합성 화상을 생성하여 출력한다.
이와 같이, 합성부(1001)는 전경 성분 화상을 임의의 배경 화상에 합성할 수 있다.
특징량인 혼합비α를 기초로 전경 성분 화상을 임의의 배경 화상과 합성하여 얻어진 화상은 간단히 화소를 합성한 화상에 비교하여 보다 자연스러운 것으로 이루어진다.
도 112는 움직임 불선명의 량을 조정하는 분리 처리 서버(11)의 기능의 또다른 구성을 나타내는 블록도이다. 도 27에 나타내는 분리 처리 서버(11)가 영역 특정과 혼합비α의 산출을 순서대로 행하는 데 대하여, 도 112에 나타내는 분리 처리 서버(11)는 영역 특정과 혼합비α의 산출을 병행하여 행한다.
도 27의 블록도에 나타내는 기능과 동일한 부분에는 동일한 번호를 붙여 그 설명은 생략한다.
입력 화상은 혼합비 산출부(1101), 전경 배경 분리부(1102), 영역 특정부(103), 및 오브젝트 추출부(101)에 공급된다.
혼합비 산출부(1101)는 입력 화상을 기초로 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드영역에 속한다고 가정한 경우에서의 추정 혼합비를 입력 화상에 포함되는 화소의 각각에 대하여 산출하고, 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비를 전경 배경 분리부(1102)에 공급한다.
도 113은 혼합비 산출부(1101)의 구성의 일례를 나타내는 블록도이다.
도 113에 나타내는 추정 혼합비 처리부(401)는 도 72에 나타내는 추정 혼합비 처리부(401)와 동일하다. 도 113에 나타내는 추정 혼합비 처리부(402)는 도 72에 나타내는 추정 혼합비 처리부(402)와 동일하다
추정 혼합비 처리부(401)는 입력 화상을 기초로 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
추정 혼합비 처리부(402)는 입력 화상을 기초로 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다.
전경 배경 분리부(1102)는 혼합비 산출부(1101)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로 입력 화상으로부터 전경 성분 화상을 생성하여 생성한 전경 성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다.
도 114는 전경 배경 분리부(1102)의 구성의 일례를 나타내는 블록도이다. 도 89에 나타내는 전경 배경 분리부(105)와 동일한 부분에는 동일한 번호를 붙여 그 설명은 생략한다.
선택부(1121)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로 혼합비 산출부(1101)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비 중 어느 한쪽을 선택하고, 선택한 추정 혼합비를 혼합비α로서 분리부(601)에 공급한다. 분리부(601)는 선택부(1121)로부터 공급된 혼합비α 및 영역 정보를 기초로 혼합 영역에 속하는 화소의 화소값으로부터 전경 성분 및 배경 성분을 추출하고 추출한 전경 성분을 합성부(603)에 공급함과 함께 배경 성분을 합성부(605)에 공급한다.
분리부(601)는 도 94에 나타내는 구성과 동일한 구성으로 할 수 있다.
합성부(603)는 전경 성분 화상을 합성하여 출력한다. 합성부(605)는 배경 성분 화상을 합성하여 출력한다.
도 112에 나타내는 움직임 불선명 조정부(106)는 도 27에 나타내는 경우와 동일한 구성으로 할 수 있어, 영역 정보 및 움직임 벡터를 기초로 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상에 포함되는 움직임 불선명의 량을 조정하여, 움직임 불선명의 량이 조정된 전경 성분 화상을 출력한다.
도 112에 나타내는 선택부(107)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명의 량이 조정된 전경 성분 화상 중 어느 한쪽을 선택하여 선택한 전경 성분 화상을 출력한다.
이와 같이, 도 112에 구성을 나타내는 분리 처리 서버(11)는 입력 화상에 포함되는 전경의 오브젝트에 대응하는 화상에 대하여 그 화상에 포함되는 움직임 불선명의 량을 조정하여 출력할 수 있다. 도 112에 구성을 나타내는 분리 처리 서버(11)는 제1 실시예와 마찬가지로, 매립된 정보인 혼합비α를 산출하여 산출한 혼합비α를 출력할 수 있다.
도 115는 전경 성분 화상을 임의의 배경 화상과 합성하는 분리 처리 서버(11) 기능의 다른 구성을 나타내는 블록도이다. 도 110에 나타내는 분리 처리 서버(11)가 영역 특정과 혼합비α의 산출을 직렬로 행하는 데 대하여, 도 115에 나타내는 분리 처리 서버(11)는 영역 특정과 혼합비α의 산출을 병렬로 행한다.
도 112의 블록도에 나타내는 기능과 동일한 부분에는 동일한 번호를 붙여 그설명은 생략한다.
도 115에 나타내는 혼합비 산출부(1101)는 입력 화상을 기초로 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비를 입력 화상에 포함되는 화소의 각각에 대하여 산출하여 산출한 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비를 전경 배경 분리부(1102) 및 합성부(1201)에 공급한다.
도 115에 나타내는 전경 배경 분리부(1102)는 혼합비 산출부(1101)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로 입력 화상으로부터 전경 성분 화상을 생성하여 생성한 전경 성분 화상을 합성부(12O1)에 공급한다.
합성부(1201)는 혼합비 산출부(1101)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 영역 특정부(103)로부터 공급된 영역 정보를 기초로 임의의 배경 화상과 전경 배경 분리부(1102)로부터 공급된 전경 성분 화상을 합성하여 임의의 배경 화상과 전경 성분 화상이 합성된 합성 화상을 출력한다.
도 116은 합성부(1201)의 구성을 나타내는 도면이다. 도 111의 블록도에 도시하는 기능과 동일한 부분에는 동일한 번호를 붙여 그 설명은 생략한다.
선택부(1221)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로 혼합비 산출부(1101)로부터 공급된 화소가 커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비, 및 화소가 언커버드 백그라운드 영역에 속한다고 가정한 경우에서의 추정 혼합비 중 어느 한쪽을 선택하여 선택한 추정 혼합비를 혼합비α로서 배경 성분 생성부(1021)에 공급한다.
도 116에 나타내는 배경 성분 생성부(1021)는 선택부(1221)로부터 공급된 혼합비α 및 임의의 배경 화상을 기초로 배경 성분 화상을 생성하여 혼합 영역 화상 합성부(1022)에 공급한다.
도 116에 나타내는 혼합 영역 화상 합성부(1022)는 배경 성분 생성부(1021)로부터 공급된 배경 성분 화상과 전경 성분 화상을 합성함으로써 혼합 영역 합성 화상을 생성하여 생성한 혼합 영역 합성 화상을 화상 합성부(1023)에 공급한다.
화상 합성부(1023)는 영역 정보를 기초로 전경 성분 화상, 혼합 영역 화상 합성부(1022)로부터 공급된 혼합 영역 합성 화상, 및 임의의 배경 화상을 합성하여 합성 화상을 생성하여 출력한다.
이와 같이, 합성부(1201)는 전경 성분 화상을 임의의 배경 화상으로 합성할 수 있다.
또, 혼합비α는 화소값에 포함되는 배경 성분의 비율로서 설명하였지만, 화소값에 포함되는 전경 성분의 비율로 해도 좋다.
또한, 전경이 되는 오브젝트의 움직임의 방향은 좌측으로부터 우측으로하여설명하였지만 그 방향에 한정되지 않음은 물론이다.
이상에서는, 3차원 공간과 시간 축 정보를 갖는 현실 공간의 화상을 비디오 카메라를 이용하여 2차원 공간과 시간 축 정보를 갖는 시공간으로의 사영을 행한 경우를 예로 들었지만, 본 발명은 이 예에 한하지 않고, 보다 많은 제1 차원의 제1 정보를 보다 적은 제2 차원의 제2 정보로 사영한 경우에 그 사영에 의해 발생하는 왜곡을 보정하거나, 유의 정보를 추출하거나, 또는 보다 자연스럽게 화상을 합성하는 경우에 적응하는 것이 가능하다.
또, 센서(76a)는 CCD에 한하지 않고 고체 촬상 소자인, 예를 들면, BBD(Bucket Brigade Device), CLD(Charge Injection Device), CPD(Charge Priming Device), 또는 CMOS(Complementary Mental Oxide Semiconductor) 센서이어도 되며, 또한, 검출 소자가 매트릭스 형상으로 배치되어 있는 센서에 한하지 않고 검출 소자가 1열로 배열되어 있는 센서이어도 된다.
이상과 같이 설명해 온 분리 처리 서버(11)의 각 기능은 도 1에서 도시한 네트워크(1) 상에 구성되는 각종 서버에 분산 처리시킴으로써 실현시킬 수도 있다. 즉, 오브젝트 추출부(101) 및 움직임 검출부(102)는 움직임 검출 서버(12)에, 영역 특정부(103)는 영역 특정 서버(13)에, 혼합비 산출부(104)는 혼합비 산출 서버(14)에, 전경 배경 분리 처리부(105)는 전경 배경 분리 처리 서버(15)에, 움직임 불선명 조정부(106)는 움직임 불선명 조정 서버(16)에, 각각 대응하는 것으로써 기능한다. 따라서, 도 27에서 도시한 분리 처리 서버(11)의 블록도는 하드웨어에 의해 실현되는 것, 소프트웨어에 의해 실현되는 것, 또는, 네트워크(1)에 의해 실현된것의 어느 것이어도 된다. 또한, 합성 서버(19)에 대해서도 동일하며 그 구성은 합성부(1201)에 대응하는 것으로, 하드웨어에 의해 실현된 것, 소프트웨어에 의해 실현된 것, 또는, 네트워크(1)에 의해 실현된 것의 어느 것이어도 되는 것이다.
또한, 이상에서의 오브젝트 추출부(1O1), 움직임 검출부(1O2), 영역 특정부(103), 혼합비 산출부(104), 전경 배경 분리 처리부(105) 및 움직임 불선명 조정부(106)의 각각의 처리는 움직임 검출 서버(12), 영역 특정 서버(13), 혼합비 산출 서버(14), 전경 배경 분리 처리 서버(15) 및 움직임 불선명 조정 서버(16)를 치환한 것과 동일하며, 그 처리에 대해서도 동일하기 때문에 그 설명은 생략한다.
또한, 분리 처리 서버(11)는 상술된 바와 같이 하드웨어, 또는, 소프트웨어로서 실현되는 경우, 도 1에 기재된 네트워크(1)상에 접속된 각종의 서버, 클라이언트 컴퓨터(27) 및 카메라 단말 장치(28)의 각각에 분리 처리부로서 조립되는 구성으로 하여도 된다. 그래서, 이하의 설명에서는 분리 처리 서버(11)가 입력된 화상을 간단히 전경 성분 화상과 배경 성분 화상으로 분리하는 기능을 갖는 단일 장치로서 설명될 때 분리 처리부(11)라고 칭하는 것으로 한다.
다음에, 도 117의 흐름도를 참조하여, 분리 처리 서버(11)에 의한 도 1의 네트워크(1)를 통해 클라이언트 컴퓨터(27)로부터 입력된 화상의 분리 서비스의 처리에 대하여 설명한다.
단계 S1001에서, 클라이언트 컴퓨터(27)는 화상을 지정하는 정보를 분리 처리 서버(11)에 출력한다. 즉, 사용자가 분리하고자 하는 화상을 지정하는 정보로서 구체적인 화상이거나, 또는, 화상을 지정하는 화상 ID가 분리 처리 서버(11)에출력된다.
단계 S1O11에서, 분리 처리 서버(11)는 지정된 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우에는, 그 화상을, 지정하는 정보가 송신되어 온 경우에는, 그 화상 ID에 대응하는 화상을, 네트워크(1)상에서 판독하여 취득한다.
단계 S1012에서, 분리 처리 서버(11)의 과금 처리부(11a)는 네트워크(1)를 통해 과금 서버(24)와 함께 과금 처리를 실행한다. 또한, 동시에 단계 S1021에서 과금 서버(24)는 분리 처리 서버(11)와 함께 과금 처리를 실행한다.
여기서, 도 118의 흐름도를 참조하여, 상술한 과금 처리를 설명한다. 또한, 실제의 과금 처리는 분리 처리 서버(11)와 과금 서버(24)에 의해 실행되지만 각종 처리에 필요한 정보는 클라이언트 컴퓨터(27)로부터도 출력되고 있기 때문에, 여기서는 클라이언트 컴퓨터(27)의 처리에 대해서도 아울러 설명한다.
단계 S1101에서, 도 119에서 도시한 바와 같이, 클라이언트 컴퓨터(27)는 서비스를 지정하여 사용자(화상의 분리 서비스의 제공을 받는 사용자)를 식별하는 ID 정보와 인증 정보(패스워드 등)와 함께 이용 금액을 네트워크(1)를 통해 분리 처리 서버(11)에 송신한다. 즉, 지금의 경우, 도 117의 단계 S1OO1의 처리에서 화상을 지정하는 정보를 송신할 때에 이 단계 S1101의 처리는 실행되어진다. 또한, 이용 금액이란 분리 서비스에 관련되는 요금이다.
단계 S1111에서, 도 119에서 도시한 바와 같이, 분리 처리 서버(11)의 과금 처리부(11a)는 ID 정보와 인증 정보를 수신하고, 또한, 이용 금액과 자기의 ID를과금 서버(24)에 송신한다.
단계 S1121에서, 도 119에서 도시한 바와 같이, 과금 서버(24)는 분리 처리 서버(11)로부터 송신되어 온 ID에 기초하여 인증 정보, 고객 계좌 ID 및 이용 금액을 고객 계좌의 금융 기관이 관리하는 금융 서버(25)에 조회한다.
단계 S1131에서, 도 119에서 도시한 바와 같이, 금융 서버(고객용)(25)는 고객 계좌 ID와 인증 정보에 기초하여 인증 처리를 실행하여 인증 결과와 이용 가부의 정보를 과금 서버(24)에 통지한다.
단계 S1122에서, 도 119에서 도시한 바와 같이, 과금 서버(24)는 인증 결과와 이용 가부의 정보를 분리 처리 서버(11)에 송신한다. 또한, 이하의 설명에서는 인증 결과가 문제없고, 그 이용이 가능하다는 조건 하에 설명을 진행시킨다. 또한, 인증 결과에 문제가 있고, 그 이용이 인정되지 않는다는 정보가 수신되어 온 경우, 그 처리는 종료하게 된다.
단계 S1112에서, 도 119에서 도시한 바와 같이, 분리 처리 서버(11)는 인증 결과에 문제가 없고, 금융 기관의 이용이 가능한 조건인 경우, 클라이언트 컴퓨터(27)에 대하여 서비스를 제공한다. 단계 S1102에서, 클라이언트 컴퓨터(27)는 서비스의 제공을 받는다. 즉, 지금의 경우, 단계 S1112에서, 분리 처리 서버(11)는 지정된 화상을 전경 성분 화상과 배경 성분 화상으로 분리하여 클라이언트 컴퓨터(27)에 출력하고, 단계 S1102에서, 클라이언트 컴퓨터(27)는 분리된 전경 성분 화상과 배경 성분 화상을 수신한다.
단계 S1113에서, 분리 처리 서버(11)는 서비스의 이용 통지를 과금 서버(24)에 송신한다. 단계 S1123에서, 과금 서버(24)는 고객 계좌 ID, 이용 금액 및 제공자 계좌 ID를 금융 서버(고객용)(25)에 통지한다.
단계 S1132에서, 금융 서버(고객용)(25)는 고객 계좌 ID의 계좌로부터 이용 금액을 제공자 금융 서버(제공자용)(26)에 불입한다.
여기서, 도 117의 흐름도의 설명으로 되돌아간다.
단계 S1012, S1021에서, 분리 처리 서버(11)와 과금 서버(24)의 상호에서 과금 처리가 실행된 후, 단계 S1013에서, 분리 처리 서버(11)는 화상의 분리 처리를 실행한다. 즉, 분리 처리 서버(11)의 영역 특정부(103)는 도 53의 흐름도에 의해 설명한 영역 특정한 처리를, 혼합비 산출부(104)는 도 81의 흐름도를 참조하여 설명한 혼합비의 산출의 처리를, 전경 배경 분리부(105)는 도 96의 흐름도를 참조하여 설명한 전경과 배경과의 분리의 처리를, 움직임 불선명 조정부(106)는 도 44의 흐름도에 의해 설명한 움직임 불선명량의 조정 처리를, 각각 실행하여 지정된 화상을 분리한다. 또한, 움직임 불선명량의 조정 처리, 영역 특정한 처리, 혼합비의 산출의 처리 및 전경과 배경과의 분리의 처리는 모두 상술한 것과 동일하기 때문에 그 설명은 생략한다.
단계 S1O14에서, 분리 처리 서버(11)는 분리된 전경 성분 화상 및 배경 성분 화상에 ID를 붙여 클라이언트 컴퓨터(27)에 송신한다. 단계 S1002에서, 클라이언트 컴퓨터(27)는 분리 처리 서버(11)로부터 송신되어 온 분리되어 있는 전경 성분 화상과 배경 성분 화상과 그 ID를 수신하여 자기의 기억부(48)(도 2)에 기억함과 함께 필요에 따라 프린트 출력한다. 또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 분리 처리 서버(11)에 의해 분리 처리된 전경 성분 화상과 배경 성분 화상을 분리 처리 서버(11) 자신에 기억시키거나, 또는, 네트워크(1)를 통해 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다.
이상의 설명에서는, 분리 처리에 관련되는 요금을 과금 서버(24)에 의해 금융 서버(25, 26)에 대하여 불입되는 경우의 처리에 대하여 설명해 왔지만, 예를 들면, 선불 포인트 등과 같이 사용자가 미리 분리 서비스의 제공자에게 이용 요금을 지불했음을 나타내는 포인트를 기억부(48)(도 2)에 기억시켜 분리 서비스의 제공을 받는 때에 그 포인트를 감산하도록 하여 과금 처리를 실행하도록 해도 좋다.
여기서, 도 120의 흐름도를 참조하여 선불 포인트를 사용한 경우의 과금 처리에 대하여 설명한다.
단계 S1201에서, 클라이언트 컴퓨터(27)는 서비스를 지정하여 ID 정보 및 인증 정보를 송신한다. 즉, 클라이언트 컴퓨터(27)는 도 117의 단계 S1101에서의 처리와 마찬가지의 처리를 실행한다.
단계 S1211에서, 분리 처리 서버(11)의 과금 처리부(11a)는 ID 정보 및 인증 정보를 수신한다. 단계 S1212에서, 과금 처리부(11a)는 기억부(48)에 기억되어 있는 미리 클라이언트 컴퓨터(27)의 사용자로부터 불입되어 있는 금액에 상당하는 선불 포인트로부터 분리 처리에 관련되는 이용 금액에 상당하는 포인트를 감산하여 기억한다. 단계 S1213에서, 분리 처리 서버(11)는 서비스를 제공한다. 즉, 지금의 경우, 분리 처리 서버(11)는 입력된 화상의 분리 처리를 실행하여 분리된 전경 성분 화상과 배경 성분 화상을 클라이언트 컴퓨터(27)에 송신한다.
단계 S1202에서, 클라이언트 컴퓨터(27)는 서비스의 제공을 받는다. 즉, 지금의 경우, 클라이언트 컴퓨터(27)는 분리 처리 서버(11)로부터 송신되어 오는 전경 성분 화상과 배경 성분 화상을 수신한다.
또한, 이상에서는 분리 처리 서버(11)가 선불 포인트를 자기의 기억부(48)(도 2)에 기억하고 있는 경우에 대해 설명하였지만, 예를 들면, 선불 포인트가 기록된 카드, 소위, 선불 카드를 사용하는 경우에 대해도 마찬가지의 처리가 된다. 이 경우, 선불 카드에 기억된 선불 포인트를 단계 S1201에서 클라이언트 컴퓨터(27)가 판독하여, 송신하고, 분리 처리 서버(11)가 과금 처리에 의해 수신한 포인트로부터 이용 요금에 상당하는 포인트를 감산하여 감산 결과로 되는 포인트를 클라이언트 컴퓨터(27)에 송신하여 선불 카드에 덮어 쓰기할 필요가 있다.
다음에, 도 121의 흐름도를 참조하여, 클라이언트 컴퓨터(27)로부터 지정된 화상의 움직임 벡터와 위치 정보를 구하는 움직임 검출 서비스의 처리에 대하여 설명한다.
단계 S1301에서, 클라이언트 컴퓨터(27)는 화상을 지정하는 정보를 움직임 검출 서버(12)에 출력한다. 즉, 사용자가 움직임 검출 처리하고자 하는 화상을 지정하는 정보로서 구체적인 화상이거나, 또는, 화상을 지정하는 화상 ID가 움직임 검출 서버(12)에 출력된다.
단계 S1311에서, 움직임 검출 서버(12)는 지정된 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우에는, 그 화상을, 지정하는 정보가 송신되어 온 경우에는, 그 화상 ID에 대응하는 화상을, 네트워크(1)상에서 판독하여 취득한다.
단계 S1312, S1321에서, 움직임 검출 서버(12)의 과금 처리부(12c)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는, 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다.
단계 S1313에서, 움직임 검출 서버(12)의 오브젝트 추출부(12a)는 취득하고 있는 지정된 화상으로부터 각 오브젝트를 추출하고, 움직임 검출부(12b)가 위치 정보와 움직임 벡터를 검출하여 클라이언트 컴퓨터(27)에 송신한다.
단계 S1302에서, 클라이언트 컴퓨터(27)는 움직임 검출 서버(12)로부터 송신되어 온 오브젝트의 위치 정보와 움직임 벡터를 수신하여 기억한다.
또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 움직임 검출 서버(12)에 의해 검출된 위치 정보와 움직임 벡터를 움직임 검출 서버(12) 자신에 기억시키거나, 또는, 네트워크(1)를 통해 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다.
다음에, 도 122의 흐름도를 참조하여, 영역 특정 서버(13)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 입력된 화상과 오브젝트를 지정하는 정보로부터 영역을 특정하는 영역 특정 서비스의 처리에 대하여 설명한다.
단계 S1401에서, 클라이언트 컴퓨터(27)는 화상과 오브젝트를 지정하는 정보를 영역 특정 서버(13)에 출력한다. 즉, 사용자가 영역 특정하고자 하는 화상을 지정하는 정보로서 구체적인 화상이거나, 또는, 화상을 지정하는 화상 ID와 함께 오브젝트를 지정하는 정보가 영역 특정 서버(13)에 출력된다.
단계 S1411에서, 영역 특정 서버(13)는 지정된 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우, 그 화상을, 지정하는 화상 ID가 송신되어 온 경우에는, 그 화상 ID에 대응하는 화상을, 네트워크(1)상에서 판독하여 취득한다.
단계 S1412, S 1421에서, 영역 특정 서버(13)의 과금 처리부(13a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다.
단계 S1413에서, 영역 특정 서버(13)는 오브젝트를 지정하는 정보에 기초하여 영역 특정한 처리를 실행한다. 또한, 영역 특정한 처리는 도 53의 흐름도를 참조하여 설명한 처리와 마찬가지이기 때문에 그 설명은 생략한다.
단계 S1414에서, 영역 특정 서버(13)는 단계 S1413의 처리에서 구해진 영역 정보를 클라이언트 컴퓨터(27)에 송신한다.
단계 S1402에서, 클라이언트 컴퓨터(27)는 영역 특정 서버(13)로부터 송신되어온 영역 정보를 수신하여 기억한다.
또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 영역 특정 서버(13)에 의해 구해진 영역 정보를 영역 특정 서버(13) 자신에 기억시키거나, 또는, 네트워크(1)를 통해 축적 서버(18)에 출력시켜 기억(축적) 시키도록 할 수도 있다.
다음에, 도 123의 흐름도를 참조하여, 혼합비 산출 서버(14)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 입력된 화상과 오브젝트를 지정하는 정보 및 영역 정보로부터 혼합비를 산출하는 혼합비 산출 서비스의 처리에 대하여 설명한다.
단계 S1501에서, 클라이언트 컴퓨터(27)는 화상과 오브젝트를 지정하는 정보 및 영역 정보를 혼합비 산출 서버(14)에 출력한다. 즉, 사용자가 혼합비를 산출하고자하는 화상을 지정하는 정보로서 구체적인 화상이거나, 또는, 화상을 지정하는 화상 ID, 오브젝트를 지정하는 정보 및 영역 정보가 혼합비 산출 서버(14)에 출력된다.
단계 S1511에서, 혼합비 산출 서버(14)는 지정된 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우, 그 화상을, 지정하는 화상 ID가 송신되어 온 경우에는, 그 화상 ID에 대응하는 화상을, 네트워크(1)상에서 판독하여 취득한다.
단계 S1512, S1521에서, 혼합비 산출 서버(14)의 과금 처리부(14a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는, 도 118, 도 120에서, 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다.
단계 S1513에서, 혼합비 산출 서버(14)는 오브젝트를 지정하는 정보 및 영역 정보에 기초하여 혼합비의 산출의 처리를 실행한다. 또한, 혼합비의 산출의 처리는 도 81의 흐름도를 참조하여 설명한 처리와 마찬가지이기 때문에 그 설명은 생략한다.
단계 S1514에서, 혼합비 산출 서버(14)는 단계 S1513의 처리에서 구해진 혼합비를 클라이언트 컴퓨터(27)에 송신한다.
단계 S1502에서, 클라이언트 컴퓨터(27)는 혼합비 산출 서버(14)로부터 송신되어 온 혼합비를 수신하여 기억한다.
또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 혼합비 산출 서버(14)에 의해 구해진 혼합비를 혼합비 산출 서버(14) 자신에 기억시키거나, 또는, 네트워크(1)를 통해 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다.
다음에, 도 124의 흐름도를 참조하여, 전경 배경 분리 서버(15)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 입력된 화상과 오브젝트를 지정하는 정보, 영역 정보 및 혼합비로부터 전경 성분 화상과 배경 성분 화상으로 분리하는 서비스의 처리에 대하여 설명한다.
단계 S1601에서, 클라이언트 컴퓨터(27)는 화상과 오브젝트를 지정하는 정보, 영역 정보 및 혼합비의 정보를 전경 배경 분리 서버(15)에 출력한다. 즉, 사용자가 전경 배경 분리하고자 하는 화상을 지정하는 정보로서 구체적인 화상이거나, 또는, 화상을 지정하는 화상 ID, 오브젝트를 지정하는 정보, 영역 정보 및 혼합비의 정보가 전경 배경 분리 서버(15)에 출력된다.
단계 S1611에서, 전경 배경 분리 서버(15)는 지정된 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우 그 화상을, 지정하는 화상 ID가 송신되어 온 경우에는 그 화상 ID에 대응하는 화상을, 네트워크(1)상에서 판독하여 취득한다.
단계 S1612, S1621에서, 전경 배경 분리 서버(15)의 과금 처리부(15a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이므로 그 설명은 생략한다.
단계 S1613에서, 전경 배경 분리 서버(15)는 오브젝트를 지정하는 정보, 영역 정보 및 혼합비에 기초하여 전경과 배경의 분리의 처리를 실행한다. 또한, 전경과 배경의 분리의 처리는 도 96의 흐름도를 참조하여 설명한 처리와 마찬가지이기 때문에 그 설명은 생략한다.
단계 S1614에서, 전경 배경 분리 서버(15)는 단계 S1613의 처리에서 구해진 전경 성분 화상과 배경 성분 화상에 ID를 붙여 클라이언트 컴퓨터(27)에 송신한다.
단계 S1602에서, 클라이언트 컴퓨터(27)는 전경 배경 분리 서버(15)로부터 송신되어 온 전경 성분 화상과 배경 성분 화상을 수신하여 기억한다.
또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 전경 배경 분리 서버(15)에 의해 송신되어 온 전경 성분 화상과 배경 성분 화상을 전경 배경 분리 서버(15) 자신에 기억시키거나, 또는, 네트워크(1)를 통해 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다.
다음에, 도 125의 흐름도를 참조하여, 움직임 불선명 조정 서버(16)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 입력된 화상을 지정하는 정보, 움직임 벡터 및 움직임 불선명 조정량으로부터 지정된 화상의 움직임 불선명을 조정하는 서비스의 처리에 대하여 설명한다.
단계 S1701에서, 클라이언트 컴퓨터(27)는 화상을 지정하는 정보, 움직임 벡터 및 움직임 불선명 조정량의 정보를 움직임 불선명 조정 서버(16)에 출력한다. 즉, 사용자가 움직임 불선명 조정하고자하는 화상을 지정하는 정보로서 구체적인 화상이거나, 또는, 화상을 지정하는 화상 ID, 오브젝트를 지정하는 정보, 움직임 벡터 및 움직임 불선명 조정량의 정보가 움직임 불선명 조정 서버(16)에 출력된다.
단계 S1711에서, 움직임 불선명 조정 서버(16)는 지정된 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우 그 화상을, 지정하는 화상 ID가 송신되어 온 경우 그 화상 ID에 대응하는 화상을 네트워크(1)상에서 판독 취득한다.
단계 S1712, S1721에서, 움직임 불선명 조정 서버(16)의 과금 처리부(16a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는, 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이므로 그 설명은 생략한다.
단계 S1713에서, 움직임 불선명 조정 서버(16)는 움직임 벡터 및 움직임 불선명 조정량의 정보에 기초하여 움직임 불선명의 량의 조정의 처리를 실행한다. 또한, 움직임 불선명의 량의 조정의 처리는 도 104의 흐름도를 참조하여 설명한 처리와 마찬가지이기 때문에 그 설명은 생략한다.
단계 S1714에서, 움직임 불선명 조정 서버(16)는 단계 S1713의 처리에서 구해진 움직임 불선명 조정 화상에 ID를 붙여 클라이언트 컴퓨터(27)에 송신한다.
단계 S1702에서, 클라이언트 컴퓨터(27)는 움직임 불선명 조정 서버(16)로부터 송신되어 온 움직임 불선명 조정 화상을 수신하여 기억한다.
또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 움직임 불선명 조정 서버(16)에 의해 송신되어 온 움직임 불선명 조정 화상을 움직임 불선명 조정 서버(16) 자신에게 기억시키거나, 또는, 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다.
다음에, 도 126을 참조하여, 부호화 서버(17)의 상세한 구성을 설명한다.부호화 서버(17)의 분리 처리부(2002)는 입력된 화상(화상을 지정하는 화상 ID가 입력되고, 대응하는 화상을 네트워크(1)를 통해 축적 서버(18)로부터 판독되는 화상을 포함한다)을 전경 성분 화상과 배경 성분 화상으로 분리하여 혼합비, 움직임 벡터 및 위치 정보와 함께 부호화부(2001)에 출력한다. 분리 처리부(2002)는 도 27을 참조하여 설명한 분리 처리 서버(분리 처리부)(11)와 마찬가지이며, 혼합비, 움직임 벡터 및 위치 정보의 취득 처리에 대해서도 마찬가지이기 때문에 그 설명은 생략한다.
부호화부(2001)는 분리 처리부(2002)로부터 입력되는 전경 성분 화상과 배경 성분 화상을 네트워크(1)를 통해 축적 서버(18)에 출력하고 기억시킴과 함께, 기억시킨 축적 서버(18)의 네트워크 상의 위치 정보, 즉, URL 등의 정보로 변환하여, 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보로서 출력한다. 이 때, 부호화부(2001)는 전경 성분 화상과 배경 성분 화상을 분리할 때에 추출되는 혼합비, 움직임 벡터 및 위치 정보에 대해서도 출력한다.
부호화부(2001)에 의해 전경 성분 화상과 배경 성분 화상이 각각 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보로 변환할 때, 과금 처리부(17a)(도 16, 도 17)가 네트워크(1)를 통해 과금 서버(24)에 대하여 과금 처리를 실행한다. 또한, 이 과금 처리는 후술하는 합성 서버(19)를 사용하여 합성 화상을 생성하는 합성 서비스를 받는 사용자가 부담하도록 해도 좋다. 또, 반대로, 부호화 서비스를 이용한 사용자가 미리 부담함으로써 합성 서비스를 이용할 때에는 사용자로부터 이용 요금의 지불을 받지 않고 끝나도록 할 수도 있다.
다음에, 도 127의 흐름도를 참조하여, 부호화 서버(17)에 의해 실행되는, 클라이언트 컴퓨터(27)로부터 입력된 화상을 부호화하는 부호화 서비스의 처리에 대하여 설명한다. 또한, 이 설명에서는 부호화 서비스의 이용자가 이용 요금을 부담하는 경우에 대해 설명한다.
단계 S1801에서, 클라이언트 컴퓨터(27)는 화상을 지정하는 정보를 부호화 서버(17)에 출력한다. 즉, 사용자가 부호화하고자 하는 화상을 지정하는 정보로서 구체적인 화상이거나, 또는, 화상을 지정하는 화상 ID, 오브젝트를 지정하는 정보가 부호화 서버(17)에 출력된다.
단계 S1811에서, 부호화 서버(17)는 지정된 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우, 그 화상을, 지정하는 화상 ID가 송신되어 온 경우, 그 화상 ID에 대응하는 화상을, 네트워크(1)상에서 판독하여 취득한다.
단계 S1812, S1821에서, 부호화 서버(17)의 과금 처리부(17a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다.
단계 S1813에서, 부호화 서버(17)의 분리 처리부(2002)는 화상 분리 처리를 실행한다. 또한, 화상 분리 처리는 도 117의 흐름도의 단계 S1013의 처리와 마찬가지이기 때문에 그 설명은 생략한다.
단계 S1814에서, 부호화 서버(17)는 단계 S1813의 처리에서 구해진 전경 성분 화상과 배경 성분 화상을 축적 서버(18)에 출력하여 기억(축적)시킨다. 단계S1831에서, 축적 서버(18)는 송신되어 온 전경 성분 화상과 배경 성분 화상을 기억한다.
단계 S1815에서, 부호화 서버(17)는 부호화에 의해 생성된 전경 성분 화상 위치 정보와 배경 성분 위치 정보에 움직임 벡터와 위치 정보를 부가하여 클라이언트 컴퓨터(27)에 송신한다.
단계 S1802에서, 클라이언트 컴퓨터(27)는 부호화 서버(17)로부터 송신되어 온 전경 성분 화상 위치 정보, 배경 성분 화상 위치 정보, 움직임 벡터 및 위치 정보를 수신하여 기억한다.
또한, 부호화부(2001)는 입력된 화상을 분리하여 부호화할 경우, 이미 부호화한 화상과 유사한 화상을 부호화할 때, 그 차분이 되는 데이터만을 이미 부호화되어 있는 화상의 부호(화상 위치 정보)에 부가하여 출력하도록 해도 좋다. 예를 들면, 도 128에서 도시한 바와 같은 화상을 합성하는 경우, 전경 성분 화상 1, 전경 성분 화상 2 및 혼합비 1의 부호화 정보로 이루어지는 제1 화상의 부호화 정보와 전경 성분 화상 1, 전경 성분 화상 3 및 혼합비 2의 부호화 정보로 이루어지는 제2 화상의 부호화 정보를 합성하는 경우, 전경 성분 화상 1은 어느 화상의 정보에도 포함되어 있기 때문에 합성할 때에는 한쪽 화상의 전경 성분 화상 1의 부호화 정보를 생략해도 되고, 결과적으로, 단순하게 합성하는 경우보다도 전경 성분 화상 1의 정보가 삭제되는 분만큼 압축율을 향상시킬 수 있다.
결과적으로, 도 128에 도시한 바와 같은 제1 화상과 제2 화상을 축적하는 경우에는 먼저 제1 화상이 축적되어 있는 경우에는 제2 화상은 차분이 되는 전경 성분 화상 3과 혼합비 2의 부호화 정보만을 축적하면 된다. 이 때문에, 동일한 화상의 부호화 정보가 복수에 걸쳐 축적되는 것과 같은 경우, 축적되는 화상의 수가 증가하면 증가할 수록 압축율이 향상되어 가게 된다.
또한, 부호화 서버(17)에 의해 부호화되는 혼합비, 움직임 벡터 및 위치 정보에 대해서는 도 129에서 도시한 바와 같이 사용자가 지정한 정보이더라도 좋다. 또한, 도 129에서 도시한 바와 같이, 부호화시키는 화상은 사용자에 의해 지정된 화상 ID에 대응하는 전경 성분 화상과 배경 성분 화상을 축적 서버(18)로부터 읽어 내어 부호화하도록 해도 좋다. 이 경우, 부호화 서버(17)에는 분리 처리부(2002)는 설치되지 않아도 된다.
또한, 본 명세서내에서 화상을 지정하는 정보로서 화상 ID를 사용하여 왔지만 이것에 대신하여 화상 위치 정보를 사용하도록 하여도 좋다.
다음에, 도 130의 흐름도를 참조하여 합성 서버(19)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 입력된 화상 A, B를 지정하는 정보, 움직임 벡터, 혼합비, 위치 정보 및 움직임 불선명 조정량으로부터 지정된 화상 A, B를 합성하는 서비스의 처리에 대하여 설명한다.
단계 S1901에서, 클라이언트 컴퓨터(27)는 화상 A, B 을 지정하는 정보, 움직임 벡터, 혼합비, 위치 정보 및 움직임 불선명 조정량의 정보를 합성 서버(19)에 출력한다. 즉, 사용자가 합성하고자 하는 화상 A, B를 지정하는 정보로서 구체적인 화상이거나, 또는, 화상 A, B를 지정하는 화상 A-ID, B-ID(상술한 부호화된 화상 위치 정보라도 좋다), 움직임 벡터, 혼합비, 위치 정보 및 움직임 불선명 조정량의 정보가 합성 서버(19)에 출력된다.
단계 S1911에서, 합성 서버(16)는 지정된 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우 그 화상을, 지정하는 화상 ID(상술의 부호화된 화상 위치 정보라도 좋다)가 송신되어 온 경우 그 화상 ID에 대응하는 화상을, 네트워크(1)상에서 판독하여 취득한다.
단계 S1912, S1921에서, 합성 서버(19)의 과금 처리부(19a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다. 또한, 이 과금 처리는 상술의 부호화 서버(16)를 사용하여 부호화 서비스를 받은 사용자가 부담하고 있는 경우에는 생략하도록 할 수도 있다. 반대로, 부호화 서비스를 받은 사용자 대신에 합성 서비스를 받은 사용자가 부담하도록 하여도 좋다.
단계 S1913에서, 합성 서버(19)는 움직임 벡터, 혼합비, 위치 정보 및 움직임 불선명 조정량의 정보에 기초하여 화상 A, B의 합성의 처리를 실행한다.
단계 S1914에서, 합성 서버(19)는 단계 S1913의 처리에서 구해진 합성 화상(A+B)에 ID를 붙여 클라이언트 컴퓨터(27)에 송신한다.
단계 S1902에서, 클라이언트 컴퓨터(27)는 합성 서버(19)로부터 송신되어 온 합성 화상(A+B)을 수신하여 기억한다.
또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 합성 서버(19)에 의해 송신되어 온 합성 화상(A+B)을 합성 서버(19) 자신에게 기억시키거나, 또는, 네트워크(1)를 통해 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다.
그런데, 합성 서버(20)는 이상과 같이 복수의 화상을 합성하는 것이 가능하도록 이루어져 있지만, 이 때, 움직임 불선명 조정량을 키로 함으로써 합성 화상의 움직임 불선명을 부가하여 암호화 화상을 생성할 수 있다. 도 131은 합성 서버(20)에 암호화 화상을 생성시키기 위해 설치되는 암호용 움직임 불선명 부가부(2021)의 구성을 나타내고 있다.
암호용 움직임 불선명 부가부(2021)의 입력 정보 처리부(2031)는 입력된 암호화하고자 하는 피 암호화 신호를 화상화부(2032)에, 암호 키가 되는 정보를 움직임 불선명 작성부(2033)에 및 피 암호화 신호를 전경 성분 화상으로서 합성하려고 하는 화상(배경 성분 화상)을 선택하는 화상 선택 정보를 합성 서버(20)에, 각각 출력한다.
화상화부(2032)는 입력 정보 처리부(2031)로부터 입력된 피 암호화 신호가 화상 신호가 아닌 경우, 그 신호를 화상 신호로 변환하여 움직임 불선명 부가부(2033)에 출력한다. 즉, 암호화 처리되는 신호는 화상 신호일 것이 조건이 되기 때문에 그 처리에 대응시키기 위해서 화상 신호가 아닌 신호를 화상화한다.
움직임 불선명 작성부(2033)는 입력 정보 처리부(2031)로부터 입력된 속도나 방향 등의 정보에 기초하여 움직임 불선명 조정량을 생성하고, 화상화부(2032)로부터 입력된 화상 신호에 움직임 불선명 부가 처리를 실시하여 합성 서버(20)에 출력한다. 합성 서버(20)는 입력 정보 처리부(2031)로부터 입력된 화상 선택 정보에 기초하여 배경 성분 화상을 취득하고, 또한, 움직임 불선명 부가부(2033)로부터 입력되는 화상을 전경 성분 화상으로서 취득한 배경 성분 화상과 합성하고, 합성 화상을 생성하여 표시한다. 이 때, 배경 성분 화상을 지정하는 화상 선택 정보는 배경 성분 화상 그 자체라도 되고 배경 성분 화상 위치 정보, 또는, 배경 성분 화상 ID 이어도 된다.
다음에, 도 132를 참조하여 합성 서버(20)에 설치된 암호용 움직임 불선명 부가부(2021)에 의해 암호화된 합성 화상을 복호하여 원래의 신호로 변환하는 암호용 움직임 불선명 제거부(2041)에 대하여 설명한다. 또한, 도 131, 도 132에 나타내는 암호용 움직임 불선명 부가부(2021) 및 암호용 움직임 불선명 제거부(2041)는 예를 들면, 클라이언트 컴퓨터(27)에 내장되는 소프트웨어의 기능 블록도로서 생각해도 되고, 하드웨어의 블록도인 것으로 생각해도 좋다. 또한, 암호용 움직임 불선명 부가부(2021) 및 암호용 움직임 불선명 제거부(2041)는 네트워크(1)상에 전용 서버로서 구성하도록 하여도 좋다.
분리 서버(11)는 암호화된 합성 화상을 전경 성분 화상과 배경 성분 화상으로 분리하여 움직임 불선명이 부가된 전경 성분 화상을 입력 정보 처리부(2051)에 출력한다.
입력 정보 처리부(2051)는 분리 처리 서버(11)로부터 입력된 암호화되어 있는 전경 성분 화상과, 그 암호화된 전경 성분 화상을 복호하기 위한 키로 하여 속도와 방향의 정보가 입력되면 움직임 불선명 제거부(2052)에 출력한다. 이 키가 되는 속도와 방향은 화상을 x 방향, y 방향의 2차원으로 나타낼 때 각각에 설정된다.
움직임 불선명 제거부(2052)는 입력 정보 처리부(2051)로부터 입력된 속도와방향의 정보에 기초하여 움직임 불선명량을 생성하고 암호화된 전경 성분 화상에 암호용 움직임 불선명 부가부(2021)에 의해 실시된 움직임 불선명 부가 처리와 반대인 움직임 불선명 부가 처리를 실시하여, 암호화된 전경 성분 화상을 복호하여 신호 변환부(2053)에 출력한다. 신호 변환부(2053)는 피 암호화 신호가 화상이 아닌 경우, 움직임 불선명 제거부(2052)로부터 입력된 화상 신호를 원래의 신호로 변환하여 출력한다.
즉, 상기한 움직임 불선명 작성부(2033)(도 131)와 움직임 불선명 제거부(2052)는 실질적으로는 도 97의 움직임 불선명 부가부(806)와 마찬가지의 처리를 실행하는 것으로, 암호 키로서 움직임 불선명 조정량을 사용하여 서로 반대인 움직임 불선명의 부가 처리를 실행하는 것이다. 단, 후술하는 x 방향, 또는, y 방향의 움직임 불선명 부가 처리 중 먼저 실행된 움직임 불선명 부가 처리에 대하여 게인 업의 처리를 실행하는 점이 서로 다르다.
여기서 움직임 불선명을 부가함으로써 화상 신호를 암호화하는 원리에 대하여 설명한다. 예를 들면, 도 133에 도시한 바와 같이, 피사체가 화살표의 방향으로 이동할 때 이것을 CCD 등으로 이루어지는 센서(76a)로 촬상하면, 이동 방향의 전후에 혼합 영역(커버드 백그라운드 영역과 언커버드 백그라운드 영역)이 촬상된 화상의 움직임 불선명으로서 생긴다(상세는 도 31 A를 참조). 도 134는 이 현상을 나타내는 예를 도시하고 있고, 도 134 중의 A로 나타낸 바와 같은 피사체를 센서(76a)로 촬상하는 경우, 도면 중 좌우 방향으로 피사체가 이동하고 있을 때, 그 속도에 따라 움직임 불선명의 영역이 넓어지고, 또한, 촬상되는 색이 확산되는양상을 나타내고 있다. 즉, 피사체가 좌우 방향으로 속도 v로 이동하고 있을 때, 도 134 중의 B로 나타낸 바와 같은 화상이 촬상되는 것으로 한다. 이 때, 피사체가 정지하고 있을 때에 촬상되는 영역을 영역 a0 내지 a0'라고 하면, 도 134 중의 B의 피사체가 촬상되는 영역은 영역 a1 내지 a1'이 되어 원래의 위치 a0 내지 aO'의 영역의 색이 엷어져, 움직임 불선명이 되는 영역 a1 내지 aO 및 영역 a0' 내지 a1'색이 넓어지고 있다. 마찬가지로 하여, 피사체가 속도 2v(속도 v의 2배)로 이동하고 있으면, 도 134 중의 C로 나타낸 바와 같이, 더욱 움직임 불선명이 되는 영역 a2 내지 a0 및 영역 a0' 내지 a2'로 색이 넓어지는 것이 도시되어 있다. 또한, 피사체가 속도 3v로 이동하면, 도 134 중의 D로 나타낸 바와 같이, 움직임 불선명이 되는 영역 a3 내지 a0 및 영역 a0' 내지 a3'으로 넓어지고, 속도 4v로 이동하면, 도 134 중의 E로 나타낸 바와 같이, 움직임 불선명이 되는 영역 a4 내지 a0 및 영역 a0' 내지 a4'로 넓어져 전체적으로 색이 엷어진다. 즉, 센서(76a)로부터 출력되는 개개의 화소값은 촬상하는 오브젝트가 공간적으로 넓이를 갖고 있는 부분을, 셔터 시간에 대하여 적분한 결과이기 때문에, 대개 적분되는 화소값은 변하지 않은 분만큼 피사체의 속도가 증가할 때마다 공간적으로 넓어짐으로써 색이 엷게 촬상되어진다. 따라서, 색이 엷어져 영역이 넓어지고 움직임 불선명의 영역이 커짐에 따라 피사체의 판독이 곤란해진다. 여기서, 색은 판독 가능성을 나타내고 있고, 짙을수록 판독 가능성이 크고, 얇을수록 판독 가능성이 작아지는 것을 나타내고 있다.
움직임 불선명 조정에 의한 암호화는 이 성질을 이용한 것으로, 현실 세계에서는 발생할 수 없는 2차원 방향의 움직임 불선명을 화상에 생기게 함으로써 암호화시키는 것이다. 즉, 도 135에서 도시한 바와 같이, 움직임이 없는 상태에서 검은 동그라미 형상의 피사체가 촬상된 화상이 매트릭스의 가장 좌측 열 최상단에 도시되어 있다. 이 상태에서, 예를 들면, 세로 방향으로 움직임이 있는 상태의 움직임 불선명을 부가하면, 검은 동그라미 형상의 피사체는 중간열 최상단에 도시한 바와 같이 상하 방향으로 움직임 불선명이 생긴 화상이 된다. 또한, 가로 방향으로 움직임 불선명을 생기게 하면, 중간열 중단에 도시한 바와 같이, 피사체의 상하 좌우 방향으로 움직임 불선명이 생긴 화상이 된다.
이 상태에서, 또한, 좌우 방향의 움직임(속도)을 크게 하여 움직임 불선명을 부가하면 중간열 최하단에 도시한 바와 같이, 더욱 좌우 방향으로 움직임 불선명 영역이 넓어진 화상이 된다. 이 화상에, 더욱 상하 방향으로 움직임 불선명을 생기게 하면 가장 우측열 최하단에 도시한 바와 같이, 검은 동그라미 형상의 피사체의 움직임 불선명 영역이 넓어져 전체적으로 색이 엷어진다. 결과적으로, 피사체의 판독 가능성이 저하하기 때문에 화상 그 자체를 암호화시키는 것이 가능해진다.
다음에, 도 136의 흐름도를 참조하여, 암호용 움직임 불선명 부가부(2021)의 움직임 불선명 조정량을 이용한 암호화 처리에 대하여 설명한다. 또한, 이하의 설명에서는 도 137에서 도시한 바와 같이, 5×5 화소로 이루어지는 피사체가 촬상된 화상을 암호화하는 예에 대하여 설명한다. 여기서, 도 137에서는 5×5 화소의 각 화소의 화소값 a 내지 y로 나타내는 것으로 하고, 세로 방향을 y, 가로 방향을 x로 나타내고, 시각축을 시각 t로 하여 설명한다.
단계 S2001에서, 입력 정보 처리부(2031)는 피 암호화 신호가 입력되었는지의 여부를 판정하고, 입력될 때까지 그 처리를 반복하여, 입력되었다고 판정된 경우, 그 처리는 단계 S2002로 진행한다.
단계 S2002에서, 입력 정보 처리부(2031)는 입력된 피 암호화 신호를 화상화부(2032)에 출력한다. 단계 S2003에서, 화상화부(2032)는 입력된 피 암호화 신호가 화상 신호인지의 여부를 판정한다. 예를 들면, 피 암호화 신호가 화상 신호가 아니다고 판정된 경우, 단계 S2004에서, 화상화부(2032)는 피 암호화 신호를 화상 신호로 변환하여 움직임 불선명 부가부(2033)에 출력한다. 단계 S2003에서, 피 암호화 정보가 화상 신호라고 판정된 경우, 화상화부(2032)는 입력된 피 암호화 신호를 그대로 움직임 불선명 부가부(2033)에 출력한다.
단계 S2005에서, 입력 신호 처리부(2031)는 키로 되는 속도와 방향의 정보가 입력되었는지의 여부를 판정하고, 입력될 때까지 그 처리를 반복하고, 속도와 방향의 키가 입력되면 그 처리는 단계 S2006으로 진행한다.
단계 S2006에서, 움직임 불선명 부가부(2033)는 입력된 화상 신호에 대하여 x 방향에 대하여 암호화한다(움직임 불선명을 부가한다).
여기서, 피사체를 움직임 불선명 조정에 의해 암호화할 때의 구체적인 화소값의 생성 방법을 도 137 내지 도 149를 참조하여 설명한다.
여기서, 도 137에서 도시한 바와 같이, 최하단의 화소 a 내지 e를 x 방향으로 움직임 불선명을 생기게 하여 암호화하는 방법에 대하여 설명한다. 이 때, 키로 되는 속도를 나타내는 움직임량 v를 5(가상 분할 수를 5)로 하면, 도 138에서나타내는 최하단의 화소는 도 139와 같이 나타낸다. 즉, 각 시간 방향의 화소값이 5 분할되기 때문에, a/5=a0=a1=a2=a3=a4, b/5=b0=b1=b2=b3=b4, c/5=c0=c1=c2=c3=c4, d/5=d0=d1=d2=d3=d4, e/5=e0=el=e2=e3=e4의 관계가 만족되어진다. 여기서, 도 139중 상단에 있는 화소일수록 전의 시각의 화소값이다.
피사체에 대하여 x 방향의 움직임(지금의 경우, 도면중 우측 방향)이 주어지면, 화소값의 배치는 소정의 시간 간격으로 슬라이드되어져 결과적으로 도 14O에 도시한 바와 같은 배치가 된다. 즉, 움직임 개시 타이밍에서는 화소값 aO 내지 eO는 원래의 위치이고, 다음의 타이밍에서 화소값 a1 내지 e1은 우측 방향으로 1 화소분 슬라이드하고, 또한 다음의 타이밍에서 화소값 a2 내지 e2는 우측 방향으로 더욱 1 화소분 슬라이드하고, 또한 다음의 타이밍에서 화소값 a3 내지 e3은 우측 방향으로 더욱 1 화소분 슬라이드하고, 또한 다음의 타이밍에서 화소값 a4 내지 e4는 우측 방향으로 더욱 1 화소분 슬라이드하는 등과 같이 피사체의 움직임에 맞춰 화소값이 이동한 배치가 된다.
또한, xy 평면 상의 각 화소값은 도 140에서 나타낸 화소값을 시간 방향으로 가산한 것이라고 할 수 있게 된다. 그러나, 예를 들면, 가장 좌측 열, 또는, 가장 우측열은 화소값 a0, e4만큼이 되어, 화소값으로서의 값이 매우 작게 될 우려가 있고, 또한, 이 후, y 방향에 대하여도 마찬가지의 처리를 할 때에 매우 작은 값이 되지 않도록 게인 업의 처리를 실시한다. 이 게인 업의 처리를 실시한 예가 도 141에 도시되어 있다.
여기서, a0*=5×a0, b0*=(5/2)×b0, a0*=(5/2)×a1, C0*=(5/3)×c0,b1*=(5/3)×b1, a2*=(5/3)×a2, d0*=(5/4)×d0, C1*=(5/4)×c1, b2*=(5/4)xb2, a 3*=(5/4)×3, e1*=(5/4)×e1, d2*=(5/4)×d2, c3*=(5/4)×c3, b4*=(5/4)×b4, e2*=(5/3)xe2, d3*=(5/3)×d3, c4*=(5/3)×c4, e3*=(5/2)×e3, d4*=(5/2)×d4 및 e4*=5×e4이다. 즉, 각 화소의 가산값이 1 화소분의 화소값이 되도록 게인을 조정하고 있다. 이 결과, 도 138에서 도시한, 화소 a 내지 e가 x 방향으로 움직임량 v가 5인 조건에서 암호화되면(움직임 불선명이 부가되면), 도 142에서 도시한 바와 같은 화소 ax 내지 dx'로 변환되어(암호화되어) 피사체의 수평 방향의 화소 수가 5로부터 9로 증가하게 된다. 여기서, 화소값은, ax=ax*, bx=(b0*)+(a1*), cx=(c0*) +(b1*)+(a2*), dx=(d0*)+(c1*)+(b2*)+(a3*), ex=(e0)+(d1)+(c2)+(b3)+(a4), ax'=(e1*)+(d2*)+(c3*)+(b4*), bx'=(e2*)+(d3*)+(c4*), cx'=(e3*)+(d4*) 및 ex=ex* 이다.
이상과 같은 처리를 도 137에서 도시한 5×5 화소의 모든 y에 대하여 x 방향으로 암호화하면 도 143에서 도시한 바와 같은 화소값이 구해진다. 즉, 화소 ax 내지 yx 및 화소 ax' 내지 dx', fx' 내지 ix', kx' 내지 nx', px' 내지 sx' 및 ux' 내지 xx'의 화소가 구해지고, x 방향으로 움직임 불선명이 생김으로써 x 방향으로 넓어져 9 화소씩 구해지게 된다.
여기서, 도 136의 흐름도의 설명으로 되돌아간다.
단계 S2007에서, 움직임 불선명 부가부(2033)는 x 방향으로 부호화한 화상 신호를 y 방향에 대하여 암호화한다.
여기서, 도 144에서 도시한 바와 같이, 도 143에서 도시하는 가장 우측열의화소 ax, fx, kx, px, ux를 y 방향으로 움직임 불선명을 생기게 하여 암호화하는 방법에 대하여 설명한다. 이 때, 키로 되는 속도를 나타내는 움직임량 v를 5(가상 분할 수를 5)로 하면 도 143에서 나타내는 가장 우측 열의 화소는 도 144와 같이 나타난다. 즉, 각 시간 방향의 화소값이 5 분할되기 때문에 ax/5=ax0=ax1=ax2=ax3=ax4, fx/5=fx0=fx1=fx2=fx3=fx4, kx/5=kx0=kx1=kx2=kx3=kx4, px/5=px0=px1=px2=px3=px4, ux/5=ux0=ux1=ux2=ux3=ux4의 관계가 만족하게 된다. 여기서, 도 145중 상단에 있는 화소일수록 전의 시각의 화소값이다.
피사체에 대하여 y 방향으로 움직임이 주어지면, 화소값의 배치는 소정의 시간 간격으로 슬라이드되어 결과적으로 도 146에서 도시한 바와 같은 배치가 된다. 즉, 움직임 개시의 타이밍에서는 화소값 axO, fxO, kxO, pxO, uxO는 원래의 위치이고, 다음의 타이밍에서 화소값 ax1, fx1, kx1, px1, ux1은 우측 방향으로 1 화소분 슬라이드하고, 또한 다음의 타이밍에서 화소값 ax2, fx2, kx2, px2, ux2은 우측 방향으로 1 화소분 더 슬라이드하고, 또한 다음의 타이밍에서 화소값 ax3, fx3, kx3, px3, ux3은 우측 방향으로 1 화소분 더 슬라이드하고, 또한 다음의 타이밍에서 화소값 ax4, fx4, kx4, px4, ux4는 우측 방향으로 1 화소분 더 슬라이드하는 등과 같이 피사체의 움직임에 맞춰 화소값이 이동한 배치가 된다.
여기서, 도 136의 흐름도의 설명으로 되돌아간다.
단계 S2008에서, 합성 서버(19)는 합성되는 배경 성분 화상을 암호화한 화상(전경 성분 화상)과 합성한다. 예를 들면, 도 147에서 도시한 바와 같은 y 방향으로 배열된 화소값 B0 내지 B9의 화소값으로 이루어지는 배경 성분 화상(x 방향으로 1단 분의 화소로 이루어지는 화상)을 합성하면 도 148에서 도시한 바와 같은 화소값이 가산된 값이 화소값으로 된다. 즉, xy 방향으로 암호화된(움직임 불선명이 부가된) 화상의 화소값이 전경 성분 화상의 화소값으로서 합성되는 화상의 화소값이 배경 성분 화상의 화소값으로서 합성된다. 결과로서, 도 149에서 도시한 바와 같은 화소값 A, F, K, P, U, Ay', Fy', Ky', Py'가 구해지게 되고, 각 화소값은 화소값 A=ax0+B0×4/5, 화소값 F=fx0+ax0+B1×3/5, 화소값 K=kx0+fx1+ax2+B2×2/5, 화소값 P=px0+kx1+fx2+ax3+B3×1/5, 화소값 U=ux0+px1+kx2+fx3+ax4, 화소값 Ay'=B5×1/5+ux1+px2+kx3+fx4, 화소값 Fy'=B6×2/5+ux2+px3+kx4, 화소값 K/=B7×3/5+ux3+px4 및 화소값 Py'=B8×4/5+ux4가 된다.
이들 처리를 모든 y 방향에 대하여 실행함으로써 도 150에서 도시한 바와 같은 암호화된 전경 성분 화상을 배경 성분 화상으로 하는 합성 화상이 생성된다. 즉, 입력된 5×5 화소의 화상은 9×9 화소(화소 A 내지 Y, 화소 Ax 내지 Dx, 화소 Fx 내지 Ix, 화소 Kx 내지 Nx, 화소 Px 내지 Sx, 화소 Ux 내지 Xx, 화소 Ay' 내지 Ty', 화소 Ax' 내지 Dx', 화소 Fx' 내지 Ix', 화소 Kx' 내지 Nx' 및 화소 Px' 내지 Sx')의 화상으로 변환된다.
또한, 복호 처리에 대해서는 암호용 움직임 불선명 제거부(2041)에서 암호용 움직임 불선명 부가부(2021)의 처리와 완전 반대의 움직임 불선명 부가 처리를 실행하게 되기 때문에 그 설명은 생략한다.
또한, 상술의 단계 S2006의 처리에서, x 방향으로 암호화할 때 게인 업 처리를 실시한 후 y 방향의 암호화를 행하고 있다. 따라서, 복호는 y 방향으로 복호한후 게인을 다운시키고 나서 x 방향으로 복호할 필요가 있다. 또한, y 방향과 x 방향의 암호화 처리의 순서는 교체해도 되지만, 먼저 암호화하는 방향에 대하여 게인 업의 처리가 이루어지기 때문에 복호도 암호화된 순서에 대응시킬 필요가 있다.
다음에, 도 151의 흐름도를 참조하여, 도 131에서 도시한 암호화용 움직임 불선명 부가부(2021)가 구비된 합성 서버(19)에 의한 암호화 서비스에 대하여 설명한다. 또한, 이 처리는 네트워크(1)상에 접속된 클라이언트 컴퓨터(27-1)가 합성 서버(19)에 대하여 피 암호화 신호를 송신하고 이것을 암호화시켜 클라이언트 컴퓨터(27-2)에 송신시키는 경우의 처리이다. 또한, 클라이언트 컴퓨터(27)에는 암호용 움직임 불선명 제거부(2041)를 갖는 분리 처리 서버(11)의 화상의 분리 처리 기능을 구비한 하드웨어가 설치되어 있거나 또는 소프트웨어가 인스톨되어 있는 것으로 한다.
단계 S2101에서 클라이언트 컴퓨터(27-1)는 암호화하고자 하는 정보(피 암호화 신호), 암호 키가 되는 속도와 방향의 정보 및 화상 선택 정보(배경 성분 화상을 선택하는 정보)를 합성 서버(19)에 송신한다.
단계 S2111에서, 합성 서버(19)의 암호용 움직임 불선명 부가부(2021)는 클라이언트 컴퓨터(27-1)로부터 입력된 암호 키에 기초하여 암호화하고자 하는 정보(피 암호화 신호)를 암호화하여 선택된 배경 성분 화상을 합성하는 암호화 처리를 실행한다. 또한, 암호화 처리에 대해서는 도 136의 흐름도를 참조하여 설명하였기 때문에 생략한다.
단계 S2112에서, 합성 서버(19)는 움직임 불선명을 부가함으로써 암호화하여합성한 화상을 클라이언트 컴퓨터(27-1)에 송신한다.
단계 S2102에서, 클라이언트 컴퓨터(27-1)는 합성 서버(19)로부터 수신한 합성 화상을 표시하여 사용자가 원하는 화상인지의 여부를 판정하고, 원하는 화상이라고 판정된 경우, 단계 S2103에서, 원하는 화상이었음을 합성 서버(19)에 통지한다. 단계 S2113에서, 합성 서버(19)는 원하는 화상인지 아닌지 여부를 판정하고, 예를 들면, 지금의 경우, 단계 S2103에서, 원하는 화상이라는 통지를 받고 있기 때문에 그 처리는 단계 S2114로 진행한다.
단계 S2114에서, 합성 서버(19)의 과금 처리부(19a)는 과금 서버(24)와 함께 과금 처리를 실행한다. 또한, 과금 처리에 대해서는 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다.
단계 S2115에서, 합성 서버(19)는 암호화한 합성 화상을 클라이언트 컴퓨터(27-1)에 송신한다. 단계 S2104에서, 클라이언트 컴퓨터(27-1)는 암호화된 합성 화상을 수신하여 그대로 클라이언트 컴퓨터(27-2)에 송신한다.
단계 S2141에서, 클라이언트 컴퓨터(27-2)는 암호화된 합성 화상을 수신한다. 단계 S2142에서, 클라이언트 컴퓨터(27-2)는 키가 입력되었는지의 여부를 판정하고, 암호 키가 입력될 때까지 그 처리를 반복한다. 단계 S2142에서, 암호 키로서 속도와 방향의 정보가 입력되면, 단계 S2143에서 입력된 속도와 방향에 기초하여 움직임 불선명 제거 처리부(2041)가 움직임 불선명 처리를 실행한다. 단계 S2144에서 움직임 불선명이 제거된 화상이 표시된다.
단계 S2102에서, 원하는 화상이 아니라고 판정된 경우, 단계 S2015에서 원하는 화상이 아님을 합성 서버(19)에 통지함과 함께 그 처리는 단계 S2101로 되돌아간다. 또한, 이 처리에 의해, 단계 S2114에서, 원하는 화상이 아니라고 판정되기 때문에 합성 서버(19)의 처리는 단계 S2111의 처리로 되돌아간다.
즉, 이 처리에 의해 클라이언트 컴퓨터(27-2)의 사용자가 클라이언트 컴퓨터(27-1)의 사용자에 의해 지정된 속도와 방향의 키를 정확하게 입력되었을 때 암호화된 화상이 정확하게 복호된 화상이 표시된다. 또한, 상술한 암호화 서비스와 마찬가지의 시스템에 의해 복호 서비스를 제공할 수도 있다.
다음에, 도 152를 참조하여 수정 서버(20)에 대하여 설명한다.
수정 서버(20)의 분리 처리부(11)는 입력된 화상(화상 ID이어도 되며, 화상 ID로 지정된 화상인 경우 네트워크(1)상으로부터 대응하는 화상을 읽어 낸 화상) 을 전경 성분 화상과 배경 성분 화상으로 분리하여, 전경 성분 화상을 움직임 불선명 조정부(2101)에 배경 성분 화상을 합성부에 출력한다. 움직임 불선명 조정부(2101)는 입력된 전경 성분 화상을 지정된(수정의 정도를 조정함) 움직임 불선명량으로 움직임 불선명 조정하여 합성부(2101)에 출력한다. 합성부(2101)는 움직임 불선명 조정된 전경 성분 화상과 입력된 배경 성분 화상을 합성하여 수정 화상으로서 출력한다.
예를 들면, 도 153A에서 도시한 바와 같은 화상이 수정 서버(20)에 입력되는 것으로 한다. 즉, 도 153A 우측부에 도시한 바와 같이, 전경이 배경 상을 화살표 방향으로 이동할 때 전경의 진행 방향과 그 역방향에 대하여 움직임 불선명이 생긴다. 이 움직임 불선명의 부분은 혼합 영역이고, 도 153A 좌측부에 도시한 바와 같이 이동 방향의 전방 부분에 생기는 혼합 영역이 CB(Covered Background)이고, 이동 방향의 후방 부분에 생기는 혼합 영역이 UB(Uncovered Background)이다. 또한, 도 153A 좌측부의 도면에서는 세로 방향에 시간 축 t를 설정하고 있기 때문에 이동과 함께 화소 상의 화소값의 축적 상태와 시간의 경과의 관계가 도시되어 있다. 분리 처리부(11)는 이 입력 화상을 도 153B에서 도시한 바와 같이 전경과 배경으로 분리한다. 이 때, 입력된 화상의 혼합 영역도 함께 추출된다.
움직임 불선명 조정부(2101)는 도 153B에서 도시한 바와 같은 전경 성분 화상의 움직임 불선명을 조정하여 예를 들면, 도 153C와 같은 전경 성분 화상을 생성한다. 즉, 지금의 경우, 움직임 불선명이 작게 되어 있다(CB, UB의 부분을 작게 하고 있다). 또한, 움직임 불선명을 조정하기 위한 움직임 불선명 조정량은 사용자가 수회 조작을 반복하면서 입력하도록 해도 되고, 움직임 불선명 조정부(2101)가 소정의 값으로 조정하도록 해도 좋다.
합성부(2102)는 도 153C에서 도시한 바와 같이 조정한 전경 성분 화상과 입력된 배경 성분 화상을 합성하여도 153D에서 도시한 바와 같은 움직임 불선명 조정된 전경 성분 화상을 배경 성분 화상과 합성하여 출력한다.
또한, 배경 성분 화상을 입력된 화상의 것과 다른 배경 성분 화상으로 변경하고자 하는 경우, 분리한 배경 성분 화상을 합성부(2102)에는 출력하지 않고, 변경시키고 싶은 배경 성분 화상을 합성부(2102)에 입력한다. 또한, 수정 서버(20)는 분리 처리부(11), 움직임 불선명 조정부(2101) 및 합성부(2102)를 네트워크(1) 상의 분리 처리 서버(11), 움직임 불선명 조정 서버(16) 및 합성 서버(19)로 치환하여 구성하도록 해도 좋다.
다음에, 도 154의 흐름도를 참조하여 수정 서버(20)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 입력된 화상을 수정하는 수정 서비스의 처리에 대하여 설명한다.
단계 S2201에서, 클라이언트 컴퓨터(27)는 화상을 지정하는 정보를 수정 서버(20)에 출력한다. 즉, 사용자가 수정하고자 하는 화상을 지정하는 정보로서 구체적인 화상이거나 또는 화상을 지정하는 화상 ID가 수정 서버(20)에 출력된다.
단계 S2211에서, 수정 서버(20)는 지정된 수정하고자 하는 화상과 배경 성분 화상을 취득하고, 분리 처리부(11)는 수정하려고 하는 화상을 전경 성분 화상과 배경 성분 화상으로 분리한다. 즉, 클라이언트 컴퓨터(27)로부터 화상이 송신되어 온 경우, 그 화상을, 지정하는 화상 ID가 송신되어 온 경우에는, 그 화상 ID에 대응하는 화상을, 네트워크(1)상에서 판독하여 취득한다. 또한, 분리 처리부(11)는 취득한 화상을 전경 성분 화상과 배경 성분 화상으로 분리한다.
단계 S2212, S2221에서, 수정 서버(20)의 과금 처리부(20a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는, 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다.
단계 S2213에서, 수정 서버(20)의 움직임 불선명 조정부(2101)는 전경 성분 화상의 움직임 불선명의 조정 처리를 실행한다. 또한, 움직임 불선명의 조정 처리는 도 104의 흐름도를 참조하여 설명한 처리와 마찬가지이기 때문에 그 설명은 생략한다.
단계 S2214에서, 합성부(2102)는 움직임 불선명 조정된 전경 성분 화상과 지정된 배경 성분 화상을 합성한다. 단계 S2215에서, 수정 서버(20)는 단계 S2214의 처리에서 구해진 합성 화상, 즉, 수정 화상을 클라이언트 컴퓨터(27)에 송신한다.
단계 S2202에서, 클라이언트 컴퓨터(27)는 수정 서버(20)로부터 송신되어 온 수정 화상을 수신하여 기억한다.
또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 수정 서버(20)에 의해 수정된 화상을 수정 서버(20) 자신에게 기억시키거나 또는 네트워크를 통해 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다.
다음에, 도 155의 흐름도를 참조하여 구입 서버(21)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 지정된 화상을 구입하는 화상의 구입 서비스의 처리에 대하여 설명한다.
단계 S2301에서, 클라이언트 컴퓨터(27)는 구입을 희망하는 화상을 지정하는 정보를 구입 서버(21)에 출력한다. 즉, 사용자가 구입하고자 하는 화상을 지정하는 정보로서 화상을 지정하는 화상 ID가 구입 서버(21)에 출력된다.
단계 S2311에서, 구입 서버(21)는 구입을 희망하는 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 송신되어 온 화상 ID에 대응하는 화상을 네트워크(1)상에서 판독하여 취득한다.
단계 S2312, S2321에서, 구입 서버(21)의 과금 처리부(21a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는, 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다.
단계 S2313에서, 구입 서버(21)는 단계 S2311의 처리에서 취득한 화상을 클라이언트 컴퓨터(27)에 송신한다.
단계 S2302에서, 클라이언트 컴퓨터(27)는 구입 서버(21)로부터 송신되어 온 화상을 수신하여 기억한다.
또한, 클라이언트 컴퓨터(27)는 사용자의 명령에 따라 구입 서버(21)에 의해 구입한 화상을 구입 서버(21) 자신에게 기억시키거나, 또는, 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다. 또한, 다른 클라이언트 컴퓨터(27)에 송신할 수 있도록 함으로써, 예를 들면, 화상을 프레젠트하도록 하는 것도 가능하다. 또한, 다른 사용자가 상술된 바와 같이 분리 처리 서비스, 합성 서비스, 또는 수정 서비스에 의해 각각 분리된 전경 성분 화상, 배경 성분 화상, 합성된 합성 화상, 또는 수정된 수정 화상 등도 구입하는 것이 가능해진다.
다음에, 도 156의 흐름도를 참조하여 매각 서버(22)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 지정된 화상을 매각하는 화상의 매각 서비스의 처리에 대하여 설명한다.
단계 S2401에서, 클라이언트 컴퓨터(27)는 매각을 희망하는 화상을 지정하는 정보를 구입 서버(21)에 출력한다. 즉, 사용자가 매각하고 싶은 화상이 매각 서버(22)에 출력된다.
단계 S2411에서, 매각 서버(22)는 매각을 희망하는 화상을 취득한다. 즉, 클라이언트 컴퓨터(27)로부터 송신되어 온 화상을 취득한다.
단계 S2422에서, 매각 서버(22)는 매각이 희망되어 있는 화상에 대하여 적당한 가격을 설정한다. 가격의 설정은 예를 들면, 미리 사용자에 의해 설정되는 것이어도 되고, 네트워크(1)상에서 경매 형식으로 설정하도록 해도 좋고, 게다가 인물이 촬상된 화상인 경우, 촬상되어 있는 인물이 예를 들면, 소정의 저명인인지 아닌지 여부에 의해 설정하는 방법이어도 된다.
단계 S2413, S2431에서, 매각 서버(22)의 과금 처리부(22a)와 과금 서버(24)는 매각 과금 처리를 실행한다.
여기서, 도 157의 흐름도를 참조하여, 매각 과금 처리에 대하여 설명한다. 또한, 실제의 매각 과금 처리는 매각 서버(22)와 과금 서버(24)에 의해 실행되지만, 각종 처리에 필요한 정보는 클라이언트 컴퓨터(27)로부터도 출력되어 있기 때문에 여기서는 클라이언트 컴퓨터(27)의 처리에 대해서도 함께 설명한다.
단계 S2501에서, 사용자(화상의 매각을 의뢰하는 사용자)를 식별하는 ID 정보를 네트워크(1)를 통해 매각 서버(22)에 송신한다.
단계 S2511에서, 매각 서버(22)는 클라이언트 컴퓨터(27)로부터 송신된 ID 정보에 기초하여 매각 금액 및 매각 서버(22)를 식별하는 ID를 과금 서버(24)에 송신한다.
단계 S2521에서, 과금 서버(24)는 송신되어 온 매각 서버(22)를 식별하는 ID에 기초하여 제공자 계좌를 갖는 금융 서버(26)에 대하여 구입 금액을 ID 정보에 대응하는 고객 계좌의 금융 서버(25)에의 불입의 의뢰를 한다.
단계 S2531에서, 제공자용 금융 서버(26)는 제공자의 계좌로부터 고객의 계좌가 개설되어 있는 고객용의 금융 서버(25)에 매각 금액에 상당하는 금액의 불입을 행한다.
여기서, 도 156의 흐름도의 설명으로 되돌아간다.
단계 S2424에서, 매각 서버(22)는 매각이 완료했음을 클라이언트 컴퓨터(27)에 통지한다. 단계 S2402에서, 클라이언트 컴퓨터(27)는 매각 완료의 통지를 수신한다.
또한, 매각 서버(22)는 사용자에 의해 매각된 화상을 매각 서버(21) 자신에게 기억해도 좋고, 또는, 축적 서버(18)에 출력시켜 기억(축적)시키도록 할 수도 있다. 또한, 상술된 바와 같이 경매 형식으로 가격을 설정하는 경우 낙찰자의 클라이언트 컴퓨터(27)에 송신하도록 해도 좋다.
다음에, 도 158을 참조하여 검색 서버(24)에 대하여 설명한다.
검색 서버(23)는 클라이언트 컴퓨터(27)등으로부터 입력되는 검색 조건(화상요구 신호)에 기초하여 네트워크(1)상에 접속된 카메라 단말 장치(1)상에서 촬상되어 있는 화상을 검색하여 요구 화상을 출력하는 것이다. 검색 조건으로서 시각, 계절, 날씨, 지역, 장소, 또는 피사체 등이다.
검색 서버(23)의 제어부(2161)는 검색 서버(23)의 전체의 동작을 제어한다. 데이터 베이스(2162)에는 네트워크(1)에 접속된 검색 서버(23) 자신이 인식하고 있는 각 카메라 단말 장치(28)마다의 카메라 ID에 대응하여 각 카메라 단말 장치(28)의 위치 데이터(카메라 단말 장치(28)에 구비된 GPS(76b)에 의해 취득된다), 기상 데이터 및 촬상하고 있는 피사체의 데이터 등의 데이터(2162b)가 데이터 베이스로서 기억되어 있다. 이 데이터 베이스(2162)의 내용은 제어부(2161)가 소정의 시간간격으로 통신부(2165)를 제어하여 네트워크(1)를 통해 각 카메라 단말 장치(28)로부터 취득하여 갱신되어 있다.
기억부(2163)는 통신부(2165)로부터 네트워크(1) 상의 카메라 단말 장치(28)로부터 취득한 화상을 기억하거나, 또는, 각종의 화상의 처리에 필요한 정보를 기억한다.
요구 정보 생성부(2164)는 네트워크(1) 상의 클라이언트 컴퓨터(27)등으로부터 입력된 검색 조건을 정리하여 실제로 데이터 베이스(2162)상에서 검색할 수 있는 조건을 생성한다. 즉, 예를 들면, 검색 조건으로서 계절이 입력된 경우, 각 카메라 단말 장치(28)의 위치 데이터와 시각 연산부(2166)에 의해 연산되는 시각 정보에 의해 계절을 특정할 수 있게 된다. 그래서, 요구 정보 생성부(2164)는 예를 들면, 「봄」이라는 검색 조건이 입력된 경우, 지금 현재의 시각에서 계절이「봄」 으로 되어 있는 지구상의 위도 경도의 위치 데이터를 생성한다. 제어부(2161)는 통신부(2165)를 제어하여 이 위치 데이터에 대응하는 카메라 ID의 카메라 단말 장치(28)의 촬상 화상을 네트워크(1)상에서 읽어 냄으로써 「봄」에 대응하는 화상을 취득한다.
분리 처리부(2167)는 판독한 화상에 포함되는 검색 목적의 화상을 분리 처리에 의해 취득한다. 또한, 분리 처리부(2167)는 분리 처리부(11)와 마찬가지의 기능을 갖는 것이다.
다음에, 도 159의 흐름도를 참조하여, 검색 서버(23)에 의해 실행되는 클라이언트 컴퓨터(27)로부터 입력된 검색 조건에 기초하여 화상을 검색하는 검색 서비스의 처리에 대하여 설명한다.
단계 S2601에서, 클라이언트 컴퓨터(27)는 검색 조건을 검색 서버(23)에 출력한다. 단계 S2611에서, 검색 서버(23)는 통신부(2165)에 의해 검색 조건을 수신한다.
단계 S2612, S2631에서, 검색 서버(23)의 과금 처리부(23a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는, 도 118, 도 120에서, 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다. 또한, 단계 S2612, S2631의 처리에서의 과금 처리는 검색을 실행하는 것에 대한 요금에 관한 과금 처리이다.
단계 S2613에서, 검색 서버(23)는 검색 조건에 대응한 화상을 검색하고, 단계 S2614에서 대응하는 화상을 대응하는 화상을 호출한다. 단계 S2641에서, 카메라 단말 장치(28)는 현재 촬상하고 있는 화상을 검색 서버(23)에 송신한다.
즉, 예를 들면, 도 160에서 도시한 바와 같이, 네트워크(1)에 대하여 클라이언트 컴퓨터(27-1 내지 27-5), 검색 서버(23) 및 카메라 단말 장치(28-1 내지 28-5)가 접속되어 있다고 한다. 이 때, 클라이언트 컴퓨터(27-2)가 사용자에 의해 조작되어 검색 조건으로서 「인간」,「차」 및 「빌딩」을 단계 S2611의 처리에서 송신해 오면, 검색 서버(23)는 단계 S2613에서, 데이터 베이스(2162)에서 검색 조건으로서 「인간」, 「차」 및 「빌딩」의 피사체를 검색한다. 즉, 도 160인 경우, 검색 서버(23)는 차(2172)가 카메라 ID=1의 카메라 단말 장치(28-1), 인간(2183)이 카메라 ID=2의 카메라 단말 장치(28-2) 및 빌딩(2211)이 카메라 ID=5의 카메라 단말 장치(28-5)에서 촬상되어 있음을 검색하여 단계 S2614에서 각각의 카메라 단말 장치(28)로부터 화상을 취득한다.
단계 S2515에서, 검색 서버(23)는 호출한 화상이 분리되어 있거나 즉, 원하는 조건 이외의 화상(오브젝트)이 포함되어 있는지의 여부를 판정한다.
도 160인 경우, 카메라 단말 장치(28-1)로부터 송신되어 오는 화상에는 검색 조건 이외의 구름(2172)이 포함되어 있고, 카메라 단말 장치(28-2)로부터 송신되어 오는 화상에는 검색 조건 이외의 집(2181)이 포함되어 있기 때문에, 이들 화상은 검색 조건에 대응하는 화상이 분리되어 있지 않게 되기 때문에 그 처리는 단계 S2616으로 진행한다.
단계 S2616에서, 분리 처리부(2167)는 분리 처리를 실행한다. 또한, 분리 처리는 도 117의 흐름도의 단계 S1013의 처리와 마찬가지이기 때문에 그 설명은 생략한다.
단계 S2617에서, 호출한 화상을 합성하여 클라이언트 컴퓨터(27)에 송신한다. 단계 S2602에서, 클라이언트 컴퓨터(27)는 검색 서버(23)로부터 송신되어 온 화상을 취득한다. 단계 S2603에서, 클라이언트 컴퓨터(27)는 수신된 화상이 원하는 화상이었는지 아닌지 여부를 판정한다. 도 160에서 도시한 바와 같이, 디스플레이(27a-1)에 표시된 화상인 경우, 검색 조건으로서의 「인간」, 「차」 및 「빌딩」은 인간(2182), 차(2172) 및 빌딩(2211)으로서 화상에 포함되어 있으므로 원하는 화상이기 때문에 단계 S2604에서, 원하는 화상이었음을 검색 서버에 통지한다.
단계 S2618에서, 검색 서버(23)는 클라이언트 컴퓨터(27)로부터 송신되어 온통지가 원하는 화상이었는지 아닌지 여부를 판정한다. 도 160인 경우, 원하는 화상이기 때문에 그 처리는 단계 S2619로 진행한다.
단계 S2619, S2632에서, 검색 서버(23)의 과금 처리부(23a)와 과금 서버(24)는 과금 처리를 실행한다. 또한, 과금 처리에 대해서는 도 118, 도 120에서 분리 서비스에서의 경우와 마찬가지의 처리이기 때문에 그 설명은 생략한다. 또, 단계 S2619, S2632의 처리에서의 과금 처리는 검색된 화상을 송신한 것에 대한 요금에 관련되는 과금 처리이다. 또한, 단계 S2515에서, 전부 검색 조건의 화상만인 경우, 단계 S2616의 처리는 스킵되어진다.
단계 S2603에서, 예를 들면, 클라이언트 컴퓨터(27-4)로부터 검색 조건으로서 「집」, 「구름」 및 「얼굴」이 지정되어 있었음에도 불구하고 디스플레이(27a-4)에 표시된 화상과 같이 집(2181) 및 구름(2071)만이 표시되고 얼굴(2201)이 표시되어 있지 않을때, 원하는 화상이 아닌 것이 되기 때문에 그 처리는 단계 S2605로 진행하여 원하는 화상이 아님을 검색 서버(23)에 송신하여 그 처리는 종료한다.
이 때, 검색 서버(23)는 단계 S2618에서 원하는 화상이 아닌 것이 통지되기 때문에 그 처리는 종료한다.
이 경우, 검색 처리에 관련되는 요금은 지불하게 되지만 검색된 화상을 송신한 것에 대하해서는 지불하지 않게 된다.
이상에 의하면 네트워크의 복수의 서버에서 분산하여 화상의 가공 처리를 실행함으로써 그 처리 속도를 향상시키는 것이 가능하게 됨과 함께 분산하여 처리함으로써 사용자에 의해 필요해지는 처리만을 실행할 수 있도록 함으로써 그 서비스에 관련되는 비용을 저감시키는 것이 가능해진다.
또한, 이하와 같은 발명도 생각된다.
즉, 본 발명은 통신 장치 및 방법, 및 통신 시스템에 관한 것으로 네트워크의 복수의 서버에서 분산하여 화상의 가공 처리를 실행함으로써 그 처리 속도를 향상시킴과 함께, 분산하여 처리함으로써 사용자에 의해 필요해지는 처리만을 실행할 수 있도록 함으로써 그 서비스에 관련되는 비용을 저감시키고, 또한, 센서에 의해 검출한 신호와 현실 세계와의 차이를 고려하여 한번 사용한 화상 데이터를 자기의 통신 장치에 보존해 두지 않더라도 필요에 따라 호출하여 사용할 수 있도록 한 통신 장치 및 방법과 통신 시스템에 관한 것이어도 좋다.
현실 세계에서의 사상을 센서로 검출하여 화상 센서가 출력하는 샘플링 데이터를 처리하는 기술이 넓게 이용되고 있지만, 예를 들면, 정지하고 있는 소정의 배경 앞으로 이동하는 물체를 비디오 카메라로 촬상하여 얻어지는 화상에는 물체의 이동 속도가 비교적 빠른 경우 움직임 불선명이 생기게 된다.
상술과 같은 움직임 불선명이 생기고 있는 화상을 암호화하는 기술로서 화상의 평탄부에 암호화된 화상을 인식할 수 없도록 매립하는 방법이나 화상의 상관성을 이용하여 정보를 매립하는 방법이 제안되어 있다.
또한, 정지하고 있는 배경 앞으로 물체가 이동할 때, 이동하는 물체의 화상 자신이 뒤섞임에 의한 움직임 불선명뿐만 아니라 배경의 화상과 이동하는 물체의 화상과의 뒤섞임이 생기지만, 종래, 배경의 화상과 이동하는 물체의 화상이 뒤섞인상태에 대응하는 처리는 고려되어 있지 않았다.
또한, 상술과 같은 화상의 움직임 불선명 제거나 조정에서는 셔터를 조정한 후 어느 정도의 움직임 불선명을 허용하고 있고 그 움직임 불선명을 시각 효과로서 이용하기도 하지만, 일반적으로 필요 이상으로 움직임 불선명이 발생한 경우, 이 움직임 불선명을 제거하기 위해서 위너 필터가 이용되고 있었다.
또한, 종래 사용자는 자신이 촬상한 상술한 바와 같은 화상을 자기의 컴퓨터상에서 선별하는 등으로, 필요에 따라 프린트 아웃하기도 한다.
이 때문에, 이들의 뒤섞인 상태에 기초하여 화상을 분리, 합성, 또는, 수정하는 등의 화상은 사용자의 컴퓨터상에서 사용하는 것외에는 이용되는 일이 적었다.
또한, 종래 사용자는 움직임 불선명이 생긴 물체의 화상과 다른 배경 화상을 합성시키고자 했을 때, 원하는 배경 화상을 취득하기 위해 몇가지 검토를 하여 찾아내서는 자기의 컴퓨터에 저장하는 등으로 하여 실제로 표시시키고 있었다.
이 때문에, 상술된 바와 같이 화상을 검색하는 경우에는, 자신이 원하는 화상이 취득할 때까지 동일한 처리를 반복해야만 한다는 과제가 있었다.
또한, 네트워크를 통해 사용자가 원하는 화상을 합성하는 기술에 있어서, 이들 합성 화상은 사용자가 네트워크 상의 축적 서버 등에 축적된 화상을 지정하거나 자신이 디지털 스틸 카메라 등으로 촬상한 화상 등의 복수의 기존 화상을 중첩시켜 접합하는 등의 처리에 의해 생성되고 있었다.
그런데, 상술한 바와 같은 방법에 의해 화상을 합성하기 위해서는, 합성에사용하기 위한 기초가 되는 화상이 미리 작성되어 있는 것이 전제가 되지만, 그 촬상 기술에는 다양한 노하우가 있고, 반드시 만족스런 기초가 되는 화상 그 자체를 취득, 또는, 생성한다는 것은 간단한 일은 아니다. 이 때문에, 합성 화상의 생성에 있어서, 사용자가 원하는 기초가 되는 화상 데이터의 취득, 또는, 생성을 용이하게 할 수 없다는 과제가 있었다.
또한, 상술한 바와 같은 과제로부터 사용자가 원하는 화상을 취득할 수 있으면, 그것을 사용자가 이용하는 컴퓨터 상에 한번 사용한 것이어도 재차 입수할 수 없는 가능성이 높기 때문에, 데이터의 용량으로서 큰 화상 데이터를 삭제하지 않고 기억하게 된다. 이 경우, 화상 데이터의 오브젝트와 혼합비의 특징량으로 분리함으로써 그 특징량에 따라 최적의 부호화를 행하는 것이 제안되어 있지만, 통상, 화상의 오브젝트와 혼합비라는 특징량은 최적의 상태로 부호화할 수 없을 정도로 그 특징량이 다른 것이 많기 때문에, 최적의 부호화를 실현할 수 없어 효율적으로 화상 데이터를 기억해 갈 수 없다는 과제가 있었다.
본 발명은 이러한 상황에 대응하여 화상의 혼합 상태를 이용하여 화상을 암호화시킬 수 있도록 해도 된다. 또한, 본 발명은 혼합 상태의 정도를 설정하여 조정함으로써 움직임 불선명을 제거하여 선명한 화상을 얻을 수 있도록 함과 함께, 움직임 불선명이 조정된 화상과 배경 화상을 합성함으로써 보다 자연스러운 화상의 수정을 가능하게 하도록 해도 좋다. 또, 본 발명은 화상의 혼합 상태에 기초하여 화상을 분리, 합성, 또는, 수정하는 등의 화상을 네트워크상에서 유효하게 이용할 수 있도록 해도 좋다. 또한, 본 발명은 화상의 혼합 상태에 기초하여 화상을 분리, 합성, 또는, 수정하는 등한 화상을 네트워크상에서 검색할 수 있도록 해도 좋다. 또한, 본 발명은 사용자가 이용하는 컴퓨터상에 화상을 기억하는 것은 아니고, 소정의 축적 서버 등에 기억시켜 기억되어 있는 축적 서버의 위치 정보에 의해 필요에 따라 화상을 읽어 내어 이용하도록 함으로써 한번 사용한 화상 데이터를 자기의 컴퓨터에 보존해 두지 않더라도 필요에 따라 호출하여 사용하는 것을 가능하게 하는 것으로 해도 좋다.
본 발명의 제1 시스템은 제1 통신 장치가 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다, 또한, 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중, 사용자가 요구하는 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보 입력 수단에 의해 입력된 요구 정보를 제2 통신 장치로 송신하는 요구 정보 송신 수단과, 제2 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터를 수신하는 부호화 데이터 수신 수단을 구비하고, 제2 통신 장치는 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 수단과, 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 요구 정보 수신 수단에 의해 수신된 요구 정보에 기초하여 분리 수단에 의해 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터를 제1 통신 장치에 송신하는 부호화 데이터 송신 수단을 포함하는 것을 특징으로 한다.
상기 제1 통신 장치 및 제2 통신 장치는 요구 정보에 따라 과금에 관련한 처리를 실행하는 제1 과금 수단 및 제2 과금 수단을, 각각에 더 설치하도록 할 수 있다.
상기 제2 과금 수단에는 요구 정보에 따라 사용자의 식별자, 제2 통신 장치의 식별자 및 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 제2 과금 수단에는 과금 정보에 기초하여 제1 과금 수단과 함께 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 제1 통신 장치에는, 제1 과금 수단에는 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 부호화 데이터 송신 수단에는 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후 제1 통신 장치에만 부호화 데이터를 송신시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보 외에 소정의 화상 데이터를 입력시키고, 요구 정보 송신 수단에는 요구 정보 외에 소정의 화상 데이터를 제2 통신 장치로 송신하고, 요구 정보 수신 수단에는 제1 통신 수단으로부터 송신되어 오는 요구 정보 외에 소정의 화상 데이터를 수신시키고, 분리 수단에는 소정의 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리시키고, 부호화 데이터 송신 수단에는 요구 정보 수신 수단에 의해 수신된 요구 정보와 소정의 화상 데이터에 기초하여 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 유의 정보로서의 부호화 데이터를 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 제1 통신 장치에만 송신시키도록 할 수 있다.
상기 제2 통신 장치에는 소정의 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보를 생성하는 영역 정보 생성 수단을 더 설치하도록 할 수 있고, 유의 정보에는 영역 정보를 포함하게 하고, 부호화 데이터 송신 수단에는 요구 정보 수신 수단에 의해 수신된 요구 정보와 소정의 화상 데이터에 기초하여 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 영역 정보 생성 수단에 의해 생성되는 영역 정보로서의 부호화 데이터를 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후 제1 통신 장치에만 송신시키도록 할 수 있다.
상기 제2 통신 장치에는 소정의 화상 데이터의 혼합 영역의 전경 영역과 배경 영역이 혼합된 비율을 나타내는 것 혼합비를 생성하는 혼합비 생성 수단을 더 설치하도록 할 수 있고, 유의 정보에는 혼합비를 포함하고, 부호화 데이터 송신 수단에는 요구 정보 수신 수단에 의해 수신된 요구 정보와 소정의 화상 데이터에 기초하여 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 혼합비 생성 수단에 의해 생성되는 혼합비로서의 부호화 데이터를 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후 제1 통신 장치에만 송신시키도록 할 수 있다.
상기 유의 정보에는 전경 성분 화상과 배경 성분 화상을 포함하고, 부호화 데이터 송신 수단에는 요구 수신 수단에 의해 수신된 요구 정보와 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 분리 수단에 의해 생성된 전경 성분 화상과 배경 성분 화상으로서의 부호화 데이터를 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후 제1 통신 장치에만 송신시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보 외에 소정의 화상 데이터를 식별하는 화상 데이터 식별자를 입력시키고, 부호화 데이터 송신 수단에는 요구 정보와 화상 데이터 식별자에 대응하는 소정의 화상 데이터에 기초하여 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 유의 정보로서의 부호화 데이터를 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후 제1 통신 장치에만 부호화 데이터를 송신시키도록 할 수 있다.
상기 제2 통신 장치에는 화상 데이터 식별자에 대응하는 소정의 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 화상 데이터 식별자에 대응하는 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보를 생성하는 영역 정보 생성 수단을 더 설치하도록 할 수 있고, 유의 정보에는 영역 정보를 포함하고, 부호화 데이터 송신 수단에는 요구 정보와 화상 데이터 식별자에 대응하는 소정의 화상 데이터에 기초하여 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때, 영역 정보 생성 수단에 의해 생성되는 영역 정보로서의 부호화 데이터를 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후 제1 통신 장치에만 송신시키도록 할 수 있다.
상기 제2 통신 장치에는 영역 정보에 기초하여 화상 데이터 식별자에 대응하는 소정의 화상 데이터 중의 혼합 영역의 혼합비를 생성하는 혼합비 생성 수단을 더 설치하도록 할 수 있고, 유의 정보에는 혼합비를 포함하고, 부호화 데이터 송신 수단은 요구 정보와 화상 데이터 식별자에 대응하는 소정의 화상 데이터에 기초하여 분리 수단에 의해 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때, 혼합비 생성 수단에 의해 생성되는 혼합비로서의 부호화 데이터를 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후 제1 통신 장치에만 송신시키도록 할 수 있다.
상기 유의 정보에는 전경 성분 화상과 배경 성분 화상을 포함하고, 부호화 데이터 송신 수단은 요구 정보와 분리 수단에 의해 화상 데이터 식별자에 대응하는 소정의 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때, 분리 수단에 의해 생성된 전경 성분 화상과 배경 성분 화상으로서의 부호화 데이터를 제1 과금 수단과 제2 과금 수단에 의해 과금에 관련한 처리가 완료된 후 제1 통신 장치에만 송신시키도록 할 수 있다.
본 발명의 제1 통신 시스템의 통신 방법은 제1 통신 장치의 통신 방법이 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보를 제2 통신 장치에 송신하는 요구 정보 송신 단계와, 제2 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터를 수신하는 부호화 데이터 수신 단계를 포함하고, 제2 통신 장치의 통신 방법이 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 단계와, 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 단계와, 요구 정보 수신 단계의 처리에서 수신된 요구 정보에 기초하여 분리 단계의 처리에서 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터를 제1 통신 장치로 송신하는 부호화 데이터 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제2 기록 매체의 프로그램은 제1 통신 장치를 제어하는 프로그램이 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보의 제2 통신 장치에의 송신을 제어하는 요구 정보 송신 제어 단계와, 제2 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터의 수신을 제어하는 부호화 데이터 수신 제어 단계를 포함하고, 제2 통신 장치를 제어하는 프로그램이 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와, 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 분리 제어 단계의 처리에서 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터의 제1 통신 장치 하나의 송신을 제어하는 부호화 데이터 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제2 프로그램은 제1 통신 장치를 컴퓨터에 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보의 제2 통신 장치에의 송신을 제어하는 요구 정보송신 제어 단계와, 제2 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터의 수신을 제어하는 부호화 데이터 수신 제어 단계를 실행시키고, 제2 통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와, 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 분리 제어 단계의 처리에서 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터의 제1 통신 장치로의 송신을 제어하는 부호화 데이터 송신 제어 단계를 포함하는 처리를 실행시키는 것을 특징으로 한다.
본 발명의 제2 통신 장치는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보 입력 수단에 의해 입력된 요구 정보를 다른 통신 장치로 송신하는 요구 정보 송신 수단과, 다른 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터를 수신하는 부호화 데이터 수신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제2 통신 방법은 각각 시간 적분 효과를 갖는 소정 수의 화소를포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보를 다른 통신 장치로 송신하는 요구 정보 송신 단계와, 다른 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터를 수신하는 부호화 데이터 수신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제3 기록 매체의 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보의 다른 통신 장치에의 송신을 제어하는 요구 정보 송신 제어 단계와, 다른 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터의 수신을 제어하는 부호화 데이터 수신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제3 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보의 입력을 제어하는요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보의 다른 통신 장치로의 송신을 제어하는 요구 정보 송신 제어 단계와, 다른 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터의 수신을 제어하는 부호화 데이터 수신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제3 통신 장치는 다른 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 수단과, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 요구 정보 수신 수단에 의해 수신된 요구 정보에 기초하여 분리 수단에 의해 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터를 다른 통신 장치로 송신하는 부호화 데이터 송신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제3 통신 방법은 다른 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 단계와, 요구 정보 수신 단계의 처리에서 수신된 요구 정보에 기초하여 분리 단계의 처리에서 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터를 다른 통신 장치로 송신하는 부호화 데이터 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제4 기록 매체의 프로그램은 다른 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와, 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 분리 제어 단계의 처리에서 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터의 다른 통신 장치로의 송신을 제어하는 부호화 데이터 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제4 프로그램은 다른 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 분리를 제어하는 분리 제어 단계와, 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 분리 제어 단계의 처리에서 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터의 다른 통신 장치로의 송신을 제어하는 부호화 데이터 송신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제2 통신 시스템은 제1 통신 장치가 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보 입력 수단에 의해 입력된 요구 정보를 제2 내지 제4 통신 장치 중 어느 하나에 송신하는 요구 정보 송신 수단과, 제2 내지 제4 통신 장치 중 어느 하나로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터를 수신하는 부호화 데이터 수신 수단을 구비하고, 제2 통신 장치가 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 제1 요구 정보 수신 수단과, 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 제1 요구 정보 수신 수단에 의해 수신된 요구 정보에 기초하여 분리 수단에 의해 화상이 분리된 전경 성분 화상과 배경 성분 화상을 부호화 데이터로서 제1 통신 장치로 송신하는 제1 부호화 데이터 송신 수단을 구비하고, 제3 통신 장치가 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 제2 요구 정보 수신 수단과, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보를 생성하는 영역 정보 생성 수단과, 제2 요구 정보 수신 수단에 의해 수신된 요구 정보에 기초하여 영역 정보 생성 수단에 의해 생성된 영역 정보를 부호화 데이터로서 제1 통신 장치로 송신하는 제2 부호화 데이터 송신 수단을 구비하고. 제4 통신 장치는 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 제3 요구 정보 수신 수단과, 화상 데이터의 혼합 영역의 전경 영역과 배경 영역이 혼합된 비율을 나타내는 혼합비를 생성하는 혼합비 생성 수단과, 요구 정보 수신 수단에 의해 수신된 요구 정보에 기초하여 혼합비 생성 수단에 의해 생성된 혼합비를 부호화 데이터로서 제1 통신 장치로 송신하는 제3 부호화 데이터 송신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제2 통신 시스템의 제1 통신 장치의 통신 방법이 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보를 제2 내지 제4 통신 장치 중 어느 하나에 송신하는 요구 정보 송신 단계와, 제2 내지 제4 통신 장치 중 어느 하나로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터를 수신하는 부호화 데이터 수신 단계를 포함하고, 제2 통신 장치의 통신 방법은 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 제1 요구 정보 수신 단계와, 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 단계와, 제1 요구 정보 수신 단계의 처리에서 수신된 요구 정보에 기초하여 분리 단계의 처리에서 화상이 분리된 전경 성분 화상과 배경 성분 화상을 부호화 데이터로서 제1 통신 장치로 송신하는 제1 부호화 데이터 송신 단계를 포함하고, 제3 통신 장치의 통신 방법은 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 제2 요구 정보 수신 단계와, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보를 생성하는 영역 정보 생성 단계와, 제2 요구 정보 수신 단계의 처리에서 수신된 요구 정보에 기초하여 영역 정보 생성 단계의 처리에서 생성된 영역 정보를 부호화 데이터로서 제1 통신 장치로 송신하는 제2 부호화 데이터 송신 단계를 포함하고, 제4 통신 장치의 통신 방법은 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 제3 요구 정보 수신 단계와, 화상 데이터의 혼합 영역의 전경 영역과 배경 영역이 혼합된 비율을 나타내는 혼합비를 생성하는 혼합비 생성 단계와, 요구 정보 수신 단계의 처리에서 수신된 요구 정보에 기초하여 혼합비 생성 단계의 처리에서 생성된 혼합비를 부호화 데이터로서 제1 통신 장치로 송신하는 제3 부호화 데이터 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제5 기록 매체의 프로그램은, 제1 통신 장치를 제어하는 프로그램이 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보를 제2 내지 제4 통신 장치 중 어느 하나로의 송신을 제어하는 요구 정보 송신 제어 단계와, 제2 내지 제4 통신 장치 중 어느 하나로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터의 수신을 제어하는 부호화 데이터 수신 제어 단계를 포함하고, 제2 통신 장치를 제어하는 프로그램이 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 제1 요구 정보 수신 제어 단계와, 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와, 제1 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 분리 제어 단계의 처리에서 화상이 분리된 전경 성분 화상과 배경 성분 화상의 부호화 데이터로서의 제1 통신 장치로의 송신을 제어하는 제1 부호화 데이터 송신 제어 단계를 포함하고, 제3 통신 장치를 제어하는 프로그램이 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 제2 요구 정보 수신 제어 단계와, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보의 생성을 제어하는 영역 정보 생성 제어 단계와, 제2 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 영역 정보 생성 제어 단계의 처리에서 생성된 영역 정보의 부호화 데이터로서의 제1 통신 장치로의 송신을 제어하는 제2 부호화 데이터 송신 제어 단계를 포함하고, 제4 통신 장치를 제어하는 프로그램이 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 제3 요구 정보 수신 제어 단계와, 화상 데이터의 혼합 영역의 전경 영역과 배경 영역이 혼합된 비율을 나타내는 혼합비의 생성을 제어하는 혼합비 생성 제어 단계와, 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 혼합비 생성 제어 단계의 처리에서 생성된 혼합비의 부호화 데이터로서의 제1 통신 장치로의 송신을 제어하는 제3 부호화 데이터 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제5 프로그램은 제1 통신 장치를 제어하는 컴퓨터에 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보를 제2 내지 제4 통신 장치 중 어느 하나로의 송신을 제어하는 요구 정보 송신 제어 단계와, 제2 내지 제4 통신 장치 중 어느 하나로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터의 수신을 제어하는 부호화 데이터 수신 제어 단계를 실행시키고, 제2 통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 제1 요구 정보 수신 제어 단계와, 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와, 제1 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 분리 제어 단계의 처리에서 화상이 분리된 전경 성분 화상과 배경 성분 화상의 부호화 데이터로서의 제1 통신 장치로의 송신을 제어하는 제1 부호화 데이터 송신 제어 단계를 실행시키고, 제3 통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 제2 요구 정보 수신 제어 단계와, 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보의 생성을 제어하는 영역 정보 생성 제어 단계와, 제2 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 영역 정보 생성 제어 단계의 처리에서 생성된 영역 정보의 부호화 데이터로서의 제1 통신 장치에의 송신을 제어하는 제2 부호화 데이터 송신 제어 단계를 실행시키고, 제4 통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 제3 요구 정보 수신 제어 단계와, 화상 데이터의 혼합 영역의 전경 영역과 배경 영역이 혼합된 비율을 나타내는 혼합비의 생성을 제어하는 혼합비 생성 제어 단계와, 요구 정보 수신 제어 단계의 처리에서 수신된 요구 정보에 기초하여 혼합비 생성 제어 단계의 처리에서 생성된 혼합비의 부호화 데이터로서의 제1 통신 장치로의 송신을 제어하는 제3 부호화 데이터 송신 제어 단계를 실행시키는 것을 특징으로 한다.
본 발명의 제4 통신 장치는 사용자의 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 합성하여 합성 화상을 생성하는 합성 수단과, 합성 수단에 의해 생성된 합성 화상을 출력하는 합성 화상 출력 수단을 포함하는 것을 특징으로 한다.
상기 합성 화상 출력 수단에는 합성 화상을 사용자의 통신 장치에 출력시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상, 소정의 배경 성분 화상 및 소정의 전경 성분 화상과 소정의 배경 성분 화상을 합성할 때에 사용되는 유의 정보를 입력시키고, 합성 수단에는 요구 정보 입력 수단에 의해 요구 정보와 함께 입력된 소정의 전경 성분 화상과 소정의 배경 성분 화상을 유의 정보에 기초하여 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상, 소정의 배경 성분 화상 및 소정의 전경 성분 화상과 소정의 배경 성분 화상을 합성할 때에 사용되는 유의 정보로서 소정의 전경 성분 화상과 소정의 배경 성분 화상의 혼합 영역의 혼합비를 입력시키고, 합성 수단에는 요구 정보 입력 수단에 의해 요구 정보와 함께 입력된 소정의 전경 성분 화상과 소정의 배경 성분 화상을 유의 정보로서의 혼합비에 기초하여 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상, 소정의 배경 성분 화상 및 소정의 전경 성분 화상과 소정의 배경 성분 화상을 합성할 때에 사용되는 유의 정보로서 전경 성분 화상의 움직임량 및 움직임 방향을 입력시키고, 합성 수단에는 요구 정보 입력 수단에 의해 요구 정보와 함께 입력된 소정의 전경 성분 화상을 유의 정보로서의 움직임량 및 움직임 방향에 기초하여 움직임 불선명을 조정하여, 소정의 배경 성분 화상과 합성시켜 합성 화상을 생성시킬 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상, 소정의 배경 성분 화상 및 소정의 전경 성분 화상과 소정의 배경 성분 화상을 합성할 때에 사용되는 유의 정보로서 전경 성분 화상의 초기 위치 정보, 움직임량 및 움직임 방향을 입력시키고, 합성 수단에는 요구 정보 입력 수단에 의해 요구 정보와 같이 입력된 소정의 전경 성분 화상을 유의 정보로서의 움직임량 및 움직임 방향에 기초하여 움직임 불선명을 조정하여 혼합비를 산출하고 움직임 불선명이 조정된 소정의 전경 성분 화상과 소정의 배경 성분 화상을 산출된 혼합비에 의해 유의 정보로서의 전경 성분 화상의 초기 위치 정보, 움직임량 및 움직임 방향에 기초하여 합성시켜 합성 화상을 생성시킬 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 같이 소정의 전경 성분 화상을 식별하는 전경 성분 화상 식별자, 소정의 배경 성분 화상을 식별하는 배경 성분 화상 식별자 및 유의 정보를 입력시키고, 합성 수단에는 요구 정보와 같이 소정의 전경 성분 화상을 식별하는 전경 성분 화상 식별자, 소정의 배경 성분 화상을 식별하는 배경 성분 화상 식별자 및 유의 정보에 따라 전경 성분 화상 식별자에 대응하는 전경 성분 화상과 배경 성분 화상 식별자에 대응하는 배경 성분 화상을 유의 정보에 기초하여 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보에 따라 과금에 관련한 처리를 실행하는 과금 수단을 더 설치하도록 할 수 있다.
상기 과금 수단에는 요구 정보에 따라 사용자의 식별자, 통신 장치의 식별자 및 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
과금 수단에는 상기 과금에 관련한 처리에 사용되는 사용자마다의 현금에 상당하는 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 과금에 관련한 처리가 완료된 사용자의 통신 장치에 합성 화상을 출력시키도록 할 수 있다.
본 발명의 제4 통신 방법은 사용자의 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 합성하여 합성 화상을 생성하는 합성 단계와, 합성 단계의 처리에서 생성된 합성 화상을 출력하는 합성 화상 출력 단계를 포함하는 것을 특징으로 한다.
본 발명의 제6 기록 매체의 프로그램은 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계 생성된 합성 화상의 출력을 제어하는 합성 화상 출력 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제6 프로그램은 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계 생성된 합성 화상의 출력을 제어하는 합성 화상 출력 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제3 통신 시스템은 제1 통신 장치가 사용자의 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보 입력 수단에 의해 입력된 요구 정보를 제2 통신 장치에 송신하는 요구 정보 송신 수단과, 요구 정보에 따라 제2 통신 장치로부터 송신되어 오는 합성 화상을 수신하는 합성 화상 수신 수단을 구비하고, 제2 통신 장치가 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 수단과, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하다 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 합성하여 합성 화상을 생성하는 합성 수단과, 합성 수단에 의해 생성된 합성 화상을 제1 통신 장치에 송신하는 합성 화상 송신 수단을 포함하는 것을 특징으로 한다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상, 소정의 배경 성분 화상 및 소정의 전경 성분 화상과 소정의 배경 성분 화상을 합성할 때에 사용되는 유의 정보를 입력시키고, 합성 수단에는 요구 정보 입력 수단에 의해 요구 정보와 같이 입력된 소정의 전경 성분 화상과 소정의 배경 성분 화상을 유의 정보에 기초하여 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상, 소정의 배경 성분 화상 및 소정의 전경 성분 화상과 소정의 배경 성분 화상을 합성할 때에 사용되는 유의 정보로서 소정의 전경 성분 화상과 소정의 배경 성분 화상의 혼합 영역의 혼합비를 입력시키고, 합성 수단에는 요구 정보 입력 수단에 의해 요구 정보와 같이 입력된 소정의 전경 성분 화상과 소정의 배경 성분 화상을 유의 정보로서의 혼합비에 기초하여 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상, 소정의 배경 성분 화상 및 소정의 전경 성분 화상과 소정의 배경 성분 화상을 합성할 때에 사용되는 유의 정보로서 전경 성분 화상의 움직임량 및 움직임 방향을 입력시키고, 합성 수단에는 요구 정보 입력 수단에 의해 요구 정보와 같이 입력된 소정의 전경 성분 화상을 유의 정보로서의 움직임량 및 움직임 방향에 기초하여 움직임 불선명을 조정하여 전경 성분 화상과 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상, 소정의 배경 성분 화상 및 소정의 전경 성분 화상과 소정의 배경 성분 화상을 합성할 때에 사용되는 유의 정보로서 전경 성분 화상의 초기 위치 정보, 움직임량 및 움직임 방향을 입력시키고, 합성 수단은 요구 정보 입력 수단에 의해 요구 정보와 같이 입력된 소정의 전경 성분 화상을 유의 정보로서의 움직임량 및 움직임 방향에 기초하여 움직임 불선명을 조정하여 혼합비를 산출하고 움직임 불선명이 조정된 소정의 전경 성분 화상과 소정의 배경 성분 화상을 산출된 혼합비에 의해 유의 정보로서의 전경 성분 화상의 초기 위치 정보, 움직임량 및 움직임 방향에 기초하여 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보와 함께 소정의 전경 성분 화상을 식별하는 전경 성분 화상 식별자, 소정의 배경 성분 화상을 식별하는 배경 성분 화상 식별자 및 유의 정보를 입력시키고, 합성 수단에는 요구 정보와 함께 소정의 전경 성분 화상을 식별하는 전경 성분 화상 식별자, 소정의 배경 성분 화상을 식별하는 배경 성분 화상 식별자 및 유의 정보에 따라 전경 성분 화상 식별자에 대응하는 전경 성분 화상과 배경 성분 화상 식별자에 대응하는 배경 성분 화상을 유의 정보에 기초하여 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보에 따라 과금에 관련한 처리를 실행하는 과금 수단을 더 설치하도록 할 수 있다.
상기 과금 수단에는 요구 정보에 따라 사용자의 식별자, 통신 장치의 식별자 및 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
과금 수단에는 상기 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 과금에 관련한 처리가 완료된 사용자의 통신 장치에 합성 화상을 출력시키도록 할 수 있다.
본 발명의 제3 통신 시스템의 통신 방법은 제1 통신 장치의 통신 방법이 사용자의 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보를 제2 통신 장치에 송신하는 요구 정보 송신 단계와, 요구 정보에 따라 제2 통신 장치로부터 송신되어 오는 합성 화상을 수신하는 합성 화상 수신 단계를 포함하고, 제2 통신 장치의 통신 방법이 제1 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 합성하여 합성 화상을 생성하는 합성 단계와, 합성 단계의 처리에서 생성된 합성 화상을 제1 통신 장치에 송신하는 합성 화상 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제7 기록 매체의 프로그램은 제1 통신 장치를 제어하는 프로그램이 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보의 제2 통신 장치에의 송신을 제어하는 요구 정보 송신 제어 단계와, 요구 정보에 따라 제2 통신 장치로부터 송신되어 오는 합성 화상의 수신을 제어하는 합성 화상 수신 제어 단계를 포함하고, 제2 통신 장치를 제어하는 프로그램은 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 생성된 합성 화상의 제1 통신 장치에의 송신을 제어하는 합성 화상 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제7 프로그램은 제1 통신 장치를 제어하는 컴퓨터에 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보의 제2 통신 장치에의 송신을 제어하는 요구 정보 송신 제어 단계와, 요구 정보에 따라 제2 통신 장치로부터 송신되어 오는 합성 화상의 수신을 제어하는 합성 화상 수신 제어 단계를 실행시키고, 제2 통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 생성된 합성 화상의 제1 통신 장치에의 송신을 제어하는 합성 화상 송신 제어 단계를 실행시키는 것을 특징으로 한다.
본 발명의 제5 통신 장치는 사용자의 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보 입력 수단에 의해 입력된 요구 정보를 다른 통신 장치에 송신하는 요구 정보 송신 수단과, 요구 정보에 따라 다른 통신 장치로부터 송신되어 오는 합성 화상을 수신하는 합성 화상 수신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제5 통신 방법은 사용자의 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보를 다른 통신 장치에 송신하는 요구 정보 송신 단계와, 요구 정보에 따라 다른 통신 장치로부터 송신되어 오는 합성 화상을 수신하는 합성 화상 수신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제8 기록 매체의 프로그램은 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보의 다른 통신 장치에의 송신을 제어하는 요구 정보 송신 제어 단계와, 요구 정보에 따라 다른 통신 장치로부터 송신되어 오는 합성 화상의 수신을 제어하는 합성 화상 수신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제8 프로그램은 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력된 요구 정보의 다른 통신 장치로의 송신을 제어하는 요구 정보 송신 제어 단계와, 요구 정보에 따라 다른 통신 장치로부터 송신되어 오는 합성 화상의 수신을 제어하는 합성 화상 수신 제어 단계를 실행하는 것을 특징으로 한다.
본 발명의 제6 통신 장치는 다른 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 수단과, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 합성하여 합성 화상을 생성하는 합성 수단과, 합성 수단에 의해 생성된 합성 화상을 다른 통신 장치에 송신하는 합성 화상 송신 수단을포함하는 것을 특징으로 한다.
본 발명의 제6 통신 방법은 다른 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 합성하여 합성 화상을 생성하는 합성 단계와, 합성 단계의 처리에서 생성된 합성 화상을 다른 통신 장치에 송신하는 합성 화상 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제9 기록 매체의 프로그램은 다른 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 합성하여 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 생성된 합성 화상의 다른 통신 장치에의 송신을 제어하는 합성 화상 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제9 프로그램은 다른 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 합성하여 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 생성된 합성 화상의 다른 통신 장치에의 송신을 제어하는 합성 화상 송신 제어 단계를 실행시키는 것을 특징으로 한다.
본 발명의 제7 통신 장치는 사용자의 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비를 추정하는 혼합비추정 수단과, 혼합비에 기초하여 화상 데이터를 전경 성분 화상과 배경 성분 화상으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 수단에 의해 분리된 배경 성분 화상과 임의의 전경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 수단과, 합성 수단에 의해 합성된 합성 화상을 출력하는 출력수단을 포함하는 것을 특징으로 한다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보 외에 전경 성분 화상에 대한 움직임 불선명을 부가하는 움직임 불선명 조정량을 더 입력시켜 전경 성분 화상에 대하여 움직임 불선명 조정량에 대응하는 움직임 불선명을 부가하는 움직임 불선명 부가 수단을 더 설치하도록 할 수 있고, 합성 수단에는 움직임 불선명 부가 수단에 의해 움직임 불선명이 부가된 전경 성분 화상과 임의의 배경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보 외에 임의의 배경 성분 화상을 더 입력시키고, 합성 수단에는 전경 성분 화상과 임의의 배경 성분 화상을 혼합비 추정 수단에 의해 추정된 혼합비로 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보에 따라 과금에 관련한 처리를 실행하는 과금 수단을 더 설치하도록 할 수 있다.
상기 과금 수단에는 요구 정보에 따라 사용자의 식별자, 통신 장치의 식별자 및 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
과금 수단에는 상기 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 과금에 관련한 처리가 완료된 사용자의 통신 장치에 합성 화상을 출력시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보 외에 소정의 화상 데이터를 입력시키고, 출력 수단에는 합성 수단에 의해 합성된 합성 화상을 과금 수단에 의해 과금에 관련한 처리가 완료된 후 과금에 관련한 처리가 완료된 사용자의 통신 장치에 출력시키도록 할 수 있다.
본 발명의 제7 통신 방법은 사용자의 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비를 추정하는 혼합비 추정 단계와, 혼합비에 기초하여 화상 데이터를 전경 성분 화상과 배경 성분 화상으로 분리하는 분리 단계와, 분리 단계의 처리에서 분리된 전경 성분 화상과, 임의의 배경 성분 화상, 또는, 분리 단계의 처리에서 분리된 배경 성분 화상과 임의의 전경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 단계와, 합성 단계의 처리에서 합성된 합성 화상을 출력하는 출력 단계를 포함하는 것을 특징으로 한다.
본 발명의 제10 기록 매체의 프로그램은 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비의 추정을 제어하는 혼합비 추정 제어 단계와, 혼합비에 기초하여 화상 데이터의 전경 성분 화상과 배경 성분 화상으로의 분리를 제어하는 분리 제어 단계와, 분리 제어 단계의 처리에서 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 제어 단계의 분리된 배경 성분 화상과 임의의 전경 성분 화상의 소정의 혼합비로의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 합성된 합성 화상의 출력을 제어하는 출력 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제10 프로그램은 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 혼합의 비율을 나타내는 혼합비의 추정을 제어하는 혼합비 추정 제어 단계와, 혼합비에 기초하여 화상 데이터의 전경 성분 화상과 배경 성분 화상으로의 분리를 제어하는 분리 제어 단계와, 분리 제어 단계의 처리에서 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 제어 단계의 분리된 배경 성분 화상과 임의의 전경 성분 화상의 소정의 혼합비로의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 합성된 합성 화상의 출력을 제어하는 출력 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제4 통신 시스템은 제1 통신 장치가 사용자의 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보 입력 수단에 의해 입력된 요구 정보를 제2 송신 장치에 송신하는 요구 정보 송신 수단과, 제2 통신 장치로부터 송신되어 오는 합성 화상을 수신하는 수신 수단을 구비하고, 제2 통신 장치가 제1 송신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 수단과, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비를 추정하는 혼합비 추정 수단과, 혼합비에 기초하여 화상 데이터를 전경 성분 화상과 배경 성분 화상으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 수단에 의해 분리된 배경 성분 화상과 임의의 전경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 수단과,합성 수단에 의해 합성된 합성 화상을 제1 통신 장치에 송신하는 합성 화상 송신 수단을 포함하는 것을 특징으로 한다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보 외에 전경 성분 화상에 대한 움직임 불선명을 부가하는 움직임 불선명 조정량을 더 입력시키고, 제2 통신 장치에는 전경 성분 화상에 대하여 움직임 불선명 조정량에 대응하는 움직임 불선명을 부가하는 움직임 불선명 부가 수단을 더 설치하도록 할 수 있고, 합성 수단에는 움직임 불선명 부가 수단에 의해 움직임 불선명이 부가된 전경 성분 화상과 임의의 배경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보 외에 임의의 배경 성분 화상을 더 입력시키고, 합성 수단에는 전경 성분 화상과 임의의 배경 성분 화상을 혼합비 추정 수단에 의해 추정된 혼합비로 합성시켜 합성 화상을 생성시키도록 할 수 있다.
상기 제2 통신 장치에는 요구 정보에 따라 과금에 관련한 처리를 실행하는 과금 수단을 더 설치하도록 할 수 있다.
상기 과금 수단에는 요구 정보에 따라 사용자의 식별자, 제2 통신 장치의 식별자 및 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 제2 통신 장치의 과금 수단에는 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 합성 화상 송신 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후 과금에 관련한 처리가 완료된 사용자의 제1 통신 장치에 합성 화상을 송신시키도록 할 수 있다.
상기 요구 정보 입력 수단에는 사용자의 요구 정보 외에 소정의 화상 데이터를 입력시키고, 출력 수단에는 합성 수단에 의해 합성된 합성 화상을 과금 수단에 의해 과금에 관련한 처리가 완료된 후 과금에 관련한 처리가 완료된 사용자의 제1 통신 장치에 출력시키도록 할 수 있다.
본 발명의 제4 통신 시스템의 통신 방법은 제1 통신 장치의 통신 방법이 사용자의 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보를 제2 송신 장치에 송신하는 요구 정보 송신 단계와, 제2 통신 장치로부터 송신되어 오는 합성 화상을 수신하는 수신 단계를 포함하고, 제2 통신 장치의 통신 방법이 제1 송신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비를 추정하는 혼합비 추정 단계와, 혼합비에 기초하여 화상 데이터를 전경 성분 화상과 배경 성분 화상으로 분리하는 분리 단계와, 분리 단계의 처리에서 분리된 전경 성분 화상과 임의의 배경 성분 화상 또는 분리 단계의 처리에서 분리된 배경 성분 화상과 임의의 전경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 단계와, 합성 단계의 처리에서 합성된 합성 화상을 제1 통신 장치에 송신하는 합성 화상 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제11 기록 매체의 프로그램은 제1 통신 장치를 제어하는 프로그램이 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보의 제2 송신 장치로의 송신을 제어하는 요구 정보 송신 제어 단계와, 제2 통신 장치로부터 송신되어 오는 합성 화상의 수신을 제어하는 수신 제어 단계를 포함하고, 제2 통신 장치를 제어하는 프로그램이 제1 송신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합 비율을 나타내는 혼합비의 추정을 제어하는 혼합비추정 제어 단계와, 혼합비에 기초하여 화상 데이터의 전경 성분 화상과 배경 성분 화상에의 분리를 제어하는 분리제어 단계와, 분리 제어 단계의 처리에서 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 단계의 처리에서 분리된 배경 성분 화상과 임의의 전경 성분 화상의 소정의 혼합비로의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 합성된 합성 화상의 제1 통신 장치로의 송신을 제어하는 합성 화상 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제11 프로그램은 제1 통신 장치를 제어하는 컴퓨터에 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보의 제2 송신 장치로의 송신을 제어하는 요구 정보 송신 제어 단계와, 제2 통신 장치로부터 송신되어 오는 합성 화상의 수신을 제어하는 수신 제어 단계를 실행시키고, 제2 통신 장치를 제어하는 컴퓨터에 제1 송신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 혼합 비율을 나타내는 혼합비의 추정을 제어하는 혼합비 추정 제어 단계와, 혼합비에 기초하여 화상 데이터의 전경 성분 화상과 배경 성분 화상으로의 분리를 제어하는 분리 제어 단계와, 분리 제어 단계의 처리에서 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 단계의 처리에서 분리된 배경 성분 화상과 임의의 전경 성분 화상의 소정의 혼합비로의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 합성된 합성 화상의 제1 통신 장치에의 송신을 제어하는 합성 화상 송신 제어 단계를 실행시키는 것을 특징으로 한다.
본 발명의 제8 통신 장치는 사용자의 요구 정보를 입력하는 요구 정보 입력 수단과, 요구 정보 입력 수단에 의해 입력된 요구 정보를 다른 통신 장치에 송신하는 요구 정보 송신 수단과, 다른 통신 장치로부터 송신되어 오는 합성 화상을 수신하는 수신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제8 통신 방법은 사용자의 요구 정보를 입력하는 요구 정보 입력 단계와, 요구 정보 입력 단계의 처리에서 입력된 요구 정보를 다른 통신 장치에 송신하는 요구 정보 송신 단계와, 다른 통신 장치로부터 송신되어 오는 합성 화상을 수신하는 수신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제12 기록 매체의 프로그램은 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력이 제어된 요구 정보의 다른 통신 장치에의 송신을 제어하는 요구 정보 송신 제어 단계와, 다른 통신 장치로부터 송신되어 오는 합성 화상의 수신을 제어하는 수신 제어 단계를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있다.
본 발명의 제12 프로그램은 사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와, 요구 정보 입력 제어 단계의 처리에서 입력이 제어된 요구 정보의 다른 통신 장치에의 송신을 제어하는 요구 정보 송신 제어 단계와, 다른 통신 장치로부터 송신되어 오는 합성 화상의 수신을 제어하는 수신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제9 통신 장치는 다른 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 수단과, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 혼합 비율을 나타내는 혼합비를 추정하는 혼합비 추정 수단과, 혼합비에 기초하여 화상 데이터를 전경 성분 화상과 배경 성분 화상으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 수단에 의해 분리된 배경 성분 화상과 임의의 전경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 수단과, 합성 수단에 의해 합성된 합성 화상을 다른 통신 장치에 송신하는 합성 화상 송신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제9 통신 방법은 다른 통신 장치로부터 송신되어 오는 요구 정보를 수신하는 요구 정보 수신 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비를 추정하는 혼합비 추정 단계와, 혼합비에 기초하여 화상 데이터를 전경 성분 화상과 배경 성분 화상으로 분리하는 분리 단계와, 분리 단계의 처리에서 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 단계의 처리에서 분리된 배경 성분 화상과 임의의 전경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 단계와, 합성 단계의 처리에서 합성된 합성 화상을 다른 통신 장치에 송신하는 합성 화상 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제13의 기록 매체의 프로그램은 다른 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 혼합 비율을 나타내는 혼합비의 추정을 제어하는 혼합비 추정 제어 단계와, 혼합비에 기초하여 화상 데이터를 전경 성분 화상과 배경 성분 화상의 분리를 제어하는 분리 제어 단계와, 분리 제어 단계의 처리에서 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 제어 단계의 처리에서 분리된 배경 성분 화상과 임의의 전경 성분 화상의 소정의 혼합비로의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 합성된 합성 화상의 다른 통신 장치에의 송신을 제어하는 합성 화상 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제13 프로그램은 다른 통신 장치로부터 송신되어 오는 요구 정보의 수신을 제어하는 요구 정보 수신 제어 단계와, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상의 혼합의 비율을 나타내는 혼합비의 추정을 제어하는 혼합비 추정 제어 단계와, 혼합비에 기초하여 화상 데이터를 전경 성분 화상과 배경 성분 화상의 분리를 제어하는 분리 제어 단계와, 분리 제어 단계의 처리에서 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리 제어 단계의 처리에서 분리된 배경 성분 화상과 임의의 전경 성분 화상의 소정의 혼합비로의 합성과 합성 화상의 생성을 제어하는 합성 제어 단계와, 합성 제어 단계의 처리에서 합성된 합성 화상의 다른 통신 장치에의 송신을 제어하는 합성 화상 송신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제10 통신 장치는 사용자가 요구하는 화상을 식별하는 식별자를 입력하는 화상 식별자 입력 수단과, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상 중 화상 식별자 입력 수단에 의해 입력된 화상 식별자에 대응하는 화상을 검색하는 검색 수단과, 검색 수단에 의해 검색된 화상을 사용자의 통신 장치에 출력하는 출력 수단과, 검색 수단에 의해 검색된 화상에 따라 과금에 관련한 처리를 실행하는 과금 수단을 포함하는 것을 특징으로 한다.
상기 화상을 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단을 더 설치하도록 할 수 있고, 기억 수단에는 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 기억시키도록 할 수 있다.
상기 화상이 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 소정의 혼합 비율로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 기억 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 기억시키도록 할 수 있다.
상기 화상을 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 기억 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 기억시키도록 할 수 있다.
상기 과금 수단에는 검색 수단에 의해 검색된 화상에 따라 사용자의 식별자, 통신 장치의 식별자 및 검색 수단에 의해 검색된 화상에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
과금 수단에는 상기 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 화상을 과금에 관련한 처리가 완료된 사용자의 통신 장치에 출력시키도록 할 수 있다.
본 발명의 제10 통신 방법은 사용자가 요구하는 화상을 식별하는 식별자를 입력하는 화상 식별자 입력 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 단계와, 기억 단계의 처리에서 기억된 화상 중 화상 식별자 입력 단계의 처리에서 입력된 화상 식별자에 대응하는 화상을 검색하는 검색 단계와, 검색 단계의 처리에서 검색된 화상을 사용자의 통신 장치로 출력하는 출력 단계와, 검색 단계의 처리에서 검색된 화상에 따라 과금에 관련한 처리를 실행하는 과금 단계를 포함하는 것을 특징으로 한다.
본 발명의 제14 기록 매체의 프로그램은 사용자가 요구하는 화상을 식별하는 식별자의 입력을 제어하는 화상 식별자 입력 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 화상 식별자 입력 제어 단계의 처리에서 입력이 제어된 화상 식별자에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상을 사용자의 통신 장치로 출력하는 출력 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상에 따른 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제14 프로그램은 사용자가 요구하는 화상을 식별하는 식별자의 입력을 제어하는 화상 식별자 입력 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 화상 식별자 입력 제어 단계의 처리에서 입력이 제어된 화상 식별자에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상을 사용자의 통신 장치에 출력하는 출력 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상에 따른 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 실행시키는 것을 특징으로 한다.
본 발명의 제5 통신 시스템은 제1 통신 장치가 사용자가 요구하는 화상을 식별하는 식별자를 입력하는 화상 식별자 입력 수단과, 화상 식별자를 제2 통신 장치에 송신하는 화상 식별자 송신 수단과, 화상 식별자에 대응하여 검색된 화상을 수신하는 화상 수신 수단을 구비하고, 제2 통신 장치가 제1 통신 장치로부터 송신되어 오는 화상 식별자를 수신하는 화상 식별자 수신 수단과, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상 중 화상 식별자 수신 수단에 의해 수신된 화상 식별자에 대응하는 화상을 검색하는 검색 수단과, 검색 수단에 의해 검색된 화상을 제1 통신 장치에 출력하는 출력 수단과, 검색 수단에 의해 검색된 화상에 따라 과금에 관련한 처리를 실행하는 과금 수단을 포함하는 것을 특징으로 한다.
상기 제2 통신 장치에는 화상을 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단을 더 설치하도록 할 수 있다.
상기 기억 수단에는 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 기억시키도록 할 수 있다.
상기 제2 통신 장치에는 화상이 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 소정의 혼합 비율로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 기억 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 기억시키도록 할 수 있다.
상기 제2 통신 장치에는 화상을 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상과, 배경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 기억 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 기억시키도록 할 수 있다.
상기 과금 수단에는 검색 수단에 의해 검색된 화상에 따라 사용자의 식별자, 제2 통신 장치의 식별자 및 검색 수단에 의해 검색된 화상에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 제2 통신 장치의 과금 수단에는 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 화상을 과금에 관련한 처리가 완료된 사용자의 제1 통신 장치에 출력시키도록 할 수 있다.
본 발명의 제5 통신 시스템의 통신 방법은 제1 통신 장치의 통신 방법이 사용자가 요구하는 화상을 식별하는 식별자를 입력하는 화상 식별자 입력 단계와, 화상 식별자를 제2 통신 장치에 송신하는 화상 식별자 송신 단계와, 화상 식별자에 대응하여 검색된 화상을 수신하는 화상 수신 단계를 포함하고, 제2 통신 장치의 통신 방법이 제1 통신 장치로부터 송신되어 오는 화상 식별자를 수신하는 화상 식별자 수신 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 단계와, 기억 단계의 처리에서 기억된 화상 중 화상 식별자 수신 단계의 처리에서 수신된 화상 식별자에 대응하는 화상을 검색하는 검색 단계와, 검색 단계의 처리에서 검색된 화상을 제1 통신 장치에 출력하는 출력 단계와, 검색 단계의 처리에서 검색된 화상에 따라 과금에 관련한 처리를 실행하는 과금 단계를 포함하는 것을 특징으로 한다.
본 발명의 제15 기록 매체의 프로그램은 제1 통신 장치를 제어하는 프로그램이 사용자가 요구하는 화상을 식별하는 식별자의 입력을 제어하는 화상 식별자 입력 제어 단계와, 화상 식별자의 제2 통신 장치에의 송신을 제어하는 화상 식별자 송신 제어 단계와, 화상 식별자에 대응하여 검색된 화상의 수신을 제어하는 화상 수신 제어 단계를 포함하고, 제2 통신 장치를 제어하는 프로그램이 제1 통신 장치로부터 송신되어 오는 화상 식별자의 수신을 제어하는 화상 식별자 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 화상 식별자 수신 제어 단계의 처리에서 수신이 제어된 화상 식별자에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상의 제1 통신 장치에의 출력을 제어하는 출력 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상에 따라 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제15 프로그램은 제1 통신 장치를 제어하는 컴퓨터에 사용자가 요구하는 화상을 식별하는 식별자의 입력을 제어하는 화상 식별자 입력 제어 단계와, 화상 식별자의 제2 통신 장치에의 송신을 제어하는 화상 식별자 송신 제어 단계와, 화상 식별자에 대응하여 검색된 화상의 수신을 제어하는 화상 수신 제어 단계를 실행시키고, 제2 통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 화상 식별자의 수신을 제어하는 화상 식별자 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 화상 식별자 수신 제어 단계의 처리에서 수신이 제어된 화상 식별자에 대응하는화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상의 제1 통신 장치에의 출력을 제어하는 출력 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상에 따라 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 실행시키는 것을 특징으로 한다.
본 발명의 제11 통신 장치는 사용자가 요구하는 화상을 식별하는 식별자를 입력하는 화상 식별자 입력 수단과, 화상 식별자를 다른 통신 장치에 송신하는 화상 식별자 송신 수단과, 화상 식별자에 대응하여 검색된 화상을 수신하는 화상 수신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제11 통신 방법은 사용자가 요구하는 화상을 식별하는 식별자를 입력하는 화상 식별자 입력 단계와, 화상 식별자를 다른 통신 장치에 송신하는 화상 식별자 송신 단계와, 화상 식별자에 대응하여 검색된 화상을 수신하는 화상 수신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제16 기록 매체의 프로그램은 사용자가 요구하는 화상을 식별하는 식별자의 입력을 제어하는 화상 식별자 입력 제어 단계와, 화상 식별자의 다른 통신 장치에의 송신을 제어하는 화상 식별자 송신 제어 단계와, 화상 식별자에 대응하여 검색된 화상의 수신을 제어하는 화상 수신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제16 프로그램은 사용자가 요구하는 화상을 식별하는 식별자의 입력을 제어하는 화상 식별자 입력 제어 단계와, 화상 식별자의 다른 통신 장치에의 송신을 제어하는 화상 식별자 송신 제어 단계와, 화상 식별자에 대응하여 검색된화상의 수신을 제어하는 화상 수신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제12 통신 장치는 다른 통신 장치로부터 송신되어 오는 화상 식별자를 수신하는 화상 식별자 수신 수단과, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상 중 화상 식별자 수신 수단에 의해 수신된 화상 식별자에 대응하는 화상을 검색하는 검색 수단과, 검색 수단에 의해 검색된 화상을 다른 통신 장치에 출력하는 출력 수단과, 검색 수단에 의해 검색된 화상에 따라 과금에 관련한 처리를 실행하는 과금 수단을 포함하는 것을 특징으로 한다.
본 발명의 제12 통신 방법은 다른 통신 장치로부터 송신되어 오는 화상 식별자를 수신하는 화상 식별자 수신 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 단계와,기억 단계의 처리에서 기억된 화상 중 화상 식별자 수신 단계의 처리에서 수신된 화상 식별자에 대응하는 화상을 검색하는 검색 단계와, 검색 단계의 처리에서 검색된 화상을 다른 통신 장치에 출력하는 출력 단계와, 검색 단계의 처리에서 검색된 화상에 따라 과금에 관련한 처리를 실행하는 과금 단계를 포함하는 것을 특징으로 한다.
본 발명의 제17 기록 매체의 프로그램은 다른 통신 장치로부터 송신되어 오는 화상 식별자의 수신을 제어하는 화상 식별자 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 화상 식별자 수신 제어 단계의 처리에서 수신이 제어된 화상 식별자에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상의 다른 통신 장치에의 출력을 제어하는 출력 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상에 따라 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제17의 프로그램은 다른 통신 장치로부터 송신되어 오는 화상 식별자의 수신을 제어하는 화상 식별자 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 화상 식별자 수신 제어 단계의 처리에서 수신이 제어된 화상 식별자에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상의 다른 통신 장치에의 출력을 제어하는 출력 제어 단계와, 검색 제어 단계의 처리에서 검색이 제어된 화상에 따라 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제13 통신 장치는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 입력하는 입력 수단과, 입력 수단에 의해 입력된 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상에 따라 불입 처리를 실행하는 불입 수단을 포함하는 것을 특징으로 한다.
상기 화상을 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단을 더 설치하도록 할 수 있고, 입력 수단에는 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 입력시키도록 할 수 있다.
상기 화상이 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 소정의 혼합 비율로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 입력 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 입력시키도록 할 수 있다.
상기 화상을 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 입력 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 입력시키도록 할 수 있다.
본 발명의 제13 통신 방법은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 입력하는 입력 단계와, 입력 단계의 처리에서 입력된 화상을 기억하는 기억 단계와, 기억 단계의 처리에서 기억된 화상에 따라 불입 처리를 실행하는 불입 단계를 포함하는 것을 특징으로 한다.
본 발명의 제18 기록 매체의 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 입력을 제어하는 입력 제어 단계와, 입력 제어 단계의 처리에서 입력이 제어된 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상에 따라 불입 처리의 실행을 제어하는 불입 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제18 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 입력을 제어하는 입력 제어 단계와, 입력 제어 단계의 처리에서 입력이 제어된 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상에 따라 불입 처리의 실행을 제어하는 불입 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제6 통신 시스템은 제1 통신 장치가 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 입력하는 입력 수단과, 입력 수단에 의해 입력된 화상을 제2 통신 장치에 송신하는 화상 송신 수단을 구비하고, 제2 통신 장치가 제1 통신 장치로부터 송신되어 오는 화상을 수신하는 화상 수신 수단과, 화상 수신 수단에 의해 수신된 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상에 따라 불입 처리를 실행하는 불입 수단을 포함하는 것을 특징으로 한다.
상기 제1 통신 장치에는 화상을 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단을 더 설치하도록 할 수 있고, 입력 수단에는 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 입력시키도록 할 수 있다.
상기 제1 통신 장치에는 화상이 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 소정의 혼합 비율로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 입력 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 입력시키도록 할 수 있다.
상기 제1 통신 장치에는 화상을 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 소정의 혼합비로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 입력 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 입력시키도록 할 수 있다.
본 발명의 제6 통신 시스템의 통신 방법은 제1 통신 장치의 통신 방법이 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 입력하는 입력 단계와, 입력 단계의 처리에서 입력된 화상을 제2 통신 장치에 송신하는 화상 송신 단계를 포함하고, 제2 통신 장치의 통신 방법이 제1 통신 장치로부터 송신되어 오는 화상을 수신하는 화상 수신 단계와, 화상 수신 단계의 처리에서 수신된 화상을 기억하는 기억 단계와, 기억 단계의 처리에서 기억된 화상에 따라 불입 처리를 실행하는 불입 단계를 포함하는 것을 특징으로 한다.
본 발명의 제19 기록 매체의 프로그램은 제1 통신 장치를 제어하는 프로그램이 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 입력을 제어하는 입력 제어 단계와, 입력 제어 단계의 처리에서 입력이 제어된 화상의 제2 통신 장치에의 송신을 제어하는 화상 송신 제어 단계를 포함하고, 제2 통신 장치를 제어하는 프로그램이 제1 통신 장치로부터 송신되어 오는 화상의 수신을 제어하는 화상 수신 제어 단계와, 화상 수신 제어 단계의 처리에서 수신이 제어된 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상에 따른 불입 처리의 실행을 제어하는 불입 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제19 프로그램은 제1 통신 장치를 제어하는 컴퓨터에 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 입력을 제어하는 입력 제어 단계와, 입력 제어 단계의 처리에서 입력이 제어된 화상의 제2 통신 장치에의 송신을 제어하는 화상 송신 제어 단계를 실행시키고, 제2통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 화상의 수신을 제어하는 화상 수신 제어 단계와, 화상 수신 제어 단계의 처리에서 수신이 제어된 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상에 따른 불입 처리의 실행을 제어하는 불입 제어 단계를 실행시키는 것을 특징으로 한다.
본 발명의 제14 통신 장치는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 입력하는 입력 수단과, 입력 수단에 의해 입력된 화상을 다른 통신 장치에 송신하는 화상 송신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제14 통신 방법은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 입력하는 입력 단계와, 입력 단계의 처리에서 입력된 화상을 다른 통신 장치에 송신하는 화상 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제20 기록 매체의 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라서 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 입력을 제어하는 입력 제어 단계와, 입력 제어 단계의 처리에서 입력이 제어된 화상의 다른 통신 장치에의 송신을 제어하는 화상 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제20 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 입력을 제어하는 입력 제어 단계와, 입력 제어 단계의 처리에서 입력이 제어된 화상의 다른 통신 장치에의 송신을 제어하는 화상 송신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제15 통신 장치는 다른 통신 장치로부터 송신되어 오는 화상을 수신하는 화상 수신 수단과, 화상 수신 수단에 의해 수신된 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상에 따라 불입 처리를 실행하는 불입 수단을 포함하는 것을 특징으로 한다.
본 발명의 제15 통신 방법은 다른 통신 장치로부터 송신되어 오는 화상을 수신하는 화상 수신 단계와, 화상 수신 단계의 처리에서 수신된 화상을 기억하는 기억 단계와, 기억 단계의 처리에서 기억된 화상에 따라 불입 처리를 실행하는 불입 단계를 구비하는 것을 특징으로 한다.
본 발명의 제21 기록 매체의 프로그램은 다른 통신 장치로부터 송신되어 오는 화상의 수신을 제어하는 화상 수신 제어 단계와, 화상 수신 제어 단계의 처리에서 수신이 제어된 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상에 따라 불입 처리의 실행을 제어하는 불입 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제21 프로그램은 다른 통신 장치로부터 송신되어 오는 화상의 수신을 제어하는 화상 수신 제어 단계와, 화상 수신 제어 단계의 처리에서 수신이 제어된 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상에 따라 불입 처리의 실행을 제어하는 불입 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제16 통신 장치는 사용자의 검색 요구 정보를 입력하는 검색 요구 정보 입력 수단과, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상 중 검색 요구 정보 입력 수단에 의해 입력된 검색 요구 정보에 대응하는 화상을 검색하는 검색 수단과, 검색 수단의 검색 결과를 출력하는 출력 수단과, 검색 결과에 대응하여 과금에 관련한 처리를 실행하는 과금 수단을 포함하는 것을 특징으로 한다.
상기 기억 수단은 각각에 화상을 촬상하는 촬상 장치가 설치되고 촬상 장치에 의해 촬상되는 화상을 소정의 시간 간격으로 갱신하여 저장하고 있는 무선, 또는 유선으로 통신 가능한 복수의 화상 저장부에 의해 구성되도록 할 수 있다.
상기 검색 요구 정보에는 전경 오브젝트를 지정하는 정보를 포함하게 하도록 할 수 있고, 기억 수단에는 복수의 화상 저장부에 설치된 촬상 장치를 식별하는 식별자와 대응하는 화상 저장부에 저장되어 있는 화상의 오브젝트와의 관계를 나타내는 데이터 베이스를 더 설치하도록 할 수 있고, 검색 수단에는 데이터 베이스를 참조하여 기억 수단에 기억된 화상 중 검색 요구 정보 입력 수단에 의해 입력된 전경 오브젝트를 지정하는 정보에 대응하는 화상을 검색시키도록 할 수 있다.
상기 화상의 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단을 더 설치하도록 할 수 있고, 기억 수단에는 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 기억시키도록 할 수 있다.
상기 화상의 화상 데이터로부터 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 소정의 혼합 비율로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 기억 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 기억시키도록 할 수 있다.
상기 화상의 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 소정의 혼합 비율로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 기억 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 기억시키도록 할 수 있다.
상기 출력 수단에는 검색 결과로서 검색 요구 정보에 대응하는 화상의 유무, 또는, 검색 요구 정보에 대응하는 화상의 유무와 같이 검색된 화상을 출력시키고, 과금 수단에는 출력 수단에 의해 출력된 검색 결과에 기초하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 과금 수단에는 검색 요구 정보에 따라 사용자의 식별자, 통신 장치의 식별자 및 검색 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 출력 수단에 의해 출력된 검색 결과에 기초하여 과금에 관련한 처리를 실행시키도록할 수 있다.
과금 수단에는 상기 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 과금에 관련한 처리가 완료된 사용자의 통신 장치로 검색 결과를 출력시키도록 할 수 있다.
본 발명의 제16 통신 방법은 사용자의 검색 요구 정보를 입력하는 검색 요구 정보 입력 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 단계와, 기억 단계의 처리에서 기억된 화상 중 검색 요구 정보 입력 단계의 처리에서 입력된 검색 요구 정보에 대응하는 화상을 검색하는 검색 단계와, 검색 단계의 처리에서의 검색 결과를 출력하는 출력 단계와, 검색 결과에 대응하여 과금에 관련한 처리를 실행하는 과금 단계를 포함하는 것을 특징으로 한다.
본 발명의 제22 기록 매체 프로그램은 사용자의 검색 요구 정보의 입력을 제어하는 검색 요구 정보 입력 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 검색 요구 정보 입력 제어 단계의 처리에서 입력이 제어된 검색 요구 정보에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서의 검색 결과의 출력을 제어하는 출력 제어 단계와, 검색 결과에 대응하여 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제22 프로그램은 사용자의 검색 요구 정보의 입력을 제어하는 검색 요구 정보 입력 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 검색 요구 정보 입력 제어 단계의 처리에서 입력이 제어된 검색 요구 정보에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서의 검색 결과의 출력을 제어하는출력 제어 단계와, 검색 결과에 대응하여 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제7 통신 시스템은 제1 통신 장치가 사용자의 검색 요구 정보를 입력하는 검색 요구 정보 입력 수단과, 검색 요구 정보를 제2 통신 장치로 송신하는 검색 요구 정보 송신 수단과, 제2 통신 장치로부터 송신되어 오는 검색 결과를 수신하는 검색 결과 수신 수단을 구비하고, 제2 통신 장치가 제1 통신 장치로부터 송신되어 오는 검색 요구 정보를 수신하는 검색 요구 정보 수신 수단과, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상 중 검색 요구 정보 수신 수단에 의해 수신된 검색 요구 정보에 대응하는 화상을 검색하는 검색 수단과, 검색 수단의 검색 결과를 제1 통신 장치로 송신하는 검색 결과 송신 수단과, 검색 결과에 대응하여 과금에 관련한 처리를 실행하는 과금 수단을 포함하는 것을 특징으로 한다.
상기 기억 수단은 각각에 화상을 촬상 하는 촬상 장치가 설치되고 촬상 장치에 의해 촬상되는 화상을 소정의 시간 간격으로 갱신하여 저장하고 있는 무선, 또는 유선으로 통신 가능한 복수의 화상 저장부에 의해 구성되도록 할 수 있다.
상기 검색 요구 정보에는 전경 오브젝트를 지정하는 정보를 포함하게 하도록 할 수 있고, 기억 수단에는 복수의 화상 저장부에 설치된 촬상 장치를 식별하는 식별자와 대응하는 화상 저장부에 저장되어 있는 화상의 오브젝트와의 관계를 나타내는 데이터 베이스를 더 설치하도록 하고, 검색 수단에는 데이터 베이스를 참조하여 기억 수단에 기억된 화상 중 검색 요구 정보 입력 수단에 의해 입력된 전경 오브젝트를 지정하는 정보에 대응하는 화상을 검색시키도록 할 수 있다.
상기 제2 통신 장치에는 화상의 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단을 더 설치하도록 할 수 있고, 기억 수단에는 분리 수단에 의해 분리된 전경 성분 화상과 배경 성분 화상을 기억시키도록 할 수 있다.
상기 제2 통신 장치에는 화상의 화상 데이터로부터 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 소정의 혼합 비율로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 기억 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 기억시키도록 할 수 있다.
상기 제2 통신 장치에는 화상의 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과, 분리수단에 의해 분리된 전경 성분 화상과, 배경 성분 화상을 소정의 혼합 비율로 합성하여 합성 화상을 생성하는 합성 화상 생성 수단을 더 설치하도록 할 수 있고, 기억 수단에는 합성 화상 생성 수단에 의해 생성된 합성 화상을 기억시키도록 할 수 있다.
상기 출력 수단에는 검색결과로서 검색 요구 정보에 대응하는 화상의 유무, 또는, 검색 요구 정보에 대응하는 화상의 유무와 같이 검색된 화상을 출력시키고, 과금 수단에는 출력 수단에 의해 출력된 검색 결과에 기초하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 과금 수단에는 검색 요구 정보에 따라 사용자의 식별자, 통신 장치의 식별자 및 검색 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 출력 수단에 의해 출력된 검색 결과에 기초하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 제2 통신 장치의 과금 수단에는 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 과금에 관련한 처리가 완료된 사용자의 통신 장치에 검색 결과를 출력시키도록 할 수 있다.
본 발명의 제7 통신 시스템의 통신 방법은 제1 통신 장치의 통신 방법이 사용자의 검색 요구 정보를 입력하는 검색 요구 정보 입력 단계와, 검색 요구 정보를 제2 통신 장치로 송신하는 검색 요구 정보 송신 단계와, 제2 통신 장치로부터 송신되어 오는 검색 결과를 수신하는 검색 결과 수신 단계를 포함하고, 제2 통신 장치의 통신 방법이 제1 통신 장치로부터 송신되어 오는 검색 요구 정보를 수신하는 검색 요구 정보 수신 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라서 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 단계와, 기억 단계의 처리에서 기억된 화상 중 검색 요구 정보 수신 단계의 처리에서 수신된 검색 요구 정보에 대응하는 화상을 검색하는 검색 단계와, 검색 단계의 처리에서의 검색 결과를 제1 통신 장치로 송신하는 검색 결과 송신 단계와, 검색 결과에 대응하여 과금에 관련한 처리를 실행하는 과금 단계를 포함하는 것을 특징으로 한다.
본 발명의 제23 기록 매체의 프로그램은 제1 통신 장치를 제어하는 프로그램이 사용자의 검색 요구 정보의 입력을 제어하는 검색 요구 정보 입력 제어 단계와, 검색 요구 정보의 제2 통신 장치에의 송신을 제어하는 검색 요구 정보 송신 제어 단계와, 제2 통신 장치로부터 송신되어 오는 검색 결과의 수신을 제어하는 검색 결과 수신 제어 단계를 포함하고, 제2 통신 장치를 제어하는 프로그램이 제1 통신 장치로부터 송신되어 오는 검색 요구 정보의 수신을 제어하는 검색 요구 정보 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억된 화상 중 검색 요구 정보 수신 제어 단계의 처리에서 수신된 검색 요구 정보에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서의 검색 결과의 제1 통신 장치에의 송신을 제어하는 검색 결과 송신 제어 단계와, 검색 결과에 대응하여 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제23 프로그램은 제1 통신 장치를 제어하는 컴퓨터에 사용자의 검색 요구 정보의 입력을 제어하는 검색 요구 정보 입력 제어 단계와, 검색 요구 정보의 제2 통신 장치에의 송신을 제어하는 검색 요구 정보 송신 제어 단계와, 제2 통신 장치로부터 송신되어 오는 검색 결과의 수신을 제어하는 검색 결과 수신 제어 단계를 실행시키고, 제2 통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 검색 요구 정보의 수신을 제어하는 검색 요구 정보 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억된 화상 중 검색 요구 정보 수신 제어 단계의 처리에서 수신된 검색 요구 정보에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서의 검색 결과의 제1 통신 장치에의 송신을 제어하는 검색 결과 송신 제어 단계와, 검색 결과에 대응하여 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 실행시키는 것을 특징으로 한다.
본 발명의 제17 통신 장치는 사용자의 검색 요구 정보를 입력하는 검색 요구 정보 입력 수단과, 검색 요구 정보를 다른 통신 장치로 송신하는 검색 요구 정보 송신 수단과, 다른 통신 장치로부터 송신되어 오는 검색 결과를 수신하는 검색 결과 수신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제17 통신 방법은 사용자의 검색 요구 정보를 입력하는 검색 요구 정보 입력 단계와, 검색 요구 정보를 다른 통신 장치로 송신하는 검색 요구 정보 송신 단계와, 다른 통신 장치로부터 송신되어 오는 검색 결과를 수신하는 검색 결과 수신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제24 기록 매체의 프로그램은 사용자의 검색 요구 정보의 입력을 제어하는 검색 요구 정보 입력 제어 단계와, 검색 요구 정보의 다른 통신 장치에의 송신을 제어하는 검색 요구 정보 송신 제어 단계와, 다른 통신 장치로부터 송신되어 오는 검색 결과의 수신을 제어하는 검색 결과 수신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제24 프로그램은 사용자의 검색 요구 정보의 입력을 제어하는 검색 요구 정보 입력 제어 단계와, 검색 요구 정보의 다른 통신 장치에의 송신을 제어하는 검색 요구 정보 송신 제어 단계와, 다른 통신 장치로부터 송신되어 오는 검색 결과의 수신을 제어하는 검색 결과 수신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제18 통신 장치는 다른 통신 장치로부터 송신되어 오는 검색 요구 정보를 수신하는 검색 요구 정보 수신 수단과, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 수단과, 기억 수단에 기억된 화상 중 검색 요구 정보 수신 수단에 의해 수신된 검색 요구 정보에 대응하는 화상을 검색하는 검색 수단과, 검색 수단의 검색 결과를 다른 통신 장치로 송신하는 검색 결과 송신 수단과, 검색 결과에 대응하여 과금에 관련한 처리를 실행하는 과금 수단을 포함하는 것을 특징으로 한다.
본 발명의 제18 통신 장치는 다른 통신 장치로부터 송신되어 오는 검색 요구 정보를 수신하는 검색 요구 정보 수신 단계와, 각각 시간 적분 효과를 갖는 소정수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상을 기억하는 기억 단계와, 기억 단계의 처리에서 기억된 화상 중 검색 요구 정보 수신 단계의 처리에서 수신된 검색 요구 정보에 대응하는 화상을 검색하는 검색 단계와, 검색 단계의 처리에서 검색 결과를 다른 통신 장치로 송신하는 검색 결과 송신 단계와, 검색 결과에 대응하여 과금에 관련한 처리를 실행하는 과금 단계를 포함하는 것을 특징으로 한다.
본 발명의 제25 기록 매체의 프로그램은 다른 통신 장치로부터 송신되어 오는 검색 요구 정보의 수신을 제어하는 검색 요구 정보 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 검색 요구 정보 수신 제어 단계의 처리에서 수신이 제어된 검색 요구 정보에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서 제어된 검색 결과의 다른 통신 장치에의 송신을 제어하는 검색 결과 송신 제어 단계와, 검색 결과에 대응하여 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제25 프로그램은 다른 통신 장치로부터 송신되어 오는 검색 요구 정보의 수신을 제어하는 검색 요구 정보 수신 제어 단계와, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상의 기억을 제어하는 기억 제어 단계와, 기억 제어 단계의 처리에서 기억이 제어된 화상 중 검색 요구 정보 수신 제어 단계의 처리에서 수신이 제어된 검색 요구 정보에 대응하는 화상의 검색을 제어하는 검색 제어 단계와, 검색 제어 단계의 처리에서 검색 결과의 다른 통신 장치에의 송신을 제어하는 검색 결과 송신 제어 단계와, 검색 결과에 대응하여 과금에 관련한 처리의 실행을 제어하는 과금 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제19 통신 장치는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는전경 성분 화상 식별 정보를 입력하는 전경 성분 화상 식별 정보 입력 수단과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보를 입력하는 배경 성분 화상 식별 정보 입력 수단과, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성하는 화상 위치 정보 생성 수단과, 화상 위치 정보 생성 수단에 의해 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 출력하는 출력 수단을 포함하는 것을 특징으로 한다.
상기 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로부터 전경 성분 화상과 배경 성분 화상이 혼합된 영역의 혼합비를 생성하는 혼합비 생성 수단과, 혼합비에 의해 화상 데이터를 전경 성분 화상과 배경 성분 화상으로 분리하는 분리 수단과, 전경 성분 화상에 기초하여 전경 성분 화상 식별 정보를 배경 성분 화상에 기초하여 배경 성분 화상 식별 정보를 각각 생성하는 식별 정보 생성 수단과, 식별 정보 생성 수단에 의해 생성된 전경 성분 화상 식별 정보를 전경 성분 화상 식별 정보 입력 수단에, 식별 정보 생성 수단에 의해 생성된 배경 성분 화상 식별 정보를 배경 성분 화상 식별 정보 입력 수단에 각각 공급하는 식별 정보 공급 수단을 더 설치하도록 시킬 수 있다.
상기 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상과 배경 성분화상을 소정의 위치에 저장시키는 저장 수단과, 저장 수단에 의해 저장된 화상 데이터를 전경 성분 화상과 배경 성분 화상의 각각의 위치 정보를 기억하는 위치 정보 기억 수단을 더 설치하도록 시킬 수 있고, 화상 위치 정보 생성 수단에는 위치 정보 기억 수단에 의해 기억된 전경 성분 화상과 배경 성분 화상이 저장되어 있는 위치 정보에 기초하여 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성시키도록 할 수 있다.
상기 저장 수단에는 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상과 배경 성분 화상을 네트워크를 개재하여 접속되는 다른 통신 장치에 저장시키고, 위치 정보 기억 수단에는 저장 수단에 의해 네트워크를 개재하여 접속되는 다른 통신 장치상에 저장된 화상 데이터를 전경 성분 화상과 배경 성분 화상의 각각의 네트워크 상의 위치 정보를 기억시키고, 화상 위치 정보 생성 수단에는 위치 정보 기억 수단에 의해 기억된 전경 성분 화상과 배경 성분 화상이 저장되어 있는 네트워크 상의 위치 정보에 기초하여 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성시키도록 할 수 있다.
상기 저장 수단에는 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상과 배경 성분 화상을 각각에 대응하는 식별자와 같이 소정의 위치에 저장시키도록 할 수 있다.
상기 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상 및 배경 성분화상의 각각의 식별자와 저장 수단에 의해 이미 저장되어 있는 전경 성분 화이거나 또는 배경 성분 화상의 식별자와 비교하는 비교 수단을 더 설치하도록 시킬 수 있고, 비교 수단에 의한 비교 결과에 기초하여 저장 수단에는 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상 및 배경 성분 화상을 각각에 대응하는 식별자와 같이 소정의 위치에 저장시키도록 할 수 있다.
상기 비교 수단에 의한 비교 결과가 일치한 경우 화상 위치 정보 생성 수단에는 위치 정보 기억 수단에 의해 기억된 이미 저장되어 있는 전경 성분 화상, 또는 배경 성분 화상의 위치 정보에 기초하여 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성시키도록 할 수 있다.
상기 전경 성분 화상 식별 정보 입력 수단에는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 전경 성분 화상 식별 정보로서 입력시키고, 배경 성분 화상 식별 정보 입력 수단에는 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 배경 성분 화상 식별 정보로서 입력시키도록 할 수 있다.
상기 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 출력에 대응한 과금에 관련한 처리를 실행하는 과금 수단을 더 설치하도록 시킬 수 있다.
상기 과금 수단에는 사용자의 식별자, 자기의 식별자 및 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 출력에 대응하는 금액 정보를 포함하는 과금 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 과금 수단에는 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 사용자에게만 취득 가능한 방법으로 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 출력시키도록 할 수 있다.
본 발명의 제19 통신 방법은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라서 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보를 입력하는 전경 성분 화상 식별 정보 입력 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보를 입력하는 배경 성분 화상 식별 정보 입력 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성하는 화상 위치 정보 생성 단계와, 화상 위치 정보 생성 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 출력하는 출력 단계를 포함하는 것을 특징으로 한다.
본 발명의 제26 기록 매체의 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보의 입력을 제어하는 전경 성분 화상 식별 정보 입력 제어 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보의 입력을 제어하는 배경 성분 화상 식별 정보 입력 제어 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는, 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 생성을 제어하는 화상 위치 정보 생성 제어 단계와, 화상 위치 정보 생성 제어 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 출력을 제어하는 출력 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제26 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보의 입력을 제어하는 전경 성분 화상 식별 정보 입력 제어 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보의 입력을 제어하는 배경 성분 화상 식별 정보 입력 제어 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 생성을 제어하는 화상 위치 정보 생성 제어 단계와, 화상 위치 정보 생성 제어 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 출력을 제어하는 출력 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제8 통신 시스템은 제1 통신 장치가 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보를 입력하는 전경 성분 화상 식별 정보 입력 수단과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보를 입력하는 배경 성분 화상 식별 정보 입력 수단과, 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보를 제2 통신 장치로 송신하는 제1 송신 수단과, 제2 통신 장치로부터 송신되어 오는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 수신하는 위치 정보 수신 수단을 구비하고, 제2 통신 장치가 제1 통신 장치로부터 송신되어 오는 전경 성분 화상 식별 정보를 수신하는 전경 성분 화상 식별 정보 수신 수단과, 제1 통신 장치로부터 송신되어 오는 배경 성분 화상 식별 정보를 수신하는 배경 성분 화상 식별 정보 수신 수단과, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성하는 화상 위치 정보 생성 수단과, 화상 위치 정보 생성 수단에 의해 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 제1 통신 장치로 송신하는 제2 송신 수단을 포함하는 것을 특징으로 한다.
상기 제2 통신 장치에는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터로부터 전경 성분 화상과 배경 성분 화상이 혼합된 영역의 혼합비를 생성하는 혼합비 생성 수단과, 혼합비에 의해 화상 데이터를 전경 성분 화상과 배경 성분 화상으로 분리하는 분리 수단과, 전경 성분 화상에 기초하여 전경 성분 화상 식별 정보를 배경 성분 화상에 기초하여 배경 성분 화상 식별 정보를 각각 생성하는 식별 정보 생성 수단과, 식별 정보 생성 수단에 의해 생성된 전경 성분 화상 식별 정보를 전경 성분 화상 식별 정보 입력 수단에, 식별 정보 생성 수단에 의해 생성된 배경 성분 화상 식별 정보를 배경 성분 화상 식별 정보 입력 수단에, 각각 공급하는 식별 정보 공급 수단을 더 설치하도록 시킬 수 있다.
상기 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상과 배경 성분 화상을 소정의 위치에 저장시키는 저장 수단과, 저장 수단에 의해 저장된 화상 데이터를 전경 성분 화상과 배경 성분 화상의 각각의 위치 정보를 기억하는 위치 정보 기억 수단을 더 설치하도록 시킬 수 있고, 화상 위치 정보 생성 수단에는 위치 정보 기억 수단에 의해 기억된 전경 성분 화상과 배경 성분 화상이 저장되어 있는위치 정보에 기초하여 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성시키도록 할 수 있다.
상기 저장 수단에는 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상과 배경 성분 화상을 네트워크를 개재하여 접속되는 다른 통신 장치에 저장시키고, 위치 정보 기억 수단에는 저장 수단에 의해 네트워크를 개재하여 접속되는 다른 통신 장치상에 저장된 화상 데이터를 전경 성분 화상과 배경 성분 화상의 각각의 네트워크 상의 위치 정보를 기억시키고, 화상 위치 정보 생성 수단에는 위치 정보 기억 수단에 의해 기억된 전경 성분 화상과 배경 성분 화상이 저장되어 있는 네트워크 상의 위치 정보에 기초하여 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성시키도록 할 수 있다.
상기 저장 수단에는 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상과 배경 성분 화상을 각각에 대응하는 식별자와 같이 소정의 위치에 저장시키도록 할 수 있다.
상기 제2 통신 수단에는 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상 및 배경 성분 화상의 각각의 식별자와, 저장 수단에 의해 이미 저장되어 있는 전경 성분 화상이거나 또는, 배경 성분 화상의 식별자와 비교하는 비교 수단을 더 설치하도록 시킬 수 있고, 비교 수단에 의한 비교 결과에 기초하여 저장 수단은 분리 수단에 의해 화상 데이터가 분리된 전경 성분 화상 및 배경 성분 화상을 각각에대응하는 식별자와 같이 소정의 위치에 저장시키도록 할 수 있다.
상기 비교 수단에 의한 비교 결과가 일치한 경우, 화상 위치 정보 생성 수단에는 위치 정보 기억 수단에 의해 기억된 이미 저장되어 있는 전경 성분 화상, 또는 배경 성분 화상의 위치 정보에 기초하여 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성시키도록 할 수 있다.
상기 전경 성분 화상 식별 정보 입력 수단에는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 전경 성분 화상 식별 정보로서 입력시키고, 배경 성분 화상 식별 정보 입력 수단에는 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 배경 성분 화상 식별 정보로서 입력시키도록 할 수 있다.
상기 제2 통신 수단에는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 출력에 대응한 과금에 관련한 처리를 실행하는 과금 수단을 더 설치하도록 시킬 수 있다.
상기 과금 수단에는 사용자의 식별자, 제2 통신 장치의 식별자 및 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 출력에 대응하는 금액 정보를 포함하는 과금에 관련한 정보를 생성시키도록 할 수 있다.
상기 과금 수단에는 과금 정보에 기초하여 사용자의 금융 계좌에 대하여 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 과금 수단에는 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행시키도록 할 수 있다.
상기 출력 수단에는 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 과금에 관련한 처리가 완료된 사용자에게 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 출력시키도록 할 수 있다.
본 발명의 제8 통신 시스템의 통신 방법은 제1 통신 장치의 통신 방법이 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라서 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보를 입력하는 전경 성분 화상 식별 정보 입력 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보를 입력하는 배경 성분 화상 식별 정보 입력 단계와, 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보를 제2 통신 장치로 송신하는 제1 송신 단계와, 제2 통신 장치로부터 송신되어 오는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 수신하는 위치 정보 수신 단계를 포함하고, 제2 통신 장치의 통신 방법이 제1 통신 장치로부터 송신되어 오는 전경 성분 화상 식별 정보를 수신하는 전경 성분 화상 식별 정보 수신 단계와, 제1 통신 장치로부터 송신되어 오는 배경 성분 화상 식별 정보를 수신하는 배경 성분 화상 식별 정보 수신 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성하는 화상 위치 정보 생성 단계와, 화상 위치 정보 생성 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 제1 통신 장치로 송신하는 제2 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제27 기록 매체의 프로그램은 제1 통신 장치를 제어하는 프로그램이 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보의 입력을 제어하는 전경 성분 화상 식별 정보 입력 제어 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보의 입력을 제어하는 배경 성분 화상 식별 정보 입력 제어 단계와, 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보를 제2 통신 장치의 송신을 제어하는 제1 송신 제어 단계와, 제2 통신 장치로부터 송신되어 오는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 수신을 제어하는 위치 정보 수신 제어 단계를 포함하고, 제2 통신 장치를 제어하는 프로그램이 제1 통신 장치로부터 송신되어 오는 전경 성분 화상 식별 정보의 수신을 제어하는 전경 성분 화상 식별 정보 수신 제어 단계와, 제1 통신 장치로부터 송신되어 오는 배경 성분 화상 식별 정보의 수신을 제어하는 배경 성분 화상 식별 정보 수신 제어 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상위치 정보 및 배경 성분 화상 위치 정보의 생성을 제어하는 화상 위치 정보 생성 제어 단계와, 화상 위치 정보 생성 제어 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 제1 통신 장치에의 송신을 제어하는 제2 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제27 프로그램은 제1 통신 장치를 제어하는 컴퓨터에 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라서 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보의 입력을 제어하는 전경 성분 화상 식별 정보 입력 제어 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보의 입력을 제어하는 배경 성분 화상 식별 정보 입력 제어 단계와, 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보를 제2 통신 장치의 송신을 제어하는 제1 송신 제어 단계와, 제2 통신 장치로부터 송신되어 오는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 수신을 제어하는 위치 정보 수신 제어 단계를 실행시키고, 제2 통신 장치를 제어하는 컴퓨터에 제1 통신 장치로부터 송신되어 오는 전경 성분 화상 식별 정보의 수신을 제어하는 전경 성분 화상 식별 정보 수신 제어 단계와, 제1 통신 장치로부터 송신되어 오는 배경 성분 화상 식별 정보의 수신을 제어하는 배경 성분 화상 식별 정보 수신 제어 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 생성을 제어하는 화상 위치 정보 생성 제어 단계와, 화상 위치 정보 생성 제어 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 제1 통신 장치에의 송신을 제어하는 제2 송신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제20 통신 장치는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보를 입력하는 전경 성분 화상 식별 정보 입력 수단과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보를 입력하는 배경 성분 화상 식별 정보 입력 수단과, 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보를 네트워크를 통해 다른 통신 장치로 송신하는 송신 수단과, 네트워크를 통해 다른 통신 장치로부터 송신되어 오는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 수신하는 위치 정보 수신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제20 통신 방법은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보를 입력하는 전경 성분 화상 식별 정보 입력 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보를 입력하는 배경 성분 화상 식별 정보 입력 단계와, 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보를 네트워크를 통해 다른 통신 장치로 송신하는 송신 단계와, 네트워크를 통해 다른 통신 장치로부터 송신되어 오는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 수신하는 위치 정보 수신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제28 기록 매체의 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보의 입력을 제어하는 전경 성분 화상 식별 정보 입력 제어 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보의 입력을 제어하는 배경 성분 화상 식별 정보 입력 제어 단계와, 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보의 네트워크를 통한 다른 통신 장치에의 송신을 제어하는 송신 제어 단계와, 네트워크를 통해 다른 통신 장치로부터 송신되어 오는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 수신을 제어하는 위치 정보 수신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제28 프로그램은 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보의 입력을 제어하는 전경 성분 화상 식별 정보 입력 제어 단계와, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보의 입력을 제어하는 배경 성분 화상 식별 정보 입력 제어 단계와, 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보의 네트워크를 통한 다른 통신 장치에의 송신을 제어하는 송신 제어 단계와, 네트워크를 통해 다른 통신 장치로부터 송신되어 오는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 수신을 제어하는 위치 정보 수신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제21 통신 장치는 네트워크를 통해 다른 통신 장치로부터 송신되어 온 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 성분 화상 식별 정보를 수신하는 전경 성분 화상 식별 정보 수신 수단과, 다른 통신 장치로부터 송신되어 오는 화상 데이터의 배경 성분 화상 식별 정보를 수신하는 배경 성분 화상 식별 정보 수신 수단과, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성하는 화상 위치 정보 생성 수단과, 화상 위치 정보 생성 수단에 의해 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 네트워크를 통해 다른 통신 장치로 송신하는 송신 수단을 포함하는 것을 특징으로 한다.
본 발명의 제21 통신 방법은 네트워크를 개재하여 다른 통신 장치로부터 송신되어 온 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 성분 화상 식별 정보를 수신하는 전경 성분 화상 식별 정보 수신 단계와, 다른 통신 장치로부터 송신되어 오는 화상 데이터의 배경 성분 화상 식별 정보를 수신하는 배경 성분 화상 식별 정보 수신 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 생성하는 화상 위치 정보 생성 단계와, 화상 위치 정보 생성 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보를 네트워크를 통해 다른 통신 장치로 송신하는 송신 단계를 포함하는 것을 특징으로 한다.
본 발명의 제29 기록 매체의 프로그램은 네트워크를 통해 다른 통신 장치로부터 송신되어 온 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 성분 화상 식별 정보의 수신을 제어하는 전경 성분 화상 식별 정보 수신 제어 단계와, 다른 통신 장치로부터 송신되어 오는 화상 데이터의 배경 성분 화상 식별 정보의 수신을 제어하는 배경 성분 화상 식별 정보 수신 제어 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치정보의 생성을 제어하는 화상 위치 정보 생성 제어 단계와, 화상 위치 정보 생성 제어 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 네트워크를 통한 다른 통신 장치에의 송신을 제어하는 송신 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제29 프로그램은 네트워크를 통해 다른 통신 장치로부터 송신되어 온 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 성분 화상 식별 정보의 수신을 제어하는 전경 성분 화상 식별 정보 수신 제어 단계와, 다른 통신 장치로부터 송신되어 오는 화상 데이터의 배경 성분 화상 식별 정보의 수신을 제어하는 배경 성분 화상 식별 정보 수신 제어 단계와, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 생성을 제어하는 화상 위치 정보 생성 제어 단계와, 화상 위치 정보 생성 제어 단계의 처리에서 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보의 네트워크를 통한 다른 통신 장치에의 송신을 제어하는 송신 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제1 시스템 및 방법, 및 제2 프로그램에서는 제1 통신 장치에 의해 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중사용자의 요구하는 요구 정보가 입력되어 입력된 요구 정보가 제2 통신 장치로 송신되고, 제2 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터가 수신되고, 제2 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 요구 정보가 수신되고, 화상 데이터가 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리되어 수신된 요구 정보에 기초하여 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터가 제1 통신 장치로 송신된다.
본 발명의 제2 통신 장치 및 방법, 및 제3 프로그램에서는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보가 입력되어 입력된 요구 정보가 다른 통신 장치로 송신되고, 다른 통신 장치로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터가 수신된다.
본 발명의 제3 통신 장치 및 방법, 및 제4 프로그램에서는 다른 통신 장치로부터 송신되어 오는 요구 정보가 수신되어 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리되어 수신된 요구 정보에 기초하여 화상이 전경 성분 화상과 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터가 다른 통신 장치로 송신된다.
본 발명의 제2 통신 시스템 및 방법, 및 제5 프로그램에서 제1 통신 장치에 의해 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터에 기초하여 생성되는 복수의 부호화 데이터 중 사용자가 요구하는 요구 정보가 입력되고, 입력된 요구 정보가 제2 내지 제4 통신 장치 중 어느 하나에 송신되고, 제2 내지 제4 통신 장치 중 어느 하나로부터 송신되어 온 요구 정보에 대응하는 화상 데이터에 기초하여 생성되는 부호화 데이터가 수신되고, 제2 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 요구 정보가 수신되고, 화상 데이터가 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리되어 수신된 요구 정보에 기초하여 화상이 분리된 전경 성분 화상과 배경 성분 화상이 부호화 데이터로서 제1 통신 장치로 송신되고, 제3 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 요구 정보가 수신되어 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 전경 영역과 배경 영역이 혼합된 혼합 영역 중의 어느 하나 1개를 식별하는 영역 정보가 생성되고, 수신된 요구 정보에 기초하여 생성된영역 정보가 부호화 데이터로서 제1 통신 장치로 송신되고, 제4 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 요구 정보가 수신되고 화상 데이터의 혼합 영역의 전경 영역과 배경 영역이 혼합된 비율을 나타내는 혼합비가 생성되고, 수신된 요구 정보에 기초하여 생성된 혼합비가 부호화 데이터로서 제1 통신 장치로 송신된다.
본 발명의 제4 통신 장치 및 방법, 및 제6 프로그램에서는 사용자의 요구 정보가 입력되어 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상이 합성되고 합성 화상이 생성되어 생성된 합성 화상이 출력된다.
본 발명의 제3 통신 시스템 및 방법, 및 제7 프로그램에서는 제1 통신 장치에 의해 사용자의 요구 정보가 입력되고, 입력된 요구 정보가 제2 통신 장치로 송신되어 요구 정보에 따라 제2 통신 장치로부터 송신되어 오는 합성 화상이 수신되고, 제2 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 요구 정보가 수신되고 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상이 합성되고 합성 화상이 생성되어 생성된 합성 화상이 제1 통신 장치로 송신된다.
본 발명의 제5 통신 장치 및 방법, 및 제8 프로그램에서는 사용자의 요구 정보가 입력되고 입력된 요구 정보가 다른 통신 장치로 송신되어 요구 정보에 따라 다른 통신 장치로부터 송신되어 오는 합성 화상이 수신된다.
본 발명의 제6 통신 장치 및 방법, 및 제9 프로그램에서는 다른 통신 장치로부터 송신되어 오는 요구 정보가 수신되고, 요구 정보에 따라 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상이 합성되고 합성 화상이 생성되어 생성된 합성 화상이 다른 통신 장치로 송신된다.
본 발명의 제7 통신 장치 및 방법, 및 제10 프로그램에서는 사용자의 요구 정보가 입력되고 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비가 추정되고, 혼합비에 기초하여 화상 데이터가 전경 성분 화상과 배경 성분 화상으로 분리되고, 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리된 배경 성분 화상과 임의의 전경 성분 화상이 소정의 혼합비로 합성되고 합성 화상이 생성되어 합성된 합성 화상이 출력된다.
본 발명의 제4 통신 시스템 및 방법, 및 제11 프로그램에서는 제1 통신 장치에 의해 사용자의 요구 정보가 입력되고, 입력된 요구 정보가 제2 송신 장치에 송신되고, 제2 통신 장치로부터 송신되어 오는 합성 화상이 수신되고, 제2 통신 장치에 의해 제1 송신 장치로부터 송신되어 오는 요구 정보가 수신되고, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비가 추정되고, 혼합비에 기초하여 화상 데이터가 전경 성분 화상과 배경 성분 화상으로 분리되고, 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리된 배경 성분 화상과 임의의 전경 성분 화상이 소정의 혼합비로 합성되고, 합성 화상이 생성되어 합성된 합성 화상이 제1 통신 장치로 송신된다.
본 발명의 제8 통신 장치 및 방법, 및 제12 프로그램에서는 사용자의 요구 정보가 입력되고, 요구 정보가 다른 통신 장치로 송신되어 다른 통신 장치로부터 송신되어 오는 합성 화상이 수신된다.
본 발명의 제9 통신 장치 및 방법, 및 제13 프로그램에서는 다른 통신 장치로부터 송신되어 오는 요구 정보가 수신되고, 요구 정보에 기초하여 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 혼합의 비율을 나타내는 혼합비가 추정되고, 혼합비에 기초하여 화상 데이터가 전경 성분 화상과 배경 성분 화상으로 분리되고, 분리된 전경 성분 화상과 임의의 배경 성분 화상, 또는, 분리된 배경 성분 화상과 임의의 전경 성분 화상이 소정의 혼합비로 합성되고, 합성 화상이 생성되어 합성된 합성 화상이 다른 통신 장치로 송신된다.
본 발명의 제10 통신 장치 및 방법, 및 제14 프로그램에서는 사용자가 요구하는 화상을 식별하는 식별자가 입력되고, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 기억되고, 기억된 화상 중 입력된 화상 식별자에 대응하는 화상이 검색되고, 검색된 화상이 사용자의 통신 장치에 출력되고 검색된 화상에 따라 과금에 관련한 처리가 실행된다.
본 발명의 제5 통신 시스템 및 방법, 및 제15 프로그램에서는 제1 통신 장치에 의해 사용자가 요구하는 화상을 식별하는 식별자가 입력되고, 화상 식별자가 제2 통신 장치로 송신되고 화상 식별자에 대응하여 검색된 화상이 수신되고, 제2 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 화상 식별자가 수신되고, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 기억되고, 기억된 화상 중 수신된 화상 식별자에 대응하는 화상이 검색되고, 검색된 화상이 제1 통신 장치에 출력되고 검색된 화상에 따라 과금에 관련한 처리가 실행된다.
본 발명의 제11 통신 장치 및 방법, 및 제16 프로그램에서는 사용자가 요구하는 화상을 식별하는 식별자가 입력되고 화상 식별자가 다른 통신 장치로 송신되어 화상 식별자에 대응하여 검색된 화상이 수신된다.
본 발명의 제12 통신 장치 및 방법, 및 제17 프로그램에서는 다른 통신 장치로부터 송신되어 오는 화상 식별자가 수신되고, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 기억되고, 기억된 화상 중 수신된 화상 식별자에 대응하는 화상이 검색되어 검색된 화상이 다른 통신 장치로 출력되고, 검색된 화상에 따라 과금에 관련한 처리가 실행된다.
본 발명의 제13 통신 장치 및 방법, 및 제18 프로그램에서는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 입력되고, 입력된 화상이 기억되어 기억된 화상에 따라 불입 처리가 실행된다.
본 발명의 제6 통신 시스템 및 방법, 및 제19 프로그램에서는 제1 통신 장치에 의해 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 입력되고, 입력된 화상이 제2 통신 장치로 송신되고, 제2 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 화상이 수신되어 수신된 화상이 기억되고 기억된 화상에 따라 불입 처리가 실행된다.
본 발명의 제14 통신 장치 및 방법, 및 제20 프로그램에서는 각각 시간 적분효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 입력되고, 입력된 화상이 다른 통신 장치로 송신된다.
본 발명의 제15 통신 장치 및 방법, 및 제21 프로그램에서는 다른 통신 장치로부터 송신되어 오는 화상이 수신되고, 수신된 화상이 기억되어 기억된 화상에 따라 불입 처리가 실행된다.
본 발명의 제16 통신 장치 및 방법, 및 제22 프로그램에서는 사용자의 검색 요구 정보가 입력되고, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 기억되고, 기억된 화상 중 입력된 검색 요구 정보에 대응하는 화상이 검색되어 검색 결과가 출력되고 검색 결과에 대응하여 과금에 관련한 처리가 실행된다.
본 발명의 제7 통신 시스템 및 방법, 및 제23 프로그램에서는 제1 통신 장치에 의해 사용자의 검색 요구 정보가 입력되고, 검색 요구 정보가 제2 통신 장치로송신되고, 제2 통신 장치로부터 송신되어 오는 검색 결과가 수신되고, 제2 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 검색 요구 정보가 수신되고, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 기억되고, 기억된 화상 중 수신된 검색 요구 정보에 대응하는 화상이 검색되어 검색 결과가 제1 통신 장치로 송신되고, 검색 결과에 대응하여 과금에 관련한 처리가 실행된다.
본 발명의 제17 통신 장치 및 방법, 및 제24 프로그램에서는 사용자의 검색 요구 정보가 입력되고, 검색 요구 정보가 다른 통신 장치로 송신되고 다른 통신 장치로부터 송신되어 오는 검색 결과가 수신된다.
본 발명의 제18 통신 장치 및 방법, 및 제25 프로그램에서는 다른 통신 장치로부터 송신되어 오는 검색 요구 정보가 수신되고, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터가 분리된 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상 및 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상 중 적어도 1 화상 이상의 화상에 의해 구성되는 화상이 기억되고, 기억된 화상 중 수신된 검색 요구 정보에 대응하는 화상이 검색되고, 검색 결과가 다른 통신 장치로 송신되고 검색 결과에 대응하여 과금에 관련한 처리가 실행된다.
본 발명의 제19 통신 장치 및 방법, 및 제26 프로그램에서는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보가 입력되고, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보가 입력되고, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보가 생성되어 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보가 출력된다.
본 발명의 제8 통신 시스템 및 방법, 및 제27 프로그램에서는 제1 통신 장치에 의해 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보가 입력되고, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보가 입력되어 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보가 제2 통신 장치로 송신되고,제2 통신 장치로부터 송신되어 온 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보가 수신되고, 제2 통신 장치에 의해 제1 통신 장치로부터 송신되어 오는 전경 성분 화상 식별 정보가 수신되고, 제1 통신 장치로부터 송신되어 오는 배경 성분 화상 식별 정보가 수신되고, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보가 생성되어 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보가 제1 통신 장치로 송신된다.
본 발명의 제20 통신 장치 및 방법, 및 제28 프로그램에서는 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상을 나타내는 전경 성분 화상 식별 정보가 입력되고, 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상을 나타내는 배경 성분 화상 식별 정보가 입력되어 전경 성분 화상 식별 정보와 배경 성분 화상 식별 정보가 네트워크를 통해 다른 통신 장치로 송신되고 네트워크를 통해 다른 통신 장치로부터 송신되어 온 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보가 수신된다.
본 발명의 제21 통신 장치 및 방법, 및 제29 프로그램에서는 네트워크를 통해 다른 통신 장치로부터 송신되어 온 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의 전경 성분 화상 식별 정보가 수신되고, 다른 통신 장치로부터 송신되어 오는 화상 데이터의 배경 성분 화상 식별 정보가 수신되고, 전경 성분 화상 식별 정보 및 배경 성분 화상 식별 정보에 대응하는 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보가 생성되어 생성된 전경 성분 화상 위치 정보 및 배경 성분 화상 위치 정보가 네트워크를 통해 다른 통신 장치로 송신된다.
결과적으로, 화상에 움직임 불선명을 부가함으로써 암호화시키는 것이 가능해지고, 또한, 움직임 불선명의 제거, 즉, 암호화 시에 부가한 움직임 불선명과 역의 움직임 불선명을 부가함으로써 암호화된 화상을 복호하는 것이 가능해진다.
또한, 전경 성분 화상의 움직임 불선명을 조정함으로써 움직임 불선명이 없는 선명한 전경 성분 화상이 얻어짐과 함께 움직임 불선명을 조정함으로써 얻어지는 전경 성분 화상을 배경 성분 화상과 합성함으로써 판단에 의해 자연스러운 합성 화상을 생성하는 것이 가능해진다. 결과적으로, 전경 성분 화상의 움직임 불선명의 조정과 배경 성분 화상과의 합성에 의해 화상을 자유롭게 수정하는 것이 가능해진다.
또한, 화상의 혼합 상태에 기초하여 화상을 분리, 합성, 또는, 수정하는 등한 화상을 네트워크(1) 상에서 구입, 또는, 매각할 수 있기 때문에 사용자가 작성한 화상을 매매함으로써 분리, 합성, 또는, 수정된 화상을 유효하게 이용할 수 있도록 된다.
또한, 네트워크 상의 카메라 단말 장치(28-1 내지 28-n)가 지금 현재 촬상하고 있는, 또는, 촬상되어 축적되어 있는 화상을 검색 조건으로서 입력함으로써 검색하는 것이 가능해진다.
또한, 사용자가 이용하는 컴퓨터상에 화상을 기억하는 것이 아니라 소정의 축적 서버 등에 기억시켜 기억되어 있는 축적 서버의 위치 정보에 의해 필요에 따라 화상을 읽어 내어 이용하도록 함으로써 한번 사용한 화상 데이터를 자기의 통신 장치에 보존해 두지 않더라도 필요에 따라 호출하여 사용하는 것이 가능해져 화상을 효율적으로 이용할 수 있다.
이상에 의하면 화상에 대하여 움직임 불선명을 부가함으로써 암호화하는 것이 가능하게 될뿐만 아니라, 움직임 불선명을 제거함으로써 복호하는 것이 가능해진다. 또한, 움직임 불선명을 제거하여 선명한 화상을 생성하는 것이 가능하게 될뿐만 아니라, 움직임 불선명이 조정된 화상과 배경 화상이 합성됨으로써 보다 자연스러운 화상의 수정을 자유롭게 실현하는 것이 가능해진다. 또, 화상의 혼합 상태에 기초하여 화상을 분리, 합성, 또는, 수정하는 등한 화상을 네트워크상에서 유효하게 이용할 수 있도록 하는 것이다. 또한, 화상을 분리, 합성, 또는, 수정하는 등을 행한 화상을 네트워크상에서 검색하는 것이 가능해진다. 또, 한번 사용한 화상 데이터를 자기의 통신 장치에 보존해 두지 않더라도 필요에 따라 호출하여 사용하는 것이 가능해진다.
본 발명의 신호 처리를 행하는 프로그램을 기록한 기록 매체는 도 2, 3에 도시한 바와 같이, 컴퓨터와는 별도로 사용자에게 프로그램을 제공하기 위해 배포되는 프로그램이 기록되어 있는 자기 디스크(61, 91)(플렉시블 디스크를 포함한다),광 디스크(62, 92)(CD-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)를 포함한다), 광 자기 디스크(63, 93)(MD (Mini-Disc)(상표)를 포함한다), 혹은 반도체 메모리(64, 94)등으로 이루어지는 패키지 미디어에 의해 구성되는 것뿐만 아니라 컴퓨터에 미리 조립된 상태에서 사용자에게 제공되는 프로그램이 기록되어 있는 ROM(42, 72)이나 기억부(48, 78)에 포함되는 하드디스크 등으로 구성된다.
또, 본 명세서에서, 기록 매체에 기록되는 프로그램을 기술하는 단계는 기재된 순서에 따라 시계열적으로 행해지는 처리는 물론이고, 반드시 시계열적으로 처리되지 않더라도 병렬적 혹은 개별로 실행되는 처리도 포함하는 것이다.
또한, 본 명세서에서, 시스템이란 복수의 장치에 의해 구성되는 장치 전체를 나타내는 것이다.
본 발명에 따르면 화상의 가공 속도를 향상시키는 것이 가능하게 될뿐만 아니라, 분산하여 처리함으로써 필요한 처리만을 실행시킴으로써 그 서비스에 관련되는 비용을 저감시키는 것이 가능해진다.

Claims (17)

  1. 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해서 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터를 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 수단과,
    사용자의 요구 정보를 입력하는 요구 정보 입력 수단과,
    상기 요구 정보 입력 수단에 의해 입력된 상기 요구 정보에 기초하여, 상기 분리 수단에 의해 상기 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터를 출력하는 부호화 데이터 출력 수단
    을 포함하는 것을 특징으로 하는 통신 장치.
  2. 제1항에 있어서,
    상기 요구 정보에 따라 과금에 관련한 처리를 실행하는 과금 수단을 더 포함하는 것을 특징으로 하는 통신 장치.
  3. 제2항에 있어서,
    상기 과금 수단은 상기 요구 정보에 따라 상기 사용자의 식별자, 상기 통신 장치의 식별자 및 상기 요구 정보에 대응하는 금액 정보를 포함하는 과금 정보를생성하는 것을 특징으로 하는 통신 장치.
  4. 제3항에 있어서,
    상기 과금 수단은 상기 과금 정보에 기초하여 상기 사용자의 금융 강좌에 대하여 과금에 관한 처리를 실행하는 것을 특징으로 하는 통신 장치.
  5. 제4항에 있어서,
    상기 과금 수단은 과금에 관련한 처리에 사용되는 사용자마다의 포인트 수를 상기 금액 정보에 대응하는 분만큼 감산함으로써 과금에 관련한 처리를 실행하는 것을 특징으로 하는 통신 장치.
  6. 제2항에 있어서,
    상기 부호화 데이터 출력 수단은 상기 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 상기 부호화 데이터를 과금에 관련한 처리가 완료된 상기 사용자의 통신 장치에 출력하는 것을 특징으로 하는 통신 장치.
  7. 제6항에 있어서,
    상기 요구 정보 입력 수단은 상기 사용자의 요구 정보 외에 상기 소정의 화상 데이터를 입력하고,
    상기 부호화 데이터 출력 수단은 상기 요구 정보 입력 수단에 의해 입력된상기 요구 정보와 상기 소정의 화상 데이터에 기초하여, 상기 분리 수단에 의해 상기 소정의 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 유의 정보로서의 상기 부호화 데이터를, 상기 과금 수단에 의해 과금에 관련한 처리가 완료된 후 상기 사용자에게만 취득 가능한 방법으로 출력하는 것을 특징으로 하는 통신 장치.
  8. 제7항에 있어서,
    상기 소정의 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 상기 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 상기 전경 영역과 상기 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보를 생성하는 영역 정보 생성 수단을 더 구비하고,
    상기 유의 정보는 상기 영역 정보를 포함하고,
    상기 부호화 데이터 출력 수단은, 상기 요구 정보 입력 수단에 의해 입력된 상기 요구 정보와, 상기 소정의 화상 데이터에 기초하여, 상기 분리 수단에 의해 상기 소정의 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 상기 영역 정보로서의 상기 부호화 데이터를 상기 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 상기 사용자에게만 취득 가능한 방법으로 출력하는 것을 특징으로 하는 통신 장치.
  9. 제7항에 있어서,
    상기 소정의 화상 데이터의 상기 혼합 영역의 상기 전경 영역과 상기 배경 영역이 혼합된 비율을 나타내는 혼합비를 생성하는 혼합비 생성 수단을 더 구비하고,
    상기 유의 정보는 상기 혼합비를 포함하고,
    상기 부호화 데이터 출력 수단은, 상기 요구 정보 입력 수단에 의해 입력된 상기 요구 정보와 상기 소정의 화상 데이터에 기초하여, 상기 분리 수단에 의해 상기 소정의 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 상기 혼합비로서의 상기 부호화 데이터를 상기 과금 수단에 의해 과금에 관련한 처리가 완료한 후, 상기 사용자에게만 취득 가능한 방법으로 출력하는 것을 특징으로 하는 통신 장치.
  10. 제7항에 있어서,
    상기 분리 수단은, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 소정의 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 소정의 화상 데이터를 상기 영역 정보 및 상기 혼합비에 기초하여 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하고,
    상기 유의 정보는 상기 전경 성분 화상과 상기 배경 성분 화상을 포함하고,
    상기 부호화 데이터 출력 수단은, 상기 요구 정보 입력 수단에 의해 입력된 상기 요구 정보와, 상기 분리 수단에 의해 상기 소정의 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때, 생성되는 상기 전경 성분 화상과 상기 배경 성분 화상으로서의 상기 부호화 데이터를, 상기 과금 수단에 의해 과금에 관련한 처리가 완료했을 때, 상기 사용자에게만 취득 가능한 방법으로 출력하는 것을 특징으로 하는 통신 장치.
  11. 제6항에 있어서,
    상기 요구 정보 입력 수단은 상기 사용자의 요구 정보 외에 상기 소정의 화상 데이터를 식별하는 화상 데이터 식별자를 입력하고,
    상기 부호화 데이터 출력 수단은, 상기 요구 정보 입력 수단에 의해 입력된 상기 요구 정보와 상기 화상 데이터 식별자에 대응하는 소정의 화상 데이터에 기초하여, 상기 분리 수단에 의해 상기 소정의 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 유의 정보로서의 상기 부호화 데이터를 상기 과금 수단에 의해 과금에 관련한 처리가 완료한 후, 상기 사용자에게만 취득 가능한 방법으로 출력하는 것을 특징으로 하는 통신 장치.
  12. 제11항에 있어서,
    상기 화상 데이터 식별자에 대응하는 소정의 화상 데이터의 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 영역, 상기 화상 데이터 식별자에 대응하는 소정의 화상 데이터의 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 영역 및 상기 전경 영역과 상기 배경 영역이 혼합된 혼합 영역 중의 어느 하나를 식별하는 영역 정보를 생성하는 영역 정보 생성 수단을 더 구비하고,
    상기 유의 정보는 상기 영역 정보를 포함하고,
    상기 부호화 데이터 출력 수단은, 상기 요구 정보 입력 수단에 의해 입력된 상기 요구 정보와 상기 소정의 화상 데이터에 기초하여, 상기 분리 수단에 의해 상기 소정의 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 상기 영역 정보로서의 상기 부호화 데이터를, 상기 과금 수단에 의해 과금에 관련한 처리가 완료된 후, 상기 사용자에게만 취득 가능한 방법으로 출력하는 것을 특징으로 하는 통신 장치.
  13. 제11항에 있어서,
    상기 화상 데이터 식별자에 대응하는 소정의 화상 데이터 중의 상기 혼합 영역의 혼합비를 생성하는 혼합비 생성 수단을 더 구비하고,
    상기 유의 정보는 상기 혼합비를 포함하고,
    상기 부호화 데이터 출력 수단은, 상기 요구 정보 입력 수단에 의해 입력된 상기 요구 정보와 상기 화상 데이터 식별자에 대응하는 소정의 화상 데이터에 기초하여, 상기 분리 수단에 의해 상기 소정의 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 상기 혼합비로서의 상기 부호화 데이터를,상기 과금 수단에 의해 과금에 관련한 처리가 완료한 후, 상기 사용자에게만 취득 가능한 방법으로 출력하는 것을 특징으로 하는 통신 장치.
  14. 제11항에 있어서,
    상기 분리 수단은, 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 소정의 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 소정의 화상 데이터를 상기 영역 정보 및 상기 혼합비에 기초하여 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하고,
    상기 유의 정보는, 상기 전경 성분 화상과 상기 배경 성분 화상을 포함하고,
    상기 부호화 데이터 출력 수단은, 상기 요구 정보 입력 수단에 의해 입력된 상기 요구 정보와, 상기 분리 수단에 의해 상기 소정의 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 상기 전경 성분 화상과 상기 배경 성분 화상으로서의 상기 부호화 데이터를, 상기 과금 수단에 의해 과금에 관련한 처리가 완료했을 때, 상기 사용자에게만 취득 가능한 방법으로 출력하는 것을 특징으로 하는 통신 장치.
  15. 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터를, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상으로 분리하는 분리 단계와,
    사용자의 요구 정보를 입력하는 요구 정보 입력 단계와,
    요구 정보 입력 단계의 처리에서 입력된 상기 요구 정보에 기초하여, 상기 분리 단계의 처리에 의해 상기 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터를 출력하는 부호화 데이터 출력 단계
    를 포함하는 것을 특징으로 하는 통신 방법.
  16. 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와,
    사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와,
    요구 정보 입력 제어 단계의 처리에서 입력된 상기 요구 정보에 기초하여, 상기 분리 제어 단계의 처리에 의해 상기 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터의 출력을 제어하는 부호화 데이터 출력 제어 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어있는 기록 매체.
  17. 각각 시간 적분 효과를 갖는 소정 수의 화소를 포함하는 촬상 소자에 의해 취득되고, 화소마다 또한 시간적으로 적분된 화상을 구성하는 광의 양에 따라 결정되는 화소값으로 이루어지는 화상 데이터의, 전경 오브젝트를 구성하는 전경 오브젝트 성분으로 이루어지는 전경 성분 화상과 배경 오브젝트를 구성하는 배경 오브젝트 성분으로 이루어지는 배경 성분 화상과의 분리를 제어하는 분리 제어 단계와,
    사용자의 요구 정보의 입력을 제어하는 요구 정보 입력 제어 단계와,
    요구 정보 입력 제어 단계의 처리에서 입력된 상기 요구 정보에 기초하여, 상기 분리 제어 단계의 처리에 의해 상기 화상이 상기 전경 성분 화상과 상기 배경 성분 화상으로 분리될 때 생성되는 부호화 데이터의 출력을 제어하는 부호화 데이터 출력 제어 단계
    를 컴퓨터에 실행시키는 프로그램.
KR1020037002821A 2001-06-27 2002-06-26 통신 장치 및 방법 KR100886618B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2001-00195592 2001-06-27
JP2001195592A JP4596227B2 (ja) 2001-06-27 2001-06-27 通信装置および方法、通信システム、記録媒体、並びにプログラム
PCT/JP2002/006386 WO2003003308A1 (en) 2001-06-27 2002-06-26 Communication apparatus and method

Publications (2)

Publication Number Publication Date
KR20040014956A true KR20040014956A (ko) 2004-02-18
KR100886618B1 KR100886618B1 (ko) 2009-03-05

Family

ID=19033541

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037002821A KR100886618B1 (ko) 2001-06-27 2002-06-26 통신 장치 및 방법

Country Status (10)

Country Link
US (2) US7619655B2 (ko)
EP (3) EP1400927B1 (ko)
JP (1) JP4596227B2 (ko)
KR (1) KR100886618B1 (ko)
CN (2) CN1251149C (ko)
CA (1) CA2420029C (ko)
DE (3) DE60235730D1 (ko)
MX (1) MXPA03001701A (ko)
SG (1) SG135971A1 (ko)
WO (1) WO2003003308A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200453861Y1 (ko) * 2009-02-23 2011-05-30 이양운 컴퓨터가 내장된 책상

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596227B2 (ja) 2001-06-27 2010-12-08 ソニー株式会社 通信装置および方法、通信システム、記録媒体、並びにプログラム
GB2379299B (en) * 2001-09-04 2006-02-08 Imagination Tech Ltd A texturing system
US20030105707A1 (en) * 2001-11-30 2003-06-05 Yves Audebert Financial risk management system and method
US20040012811A1 (en) * 2002-07-22 2004-01-22 Toshiba Tec Kabushiki Kaisha System and method for taking, storing and printing digital pictures
US7463338B2 (en) 2003-07-08 2008-12-09 Hoya Corporation Container for housing a mask blank, method of housing a mask blank, and mask blank package
CN100423557C (zh) * 2004-02-13 2008-10-01 索尼株式会社 图像处理装置以及图像处理方法
US20060192857A1 (en) * 2004-02-13 2006-08-31 Sony Corporation Image processing device, image processing method, and program
WO2005079062A1 (ja) * 2004-02-13 2005-08-25 Sony Corporation 画像処理装置と画像処理方法およびプログラム
US8331723B2 (en) 2004-03-25 2012-12-11 Ozluturk Fatih M Method and apparatus to correct digital image blur due to motion of subject or imaging device
JP2006148578A (ja) * 2004-11-19 2006-06-08 Sharp Corp 画像処理装置、画像読取装置、及び画像記録装置
EP1830562A4 (en) * 2004-12-21 2012-08-01 Sony Corp APPARATUS, METHOD AND PROGRAM FOR LEARNING
US8094814B2 (en) * 2005-04-05 2012-01-10 Broadcom Corporation Method and apparatus for using counter-mode encryption to protect image data in frame buffer of a video compression system
CN100369412C (zh) * 2005-05-17 2008-02-13 上海大学 远程图像处理网络服务系统及其网络服务模式
JP4839128B2 (ja) * 2006-05-10 2011-12-21 矢崎総業株式会社 グラフィックメータ表示装置
JP4839131B2 (ja) * 2006-05-17 2011-12-21 矢崎総業株式会社 グラフィックメータ表示装置
US20080165278A1 (en) * 2007-01-04 2008-07-10 Sony Corporation Human visual system based motion detection/estimation for video deinterlacing
US8553758B2 (en) * 2007-03-02 2013-10-08 Sony Corporation Motion parameter engine for true motion
US20080212687A1 (en) * 2007-03-02 2008-09-04 Sony Corporation And Sony Electronics Inc. High accurate subspace extension of phase correlation for global motion estimation
US7916177B2 (en) * 2007-08-03 2011-03-29 Panasonic Corporation Image-capturing apparatus, image-capturing method and program for detecting and correcting image blur
WO2009040872A1 (ja) * 2007-09-25 2009-04-02 Fujitsu Limited 画像合成装置及び方法
US8094714B2 (en) * 2008-07-16 2012-01-10 Sony Corporation Speculative start point selection for motion estimation iterative search
US8144766B2 (en) * 2008-07-16 2012-03-27 Sony Corporation Simple next search position selection for motion estimation iterative search
US8385404B2 (en) * 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
US20110055023A1 (en) * 2009-08-28 2011-03-03 Yahoo! Inc. Above the fold
JP5143287B2 (ja) * 2009-09-18 2013-02-13 株式会社東芝 中継装置
CA2783588C (en) * 2009-12-22 2017-06-13 Thomson Licensing Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
US8823739B2 (en) 2010-08-25 2014-09-02 International Business Machines Corporation Background replacement for videoconferencing
EP3659491A1 (en) 2011-12-13 2020-06-03 EndoChoice Innovation Center Ltd. Removable tip endoscope
EP2831670A4 (en) * 2012-03-26 2015-12-23 Nokia Technologies Oy METHOD, DEVICE AND COMPUTER PROGRAM PRODUCT FOR IMAGE STABILIZATION
US9799036B2 (en) 2013-10-10 2017-10-24 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy indicators
US20150104004A1 (en) 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for delivering image data from captured images to devices
US10289863B2 (en) 2013-10-10 2019-05-14 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy beacons
US20150106628A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Devices, methods, and systems for analyzing captured image data and privacy data
US20150106195A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for handling inserted data into captured images
US10346624B2 (en) 2013-10-10 2019-07-09 Elwha Llc Methods, systems, and devices for obscuring entities depicted in captured images
US10013564B2 (en) 2013-10-10 2018-07-03 Elwha Llc Methods, systems, and devices for handling image capture devices and captured images
US10262421B2 (en) * 2014-08-04 2019-04-16 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
JP6055948B1 (ja) * 2016-04-20 2016-12-27 株式会社岩崎電機製作所 データベース構築装置、データベース構築方法、および、データベース構築プログラム

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
US5262871A (en) * 1989-11-13 1993-11-16 Rutgers, The State University Multiple resolution image sensor
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
JP3080487B2 (ja) * 1992-09-30 2000-08-28 富士通株式会社 多眼式立体映像の動き補償予測方法
JP3372289B2 (ja) * 1993-04-28 2003-01-27 富士写真フイルム株式会社 ディジタルカメラ
JPH06319130A (ja) * 1993-05-08 1994-11-15 Fujitsu General Ltd 画像伝送システム
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
US5886743A (en) * 1994-12-28 1999-03-23 Hyundai Electronics Industries Co. Ltd. Object-by information coding apparatus and method thereof for MPEG-4 picture instrument
JP3086396B2 (ja) * 1995-03-10 2000-09-11 シャープ株式会社 画像符号化装置及び画像復号装置
KR100423379B1 (ko) * 1995-05-12 2004-07-23 소니 가부시끼 가이샤 키신호생성장치및화상합성장치와,키신호생성방법및화상합성방법
JP3804836B2 (ja) 1995-05-12 2006-08-02 ソニー株式会社 キー信号生成装置および画像合成装置、並びにキー信号生成方法および画像合成方法
US5915044A (en) * 1995-09-29 1999-06-22 Intel Corporation Encoding video images using foreground/background segmentation
JPH09245091A (ja) 1996-03-12 1997-09-19 Nippon Telegr & Teleph Corp <Ntt> 映像素材分割課金設定方法及びシステム
KR100501902B1 (ko) 1996-09-25 2005-10-10 주식회사 팬택앤큐리텔 영상정보부호화/복호화장치및방법
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
JPH10124651A (ja) * 1996-10-25 1998-05-15 Toppan Printing Co Ltd 画像サービスシステム
EP0976089A4 (en) 1996-11-15 2001-11-14 Sarnoff Corp METHOD AND APPARATUS FOR EFFICIENTLY REPRESENTING, STORING AND ACCESSING VIDEO INFORMATION
JP3812763B2 (ja) * 1996-12-04 2006-08-23 ソニー株式会社 キー信号生成装置及び方法
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
JP3610423B2 (ja) 1997-03-19 2005-01-12 独立行政法人産業技術総合研究所 映像表示システムおよびその臨場感向上方法
US6249613B1 (en) * 1997-03-31 2001-06-19 Sharp Laboratories Of America, Inc. Mosaic generation and sprite-based coding with automatic foreground and background separation
JP3728884B2 (ja) 1997-08-01 2005-12-21 ソニー株式会社 画像処理装置及び方法、画像合成装置、並びに記録媒体
JP4214425B2 (ja) 1997-09-30 2009-01-28 ソニー株式会社 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体
JPH11224285A (ja) 1997-12-05 1999-08-17 Tokyo Electron Ltd コンテンツ保護方法及びシステム、コンテンツ処理システム、管理システム及び記録媒体
JP3612227B2 (ja) 1998-01-07 2005-01-19 株式会社東芝 物体抽出装置
US6404901B1 (en) * 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
JP2000059758A (ja) 1998-08-05 2000-02-25 Matsushita Electric Ind Co Ltd 監視カメラ装置、監視装置、及びこれらを用いた遠隔監視システム
JP4161426B2 (ja) 1998-09-28 2008-10-08 ソニー株式会社 画像印刷装置及び画像印刷方法
JP2000168187A (ja) 1998-12-07 2000-06-20 Dainippon Printing Co Ltd 街頭端末を利用した画像加工システム
JP4306850B2 (ja) 1998-12-08 2009-08-05 キヤノン株式会社 放送受信装置およびその方法
JP3603629B2 (ja) 1998-12-24 2004-12-22 カシオ計算機株式会社 画像処理装置及び画像処理方法
JP3369994B2 (ja) 1998-12-28 2003-01-20 株式会社オリエントコーポレーション カード作成支援装置及び方法並びにカード作成支援用ソフトウェアを記録した記録媒体
JP2000278633A (ja) 1999-03-26 2000-10-06 Victor Co Of Japan Ltd デジタル映像記録装置、デジタル映像記録再生装置およびデジタル映像記録方法
CA2307352A1 (en) 1999-06-30 2000-12-30 International Business Machines Corporation System and method for displaying a three-dimensional object using motion vectors to generate object blur
JP4491965B2 (ja) * 1999-12-28 2010-06-30 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4507044B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4507045B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4479098B2 (ja) * 2000-12-21 2010-06-09 ソニー株式会社 信号処理装置および方法、並びに記録媒体
US6822760B1 (en) * 2000-04-05 2004-11-23 Eastman Kodak Company Method of processing and paying for an extended color gamut digital image
US6839463B1 (en) * 2000-12-22 2005-01-04 Microsoft Corporation System and method providing subpixel-edge-offset-based determination of opacity
JP4596227B2 (ja) 2001-06-27 2010-12-08 ソニー株式会社 通信装置および方法、通信システム、記録媒体、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200453861Y1 (ko) * 2009-02-23 2011-05-30 이양운 컴퓨터가 내장된 책상

Also Published As

Publication number Publication date
US8164638B2 (en) 2012-04-24
EP2026579A1 (en) 2009-02-18
EP1400927B1 (en) 2009-10-14
EP1400927A4 (en) 2007-05-23
EP1400927A1 (en) 2004-03-24
US20040075749A1 (en) 2004-04-22
US7619655B2 (en) 2009-11-17
EP1865720B1 (en) 2010-03-17
CA2420029A1 (en) 2003-02-18
JP4596227B2 (ja) 2010-12-08
CN1468416A (zh) 2004-01-14
MXPA03001701A (es) 2004-04-02
DE60236703D1 (de) 2010-07-22
CN1738369A (zh) 2006-02-22
US20100073505A1 (en) 2010-03-25
EP2026579B1 (en) 2010-06-09
EP1865720A1 (en) 2007-12-12
CN100366060C (zh) 2008-01-30
CA2420029C (en) 2011-08-23
SG135971A1 (en) 2007-10-29
JP2003016455A (ja) 2003-01-17
DE60235730D1 (de) 2010-04-29
CN1251149C (zh) 2006-04-12
WO2003003308A1 (en) 2003-01-09
DE60234030D1 (de) 2009-11-26
KR100886618B1 (ko) 2009-03-05

Similar Documents

Publication Publication Date Title
KR100886618B1 (ko) 통신 장치 및 방법
KR100843815B1 (ko) 화상 처리 장치 및 방법
CA2842560C (en) Transmission of reconstruction data in a tiered signal quality hierarchy
KR100846261B1 (ko) 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치
CN108111899B (zh) 视频传输方法与装置、客户端、服务器及存储介质
CN101300840A (zh) 多视角视频传递
US20080066092A1 (en) System for interactive images and video
JP2003009181A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR20150083355A (ko) 증강 미디어 서비스 제공 방법, 장치 및 시스템
KR100934306B1 (ko) 시청각 프로그램의 전송, 기록 및 상영의 보안을 위한장치
CN110611830A (zh) 一种视频处理方法、装置、设备及介质
JP2003018578A (ja) 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP4811421B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4650654B2 (ja) 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP4701547B2 (ja) 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP4650655B2 (ja) 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP2003016457A (ja) 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP2006525712A (ja) ベクトルビジュアルシーケンスのスクランブル、デスクランブル、および供給を安全化するための方法およびシステム
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130215

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140214

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee