WO2003003308A1 - Communication apparatus and method - Google Patents

Communication apparatus and method Download PDF

Info

Publication number
WO2003003308A1
WO2003003308A1 PCT/JP2002/006386 JP0206386W WO03003308A1 WO 2003003308 A1 WO2003003308 A1 WO 2003003308A1 JP 0206386 W JP0206386 W JP 0206386W WO 03003308 A1 WO03003308 A1 WO 03003308A1
Authority
WO
Grant status
Application
Patent type
Prior art keywords
image
foreground
background
pixel
area
Prior art date
Application number
PCT/JP2002/006386
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Takashi Sawao
Junichi Ishibashi
Takahiro Nagano
Naoki Fujiwara
Toru Miyake
Seiji Wada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of content streams, manipulating MPEG-4 scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of content streams, manipulating MPEG-4 scene graphs involving video stream encryption
    • H04N21/23473Processing of video elementary streams, e.g. splicing of content streams, manipulating MPEG-4 scene graphs involving video stream encryption by pre-encrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of content streams, manipulating MPEG-4 scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of content streams, manipulating MPEG-4 scene graphs involving video stream encryption
    • H04N21/23476Processing of video elementary streams, e.g. splicing of content streams, manipulating MPEG-4 scene graphs involving video stream encryption by partially encrypting, e.g. encrypting the ending portion of a movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2541Rights Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2543Billing, e.g. for subscription services
    • H04N21/25435Billing, e.g. for subscription services involving characteristics of content or additional data, e.g. video resolution or the amount of advertising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25875Management of end-user data involving end-user authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/26613Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for generating or managing keys in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4627Rights management associated to the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4753End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for user identification, e.g. by entering a PIN or password
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/60Selective content distribution, e.g. interactive television, VOD [Video On Demand] using Network structure or processes specifically adapted for video distribution between server and client or between remote clients; Control signaling specific to video distribution between clients, server and network components, e.g. to video encoder or decoder; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/60Selective content distribution, e.g. interactive television, VOD [Video On Demand] using Network structure or processes specifically adapted for video distribution between server and client or between remote clients; Control signaling specific to video distribution between clients, server and network components, e.g. to video encoder or decoder; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6175Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/60Selective content distribution, e.g. interactive television, VOD [Video On Demand] using Network structure or processes specifically adapted for video distribution between server and client or between remote clients; Control signaling specific to video distribution between clients, server and network components, e.g. to video encoder or decoder; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/60Selective content distribution, e.g. interactive television, VOD [Video On Demand] using Network structure or processes specifically adapted for video distribution between server and client or between remote clients; Control signaling specific to video distribution between clients, server and network components, e.g. to video encoder or decoder; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6334Control signals issued by server directed to the network components or client directed to client for authorisation, e.g. by transmitting a key
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/60Selective content distribution, e.g. interactive television, VOD [Video On Demand] using Network structure or processes specifically adapted for video distribution between server and client or between remote clients; Control signaling specific to video distribution between clients, server and network components, e.g. to video encoder or decoder; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing using dedicated Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/60Selective content distribution, e.g. interactive television, VOD [Video On Demand] using Network structure or processes specifically adapted for video distribution between server and client or between remote clients; Control signaling specific to video distribution between clients, server and network components, e.g. to video encoder or decoder; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television, VOD [Video On Demand]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL

Description

明細書

通信装置および方法 技術分野

本発明は、 通信装置および方法に関し、 ネッ トワークの複数のサーバで分散し て、 画像の加工処理を実行することにより、 その処理速度を向上させると共に、 分散して処理することにより、 使用者により必要とされる処理だけを実行できる ようにすることで、 そのサービスに係るコストを低減させるようにした通信装置 および方法に関する。 背景技術

ネッ トワークを介して使用者の所望とする画像を合成する技術が一般に普及し つつある。

このような合成画像は、 使用者がネットワーク上の蓄積サーバなどに蓄積され た画像を指定したり、 自らがデジタルスチルカメラなどで撮像した画像などの、 複数の既存の画像を重ね合わせ、 接合するといつた処理により生成されたり、 テ タスチヤマツビングにより合成されて、 生成されていた。

しかしながら、 上述のような手法により生成される合成画像は、 例えば、 動き のある物体を撮像する際に生じる、 いわゆる、 動きボケの調整などができないた め、 結果として精度の低い合成処理を実行することしかできず、 見た目にも不自 然な合成画像を生成することしかできないと言う課題があった。

また、 これらの処理を一括して所定の処理用のサーバで実行させようとすると、 その処理に時間がかかるとともに、 例えば、 同じ背景画像を重ね合わせるにも関 わらず、 合成しょうとする画像の数と同じ回数だけ処理が繰り返されることにな り、 その処理に時間がかかるとともに、 処理時間により課金されるようなサービ スであったときには、 使用者の負担額も大きくなってしまうという課題があった c 発明の開示

本発明はこのような状況に鑑みてなされたものであり、 上述の画像合成処理を ネッ トワークの複数のサーバで分散して処理することにより、 その処理速度を向 上させると共に、 分散して処理することにより、 使用者により必要とされる処理 だけを実行できるようにすることで、 そのサービスに係るコス トを低減させるも のである。

本発明の第 1の通信装置は、 それぞれ時間積分効果を有する所定数の画素を含 む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成 する光の量に応じて決定される画素値からなる画像データを、 前景オブジェク ト を構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを 構成する背景ォブジェク ト成分からなる背景成分画像に分離する分離手段と、 使 用者の要求情報を入力する要求情報入力手段と、 要求情報入力手段により入力さ れた要求情報に基づいて、 分離手段により画像が前景成分画像と背景成分画像に 分離されるとき生成される符号化データを出力する符号化データ出力手段とを備 えることを特徴とする。

前記要求情報に応じて、 課金に関連する処理を実行する課金手段をさらに設け るようにさせることができる。

前記課金手段には、 要求情報に応じて使用者の識別子、 通信装置の識別子、 お よび、 要求情報に対応する金額情報を含む課金情報を生成させるようにすること ができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融講座に対して課金に関 する処理を実行させるようにすることができる。

課金手段には、 課金に関連する処理に使用される使用者毎のボイント数を金額 情報に対応する分だけ減算することにより課金に関連する処理を実行させるよう にすることができる。

前記符号化データ出力手段には、 課金手段により課金に関連する処理が完了し た後、 課金に関連する処理が完了した使用者にのみ取得可能な方法で符号化デー タを出力させるようにすることができる。

前記要求情報入力手段には、 使用者の要求情報に加えて、 所定の画像データを 入力させるようにすることができ、 符号化データ出力手段には、 要求情報入力手 段により入力された要求情報と、 所定の画像データに基づいて、 分離手段により 所定の画像が前景成分画像と背景成分画像に分離されるとき生成される有意情報 としての符号化データを、 課金手段により課金に関連する処理が完了した後、 使 用者にのみ取得可能な方法で出力させるようにすることができる。

前記所定の画像データの前景オブジェク トを構成する前景オブジェク ト成分か らなる前景領域、 所定の画像データの背景オブジェク トを構成する背景オブジェ ク ト成分からなる背景領域、 および、 前景領域と背景領域が混合された混合領域 のうちのいずれか 1つを識別する領域情報を生成する領域情報生成手段をさらに 設けるようにさせることができ、 有意情報には、 領域情報を含ませ、 符号化デー タ出力手段には、 要求情報入力手段により入力された要求情報と、 所定の画像デ ータに基づいて、 分離手段により所定の画像が前景成分画像と背景成分画像に分 離されるとき、 生成される領域情報としての符号化データを、 課金手段により課 金に関連する処理が完了した後、 使用者にのみ取得可能な方法で出力させるよう にすることができる。

前記所定の画像データの混合領域の前景領域と背景領域が混合された比率を示 す混合比を生成する混合比生成手段をさらに設けるようにさせることができ、 有 意情報には、 混合比を含ませ、 符号化データ出力手段には、 要求情報入力手段に より入力された要求情報と、 所定の画像データに基づいて、 分離手段により所定 の画像が前景成分画像と背景成分画像に分離されるとき、 生成される混合比とし ての符号化データを、 課金手段により課金に関連する処理が完了した後、 使用者 にのみ取得可能な方法で出力させるようにすることができる。

前記分離手段には、 それぞれ時間積分効果を有する所定数の画素を含む撮像素 子によって取得され、 画素毎に、 かつ、 時間的に積分された所定の画像を構成す る光の量に応じて決定される画素値からなる所定の画像データを、 領域情報、 お よび、 混合比に基づいて、 前景オブジェク トを構成する前景オブジェク ト成分か らなる前景成分画像と、 背景ォブジェク トを構成する背景オブジェク ト成分から なる背景成分画像に分離させ、 有意情報には、 前景成分画像と背景成分画像を含 ませ、 符号化データ出力手段には、 要求情報入力手段により入力された要求情報 と、 分離手段により所定の画像が前景成分画像と背景成分画像に分離されるとき、 生成される前景成分画像と背景成分画像としての符号化データを、 課金手段によ り課金に関連する処理が完了したとき、 使用者にのみ取得可能な方法で出力させ るようにすることができる。

前記要求情報入力手段には、 使用者の要求情報に加えて、 所定の画像データを 識別する画像データ識別子を入力させ、 符号化データ出力手段には、 要求情報入 力手段により入力された要求情報と、 画像データ識別子に対応する所定の画像デ ータに基づいて、 分離手段により所定の画像が前景成分画像と背景成分画像に分 離されるとき生成される有意情報としての符号化データを、 課金手段により課金 に関連する処理が完了した後、 使用者にのみ取得可能な方法で出力させるように することができる。

前記画像データ識別子に対応する所定の画像データの前景ォブジェク トを構成 する前景オブジェク ト成分からなる前景領域、 画像データ識別子に対応する所定 の画像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景 領域、 および、 前景領域と背景領域が混合された混合領域のうちのいずれか 1つ を識別する領域情報を生成する領域情報生成手段をさらに設けるようにさせるこ とができ、 有意情報には、 領域情報を含ませ、 符号化データ出力手段には、 要求 情報入力手段により入力された要求情報と、 所定の画像データに基づいて、 分離 手段により所定の画像が前景成分画像と背景成分画像に分離されるとき、 生成さ れる領域情報としての符号化データを、 課金手段により課金に関連する処理が完 了した後、 使用者にのみ取得可能な方法で出力させるようにすることができる。 前記画像データ識別子に対応する所定の画像データ中の混合領域の混合比を生 成する混合比生成手段をさらに設けるようにさせることができ、 有意情報には、 混合比を含ませ、 符号化データ出力手段には、 要求情報入力手段により入力され た要求情報と、 画像データ識別子に対応する所定の画像データに基づいて、 分離 手段により所定の画像が前景成分画像と背景成分画像に分離されるとき、 生成さ れる混合比としての符号化データを、 課金手段により課金に関連する処理が完了 した後、 使用者にのみ取得可能な方法で出力させるようにすることができる。 前記分離手段には、 それぞれ時間積分効果を有する所定数の画素を含む撮像素 子によって取得され、 画素毎に、 かつ、 時間的に積分された所定の画像を構成す る光の量に応じて決定される画素値からなる所定の画像データを、 領域情報、 お よび、 混合比に基づいて、 前景オブジェク トを構成する前景オブジェク ト成分か らなる前景成分画像と、 背景オブジェク トを構成する背景オブジェク ト成分から なる背景成分画像に分離させ、 有意情報には、 前景成分画像と背景成分画像を含 ませ、 符号化データ出力手段には、 要求情報入力手段により入力された要求情報 と、 分離手段により所定の画像が前景成分画像と背景成分画像に分離されるとき、 生成される前景成分画像と背景成分画像としての符号化データを、 課金手段によ り課金に関連する処理が完了したとき、 使用者にのみ取得可能な方法で出力させ るようにすることができる。

本発明の第 1の通信方法は、 それぞれ時間積分効果を有する所定数の画素を含 む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成 する光の量に応じて決定される画素値からなる画像データを、 前景オブジェク ト を構成する前景オブジェク ト成分からなる前景成分画像と、 背景ォブジェク トを 構成する背景オブジェク ト成分からなる背景成分画像に分離する分離ステップと、 使用者の要求情報を入力する要求情報入力ステップと、 要求情報入力ステップの 処理で入力された要求情報に基づいて、 分離ステップの処理により画像が前景成 分画像と背景成分画像に分離されるとき生成される符号化データを出力する符号 化データ出力ステップとを含むことを特徴とする。

本発明の第 1の記録媒体のプログラムは、 それぞれ時間積分効果を有する所定 数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分され た画像を構成する光の量に応じて決定される画素値からなる画像データの、 前景 オブジェク トを構成する前景ォブジェク ト成分からなる前景成分画像と、 背景ォ ブジェク トを構成する背景オブジェク ト成分からなる背景成分画像との分離を制 御する分離制御ステップと、 使用者の要求情報の入力を制御する要求情報入力制 御ステップと、 要求情報入力制御ステップの処理で入力された要求情報に基づい て、 分離制御ステップの処理により画像が前景成分画像と背景成分画像に分離さ れるとき生成される符号化データの出力を制御する符号化データ出力制御ステツ プとを含むことを特徴とする。

本発明の第 1のプログラムは、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データの、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク ト を構成する背景ォブジ タ ト成分からなる背景成分画像との分離を制御する分離 制御ステップと、 使用者の要求情報の入力を制御する要求情報入力制御ステップ と、 要求情報入力制御ステップの処理で入力された要求情報に基づいて、 分離制 御ステップの処理により画像が前景成分画像と背景成分画像に分離されるとき生 成される符号化データの出力を制御する符号化データ出力制御ステップとをコン ピュータに実行させることを特徴とする。

本発明の第 1の通信装置および方法、 並びに第 1のプログラムにおいては、 そ れぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画 素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画 素値からなる画像データが、 前景オブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像と、 背景ォブジェク トを構成する背景オブジェク ト成分か らなる背景成分画像に分離され、 使用者の要求情報が入力され、 入力された要求 情報に基づいて、 画像が前景成分画像と背景成分画像に分離されるとき生成され る符号化データが出力される。 図面の簡単な説明

図 1は、 本発明を適用した画像処理システムの一実施の形態の構成を示す図で ある。

図 2は、 図 1の分離処理サーバの構成を示す図である。

図 3は、 図 1のカメラ端末装置の構成を示す図である。

図 4は、 図 1の分離処理サーバの機能を示す図である。

図 5は、 図 1の分離処理サーバの機能を示す図である。

図 6は、 図 1の動き検出サーバの機能を示す図である。

図 7は、 図 1の動き検出サーバの機能を示す図である。

図 8は、 図 1の領域特定サーバの機能を示す図である。

図 9は、 図 1の領域特定サーバの機能を示す図である。

図 1 0は、 図 1の混合比算出サーバの機能を示す図である。

図 1 1は、 図 1の混合比算出サーバの機能を示す図である。

図 1 2は、 図 1の前景背景分離処理サーバの機能を示す図である。

図 1 3は、 図 1の前景背景分離処理サーバの機能を示す図である。

図 1 4は、 図 1の動きボケ調整サーバの機能を示す図である。

図 1 5は、 図 1の動きボケ調整サーバの機能を示す図である。

図 1 6は、 図 1の符号化サーバの機能を示す図である。

図 1 7は、 図 1の符号化サーバの機能を示す図である。

図 1 8は、 図 1の蓄積サーバの機能を示す図である。

図 1 9は、 図 1の蓄積サーバの機能を示す図である。

図 2 0は、 図 1の合成サーバの機能を示す図である。

図 2 1は、 図 1の合成サーバの機能を示す図である。

図 2 2は、 図 1の修正サーバの機能を示す図である。

図 2 3は、 図 1の修正サーバの機能を示す図である。

図 2 4は、 図 1の購入サーバの機能を示す図である。

図 2 5は、 図 1の売却サーバの機能を示す図である。 図 2 6は、 図 1の検索サーバの機能を示す図である。

図 2 7は、 分離処理サーバを示すブロック図である。

図 2 8は、 センサによる撮像を説明する図である。

図 2 9は、 画素の配置を説明する図である。

図 3 0は、 検出素子の動作を説明する図である。

図 3 1 Aは、 動いている前景に対応するォブジェク トと、 静止している背景に 対応するオブジェク トとを撮像して得られる画像を説明する図である。

図 3 1 Bは、 動いている前景に対応するオブジェク トと、 静止している背景に 対応するオブジェク トとを撮像して得られる画像を説明する図である。

図 3 2は、 背景領域、 前景領域、 混合領域、 カバードバックグラウンド領域、 およびアンカバードバックグラウンド領域を説明する図である。

図 3 3は、 静止している前景に対応するォブジェク トおよび静止している背景 に対応するォブジェク トを撮像した画像における、 隣接して 1列に並んでいる画 素の画素値を時間方向に展開したモデル図である。

図 3 4は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 3 5は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 3 6は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 3 7は、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示す図 である。

図 3 8は、 画素と画素値を時間方向に展開したモデルとの対応を示す図である c 図 3 9は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 4 0は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割し たモデル図である。 図 4 Iは、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 4 2は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 4 3は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 4 4は、 動きボケの量の調整の処理を説明するフローチャートである。 図 4 5は、 領域特定部 1 0 3の構成の一例を示すプロック図である。

図 4 6は、 前景に対応するォブジェク 卜が移動しているときの画像を説明する 図である。

図 4 7は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 4 8は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 4 9は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 5 0は、 領域判定の条件を説明する図である。

図 5 1 Aは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 5 1 Bは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 5 1 Cは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 5 1 Dは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 5 2は、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。

図 5 3は、 領域特定の処理を説明するフローチャートである。

図 5 4は、 領域特定部 1 0 3の構成の他の一例を示すブロック図である。 図 5 5は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 5 6は、 背景画像の例を示す図である。 図 5 7は、 2値ォブジェクト画像抽出部 3 0 2の構成を示すプロック図である c 図 5 8 Aは、 相関値の算出を説明する図である。

図 5 8 Bは、 相関値の算出を説明する図である。

図 5 9 Aは、 相関値の算出を説明する図である。

図 5 9 Bは、 相関値の算出を説明する図である。

図 6 0は、 2値オブジェク ト画像の例を示す図である。

図 6 1は、 時間変化検出部 3 0 3の構成を示すブロック図である。

図 6 2は、 領域判定部 3 4 2の判定を説明する図である。

図 6 3は、 時間変化検出部 3 0 3の判定の例を示す図である。

図 6 4は、 領域判定部 1 0 3の領域特定の処理を説明するフローチャートであ る。

図 6 5は、 領域判定の処理の詳細を説明するフローチャートである。

図 6 6は、 領域特定部 1 0 3のさらに他の構成を示すプロック図である。

図 6 7は、 口バスト化部 3 6 1の構成を説明するプロック図である。

図 6 8は、 動き補償部 3 8 1の動き補償を説明する図である。

図 6 9は、 動き補償部 3 8 1の動き補償を説明する図である。

図 7 0は、 領域特定の処理を説明するフローチヤ一トである。

図 7 1は、 口バスト化の処理の詳細を説明するフローチヤ一トである。

図 7 2は、 混合比算出部 1 0 4の構成の一例を示すプロック図である。

図 7 3は、 理想的な混合比ひの例を示す図である。

図 7 4は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割し たモデル図である。

図 7 5は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 7 6は、 前景の成分の相関を利用した近似を説明する図である。

図 7 7は、 C, N、 および Pの関係を説明する図である。

図 7 8は、 推定混合比処理部 4 0 1の構成を示すプロック図である。 図 7 9は、 推定混合比の例を示す図である。

図 8 0は、 混合比算出部 1 0 4の他の構成を示すプロック図である。

図 8 1は、 混合比の算出の処理を説明するフローチヤ一トである。

図 8 2は、 推定混合比の演算の処理を説明するフローチヤ一トである。

図 8 3は、 混合比 αを近似する直線を説明する図である。

図 8 4は、 混合比 αを近似する平面を説明する図である。

図 8 5は、 混合比 αを算出するときの複数のフレームの画素の対応を説明する 図である。

図 8 6は、 混合比推定処理部 4 0 1の他の構成を示すブロック図である。 図 8 7は、 推定混合比の例を示す図である。

図 8 8は、 カバードバックグラウンド領域に対応するモデルによる混合比推定 の処理を説明するフローチヤ一トである。

図 8 9は、 前景背景分離部 1 0 5の構成の一例を示すブロック図である。 図 9 O Aは、 入力画像、 前景成分画像、 および背景成分画像を示す図である。 図 9 0 Bは、 入力画像、 前景成分画像、 および背景成分画像を示す図である。 図 9 1は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割し たモデル図である。

図 9 2は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 9 3は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。

図 9 4は、 分離部 6 0 1の構成の一例を示すプロック図である。

図 9 5 Aは、 分離された前景成分画像、 および背景成分画像の例を示す図であ る。

図 9 5 Bは、 分離された前景成分画像、 および背景成分画像の例を示す図であ る。

図 9 6は、 前景と背景との分離の処理を説明するフローチャートである。 図 9 7は、 動きボケ調整部 1 0 6の構成の一例を示すプロック図である。

図 9 8は、 処理単位を説明する図である。

図 9 9は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。

図 1 0 0は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応 する期間を分割したモデル図である。

図 1 0 1は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応 する期間を分割したモデル図である。

図 1 0 2は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応 する期間を分割したモデル図である。

図 1 0 3は、 動きボケ調整部 1 0 6の他の構成を示す図である。

図 1 0 4は、 動きボケ調整部 1 0 6による前景成分画像に含まれる動きボケの 量の調整の処理を説明するフローチヤ一トである。

図 1 0 5は、 動きボケ調整部 1 0 6の構成の他の一例を示すブロック図である c 図 1 0 6は、 画素値と前景の成分のとの対応を指定するモデルの例を示す図で ある。

図 1 0 7は、 前景の成分の算出を説明する図である。

図 1 0 8は、 前景の成分の算出を説明する図である。

図 1 0 9は、 前景の動きボケの除去の処理を説明するフローチヤ一トである。 図 1 1 0は、 分離処理サーバの機能の他の構成を示すブロック図である。

図 1 1 1は、 合成部 1 0 0 1の構成を示す図である。

図 1 1 2は、 分離処理サーバの機能のさらに他の構成を示すブロック図である c 図 1 1 3は、 混合比算出部 1 1 0 1の構成を示すプロック図である。

図 1 1 4は、 前景背景分離部 1 1 0 2の構成を示すプロック図である。

図 1 1 5は、 分離処理サーバの機能のさらに他の構成を示すブロック図である c 図 1 1 6は、 合成部 1 2 0 1の構成を示す図である。

図 1 1 7は、 分離サービスを説明するフローチヤ一トである。 図 1 1 8は、 課金処理を説明するフローチヤ一トである。

図 1 1 9は、 課金処理を説明する図である。

図 1 2 0は、 課金処理のその他の例を説明するフローチヤ一トである。 図 1 2 1は、 動き検出サービスを説明するフローチヤ一トである。 図 1 2 2は、 領域特定サービスを説明するフローチャートである。 図 1 2 3は、 混合比算出サービスを説明するフローチヤ一トである。 図 1 2 4は、 前景背景分離サービスを説明するフローチヤ一トである。 図 1 2 5は、 動きボケ調整サービスを説明するフローチヤ一トである。 図 1 2 6は、 符号化サーバを説明する図である。

図 1 2 7は、 符号化サービスを説明するフローチャートである。

図 1 2 8は、 符号化処理による圧縮時の圧縮能力を説明する図である。 図 1 2 9は、 符号化サーバのその他の例を説明する図である。

図 1 3 0は、 合成サービスを説明するフ口一チヤ一トである。

図 1 3 1は、 暗号用動きボケ付加部を説明する図である。

図 1 3 2は、 暗号用動きボケ除去部を説明する図である。

図 1 3 3は、 暗号用動きボケを付加する処理を説明する図である。 図 1 3 4は、 暗号用動きボケを付加する処理を説明する図である。 図 1 3 5は、 暗号用動きボケを付加する処理を説明する図である。 図 1 3 6は、 暗号化処理を説明するフローチヤ一トである。

図 1 3 7は、 暗号用動きボケを付加する処理を説明する図である。 図1 3 8は、 暗号用動きボケを付加する処理を説明する図である。 図 1 3 9は、 暗号用動きボケを付加する処理を説明する図である。 図 1 4 0は、 暗号用動きボケを付加する処理を説明する図である。 図 1 4 1は、 暗号用動きボケを付加する処理を説明する図である。 図 1 4 2は、 暗号用動きボケを付加する処理を説明する図である。 図 1 4 3は、 暗号用動きボケを付加する処理を説明する図である。 図 1 4 4は、 暗号用動きボケを付加する処理を説明する図である。 図 1 4 5は、 暗号用動きボケを付加する処理を説明する図である。

図 1 4 6は、 暗号用動きボケを付加する処理を説明する図である。

図 1 4 7は、 暗号用動きボケを付加する処理を説明する図である。

図 1 4 8は、 暗号用動きボケを付加する処理を説明する図である。

図 1 4 9は、 暗号用動きボケを付加する処理を説明する図である。

図 1 5 0は、 暗号用動きボケを付加する処理を説明する図である。

図 1 5 1は、 暗号用サービスを説明するフローチヤ一トである。

図 1 5 2は、 修正サーバを説明する図である。

図 1 5 3 Aは、 修正処理を説明する図である。

図 1 5 3 Bは、 修正処理を説明する図である。

図 1 5 3 Cは、 修正処理を説明する図である。

図 1 5 3 Dは、 修正処理を説明する図である。

図 1 5 4は、 修正サービスを説明するフローチヤ一トである。

図 1 5 5は、 購入サービスを説明するフローチヤ一トである。

図 1 5 6は、 売却サービスを説明するフローチャートである。

図 1 5 7は、 売却課金処理を説明するフローチャートである。

図 1 5 8は、 検索サーバを説明する図である。

図 1 5 9は、 検索サービスを説明するフローチヤ一トである。

図 1 6 0は、 検索サービスを説明する図である。 発明を実施するための最良の形態

図 1は、 本発明に係る画像処理システムの一実施の形態を示す図である。

本発明の画像処理システムは、 例えば、 インターネットなどのネットワーク 1 上に分離処理サーバ 1 1、 動き検出サーバ 1 2、 領域特定サーバ 1 3、 混合比算 出サーバ 1 4、 前景背景分離処理サーバ 1 5、 動きボケ調整サーバ 1 6、 符号化 サーバ 1 7、 蓄積サーバ 1 8— 1 , 1 8 - 2 , 合成サーバ 1 9、 修正サーバ 2 0 , 購入サーバ 2 1、 売却サーバ 2 2、 検索サーバ 2 3、 課金サーバ 2 4、 金融サー バ (顧客用) 2 5、 金融サーバ (提供者用) 2 6、 クライアントコンピュータ 2 7、 および、 カメラ端末装置 2 8— 1乃至 2 8— nが、 接続されており相互にデ ータを授受できる構成となっている。 分離処理サーバ 1 1、 動き検出サーバ 1 2、 領域特定サーバ 1 3、 混合比算出サーバ 1 4、 前景背景分離処理サーバ 1 5、 動 きボケ調整サーバ 1 6、 符号化サーバ 1 7、 合成サーバ 1 9、 修正サーバ 2 0、 購入サーバ 2 1、 売却サーバ 2 2、 検索サーバ 2 3、 課金サーバ 2 4、 金融サー バ (顧客用) 2 5、 および、 金融サーバ (提供者用) 2 6は、 それぞれ分離サー ビス、 動き検出サービス、 領域特定サービス、 混合比算出サービス、 前景背景分 離サービス、 動きボケ調整サービス、 符号化サービス、 合成サービス、 修正サー ビス、 購入サービス、 売却サービス、 検索サービス、 課金サービス、 および、 金 融サービス (顧客用、 および、 提供者用) を提供する提供者により管理、 または, 運営されるサーバである。 尚、 以下の説明において、 蓄積サーバ 1 8— 1 , 1 8 一 2、 および、 カメラ端末装置 2 8— 1乃至 2 8— ηを個々に区別する必要がな いとき、 単に蓄積サーバ 1 8、 および、 カメラ端末装置 2 8と称する。 また、 そ の他のサーバ、 および、 機器についても同様とする。

図 2は、 本発明に係る分離処理サーバ 1 1の構成を示す図である。 CPU

(Central Proces s i ng Uni t) 4 1は、 ROM (Read On ly Memory) 4 2、 または 記憶部 4 8に記憶されているプログラムに従って各種の処理を実行する。 RAM (Random Acces s Memory) 4 3には、 CPU 4 1が実行するプログラムやデータ などが適宜記憶される。 これらの CPU 4 1、 ROM 4 2 , および RAM 4 3は、 バス 4 4により相互に接続されている。

CPU 4 1にはまた、 バス 4 4を介して入出力ィンタフェース 4 5が接続されて いる。 入出力インタフェース 4 5には、 キーボード、 マウス、 マイクロホンなど よりなる入力部 4 6、 ディスプレイ、 スピーカなどよりなる出力部 4 7が接続さ れている。 CPU 4 1は、 入力部 4 6から入力される指令に対応して各種の処理を 実行する。 そして、 CPU 4 1は、 処理の結果得られた画像や音声等を出力部 4 7 に出力する。 入出力ィンタフ-一ス 4 5に接続されている記憶部 4 8は、 例えばハードディ スクなどで構成され、 CPU 4 1が実行するプログラムや各種のデータを記憶する c 通信部 4 9は、 インタ一ネッ ト、 その他のネットワークを介して外部の装置と通 信する。

また、 通信部 4 9を介してプログラムを取得し、 記憶部 4 8に記憶してもよい 入出力インタフェース 4 5に接続されているドライブ 5 0は、 磁気ディスク 6 1、 光ディスク 6 2、 光磁気ディスク 6 3、 或いは半導体メモリ 6 4などが装着 されたとき、 それらを駆動し、 そこに記録されているプログラムやデータなどを 取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 4 8に転送さ れ、 記憶される。

尚、 動き検出サーバ 1 2、 領域特定サーバ 1 3、 混合比算出サーバ 1 4、 前景 背景分離処理サーバ 1 5、 動きボケ調整サーバ 1 6、 符号化サーバ 1 7、 蓄積サ ーバ 1 8— 1 , 1 8 - 2 , 合成サーバ 1 9、 修正サーバ 2 0、 購入サーバ 2 1 、 売却サーバ 2 2、 検索サーバ 2 3、 課金サーバ 2 4、 金融サーバ (顧客用) 2 5、 金融サーバ (提供者用) 2 6、 および、 クライアントコンピュータ 2 7について は、 その基本構成が分離処理サーバ 1 1と同様であるので、 その説明は省略する c 図 3は、 本発明に係るカメラ端末装置 2 8の構成を示す図である。 カメラ端末 装置 2 8の構成は、 入力部 7 6にセンサ 7 6 a、 および、 GPS (Global

Pos i t ioning System) 7 6 bが設けられ、 出力部 7 7には、 LCD (Li qui d

Crystal Di splay) 7 7 aが設けられている以外は、 分離処理サーバ 1 1の構成 と同じ構成となっている。 すなわち、 カメラ端末装置 2 8の CPU 7 1 、 R0M 7 2、 RAM 7 3、 ノ ス 7 4、 入出力インタフェース 7 5、 入力部 7 6、 出力部 7 7、 記 憶部 7 8、 通信部 7 9、 ドライブ 8 0、 磁気ディスク 9 1、 光ディスク 9 2、 光 磁気ディスク 9 3、 および、 半導体メモリ 9 4は、 それぞれ分離処理サーバ 1 1 の CPU 4 1 、 ROM 4 2、 RAM 4 3、 バス 4 4、 入出力ィンタフエ一ス 4 5、 入力部 4 6、 出力部 4 7、 記憶部 4 8、 通信部 4 9、 ドライブ 5 0、 磁気ディスク 6 1、 光ディスク 6 2、 光磁気ディスク 6 3、 および、 半導体メモリ 6 4に、 それぞれ 対応している。

センサ 7 6 aは、 撮像素子であり撮像した画像を入力部 7 6に出力する。 GPS 7 6 bは、 図示せぬ静止衛星より送信されてくる信号に基づいて、 地球上の位置 情報 (緯度、 および、 経度) を検出し、 その検出した位置情報を入力部 7 6に出 力する。 LCD 7 7 aは、 出力部より出力される画像を表示する。

次に、 図 4 , 図 5を参照して、 分離処理サーバ 1 1について説明する。

分離処理サーバ 1 1は、 図 4で示すように、 ネットワーク 1を介して、 例えば、 クライアントコンピュータ 2 7などから入力される画像を後述する手法により、 前景成分画像と背景成分画像に分離し、 入力画像、 前景成分画像、 および、 背景 成分画像の各々に ID ( Identi fi er) を付して生成してクライアントコンビユー タ 2 7に出力する、 自らで記憶する、 蓄積サーバ 1 8に出力して蓄積させる、 ま たは、 ネットワーク上のその他のサーバに出力して記憶させる。 ここで、 前景成 分画像とは、 入力される画像中で動きの成分を有する画像を示し、 背景成分画像 とは、 入力される画像中の動き成分を含まない静止部分の画像を示す。 このとき、 課金処理部 1 1 aは、 ネットワーク 1を介して課金サーバ 2 4に対して、 分離処 理に係る料金の課金処理を実行する。 また、 図 5で示すように、 分離処理サーバ 1 1は、 画像の代わりに、 画像を指定する画像 IDが入力されると、 ネットヮー ク 1上の後述する検索サーバ 2 3や蓄積サーバ 1 8にアクセスしたり、 自らの記 憶部 (例えば、 図 3の記憶部 7 8 ) を検索して、 入力された画像 IDに対応する 画像データを読出し、 前景成分画像と背景成分画像に分離した後、 それぞれに対 応する IDを付して、 自らで記憶する、 または、 ネットワーク 1上のその他のサ ーバに出力し、 そのサーバに対応する処理を実行させる。

尚、 以下の説明において、 画像を指定する情報として画像 IDを例として説明 していく力 S、 画像が指定できる情報であればよく、 例えば、 後述する画像位置情 報であってもよい。

次に、 図 6 , 図 7を参照して、 動き検出サーバ 1 2について説明する。

図 6で示すように、 動き検出サーバ 1 2のオブジェクト抽出部 1 2 aは、 例え ば、 クライアントコンピュータ 2 7などから入力される画像中の画像オブジェク トを抽出して、 動き検出部 1 2 bに出力する。 動き検出部 1 2 bは、 入力された 画像オブジェク トの動きべク トルと位置情報を検出してクライアントコンピュー タ 2 7に出力する、 自らで記憶する、 または、 ネッ トワーク 1上のその他のサー バに出力し、 そのサーバに対応する処理を実行させる。 この際、 課金処理部 1 2 cは、 ネッ トワーク 1を介して課金サーバ 2 4に対して、 各画像オブジェク ト毎 の動きべク トルと位置情報の検出の処理に係る料金の課金処理を実行する。 尚、 この明細書において、 撮像の対象となる、 現実世界におけるオブジェク トに対応 する画像を、 オブジェク トと称する。

また、 図 7で示すように、 動き検出サーバ 1 2は、 画像の代わりに、 画像を指 定する画像 IDが入力されると、 ネットワーク 1上の後述する検索サーバ 2 3や 蓄積サーバ 1 8にアクセスしたり、 自らの記憶部 (例えば、 図 3の記憶部 7 8 ) を検索して、 入力された画像 IDに対応する画像データを読出し、 上記と同様の 処理を実行する。

次に、 図 8, 図 9を参照して、 領域特定サーバ 1 3について説明する。

領域特定サーバ 1 3は、 図 8で示すように、 ネットワーク 1を介して、 例えば、 クライアントコンピュータ 2 7などから入力される画像と、 その画像中のォブジ ェク トを指定するオブジェク ト指定情報により、 入力された画像の画素のそれぞ れを、 前景領域、 背景領域、 または混合領域のいずれかに特定し、 画素毎に前景 領域、 背景領域、 または混合領域のいずれかに属するかを示す情報 (以下、 領域 情報と称する) を生成し、 クライアントコンピュータ 2 7に出力する、 自らで記 憶する、 または、 ネットワーク 1上のその他のサーバに出力し、 そのサーバに対 応する処理を実行させる。 このとき、 課金処理部 1 3 aは、 ネットワーク 1を介 して課金サーバ 2 4に対して、 領域特定処理に係る料金の課金処理を実行する。 また、 図 9で示すように、 領域特定サーバ 1 3は、 画像の代わりに、 画像を指定 する画像 IDが入力されると、 ネットワーク 1上の後述する検索サーバ 2 3ゃ蓄 積サーバ 1 8にアクセスしたり、 自らの記憶部 (例えば、 図 3の記憶部 7 8 ) を 検索して、 入力された画像 IDに対応する画像を呼び出し、 その画像のオブジェ ク ト指定情報に対応する領域情報を出力する。

次に、 図 1 0 , 図 1 1を参照して、 混合比算出サーバ 1 4について説明する。 混合比算出サーバ 1 4は、 図 1 0で示すように、 ネッ トワーク 1を介して、 例 えば、 クライアントコンピュータ 2 7などから入力される画像、 その画像中のォ ブジェク トを指定するオブジェク ト指定情報、 および、 領域情報に基づいて、 混 合領域に含まれる画素に対応する混合比 (以下、 混合比 αと称する) を算出して、 算出した混合比をクライアントコンピュータ 2 7に出力する、 自らで記憶する、 または、 ネットワーク上のその他のサーバに出力し、 そのサーバに対応する処理 を実行させる。 このとき、 課金処理部 1 4 aは、 ネッ トワーク 1を介して課金サ ーバ 2 4に対して、 混合比算出処理に係る料金の課金処理を実行する。 また、 図 1 1で示すように、 混合比算出サーバ 1 4は、 画像の代わりに、 画像を指定する 画像 IDが入力されると、 ネッ トワーク 1上の後述する検索サーバ 2 3や蓄積サ ーバ 1 8にアクセスしたり、 自らの記憶部 (例えば、 図 3の記憶部 7 8 ) を検索 して、 入力された画像 IDに対応する画像を呼び出し、 上述と同様の処理を実行 する。

次に、 図 1 2 , 図 1 3を参照して、 前景背景分離処理サーバ 1 5について説明 する。

前景背景分離処理サーバ 1 5は、 図 1 2で示すように、 ネッ トワーク 1を介し て、 例えば、 クライアントコンピュータ 2 7などから入力される画像、 その画像 中のオブジェク トを指定するオブジェク ト指定情報、 領域情報、 および、 混合比 αに基づいて、 前景のオブジェク 卜に対応する画像の成分 (以下、 前景の成分と も称する) のみから成る前景成分画像と、 背景の成分 (以下、 背景の成分とも称 する) のみから成る背景成分画像とに入力画像を分離して、 各画像毎に I Dを付 してクライアントコンピュータ 2 7に出力する、 自らで記憶する、 または、 ネッ トワーク上のその他のサーバに出力し、 そのサーバに対応する処理を実行させる c このとき、 課金処理部 1 5 aは、 ネッ トワーク 1を介して課金サーバ 2 4に対し て、 前景背景分離処理に係る料金の課金処理を実行する。 また、 図 1 3で示すよ うに、 前景背景分離処理サーバ 1 5は、 画像の代わりに、 画像を指定する画像 IDが入力されると、 ネットワーク 1上の後述する検索サーバ 2 3や蓄積サーバ 1 8にアクセスしたり、 自らの記憶部 (例えば、 図 3の記憶部 7 8 ) を検索して、 入力された画像 ID に対応する画像を呼び出して、 上述と同様の処理を実行する c 次に、 図 1 4, 図 1 5を参照して、 動きボケ調整サーバ 1 6について説明する c 動きボケ調整サーバ 1 6は、 図 1 4で示すように、 ネットワーク 1を介して、 例えば、 クライアントコンピュータ 2 7などから入力される前景成分画像、 動き ベク トル、 および、 動きボケ量に基づいて、 前景成分画像に含まれる動きボケを 除去する、 動きボケの量を減少させる、 または動きボケの量を増加させるなど前 景成分画像に含まれる動きボケの量を調整して、 動きボケの量を調整した前景成 分画像を生成し、 画像毎に I Dを付してクライアントコンピュータ 2 7に出力す る、 自らで記憶する、 または、 ネットワーク上のその他のサーバに出力し、 その サーバに対応する処理を実行させる。 このとき、 課金処理部 1 6 aは、 ネッ トヮ ーク 1を介して課金サーバ 2 4に対して、 動きボケ調整処理に係る料金の課金処 理を実行する。 また、 図 1 5で示すように、 動きボケ調整サーバ 1 6は、 前景成 分画像の代わりに、 前景成分画像を指定する前景成分画像 IDが入力されると、 ネットワーク 1上の後述する検索サーバ 2 3や蓄積サーバ 1 8にアクセスしたり、 自らの記憶部 (例えば、 図 3の記憶部 7 8 ) を検索して、 入力された前景成分画 像 I Dに対応する前景成分画像を呼び出して、 上述と同様の処理を実行する。

次に、 図 1 6, 図 1 7を参照して、 符号化サーバ 1 7について説明する。

符号化サーバ 1 7は、 図 1 6で示すように、 ネットワーク 1を介して、 例えば、 クライアントコンピュータ 2 7などから入力される画像を前景成分画像と背景成 分画像に分離し、 それぞれに I Dを付して、 自らで記憶する、 または、 ネッ トヮ —ク上のその他のサーバに出力して記憶させ、 記憶させたそのサーバの URL

(Un iver sa l Re source Locator) などの前景成分画像、 および、 背景成分画像 が出力 (記憶) されたサーバのネットワーク 1上の位置を示す符号からなる前景 成分画像位置情報、 および、 背景成分画像位置情報を生成し、 それらの画像の動 きべク トル、 位置情報、 および、 混合比といった情報と共に出力する。 また、 符 号化情報が出力する情報は、 符号化情報、 画像、 および、 画像および符号化情報 のいずれであってもよく、 必要に応じて出力する情報を変えることができる。 ま た、 このとき、 課金処理部 1 7 aは、 ネットワーク 1を介して課金サーバ 2 4に 対して、 符号化処理に係る料金の課金処理を実行する。 また、 図 1 7で示すよう に、 符号化サーバ 1 7は、 画像の代わりに、 画像を指定する画像 IDが入力され ると、 ネットワーク 1上の後述する検索サーバ 2 3や蓄積サーバ 1 8にアクセス したり、 自らの記憶部 (例えば、 図 3の記憶部 7 8 ) を検索して、 入力された画 像 IDに対応する画像を呼び出して、 上述と同様の処理を実行する。

次に、 図 1 8 , 図 1 9を参照して、 蓄積サーバ 1 8について説明する。

蓄積サーバ 1 8は、 図 1 8で示すように、 ネッ トワーク 1上に接続され、 各種 のサーバより送信されてくる画像を蓄積すると共に、 蓄積させた画像に対応する 画像位置情報を画像 IDと共に出力する。 この画像位置情報により、 例えば、 ク ライアントコンピュータ 2 7は、 ネッ トワーク 1を介してアクセスし、 所望の画 像を呼び出すことができる。 すなわち、 図 1 9で示すように、 例えば、 クライア ントコンピュータ 2 7が、 画像位置情報に基づいて、 ネットワーク 1状の蓄積サ —バ 1 8にアクセスし、 所望とする画像に対応する画像 IDを指定することによ り、 所望する画像を読み出すことができる。 尚、 この明細書中では、 画像位置情 報と画像 IDとを別に説明していく力 S、 画像位置情報は、 画像 IDの一部とする ようにしても良く、 この場合、 画像 ID により画像位置情報を認識することでき, ネットワーク 1上のどのサーバに記憶 (蓄積、 または、 処理) されているのかを 認識できるようにしてもよレ、。 また、 蓄積サーバ 1 8は、 画像データ以外にも、 動きべク トル、 位置情報、 混合比、 および、 動きボケ量を記憶するようにしても よい。

次に、 図 2 0 , 図 2 1を参照して、 合成サーバ 1 9について説明する。

合成サーバ 1 9は、 図 2 0で示すように、 ネッ トワーク 1を介して、 例えば、 クライアントコンピュータ 2 7などから入力される画像 A, Bといった 2個の画 像と、 動きべク トル、 および、 位置情報、 混合比、 および、 動きボケ量から画像 A , Bを合成し、 合成画像 (A + B ) を生成して、 クライアントコンピュータ 2 7に出力する、 自らで記憶する、 または、 ネッ トワーク 1上のその他のサーバに 出力し、 そのサーバに対応する処理を実行させる。 この場合、 画像 A , Bは、 一 方が前景成分画像として、 他方が背景成分画像として扱われることにより、 両者 が合成されることになる。 このとき、 課金処理部 1 9 aは、 ネットワーク 1を介 して課金サーバ 2 4に対して、 合成処理に係る料金の課金処理を実行する。 また、 図 2 1で示すように、 合成サーバ 1 9は、 画像 A , Bの代わりに、 画像を指定す る画像 A— ID, B— IDが入力されると、 ネットワーク 1上の後述する検索サー バ 2 3や蓄積サーバ 1 8にアクセスしたり、 自らの記憶部 (例えば、 図 3の記憶 部 7 8 ) を検索して、 入力された画像 A— ID, B— IDに対応する画像を呼び出 して、 上述と同様の処理を実行する。

次に、 図 2 2, 図 2 3を参照して、 修正サーバ 2 0について説明する。

修正サーバ 2 0は、 図 2 2で示すように、 ネッ トワーク 1を介して、 例えば、 クライアントコンピュータ 2 7などから入力される画像を、 動きべク トル、 およ び、 位置情報、 混合比、 および、 動きボケ量に基づいて修正し、 修正画像を生成 してクライアントコンピュータ 2 7に出力する、 自らで記憶する、 または、 ネッ トワーク上のその他のサーバに出力し、 そのサーバに対応する処理を実行させる c このとき、 課金処理部 2 0 aは、 ネッ トワーク 1を介して課金サーバ 2 4に対し て、 修正処理に係る料金の課金処理を実行する。 また、 図 2 3で示すように、 修 正サーバ 2 0は、 画像の代わりに、 画像を指定する画像 IDが入力されると、 ネ ットワーク 1上の後述する検索サーバ 2 3や蓄積サーバ 1 8にアクセスしたり、 自らの記憶部 (例えば、 図 3の記憶部 7 8 ) を検索して、 入力された画像 IDに 対応する画像を呼び出して、 上述と同様の処理を実行する。

次に、 図 2 4を参照して購入サーバ 2 1について説明する。

購入サーバ 2 1は、 図 2 4で示すように、 ネッ トワーク 1を介して、 例えば、 所定の画像の購入を希望する使用者によりクライアントコンピュータ 2 7などが 操作されて、 購入を希望する画像を指定する画像 IDが入力されると、 対応する 画像をネッ トワーク 1上の分離処理サーバ 1 1、 蓄積サーバ 1 8、 合成サーバ 1 9、 または、 修正サーバ 2 0などにアクセスし、 対応する画像を呼び出し、 クラ イアントコンピュータ 2 7に出力する。 このとき、 課金処理部 2 1 aは、 ネット ワーク 1を介して課金サーバ 2 4に対して、 購入する画像に係る料金の課金処理 を実行する。

次に、 図 2 5を参照して売却サーバ 2 2について説明する。

売却サーバ 2 2は、 図 2 5で示すように、 ネッ トワーク 1を介して、 例えば、 分離処理サーバ 1 1、 合成サーバ 1 9、 または、 修正サーバ 2 0により生成され た、 所定の使用者が所有する分離画像、 合成画像、 または、 修正画像の売却を希 望する画像が入力されると、 売却を希望する画像をネットワーク 1上の分離処理 サーバ 1 1、 蓄積サーバ 1 8、 合成サーバ 1 9、 または、 修正サーバ 2 0などに 記憶させると共に、 課金処理部 2 2 aが、 ネッ トワーク 1を介して課金サーバ 2 4に対して、 売却する画像に係る料金の課金処理を実行する (この場合、 売却処 理サービスの提供者が、 売却を希望する使用者に、 売却された画像に対応する価 格分の支払処理を実行することになる) 。

次に、 図 2 6を参照して、 検索サーバ 2 6について説明する。

検索サーバ 2 6は、 例えば、 クライアントコンピュータ 1により使用者が所望 とする画像の特徴を示す情報や、 カメラ端末装置 2 8— 1乃至 2 8— nの物理的 な位置情報からネッ トワーク 1上のカメラ端末装置 2 8— 1乃至 2 8— nで現在 撮像している画像、 または、 予め撮像された画像を検索して、 要求画像としてク ライアントコンピュータ 1に出力する。 このとき、 課金処理部 2 3 aは、 ネッ ト ワーク 1を介して課金サーバ 2 4に対して、 検索処理に係る料金の課金処理を実 行する。

尚、 本明細書においては、 符号化とは画像データに基づいて得られる、 前景成 分画像、 背景成分画像、 動きべク トル、 位置情報、 動きボケ量、 および、 混合比 の情報に変換することを符号化、 そのデータを符号化データと呼ぶものとする。 図 2 7は、 分離処理サーバ 1 1を示すブロック図である。

なお、 分離処理サーバ 1 1の各機能をハードウェアで実現するか、 ソフトゥェ ァで実現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェア のブロック図と考えても、 ソフトウェアによる機能ブロック図と考えても良い。 分離処理サーバ 1 1に供給された入力画像は、 オブジェク ト抽出部 1 0 1、 領 域特定部 1 0 3、 混合比算出部 1 0 4、 および前景背景分離部 1 0 5に供給され る。 '

オブジェク ト抽出部 1 0 1は、 入力画像に含まれる前景のオブジェク トに対応 する画像オブジェク トを粗く抽出して、 抽出した画像オブジェク トを動き検出部 1 0 2に供給する。 オブジェク ト抽出部 1 0 1は、 例えば、 入力画像に含まれる 前景のオブジェク トに対応する画像オブジェク トの輪郭を検出することで、 前景 のォブジェク トに対応する画像オブジェク トを粗く抽出する。

オブジェク ト抽出部 1 0 1は、 入力画像に含まれる背景のオブジェク トに対応 する画像オブジェク トを粗く抽出して、 抽出した画像オブジェク トを動き検出部 1 0 2に供給する。 オブジェク ト抽出部 1 0 1は、 例えば、 入力画像と、 抽出さ れた前景のオブジェク トに対応する画像オブジェク トとの差から、 背景のォブジ エタ トに対応する画像オブジェク トを粗く抽出する。

また、 例えば、 オブジェク ト抽出部 1 0 1は、 内部に設けられている背景メモ リに記憶されている背景の画像と、 入力画像との差から、 前景のォブジェク 卜に 対応する画像オブジェク ト、 および背景のオブジェク トに対応する画像オブジェ ク トを粗く抽出するようにしてもよい。

動き検出部 1 0 2は、 例えば、 プロックマッチング法、 勾配法、 位相相関法、 およびペルリカーシブ法などの手法により、 粗く抽出された前景のオブジェク ト に対応する画像オブジェク トの動きべク トルを算出して、 算出した動きべク トル および動きべク トルの位置情報 (動きべク トルに対応する画素の位置を特定する 情報) を領域特定部 1 0 3および動きボケ調整部 1 0 6に供給する。 動き検出部 1 0 2が出力する動きべク トルには、 動き量 Vに対応する情報が 含まれる。

また、 例えば、 動き検出部 1 0 2は、 画像オブジェク トに画素を特定する画素 位置情報と共に、 画像ォブジェク ト毎の動きべク トルを動きボケ調整部 1 0 6に 出力するようにしてもよレ、。

動き量 Vは、 動いているオブジェク トに対応する画像の位置の変化を画素間 隔を単位として表す値である。 例えば、 前景に対応するォブジェク トの画像が、 あるフレームを基準として次のフレームにおいて 4画素分離れた位置に表示され るように移動しているとき、 前景に対応するオブジェク トの画像の動き量 V は、 4とされる。

なお、 オブジェク ト抽出部 1 0 1および動き検出部 1 0 2は、 動いているォブ ジェク トに対応した動きボケ量の調整を行う場合に必要となる。

領域特定部 1 0 3は、 入力された画像の画素のそれぞれを、 前景領域、 背景領 域、 または混合領域のいずれかに特定し、 画素毎に前景領域、 背景領域、 または 混合領域のいずれかに属するかを示す情報を混合比算出部 1 0 4、 前景背景分離 部 1 0 5、 および動きボケ調整部 1 0 6に供給する。

混合比算出部 1 0 4は、 入力画像、 および領域特定部 1 0 3から供給された領 域情報を基に、 混合領域に含まれる画素に対応する混合比を算出して、 算出した 混合比を前景背景分離部 1 0 5に供給する。

混合比 αは、 後述する式 (3 ) に示されるように、 画素値における、 背景のォ ブジエタ トに対応する画像の成分 (以下、 背景の成分とも称する) の割合を示す 値である。

前景背景分離部 1 0 5は、 領域特定部 1 0 3から供給された領域情報、 および 混合比算出部 1 0 4から供給された混合比 αを基に、 前景のオブジェク トに対応 する画像の成分 (以下、 前景の成分とも称する) のみから成る前景成分画像と、 背景の成分のみから成る背景成分画像とに入力画像を分離して、 前景成分画像を 動きボケ調整部 1 0 6および選択部 1 0 7に供給する。 なお、 分離された前景成 分画像を最終的な出力とすることも考えられる。 従来の混合領域を考慮しないで 前景と背景だけを特定し、 分離していた方式に比べ正確な前景と背景を得ること が出来る。

動きボケ調整部 1 0 6は、 動きべク トルからわかる動き量 Vおよび領域情報 を基に、 前景成分画像に含まれる 1以上の画素を示す処理単位を決定する。 処理 単位は、 動きボケの量の調整の処理の対象となる 1群の画素を指定するデータで ある。

動きボケ調整部 1 0 6は、 分離処理サーバ 1 1に入力された動きボケ調整量、 前景背景分離部 1 0 5から供給された前景成分画像、 動き検出部 1 0 2から供給 された動きべク トルおよびその位置情報、 並びに処理単位を基に、 前景成分画像 に含まれる動きボケを除去する、 動きボケの量を減少させる、 または動きボケの 量を増加させるなど前景成分画像に含まれる動きボケの量を調整して、 動きボケ の量を調整した前景成分画像を選択部 1 0 7に出力する。 動きべク トルとその位 置情報は使わないこともある。

ここで、 動きボケとは、 撮像の対象となる、 現実世界におけるオブジェク トの 動きと、 センサの撮像の特性とにより生じる、 動いているオブジェク トに対応す る画像に含まれている歪みをいう。

選択部 1 0 7は、 例えば使用者の選択に対応した選択信号を基に、 前景背景分 離部 1 0 5から供給された前景成分画像、 および動きボケ調整部 1 0 6から供給 された動きボケの量が調整された前景成分画像のいずれか一方を選択して、 選択 した前景成分画像を出力する。

次に、 図 2 8乃至図 4 3を参照して、 分離処理サーバ 1 1に供給される入力画 像について説明する。

図 2 8は、 センサ 7 6 aによる撮像を説明する図である。 センサ 7 6 aは、 例 えば、 固体撮像素子である CCD (Charge-Coupl ed Devi ce) エリアセンサを備え た CCDビデオカメラなどで構成される。 現実世界における、 前景に対応するォ ブジェク ト 1 1 2は、 現実世界における、 背景に対応するオブジェク ト 1 1 1と、 センサとの間を、 例えば、 図中の左側から右側に水平に移動する。

センサ 7 6 aは、 前景に対応するオブジェクト 1 1 2を、 背景に対応するォブ ジェタ ト 1 1 1と共に撮像する。 センサ 7 6 aは、 撮像した画像を 1フレーム単 位で出力する。 例えば、 センサ 7 6 aは、 1秒間に 3 0フレームから成る画像を 出力する。 センサ 7 6 aの露光時間は、 1ノ3 0秒とすることができる。 露光時 間は、 センサ 7 6 aが入力された光の電荷への変換を開始してから、 入力された 光の電荷への変換を終了するまでの期間である。 以下、 露光時間をシャツタ時間 とも称する。

図 2 9は、 画素の配置を説明する図である。 図 2 9中において、 A乃至 Iは、 個々の画素を示す。 画素は、 画像に対応する平面上に配置されている。 1つの画 素に対応する 1つの検出素子は、 センサ 7 6 a上に配置されている。 センサ 7 6 aが画像を撮像するとき、 1つの検出素子は、 画像を構成する 1つの画素に対応 する画素値を出力する。 例えば、 検出素子の X方向の位置は、 画像上の横方向の 位置に対応し、 検出素子の Y方向の位置は、 画像上の縦方向の位置に対応する。 図 3 0に示すように、 例えば、 CCDである検出素子は、 シャツタ時間に対応す る期間、 入力された光を電荷に変換して、 変換された電荷を蓄積する。 電荷の量 は、 入力された光の強さと、 光が入力されている時間にほぼ比例する。 検出素子 は、 シャツタ時間に対応する期間において、 入力された光から変換された電荷を、 既に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に 対応する期間、 入力される光を積分して、 積分された光に対応する量の電荷を蓄 積する。 検出素子は、 時間に対して、 積分効果があるとも言える。

検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電圧 値は更にデジタルデータなどの画素値に変換されて出力される。 従って、 センサ 7 6 aから出力される個々の画素値は、 前景または背景に対応するォブジェクト の空間的に広がりを有するある部分を、 シャツタ時間について積分した結果であ る、 1次元の空間に射影された値を有する。

分離処理サーバ 1 1は、 このようなセンサ 7 6 aの蓄積の動作により、 出力信 号に埋もれてしまった有意な情報、 例えば、 混合比ひを抽出する。 分離処理サー バ 1 1は、 前景の画像オブジェク ト自身が混ざり合うことによる生ずる歪みの量、 例えば、 動きボケの量などを調整する。 また、 分離処理サーバ 1 1は、 前景の画 像ォブジェクトと背景の画像オブジェク トとが混ざり合うことにより生ずる歪み の量を調整する。

図 3 1 A乃至図 3 1 Dは、 動いている前景に対応するォブジェク トと、 静止し ている背景に対応するォブジェク トとを撮像して得られる画像を説明する図であ る。 図 3 1 Aは、 動きを伴う前景に対応するオブジェク トと、 静止している背景 に対応するオブジェク トとを撮像して得られる画像を示している。 図 3 1 Aに示 す例において、 前景に対応するォブジェク トは、 画面に対して水平に左から右に 動いている。

図 3 1 Bは、 図 3 1 Aに示す画像の 1つのラインに対応する画素値を時間方向 に展開したモデル図である。 図 3 1 Bの横方向は、 図 3 1 Aの空間方向 Xに対応 している。

背景領域の画素は、 背景の成分、 すなわち、 背景のォブジェクトに対応する画 像の成分のみから、 その画素値が構成されている。 前景領域の画素は、 前景の成 分、 すなわち、 前景のオブジェク トに対応する画像の成分のみから、 その画素値 が構成されている。

混合領域の画素は、 背景の成分、 および前景の成分から、 その画素値が構成さ れている。 混合領域は、 背景の成分、 および前景の成分から、 その画素値が構成 されているので、 歪み領域ともいえる。 混合領域は、 更に、 カバードバックダラ ゥンド領域およびアンカバードバックグラウンド領域に分類される。

カバードバックグラウンド領域は、 前景領域に対して、 前景のオブジェク トの 進行方向の前端部に対応する位置の混合領域であり、 時間の経過に対応して背景 成分が前景に覆い隠される領域をいう。

これに対して、 アンカバードバックグラウンド領域は、 前景領域に対して、 前 景のォプジュク トの進行方向の後端部に対応する位置の混合領域であり、 時間の 経過に対応して背景成分が現れる領域をいう。

このように、 前景領域、 背景領域、 またはカバードバックグラウンド領域若し くはアンカバードバックグラウンド領域を含む画像が、 領域特定部 1 0 3、 混合 比算出部 1 0 4、 および前景背景分離部 1 0 5に入力画像として入力される。 図 3 2は、 以上のような、 背景領域、 前景領域、 混合領域、 カバードバックグ ラウンド領域、 およびアンカバードバックグラウンド領域を説明する図である。 図 3 1 Aと図 3 1 Bに示す画像に対応する場合、 背景領域は、 静止部分であり、 前景領域は、 動き部分であり、 混合領域のカバードバックグラウンド領域は、 背 景から前景に変化する部分であり、 混合領域のアンカバードバックグラウンド領 域は、 前景から背景に変化する部分である。

図 3 3は、 静止している前景に対応するォブジェク トおよび静止している背景 に対応するォブジェクトを撮像した画像における、 隣接して 1列に並んでいる画 素の画素値を時間方向に展開したモデル図である。 例えば、 隣接して 1列に並ん でいる画素として、 画面の 1つのライン上に並んでいる画素を選択することがで きる。

図 3 3に示す F01乃至 F04の画素値は、 静止している前景のオブジェク トに 対応する画素の画素値である。 図 3 3に示す B01乃至 B04の画素値は、 静止し ている背景のオブジェク トに対応する画素の画素値である。

図 3 3における縦方向は、 時間に対応し、 図中の上から下に向かって時間が経 過する。 図 3 3中の矩形の上辺の位置は、 センサ 7 6 aが入力された光の電荷へ の変換を開始する時刻に対応し、 図 3 3中の矩形の下辺の位置は、 センサ 7 6 a が入力された光の電荷への変換を終了する時刻に対応する。 すなわち、 図 3 3中 の矩形の上辺から下辺までの距離は、 シャッタ時間に対応する。

以下において、 シャツタ時間とフレーム間隔とが同一である場合を例に説明す る。

図 3 3における横方向は、 図 3 1 Aで説明した空間方向 Xに対応する。 より 具体的には、 図 3 3に示す例において、 図 3 3中の" F0 と記載された矩形の 左辺から" B04" と記載された矩形の右辺までの距離は、 画素のピッチの 8倍、 すなわち、 連続している 8つの画素の間隔に対応する。

前景のォブジェク トおよび背景のォブジェク トが静止している場合、 シャツタ 時間に対応する期間において、 センサ 7 6 aに入力される光は変化しない。

ここで、 シャツタ時間に対応する期間を 2つ以上の同じ長さの期間に分割する c 例えば、 仮想分割数を 4とすると、 図 3 3に示すモデル図は、 図 9に示すモデル として表すことができる。 仮想分割数は、 前景に対応するオブジェク トのシャツ タ時間内での動き量 Vなどに対応して設定される。 例えば、 4である動き量 V に対応して、 仮想分割数は、 4とされ、 シャツタ時間に対応する期間は 4つに分 割される。

図中の最も上の行は、 シャツタが開いて最初の、 分割された期間に対応する。 図中の上から 2番目の行は、 シャツタが開いて 2番目の、 分割された期間に対応 する。 図中の上から 3番目の行は、 シャツタが開いて 3番目の、 分割された期間 に対応する。 図中の上から 4番目の行は、 シャツタが開いて 4番目の、 分割され た期間に対応する。

以下、 動き量 Vに対応して分割されたシャツタ時間をシャツタ時間/ Vとも称 する。

前景に対応するォブジェク トが静止しているとき、 センサ 7 6 aに入力される 光は変化しないので、 前景の成分 FO l/vは、 画素値 F01を仮想分割数で除した 値に等しい。 同様に、 前景に対応するオブジェク トが静止しているとき、 前景の 成分 F02/vは、 画素値 F02を仮想分割数で除した値に等しく、 前景の成分

F03/v は、 画素値 F03 を仮想分割数で除した値に等しく、 前景の成分 F04/v は、 画素値 F04を仮想分割数で除した値に等しい。

背景に対応するォブジェク トが静止しているとき、 センサ 7 6 aに入力される 光は変化しないので、 背景の成分 BO l/vは、 画素値 B01を仮想分割数で除した 値に等しい。 同様に、 背景に対応するォブジェク トが静止しているとき、 背景の 成分 B02/vは、 画素値 B02を仮想分割数で除した値に等しく、 B03/vは、 画素 値 B03を仮想分割数で除した値に等しく、 B04/vは、 画素値 B04を仮想分割数 で除した値に等しい。

すなわち、 前景に対応するオブジェク トが静止している場合、 シャツタ時間に 対応する期間において、 センサ 7 6 aに入力される前景のォブジェク トに対応す る光が変化しないので、 シャツタが開いて最初の、 シャツタ時間/ Vに対応する 前景の成分 FO l/v と、 シャツタが開いて 2番目の、 シャツタ時間/ Vに対応する 前景の成分 FO l/vと、 シャツタが開いて 3番目の、 シャツタ時間/ Vに対応する 前景の成分 FO l/v と、 シャツタが開いて 4番目の、 シャツタ時間/ Vに対応する 前景の成分 FO l/v とは、 同じ値となる。 F02/v乃至 F04/vも、 FO l/vと同様の関 係を有する。

背景に対応するオブジェク トが静止している場合、 シャツタ時間に対応する期 間において、 センサ 7 6 aに入力される背景のォブジェク トに対応する光は変化 しないので、 シャツタが開いて最初の、 シャツタ時間/ Vに対応する背景の成分 BO l/vと、 シャツタが開いて 2番目の、 シャツタ時間/ Vに対応する背景の成分 BO l /vと、 シャツタが開いて 3番目の、 シャツタ時間/ Vに対応する背景の成分 BO l /vと、 シャツタが開いて 4番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/vとは、 同じ値となる。 B02/v乃至 B04/vも、 同様の関係を有する。

次に、 前景に対応するォブジェク 卜が移動し、 背景に対応するオブジェク 卜が 静止している場合について説明する。

図 3 5は、 前景に対応するオブジェク トが図中の右側に向かって移動する場合 の、 カバードバックグラウンド領域を含む、 1つのライン上の画素の画素値を時 間方向に展開したモデル図である。 図 3 5において、 前景の動き量 Vは、 4で ある。 1フレームは短い時間なので、 前景に対応するオブジェク トが剛体であり、 等速で移動していると仮定することができる。 図 3 5において、 前景に対応する オブジェク トの画像は、 あるフレームを基準として次のフレームにおいて 4画素 分右側に表示されるように移動する。

図 3 5において、 最も左側の画素乃至左から 4番目の画素は、 前景領域に属す る。 図 3 5において、 左から 5番目乃至左から 7番目の画素は、 カバードバック グラウンド領域である混合領域に属する。 図 3 5において、 最も右側の画素は、 背景領域に属する。

前景に対応するオブジェク 卜が時間の経過と共に背景に対応するオブジェク ト を覆い隠すように移動しているので、 カバードバックグラウンド領域に属する画 素の画素値に含まれる成分は、 シャツタ時間に対応する期間のある時点で、 背景 の成分から、 前景の成分に替わる。

例えば、 図 3 5中に太線枠を付した画素値 Mは、 式 (1 ) で表される。

M=B02/v+B02/v+F07/v+F06/v ( 1 )

例えば、 左から 5番目の画素は、 1つのシャツタ時間/ Vに対応する背景の成 分を含み、 3つのシャツタ時間/ Vに対応する前景の成分を含むので、 左から 5 番目の画素の混合比 α は、 1/4である。 左から 6番目の画素は、 2つのシャツ タ時間 /νに対応する背景の成分を含み、 2つのシャッタ時間 /νに対応する前景 の成分を含むので、 左から 6番目の画素の混合比 α は、 1/2である。 左から 7 番目の画素は、 3つのシャツタ時間/ Vに対応する背景の成分を含み、 1つのシ ャッタ時間/ Vに対応する前景の成分を含むので、 左から 7番目の画素の混合比 は、 3/4である。

前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 3 5中の左から 4番目の画素の、 シャツタが開いて最初の、 シャツタ時間/ V の前景の成分 F07/vは、 図 3 5中の左から 5番目の画素の、 シャツタが開いて 2番目のシャツタ時間 /vに対応する前景の成分に等しい。 同様に、 前景の成分 F07/vは、 図 3 5中の左から 6番目の画素の、 シャツタが開いて 3番目のシャツ タ時間 /vに対応する前景の成分と、 図 3 5中の左から 7番目の画素の、 シャツ タが開いて 4番目のシャツタ時間/ Vに対応する前景の成分とに、 それぞれ等し レ、。

前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 3 5中の左から 3番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの 前景の成分 F06/vは、 図 3 5中の左から 4番目の画素の、 シャツタが開いて 2 番目のシャツタ時間 /vに対応する前景の成分に等しい。 同様に、 前景の成分 F06/vは、 図 3 5中の左から 5番目の画素の、 シャツタが開いて 3番目のシャツ タ時間/ Vに対応する前景の成分と、 図 3 5中の左から 6番目の画素の、 シャツ タが開いて 4番目のシャッタ時間/ Vに対応する前景の成分とに、 それぞれ等し レ、。

前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 3 5中の左から 2番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの 前景の成分 F05/vは、 図 3 5中の左から 3番目の画素の、 シャツタが開いて 2 番目のシャツタ時間 /vに対応する前景の成分に等しい。 同様に、 前景の成分 F05/vは、 図 3 5中の左から 4番目の画素の、 シャツタが開いて 3番目のシャツ タ時間/ Vに対応する前景の成分と、 図 3 5中の左から 5番目の画素の、 シャツ タが開いて 4番目のシャッタ時間 /vに対応する前景の成分とに、 それぞれ等し い。

前景に対応するォブジェク 卜が、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 3 5中の最も左側の画素の、 シャツタが開いて最初のシャツタ時間/ Vの前景 の成分 F04/vは、 図 3 5中の左から 2番目の画素の、 シャツタが開いて 2番目 のシャツタ時間/ Vに対応する前景の成分に等しい。 同様に、 前景の成分 F04/v は、 図 3 5中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ時間 /vに対応する前景の成分と、 図 3 5中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vに対応する前景の成分とに、 それぞれ等しい。 動いているオブジェク トに対応する前景の領域は、 このように動きボケを含む ので、 歪み領域とも言える。 図 3 6は、 前景が図中の右側に向かって移動する場合の、 アンカバードバック グラウンド領域を含む、 1つのライン上の画素の画素値を時間方向に展開したモ デル図である。 図 3 6において、 前景の動き量 Vは、 4である。 1フレームは 短い時間なので、 前景に対応するオブジェク トが剛体であり、 等速で移動してい ると仮定することができる。 図 3 6において、 前景に対応するオブジェク トの画 像は、 あるフレームを基準として次のフレームにおいて 4画素分右側に移動する c 図 3 6において、 最も左側の画素乃至左から 4番目の画素は、 背景領域に属す る。 図 3 6において、 左から 5番目乃至左から 7番目の画素は、 アンカバードバ ックグラウンドである混合領域に属する。 図 3 6において、 最も右側の画素は、 前景領域に属する。

背景に対応するォブジェク トを覆っていた前景に対応するォブジェク トが時間 の経過と共に背景に対応するォブジェク トの前から取り除かれるように移動して いるので、 アンカバードバックグラウンド領域に属する画素の画素値に含まれる 成分は、 シャツタ時間に対応する期間のある時点で、 前景の成分から、 背景の成 分に替わる。

例えば、 図 3 6中に太線枠を付した画素値 M'は、 式 (2 ) で表される。

' =F02/v+F01 /v+B26/v+B26/v ( 2 )

例えば、 左から 5番目の画素は、 3つのシャツタ時間/ Vに対応する背景の成 分を含み、 1つのシャツタ時間/ Vに対応する前景の成分を含むので、 左から 5 番目の画素の混合比 α は、 3/4である。 左から 6番目の画素は、 2つのシャツ タ時間/ Vに対応する背景の成分を含み、 2つのシャッタ時間 / νに対応する前景 の成分を含むので、 左から 6番目の画素の混合比 α は、 1/2である。 左から 7 番目の画素は、 1つのシャツタ時間/ Vに対応する背景の成分を含み、 3つのシ ャッタ時間/ Vに対応する前景の成分を含むので、 左から 7番目の画素の混合比 α は、 1 /4である。

式 ( 1 ) および式 (2 ) をより一般化すると、 画素値 Μは、 式 (3 ) で表さ れる。 M= a -B +∑Fi/v (3) ここで、 ひ は、 混合比である。 Bは、 背景の画素値であり、 Fi/vは、 前景の 成分である。

前景に対応するォブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 動 き量 Vが 4であるので、 例えば、 図 3 6中の左から 5番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 FO l/vは、 図 3 6中の左から 6 番目の画素の、 シャッタが開いて 2番目のシャッタ時間/ Vに対応する前景の成 分に等しい。 同様に、 FO l/vは、 図 3 6中の左から 7番目の画素の、 シャツタが 開いて 3番目のシャッタ時間/ Vに対応する前景の成分と、 図 3 6中の左から 8 番目の画素の、 シャツタが開いて 4番目のシャツタ時間/ Vに対応する前景の成 分とに、 それぞれ等しい。

前景に対応するオブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 仮 想分割数が 4であるので、 例えば、 図 3 6中の左から 6番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 F02/vは、 図 3 6中の左から 7 番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vに対応する前景の成 分に等しい。 同様に、 前景の成分 F02/v は、 図 3 6中の左から 8番目の画素の、 シャツタが開いて 3番目のシャッタ時間 /vに対応する前景の成分に等しい。

前景に対応するォブジェク トが剛体であり、 等速で動くと仮定でき、 かつ、 動 き量 Vが 4であるので、 例えば、 図 3 6中の左から 7番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 F03/vは、 図 3 6中の左から 8 番目の画素の、 シャッタが開いて 2番目のシャッタ時間/ Vに対応する前景の成 分に等しい。

図 3 4乃至図 3 6の説明において、 仮想分割数は、 4であるとして説明したが、 仮想分割数は、 動き量 Vに対応する。 動き量 Vは、 一般に、 前景に対応するォ ブジェク トの移動速度に対応する。 例えば、 前景に対応するォブジェク トが、 あ るフレームを基準として次のフレームにおいて 4画素分右側に表示されるように 移動しているとき、 動き量 Vは、 4とされる。 動き量 Vに対応し、 仮想分割数 は、 4とされる。 同様に、 例えば、 前景に対応するォブジェク トが、 あるフレー ムを基準として次のフレームにおいて 6画素分左側に表示されるように移動して いるとき、 動き量 Vは、 6とされ、 仮想分割数は、 6とされる。

図 3 7および図 3 8に、 以上で説明した、 前景領域、 背景領域、 カバードバッ クグラウンド領域若しくはァンカバードバックグラウンド領域から成る混合領域 と、 分割されたシャッタ時間に対応する前景の成分および背景の成分との関係を 示す。

図 3 7は、 静止している背景の前を移動しているオブジェク トに対応する前景 を含む画像から、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示 す。 図 3 7に示す例において、 前景に対応するオブジェク ト Aは、 画面に対して 水平に移動している。

フレーム #n+ lは、 フレーム #nの次のフレームであり、 フレーム ίίη+2は、 フレ ーム #η+ 1の次のフレームである。

フレーム ttn 乃至フレーム #n+2 のいずれかから抽出した、 前景領域、 背景領域、 および混合領域の画素を抽出して、 動き量 Vを 4として、 抽出された画素の画 素値を時間方向に展開したモデルを図 3 8に示す。

前景領域の画素値は、 前景に対応するオブジェク ト Aが移動するので、 シャツ タ時間/ V の期間に対応する、 4つの異なる前景の成分から構成される。 例えば、 図 3 8に示す前景領域の画素のうち最も左側に位置する画素は、

?01 /^,?02 , 03 、ぉょび 04 から構成される。 すなわち、 前景領域の画素 は、 動きボケを含んでいる。

背景に対応するォブジェク トが静止しているので、 シャツタ時間に対応する期 間において、 センサ 7 6 aに入力される背景に対応する光は変化しない。 この場 合、 背景領域の画素値は、 動きボケを含まない。

カバードバックグラウンド領域若しくはアンカバードバックグラウンド領域か ら成る混合領域に属する画素の画素値は、 前景の成分と、 背景の成分とから構成 される。 次に、 オブジェク 卜に対応する画像が動いているとき、 複数のフレームにおけ る、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画素の 画素値を時間方向に展開したモデルについて説明する。 例えば、 オブジェク トに 対応する画像が画面に対して水平に動いているとき、 隣接して 1列に並んでいる 画素として、 画面の 1つのライン上に並んでいる画素を選択することができる。 図 3 9は、 静止している背景に対応するオブジェク トを撮像した画像の 3つの フレームの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置 の画素の画素値を時間方向に展開したモデル図である。 フレーム は、 フレー ム ttn- 1の次のフレームであり、 フレーム #n+ l は、 フレーム Hnの次のフレームで ある。 他のフレームも同様に称する。

図 3 9に示す B01乃至 B 12の画素値は、 静止している背景のオブジェク トに 対応する画素の画素値である。 背景に対応するォブジェク トが静止しているので、 フレーム #n- l乃至フレーム n+ 1において、 対応する画素の画素値は、 変化しな レ、。 例えば、 フレーム #n- lにおける B05の画素値を有する画素の位置に対応す る、 フレーム における画素、 およびフレーム ttn+ 1 における画素は、 それぞれ, B05の画素値を有する。

図 4 0は、 静止している背景に対応するオブジェク トと共に図中の右側に移動 する前景に対応するォブジェク トを撮像した画像の 3つのフレームの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画素の画素値を時間 方向に展開したモデル図である。 図 4 0に示すモデルは、 カバードバックグラウ ンド領域を含む。

図 4 0において、 前景に対応するオブジェク トが、 剛体であり、 等速で移動す ると仮定でき、 前景の画像が次のフレームにおいて 4画素右側に表示されるよう に移動するので、 前景の動き量 Vは、 4であり、 仮想分割数は、 4である。

例えば、 図 4 0中のフレーム ttn- 1の最も左側の画素の、 シャツタが開いて最 初のシャツタ時間/ Vの前景の成分は、 F 12/vとなり、 図 4 0中の左から 2番目 の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 12/v となる。 図 4 0中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ 時間/ Vの前景の成分、 および図 4 0中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F12/v となる。

図 4 0中のフレーム ttn- 1の最も左側の画素の、 シャッタが開いて 2番目のシ ャッタ時間/ Vの前景の成分は、 Fll/vとなり、 図 4 0中の左から 2番目の画素 の、 シャツタが開いて 3番目のシャツタ時間/ V の前景の成分も、 Fll/v となる。 図 4 0中の左から 3番目の画素の、 シャッタが開いて 4番目のシャッタ時間/ V の前景の成分は、 Fll/v となる。

図 4 0中のフレーム tin- 1の最も左側の画素の、 シャッタが開いて 3番目のシ ャッタ時間/ Vの前景の成分は、 FlO/vとなり、 図 4 0中の左から 2番目の画素 の、 シャツタが開いて 4番目のシャツタ時間/ V の前景の成分も、 FlO/v となる。 図 4 0中のフレーム #n- 1の最も左側の画素の、 シャツタが開いて 4番目のシャ ッタ時間/ Vの前景の成分は、 F09/v となる。

背景に対応するォブジェク トが静止しているので、 図 4 0中のフレーム #n - 1 の左から 2番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの背景の成 分は、 BOl/v となる。 図 4 0中のフレーム #n-lの左から 3番目の画素の、 シャ ッタが開いて最初および 2番目のシャツタ時間/ Vの背景の成分は、 B02/v とな る。 図 4 0中のフレーム #n-lの左から 4番目の画素の、 シャツタが開いて最初 乃至 3番目のシャッタ時間/ Vの背景の成分は、 B03/vとなる。

図 4 0中のフレーム ttn-1において、 最も左側の画素は、 前景領域に属し、 左 側から 2番目乃至 4番目の画素は、 カバードバックグラウンド領域である混合領 域に属する。

図 4 0中のフレーム #n-lの左から 5番目の画素乃至 1 2番目の画素は、 背景 領域に属し、 その画素値は、 それぞれ、 B04乃至 B11 となる。

図 4 0中のフレーム #nの左から 1番目の画素乃至 5番目の画素は、 前景領域 に属する。 フレーム #nの前景領域における、 シャツタ時間/ Vの前景の成分は、 F05/v乃至 F12/vのいずれかである。 前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 4 0中のフレーム Itnの左から 5番目の画素の、 シャッタが開いて最初のシャ ッタ時間/ V の前景の成分は、 F12/v となり、 図 4 0中の左から 6番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 12/v となる。 図 4 0中の左から 7番目の画素の、 シャッタが開いて 3番目のシャッタ時間/ Vの 前景の成分、 および図 4 0中の左から 8番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F12/v となる。

図 4 0中のフレーム ίίηの左から 5番目の画素の、 シャツタが開いて 2番目の シャツタ時間/ Vの前景の成分は、 Fl l/v となり、 図 4 0中の左から 6番目の画 素の、 シャツタが開いて 3番目のシャツタ時間/ Vの前景の成分も、 F l l / v とな る。 図 4 0中の左から 7番目の画素の、 シャツタが開いて 4番目のシャツタ時間 /vの前景の成分は、 Fl l /vとなる。

図 4 0中のフレーム #nの左から 5番目の画素の、 シャッタが開いて 3番目の シャツタ時間/ Vの前景の成分は、 F lO/v となり、 図 4 0中の左から 6番目の画 素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分も、 F lO/vとな る。 図 4 0中のフレーム #nの左から 5番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F09/v となる。

背景に対応するォブジェク トが静止しているので、 図4 0中のフレーム ttnの 左から 6番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの背景の成分 は、 B05/vとなる。 図 4 0中のフレーム ttnの左から 7番目の画素の、 シャツタ が開いて最初および 2番目のシャツタ時間/ Vの背景の成分は、 B06/vとなる。 図 4 0中のフレーム #nの左から 8番目の画素の、 シャッタが開いて最初乃至 3 番目の、 シャツタ時間/ Vの背景の成分は、 B07/ vとなる。

図 4 0中のフレーム ίίηにおいて、 左側から 6番目乃至 8番目の画素は、 カバ 一ドバックグラウンド領域である混合領域に属する。

図 4 0中のフレーム #ηの左から 9番目の画素乃至 1 2番目の画素は、 背景領 域に属し、 画素値は、 それぞれ、 B08乃至 B 1 1 となる。

図 4 0中のフレーム #n+ lの左から 1番目の画素乃至 9番目の画素は、 前景領 域に属する。 フレーム ttn+ 1の前景領域における、 シャツタ時間/ Vの前景の成分 は、 FO l /v乃至 F 12/vのいずれかである。

前景に対応するォブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 4 0中のフレーム #n+lの左から 9番目の画素の、 シャッタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F12/ vとなり、 図 4 0中の左から 1 0番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 12/ v とな る。 図 4 0中の左から 1 1番目の画素の、 シャツタが開いて 3番目のシャツタ時 間/ Vの前景の成分、 および図 4 0中の左から 1 2番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F12/vとなる。

図 4 0中のフレーム #n+lの左から 9番目の画素の、 シャツタが開いて 2番目 のシャツタ時間/ Vの期間の前景の成分は、 Fl l /vとなり、 図 4 0中の左から 1 0番目の画素の、 シャツタが開いて 3番目のシャツタ時間/ Vの前景の成分も、

Fl l/v となる。 図 4 0中の左から 1 1番目の画素の、 シャツタが開いて 4番目の, シャツタ時間/ Vの前景の成分は、 Fl l/v となる。

図 4 0中のフレーム ttn+ 1の左から 9番目の画素の、 シャッタが開いて 3番目 の、 シャツタ時間/ Vの前景の成分は、 F lO/vとなり、 図 4 0中の左から 1 0番 目の画素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分も、 FlO/v となる。 図 4 0中のフレーム #n+lの左から 9番目の画素の、 シャツタが開いて

4番目のシャッタ時間/ Vの前景の成分は、 F09/ Vとなる。

背景に対応するオブジェク トが静止しているので、 図 4 0中のフ L /一ム ίίη+ 1 の左から 1 0番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの背景の 成分は、 Β09/νとなる。 図 4 0中のフレーム ίίη+ lの左から 1 1番目の画素の、 シャッタが開いて最初および 2番目のシャッタ時間/ Vの背景の成分は、 Β ΙΟ/ν となる。 図 4 0中のフレーム ίίη+ 1の左から 1 2番目の画素の、 シャツタが開い て最初乃至 3番目の、 シャツタ時間/ Vの背景の成分は、 B l l/v となる。

図 4 0中のフレーム #n+l において、 左側から 1 0番目乃至 1 2番目の画素は、 カバードバックグラウンド領域である混合領域に対応する。

図 4 1は、 図 4 0に示す画素値から前景の成分を抽出した画像のモデル図であ る。

図 4 2は、 静止している背景と共に図中の右側に移動するオブジェク トに対応 する前景を撮像した画像の 3つのフレームの、 隣接して 1列に並んでいる画素で あって、 フレーム上で同一の位置の画素の画素値を時間方向に展開したモデル図 である。 図 4 2において、 アンカバードバックグラウンド領域が含まれている。 図 4 2において、 前景に対応するオブジェク トは、 剛体であり、 かつ等速で移 動していると仮定できる。 前景に対応するォブジェク トが、 次のフレームにおい て 4画素分右側に表示されるように移動しているので、 動き量 V は、 4である c 例えば、 図 4 2中のフレーム ίίη- lの最も左側の画素の、 シャツタが開いて最 初の、 シャツタ時間/ Vの前景の成分は、 F13/vとなり、 図 4 2中の左から 2番 目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F13/v となる。 図 4 2中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ 時間/ Vの前景の成分、 および図 4 2中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F 13/v となる。

図 4 2中のフレーム ttn- 1の左から 2番目の画素の、 シャッタが開いて最初の シャツタ時間/ Vの前景の成分は、 F14/vとなり、 図 4 2中の左から 3番目の画 素の、 シャツタが開いて 2番目のシャツタ時間 /vの前景の成分も、 F 14/vとな る。 図 4 2中の左から 3番目の画素の、 シャツタが開いて最初の、 シャツタ時間 /vの前景の成分は、 F 15/ Vとなる。

背景に対応するォブジェク トが静止しているので、 図4 2中のフレーム #n- l の最も左側の画素の、 シャツタが開いて 2番目乃至 4番目の、 シャツタ時間/ V の背景の成分は、 B25/vとなる。 図 4 2中のフレーム #n-lの左から 2番目の画 素の、 シャツタが開いて 3番目および 4番目の、 シャツタ時間/ Vの背景の成分 は、 B26/vとなる。 図 4 2中のフレーム #n-lの左から 3番目の画素の、 シャツ タが開いて 4番目のシャッタ時間/ Vの背景の成分は、 B27/vとなる。

図 4 2中のフレーム ttn- 1において、 最も左側の画素乃至 3番目の画素は、 ァ ンカバードバックグラウンド領域である混合領域に属する。

図 4 2中のフレーム #n- 1の左から 4番目の画素乃至 1 2番目の画素は、 前景 領域に属する。 フレームの前景の成分は、 F13/v乃至 F24/vのいずれかである。 図 4 2中のフレーム #nの最も左側の画素乃至左から 4番目の画素は、 背景領 域に属し、 画素値は、 それぞれ、 B25乃至 B28となる。

前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 4 2中のフレーム #nの左から 5番目の画素の、 シャッタが開いて最初のシャ ッタ時間/ V の前景の成分は、 F13/v となり、 図 4 2中の左から 6番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 13/v となる。 図 4 2中の左から 7番目の画素の、 シャッタが開いて 3番目のシャッタ時間/ Vの 前景の成分、 および図 4 2中の左から 8番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F13/vとなる。

図 4 2中のフレーム #nの左から 6番目の画素の、 シャッタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F14/vとなり、 図 4 2中の左から 7番目の画素 の、 シャツタが開いて 2番目のシャツタ時間/ V の前景の成分も、 F14/v となる c 図 4 2中の左から 8番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの 前景の成分は、 F15/ Vとなる。

背景に対応するォブジェク トが静止しているので、 図 4 2中のフレーム #nの 左から 5番目の画素の、 シャッタが開いて 2番目乃至 4番目のシャッタ時間/ V の背景の成分は、 B29/v となる。 図 4 2中のフレーム #nの左から 6番目の画素 の、 シャツタが開いて 3番目および 4番目のシャツタ時間/ Vの背景の成分は、 B30/vとなる。 図 4 2中のフレーム #nの左から 7番目の画素の、 シャツタが開 いて 4番目のシャッタ時間/ Vの背景の成分は、 B31 /vとなる。 図 4 2中のフレーム ttnにおいて、 左から 5番目の画素乃至 7番目の画素は、 アンカバードバックグラウンド領域である混合領域に属する。

図 4 2中のフレーム #nの左から 8番目の画素乃至 1 2番目の画素は、 前景領 域に属する。 フレーム #nの前景領域における、 シャツタ時間 /vの期間に対応す る値は、 F 13/v乃至 F20/vのいずれかである。

図 4 2中のフレーム ttn+ 1の最も左側の画素乃至左から 8番目の画素は、 背景 領域に属し、 画素値は、 それぞれ、 B25乃至 B32 となる。

前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 4 2中のフレーム の左から 9番目の画素の、 シャツタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F13/Vとなり、 図 4 2中の左から 1 0番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 13/vとな る。 図 4 2中の左から 1 1番目の画素の、 シャツタが開いて 3番目のシャツタ時 間/ Vの前景の成分、 および図 4 2中の左から 1 2番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F 13/ vとなる。

図 4 2中のフレーム ίίη+ lの左から 1 0番目の画素の、 シャッタが開いて最初 のシャツタ時間/ Vの前景の成分は、 F 14/v となり、 図 4 2中の左から 1 1番目 の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F /v となる。 図 4 2中の左から 1 2番目の画素の、 シャツタが開いて最初のシャツタ 時間/ Vの前景の成分は、 F 15/Vとなる。

背景に対応するォブジェク トが静止しているので、 図 4 2中のフレーム ίίη+ 1 の左から 9番目の画素の、 シャツタが開いて 2番目乃至 4番目の、 シャツタ時間 /νの背景の成分は、 Β33/ν となる。 図 4 2中のフレーム ίίη+ lの左から 1 0番目 の画素の、 シャッタが開いて 3番目および 4番目のシャッタ時間/ Vの背景の成 分は、 Β34/ν となる。 図 4 2中のフレーム #η+ 1の左から 1 1番目の画素の、 シ ャッタが開いて 4番目のシャッタ時間/ Vの背景の成分は、 Β35/νとなる。

図 4 2中のフレーム ttn+ 1において、 左から 9番目の画素乃至 1 1番目の画素 は、 アンカバードバックグラウンド領域である混合領域に属する。

図 4 2中のフレーム #n+lの左から 1 2番目の画素は、 前景領域に属する。 フ レーム #n+ lの前景領域における、 シャツタ時間/ Vの前景の成分は、 F13/v乃至 F16/vのいずれかである。

図 4 3は、 図 4 2に示す画素値から前景の成分を抽出した画像のモデル図であ る。

図 2 7に戻り、 領域特定部 1 0 3は、 複数のフレームの画素値を用いて、 前景 領域、 背景領域、 力バードバックグラウンド領域、 またはアンカバードバックグ ラウンド領域に属することを示すフラグを画素毎に対応付けて、 領域情報として、 混合比算出部 1 0 4および動きボケ調整部 1 0 6に供給する。

混合比算出部 1 0 4は、 複数のフレームの画素値、 および領域情報を基に、 混 合領域に含まれる画素について画素毎に混合比 αを算出し、 算出した混合比 αを 前景背景分離部 1 0 5に供給する。

前景背景分離部 1 0 5は、 複数のフレームの画素値、 領域情報、 および混合比 ひを基に、 前景の成分のみからなる前景成分画像を抽出して、 動きボケ調整部 1 0 6に供給する。

動きボケ調整部 1 0 6は、 前景背景分離部 1 0 5から供給された前景成分画像、 動き検出部 1 0 2から供給された動きべク トル、 および領域特定部 1 0 3から供 給された領域情報を基に、 前景成分画像に含まれる動きボケの量を調整して、 動 きボケの量を調整した前景成分画像を出力する。

図 4 4のフローチヤ一トを参照して、 分離処理サーバ 1 1による動きボケの量 の調整の処理を説明する。 ステップ S 1 1において、 領域特定部 1 0 3は、 入力 画像を基に、 入力画像の画素毎に前景領域、 背景領域、 カバードバックグラウン ド領域、 またはアンカバードバックグラウンド領域のいずれかに属するかを示す 領域情報を生成する領域特定の処理を実行する。 領域特定の処理の詳細は、 後述 する。 領域特定部 1 0 3は、 生成した領域情報を混合比算出部 1 0 4に供給する。 なお、 ステップ S 1 1において、 領域特定部 1 0 3は、 入力画像を基に、 入力 画像の画素毎に前景領域、 背景領域、 または混合領域 (カバードバックグラウン ド領域、 またはアンカバードバックグラウンド領域の区別をしない) のいずれか に属するかを示す領域情報を生成するようにしてもよい。 この場合において、 前 景背景分離部 1 0 5および動きボケ調整部 1 0 6は、 動きべク トルの方向を基に、 混合領域がカバードバックグラウンド領域であるか、 またはアンカバードバック グラウンド領域であるかを判定する。 例えば、 動きベク トルの方向に対応して、 前景領域、 混合領域、 および背景領域と順に並んでいるとき、 その混合領域は、 カバードバックグラウンド領域と判定され、 動きベク トルの方向に対応して、 背 景領域、 混合領域、 および前景領域と順に並んでいるとき、 その混合領域は、 ァ ンカバードバックグラウンド領域と判定される。

ステップ S 1 2において、 混合比算出部 1 0 4は、 入力画像および領域情報を 基に、 混合領域に含まれる画素毎に、 混合比 αを算出する。 混合比算出の処理の 詳細は、 後述する。 混合比算出部 1 0 4は、 算出した混合比 αを前景背景分離部 1 0 5に供給する。

ステップ S 1 3において、 前景背景分離部 1 0 5は、 領域情報、 および混合比 αを基に、 入力画像から前景の成分を抽出して、 前景成分画像として動きボケ調 整部 1 0 6に供給する。

ステップ S 1 4において、 動きボケ調整部 1 0 6は、 動きべク トルおよび領域 情報を基に、 動き方向に並ぶ連続した画素であって、 アンカバードバックグラウ ンド領域、 前景領域、 およびカバ一ドバックグラウンド領域のいずれかに属する ものの画像上の位置を示す処理単位を生成し、 処理単位に対応する前景成分に含 まれる動きボケの量を調整する。 動きボケの量の調整の処理の詳細については、 後述する。

ステップ S 1 5において、 分離処理サーバ 1 1は、 画面全体について処理を終 了したか否かを判定し、 画面全体について処理を終了していないと判定された場 合、 ステップ S 1 4に進み、 処理単位に対応する前景の成分を対象とした動きボ ケの量の調整の処理を繰り返す。 ステップ S 1 5において、 画面全体について処理を終了したと判定された場合、 処理は終了する。 ' このように、 分離処理サーバ 1 1は、 前景と背景を分離して、 前景に含まれる 動きボケの量を調整することができる。 すなわち、 分離処理サーバ 1 1は、 前景 の画素の画素値であるサンプルデータに含まれる動きボケの量を調整することが できる。

以下、 領域特定部 1 0 3、 混合比算出部 1 0 4、 前景背景分離部 1 0 5、 およ び動きボケ調整部 1 0 6のそれぞれの構成について説明する。

図 4 5は、 領域特定部 1 0 3の構成の一例を示すブロック図である。 図 4 5に 構成を示す領域特定部 1 0 3は、 動きベク トルを利用しない。 フレームメモリ 2 0 1は、 入力された画像をフレーム単位で記憶する。 フレームメモリ 2 0 1は、 処理の対象がフレーム であるとき、 フレーム ίίηの 2つ前のフレームであるフ レーム ttn- 2、 フレーム ίίη の 1つ前のフレームであるフレーム #η- 1、 フレーム ば フレーム #ηの 1つ後のフレームであるフレーム #η+ 1、 およびフレーム #ηの 2つ 後のフレームであるフレーム #η+2を記憶する。

静動判定部 2 0 2— 1は、 フレーム の領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム #η+2の画素の画素値、 およびフレーム ttnの 領域特定の対象である画素の画像上の位置と同一の位置にあるフレーム #n+lの 画素の画素値をフレームメモリ 2 0 1から読み出して、 読み出した画素値の差の 絶対値を算出する。 静動判定部 2 0 2— 1は、 フレーム #n+2の画素値とフレー ム i + iの画素値との差の絶対値が、 予め設定している閾値 Thより大きいか否か を判定し、 差の絶対値が閾値 Thより大きいと判定された場合、 動きを示す静動 判定を領域判定部 2 0 3 - 1に供給する。 フレーム #n+2の画素の画素値とフレ ーム ttn+ 1の画素の画素値との差の絶対値が閾値 Th以下であると判定された場合、 静動判定部 2 0 2— 1は、 静止を示す静動判定を領域判定部 2 0 3— 1に供給す る。

静動判定部 2 0 2— 2は、 フレーム #nの領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム #n+ lの画素の画素値、 およびフレーム tinの 対象となる画素の画素値をフレームメモリ 2 0 1から読み出して、 画素値の差の 絶対値を算出する。 静動判定部 2 0 2— 2は、 フレーム ttn+1の画素値とフレー ム t の画素値との差の絶対値が、 予め設定している閾値 Thより大きいか否かを 判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場合、 動きを 示す静動判定を領域判定部 2 0 3 - 1および領域判定部 2 0 3 - 2に供給する。 フレーム #n+ lの画素の画素値とフレーム の画素の画素値との差の絶対値が、 閾値 Th以下であると判定された場合、 静動判定部 2 0 2— 2は、 静止を示す静 動判定を領域判定部 2 0 3 - 1および領域判定部 2 0 3— 2に供給する。

静動判定部 2 0 2— 3は、 フレーム #n の領域特定の対象である画素の画素値、 およびフレーム の領域特定の対象である画素の画像上の位置と同一の位置に あるフレーム #n- lの画素の画素値をフレームメモリ 2 0 1から読み出して、 画 素値の差の絶対値を算出する。 静動判定部 2 0 2— 3は、 フレーム tinの画素値 とフレーム ttn- Ιの画素値との差の絶対値が、 予め設定している閾値 Thより大き いか否かを判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場 合、 動きを示す静動判定を領域判定部 2 0 3一 2および領域判定部 2 0 3— 3に 供給する。 フレーム の画素の画素値とフレーム #n- lの画素の画素値との差の 絶対値が、 閾値 Th以下であると判定された場合、 静動判定部 2 0 2— 3は、 静 止を示す静動判定を領域判定部 2 0 3— 2および領域判定部 2 0 3— 3に供給す る。

静動判定部 2 0 2 _ 4は、 フレーム #nの領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム ttn- 1の画素の画素値、 およびフレーム #nの 領域特定の対象である画素の画像上の位置と同一の位置にあるフレーム #n- 2の 画素の画素値をフレームメモリ 2 0 1から読み出して、 画素値の差の絶対値を算 出する。 静動判定部 2 0 2— 4は、 フレーム #n- 1の画素値とフレーム #η-2の画 素値との差の絶対値が、 予め設定している閾値 Thより大きいか否かを判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場合、 動きを示す静動 判定を領域判定部 2 0 3— 3に供給する。 フレーム #n- 1の画素の画素値とフレ ーム林 n - 2の画素の画素値との差の絶対値が、 閾値 Th以下であると判定された場 合、 静動判定部 2 0 2— 4は、 静止を示す静動判定を領域判定部 2 0 3— 3に供 給する。

領域判定部 2 0 3— 1は、 静動判定部 2 0 2— 1から供給された静動判定が静 止を示し、 かつ、 静動判定部 2 0 2— 2から供給された静動判定が動きを示して いるとき、 フレーム #nにおける領域特定の対象である画素がアンカバードバッ クグラウンド領域に属すると判定し、 領域の判定される画素に対応するアンカバ 一ドバックグラウンド領域判定フラグに、 アンカバードバックグラウンド領域に 属することを示す" 1 " を設定する。

領域判定部 2 0 3— 1は、 静動判定部 2 0 2 - 1から供給された静動判定が動 きを示すか、 または、 静動判定部 2 0 2— 2から供給された静動判定が静止を示 しているとき、 フレーム における領域特定の対象である画素がアンカバード バックグラウンド領域に属しないと判定し、 領域の判定される画素に対応するァ ンカバードバックグラウンド領域判定フラグに、 アンカバードバックグラウンド 領域に属しないことを示す" 0 " を設定する。

領域判定部 2 0 3— 1は、 このように" 1 " または" 0 " が設定されたアンカ バードバックグラウンド領域判定フラグを判定フラグ格納フ ^一ムメモリ 2 0 4 に供給する。

領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が静 止を示し、 かつ、 静動判定部 2 0 2— 3から供給された静動判定が静止を示して いるとき、 フレーム #nにおける領域特定の対象である画素が静止領域に属する と判定し、 領域の判定される画素に対応する静止領域判定フラグに、 静止領域に 属することを示す" 1 " を設定する。

領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が動 きを示すか、 または、 静動判定部 2 0 2— 3から供給された静動判定が動きを示 しているとき、 フレーム #nにおける領域特定の対象である画素が静止領域に属 しないと判定し、 領域の判定される画素に対応する静止領域判定フラグに、 静止 領域に属しないことを示す" 0 " を設定する。

領域判定部 2 0 3— 2は、 このように" 1 " または" 0 " が設定された静止領 域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供給する。

領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が動 きを示し、 かつ、 静動判定部 2 0 2— 3から供給された静動判定が動きを示して いるとき、 フレーム #nにおける領域特定の対象である画素が動き領域に属する と判定し、 領域の判定される画素に対応する動き領域判定フラグに、 動き領域に 属することを示す" 1 " を設定する。

領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が静 止を示すか、 または、 静動判定部 2 0 2— 3から供給された静動判定が静止を示 しているとき、 フレーム における領域特定の対象である画素が動き領域に属 しないと判定し、 領域の判定される画素に対応する動き領域判定フラグに、 動き 領域に属しないことを示す" 0 " を設定する。

領域判定部 2 0 3— 2は、 このように" 1 " または" 0 " が設定された動き領 域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供給する。

領域判定部 2 0 3— 3は、 静動判定部 2 0 2— 3から供給された静動判定が動 きを示し、 かつ、 静動判定部 2 0 2— 4から供給された静動判定が静止を示して いるとき、 フレーム ttnにおける領域特定の対象である画素がカバードバックグ ラウンド領域に属すると判定し、 領域の判定される画素に対応するカバードバッ クグラウンド領域判定フラグに、 カバードバックグラウンド領域に属することを 示す" 1 " を設定する。

領域判定部 2 0 3— 3は、 静動判定部 2 0 2— 3から供給された静動判定が静 止を示すか、 または、 静動判定部 2 0 2— 4から供給された静動判定が動きを示 しているとき、 フレーム ίίηにおける領域特定の対象である画素がカバードバッ クグラウンド領域に属しないと判定し、 領域の判定される画素に対応するカバー ドバックグラウンド領域判定フラグに、 カバードバックグラウンド領域に属しな いことを示す" 0 " を設定する。

領域判定部 2 0 3— 3は、 このように" 1 " または" 0 " が設定されたカバー ドバックグラウンド領域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供 給する。

判定フラグ格納フレームメモリ 2 0 4は、 領域判定部 2 0 3 - 1から供給され たアンカバードバックグラウンド領域判定フラグ、 領域判定部 2 0 3— 2から供 給された静止領域判定フラグ、 領域判定部 2 0 3一 2から供給された動き領域判 定フラグ、 および領域判定部 2 0 3一 3から供給されたカバードバックグラウン ド領域判定フラグをそれぞれ記憶する。

判定フラグ格納フレームメモリ 2 0 4は、 記憶しているアンカバードバックグ ラウンド領域判定フラグ、 静止領域判定フラグ、 動き領域判定フラグ、 および力 バードバックグラウンド領域判定フラグを合成部 2 0 5に供給する。 合成部 2 0 5は、 判定フラグ格納フレームメモリ 2 0 4から供給された、 アンカバードバッ クグラウンド領域判定フラグ、 静止領域判定フラグ、 動き領域判定フラグ、 およ びカバードバックグラウンド領域判定フラグを基に、 各画素が、 アンカバードバ ックグラウンド領域、 静止領域、 動き領域、 およびカバードバックグラウンド領 域のいずれかに属することを示す領域情報を生成し、 判定フラグ格納フレームメ モリ 2 0 6に供給する。

判定フラグ格納フレームメモリ 2 0 6は、 合成部 2 0 5から供給された領域情 報を記憶すると共に、 記憶している領域情報を出力する。

次に、 領域特定部 1 0 3の処理の例を図 4 6乃至図 5 0を参照して説明する。 前景に対応するォブジェク トが移動しているとき、 オブジェク トに対応する画 像の画面上の位置は、 フレーム毎に変化する。 図 4 6に示すように、 フレーム #nにおいて、 Yn (x, y)で示される位置に位置するオブジェク トに対応する画像は、 次のフレームであるフレーム ίίη+ lにおいて、 Yn+ l (x,y)に位置する。

前景のォブジェク トに対応する画像の動き方向に隣接して 1列に並ぶ画素の画 素値を時間方向に展開したモデル図を図 2 2に示す。 例えば、 前景のオブジェク トに対応する画像の動き方向が画面に対して水平であるとき、 図 4 7におけるモ デル図は、 1つのライン上の隣接する画素の画素値を時間方向に展開したモデル を示す。

図 4 7において、 フレーム #nにおけるラインは、 フレーム #n+ lにおけるライ ンと同一である。

フレーム #nにおいて、 左から 2番目の画素乃至 1 3番目の画素に含まれてい るオブジェク トに対応する前景の成分は、 フレーム + 1において、 左から 6番 目乃至 1 7番目の画素に含まれる。

フレーム #nにおいて、 カバードバックグラウンド領域に属する画素は、 左か ら 1 1番目乃至 1 3番目の画素であり、 アンカバードバックグラウンド領域に属 する画素は、 左から 2番目乃至 4番目の画素である。 フレーム #n+ lにおいて、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番目の 画素であり、 アンカバードバックグラウンド領域に属する画素は、 左から 6番目 乃至 8番目の画素である。

図 4 7に示す例において、 フレーム ttnに含まれる前景の成分が、 フレーム

#n+ l において 4画素移動しているので、 動き量 V は、 4である。 仮想分割数は、 動き量 Vに対応し、 4である。

次に、 注目しているフレームの前後における混合領域に属する画素の画素値の 変化について説明する。

図 4 8に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム #ηにおい て、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番 目の画素である。 動き量 Vが 4であるので、 1つ前のフレーム #n- lにおいて、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分のみを含み、 背景領域に属す る。 また、 更に 1つ前のフレーム #n- 2において、 左から 1 5番目乃至 1 7番目 の画素は、 背景の成分のみを含み、 背景領域に属する。

ここで、 背景に対応するオブジェク トが静止しているので、 フレーム #n- 1の 左から 1 5番目の画素の画素値は、 フレーム #η- 2の左から 1 5番目の画素の画 P T/JP02/06386

52 素値から変化しない。 同様に、 フレーム ttn-1の左から 1 6番目の画素の画素値 は、 フレーム #n- 2の左から 1 6番目の画素の画素値から変化せず、 フレーム - 1の左から 1 7番目の画素の画素値は、 フレーム #n- 2の左から 1 7番目の画素 の画素値から変化しない。

すなわち、 フレーム tinにおけるカバードバックグラウンド領域に属する画素 に対応する、 フレーム #n- lおよびフレーム #η-2の画素は、 背景の成分のみから 成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従って、 フレーム における混合領域に属する画素に対応する、 フレーム ttn- 1およびフ レーム #n-2の画素に対する静動判定は、 静動判定部 2 0 2— 4により、 静止と 判定される。

フレーム ίίηにおけるカバードバックグラウンド領域に属する画素は、 前景の 成分を含むので、 フレーム ttn- lにおける背景の成分のみから成る場合と、 画素 値が異なる。 従って、 フレーム ίίηにおける混合領域に属する画素、 および対応 するフレーム #η- 1の画素に対する静動判定は、 静動判定部 2 0 2— 3により、 動きと判定される。

このように、 領域判定部 2 0 3— 3は、 静動判定部 2 0 2— 3から動きを示す 静動判定の結果が供給され、 静動判定部 2 0 2— 4から静止を示す静動判定の結 果が供給されたとき、 対応する画素がカバードバックグラウンド領域に属すると 判定する。

図 4 9に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム #ηにおい て、 アンカバードバックグラウンド領域に含まれる画素は、 左から 2番目乃至 4 番目の画素である。 動き量 V が 4であるので、 1つ後のフレーム #η+ 1 において, 左から 2番目乃至 4番目の画素は、 背景の成分のみを含み、 背景領域に属する。 また、 更に 1つ後のフレーム ίίη+2 において、 左から 2番目乃至 4番目の画素は、 背景の成分のみを含み、 背景領域に属する。

ここで、 背景に対応するオブジェク トが静止しているので、 フレーム ttn+2の 左から 2番目の画素の画素値は、 フレーム #n+ lの左から 2番目の画素の画素値 から変化しない。 同様に、 フレーム #n+2の左から 3番目の画素の画素値は、 フ レーム +1の左から 3番目の画素の画素値から変化せず、 フレーム ttn+2の左か ら 4番目の画素の画素値は、 フレーム #n+lの左から 4番目の画素の画素値から 変化しない。

すなわち、 フレーム におけるアンカバードバックグラウンド領域に属する 画素に対応する、 フレーム #n+ lおよびフレーム +2の画素は、 背景の成分のみ から成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従 つて、 フレーム #nにおける混合領域に属する画素に対応する、 フレーム #n+lお よびフレーム #n+2の画素に対する静動判定は、 静動判定部 2 0 2— 1により、 静止と判定される。

フレーム #nにおけるアンカバードバックグラウンド領域に属する画素は、 前 景の成分を含むので、 フレーム #n+ lにおける背景の成分のみから成る場合と、 画素値が異なる。 従って、 フレーム における混合領域に属する画素、 および 対応するフレーム ttn+1 の画素に対する静動判定は、 静動判定部 2 0 2— 2によ り、 動きと判定される。

このように、 領域判定部 2 0 3— 1は、 静動判定部 2 0 2— 2から動きを示す 静動判定の結果が供給され、 静動判定部 2 0 2— 1から静止を示す静動判定の結 果が供給されたとき、 対応する画素がアンカバードバックグラウンド領域に属す ると判定する。

図 5 0は、 フレーム ίίη における領域特定部 1 0 3の判定条件を示す図である c フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフレー ム #n-2の画素と、 フレーム ttnの判定の対象となる画素の画像上の位置と同一の 位置にあるフレーム Sn- 1の画素とが静止と判定され、 フレーム ίίηの判定の対象 となる画素の画像上の位置と同一の位置にあるフレーム #η - 1の画素と、 フレー ム #ηの画素とが動きと判定されたとき、 領域特定部 1 0 3は、 フレーム #ηの判 定の対象となる画素がカバードバックグラウンド領域に属すると判定する。

フレーム #ηの判定の対象となる画素の画像上の位置と同一の位置にあるフレ 一ム^ - 1 の画素と、 フレーム #nの画素とが静止と判定され、 フレーム ίίηの画素 と、 フレーム #ηの判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム ttn+ 1の画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判定の対象となる画素が静止領域に属すると判定する。

フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフレ ーム - 1 の画素と、 フレーム #nの画素とが動きと判定され、 フレーム Hnの画素 と、 フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム #n+ lの画素とが動きと判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判定の対象となる画素が動き領域に属すると判定する。

フレーム #nの画素と、 フレーム #nの判定の対象となる画素の画像上の位置と 同一の位置にあるフレーム #n+ lの画素とが動きと判定され、 フレーム の判定 の対象となる画素の画像上の位置と同一の位置にあるフレーム #n+lの画素と、 フレーム ίίηの判定の対象となる画素の画像上の位置と同一の位置にあるフレー ム ftn+2の画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フレームでの 判定の対象となる画素がアンカバードバックグラウンド領域に属すると判定する c 図 5 1 A乃至図 5 1 Dは、 領域特定部 1 0 3の領域の特定の結果の例を示す図 である。 図 5 1 Aにおいて、 カバードバックグラウンド領域に属すると判定され た画素は、 白で表示されている。 図 5 1 Bにおいて、 アンカバードバックグラウ ンド領域に属すると判定された画素は、 白で表示されている。

図 5 1 Cにおいて、 動き領域に属すると判定された画素は、 白で表示されてい る。 図 5 1 Dにおいて、 静止領域に属すると判定された画素は、 白で表示されて いる。

図 5 2は、 判定フラグ格納フレームメモリ 2 0 6が出力する領域情報の内、 混 合領域を示す領域情報を画像として示す図である。 図 5 2において、 カバードバ ックグラウンド領域またはアンカバードバックグラウンド領域に属すると判定さ れた画素、 すなわち混合領域に属すると判定された画素は、 白で表示されている c 判定フラグ格納フレームメモリ 2 0 6が出力する混合領域を示す領域情報は、 混 合領域、 および前景領域内のテクスチャの無い部分に囲まれたテクスチャの有る 部分を示す。

次に、 図 5 3のフローチヤ一トを参照して、 領域特定部 1 0 3の領域特定の処 理を説明する。 ステップ S 2 0 1において、 フレームメモリ 2 0 1は、 判定の対 象となるフレーム #nを含むフレーム #n_2乃至フレーム +2の画像を取得する。 ステップ S 2 0 2において、 静動判定部 2 0 2— 3は、 フレーム Hn-1 の画素 とフレーム #nの同一位置の画素とで、 静止か否かを判定し、 静止と判定された 場合、 ステップ S 2 0 3に進み、 静動判定部 2 0 2— 2は、 フレーム #nの画素 とフレーム #n+ lの同一位置の画素とで、 静止か否かを判定する。

ステップ S 2 0 3において、 フ ^一ム #nの画素とフレーム #n+ lの同一位置の 画素とで、 静止と判定された場合、 ステップ S 2 0 4に進み、 領域判定部 2 0 3 一 2は、 領域の判定される画素に対応する静止領域判定フラグに、 静止領域に属 することを示す" 1 " を設定する。 領域判定部 2 0 3— 2は、 静止領域判定フラ グを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 0 5に進む。

ステップ S 2 0 2において、 フレーム #n- 1 の画素とフレーム #nの同一位置の 画素とで、 動きと判定された場合、 または、 ステップ S 2 0 3において、 フレー ム の画素とフレーム ίίη+ 1の同一位置の画素とで、 動きと判定された場合、 フ レーム #ηの画素が静止領域には属さないので、 ステップ S 2 0 4の処理はスキ ップされ、 手続きは、 ステップ S 2 0 5に進む。

ステップ S 2 0 5において、 静動判定部 2 0 2— 3は、 フレーム #η- 1の画素 とフレーム #ηの同一位置の画素とで、 動きか否かを判定し、 動きと判定された 場合、 ステップ S 2 0 6に進み、 静動判定部 2 0 2— 2は、 フレーム #ηの画素 とフレーム #η+ 1の同一位置の画素とで、 動きか否かを判定する。

ステップ S 2 0 6において、 フレーム #ηの画素とフレーム #η+1の同一位置の 画素とで、 動きと判定された場合、 ステップ S 2 0 7に進み、 領域判定部 2 0 3 一 2は、 領域の判定される画素に対応する動き領域判定フラグに、 動き領域に属 することを示す" 1 " を設定する。 領域判定部 2 0 3— 2は、 動き領域判定フラ グを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 0 8に進む。

ステップ S 2 0 5において、 フレーム #n- 1の画素とフレーム #nの同一位置の 画素とで、 静止と判定された場合、 または、 ステップ S 2 0 6において、 フレー ム^の画素とフレーム #n+lの同一位置の画素とで、 静止と判定された場合、 フ レーム #nの画素が動き領域には属さないので、 ステップ S 2 0 7の処理はスキ ップされ、 手続きは、 ステップ S 2 0 8に進む。

ステップ S 2 0 8において、 静動判定部 2 0 2— 4は、 フレーム #n- 2の画素 とフレーム #n- lの同一位置の画素とで、 静止か否かを判定し、 静止と判定され た場合、 ステップ S 2 0 9に進み、 静動判定部 2 0 2— 3は、 フレーム ϋη- 1の 画素とフレーム の同一位置の画素とで、 動きか否かを判定する。

ステップ S 2 0 9において、 フレーム #η- 1の画素とフレーム ίίηの同一位置の 画素とで、 動きと判定された場合、 ステップ S 2 1 0に進み、 領域判定部 2 0 3 一 3は、 領域の判定される画素に対応するカバードバックグラウンド領域判定フ ラグに、 カバードバックグラウンド領域に属することを示す" 1 " を設定する。 領域判定部 2 0 3— 3は、 カバードバックグラウンド領域判定フラグを判定フラ グ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 1 1に進む。 ステップ S 2 0 8において、 フレーム #η- 2の画素とフレーム #η- 1の同一位置 の画素とで、 動きと判定された場合、 または、 ステップ S 2 0 9において、 フレ 一ム^-1の画素とフレーム #ηの同一位置の画素とで、 静止と判定された場合、 フレーム #ηの画素がカバードバックグラウンド領域には属さないので、 ステッ プ S 2 1 0の処理はスキップされ、 手続きは、 ステップ S 2 1 1に進む。

ステップ S 2 1 1において、 静動判定部 2 0 2— 2は、 フレーム #ηの画素と フレーム #η+ 1の同一位置の画素とで、 動きか否かを判定し、 動きと判定された 場合、 ステップ S 2 1 2に進み、 静動判定部 2 0 2— 1は、 フレーム #η+1の画 素とフレーム #η+2の同一位置の画素とで、 静止か否かを判定する。 ステップ S 2 1 2において、 フレーム #n+lの画素とフレーム #n+2の同一位置 の画素とで、 静止と判定された場合、 ステップ S 2 1 3に進み、 領域判定部 2 0 3— 1は、 領域の判定される画素に対応するアンカバードバックグラウンド領域 判定フラグに、 アンカバードバックグラウンド領域に属することを示す" 1 " を 設定する。 領域判定部 2 0 3— 1は、 アンカバードバックグラウンド領域判定フ ラグを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 1 4に進む。

ステップ S 2 1 1において、 フレーム ttnの画素とフレーム ttn+ 1の同一位置の 画素とで、 静止と判定された場合、 または、 ステップ S 2 1 2において、 フレー ム ttn+ 1の画素とフレーム ttn+2の同一位置の画素とで、 動きと判定された場合、 フレーム #nの画素がアンカバードバックグラウンド領域には属さないので、 ス テツプ S 2 1 3の処理はスキップされ、 手続きは、 ステップ S 2 1 4に進む。 ステップ S 2 1 4において、 領域特定部 1 0 3は、 フレーム の全ての画素 について領域を特定したか否かを判定し、 フレーム ttnの全ての画素について領 域を特定していないと判定された場合、 手続きは、 ステップ S 2 0 2に戻り、 他 の画素について、 領域特定の処理を繰り返す。

ステップ S 2 1 4において、 フレーム #ηの全ての画素について領域を特定し たと判定された場合、 ステップ S 2 1 5に進み、 合成部 2 0 5は、 判定フラグ格 納フレームメモリ 2 0 4に記憶されているアンカバードバックグラウンド領域判 定フラグ、 およびカバードバックグラウンド領域判定フラグを基に、 混合領域を 示す領域情報を生成し、 更に、 各画素が、 アンカバードバックグラウンド領域、 静止領域、 動き領域、 およびカバードバックグラウンド領域のいずれかに属する ことを示す領域情報を生成し、 生成した領域情報を判定フラグ格納フレームメモ リ 2 0 6に設定し、 処理は終了する。

このように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれぞれに ついて、 動き領域、 静止領域、 アンカバ一ドバックグラウンド領域、 またはカバ 一ドバックグラウンド領域に属することを示す領域情報を生成することができる なお、 領域特定部 1 0 3は、 アンカバードバックグラウンド領域およびカバー ドバックグラウンド領域に対応する領域情報に論理和を適用することにより、 混 合領域に対応する領域情報を生成して、 フレームに含まれている画素のそれぞれ について、 動き領域、 静止領域、 または混合領域に属することを示すフラグから 成る領域情報を生成するようにしてもよい。

前景に対応するオブジェク トがテクスチャを有す場合、 領域特定部 1 0 3は、 より正確に動き領域を特定することができる。

領域特定部 1 0 3は、 動き領域を示す領域情報を前景領域を示す領域情報とし て、 また、 静止領域を示す領域情報を背景領域を示す領域情報として出力するこ とができる。

なお、 背景に対応するオブジェク トが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した領域を特定する処理を適用する ことができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 領域 特定部 1 0 3は、 この動きに対応して画像全体をシフ トさせ、 背景に対応するォ ブジエタ トが静止している場合と同様に処理する。 また、 背景領域に対応する画 像が局所毎に異なる動きを含んでいるとき、 領域特定部 1 0 3は、 動きに対応し た画素を選択して、 上述の処理を実行する。

図 5 4は、 領域特定部 1 0 3の構成の他の一例を示すブロック図である。 図 5

4に示す領域特定部 1 0 3は、 動きベク トルを使用しない。 背景画像生成部 3 0 1は、 入力画像に対応する背景画像を生成し、 生成した背景画像を 2値オブジェ ク ト画像抽出部 3 0 2に供給する。 背景画像生成部 3 0 1は、 例えば、 入力画像 に含まれる背景のオブジェク トに対応する画像オブジェク トを抽出して、 背景画 像を生成する。

前景のオブジェク トに対応する画像の動き方向に隣接して 1列に並ぶ画素の画 素値を時間方向に展開したモデル図の例を図 5 5に示す。 例えば、 前景のォブジ ェク トに対応する画像の動き方向が画面に対して水平であるとき、 図 5 5におけ るモデル図は、 1つのライン上の隣接する画素の画素値を時間方向に展開したモ デルを示す。

図 5 5において、 フレーム #nにおけるラインは、 フレーム #n- lおよびフレー ム ttn+ 1におけるラインと同一である。

フレーム #nにおいて、 左から 6番目の画素乃至 1 7番目の画素に含まれてい るオブジェク トに対応する前景の成分は、 フレーム ίίη- 1において、 左から 2番 目乃至 1 3番目の画素に含まれ、 フレーム #η+ 1において、 左から 1 0番目乃至 2 1番目の画素に含まれる。

フレーム #η_ 1において、 カバードバックグラウンド領域に属する画素は、 左 から 1 1番目乃至.1 3番目の画素であり、 アンカバードバックグラウンド領域に 属する画素は、 左から 2番目乃至 4番目の画素である。 フレーム #ηにおいて、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番目の 画素であり、 アンカバードバックグラウンド領域に属する画素は、 左から 6番目 乃至 8番目の画素である。 フレーム ttn+ 1において、 カバードバックグラウンド 領域に属する画素は、 左から 1 9番目乃至 2 1番目の画素であり、 アンカバード バックグラウンド領域に属する画素は、 左から 1 0番目乃至 1 2番目の画素であ る。

フレーム ίίη- 1において、 背景領域に属する画素は、 左から 1番目の画素、 お よび左から 1 4番目乃至 2 1番目の画素である。 フレーム において、 背景領 域に属する画素は、 左から 1番目乃至 5番目の画素、 および左から 1 8番目乃至 2 1番目の画素である。 フレーム ίίη+lにおいて、 背景領域に属する画素は、 左 から 1番目乃至 9番目の画素である。

背景画像生成部 3 0 1が生成する、 図 5 5の例に対応する背景画像の例を図 5

6に示す。 背景画像は、 背景のオブジェク トに対応する画素から構成され、 前景 のォブジェク トに対応する画像の成分を含まない。

2値オブジェク ト画像抽出部 3 0 2は、 背景画像および入力画像の相関を基に、

2値オブジェク ト画像を生成し、 生成した 2値オブジェク ト画像を時間変化検出 部 3 0 3に供給する。 図 5 7は、 2値ォブジェク ト画像抽出部 3 0 2の構成を示すブロック図である c 相関値演算部 3 2 1は、 背景画像生成部 3 0 1から供給された背景画像および入 力画像の相関を演算し、 相関値を生成して、 生成した相関値をしきい値処理部 3 2 2に供給する。

相関値演算部 3 2 1は、 例えば、 図 5 8 Aに示すように、 X 4を中心とした 3 X 3の背景画像の中のブロックと、 図 5 8 Bに示すように、 背景画像の中のブロ ックに対応する Y4を中心とした 3 X 3の入力画像の中のブロックに、 式 (4 ) を適用して、 Y 4に対応する相関値を算出する。

相関値演算部 3 2 1は、 このように各画素に対応して算出された相関値をしき い値処理部 3 2 2に供給する。

また、 相関値演算部 3 2 1は、 例えば、 図 5 9 Aに示すように、 X4を中心と した 3 X 3の背景画像の中のブロックと、 図 5 9 Bに示すように、 背景画像の中 のブロックに対応する Y4を中心とした 3 X 3の入力画像の中のブロックに、 式 ( 7 ) を適用して、 Y4に対応する差分絶対値を算出するようにしてもよい。 差分絶対値和 = ΐ - l (7)

= 0

相関値演算部 3 2 1は、 このように算出された差分絶対値を相関値として、 し きい値処理部 3 2 2に供給する。

しきい値処理部 3 2 2は、 相関画像の画素値としきい値 thOとを比較して、 相関値がしきい値 thO以下である場合、 2値オブジェク ト画像の画素値に 1を 設定し、 相関値がしきい値 thOより大きい場合、 2値オブジェク ト画像の画素 値に 0を設定して、 0または 1が画素値に設定された 2値ォブジェク ト画像を出 力する。 しきい値処理部 3 2 2は、 しきい値 thOを予め記憶するようにしても よく、 または、 外部から入力されたしきい値 thO を使用するようにしてもよい c 図 6 0は、 図 5 5に示す入力画像のモデルに対応する 2値ォブジェク ト画像の 例を示す図である。 2値オブジェク ト画像において、 背景画像と相関の高い画素 には、 画素値に 0が設定される。

図 6 1は、 時間変化検出部 3 0 3の構成を示すブロック図である。 フレームメ モリ 3 4 1は、 フレーム #nの画素について領域を判定するとき、 2値オブジェ ク ト画像抽出部 3 0 2から供給された、 フレーム #n- l、 フレーム #n、 およびフ レーム #n+ lの 2値ォブジェク ト画像を記憶する。

領域判定部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム t n - 1、 フレーム #n、 およびフレーム ttn+ 1の 2値オブジェク ト画像を基に、 フレーム の各画素について領域を判定して、 領域情報を生成し、 生成した領域情報を出力 する。

図 6 2は、 領域判定部 3 4 2の判定を説明する図である。 フレーム^の 2値 ォブジェク ト画像の注目している画素が 0であるとき、 領域判定部 3 4 2は、 フレーム #nの注目している画素が背景領域に属すると判定する。

フレーム #nの 2値ォブジェク ト画像の注目している画素が 1であり、 フレー ム ttn- 1の 2値オブジェク ト画像の対応する画素が 1であり、 フレーム + 1 の 2 値オブジェク ト画像の対応する画素が 1であるとき、 領域判定部 3 4 2は、 フ レーム の注目している画素が前景領域に属すると判定する。

フレーム #nの 2値ォブジェク ト画像の注目している画素が 1であり、 フレー ム ttn - 1の 2値オブジェク ト画像の対応する画素が 0であるとき、 領域判定部 3 4 2は、 フレーム #nの注目している画素がカバードバックグラウンド領域に属 すると判定する。

フレーム #nの 2値ォブジェク ト画像の注目している画素が 1であり、 フレー ム #n+ lの 2値オブジェク ト画像の対応する画素が 0であるとき、 領域判定部 3 4 2は、 フレーム の注目している画素がアンカバードバックグラウンド領域 に属すると判定する。

図 6 3は、 図 5 5に示す入力画像のモデルに対応する 2値ォブジェク ト画像に ついて、 時間変化検出部 3 0 3の判定した例を示す図である。 時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム Hnの対応する画素が 0なので、 フレ ーム t の左から 1番目乃至 5番目の画素を背景領域に属すると判定する。

時間変化検出部 3 0 3は、 2値ォブジェク ト画像のフレーム #nの画素が 1で あり、 フレーム ί η+ lの対応する画素が 0なので、 左から 6番目乃至 9番目の画 素をアンカバードバックグラウンド領域に属すると判定する。

時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム #ηの画素が 1で あり、 フレーム - 1 の対応する画素が 1であり、 フレーム itn+ 1の対応する画素 が 1なので、 左から 1 0番目乃至 1 3番目の画素を前景領域に属すると判定す る。

時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム ttriの画素が 1で あり、 フレーム #n- 1の対応する画素が 0なので、 左から 1 4番目乃至 1 7番目 の画素をカバードバックグラウンド領域に属すると判定する。

時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム ttnの対応する画 素が 0なので、 左から 1 8番目乃至 2 1番目の画素を背景領域に属すると判定 する。

次に、 図 6 4のフローチャートを参照して、 領域判定部 1 0 3の領域特定の処 理を説明する。 ステップ S 3 0 1において、 領域判定部 1 0 3の背景画像生成部 3 0 1は、 入力画像を基に、 例えば、 入力画像に含まれる背景のオブジェク トに 対応する画像オブジェク トを抽出して背景画像を生成し、 生成した背景画像を 2 値オブジェク ト画像抽出部 3 0 2に供給する。

ステップ S 3 0 2において、 2値オブジェク ト画像抽出部 3 0 2は、 例えば、 図 5 8 A , 図 5 8 Bを参照して説明した演算により、 入力画像と背景画像生成部 3 0 1から供給された背景画像との相関値を演算する。 ステップ S 3 0 3におい て、 2値オブジェク ト画像抽出部 3 0 2は、 例えば、 相関値としきい値 thOと を比較することにより、 相関値およびしきい値 thOから 2値ォブジェク ト画像 を演算する。

ステップ S 3 0 4において、 時間変化検出部 3 0 3は、 領域判定の処理を実行 して、 処理は終了する。

図 6 5のフローチヤ一トを参照して、 ステップ S 3 0 4に対応する領域判定の 処理の詳細を説明する。 ステップ S 3 2 1において、 時間変化検出部 3 0 3の領 域判定部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム ttnにおい て、 注目する画素が 0であるか否かを判定し、 フレーム #nにおいて、 注目する 画素が 0であると判定された場合、 ステップ S 3 2 2に進み、 フレーム ttnの注 目する画素が背景領域に属すると設定して、 処理は終了する。

ステップ S 3 2 1において、 フレーム #nにおいて、 注目する画素が 1である と判定された場合、 ステップ S 3 2 3に進み、 時間変化検出部 3 0 3の領域判定 部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム #nにおいて、 注 目する画素が 1であり、 かつ、 フレーム #η-1において、 対応する画素が 0であ るか否かを判定し、 フレーム ttnにおいて、 注目する画素が 1であり、 かつ、 フ レーム ίίη-lにおいて、 対応する画素が 0であると判定された場合、 ステップ S 3 2 4に進み、 フレーム #ηの注目する画素がカバードバックグラウンド領域に 属すると設定して、 処理は終了する。

ステップ S 3 2 3において、 フレーム tinにおいて、 注目する画素が 0である 力 \ または、 フレーム において、 対応する画素が 1であると判定された場 合、 ステップ S 3 2 5に進み、 時間変化検出部 3 0 3の領域判定部 3 4 2は、 フ レームメモリ 3 4 1に記憶されているフレーム ίίηにおいて、 注目する画素が 1 であり、 かつ、 フレーム ίίη+lにおいて、 対応する画素が 0であるか否かを判定 し、 フレーム において、 注目する画素が 1であり、 かつ、 フレーム ttn+1にお いて、 対応する画素が 0であると判定された場合、 ステップ S 3 2 6に進み、 フレーム #nの注目する画素がアンカバードバックグラウンド領域に属すると設 定して、 処理は終了する。

ステップ S 3 2 5において、 フレーム ίίηにおいて、 注目する画素が 0である か、 または、 フレーム #η+ 1において、 対応する画素が 1であると判定された場 合、 ステップ S 3 2 7に進み、 時間変化検出部 3 0 3の領域判定部 3 4 2は、 フ レーム #ηの注目する画素を前景領域と設定して、 処理は終了する。

このように、 領域特定部 1 0 3は、 入力された画像と対応する背景画像との相 関値を基に、 入力画像の画素が前景領域、 背景領域、 カバードバックグラウンド 領域、 およびアンカバードバックグラウンド領域のいずれかに属するかを特定し て、 特定した結果に対応する領域情報を生成することができる。

図 6 6は、 領域特定部 1 0 3の他の構成を示すブロック図である。 図 6 6に示 す領域特定部 1 0 3は、 動き検出部 1 0 2から供給される動きべク トルとその位 置情報を使用する。 図 5 4に示す場合と同様の部分には、 同一の番号を付してあ り、 その説明は省略する。

ロバスト化部 3 6 1は、 2値オブジェク ト画像抽出部 3 0 2から供給された、 Ν個のフレームの 2値オブジェク ト画像を基に、 ロバス ト化された 2値オブジェ ク ト画像を生成して、 時間変化検出部 3 0 3に出力する。

図 6 7は、 口バスト化部 3 6 1の構成を説明するブロック図である。 動き補償 部 3 8 1は、 動き検出部 1 0 2から供給された動きべク トルとその位置情報を基 に、 Ν個のフレームの 2値オブジェク ト画像の動きを補償して、 動きが補償され た 2値ォブジェク ト画像をスィツチ 3 8 2に出力する。

図 6 8および図 6 9の例を参照して、 動き補償部 3 8 1の動き補償について説 明する。 例えば、 フレーム #ηの領域を判定するとき、 図 6 8に例を示すフレー ム#11- 1、 フレーム ttn、 およびフレーム ίίη+ lの 2値オブジェク ト画像が入力され た場合、 動き捕償部 3 8 1は、 動き検出部 1 0 2から供給された動きべク トルを 基に、 図 6 9に例を示すように、 フレーム - 1 の 2値オブジェク ト画像、 およ びフレーム #η+ 1の 2値オブジェク ト画像を動き補償して、 動き補償された 2値 オブジェク ト画像をスィツチ 3 8 2に供給する。

スィツチ 3 8 2は、 1番目のフレームの動き補償された 2値ォブジェク ト画像 をフレームメモリ 3 8 3— 1に出力し、 2番目のフレームの動き補償された 2値 オブジェク ト画像をフレームメモリ 3 8 3— 2に出力する。 同様に、 スィッチ 3 8 2は、 3番目乃至 N— 1番目のフレームの動き補償された 2値オブジェク ト画 像のそれぞれをフレームメモリ 3 8 3— 3乃至フレームメモリ 3 8 3— ( N - 1 ) のいずれかに出力し、 N番目のフレームの動き補償された 2値オブジェク ト 画像をフレームメモリ 3 8 3—Nに出力する。

フレームメモリ 3 8 3— 1は、 1番目のフレームの動き補償された 2値ォブジ ェク ト画像を記憶し、 記憶されている 2値ォブジェク ト画像を重み付け部 3 8 4 — 1に出力する。 フレームメモリ 3 8 3— 2は、 2番目のフレームの動き補償さ れた 2値ォブジェク ト画像を記憶し、 記憶されている 2値ォブジェク ト画像を重 み付け部 3 8 4 - 2に出力する。

同様に、 フレームメモリ 3 8 3— 3乃至フレームメモリ 3 8 3— ( N - 1 ) の それぞれは、 3番目のフレーム乃至 N— 1番目のフレームの動き補償された 2値 オブジェク ト画像のいずれかを記憶し、 記憶されている 2値ォブジェク ト画像を 重み付け部 3 8 4— 3乃至重み付け部 3 8 4— ( N - 1 ) のいずれかに出力する。 フレームメモリ 3 8 3—Nは、 N番目のフレームの動き補償された 2値オブジェ ク ト画像を記億し、 記憶されている 2値ォブジェク ト画像を重み付け部 3 8 4— Nに出力する。

重み付け部 3 8 4— 1は、 フレームメモリ 3 8 3— 1から供給された 1番目の フレームの動き補償された 2値ォブジェク ト画像の画素値に予め定めた重み wl を乗じて、 積算部 3 8 5に供給する。 重み付け部 3 8 4— 2は、 フレームメモリ 3 8 3一 2から供給された 2番目のフレームの動き補償された 2値ォブジェク ト 画像の画素値に予め定めた重み w2を乗じて、 積算部 3 8 5に供給する。

同様に、 重み付け部 3 8 4— 3乃至重み付け部 3 8 4— (N— 1 ) のそれぞれ は、 フレームメモリ 3 8 3— 3乃至フレームメモリ 3 8 3 _ ( N - 1 ) のいずれ かから供給された 3番目乃至 N— 1番目のいずれかのフレームの動き補償された 2値オブジェク ト画像の画素値に予め定めた重み w3乃至重み w (N- l )のいずれか を乗じて、 積算部 3 8 5に供給する。 重み付け部 3 8 4— Nは、 フレームメモリ 3 8 3一 Nから供給された N番目のフレームの動き補償された 2値オブジェク ト 画像の画素値に予め定めた重み wNを乗じて、 積算部 3 8 5に供給する。

積算部 3 8 5は、 1乃至 N番目のフレームの動き補償され、 それぞれ重み w l 乃至 wNのいずれかが乗じられた、 2値ォブジェク ト画像の対応する画素値を積 算して、 積算された画素値を予め定めたしきい値 thO と比較することにより 2 値ォブジェク ト画像を生成する。

このように、 ロバスト化部 3 6 1は、 N個の 2値オブジェク ト画像から口バス ト化された 2値オブジェ ト画像を生成して、 時間変化検出部 3 0 3に供給するの で、 図 6 6に構成を示す領域特定部 1 0 3は、 入力画像にノイズが含まれていて も、 図 5 4に示す場合に比較して、 より正確に領域を特定することができる。 次に、 図 6 6に構成を示す領域特定部 1 0 3の領域特定の処理について、 図 7 0のフローチャートを参照して説明する。 ステップ S 3 4 1乃至ステップ S 3 4 3の処理は、 図 6 4のフローチヤ一トで説明したステップ S 3 0 1乃至ステップ S 3 0 3とそれぞれ同様なのでその説明は省略する。

ステップ S 3 4 4において、 ロバスト化部 3 6 1は、 ロバスト化の処理を実行 する。

ステップ S 3 4 5において、 時間変化検出部 3 0 3は、 領域判定の処理を実行 して、 処理は終了する。 ステップ S 3 4 5の処理の詳細は、 図 6 5のフローチヤ- 一トを参照して説明した処理と同様なのでその説明は省略する。

次に、 図 7 1のフローチャートを参照して、 図 7 0のステップ S 3 4 4の処理 に対応する、 ロバスト化の処理の詳細について説明する。 ステップ S 3 6 1にお いて、 動き捕償部 3 8 1は、 動き検出部 1 0 2から供給される動きべク トルとそ の位置情報を基に、 入力された 2値オブジェク ト画像の動き補償の処理を実行す る。 ステップ S 3 6 2において、 フレームメモリ 3 8 3— 1乃至 3 8 3— Nのい ずれかは、 スィッチ 3 8 2を介して供給された動き補償された 2値ォブジェク ト 画像を記憶する。

ステップ S 3 6 3において、 ロバスト化部 3 6 1は、 N個の 2値オブジェク ト 画像が記憶されたか否かを判定し、 N個の 2値ォブジェク ト画像が記憶されてい ないと判定された場合、 ステップ S 3 6 1に戻り、 2値オブジェク ト画像の動き 補償の処理および 2値オブジェク ト画像の記憶の処理を繰り返す。

ステップ S 3 6 3において、 N個の 2値オブジェク ト画像が記憶されたと判定 された場合、 ステップ S 3 6 4に進み、 重み付け部 3 8 4— 1乃至 3 8 4— Nの それぞれは、 N個の 2値ォブジェク ト画像のそれぞれに wl乃至 wNのいずれか の重みを乗じて、 重み付けする。

ステップ S 3 6 5において、 積算部 3 8 5は、 重み付けされた N個の 2値ォブ ジェク ト画像を積算する。

ステップ S 3 6 6において、 積算部 3 8 5は、 例えば、 予め定められたしきい 値 th l との比較などにより、 積算された画像から 2値ォブジェク ト画像を生成 して、 処理は終了する。

このように、 図 6 6に構成を示す領域特定部 1 0 3は、 ロバス ト化された 2値 オブジェク ト画像を基に、 領域情報を生成することができる。

以上のように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれぞれ について、 動き領域、 静止領域、 アンカバードバックグラウンド領域、 または力 バードバックグラウンド領域に属することを示す領域情報を生成することができ る。

図 7 2は、 混合比算出部 1 0 4の構成の一例を示すブロック図である。 推定混 合比処理部 4 0 1は、 入力画像を基に、 カバードバックグラウンド領域のモデル に対応する演算により、 画素毎に推定混合比を算出して、 算出した推定混合比を 混合比決定部 4 0 3に供給する。

推定混合比処理部 4 0 2は、 入力画像を基に、 アンカバードバックグラウンド 領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した 推定混合比を混合比決定部 4 0 3に供給する。

前景に対応するオブジェク トがシャッタ時間内に等速で動いていると仮定でき るので、 混合領域に属する画素の混合比 αは、 以下の性質を有する。 すなわち、 混合比 αは、 画素の位置の変化に対応して、 直線的に変化する。 画素の位置の変 化を 1次元とすれば、 混合比 αの変化は、 直線で表現することができ、 画素の位 置の変化を 2次元とすれば、 混合比 αの変化は、 平面で表現することができる。 なお、 1フレームの期間は短いので、 前景に対応するオブジェク トが剛体であ り、 等速で移動していると仮定が成り立つ。

この場合、 混合比 αの傾きは、 前景のシャツタ時間内での動き量 Vの逆比と なる。

理想的な混合比 αの例を図 7 3に示す。 理想的な混合比 αの混合領域における 傾き 1は、 動き量 Vの逆数として表すことができる。

図 7 3に示すように、 理想的な混合比ひは、 背景領域において、 1の値を有し、 前景領域において、 0の値を有し、 混合領域において、 0を越え 1未満の値を有 する。

図 7 4の例において、 フレーム ίίηの左から 7番目の画素の画素値 C06は、 フ レーム #η- 1の左から 7番目の画素の画素値 Ρ06を用いて、 式 (8 ) で表すこと ができる。

C06 = B06/v + B06/V + FOllv + F02lv

= P06lv + P06/V + FOllv + F02lv

= 2/vP06 +∑Fi/v (8) 式 (8 ) において、 画素値 C06を混合領域の画素の画素値 Mと、 画素値 P06 を背景領域の画素の画素値 Bと表現する。 すなわち、 混合領域の画素の画素値 M および背景領域の画素の画素値 Bは、 それぞれ、 式 (9 ) および式 (1 0 ) の ように表現することができる。

M=C06 ( 9 )

B=P06 ( 1 0 ) 式 (8) 中の 2/vは、 混合比 ひ に対応する。 動き量 Vが 4なので、 フレーム #nの左から 7番目の画素の混合比 は、 0.5 となる。

以上のように、 注目しているフレーム #nの画素値 Cを混合領域の画素値と見 なし、 フレーム #nの前のフレーム #n- 1の画素値 Pを背景領域の画素値と見なす ことで、 混合比 ひ を示す式 (3) は、 式 ( 1 1) のように書き換えられる。

c= - P+f ( 1 1 )

式 (1 1 ) の f は、 注目している画素に含まれる前景の成分の和 ∑iFi/vであ る。 式 (1 1) に含まれる変数は、 混合比 Q?および前景の成分の和 f の 2つで ある。

同様に、 アンカバードバックグラウンド領域における、 動き量 V が 4であり、 時間方向の仮想分割数が 4である、 画素値を時間方向に展開したモデルを図 7 5 に示す。

アンカバードバックグラウンド領域において、 上述したカバードバックグラウ ンド領域における表現と同様に、 注目しているフレーム ίίηの画素値 Cを混合領 域の画素値と見なし、 フレーム #ηの後のフレーム ίίη+lの画素値 Νを背景領域の 画素値と見なすことで、 混合比 ひ を示す式 (3) は、 式 (1 2) のように表現 することができる。

C=a - N+f ( 1 2)

なお、 背景のオブジェク トが静止しているとして説明したが、 背景のオブジェ タ トが動いている場合においても、 背景の動き量 Vに対応させた位置の画素の 画素値を利用することにより、 式 (8) 乃至式 (1 2) を適用することができる c 例えば、 図 74において、 背景に対応するオブジェク トの動き量 V が 2であり, 仮想分割数が 2であるとき、 背景に対応するオブジェク トが図中の右側に動いて いるとき、 式 (1 0) における背景領域の画素の画素値 Bは、 画素値 P04とさ れる。

式 (1 1 ) および式 (1 2) は、 それぞれ 2つの変数を含むので、 そのままで は混合比 ひ を求めることができない。 ここで、 画像は一般的に空間的に相関が 強いので近接する画素同士でほぼ同じ画素値となる。

そこで、 前景成分は、 空間的に相関が強いので、 前景の成分の和 f を前また は後のフレームから導き出せるように式を変形して、 混合比 ひ を求める。

図 76のフ I /一ム ttnの左から 7番目の画素の画素値 Mcは、 式 (1 3) で表す ことができる。

式 ( 1 3) の右辺第 1項の 2/vは、 混合比 (X に相当する。 式 (1 3) の右辺 第 2項は、 後のフレーム +1の画素値を利用して、 式 (14) のように表すこ ととする。

ここで、 前景の成分の空間相関を利用して、 式 (1 5) が成立するとする。

F=F05=F06=F07=F08=F09=F10=F11=F12 (1 5) 式 (14) は、 式 (1 5) を利用して、 式 (1 6) のように置き換えることが できる。

=β· .F (16) 結果として、 3 は、 式 (1 7) で表すことができる。

)5=2/4 (1 7)

一般的に、 式 (1 5) に示すように混合領域に関係する前景の成分が等しいと 仮定すると、 混合領域の全ての画素について、 内分比の関係から式 (1 8) が成 立する。

β=ι- (1 8)

式 ( 1 8) が成立するとすれば、 式 (1 1) は、 式 (1 9) に示すように展開 することができる。 C= -P+f

r+v-i

= a-P+(l- )>∑Fifv

= -P + (l- )'N <19) 同様に、 式 ( 1 8) が成立するとすれば、 式 ( 1 2) は、 式 (2 0) に示すよ うに展開することができる。 c = a'N+f

r+v-i

= a-N+(l- )'∑Fi/v

= a-N+(l- )-p (2 ) 式 ( 1 9) および式 (2 0) において、 C, N、 および Pは、 既知の画素値な ので、 式 (1 9) および式 (2 0) に含まれる変数は、 混合比 ひ のみである。 式 ( 1 9) および式 (2 0) における、 C, N、 および P の関係を図 7 7に示す c Cは、 混合比 ひ を算出する、 フレーム #ηの注目している画素の画素値である。 Νは、 注目している画素と空間方向の位置が対応する、 フレーム #η+1の画素の 画素値である。 Ρは、 注目している画素と空間方向の位置が対応する、 フレーム ίίη-lの画素の画素値である。

従って、 式 ( 1 9) および式 (2 0) のそれぞれに 1つの変数が含まれること となるので、 3つのフレームの画素の画素値を利用して、 混合比 を算出する ことができる。 式 (1 9) および式 (2 0) を解くことにより、 正しい混合比 ひ が算出されるための条件は、 混合領域に関係する前景の成分が等しい、 すな わち、 前景のオブジェク トが静止しているとき撮像された前景の画像オブジェク トにおいて、 前景のオブジェク トの動きの方向に対応する、 画像オブジェク トの 境界に位置する画素であって、 動き量 Vの 2倍の数の連続している画素の画素 値が、 一定であることである。

以上のように、 カバードバックグラウンド領域に属する画素の混合比 は、 式 (2 1 ) により算出され、 アンカバードバックグラウンド領域に属する画素の 混合比 ひ は、 式 (2 2 ) により算出される。

Qf = (C-N) / (P-N) ( 2 1 )

a = (C-P) / (N-P) ( 2 2 )

図 7 8は、 推定混合比処理部 4 0 1の構成を示すブロック図である。 フレーム メモリ 4 2 1は、 入力された画像をフレーム単位で記憶し、 入力画像として入力 されているフレームから 1つ後のフレームをフレームメモリ 4 2 2および混合比 演算部 4 2 3に供給する。

フレームメモリ 4 2 2は、 入力された画像をフレーム単位で記憶し、 フレーム メモリ 4 2 1から供給されているフレームから 1つ後のフレームを混合比演算部 4 2 3に供給する。

従って、 入力画像としてフレーム #n+ lが混合比演算部 4 2 3に入力されてい るとき、 フレームメモリ 4 2 1は、 フレーム を混合比演算部 4 2 3に供給し、 フレームメモリ 4 2 2は、 フレーム ttn- 1を混合比演算部 4 2 3に供給する。

混合比演算部 4 2 3は、 式 (2 1 ) に示す演算により、 フレーム #nの注目し ている画素の画素値 注目している画素と空間的位置が対応する、 フレーム ttn+ 1の画素の画素値 N、 および注目している画素と空間的位置が対応する、 フ レーム - 1の画素の画素値 Pを基に、 注目している画素の推定混合比を算出し て、 算出した推定混合比を出力する。 例えば、 背景が静止しているとき、 混合比 演算部 4 2 3は、 フレーム #nの注目している画素の画素値 C、 注目している画 素とフレーム内の位置が同じ、 フレーム ίίη+lの画素の画素値 N、 および注目し ている画素とフレーム内の位置が同じ、 フレーム tin- 1 の画素の画素値 P を基に、 注目している画素の推定混合比を算出して、 算出した推定混合比を出力する。 このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を算出 して、 混合比決定部 4 0 3に供給することができる。

なお、 推定混合比処理部 4 0 2は、 推定混合比処理部 4 0 1が式 (2 1 ) に示 す演算により、 注目している画素の推定混合比を算出するのに対して、 式 (2 2 ) に示す演算により、 注目している画素の推定混合比を算出する部分が異なる ことを除き、 推定混合比処理部 4 0 1 と同様なので、 その説明は省略する。

図 7 9は、 推定混合比処理部 4 0 1により算出された推定混合比の例を示す図 である。 図 7 9に示す推定混合比は、 等速で動いているオブジェク トに対応する 前景の動き量 V が 1 1である場合の結果を、 1ラインに対して示すものである。 推定混合比は、 混合領域において、 図 7 3に示すように、 ほぼ直線的に変化し ていることがわかる。

図 7 2に戻り、 混合比決定部 4 0 3は、 領域特定部 1 0 3から供給された、 混 合比 の算出の対象となる画素が、 前景領域、 背景領域、 カバードバックダラ ゥンド領域、 またはアンカバードバックグラウンド領域のいずれかに属するかを 示す領域情報を基に、 混合比 ひ を設定する。 混合比決定部 4 0 3は、 対象とな る画素が前景領域に属する場合、 0を混合比 ひ に設定し、 対象となる画素が背 景領域に属する場合、 1を混合比 ひ に設定し、 対象となる画素がカバードバッ クグラウンド領域に属する場合、 推定混合比処理部 4 0 1から供給された推定混 合比を混合比 ひ に設定し、 対象となる画素がアンカバードバックグラウンド領 域に属する場合、 推定混合比処理部 4 0 2から供給された推定混合比を混合比 a に設定する。 混合比決定部 4 0 3は、 領域情報を基に設定した混合比 を出 力する。

図 8 0は、 混合比算出部 1 0 4の他の構成を示すブロック図である。 選択部 4 4 1は、 領域特定部 1 0 3から供給された領域情報を基に、 カバードバックグラ ゥンド領域に属する画素および、 これに対応する前および後のフレームの画素を 推定混合比処理部 4 4 2に供給する。 選択部 4 4 1は、 領域特定部 1 0 3から供 給された領域情報を基に、 アンカバードバックグラウンド領域に属する画素およ び、 これに対応する前および後のフレームの画素を推定混合比処理部 4 4 3に供 給する。

推定混合比処理部 4 4 2は、 選択部 4 4 1から入力された画素値を基に、 式

( 2 1 ) に示す演算により、 カバードバックグラウンド領域に属する、 注目して いる画素の推定混合比を算出して、 算出した推定混合比を選択部 4 4 4に供給す る。

推定混合比処理部 4 4 3は、 選択部 4 4 1から入力された画素値を基に、 式 ( 2 2 ) に示す演算により、 アンカバードバックグラウンド領域に属する、 注目 している画素の推定混合比を算出して、 算出した推定混合比を選択部 4 4 4に供 給する。

選択部 4 4 4は、 領域特定部 1 0 3から供給された領域情報を基に、 対象とな る画素が前景領域に属する場合、 0である推定混合比を選択して、 混合比 ひ に 設定し、 対象となる画素が背景領域に属する場合、 1である推定混合比を選択し て、 混合比 ひ に設定する。 選択部 4 4 4は、 対象となる画素がカバードバック グラウンド領域に属する場合、 推定混合比処理部 4 4 2から供給された推定混合 比を選択して混合比 ひ に設定し、 対象となる画素がアンカバードバックグラウ ンド領域に属する場合、 推定混合比処理部 4 4 3から供給された推定混合比を選 択して混合比 ひ に設定する。 選択部 4 4 4は、 領域情報を基に選択して設定し た混合比 a を出力する。

このように、 図 8 0に示す他の構成を有する混合比算出部 1 0 4は、 画像の含 まれる画素毎に混合比 ひ を算出して、 算出した混合比 01 を出力することができ る。

図 8 1のフローチャートを参照して、 図 7 2に構成を示す混合比算出部 1 0 4 の混合比 ひ の算出の処理を説明する。 ステップ S 4 0 1において、 混合比算出 部 1 0 4は、 領域特定部 1 0 3から供給された領域情報を取得する。 ステップ S 4 0 2において、 推定混合比処理部 4 0 1は、 カバードバックグラウンド領域に 対応するモデルにより推定混合比の演算の処理を実行し、 算出した推定混合比を 混合比決定部 4 0 3に供給する。 混合比推定の演算の処理の詳細は、 図 8 2のフ ローチャートを参照して、 後述する。

ステップ S 4 0 3において、 推定混合比処理部 4 0 2は、 アンカバードバック グラウンド領域に対応するモデルにより推定混合比の演算の処理を実行し、 算出 した推定混合比を混合比決定部 4 0 3に供給する。 ステップ S 4 0 4において、 混合比算出部 1 0 4は、 フレーム全体について、 混合比ひ を推定したか否かを判定し、 フレーム全体について、 混合比 を推定 していないと判定された場合、 ステップ S 4 0 2に戻り、 次の画素について混合 比ひ を推定する処理を実行する。

ステップ S 4 0 4において、 フレーム全体について、 混合比 ひ を推定したと 判定された場合、 ステップ S 4 0 5に進み、 混合比決定部 4 0 3は、 画素が、 前 景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバック グラウンド領域のいずれかに属するかを示す、 領域特定部 1 0 3から供給された 領域情報を基に、 混合比 ひ を設定する。 混合比決定部 4 0 3は、 対象となる画 素が前景領域に属する場合、 0を混合比 ひ に設定し、 対象となる画素が背景領 域に属する場合、 1を混合比 に設定し、 対象となる画素がカバードバックグ ラウンド領域に属する場合、 推定混合比処理部 4 0 1から供給された推定混合比 を混合比ひ に設定し、 対象となる画素がアンカバードバックグラウンド領域に 属する場合、 推定混合比処理部 4 0 2から供給された推定混合比を混合比 ひ に 設定し、 処理は終了する。

このように、 混合比算出部 1 0 4は、 領域特定部 1 0 3から供給された領域情 報、 および入力画像を基に、 各画素に対応する特徴量である混合比 ひ を算出す ることができる。

図 8 0に構成を示す混合比算出部 1 0 4の混合比 ひの算出の処理は、 図 8 1 のフローチャートで説明した処理と同様なので、 その説明は省略する。

次に、 図 8 1のステップ S 4 0 2に対応する、 カバードバックグラウンド領域 に対応するモデルによる混合比推定の処理を図 8 2のフローチヤ一トを参照して 説明する。

ステップ S 4 2 1において、 混合比演算部 4 2 3は、 フレームメモリ 4 2 1力 ら、 フレーム #nの注目画素の画素値 Cを取得する。

ステップ S 4 2 2において、 混合比演算部 4 2 3は、 フレームメモリ 4 2 2力 ら、 注目画素に対応する、 フレーム ίίη- lの画素の画素値 Pを取得する。 ステップ S 4 2 3において、 混合比演算部 4 2 3は、 入力画像に含まれる注目 画素に対応する、 フレーム ttn+ 1の画素の画素値 Nを取得する。

ステップ S 4 2 4において、 混合比演算部 4 2 3は、 フレーム #nの注目画素 の画素ィ直 C、 フレーム #n- l の画素の画素ィ直 P、 およびフレーム #n+l の画素の画 素値 Nを基に、 推定混合比を演算する。

ステップ S 4 2 5において、 混合比演算部 4 2 3は、 フレーム全体について、 推定混合比を演算する処理を終了したか否かを判定し、 フレーム全体について、 推定混合比を演算する処理を終了していないと判定された場合、 ステップ S 4 2 1に戻り、 次の画素について推定混合比を算出する処理を繰り返す。

ステップ S 4 2 5において、 フレーム全体について、 推定混合比を演算する処 理を終了したと判定された場合、 処理は終了する。

このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を演算 することができる。

図 8 1のステップ S 4 0 3におけるアンカバードバックグラウンド領域に対応 するモデルによる混合比推定の処理は、 アンカバードバックグラウンド領域のモ デルに対応する式を利用した、 図 8 2のフローチヤ一トに示す処理と同様なので、 その説明は省略する。

なお、 図 8 0に示す推定混合比処理部 4 4 2および推定混合比処理部 4 4 3は、 図 8 2に示すフローチヤ一トと同様の処理を実行して推定混合比を演算するので、 その説明は省略する。

また、 背景に対応するオブジェク トが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した混合比 ひ を求める処理を適用 することができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 推定混合比処理部 4 0 1は、 背景の動きに対応して画像全体をシフ トさせ、 背景 に対応するオブジェク トが静止している場合と同様に処理する。 また、 背景領域 に対応する画像が局所毎に異なる背景の動きを含んでいるとき、 推定混合比処理 部 4 0 1は、 混合領域に属する画素に対応する画素として、 背景の動きに対応し た画素を選択して、 上述の処理を実行する。

また、 混合比算出部 1 0 4は、 全ての画素について、 カバードバックグラウン ド領域に対応するモデルによる混合比推定の処理のみを実行して、 算出された推 定混合比を混合比 として出力するようにしてもよい。 この場合において、 混 合比 ひ は、 カバードバックグラウンド領域に属する画素について、 背景の成分 の割合を示し、 アンカバードバックグラウンド領域に属する画素について、 前景 の成分の割合を示す。 アンカバードバックグラウンド領域に属する画素について, このように算出された混合比 ひ と 1との差分の絶対値を算出して、 算出した絶 対値を混合比 ひ に設定すれば、 分離処理サーバ 1 1は、 アンカバードバックグ ラウンド領域に属する画素について、 背景の成分の割合を示す混合比 ひ を求め ることができる。

なお、 同様に、 混合比算出部 1 0 4は、 全ての画素について、 アンカバードバ ックグラウンド領域に対応するモデルによる混合比推定の処理のみを実行して、 算出された推定混合比を混合比 ひ として出力するようにしてもよい。

次に、 混合比 が直線的に変化する性質を利用して混合比 aを算出する混合 比算出部 1 0 4について説明する。

上述したように、 式 ( 1 1 ) および式 (1 2 ) は、 それぞれ 2つの変数を含む ので、 そのままでは混合比 ひ を求めることができない。

そこで、 シャツタ時間内において、 前景に対応するオブジェクトが等速で動く ことによる、 画素の位置の変化に対応して、 混合比 が直線的に変化する性質 を利用して、 空間方向に、 混合比 ひ と前景の成分の和 f とを近似した式を立て る。 混合領域に属する画素の画素値および背景領域に属する画素の画素値の組の 複数を利用して、 混合比 ひ と前景の成分の和 f とを近似した式を解く。

混合比 ひ の変化を、 直線として近似すると、 混合比 ひ は、 式 (2 3 ) で表さ れる。

ひ: i l+p ( 2 3 )

式 (2 3 ) において、 iは、 注目している画素の位置を 0とした空間方向のィ ンデックスである。 1は、 混合比 ひ の直線の傾きである。 pは、 混合比 ひ の直 線の切片である共に、 注目している画素の混合比 ひ である。 式 (2 3) におい て、 インデックス iは、 既知であるが、 傾き 1および切片 pは、 未知である。 インデックスお 傾き および切片 pの関係を図 8 3に示す。

混合比 を式 (2 3) のように近似することにより、 複数の画素に対して複 数の異なる混合比 ひ は、 2つの変数で表現される。 図 8 3に示す例において、 5つの画素に対する 5つの混合比は、 2つの変数である傾き 1および切片 pに より表現される。 尚、 図 8 3においては、 白丸が注目画素を、 黒丸が近傍画素を それぞれ示している。

図 8 4に示す平面で混合比 a を近似すると、 画像の水平方向および垂直方向 の 2つの方向に対応する動き V を考慮したとき、 式 (2 3) を平面に拡張して, 混合比ひ は、 式 (24) で表される。 尚、 図 84においては、 白丸が注目画素 を示している。

Of =jm+kq+p (24)

式 (24) において、 jは、 注目している画素の位置を 0とした水平方向のィ ンデッタスであり、 kは、 垂直方向のインデックスである。 mは、 混合比 ひ の 面の水平方向の傾きであり、 qは、 混合比 の面の垂直方向の傾きである。 p は、 混合比ひ の面の切片である。

例えば、 図 74に示すフレーム ίίηにおいて、 C05乃至 C07について、 それぞ れ、 式 (2 5) 乃至式 (2 7) が成立する。

C05=a05-B05/v+f05 ( 2 5 )

C06=a06-B06/v+f06 (2 6 )

C07=ひ 07'B07/v+f07 ( 2 7 )

前景の成分が近傍で一致する、 すなわち、 F01乃至 F03が等しいとして、 F01 乃至 F03を Fcに置き換えると式 (2 8) が成立する。

f (x) = (l-ひ(X) ) · Fc (2 8)

式 (2 8) において、 Xは、 空間方向の位置を表す。 (x) を式 (24) で置き換えると、 式 (2 8) は、 式 (2 9) として表す ことができる。

f (x) = (l-(jm+kq+p)) · Fc

=j · (- m · Fc) +k ■ (- q ' Fc) +((1- p) · Fc)

=js+kt+u (2 9)

式 (2 9) において、 (- m · Fc) 、 (- q · Fc) 、 および( 1- p) · Fcは、 式 (3 0) 乃至式 (3 2) に示すように置き換えられている。

s=- m · Fc (3 0)

t=-q · Fc ( 3 1)

u=(l-p) . Fc (3 2)

式 (2 9) において、 jは、 注目している画素の位置を 0とした水平方向のィ ンデッタスであり、 kは、 垂直方向のインデックスである。

このように、 前景に対応するォブジェク トがシャツタ時間内において等速に移 動し、 前景に対応する成分が近傍において一定であるという仮定が成立するので、 前景の成分の和は、 式 (2 9) で近似される。

なお、 混合比 を直線で近似する場合、 前景の成分の和は、 式 (3 3) で表 すことができる。

f (x)=is+u (3 3)

式 ( 1 3) の混合比ひおよび前景成分の和を、 式 (2 4) および式 (2 9) を利用して置き換えると、 画素値 Mは、 式 (34) で表される。

M=(j'm+kq+p) - B+js+kt+u

=jB - m+kB · q+B · p+j - s+k - t+u (3 4)

式 (34) において、 未知の変数は、 混合比 ひ の面の水平方向の傾き m、 混 合比 ひ の面の垂直方向の傾き q、 混合比 ひ の面の切片 p、 s、 t、 および uの 6 つである。

注目している画素の近傍の画素に対応させて、 式 (34) に示す正規方程式に, 画素値 Mまたは画素値 Bを設定し、 画素値 Mまたは画素値 Bが設定された複数 の正規方程式を最小自乗法で解いて、 混合比ひ を算出する。

例えば、 注目している画素の水平方向のインデックス jを 0とし、 垂直方向 のインデックス k を 0とし、 注目している画素の近傍の 3 X 3の画素について. 式 (34) に示す正規方程式に画素値 Mまたは画素値 Bを設定すると、 式 (3

5) 乃至式 (43) を得る。

M.,, _, = (-!) · B_, _! · m+(-l) · B 1 · q+B_, · p+ 1) . s+(_l) ■ t+u

(3 5)

M0>-1-(0) ■ B0,一 · ra+(-l) ■ Bo,.! · q+B0i-1 · p+ (0) · s+(-l) · t+u (36)

M+ 1=(+1) - B L · m+(-l) · B+1,— i · q+B+ L · p+( + l) · s+ (- 1) · t+u

(37)

¾^.0= ( 1) · B.li0 · m+(0) · B-u · q+B— · p+ (- 1) · s+(0) - t+u (38) M0,0=(0) · B , · m+(0) · B , · q+B , · p+ (0) · s+ (0) · t+u (3 9) M+1, =(+l) · B+1,0 · m+(0) · B+1, · q+B+1,0 · p+(+l) · s+(0) · t+u (40) _1>+1=(-1) · B_1 +1 · m+(+l) · B.li+1 · q+B. +1■ p+(-l) · s+(+l) · t+u

(4 1)

M0,+1=(0) · B0,+1 m+(+l) · B0,+1 · q+B0,+1 · p+ (0) · s+(+l) · t+u (42) M+1.+1=(+l) · B+1 . m+(+l) · B+ 1 · q+Bn,+1 · p+( + l) · s+(+l) · t+u

(43) 注目している画素の水平方向のインデックス jが 0であり、 垂直方向のイン デックス kが 0であるので、 注目している画素の混合比 ひ は、 式 ( 24) より, j=0および k=0のときの値、 すなわち、 切片 pに等しい。

従って、 式 (35) 乃至式 (43) の 9つの式を基に、 最小自乗法により、 水 平方向の傾き m、 垂直方向の傾き q、 切片 p s t、 および uのそれぞれの値を 算出し、 切片 pを混合比ひ として出力すればよい。

次に、 最小自乗法を適用して混合比 ひ を算出するより具体的な手順を説明す る。

ィンデックス i およびィンデックス k を 1つのィンデックス X で表現すると - インデックス i、 インデックス およびインデックス xの関係は、 式 (44) で表される。

x=(j+l) · 3+(k+l) (44) 水平方向の傾き m、 垂直方向の傾き q、 切片 p、 s、 t、 および uをそれぞれ変 数 w0, wl,w2,w3, w4、 および W5と表現し、 jB, kB, B, j, k、 および 1をそれぞれ aO, al,a2, a3,a4、 および a5と表現する。 誤差 exを考慮すると、 式 (3 5) 乃 至式 (4 3) は、 式 (4 5) に書き換えることができる。

式 (45) において、 Xは、 0乃至 8の整数のいずれかの値である。

式 (4 5) から、 式 (4 6) を導くことができる。 ex = Mx~∑dayWv (46)

y = 0

ここで、 最小自乗法を適用するため、 誤差の自乗和 Eを式 (4 7) に示すよ うに定義する。

E=∑iex (47) 誤差が最小になるためには、 誤差の自乗和 Eに対する、 変数 の偏微分が 0 になればよい。 ここで、 Vは、 0乃至 5の整数のいずれかの値である。 従って、 式 (4 8) を満たすように wyを求める。

= 2-∑€x-av = 0 (48) 式 (4 8) に式 (4 6) を代入すると、 式 (4 9) を得る。

∑(av*∑ay Wy) -∑ αν ·Μχ (49)

χ=° y = ° Xss°

式 (4 9) の v〖こ 0乃至 5の整数のいずれか 1つを代入して得られる 6つの 式に、 例えば、 掃き出し法 (Gauss-Jordanの消去法) などを適用して、 wyを算 出する。 上述したように、 w0は水平方向の傾き mであり、 wlは垂直方向の傾き qであり、 w2は切片 pであり、 w3は sであり、 w4は t であり、 w5は uである。 以上のように、 画素値 Mおよび画素値 Bを設定した式に、 最小自乗法を適用 することにより、 水平方向の傾き ιτι、 垂直方向の傾き q、 切片 p、 s、 t、 および uを求めることができる。

式 (3 5) 乃至式 (4 3) に対応する説明において、 混合領域に含まれる画素 の画素値を Mとし、 背景領域に含まれる画素の画素値を Bとして説明したが、 注目している画素が、 カバードバックグラウンド領域に含まれる場合、 またはァ ンカバードバックグラウンド領域に含まれる場合のそれぞれに対して、 正規方程 式を立てる必要がある。

例えば、 図 7 4に示す、 フレーム #nのカバードバックグラウンド領域に含ま れる画素の混合比 ひ を求める場合、 フレーム #nの画素の C04乃至 C08、 および フレーム #n- 1の画素の画素値 P04乃至 P08が、 正規方程式に設定される。

図 7 5に示す、 フレーム ttnのアンカバードバックグラウンド領域に含まれる 画素の混合比 ひ を求める場合、 フレーム #nの画素の C28乃至 C32、 およびフレ ーム #n+lの画素の画素値 N28乃至 N32が、 正規方程式に設定される。

また、 例えば、 図 8 5に示す、 カバードバックグラウンド領域に含まれる画素 の混合比 ひ を算出するとき、 以下の式 (5 0) 乃至式 (5 8) が立てられる。 混合比 α を算出する画素の画素値は、 Mc5である。 尚、 図 8 5において、 白丸 は、 背景と見なす画素を示し、 黒丸は、 混合領域の画素と見なす画素を、 それぞ れ示してレヽる。

Mcl=(_l) · Bel ■ m+(-l) - Bel · q+Bcl · p+(-l) · s+ (- 1) - t+u (5 0)

Mc2=(0) - Bc2 - m+(-l) - Bc2 · q+Bc2 · p+(0) · s+ (- 1) - t+u (5 1 ) Mc3=(+1) · Bc3 · m+(- 1) · Bc3 · q+Bc3 · p+(+l) · s+ (- 1) · t+u ( 5 2) c4=(-1) · Bc4 · m+(0) · Bc4 - q+Bc4 - p+(-l) · s+(0) - t+u (5 3) c5= (0) - Bc5 · m+ (0) - Bc5 · q+Bc5 · p+ (0) · s+ (0) - t+u ( 5 4) Mc6= (+1) · Bc6 · m+ (0) - Bc6 - q+Bc6 · p+ (+l) · s+ (0) - t+u ( 5 5) Mc7=(-1) - Bc7 · m+( + l) · Bc7 · q+Bc7 · p+ (- 1) · s+(+l) - t+u ( 5 6) Mc8=(0) - Bc8 · m+(+l) - Bc8 · q+Bc8 · p+(0) · s+(+l) - t+u (5 7)

Mc9=(+1) , Bc9 · m+(+l) - Bc9 - q+Bc9 - p+(+l) - s+(+l) - t+u ( 5 8) フレーム #nのカバードバックグラウンド領域に含まれる画素の混合比 01 を算 出するとき、 式 (5 0) 乃至式 (5 8) において、 フレーム #nの画素に対応す る、 フレーム t - 1 の画素の背景領域の画素の画素値 Bel 乃至 Bc9が使用される c 図 8 5に示す、 アンカバードバックグラウンド領域に含まれる画素の混合比 を算出するとき、 以下の式 (5 9) 乃至式 (6 7) が立てられる。 混合比 を算出する画素の画素値は、 Mu5である。

Mul=(-1) · Bui - m+(-l) - Bui - q+Bul · p+(-l) · s+ (- 1) · t+u ( 5 9) Mu2=(0) · Bu2 - m+ (- 1) · Bu2 · q+Bu2 - p+(0) · s+ (- 1) - t+u (6 0)

Mu3= (+1) · Bu3 · m+ (- 1) - Bu3 · q+Bu3 · p+ (+1) · s+ (- 1) · t+u (6 1 ) Mu4=(-1) - Bu4 - m+(0) - Bu4 · q+Bu4 · p+(-l) · s+(0) - t+u (6 2) Mu5=(0) - Bu5 - m+(0) - Bu5 - q+Bu5 - p+ (0) - s+(0) - t+u (6 3)

Mu6= (+1) - Bu6 · m+ (0) · Bu6 - q+Bu6 - p+(+l) - s+(0) - t+u (6 4)

Mu7=(-1) · Bu7 · m+(+l) · Bu7 · q+Bu7 - p+(- 1) - s+(+l) - t+u (6 5) Mu8= (0) · Bu8 · m+ (+1) · Bu8 - q+Bu8 · p+ (0) · s+ (+1) · t+u (6 6) Mu9= (+1) - Bu9 - m+(+l) · Bu9 · q+Bu9 · p+ (+1) ■ s+ (+1) ■ t+u (6 7) フレーム #nのアンカバードバックダラゥンド領域に含まれる画素の混合比 ひ を算出するとき、 式 (5 9) 乃至式 (6 7) において、 フレーム #nの画素に対 応する、 フレーム #n+lの画素の背景領域の画素の画素値 Bui乃至 Bu9が使用さ れる。

図 8 6は、 推定混合比処理部 4 0 1の構成を示すブロック図である。 推定混合 比処理部 4 0 1に入力された画像は、 遅延回路 5 0 1および足し込み部 5 0 2に 供給される。

遅延回路 5 0 1は、 入力画像を 1フレーム遅延させ、 足し込み部 5 0 2に供給 する。 足し込み部 5 0 2に、 入力画像としてフレーム tin が入力されているとき、 遅延回路 5 0 1は、 フレーム #n- 1を足し込み部 5 0 2に供給する。

足し込み部 5 0 2は、 混合比 ひ を算出する画素の近傍の画素の画素値、 およ びフレーム #n- lの画素値を、 正規方程式に設定する。 例えば、 足し込み部 5 0 2は、 式 (5 0 ) 乃至式 (5 8 ) に基づいて、 正規方程式に画素値 Mc l乃至 Mc9 および画素値 Be l乃至 Bc9を設定する。 足し込み部 5 0 2は、 画素値が設定さ れた正規方程式を演算部 5 0 3に供給する。

演算部 5 0 3は、 足し込み部 5 0 2から供給された正規方程式を掃き出し法な どにより解いて推定混合比を求め、 求められた推定混合比を出力する。

このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を算出 して、 混合比決定部 4 0 3に供給することができる。

なお、 推定混合比処理部 4 0 2は、 推定混合比処理部 4 0 1 と同様の構成を有 するので、 その説明は省略する。

図 8 7は、 推定混合比処理部 4 0 1により算出された推定混合比の例を示す図 である。 図 8 7に示す推定混合比は、 等速で動いているオブジェク トに対応する 前景の動き Vが 1 1であり、 7 X 7画素のプロックを単位として方程式を生成 して算出された結果を、 1ラインに対して示すものである。

推定混合比は、 混合領域において、 図 8 6に示すように、 ほぼ直線的に変化し ていることがわかる。

次に、 図 8 6に構成を示す推定混合比処理部 4 0 1による、 カバードバックグ ラウンド領域に対応するモデルによる混合比推定の処理を図 8 8のフローチヤ一 トを参照して説明する。

ステップ S 5 2 1において、 足し込み部 5 0 2は、 入力された画像に含まれる 画素値、 および遅延回路 5 0 1から供給される画像に含まれる画素値を、 カバー ドバックグラウンド領域のモデルに対応する正規方程式に設定する。

ステップ S 5 2 2において、 推定混合比処理部 4 0 1は、 対象となる画素につ いての設定が終了したか否かを判定し、 対象となる画素についての設定が終了し ていないと判定された場合、 ステップ S 5 2 1に戻り、 正規方程式への画素値の 設定の処理を繰り返す。

ステップ S 5 2 2において、 対象となる画素についての画素値の設定が終了し たと判定された場合、 ステップ S 5 2 3に進み、 演算部 1 7 3は、 画素値が設定 された正規方程式を基に、 推定混合比を演算して、 求められた推定混合比を出力 する。

このように、 図 8 6に構成を示す推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を演算することができる。

アンカバードバックグラウンド領域に対応するモデルによる混合比推定の処理 は、 アンカバードバックグラウンド領域のモデルに対応する正規方程式を利用し た、 図 8 8のフローチャートに示す処理と同様なので、 その説明は省略する。 なお、 背景に対応するオブジェク トが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した混合比を求める処理を適用する ことができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 推定 混合比処理部 4 0 1は、 この動きに対応して画像全体をシフトさせ、 背景に対応 するオブジェク トが静止している場合と同様に処理する。 また、 背景領域に対応 する画像が局所毎に異なる動きを含んでいるとき、 推定混合比処理部 4 0 1は、 混合領域に属する画素に対応する画素として、 動きに対応した画素を選択して、 上述の処理を実行する。

このように、 混合比算出部 1 0 2は、 領域特定部 1 0 1から供給された領域情 報、 および入力画像を基に、 各画素に対応する特徴量である混合比 ひ を算出す ることができる。

混合比 ひ を利用することにより、 動いているオブジェク トに対応する画像に 含まれる動きボケの情報を残したままで、 画素値に含まれる前景の成分と背景の 成分とを分離することが可能になる。

また、 混合比ひ に基づいて画像を合成すれば、 実世界を実際に撮影し直した ような動いているオブジェク トのスピードに合わせた正しい動きボケを含む画像 を作ることが可能になる。

次に、 前景背景分離部 1 0 5について説明する。 図 8 9は、 前景背景分離部 1 0 5の構成の一例を示すブロック図である。 前景背景分離部 1 0 5に供給された 入力画像は、 分離部 6 0 1、 スィッチ 6 0 2、 およびスィツチ 6 0 4に供給され る。 カバードバックグラウンド領域を示す情報、 およびアンカバードバックダラ ゥンド領域を示す、 領域特定部 1 0 3から供給された領域情報は、 分離部 6 0 1 に供給される。 前景領域を示す領域情報は、 スィッチ 6 0 2に供給される。 背景 領域を示す領域情報は、 スィッチ 6 0 4に供給される。

混合比算出部 1 0 4から供給された混合比 は、 分離部 6 0 1に供給される。 分離部 6 0 1は、 カバードバックグラウンド領域を示す領域情報、 アンカバー ドバックグラウンド領域を示す領域情報、 および混合比 ひ を基に、 入力画像か ら前景の成分を分離して、 分離した前景の成分を合成部 6 0 3に供給するととも に、 入力画像から背景の成分を分離して、 分離した背景の成分を合成部 6 0 5に 供給する。

スィツチ 6 0 2は、 前景領域を示す領域情報を基に、 前景に対応する画素が入 力されたとき、 閉じられ、 入力画像に含まれる前景に対応する画素のみを合成部 6 0 3に供給する。

スィ ッチ 6 0 4は、 背景領域を示す領域情報を基に、 背景に対応する画素が入 力されたとき、 閉じられ、 入力画像に含まれる背景に対応する画素のみを合成部 6 0 5に供給する。

合成部 6 0 3は、 分離部 6 0 1から供給された前景に対応する成分、 スィッチ 6 0 2から供給された前景に対応する画素を基に、 前景成分画像を合成し、 合成 した前景成分画像を出力する。 前景領域と混合領域とは重複しないので、 合成部 6 0 3は、 例えば、 前景に対応する成分と、 前景に対応する画素とに論理和の演 算を適用して、 前景成分画像を合成する。

合成部 6 0 3は、 前景成分画像の合成の処理の最初に実行される初期化の処理 において、 内蔵しているフレームメモリに全ての画素値が 0である画像を格納し、 前景成分画像の合成の処理において、 前景成分画像を格納 (上書き) する。 従つ て、 合成部 6 0 3が出力する前景成分画像の内、 背景領域に対応する画素には、 画素値として 0が格納されている。

合成部 6 0 5は、 分離部 6 0 1から供給された背景に対応する成分、 スィッチ 6 0 4から供給された背景に対応する画素を基に、 背景成分画像を合成して、 合 成した背景成分画像を出力する。 背景領域と混合領域とは重複しないので、 合成 部 6 0 5は、 例えば、 背景に対応する成分と、 背景に対応する画素とに論理和の 演算を適用して、 背景成分画像を合成する。

合成部 6 0 5は、 背景成分画像の合成の処理の最初に実行される初期化の処理 において、 内蔵しているフレームメモリに全ての画素値が 0である画像を格納し、 背景成分画像の合成の処理において、 背景成分画像を格納 (上書き) する。 従つ て、 合成部 6 0 5が出力する背景成分画像の内、 前景領域に対応する画素には、 画素値として 0が格納されている。

図 9 0 A, 図 9 0 Bは、 前景背景分離部 1 0 5に入力される入力画像、 並びに 前景背景分離部 1 0 5から出力される前景成分画像および背景成分画像を示す図 である。

図 9 O Aは、 表示される画像の模式図であり、 図 9 0 Bは、 図 9 O Aに対応す る前景領域に属する画素、 背景領域に属する画素、 および混合領域に属する画素 を含む 1ラインの画素を時間方向に展開したモデル図を示す。

図 9 O Aおよび図 9 0 Bに示すように、 前景背景分離部 1 0 5から出力される 背景成分画像は、 背景領域に属する画素、 および混合領域の画素に含まれる背景 の成分から構成される。

図 9 O Aおよび図 9 0 Bに示すように、 前景背景分離部 1 0 5から出力される 前景成分画像は、 前景領域に属する画素、 および混合領域の画素に含まれる前景 の成分から構成される。

混合領域の画素の画素値は、 前景背景分離部 1 0 5により、 背景の成分と、 前 景の成分とに分離される。 分離された背景の成分は、 背景領域に属する画素と共 に、 背景成分画像を構成する。 分離された前景の成分は、 前景領域に属する画素 と共に、 前景成分画像を構成する。

このように、 前景成分画像は、 背景領域に対応する画素の画素値が 0とされ、 前景領域に対応する画素および混合領域に対応する画素に意味のある画素値が設 定される。 同様に、 背景成分画像は、 前景領域に対応する画素の画素値が 0とさ れ、 背景領域に対応する画素および混合領域に対応する画素に意味のある画素値 が設定される。

次に、 分離部 6 0 1が実行する、 混合領域に属する画素から前景の成分、 およ び背景の成分を分離する処理について説明する。

図 9 1は、 図中の左から右に移動するオブジェク トに対応する前景を含む、 2 つのフレームの前景の成分および背景の成分を示す画像のモデルである。 図 9 1 に示す画像のモデルにおいて、 前景の動き量 Vは 4であり、 仮想分割数は、 4 とされている。

フレーム #nにおいて、 最も左の画素、 および左から 1 4番目乃至 1 8番目の 画素は、 背景の成分のみから成り、 背景領域に属する。 フ I ^一ム1^において、 左から 2番目乃至 4番目の画素は、 背景の成分および前景の成分を含み、 アンカ バードバックグラウンド領域に属する。 フレーム #nにおいて、 左から 1 1番目 乃至 1 3番目の画素は、 背景の成分および前景の成分を含み、 カバードバックグ ラウンド領域に属する。 フレーム において、 左から 5番目乃至 1 0番目の画 素は、 前景の成分のみから成り、 前景領域に属する。

フレーム #n+ lにおいて、 左から 1番目乃至 5番目の画素、 および左から 1 8 番目の画素は、 背景の成分のみから成り、 背景領域に属する。 フレーム ttn+1に おいて、 左から 6番目乃至 8番目の画素は、 背景の成分および前景の成分を含み、 アンカバードバックグラウンド領域に属する。 フレーム #n+ lにおいて、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分および前景の成分を含み、 カバード バックグラウンド領域に属する。 フレーム #n+ lにおいて、 左から 9番目乃至 1 4番目の画素は、 前景の成分のみから成り、 前景領域に属する。 図 9 2は、 カバードバックグラウンド領域に属する画素から前景の成分を分離 する処理を説明する図である。 図 9 2において、 1乃至 1 8は、 フレーム における画素のぞれぞれに対応する混合比である。 図 9 2において、 左から 1 5番目乃至 1 7番目の画素は、 カバードバックグラウンド領域に属する。

フレーム Hn の左から 1 5番目の画素の画素値 C15 は、 式 (6 8) で表される c C15=B15/v+F09/v+F08/v+F07/v

=α 15-B15+F09/v+F08/v+F07/v

= 15-P15+F09/v+F08/v+F07/v (6 8) ここで、 ひ 15は、 フレーム #nの左から 1 5番目の画素の混合比である。 P15 は、 フレーム Hn-1の左から 1 5番目の画素の画素値である。

式 (6 8 ) を基に、 フレーム の左から 1 5番目の画素の前景の成分の和 fl5は、 式 (6 9) で表される。

fl5=F09/v+F08/v+F07/v

=C15_a 15·Ρ15 (6 9)

同様に、 フレーム ttnの左から 1 6番目の画素の前景の成分の和 Π6は、 式 ( 7 0 ) で表され、 フレーム #nの左から 1 7番目の画素の前景の成分の和 Π7 は、 式 (7 1 ) で表される。

fl6=C16-al6-P16 ( 70)

fl7=C17 -ひ 17·Ρ17 (7 1 )

このように、 カバードバックグラウンド領域に属する画素の画素値 Cに含ま れる前景の成分 fcは、 式 (7 2) で計算される。

fc=C - ·Ρ (7 2)

Ρは、 1つ前のフレームの、 対応する画素の画素値である。

図 9 3は、 アンカバードバックグラウンド領域に属する画素から前景の成分を 分離する処理を説明する図である。 図 9 3において、 ひ 1乃至 ひ 1 8は、 フレ ーム における画素のぞれぞれに対応する混合比である。 図 9 3において、 左 から 2番目乃至 4番目の画素は、 アンカバードバックグラウンド領域に属する。 フレーム^の左から 2番目の画素の画素値 C02は、 式 (7 3 ) で表される。 C02=B02/v+B02/v十 B02/v+F01/v

=tt2-B02+F01/v

= a2-N02+F01/v (7 3) ここで、 ひ 2は、 フレーム #nの左から 2番目の画素の混合比である。 N02は、 フレーム #n+lの左から 2番目の画素の画素値である。

式 (7 3 ) を基に、 フレーム #nの左から 2番目の画素の前景の成分の和 f02 は、 式 (7 4) で表される。

f02=F01/v

=C02 -ひ 2·Ν02 (74) 同様に、 フレーム #ηの左から 3番目の画素の前景の成分の和 f03は、 式 (7 5) で表され、 フレーム #nの左から 4番目の画素の前景の成分の和 f04は、 式 ( 7 6 ) で表される。

f03=C03 -ひ 3·Ν03 (7 5) f04=C04 -ひ 4·腿 ( 7 6 ) このように、 アンカバードバックグラウンド領域に属する画素の画素値 Cに 含まれる前景の成分 fuは、 式 (7 7) で計算される。

fu=C-Qi ·Ν (7 7)

Νは、 1つ後のフレームの、 対応する画素の画素値である。

このように、 分離部 6 0 1は、 領域情報に含まれる、 カバードバックグラウン ド領域を示す情報、 およびアンカバードバックグラウンド領域を示す情報、 並び に画素毎の混合比 ひ を基に、 混合領域に属する画素から前景の成分、 および背 景の成分を分離することができる。

図 9 4は、 以上で説明した処理を実行する分離部 6 0 1の構成の一例を示すプ ロック図である。 分離部 6 0 1に入力された画像は、 フレームメモリ 6 2 1に供 給され、 混合比算出部 1 04から供給されたカバードバックグラウンド領域およ びアンカバ一ドバックグラゥンド領域を示す領域情報、 並びに混合比 は、 分 離処理プロック 6 2 2に入力される。

フレームメモリ 6 2 1は、 入力された画像をフレーム単位で記憶する。 フレー ムメモリ 6 2 1は、 処理の対象がフレーム #nであるとき、 フレーム #ηの 1つ前 のフレームであるフレーム ttn- l、 フレーム #n、 およびフレーム #nの 1つ後のフ レームであるフレーム ttn+ 1を記憶する。

フレームメモリ 6 2 1は、 フレーム #n- 1、 フレーム ttn、 およびフレーム #n+ l の対応する画素を分離処理ブロック 6 2 2に供給する。

分離処理ブロック 6 2 2は、 カバードバックグラウンド領域およびアンカバー ドバックグラウンド領域を示す領域情報、 並びに混合比 ひ を基に、 フレームメ モリ 6 2 1から供給されたフレーム #n- 1、 フレーム 、 およびフレーム ttn+ 1の 対応する画素の画素値に図 9 2および図 9 3を参照して説明した演算を適用して、 フレーム の混合領域に属する画素から前景の成分および背景の成分を分離し て、 フレームメモリ 6 2 3に供給する。

分離処理ブロック 6 2 2は、 アンカバード領域処理部 6 3 1、 カバード領域処 理部 6 3 2、 合成部 6 3 3、 および合成部 6 3 4で構成されている。

アンカバード領域処理部 6 3 1の乗算器 6 4 1は、 混合比 ひ を、 フレームメ モリ 6 2 1から供給されたフレーム #n+ lの画素の画素値に乗じて、 スィツチ 6 4 2に出力する。 スィッチ 6 4 2は、 フレームメモリ 6 2 1から供給されたフレ ーム #nの画素 (フレーム ίΐη+ 1の画素に対応する) がアンカバードバックグラウ ンド領域であるとき、 閉じられ、 乗算器 6 4 1から供給された混合比 ひ を乗じ た画素値を演算器 6 4 3および合成部 6 3 4に供給する。 スィツチ 6 4 2から出 力されるフレーム #η+ 1の画素の画素値に混合比 ひ を乗じた値は、 フレーム^ の対応する画素の画素値の背景の成分に等しい。

演算器 6 4 3は、 フレームメモリ 6 2 1から供給されたフレーム #ηの画素の 画素値から、 スィッチ 6 4 2から供給された背景の成分を減じて、 前景の成分を 求める。 演算器 6 4 3は、 アンカバードバックグラウンド領域に属する、 フレー ム #ηの画素の前景の成分を合成部 6 3 3に供給する。 カバード領域処理部 6 3 2の乗算器 6 5 1は、 混合比 ひ を、 フレームメモリ 6 2 1から供給されたフレーム tin- 1の画素の画素値に乗じて、 スィ ツチ 6 5 2 に出力する。 スィッチ 6 5 2は、 フレームメモリ 6 2 1から供給されたフレーム #nの画素 (フレーム ίίη- 1の画素に対応する) がカバードバックグラウンド領域 であるとき、 閉じられ、 乗算器 6 5 1から供給された混合比 ひ を乗じた画素値 を演算器 6 5 3および合成部 6 3 4に供給する。 スィッチ 6 5 2から出力される フレーム ttn- 1の画素の画素値に混合比 Of を乗じた値は、 フレーム #nの対応す る画素の画素値の背景の成分に等しい。

演算器 6 5 3は、 フレームメモリ 6 2 1から供給されたフレーム #nの画素の 画素値から、 スィッチ 6 5 2から供給された背景の成分を減じて、 前景の成分を 求める。 演算器 6 5 3は、 カバードバックグラウンド領域に属する、 フレーム t の画素の前景の成分を合成部 6 3 3に供給する。

合成部 6 3 3は、 フレームでの、 演算器 6 4 3から供給された、 アンカバー ドバックグラウンド領域に属する画素の前景の成分、 および演算器 6 5 3から供 給された、 カバードバックグラウンド領域に属する画素の前景の成分を合成して、 フレームメモリ 6 2 3に供給する。

合成部 6 3 4は、 フレーム #nの、 スィッチ 6 4 2から供給された、 アンカバ 一ドバックグラウンド領域に属する画素の背景の成分、 およびスィツチ 6 5 2か ら供給された、 カバードバックグラウンド領域に属する画素の背景の成分を合成 して、 フレームメモリ 6 2 3に供給する。

フレームメモリ 6 2 3は、 分離処理ブロック 6 2 2から供給された、 フレーム #nの混合領域の画素の前景の成分と、 背景の成分とをそれぞれに記憶する。

フレームメモリ 6 2 3は、 記憶しているフレーム ίίηの混合領域の画素の前景 の成分、 および記憶しているフレーム #ηの混合領域の画素の背景の成分を出力 する。

特徴量である混合比 ひ を利用することにより、 画素値に含まれる前景の成分 と背景の成分とを完全に分離することが可能になる。 合成部 6 0 3は、 分離部 6 0 1から出力された、 フレーム #nの混合領域の画 素の前景の成分と、 前景領域に属する画素とを合成して前景成分画像を生成する。 合成部 6 0 5は、 分離部 6 0 1から出力された、 フレーム #nの混合領域の画素 の背景の成分と、 背景領域に属する画素とを合成して背景成分画像を生成する。 図 9 5 A , 図 9 5 Bは、 図 9 1のフレーム Itnに対応する、 前景成分画像の例 と、 背景成分画像の例を示す図である。

図 9 5 Aは、 図 9 1のフレーム に対応する、 前景成分画像の例を示す。 最 も左の画素、 および左から 1 4番目の画素は、 前景と背景が分離される前におい て、 背景の成分のみから成っていたので、 画素値が 0とされる。

左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 ァ ンカバードバックグラウンド領域に属し、 背景の成分が 0とされ、 前景の成分が そのまま残されている。 左から 1 1番目乃至 1 3番目の画素は、 前景と背景とが 分離される前において、 カバードバックグラウンド領域に属し、 背景の成分が 0 とされ、 前景の成分がそのまま残されている。 左から 5番目乃至 1 0番目の画素 は、 前景の成分のみから成るので、 そのまま残される。

図 9 5 Bは、 図 9 1のフレーム tinに対応する、 背景成分画像の例を示す。 最 も左の画素、 および左から 1 4番目の画素は、 前景と背景とが分離される前にお いて、 背景の成分のみから成っていたので、 そのまま残される。

左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 了 ンカバードバックグラウンド領域に属し、 前景の成分が 0とされ、 背景の成分が そのまま残されている。 左から 1 1番目乃至 1 3番目の画素は、 前景と背景とが 分離される前において、 カバードバックグラウンド領域に属し、 前景の成分が 0 とされ、 背景の成分がそのまま残されている。 左から 5番目乃至 1 0番目の画素 は、 前景と背景とが分離される前において、 前景の成分のみから成っていたので、 画素値が 0とされる。

次に、 図 9 6に示すフローチャートを参照して、 前景背景分離部 1 0 5による 前景と背景との分離の処理を説明する。 ステップ S 6 0 1において、 分離部 6 0 1のフレームメモリ 6 2 1は、 入力画像を取得し、 前景と背景との分離の対象と なるフレーム #nを、 その前のフレーム #n- lおよびその後のフレーム ttn+ 1 と共に 記憶する。

ステップ S 6 0 2において、 分離部 6 0 1の分離処理プロック 6 2 2は、 混合 比算出部 1 0 4から供給された領域情報を取得する。 ステップ S 6 0 3において、 分離部 6 0 1の分離処理プロック 6 2 2は、 混合比算出部 1 0 4から供給された 混合比ひ を取得する。

ステップ S 6 0 4において、 アンカバード領域処理部 6 3 1は、 領域情報およ び混合比 ひ を基に、 フレームメモリ 6 2 1から供給された、 アンカバードバッ クグラウンド領域に属する画素の画素値から、 背景の成分を抽出する。

ステップ S 6 0 5において、 アンカバード領域処理部 6 3 1は、 領域情報およ び混合比 を基に、 フレームメモリ 6 2 1から供給された、 アンカバードバッ クグラウンド領域に属する画素の画素値から、 前景の成分を抽出する。

ステップ S 6 0 6において、 カバード領域処理部 6 3 2は、 領域情報および混 合比 を基に、 フレームメモリ 6 2 1から供給された、 カバードバックグラウ ンド領域に属する画素の画素値から、 背景の成分を抽出する。

ステップ S 6 0 7において、 カバード領域処理部 6 3 2は、 領域情報および混 合比 を基に、 フレームメモリ 6 2 1から供給された、 カバードバックグラウ ンド領域に属する画素の画素値から、 前景の成分を抽出する。

ステップ S 6 0 8において、 合成部 6 3 3は、 ステップ S 6 0 5の処理で抽出 されたアンカバードバックグラウンド領域に属する画素の前景の成分と、 ステツ プ S 6 0 7の処理で抽出されたカバードバックグラウンド領域に属する画素の前 景の成分とを合成する。 合成された前景の成分は、 合成部 6 0 3に供給される。 更に、 合成部 6 0 3は、 スィッチ 6 0 2を介して供給された前景領域に属する画 素と、 分離部 6 0 1から供給された前景の成分とを合成して、 前景成分画像を生 成する。

ステップ S 6 0 9において、 合成部 6 3 4は、 ステップ S 6 0 4の処理で抽出 されたアンカバードバックグラウンド領域に属する画素の背景の成分と、 ステツ プ S 6 0 6の処理で抽出されたカバードバックグラウンド領域に属する画素の背 景の成分とを合成する。 合成された背景の成分は、 合成部 6 0 5に供給される。 更に、 合成部 6 0 5は、 スィッチ 6 0 4を介して供給された背景領域に属する画 素と、 分離部 6 0 1から供給された背景の成分とを合成して、 背景成分画像を生 成する。

ステップ S 6 1 0において、 合成部 6 0 3は、 前景成分画像を出力する。 ステ ップ S 6 1 1において、 合成部 6 0 5は、 背景成分画像を出力し、 処理は終了す る。

このように、 前景背景分離部 1 0 5は、 領域情報および混合比 a を基に、 入 力画像から前景の成分と、 背景の成分とを分離し、 前景の成分のみから成る前景 成分画像、 および背景の成分のみから成る背景成分画像を出力することができる c 次に、 前景成分画像の動きボケの量の調整について説明する。

図 9 7は、 動きボケ調整部 1 0 6の構成の一例を示すブロック図である。 動き 検出部 1 0 2から供給された動きべク トルとその位置情報は、 処理単位決定部 8 0 1、 モデル化部 8 0 2、 および演算部 8 0 5に供給される。 領域特定部 1 0 3 から供給された領域情報は、 処理単位決定部 8 0 1に供給される。 前景背景分離 部 1 0 5から供給された前景成分画像は、 足し込み部 8 0 4に供給される。

処理単位決定部 8 0 1は、 動きべク トルとその位置情報、 および領域情報を基 に、 処理単位を生成し、 生成した処理単位をモデル化部 8 0 2および足し込み部 8 0 4に供給する。

処理単位決定部 8 0 1が生成する処理単位 Aは、 図 9 8に例を示すように、 前 景成分画像のカバードバックグラウンド領域に対応する画素から始まり、 アンカ バードバックグラウンド領域に対応する画素までの動き方向に並ぶ連続する画素、 またはアンカバードバックグラウンド領域に対応する画素から始まり、 カバード バックグラウンド領域に対応する画素までの動き方向に並ぶ連続する画素を示す c 処理単位 Aは、 例えば、 左上点 (処理単位で指定される画素であって、 画像上で 最も左または最も上に位置する画素の位置) および右下点の 2つのデータから成 る。

モデル化部 8 0 2は、 動きベク トルおよび入力された処理単位 Aを基に、 モデ ル化を実行する。 より具体的には、 例えば、 モデル化部 8 0 2は、 処理単位 Aに 含まれる画素の数、 画素値の時間方向の仮想分割数、 および画素毎の前景の成分 の数に対応する複数のモデルを予め記憶しておき、 処理単位 A、 および画素値の 時間方向の仮想分割数を基に、 図 9 9に示すような、 画素値と前景の成分との対 応を指定するモデルを選択する。

例えば、 処理単位 Aに対応する画素の数が 1 2でありシャツタ時間内の動き量 Vが 5であるときにおいては、 モデル化部 8 0 2は、 仮想分割数を 5とし、 最も 左に位置する画素が 1つの前景の成分を含み、 左から 2番目の画素が 2つの前景 の成分を含み、 左から 3番目の画素が 3つの前景の成分を含み、 左から 4番目の 画素が 4つの前景の成分を含み、 左から 5番目の画素が 5つの前景の成分を含み、 左から 6番目の画素が 5つの前景の成分を含み、 左から 7番目の画素が 5つの前 景の成分を含み、 左から 8番目の画素が 5つの前景の成分を含み、 左から 9番目 の画素が 4つの前景の成分を含み、 左から 1 0番目の画素が 3つの前景の成分を 含み、 左から 1 1番目の画素が 2つの前景の成分を含み、 左から 1 2番目の画素 が 1つの前景の成分を含み、 全体として 8つの前景の成分から成るモデルを選択 する。

なお、 モデル化部 8 0 2は、 予め記憶してあるモデルから選択するのではなく、 動きベク トル、 および処理単位 Aが供給されたとき、 動きべク トル、 および処理 単位を基に、 モデルを生成するようにしてもよい。

モデル化部 8 0 2は、 選択したモデルを方程式生成部 8 0 3に供給する。

方程式生成部 8 0 3は、 モデル化部 8 0 2から供給されたモデルを基に、 方程 式を生成する。 図 9 9に示す前景成分画像のモデルを参照して、 前景の成分の数 が 8であり、 処理単位 Aに対応する画素の数が 1 2であり、 動き量 Vが 5であ り、 仮想分割数が 5であるときの、 方程式生成部 8 0 3が生成する方程式につい て説明する。

前景成分画像に含まれるシャッタ時間/ Vに対応する前景成分が FOl/v乃至 F08/vであるとき、 FOl/v乃至 F08/vと画素値 C01乃至 C12との関係は、 式 (7 8) 乃至式 (8 9) で表される。

C01=F01/v ( 7 8)

C02=F02/v+F01/v ( 7 9) C03=F03/v+F02/v+F01/v (8 0) C04=F04/v+F03/v+F02/v+F01/v (8 1 )

C05=F05/v+F04/v+F03/v+F02/v+F01/v (8 2)

C06=F06/v+F05/v+F04/v+F03/v+F02/v (8 3)

C07=F07/v+F06/v+F05/v+F04/v+F03/v (8 4) C08=F08/v+F07/v+F06/v+F05/v+F04/v (8 5)

C09=F08/v+F07/v+F06/v+F05/v (8 6) C10=F08/v+F07/v+F06/v (8 7)

CU=F08/v+F07/v (8 8) C12=F08/v (8 9) 方程式生成部 8 0 3は、 生成した方程式を変形して方程式を生成する。 方程式 生成部 8 0 3が生成する方程式を、 式 (9 0) 乃至式 (1 0 1 ) に示す。

C01 = l • FOl/v+0 ■ F02/v+0 ■ F03/v+0 • F04/v+0■ F05/v

+0 ■ F06/v+0 • F07/v+0 • F08/v (9 0)

C02=l • FOl/v+1 • F02/v+0 ■ F03/v+0 • F04/v+0 - F05/v

+0 - F06/v+0 • F07/v+0 ' F08/v (9 1 )

C03=l • FOl/v+1 • F02/v+l F03/v+0 • F04/V+0 ■ F05/v

+0 - F06/v+0 • F07/v+0 • F08/v (9 2) C04=l • FOl/v+1 • F02/V+1 ' F03/v+l • F04/v+0■ F05/v

+0 • F06/v+0 • F07/v+0 - F08/v (9 3)

C05=l ■ FOl/v+1 • F02/v+l ' F03/v+l • F04/v+l ' F05/v +0 ■ F06/V+0 ■ F07/V+0 • F08/v (9 4)

C06 =0 - FOl/v+1 · F02/v+l ■ F03/v+l ■ F04/v+l · F05/v

+1 · F06/v+0 ■ F07/V+0 ■ F08/v (9 5)

C07 =0 • FOl/v+0 · F02/v+l · F03/v+l · F04/v+l ■ F05/v

+1 · F06/v+l • F07/V+0 ■ F08/v (9 6)

C08 =0 • FOl/v+0 · F02/V+0 · F03/v+l ■ F04/V+1 ■ F05/v

+1 · F06/v+l • F07/V+1 ■ F08/v (9 7)

C09 =0 • FOl/v+0 · F02/v+0 · F03/V+0 · F04/V+1 ■ F05/v

+1 ■ F06/v+l ■ F07/v+l ■ F08/v (9 8)

CIO =0 • FOl/v+0 · F02/v+0 · F03/V+0 ■ F04/v+0 ' F05/v

+1 ' F06/v+l ■ F07/V+1 ■ F08/v (9 9)

Cll =0 • FOl/v+0 · F02/v+0 · F03/V+0 ' F04/v+0 ' F05/v

+0 ■ F06/v+l ■ F07/V+1 - F08/v ( 1 0 0)

C12 =0 • FOl/v+0 · F02/v+0 · F03/v+0■ F04/V+0 F05/v

+0 - F06/v+0 • F07/V+1 - F08/v (1 0 1 ) 式 (9 0) 乃至式 ( 1 0 1 ) は、 式 ( 1 0 2) として表すこともできる。

08

Cj-∑^ aij*Fi/v (102) 式 ( 1 0 2) において、 jは、 画素の位置を示す。 この例において、 jは、 1 乃至 1 2のいずれか 1つの値を有する。 また、 iは、 前景値の位置を示す。 この 例において、 iは、 1乃至 8のいずれか 1つの値を有する。 aijは、 iおよび j の値に対応して、 0または 1の値を有する。

誤差を考慮して表現すると、 式 (1 0 2) は、 式 ( 1 0 3) のように表すこと ができる。

08

Cj =∑aij'FUv + ej (103)

i=01

式 ( 1 0 3) において、 ejは、 注目画素 Cjに含まれる誤差である。 式 (1 0 3) は、 式 ( 1 0 4) に書き換えることができる。

08

ej = Cj-∑aij-Fi/v (104)

i=0J

ここで、 最小自乗法を適用するため、 誤差の自乗和 Eを式 (1 0 5) に示す ように定義する。

E =∑ej2 (105)

j= 1 誤差が最小になるためには、 誤差の自乗和 Eに対する、 変数 Fkによる偏微分 の値が 0になればよレ、。 式 (1 0 6) を満たすように Fkを求める。 dFk 一 Z dFk

12 08

= '∑{(Cj -∑aij'FUvH-akjiv) = o (i06)

j=01 i=Oi

式 ( 1 0 6) において、 動き量 vは固定値であるから、 式 ( 1 0 7) を導く ことができる。

12 08

∑ akj (Cj -∑aij'Fi ) = ο (107)

j=OJ i=01 式 ( 1 0 7) を展開して、 移項すると、 式 (1 0 8) を得る。

12 08 12

∑ (akj^aii^Fi) = v∑ak Cj (糊)

j=OJ i=Ot j=OJ 式 ( 1 0 8) の kに 1乃至 8の整数のいずれか 1つを代入して得られる 8つ の式に展開する。 得られた 8つの式を、 行列により 1つの式により表すことがで きる。 この式を正規方程式と呼ぶ。

このような最小自乗法に基づく、 方程式生成部 8 0 3が生成する正規方程式の 例を式 (1 0 9) に示す。

式 ( 1 0 9 ) を A ' F=v ' Cと表すと、 C,A, vが既知であり、 Fは未知である。 ま た、 A,vは、 モデル化の時点で既知だが、 Cは、 足し込み動作において画素値を 入力することで既知となる。

最小自乗法に基づく正規方程式により前景成分を算出することにより、 画素 C に含まれている誤差を分散させることができる。

方程式生成部 8 0 3は、 このように生成された正規方程式を足し込み部 8 0 4 に供給する。

足し込み部 8 0 4は、 処理単位決定部 8 0 1から供給された処理単位を基に、 前景成分画像に含まれる画素値 Cを、 方程式生成部 8 0 3から供給された行列 の式に設定する。 足し込み部 8 0 4は、 画素値 Cを設定した行列を演算部 8 0 5に供給する。

演算部 8 0 5は、 掃き出し法 (Gauss- Jordanの消去法) などの解法に基づく 処理により、 動きボケが除去された前景成分 Fi/vを算出して、 動きボケが除去 された前景の画素値である、 0乃至 8の整数のいずれかの iに対応する Fiを算 出して、 図 1 0 0に例を示す、 動きボケが除去された画素値である Fi から成る 動きボケが除去された前景成分画像を動きボケ付加部 8 0 6および選択部 8 0 7 に出力する。

なお、 図 1 ◦ 0に示す動きボケが除去された前景成分画像において、 C03乃至 CI Oのそれぞれに F01乃至 F08のそれぞれが設定されているのは、 画面に対する 前景成分画像の位置を変化させないためであり、 任意の位置に対応させることが できる。

動きボケ付加部 8 0 6は、 動き量 Vとは異なる値の動きボケ調整量 v'、 例え ば、 動き量 Vの半分の値の動きボケ調整量 v 'や、 動き量 Vと無関係の値の動き ボケ調整量 V'を与えることで、 動きボケの量を調整することができる。 例えば、 図 1 0 1に示すように、 動きボケ付加部 8 0 6は、 動きボケが除去された前景の 画素値 Fiを動きボケ調整量 v'で除すことにより、 前景成分 F i/v'を算出して、 前景成分 Fi /v'の和を算出して、 動きボケの量が調整された画素値を生成する。 例えば、 動きボケ調整量 が 3のとき、 画素値 C02は、 (F01 ) /v'とされ、 画 素値 C03は、 (F01+F02) /v'とされ、 画素 ί直 C04は、 (F(U+F02+F03) /v'とさ れ、 画素値 C05は、 (F02+F03+F04) /ν'とされる。

動きボケ付加部 8 0 6は、 動きボケの量を調整した前景成分画像を選択部 8 0 7に供給する。

選択部 8 0 7は、 例えば使用者の選択に対応した選択信号を基に、 演算部 8 0 5から供給された動きボケが除去された前景成分画像、 および動きボケ付加部 8 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方を選 択して、 選択した前景成分画像を出力する。

このように、 動きボケ調整部 1 0 6は、 選択信号および動きボケ調整量 ν'を 基に、 動きボケの量を調整することができる。

また、 例えば、 図 1 0 2に示すように、 処理単位に対応する画素の数が 8であ り、 動き量 Vが 4であるとき、 動きボケ調整部 1 0 6は、 式 (1 1 0 ) に示す 行列の式を生成する。

動きボケ調整部 1 0 6は、 このように処理単位の長さに対応した数の式を立て て、 動きボケの量が調整された画素値である Fiを算出する。 同様に、 例えば、 処理単位に含まれる画素の数が 1 0 0あるとき、 1 0 0個の画素に対応する式を 生成して、 Fiを算出する。

図 1 0 3は、 動きボケ調整部 1 0 6の他の構成を示す図である。 図 9 7に示す 場合と同様の部分には同一の番号を付してあり、 その説明は省略する。

選択部 8 2 1は、 選択信号を基に、 入力された動きべク トルとその位置信号を そのまま処理単位決定部 8 0 1およびモデル化部 8 0 2に供給するか、 または動 きべク トルの大きさを動きボケ調整量 v'に置き換えて、 その大きさが動きボケ 調整量 v 'に置き換えられた動きべク トルとその位置信号を処理単位決定部 8 0 1およびモデル化部 8 0 2に供給する。

このようにすることで、 図 1 0 3の動きボケ調整部 1 0 6の処理単位決定部 8 0 1乃至演算部 8 0 5は、 動き量 Vと動きボケ調整量 v 'との値に対応して、 動 きボケの量を調整することができる。 例えば、 動き量 Vが 5であり、 動きボケ 調整量 v 'が 3であるとき、 図 1 0 3の動きボケ調整部 1 0 6の処理単位決定部 8 0 1乃至演算部 8 0 5は、 図 9 9に示す動き量 Vが 5である前景成分画像に 対して、 3である動きボケ調整量 v '対応する図 1 0 1に示すようなモデルに従 つて、 演算を実行し、 (動き量 V ) I (動きボケ調整量 ν ' ) = 5/3、 すなわちほ ぼ 1. 7の動き量 Vに応じた動きボケを含む画像を算出する。 なお、 この場合、 算出される画像は、 3である動き量 V に対応した動きボケを含むのではないので、 動きボケ付加部 8 0 6の結果とは動き量 V と動きボケ調整量 v 'の関係の意味合 いが異なる点に注意が必要である。

以上のように、 動きボケ調整部 1 0 6は、 動き量 Vおよび処理単位に対応し て、 式を生成し、 生成した式に前景成分画像の画素値を設定して、 動きボケの量 が調整された前景成分画像を算出する。

次に、 図 1 0 4のフローチャートを参照して、 動きボケ調整部 1 0 6による前 景成分画像に含まれる動きボケの量の調整の処理を説明する。

ステップ S 8 0 1において、 動きボケ調整部 1 0 6の処理単位決定部 8 0 1は、 動きベク トルおよび領域情報を基に、 処理単位を生成し、 生成した処理単位をモ デル化部 8 0 2に供給する。

ステップ S 8 0 2において、 動きボケ調整部 1 0 6のモデル化部 8 0 2は、 動 き量 Vおよび処理単位に対応して、 モデルの選択や生成を行う。 ステップ S 8 0 3において、 方程式生成部 8 0 3は、 選択されたモデルを基に、 正規方程式を 作成する。

ステップ S 8 0 4において、 足し込み部 8 0 4は、 作成された正規方程式に前 景成分画像の画素値を設定する。 ステップ S 8 0 5において、 足し込み部 8 0 4 は、 処理単位に対応する全ての画素の画素値の設定を行ったか否かを判定し、 処 理単位に対応する全ての画素の画素値の設定を行っていないと判定された場合、 ステップ S 8 0 4に戻り、 正規方程式への画素値の設定の処理を繰り返す。

ステップ S 8 0 5において、 処理単位の全ての画素の画素値の設定を行ったと 判定された場合、 ステップ S 8 0 6に進み、 演算部 8 0 5は、 足し込み部 8 0 4 から供給された画素値が設定された正規方程式を基に、 動きボケの量を調整した 前景の画素値を算出して、 処理は終了する。

このように、 動きボケ調整部 1 0 6は、 動きベク トルおよび領域情報を基に、 動きボケを含む前景画像から動きボケの量を調整することができる。

すなわち、 サンプルデータである画素値に含まれる動きボケの量を調整するこ とができる。

図 1 0 5は、 動きボケ調整部 1 0 6の構成の他の一例を示すブロック図である c 動き検出部 1 0 2から供給された動きべク トルとその位置情報は、 処理単位決定 部 9 0 1および補正部 9 0 5に供給され、 領域特定部 1 0 3から供給された領域 情報は、 処理単位決定部 9 0 1に供給される。 前景背景分離部 1 0 5から供給さ れた前景成分画像は、 演算部 9 0 4に供給される。

処理単位決定部 9 0 1は、 動きべク トルとその位置情報、 および領域情報を基 に、 処理単位を生成し、 動きべク トルと共に、 生成した処理単位をモデル化部 9 0 2に供給する。

モデル化部 9 0 2は、 動きベク トルおよび入力された処理単位を基に、 モデル 化を実行する。 より具体的には、 例えば、 モデル化部 9 0 2は、 処理単位に含ま れる画素の数、 画素値の時間方向の仮想分割数、 および画素毎の前景の成分の数 に対応する複数のモデルを予め記憶しておき、 処理単位、 および画素値の時間方 向の仮想分割数を基に、 図 1 0 6に示すような、 画素値と前景の成分との対応を 指定するモデルを選択する。

例えば、 処理単位に対応する画素の数が 1 2であり動き量 Vが 5であるとき においては、 モデル化部 9 0 2は、 仮想分割数を 5とし、 最も左に位置する画素 が 1つの前景の成分を含み、 左から 2番目の画素が 2つの前景の成分を含み、 左 から 3番目の画素が 3つの前景の成分を含み、 左から 4番目の画素が 4つの前景 の成分を含み、 左から 5番目の画素が 5つの前景の成分を含み、 左から 6番目の 画素が 5つの前景の成分を含み、 左から 7番目の画素が 5つの前景の成分を含み、 左から 8番目の画素が 5つの前景の成分を含み、 左から 9番目の画素が 4つの前 景の成分を含み、 左から 1 0番目の画素が 3つの前景の成分を含み、 左から 1 1 番目の画素が 2つの前景の成分を含み、 左から 1 2番目の画素が 1つの前景の成 分を含み、 全体として 8つの前景の成分から成るモデルを選択する。

なお、 モデル化部 9 0 2は、 予め記憶してあるモデルから選択するのではなく、 動きべク トル、 および処理単位が供給されたとき、 動きべク トル、 および処理単 位を基に、 モデルを生成するようにしてもよレ、。

方程式生成部 9 0 3は、 モデル化部 9 0 2から供給されたモデルを基に、 方程 式を生成する。

図 1 06乃至図 1 0 8に示す前景成分画像のモデルを参照して、 前景の成分の 数が 8であり、 処理単位に対応する画素の数が 1 2であり、 動き量 Vが 5であ るときの、 方程式生成部 9 0 3が生成する方程式の例について説明する。

前景成分画像に含まれるシャッタ時間/ Vに対応する前景成分が FOl/v乃至

F08/Vであるとき、 FOl/v乃至 F08/Vと画素値 C01乃至 C12との関係は、 上述し たように、 式 (7 8) 乃至式 (8 9) で表される。

画素値 C12および C11に注目すると、 画素値 C12は、 式 (1 1 1 ) に示すよ うに、 前景の成分 F08/vのみを含み、 画素値 C11は、 前景の成分 F08/vおよび 前景の成分 F07/vの積和から成る。 従って、 前景の成分 F07/vは、 式 (1 1 2) で求めることができる。

F08/v=C12 ( 1 1 1)

F07/v=Cll-C12 ( 1 1 2)

同様に、 画素値 CIO乃至 C01に含まれる前景の成分を考慮すると、 前景の成 分 F06/v乃至 FOl/vは、 式 (1 1 3) 乃至式 (1 1 8) により求めることがで さる。

F06/v=C10 - C11 ( 1 1 3)

F05/v=C09-C10 ( 1 1 4)

F04/v=C08-C09 ( 1 1 5)

F03/v=C07 - C08+C12 ( 1 1 6)

F02/v=C06-C07+Cll-C12 ( 1 1 7)

F01/v=C05-C06+C10-Cll ( 1 1 8)

方程式生成部 9 0 3は、 式 (1 1 1 ) 乃至式 (1 1 8) に例を示す、 画素値の 差により前景の成分を算出するための方程式を生成する。 方程式生成部 9 0 3は、 生成した方程式を演算部 9 04に供給する。

演算部 9 04は、 方程式生成部 9 0 3から供給された方程式に前景成分画像の 画素値を設定して、 画素値を設定した方程式を基に、 前景の成分を算出する。 演 算部 9 0 4は、 例えば、 式 ( 1 1 1 ) 乃至式 (1 1 8) が方程式生成部 9 0 3か ら供給されたとき、 式 (1 1 1 ) 乃至式 ( 1 1 8) に画素値 C05乃至 C12を設 定する。

演算部 9 04は、 画素値が設定された式に基づき、 前景の成分を算出する。 例 えば、 演算部 9 04は、 画素値 C05乃至 C12が設定された式 ( 1 1 1 ) 乃至式 ( 1 1 8) に基づく演算により、 図 1 0 7に示すように、 前景の成分 FOl/v乃 至 F08/vを算出する。 演算部 9 04は、 前景の成分 FOl/v乃至 F08/vを補正部 9 0 5に供給する。

補正部 9 0 5は、 演算部 9 04から供給された前景の成分に、 処理単位決定部 9 0 1から供給された動きべク トルに含まれる動き量 Vを乗じて、 動きボケを 除去した前景の画素値を算出する。 例えば、 補正部 9 0 5は、 演算部 9 04から 供給された前景の成分 FOl/v乃至 F08/vが供給されたとき、 前景の成分 FOl/v 乃至 F08/vのそれぞれに、 5である動き量 Vを乗じることにより、 図 1 0 8に 示すように、 動きボケを除去した前景の画素値 F01乃至 F08を算出する。

補正部 9 0 5は、 以上のように算出された、 動きボケを除去した前景の画素値 から成る前景成分画像を動きボケ付加部 9 06および選択部 9 0 7に供給する。 動きボケ付加部 9 0 6は、 動き量 V とは異なる値の動きボケ調整量 v'、 例え ば、 動き量 Vの半分の値の動きボケ調整量 v'、 動き量 Vと無関係の値の動きボ ケ調整量 v'で、 動きボケの量を調整することができる。 例えば、 図 1 0 1に示 すように、 動きボケ付加部 9 0 6は、 動きボケが除去された前景の画素値 Fiを 動きボケ調整量 v'で除すことにより、 前景成分 Fi/v'を算出して、 前景成分 Fi/v'の和を算出して、 動きボケの量が調整された画素値を生成する。 例えば、 動きボケ調整量 v'が 3のとき、 画素値 C02は、 (F01) /v'とされ、 画素値 C03 は、 (F01+F02) /v'とされ、 画素値 C04は、 (F01+F02+F03) /ν'とされ、 画素 値 C05は、 (F02+F03+F04) /ν'とされる。

動きボケ付加部 9 0 6は、 動きボケの量を調整した前景成分画像を選択部 9 0 7に供給する。 選択部 9 0 7は、 例えば使用者の選択に対応した選択信号を基に、 補正部 9 0 5から供給された動きボケが除去された前景成分画像、 および動きボケ付加部 9 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方を選 択して、 選択した前景成分画像を出力する。

このように、 動きボケ調整部 1 0 6は、 選択信号および動きボケ調整量 v'を 基に、 動きボケの量を調整することができる。

次に、 図 1 0 5に構成を示す動きボケ調整部 1 0 6による前景の動きボケの量 の調整の処理を図 1 0 9のフローチヤ一トを参照して説明する。

ステップ S 9 0 1において、 動きボケ調整部 1 0 6の処理単位決定部 9 0 1は、 動きベク トルおよび領域情報を基に、 処理単位を生成し、 生成した処理単位をモ デル化部 9 0 2および補正部 9 0 5に供給する。

ステップ S 9 0 2において、 動きボケ調整部 1 0 6のモデル化部 9 0 2は、 動 き量 Vおよび処理単位に対応して、 モデルの選択や生成を行う。 ステップ S 9 0 3において、 方程式生成部 9 0 3は、 選択または生成されたモデルを基に、 前 景成分画像の画素値の差により前景の成分を算出するための方程式を生成する。 ステップ S 9 0 4において、 演算部 9 0 4は、 作成された方程式に前景成分画 像の画素値を設定し、 画素値が設定された方程式を基に、 画素値の差分から前景 の成分を抽出する。 ステップ S 9 0 5において、 演算部 9 0 4は、 処理単位に対 応する全ての前景の成分を抽出したか否かを判定し、 処理単位に対応する全ての 前景の成分を抽出していないと判定された場合、 ステップ S 9 0 4に戻り、 前景 の成分を抽出の処理を繰り返す。

ステップ S 9 0 5において、 処理単位に対応する全ての前景の成分を抽出した と判定された場合、 ステップ S 9 0 6に進み、 補正部 9 0 5は、 動き量 Vを基 に、 演算部 9 0 4から供給された前景の成分 FO l/v乃至 F08/vのそれぞれを補 正して、 動きボケを除去した前景の画素値 F01乃至 F08を算出する。

ステップ S 9 0 7において、 動きボケ付加部 9 0 6は、 動きボケの量を調整し た前景の画素値を算出して、 選択部 9 0 7は、 動きボケが除去された画像または 動きボケの量が調整された画像のいずれかを選択して、 選択した画像を出力して、 処理は終了する。

このように、 図 1 0 5に構成を示す動きボケ調整部 1 0 6は、 より簡単な演算 で、 より迅速に、 動きボケを含む前景画像から動きボケを調整することができる。 ウィナー · フィルタなど従来の動きボケを部分的に除去する手法が、 理想状態 では効果が認められるが、 量子化され、 ノイズを含んだ実際の画像に対して十分 な効果が得られないのに対し、 図 1 0 5に構成を示す動きボケ調整部 1 0 6にお いても、 量子化され、 ノイズを含んだ実際の画像に対しても十分な効果が認めら れ、 精度の良い動きボケの除去が可能となる。

以上のように、 図 2 7に構成を示す分離処理サーバ 1 1は、 入力画像に含まれ る動きボケの量を調整することができる。

図 1 1 0は、 分離処理サーバ 1 1の機能の他の構成を示すブロック図である。 図 2 7に示す部分と同様の部分には同一の番号を付してあり、 その説明は適宜 省略する。

領域特定部 1 0 3は、 領域情報を混合比算出部 1 0 4および合成部 1 0 0 1に 供給する。

混合比算出部 1 0 4は、 混合比 ひ を前景背景分離部 1 0 5および合成部 1 0 0 1に供給する。

前景背景分離部 1 0 5は、 前景成分画像を合成部 1 0 0 1に供給する。

合成部 1 0 0 1は、 混合比算出部 1 0 4から供給された混合比ひ、 領域特定 部 1 0 3から供給された領域情報を基に、 任意の背景画像と、 前景背景分離部 1 0 5から供給された前景成分画像とを合成して、 任意の背景画像と前景成分画像 とが合成された合成画像を出力する。

図 1 1 1は、 合成部 1 0 0 1の構成を示す図である。 背景成分生成部 1 0 2 1 は、 混合比ひ および任意の背景画像を基に、 背景成分画像を生成して、 混合領 域画像合成部 1 0 2 2に供給する。

混合領域画像合成部 1 0 2 2は、 背景成分生成部 1 0 2 1から供給された背景 成分画像と前景成分画像とを合成することにより、 混合領域合成画像を生成して、 生成した混合領域合成画像を画像合成部 1 0 2 3に供給する。

画像合成部 1 0 2 3は、 領域情報を基に、 前景成分画像、 混合領域画像合成部 1 0 2 2から供給された混合領域合成画像、 および任意の背景画像を合成して、 合成画像を生成して出力する。

このように、 合成部 1 0 0 1は、 前景成分画像を、 任意の背景画像に合成する ことができる。

特徴量である混合比 α を基に前景成分画像を任意の背景画像と合成して得ら れた画像は、 単に画素を合成した画像に比較し、 より自然なものと成る。

図 1 1 2は、 動きボケの量を調整する分離処理サーバ 1 1の機能の更に他の構 成を示すブロック図である。 図 2 7に示す分離処理サーバ 1 1が領域特定と混合 比ひ の算出を順番に行うのに対して、 図 1 1 2に示す分離処理サーバ 1 1は、 領域特定と混合比 0i の算出を並行して行う。

図 2 7のプロック図に示す機能と同様の部分には同一の番号を付してあり、 そ の説明は省略する。

入力画像は、 混合比算出部 1 1 0 1、 前景背景分離部 1 1 0 2、 領域特定部 1 0 3、 およびオブジェク ト抽出部 1 0 1に供給される。

混合比算出部 1 1 0 1は、 入力画像を基に、 画素がカバードバックグラウンド 領域に属すると仮定した場合における推定混合比、 および画素がアンカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比を、 入力画像に 含まれる画素のそれぞれに対して算出し、 算出した画素がカバードバックグラウ ンド領域に属すると仮定した場合における推定混合比、 および画素がアンカバー ドバックグラウンド領域に属すると仮定した場合における推定混合比を前景背景 分離部 1 1 0 2に供給する。

図 1 1 3は、 混合比算出部 1 1 0 1の構成の一例を示すブロック図である。 図 1 1 3に示す推定混合比処理部 4 0 1は、 図 7 2に示す推定混合比処理部 4 0 1と同じである。 図 1 1 3に示す推定混合比処理部 4 0 2は、 図 7 2に示す推 定混合比処理部 4 0 2と同じである。

推定混合比処理部 4 0 1は、 入力画像を基に、 カバードバックグラウンド領域 のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した推定 混合比を出力する。

推定混合比処理部 4 0 2は、 入力画像を基に、 アンカバードバックグラウンド 領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した 推定混合比を出力する。

前景背景分離部 1 1 0 2は、 混合比算出部 1 1 0 1から供給された、 画素が力 バードバックグラウンド領域に属すると仮定した場合における推定混合比、 およ び画素がアンカバードバックグラウンド領域に属すると仮定した場合における推 定混合比、 並びに領域特定部 1 0 3から供給された領域情報を基に、 入力画像か ら前景成分画像を生成し、 生成した前景成分画像を動きボケ調整部 1 0 6および 選択部 1 0 7に供給する。

図 1 1 4は、 前景背景分離部 1 1 0 2の構成の一例を示すブロック図である。 図 8 9に示す前景背景分離部 1 0 5と同様の部分には同一の番号を付してあり、 その説明は省略する。

選択部 1 1 2 1は、 領域特定部 1 0 3から供給された領域情報を基に、 混合比 算出部 1 1 0 1から供給された、 画素がカバードバックグラウンド領域に属する と仮定した場合における推定混合比、 および画素がアンカバードバックグラウン ド領域に属すると仮定した場合における推定混合比のいずれか一方を選択して、 選択した推定混合比を混合比 a として分離部 6 0 1に供給する。

分離部 6 0 1は、 選択部 1 1 2 1から供給された混合比ひ および領域情報を 基に、 混合領域に属する画素の画素値から前景の成分および背景の成分を抽出し、 抽出した前景の成分を合成部 6 0 3に供給すると共に、 背景の成分を合成部 6 0 5に供給する。

分離部 6 0 1は、 図 9 4に示す構成と同じ構成とすることができる。

合成部 6 0 3は、 前景成分画像を合成して、 出力する。 合成部 6 0 5は、 背景 成分画像を合成して出力する。

図 1 1 2に示す動きボケ調整部 1 0 6は、 図 2 7に示す場合と同様の構成とす ることができ、 領域情報および動きべク トルを基に、 前景背景分離部 1 1 0 2か ら供給された前景成分画像に含まれる動きボケの量を調整して、 動きボケの量が 調整された前景成分画像を出力する。

図 1 1 2に示す選択部 1 0 7は、 例えば使用者の選択に対応した選択信号を基 に、 前景背景分離部 1 1 0 2から供給された前景成分画像、 および動きボケ調整 部 1 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方 を選択して、 選択した前景成分画像を出力する。

このように、 図 1 1 2に構成を示す分離処理サーバ 1 1は、 入力画像に含まれ る前景のオブジェク トに対応する画像に対して、 その画像に含まれる動きボケの 量を調整して出力することができる。 図 1 1 2に構成を示す分離処理サーバ 1 1 は、 第 1の実施例と同様に、 埋もれた情報である混合比 ひ を算出して、 算出し た混合比 を出力することができる。

図 1 1 5は、 前景成分画像を任意の背景画像と合成する分離処理サーバ 1 1の 機能の他の構成を示すブロック図である。 図 1 1 0に示す分離処理サーバ 1 1が 領域特定と混合比 Οίの算出をシリアルに行うのに対して、 図 1 1 5に示す分離 処理サーバ 1 1は、 領域特定と混合比 の算出をパラレルに行う。

図 1 1 2のブロック図に示す機能と同様の部分には同一の番号を付してあり、 その説明は省略する。

図 1 1 5に示す混合比算出部 1 1 0 1は、 入力画像を基に、 画素がカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比、 および画素が アンカバ一ドバックグラウンド領域に属すると仮定した場合における推定混合比 を、 入力画像に含まれる画素のそれぞれに対して算出し、 算出した画素がカバー ドバックグラウンド領域に属すると仮定した場合における推定混合比、 および画 素がアンカバードバックグラウンド領域に属すると仮定した場合における推定混 合比を前景背景分離部 1 1 0 2および合成部 1 2 0 1に供給する。 図 1 1 5に示す前景背景分離部 1 1 0 2は、 混合比算出部 1 1 0 1から供給さ れた、 画素がカバードバックグラウンド領域に属すると仮定した場合における推 定混合比、 および画素がアンカバードバックグラウンド領域に属すると仮定した 場合における推定混合比、 並びに領域特定部 1 0 3から供給された領域情報を基 に、 入力画像から前景成分画像を生成し、 生成した前景成分画像を合成部 1 2 0 1に供給する。

合成部 1 2 0 1は、 混合比算出部 1 1 0 1から供給された、 画素がカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比、 および画素が アンカバードバックグラウンド領域に属すると仮定した場合における推定混合比、 領域特定部 1 0 3から供給された領域情報を基に、 任意の背景画像と、 前景背景 分離部 1 1 0 2から供給された前景成分画像とを合成して、 任意の背景画像と前 景成分画像とが合成された合成画像を出力する。

図 1 1 6は、 合成部 1 2 0 1の構成を示す図である。 図 1 1 1のブロック図に 示す機能と同様の部分には同一の番号を付してあり、 その説明は省略する。

選択部 1 2 2 1は、 領域特定部 1 ◦ 3から供給された領域情報を基に、 混合比 算出部 1 1 0 1から供給された、 画素がカバードバックグラウンド領域に属する と仮定した場合における推定混合比、 および画素がアンカバードバックグラウン ド領域に属すると仮定した場合における推定混合比のいずれか一方を選択して、 選択した推定混合比を混合比 として背景成分生成部 1 0 2 1に供給する。

図 1 1 6に示す背景成分生成部 1 0 2 1は、 選択部 1 2 2 1から供給された混 合比 αおよび任意の背景画像を基に、 背景成分画像を生成して、 混合領域画像 合成部 1 0 2 2に供給する。

図 1 1 6に示す混合領域画像合成部 1 0 2 2は、 背景成分生成部 1 0 2 1から 供給された背景成分画像と前景成分画像とを合成することにより、 混合領域合成 画像を生成して、 生成した混合領域合成画像を画像合成部 1 0 2 3に供給する。 画像合成部 1 0 2 3は、 領域情報を基に、 前景成分画像、 混合領域画像合成部 1 0 2 2から供給された混合領域合成画像、 および任意の背景画像を合成して、 合成画像を生成して出力する。

このように、 合成部 1 2 0 1は、 前景成分画像を、 任意の背景画像に合成する ことができる。

なお、 混合比ひ は、 画素値に含まれる背景の成分の割合として説明したが、 画素値に含まれる前景の成分の割合としてもよい。

また、 前景となるオブジェク トの動きの方向は左から右として説明したが、 そ の方向に限定されないことは勿論である。

以上においては、 3次元空間と時間軸情報を有する現実空間の画像をビデオ力 メラを用いて 2次元空間と時間軸情報を有する時空間への射影を行った場合を例 としたが、 本発明は、 この例に限らず、 より多くの第 1の次元の第 1の情報を、 より少ない第 2の次元の第 2の情報に射影した場合に、 その射影によって発生す る歪みを補正したり、 有意情報を抽出したり、 またはより自然に画像を合成する 場合に適応することが可能である。

なお、 センサ 7 6 aは、 CCDに限らず、 固体撮像素子である、 例えば、 BBD (Bucket Bri gade Device) 、 CID (Charge I nj ect i on Device; 、 CPD

(Charge Primi ng Dev ice) 、 または CMOS (Compl ementary Mental Oxi de Semiconductor) センサでもよく、 また、 検出素子がマトリックス状に配置され ているセンサに限らず、 検出素子が 1列に並んでいるセンサでもよい。

以上のように説明してきた分離処理サーバ 1 1の各機能は、 図 1で示したネッ トワーク 1上に構成される各種のサーバに分散処理させることにより実現させる こともできる。 すなわち、 オブジェク ト抽出部 1 0 1、 および、 動き検出部 1 0 2は動き検出サーバ 1 2に、 領域特定部 1 0 3は領域特定サーバ 1 3に、 混合比 算出部 1 0 4は混合比算出サーバ 1 4に、 前景背景分離処理部 1 0 5は前景背景 分離処理サーバ 1 5に、 動きボケ調整部 1 0 6は動きボケ調整サーバ 1 6に、 そ れぞれ対応するものとして機能する。 従って、 図 2 7で示した分離処理サーバ 1 1のブロック図は、 ハードウェアにより実現されるもの、 ソフトウェアにより実 現されるもの、 または、 ネッ トワーク 1により実現されたもののいずれであって もよいものである。 また、 合成サーバ 1 9についても同様であり、 その構成は合 成部 1 2 0 1に対応するものであり、 ハードウェアにより実現されたもの、 ソフ トウエアにより実現されたもの、 または、 ネットワーク 1により実現されたもの のいずれであってもよいものである。

尚、 以上におけるオブジェク ト抽出部 1 0 1、 動き検出部 1 0 2、 領域特定部 1 0 3、 混合比算出部 1 0 4、 前景背景分離処理部 1 0 5、 および、 動きボケ調 整部 1 0 6のそれぞれの処理は、 動き検出サーバ 1 2、 領域特定サーバ 1 3、 混 合比算出サーバ 1 4、 前景背景分離処理サーバ 1 5、 および、 動きボケ調整サー バ 1 6とを置き換えたものと同様であり、 その処理についても同様であるので、 その説明は省略する。

また、 分離処理サーバ 1 1は、 上述のようにハードウェア、 または、 ソフ トゥ エアとして実現される場合、 図 1に記載のネットワーク 1上に接続された各種の サーバ、 クライアントコンピュータ 2 7、 および、 カメラ端末装置 2 8のそれぞ れに分離処理部として組み込まれる構成としてもよい。 そこで、 以下の説明にお いては、 分離処理サーバ 1 1が、 入力された画像を単に前景成分画像と背景成分 画像に分離する機能を有する単一の装置として説明されるとき、 分離処理部 1 1 とも称するものとする。

次に、 図 1 1 7のフローチャートを参照して、 分離処理サーバ 1 1による、 図 1のネットワーク 1を介してクライアントコンピュータ 2 7から入力された画像 の分離サービスの処理について説明する。

ステップ S 1 0 0 1において、 クライアントコンピュータ 2 7は、 画像を指定 する情報を分離処理サーバ 1 1に出力する。 すなわち、 使用者が分離したい画像 を指定する情報として、 具体的な画像であるか、 または、 画像を指定する画像 IDが分離処理サーバ 1 1に出力される。

ステップ S 1 0 1 1において、 分離処理サーバ 1 1は、 指定された画像を取得 する。 すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた場合 は、 その画像を、 指定する情報が送信されてきた場合は、 その画像 IDに対応す る画像を、 ネットワーク 1上から読出し取得する。

ステップ S 1 0 1 2において、 分離処理サーバ 1 1の課金処理部 1 1 aは、 ネ ットワーク 1を介して課金サーバ 2 4と共に課金処理を実行する。 また、 同時に ステップ S 1 0 2 1において、 課金サーバ 2 4は、 分離処理サーバ 1 1と共に課 金処理を実行する。

ここで、 図 1 1 8のフローチャートを参照して、 上述の課金処理を説明する。 尚、 実際の課金処理は、 分離処理サーバ 1 1と課金サーバ 2 4により実行される が各種の処理に必要な情報は、 クライアントコンピュータ 2 7からも出力されて いるので、 ここでは、 クライアントコンピュータ 2 7の処理についても合わせて 説明する。

ステップ S 1 1 0 1において、 図 1 1 9で示すように、 クライアントコンビュ ータ 2 7は、 サービスを指定して使用者 (画像の分離サービスの提供を受ける使 用者) を識別する ID情報と認証情報 (パスワード等) と共に利用'金額をネット ワーク 1を介して分離処理サーバ 1 1に送信する。 すなわち、 今の場合、 図 1 1 7のステップ S 1 0 0 1の処理で画像を指定する情報を送信する際に、 このステ ップ S 1 1 0 1の処理は、 実行されることになる。 また、 利用金額とは、 分離サ 一ビスに係る料金である。

ステップ S 1 1 1 1において、 図 1 1 9で示すように、 分離処理サーバ 1 1の 課金処理部 1 1 aは、 ID情報と認証情報を受信し、 さらに、 利用金額と自らの IDを課金サーバ 2 4に送信する。

ステップ S 1 1 2 1において、 図 1 1 9で示すように、 課金サーバ 2 4は、 分 離処理サーバ 1 1より送信されてきた IDに基づいて、 認証情報、 顧客口座 ID、 および、 利用金額を、 顧客口座の金融機関が管理する金融サーバ 2 5に問い合わ せる。

ステップ S 1 1 3 1において、 図 1 1 9で示すように、 金融サーバ (顧客用) 2 5は、 顧客口座 IDと認証情報に基づいて、 認証処理を実行し、 認証結果と利 用の可否の情報を課金サーバ 2 4に通知する。 ステップ S I 1 2 2において、 図 1 1 9で示すように、 課金サーバ 2 4は、 認 証結果と利用可否の情報を分離処理サーバ 1 1に送信する。 尚、 以下の説明にお いては、 認証結果が問題なく、 その利用が可能であるとの条件の下に説明を進め る。 また、 認証結果に問題があり、 その利用が認められないとの情報が受信され た場合、 その処理は、 終了することになる。

ステップ S 1 1 1 2において、 図 1 1 9で示すように、 分離処理サーバ 1 1は、 認証結果に問題がなく、 金融機関の利用が可能であるとの条件の場合、 クライア ントコンピュータ 2 7に対してサービスを提供する。 ステップ S 1 1 0 2におい て、 クライアントコンピュータ 2 7はサービスの提供を受ける。 すなわち、 今の 場合、 ステップ S I 1 1 2において、 分離処理サーバ 1 1は、 指定された画像を 前景成分画像と背景成分画像に分離してクライアントコンピュータ 2 7に出力し、 ステップ S 1 1 0 2において、 クライアントコンピュータ 2 7は、 分離された前 景成分画像と背景成分画像を受信する。

ステップ S I 1 1 3において、 分離処理サーバ 1 1は、 サービスの利用通知を 課金サーバ 2 4に送信する。 ステップ S 1 1 2 3において、 課金サーバ 2 4は、 顧客口座 ID、 利用金額、 および、 提供者口座 IDを金融サーバ (顧客用) 2 5に 通知する。

ステップ S 1 1 3 2において、 金融サーバ (顧客用) 2 5は、 顧客口座 IDの 口座から利用金額を提供者金融サーバ (提供者用) 2 6に振り込む。

ここで、 図 1 1 7のフローチャートの説明に戻る。

ステップ S 1 0 1 2 , S 1 0 2 1において、 分離処理サーバ 1 1と課金サーバ 2 4の相互で課金処理が実行された後、 ステップ S 1 0 1 3において、 分離処理 サーバ 1 1は、 画像の分離処理を実行する。 すなわち、 分離処理サーバ 1 1の領 域特定部 1 0 3は、 図 5 3のフローチヤ一トにより説明した領域特定の処理を、 混合比算出部 1 0 4は、 図 8 1のフローチャートを参照して説明した混合比の算 出の処理を、 前景背景分離部 1 0 5は、 図 9 6のフローチャートを参照して説明 した前景と背景との分離の処理を、 動きボケ調整部 1 0 6は、 図 4 4のフローチ ヤートにより説明した動きボケ量の調整処理をそれぞれ実行し、 指定された画像 を分離する。 尚、 動きボケ量の調整処理、 領域特定の処理、 混合比の算出の処理、 および、 前景と背景との分離の処理は、 いずれも上述と同様であるので、 その説 明は省略する。

ステップ S 1 0 1 4において、 分離処理サーバ 1 1は、 分離された前景成分画 像、 および、 背景成分画像に IDを付してクライアントコンピュータ 2 7に送信 する。 ステップ S 1 0 0 2において、 クライアントコンピュータ 2 7は、 分離処 理サーバ 1 1より送信されてきた分離されている前景成分画像と背景成分画像と その IDを受信し、 自らの記憶部 4 8 (図 2 ) に記憶すると共に、 必要に応じて プリントアウトする。 尚、 クライアントコンピュータ 2 7は、 使用者の指令に応 じて、 分離処理サーバ 1 1により分離処理された前景成分画像と背景成分画像を, 分離処理サーバ 1 1 自身に記憶させたり、 または、 ネットワーク 1を介して蓄積 サーバ 1 8に出力させ記憶 (蓄積) させるようにすることもできる。

以上の説明においては、 分離処理に係る料金を課金サーバ 2 4により金融サー バ 2 5, 2 6に対して振り込まれるといった場合の処理について説明してきたが、 例えば、 プリペイ ドポイントなどのように、 使用者が予め分離サービスの提供者 に利用料金を支払ったことを示すポイントを記憶部 4 8 (図 2 ) に記憶させ、 分 離サービスの提供を受ける度に、 そのポイントを減算するようにして、 課金処理 を実行するようにしてもよい。

ここで、 図 1 2 0のフローチャートを参照して、 プリペイ ドポイントを使用し た場合の課金処理について説明する。

ステップ S 1 2 0 1において、 クライアントコンピュータ 2 7は、 サービスを 指定して、 ID情報、 および、 認証情報を送信する。 すなわち、 クライアントコ ンピュータ 2 7は、 図 1 1 7のステップ S 1 1 0 1における処理と同様の処理を 実行する。

ステップ S 1 2 1 1において、 分離処理サーバ 1 1の課金処理部 1 1 aは、 ID情報、 および、 認証情報を受信する。 ステップ S 1 2 1 2において、 課金処 理部 1 1 aは、 記憶部 4 8に記憶されている、 予めクライアントコンピュータ 2 7の使用者より払い込まれている金額に相当するプリペイ ドポイントから、 分離 処理に係る利用金額に相当するポイントを減算し、 記憶する。 ステップ S 1 2 1 3において、 分離処理サーバ 1 1は、 サービスを提供する。 すなわち、 今の場合、 分離処理サーバ 1 1は、 入力された画像の分離処理を実行し、 分離された前景成 分画像と背景成分画像をクライアントコンピュータ 2 7に送信する。

ステップ S 1 2 0 2において、 クライアントコンピュータ 2 7は、 サービスの 提供を受ける。 すなわち、 今の場合、 クライアントコンピュータ 2 7は、 分離処 理サーバ 1 1より送信されてくる前景成分画像と背景成分画像を受信する。

また、 以上においては、 分離処理サーバ 1 1がプリペイ ドポイントを自らの記 憶部 4 8 (図 2 ) に記憶している場合について説明してきたが、 例えば、 プリべ イ ドポイントが記録されたカード、 いわゆる、 プリペイ ドカードを使用する場合 についても同様の処理となる。 この場合、 プリペイ ドカードに記憶されたプリべ ィ ドボイントをステップ S 1 2 0 1でクライアントコンピュータ 2 7が読取って、 送信し、 分離処理サーバ 1 1が、 課金処理により受信したポイントから利用料金 に相当するボイントを減算して減算結果となるポイントをクライアントコンビュ ータ 2 7に送信して、 プリペイ ドカードに上書きする必要がある。

次に、 図 1 2 1のフローチヤ一トを参照して、 クライアントコンピュータ 2 7 より指定された画像の動きべク トルと位置情報を求める動き検出サービスの処理 について説明する。

ステップ S 1 3 0 1において、 クライアントコンピュータ 2 7は、 画像を指定 する情報を動き検出サーバ 1 2に出力する。 すなわち、 使用者が動き検出処理し たい画像を指定する情報として、 具体的な画像であるか、 または、 画像を指定す る画像 IDが動き検出サーバ 1 2に出力される。

ステップ S 1 3 1 1において、 動き検出サーバ 1 2は、 指定された画像を取得 する。 すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた場合 は、 その画像を、 指定する情報が送信されてきた場合は、 その画像 IDに対応す る画像を、 ネッ トワーク 1上から読出し取得する。

ステップ S 1 3 1 2 , S 1 3 2 1において、 動き検出サーバ 1 2の課金処理部 1 2 c と課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8 , 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 その説明は省略する。

ステップ S 1 3 1 3において、 動き検出サーバ 1 2のォブジェク ト抽出部 1 2 aは、 取得している指定された画像から、 各ォブジェク トを抽出し、 動き検出部 1 2 bが位置情報と動きべク トルを検出し、 クライアントコンピュータ 2 7に送 信する。

ステップ S 1 3 0 2において、 クライアントコンピュータ 2 7は、 動き検出サ ーバ 1 2より送信されてきたオブジェク トの位置情報と動きべク トルを受信し、 sdfeする。

尚、 クライアントコンピュータ 2 7は、 使用者の指令に応じて、 動き検出サー バ 1 2により検出された位置情報と動きべク トルを、 動き検出サーバ 1 2自身に 記憶させたり、 または、 ネッ トワーク 1を介して蓄積サーバ 1 8に出力させ記憶 (蓄積) させるようにすることもできる。

次に、 図 1 2 2のフローチヤ一トを参照して、 領域特定サーバ 1 3により実行 される、 クライアントコンピュータ 2 7より入力された画像とオブジェク トを指 定する情報から領域を特定する領域特定サービスの処理について説明する。

ステップ S 1 4 0 1において、 クライアントコンピュータ 2 7は、 画像とォブ ジェク トを指定する情報を領域特定サーバ 1 3に出力する。 すなわち、 使用者が 領域特定したい画像を指定する情報として、 具体的な画像であるか、 または、 画 像を指定する画像 I Dと共にオブジェク トを指定する情報が領域特定サーバ 1 3 に出力される。

ステップ S 1 4 1 1において、 領域特定サーバ 1 3は、 指定された画像を取得 する。 すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた場合、 その画像を、 指定する画像 IDが送信されてきた場合は、 その画像 IDに対応す る画像を、 ネッ トワーク 1上から読出し取得する。

ステップ S 1 4 1 2 , S 1 4 2 Γにおいて、 領域特定サーバ 1 3の課金処理部 1 3 aと課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8, 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 その説明は省略する。

ステップ S 1 4 1 3において、 領域特定サーバ 1 3は、 オブジェク トを指定す る情報に基づいて、 領域特定の処理を実行する。 尚、 領域特定の処理は、 図 5 3 のフローチヤ一トを参照して説明した処理と同様であるので、 その説明は省略す る。

ステップ S 1 4 1 4において、 領域特定サーバ 1 3は、 ステップ S 1 4 1 3の 処理で求められた領域情報をクライアントコンピュータ 2 7に送信する。

ステップ S 1 4 0 2において、 クライアントコンピュータ 2 7は、 領域特定サ ーバ 1 3より送信されてきた領域情報を受信し、 記憶する。

尚、 クライアントコンピュータ 2 7は、 使用者の指令に応じて、 領域特定サー バ 1 3により求められた領域情報を、 領域特定サーバ 1 3自身に記憶させたり、 または、 ネットワーク 1を介して蓄積サーバ 1 8に出力させ記憶 (蓄積) させる ようにすることもできる。

次に、 図 1 2 3のフローチャートを参照して、 混合比算出サーバ 1 4により実 行される、 クライアントコンピュータ 2 7より入力された画像とオブジェク トを 指定する情報、 および、 領域情報から混合比を算出するの混合比算出サービスの 処理について説明する。

ステップ S 1 5 0 1において、 クライアントコンピュータ 2 7は、 画像とォブ ジェク トを指定する情報、 および、 領域情報を混合比算出サーバ 1 4に出力する c すなわち、 使用者が混合比を算出したい画像を指定する情報として、 具体的な画 像であるか、 または、 画像を指定する画像 ID、 オブジェク トを指定する情報、 および、 領域情報が混合比算出サーバ 1 4に出力される。

ステップ S 1 5 1 1において、 混合比算出サーバ 1 4は、 指定された画像を取 得する。 すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた場 合、 その画像を、 指定する画像 IDが送信されてきた場合は、 その画像 IDに対 応する画像を、 ネッ トワーク 1上から読出し取得する。

ステップ S 1 5 1 2 , S 1 5 2 1において、 混合比算出サーバ 1 4の課金処理 部 1 4 aと課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8, 図 1 2 0において、 分離サービスにおける場合と同様の処理であるの で、 その説明は省略する。

ステップ S 1 5 1 3において、 混合比算出サーバ 1 4は、 オブジェク トを指定 する情報、 および、 領域情報に基づいて、 混合比の算出の処理を実行する。 尚、 混合比の算出の処理は、 図 8 1のフローチャートを参照して説明した処理と同様 であるので、 その説明は省略する。

ステップ S 1 5 1 4において、 混合比算出サーバ 1 4は、 ステップ S 1 5 1 3 の処理で求められた混合比をクライアントコンピュータ 2 7に送信する。

ステップ S 1 5 0 2において、 クライアントコンピュータ 2 7は、 混合比算出 サーバ 1 4より送信されてきた混合比を受信し、 記憶する。

尚、 クライアントコンピュータ 2 7は、 使用者の指令に応じて、 混合比算出サ ーバ 1 4により求められた混合比を、 混合比算出サーバ 1 4自身に記憶させたり、 または、 ネットワーク 1を介して蓄積サーバ 1 8に出力させ記憶 (蓄積) させる ようにすることもできる。

次に、 図 1 2 4のフローチヤ一トを参照して、 前景背景分離サーバ 1 5により 実行される、 クライアントコンピュータ 2 7より入力された画像とオブジェク ト を指定する情報、 領域情報、 および、 混合比から前景成分画像と背景成分画像に 分離するサービスの処理について説明する。

ステップ S 1 6 0 1において、 クライアントコンピュータ 2 7は、 画像とォブ ジェク トを指定する情報、 領域情報、 および、 混合比の情報を前景背景分離サー バ 1 5に出力する。 すなわち、 使用者が前景背景分離したい画像を指定する情報 として、 具体的な画像であるか、 または、 画像を指定する画像 ID、 オブジェク トを指定する情報、 領域情報、 および、 混合比の情報が前景背景分離サーバ 1 5 に出力される。

ステップ S 1 6 1 1において、 前景背景分離サーバ 1 5は、 指定された画像を 取得する。 すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた 場合、 その画像を、 指定する画像 IDが送信されてきた場合は、 その画像 IDに 対応する画像を、 ネットワーク 1上から読出し取得する。

ステップ S 1 6 1 2, S 1 6 2 1において、 前景背景分離サーバ 1 5の課金処 理部 1 5 aと課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8 , 図 1 2 0において、 分離サービスにおける場合と同様の処理であるの で、 その説明は省略する。

ステップ S 1 6 1 3において、 前景背景分離サーバ 1 5は、 オブジェク トを指 定する情報、 領域情報、 および、 混合比に基づいて、 前景と背景の分離の処理を 実行する。 尚、 前景と背景の分離の処理は、 図 9 6のフローチャートを参照して 説明した処理と同様であるので、 その説明は省略する。

ステップ S 1 6 1 4において、 前景背景分離サーバ 1 5は、 ステップ S 1 6 1 3の処理で求められた前景成分画像と背景成分画像に IDを付してクライアント コンピュータ 2 7に送信する。

ステップ S 1 6 0 2において、 クライアントコンピュータ 2 7は、 前景背景分 離サーバ 1 5より送信されてきた前景成分画像と背景成分画像を受信し、 記憶す る。

尚、 クライアントコンピュータ 2 7は、 使用者の指令に応じて、 前景背景分離 サーバ 1 5により送信されてきた前景成分画像と背景成分画像を、 前景背景分離 サーバ 1 5自身に記憶させたり、 または、 ネッ トワーク 1を介して蓄積サーバ 1 8に出力させ記憶 (蓄積) させるようにすることもできる。 .

次に、 図 1 2 5のフローチヤ一トを参照して、 動きボケ調整サーバ 1 6により 実行される、 クライアントコンピュータ 2 7より入力された画像を指定する情報、 動きベク トル、 および、 動きボケ調整量から、 指定された画像の動きボケを調整 するサービスの処理について説明する。

ステップ S 1 7 0 1において、 クライアントコンピュータ 2 7は、 画像を指定 する情報、 動きべク トル、 および、 動きボケ調整量の情報を動きボケ調整サーバ 1 6に出力する。 すなわち、 使用者が動きボケ調整したい画像を指定する情報と して、 具体的な画像であるか、 または、 画像を指定する画像 ID、 オブジェク ト を指定する情報、 動きベク トル、 および、 動きボケ調整量の情報が動きボケ調整 サーバ 1 6に出力される。

ステップ S 1 7 1 1において、 動きボケ調整サーバ 1 6は、 指定された画像を 取得する。 すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた 場合、 その画像を、 指定する画像 IDが送信されてきた場合、 その画像 IDに対 応する画像を、 ネッ トワーク 1上から読出し取得する。

ステップ S 1 7 1 2 , S 1 7 2 1において、 動きボケ調整サーバ 1 6の課金処 理部 1 6 a と課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8, 図 1 2 0において、 分離サービスにおける場合と同様の処理であるの で、 その説明は省略する。

ステップ S 1 7 1 3において、 動きボケ調整サーバ 1 6は、 動きべク トル、 お よび、 動きボケ調整量の情報に基づいて、 動きボケの量の調整の処理を実行する 尚、 動きボケの量の調整の処理は、 図 1 0 4のフローチャートを参照して説明し た処理と同様であるので、 その説明は省略する。

ステップ S 1 7 1 4において、 動きボケ調整サーバ 1 6は、 ステップ S 1 7 1 3の処理で求められた動きボケ調整画像に IDを付してクライアントコンピュー タ 2 7に送信する。

ステップ S 1 7 0 2において、 クライアントコンピュータ 2 7は、 動きボケ調 整サーバ 1 6より送信されてきた動きボケ調整画像を受信し、 記憶する。

尚、 クライアントコンピュータ 2 7は、 使用者の指令に応じて、 動きボケ調整 サーバ 1 6により送信されてきた動きボケ調整画像を、 動きボケ調整サーバ 1 6 自身に記憶させたり、 または、 蓄積サーバ 1 8に出力させ記憶 (蓄積) させるよ うにすることもできる。

次に、 図 1 2 6を参照して、 符号化サーバ 1 7の詳細な構成を説明する。 符号 化サーバ 1 7の分離処理部 2 0 0 2は、 入力された画像 (画像を指定する画像 IDが入力され、 対応する画像をネッ トワーク 1を介して、 蓄積サーバ 1 8より 読込まれる画像を含む) を前景成分画像と背景成分画像に分離し、 混合比、 動き べク トル、 および、 位置情報と共に、 符号化部 2 0 0 1に出力する。 分離処理部 2 0 0 2は、 図 2 7を参照して説明した分離処理サーバ (分離処理部) 1 1と同 様ものであり、 混合比、 動きべク トル、 および、 位置情報の取得処理についても 同様であるので、 その説明は省略する。

符号化部 2 0 0 1は、 分離処理部 2 0 0 2より入力される前景成分画像と背景 成分画像をネッ トワーク 1を介して蓄積サーバ 1 8に出力して記憶させると共に、 記憶させた蓄積サーバ 1 8のネットワーク上の位置情報、 すなわち、 URLなどの 情報に変換し、 前景成分画像位置情報、 および、 背景成分画像位置情報として出 力する。 このとき、 符号化部 2 0 0 1は、 前景成分画像と背景成分画像を分離す る際に抽出される混合比、 動きべク トル、 および、 位置情報についても出力する c 符号化部 2 0 0 1により前景成分画像と背景成分画像が、 それぞれ前景成分画 像位置情報、 および、 背景成分画像位置情報に変換されるとき、 課金処理部 1 7 a (図 1 6, 図 1 7 ) 力 ネットワーク 1を介して課金サーバ 2 4に対して課金 処理を実行する。 尚、 この課金処理は、 後述する合成サーバ 1 9を使用して、 合 成画像を生成する合成サービスを受ける使用者が負担するようにしてもよい。 ま た、 逆に、 符号化サービスを利用した使用者が予め負担することにより、 合成サ 一ビスを利用する際には、 使用者から利用料金の支払を受けずに済むようにする こともできる。

次に、 図 1 2 7のフローチャートを参照して、 符号化サーバ 1 7により実行さ れる、 クライアントコンピュータ 2 7より入力された画像を符号化する符号化サ 一ビスの処理について説明する。 尚、 この説明においては、 符号化サービスの利 用者が利用料金を負担する場合について説明する。 ステップ S 1 8 0 1において、 クライアントコンピュータ 2 7は、 画像を指定 する情報を符号化サーバ 1 7に出力する。 すなわち、 使用者が符号化したい画像 を指定する情報として、 具体的な画像であるカ、 または、 画像を指定する画像 ID、 オブジェク トを指定する情報が符号化サーバ 1 7に出力される。 · ステップ S 1 8 1 1において、 符号化サーバ 1 7は、 指定された画像を取得す る。 すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた場合、 その画像を、 指定する画像 IDが送信されてきた場合、 その画像 IDに対応する 画像を、 ネットワーク 1上から読出し取得する。

ステップ S 1 8 1 2 , S 1 8 2 1において、 符号化サーバ 1 7の課金処理部 1 7 aと課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8, 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 その説明は省略する。

ステップ S 1 8 1 3において、 符号化サーバ 1 7の分離処理部 2 0 0 2は、 画 像分離処理を実行する。 尚、 画像分離処理は、 図 1 1 7のフローチャートのステ ップ S 1 0 1 3の処理と同様であるので、 その説明は省略する。

ステップ S 1 8 1 4において、 符号化サーバ 1 7は、 ステップ S 1 8 1 3の処 理で求められた前景成分画像と背景成分画像を蓄積サーバ 1 8に出力し、 記憶

(蓄積) させる。 ステップ S 1 8 3 1において、 蓄積サーバ 1 8は、 送信されて きた前景成分画像と背景成分画像を記憶する。

ステップ S 1 8 1 5において、 符号化サーバ 1 7は、 符号化により生成された 前景成分画像位置情報と背景成分位置情報に、 動きべク トルと位置情報を加えて、 クライアントコンピュータ 2 7に送信する。

ステップ S 1 8 0 2において、 クライアントコンピュータ 2 7は、 符号化サー バ 1 7より送信されてきた前景成分画像位置情報、 背景成分画像位置情報、 動き ベク トル、 および、 位置情報を受信し、 記憶する。

尚、 符号化部 2 0 0 1は、 入力された画像を分離して符号化する場合、 既に符 号化した画像と類似の画像を符号化するとき、 その差分となるデータのみを、 既 に符号化されている画像の符号 (画像位置情報) に付して出力するようにしても よい。 例えば、 図 1 2 8で示すような画像を合成する場合、 前景成分画像 1、 前 景成分画像 2、 および、 混合比 1の符号化情報からなる第 1の画像の符号化情報 と、 前景成分画像 1、 前景成分画像 3、 および、 混合比 2の符号化情報からなる 第 2の画像の符号化情報を合成するような場合、 前景成分画像 1は、 いずれの画 像の情報にも含まれているため、 合成するときには、 一方の画像の前景成分画像 1の符号化情報を省略しても良く、 結果として、 単純に合成する場合よりも、 前 景成分画像 1の情報が削除される分だけ圧縮率を向上させることができる。

結果として、 図 1 2 8に示すような第 1の画像と第 2の画像を蓄積する場合に は、 先に第 1の画像が蓄積されている場合には、 第 2の画像は、 差分となる前景 成分画像 3と混合比 2の符号化情報だけを蓄積すればよいことになる。 このため、 同一の画像の符号化情報が複数に渡って蓄積されるような場合、 蓄積される画像 の数が増えれば増えるほど圧縮率が向上されていくことになる。

また、 符号化サーバ 1 7により符号化される混合比、 動きべク トル、 および、 位置情報については、 図 1 2 9で示すように使用者が指定した情報であってもよ い。 さらに、 図 1 2 9で示すように、 符号化させる画像は、 使用者により指定さ れた画像 IDに対応する前景成分画像と背景成分画像を蓄積サーバ 1 8から読み 出し、 符号化するようにしてもよい。 この場合、 符号化サーバ 1 7には、 分離処 理部 2 0 0 2は設けられなくてもよいことになる。

また、 本明細書中で画像を指定する情報として、 画像 IDを使用してきたが、 これに代えて、 画像位置情報を使用するようにしてもよい。

次に、 図 1 3 0のフローチヤ一トを参照して、 合成サーバ 1 9により実行され る、 クライアントコンピュータ 2 7より入力された画像 A, Bを指定する情報、 動きべク トル、 混合比、 位置情報、 および、 動きボケ調整量から、 指定された画 像 A, Bを合成するサービスの処理について説明する。

ステップ S 1 9 0 1において、 クライアントコンピュータ 2 7は、 画像 A, B を指定する情報、 動きべク トル、 混合比、 位置情報、 および、 動きボケ調整量の 情報を合成サーバ 1 9に出力する。 すなわち、 使用者が合成したい画像 A, Bを 指定する情報として、 具体的な画像である力 \ または、 画像 A, Bを指定する画 像 A-ID, B- ID (上述の符号化された画像位置情報でもよい) 、 動きべク トル、 混合比、 位置情報、 および、 動きボケ調整量の情報が合成サーバ 1 9に出力され る。

ステップ S 1 9 1 1において、 合成サーバ 1 6は、 指定された画像を取得する c すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた場合、 その 画像を指定する画像 ID (上述の符号化された画像位置情報でもよい) が送信さ れてきた場合、 その画像 IDに対応する画像を、 ネッ トワーク 1上から読出し取 得する。

ステップ S 1 9 1 2, S 1 9 2 1において、 合成サーバ 1 9の課金処理部 1 9 aと課金サーバ 24は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8, 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 そ の説明は省略する。 また、 この課金処理は、 上述の符号化サーバ 1 6を使用して、 符号化サービスを受けた使用者が負担していた場合には、 省略するようにするこ ともできる。 逆に、 符号化サービスを受けた使用者の代わりに、 合成サービスを 受けた使用者が負担するようにしてもよい。

ステップ S 1 9 1 3において、 合成サーバ 1 9は、 動きべク トル、 混合比、 位 置情報、 および、 動きボケ調整量の情報に基づいて、 画像 A, Bの合成の処理を 実行する。

ステップ S 1 9 1 4において、 合成サーバ 1 9は、 ステップ S 1 9 1 3の処理 で求められた合成画像 (A+B) に IDを付してクライアントコンピュータ 2 7 に送信する。

ステップ S 1 9 0 2において、 クライアントコンピュータ 2 7は、 合成サーバ 1 9より送信されてきた合成画像 (A + B) を受信し、 記憶する。

尚、 クライアントコンピュータ 2 7は、 使用者の指令に応じて、 合成サーバ 1 9により送信されてきた合成画像 (A+B) を、 合成サーバ 1 9自身に記憶させ たり、 または、 ネットワーク 1を介して蓄積サーバ 1 8に出力させ記憶 (蓄積) させるようにすることもできる。

ところで、 合成サーバ 2 0は、 以上のように複数の画像を合成することが可能 なようになされているが、 この際、 動きボケ調整量をキーとすることで、 合成画 像の動きボケを付加して暗号化画像を生成することができる。 図 1 3 1は、 合成 サーバ 2 0に暗号化画像を生成させるために設けられる暗号用動きボケ付加部 2 0 2 1の構成を示している。

暗号用動きボケ付加部 2 0 2 1の入力情報処理部 2 0 3 1は、 入力された暗号 化しようとする被暗号化信号を画像化部 2 0 3 2に、 暗号キーとなる情報を動き ボケ作成部 2 0 3 3に、 および、 被暗号化信号を前景成分画像として合成しょう とする画像 (背景成分画像) を選択する画像選択情報を合成サーバ 2 0にそれぞ れ出力する。

画像化部 2 0 3 2は、 入力情報処理部 2 0 3 1より入力された被暗号化信号が 画像信号ではない場合、 その信号を画像信号に変換して動きボケ付加部 2 0 3 3 に出力する。 すなわち、 暗号化処理される信号は、 画像信号であることが条件と なるので、 その処理に対応させるため画像信号ではない信号を画像化する。

動きボケ作成部 2 0 3 3は、 入力情報処理部 2 0 3 1より入力された速さや方 向といった情報に基づいて動きボケ調整量を生成し、 画像化部 2 0 3 2より入力 された画像信号に動きボケ付加処理を施し、 合成サーバ 2 0に出力する。 合成サ ーバ 2 0は、 入力情報処理部 2 0 3 1より入力された画像選択情報に基づいて背 景成分画像を取得し、 さらに、 動きボケ付加部 2 0 3 3より入力される画像を前 景成分画像として、 取得した背景成分画像と合成し、 合成画像を生成して表示す る。 このとき、 背景成分画像を指定する画像選択情報は、 背景成分画像そのもの でもよいし、 背景成分画像位置情報、 または、 背景成分画像 ID であってもよい。 次に、 図 1 3 2を参照して、 合成サーバ 2 0に設けられた喑号用動きボケ付加 部 2 0 2 1により暗号化された合成画像を復号して、 元の信号に変換する暗号用 動きボケ除去部 2 0 4 1について説明する。 尚、 図 1 3 1 , 図 1 3 2に示す喑号 用動きボケ付加部 2 0 2 1、 および、 暗号用動きボケ除去部 2 0 4 1は、 例えば、 クライアントコンピュータ 2 7に内蔵されるソフトウエアの機能プロック図とし て考えてもよいし、 ハードウェアのブロック図であるものと考えてもよい。 さら に、 暗号用動きボケ付加部 2 0 2 1、 および、 暗号用動きボケ除去部 2 0 4 1は、 ネットワーク 1上に専用サーバとして構成するようにしてもよレ、。

分離サーバ 1 1は、 暗号化された合成画像を前景成分画像と背景成分画像に分 離し、 動きボケが付加された前景成分画像を入力情報処理部 2 0 5 1に出力する c 入力情報処理部 2 0 5 1は、 分離処理サーバ 1 1より入力された喑号化されて いる前景成分画像と、 その暗号化された前景成分画像を復号するためのキーとし て速さと方向の情報が入力されると、 動きボケ除去部 2 0 5 2に出力する。 この キーとなる速さと方向は、 画像を X方向、 y方向の 2次元で示すとき、 それぞれ に設定される。

動きボケ除去部 2 0 5 2は、 入力情報処理部 2 0 5 1より入力された速さと方 向の情報に基づいて、 動きボケ量を生成し、 喑号化された前景成分画像に、 暗号 用動きボケ付加部 2 0 2 1により施された動きボケ付加処理と逆の動きボケ付加 処理を施し、 暗号化された前景成分画像を復号して信号変換部 2 0 5 3に出力す る。 信号変換部 2 0 5 3は、 被暗号化信号が画像ではなかった場合、 動きボケ除 去部 2 0 5 2より入力された画像信号を元の信号に変換して出力する。

すなわち、 上記の動きボケ作成部 2 0 3 3 (図 1 3 1 ) と、 動きボケ除去部 2 0 5 2は、 実質的には、 図 9 7の動きボケ付加部 8 0 6と同様の処理を実行する ものであり、 暗号キーとして動きボケ調整量を使用して、 相互に逆の動きボケの 付加処理を実行するものである。 ただし、 後述する X方向、 または、 y方向の動 きボケ付加処理のうち、 先に実行された動きボケ付加処理に対して、 ゲインアツ プの処理を実行する点が異なる。

ここで動きボケを付加することにより、 画像信号を暗号化する原理について説 明する。 例えば、 図 1 3 3に示すように、 被写体が矢印の方向に移動するとき、 これを CCDなどからなるセンサ 7 6 aで撮像すると、 移動方向の前後に混合領 域 (カバードバックグラウンド領域とアンカバードバックグラウンド領域) 力 撮像された画像の動きボケとして生じる (詳細は、 図 3 1 Aを参照) 。 図 1 3 4 は、 この現象を示す例を示しており、 図 1 3 4中の Aで示すような被写体を、 セ ンサ 7 6 aで撮像する場合、 図中左右方向に被写体が移動しているとき、 その速 さに応じて、 動きボケの領域が広がり、 さらに、 撮像される色が拡散される様子 を示している。 すなわち、 被写体が左右方向に速さ Vで移動しているとき、 図 1 3 4中の Bで示すような画像が撮像されるものとする。 このとき、 被写体が静止 しているときに撮像される領域を領域 a 0乃至 a 0 'であるとすると、 図 1 3 4 中の Bの被写体が撮像される領域は領域 a 1乃至 a 1 'となり、 元の位置 a 0乃 至 a 0 'の領域の色が薄くなり、 動きボケとなる領域 a 1乃至 a 0、 および、 領 域 a 0 '乃至 a 1 'に色が広がっている。 同様にして、 被写体が速さ 2 V (速さ Vの 2倍) で移動していると、 図 1 3 4中の Cで示すように、 さらに動きボケと なる領域 a 2乃至 a 0、 および、 領域 a 0 '乃至 a 2 'に色が広がることが示さ れている。 さらに、 被写体が速さ 3 Vで移動すると、 図 1 3 4中の Dで示すよう に、 動きボケとなる領域 a 3乃至 a 0、 および、 領域 a 0 '乃至 a 3 'に広がり、 速さ 4 Vで移動すると、 図 1 3 4中の Eで示すように、 動きボケとなる領域 a 4 乃至 a 0、 および、 領域 a 0 '乃至 a 4 'に広がり、 全体として色が薄くなる。 すなわち、 センサ 7 6 aから出力される個々の画素値は、 撮像するオブジェク ト の空間的に広がりを有するある部分を、 シャツタ時間について積分した結果であ るので、 総じて積分される画素値は変わらない分だけ、 被写体の速さが増す毎に、 空間的に広がることにより、 色が薄く撮像されることになる。 従って、 色が薄く なり、 領域が広がり、 動きボケの領域が大きくなるにつれて、 被写体の判読が困 難になる。 ここで、 色は、 判読の可能性を示しており、 濃いほど判読の可能性が 大きく、 薄いほど判読の可能性が小さくなることを示している。

動きボケ調整による暗号化は、 この性質を利用したものであり、 現実世界では 起こりえない、 2次元方向の動きボケを画像に生じさせることで暗号化させるも のである。 すなわち、 図 1 3 5で示すように、 動きのない状態で、 黒丸状の被写 体が撮像された画像がマトリタスの最左列最上段に示されている。 この状態から、 例えば、 縦方向に動きのある状態の動きボケを付加すると、 黒丸状の被写体は、 中列最上段に示すように上下方向に動きボケが生じた画像となる。 さらに、 横方 向に動きボケを生じさせると中列中段に示すように、 被写体の上下左右方向に動 きボケが生じた画像となる。

この状態で、 さらにまた、 左右方向の動き (速さ) を大きく して動きボケを付 加すると、 中列最下段に示すように、 さらに、 左右方向に動きボケ領域が広がつ た画像となる。 この画像に、 さらに、 上下方向に動きボケを生じさせると、 最右 列最下段に示すように、 黒丸状の被写体の動きボケ領域が広がり、 全体として色 が薄くなる。 結果として、 被写体の判読の可能性が低下するので、 画像そのもの を暗号化させることが可能となる。

次に、 図 1 3 6のフローチャートを参照して、 暗号用動きボケ付加部 2 0 2 1 の動きボケ調整量を利用した暗号化処理について説明する。 尚、 以下の説明では、 図 1 3 7で示すように、 5 X 5画素からなる被写体が撮像された画像を暗号化す る例について説明する。 ここで、 図 1 3 7においては、 5 X 5画素の各画素の画 素値 a乃至 yで示すこととし、 縦方向を y、 横方向を xで示し、 時刻軸を時刻 t として説明する。

ステップ S 2 0 0 1において、 入力情報処理部 2 0 3 1は、 被暗号化信号が入 力されたか否かを判定し、 入力されるまでその処理を繰り返し、 入力されたと判 定された場合、 その処理は、 ステップ S 2 0 0 2に進む。

ステップ S 2 0 0 2において、 入力情報処理部 2 0 3 1は、 入力された被暗号 化信号を画像化部 2 0 3 2に出力する。 ステップ S 2 0 0 3において、 画像化部 2 0 3 2は、 入力された被暗号化信号が画像信号であるか否かを判定する。 例え ば、 被暗号化信号が画像信号ではないと判定された場合、 ステップ S 2 0 0 4に おいて、 画像化部 2 0 3 2は、 被暗号化信号を画像信号に変換して、 動きボケ付 加部 2 0 3 3に出力する。 ステップ S 2 0 0 3において、 被暗号化情報が画像信 号であると判定された場合、 画像化部 2 0 3 2は、 入力された被暗号化信号をそ のまま動きボケ付加部 2 0 3 3に出力する。

ステップ S 2 0 0 5において、 入力信号処理部 20 3 1は、 キーとなる速さと 方向の情報が入力されたか否かを判定し、 入力されるまでその処理を繰り返し、 速さと方向のキーが入力されると、 その処理は、 ステップ S 2 00 6に進む。 ステップ S 2 0 0 6において、 動きボケ付加部 20 3 3は、 入力された画像信 号に対して X方向について暗号化する (動きボケを付加する) 。

ここで、 被写体を動きボケ調整により暗号化するときの具体的な画素値の生成 方法を、 図 1 3 7乃至図 1 4 9を参照して説明する。

ここで、 図 1 3 7で示すように、 最下段の画素 a乃至 eを、 x方向に動きボケ を生じさせて暗号化する方法について説明する。 このとき、 キーとなる速さを示 す動き量 Vを 5 (仮想分割数を 5) とすると、 図 1 3 8で示す最下段の画素は 図 1 3 9のように示される。 すなわち、 各時間方向の画素値が 5分割されるので、 a/5 = a 0 = a l = a 2 = a 3 = a 4, b/5 = b 0 = b l =b 2 = b 3 = b 4、 c /5 = c 0 = c l = c 2 = c 3 = c 4 d / 5 = d 0 = d 1 = d 2 = d 3 = d 4、 e / 5 = e 0 = e 1 = e 2 = e 3 = e 4の関係が満たされることになる。 ここで、 図 1 3 9中上段にある画素ほど前の時刻の画素値である。

被写体に対して X方向の動き (今の場合、 図中右方向) が与えられると、 画素 値の配置は、 所定の時間間隔でスライ ドされることになり、 結果として、 図 1 4 0で示すような配置になる。 すなわち、 動き始めのタイミングでは、 画素値 a O 乃至 e 0は元の位置であり、 次のタイミングで、 画素値 a 1乃至 e 1は右方向に 1画素分スライ ドし、 さらに次のタイミングで、 画素値 a 2乃至 e 2は右方向に さらに 1画素分スライ ドし、 さらに次のタイミングで、 画素値 a 3乃至 e 3は右 方向にさらに 1画素分スライ ドし、 さらに次のタイミングで、 画素値 a 4乃至 e 4は右方向にさらに 1画素分スライ ドするといつたように被写体の動きに合わせ て画素値が移動した配置となる。

また、 X y平面上の各画素値は、 図 1 4 0で示した画素値を時間方向に加算し たものと言うことになる。 しかしながら、 例えば、 最左列、 または、 最右列は、 画素値 a 0, e 4だけとなり、 画素値としての値が非常に小さなものとなる恐れ があり、 また、 この後、 y方向に対しても同様の処理をする上で、 非常に小さな 値とならないように、 ゲインアップの処理を施す。 このゲインアップの処理を施 した例が、 図 1 4 1に示されている。

ここで、 a O * = 5 X a O、 b O * = (5/2) x b O a 0 * = ( 5 / 2 ) X a l、 c 0 * = ( 5 / 3 ) X c 0、 b 1 * = ( 5 Z 3 ) x b 1、 a 2 * = ( 5 / 3) x a 2、 d 0 * = ( 5/4) x d 0、 c 1 * = ( 5 / 4 ) x c 1、 b 2 * = ( 5 /4) x b 2、 a 3 * = ( 5 ,4) x a 3、 e 1 * = ( 5 Z 4 ) x e 1、 d 2 * = (5/4) x d 2 c 3 * = (5/4) x c 3、 b 4 * = (5/4) x b 4 , e 2 * =(5/3) x e 2, d 3 * = ( 5/ 3) x d 3、 c 4 * = ( 5 Z 3 ) x c 4、 e 3 * = (5/2) x e 3, d 4 * = (5ノ 2) x d 4、 および、 e 4 *= 5 X e 4で ある。 すなわち、 各画素の加算値が、 1画素分の画素値となるようにゲインを調 整している。 この結果、 図 1 3 8で示した、 画素 a乃至 eが X方向に動き量 V が 5の条件で、 暗号化されると (動きボケ付加されると) 、 図 1 4 2で示すよう な画素 a X乃至 d x 'に変換され (暗号化され) 、 被写体の水平方向の画素数が 5から 9に増加することになる。 ここで、 画素値は、 a x = a x *、 b x = (b 0 *) + ( a 1 *) 、 c x = ( c 0 *) + ( b 1 *) + ( a 2 *) 、 d x = ( d 0 *) + ( c 1 *) + (b 2 *) + ( a 3 *) 、 e x = ( e 0 ) + ( d 1 ) + (c 2) + (b 3) + ( a 4 ) 、 a x ' = (e l *) + ( d 2 *) + ( c 3 *) + (b 4 *) 、 b x ' = ( e 2 *) + ( d 3 *) + ( c 4 *) 、 c x ' = ( e 3 *) + (d 4 *) 、 および、 e x = e x *である。

以上のような処理を、 図 1 3 7で示した 5 X 5画素の全ての yに対して、 x方 向に暗号化すると、 図 1 4 3で示すような画素値が求められることになる。 すな わち、 画素 a X乃至 y X、 並びに、 画素 a x'乃至 d x'、 '乃至 1 ' 、 k x'乃至 n x'、 p x'乃至 s x'、 および、 u x '乃至 x x 'の画素が求められ、

X方向に動きボケが生じることにより X方向に広がりが生じ、 9画素ずつ求めら れることになる。 ここで、 図 1 3 6のフローチャートの説明に戻る。

ステップ S 2 0 0 7において、 動きボケ付加部 2 0 3 3は、 x方向に符号化し た画像信号を y方向に対して暗号化する。

ここで、 図 1 4 4で示すように、 図 1 4 3で示す最右列の画素 a x, f x , k x , p x, u xを、 y方向に動きボケを生じさせて暗号化する方法について説明 する。 このとき、 キーとなる速さを示す動き量 Vを 5 (仮想分割数を 5 ) とす ると、 図 1 4 3で示す最右列の画素は図 1 4 4のように示される。 すなわち、 各 時間方向の画素値が 5分割されるので、 a xZ5 = a X 0 = a x l = a x 2 = a x 3 = a x 4、 f x / 5 = f x O = f x l = f x 2 = f x 3 = f x 4 k x / 5 = k x 0 = k x l = k x 2 = k x 3 = k x 4、 p x / 5 = p x O = p x l = p x 2 = p x 3 = p x 4、 u x 5 = u x O = u x I = u x 2 = u x 3 = u x 4の関 係が満たされることになる。 ここで、 図 1 4 5中上段にある画素ほど前の時刻の 画素値である。

被写体に対して y方向に動きが与えられると、 画素値の配置は、 所定の時間間 隔でスライ ドされることになり、 結果として、 図 1 4 6で示すような配置になる c すなわち、 動き始めのタイミングでは、 画素値 a X 0, f x O, k X 0 , p x 0 , u χ 0は元の位置であり、 次のタイミングで、 画素値 a χ 1, f X 1 , k X 1 , p x 1 , u χ 1は右方向に 1画素分スライ ドし、 さらに次のタイミングで、 画素 ί直 a x 2 , f X 2 , k x 2, p x 2 , u x 2は右方向に、 さらに 1画素分スライ ドし、 さらに次のタイミングで、 画素値 a X 3, f X 3 , k x 3 , ρ χ 3 , u χ 3は右方向に、 さらに 1画素分スライ ドし、 さらに次のタイミングで、 画素値 a X 4 , f X 4 , k x 4 , ρ χ 4 , u χ 4は右方向にさらに 1画素分スライ ドする といったように被写体の動きに合わせて画素値が移動した配置となる。

ここで、 図 1 3 6のフローチャートの説明に戻る。

ステップ S 2 0 0 8において、 合成サーバ 1 9は、 合成される背景成分画像を, 暗号化した画像 (前景成分画像) と合成する。 例えば、 図 1 4 7で示すような y 方向に配列された画素値 B 0乃至 B 9の画素値からなる背景成分画像 (X方向に 1段分の画素からなる画像) を合成すると、 図 1 4 8で示すような画素値が加算 された値が画素値となる。 すなわち、 x y方向に暗号化された (動きボケが付加 された) 画像の画素値が前景成分画像の画素値として、 合成される画像の画素値 が背景成分画像の画素値として合成される。 結果として、 図 1 4 9で示すような 画素値 A, F, K, P, U, Ay' , F y ', K y ' , P y'が求められることに なり、 各画素値は、 画素値 A= a X 0 + B 0 4/5 , 画素値 F= f x 0 + a x

0 + B 1 X 3ノ 5、 画素値 K= k x 0 + f x l + a x 2 + B 2 x 2/5, 画素値 P = p x O + k x l + f x 2 + a x 3 + B 3 x l /5 , 画素値 U = u x 0 + p x

1 + k x 2 + f x 3 + a x 4、 画素ィ直 A y' =B 5 X l/5 + u x l + p x 2 + k x 3 + f x 4、 画素ィ直 F y' =B 6 x 2/5 + u x 2 + p x 3 + k x 4、 画素 flSK y' =B 7 x 3/5 + u x 3 + p x 4, および、 画素値 P y ' =B 8 x 4/ 5 + u x 4となる。

これらの処理を全ての y方向に対して実行することにより、 図 1 5 0で示すよ うな暗号化された前景成分画像を背景成分画像とする合成画像が生成される。 す なわち、 入力された 5 X 5画素の画像は、 9 X 9画素 (画素 A乃至 Y、 画素 Ax 乃至 D x、 画素 F x乃至 I x、 画素 Kx乃至 N x、 画素 P x乃至 S x、 画素 U x 乃至 X x、 画素 Ay'乃至 T y'、 画素 Α χ'乃至 D x,、 画素 F x'乃至 I x'、 画素 Kx'乃至 Nx'、 および、 画素 P x'乃至 S x' ) の画像に変換される。 尚、 復号の処理については、 喑号用動きボケ除去部 2 0 4 1において、 暗号用 動きボケ付加部 20 2 1の処理と全く逆の、 動きボケ付加処理を実行することに なるので、 その説明は省略する。

また、 上述のステップ S 2 00 6の処理において、 X方向に暗号化する際、 ゲ インアップ処理を施したのち、 y方向の暗号化を行っている。 従って、 復号は、 y方向に復号した後、 ゲインをダウンさせてから X方向に復号する必要がある。 また、 y方向と X方向の暗号化処理の順序は入れ替えてもよいが、 先に暗号化す る方向に対して、 ゲインアップの処理がなされるため、 復号も暗号化された順序 に対応させる必要がある。 次に、 図 1 5 1のフローチャートを参照して、 図 1 3 1で示した暗号化用動き ボケ付加部 2 0 2 1が備えられた合成サーバ 1 9による暗号化サービスについて 説明する。 尚、 この処理は、 ネッ トワーク 1上に接続されたクライアントコンビ ユータ 2 7— 1が合成サーバ 1 9に対して被暗号化信号を送信し、 これを暗号化 させて、 クライアントコンピュータ 2 7 _ 2に送信させる場合の処理である。 ま た、 クライアントコンピュータ 2 7には、 暗号用動きボケ除去部 2 0 4 1を有す る分離処理サーバ 1 1の画像の分離処理機能を備えたハードウユアが設けられて いる力 \ または、 ソフトウェアがインス トールされているものとする。

ステップ S 2 1 0 1において、 クライアントコンピュータ 2 7 _ 1は、 暗号化 しょうとする情報 (被暗号化信号) 、 暗号キーとなる速さと方向の情報、 および、 画像選択情報 (背景成分画像を選択する情報) を合成サーバ 1 9に送信する。 ステップ S 2 1 1 1において、 合成サーバ 1 9の喑号用動きボケ付加部 2 0 2 1は、 クライアントコンピュータ 2 7 — 1より入力された、 暗号キーに基づいて、 暗号化しょうとする情報 (被暗号化信号) を暗号化し、 選択された背景成分画像 を合成する暗号化処理を実行する。 尚、 暗号化処理については、 図 1 3 6のフロ 一チャートを参照して説明したので省略する。

ステップ S 2 1 1 2において、 合成サーバ 1 9は、 動きボケを付加することに より暗号化して合成した画像をクライアントコンピュータ 2 7— 1に送信する。 ステップ S 2 1 0 2において、 クライアントコンピュータ 2 7— 1は、 合成サ ーバ 1 9より受信した合成画像を表示して、 使用者が所望とする画像であるか否 かを判定し、 所望の画像であると判定された場合、 ステップ S 2 1 0 3において、 所望の画像であったことを合成サーバ 1 9に通知する。 ステップ S 2 1 1 3にお いて、 合成サーバ 1 9は、 所望の画像であつたか否かを判定し、 例えば、 今の場 合、 ステップ S 2 1 0 3において、 所望の画像であるとの通知を受けているので、 その処理は、 ステップ S 2 1 1 4に進む。

ステップ S 2 1 1 4において、 合成サーバ 1 9の課金処理部 1 9 aは、 課金サ ーバ 2 4と共に課金処理を実行する。 尚、 課金処理については、 図 1 1 8 , 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 その説明は 省略する。

ステップ S 2 1 1 5において、 合成サーバ 1 9は、 暗号化した合成画像をクラ イアントコンピュータ 2 7— 1に送信する。 ステップ S 2 1 0 4において、 クラ イアントコンピュータ 2 7 _ 1は、 暗号化された合成画像を受信し、 そのまま、 クライアントコンピュータ 2 7 - 2に送信する。

ステップ S 2 1 4 1において、 クライアントコンピュータ 2 7— 2は、 暗号化 された合成画像を受信する。 ステップ S 2 1 4 2において、 クライアントコンビ ユータ 2 7 _ 2は、 キーが入力されたか否かを判定し、 暗号キーが入力されるま でその処理を繰り返す。 ステップ S 2 1 4 2において、 喑号キーとして、 速さと 方向の情報が入力されると、 ステップ S 2 1 4 3において、 入力された速さと方 向に基づいて、 動きボケ除去処理部 2 0 4 1が動きボケ処理を実行する。 ステツ プ S 2 1 4 4において、 動きボケが除去された画像が表示される。

ステップ S 2 1 0 2において、 所望の画像ではないと判定された場合、 ステツ プ S 2 0 1 5において、 所望の画像ではないことを合成サーバ 1 9に通知すると 共に、 その処理は、 ステップ S 2 1 0 1に戻る。 また、 この処理により、 ステツ プ S 2 1 1 4において、 所望の画像ではないと判定されることになるので、 合成 サーバ 1 9の処理は、 ステップ S 2 1 1 1の処理に戻る。

すなわち、 この処理により、 クライアントコンピュータ 2 7— 2の使用者がク ライアントコンピュータ 2 7 _ 1の使用者により指定された速さと方向のキーを 正しく入力されたとき、 暗号化された画像が正しく復号された画像が表示される c また、 上述の暗号化サービスと同様のシステムにより、 復号サービスを提供する こともできる。

次に、 図 1 5 2を参照して、 修正サーバ 2 0について説明する。

修正サーバ 2 0の分離処理部 1 1は、 入力された画像 (画像 IDでもよく、 画 像 IDで指定された画像の場合、 ネッ トワーク 1上より対応する画像を読み出し た画像) を前景成分画像と背景成分画像に分離して、 前景成分画像を動きボケ調 整部 2 1 0 1に、 背景成分画像を合成部に出力する。 動きボケ調整部 2 1 0 1は、 入力された前景成分画像を指定された (修正の程度を調整する) 動きボケ量で動 きボケ調整し、 合成部 2 1 0 1に出力する。 合成部 2 1 0 1は、 動きボケ調整さ れた前景成分画像と、 入力された背景成分画像とを合成し、 修正画像として出力 する。

例えば、 図 1 5 3 Aで示すような画像が、 修正サーバ 2 0に入力されるものと する。 すなわち、 図 1 5 3 A右部に示すように、 前景が背景上を矢印方向に移動 するとき、 前景の進行方向と、 その逆方向に対して動きボケが生じる。 この動き ボケの部分は、 混合領域であり、 図 1 5 3 A左部に示すように、 移動方向の前方 部分に生じる混合領域が C B (Covered Background) であり、 移動方向の後方 部分に生じる混合領域が U B (Uncovered Background) である。 尚、 図 1 5 3 A左部の図では縦方向に時間軸 tを設定しているので移動と共に、 画素上の画素 値の蓄積状態と時間の経過の関係が示されている。 分離処理部 1 1は、 この入力 画像を図 1 5 3 Bで示すように前景と背景に分離する。 このとき、 入力された画 像の混合領域も同時に抽出される。

動きボケ調整部 2 1 0 1は、 図 1 5 3 Bで示すような前景成分画像の動きボケ を調整して、 例えば、 図 1 5 3 Cのような前景成分画像を生成する。 すなわち、 今の場合、 動きボケが小さくされている (C B、 U Bの部分を小さく している) c 尚、 動きボケを調整するための動きボケ調整量は、 使用者が数回操作を繰り返し ながら入力するようにしてもよいし、 動きボケ調整部 2 1 0 1が所定の値に調整 するようにしてもよレ、。

合成部 2 1 0 2は、 図 1 5 3 Cで示したように調整した前景成分画像と、 入力 された背景成分画像を合成して、 図 1 5 3 Dで示したような、 動きボケ調整済み の前景成分画像を、 背景成分画像と合成して、 出力する。

尚、 背景成分画像を入力された画像のものと異なる他の背景成分画像に変更さ せたい場合、 分離した背景成分画像を合成部 2 1 0 2には出力せず、 変更させた い背景成分画像を合成部 2 1 0 2に入力する。 また、 修正サーバ 2 0は、 分離処 理部 1 1、 動きボケ調整部 2 1 0 1、 および、 合成部 2 1 0 2を、 ネッ トワーク 1上の分離処理サーバ 1 1、 動きボケ調整サーバ 1 6、 および、 合成サーバ 1 9 に置き換えて構成するようにしてもよい。

次に、 図 1 5 4のフローチヤ一トを参照して、 修正サーバ 2 0により実行され る、 クライアントコンピュータ 2 7より入力された画像を修正する修正サービス の処理について説明する。

ステップ S 2 2 0 1において、 クライアントコンピュータ 2 7は、 画像を指定 する情報を修正サーバ 2 0に出力する。 すなわち、 使用者が修正したい画像を指 定する情報として、 具体的な画像であるか、 または、 画像を指定する画像 IDが 修正サーバ 2 0に出力される。

ステップ S 2 2 1 1において、 修正サーバ 2 0は、 指定された修正しようとす る画像と背景成分画像を取得し、 分離処理部 1 1は、 修正しょうとする画像を前 景成分画像と背景成分画像に分離する。 すなわち、 クライアントコンピュータ 2 7より画像が送信されてきた場合、 その画像を、 指定する画像 IDが送信されて きた場合は、 その画像 IDに対応する画像を、 ネットワーク 1上から読出し取得 する。 さらに、 分離処理部 1 1は、 取得した画像を前景成分画像と背景成分画像 に分離する。

ステップ S 2 2 1 2 , S 2 2 2 1において、 修正サーバ 2 0の課金処理部 2 0 aと課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8 , 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 そ の説明は省略する。

ステップ S 2 2 1 3において、 修正サーバ 2 0の動きボケ調整部 2 1 0 1は、 前景成分画像の動きボケの調整処理を実行する。 尚、 動きボケの調整処理は、 図 1 0 4のフローチヤ一トを参照して説明した処理と同様であるので、 その説明は 省略する。

ステップ S 2 2 1 4において、 合成部 2 1 0 2は、 動きボケ調整された前景成 分画像と指定された背景成分画像を合成する。 ステップ S 2 2 1 5において、 修 正サーバ 2 0は、 ステップ S 2 2 1 4の処理で求められた合成画像、 すなわち、 修正画像をクライアントコンピュータ 2 7に送信する。

ステップ S 2 2 0 2において、 クライアントコンピュータ 2 7は、 修正サーバ 2 0より送信されてきた修正画像を受信し、 記憶する。

尚、 クライアントコンピュータ 2 7は、 使用者の指令に応じて、 修正サーバ 2 0により修正された画像を、 修正サーバ 2 0自身に記憶させたり、 または、 ネッ トワークを介して蓄積サーバ 1 8に出力させ記憶 (蓄積) させるようにすること もできる。

次に、 図 1 5 5のフローチヤ一トを参照して、 購入サーバ 2 1により実行され る、 クライアントコンピュータ 2 7より指定された画像を購入する画像の購入サ 一ビスの処理について説明する。

ステップ S 2 3 0 1において、 クライアントコンピュータ 2 7は、 購入を希望 する画像を指定する情報を購入サーバ 2 1に出力する。 すなわち、 使用者が購入 したい画像を指定する情報として画像を指定する画像 IDが購入サーバ 2 1に出 力される。

ステップ S 2 3 1 1において、 購入サーバ 2 1は、 購入を希望する画像を取得 する。 すなわち、 クライアントコンピュータ 2 7より送信されてきた画像 IDに 対応する画像を、 ネットワーク 1上から読出し取得する。

ステップ S 2 3 1 2 , S 2 3 2 1において、 購入サーバ 2 1の課金処理部 2 1 aと課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8, 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 そ の説明は省略する。

ステップ S 2 3 1 3において、 購入サーバ 2 1は、 ステップ S 2 3 1 1の処理 で取得した画像をクライアントコンピュータ 2 7に送信する。

ステップ S 2 3 0 2において、 クライアントコンピュータ 2 7は、 購入サーバ 2 1より送信されてきた画像を受信し、 記憶する。

尚、 クライアントコンピュータ 2 7は、 使用者の指令に応じて、 購入サーバ 2 1により購入した画像を、 購入サーバ 2 1自身に記憶させたり、 または、 蓄積サ ーバ 1 8に出力させ記憶 (蓄積) させるようにすることもできる。 また、 他のク ライアントコンピュータ 2 7に送信できるようにすることで、 例えば、 画像をプ レゼントするようなこともできる。 さらに、 他の使用者が、 上述のように分離処 理サービス、 合成サービス、 または、 修正サービスにより、 それぞれ分離された 前景成分画像、 背景成分画像、 合成された合成画像、 または、 修正された修正画 像なども購入することが可能となる。

次に、 図 1 5 6のフローチャートを参照して、 売却サーバ 2 2により実行され る、 クライアントコンピュータ 2 7より指定された画像を売却する画像の売却サ 一ビスの処理について説明する。

ステップ S 2 4 0 1において、 クライアントコンピュータ 2 7は、 売却を希望 する画像を指定する情報を購入サーバ 2 1に出力する。 すなわち、 使用者が売却 したい画像が売却サーバ 2 2に出力される。

ステップ S 2 4 1 1において、 売却サーバ 2 2は、 売却を希望する画像を取得 する。 すなわち、 クライアントコンピュータ 2 7より送信されてきた画像を取得 する。

ステップ S 2 4 2 2において、 売却サーバ 2 2は、 売却が希望されている画像 に対して適当な価格を設定する。 価格の設定は、 例えば、 予め使用者により設定 されるものであってもよいし、 ネッ トワーク 1上でオークション形式で設定する ようにしてもよいし、 さらには、 人物が撮像された画像である場合、 撮像されて いる人物が、 例えば、 所定の著名人であるか否かにより設定するような方法でも よい。

ステップ S 2 4 1 3 , S 2 4 3 1において、 売却サーバ 2 2の課金処理部 2 2 aと課金サーバ 2 4は、 売却課金処理を実行する。

ここで、 図 1 5 7のフローチャートを参照して、 売却課金処理について説明す る。 尚、 実際の売却課金処理は、 売却サーバ 2 2と課金サーバ 2 4により実行さ れるが各種の処理に必要な情報は、 クライアントコンピュータ 2 7からも出力さ れているので、 ここでは、 クライアントコンピュータ 2 7の処理についても合わ せて説明する。

ステップ S 2 5 0 1において、 使用者 (画像の売却を依頼する使用者) を識別 する ID情報をネットワーク 1を介して売却サーバ 2 2に送信する。

ステップ S 2 5 1 1において、 売却サーバ 2 2は、 クライアントコンピュータ 2 7より送信されてきた ID情報に基づいて、 売却金額、 および、 売却サーバ 2 2を識別する IDを課金サーバ 2 4に送信する。

ステップ S 2 5 2 1において、 課金サーバ 2 4は、 送信されてきた売却サーバ 2 2を識別する IDに基づいて、 提供者口座を持つ金融サーバ 2 6に対して、 購 入金額を ID情報に対応する顧客口座の金融サーバ 2 5への振り込みの依頼をす る。

ステップ S 2 5 3 1において、 提供者用の金融サーバ 2 6は、 提供者の口座か ら、 顧客の口座が開設されている顧客用の金融サーバ 2 5に売却金額に相当する 金額の振込みを行う。

ここで、 図 1 5 6のフローチャートの説明に戻る。

ステップ S 2 4 2 4において、 売却サーバ 2 2は、 売却が完了したことをクラ イアントコンピュータ 2 7に通知する。 ステップ S 2 4 0 2において、 クライア ントコンピュータ 2 7は、 売却完了の通知を受信する。

尚、 売却サーバ 2 2は、 使用者により売却された画像を、 売却サーバ 2 1 自身 に記憶してもよいし、 または、 蓄積サーバ 1 8に出力させ記憶 (蓄積) させるよ うにすることもできる。 さらに、 上述のようにオークション形式で価格を設定す るような場合、 落札者のクライアントコンピュータ 2 7に送信するようにしても 良い。

次に、 図 1 5 8を参照して、 検索サーバ 2 3について説明する。

検索サーバ 2 3は、 クライアントコンピュータ 2 7などから入力される検索条 件 (画像要求信号) に基づいて、 ネッ トワーク 1上に接続されたカメラ端末装置 1上で撮像されている画像を検索し、 要求画像を出力するものである。 検索条件 としては、 時刻、 季節、 天候、 地域、 場所、 または、 被写体などである。

検索サーバ 2 3の制御部 2 1 6 1は、 検索サーバ 2 3の全体の動作を制御する。 データベース 2 1 6 2には、 ネッ トワーク 1に接続された、 検索サーバ 2 3自身 が認識している各カメラ端末装置 2 8毎のカメラ IDに対応して、 各カメラ端末 装置 2 8の位置データ (カメラ端末装置 2 8備えられた GPS 7 6 bにより取得さ れる) 、 気象データ、 および、 撮像している被写体のデータなどのデータ 2 1 6 2 bがデータベースとして記憶されている。 このデータベース 2 1 6 2の内容は、 制御部 2 1 6 1力 所定の時間間隔で、 通信部 2 1 6 5を制御してネッ トワーク 1を介して各カメラ端末装置 2 8から取得し、 更新されている。

記憶部 2 1 6 3は、 通信部 2 1 6 5力、らネットワーク 1上のカメラ端末装置 2 8より取得した画像を記憶したり、 または、 各種の画像の処理に必要な情報を記 憶する。

要求情報生成部 2 1 6 4は、 ネットワーク 1上のクライアントコンピュータ 2 7などから入力された検索条件を整理して、 実際にデータベース 2 1 6 2上で検 索できる条件を生成する。 すなわち、 例えば、 検索条件として季節が入力された 場合、 各カメラ端末装置 2 8の位置データと時刻演算部 2 1 6 6により演算され る時刻情報により季節を特定することができることになる。 そこで、 要求情報生 成部 2 1 6 4は、 例えば、 「春」 といった検索条件が入力された場合、 今現在の 時刻から季節が 「春」 となっている、 地球上の緯度経度の位置データを生成する。 制御部 2 1 6 1は、 通信部 2 1 6 5を制御して、 この位置データに対応するカメ ラ IDのカメラ端末装置 2 8の撮像画像をネットワーク 1上から読み出すことに より、 「春」 に対応する画像を取得する。

分離処理部 2 1 6 7は、 読込んだ画像に含まれる、 検索目的の画像を分離処理 により取得する。 尚、 分離処理部 2 1 6 7は、 分離処理部 1 1と同様の機能を持 つものである。

次に、 図 1 5 9のフローチヤ一トを参照して、 検索サーバ 2 3により実行され る、 クライアントコンピュータ 2 7より入力された検索条件に基づいて画像を検 索する検索サービスの処理について説明する。

ステップ S 2 6 0 1において、 クライアントコンピュータ 2 7は、 検索条件を 検索サーバ 2 3に出力する。 ステップ S 2 6 1 1において、 検索サーバ 2 3は、 通信部 2 1 6 5により検索条件を受信する。

ステップ S 2 6 1 2 , S 2 6 3 1において、 検索サーバ 2 3の課金処理部 2 3 a と課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8 , 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 そ の説明は省略する。 また、 ステップ S 2 6 1 2 , S 2 6 3 1の処理における課金 処理は、 検索を実行することに対しての料金に関する課金処理である。

ステップ S 2 6 1 3において、 検索サーバ 2 3は、 検索条件に対応した画像を 検索し、 ステップ S 2 6 1 4において対応する画像を対応する画像を呼び出す。 ステップ S 2 6 4 1において、 カメラ端末装置 2 8は、 現在撮像している画像を 検索サーバ 2 3に送信する。

すなわち、 例えば、 図 1 6 0で示すように、 ネットワーク 1に対してクライア ントコンピュータ 2 7— 1乃至 2 7— 5、 検索サーバ 2 3、 および、 カメラ端末 装置 2 8— 1乃至 2 8— 5が接続されていたとする。 このとき、 クライアントコ ンピュータ 2 7— 2力、 使用者により操作されて、 検索条件として、 「人間」 、 「車 J 、 および、 「ビル」 を、 ステップ S 2 6 1の処理で送信してくると、 検 索サーバ 2 3は、 ステップ S 2 6 1 3において、 データベース 2 1 6 2で検索条 件として、 「人間」 、 「車」 、 および、 「ビル」 の被写体を検索する。 すなわち、 図 1 6 0の場合、 検索サーバ 2 3は、 車 2 1 7 2がカメラ ID = 1のカメラ端末 装置 2 8— 1、 人間 2 1 8 3がカメラ: 1D = 2のカメラ端末装置 2 8— 2、 およ び、 ビル 2 2 1 1がカメラ ID - 5のカメラ端末装置 2 8一 5で撮像されている ことを検索し、 ステップ S 2 6 1 4において、 それぞれのカメラ端末装置 2 8よ り画像を取得する。

ステップ S 2 5 1 5において、 検索サーバ 2 3は、 呼び出した画像が分離され ているか、 すなわち、 所望の条件以外の画像 (オブジェク ト) が含まれているか 否かを判定する。

図 1 6 0の場合、 カメラ端末装置 2 8 - 1より送信されてくる画像には、 検索 条件以外の雲 2 1 7 2が含まれており、 カメラ端末装置 2 8— 2より送信されて くる画像には、 検索条件以外の家 2 1 8 1が含まれているので、 これらの画像は、 検索条件に対応する画像が分離されていないことになるので、 その処理は、 ステ ップ S 2 6 1 6に進む。

ステップ S 2 6 1 6において、 分離処理部 2 1 6 7は、 分離処理を実行する。 尚、 分離処理は、 図 1 1 7のフローチヤ一トのステップ S 1 0 1 3の処理と同様 であるので、 その説明は省略する。

ステップ S 2 6 1 7において、 呼び出した画像を合成して、 クライアントコン ピュータ 2 7に送信する。 ステップ S 2 6 0 2において、 クライアントコンビュ ータ 2 7は検索サーバ 2 3より送信されてきた画像を取得する。 ステップ S 2 6 0 3において、 クライアントコンピュータ 2 7は、 受信された画像が所望の画像 であったか否かを判定する。 図 1 6 0で示すように、 ディスプレイ 2 7 a— 1に 表示された画像の場合、 検索条件としての 「人間」 、 「車」 、 および、 「ビル」 は、 人間 2 1 8 2、 車 2 1 7 2、 および、 ビル 2 2 1 1として画像に含まれてい るので、 所望の画像であるので、 ステップ S 2 6 0 4において、 所望の画像であ つたことを、 検索サーバに通知する。

ステップ S 2 6 1 8において、 検索サーバ 2 3は、 クライアントコンピュータ 2 7より送信されてきた通知が所望の画像であつたか否かを判定する。 図 1 6 0 の場合、 所望の画像であったので、 その処理は、 ステップ S 2 6 1 9に進む。 ステップ S 2 6 1 9, S 2 6 3 2において、 検索サーバ 2 3の課金処理部 2 3 aと課金サーバ 2 4は、 課金処理を実行する。 尚、 課金処理については、 図 1 1 8 , 図 1 2 0において、 分離サービスにおける場合と同様の処理であるので、 そ の説明は省略する。 また、 ステップ S 2 6 1 9, S 2 6 3 2の処理における課金 処理は、 検索された画像を送信したことに対しての料金に関する課金処理である また、 ステップ S 2 5 1 5において、 全て検索条件の画像だけであった場合、 ス テツプ S 2 6 1 6の処理は、 スキップされることになる。

ステップ S 2 6 0 3において、 例えば、 クライアントコンピュータ 2 7— 4よ り、 検索条件として 「家」 、 「雲」 、 および、 「顔」 が指定されていたにも関わ らず、 ディスプレイ 2 7 a— 4に表示された画像のように、 家 2 1 8 1、 および、 雲 2 0 7 1のみが表示され、 顔 2 2 0 1が表示されていないとき、 所望の画像で はないことになるので、 その処理は、 ステップ S 2 6 0 5に進み、 所望の画像で はないことを検索サーバ 2 3に送信して、 その処理は終了する。

このとき、 検索サーバ 2 3は、 ステップ S 2 6 1 8において、 所望の画像では なかったことが通知されるので、 その処理は終了する。

この場合、 検索処理に係る料金は支払うことになるが、 検索された画像を送信 したことに対して支払われないことになる。

以上によれば、 ネッ トワークの複数のサーバで分散して、 画像の加工処理を実 行することにより、 その処理速度を向上させることが可能になると共に、 分散し て処理することにより、 使用者により必要とされる処理だけを実行できるように することで、 そのサービスに係るコス トを低減させることが可能となる。

また、 以下のような発明も考えられる。

すなわち、 本発明は、 通信装置および方法、 並びに通信システムに関し、 ネッ トワークの複数のサーバで分散して、 画像の加工処理を実行することにより、 そ の処理速度を向上させると共に、 分散して処理することにより、 使用者により必 要とされる処理だけを実行できるようにすることで、 そのサービスに係るコス ト を低減させ、 さらに、 センサにより検出した信号と現実世界との違いを考慮し、 一度使用した画像データを自らの通信装置に保存しておかなくても、 必要に応じ て呼び出して使用できるようにした通信装置および方法、 並びに通信システムに 関するものとしてもよレ、。

現実世界における事象をセンサで検出し、 画像センサが出力するサンプリング データを処理する技術が広く利用されているが、 例えば、 静止している所定の背 景の前で移動する物体をビデオカメラで撮像して得られる画像には、 物体の移動 速度が比較的速い場合、 動きボケが生じることになる。

上述のような動きボケが生じている画像を暗号化する技術として、 画像の平坦 部に暗号化された画像を認識できないように埋め込む方法や、 画像の相関性を利 用して情報を埋め込む方法が提案されている。

また、 静止している背景の前で物体が移動するとき、 移動する物体の画像自身 の混ざり合いによる動きボケのみならず、 背景の画像と移動する物体の画像との 混ざり合いが生じるが、 従来、 背景の画像と移動する物体の画像との混ざり合い の状態に対応する処理は考えられていなかった。

さらに、 上述のような画像の動きボケ除去や調整では、 シャッターを調整した 後、 ある程度の動きボケを許しており、 その動きボケを視覚効果として利用する こともあるが、 一般に必要以上に動きボケが発生した場合、 この動きボケを除去 するため、 ウィナーフィルタが用いられていた。

また、 従来使用者は、 自らで撮像した、 上述のような画像を自らのコンビユー タ上で選別するなどして、 必要に応じてプリントァゥトするなどしていた。

このため、 これらの混ざり合いの状態に基づいて、 画像を分離、 合成、 または、 修正するなどした画像は、 使用者のコンピュータ上で使用する以外には、 利用さ れることが少なかった。

さらに、 従来使用者は、 動きボケが生じた物体の画像と別の背景画像を合成さ せたいとき、 所望とする背景画像を取得するために、 いくつか検討をつけて探し 出しては、 自らのコンピュータに取り込むなどして、 実際に表示させていた。 このため、 上述のように画像を検索する場合には、 自らが所望とする画像が取 り込まれるまで、 同じ処理を繰り返さなければならないという課題があった。 また、 ネッ トワークを介して使用者の所望とする画像を合成する技術において、 これらの合成画像は、 使用者がネッ トワーク上の蓄積サーバなどに蓄積された画 像を指定したり、 自らがデジタルスチルカメラなどで撮像した画像などの、 複数 の既存の画像を重ね合わせ、 接合するといつた処理により生成されていた。

ところで、 上述のような手法により画像を合成するには、 合成に使用するため の下地となる画像が予め作成されていることが前提となるが、 その撮像技術には、 様々なノウハウがあり、 必ずしも満足のいく下地となる画像そのものを取得、 ま たは、 生成するといつたことは簡単なものではない。 このため、 合成画像の生成 に当たり、 使用者の所望とする下地となる画像データの取得、 または、 生成が容 易にできないという課題があった。

さらに、 上述のような課題から、 使用者が所望とする画像が取得できると、 そ れを使用者が利用するコンピュータ上に、 一度使ったものでも再度入手できない 可能性が高いため、 データの容量として大きな画像データを削除せずに記憶して しまう。 この場合、 画像データのオブジェク トと混合比の特徴量に分離すること でその特徴量に応じて最適な符号化を行うことが提案されているが、 通常、 画像 のォブジェク トと混合比といった特徴量は、 最適な状態で符号化できないほど、 その特徴量が異なるものが多いため、 最適な符号化を実現できず、 効率よく画像 データを記憶していくことができないという課題があった。

本発明はこのような状況に対応して、 画像の混ざり合いの状態を利用して画像 を暗号化させることができるようにさせるようにしてもよレ、。 さらに、 本発明は、 混ざり合いの状態の程度を設定し、 調整することで動きボケを除去し、 鮮明な画 像を得られるようにすると共に、 動きボケが調整された画像と背景画像とを合成 することにより、 より自然な画像の修正を可能にするようにしてもよい。 また、 本発明は、 画像の混ざり合いの状態に基づいて画像を分離、 合成、 または、 修正 するなどした画像をネッ トワーク上で有効に利用できるようにしてもよい。 さら に、 本発明は、 画像の混ざり合いの状態に基づいて画像を分離、 合成、 または、 修正するなどした画像をネッ トワーク上で検索できるようにしてもよレ、。 また、 本発明は、 使用者が利用するコンピュータ上に画像を記憶するのではなく、 所定 の蓄積サーバなどに記憶させ、 記憶されている蓄積サーバの位置情報により必要 に応じて画像を読み出して利用するようにすることで、 一度使用した画像データ を自らのコンピュータに保存しておかなくても、 必要に応じて呼び出して使用す ることを可能にするものにしてもよい。 本発明の第 1のシステムは、 第 1の通信装置が、 それぞれ時間積分効果を有す る所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積 分された画像を構成する光の量に応じて決定される画素値からなる画像データに 基づいて生成される複数の符号化データのうち、 使用者の要求する要求情報を入 力する要求情報入力手段と、 要求情報入力手段により入力された要求情報を、 第 2の通信装置に送信する要求情報送信手段と、 第 2の通信装置より送信されてく る、 要求情報に対応する、 画像データに基づいて生成される符号化データを受信 する符号化データ受信手段とを備え、 第 2の通信装置は、 第 1の通信装置より送 信されてくる要求情報を受信する要求情報受信手段と、 画像データを、 前景ォブ ジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景ォブジ ェク トを構成する背景オブジェク ト成分からなる背景成分画像に分離する分離手 段と、 要求情報受信手段により受信された要求情報に基づいて、 分離手段により 画像が前景成分画像と背景成分画像に分離されるとき生成される符号化データを 第 1の通信装置に送信する符号化データ送信手段とを備えることを特徴とする。 前記第 1の通信装置、 および、 第 2の通信装置は、 要求情報に応じて、 課金に 関連する処理を実行する第 1の課金手段、 および、 第 2の課金手段とを、 各々に さらに設けるようにさせることができる。

前記第 2の課金手段には、 要求情報に応じて使用者の識別子、 第 2の通信装置 の識別子、 および、 要求情報に対応する金額情報を含む課金情報を生成させるよ うにすることができる。

前記第 2の課金手段には、 課金情報に基づいて、 第 1の課金手段と共に使用者 の金融口座に対して課金に関連する処理を実行させるようにすることができる。 前記第 1の通信装置には、 第 1の課金手段には、 課金に関連する処理に使用さ れる使用者毎のボイント数を金額情報に対応する分だけ減算することにより課金 に関連する処理を実行させるようにすることができる。

前記符号化データ送信手段には、 第 1の課金手段と第 2の課金手段により課金 に関連する処理が完了した後、 第 1の通信装置にのみ符号化データを送信させる ようにすることができる。

前記要求情報入力手段には、 使用者の要求情報に加えて、 所定の画像データを 入力させ、 要求情報送信手段には、 要求情報に加えて、 所定の画像データを、 第 2の通信装置に送信し、 要求情報受信手段には、 第 1の通信手段より送信されて くる要求情報に加えて、 所定の画像データを受信させ、 分離手段には、 所定の画 像データを、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成 分画像と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分 画像に分離させ、 符号化データ送信手段には、 要求情報受信手段により受信され た要求情報と、 所定の画像データに基づいて、 分離手段により所定の画像が前景 成分画像と背景成分画像に分離されるとき生成される有意情報としての符号化デ ータを、 第 1の課金手段と第 2の課金手段により課金に関連する処理が完了した 後、 第 1の通信装置にのみ送信させるようにすることができる。

前記第 2の通信装置には、 所定の画像データの前景オブジェク トを構成する前 景ォブジェク ト成分からなる前景領域、 所定の画像データの背景オブジェク トを 構成する背景オブジェク ト成分からなる背景領域、 および、 前景領域と背景領域 が混合された混合領域のうちのいずれか 1つを識別する領域情報を生成する領域 情報生成手段をさらに設けるようにさせることができ、 有意情報には、 領域情報 を含ませ、 符号化データ送信手段には、 要求情報受信手段により受信された要求 情報と、 所定の画像データに基づいて、 分離手段により所定の画像が前景成分画 像と背景成分画像に分離されるとき、 領域情報生成手段により生成される領域情 報としての符号化データを、 第 1の課金手段と第 2の課金手段により課金に関連 する処理が完了した後、 第 1の通信装置にのみ送信させるようにすることができ る。

前記第 2の通信装置には、 所定の画像データの混合領域の前景領域と背景領域 が混合された比率を示すの混合比を生成する混合比生成手段をさらに設けるよう にさせることができ、 有意情報には、 混合比を含ませ、 符号化データ送信手段に は、 要求情報受信手段により受信された要求情報と、 所定の画像データに基づい て、 分離手段により所定の画像が前 成分画像と背景成分画像に分離されるとき、 混合比生成手段により生成される混合比としての符号化データを、 第 1の課金手 段と第 2の課金手段により課金に関連する処理が完了した後、 第 1の通信装置に のみ送信させるようにすることができる。

前記有意情報には、 前景成分画像と背景成分画像を含ませ、 符号化データ送信 手段には、 要求受信手段により受信された要求情報と、 分離手段により所定の画 像が前景成分画像と背景成分画像に分離されるとき、 分離手段により生成された 前景成分画像と背景成分画像としての符号化データを、 第 1の課金手段と第 2の 課金手段により課金に関連する処理が完了した後、 第 1の通信装置にのみ送信さ せるようにすることができる。

前記要求入情報入力手段には、 使用者の要求情報に加えて、 所定の画像データ を識別する画像データ識別子を入力させ、 符号化データ送信手段には、 要求情報 と、 画像データ識別子に対応する所定の画像データに基づいて、 分離手段により 所定の画像が前景成分画像と背景成分画像に分離されるとき生成される有意情報 としての符号化データを、 第 1の課金手段と第 2の課金手段により課金に関連す る処理が完了した後、 第 1の通信装置にのみ符号化データを送信させるようにす ることができる。

前記第 2の通信装置には、 画像データ識別子に対応する所定の画像データの前 景ォブジェク トを構成する前景オブジェク ト成分からなる前景領域、 画像データ 識別子に対応する所定の画像データの背景オブジェク トを構成する背景オブジェ タ ト成分からなる背景領域、 および、 前景領域と背景領域が混合された混合領域 ののうちのいずれか 1つを識別する領域情報を生成する領域情報生成手段をさら に設けるようにさせることができ、 有意情報には、 領域情報を含ませ、 符号化デ ータ送信手段には、 要求情報と、 画像データ識別子に対応する所定の画像データ に基づいて、 分離手段により所定の画像が前景成分画像と背景成分画像に分離さ れるとき、 領域情報生成手段により生成される領域情報としての符号化データを、 第 1の課金手段と第 2の課金手段により課金に関連する処理が完了した後、 第 1 の通信装置にのみ送信させるようにすることができる。

前記第 2の通信装置には、 領域情報に基づいて、 画像データ識別子に対応する 所定の画像データ中の混合領域の混合比を生成する混合比生成手段をさらに設け るようにさせることができ、 有意情報には、 混合比を含ませ、 符号化データ送信 手段は、 要求情報と、 画像データ識別子に対応する所定の画像データに基づいて、 分離手段により所定の画像が前景成分画像と背景成分画像に分離されるとき、 混 合比生成手段により生成される混合比としての符号化データを、 第 1の課金手段 と第 2の課金手段により課金に関連する処理が完了した後、 第 1の通信装置にの み送信させるようにすることができる。

前記有意情報には、 前景成分画像と背景成分画像を含ませ、 符号化データ送信 手段は、 要求情報と、 分離手段により画像データ識別子に対応する所定の画像が 前景成分画像と背景成分画像に分離されるとき、 分離手段により生成された前景 成分画像と背景成分画像としての符号化データを、 第 1の課金手段と第 2の課金 手段により課金に関連する処理が完了した後、 第 1の通信装置にのみ送信させる ようにすることができる。

本発明の第 1の通信システムの通信方法は、 第 1の通信装置の通信方法が、 そ れぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画 素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画 素値からなる画像データに基づいて生成される複数の符号化データのうち、 使用 者の要求する要求情報を入力する要求情報入力ステップと、 要求情報入カステツ プの処理で入力された要求情報を、 第 2の通信装置に送信する要求情報送信ステ ップと、 第 2の通信装置より送信されてくる、 要求情報に対応する、 画像データ に基づいて生成される符号化データを受信する符号化データ受信ステップとを含 み、 第 2の通信装置の通信方法が、 第 1の通信装置より送信されてくる要求情報 を受信する要求情報受信ステップと、 画像データを、 前景オブジェク トを構成す る前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する 背景オブジェク ト成分からなる背景成分画像に分離する分離ステップと、 要求情 報受信ステップの処理で受信された要求情報に基づいて、 分離ステップの処理で 画像が前景成分画像と背景成分画像に分離されるとき生成される符号化データを 第 1の通信装置に送信する符号化データ送信ステップとを含むことを特徴とする。 本発明の第 2の記録媒体のプログラムは、 第 1の通信装置を制御するプロダラ ムが、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得 され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定 される画素値からなる画像データに基づいて生成される複数の符号化データのう ち、 使用者の要求する要求情報の入力を制御する要求情報入力制御ステップと、 要求情報入力制御ステップの処理で入力された要求情報の、 第 2の通信装置への 送信を制御する要求情報送信制御ステップと、 第 2の通信装置より送信されてく る、 要求情報に対応する、 画像データに基づいて生成される符号化データの受信 を制御する符号化データ受信制御ステップとを含み、 第 2の通信装置を制御する プログラムが、 第 1の通信装置より送信されてくる要求情報の受信を制御する要 求情報受信制御ステップと、 画像データの、 前景オブジェク トを構成する前景ォ ブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景ォブ ジュク ト成分からなる背景成分画像との分離を制御する分離制御ステップと、 要 求情報受信制御ステップの処理で受信された要求情報に基づいて、 分離制御ステ ップの処理で画像が前景成分画像と背景成分画像に分離されるとき生成される符 号化データの第 1の通信装置への送信を制御する符号化データ送信制御ステップ とを含むことを特徴とする。

本発明の第 2のプログラムは、 第 1の通信装置をコンピュータに、 それぞれ時 間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素値から なる画像データに基づいて生成される複数の符号化データのうち、 使用者の要求 する要求情報の入力を制御する要求情報入力制御ステップと、 要求情報入力制御 ステップの処理で入力された要求情報の、 第 2の通信装置への送信を制御する要 求情報送信制御ステップと、 第 2の通信装置より送信されてくる、 要求情報に対 応する、 画像データに基づいて生成される符号化データの受信を制御する符号化 データ受信制御ステップとを実行させ、 第 2の通信装置を制御するコンピュータ に、 第 1の通信装置より送信されてくる要求情報の受信を制御する要求情報受信 制御ステップと、 画像データの、 前景オブジェク トを構成する前景オブジェク ト 成分からなる前景成分画像と、 背景オブジェク トを構成する背景ォブジェク ト成 分からなる背景成分画像との分離を制御する分離制御ステップと、 要求情報受信 制御ステツプの処理で受信された要求情報に基づいて、 分離制御ステップの処理 で画像が前景成分画像と背景成分画像に分離されるとき生成される符号化データ の第 1の通信装置への送信を制御する符号化データ送信制御ステップとを含む処 理を実行させることを特徴とする。

本発明の第 2の通信装置は、 それぞれ時間積分効果を有する所定数の画素を含 む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成 する光の量に応じて決定される画素値からなる画像データに基づいて生成される 複数の符号化データのうち、 使用者の要求する要求情報を入力する要求情報入力 手段と、 要求情報入力手段により入力された要求情報を、 他の通信装置に送信す る要求情報送信手段と、 他の通信装置より送信されてくる、 要求情報に対応する、 画像データに基づいて生成される符号化データを受信する符号化データ受信手段 とを備えることを特徴とする。

本発明の第 2の通信方法は、 それぞれ時間積分効果を有する所定数の画素を含 む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成 する光の量に応じて決定される画素値からなる画像データに基づいて生成される 複数の符号化データのうち、 使用者の要求する要求情報を入力する要求情報入力 ステップと、 要求情報入力ステップの処理で入力された要求情報を、 他の通信装 置に送信する要求情報送信ステップと、 他の通信装置より送信されてくる、 要求 情報に対応する、 画像データに基づいて生成される符号化データを受信する符号 化データ受信ステップとを含むことを特徴とする。

本発明の第 3の記録媒体のプログラムは、 それぞれ時間積分効果を有する所定 数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分され た画像を構成する光の量に応じて決定される画素値からなる画像データに基づい て生成される複数の符号化データのうち、 使用者の要求する要求情報の入力を制 御する要求情報入力制御ステップと、 要求情報入力制御ステップの処理で入力さ れた要求情報の、 他の通信装置への送信を制御する要求情報送信制御ステップと、 他の通信装置より送信されてくる、 要求情報に対応する、 画像データに基づいて 生成される符号化データの受信を制御する符号化データ受信制御ステップとを含 むことを特徴とする。

本発明の第 3のプログラムは、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データに基づいて生成され る複数の符号化データのうち、 使用者の要求する要求情報の入力を制御する要求 情報入力制御ステップと、 要求情報入力制御ステップの処理で入力された要求情 報の、 他の通信装置への送信を制御する要求情報送信制御ステップと、 他の通信 装置より送信されてくる、 要求情報に対応する、 画像データに基づいて生成され る符号化データの受信を制御する符号化データ受信制御ステップとをコンビユー タに実行させることを特徴とする。

本発明の第 3の通信装置は、 他の通信装置より送信されてくる要求情報を受信 する要求情報受信手段と、 それぞれ時間積分効果を有する所定数の画素を含む撮 像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する 光の量に応じて決定される画素値からなる画像データを、 前景ォブジェク トを構 成する前景オブジェク ト成分からなる前景成分画像と、 背景ォブジェク トを構成 する背景オブジェク ト成分からなる背景成分画像に分離する分離手段と、 要求情 報受信手段により受信された要求情報に基づいて、 分離手段により画像が前景成 分画像と背景成分画像に分離されるとき生成される符号化データを他の通信装置 に送信する符号化データ送信手段とを備えることを特徴とする。

本発明の第 3の通信方法は、 他の通信装置より送信されてくる要求情報を受信 する要求情報受信ステップと、 それぞれ時間積分効果を有する所定数の画素を含 む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成 する光の量に応じて決定される画素値からなる画像データを、 前景オブジェク ト を構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを 構成する背景オブジェク ト成分からなる背景成分画像に分離する分離ステップと、 要求情報受信ステップの処理で受信された要求情報に基づいて、 分離ステップの 処理で画像が前景成分画像と背景成分画像に分離されるとき生成される符号化デ ータを他の通信装置に送信する符号化データ送信ステップとを含むことを特徴と する。

本発明の第 4の記録媒体のプログラムは、 他の通信装置より送信されてくる要 求情報の受信を制御する要求情報受信制御ステップと、 それぞれ時間積分効果を 有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的 に積分された画像を構成する光の量に応じて決定される画素値からなる画像デー タの、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像 と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像と の分離を制御する分離制御ステップと、 要求情報受信制御ステップの処理で受信 された要求情報に基づいて、 分離制御ステップの処理で画像が前景成分画像と背 景成分画像に分離されるとき生成される符号化データの他の通信装置への送信を 制御する符号化データ送信制御ステップとを含むことを特徴とする。

本発明の第 4のプログラムは、 他の通信装置より送信されてくる要求情報の受 信を制御する要求情報受信制御ステップと、 それぞれ時間積分効果を有する所定 数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分され た画像を構成する光の量に応じて決定される画素値からなる画像データの、 前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景ォ ブジェク トを構成する背景オブジェク ト成分からなる背景成分画像との分離を制 御する分離制御ステップと、 要求情報受信制御ステップの処理で受信された要求 情報に基づいて、 分離制御ステップの処理で画像が前景成分画像と背景成分画像 に分離されるとき生成される符号化データの他の通信装置への送信を制御する符 号化データ送信制御ステップとをコンピュータに実行させることを特徴とする。 本発明の第 2の通信システムは、 第 1の通信装置が、 それぞれ時間積分効果を 有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的 に積分された画像を構成する光の量に応じて決定される画素値からなる画像デー タに基づいて生成される複数の符号化データのうち、 使用者の要求する要求情報 を入力する要求情報入力手段と、 要求情報入力手段により入力された要求情報を、 第 2乃至第 4の通信装置のいずれかに送信する要求情報送信手段と、 第 2乃至第 4の通信装置のいずれかより送信されてくる、 要求情報に対応する、 画像データ に基づいて生成される符号化データを受信する符号化データ受信手段とを備え、 第 2の通信装置が、 第 1の通信装置より送信されてくる要求情報を受信する第 1 の要求情報受信手段と、 画像データを、 前景オブジェク トを構成する前景ォブジ ェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェ ク ト成分からなる背景成分画像に分離する分離手段と、 第 1の要求情報受信手段 により受信された要求情報に基づいて、 分離手段により画像が分離された、 前景 成分画像と背景成分画像を符号化データとして第 1の通信装置に送信する第 1の 符号化データ送信手段とを備え、 第 3の通信装置が、 第 1の通信装置より送信さ れてくる要求情報を受信する第 2の要求情報受信手段と、 画像データの、 前景ォ ブジェク トを構成する前景オブジェク ト成分からなる前景領域、 所定の画像デー タの背景オブジェク トを構成する背景オブジェク ト成分からなる背景領域、 およ ぴ、 前景領域と背景領域が混合された混合領域のうちのいずれか 1つを識別する 領域情報を生成する領域情報生成手段と、 第 2の要求情報受信手段により受信さ れた要求情報に基づいて、 領域情報生成手段により生成された領域情報を符号化 データとして第 1の通信装置に送信する第 2の符号化データ送信手段とを備え、 第 4の通信装置は、 第 1の通信装置より送信されてくる要求情報を受信する第 3 の要求情報受信手段と、 画像データの混合領域の前景領域と背景領域が混合され た比率を示す混合比を生成する混合比生成手段と、 要求情報受信手段により受信 された要求情報に基づいて、 混合比生成手段により生成された混合比を符号化デ ータとして第 1の通信装置に送信する第 3の符号化データ送信手段とを備えるこ とを特徴とする。

本発明の第 2の通信システムの第 1の通信装置の通信方法が、 それぞれ時間積 分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素値からなる画 像データに基づいて生成される複数の符号化データのうち、 使用者の要求する要 求情報を入力する要求情報入力ステップと、 要求情報入力ステップの処理で入力 された要求情報を、 第 2乃至第 4の通信装置のいずれかに送信する要求情報送信 ステップと、 第 2乃至第 4の通信装置のいずれかより送信されてくる、 要求情報 に対応する、 画像データに基づいて生成される符号化データを受信する符号化デ ータ受信ステップとを含み、 第 2の通信装置の通信方法は、 第 1の通信装置より 送信されてくる要求情報を受信する第 1の要求情報受信ステップと、 画像データ を、 前景ォブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景ォブジェク ト成分からなる背景成分画像に分離 する分離ステップと、 第 1の要求情報受信ステップの処理で受信された要求情報 に基づいて、 分離ステップの処理で画像が分離された、 前景成分画像と背景成分 画像を符号化データとして第 1の通信装置に送信する第 1の符号化データ送信ス テツプとを含み、 第 3の通信装置の通信方法は、 第 1の通信装置より送信されて くる要求情報を受信する第 2の要求情報受信ステップと、 画像データの、 前景ォ ブジェク トを構成する前景ォブジェク ト成分からなる前景領域、 所定の画像デー タの背景オブジェク トを構成する背景オブジェク ト成分からなる背景領域、 およ び、 前景領域と背景領域が混合された混合領域のうちのいずれか 1つを識別する 領域情報を生成する領域情報生成ステップと、 第 2の要求情報受信ステップの処 理で受信された要求情報に基づいて、 領域情報生成ステップの処理で生成された 領域情報を符号化データとして第 1の通信装置に送信する第 2の符号化データ送 信ステップとを含み、 第 4の通信装置の通信方法は、 第 1の通信装置より送信さ れてくる要求情報を受信する第 3の要求情報受信ステップと、 画像データの混合 領域の前景領域と背景領域が混合された比率を示す混合比を生成する混合比生成 ステップと、 要求情報受信ステップの処理で受信された要求情報に基づいて、 混 合比生成ステップの処理で生成された混合比を符号化データとして第 1の通信装 置に送信する第 3の符号化データ送信ステップとを含むことを特徴とする。

本発明の第 5の記録媒体のプログラムは、 第 1の通信装置を制御するプログラ ムが、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得 され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定 される画素値からなる画像データに基づいて生成される複数の符号化データのう ち、 使用者の要求する要求情報の入力を制御する要求情報入力制御ステップと、 要求情報入力制御ステツプの処理で入力された要求情報を、 第 2乃至第 4の通信 装置のいずれかへの送信を制御する要求情報送信制御ステップと、 第 2乃至第 4 の通信装置のいずれかより送信されてくる、 要求情報に対応する、 画像データに 基づいて生成される符号化データの受信を制御する符号化データ受信制御ステツ プとを含み、 第 2の通信装置を制御するプログラムが、 第 1の通信装置より送信 されてくる要求情報の受信を制御する第 1の要求情報受信制御ステップと、 画像 データを、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分 画像と、 背景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画 像との分離を制御する分離制御ステップと、 第 1の要求情報受信制御ステップの 処理で受信された要求情報に基づいて、 分離制御ステップの処理で画像が分離さ れた、 前景成分画像と背景成分画像の符号化データとしての第 1の通信装置への 送信を制御する第 1の符号化データ送信制御ステップとを含み、 第 3の通信装置 を制御するプログラムが、 第 1の通信装置より送信されてくる要求情報の受信を 制御する第 2の要求情報受信制御ステップと、 画像データの、 前景オブジェク ト を構成する前景オブジェク ト成分からなる前景領域、 所定の画像データの背景ォ ブジェク トを構成する背景オブジェク ト成分からなる背景領域、 および、 前景領 域と背景領域が混合された混合領域のうちのいずれか 1つを識別する領域情報の 生成を制御する領域情報生成制御ステップと、 第 2の要求情報受信制御ステップ の処理で受信された要求情報に基づいて、 領域情報生成制御ステップの処理で生 成された領域情報の符号化データとしての第 1の通信装置への送信を制御する第 2の符号化データ送信制御ステップとを含み、 第 4の通信装置を制御するプログ ラムが、 第 1の通信装置より送信されてくる要求情報の受信を制御する第 3の要 求情報受信制御ステップと、 画像データの混合領域の前景領域と背景領域が混合 された比率を示す混合比の生成を制御する混合比生成制御ステップと、 要求情報 受信制御ステップの処理で受信された要求情報に基づいて、 混合比生成制御ステ ップの処理で生成された混合比の符号化データとしての第 1の通信装置への送信 を制御する第 3の符号化データ送信制御ステップとを含むことを特徴とする。 本発明の第 5のプログラムは、 第 1の通信装置を制御するコンピュータに、 そ れぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画 素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画 素値からなる画像データに基づいて生成される複数の符号化データのうち、 使用 者の要求する要求情報の入力を制御する要求情報入力制御ステップと、 要求情報 入力制御ステップの処理で入力された要求情報を、 第 2乃至第 4の通信装置のい ずれかへの送信を制御する要求情報送信制御ステップと、 第 2乃至第 4の通信装 置のいずれかより送信されてくる、 要求情報に対応する、 画像データに基づいて 生成される符号化データの受信を制御する符号化データ受信制御ステップとを実 行させ、 第 2の通信装置を制御するコンピュータに、 第 1の通信装置より送信さ れてくる要求情報の受信を制御する第 1の要求情報受信制御ステップと、 画像デ ータを、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画 像と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像 との分離を制御する分離制御ステップと、 第 1の要求情報受信制御ステップの処 理で受信された要求情報に基づいて、 分離制御ステップの処理で画像が分離され た、 前景成分画像と背景成分画像の符号化データとしての第 1の通信装置への送 信を制御する第 1の符号化データ送信制御ステップとを実行させ、 第 3の通信装 置を制御するコンピュータに、 第 1の通信装置より送信されてくる要求情報の受 信を制御する第 2の要求情報受信制御ステップと、 画像データの、 前景オブジェ ク トを構成する前景オブジェク ト成分からなる前景領域、 所定の画像データの背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景領域、 および、 前 景領域と背景領域が混合された混合領域のうちのいずれか 1つを識別する領域情 報の生成を制御する領域情報生成制御ステップと、 第 2の要求情報受信制御ステ ップの処理で受信された要求情報に基づいて、 領域情報生成制御ステップの処理 で生成された領域情報の符号化データとしての第 1の通信装置への送信を制御す る第 2の符号化データ送信制御ステップとを実行させ、 第 4の通信装置を制御す るコンピュータに、 第 1の通信装置より送信されてくる要求情報の受信を制御す る第 3の要求情報受信制御ステップと、 画像データの混合領域の前景領域と背景 領域が混合された比率を示す混合比の生成を制御する混合比生成制御ステップと、 要求情報受信制御ステップの処理で受信された要求情報に基づいて、 混合比生成 制御ステップの処理で生成された混合比の符号化データとしての第 1の通信装置 への送信を制御する第 3の符号化データ送信制御ステップとを実行させることを 特徴とする。

本発明の第 4の通信装置は、 使用者の要求情報を入力する要求情報入力手段と、 要求情報に応じて、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子 によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量 に応じて決定される画素値からなる画像データの前景ォブジェク トを構成する前 景ォブジェク ト成分からなる前景成分画像と、 画像データの背景オブジェク トを 構成する背景オブジェク ト成分からなる背景成分画像を合成し、 合成画像を生成 する合成手段と、 合成手段により生成された合成画像を出力する合成画像出力手 段とを備えることを特徴とする。

前記合成画像出力手段には、 合成画像を、 使用者の通信装置に出力させるよう にすることができる。

前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像、 所定の背景成分画像、 および、 所定の前景成分画像と所定の背景成分画像を合成 する際に使用される有意情報を入力させ、 合成手段には、 要求情報入力手段によ り要求情報と共に入力された所定の前景成分画像と、 所定の背景成分画像を、 有 意情報に基づいて合成させ、 合成画像を生成させるようにすることができる。 前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像、 所定の背景成分画像、 および、 所定の前景成分画像と所定の背景成分画像を合成 する際に使用される有意情報として、 所定の前景成分画像と所定の背景成分画像 の混合領域の混合比を入力させ、 合成手段には、 要求情報入力手段により要求情 報と共に入力された所定の前景成分画像と、 所定の背景成分画像を、 有意情報と しての混合比に基づいて合成させ、 合成画像を生成させるようにすることができ る。

前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像、 所定の背景成分画像、 および、 所定の前景成分画像と所定の背景成分画像を合成 する際に使用される有意情報として、 前景成分画像の動き量、 および、 動き方向 を入力させ、 合成手段には、 要求情報入力手段により要求情報と共に入力された 所定の前景成分画像を、 有意情報としての動き量、 および、 動き方向に基づいて 動きボケを調整して、 所定の背景成分画像と合成させ、 合成画像を生成させるこ とができる。

前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像、 所定の背景成分画像、 および、 所定の前景成分画像と所定の背景成分画像を合成 する際に使用される有意情報として、 前景成分画像の初期位置情報、 動き量、 お よび、 動き方向を入力させ、 合成手段には、 要求情報入力手段により要求情報と 共に入力された所定の前景成分画像を、 有意情報としての動き量、 および、 動き 方向に基づいて動きボケを調整し、 混合比を算出して、 動きボケが調整された所 定の前景成分画像と所定の背景成分画像とを、 算出された混合比により、 有意情 報としての前景成分画像の初期位置情報、 動き量、 および、 動き方向に基づいて 合成させ、 合成画像を生成させることができる。 前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像を 識別する前景成分画像識別子、 所定の背景成分画像を識別する背景成分画像識別 子、 および、 有意情報を入力させ、 合成手段には、 要求情報と共に、 所定の前景 成分画像を識別する前景成分画像識別子、 所定の背景成分画像を識別する背景成 分画像識別子、 および、 有意情報に応じて、 前景成分画像識別子に対応する前景 成分画像と、 背景成分画像識別子に対応する背景成分画像を有意情報に基づいて 合成させ、 合成画像を生成させるようにすることができる。

前記要求情報に応じて、 課金に関連する処理を実行する課金手段をさらにもう けるようにさせることができる。

前記課金手段には、 要求情報に応じて使用者の識別子、 通信装置の識別子、 お よび、 要求情報に対応する金額情報を含む課金情報を生成させるようにすること ができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して課金に関 連する処理を実行させるようにすることができる。

課金手段には、 前記課金に関連する処理に使用される使用者毎の現金に相当す るボイント数を金額情報に対応する分だけ減算することにより課金に関連する処 理を実行させるようにすることができる。

前記出力手段には、 課金手段により課金に関連する処理が完了した後、 課金に 関連する処理が完了した使用者の通信装置に合成画像を出力させるようにするこ とができる。

本発明の第 4の通信方法は、 使用者の要求情報を入力する要求情報入カステツ プと、 要求情報に応じて、 それぞれ時間積分効果を有する所定数の画素を含む撮 像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する 光の量に応じて決定される画素値からなる画像データの前景ォブジ ク トを構成 する前景オブジェク ト成分からなる前景成分画像と、 画像データの背景オブジェ ク トを構成する背景ォブジェク ト成分からなる背景成分画像を合成し、 合成画像 を生成する合成ステップと、 合成ステップの処理で生成された合成画像を出力す る合成画像出力ステップとを含むことを特徴とする。

本発明の第 6の記録媒体のプログラムは、 使用者の要求情報の入力を制御する 要求情報入力制御ステップと、 要求情報に応じて、 それぞれ時間積分効果を有す る所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積 分された画像を構成する光の量に応じて決定される画素値からなる画像データの 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 画 像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分 画像の合成と、 合成画像の生成を制御する合成制御ステップと、 合成制御ステツ プ生成された合成画像の出力を制御する合成画像出力制御ステップとを含むこと を特徴とする。

本発明の第 6のプログラムは、 使用者の要求情報の入力を制御する要求情報入 力制御ステップと、 要求情報に応じて、 それぞれ時間積分効果を有する所定数の 画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画 像を構成する光の量に応じて決定される画素値からなる画像データの前景ォブジ エタ トを構成する前景オブジェク ト成分からなる前景成分画像と、 画像データの 背景ォブジェク トを構成する背景ォブジェク ト成分からなる背景成分画像の合成 と、 合成画像の生成を制御する合成制御ステップと、 合成制御ステップ生成され た合成画像の出力を制御する合成画像出力制御ステップとをコンピュータに実行 させることを特徴とする。

本発明の第 3の通信システムは、 第 1の通信装置が、 使用者の要求情報を入力 する要求情報入力手段と、 要求情報入力手段により入力された要求情報を第 2の 通信装置に送信する要求情報送信手段と、 要求情報に応じて、 第 2の通信装置よ り送信されてくる合成画像を受信する合成画像受信手段とを備え、 第 2の通信装 置が、 第 1の通信装置より送信されてくる要求情報を受信する要求情報受信手段 と、 要求情報に応じて、 それぞれ時間積分効果を有する所定数の画素を含む撮像 素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光 の量に応じて決定される画素値からなる画像データの前景オブジェク トを構成す る前景オブジェク ト成分からなる前景成分画像と、 画像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像を合成し、 合成画像を 生成する合成手段と、 合成手段により生成された合成画像を、 第 1の通信装置に 送信する合成画像送信手段とを備えることを特徴とする。

前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像、 所定の背景成分画像、 および、 所定の前景成分画像と所定の背景成分画像を合成 する際に使用される有意情報を入力させ、 合成手段には、 要求情報入力手段によ り要求情報と共に入力された所定の前景成分画像と、 所定の背景成分画像を、 有 意情報に基づいて合成させ、 合成画像を生成させるようにすることができる。 前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像、 所定の背景成分画像、 および、 所定の前景成分画像と所定の背景成分画像を合成 する際に使用される有意情報として、 所定の前景成分画像と所定の背景成分画像 の混合領域の混合比を入力させ、 合成手段には、 要求情報入力手段により要求情 報と共に入力された所定の前景成分画像と、 所定の背景成分画像を、 有意情報と しての混合比に基づいて合成させ、 合成画像を生成させるようにすることができ る。

前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像、 所定の背景成分画像、 および、 所定の前景成分画像と所定の背景成分画像を合成 する際に使用される有意情報として、 前景成分画像の動き量、 および、 動き方向 を入力させ、 合成手段には、 要求情報入力手段により要求情報と共に入力された 所定の前景成分画像を、 有意情報としての動き量、 および、 動き方向に基づいて 動きボケを調整して、 前景成分画像と合成させ、 合成画像を生成させるようにす ることができる。

前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像、 所定の背景成分画像、 および、 所定の前景成分画像と所定の背景成分画像を合成 する際に使用される有意情報として、 前景成分画像の初期位置情報、 動き量、 お よび、 動き方向を入力させ、 合成手段は、 要求情報入力手段により要求情報と共 に入力された所定の前景成分画像を、 有意情報としての動き量、 および、 動き方 向に基づいて動きボケを調整し、 混合比を算出して、 動きボケが調整された所定 の前景成分画像と所定の背景成分画像とを、 算出された混合比により、 有意情報 としての前景成分画像の初期位置情報、 動き量、 および、 動き方向に基づいて合 成させ、 合成画像を生成させるようにすることができる。

前記要求情報入力手段には、 使用者の要求情報と共に、 所定の前景成分画像を 識別する前景成分画像識別子、 所定の背景成分画像を識別する背景成分画像識別 子、 および、 有意情報を入力させ、 合成手段には、 要求情報と共に、 所定の前景 成分画像を識別する前景成分画像識別子、 所定の背景成分画像を識別する背景成 分画像識別子、 および、 有意情報に応じて、 前景成分画像識別子に対応する前景 成分画像と、 背景成分画像識別子に対応する背景成分画像を有意情報に基づいて 合成させ、 合成画像を生成させるようにすることができる。

前記要求情報に応じて、 課金に関連する処理を実行する課金手段をさらにもう けるようにさせることができる。

前記課金手段には、 要求情報に応じて使用者の識別子、 通信装置の識別子、 お よび、 要求情報に対応する金額情報を含む課金情報を生成させるようにすること ができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して課金に関 連する処理を実行させるようにすることができる。

課金手段には、 前記課金に関連する処理に使用される使用者毎のポイント数を 金額情報に対応する分だけ減算することにより課金に関連する処理を実行させる ようにすることができる。

前記出力手段には、 課金手段により課金に関連する処理が完了した後、 課金に 関連する処理が完了した使用者の通信装置に合成画像を出力させるようにするこ とができる。

本発明の第 3の通信システムの通信方法は、 第 1の通信装置の通信方法が、 使 用者の要求情報を入力する要求情報入力ステップと、 要求情報入力ステップの処 理で入力された要求情報を第 2の通信装置に送信する要求情報送信ステップと、 要求情報に応じて、 第 2の通信装置より送信されてくる合成画像を受信する合成 画像受信ステップとを含み、 第 2の通信装置の通信方法が、 第 1の通信装置より 送信されてくる要求情報を受信する要求情報受信ステップと、 要求情報に応じて、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される 画素値からなる画像データの前景オブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像と、 画像データの背景オブジェク トを構成する背景ォブジ ェク ト成分からなる背景成分画像を合成し、 合成画像を生成する合成ステップと、 合成ステップの処理で生成された合成画像を、 第 1の通信装置に送信する合成画 像送信ステップとを含むことを特徴とする。

本発明の第 7の記録媒体のプログラムは、 第 1の通信装置を制御するプロダラ ムが、 使用者の要求情報の入力を制御する要求情報入力制御ステップと、 要求情 報入力制御ステップの処理で入力された要求情報の第 2の通信装置への送信を制 御する要求情報送信制御ステップと、 要求情報に応じて、 第 2の通信装置より送 信されてくる合成画像の受信を制御する合成画像受信制御ステップとを含み、 第 2の通信装置を制御するプログラムは、 第 1の通信装置より送信されてくる要求 情報の受信を制御する要求情報受信制御ステップと、 要求情報に応じて、 それぞ れ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎 に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素値 からなる画像データの前景オブジェク トを構成する前景ォブジェク ト成分からな る前景成分画像と、 画像データの背景オブジェク トを構成する背景オブジェク ト 成分からなる背景成分画像の合成と、 合成画像の生成を制御する合成制御ステッ プと、 合成制御ステップの処理で生成された合成画像の、 第 1の通信装置への送 信を制御する合成画像送信制御ステップとを含むことを特徴とする。

本発明の第 7のプログラムは、 第 1の通信装置を制御するコンピュータに、 使 用者の要求情報の入力を制御する要求情報入力制御ステップと、 要求情報入力制 御ステップの処理で入力された要求情報の第 2の通信装置への送信を制御する要 求情報送信制御ステップと、 要求情報に応じて、 第 2の通信装置より送信されて くる合成画像の受信を制御する合成画像受信制御ステップとを実行させ、 第 2の 通信装置を制御するコンピュータに、 第 1の通信装置より送信されてくる要求情 報の受信を制御する要求情報受信制御ステップと、 要求情報に応じて、 それぞれ 時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素値から なる画像データの前景オブジェク トを構成する前景オブジェク ト成分からなる前 景成分画像と、 画像データの背景オブジェク トを構成する背景オブジェク ト成分 からなる背景成分画像の合成と、 合成画像の生成を制御する合成制御ステップと、 合成制御ステップの処理で生成された合成画像の、 第 1の通信装置への送信を制 御する合成画像送信制御ステップとを実行させることを特徴とする。

本発明の第 5の通信装置は、 使用者の要求情報を入力する要求情報入力手段と、 要求情報入力手段により入力された要求情報を他の通信装置に送信する要求情報 送信手段と、 要求情報に応じて、 他の通信装置より送信されてくる合成画像を受 信する合成画像受信手段とを備えることを特徴とする。

本発明の第 5の通信方法は、 使用者の要求情報を入力する要求情報入カステツ プと、 要求情報入力ステップの処理で入力された要求情報を他の通信装置に送信 する要求情報送信ステップと、 要求情報に応じて、 他の通信装置より送信されて くる合成画像を受信する合成画像受信ステップとを含むことを特徴とする。

本発明の第 8の記録媒体のプログラムは、 使用者の要求情報の入力を制御する 要求情報入力制御ステップと、 要求情報入力制御ステップの処理で入力された要 求情報の他の通信装置への送信を制御する要求情報送信制御ステップと、 要求情 報に応じて、 他の通信装置より送信されてくる合成画像の受信を制御する合成画 像受信制御ステップとを含むことを特徴とする。

本発明の第 8のプログラムは、 使用者の要求情報の入力を制御する要求情報入 力制御ステップと、 要求情報入力制御ステツプの処理で入力された要求情報の他 の通信装置への送信を制御する要求情報送信制御ステップと、 要求情報に応じて、 他の通信装置より送信されてくる合成画像の受信を制御する合成画像受信制御ス テツプとを実行することを特徴とする。

本発明の第 6の通信装置は、 他の通信装置より送信されてくる要求情報を受信 する要求情報受信手段と、 要求情報に応じて、 それぞれ時間積分効果を有する所 定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分さ れた画像を構成する光の量に応じて決定される画素値からなる画像データの前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 画像デ ータの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像 を合成し、 合成画像を生成する合成手段と、 合成手段により生成された合成画像 を、 他の通信装置に送信する合成画像送信手段とを備えることを特徴とする。 本発明の第 6の通信方法は、 他の通信装置より送信されてくる要求情報を受信 する要求情報受信ステップと、 要求情報に応じて、 それぞれ時間積分効果を有す る所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積 分された画像を構成する光の量に応じて決定される画素値からなる画像データの 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 画 像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分 画像を合成し、 合成画像を生成する合成ステップと、 合成ステップの処理で生成 された合成画像を、 他の通信装置に送信する合成画像送信ステップとを含むこと を特徴とする。

本発明の第 9の記録媒体のプログラムは、 他の通信装置より送信されてくる要 求情報の受信を制御する要求情報受信制御ステップと、 要求情報に応じて、 それ ぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素 毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素 値からなる画像データの前景オブジェク トを構成する前景オブジェク ト成分から なる前景成分画像と、 画像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像を合成し、 合成画像の生成を制御する合成制御ステ ップと、 合成制御ステップの処理で生成された合成画像の、 他の通信装置への送 信を制御する合成画像送信制御ステップとを含むことを特徴とする。

本発明の第 9のプログラムは、 他の通信装置より送信されてくる要求情報の受 信を制御する要求情報受信制御ステップと、 要求情報に応じて、 それぞれ時間積 分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素値からなる画 像データの前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分 画像と、 画像データの背景オブジェク トを構成する背景オブジェク ト成分からな る背景成分画像を合成し、 合成画像の生成を制御する合成制御ステップと、 合成 制御ステップの処理で生成された合成画像の、 他の通信装置への送信を制御する 合成画像送信制御ステツプとを実行させることを特徴とする。

本発明の第 7の通信装置は、 使用者の要求情報を入力する要求情報入力手段と、 要求情報に基づいて、 それぞれ時間積分効果を有する所定数の画素を含む撮像素 子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の 量に応じて決定される画素値からなる画像データの、 前景オブジェク トを構成す る前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する 背景オブジェク ト成分からなる背景成分画像との混合の比率を示す混合比を推定 する混合比推定手段と、 混合比に基づいて、 画像データを、 前景成分画像と、 背 景成分画像に分離する分離手段と、 分離手段により分離された前景成分画像と、 任意の背景成分画像、 または、 分離手段により分離された背景成分画像と、 任意 の前景成分画像とを、 所定の混合比で合成し、 合成画像を生成する合成手段と、 合成手段により合成された合成画像を出力する出力手段とを備えることを特徴と する。

前記要求情報入力手段には、 使用者の要求情報に加えて、 前景成分画像に対す る動きボケを付加する動きボケ調整量をさらに入力させ、 前景成分画像に対して、 動きボケ調整量に対応する動きボケを付加する動きボケ付加手段をさらに設ける ようにさせることができ、 合成手段には、 動きボケ付加手段により動きボケが付 加された前景成分画像と、 任意の背景成分画像とを、 所定の混合比で合成し、 合 成画像を生成させるようにすることができる。

前記要求情報入力手段には、 使用者の要求情報に加えて、 任意の背景成分画像 をさらに入力させ、 合成手段には、 前景成分画像と、 任意の背景成分画像とを、 混合比推定手段により推定された混合比で合成させ、 合成画像を生成させるよう にすることができる。

前記要求情報に応じて、 課金に関連する処理を実行する課金手段をさらにもう けるようにさせることができる。

前記課金手段には、 要求情報に応じて使用者の識別子、 通信装置の識別子、 お よび、 要求情報に対応する金額情報を含む課金情報を生成させるようにすること ができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して課金に関 連する処理を実行させるようにすることができる。

課金手段には、 前記課金に関連する処理に使用される使用者毎のボイント数を 金額情報に対応する分だけ減算することにより課金に関連する処理を実行させる ようにすることができる。

前記出力手段には、 課金手段により課金に関連する処理が完了した後、 課金に 関連する処理が完了した使用者の通信装置に合成画像を出力させるようにするこ とができる。

前記要求情報入力手段には、 使用者の要求情報に加えて、 所定の画像データを 入力させ、 出力手段には、 合成手段により合成された合成画像を、 課金手段によ り課金に関連する処理が完了した後、 課金に関連する処理が完了した使用者の通 信装置に出力させるようにすることができる。

本発明の第 7の通信方法は、 使用者の要求情報を入力する要求情報入カステツ プと、 要求情報に基づいて、 それぞれ時間積分効果を有する所定数の画素を含む 撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成す る光の量に応じて決定される画素値からなる画像データの、 前景オブジェク トを 構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構 成する背景オブジェク ト成分からなる背景成分画像との混合の比率を示す混合比 を推定する混合比推定ステップと、 混合比に基づいて、 画像データを、 前景成分 画像と、 背景成分画像に分離する分離ステップと、 分離ステップの処理で分離さ れた前景成分画像と、 任意の背景成分画像、 または、 分離ステップの処理で分離 された背景成分画像と、 任意の前景成分画像とを、 所定の混合比で合成し、 合成 画像を生成する合成ステップと、 合成ステップの処理で合成された合成画像を出 力する出力ステップとを含むことを特徴とする。

本発明の第 1 ◦の記録媒体のプログラムは、 使用者の要求情報の入力を制御す る要求情報入力制御ステップと、 要求情報に基づいて、 それぞれ時間積分効果を 有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的 に積分された画像を構成する光の量に応じて決定される画素値からなる画像デー タの、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像 と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像と の混合の比率を示す混合比の推定を制御する混合比推定制御ステップと、 混合比 に基づいて、 画像データの、 前景成分画像と、 背景成分画像への分離を制御する 分離制御ステップと、 分離制御ステップの処理で分離された前景成分画像と、 任 意の背景成分画像、 または、 分離制御ステップの分離された背景成分画像と、 任 意の前景成分画像との、 所定の混合比での合成と、 合成画像の生成を制御する合 成制御ステップと、 合成制御ステップの処理で合成された合成画像の出力を制御 する出力制御ステップとを含むことを特徴とする。

本発明の第 1 0のプログラムは、 使用者の要求情報の入力を制御する要求情報 入力制御ステップと、 要求情報に基づいて、 それぞれ時間積分効果を有する所定 数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分され た画像を構成する光の量に応じて決定される画素値からなる画像データの、 前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景ォ ブジェク トを構成する背景オブジェク ト成分からなる背景成分画像との混合の比 率を示す混合比の推定を制御する混合比推定制御ステップと、 混合比に基づいて、 画像データの、 前景成分画像と、 背景成分画像への分離を制御する分離制御ステ ップと、 分離制御ステップの処理で分離された前景成分画像と、 任意の背景成分 画像、 または、 分離制御ステップの分離された背景成分画像と、 任意の前景成分 画像との、 所定の混合比での合成と、 合成画像の生成を制御する合成制御ステツ プと、 合成制御ステップの処理で合成された合成画像の出力を制御する出力制御 ステップとをコンピュータに実行させることを特徴とする。

本発明の第 4の通信システムは、 第 1の通信装置が、 使用者の要求情報を入力 する要求情報入力手段と、 要求情報入力手段により入力された要求情報を第 2の 送信装置に送信する要求情報送信手段と、 第 2の通信装置より送信されてくる合 成画像を受信する受信手段とを備え、 第 2の通信装置が、 第 1の送信装置より送 信されてくる要求情報を受信する要求情報受信手段と、 要求情報に基づいて、 そ れぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画 素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画 素値からなる画像データの、 前景オブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェク ト成分か らなる背景成分画像との混合の比率を示す混合比を推定する混合比推定手段と、 混合比に基づいて、 画像データを、 前景成分画像と、 背景成分画像に分離する分 離手段と、 分離手段により分離された前景成分画像と、 任意の背景成分画像、 ま たは、 分離手段により分離された背景成分画像と、 任意の前景成分画像とを、 所 定の混合比で合成し、 合成画像を生成する合成手段と、 合成手段により合成され た合成画像を第 1の通信装置に送信する合成画像送信手段とを備えることを特徴 とする。

前記要求情報入力手段には、 使用者の要求情報に加えて、 前景成分画像に対す る動きボケを付加する動きボケ調整量をさらに入力させ、 第 2の通信装置には、 前景成分画像に対して、 動きボケ調整量に対応する動きボケを付加する動きボケ 付加手段をさらに設けるようにさせることができ、 合成手段には、 動きボケ付加 手段により動きボケが付加された前景成分画像と、 任意の背景成分画像とを、 所 定の混合比で合成、 合成画像を生成させるようにすることができる。

前記要求情報入力手段には、 使用者の要求情報に加えて、 任意の背景成分画像 をさらに入力させ、 合成手段には、 前景成分画像と、 任意の背景成分画像とを、 混合比推定手段により推定された混合比で合成させ、 合成画像を生成させるよう にすることができる。

前記第 2の通信装置には、 要求情報に応じて、 課金に関連する処理を実行する 課金手段をさらに設けるようにさせることができる。

前記課金手段には、 要求情報に応じて使用者の識別子、 第 2の通信装置の識別 子、 および、 要求情報に対応する金額情報を含む課金情報を生成させるようにす ることができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して課金に関 連する処理を実行させるようにすることができる。

前記第 2の通信装置の課金手段には、 課金に関連する処理に使用される使用者 毎のポイント数を金額情報に対応する分だけ減算することにより課金に関連する 処理を実行させるようにすることができる。

前記合成画像送信手段には、 課金手段により課金に関連する処理が完了した後、 課金に関連する処理が完了した使用者の第 1の通信装置に合成画像を送信させる ようにすることができる。

前記要求情報入力手段には、 使用者の要求情報に加えて、 所定の画像データを 入力させ、 出力手段には、 合成手段により合成された合成画像を、 課金手段によ り課金に関連する処理が完了した後、 課金に関連する処理が完了した使用者の第 1の通信装置に出力させるようにすることができる。

本発明の第 4の通信システムの通信方法は、 第 1の通信装置の通信方法が、 使 用者の要求情報を入力する要求情報入力ステップと、 要求情報入力ステップの処 理で入力された要求情報を第 2の送信装置に送信する要求情報送信ステップと、 第 2の通信装置より送信されてくる合成画像を受信する受信ステップとを含み、 第 2の通信装置の通信方法が、 第 1の送信装置より送信されてくる要求情報を受 信する要求情報受信ステップと、 要求情報に基づいて、 それぞれ時間積分効果を 有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的 に積分された画像を構成する光の量に応じて決定される画素値からなる画像デー タの、 前景オブジェク トを構成する前景ォブジェク ト成分からなる前景成分画像 と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像と の混合の比率を示す混合比を推定する混合比推定ステップと、 混合比に基づいて、 画像データを、 前景成分画像と、 背景成分画像に分離する分離ステップと、 分離 ステップの処理で分離された前景成分画像と、 任意の背景成分画像、 または、 分 離ステップの処理で分離された背景成分画像と、 任意の前景成分画像とを、 所定 の混合比で合成し、 合成画像を生成する合成ステップと、 合成ステップの処理で 合成された合成画像を第 1の通信装置に送信する合成画像送信ステップとを含む ことを特徴とする。

本発明の第 1 1の記録媒体のプログラムは、 第 1の通信装置を制御するプログ ラムが、 使用者の要求情報の入力を制御する要求情報入力制御ステップと、 要求 情報入力ステップの処理で入力された要求情報の第 2の送信装置への送信を制御 する要求情報送信制御ステップと、 第 2の通信装置より送信されてくる合成画像 の受信を制御する受信制御ステップとを含み、 第 2の通信装置を制御するプログ ラムが、 第 1の送信装置より送信されてくる要求情報の受信を制御する要求情報 受信制御ステップと、 要求情報に基づいて、 それぞれ時間積分効果を有する所定 数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分され た画像を構成する光の量に応じて決定される画素値からなる画像データの、 前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景ォ ブジェク トを構成する背景ォブジェク ト成分からなる背景成分画像との混合の比 率を示す混合比の推定を制御する混合比推定制御ステップと、 混合比に基づいて、 画像データの、 前景成分画像と、 背景成分画像への分離を制御する分離制御ステ ップと、 分離制御ステップの処理で分離された前景成分画像と、 任意の背景成分 画像、 または、 分離ステップの処理で分離された背景成分画像と、 任意の前景成 分画像との、 所定の混合比での合成と、 合成画像の生成を制御する合成制御ステ ップと、 合成制御ステップの処理で合成された合成画像の第 1の通信装置への送 信を制御する合成画像送信制御ステップとを含むことを特徴とする。

本発明の第 1 1のプログラムは、 第 1の通信装置を制御するコンピュータに、 使用者の要求情報の入力を制御する要求情報入力制御ステップと、 要求情報入力 ステツプの処理で入力された要求情報の第 2の送信装置への送信を制御する要求 情報送信制御ステップと、 第 2の通信装置より送信されてくる合成画像の受信を 制御する受信制御ステップとを実行させ、 第 2の通信装置を制御するコンビユー タに、 第 1の送信装置より送信されてくる要求情報の受信を制御する要求情報受 信制御ステップと、 要求情報に基づいて、 それぞれ時間積分効果を有する所定数 の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された 画像を構成する光の量に応じて決定される画素値からなる画像データの、 前景ォ ブジェク トを構成する前景ォブジェク ト成分からなる前景成分画像と、 背景ォブ ジェク トを構成する背景オブジェク ト成分からなる背景成分画像との混合の比率 を示す混合比の推定を制御する混合比推定制御ステップと、 混合比に基づいて、 画像データの、 前景成分画像と、 背景成分画像への分離を制御する分離制御ステ ップと、 分離制御ステップの処理で分離された前景成分画像と、 任意の背景成分 画像、 または、 分離ステップの処理で分離された背景成分画像と、 任意の前景成 分画像との、 所定の混合比での合成と、 合成画像の生成を制御する合成制御ステ ップと、 合成制御ステップの処理で合成された合成画像の第 1の通信装置への送 信を制御する合成画像送信制御ステップとを実行させることを特徴とする。

本発明の第 8の通信装置は、 使用者の要求情報を入力する要求情報入力手段と、 要求情報入力手段により入力された要求情報を他の通信装置に送信する要求情報 送信手段と、 他の通信装置より送信されてくる合成画像を受信する受信手段とを 備えることを特徴とする。

本発明の第 8の通信方法は、 使用者の要求情報を入力する要求情報入カステツ プと、 要求情報入力ステップの処理で入力された要求情報を他の通信装置に送信 する要求情報送信ステップと、 他の通信装置より送信されてくる合成画像を受信 する受信ステップとを含むことを特徴とする。

本発明の第 1 2の記録媒体のプログラムは、 使用者の要求情報の入力を制御す る要求情報入力制御ステップと、 要求情報入力制御ステップの処理で入力が制御 された要求情報の他の通信装置への送信を制御する要求情報送信制御ステップと、 他の通信装置より送信されてくる合成画像の受信を制御する受信制御ステップと を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されて いる。

本発明の第 1 2のプログラムは、 使用者の要求情報の入力を制御する要求情報 入力制御ステップと、 要求情報入力制御ステップの処理で入力が制御された要求 情報の他の通信装置への送信を制御する要求情報送信制御ステップと、 他の通信 装置より送信されてくる合成画像の受信を制御する受信制御ステップとをコンビ ユータに実行させることを特徴とする。

本発明の第 9の通信装置は、 他の通信装置より送信されてくる要求情報を受信 する要求情報受信手段と、 要求情報に基づいて、 それぞれ時間積分効果を有する 所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分 された画像を構成する光の量に応じて決定される画素値からなる画像データの、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画像との混合 の比率を示す混合比を推定する混合比推定手段と、 混合比に基づいて、 画像デー タを、 前景成分画像と、 背景成分画像に分離する分離手段と、 分離手段により分 離された前景成分画像と、 任意の背景成分画像、 または、 分離手段により分離さ れた背景成分画像と、 任意の前景成分画像とを、 所定の混合比で合成し、 合成画 像を生成する合成手段と、 合成手段により合成された合成画像を他の通信装置に 送信する合成画像送信手段とを備えることを特徴とする。

本発明の第 9の通信方法は、 他の通信装置より送信されてくる要求情報を受信 する要求情報受信ステップと、 要求情報に基づいて、 それぞれ時間積分効果を有 する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に 積分された画像を構成する光の量に応じて決定される画素値からなる画像データ の、 前景オブジェク トを構成する前景ォブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像との混 合の比率を示す混合比を推定する混合比推定ステップと、 混合比に基づいて、 画 像データを、 前景成分画像と、 背景成分画像に分離する分離ステップと、 分離ス テツプの処理で分離された前景成分画像と、 任意の背景成分画像、 または、 分離 ステップの処理で分離された背景成分画像と、 任意の前景成分画像とを、 所定の 混合比で合成し、 合成画像を生成する合成ステップと、 合成ステップの処理で合 成された合成画像を他の通信装置に送信する合成画像送信ステップとを含むこと を特徴とする。

本発明の第 1 3の記録媒体のプログラムは、 他の通信装置より送信されてくる 要求情報の受信を制御する要求情報受信制御ステップと、 要求情報に基づいて、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される 画素値からなる画像データの、 前景ォブジェク トを構成する前景オブジェク ト成 分からなる前景成分画像と、 背景オブジェク トを構成する背景ォブジェク ト成分 からなる背景成分画像との混合の比率を示す混合比の推定を制御する混合比推定 制御ステップと、 混合比に基づいて、 画像データを、 前景成分画像と、 背景成分 画像との分離を制御する分離制御ステップと、 分離制御ステップの処理で分離さ れた前景成分画像と、 任意の背景成分画像、 または、 分離制御ステップの処理で 分離された背景成分画像と、 任意の前景成分画像との、 所定の混合比での合成と、 合成画像の生成を制御する合成制御ステップと、 合成制御ステップの処理で合成 された合成画像の他の通信装置への送信を制御する合成画像送信制御ステップと を含むことを特徴とする。

本発明の第 1 3のプログラムは、 他の通信装置より送信されてくる要求情報の 受信を制御する要求情報受信制御ステップと、 要求情報に基づいて、 それぞれ時 間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素値から なる画像データの、 前景ォブジェク トを構成する前景オブジェク ト成分からなる 前景成分画像と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背 景成分画像との混合の比率を示す混合比の推定を制御する混合比推定制御ステツ プと、 混合比に基づいて、 画像データを、 前景成分画像と、 背景成分画像との分 離を制御する分離制御ステップと、 分離制御ステップの処理で分離された前景成 分画像と、 任意の背景成分画像、 または、 分離制御ステップの処理で分離された 背景成分画像と、 任意の前景成分画像との、 所定の混合比での合成と、 合成画像 の生成を制御する合成制御ステップと、 合成制御ステップの処理で合成された合 成画像の他の通信装置への送信を制御する合成画像送信制御ステップとをコンビ ユータに実行させることを特徴とする。

本発明の第 1 0の通信装置は、 使用者が要求する画像を識別する識別子を入力 する画像識別子入力手段と、 それぞれ時間積分効果を有する所定数の画素を含む 撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成す る光の量に応じて決定される画素値からなる画像データが分離された前景ォブジ ェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景ォ ブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少な くとも 1画像以上の画像により構成される画像を記憶する記憶手段と、 記憶手段 に記憶された画像のうち、 画像識別子入力手段により入力された画像識別子に対 応する画像を検索する検索手段と、 検索手段により検索された画像を、 使用者の 通信装置に出力する出力手段と、 検索手段により検索された画像に応じて、 課金 に関連する処理を実行する課金手段とを備えることを特徴とする。

前記画像を、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景 成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる 背景成分画像に分離する分離手段をさらに設けるようにさせることができ、 記憶 手段には、 分離手段により分離された前景成分画像と背景成分画像を記憶させる ようにすることができる。

前記画像が分離された前景ォブジェク トを構成する前景オブジェク ト成分から なる前景成分画像と、 背景オブジェク トを構成する背景オブジェク ト成分からな る背景成分画像を所定の混合の比率で合成し、 合成画像を生成する合成画像生成 手段をさらに設けるようにさせることができ、 記憶手段には、 合成画像生成手段 により生成された合成画像を記憶させるようにすることができる。

前記画像を、 前景ォブジェク トを構成する前景オブジェク ト成分からなる前景 成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる 背景成分画像に分離する分離手段と、 分離手段により分離された前景成分画像と、 背景成分画像を所定の混合比で合成し、 合成画像を生成する合成画像生成手段を さらに設けるようにさせることができ、 記憶手段には、 合成画像生成手段により 生成された合成画像を記憶させるようにすることができる。

前記課金手段には、 検索手段により検索された画像に応じて使用者の識別子、 通信装置の識別子、 および、 検索手段により検索された画像に対応する金額情報 を含む課金情報を生成させるようにすることができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して課金に関 連する処理を実行させるようにすることができる。

課金手段には、 前記課金に関連する処理に使用される使用者毎のボイント数を 金額情報に対応する分だけ減算することにより課金に関連する処理を実行させる ようにすることができる。

前記出力手段には、 課金手段により課金に関連する処理が完了した後、 画像を 課金に関連する処理が完了した使用者の通信装置に出力させるようにすることが できる。

本発明の第 1 0の通信方法は、 使用者が要求する画像を識別する識別子を入力 する画像識別子入力ステップと、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データが分離された前景ォ ブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なくとも 1画像以上の画像により構成される画像を記憶する記憶ステップと、 記憶ステップの処理で記憶された画像のうち、 画像識別子入力ステップの処理で 入力された画像識別子に対応する画像を検索する検索ステップと、 検索ステップ の処理で検索された画像を、 使用者の通信装置に出力する出力ステップと、 検索 ステップの処理で検索された画像に応じて、 課金に関連する処理を実行する課金 ステップとを含むことを特徴とする。

本発明の第 1 4の記録媒体のプログラムは、 使用者が要求する画像を識別する 識別子の入力を制御する画像識別子入力制御ステップと、 それぞれ時間積分効果 を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間 的に積分された画像を構成する光の量に応じて決定される画素値からなる画像デ ータが分離された前景オブジェク トを構成する前景オブジェク ト成分からなる前 景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からな る背景成分画像のうち、 少なくとも 1画像以上の画像により構成される画像の記 憶を制御する記憶制御ステップと、 記憶制御ステップの処理で記憶が制御された 画像のうち、 画像識別子入力制御ステップの処理で入力が制御された画像識別子 に対応する画像の検索を制御する検索制御ステップと、 検索制御ステップの処理 で検索が制御された画像を、 使用者の通信装置に出力する出力ステップと、 検索 制御ステップの処理で検索が制御された画像に応じた、 課金に関連する処理の実 行を制御する課金制御ステップとを含むことを特徴とする。

本発明の第 1 4のプログラムは、 使用者が要求する画像を識別する識別子の入 力を制御する画像識別子入力制御ステップと、 それぞれ時間積分効果を有する所 定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分さ れた画像を構成する光の量に応じて決定される画素値からなる画像データが分離 された前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像- および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画 像のうち、 少なくとも 1画像以上の画像により構成される画像の記憶を制御する 記憶制御ステップと、 記憶制御ステップの処理で記憶が制御された画像のうち、 画像識別子入力制御ステップの処理で入力が制御された画像識別子に対応する画 像の検索を制御する検索制御ステップと、 検索制御ステップの処理で検索が制御 された画像を、 使用者の通信装置に出力する出力ステップと、 検索制御ステップ の処理で検索が制御された画像に応じた、 課金に関連する処理の実行を制御する 課金制御ステップとを実行させることを特徴とする。

本発明の第 5の通信システムは、 第 1の通信装置が、 使用者が要求する画像を 識別する識別子を入力する画像識別子入力手段と、 画像識別子を第 2の通信装置 に送信する画像識別子送信手段と、 画像識別子に対応して検索された画像を受信 する画像受信手段とを備え、 第 2の通信装置が、 第 1の通信装置より送信されて くる画像識別子を受信する画像識別子受信手段と、 それぞれ時間積分効果を有す る所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積 分された画像を構成する光の量に応じて決定される画素値からなる画像データが 分離された前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分 画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景 成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を記憶する 記憶手段と、 記憶手段に記憶された画像のうち、 画像識別子受信手段により受信 された画像識別子に対応する画像を検索する検索手段と、 検索手段により検索さ れた画像を、 第 1の通信装置に出力する出力手段と、 検索手段により検索された 画像に応じて、 課金に関連する処理を実行する課金手段とを備えることを特徴と する。

前記第 2の通信装置には、 画像を、 前景オブジェク トを構成する前景オブジェ ク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景ォブ ジェク ト成分からなる背景成分画像に分離する分離手段をさらに設けるようにさ せることができる。 前記記憶手段には、 分離手段により分離された前景成分画像と背景成分画像を 記憶させるようにすることができる。

前記第 2の通信装置には、 画像が分離された前景ォブジユタ トを構成する前景 オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景ォ ブジェク ト成分からなる背景成分画像を所定の混合の比率で合成し、 合成画像を 生成する合成画像生成手段をさらに設けるようにさせることができ、 記憶手段に は、 合成画像生成手段により生成された合成画像を記憶させるようにすることが できる。

前記第 2の通信装置には、 画像を、 前景オブジェク トを構成する前景オブジェ ク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景ォブ ジェク ト成分からなる背景成分画像に分離する分離手段と、 分離手段により分離 された前景成分画像と、 背景成分画像を所定の混合比で合成し、 合成画像を生成 する合成画像生成手段をさらに設けるようにさせることができ、 記憶手段には、 合成画像生成手段により生成された合成画像を記憶させるようにすることができ る。

前記課金手段には、 検索手段により検索された画像に応じて使用者の識別子、 第 2の通信装置の識別子、 および、 検索手段により検索された画像に対応する金 額情報を含む課金情報を生成させるようにすることができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して課金に関 連する処理を実行させるようにすることができる。

前記第 2の通信装置の課金手段には、 課金に関連する処理に使用される使用者 毎のボイント数を金額情報に対応する分だけ減算することにより課金に関連する 処理を実行させるようにすることができる。

前記出力手段には、 課金手段により課金に関連する処理が完了した後、 画像を 課金に関連する処理が完了した使用者の第 1の通信装置に出力させるようにする ことができる。

本発明の第 5の通信システムの通信方法は、 第 1の通信装置の通信方法が、 使 用者が要求する画像を識別する識別子を入力する画像識別子入力ステップと、 画 像識別子を第 2の通信装置に送信する画像識別子送信ステップと、 画像識別子に 対応して検索された画像を受信する画像受信ステツプとを含み、 第 2の通信装置 の通信方法が、 第 1の通信装置より送信されてくる画像識別子を受信する画像識 別子受信ステップと、 それぞれ時間積分効果を有する所定数の画素を含む撮像素 子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の 量に応じて決定される画素値からなる画像データが分離された前景オブジェク ト を構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェ ク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を記憶する記憶ステップと、 記憶ステツ プの処理で記憶された画像のうち、 画像識別子受信ステップの処理で受信された 画像識別子に対応する画像を検索する検索ステップと、 検索ステップの処理で検 索された画像を、 第 1の通信装置に出力する出力ステップと、 検索ステップの処 理で検索された画像に応じて、 課金に関連する処理を実行する課金ステップとを 含むことを特徴とする。

本発明の第 1 5の記録媒体のプログラムは、 第 1の通信装置を制御するプログ ラムが、 使用者が要求する画像を識別する識別子の入力を制御する画像識別子入 力制御ステップと、 画像識別子の第 2の通信装置への送信を制御する画像識別子 送信制御ステップと、 画像識別子に対応して検索された画像の受信を制御する画 像受信制御ステップとを含み、 第 2の通信装置を制御するプログラムが、 第 1の 通信装置より送信されてくる画像識別子の受信を制御する画像識別子受信制御ス テツプと、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって 取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて 決定される画素値からなる画像データが分離された前景オブジェク トを構成する 前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成 する背景ォブジェク ト成分からなる背景成分画像のうち、 少なくとも 1画像以上 の画像により構成される画像の記憶を制御する記憶制御ステップと、 記憶制御ス テップの処理で記憶が制御された画像のうち、 画像識別子受信制御ステップの処 理で受信が制御された画像識別子に対応する画像の検索を制御する検索制御ステ ップと、 検索制御ステップの処理で検索が制御された画像の、 第 1の通信装置へ の出力を制御する出力制御ステップと、 検索制御ステップの処理で検索が制御さ れた画像に応じて、 課金に関連する処理の実行を制御する課金制御ステップとを 含むことを特徴とする。

本発明の第 1 5のプログラムは、 第 1の通信装置を制御するコンピュータに、 使用者が要求する画像を識別する識別子の入力を制御する画像識別子入力制御ス テツプと、 画像識別子の第 2の通信装置への送信を制御する画像識別子送信制御 ステップと、 画像識別子に対応して検索された画像の受信を制御する画像受信制 御ステップとを実行させ、 第 2の通信装置を制御するコンピュータに、 第 1の通 信装置より送信されてくる画像識別子の受信を制御する画像識別子受信制御ステ ップと、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取 得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決 定される画素値からなる画像データが分離された前景オブジェク トを構成する前 景ォブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成す る背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の 画像により構成される画像の記憶を制御する記憶制御ステップと、 記憶制御ステ ップの処理で記憶が制御された画像のうち、 画像識別子受信制御ステップの処理 で受信が制御された画像識別子に対応する画像の検索を制御する検索制御ステツ プと、 検索制御ステップの処理で検索が制御された画像の、 第 1の通信装置への 出力を制御する出力制御ステップと、 検索制御ステツプの処理で検索が制御され た画像に応じて、 課金に関連する処理の実行を制御する課金制御ステップとを実 行させることを特徴とする。

本発明の第 1 1の通信装置は、 使用者が要求する画像を識別する識別子を入力 する画像識別子入力手段と、 画像識別子を他の通信装置に送信する画像識別子送 信手段と、 画像識別子に対応して検索された画像を受信する画像受信手段とを備 えることを特徴とする。

本発明の第 1 1の通信方法は、 使用者が要求する画像を識別する識別子を入力 する画像識別子入力ステップと、 画像識別子を他の通信装置に送信する画像識別 子送信ステップと、 画像識別子に対応して検索された画像を受信する画像受信ス テツプとを含むことを特徴とする。

本発明の第 1 6の記録媒体のプログラムは、 使用者が要求する画像を識別する 識別子の入力を制御する画像識別子入力制御ステップと、 画像識別子の他の通信 装置への送信を制御する画像識別子送信制御ステップと、 画像識別子に対応して 検索された画像の受信を制御する画像受信制御ステップとを含むことを特徴とす る。

本発明の第 1 6のプログラムは、 使用者が要求する画像を識別する識別子の入 力を制御する画像識別子入力制御ステップと、 画像識別子の他の通信装置への送 信を制御する画像識別子送信制御ステップと、 画像識別子に対応して検索された 画像の受信を制御する画像受信制御ステップとをコンピュータに実行させること を特徴とする。

本発明の第 1 2の通信装置は、 他の通信装置より送信されてくる画像識別子を 受信する画像識別子受信手段と、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データが分離された前景ォ ブジェク トを構成する前景ォブジェク ト成分からなる前景成分画像、 および、 背 景ォブジェク トを構成する背景ォブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を記憶する記憶手段と、 記憶 手段に記憶された画像のうち、 画像識別子受信手段により受信された画像識別子 に対応する画像を検索する検索手段と、 検索手段により検索された画像を、 他の 通信装置に出力する出力手段と、 検索手段により検索された画像に応じて、 課金 に関連する処理を実行する課金手段とを備えることを特徴とする。

本発明の第 1 2の通信方法は、 他の通信装置より送信されてくる画像識別子を 受信する画像識別子受信ステップと、 それぞれ時間積分効果を有する所定数の画 素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像 を構成する光の量に応じて決定される画素値からなる画像データが分離された前 景ォブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を記憶する記憶ステップと、 記憶ステップの処理で記憶された画像のうち、 画像識別子受信ステップの処理で 受信された画像識別子に対応する画像を検索する検索ステップと、 検索ステップ の処理で検索された画像を、 他の通信装置に出力する出力ステップと、 検索ステ ップの処理で検索された画像に応じて、 課金に関連する処理を実行する課金ステ ップとを含むことを特徴とする。

本発明の第 1 7の記録媒体のプログラムは、 他の通信装置より送信されてくる 画像識別子の受信を制御する画像識別子受信制御ステップと、 それぞれ時間積分 効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素値からなる画 像データが分離された前景オブジェク トを構成する前景オブジェク ト成分からな る前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分か らなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像 の記憶を制御する記憶制御ステップと、 記憶制御ステップの処理で記憶が制御さ れた画像のうち、 画像識別子受信制御ステップの処理で受信が制御された画像識 別子に対応する画像の検索を制御する検索制御ステップと、 検索制御ステップの 処理で検索が制御された画像の、 他の通信装置への出力を制御する出力制御ステ ップと、 検索制御ステップの処理で検索が制御された画像に応じて、 課金に関連 する処理の実行を制御する課金制御ステップとを含むことを特徴とする。

本発明の第 1 7のプログラムは、 他の通信装置より送信されてくる画像識別子 の受信を制御する画像識別子受信制御ステップと、 それぞれ時間積分効果を有す る所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積 分された画像を構成する光の量に応じて決定される画素値からなる画像データが 分離された前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分 画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景 成分画像のうち、 少なく とも 1画像以上の画像により構成される画像の記憶を制 御する記憶制御ステップと、 記憶制御ステップの処理で記憶が制御された画像の うち、 画像識別子受信制御ステップの処理で受信が制御された画像識別子に対応 する画像の検索を制御する検索制御ステップと、 検索制御ステップの処理で検索 が制御された画像の、 他の通信装置への出力を制御する出力制御ステップと、 検 索制御ステップの処理で検索が制御された画像に応じて、 課金に関連する処理の 実行を制御する課金制御ステップとをコンピュータに実行させることを特徴とす る。

本発明の第 1 3の通信装置は、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データが分離された前景ォ ブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を入力する入力手段と、 入力 手段により入力された画像を記憶する記憶手段と、 記憶手段に記憶された画像に 応じて、 払込処理を実行する払込手段とを備えることを特徴とする。

前記画像を、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景 成分画像、 および、 背景オブジェク トを構成する背景ォブジ -ク ト成分からなる 背景成分画像に分離する分離手段をさらに設けるようにさせることができ、 入力 手段には、 分離手段により分離された前景成分画像と背景成分画像を入力させる ようにすることができる。

前記画像が分離された前景オブジェク トを構成する前景オブジェク ト成分から なる前景成分画像と、 背景オブジェク トを構成する背景ォブジェク ト成分からな る背景成分画像を所定の混合の比率で合成し、 合成画像を生成する合成画像生成 手段をさらに設けるようにさせることができ、 入力手段には、 合成画像生成手段 により生成された合成画像を入力させるようにすることができる。

前記画像を、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景 成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる 背景成分画像に分離する分離手段と、 分離手段により分離された前景成分画像と、 背景成分画像を所定の混合比で合成し、 合成画像を生成する合成画像生成手段を さらに設けるようにさせることができ、 入力手段には、 合成画像生成手段により 生成された合成画像を入力させるようにすることができる。

本発明の第 1 3の通信方法は、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データが分離された前景ォ ブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を入力する入力ステップと、 入力ステップの処理で入力された画像を記憶する記憶ステップと、 記憶ステップ の処理で記憶された画像に応じて、 払込処理を実行する払込ステップとを含むこ とを特徴とする。

本発明の第 1 8の記録媒体のプログラムは、 それぞれ時間積分効果を有する所 定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分さ れた画像を構成する光の量に応じて決定される画素値からなる画像データが分離 された前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景ォブジェク ト成分からなる背景成分画 像のうち、 少なくとも 1画像以上の画像により構成される画像の入力を制御する 入力制御ステップと、 入力制御ステツプの処理で入力が制御された画像の記憶を 制御する記憶制御ステップと、 記憶制御ステップの処理で記憶が制御された画像 に応じて、 払込処理の実行を制御する払込制御ステップとを含むことを特徴とす る。 本発明の第 1 8のプログラムは、 それぞれ時間積分効果を有する所定数の画素 を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を 構成する光の量に応じて決定される画素値からなる画像データが分離された前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像の入力を制御する入力制御ス テツプと、 入力制御ステップの処理で入力が制御された画像の記憶を制御する記 憶制御ステップと、 記憶制御ステップの処理で記憶が制御された画像に応じて、 払込処理の実行を制御する払込制御ステップとをコンピュータに実行させること を特徴とする。

本発明の第 6の通信システムは、 第 1の通信装置が、 それぞれ時間積分効果を 有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的 に積分された画像を構成する光の量に応じて決定される画素値からなる画像デー タが分離された前景オブジェク トを構成する前景オブジェク ト成分からなる前景 成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる 背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を入力 する入力手段と、 入力手段により入力された画像を第 2の通信装置に送信する画 像送信手段とを備え、 第 2の通信装置が、 第 1の通信装置より送信されてくる画 像を受信する画像受信手段と、 画像受信手段により受信された画像を記憶する記 憶手段と、 記憶手段に記憶された画像に応じて、 払込処理を実行する払込手段と を備えることを特徴とする。

前記第 1の通信装置には、 画像を、 前景オブジェク トを構成する前景オブジェ ク ト成分からなる前景成分画像、 および、 背景ォブジェク トを構成する背景ォブ ジェク ト成分からなる背景成分画像に分離する分離手段をさらに設けるようにさ せることができ、 入力手段には、 分離手段により分離された前景成分画像と背景 成分画像を入力させるようにすることができる。

前記第 1の通信装置には、 画像が分離された前景オブジェク トを構成する前景 オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景ォ ブジェク ト成分からなる背景成分画像を所定の混合の比率で合成し、 合成画像を 生成する合成画像生成手段をさらに設けるようにさせることができ、 入力手段に は、 合成画像生成手段により生成された合成画像を入力させるようにすることが できる。

前記第 1の通信装置には、 画像を、 前景オブジェク トを構成する前景オブジェ ク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景ォブ ジェク ト成分からなる背景成分画像に分離する分離手段と、 分離手段により分離 された前景成分画像と、 背景成分画像を所定の混合比で合成し、 合成画像を生成 する合成画像生成手段をさらに設けるようにさせることができ、 入力手段には、 合成画像生成手段により生成された合成画像を入力させるようにすることができ る。

本発明の第 6の通信システムの通信方法は、 第 1の通信装置の通信方法が、 そ れぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画 素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画 素値からなる画像データが分離された前景オブジェク トを構成する前景オブジェ ク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景ォブ ジェク ト成分からなる背景成分画像のうち、 少なくとも 1画像以上の画像により 構成される画像を入力する入力ステップと、 入力ステップの処理で入力された画 像を第 2の通信装置に送信する画像送信ステップとを含み、 第 2の通信装置の通 信方法が、 第 1の通信装置より送信されてくる画像を受信する画像受信ステップ と、 画像受信ステップの処理で受信された画像を記憶する記憶ステップと、 記憶 ステップの処理で記憶された画像に応じて、 払込処理を実行する払込ステップと を含むことを特徴とする。

本発明の第 1 9の記録媒体のプログラムは、 第 1の通信装置を制御するプログ ラムが、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取 得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決 定される画素値からなる画像データが分離された前景オブジェク トを構成する前 景ォブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成す る背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の 画像により構成される画像の入力を制御する入力制御ステップと、 入力制御ステ ップの処理で入力が制御された画像の第 2の通信装置への送信を制御する画像送 信制御ステップとを含み、 第 2の通信装置を制御するプログラムが、 第 1の通信 装置より送信されてくる画像の受信を制御する画像受信制御ステップと、 画像受 信制御ステップの処理で受信が制御された画像の記憶を制御する記憶制御ステツ プと、 記憶制御ステップの処理で記憶が制御された画像に応じた、 払込処理の実 行を制御する払込制御ステップとを含むことを特徴とする。

本発明の第 1 9のプログラムは、 第 1の通信装置を制御するコンピュータに、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される 画素値からなる画像データが分離された前景オブジェク トを構成する前景ォブジ ェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景ォ ブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像によ り構成される画像の入力を制御する入力制御ステップと、 入力制御ステップの処 理で入力が制御された画像の第 2の通信装置への送信を制御する画像送信制御ス テツプとを実行させ、 第 2の通信装置を制御するコンピュータに、 第 1の通信装 置より送信されてくる画像の受信を制御する画像受信制御ステップと、 画像受信 制御ステップの処理で受信が制御された画像の記憶を制御する記憶制御ステップ と、 記憶制御ステップの処理で記憶が制御された画像に応じた、 払込処理の実行 を制御する払込制御ステップとを実行させることを特徴とする。

本発明の第 1 4の通信装置は、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データが分離された前景ォ ブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を入力する入力手段と、 入力 手段により入力された画像を他の通信装置に送信する画像送信手段とを備えるこ とを特徴とする。

本発明の第 1 4の通信方法は、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データが分離された前景ォ ブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を入力する入力ステップと、 入力ステップの処理で入力された画像を他の通信装置に送信する画像送信ステツ プとを含むことを特徴とする。

本発明の第 2 0の記録媒体のプログラムは、 それぞれ時間積分効果を有する所 定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分さ れた画像を構成する光の量に応じて決定される画素値からなる画像データが分離 された前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画 像のうち、 少なく とも 1画像以上の画像により構成される画像の入力を制御する 入力制御ステップと、 入力制御ステップの処理で入力が制御された画像の他の通 信装置への送信を制御する画像送信制御ステップとを含むことを特徴とする。 本発明の第 2 0のプログラムは、 それぞれ時間積分効果を有する所定数の画素 を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を 構成する光の量に応じて決定される画素値からなる画像データが分離された前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像の入力を制御する入力制御ス テツプと、 入力制御ステップの処理で入力が制御された画像の他の通信装置への 送信を制御する画像送信制御ステップとをコンピュータに実行させることを特徴 とする。

本発明の第 1 5の通信装置は、 他の通信装置より送信されてくる画像を受信す る画像受信手段と、 画像受信手段により受信された画像を記憶する記憶手段と、 記憶手段に記憶された画像に応じて、 払込処理を実行する払込手段とを備えるこ とを特徴とする。

本発明の第 1 5の通信方法は、 他の通信装置より送信されてくる画像を受信す る画像受信ステップと、 画像受信ステップの処理で受信された画像を記憶する記 憶ステップと、 記憶ステップの処理で記憶された画像に応じて、 払込処理を実行 する払込ステップとを備えることを特徴とする。

本発明の第 2 1の記録媒体のプログラムは、 他の通信装置より送信されてくる 画像の受信を制御する画像受信制御ステップと、 画像受信制御ステップの処理で 受信が制御された画像の記憶を制御する記憶制御ステップと、 記憶制御ステップ の処理で記憶が制御された画像に応じて、 払込処理の実行を制御する払込制御ス テツプとを含むことを特徴とする。

本発明の第 2 1のプログラムは、 他の通信装置より送信されてくる画像の受信 を制御する画像受信制御ステップと、 画像受信制御ステップの処理で受信が制御 された画像の記憶を制御する記憶制御ステップと、 記憶制御ステップの処理で記 憶が制御された画像に応じて、 払込処理の実行を制御する払込制御ステップとを コンピュータに実行させることを特徴とする。

本発明の第 1 6の通信装置は、 使用者の検索要求情報を入力する検索要求情報 入力手段と、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によつ て取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じ て決定される画素値からなる画像データが分離された前景ォブジェク トを構成す る前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構 成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以 上の画像により構成される画像を記憶する記憶手段と、 記憶手段に記憶された画 像のうち、 検索要求情報入力手段により入力された検索要求情報に対応する画像 を検索する検索手段と、 検索手段の検索結果を出力する出力手段と、 検索結果に 対応して、 課金に関連する処理を実行する課金手段とを備えることを特徴とする。 前記記憶手段は、 各々に画像を撮像する撮像装置が設けられ、 撮像装置により 撮像される画像を所定の時間間隔で更新して、 格納している、 無線、 または、 有 線で通信可能な、 複数の画像格納部により構成されるようにすることができる。 前記検索要求情報には、 前景オブジェク トを指定する情報を含ませるようにす ることができ、 記憶手段には、 複数の画像格納部に設けられた撮像装置を識別す る識別子と、 対応する画像格納部に格納されている画像のオブジェク トとの関係 を示すデータベースをさらに設けるようにさせることができ、 検索手段には、 デ ータベースを参照して、 記憶手段に記憶された画像のうち、 検索要求情報入力手 段により入力された前景オブジェク トを指定する情報に対応する画像を検索させ るようにすることができる。

前記画像の画像データを、 前景オブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト 成分からなる背景成分画像に分離する分離手段をさらに設けるようにさせること ができ、 記憶手段には、 分離手段により分離された前景成分画像と背景成分画像 を記憶させるようにすることができる。

前記画像の画像データより分離された前景オブジェク トを構成する前景ォブジ ェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェ ク ト成分からなる背景成分画像を所定の混合の比率で合成し、 合成画像を生成す る合成画像生成手段をさらに設けるようにさせることができ、 記憶手段には、 合 成画像生成手段により生成された合成画像を記憶させるようにすることができる 前記画像の画像データを、 前景オブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト 成分からなる背景成分画像に分離する分離手段と、 分離手段により分離された前 景成分画像と、 背景成分画像を所定の混合の比率で合成し、 合成画像を生成する 合成画像生成手段をさらに設けるようにさせることができ、 記憶手段には、 合成 画像生成手段により生成された合成画像を記憶させるようにすることができる。 前記出力手段には、 検索結果として、 検索要求情報に対応する画像の有無、 ま たは、 検索要求情報に対応する画像の有無と共に検索された画像を出力させ、 課 金手段には、 出力手段により出力された検索結果に基づいて、 課金に関連する処 理を実行させるようにすることができる。

前記課金手段には、 検索要求情報に応じて使用者の識別子、 通信装置の識別子、 および、 検索要求情報に対応する金額情報を含む課金情報を生成させるようにす ることができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して、 出力手 段により出力された検索結果に基づいて、 課金に関連する処理を実行させるよう にすることができる。

課金手段には、 前記課金に関連する処理に使用される使用者毎のボイント数を 金額情報に対応する分だけ減算することにより課金に関連する処理を実行させる ようにすることができる。

前記出力手段には、 課金手段により課金に関連する処理が完了した後、 課金に 関連する処理が完了した使用者の通信装置に検索結果を出力させるようにするこ とができる。

本発明の第 1 6の通信方法は、 使用者の検索要求情報を入力する検索要求情報 入力ステップと、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子に よって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に 応じて決定される画素値からなる画像データが分離された前景オブジェク トを構 成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク ト を構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画 像以上の画像により構成される画像を記憶する記憶ステップと、 記憶ステップの 処理で記憶された画像のうち、 検索要求情報入力ステップの処理で入力された検 索要求情報に対応する画像を検索する検索ステップと、 検索ステップの処理での 検索結果を出力する出力ステップと、 検索結果に対応して、 課金に関連する処理 を実行する課金ステップとを含むことを特徴とする。

本発明の第 2 2の記録媒体のプログラムは、 使用者の検索要求情報の入力を制 御する検索要求情報入力制御ステップと、 それぞれ時間積分効果を有する所定数 の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された 画像を構成する光の量に応じて決定される画素値からなる画像データが分離され た前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 お よび、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像 のうち、 少なく とも 1画像以上の画像により構成される画像の記憶を制御する記 憶制御ステップと、 記憶制御ステップの処理で記憶が制御された画像のうち、 検 索要求情報入力制御ステップの処理で入力が制御された検索要求情報に対応する 画像の検索を制御する検索制御ステップと、 検索制御ステップの処理での検索結 果の出力を制御する出力制御ステップと、 検索結果に対応して、 課金に関連する 処理の実行を制御する課金制御ステップとを含むことを特徴とする。

本発明の第 2 2のプログラムは、 使用者の検索要求情報の入力を制御する検索 要求情報入力制御ステップと、 それぞれ時間積分効果を有する所定数の画素を含 む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成 する光の量に応じて決定される画素値からなる画像データが分離された前景ォブ ジェク トを構成する前景ォブジェク ト成分からなる前景成分画像、 および、 背景 オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少 なくとも 1画像以上の画像により構成される画像の記憶を制御する記憶制御ステ ップと、 記憶制御ステップの処理で記憶が制御された画像のうち、 検索要求情報 入力制御ステップの処理で入力が制御された検索要求情報に対応する画像の検索 を制御する検索制御ステップと、 検索制御ステップの処理での検索結果の出力を 制御する出力制御ステップと、 検索結果に対応して、 課金に関連する処理の実行 を制御する課金制御ステップとをコンピュータに実行させることを特徴とする。 本発明の第 7の通信システムは、 第 1の通信装置が、 使用者の検索要求情報を 入力する検索要求情報入力手段と、 検索要求情報を第 2の通信装置に送信する検 索要求情報送信手段と、 第 2の通信装置より送信されてくる検索結果を受信する 検索結果受信手段とを備え、 第 2の通信装置が、 第 1の通信装置より送信されて くる検索要求情報を受信する検索要求情報受信手段と、 それぞれ時間積分効果を 有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的 に積分された画像を構成する光の量に応じて決定される画素値からなる画像デー タが分離された前景オブジェク トを構成する前景オブジェク ト成分からなる前景 成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる 背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を記憶 する記憶手段と、 記憶手段に記憶された画像のうち、 検索要求情報受信手段によ り受信された検索要求情報に対応する画像を検索する検索手段と、 検索手段の検 索結果を第 1の通信装置に送信する検索結果送信手段と、 検索結果に対応して、 課金に関連する処理を実行する課金手段とを備えることを特徴とする。

前記記憶手段は、 各々に画像を撮像する撮像装置が設けられ、 撮像装置により 撮像される画像を所定の時間間隔で更新して、 格納している、 無線、 または、 有 線で通信可能な、 複数の画像格納部により構成されるようにすることができる。 前記検索要求情報には、 前景オブジェク トを指定する情報を含ませるようにす ることができ、 記憶手段には、 複数の画像格納部に設けられた撮像装置を識別す る識別子と、 対応する画像格納部に格納されている画像のォブジェク トとの関係 を示すデータベースをさらに設けるようにさせ、 検索手段には、 データベースを 参照して、 記憶手段に記憶された画像のうち、 検索要求情報入力手段により入力 された前景オブジェク トを指定する情報に対応する画像を検索させるようにする ことができる。

前記第 2の通信装置には、 画像の画像データを、 前景オブジェク トを構成する 前景オブジェク ト成分からなる前景成分画像、 および、 背景ォブジェク トを構成 する背景ォブジェク ト成分からなる背景成分画像に分離する分離手段をさらに設 けるようにさせることができ、 記憶手段には、 分離手段により分離された前景成 分画像と背景成分画像を記憶させるようにすることができる。

前記第 2の通信装置には、 画像の画像データより分離された前景オブジェク ト を構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを 構成する背景オブジェク ト成分からなる背景成分画像を所定の混合の比率で合成 し、 合成画像を生成する合成画像生成手段をさらに設けるようにさせることがで き、 記憶手段には、 合成画像生成手段により生成された合成画像を記憶させるよ うにすることができる。

前記第 2の通信装置には、 画像の画像データを、 前景オブジェク トを構成する 前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成 する背景オブジェク ト成分からなる背景成分画像に分離する分離手段と、 分離手 段により分離された前景成分画像と、 背景成分画像を所定の混合の比率で合成し、 合成画像を生成する合成画像生成手段をさらに設けるようにさせることができ、 記憶手段には、 合成画像生成手段により生成された合成画像を記憶させるように することができる。

前記出力手段には、 検索結果として、 検索要求情報に対応する画像の有無、 ま たは、 検索要求情報に対応する画像の有無と共に検索された画像を出力させ、 課 金手段には、 出力手段により出力された検索結果に基づいて、 課金に関連する処 理を実行させるようにすることができる。

前記課金手段には、 検索要求情報に応じて使用者の識別子、 通信装置の識別子、 および、 検索要求情報に対応する金額情報を含む課金情報を生成させるようにす ることができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して、 出力手 段により出力された検索結果に基づいて、 課金に関連する処理を実行させるよう にすることができる。

前記第 2の通信装置の課金手段には、 課金に関連する処理に使用される使用者 毎のボイント数を金額情報に対応する分だけ減算することにより課金に関連する 処理を実行させるようにすることができる。 前記出力手段には、 課金手段により課金に関連する処理が完了した後、 課金に 関連する処理が完了した使用者の通信装置に検索結果を出力させるようにするこ とができる。

本発明の第 7の通信システムの通信方法は、 第 1の通信装置の通信方法が、 使 用者の検索要求情報を入力する検索要求情報入力ステップと、 検索要求情報を第 2の通信装置に送信する検索要求情報送信ステップと、 第 2の通信装置より送信 されてくる検索結果を受信する検索結果受信ステップとを含み、 第 2の通信装置 の通信方法が、 第 1の通信装置より送信されてくる検索要求情報を受信する検索 要求情報受信ステップと、 それぞれ時間積分効果を有する所定数の画素を含む撮 像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する 光の量に応じて決定される画素値からなる画像データが分離された前景オブジェ ク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景ォブ ジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を記憶する記憶ステップと、 記憶ス テツプの処理で記憶された画像のうち、 検索要求情報受信ステップの処理で受信 された検索要求情報に対応する画像を検索する検索ステップと、 検索ステップの 処理での検索結果を第 1の通信装置に送信する検索結果送信ステップと、 検索結 果に対応して、 課金に関連する処理を実行する課金ステップとを含むことを特徴 とする。

本発明の第 2 3の記録媒体のプログラムは、 第 1の通信装置を制御するプログ ラムが、 使用者の検索要求情報の入力を制御する検索要求情報入力制御ステップ と、 検索要求情報の第 2の通信装置への送信を制御する検索要求情報送信制御ス テツプと、 第 2の通信装置より送信されてくる検索結果の受信を制御する検索結 果受信制御ステップとを含み、 第 2の通信装置を制御するプログラムが、 第 1の 通信装置より送信されてくる検索要求情報の受信を制御する検索要求情報受信制 御ステップと、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によ つて取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応 じて決定される画素値からなる画像データが分離された前景ォブジェク トを構成 する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを 構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像 以上の画像により構成される画像の記憶を制御する記憶制御ステップと、 記憶制 御ステップの処理で記憶された画像のうち、 検索要求情報受信制御ステップの処 理で受信された検索要求情報に対応する画像の検索を制御する検索制御ステップ と、 検索制御ステップの処理での検索結果の第 1の通信装置への送信を制御する 検索結果送信制御ステップと、 検索結果に対応して、 課金に関連する処理の実行 を制御する課金制御ステップとを含むことを特徴とする。

本発明の第 2 3のプログラムは、 第 1の通信装置を制御するコンピュータに、 使用者の検索要求情報の入力を制御する検索要求情報入力制御ステップと、 検索 要求情報の第 2の通信装置への送信を制御する検索要求情報送信制御ステップと、 第 2の通信装置より送信されてくる検索結果の受信を制御する検索結果受信制御 ステップとを実行させ、 第 2の通信装置を制御するコンピュータに、 第 1の通信 装置より送信されてくる検索要求情報の受信を制御する検索要求情報受信制御ス テツプと、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって 取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて 決定される画素値からなる画像データが分離された前景オブジェク トを構成する 前景ォブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成 する背景オブジェク ト成分からなる背景成分画像のうち、 少なくとも 1画像以上 の画像により構成される画像の記憶を制御する記憶制御ステップと、 記憶制御ス テップの処理で記憶された画像のうち、 検索要求情報受信制御ステップの処理で 受信された検索要求情報に対応する画像の検索を制御する検索制御ステップと、 検索制御ステップの処理での検索結果の第 1の通信装置への送信を制御する検索 結果送信制御ステップと、 検索結果に対応して、 課金に関連する処理の実行を制 御する課金制御ステップとを実行させることを特徴とする。

本発明の第 1 7の通信装置は、 使用者の検索要求情報を入力する検索要求情報 入力手段と、 検索要求情報を他の通信装置に送信する検索要求情報送信手段と、 他の通信装置より送信されてくる検索結果を受信する検索結果受信手段とを備え ることを特徴とする。

本発明の第 1 7の通信方法は、 使用者の検索要求情報を入力する検索要求情報 入力ステップと、 検索要求情報を他の通信装置に送信する検索要求情報送信ステ ップと、 他の通信装置より送信されてくる検索結果を受信する検索結果受信ステ ップとを含むことを特徴とする。

本発明の第 2 4の記録媒体のプログラムは、 使用者の検索要求情報の入力を制 御する検索要求情報入力制御ステップと、 検索要求情報の他の通信装置への送信 を制御する検索要求情報送信制御ステップと、 他の通信装置より送信されてくる 検索結果の受信を制御する検索結果受信制御ステップとを含むことを特徴とする。 本発明の第 2 4のプログラムは、 使用者の検索要求情報の入力を制御する検索 要求情報入力制御ステップと、 検索要求情報の他の通信装置への送信を制御する 検索要求情報送信制御ステップと、 他の通信装置より送信されてくる検索結果の 受信を制御する検索結果受信制御ステップとをコンピュータに実行させることを 特徴とする。

本発明の第 1 8の通信装置は、 他の通信装置より送信されてくる検索要求情報 を受信する検索要求情報受信手段と、 それぞれ時間積分効果を有する所定数の画 素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像 を構成する光の量に応じて決定される画素値からなる画像データが分離された前 景ォブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像を記憶する記憶手段と、 記憶 手段に記憶された画像のうち、 検索要求情報受信手段により受信された検索要求 情報に対応する画像を検索する検索手段と、 検索手段の検索結果を他の通信装置 に送信する検索結果送信手段と、 検索結果に対応して、 課金に関連する処理を実 行する課金手段とを備えることを特徴とする。 本発明の第 1 8の通信装置は、 他の通信装置より送信されてくる検索要求情報 を受信する検索要求情報受信ステップと、 それぞれ時間積分効果を有する所定数 の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された 画像を構成する光の量に応じて決定される画素値からなる画像データが分離され た前景ォブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 お よび、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像 のうち、 少なく とも 1画像以上の画像により構成される画像を記憶する記憶ステ ップと、 記憶ステップの処理で記憶された画像のうち、 検索要求情報受信ステツ プの処理で受信された検索要求情報に対応する画像を検索する検索ステップと、 検索ステップの処理で検索結果を他の通信装置に送信する検索結果送信ステップ と、 検索結果に対応して、 課金に関連する処理を実行する課金ステップとを含む ことを特徴とする。

本発明の第 2 5の記録媒体のプログラムは、 他の通信装置より送信されてくる 検索要求情報の受信を制御する検索要求情報受信制御ステップと、 それぞれ時間 積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 か つ、 時間的に積分された画像を構成する光の量に応じて決定される画素値からな る画像データが分離された前景オブジェク トを構成する前景オブジェク ト成分か らなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成 分からなる背景成分画像のうち、 少なくとも 1画像以上の画像により構成される 画像の記憶を制御する記憶制御ステップと、 記憶制御ステップの処理で記憶が制 御された画像のうち、 検索要求情報受信制御ステップの処理で受信が制御された 検索要求情報に対応する画像の検索を制御する検索制御ステップと、 検索制御ス テツプの処理で制御された検索結果の他の通信装置への送信を制御する検索結果 送信制御ステップと、 検索結果に対応して、 課金に関連する処理の実行を制御す る課金制御ステップとを含むことを特徴とする。

本発明の第 2 5のプログラムは、 他の通信装置より送信されてくる検索要求情 報の受信を制御する検索要求情報受信制御ステップと、 それぞれ時間積分効果を 有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的 に積分された画像を構成する光の量に応じて決定される画素値からなる画像デー タが分離された前景オブジェク トを構成する前景オブジェク ト成分からなる前景 成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる 背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像の記憶 を制御する記憶制御ステップと、 記憶制御ステップの処理で記憶が制御された画 像のうち、 検索要求情報受信制御ステップの処理で受信が制御された検索要求情 報に対応する画像の検索を制御する検索制御ステップと、 検索制御ステップの処 理で検索結果の他の通信装置への送信を制御する検索結果送信制御ステップと、 検索結果に対応して、 課金に関連する処理の実行を制御する課金制御ステップと をコンピュータに実行させることを特徴とする。

本発明の第 1 9の通信装置は、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データの前景オブジェク ト を構成する前景オブジェク ト成分からなる前景成分画像を示す前景成分画像識別 情報を入力する前景成分画像識別情報入力手段と、 画像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像を示す背景成分画像識 ' 別情報を入力する背景成分画像識別情報入力手段と、 前景成分画像識別情報、 お よび、 背景成分画像識別情報に対応する、 前景成分画像位置情報、 および、 背景 成分画像位置情報を生成する画像位置情報生成手段と、 画像位置情報生成手段に より生成された前景成分画像位置情報、 および、 背景成分画像位置情報を出力す る出力手段とを備えることを特徴とする。

前記それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得 され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定 される画素値からなる画像データより前景成分画像と背景成分画像とが混合され た領域の混合比を生成する混合比生成手段と、 混合比により画像データを前景成 分画像と背景成分画像に分離する分離手段と、 前景成分画像に基づいて、 前景成 分画像識別情報を、 背景成分画像に基づいて、 背景成分画像識別情報をそれぞれ 生成する識別情報生成手段と、 識別情報生成手段により生成された前景成分画像 識別情報を、 前景成分画像識別情報入力手段に、 識別情報生成手段により生成さ れた背景成分画像識別情報を、 背景成分画像識別情報入力手段に、 それぞれ供給 する識別情報供給手段をさらに設けるようにさせることができる。

前記分離手段により画像データが分離された前景成分画像と背景成分画像を所 定の位置に格納させる格納手段と、 格納手段により格納された画像データを前景 成分画像と背景成分画像の、 それぞれの位置情報を記憶する位置情報記憶手段を さらに設けるようにさせることができ、 画像位置情報生成手段には、 位置情報記 憶手段により記憶された、 前景成分画像と背景成分画像が格納されている位置情 報に基づいて、 前景成分画像識別情報、 および、 背景成分画像識別情報に対応す る、 前景成分画像位置情報、 および、 背景成分画像位置情報を生成させるように することができる。

前記格納手段には、 分離手段により画像データが分離された前景成分画像と背 景成分画像を、 ネッ トワークを介して接続される他の通信装置に格納させ、 位置 情報記憶手段には、 格納手段により、 ネッ トワークを介して接続される他の通信 装置上に格納された画像データを前景成分画像と背景成分画像の、 それぞれのネ ットワーク上の位置情報を記憶させ、 画像位置情報生成手段には、 位置情報記憶 手段により記憶された、 前景成分画像と背景成分画像が格納されているネッ トヮ ーク上の位置情報に基づいて、 前景成分画像識別情報、 および、 背景成分画像識 別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情報を生 成させるようにすることができる。

前記格納手段には、 分離手段により画像データが分離された前景成分画像と背 景成分画像を、 それぞれに対応する識別子と共に、 所定の位置に格納させるよう にすることができる。

前記分離手段により画像データが分離された前景成分画像、 および、 背景成分 画像のそれぞれの識別子と、 格納手段により既に格納されている前景成分画像か、 または、 背景成分画像の識別子と比較する比較手段をさらに設けるようにさせる ことができ、 比較手段による比較結果に基づいて、 格納手段には、 分離手段によ り画像データが分離された前景成分画像、 および、 背景成分画像を、 それぞれに 対応する識別子と共に、 所定の位置に格納させるようにすることができる。 前記比較手段による比較結果が一致した場合、 画像位置情報生成手段には、 位 置情報記憶手段により記憶された、 既に格納されている前景成分画像、 または、 背景成分画像の位置情報に基づいて、 前景成分画像識別情報、 および、 背景成分 画像識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情 報を生成させるようにすることができる。

前記前景成分画像識別情報入力手段には、 画像データの前景オブジェク トを構 成する前景ォブジユタ ト成分からなる前景成分画像を、 前景成分画像識別情報と して入力させ、 背景成分画像識別情報入力手段には、 画像データの背景オブジェ ク トを構成する背景ォブジェク ト成分からなる背景成分画像を、 背景成分画像識 別情報として入力させるようにすることができる。

前記前景成分画像位置情報、 および、 背景成分画像位置情報の出力に対応した 課金に関連する処理を実行する課金手段をさらに設けるようにさせることができ る。

前記課金手段には、 使用者の識別子、 自らの識別子、 並びに、 前景成分画像位 置情報、 および、 背景成分画像位置情報の出力に対応する金額情報を含む課金情 報を生成させるようにすることができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して課金に関 連する処理を実行させるようにすることができる。

前記課金手段には、 課金に関連する処理に使用される使用者毎のボイント数を 金額情報に対応する分だけ減算することにより課金に関連する処理を実行させる ようにすることができる。

前記出力手段には、 課金手段により課金に関連する処理が完了した後、 使用者 にのみ取得可能な方法で前景成分画像位置情報、 および、 背景成分画像位置情報 を出力させるようにすることができる。

本発明の第 1 9の通信方法は、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データの前景オブジェク ト を構成する前景ォブジユタ ト成分からなる前景成分画像を示す前景成分画像識別 情報を入力する前景成分画像識別情報入力ステップと、 画像データの背景ォブジ エタトを構成する背景オブジェク ト成分からなる背景成分画像を示す背景成分画 像識別情報を入力する背景成分画像識別情報入力ステップと、 前景成分画像識別 情報、 および、 背景成分画像識別情報に対応する、 前景成分画像位置情報、 およ び、 背景成分画像位置情報を生成する画像位置情報生成ステップと、 画像位置情 報生成ステップの処理で生成された前景成分画像位置情報、 および、 背景成分画 像位置情報を出力する出力ステップとを含むことを特徴とする。

本発明の第 2 6の記録媒体のプログラムは、 それぞれ時間積分効果を有する所 定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分さ れた画像を構成する光の量に応じて決定される画素値からなる画像データの前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像を示す前景 成分画像識別情報の入力を制御する前景成分画像識別情報入力制御ステップと、 画像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成 分画像を示す背景成分画像識別情報の入力を制御する背景成分画像識別情報入力 制御ステップと、 前景成分画像識別情報、 および、 背景成分画像識別情報に対応 する、 前景成分画像位置情報、 および、 背景成分画像位置情報の生成を制御する 画像位置情報生成制御ステップと、 画像位置情報生成制御ステップの処理で生成 された前景成分画像位置情報、 および、 背景成分画像位置情報の出力を制御する 出力制御ステップとを含むことを特徴とする。

本発明の第 2 6のプログラムは、 それぞれ時間積分効果を有する所定数の画素 を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を 構成する光の量に応じて決定される画素値からなる画像データの前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像を示す前景成分画像識 別情報の入力を制御する前景成分画像識別情報入力制御ステップと、 画像データ の背景オブジェク トを構成する背景ォブジェク ト成分からなる背景成分画像を示 す背景成分画像識別情報の入力を制御する背景成分画像識別情報入力制御ステツ プと、 前景成分画像識別情報、 および、 背景成分画像識別情報に対応する、 前景 成分画像位置情報、 および、 背景成分画像位置情報の生成を制御する画像位置情 報生成制御ステップと、 画像位置情報生成制御ステップの処理で生成された前景 成分画像位置情報、 および、 背景成分画像位置情報の出力を制御する出力制御ス テツプとをコンピュータに実行させることを特徴とする。

本発明の第 8の通信システムは、 第 1の通信装置が、 それぞれ時間積分効果を 有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的 に積分された画像を構成する光の量に応じて決定される画素値からなる画像デー タの前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像を 示す前景成分画像識別情報を入力する前景成分画像識別情報入力手段と、 画像デ ータの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像 を示す背景成分画像識別情報を入力する背景成分画像識別情報入力手段と、 前景 成分画像識別情報と背景成分画像識別情報を第 2の通信装置に送信する第 1の送 信手段と、 第 2の通信装置より送信されてくる、 前景成分画像位置情報、 および、 背景成分画像位置情報を受信する位置情報受信手段とを備え、 第 2の通信装置が、 第 1の通信装置より送信されてくる前景成分画像識別情報を受信する前景成分画 像識別情報受信手段と、 第 1の通信装置より送信されてくる背景成分画像識別情 報を受信する背景成分画像識別情報受信手段と、 前景成分画像識別情報、 および、 背景成分画像識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画 像位置情報を生成する画像位置情報生成手段と、 画像位置情報生成手段により生 成された前景成分画像位置情報、 および、 背景成分画像位置情報を第 1の通信装 置に送信する第 2の送信手段とを備えることを特徴とする。

前記第 2の通信装置には、 それぞれ時間積分効果を有する所定数の画素を含む 撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成す る光の量に応じて決定される画素値からなる画像データより前景成分画像と背景 成分画像とが混合された領域の混合比を生成する混合比生成手段と、 混合比によ り画像データを前景成分画像と背景成分画像に分離する分離手段と、 前景成分画 像に基づいて、 前景成分画像識別情報を、 背景成分画像に基づいて、 背景成分画 像識別情報を、 それぞれ生成する識別情報生成手段と、 識別情報生成手段により 生成された前景成分画像識別情報を、 前景成分画像識別情報入力手段に、 識別情 報生成手段により生成された背景成分画像識別情報を、 背景成分画像識別情報入 力手段に、 それぞれ供給する識別情報供給手段をさらに設けるようにさせること ができる。

前記分離手段により画像データが分離された前景成分画像と背景成分画像を所 定の位置に格納させる格納手段と、 格納手段により格納された画像データを前景 成分画像と背景成分画像の、 それぞれの位置情報を記憶する位置情報記憶手段を さらに設けるようにさせることができ、 画像位置情報生成手段には、 位置情報記 憶手段により記憶された、 前景成分画像と背景成分画像が格納されている位置情 報に基づいて、 前景成分画像識別情報、 および、 背景成分画像識別情報に対応す る、 前景成分画像位置情報、 および、 背景成分画像位置情報を生成させるように することができる。

前記格納手段には、 分離手段により画像データが分離された前景成分画像と背 景成分画像を、 ネッ トワークを介して接続される他の通信装置に格納させ、 位置 情報記憶手段には、 格納手段により、 ネッ トワークを介して接続される他の通信 装置上に格納された画像データを前景成分画像と背景成分画像の、 それぞれのネ ッ トワーク上の位置情報を記憶させ、 画像位置情報生成手段には、 位置情報記憶 手段により記憶された、 前景成分画像と背景成分画像が格納されているネッ トヮ ーク上の位置情報に基づいて、 前景成分画像識別情報、 および、 背景成分画像識 別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情報を生 成させるようにすることができる。 前記格納手段には、 分離手段により画像データが分離された前景成分画像と背 景成分画像を、 それぞれに対応する識別子と共に、 所定の位置に格納させるよう にすることができる。

前記第 2の通信手段には、 分離手段により画像データが分離された前景成分画 像、 および、 背景成分画像のそれぞれの識別子と、 格納手段により既に格納され ている前景成分画像か、 または、 背景成分画像の識別子と比較する比較手段をさ らに設けるようにさせることができ、 比較手段による比較結果に基づいて、 格納 手段は、 分離手段により画像データが分離された前景成分画像、 および、 背景成 分画像を、 それぞれに対応する識別子と共に、 所定の位置に格納させるようにす ることができる。

前記比較手段による比較結果が一致した場合、 画像位置情報生成手段には、 位 置情報記憶手段により記憶された、 既に格納されている前景成分画像、 または、 背景成分画像の位置情報に基づいて、 前景成分画像識別情報、 および、 背景成分 画像識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情 報を生成させるようにすることができる。

前記前景成分画像識別情報入力手段には、 画像データの前景オブジェク トを構 成する前景オブジェク ト成分からなる前景成分画像を、 前景成分画像識別情報と して入力させ、 背景成分画像識別情報入力手段には、 画像データの背景オブジェ ク トを構成する背景ォブジェク ト成分からなる背景成分画像を、 背景成分画像識 別情報として入力させるようにすることができる。

前記第 2の通信手段には、 前景成分画像位置情報、 および、 背景成分画像位置 情報の出力に対応した課金に関連する処理を実行する課金手段をさらに設けるよ うにさせることができる。

前記課金手段には、 使用者の識別子、 第 2の通信装置の識別子、 並びに、 前景 成分画像位置情報、 および、 背景成分画像位置情報の出力に対応する金額情報を 含む課金に関連する情報を生成させるようにすることができる。

前記課金手段には、 課金情報に基づいて、 使用者の金融口座に対して課金に関 連する処理を実行させるようにすることができる。

前記課金手段には、 課金に関連する処理に使用される使用者毎のボイント数を 金額情報に対応する分だけ減算することにより課金に関連する処理を実行させる ようにすることができる。

前記出力手段には、 課金手段により課金に関連する処理が完了した後、 課金に 関連する処理が完了した使用者に前景成分画像位置情報、 および、 背景成分画像 位置情報を出力させるようにすることができる。

本発明の第 8の通信システムの通信方法は、 第 1の通信装置の通信方法が、 そ れぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画 素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画 素値からなる画像データの前景オブジェク トを構成する前景オブジェク ト成分か らなる前景成分画像を示す前景成分画像識別情報を入力する前景成分画像識別情 報入力ステップと、 画像データの背景オブジェク トを構成する背景オブジェク ト 成分からなる背景成分画像を示す背景成分画像識別情報を入力する背景成分画像 識別情報入力ステップと、 前景成分画像識別情報と背景成分画像識別情報を第 2 の通信装置に送信する第 1の送信ステップと、 第 2の通信装置より送信されてく る、 前景成分画像位置情報、 および、 背景成分画像位置情報を受信する位置情報 受信ステップとを含み、 第 2の通信装置の通信方法が、 第 1の通信装置より送信 されてくる前景成分画像識別情報を受信する前景成分画像識別情報受信ステップ と、 第 1の通信装置より送信されてくる背景成分画像識別情報を受信する背景成 分画像識別情報受信ステップと、 前景成分画像識別情報、 および、 背景成分画像 識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情報を 生成する画像位置情報生成ステップと、 画像位置情報生成ステップの処理で生成 された前景成分画像位置情報、 および、 背景成分画像位置情報を第 1の通信装置 に送信する第 2の送信ステップとを含むことを特徴とする。

本発明の第 2 7の記録媒体のプログラムは、 第 1の通信装置を制御するプログ ラムが、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取 得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決 定される画素値からなる画像データの前景オブジェク トを構成する前景オブジェ ク ト成分からなる前景成分画像を示す前景成分画像識別情報の入力を制御する前 景成分画像識別情報入力制御ステップと、 画像データの背景オブジェク トを構成 する背景ォブジェク ト成分からなる背景成分画像を示す背景成分画像識別情報の 入力を制御する背景成分画像識別情報入力制御ステップと、 前景成分画像識別情 報と背景成分画像識別情報を第 2の通信装置の送信を制御する第 1の送信制御ス テツプと、 第 2の通信装置より送信されてくる、 前景成分画像位置情報、 および、 背景成分画像位置情報の受信を制御する位置情報受信制御ステップとを含み、 第 2の通信装置を制御するプログラムが、 第 1の通信装置より送信されてくる前景 成分画像識別情報の受信を制御する前景成分画像識別情報受信制御ステップと、 第 1の通信装置より送信されてくる背景成分画像識別情報の受信を制御する背景 成分画像識別情報受信制御ステップと、 前景成分画像識別情報、 および、 背景成 分画像識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置 情報の生成を制御する画像位置情報生成制御ステップと、 画像位置情報生成制御 ステップの処理で生成された前景成分画像位置情報、 および、 背景成分画像位置 情報の第 1の通信装置への送信を制御する第 2の送信制御ステップとを含むこと を特徴とする。

本発明の第 2 7のプログラムは、 第 1の通信装置を制御するコンピュータに、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される 画素値からなる画像データの前景オブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像を示す前景成分画像識別情報の入力を制御する前景成分画 像識別情報入力制御ステップと、 画像データの背景オブジェク トを構成する背景 オブジェク ト成分からなる背景成分画像を示す背景成分画像識別情報の入力を制 御する背景成分画像識別情報入力制御ステップと、 前景成分画像識別情報と背景 成分画像識別情報を第 2の通信装置の送信を制御する第 1の送信制御ステップと、 第 2の通信装置より送信されてくる、 前景成分画像位置情報、 および、 背景成分 画像位置情報の受信を制御する位置情報受信制御ステップとを実行させ、 第 2の 通信装置を制御するコンピュータに、 第 1の通信装置より送信されてくる前景成 分画像識別情報の受信を制御する前景成分画像識別情報受信制御ステップと、 第 1の通信装置より送信されてくる背景成分画像識別情報の受信を制御する背景成 分画像識別情報受信制御ステップと、 前景成分画像識別情報、 および、 背景成分 画像識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情 報の生成を制御する画像位置情報生成制御ステップと、 画像位置情報生成制御ス テツプの処理で生成された前景成分画像位置情報、 および、 背景成分画像位置情 報の第 1の通信装置への送信を制御する第 2の送信制御ステップとをコンビユー タに実行させることを特徴とする。

本発明の第 2 0の通信装置は、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データの前景ォブジェク ト を構成する前景オブジェク ト成分からなる前景成分画像を示す前景成分画像識別 情報を入力する前景成分画像識別情報入力手段と、 画像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像を示す背景成分画像識 別情報を入力する背景成分画像識別情報入力手段と、 前景成分画像識別情報と背 景成分画像識別情報をネットワークを介して他の通信装置に送信する送信手段と、 ネットワークを介して他の通信装置より送信されてくる、 前景成分画像位置情報、 および、 背景成分画像位置情報を受信する位置情報受信手段とを備えることを特 徴とする。

本発明の第 2 0の通信方法は、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データの前景オブジェク ト を構成する前景オブジェク ト成分からなる前景成分画像を示す前景成分画像識別 情報を入力する前景成分画像識別情報入力ステップと、 画像データの背景ォプジ ュク トを構成する背景ォブジェク ト成分からなる背景成分画像を示す背景成分画 像識別情報を入力する背景成分画像識別情報入力ステップと、 前景成分画像識別 情報と背景成分画像識別情報をネットワークを介して他の通信装置に送信する送 信ステップと、 ネッ トワークを介して他の通信装置より送信されてくる、 前景成 分画像位置情報、 および、 背景成分画像位置情報を受信する位置情報受信ステツ プとを含むことを特徴とする。

本発明の第 2 8の記録媒体のプログラムは、 それぞれ時間積分効果を有する所 定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分さ れた画像を構成する光の量に応じて決定される画素値からなる画像データの前景 オブジェク トを構成する前景オブジェク 卜成分からなる前景成分画像を示す前景 成分画像識別情報の入力を制御する前景成分画像識別情報入力制御ステップと、 画像データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成 分画像を示す背景成分画像識別情報の入力を制御する背景成分画像識別情報入力 制御ステップと、 前景成分画像識別情報と背景成分画像識別情報のネッ トワーク を介した他の通信装置への送信を制御する送信制御ステップと、 ネットワークを 介して他の通信装置より送信されてくる、 前景成分画像位置情報、 および、 背景 成分画像位置情報の受信を制御する位置情報受信制御ステップとを含むことを特 徴とする。

本発明の第 2 8のプログラムは、 それぞれ時間積分効果を有する所定数の画素 を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を 構成する光の量に応じて決定される画素値からなる画像データの前景ォブジェク トを構成する前景ォブジュク ト成分からなる前景成分画像を示す前景成分画像識 別情報の入力を制御する前景成分画像識別情報入力制御ステップと、 画像データ の背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像を示 す背景成分画像識別情報の入力を制御する背景成分画像識別情報入力制御ステツ プと、 前景成分画像識別情報と背景成分画像識別情報のネットワークを介した他 の通信装置への送信を制御する送信制御ステップと、 ネットワークを介して他の 通信装置より送信されてくる、 前景成分画像位置情報、 および、 背景成分画像位 置情報の受信を制御する位置情報受信制御ステップとをコンピュータに実行させ ることを特徴とする。

本発明の第 2 1の通信装置は、 ネッ トワークを介して他の通信装置より送信さ れてくる、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって 取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて 決定される画素値からなる画像データの前景成分画像識別情報を受信する前景成 分画像識別情報受信手段と、 他の通信装置より送信されてくる画像データの背景 成分画像識別情報を受信する背景成分画像識別情報受信手段と、 前景成分画像識 別情報、 および、 背景成分画像識別情報に対応する、 前景成分画像位置情報、 お よび、 背景成分画像位置情報を生成する画像位置情報生成手段と、 画像位置情報 生成手段により生成された前景成分画像位置情報、 および、 背景成分画像位置情 報をネットワークを介して他の通信装置に送信する送信手段とを備えることを特 徴とする。

本発明の第 2 1の通信方法は、 ネッ トワークを介して他の通信装置より送信さ れてくる、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって 取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて 決定される画素値からなる画像データの前景成分画像識別情報を受信する前景成 分画像識別情報受信ステップと、 他の通信装置より送信されてくる画像データの 背景成分画像識別情報を受信する背景成分画像識別情報受信ステップと、 前景成 分画像識別情報、 および、 背景成分画像識別情報に対応する、 前景成分画像位置 情報、 および、 背景成分画像位置情報を生成する画像位置情報生成ステップと、 画像位置情報生成ステップの処理で生成された前景成分画像位置情報、 および、 背景成分画像位置情報をネッ トワークを介して他の通信装置に送信する送信ステ ップとを含むことを特徴とする。

本発明の第 2 9の記録媒体のプログラムは、 ネットワークを介して他の通信装 置より送信されてくる、 それぞれ時間積分効果を有する所定数の画素を含む撮像 素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光 の量に応じて決定される画素値からなる画像データの前景成分画像識別情報の受 信を制御する前景成分画像識別情報受信制御ステップと、 他の通信装置より送信 されてくる画像データの背景成分画像識別情報の受信を制御する背景成分画像識 別情報受信制御ステップと、 前景成分画像識別情報、 および、 背景成分画像識別 情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情報の生成 を制御する画像位置情報生成制御ステップと、 画像位置情報生成制御ステップの 処理で生成された前景成分画像位置情報、 および、 背景成分画像位置情報のネッ トワークを介した他の通信装置への送信を制御する送信制御ステップとを含むこ とを特徴とする。

本発明の第 2 9のプログラムは、 ネッ トワークを介して他の通信装置より送信 されてくる、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によつ て取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じ て決定される画素値からなる画像データの前景成分画像識別情報の受信を制御す る前景成分画像識別情報受信制御ステップと、 他の通信装置より送信されてくる 画像データの背景成分画像識別情報の受信を制御する背景成分画像識別情報受信 制御ステップと、 前景成分画像識別情報、 および、 背景成分画像識別情報に対応 する、 前景成分画像位置情報、 および、 背景成分画像位置情報の生成を制御する 画像位置情報生成制御ステップと、 画像位置情報生成制御ステップの処理で生成 された前景成分画像位置情報、 および、 背景成分画像位置情報のネッ トワークを 介した他の通信装置への送信を制御する送信制御ステップとをコンピュータに実 行させることを特徴とする。

本発明の第 1のシステムおよび方法、 並びに第 2のプログラムにおいては、 第 1の通信装置により、 それぞれ時間積分効果を有する所定数の画素を含む撮像素 子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の 量に応じて決定される画素値からなる画像データに基づいて生成される複数の符 号化データのうち、 使用者の要求する要求情報が入力され、 入力された要求情報 1 第 2の通信装置に送信され、 第 2の通信装置より送信されてくる、 要求情報 に対応する、 画像データに基づいて生成される符号化データが受信され、 第 2の 通信装置により、 第 1の通信装置より送信されてくる要求情報が受信され、 画像 データが、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分 画像と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画 像に分離され、 受信された要求情報に基づいて、 画像が前景成分画像と背景成分 画像に分離されるとき生成される符号化データが第 1の通信装置に送信される。 本発明の第 2の通信装置および方法、 並びに第 3のプログラムにおいては、 そ れぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画 素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画 素値からなる画像データに基づいて生成される複数の符号化データのうち、 使用 者の要求する要求情報が入力され、 入力された要求情報が、 他の通信装置に送信 され、 他の通信装置より送信されてくる、 要求情報に対応する、 画像データに基 づいて生成される符号化データが受信される。

本発明の第 3の通信装置および方法、 並びに第 4のプログラムにおいては、 他 の通信装置より送信されてくる要求情報が受信され、 それぞれ時間積分効果を有 する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に 積分された画像を構成する光の量に応じて決定される画素値からなる画像データ 力 S、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景ォブジェク ト成分からなる背景成分画像に分離 され、 受信された要求情報に基づいて、 画像が前景成分画像と背景成分画像に分 離されるとき生成される符号化データが他の通信装置に送信される。

本発明の第 2の通信システムおよび方法、 並びに第 5のプログラムにおいて、 第 1の通信装置により、 それぞれ時間積分効果を有する所定数の画素を含む撮像 素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光 の量に応じて決定される画素値からなる画像データに基づいて生成される複数の 符号化データのうち、 使用者の要求する要求情報が入力され、 入力された要求情 報が、 第 2乃至第 4の通信装置のいずれかに送信され、 第 2乃至第 4の通信装置 のいずれかより送信されてくる、 要求情報に対応する、 画像データに基づいて生 成される符号化データが受信され、 第 2の通信装置により、 第 1の通信装置より 送信されてくる要求情報が受信され、 画像データが、 前景オブジェク トを構成す る前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する 背景オブジェク ト成分からなる背景成分画像に分離され、 受信された要求情報に 基づいて、 画像が分離された、 前景成分画像と背景成分画像が符号化データとし て第 1の通信装置に送信され、 第 3の通信装置により、 第 1の通信装置より送信 されてくる要求情報が受信され、 画像データの、 前景オブジェク トを構成する前 景ォブジェク ト成分からなる前景領域、 所定の画像データの背景オブジェク トを 構成する背景オブジェク ト成分からなる背景領域、 および、 前景領域と背景領域 が混合された混合領域のうちのいずれか 1つを識別する領域情報が生成され、 受 信された要求情報に基づいて、 生成された領域情報が符号化データとして第 1の 通信装置に送信され、 第 4の通信装置により、 第 1の通信装置より送信されてく る要求情報が受信され、 画像データの混合領域の前景領域と背景領域が混合され た比率を示す混合比が生成され、 受信された要求情報に基づいて、 生成された混 合比が符号化データとして第 1の通信装置に送信される。

本発明の第 4の通信装置および方法、 並びに第 6のプログラムにおいては、 使 用者の要求情報が入力され、 要求情報に応じて、 それぞれ時間積分効果を有する 所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分 された画像を構成する光の量に応じて決定される画素値からなる画像データの前 景ォブジェク トを構成する前景ォブジェク ト成分からなる前景成分画像と、 画像 データの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画 像を合成され、 合成画像が生成され、 生成された合成画像が出力される。

本発明の第 3の通信システムおよび方法、 並びに第 7のプログラムにおいては、 第 1の通信装置により、 使用者の要求情報が入力され、 入力された要求情報が第 2の通信装置に送信され、 要求情報に応じて、 第 2の通信装置より送信されてく る合成画像が受信され、 第 2の通信装置により、 第 1の通信装置より送信されて くる要求情報が受信され、 要求情報に応じて、 それぞれ時間積分効果を有する所 定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分さ れた画像を構成する光の量に応じて決定される画素値からなる画像データの前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 画像デ ータの背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像 が合成され、 合成画像が生成され、 生成された合成画像が、 第 1の通信装置に送 信される。

本発明の第 5の通信装置および方法、 並びに第 8のプログラムにおいては、 使 用者の要求情報が入力され、 入力された要求情報が他の通信装置に送信され、 要 求情報に応じて、 他の通信装置より送信されてくる合成画像が受信される。

本発明の第 6の通信装置および方法、 並びに第 9のプログラムにおいては、 他 の通信装置より送信されてくる要求情報が受信され、 要求情報に応じて、 それぞ れ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎 に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画素値 からなる画像データの前景オブジェク トを構成する前景オブジェク ト成分からな る前景成分画像と、 画像データの背景オブジェク トを構成する背景オブジェク ト 成分からなる背景成分画像が合成されて、 合成画像が生成され、 生成された合成 画像が、 他の通信装置に送信される。

本発明の第 7の通信装置および方法、 並びに第 1 0のプログラムにおいては、 使用者の要求情報が入力され、 要求情報に基づいて、 それぞれ時間積分効果を有 する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に 積分された画像を構成する光の量に応じて決定される画素値からなる画像データ の、 前景オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像との混 合の比率を示す混合比が推定され、 混合比に基づいて、 画像データが、 前景成分 画像と、 背景成分画像に分離され、 分離された前景成分画像と、 任意の背景成分 画像、 または、 分離された背景成分画像と、 任意の前景成分画像とが、 所定の混 合比で合成され、 合成画像が生成され、 合成された合成画像が出力される。

本発明の第 4の通信システムおよび方法、 並びに第 1 1のプログラムにおいて は、 第 1の通信装置により、 使用者の要求情報が入力され、 入力された要求情報 が第 2の送信装置に送信され、 第 2の通信装置より送信されてくる合成画像が受 信され、 第 2の通信装置により、 第 1の送信装置より送信されてくる要求情報が 受信され、 要求情報に基づいて、 それぞれ時間積分効果を有する所定数の画素を 含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構 成する光の量に応じて決定される画素値からなる画像データの、 前景ォブジェク トを構成する前景オブジェク ト成分からなる前景成分画像と、 背景オブジェク ト を構成する背景オブジェク ト成分からなる背景成分画像との混合の比率を示す混 合比が推定され、 混合比に基づいて、 画像データが、 前景成分画像と、 背景成分 画像に分離され、 分離された前景成分画像と、 任意の背景成分画像、 または、 分 離された背景成分画像と、 任意の前景成分面像とが、 所定の混合比で合成され、 合成画像が生成され、 合成された合成画像が第 1の通信装置に送信される。

本発明の第 8の通信装置および方法、 並びに第 1 2のプログラムにおいては、 使用者の要求情報が入力され、 要求情報が他の通信装置に送信され、 他の通信装 置より送信されてくる合成画像が受信される。

本発明の第 9の通信装置および方法、 並びに第 1 3のプログラムにおいては、 他の通信装置より送信されてくる要求情報が受信され、 要求情報に基づいて、 そ れぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画 素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される画 素値からなる画像データの、 前景ォブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェク ト成分か らなる背景成分画像との混合の比率を示す混合比が推定され、 混合比に基づいて、 画像データが、 前景成分画像と、 背景成分画像に分離され、 分離された前景成分 画像と、 任意の背景成分画像、 または、 分離された背景成分画像と、 任意の前景 成分画像とが、 所定の混合比で合成され、 合成画像が生成され、 合成された合成 画像が他の通信装置に送信される。

本発明の第 1 0の通信装置および方法、 並びに第 1 4プログラムにおいては、 使用者が要求する画像を識別する識別子が入力され、 それぞれ時間積分効果を有 する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に 積分された画像を構成する光の量に応じて決定される画素値からなる画像データ が分離された前景オブジェク トを構成する前景オブジェク ト成分からなる前景成 分画像、 および、 背景オブジェク トを構成する背景ォブジェク ト成分からなる背 景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像が記憶さ れ、 記憶された画像のうち、 入力された画像識別子に対応する画像が検索され、 検索された画像が、 使用者の通信装置に出力され、 検索された画像に応じて、 課 金に関連する処理が実行される。

本発明の第 5の通信システムおよび方法、 並びに第 1 5のプログラムにおいて は、 第 1の通信装置により、 使用者が要求する画像を識別する識別子が入力され、 画像識別子が第 2の通信装置に送信され、 画像識別子に対応して検索された画像 が受信され、 第 2の通信装置により、 第 1の通信装置より送信されてくる画像識 別子が受信され、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子に よって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に 応じて決定される画素値からなる画像データが分離された前景ォブジェク トを構 成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク ト を構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画 像以上の画像により構成される画像が記憶され、 記憶された画像のうち、 受信さ れた画像識別子に対応する画像が検索され、 検索された画像が、 第 1の通信装置 に出力され、 検索された画像に応じて、 課金に関連する処理が実行される。

本発明の第 1 1の通信装置および方法、 並びに第 1 6のプログラムにおいては、 使用者が要求する画像を識別する識別子が入力され、 画像識別子が他の通信装置 に送信され、 画像識別子に対応して検索された画像が受信される。 本発明の第 1 2の通信装置および方法、 並びに第 1 7のプログラムにおいては、 他の通信装置より送信されてくる画像識別子が受信され、 それぞれ時間積分効果 を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間 的に積分された画像を構成する光の量に応じて決定される画素値からなる画像デ ータが分離された前景オブジェク トを構成する前景オブジェク ト成分からなる前 景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からな る背景成分画像のうち、 少なくとも 1画像以上の画像により構成される画像が記 憶され、 記憶された画像のうち、 受信された画像識別子に対応する画像が検索さ れ、 検索された画像が、 他の通信装置に出力され、 検索された画像に応じて、 課 金に関連する処理が実行される。

本発明の第 1 3の通信装置および方法、 並びに第 1 8のプログラムにおいては、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される 画素値からなる画像データが分離された前景ォブジェク トを構成する前景ォブジ ェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景ォ ブジェク ト成分からなる背景成分画像のうち、 少なくとも 1画像以上の画像によ り構成される画像が入力され、 入力された画像が記憶され、 記憶された画像に応 じて、 払込処理が実行される。

本発明の第 6の通信システムおよび方法、 並びに第 1 9のプログラムにおいて は、 第 1の通信装置により、 それぞれ時間積分効果を有する所定数の画素を含む 撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成す る光の量に応じて決定される画素値からなる画像データが分離された前景ォブジ エタ トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景ォ ブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少な くとも 1画像以上の画像により構成される画像が入力され、 入力された画像が第 2の通信装置に送信され、 第 2の通信装置により、 第 1の通信装置より送信され てくる画像が受信され、 受信された画像が記憶され、 記憶された画像に応じて、 払込処理が実行される。

本発明の第 1 4の通信装置および方法、 並びに第 2 0のプログラムにおいては、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される 画素値からなる画像データが分離された前景オブジェク トを構成する前景ォブジ ェク ト成分からなる前景成分画像、 および、 背景ォブジェク トを構成する背景ォ ブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以上の画像によ り構成される画像が入力され、 入力された画像が他の通信装置に送信される。 本発明の第 1 5の通信装置および方法、 並びに第 2 1のプログラムにおいては、 他の通信装置より送信されてくる画像が受信され、 受信された画像が記憶され、 記憶された画像に応じて、 払込処理が実行される。

本発明の第 1 6の通信装置および方法、 並びに第 2 2のプログラムにおいては、 使用者の検索要求情報が入力され、 それぞれ時間積分効果を有する所定数の画素 を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を 構成する光の量に応じて決定される画素値からなる画像データが分離された前景 オブジェク トを構成する前景オブジェク ト成分からなる前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像のうち、 少なくとも 1画像以上の画像により構成される画像が記憶され、 記憶された画像 のうち、 入力された検索要求情報に対応する画像が検索され、 検索結果が出力さ れ、 検索結果に対応して、 課金に関連する処理が実行される。

本発明の第 7の通信システムおよび方法、 並びに第 2 3のプログラムにおいて は、 第 1の通信装置により、 使用者の検索要求情報が入力され、 検索要求情報が 第 2の通信装置に送信され、 第 2の通信装置より送信されてくる検索結果が受信 され、 第 2の通信装置により、 第 1の通信装置より送信されてくる検索要求情報 が受信され、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によつ て取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じ て決定される画素値からなる画像データが分離された前景オブジェク トを構成す る前景ォブジェク ト成分からなる前景成分画像、 および、 背景ォブジェク トを構 成する背景オブジェク ト成分からなる背景成分画像のうち、 少なく とも 1画像以 上の画像により構成される画像が記憶され、 記憶された画像のうち、 受信された 検索要求情報に対応する画像が検索され、 検索結果が第 1の通信装置に送信され、 検索結果に対応して、 課金に関連する処理が実行される。

本発明の第 1 7の通信装置および方法、 並びに第 2 4のプログラムにおいては、 使用者の検索要求情報が入力され、 検索要求情報が他の通信装置に送信され、 他 の通信装置より送信されてくる検索結果が受信される。

本発明の第 1 8の通信装置および方法、 並びに第 2 5のプログラムにおいては、 他の通信装置より送信されてくる検索要求情報が受信され、 それぞれ時間積分効 果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時 間的に積分された画像を構成する光の量に応じて決定される画素値からなる画像 データが分離された前景オブジェク トを構成する前景オブジェク ト成分からなる 前景成分画像、 および、 背景オブジェク トを構成する背景オブジェク ト成分から なる背景成分画像のうち、 少なく とも 1画像以上の画像により構成される画像が 記憶され、 記憶された画像のうち、 受信された検索要求情報に対応する画像が検 索され、 検索結果が他の通信装置に送信され、 検索結果に対応して、 課金に関連 する処理が実行される。

本発明の第 1 9の通信装置および方法、 並びに第 2 6のプログラムにおいては、 それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される 画素値からなる画像データの前景オブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像を示す前景成分画像識別情報が入力され、 画像データの背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画像を示す背 景成分画像識別情報が入力され、 前景成分画像識別情報、 および、 背景成分画像 識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情報が 生成され、 生成された前景成分画像位置情報、 および、 背景成分画像位置情報が 出力される。

本発明の第 8の通信システムおよび方法、 並びに第 2 7のプログラムにおいて は、 第 1の通信装置により、 それぞれ時間積分効果を有する所定数の画素を含む 撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成す る光の量に応じて決定される画素値からなる画像データの前景オブジェク トを構 成する前景オブジェク ト成分からなる前景成分画像を示す前景成分画像識別情報 が入力され、 画像データの背景オブジェク トを構成する背景オブジェク ト成分か らなる背景成分画像を示す背景成分画像識別情報が入力され、 前景成分画像識別 情報と背景成分画像識別情報が第 2の通信装置に送信され、 第 2の通信装置より 送信されてくる、 前景成分画像位置情報、 および、 背景成分画像位置情報が受信 され、 第 2の通信装置により、 第 1の通信装置より送信されてくる前景成分画像 識別情報が受信され、 第 1の通信装置より送信されてくる背景成分画像識別情報 が受信され、 前景成分画像識別情報、 および、 背景成分画像識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像位置情報が生成され、 生成された 前景成分画像位置情報、 および、 背景成分画像位置情報が第 1の通信装置に送信 される。

本発明の第 2 0の通信装置および方法、 並びに第 2 8のプログラムにおいては, それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定される 画素値からなる画像データの前景オブジェク トを構成する前景オブジェク ト成分 からなる前景成分画像を示す前景成分画像識別情報が入力され、 画像データの背 景ォブジェク トを構成する背景オブジェク ト成分からなる背景成分画像を示す背 景成分画像識別情報が入力され、 前景成分画像識別情報と背景成分画像識別情報 がネッ トワークを介して他の通信装置に送信され、 ネットワークを介して他の通 信装置より送信されてくる、 前景成分画像位置情報、 および、 背景成分画像位置 情報が受信される。

本発明の第 2 1の通信装置および方法、 並びに第 2 9のプログラムにおいては, ネットワークを介して他の通信装置より送信されてくる、 それぞれ時間積分効果 を有する所定数の画素を含む撮像素子によって取得され、 画素毎に、 かつ、 時間 的に積分された画像を構成する光の量に応じて決定される画素値からなる画像デ ータの前景成分画像識別情報が受信され、 他の通信装置より送信されてくる画像 データの背景成分画像識別情報が受信され、 前景成分画像識別情報、 および、 背 景成分画像識別情報に対応する、 前景成分画像位置情報、 および、 背景成分画像 位置情報が生成され、 生成された前景成分画像位置情報、 および、 背景成分画像 位置情報がネッ トワークを介して他の通信装置に送信される。

結果として、 画像に動きボケを付加することで暗号化させることが可能となり、 さらに、 動きボケの除去、 すなわち、 暗号化時に付加した動きボケと逆の動きボ ケを付加することで、 暗号化された画像を復号することが可能となる。

また、 前景成分画像の動きボケを調整することで、 動きボケのない鮮明な前景 成分画像が得られると共に、 動きボケを調整することにより得られる前景成分画 像を、 背景成分画像と合成することにより、 見た目により自然な合成画像を生成 することが可能となる。 結果として、 前景成分画像の動きボケの調整と背景成分 画像との合成により、 画像を自在に修正することが可能となる。

さらに、 画像の混ざり合いの状態に基づいて画像を分離、 合成、 または、 修正 するなどした画像をネットワーク 1上で、 購入、 または、 売却することができる ので、 使用者が作成した画像を売買することにより、 分離、 合成、 または、 修正 された画像を有効に利用することができるようになる。

また、 ネットワーク上のカメラ端末装置 2 8 - 1乃至 2 8— nが今現在撮像し ている、 または、 撮像されて蓄積されている画像を、 検索条件としてを入力する ことにより検索することが可能となる。

さらに、 使用者が利用するコンピュータ上に画像を記憶するのではなく、 所定 の蓄積サーバなどに記憶させ、 記憶されている蓄積サーバの位置情報により必要 に応じて画像を読み出して利用するようにすることで、 一度使用した画像データ を自らの通信装置に保存しておかなくても、 必要に応じて呼び出して使用するこ とが可能となり、 画像を効率的に利用することができる。

以上によれば、 画像に対して動きボケを付加することで暗号化することが可能 になるとともに、 動きボケを除去することで復号することが可能となる。 さらに、 動きボケを除去し、 鮮明な画像を生成することが可能になると共に、 動きボケが 調整された画像と背景画像とが合成されることにより、 より自然な画像の修正を 自在に実現することが可能となる。 また、 画像の混ざり合いの状態に基づいて画 像を分離、 合成、 または、 修正するなどした画像をネットワーク上で有効に利用 できるようにするものである。 さらに、 画像を分離、 合成、 または、 修正するな どした画像をネットワーク上で検索することが可能となる。 また、 一度使用した 画像データを自らの通信装置に保存しておかなくても、 必要に応じて呼び出して 使用することが可能となる。

本発明の信号処理を行うプログラムを記録した記録媒体は、 図 2 , 3に示すよ うに、 コンピュータとは別に、 使用者にプログラムを提供するために配布される、 プログラムが記録されている磁気ディスク 6 1 , 9 1 (フレキシブルディスクを 含む) 、 光ディスク 6 2 , 9 2 (CD-ROM (Compact Di sc-Read Only Memory) , DVD (Di gi tal Versat i le Di sc)を含む) 、 光磁気ディスク 6 3, 9 3 (MD

(Mini -Di sc) (商標) を含む) 、 もしくは半導体メモリ 6 4, 9 4などよりな るパッケージメディアにより構成されるだけでなく、 コンピュータに予め組み込 まれた状態で使用者に提供される、 プログラムが記録されている R0M 4 2, 7 2 や、 記憶部 4 8 , 7 8に含まれるハードディスクなどで構成される。

なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも含むもの である。

また、 本明細書において、 システムとは、 複数の装置により構成される装置全 体を表すものである。 産業上の利用可能性

本発明によれば、 画像の加工速度を向上させることが可能になると共に、 分散 して処理することにより、 必要とされる処理だけを実行させることにより、 その サービスに係るコストを低減させることが可能となる。

Claims

請求の範囲
1 . それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取得 され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決定 される画素値からなる画像データを、 前景オブジェク トを構成する前景オブジェ ク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェク ト成分からなる背景成分画像に分離する分離手段と、
使用者の要求情報を入力する要求情報入力手段と、
前記要求情報入力手段により入力された前記要求情報に基づいて、 前記分離手 段により前記画像が前記前景成分画像と前記背景成分画像に分離されるとき生成 される符号化データを出力する符号化データ出力手段と
を備えることを特徴とする通信装置。
2 . 前記要求情報に応じて、 課金に関連する処理を実行する課金手段をさらに 備える
ことを特徴とする請求の範囲第 1項に記載の通信装置。
3 . 前記課金手段は、 前記要求情報に応じて前記使用者の識別子、 前記通信装 置の識別子、 および、 前記要求情報に対応する金額情報を含む課金情報を生成す る
ことを特徴とする請求の範囲第 2項に記載の通信装置。
4 . 前記課金手段は、 前記課金情報に基づいて、 前記使用者の金融講座に対し て課金に関する処理を実行する
ことを特徴とする請求の範囲第 3項に記載の通信装置。
5 . 前記課金手段は、 課金に関連する処理に使用される使用者毎のポイント数 を前記金額情報に対応する分だけ減算することにより課金に関連する処理を実行 する
ことを特徴とする請求の範囲第 4項に記載の通信装置。
6 . 前記符号化データ出力手段は、 前記課金手段により課金に関連する処理が 完了した後、 前記符号化データを課金に関連する処理が完了した前記使用者の通 信装置に出力する
ことを特徴とする請求の範囲第 2項に記載の通信装置。
7 . 前記要求情報入力手段は、 前記使用者の要求情報に加えて、 前記所定の画 像データを入力し、
前記符号化データ出力手段は、 前記要求情報入力手段により入力された前記要 求情報と、 前記所定の画像データに基づいて、 前記分離手段により前記所定の画 像が前記前景成分画像と前記背景成分画像に分離されるとき生成される有意情報 としての前記符号化デ一タを、 前記課金手段により課金に関連する処理が完了し た後、 前記使用者にのみ取得可能な方法で出力する
ことを特徴とする請求の範囲第 6項に記載の通信装置。
8 . 前記所定の画像データの前景オブジェク トを構成する前景オブジェク ト成 分からなる前景領域、 前記所定の画像データの背景ォブジェク トを構成する背景 オブジェク ト成分からなる背景領域、 および、 前記前景領域と前記背景領域が混 合された混合領域のうちのいずれか 1つを識別する領域情報を生成する領域情報 生成手段をさらに備え、
前記有意情報は、 前記領域情報を含み、
前記符号化データ出力手段は、 前記要求情報入力手段により入力された前記要 求情報と、 前記所定の画像データに基づいて、 前記分離手段により前記所定の画 像が前記前景成分画像と前記背景成分画像に分離されるとき、 生成される前記領 域情報としての前記符号化データを、 前記課金手段により課金に関連する処理が 完了した後、 前記使用者にのみ取得可能な方法で出力する
ことを特徴とする請求の範囲第 7項に記載の通信装置。
9 . 前記所定の画像データの前記混合領域の前記前景領域と前記背景領域が混 合された比率を示す混合比を生成する混合比生成手段をさらに備え、
前記有意情報は、 前記混合比を含み、
前記符号化データ出力手段は、 前記要求情報入力手段により入力された前記要 求情報と、 前記所定の画像データに基づいて、 前記分離手段により前記所定の画 像が前記前景成分画像と前記背景成分画像に分離されるとき、 生成される前記混 合比としての前記符号化データを、 前記課金手段により課金に関連する処理が完 了した後、 前記使用者にのみ取得可能な方法で出力する
ことを特徴とする請求の範囲第 7項に記載の通信装置。
1 0 . 前記分離手段は、 それぞれ時間積分効果を有する所定数の画素を含む撮 像素子によって取得され、 画素毎に、 かつ、 時間的に積分された所定の画像を構 成する光の量に応じて決定される画素値からなる所定の画像データを、 前記領域 情報、 および、 前記混合比に基づいて、 前景オブジェク トを構成する前景ォブジ ェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェ ク ト成分からなる背景成分画像に分離し、
前記有意情報は、 前記前景成分画像と前記背景成分画像を含み、
前記符号化データ出力手段は、 前記要求情報入力手段により入力された前記要 求情報と、 前記分離手段により前記所定の画像が前記前景成分画像と前記背景成 分画像に分離されるとき、 生成される前記前景成分画像と前記背景成分画像とし ての前記符号化データを、 前記課金手段により課金に関連する処理が完了したと き、 前記使用者にのみ取得可能な方法で出力する
ことを特徴とする請求の範囲第 7項に記載の通信装置。
1 1 . 前記要求情報入力手段は、 前記使用者の要求情報に加えて、 前記所定の 画像データを識別する画像データ識別子を入力し、
前記符号化データ出力手段は、 前記要求情報入力手段により入力された前記要 求情報と、 前記画像データ識別子に対応する所定の画像データに基づいて、 前記 分離手段により前記所定の画像が前記前景成分画像と前記背景成分画像に分離さ れるとき生成される有意情報としての前記符号化データを、 前記課金手段により 課金に関連する処理が完了した後、 前記使用者にのみ取得可能な方法で出力する ことを特徴とする請求の範囲第 6項に記載の通信装置。
1 2 . 前記画像データ識別子に対応する所定の画像データの前景オブジェク ト を構成する前景オブジェク ト成分からなる前景領域、 前記画像データ識別子に対 応する所定の画像データの背景オブジェク トを構成する背景オブジェク ト成分か らなる背景領域、 および、 前記前景領域と前記背景領域が混合された混合領域の うちのいずれか 1つを識別する領域情報を生成する領域情報生成手段をさらに備 、
前記有意情報は、 前記領域情報を含み、 前記符号化データ出力手段は、 前記要 求情報入力手段により入力された前記要求情報と、 前記所定の画像データに基づ いて、 前記分離手段により前記所定の画像が前記前景成分画像と前記背景成分画 像に分離されるとき、 生成される前記領域情報としての前記符号化データを、 前 記課金手段により課金に関連する処理が完了した後、 前記使用者にのみ取得可能 な方法で出力する
ことを特徴とする請求の範囲第 1 1項に記載の通信装置。
1 3 . 前記画像データ識別子に対応する所定の画像データ中の前記混合領域の 混合比を生成する混合比生成手段をさらに備え、
前記有意情報は、 前記混合比を含み、
前記符号化データ出力手段は、 前記要求情報入力手段により入力された前記要 求情報と、 前記画像データ識別子に対応する所定の画像データに基づいて、 前記 分離手段により前記所定の画像が前記前景成分画像と前記背景成分画像に分離さ れるとき、 生成される前記混合比としての前記符号化データを、 前記課金手段に より課金に関連する処理が完了した後、 前記使用者にのみ取得可能な方法で出力 する
ことを特徴とする請求の範囲第 1 1項に記載の通信装置。
1 4 . 前記分離手段は、 それぞれ時間積分効果を有する所定数の画素を含む撮 像素子によって取得され、 画素毎に、 かつ、 時間的に積分された所定の画像を構 成する光の量に応じて決定される画素値からなる所定の画像データを、 前記領域 情報、 および、 前記混合比に基づいて、 前景ォブジヱタ トを構成する前景ォブジ ュクト成分からなる前景成分画像と、 背景ォブジユタ トを構成する背景オブジェ クト成分からなる背景成分画像に分離し、 前記有意情報は、 前記前景成分画像と前記背景成分画像を含み、 前記符号化データ出力手段は、 前記要求情報入力手段により入力された前記要 求情報と、 前記分離手段により前記所定の画像が前記前景成分画像と前記背景成 分画像に分離されるとき、 生成される前記前景成分画像と前記背景成分画像とし ての前記符号化データを、 前記課金手段により課金に関連する処理が完了したと き、 前記使用者にのみ取得可能な方法で出力する
ことを特徴とする請求の範囲第 1 1項に記載の通信装置。
1 5 . それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取 得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決 定される画素値からなる画像データを、 前景オブジェク トを構成する前景ォブジ ェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェ ク ト成分からなる背景成分画像に分離する分離ステップと、
使用者の要求情報を入力する要求情報入力ステップと、
要求情報入力ステップの処理で入力された前記要求情報に基づいて、 前記分離 ステップの処理により前記画像が前記前景成分画像と前記背景成分画像に分離さ れるとき生成される符号化データを出力する符号化データ出力ステップと を含むことを特徴とする通信方法。
1 6 . それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取 得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決 定される画素値からなる画像データの、 前景オブジェク トを構成する前景ォブジ ェク ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェ ク ト成分からなる背景成分画像との分離を制御する分離制御ステップと、 使用者の要求情報の入力を制御する要求情報入力制御ステップと、
要求情報入力制御ステップの処理で入力された前記要求情報に基づいて、 前記 分離制御ステップの処理により前記画像が前記前景成分画像と前記背景成分画像 に分離されるとき生成される符号化データの出力を制御する符号化データ出力制 御ステップと を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。 / 1 7 . それぞれ時間積分効果を有する所定数の画素を含む撮像素子によって取 得され、 画素毎に、 かつ、 時間的に積分された画像を構成する光の量に応じて決 定される画素値からなる画像データの、 前景ォブジェク トを構成する前景ォブジ エタ ト成分からなる前景成分画像と、 背景オブジェク トを構成する背景オブジェ ク ト成分からなる背景成分画像との分離を制御する分離制御ステップと、 使用者の要求情報の入力を制御する要求情報入力制御ステップと、
要求情報入力制御ステップの処理で入力された前記要求情報に基づいて、 前記 分離制御ステップの処理により前記画像が前記前景成分画像と前記背景成分画像 に分離されるとき生成される符号化データの出力を制御する符号化データ出力制 御ステップと
をコンピュータに実行させるプログラム。
PCT/JP2002/006386 2001-06-27 2002-06-26 Communication apparatus and method WO2003003308A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001195592A JP4596227B2 (ja) 2001-06-27 2001-06-27 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP2001-195592 2001-06-27

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US10362725 US7619655B2 (en) 2001-06-27 2002-06-26 Communication apparatus and method
CA 2420029 CA2420029C (en) 2001-06-27 2002-06-26 Communication apparatus and method
DE2002634030 DE60234030D1 (de) 2001-06-27 2002-06-26 Kommunikationsvorrichtung und -verfahren
MXPA03001701A MXPA03001701A (es) 2001-06-27 2002-06-26 Sistema y metodo de comunicaciones.
KR20037002821A KR100886618B1 (ko) 2001-06-27 2002-06-26 통신 장치 및 방법
EP20020743725 EP1400927B1 (en) 2001-06-27 2002-06-26 Communication apparatus and method
US12544717 US8164638B2 (en) 2001-06-27 2009-08-20 Communication system and method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12544717 Continuation US8164638B2 (en) 2001-06-27 2009-08-20 Communication system and method thereof

Publications (1)

Publication Number Publication Date
WO2003003308A1 true true WO2003003308A1 (en) 2003-01-09

Family

ID=19033541

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/006386 WO2003003308A1 (en) 2001-06-27 2002-06-26 Communication apparatus and method

Country Status (8)

Country Link
US (2) US7619655B2 (ja)
EP (3) EP1865720B1 (ja)
JP (1) JP4596227B2 (ja)
KR (1) KR100886618B1 (ja)
CN (2) CN1251149C (ja)
CA (1) CA2420029C (ja)
DE (3) DE60234030D1 (ja)
WO (1) WO2003003308A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101092287B1 (ko) 2004-02-13 2011-12-13 소니 주식회사 화상 처리 장치 및 화상 처리 방법

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596227B2 (ja) 2001-06-27 2010-12-08 ソニー株式会社 通信装置および方法、通信システム、記録媒体、並びにプログラム
GB2379299B (en) * 2001-09-04 2006-02-08 Imagination Tech Ltd A texturing system
US20030105707A1 (en) * 2001-11-30 2003-06-05 Yves Audebert Financial risk management system and method
US20040012811A1 (en) * 2002-07-22 2004-01-22 Toshiba Tec Kabushiki Kaisha System and method for taking, storing and printing digital pictures
KR20050006085A (ko) 2003-07-08 2005-01-15 호야 가부시키가이샤 마스크 블랭크 수납용 컨테이너, 마스크 블랭크 수납방법, 및 마스크 블랭크 패키지
KR20060119707A (ko) * 2004-02-13 2006-11-24 소니 가부시끼 가이샤 화상 처리 장치와 화상 처리 방법 및 프로그램
CN100423557C (zh) * 2004-02-13 2008-10-01 索尼株式会社 图像处理装置以及图像处理方法
WO2006068289A1 (ja) * 2004-12-21 2006-06-29 Sony Corporation 学習装置と学習方法および学習プログラム
US8094814B2 (en) * 2005-04-05 2012-01-10 Broadcom Corporation Method and apparatus for using counter-mode encryption to protect image data in frame buffer of a video compression system
JP4839128B2 (ja) * 2006-05-10 2011-12-21 矢崎総業株式会社 グラフィックメータ表示装置
JP4839131B2 (ja) * 2006-05-17 2011-12-21 矢崎総業株式会社 グラフィックメータ表示装置
CN100515045C (zh) 2006-09-20 2009-07-15 威盛电子股份有限公司 多媒体装置的情境仿真系统及其处理方法
US20080165278A1 (en) * 2007-01-04 2008-07-10 Sony Corporation Human visual system based motion detection/estimation for video deinterlacing
US8553758B2 (en) * 2007-03-02 2013-10-08 Sony Corporation Motion parameter engine for true motion
US20080212687A1 (en) * 2007-03-02 2008-09-04 Sony Corporation And Sony Electronics Inc. High accurate subspace extension of phase correlation for global motion estimation
CN101601279B (zh) * 2007-08-03 2011-11-16 松下电器产业株式会社 摄像装置以及摄像方法
WO2009040872A1 (ja) * 2007-09-25 2009-04-02 Fujitsu Limited 画像合成装置及び方法
US8094714B2 (en) * 2008-07-16 2012-01-10 Sony Corporation Speculative start point selection for motion estimation iterative search
US8144766B2 (en) * 2008-07-16 2012-03-27 Sony Corporation Simple next search position selection for motion estimation iterative search
KR200453861Y1 (ko) * 2009-02-23 2011-05-30 이양운 컴퓨터가 내장된 책상
US20110055023A1 (en) * 2009-08-28 2011-03-03 Yahoo! Inc. Above the fold
WO2011033572A1 (ja) * 2009-09-18 2011-03-24 株式会社 東芝 中継装置
WO2011077177A8 (en) * 2009-12-22 2012-06-21 Thomson Licensing Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
US8823739B2 (en) 2010-08-25 2014-09-02 International Business Machines Corporation Background replacement for videoconferencing
US20150036008A1 (en) * 2012-03-26 2015-02-05 Nokia Corporation Method, Apparatus and Computer Program Product for Image Stabilization
US20150106195A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for handling inserted data into captured images
US9799036B2 (en) 2013-10-10 2017-10-24 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy indicators
US20150106628A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Devices, methods, and systems for analyzing captured image data and privacy data
US10013564B2 (en) 2013-10-10 2018-07-03 Elwha Llc Methods, systems, and devices for handling image capture devices and captured images

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113338A (ja) * 1992-09-30 1994-04-22 Fujitsu Ltd 多眼式立体映像の動き補償予測方法
JPH06319130A (ja) * 1993-05-08 1994-11-15 Fujitsu General Ltd 画像伝送システム
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) * 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
EP0933727A2 (en) * 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190016A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) * 2000-12-21 2002-07-05 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2002190028A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
US5262871A (en) * 1989-11-13 1993-11-16 Rutgers, The State University Multiple resolution image sensor
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
JP3372289B2 (ja) * 1993-04-28 2003-01-27 富士写真フイルム株式会社 ディジタルカメラ
US5886743A (en) * 1994-12-28 1999-03-23 Hyundai Electronics Industries Co. Ltd. Object-by information coding apparatus and method thereof for MPEG-4 picture instrument
JP3086396B2 (ja) * 1995-03-10 2000-09-11 シャープ株式会社 画像符号化装置及び画像復号装置
EP0771107B1 (en) * 1995-05-12 2002-12-11 Sony Corporation Key signal generating device, picture producing device, key signal generating method, and picture producing method
JP3804836B2 (ja) 1995-05-12 2006-08-02 ソニー株式会社 キー信号生成装置および画像合成装置、並びにキー信号生成方法および画像合成方法
US5915044A (en) * 1995-09-29 1999-06-22 Intel Corporation Encoding video images using foreground/background segmentation
JPH09245091A (ja) 1996-03-12 1997-09-19 Nippon Telegr & Teleph Corp <Ntt> 映像素材分割課金設定方法及びシステム
KR100501902B1 (ko) 1996-09-25 2005-07-07 주식회사 팬택앤큐리텔 영상정보부호화/복호화장치및방법
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
JPH10124651A (ja) * 1996-10-25 1998-05-15 Toppan Printing Co Ltd 画像サービスシステム
JP2001503895A (ja) 1996-11-15 2001-03-21 サーノフ コーポレイション ビデオ情報を効果的に表示、保存、およびアクセスするための方法および装置
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
JP3610423B2 (ja) 1997-03-19 2005-01-12 治 森川 映像表示システムおよびその臨場感向上方法
WO1998044739A1 (en) * 1997-03-31 1998-10-08 Sharp Kabushiki Kaisha Mosaic generation and sprite-based image coding with automatic foreground and background separation
JP3728884B2 (ja) 1997-08-01 2005-12-21 ソニー株式会社 画像処理装置及び方法、画像合成装置、並びに記録媒体
JP4214425B2 (ja) 1997-09-30 2009-01-28 ソニー株式会社 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体
JPH11224285A (ja) 1997-12-05 1999-08-17 Tokyo Electron Ltd コンテンツ保護方法及びシステム、コンテンツ処理システム、管理システム及び記録媒体
JP3612227B2 (ja) 1998-01-07 2005-01-19 株式会社東芝 物体抽出装置
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
JP2000059758A (ja) 1998-08-05 2000-02-25 Matsushita Electric Ind Co Ltd 監視カメラ装置、監視装置、及びこれらを用いた遠隔監視システム
JP4161426B2 (ja) 1998-09-28 2008-10-08 ソニー株式会社 画像印刷装置及び画像印刷方法
JP2000168187A (ja) 1998-12-07 2000-06-20 Dainippon Printing Co Ltd 街頭端末を利用した画像加工システム
JP4306850B2 (ja) 1998-12-08 2009-08-05 キヤノン株式会社 放送受信装置およびその方法
JP3603629B2 (ja) 1998-12-24 2004-12-22 カシオ計算機株式会社 画像処理装置及び画像処理方法
JP3369994B2 (ja) 1998-12-28 2003-01-20 株式会社オリエントコーポレーション カード作成支援装置及び方法並びにカード作成支援用ソフトウェアを記録した記録媒体
JP2000278633A (ja) 1999-03-26 2000-10-06 Victor Co Of Japan Ltd デジタル映像記録装置、デジタル映像記録再生装置およびデジタル映像記録方法
CA2307352A1 (en) 1999-06-30 2000-12-30 International Business Machines Corporation System and method for displaying a three-dimensional object using motion vectors to generate object blur
US6822760B1 (en) * 2000-04-05 2004-11-23 Eastman Kodak Company Method of processing and paying for an extended color gamut digital image
US6839463B1 (en) * 2000-12-22 2005-01-04 Microsoft Corporation System and method providing subpixel-edge-offset-based determination of opacity
JP4596227B2 (ja) 2001-06-27 2010-12-08 ソニー株式会社 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP5153493B2 (ja) 2007-07-17 2013-02-27 株式会社きもと 基材レス機能性部材の製造方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113338A (ja) * 1992-09-30 1994-04-22 Fujitsu Ltd 多眼式立体映像の動き補償予測方法
JPH06319130A (ja) * 1993-05-08 1994-11-15 Fujitsu General Ltd 画像伝送システム
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) * 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
EP0933727A2 (en) * 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190016A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) * 2000-12-21 2002-07-05 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2002190028A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1400927A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101092287B1 (ko) 2004-02-13 2011-12-13 소니 주식회사 화상 처리 장치 및 화상 처리 방법

Also Published As

Publication number Publication date Type
KR100886618B1 (ko) 2009-03-05 grant
US20100073505A1 (en) 2010-03-25 application
EP1865720B1 (en) 2010-03-17 grant
DE60234030D1 (de) 2009-11-26 grant
EP2026579A1 (en) 2009-02-18 application
DE60235730D1 (de) 2010-04-29 grant
CA2420029C (en) 2011-08-23 grant
US20040075749A1 (en) 2004-04-22 application
US7619655B2 (en) 2009-11-17 grant
EP1400927A1 (en) 2004-03-24 application
KR20040014956A (ko) 2004-02-18 application
CN1468416A (zh) 2004-01-14 application
US8164638B2 (en) 2012-04-24 grant
JP4596227B2 (ja) 2010-12-08 grant
CN100366060C (zh) 2008-01-30 grant
EP2026579B1 (en) 2010-06-09 grant
DE60236703D1 (de) 2010-07-22 grant
CN1738369A (zh) 2006-02-22 application
CN1251149C (zh) 2006-04-12 grant
EP1400927B1 (en) 2009-10-14 grant
CA2420029A1 (en) 2003-02-18 application
EP1865720A1 (en) 2007-12-12 application
EP1400927A4 (en) 2007-05-23 application
JP2003016455A (ja) 2003-01-17 application

Similar Documents

Publication Publication Date Title
Yang et al. A real-time distributed light field camera.
US20080007651A1 (en) Sub-frame metadata distribution server
US6249613B1 (en) Mosaic generation and sprite-based coding with automatic foreground and background separation
US20020087403A1 (en) Statistical metering and filtering of content via pixel-based metadata
US6256043B1 (en) Three dimensional virtual reality enhancement techniques
US6956575B2 (en) Character provision service system, information processing apparatus, controlling method therefor, and recording medium
US20020094026A1 (en) Video super-frame display system
Brostow et al. Image-based motion blur for stop motion animation
US5701163A (en) Video processing method and apparatus
US20100067865A1 (en) Systems, Methods and Devices for Augmenting Video Content
US20040194128A1 (en) Method for providing digital cinema content based upon audience metrics
US7084877B1 (en) Global motion estimation for sprite generation
US20030025933A1 (en) Image order processing system
US5198902A (en) Apparatus and method for processing a video signal containing single frame animation material
WO2000070523A1 (en) Methods and systems employing digital watermarking in music and other media
US20040090523A1 (en) Image processing apparatus and method and image pickup apparatus
US20040061795A1 (en) Image processing apparatus and method, and image pickup apparatus
Taylor et al. Ovvv: Using virtual worlds to design and evaluate surveillance systems
US20080012988A1 (en) System and method for virtual content placement
Wu et al. Perceptual video quality metrics—a review
US20040100581A1 (en) System and method for inserting live video into pre-produced video
JP2002190016A (ja) 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) 画像処理装置および方法、並びに記録媒体
US20050259870A1 (en) Image processing apparatus and method, and image pickup apparatus
Mulder et al. Fast perception-based depth of field rendering

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN IN KR MX SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2002743725

Country of ref document: EP

Ref document number: 169/DELNP/2003

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2420029

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: PA/a/2003/001701

Country of ref document: MX

Ref document number: 1020037002821

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 028027213

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 10362725

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020037002821

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2002743725

Country of ref document: EP