JP5212451B2 - 領域特定方法、領域特定装置、プログラム、サーバ及びシステム - Google Patents

領域特定方法、領域特定装置、プログラム、サーバ及びシステム Download PDF

Info

Publication number
JP5212451B2
JP5212451B2 JP2010265865A JP2010265865A JP5212451B2 JP 5212451 B2 JP5212451 B2 JP 5212451B2 JP 2010265865 A JP2010265865 A JP 2010265865A JP 2010265865 A JP2010265865 A JP 2010265865A JP 5212451 B2 JP5212451 B2 JP 5212451B2
Authority
JP
Japan
Prior art keywords
image
subject
specifying
pixel
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010265865A
Other languages
English (en)
Other versions
JP2012119798A (ja
JP2012119798A5 (ja
Inventor
玲 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010265865A priority Critical patent/JP5212451B2/ja
Priority to US13/295,403 priority patent/US8687888B2/en
Priority to CN201410188426.4A priority patent/CN103996190B/zh
Priority to CN201110365020.5A priority patent/CN102567729B/zh
Publication of JP2012119798A publication Critical patent/JP2012119798A/ja
Publication of JP2012119798A5 publication Critical patent/JP2012119798A5/ja
Priority to US13/908,370 priority patent/US8670616B2/en
Application granted granted Critical
Publication of JP5212451B2 publication Critical patent/JP5212451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、背景と被写体とが混在する画像から被写体の領域を特定する領域特定方法、領域特定装置、プログラム、サーバ及びシステムに関する。
従来、例えば、撮像された画像から生成された二値画像に対してラベリング処理を行って、最大面積の画素集合を被写体領域とする画像処理装置が知られている(例えば、特許文献1参照)。
特開2005−275447号公報
ところで、上記特許文献1の場合、最大面積の画素集合内に、その構成画素数に対して所定の割合以下の構成画素数であって、且つ、当該最大面積の画素集合と画素値の異なる他の画素集合があると、この他の画素集合の各画素の画素値を最大面積の画素集合の画素値に変更する処理を行う。しかしながら、他の画素集合の構成画素数が最大面積の画素集合の構成画素数に対して所定の割合よりも大きい場合などには、当該他の画素集合の各画素の画素値の変更が行われず、被写体領域の特定を適正に行うことができないといった問題がある。
本発明は、このような問題に鑑みてなされたものであり、被写体領域の特定を適正に行うことができる領域特定方法、領域特定装置、プログラム、サーバ及びシステムを提供することである。
上記課題を解決するため、請求項1に記載の発明の領域特定方法は、
背景と被写体とが存在する被写体存在画像から被写体が含まれる被写体領域を特定する領域特定方法であって、前記被写体存在画像における前記被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定ステップと、前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定ステップと、前記第1特定ステップにより特定された前記画素集合と、前記第2特定ステップにより特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更ステップと、を備えたことを特徴としている。
請求項2に記載の発明は、請求項1に記載の領域特定方法において、
前記第1特定ステップは、前記被写体存在画像における前記被写体領域に対応する画素が連続する複数の画素集合の中で、面積が最大となる画素集合を特定することを特徴としている。
請求項3に記載の発明は、請求項1又は2に記載の領域特定方法において、
前記被写体存在画像から被写体の顔を検出する検出ステップを更に備え、前記第2特定ステップは、前記被写体存在画像の複数の画像境界のうち、前記検出ステップにより前記被写体存在画像から検出された被写体の顔の向きに対して下側となる画像境界を前記下側画像境界として特定することを特徴としている。
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の領域特定方法において、
前記変更ステップは、更に、前記第1特定ステップにより特定された前記画素集合と、前記第2特定ステップにより特定された前記下側画像境界以外の画像境界とにより囲まれる各画素を、前記被写体領域に対応させずに当該被写体領域を抽出するための抽出用画像を生成することを特徴としている。
請求項5に記載の発明は、請求項に記載の領域特定方法において、
ユーザによる操作入力部の所定操作に基づいて、任意の領域の各画素の対応する領域を変更する指示が入力されたか否かを判定する判定ステップと、この判定ステップにより前記指示が入力されたと判定されると、前記抽出用画像における各画素の対応する領域に変更して前記抽出用画像を修正する修正ステップと、を更に備えることを特徴としている。
請求項6に記載の発明は、請求項5に記載の領域特定方法において、
前記所定の表示領域に表示された前記被写体存在画像にて、任意の境界線を指定する指定ステップを更に備え、前記判定ステップは、更に、前記変更ステップにより生成された前記抽出用画像における前記境界線に対応する領域の各画素の対応する領域を変更する指示が入力されたか否かを判定し、前記修正ステップは、更に、前記判定ステップにより前記抽出用画像における前記境界線に対応する領域について、前記各画素の対応する領域を変更する指示が入力されたと判定されると、前記抽出用画像における前記画素を、背景画素集合に対応させて前記抽出用画像を修正することを特徴としている。
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の領域特定方法において、
前記被写体存在画像は、被写体となる人の胸から上を撮像した画像であることを特徴としている。
請求項8に記載の発明は、請求項1〜7の何れか一項に記載の領域特定方法において、
前記第1特定ステップは、前記被写体存在画像の複数の画像境界の何れかを含む画像領域の画素の画素値に基づいて被写体の背景色を所定色として推定し、当該所定色の背景用画像と被写体存在画像との間で対応する各画素の差分情報に基づいて、前記被写体領域に対応する画素集合を特定することを特徴としている。
請求項に記載の発明の領域特定装置は、
背景と被写体とが存在する被写体存在画像から被写体が含まれる被写体領域を特定する領域特定装置であって、前記被写体存在画像における前記被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定手段と、前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段と、前記第1特定手段により特定された前記画素集合と、前記第2特定手段により特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更手段と、を備えたことを特徴としている。
請求項10に記載の発明のプログラムは、
背景と被写体とが存在する被写体存在画像から被写体が含まれる被写体領域を特定する領域特定装置のコンピュータを、前記被写体存在画像における前記被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定手段、前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段、前記第1特定手段により特定された前記画素集合と、前記第2特定手段により特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更手段、として機能させることを特徴としている。
請求項11に記載の発明のサーバは、
端末装置とネットワークを介して接続されたサーバであって、端末装置から被写体存在画像の画像データを受信する受信手段と、受信した被写体存在画像における被写体が含まれる被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定手段と、前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段と、前記第1特定手段により特定された前記画素集合と、前記第2特定手段により特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更手段と、を備えることを特徴としている。
請求項12に記載の発明のシステムは、
端末装置と、この端末装置とネットワークを介して接続されたサーバとを備えたシステムであって、前記端末装置は、被写体存在画像の画像データを送信する送信手段を備え、前記サーバは、前記端末装置から送信された被写体存在画像の画像データを受信する受信手段と、受信した被写体存在画像における被写体が含まれる被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定手段と、前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段と、前記第1特定手段により特定された前記画素集合と、前記第2特定手段により特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更手段と、を備えることを特徴としている。
本発明によれば、被写体領域の特定を適正に行うことができる。
本発明を適用した一実施形態の被写体切り抜きシステムの概略構成を示すブロック図である。 被写体切り抜きシステムを構成する撮像装置の概略構成を示すブロック図である。 被写体切り抜きシステムを構成するユーザ端末の概略構成を示すブロック図である。 被写体切り抜きシステムを構成するサーバの概略構成を示すブロック図である。 被写体切り抜きシステムによる被写体切り抜き処理に係る動作の一例を示すフローチャートである。 図5の被写体切り抜き処理の続きを示すフローチャートである。 図6の被写体切り抜き処理における被写体抽出処理に係る動作の一例を示すフローチャートである。 図5の被写体切り抜き処理に係る画像の一例を模式的に示す図である。 図5の被写体切り抜き処理に係る画像の一例を模式的に示す図である。 図5の被写体切り抜き処理に係る画像の一例を模式的に示す図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の被写体切り抜きシステム100の概略構成を示すブロック図である。
本実施形態の被写体切り抜きシステム100は、サーバ3が、背景と被写体とが混在する画像(以下、被写体存在画像という)を二値化した二値画像における、被写体領域に対応する画素値を有する画素が連続する画素集合を特定し、当該画素集合と二値画像の下側画像境界とにより囲まれる背景に対応する画素値を有する各画素の画素値を、被写体領域に対応する画素値に変更して抽出用画像(アルファマップM)を生成する。
具体的には、図1に示すように、被写体切り抜きシステム100は、撮像装置1と、ユーザ端末2と、サーバ3とを備え、ユーザ端末2とサーバ3とが所定の通信ネットワークNを介して各種情報を送受信可能に接続されている。
先ず、撮像装置1について図2を参照して説明する。
ここで、図2は、撮像装置1の概略構成を示すブロック図である。
図2に示すように、撮像装置1は、レンズ部101と、電子撮像部102と、ユニット回路部103と、撮像制御部104と、画像処理部105と、表示部106と、記録媒体制御部107と、バッファメモリ108と、プログラムメモリ109と、操作入力部110と、中央制御部111とを備えている。
レンズ部101は、例えば、図示は省略するが、ズームレンズ、フォーカスレンズ、絞り等を有し、これらレンズを通過した被写体の光学像を結像する。
電子撮像部102は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ等から構成され、レンズ部101の各種レンズを通過した光学像を当該電子撮像部102により二次元の画像信号(RGB画像データ)に変換して、ユニット回路部103に出力する。
ユニット回路部103は、例えば、図示は省略するが、CDS(Correlated Double Sampling:相関二重サンプリング回路)、AGC(Auto Gain Control:ゲイン調整アンプ)、ADC(Analog to Digital Converter:アナログ/デジタル変換器)等を具備している。そして、ユニット回路部103は、電子撮像部102から出力されて入力される被写体の光学像に応じたアナログの画像信号をCDSにより保持し、当該画像信号をAGCにより増幅した後、増幅された画像信号をADCによりデジタルの画像信号に変換する。
撮像制御部104は、中央制御部111からの指令に基づいて、被写体の撮像の際に、レンズ部101、電子撮像部102、ユニット回路部103等の動作を制御する。具体的には、撮像制御部104は、レンズ部101のズームレンズやフォーカスレンズ等を光軸上で移動させるためのレンズモータ(図示略)の駆動を制御したり、電子撮像部102を走査駆動するタイミングを制御したり、電子撮像部102の駆動タイミングに基づいてユニット回路部103の駆動タイミングを制御する。
画像処理部105は、A/D変換後の画像信号に対して、画素毎のR,G,Bの色成分データ(RGBデータ)を生成するRGB補間処理、RGBデータから輝度信号(Y)と色差信号(U、V)からなるYUVデータを画素毎に生成するYUV変換処理、さらに自動ホワイトバランスや輪郭強調などの画品質向上のためのデジタル信号処理を行う。そして、画像処理部105は、変換後の各画像フレームのYUVデータをバッファメモリ108に順次出力し、当該バッファメモリ108に格納させる。
表示部106は、バッファメモリ108に格納された1フレーム分のYUVデータをビデオ信号に変換した後、ライブビュー画像として表示画面に表示する。具体的には、表示部106は、被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を所定の表示フレームレートで表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
記録媒体制御部107は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。即ち、記録媒体制御部107は、画像処理部105のJPEG圧縮部(図示略)により符号化された撮像画像の記録用の画像データを記録媒体Mに記録させる。具体的には、記録媒体制御部107は、背景と被写体とが存在する被写体存在画像P1(図8(a)参照)の記録用の画像データを記録媒体Mに記録させる。
なお、記録媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
バッファメモリ108は、画像データ等を一時的に記録するバッファであるとともに、中央制御部111などのワーキングメモリ等としても使用される。
プログラムメモリ109には、当該撮像装置1の機能に係る各種プログラムやデータが格納されている。また、プログラムメモリ109には、例えば、静止画撮像時、連続撮像時、ライブビュー画像撮像時等の各撮像時における適正な露出値(EV)に対応する絞り値(F)とシャッタースピードとの組み合わせを示すプログラム線図を構成するプログラムAEデータや、EV値表(何れも図示略)も格納されている。
操作入力部110は、当該撮像装置1の所定操作を行うためのものである。具体的には、操作入力部110は、例えば、被写体の撮影指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定用ボタン、ズーム量の調整指示に係るズームボタン等を備え(何れも図示略)、これらのボタンのユーザ操作に応じて所定の操作信号を中央制御部111に出力する。
中央制御部111は、例えば、撮像装置1の各部を制御するCPUを具備するワンチップマイコン等から構成されている。
また、中央制御部111は、操作入力部110から出力され入力された操作信号に基づいて、撮像装置1の各部を制御する。具体的には、中央制御部111は、操作入力部110のシャッタボタンの所定操作に従って出力された記録指示信号が入力されると、プログラムメモリ109に記憶されている所定のプログラムに従って、撮像制御部104により電子撮像部102及びユニット回路部103の駆動タイミングを制御して静止画像を撮影する処理を実行する。この静止画像の撮影によりバッファメモリ108に格納された1フレーム分のYUVデータは、画像処理部105にてJPEG方式等により圧縮され符号化されて、記録媒体Mに静止画像データとして記録される。
次に、ユーザ端末2について図3を参照して説明する。
ユーザ端末2は、例えば、パーソナルコンピュータ等により構成され、サーバ3により開設されるWebページ(例えば、被写体抽出用ページ)にアクセスして、当該Webページ上で被写体存在画像P1における境界線Lの指定指示を入力する。
図3は、ユーザ端末2の概略構成を示すブロック図である。
図3に示すように、ユーザ端末2は、具体的には、中央制御部201と、通信制御部202と、表示部203と、記録媒体制御部204と、操作入力部205等を備えている。
中央制御部201は、ユーザ端末2の各部を制御するものである。具体的には、中央制御部201は、CPU、RAM、ROM(何れも図示略)を備え、ROMに記憶されたユーザ端末2用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部203に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、ユーザ端末2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
通信制御部202は、例えば、モデム(MODEM:Modulater/DEModulater)、ターミナルアダプタ(Terminal Adapter)等によって構成され、所定の通信ネットワークNを介してサーバ3等の外部機器との間で情報の通信制御を行うためのものである。
なお、通信ネットワークNは、例えば、専用線や既存の一般公衆回線を利用して構築された通信ネットワークNであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信回線網と、それらを接続するインターネットサービスプロバイダ等が含まれる。
表示部203は、例えば、LCD、CRT(Cathode Ray Tube)等のディスプレイから構成され、中央制御部201のCPUの制御下にて各種情報を表示画面に表示する。
具体的には、表示部203は、例えば、サーバ3から送信され通信制御部202により受信されたWebページ(例えば、被写体抽出用ページ)のページデータに基づいて、対応するWebページを表示画面に表示する。
記録媒体制御部204は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。即ち、記録媒体制御部204は、撮像装置1から取り外されて装着された記録媒体Mから被写体切り抜き処理(後述)に係る被写体存在画像P1の画像データを読み出して通信制御部202に出力する。
そして、通信制御部202は、入力された被写体存在画像P1の画像データをサーバ3に所定の通信ネットワークNを介して送信する。
操作入力部205は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備え、ユーザにより押下されたキーの押下信号やマウスの操作信号を中央制御部201のCPUに出力する。
具体的には、操作入力部205は、ユーザによる所定操作に基づいて、被写体切り抜き処理(後述)の際に表示部203の表示画面に表示されている被写体存在画像P1にて境界線Lを構成する複数の点の座標(x, y)の設定指示を入力する。例えば、操作入力部205は、ユーザによるマウスの所定操作に基づいて被写体存在画像P1上に描画された境界線Lを構成する複数の点の座標の設定指示を入力する。そして、操作入力部205は、当該操作に応じた所定の設定信号を中央制御部201のCPUに出力する。
CPUは、操作入力部205から出力され入力された設定信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる。
また、操作入力部205は、ユーザによる所定操作に基づいて、被写体切り抜き処理(後述)の際に表示部203の表示画面に表示されている被写体切り抜き画像P3(図10(a)参照)にて、当該被写体切り抜き画像P3を修正する設定指示を入力する。例えば、操作入力部205は、ユーザによるマウスの所定操作に基づいて被写体切り抜き画像P3上に画素値を元に戻す修正マーカRを描画し、当該修正マーカRを構成する複数の点の座標の設定指示を入力する。そして、操作入力部205は、当該操作に応じた所定の設定信号を中央制御部201のCPUに出力する。
CPUは、操作入力部205から出力され入力された設定信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる。
なお、図10(a)にあっては、表示部203の表示画面に、被写体切り抜き画像P3の背景側に被写体存在画像P1が半透過の表示態様(例えば、破線で表した被写体存在画像P1等)で重畳して表示されている状態を模式的に図示している。
なお、操作入力部205としてタッチパネル(図示略)を表示部203の表示画面に配設して、タッチパネルの接触位置に応じて境界線Lを構成する複数の点の座標(x, y)の設定指示を入力するような構成としても良い。
次に、サーバ3について図4を参照して説明する。
サーバ3は、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、被写体抽出用ページ)を開設する機能を具備するものであり、ユーザ端末2からのアクセスに応じて当該ユーザ端末2にWebページのページデータを送信する。また、サーバ3は、画像生成装置として、図8(a)〜(c)にて図示するように(詳細は後述)、被写体存在画像P1の二値画像P2における被写体領域Asに対応する画素値を有する画素が連続する画素集合Gaを特定し、当該画素集合Gaと二値画像P2の下側画像境界Bdとにより囲まれる背景に対応する画素値を有する各画素の画素値を、被写体領域Asに対応する画素値に変更して抽出用画像(アルファマップM)を生成する。
図4は、サーバ3の概略構成を示すブロック図である。
図4に示すように、サーバ3は、具体的には、中央制御部301と、記憶部302と、表示部303と、通信制御部304と、境界線指定部305と、顔検出部306と、被写体抽出部307と、判定部308等を備えて構成されている。
中央制御部301は、サーバ3の各部を制御するものである。具体的には、中央制御部301は、CPU、RAM、ROM(何れも図示略)を備え、CPUは、ROMに記憶されたサーバ3用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部303に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、サーバ3で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
記憶部302は、例えば、半導体の不揮発メモリやHDD(Hard Disc Drive)等により構成され、ユーザ端末2に送信されるWebページのページデータ等を記憶する。
表示部303は、例えば、LCD、CRT等のディスプレイから構成され、中央制御部301のCPUの制御下にて各種情報を表示画面に表示する。
通信制御部304は、例えば、モデム、ターミナルアダプタ等によって構成され、所定の通信ネットワークNを介してユーザ端末2等の外部機器との間で情報の通信制御を行うためのものである。
具体的には、通信制御部304は、例えば、被写体切り抜き処理(後述)にてユーザ端末2から所定の通信ネットワークNを介して送信された被写体存在画像P1における境界線Lを構成する複数の点の座標の設定信号を受信して、当該設定信号を中央制御部301のCPUに出力する。
境界線指定部305は、被写体存在画像P1における境界線Lを指定する。
即ち、被写体切り抜き処理にて、境界線指定部305は、ユーザ端末2から所定の通信ネットワークNを介して送信され通信制御部304により受信した被写体存在画像P1の画像データ及び当該被写体存在画像P1上に描画された境界線Lを構成する複数の点の座標の設定信号に基づいて、当該被写体存在画像P1上にて複数の点の座標を指定し、これら複数の点どうしを連結して境界線Lを指定する。
なお、境界線Lは、被写体存在画像P1における、ある領域を完全に囲む閉じられた形態であっても良いし、当該被写体存在画像P1の画像境界Bの異なる位置に境界線Lの始点及び終点が存するような形態(図8(b)参照)であっても良い。
このように、境界線指定部305は、指定手段として、被写体存在画像にて境界線を指定する。
顔検出部306は、被写体存在画像P1から被写体の顔が含まれる顔領域を検出する。
即ち、顔検出部306は、ユーザ端末2から所定の通信ネットワークNを介して送信され通信制御部304により受信した被写体存在画像P1の画像データを取得して、当該画像データに対して所定の顔検出処理を行って顔領域を検出する。
また、顔検出処置にあっては、被写体としての人以外の顔、例えば、動物の顔などの顔領域を検出しても良い。なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
このように、顔検出部306は、検出手段として、被写体存在画像から被写体の顔を検出する。
被写体抽出部307は、画像二値化部307aと、画素集合特定部307bと、画像境界特定部307cと、画像生成部307dと、画像修正部307eとを具備している。
画像二値化部307aは、被写体存在画像P1の二値画像P2を生成する。
即ち、画像二値化部307aは、ユーザ端末2から所定の通信ネットワークNを介して送信され通信制御部304により受信した被写体存在画像P1の画像データを取得して、当該画像データの各画素の画素値を所定の閾値と比較して当該被写体存在画像P1の二値画像P2を生成する。
具体的には、画像二値化部307aは、被写体存在画像P1の複数の画像境界B、…と境界線Lにより区分される複数の区分領域A、…の中で、背景領域Abを構成する区分領域(例えば、左区分領域Al及び右区分領域Ar等)を推定し、当該区分領域の各画素の画素値に基づいて所定の演算を行って、被写体の背景色を所定の単一色として推定する。そして、画像二値化部307aは、所定の単一色の背景用画像と被写体存在画像P1との間で対応する各画素の差分情報(例えば、相違度マップ等)を生成した後、差分情報の各画素の画素値を所定の閾値と比較して二値化することで、当該被写体存在画像P1の二値画像P2を生成する。
この二値画像P2では、例えば、被写体領域Asに対応する画素値が「1」であり、背景領域Abに対応する画素値が「0」となる。
画素集合特定部307bは、被写体存在画像P1の二値画像P2における被写体領域Asに対応する画素集合Gaを特定する。
即ち、画素集合特定部307bは、二値画像P2における被写体領域Asに対応する画素値を有する画素が連続する画素集合Gaを特定する。具体的には、画素集合特定部307bは、二値画像P2に対して細かいノイズや手ぶれによる相違が存在する領域を除去するための収縮処理を行って所定値よりも小さい画素集合や手ぶれによる細線画素集合を除外した後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理を行い、その後、収縮分を修正するための膨張処理を行う。そして、画素集合特定部307bは、ラベリングされた複数の画素集合、即ち、二値画像P2における被写体領域Asに対応する画素値(例えば、「1」)を有する画素が連続する複数の画素集合の中で、面積が最大となる画素集合Gaを被写体部分として特定する。
また、画素集合特定部307bは、二値画像P2における被写体領域Asに対応する画素値を有する画素集合Ga内における、当該画素集合Gaの構成画素数に対して所定の割合(例えば、40%等)以下の構成画素数の背景領域Abに対応する背景画素集合の各画素の画素値を、被写体領域Asに対応する画素値に変更する。即ち、画素集合特定部307bは、被写体部分として特定した最大面積の画素集合Ga内でラベリング処理を行って、当該被写体部分の構成画素のラベル数に対して所定の割合以下のラベル数の背景領域Abに対応する画素集合の各画素の画素値を、被写体部分に対応する画素値に変更して、被写体部分に置き換える穴埋め処理を行う。
このように、画素集合特定部307bは、第1特定手段として、被写体存在画像における被写体領域に対応する画素値を有する画素が連続する画素集合を特定する。また、画素集合特定部307bは、被写体存在画像における被写体領域に対応する画素が連続する複数の画素集合の中で、面積が最大となる画素集合を特定する。
画像境界特定部307cは、二値画像P2の複数の画像境界のうち、下側画像境界Bdを特定する。
即ち、画像境界特定部307cは、画像二値化部307aにより生成された二値画像P2の画像データにおける上下左右の4つの画像境界Bt、Bd、Bl、Brの中で、ユーザ端末2の表示部203等の所定の表示領域に表示された状態の当該被写体存在画像P1にて下側となる画像境界Bに対応する当該二値画像P2の下側画像境界Bdを特定する。具体的には、画像境界特定部307cは、二値画像P2の複数の画像境界のうち、顔検出部306により被写体存在画像P1から検出された被写体の顔領域の顔の向きに対して下側となる画像境界Bに対応する画像境界を下側画像境界Bdとして特定する。
つまり、被写体存在画像P1が、例えば、被写体となる人の胸から上のバストショットを撮像した画像である場合、画像境界特定部307cは、当該被写体存在画像P1に対応する二値画像P2の上下左右の4つの画像境界Bt、Bd、Bl、Brの中で、被写体存在画像P1にて人の顔よりも下側の画像領域が重なる画像境界に対応する画像境界を下側画像境界Bdとして特定する。
また、画像境界特定部307cは、例えば、被写体存在画像P1にExifタグ情報として付加されている当該被写体存在画像P1の撮像の際の画像の向きに関する情報を取得して、当該被写体存在画像P1の下側の画像境界に対応する二値画像P2の下側画像境界Bdを特定しても良い。
このように、画像境界特定部307cは、第2特定手段として、被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する。
また、画像境界特定部307cは、二値画像P2の複数の画像境界のうち、所定の表示領域に表示された状態の被写体存在画像P1における下側の画像境界以外の画像境界に対応する当該二値画像P2の他の画像境界を特定する。即ち、画像境界特定部307cは、二値画像P2の複数の画像境界の中で、下側画像境界Bd以外の上側画像境界Bt、左側画像境界Bl及び右側画像境界Br等を特定する。
画像生成部307dは、被写体存在画像P1における被写体領域Asの位置を示し、当該被写体領域Asを抽出するための抽出用画像を生成する。
ここで、抽出用画像としては、例えば、被写体存在画像P1の各画素について、被写体画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したアルファマップMが挙げられる。
具体的には、画像生成部307dは、画素集合特定部307bにより被写体部分として特定された最大面積の画素集合Gaと、画像境界特定部307cにより特定された二値画像P2の下側画像境界Bdとにより囲まれる背景領域Abに対応する画素値(例えば、「0」)を有する領域Gbの各画素の画素値を、被写体領域Asに対応する画素値(例えば、「1」)に変更した後、抽出用画像(アルファマップM)を生成する。つまり、被写体存在画像P1が、例えば、被写体となる人の胸から上のバストショットを撮像した画像である場合、最大面積の画素集合Gaと下側画像境界Bdとにより囲まれる領域Gbは、被写体存在画像P1にて人の顔よりも下側の画像領域が重なる領域、即ち、被写体領域Asであると推定して、背景領域Abに対応する画素値を被写体領域Asに対応する画素値(例えば、「1」)に変更する。
また、画像生成部307dは、画素集合特定部307bにより被写体部分として特定された最大面積の画素集合Gaと、画像境界特定部307cにより特定された二値画像P2の他の画像境界、即ち、上側画像境界Bt、左側画像境界Bl及び右側画像境界Brとにより囲まれる背景領域Abに対応する画素値を有する各画素の画素値については、被写体領域Asに対応する画素値に変更しないようにしても良い。
そして、画像生成部307dは、上記の被写体部分に対応する最大面積の画素集合Gaの画素値が「1」、背景領域Abに対応するその他の部分の画素値が「0」である二値画像P2に対してローパスフィルタを施して境界部分に中間値を生じさせることで、各々の領域について所定のアルファ値を生成する。これにより、被写体領域Asのアルファ値が「1」となり、被写体存在画像P1の所定の背景に対する透過度が0%となる。一方、被写体の背景部分のアルファ値が「0」となり、当該被写体存在画像P1の所定の背景に対する透過度が100%となる。
このように、画像生成部307dは、生成手段として、画素集合特定部307bにより特定された画素集合と、画像境界特定部307cにより特定された下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、被写体領域に対応させて抽出用画像を生成する。また、画像生成部307dは、画素集合特定部307bにより特定された画素集合と、画像境界特定部307cにより特定された下側画像境界以外の画像境界とにより囲まれる各画素を、被写体領域に対応させずに抽出用画像を生成する。
その後、被写体抽出部307は、画像生成部307dにより生成された抽出用画像(アルファマップM)に基づいて、被写体存在画像P1の各画素のうち、アルファ値が1の画素を所定の単一色画像P4に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体画像を所定の単一色画像P4と合成して被写体切り抜き画像P3(図9(b)参照)の画像データを生成する。
また、画像生成部307dは、被写体存在画像P1の二値画像P2から三値画像P5を生成しても良い。
即ち、画像生成部307dは、二値画像P2の境界線指定部305により指定された境界線Lと重なる領域を画素値の未確定領域Acとして、当該未確定領域Acの画素値を被写体領域As及び背景領域Abの各々の画素値と異なる第3の画素値(例えば、「0.5」等)に設定することで、三値画像P5を生成する。具体的には、画像生成部307dは、最大面積の画素集合Gaと下側画像境界Bdとにより囲まれた背景領域Abに対応する各画素の画素値を、被写体領域Asに対応する画素値(例えば、「1」)に変更した二値画像P2にて、境界線指定部305により指定された境界線Lと重なる領域(未確定領域Ac)の画素値を第3の画素値に設定して、三値画像P5(図9(c)参照)を生成する。
なお、画像生成部307dは、二値画像P2から三値画像P5を生成した後、当該三値画像P5を用いて抽出用画像(アルファマップM)を生成しても良い。
画像修正部307eは、ユーザによるユーザ端末2の操作入力部205の所定操作に基づいて、抽出用画像(アルファマップM)を修正する。
即ち、画像修正部307eは、画素集合特定部307bによる穴埋め処理にて画素値が変更された抽出用画像における変更済み領域Adの各画素の画素値を元に戻す指示が入力されたと判定部308により判定されると、抽出用画像における変更済み領域Adの各画素の画素値を、背景画素集合の画素値に変更して抽出用画像を修正する。具体的には、画像修正部307eは、判定部308により抽出用画像における境界線指定部305により指定された境界線Lに対応する領域、即ち、三値画像P5における第3の画素値を有する領域(未確定領域Ac)について、背景画素集合の画素値に変更する指示が入力されたと判定されると、抽出用画像における変更済み領域Adの各画素の画素値を、背景画素集合の画素値に変更して抽出用画像を修正する。
例えば、図8(a)に示す被写体存在画像P1にあっては、被写体である人の首筋と髪の毛により囲まれた領域は、画素集合特定部307bによる穴埋め処理にて画素値が自動的に変更された抽出用画像(アルファマップM;図9(a)参照)が生成されてしまい、図9(b)に示す被写体切り抜き画像P3にて、被写体である人の首筋と髪の毛により囲まれた領域は、背景領域とならない場合がある。かかる場合に、判定部308により被写体である人の首筋と髪の毛により囲まれた領域(変更済み領域Ad)の画素値を背景画素集合の画素値に戻す指示が入力されたと判定されると、画像修正部307eは、抽出用画像における変更済み領域Adの各画素の画素値を、背景画素集合の画素値に変更して抽出用画像(アルファマップM;図10(b)参照)を修正する。
このように、画像修正部307eは、修正手段として、判定部308により任意の領域の各画素の対応する領域を変更する指示が入力されたと判定されると、抽出用画像における各画素の対応する領域に変更して抽出用画像を修正する。また、画像修正部307eは、判定部308により抽出用画像における境界線に対応する領域について、各画素の対応する領域を変更する指示が入力されたと判定されると、抽出用画像における前記画素を、背景画素集合に対応させて抽出用画像を修正する。
なお、ユーザによるユーザ端末2の操作入力部205の所定操作に基づいて、未確定領域Ac又は背景用画素集合の画素値を被写体領域Asに対応する画素値に変更できるようにしてもよい。
判定部308は、被写体切り抜き画像P3を修正する指示が入力されたか否かを判定する。
即ち、判定部308は、ユーザ端末2から所定の通信ネットワークNを介して送信され通信制御部304により受信した被写体切り抜き画像P3上に描画された修正マーカRを構成する複数の点の座標の設定信号に基づいて、被写体切り抜き画像P3を修正する指示が入力されたか否かを判定する。具体的には、ユーザ端末2の表示部203に表示された被写体切り抜き画像P3上に、ユーザによるユーザ端末2の操作入力部205の所定操作に基づいて、画素集合特定部307bによる穴埋め処理にて画素値が変更された背景画素集合に対応する変更済み領域Adの各画素の画素値を元に戻す修正マーカRが描画されて、ユーザ端末2から送信された修正マーカRを構成する複数の点の座標の設定信号が通信制御部304により受信されると、判定部308は、被写体切り抜き画像P3を修正する指示が入力されたと判定する。
このとき、判定部308は、画像生成部307dにより生成された三値画像P5に基づいて、画像生成部307dにより生成された抽出用画像(アルファマップM)における境界線Lに対応する領域、即ち、三値画像P5における第3の画素値を有する領域(未確定領域Ac)について、変更済み領域Adの各画素の画素値を元に戻す指示が入力されたか否かを判定しても良い。つまり、三値画像P5における第3の画素値を有する領域(未確定領域Ac)は、被写体領域Asとなるか背景領域Abとなるか画素値が未確定の領域であり、当該第3の画素値を有する領域についてのみ画素値を修正するか否かを判定することで処理にかかる負担の軽減を図ることができる。
このように、判定部308は、判定手段として、ユーザによる操作入力部205の所定操作に基づいて、任意の領域の各画素の対応する領域を変更する指示が入力されたか否かを判定する。
次に、ユーザ端末2及びサーバ3を用いた被写体切り抜き処理について図5〜図8を参照して説明する。
ここで、図5〜図7は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図8(a)〜図10(c)は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
なお、以下の説明にあっては、撮像装置1により生成された被写体存在画像P1の画像データが記録された記録媒体Mがユーザ端末2の記録媒体制御部204に装着されているものとする。
図5に示すように、ユーザ端末2の中央制御部201は、ユーザによる操作入力部205の所定操作に基づいて、サーバ3により開設される被写体抽出用ページのアクセス指示が入力されると、中央制御部201のCPUは、当該アクセス指示を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS1)。
サーバ3の通信制御部304によって、ユーザ端末2から送信されたアクセス指示が受信されると、中央制御部301のCPUは、被写体抽出用ページのページデータを通信制御部304により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS2)。
そして、ユーザ端末2の通信制御部202によって、被写体抽出用ページのページデータが受信されると、表示部203は、当該被写体抽出用ページのページデータに基づいて、所定の被写体抽出用ページを表示画面に表示する。
次に、ユーザ端末2の記録媒体制御部204は、記録媒体Mから当該被写体切り抜き処理に係る被写体存在画像P1の画像データを読み出した後、表示部203は、当該被写体存在画像P1の画像データを表示画面に表示する(ステップS3)。
また、通信制御部202は、読み出された被写体存在画像P1の画像データをサーバ3に所定の通信ネットワークNを介して送信する(ステップS4)。
そして、サーバ3の通信制御部304は、ユーザ端末2から送信された被写体存在画像P1の画像データを受信する(ステップS5)。
その後、ユーザ端末2の中央制御部201は、ユーザによる操作入力部205の所定操作に基づいて、表示部203の表示画面に表示されている被写体存在画像P1にて境界線Lの始点の座標(第1座標)が入力されたか否かを判定する(ステップS6)。即ち、中央制御部201は、ユーザによるマウスの所定操作に基づいて被写体存在画像P1上に連続して描画される境界線Lを構成する複数の点の座標のうち、最初に描画された点を始点として、その始点の第1座標が入力されたか否かを判定する。
ステップS6の判定処理は、境界線Lの始点の第1座標が入力されたと判定されるまで(ステップS6;YES)、繰り返し実行される。
そして、ステップS6にて、境界線Lの始点の第1座標が入力されたと判定されると(ステップS6;YES)、中央制御部201のCPUは、操作入力部205から出力され入力された第1座標の設定指示信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS7)。
サーバ3の通信制御部304によって、ユーザ端末2から送信された第1座標の設定指示信号が受信されると、境界線指定部305は、第1座標の設定指示信号並びに被写体存在画像P1の画像データに基づいて、当該被写体存在画像P1にて境界線Lの始点の座標を指定する(ステップS8)。
次に、ユーザ端末2の中央制御部201は、ユーザによる操作入力部205の所定操作に基づいて、表示部203の表示画面に表示されている被写体存在画像P1にて境界線Lの終点の座標(第2座標)が入力されたか否かを判定する(ステップS9)。即ち、中央制御部201は、ユーザによるマウスの所定操作に基づいて被写体存在画像P1上に連続して描画される境界線Lを構成する複数の点の座標のうち、最後に描画された点を終点として、その終点の第2座標が入力されたか否かを判定する。
ステップS9の判定処理は、境界線Lの終点の第2座標が入力されたと判定されるまで(ステップS9;YES)、繰り返し実行され、ユーザによるマウスの所定操作に基づいてユーザ端末2からサーバ3に被写体存在画像P1上に連続して描画される境界線Lを構成する複数の点の座標が順次送信される。
そして、ステップS9にて、境界線Lの終点の第2座標が入力されたと判定されると(ステップS9;YES)、中央制御部201のCPUは、操作入力部205から出力され入力された第2座標の設定指示信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS10)。
サーバ3の通信制御部304によって、ユーザ端末2から送信された第2座標の設定指示信号が受信されると、境界線指定部305は、第2座標の設定指示信号並びに被写体存在画像P1の画像データに基づいて、当該被写体存在画像P1にて境界線Lの終点の座標を指定する(ステップS11)。
続けて、境界線指定部305は、被写体存在画像P1上に連続して描画された境界線Lを構成する複数の点の座標を連結して、始点から終点まで連続した境界線Lを指定する(ステップS12)。
そして、図6に示すように、顔検出部306は、被写体存在画像P1の画像データを取得して、当該画像データに対して所定の顔検出処理を行って顔領域を検出する(ステップS13)。
続けて、被写体抽出部307は、被写体存在画像P1の複数の画像境界B、…、即ち、上下左右の4つの画像境界B、…と境界線Lにより区分される複数の区分領域A、…の中から、所定の特定方法に従って被写体領域Asを特定する(ステップS14)。
具体的には、被写体抽出部307は、被写体存在画像P1の画像データを取得して、当該画像データにおける上下左右の4つの画像境界B、…のうち、顔検出部306により検出された被写体の顔領域の顔の向きに対して下側となる画像境界Bを下側画像境界として特定する。なお、ステップS13において顔領域が検出されなかった場合は、単純にユーザ端末2の表示部203に表示されている被写体存在画像P1の下側の画像境界を下側画像境界としてもよい。
その後、被写体抽出部307は、被写体存在画像P1の複数の区分領域A、…、即ち、左区分領域Al、右区分領域Ar及び中区分領域Amの中から、各区分領域Aの縁部を構成する画像境界Bの画素数が当該縁部の全画素数に対して所定の割合(例えば、40%等)以上となる所定領域(例えば、左区分領域Al及び右区分領域Ar等)を所定領域として特定する。そして、被写体抽出部307は、被写体存在画像P1の複数の区分領域A、…の中で、所定領域としての左区分領域Al及び右区分領域Arを被写体領域Asの候補から除外し、さらに、下側画像境界の構成画素を最も多く含む中区分領域Amを、被写体領域Asとして特定する。なお、複数の区分領域のうちステップS13において検出された顔領域を含む領域を被写体領域Asとして特定してもよい。
続けて、被写体抽出部307は、被写体存在画像P1から所定の抽出方法に従って被写体領域Asを抽出する処理を行って、被写体存在画像P1における被写体領域Asの位置を示す抽出用画像としてアルファマップMを生成する被写体抽出処理を行う(ステップS15)。
以下に、被写体抽出処理について図7を参照して説明する。
図7に示すように、先ず、被写体抽出部307の画像二値化部307aは、被写体存在画像P1の画像データを取得して、当該画像データの各画素の画素値を所定の閾値と比較して当該被写体存在画像P1の二値画像P2を生成する(ステップS31)。
続けて、画素集合特定部307bは、被写体存在画像P1の二値画像P2における被写体領域Asに対応する画素値を有する画素が連続する画素集合Gaを特定する(ステップS32)。
具体的には、画素集合特定部307bは、二値画像P2に対して細かいノイズや手ぶれによる相違が存在する領域を除去するための収縮処理を行って所定値よりも小さい画素集合や手ぶれによる細線画素集合を除外した後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理を行い、その後、収縮分を修正するための膨張処理を行う。そして、画素集合特定部307bは、ラベリングされた複数の画素集合、即ち、二値画像P2における被写体領域Asに対応する画素値(例えば、「1」)を有する画素が連続する複数の画素集合の中で、面積が最大となる画素集合Gaを被写体部分として特定する。
また、画素集合特定部307bは、被写体部分として特定した最大面積の画素集合Ga内でラベリング処理を行って、当該被写体部分の構成画素のラベル数に対して所定の割合以下のラベル数の背景領域Abに対応する画素集合Gaの各画素の画素値を、被写体部分に対応する画素値に変更して、被写体部分に置き換える穴埋め処理を行う。
次に、画像境界特定部307cは、二値画像P2の複数の画像境界のうち、下側画像境界Bdを特定する(ステップS33)。具体的には、画像境界特定部307cは、二値画像P2の複数の画像境界のうち、顔検出部306により被写体存在画像P1から検出された被写体の顔領域の顔の向きに対して下側となる画像境界Bに対応する画像境界を下側画像境界Bdとして特定する。
続けて、画像生成部307dは、画素集合特定部307bにより被写体部分として特定された最大面積の画素集合Gaと、画像境界特定部307cにより特定された二値画像P2の下側画像境界Bdとにより囲まれる背景領域Abに対応する画素値(例えば、「0」)を有する領域Gbの各画素の画素値を、被写体領域Asに対応する画素値(例えば、「1」)に変更する(ステップS34)。その後、画像生成部307dは、二値画像P2から抽出用画像としてのアルファマップMを生成する(ステップS35)。具体的には、画像生成部307dは、上記の被写体部分に対応する最大面積の画素集合Gaの画素値が「1」、背景領域Abに対応するその他の部分の画素値が「0」である二値画像P2に対してローパスフィルタを施して境界部分に中間値を生じさせることで、各々の領域について所定のアルファ値を生成してアルファマップMを生成する。
これにより、被写体抽出処理を終了する。
図6に戻り、その後、被写体抽出部307は、生成されたアルファマップMを用いて被写体存在画像P1から被写体領域Asを切り出して、所定の単一色画像P4と合成して被写体切り抜き画像P3(図9(b)参照)の画像データを生成する(ステップS16)。
具体的には、被写体抽出部307は、被写体存在画像P1の全ての画素について、アルファ値が0の画素については、透過させ、アルファ値が0<α<1の画素については、所定の単一色とブレンディングを行い、アルファ値が1の画素については、何もせずに所定の単一色に対して透過させないようにする。なお、アルファマップMの縁部分には、合成階調がつけられているため、切り出された被写体領域Asと単一色画像P4(背景)との境界部分がはっきりしていない自然な感じとなる。
また、生成された被写体切り抜き画像P3の画像データは、抽出用画像であるアルファマップMと対応付けて記憶部302に記憶される。
中央制御部301のCPUは、生成された被写体切り抜き画像P3の画像データを通信制御部304により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS17)。
そして、ユーザ端末2の通信制御部202によって、被写体切り抜き画像P3の画像データが受信されると(ステップS18)、表示部203は、当該被写体切り抜き画像P3の画像データに基づいて、被写体画像を表示画面に表示する(ステップS19)。
その後、ユーザ端末2の中央制御部201は、ユーザによる操作入力部205の所定操作に基づいて、表示部203の表示画面に表示されている被写体切り抜き画像P3にて修正マーカR(図10(a)参照)を構成する複数の点の座標が入力されたか否かを判定する(ステップS20)。
ここで、修正マーカRを構成する複数の点の座標が入力されたと判定されると(ステップS20;YES)、中央制御部201のCPUは、操作入力部205から出力され入力された修正マーカRに係る修正指示信号を通信制御部202により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS21)。
サーバ3の通信制御部304によって、ユーザ端末2から送信された修正マーカRに係る修正指示信号が受信されると、判定部308は、被写体切り抜き画像P3を修正する指示、即ち、画素集合特定部307bによる穴埋め処理にて画素値が変更された抽出用画像における変更済み領域Adの各画素の画素値を元に戻す指示が入力されたと判定して、画像修正部307eは、抽出用画像であるアルファマップMにおける変更済み領域Adの各画素の画素値を、背景画素集合の画素値に変更してアルファマップM(図10(b)参照)を修正する(ステップS22)。
その後、中央制御部307は、処理をステップS16に移行して、それ以降の処理を実行する。即ち、被写体抽出部307は、修正されたアルファマップMを用いて被写体存在画像P1から被写体領域Asを切り出して、所定の単一色画像P4と合成して被写体切り抜き画像P3(図10(c)参照)の画像データを生成する(ステップS16)。
一方、ステップS20にて、修正マーカRを構成する複数の点の座標が入力されていないと判定されると(ステップS20;NO)、中央制御部201のCPUは、ユーザによる操作入力部205の所定操作に基づいて、被写体切り抜き処理の終了指示が入力されたか否かを判定する(ステップS23)。
ここで、被写体切り抜き処理の終了指示が入力されていないと判定されると(ステップS23;NO)、中央制御部201のCPUは、処理をステップS20に移行して、修正マーカRを構成する複数の点の座標が入力された否かを判定する。一方、被写体切り抜き処理の終了指示が入力されたと判定されると(ステップS23;YES)、中央制御部201のCPUは、被写体切り抜き処理を終了させる。
以上のように、本実施形態の被写体切り抜きシステム100によれば、被写体存在画像P1の二値画像P2における被写体領域Asに対応する画素値を有する画素が連続する画素集合Ga、特に、二値画像P2における被写体領域Asに対応する画素値を有する画素が連続する複数の画素集合の中で、面積が最大となる画素集合Gaを特定し、二値画像P2における特定された画素集合Gaと下側画像境界Bdとにより囲まれる背景に対応する画素値を有する領域Gbの各画素の画素値を、被写体領域Asに対応する画素値に変更して抽出用画像(アルファマップM)を生成するので、被写体存在画像P1から被写体が含まれる被写体領域Asを抽出するための抽出用画像の生成を適正に行うことができる。特に、被写体存在画像P1が、被写体となる人の胸から上のバストショットを撮像した画像である場合、二値画像P2における特定された画素集合Gaと下側画像境界Bdとにより囲まれる領域は、被写体存在画像P1にて人の顔よりも下側の画像領域が重なる領域、即ち、被写体領域Asであると推定して、二値画像P2における特定された画素集合Gaと下側画像境界Bdとにより囲まれる領域Gbの背景領域Abに対応する画素値を被写体領域Asに対応する画素値に変更するので、二値画像P2から抽出用画像を適正に生成することができる。
このとき、二値画像P2における特定された画素集合Gaと、被写体存在画像P1における下側の画像境界B以外の画像境界Bに対応する当該二値画像P2の他の画像境界、即ち、上側画像境界Bt、左側画像境界Bl及び右側画像境界Brとにより囲まれる背景に対応する領域については、各画素の画素値を被写体領域Asに対応する画素値に変更しないので、被写体存在画像P1が、例えば、被写体となる人の胸から上のバストショットを撮像した画像である場合、二値画像P2における特定された画素集合Gaと下側画像境界Bd以外の他の画像境界とにより囲まれる領域は、被写体領域As以外の背景領域Abであると推定して、抽出用画像の生成を適正に行うことができる。
また、二値画像P2の複数の画像境界のうち、顔検出処理により被写体存在画像P1から検出された被写体の顔の向きに対して下側となる画像境界Bに対応する画像境界を下側画像境界Bdとして特定することで、下側画像境界Bdの特定を適正に行うことができ、二値画像P2における特定された画素集合Gaと下側画像境界Bdとにより囲まれる領域Gbの特定を適正に行うことができる。
また、被写体抽出処理にて、二値画像P2における被写体領域Asに対応する画素値を有する画素集合Gaを特定する際に、当該画素集合Gaの構成画素数に対して所定の割合以下の構成画素数の背景領域Abに対応する背景画素集合の各画素の画素値を被写体領域Asに対応する画素値に変更する穴埋め処理を行うようになっているが、抽出用画像の生成後に、ユーザによるユーザ端末2の操作入力部205の所定操作に基づいて、生成済みの抽出用画像における変更済み領域Adの各画素の画素値を元に戻す指示が入力された場合には、変更済み領域Adの各画素の画素値を背景画素集合の画素値に変更して抽出用画像を修正するので、二値画像P2に対して穴埋め処理を自動的に行う構成であっても、ユーザの意図を考慮して抽出用画像を修正することができ、ユーザ所望の抽出用画像を生成することができる。
特に、抽出用画像(アルファマップM)における境界線Lに対応する領域、即ち、三値画像P5における、被写体領域Asとなるか背景領域Abとなるか画素値が未確定の領域Acについてのみ、変更済み領域Adの各画素の画素値を修正するか否かを判定するので、当該判定処理にかかる負担の軽減を図ることができ、抽出用画像の修正を高速に行うことができる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、被写体存在画像P1における境界線Lにより区分される複数の区分領域A、…の中から、被写体領域Asの抽出の基準となる所定領域Acを特定し、当該所定領域Acを基準として、被写体抽出部307が被写体存在画像P1における複数の区分領域A、…の中から被写体領域Asを特定して抽出するようにしたが、所定領域Acを特定せずに、被写体領域Asを特定するようにしてもよい。即ち、被写体抽出部307は、各区分領域Aの縁部を構成する画素のうち、下側画像境界Bdの画像境界Bを構成する画素を画像境界Bの画素として計数せずに画像境界Bの画素の数が最も少ない区分領域A(例えば、中区分領域Am等)を、被写体領域Asとして抽出するようにしてもよい。
また例えば、上記実施形態においては、被写体抽出部307は、被写体存在画像P1の複数の区分領域A、…の中で、所定領域Acとしての左区分領域Al及び右区分領域Arを被写体領域Asの候補から除外し、さらに、下側画像境界Bdの構成画素を最も多く含む中区分領域Amを、被写体領域Asとして特定したが、下側画像境界Bdの構成画素を最も多く含む領域を被写体領域Asとして特定しなくてもよい。即ち、単純に被写体存在画像P1の複数の区分領域A、…の中で、所定領域Acとしての左区分領域Al及び右区分領域Arを被写体領域Asの候補から除外して残った領域を被写体領域Asとして特定するようにしてもよい。
また例えば、上記実施形態にあっては、ユーザによるユーザ端末2の所定操作に基づいて、Webサーバとして機能するサーバ(画像生成装置)3によって抽出用画像(アルファマップM)を生成するようにしたが、一例であってこれに限られるものではなく、画像生成装置の構成は適宜任意に変更可能である。即ち、抽出用画像の生成に係る被写体抽出部307の機能をソフトウェアにより実現される構成として、ユーザ端末2にインストールすることで通信ネットワークNを必要とすることなく、当該ユーザ端末2単体で被写体切り抜き処理を行うようにしても良い。
つまり、ユーザ端末2は、被写体存在画像P1の二値画像P2における被写体領域Asに対応する画素値を有する画素が連続する画素集合Gaを特定し、二値画像P2の複数の画像境界のうち、所定の表示領域に表示された状態の被写体存在画像P1における下側の画像境界に対応する当該二値画像P2の下側画像境界Bdを特定し、二値画像P2における画素集合Gaと下側画像境界Bdとにより囲まれる背景に対応する画素値を有する各画素の画素値を、被写体領域Asに対応する画素値に変更して抽出用画像を生成するようにしても良い。
また、上記実施形態にあっては、ユーザ端末2として、パーソナルコンピュータを例示したが、一例であってこれに限られるものではなく適宜任意に変更可能であり、例えば、携帯電話機等を適用しても良い。
さらに、被写体切り抜きシステム100にプリント装置を備え、当該プリント装置によって、サーバ3により生成された被写体切り抜き画像P3の被写体画像を所定のプリント用基材に対して所定の印刷方式により印刷して、被写体画像のプリントを作成するようにしても良い。また、サーバ3は、生成した被写体切り抜き画像P3をアルファマップMを利用して所定の背景画像と合成して被写体合成画像(図示略)を生成しても良く、この場合には、プリント装置は、当該被写体合成画像のプリントを作成するようにしても良い。
なお、被写体切り抜き画像P3や被写体合成画像の画像データには、ユーザによる所定の改変を禁止する制御情報を埋め込むようにしても良い。
加えて、上記実施形態にあっては、第1特定手段、第2特定手段、生成手段としての機能を、中央制御部301の制御下にて、被写体抽出部307の画素集合特定部307b、画像境界特定部307c、画像生成部307dが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部301のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、第1特定処理ルーチン、第2特定処理ルーチン、生成処理ルーチンを含むプログラムを記憶しておく。そして、第1特定処理ルーチンにより中央制御部301のCPUを、被写体存在画像P1における被写体領域に対応する画素値を有する画素が連続する画素集合を特定する第1特定手段として機能させるようにしても良い。また、第2特定処理ルーチンにより中央制御部301のCPUを、被写体存在画像P1における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段として機能させるようにしても良い。また、生成処理ルーチンにより中央制御部301のCPUを、第1特定手段により特定された画素集合と、第2特定手段により特定された下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、被写体領域に対応させて抽出用画像を生成する生成手段として機能させるようにしても良い。
同様に、検出手段、判定手段、修正手段、指定手段についても、サーバ3の中央制御部301のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。
100 被写体切り抜きシステム
1 撮像装置
2 ユーザ端末
203 表示部
3 サーバ
301 中央制御部
304 通信制御部
305 境界線指定部
306 顔検出部
307 被写体抽出部
307b 画素集合特定部
307c 画像境界特定部
307d 画像生成部
307e 画像修正部
308 判定部
M 記録媒体
N 通信ネットワーク

Claims (12)

  1. 背景と被写体とが存在する被写体存在画像から被写体が含まれる被写体領域を特定する領域特定方法であって、
    前記被写体存在画像における前記被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定ステップと、
    前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定ステップと、
    前記第1特定ステップにより特定された前記画素集合と、前記第2特定ステップにより特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更ステップと、
    を備えたことを特徴とする領域特定方法。
  2. 前記第1特定ステップは、
    前記被写体存在画像における前記被写体領域に対応する画素が連続する複数の画素集合の中で、面積が最大となる画素集合を特定することを特徴とする請求項1に記載の領域特定方法。
  3. 前記被写体存在画像から被写体の顔を検出する検出ステップを更に備え、
    前記第2特定ステップは、
    前記被写体存在画像の複数の画像境界のうち、前記検出ステップにより前記被写体存在画像から検出された被写体の顔の向きに対して下側となる画像境界を前記下側画像境界として特定することを特徴とする請求項1又は2に記載の領域特定方法。
  4. 前記変更ステップは、更に、
    前記第1特定ステップにより特定された前記画素集合と、前記第2特定ステップにより特定された前記下側画像境界以外の画像境界とにより囲まれる各画素を、前記被写体領域に対応させずに当該被写体領域を抽出するための抽出用画像を生成することを特徴とする請求項1〜3の何れか一項に記載の領域特定方法。
  5. ユーザによる操作入力部の所定操作に基づいて、任意の領域の各画素の対応する領域を変更する指示が入力されたか否かを判定する判定ステップと、
    この判定ステップにより前記指示が入力されたと判定されると、前記抽出用画像における各画素の対応する領域に変更して前記抽出用画像を修正する修正ステップと、を更に備えることを特徴とする請求項4に記載の領域特定方法。
  6. 前記所定の表示領域に表示された前記被写体存在画像にて、任意の境界線を指定する指定ステップを更に備え、
    前記判定ステップは、更に、
    前記変更ステップにより生成された前記抽出用画像における前記境界線に対応する領域の各画素の対応する領域を変更する指示が入力されたか否かを判定し、
    前記修正ステップは、更に、
    前記判定ステップにより前記抽出用画像における前記境界線に対応する領域について、前記各画素の対応する領域を変更する指示が入力されたと判定されると、前記抽出用画像における前記画素を、背景画素集合に対応させて前記抽出用画像を修正することを特徴とする請求項5に記載の領域特定方法。
  7. 前記被写体存在画像は、被写体となる人の胸から上を撮像した画像であることを特徴とする請求項1〜6の何れか一項に記載の領域特定方法。
  8. 前記第1特定ステップは、前記被写体存在画像の複数の画像境界の何れかを含む画像領域の画素の画素値に基づいて被写体の背景色を所定色として推定し、当該所定色の背景用画像と被写体存在画像との間で対応する各画素の差分情報に基づいて、前記被写体領域に対応する画素集合を特定することを特徴とする請求項1〜7の何れか一項に記載の領域特定方法。
  9. 背景と被写体とが存在する被写体存在画像から被写体が含まれる被写体領域を特定する領域特定装置であって、
    前記被写体存在画像における前記被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定手段と、
    前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段と、
    前記第1特定手段により特定された前記画素集合と、前記第2特定手段により特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更手段と、
    を備えたことを特徴とする領域特定装置。
  10. 背景と被写体とが存在する被写体存在画像から被写体が含まれる被写体領域を特定する領域特定装置のコンピュータを、
    前記被写体存在画像における前記被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定手段、
    前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段、
    前記第1特定手段により特定された前記画素集合と、前記第2特定手段により特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更手段、
    として機能させることを特徴とするプログラム。
  11. 端末装置とネットワークを介して接続されたサーバであって、
    端末装置から被写体存在画像の画像データを受信する受信手段と、
    受信した被写体存在画像における被写体が含まれる被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定手段と、
    前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段と、
    前記第1特定手段により特定された前記画素集合と、前記第2特定手段により特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更手段と、
    を備えることを特徴とするサーバ。
  12. 端末装置と、この端末装置とネットワークを介して接続されたサーバとを備えたシステムであって、
    前記端末装置は、
    被写体存在画像の画像データを送信する送信手段を備え、
    前記サーバは、
    前記端末装置から送信された被写体存在画像の画像データを受信する受信手段と、
    受信した被写体存在画像における被写体が含まれる被写体領域に対応する画素集合を前記被写体存在画像と背景用画像との対応する各画素の差分情報に基づいて特定する第1特定手段と、
    前記被写体存在画像における複数の画像境界のうち、所定の表示領域に表示された状態の下側の画像境界に対応する下側画像境界を特定する第2特定手段と、
    前記第1特定手段により特定された前記画素集合と、前記第2特定手段により特定された前記下側画像境界とにより囲まれる背景に対応する領域を構成する各画素を、前記被写体領域に対応させるように変更する変更手段と、
    を備えることを特徴とするシステム。
JP2010265865A 2010-11-18 2010-11-30 領域特定方法、領域特定装置、プログラム、サーバ及びシステム Active JP5212451B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010265865A JP5212451B2 (ja) 2010-11-30 2010-11-30 領域特定方法、領域特定装置、プログラム、サーバ及びシステム
US13/295,403 US8687888B2 (en) 2010-11-18 2011-11-14 Region specification method, region specification apparatus, recording medium, server, and system
CN201410188426.4A CN103996190B (zh) 2010-11-18 2011-11-17 区域特定方法、区域特定装置及系统、服务器及记录介质
CN201110365020.5A CN102567729B (zh) 2010-11-18 2011-11-17 区域特定方法、区域特定装置、服务器及系统
US13/908,370 US8670616B2 (en) 2010-11-18 2013-06-03 Region specification method, region specification apparatus, recording medium, server, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265865A JP5212451B2 (ja) 2010-11-30 2010-11-30 領域特定方法、領域特定装置、プログラム、サーバ及びシステム

Publications (3)

Publication Number Publication Date
JP2012119798A JP2012119798A (ja) 2012-06-21
JP2012119798A5 JP2012119798A5 (ja) 2012-09-27
JP5212451B2 true JP5212451B2 (ja) 2013-06-19

Family

ID=46502188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265865A Active JP5212451B2 (ja) 2010-11-18 2010-11-30 領域特定方法、領域特定装置、プログラム、サーバ及びシステム

Country Status (1)

Country Link
JP (1) JP5212451B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016136325A (ja) * 2015-01-23 2016-07-28 大日本印刷株式会社 画像処理装置及びプログラム
WO2017179134A1 (ja) * 2016-04-12 2017-10-19 株式会社オプティム 化粧シミュレーションシステム、化粧シミュレーション方法、および化粧シミュレーションプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3411971B2 (ja) * 2001-02-14 2003-06-03 三菱電機株式会社 人物像抽出装置
JP2005275447A (ja) * 2004-03-22 2005-10-06 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2012119798A (ja) 2012-06-21

Similar Documents

Publication Publication Date Title
JP5201203B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5413002B2 (ja) 撮像装置および方法、並びにプログラム
US8687888B2 (en) Region specification method, region specification apparatus, recording medium, server, and system
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
JP4947136B2 (ja) 画像処理装置、画像処理方法及びプログラム
US8441554B2 (en) Image capturing apparatus capable of extracting subject region from captured image
JP5504990B2 (ja) 撮像装置、画像処理装置及びプログラム
JP5212451B2 (ja) 領域特定方法、領域特定装置、プログラム、サーバ及びシステム
US20170163887A1 (en) Image processing apparatus, image processing method, and program
JP5733588B2 (ja) 画像処理装置および方法、並びにプログラム
JP5228705B2 (ja) 画像読み取り装置、画像読み取り方法、画像読み取りプログラム、画像読み取りプログラムが記憶された記憶媒体
JP5402166B2 (ja) 画像合成装置及びプログラム
JP4632417B2 (ja) 撮像装置、及びその制御方法
JP5234086B2 (ja) 領域特定方法、領域特定装置、プログラム、サーバ及びシステム
JP5131399B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5493839B2 (ja) 撮像装置、画像合成方法及びプログラム
JP2011041041A (ja) 撮像装置、撮像方法及びプログラム
JP2011182014A (ja) 撮像装置、撮像処理方法及びプログラム
JP5747591B2 (ja) データ生成装置、データ生成方法、印刷方法、プログラム及び印刷システム
JP2008147714A (ja) 画像処理装置およびその方法
JP4853571B2 (ja) 境界設定方法、境界設定装置、プログラム及びプリントシステム
JP2012059158A (ja) 画像処理装置、画像処理方法及びプログラム
JP2011076457A (ja) 顔画像補正装置、顔画像補正方法及びプログラム
JP2007142564A (ja) カメラ、撮影方法及びプログラム
JP2011175663A (ja) 撮像装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120808

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20120809

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130211

R150 Certificate of patent or registration of utility model

Ref document number: 5212451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3