JP3962825B2 - 画像処理装置、及び、プログラム - Google Patents

画像処理装置、及び、プログラム Download PDF

Info

Publication number
JP3962825B2
JP3962825B2 JP2001151203A JP2001151203A JP3962825B2 JP 3962825 B2 JP3962825 B2 JP 3962825B2 JP 2001151203 A JP2001151203 A JP 2001151203A JP 2001151203 A JP2001151203 A JP 2001151203A JP 3962825 B2 JP3962825 B2 JP 3962825B2
Authority
JP
Japan
Prior art keywords
image
subject
processing target
color
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001151203A
Other languages
English (en)
Other versions
JP2002358520A (ja
Inventor
正利 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2001151203A priority Critical patent/JP3962825B2/ja
Publication of JP2002358520A publication Critical patent/JP2002358520A/ja
Application granted granted Critical
Publication of JP3962825B2 publication Critical patent/JP3962825B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、撮影画像から被写体の画像を抽出する画像処理装置、及び、プログラムに関する。
【0002】
【従来の技術】
デジタル画像を用いた画像加工処理として、被写体を撮影した画像から背景を除去して被写体の画像を抽出する処理がよく行われる。
このような処理においては、一般に、撮影画像の各画素の色値を取得し、判別分析等の手法を用いて、各画素を、撮影画像を背景領域と被写体領域とに2値化して区分する方法や、隣接する画素間における色の変化量をもとに被写体の画像の輪郭を検出し、背景と被写体を区分する方法があった。
【0003】
このうち、2値化を行う方法においては、撮影画像の各画素におけるRGB値を明度若しくは輝度に変換して2値化する手法や、RGB値の三原色成分毎に2値化を行う手法、或いは、RGB色空間を定義し、各画素の色空間における距離をもとに2値化を行う手法等が用いられていた。
【0004】
また、被写体の画像の輪郭を検出する方法においては、各画素のRGB値を明度や輝度に変換してから、隣接する画素間の色の変化量を判定する手法や、RGBの三原色成分毎に隣接する画素間の色の変化量を判定する手法等があった。
【0005】
【発明が解決しようとする課題】
ところが、上記のような方法では、色相に関する情報が処理対象となっていないため、色相を基準とした処理ができず、さらにRGB三原色データを用いる場合は、限られた帯域の情報をもとに処理を行うので、必ずしも良好な結果を得られるとは限らないという問題があった。このため、例えば、撮影時の照明むら等によって撮影画像中の背景にむらが生じた場合や、透明な部分を有する被写体を用いた場合など、被写体と背景とを区別することが困難な場合があった。
また、RGB色空間における色距離は人間の視覚で識別される色の差とは比例しないため、人間が識別可能な色の差を識別できないことがあった。すなわち、被写体と背景とが明らかに区別できると作業者が判断した場合であっても、良好に被写体の画像を抽出できない場合があった。
【0006】
そこで、このような問題を解決するため、これまで様々な改良が施されてきた。例えば、RGB色空間を利用せず、YCC色空間やLab色空間のように人間の視覚に近い特性を持つ色空間を利用して、撮影画像中の画素における輝度や色相を処理する手法が提案されていた。しかしながら、この手法では、撮影画像中の明るさにむらがある場合は著しく大きな色距離が検出されてしまい、撮影画像のむらが処理の障害になるという問題があった。
【0007】
また、撮影画像中の各画素について、隣り合う画素の色空間における色距離を求めることにより、被写体の画像を検出する手法が提案されていた。しかしながら、この手法では、灰色と黒のように似た色が多く含まれる撮影画像においては、明るさのむらによるノイズが多く検出されてしまうため、ノイズ除去のための処理を行う必要があり、効率が悪いという問題があった。
さらに、撮影画像における色相に関する情報を利用して、被写体の輪郭を検出する手法も提案されていたが、明度が著しく変化している箇所においては的確な検出ができないという問題があった。
【0008】
本発明は、上記問題点を解決するために、撮影画像から背景を除去して被写体の画像を抽出する処理を、効率よく正確に行える画像処理装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
請求項1記載の発明の画像処理装置は、被写体の画像と、被写体を除く部分の非被写体画像とを含む処理対象画像における色値から処理対象値を取得する処理対象値取得手段(例えば、図8のステップS111に示す処理を行うCPU101)と、この処理対象値取得手段により取得された処理対象値のうち、色みを示す成分をもとにして、被写体の画像と非被写体画像とを区分する画像区分手段(例えば、図8のステップS112に示す処理を行うCPU101)と、前記処理対象値取得手段により取得された処理対象値のうち、明るさを示す成分をもとにして、被写体の画像と非被写体画像との境界を判別する境界判別手段(例えば、図8のステップS113に示す処理を行うCPU101)と、前記区分手段により前記処理対象画像を区分した結果と、前記境界判別手段により判別された境界とをもとに、前記処理対象画像から被写体の画像を抽出する抽出手段(例えば、図8のステップS115に示す処理を行うCPU101)と、前記抽出手段により抽出された被写体画像の前記処理対象値のうち、明るさを示す成分が前記非被写体画像とは異なり、かつ、色みを示す成分が前記非被写体画像と近似している領域を、透明な領域として判定する透明領域判定手段と、この透明領域判定手段により判定された透明な領域の明るさを、予め指定された明るさに補正する補正手段と、を備えることを特徴としている。
【0010】
ここで、処理対象画像における非被写体画像とは、例えば、いわゆる背景であっても良いし、或いは、他の被写体を含む画像であっても良い。また、処理対象値とは、例えば、処理対象画像における色値そのものであっても良いし、或いは、所定の色空間値への変換を行って得られる値であっても良い。さらに、処理対象地のうちの明るさとは、色値における明度成分を指すものと解することもできるが、色値、或いは色値をさらに変換して得られる値などにおいて、明るさに関する情報全般を指すものである。
【0011】
この請求項1記載の発明によれば、被写体の画像と、被写体を除く部分の非被写体画像とを含む処理対象画像における色値から、処理対象値取得手段によって処理対象値を取得し、画像区分手段により、処理対象値取得手段により取得された処理対象値のうち、色みを示す成分をもとにして、被写体の画像と非被写体画像とを区分し、境界判別手段により、処理対象値取得手段により取得された処理対象値のうち、明るさを示す成分をもとにして、被写体の画像と非被写体画像との境界を判別し、区分手段により処理対象画像を区分した結果と、境界判別手段により判別された境界とをもとに、抽出手段によって処理対象画像から被写体の画像を抽出するので、処理対象画像の色値の特性を利用して、効率よく、迅速にかつ正確に被写体の画像を抽出することができる。すなわち、処理対象画像の色みに基づいた処理によって効率よく被写体の画像と非被写体画像とを区分し、さらに、処理対象画像の明るさに基づいて効率よく被写体の画像と非被写体画像の境界を判別する。そして、被写体の画像と非被写体画像とを区分した結果と、被写体の画像と非被写体画像の境界とをもとにして被写体画像を抽出することにより、透明な部分を有する被写体や、周囲の光を良く反射する被写体など、従来の手法では被写体の画像の抽出が困難な場合であっても、効率よく正確に被写体の画像を抽出できる。
【0012】
請求項記載の発明の画像処理装置は、被写体の画像と、被写体を除く部分の非被写体画像とを含む処理対象画像から、非被写体画像を除去して得られる被写体の画像について、前記処理対象画像における色値から処理対象値をし、当該処理対象値のうち、明るさを示す成分が前記非被写体画像とは異なり、かつ、色みを示す成分が前記非被写体画像と近似している領域を、前記被写体の画像に含まれる透明な領域として判定する透明領域判定手段(例えば、図14のステップS202に示す処理を行うCPU101)と、この透明領域判定手段により判定された透明な領域の明るさを、予め指定された明るさに補正する補正手段(例えば、図14のステップS205に示す処理を行うCPU101)とを備えることを特徴としている。
【0013】
この請求項6記載の発明によれば、被写体の画像と、被写体を除く部分の非被写体画像とを含む処理対象画像から、透明領域判定手段により、非被写体画像を除去して得られる被写体の画像について、該被写体の画像に含まれる透明な領域を判定し、透明領域判定手段により判定された透明な領域の明るさを、補正手段によって、予め指定された明るさに補正するので、処理対象画像から抽出される被写体の画像において、透明な部分の明るさを適切な明るさにすることができる。これにより、抽出された被写体の画像を他の画像や背景と組み合わせた場合に、より自然な仕上がりを実現でき、背景を除去して得られた画像を有効に利用することができる。
【0014】
【発明の実施の形態】
以下、図を参照して本発明の実施の形態を詳細に説明する。
[第1の実施の形態]
図1〜図13を参照して、本発明を適用した第1の実施の形態における撮影システム1について説明する。
【0015】
まず、構成を説明する。
図1は、本実施の形態の撮影システム1の構成を示す概略斜視図である。図1に示すように、撮影システム1は、画像処理装置10と、略箱形形状のケース401を有し、ケース401の内部に被写体を収容する撮影装置40と、撮影装置40に取り付けられ、撮影装置40内に収容された被写体を撮影するデジタルカメラ20と、撮影装置40の側面に設置され、撮影装置40に設けられた各部の制御を行う撮影制御装置30と、によって主要部が構成され、画像処理装置10とデジタルカメラ20、及び、画像処理装置10と撮影制御装置30とは互いに接続されている。
【0016】
画像処理装置10は、デジタルカメラ20による撮影処理、及び、デジタルカメラ20によって撮影された画像についての画像編集処理を実行するためのアプリケーションプログラムを実行可能なコンピュータシステムであり、本体11、ディスプレイ12、キーボード13及びマウス14等により構成され、これらのディスプレイ12、キーボード13、マウス14は、それぞれ本体11に格納された各部に接続されている。
【0017】
撮影装置40は、正面及び一側面が開口した略箱形型状のケース401と、ケース401に対して、底面がケース401の正面の開口部を覆うように連結された略四角錐状のフード402と、フード402の頂点部分に連結されたチルト台403と、ケース401の側面に設けられた開口部に、開閉自在に取り付けられた側面扉406と、側面扉406を備えたケース401側面の端部に設置された非常停止ボタン404と、ケース401の内部に設置された被写体台座405とによって構成され、さらに非常停止ボタン404の下方には撮影制御装置30が設置され、また、チルト台403にはデジタルカメラ20が固定される。
【0018】
そして、ケース401とフード402との連結部分においては、モータ409(図6)及びポテンショメータ412(図6)とが取り付けられ、同様にフード402とチルト台403との連結部分にはモータ407(図6)とポテンショメータ410(図6)とが取り付けられており、被写体台座405には、モータ408(図6)とポテンショメータ411(図6)とが取り付けられている。
【0019】
ケース401の正面は、ほぼ全面にわたって開口し、さらに側面に開口部を有しているが、側面の開口部には側面扉406が開閉自在に取り付けられ、正面の開口部には、ケース401に連結されたフード402の底面に相当する面によって覆われている。このため、側面扉406が閉じられた状態では、ケース401内部への外光は遮断される。
【0020】
フード402は、底面に相当する面が開口した略四角錐状のフードであり、この底面の開口部がケース401の正面の開口部と突き合わされた状態で、図示しない連結軸により、ケース401に連結されている。そして、フード402は、連結部分に取り付けられたモータ410が動作することにより、上記連結軸を中心にして上下/左右に回転可能である。すなわち、モータを回転させることによって、ケース401に対するフード402の取り付け角度を変化させることができる。そして、略四角錘状のフード402において、角錘の頂点に相当する部分には、チルト台403が取り付けられている。
【0021】
チルト台403は、フード402に連結される連結部分と、デジタルカメラ20を固定するための平面部分とを有する台座であり、平面部分にはデジタルカメラ20を固定するための図示しない固定機構を備え、平面部分からケース401の内部に向かって開口部が設けられている。この開口部にレンズが向くように、上記の平面部分にデジタルカメラ20を載せて固定することにより、デジタルカメラ20によって、ケース401内の被写体台座405に載置された被写体5を撮影できる。なお、デジタルカメラ20は、チルト台403の平面部分に底面を下にして固定することができ、また、側面を下にして縦置きすることもできる。
【0022】
このチルト台403は、一端部をフード402に対して揺動自在に連結され、連結部分にはモータ407が取り付けられており、モータ407が回転することによって、上記の連結部分を中心として上下に回転させることが可能である。すなわち、モータを回転させることにより、フード402に対するチルト台403の取り付け角度を変化させることができる。
【0023】
ケース401の内部の底面上には、被写体台座405が設置されている。この被写体台座405は、ケース401の底面に固定された底板と、撮影の対象となる被写体5を載置するための天板と、天板と底板との間に設置され、上下に伸縮可能な伸縮機構と、この伸縮機構を動作させるためのモータ408(図6)と、モータ408の回転量を検出するポテンショメータ411(図6)とを備え、モータの回転によって、伸縮機構が伸縮して天板の高さを変化させることが可能である。従って、モータ408を所定の量だけ回転させることにより、被写体台座405の天板に被写体5を、所定の高さに移動させることができる。
【0024】
側面扉406が取り付けられたケース401の側面には、非常停止ボタン404が設置されている。非常停止ボタン404は、後述する停止スイッチ302(図6)と連結され、非常停止ボタン404が押下されることによって停止スイッチ302がONとなり、撮影装置40の各部に取り付けられたモータ407、408、409の動作を全て停止させることができる。従って、撮影装置40において、モータ407、408、409の動作によって各部が移動している間に異常が発生した場合は、この非常停止ボタン404を押下することにより、全ての動作を停止させて、危険を回避することができる。
【0025】
非常停止ボタン404の下方には、撮影制御装置30が設置されている。撮影制御装置30は、画像処理装置10と、撮影装置40の各部に設置されたモータ407、408、409及びポテンショメータ410、411、412に接続され、後述するように、ポテンショメータ410、411、412から入力される検出値をCPU101から入力される指示信号に従って、モータ407、408、409を制御する。この撮影制御装置30の内部構成については後述する。
【0026】
図2は、ケース401内部の構成を示す断面図である。
図2に示すように、ケース401内部底面には被写体台座405が配置され、この被写体台座405には被写体5が載置される。
ここで、被写体5の、デジタルカメラ20側を前方とし、その反対側を後方とする。
【0027】
ケース401内においては、被写体5の背面側と底面とに跨って、背景材6が配設される。背景材6の一方側は、被写体台座405の天面と被写体5の底面とに挟まれており、他方側は、ケース401の後方の面に沿って配設されている。従って、デジタルカメラ20により被写体5を撮影すると、被写体5の下方及び後方には、一面に背景材6が映ることになる。
【0028】
背景材6は、紙や布、あるいは合成樹脂等によってなる柔軟なシート状部材であり、任意の色で構成することが可能である。例えば、背景材6の色を被写体5の色の補色とすれば、後述する背景除去処理を効率よく行うことができる。つまり、背景材6の色としては、撮影装置1における各種処理に適した色が望ましい。
【0029】
なお、ケース401への出し入れが可能で、かつ、ケース401における被写体5の出し入れを妨げないのであれば、背景材6として、例えば、鉄製や木製の硬質な板状部材を、被写体5の底面と背面とを覆う形状に変形加工したものを用いてもよい。
【0030】
また、被写体台座405の上方に位置するように、ケース401の天井には、撮影用鏡421が鏡固定台座422によって固定される。
撮影用鏡421は、被写体台座405天面の像をデジタルカメラ20へ向かって投影する向きで固定されているので、撮影用鏡421に映る像をデジタルカメラ20で撮影することにより、被写体5の上面を撮影できる。
なお、この撮影用鏡421を固定する鏡固定台座422は、ケース401との接合部において移動可能であり、高さのある被写体5を被写体台座405に載置する際に、撮影用鏡421を上方へ退避させることが可能である。
【0031】
また、ケース401の天井面、底面、及び側面には複数の照明装置423a、423b、423c、423dが、それぞれ被写体5を向いて配設されている。
各照明装置423a、423b、423c、423dは、電球や冷陰極管、ストロボ等の光源を内蔵し、後述する照明制御部307によって上記光源の点灯/消灯等の照明状態を制御できる。あるいは、デジタルカメラ20による被写体5の撮影時に、被写体5を照明する。
【0032】
なお、ケース401は、照明装置423a、423b、423c、423dのメンテナンス等の目的により、その上面において開閉可能な開口部を備えているが、ここでは説明を省略する。
【0033】
より詳しくは、照明装置423aは、被写体5の前方側でケース401の天井面に固定され、照明装置423bは、被写体5の後方側でケース401の天井面に固定される。また、照明装置423d、423dは、被写体5の前方側でケース401の両側面にそれぞれ固定されており、さらに、照明装置423cは、被写体5の前方側でケース401の底面に固定される。
【0034】
また、照明装置423a、423b、423c、423dは、それぞれ、ケース401の内面に対して照明固定台座424a、424b、424c、424dを介して固定されている。
このため、被写体5は、前側から、照明装置423a、423c、423dによって上方、下方、側方より照明され、また、後ろからは、照明装置423bによって上方より照明される。
【0035】
さらに、照明装置423aの近傍には、照明装置423aから被写体5への光を遮るように光拡散部材425が配設されている。光拡散部材425は、例えば所定のパターンが刻まれた透明の樹脂板や、ガラス球等が封入された透明樹脂製の板状部材等によってなり、照明装置423aからの光を乱反射することで拡散させる。
【0036】
この光拡散部材425によって、被写体5の表面におけるいわゆる「てかり」が生じるのを防止して、デジタルカメラ20によって良好な撮影画像を得ることができる。なお、ここでは、光拡散部材425が照明装置423aの近傍にのみ配設される構成としたが、照明装置423b、423c、423dと被写体5との間にも、それぞれ光拡散部材425が配設される構成としてもよい。
【0037】
図3は画像処理装置10の内部構成を示すブロック図である。
図3に示すように、画像処理装置10は、CPU101、入力部102、RAM103、伝送制御部104、表示部105、記憶装置106、記憶装置106が有する記憶媒体107、及びI/F部108等により構成され、記憶媒体107を除く各部はバス109により接続されている。また、画像処理装置10は、I/F部108において、後述する撮影制御装置30内のI/F部301と接続されている。
【0038】
CPU(Central Processing Unit)101は、入力部102が有するキーボード13から入力される各種指示に従って、記憶装置106内に格納されるアプリケーションプログラムを読み込み、RAM103内に設けられるメモリエリアに展開して実行し、入力部102のキーボード13またはマウス14により入力される指示に従って、記憶装置106内に格納された撮影条件テーブルファイル106a(図5)を読み込み、この撮影条件テーブルファイル106aにおいて、入力された指示に該当する撮影条件を参照する。また、CPU101は、入力部102から撮影条件に関する指示入力が行われた場合、入力された条件を取得する。
【0039】
そして、CPU101は、デジタルカメラ20によって撮影を実行する際の撮影装置40の各部の状態、すなわちチルト台403のチルト角、フード402の角度、被写体台座405の天板の高さ、ケース401内に備える照明装置の照度等を上記の撮影条件に適合させるための指示信号を撮影制御装置30に対して出力し、撮影制御装置30による制御を実行させて、撮影装置40の各部を上記撮影条件に適合させる。また、撮影制御装置30からの応答を検知すると、デジタルカメラ20に対して、撮影時の撮影倍率、焦点位置及び露光量を撮影条件テーブルファイル106aに設定された撮影条件に適合させるための指示信号を出力して撮影条件を実現し、デジタルカメラ20からの応答を検知すると、デジタルカメラ20に対して、撮影実行を指示する撮影指示信号を出力し、撮影を実行させる。また、撮影終了後、デジタルカメラ20から、撮影された画像を示す画像データが入力されると、CPU101は、当該画像データと、入力部102から入力されるファイル名とをもとに撮影画像ファイル106b(図4)を生成し、記憶装置106内に格納する。
【0040】
また、CPU101は、入力部102から入力される各種指示に従って、デジタルカメラ20から出力されるモニタ画像を表示するためのモニタウィンドウを表示画面上に表示させる。
【0041】
そして、CPU101は、利用者に対して、入力部102のキーボード13及びマウス14によって指示入力を実行するように要求する指示選択画面を表示するための表示情報を生成して表示部105に出力し、ディスプレイ12の表示画面上に当該指示選択画面に表示させる他、CPU101により実行される各種処理によって得られた画像等をディスプレイ12の表示画面に表示させる。
【0042】
さらに、CPU101は、被写体5の撮影処理を実行後、生成された撮影画像データに関して、後述する背景除去処理(図8)を実行し、背景除去画像を取得する。
【0043】
入力部102は、数字キー、文字キー及び各種機能キー等を備えるキーボード13を有し、キーボード13においていずれかのキーが押下されたことを検知すると、押下されたキーに対応する押下信号を生成して、CPU101に対して出力する。また、入力部102は、ディスプレイ12の表示画面上において特定の位置を指定するポインティングデバイスとしてのマウス14を備え、このマウス14においてクリック操作が行われると、クリック信号を生成してCPU101に出力するとともに、表示画面上における位置を示す相対位置座標データをCPU101に対して出力する。
【0044】
RAM(Random Access Memory)103は、CPU101により処理される各種プログラムや、その処理に係るデータを一時的に格納するメモリエリアを形成する。
【0045】
伝送制御部104は、LAN(Local Area Network)、WAN(Wide Area Network)、あるいはインターネット等の各種ネットワークに接続された伝送媒体に接続可能なインターフェイスである。ここで、伝送媒体とは、電話回線や対金属線や同軸ケーブル、光ファイバーケーブル等により構成され、各種装置と接続されることにより上記ネットワークを形成するものである。
【0046】
表示部105は、CRT(Cathode Ray Tube)や、LCD(Liquid Crystal Display)等によって構成される表示画面を有するディスプレイ12を備え、CPU101から入力される表示情報に従って、ディスプレイ12の表示画面に所定のモニタウィンドウなどのウィンドウを表示させて、当該ウィンドウ内に、デジタルカメラ20により撮影された撮影画像、あるいは、モニタ画像や、CPU101により実行される各種処理により生成された画像等を表示させる。
【0047】
記憶装置は106、プログラムやデータ等があらかじめ記憶されている記憶媒体107を有しており、この記憶媒体107は磁気的、光学的記録媒体、若しくは半導体メモリで構成されている。記憶媒体107は記憶装置106内に固定的に設けたもの、若しくは着脱自在に装着するものである。
【0048】
また、この記憶媒体107に記憶するプログラム、データ等は、その一部若しくは全部をサーバやクライアント等の他の機器からネットワーク回線等の伝送媒体を介して伝送制御部104から受信して記憶する構成にしてもよく、さらに、記憶媒体107はネットワーク上に構築されたサーバの記憶媒体であってもよい。さらに、前記プログラムをネットワーク回線等の伝送媒体を介してサーバやクライアントへ伝送してこれらの機器にインストールするように構成してもよい。
【0049】
I/F部108は、画像処理装置10からデジタルカメラ20及び撮影制御装置30に対して、各種指示信号や位置情報等を入出力するためのインターフェイスであり、例えば、USB(Universal Serial Bus)ポートやRS−232C端子をはじめとするシリアル入出力端子、パラレル入出力端子、SCSIインターフェイス、IrDA(Infrared Data Association)規格に準じた赤外線通信装置等が備えられ、有線または無線通信手段によりデジタルカメラ20及び撮影制御装置30と接続することが可能である。
【0050】
デジタルカメラ20は、内部にCCD(Charge Coupled Device :電荷結合素子)を備える受光部、レンズ、絞りの他、撮影倍率や露光量等を調節するためのモータ等を備え、撮影装置40が有するチルト台403において、ケース401内に戴置される被写体5の方向にレンズを向けて固定される。そして、デジタルカメラ20は、画像処理装置10に接続され、画像処理装置10のCPU101から入力される撮影指示信号に従って被写体5を撮影し、撮影により得られた画像を示す撮影画像データを画像処理装置10に対して出力する。
【0051】
また、デジタルカメラ20は、内部にCCD等を備える受光部が動作可能な状態においては、撮影を実行しない状態であっても、受光部によって受像した画像をモニタ画像として出力することができる。このモニタ画像は、撮影された画像とは異なり、画像メモリ203に格納されることなく、受光部によって受像した画像がそのままI/F部201を介して出力されるものである。画像処理装置10においては、このモニタ画像を受信して表示することにより、通常のカメラのファインダーと同様に、撮影される範囲のおよその状態を、撮影を実行する前に知ることができる。
【0052】
図4は、記憶装置106内に各種ファイルが格納される構成を模式的に示す図である。記憶装置106内には、デジタルカメラ20によって被写体5の撮影を実行させるための撮影アプリケーションプログラム、デジタルカメラ20により被写体5を撮影した撮影画像データや、この撮影画像データと撮影時の撮影条件等が対応付けて設定されている撮影画像ファイル106bや、撮影を行う際の各種の条件が設定された撮影条件が設定されている撮影条件テーブルファイル106a等の各種のファイルの他、撮影画像データから背景を除去する背景除去処理により生成された背景除去画像データが格納された背景除去画像ファイル106cや、撮影画像データから背景を除去するための背景除去プログラム等が格納される。
【0053】
また、図5は撮影条件テーブルファイル106aの構成を模式的に示す図である。図5に示す撮影条件テーブルファイル106aには、被写体5及び背景画像を撮影する際の撮影システム1における撮影条件が設定されている。撮影条件としては、画像の解像度、デジタルカメラ20の撮影倍率、デジタルカメラ20から被写体5までの焦点距離、デジタルカメラ20の露光量、フード402のケース401に対する取り付け角度を示すフード角、デジタルカメラ20が固定されるチルト台403のフード402に対する取り付け角度を示すチルト角、照明装置423a〜423dの明るさを示す照度、及び照明装置423a〜423dの中で点灯する照明装置の位置をあらかじめ定められた符号で示す光源点灯位置等の各種情報が設定されている。
【0054】
図6は、デジタルカメラ20及び撮影制御装置30の内部構成を示すブロック図である。図6に示すように、デジタルカメラ20は、I/F部201と、I/F部201に接続されたカメラ制御部202と、カメラ制御部202に接続された画像メモリ203と、カメラ制御部202にそれぞれ接続されたモータ204、205、206と、モータ204に接続されたズーム調節部207と、モータ205に接続されたフォーカス調節部208と、モータ206に接続された絞り調節部209と、それぞれズーム調節部207、フォーカス調節部208、絞り調節部209に接続されたポテンショメータ210、211、212とによって構成される。
なお、デジタルカメラ20は、図6に示す各部の他、受光部やレンズ等を備えているが、ここでは図示及び説明を省略する。
【0055】
I/F部201は、撮影制御装置30が有するI/F部301を介して画像処理装置10が有するI/F部108に接続され、CPU101(図3)から入力される指示信号及び撮影指示信号の他、画像メモリ203内に格納された画像データ等、各種の信号やデータを入出力するための入出力インターフェイスであり、例えば、USBポートやRS−232C端子等のシリアル入出力端子、パラレル端子、SCSIインターフェイス、IrDA規格に準じた赤外線ポート等を備えるものである。
【0056】
カメラ制御部202は、デジタルカメラ20の各部を制御するための制御部であり、I/F部201及び画像メモリ203に接続されている。このカメラ制御部202は、画像処理装置10内のCPU101から入力される指示信号に従って、ズーム調節部204に接続されたモータ204、フォーカス調節部205に接続されたモータ205及び絞り調節部206に接続されたモータ206に対して所定の電流を出力して動作させるとともに、ポテンショメータ210、211、212から検出値が出力されると、この検出値をもとに、モータ204、205、206に出力する電流を変化させて、被写体5を撮影する倍率、焦点距離、及び露光量を、所定の撮影条件に適合させる。
【0057】
また、カメラ制御部202は、CPU101から入力される撮影指示信号に従って撮影を実行し、上述のCCD等を備える受光部によって受像した画像を示す画像データを、CPU101から入力される信号により指定された解像度のデータとして生成し、この画像データを一時的に画像メモリ203に格納した後、I/F部201を介して画像処理装置10に出力する。
【0058】
画像メモリ203は、磁気的記録媒体、あるいは半導体メモリ等によって構成され、カメラ制御部202に接続されており、デジタルカメラ20において撮影を実行して得られた画像を示す画像データを一時的に格納する。
【0059】
ズーム調節部207は、デジタルカメラ20において、撮影時の撮影倍率を調節するための調節機構であり、モータ204の回転によって動作し、撮影倍率を変化させる。モータ204は、ズーム調節部207とともに、カメラ制御部202と、ポテンショメータ210とに接続され、カメラ制御部202から電流が入力されることによって回転し、ズーム調整部207を作動させる。また、ポテンショメータ210は、モータ204とI/F部201とに接続され、モータ204の回転量を随時検出して、回転量に応じた検出値をI/F部201に出力する。
【0060】
フォーカス調節部208は、デジタルカメラ20において、撮影時の焦点を調節するための調節機構であり、モータ205の回転によって動作し、焦点距離等を変化させる。モータ205は、カメラ制御部202と、フォーカス調節部208と、ポテンショメータ211とに接続され、カメラ制御部202から電流が入力されることによって回転し、フォーカス調節部208を動作させる。また、ポテンショメータ211は、モータ205とI/F部201とに接続されモータ205の回転量を随時検出して、回転量に応じた検出値をI/F部201に出力する。
【0061】
絞り調節部209は、デジタルカメラ20において、撮影時の露光量を調節するための調節機構であり、モータ206の回転によって動作して露光量を変化させる。モータ206は、カメラ制御部202と、絞り調節部209と、ポテンショメータ212とに接続され、カメラ制御部202から電流が入力されることによって回転し、絞り調節部209を動作させ、露光量の調節を実行する。また、ポテンショメータ212は、モータ206とI/F部201とに接続され、モータ206の回転量を随時検出して、回転量に応じた検出量をI/F部201に出力する。
【0062】
図6に示すように、撮影制御装置30は、画像処理装置10及びデジタルカメラ20に接続されたI/F部301と、停止スイッチ302と、カメラ向き検出スイッチ303と、モータ407に接続されたチルト台駆動部304と、モータ408に接続された被写体台座駆動部305と、モータ409に接続されたフード駆動部306と、照明制御部307とによって構成され、各部はバスにより接続されている。なお、図6には、理解の便宜を図るため、撮影装置40に取り付けられたモータ407、408、409及びポテンショメータ410、411、412の撮影制御装置30の各部とともに示している。
【0063】
撮影制御装置30において、I/F301は、画像処理装置10が有するI/F部108と、デジタルカメラ20が有するI/F部201とに接続され、I/F部108あるいはI/F部201との間での各種の信号やデータを入出力するための入出力インターフェイスであり、例えば、USBポートやRS−232C端子等のシリアル入出力端子、パラレル端子、SCSIインターフェイス、IrDA規格に準じた赤外線ポート等を備えるものである。
【0064】
停止スイッチ302は、撮影装置40(図1)のケース401の側部に設置された非常停止ボタン404に連結され、非常停止ボタン404が、利用者によって押下された際にONとなり、撮影装置30に接続された全てのモータ407、408、409を停止させるスイッチである。
【0065】
カメラ向き検出スイッチ303は、撮影装置40のチルト台403に固定されたデジタルカメラ20の向きが横置きか否かを検出するためのスイッチであり、I/F部301に接続されている。
【0066】
通常、チルト台403の平面部分にデジタルカメラ20の底面を固定すると、撮影される画像は横長の画像になる。この状態を横置きとすれば、縦置きは、デジタルカメラ20の側面をチルト台403の平面部分に固定する置き方であり、横置きされたデジタルカメラ20によって撮影される画像は縦長である。カメラ向き検出スイッチ303は、デジタルカメラ20が縦置きされた場合にこれを検知して、縦置き検知信号を生成してI/F部301に出力することにより、CPU101は、デジタルカメラ20が縦置きされていることを検知することができる。
【0067】
チルト台駆動制御部304は、撮影装置40のチルト台403の位置及び移動を制御する制御部であり、I/F部301及びモータ407に接続されている。チルト台駆動部304は、I/F部301を介してCPU101から、入力された指示信号に基づいて、モータ407に電流を出力してモータ407を回転させるとともに、ポテンショメータ410から出力される検出値をもとに、モータ407に出力される電流を変化させて、フード402に対するチルト台403の取り付け角度を撮影条件に適した所定のチルト角に調整する。
【0068】
被写体台座駆動制御部305は、撮影装置40が有するケース401の底面に設置された被写体台座405の高さを制御するための制御部であり、I/F部301及びモータ408に接続されている。被写体台座駆動部305は、I/F部301を介してCPU101から入力された指示信号に基づいて、モータ408に電流を出力してモータ408を回転させるとともに、ポテンショメータ411から出力される検出値をもとに、被写体台座405に載置される被写体5の高さを所定の撮影条件に適合させる。
【0069】
フード駆動制御部306は、撮影装置40が有するフード402と、ケース401との連結部分において、ケース401に対するフード402の取り付け角度を制御するための制御部であり、I/F部301及びモータ409に接続されている。フード駆動部306は、I/F部301を介してCPU101から入力された指示信号に基づいて、モータ409に電流を出力してモータ409を回転させるとともに、ポテンショメータ412から出力される検出値をもとにモータ409に出力される電流を変化させて、ケース401に対するフード402の取り付け角度を変化させて、所定の撮影条件に適合させる。
【0070】
照明制御部307は、撮影装置40のケース401内部に設けられている照明装置423a〜423dの照度を制御する制御部であり、I/F部301に接続されている。照明装置423a〜423dは、電球やストロボ等の光源を備えて構成され、照明制御部307は、CPU101からI/F部301を介して入力された指示信号に従って、照明装置423a〜423dの電球に流れる電流量や、点灯する電球の数等を制御することにより、所定の撮影条件に適した照度の照明を実行させる。
【0071】
以上のように構成される撮影システム1の動作について、図7から図10のフローチャートを用いて説明する。なお、各フローチャートで示す各機能を実現するプログラムはCPU101が読み取り可能なプログラムコードの形態で前記記憶媒体107に記憶されている。また、このプログラムはプログラムコードの形態でネットワーク回線等の伝送媒体を介して伝送することもできる。
【0072】
図7は、デジタルカメラ20により被写体5を撮影し、撮影画像から背景画像を除去する処理に係るCPU101の動作を示すゼネラルフローである。
【0073】
図7に示す処理のステップS101においては、デジタルカメラ20によって被写体5を撮影する際の撮影条件が指定される。このステップS101における撮影条件の指定は、例えば、CPU101は記憶装置106内の撮影条件テーブルファイル106aに記憶されている撮影条件を自動的に読み出すようにしても良いし、或いは、撮影条件テーブル106aに設定された条件の中から、キーボード13やマウス14における入力操作によって指定された条件を読み出すようにしても良い。なお、撮影条件とは、デジタルカメラ20及び撮影装置40の各部の位置等の各種撮影条件である。
【0074】
続くステップS102で、CPU101は、ステップS101で指定された撮影条件に従って、カメラ台座駆動制御装置304、被写体台座駆動制御部305及びフード駆動制御部306に対して指示信号を出力し、ポテンショメータ410、411、412から出力される検出値を元にして、モータ407、408、409の制御を実行させ、フード402及びチルト台403の取り付け角度や、被写体台座405の天板の高さを撮影条件に適合するように移動させる。また、CPU11は、照明制御部部307に指示信号を出力して、ケース401の内部に設けられた照明装置423a〜423dの照度及び点灯状態を制御させ、撮影条件に適合する照明を実行させる。さらにCPU101は、デジタルカメラ20において、カメラ制御部202に指示信号を出力してポテンショメータ210、211、212から出力される検出値をもとに、モータ204、205、206を動作させることにより、ズーム調整部207、フォーカス調整部208、絞り調節部209の制御を実行させ、デジタルカメラ20の撮影時の撮影倍率、焦点、露光量、光源点灯位置を読み込んだ撮影条件に適合させる。
【0075】
そして、CPU101は、撮影システム1の各部の機器が撮影条件に適合するよう移動した後、ステップS103で、カメラ制御部202に対して撮影指示信号を出力し、撮影を実行させる。ここで得られた撮影画像を示す画像データは、CPU101から入力される信号により指定された解像度データとして生成し、カメラ制御部202により画像メモリ203内に格納される。撮影システム1はデジタルカメラ20によって、1280×960ピクセル、640×480ピクセル、320×240ピクセル等の解像度での撮影が可能である。
【0076】
ここで、CPU101は、ステップS104において、画像メモリ203内に一時的に格納された背景画像の画像データについて、後述する背景除去処理(図8)を実行する。
そして、CPU101は、背景除去処理が行われた画像を保存するか否かを判別し、入力部102からの指示入力によって画像の保存が指示された場合には、ステップS106へ移行する。また、画像を保存しない旨の指示があった場合は、ステップS101へ戻る。
【0077】
ステップS106で、CPU101は、ステップS104における背景除去処理で得られた画像のデータにファイル名を付して、背景除去画像ファイル106cに当該ファイル名を格納する。その後、CPU101はステップS107に移行して、画像メモリ203内に一時的に格納された画像データをクリアし、ステップS108へ移行する。
【0078】
ステップS108で、CPU101は、被写体5の撮影及び背景除去に係る処理が完了したか否かを判別し、さらに被写体5の撮影と背景除去処理を実行する場合はステップS101に戻り、そうでない場合は処理を終了する。
【0079】
図8は、図7のステップS104に示す背景除去処理をより詳細に示すフローチャートである。
図8に示す背景除去処理において、CPU101は、まず、撮影画像データの色値の変換を実行する(ステップS111)。
デジタルカメラ20により被写体5を撮影して得られた画像のデータは、RGB色空間における色値として表現されているので、ステップS111における処理では、RGB色空間からLab色空間への変換を実行する。以下、この変換処理について、説明する。
【0080】
まず最初に、下記式(1)で示されるように、RGB値=(R,G,B)からXYZ値(XYZ表色系)=(X,Y,Z)への変換を行う。なお、下記式(1)〜(10)中の定数は、種々の昼光条件の平均的特性を代表するものとして、白点の値としてD65の光を使用した場合の一例である。
【数1】
[X]=[0.412453 0.357580 0.180423] [R]
[Y]=[0.212671 0.715160 0.072169]*[G] ・・(1)
[Z]=[0.019334 0.119193 0.950227] [B]
【0081】
次いで、下記式(2)〜(10)で示されるように、XYZ値からLab値=(L,a,b)への変換を実行する。
【数2】
L=116y−16 ・・(2)
a=500[x-y] ・・(3)
b=200[y-z] ・・(4)
X/Xn>0.008856の場合 x=(X/Xn)^(1/3) ・・(5)
X/Xn≦0.008856の場合 x=7.787×(X/Xn)+16.0/116.0 ・・(6)
Y/Yn>0.008856の場合 y=(Y/Yn)^(1/3) ・・(7)
Y/Yn≦0.008856の場合 y=7.787×(Y/Yn)+16.0/116.0 ・・(8)
Z/Zn>0.008856の場合 z=(Z/Zn)^(1/3) ・・(9)
Z/Zn≦0.008856の場合 z=7.787×(Z/Zn)+16.0/116.0 ・・(10)
ただし、上記式において、
Xn=0.959456×255、
Yn=1.000000×255、
Zn=1.088754×255である。
【0082】
このように、ステップS111でLab値への変換が実行された後、CPU101は、Lab値を明度成分(L)と色み成分(ab)とに分けて、それぞれについて、白と黒のみによってなる2値画像を作成する。ここで、色み成分に関して作成される2値画像を2値画像▲1▼とし、明度成分に関して作成される2値画像を2値画像▲2▼とする。
【0083】
CPU101は、ステップS112で、後述する2値画像▲1▼作成処理(図9)を実行し、さらにステップS113で、後述する2値画像▲2▼作成処理(図10)を実行して、2種類の2値画像を作成する。
そして、ステップS114に移行して、2値画像▲1▼と2値画像▲2▼とをもとにマスク画像を作成する。このステップS114においては、例えば、2値画像▲1▼と2値画像▲2▼との論理和(OR)を求めることにより、2値画像▲1▼の被写体領域と2値画像▲2▼の被写体領域との和を求め、マスク画像を作成する。
【0084】
次いで、ステップS115では、ステップS114で作成されたマスク画像を、ステップS103(図7)で得られた撮影画像に適用することにより、背景除去画像を作成する。その後、CPU101はステップS116へ移行して、ステップS115で得られた背景除去画像を出力し、ステップS105(図7)へ戻る。
【0085】
ここで、図9のフローチャートを参照して、図8のステップS112に示す2値画像▲1▼作成処理について、詳細に説明する。
図9のステップS121において、CPU101は、ステップS111(図8)で変換された色値(L,a,b)のうち、色みを示す成分(a,b)を取得する。
【0086】
続いて、CPU101はステップS122へ移行し、撮影画像における背景の色みについて、色空間値を取得する。ここで取得した背景の色空間値を(a0,b0)とする。
なお、ステップS122では、背景の色空間値を取得するため、撮影画像の周縁部や撮影画像の端と中央との中間部分など、およそ一般的に背景が写っている箇所の色空間値を取得するようにしても良いし、或いは、キーボード13やマウス14におけるユーザの操作によって指定された領域における平均値を取得するようにしても良い。
【0087】
そして、ステップS123において、CPU101は、ステップS122で取得した背景の色空間値(a0,b0)を用いて、撮影画像の各画素と背景との色み成分についての差分パラメータ量を算出する。
この差分パラメータ量は、下記式(12)のように求められる。
【数3】
差分パラメータ量=sqrt(|a-a0|^2+|b-b0|^2) ・・(12)
【0088】
このように、ステップS123では、撮影画像中の各画素について、背景との差分パラメータが求められる。求められた差分パラメータ量は、色み空間(ab空間)における距離として考えることができる。
【0089】
次いで、ステップS124では、ステップS123で求められた差分パラメータ量をもとに、撮影画像における背景領域を判定する。一般に、背景と被写体とが写った撮影画像においては、差分パラメータ量には、背景に関するものと被写体に関するものとによる双峰性が現れると考えられる。従って、各画素について差分パラメータ量を求めることにより、背景領域と被写体領域との閾値を求めることができる。
【0090】
そして、CPU101は、ステップS125において、ステップS124で判定された背景領域を黒、その他の領域を白として表現した2値画像を作成する。これにより、色み成分をもとに背景と被写体とを分けた2値画像▲1▼を得ることができる。
【0091】
次に、図10のフローチャートを参照して、図8のステップS113に示す2値画像▲2▼作成処理について、詳細に説明する。
図10のステップS131において、CPU101は、ステップS111(図8)で変換された色値(L,a,b)のうち明度を示す成分(L)をもとにして、明度値を取得する。明度を示す色値(L)は、照明むら等の影響を受けて、背景を一様に識別しにくくなる可能性があるので、ここではLの微分値を使用する。具体的には、一般的なエッジ検出処理で使用する差分フィルタ等を用いれば実現可能である。
【0092】
続いて、CPU101はステップS132へ移行し、撮影画像における背景の明度について、色空間値を取得する。ここで取得した背景の色空間値を(L0)とする。なお、背景の色空間値(L0)として、撮影画像中の平均値を用いても良いし、或いは、定数0(零)としても良い。
【0093】
ステップS133において、CPU101は、ステップS132で取得した背景の色空間値(L0)を用いて、背景と撮影画像の各画素との色み成分についての差分パラメータ量を算出する。
この差分パラメータ量は、下記式(13)のように求められる。
【数4】
差分パラメータ量=L-L0 ・・(13)
【0094】
このように、ステップS133では、撮影画像中の各画素について、背景との差分パラメータが求められる。求められた差分パラメータ量は、色み空間(ab空間)における距離として考えることができる。
【0095】
次いで、ステップS134では、ステップS133で求められた差分パラメータ量をもとに、撮影画像における背景領域を判定する。一般に、明度に関する差分パラメータ量には双峰性は現れにくいため、閾値を求めるために公知の判別分析法等を利用しても良い。
【0096】
そして、CPU101は、ステップS135において、ステップS134で判定された背景領域を黒、その他の領域を白として表現した2値画像を作成する。これにより、明度成分をもとに背景と被写体との境界、すなわち被写体の輪郭を示す2値画像▲2▼を得ることができる。
【0097】
このように、図8に示す背景除去処理においては、図9及び図10に示す処理によって2値画像▲1▼と2値画像▲2▼とを得ることにより、これらの2値画像をもとに撮影画像から背景を除去することができる。
ここで、図8に示す背景除去処理が施された画像の例を、図11及び図12に示す。
【0098】
図11は、ペットボトルなどの透明部分を有する被写体について、図8の背景除去処理を適用した例を示す図である。図11において、(a)は被写体を示し、(b)は撮影画像を示す。(c)は、図9に示す処理で作成される2値画像▲1▼を示し、(d)は図10に示す処理で作成される2値画像▲2▼を示す。また、(e)は、2値画像▲1▼と2値画像▲2▼との論理和により得られる画像を示し、(f)は、同図(e)に示す画像から作成されるマスク画像を示し、(g)は、同図(f)に示すマスク画像をもとに背景を除去して得られる画像を示す。なお、図11(a)〜(f)に示す各画像においては、説明の便宜のため、画像中の色を模様として模式化して表現する。
【0099】
図11(a)に示す被写体は、透明なボトル形状の物体である。このため、その撮影画像は、図11(b)に示すように、被写体の一部が背景と似た色となってしまう。
【0100】
図11(b)の撮影画像について、図9に示す処理を適用して2値画像▲1▼を作成すると、図11(c)のようになる。図11(c)の2値画像▲1▼において白で表現される被写体領域は、実際の被写体領域に良く対応しているが、完全なものではない。
【0101】
一方、図11(b)の撮影画像について、図10に示す処理を適用して2値画像▲2▼を作成すると、図11(d)のようになる。2値画像▲2▼は、被写体領域と背景領域との境界、すなわち被写体の輪郭を示すものである。図11(d)の2値画像▲2▼において白で表現される被写体の輪郭は、実際の被写体の輪郭と対応しているものの、一部が途切れてしまっている。
【0102】
そこで、図11(c)及び(d)に示す2値画像の論理和(OR)を求めると、図11(e)に示す2値画像が得られる。そして、図11(e)に示す画像から、内部のノイズ等を除去することにより、図11(f)に示すマスク画像が得られる。図11(f)に示すマスク画像は、実際の被写体領域と非常に良く対応している。
そこで、図11(f)に示すマスク画像を用いて撮影画像を型抜きするように背景を除去すれば、図11(g)に示すように、撮影画像から背景を除去した、被写体の画像が抽出される。
【0103】
図12は、缶などの鏡面部分を有する被写体について、図8の背景除去処理を適用した例を示す図である。図12において、(a)は被写体を示し、(b)は撮影画像を示す。(c)は、図9に示す処理で作成される2値画像▲1▼を示し、(d)は図10に示す処理で作成される2値画像▲2▼を示す。また、(e)は、2値画像▲1▼と2値画像▲2▼との論理和により得られる画像を示し、(f)は、同図(e)に示す画像から作成されるマスク画像を示し、(g)は、同図(f)に示すマスク画像をもとに背景を除去して得られる画像を示す。なお、図12(a)〜(f)に示す各画像においては、説明の便宜のため、画像中の色を模様として模式化して表現する。
【0104】
図12(a)に示す被写体は、銀色や金色等の金属面や、鏡面加工された面、非常になめらかな面のように、光を良く反射する表面を有する円柱形状の物体である。このため、その撮影画像では、図12(b)に示すように、被写体の表面にケース401の内面や光が映り込み、よく似た色が複雑に分布する画像となってしまう。
【0105】
図12(b)の撮影画像について、図9に示す処理を適用して2値画像▲1▼を作成すると、図12(c)のようになる。図12(c)の2値画像▲1▼において白で表現される被写体領域は、実際の被写体領域に一部対応しているものの、完全なものではない。
【0106】
一方、図12(b)の撮影画像について、図10に示す処理を適用して2値画像▲2▼を作成すると、図12(d)のようになる。2値画像▲2▼は、被写体領域と背景領域との境界、すなわち被写体の輪郭を示すものである。図12(d)の2値画像▲2▼において白で表現される被写体の輪郭は、実際の被写体の輪郭と良く対応している。
【0107】
そこで、図12(c)及び(d)に示す2値画像の論理和(OR)を求めると、図12(e)に示す2値画像が得られる。そして、図12(e)に示す画像から、内部のノイズ等を除去することにより、図12(f)に示すマスク画像が得られる。図12(f)に示すマスク画像は、実際の被写体領域と非常に良く対応している。
そこで、図12(f)に示すマスク画像を用いて撮影画像を型抜きするように背景を除去すれば、図12(g)に示すように、撮影画像から背景を除去した、被写体の画像が抽出される。
【0108】
ここで、撮影画像における色空間値、明度及び色みの特性について、図13を参照して説明する。図13は色空間値のヒストグラムの一例を示す図表であり、(a)は全色空間値のヒストグラムを示し、(b)は明度に関するヒストグラムを示し、(c)は色みに関するヒストグラムを示す。図中の縦軸は画素数を示す。また、図13中、撮影画像全体のヒストグラムを実線A、被写体のヒストグラムを破線B、背景のヒストグラムを一点鎖線Cで示す。
【0109】
図13(a)に示すように、全色空間値のヒストグラムにおいて、背景と被写体とを明確に区別するのは困難である。また、図13(b)に示す明度のヒストグラムにおいても、明度は双峰性を示さないことが多いため、背景と被写体とを区別するのは難しい。従って、明度に関してはL値の微分及び判別分析法等を用いて、被写体の輪郭を検出する手法が有効である。
【0110】
一方、図13(c)に示すように、色みに関するヒストグラムには双峰性が現れており、容易に閾値Dを設定することができる。従って、色みについては閾値を設定し、この閾値で各画素を背景と被写体とに区分することが有効である。
【0111】
このように、本第1の実施の形態によれば、撮影画像の色値のうち色み成分をもとに2値画像を作成し、さらに、撮影画像の色値のうち明度成分をもとに2値画像を作成し、作成された2つの2値画像を用いて被写体を抽出するので、被写体と背景とを効率よく正確に区分できる。このため、透明な部分を有する被写体についても良好に被写体の画像のみを抽出することができる一方、被写体に背景と似た色が含まれる場合や、周囲の像や光が反射して映り込む被写体についても、良好に被写体の画像のみを抽出することができる。
【0112】
例えば、色みだけを基準として被写体の画像を抽出しようとした場合、似た色の識別を正確に行うことが困難なため、背景と似た色を含む被写体や、周囲の像や光が反射して映り込む被写体については、正確に画像を抽出できない。また、明度のみを基準として被写体の輪郭を検出しようとした場合、輪郭が途切れてしまった箇所を補正するためには複雑なデータ処理を要し、効率よい処理が困難となる。しかしながら、本発明によれば、色み成分をもとに被写体と背景とを区分する2値画像▲1▼を作成し、さらに、明度成分をもとに被写体の輪郭を示す2値画像▲2▼を作成し、これらの2値画像を組み合わせている。このため、単に複数の方法を組み合わせただけでなく、色値の特性、特に色空間値の特性を生かした非常に効率の良い処理を行って、迅速かつ正確な被写体画像の抽出を可能としているものであり、格別の効果を奏するものである。
【0113】
また、図8に示す背景除去処理で作成される2値画像▲1▼と2値画像▲2▼は、それぞれ2値の画像データであり、そのデータ量は非常に少なくて済む。このため、処理に係る時間やハードウェア資源を節約することができ、かつ、迅速で正確な画像処理を行うことができる。
【0114】
なお、上記第1の実施の形態においては、マスク画像を作成する処理において、色みに基づく2値画像▲1▼と明度に基づく2値画像▲2▼との論理和を用いる構成としたが、本発明はこれに限定されるものではなく、例えば、2値画像▲1▼と2値画像▲2▼とに重み付けを行って論理和を求めることにより、色み若しくは明度のいずれかを重視したマスク画像を作成するようにしても良い。また、2値画像▲1▼と2値画像▲2▼とのANDを求めるようにしても良いし、そのほか、統計的手法を用いて2値画像▲1▼と2値画像▲2▼とを組み合わせて解析するようにしても良い。
【0115】
また、撮影画像データのRGB値をLab空間値に変換してから、2値画像を作成する構成としたが、Lab空間のほか、明度、色相、彩度等の情報や、YCC色空間、輝度と色相とに基づくLuv空間などを利用しても良い。
【0116】
さらに、2値画像▲1▼としては、背景領域を黒、被写体領域を白として表現した画像を示し、2値画像▲2▼としては被写体の輪郭を白として表現した画像を用いたが、その逆の配色としても良いし、当然のことながら2値とは黒と白のみを指すものではないので、他の二色を用いても良く、データの表現方法は任意である。
【0117】
[第2の実施の形態]
図14〜図16を用いて第2の実施の形態を説明する。
なお、本第2の実施の形態における撮影システム1は、上記第1の実施の形態における撮影システム1と同様の構成によってなるものであり、その構成については図示及び説明を省略する。
【0118】
図14は、本第2の実施の形態における撮影システム1によって実行される背景除去処理を示すフローチャートである。
図14に示す背景画像除去処理において、CPU101は、ステップS201で、上記第1の実施の形態におけるステップS111〜115(図8)と同様の処理を実行する。
【0119】
そして、CPU101はステップS202に移行して、得られた背景除去画像から、被写体における透明な領域を判定する。
透明な領域の判定は、色みと明度を基準として行う。被写体における透明な領域は、背景と似た色でありながら、背景とは明度が異なっているという特徴を有する。従って、被写体領域において、背景領域と色みが近く、かつ、明度が異なる箇所は、透明な領域として判定できる。
【0120】
具体的には、まず、撮影画像中の各画素に対して、背景画像とのLab値の差(Lab空間における距離)と、ab値の差(ab空間における距離)を求める。この処理で、Lab値の差が小さく、かつ、ab値の差が大きい画素は、被写体における透明領域であると判定できる。
【0121】
ステップS203で、CPU101は、背景領域の指定色を取得する。この指定色とは無彩色であり、Lab=(L0,0,0)と定義される。なお、本第2の実施の形態において、指定色は明度の基準となる色であるから、色みに関する情報は必要とされない。このため、ステップS203で取得される指定色は無彩色で良い。
【0122】
さらに、CPU101は、ステップS204で背景除去画像を作成し、ステップS205に移行して、ステップS202で判定した透明領域の色を補正する。この色補正では、透明領域の明度を、背景領域の指定色に合わせる。例えば、透明領域中のある画素Lab値が(L1,a1,b1)であった場合は、そのLab値を(L0,a1,b1)と補正する。
【0123】
この処理によって、透明な部分を有する被写体の画像を抽出した場合に、透明な部分の色は、撮影時の背景の色に左右されず、ステップS203で取得された指定色に応じた色となる。このため、背景画像を除去した被写体画像は、違和感無く様々な用途に利用できる。
【0124】
図15及び図16は、透明な部分を有する被写体画像についての補正の様子を説明するための図である。図15は、図14に示す背景除去処理における明度の補正を行わなかった場合の例を示し、(a)は撮影画像を示し、(b)は(a)に示す撮影画像から抽出された被写体画像を別の背景と合成した例を示し、(c)は、(a)に示す撮影画像から抽出された被写体画像を、さらに別の背景と合成した例を示し、(d)は、(a)に示す撮影画像から抽出された被写体画像を、さらに別の背景と合成した例を示す。
【0125】
また、図16は、図14に示す背景除去処理における明度の補正を行った場合の例を示し、(a)は撮影画像を示し、(b)は(a)に示す撮影画像から抽出された被写体画像を別の背景と合成した例を示し、(c)は、(a)に示す撮影画像から抽出された被写体画像を、さらに別の背景と合成した例を示し、(d)は、(a)に示す撮影画像から抽出された被写体画像を、さらに別の背景と合成した例を示す。
【0126】
なお、図15(a)〜(d)及び図16(a)〜(d)の各図においては、説明の便宜のため、色を模様で模式化して図示している。
【0127】
図15(a)〜(d)及び図16(a)〜(d)の各図に例示する被写体は、透明なボトル形状の物体であり、最上部のキャップを除く部分は透明である。
従って、図15(a)及び図16(a)に示すように、撮影画像では、上部を除く部分は背景と同じ色となってしまう。
【0128】
まず、図14に示す背景除去処理において、ステップS205の補正を行わなかった場合について説明する。
図15(a)に示す撮影画像から被写体の画像を抽出し、背景色をRGB=(0,0,0 )とした場合の例を、図15(b)に示す。背景色は黒に近い色であるが、被写体の透明部分は、図15(a)の撮影画像における背景に近い色のままである。また、図15(c)に示すように、抽出した被写体画像を、RGB=(50,50,50)の背景と組み合わせた場合も、被写体の透明部分は、図15(a)の撮影画像における背景に近い色のままである。同様に、図15(d)に示すように、抽出した被写体画像を、RGB=(255,255,255 )の背景と組み合わせた場合も、被写体の透明部分は、図15(a)の撮影画像における背景に近い色のままである。
【0129】
このため、図15(a)に示す撮影画像から抽出した被写体画像は、撮影画像の背景色の影響を排除することができず、他の画像と組み合わせた場合に、透明なはずの箇所で色の違いが顕著になり、違和感を生じてしまう。
【0130】
一方、図14のステップS205における補正を行った場合の例を図16に示す。図16(a)に示す撮影画像から抽出された被写体の画像を、RGB=(0,0,0 )の背景と組み合わせた場合に、明度の補正を実行すれば、図16(b)に示すように、被写体の透明部分は背景色に近い明度となり、全体として自然な画像となる。また、被写体画像をRGB=(50,50,50)の背景と組み合わせる場合も、明度の補正を行えば、図16(c)に示すように、被写体の透明部分は背景色に近い明度となって全体として自然な画像となる。さらに、RGB=(255,255,255 )の背景と組み合わせた場合も、明度の補正を行えば、図16(d)に示すように、被写体の透明部分は背景色に近い明度となって全体として自然な画像となる。
【0131】
このように、撮影画像から背景を除去して被写体画像を抽出し、さらに被写体画像における透明な部分について明度の補正を行うことにより、被写体画像を他の画像や背景と組み合わせた場合に、より自然な仕上がりを実現できる。
【0132】
従って、本発明によれば、背景を除去して得られた画像を有効に利用することができる。例えば、明るさの異なる背景を用いて撮影された複数の撮影画像から、それぞれ被写体画像を抽出すると、被写体における透明部分は異なる明るさになってしまう。本発明によれば、これら複数の被写体画像について、透明部分の明度を統一することも容易であり、抽出した被写体画像を様々な用途に利用する際の利便性を向上させることができる。
【0133】
なお、本第2の実施の形態では、被写体の透明部分の色を指定色に合わせる構成としたが、この指定色は、予め指定された色であっても良いし、その都度、キーボード13若しくはマウス14の操作によってユーザが指定するものであってもよい。また、被写体における透明領域の判定では、Lab値の差とab値の差を利用したが、本発明はこれに限定されるものではなく、L値の差とab値の差を利用しても、同様の効果を得ることができる。さらに、上記第1の実施の形態と同様に、撮影システム1において採用される色空間はLab空間に限られず、Luv空間やYCC色空間を利用しても良い。
【0134】
[第3の実施の形態]
続いて、本発明に係る第3の実施の形態について、図17から図20のフローチャートを用いて説明する。なお、本第3の実施の形態における撮影システム1は、上記第1の実施の形態における撮影システム1と同様の構成によってなるものであるから、その構成についての図示および説明は省略する。
【0135】
図17は、デジタルカメラ20により被写体5を撮影し、撮影画像から背景画像を除去する処理に係るCPU101の動作を示すゼネラルフローである。
【0136】
図17に示す処理のステップS301においては、デジタルカメラ20によって被写体5を撮影する際の撮影条件が指定される。このステップS301における撮影条件の指定は、例えば、CPU101は記憶装置106内の撮影条件テーブルファイル106aに記憶されている撮影条件を自動的に読み出すようにしても良いし、或いは、撮影条件テーブル106aに設定された条件の中から、キーボード13やマウス14における入力操作によって指定された条件を読み出すようにしても良い。なお、撮影条件とは、デジタルカメラ20及び撮影装置40の各部の位置等の各種撮影条件である。
【0137】
続くステップS302で、CPU101は、ステップS301で指定された撮影条件に従って、カメラ台座駆動制御装置304、被写体台座駆動制御部305及びフード駆動制御部306に対して指示信号を出力し、ポテンショメータ410、411、412から出力される検出値を元にして、モータ407、408、409の制御を実行させ、フード402及びチルト台403の取り付け角度や、被写体台座405の天板の高さを撮影条件に適合するように移動させる。また、CPU11は、照明制御部部307に指示信号を出力して、ケース401の内部に設けられた照明装置423a〜423dの照度及び点灯状態を制御させ、撮影条件に適合する照明を実行させる。さらにCPU101は、デジタルカメラ20において、カメラ制御部202に指示信号を出力してポテンショメータ210、211、212から出力される検出値をもとに、モータ204、205、206を動作させることにより、ズーム調整部207、フォーカス調整部208、絞り調節部209の制御を実行させ、デジタルカメラ20の撮影時の撮影倍率、焦点、露光量、光源点灯位置を読み込んだ撮影条件に適合させる。
【0138】
そして、CPU101は、撮影システム1の各部の機器が撮影条件に適合するよう移動した後、ステップS303で、カメラ制御部202に対して撮影指示信号を出力し、撮影を実行させる。ここで得られた撮影画像を示す画像データは、CPU101から入力される信号により指定された解像度データとして生成し、カメラ制御部202により画像メモリ203内に格納される。撮影システム1はデジタルカメラ20によって、1280×960ピクセル、640×480ピクセル、320×240ピクセル等の解像度での撮影が可能である。
【0139】
ここで、CPU101は、ステップS304において、画像メモリ203内に一時的に格納された背景画像の画像データについて、後述する背景除去処理(図18)を実行する。
そして、CPU101は、ステップS30において、背景除去処理が行われた画像を保存するか否かを判別し、入力部102からの指示入力によって画像の保存が指示された場合には、ステップS306へ移行する。また、画像を保存しない旨の指示があった場合は、ステップS301へ戻る。
【0140】
ステップS306で、CPU101は、ステップS304における背景除去処理で得られた画像のデータにファイル名を付して、背景除去画像ファイル106cに当該ファイル名を格納する。その後、CPU101はステップS307に移行して、画像メモリ203内に一時的に格納された画像データをクリアし、ステップS308へ移行する。
【0141】
ステップS308で、CPU101は、被写体5の撮影及び背景除去に係る処理が完了したか否かを判別し、さらに被写体5の撮影と背景除去処理を実行する場合はステップS301に戻り、そうでない場合は処理を終了する。
【0142】
図18は、図17のステップS304に示す背景除去処理をより詳細に示すフローチャートである。
図18に示す背景除去処理において、CPU101は、まず、撮影画像データの色値の変換を実行する(ステップS311)。
デジタルカメラ20により被写体5を撮影して得られた画像のデータは、RGB色空間における色値として表現されているので、ステップS311における処理では、RGB色空間から均等色空間であるLab色空間への変換を実行する。以下、例として、CIE1976Lab色空間への変換処理について、説明する。
【0143】
まず最初に、RGB値=(R,G,B)からXYZ値(XYZ表色系)=(X,Y,Z)への変換を行う。
【0144】
次いで、下記式(14)〜(22)で示されるように、XYZ値からLab値=(L,a,b)への変換を実行する。
【数5】
Figure 0003962825
【0145】
このように、ステップS311でLab値への変換が実行された後、CPU101は、Lab値を明度成分(L)と色み成分(ab)とに分けて、それぞれについて、白(1)と黒(0)のみによってなる2値画像を作成する。ここで、色み成分に関して作成される2値画像を2値画像▲1▼とし、明度成分に関して作成される2値画像を2値画像▲2▼とする。
【0146】
CPU101は、ステップS312で、後述する2値画像▲1▼作成処理(図19)を実行し、さらにステップS313で、後述する2値画像▲2▼作成処理(図20)を実行して、2種類の2値画像を作成する。
そして、ステップS314に移行して、2値画像▲1▼と2値画像▲2▼とをもとにマスク画像を作成する。このステップS314においては、例えば、被写体領域の値を白(1)とすると、2値画像▲1▼と2値画像▲2▼との論理和(OR)を求めることにより、2値画像▲1▼の被写体領域と2値画像▲2▼の被写体領域との和を求め、マスク画像を作成する。
【0147】
次いで、ステップS315では、ステップS314で作成されたマスク画像を、ステップS303(図17)で得られた撮影画像に適用することにより、背景除去画像を作成する。その後、CPU101はステップS316へ移行して、ステップS315で得られた背景除去画像を出力し、ステップS305(図17)へ戻る。
【0148】
ここで、図19のフローチャートを参照して、図18のステップS312に示す2値画像▲1▼作成処理について、詳細に説明する。
図19のステップS321において、CPU101は、ステップS311(図18)で変換された色値(L,a,b)のうち、色みを示す成分(a,b)を取得する。
【0149】
続いて、CPU101はステップS322へ移行し、撮影画像における背景の色みについて、色空間値を取得する。ここで取得した背景の色空間値を(a0,b0)とする。
なお、ステップS322では、背景の色空間値を取得するため、撮影画像の周縁部や撮影画像の端と中央との中間部分など、およそ一般的に背景が写っている箇所の色空間値を取得するようにしても良いし、或いは、キーボード13やマウス14におけるユーザの操作によって指定された領域における平均値を取得するようにしても良い。
【0150】
そして、ステップS323において、CPU101は、ステップS322で取得した背景の色空間値(a0,b0)を用いて、撮影画像の各画素と背景との色み成分についての差分パラメータ量を算出する。
この差分パラメータ量は、下記式(23)のように求められる。
【数6】
Figure 0003962825
【0151】
このように、ステップS323では、撮影画像中の各画素について、背景との差分パラメータが求められる。求められた差分パラメータ量は、色み空間(ab空間)における距離として考えることができる。
【0152】
次いで、ステップS324では、ステップS323で求められた差分パラメータ量をもとに、撮影画像における背景領域を判定する。一般に、背景と被写体とが写った撮影画像においては、差分パラメータ量には、背景に関するものと被写体に関するものとによる双峰性が現れると考えられる。従って、各画素について差分パラメータ量を求めることにより、背景領域と被写体領域との閾値を求めることができる。
【0153】
そして、CPU101は、ステップS325において、ステップS324で判定された背景領域を黒(0)、その他の領域を白(1)として表現した2値画像を作成する。これにより、色み成分をもとに背景と被写体とを分けた2値画像▲1▼を得ることができる。
【0154】
次に、図20のフローチャートを参照して、図18のステップS313に示す2値画像▲2▼作成処理について、詳細に説明する。
図20のステップS331において、CPU101は、ステップS311(図18)で変換された色値(L,a,b)のうち明度を示す成分(L)をもとにして、明度値を取得する。明度を示す色値(L)は、照明むら等の影響を受けて、背景を一様に識別しにくくなる可能性があるので、ここでは明度値としてLの微分値(dL)を使用する。Lの微分値は、Lの変化の大きさを示す量であり、Lの変化が大きいところは、被写体の輪郭として考えることができる。具体的には、一般的なエッジ検出処理で使用する差分フィルタ等を用いれば実現可能である。
【0155】
続いて、CPU101はステップS332へ移行し、撮影画像における背景の明度について、明度値を取得する。ここで取得した背景の明度値を(dL0)とする。なお、背景の明度値(dL0)として、撮影画像中の平均値を用いても良いし、或いは、背景のLの変化は小さいと考えることができるから、定数0(零)としても良い。
【0156】
ステップS333において、CPU101は、ステップS332で取得した背景の明度値(dL0)を用いて、背景と撮影画像の各画素との明度を示す成分についての差分パラメータ量を算出する。
この差分パラメータ量は、下記式(24)のように求められる。
【数7】
Figure 0003962825
【0157】
このように、ステップS333では、撮影画像中の各画素について、背景との差分パラメータが求められる。求められた差分パラメータ量は、明度を示す成分によるエッジの強さとして考えることができる。
【0158】
次いで、ステップS334では、ステップS333で求められた差分パラメータ量をもとに、撮影画像における背景領域を判定する。一般に、明度値に関する差分パラメータ量には双峰性は現れにくいため、閾値を求めるために公知の判別分析法等を利用しても良い。
【0159】
そして、CPU101は、ステップS335において、ステップS334で判定された背景領域を黒(0)、その他の領域を白(1)として表現した2値画像を作成する。これにより、明度成分をもとに背景と被写体との境界、すなわち被写体の輪郭を示す2値画像▲2▼を得ることができる。
【0160】
このように、図18に示す背景除去処理においては、図19及び図20に示す処理によって2値画像▲1▼と2値画像▲2▼とを得ることにより、これらの2値画像をもとに撮影画像から背景を除去することができる。
ここで、図18に示す背景除去処理が施された画像の例を、図21及び図22に示す。
【0161】
図21は、ペットボトルなどの透明部分を有する被写体について、図18の背景除去処理を適用した例を示す図である。図21において、(a)は被写体を示し、(b)は撮影画像を示す。(c)は、図19に示す処理で作成される2値画像▲1▼を示し、(d)は図20に示す処理で作成される2値画像▲2▼を示す。また、(e)は、2値画像▲1▼と2値画像▲2▼との論理和により得られる画像を示し、(f)は、同図(e)に示す画像から作成されるマスク画像を示し、(g)は、同図(f)に示すマスク画像をもとに背景を除去して得られる画像を示す。なお、図21(a)〜(f)に示す各画像においては、説明の便宜のため、画像中の色を模様として模式化して表現する。
【0162】
図21(a)に示す被写体は、透明なボトル形状の物体である。このため、その撮影画像は、図21(b)に示すように、被写体の一部が背景と似た色となってしまう。
【0163】
図21(b)の撮影画像について、図19に示す処理を適用して2値画像▲1▼を作成すると、図21(c)のようになる。図21(c)の2値画像▲1▼において白(1)で表現される被写体領域は、実際の被写体領域に良く対応しているが、完全なものではない。
【0164】
一方、図21(b)の撮影画像について、図20に示す処理を適用して2値画像▲2▼を作成すると、図21(d)のようになる。2値画像▲2▼は、被写体領域と背景領域との境界、すなわち被写体の輪郭を示すものである。図21(d)の2値画像▲2▼において白(1)で表現される被写体の輪郭は、実際の被写体の輪郭と対応しているものの、一部が途切れてしまっている。
【0165】
そこで、図21(c)及び(d)に示す2値画像の論理和(OR)を求めると、図21(e)に示す2値画像が得られる。そして、図21(e)に示す画像から、内部のノイズ等を除去することにより、図21(f)に示すマスク画像が得られる。図21(f)に示すマスク画像は、実際の被写体領域と非常に良く対応している。
そこで、図21(f)に示すマスク画像を用いて撮影画像を型抜きするように背景を除去すれば、図21(g)に示すように、撮影画像から背景を除去した、被写体の画像が抽出される。
【0166】
図22は、缶などの鏡面部分を有する被写体について、図18の背景除去処理を適用した例を示す図である。図22において、(a)は被写体を示し、(b)は撮影画像を示す。(c)は、図19に示す処理で作成される2値画像▲1▼を示し、(d)は図20に示す処理で作成される2値画像▲2▼を示す。また、(e)は、2値画像▲1▼と2値画像▲2▼との論理和により得られる画像を示し、(f)は、同図(e)に示す画像から作成されるマスク画像を示し、(g)は、同図(f)に示すマスク画像をもとに背景を除去して得られる画像を示す。なお、図22(a)〜(f)に示す各画像においては、説明の便宜のため、画像中の色を模様として模式化して表現する。
【0167】
図22(a)に示す被写体は、銀色や金色等の金属面や、鏡面加工された面、非常になめらかな面のように、光を良く反射する表面を有する円柱形状の物体である。このため、その撮影画像では、図22(b)に示すように、被写体の表面にケース401の内面や光が映り込み、よく似た色が複雑に分布する画像となってしまう。
【0168】
図22(b)の撮影画像について、図19に示す処理を適用して2値画像▲1▼を作成すると、図22(c)のようになる。図22(c)の2値画像▲1▼において白(1)で表現される被写体領域は、実際の被写体領域に一部対応しているものの、完全なものではない。
【0169】
一方、図22(b)の撮影画像について、図20に示す処理を適用して2値画像▲2▼を作成すると、図22(d)のようになる。2値画像▲2▼は、被写体領域と背景領域との境界、すなわち被写体の輪郭を示すものである。図22(d)の2値画像▲2▼において白(1)で表現される被写体の輪郭は、実際の被写体の輪郭と良く対応している。
【0170】
そこで、図22(c)及び(d)に示す2値画像の論理和(OR)を求めると、図22(e)に示す2値画像が得られる。そして、図22(e)に示す画像から、内部のノイズ等を除去したり、被写体の輪郭で囲まれた領域を塗りつぶすことにより、図22(f)に示すマスク画像が得られる。図22(f)に示すマスク画像は、実際の被写体領域と非常に良く対応している。
そこで、図22(f)に示すマスク画像を用いて撮影画像を型抜きするように背景を除去すれば、図22(g)に示すように、撮影画像から背景を除去した、被写体の画像が抽出される。
【0171】
ここで、撮影画像における色空間値、明度及び色みの特性について、図23を参照して説明する。図23は色空間値のヒストグラムの一例(図21の被写体)を示す図表であり、(a)は全色空間値のヒストグラムを示し、(b)は明度に関するヒストグラムを示し、(c)は色みに関するヒストグラムを示す。図中の縦軸は画素数を示す。また、図23中、撮影画像全体のヒストグラムを実線A、被写体のヒストグラムを破線Bで示す。
【0172】
図23(a)に示すように、全色空間値のヒストグラムにおいて、適当な閾値により、背景と被写体とを明確に区別するのは困難である。また、図23(b)に示す明度のヒストグラムにおいても、背景と被写体とを区別するのは難しい。従って、明度に関してはL値の微分に対して判別分析法等を用いて、被写体の輪郭を検出する手法が有効である。
【0173】
一方、図23(c)に示すように、色みに関するヒストグラムには背景と被写体の2つの山による双峰性が現れており、容易に閾値Dを設定することができる。従って、色みについては閾値を設定し、この閾値で各画素を背景と被写体とに区分することが有効である。
【0174】
このように、本第3の実施の形態によれば、撮影画像の色値のうち色み成分をもとに2値画像を作成し、さらに、撮影画像の色値のうち明度成分をもとに2値画像を作成し、作成された2つの2値画像を用いて被写体を抽出するので、被写体と背景とを効率よく正確に区分できる。このため、透明な部分を有する被写体についても良好に被写体の画像のみを抽出することができる一方、被写体に背景と似た色が含まれる場合や、周囲の像や光が反射して映り込む被写体についても、良好に被写体の画像のみを抽出することができる。
【0175】
例えば、色みだけを基準として被写体の画像を抽出しようとした場合、似た色の識別を正確に行うことが困難なため、背景と似た色を含む被写体や、周囲の像や光が反射して映り込む被写体については、正確に画像を抽出できない。また、明度のみを基準として被写体の輪郭を検出しようとした場合、輪郭が途切れてしまった箇所を補正するためには複雑なデータ処理を要し、効率よい処理が困難となる。しかしながら、本発明によれば、色み成分をもとに被写体と背景とを区分する2値画像▲1▼を作成し、さらに、明度成分をもとに被写体の輪郭を示す2値画像▲2▼を作成し、これらの2値画像を組み合わせている。このため、単に複数の方法を組み合わせただけでなく、色値の特性、特に色空間値の特性を生かした非常に効率の良い処理を行って、迅速かつ正確な被写体画像の抽出を可能としているものであり、格別の効果を奏するものである。
【0176】
また、図18に示す背景除去処理で作成される2値画像▲1▼と2値画像▲2▼は、それぞれ2値の画像データであり、そのデータ量は非常に少なくて済む。このため、処理に係る時間やハードウェア資源を節約することができ、かつ、迅速で正確な画像処理を行うことができる。
【0177】
なお、上記第3の実施の形態においては、マスク画像を作成する処理において、色みに基づく2値画像▲1▼と明度に基づく2値画像▲2▼との論理和を用いる構成としたが、本発明はこれに限定されるものではなく、例えば、2値画像▲1▼と2値画像▲2▼とに重み付けを行って論理和を求めることにより、色み若しくは明度のいずれかを重視したマスク画像を作成するようにしても良い。また、2値画像▲1▼と2値画像▲2▼とのANDを求めるようにしても良いし、そのほか、統計的手法を用いて2値画像▲1▼と2値画像▲2▼とを組み合わせて解析するようにしても良い。
【0178】
また、撮影画像データのRGB値をLab空間値に変換してから、2値画像を作成する構成としたが、Lab空間のほか、明度、色相、彩度等の情報や、輝度と色相とに基づくYCC色空間、Luv空間などを利用しても良い。
【0179】
さらに、2値画像▲1▼としては、背景領域を黒(0)、被写体領域を白(1)として表現した画像を示し、2値画像▲2▼としては被写体の輪郭を白(1)として表現した画像を用いたが、その逆の値又は配色としても良いし、当然のことながら2値とは黒と白のみを指すものではないので、他の二色を用いても良く、データの表現方法は任意である。
【0180】
[第4の実施の形態]
図24〜図26を用いて、第4の実施の形態を説明する。
なお、本第4の実施の形態における撮影システム1は、上記第1の実施の形態における撮影システム1と同様の構成によってなるものであり、その構成については図示及び説明を省略する。
【0181】
図24は、本第4の実施の形態における撮影システム1によって実行される背景除去処理を示すフローチャートである。
図24に示す背景画像除去処理において、CPU101は、ステップS401で、上記第3の実施の形態におけるステップS311〜315(図18)と同様の処理を実行する。
【0182】
そして、CPU101はステップS402に移行して、得られた背景除去画像から、被写体における透明な領域を判定する。
透明な領域の判定は、色みと明度を基準として行う。被写体における透明な領域は、背景と似た色でありながら、背景とは明度が異なっているという特徴を有する。従って、被写体領域において、背景領域と色みが近く、かつ、明度が異なる箇所は、透明な領域として判定できる。
【0183】
具体的には、まず、撮影画像中の各画素に対して、背景画像とのLab値の差(Lab空間における距離)と、ab値の差(ab空間における距離)を求める。この処理で、Lab値の差が小さく、かつ、ab値の差が大きい画素は、被写体における透明領域であると判定できる。
【0184】
ステップS403で、CPU101は、背景領域の指定色を取得する。この指定色とは無彩色であり、Lab=(L0,0,0)と定義される。なお、本第4の実施の形態において、指定色は明度の基準となる色であるから、色みに関する情報は必要とされない。このため、ステップS403で取得される指定色は無彩色で良い。
【0185】
さらに、CPU101は、ステップS404で背景除去画像を作成し、ステップS405に移行して、ステップS402で判定した透明領域の色を補正する。
この色補正では、透明領域の明度を、背景領域の指定色に合わせる。例えば、透明領域中のある画素Lab値が(L1,a1,b1)であった場合は、そのLab値を(L0,a1,b1)と補正する。
【0186】
この処理によって、透明な部分を有する被写体の画像を抽出した場合に、透明な部分の色は、撮影時の背景の色に左右されず、ステップS403で取得された指定色に応じた色となる。このため、背景画像を除去した被写体画像は、違和感無く様々な用途に利用できる。
【0187】
図25及び図26は、透明な部分を有する被写体画像についての補正の様子を説明するための図である。図25は、図24に示す背景除去処理における明度の補正を行わなかった場合の例を示し、(a)は撮影画像を示し、(b)は(a)に示す撮影画像から抽出された被写体画像を別の背景と合成した例を示し、(c)は、(a)に示す撮影画像から抽出された被写体画像を、さらに別の背景と合成した例を示し、(d)は、(a)に示す撮影画像から抽出された被写体画像を、さらに別の背景と合成した例を示す。
【0188】
また、図26は、図24に示す背景除去処理における明度の補正を行った場合の例を示し、(a)は撮影画像を示し、(b)は(a)に示す撮影画像から抽出された被写体画像を別の背景と合成した例を示し、(c)は、(a)に示す撮影画像から抽出された被写体画像を、さらに別の背景と合成した例を示し、(d)は、(a)に示す撮影画像から抽出された被写体画像を、さらに別の背景と合成した例を示す。
【0189】
なお、図25(a)〜(d)及び図26(a)〜(d)の各図においては、説明の便宜のため、色を模様で模式化して図示している。
【0190】
図25(a)〜(d)及び図26(a)〜(d)の各図に例示する被写体は、透明なボトル形状の物体であり、最上部のキャップを除く部分は透明である。
従って、図25(a)及び図26(a)に示すように、撮影画像では、上部を除く部分は背景と同じ色となってしまう。
【0191】
まず、図24に示す背景除去処理において、ステップS405の補正を行わなかった場合について説明する。
図25(a)に示す撮影画像から被写体の画像を抽出し、背景色をRGB=(0,0,0 )とした場合の例を、図25(b)に示す。背景色は黒に近い色であるが、被写体の透明部分は、図25(a)の撮影画像における背景に近い色のままである。また、図25(c)に示すように、抽出した被写体画像を、RGB=(50,50,50)の背景と組み合わせた場合も、被写体の透明部分は、図25(a)の撮影画像における背景に近い色のままである。同様に、図25(d)に示すように、抽出した被写体画像を、RGB=(255,255,255 )の背景と組み合わせた場合も、被写体の透明部分は、図25(a)の撮影画像における背景に近い色のままである。
【0192】
このため、図25(a)に示す撮影画像から抽出した被写体画像は、撮影画像の背景色の影響を排除することができず、他の画像と組み合わせた場合に、透明なはずの箇所で色の違いが顕著になり、違和感を生じてしまう。
【0193】
一方、図24のステップS405における補正を行った場合の例を図26に示す。図26(a)に示す撮影画像から抽出された被写体の画像を、RGB=(0,0,0 )の背景と組み合わせた場合に、明度の補正を実行すれば、図26(b)に示すように、被写体の透明部分は背景色に近い明度となり、全体として自然な画像となる。また、被写体画像をRGB=(50,50,50)の背景と組み合わせる場合も、明度の補正を行えば、図26(c)に示すように、被写体の透明部分は背景色に近い明度となって全体として自然な画像となる。さらに、RGB=(255,255,255 )の背景と組み合わせた場合も、明度の補正を行えば、図26(d)に示すように、被写体の透明部分は背景色に近い明度となって全体として自然な画像となる。
【0194】
このように、撮影画像から背景を除去して被写体画像を抽出し、さらに被写体画像における透明な部分について明度の補正を行うことにより、被写体画像を他の画像や背景と組み合わせた場合に、より自然な仕上がりを実現できる。
【0195】
従って、本発明によれば、背景を除去して得られた画像を有効に利用することができる。例えば、明るさの異なる背景を用いて撮影された複数の撮影画像から、それぞれ被写体画像を抽出すると、被写体における透明部分は異なる明るさになってしまう。本発明によれば、これら複数の被写体画像について、透明部分の明度を統一することも容易であり、抽出した被写体画像を様々な用途に利用する際の利便性を向上させることができる。
【0196】
なお、本第4の実施の形態では、被写体の透明部分の色を背景領域の指定色に合わせる構成としたが、この指定色は、予め指定された色であっても良いし、その都度、キーボード13若しくはマウス14の操作によってユーザが指定するものであってもよい。また、被写体における透明領域の判定では、Lab値の差とab値の差を利用したが、本発明はこれに限定されるものではなく、L値の差とab値の差を利用しても、同様の効果を得ることができる。さらに、上記第3の実施の形態と同様に、撮影システム1において採用される色空間はLab空間に限られず、Luv空間やYCC色空間を利用しても良い。
【0197】
【発明の効果】
請求項1記載の発明の画像処理装置、及び請求項記載の発明のプログラムによれば、処理対象画像の色みに基づいた処理によって効率よく被写体の画像と非被写体画像とを区分し、さらに、処理対象画像の明るさに基づいて効率よく被写体の画像と非被写体画像の境界を判別する。そして、被写体の画像と非被写体画像とを区分した結果と、被写体の画像と非被写体画像の境界とをもとにして被写体画像を抽出することにより、透明な部分を有する被写体や、周囲の光を良く反射する被写体など、従来の手法では被写体の画像の抽出が困難な場合であっても、効率よく正確に被写体の画像を抽出できる。
【0198】
請求項2記載の発明の画像処理装置によれば、区分手段によって処理対象画像を被写体の画像と非被写体画像とに区分した2値画像を作成し、境界判別手段によって処理対象画像中の被写体の画像と非被写体画像との境界を示す2値画像を作成して、これら複数の2値画像をもとに被写体の画像を抽出するので、処理対象画像の色みに基づく区分の結果と、明るさに基づく境界の判別との結果を効率よく組み合わせることにより、より効率よく被写体の画像を抽出できる。また、2値画像は、その情報量が小さくて済むので、より一層効率よく処理することができる。
【0199】
請求項3記載の発明の画像処理装置によれば、処理対象値取得手段は、処理対象画像における色値を色空間値に変換することによって処理対象値を生成し、区分手段及び境界判別手段へ出力するので、処理対象画像を被写体の画像と非被写体画像とに区分する処理と、処理対象画像中の被写体の画像と非被写体画像との境界を判別する処理は、いずれも色空間への変換によって得られる色空間値に基づいて行われる。例えばLab空間等の色空間は、人間の目に似た特性を有するので、ユーザが見た目で判断した通りの被写体の画像の抽出を行うことができる。さらに、色区間への変換を行って得られる色空間値を用いることにより、色みを良く反映した処理を行うことができるので、従来の手法によっては被写体の画像を抽出することが困難な場合であっても、より一層正確に、かつ効率よく抽出を行える。
【0200】
また、請求項記載の発明の画像処理装置によれば、透明領域判定手段によって、抽出手段により抽出された被写体の画像に含まれる透明な領域を判定し、透明領域判定手段により判定された透明な領域の明るさを、補正手段により、予め指定された明るさに補正するので、抽出手段によって抽出した被写体の画像において、透明な部分の明るさを適切な明るさにすることができる。これにより、抽出された被写体の画像を他の画像や背景と組み合わせた場合に、より自然な仕上がりを実現でき、背景を除去して得られた画像を有効に利用することができる。
【0201】
請求項記載の発明の画像処理装置によれば、透明領域判定手段は、抽出手段により抽出された被写体画像の処理対象値のうち、明るさを示す成分が非被写体画像とは異なり、かつ、色みを示す成分が非被写体画像と近似している領域を、透明領域として判定するので、被写体の画像における透明領域を、効率よく、かつ正確に判定できる。特に、色みと明るさとに基づく処理は、区分手段及び境界判別手段による処理と同様の処理であるから、被写体の画像を抽出する際に用いた情報を再度利用して、透明領域の判定を行うことができ、新たな情報の取得や生成を行う必要がない。このため、透明な領域の判定を、被写体の画像の抽出処理と連続する処理として、非常に効率良く実行し、被写体の画像の有用性を高めることができる。
【0202】
請求項記載の発明の画像処理装置、及び請求項記載の発明のプログラムによれば、処理対象画像から抽出される被写体の画像において、透明な部分の明るさを適切な明るさにすることができる。これにより、抽出された被写体の画像を他の画像や背景と組み合わせた場合に、より自然な仕上がりを実現でき、背景を除去して得られた画像を有効に利用することができる。
【図面の簡単な説明】
【図1】本発明を適用した実施の形態における画像処理装置の撮影システム1を示す概略斜視図である。
【図2】図1のケース401の内部構成を示す断面図である。
【図3】図1の画面処理装置10の内部構成を示すブロック図である。
【図4】図3の記憶装置106の構成を示す図である。
【図5】図4の記憶装置106に格納される撮影条件ファイル106aの一例を示す図である。
【図6】図1のデジタルカメラ20及び撮影制御装置30の内部構成を示すブロック図である。
【図7】図3のCPU101により実行される処理を示すフローチャートである。
【図8】図3のCPU101により実行される背景除去処理を示すフローチャートである。
【図9】図3のCPU101により実行される2値画像▲1▼作成処理を示すフローチャートである。
【図10】図3のCPU101により実行される2値画像▲2▼作成処理を示すフローチャートである。
【図11】図8に示す背景除去処理の様子を示す説明図であり、(a)は被写体を示し、(b)は撮影画像を示す。(c)は、図9に示す処理で作成される2値画像▲1▼を示し、(d)は図10に示す処理で作成される2値画像▲2▼を示す。また、(e)は、2値画像▲1▼と2値画像▲2▼との論理和により得られる画像を示し、(f)は、同図(e)に示す画像から作成されるマスク画像を示し、(g)は、同図(f)に示すマスク画像をもとに背景が除去された画像を示す。
【図12】図8に示す背景除去処理の様子を示す説明図であり、(a)は被写体を示し、(b)は撮影画像を示す。(c)は、図9に示す処理で作成される2値画像▲1▼を示し、(d)は図10に示す処理で作成される2値画像▲2▼を示す。また、(e)は、2値画像▲1▼と2値画像▲2▼との論理和により得られる画像を示し、(f)は、同図(e)に示す画像から作成されるマスク画像を示し、(g)は、同図(f)に示すマスク画像をもとに背景が除去された画像を示す。
【図13】図8に示す背景除去処理の様子を示す説明図として、色空間値のヒストグラムの一例を示す図表であり、(a)は全色空間値のヒストグラムを示し、(b)は明度に関するヒストグラムを示し、(c)は色みに関するヒストグラムを示す。
【図14】本発明を適用した第2の実施の形態において図3に示すCPU101により実行される背景除去処理を示すフローチャートである。
【図15】図14に示す背景除去処理における明度補正を行わなかった場合の例を示す説明図であり、(a)は撮影画像を示し、(b)は(a)に示す撮影画像から抽出された被写体画像を別の背景と合成した例を示し、(c)は、(a)に示す撮影画像から抽出された被写体画像を、(a)及び(b)とは別の背景と合成した例を示し、(d)は、(a)に示す撮影画像から抽出された被写体画像を、(a)〜(b)とは別の背景と合成した例を示す。
【図16】図14に示す背景除去処理における明度補正を行った場合の例を示す説明図であり、(a)は撮影画像を示し、(b)は(a)に示す撮影画像から抽出された被写体画像を別の背景と合成した例を示し、(c)は、(a)に示す撮影画像から抽出された被写体画像を、(a)及び(b)とは別の背景と合成した例を示し、(d)は、(a)に示す撮影画像から抽出された被写体画像を、(a)〜(b)とは別の背景と合成した例を示す。
【図17】本発明を適用した第3の実施の形態において、CPU101により実行される処理を示すフローチャートである。
【図18】本発明を適用した第3の実施の形態において、CPU101により実行される背景除去処理を示すフローチャートである。
【図19】本発明を適用した第3の実施の形態において、CPU101により実行される2値画像▲1▼作成処理を示すフローチャートである。
【図20】本発明を適用した第3の実施の形態において、CPU101により実行される2値画像▲2▼作成処理を示すフローチャートである。
【図21】図18に示す背景除去処理の様子を示す説明図であり、(a)は被写体を示し、(b)は撮影画像を示す。(c)は、図19に示す処理で作成される2値画像▲1▼を示し、(d)は図20に示す処理で作成される2値画像▲2▼を示す。また、(e)は、2値画像▲1▼と2値画像▲2▼との論理和により得られる画像を示し、(f)は、同図(e)に示す画像から作成されるマスク画像を示し、(g)は、同図(f)に示すマスク画像をもとに背景が除去された画像を示す。
【図22】図18に示す背景除去処理の様子を示す説明図であり、(a)は被写体を示し、(b)は撮影画像を示す。(c)は、図19に示す処理で作成される2値画像▲1▼を示し、(d)は図20に示す処理で作成される2値画像▲2▼を示す。また、(e)は、2値画像▲1▼と2値画像▲2▼との論理和により得られる画像を示し、(f)は、同図(e)に示す画像から作成されるマスク画像を示し、(g)は、同図(f)に示すマスク画像をもとに背景が除去された画像を示す。
【図23】図18に示す背景除去処理の様子を示す説明図として、色空間値のヒストグラムの一例を示す図表であり、(a)は全色空間値のヒストグラムを示し、(b)は明度に関するヒストグラムを示し、(c)は色みに関するヒストグラムを示す。
【図24】本発明を適用した第4の実施の形態において、CPU101により実行される背景除去処理を示すフローチャートである。
【図25】図24に示す背景除去処理における明度補正を行わなかった場合の例を示す説明図であり、(a)は撮影画像を示し、(b)は(a)に示す撮影画像から抽出された被写体画像を別の背景と合成した例を示し、(c)は、(a)に示す撮影画像から抽出された被写体画像を、(a)及び(b)とは別の背景と合成した例を示し、(d)は、(a)に示す撮影画像から抽出された被写体画像を、(a)〜(b)とは別の背景と合成した例を示す。
【図26】図24に示す背景除去処理における明度補正を行った場合の例を示す説明図であり、(a)は撮影画像を示し、(b)は(a)に示す撮影画像から抽出された被写体画像を別の背景と合成した例を示し、(c)は、(a)に示す撮影画像から抽出された被写体画像を、(a)及び(b)とは別の背景と合成した例を示し、(d)は、(a)に示す撮影画像から抽出された被写体画像を、(a)〜(b)とは別の背景と合成した例を示す。
【符号の説明】
1 撮影システム
5 被写体
6 背景材
10 画面処理装置
101 CPU
102 入力部
103 RAM
104 伝送制御部
105 表示部
106 記憶装置
107 記憶媒体
108 I/F部
109 バス
11 本体
12 ディスプレイ
13 キーボード
14 マウス
20 デジタルカメラ
201 I/F部
202 カメラ制御部
203 画像メモリ
204、205、206 モータ
207 ズーム
208 フォーカス
209 絞り
210、211、212 ポテンショメータ
30 撮影制御装置
301 I/F部
302 停止スイッチ
303 カメラ向き検出器
304 チルト台駆動制御部
305 被写体台座駆動制御部
306 フード駆動制御部
307 照明制御部
40 撮影装置
401 ケース
402 フード
403 チルト台
404 非常停止ボタン
405 被写体台座
406 側面扉
407、408、409 モータ
410、411、412 ポテンショメータ
421 撮影用鏡
422 鏡固定台座
423a、423b、423c、424d 照明装置
424a、424b、424c、424d 照明固定台座
425 光拡散部材

Claims (6)

  1. 被写体の画像と、被写体を除く部分の非被写体画像とを含む処理対象画像における色値から処理対象値を取得する処理対象値取得手段と、
    この処理対象値取得手段により取得された処理対象値のうち、色みを示す成分をもとにして、被写体の画像と非被写体画像とを区分する画像区分手段と、
    前記処理対象値取得手段により取得された処理対象値のうち、明るさを示す成分をもとにして、被写体の画像と非被写体画像との境界を判別する境界判別手段と、
    前記区分手段により前記処理対象画像を区分した結果と、前記境界判別手段により判別された境界とをもとに、前記処理対象画像から被写体の画像を抽出する抽出手段と、
    前記抽出手段により抽出された被写体画像の前記処理対象値のうち、明るさを示す成分が前記非被写体画像とは異なり、かつ、色みを示す成分が前記非被写体画像と近似している領域を、透明な領域として判定する透明領域判定手段と、
    この透明領域判定手段により判定された透明な領域の明るさを、予め指定された明るさに補正する補正手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記区分手段は、前記処理対象値取得手段により取得された処理値のうち、色みを示す成分をもとにして、被写体の画像と非被写体画像とを区分した2値画像を作成し、
    前記境界判別手段は、前記処理対象値取得手段により取得された処理値のうち、明るさを示す成分をもとにして、被写体の画像と非被写体画像との境界を示す2値画像を作成し、
    前記抽出手段は、前記区分手段及び前記境界判別手段によりそれぞれ作成された複数の2値画像をもとに、前記処理対象画像から被写体の画像を抽出すること、
    を特徴とする請求項1記載の画像処理装置。
  3. 前記処理対象値取得手段は、前記処理対象画像における色値を色空間値に変換することによって前記処理対象値を生成し、前記区分手段及び前記境界判別手段へ出力することを特徴とする請求項1または2記載の画像処理装置。
  4. 被写体の画像と、被写体を除く部分の非被写体画像とを含む処理対象画像から、非被写体画像を除去して得られる被写体の画像について、
    前記処理対象画像における色値から処理対象値をし、当該処理対象値のうち、明るさを示す成分が前記非被写体画像とは異なり、かつ、色みを示す成分が前記非被写体画像と近似している領域を、前記被写体の画像に含まれる透明な領域として判定する透明領域判定手段と、
    この透明領域判定手段により判定された透明な領域の明るさを、予め指定された明るさに補正する補正手段とを備えること、
    を特徴とする画像処理装置。
  5. 入力される被写体を含む画像データに画像処理を施すコンピュータを、
    被写体の画像と、被写体を除く部分の非被写体画像とを含む処理対象画像における色値から処理対象値を取得する処理対象値取得手段、
    この処理対象値取得手段により取得された処理対象値のうち、色みを示す成分をもとにして、被写体の画像と非被写体画像とを区分する画像区分手段、
    前記処理対象値取得手段により取得された処理対象値のうち、明るさを示す成分をもとにして、被写体の画像と非被写体画像との境界を判別する境界判別手段、
    前記区分手段により前記処理対象画像を区分した結果と、前記境界判別手段により判別された境界とをもとに、前記処理対象画像から被写体の画像を抽出する抽出手段、
    前記抽出手段により抽出された被写体画像の前記処理対象値のうち、明るさを示す成分 が前記非被写体画像とは異なり、かつ、色みを示す成分が前記非被写体画像と近似している領域を、透明な領域として判定する透明領域判定手段、
    この透明領域判定手段により判定された透明な領域の明るさを、予め指定された明るさに補正する補正手段、
    として機能させるためのプログラム。
  6. 入力される被写体を含む画像データに画像処理を施すコンピュータを、
    被写体の画像と、被写体を除く部分の非被写体画像とを含む処理対象画像から、非被写体画像を除去して得られる被写体の画像について、
    前記処理対象画像における色値から処理対象値をし、当該処理対象値のうち、明るさを示す成分が前記非被写体画像とは異なり、かつ、色みを示す成分が前記非被写体画像と近似している領域を、前記被写体の画像に含まれる透明な領域として判定する透明領域判定手段、
    この透明領域判定手段により判定された透明な領域の明るさを、予め指定された明るさに補正する補正手段、
    として機能させるためのプログラム。
JP2001151203A 2001-03-27 2001-05-21 画像処理装置、及び、プログラム Expired - Fee Related JP3962825B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001151203A JP3962825B2 (ja) 2001-03-27 2001-05-21 画像処理装置、及び、プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001090250 2001-03-27
JP2001-90250 2001-03-27
JP2001151203A JP3962825B2 (ja) 2001-03-27 2001-05-21 画像処理装置、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2002358520A JP2002358520A (ja) 2002-12-13
JP3962825B2 true JP3962825B2 (ja) 2007-08-22

Family

ID=26612199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001151203A Expired - Fee Related JP3962825B2 (ja) 2001-03-27 2001-05-21 画像処理装置、及び、プログラム

Country Status (1)

Country Link
JP (1) JP3962825B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010056991A (ja) * 2008-08-29 2010-03-11 Panasonic Corp クロマキー処理装置およびクロマキー処理方法
JP5874141B2 (ja) * 2012-01-13 2016-03-02 株式会社ブレイン 物体識別装置
JP2014006852A (ja) * 2012-06-27 2014-01-16 Seiko Epson Corp 認識処理方法、認識処理装置、ロボットシステム及び認識処理プログラム
JP6486632B2 (ja) * 2014-09-22 2019-03-20 中村留精密工業株式会社 工具の形状取得方法及び装置

Also Published As

Publication number Publication date
JP2002358520A (ja) 2002-12-13

Similar Documents

Publication Publication Date Title
JP6224822B2 (ja) 毛髪コンサルテーションツール装置及び方法
CN101753814B (zh) 摄像装置、照明处理装置以及照明处理方法
US5923380A (en) Method for replacing the background of an image
US9536284B2 (en) Method and system for modifying image quality of an image
JP4865038B2 (ja) 顔検出と肌の色合いの情報を用いたデジタル画像処理
US10349029B2 (en) Photographic scene replacement system
US6728401B1 (en) Red-eye removal using color image processing
US7532766B2 (en) Method and system for producing formatted data related to geometric distortions
JPH09322192A (ja) 赤目検出補正装置
KR20080037738A (ko) 이미징 카메라 처리 유닛 및 방법
JPWO2008044732A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム
US20050046703A1 (en) Color calibration in photographic devices
WO1999017254A1 (en) Digital redeye removal
US20160112616A1 (en) Hair Consultation Tool Arrangement and Method
CN101383907B (zh) 图像处理装置和图像处理方法
JP2001126070A (ja) 注目領域抽出装置およびそれを用いた自動構図決定装置
CN108024101A (zh) 投影机以及焦距调整方法
CN107948511B (zh) 图像亮度处理方法、装置、存储介质和图像亮度处理设备
CN108769505A (zh) 一种图像处理集方法及电子设备
JP3962825B2 (ja) 画像処理装置、及び、プログラム
US20040201726A1 (en) Digital camera and method for balancing color in a digital image
JP2002342758A (ja) 視覚認識システム
KR101427649B1 (ko) 색상 분포도를 표시하는 디지털 영상 처리 장치 및 방법
EP1300802A1 (en) Process of identification of shadows in an image and image obtained using the process
WO1998027744A1 (fr) Systeme d'imagerie

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070430

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110601

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130601

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees