JP4121639B2 - Object image clipping method, apparatus, system, and medium on which program is recorded - Google Patents
Object image clipping method, apparatus, system, and medium on which program is recorded Download PDFInfo
- Publication number
- JP4121639B2 JP4121639B2 JP32209898A JP32209898A JP4121639B2 JP 4121639 B2 JP4121639 B2 JP 4121639B2 JP 32209898 A JP32209898 A JP 32209898A JP 32209898 A JP32209898 A JP 32209898A JP 4121639 B2 JP4121639 B2 JP 4121639B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- background color
- color
- lenticular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/026—Control of mixing and/or overlay of colours in general
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/10—Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
- G09G2340/125—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Processing Of Color Television Signals (AREA)
- Editing Of Facsimile Originals (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、特定の背景を用いて物体を撮影し、撮影した画像の中から物体を切り出す物体画像切り出しに関する。
【0002】
【従来の技術】
従来より、画像処理の一手法として、クロマキー技術が知られている。このクロマキー技術とは、放送局などでよく用いられている技術で、複数の映像を合成して新しい映像を作り出すための手法である。
【0003】
例えば、ブルーバックの前で、アナウンサーなどの映像を撮り、これを映像1とする。一方、別に用意した天気図の画面などを映像2とする。そして、映像1の青色成分を透明と見なし、映像2と重ね合わせることで、あたかも天気図の画面の前にアナウンサーが立っているかのような映像を生成する。また、ゲストの写真をとり、これを各種の背景画と合成した写真を提供するサービスなども提供されており、これにもクロマキー技術が利用されている。
【0004】
一方、各種製品の電子カタログや、インターネット上でのグラフィックデータ等として、三次元のCG(コンピュータ・グラフィックス)が利用される機会が増加している。そして、このCGの元画像を作製する場合に、複数の物体画像(シルエット)情報から物体の三次元形状推定を行い、立体再構成(shape from silhouette)を行う手法がある。この手法により、元画像を作成する手間を大幅に減少し、かつ正確な形状の元画像を得ることができる。
【0005】
この手法では、物体を含む画像の中から物体のシルエット情報を得る必要がある。クロマキー技術は物体のシルエット情報を得る一つの有効手段である。すなわち、例えば、物体をブルーバックの前で撮影し、青部分以外の部分を物体のシルエットと見なせば、物体に青色が含まれていない限り、正しいシルエット情報が得られる。
【0006】
このように、クロマキー技術により、物体と異なる色の背景板を用いることで、物体のシルエットを切り出すことができる。
【0007】
【発明が解決しようとする課題】
しかしながら、このクロマキー技術を用いる方法では、カラフルな物体の場合、1)背景板の色の選定が非常に難しい、2)物体の色および切り出しの閾値設定の関係によっては、現実的には物体の切り出しは不可能となる、などという問題があった。特に、2)に関していえば、例えば青色を透明処理する場合、ある程度許容値(例えばHSV空間でH=220−260の間を透明化するなど)を設定しなければならず、カラフルな物体ではこの範囲に入る色が存在する場合が多く、その部分が背景部分と判定されてしまうため、正確な物体の切り出しが困難になってしまう。
【0008】
本発明は、上記課題に鑑みなされたものであり、カラフルな物体でもその切り出しを確実に行うことができる物体画像切り出しに関する。
【0009】
【課題を解決するための手段】
本発明は、特定の背景を用いて物体を撮影し、撮影した画像の中から物体を切り出す物体画像切り出し方法であって、第1背景色の背景の前に置いて物体を撮影し、得られた画像の中から第1背景色以外の部分を物体領域として切り出す第1切り出しステップと、前記第1背景色とは異なる第2背景色の背景の前に置いて物体を撮影し、得られた画像の中から第2背景色以外の部分を物体領域として切り出す第2切り出しステップと、第1及び第2切り出しステップにおいて得られた物体領域の論理和をとり物体画像を得る論理和ステップと、を有することを特徴とする。
【0010】
このように、2つの背景色における物体の画像から切り出した物体領域の論理和をとることで、物体がカラフルなものでも正常な物体画像切り出しを行うことができる。
【0011】
また、前記背景色に用いる第1背景色と、第2背景色とは、色空間において距離の遠い色相を有する色であることが好適である。より具体的には、例えば色相空間において60度以上離れている色とすることが好適である。このように、2つの背景色を十分に遠い距離関係にある色相にすることにより、1つの背景色において、背景色領域と誤認識された物体領域は、他の背景色で必ず物体領域と認識される。このため、論理和をとったあとの最終的に切り出された物体画像は、正しいものになる。
【0012】
また、前記第1および第2切り出しステップにおける物体の撮影を物体に対する方向を異ならせてそれぞれ複数回行い、前記論理和ステップでは、第1切り出しステップと第2切り出しステップにおいて得られた対応する物体領域同士の論理和をとり、複数の物体画像を得、得られた複数の物体画像に基づいて、物体の三次元画像を得ることが好適である。このような処理により、切り出された物体画像を用いて、物体の三次元画像を得ることができる。例えば、テーブルの上に三次元画像が欲しい物体を置き、これを回転させて撮影することで、その物体の三次元画像を得ることができる。そして、その三次元画像を元に各種のCG画像を作成することができる。
【0013】
また、第1及び第2背景色前の物体領域の対を視野角の異なる2つの撮像手段によって順次得、動く物体についての物体画像を切り出すことが好適である。上記視野角の違いが、物体画像に影響のない程度であれば、2つの撮像手段において得られる物体領域により正しい物体画像の切り出しが行える。
【0014】
また、第1背景色の背景と、第2背景色の背景を高速に切り換え、物体の動きを無視できる第1及び第2背景色前の物体領域の対を物体の動きに応じて順次得、動く物体についての物体画像を切り出すことが好適である。
【0015】
また、本発明は、上述した物体切り出し方法を実施する装置及びこの動作のためのプログラムを記憶した媒体に関する。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。
【0017】
図1は、本発明に係る物体画像切り出し装置を含む画像処理装置の全体構成を示すブロック図である。CCDカメラなどで構成される画像入力部10からの撮像データは、記憶部12に供給され、記憶される。この記憶部12は、RAM、ハードディスク、光磁気ディスクなど各種のもので構成できる。
【0018】
記憶部12には、物体切り出し部14が接続されている。この物体切り出し部14は、記憶部12に記憶されている特定の色の部分を排除し、物体の領域を切り出す。そして、その結果を記憶部12に記憶する。ここで、物体の領域の切り出しの際には、画像データをHSVデータに変換し、色が背景の色と同一と見なされる範囲内の部分を排除することで行う。例えば、青色であれば、H=220−260の部分を背景部分と認識すればよい。
【0019】
特に、本発明では、2種類の色の背景における画像のペアについて、それぞれ物体画像の領域(物体領域)を切り出し、切り出した物体領域の論理和をとることによって、最終的な物体画像を切り出す。そして、この切り出し結果の物体画像についてのデータを記憶部12に記憶する。
【0020】
記憶部12には、画像処理部16も接続されている。この画像処理部16は、記憶部12に記憶されている画像データについて、各種の処理を施す。本実施形態では、1つの物体について撮影角度が異なる画像データを複数得、この複数の二次元画像に基づいて、三次元形状を構築し、これを記憶部12に記憶する。また、画像処理部16は、生成した三次元形状データに基づいて、三次元CGデータを生成する。
【0021】
画像処理部16には、画像出力部18が接続されており、画像処理部16において、作成した各種画像を表示する。画像出力部18は、CRTやLCDなどのディスプレイで構成される。なお、画像出力部18には、記憶部12に記憶される各種画像データに基づく表示も行われる。
【0022】
ここで、上記構成のすべてを1つのコンピュータシステムとして構成してもよいが、カメラを別体としてコンピュータと通信で接続するように構成してもよい。この場合、カメラにメモリカードを内蔵し、そのメモリカードからのデータをコンピュータに入力することが好適である。
【0023】
また、物体切り出し部14、画像処理部16の動作プログラムは記憶部12に記憶されており、この動作プログラムに従って、コンピュータが動作することによって、物体切り出し部14及び画像処理部16の各種動作が達成される。動作プログラムは、CD−ROMなどの記憶媒体からロードすることもできるし、また通信で入手しロードすることもできる。
【0024】
次に、本実施形態による物体画像の切り出しについて、図2に基づいて説明する。
【0025】
まず、物体を背景色Aと、背景色Bの前に置いて撮像し一対の画像データを画像入力部10において得る。物体切り出し部14においては、背景色A及び背景色Bの色と同一の色の領域を一対の画像データからそれぞれ排除することによって、一対の切り出し物体領域を得る。この例では、物体の頭部の色が背景色Aと同一であり、物体の左脚の色が背景色Bと同一である。従って、背景色Aの画像から切り出した物体領域は、頭部が欠けており、背景色Bの画像から切り出した物体領域は左足が欠けている。しかし、両者の論理和をとることにより、完全な物体の領域が得られる。
【0026】
背景Aと背景Bとは、HSV空間においてなるべく離れた関係(補色の関係)にある赤と青などの色を採用することが好適である。これによって、背景色Aと同一と認識された物体部分は、必ず背景色Bとは異なり、最終的に物体の領域として切り出される。すなわち、色相の十分異なる2種類の背景板を使えば、仮に一つの背景色で背景と物体との差が認められない場合でも、もう一方の背景色では必ず背景と物体との差が認められる。従って、物体が、各種の色を含むカラフルなものであっても、物体を確実に切り出すことができる。
【0027】
次に、このような物体切り出しを写真の合成に利用した場合の処理フローを図3に基づいて説明する。
【0028】
まず、画像入力部10からの背景色Aでの画像を記憶部12を介し、物体切り出し部14に入力する(S11)。次に、画像入力部10からの背景色Bでの画像を記憶部12を介し、物体切り出し部14に入力する(S12)。例えば、背景色Aの背景板と、背景色Bの背景板を用意しておき、これを入れ替えて、物体を撮影すればよい。
【0029】
そして、背景色Aの色の領域を排除することで、物体の領域のマスク画像Cが切り出される(S13)。次に、背景色Bの色の領域を排除することで、物体の領域のマスク画像Dが切り出される(S14)。そして、マスク画像Cと画像Dの論理和をとることで最終的な物体画像の切り出しが行われ、最終マスク画像Eが得られる(S15)。
【0030】
さらに、最終マスク画像と、予め用意してある原画像を重ね合わせることによって、原画像上に物体画像を重ね合わせた合成写真が得られる(S16)。なお、得られた最終マスク画像Eの各画素の色情報(RGB情報)は、元々の2つの画像データ(背景色A及び背景色Bの画像データ)のいずれかの色情報に基づき決定すればよい。なお、シルエット情報のみ必要な場合には、当然ながらS16のステップは不要である。
【0031】
ここで、三次元画像データを得る場合には、S11〜S15の処理を物体の撮影方向を変更して複数回繰り返す。例えば、物体を回転テーブルの上に置き、S15の終了後、回転テーブルを所定角度回転させた後S11に戻り、次の撮影方向の画像を得ればよい。なお、S11、12を行った後、回転テーブルを回転し撮影方向を変更し、またS11に戻り、画像の取り込みを繰り返してもよい。これによって、一定撮影方向の2つの画像データの対を複数得ることができ、この処理によって複数の物体のマスク画像を得ることができる。
【0032】
そして、複数の最終マスク画像から公知の手法によって、物体の三次元画像データを得る。このように、物体の三次元画像データを得ておけば、これについて任意の変更を容易に行うことができ、各種のCG画面を生成したり、立体映像による電子カタログなどを容易に生成することができる。
【0033】
ここで、本発明では、背景色を変更する必要がある。上述の例では、物体を載置した状態で、背景板を取り替えた。しかし、背景色の変更には、このほかに各種の方法がある。
【0034】
図4に示したのは、背景色の変更にプロジェクタ30を利用した例である。画像入力部10であるカメラの前方に物体32が配置されている。そして、その背後に、裏面からの投射画像を表示する背景板(スクリーン)34が配置されている。プロジェクタ30は、背景板34に背景色A、背景色Bを交互に投射する。これによって、背景板の入れ替えなどの作業を行うことなく、2つの背景色の画像データを得ることができる。
【0035】
次に、物体が動く場合に、この動画から物体領域を切り出す処理について、説明する。
【0036】
「レンチキュラの利用」
図5、6に示したのは、動画からの切り出しの一例を示す図であり、この例では、2つの背景色A,Bのストライプが形成された背景板40を用意する。そして、この背景板40の手前側にレンチキュラ42を配置する。レンチキュラ42は、複数のシリンドリカルレンズを並べて配置したもので、背景板40のストライプに合致したシリンドリカルレンズからなっている。従って、画像入力部10である2つのカメラA,Bの視野角を所定角度だけ変更することで、カメラAでは背景色A、カメラBでは背景色Bとなる(見える背景色は反対でもよい)。そこで、2つのカメラA,Bにおいて、背景色A,Bの物体の画像の対を得ることができ、上述の同様の処理により、物体画像を切り出すことができる。そして、同時に2つの画像を得ることができるため、物体が動いていても問題なく一対の画像を得ることができ、動画からの物体画像の切り出しが行える。
【0037】
なお、視野角の相違により、カメラA,Bとで、物体の画像が若干異なるが、ある程度物体から離れていれば、この差は無視することができる。また、この差に起因する物体の画像が存在する領域は、物体の位置及びカメラA,Bの位置に基づいてわかるため、この部分について所定の画像処理を行い、悪影響がでないようにしてもよい。
【0038】
また、背景板40またはレンチキュラ42を移動させれば、カメラを1台として、背景色の異なる一対の画像を時系列で得ることができる。そこで、物体の動きに対し、十分高速で背景板40またはレンチキュラ42を移動し、ほぼ同一の位置における異なる背景色の画像を得ることで、動画に適用することができる。
【0039】
「スリットバリアの利用」
図7に示したのは、スリットバリア50を利用した例である。上述のレンチキュラを利用した場合と同様の2つの背景色A,Bのストライプが形成された背景板52の手前にストライプに対応したスリットを有するスリットバリア50を配置する。これを上述の場合と同様の位置の異なるカメラA,Bで撮影することによって、カメラAからは、背景板40の背景色Aのみが見え、カメラBからは背景色Bのみが見えるようにできる(見える背景色は反対でもよい)。
【0040】
このようにすることによって、カメラA,Bにおいて、レンチキュラを用いた場合と同様に、異なる背景色の画像を得ることができる。また、背景板52またはスリットバリア50のいずれかを移動してカメラを1台にすることもできる。
【0041】
ここで、このスリットバリア50を用いると、スリットバリア50自体が撮影される。従って、このスリットバリア50の画像を除去する必要がある。なお、スリットバリア50としては、黒などが利用される。
【0042】
このスリットバリア50の除去には、撮影した画像について、max−minフィルタなどのフィルタ処理を利用することができる。
【0043】
このmax−minフィルタとは画像に対し、一度maxフィルタをかけ、その後、minフィルタをかけるものである。
【0044】
maxフィルタとは、対象画素(i,j)に対し、その周囲の所定範囲(±n,±m)内の最大値(例えば、輝度の最大値)を採用するフィルタである。処理対象の画素の値をv(i,j)とした場合、その値は次のように表される。
【0045】
【数1】
v(i,j)= MAX(v(k,l))
k=i−n〜i+n,l=j−m〜j+m
このmaxフィルタにより、黒の画素は、周囲の最大輝度に置き換えられ、黒のストライプは、除去される。
【0046】
minフィルタとは、対象画素(i,j)に対し、その周囲の所定範囲(±n,±m)内の最小値(例えば、輝度の最小値)を採用するフィルタである。処理対象の画素の値をv(i,j)とした場合、その値は次のように表される。
【0047】
【数2】
v(i,j) = MIN(v(k,l))
k=i−n〜i+n,l=j−m〜j+m
このmaxフィルタにより、一旦周囲の最大輝度に置き換えられた画素がその周囲の最小輝度に置き換えられる。これによって、黒のストライプは、除去され、背景色を均一化することができる。なお、m,nは、通常1〜3とするが、ストライプの太さを対応させておくことが必要である。
【0048】
また、ストライプは予めどのような画像になるか(ストライプの方向には連続することなど)わかっているため、ストライプの性状を考慮して除去のための画像処理を行うことが好適である。
【0049】
また、カメラの焦点が対象物に合っているが、背景には合っておらず、黒ストライプが明確に写らない場合には、max−minフィルタが不要な場合もある。特に背景と対象物の距離が大きい場合や、焦点深度の浅いレンズを用いる場合には、このような場合が存在する。
【0050】
「プロジェクタの利用」
図4に示したプロジェクタを利用する例において、プロジェクタ30において、背景板34に投射する背景色を高速に切り換えることで、2つの背景色A,Bにおける物体の画像の対を得ることができる。物体の動きに比べて十分高速に背景色の切り換えを行えば、これによっても上述の場合と同様の物体画像の切り出しが行える。
【0051】
「機械式」
図8に示したのは、機械式の背景色変換の機構を示す図である。この図の例では、背景板60が複数の背景板素子62からなっている。そして、この背景板素子62は、表面と裏面において色が異なっている。従って、この背景板素子62を回転させ、何れの面をカメラ側にするかで、背景板60の色を変更することができる。すべての背景板素子62を同時に高速で回転させ、背景板60を背景色Aから背景色Bに変更し、その前後の画像を得ることで、対象物についての背景色A,Bの一対の画像を得ることができる。
【0052】
「その他」
動画に対応する背景色の変更の例を上述したが、これらの構成は、静止する物体についても適用することが可能である。なお、この場合には、背景色を高速に切り換える必要はない。
【0053】
また、本発明では、2つの異なる背景色の前に物体を置いて撮影する。そして、物体の色情報は、いずれかの背景において得られた画像データに基づいて決定する。背景によらず、物体の色を正確にカメラで撮影できれば問題ないが、物体の色情報が背景色の影響を受ける場合が多い。この場合には、背景色A,Bにおいて撮影した各種物体の色と、背景がグレーなどの無彩色の場合の色との関係を予め調べておき、2つの背景色において得た物体の色情報から、所望の物体の色情報を算出することが好適である。
【0054】
【発明の効果】
以上説明したように、本発明によれば、2つの背景色における物体の画像から切り出した物体領域(クロマキー物体領域切り出し)の論理和をとることで、物体がカラフルなものでも正常な物体画像切り出しを行うことができる。
【図面の簡単な説明】
【図1】 本発明に係る物体画像切り出し装置を含む画像処理装置の全体構成を示すブロック図である。
【図2】 論理和による物体領域切り出しを説明する図である。
【図3】 処理を説明するフローチャートである。
【図4】 プロジェクタを用いた例を示す図である。
【図5】 レンチキュラを用いた例を示す図である。
【図6】 レンチキュラを用いた例を示す平面図である。
【図7】 スリットバリアを用いた例を示す図である。
【図8】 機械式の背景板を用いた例を示す図である。
【符号の説明】
10 画像入力部、12 記憶部、14 物体切り出し部、16 画像処理部、18 画像出力部、30 プロジェクタ、34,40,52,60 背景板、42 レンチキュラ、50 スリットバリア、62 背景板素子。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to object image segmentation in which an object is photographed using a specific background and the object is segmented from the captured image.
[0002]
[Prior art]
Conventionally, a chroma key technique is known as a method of image processing. This chroma key technique is a technique often used in broadcasting stations and the like, and is a technique for synthesizing a plurality of videos to create a new video.
[0003]
For example, an image of an announcer or the like is taken in front of the blue background, and this is taken as image 1. On the other hand, a screen of a weather map prepared separately is referred to as video 2. Then, the blue component of the video 1 is regarded as transparent and is superimposed on the video 2 to generate a video as if an announcer is standing in front of the weather map screen. There are also services that take photos of guests and provide photos that are synthesized with various background images. Chroma key technology is also used for this.
[0004]
On the other hand, there are increasing opportunities to use three-dimensional CG (computer graphics) as electronic catalogs for various products, graphic data on the Internet, and the like. And when producing this CG original image, there exists a method of estimating the three-dimensional shape of an object from a plurality of object image (silhouette) information and performing a three-dimensional reconstruction (shape from silhouette). By this method, the labor for creating the original image can be greatly reduced, and an original image having an accurate shape can be obtained.
[0005]
In this method, it is necessary to obtain silhouette information of an object from an image including the object. The chroma key technique is one effective means for obtaining silhouette information of an object. That is, for example, if an object is photographed in front of a blue background and a part other than the blue part is regarded as the silhouette of the object, correct silhouette information can be obtained as long as the object does not contain blue.
[0006]
In this way, the silhouette of an object can be cut out by using a background plate of a color different from that of the object by the chroma key technique.
[0007]
[Problems to be solved by the invention]
However, with this method using the chroma key technique, in the case of a colorful object, 1) it is very difficult to select the color of the background board. There was a problem that it was impossible to cut out. In particular, with regard to 2), for example, when transparent processing is performed on blue, an allowable value (for example, transparency between H = 220-260 in the HSV space) must be set to some extent. In many cases, there are colors that fall within the range, and the portion is determined to be the background portion, which makes it difficult to accurately cut out the object.
[0008]
The present invention has been made in view of the above problems, and relates to an object image segmentation that can reliably segment even a colorful object.
[0009]
[Means for Solving the Problems]
The present invention is an object image cutout method for shooting an object using a specific background, and cutting out the object from the shot image, which is obtained by shooting an object placed in front of a background of a first background color. A first cutout step of cutting out a portion other than the first background color as an object area from the captured image, and shooting the object in front of a background of a second background color different from the first background color. A second cutout step of cutting out a portion other than the second background color as an object region from the image, and a logical sum step of obtaining an object image by taking the logical sum of the object regions obtained in the first and second cutout steps. It is characterized by having.
[0010]
In this way, by taking the logical sum of the object regions cut out from the image of the object in the two background colors, it is possible to cut out a normal object image even if the object is colorful.
[0011]
Further, it is preferable that the first background color and the second background color used for the background color are colors having hues that are far from each other in the color space. More specifically, for example, a color that is 60 degrees or more apart in the hue space is preferable. In this way, by setting the two background colors to hues that are sufficiently distant from each other, an object region that is erroneously recognized as a background color region in one background color is always recognized as an object region in another background color. Is done. For this reason, the object image finally cut out after the logical sum is taken is correct.
[0012]
Further, the imaging of the object in the first and second clipping steps is performed a plurality of times with different directions with respect to the object, and the corresponding object region obtained in the first clipping step and the second clipping step is performed in the logical sum step. It is preferable to obtain a plurality of object images by obtaining a logical sum of them, and to obtain a three-dimensional image of the object based on the obtained plurality of object images. By such processing, it is possible to obtain a three-dimensional image of the object using the cut object image. For example, a three-dimensional image of the object can be obtained by placing an object on which a three-dimensional image is desired on the table, rotating the object, and photographing the object. Various CG images can be created based on the three-dimensional image.
[0013]
In addition, it is preferable that a pair of object regions before the first and second background colors is sequentially obtained by two imaging units having different viewing angles, and an object image of a moving object is cut out. If the difference in the viewing angle is such that the object image is not affected, a correct object image can be cut out by the object regions obtained by the two imaging units.
[0014]
Further, the background of the first background color and the background of the second background color are switched at high speed, and a pair of object regions before the first and second background colors that can ignore the movement of the object are sequentially obtained according to the movement of the object, It is preferable to cut out an object image of a moving object.
[0015]
The present invention also relates to an apparatus for performing the above-described object cutting method and a medium storing a program for this operation.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.
[0017]
FIG. 1 is a block diagram showing the overall configuration of an image processing apparatus including an object image cutout apparatus according to the present invention. Imaging data from the
[0018]
An
[0019]
In particular, according to the present invention, a final object image is cut out by cutting out a region (object region) of an object image for each pair of images in a background of two kinds of colors and taking the logical sum of the cut out object regions. Then, the data about the object image as a result of the cutout is stored in the
[0020]
An
[0021]
An image output unit 18 is connected to the
[0022]
Here, all of the above-described configurations may be configured as one computer system, but the camera may be configured as a separate unit and connected to the computer by communication. In this case, it is preferable to incorporate a memory card in the camera and input data from the memory card to the computer.
[0023]
The operation programs of the
[0024]
Next, extraction of an object image according to the present embodiment will be described with reference to FIG.
[0025]
First, an object is imaged by placing it in front of the background color A and the background color B, and a pair of image data is obtained in the
[0026]
For the background A and the background B, it is preferable to employ colors such as red and blue that are in a relationship as far as possible in the HSV space (complementary color relationship). Thus, the object portion recognized as the same as the background color A is different from the background color B and is finally cut out as an object region. In other words, if two types of background boards with sufficiently different hues are used, even if the difference between the background and the object is not recognized with one background color, the difference between the background and the object is always recognized with the other background color. . Therefore, even if the object is colorful including various colors, the object can be reliably cut out.
[0027]
Next, a processing flow in the case where such object cutout is used for the composition of a photograph will be described with reference to FIG.
[0028]
First, an image with the background color A from the
[0029]
Then, the mask image C of the object region is cut out by eliminating the color region of the background color A (S13). Next, the mask image D of the object region is cut out by eliminating the background color B color region (S14). Then, the final object image is cut out by taking the logical sum of the mask image C and the image D, and the final mask image E is obtained (S15).
[0030]
Furthermore, by superimposing the final mask image and the original image prepared in advance, a composite photograph in which the object image is superimposed on the original image is obtained (S16). In addition, if the color information (RGB information) of each pixel of the obtained final mask image E is determined based on the color information of one of the original two image data (image data of the background color A and the background color B). Good. If only silhouette information is required, the step S16 is not necessary.
[0031]
Here, when obtaining three-dimensional image data, the processes of S11 to S15 are repeated a plurality of times while changing the shooting direction of the object. For example, an object may be placed on a rotary table, and after completion of S15, the rotary table may be rotated by a predetermined angle, and then the process may return to S11 to obtain an image in the next shooting direction. Note that after performing S11 and S12, the rotary table may be rotated to change the shooting direction, and the process may return to S11 to repeat image capture. Thereby, a plurality of pairs of two image data in a fixed photographing direction can be obtained, and a mask image of a plurality of objects can be obtained by this processing.
[0032]
Then, three-dimensional image data of the object is obtained from the plurality of final mask images by a known method. In this way, if 3D image data of an object is obtained, any change can be easily made, and various CG screens can be easily generated, or an electronic catalog using stereoscopic images can be easily generated. Can do.
[0033]
Here, in the present invention, it is necessary to change the background color. In the above example, the background plate was replaced with the object placed. However, there are various other methods for changing the background color.
[0034]
FIG. 4 shows an example in which the
[0035]
Next, a process for extracting an object region from this moving image when the object moves will be described.
[0036]
"Use of lenticular"
5 and 6 are diagrams showing an example of cutting out from a moving image. In this example, a
[0037]
Note that the image of the object is slightly different between the cameras A and B due to the difference in viewing angle, but this difference can be ignored if it is far away from the object to some extent. In addition, since the area where the image of the object due to this difference exists is known based on the position of the object and the positions of the cameras A and B, predetermined image processing may be performed on this part so as not to have an adverse effect. .
[0038]
Further, if the
[0039]
"Use of slit barrier"
FIG. 7 shows an example using the
[0040]
By doing in this way, images of different background colors can be obtained in the cameras A and B, as in the case of using the lenticular. Further, either the
[0041]
Here, when this
[0042]
For the removal of the
[0043]
This max-min filter applies a max filter to an image once and then applies a min filter.
[0044]
The max filter is a filter that employs a maximum value (for example, a maximum value of luminance) within a predetermined range (± n, ± m) around the target pixel (i, j). When the value of the pixel to be processed is v (i, j), the value is expressed as follows.
[0045]
[Expression 1]
v (i, j) = MAX (v (k, l))
k = i−n to i + n, l = j−m to j + m
With this max filter, the black pixels are replaced with the surrounding maximum luminance, and the black stripes are removed.
[0046]
The min filter is a filter that employs a minimum value (for example, a minimum value of luminance) within a predetermined range (± n, ± m) around the target pixel (i, j). When the value of the pixel to be processed is v (i, j), the value is expressed as follows.
[0047]
[Expression 2]
v (i, j) = MIN (v (k, l))
k = i−n to i + n, l = j−m to j + m
By this max filter, the pixel once replaced with the maximum surrounding luminance is replaced with the minimum luminance around it. Thereby, the black stripe is removed, and the background color can be made uniform. Note that m and n are normally 1 to 3, but it is necessary to correspond to the thickness of the stripe.
[0048]
Also, the stripe since known in advance what will image (such as by continuous in the direction of the stripe), it is preferable to perform the image processing for removal by considering the properties of the stripes.
[0049]
Further, if the camera is focused on the object but not the background, and the black stripe is not clearly visible, the max-min filter may not be necessary. Such a case exists particularly when the distance between the background and the object is large or when a lens having a shallow focal depth is used.
[0050]
"Using a projector"
In the example using the projector shown in FIG. 4, the
[0051]
"Mechanical"
FIG. 8 shows a mechanical background color conversion mechanism. In the example of this figure, the
[0052]
"Other"
Although an example of changing the background color corresponding to a moving image has been described above, these configurations can also be applied to a stationary object. In this case, it is not necessary to switch the background color at high speed.
[0053]
In the present invention, an object is placed in front of two different background colors. Then, the color information of the object is determined based on the image data obtained in any background. Regardless of the background, there is no problem as long as the color of the object can be accurately captured by the camera, but the color information of the object is often influenced by the background color. In this case, the relationship between the colors of various objects photographed with the background colors A and B and the color when the background is an achromatic color such as gray is examined in advance, and the color information of the objects obtained with the two background colors. From this, it is preferable to calculate the color information of the desired object.
[0054]
【The invention's effect】
As described above, according to the present invention, normal object image segmentation is possible even if the object is colorful by taking the logical sum of the object regions (chroma key object segment segmentation) segmented from the object image in two background colors. It can be performed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration of an image processing apparatus including an object image cutout apparatus according to the present invention.
FIG. 2 is a diagram for explaining object region segmentation by logical sum;
FIG. 3 is a flowchart illustrating processing.
FIG. 4 is a diagram showing an example using a projector.
FIG. 5 is a diagram showing an example using a lenticular.
FIG. 6 is a plan view showing an example using a lenticular.
FIG. 7 is a diagram showing an example using a slit barrier.
FIG. 8 is a diagram illustrating an example using a mechanical background plate.
[Explanation of symbols]
DESCRIPTION OF
Claims (3)
前記背景板の物体側に配置されるレンチキュラと、
前記レンチキュラにより分離された前記第1背景色と前記物体とを撮像する第1撮像手段と、
前記レンチキュラにより分離された前記第2背景色と前記物体とを撮像する第2撮像手段と、
前記第1撮像手段により撮像された画像から前記第1背景色以外の部分を物体領域として切り出す第1切り出し手段と、
前記第2撮像手段により撮像された画像から前記第2背景色以外の部分を物体領域として切り出す第2切り出し手段と、
前記第1及び第2切り出し手段において得られた物体領域の論理和をとり物体画像を得る論理和手段と、を有することを特徴とする物体画像切り出し装置。A background plate disposed behind the object and formed with stripes of a first background color and a second background color of different colors;
A lenticular disposed on the object side of the background plate;
First imaging means for imaging the first background color and the object separated by the lenticular;
Second imaging means for imaging the second background color and the object separated by the lenticular;
First cutout means for cutting out a part other than the first background color as an object region from an image picked up by the first image pickup means;
Second cutout means for cutting out a part other than the second background color as an object region from the image picked up by the second image pickup means;
An object image clipping device comprising: a logical sum means for obtaining an object image by taking a logical sum of the object regions obtained by the first and second clipping means.
前記背景板の物体側に配置されるスリットバリアと、
前記スリットバリアにより分離された前記第1背景色と前記物体とを撮像する第1撮像手段と、
前記スリットバリアにより分離された前記第2背景色と前記物体とを撮像する第2撮像手段と、
前記第1撮像手段により撮像された画像から前記第1背景色以外の部分を物体領域として切り出す第1切り出し手段と、
前記第2撮像手段により撮像された画像から前記第2背景色以外の部分を物体領域として切り出す第2切り出し手段と、
前記第1及び第2切り出し手段において得られた物体領域の論理和をとり物体画像を得る論理和手段と、を有することを特徴とする物体画像切り出し装置。A background plate disposed behind the object and formed with stripes of a first background color and a second background color of different colors;
A slit barrier disposed on the object side of the background plate;
First imaging means for imaging the first background color and the object separated by the slit barrier;
Second imaging means for imaging the second background color and the object separated by the slit barrier;
First cutout means for cutting out a part other than the first background color as an object region from an image picked up by the first image pickup means;
Second cutout means for cutting out a part other than the second background color as an object region from the image picked up by the second image pickup means;
An object image clipping device comprising: a logical sum means for obtaining an object image by taking a logical sum of the object regions obtained by the first and second clipping means.
前記背景板の物体側に配置されるレンチキュラと、
前記背景板、又はレンチキュラのいずれか一方を移動させる手段と、
前記レンチキュラにより分離された前記第1背景色と前記物体とを撮像して第1画像を取得したのち、前記レンチキュラにより分離された前記第2背景色と前記物体とを撮像して第2画像を取得する撮像手段と、
前記第1画像から前記第1背景色以外の部分を物体領域として切り出す第1切り出し手段と、
前記第2画像から前記第2背景色以外の部分を物体領域として切り出す第2切り出し手段と、
前記第1及び第2切り出し手段において得られた物体領域の論理和をとり物体画像を得る論理和手段と、を有することを特徴とする物体画像切り出し装置。A background plate disposed behind the object and formed with stripes of a first background color and a second background color of different colors;
A lenticular disposed on the object side of the background plate;
Means for moving either the background plate or the lenticular;
The first background color and the object separated by the lenticular are imaged to obtain a first image, and then the second background color and the object separated by the lenticular are imaged to obtain a second image. Imaging means to obtain;
First cutout means for cutting out a portion other than the first background color from the first image as an object region;
Second cutout means for cutting out a portion other than the second background color from the second image as an object region;
An object image clipping device comprising: a logical sum means for obtaining an object image by taking a logical sum of the object regions obtained by the first and second clipping means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32209898A JP4121639B2 (en) | 1998-11-12 | 1998-11-12 | Object image clipping method, apparatus, system, and medium on which program is recorded |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32209898A JP4121639B2 (en) | 1998-11-12 | 1998-11-12 | Object image clipping method, apparatus, system, and medium on which program is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000152278A JP2000152278A (en) | 2000-05-30 |
JP4121639B2 true JP4121639B2 (en) | 2008-07-23 |
Family
ID=18139904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP32209898A Expired - Fee Related JP4121639B2 (en) | 1998-11-12 | 1998-11-12 | Object image clipping method, apparatus, system, and medium on which program is recorded |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4121639B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008097191A (en) * | 2006-10-10 | 2008-04-24 | Fujifilm Corp | Image synthesis system |
HUE061085T2 (en) * | 2010-09-20 | 2023-05-28 | Fraunhofer Ges Forschung | Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting |
-
1998
- 1998-11-12 JP JP32209898A patent/JP4121639B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000152278A (en) | 2000-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2603834B1 (en) | Method for forming images | |
KR102013978B1 (en) | Method and apparatus for fusion of images | |
CN109348119B (en) | Panoramic monitoring system | |
Gvili et al. | Depth keying | |
EP1889471B1 (en) | Method and apparatus for alternate image/video insertion | |
US20150002636A1 (en) | Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras | |
AU2005331138A1 (en) | 3D image generation and display system | |
US7999862B2 (en) | Method and apparatus for an automated background lighting compensation system | |
KR20090009114A (en) | Method for constructing a composite image | |
WO2015048694A2 (en) | Systems and methods for depth-assisted perspective distortion correction | |
CA2669016A1 (en) | System and method for compositing 3d images | |
KR20070121712A (en) | Positioning a subject with respect to a background scene in a digital camera | |
CN109146799B (en) | Moire pattern removing method based on multiple images | |
Schmeing et al. | Depth image based rendering: A faithful approach for the disocclusion problem | |
US11398007B2 (en) | Video generation device, video generation method, program, and data structure | |
KR102061152B1 (en) | System for providing ar service and method for generating 360 angle rotatable image file thereof | |
JP4121639B2 (en) | Object image clipping method, apparatus, system, and medium on which program is recorded | |
CN115941920B (en) | Naked eye 3D video generation method, device, equipment and storage medium | |
KR101718309B1 (en) | The method of auto stitching and panoramic image genertation using color histogram | |
Oliveira et al. | Lenslet light field panorama creation: a sub-aperture image stitching approach | |
RU2571574C1 (en) | Device to combine images into single composition with smooth contrast transition | |
Smirnov et al. | Layered approach for improving the quality of free-viewpoint depth-image-based rendering images | |
US20020033834A1 (en) | Method of and apparatus for secondary application of film image | |
JP2004128588A (en) | Imaging unit | |
JPH10341374A (en) | Method and device for processing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050609 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070807 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071009 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080115 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080408 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080430 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110509 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110509 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120509 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130509 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |