JP4121639B2 - Object image clipping method, apparatus, system, and medium on which program is recorded - Google Patents

Object image clipping method, apparatus, system, and medium on which program is recorded Download PDF

Info

Publication number
JP4121639B2
JP4121639B2 JP32209898A JP32209898A JP4121639B2 JP 4121639 B2 JP4121639 B2 JP 4121639B2 JP 32209898 A JP32209898 A JP 32209898A JP 32209898 A JP32209898 A JP 32209898A JP 4121639 B2 JP4121639 B2 JP 4121639B2
Authority
JP
Japan
Prior art keywords
image
background
background color
color
lenticular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32209898A
Other languages
Japanese (ja)
Other versions
JP2000152278A (en
Inventor
幸則 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP32209898A priority Critical patent/JP4121639B2/en
Publication of JP2000152278A publication Critical patent/JP2000152278A/en
Application granted granted Critical
Publication of JP4121639B2 publication Critical patent/JP4121639B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Processing Of Color Television Signals (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、特定の背景を用いて物体を撮影し、撮影した画像の中から物体を切り出す物体画像切り出しに関する。
【0002】
【従来の技術】
従来より、画像処理の一手法として、クロマキー技術が知られている。このクロマキー技術とは、放送局などでよく用いられている技術で、複数の映像を合成して新しい映像を作り出すための手法である。
【0003】
例えば、ブルーバックの前で、アナウンサーなどの映像を撮り、これを映像1とする。一方、別に用意した天気図の画面などを映像2とする。そして、映像1の青色成分を透明と見なし、映像2と重ね合わせることで、あたかも天気図の画面の前にアナウンサーが立っているかのような映像を生成する。また、ゲストの写真をとり、これを各種の背景画と合成した写真を提供するサービスなども提供されており、これにもクロマキー技術が利用されている。
【0004】
一方、各種製品の電子カタログや、インターネット上でのグラフィックデータ等として、三次元のCG(コンピュータ・グラフィックス)が利用される機会が増加している。そして、このCGの元画像を作製する場合に、複数の物体画像(シルエット)情報から物体の三次元形状推定を行い、立体再構成(shape from silhouette)を行う手法がある。この手法により、元画像を作成する手間を大幅に減少し、かつ正確な形状の元画像を得ることができる。
【0005】
この手法では、物体を含む画像の中から物体のシルエット情報を得る必要がある。クロマキー技術は物体のシルエット情報を得る一つの有効手段である。すなわち、例えば、物体をブルーバックの前で撮影し、青部分以外の部分を物体のシルエットと見なせば、物体に青色が含まれていない限り、正しいシルエット情報が得られる。
【0006】
このように、クロマキー技術により、物体と異なる色の背景板を用いることで、物体のシルエットを切り出すことができる。
【0007】
【発明が解決しようとする課題】
しかしながら、このクロマキー技術を用いる方法では、カラフルな物体の場合、1)背景板の色の選定が非常に難しい、2)物体の色および切り出しの閾値設定の関係によっては、現実的には物体の切り出しは不可能となる、などという問題があった。特に、2)に関していえば、例えば青色を透明処理する場合、ある程度許容値(例えばHSV空間でH=220−260の間を透明化するなど)を設定しなければならず、カラフルな物体ではこの範囲に入る色が存在する場合が多く、その部分が背景部分と判定されてしまうため、正確な物体の切り出しが困難になってしまう。
【0008】
本発明は、上記課題に鑑みなされたものであり、カラフルな物体でもその切り出しを確実に行うことができる物体画像切り出しに関する。
【0009】
【課題を解決するための手段】
本発明は、特定の背景を用いて物体を撮影し、撮影した画像の中から物体を切り出す物体画像切り出し方法であって、第1背景色の背景の前に置いて物体を撮影し、得られた画像の中から第1背景色以外の部分を物体領域として切り出す第1切り出しステップと、前記第1背景色とは異なる第2背景色の背景の前に置いて物体を撮影し、得られた画像の中から第2背景色以外の部分を物体領域として切り出す第2切り出しステップと、第1及び第2切り出しステップにおいて得られた物体領域の論理和をとり物体画像を得る論理和ステップと、を有することを特徴とする。
【0010】
このように、2つの背景色における物体の画像から切り出した物体領域の論理和をとることで、物体がカラフルなものでも正常な物体画像切り出しを行うことができる。
【0011】
また、前記背景色に用いる第1背景色と、第2背景色とは、色空間において距離の遠い色相を有する色であることが好適である。より具体的には、例えば色相空間において60度以上離れている色とすることが好適である。このように、2つの背景色を十分に遠い距離関係にある色相にすることにより、1つの背景色において、背景色領域と誤認識された物体領域は、他の背景色で必ず物体領域と認識される。このため、論理和をとったあとの最終的に切り出された物体画像は、正しいものになる。
【0012】
また、前記第1および第2切り出しステップにおける物体の撮影を物体に対する方向を異ならせてそれぞれ複数回行い、前記論理和ステップでは、第1切り出しステップと第2切り出しステップにおいて得られた対応する物体領域同士の論理和をとり、複数の物体画像を得、得られた複数の物体画像に基づいて、物体の三次元画像を得ることが好適である。このような処理により、切り出された物体画像を用いて、物体の三次元画像を得ることができる。例えば、テーブルの上に三次元画像が欲しい物体を置き、これを回転させて撮影することで、その物体の三次元画像を得ることができる。そして、その三次元画像を元に各種のCG画像を作成することができる。
【0013】
また、第1及び第2背景色前の物体領域の対を視野角の異なる2つの撮像手段によって順次得、動く物体についての物体画像を切り出すことが好適である。上記視野角の違いが、物体画像に影響のない程度であれば、2つの撮像手段において得られる物体領域により正しい物体画像の切り出しが行える。
【0014】
また、第1背景色の背景と、第2背景色の背景を高速に切り換え、物体の動きを無視できる第1及び第2背景色前の物体領域の対を物体の動きに応じて順次得、動く物体についての物体画像を切り出すことが好適である。
【0015】
また、本発明は、上述した物体切り出し方法を実施する装置及びこの動作のためのプログラムを記憶した媒体に関する。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。
【0017】
図1は、本発明に係る物体画像切り出し装置を含む画像処理装置の全体構成を示すブロック図である。CCDカメラなどで構成される画像入力部10からの撮像データは、記憶部12に供給され、記憶される。この記憶部12は、RAM、ハードディスク、光磁気ディスクなど各種のもので構成できる。
【0018】
記憶部12には、物体切り出し部14が接続されている。この物体切り出し部14は、記憶部12に記憶されている特定の色の部分を排除し、物体の領域を切り出す。そして、その結果を記憶部12に記憶する。ここで、物体の領域の切り出しの際には、画像データをHSVデータに変換し、色が背景の色と同一と見なされる範囲内の部分を排除することで行う。例えば、青色であれば、H=220−260の部分を背景部分と認識すればよい。
【0019】
特に、本発明では、2種類の色の背景における画像のペアについて、それぞれ物体画像の領域(物体領域)を切り出し、切り出した物体領域の論理和をとることによって、最終的な物体画像を切り出す。そして、この切り出し結果の物体画像についてのデータを記憶部12に記憶する。
【0020】
記憶部12には、画像処理部16も接続されている。この画像処理部16は、記憶部12に記憶されている画像データについて、各種の処理を施す。本実施形態では、1つの物体について撮影角度が異なる画像データを複数得、この複数の二次元画像に基づいて、三次元形状を構築し、これを記憶部12に記憶する。また、画像処理部16は、生成した三次元形状データに基づいて、三次元CGデータを生成する。
【0021】
画像処理部16には、画像出力部18が接続されており、画像処理部16において、作成した各種画像を表示する。画像出力部18は、CRTやLCDなどのディスプレイで構成される。なお、画像出力部18には、記憶部12に記憶される各種画像データに基づく表示も行われる。
【0022】
ここで、上記構成のすべてを1つのコンピュータシステムとして構成してもよいが、カメラを別体としてコンピュータと通信で接続するように構成してもよい。この場合、カメラにメモリカードを内蔵し、そのメモリカードからのデータをコンピュータに入力することが好適である。
【0023】
また、物体切り出し部14、画像処理部16の動作プログラムは記憶部12に記憶されており、この動作プログラムに従って、コンピュータが動作することによって、物体切り出し部14及び画像処理部16の各種動作が達成される。動作プログラムは、CD−ROMなどの記憶媒体からロードすることもできるし、また通信で入手しロードすることもできる。
【0024】
次に、本実施形態による物体画像の切り出しについて、図2に基づいて説明する。
【0025】
まず、物体を背景色Aと、背景色Bの前に置いて撮像し一対の画像データを画像入力部10において得る。物体切り出し部14においては、背景色A及び背景色Bの色と同一の色の領域を一対の画像データからそれぞれ排除することによって、一対の切り出し物体領域を得る。この例では、物体の頭部の色が背景色Aと同一であり、物体の左脚の色が背景色Bと同一である。従って、背景色Aの画像から切り出した物体領域は、頭部が欠けており、背景色Bの画像から切り出した物体領域は左足が欠けている。しかし、両者の論理和をとることにより、完全な物体の領域が得られる。
【0026】
背景Aと背景Bとは、HSV空間においてなるべく離れた関係(補色の関係)にある赤と青などの色を採用することが好適である。これによって、背景色Aと同一と認識された物体部分は、必ず背景色Bとは異なり、最終的に物体の領域として切り出される。すなわち、色相の十分異なる2種類の背景板を使えば、仮に一つの背景色で背景と物体との差が認められない場合でも、もう一方の背景色では必ず背景と物体との差が認められる。従って、物体が、各種の色を含むカラフルなものであっても、物体を確実に切り出すことができる。
【0027】
次に、このような物体切り出しを写真の合成に利用した場合の処理フローを図3に基づいて説明する。
【0028】
まず、画像入力部10からの背景色Aでの画像を記憶部12を介し、物体切り出し部14に入力する(S11)。次に、画像入力部10からの背景色Bでの画像を記憶部12を介し、物体切り出し部14に入力する(S12)。例えば、背景色Aの背景板と、背景色Bの背景板を用意しておき、これを入れ替えて、物体を撮影すればよい。
【0029】
そして、背景色Aの色の領域を排除することで、物体の領域のマスク画像Cが切り出される(S13)。次に、背景色Bの色の領域を排除することで、物体の領域のマスク画像Dが切り出される(S14)。そして、マスク画像Cと画像Dの論理和をとることで最終的な物体画像の切り出しが行われ、最終マスク画像Eが得られる(S15)。
【0030】
さらに、最終マスク画像と、予め用意してある原画像を重ね合わせることによって、原画像上に物体画像を重ね合わせた合成写真が得られる(S16)。なお、得られた最終マスク画像Eの各画素の色情報(RGB情報)は、元々の2つの画像データ(背景色A及び背景色Bの画像データ)のいずれかの色情報に基づき決定すればよい。なお、シルエット情報のみ必要な場合には、当然ながらS16のステップは不要である。
【0031】
ここで、三次元画像データを得る場合には、S11〜S15の処理を物体の撮影方向を変更して複数回繰り返す。例えば、物体を回転テーブルの上に置き、S15の終了後、回転テーブルを所定角度回転させた後S11に戻り、次の撮影方向の画像を得ればよい。なお、S11、12を行った後、回転テーブルを回転し撮影方向を変更し、またS11に戻り、画像の取り込みを繰り返してもよい。これによって、一定撮影方向の2つの画像データの対を複数得ることができ、この処理によって複数の物体のマスク画像を得ることができる。
【0032】
そして、複数の最終マスク画像から公知の手法によって、物体の三次元画像データを得る。このように、物体の三次元画像データを得ておけば、これについて任意の変更を容易に行うことができ、各種のCG画面を生成したり、立体映像による電子カタログなどを容易に生成することができる。
【0033】
ここで、本発明では、背景色を変更する必要がある。上述の例では、物体を載置した状態で、背景板を取り替えた。しかし、背景色の変更には、このほかに各種の方法がある。
【0034】
図4に示したのは、背景色の変更にプロジェクタ30を利用した例である。画像入力部10であるカメラの前方に物体32が配置されている。そして、その背後に、裏面からの投射画像を表示する背景板(スクリーン)34が配置されている。プロジェクタ30は、背景板34に背景色A、背景色Bを交互に投射する。これによって、背景板の入れ替えなどの作業を行うことなく、2つの背景色の画像データを得ることができる。
【0035】
次に、物体が動く場合に、この動画から物体領域を切り出す処理について、説明する。
【0036】
「レンチキュラの利用」
図5、6に示したのは、動画からの切り出しの一例を示す図であり、この例では、2つの背景色A,Bのストライプが形成された背景板40を用意する。そして、この背景板40の手前側にレンチキュラ42を配置する。レンチキュラ42は、複数のシリンドリカルレンズを並べて配置したもので、背景板40のストライプに合致したシリンドリカルレンズからなっている。従って、画像入力部10である2つのカメラA,Bの視野角を所定角度だけ変更することで、カメラAでは背景色A、カメラBでは背景色Bとなる(見える背景色は反対でもよい)。そこで、2つのカメラA,Bにおいて、背景色A,Bの物体の画像の対を得ることができ、上述の同様の処理により、物体画像を切り出すことができる。そして、同時に2つの画像を得ることができるため、物体が動いていても問題なく一対の画像を得ることができ、動画からの物体画像の切り出しが行える。
【0037】
なお、視野角の相違により、カメラA,Bとで、物体の画像が若干異なるが、ある程度物体から離れていれば、この差は無視することができる。また、この差に起因する物体の画像が存在する領域は、物体の位置及びカメラA,Bの位置に基づいてわかるため、この部分について所定の画像処理を行い、悪影響がでないようにしてもよい。
【0038】
また、背景板40またはレンチキュラ42を移動させれば、カメラを1台として、背景色の異なる一対の画像を時系列で得ることができる。そこで、物体の動きに対し、十分高速で背景板40またはレンチキュラ42を移動し、ほぼ同一の位置における異なる背景色の画像を得ることで、動画に適用することができる。
【0039】
「スリットバリアの利用」
図7に示したのは、スリットバリア50を利用した例である。上述のレンチキュラを利用した場合と同様の2つの背景色A,Bのストライプが形成された背景板52の手前にストライプに対応したスリットを有するスリットバリア50を配置する。これを上述の場合と同様の位置の異なるカメラA,Bで撮影することによって、カメラAからは、背景板40の背景色Aのみが見え、カメラBからは背景色Bのみが見えるようにできる(見える背景色は反対でもよい)。
【0040】
このようにすることによって、カメラA,Bにおいて、レンチキュラを用いた場合と同様に、異なる背景色の画像を得ることができる。また、背景板52またはスリットバリア50のいずれかを移動してカメラを1台にすることもできる。
【0041】
ここで、このスリットバリア50を用いると、スリットバリア50自体が撮影される。従って、このスリットバリア50の画像を除去する必要がある。なお、スリットバリア50としては、黒などが利用される。
【0042】
このスリットバリア50の除去には、撮影した画像について、max−minフィルタなどのフィルタ処理を利用することができる。
【0043】
このmax−minフィルタとは画像に対し、一度maxフィルタをかけ、その後、minフィルタをかけるものである。
【0044】
maxフィルタとは、対象画素(i,j)に対し、その周囲の所定範囲(±n,±m)内の最大値(例えば、輝度の最大値)を採用するフィルタである。処理対象の画素の値をv(i,j)とした場合、その値は次のように表される。
【0045】
【数1】
v(i,j)= MAX(v(k,l))
k=i−n〜i+n,l=j−m〜j+m
このmaxフィルタにより、黒の画素は、周囲の最大輝度に置き換えられ、黒のストライプは、除去される。
【0046】
minフィルタとは、対象画素(i,j)に対し、その周囲の所定範囲(±n,±m)内の最小値(例えば、輝度の最小値)を採用するフィルタである。処理対象の画素の値をv(i,j)とした場合、その値は次のように表される。
【0047】
【数2】
v(i,j) = MIN(v(k,l))
k=i−n〜i+n,l=j−m〜j+m
このmaxフィルタにより、一旦周囲の最大輝度に置き換えられた画素がその周囲の最小輝度に置き換えられる。これによって、黒のストライプは、除去され、背景色を均一化することができる。なお、m,nは、通常1〜3とするが、ストライプの太さを対応させておくことが必要である。
【0048】
また、ストライプは予めどのような画像になるか(ストライプの方向には連続することなど)わかっているため、ストライプの性状を考慮して除去のための画像処理を行うことが好適である。
【0049】
また、カメラの焦点が対象物に合っているが、背景には合っておらず、黒ストライプが明確に写らない場合には、max−minフィルタが不要な場合もある。特に背景と対象物の距離が大きい場合や、焦点深度の浅いレンズを用いる場合には、このような場合が存在する。
【0050】
「プロジェクタの利用」
図4に示したプロジェクタを利用する例において、プロジェクタ30において、背景板34に投射する背景色を高速に切り換えることで、2つの背景色A,Bにおける物体の画像の対を得ることができる。物体の動きに比べて十分高速に背景色の切り換えを行えば、これによっても上述の場合と同様の物体画像の切り出しが行える。
【0051】
「機械式」
図8に示したのは、機械式の背景色変換の機構を示す図である。この図の例では、背景板60が複数の背景板素子62からなっている。そして、この背景板素子62は、表面と裏面において色が異なっている。従って、この背景板素子62を回転させ、何れの面をカメラ側にするかで、背景板60の色を変更することができる。すべての背景板素子62を同時に高速で回転させ、背景板60を背景色Aから背景色Bに変更し、その前後の画像を得ることで、対象物についての背景色A,Bの一対の画像を得ることができる。
【0052】
「その他」
動画に対応する背景色の変更の例を上述したが、これらの構成は、静止する物体についても適用することが可能である。なお、この場合には、背景色を高速に切り換える必要はない。
【0053】
また、本発明では、2つの異なる背景色の前に物体を置いて撮影する。そして、物体の色情報は、いずれかの背景において得られた画像データに基づいて決定する。背景によらず、物体の色を正確にカメラで撮影できれば問題ないが、物体の色情報が背景色の影響を受ける場合が多い。この場合には、背景色A,Bにおいて撮影した各種物体の色と、背景がグレーなどの無彩色の場合の色との関係を予め調べておき、2つの背景色において得た物体の色情報から、所望の物体の色情報を算出することが好適である。
【0054】
【発明の効果】
以上説明したように、本発明によれば、2つの背景色における物体の画像から切り出した物体領域(クロマキー物体領域切り出し)の論理和をとることで、物体がカラフルなものでも正常な物体画像切り出しを行うことができる。
【図面の簡単な説明】
【図1】 本発明に係る物体画像切り出し装置を含む画像処理装置の全体構成を示すブロック図である。
【図2】 論理和による物体領域切り出しを説明する図である。
【図3】 処理を説明するフローチャートである。
【図4】 プロジェクタを用いた例を示す図である。
【図5】 レンチキュラを用いた例を示す図である。
【図6】 レンチキュラを用いた例を示す平面図である。
【図7】 スリットバリアを用いた例を示す図である。
【図8】 機械式の背景板を用いた例を示す図である。
【符号の説明】
10 画像入力部、12 記憶部、14 物体切り出し部、16 画像処理部、18 画像出力部、30 プロジェクタ、34,40,52,60 背景板、42 レンチキュラ、50 スリットバリア、62 背景板素子。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to object image segmentation in which an object is photographed using a specific background and the object is segmented from the captured image.
[0002]
[Prior art]
Conventionally, a chroma key technique is known as a method of image processing. This chroma key technique is a technique often used in broadcasting stations and the like, and is a technique for synthesizing a plurality of videos to create a new video.
[0003]
For example, an image of an announcer or the like is taken in front of the blue background, and this is taken as image 1. On the other hand, a screen of a weather map prepared separately is referred to as video 2. Then, the blue component of the video 1 is regarded as transparent and is superimposed on the video 2 to generate a video as if an announcer is standing in front of the weather map screen. There are also services that take photos of guests and provide photos that are synthesized with various background images. Chroma key technology is also used for this.
[0004]
On the other hand, there are increasing opportunities to use three-dimensional CG (computer graphics) as electronic catalogs for various products, graphic data on the Internet, and the like. And when producing this CG original image, there exists a method of estimating the three-dimensional shape of an object from a plurality of object image (silhouette) information and performing a three-dimensional reconstruction (shape from silhouette). By this method, the labor for creating the original image can be greatly reduced, and an original image having an accurate shape can be obtained.
[0005]
In this method, it is necessary to obtain silhouette information of an object from an image including the object. The chroma key technique is one effective means for obtaining silhouette information of an object. That is, for example, if an object is photographed in front of a blue background and a part other than the blue part is regarded as the silhouette of the object, correct silhouette information can be obtained as long as the object does not contain blue.
[0006]
In this way, the silhouette of an object can be cut out by using a background plate of a color different from that of the object by the chroma key technique.
[0007]
[Problems to be solved by the invention]
However, with this method using the chroma key technique, in the case of a colorful object, 1) it is very difficult to select the color of the background board. There was a problem that it was impossible to cut out. In particular, with regard to 2), for example, when transparent processing is performed on blue, an allowable value (for example, transparency between H = 220-260 in the HSV space) must be set to some extent. In many cases, there are colors that fall within the range, and the portion is determined to be the background portion, which makes it difficult to accurately cut out the object.
[0008]
The present invention has been made in view of the above problems, and relates to an object image segmentation that can reliably segment even a colorful object.
[0009]
[Means for Solving the Problems]
The present invention is an object image cutout method for shooting an object using a specific background, and cutting out the object from the shot image, which is obtained by shooting an object placed in front of a background of a first background color. A first cutout step of cutting out a portion other than the first background color as an object area from the captured image, and shooting the object in front of a background of a second background color different from the first background color. A second cutout step of cutting out a portion other than the second background color as an object region from the image, and a logical sum step of obtaining an object image by taking the logical sum of the object regions obtained in the first and second cutout steps. It is characterized by having.
[0010]
In this way, by taking the logical sum of the object regions cut out from the image of the object in the two background colors, it is possible to cut out a normal object image even if the object is colorful.
[0011]
Further, it is preferable that the first background color and the second background color used for the background color are colors having hues that are far from each other in the color space. More specifically, for example, a color that is 60 degrees or more apart in the hue space is preferable. In this way, by setting the two background colors to hues that are sufficiently distant from each other, an object region that is erroneously recognized as a background color region in one background color is always recognized as an object region in another background color. Is done. For this reason, the object image finally cut out after the logical sum is taken is correct.
[0012]
Further, the imaging of the object in the first and second clipping steps is performed a plurality of times with different directions with respect to the object, and the corresponding object region obtained in the first clipping step and the second clipping step is performed in the logical sum step. It is preferable to obtain a plurality of object images by obtaining a logical sum of them, and to obtain a three-dimensional image of the object based on the obtained plurality of object images. By such processing, it is possible to obtain a three-dimensional image of the object using the cut object image. For example, a three-dimensional image of the object can be obtained by placing an object on which a three-dimensional image is desired on the table, rotating the object, and photographing the object. Various CG images can be created based on the three-dimensional image.
[0013]
In addition, it is preferable that a pair of object regions before the first and second background colors is sequentially obtained by two imaging units having different viewing angles, and an object image of a moving object is cut out. If the difference in the viewing angle is such that the object image is not affected, a correct object image can be cut out by the object regions obtained by the two imaging units.
[0014]
Further, the background of the first background color and the background of the second background color are switched at high speed, and a pair of object regions before the first and second background colors that can ignore the movement of the object are sequentially obtained according to the movement of the object, It is preferable to cut out an object image of a moving object.
[0015]
The present invention also relates to an apparatus for performing the above-described object cutting method and a medium storing a program for this operation.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.
[0017]
FIG. 1 is a block diagram showing the overall configuration of an image processing apparatus including an object image cutout apparatus according to the present invention. Imaging data from the image input unit 10 composed of a CCD camera or the like is supplied to and stored in the storage unit 12. The storage unit 12 can be composed of various types such as a RAM, a hard disk, and a magneto-optical disk.
[0018]
An object cutout unit 14 is connected to the storage unit 12. The object cutout unit 14 excludes a specific color portion stored in the storage unit 12 and cuts out an object region. Then, the result is stored in the storage unit 12. Here, when the object region is cut out, the image data is converted into HSV data, and the portion in the range where the color is considered to be the same as the background color is excluded. For example, in the case of blue, the portion of H = 220-260 may be recognized as the background portion.
[0019]
In particular, according to the present invention, a final object image is cut out by cutting out a region (object region) of an object image for each pair of images in a background of two kinds of colors and taking the logical sum of the cut out object regions. Then, the data about the object image as a result of the cutout is stored in the storage unit 12.
[0020]
An image processing unit 16 is also connected to the storage unit 12. The image processing unit 16 performs various processes on the image data stored in the storage unit 12. In the present embodiment, a plurality of pieces of image data with different shooting angles are obtained for one object, a three-dimensional shape is constructed based on the plurality of two-dimensional images, and this is stored in the storage unit 12. Further, the image processing unit 16 generates three-dimensional CG data based on the generated three-dimensional shape data.
[0021]
An image output unit 18 is connected to the image processing unit 16, and the image processing unit 16 displays various created images. The image output unit 18 includes a display such as a CRT or LCD. The image output unit 18 also performs display based on various image data stored in the storage unit 12.
[0022]
Here, all of the above-described configurations may be configured as one computer system, but the camera may be configured as a separate unit and connected to the computer by communication. In this case, it is preferable to incorporate a memory card in the camera and input data from the memory card to the computer.
[0023]
The operation programs of the object cutout unit 14 and the image processing unit 16 are stored in the storage unit 12, and various operations of the object cutout unit 14 and the image processing unit 16 are achieved by operating the computer according to the operation program. Is done. The operation program can be loaded from a storage medium such as a CD-ROM, or can be obtained and loaded by communication.
[0024]
Next, extraction of an object image according to the present embodiment will be described with reference to FIG.
[0025]
First, an object is imaged by placing it in front of the background color A and the background color B, and a pair of image data is obtained in the image input unit 10. The object cutout unit 14 obtains a pair of cutout object areas by excluding the same color areas as the background color A and the background color B from the pair of image data. In this example, the color of the head of the object is the same as the background color A, and the color of the left leg of the object is the same as the background color B. Therefore, the object region cut out from the background color A image has a missing head, and the object region cut out from the background color B image has a left foot missing. However, by taking the logical sum of the two, a complete object region can be obtained.
[0026]
For the background A and the background B, it is preferable to employ colors such as red and blue that are in a relationship as far as possible in the HSV space (complementary color relationship). Thus, the object portion recognized as the same as the background color A is different from the background color B and is finally cut out as an object region. In other words, if two types of background boards with sufficiently different hues are used, even if the difference between the background and the object is not recognized with one background color, the difference between the background and the object is always recognized with the other background color. . Therefore, even if the object is colorful including various colors, the object can be reliably cut out.
[0027]
Next, a processing flow in the case where such object cutout is used for the composition of a photograph will be described with reference to FIG.
[0028]
First, an image with the background color A from the image input unit 10 is input to the object cutout unit 14 via the storage unit 12 (S11). Next, an image of the background color B from the image input unit 10 is input to the object cutout unit 14 via the storage unit 12 (S12). For example, a background plate of background color A and a background plate of background color B may be prepared, and these may be exchanged to photograph the object.
[0029]
Then, the mask image C of the object region is cut out by eliminating the color region of the background color A (S13). Next, the mask image D of the object region is cut out by eliminating the background color B color region (S14). Then, the final object image is cut out by taking the logical sum of the mask image C and the image D, and the final mask image E is obtained (S15).
[0030]
Furthermore, by superimposing the final mask image and the original image prepared in advance, a composite photograph in which the object image is superimposed on the original image is obtained (S16). In addition, if the color information (RGB information) of each pixel of the obtained final mask image E is determined based on the color information of one of the original two image data (image data of the background color A and the background color B). Good. If only silhouette information is required, the step S16 is not necessary.
[0031]
Here, when obtaining three-dimensional image data, the processes of S11 to S15 are repeated a plurality of times while changing the shooting direction of the object. For example, an object may be placed on a rotary table, and after completion of S15, the rotary table may be rotated by a predetermined angle, and then the process may return to S11 to obtain an image in the next shooting direction. Note that after performing S11 and S12, the rotary table may be rotated to change the shooting direction, and the process may return to S11 to repeat image capture. Thereby, a plurality of pairs of two image data in a fixed photographing direction can be obtained, and a mask image of a plurality of objects can be obtained by this processing.
[0032]
Then, three-dimensional image data of the object is obtained from the plurality of final mask images by a known method. In this way, if 3D image data of an object is obtained, any change can be easily made, and various CG screens can be easily generated, or an electronic catalog using stereoscopic images can be easily generated. Can do.
[0033]
Here, in the present invention, it is necessary to change the background color. In the above example, the background plate was replaced with the object placed. However, there are various other methods for changing the background color.
[0034]
FIG. 4 shows an example in which the projector 30 is used for changing the background color. An object 32 is arranged in front of the camera that is the image input unit 10. A background plate (screen) 34 for displaying a projected image from the back surface is disposed behind the screen. The projector 30 projects the background color A and the background color B alternately on the background plate 34. Thereby, image data of two background colors can be obtained without performing work such as replacement of the background plate.
[0035]
Next, a process for extracting an object region from this moving image when the object moves will be described.
[0036]
"Use of lenticular"
5 and 6 are diagrams showing an example of cutting out from a moving image. In this example, a background plate 40 on which stripes of two background colors A and B are formed is prepared. Then, a lenticular 42 is disposed on the front side of the background plate 40. The lenticular 42 includes a plurality of cylindrical lenses arranged side by side, and is formed of a cylindrical lens that matches the stripe of the background plate 40. Therefore, by changing the viewing angles of the two cameras A and B as the image input unit 10 by a predetermined angle, the camera A becomes the background color A and the camera B becomes the background color B (the visible background color may be opposite). . Therefore, in the two cameras A and B, a pair of images of the objects of the background colors A and B can be obtained, and the object image can be cut out by the same processing as described above. Since two images can be obtained simultaneously, a pair of images can be obtained without any problem even if the object is moving, and the object image can be cut out from the moving image.
[0037]
Note that the image of the object is slightly different between the cameras A and B due to the difference in viewing angle, but this difference can be ignored if it is far away from the object to some extent. In addition, since the area where the image of the object due to this difference exists is known based on the position of the object and the positions of the cameras A and B, predetermined image processing may be performed on this part so as not to have an adverse effect. .
[0038]
Further, if the background plate 40 or the lenticular 42 is moved, a pair of images with different background colors can be obtained in time series using a single camera. Therefore, by moving the background plate 40 or the lenticular 42 at a sufficiently high speed with respect to the movement of the object and obtaining images of different background colors at substantially the same position, it can be applied to a moving image.
[0039]
"Use of slit barrier"
FIG. 7 shows an example using the slit barrier 50. A slit barrier 50 having slits corresponding to the stripes is arranged in front of the background plate 52 on which the stripes of the two background colors A and B are formed as in the case of using the lenticular described above. By photographing this with the cameras A and B having different positions as in the above case, only the background color A of the background plate 40 can be seen from the camera A, and only the background color B can be seen from the camera B. (The visible background color may be the opposite.)
[0040]
By doing in this way, images of different background colors can be obtained in the cameras A and B, as in the case of using the lenticular. Further, either the background plate 52 or the slit barrier 50 can be moved to make one camera.
[0041]
Here, when this slit barrier 50 is used, the slit barrier 50 itself is photographed. Therefore, it is necessary to remove the image of the slit barrier 50. For the slit barrier 50, black or the like is used.
[0042]
For the removal of the slit barrier 50, a filter process such as a max-min filter can be used for the photographed image.
[0043]
This max-min filter applies a max filter to an image once and then applies a min filter.
[0044]
The max filter is a filter that employs a maximum value (for example, a maximum value of luminance) within a predetermined range (± n, ± m) around the target pixel (i, j). When the value of the pixel to be processed is v (i, j), the value is expressed as follows.
[0045]
[Expression 1]
v (i, j) = MAX (v (k, l))
k = i−n to i + n, l = j−m to j + m
With this max filter, the black pixels are replaced with the surrounding maximum luminance, and the black stripes are removed.
[0046]
The min filter is a filter that employs a minimum value (for example, a minimum value of luminance) within a predetermined range (± n, ± m) around the target pixel (i, j). When the value of the pixel to be processed is v (i, j), the value is expressed as follows.
[0047]
[Expression 2]
v (i, j) = MIN (v (k, l))
k = i−n to i + n, l = j−m to j + m
By this max filter, the pixel once replaced with the maximum surrounding luminance is replaced with the minimum luminance around it. Thereby, the black stripe is removed, and the background color can be made uniform. Note that m and n are normally 1 to 3, but it is necessary to correspond to the thickness of the stripe.
[0048]
Also, the stripe since known in advance what will image (such as by continuous in the direction of the stripe), it is preferable to perform the image processing for removal by considering the properties of the stripes.
[0049]
Further, if the camera is focused on the object but not the background, and the black stripe is not clearly visible, the max-min filter may not be necessary. Such a case exists particularly when the distance between the background and the object is large or when a lens having a shallow focal depth is used.
[0050]
"Using a projector"
In the example using the projector shown in FIG. 4, the projector 30 can obtain a pair of object images in the two background colors A and B by switching the background color projected onto the background plate 34 at high speed. If the background color is switched sufficiently faster than the movement of the object, the object image can be cut out in the same manner as described above.
[0051]
"Mechanical"
FIG. 8 shows a mechanical background color conversion mechanism. In the example of this figure, the background plate 60 is composed of a plurality of background plate elements 62. The background plate element 62 has different colors on the front surface and the back surface. Therefore, the color of the background plate 60 can be changed by rotating the background plate element 62 and setting which surface is the camera side. All the background plate elements 62 are simultaneously rotated at a high speed, the background plate 60 is changed from the background color A to the background color B, and images before and after that are obtained, so that a pair of images of the background colors A and B for the object is obtained. Can be obtained.
[0052]
"Other"
Although an example of changing the background color corresponding to a moving image has been described above, these configurations can also be applied to a stationary object. In this case, it is not necessary to switch the background color at high speed.
[0053]
In the present invention, an object is placed in front of two different background colors. Then, the color information of the object is determined based on the image data obtained in any background. Regardless of the background, there is no problem as long as the color of the object can be accurately captured by the camera, but the color information of the object is often influenced by the background color. In this case, the relationship between the colors of various objects photographed with the background colors A and B and the color when the background is an achromatic color such as gray is examined in advance, and the color information of the objects obtained with the two background colors. From this, it is preferable to calculate the color information of the desired object.
[0054]
【The invention's effect】
As described above, according to the present invention, normal object image segmentation is possible even if the object is colorful by taking the logical sum of the object regions (chroma key object segment segmentation) segmented from the object image in two background colors. It can be performed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration of an image processing apparatus including an object image cutout apparatus according to the present invention.
FIG. 2 is a diagram for explaining object region segmentation by logical sum;
FIG. 3 is a flowchart illustrating processing.
FIG. 4 is a diagram showing an example using a projector.
FIG. 5 is a diagram showing an example using a lenticular.
FIG. 6 is a plan view showing an example using a lenticular.
FIG. 7 is a diagram showing an example using a slit barrier.
FIG. 8 is a diagram illustrating an example using a mechanical background plate.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Image input part, 12 Memory | storage part, 14 Object cutout part, 16 Image processing part, 18 Image output part, 30 Projector, 34,40,52,60 Background board, 42 Lenticular, 50 Slit barrier, 62 Background board element.

Claims (3)

物体の背後に配置され、色が異なる第1背景色及び第2背景色のストライプが形成された背景板と、
前記背景板の物体側に配置されるレンチキュラと、
前記レンチキュラにより分離された前記第1背景色と前記物体とを撮像する第1撮像手段と、
前記レンチキュラにより分離された前記第2背景色と前記物体とを撮像する第2撮像手段と、
前記第1撮像手段により撮像された画像から前記第1背景色以外の部分を物体領域として切り出す第1切り出し手段と、
前記第2撮像手段により撮像された画像から前記第2背景色以外の部分を物体領域として切り出す第2切り出し手段と、
前記第1及び第2切り出し手段において得られた物体領域の論理和をとり物体画像を得る論理和手段と、を有することを特徴とする物体画像切り出し装置。
A background plate disposed behind the object and formed with stripes of a first background color and a second background color of different colors;
A lenticular disposed on the object side of the background plate;
First imaging means for imaging the first background color and the object separated by the lenticular;
Second imaging means for imaging the second background color and the object separated by the lenticular;
First cutout means for cutting out a part other than the first background color as an object region from an image picked up by the first image pickup means;
Second cutout means for cutting out a part other than the second background color as an object region from the image picked up by the second image pickup means;
An object image clipping device comprising: a logical sum means for obtaining an object image by taking a logical sum of the object regions obtained by the first and second clipping means.
物体の背後に配置され、色が異なる第1背景色及び第2背景色のストライプが形成された背景板と、
前記背景板の物体側に配置されるスリットバリアと、
前記スリットバリアにより分離された前記第1背景色と前記物体とを撮像する第1撮像手段と、
前記スリットバリアにより分離された前記第2背景色と前記物体とを撮像する第2撮像手段と、
前記第1撮像手段により撮像された画像から前記第1背景色以外の部分を物体領域として切り出す第1切り出し手段と、
前記第2撮像手段により撮像された画像から前記第2背景色以外の部分を物体領域として切り出す第2切り出し手段と、
前記第1及び第2切り出し手段において得られた物体領域の論理和をとり物体画像を得る論理和手段と、を有することを特徴とする物体画像切り出し装置。
A background plate disposed behind the object and formed with stripes of a first background color and a second background color of different colors;
A slit barrier disposed on the object side of the background plate;
First imaging means for imaging the first background color and the object separated by the slit barrier;
Second imaging means for imaging the second background color and the object separated by the slit barrier;
First cutout means for cutting out a part other than the first background color as an object region from an image picked up by the first image pickup means;
Second cutout means for cutting out a part other than the second background color as an object region from the image picked up by the second image pickup means;
An object image clipping device comprising: a logical sum means for obtaining an object image by taking a logical sum of the object regions obtained by the first and second clipping means.
物体の背後に配置され、色が異なる第1背景色及び第2背景色のストライプが形成された背景板と、
前記背景板の物体側に配置されるレンチキュラと、
前記背景板、又はレンチキュラのいずれか一方を移動させる手段と、
前記レンチキュラにより分離された前記第1背景色と前記物体とを撮像して第1画像を取得したのち、前記レンチキュラにより分離された前記第2背景色と前記物体とを撮像して第2画像を取得する撮像手段と、
前記第1画像から前記第1背景色以外の部分を物体領域として切り出す第1切り出し手段と、
前記第2画像から前記第2背景色以外の部分を物体領域として切り出す第2切り出し手段と、
前記第1及び第2切り出し手段において得られた物体領域の論理和をとり物体画像を得る論理和手段と、を有することを特徴とする物体画像切り出し装置。
A background plate disposed behind the object and formed with stripes of a first background color and a second background color of different colors;
A lenticular disposed on the object side of the background plate;
Means for moving either the background plate or the lenticular;
The first background color and the object separated by the lenticular are imaged to obtain a first image, and then the second background color and the object separated by the lenticular are imaged to obtain a second image. Imaging means to obtain;
First cutout means for cutting out a portion other than the first background color from the first image as an object region;
Second cutout means for cutting out a portion other than the second background color from the second image as an object region;
An object image clipping device comprising: a logical sum means for obtaining an object image by taking a logical sum of the object regions obtained by the first and second clipping means.
JP32209898A 1998-11-12 1998-11-12 Object image clipping method, apparatus, system, and medium on which program is recorded Expired - Fee Related JP4121639B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32209898A JP4121639B2 (en) 1998-11-12 1998-11-12 Object image clipping method, apparatus, system, and medium on which program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32209898A JP4121639B2 (en) 1998-11-12 1998-11-12 Object image clipping method, apparatus, system, and medium on which program is recorded

Publications (2)

Publication Number Publication Date
JP2000152278A JP2000152278A (en) 2000-05-30
JP4121639B2 true JP4121639B2 (en) 2008-07-23

Family

ID=18139904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32209898A Expired - Fee Related JP4121639B2 (en) 1998-11-12 1998-11-12 Object image clipping method, apparatus, system, and medium on which program is recorded

Country Status (1)

Country Link
JP (1) JP4121639B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097191A (en) * 2006-10-10 2008-04-24 Fujifilm Corp Image synthesis system
HUE061085T2 (en) * 2010-09-20 2023-05-28 Fraunhofer Ges Forschung Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting

Also Published As

Publication number Publication date
JP2000152278A (en) 2000-05-30

Similar Documents

Publication Publication Date Title
EP2603834B1 (en) Method for forming images
KR102013978B1 (en) Method and apparatus for fusion of images
CN109348119B (en) Panoramic monitoring system
Gvili et al. Depth keying
EP1889471B1 (en) Method and apparatus for alternate image/video insertion
US20150002636A1 (en) Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
AU2005331138A1 (en) 3D image generation and display system
US7999862B2 (en) Method and apparatus for an automated background lighting compensation system
KR20090009114A (en) Method for constructing a composite image
WO2015048694A2 (en) Systems and methods for depth-assisted perspective distortion correction
CA2669016A1 (en) System and method for compositing 3d images
KR20070121712A (en) Positioning a subject with respect to a background scene in a digital camera
CN109146799B (en) Moire pattern removing method based on multiple images
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
US11398007B2 (en) Video generation device, video generation method, program, and data structure
KR102061152B1 (en) System for providing ar service and method for generating 360 angle rotatable image file thereof
JP4121639B2 (en) Object image clipping method, apparatus, system, and medium on which program is recorded
CN115941920B (en) Naked eye 3D video generation method, device, equipment and storage medium
KR101718309B1 (en) The method of auto stitching and panoramic image genertation using color histogram
Oliveira et al. Lenslet light field panorama creation: a sub-aperture image stitching approach
RU2571574C1 (en) Device to combine images into single composition with smooth contrast transition
Smirnov et al. Layered approach for improving the quality of free-viewpoint depth-image-based rendering images
US20020033834A1 (en) Method of and apparatus for secondary application of film image
JP2004128588A (en) Imaging unit
JPH10341374A (en) Method and device for processing image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080115

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080408

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080430

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110509

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110509

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120509

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130509

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees