JP6891473B2 - 柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム - Google Patents

柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム Download PDF

Info

Publication number
JP6891473B2
JP6891473B2 JP2016240103A JP2016240103A JP6891473B2 JP 6891473 B2 JP6891473 B2 JP 6891473B2 JP 2016240103 A JP2016240103 A JP 2016240103A JP 2016240103 A JP2016240103 A JP 2016240103A JP 6891473 B2 JP6891473 B2 JP 6891473B2
Authority
JP
Japan
Prior art keywords
image
component
shadow
pattern
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016240103A
Other languages
English (en)
Other versions
JP2017188071A (ja
Inventor
聡 田端
聡 田端
小林 秀章
小林  秀章
セドリック オドラ
セドリック オドラ
河合 直樹
直樹 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Publication of JP2017188071A publication Critical patent/JP2017188071A/ja
Application granted granted Critical
Publication of JP6891473B2 publication Critical patent/JP6891473B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラムに係り、詳細には、衣類等の色や柄を置き換えた画像を生成する技術に関する。
消費者が衣類を購入する場合、購入前に試着して検討することが多い。しかし、色や柄等のバリエーションが多数存在すると、消費者にとっては試着の手間や時間がかかってしまう。またバリエーションの一部が店舗に品切れしている場合や、WEB上のショッピングサイトを利用する場合等は、注文する前に試着できないことがある。このような問題を回避するために、近年はCG(コンピュータ・グラフィックス)を使用した3Dベースのものを中心に、様々な色柄シミュレーションを行うシステムが開発されている。特許文献1には、撮影された画像から被写体の姿勢情報を算出し、被写体と洋服の特徴部のずれ量から透過度を決定して自然な合成画像を得る手法について記載されている。しかしながら特許文献1の手法は、三次元の体型形状を示す被写体モデルを予め生成しておく等、大掛かりな仕込みを必要とするものであるため手軽に利用できない。
実物に近い見え方を実現でき、また衣類のように商品サイクルが短いコンテンツに対する企業側のコンテンツ更新コストを考慮すると、CGベースのものより2D(2次元)の実写画像をベースとしたシミュレーションシステムが要望される。しかし、一般に撮影された2次元の画像(写真等)は、服の領域情報、ライティング、陰影、形状等、画像の合成に必要な各種の情報が含まれない。予め切り抜いた服の素材を元画像に単純にレイヤ合成すると、品質の低い合成画像となってしまうという問題があった。実写画像ベースで高品質な合成画像を生成可能な色柄シミュレーションシステムとしては、例えば、特許文献2がある。特許文献2には2次元の背景画像に対してパースや曲面を有する対象物(カーテン)の画像を簡単な操作で自然な柄の状態に合成する手法について記載されている。
特許5583087号公報 特許3679347号公報
しかしながら、特許文献2の画像合成装置は衣類についても適用可能な技術であるが、前提として、元の画像に対し様々なパラメータ(服の領域のマスク情報や形状情報等)を予めユーザが設定しておく必要がある。よって画像処理やCG等の専門的な知識や作業が必要となり、一般消費者または店舗の店員がその場で撮影した画像に対して直ちにシミュレーションを行うことは困難であった。
本発明は、このような課題に鑑みてなされたもので、各種事前加工や素材制作の作業負担がなく、容易な操作で2次元画像内の対象領域(衣類等)の色や柄を替えることが可能な柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラムを提供することを目的とする。
前述した課題を解決するための第1の発明は、色及び柄を構成する素材データを複数記憶する記憶手段と、任意の画像を入力する入力手段と、入力された画像から対象領域を抽出する領域抽出手段と、前記入力された画像から前記対象領域について陰影成分を抽出する陰影分離手段と、前記陰影成分に基づいて前記対象領域の歪み量を算出する歪み量算出手段と、前記素材データ選択を受け付ける素材選択手段と、選択された素材データを前記歪み量に基づいて前記対象領域にマッピングするとともに前記陰影分離手段により抽出した陰影成分を前記対象領域に付与することにより素材合成画像を生成し、生成した素材合成画像を前記入力された画像の前記対象領域に置き換えて合成画像を生成する合成手段と、を備え、前記陰影分離手段は、前記入力された画像を柄無し反射率成分、柄成分、及び陰影成分に分離することにより前記入力された画像から陰影成分を抽出することを特徴とする柄替えシミュレーション装置である。
第1の発明によれば、色柄シミュレーション装置は任意の画像が入力されると、入力された画像から対象領域を抽出し、入力された画像から柄無し反射率成分、柄成分、及び陰影成分に分離することにより対象領域について陰影成分を抽出し、陰影成分に基づいて対象領域の歪み量を算出する。また、色及び柄を構成する素材データが選択されると、色柄シミュレーション装置は選択された素材データを歪み量に基づいて対象領域にマッピングするとともに抽出した陰影成分を対象領域に付与することにより素材合成画像を生成し、生成した素材合成画像を入力された画像の対象領域に置き換えて合成画像を生成する。これにより、画像に対する各種の事前加工や素材制作等の作業を必要としない2次元画像ベースの柄替えシミュレーション装置を提供できる。画像処理やCG等の専門的な知識がない者であっても、簡単な操作で、撮影された2次元画像に対して所望の素材の柄を高精細でリアルに適用した合成画像を生成できる。
第1の発明において、前記領域抽出手段は、前記対象領域として前記入力された画像内で着用されている服の領域を抽出することを特徴とすることが望ましい。本発明は各種の事前加工や素材制作等の作業を必要としないため、衣類(服)のように種類が多く商品サイクルが短いコンテンツについて本発明を適用すれば、企業側のコンテンツ更新コストを削減でき、好適である。
第1の発明において、陰影分離手段は、入力された画像を色空間及び画像空間においてクラスタリングし、前記入力された画像から柄情報を抽出し、クラスタリングされたクラスタについて陰影成分を求めるための方程式を前記柄情報に基づいて生成し、前記方程式を解くことにより対象領域の画像から陰影成分を抽出することが望ましい。更に、前記方程式は、柄無し反射率成分に関する制約式、前記柄情報に対する制限を含む陰影成分に関する制約式、及び陰影成分の正規化に関する制約式を含むことが望ましい。ここで、陰影成分に関する制約式は、隣接する画素の陰影成分がなだらかに変化し近傍画素は近いシェーディング値を持つものとし、かつ、柄として抽出された画素については当該制約から除外する。このように柄についての制約を加えることにより、服のように陰影や柄が複雑に混在した画像についても陰影成分(シェーディング)をより正確に分離抽出することが可能となる。その結果、より自然な合成画像を生成できるようになる。
また、前記歪み量算出手段は、前記陰影成分から推定される画像輝度の勾配情報に基づき前記対象領域の法線を復元し、法線に基づき前記歪み量を算出することが望ましい。これらにより、柄替えシミュレーション装置が自動で画像から陰影を分離したり歪み量を算出したりできるため、画像に対する事前の各種パラメータ設定等の作業が不要となる。
第2の発明は、色及び柄を構成する素材データを複数記憶する記憶部を有するコンピュータの制御部が、任意の画像を入力するステップと、入力された画像から対象領域を抽出するステップと、前記入力された画像から前記対象領域について陰影成分を抽出するステップと、前記陰影成分に基づいて前記対象領域の歪み量を算出するステップと、前記素材データ選択を受け付けるステップと、選択された素材データを前記歪み量に基づいて前記対象領域にマッピングするとともに抽出した陰影成分を前記対象領域に付与することにより素材合成画像を生成し、生成した素材合成画像を前記入力された画像の前記対象領域に置き換えて合成画像を生成するステップと、を含み、前記陰影成分を抽出するステップは、前記入力された画像を柄無し反射率成分、柄成分、及び陰影成分に分離することにより前記入力された画像から陰影成分を抽出することを特徴とする柄替えシミュレーション方法である。
第2の発明によれば、色及び柄を構成する素材データを複数記憶する記憶部を有するコンピュータに任意の画像を入力すると、コンピュータの制御部は、入力された画像から対象領域を抽出し、入力された画像から柄無し反射率成分、柄成分、及び陰影成分に分離することにより対象領域について陰影成分を抽出し、陰影成分に基づいて対象領域の歪み量を算出する。また、制御部は素材データが選択されると、選択された素材データを歪み量に基づいて対象領域にマッピングするとともに抽出した陰影成分を対象領域に付与することにより素材合成画像を生成し、生成した素材合成画像を入力された画像の対象領域に置き換えて合成画像を生成する。これにより、画像に対する各種の事前加工や素材制作等の作業を必要としない2次元画像ベースの柄替えシミュレーション装置を提供できる。
画像処理やCG等の専門的な知識がない者であっても、撮影された2次元画像に対して所望の素材の柄を高精細でリアルに適用した合成画像を生成できる。
第3の発明は、コンピュータを、色及び柄を構成する素材データを複数記憶する記憶手段と、任意の画像を入力する入力手段と、入力された画像から対象領域を抽出する領域抽出手段と、前記入力された画像から前記対象領域について陰影成分を抽出する陰影分離手段と、前記陰影成分に基づいて前記対象領域の歪み量を算出する歪み量算出手段と、前記素材データの選択を受け付ける素材選択手段と、選択された素材データを前記歪み量に基づいて前記対象領域にマッピングするとともに前記陰影分離手段により抽出した陰影成分を前記対象領域に付与することにより素材合成画像を生成し、生成した素材合成画像を前記入力された画像の前記対象領域に置き換えて合成画像を生成する合成手段、として機能させ、前記陰影分離手段は、前記入力された画像を柄無し反射率成分、柄成分、及び陰影成分に分離することにより前記入力された画像から陰影成分を抽出するためのプログラムである。
第3の発明によれば、コンピュータを第1の発明の柄替えシミュレーション装置として機能させることが可能となる。
本発明により、各種事前加工や素材制作の作業負担がなく、容易な操作で2次元画像内の対象領域の色や柄を替えることが可能な柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラムを提供できる。
柄替えシミュレーション装置1のハードウェア構成図 柄替えシミュレーション装置1の機能構成図 素材データ5の一例を示す図 領域抽出部22について説明する図 陰影分離部23について説明する図 歪み量算出部(テクスチャ座標生成部)24について説明する図 テクスチャマッピング・陰影合成部27について説明する図 柄替えシミュレーション処理の流れを示すフローチャート 陰影分離処理の具体的な流れを示すフローチャート 色空間クラスタリング処理の概要を示す図 画像空間クラスタリングについて説明する図 画像空間クラスタリングにおけるDenseCRFの推論式のUnary項について説明する図(1) 画像空間クラスタリングにおけるDenseCRFの推論式のUnary項について説明する図(2) 画像空間クラスタリングにおけるDenseCRFの推論式のUnary項について説明する図(3) 画素値と陰影成分(シェーディング)と反射率(リフレクタンス)との関係について説明する図 陰影成分に関する制約について説明する図 柄情報を考慮した陰影成分に関する制約について説明する図 陰影成分の正規化に関する制約について説明する図
以下、図面に基づいて本発明の実施形態を詳細に説明する。図1は、柄替えシミュレーション装置1のハードウェア構成を示すブロック図である。なお、図1のハードウェア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
図1に示すように、柄替えシミュレーション装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等によって構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、柄替えシミュレーション装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。
記憶部12は、HDD(Hard Disk Drive)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。
入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。表示部16は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。なお、入力部15及び表示部16は、タッチパネルディスプレイのように、一体となっていてもよい。
周辺機器I/F(Interface)部17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USB(Universal Serial Bus)やIEEE1394やRS−232C等によって構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
柄替えシミュレーション装置1は、1台のコンピュータで構成されてもよいし、複数のコンピュータがネットワークを介して構成されてもよい。例えば、柄替えシミュレーション装置1が、サーバとクライアント端末で構成される場合、クライアント端末においてデータの入力を受け付けて、サーバが各種の処理を行い、クライアント端末が処理結果を表示するようにしてもよい。以下の説明では、簡素な構成例として、柄替えシミュレーション装置1が1台のコンピュータで構成された例を説明する。
次に、図2を参照して本発明に係る柄替えシミュレーション装置1の機能構成について説明する。
図2に示すように、柄替えシミュレーション装置1の制御部11は、画像入力部21、領域抽出部22、陰影分離部23、歪み量算出部(テクスチャ座標生成部)24、素材選択部26、テクスチャマッピング・陰影合成部27、画像出力部28を有する。また、柄替えシミュレーション装置1の記憶部12には、素材データ5が記憶される。
まず図3を参照して柄替えシミュレーション装置1の記憶部12に記憶される素材データ5について説明する。図3に示すように、柄替えシミュレーション装置1の記憶部12には、素材データ5として複数の素材画像5a、5b、5c、…が記憶される。素材画像5a、5b、5c、…は、1単位分の色や柄(テクスチャ)を表すパッチ画像である。各素材画像5a、5b、5c、…には、それぞれ高さ及び幅のサイズを示すサイズ情報が紐づけて格納される。素材画像5a、5b、5c、…及びサイズ情報は、家具やインテリアのカタログデータから取得してもよいし、ユーザが入力部15等を介して登録してもよい。
例えば図3には、「素材1」に関する情報として、植物柄のパッチ画像(素材画像5a)が保持された例が示されている。同様に、「素材2」、「素材3」、…についても、それぞれ色や柄を示す素材画像5b、5c、…が格納される。
次に、図2に示す柄替えシミュレーション装置1の各部について説明する。
画像入力部21は、柄替えシミュレーションの背景画像とする任意の画像の入力を受け付ける。以下の説明では画像入力部21に入力された画像を入力画像31と呼ぶ。入力画像31は、衣類(服)を着用した人物や動物の写真等、2次元の実写画像とする。
領域抽出部22は、図4に示すマスク画像32のように、画像入力部21により入力された入力画像31から対象領域を抽出する。対象領域は、柄替えシミュレーションを行う対象とする領域であり、例えば、服の領域である。領域抽出部22は、対象領域と対象領域以外の領域を識別する2値のマスク画像32を作成する。なお、入力画像31の服の領域が上衣(ブラウスやシャツ)と下衣(ズボンやスカート)等のように複数ある場合は、複数の領域をそれぞれ識別して抽出してもよい。その場合は、各領域についてそれぞれマスク画像32を作成する。領域抽出部22は、抽出した対象領域を示すマスク画像32を陰影分離部23に出力する。
陰影分離部23は、入力画像31の対象領域(マスク画像32により指定された領域)について陰影成分を抽出する。具体的には、図5に示すように陰影分離部23は領域抽出部22から対象領域を表すマスク画像32を取得するとともに画像入力部21から入力画像31を取得する。そして入力画像31の対象領域について後述する陰影分離処理を行い、画像内の各物体から陰影成分を分離する。このとき陰影分離部23は、服の柄を考慮した陰影分離処理を行う。具体的には、入力画像31の対象領域を柄無し反射率成分、柄成分、及び陰影成分に分離することにより入力画像31の対象領域から陰影成分を抽出する。陰影成分は、各画素の陰影の大きさを表す数値で表した画像データ(陰影画像34)として抽出される。陰影分離部23によって分離された陰影成分を入力画像31の対象領域から除いた画像が図5に示すテクスチャ画像33である。テクスチャ画像33と陰影成分(陰影画像34)とは、理論上、乗算すると元の入力画像31と一致する。なお、テクスチャ画像33は柄無し反射率成分と柄成分(服の模様)とを含むものである。テクスチャ・陰影分離処理の具体的な処理の流れについては後述する(図9〜図18)。陰影分離部23は、分離抽出した陰影成分を表す陰影画像34を歪み量算出部(テクスチャ座標生成部)24へ出力する。
歪み量算出部(テクスチャ座標生成部)24は、図6に示すように、陰影分離部23により分離された陰影画像34と対象領域を表すマスク画像32とを取得し、対象領域の歪み量を算出する。算出した歪み量はテクスチャ座標35(格子状のグリッド)に反映される。歪み量は、身体の凹凸や姿勢、服のしわ等により生じる面の歪みを表すものである。テクスチャ座標35は縦横の線で画像を複数の区画に区分したグリッド(格子)であり、各区画の歪み量に応じて該当区画を変形させて表したものである。歪み量は陰影画像34に基づいて推定される。歪み量の算出手法については後述する。
素材選択部26は、記憶部12に記憶されている素材データ5の中から対象領域に適用する素材データ5を選択する。選択された素材データ5を選択素材画像36と呼ぶ。
テクスチャマッピング・陰影合成部27は、図7に示すように素材選択部26により選択された素材データ5(選択素材画像36)を歪み量(テクスチャ座標35)に基づいて変形して入力画像31の対象領域にマッピングする。また、陰影分離部23により抽出した陰影成分(陰影画像34)を対象領域に付与(乗算)する。これにより対象領域に選択素材画像36が合成された素材合成画像を生成する。また、生成した素材合成画像を入力画像31の対象領域に置き換えて合成画像4を生成する。
画像出力部28は、テクスチャマッピング・陰影合成部27により生成された合成画像4を出力する。出力は、表示部16への表示、記憶部12への記憶の他、通信制御部14を介したネットワーク等への送信等を含む。
次に、図8を参照して、柄替えシミュレーション装置1の制御部11が実行する柄替えシミュレーション処理の流れを説明する。
まず、制御部11はシミュレーションを行う画像の入力を受け付ける(ステップS101)。一例として、入力画像31は服を着た人物等を撮影した2次元の画像とするが、人物に限らず、動物やマネキン等でもよい。次に制御部11は、入力画像31に対して、エッジ抽出処理やセグメンテーション・ラベリング処理を実行し、色や柄の変更を適用する対象領域である服の領域と、対象領域(服)以外の領域を識別する2値(対象領域が「白」、非対象領域が「黒」)のマスク画像32を作成する(ステップS102)。なお、ステップS102におけるラベリング処理において、制御部11は、まず非対象領域(背景や手、足、頭等)が「黒」、対象領域(服の領域)が「白」、不確定領域が「灰色」の3色のラベル画像であるトライマップ画像を生成し、次に、制御部11は不確定領域を「黒」か「白」のいずれかに決定して2値のマスク画像32を生成するようにしてもよい。不確定領域については、例えば最小コスト切断問題(Graph Cut;グラフカット)として定式化し、「黒」か「白」かを決定する方法が挙げられる。このグラフカットの手法では、灰色の領域(不確定領域)内の画素を基点として、隣接する複数の前景領域及び背景領域の画素との類似度を用いた最少コスト切断問題として定式化し、最もコストが小さくなる切断軌跡を求め、切断軌跡に基づいて不確定領域を「黒」か「白」のいずれかに決定する。なお、ステップS102の領域抽出処理はこの手法に限定されず、入力画像31から対象領域を抽出できるものであればどのような技術を用いてもよい。
制御部11は、入力画像31からステップS102で抽出された対象領域(マスク画像32の「白」領域)について、陰影成分を分離する(ステップS103)。例えば、“Intrinsic images in the wild(SIGGRAPH2014)”等に具体的な演算手法が開示されている。この手法は、主にシーン画像を対象として、対象の画像を固有反射率(テクスチャ)と陰影成分に分離する方法であり、以下の先見知識(A)〜(F)を利用し、
I(入力)=R(反射率)×S(陰影)
の不良設定問題を同じ反射率セグメントによるグラフィカルモデル問題とシェーディングの滑らかさによる最適化問題に置き換えることで解くものである。
上述の先見知識としては、例えば以下のものを利用する。
(A)近くにある同じ色度や輝度を持つ画素は、ほとんど似たような反射率を含む。
(B)反射率は区分的定数である。
(C)反射率は、スパースセットからサンプルされる。
(D)特定のシェーディングの値は、他のものよりも推測できる可能性が高い。
(E)近傍ピクセルは似たようなシェーディング値を持つ。
(F)シェーディングはグレースケール、または光源と同じ色である。
上述の手法は、シーン画像を対象とするものであるため、服のように柄やシワのあるものに適用した場合に常に良好な結果が得られるものではない。そこで、本実施の形態では、柄のある服への適用を考慮した陰影分離処理を実施する。以下、柄を考慮した陰影分離処理について図9〜図18を参照して説明する。
図9は、柄を考慮した陰影分離処理の手順を示すフローチャートである。
制御部11(陰影分離部23)は、入力画像31の対象領域(マスク画像32により指定された領域)について陰影成分を抽出する。図5に示すように陰影分離部23は領域抽出部22から対象領域を表すマスク画像32を取得するとともに画像入力部21から入力画像31を取得し、マスク処理により入力画像31から陰影分離処理の対象とする領域(以下、対象領域という)を取得する(ステップS201)。
次に、制御部11は、対象領域について色空間クラスタリング処理を行い(ステップS202)、色空間クラスタリング処理で求めた色空間クラスタを初期値として画像空間クラスタリング処理を実施する(ステップS202、ステップS203)。クラスタリングの精度を向上させるためには、例えば、画像空間クラスタリング処理においてDense CRF(conditional random field;条件付き確率場)という手法を用いることが望ましい。
図10は、ステップS202の色空間クラスタリング処理の概要を示す図である。色空間クラスタリング処理において、制御部11は入力画像31の対象領域を以下の式(1)に示すように3次元色空間61に変換する。
Figure 0006891473
そして制御部11は、3次元色空間61上で、k−meansを行い、K個の色空間クラスタ[CC〜CC]を算出する。
次に、制御部11は、ステップS202の色空間クラスタリング処理で求めた色空間クラスタ[CC〜CC]を初期値として、画像空間クラスタリング処理を実施する。この画像空間クラスタリング処理では、例えばDenseCRFの推論を行ってDenseCRFクラスタ[Cd1〜CdK]を求めた後、ラベリング処理を行って画像空間クラスタ[C0_1〜C0_N0]を求める。
DenseCRFの推論モデルは、以下の式(2)〜式(4)である(V Koltun 2011,2013)。
Figure 0006891473
制御部11は、上述の式(2)のUnary項とPairwise項とを設定し、DenseCRFの推論(平均場近似+近似フィルタリング)を行い、クラスタを求める。なお、上述の式(3)、式(4)において、fは任意の特徴空間、k(m)はm個のガウシアンカーネル、w(m)はそれぞれの重み、μ(x,x)は、ラベル一貫性を表すCompatibility Functionモデル(パラメータ)である。
式(2)のPairwise項については、特徴の距離が離れているところでクラスタを区切ることを目的として設定する。
具体的には、DenseCRFによるクラスタを構成する変数をxと置き、特徴を以下の式(5)に示すように、5次元ベクトルfで設定する(位置+色空間クラスタリング特徴)。
Figure 0006891473
また、Compatibility Functionは、クラスタリング代表値のL1距離とする、対角成分が0である対象行列として設定する。すなわち、Cd1〜CdKを、C(x)〜C(x)〜C(x)と置き、以下の式(6)のように設定する。
Figure 0006891473
式(2)のUnary項については、(a)色空間クラスタの事前知識、(b)色空間クラスタのクラスタ色事前知識、(c)擬似シェーディング値の極端な値の抑制を考慮して推論式を設定する。
(a)色空間クラスタの事前知識について
色空間クラスタの事前知識については、以下の式(7)を設定する。
Figure 0006891473
式(7)は、色空間クラスタリングの結果[CC〜CCK]を初期値としてDense CRFクラスタリングを行った場合、その結果が図12の63aに示すように色空間クラスタリングの結果62がある程度反映されたものであれば、「OK」とすることを表している。例えば、図12に示すように、色空間クラスタリングの結果[CC〜CCK]の単純なマッピング62を初期値としてDense CRFクラスタリングを行う場合、その結果が図12の63aに示すように色空間クラスタリングの結果62がある程度反映されたものであれば「OK」とし、図12の63bのように色空間クラスタリング結果62が反映されないものであれば、「NG」とする。
(b)色空間クラスタのクラスタ色事前知識の反映について
Unary項は、また、色空間クラスタのクラスタ色事前知識を反映させる。具体的には、各画素値が、色空間クラスタの各クラスタの代表値の画素値に近いものとなるようにする。これを以下の式(8)で表す。
Figure 0006891473
式(8)は図13に示すように、色空間クラスタ[CC〜CCK]の単純なマッピング62を初期値とする場合、DenseCRFクラスタリング結果が図13の63cのように、なるべく色空間クラスタの値に近いようにするものである。
(c)擬似シェーディング値の極端な値の抑制について
また、Unary項は、擬似シェーディング値の極端な値を抑制するよう設定する。色空間クラスタの各クラスタの代表値の画素値を擬似的な反射率と仮定する。これは、明るさの観点から、中央値を持っていることが多いからである。擬似的なシェーディング値を(入力値/擬似反射率)から求め、その値が極端な値をとらないようにする(定数を引いた和をコストとする)。これを式で表すと、以下の式(9)、(10)で表される。
Figure 0006891473
上述の3つのUnary項(ΨU1(x)、ΨU2(x)、ΨU3(x)、)にそれぞれ重みパラメータをかけて、式(11)に示すように全体のUnary項Ψ(x)を設定する。
Figure 0006891473
以上説明したような推論により制御部11は上述の推論式(2)を設定し、画像空間クラスタリング結果を得る。なお、本実施の形態では、精度の良いクラスタリング処理の最も好適な一例としてDenseCRFを用いているが、本発明はこれに限定されず、任意の手法のクラスタリング処理を実施するものとしてもよい。
図9の説明に戻る。
クラスタリング処理が終了すると、制御部11は、元の画像(ステップS201でマスク処理した入力画像31の対象領域)から柄情報を抽出する(ステップS204)。柄情報の抽出にはエッジフィルタを用いる。服の柄を抽出するには、例えばCannyのエッジフィルタが好適である。服の画像には柄やシワが複雑に混在するため、通常、柄のみを精度よく検出するのは困難であるが、Cannyのエッジフィルタはフィルタの強弱等のパラメータ設定が容易であるため、本発明の対象とする服の柄の抽出に対して扱いやすく好適である。
次に、制御部11は、ステップS203でクラスタリングされた各クラスタの陰影成分を求めるための制約式を設定し線形方程式を構築する(ステップS205)。線形方程式は、以下の先見的知識に基づき、不良設定問題を解くための制約式から設定される。
具体的には、以下の制約を用いる。
(A)リフレクタンス制約(柄無し反射率成分に関する制約)
・リフレクタンスは、区分的定数であり、近くにある、同じ色度を持つ画素は、同じリフレクタンスである。
・リフレクタンスはスパースセットからサンプルされる。
(B)シェーディング制約(柄情報に対する制限を含む陰影成分に関する制約)
・シェーディングは滑らかに変化し、近傍ピクセルは近いシェーディング値を持つ。
・柄(エッジ)については滑らかさの考慮から除外する。
(C)シェーディング正規化制約(陰影成分の正規化に関する制約)
・すべての場合のシェーディングの量を統一する。
入力画素値Iと陰影成分S(シェーディング)と反射率(リフレクタンス)Rとの関係は、一般に、図15(a)に示すような関係で表される。これを式で表すと、以下の式(12)となる。
I(入力画素値)=S(陰影)×R(反射率)・・・(12)
また図15(b)に示すように、シェーディング値Sは、画素値Iを示すグラフの傾き(Sfi)と定数(Sc)を掛け合わせたものである。
I(入力画素値)=(Sfi×Sc)×R・・・(13)
制御部11は、画像空間クラスタC〜Cについて、各クラスタのシェーディング係数Sfiについての制約式を生成する。そして、シェーディング係数Sfiを求めた後、シェーディング値Sを求め、入力画素値Iをシェーディング値Sで割ることでリフレクタンスR(反射率)を求める。
以下、各制約式について説明する。
(A)リフレクタンス制約
色空間クラスタリング(k−means)時のクラスタリング結果が等しいクラスタは、リフレクタンスが同じはずである。これを式にすると、以下の式(14)で表される。
Figure 0006891473
例えば、図16(a)に示すように、色空間クラスタリング結果62と画像空間クラスタリング結果65とを比較すると、画像空間クラスタリング結果65におけるクラスタC4(図中「4」で示す)とクラスタC3(図中「3」で示す)とは、色クラスタが同じである。つまり、画像空間クラスタリング結果65におけるクラスタC3とクラスタC4とはリフレクタンスRが同じはずである。切断面70を横軸、入力画像の画素値Iを縦軸とすると、切断面70において隣接するクラスタC4、C2、C3の各画素値Iは図16(b)に示すように表される。つまり、クラスタC4とクラスタC3とは同じリフレクタンスRであり、クラスタC2は色クラスタが異なるためクラスタC4とクラスタC3とは異なるリフレクタンスRを持つものとする。
(B)シェーディング制約
シェーディングSは滑らかに変化するので、隣接するクラスタの境界は、シェーディング係数Sfiの値が同じはずである。これを式にすると、以下の式(15)で表される。
Figure 0006891473
例えば、図16(b)に示すように、切断面70において隣接する3つのクラスタC4、C2、C3は、シェーディングが滑らかに変化する。よって各クラスタC4、C2、C3の境界のシェーディング値は等しくなるはずである。シェーディングの部分をつなげると、図16(c)に示すようになるものとする。
また、隣接するクラスタの中間のクラスタが柄(エッジ)の場合、シェーディングの連結のノイズになることが多い。そのため柄についてはシェーディングの滑らかさの考慮から除外する。その場合は、中間クラスタを介して接続する両端のクラスタについてシェーディングの滑らかさを考慮する。これを元に方程式を立てると、以下の式(16)で表される。
Figure 0006891473
例えば、図17(a)に示す画像空間クラスタリング結果65aのように柄80が含まれる場合、切断面70では、クラスタC4、「柄(エッジ)」、C3の各画素値Iは図17(b)のように表される。この場合、「柄」は除外し、その両隣のクラスタC4とC3について、シェーディングが滑らかに変化すると考える。シェーディングをつなげると図17(c)に示すようになるはずである。
(C)シェーディング正規化制約(陰影成分の正規化に関する制約)
全体のシェーディングの量を統一する。具体的には、図18に示すように、全てのシェーディング係数Sfiの対数を総和すると「0」となるように、シェーディング係数Sfiを求める。これを元に式を立てると、以下の式(17)で表される。
Figure 0006891473
このようにして、各制約に基づく方程式が制約式として設定される。制御部11は、設定した制約式(14)、(15)、(16)、(17)から、
A・x=B
の形の線形方程式を構築する。
次に制御部11は、ステップS205で構築した線形方程式を解く(ステップS206)。これを解くことにより、各クラスタCのシェーディング係数Sfi(C)が求められる。線形方程式は、例えばQMR法を用いることにより高速に結果を得られるが、これに限定されず、どのような解法を用いてもよい。
以上のようにして、各クラスタC〜Cのシェーディング係数Sfiが求められる。シェーディング係数Sfiに所定の定数Scを掛けることによりシェーディング値S(陰影成分)が求められる。また、上述の式(12)に基づき、入力画素値Iをシェーディング値Sで割ることでリフレクタンスR(柄無し反射率成分)が求められる。
次に、制御部11はステップS103(ステップS201〜ステップS206)の処理により分離された陰影成分を示す画像である陰影画像34に基づいて、対象領域の歪み量を算出し、算出した歪み量を反映したグリッドであるテクスチャ座標35を生成する(ステップS104)。ステップS104において、制御部11は陰影画像34に基づいて、服の領域(マスク画像32の白値の領域)の法線を復元し、復元した法線に基づいて歪み量を推定する。この種の技術としては、例えば、“Textureshop : Texture Synthesis as a Photograph Editing Tool(SIGGRAPH2004)”の手法等が知られている。この手法では、以下の手順でテクスチャ座標35を生成する。
(1)画像輝度の勾配情報を元に法線を復元する。
(2)法線を滑らかに並べ、テクスチャの変形射影マトリクスを求める。
なお、歪み量の算出方法(テクスチャ座標35の生成方法)はこの方法に限定されるものではなく、本発明は、その他の公知の手法を用いてもよい。
次に制御部11は、ユーザによる素材データ5の選択を受け付ける(ステップS105)。ステップS105において制御部11は記憶部12に記憶されている素材データ5の素材画像5a、5b、…を読み出し、表示部16に選択可能に一覧表示することが望ましい。入力部15を介してユーザにより素材データ5が選択される。
制御部11は、ステップS105で選択された素材データ5(選択素材画像36)をステップS104で生成したテクスチャ座標35にマッピングし、更にステップS103で抽出した陰影画像34を合成(乗算)する(ステップS106)。テクスチャマッピングでは、テクスチャ座標35の歪みに応じて選択素材画像36が変形されて貼り付けられる。このようにして、服の領域に選択された素材画像36が適用される。制御部11は、選択素材画像36が合成された服の領域の画像(素材合成画像)の各画素を元の入力画像31の対応する画素に置き換える。これにより、入力画像31の服(対象領域)の柄が変更された合成画像4が生成される。
制御部11は、合成画像4を出力(記憶部12への記憶、表示部16への表示等)し(ステップS107)、一連の柄替えシミュレーションに関する処理を終了する。
なお、ステップS107における出力の結果、ユーザが合成画像4を確認し、別の色や柄を試したい場合等は、ステップS105へ戻り素材データ5の再選択を行えば、ステップS102〜ステップS104の結果を利用して選択素材の合成を繰り返し行える。また、服の領域が複数ある場合は、各領域についてそれぞれ陰影分離(ステップS103)、テクスチャ座標生成(ステップS104)、素材選択(ステップS105)を行って、各領域に異なる素材を適用することも可能である。
以上説明したように、本発明に係る柄替えシミュレーション装置1によれば、ユーザが所望の入力画像31を入力すると、柄替えシミュレーション装置1により自動で服の領域の抽出、陰影成分の抽出、テクスチャ座標35の生成(服領域の歪み量の算出)を行って、ユーザが選択した所望の素材の柄や色を適用した合成画像4を得ることが可能となる。これにより、事前加工や素材制作の作業負担がなく、容易な操作で任意の写真(2次元画像)内の服の柄を替えることが可能となる。また、単に素材画像を張り付けたものとは異なり、元の写真の陰影や服の歪み等が反映された合成画像4が作成されるため、品質の高い合成画像4を生成することが可能となる。
なお、上述の実施の形態では、柄替えシミュレーションを行う対象領域を服の領域としたが、本発明はこれに限定されず、柄替えシミュレーションの対象領域はどのような対象物としてもよい。例えば、家具やカーテン、壁紙等を対象領域として本発明を適用してもよいし、人物の髪や肌等を対象として本発明を適用してもよい。
以上、添付図面を参照して、本発明に係る柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラムの好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1……………………柄替えシミュレーション装置
11…………………制御部
12…………………記憶部
13…………………メディア入出力部
14…………………通信制御部
15…………………入力部
16…………………表示部
17…………………周辺機器I/F部
18…………………バス
21…………………画像入力部
22…………………領域抽出部
23…………………陰影分離部
24…………………歪み量算出部(テクスチャ座標生成部)
26…………………素材選択部
27…………………テクスチャマッピング・陰影合成部
28…………………画像出力部
31…………………入力画像
32…………………マスク画像
33…………………テクスチャ画像33
34…………………陰影画像
35…………………テクスチャ座標
36…………………選択素材画像
4……………………合成画像
5……………………素材データ
61…………………3次元色空間
62…………………色空間クラスタリング結果
63、63a〜63c…DenseCRFによるクラスタリング結果
64…………………擬似シェーディング値
65…………………画像空間クラスタリング結果
70…………………切断面
80…………………柄(エッジ)

Claims (8)

  1. 色及び柄を構成する素材データを複数記憶する記憶手段と、
    任意の画像を入力する入力手段と、
    入力された画像から対象領域を抽出する領域抽出手段と、
    前記入力された画像から前記対象領域について陰影成分を抽出する陰影分離手段と、
    前記陰影成分に基づいて前記対象領域の歪み量を算出する歪み量算出手段と、
    前記素材データの選択を受け付ける素材選択手段と、
    選択された素材データを前記歪み量に基づいて前記対象領域にマッピングするとともに前記陰影分離手段により抽出した陰影成分を前記対象領域に付与することにより素材合成画像を生成し、生成した素材合成画像を前記入力された画像の前記対象領域に置き換えて合成画像を生成する合成手段と、
    を備え
    前記陰影分離手段は、前記入力された画像を柄無し反射率成分、柄成分、及び陰影成分に分離することにより前記入力された画像から陰影成分を抽出することを特徴とする柄替えシミュレーション装置。
  2. 前記領域抽出手段は、前記対象領域として前記入力された画像内で着用されている服の領域を抽出することを特徴とする請求項1に記載の柄替えシミュレーション装置。
  3. 前記陰影分離手段は、前記入力された画像を色空間及び画像空間においてクラスタリングし、前記入力された画像から柄情報を抽出し、クラスタリングされたクラスタについて陰影成分を求めるための方程式を前記柄情報に基づいて生成し、前記方程式を解くことにより対象領域の画像から陰影成分を抽出することを特徴とする請求項1または請求項2に記載の柄替えシミュレーション装置
  4. 前記方程式は、柄無し反射率成分に関する制約式、前記柄情報に対する制限を含む陰影成分に関する制約式、及び陰影成分の正規化に関する制約式を含むことを特徴とする請求項に記載の柄替えシミュレーション装置。
  5. 前記陰影成分に関する制約式は、隣接する画素の陰影成分がなだらかに変化し近傍画素は近いシェーディング値を持つものとし、かつ、柄として抽出された画素については当該制約から除外することを特徴とする請求項に記載の柄替えシミュレーション装置
  6. 前記歪み量算出手段は、前記陰影成分から推定される画像輝度の勾配情報に基づき前記対象領域の法線を復元し、法線に基づき前記歪み量を算出することを特徴とする請求項1から請求項のいずれかに記載の柄替えシミュレーション装置。
  7. 色及び柄を構成する素材データを複数記憶する記憶部を有するコンピュータの制御部が、
    任意の画像を入力するステップと、
    入力された画像から対象領域を抽出するステップと、
    前記入力された画像から前記対象領域について陰影成分を抽出するステップと、
    前記陰影成分に基づいて前記対象領域の歪み量を算出するステップと、
    前記素材データの選択を受け付けるステップと、
    選択された素材データを前記歪み量に基づいて前記対象領域にマッピングするとともに抽出した陰影成分を前記対象領域に付与することにより素材合成画像を生成し、生成した素材合成画像を前記入力された画像の前記対象領域に置き換えて合成画像を生成するステップと、
    を含み、
    前記陰影成分を抽出するステップは、前記入力された画像を柄無し反射率成分、柄成分、及び陰影成分に分離することにより前記入力された画像から陰影成分を抽出する
    ことを特徴とする柄替えシミュレーション方法。
  8. コンピュータを、
    色及び柄を構成する素材データを複数記憶する記憶手段と、
    任意の画像を入力する入力手段と、
    入力された画像から対象領域を抽出する領域抽出手段と、
    前記入力された画像から前記対象領域について陰影成分を抽出する陰影分離手段と、
    前記陰影成分に基づいて前記対象領域の歪み量を算出する歪み量算出手段と、
    前記素材データの選択を受け付ける素材選択手段と、
    選択された素材データを前記歪み量に基づいて前記対象領域にマッピングするとともに前記陰影分離手段により抽出した陰影成分を前記対象領域に付与することにより素材合成画像を生成し、生成した素材合成画像を前記入力された画像の前記対象領域に置き換えて合成画像を生成する合成手段、
    として機能させ
    前記陰影分離手段は、前記入力された画像を柄無し反射率成分、柄成分、及び陰影成分に分離することにより前記入力された画像から陰影成分を抽出する
    ためのプログラム。
JP2016240103A 2016-03-30 2016-12-12 柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム Active JP6891473B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016068458 2016-03-30
JP2016068458 2016-03-30

Publications (2)

Publication Number Publication Date
JP2017188071A JP2017188071A (ja) 2017-10-12
JP6891473B2 true JP6891473B2 (ja) 2021-06-18

Family

ID=60045649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016240103A Active JP6891473B2 (ja) 2016-03-30 2016-12-12 柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6891473B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084826B (zh) * 2018-11-30 2023-09-12 叠境数字科技(上海)有限公司 基于tof相机的头发分割方法
KR102587288B1 (ko) * 2023-07-10 2023-10-10 연세대학교 산학협력단 건설객체 데이터셋의 의미적 분할 모델의 학습을 위한 자기 지도학습 기반의 고품질 의사 라벨 생성시스템 및 생성방법
CN116883392B (zh) * 2023-09-05 2023-11-17 烟台金丝猴食品科技有限公司 基于图像处理的投料控制方法及系统

Also Published As

Publication number Publication date
JP2017188071A (ja) 2017-10-12

Similar Documents

Publication Publication Date Title
JP7200139B2 (ja) 仮想顔化粧の除去、高速顔検出およびランドマーク追跡
JP6956252B2 (ja) 顔表情合成方法、装置、電子機器及びコンピュータプログラム
JP7370527B2 (ja) 衣服の3次元モデルデータを生成するための方法およびコンピュータプログラム
Yang et al. Detailed garment recovery from a single-view image
EP3633624A1 (en) Image processing device, image processing system, image processing method, and program
CN109872379A (zh) 数据处理装置和方法
US7570264B2 (en) Rig baking
JP7343963B2 (ja) 画像を入力とする関数を学習するためのデータセット
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
CN109964255B (zh) 使用3d视频数据的3d打印
Magnenat-Thalmann et al. 3d web-based virtual try on of physically simulated clothes
US8704823B1 (en) Interactive multi-mesh modeling system
JP6891473B2 (ja) 柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム
US10650524B2 (en) Designing effective inter-pixel information flow for natural image matting
JP2011159329A (ja) 自動3dモデリングシステム及び方法
Gerl et al. Interactive example-based hatching
US8847963B1 (en) Systems and methods for generating skin and volume details for animated characters
JP2005275646A (ja) 3次元描画モデル生成方法、3次元モデル描画方法及びそのプログラム
Guy et al. SimSelect: Similarity‐based selection for 3D surfaces
Liao et al. Illumination animating and editing in a single picture using scene structure estimation
US9665955B1 (en) Pose-space shape fitting
Fu et al. High relief from brush painting
CN115761143A (zh) 一种基于2d图像的3d虚拟换装模型生成方法及装置
JP3192116U (ja) 画像処理装置
Liu et al. Animating characters in Chinese painting using two-dimensional skeleton-based deformation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6891473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150