JP3192116U - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP3192116U
JP3192116U JP2014001627U JP2014001627U JP3192116U JP 3192116 U JP3192116 U JP 3192116U JP 2014001627 U JP2014001627 U JP 2014001627U JP 2014001627 U JP2014001627 U JP 2014001627U JP 3192116 U JP3192116 U JP 3192116U
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
unit
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014001627U
Other languages
English (en)
Inventor
聡 田端
聡 田端
靖寿 松葉
靖寿 松葉
荘介 下山
荘介 下山
明日香 岩越
明日香 岩越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2014001627U priority Critical patent/JP3192116U/ja
Application granted granted Critical
Publication of JP3192116U publication Critical patent/JP3192116U/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】ユーザによる簡易な操作によって、精度の高いマスク画像を生成できる画像処理装置を提供する。【解決手段】画像処理装置1は、画像を表示し、ユーザによる描画操作を受け付けるタッチパネルディスプレイ25と、タッチパネルディスプレイ25に接続され、タッチパネルディスプレイ25に表示された画像と、タッチパネルディスプレイ25が受け付けた描画操作とに基づいて、画像の一部を囲ったと判断するとともに、作成された閉領域の色を変換する制御部10と、を備える。【選択図】図1

Description

本考案は、画像処理装置に関する。
従来、画像合成方法として、マスク画像を生成し、そのマスク画像に対して平滑化処理を行って、平滑化後のマスク画像の値を用いて合成画像を生成するものが開示されている(例えば、特許文献1)。
特許第2887255号公報
マスク画像は、透過したい部分を定義した画像である。簡易な操作によって透過したい部分を適切に定義することは、難しい。しかし、透過したい部分を適切に定義しないと、精度の高いマスク画像を生成できず、結果的に、合成画像の境界部分が不自然になってしまう。
本考案は、ユーザによる簡易な操作によって、精度の高いマスク画像を生成できる画像処理装置を提供することを目的とする。
本考案は、以下のような解決手段により、前記課題を解決する。
第1の考案は、画像を表示する表示部と、ユーザによる描画操作を受け付ける入力部と、前記表示部に表示された画像に対して前記入力部が受け付けた前記描画操作が、前記画像の一部を囲ったと判断するとともに、作成された閉領域の色を変換する画像処理部と、を備えること、を特徴とする画像処理装置である。
第2の考案は、第1の考案の画像処理装置において、前記画像処理部は、前記描画操作の近接位置を補完して、前記画像の一部を囲ったと判断すること、を特徴とする画像処理装置である。
第3の考案は、第1の考案又は第2の考案の画像処理装置において、前記画像処理部は、作成された閉領域の境界部分である境界領域部と、閉領域内部と、閉領域外部とを識別した三値画像を生成した後に、前記閉領域の色を変換すること、を特徴とする画像処理装置である。
第4の考案は、第3の考案の画像処理装置において、前記画像処理部は、生成された前記三値画像の前記境界領域部に対して処理を行い、マスク画像を生成した後に、前記閉領域の色を変換すること、を特徴とする画像処理装置である。
第5の考案は、第4の考案の画像処理装置において、前記画像処理部は、前記境界領域部に対してアルファマッティング処理を行うことにより前記マスク画像を生成すること、を特徴とする画像処理装置である。
第6の考案は、第4の考案の画像処理装置において、前記画像処理部は、前記境界領域部に対して二値化処理を行うことにより前記マスク画像を生成すること、を特徴とする画像処理装置である。
第7の考案は、第4の考案から第6の考案までのいずれかの画像処理装置において、前記画像処理部は、前記画像に対して画像認識処理を行い、前記境界領域部に対してアルファマッティング処理を行うか、二値化処理を行うかを判断すること、を特徴とする画像処理装置である。
第8の考案は、第1の考案から第7の考案までのいずれかの画像処理装置において、前記画像は、動画像であり、前記画像処理部は、色変換した領域を画像認識処理で追従することで、前記動画像に対する色を変換すること、を特徴とする画像処理装置である。
第9の考案は、第1の考案から第8の考案までのいずれかの画像処理装置において、前記画像を取得する撮影部を備えること、を特徴とする画像処理装置である。
第10の考案は、第1の考案から第9の考案までのいずれかの画像処理装置において、携帯型であること、を特徴とする画像処理装置である。
第11の考案は、第1の考案から第10の考案までのいずれかの画像処理装置において、前記入力部は、前記表示部に対するタッチ操作が行われることで、前記表示部に対するタッチ操作による位置情報を取得するタッチパネル部であり、前記表示部に表示された前記画像の上を、前記画像の一部を囲う描画操作を受け付けること、を特徴とする画像処理装置である。
本考案によれば、ユーザによる簡易な操作によって、精度の高いマスク画像を生成できる画像処理装置を提供することができる。
第1実施形態に係る画像処理装置の機能ブロック図である。 第1実施形態に係る画像処理装置での処理を示すフローチャートである。 第1実施形態に係る画像処理装置での画像取込後の表示例を示す図である。 第1実施形態に係る画像処理装置での描画後の表示例を示す図である。 第1実施形態に係る画像処理装置での二値画像生成処理での生成例を示す図である。 第1実施形態に係る画像処理装置でのトライマップ画像生成処理での生成例を示す図である。 第1実施形態に係る画像処理装置でのマスク画像生成処理での生成例を示す図である。 第1実施形態に係る画像処理装置での色柄画像合成処理での合成例を示す図である。 第2実施形態に係る画像処理装置の機能ブロック図である。 第2実施形態に係る画像処理装置での処理を示すフローチャートである。 第2実施形態に係る画像処理装置でのトライマップ画像生成処理及びマスク画像生成処理での生成例を示す図である。 第2実施形態に係る画像処理装置での色柄画像合成処理での合成例を示す図である。
以下、本考案を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本考案の技術的範囲はこれに限られるものではない。
(第1実施形態)
<画像処理装置1>
図1は、第1実施形態に係る画像処理装置1の機能ブロック図である。
画像処理装置1は、ユーザが色(色彩)を変更したい画像の一部分(変換対象画像)を囲う操作することで指定して、囲った部分を高精度に処理したマスク画像を生成する。そして、画像処理装置1は、生成されたマスク画像に対して色画像を合成することで、色に関する様々なシミュレートが可能な装置である。
第1実施形態では、髪の色をシミュレートするものについて説明する。
画像処理装置1は、例えば、タブレットPCに代表されるコンピュータの機能を併せ持った携帯型の装置である。画像処理装置1は、その他、スマートフォン等でもよい。また、画像処理装置1は、パーソナルコンピュータ等であってもよい。
画像処理装置1は、制御部10(画像処理部)と、記憶部20と、タッチパネルディスプレイ25と、カメラ部28と、通信I/F(インタフェース)部29とを備える。
制御部10は、画像処理装置1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、トライマップ画像生成部11と、マスク画像生成部12と、色柄画像合成部13とを備える。
トライマップ画像生成部11は、ユーザによる入力部分を不確定領域(境界領域部)とし、この不確定領域と、入力によって囲われた内側領域(閉領域内部)と、外側領域(閉領域外部)とを三値で表したトライマップ画像(三値画像)を生成する。
マスク画像生成部12は、アルファマスク処理によってマスク画像を生成する。
色柄画像合成部13は、マスク画像と色画像とを用いて新たな色画像を生成する。新たな色画像は、色画像のRGB(Red−Green−Blue color model)を用いて作成する。RGBとは、色をR(赤)、G(緑)、B(青)の3つの色の組み合わせとして表現するものである。そして、色柄画像合成部13は、新たな色画像と、背景画像とを合成した合成画像を作成する。
なお、各処理の詳細については、後述する。
記憶部20は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶領域である。
記憶部20は、色柄シミュレーションプログラム21と、色柄画像記憶部22とを備える。
色柄シミュレーションプログラム21は、画像処理装置1の制御部10が実行する各種機能を行うためのプログラムである。色柄シミュレーションプログラム21は、予め画像処理装置1にインストールされているものとする。
色柄画像記憶部22は、シミュレートに用いる複数の色画像(色柄画像)を記憶する。色画像は、例えば、図示しないサーバから受信して記憶する。色画像は、シミュレートするものが髪であれば、髪の色を変えるためのカラーリングのRGB値であってもよい。
タッチパネルディスプレイ25は、液晶パネル等で構成される表示部としての機能と、ユーザからの指等によるタッチ入力を検出する入力部(タッチパネル部)としての機能とを有する。
カメラ部28は、撮影装置である。カメラ部28は、シミュレートしたい被写体の画像データを取得する。
通信I/F部29は、通信ネットワークを介して他の装置(例えば、サーバ)との通信を行うためのインタフェース部である。
<画像処理装置1の処理>
次に、画像処理装置1の処理について説明する。
図2は、第1実施形態に係る画像処理装置1での処理を示すフローチャートである。
図3は、第1実施形態に係る画像処理装置1での画像取込後の表示例を示す図である。
図4は、第1実施形態に係る画像処理装置1での描画後の表示例を示す図である。
図5は、第1実施形態に係る画像処理装置1での二値画像生成処理での生成例を示す図である。
図6は、第1実施形態に係る画像処理装置1でのトライマップ画像生成処理での生成例を示す図である。
図7は、第1実施形態に係る画像処理装置1でのマスク画像生成処理での生成例を示す図である。
図8は、第1実施形態に係る画像処理装置1での色柄画像合成処理での合成例を示す図である。
以下の例では、画像処理装置1を、美容院で使用するものとして説明する。そして、画像処理装置1が、客を被写体として撮影し、被写体の髪を表す画像H(変換対象画像)を含む被写体画像I0を用いて、髪のカラーバリエーションをシミュレートするものを説明する。
図2のステップS(以下、「S」という。)10において、ユーザ(例えば、美容院の店員)が画像処理装置1のカメラ部28を操作することで、制御部10は、カメラ部28を制御して被写体を撮影する。そして、制御部10は、撮影した静止画像である被写体画像I0を、記憶部20に記憶する。
S11において、ユーザが色柄シミュレーションプログラム21の起動を指示することで、制御部10は、色柄シミュレーションプログラム21を起動させる。
S12において、制御部10は、記憶部20に記憶された被写体画像I0を取り込んで、タッチパネルディスプレイ25に表示されたビューア30に、被写体画像I0を表示させる。例えば、制御部10は、記憶部20に記憶された複数の被写体画像のサムネイルをタッチパネルディスプレイ25に表示させる。そして、ユーザがその中から1つの画像を選択することで、制御部10は、選択された画像を取り込んで、ビューア30に表示させてもよい。
図3は、被写体の被写体画像I0が表示されたビューア30の例を示す。
ビューア30は、画像表示部31と、ボタン部32とを備える。
画像表示部31は、取込指示がされた被写体画像I0を表示する表示領域である。
ボタン部32は、画像表示部31に対して描画する際に使用する各種ボタンを有する。
ボタン部32は、ペンボタン32aと、ケシゴムボタン32bと、クリアボタン32cと、太さ設定ボタン32dと、完了ボタン32eとを有する。
ユーザがペンボタン32aを選択して、タッチパネルディスプレイ25を指でなぞる操作をすることで、制御部10は、ビューア30上に、ユーザがなぞった部分を、ペンで描いたかのように線を表示させる。なお、この線とは、幅を有するものである。以下、ユーザが描く線は、幅を有するものとして説明する。
ユーザがケシゴムボタン32bを選択して指でタッチパネルディスプレイ25をなぞる操作をすることで、制御部10は、ビューア30上に、ユーザがなぞった線を、ケシゴムを使用したかのように消すことができる。
ユーザがクリアボタン32cを選択することで、制御部10は、ビューア30上に表示されている全ての線を消すことができる。
ユーザが太さ設定ボタン32dを選択することで、制御部10は、ペンの太さを設定する設定画面(図示せず)を表示し、ユーザの指定によって、ペンの太さを設定する。これにより、ユーザは、描く線の線幅を設定できる。
ユーザが完了ボタン32eは、ユーザによる操作を完了する際に選択するボタンである。
ユーザは、まず、ペンボタン32aを選択して、ビューア30上を指でなぞる操作をする。制御部10は、ユーザによる髪を表す画像Hの輪郭をなぞる操作を受け付けたことに応じて、なぞられた部分に対してペンで描いたかのような線を描く。ユーザは、描画操作を誤った場合には、ケシゴムボタン32bや、クリアボタン32cを選択して、描かれた線を消去する。そして、ユーザは、髪を表す画像Hを囲うように線を描く。
図4(A)は、描画後画像I1を示す。描画後画像I1は、ユーザの描画操作によって髪を表す画像Hが囲われた画像である。
図4(B)は、図4(A)の一部領域Tを拡大表示したものである。図4(B)に示すように、毛先部分等のような髪と背景画像とが入れ混ざっている部分に対しては、ユーザは、塗りつぶすようになぞる操作を行う。
図2に戻り、S13において、制御部10は、ビューア30上に描かれた線によって、閉領域が作成されたか否かを判断する。なお、制御部10は、完了ボタン32e(図3参照)の選択を受け付けたかことに応じて、閉領域が作成されたか否かを判断してもよい。閉領域とは、ユーザによる囲う操作によって描かれた閉じた線の内側領域をいう。閉領域が作成された場合(S13:YES)には、制御部10は、処理をS14に移す。他方、閉領域が作成されていない場合(S13:NO)には、制御部10は、ユーザの操作によって閉領域が作成されるまで、本処理を繰り返す。
なお、制御部10は、完了ボタン32e(図3参照)の選択を受け付けた際に、閉領域が作成されていないと判断した場合であっても、例えば、囲われていない線の始点と終点とがごく近い位置(近接位置)にある場合には、線を補完して閉領域が作成されたと判断してもよい。なお、制御部10が、補完して閉領域を作成するのは、その他、閉領域の面積に対して十分に小さいものである場合等が該当する。
S14において、制御部10は、二値画像生成処理を行う。制御部10は、閉領域のうちユーザが描いて線として表された線幅部分を白色領域W2にし、線幅部分以外を黒色領域B2にした二値画像I2を生成する。図5(B)は、図5(A)を二値化した二値画像I2を示す。
図2に戻り、S15において、制御部10(トライマップ画像生成部11)は、トライマップ画像を生成する。まず、制御部10は、エッジ抽出を行う。エッジ抽出では、制御部10は、二値画像I2のうちユーザが描いて線として表された線幅部分である白色領域W2の境界E3(E3a,E3b)(エッジ)を判別する。そして、制御部10は、境界E3を白線にし、それ以外の部分を黒色領域B3にして、二値画像I2の白色領域W2を縁取ったエッジ抽出画像I3を生成する。図6(A)は、図5(B)の二値画像I2に対してエッジ抽出をしたエッジ抽出画像I3である。
次に、制御部10(トライマップ画像生成部11)は、ラベリング処理を行う。ラベリング処理では、制御部10は、エッジ抽出画像I3の外枠F3から外側の境界E3aまでと、外側の境界E3aと内側の境界E3bとに囲まれた部分と、内側の境界E3bのさらに内側部分とに対して、順に、黒色、灰色、白色の順番でラベル付けをする。なお、内側部分にさらに境界Eを含む場合には、灰色、黒色、・・・という順番でラベリングをする。そして、ラベル付けされた結果を、黒色を背景領域B4(閉領域外部)とし、白色を前景領域W4(閉領域内部)とし、灰色を不確定領域G4(境界領域部)としたトライマップ画像I4を生成する。図6(B)は、図6(A)に対してラベリング処理を行ったことにより生成されたトライマップ画像I4である。このトライマップ画像I4は、黒色、灰色、白色の三値で表せるので、三値画像ともいう。ユーザが描いた部分である二値画像I2の白色領域W2(図5(B)参照)は、輪郭であったり、髪と背景画像とが入り混じった部分であって、前景画像と背景画像との境界部分である。そこで、その部分は、制御部10により、不確定領域G4に設定される。
制御部10は、以下の処理によって、不確定領域G4を、前景にするか背景にするかを、高精度に判定する。
図2に戻り、S16において、制御部10(マスク画像生成部12)は、トライマップ画像I4からマスク画像I5(アルファマスク画像)を生成する。マスク画像は、公知のアルファマッティング処理を行うことで実現できる。
アルファマッティング処理では、まず、不確定領域G4である灰色エリア内の画素を基点に、隣接する複数の前景及び背景画素の画素値を求める。そして、次に、前景及び背景画素を様々な組み合わせと割合で合成し、元の画素値qに最も近似した割合を透過度とし、マルファマスクを生成する。
アルファマッティング処理の例としては、「Eduardo S. L. Gastal and Manuel M. Oliveira, SHred Sampling for Real-Time AlpH Matting,Computer Graphics Forum, Volume 29 (2010), Number 2, Proceedings of Eurographics 2010, pp. 575-584」に記載されたものがある。
制御部10(マスク画像生成部12)は、アルファマッティング処理により、透過度に応じた二値画像であるマスク画像I5を生成できる。
制御部10(マスク画像生成部12)は、トライマップ画像I4(図6(B)参照)に対してマスク画像生成処理を行うことで、図7に示すマスク画像I5を生成する。なお、制御部10(マスク画像生成部12)は、トライマップ画像I4のうち、灰色で表された不確定領域G4を、アルファマッティング処理を行う部分と判断して処理を行う。
図2に戻り、S17において、制御部10(色柄画像合成部13)は、マスク画像I5を使用して、色柄画像合成処理を行う。
色柄画像合成処理では、制御部10は、元画像である被写体画像I0(図3参照)と、色柄画像記憶部22に記憶されている色画像の各RGB値を、アルファブレンド処理を行うことで、合成後の色を算出する。これは、アルファマスク画像のα値を指定することで、以下の式により行うことができる。
Figure 0003192116
制御部10(色柄画像合成部13)は、算出された合成後の色をマスク画像I5に施し、背景画像と、色を施したマスク画像(新たな色画像)とを合成する。この合成処理を行った結果の合成後画像I6(I6−1〜I6−3)を、図8に示す。
元の被写体画像I0の髪を表す画像Hの色は、例えば、茶系色であった(図3参照)。上述の合成処理を行うことにより、画像処理装置1は、合成後画像I6−1の髪を表す画像Hの色を、例えば、赤系色(図8(A))に変換できる。この色柄画像合成処理は、元の被写体画像I0の色を使用して、合成後画像I6の色を決める処理を行うものである。よって、この実施形態で説明したように、元の色を用いて染めるようなものに対してシミュレートするものへの適用が望ましい。
図2に戻り、S19において、制御部10は、色を変更するか否かを判断する。これは、ビューア30に表示された色柄画像合成処理後の合成後画像を見たユーザが、さらに色を変更したい場合に、変更を指示することで、制御部10は、指示情報を受け付けて、変更するか否かを判断できる。色を変更する場合(S19:YES)には、制御部10は、処理をS17に移し、色柄画像記憶部22に記憶されている他の色画像を用いて、再度合成処理を行う。他方、色を変更しない場合(S19:NO)には、制御部10は、処理をS20に移す。
図8(B)及び(C)は、再度色変換を行って合成処理を行った結果である合成後画像I6−2及びI6−3である。図8(B)は、合成後画像の髪を表す画像Hの色を、例えば、緑系色に変換したものであり、図8(C)は、合成後画像の髪を表す画像Hの色を、例えば、紫系色に変換したものである。これらは、いずれも元の被写体画像I0の髪を表す画像H(茶系色)に対して色変換したものである。
図2に戻り、S20において、制御部10は、色柄シミュレーションプログラム21を終了するか否かを判断する。これは、ユーザによりプログラム終了の指示がされたことを制御部10が受け付けたか否かにより判断できる。色柄シミュレーションプログラム21を終了する場合(S20:YES)には、制御部10は、色柄シミュレーションプログラム21を終了し、本処理を終了する。他方、色柄シミュレーションプログラム21を終了しない場合(S20:NO)には、制御部10は、処理をS12に移す。
このように、第1実施形態の画像処理装置1によれば、以下のような効果がある。
(1)ユーザがビューア30の上を、色をシミュレートしたい領域を囲うようになぞる操作をすることで、境界領域と閉領域内とを識別できる。そうすることで、境界領域に対して精度の高い処理をすることができる。よって、ユーザによる簡易な操作で、精度の高いマスク画像を生成できる。また、精度の高い処理を行う部分を最小限に指定できるので、処理効率が向上する。そして、そのマスク画像を用いて画像合成をすることで、境界部分でも違和感のない自然な画像合成処理を行うことができる。
(2)髪を表す画像に、例えば、後述する二値化処理を行って画像を生成すると、ベタ画像になるので、本来の雰囲気が分からなくなる。しかし、髪を表す画像にアルファマッティング処理及びアルファブレンディング処理を用いて画像を生成するので、違和感のない画像合成を行うことができる。なお、アルファマッティング処理及びアルファブレンディング処理を用いて画像を生成するものは、髪を表す画像等のような背景と前景とが区別しづらいものや、透過性のある素材等が望ましい。
(3)髪の色は、実際に現物の髪を何度も染めたりすることなく、シミュレートできるので、客が大まかなイメージを確認することができる。
(4)ユーザがその場で撮影した画像に対して、簡単なオペレーションでシミュレートすることができる。
(第2実施形態)
第2実施形態では、マスク画像生成処理及び色柄画像合成処理を、別の方法を用いるものを説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
<画像処理装置201>
図9は、第2実施形態に係る画像処理装置201の機能ブロック図である。
画像処理装置201は、制御部210(画像処理部)と、記憶部220と、タッチパネルディスプレイ25と、カメラ部28と、通信I/F部29とを備える。
制御部210は、トライマップ画像生成部11と、マスク画像生成部212と、色柄画像合成部213とを備える。
マスク画像生成部212は、二値化処理を行ってマスク画像を生成する。
色柄画像合成部213は、マスク画像と色柄画像とを用いて新たな色柄画像を生成する。新たな色柄画像は、輝度補正を行って生成する。そして、色柄画像合成部213は、新たな色柄画像と、背景画像とを合成した合成画像を作成する。
記憶部220は、色柄シミュレーションプログラム221と、色柄画像記憶部222とを備える。
色柄シミュレーションプログラム221は、画像処理装置201の制御部210が実行する各種機能を行うためのプログラムである。
色柄画像記憶部222は、シミュレートに用いる複数の色柄画像を記憶する。色柄画像は、シミュレートするものが服や部屋の内装材、外装材、カーテン等であれば、色柄画像のパターンデータであってもよい。
第2実施形態では、服の色をシミュレートするものについて説明する。
<画像処理装置201の処理>
次に、画像処理装置201の処理について説明する。
図10は、第2実施携帯に係る画像処理装置201での処理を示すフローチャートである。
図11は、第2実施形態に係る画像処理装置201でのトライマップ画像生成処理及びマスク画像生成処理での生成例を示す図である。
図12は、第2実施形態に係る画像処理装置201での色柄画像合成処理での合成例を示す図である。
以下の例では、画像処理装置201を、洋品店で使用するものとして説明する。そして、画像処理装置201が、服を試着した客を被写体として撮影し、服を表す画像C(変換対象画像)を含む被写体画像を用いて、服のカラーバリエーションをシミュレートするものを説明する。
図10のS10〜S15までは、図2(第1実施形態)と同様である。
制御部210は、ユーザ(洋品店の店員)が撮影した被写体画像を、ユーザの操作によって色柄シミュレーションプログラム221を実行することで取り込んで、ビューア30に表示させる。そして、制御部210は、ユーザによる描画操作を受け付けて、描画操作に沿って描かれた線を、ビューア30に表示する。図11(A)は、描画後画像J1である。この例では、服の可視領域は、被写体の手の上下の2つの領域である。そこで、ユーザは、2つの閉領域を作成する。なお、ユーザは、例えば、服の色が被写体の肌に写りこんでいる部分がある場合には、そこを塗りつぶすようになぞる操作を行う。
図11(B)は、S15の処理によって制御部210が生成したトライマップ画像J4を表す。
図10のS216において、制御部210(マスク画像生成部212)は、トライマップ画像J4からマスク画像J5を生成する。マスク画像J5は、公知の二値化処理を行うことで実現できる。
二値化処理では、不確定領域G204である灰色エリア内の画素を基点に、隣接する複数の前景及び背景画素との類似度を用いた最小コスト切断問題(グラフカット)として定式化し、最もコストが小さくなる切断軌跡を求めることで、二値画像を生成する。
グラフカットによる二値画像の生成の例としては、「C. Rother, V. Kolmogorov, A. Blake.“GrabCut - Interactive foreground extraction using iterated graph cuts”,SIGGRAPH, 2004」や、「グラフカットの理論と応用(http://www.f.waseda.jp/hfs/SSIITutorial.pdf)」に記載されたものがある。
制御部210(マスク画像生成部212)は、二値化処理によって二値画像であるマスク画像J5を生成できる。
図11(C)は、制御部210(マスク画像生成部212)がトライマップ画像J4(図11(B))に対して二値化処理を行うことで生成したマスク画像J5である。
図10に戻り、S217において、制御部210(色柄画像合成部213)は、マスク画像を使用して、色柄画像合成処理を行う。
色柄画像合成処理では、制御部210は、元画像である被写体画像と、色柄画像記憶部222に記憶されている色柄画像とを、Y(輝度)、I(オレンジ−シアン)、Q(緑−マゼンダ)の三要素からなるYIQ表色系に変換し、適度に元画像の陰影情報を残したまま、色柄画像の色を合成する。これは、元画像である被写体画像に対して輝度補正をかけた合成後の色柄画像の色を算出し、算出結果を用いることで実現できる。合成後の色の算出は、例えば、特許第3679347号公報等の技術を用いることにより行うことができる。
制御部210(色柄画像合成部213)は、算出された合成後の色を適用した色柄画像をマスク画像J5に施し、背景画像と、色柄画像を施したマスク画像(新たな色柄画像)とを合成する。この合成処理を行った結果である合成後画像J6(J6−1〜J6−3)を、図12(A)〜(C)に示す。
図12(A)〜(C)は、試着した服を表す画像Cの色を、他の色に変更したものである。
客は、色柄画像を合成処理した合成後画像J6が表示されたビューア30を見せてもらうことで、他の服の色を試着後のイメージを確認できる。
図10に戻り、S18及びS20は、図2(第1実施形態)と同様である。
また、S219は、S19(図2)の「色を」の部分を「色柄を」に変更した以外は、図2(第1実施形態)と同様である。
このように、第2実施形態の画像処理装置201によれば、以下のような効果がある。
(1)様々な色の服をあたかも試着したかのような画像を作成できるので、客は、何度も試着する手間をかけずに済む。店側では、客の試着回数を減らすことができるので、試着室の使用時間を減らすことができる。また、その店では品切れ等によって用意のない色柄でも、客は、その色柄の服を試着した状態をシミュレートできるので、客の購買意欲を向上できる。
(2)服や、部屋の内装材等のようなものに対しては、二値化処理を行って画像を生成することで、アルファマッティングのような過剰な処理を行うことなく、効率的に色変換を行うことができる。
以上、本考案の実施形態について説明したが、本考案は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本考案から生じる最も好適な効果を列挙したに過ぎず、本考案による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
(変形形態)
(1)第1実施形態では、髪の色を変えるものを説明し、第2実施形態では、服の色を変えるものを説明した。しかし、これらに限定されるものではない。被写体画像の色や柄を変更したいものに、変換後の色画像や色柄画像に関する情報があれば、様々なものに適用できる。
(2)第1実施形態と、第2実施形態とは、異なる色柄シミュレーションプログラムを有し、マスク画像生成処理と、色柄画像合成処理とが異なる方法によるものを説明した。しかし、色柄シミュレーションプログラムを、両方の方法が実現できる機能を有するプログラムにすることで、いずれの処理をも1つの画像処理装置で行うことができる。その場合には、制御部が画像認識処理を行うことで、アルファマッティング処理を行うか、二値化処理を行うかを判別すればよい。例えば、ユーザが髪を表す画像を指定した場合には、制御部が画像認識処理の1つである顔認識技術を用いて髪を指定したことを判別することで、自動的にアルファマッティング手法を用いるようにしてもよい。
(3)各実施形態では、画像処理装置がタッチパネルディスプレイを有する構成であることを前提として説明した。タッチパネルディスプレイでは、表示部と入力部が一体になっているので、表示された部分の上面を入力部で指定すればいいので、操作が容易である。しかし、画像処理装置が、表示部と入力部とを有していればよく、タッチパネルディスプレイに限定するものではない。
また、タッチパネルディスプレイをユーザが指を使って操作をする例で説明した。しかし、ペン型の装置等を用いて操作をしてもよい。
(4)各実施形態では、画像処理装置がカメラ部を有するものとして説明した。しかし、画像処理装置がカメラ部を有していなくてもよい。被写体画像を記憶部に記憶していればよく、例えば、通信ネットワークを介して被写体画像を受信したり、取り外し可能な記憶媒体から被写体画像を取り込んだりしておけばよい。
(5)各実施形態では、被写体画像を静止画像であることを前提として説明した。しかし、被写体画像は、動画像であってもよい。その場合には、制御部は、動画像のうちの一コマ画像に対して色変換し、色変換した部分を公知の画像認識処理を用いて追従することで実現できる。これにより、動画像であっても、少ない処理で色を変換できる。
1,201 画像処理装置
10,210 制御部
11 トライマップ画像生成部
12,212 マスク画像生成部
13,213 色柄画像合成部
20,220 記憶部
21,221 色柄シミュレーションプログラム
22,222 色柄画像記憶部
25 タッチパネルディスプレイ
G4,G204 不確定領域
I4 トライマップ画像
I5 マスク画像
J4 トライマップ画像
J5 マスク画像

Claims (11)

  1. 画像を表示する表示部と、
    ユーザによる描画操作を受け付ける入力部と、
    前記表示部に表示された画像に対して前記入力部が受け付けた前記描画操作が、前記画像の一部を囲ったと判断するとともに、作成された閉領域の色を変換する画像処理部と、
    を備えること、
    を特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記画像処理部は、前記描画操作の近接位置を補完して、前記画像の一部を囲ったと判断すること、
    を特徴とする画像処理装置。
  3. 請求項1又は請求項2に記載の画像処理装置において、
    前記画像処理部は、作成された閉領域の境界部分である境界領域部と、閉領域内部と、閉領域外部とを識別した三値画像を生成した後に、前記閉領域の色を変換すること、
    を特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記画像処理部は、生成された前記三値画像の前記境界領域部に対して処理を行い、マスク画像を生成した後に、前記閉領域の色を変換すること、
    を特徴とする画像処理装置。
  5. 請求項4に記載の画像処理装置において、
    前記画像処理部は、前記境界領域部に対してアルファマッティング処理を行うことにより前記マスク画像を生成すること、
    を特徴とする画像処理装置。
  6. 請求項4に記載の画像処理装置において、
    前記画像処理部は、前記境界領域部に対して二値化処理を行うことにより前記マスク画像を生成すること、
    を特徴とする画像処理装置。
  7. 請求項4から請求項6までのいずれかに記載の画像処理装置において、
    前記画像処理部は、前記画像に対して画像認識処理を行い、前記境界領域部に対してアルファマッティング処理を行うか、二値化処理を行うかを判断すること、
    を特徴とする画像処理装置。
  8. 請求項1から請求項7までのいずれかに記載の画像処理装置において、
    前記画像は、動画像であり、
    前記画像処理部は、色変換した領域を画像認識処理で追従することで、前記動画像に対する色を変換すること、
    を特徴とする画像処理装置。
  9. 請求項1から請求項8までのいずれかに記載の画像処理装置において、
    前記画像を取得する撮影部を備えること、
    を特徴とする画像処理装置。
  10. 請求項1から請求項9までのいずれかに記載の画像処理装置において、
    携帯型であること、
    を特徴とする画像処理装置。
  11. 請求項1から請求項10までのいずれかに記載の画像処理装置において、
    前記入力部は、
    前記表示部に対するタッチ操作が行われることで、前記表示部に対するタッチ操作による位置情報を取得するタッチパネル部であり、
    前記表示部に表示された前記画像の上を、前記画像の一部を囲う描画操作を受け付けること、
    を特徴とする画像処理装置。
JP2014001627U 2014-03-28 2014-03-28 画像処理装置 Expired - Fee Related JP3192116U (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014001627U JP3192116U (ja) 2014-03-28 2014-03-28 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014001627U JP3192116U (ja) 2014-03-28 2014-03-28 画像処理装置

Publications (1)

Publication Number Publication Date
JP3192116U true JP3192116U (ja) 2014-07-31

Family

ID=78224767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014001627U Expired - Fee Related JP3192116U (ja) 2014-03-28 2014-03-28 画像処理装置

Country Status (1)

Country Link
JP (1) JP3192116U (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045744A (ja) * 2014-08-22 2016-04-04 カシオ計算機株式会社 画像処理装置、画像処理方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045744A (ja) * 2014-08-22 2016-04-04 カシオ計算機株式会社 画像処理装置、画像処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
US11854070B2 (en) Generating virtual makeup products
US11854072B2 (en) Applying virtual makeup products
US11880977B2 (en) Interactive image matting using neural networks
TWI325567B (en) Method and system for enhancing portrait images that are processed in a batch mode
US11908052B2 (en) System and method for digital makeup mirror
JP6956252B2 (ja) 顔表情合成方法、装置、電子機器及びコンピュータプログラム
CN104221359B (zh) 用于色彩片段的色彩调节器
TW200402231A (en) Method and system for enhancing portrait images
JP6292884B2 (ja) 製品のカスタマイズに用いるデジタル画像を生成するために赤外線写真を用いる方法
US10373348B2 (en) Image processing apparatus, image processing system, and program
US8406566B1 (en) Methods and apparatus for soft edge masking
TW202234341A (zh) 圖像處理方法及裝置、電子設備、儲存媒體和程式產品
JP2010507854A (ja) ビデオイメージシーケンスを仮想シミュレーションする方法及び装置
JP2022125297A (ja) 線画自動着色プログラム、線画自動着色装置及びグラフィカルユーザインターフェース用プログラム
US20020118209A1 (en) Computer program product for introducing painting effects into a digitized photographic image
CN112308944A (zh) 仿真唇妆的扩增实境显示方法
CN112085663A (zh) 利用上下文感知传感器和多维姿势输入生成增强数字图像
CN109983753A (zh) 图像处理装置、图像处理方法和程序
JP7242165B2 (ja) プログラム、情報処理装置、および方法
US20220138840A1 (en) Systems and methods for visualizing wall coverings in an image of a scene
JP2015511339A (ja) 毛髪色付け装置及び方法
JP6891473B2 (ja) 柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム
JP3192116U (ja) 画像処理装置
JP2014044595A (ja) 線画着色システム
JP6711020B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140523

R150 Certificate of patent or registration of utility model

Ref document number: 3192116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees