JP2022176755A - 画像処理装置、画像処理方法、画像処理プログラム - Google Patents
画像処理装置、画像処理方法、画像処理プログラム Download PDFInfo
- Publication number
- JP2022176755A JP2022176755A JP2021083336A JP2021083336A JP2022176755A JP 2022176755 A JP2022176755 A JP 2022176755A JP 2021083336 A JP2021083336 A JP 2021083336A JP 2021083336 A JP2021083336 A JP 2021083336A JP 2022176755 A JP2022176755 A JP 2022176755A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- person
- area
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 248
- 238000003672 processing method Methods 0.000 title claims description 5
- 210000004209 hair Anatomy 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 39
- 230000008569 process Effects 0.000 claims description 33
- 230000011218 segmentation Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 11
- 230000002349 favourable effect Effects 0.000 abstract 1
- 240000007320 Pinus strobus Species 0.000 description 35
- 238000003384 imaging method Methods 0.000 description 21
- 210000002414 leg Anatomy 0.000 description 18
- 210000003414 extremity Anatomy 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 9
- 210000002683 foot Anatomy 0.000 description 9
- 238000007639 printing Methods 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 210000003128 head Anatomy 0.000 description 8
- 210000003371 toe Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000003780 insertion Methods 0.000 description 7
- 230000037431 insertion Effects 0.000 description 7
- 210000003127 knee Anatomy 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000037308 hair color Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 210000000617 arm Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 206010042496 Sunburn Diseases 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像処理の対象とする領域を特定して利用者にとって好ましい画像処理を提供する。
【解決手段】画像処理装置は、人物を含む画像データを受け付ける受付部(303)と、学習用画像データと、学習用画像データに含まれる人物について少なくとも1以上の領域である第1の領域群との関係を学習済みの第1学習モデルを用いて、画像データから第1の領域群を生成する第1の生成処理と、学習用画像データと、学習用画像データに含まれる人物について第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係を学習済みの第2学習モデルを用いて、前記画像データから第2の領域群を生成する第2の生成処理とを実行する生成処理部(304)と、画像データから、第1及び第2の領域群に応じて処理対象である対象領域を特定する特定部(305)と、画像データの対象領域に対し、所定の画像処理を施す画像処理部(306)と、を備える。
【選択図】図10
【解決手段】画像処理装置は、人物を含む画像データを受け付ける受付部(303)と、学習用画像データと、学習用画像データに含まれる人物について少なくとも1以上の領域である第1の領域群との関係を学習済みの第1学習モデルを用いて、画像データから第1の領域群を生成する第1の生成処理と、学習用画像データと、学習用画像データに含まれる人物について第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係を学習済みの第2学習モデルを用いて、前記画像データから第2の領域群を生成する第2の生成処理とを実行する生成処理部(304)と、画像データから、第1及び第2の領域群に応じて処理対象である対象領域を特定する特定部(305)と、画像データの対象領域に対し、所定の画像処理を施す画像処理部(306)と、を備える。
【選択図】図10
Description
本発明は、人物が撮影された画像を処理する画像処理装置、画像処理方法及び画像処理プログラムに関する。
従来、撮影した画像に所定の画像処理を行い、ユーザに提供する写真シール作成装置が知られている。具体的には、所定の部位に対して形状の異なる複数のマスク画像を生成し、画像処理の対象として特定するものがある。(例えば、特許文献1参照)。
特許文献1には、例えば、顔画像の中の下側の領域内に存在する所定の色の領域を唇として認識し、認識された唇の部分に対応するマスク画像を生成し、唇画像を生成することが記載される。
特許文献1においては、所望の領域を正確に特定できないおそれがあった。このような場合、画像処理により得られた画像データが不自然になるおそれがある。
本発明は、以上のような課題を解決し、画像処理の対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施す画像処理装置、画像処理方法及び画像処理プログラムと、これら画像処理に利用される領域特定モデル及びモデル生成方法を提供することを目的とする。
本発明に係る画像処理装置の第1の態様は、人物を含む画像データを受け付ける受付部と、人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について少なくとも1以上の領域である第1の領域群との関係を学習済みの第1学習モデルを用いて、前記画像データから第1の領域群を生成する第1の生成処理部と、人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について前記第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係を学習済みの第2学習モデルを用いて、前記画像データから第2の領域群を生成する第2の生成処理部と、前記画像データから、前記第1及び前記第2の領域群に応じて処理対象である対象領域を特定する特定部と、 前記画像データの前記対象領域に対し、所定の画像処理を施す画像処理部と、を備える。
本発明に係る画像処理方法の第1の態様は、人物を含む画像データを受け付ける受付ステップと、人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について少なくとも1以上の領域である第1の領域群との関係を学習済みの第1学習モデルを用いて、前記画像データから第1の領域群を生成する第1の生成ステップと、人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について前記第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係を学習済みの第2学習モデルを用いて、前記画像データから第2の領域群を生成する第2の生成ステップと、前記画像データから、前記第1及び前記第2の領域群に応じて処理対象である対象領域を特定する特定ステップと、前記画像データの前記対象領域に対し、所定の画像処理を施す画像処理ステップと、を含む。
本発明に係る画像処理プログラムの第1の態様は、コンピュータを、人物を含む画像データを受け付ける受付部と、人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について少なくとも1以上の領域である第1の領域群との関係を学習済みの第1学習モデルを用いて、前記画像データから第1の領域群を生成する第1の生成処理部と、人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について前記第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係を学習済みの第2学習モデルを用いて、前記画像データから第2の領域群を生成する第2の生成処理部と、前記画像データから、前記第1及び前記第2の領域群に応じて処理対象である対象領域を特定する特定部と、前記画像データの前記対象領域に対し、所定の画像処理を施す画像処理部と、して機能させる。
本発明によれば、画像処理の対象とする領域を特定して利用者にとって好ましい画像処理を提供することができる。
以下、本発明の具体的な実施の形態について添付の図面を参照しながら説明する。なお、同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。さらに、各図面に記載した構成の形状、また、長さ、奥行および幅などの寸法は、実際の形状および寸法を反映させたものではなく、図面の明瞭化と簡略化のために適宜変更している。
本発明に係る画像処理装置を、一例である写真シール作成装置として説明する。本発明を適用する写真シール作成装置は、撮影や編集等を利用者にゲームとして行わせ、その撮影・編集した画像を、写真シールやデータとして利用者に提供するゲーム装置である。写真シール作成装置1は、例えば、ゲームセンタ、ショッピングモールおよび観光地の店舗等に設置される。
写真シール作成装置が提供するゲームにおいて、利用者は、写真シール作成装置に設けられたカメラを用いて自分自身等を撮影する。利用者は、その撮影画像に対して、前景画像および/または背景画像を合成したり、また、編集用合成用画像としてのペン画像入力やスタンプ画像入力等の編集機能(落書き編集機能)を用いたりして編集を行い、撮影画像を彩り豊かなものにデザインする。そしてゲーム終了後、利用者は、編集した画像が印刷された写真シール等を成果物として受け取る。または、写真シール作成装置は編集した画像を利用者の携帯端末に提供し、利用者は携帯端末により成果物を受け取ることもできる。
(写真シール作成装置の構成)
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1の利用者は、主に女子中学生および女子高校生などの若い女性が中心とされる。写真シール作成装置1において、1組当たり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1の利用者は、主に女子中学生および女子高校生などの若い女性が中心とされる。写真シール作成装置1において、1組当たり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が華やかな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。
撮影ユニット11は、事前選択操作部20、撮影操作部21、および背景部22から構成される。事前選択操作部20は、撮影操作部21の側面に設置される。事前選択操作部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影操作部21と背景部22は所定の距離だけ離れて設置される。撮影操作部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。
事前選択操作部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を利用者に選択させるための処理を行ったりする。事前選択操作部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択操作部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。
撮影操作部21は、利用者を被写体として撮影するための装置である。撮影操作部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影操作部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影操作部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影操作部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択操作部20が設置されるものとする。なお、事前選択操作部20は、側面パネル41Bに設置されるようにしてもよいし、側面パネル41A,41Bの両方に設置されるようにしてもよい。
背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。
側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。
なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、利用者が所望する背景画像がシートの部分に合成される。
側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。
撮影空間の上方には、撮影操作部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影操作部21の正面パネル42に接するようにして、撮影ユニット11に連結している。
図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。
編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影操作部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。
編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A,26B,26Cが、組み合わせられて構成される。3本のレール26A,26B,26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。
カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
また、後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。
(利用者の移動)
ここで、画像作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成ゲーム中の利用者の空間移動を説明するための図である。
ここで、画像作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成ゲーム中の利用者の空間移動を説明するための図である。
まず、利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。
事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影操作部21と背景部22の間に形成された撮影空間A1に入る。そして利用者は、撮影操作部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。
撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-2に移動する。
編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影操作部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-2から印刷待ち空間A3に移動する。
印刷待ち空間A3に移動した利用者は、画像の印刷の終了を待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の画像作成ゲームを終える。
(事前選択部の構成)
次に、各装置の構成について説明する。図4は、事前選択操作部20の正面図である。
次に、各装置の構成について説明する。図4は、事前選択操作部20の正面図である。
事前選択操作部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、撮影に関するコースの選択、編集の対象となる編集対象画像における背景となる画像の選択、作成画像のレイアウト、画像作成ゲーム中に流れるBGM(Back Ground Music)、音および音声の少なくともいずれかの選択、並びに利用者の名前の入力などを行わせる事前選択処理に用いられる画面が表示される。
撮影に関するコースは、利用者が2人で撮影を行う2人用コースと、3人以上で撮影を行う大人数コースとが用意されている。また、男女のカップルで撮影を行うカップルコースが用意されていてもよい。
タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM、効果音などを出力する。また、スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。
(撮影部の構成)
図5は、撮影部としての撮影操作部21の正面図である。撮影操作部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
図5は、撮影部としての撮影操作部21の正面図である。撮影操作部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91および表示部としてのタッチパネルモニタ92から構成される。
カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー表示画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。
タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。当該選択操作の具体例としては、撮影コースの選択、撮影開始および終了の指示(撮影の制御指示)、目の変形具合および色、ならびに肌の色の補正具合の選択、作成画像における背景画像となる画像の選択、ならびに画像作成ゲーム中のBGM(音・音声)の選択などが挙げられる。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。
カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、正面上方から利用者の顔および上半身に光を照射する。
また、カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボ85が設けられる。なお、上ストロボ82と足元ストロボ85には、ストロボと蛍光灯が含まれている。
なお、図1および図5においては図示を省略するが、正面パネル42の例えば天井付近には、スピーカ93が設けられる。スピーカ93は、制御部201から出力される音声信号により、撮影処理の案内音声、BGM、効果音などを出力する。
(背景部の構成)
図6は、背景部22の撮影空間A1側の正面図である。
図6は、背景部22の撮影空間A1側の正面図である。
背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。
図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。
また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられていてもよい。クロマキーシート121の色は、例えば緑色とされる。
なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられていてもよい。
(編集ユニットの構成)
図7は、編集ユニット12の編集空間A2-1側の正面図である。
図7は、編集ユニット12の編集空間A2-1側の正面図である。
斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。例えば、2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。
図8は、編集ユニット12の左側面図である。
編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部には出力部としてのプリンタが設けられている。そのプリンタにより、編集空間A2-1の利用者が写る画像、または、編集空間A2-2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。
(写真シール作成装置の内部構成)
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
制御部201はCPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択操作部20、撮影操作部21、背景部22、編集操作部27A,27B、および印刷操作部28の各構成も接続される。
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記録媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
事前選択操作部20は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択操作部20は、タッチパネルモニタ71、スピーカ72、および硬貨処理部74から構成される。
タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。
硬貨処理部74は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部74は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。
撮影操作部21は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部220は、上ストロボ82、左ストロボ83、右ストロボ84、足元ストロボ85、カメラ91、タッチパネルモニタ92、およびスピーカ93から構成される。
上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85は、撮影空間A1内に配置され、制御部201から供給される照明制御信号に従って発光する。
カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。
編集操作部27Aは、編集空間A2-1にいる利用者を対象とした編集処理を実現する。編集操作部27Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ133から構成される。編集操作部27Bは、編集空間A2-2にいる利用者を対象とした編集処理を実現し、編集操作部27Aと同一の構成を有する。なお、以下、編集操作部27A,27Bを特に区別しない場合には、単に、編集操作部27という。
タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。
印刷操作部28は、印刷待ち空間A3にいる利用者に、作成画像を印刷済みのシール紙を提供する印刷処理を実現する。印刷操作部28は、プリンタ140を含むように構成される。プリンタ140にはシール紙ユニット141が装着される。
プリンタ140は、制御部201から供給された印刷データに基づいて、編集画像をシール紙ユニット141に収納されているシール紙142に印刷し、シール紙排出口161に排出する。
(写真シール作成装置の機能ブロック)
図10は写真シール作成装置1の機能ブロックを示すブロック図である。写真シール作成装置1は、事前選択部210、撮影部220、編集部230、および印刷部240として機能する。また、制御部201は、本発明の写真シール作成プログラムを実行することにより、事前選択処理部301、撮影処理部302、受付部303、生成処理部304、特定部305、画像処理部306、合成部307、編集処理部308、および印刷処理部309として機能する。
図10は写真シール作成装置1の機能ブロックを示すブロック図である。写真シール作成装置1は、事前選択部210、撮影部220、編集部230、および印刷部240として機能する。また、制御部201は、本発明の写真シール作成プログラムを実行することにより、事前選択処理部301、撮影処理部302、受付部303、生成処理部304、特定部305、画像処理部306、合成部307、編集処理部308、および印刷処理部309として機能する。
事前選択部210は、上述した事前選択操作部20と、事前選択処理部301とを備える。事前選択処理部301は、事前選択操作部20におけるタッチパネルモニタ71、スピーカ72、および硬貨処理部74を制御することで、事前選択処理を行う。事前選択処理部301は、撮影空間A1において行われる撮影に関するコースの選択のための選択画面等をタッチパネルモニタ71に表示させる。また事前選択処理部301は、タッチパネルモニタ71に対する、利用者の操作入力を受け付ける。具体的には、事前選択処理部301は、タッチパネルモニタ71に表示された選択画面に対する選択の操作入力、および利用者の名前の入力等を受け付ける。また事前選択処理部301は、各種の選択操作を説明するガイダンスの出力を制御する。事前選択処理部301は、各種の選択操作を説明する画面をタッチパネルモニタ71に表示させたり、各種の選択操作を説明する音声をスピーカ72から出力させたりする。
撮影部220は、上述した撮影操作部21と、撮影処理部302とを備える。撮影処理部302は、撮影操作部21におけるカメラ91、タッチパネルモニタ92、およびスピーカ93を制御することで、撮影処理を行う。
撮影処理部302は、タッチパネルモニタ92に対する、利用者の操作入力を受け付ける。例えば、撮影空間A1における撮影処理は、撮影処理部302が、利用者によるタッチパネルモニタ92への接触操作を入力として受け付けることにより開始される。
撮影処理部302は、カメラ91を制御し、利用者を被写体として撮影する。撮影には、動画像と静止画像とがある。撮影処理部302は、タッチパネルモニタ92の表示を制御することにより、カメラ91に取り込まれた動画像をタッチパネルモニタ92にライブビュー表示させたり、撮影結果である静止画像を撮影画像として表示させたりする。
また、撮影処理部302は、撮影枚数、利用者の立ち位置、サンプルポーズ、目線についてのメッセージ、および撮影タイミング等を説明するインストラクション画面をタッチパネルモニタ92に表示させる。さらに、それぞれのインストラクション画面に対応するナレーションの音声、およびBGMをスピーカ93から出力させる。
受付部303は、撮影部220で利用者を撮影した画像データを受け付ける。
生成処理部304は、人物を含む学習用データと、人物についての領域を学習済みの学習済みモデルを用いて、領域群を生成する。具体的には、生成処理部304は、領域群である『肌髪マスク』、『特定部位マスク』及び『人物領域マスク』の少なくとも2以上を生成する。
(肌髪マスク)
まず、肌髪マスクの生成処理について説明する。生成処理部304は、人物を含む学習用画像データと、学習用画像データに含まれる人物について少なくとも1以上の領域である肌髪領域群との関係を学習済みの肌髪学習モデルを用いて、受付部303が受け付けた画像データから肌髪領域群を生成する。具体的には、生成処理部304は、少なくとも人物の肌及び髪の領域をその他の領域と分けた肌髪マスクを生成する。例えば、生成処理部304は、図11(a)に示すような画像データから、図11(b)に示すような肌領域500、髪領域501及びその他の領域502を含む肌髪マスクを生成する。肌領域500は、衣服から露出した人物の肌の領域であり、具体的には、顔、首、四肢等の領域である。また、髪領域501は、具体的には、人物の頭髪の領域である。この肌領域500及び髪領域501を合わせて、ここでは肌髪領域群とする。なお、例えば、図11(b)に示すように、肌髪マスクにおけるその他の領域には、唇、目及び眉毛の領域を含む。また、図11(b)に示す例では、その他の領域502と背景領域503は区別されているが、背景もその他の領域に含まれてもよい。
まず、肌髪マスクの生成処理について説明する。生成処理部304は、人物を含む学習用画像データと、学習用画像データに含まれる人物について少なくとも1以上の領域である肌髪領域群との関係を学習済みの肌髪学習モデルを用いて、受付部303が受け付けた画像データから肌髪領域群を生成する。具体的には、生成処理部304は、少なくとも人物の肌及び髪の領域をその他の領域と分けた肌髪マスクを生成する。例えば、生成処理部304は、図11(a)に示すような画像データから、図11(b)に示すような肌領域500、髪領域501及びその他の領域502を含む肌髪マスクを生成する。肌領域500は、衣服から露出した人物の肌の領域であり、具体的には、顔、首、四肢等の領域である。また、髪領域501は、具体的には、人物の頭髪の領域である。この肌領域500及び髪領域501を合わせて、ここでは肌髪領域群とする。なお、例えば、図11(b)に示すように、肌髪マスクにおけるその他の領域には、唇、目及び眉毛の領域を含む。また、図11(b)に示す例では、その他の領域502と背景領域503は区別されているが、背景もその他の領域に含まれてもよい。
図12(a)に一例示すように、肌髪学習モデルMは、学習用データとして、複数組の学習用の画像データと、正解データとの関係を、学習器により予め学習済みのモデルである。具体的には、学習用の画像データは、人物を含む。また、正解データは、学習用の画像データに含まれる人物の肌の領域、髪領域及びその他の領域を含む。学習器により、複数組の学習用の画像データと正解データとの関係を学習することにより得られた肌髪学習モデルMは、人物を含む画像データに対し、図12(b)に示すように、画像データに含まれる人物の肌領域、髪領域及びその他の領域を出力することができる。
生成処理部304は、例えば、セマンティックセグメンテーションを利用して、肌髪マスクを生成する。セマンティックセグメンテーションを利用することで、画素単位での細かい領域抽出が可能となり、領域群を画素単位で生成することができる。これにより、後述する画像処理部306において、画素単位での画像処理を実現することができる。
(特定部位マスク)
続いて、特定部位マスクの生成処理について説明する。生成処理部304は、人物を含む学習用画像データと、学習用画像データに含まれる人物について少なくとも1以上の領域である特定部位領域群との関係を学習済みの部位学習モデルを用いて、画像データから特定部位領域群を生成する。特定部位領域群は、肌髪領域群とは異なる領域群である。具体的には、生成処理部304は、人物の特定の部位、例えば、頭部及び四肢の領域をその他の領域と分けた特定部位マスクを生成する。例えば、生成処理部304は、図11(a)に示すような画像データから、図11(c)に示すような頭部領域510、四肢領域511,512及びその他の領域513,514を含む特定部位マスクを生成する。この頭部領域510及び四肢領域511,512を合わせて、ここでは特定部位領域群とする。
続いて、特定部位マスクの生成処理について説明する。生成処理部304は、人物を含む学習用画像データと、学習用画像データに含まれる人物について少なくとも1以上の領域である特定部位領域群との関係を学習済みの部位学習モデルを用いて、画像データから特定部位領域群を生成する。特定部位領域群は、肌髪領域群とは異なる領域群である。具体的には、生成処理部304は、人物の特定の部位、例えば、頭部及び四肢の領域をその他の領域と分けた特定部位マスクを生成する。例えば、生成処理部304は、図11(a)に示すような画像データから、図11(c)に示すような頭部領域510、四肢領域511,512及びその他の領域513,514を含む特定部位マスクを生成する。この頭部領域510及び四肢領域511,512を合わせて、ここでは特定部位領域群とする。
図11(c)に示す例では、四肢領域である腕の部分511は、衣服のパーツである袖部分と袖から露出する指先までを含む部分である。また、四肢領域である脚の部分512は、衣服から露出した脚部分である。なお、図11(c)では含まれないが、脚領域は、足先までを含むことができる。このとき、足には靴やサンダルを着用するものと想定されるが、脚部分には、その靴等の足先までを含むものとする。また、図11(c)に示す例では、その他の領域には、胴部として、利用者の上衣の身頃部分のパーツ513と、下衣であるスカートの部分514が別々の領域として検出された例であるが、上衣の身頃部分のパーツと下衣とが一体となっていてもよい。特定部位マスクにおける各領域の切り分けについては図11(c)に示す例に限定されず、少なくとも、後述する画像処理部306で処理対象となる頭部領域及び四肢領域を特定できていればよい。また、仮に人物が下衣としてスカートではなく、脚にフィットしたパンツを着用している場合、そのパンツの領域は四肢領域の脚の部分としてもよい。そして、図11(c)に示すように、首の領域は、頭部領域510に含まれず胴部の領域513に含むことが好ましい。これは、顔領域は、首領域には実行しない画像処理が必要になることが想定されるためである。また、首から衣服から露出するデコルテの領域までについても画像処理を実行する場合については、首とデコルテの領域について、衣服の胴部とは異なる領域として特定領域群を生成してもよい。ここで、生成処理部304が画像データからどのように領域を特定するかについては、学習用画像データとともにどのような特定部位領域群の正解データを用いて学習処理を実行したかによるものである。また、どのような正解データを用いるかについては、後述する画像処理部306でどのような画像処理を行うかによって決定することができる。なお、図11(c)に示す例では、その他の領域515を背景領域とは区別しているが、背景もその他の領域513,514に含まれてもよい。すなわち、図11(c)に示す領域513乃至515を区別することは必須ではない。
図示を用いた説明を省略するが、部位学習モデルは、図12(a)を用いて上述した例のように、人物を含む学習用の画像データと、正解データである人物の顔領域や四肢領域等の特定の部位領域との関係を、学習器において学習することにより生成される。このように得られた部位学習モデルは、人物を含む画像データに対し、その画像データに含まれる人物の特定部位の領域を出力することができる。図11(c)に示す例では、頭部領域510として顔及び頭髪の領域、胴体領域として首から上衣の裾までの領域513、腕領域511として上腕から指先までの領域、下衣の領域514、及び、下衣の裾から下の脚領域512を区分した正解データにより学習された部位学習モデルを用いて生成された部位特定マスクの一例である。
生成処理部304は、例えば、セマンティックセグメンテーションを利用して、特定部位マスクを生成する。セマンティックセグメンテーションを利用することで、画素単位での細かい領域抽出が可能となり、領域群を画素単位で生成することができる。これにより、後述する画像処理部306において、画素単位での画像処理を実現することができる。
(人物領域マスク)
続いて、人物領域マスクの生成処理について説明する。生成処理部304は、人物を含む学習用画像データと、学習用画像データに含まれる人物の領域である人物領域群との関係を学習済みの領域学習モデルを用いて、受付部303が受け付けた画像データから人物領域群を生成する。具体的には、生成処理部304は、人物毎の領域を含む人物領域マスクを生成する。例えば、図11(a)に示すように、複数の人物が画像データに含まれ、複数の人物の頭髪や腕が重なっているような場合であっても、図11(d)に示すように人物毎の領域520,521に分けられた人物領域マスクを生成する。この画像データに含まれる全ての人物の領域を合わせて人物領域群とする。なお、仮に、画像データに1人の人物のみ含む場合、その1人の人物の領域を人物領域群とする。
続いて、人物領域マスクの生成処理について説明する。生成処理部304は、人物を含む学習用画像データと、学習用画像データに含まれる人物の領域である人物領域群との関係を学習済みの領域学習モデルを用いて、受付部303が受け付けた画像データから人物領域群を生成する。具体的には、生成処理部304は、人物毎の領域を含む人物領域マスクを生成する。例えば、図11(a)に示すように、複数の人物が画像データに含まれ、複数の人物の頭髪や腕が重なっているような場合であっても、図11(d)に示すように人物毎の領域520,521に分けられた人物領域マスクを生成する。この画像データに含まれる全ての人物の領域を合わせて人物領域群とする。なお、仮に、画像データに1人の人物のみ含む場合、その1人の人物の領域を人物領域群とする。
図示を用いた説明を省略するが、領域学習モデルは、図12(a)を用いて上述した例のように、人物を含む学習用の画像データと、正解データである人物領域との関係を、学習器において学習することにより生成される。このように得られた領域学習モデルは、人物を含む画像データに対し、その画像データに含まれる人物領域を出力することができる。例えば、画像データに複数の人物が含まれる場合、領域学習モデルは、人物毎に領域を特定して出力することができる。
なお、肌髪学習モデル、部位学習モデル及び領域学習モデルの生成に用いる学習用の画像データは、同一である必要はないが、同一の画像データを用いて、同時に学習することで各学習モデルにおいて、各領域群を生成する際に高い精度を得ることができるようになる。
生成処理部304は、例えば、インスタンスセグメンテーションを利用して、人物領域マスクを生成する。インスタンスセグメンテーションを利用することで、各物体の領域を画素単位で分類することができる。これにより、後述する画像処理部306において、画素単位での画像処理を実現することができる。
特定部305は、画像データから、生成処理部304で生成された2以上の領域群に応じて、画像処理の対象である対象領域を特定する。
(肌髪マスク及び特定部位マスクを用いた対象領域の特定)
特定部305は、肌髪マスクで示される肌髪領域群及び特定部位マスクで示される特定部位領域に応じて、人物の顔の肌の対象領域600を他の領域601と分けて特定する。具体的には、図11(b)に示す髪肌領域マスク及び図11(c)に示す特定領域マスクを用いて、図13(a)に示すように、人物の顔の肌の領域600を特定する。例えば、図11(a)に示す画像データの例は、左側の人物の顔の前方に手が存在し、顔に手が重なった状態で撮影されたものである。図13(a)に示すように、顔の肌の領域を、手の肌の領域と区別して特定することにより、顔のみに画像処理の対象とすることができる。また、図13(a)に示す例は、人物の頭髪の領域602も特定しており、人物の顔の肌の領域600及び他の領域601と区別して画像処理の対象とすることができる。
特定部305は、肌髪マスクで示される肌髪領域群及び特定部位マスクで示される特定部位領域に応じて、人物の顔の肌の対象領域600を他の領域601と分けて特定する。具体的には、図11(b)に示す髪肌領域マスク及び図11(c)に示す特定領域マスクを用いて、図13(a)に示すように、人物の顔の肌の領域600を特定する。例えば、図11(a)に示す画像データの例は、左側の人物の顔の前方に手が存在し、顔に手が重なった状態で撮影されたものである。図13(a)に示すように、顔の肌の領域を、手の肌の領域と区別して特定することにより、顔のみに画像処理の対象とすることができる。また、図13(a)に示す例は、人物の頭髪の領域602も特定しており、人物の顔の肌の領域600及び他の領域601と区別して画像処理の対象とすることができる。
例えば、メイク(化粧)をしたような画像処理をする場合、口紅、リップグロス、チーク、アイシャドウ、アイライン、アイブロウ等が付される位置に手が重なって写っていると、画像処理によって顔に付す色味が手にも付された不自然な画像が得られる恐れがある。また、顔と手とは、肌の色が異なるように見えることも珍しくないが、顔と手が同様の処理(例えば、美白の処理)がされた不自然な画像が得られる恐れがある。これに対し、図13(a)に示すように、顔の肌の領域を特定することで、顔の部分にのみ画像処理をし、それ以外の部分には顔と同様の画像処理をすることを防止し、自然な画像を得ることができる。
具体的には、写真シール作成装置1の場合、撮影する際の利用者のポーズのバリエーションが豊富である。したがって、仮に、顔の周辺の領域のみを撮影したとしても、顔の前に手が存在するような画像データもありうる。このような画像データに対し、顔の領域と手の領域とを含む領域が肌領域として抽出されると、上述したように手の上に処理された場合であっても、手の領域が顔の領域が区別されることで、顔の領域にのみ必要な処理を施すことができる。
(肌髪マスク及び人物領域マスクを用いた対象領域の特定)
特定部305は、肌髪マスクで示される肌髪領域群及び人物領域マスクで示される人物領域群に応じて、人物毎の肌の対象領域610A,610B及び頭髪の領域611A,611Bを特定する。具体的には、図11(b)に示す肌髪領域マスク及び図11(d)に示す人物領域マスクを用いて、図13(b)に示すように、人物毎の肌の領域610A,610B及び頭髪の領域611A,611Bを特定する。例えば、複数の人物が画像データに含まれる場合、人物毎に、肌の色や頭髪の色が異なることもある。このような場合、画像に含まれる複数の人物の肌の色や頭髪の色を同一の方法で画像処理することは好ましくない。仮に、二人の頭髪の色が明らかに異なる場合、二人の人物の頭髪を同様に画像処理すると、不自然な画像となる恐れがある。また、例えば、二人の肌の色が異なる場合にも、二人の肌を同様に画像処理すると、不自然な画像となる恐れがある。これに対し、図13(b)に示すように、人物毎の肌の領域610A,610B及び頭髪の領域611A,611Bを特定することで、人物毎の肌の画像処理及び人物毎の頭髪の画像処理を実現することが可能となるため、人物毎に適した画像処理をした自然な画像を得ることができる。
特定部305は、肌髪マスクで示される肌髪領域群及び人物領域マスクで示される人物領域群に応じて、人物毎の肌の対象領域610A,610B及び頭髪の領域611A,611Bを特定する。具体的には、図11(b)に示す肌髪領域マスク及び図11(d)に示す人物領域マスクを用いて、図13(b)に示すように、人物毎の肌の領域610A,610B及び頭髪の領域611A,611Bを特定する。例えば、複数の人物が画像データに含まれる場合、人物毎に、肌の色や頭髪の色が異なることもある。このような場合、画像に含まれる複数の人物の肌の色や頭髪の色を同一の方法で画像処理することは好ましくない。仮に、二人の頭髪の色が明らかに異なる場合、二人の人物の頭髪を同様に画像処理すると、不自然な画像となる恐れがある。また、例えば、二人の肌の色が異なる場合にも、二人の肌を同様に画像処理すると、不自然な画像となる恐れがある。これに対し、図13(b)に示すように、人物毎の肌の領域610A,610B及び頭髪の領域611A,611Bを特定することで、人物毎の肌の画像処理及び人物毎の頭髪の画像処理を実現することが可能となるため、人物毎に適した画像処理をした自然な画像を得ることができる。
具体的には、写真シール作成装置1の場合、撮影される人物の数は1人ではなく、複数人であることが一般的である。また、写真シール撮影装置1の場合、撮影する際の利用者のポーズのバリエーションが豊富である。単なる集合写真であれば、各人物の腕、手及び脚等のパーツは、「胴体と近い位置」の腕、手及び脚等として特定しうる。しかしながら、写真シール撮影装置1では、様々なポーズで画像データが撮影されうる。そのため、各人物の腕、手及び脚は、「胴体に近い位置」という基準で特定することは困難である。したがって、上述したように、生成された人物領域マスクに基づいて各人物の領域の肌領域を特定することで、人物に肌領域を区別し、人物毎にふさわしい自然な画像処理を施すことができる。
なお、このような人物毎の肌や頭髪の領域の特定は、セマンティックセグメンテーションにより得られた肌髪マスクと、インスタンスセグメンテーションにより得られた人物領域マスクとの組み合わせであるため、いわゆるパノプティックセグメンテーション技術である。
(特定部位マスク及び人物領域マスクを用いた対象領域の特定)
特定部305は、特定部位マスクで示される特定部位領域群及び人物領域マスクで示される人物領域群に応じて、人物毎の特定部位の領域を特定する。例えば、特定部305は、図11(c)に示す特定領域マスク及び図11(d)に示す人物領域マスクを用いて、図11(c)に示すように、人物の四肢の領域620A,620B,621A,621Bを特定する。また、特定部305は、図11(c)に示すように、人物の頭部の領域622A,622B、上衣の身頃の領域623A,623B、及び、下衣の領域624A,624Bを特定する。一例としては、画像データ撮影の際に、人物の特定の部位が胴部と比べて前方に突き出された状態であったとする。この場合、遠近法の関係で、画像データにおいて、図14に示すように、人物の体の一部(図14(a)の場合は、右側の人物の足先、図14(b)の場合は、右側の人物の下半身(特に膝))が本来のサイズよりも大きく見える場合がある。このような画像は、バランスが悪く不自然に見えるため、本来よりも大きく見える部位をバランスが良く自然に見えるように画像処理することがある。このとき、図13(c)に示すように、どの部分がどの人物の特定部位であるかを特定することにより、画像対象を実現することが可能となる。これにより、例えば、バランスの悪い部位を画像処理した自然な画像を得ることができる。
特定部305は、特定部位マスクで示される特定部位領域群及び人物領域マスクで示される人物領域群に応じて、人物毎の特定部位の領域を特定する。例えば、特定部305は、図11(c)に示す特定領域マスク及び図11(d)に示す人物領域マスクを用いて、図11(c)に示すように、人物の四肢の領域620A,620B,621A,621Bを特定する。また、特定部305は、図11(c)に示すように、人物の頭部の領域622A,622B、上衣の身頃の領域623A,623B、及び、下衣の領域624A,624Bを特定する。一例としては、画像データ撮影の際に、人物の特定の部位が胴部と比べて前方に突き出された状態であったとする。この場合、遠近法の関係で、画像データにおいて、図14に示すように、人物の体の一部(図14(a)の場合は、右側の人物の足先、図14(b)の場合は、右側の人物の下半身(特に膝))が本来のサイズよりも大きく見える場合がある。このような画像は、バランスが悪く不自然に見えるため、本来よりも大きく見える部位をバランスが良く自然に見えるように画像処理することがある。このとき、図13(c)に示すように、どの部分がどの人物の特定部位であるかを特定することにより、画像対象を実現することが可能となる。これにより、例えば、バランスの悪い部位を画像処理した自然な画像を得ることができる。
具体的には、写真シール作成装置1の場合、撮影される人物の数は1人ではなく、複数人であることが一般的である。また、写真シール撮影装置1の場合、撮影する際の利用者のポーズのバリエーションが豊富である。例えば、単なる集合写真であれば、直立不動で撮影されることも一般的であるが、写真シール撮影装置1では、手が前に出されたり、腕や膝が曲げられたり、様々なポーズで画像データが撮影される。そのため、写真シール撮影装置1で撮影された画像データは、各人物の腕、手、脚、足先、腕や脚の関節等のパーツの一部が不自然に強調されて大きくみえるようなバランスの悪い画像データとなることも珍しくない。また、写真シール撮影装置1の場合、一般的な写真撮影と比較して、狭いスペースで画像データが撮影されることで、上述したような人物のパーツの一部が強調されて、全体的に不自然にみえるような画像データとなりやすい。したがって、上述したように、特定部位マスク及び人物領域マスクを用いて特定された各人物の特定部位の領域を用いて、不自然な部位を特定し、その不自然な部分が自然に見えるような画像処理を施すことができる。
なお、このような人物毎の特定部位の領域の特定は、セマンティックセグメンテーションにより得られた部位特定マスクと、インスタンスセグメンテーションにより得られた人物領域マスクとの組み合わせであるため、いわゆるパノプティックセグメンテーション技術である。
(肌髪マスク、特定部位マスク及び人物領域マスクを用いた対象領域の特定)
特定部305は、肌髪マスクで示される肌髪領域群、特定部位マスクで示される特定部位領域群及び人物領域マスクで示される人物領域群に応じて、人物毎の画像処理対象となる特定部位を特定する。具体的には、図11(b)に示す肌髪マスク、図11(c)に示す特定部位マスク及び図11(d)に示す人物領域マスクを用いて、図13(d)に示すように、人物毎の特定部位の肌領域として、人物毎の、顔の肌領域630A,630Bと、四肢の肌領域631A,631B,632A,632Bとを特定する。また、人物毎の頭髪の領域633A,633Bを特定する。これによれば、人物毎の肌髪の画像処理を区別することができるのに加え、同一人物においても顔と四肢の肌の画像処理を区別することが可能となる。したがって、人物毎及び同一人物の部位毎に画像処理を区別することができるため、より自然な画像を得ることができる。具体的には、人物毎に、顔の肌の画像処理と、手脚の肌の画像処理とを異なるものとすることができる。また、顔の前に手が存在するような場合であっても、顔の領域と手の領域を区別することができるため、手の領域について顔と同様の処理をすることを防止することができる。
特定部305は、肌髪マスクで示される肌髪領域群、特定部位マスクで示される特定部位領域群及び人物領域マスクで示される人物領域群に応じて、人物毎の画像処理対象となる特定部位を特定する。具体的には、図11(b)に示す肌髪マスク、図11(c)に示す特定部位マスク及び図11(d)に示す人物領域マスクを用いて、図13(d)に示すように、人物毎の特定部位の肌領域として、人物毎の、顔の肌領域630A,630Bと、四肢の肌領域631A,631B,632A,632Bとを特定する。また、人物毎の頭髪の領域633A,633Bを特定する。これによれば、人物毎の肌髪の画像処理を区別することができるのに加え、同一人物においても顔と四肢の肌の画像処理を区別することが可能となる。したがって、人物毎及び同一人物の部位毎に画像処理を区別することができるため、より自然な画像を得ることができる。具体的には、人物毎に、顔の肌の画像処理と、手脚の肌の画像処理とを異なるものとすることができる。また、顔の前に手が存在するような場合であっても、顔の領域と手の領域を区別することができるため、手の領域について顔と同様の処理をすることを防止することができる。
具体的には、写真シール作成装置1の場合、撮影される人物の数は1人ではなく、複数人であることが一般的である。また、写真シール撮影装置1の場合、撮影する際の利用者のポーズのバリエーションが豊富である。したがって、仮に、顔の周辺の領域のみを撮影したとしても、顔の前に手が存在するような画像データもありうる。写真シール撮影装置1で撮影された画像データでは、各人物が複雑に重なり合うポーズも好まれる。また、写真シール撮影装置1で撮影された画像データでは、手が自他の顔の前に存在することもある。その他、写真シール撮影装置1では、手が前方に出されたり、腕や膝が曲げられたり、様々なポーズで画像データが撮影される。そのため、写真シール撮影装置1で撮影された画像データは、各人物の腕、手、脚、足先、腕や脚の関節等のパーツの一部が不自然に強調されて大きくみえるようなバランスの悪い画像データとなることも珍しくない。また、写真シール撮影装置1の場合、一般的な写真撮影と比較して、狭いスペースで画像データが撮影されることで、上述したような人物のパーツの一部が強調されて、全体的に不自然にみえるような画像データとなりやすい。
上述したように、肌髪マスク、特定部位マスク及び人物領域マスクを用いて、各人物の顔の肌の領域と手足の肌の領域をとそれぞれ特定することができる。これにより、人物毎に、顔又はその他の肌の領域について必要な処理を施すことができる。また、各人物の各パーツの領域を特定し、肌の細かい部分、適切な画像処理をすることができる不自然な部分を特定し、その不自然な部分が自然に見えるような画像処理を施すことができる。
なお、このような人物毎の画像処理対象となる特定部位の特定は、セマンティックセグメンテーションにより得られた肌髪マスク及び部位特定マスクと、インスタンスセグメンテーションにより得られた人物領域マスクとの組み合わせであるため、いわゆるパノプティックセグメンテーション技術である。
画像処理部306は、特定部305で特定された画像データの対象領域に対し、所定の画像処理を施す。例えば、画像処理部306は、肌を色白にするように画像処理してもよい。また、画像処理部306は、画像データの肌の領域について、メイクが施されたような画像処理をしてもよい。具体的には、目の周囲にアイシャドウを塗るような処理を実行したり、アイラインを描くような処理を実行したり、頬にチークを塗るような処理を実行してもよい。さらに、画像処理部306は、画像データの髪の領域について、艶が表れたような処理を施してもよい。
画像処理部306は、顔と顔以外の肌の領域を区別することができるとき、顔の肌領域の処理と、顔以外の肌領域との処理を異なるものとしてもよい。例えば、顔の肌の色が、手脚の肌の色と比べて明るい場合があるが、そのような場合、顔の肌の色を手脚の肌の色と比べて明るい色に調整してもよい。また、顔の領域のみを小顔するように画像処理してもよい。
画像処理部306は、人物毎の肌の領域を区別することができるとき、人物毎の肌領域の処理を人物毎に異なるものとしてもよい。例えば、本来の肌の色や、そのときの日焼けの具合によって、複数の人物の肌の色が異なることは一般的である。したがって、人物毎の肌の領域が区別された場合には、状況毎に、例えば、日焼けをした人物の肌の色を、肌の色が明るい人物の肌の色と同等の明るさにはしない等の調整をすることができる。
画像処理部306は、人物毎の特定の部位を区別することができるとき、図14(a)に見えるように、ある人物の特定の部位が他の部分と比較して不自然に見える写り方をしているとき、不自然に見える部分に対し、自然に見えるようにする画像処理を施してもよい。具体的には、図14(a)では、右側の人物の一方の足先が胴部より前方に存在するため、足先の部分が大きく不自然に見える写り方をしているため、足先の部分が自然に見えるように縮小する画像処理をする。
具体的には、画像処理部306は、各人物について特定された各部位のサイズを、各人物の顔のサイズと比較する。画像処理部306は、各部位のサイズが、顔のサイズと比較して、規定の比率範囲外であるとき、不自然であるとして、理想の値となるように補正する。これにより、画像処理部306は、不自然に見える箇所、例えば、長すぎる箇所が短くなるように補正することができる。なお、図14(a)に示すように、足先が大きく(長く)見える場合に、この足先を小さく(短く)補正する画像処理を可能とするためには、上述した特定部位マスクにおいて、足先部分の領域と脚部の領域とを区別して特定することで、足先部分の画像処理が可能となる。
また、図14(b)に示す例では、右側の人物が上半身が後退し、かつ、脚を曲げており、胴部より膝の部分が前方に存在するため、膝の部分が大きく不自然に見える写る方をしている。このような場合、画像処理部306は、膝の部分が自然に見えるように縮小する画像処理をする。
具体的には、画像処理部306は、各人物について特定された各部位のサイズを、各人物の顔のサイズと比較するとともに、各部位の所定座標(例えば、関節、先端部(指先等)、頭頂等)の位置関係を算出する。画像処理部306は、各部位のサイズが、顔のサイズと比較して、規定の比率範囲外であるとき、不自然であるとして、理想の値となるように補正する。また、画像処理部306は、所定の座標間の距離が規定の範囲外であるとき、不自然であるとして、理想の値となるように補正する。これにより、画像処理部306は、不自然に見える箇所、例えば、長すぎる箇所が短くなるように補正することができる。なお、図14(b)に示すように、膝の部分が折れ曲がることで不自然に膝の周辺が大きく(太く)見える場合、画像処理部306は、自然に見えるように、この膝の周辺を小さく(細く)補正する画像処理する。
このような不自然に見える写り方は、遠近法等の関係で生じるものである。上述したように、特に、写真シール作成装置1では、バラエティーに富んだポーズで画像データを撮影するのに加え、狭い撮影スペースで画像データが撮影されることにより、このような不自然に見える写り方が生じやすい。
なお、画像処理部306は、上述したような複数の処理を組み合わせることができる。例えば、人物毎の画像処理、肌色の調整の画像処理、メイクの画像処理、頭髪の艶の画像処理、不自然な箇所の画像処理等、複数の画像処理を組み合わせることができる。
合成部307は、処理した画像を合成用画像とし、カメラ91に取り込まれた動画像に合成用画像を合成し、合成した画像をタッチパネルモニタ92にライブビュー表示画像としてさせる。したがって、利用者は、仕上がりイメージをリアルタイムで確認しながら撮影を行うことができる。
編集部230は、上述した編集操作部27A,27Bと、編集処理部308とを備える。編集処理部308は、編集操作部27A,27Bにおけるタブレット内蔵モニタ131、およびスピーカ133を制御することで、編集処理を行う。編集処理部308は、タブレット内蔵モニタ131に対する、タッチペン132A,132Bを用いた利用者の操作入力を受け付ける。
また、編集処理部308は、タブレット内蔵モニタ131に表示させた選択画面に対する選択操作に応じて、編集対象画像としての撮影画像に所定の画像処理を施し、タブレット内蔵モニタ131に表示させる。あるいは、編集処理部308は、タブレット内蔵モニタ131に表示させた編集画面に対する入力操作に応じて、合成用画像に所定の画像処理を施し、あるいは、入力操作に応じて新たな合成用画像を生成して、撮影画像に合成し、タブレット内蔵モニタ131に表示させる。
また、編集処理部308は、編集の進め方などを説明するガイダンスの出力を制御する。例えば、編集処理部308は、編集の進め方などを説明するガイダンスの画面をタブレット内蔵モニタ131に表示させたり、編集の進め方などを説明するガイダンスの音声をスピーカ133から出力させたりする。また、編集処理部308は通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。また、編集処理部308は、印刷操作部28のプリンタ140を制御することで、印刷処理を行ってもよい。
印刷部240は、上述した印刷操作部28と、印刷処理部309とを備える。印刷処理部309は、編集処理部308から印刷データを受け取り、印刷操作部28のプリンタ140を制御することで、印刷処理を行う。なお、ここでは、画像データを出力する出力部の一例として印刷データである写真シールを出力する印刷部240を用いて説明したが、画像データの出力方法は、これに限定されない。例えば、ネットワーク等を用いて画像データ自体を外部の通信端末に送信する送信手段を出力部としてもよい。
このように、写真シール作成装置1は課金と引き換えに、利用者の気持ちが盛り上がるような仕掛け(撮影ポーズの選択、BGM、ナレーションなど)が種々施された写真シール作成ゲームを提供する。そのため、写真シール作成装置1での作成画像は、利用者の楽しい表情が引き出された画像や、趣向を凝らした、華やかな画像となる。
また、写真シール作成装置1ではライティングなどの設備が充実しており、そして画像の変形処理(例えば被写体の目の大きさや脚の長さなど)および色の補正(被写体の肌の美白処理など)などを高度な技術で行えるため、写真シール作成装置1で作成した画像は、利用者の写りが良い画像となる。
また、写真シール作成装置1以外での画像処理(例えば写真加工のためのアプリケーションなどでの処理)に比べて容易に編集(画像への落書き)ができ、当該編集のバリエーションも豊かである。この点からも、写真シール作成装置1での作成画像は写真シール作成装置1以外で撮影および画像処理された画像に比べ、比較的華やかに仕上がるといえる。
(写真シール作成ゲームの流れ)
次に、利用者が写真シール作成装置1において写真シール作成ゲームを行う処理の流れについて、図15を用いて説明する。図15は、写真シール作成装置1におけるゲームの開始から当該ゲームで写真シールを作成するまでの処理の流れを示すフローチャートである。
次に、利用者が写真シール作成装置1において写真シール作成ゲームを行う処理の流れについて、図15を用いて説明する。図15は、写真シール作成装置1におけるゲームの開始から当該ゲームで写真シールを作成するまでの処理の流れを示すフローチャートである。
ゲーム開始前の状態においては、写真シール作成装置1の事前選択処理部301として機能する制御部201は、事前選択操作部20のタッチパネルモニタ71に、硬貨の投入を促すメッセージを表示させる。また、制御部201は、図15に示すように、硬貨処理部74からの起動信号の有無に基づいて、硬貨投入返却口73に硬貨が投入されたか否かを判定する(S1)。制御部201は、硬貨投入返却口73に硬貨が投入されていないと判定した場合には(S1:NO)、硬貨が投入されたか否かの判定処理を継続する。
ゲームを開始しようとする利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入返却口73に硬貨を投入する。硬貨投入返却口73へ硬貨が投入されると、硬貨処理部74からゲームの開始を指示する起動信号が出力される。制御部201は、硬貨処理部74から起動信号を入力すると、硬貨投入返却口73に硬貨が投入されたと判定し(S1:YES)、利用者に対して事前接客処理を実行する(S2)。
事前接客処理においては、制御部201は、タッチパネルモニタ71に、コースの選択、名前の入力、およびデザインの選択等を促すメッセージ等を表示させる。利用者が、タッチパネルモニタ71に表示されるメッセージ等に従って各種の選択または入力を行うと、制御部201は、撮影コース、名前、デザイン、および印刷レイアウト等の設定を行う。制御部201は、複数種類の合成用背景画像を選択可能にタッチパネルモニタ92に表示させ、合成用背景画像を利用者に選択させる。
事前接客処理が終了すると、制御部201は、利用者に対して撮影空間A1に移動して撮影を行うことを促すメッセージ等をタッチパネルモニタ71に表示させる。撮影処理部302として機能する制御部201は、撮影操作部21のタッチパネルモニタ92に、画面にタッチするように促すメッセージを表示させる。なお、このメッセージと共に、あるいはこのメッセージに代えて、スタートボタンを表示させてもよい。また、制御部201は、BGMと共に、画面にタッチするように促すナレーションを、スピーカ93から出力させる。撮影空間A1に移動した利用者が、タッチパネルモニタ92にタッチすると、制御部201は、タッチパネルモニタ92がタッチされたことを読み取り、撮影処理を開始する(S3)。
撮影処理においては、制御部201は、タッチパネルモニタ92に、例えばライティングに関するガイダンスを表示させ、利用者にライティングのレベルの選択を促す。利用者がライティングのレベルを選択すると、制御部201は、ライティングのレベルを、選択されたレベルに設定する。
また、制御部201は、撮影枚数を説明するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。本実施形態では、一例として、撮影枚数は7枚に設定されている。
次に、制御部201は、利用者を立ち位置に誘導するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。
以上のようなインストラクション画面を表示させた後、制御部201は、利用者に選択させた撮影コースに応じて、合成用背景画像と、カメラ91で取得している動画像とを合成したライブビュー表示画像を、ライブビュー表示としてタッチパネルモニタ92に表示させる(S4)。これにより、利用者は、仕上がりイメージを確認しながらポーズを取ることができる。
制御部201は、ライブビュー表示を、撮影のためのカウントダウンの終了直前まで行い、その間、制御部201は、ライブビュー表示と共に、あるいはライブビュー表示に代えて、サンプルポーズをタッチパネルモニタ92に表示させる。制御部201は、サンプルポーズに合わせたナレーションをスピーカ93から出力させる。
制御部201は、ライブビュー表示の開始から終了までの時間を管理しており、予め設定した所定の時間が経過すると、タッチパネルモニタ92の表示とスピーカ93の音声とでカウントダウンを行う。
制御部201は、カウントダウンの終了タイミングで、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85に照明制御信号を送信すると共にカメラ91にシャッタ信号を送信する。
これにより、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85から閃光を照射し、照明された利用者が背景とともに写っている撮影画像をカメラ91により取得する。本実施形態では、一例として、ステップS3からステップS4までの処理を複数回繰り返して7枚の撮影画像を取得する。また、制御部201は、撮影画像に合成用背景画像を合成させた編集対象画像を記憶部202に記憶させる。
なお、ここでは、予め設定した時間毎に撮影画像が取得される例で説明したが、撮影画像の取得タイミングはこれに限定されない。例えば、撮影のための操作ボタンを撮影操作部21が有する場合、この操作ボタンを操作したタイミングで撮影画像を取得するようにしてもよい。
撮影終了後、制御部201は、利用者に対して、編集空間A2-1、または編集空間A2-2のいずれか一方への移動を促す案内画面をタッチパネルモニタ92に表示するとともに、音声による移動案内をスピーカ93に出力する。
そして、制御部201は、利用者による編集対象画像の編集を許容する編集処理を実行する(S5)。詳述すると、制御部201は、編集対象画像を、タブレット内蔵モニタ131に表示し、この編集対象画像に対して利用者がタッチペン132A,132Bでスタンプ画像やペン画像などを描くことを許容し、編集画像を作成する。
その後、制御部201は、利用者に対してシール紙排出口161が設けられた印刷待ち空間A3への移動を促す案内画面をタブレット内蔵モニタ131に表示するとともに、音声による移動案内をスピーカ133に出力する。
さらに、制御部201は、事前選択操作部20において選択された印刷レイアウトに編集画像を配置して印刷用画像を作成し、この印刷用画像をシール紙142に印刷する印刷処理を実行する(S6)。
印刷処理が終了すると、制御部201は、シール紙142の排出処理を実行し(S7)、印刷完了したシール紙142をシール紙排出口161から排出し、利用者に写真シールとして提供してゲームを終了する。このようにして、写真シール作成装置1により作成した利用者の撮影画像を、写真シールとして出力することができる。なお、詳細な説明は省略するが、本実施形態の写真シール作成装置1は、通信により、撮影画像を携帯端末等に出力することも可能である。
(合成処理の詳細)
次に、図16に示すフローチャートを参照して、図15のフローチャートのステップS4の合成処理について説明する。図16に示すように、ステップS4の合成処理では、制御部201は、撮影部220で撮影した画像データを受け付ける(S41)。
次に、図16に示すフローチャートを参照して、図15のフローチャートのステップS4の合成処理について説明する。図16に示すように、ステップS4の合成処理では、制御部201は、撮影部220で撮影した画像データを受け付ける(S41)。
制御部201は、ステップS41で受け付けた画像データから、領域群を生成する(S42)。制御部201は、肌髪領域群、特定部位領域群及び人物領域群のうち、少なくとも2以上の領域群を生成する。
制御部201は、ステップS42で生成された複数の領域群に応じて、画像処理の対象領域を特定する(S43)。
制御部201は、ステップS43で特定した画像データの対象領域について、予め定められる画像処理を実行する(S44)。
制御部201は、ステップS44で画像処理された画像を用いて画像を合成する(S46)。ここで合成された画像は、ライブビュー表示により利用者に確認されながら画像の取得がされる。
(表示例)
図17は、タブレット内蔵モニタ131に表示される編集画面400の一例である。図17に示すように、編集画面400は、第1編集部401と第2編集部402とを備える。
図17は、タブレット内蔵モニタ131に表示される編集画面400の一例である。図17に示すように、編集画面400は、第1編集部401と第2編集部402とを備える。
第1編集部401は、第1サムネイル部403、第1編集対象画像表示部405、第1操作ボタン表示部407及び第1パレット409を備える。同様に、第2編集部402は、第2サムネイル部404、第2編集対象画像表示部406、第2操作ボタン表示部408及び第2パレット410を備える。
第1サムネイル部403及び第2サムネイル部404には、撮影された複数の編集対象画像Im1~Im5のサムネイルが表示される。第1サムネイル部403及び第2サムネイル部404に表示されるサムネイルは、タッチペン132A又は132Bで選択することができる。図17に示す例では、それぞれ、編集対象画像Im1、Im3が選択される。なお、図示は省略するが、選択された編集対象画像のサムネイルには、「選択中」の文字が表示されてもよい。また、図15のフローチャートのステップS3で7枚の画像を撮影した場合、サムネイル部403,404にもそれぞれ7枚の編集対象画像が表示されるが、図17は、便宜的に5枚の編集対象画像が表示される例で説明する。
第1編集対象画像表示部405には、第1サムネイル部403で選択された編集対象画像が表示される。また、第2編集対象画像表示部406には、第2サムネイル部404で選択された編集対象画像が表示される。サムネイル部403又は404に表示される編集対象画像において選択される編集対象画像が変更されると、編集対象画像表示部405又は406に表示される編集対象画像も変更される。
第1パレット409は、第1編集対象画像表示部405に表示される編集対象画像にコンテンツである文字、模様、色等で装飾する場合にコンテンツの種類等を選択するために利用される。また、第2パレット410は、第2編集対象画像表示部406に表示される編集対象画像にコンテンツで装飾する場合にコンテンツの種類等を選択するために利用される。後に詳述するが、図17に示す例では、各パレット409及び410は、「なりきり」、「顔落書き」、「アイテム」及び「メイク」のタブを含む。
上述したように、本実施形態では、各領域を抽出することにより、各領域に想定された処理を実行することが可能となり、利用者にとって好ましい画像処理を実現することができる。
《変形例1》
上述した例では、生成処理部304において、第1学習モデルを用いて肌髪マスクを生成し、第2学習モデルを用いて特定部位マスクを生成し、第3学習モデルを用いて人物領域マスクを生成し、特定部305において、画像処理に必要な複数のマスクを用いて処理領域を特定するものとして説明した。しかしながら、生成処理部304は、複数種の領域群を予め学習済みの学習モデルを用いて、複数のマスクを生成してもよい。例えば、生成処理部304が利用する学習モデルは、図11(a)に示すような画像データと、図11(b)に示すような肌髪領域群、図11(c)に示すような特定部位領域群、及び、図11(d)に示すような人物領域群から選択された少なくとも2以上の領域群との関係を学習済みである。したがって、生成処理部304は、この学習済みモデルに応じて、画像データから、各領域群である複数種のマスクを生成することができる。ここで、学習済みモデルが画像データと複数の領域群との関係を学習済みである場合、生成処理部304は、例えば、リクエストされた種別の領域群のマスクのみを生成してもよい。例えば、生成処理部304は、画像データから、肌髪領域マスクと人物領域マスクとを生成する。そして、特定部305は、生成処理部304で生成された領域群である複数のマスクを用いて処理対象である各領域を特定する。
上述した例では、生成処理部304において、第1学習モデルを用いて肌髪マスクを生成し、第2学習モデルを用いて特定部位マスクを生成し、第3学習モデルを用いて人物領域マスクを生成し、特定部305において、画像処理に必要な複数のマスクを用いて処理領域を特定するものとして説明した。しかしながら、生成処理部304は、複数種の領域群を予め学習済みの学習モデルを用いて、複数のマスクを生成してもよい。例えば、生成処理部304が利用する学習モデルは、図11(a)に示すような画像データと、図11(b)に示すような肌髪領域群、図11(c)に示すような特定部位領域群、及び、図11(d)に示すような人物領域群から選択された少なくとも2以上の領域群との関係を学習済みである。したがって、生成処理部304は、この学習済みモデルに応じて、画像データから、各領域群である複数種のマスクを生成することができる。ここで、学習済みモデルが画像データと複数の領域群との関係を学習済みである場合、生成処理部304は、例えば、リクエストされた種別の領域群のマスクのみを生成してもよい。例えば、生成処理部304は、画像データから、肌髪領域マスクと人物領域マスクとを生成する。そして、特定部305は、生成処理部304で生成された領域群である複数のマスクを用いて処理対象である各領域を特定する。
《変形例2》
その他、生成処理部304は、図13(a)に示すような人物の顔の肌の領域と他の領域とを区別する領域の関係、図13(b)に示すような人物毎の肌の領域、頭髪の領域及びその他の領域の関係、図13(c)に示すような人物毎の特定部位の領域の関係、及び、図13(d)に示すような人物毎の顔の肌、顔以外の肌及び特定部位の領域の関係の少なくともいずれか1を学習済みの学習モデルを用いて領域を生成してもよい。この場合、生成処理部304が学習モデルを用いて生成する領域自体が、処理対象である対象領域となる。例えば、「肌髪領域群」と「人物領域群」とを学習済みの学習モデルは、入力された画像データから、例えば、図13(b)に示すような人物毎の肌の領域とその他の領域と含む領域群を生成する。したがって、特定部305は、このように生成された領域群を処理対象である対象領域として特定する。すなわち、生成処理部304で生成される領域自体が対象領域であるため、特定部305は、生成処理部304と一体としてもよい。
その他、生成処理部304は、図13(a)に示すような人物の顔の肌の領域と他の領域とを区別する領域の関係、図13(b)に示すような人物毎の肌の領域、頭髪の領域及びその他の領域の関係、図13(c)に示すような人物毎の特定部位の領域の関係、及び、図13(d)に示すような人物毎の顔の肌、顔以外の肌及び特定部位の領域の関係の少なくともいずれか1を学習済みの学習モデルを用いて領域を生成してもよい。この場合、生成処理部304が学習モデルを用いて生成する領域自体が、処理対象である対象領域となる。例えば、「肌髪領域群」と「人物領域群」とを学習済みの学習モデルは、入力された画像データから、例えば、図13(b)に示すような人物毎の肌の領域とその他の領域と含む領域群を生成する。したがって、特定部305は、このように生成された領域群を処理対象である対象領域として特定する。すなわち、生成処理部304で生成される領域自体が対象領域であるため、特定部305は、生成処理部304と一体としてもよい。
なお、肌髪領域群と特定部位領域群との組み合わせは、セマンティックセグメンテーションを利用するものである。一方、人物領域群は、インスタンスセグメンテーションを利用するものである。したがって、上述した各例において、肌髪領域群と人物領域群との組み合わせ、部位特定領域群と人物領域群との組み合わせ、及び、肌髪領域群と部位特定領域群と人物領域群との組み合わせは、パノプティックセグメンテーションを利用するものである。
(ソフトウェアによる実現例)
写真シール作成装置1の機能ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
写真シール作成装置1の機能ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、写真シール作成装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
上述した説明では、画像処理装置を写真シール作成装置1であるとして説明した。しかしながら、これに限定されることはない。したがって、画像処理装置が、例えば、写真シールを作成しない他の装置であっても同様の効果を得ることができる。一例としては、画像処理装置を、写真館で画像データを撮影するような装置として利用してもよい。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 写真シール作成装置(画像処理装置)
301 事前選択処理部
302 撮影処理部
303 受付部
304 生成処理部
305 特定部
306 画像処理部
307 合成部
308 編集処理部
309 印刷処理部(出力部)
301 事前選択処理部
302 撮影処理部
303 受付部
304 生成処理部
305 特定部
306 画像処理部
307 合成部
308 編集処理部
309 印刷処理部(出力部)
Claims (8)
- 人物を含む画像データを受け付ける受付部と、
人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について少なくとも1以上の領域である第1の領域群との関係を学習済みの第1学習モデルを用いて、前記画像データから第1の領域群を生成する第1の生成処理と、人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について前記第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係を学習済みの第2学習モデルを用いて、前記画像データから第2の領域群を生成する第2の生成処理と、を実行する生成処理部と、
前記画像データから、前記第1及び前記第2の領域群に応じて処理対象である対象領域を特定する特定部と、
前記画像データの前記対象領域に対し、所定の画像処理を施す画像処理部と、
を備える画像処理装置。 - 前記第1の領域群は、人物の肌、髪及びその他の領域であって、
前記第2の領域群は、少なくとも人物の顔及び四肢の領域であって、
前記第1の生成処理及び前記第2の生成処理は、セマンティックセグメンテーションを利用し、
前記特定部は、人物の顔の肌の対象領域を特定する
請求項1に記載の画像処理装置。 - 前記画像データは複数の人物を含み、
前記第1の領域群は、人物の肌、髪及びその他の領域であって、
前記第2の領域群は、前記画像データに含まれる各人物の領域であって、
前記第1の生成処理は、セマンティックセグメンテーションを利用し、
前記第2の生成処理は、インスタンスセグメンテーションを利用し、
前記特定部は、人物毎の肌の領域を特定する、
請求項1に記載の画像処理装置。 - 前記画像データは複数の人物を含み、
前記第1の領域群は、少なくとも人物の顔及び四肢の領域であって、
前記第2の領域群は、前記画像データに含まれる各人物の領域であって、
前記第1の生成処理は、セマンティックセグメンテーションを利用し、
前記第2の生成処理は、インスタンスセグメンテーションを利用し、
前記特定部は、人物毎に少なくとも顔及び四肢の領域を特定する
請求項1に記載の画像処理装置。 - 前記画像データは、複数の人物を含み、
前記第1の領域群は、人物の肌、髪及びその他の領域であって、
前記第2の領域群は、少なくとも人物の顔及び四肢の領域であって、
前記生成処理部は、人物を含む画像データと、当該画像データに含まれる人物の輪郭との関係を学習済みの第3学習モデルを用いて、前記画像データから各人物の領域を含む第3の領域群を生成する第3の生成処理をさらに実行し、
前記第1の生成処理は、セマンティックセグメンテーションを利用し、
前記第2の生成処理は、セマンティックセグメンテーションを利用し、
前記第3の生成処理は、インスタンスセグメンテーションを利用し、
前記特定部は、前記第1、前記第2及び前記第3の領域群に応じて、人物毎に、顔、顔以外の肌の領域を対象領域として特定する
請求項1に記載の画像処理装置。 - 人物を含む画像データを受け付ける受付部と、
人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について少なくとも1以上の領域である第1の領域群との関係、前記第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係、及び、前記第1の領域群及び前記第2の領域群とは異なる第3の領域群のうち少なくも2以上を学習済みの学習モデルを用いて、前記画像データから、学習済みの領域群を生成する生成処理部と、
前記画像データから、前記学習済みの領域群に応じて処理対象である対象領域を特定する特定部と、
前記画像データの前記対象領域に対し、所定の画像処理を施す画像処理部と、
を備える画像処理装置。 - 人物を含む画像データを受け付ける受付ステップと、
人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について少なくとも1以上の領域である第1の領域群との関係を学習済みの第1学習モデルを用いて、前記画像データから第1の領域群を生成する第1の生成ステップと、
人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について前記第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係を学習済みの第2学習モデルを用いて、前記画像データから第2の領域群を生成する第2の生成ステップと、
前記画像データから、前記第1及び前記第2の領域群に応じて処理対象である対象領域を特定する特定ステップと、
前記画像データの前記対象領域に対し、所定の画像処理を施す画像処理ステップと、
を含む画像処理方法。 - コンピュータを、
人物を含む画像データを受け付ける受付部と、
人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について少なくとも1以上の領域である第1の領域群との関係を学習済みの第1学習モデルを用いて、前記画像データから第1の領域群を生成する第1の生成処理部と、
人物を含む学習用画像データと、当該学習用画像データに含まれる前記人物について前記第1の領域群とは異なる少なくとも1以上の領域である第2の領域群との関係を学習済みの第2学習モデルを用いて、前記画像データから第2の領域群を生成する第2の生成処理部と、
前記画像データから、前記第1及び前記第2の領域群に応じて処理対象である対象領域を特定する特定部と、
前記画像データの前記対象領域に対し、所定の画像処理を施す画像処理部と、
して機能させる画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021083336A JP2022176755A (ja) | 2021-05-17 | 2021-05-17 | 画像処理装置、画像処理方法、画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021083336A JP2022176755A (ja) | 2021-05-17 | 2021-05-17 | 画像処理装置、画像処理方法、画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022176755A true JP2022176755A (ja) | 2022-11-30 |
Family
ID=84234027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021083336A Pending JP2022176755A (ja) | 2021-05-17 | 2021-05-17 | 画像処理装置、画像処理方法、画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022176755A (ja) |
-
2021
- 2021-05-17 JP JP2021083336A patent/JP2022176755A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5488526B2 (ja) | 画像処理装置および画像処理方法 | |
JP6206707B2 (ja) | 撮影装置および表示制御方法 | |
JP6810336B2 (ja) | 写真作成ゲーム機および表示方法 | |
JP2018022126A (ja) | 写真作成ゲーム機および撮影方法 | |
JP6477780B2 (ja) | 写真シール作成装置、写真シール作成方法及び写真シール作成処理プログラム | |
JP6853475B2 (ja) | 写真作成ゲーム機および表示方法 | |
JP7295388B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP7560711B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP7152687B2 (ja) | 表示制御装置、表示制御方法、プログラム | |
JP7401727B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2022176755A (ja) | 画像処理装置、画像処理方法、画像処理プログラム | |
JP6558209B2 (ja) | 撮影装置 | |
JP7140962B2 (ja) | 画像処理装置、制御方法、およびプログラム | |
JP2018107515A (ja) | 写真作成ゲーム機および画像処理方法 | |
JP7074994B2 (ja) | 写真作成ゲーム機および画像処理方法 | |
JP7121256B2 (ja) | 写真作成ゲーム機、画像処理方法、およびプログラム | |
JP6687839B2 (ja) | 写真作成ゲーム機および表示方法 | |
JP5970013B2 (ja) | 写真シール作成装置および写真シール作成方法 | |
JP2019203996A (ja) | 写真作成ゲーム機、表示制御方法、およびプログラム | |
JP6455550B2 (ja) | 写真シール作成装置および表示制御方法 | |
JP2019186903A (ja) | 写真作成ゲーム機、画像表示方法、およびプログラム | |
JP7032642B2 (ja) | 写真作成ゲーム機、編集方法、およびプログラム | |
JP6376421B1 (ja) | 写真作成ゲーム機、表示方法、およびプログラム | |
JP5482948B2 (ja) | 画像処理装置および画像処理方法 | |
JP6982230B2 (ja) | 写真作成ゲーム機および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240426 |