JP2020177605A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2020177605A
JP2020177605A JP2019088637A JP2019088637A JP2020177605A JP 2020177605 A JP2020177605 A JP 2020177605A JP 2019088637 A JP2019088637 A JP 2019088637A JP 2019088637 A JP2019088637 A JP 2019088637A JP 2020177605 A JP2020177605 A JP 2020177605A
Authority
JP
Japan
Prior art keywords
image
person
face
state
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019088637A
Other languages
English (en)
Inventor
桃子 廣田
Momoko Hirota
桃子 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hirota Momoko
Original Assignee
Hirota Momoko
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hirota Momoko filed Critical Hirota Momoko
Priority to JP2019088637A priority Critical patent/JP2020177605A/ja
Publication of JP2020177605A publication Critical patent/JP2020177605A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

【課題】写真中の人物の画像の頭部をユーザーの顔と置き換えた画像を作成する際に、人物の顔以外の部分に違和感なく適合するようにユーザーの顔の状態を調節するのを補助する。【解決手段】画像処理装置は、第一の人物を撮影した第一の画像における第一の人物の頭部を、第二の人物を撮影した第二の画像における第二の人物の頭部と置き換える。画像処理装置は、第一の画像を取得する第一の画像取得部201と、画像中の人物の顔の状態を検出する顔状態検出部202と、第二の画像を撮影して取得する第二の画像撮影部203と、第一の画像中の第一の人物の頭部を、第二の画像中の第二の人物の頭部と置換する頭部置換部208とを有する。さらに、第二の画像撮影部203は、顔状態検出部202が検出した第一の画像中の第一の人物の顔の状態と、被写体である第二の人物の顔の状態を合致させるための補助情報を出力する補助情報出力部205を有する。【選択図】図2

Description

本発明は、画像中の人物の頭部を置換する画像処理装置に関する。
近年、写真中の人物の頭部をユーザーの顔と置換した写真を作成する装置が開発されている。
非特許文献1ではキャラクターの頭部がくり抜かれた部分にユーザーの顔が埋め込まれた画像を作成する場合において、プレビュー画像で自分の顔の位置や向きを適宜調節してシャッターボタンを押すことで所望の画像を作成する方法が開示されている。
[平成31年2月18日検索]インターネット<URL:http://mahounohappymirror.bne−kids.com/>
しかしながら、非特許文献1に開示されている方法では、キャラクターの顔以外の部分に違和感なく適合するようにユーザーの顔の状態を上手に調整することが難しいという課題がある。
本発明は写真中の人物の画像の頭部をユーザーの顔と置き換えた画像を作成する際に、人物の顔以外の部分に違和感なく適合するようにユーザーの顔の状態を調節するのを補助することを目的とする。
上記課題を解決するために本発明の一様態に係る画像処理装置は、第一の人物を撮影した第一の画像における第一の人物の頭部を、第二の人物を撮影した第二の画像における第二の人物の頭部と置き換える画像処理装置であり、前記第一の画像を取得する第一の画像取得手段と、画像中の人物の顔の状態を検出する検出手段と、前記第二の画像を撮影して取得する第二の画像撮影手段と、前記第一の画像中の第一の人物の頭部を、前記第二の画像中の第二の人物の頭部と置換する置換手段とを有する装置であり、さらに前記第二の画像撮影手段は、前記検出手段が検出した第一の画像中の第一の人物の顔の状態と、被写体である第二の人物の顔の状態を合致させるための補助情報を出力する出力手段を有する。
本発明によれば、写真中の人物の画像の頭部をユーザーの頭部と置き換えた画像を作成する際に、人物の頭部以外の部分に違和感なく適合するようにユーザーの顔の状態を容易に調節することができる。
画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置の第一の実施形態に係る機能構成の一例を示す図である。 画像処理装置の第一の実施形態に係る処理の一例を示すフローチャートである。 画像処理装置の第一の実施形態に係る補助情報出力部が出力する補助情報出力の一例を示す図である。 画像処理装置の第二の実施形態に係る機能構成の一例を示す図である。 画像処理装置の第二の実施形態に係る補助情報出力部が出力する補助情報出力の一例を示す図である。 画像処理装置の第二の実施形態に係る処理の一例を示すフローチャートである。 画像処理装置の第二の実施形態に係る補助情報出力部が出力する補助情報出力の一例を示す図である。
<第一の実施形態>
第一の実施形態では画像処理装置をスマートフォンにおいて実現する一例を説明する。本実施形態では第二の人物(本実施形態においてはスマートフォンのユーザー)が、スマートフォンにあらかじめ保存されている第一の人物(本実施形態においては自分の顔を埋め込みたい対象の人物であり、例えばお気に入りのファッションモデルやキャラクターなど)が写っている第一の画像中の対象人物の頭部を、自分の頭部に置き換えた置換画像を生成する。違和感のない置換画像を生成する場合、撮影する第二の画像中の第二の人物の顔の状態は第一の画像中の第一の人物の顔の顔状態と可能な限り近い方が望ましい。そこで、本実施形態ではまず顔状態検出手段が第一の画像から第一の人物の顔状態として顔の方向、口の開閉状態、目の開閉状態、目線の方向を検出する。そして第二の画像撮影手段はスマートフォンに搭載されているカメラを用いて第二の人物の画像を撮影する際に、さらにスマートフォンに搭載されているディスプレイのプレビュー画面に第二の人物が取るべき顔の状態が分かる補助情報を出力する機能を持つ。第二の人物は補助情報に基づいてプレビュー画面上で自分の顔の状態を調節してからシャッターボタンを押すことで第二の画像を取得する。こうすることで第一の画像中の第一の人物の頭部を、第二の人物の頭部に置き換えた画像において第二の人物の頭部とその他の領域との適合度合いを向上させ、画像の違和感を軽減させることができる。以下、本発明の第一の実施形態について図面に基づいて説明する。
図1は、本実施形態に係る画像処理装置であるタブレットPC100のハードウェア構成の一例を示す図である。タブレットPC100は、CPU110、内蔵ストレージ120、ランダムアクセスメモリ(RAM)130、入力I/F140、出力I/F150を含む。CPU110、内蔵ストレージ120、ランダムアクセスメモリ(RAM)130、入力I/F140、出力I/F150、ネットワークI/F160は、システムバス170を介して、相互に接続されている。
CPU110は、システムバス170を介して接続される各デバイスを統括的に制御する中央演算装置である。CPU110は、内蔵ストレージ120に記憶された各種プログラムを読み出して実行する。内蔵ストレージ120は、オペレーティングシステム(OS)のプログラムをはじめ、本実施形態に係る各処理のプログラム、デバイスドライバのプログラム、各種設定情報等を記憶する記憶装置である。また、RAM130は、CPU110のワークエリアやデータの一時記憶領域として利用される記憶装置である。CPU110は、内蔵ストレージ120から取得した各種プログラムを、RAM130に一時記憶し、適宜実行する。入力I/F140はタッチパネルやカメラ204であり、ユーザーのタップ操作や周囲の光などを信号として入力する。出力I/F150はディスプレイ206やスピーカー207であり、画面表示や音声によりユーザーに情報を出力する。ネットワークI/F160はLTEやWi−Fiを介してネットワークに接続して情報をやり取りする装置である。
図2は本実施形態に係る画像処理装置の機能構成の一例を示す図である。
第一の画像取得部201はあらかじめ内蔵ストレージ120に保存されている第一の人物が写っている第一の画像を取得する。
顔状態検出部202は画像から画像中にある顔の状態として顔の方向、口の開閉状態、目の開閉状態、目線の方向を検出する。
第二の画像撮影部203はスマートフォンのカメラ204を用いて第二の人物の写真を第二の画像として撮影する。
補助情報出力部205は第二の画像撮影部203が第二の画像を撮影する際に第二の人物が第一の人物の顔状態に近づけるための補助情報をディスプレイ206やスピーカー207に出力する。
ディスプレイ206は第二の画像撮影部203が撮影するときに補助情報を伴うプレビュー画像を出力するハードウェアである。また、この他にスマートフォンの操作画面を表示したり、撮影した画像や画像処理装置が生成した画像などを出力したりする。
スピーカー207は補助情報を音声やサウンドによって出力するハードウェアである。
頭部置換部208は第一の画像中の第一の人物の頭部を、第二の人物の顔に置き換えた画像を生成する。
本実施形態に係る処理が記述されたプログラムはスマートフォンにおいてアプリとして内蔵ストレージ120に格納されている。スマートフォンのユーザーがアプリを起動することで本実施形態の具体的な機能を使用することができる。
以降、本実施形態に係る処理が記述されたプログラムの具体的な処理内容を図3に示すフローチャートに沿って説明する。
ステップS301では、第一の画像取得部201が第一の人物が写っている第一の画像を取得する。具体的にはあらかじめ内蔵ストレージに保存されている複数の画像からユーザー(第二の人物)が自分の顔を置き換えたい画像を選択するためのUIを表示する。そしてUIから選択された画像を第一の画像として取得する。
ステップS302では、顔状態検出部202が第一の画像から画像中の第一の人物の顔状態として顔の方向、口の開閉状態、目の開閉状態、目線の方向を検出する。本実施形態では顔の方向、口の開閉状態、目の開閉状態、目線の方向を表す情報の一形態として顔の部位を表す複数の三次元キーポイントを用いる。さらに、顔の方向のもう一つの形態として画像座標系から顔の座標系への座標変換行列を算出する。
三次元キーポイントは顔の輪郭の右耳の付け根から左耳の付け根までの縁を等分に分割した点、左右の口角と上唇と下唇の縁をそれぞれ等分した点、両眼のそれぞれについて左右の目じりと上瞼と下瞼の縁をそれぞれ等分した点、左右の瞳の中心点、鼻根から鼻尖を等分に分割した点、左右の鼻翼で構成される。そして画像中から前記三次元キーポイントを検出する。具体的にはあらかじめ多数の人物頭部画像における三次元キーポイントを教示した深層学習モデルを使って検出する。さらに検出した三次元キーポイントに基づいて顔の方向を表す画像座標系から顔の座標系への座標変換を算出する。顔の座標系は両耳の付け根を結んだ方向をX方向、X方向と直交する方向で左右の瞳の中点を含む方向をY方向、XY平面に直交して頭上に向かう方向をZ方向として定義する。
ステップS303では第二の画像撮影部203の補助情報出力部205が補助情報をディスプレイ206及びスピーカー207に出力する。
補助情報は第二の人物(ユーザー)が自分の画像を撮影する際に、第一の画像中の第一の人物の顔状態に可能な限り近い顔状態で撮影するのを補助する情報であり、ディスプレイ及びスピーカーにそれぞれ出力する。
ディスプレイには補助情報として第一の人物の顔の状態を表す図柄を表示する。図柄として、具体的にはステップS302で検出したキーポイントをそれぞれの部位グループ(顔輪郭、口、目、鼻)において直線で結合した線画を、第二の画像撮影部203がカメラ204を制御して仮撮影した第二の人物のプレビュー画像上に重畳して出力する。この時、線画の中心はディスプレイの中央と一致するように、また線画のサイズはディスプレイの所定の割合の大きさになるように調整して表示する。図4はスマートフォン401に補助情報を出力した様子の一例を表す図である。402は線画を重畳した第二の人物のプレビュー画像、403は第二の人物、404は重畳した線画像における顔輪郭に相当する部位グループ、405は重畳した線画像における目に相当する部位グループ、406は重畳した線画像における鼻に相当する部位グループ、407は重畳した線画像における口に相当する部位グループである。
スピーカーには補助情報として、画像中の第一の人物の顔の状態と、第二の人物の顔の状態との差を減らすために要する第二の人物の動作内容を音声で出力する。ここではステップS302で検出した第一の人物の顔状態と、第二の画像撮影部203が仮撮影した第二の人物のプレビュー画像からステップS302と同様の方法で顔状態検出部202がプレビュー画像から検出した第二の人物の顔状態とを近づけるために第二の人物が取るべき動作内容を出力する。具体的には第二の人物のプレビュー画像からステップS302と同様の方法で算出した画像座標系から第二の人物の顔座標系に変換する座標変換行列の逆行列に、ステップS302で算出した画像座標系から第一の人物の顔座標系に変換する座標変換行列を後ろから乗じることで、第一の人物の顔座標系から第二の人物の顔座標系に変換する座標変換行列を算出する。そして前記座標変換行列の回転成分をロール、ピッチ、ヨー形式に変換する。ロールの値が所定の値より大きいときは「もう少し顎を左に傾けてください」、所定の値より小さいときは「もう少し顎を右に傾けてください」という音声を出力する。ピッチの値が所定の値より大きいときは「もう少し下を向いてください」、所定の値より小さいときは「もう少し上を向いてください」という音声を出力する。ヨーの値が所定の値より大きいときは「もう少し左を向いてください」、所定の値より小さいときは「もう少し右を向いてください」という音声を出力する。408はスピーカーから出力される音声の一例である。
ステップS304では第二の画像撮影部203がカメラ204を制御して第二の画像を撮影する。具体的にはステップS303で出力された補助情報に基づいて第二の人物(ユーザー)が自分の顔の状態を第一の画像中の第一の人物の顔状態に可能な限り近い顔状態になるよう調整した上でカメラ204のシャッターボタンを押すと、これを検知した第二の画像撮影部203が第二の画像を取得する。
ステップS305では頭部置換部208が第一の画像中の第一の人物の頭部を、第二の画像中の第二の人物の顔に置き換えた置換画像を生成する。具体的には、まず、第一の画像中の第一の人物の頭部、及び第二の画像中の第二の人物の頭部を領域として抽出する。次に第一の画像中の第一の人物の頭部とその周辺領域を抜き取った上で、第二の画像中の第二の人物の頭部の色調を補正して重畳する。さらに、第一の画像で抜き取られた領域で、且つ第二の人物の頭部として重畳されなかった画素を補間する。画素の補間は、各画素について第一の画像で抜き取られていない領域から当該画素と最も近傍の画素を抽出してその画素の値で保管する。画像中からの頭部の領域抽出処理は例えば一般的なセマンティックセグメンテーション処理によって行うことができる。
以上、第一の人物が写っている第一の画像中の対象人物の頭部を、第二の人物の顔に置き換えた置換画像を生成する方法を説明した。説明した方法のように、第二の人物が自分の画像を撮影する際に、第一の画像中の第一の人物の顔状態に可能な限り近い顔状態で撮影するのを補助する情報を補助情報として出力することで、第二のユーザーは自分の顔の状態を適切に調節することができ、違和感の少ない置換画像を生成することができる。
本実施形態においては顔状態として顔の方向、口の開閉状態、目の開閉状態、目線の方向を検出したが、顔状態としては必ずしもこれら全てを検出する必要はなく、いずれか一つ以上であればよい。こうすることでいずれかの要素の検出が困難であっても、他の要素について顔状態を近づけるための補助情報を提示できる。
(変形例1−1)
本実施形態のステップS303では補助情報としてディスプレイにはステップS302で検出した第一の人物のキーポイントをそれぞれの部位グループ(顔輪郭、口、目、鼻)において直線で結合した線画をプレビュー画像に重畳して表示した。しかし、ディスプレイに補助情報として出力する図柄は上記線画に限らず、第二の人物の顔状態を第一の画像中の第一の人物の顔状態に近づけるのを補助する図柄であれば他の図柄を出力してもよい。
例えば補助情報として第二の画像を撮影する際のプレビュー画像上に第一の人物の線画だけではなく、プレビュー画像から検出した第二の人物の顔状態を表す線画も合わせて重畳してもよい。第二の人物の顔状態の検出も、第一の人物の顔状態の検出と同様にステップS302で説明した方法で行う。このように第一の人物と第二の人物の顔状態の線画をプレビュー画像に両方とも重畳することで顔状態の差異をより分かりやすく伝えることができる。
あるいは補助情報として第二の画像を撮影する際のプレビュー画像上に第一の画像をちょうどよい大きさにリサイズ・クロップして所定の透過度で重ね合わせた画像を補助情報の図柄として表示してもよい。具体的にはステップS302に説明した方法で第一の画像中から顔のキーポイントを検出して、キーポイントに基づいて第一の画像中の第一の人物の顔のサイズを算出し、第一の人物の顔がスマートフォンのディスプレイ上で7割ほどを占める大きさになる縮尺でリサイズする。さらに第一の人物の顔の中心がスマートフォンのディスプレイの中心になるようにクロップする。クロップした画像をアルファ値0.5で第二の画像のプレビュー画像に重ね合わせた画像を作成してディスプレイに出力する。こうすることでユーザー(第二の人物)は第一の人物の実写を参照しながら顔状態のより詳細なニュアンスも把握して、自分の顔状態を調整することができる。
なお、補助情報として表示する図柄は第二のプレビュー画像に重ね合わせずに0.1秒周期で交互に切り替えて表示してもよい。こうすることで重畳させたり、透過させて重ね合わせたりすると画像が見にくくなる場合に補助情報を見やすくすることができる。
(変形例1−2)
本実施形態のステップS303では補助情報としてスピーカーには第二の人物の顔の方向について第二の人物が取るべき動作を音声で出力した。しかし、スピーカーに出力する補助情報は顔の方向に限らず、第二の人物の顔状態を第一の画像中の第一の人物の顔状態に近づけるのを補助する情報であれば他の情報を出力してもよい。
例えば、目線の方向や目の開閉状態、口の開閉状態について第二の人物が取るべき動作を出力してもよい。具体的には、目線の方向についてはS302に説明した方法で顔状態検出部202が検出した第一の画像中の第一の人物の顔のキーポイントのうち、目に関係するキーポイントである左右の目じりと上瞼と下瞼の縁をそれぞれ等分した点、左右の瞳の中心点に基づいて目線の方向を算出する。さらに同様の方法で第二の人物のプレビュー画像から第二の人物の目線の方向を算出する。第一の人物の目線の方向が第二の人物の目線の方向よりも左を向いている場合は「もう少し目線を右に向けてください。」という音声を出力する。右を向いている場合は「もう少し目線を左に向けてください。」という音声を出力する。下を向いている場合は「もう少し目線を上に向けてください。」という音声を出力する。上を向いている場合は「もう少し目線を下に向けてください。」という音声を出力する。
目の開閉状態、口の開閉状態についても同様にそれぞれ目に関係するキーポイント、口に関係するキーポイントを取得する。そしてキーポイントの位置に基づいて第一の画像中の第一の人物、及び第二の人物の瞼の開き具合、口の開き具合を算出する。第一の人物の瞼の開き具合、口の開き具合と第二の人物の瞼の開き具合、口の開き具合の差異が所定の値よりも大きい場合はその差異を小さくするための動作(目を開く・閉じる、口を開く・閉じる)を音声で出力する。
このように顔の方向以外にも第二の人物の顔の様々な部位の状態を第一の人物の顔状態に近づけられるように音声を出力することで、第二の人物はディスプレイを見なくても音声のみで顔状態をより詳細に調節することができる。
(変形例1−3)
本実施形態のステップS304ではユーザー(第二の人物)が自分の顔の状態を第一の画像中の第一の人物の顔状態に可能な限り近い顔状態になるよう調整した上でカメラ204のシャッターボタンを押したが、シャッターボタンを押す動作は自動化されていてもよい。
その場合は、第二の画像を撮影する際のプレビュー画像において第二の人物の顔状態を検出し、第一の画像中の第一の人物の顔状態の差異を一定のサンプリング間隔で算出し、差異が所定の値を下回ったタイミングで自動的に第二の画像を撮影する。第一の人物の顔状態と第二の人物の顔状態の差異は、S302に説明した方法で顔状態検出部202が検出した第一の画像中の第一の人物の顔のキーポイント、及び第二の人物のプレビュー画像から検出した第二の人物の顔のキーポイントを比較して算出する。具体的には顔の方向についてはステップS303で説明した方法でそれぞれの人物の画像座標系からの座標変換行列を算出し、さらに座標変換行列の各々の回転成分の差異を顔方向差異角度として算出する。目線の方向については(変形例1−2)で説明した方法で算出し、それぞれの人物の目線方向の差異を目線方向差異角度として算出する。目の開き具合、口の開き具合も同様に差異を算出する。こうして算出した顔の各部位の差異がいずれも所定の値よりも小さくなった時に第二の画像を撮影する。
こうすることでユーザー(第二の人物)がシャッターボタンを押しにくいポーズをとっていても第二の画像を取得することができる。あるいは第二の画像の撮影を完全に自動化しなくても、第一の人物の顔状態と第二の人物の顔状態が所定の水準より合致している時にその旨を音声やフラッシュ光などで伝えてもよい。こうすることで第二の人物(ユーザー)は第二の画像のシャッターを押すタイミングを見逃しにくくすることができる。
(変形例1−4)
本実施形態ではすべての処理がネットワークを介さずに行われたが、第一の画像が保管されているストレージや頭部置換処理を行うCPUはネットワーク上のサーバーに配置されているネットワークシステムとして実施してもよい。
例えば各画像の脇に「あなたの顔に置き換える」という文言の書かれたボタンが配置されたホームページを表示するウェブアプリケーションをサーバー上で起動し、ユーザーがスマートフォンのブラウザでボタンを押すと補助情報を出力するカメラアプリが起動し、補助情報を伴うプレビュー画像に基づいてユーザーが顔状態を調整してシャッターを押すと撮影された画像がスマートフォンからウェブアプリケーションにアップロードされる。ウェブアプリケーションはユーザーが押した「あなたの顔に置き換える」ボタンに対応する画像を第一の画像、スマートフォンからアップロードされた画像を第二の画像として頭部の置換処理を行い、生成された画像をブラウザに表示する。
こうすることでスマートフォンの内蔵ストレージやCPUの性能に制限されずに画像の置換処理を行うことができる。
<第二の実施形態>
第二の実施形態では画像処理装置をゲームセンターなどで使用される設置型写真シール印刷装置(以降、シール印刷装置と呼ぶ)において実現する一例を説明する。
本実施形態では一人以上の第二の人物グループ(本実施形態においてはシール印刷装置のユーザー)が、シール印刷装置にあらかじめ保存されている第二の人物グループと同人数の第一の人物グループ(本実施形態においては自分の顔を埋め込みたい対象の人物グループであり、例えばお気に入りのアイドルグループなどが考えられる)が写っている第一の画像中の対象人物グループのそれぞれの頭部を、自グループの人物のそれぞれの頭部に置き換えた置換画像を生成する。人物グループ同士の顔について違和感のない置換画像を生成する場合、第一の人物グループの各人と、置換する第二の人物グループの各人を対応付けた上で第二の人物グループの各人の顔の状態を第一の画像中の第一の人物グループの各人の顔状態に近づける必要がある。
そこで、本実施形態ではまず顔状態検出手段が第一の画像から第一の人物グループの顔状態として顔の位置、方向、口の開閉状態、目の開閉状態、目線の方向を検出する。そして第二の画像撮影手段はシール印刷装置に搭載されているカメラを用いて第二の人物グループの画像を撮影する際に、さらにシール印刷装置に搭載されているディスプレイのプレビュー画面に第一の人物グループの各人と対応付けた第二の人物グループの各人それぞれが取るべき顔の状態が分かる補助情報を出力する機能を持つ。第二の人物グループの各人はタイマーの自動シャッターが発動する前に補助情報に基づいてプレビュー画面上で自分達の顔の状態を調節することで第二の画像を取得する。
こうすることで一人以上の第一の人物グループが写っている第一の画像中の各人の頭部を、第二の人物グループの各人の頭部に置き換えた画像を作成する場合においても、第二の人物グループの各人は迷うことなくそれぞれが対応する第一の人物グループの各人の顔状態に近づけるよう顔状態を調節することができる。以下、本発明の第二の実施形態について図面に基づいて説明する。
図5は、本実施形態に係る画像処理装置であるシール印刷装置500のハードウェア構成の一例を示す図である。シール印刷装置500は、CPU510、内蔵ストレージ520、ランダムアクセスメモリ(RAM)530、入力I/F540、出力I/F550を含む。CPU510、内蔵ストレージ520、ランダムアクセスメモリ(RAM)530、入力I/F540、出力I/F550は、ネットワークI/F560は、システムバス570を介して、相互に接続されている。
CPU510は、システムバス570を介して接続される各デバイスを統括的に制御する中央演算装置である。CPU510は、内蔵ストレージ520に記憶された各種プログラムを読み出して実行する。内蔵ストレージ520は、オペレーティングシステム(OS)のプログラムをはじめ、本実施形態に係る各処理のプログラム、デバイスドライバのプログラム、各種設定情報等を記憶する記憶装置である。また、RAM530は、CPU510のワークエリアやデータの一時記憶領域として利用される記憶装置である。CPU510は、内蔵ストレージ520から取得した各種プログラムを、RAM530に一時記憶し、適宜実行する。入力I/F540はタッチパネルやカメラ604であり、ユーザーのタップ操作や声などを信号として入力する。出力I/F550はディスプレイ607やスピーカー608であり、画面表示や音声によりユーザーに情報を出力する。ネットワークI/F560はEthernetやWi−Fiを介してネットワークに接続して情報をやり取りする装置である。
図6は本実施形態に係る画像処理装置の機能構成の一例を示す図である。
第一の画像取得部601はあらかじめ内蔵ストレージ520に保存されている第一の人物グループが写っている第一の画像を取得する。
顔状態検出部602は画像から画像中にある一つ以上の顔のそれぞれの顔の状態として顔の方向、口の開閉状態、目の開閉状態、目線の方向を検出する。
第二の画像撮影部603はシール印刷装置のカメラ204を用いて第二の人物グループの写真を第二の画像として撮影する。
補助情報出力部605は第二の画像撮影部603が第二の画像を撮影する際に第二の人物グループの各人が第一の人物グループの各人の顔状態に近づけるための補助情報をディスプレイ607やスピーカー608に出力する。
対応付け部606は二枚の画像に写っている人物グループの各人の顔を画像間でそれぞれ対応付ける。
ディスプレイ607は第二の画像撮影部603が撮影するときに補助情報を伴うプレビュー画像を出力するハードウェアである。また、この他にシール印刷装置の操作画面を表示したり、撮影した画像や画像処理装置が生成した画像などを出力したりする。
スピーカー608は補助情報を音声やサウンドによって出力するハードウェアである。
頭部置換部609は第一の画像中の第一の人物グループの各人の頭部を、第二の人物グループの各人の頭部に置き換えた画像を生成する。
本実施形態に係る処理が記述されたプログラムはシール印刷装置の内蔵ストレージ120に格納されている。シール印刷装置のユーザーがシール印刷装置に料金を投入することでプログラムが起動し、本実施形態の具体的な機能を使用することができる。
以降、本実施形態に係る処理が記述されたプログラムの具体的な処理内容を図7に示すフローチャートに沿って説明する。
ステップS701では、第一の画像取得部601が第一の人物グループが写っている第一の画像を取得する。具体的にはあらかじめ内蔵ストレージに保存されている複数の第一の画像候補からからユーザーら(第二の人物グループ)と人数が同じで、自分の顔と置き換えたい画像を選択するためのUIを表示する。そしてUIから選択された画像を第一の画像として取得する。
ステップS702では、顔状態検出部602が第一の画像から画像中の第一の人物グループの各人の顔状態としてそれぞれ顔の位置、顔の方向、口の開閉状態、目の開閉状態、目線の方向を検出する。本実施形態では顔の位置、顔の方向、口の開閉状態、目の開閉状態、目線の方向を表す情報の一形態として顔の部位を表す複数の三次元キーポイントを用いる。さらに、顔の方向のもう一つの形態として画像座標系から顔の座標系への座標変換行列を算出する。また、画像座標系における顔の座標系の原点を顔の位置とする。
三次元キーポイントは顔の輪郭の右耳の付け根から左耳の付け根までの縁を等分に分割した点、左右の口角と上唇と下唇の縁をそれぞれ等分した点、両眼のそれぞれについて左右の目じりと上瞼と下瞼の縁をそれぞれ等分した点、左右の瞳の中心点、鼻根から鼻尖を等分に分割した点、左右の鼻翼で構成される。そして画像中から前記三次元キーポイントを検出する。具体的にはあらかじめ多数の人物頭部画像における三次元キーポイントを教示した深層学習モデルを使って検出する。さらに検出した三次元キーポイントに基づいて顔の方向を表す画像座標系から顔の座標系への座標変換を算出する。顔の座標系は両耳の付け根を結んだ方向をX方向、X方向と直交する方向で左右の瞳の中点を含む方向をY方向、XY平面に直交して頭上に向かう方向をZ方向として定義する。
ステップS703では、顔状態検出部602が第二の人物グループの各人の顔状態を検出する。具体的には第二の画像撮影部が本撮影に先立ちプレビュー画像を撮影する。そして顔状態検出部602がプレビュー画像から、ステップS702と同様の方法で画像中の第二の人物グループの各人の顔状態としてそれぞれ顔の位置、顔の方向、口の開閉状態、目の開閉状態、目線の方向を検出する。
ステップS704では対応付け部606が第一の画像に写っている第一の人物グループの各人の顔と第二の人物グループの各人の顔をそれぞれ対応付ける。具体的にはステップS702で検出した第一の人物グループの各人の顔状態から顔の位置を取得して、各人を顔位置のX座標昇順にソートしてリストを作成する。同様にステップS703で取得したプレビュー画像における第二の人物グループの各人の顔状態から顔の位置を取得して、各人を顔位置のX座標昇順にソートしてリストを作成する。こうしてできた第一の人物グループのリストと第二の人物グループのリストで同一のインデックスを持つ人物及び顔を対応付けられた人物及び顔とする。
ステップS705では第二の画像撮影部603の補助情報出力部605が補助情報をディスプレイ607及びスピーカー608に出力する。
補助情報はユーザーら(第二の人物グループ)が自分たちの画像を撮影する際に、第一の画像中の第一の人物グループの各人の顔状態に可能な限り近い顔状態で撮影するのを補助する情報であり、ディスプレイ607に出力する。
ディスプレイ607にはステップS703で取得したプレビュー画像上に補助情報を重畳した画像を出力する。ステップS702で検出した第一の人物グループの各人の顔のキーポイントをそれぞれの部位グループ(顔輪郭、口、目、鼻)において直線で結合した線画を顔毎に作成する。そして各線画をプレビュー画像上で、ステップS704で対応付けた第二の人物グループの各顔の上に重畳する。各線画を重畳するときの位置は各線画の中心がプレビュー画像における対応付けた人物の顔の位置になるようにする。サイズはプレビュー画像で検出した各人の顔状態の両耳の付け根を表す三次元キーポイント間の距離を第一の画像で検出した各人の顔状態の両耳の付け根を表す三次元キーポイント間の距離で除すことで算出した倍率を、各線画に乗じてリサイズすることで調整する。図8はシール印刷装置のディスプレイ801に補助情報を出力した様子の一例を表す図である。802、803はプレビュー画像に写っている、第二の人物グループ(この例では二人から構成される)の各人である。804は802に対応付けられた第一の人物グループの人物の顔状態を表す線画を位置とサイズを調整してプレビュー画像上に重畳したものである。805は803に対応付けられた第一の人物グループの人物の顔状態を表す線画を位置とサイズを調整してプレビュー画像上に重畳したものである。
ステップS706では第二の画像撮影部603がカメラ604を制御して第二の画像を撮影する。具体的にはあらかじめ設定された時間内にステップS705で出力された補助情報に基づいてユーザーら(第二の人物グループ)が自分の顔の状態を第一の画像中の第一の人物の顔状態に可能な限り近い顔状態になるよう調整した後に自動タイマーでカメラ204のシャッターを切る。こうして撮影された画像を第二の画像として取得する。
ステップS707では頭部置換部609が第一の画像中の第一の人物グループの各人の頭部を、第二の画像中の第二の人物グループの各人の顔に置き換えた置換画像を生成する。具体的には、まず、第一の画像中の第一の人物グループの各人の頭部、及び第二の画像中の第二の人物グループの各人の頭部をそれぞれ領域として抽出する。次に第一の画像中の第一の人物グループの各人の頭部とその周辺領域を抜き取った上で、第二の画像中の第二の人物グループの各人の頭部をステップS704の対応付け結果に従って色調を補正して重畳する。さらに、第一の画像で抜き取られた領域で、且つ第二の人物グループの各人の頭部として重畳されなかった画素を補間する。画素の補間は、各画素について第一の画像で抜き取られていない領域から当該画素と最も近傍の画素を抽出してその画素の値で保管する。画像中からの頭部の領域抽出処理は例えば一般的なセマンティックセグメンテーション処理によって行うことができる。
以上、第二の人物グループの各人が、各人の顔を第一の画像中の第一の人物グループの各人の顔状態に近づけるのを補助する情報を提示する方法を説明した。こうすることで一人以上の第一の人物グループが写っている第一の画像中の各人の頭部を、第二の人物グループの各人の頭部に置き換えた画像を作成する場合においても、第二の人物グループの各人は迷うことなくそれぞれが対応する第一の人物グループの各人の顔状態に近づけるよう顔状態を調節することができる。
201:第一の実施形態に係る第一の画像取得部(第一の画像取得機能)、202:第一の実施形態に係る顔状態検出部(顔状態検出機能)、203:第一の実施形態に係る第二の画像撮影部(第二の画像撮影機能)、205:第一の実施形態に係る補助情報出力部(補助情報出力機能)、601:第二の実施形態に係る第一の画像取得部(第一の画像取得機能)、602:第二の実施形態に係る顔状態検出部(顔状態検出機能)、603:第二の実施形態に係る第二の画像撮影部(第二の画像撮影機能)、605:第二の実施形態に係る補助情報出力部(補助情報出力機能)、606:第二の実施形態に係る対応付け部(対応付け機能)

Claims (12)

  1. 第一の人物を撮影した第一の画像における第一の人物の頭部を、第二の人物を撮影した第二の画像における第二の人物の頭部と置き換える画像処理装置であり、
    前記第一の画像を取得する第一の画像取得手段と、
    画像中の人物の顔の状態を検出する検出手段と、
    前記第二の画像を撮影して取得する第二の画像撮影手段と、
    前記第一の画像中の第一の人物の頭部を、前記第二の画像中の第二の人物の頭部と置換する置換手段とを有する装置であり、
    さらに前記第二の画像撮影手段は、前記検出手段が検出した第一の画像中の第一の人物の顔の状態と、被写体である第二の人物の顔の状態を合致させるための補助情報を出力する出力手段を有することを特徴とする画像処理装置。
  2. 前記出力手段は前記検出手段が検出した第一の画像中の第一の人物の顔の状態を表す図柄を前記第二の画像撮影手段が撮影した画像上に重畳したプレビュー画像を補助情報として出力することを特徴とする請求項1に記載の画像処理装置。
  3. 前記出力手段は前記検出手段が検出した第一の画像中の第一の人物の顔の状態を表す図柄と、前記検出手段が検出した第二の画像中の第二の人物の顔の状態を表す図柄とを前記第二の画像撮影手段が撮影した画像上に重畳したプレビュー画像を補助情報として出力することを特徴とする請求項1に記載の画像処理装置。
  4. 前記出力手段は前記検出手段が検出した第一の画像中の第一の人物の顔の状態と、前記検出手段が検出した第二の画像中の第二の人物の顔の状態との差を減らすために要する第二の人物の動作内容を補助情報として出力することを特徴とする請求項1に記載の画像処理装置。
  5. さらに、前記出力手段は前記検出手段が検出した第一の画像中の第一の人物の顔の状態と、前記検出手段が検出した第二の画像中の第二の人物の顔の状態が所定の水準より合致しているときに、合致している旨を補助情報として出力することを特徴とする請求項1から請求項4に記載の画像処理装置。
  6. さらに、前記置換手段は前記検出手段が検出した第一の画像中の第一の人物の顔の状態と、前記検出手段が検出した第二の画像中の第二の人物の顔の状態が所定の水準より合致しているときに前記抽出手段によって抽出された前記第一の画像中の第一の人物の頭部を、
    前記抽出手段によって抽出された前記第二の画像中の第二の人物の頭部と置換することを特徴とする請求項1に記載の画像処理装置。
  7. 前記顔の状態とは顔の方向、口の開閉状態、目の開閉状態、目線の方向のいずれか一つ以上の情報であることを特徴とする請求項1から請求項6に記載の情報処理装置。
  8. 第一の人物を撮影した第一の画像における第一の人物の頭部を、第二の人物を撮影した第二の画像における第二の人物の頭部と置き換える画像処理システムであり、
    前記第一の画像を取得する第一の画像取得部と、
    画像中の人物の顔の状態を検出する検出部と、
    前記第二の画像を撮影して取得する第二の画像撮影部と、
    前記第一の画像中の第一の人物の頭部を、前記第二の画像中の第二の人物の頭部と置換する置換部とを有する装置であり、
    さらに前記第二の画像撮影部は、前記検出部が検出した第一の画像中の第一の人物の顔の状態と、被写体である第二の人物の顔の状態を合致させるための補助情報を出力する出力部を有することを特徴とする画像処理システム。
  9. 第一の人物を撮影した第一の画像における第一の人物の頭部を、第二の人物を撮影した第二の画像における第二の人物の頭部と置き換える画像処理プログラムであり、
    前記第一の画像を取得する第一の画像取得機能と、
    画像中の人物の顔の状態を検出する検出機能と、
    前記第二の画像を撮影して取得する第二の画像撮影機能と、
    前記第一の画像中の第一の人物の頭部を、前記第二の画像中の第二の人物の頭部と置換する置換機能とを有する装置であり、
    さらに前記第二の画像撮影機能は、前記検出機能が検出した第一の画像中の第一の人物の顔の状態と、被写体である第二の人物の顔の状態を合致させるための補助情報を出力する出力機能を有することを特徴とする画像処理プログラム。
  10. 一人以上の人物を含む第一の人物グループを撮影した第一の画像における第一の人物グループのそれぞれの頭部を、一人以上の人物を含む第二の人物グループを撮影した第二の画像における第二の人物グループのそれぞれの頭部と置き換える画像処理装置であり、
    前記第一の画像を取得する第一の画像取得手段と、
    画像中の人物の顔の状態を検出する検出手段と、
    前記第二の画像を撮影して取得する第二の画像撮影手段と、
    前記第一の画像中の第一の人物グループのそれぞれの頭部を、前記第二の画像中の第二の人物グループのそれぞれの頭部と置換する置換手段とを有する装置であり、
    さらに前記第二の画像撮影手段は、前記検出手段が検出した第一の画像中の第一の人物グループの一つ以上の顔の状態と、被写体である第二の人物グループの一人以上の顔の状態を合致させるための補助情報を出力する出力手段を有することを特徴とする画像処理装置。
  11. 一人以上の人物を含む第一の人物グループを撮影した第一の画像における第一の人物グループのそれぞれの頭部を、一人以上の人物を含む第二の人物グループを撮影した第二の画像における第二の人物グループのそれぞれの頭部と置き換える画像処理システムであり、
    前記第一の画像を取得する第一の画像取得部と、
    画像中の人物の顔の状態を検出する検出部と、
    前記第二の画像を撮影して取得する第二の画像撮影部と、
    前記第一の画像中の第一の人物グループのそれぞれの頭部を、前記第二の画像中の第二の人物グループのそれぞれの頭部と置換する置換部とを有する装置であり、
    さらに前記第二の画像撮影部は、前記検出部が検出した第一の画像中の第一の人物グループの一つ以上の顔の状態と、被写体である第二の人物グループの一人以上の顔の状態を合致させるための補助情報を出力する出力部を有することを特徴とする画像処理システム。
  12. 一人以上の人物を含む第一の人物グループを撮影した第一の画像における第一の人物グループのそれぞれの頭部を、一人以上の人物を含む第二の人物グループを撮影した第二の画像における第二の人物グループのそれぞれの頭部と置き換える画像処理装置であり、
    前記第一の画像を取得する第一の画像取得機能と、
    画像中の人物の顔の状態を検出する検出機能と、
    前記第二の画像を撮影して取得する第二の画像撮影機能と、
    前記第一の画像中の第一の人物グループのそれぞれの頭部を、前記第二の画像中の第二の人物グループのそれぞれの頭部と置換する置換機能とを有する装置であり、
    さらに前記第二の画像撮影機能は、前記検出機能が検出した第一の画像中の第一の人物グループの一つ以上の顔の状態と、被写体である第二の人物グループの一人以上の顔の状態を合致させるための補助情報を出力する出力機能を有することを特徴とする画像処理装置。
JP2019088637A 2019-04-15 2019-04-15 画像処理装置 Pending JP2020177605A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019088637A JP2020177605A (ja) 2019-04-15 2019-04-15 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019088637A JP2020177605A (ja) 2019-04-15 2019-04-15 画像処理装置

Publications (1)

Publication Number Publication Date
JP2020177605A true JP2020177605A (ja) 2020-10-29

Family

ID=72937602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019088637A Pending JP2020177605A (ja) 2019-04-15 2019-04-15 画像処理装置

Country Status (1)

Country Link
JP (1) JP2020177605A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220292878A1 (en) * 2021-03-10 2022-09-15 Canon Kabushiki Kaisha Apparatus and method for detecting facial pose, image processing system, and storage medium
JP7500768B2 (ja) 2021-08-20 2024-06-17 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 顔画像処理方法、顔画像処理モデルの訓練方法、装置、機器、及びコンピュータプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220292878A1 (en) * 2021-03-10 2022-09-15 Canon Kabushiki Kaisha Apparatus and method for detecting facial pose, image processing system, and storage medium
JP2022140386A (ja) * 2021-03-10 2022-09-26 キヤノン株式会社 顔の姿勢を検出する装置及び方法、画像処理システム、並びに記憶媒体
JP7371154B2 (ja) 2021-03-10 2023-10-30 キヤノン株式会社 顔の姿勢を検出する装置及び方法、画像処理システム、並びに記憶媒体
JP7500768B2 (ja) 2021-08-20 2024-06-17 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 顔画像処理方法、顔画像処理モデルの訓練方法、装置、機器、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP6101397B2 (ja) 写真出力方法および装置
CN106161939B (zh) 一种照片拍摄方法及终端
KR102127351B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR20110006878A (ko) 복수의 인물에 대한 이미지 생성 장치 및 방법
JP5110098B2 (ja) 表示処理装置、及び、プログラム
WO2015161561A1 (zh) 一种终端基于多摄像头实现合照的方法及装置
JP2009031368A (ja) 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
JP2014075651A (ja) 情報処理装置、情報処理方法、およびプログラム
CN111640165A (zh) Ar合影图像的获取方法、装置、计算机设备及存储介质
KR102364929B1 (ko) 피부 변화를 추적하는 전자 장치, 서버, 및 시스템
JP2020177605A (ja) 画像処理装置
JP2019046239A (ja) 画像処理装置、画像処理方法、プログラム及び合成用画像データ
JP2013186801A (ja) 画像処理装置
US20180278903A1 (en) Image processing apparatus, projector, image processing method, and storage medium storing image processing program
CN114979487B (zh) 图像处理方法、装置及电子设备和存储介质
JP5910639B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
CN113012040B (zh) 图像处理方法、装置、电子设备及存储介质
JP2007134763A (ja) 画像処理装置
CN108205594B (zh) 一种图像处理方法和电子设备
CN113891002B (zh) 拍摄方法及装置
JP6685094B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
CN114697530B (zh) 一种智能取景推荐的拍照方法及装置
JP2014150348A (ja) 撮影装置
CN110121030B (zh) 一种保存拍摄图像的方法以及电子设备
JP5796052B2 (ja) 画面表示制御方法、画面表示制御方式、電子機器及びプログラム