JP7110657B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7110657B2
JP7110657B2 JP2018057428A JP2018057428A JP7110657B2 JP 7110657 B2 JP7110657 B2 JP 7110657B2 JP 2018057428 A JP2018057428 A JP 2018057428A JP 2018057428 A JP2018057428 A JP 2018057428A JP 7110657 B2 JP7110657 B2 JP 7110657B2
Authority
JP
Japan
Prior art keywords
image
face
feature points
unit
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018057428A
Other languages
English (en)
Other versions
JP2019169023A5 (ja
JP2019169023A (ja
Inventor
恭介 佐々木
丈晴 竹内
隆雄 中井
大己 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018057428A priority Critical patent/JP7110657B2/ja
Publication of JP2019169023A publication Critical patent/JP2019169023A/ja
Publication of JP2019169023A5 publication Critical patent/JP2019169023A5/ja
Priority to JP2022113425A priority patent/JP7409440B2/ja
Application granted granted Critical
Publication of JP7110657B2 publication Critical patent/JP7110657B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
デジタルカメラ等で撮影され、記録された画像について、その画像に含まれる人物の顔に、ほくろ等の除去、美白処理など顔に対する補正処理を施すことが普及している(例えば、特許文献1)。
特開平11-73498号公報
しかしながら、上記の顔に対する補正処理を、複数撮像された画像に対して画像毎に処理を施すには、処理負荷が大きい問題があった。
本発明は、複数撮像された画像への顔に対する補正処理の負荷を軽減する画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
本発明の目的を達成するため、本発明に係る画像処理装置は、
顔画像を逐次取得する画像取得手段と、
前記画像取得手段によって取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記顔画像の顔領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出手段と、
前記画像取得手段によって取得された前記第1の画像について、前記顔画像の顔領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定手段と、
前記特徴点位置検出手段により検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較手段と、
前記比較手段による比較結果と前記オブジェクト位置特定手段によって特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成手段と、
記情報生成手段によって生成された前記第2の画像の前記オブジェクトの位置を特定するための情報に基づいて特定された、前記第2の画像の前記オブジェクトの位置の画素値を書き換える書換手段と、
を備えることを特徴とする
本発明によれば、複数撮像された画像への顔に対する補正処理の負荷を軽減する画像処理装置、画像処理方法およびプログラムを提供することができる。
本発明の実施の形態1に係るデジタルカメラの外観背面図である。 デジタルカメラの構成を示すブロック図である。 画像処理部の構成を示すブロック図である。 デジタルカメラで撮影された人の顔のオブジェクトを示す図である。 デジタルカメラで撮影された人の顔のオブジェクトの画素値を示す図であり、(a)は領域Aの画素値、(b)は領域Bの画素値、(c)は領域Cの画素値を示す。 デジタルカメラで撮影された画像のオブジェクトと特徴点の位置を示す図である。 各オブジェクトの第1の画像での位置を示すテーブルを示す図である。 第1の画像から第nの画像までの、特徴点とオブジェクトの位置の変化を示す図であり、(a)は第1の画像、(b)は第2の画像、(c)は第3の画像、(d)は第nの画像のそれぞれの変化を示す。 各特徴点の第1の画像から第nの画像までの位置の変化を示すテーブルを示す図である。 撮影処理のフローチャートを示す図である。 撮影処理のフローチャートを示す図である。 本発明の実施の形態2に係るデジタルカメラの撮影処理のフローチャートを示す図である。 デジタルカメラの撮影画像を示す図である。 複数のユーザの個人データを示すテーブルを示す図である。
以下、本発明について図面を参照して具体的な実施の態様を説明する。本発明である画像処理装置は、撮像された顔画像に、人物等の顔を補正する補正処理を施す機能を備える撮像装置に用いられる。撮像装置は、美肌モードと化粧モードの2つのモードを備える。美肌モードは、ほくろ、しみ、しわ、肌荒れ等を除去するモードであり、化粧モードは、瞳にキャッチライトを付加する、または唇の明るさや色を調整するいわゆるグロスを唇に付与するモードである。以下の実施の形態では、美肌モードと化粧モードの双方のモードを備える撮像装置について説明する。
(実施の形態1)
図1は、本発明の一実施の形態の撮像装置の一例であるデジタルカメラ1の背面図である。デジタルカメラ1は、カメラ本体2と、カメラ本体2の上部に配設された電源スイッチ3と、カメラ本体2の上部の電源スイッチ3に隣接して配設されたレリーズスイッチ4と、カメラ本体2の背面に配設されたモード設定キー5と、撮影モードと再生モードを切り替える再生キー6と、画像を表示する液晶画面7とを備える。レリーズスイッチ4は、例えば、二段階式の押下ボタンであり、半押しされると露出と焦点を固定し、全押しされると画像をキャプチャーするスイッチである。図示はしないが、カメラ本体2の前面には、フラッシュや撮影レンズが配設されている。
デジタルカメラ1において、電源スイッチ3を押して電源を投入すると、デジタルカメラ1は、撮影可能な状態(撮影モード)となる。撮影モードでは、撮影レンズを通して入射する被写体像が1フレーム(例えば1/30秒)毎に出力され、被写体像が、スルー画像として連続して液晶画面7に表示される。ユーザは、スルー画像を見ながら、レリーズスイッチ4を押して、画像をキャプチャー画像として固定して撮影する。
図2は、デジタルカメラ1の概略構成示す図である。図2に示すように、デジタルカメラ1は、撮影レンズ10、撮像素子20、撮像処理部30、画像処理部40、DRAM(Dynamic Random Access Memory)50、フラッシュメモリ60、画像表示部70、操作入力部80、CPU(Central Processing Unit)90を備える。
撮影レンズ10は、図示しない複数のレンズから構成され、ズームレンズやフォーカスレンズを備える。撮影レンズ10には、図示しないレンズ駆動回路が接続され、撮影レンズ10を光軸方向に沿って駆動させる。
撮像素子20は、具体的には、CCD(Charge Coupled Device)やCMOS(Complememtary Metal-Oxide Semiconductor)から構成され、撮影レンズ10の各レンズを通過した被写体像を二次元の画像信号に変換する。
撮像処理部30は、図示しないタイミング発生器、垂直ドライバ、水平ドライバを備え、タイミング発生器、垂直ドライバ、水平ドライバにより撮像素子20を駆動させ、所定の周期毎に被写体像を撮像素子20により二次元の画像信号に変換させ、撮像素子20の撮像領域から1画面分ずつ画像フレームを読み出して画像処理部40に出力する。
画像処理部40は、撮像素子20から転送されたフレーム画像のアナログデータをデジタルデータに変換する処理、ホワイトバランスを調整する処理、カラープロセス処理等をおこなって、輝度信号Y及び色差信号Cb、Crを生成する。
DRAM50は、撮像処理部30から出力される画像データや画像処理部40による画像処理中のデータを一時的に記録する。
フラッシュメモリ60は、例えば、電気的に書き換えが可能な不揮発性メモリであり、デジタルカメラ1を動作させ、デジタルカメラ1の機能を実現するためのプログラム、カメラプログラムが実行中に使用されるデータ等が予め記録されている。
画像表示部70は、表示処理部70aと、表示部70bとを備える。表示処理部70aは、DRAM50に一時的に記録されている表示用データを読み出し、表示部70bに表示する制御を行う。具体的は、表示処理部70aは、CPU90の制御のもと、DRAM50から輝度信号Y及び色差信号Cb、Crを読み出し、図示しないVRAMに記憶し、VRAMから定期的に読み出して、ビデオ信号を表示部70bに出力する。
表示部70bは、表示処理部70aからのビデオ信号に基づいて、撮像素子20により撮像された画像を表示画面である液晶画面7に表示する。撮影モードにあるときは、画像処理部40によって周期的に作成されるスルー画像を表示し、記録画像の再生時には、フラッシュメモリから読み出され、伸長されたキャプチャー画像を表示する。
操作入力部80は、撮影指示、再生指示、電源投入指示、電源遮断指示というデジタルカメラの動作指示、撮影モードや再生モードというデジタルカメラの動作モードに関する設定操作、撮影条件の設定操作など、ユーザによる各種操作を入力するためのものであり、操作入力に応じた操作信号をCPU90に出力する。操作入力部80には、各種機能が割り当てられ、図1の電源スイッチ3、レリーズスイッチ4、モード設定キー5、再生キー6等で実現される。
CPU90は、操作入力部80からの入力を受け付け、フラッシュメモリ60に記憶されたプログラムに従ってデジタルカメラ1の全体の処理を制御する。
画像処理部40の機能ブロック図を、図3に示す。画像処理部40は、画像受信部401、顔検出部402、特徴点検出部403、代表画素値決定部404、第1のオブジェクト位置特定部405、移動量算出部406、第2のオブジェクト位置特定部407、領域調整部408、画素値書換部409、スルー画像作成部410、第1のキャプチャー画像作成部411、第2のキャプチャー画像作成部412、及び切換部413を備える。
画像受信部401は、撮像処理部30から、第1の画像から第nの画像(nは正の整数)までの画像を受信する。本実施の形態において、第1の画像とは、第2の画像から第nの画像におけるオブジェクトの位置を特定するための基準となる画像をいう。第1の画像は、第2の画像から第nの画像までのオブジェクトの位置を特定するための、後述する代表画素値の決定、代表画素値に基づいてオブジェクトの位置を特定する処理が行われる画像である。第2の画像から第nの画像に対しては、代表画素値の決定、オブジェクトの位置を特定する処理をしない。また、画像受信部401と撮像処理部30で画像取得手段を形成する。
顔検出部402は、画像受信部401により受信された第1の画像から第nの画像に、顔領域があるか否かを検出する。具体的には、予め記憶されている一般的な人の顔の特徴データ(目、眉毛、鼻、口、耳、顔の輪郭等の特徴データ)と受信された画像データを比較照合することにより、所定値以上の顔の特徴データと一致する領域を顔領域であると検出する。また、各画像から特徴点を抽出し、特徴点に基づいて顔領域を検出してもよい。特徴点の検出は、例えば、Harrisのコーナー検出アルゴリズムを用いたり、AAA(Active Appearace Model)を用いたりする処理により、実現される。顔検出部402により顔検出手段を形成する。
特徴点検出部403は、顔領域内の特徴点を検出する。特徴点は、人の固有の構成要素である目、鼻、口、顔の輪郭、若しくはその他の顔領域内において特徴点を検出可能な構成要素である。顔検出部402により顔領域を検出したときに特徴点を用いた場合には、この時に利用した特徴点を用いて、顔領域内の特徴点としてもよい。
検出された特徴点は、図6に示すように、XY座標において位置を特定される。具体的には、左目の中心点を第1の特徴点の位置とし(X、Y)として、右目の中心点を第2の特徴点の位置とし(X、Y)として、鼻の頭を第3の特徴点の位置とし(X、Y)として、口の中心点を第4の特徴点の位置とし(X、Y)として特定される。この特徴点の位置の値は、図9に示すテーブルに保存される。
代表画素値決定部404は、ユーザにより美肌モードが選択された場合には、顔領域の画素値を測定して、代表画素値を決定する。本実施の形態では、具体的には、第1の画像の顔領域の中にサンプリング領域を設定し、サンプリング領域内の画素値をサンプリングする。サンプリング領域として、鼻筋や頬の部分など、影が生じにくく、目や鼻孔など肌色以外の部分が含まれない領域を指定する。そして、検出した顔の肌色を示す画素の代表画素値を決定する。サンプリング領域の形状は、矩形、円形、又は多角形などサンプリングする顔の位置に応じて決定する。本実施の形態では、顔の鼻筋にサンプリング領域を指定する。サンプリング領域は16×16ピクセルの領域に、256個のサンプリング点を、画素と重なるように配置する。
そして、サンプリング点が配置された画素のそれぞれについて、Y成分、Cb成分、Cr成分を取得し、それぞれの値のヒストグラムを生成する。生成された3つのヒストグラムについて、平均値μを算出し、3つの値が平均値μを中心とする所定の範囲に属する画素のみを抽出し、サンプリング画素とする。例えば、2σ法を用いて、(σは標準偏差)、±2σの範囲に存在する画素をサンプリング画素とする。さらに、サンプリング画素のY成分(輝度成分)、Cb成分(色差成分)、Cr成分(色差成分)の各平均値を用いて代表画素値を決定する。
化粧モードが選択された場合には、あらかじめフラッシュメモリ60に記憶された化粧の程度に応じて代表画素値が決定される。化粧モードは、化粧をする顔の部位をユーザに選択させることで実行される。例えば、化粧をする部位として唇が選択された場合には、リップグロス処理が施される。そして、リップグロス処理として、輝度の相違する化粧の程度が選択できるようになっており、ユーザが選択した化粧の程度に応じて代表画素値が決定される。
第1のオブジェクト位置特定部405は、決定された代表画素値に基づいて、第1の画像の顔領域内の画素の画素値と代表画素値とを比較して、代表画素値との差が所定値以上である画素値を有する画素から構成されるオブジェクトを検出する。ここで、オブジェクトとは、ほくろ、しみ、皺、肌荒れなど美肌モードの処理対象となるもの、又は唇、目など化粧モードの対象となるものである。
具体的には、顔領域内を所定の格子状の複数の分割領域に分割し、分割領域毎に画素の代表値を決定する。1つの分割領域は、i×j個の画素で定められ(i=j)、例えば6×6の画素で定められる領域を分割領域とする。各々の分割領域毎に画素値の平均値、最頻値、又は重心値を求め、その値を分割領域の画素の代表値(以下、「領域画素値」という。)とする。そして、顔領域の代表画素値と、各分割領域の領域画素値とを比較して、画素値の差異が所定の閾値以上であるかを判断する。
美肌モードが選択された場合には、肌の領域の領域画素値と代表画素値とを比較し、化粧モードが選択された場合には、化粧を施す領域、例えば目や唇を含む領域の領域画素値と代表画素値とを比較する。
顔領域の代表画素値と、領域画素値と、所定の閾値の関係は以下の式1により示される。
|Li-Lr|≧Lth(式1)
ここで、Lrは顔領域の代表画素値、Liは領域画素値、Lthは所定の閾値である。この式を満たす領域画素値を有する画素から構成される領域を、オブジェクトの領域と特定する。
オブジェクトの位置を特定する方法を、美肌モードを例に具体的に説明する。代表画素値の値が200、閾値が70であった場合、閾値70以上の画素値である画素が配置された領域をオブジェクトの領域と特定する。式1から|Li-200|≧70となり、この式を満足するLiの値の画素値を示す画素を特定する。
図4に、撮影された顔に第1のオブジェクト41、第2のオブジェクト42、第3のオブジェクト43がある画像の例を示す。第1のオブジェクト41は顔領域の領域Aにあり、第2のオブジェクト42は顔領域の領域Bにあり、第3のオブジェクト43は顔領域の領域Cにある。それぞれの領域の拡大図も合わせて示す。
領域A、領域B、領域Cを構成する画素の画素値を、図5(a)~(c)に示す。ここで示す画素値は、輝度Yである。画素値として、他の色要素の値を併用してもよい。式1を満たす領域を、図5(a)~(c)の太線で囲われた領域として示す。図5(a)の太線で囲われた領域が第1のオブジェクト41、図5(b)の太線で囲われた領域が第2のオブジェクト42、図5(c)の太線で囲われた領域が第3のオブジェクト43である。
第1のオブジェクト位置特定部405は、第1のオブジェクト41、第2のオブジェクト42、第3のオブジェクト43の各々の中心の画素の位置を、オブジェクトの位置と定める。図6に示すように、XY座標系で、第1のオブジェクト41の位置を(Xb1、Yb1)、第2のオブジェクト42の位置を(Xb2、Yb2)、第3のオブジェクト43の位置を(Xb3、Yb3)、と定め、図7に示すテーブルに保存される。
化粧モードが選択された場合には、唇等のオブジェクトの位置は、顔検出部402により顔領域を検出したときのデータを使用して決定してもよい。
移動量算出部406は、第1の画像の特徴点の位置と、第2の画像から第nの画像までの特徴点の位置に基づき、第1の画像と、第2の画像から第nの画像の各々の画像までの移動量を算出する。移動量算出部406は、特徴点検出部403により検出された複数の特徴点の各々について、第1の画像の特徴点の位置から第nの画像までの特徴点の位置を検出する。
移動量の算出方法について、任意の特徴点の移動を例に、図8を参照して説明する。図中、黒丸は特徴点を示し、複数の画素で示した領域はオブジェクトの領域である。特徴点は、XY座標において、第1の画像801では、図8(a)に示すように、第1の位置(Xr-1、Yr-1)にある。移動量算出部406は、特徴点が、第2の画像802では、図8(b)に示すように第2の位置(Xr-2、Yr-2)に、第3の画像803では、図8(c)に示すように第3の位置(Xr-3、Yr-3)に、第nの画像804では、図8(d)に示すように第nの位置(Xr-n、Yr-n)にあることを検出する。これらの座標位置に基づいて、第1の画像と、第2の画像から第nの画像の各々の画像の第1の特徴点の移動量を算出する。すなわち、特徴点の第1の画像から第2の画像への移動量は、((Xr-1)-(Xr-2),(Yr-1)-(Yr-2))であり、(Δx1,Δy1)として求められる。同様にして、第1の画像と第3の画像との間の特徴点の移動量を、(Δx2,Δy2)と求める。移動量の算出は、第1の画像の特徴点の位置と、各画像の特徴点の位置とに基づいて算出してもよいし、各画像間における移動量を積算して、第1の画像の特徴点から各画像への移動量を算出してもよい。
上述した移動量の求め方を、移動量算出部406は、第1の特徴点から第4の特徴点のそれぞれの特徴点について実行し、特徴点毎の第1の画像から第nの画像までの位置を求めて、図9に示すテーブルに保存する。そして、図9に示すテーブルの位置データを用いて、第1の特徴点から第4の特徴点の移動量を算出する。
移動量は、複数の特徴点を検出して各特徴点の移動を追跡して求めてもよいし、1つの特徴点を検出して移動を追跡して求めてもよい。1つの特徴点の移動を追跡する場合には、2以上の特徴点を追跡するより処理は軽い。一方、2つ以上の特徴点を追跡する場合には、顔の向きや傾きを考慮して、オブジェクトを特定することができる。また、移動量を算出するときに、基準となるフレームを定め、基準となるフレームから次のフレームまでの動きをベクトルとして表現する動きベクトルの情報を求めて利用してもよい。
第2のオブジェクト位置特定部407は、第1の画像のオブジェクトの位置と、第1の画像と前記第2の画像から第nの画像の各々の画像との間の特徴点の移動量と、に基づき、第2の画像から第n画像の各々の画像におけるオブジェクトの位置を特定する。
具体的には、第1のオブジェクト41、第2のオブジェクト42、及び第3のオブジェクト43の、第2の画像から第nの画像の位置を、特徴点の移動量に基づいて特定する。例えば、第1のオブジェクト41の第2の画像における位置を、第1の特徴点の移動量(Δx1,Δy1)に基づいて特定する。
また、第1の画像において、特徴点とオブジェクトの位置関係を紐づけることにより、移動後のオブジェクトの位置を正確に特定することができる。図8(a)に示すように、特徴点とオブジェクトの間の距離のdを算出して、オブジェクトと特徴点の位置を紐付けることができる。例えば、顔の輪郭の一つの特徴点の位置と、オブジェクトであるほくろの位置との間の距離を算出し、この距離を考慮して、第2の画像以降の画像におけるオブジェクトの位置を特定することができる。
画素値書換部409は、第1の画像から第nの画像までのオブジェクトの画素の画素値を、代表画素値で書き換える。例えば、第1の画像から第nの画像までの第1のオブジェクト41の画素値を代表画素値である200で書き換える。画素値の書き換えは、第1のオブジェクト41を構成する各画素の画素値を個別に書き換えてもよいし、第1のオブジェクト41を構成するオブジェクトの領域を代表画素値とした部分画像を作成し、この部分画像を元の画像に合成してもよい。
画素値書換部409は、移動量算出部406により算出された移動量が第1の所定の移動量以下の場合には、オブジェクトを構成する画素の画素値の書き換え処理を行わない。例えば、第1の画像から第2の画像におけるオブジェクトの移動量がゼロ、また表示画像内で移動が認識されない程度の移動量の場合には、移動先のオブジェクトの画素の画素値の書き換えは行わない。したがって、第1の画像のオブジェクトを構成する画素を代表画素値で書き換えた場合において、第1の画像から第2の画像におけるオブジェクトの移動がない場合には、第2の画像のオブジェクトは、第1の画像で既に代表画素値に書き換えた画像を利用することができる。したがって、処理の負担を軽減することができる。また、移動量算出部406により算出された移動量が第2の所定の移動量以上の場合には、画像受信部401により第1の画像が受信される。例えば、移動量が大きすぎる場合には、オブジェクトの追跡が困難であるため、第1の画像を受信する処理に戻る。
領域調整部408は、画素値書換部409により書き換えられるオブジェクトの領域を調整する。オブジェクト領域と同一領域に配置された画素のみを書き換えると、スルー画像またはキャップチャー画像において、書き換えた画素と隣接する画素との間に画素値の差がある場合には、不自然な見え方となる場合がある。
書き換えた画素と隣接する画素との間の画素値の差により不自然な見え方を解消するために、例えば、第1のオブジェクト位置特定部405によりオブジェクトの位置を特定するときに検索したデータに基づき、特定したオブジェクトの周囲の画素の画素値を記憶して、周囲の画素値と代表画素値とが所定以上の差異があるときには、画素値を書き換える領域をオブジェクトの領域より広く設定する。
例えば、ほくろのオブジェクトの画素値を代表画素値に書き換える場合において、ほくろの周囲の画素値と代表画素値との間の画素値に所定の差異がある場合には、書き換えた部分が浮き立って表示されることになる。したがって、ほくろの周囲の画素値と代表画素値との画素値の差が徐々に変化するように、書き換える画素値の領域を、オブジェクトの領域より広げるように調整して、代表画素値オブジェクトの領域より外側に向かって徐々に変化してほくろの周囲の画素値となるようにする。
また、領域調整部408は、ユーザの意図を反映して書き換える画素の範囲をオブジェクトの領域より大きく又は小さくすることもできる。書換える画素の範囲を定めるには、書換える領域を選択する、図示しない選択部を設けて、ユーザに画素を書換える領域範囲を決定させる。領域調整部408は、選択部から受信したユーザの選択信号に応じて、書き換える画素の範囲を決定する。例えば、グロス処理を施す場合、グロス処理を施す唇の範囲をユーザにより選択させ、画素値書換部409により、選択された唇の範囲の画素値を代表画素値に書き換える。
スルー画像作成部410は、第1の画像から第nの画像までのオブジェクトの画素値を代表画素値で書き換えたスルー画像を作成する。作成されたスルー画像は、DRAM50に一時的に記録されるとともに、表示部70bにより液晶画面7に連続的に表示される。スルー画像は、撮像素子20に結像されている被写体像の画像データを、間引きして読み出されて作成される。スルー画像は、所定のフレームレート(ここでは30fps)で更新され、連続して表示される動画として表示される。
なお、特徴点検出部403、代表画素値決定部404、第1のオブジェクト位置特定部405、第2のオブジェクト位置特定部407により補正情報生成手段を形成する。また、第1のオブジェクト位置特定部405、第2のオブジェクト位置特定部407によりオブジェクト検出手段を形成する。特徴点検出部403は特徴点検出手段に対応し、代表画素値決定部404が代表画素値決定手段に対応する。
領域調整部408、画素値書換部409、移動量算出部406により加工手段を形成する。また、移動量算出部406は移動量算出手段に対応し、比較手段を含む。画素値書換部409、スルー画像作成部410、領域調整部408が、オブジェクト加工手段を形成する。画素値書換部409が、画素値書換手段に対応する。
第1のキャプチャー画像作成部411は、ユーザがレリーズスイッチ4を押したことにより撮影画像を取得し、第1のキャプチャー画像を作成する。具体的には、画像受信部401により、撮影画像を受信し、顔検出部402により撮影画像の顔領域を検出し、特徴点検出部403により顔領域の特徴点を検出し、代表画素値決定部404により顔領域の代表画素値を決定し、第1のオブジェクト位置特定部405により撮影画像のオブジェクトの位置を特定する。そして第1のキャプチャー画像作成部411は、第2画像以降の画像のオブジェクト領域の画素値を代表画素値で書き換えられたキャプチャー画像を作成する。第1のキャプチャー画像作成部411が第1のキャプチャー画像作成手段に対応する。
第2のキャプチャー画像作成部412は、ユーザがレリーズスイッチ4を押したことにより撮影画像を取得し、第2のキャプチャー画像を作成する。具体的には、画像受信部401により撮影画像を受信し、受信した撮影画像に、レリーズスイッチ4を押したときに受信した画像から作成されたスルー画像に用いられた代表画素値、オブジェクトの位置に基づいて、オブジェクトの領域の画素の画素値を代表画素値で書き換える。第2のキャプチャー画像作成部411が第2のキャプチャー画像作成手段412に対応する。
切換部413は、画像受信部401、顔検出部402、特徴点検出部403、代表画素値決定部404、第1のオブジェクト位置特定部405、及び第2のオブジェクト位置特定部407によりスルー画像を作成するときの処理負荷に応じて、第1のキャプチャー画像作成部411と、第2のキャプチャー画像作成部412の実行処理を切り換える。具体的には、スルー画像を作成するときの処理負荷が重い場合には、第2のキャプチャー画像作成部412を実行されるように切換え、スルー画像を作成するときの処理が軽い場合には、第1のキャプチャー画像作成部411が実行されるように切り換える。切換部413が、切換手段に対応する。
次に、デジタルカメラ1において、美肌モードが選択された場合の動作を、図10のフローチャートに従って説明する。
デジタルカメラ1の電源スイッチ3が押されると撮影モードとなり、撮像素子20及び撮像処理部30を介してフレーム画像が連続して取得される。ユーザによりモード設定キー5が操作され、美肌モードが選択される。連続して取得されたフレーム画像の信号は、画像処理部40の画像受信部401により受信される。(ステップS101)。第1の画像の信号が受信されると、顔検出部402は、第1の画像中の顔領域を検出する(ステップS102)。特徴点検出部403が検出された顔領域から口、鼻、目などの特徴点を抽出する(ステップS103)。
次に、代表画素値決定部404は、第1の画像の顔領域の画素の代表画素値をサンプリング画素から求める(ステップS104)。そして、第1のオブジェクト位置特定部405は、第1の画像のオブジェクトの領域を特定し、オブジェクトの位置を特定する(ステップS105)。画素値書換部409は、オブジェクトの領域の画素の画素値を代表画素値で書き換え、(ステップS106)、スルー画像作成部410は、第1の画像のスルー画像を作成する(ステップS107)。
次に、画像受信部401は、第2の画像を受信し(ステップS109)、顔検出部402が第2の画像の顔領域を検出する(ステップS110)。特徴点検出部403は、第2の画像の特徴点を検出し(ステップS111)、移動量算出部406が第1の画像から第2の画像での特徴点の移動量を算出する(ステップS112)。移動量が大きすぎるか否かを移動量が第2の所定値以上であるか否かで判断し(ステップS113)、第2の所定値以上でなければ(ステップS113:NO)、第2のオブジェクト位置特定部407が第1の画像から第2の画像までの移動量に基づいて、第2の画像におけるオブジェクトの位置を特定する(ステップS114)。移動量が第2の所定値以上であれば(ステップS113:YES)、第1画像を受信するステップS101に戻る。
次に、画素値書換部409は、第2の画像におけるオブジェクトの領域の画素の画素値を代表画素値で書き換え(ステップS115)、スルー画像作成部410が画素を書き換え第2の画像のスルー画像を作成する(ステップS116)。なお、移動量が第1の所定値以下であれば画素の書き換えはしない。
ステップS109からステップS116までの処理を、第2の画像から第nの画像まで繰り返す。
次に、レリーズスイッチ4がONとなっているか否かを判断する(ステップS117)。レリーズスイッチ4がONとなっていれば(ステップS117;YES)、Aの処理へ進み、レリーズスイッチ4がONとなっていなければ(ステップS117;NO)、処理を終了する。
レリーズスイッチ4がONとなった場合には、Aの処理に進み、図11に示すように、撮影画像が受信される(ステップS118)。CPU90は、レリーズスイッチ4が半押しの状態であれば、ピント合わせが固定された焦点調節状態とする。そして、レリーズスイッチ4が全押しの状態になると、露出が制御され画像データの画素の読み出し処理が行なわれる。
そして、レリーズスイッチ4が全押しされたタイミングの撮影画像の画像データが、画像受信部401により受信される(ステップS118)。次に、顔検出部402が撮影画像の顔領域を検出し(ステップS119)、特徴点検出部403が顔領域内の特徴点を検出する(ステップS120)。
次に、代表画素値決定部404が、顔領域内の画素の代表画素値を決定し(ステップS121)、第1のオブジェクト位置特定部405が撮影画像内のオブジェクトの位置を特定する(ステップS122)。そして、画素値書換部409が、撮影画像内のオブジェクトの領域の画素の画素値を、代表画素値で書き換え(ステップS123)、第1のキャプチャー画像作成部411又は第2のキャプチャー画像作成部412が、キャプチャー画像を作成する(ステップS124)。作成されたキャプチャー画像は、表示部70bにより液晶画面7に表示される。作成されたキャプチャー画像は、記憶媒体に記録され、処理が終了する。
本実施の形態によれば、第1の画像で検出された特徴点の、第1の画像から第2画像以降の各画像への移動量と、第1の画像で特定されたオブジェクトの位置とから、第2画像以降の各画像におけるオブジェクトの位置を特定することができる。したがって、第2画像以降の各画像におけるオブジェクトの位置を個別に検出する必要がないので、画像処理の負荷を軽減することができる。
本実施の形態によれば、第1の画像から第nの画像までのオブジェクトの位置を特定してスルー画像と、キャプチャー画像を作成したので、スルー画像とキャプチャー画像とで、修正後のオブジェクトの見え方に大きな差異が生ずることがない。したがって、ユーザにスルー画像とキャプチャー画像とで違和感を与えることがない。
本実施の形態によれば、第1の画像における複数のオブジェクトを特定して、オブジェクトの移動後の位置を特定することができるので、各人に固有なオブジェクトである、ほくろ、シミ、皺などをまとめて処理することができる。
本実施の形態によれば、デジタルカメラ1が、第1のキャプチャー画像作成部411と、第2のキャプチャー画像作成部412と、これらの作成部を切り替える切換部413と、を備えるので、全体の処理負荷との関係で処理を切り換えることができ、処理の効率化を実現できる。
本実施の形態によれば、領域調整部408を設けたので、オブジェクトの修正後の画像を自然な見え方あるいはユーザが希望する見え方に調整することができる。
(実施の形態2)
実施の形態1においては、第1画像を取得して、特徴点とオブジェクトの位置を検索していたが、予めユーザの顔領域のデータを記録媒体に保存しておき、顔検出部402により検出された顔が保存された顔領域のデータと一致することで、ユーザを特定してもよい。そして、当該ユーザの特徴点とオブジェクトの位置を個人登録データとして登録し、個人登録データを利用してスルー画像を作成してもよい。
DRAM50又は図示しない着脱自在な記録媒体に、事前に撮影したユーザの顔領域を特定するための画像データ及び、図14に示すテーブルに、ユーザの特徴点の位置、オブジェクトの位置、代表画素値の値を、個人登録データとしてユーザに紐付けて記憶する。
個人登録データを用いた場合の画像処理のフローチャートを図12に示す。
ユーザが電源スイッチ3をONにすることで、画像処理がスタートする。第1の画像が撮像素子20により取得され、画像受信部401が第1の画像の画像信号を受信する(ステップS201)。そして、顔検出部402により第1の画像中の顔領域が検出され(ステップS202)、検出された顔領域に基づき、図示しない検索部により記録媒体等に記憶された個人登録データを検索して(ステップS203)、検出された顔領域と保存された顔領域が一致するかを判断する(ステップS204)。一致する顔領域のデータがある場合(ステップS204;YES)には、個人を特定し、特定されたユーザの特徴点の位置、オブジェクトの位置、代表画素値に基づき、オブジェクトの画素の画素値を代表画素値に書き換え、第1のスルー画像を作成する(ステップS205)。一致する顔領域のデータがない場合には(ステップS204;NO)、第1の画像を新たに受信する。
次に、第2の画像から第nの画像までのオブジェクトの位置を、実施の形態1と同様に特定し、オブジェクトの領域を代表画素値で書き換える。具体的には、画像受信部401により、第2画像の画像を受信し(ステップS206)、顔検出部402が第2の画像の顔領域を検出し(ステップS207)、特徴点検出部403が画像から特徴点を検出する(ステップS208)。移動量算出部406が特徴点の移動量を算出する(ステップS209)。移動量が大きすぎるか否かを、移動量が第2の所定値以上であるか否かで判断し(ステップS210)、第2の所定値以下であれば(ステップS210:NO)、第2のオブジェクト位置特定部407が第2画像におけるオブジェクトの位置を特定する(ステップS211)。移動量が第2の所定値以上であれば(ステップS210:YES)、第1画像を受信する処理に戻る。画素書換部409が特定されたオブジェクトの領域を代表画素値で書き換え(ステップS212)、スルー画像作成部410がスルー画像を作成する(ステップS213)。この処理を、第2の画像から第nの画像まで繰り返す。ユーザによりレリーズスイッチ4が押されたとき(ステップS214;YES)、図11に示すキャプチャー画像作成する処理に移行する。ユーザによりレリーズスイッチ4が押されてないときは(ステップS214;NO)、処理を終了する。
記憶されるユーザの個人登録データは、一人のユーザに限定されずに、複数のユーザのデータを記憶することもできる。図13に示すように、ひとつの画面に3人の人物が表示されている場合にも、一人のユーザの個人データが登録されている場合と、同様な処理をすることができる。例えば、図14のテーブルに示すようにユーザX、ユーザY、ユーザZについて、それぞれのユーザの個人登録データを記憶することで、3人の人物それぞれについて、第2の画像から第nの画像までのオブジェクトの位置を特定することができる。
図13(a)は第1の画像131の表示画面を示し、図13(b)は第2の画像132の表示画面を示す。第1の画像131の3人の人物X、Y、Zが、第2の画像132内で移動しても、それぞれの個人登録データに基づいて、各人を特定することができる。したがって、人物の位置が入れ替わっても、各人の位置を特定でき、各人の移動に応じたオブジェクトの位置を容易に特定することができる。
本実施の形態によれば、予め、顔領域、オブジェクトの位置、特徴点の位置を記憶しておくことで、第1の画像における顔領域、オブジェクトの位置、特徴点の位置を容易に特定することができ、処理の負担が軽減される。
実施の形態1、2において、XY座標における特徴点の座標位置に基づいて移動量を算出していた。本発明は、このような移動量の算出方法に更に追加の情報を加味することもできる。
具体的には、顔の特徴点の間の距離、顔の向き、顔の傾きなど情報を考慮してもよい。例えば、特徴点である両目の位置情報から、両目の間の距離を算出し、距離の大小に応じて、画像の拡大又は縮小率を求め、拡大又は縮小率を移動量に反映させてもよい。また、両目の中心点を結んだ線と水平線とのなす角度から顔の傾きを求め、移動量に反映させてもよい。さらに、片目のみ検出されたときには、顔が横を向いていると判断し、移動量は算出しないこともできる。
このように追加の情報を用いることで、オブジェクトの位置を正確に特定できるとともに、処理の負担を軽減することができる。
実施の形態1、2において、第1の画像は、第2の画像以降の画像におけるオブジェクトの位置を特定する基準となる画像であると説明した。どの画像を第1の画像とすべきかは、顔領域の検出、特徴点の検出が容易である画像であることを基準として定められる。例えば、第1の画像として、被写体の人物が正面を向いたタイミングで撮影された画像、所定の期間毎に撮影された画像等を使用することができる。
実施の形態1、2において、切換部413により、第1のキャプチャー画像作成部411と第2のキャプチャー画像作成部412を、負荷に応じて切り換えると説明したが、第1のキャプチャー画像作成部411と、第2のキャプチャー画像作成部412のどちらか一つを備える構成としてもよい。第1のキャプチャー画像作成部411のみを適用すれば、キャプチャー画像に表示される画像の解像度をよくすることができる。第2のキャプチャー画像作成部411のみを適用すれば、処理負荷を軽減することができる。また、いずれのキャプチャー画像作成部を適用しても、スルー画像との見え方の差異を軽減することができる。
実施の形態1、2は、美肌モードと化粧モードの双方のモードがある撮像装置について説明したが、どちらか一方のモードを備える撮像装置であってもよい。
実施の形態1、2において、美肌モードと化粧モードを説明したが、モードは他のモードを備えてもよい。例えば、エフェクトモードを備える。エフェクトモードは星マーク、ハートマークなどを付与する、または色や大きさなどが時間とともに変化する星マーク、ハートマークなどを付与するモードである。
本実施の形態では、デジタルカメラを例に説明したが、本発明の画像処理装置は、デジタルカメラに限定されない。携帯電話、情報端末、スマートフォーンなどの画像処理装置にも適用することができる。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する
(付記)
(付記1)
画像を逐次取得する画像取得手段と、
前記画像取得手段により取得された画像中の顔領域を検出する顔検出手段と、
前記画像取得手段により取得された第1の画像を補正する補正情報を生成する補正情報生成手段と、
前記画像取得手段により取得された第1の画像とは異なる第2の画像に基づいて前記補正情報を加工する加工手段と、
を備える画像処理装置。
(付記2)
前記補正情報生成手段は、
前記顔領域内の特徴点を検出する特徴点検出手段と、
前記顔領域内のオブジェクトを検出するオブジェクト検出手段と、を備える、
付記1に記載の画像処理装置。
(付記3)
前記加工手段は、
前記特徴点検出手段により検出された第1の画像の特徴点と前記第2の画像の特徴点とを比較する比較手段と、
前記比較結果に応じて前記オブジェクト検出手段により検出されたオブジェクトを加工するオブジェクト加工手段と、を備える、
付記2に記載の画像処理装置。
(付記4)
前記比較手段は、
前記顔検出手段により検出された前記第1の画像の特徴点の位置と、第2の画像から第nの画像の各々の画像における前記特徴点の位置と、に基づき、前記第1の画像と、前記第2の画像から第nの画像の各々の画像と、の間の前記特徴点の移動量を算出する移動量算出手段を含む、
付記3に記載の画像処置装置。
(付記5)
前記補正情報生成手段は、
前記画像取得手段により取得された第1の画像の顔領域内の画素の画素値を代表する代表画素値を決定する代表画素値決定手段を備える、
付記4に記載の画像処理装置。
(付記6)
前記オブジェクト検出手段は、
前記第1の画像の顔領域内の各画素の画素値と前記代表画素値とを比較し、前記代表画素値との差異が所定値以上である画素値を有する画素から構成されるオブジェクトを検出する、
付記5に記載の画像処置装置。
(付記7)
前記オブジェクト検出手段は、
前記第1の画像の前記オブジェクトの位置を特定する第1のオブジェクト位置特定手段を備える、
付記5又は6に記載の画像処置装置。
(付記8)
前記オブジェクト検出手段は、
前記第1の画像のオブジェクトの位置と、前記第1の画像と前記第2の画像から第nの画像の各々の画像との間の前記特徴点の移動量と、に基づき、前記第2の画像から第n画像の各々の画像における前記オブジェクトの位置を特定する第2のオブジェクト位置特定手段を備える、
付記7に記載の画像処理装置。
(付記9)
前記加工手段は、
前記第1の画像から前記第nの画像までの各々の画像の中の前記オブジェクトの画素の画素値を、前記代表画素値に書き換える画素値書換手段を備える、
付記8に記載の画像処置装置。
(付記10)
前記加工手段は、
前記画像取得手段により逐次取得される画像から、前記加工手段により加工されたオブジェクトを含むスルー画像を生成するスルー画像作成手段を備える、
付記3に記載の画像処置装置。
(付記11)
撮影指示が入力されたときに、第1のキャプチャー画像を作成する第1のキャプチャー画像作成手段、を更に備え、
前記画像取得手段は、前記撮影指示に応じて取得された撮影画像を取得し、
前記顔検出手段は、前記撮影画像中の顔領域を検出し、
前記補正情報生成手段は、前記画像取得手段により取得された撮影画像を補正する補正情報を生成し、
前記加工手段は、前記画像取得手段により取得された撮影画像とは異なる画像に基づいて前記補正情報を加工し、
前記第1のキャプチャー画像作成手段は、前記加工手段により加工された前記撮影画像の前記第1のキャプチャー画像を作成する、
付記10に記載の画像処理装置。
(付記12)
撮影指示が入力されたときに、第2のキャプチャー画像を作成する第2のキャプチャー画像作成手段、を更に備え、
前記第2のキャプチャー画像作成手段は、
前記撮影指示が入力されたときのスルー画像を作成するときに用いられた補正情報に基づいて、前記第2のキャプチャー画像を作成する、
付記10に記載の画像処置装置。
(付記13)
撮影指示が入力されたときに、第1のキャプチャー画像を作成する第1のキャプチャー画像作成手段と、
撮影指示が入力されたときに、第2のキャプチャー画像を作成する第2のキャプチャー画像作成手段と、
前記第1のキャプチャー画像作成手段と前記第2のキャプチャー画像作成手段とで実行される処理を切り換える切換手段と、を更に備え、
前記切換手段は、前記画像取得手段、前記顔検出手段、前記補正情報生成手段、前記加工手段が、スルー画像を作成するときの処理負荷に応じて、前記第1のキャプチャー画像作成手段と、前記第2のキャプチャー画像作成手段の実行処理を切り換え、
前記第1のキャプチャー画像作成手段に切り換えられたときには、
前記画像取得手段は、前記撮影指示に応じて取得された撮影画像を受信し、
前記顔検出手段は、前記撮影画像中の顔領域を検出し、
前記補正情報生成手段は、前記画像取得手段により取得された撮影画像を補正する補正情報を生成し、
前記加工手段は、前記画像取得手段により取得された撮影画像とは異なる画像に基づいて前記補正情報を加工し、
前記第2のキャプチャー画像作成手段に切り換えられたときには、
前記第2のキャプチャー画像作成手段は、
前記撮影指示が入力されたときのスルー画像を作成するときに用いられた補正情報に基づいて、前記第2のキャプチャー画像を作成する、
付記10に記載の画像処理装置。
(付記14)
前記画素値書換手段は、前記移動量算出手段により算出された前記特徴点の移動量が、第1の所定量以下であるときは、移動先の画像の中の前記オブジェクトの画素の画素値を、書き換える処理を実行しない、
付記9に記載の画像処置装置。
(付記15)
前記オブジェクト加工手段は、前記オブジェクトに対応する部分画像を作成し、当該部分画像を前記オブジェクトの位置に配置して加工する、
付記3に記載の画像処理装置。
(付記16)
前記第1のオブジェクト位置特定手段は、複数のオブジェクトを検出し、当該複数のオブジェクトのそれぞれの位置を特定し、
前記第2のオブジェクト位置特定手段は、前記第1の画像の前記複数のオブジェクトのそれぞれの位置と、前記第1の画像と前記第2の画像から第nの画像の各々の画像との間の前記特徴点の移動量と、に基づき、前記第2の画像から第n画像の各々の画像における前記複数のオブジェクトのそれぞれの位置を特定する、
付記8又は9に記載の画像処理装置。
(付記17)
前記加工手段は、
前記画素値書換手段により画素値を書き換える画素の範囲を、前記オブジェクトを構成する画素の領域よりも大きく又は小さく調整する領域調整手段を更に備える、
付記9に記載の画像処理装置。
(付記18)
前記画像取得手段は、前記移動量算出手段により算出された前記特徴点の移動量が、第2の所定量以上であるときは、前記第1の画像を取得する、
付記4に記載の画像処理装置。
(付記19)
第1の画像を取得するステップと、
前記第1の画像の中の顔領域を検出するステップと、
前記第1の画像を補正する補正情報を生成するステップと、
前記第1の画像とは相違する第2の画像に基づいて前記補正情報を加工するステップと、を備える、
画像処理方法。
(付記20)
コンピュータに、
第1の画像を取得し、
前記第1の画像の中の顔領域を検出し、
前記第1の画像を補正する補正情報を生成し、
前記第1の画像とは相違する第2の画像に基づいて前記補正情報を加工する、
処理を実行させるためのプログラム。
1…デジタルカメラ、2…カメラ本体、3…電源スイッチ、4…レリーズスイッチ、5…モード選択キー、6…再生ボタン、7…液晶画面、10…レンズ、20…撮像素子、30…撮像処理部、40…画像処理部、41…第1のオブジェクト、42…第2のオブジェクト、43…第3のオブジェクト、50…DRAM、60…フラッシュメモリ、70…画像表示部、70a…表示処理部、70b…表示部、80…操作入力部、90…CPU、401…画像受信部、402…顔検出部、403…特徴点検出部、404…代表画素値決定部、405…第1のオブジェクト位置特定部、406…移動量算出部、407…第2のオブジェクト位置特定部、408…領域調整部、409…画素値書換部、410…スルー画像作成部、411…第1のキャプチャー画像作成部、412…第2のキャプチャー画像作成部、413…切換部、131,801…第1の画像、132,802…第2の画像、803…第3の画像 、804…第nの画像

Claims (6)

  1. 顔画像を逐次取得する画像取得手段と、
    前記画像取得手段によって取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記顔画像の顔領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出手段と、
    前記画像取得手段によって取得された前記第1の画像について、前記顔画像の顔領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定手段と、
    前記特徴点位置検出手段により検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較手段と、
    前記比較手段による比較結果と前記オブジェクト位置特定手段によって特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成手段と、
    記情報生成手段によって生成された前記第2の画像の前記オブジェクトの位置を特定するための情報に基づいて特定された、前記第2の画像の前記オブジェクトの位置の画素値を書き換える書換手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記比較手段は、前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置との間の当該特徴点の移動量に基づき、前記第1の画像の前記特徴点と前記第2の画像の前記特徴点とを比較することを特徴とする請求項に記載の画像処装置。
  3. 前記オブジェクト位置特定手段は、前記第1の画像の顔領域内の画素の画素値を代表する代表画素値に基づいて、前記顔画像に含まれる前記オブジェクトの位置を特定するための情報を生成することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記書換手段により画素値が書き換えられた前記オブジェクトを含む顔画像のスルー画像を生成するスルー画像作成手段を更に備えることを特徴とする請求項1乃至の何れか1項に記載の画像処装置。
  5. 画像処理装置が実行する画像処理方法であって、
    顔画像を逐次取得する画像取得ステップと、
    前記画像取得ステップにて取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記顔画像の顔領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出ステップと、
    前記画像取得ステップにて取得された前記第1の画像について、前記顔画像の顔領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定ステップと、
    前記特徴点位置検出ステップにて検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較ステップと、
    前記比較ステップによる比較結果と前記オブジェクト位置特定ステップにて特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成ステップと、
    前記情報生成ステップにて生成された前記第2の画像の前記オブジェクトの位置を特定するための情報に基づいて特定された、前記第2の画像の前記オブジェクトの位置の画素値を書き換える書換ステップと、
    有することを特徴とする画像処理方法。
  6. 画像処理装置のコンピュータを、
    顔画像を逐次取得する画像取得手段、
    前記画像取得手段によって取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記顔画像の顔領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出手段、
    前記画像取得手段によって取得された前記第1の画像について、前記顔画像の顔領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定手段、
    前記特徴点位置検出手段により検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較手段、
    前記比較手段による比較結果と前記オブジェクト位置特定手段によって特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成手段、
    前記情報生成手段によって生成された前記第2の画像の前記オブジェクトの位置を特定するための情報に基づいて特定された、前記第2の画像の前記オブジェクトの位置の画素値を書き換える書換手段、
    として機能させることを特徴とするプログラム。
JP2018057428A 2018-03-26 2018-03-26 画像処理装置、画像処理方法およびプログラム Active JP7110657B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018057428A JP7110657B2 (ja) 2018-03-26 2018-03-26 画像処理装置、画像処理方法およびプログラム
JP2022113425A JP7409440B2 (ja) 2018-03-26 2022-07-14 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018057428A JP7110657B2 (ja) 2018-03-26 2018-03-26 画像処理装置、画像処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022113425A Division JP7409440B2 (ja) 2018-03-26 2022-07-14 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2019169023A JP2019169023A (ja) 2019-10-03
JP2019169023A5 JP2019169023A5 (ja) 2021-05-06
JP7110657B2 true JP7110657B2 (ja) 2022-08-02

Family

ID=68108339

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018057428A Active JP7110657B2 (ja) 2018-03-26 2018-03-26 画像処理装置、画像処理方法およびプログラム
JP2022113425A Active JP7409440B2 (ja) 2018-03-26 2022-07-14 画像処理装置、画像処理方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022113425A Active JP7409440B2 (ja) 2018-03-26 2022-07-14 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (2) JP7110657B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056387A (ja) 2003-07-18 2005-03-03 Canon Inc 画像処理装置、撮像装置、画像処理方法
JP2007087234A (ja) 2005-09-26 2007-04-05 Fujifilm Corp 画像処理方法および装置ならびにプログラム
JP2009055168A (ja) 2007-08-24 2009-03-12 Fujifilm Corp 撮像装置及び画像処理方法
JP2010015463A (ja) 2008-07-04 2010-01-21 Kao Corp 目の位置の検出方法
JP2014016821A (ja) 2012-07-09 2014-01-30 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2017085564A (ja) 2015-10-23 2017-05-18 株式会社モルフォ 画像処理装置、電子機器、画像処理方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6007682B2 (ja) 2012-08-31 2016-10-12 富士通株式会社 画像処理装置、画像処理方法及びプログラム
JP6390247B2 (ja) 2014-07-31 2018-09-19 大日本印刷株式会社 写真撮影装置、肌診断方法、プログラム、及び、肌診断システム
JP6458569B2 (ja) 2015-03-12 2019-01-30 オムロン株式会社 画像処理装置および画像処理方法
JP6432399B2 (ja) 2015-03-12 2018-12-05 オムロン株式会社 画像処理装置および画像処理方法
JP6793325B2 (ja) 2016-05-25 2020-12-02 パナソニックIpマネジメント株式会社 肌診断装置および肌診断方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056387A (ja) 2003-07-18 2005-03-03 Canon Inc 画像処理装置、撮像装置、画像処理方法
JP2007087234A (ja) 2005-09-26 2007-04-05 Fujifilm Corp 画像処理方法および装置ならびにプログラム
JP2009055168A (ja) 2007-08-24 2009-03-12 Fujifilm Corp 撮像装置及び画像処理方法
JP2010015463A (ja) 2008-07-04 2010-01-21 Kao Corp 目の位置の検出方法
JP2014016821A (ja) 2012-07-09 2014-01-30 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2017085564A (ja) 2015-10-23 2017-05-18 株式会社モルフォ 画像処理装置、電子機器、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2019169023A (ja) 2019-10-03
JP2022140505A (ja) 2022-09-26
JP7409440B2 (ja) 2024-01-09

Similar Documents

Publication Publication Date Title
US8494286B2 (en) Face detection in mid-shot digital images
US8570429B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
JP2004317699A (ja) デジタルカメラ
JP2004320287A (ja) デジタルカメラ
JP6564271B2 (ja) 撮像装置及び画像処理方法、プログラム、並びに記憶媒体
JP5949331B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2004320286A (ja) デジタルカメラ
JP2019106045A (ja) 画像処理装置、方法及びプログラム
KR101642402B1 (ko) 촬영 구도를 유도하는 디지털 영상 촬영 장치 및 방법
WO2015008717A1 (en) Image processing device and imaging apparatus
JP4290164B2 (ja) 識別領域を示す表示を画像と共に表示させる表示方法、コンピュータ装置に実行させるプログラム、および、撮像装置
JP4706197B2 (ja) 対象決定装置及び撮像装置
JP2004320285A (ja) デジタルカメラ
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP7110657B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN107911609B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
JP2006074498A (ja) 画像処理装置及び撮像装置
CN111083345B (zh) 独照生成装置和方法及其非易失性计算机可读媒体
JPH06153047A (ja) ビデオカメラシステム
JP7458723B2 (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
US11553136B2 (en) Subject tracking device, subject tracking method, and storage medium
US20230396876A1 (en) Apparatus, method for apparatus, image capturing apparatus, and storage medium
JP7054437B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6668646B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2023114304A (ja) 情報処理装置及びその制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R150 Certificate of patent or registration of utility model

Ref document number: 7110657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150