JP2016192151A - 画像処理装置およびプログラム - Google Patents

画像処理装置およびプログラム Download PDF

Info

Publication number
JP2016192151A
JP2016192151A JP2015072806A JP2015072806A JP2016192151A JP 2016192151 A JP2016192151 A JP 2016192151A JP 2015072806 A JP2015072806 A JP 2015072806A JP 2015072806 A JP2015072806 A JP 2015072806A JP 2016192151 A JP2016192151 A JP 2016192151A
Authority
JP
Japan
Prior art keywords
image processing
image
gesture
processing apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015072806A
Other languages
English (en)
Inventor
香 鶴田
Kaori Tsuruta
香 鶴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015072806A priority Critical patent/JP2016192151A/ja
Publication of JP2016192151A publication Critical patent/JP2016192151A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像に含まれる顔に対して仮想メイクアップを施した顔の画像データに加工するメイクアップシミュレータを、直感的に使用でき、また言語が異なる地域で共通に使用できるようにする。
【解決手段】画像処理装置10は、身体へのジェスチャーを検出し、ジェスチャーが行われた身体の部位を検出するジェスチャー検出部17と、身体を含む画像のうち、ジェスチャーが行われた身体の部位に対応する画像に含まれる身体の部位に、ジェスチャーに応じた画像処理を行う画像処理部11dとを備える。
【選択図】図2

Description

本発明は、画像処理装置およびプログラムに関する。
ビデオカメラで撮影した人物の顔の画像から、その人物が口紅、アイシャドウなどと発声したときの口唇領域の動きのパターン(時間的変化)を検出し、検出したパターンに対応する仮想化粧の加工を画像に施す技術が知られている(特許文献1参照)。
特開2006−260198号公報
従来技術では、発声する言語が異なる場合に口唇領域の動きが異なるので、世界で共通に使うことが困難である。
第1の態様によると、画像処理装置は、身体へのジェスチャーを検出し、ジェスチャーが行われた身体の部位を検出する検出部と、身体を含む画像のうち、ジェスチャーが行われた身体の部位に対応する画像に含まれる身体の部位に画像処理を行う画像処理部と、を備える。
第2の態様によると、画像処理装置は、身に着けている物または保持している物へのジェスチャーを検出する検出部と、身に着けている物または保持している物を含む画像のうち、ジェスチャーが行われた身に着けている物または保持している物に対応する、画像に含まれる身に着けている物または保持している物に画像処理を行う画像処理部と、を備える。
第3の態様によると、プログラムは、身体へのジェスチャーを検出し、ジェスチャーが行われた身体の部位を検出する検出処理と、身体を含む画像のうち、ジェスチャーが行われた身体の部位に対応する画像に含まれる身体の部位への画像処理と、をコンピュータに実行させる。
第4の態様によると、プログラムは、身に着けている物または保持している物へのジェスチャーを検出する検出処理と、身に着けている物または保持している物を含む画像のうち、ジェスチャーが行われた身に着けている物または保持している物に対応する、画像に含まれる身に着けている物または保持している物への画像処理と、をコンピュータに実行させる。
第1実施形態による画像処理装置の使用場面を例示する図である。 図1の画像処理装置およびカメラの要部構成を説明するブロック図である。 基準パターンとメイクアップの動作と仮想メイクアップの画像処理との関連付けを説明する図である。 画像処理前の顔画像を例示する図である。 唇部分の色を変える画像処理を行った顔画像を例示する図である。 頬部分の色を変える画像処理を行った顔画像を例示する図である。 まつげ部分の色を変える画像処理を行った顔画像を例示する図である。 まつげのきわ部分の色を変える画像処理を行った顔画像を例示する図である。 まぶた部分の色を変える画像処理を行った顔画像を例示する図である。 額部分の明るさを下げる画像処理を行った顔画像を例示する図である。 顔の所定部分の明るさを上げる画像処理を行った顔画像を例示する図である。 仮想メイクアップ処理を行う画像処理の流れを説明するフローチャートである。 プログラムの供給方法を説明する図である。 第2実施形態における画像処理装置の要部構成を示すブロック図である。 第3実施形態におけるカメラと画像処理装置と表示装置とを例示するブロック図である。 図16(a)〜図16(d)は、画像処理された顔画像の表示態様を例示する図である。
(第1実施形態)
図1は、第1実施形態による画像処理装置の使用場面を例示する図である。第1実施形態において、画像処理装置10は、例えばパーソナルコンピュータによって構成される。画像処理装置10は、パーソナルコンピュータに画像処理プログラムを実行させる。画像処理プログラムは、画像に含まれる人物の顔に化粧をしたような画像処理を行う。以降、顔に化粧をしたような画像処理を仮想メイクアップ処理と呼ぶ。画像処理装置10は、仮想メイクアップ処理の対象とする人物の顔が含まれる画像である顔画像21を表示部16に表示するとともに、カメラ15による撮影動作を制御する。カメラ15の撮影対象は、画像処理装置10を操作する人物30の頭部(顔)である。
図2は、図1の画像処理装置10の要部構成を説明するブロック図である。画像処理装置10は、制御部11と、操作部12と、記録部13と、画像入力部14と、カメラ15と、表示部16と、ジェスチャー検出部17とを有する。
制御部11は、画像解析部11aと、判定部11bと、選択部11cと、画像処理部11dとを有する。これらは、制御部11が記録部13に格納されているプログラムを実行することにより、ソフトウェア的に実現されるが、これらをASIC等により構成しても構わない。制御部11は、記録部13に格納されているプログラムに基づいて画像処理装置10の各部を制御する。
操作部12は、キーボードやポインティングデバイス等の操作部材によって構成され、各操作に対応する操作信号を制御部11へ出力する。操作部12は、表示部16の表示面に設けられたタッチ操作部を含んでもよい。人物30は、操作部12を介して画像処理装置10を操作する。
記録部13は、ストレージ装置や不揮発性メモリなどによって構成される。記録部13は、画像処理装置10を制御するためのプログラムや画像データなどを記録する。また、記録部13は、制御部11からの制御に基づいてプログラムや画像データを出力する。
画像入力部14には、外部機器(例えばカメラ、メモリカード、外付けハードディスク等の記録媒体)から画像が入力される。画像入力部14に入力された画像データは、制御部11に出力される。
カメラ15は、撮像光学系(図示しない)と、撮像素子(図示しない)とを有する。撮像光学系は、撮像素子の撮像面上に被写体像(本例では人物30の顔)を結像させる。撮像素子は、被写体像を撮像して画像信号を出力する。カメラ15は、撮像素子から出力された画像信号を画像データとして制御部11へ出力する。制御部11は、画像データに所定の画像処理(例えば、輪郭強調やホワイトバランス調整など)を行う。カメラ15の各部は、制御部11によって制御される。
表示部16は、記録部13や画像入力部14から読みだされたテキストデータや画像データに基づく画像などを表示する。また、表示部16は、画像処理部11dが画像処理を行った画像を表示する。表示部16はタッチパネルであってもよく、この場合の表示部16は操作部12も兼ねる。表示部16は、スルー画像などのカメラ15で撮影された画像を表示してもよい。
ジェスチャー検出部17は、カメラ15と制御部11の一部(画像解析部11a)とを有する。なお、ジェスチャー検出部17は、人物30の動作を検出する構成であればよく、これに限定されない。ジェスチャー検出部は、人物30の動作を検出するために、人物30が身に着けたセンサであってもよい。
<仮想メイクアップ処理の説明>
表示部16に表示させる顔画像21の画像データは、画像処理装置10内の記録部13に記録されている。
なお、カメラ15により撮影された人物30の顔を顔画像21として表示部16に表示させてもよく、外部機器から入力された画像データに基づく顔画像21を表示部16に表示させてもよい。人物30の顔を表示部16に表示させる場合、仮想メイクアップ処理の対象は表示されている人物30の顔画像21であり、外部機器から入力された画像の顔を表示部16に表示させる場合、仮想メイクアップ処理の対象は外部機器から入力された顔画像21である。顔画像21の画像データが外部機器から入力される場合、画像データは画像入力部14から入力される。記録部13に記録された顔画像21、または外部機器から入力される顔画像21は、人物30の顔画像に限らない。顔画像21は、人物30以外の人物の顔画像であってもよく、人物30は、自分以外の顔画像21を仮想メイクアップ処理の対象にする。
カメラ15は、表示部16を観察する人物30を所定のフレームレート(例えば60fps)で撮影し、撮影した人物30の画像の画像データを制御部11へ出力する。制御部11は、入力された画像データを画像解析部11aにより解析し、画像解析部11aの解析に基づいて人物30によるジェスチャーを検出する。ジェスチャー検出部17は、人物30によるジェスチャーが、人物30の顔のどの部分(額、眉、まつ毛、目、頬、唇、鼻など)に行われたか、どのようなジェスチャーが行われたかを検出する。ジェスチャー検出部17は、所定の動作をジェスチャーとして検出する。ジェスチャー検出部17がジェスチャーとして検出する所定の動作は、実際に人物30が自身の顔に化粧をするときの動作である。例えば、頬紅を塗る、口紅を塗る、マスカラをつける、アイラインを引く、アイシャドウを塗る、ファンデーションを塗る、額のてかりを取るといった化粧品を顔に塗るまたはつけるときの動作である。
画像処理部11dは、検出したジェスチャーに基づいて、表示部16に表示されている顔画像21に対して仮想メイクアップ処理を行う。例えば、画像処理部11dは、仮想メイクアップ処理として顔画像21に対して色を変える処理、明るさを変える処理、諧調処理、平滑化処理、鮮鋭度に関する画像処理などを行う。
画像処理部11dは、顔画像21のうち、ジェスチャーが行われた顔の部位に対応する顔画像21に含まれる顔の部位に画像処理を行う。画像処理部11dが行う画像処理は、ジェスチャーと予め対応付けられており、顔のどの部分にどのようなジェスチャーが行われたかで顔画像21に行われる画像処理が異なる。画像処理は、ジェスチャーが行われた顔の部位とジェスチャーとして検出する動作とによって処理内容が異なる。制御部11は、画像処理が行われた顔画像21を表示部16に表示させる。
例えば、人物30が、あたかも「頬紅を塗る」かのように自身の顔の右頬を手で叩くと、制御部11は、表示部16に向かって右側の頬に色をつける画像処理を行った顔画像21を表示部16に表示させる。本実施形態では、ジェスチャー検出部17が、顔へのメイクアップの所定の動作(上記例では「頬紅を塗る」)として頬を手で叩く動作をジェスチャーとして検出する。画像処理部11dは、検出したジェスチャーに基づいて、顔画像21に対し、上記メイクアップ(頬紅を塗る)を実際に人物30が自身の顔にしたときと同じになるような画像処理(頬紅をのせたように顔画像21に含まれる頬22の色を変える)を行う。なお、人物30が自身の顔の右頬を手で叩いたら、制御部11は、表示部16に向かって左側の頬に色をつける画像処理を行った顔画像21を表示部16に表示させてもよい。
人物30が、あたかも「口紅を塗る」かのように自身の唇を指でなぞると、制御部11は唇に色をつける画像処理を行った顔画像21を表示部16に表示させる。本実施形態では、ジェスチャー検出部17が、顔へのメイクアップの所定の動作(上記例では「口紅を塗る」)として唇を指でなぞる動作をジェスチャーとして検出する。画像処理装置10は、上記メイクアップ(口紅を塗る)を実際に人物30が自身の顔にしたときと同じになるような画像処理(口紅を塗ったように顔画像21に含まれる唇の色を変える)を行う。
マスカラをつける、アイラインを引く、アイシャドウを塗る、ファンデーションを塗るなどの仮想メイクアップ処理についても同様である。
人物30が、あたかも「額のてかりを取る」かのように自身の額を指や手で撫でると、制御部11は額部分の明るさ(輝度値)を下げる画像処理を行った顔画像21を表示部16に表示させる。本実施形態では、ジェスチャー検出部17が、顔へのメイクアップの所定の動作(上記例では「額のてかりを取る」)として額を指や手で撫でる動作をジェスチャーとして検出する。画像処理装置10は、上記メイクアップ(額のてかりを取る)を実際に人物30が自身の顔にしたときと同じになるような画像処理(額のてかりが取れたように顔画像21に含まれる額部分を暗くする)を行う。
なお、額部分に行う画像処理は、顔画像21の階調に関する処理、平滑化処理、鮮鋭度に関する処理であってもよい。
人物30が、自身の顔の左側から自身の顔へ向けて手を開く動作をすると、制御部11は、表示部16に向かって左側の顔の部分の明るさ(輝度値)を上げる画像処理を行った顔画像21を表示部16に表示させる。本実施形態では、ジェスチャー検出部17が、顔への所定の動作として顔へ向けて手を開く動作をジェスチャーとして検出する。画像処理装置10は、実際に人物30の左側から照明を当てたときと同じになるような画像処理(左側から照明が当てられているかのように顔画像21の所定部分を明るくする)を行う。
なお、人物30が、自身の顔の左側から自身の顔へ向けて手を開く動作をすると、制御部11は、表示部16に向かって右側の顔の部分の明るさ(輝度値)を上げる画像処理を行った顔画像21を表示部16に表示させてもよい。顔へ向けて行う動作は、指を開く動作であってもよい。顔へ向けて行う動作は、手や指を閉じる、または手や指を顔に近づける動作であってもよい。顔画像21の所定部分に行う画像処理は、顔画像21の階調に関する処理、平滑化処理、鮮鋭度に関する処理であってもよい。
ジェスチャー検出部17は、カメラ15によって撮影された時系列の画像データに基づいて、公知のジェスチャー認識技術を用いて人物30の動作を検出する。具体的には、上記時系列の画像データから、顔に対する腕、手や指の動きを示すパターンDを検出し、検出した動きのパターンDを基準パターンS1〜S7と比較する。なお、ジェスチャー検出部は、時系列の画像データから、顔に対する腕、手や指の位置の時間経過に伴う変化をパターンDとして検出し、検出した位置変化のパターンDを基準パターンS1〜S7と比較してもよい。
図3は、基準パターンとメイクアップの動作と仮想メイクアップ処理との関連付けを例示する図である。7つの基準パターンS1〜S7は、それぞれ一般的なメイクアップの動作C1〜C7の実演を撮影した画像データに基づいてあらかじめ作成され、記録部13に記録されている。7つの基準パターンS1〜S7は、所定の動作として記録部13に記録されている。具体的には、メイクアップの動作C1〜C7の実演を撮影した画像データから検出された、顔に対する腕、手や指の動きを示すパターンである。
なお、本説明では、7つのメイクアップの動作に対応させた7つの基準パターンを例示するが、上記7つ以外の他のメイクアップの動作に対する基準パターンを記録部13に記録しても構わない。例えば、皺、しみ、にきびにコンシーラーを塗る動作や、歯をホワイトニングする動作に対して基準パターンを追加する。このようなメイクアップの動作に対する基準パターンの追加、削除等は、適宜行えるようにして構わない。
基準パターンS1は、唇に口紅を塗るメイクアップの動作C1に基づいて作成されたものである。
基準パターンS2は、頬紅を塗るメイクアップの動作C2に基づいて作成されたものである。
基準パターンS3は、マスカラをつけるメイクアップの動作C3に基づいて作成されたものである。
基準パターンS4は、アイラインを引くメイクアップの動作C4に基づいて作成されたものである。
基準パターンS5は、アイシャドウを塗るメイクアップの動作C5に基づいて作成されたものである。
基準パターンS6は、額のてかりを抑えるメイクアップの動作C6に基づいて作成されたものである。
基準パターンS7は、所定の方向から顔に向けて手を開く動作C7に基づいて作成されたものである。
判定部11bは、カメラ15によって撮影された画像データに基づいて検出したパターンDが、上記基準パターンS1〜S7のうちいずれかの基準パターンとの間で所定値以上の類似度を有する場合に、顔へのメイクアップの動作と判断する。
パターンDと上記基準パターンS1〜S7との間の比較において類似度が高くなるジェスチャーの例は、以下の通りである。
基準パターンS1との間で類似度が高くなるのは、唇を指でなぞるジェスチャーである。
基準パターンS2との間で類似度が高くなるのは、頬を手で叩くジェスチャーである。
基準パターンS3との間で類似度が高くなるのは、まつげを指でさわるジェスチャーである。
基準パターンS4との間で類似度が高くなるのは、まつげのラインを指でなぞるジェスチャーである。
基準パターンS5との間で類似度が高くなるのは、まぶたの上を指で触るジェスチャーである。
基準パターンS6との間で類似度が高くなるのは、額を手で叩くジェスチャーである。
基準パターンS7との間で類似度が高くなるのは、顔に向けて所定の方向からで手を開くジェスチャーである。
選択部11cは、ジェスチャー検出部17によって検出した動作に対応する画像処理(仮想メイクアップ処理)を以下のように選択する。本実施の形態では、図3に例示したように、基準パターンS1〜S7と、メイクアップの動作C1〜C7と、仮想メイクアップ処理とが関連付けられている。言い換えれば、所定の動作である基準パターンS1〜S7と、メイクアップのジェスチャーC1〜C7と、顔画像21への画像処理とが予め関連付けられている。
なお、所定の動作は、頬を手で叩く、唇を指でなぞる、手や指を開くに限らない。所定の動作は、人物30の身体に触わる、または身体に接近するまたは近接する動作、または身体の部位をなぞるまたは撫でるまたは捻るまたは掴むまたは挟むまたは叩く等の動作である。所定の動作は、人物30の身体に触れてなくともよい。人物30が、身体のどの部位にジェスチャーを行ったかをジェスチャー検出部17が検出できればよい。
図3において、処理W1は、唇部分の色を変える画像処理であり、基準パターンS1に対応する。
処理W2は、頬部分の色を変える画像処理であり、基準パターンS2に対応する。
処理W3は、まつげ部分の色を変える画像処理であり、基準パターンS3に対応する。
処理W4は、まつげのきわ部分の色を変える画像処理であり、基準パターンS4に対応する。
処理W5は、まぶた部分の色を変える画像処理であり、基準パターンS5に対応する。
処理W6は、額部分の明るさを下げる画像処理であり、基準パターンS6に対応する。
処理W7は、顔の所定部分の明るさを上げる画像処であり、基準パターンS7に対応する。
選択部11cは、判定部11bによってパターンDとの間で類似度が高いと判定された基準パターンS1〜S7に対応する画像処理を、処理W1〜W7から選択する。パターンDとの間で大きい類似度を有する基準パターンS1〜S7を特定すれば、図3に基づき、対応するメイクアップの動作C1〜C7、および対応する仮想メイクアップ処理W1〜W7を特定することができる。
画像処理部11dは、表示部16に表示中の顔画像21に対し、選択部11cによって選択された画像処理を行う。図4は、処理前の顔画像21を例示する図である。図5は、図4の顔画像21に対して唇部分の色を変える画像処理(処理W1)を行った顔画像21を例示する図である。図6は、図4の顔画像21に対して頬部分(本例では右頬)の色を変える画像処理(処理W2)を行った顔画像21を例示する図である。
図7は、図4の顔画像21に対してまつげ部分の色を変える画像処理(処理W3)を行った顔画像21を例示する図である。図8は、図4の顔画像21に対してまつげのきわ部分の色を変える画像処理(処理W4)を行った顔画像21を例示する図である。図9は、図4の顔画像21に対してまぶた部分の色を変える画像処理(処理W5)を行った顔画像21を例示する図である。
図10は、図4の顔画像21に対して額部分の明るさを下げる画像処理(処理W6)を行った顔画像21を例示する図である。図11は、図4の顔画像21に対して顔の所定(本例では左下)部分の明るさを上げる(処理W7)を行った顔画像21を例示する図である。
制御部11は、ジェスチャーに基づいて仮想メイクアップ処理された顔画像21を表示部16に表示させる。図16(a)〜図16(d)は、画像処理された顔画像21の表示態様を例示する図である。表示部16は、図16(a)〜図16(d)のように、画像処理された顔画像21を様々な表示態様で表示する。
例えば、図16(a)は、表示部16の表示画面に画像処理された顔画像21を表示する表示態様である。図16(b)は、表示部16の表示画面を2つの表示領域に分けて、2つの画像を表示する表示態様である。表示部16は、例えば画像処理前の顔画像21を表示画面の左側に表示させるとともに、画像処理後の顔画像21を表示画面の右側に表示させる。
図16(c)は、表示部16の表示画面を複数の表示領域に分けて、表示部16に複数の顔画像21を表示する表示態様である。表示部16は、例えば1〜16の顔画像21を、複数に分割された表示領域にそれぞれ表示する。図16(d)は、複数の顔画像21を表示する表示態様において、画像処理が行われた順を識別し得るように表示した表示態様の一例である。人物30は、図16(b)〜図16(d)の表示態様で表示させることにより、画像処理前の顔画像21と画像処理後の顔画像21とを比較することができる。
<フローチャートの説明>
図12は、仮想メイクアップ処理を行う画像処理の流れを説明するフローチャートである。制御部11は、仮想メイクアッププログラムの実行操作が行われると、図12に示す処理を実行するプログラムを起動させる。図12のステップS10において、制御部11は、カメラ15に撮影を開始させてステップS20へ進む。
ステップS20において、制御部11は、カメラ15によって時系列に取得された画像データを取得してステップS30へ進む。ステップS30において、制御部11は、画像データに基づいて人物30のジェスチャー(顔に対する腕、手や指の動きのパターンD)を検出してステップS40へ進む。ステップS40において、制御部11は、上記パターンDを基準パターンS1〜S7と比較してステップS50へ進む。
ステップS50において、制御部11は、人物30のジェスチャーが、顔に対するメイクアップの動作と類似しているか否かを判定する。制御部11は、パターンDが基準パターンS1〜S7のいずれかとの間で所定値以上の類似度を有する場合に、ステップS50を肯定判定してステップS60へ進む。制御部11は、パターンDが基準パターンS1〜S7との間で所定値以上の類似度を有していない場合に、ステップS50を否定判定してステップS90へ進む。
ステップS60において、制御部11は、検出したジェスチャー(所定値以上の類似度を有する動作)に対応する処理W1〜W7を、表示部16に表示する画像(本例では、記録部13から読み出した画像データによる画像)に行ってステップS70へ進む。ステップS70において、制御部11は、処理後の顔画像21を表示部16に表示させてステップS80へ進む。
ステップS90において、制御部11は未処理の顔画像21(本例では、記録部13から読み出した画像データによる画像)をそのまま表示部16に表示させてステップS80へ進む。
ステップS80において、制御部11は、終了操作が行われたか否かを判断する。制御部11は、終了操作が行われた場合にステップS80を肯定判定して図12による処理を終了する。制御部11は、終了操作が行われない場合には、ステップS80を否定判定してステップS20へ戻る。ステップS20へ戻った場合、制御部11は、上述した処理を繰り返す。
上述した第1実施形態によれば、次の作用効果が得られる。
(1)画像処理装置10は、例えば、顔へのジェスチャーを検出し、ジェスチャーが行われた顔の部位を検出するジェスチャー検出部17と、顔を含む画像のうち、ジェスチャーが行われた顔の部位に対応する画像に含まれる顔の部位に画像処理を行う画像処理部11と、を備えるようにした。実際の動作をジェスチャーとして検出するので、直感的に使用できる。また、言語が異なる地域で共通に使用できる。
(2)ジェスチャー検出部17は、顔へのメイクアップのジェスチャーを検出し、画像処理部11dは、画像に含まれる顔に対し、実際の顔にメイクアップをしたような仮想メイクアップ処理を施すので、使いやすいメイクアップシミュレータを実現できる。実際に化粧をしなくとも、化粧をしたような画像を得ることができるから、実際に化粧をしたときの容姿を確認できる。実際に化粧をする必要がなくなり、メイクアップの中止、修正、やり直しが簡単にできる。
(3)ジェスチャー検出部17は、唇を指でなぞるジェスチャーを検出し、画像処理部11dは、画像に含まれる唇に対し、実際の唇に口紅を塗ったような画像処理を行うので、直感的で使いやすいメイクアップシミュレータを実現できる。
(4)ジェスチャー検出部17は、頬を手でたたくジェスチャーを検出し、画像処理部11dは、画像に含まれる頬に対し、実際の頬に頬紅をつけたような画像処理を行うので、直感的で使いやすいメイクアップシミュレータを実現できる。
(5)ジェスチャー検出部17は、まつげを指で触るジェスチャーを検出し、画像処理部11dは、画像に含まれるまつげに対し、実際のまつげにマスカラをつけたような画像処理を行うので、直感的で使いやすいメイクアップシミュレータを実現できる。
(6)ジェスチャー検出部17は、まつげのラインを指でなぞるジェスチャーを検出し、画像処理部11dは、画像に含まれる目の周辺に対し、実際の目の周辺にアイラインを引いたような画像処理を行うので、直感的で使いやすいメイクアップシミュレータを実現できる。
(7)ジェスチャー検出部17は、まぶたの上を指で触るジェスチャーを検出し、画像処理部11dは、画像に含まれるまぶたに対し、実際のまぶたにアイシャドウを塗ったような画像処理を行うので、直感的で使いやすいメイクアップシミュレータを実現できる。
(8)ジェスチャー検出部17は、額を手でたたくジェスチャーを検出し、画像処理部11dは、画像に含まれる額の顔に対し、額のてかりを抑えたような画像処理を行うので、直感的で使いやすいメイクアップシミュレータを実現できる。
(9)ジェスチャー検出部17は、顔に向けて所定の方向から手を開くジェスチャーを検出し、画像処理部11dは、画像に含まれる所定部分に対し、所定の方向から光を当てたような画像処理を行うので、直感的で使いやすいメイクアップシミュレータを実現できる。
(第2実施形態)
第1実施形態の説明では、カメラ15を有する画像処理装置10(パーソナルコンピュータ)を例に説明したが、背面液晶モニタのような表示部を備えるカメラや、スマートフォンのようにカメラ機能と表示機能とを備えた高機能携帯電話機250(図13)、またはタブレット端末などのモバイル機器によって構成することもできる。
図14は、第2実施形態における画像処理装置20の要部構成を示すブロック図である。第2実施形態において、画像処理装置20は、例えばカメラによって構成される。画像処理装置20は、第1カメラ25aと第2カメラ25bとを有する点で、第1実施形態における画像処理装置10と異なる。
第1カメラ25aは、人物31(被写体)を撮影するための第1の撮影部である。第2カメラ25bは、画像処理装置20を操作する人物30(撮影者)を撮影するための第2の撮影部である。第2カメラ25bは、第1実施形態におけるカメラ15に相当する。その他の構成は、第1実施形態の画像処理装置10と同様なので説明を省略する。なお、画像入力部24はなくてもよい。表示部26に表示される画像は、スルー画像などの第1カメラ25aで撮影された画像、記録部23または画像入力部24から読みだされたテキストデータや画像データに基づく画像などである。
画像処理装置20は、第1カメラ15aで撮影した人物31の顔画像21を表示部26に表示する。ジェスチャー検出部27は、人物30の所定の動作をジェスチャーとして検出する。画像処理部28dは、検出したジェスチャーに基づいて、表示部26に表示されている顔画像21に対して仮想メイクアップ処理を行う。制御部28は、仮想メイクアップ処理を行った顔画像21を表示部26に表示させる。なお、表示部26における画像の表示態様は、第1実施形態の表示部16の表示態様(図16)と同様である。
上述した第2実施形態によれば、第1実施形態と同様の作用効果が得られる。すなわち、画像処理装置20は、例えば、撮影者による撮影者の顔へのジェスチャーを検出し、ジェスチャーが行われた顔の部位を検出するジェスチャー検出部27と、被写体の顔を含む画像のうち、ジェスチャーが行われた撮影者の顔の部位に対応する、画像に含まれる被写体の顔の部位に画像処理を行う画像処理部28dを備えるようにした。これにより、実際の化粧の動作をジェスチャーとして検出するので、直感的に使用することができる。また、画像処理のための操作が少なくなることで煩雑な操作がなくなり、操作性が良くなる。
(第3実施形態)
第1実施形態および第2実施形態の説明では、パーソナルコンピュータとカメラとを例に説明したが、カメラと画像処理装置と表示装置と組み合わせて構成することもできる。図15は、第3実施形態における、カメラ45と画像処理装置40と表示装置46とを例示するブロック図である。
なお、カメラ45、画像処理装置40、表示装置46のうちいずれか2つの組み合わせが1つの装置で構成されていてもよい。その他の構成は、第1実施形態の画像処理装置10と同様なので説明を省略する。なお、記録部43はなくてもよい。
カメラ45は、表示装置46を観察する人物30を所定のフレームレートで撮影し、撮影した人物30の画像の画像データを画像処理装置40へ出力する。画像処理装置40は、カメラ45から入力した画像データに基づく顔画像21を表示装置46に表示させる。なお、表示部46には、記録部43から読みだされたテキストデータや画像データに基づく画像などを表示させてもよい。
ジェスチャー検出部47は、人物30の所定の動作をジェスチャーとして検出する。ジェスチャー検出部47は、カメラ45から入力した画像データに基づいて人物30によるジェスチャーを検出する。なお、ジェスチャー検出部47は、カメラ45と画像解析部48aとを有する場合を例示したが、これに限定されない。例えば、画像処理装置40にカメラ45とは異なるカメラを備え、このカメラをジェスチャー検出部として用いる構成にしてもよい。ジェスチャー検出部は、人物30のジェスチャーを検出できればよく、人物30の動作を検出するセンサであってもよい。
画像処理部48dは、検出したジェスチャーに基づいて、表示装置46に表示されている顔画像21に対して仮想メイクアップ処理を行う。制御部48は、仮想メイクアップ処理を行った顔画像21を表示部46に表示させる。なお、表示部26における画像の表示態様は、第1実施形態の表示部16の表示態様(図16)と同様である。
上述した第3実施形態によれば、第1実施形態と同様の作用効果が得られる。すなわち、画像処理装置40は、例えば、人物30による人物30の顔へのジェスチャーを検出し、ジェスチャーが行われた顔の部位を検出するジェスチャー検出部47と、人物30の顔を含む画像のうち、ジェスチャーが行われた人物30の顔の部位に対応する、画像に含まれる人物30の顔の部位に画像処理を行う画像処理部48dを備えるようにした。これにより、実際の化粧の動作をジェスチャーとして検出するので、直感的に使用することができる。また、実際に化粧をしなくとも、化粧をしたような画像を得ることができる。化粧をした画像を撮影するために、実際に化粧をする必要がなくなる。
第3実施形態におけるカメラ45と画像処理装置40と表示装置46とは、店頭やスタジオなどで使用されてもよい。従来、化粧をしたときの容姿を確認することは困難であった。実際に化粧をした場合には、化粧を中止または修正するときに化粧を落とす手間と時間を要してしまっていた。しかしながら、第3実施形態によれば、人物30が自身で実際に化粧をしなくても、あるいは店員やスタイリストが人物30に実際に化粧をしなくとも、化粧をしたような画像を観察することができ、実際に化粧をしたときの容姿を確認できる。実際に化粧をする必要がなくなるため、メイクアップの中止、修正、やり直しが簡単にできる。
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
以上の説明では、画像に含まれる人物の顔に化粧をしたような画像処理を行うことを説明したが、画像処理の対象は人物の顔に限定されない。また、画像処理は顔に化粧をしたような画像処理(仮想メイクアップ処理)に限定されない。画像処理の対象は、画像に含まれる人体の部位、例えば、頭髪、腕、手、首、胸、腹、脚、足、背中等であってもよい。画像処理は、画像に含まれる人体の部位に色を変える処理、明るさを変える処理、諧調処理、輪郭強調処理、鮮鋭度に関する処理などであってもよい。
画像処理は、所定の動作が行われた身体の部位に対応する画像に含まれる身体の部位に、実際の身体そのものに所定の動作を行ったときに身体に現れる変化を表す画像処理であってもよい。身体への所定の動作は、普段の生活で行われる身体へのしぐさや行為である。普段の生活で行われる身体へのしぐさや行為は、化粧をするときの動作の他、身体への動作(髪をかき上げる、髪形を作る、身体の部位を手または足で払う、身体の部位を手または足でなでる、身体の部位を手または足でかく等の動作)を含む。
例えば、仮想メイクアップシミュレータの代わりに、仮想髪型シミュレータを構成してもよい。従来、髪型または髪の色を変えたいとき、髪型または髪の色を変えたときの容姿を確認することは困難であった。実際に髪を切るなどして髪型を変えるか、髪の色を実際に変えることをしなければならないが、髪を切った後または髪の色を変えた後から中止、修正をすることは困難であった。
変形例1において、画像処理装置10は、人物30によるジェスチャーを検出することによって、表示部16に表示されている画像に対して仮想処理を行う。例えば人物30が、あたかも「髪を切る」かのように自身の手指を使って模したハサミで髪を挟むと、画像処理装置10は、髪の長さを短くする画像処理を行った顔画像21を表示部16に表示させる。反対に、人物30が、「髪を伸ばそうとする」かのように自身の手指で髪を挟んで手指を下に動かすと、画像処理装置10は、髪の長さを長くする画像処理を行った顔画像21を表示部16に表示させる。
変形例1では、髪に対するカットの動作、または髪を伸ばそうとする動作をそれぞれジェスチャーとして検出する。画像処理装置10は、実際に髪をカットしたかのような画像となるよう顔画像21に画像処理(ショートヘアスタイルにする)を行う。画像処理装置10は、実際に髪が伸びたかのような画像となるよう顔画像21に画像処理(ロングヘアスタイルにする)を行う。髪の長さは、例えば、ロング、ミディアム、ショートの3段階に切り替えてもよい。
また、髪をカットする部位をジェスチャーに対応させて異ならせてもよい。例えば、人物30が前髪を手指で挟んだ場合と、人物30が後ろ髪を手指で挟んだ場合とで、髪の長さを変化させる部位を異ならせる。
さらにまた、髪を分ける部位をジェスチャーに対応させて異ならせてもよい。例えば、人物30が髪の分け目をずらすかのように手櫛を入れると、画像処理装置10は、髪の分け目の位置を移動させる画像処理を行った顔画像21を表示部16に表示させる。
そしてさらに、画像処理装置10は、髪にパーマをかける動作(例えば、指に髪を巻き付ける)をジェスチャーとして検出し、実際に髪にパーマをかけたかのような画像となるよう画像処理(パーマヘアスタイルにする)を行った顔画像21を表示部16に表示させてもよい。画像処理におけるパーマの強さは、例えば、髪を指に巻き付ける回数(例えば1回〜3回)により、3段階に切り替えてもよい。
髪の色を変えるようにしてもよい。例えば、画像処理装置10は、頭を振る、髪を撫でるなどの動作をジェスチャーとして検出し、実際に髪の色を変えたかのような画像となるよう画像処理(髪の色を変える)を行った顔画像21を表示部16に表示させてもよい。
以上説明したように変形例1によれば、髪型または髪の色を実際に変えなくても、髪型または髪の色を変えたような画像を観察することができる。また、実際に髪型または髪の色を変えたときの容姿が確認できる。髪型または髪の色を実際に変える必要がなくなるため、髪型変更や髪の色の変更の中止、修正、やり直しが簡単にできる。
(変形例2)
ジェスチャーの対象は、身体そのもの(頭髪、頭、顔、腕、手、首、胸、腹、脚、足、背中など)だけでなく、人が身に着ける物や人が保持する物であってもよい。ここで、人が身に着ける物は、帽子、ヘルメット、髪止め、衣服、マフラー、靴下、手袋、ベルト、靴等の履物、時計、メガネ、指輪や腕輪やネックレスやその他アクセサリー等の装飾品、包帯や絆創膏やマスク等の医療品、ウェアラブル機器等である。また、人が保持する物は、鞄やリュックサック、杖、スキー板やスノーボードやバットやクラブやラケット等のスポーツ器具などである。
人が身に着ける物や保持する物へのジェスチャーも同様である。人が身に着ける物や保持する物へのジェスチャーは、人が身に着ける物や保持する物への所定の動作である。人が身に着ける物や保持する物への所定の動作は、人が身に着ける物や保持する物への普段の生活で行われるしぐさや行為である。普段の生活で行われるしぐさや行為は、例えば、人が身に着ける物または保持する物を指示する、衣服を着るまたは被るまたは脱ぐ、靴を履くまたは脱ぐ、装飾品を着けるまたははずす、物を貼るまたは剥がす等の動作である。
例えば、仮想メイクアップシミュレータや仮想髪型シミュレータの代わりに、衣類の着せ替えシミュレータにおいて、上着(コート、ジャケット等)のボタンをかける、ボタンをはずす処理を仮想的に行うようにしてもよい。従来、衣服を試着した容姿を確認したいときや、鞄や装飾品を合わせた容姿を確認したいときは、実際に衣服を着る、鞄を持つ、装飾品をつける作業が必要であった。衣服や装飾品の着脱や、鞄を持ち替える作業は面倒であった。
変形例2において、画像処理装置10は、人物30によるジェスチャーを検出することによって、表示部16に表示されている画像(変形例2の場合は、衣類をまとった全身像)に対して仮想処理を行う。人物30が、あたかも「手でボタンをかける」かのように前開きの上着のボタンをボタンホールの位置へ近づけると、画像処理装置10は、上着の前合わせを閉じるとともにボタンをかけた画像処理を行った画像を表示部16に表示させる。
反対に、人物30が、あたかも「手でボタンをはずす」かのように前開きの上着のボタンホールからのぞくボタンの位置へ手を近づけると、画像処理装置10は、上着のボタンをはずして前合わせを開いた画像処理を行った画像を表示部16に表示させる。
変形例2では、前開きの上着に対するボタンかけの動作(ボタンをボタンホールの位置に近づける、またはボタンホールからのぞくボタンの位置へ手を近づける)をジェスチャーとして検出する。画像処理装置10は、実際の上着のボタンをかけた、または実際に上着のボタンをはずしたかのような画像となるよう画像に画像処理(上着の前合わせを閉じた画像処理、上着の前合わせを開いた画像処理)を行う。
ボタンかけの他にも、上着のファスナーを閉じる/ファスナーを開く所作についても、同様に画像処理を行うことができる。
さらに、帽子をかぶる動作/帽子をとる動作、眼鏡をかける動作/眼鏡をはずす動作、装飾品をつける動作/装飾品をはずす動作についても、同様に画像処理を行うことができる。その他の、人が身に着ける物や保持する物に対する動作についても同様に画像処理を行うことができる。
以上説明したように変形例2によれば、衣服を実際に着たり脱いだりしなくても、衣服を変えたような画像を観察することができる。また、実際に衣服を変えたときの容姿が確認できる。衣服を実際に変える必要がなくなるため、衣装変更の中止、修正、やり直しが簡単にできる。
(変形例3)
上記実施形態では、顔へのジェスチャーを検出し、画像に含まれる顔の部位に画像処理を行うことを説明したが、ジェスチャー検出の対象と画像処理の対象とは顔に限定されない。ジェスチャー検出の対象と画像処理の対象とは、身体の一部だけでなく身体全体であってもよい。
例えば、着せ替えシミュレータの代わりに、体型シミュレータを構成してもよい。従来、体型が変わったときの容姿を確認することは困難であった。変形例3において、画像処理装置10は、人物30によるジェスチャーを検出することによって、表示部16に表示されている画像(変形例3の場合は全身像)に対して仮想処理を行う。人物30が、自身の身体のラインより大きいラインを手でなぞると、画像処理装置10は、身体を一回り大きくなる画像処理を行った画像を表示部16に表示させる。例えば、バストラインより大きなラインを手でなぞった場合は、画像のバストの部位を大きくする画像処理を行う。
反対に、人物30が、自身の身体のラインより小さいラインを手でなぞると、画像処理装置10は、身体を一回り小さくなる画像処理を行った画像を表示部16に表示させる。例えば、ウエストラインより小さく手でなぞった場合は、画像のウエストの部位を細くする画像処理を行う。
また、人物30が背伸びをすると、画像処理装置10は、身長を高くする画像処理を行った画像を表示部16に表示させる。反対に、人物30が膝を曲げると、画像処理装置10は、身長を低くする画像処理を行った画像を表示部16に表示させる。
さらに、人物30が首を手で上方へ引っ張るようにすると、画像処理装置10は、画像の首の部位を長くする画像処理を行った画像を表示部16に表示させる。
さらにまた、人物30が、顎の左右を挟んだ手指を広げると、画像処理装置10は、画像の顎の部位をゆるやかにする画像処理を行った(とんがりを抑える)画像を表示部16に表示させる。
以上説明したように変形例3によれば、体型が変わったような画像を観察することができるため、実際に体型が変わった時の容姿が確認できる。なお、ジェスチャーは、身体、または人が身に着ける物または保持する物に直に触らなくともよい。ジェスチャーは、身体、または人が身に着ける物または保持する物に、触る、近接する、接近する、なぞる等の動作であればよい。ジェスチャーは、物や道具を介して、身体、または人が身に着ける物または保持する物に、触る、近接する、接近する、なぞる等の動作であってもよい。例えば、人が手に手袋を装着した状態で、身体、または人が身に着ける物または保持する物に、手袋を介してジェスチャーを行ってもよい。例えば、人が手に化粧道具を持った状態で、身体(顔)に化粧道具を介して化粧のジェスチャーを行ってもよい。
なお、カメラ15が撮影する人物は、画像処理装置10を操作する人物30のみに限らない。複数人が画像処理装置10を操作するようにしてもよい。表示部16を観察する人物は、人物30に限らず、人物30の周りにいる他の人物であってもよい。人物30の周りにいる人物が、人物30の顔を用いて顔画像21に仮想メイクアップ処理を行ってもよい。
カメラ15は、表示部16を観察する人物を撮影し、撮影した人物の画像の画像データを制御部11へ出力する。ジェスチャー検出部17は、入力された画像データに基づいて表示部16を観察する人物による人物30へのジェスチャーを検出する。人物30だけでなく、周りの他の人物も、画像処理装置10を用いて表示部16に表示されている人物30の顔画像21に仮想メイクアップ処理を行うようにしてもよい。
なお、画像に複数の顔が含まれている場合、人物30または表示部16を観察する人物が仮想メイクアップ処理の対象としたい顔を選択するようにしてもよい。画像に複数の顔が含まれている場合、人物30が自分の顔を用いて、画像に含まれている複数の顔画像にそれぞれ仮想メイクアップ処理を行うようにしてもよい。
また、人物30の周りにいる人物が、自分の顔を用いて、画像に含まれている複数の顔画像にそれぞれ仮想メイクアップ処理を行うようにしてもよい。例えば、店員、美容師、スタイリストなどが、画像処理装置10を用いて人物30に仮想メイクアップを行うことができる。人物30を含む複数の人物が、画像処理装置10を用いて複数の顔が含まれる画像に仮想メイクアップ処理を行うことができる。上述した第2実施形態、第3実施形態および変形例についても同様である。
(変形例4)
上述した画像処理装置10(パーソナルコンピュータ)に対するプログラムの供給は、例えば図13に例示するように、プログラムを格納したCD−ROMなどの記録媒体204を画像処理装置10にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法で画像処理装置10(パーソナルコンピュータ)へローディングしてもよい。通信回線201を経由する場合は、当該通信回線に接続されたサーバー202のストレージ装置203などにプログラムを格納しておく。
また、画像処理装置20(カメラ、スマートフォン、タブレット)、画像処理装置40についても同様に、プログラムを格納したCD−ROMなどの記録媒体204を画像処理装置にセットして行ってもよい。
変形例1のカメラ、高機能携帯電話機250、またはタブレット端末などのモバイル機器へのプログラムの供給は、図13に例示するように、プログラムを格納した画像処理装置10(パーソナルコンピュータ)から赤外線通信や近距離無線通信によってモバイル機器へ送信することができる。
また、通信回線201に接続された無線LANのアクセスポイント(不図示)を経由して、モバイル機器へプログラムを直接送信することもできる。さらに、プログラムを格納したメモリカードなどの記録媒体204Bをモバイル機器にセットしてもよい。このように、プログラムは記録媒体や通信回線を介する提供など、種々の形態のコンピュータプログラム製品として供給できる。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
10、20、40…画像処理装置
11、28、48…制御部
14、24…画像入力部
17、27、47…ジェスチャー検出部
11b、28b、48b…判定部
11c、28c、48c…選択部
11d、28d、48d…画像処理部
15、25a、25b、45…カメラ
16、26…表示部
21…顔画像
30…人物
46…表示装置

Claims (42)

  1. 身体へのジェスチャーを検出し、前記ジェスチャーが行われた身体の部位を検出する検出部と、
    身体を含む画像のうち、前記ジェスチャーが行われた身体の部位に対応する前記画像に含まれる身体の部位に画像処理を行う画像処理部と、
    を備える画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    画像を表示する表示部を備え、
    前記表示部は、前記画像処理部により画像処理が行われた前記画像を表示する画像処理装置。
  3. 請求項1または2に記載の画像処理装置において、
    前記画像の画像信号が入力される画像入力部を備え、
    前記画像処理部は、前記身体のうち前記ジェスチャーが行われた部位に対応する、前記画像入力部から入力された画像に含まれる身体の部位に画像処理を行う画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記検出部は、前記画像処理装置の操作者の身体へのジェスチャーを検出し、
    前記画像処理部は、前記操作者の身体のうち前記ジェスチャーが行われた部位に対応する、前記画像入力部から入力された画像に含まれる身体の部位に画像処理を行う画像処理装置。
  5. 請求項3または4に記載の画像処理装置において、
    前記検出部は、カメラを有し、前記カメラで撮影された画像から前記ジェスチャーを検出し、
    前記表示部は、前記画像入力部から入力された画像を表示するとともに、前記画像処理部により画像処理が行われた前記画像を表示する画像処理装置。
  6. 請求項1または2に記載の画像処理装置において、
    撮影者の操作により撮影を行う撮影部を備え、
    前記検出部は、前記撮影者の身体へのジェスチャーを検出し、
    前記画像処理部は、前記撮影者の身体のうち前記ジェスチャーが行われた部位に対応する、前記撮影部で撮影された画像に含まれる身体の部位に画像処理を行う画像処理装置。
  7. 請求項6に記載の画像処理装置において、
    前記検出部は、前記撮影部とは異なる第2撮影部を有し、前記第2撮影部で撮影された前記撮影者の画像から前記ジェスチャーを検出し、
    前記表示部は、前記撮影部で撮影された画像または前記第2撮影部で撮影された画像を表示するとともに、前記画像処理部により画像処理が行われた画像を表示する画像処理装置。
  8. 請求項1から7のいずれか一項に記載の画像処理装置において、
    前記検出部は、身体に対して所定の動作を行うことをジェスチャーとして検出し、
    前記画像処理部は、前記所定の動作が行われた部位に対応する前記画像に含まれる身体の部位に、前記所定の動作と予め対応づけられた画像処理を行う画像処理装置。
  9. 請求項8に記載の画像処理装置において、
    前記所定の動作は、前記身体の部位に触わるまたは接近するまたは近接する動作、または前記身体の部位をなぞるまたは撫でるまたは捻るまたは掴むまたは挟むまたは叩く動作であり、
    前記画像処理部は、前記所定の動作が行われた部位に対応する前記画像に含まれる身体の部位に画像処理を行う画像処理装置。
  10. 請求項8または9に記載の画像処理装置において、
    前記画像処理部は、前記所定の動作が行われた前記身体の部位に対応する前記画像に含まれる身体の部位に、実際の身体そのものに前記所定の動作を行ったときに身体に現れる変化を表す画像処理を行う画像処理装置。
  11. 請求項8から10のいずれか一項に記載の画像処理装置において、
    前記画像処理部は、前記所定の動作が行われた前記身体の部位に対応する前記画像に含まれる身体の部位の色または明るさまたは形または長さを変える画像処理を行う画像処理装置。
  12. 請求項1から11のいずれか一項に記載の画像処理装置において、
    前記検出部は、化粧をするジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる顔に、前記化粧をしたような画像処理を行う画像処理装置。
  13. 請求項12に記載の画像処理装置において、
    前記検出部は、唇を指でなぞるジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる唇に口紅を塗ったような画像処理を行う、
    画像処理装置。
  14. 請求項12または13に記載の画像処理装置において、
    前記検出部は、頬を手でたたくジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる頬に頬紅をつけたような画像処理を行う、
    画像処理装置。
  15. 請求項12から14のいずれか一項に記載の画像処理装置において、
    前記検出部は、まつげを指で触るジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれるまつげにマスカラをつけたような画像処理を行う、
    画像処理装置。
  16. 請求項12から15のいずれか一項に記載の画像処理装置において、
    前記検出部は、まつげのラインを指でなぞるジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれるまつげのラインにアイラインを引いたような画像処理を行う、
    画像処理装置。
  17. 請求項12から16のいずれか一項に記載の画像処理装置において、
    前記検出部は、まぶたの上を指で触るジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれるまぶたの上にアイシャドウを塗ったような画像処理を行う、
    画像処理装置。
  18. 請求項12から17のいずれか一項に記載の画像処理装置において、
    前記検出部は、額を手でたたくジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる額に額のてかりを抑えたような画像処理を行う、
    画像処理装置。
  19. 請求項1から8のいずれか一項に記載の画像処理装置において、
    前記検出部は、顔に対して所定の方向から手を開くジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる顔に前記所定の方向から光を当てたような画像処理を行う、
    画像処理装置。
  20. 請求項1から19のいずれか一項に記載の画像処理装置において、
    前記検出部は、頭部または頭髪へのジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる頭部または頭髪に、前記頭部または頭髪へのジェスチャーと予め対応づけられた画像処理を行う画像処理装置。
  21. 請求項20に記載の画像処理装置において、
    前記画像処理部は、前記画像に含まれる頭部または頭髪の形または色または長さ、または前記画像に含まれる髪型を変える画像処理を行う画像処理装置。
  22. 身に着けている物または保持している物へのジェスチャーを検出する検出部と、
    身に着けている物または保持している物を含む画像のうち、前記ジェスチャーが行われた身に着けている物または保持している物に対応する、前記画像に含まれる身に着けている物または保持している物に画像処理を行う画像処理部と、
    を備える画像処理装置。
  23. 請求項22に記載の画像処理装置において、
    画像を表示する表示部を備え、
    前記表示部は、前記画像処理部により画像処理が行われた前記画像を表示する画像処理装置。
  24. 請求項22または23に記載の画像処理装置において、
    前記画像の画像信号が入力される画像入力部を備え、
    前記画像処理部は、前記身に着けている物または保持している物のうち前記ジェスチャーが行われた物に対応する、前記画像入力部から入力された画像に含まれる身に着けている物または保持している物に画像処理を行う画像処理装置。
  25. 請求項24に記載の画像処理装置において、
    前記検出部は、前記画像処理装置の操作者が身に着けている物または保持している物へのジェスチャーを検出し、
    前記画像処理部は、前記操作者が身に着けている物または保持している物のうち前記ジェスチャーが行われた物に対応する、前記画像入力部から入力された画像に含まれる身に着けている物または保持している物に画像処理を行う画像処理装置。
  26. 請求項24または25に記載の画像処理装置において、
    前記検出部は、カメラを有し、前記カメラで撮影された画像から前記ジェスチャーを検出し、
    前記表示部は、前記画像入力部から入力された画像を表示するとともに、前記画像処理部により画像処理が行われた前記画像を表示する画像処理装置。
  27. 請求項22または23に記載の画像処理装置において、
    撮影者の操作により撮影を行う撮影部を備え、
    前記検出部は、前記撮影者が身に着けている物または保持している物へのジェスチャーを検出し、
    前記画像処理部は、前記撮影者が身に着けている物または保持している物のうち前記ジェスチャーが行われた物に対応する、前記撮影部で撮影された画像に含まれる身に着けている物または保持している物に画像処理を行う画像処理装置。
  28. 請求項27に記載の画像処理装置において、
    前記検出部は、前記撮影部とは異なる第2撮影部を有し、前記第2撮影部で撮影された前記撮影者の画像から前記ジェスチャーを検出し、
    前記表示部は、前記撮影部で撮影された画像または前記第2撮影部で撮影された画像を表示するとともに、前記画像処理部により画像処理が行われた画像を表示する画像処理装置。
  29. 請求項22から28のいずれか一項に記載の画像処理装置において、
    前記検出部は、身に着けている物または保持している物に対して所定の動作を行うことをジェスチャーとして検出し、
    前記画像処理部は、前記所定の動作が行われた物に対応する前記画像に含まれる身に着けている物または保持している物に、前記所定の動作と予め対応づけられた画像処理を行う画像処理装置。
  30. 請求項29に記載の画像処理装置において、
    前記所定の動作は、前記身に着けている物または保持している物に触わるまたは接近するまたは近接する動作、または前記身に着けている物または保持している物をなぞるまたは撫でるまたは掴むまたは挟む動作であり、
    前記画像処理部は、前記所定の動作が行われた物に対応する前記画像に含まれる身に着けている物または保持している物に画像処理を行う画像処理装置。
  31. 請求項29または30に記載の画像処理装置において、
    前記画像処理部は、前記所定の動作が行われた物に対応する前記画像に含まれる身に着けている物または保持している物に、実際の物そのものに前記所定の動作を行ったときに物に現れる変化を表す画像処理を行う画像処理装置。
  32. 請求項24から26のいずれか一項に記載の画像処理装置において、
    前記画像入力部は、衣服または靴または装飾品のうち少なくとも1つが含まれた画像の画像信号を入力し、
    前記画像処理部は、前記衣服または靴または装飾品のうち前記ジェスチャーが行われた衣服または靴または装飾品に対応する、前記画像入力部から入力された画像に含まれる衣服または靴または装飾品に画像処理を行う画像処理装置。
  33. 請求項32に記載の画像処理装置において、
    前記検出部は、前記画像処理装置の操作者の衣服または靴または装飾品へのジェスチャーを検出し、
    前記画像処理部は、前記操作者の操作者の衣服または靴または装飾品のうち前記ジェスチャーが行われた衣服または靴または装飾品に対応する、前記画像入力部から入力された画像に含まれる衣服または靴または装飾品に画像処理を行う画像処理装置。
  34. 請求項27または28に記載の画像処理装置において、
    前記検出部は、前記撮影者の衣服または靴または装飾品へのジェスチャーを検出し、
    前記画像処理部は、前記撮影者の衣服または靴または装飾品のうち前記ジェスチャーが行われた衣服または靴または装飾品に対応する、前記撮影部で撮影された画像に含まれる衣服または靴または装飾品に画像処理を行う画像処理装置。
  35. 請求項32から34に記載の画像処理装置において、
    前記画像処理部は、前記ジェスチャーが行われた衣服または靴または装飾品に対応する、前記画像に含まれる衣服または靴または装飾品に、前記ジェスチャーと予め対応づけられた所定の画像処理を行う画像処理装置。
  36. 請求項35に記載の画像処理装置において、
    前記所定の動作は、前記衣服または前記靴または前記装飾品に触わるまたは接近するまたは近接する動作であり、
    前記画像処理部は、前記所定の動作が行われた衣服または靴または装飾品に対応する、前記画像に含まれる衣服または靴または装飾品に画像処理を行う画像処理装置。
  37. 請求項32から36のいずれか一項に記載の画像処理装置において、
    前記検出部は、前記衣服または靴または装飾品に対するジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる衣服または靴または装飾品の色または大きさまたは形状を変更する画像処理を行う画像処理装置。
  38. 請求項32から37のいずれか一項に記載の画像処理装置において、
    前記検出部は、前記衣服または靴または装飾品に対する着脱のジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる衣服または靴または装飾品を着脱したような画像処理を行う画像処理装置。
  39. 請求項32または38に記載の画像処理装置において、
    前記検出部は、前記衣服または靴または装飾品をなぞるまたは撫でるまたは掴むジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる衣服または靴または装飾品をなぞったまたは撫でたまたは掴んだような画像処理を行う画像処理装置。
  40. 請求項32または39に記載の画像処理装置において、
    前記検出部は、前記衣服または靴または装飾品をめくるまたはまくるジェスチャーを検出し、
    前記画像処理部は、前記画像に含まれる衣服または靴または装飾品をめくったまたはまくったような画像処理を行う画像処理装置。
  41. 身体へのジェスチャーを検出し、前記ジェスチャーが行われた身体の部位を検出する検出処理と、
    身体を含む画像のうち、前記ジェスチャーが行われた身体の部位に対応する前記画像に含まれる身体の部位への画像処理と、
    をコンピュータに実行させるプログラム。
  42. 身に着けている物または保持している物へのジェスチャーを検出する検出処理と、
    身に着けている物または保持している物を含む画像のうち、前記ジェスチャーが行われた身に着けている物または保持している物に対応する、前記画像に含まれる身に着けている物または保持している物への画像処理と、
    をコンピュータに実行させるプログラム。
JP2015072806A 2015-03-31 2015-03-31 画像処理装置およびプログラム Pending JP2016192151A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015072806A JP2016192151A (ja) 2015-03-31 2015-03-31 画像処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015072806A JP2016192151A (ja) 2015-03-31 2015-03-31 画像処理装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2016192151A true JP2016192151A (ja) 2016-11-10

Family

ID=57245609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015072806A Pending JP2016192151A (ja) 2015-03-31 2015-03-31 画像処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2016192151A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160282A (ja) * 2018-03-11 2019-09-19 求 藤川 遠隔操作装置、カッティング装置、その制御方法及びプログラム
KR102367853B1 (ko) * 2021-09-15 2022-02-25 주식회사 이너스시스템 맞춤형 스튜디오 구축 방법
JP2023013787A (ja) * 2021-07-16 2023-01-26 フリュー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2023040896A (ja) * 2021-09-10 2023-03-23 花王株式会社 化粧動作支援システム
US11690435B2 (en) 2020-07-07 2023-07-04 Perfect Mobile Corp. System and method for navigating user interfaces using a hybrid touchless control mechanism
EP3847531B1 (en) * 2019-01-31 2025-03-26 Huawei Technologies Co., Ltd. Hand-over-face input sensing for interaction with a device having a built-in camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149041A (ja) * 1998-11-10 2000-05-30 Toshiba Corp 動画像加工装置および方法および記憶媒体
JP2013101527A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US20140016823A1 (en) * 2012-07-12 2014-01-16 Cywee Group Limited Method of virtual makeup achieved by facial tracking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149041A (ja) * 1998-11-10 2000-05-30 Toshiba Corp 動画像加工装置および方法および記憶媒体
JP2013101527A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US20140016823A1 (en) * 2012-07-12 2014-01-16 Cywee Group Limited Method of virtual makeup achieved by facial tracking

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160282A (ja) * 2018-03-11 2019-09-19 求 藤川 遠隔操作装置、カッティング装置、その制御方法及びプログラム
EP3847531B1 (en) * 2019-01-31 2025-03-26 Huawei Technologies Co., Ltd. Hand-over-face input sensing for interaction with a device having a built-in camera
EP4586058A3 (en) * 2019-01-31 2025-09-03 Huawei Technologies Co., Ltd. Hand-over-face input sensing for interaction with a device having a built-in camera
US11690435B2 (en) 2020-07-07 2023-07-04 Perfect Mobile Corp. System and method for navigating user interfaces using a hybrid touchless control mechanism
JP2023013787A (ja) * 2021-07-16 2023-01-26 フリュー株式会社 画像処理装置、画像処理方法、およびプログラム
JP7736989B2 (ja) 2021-07-16 2025-09-10 フリュー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2023040896A (ja) * 2021-09-10 2023-03-23 花王株式会社 化粧動作支援システム
JP7426362B2 (ja) 2021-09-10 2024-02-01 花王株式会社 化粧動作支援システム
KR102367853B1 (ko) * 2021-09-15 2022-02-25 주식회사 이너스시스템 맞춤형 스튜디오 구축 방법
KR102503581B1 (ko) 2021-09-15 2023-02-24 주식회사 이너스시스템 맞춤형 스튜디오 공간 제공을 위한 디스플레이 표시 방법

Similar Documents

Publication Publication Date Title
US9990757B2 (en) Enhancing video chatting
JP2016192151A (ja) 画像処理装置およびプログラム
US10667697B2 (en) Identification of posture-related syncope using head-mounted sensors
US10376153B2 (en) Head mounted system to collect facial expressions
US11270408B2 (en) Method and apparatus for generating special deformation effect program file package, and method and apparatus for generating special deformation effects
KR102466689B1 (ko) 특수 효과 프로그램 파일 패키지 및 특수 효과의 생성 방법과 장치, 전자 기기
EP2988486B1 (en) Selection of a suitable image for receiving on-screen control
KR20210002888A (ko) 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템
US20220044311A1 (en) Method for enhancing a user's image while e-commerce shopping for the purpose of enhancing the item that is for sale
CN110457103A (zh) 头像创建用户界面
JP7278724B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US10467818B2 (en) System and method for virtual wardrobe selection
CN111627117B (zh) 画像展示特效的调整方法、装置、电子设备及存储介质
JP2004094773A (ja) 頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム
CN106293362A (zh) 一种引导式化妆设备
KR20220062062A (ko) 눈 추적에 부분적으로 기초한 렌더링 개선
US20210274912A1 (en) Apparatus and method for supporting at least one user in performing a personal care activity
KR20220066972A (ko) 눈 움직임에 부분적으로 기초한 사용자 인터페이스
CN107622428A (zh) 一种实现虚拟试穿的方法及装置
KR101719927B1 (ko) 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치
JP2013178789A (ja) 美容シミュレーションシステム
KR101507410B1 (ko) 모바일 단말의 라이브 메이크업 촬영 방법 및 장치
KR20210081526A (ko) 가상 미용 성형 장치
CN113138668B (zh) 自动驾驶轮椅目的地选择方法、装置及系统
Nowosielski et al. Touchless input interface for disabled

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191001