JP2019046239A - 画像処理装置、画像処理方法、プログラム及び合成用画像データ - Google Patents

画像処理装置、画像処理方法、プログラム及び合成用画像データ Download PDF

Info

Publication number
JP2019046239A
JP2019046239A JP2017169508A JP2017169508A JP2019046239A JP 2019046239 A JP2019046239 A JP 2019046239A JP 2017169508 A JP2017169508 A JP 2017169508A JP 2017169508 A JP2017169508 A JP 2017169508A JP 2019046239 A JP2019046239 A JP 2019046239A
Authority
JP
Japan
Prior art keywords
image
character
unit
character image
organ
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017169508A
Other languages
English (en)
Inventor
荘介 下山
Sosuke Shimoyama
荘介 下山
靖寿 松葉
Yasuhisa Matsuba
靖寿 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017169508A priority Critical patent/JP2019046239A/ja
Publication of JP2019046239A publication Critical patent/JP2019046239A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】実写画像に対して漫画や絵画等の画風を容易に転写することが可能な画像処理装置等を提供する。【解決手段】コンピュータは、撮像画像から被写体の顔領域を検出し、検出した顔領域から各器官の位置を検出する。コンピュータは、撮像画像から検出した顔領域や各器官位置に類似する顔領域を有するキャラクタ画像を選択する。コンピュータは、撮像画像から、選択したキャラクタ画像に相当するクロップ領域を特定し、特定したクロップ領域における各器官位置を、キャラクタ画像における各器官位置に一致させるために、クロップ領域に行うべきアフィン変換に用いる変換行列を算出する。そしてコンピュータは、撮像画像からクロップ領域を抽出し、抽出したクロップ領域に対して、算出した変換行列によるアフィン変換を行い、アフィン変換後の撮像画像にキャラクタ画像に基づく補正処理を行う。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法、プログラム及び合成用画像データに関する。
人を撮影して得られた画像に各種の画像処理を行うことにより、種々の画像を生成する技術が用いられている。特許文献1には、画像中の顔領域に対してエッジフィルタや色調補正等の画像処理を行うことにより、実写画像から漫画のキャラクタ風の画像を生成するシステムが開示されている。また近年、画像に対して漫画や絵画等の画風を転写する技術が開発されている(例えば、非特許文献1参照)。
特開2006−114024号公報
Jing Liao、外4名、「Visual Attribute Transfer through Deep Image Analogy」、(米国)、SIGGRAPH 2017、2017年6月
特許文献1に開示されたシステムでは、実写画像を漫画のキャラクタ風にデフォルメした画像は得られるが、漫画の画風が転写(再現)された画像は得られない。一方、非特許文献1に開示された技術では、実写画像に対して、被写体の構造を残しつつ、参照する漫画や絵画等の画風を転写することができる。しかし、例えば、人の顔画像に対して、漫画や絵画等に描かれたキャラクタや人物の顔画像の画風を転写することは難しい。この場合、元の顔画像(実写画像)と、漫画や絵画等のキャラクタや人物の顔画像とにおいて、顔の向き、顔の各器官の位置関係等、顔の構造をある程度一致させておく必要がある。よって、異なる顔画像の間で画風を転写することは容易ではない。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、実写画像に対して漫画や絵画等の画風を容易に転写することが可能な画像処理装置等を提供することにある。
本発明の一態様に係る画像処理装置は、入力画像から特徴量を抽出する抽出部と、前記抽出部が抽出した特徴量に基づいて、前記入力画像と類似するキャラクタ画像を、複数のキャラクタ画像を記憶する記憶部に基づいて選択する選択部と、前記選択部が選択した前記キャラクタ画像及び前記入力画像に基づいて、前記入力画像又は前記キャラクタ画像に対して変換処理を行う変換部と、前記入力画像を前記キャラクタ画像に基づいて補正する補正部とを備えることを特徴とする。
本発明の一態様にあっては、実写画像に対して漫画や絵画等の画風を容易に転写することができる。
実施形態1に係るコンピュータの構成例を示すブロック図である。 制御部によって実現される機能を示すブロック図である。 制御部が行う処理の説明図である。 制御部が行う処理の説明図である。 制御部が行う処理の説明図である。 制御部が行う処理の説明図である。 コンピュータが行う画像処理の手順を示すフローチャートである。 実施形態2に係る撮影装置の構成例を示すブロック図である。 実施形態2の撮影装置の制御部によって実現される機能を示すブロック図である。 実施形態2の撮影装置の制御部が行う処理の説明図である。 撮影装置が行う画像処理の手順を示すフローチャートである。
以下、図面を用いて、実施の形態を具体的に説明する。
(実施形態1)
図1は、実施形態1に係るコンピュータの構成例を示すブロック図である。
コンピュータ1は、例えばパーソナルコンピュータ、スマートフォン、タブレット端末等である。コンピュータ1は、制御部10、記憶部11、操作部12、表示部13及び通信部14等を含み、これらの各部はバスを介して相互に接続されている。
制御部10は、CPU(Central Processing Unit)又はMPU(Micro-Processing Unit)等のプロセッサを含む。制御部10は、記憶部11に記憶してある制御プログラムを適宜実行することにより、コンピュータ1が行う種々の情報処理、制御処理等を行う。
記憶部11は、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等である。記憶部11は、制御部10が実行する制御プログラム、及び制御プログラムの実行に必要な各種のデータを予め記憶している。また記憶部11は、制御部10が制御プログラムを実行する際に発生するデータ等を一時的に記憶する。記憶部11に記憶される制御プログラムには、本開示のプログラムである画像処理プログラムPが含まれ、記憶部11に記憶されるデータには、キャラクタ画像データベース(以下、キャラクタ画像DBという)が含まれる。
キャラクタ画像DBには、例えば、漫画、絵本、映画等の登場人物、絵画等に描かれている人物等のキャラクタや人物の顔領域の画像(図4参照)が複数登録されている。以下では、キャラクタ画像DBに登録されている画像(キャラクタ等の顔画像)をキャラクタ画像という。
操作部12は、例えばキーボード、マウス等を含み、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部10へ送出する。
表示部13は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等であり、制御部10からの指示に従って各種の情報を表示する。
操作部12及び表示部13は、一体として構成されたタッチパネルとすることもできる。
通信部14は、インターネット等のネットワークに接続するためのインタフェースであり、ネットワークを介して情報の送受信を行う。例えば、コンピュータ1は、通信部14を介して外部装置から画像処理プログラムP及びキャラクタ画像DBを取得して記憶部11に記憶する。なお、コンピュータ1は、可搬型記憶媒体に記憶された情報を読み取る読取部等を備え、可搬型記憶媒体から画像処理プログラムP及びキャラクタ画像DBを読み出して記憶部11に記憶するようにしてもよい。
本実施形態では、コンピュータ1に、本開示のプログラムである画像処理プログラムP
をインストールし、制御部10が画像処理プログラムPを実行することにより、コンピュータ1が本開示の画像処理装置として動作する。
次に、コンピュータ1の制御部10が画像処理プログラムPを実行することによって実現される機能について説明する。図2は、制御部10によって実現される機能を示すブロック図、図3乃至図6は、制御部10が行う処理の説明図である。
コンピュータ1の制御部10は、記憶部11に記憶してある画像処理プログラムPを実行した場合、顔検出部21、器官検出部22、キャラクタ画像選択部23、画像変換部28、画風転写部29の各機能を実現する。なお、本実施形態では、上述した各機能を制御部10が画像処理プログラムPを実行することにより実現するが、上述した各機能の一部を専用のハードウェア回路で実現してもよい。また、上述した各機能を実現するための各プログラムをまとめて画像処理プログラムPという。
顔検出部21は、撮像画像(入力画像、画像データ)から被写体の人の顔領域を検出する。処理対象の撮像画像は記憶部11に記憶されている。なお、撮像画像は、通信部14を介して外部装置から取得して記憶部11に記憶されてもよく、可搬型記憶媒体から読み出されて記憶部11に記憶されてもよい。また、コンピュータ1にカメラが内蔵されている場合、又はコンピュータ1にカメラの接続が可能である場合、カメラで取得して記憶部11に記憶された撮像画像であってもよい。
顔検出部21は、例えばテンプレートマッチング技術によって撮像画像中の顔領域を検出する。具体的には、一般的な人の顔の画像を示すテンプレートが予め記憶部11に記憶されており、顔検出部21は、撮像画像からテンプレートに一致する領域を検出した場合、検出した領域を顔領域として抽出する。例えば、図3Aに示す撮像画像では、図3Bで実線の矩形枠で囲った領域が顔領域Fとして検出される。
器官検出部22は、顔検出部21が検出した顔領域から、顔に含まれる器官の位置を検出する。器官検出部22は、例えば目、鼻、口、眉毛、顔の輪郭を検出するが、これらに限らない。まず、器官検出部22は、例えばテンプレートマッチング技術によって各器官の領域を検出する。具体的には、一般的な人の各器官(目、鼻、口、眉毛)の画像を示すテンプレートが予め記憶部11に記憶されており、器官検出部22は、顔領域からテンプレートに一致する領域を検出した場合、検出した領域を各器官の領域とする。そして、器官検出部22は、検出した各器官の領域に基づいて、顔領域における各器官の位置を示す情報(顔領域における座標値)を抽出する。例えば、図3Bに示す顔領域Fでは、検出した目の位置として、黒目の中心位置E1,E2の座標値が抽出される。また、検出した鼻の位置として、鼻の先端Nの座標値が抽出され、検出した口の位置として、口の左右端M1,M2の座標値が抽出される。
なお、一般的な人の顔領域に対する各器官の相対位置を示す情報を予め記憶部11に記憶しておき、器官検出部22は、顔検出部21が検出した顔領域に対して、記憶部11に記憶された情報に基づいて各器官の位置を検出してもよい。
キャラクタ画像選択部23は、キャラクタ画像DBに記憶されているキャラクタ画像から、撮像画像中の人の顔領域及び各器官の位置に類似するキャラクタ画像を選択する。キャラクタ画像選択部23は、属性判定部24、絞り込み部25、類似度算出部26及び選択部27を含む。
属性判定部24は、顔検出部21が検出した顔領域の人の属性を判定する。例えば、顔検出部21が撮像画像中の顔領域を検出する際に用いるテンプレートは、性別、年齢層等を含む人の属性に対応付けて記憶部11に記憶されている。よって、顔検出部21が撮像画像中の顔領域を検出した場合、属性判定部24は、顔検出部21が顔領域を検出する際に用いたテンプレートに対応する属性を記憶部11から読み出し、撮像画像中の人の属性とすることができる。また、器官検出部22が顔領域中の各器官を検出する際に用いるテ
ンプレートが人の属性に対応付けて記憶されている場合、属性判定部24は、器官検出部22が各器官を検出する際に用いたテンプレートに対応する属性を記憶部11から読み出し、撮像画像中の人の属性としてもよい。
絞り込み部25は、キャラクタ画像選択部23(選択部27)が選択すべきキャラクタ画像を、属性判定部24で判定された属性のキャラクタ画像に絞り込む。キャラクタ画像DBには、キャラクタの性別及び年齢層等の属性に対応付けて複数のキャラクタ画像が登録されている。よって、絞り込み部25は、属性判定部24が判定した属性に対応するキャラクタ画像を、キャラクタ画像DBに登録されているキャラクタ画像から選択してキャラクタ画像DBから読み出す。
類似度算出部26は、撮像画像中の顔領域と、絞り込み部25が絞り込んだ各キャラクタ画像との類似度を算出する。類似度算出部26は特徴量抽出部26aを含む。
特徴量抽出部26aは、撮像画像中の顔領域における特徴量と、絞り込み部25が絞り込んだキャラクタ画像のそれぞれにおける特徴量とを抽出する。類似度算出部26は、特徴量抽出部26aが抽出した撮像画像中の顔領域における特徴量と、それぞれのキャラクタ画像における特徴量との類似度をそれぞれ算出する。
類似度算出部26は、絞り込み部25が絞り込んだキャラクタ画像のそれぞれについて以下の処理を行う。なお、キャラクタ画像は図4に示すようにキャラクタ等の顔画像であるので、以下ではキャラクタの顔画像という。
まず、特徴量抽出部26aは、器官検出部22が検出した撮像画像中の各器官の位置と、キャラクタの顔画像における各器官の位置とに基づいて、撮像画像中の、キャラクタの顔画像に相当する領域(クロップ領域)を特定する。図5Aに示す撮像画像では、実線の矩形枠で囲った領域がクロップ領域Cとして特定される。また特徴量抽出部26aは、特定したクロップ領域における各器官の位置と、キャラクタの顔画像における各器官の位置とを一致させるために、クロップ領域に行うべきアフィン変換(例えば拡大処理、縮小処理、回転処理)に用いる変換行列を算出する。なお、キャラクタの顔画像における各器官の位置の情報は、予めキャラクタ画像と共にキャラクタ画像DBに記憶されている。キャラクタ画像DBに記憶されていない場合、キャラクタの顔画像に対して顔検出部21が顔領域を検出し、器官検出部22が各器官を検出することにより、キャラクタの顔画像における各器官の位置を検出すればよい。
次に、特徴量抽出部26aは、撮像画像から、特定したクロップ領域を抽出し、抽出したクロップ領域に対して、特定した変換行列によるアフィン変換を行う。図5Bは、図5Aに示す撮像画像から抽出され、アフィン変換が行われた後のクロップ領域Cを示す。上述した処理により、撮像画像からキャラクタの顔画像に相当するクロップ領域Cが抽出され、抽出されたクロップ領域Cにおける各器官の位置(配置位置)を、キャラクタの顔画像における各器官の位置(配置位置)に一致させることができる。
特徴量抽出部26aは、上述したようにアフィン変換を行った後のクロップ領域C(図5B参照)における各器官の位置に関する特徴量を抽出する。また、特徴量抽出部26aは、キャラクタの顔画像(図4参照)についても各器官の位置に関する特徴量を抽出する。なお、キャラクタの顔画像における特徴量は、予めキャラクタ画像と共にキャラクタ画像DBに記憶されていてもよい。この場合、特徴量抽出部26aは、撮像画像中の顔領域(クロップ領域C)における特徴量のみを抽出すればよい。
類似度算出部26は、上述したように特徴量抽出部26aが抽出したクロップ領域Cにおける特徴量と、キャラクタの顔画像における特徴量との類似度として、例えばL2距離を算出する。類似度算出部26は、絞り込み部25が絞り込んだ全てのキャラクタ画像について、撮像画像中の顔領域(クロップ領域C)との類似度を算出する。
特徴量抽出部26aは、上述したように顔領域の各器官の位置に基づく特徴量のほかに、ニューラルネットワークを用いて顔領域の特徴量を抽出してもよい。この場合にも、特徴量抽出部26aは、撮像画像から抽出すべきクロップ領域Cを特定し、クロップ領域Cに行うべきアフィン変換に用いる変換行列を特定する。そして、特徴量抽出部26aは、アフィン変換を行った後のクロップ領域C(撮像画像中の顔領域)の特徴量を示す特徴マップを学習済みのCNN(Convolution Neural Network)にて抽出する。また、特徴量抽出部26aは、絞り込み部25が絞り込んだキャラクタ画像のそれぞれの特徴量を示す特徴マップを学習済みのCNNにて抽出する。この場合、類似度算出部26は、クロップ領域Cから抽出された特徴マップと、各キャラクタの顔画像から抽出された特徴マップとの類似度として、例えばL2距離を算出する。なお、特徴量抽出部26aは、ニューラルネットワークを用いて特徴量を抽出する場合に、撮像画像に対するクロップ領域Cの特定及びアフィン変換を行わずに、撮像画像(入力画像)から顔領域の特徴量を抽出するように構成されていてもよい。
選択部27は、類似度算出部26が算出した類似度に基づいて、撮像画像中の顔領域(クロップ領域C)に類似するキャラクタ画像を、絞り込み部25が絞り込んだキャラクタ画像から選択する。例えば、選択部27は、類似度算出部26が算出した類似度が最高であったキャラクタ画像を選択する。また、選択部27は、類似度算出部26が算出した類似度が所定値以上であるキャラクタ画像から1つのキャラクタ画像を選択してもよい。また、各キャラクタ画像にそれぞれ優先度が設定されている場合、選択部27は、類似度算出部26が算出した類似度が所定値以上であるキャラクタ画像のうちで、優先度が最も高いキャラクタ画像を選択してもよい。更に、選択部27は、類似度算出部26が算出した類似度が所定値以上であるキャラクタ画像を表示部13に表示し、操作部12を介してユーザから指定されたキャラクタ画像を選択してもよい。選択部27は、選択したキャラクタ画像をキャラクタ画像DBから読み出す。
キャラクタ画像選択部23は、顔領域の各器官の位置に基づく特徴量の類似度による選択、又は、顔領域から抽出された特徴マップの類似度による選択によってキャラクタ画像を選択する構成に限らない。キャラクタ画像選択部23は、両方の選択処理を組み合わせて1つのキャラクタ画像を選択してもよく、更にその他の手法で算出された撮像画像中の顔領域とキャラクタの顔画像との類似度による選択処理を組み合わせてもよい。なお、キャラクタ画像DBは記憶部11に記憶されている必要はなく、所定の外部装置に記憶されていてもよい。この場合、キャラクタ画像選択部23は、通信部14を介して外部装置に記憶されたキャラクタ画像DBにアクセスし、撮像画像に類似するキャラクタ画像を外部装置から取得する。
画像変換部28には、撮像画像、器官検出部22による検出結果(撮像画像中の顔領域における各器官の位置)、キャラクタ画像選択部23が選択したキャラクタ画像が入力される。画像変換部28は撮像画像及びキャラクタ画像に基づいて撮像画像に対して変換処理を行う。例えば、画像変換部28は、器官検出部22が検出した撮像画像中の各器官の位置と、選択されたキャラクタの顔画像における各器官の位置とに基づいて、撮像画像から抽出すべきキャラクタの顔画像に相当する領域(クロップ領域)を特定する。また画像変換部28は、特定したクロップ領域における各器官の位置と、キャラクタの顔画像における各器官の位置とを一致させるために、クロップ領域に行うべきアフィン変換に用いる変換行列を算出する。そして、画像変換部28は、撮像画像から、特定したクロップ領域を抽出し、抽出したクロップ領域に対して、特定した変換行列によるアフィン変換を行う。これにより、キャラクタ画像(図4参照)と同程度の画像サイズを有し、各器官の位置がキャラクタの顔画像における各器官の位置に一致するクロップ領域C(図5B参照)を、撮像画像(図5A参照)から生成することができる。
なお、本実施形態では、画像変換部28が行う上述の処理は、キャラクタ画像選択部23の類似度算出部26において、特徴量抽出部26aが撮像画像中の顔領域における特徴量を抽出する際に行う処理と同じである。よって、特徴量抽出部26aで特定されたクロップ領域Cを示す情報及び変換行列をキャラクタ画像毎に記憶部11に記憶しておき、画像変換部28は、キャラクタ画像選択部23が選択したキャラクタ画像に対応するクロップ領域Cを示す情報及び変換行列を記憶部11から読み出すようにしてもよい。
画風転写部29は、画像変換部28によって生成されたクロップ領域C(撮像画像中の顔領域)に対して、キャラクタ画像選択部23が選択したキャラクタ画像に基づく補正処理を行うことによってキャラクタ画像の画風を転写する。例えば、画風転写部29は、非特許文献1に開示された技術を用いて、クロップ領域Cに対して、キャラクタ画像の画風を転写する。これにより、実写画像に対して、被写体の構造及び構図を残しつつ、参照するキャラクタ画像の画風を転写できる。図6は、図5Bに示すクロップ領域Cに、図4に示すキャラクタ画像の画風が転写された状態を示す。なお、画風とは、作者や画家等の作風やタッチ等によって画像に現れる特徴や特色であり、画風転写部29は、撮像画像(クロップ領域C)に対して構図を変えることなくキャラクタ画像の画風に変更することができる。
また画風転写部29は、クロップ領域C内の各画素の画素値と、キャラクタ画像の各画素の画素値とにおいて、それぞれ対応する画素値の平均値を算出し、クロップ領域C内の各画素の画素値としてもよい。画風転写部29による画風の転写処理はこれらに限らず、種々の処理を用いることができる。
画風転写部29によってキャラクタ画像の画風を転写されたクロップ領域C(撮像画像中の顔領域)は、例えばプリンタ(図示せず)に送信されて印刷される。また、コンピュータ1において、撮像画像と、キャラクタ画像選択部23が選択したキャラクタ画像と、画像変換部28が特定したクロップ領域を示す情報及びアフィン変換に用いる変換行列(変換情報)とをまとめて1つの画像データ(合成用画像データ)として取り扱ってもよい。例えば、このような画像データを通信部14から外部装置へ送信してもよく、可搬型記憶媒体に記憶させて持ち運んでもよい。外部装置が画像変換部28及び画風転写部29の機能を有する場合、外部装置において、コンピュータ1から送信された上述した画像データに基づいて、キャラクタ画像の画風が転写された実写画像(撮像画像のクロップ領域C)を生成することができる。また、外部装置において、可搬型記憶媒体から読み出された上述した画像データに基づいて、キャラクタ画像の画風が転写された実写画像を生成することができる。
次に、コンピュータ1が行う処理についてフローチャートに基づいて説明する。図7は、コンピュータ1が行う画像処理の手順を示すフローチャートである。以下の処理は、コンピュータ1の記憶部11に記憶してある制御プログラムに従って制御部10によって実行される。
コンピュータ1の制御部10は、処理対象の撮像画像から人の顔領域を検出し(S1)、検出した顔領域から各器官の位置を検出する(S2)。また制御部10は、撮像画像から検出した顔領域の人の属性を判定し(S3)、キャラクタ画像DBから選択すべきキャラクタ画像を、判定した属性のキャラクタ画像に絞り込む(S4)。
制御部10は、ステップS1で検出した顔領域、ステップS2で検出した各器官の位置等に基づいて、この顔領域における特徴量を抽出する(S5)。制御部10は、ステップS4で絞り込んだキャラクタ画像のうちの1つを記憶部11から読み出す(S6)。制御部10は、ステップS5で抽出した顔領域における特徴量と、記憶部11から読み出したキャラクタ画像(キャラクタの顔画像)における特徴量との類似度を算出し、キャラクタ
画像に対応付けて記憶部11に記憶する(S7)。なお、キャラクタ画像における特徴量がキャラクタ画像DBに記憶されていない場合、制御部10は、読み出したキャラクタ画像についても、顔領域及び各器官の位置を検出し、検出結果に基づいて特徴量を抽出する。
制御部10は、ステップS4で絞り込んだ全てのキャラクタ画像に対する処理が終了したか否かを判断し(S8)、終了していないと判断した場合(S8:NO)、ステップS6の処理に移行する。そして制御部10は、ステップS4で絞り込んだキャラクタ画像のうちの1つを記憶部11から読み出し(S6)、ステップS5で抽出した顔領域における特徴量と、読み出したキャラクタ画像における特徴量との類似度を算出して記憶する(S7)。ステップS4で絞り込んだ全てのキャラクタ画像に対する処理が終了したと判断した場合(S8:YES)、制御部10は、全てのキャラクタ画像に対して算出した類似度に基づいて、撮像画像中の顔領域に類似するキャラクタ画像を選択する(S9)。例えば、制御部10は算出した類似度が一番高いキャラクタ画像を選択する。なお、制御部10は、全てのキャラクタ画像に対する類似度を記憶する必要はない。例えば制御部10は、ステップS7で類似度を算出した場合に、前に算出した類似度よりも高ければ、算出した類似度とキャラクタ画像とを対応付けて順次更新して記憶するようにしてもよい。
制御部10は、ステップS9で選択されたキャラクタ画像に基づいて、撮像画像に変換処理を行う(S10)。具体的には、制御部10は、ステップS2で検出した撮像画像中の各器官の位置と、選択されたキャラクタ画像における各器官の位置とに基づいて、撮像画像から、キャラクタ画像に相当する領域(クロップ領域)を抽出する。そして、制御部10は、抽出したクロップ領域に対してアフィン変換を行い、クロップ領域における各器官の位置と、キャラクタ画像における各器官の位置とを一致させる。
そして制御部10は、変換処理された撮像画像(クロップ領域)に対して、選択されたキャラクタ画像の画風を転写し(S11)、処理を終了する。
本実施形態では、撮像画像中の顔領域に応じて、顔の各器官の位置等を含む顔の構造(構図)が類似するキャラクタ画像が自動的に選択される。顔の構造が類似する画像間では画風の転写を精度良く行うことができる。従って、本実施形態では、撮像画像に応じて、高精度での画風転写が可能であるキャラクタ画像が自動的に選択可能であり、選択されたキャラクタ画像の画風が撮像画像に精度良く転写可能である。よって、ユーザが煩雑な処理を行うことなく、実写画像に対してキャラクタ画像の画風を自動的に且つ高精度で転写することができる。
本実施形態において、撮像画像から抽出したクロップ領域に対してアフィン変換を行う代わりに、キャラクタ画像に対してアフィン変換を行うことによってキャラクタ画像における各器官の位置をクロップ領域における各器官の位置に一致させてもよい。この場合、キャラクタ画像にアフィン変換を行った後、撮像画像のクロップ領域に対して、キャラクタ画像の画風を転写することにより、例えば図5Aに示す撮像画像に中のクロップ領域Cに対して、図4のキャラクタ画像の画風が転写された画像を生成できる。
(実施形態2)
上述した実施形態1のコンピュータ1が搭載された撮影装置の実施形態について説明する。図8は、実施形態2に係る撮影装置の構成例を示すブロック図である。実施形態2の撮影装置2は、上述した実施形態1のコンピュータ1の構成を含んでおり、同一の構成については同一の符号を付して説明を省略する。
撮影装置2は、制御部10、記憶部11、操作部12、表示部13及び通信部14に加え、カメラ15を有する。カメラ15は、制御部10からの指示に従って撮像し、動画映
像(動画データ)及び静止画像(静止画データ)等の撮像画像(画像データ)を取得し、取得した撮像画像を記憶部11に記憶する。
本実施形態の撮影装置2では、カメラ15は、例えば撮影装置2のユーザの顔を正面から撮影できる位置に配置されており、ユーザの顔の撮像画像を取得する。また、表示部13は、カメラ15にて撮影中のユーザが姿勢及び視線方向を変えずに表示画面を視認できる位置に配置されている。
実施形態2の撮影装置2において、画像処理プログラムPの一部が実施形態1と異なるので、制御部10が画像処理プログラムPを実行することにより実現される機能の一部が実施形態1と異なる。なお、実施形態1と同一の機能については同一の符号を付して説明を省略する。
図9は、実施形態2の撮影装置2の制御部10によって実現される機能を示すブロック図、図10は、実施形態2の撮影装置2の制御部10が行う処理の説明図である。
撮影装置2の制御部10は、記憶部11に記憶してある画像処理プログラムPを実行した場合、キャラクタ画像選択部31、マーカ表示部32、映像表示部33、撮像処理部34、顔検出部21、器官検出部22、画像変換部28、画風転写部29の各機能を実現する。なお、顔検出部21、器官検出部22、画像変換部28、画風転写部29は、実施形態1と同様の処理を行う。
キャラクタ画像選択部31は、キャラクタ画像DBに記憶されているキャラクタ画像から、ユーザが指定したキャラクタ画像を選択する。例えば、キャラクタ画像選択部31は、キャラクタ画像DBに記憶されているキャラクタ画像を表示部13に一覧表示し、任意のキャラクタ画像に対するユーザの指定操作を操作部12にて受け付ける。ユーザは一覧表示されたキャラクタ画像から自身の撮像画像に画風を転写したいキャラクタ画像を決定して操作部12を介して選択操作を行う。なお、キャラクタ画像DBには、キャラクタの性別及び年齢層等の属性に対応付けて複数のキャラクタ画像が登録されている。よって、キャラクタ画像選択部31は、キャラクタ画像を一覧表示する前に、ユーザの性別及び年齢層等の属性を操作部12にて受け付け、受け付けた属性に対応するキャラクタ画像のみを一覧表示してもよい。この場合、ユーザが選択する可能性の高いキャラクタ画像に絞り込んで表示できるので、ユーザが所望のキャラクタ画像を選択する際の負担を軽減できる。
キャラクタ画像選択部31は、ユーザによって指定(選択)されたキャラクタ画像をキャラクタ画像DBから読み出す。
マーカ表示部32は、キャラクタ画像選択部31が選択したキャラクタ画像(キャラクタの顔画像)に含まれる各器官の輪郭を示すマーカ画像を表示部13に表示する。例えば、図10Aに示すキャラクタ画像が選択された場合、図10Bに示すマーカ画像が表示部13に表示される。図10Bに示す例では、マーカ表示部32はキャラクタの目、鼻、口及び顔の輪郭を示すマーカ画像を表示する。なお、各キャラクタ画像のマーカ画像は、キャラクタ画像と共にキャラクタ画像DBに予め記憶されている。マーカ画像がキャラクタ画像DBに記憶されていない場合、キャラクタ画像に対して顔検出部21が顔領域を検出し、器官検出部22が各器官を検出することによってマーカ画像を生成してもよい。
映像表示部33は、カメラ15にて順次取得する動画映像を表示部13に表示する。なお、表示部13にはキャラクタ画像のマーカ画像が表示されており、映像表示部33はマーカ画像に動画映像を重ねて表示する。これにより、ユーザは、撮影中の自身の顔を表示部13で確認できる。またユーザは、カメラ15にて撮影される自身の顔の各器官の位置がマーカ画像に一致するようにカメラ15に対する自身の顔の向き(写真の構図)を調整する。
撮像処理部34は、カメラ15にて取得中の動画映像から静止画像を取得するタイミング(所謂シャッターチャンス)を判定し、適切なタイミングでユーザの静止画像を取得する。撮像処理部34はタイミング判定部35及び撮像部36を含む。
タイミング判定部35は、カメラ15が取得する動画映像から所定の時間間隔で静止画像を抽出し、抽出した静止画像中の顔領域の構図が、キャラクタ画像選択部31が選択したキャラクタ画像の構図に一致(類似)する場合、シャッターチャンスであると判定する。具体的には、タイミング判定部35は、静止画像中のユーザの顔領域とキャラクタの顔画像とにおいて各器官の位置が一致(類似)するか否かを判定する。
タイミング判定部35は類似度算出部26を含む。類似度算出部26は実施形態1と同様の処理を行う。本実施形態では、類似度算出部26は、キャラクタ画像選択部31が選択したキャラクタ画像(キャラクタの顔画像)と、カメラ15が取得する動画映像から抽出された静止画像中の顔領域との類似度を算出する。類似度算出部26は、特徴量抽出部26a(図9では不図示)にてキャラクタ画像における特徴量と静止画像中の顔領域における特徴量とを抽出し、抽出した2つの特徴量の類似度を算出する。
タイミング判定部35は、類似度算出部26が算出した類似度が所定値以上である場合、シャッターチャンスであると判定する。算出した類似度が所定値未満である場合、タイミング判定部35はシャッターチャンスでないと判定する。この場合、タイミング判定部35は所定時間経過後、再度動画映像から静止画像を抽出し、抽出した静止画像中の顔領域とキャラクタ画像との類似度を算出する。
タイミング判定部35がシャッターチャンスであると判定した場合、撮像部36は、この時点での静止画像を動画映像から取得する。
なお、タイミング判定部35は、ユーザの静止画像がキャラクタ画像の構図に一致(類似)するか否かに応じてシャッターチャンスであるか否かを判定する構成に限らない。例えばタイミング判定部35は、ユーザの静止画像がマーカ画像の構図に一致するか否かに応じてシャッターチャンスであるか否かを判定してもよい。この場合、マーカ画像における特徴量を予めキャラクタ画像と共にキャラクタ画像DBに記憶しておいてもよい。
本実施形態の顔検出部21は、撮像処理部34によって取得された静止画像(撮像画像)から被写体の人の顔領域を検出する。また器官検出部22は、顔検出部21が検出した顔領域から、顔に含まれる器官の位置を検出する。
本実施形態の画像変換部28には、キャラクタ画像選択部31が選択したキャラクタ画像、器官検出部22による検出結果(静止画像中の顔領域における各器官の位置)、撮像部36が取得した撮像画像(静止画像)が入力される。画像変換部28は、撮像画像中の各器官の位置と、キャラクタ画像における各器官の位置とに基づいて、撮像画像から抽出すべき領域(クロップ領域)を特定する。また画像変換部28は、クロップ領域における各器官の位置と、キャラクタ画像における各器官の位置とを一致させるために、クロップ領域に行うべきアフィン変換に用いる変換行列を算出する。その後、画像変換部28は、撮像画像からクロップ領域を抽出し、抽出したクロップ領域に対して、特定した変換行列によるアフィン変換を行う。なお本実施形態においても、画像変換部28は、タイミング判定部35の類似度算出部26において、特徴量抽出部26aが静止画像中の顔領域における特徴量を抽出する際に特定したクロップ領域及び変換行列を用いてもよい。
画風転写部29は、画像変換部28によって生成されたクロップ領域(撮像画像中の顔領域)に対して、キャラクタ画像選択部31が選択したキャラクタ画像に基づく補正処理を行うことによってキャラクタ画像の画風を転写する。
画風転写部29によってキャラクタ画像の画風を転写されたクロップ領域(画風転写後の撮像画像)は、例えばプリンタにて印刷される。なお、プリンタは、撮影装置2に内蔵
されたプリンタでもよいし、撮影装置2との間で有線通信又は無線通信が可能なプリンタでもよい。
撮影装置2においても、キャラクタ画像選択部31が選択したキャラクタ画像と、撮像部36が取得した撮像画像と、画像変換部28が特定したクロップ領域を示す情報及びアフィン変換に用いる変換行列とをまとめて1つの画像データ(合成用画像データ)として取り扱ってもよい。例えば、このような画像データを通信部14から外部装置へ送信してもよく、可搬型記憶媒体に記憶させて持ち運んでもよい。これにより、画像変換部28及び画風転写部29の機能を有する外部装置において、撮影装置2から送信された上述した画像データに基づいて、キャラクタ画像の画風が転写された実写画像(撮像画像のクロップ領域)を生成することができる。また、外部装置において、可搬型記憶媒体から読み出された上述した画像データに基づいて、キャラクタ画像の画風が転写された実写画像を生成することができる。
次に、撮影装置2が行う処理について説明する。図11は、撮影装置2が行う画像処理の手順を示すフローチャートである。以下の処理は、撮影装置2の記憶部11に記憶してある制御プログラムに従って制御部10によって実行される。
撮影装置2の制御部10は、操作部12に対するユーザの選択操作に従って、キャラクタ画像DBから1つのキャラクタ画像を選択する(S21)。なおユーザは自身の撮像画像に画風を転写したいキャラクタ画像を操作部12に対する操作にて選択する。
制御部10は、選択したキャラクタ画像におけるマーカ画像を表示部13に表示する(S22)。次に制御部10は、カメラ15にて取得する動画映像を、マーカ画像に重ねて表示部13に表示する(S23)。ユーザは表示部13の表示画像を確認して、カメラ15にて撮影される自身の顔の各器官の位置がマーカ画像に一致するように自身の顔の向き(写真の構図)を調整する。
制御部10は、カメラ15にて取得する動画映像から静止画像(撮像画像)を抽出し(S24)、抽出した静止画像中の顔領域と、ステップS21で選択したキャラクタ画像との類似度を算出する(S25)。なお、制御部10は、静止画像中の顔領域における特徴量と、キャラクタ画像(キャラクタの顔画像)における特徴量との類似度を算出する。制御部10は、算出した類似度が所定値以上であるか否かを判断し(S26)、所定値以上でないと判断した場合(S26:NO)、ステップS24の処理に戻る。そして制御部10は再度、動画映像から静止画像の抽出、及び静止画像中の顔領域とキャラクタ画像との類似度の算出を行う(S24,S25)。
算出した類似度が所定値以上であると判断した場合(S26:YES)、制御部10はシャッターチャンスであると判定し、この時点での静止画像を撮像画像として取得する(S27)。制御部10は、取得した撮像画像(静止画像)から人の顔領域を検出し(S28)、検出した顔領域から各器官の位置を検出する(S29)。そして制御部10は、撮像画像から検出した各器官の位置、及びステップS21で選択したキャラクタ画像における各器官の位置に基づいて撮像画像に変換処理を行う(S30)。ここで制御部10は、ステップS29で検出した各器官の位置と、キャラクタ画像における各器官の位置とに基づいて、撮像画像から、キャラクタ画像に相当する領域(クロップ領域)を抽出する。そして、制御部10は、抽出したクロップ領域に対してアフィン変換を行い、クロップ領域における各器官の位置を、キャラクタ画像における各器官の位置に一致させる。
そして制御部10は、変換処理された撮像画像に対して、ステップS21で選択されたキャラクタ画像の画風を転写し(S31)、処理を終了する。
本実施形態では、ユーザが選択した任意のキャラクタ画像の画風をユーザの撮像画像に
転写できる。ユーザは撮影する際に、表示部13に表示されたキャラクタ画像のマーカ画像を見ながら、自身の顔の各器官の位置がマーカ画像に一致するように顔の向き(写真の構図)を調整する。よって、ユーザの各器官の位置等を含む顔の構図が、キャラクタ画像(キャラクタの顔画像)における構図に類似した撮像画像を取得できる。顔の構造が類似する画像間では画風の転写を精度良く行うことができる。従って、本実施形態では、キャラクタ画像の画風を高精度で転写できる撮像画像を取得することができるので、取得した撮像画像に、ユーザが所望するキャラクタ画像の画風を精度良く転写できる。よって、キャラクタ画像の画風が精度良く転写された画像を生成することができる。
本実施形態においても、ユーザの撮像画像から抽出したクロップ領域に対してアフィン変換を行う代わりに、キャラクタ画像に対してアフィン変換を行うことによってキャラクタ画像における各器官の位置をクロップ領域における各器官の位置に一致させてもよい。これにより、ユーザの撮像画像中のクロップ領域に対してキャラクタ画像の画風が転写された画像を生成できる。
以上の実施形態に関して以下の付記を開示する。
(付記1)
人の撮像画像を取得する撮影装置において、
複数のキャラクタ画像を記憶する記憶部から1つのキャラクタ画像を選択する選択部と、
前記撮像画像から人の顔領域を検出する顔検出部と、
前記顔検出部が検出した顔領域から器官位置を検出する器官検出部と、
前記選択部が選択したキャラクタ画像及び前記器官検出部が検出した器官位置に基づいて、前記撮像画像又は前記キャラクタ画像を変換する変換部と、
前記撮像画像を前記キャラクタ画像に基づいて補正する補正部と
を備える撮影装置。
(付記2)
前記選択部が選択したキャラクタ画像に含まれる器官の位置を示す器官画像を表示する表示部と、
人の動画を取得する動画取得部と、
前記表示部に表示される前記器官画像に、前記動画取得部が取得した前記動画を重ねて表示する動画表示部と
を備える付記1に記載の撮影装置。
(付記3)
前記器官検出部が検出した器官位置が、前記選択部が選択したキャラクタ画像に含まれる器官の位置に一致するか否かを判定する判定部と、
前記判定部が一致すると判定した場合に撮像画像を取得する撮像部と
を備える付記1又は2に記載の撮影装置。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 コンピュータ(画像処理装置)
10 制御部
11 記憶部
21 顔検出部
22 器官検出部
23 キャラクタ画像選択部(選択部)
24 属性判定部
26 類似度算出部(算出部)
28 画像変換部(変換部)
29 画風転写部(補正部)
26a 特徴量抽出部(抽出部)

Claims (12)

  1. 入力画像から特徴量を抽出する抽出部と、
    前記抽出部が抽出した特徴量に基づいて、前記入力画像と類似するキャラクタ画像を、複数のキャラクタ画像を記憶する記憶部に基づいて選択する選択部と、
    前記選択部が選択した前記キャラクタ画像及び前記入力画像に基づいて、前記入力画像又は前記キャラクタ画像に対して変換処理を行う変換部と、
    前記入力画像を前記キャラクタ画像に基づいて補正する補正部と
    を備えることを特徴とする画像処理装置。
  2. 前記入力画像から顔領域を検出する顔検出部と、
    前記顔検出部が検出した顔領域から器官位置を検出する器官検出部とを更に備え、
    前記抽出部は、前記器官検出部が検出した器官位置に係る特徴量を抽出する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記抽出部は、ニューラルネットワークを用いて、前記入力画像における特徴量を抽出する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記入力画像に基づいて前記入力画像中の人の属性を判定する属性判定部を更に備え、
    前記選択部は、前記属性判定部が判定した属性に応じたキャラクタ画像を選択する
    ことを特徴とする請求項1から3までのいずれかひとつに記載の画像処理装置。
  5. 前記抽出部が抽出した特徴量と、前記複数のキャラクタ画像のそれぞれに係る特徴量との類似度を算出する算出部を更に備え、
    前記選択部は、前記算出部が算出した類似度が高いキャラクタ画像を選択する
    ことを特徴とする請求項1から4までのいずれかひとつに記載の画像処理装置。
  6. 前記選択部は、前記算出部が算出した類似度が所定値以上であるキャラクタ画像のうちの1つを選択する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記選択部は、前記算出部が算出した類似度が所定値以上であるキャラクタ画像から、前記キャラクタ画像のそれぞれに設定された優先度が高い1つを選択する
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 前記変換部は、前記入力画像中の人の器官位置と前記選択部が選択した前記キャラクタ画像に基づくキャラクタの器官位置とが一致するように、前記入力画像又は前記キャラクタ画像に対してアフィン変換を行う
    ことを特徴とする請求項1から7までのいずれかひとつに記載の画像処理装置。
  9. 画像処理装置が、
    入力画像から特徴量を抽出し、
    抽出した特徴量に基づいて、前記入力画像と類似するキャラクタ画像を、複数のキャラクタ画像を記憶する記憶部に基づいて選択し、
    選択した前記キャラクタ画像及び前記入力画像に基づいて、前記入力画像又は前記キャラクタ画像に対して変換処理を行い、
    前記入力画像を前記キャラクタ画像に基づいて補正する
    ことを特徴とする画像処理方法。
  10. コンピュータに、
    入力画像から特徴量を抽出し、
    抽出した特徴量に基づいて、前記入力画像と類似するキャラクタ画像を、複数のキャラクタ画像を記憶する記憶部に基づいて選択し、
    選択した前記キャラクタ画像及び前記入力画像に基づいて、前記入力画像又は前記キャラクタ画像に対して変換処理を行い、
    前記入力画像を前記キャラクタ画像に基づいて補正する
    処理を実行させることを特徴とするプログラム。
  11. 人の撮像画像と、
    前記撮像画像と類似するキャラクタ画像と、
    前記撮像画像に係る器官位置と前記キャラクタ画像に係る器官位置とが一致するように前記撮像画像又は前記キャラクタ画像に行う変換処理に用いる変換情報と
    を含むことを特徴とする合成用画像データ。
  12. 人の撮像画像と、
    前記撮像画像と類似するキャラクタ画像と、
    前記撮像画像に係る器官位置と前記キャラクタ画像に係る器官位置とが一致するように前記撮像画像又は前記キャラクタ画像に行う変換処理に用いる変換情報とを含み、
    前記撮像画像又は前記キャラクタ画像に前記変換情報を用いた変換処理を行った後、前記撮像画像を前記キャラクタ画像に基づいて補正する処理に用いられることを特徴とする合成用画像データ。
JP2017169508A 2017-09-04 2017-09-04 画像処理装置、画像処理方法、プログラム及び合成用画像データ Pending JP2019046239A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017169508A JP2019046239A (ja) 2017-09-04 2017-09-04 画像処理装置、画像処理方法、プログラム及び合成用画像データ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169508A JP2019046239A (ja) 2017-09-04 2017-09-04 画像処理装置、画像処理方法、プログラム及び合成用画像データ

Publications (1)

Publication Number Publication Date
JP2019046239A true JP2019046239A (ja) 2019-03-22

Family

ID=65814446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169508A Pending JP2019046239A (ja) 2017-09-04 2017-09-04 画像処理装置、画像処理方法、プログラム及び合成用画像データ

Country Status (1)

Country Link
JP (1) JP2019046239A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110232722A (zh) * 2019-06-13 2019-09-13 腾讯科技(深圳)有限公司 一种图像处理方法及装置
CN110798634A (zh) * 2019-11-28 2020-02-14 东北大学 图像自适应合成方法、装置及计算机可读存储介质
CN111684488A (zh) * 2019-05-22 2020-09-18 深圳市大疆创新科技有限公司 图像裁剪方法、装置和拍摄装置
KR20220106397A (ko) * 2021-01-22 2022-07-29 박지환 머신러닝 기반의 가축 무게 예측 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069187A (ja) * 2011-09-26 2013-04-18 Dainippon Printing Co Ltd 画像処理システム、画像処理方法、サーバおよびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069187A (ja) * 2011-09-26 2013-04-18 Dainippon Printing Co Ltd 画像処理システム、画像処理方法、サーバおよびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111684488A (zh) * 2019-05-22 2020-09-18 深圳市大疆创新科技有限公司 图像裁剪方法、装置和拍摄装置
CN110232722A (zh) * 2019-06-13 2019-09-13 腾讯科技(深圳)有限公司 一种图像处理方法及装置
CN110232722B (zh) * 2019-06-13 2023-08-04 腾讯科技(深圳)有限公司 一种图像处理方法及装置
CN110798634A (zh) * 2019-11-28 2020-02-14 东北大学 图像自适应合成方法、装置及计算机可读存储介质
CN110798634B (zh) * 2019-11-28 2020-10-09 东北大学 图像自适应合成方法、装置及计算机可读存储介质
KR20220106397A (ko) * 2021-01-22 2022-07-29 박지환 머신러닝 기반의 가축 무게 예측 방법 및 장치
KR102624925B1 (ko) * 2021-01-22 2024-01-15 박지환 머신러닝 기반의 가축 무게 예측 방법 및 장치

Similar Documents

Publication Publication Date Title
KR102362544B1 (ko) 이미지 처리를 위한 방법 및 장치, 및 컴퓨터 판독 가능 저장 매체
JP7075085B2 (ja) 全身測定値抽出のためのシステムおよび方法
JP6742405B2 (ja) 表情検出機能を備えたヘッドマウントディスプレイ
CN110232667B (zh) 图像畸变修正方法、装置、电子设备及可读存储介质
CN112040834A (zh) 眼球跟踪方法及系统
US20150262403A1 (en) Makeup support apparatus and method for supporting makeup
JP2019046239A (ja) 画像処理装置、画像処理方法、プログラム及び合成用画像データ
US8626782B2 (en) Pattern identification apparatus and control method thereof
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP6969878B2 (ja) 識別器学習装置および識別器学習方法
KR102364929B1 (ko) 피부 변화를 추적하는 전자 장치, 서버, 및 시스템
CN112927259A (zh) 基于多相机的裸手追踪显示方法、装置及系统
TWI557601B (zh) 瞳孔追蹤系統及其方法、電腦程式產品、及電腦可讀取紀錄媒體
JP2005149370A (ja) 画像撮影装置、個人認証装置及び画像撮影方法
JP4659722B2 (ja) 人体特定領域抽出・判定装置、人体特定領域抽出・判定方法、人体特定領域抽出・判定プログラム
CN103353879B (zh) 图像处理方法及设备
JP2009237616A (ja) 画像における顔領域の検出
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP2008046691A (ja) 顔画像処理装置及びコンピュータのプログラム
JP6650738B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US9501840B2 (en) Information processing apparatus and clothes proposing method
CN111462337B (zh) 一种图像处理方法、设备及计算机可读存储介质
JP2018136666A (ja) 視線変換装置及び視線変換方法
US10970901B2 (en) Single-photo generating device and method and non-volatile computer-readable media thereof
US8223220B2 (en) Image processing device, image processing method, and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220712