JP6390210B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6390210B2 JP6390210B2 JP2014133831A JP2014133831A JP6390210B2 JP 6390210 B2 JP6390210 B2 JP 6390210B2 JP 2014133831 A JP2014133831 A JP 2014133831A JP 2014133831 A JP2014133831 A JP 2014133831A JP 6390210 B2 JP6390210 B2 JP 6390210B2
- Authority
- JP
- Japan
- Prior art keywords
- main part
- image
- area
- unit
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
近年、人型に成型された投影スクリーンに映像を投影する、所謂「バーチャルマネキン」が提案されている(例えば、特許文献1参照)。バーチャルマネキンは、あたかもそこに人間が立っているかのような存在感のある投影像が得られ、展示会等にて斬新で効果的な展示の演出を行うことができる。
このようなバーチャルマネキンの顔の表情を豊かにするために、写真やイラストや漫画などの画像中の顔を構成する主要部(例えば、目や口等)を変形させて動きを表現する技術が知られている。具体的には、被写体であるヒトの注視点に基づいて、そのヒトのコンピュータグラフィックスで表現される顔モデル中の眼球を動作させる手法(例えば、特許文献2参照)や、発音される言葉の母音や子音毎に口の形状を変えてリップシンクさせる手法(例えば、特許文献3参照)などがある。
In recent years, a so-called “virtual mannequin” that projects an image on a projection screen molded in a human shape has been proposed (for example, see Patent Document 1). The virtual mannequin provides a projected image that has the presence of a human being standing there, and can be used to create innovative and effective exhibitions at exhibitions and the like.
In order to enrich the facial expression of such a virtual mannequin, there is a technology that expresses movement by transforming the main parts (for example, eyes and mouth) that make up the face in images such as photographs, illustrations, and comics. Are known. Specifically, based on the gaze point of the human being who is the subject, a method of operating the eyeball in the face model represented by the human computer graphics (for example, see Patent Document 2), There is a method of changing the shape of the mouth for each vowel or consonant to perform lip synchronization (see, for example, Patent Document 3).
ところで、顔の主要部を動作させる場合、処理対象となる画像には顔が含まれている必要がある。つまり、顔が含まれていない画像、顔検出や顔の主要部の検出精度が低い画像を処理対象とした場合には、顔の主要部を変形させて動きを表現することができないといった問題がある。 By the way, when operating the main part of the face, the image to be processed needs to include the face. That is, when an image that does not include a face, or an image with low face detection or a low detection accuracy of the main part of the face is a processing target, there is a problem that the main part of the face cannot be deformed to express a motion. is there.
本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、顔が含まれない画像に対しても顔の主要部を設定することができる画像処理装置、画像処理方法及びプログラムを提供することである。 The present invention has been made in view of such problems, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of setting a main part of a face even for an image that does not include a face. And providing a program.
上記課題を解決するため、本発明に係る画像処理装置は、
画像を取得する取得手段と、
前記取得手段により取得された画像内の顔画像を含まない領域から、顔の主要部の形状に相当する領域を検出する領域検出手段と、
前記領域検出手段により検出された領域を画像処理対象として設定する第1設定手段と、
を備えたことを特徴としている。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
An acquisition means for acquiring an image;
A region detecting unit for detecting a region corresponding to the shape of the main part of the face from a region not including the face image in the image acquired by the acquiring unit;
A first setting means for setting a region detected by the region detecting means as images processed,
It is characterized by having.
本発明によれば、顔が含まれない画像に対しても顔の主要部を設定することができる。 According to the present invention, the main part of a face can be set even for an image that does not include a face.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の画像処理装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus 100 according to an embodiment to which the present invention is applied.
画像処理装置100は、例えば、パーソナルコンピュータやワークステーションなどのコンピュータ等により構成され、図1に示すように、中央制御部1と、メモリ2と、記憶部3と、操作入力部4と、動作処理部5と、表示部6と、表示制御部7とを備えている。
また、中央制御部1、メモリ2、記憶部3、動作処理部5及び表示制御部7は、バスライン8を介して接続されている。
The image processing apparatus 100 includes, for example, a computer such as a personal computer or a workstation. As shown in FIG. 1, the
The
中央制御部1は、画像処理装置100の各部を制御する。
具体的には、中央制御部1は、画像処理装置100の各部を制御するCPU(Central Processing Unit;図示略)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、画像処理装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
Specifically, the
メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1の他、当該画像処理装置100の各部によって処理されるデータ等を一時的に記憶する。
The
記憶部3は、例えば、不揮発性メモリ(フラッシュメモリ)、ハードディスクドライブ等により構成され、中央制御部1の動作に必要な各種プログラムやデータ(図示略)を記憶している。
The
また、記憶部3は、画像データ3aを記憶している。
画像データ3aは、例えば、写真画像、漫画、イラスト等の二次元の画像I(図4(a)等参照)のデータである。また、画像データ3aは、顔を含む画像の画像データであっても良いし、顔を含まない画像の画像データであっても良い。
The
The
また、記憶部3は、基準動作データ3bを記憶している。
基準動作データ3bは、顔の各主要部(例えば、目、口等)の動きを表現する際の基準となる動きを示す情報を含んでいる。具体的には、基準動作データ3bは、各主要部毎に規定され、所定空間内における複数の制御点の動きを示す情報を含み、例えば、複数の制御点の所定空間での位置座標(x, y)を示す情報や変形ベクトル等が時間軸に沿って並べられている。
すなわち、例えば、目の基準動作データ3bは、上瞼や下瞼に対応する複数の制御点が設定され、これら制御点の変形ベクトルが規定されている。また、例えば、口の基準動作データ3bは、上唇や下唇や左右の口角に対応する複数の制御点が設定され、これら制御点の変形ベクトルが規定されている。
The
The
That is, for example, in the eye
また、記憶部3は、顔主要部画像データ3cを記憶している。
顔主要部画像データ3cは、例えば、左右各々の目、鼻、口、眉、顔輪郭等の顔の主要部毎に規定され、対応する主要部画像P(図7(b)参照;後述)に係る画像データである。
主要部画像Pは、例えば、写真画像の顔から抽出された画像や主要部を模式的に表した画像など各種様々な形状や色のものが用意されている。また、主要部画像Pの所定位置には、基準動作データ3bの複数の制御点と対応付けられ、当該基準動作データ3bに基づいて主要部画像を動作させるための複数の制御点が設定されている。
The
The face main
The main part image P is prepared in various shapes and colors such as an image extracted from the face of a photographic image and an image schematically showing the main part. In addition, a plurality of control points for operating the main part image are set at predetermined positions of the main part image P in association with a plurality of control points of the
操作入力部4は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等の操作部(図示略)を備え、これらの操作部の操作に応じて所定の操作信号を中央制御部1に出力する。
The
動作処理部5は、画像取得部5aと、顔検出部5bと、顔主要部検出部5cと、領域検出部5dと、第1主要部設定部5eと、領域特定部5fと、第2主要部設定部5gと、動作生成部5hと、動作制御部5iとを具備している。
なお、動作処理部5の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The
In addition, although each part of the operation |
画像取得部5aは、画像データ3aを取得する。
すなわち、画像取得部(取得手段)5aは、動作処理の処理対象となる二次元の画像I(図4(a)等参照)の画像データ3aを取得する。具体的には、画像取得部5aは、例えば、記憶部3に記憶されている所定数の画像データ3aの中で、ユーザによる操作入力部4の所定操作に基づいて指定されたユーザ所望の画像データ3aを動作処理の処理対象として取得する。
なお、画像取得部5aは、図示しない通信制御部を介して接続された外部機器(図示略)から画像データを取得しても良いし、図示しない撮像部により撮像されることで生成された画像データを取得しても良い。
The
That is, the image acquisition unit (acquisition unit) 5a acquires the
The
顔検出部5bは、処理対象の画像Iから顔領域を検出する。
すなわち、顔検出部5bは、画像取得部5aにより取得された処理対象の画像Iの画像データから顔が含まれる顔領域を検出する。具体的には、顔検出部5bは、先ず、画像取得部5aにより取得された画像Iの中で背景部分の画像との差分を取得して、物体領域を認識する。そして、顔検出部5bは、物体領域の中で顔に似た特徴を持つ領域、例えば、左右の両目及び口に相当する部分として、三つの円形又は多角形の形状部分B、…の各々の中心が三角形の頂点の位置に配置されている位置関係を有する領域を探索する。そして、顔検出部5bは、探索された領域について、各部分の大きさと中心間の距離や位置関係に基づいて所定の演算を行って評価値を算出し、算出された評価値が所定の閾値よりも高く、且つ、最も高い評価値の三つの円形又は多角形の形状部分B、…を有する領域をその物体の顔領域として検出する。
なお、上記した顔領域の検出処理は、一例であってこれに限られるものではなく、適宜任意に変更可能であり、顔検出部5bは、例えば、AAM(Active Appearance Model)等を用いて顔検出処理を行うようにしても良い。
The
That is, the
The face area detection process described above is an example and is not limited to this, and can be arbitrarily changed as appropriate. The
顔主要部検出部5cは、画像Iから顔を構成する主要部を検出する。
すなわち、顔主要部検出部(検出手段)5bは、画像取得部5aにより取得された画像データの画像Iから、例えば、左右各々の目、鼻、口、眉、顔輪郭等の主要部を検出する。具体的には、顔主要部検出部5cは、例えば、顔検出部5bによる顔領域の検出処理の結果を利用して、三つの円形又は多角形の形状部分B、…から顔の主要部を検出する。例えば、顔主要部検出部5cは、上記した顔領域の検出処理にて所定の閾値以上の評価値が算出された場合、三つの円形又は多角形の形状部分B、…をその物体の左右の両目及び口として検出する(図4(b)参照)。
なお、上記した顔の主要部を検出する手法は、一例であってこれに限られるものではなく、例えば、AAMを用いた処理、エッジ抽出処理、非等方拡散処理、テンプレートマッチング等適宜任意に変更可能である。
The face main part detection unit 5c detects the main part constituting the face from the image I.
That is, the face main part detection unit (detection unit) 5b detects, for example, main parts such as left and right eyes, nose, mouth, eyebrows, and face contour from the image I of the image data acquired by the
Note that the above-described method for detecting the main part of the face is an example, and is not limited to this. For example, processing using AAM, edge extraction processing, anisotropic diffusion processing, template matching, and the like can be arbitrarily arbitrarily performed. It can be changed.
領域検出部5dは、画像I内で主要部相当領域A1を検出する。
すなわち、領域検出部(領域検出手段)5dは、画像取得部5aにより取得された画像データの画像I内で顔の主要部の形状に相当する領域(主要部相当領域A1)を検出する。具体的には、領域検出部5dは、例えば、処理対象の画像Iの画像データに対して所定の画像処理(例えば、Hough変換処理等)を行って、画像I内の円形又は多角形をなす領域を主要部相当領域A1として検出する。このとき、領域検出部5dは、顔検出部5bによる円形又は多角形の形状部分Bの検出結果を利用して、主要部相当領域A1を検出しても良い。
また、領域検出部5dは、顔検出部5bにより顔が検出されなかった場合や、顔主要部検出部5cにより主要部が検出されなかった場合に、画像取得部5aにより取得された画像I内で主要部相当領域A1を検出しても良い。
The
That is, the region detection unit (region detection unit) 5d detects a region (main part equivalent region A1) corresponding to the shape of the main part of the face in the image I of the image data acquired by the
In addition, the
また、画像I内から円形又は多角形をなす主要部相当領域A1が一つも検出されなかった場合には、領域検出部5dは、処理対象の画像Iの画像データに対して所定の画像処理(例えば、エッジ検出処理等)を行って、画像I内からエッジが存在しない最も広い領域(例えば、略円形状の領域等)を検出し、検出された領域を主要部(例えば、目や口等)が設定される顔領域Cとして検出しても良い(図7(a)参照)。このとき、領域検出部5dは、検出された領域(顔領域C)の大きさや例えば、左右の両目や口等の主要部の位置関係を考慮して、主要部が設定される位置を検出しても良い。
If no main part equivalent area A1 having a circular or polygonal shape is detected from the image I, the
なお、主要部相当領域A1として、円形又は多角形をなす領域を検出するようにしたが、一例であってこれに限られるものではなく、例えば、線により完全に囲繞されていない領域(例えば、「C」や「U」字形状の領域等)であっても、領域検出部5dは、仮想的に端部どうしが結線された囲繞領域を推定して検出しても良い。
In addition, although the area | region which makes circular or a polygon is detected as main part equivalent area | region A1, it is an example and is not restricted to this, For example, the area | region (for example, it is not completely enclosed by the line) The
第1主要部設定部(第1設定手段)5eは、領域検出部5dにより検出された領域を何れかの主要部の動作処理対象(画像処理対象)として設定する。
すなわち、第1主要部設定部5eは、領域検出部5dにより検出された主要部相当領域A1に主要部(例えば、目や口等)を表す画像(第1主要部画像P1)を重畳させるように設定する。
The first main part setting unit (first setting means) 5e sets the area detected by the
That is, the first main
例えば、領域検出部5dにより画像I内から円形又は多角形をなす二つの主要部相当領域A1、A1が検出された場合には、第1主要部設定部5eは、検出された二つの主要部相当領域A1、A1を左右の両目(主要部)の動作処理対象として設定する(図5(a)参照)。具体的には、第1主要部設定部5eは、記憶部3から左右の両目に対応する顔主要部画像データ3cを読み出して取得し、左右の両目を表す各第1主要部画像P1が二つの主要部相当領域A1、A1内に収まり、且つ、各第1主要部画像P1の中心と二つの主要部相当領域A1、A1のそれぞれの中心とが重なるように当該第1主要部画像P1の大きさや位置を設定する(図5(b)参照)。
また、例えば、領域検出部5dにより画像I内から円形又は多角形をなす一の主要部相当領域A1が検出された場合には、第1主要部設定部5eは、検出された一の主要部相当領域A1を口(主要部)の動作処理対象として設定する(図6(a)参照)。具体的には、第1主要部設定部5eは、記憶部3から口に対応する顔主要部画像データ3cを読み出して取得し、口を表す第1主要部画像P1が一の主要部相当領域A1内に収まり、且つ、第1主要部画像P1の中心と一の主要部相当領域A1の中心とが重なるように当該第1主要部画像P1の大きさや位置を設定する(図6(b)参照)。
For example, when two main part equivalent areas A1 and A1 having a circular or polygonal shape are detected from the image I by the
For example, when one region corresponding to a main portion A1 having a circular shape or a polygon is detected from the image I by the
なお、上記した二つの主要部相当領域A1、A1の向きや配置は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、画像I内で横向きの顔を表現する場合には、縦に並んだ二つの主要部相当領域A1、A1を利用して両目の動作処理対象を設定しても良い。また、領域検出部5dにより一の主要部相当領域A1が検出された場合に、第1主要部設定部5eは、当該主要部相当領域A1を左右の何れかの目の動作処理対象として設定しても良い。
Note that the orientations and arrangements of the two main part equivalent regions A1 and A1 described above are merely examples, and are not limited thereto, and can be arbitrarily changed as appropriate. For example, when a face in landscape orientation is expressed in the image I, the motion processing target of both eyes may be set using two main part equivalent areas A1 and A1 arranged vertically. In addition, when one main part equivalent area A1 is detected by the
領域特定部5fは、画像I内で主要部対応領域A2を特定する。
すなわち、領域特定部(特定手段)5fは、画像I内で領域検出部5dにより検出された主要部相当領域A1の位置を基準として、第1主要部設定部5eにより設定された主要部以外の他の主要部に対応する領域(主要部対応領域A2)を特定する。
例えば、領域特定部5fは、画像I内で領域検出部5dにより検出された二つの主要部相当領域A1、A1の位置を基準として、他の主要部としての口に対応する一の主要部対応領域A2を特定する(図5(a)参照)。具体的には、第1主要部設定部5eにより画像I内の二つの主要部相当領域A1、A1には左右の両目が主要部として設定されるため、領域特定部5fは、これら二つの主要部相当領域A1、A1の画像I内での位置関係や大きさ等を基準として、画像I内で二つの主要部相当領域A1、A1の間で、且つ、下側に所定の距離離れた位置に口に対応する一の主要部対応領域A2を特定する。
また、例えば、領域特定部5fは、画像I内で領域検出部5dにより検出された一の主要部相当領域A1の位置を基準として、他の主要部としての左右の両目に対応する二つの主要部対応領域A2、A2を特定する(図6(a)参照)。具体的には、第1主要部設定部5eにより画像I内の一の主要部相当領域A1には口が主要部として設定されるため、領域特定部5fは、この一の主要部相当領域A1の画像I内での位置関係や大きさ等を基準として、画像I内で一の主要部相当領域A1の上側に所定の距離離れた位置に左右の両目に対応する二つの主要部対応領域A2、A2を特定する。
The
That is, the region specifying unit (specifying unit) 5f uses a position other than the main part set by the first main
For example, the
Further, for example, the
なお、上記した二つの主要部対応領域A2、A2の向きや配置は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、画像I内で横向きの顔を表現する場合には、二つの主要部対応領域A2、A2が縦に並ぶように特定しても良い。 Note that the orientation and arrangement of the two main part corresponding regions A2 and A2 described above are merely examples, and are not limited thereto, and can be arbitrarily changed as appropriate. For example, when a landscape face is represented in the image I, the two main part corresponding areas A2 and A2 may be specified so as to be arranged vertically.
第2主要部設定部(第2設定手段)5gは、領域特定部5fにより特定された主要部対応領域A2を他の主要部の動作処理対象として設定する。すなわち、第2主要部設定部5gは、領域特定部5fにより特定された主要部対応領域A2に他の主要部を表す画像(第2主要部画像P2)を重畳させるように設定する。
例えば、領域特定部5fにより画像I内で一の主要部対応領域A2が特定された場合には、第2主要部設定部5gは、特定された一の主要部対応領域A2を口(他の主要部)の動作処理対象として設定する。具体的には、第2主要部設定部5gは、記憶部3から口に対応する顔主要部画像データ3cを読み出して取得し、口を表す第2主要部画像P2が一の主要部対応領域A2内に収まり、且つ、第2主要部画像P2の中心と一の主要部対応領域A2の中心とが重なるように当該第2主要部画像P2の大きさや位置を設定する(図5(b)参照)。
また、例えば、領域特定部5fにより画像I内で二つの主要部対応領域A2、A2が特定された場合には、第2主要部設定部5gは、特定された二つの主要部対応領域A2、A2を左右の両目(他の主要部)の動作処理対象として設定する。具体的には、第2主要部設定部5gは、記憶部3から左右の両目に対応する顔主要部画像データ3cを読み出して取得し、左右の両目を表す各第2主要部画像P2が二つの主要部対応領域A2、A2内に収まり、且つ、各第2主要部画像P2の中心と二つの主要部対応領域A2、A2のそれぞれの中心とが重なるように当該第2主要部画像P2の大きさや位置を設定する(図6(b)参照)。
The second main part setting unit (second setting means) 5g sets the main part corresponding area A2 specified by the
For example, when one main part corresponding area A2 is specified in the image I by the
Further, for example, when the two main part corresponding areas A2 and A2 are specified in the image I by the
なお、第1主要部設定部5eや第2主要部設定部5gにより設定された内容は、所定の格納手段(例えば、メモリ2等)に出力されて一時的に格納されても良い。
さらに、主要部として目や口を例示したが、一例であってこれに限られるものではなく、例えば、鼻、眉、顔輪郭等の他の主要部であっても良い。
The contents set by the first main
Furthermore, although eyes and mouths are illustrated as the main parts, this is an example, and the present invention is not limited to this. For example, other main parts such as a nose, eyebrows, and a face outline may be used.
動作生成部5hは、画像I内で主要部(例えば、左右の両目や口等)を動作させるための動作データを生成する。
具体的には、動作生成部5hは、例えば、第1主要部設定部5eにより設定された第1主要部画像P1に係る主要部や第2主要部設定部5gにより設定された第2主要部画像P2に係る他の主要部に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、第1主要部設定部5eや第2主要部設定部5gにより設定された処理対象となる画像I内での第1主要部画像P1や第2主要部画像P2の大きさや位置を示す情報と、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報とを対応付けて当該第1主要部画像P1や第2主要部画像P2の動作データを生成する。
なお、動作生成部5hにより生成された動作データは、所定の格納手段(例えば、メモリ2等)に出力されて一時的に格納されても良い。
The
Specifically, the
The motion data generated by the
動作制御部5iは、画像I内で主要部を動作させる。
すなわち、動作制御部(動作制御手段)5iは、画像取得部5aにより取得された画像I内で、第1主要部設定部5eにより設定された主要部を表す画像(第1主要部画像P1)や第2主要部設定部5gにより設定された他の主要部を表す画像(第2主要部画像P2)を動作させる。具体的には、動作制御部5iは、動作生成部5hにより生成された処理対象となる主要部を表す第1主要部画像P1の動作データや他の主要部を表す第2主要部画像P2の動作データを取得して、取得された動作データに規定されている複数の制御点の動きを示す情報に基づいて複数の制御点を変位させることで、当該第1主要部画像P1や第2主要部画像P2を動作させる動作処理を行う。
なお、画像I内に第1主要部画像P1や第2主要部画像P2を重畳させて動作させる処理は、例えば、アルファブレンディング等を用いて行われるが、公知の技術であるので、ここでは詳細な説明を省略する。
The
That is, the motion control unit (motion control means) 5i represents an image (first main part image P1) representing the main part set by the first main
Note that the processing for superimposing the first main part image P1 and the second main part image P2 in the image I is performed using, for example, alpha blending or the like. The detailed explanation is omitted.
表示部6は、例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)等のディスプレイから構成され、表示制御部7の制御下にて各種情報を表示画面に表示する。
The
表示制御部7は、表示用データを生成して表示部6の表示画面に表示させる制御を行う。
具体的には、表示制御部7は、例えば、GPU(Graphics Processing Unit)やVRAM(Video Random Access Memory)等を具備するビデオカード(図示略)を備えている。そして、表示制御部7は、中央制御部1からの表示指示に従って、動作処理にて主要部を動作させるための各種画面の表示用データをビデオカードによる描画処理によって生成し、表示部6に出力する。これにより、表示部6は、例えば、動作処理にて主要部(例えば、目や口等)を表す主要部画像Pを動作させるように変形させたコンテンツを表示する。
The
Specifically, the
<動作処理>
次に、動作処理について図2〜図7を参照して説明する。
図2は、動作処理に係る動作の一例を示すフローチャートである。
<Operation processing>
Next, the operation process will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the operation process.
図2に示すように、先ず、動作処理部5の画像取得部5aは、例えば、記憶部3に記憶されている所定数の画像データ3aの中で、ユーザによる操作入力部4の所定操作に基づいて指定されたユーザ所望の画像データ3aを取得する(ステップS1)。
次に、動作処理部5は、画像取得部5aにより取得された画像データの画像I内で顔の主要部を設定する主要部設定処理(図3参照)を行う(ステップS2)。
As shown in FIG. 2, first, the
Next, the
<主要部設定処理>
以下に、主要部設定処理について図3を参照して詳細に説明する。
図3は、主要部設定処理に係る動作の一例を示すフローチャートである。
<Main part setting process>
The main part setting process will be described in detail below with reference to FIG.
FIG. 3 is a flowchart showing an example of an operation related to the main part setting process.
図3に示すように、先ず、顔検出部5bは、画像取得部5aにより取得された処理対象の画像Iの画像データから顔が含まれる顔領域を検出する処理を行う(ステップS11)。具体的には、顔検出部5bは、例えば、画像I内で、左右の両目及び口に相当する部分として、三つの円形又は多角形の形状部分B、…の各々の中心が三角形の頂点の位置に配置されている位置関係を有する領域を探索し、探索された領域の評価値が所定の閾値よりも高く、且つ、最も高い評価値の三つの円形又は多角形の形状部分B、…を有する領域をその物体の顔領域として検出する。
As shown in FIG. 3, first, the
続けて、顔検出部5bは、顔領域を検出したか否かを判定する(ステップS12)。
ここで、顔領域が検出されたと判定されると(ステップS12;YES)、顔主要部検出部5cは、処理対象の画像Iから顔の主要部(例えば、左右の両目や口等)を検出する処理を行う(ステップS13)。具体的には、顔主要部検出部5cは、例えば、顔検出部5bによる顔領域の検出処理にて所定の閾値以上の評価値が算出された場合、三つの円形又は多角形の形状部分B、…をその物体の左右の両目及び口として検出する(図4(b)参照)。
Subsequently, the
If it is determined that a face area has been detected (step S12; YES), the face main part detection unit 5c detects the main part of the face (for example, left and right eyes and mouth) from the image I to be processed. Is performed (step S13). Specifically, the face main part detection unit 5c, for example, if an evaluation value equal to or greater than a predetermined threshold is calculated in the face area detection processing by the
次に、顔主要部検出部5cは、顔の主要部を検出したか否かを判定する(ステップS14)。
ここで、顔の主要部が検出されたと判定されると(ステップS14;YES)、動作処理部5は、検出された顔の主要部を動作対象として利用することができ、例えば、所定の抽出処理(例えば、エッジ抽出処理等)を用いて主要部(例えば、左右の両目及び口等)を抽出して主要部抽出画像Qを生成する(ステップS15)。
なお、上記のエッジ抽出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
Next, the face main part detection unit 5c determines whether or not the main part of the face has been detected (step S14).
Here, if it is determined that the main part of the face has been detected (step S14; YES), the
Note that the above-described edge extraction processing is a known technique, and thus detailed description thereof is omitted here.
一方、ステップS14にて、顔の主要部が検出されていないと判定されると(ステップS14;NO)、領域検出部5dは、画像I内で主要部相当領域A1を検出する処理を行う(ステップS16)。具体的には、領域検出部5dは、例えば、処理対象の画像Iの画像データに対して所定の画像処理(例えば、Hough変換処理等)を行って、画像I内の円形又は多角形をなす領域を主要部相当領域A1として検出する。
また、ステップS12にて、顔領域が検出されていないと判定(ステップS12;NO)された場合にも、領域検出部5dは、処理をステップS14に移行して、主要部相当領域A1を検出する処理を行う。
On the other hand, if it is determined in step S14 that the main part of the face has not been detected (step S14; NO), the
Even when it is determined in step S12 that the face area is not detected (step S12; NO), the
続けて、動作処理部5は、検出された主要部相当領域A1の数に応じて処理を分岐する(ステップS17)。すなわち、動作処理部5は、主要部相当領域A1の検出数が二つの場合(ステップS17;二つ)、処理をステップS181に移行し、主要部相当領域A1の検出数が一つの場合(ステップS17;一つ)、処理をステップS191に移行し、主要部相当領域A1の検出数が0(ゼロ)の場合(ステップS17;0)、処理をステップS201に移行する。
Subsequently, the
<検出数;二つ>
領域検出部5dにより二つの主要部相当領域A1、A1が検出された場合(ステップS17;二つ)、第1主要部設定部5eは、検出された二つの主要部相当領域A1、A1を左右の両目(主要部)の動作処理対象として設定する(ステップS181;図5(a)参照)。具体的には、第1主要部設定部5eは、記憶部3から左右の両目に対応する顔主要部画像データ3cを読み出して取得し、左右の両目を表す各第1主要部画像P1が二つの主要部相当領域A1、A1内に配置されるように当該第1主要部画像P1の大きさや位置を設定する(図5(b)参照)。
<Number of detections; two>
When two main part equivalent areas A1 and A1 are detected by the
次に、領域特定部5fは、画像I内で口に対応する一の主要部対応領域A2を特定する(ステップS182;図5(a)参照)。具体的には、領域特定部5fは、二つの主要部相当領域A1、A1の画像I内での位置関係や大きさ等を基準として、画像I内で口に対応する一の主要部対応領域A2を特定する。
続けて、第2主要部設定部5gは、特定された一の主要部対応領域A2を口(他の主要部)の動作処理対象として設定する(ステップS183)。具体的には、第2主要部設定部5gは、記憶部3から口に対応する顔主要部画像データ3cを読み出して取得し、口を表す第2主要部画像P2が一の主要部対応領域A2内に配置されるように当該第2主要部画像P2の大きさや位置を設定する(図5(b)参照)。
Next, the
Subsequently, the second main
なお、ステップS16にて、三つ以上の主要部相当領域A1、…が検出された場合には、第1主要部設定部5eは、検出された三つ以上の主要部相当領域A1、…の大きさや画像I内での位置関係を考慮して、これらの主要部相当領域A1、…の中から何れか二つの主要部相当領域A1、A1を自動的に指定しても良いし、ユーザによる操作入力部4の所定操作に基づいてユーザ所望の二つの主要部相当領域A1、A1を指定しても良い。
When three or more main part equivalent areas A1,... Are detected in step S16, the first main
<検出数;一つ>
領域検出部5dにより一の主要部相当領域A1が検出された場合(ステップS17;一つ)、第1主要部設定部5eは、検出された一の主要部相当領域A1を口(主要部)の動作処理対象として設定する(ステップS191;図6(a)参照)。具体的には、第1主要部設定部5eは、記憶部3から口に対応する顔主要部画像データ3cを読み出して取得し、口を表す第1主要部画像P1が一の主要部相当領域A1内に配置されるように当該第1主要部画像P1の大きさや位置を設定する(図6(b)参照)。
<Number of detections: 1>
When one main part equivalent area A1 is detected by the
次に、領域特定部5fは、画像I内で左右の両目に対応する二つの主要部対応領域A2、A2を特定する(ステップS192;図6(a)参照)。具体的には、領域特定部5fは、一の主要部相当領域A1の画像I内での位置関係や大きさ等を基準として、画像I内で左右の両目に対応する二つの主要部対応領域A2、A2を特定する。
続けて、第2主要部設定部5gは、特定された二つの主要部対応領域A2、A2を左右の両目(他の主要部)の動作処理対象として設定する(ステップS193)。具体的には、第2主要部設定部5gは、記憶部3から左右の両目に対応する顔主要部画像データ3cを読み出して取得し、左右の両目を表す各第2主要部画像P2が二つの主要部対応領域A2、A2内に配置されるように当該第2主要部画像P2の大きさや位置を設定する(図6(b)参照)。
Next, the
Subsequently, the second main
<検出数;0>
領域検出部5dにより主要部相当領域A1が一つも検出されなかった場合(ステップS17;0)、領域検出部5dは、処理対象の画像Iの画像データに対して所定の画像処理(例えば、エッジ検出処理等)を行って、画像I内からエッジが存在しない最も広い領域を顔領域Cとして検出する(ステップS201;図7(a)参照)。
続けて、動作処理部5は、検出された顔領域C内で、当該顔領域Cの大きさや例えば、左右の両目や口等の主要部の位置関係を考慮して、左右の両目及び口等(主要部)の動作処理対象を設定する(ステップS202;図7(b)参照)。具体的には、動作処理部5は、顔領域C内に、左右の両目や口を表す主要部画像Pが配置されるように当該主要部画像Pの大きさや位置を設定する。
<Number of detections: 0>
When no region corresponding to the main portion A1 is detected by the
Subsequently, in the detected face area C, the
図2に戻り、動作生成部5hは、画像I内で主要部(例えば、左右の両目や口等)を動作させるための動作データを生成する(ステップS3)。
具体的には、例えば、主要部相当領域A1の検出数が二つの場合(ステップS17;二つ)、動作生成部5hは、第1主要部設定部5eにより設定された左右の両目に対応する基準動作データ3bを記憶部3から読み出して取得するとともに、第2主要部設定部5gにより設定された口に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、処理対象となる画像I内での左右の両目の第1主要部画像P1や口の第2主要部画像P2の大きさや位置を示す情報と、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報とを対応付けて当該第1主要部画像P1や第2主要部画像P2の動作データを生成する。
また、例えば、主要部相当領域A1の検出数が一つの場合(ステップS17;一つ)、動作生成部5hは、第1主要部設定部5eにより設定された口に対応する基準動作データ3bを記憶部3から読み出して取得するとともに、第2主要部設定部5gにより設定された左右の両目に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、処理対象となる画像I内での口の第1主要部画像P1や左右の両目の第2主要部画像P2の大きさや位置を示す情報と、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報とを対応付けて当該第1主要部画像P1や第2主要部画像P2の動作データを生成する。
また、例えば、主要部相当領域A1の検出数が0(ゼロ)の場合(ステップS17;0)、動作生成部5hは、顔領域C内に主要部画像Pが設定された左右の両目や口に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、処理対象となる画像I内での左右の両目や口の主要部画像Pの大きさや位置を示す情報と、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報とを対応付けて当該主要部画像Pの動作データを生成する。
Returning to FIG. 2, the
Specifically, for example, when the number of detections in the main part equivalent area A1 is two (step S17; two), the
Further, for example, when the number of detections in the main part equivalent area A1 is one (step S17; one), the
Further, for example, when the number of detections of the main part equivalent area A1 is 0 (zero) (step S17; 0), the
なお、ステップS14にて、顔の主要部が検出されたと判定(ステップS14;YES)されて、主要部が抽出された場合には(ステップS15)、動作生成部5hは、抽出された主要部に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、主要部抽出画像Qの所定位置に複数の制御点を設定するとともに、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報と対応付けて当該主要部抽出画像Qの動作データを生成する。
When it is determined in step S14 that the main part of the face has been detected (step S14; YES) and the main part is extracted (step S15), the
また、動作生成部5hにより生成された動作データは、所定の格納手段(例えば、メモリ2等)に出力されて一時的に格納されても良い。
Further, the operation data generated by the
次に、動作制御部5iは、動作データに基づいて画像I内で主要部を動作させる処理を行う(ステップS4)。具体的には、動作制御部5iは、例えば、動作生成部5hにより生成された主要部や他の主要部を表す第1主要部画像P1や第2主要部画像P2の動作データの動作データを取得して、取得された動作データに規定されている複数の制御点の動きを示す情報に基づいて複数の制御点を変位させることで、当該第1主要部画像P1や第2主要部画像P2を動作させる動作処理を行う。
また、動作生成部5hにより主要部画像Pの動作データや主要部抽出画像Qの動作データが生成された場合も、動作制御部5iは、略同様に、取得された動作データに規定されている複数の制御点の動きを示す情報に基づいて複数の制御点を変位させることで、主要部画像Pや主要部抽出画像Qを動作させる動作処理を行う。
Next, the
In addition, even when motion data of the main part image P or motion data of the main part extracted image Q is generated by the
以上のように、本実施形態の画像処理装置100によれば、取得された画像I内で顔の主要部の形状に相当する主要部相当領域(例えば、画像I内の円形又は多角形をなす領域等)A1を検出して、検出された主要部相当領域A1を何れかの主要部の動作処理対象として設定するので、例えば、顔が含まれていない画像I、顔検出や顔の主要部の検出精度が低い画像Iを処理対象としても、処理対象の画像I内に主要部を設定することができ、当該主要部を動作させることができる。具体的には、主要部相当領域A1に主要部を表す第1主要部画像P1を重畳させるように設定して、画像I内で第1主要部画像P1を変形動作させることで、動きを適正に表現することができる。
このように、顔が含まれない画像Iに対しても顔の主要部を設定することができる。
As described above, according to the image processing apparatus 100 of the present embodiment, a main part equivalent region (for example, a circle or a polygon in the image I) corresponding to the shape of the main part of the face in the acquired image I is formed. Area etc.) Since A1 is detected and the detected main part equivalent area A1 is set as an operation processing target of any main part, for example, image I that does not include a face, face detection or main part of the face Even if the image I with low detection accuracy is set as the processing target, the main part can be set in the image I to be processed, and the main part can be operated. Specifically, the first main part image P1 representing the main part is set to be superimposed on the main part equivalent area A1, and the first main part image P1 is deformed in the image I so that the movement is appropriate. Can be expressed in
In this way, the main part of the face can be set even for the image I that does not include the face.
また、画像I内で検出された主要部相当領域A1の位置を基準として、他の主要部に対応する主要部対応領域A2を特定し、特定された主要部対応領域A2を他の主要部の動作処理対象として設定することができる。
具体的には、例えば、画像I内で主要部として検出された左右の両目に対応する二つの主要部相当領域A1、A1の位置を基準として、他の主要部としての口に対応する主要部対応領域A2を特定するので、画像I内で左右の両目に対応する二つの主要部相当領域A1、A1のみが設定された場合であっても、口に対応する主要部対応領域A2を特定することができ、特定された主要部対応領域A2を口の動作処理対象として設定して口を動作させることができる。また、画像I内で主要部として検出された口に対応する一の主要部相当領域A1の位置を基準として、他の主要部としての目に対応する主要部対応領域A2を特定するので、画像I内で口に対応する主要部相当領域A1のみが設定された場合であっても、目に対応する主要部対応領域A2を特定することができ、特定された主要部対応領域A2を目の動作処理対象として設定して目を動作させることができる。
このとき、主要部相当領域A1に主要部を表す第1主要部画像P1を重畳させるように設定するとともに主要部対応領域A2に他の主要部を表す第2主要部画像P2を重畳させるように設定して、画像I内で第1主要部画像P1及び第2主要部画像P2を変形動作させることで、動きを適正に表現することができる。
Further, with reference to the position of the main part equivalent area A1 detected in the image I, the main part corresponding area A2 corresponding to the other main part is specified, and the specified main part corresponding area A2 is set to the other main part. It can be set as an operation processing target.
Specifically, for example, the main part corresponding to the mouth as the other main part on the basis of the positions of the two main part equivalent areas A1 and A1 corresponding to the left and right eyes detected as the main part in the image I Since the corresponding area A2 is specified, the main part corresponding area A2 corresponding to the mouth is specified even when only two main part corresponding areas A1 and A1 corresponding to both the left and right eyes in the image I are set. The specified main part corresponding area A2 can be set as a mouth motion processing target and the mouth can be operated. Further, since the main part corresponding area A2 corresponding to the eyes as the other main part is specified on the basis of the position of one main part corresponding area A1 corresponding to the mouth detected as the main part in the image I, the image Even when only the main part corresponding area A1 corresponding to the mouth is set in I, the main part corresponding area A2 corresponding to the eyes can be specified. The eye can be operated by setting it as an operation processing target.
At this time, the first main part image P1 representing the main part is set to be superimposed on the main part equivalent area A1, and the second main part image P2 representing the other main part is superimposed on the main part corresponding area A2. By setting and performing a deformation operation on the first main part image P1 and the second main part image P2 in the image I, the motion can be appropriately expressed.
また、処理対象の画像Iから顔が検出されなかった場合に、当該画像I内で顔の主要部の形状に相当する主要部相当領域A1を検出するので、顔が含まれていない画像Iや顔検出の検出精度が低い画像Iを処理対象としても、顔の検出処理の結果に応じて処理対象の画像I内に主要部の動作処理対象を設定することができる。すなわち、画像Iから高い精度で顔が検出された場合には、当該顔を利用可能となる一方、画像Iから顔が検出されなかった場合や顔の検出精度が低い場合には、画像I内で主要部相当領域A1を検出することで、検出された主要部相当領域A1を主要部の動作処理対象として設定して当該主要部を動作させることができる。
同様に、処理対象の画像Iから顔の主要部が検出されなかった場合に、当該画像I内で顔の主要部の形状に相当する主要部相当領域A1を検出するので、主要部の検出精度が低い画像Iを処理対象としても、主要部の検出処理の結果に応じて処理対象の画像I内に主要部の動作処理対象を設定することができる。すなわち、画像Iから高い精度で顔の主要部が検出された場合には、当該主要部を利用可能となる一方、主要部の検出精度が低い場合には、画像I内で主要部相当領域A1を検出することで、検出された主要部相当領域A1を主要部の動作処理対象として設定して当該主要部を動作させることができる。
In addition, when a face is not detected from the image I to be processed, the main part corresponding area A1 corresponding to the shape of the main part of the face is detected in the image I. Even if an image I with low detection accuracy of face detection is set as a processing target, an operation processing target of a main part can be set in the processing target image I according to the result of the face detection processing. That is, when a face is detected from the image I with high accuracy, the face can be used. On the other hand, when a face is not detected from the image I or when the face detection accuracy is low, By detecting the main part equivalent area A1, it is possible to set the detected main part equivalent area A1 as an operation processing target of the main part and operate the main part.
Similarly, when the main part of the face is not detected from the image I to be processed, the main part equivalent area A1 corresponding to the shape of the main part of the face is detected in the image I, so that the detection accuracy of the main part is detected. Even if the image I having a low value is set as the processing target, the operation processing target of the main part can be set in the processing target image I according to the result of the detection process of the main part. That is, when the main part of the face is detected from the image I with high accuracy, the main part can be used. On the other hand, when the detection accuracy of the main part is low, the main part equivalent area A1 in the image I is used. By detecting this, the detected main part equivalent area A1 can be set as an operation processing target of the main part and the main part can be operated.
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
また、上記実施形態にあっては、画像処理装置100単体から構成するようにしたが、一例であってこれに限られるものではなく、例えば、人物、キャラクタ、動物等の投影対象物が商品等の説明を行う映像コンテンツをスクリーンに投影する投影システム(図示略)に適用した構成であっても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
In the above embodiment, the image processing apparatus 100 is configured as a single unit. However, the image processing apparatus 100 is only an example, and the present invention is not limited thereto. For example, a projection target such as a person, a character, or an animal is a product or the like. The configuration may be applied to a projection system (not shown) that projects video content to be described on a screen.
さらに、上記実施形態にあっては、主要部や他の主要部を動作させるための動作データを生成するようにしたが、一例であってこれに限られるものではなく、必ずしも動作生成部5hを具備する必要はなく、例えば、第1主要部設定部5eや第2主要部設定部5gにより画像I内に設定された主要部や他の主要部の動作処理対象に係る情報を外部機器(図示略)に出力して、当該外部機器にて動作データを生成するようにしても良い。
また、主要部や他の主要部を動作させるようにしたが、一例であってこれに限られるものではなく、必ずしも動作制御部5iを具備する必要はなく、例えば、第1主要部設定部5eや第2主要部設定部5gにより画像I内に設定された主要部や他の主要部の動作処理対象に係る情報を外部機器(図示略)に出力して、当該外部機器にて制御条件に従って主要部や顔全体を動作させるようにしても良い。
Furthermore, in the above embodiment, the operation data for operating the main part and other main parts is generated. However, this is only an example, and the
Further, the main part and other main parts are operated. However, the main part and other main parts are only examples, and the present invention is not limited to this. The
さらに、上記実施形態にあっては、処理対象の画像Iから顔の主要部が検出された場合には、検出された主要部を利用して動作させるようにしたが、一例であってこれに限られるものではなく、顔の主要部が検出された場合であっても、必ずしも当該主要部を利用する必要はない。
すなわち、例えば、検出された主要部を利用するか否かをユーザが操作入力部4の所定操作に基づいて選択可能な構成としても良い。さらに、予め、検出された主要部を利用して動作させるか、或いは、主要部相当領域A1を検出して当該主要部相当領域A1に主要部(第1主要部画像P1)を設定して動作させるかの何れかを決定しておいても良い。例えば、ユーザの嗜好が、画像I内の顔らしい部分を変形動作させたいか、或いは、画像I内のあまり顔らしくない部分を変形動作させたいかに応じて選択可能な構成としても良い。
Further, in the above embodiment, when the main part of the face is detected from the image I to be processed, the operation is performed using the detected main part. The present invention is not limited, and even when the main part of the face is detected, it is not always necessary to use the main part.
That is, for example, it may be configured such that the user can select whether or not to use the detected main part based on a predetermined operation of the
また、上記実施形態にあっては、画像I内で二つの主要部相当領域A1、A1と一の主要部対応領域A2を一の組として、或いは、一の主要部相当領域A1と二つの主要部対応領域A2、A2を一の組として、一の顔の動作を表現するようにしたが、一例であってこれに限られるものではなく、例えば、主要部相当領域A1及び主要部対応領域A2からなる組を複数用意して、画像I内にて複数の顔の動作を表現するようにしても良い。 In the above embodiment, in the image I, two main part equivalent areas A1 and A1 and one main part corresponding area A2 are set as one set, or one main part corresponding area A1 and two main part corresponding areas A1. The movement of one face is expressed with the part corresponding areas A2 and A2 as one set, but is not limited to this example. For example, the main part corresponding area A1 and the main part corresponding area A2 A plurality of sets may be prepared, and a plurality of face motions may be expressed in the image I.
また、上記実施形態にあっては、三つの円形又は多角形の形状部分の各々の中心が三角形の頂点の位置に配置されている主要部相当領域A1が検出された場合は左右の両目および口として、二つの主要部相当領域A1、A1が検出された場合は左右の両目として、一つの主要部相当領域A1が検出された場合は口として設定するようにしたが、一例であってこれに限られるものではない。例えば、三つ以上の主要部相当領域A1、…が検出された場合に、それらの全てを目のみに設定し、それらの各々に対応する主要部対応領域A2としての口を設定したり、又は、全てを口のみに設定し、それらの各々に対応する主要部対応領域A2としての目を設定するようにしてもよい。 In the above embodiment, when the main part equivalent area A1 in which the center of each of the three circular or polygonal shaped parts is arranged at the position of the apex of the triangle is detected, the left and right eyes and mouth When two main part equivalent areas A1 and A1 are detected, the left and right eyes are set, and when one main part equivalent area A1 is detected, it is set as a mouth. It is not limited. For example, when three or more main part equivalent areas A1,... Are detected, all of them are set to eyes only, and a mouth as a main part corresponding area A2 corresponding to each of them is set, or , All may be set to the mouth only, and the eye as the main part corresponding area A2 corresponding to each of them may be set.
さらに、画像処理装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。例えば、画像処理装置100は、音を出力するスピーカ(図示略)を備え、画像内で口を動作させる処理の際にリップシンクさせるようにスピーカから所定の音声を出力するような構成としても良い。このとき出力される音声のデータは、例えば、基準動作データ3bと対応付けられて記憶されていても良い。
Furthermore, the configuration of the image processing apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. For example, the image processing apparatus 100 may include a speaker (not shown) that outputs sound, and may output a predetermined sound from the speaker so as to perform lip sync during the process of operating the mouth in the image. . The audio data output at this time may be stored in association with the
また、上記実施形態にあっては、画像処理として主要部や他の主要部を動作させる動作処理を例示して、画像I内の主要部相当領域A1や主要部対応領域A2を主要部や他の主要部の動作処理対象として設定するようにしたが、一例であってこれに限られるものではなく、他の画像処理等に適宜任意に変更可能である。例えば、主要部相当領域A1や主要部対応領域A2に主要部や他の主要部を表す画像を置換して単に静止表示のみさせるような置換処理の処理対象としても良い。 In the above embodiment, the main part and other main parts are exemplified as image processing, and the main part equivalent area A1 and the main part corresponding area A2 in the image I are set to the main part and other parts. However, the present invention is not limited to this example, and can be arbitrarily changed as appropriate to other image processing or the like. For example, an image representing a main part or another main part may be replaced with the main part corresponding area A1 or the main part corresponding area A2 to be a processing target of a replacement process in which only static display is performed.
加えて、上記実施形態にあっては、取得手段、領域検出手段、第1設定手段としての機能を、画像処理装置100の中央制御部1の制御下にて、画像取得部5a、領域検出部5d、第1主要部設定部5eが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムを記憶するプログラムメモリに、取得処理ルーチン、領域検出処理ルーチン、設定処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、画像Iを取得する手段として機能させるようにしても良い。また、領域検出処理ルーチンにより中央制御部1のCPUを、取得された画像I内で顔の主要部の形状に相当する領域(主要部相当領域A1)を検出する手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部1のCPUを、検出された領域を何れかの主要部の画像処理対象として設定する手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions as the acquisition unit, the region detection unit, and the first setting unit are controlled under the control of the
That is, a program including an acquisition process routine, an area detection process routine, and a setting process routine is stored in a program memory that stores the program. Then, the CPU of the
同様に、特定手段、第2設定手段、動作制御手段、顔検出手段、主要部検出手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
Similarly, the specifying unit, the second setting unit, the operation control unit, the face detection unit, and the main part detection unit may be realized by executing a predetermined program or the like by the CPU of the
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
画像を取得する取得手段と、
前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出する領域検出手段と、
前記領域検出手段により検出された領域を何れかの主要部の画像処理対象として設定する第1設定手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記領域検出手段は、更に、前記画像内の円形又は多角形をなす領域を前記主要部の形状に相当する領域として検出することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記画像内で前記領域検出手段により検出された領域の位置を基準として、前記第1設定手段により設定された前記主要部以外の他の主要部に対応する領域を特定する特定手段と、
前記特定手段により特定された領域を前記他の主要部の画像処理対象として設定する第2設定手段と、を更に備えることを特徴とする請求項1又は2に記載の画像処理装置。
<請求項4>
前記第1設定手段は、更に、前記画像内で前記領域検出手段により検出されたそれぞれ円形又は多角形をなす二つの領域に左右の両目を前記主要部として設定し、
前記特定手段は、前記画像内で前記領域検出手段により検出された前記二つの領域の位置を基準として、前記他の主要部としての口に対応する領域を特定することを特徴とする請求項3に記載の画像処理装置。
<請求項5>
前記第1設定手段は、更に、前記画像内で前記領域検出手段により検出された円形又は多角形をなす一の領域に口を前記主要部として設定し、
前記特定手段は、前記画像内で前記領域検出手段により検出された前記一の領域の位置を基準として、前記他の主要部としての目に対応する領域を特定することを特徴とする請求項3に記載の画像処理装置。
<請求項6>
前記第1設定手段は、更に、前記領域検出手段により検出された領域に前記主要部を表す画像を重畳させるように設定することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記取得手段により取得された画像内で、前記第1設定手段により設定された前記主要部を表す画像を動作させる動作制御手段を更に備えることを特徴とする請求項6に記載の画像処理装置。
<請求項8>
前記第1設定手段は、更に、前記領域検出手段により検出された領域に前記主要部を表す画像を重畳させるように設定し、
前記第2設定手段は、前記特定手段により特定された領域に前記他の主要部を表す画像を重畳させるように設定することを特徴とする請求項3に記載の画像処理装置。
<請求項9>
前記取得手段により取得された画像内で、前記第1設定手段により設定された前記主要部を表す画像及び前記第2設定手段により設定された前記他の主要部を表す画像を動作させる動作制御手段を更に備えることを特徴とする請求項8に記載の画像処理装置。
<請求項10>
前記取得手段により取得された画像から顔を検出する顔検出手段を更に備え、
前記領域検出手段は、前記顔検出手段により顔が検出されなかった場合に、前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出することを特徴とする請求項1〜9の何れか一項に記載の画像処理装置。
<請求項11>
前記取得手段により取得された画像から顔の主要部を検出する主要部検出手段を更に備え、
前記領域検出手段は、前記主要部検出手段により前記主要部が検出されなかった場合に、前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出することを特徴とする請求項1〜10の何れか一項に記載の画像処理装置。
<請求項12>
画像処理装置を用いた画像処理方法であって、
画像を取得する処理と、
取得された画像内で顔の主要部の形状に相当する領域を検出する処理と、
検出された領域を何れかの主要部の画像処理対象として設定する処理と、
を含むことを特徴とする画像処理方法。
<請求項13>
画像処理装置のコンピュータを、
画像を取得する取得手段、
前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出する領域検出手段、
前記領域検出手段により検出された領域を何れかの主要部の画像処理対象として設定する第1設定手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
An acquisition means for acquiring an image;
Area detecting means for detecting an area corresponding to the shape of the main part of the face in the image acquired by the acquiring means;
First setting means for setting the area detected by the area detection means as an image processing target of any main part;
An image processing apparatus comprising:
<Claim 2>
The image processing apparatus according to
<Claim 3>
A specifying unit for specifying a region corresponding to a main part other than the main part set by the first setting unit with reference to a position of the region detected by the region detection unit in the image;
The image processing apparatus according to
<Claim 4>
The first setting means further sets both the left and right eyes as the main part in two areas each forming a circle or a polygon detected by the area detection means in the image,
The said specifying means specifies the area | region corresponding to the mouth as said other main part on the basis of the position of the said 2 area | region detected by the said area | region detection means in the said image. An image processing apparatus according to 1.
<Claim 5>
The first setting means further sets a mouth as the main part in one area forming a circle or a polygon detected by the area detection means in the image,
4. The specifying unit specifies a region corresponding to an eye as the other main part on the basis of a position of the one region detected by the region detecting unit in the image. An image processing apparatus according to 1.
<Claim 6>
The said 1st setting means is further set to superimpose the image showing the said principal part on the area | region detected by the said area | region detection means, The
<Claim 7>
The image processing apparatus according to
<Claim 8>
The first setting unit is further configured to superimpose an image representing the main part on the region detected by the region detection unit,
The image processing apparatus according to
<Claim 9>
Operation control means for operating the image representing the main part set by the first setting means and the image representing the other main part set by the second setting means in the image obtained by the obtaining means. The image processing apparatus according to
<Claim 10>
A face detection unit for detecting a face from the image acquired by the acquisition unit;
The area detection unit detects an area corresponding to a shape of a main part of a face in an image acquired by the acquisition unit when a face is not detected by the face detection unit. The image processing apparatus according to any one of 1 to 9.
<Claim 11>
A main part detecting unit for detecting a main part of the face from the image acquired by the acquiring unit;
The area detecting means detects an area corresponding to the shape of the main part of the face in the image acquired by the acquiring means when the main part is not detected by the main part detecting means. The image processing apparatus according to
<Claim 12>
An image processing method using an image processing apparatus,
Processing to acquire images,
Processing for detecting an area corresponding to the shape of the main part of the face in the acquired image;
A process of setting the detected area as an image processing target of any main part;
An image processing method comprising:
<Claim 13>
The computer of the image processing device
Acquisition means for acquiring images,
A region detecting unit for detecting a region corresponding to the shape of the main part of the face in the image acquired by the acquiring unit;
First setting means for setting the area detected by the area detecting means as an image processing target of any main part;
A program characterized by functioning as
100 画像処理装置
1 中央制御部
5 動作処理部
5a 画像取得部
5b 顔検出部
5c 顔主要部検出部
5d 領域検出部
5e 第1主要部設定部
5f 領域特定部
5g 第2主要部設定部
5h 動作生成部
5i 動作制御部
DESCRIPTION OF SYMBOLS 100
Claims (14)
前記取得手段により取得された画像内の顔画像を含まない領域から、顔の主要部の形状に相当する領域を検出する領域検出手段と、
前記領域検出手段により検出された領域を画像処理対象として設定する第1設定手段と、
を備えたことを特徴とする画像処理装置。 An acquisition means for acquiring an image;
A region detecting unit for detecting a region corresponding to the shape of the main part of the face from a region not including the face image in the image acquired by the acquiring unit;
A first setting means for setting a region detected by the region detecting means as images processed,
An image processing apparatus comprising:
前記特定手段により特定された領域を前記他の主要部の画像処理対象として設定する第2設定手段と、を更に備えることを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。 A specifying unit for specifying a region corresponding to a main part other than the main part set by the first setting unit with reference to a position of the region detected by the region detection unit in the image;
The image processing according to any one of claims 1 to 3, further comprising: a second setting unit that sets an area specified by the specifying unit as an image processing target of the other main part. apparatus.
前記特定手段は、前記画像内で前記領域検出手段により検出された前記二つの領域の位置を基準として、前記他の主要部としての口に対応する領域を特定することを特徴とする請求項4に記載の画像処理装置。 The first setting means further sets both the left and right eyes as the main part in two areas each forming a circle or a polygon detected by the area detection means in the image,
The specifying means, according to claim 4, characterized in that with reference to the position of the detected said two regions by the region detecting means in the image, specifying an area corresponding to the other mouth of the main portion An image processing apparatus according to 1.
前記特定手段は、前記画像内で前記領域検出手段により検出された前記一の領域の位置を基準として、前記他の主要部としての目に対応する領域を特定することを特徴とする請求項4に記載の画像処理装置。 The first setting means further sets a mouth as the main part in one area forming a circle or a polygon detected by the area detection means in the image,
The specifying means, according to claim 4, characterized in that with reference to the position of the detected said one of regions by the region detecting means in the image, specifying an area corresponding to the eye as the other major portion An image processing apparatus according to 1.
前記第2設定手段は、前記特定手段により特定された領域に前記他の主要部を表す画像を重畳させるように設定することを特徴とする請求項4に記載の画像処理装置。 The first setting unit is further configured to superimpose an image representing the main part on the region detected by the region detection unit,
The image processing apparatus according to claim 4 , wherein the second setting unit is configured to superimpose an image representing the other main part on an area specified by the specifying unit.
前記領域検出手段は、前記顔検出手段により顔が検出されなかった場合に、前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出することを特徴とする請求項1〜10の何れか一項に記載の画像処理装置。 A face detection unit for detecting a face from the image acquired by the acquisition unit;
It said region detecting means, claims, characterized in that the when the face is not detected by the face detecting means detects a region corresponding to the shape of the main part of a face in an image acquired by the acquisition unit The image processing apparatus according to any one of 1 to 10 .
前記領域検出手段は、前記主要部検出手段により前記主要部が検出されなかった場合に、前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出することを特徴とする請求項1〜11の何れか一項に記載の画像処理装置。 A main part detecting unit for detecting a main part of the face from the image acquired by the acquiring unit;
The area detecting means detects an area corresponding to the shape of the main part of the face in the image acquired by the acquiring means when the main part is not detected by the main part detecting means. The image processing apparatus according to any one of claims 1 to 11 .
画像を取得する処理と、
取得された画像内の顔画像を含まない領域から、顔の主要部の形状に相当する領域を検出する処理と、
検出された領域を画像処理対象として設定する処理と、
を含むことを特徴とする画像処理方法。 An image processing method using an image processing apparatus,
Processing to acquire images,
A process of detecting an area corresponding to the shape of the main part of the face from an area not including the face image in the acquired image;
A process of setting a detected region as images processed,
An image processing method comprising:
画像を取得する取得手段、
前記取得手段により取得された画像内の顔画像を含まない領域から、顔の主要部の形状に相当する領域を検出する領域検出手段、
前記領域検出手段により検出された領域を画像処理対象として設定する第1設定手段、
として機能させることを特徴とするプログラム。 The computer of the image processing device
Acquisition means for acquiring images,
Area detecting means for detecting an area corresponding to the shape of the main part of the face from an area not including the face image in the image acquired by the acquiring means;
First setting means for setting a detected region by the region detecting means as images processed,
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014133831A JP6390210B2 (en) | 2014-06-30 | 2014-06-30 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014133831A JP6390210B2 (en) | 2014-06-30 | 2014-06-30 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016012261A JP2016012261A (en) | 2016-01-21 |
JP2016012261A5 JP2016012261A5 (en) | 2017-07-20 |
JP6390210B2 true JP6390210B2 (en) | 2018-09-19 |
Family
ID=55228934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014133831A Active JP6390210B2 (en) | 2014-06-30 | 2014-06-30 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6390210B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4781181B2 (en) * | 2006-07-07 | 2011-09-28 | 株式会社ソニー・コンピュータエンタテインメント | User interface program, apparatus and method, information processing system |
JP5439456B2 (en) * | 2011-10-21 | 2014-03-12 | 富士フイルム株式会社 | Electronic comic editing apparatus, method and program |
-
2014
- 2014-06-30 JP JP2014133831A patent/JP6390210B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016012261A (en) | 2016-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9639914B2 (en) | Portrait deformation method and apparatus | |
EP3998547A1 (en) | Line-of-sight detection method and apparatus, video processing method and apparatus, and device and storage medium | |
EP3992919B1 (en) | Three-dimensional facial model generation method and apparatus, device, and medium | |
JP4998637B1 (en) | Image processing apparatus, information generation apparatus, image processing method, information generation method, control program, and recording medium | |
JP5935849B2 (en) | Image processing apparatus, image processing method, and program | |
US11238569B2 (en) | Image processing method and apparatus, image device, and storage medium | |
JP2008194146A (en) | Visual line detecting apparatus and its method | |
US11093030B2 (en) | Operation determination device and operation determination method | |
US10546406B2 (en) | User generated character animation | |
JP6547244B2 (en) | Operation processing apparatus, operation processing method and program | |
JP6476608B2 (en) | Operation processing apparatus, operation processing method, and program | |
JP2009237616A (en) | Detection of face area in image | |
JP7385416B2 (en) | Image processing device, image processing system, image processing method, and image processing program | |
JP5920858B1 (en) | Program, information processing apparatus, depth definition method, and recording medium | |
JP6390210B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011215709A (en) | Apparatus, method and program for assisting cartoon creation | |
JP6287170B2 (en) | Eyebrow generating device, eyebrow generating method and program | |
US10572759B2 (en) | Image processing device, image processing method, and program | |
US20180329872A1 (en) | Electronic book display device, electronic book display method, and program | |
JP6330312B2 (en) | Face image processing apparatus, projection system, image processing method and program | |
JP6326808B2 (en) | Face image processing apparatus, projection system, image processing method and program | |
JP6257885B2 (en) | Image processing apparatus, image processing method, and program | |
JP2023053546A (en) | Display control device, control method, computer program, computer-readable medium, and manufacturing method | |
JP2009237617A (en) | Detection of face area in image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180724 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180806 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6390210 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |