JP6390210B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6390210B2
JP6390210B2 JP2014133831A JP2014133831A JP6390210B2 JP 6390210 B2 JP6390210 B2 JP 6390210B2 JP 2014133831 A JP2014133831 A JP 2014133831A JP 2014133831 A JP2014133831 A JP 2014133831A JP 6390210 B2 JP6390210 B2 JP 6390210B2
Authority
JP
Japan
Prior art keywords
main part
image
area
unit
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014133831A
Other languages
Japanese (ja)
Other versions
JP2016012261A5 (en
JP2016012261A (en
Inventor
雅昭 佐々木
雅昭 佐々木
哲司 牧野
哲司 牧野
優一 宮本
優一 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014133831A priority Critical patent/JP6390210B2/en
Publication of JP2016012261A publication Critical patent/JP2016012261A/en
Publication of JP2016012261A5 publication Critical patent/JP2016012261A5/ja
Application granted granted Critical
Publication of JP6390210B2 publication Critical patent/JP6390210B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

近年、人型に成型された投影スクリーンに映像を投影する、所謂「バーチャルマネキン」が提案されている(例えば、特許文献1参照)。バーチャルマネキンは、あたかもそこに人間が立っているかのような存在感のある投影像が得られ、展示会等にて斬新で効果的な展示の演出を行うことができる。
このようなバーチャルマネキンの顔の表情を豊かにするために、写真やイラストや漫画などの画像中の顔を構成する主要部(例えば、目や口等)を変形させて動きを表現する技術が知られている。具体的には、被写体であるヒトの注視点に基づいて、そのヒトのコンピュータグラフィックスで表現される顔モデル中の眼球を動作させる手法(例えば、特許文献2参照)や、発音される言葉の母音や子音毎に口の形状を変えてリップシンクさせる手法(例えば、特許文献3参照)などがある。
In recent years, a so-called “virtual mannequin” that projects an image on a projection screen molded in a human shape has been proposed (for example, see Patent Document 1). The virtual mannequin provides a projected image that has the presence of a human being standing there, and can be used to create innovative and effective exhibitions at exhibitions and the like.
In order to enrich the facial expression of such a virtual mannequin, there is a technology that expresses movement by transforming the main parts (for example, eyes and mouth) that make up the face in images such as photographs, illustrations, and comics. Are known. Specifically, based on the gaze point of the human being who is the subject, a method of operating the eyeball in the face model represented by the human computer graphics (for example, see Patent Document 2), There is a method of changing the shape of the mouth for each vowel or consonant to perform lip synchronization (see, for example, Patent Document 3).

特開2011−150221号公報JP 2011-150221 A 特開平06−282627号公報Japanese Patent Laid-Open No. 06-282627 特開2003−58908号公報JP 2003-58908 A

ところで、顔の主要部を動作させる場合、処理対象となる画像には顔が含まれている必要がある。つまり、顔が含まれていない画像、顔検出や顔の主要部の検出精度が低い画像を処理対象とした場合には、顔の主要部を変形させて動きを表現することができないといった問題がある。   By the way, when operating the main part of the face, the image to be processed needs to include the face. That is, when an image that does not include a face, or an image with low face detection or a low detection accuracy of the main part of the face is a processing target, there is a problem that the main part of the face cannot be deformed to express a motion. is there.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、顔が含まれない画像に対しても顔の主要部を設定することができる画像処理装置、画像処理方法及びプログラムを提供することである。   The present invention has been made in view of such problems, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of setting a main part of a face even for an image that does not include a face. And providing a program.

上記課題を解決するため、本発明に係る画像処理装置は、
画像を取得する取得手段と、
前記取得手段により取得された画像内の顔画像を含まない領域から、顔の主要部の形状に相当する領域を検出する領域検出手段と、
前記領域検出手段により検出された領域を画像処理対象として設定する第1設定手段と、
を備えたことを特徴としている。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
An acquisition means for acquiring an image;
A region detecting unit for detecting a region corresponding to the shape of the main part of the face from a region not including the face image in the image acquired by the acquiring unit;
A first setting means for setting a region detected by the region detecting means as images processed,
It is characterized by having.

本発明によれば、顔が含まれない画像に対しても顔の主要部を設定することができる。   According to the present invention, the main part of a face can be set even for an image that does not include a face.

本発明を適用した一実施形態の画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus of one Embodiment to which this invention is applied. 図1の画像処理装置による動作処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an operation process performed by the image processing apparatus in FIG. 1. 図2の動作処理における主要部設定処理に係る動作の一例を示すフローチャートである。3 is a flowchart showing an example of an operation related to a main part setting process in the operation process of FIG. 2. 図2の動作処理に係る画像を模式的に示す図である。It is a figure which shows typically the image which concerns on the operation | movement process of FIG. 図2の動作処理に係る画像を模式的に示す図である。It is a figure which shows typically the image which concerns on the operation | movement process of FIG. 図2の動作処理に係る画像を模式的に示す図である。It is a figure which shows typically the image which concerns on the operation | movement process of FIG. 図2の動作処理に係る画像を模式的に示す図である。It is a figure which shows typically the image which concerns on the operation | movement process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の画像処理装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus 100 according to an embodiment to which the present invention is applied.

画像処理装置100は、例えば、パーソナルコンピュータやワークステーションなどのコンピュータ等により構成され、図1に示すように、中央制御部1と、メモリ2と、記憶部3と、操作入力部4と、動作処理部5と、表示部6と、表示制御部7とを備えている。
また、中央制御部1、メモリ2、記憶部3、動作処理部5及び表示制御部7は、バスライン8を介して接続されている。
The image processing apparatus 100 includes, for example, a computer such as a personal computer or a workstation. As shown in FIG. 1, the central processing unit 1, a memory 2, a storage unit 3, an operation input unit 4, and an operation are performed. A processing unit 5, a display unit 6, and a display control unit 7 are provided.
The central control unit 1, the memory 2, the storage unit 3, the operation processing unit 5, and the display control unit 7 are connected via a bus line 8.

中央制御部1は、画像処理装置100の各部を制御する。
具体的には、中央制御部1は、画像処理装置100の各部を制御するCPU(Central Processing Unit;図示略)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、画像処理装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The central control unit 1 controls each unit of the image processing apparatus 100.
Specifically, the central control unit 1 includes a CPU (Central Processing Unit; not illustrated), a RAM (Random Access Memory), and a ROM (Read Only Memory) that control each unit of the image processing apparatus 100. Various control operations are performed in accordance with various processing programs (not shown).

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1の他、当該画像処理装置100の各部によって処理されるデータ等を一時的に記憶する。   The memory 2 is configured by, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by each unit of the image processing apparatus 100 in addition to the central control unit 1.

記憶部3は、例えば、不揮発性メモリ(フラッシュメモリ)、ハードディスクドライブ等により構成され、中央制御部1の動作に必要な各種プログラムやデータ(図示略)を記憶している。   The storage unit 3 includes, for example, a nonvolatile memory (flash memory), a hard disk drive, and the like, and stores various programs and data (not shown) necessary for the operation of the central control unit 1.

また、記憶部3は、画像データ3aを記憶している。
画像データ3aは、例えば、写真画像、漫画、イラスト等の二次元の画像I(図4(a)等参照)のデータである。また、画像データ3aは、顔を含む画像の画像データであっても良いし、顔を含まない画像の画像データであっても良い。
The storage unit 3 stores image data 3a.
The image data 3a is, for example, data of a two-dimensional image I (see FIG. 4A) such as a photographic image, a cartoon, and an illustration. The image data 3a may be image data of an image including a face or image data of an image not including a face.

また、記憶部3は、基準動作データ3bを記憶している。
基準動作データ3bは、顔の各主要部(例えば、目、口等)の動きを表現する際の基準となる動きを示す情報を含んでいる。具体的には、基準動作データ3bは、各主要部毎に規定され、所定空間内における複数の制御点の動きを示す情報を含み、例えば、複数の制御点の所定空間での位置座標(x, y)を示す情報や変形ベクトル等が時間軸に沿って並べられている。
すなわち、例えば、目の基準動作データ3bは、上瞼や下瞼に対応する複数の制御点が設定され、これら制御点の変形ベクトルが規定されている。また、例えば、口の基準動作データ3bは、上唇や下唇や左右の口角に対応する複数の制御点が設定され、これら制御点の変形ベクトルが規定されている。
The storage unit 3 stores reference operation data 3b.
The reference motion data 3b includes information indicating movement that serves as a reference when expressing the movement of each major part (for example, eyes, mouth, etc.) of the face. Specifically, the reference motion data 3b is defined for each main part and includes information indicating movements of a plurality of control points in a predetermined space. For example, the position coordinates (x , y) and information indicating deformation vectors are arranged along the time axis.
That is, for example, in the eye reference motion data 3b, a plurality of control points corresponding to the upper eyelid and the lower eyelid are set, and deformation vectors of these control points are defined. For example, in the mouth reference motion data 3b, a plurality of control points corresponding to the upper lip, the lower lip, and the left and right mouth corners are set, and a deformation vector of these control points is defined.

また、記憶部3は、顔主要部画像データ3cを記憶している。
顔主要部画像データ3cは、例えば、左右各々の目、鼻、口、眉、顔輪郭等の顔の主要部毎に規定され、対応する主要部画像P(図7(b)参照;後述)に係る画像データである。
主要部画像Pは、例えば、写真画像の顔から抽出された画像や主要部を模式的に表した画像など各種様々な形状や色のものが用意されている。また、主要部画像Pの所定位置には、基準動作データ3bの複数の制御点と対応付けられ、当該基準動作データ3bに基づいて主要部画像を動作させるための複数の制御点が設定されている。
The storage unit 3 stores face main part image data 3c.
The face main part image data 3c is defined for each main part of the face, such as each of the left and right eyes, nose, mouth, eyebrows, and face contour, and the corresponding main part image P (see FIG. 7B; see below). It is the image data concerning.
The main part image P is prepared in various shapes and colors such as an image extracted from the face of a photographic image and an image schematically showing the main part. In addition, a plurality of control points for operating the main part image are set at predetermined positions of the main part image P in association with a plurality of control points of the reference action data 3b. Yes.

操作入力部4は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等の操作部(図示略)を備え、これらの操作部の操作に応じて所定の操作信号を中央制御部1に出力する。   The operation input unit 4 includes, for example, a data input key for inputting numerical values, characters, and the like, a keyboard, a mouse, and the like configured by up / down / left / right movement keys and various function keys for performing data selection, feed operation, and the like. The operation unit (not shown) is provided, and a predetermined operation signal is output to the central control unit 1 in accordance with the operation of these operation units.

動作処理部5は、画像取得部5aと、顔検出部5bと、顔主要部検出部5cと、領域検出部5dと、第1主要部設定部5eと、領域特定部5fと、第2主要部設定部5gと、動作生成部5hと、動作制御部5iとを具備している。
なお、動作処理部5の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The motion processing unit 5 includes an image acquisition unit 5a, a face detection unit 5b, a face main part detection unit 5c, an area detection unit 5d, a first main part setting unit 5e, an area specifying unit 5f, and a second main part. A unit setting unit 5g, a motion generation unit 5h, and a motion control unit 5i.
In addition, although each part of the operation | movement process part 5 is comprised from the predetermined logic circuit, for example, the said structure is an example and is not restricted to this.

画像取得部5aは、画像データ3aを取得する。
すなわち、画像取得部(取得手段)5aは、動作処理の処理対象となる二次元の画像I(図4(a)等参照)の画像データ3aを取得する。具体的には、画像取得部5aは、例えば、記憶部3に記憶されている所定数の画像データ3aの中で、ユーザによる操作入力部4の所定操作に基づいて指定されたユーザ所望の画像データ3aを動作処理の処理対象として取得する。
なお、画像取得部5aは、図示しない通信制御部を介して接続された外部機器(図示略)から画像データを取得しても良いし、図示しない撮像部により撮像されることで生成された画像データを取得しても良い。
The image acquisition unit 5a acquires the image data 3a.
That is, the image acquisition unit (acquisition unit) 5a acquires the image data 3a of the two-dimensional image I (see FIG. 4A and the like) that is the processing target of the operation process. Specifically, the image acquisition unit 5a is, for example, a user-desired image specified based on a predetermined operation of the operation input unit 4 by the user in a predetermined number of image data 3a stored in the storage unit 3, for example. Data 3a is acquired as a processing target of the operation process.
The image acquisition unit 5a may acquire image data from an external device (not shown) connected via a communication control unit (not shown), or an image generated by being captured by an imaging unit (not shown). Data may be acquired.

顔検出部5bは、処理対象の画像Iから顔領域を検出する。
すなわち、顔検出部5bは、画像取得部5aにより取得された処理対象の画像Iの画像データから顔が含まれる顔領域を検出する。具体的には、顔検出部5bは、先ず、画像取得部5aにより取得された画像Iの中で背景部分の画像との差分を取得して、物体領域を認識する。そして、顔検出部5bは、物体領域の中で顔に似た特徴を持つ領域、例えば、左右の両目及び口に相当する部分として、三つの円形又は多角形の形状部分B、…の各々の中心が三角形の頂点の位置に配置されている位置関係を有する領域を探索する。そして、顔検出部5bは、探索された領域について、各部分の大きさと中心間の距離や位置関係に基づいて所定の演算を行って評価値を算出し、算出された評価値が所定の閾値よりも高く、且つ、最も高い評価値の三つの円形又は多角形の形状部分B、…を有する領域をその物体の顔領域として検出する。
なお、上記した顔領域の検出処理は、一例であってこれに限られるものではなく、適宜任意に変更可能であり、顔検出部5bは、例えば、AAM(Active Appearance Model)等を用いて顔検出処理を行うようにしても良い。
The face detection unit 5b detects a face area from the processing target image I.
That is, the face detection unit 5b detects a face area including a face from the image data of the processing target image I acquired by the image acquisition unit 5a. Specifically, the face detection unit 5b first acquires a difference from the image of the background portion in the image I acquired by the image acquisition unit 5a, and recognizes the object region. Then, the face detection unit 5b is a region having characteristics similar to a face in the object region, for example, each of three circular or polygonal shape portions B,. A region having a positional relationship in which the center is arranged at the position of the vertex of the triangle is searched. Then, the face detection unit 5b performs a predetermined calculation on the searched area based on the size of each part, the distance between the centers, and the positional relationship to calculate an evaluation value, and the calculated evaluation value is a predetermined threshold value. A region having three circular or polygonal shape portions B,... That is higher and has the highest evaluation value is detected as a face region of the object.
The face area detection process described above is an example and is not limited to this, and can be arbitrarily changed as appropriate. The face detection unit 5b uses, for example, an AAM (Active Appearance Model) or the like. A detection process may be performed.

顔主要部検出部5cは、画像Iから顔を構成する主要部を検出する。
すなわち、顔主要部検出部(検出手段)5bは、画像取得部5aにより取得された画像データの画像Iから、例えば、左右各々の目、鼻、口、眉、顔輪郭等の主要部を検出する。具体的には、顔主要部検出部5cは、例えば、顔検出部5bによる顔領域の検出処理の結果を利用して、三つの円形又は多角形の形状部分B、…から顔の主要部を検出する。例えば、顔主要部検出部5cは、上記した顔領域の検出処理にて所定の閾値以上の評価値が算出された場合、三つの円形又は多角形の形状部分B、…をその物体の左右の両目及び口として検出する(図4(b)参照)。
なお、上記した顔の主要部を検出する手法は、一例であってこれに限られるものではなく、例えば、AAMを用いた処理、エッジ抽出処理、非等方拡散処理、テンプレートマッチング等適宜任意に変更可能である。
The face main part detection unit 5c detects the main part constituting the face from the image I.
That is, the face main part detection unit (detection unit) 5b detects, for example, main parts such as left and right eyes, nose, mouth, eyebrows, and face contour from the image I of the image data acquired by the image acquisition unit 5a. To do. Specifically, the face main part detection unit 5c uses, for example, the result of the face area detection processing by the face detection unit 5b to extract the main part of the face from three circular or polygonal shape parts B,. To detect. For example, when an evaluation value equal to or greater than a predetermined threshold value is calculated in the face area detection process described above, the face main part detection unit 5c determines three circular or polygonal shape portions B,. It detects as both eyes and a mouth (refer FIG.4 (b)).
Note that the above-described method for detecting the main part of the face is an example, and is not limited to this. For example, processing using AAM, edge extraction processing, anisotropic diffusion processing, template matching, and the like can be arbitrarily arbitrarily performed. It can be changed.

領域検出部5dは、画像I内で主要部相当領域A1を検出する。
すなわち、領域検出部(領域検出手段)5dは、画像取得部5aにより取得された画像データの画像I内で顔の主要部の形状に相当する領域(主要部相当領域A1)を検出する。具体的には、領域検出部5dは、例えば、処理対象の画像Iの画像データに対して所定の画像処理(例えば、Hough変換処理等)を行って、画像I内の円形又は多角形をなす領域を主要部相当領域A1として検出する。このとき、領域検出部5dは、顔検出部5bによる円形又は多角形の形状部分Bの検出結果を利用して、主要部相当領域A1を検出しても良い。
また、領域検出部5dは、顔検出部5bにより顔が検出されなかった場合や、顔主要部検出部5cにより主要部が検出されなかった場合に、画像取得部5aにより取得された画像I内で主要部相当領域A1を検出しても良い。
The area detection unit 5d detects the main part equivalent area A1 in the image I.
That is, the region detection unit (region detection unit) 5d detects a region (main part equivalent region A1) corresponding to the shape of the main part of the face in the image I of the image data acquired by the image acquisition unit 5a. Specifically, the region detection unit 5d performs, for example, predetermined image processing (for example, Hough conversion processing) on the image data of the image I to be processed to form a circle or a polygon in the image I. The area is detected as the main part equivalent area A1. At this time, the area detection unit 5d may detect the main part equivalent area A1 using the detection result of the circular or polygonal shape part B by the face detection unit 5b.
In addition, the area detection unit 5d includes the image I in the image I acquired by the image acquisition unit 5a when no face is detected by the face detection unit 5b or when no main part is detected by the face main part detection unit 5c. The main part equivalent area A1 may be detected.

また、画像I内から円形又は多角形をなす主要部相当領域A1が一つも検出されなかった場合には、領域検出部5dは、処理対象の画像Iの画像データに対して所定の画像処理(例えば、エッジ検出処理等)を行って、画像I内からエッジが存在しない最も広い領域(例えば、略円形状の領域等)を検出し、検出された領域を主要部(例えば、目や口等)が設定される顔領域Cとして検出しても良い(図7(a)参照)。このとき、領域検出部5dは、検出された領域(顔領域C)の大きさや例えば、左右の両目や口等の主要部の位置関係を考慮して、主要部が設定される位置を検出しても良い。   If no main part equivalent area A1 having a circular or polygonal shape is detected from the image I, the area detecting unit 5d performs predetermined image processing (for image data of the image I to be processed). For example, edge detection processing or the like is performed to detect the widest area (for example, a substantially circular area) in which no edge exists in the image I, and the detected area is used as a main part (for example, eyes or mouth). ) May be detected as the set face area C (see FIG. 7A). At this time, the area detection unit 5d detects the position where the main part is set in consideration of the size of the detected area (face area C) and the positional relationship between the main parts such as the left and right eyes and the mouth. May be.

なお、主要部相当領域A1として、円形又は多角形をなす領域を検出するようにしたが、一例であってこれに限られるものではなく、例えば、線により完全に囲繞されていない領域(例えば、「C」や「U」字形状の領域等)であっても、領域検出部5dは、仮想的に端部どうしが結線された囲繞領域を推定して検出しても良い。   In addition, although the area | region which makes circular or a polygon is detected as main part equivalent area | region A1, it is an example and is not restricted to this, For example, the area | region (for example, it is not completely enclosed by the line) The region detection unit 5d may estimate and detect a go region in which the end portions are virtually connected to each other even in the case of a “C” or “U” -shaped region.

第1主要部設定部(第1設定手段)5eは、領域検出部5dにより検出された領域を何れかの主要部の動作処理対象(画像処理対象)として設定する。
すなわち、第1主要部設定部5eは、領域検出部5dにより検出された主要部相当領域A1に主要部(例えば、目や口等)を表す画像(第1主要部画像P1)を重畳させるように設定する。
The first main part setting unit (first setting means) 5e sets the area detected by the area detection unit 5d as an operation processing target (image processing target) of any main part.
That is, the first main part setting unit 5e superimposes an image (first main part image P1) representing a main part (for example, eyes, mouth, etc.) on the main part equivalent area A1 detected by the area detection part 5d. Set to.

例えば、領域検出部5dにより画像I内から円形又は多角形をなす二つの主要部相当領域A1、A1が検出された場合には、第1主要部設定部5eは、検出された二つの主要部相当領域A1、A1を左右の両目(主要部)の動作処理対象として設定する(図5(a)参照)。具体的には、第1主要部設定部5eは、記憶部3から左右の両目に対応する顔主要部画像データ3cを読み出して取得し、左右の両目を表す各第1主要部画像P1が二つの主要部相当領域A1、A1内に収まり、且つ、各第1主要部画像P1の中心と二つの主要部相当領域A1、A1のそれぞれの中心とが重なるように当該第1主要部画像P1の大きさや位置を設定する(図5(b)参照)。
また、例えば、領域検出部5dにより画像I内から円形又は多角形をなす一の主要部相当領域A1が検出された場合には、第1主要部設定部5eは、検出された一の主要部相当領域A1を口(主要部)の動作処理対象として設定する(図6(a)参照)。具体的には、第1主要部設定部5eは、記憶部3から口に対応する顔主要部画像データ3cを読み出して取得し、口を表す第1主要部画像P1が一の主要部相当領域A1内に収まり、且つ、第1主要部画像P1の中心と一の主要部相当領域A1の中心とが重なるように当該第1主要部画像P1の大きさや位置を設定する(図6(b)参照)。
For example, when two main part equivalent areas A1 and A1 having a circular or polygonal shape are detected from the image I by the area detection unit 5d, the first main part setting unit 5e detects the two main parts detected. The corresponding areas A1 and A1 are set as the operation processing targets of both the left and right eyes (main part) (see FIG. 5A). Specifically, the first main part setting unit 5e reads out and acquires the face main part image data 3c corresponding to the left and right eyes from the storage unit 3, and each of the first main part images P1 representing the left and right eyes has two. Of the first main part image P1 so that it falls within one main part equivalent area A1, A1 and the center of each first main part image P1 overlaps the center of each of the two main part equivalent areas A1, A1. The size and position are set (see FIG. 5B).
For example, when one region corresponding to a main portion A1 having a circular shape or a polygon is detected from the image I by the region detection unit 5d, the first main portion setting unit 5e detects the one main portion detected. The equivalent area A1 is set as an operation processing target for the mouth (main part) (see FIG. 6A). Specifically, the first main part setting unit 5e reads out and acquires the face main part image data 3c corresponding to the mouth from the storage unit 3, and the first main part image P1 representing the mouth is one main part equivalent region. The size and position of the first main part image P1 are set so that they fall within A1 and the center of the first main part image P1 and the center of one main part equivalent region A1 overlap (FIG. 6B). reference).

なお、上記した二つの主要部相当領域A1、A1の向きや配置は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、画像I内で横向きの顔を表現する場合には、縦に並んだ二つの主要部相当領域A1、A1を利用して両目の動作処理対象を設定しても良い。また、領域検出部5dにより一の主要部相当領域A1が検出された場合に、第1主要部設定部5eは、当該主要部相当領域A1を左右の何れかの目の動作処理対象として設定しても良い。   Note that the orientations and arrangements of the two main part equivalent regions A1 and A1 described above are merely examples, and are not limited thereto, and can be arbitrarily changed as appropriate. For example, when a face in landscape orientation is expressed in the image I, the motion processing target of both eyes may be set using two main part equivalent areas A1 and A1 arranged vertically. In addition, when one main part equivalent area A1 is detected by the area detection unit 5d, the first main part setting part 5e sets the main part equivalent area A1 as the operation processing target of either the left or right eye. May be.

領域特定部5fは、画像I内で主要部対応領域A2を特定する。
すなわち、領域特定部(特定手段)5fは、画像I内で領域検出部5dにより検出された主要部相当領域A1の位置を基準として、第1主要部設定部5eにより設定された主要部以外の他の主要部に対応する領域(主要部対応領域A2)を特定する。
例えば、領域特定部5fは、画像I内で領域検出部5dにより検出された二つの主要部相当領域A1、A1の位置を基準として、他の主要部としての口に対応する一の主要部対応領域A2を特定する(図5(a)参照)。具体的には、第1主要部設定部5eにより画像I内の二つの主要部相当領域A1、A1には左右の両目が主要部として設定されるため、領域特定部5fは、これら二つの主要部相当領域A1、A1の画像I内での位置関係や大きさ等を基準として、画像I内で二つの主要部相当領域A1、A1の間で、且つ、下側に所定の距離離れた位置に口に対応する一の主要部対応領域A2を特定する。
また、例えば、領域特定部5fは、画像I内で領域検出部5dにより検出された一の主要部相当領域A1の位置を基準として、他の主要部としての左右の両目に対応する二つの主要部対応領域A2、A2を特定する(図6(a)参照)。具体的には、第1主要部設定部5eにより画像I内の一の主要部相当領域A1には口が主要部として設定されるため、領域特定部5fは、この一の主要部相当領域A1の画像I内での位置関係や大きさ等を基準として、画像I内で一の主要部相当領域A1の上側に所定の距離離れた位置に左右の両目に対応する二つの主要部対応領域A2、A2を特定する。
The area specifying unit 5f specifies the main part corresponding area A2 in the image I.
That is, the region specifying unit (specifying unit) 5f uses a position other than the main part set by the first main part setting unit 5e on the basis of the position of the main part equivalent area A1 detected by the area detection unit 5d in the image I. An area corresponding to another main part (main part corresponding area A2) is specified.
For example, the area specifying unit 5f corresponds to one main part corresponding to the mouth as the other main part on the basis of the positions of the two main part equivalent areas A1 and A1 detected by the area detecting unit 5d in the image I. The area A2 is specified (see FIG. 5A). Specifically, since the left and right eyes are set as the main parts in the two main part equivalent areas A1 and A1 in the image I by the first main part setting part 5e, the area specifying part 5f A position between two main part equivalent areas A1 and A1 in the image I and at a predetermined distance from the lower side with reference to the positional relationship and size of the part equivalent areas A1 and A1 in the image I One main part corresponding area A2 corresponding to the mouth is specified.
Further, for example, the area specifying unit 5f uses the two main corresponding to the left and right eyes as the other main parts with reference to the position of one main part equivalent area A1 detected by the area detecting unit 5d in the image I. The part corresponding areas A2 and A2 are specified (see FIG. 6A). Specifically, since the mouth is set as a main part in one main part equivalent area A1 in the image I by the first main part setting part 5e, the area specifying part 5f uses this one main part equivalent area A1. The two main part corresponding areas A2 corresponding to the left and right eyes at a position a predetermined distance above the one main part corresponding area A1 in the image I on the basis of the positional relationship, size, etc. in the image I , A2 is specified.

なお、上記した二つの主要部対応領域A2、A2の向きや配置は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、画像I内で横向きの顔を表現する場合には、二つの主要部対応領域A2、A2が縦に並ぶように特定しても良い。   Note that the orientation and arrangement of the two main part corresponding regions A2 and A2 described above are merely examples, and are not limited thereto, and can be arbitrarily changed as appropriate. For example, when a landscape face is represented in the image I, the two main part corresponding areas A2 and A2 may be specified so as to be arranged vertically.

第2主要部設定部(第2設定手段)5gは、領域特定部5fにより特定された主要部対応領域A2を他の主要部の動作処理対象として設定する。すなわち、第2主要部設定部5gは、領域特定部5fにより特定された主要部対応領域A2に他の主要部を表す画像(第2主要部画像P2)を重畳させるように設定する。
例えば、領域特定部5fにより画像I内で一の主要部対応領域A2が特定された場合には、第2主要部設定部5gは、特定された一の主要部対応領域A2を口(他の主要部)の動作処理対象として設定する。具体的には、第2主要部設定部5gは、記憶部3から口に対応する顔主要部画像データ3cを読み出して取得し、口を表す第2主要部画像P2が一の主要部対応領域A2内に収まり、且つ、第2主要部画像P2の中心と一の主要部対応領域A2の中心とが重なるように当該第2主要部画像P2の大きさや位置を設定する(図5(b)参照)。
また、例えば、領域特定部5fにより画像I内で二つの主要部対応領域A2、A2が特定された場合には、第2主要部設定部5gは、特定された二つの主要部対応領域A2、A2を左右の両目(他の主要部)の動作処理対象として設定する。具体的には、第2主要部設定部5gは、記憶部3から左右の両目に対応する顔主要部画像データ3cを読み出して取得し、左右の両目を表す各第2主要部画像P2が二つの主要部対応領域A2、A2内に収まり、且つ、各第2主要部画像P2の中心と二つの主要部対応領域A2、A2のそれぞれの中心とが重なるように当該第2主要部画像P2の大きさや位置を設定する(図6(b)参照)。
The second main part setting unit (second setting means) 5g sets the main part corresponding area A2 specified by the area specifying part 5f as an operation processing target of another main part. That is, the second main part setting unit 5g performs setting so that an image representing the other main part (second main part image P2) is superimposed on the main part corresponding area A2 specified by the area specifying unit 5f.
For example, when one main part corresponding area A2 is specified in the image I by the area specifying part 5f, the second main part setting part 5g uses the specified one main part corresponding area A2 as a mouth (other It is set as the operation processing target of the main part. Specifically, the second main part setting unit 5g reads and acquires the face main part image data 3c corresponding to the mouth from the storage unit 3, and the second main part image P2 representing the mouth is one main part corresponding region. The size and position of the second main part image P2 are set so that they fall within A2 and the center of the second main part image P2 and the center of one main part corresponding region A2 overlap (FIG. 5B). reference).
Further, for example, when the two main part corresponding areas A2 and A2 are specified in the image I by the area specifying unit 5f, the second main part setting unit 5g includes the two specified main part corresponding areas A2, A2 is set as an operation processing target for both the left and right eyes (other main parts). Specifically, the second main part setting unit 5g reads out and acquires the face main part image data 3c corresponding to the left and right eyes from the storage unit 3, and each second main part image P2 representing both the left and right eyes is stored in two. Of the second main part image P2 so that it falls within one main part corresponding area A2, A2 and the center of each second main part image P2 and the center of each of the two main part corresponding areas A2, A2 overlap. The size and position are set (see FIG. 6B).

なお、第1主要部設定部5eや第2主要部設定部5gにより設定された内容は、所定の格納手段(例えば、メモリ2等)に出力されて一時的に格納されても良い。
さらに、主要部として目や口を例示したが、一例であってこれに限られるものではなく、例えば、鼻、眉、顔輪郭等の他の主要部であっても良い。
The contents set by the first main part setting unit 5e and the second main part setting unit 5g may be output to predetermined storage means (for example, the memory 2) and temporarily stored.
Furthermore, although eyes and mouths are illustrated as the main parts, this is an example, and the present invention is not limited to this. For example, other main parts such as a nose, eyebrows, and a face outline may be used.

動作生成部5hは、画像I内で主要部(例えば、左右の両目や口等)を動作させるための動作データを生成する。
具体的には、動作生成部5hは、例えば、第1主要部設定部5eにより設定された第1主要部画像P1に係る主要部や第2主要部設定部5gにより設定された第2主要部画像P2に係る他の主要部に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、第1主要部設定部5eや第2主要部設定部5gにより設定された処理対象となる画像I内での第1主要部画像P1や第2主要部画像P2の大きさや位置を示す情報と、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報とを対応付けて当該第1主要部画像P1や第2主要部画像P2の動作データを生成する。
なお、動作生成部5hにより生成された動作データは、所定の格納手段(例えば、メモリ2等)に出力されて一時的に格納されても良い。
The motion generation unit 5h generates motion data for operating the main part (for example, both the left and right eyes and the mouth) in the image I.
Specifically, the motion generation unit 5h is, for example, the main part related to the first main part image P1 set by the first main part setting unit 5e or the second main part set by the second main part setting unit 5g. The reference motion data 3b corresponding to the other main part related to the image P2 is read from the storage unit 3 and acquired. Then, the motion generation unit 5h includes the first main part image P1 and the second main part image P2 in the image I to be processed set by the first main part setting unit 5e and the second main part setting unit 5g. The information indicating the size and position and the information indicating the movements of a plurality of control points in the predetermined space defined in the reference motion data 3b are associated with each other in the first main image P1 and the second main image P2. Generate motion data.
The motion data generated by the motion generation unit 5h may be output to a predetermined storage unit (for example, the memory 2) and temporarily stored.

動作制御部5iは、画像I内で主要部を動作させる。
すなわち、動作制御部(動作制御手段)5iは、画像取得部5aにより取得された画像I内で、第1主要部設定部5eにより設定された主要部を表す画像(第1主要部画像P1)や第2主要部設定部5gにより設定された他の主要部を表す画像(第2主要部画像P2)を動作させる。具体的には、動作制御部5iは、動作生成部5hにより生成された処理対象となる主要部を表す第1主要部画像P1の動作データや他の主要部を表す第2主要部画像P2の動作データを取得して、取得された動作データに規定されている複数の制御点の動きを示す情報に基づいて複数の制御点を変位させることで、当該第1主要部画像P1や第2主要部画像P2を動作させる動作処理を行う。
なお、画像I内に第1主要部画像P1や第2主要部画像P2を重畳させて動作させる処理は、例えば、アルファブレンディング等を用いて行われるが、公知の技術であるので、ここでは詳細な説明を省略する。
The operation control unit 5 i operates the main part in the image I.
That is, the motion control unit (motion control means) 5i represents an image (first main part image P1) representing the main part set by the first main part setting part 5e in the image I acquired by the image acquisition part 5a. And an image representing the other main part set by the second main part setting unit 5g (second main part image P2) is operated. Specifically, the motion control unit 5i generates the motion data of the first main part image P1 representing the main part to be processed generated by the motion generation unit 5h and the second main part image P2 representing the other main part. By acquiring the operation data and displacing the plurality of control points based on the information indicating the movement of the plurality of control points defined in the acquired operation data, the first main image P1 and the second main image An operation process for operating the partial image P2 is performed.
Note that the processing for superimposing the first main part image P1 and the second main part image P2 in the image I is performed using, for example, alpha blending or the like. The detailed explanation is omitted.

表示部6は、例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)等のディスプレイから構成され、表示制御部7の制御下にて各種情報を表示画面に表示する。   The display unit 6 includes a display such as an LCD (Liquid Crystal Display) and a CRT (Cathode Ray Tube), and displays various types of information on the display screen under the control of the display control unit 7.

表示制御部7は、表示用データを生成して表示部6の表示画面に表示させる制御を行う。
具体的には、表示制御部7は、例えば、GPU(Graphics Processing Unit)やVRAM(Video Random Access Memory)等を具備するビデオカード(図示略)を備えている。そして、表示制御部7は、中央制御部1からの表示指示に従って、動作処理にて主要部を動作させるための各種画面の表示用データをビデオカードによる描画処理によって生成し、表示部6に出力する。これにより、表示部6は、例えば、動作処理にて主要部(例えば、目や口等)を表す主要部画像Pを動作させるように変形させたコンテンツを表示する。
The display control unit 7 performs control to generate display data and display it on the display screen of the display unit 6.
Specifically, the display control unit 7 includes a video card (not shown) including, for example, a GPU (Graphics Processing Unit), a VRAM (Video Random Access Memory), and the like. Then, in accordance with the display instruction from the central control unit 1, the display control unit 7 generates display data for various screens for operating the main part in the operation process by drawing processing using a video card, and outputs it to the display unit 6. To do. Thereby, the display part 6 displays the content deform | transformed so that the principal part image P showing a principal part (for example, eyes, a mouth, etc.) by operation | movement processing might be operated, for example.

<動作処理>
次に、動作処理について図2〜図7を参照して説明する。
図2は、動作処理に係る動作の一例を示すフローチャートである。
<Operation processing>
Next, the operation process will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the operation process.

図2に示すように、先ず、動作処理部5の画像取得部5aは、例えば、記憶部3に記憶されている所定数の画像データ3aの中で、ユーザによる操作入力部4の所定操作に基づいて指定されたユーザ所望の画像データ3aを取得する(ステップS1)。
次に、動作処理部5は、画像取得部5aにより取得された画像データの画像I内で顔の主要部を設定する主要部設定処理(図3参照)を行う(ステップS2)。
As shown in FIG. 2, first, the image acquisition unit 5 a of the motion processing unit 5 performs, for example, a predetermined operation of the operation input unit 4 by the user among a predetermined number of image data 3 a stored in the storage unit 3. The user-desired image data 3a designated based on this is acquired (step S1).
Next, the motion processing unit 5 performs a main part setting process (see FIG. 3) for setting the main part of the face in the image I of the image data acquired by the image acquisition unit 5a (step S2).

<主要部設定処理>
以下に、主要部設定処理について図3を参照して詳細に説明する。
図3は、主要部設定処理に係る動作の一例を示すフローチャートである。
<Main part setting process>
The main part setting process will be described in detail below with reference to FIG.
FIG. 3 is a flowchart showing an example of an operation related to the main part setting process.

図3に示すように、先ず、顔検出部5bは、画像取得部5aにより取得された処理対象の画像Iの画像データから顔が含まれる顔領域を検出する処理を行う(ステップS11)。具体的には、顔検出部5bは、例えば、画像I内で、左右の両目及び口に相当する部分として、三つの円形又は多角形の形状部分B、…の各々の中心が三角形の頂点の位置に配置されている位置関係を有する領域を探索し、探索された領域の評価値が所定の閾値よりも高く、且つ、最も高い評価値の三つの円形又は多角形の形状部分B、…を有する領域をその物体の顔領域として検出する。   As shown in FIG. 3, first, the face detection unit 5b performs a process of detecting a face region including a face from the image data of the image I to be processed acquired by the image acquisition unit 5a (step S11). Specifically, the face detection unit 5b, for example, in the image I, as a part corresponding to the left and right eyes and mouth, each of the three circular or polygonal shape parts B,. A region having a positional relationship that is arranged at a position is searched, and three circular or polygonal shape portions B with the evaluation value of the searched region being higher than a predetermined threshold value and the highest evaluation value are obtained. A region having the same is detected as a face region of the object.

続けて、顔検出部5bは、顔領域を検出したか否かを判定する(ステップS12)。
ここで、顔領域が検出されたと判定されると(ステップS12;YES)、顔主要部検出部5cは、処理対象の画像Iから顔の主要部(例えば、左右の両目や口等)を検出する処理を行う(ステップS13)。具体的には、顔主要部検出部5cは、例えば、顔検出部5bによる顔領域の検出処理にて所定の閾値以上の評価値が算出された場合、三つの円形又は多角形の形状部分B、…をその物体の左右の両目及び口として検出する(図4(b)参照)。
Subsequently, the face detection unit 5b determines whether or not a face area has been detected (step S12).
If it is determined that a face area has been detected (step S12; YES), the face main part detection unit 5c detects the main part of the face (for example, left and right eyes and mouth) from the image I to be processed. Is performed (step S13). Specifically, the face main part detection unit 5c, for example, if an evaluation value equal to or greater than a predetermined threshold is calculated in the face area detection processing by the face detection unit 5b, the three circular or polygonal shape parts B ,... Are detected as the left and right eyes and mouth of the object (see FIG. 4B).

次に、顔主要部検出部5cは、顔の主要部を検出したか否かを判定する(ステップS14)。
ここで、顔の主要部が検出されたと判定されると(ステップS14;YES)、動作処理部5は、検出された顔の主要部を動作対象として利用することができ、例えば、所定の抽出処理(例えば、エッジ抽出処理等)を用いて主要部(例えば、左右の両目及び口等)を抽出して主要部抽出画像Qを生成する(ステップS15)。
なお、上記のエッジ抽出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
Next, the face main part detection unit 5c determines whether or not the main part of the face has been detected (step S14).
Here, if it is determined that the main part of the face has been detected (step S14; YES), the motion processing unit 5 can use the detected main part of the face as an operation target. A main part extracted image Q is generated by extracting a main part (for example, both left and right eyes and a mouth) using processing (for example, edge extraction process) (step S15).
Note that the above-described edge extraction processing is a known technique, and thus detailed description thereof is omitted here.

一方、ステップS14にて、顔の主要部が検出されていないと判定されると(ステップS14;NO)、領域検出部5dは、画像I内で主要部相当領域A1を検出する処理を行う(ステップS16)。具体的には、領域検出部5dは、例えば、処理対象の画像Iの画像データに対して所定の画像処理(例えば、Hough変換処理等)を行って、画像I内の円形又は多角形をなす領域を主要部相当領域A1として検出する。
また、ステップS12にて、顔領域が検出されていないと判定(ステップS12;NO)された場合にも、領域検出部5dは、処理をステップS14に移行して、主要部相当領域A1を検出する処理を行う。
On the other hand, if it is determined in step S14 that the main part of the face has not been detected (step S14; NO), the area detection unit 5d performs a process of detecting the main part equivalent area A1 in the image I ( Step S16). Specifically, the region detection unit 5d performs, for example, predetermined image processing (for example, Hough conversion processing) on the image data of the image I to be processed to form a circle or a polygon in the image I. The area is detected as the main part equivalent area A1.
Even when it is determined in step S12 that the face area is not detected (step S12; NO), the area detection unit 5d moves the process to step S14 and detects the main part equivalent area A1. Perform the process.

続けて、動作処理部5は、検出された主要部相当領域A1の数に応じて処理を分岐する(ステップS17)。すなわち、動作処理部5は、主要部相当領域A1の検出数が二つの場合(ステップS17;二つ)、処理をステップS181に移行し、主要部相当領域A1の検出数が一つの場合(ステップS17;一つ)、処理をステップS191に移行し、主要部相当領域A1の検出数が0(ゼロ)の場合(ステップS17;0)、処理をステップS201に移行する。   Subsequently, the operation processing unit 5 branches the process according to the number of detected main part equivalent regions A1 (step S17). That is, when the number of detected main part equivalent areas A1 is two (step S17; two), the operation processing unit 5 shifts the process to step S181, and when the number of detected main part equivalent areas A1 is one (step S17). S17; one), the process proceeds to step S191, and when the number of detected main part equivalent area A1 is 0 (zero) (step S17; 0), the process proceeds to step S201.

<検出数;二つ>
領域検出部5dにより二つの主要部相当領域A1、A1が検出された場合(ステップS17;二つ)、第1主要部設定部5eは、検出された二つの主要部相当領域A1、A1を左右の両目(主要部)の動作処理対象として設定する(ステップS181;図5(a)参照)。具体的には、第1主要部設定部5eは、記憶部3から左右の両目に対応する顔主要部画像データ3cを読み出して取得し、左右の両目を表す各第1主要部画像P1が二つの主要部相当領域A1、A1内に配置されるように当該第1主要部画像P1の大きさや位置を設定する(図5(b)参照)。
<Number of detections; two>
When two main part equivalent areas A1 and A1 are detected by the area detection unit 5d (step S17; two), the first main part setting part 5e moves the two main part equivalent areas A1 and A1 left and right. Is set as an operation processing target for both eyes (main part) (step S181; see FIG. 5A). Specifically, the first main part setting unit 5e reads out and acquires the face main part image data 3c corresponding to the left and right eyes from the storage unit 3, and each of the first main part images P1 representing the left and right eyes has two. The size and position of the first main part image P1 are set so as to be arranged in the two main part equivalent areas A1 and A1 (see FIG. 5B).

次に、領域特定部5fは、画像I内で口に対応する一の主要部対応領域A2を特定する(ステップS182;図5(a)参照)。具体的には、領域特定部5fは、二つの主要部相当領域A1、A1の画像I内での位置関係や大きさ等を基準として、画像I内で口に対応する一の主要部対応領域A2を特定する。
続けて、第2主要部設定部5gは、特定された一の主要部対応領域A2を口(他の主要部)の動作処理対象として設定する(ステップS183)。具体的には、第2主要部設定部5gは、記憶部3から口に対応する顔主要部画像データ3cを読み出して取得し、口を表す第2主要部画像P2が一の主要部対応領域A2内に配置されるように当該第2主要部画像P2の大きさや位置を設定する(図5(b)参照)。
Next, the area specifying unit 5f specifies one main part corresponding area A2 corresponding to the mouth in the image I (step S182; see FIG. 5A). Specifically, the area specifying unit 5f uses one main part corresponding area corresponding to the mouth in the image I based on the positional relationship, size, and the like in the image I of the two main part equivalent areas A1 and A1. A2 is specified.
Subsequently, the second main part setting unit 5g sets the specified one main part corresponding area A2 as an operation processing target of the mouth (other main part) (step S183). Specifically, the second main part setting unit 5g reads and acquires the face main part image data 3c corresponding to the mouth from the storage unit 3, and the second main part image P2 representing the mouth is one main part corresponding region. The size and position of the second main part image P2 are set so as to be arranged in A2 (see FIG. 5B).

なお、ステップS16にて、三つ以上の主要部相当領域A1、…が検出された場合には、第1主要部設定部5eは、検出された三つ以上の主要部相当領域A1、…の大きさや画像I内での位置関係を考慮して、これらの主要部相当領域A1、…の中から何れか二つの主要部相当領域A1、A1を自動的に指定しても良いし、ユーザによる操作入力部4の所定操作に基づいてユーザ所望の二つの主要部相当領域A1、A1を指定しても良い。   When three or more main part equivalent areas A1,... Are detected in step S16, the first main part setting part 5e determines the detected three or more main part equivalent areas A1,. In consideration of the size and the positional relationship in the image I, any two main part equivalent areas A1, A1 may be automatically designated from these main part equivalent areas A1,. Based on a predetermined operation of the operation input unit 4, the user-desired two main part equivalent areas A1 and A1 may be designated.

<検出数;一つ>
領域検出部5dにより一の主要部相当領域A1が検出された場合(ステップS17;一つ)、第1主要部設定部5eは、検出された一の主要部相当領域A1を口(主要部)の動作処理対象として設定する(ステップS191;図6(a)参照)。具体的には、第1主要部設定部5eは、記憶部3から口に対応する顔主要部画像データ3cを読み出して取得し、口を表す第1主要部画像P1が一の主要部相当領域A1内に配置されるように当該第1主要部画像P1の大きさや位置を設定する(図6(b)参照)。
<Number of detections: 1>
When one main part equivalent area A1 is detected by the area detection unit 5d (step S17; one), the first main part setting part 5e uses the detected one main part equivalent area A1 as a mouth (main part). Is set as an operation processing target (step S191; see FIG. 6A). Specifically, the first main part setting unit 5e reads out and acquires the face main part image data 3c corresponding to the mouth from the storage unit 3, and the first main part image P1 representing the mouth is one main part equivalent region. The size and position of the first main part image P1 are set so as to be arranged in A1 (see FIG. 6B).

次に、領域特定部5fは、画像I内で左右の両目に対応する二つの主要部対応領域A2、A2を特定する(ステップS192;図6(a)参照)。具体的には、領域特定部5fは、一の主要部相当領域A1の画像I内での位置関係や大きさ等を基準として、画像I内で左右の両目に対応する二つの主要部対応領域A2、A2を特定する。
続けて、第2主要部設定部5gは、特定された二つの主要部対応領域A2、A2を左右の両目(他の主要部)の動作処理対象として設定する(ステップS193)。具体的には、第2主要部設定部5gは、記憶部3から左右の両目に対応する顔主要部画像データ3cを読み出して取得し、左右の両目を表す各第2主要部画像P2が二つの主要部対応領域A2、A2内に配置されるように当該第2主要部画像P2の大きさや位置を設定する(図6(b)参照)。
Next, the area specifying unit 5f specifies two main part corresponding areas A2 and A2 corresponding to the left and right eyes in the image I (step S192; see FIG. 6A). Specifically, the area specifying unit 5f uses two main part corresponding areas corresponding to both the left and right eyes in the image I based on the positional relationship, size, and the like in the image I of the one main part equivalent area A1. A2 and A2 are specified.
Subsequently, the second main part setting unit 5g sets the two specified main part corresponding areas A2 and A2 as the operation processing targets of the left and right eyes (other main parts) (step S193). Specifically, the second main part setting unit 5g reads out and acquires the face main part image data 3c corresponding to the left and right eyes from the storage unit 3, and each second main part image P2 representing both the left and right eyes is stored in two. The size and position of the second main part image P2 are set so as to be arranged in the two main part corresponding areas A2 and A2 (see FIG. 6B).

<検出数;0>
領域検出部5dにより主要部相当領域A1が一つも検出されなかった場合(ステップS17;0)、領域検出部5dは、処理対象の画像Iの画像データに対して所定の画像処理(例えば、エッジ検出処理等)を行って、画像I内からエッジが存在しない最も広い領域を顔領域Cとして検出する(ステップS201;図7(a)参照)。
続けて、動作処理部5は、検出された顔領域C内で、当該顔領域Cの大きさや例えば、左右の両目や口等の主要部の位置関係を考慮して、左右の両目及び口等(主要部)の動作処理対象を設定する(ステップS202;図7(b)参照)。具体的には、動作処理部5は、顔領域C内に、左右の両目や口を表す主要部画像Pが配置されるように当該主要部画像Pの大きさや位置を設定する。
<Number of detections: 0>
When no region corresponding to the main portion A1 is detected by the region detection unit 5d (step S17; 0), the region detection unit 5d performs predetermined image processing (for example, edge processing) on the image data of the image I to be processed. Detection process or the like) is performed to detect the widest area where no edge exists from the image I as the face area C (step S201; see FIG. 7A).
Subsequently, in the detected face area C, the motion processing unit 5 considers the size of the face area C and the positional relationship of the main parts such as the left and right eyes and mouth, and the left and right eyes and mouth. The operation processing target of (main part) is set (step S202; refer to FIG. 7B). Specifically, the motion processing unit 5 sets the size and position of the main image P so that the main image P representing both the left and right eyes and the mouth is arranged in the face area C.

図2に戻り、動作生成部5hは、画像I内で主要部(例えば、左右の両目や口等)を動作させるための動作データを生成する(ステップS3)。
具体的には、例えば、主要部相当領域A1の検出数が二つの場合(ステップS17;二つ)、動作生成部5hは、第1主要部設定部5eにより設定された左右の両目に対応する基準動作データ3bを記憶部3から読み出して取得するとともに、第2主要部設定部5gにより設定された口に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、処理対象となる画像I内での左右の両目の第1主要部画像P1や口の第2主要部画像P2の大きさや位置を示す情報と、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報とを対応付けて当該第1主要部画像P1や第2主要部画像P2の動作データを生成する。
また、例えば、主要部相当領域A1の検出数が一つの場合(ステップS17;一つ)、動作生成部5hは、第1主要部設定部5eにより設定された口に対応する基準動作データ3bを記憶部3から読み出して取得するとともに、第2主要部設定部5gにより設定された左右の両目に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、処理対象となる画像I内での口の第1主要部画像P1や左右の両目の第2主要部画像P2の大きさや位置を示す情報と、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報とを対応付けて当該第1主要部画像P1や第2主要部画像P2の動作データを生成する。
また、例えば、主要部相当領域A1の検出数が0(ゼロ)の場合(ステップS17;0)、動作生成部5hは、顔領域C内に主要部画像Pが設定された左右の両目や口に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、処理対象となる画像I内での左右の両目や口の主要部画像Pの大きさや位置を示す情報と、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報とを対応付けて当該主要部画像Pの動作データを生成する。
Returning to FIG. 2, the motion generation unit 5 h generates motion data for operating the main part (for example, both the left and right eyes and the mouth) in the image I (step S <b> 3).
Specifically, for example, when the number of detections in the main part equivalent area A1 is two (step S17; two), the motion generation unit 5h corresponds to both the left and right eyes set by the first main part setting unit 5e. The reference motion data 3b is read out and acquired from the storage unit 3, and the reference motion data 3b corresponding to the mouth set by the second main unit setting unit 5g is read out and acquired from the storage unit 3. Then, the motion generation unit 5h includes information indicating the size and position of the first main image P1 of the left and right eyes and the second main image P2 of the mouth in the image I to be processed, and the reference operation data 3b. The motion data of the first main part image P1 and the second main part image P2 is generated by associating with information indicating the movement of a plurality of control points in the prescribed space.
Further, for example, when the number of detections in the main part equivalent area A1 is one (step S17; one), the action generation unit 5h uses the reference action data 3b corresponding to the mouth set by the first main part setting unit 5e. While reading out and acquiring from the memory | storage part 3, the reference action data 3b corresponding to both the left and right eyes set by the 2nd main part setting part 5g is read out and acquired from the memory | storage part 3. FIG. Then, the motion generation unit 5h includes information indicating the size and position of the first main part image P1 of the mouth and the second main part image P2 of the left and right eyes in the image I to be processed, and the reference operation data 3b. The motion data of the first main part image P1 and the second main part image P2 is generated by associating with information indicating the movement of a plurality of control points in the prescribed space.
Further, for example, when the number of detections of the main part equivalent area A1 is 0 (zero) (step S17; 0), the motion generation unit 5h includes the left and right eyes and mouths in which the main part image P is set in the face area C. The reference motion data 3b corresponding to is read out from the storage unit 3 and acquired. The motion generation unit 5h includes a plurality of pieces of information in the predetermined space defined in the reference motion data 3b and information indicating the size and position of the left and right eyes and the main image P of the mouth in the image I to be processed. The motion data of the main part image P is generated in association with the information indicating the movement of the control point.

なお、ステップS14にて、顔の主要部が検出されたと判定(ステップS14;YES)されて、主要部が抽出された場合には(ステップS15)、動作生成部5hは、抽出された主要部に対応する基準動作データ3bを記憶部3から読み出して取得する。そして、動作生成部5hは、主要部抽出画像Qの所定位置に複数の制御点を設定するとともに、基準動作データ3bに規定されている所定空間内における複数の制御点の動きを示す情報と対応付けて当該主要部抽出画像Qの動作データを生成する。   When it is determined in step S14 that the main part of the face has been detected (step S14; YES) and the main part is extracted (step S15), the motion generation unit 5h extracts the extracted main part. The reference motion data 3b corresponding to is read out from the storage unit 3 and acquired. Then, the motion generation unit 5h sets a plurality of control points at predetermined positions in the main part extracted image Q, and corresponds to information indicating the movements of the plurality of control points in the predetermined space defined in the reference motion data 3b. In addition, operation data of the main part extracted image Q is generated.

また、動作生成部5hにより生成された動作データは、所定の格納手段(例えば、メモリ2等)に出力されて一時的に格納されても良い。   Further, the operation data generated by the operation generation unit 5h may be output to a predetermined storage unit (for example, the memory 2) and temporarily stored.

次に、動作制御部5iは、動作データに基づいて画像I内で主要部を動作させる処理を行う(ステップS4)。具体的には、動作制御部5iは、例えば、動作生成部5hにより生成された主要部や他の主要部を表す第1主要部画像P1や第2主要部画像P2の動作データの動作データを取得して、取得された動作データに規定されている複数の制御点の動きを示す情報に基づいて複数の制御点を変位させることで、当該第1主要部画像P1や第2主要部画像P2を動作させる動作処理を行う。
また、動作生成部5hにより主要部画像Pの動作データや主要部抽出画像Qの動作データが生成された場合も、動作制御部5iは、略同様に、取得された動作データに規定されている複数の制御点の動きを示す情報に基づいて複数の制御点を変位させることで、主要部画像Pや主要部抽出画像Qを動作させる動作処理を行う。
Next, the operation control unit 5i performs a process of operating the main part in the image I based on the operation data (step S4). Specifically, for example, the motion control unit 5i obtains motion data of motion data of the first main part image P1 and the second main part image P2 representing the main part and other main parts generated by the action generation unit 5h. The first main part image P1 and the second main part image P2 are acquired by displacing the plurality of control points based on the information indicating the movements of the plurality of control points defined in the acquired operation data. The operation process that operates is performed.
In addition, even when motion data of the main part image P or motion data of the main part extracted image Q is generated by the motion generation unit 5h, the motion control unit 5i is defined in the acquired motion data in a similar manner. By displacing the plurality of control points based on the information indicating the movement of the plurality of control points, an operation process for operating the main part image P and the main part extracted image Q is performed.

以上のように、本実施形態の画像処理装置100によれば、取得された画像I内で顔の主要部の形状に相当する主要部相当領域(例えば、画像I内の円形又は多角形をなす領域等)A1を検出して、検出された主要部相当領域A1を何れかの主要部の動作処理対象として設定するので、例えば、顔が含まれていない画像I、顔検出や顔の主要部の検出精度が低い画像Iを処理対象としても、処理対象の画像I内に主要部を設定することができ、当該主要部を動作させることができる。具体的には、主要部相当領域A1に主要部を表す第1主要部画像P1を重畳させるように設定して、画像I内で第1主要部画像P1を変形動作させることで、動きを適正に表現することができる。
このように、顔が含まれない画像Iに対しても顔の主要部を設定することができる。
As described above, according to the image processing apparatus 100 of the present embodiment, a main part equivalent region (for example, a circle or a polygon in the image I) corresponding to the shape of the main part of the face in the acquired image I is formed. Area etc.) Since A1 is detected and the detected main part equivalent area A1 is set as an operation processing target of any main part, for example, image I that does not include a face, face detection or main part of the face Even if the image I with low detection accuracy is set as the processing target, the main part can be set in the image I to be processed, and the main part can be operated. Specifically, the first main part image P1 representing the main part is set to be superimposed on the main part equivalent area A1, and the first main part image P1 is deformed in the image I so that the movement is appropriate. Can be expressed in
In this way, the main part of the face can be set even for the image I that does not include the face.

また、画像I内で検出された主要部相当領域A1の位置を基準として、他の主要部に対応する主要部対応領域A2を特定し、特定された主要部対応領域A2を他の主要部の動作処理対象として設定することができる。
具体的には、例えば、画像I内で主要部として検出された左右の両目に対応する二つの主要部相当領域A1、A1の位置を基準として、他の主要部としての口に対応する主要部対応領域A2を特定するので、画像I内で左右の両目に対応する二つの主要部相当領域A1、A1のみが設定された場合であっても、口に対応する主要部対応領域A2を特定することができ、特定された主要部対応領域A2を口の動作処理対象として設定して口を動作させることができる。また、画像I内で主要部として検出された口に対応する一の主要部相当領域A1の位置を基準として、他の主要部としての目に対応する主要部対応領域A2を特定するので、画像I内で口に対応する主要部相当領域A1のみが設定された場合であっても、目に対応する主要部対応領域A2を特定することができ、特定された主要部対応領域A2を目の動作処理対象として設定して目を動作させることができる。
このとき、主要部相当領域A1に主要部を表す第1主要部画像P1を重畳させるように設定するとともに主要部対応領域A2に他の主要部を表す第2主要部画像P2を重畳させるように設定して、画像I内で第1主要部画像P1及び第2主要部画像P2を変形動作させることで、動きを適正に表現することができる。
Further, with reference to the position of the main part equivalent area A1 detected in the image I, the main part corresponding area A2 corresponding to the other main part is specified, and the specified main part corresponding area A2 is set to the other main part. It can be set as an operation processing target.
Specifically, for example, the main part corresponding to the mouth as the other main part on the basis of the positions of the two main part equivalent areas A1 and A1 corresponding to the left and right eyes detected as the main part in the image I Since the corresponding area A2 is specified, the main part corresponding area A2 corresponding to the mouth is specified even when only two main part corresponding areas A1 and A1 corresponding to both the left and right eyes in the image I are set. The specified main part corresponding area A2 can be set as a mouth motion processing target and the mouth can be operated. Further, since the main part corresponding area A2 corresponding to the eyes as the other main part is specified on the basis of the position of one main part corresponding area A1 corresponding to the mouth detected as the main part in the image I, the image Even when only the main part corresponding area A1 corresponding to the mouth is set in I, the main part corresponding area A2 corresponding to the eyes can be specified. The eye can be operated by setting it as an operation processing target.
At this time, the first main part image P1 representing the main part is set to be superimposed on the main part equivalent area A1, and the second main part image P2 representing the other main part is superimposed on the main part corresponding area A2. By setting and performing a deformation operation on the first main part image P1 and the second main part image P2 in the image I, the motion can be appropriately expressed.

また、処理対象の画像Iから顔が検出されなかった場合に、当該画像I内で顔の主要部の形状に相当する主要部相当領域A1を検出するので、顔が含まれていない画像Iや顔検出の検出精度が低い画像Iを処理対象としても、顔の検出処理の結果に応じて処理対象の画像I内に主要部の動作処理対象を設定することができる。すなわち、画像Iから高い精度で顔が検出された場合には、当該顔を利用可能となる一方、画像Iから顔が検出されなかった場合や顔の検出精度が低い場合には、画像I内で主要部相当領域A1を検出することで、検出された主要部相当領域A1を主要部の動作処理対象として設定して当該主要部を動作させることができる。
同様に、処理対象の画像Iから顔の主要部が検出されなかった場合に、当該画像I内で顔の主要部の形状に相当する主要部相当領域A1を検出するので、主要部の検出精度が低い画像Iを処理対象としても、主要部の検出処理の結果に応じて処理対象の画像I内に主要部の動作処理対象を設定することができる。すなわち、画像Iから高い精度で顔の主要部が検出された場合には、当該主要部を利用可能となる一方、主要部の検出精度が低い場合には、画像I内で主要部相当領域A1を検出することで、検出された主要部相当領域A1を主要部の動作処理対象として設定して当該主要部を動作させることができる。
In addition, when a face is not detected from the image I to be processed, the main part corresponding area A1 corresponding to the shape of the main part of the face is detected in the image I. Even if an image I with low detection accuracy of face detection is set as a processing target, an operation processing target of a main part can be set in the processing target image I according to the result of the face detection processing. That is, when a face is detected from the image I with high accuracy, the face can be used. On the other hand, when a face is not detected from the image I or when the face detection accuracy is low, By detecting the main part equivalent area A1, it is possible to set the detected main part equivalent area A1 as an operation processing target of the main part and operate the main part.
Similarly, when the main part of the face is not detected from the image I to be processed, the main part equivalent area A1 corresponding to the shape of the main part of the face is detected in the image I, so that the detection accuracy of the main part is detected. Even if the image I having a low value is set as the processing target, the operation processing target of the main part can be set in the processing target image I according to the result of the detection process of the main part. That is, when the main part of the face is detected from the image I with high accuracy, the main part can be used. On the other hand, when the detection accuracy of the main part is low, the main part equivalent area A1 in the image I is used. By detecting this, the detected main part equivalent area A1 can be set as an operation processing target of the main part and the main part can be operated.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
また、上記実施形態にあっては、画像処理装置100単体から構成するようにしたが、一例であってこれに限られるものではなく、例えば、人物、キャラクタ、動物等の投影対象物が商品等の説明を行う映像コンテンツをスクリーンに投影する投影システム(図示略)に適用した構成であっても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
In the above embodiment, the image processing apparatus 100 is configured as a single unit. However, the image processing apparatus 100 is only an example, and the present invention is not limited thereto. For example, a projection target such as a person, a character, or an animal is a product or the like. The configuration may be applied to a projection system (not shown) that projects video content to be described on a screen.

さらに、上記実施形態にあっては、主要部や他の主要部を動作させるための動作データを生成するようにしたが、一例であってこれに限られるものではなく、必ずしも動作生成部5hを具備する必要はなく、例えば、第1主要部設定部5eや第2主要部設定部5gにより画像I内に設定された主要部や他の主要部の動作処理対象に係る情報を外部機器(図示略)に出力して、当該外部機器にて動作データを生成するようにしても良い。
また、主要部や他の主要部を動作させるようにしたが、一例であってこれに限られるものではなく、必ずしも動作制御部5iを具備する必要はなく、例えば、第1主要部設定部5eや第2主要部設定部5gにより画像I内に設定された主要部や他の主要部の動作処理対象に係る情報を外部機器(図示略)に出力して、当該外部機器にて制御条件に従って主要部や顔全体を動作させるようにしても良い。
Furthermore, in the above embodiment, the operation data for operating the main part and other main parts is generated. However, this is only an example, and the operation generation unit 5h is not necessarily limited to this. For example, information related to operation processing targets of the main part set in the image I by the first main part setting part 5e and the second main part setting part 5g and other main parts is not shown. The operation data may be generated by the external device.
Further, the main part and other main parts are operated. However, the main part and other main parts are only examples, and the present invention is not limited to this. The operation controller 5i is not necessarily provided. For example, the first main part setting unit 5e is used. Or the main part set in the image I by the second main part setting part 5g and information related to the operation processing target of the other main part are output to an external device (not shown), and the external device according to the control condition The main part or the entire face may be operated.

さらに、上記実施形態にあっては、処理対象の画像Iから顔の主要部が検出された場合には、検出された主要部を利用して動作させるようにしたが、一例であってこれに限られるものではなく、顔の主要部が検出された場合であっても、必ずしも当該主要部を利用する必要はない。
すなわち、例えば、検出された主要部を利用するか否かをユーザが操作入力部4の所定操作に基づいて選択可能な構成としても良い。さらに、予め、検出された主要部を利用して動作させるか、或いは、主要部相当領域A1を検出して当該主要部相当領域A1に主要部(第1主要部画像P1)を設定して動作させるかの何れかを決定しておいても良い。例えば、ユーザの嗜好が、画像I内の顔らしい部分を変形動作させたいか、或いは、画像I内のあまり顔らしくない部分を変形動作させたいかに応じて選択可能な構成としても良い。
Further, in the above embodiment, when the main part of the face is detected from the image I to be processed, the operation is performed using the detected main part. The present invention is not limited, and even when the main part of the face is detected, it is not always necessary to use the main part.
That is, for example, it may be configured such that the user can select whether or not to use the detected main part based on a predetermined operation of the operation input unit 4. Further, the operation is performed using the detected main part in advance, or the main part equivalent area A1 is detected and the main part (first main part image P1) is set in the main part equivalent area A1. It is also possible to determine either of them. For example, the configuration may be selectable depending on whether the user's preference is to perform a deforming operation on a part that looks like a face in the image I or to perform a deforming operation on a part that does not look like a face in the image I.

また、上記実施形態にあっては、画像I内で二つの主要部相当領域A1、A1と一の主要部対応領域A2を一の組として、或いは、一の主要部相当領域A1と二つの主要部対応領域A2、A2を一の組として、一の顔の動作を表現するようにしたが、一例であってこれに限られるものではなく、例えば、主要部相当領域A1及び主要部対応領域A2からなる組を複数用意して、画像I内にて複数の顔の動作を表現するようにしても良い。   In the above embodiment, in the image I, two main part equivalent areas A1 and A1 and one main part corresponding area A2 are set as one set, or one main part corresponding area A1 and two main part corresponding areas A1. The movement of one face is expressed with the part corresponding areas A2 and A2 as one set, but is not limited to this example. For example, the main part corresponding area A1 and the main part corresponding area A2 A plurality of sets may be prepared, and a plurality of face motions may be expressed in the image I.

また、上記実施形態にあっては、三つの円形又は多角形の形状部分の各々の中心が三角形の頂点の位置に配置されている主要部相当領域A1が検出された場合は左右の両目および口として、二つの主要部相当領域A1、A1が検出された場合は左右の両目として、一つの主要部相当領域A1が検出された場合は口として設定するようにしたが、一例であってこれに限られるものではない。例えば、三つ以上の主要部相当領域A1、…が検出された場合に、それらの全てを目のみに設定し、それらの各々に対応する主要部対応領域A2としての口を設定したり、又は、全てを口のみに設定し、それらの各々に対応する主要部対応領域A2としての目を設定するようにしてもよい。   In the above embodiment, when the main part equivalent area A1 in which the center of each of the three circular or polygonal shaped parts is arranged at the position of the apex of the triangle is detected, the left and right eyes and mouth When two main part equivalent areas A1 and A1 are detected, the left and right eyes are set, and when one main part equivalent area A1 is detected, it is set as a mouth. It is not limited. For example, when three or more main part equivalent areas A1,... Are detected, all of them are set to eyes only, and a mouth as a main part corresponding area A2 corresponding to each of them is set, or , All may be set to the mouth only, and the eye as the main part corresponding area A2 corresponding to each of them may be set.

さらに、画像処理装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。例えば、画像処理装置100は、音を出力するスピーカ(図示略)を備え、画像内で口を動作させる処理の際にリップシンクさせるようにスピーカから所定の音声を出力するような構成としても良い。このとき出力される音声のデータは、例えば、基準動作データ3bと対応付けられて記憶されていても良い。   Furthermore, the configuration of the image processing apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. For example, the image processing apparatus 100 may include a speaker (not shown) that outputs sound, and may output a predetermined sound from the speaker so as to perform lip sync during the process of operating the mouth in the image. . The audio data output at this time may be stored in association with the reference motion data 3b, for example.

また、上記実施形態にあっては、画像処理として主要部や他の主要部を動作させる動作処理を例示して、画像I内の主要部相当領域A1や主要部対応領域A2を主要部や他の主要部の動作処理対象として設定するようにしたが、一例であってこれに限られるものではなく、他の画像処理等に適宜任意に変更可能である。例えば、主要部相当領域A1や主要部対応領域A2に主要部や他の主要部を表す画像を置換して単に静止表示のみさせるような置換処理の処理対象としても良い。   In the above embodiment, the main part and other main parts are exemplified as image processing, and the main part equivalent area A1 and the main part corresponding area A2 in the image I are set to the main part and other parts. However, the present invention is not limited to this example, and can be arbitrarily changed as appropriate to other image processing or the like. For example, an image representing a main part or another main part may be replaced with the main part corresponding area A1 or the main part corresponding area A2 to be a processing target of a replacement process in which only static display is performed.

加えて、上記実施形態にあっては、取得手段、領域検出手段、第1設定手段としての機能を、画像処理装置100の中央制御部1の制御下にて、画像取得部5a、領域検出部5d、第1主要部設定部5eが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムを記憶するプログラムメモリに、取得処理ルーチン、領域検出処理ルーチン、設定処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、画像Iを取得する手段として機能させるようにしても良い。また、領域検出処理ルーチンにより中央制御部1のCPUを、取得された画像I内で顔の主要部の形状に相当する領域(主要部相当領域A1)を検出する手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部1のCPUを、検出された領域を何れかの主要部の画像処理対象として設定する手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions as the acquisition unit, the region detection unit, and the first setting unit are controlled under the control of the central control unit 1 of the image processing apparatus 100, the image acquisition unit 5a, the region detection unit. 5d is configured to be realized by driving the first main part setting unit 5e, but is not limited thereto, and is realized by executing a predetermined program or the like by the CPU of the central control unit 1. It is good also as a structure.
That is, a program including an acquisition process routine, an area detection process routine, and a setting process routine is stored in a program memory that stores the program. Then, the CPU of the central control unit 1 may function as a means for acquiring the image I by an acquisition processing routine. Further, the CPU of the central control unit 1 may function as means for detecting an area corresponding to the shape of the main part of the face (main part equivalent area A1) in the acquired image I by the area detection processing routine. good. Further, the CPU of the central control unit 1 may function as means for setting the detected area as an image processing target of any main part by the setting process routine.

同様に、特定手段、第2設定手段、動作制御手段、顔検出手段、主要部検出手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the specifying unit, the second setting unit, the operation control unit, the face detection unit, and the main part detection unit may be realized by executing a predetermined program or the like by the CPU of the central control unit 1. .

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
画像を取得する取得手段と、
前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出する領域検出手段と、
前記領域検出手段により検出された領域を何れかの主要部の画像処理対象として設定する第1設定手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記領域検出手段は、更に、前記画像内の円形又は多角形をなす領域を前記主要部の形状に相当する領域として検出することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記画像内で前記領域検出手段により検出された領域の位置を基準として、前記第1設定手段により設定された前記主要部以外の他の主要部に対応する領域を特定する特定手段と、
前記特定手段により特定された領域を前記他の主要部の画像処理対象として設定する第2設定手段と、を更に備えることを特徴とする請求項1又は2に記載の画像処理装置。
<請求項4>
前記第1設定手段は、更に、前記画像内で前記領域検出手段により検出されたそれぞれ円形又は多角形をなす二つの領域に左右の両目を前記主要部として設定し、
前記特定手段は、前記画像内で前記領域検出手段により検出された前記二つの領域の位置を基準として、前記他の主要部としての口に対応する領域を特定することを特徴とする請求項3に記載の画像処理装置。
<請求項5>
前記第1設定手段は、更に、前記画像内で前記領域検出手段により検出された円形又は多角形をなす一の領域に口を前記主要部として設定し、
前記特定手段は、前記画像内で前記領域検出手段により検出された前記一の領域の位置を基準として、前記他の主要部としての目に対応する領域を特定することを特徴とする請求項3に記載の画像処理装置。
<請求項6>
前記第1設定手段は、更に、前記領域検出手段により検出された領域に前記主要部を表す画像を重畳させるように設定することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記取得手段により取得された画像内で、前記第1設定手段により設定された前記主要部を表す画像を動作させる動作制御手段を更に備えることを特徴とする請求項6に記載の画像処理装置。
<請求項8>
前記第1設定手段は、更に、前記領域検出手段により検出された領域に前記主要部を表す画像を重畳させるように設定し、
前記第2設定手段は、前記特定手段により特定された領域に前記他の主要部を表す画像を重畳させるように設定することを特徴とする請求項3に記載の画像処理装置。
<請求項9>
前記取得手段により取得された画像内で、前記第1設定手段により設定された前記主要部を表す画像及び前記第2設定手段により設定された前記他の主要部を表す画像を動作させる動作制御手段を更に備えることを特徴とする請求項8に記載の画像処理装置。
<請求項10>
前記取得手段により取得された画像から顔を検出する顔検出手段を更に備え、
前記領域検出手段は、前記顔検出手段により顔が検出されなかった場合に、前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出することを特徴とする請求項1〜9の何れか一項に記載の画像処理装置。
<請求項11>
前記取得手段により取得された画像から顔の主要部を検出する主要部検出手段を更に備え、
前記領域検出手段は、前記主要部検出手段により前記主要部が検出されなかった場合に、前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出することを特徴とする請求項1〜10の何れか一項に記載の画像処理装置。
<請求項12>
画像処理装置を用いた画像処理方法であって、
画像を取得する処理と、
取得された画像内で顔の主要部の形状に相当する領域を検出する処理と、
検出された領域を何れかの主要部の画像処理対象として設定する処理と、
を含むことを特徴とする画像処理方法。
<請求項13>
画像処理装置のコンピュータを、
画像を取得する取得手段、
前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出する領域検出手段、
前記領域検出手段により検出された領域を何れかの主要部の画像処理対象として設定する第1設定手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
An acquisition means for acquiring an image;
Area detecting means for detecting an area corresponding to the shape of the main part of the face in the image acquired by the acquiring means;
First setting means for setting the area detected by the area detection means as an image processing target of any main part;
An image processing apparatus comprising:
<Claim 2>
The image processing apparatus according to claim 1, wherein the area detecting unit further detects a circular or polygonal area in the image as an area corresponding to the shape of the main part.
<Claim 3>
A specifying unit for specifying a region corresponding to a main part other than the main part set by the first setting unit with reference to a position of the region detected by the region detection unit in the image;
The image processing apparatus according to claim 1, further comprising: a second setting unit that sets an area specified by the specifying unit as an image processing target of the other main part.
<Claim 4>
The first setting means further sets both the left and right eyes as the main part in two areas each forming a circle or a polygon detected by the area detection means in the image,
The said specifying means specifies the area | region corresponding to the mouth as said other main part on the basis of the position of the said 2 area | region detected by the said area | region detection means in the said image. An image processing apparatus according to 1.
<Claim 5>
The first setting means further sets a mouth as the main part in one area forming a circle or a polygon detected by the area detection means in the image,
4. The specifying unit specifies a region corresponding to an eye as the other main part on the basis of a position of the one region detected by the region detecting unit in the image. An image processing apparatus according to 1.
<Claim 6>
The said 1st setting means is further set to superimpose the image showing the said principal part on the area | region detected by the said area | region detection means, The Claim 1 characterized by the above-mentioned. Image processing device.
<Claim 7>
The image processing apparatus according to claim 6, further comprising an operation control unit that operates an image representing the main part set by the first setting unit in the image acquired by the acquisition unit.
<Claim 8>
The first setting unit is further configured to superimpose an image representing the main part on the region detected by the region detection unit,
The image processing apparatus according to claim 3, wherein the second setting unit is configured to superimpose an image representing the other main part on an area specified by the specifying unit.
<Claim 9>
Operation control means for operating the image representing the main part set by the first setting means and the image representing the other main part set by the second setting means in the image obtained by the obtaining means. The image processing apparatus according to claim 8, further comprising:
<Claim 10>
A face detection unit for detecting a face from the image acquired by the acquisition unit;
The area detection unit detects an area corresponding to a shape of a main part of a face in an image acquired by the acquisition unit when a face is not detected by the face detection unit. The image processing apparatus according to any one of 1 to 9.
<Claim 11>
A main part detecting unit for detecting a main part of the face from the image acquired by the acquiring unit;
The area detecting means detects an area corresponding to the shape of the main part of the face in the image acquired by the acquiring means when the main part is not detected by the main part detecting means. The image processing apparatus according to claim 1.
<Claim 12>
An image processing method using an image processing apparatus,
Processing to acquire images,
Processing for detecting an area corresponding to the shape of the main part of the face in the acquired image;
A process of setting the detected area as an image processing target of any main part;
An image processing method comprising:
<Claim 13>
The computer of the image processing device
Acquisition means for acquiring images,
A region detecting unit for detecting a region corresponding to the shape of the main part of the face in the image acquired by the acquiring unit;
First setting means for setting the area detected by the area detecting means as an image processing target of any main part;
A program characterized by functioning as

100 画像処理装置
1 中央制御部
5 動作処理部
5a 画像取得部
5b 顔検出部
5c 顔主要部検出部
5d 領域検出部
5e 第1主要部設定部
5f 領域特定部
5g 第2主要部設定部
5h 動作生成部
5i 動作制御部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 1 Central control part 5 Operation processing part 5a Image acquisition part 5b Face detection part 5c Face main part detection part 5d Area detection part 5e First main part setting part 5f Area specification part 5g Second main part setting part 5h Generation unit 5i Operation control unit

Claims (14)

画像を取得する取得手段と、
前記取得手段により取得された画像内の顔画像を含まない領域から、顔の主要部の形状に相当する領域を検出する領域検出手段と、
前記領域検出手段により検出された領域を画像処理対象として設定する第1設定手段と、
を備えたことを特徴とする画像処理装置。
An acquisition means for acquiring an image;
A region detecting unit for detecting a region corresponding to the shape of the main part of the face from a region not including the face image in the image acquired by the acquiring unit;
A first setting means for setting a region detected by the region detecting means as images processed,
An image processing apparatus comprising:
前記第1設定手段は、前記領域検出手段により検出された領域を前記顔の主要部に関する画像処理対象として設定することを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the first setting unit sets an area detected by the area detection unit as an image processing target related to a main part of the face. 前記領域検出手段は、更に、前記画像内の円形又は多角形をなす領域を前記主要部の形状に相当する領域として検出することを特徴とする請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the area detection unit further detects a circular or polygonal area in the image as an area corresponding to the shape of the main part. 前記画像内で前記領域検出手段により検出された領域の位置を基準として、前記第1設定手段により設定された前記主要部以外の他の主要部に対応する領域を特定する特定手段と、
前記特定手段により特定された領域を前記他の主要部の画像処理対象として設定する第2設定手段と、を更に備えることを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
A specifying unit for specifying a region corresponding to a main part other than the main part set by the first setting unit with reference to a position of the region detected by the region detection unit in the image;
The image processing according to any one of claims 1 to 3, further comprising: a second setting unit that sets an area specified by the specifying unit as an image processing target of the other main part. apparatus.
前記第1設定手段は、更に、前記画像内で前記領域検出手段により検出されたそれぞれ円形又は多角形をなす二つの領域に左右の両目を前記主要部として設定し、
前記特定手段は、前記画像内で前記領域検出手段により検出された前記二つの領域の位置を基準として、前記他の主要部としての口に対応する領域を特定することを特徴とする請求項4に記載の画像処理装置。
The first setting means further sets both the left and right eyes as the main part in two areas each forming a circle or a polygon detected by the area detection means in the image,
The specifying means, according to claim 4, characterized in that with reference to the position of the detected said two regions by the region detecting means in the image, specifying an area corresponding to the other mouth of the main portion An image processing apparatus according to 1.
前記第1設定手段は、更に、前記画像内で前記領域検出手段により検出された円形又は多角形をなす一の領域に口を前記主要部として設定し、
前記特定手段は、前記画像内で前記領域検出手段により検出された前記一の領域の位置を基準として、前記他の主要部としての目に対応する領域を特定することを特徴とする請求項4に記載の画像処理装置。
The first setting means further sets a mouth as the main part in one area forming a circle or a polygon detected by the area detection means in the image,
The specifying means, according to claim 4, characterized in that with reference to the position of the detected said one of regions by the region detecting means in the image, specifying an area corresponding to the eye as the other major portion An image processing apparatus according to 1.
前記第1設定手段は、更に、前記領域検出手段により検出された領域に前記主要部を表す画像を重畳させるように設定することを特徴とする請求項1〜6の何れか一項に記載の画像処理装置。 It said first setting means further according to any one of claims 1 to 6, characterized in that set so as to superimpose an image representing the principal part of the detected area by the area detection means Image processing device. 前記取得手段により取得された画像内で、前記第1設定手段により設定された前記主要部を表す画像を動作させる動作制御手段を更に備えることを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7 , further comprising an operation control unit that operates an image representing the main part set by the first setting unit in the image acquired by the acquisition unit. 前記第1設定手段は、更に、前記領域検出手段により検出された領域に前記主要部を表す画像を重畳させるように設定し、
前記第2設定手段は、前記特定手段により特定された領域に前記他の主要部を表す画像を重畳させるように設定することを特徴とする請求項4に記載の画像処理装置。
The first setting unit is further configured to superimpose an image representing the main part on the region detected by the region detection unit,
The image processing apparatus according to claim 4 , wherein the second setting unit is configured to superimpose an image representing the other main part on an area specified by the specifying unit.
前記取得手段により取得された画像内で、前記第1設定手段により設定された前記主要部を表す画像及び前記第2設定手段により設定された前記他の主要部を表す画像を動作させる動作制御手段を更に備えることを特徴とする請求項9に記載の画像処理装置。 Operation control means for operating the image representing the main part set by the first setting means and the image representing the other main part set by the second setting means in the image obtained by the obtaining means. The image processing apparatus according to claim 9 , further comprising: 前記取得手段により取得された画像から顔を検出する顔検出手段を更に備え、
前記領域検出手段は、前記顔検出手段により顔が検出されなかった場合に、前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出することを特徴とする請求項1〜10の何れか一項に記載の画像処理装置。
A face detection unit for detecting a face from the image acquired by the acquisition unit;
It said region detecting means, claims, characterized in that the when the face is not detected by the face detecting means detects a region corresponding to the shape of the main part of a face in an image acquired by the acquisition unit The image processing apparatus according to any one of 1 to 10 .
前記取得手段により取得された画像から顔の主要部を検出する主要部検出手段を更に備え、
前記領域検出手段は、前記主要部検出手段により前記主要部が検出されなかった場合に、前記取得手段により取得された画像内で顔の主要部の形状に相当する領域を検出することを特徴とする請求項1〜11の何れか一項に記載の画像処理装置。
A main part detecting unit for detecting a main part of the face from the image acquired by the acquiring unit;
The area detecting means detects an area corresponding to the shape of the main part of the face in the image acquired by the acquiring means when the main part is not detected by the main part detecting means. The image processing apparatus according to any one of claims 1 to 11 .
画像処理装置を用いた画像処理方法であって、
画像を取得する処理と、
取得された画像内の顔画像を含まない領域から、顔の主要部の形状に相当する領域を検出する処理と、
検出された領域を画像処理対象として設定する処理と、
を含むことを特徴とする画像処理方法。
An image processing method using an image processing apparatus,
Processing to acquire images,
A process of detecting an area corresponding to the shape of the main part of the face from an area not including the face image in the acquired image;
A process of setting a detected region as images processed,
An image processing method comprising:
画像処理装置のコンピュータを、
画像を取得する取得手段、
前記取得手段により取得された画像内の顔画像を含まない領域から、顔の主要部の形状に相当する領域を検出する領域検出手段、
前記領域検出手段により検出された領域を画像処理対象として設定する第1設定手段、
として機能させることを特徴とするプログラム。
The computer of the image processing device
Acquisition means for acquiring images,
Area detecting means for detecting an area corresponding to the shape of the main part of the face from an area not including the face image in the image acquired by the acquiring means;
First setting means for setting a detected region by the region detecting means as images processed,
A program characterized by functioning as
JP2014133831A 2014-06-30 2014-06-30 Image processing apparatus, image processing method, and program Active JP6390210B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014133831A JP6390210B2 (en) 2014-06-30 2014-06-30 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014133831A JP6390210B2 (en) 2014-06-30 2014-06-30 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2016012261A JP2016012261A (en) 2016-01-21
JP2016012261A5 JP2016012261A5 (en) 2017-07-20
JP6390210B2 true JP6390210B2 (en) 2018-09-19

Family

ID=55228934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014133831A Active JP6390210B2 (en) 2014-06-30 2014-06-30 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6390210B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4781181B2 (en) * 2006-07-07 2011-09-28 株式会社ソニー・コンピュータエンタテインメント User interface program, apparatus and method, information processing system
JP5439456B2 (en) * 2011-10-21 2014-03-12 富士フイルム株式会社 Electronic comic editing apparatus, method and program

Also Published As

Publication number Publication date
JP2016012261A (en) 2016-01-21

Similar Documents

Publication Publication Date Title
US9639914B2 (en) Portrait deformation method and apparatus
EP3998547A1 (en) Line-of-sight detection method and apparatus, video processing method and apparatus, and device and storage medium
EP3992919B1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
JP4998637B1 (en) Image processing apparatus, information generation apparatus, image processing method, information generation method, control program, and recording medium
JP5935849B2 (en) Image processing apparatus, image processing method, and program
US11238569B2 (en) Image processing method and apparatus, image device, and storage medium
JP2008194146A (en) Visual line detecting apparatus and its method
US11093030B2 (en) Operation determination device and operation determination method
US10546406B2 (en) User generated character animation
JP6547244B2 (en) Operation processing apparatus, operation processing method and program
JP6476608B2 (en) Operation processing apparatus, operation processing method, and program
JP2009237616A (en) Detection of face area in image
JP7385416B2 (en) Image processing device, image processing system, image processing method, and image processing program
JP5920858B1 (en) Program, information processing apparatus, depth definition method, and recording medium
JP6390210B2 (en) Image processing apparatus, image processing method, and program
JP2011215709A (en) Apparatus, method and program for assisting cartoon creation
JP6287170B2 (en) Eyebrow generating device, eyebrow generating method and program
US10572759B2 (en) Image processing device, image processing method, and program
US20180329872A1 (en) Electronic book display device, electronic book display method, and program
JP6330312B2 (en) Face image processing apparatus, projection system, image processing method and program
JP6326808B2 (en) Face image processing apparatus, projection system, image processing method and program
JP6257885B2 (en) Image processing apparatus, image processing method, and program
JP2023053546A (en) Display control device, control method, computer program, computer-readable medium, and manufacturing method
JP2009237617A (en) Detection of face area in image

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R150 Certificate of patent or registration of utility model

Ref document number: 6390210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150