JP2004171543A - Method and device for image processing - Google Patents

Method and device for image processing Download PDF

Info

Publication number
JP2004171543A
JP2004171543A JP2003370559A JP2003370559A JP2004171543A JP 2004171543 A JP2004171543 A JP 2004171543A JP 2003370559 A JP2003370559 A JP 2003370559A JP 2003370559 A JP2003370559 A JP 2003370559A JP 2004171543 A JP2004171543 A JP 2004171543A
Authority
JP
Japan
Prior art keywords
decoration
image
input image
body part
part region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003370559A
Other languages
Japanese (ja)
Other versions
JP4351023B2 (en
Inventor
Kazuyuki Imagawa
和幸 今川
Katsuhiro Iwasa
克博 岩佐
Takaaki Nishi
隆暁 西
Eiji Fukumiya
英二 福宮
Hideaki Matsuo
英明 松尾
Tomonori Kataoka
知典 片岡
Tetsushi Kajita
哲史 梶田
Ikuo Fuchigami
郁雄 渕上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003370559A priority Critical patent/JP4351023B2/en
Publication of JP2004171543A publication Critical patent/JP2004171543A/en
Application granted granted Critical
Publication of JP4351023B2 publication Critical patent/JP4351023B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method capable of displaying a portrait clearly and increasing amusement characteristics. <P>SOLUTION: The image processing method comprises the following steps: a step of detecting the position of a body area in an inputted image; a step of deciding the position of an origin of the coordinate system of a decoration, matching the position of the detected body area; a step of outputting an image with a decoration deployed in the inputted image, based on the decided position of the origin; and a step of moving the decoration corresponding to the movement of the portrait in the inputted image. By this arrangement, even when the portrait and the decoration both move, the portrait is not interfered by the decoration and displayed clearly. The movement of the decoration is made to match the movement of the portrait, thereby increasing amusement characteristics. <P>COPYRIGHT: (C)2004,JPO

Description

本発明は、画像を用いる通信装置(例えば、テレビ電話、テレビ会議、ビデオメールあるいはビデオチャットのための装置やドアフォン等)に組み込まれる画像処理装置に関し、さらに詳しくは、人物画像(例えば、利用者の顔画像や全身画像など)を編集する画像処理装置に関するものである。   The present invention relates to an image processing device incorporated in a communication device using an image (for example, a device for videophone, video conference, video mail or video chat, a door phone, and the like), and more particularly, to a person image (for example, a user). And an image processing apparatus for editing a face image, a whole body image, and the like.

利用者を撮影した画像を、各種の印刷媒体に印刷して出力する遊戯機器がある。このものは、撮影した人物画像に、装飾(例えば、絵柄や模様など)のフレームを重ね合わせて合成し、印刷媒体(例えば、シールなど)に印刷して出力するようになっている。   There are amusement machines that print an image of a user on various print media and output the image. In this type, a frame of a decoration (for example, a pattern or a pattern) is superimposed on a photographed human image, synthesized, printed on a printing medium (for example, a sticker), and output.

このような遊戯機器は、それ自体において、人物画像と装飾との位置関係を調整する機能を持たない。したがって、利用者が、人物画像を、装飾フレーム内に収まるように配置しても、装飾が人物画像に重なり、顔部分や頭部分などが隠れてしまって、人物画像が不鮮明になることがあった。   Such a game machine does not have a function of adjusting the positional relationship between a person image and a decoration by itself. Therefore, even if the user arranges the portrait image so that it fits within the decoration frame, the decoration may overlap the portrait image, and the face and head portions may be hidden, and the portrait image may be unclear. Was.

特許文献1(特開2000−22929号公報)は、この点を考慮したものであり、装飾が、人物画像の身体部分、特に、その顔や頭に対応して設定された身体部分領域に、重ならないようにした上で、装飾を付加する技術を、提案している。   Patent Document 1 (Japanese Patent Laid-Open No. 2000-22929) considers this point, and the decoration is applied to a body part of a person image, particularly, a body part area set corresponding to the face or head. We propose a technique to add decorations so that they do not overlap.

一方、最近、撮影した人物画像に、装飾フレームと重ね合わせて合成し、合成した画像を送信する機能を備えた、カメラ付き携帯電話が、実用化されている。送信者が、このようなカメラ付き携帯電話を使用すると、受信者は、送信者が編集した画像を見るという、楽しみを享受できる。
特開2000−22929号公報(第3−7頁)
On the other hand, recently, a camera-equipped mobile phone having a function of superimposing a decorative image on a captured human image with a decorative frame and transmitting the synthesized image has been put into practical use. When the sender uses such a camera-equipped mobile phone, the receiver can enjoy the enjoyment of viewing the image edited by the sender.
JP-A-2000-22929 (pages 3-7)

特許文献1では、装飾が、動かないことを前提とする。そして、この文献記載の技術では、人物画像の身体部分、特に、その顔や頭に対応して設定された身体部分領域に、装飾が重ならないように、装飾を付加している。   Patent Document 1 assumes that the decoration does not move. In the technique described in this document, decorations are added to the body part of a person image, particularly to a body part region set corresponding to the face or head so that the decoration does not overlap.

この文献では、印刷媒体への印刷を、出力としており、また、一旦印刷された画像を、印刷後に編集することは、通常あり得ないから、このような考え方は、妥当であるといえよう。   In this document, printing on a print medium is used as an output, and it is generally impossible to edit an image once printed after printing, so this concept can be said to be appropriate.

ところが、上述のようなカメラ付き携帯電話が普及してきており、ここでは、合成画像は、普通の場合、印刷媒体へ印刷されずに、ディスプレイに表示されることになる。そして、今後、利用者は、さらなる楽しさを得るために、装飾を動かしたいと思うようになるであろう。   However, camera-equipped mobile phones as described above have become widespread, and here, the composite image is usually displayed on a display without being printed on a print medium. And in the future, users will want to move the decoration to get more fun.

しかしながら、従来技術では、動かない装飾を、動かない人物画像に付加することしか考慮されておらず、動く装飾の付加ということは、全く考慮されていない。このため、単純に、従来技術を、動く人物画像に適用すると、人物画像と装飾とが干渉して、人物画像が不鮮明になったり、遊戯性を高めるような利用ができない。   However, the prior art only considers adding an immovable decoration to an immovable portrait, and does not consider adding a moving decoration. Therefore, if the conventional technique is simply applied to a moving person image, the person image and the decoration interfere with each other, and the person image becomes unclear or cannot be used to enhance playability.

そこで本発明は、人物画像を鮮明に表示でき、かつ、遊戯性を高め得る、画像処理方法及びその間連技術を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing method and a technique for linking the image processing, which can clearly display a person image and can enhance playability.

請求項1記載の画像処理方法では、入力画像における身体部分領域の位置を検出するステップと、検出した身体部分領域の位置に合わせて、装飾の座標系の位置を定めるステップと、定めた位置に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。   In the image processing method according to the first aspect, a step of detecting the position of the body part region in the input image, a step of determining the position of the decoration coordinate system in accordance with the detected position of the body part region, Outputting an image in which decorations are arranged on the input image based on the input image.

この構成によれば、入力画像において、人物被写体が移動したときに、その移動に応じて、装飾を移動させることができる。   According to this configuration, when the human subject moves in the input image, the decoration can be moved according to the movement.

請求項2記載の画像処理方法では、出力するステップでは、装飾を入力画像に描画した画像データを出力する。   In the image processing method according to the second aspect, in the outputting step, image data in which the decoration is drawn on the input image is output.

この構成により、出力される画像の転送先では、入力画像と装飾とを合成する必要はない。   With this configuration, it is not necessary to combine the input image and the decoration at the transfer destination of the output image.

請求項3記載の画像処理方法では、出力するステップでは、入力画像と装飾とを関連付けた画像データを出力する。   In the image processing method according to the third aspect, the outputting includes outputting image data in which the input image and the decoration are associated with each other.

この構成により、出力される画像の転送先は、入力画像を復元しやすく便利である。   With this configuration, the destination of the output image is easy and convenient to restore the input image.

請求項4記載の画像処理方法では、入力画像と装飾とは、メタファイルにより関連付けられる。   In the image processing method according to the fourth aspect, the input image and the decoration are associated by a metafile.

この構成により、入力画像と装飾とを簡潔に関連付けることができる。   With this configuration, the input image and the decoration can be simply associated.

請求項5記載の画像処理方法では、メタファイルは、SMIL形式である。   In the image processing method according to the fifth aspect, the metafile is in the SMIL format.

この構成により、入力画像と装飾との関連付けを、容易に実施できる。   With this configuration, it is possible to easily associate the input image with the decoration.

請求項6記載の画像処理方法では、入力画像における身体部分領域のサイズを検出するステップと、検出した身体部分領域のサイズに合わせて、装飾の座標系のスケールを定めるステップと、定めたスケールに基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。   In the image processing method according to the sixth aspect, a step of detecting the size of the body part region in the input image, a step of determining a scale of the coordinate system of the decoration according to the size of the detected body part region, Outputting an image in which decorations are arranged on the input image based on the input image.

この構成によれば、人物被写体が撮像体に近づいたときは、装飾のサイズ及び移動パスが、共に大きくなる。逆に、遠くなったときは、装飾のサイズ及び移動パスが、共に小さくなる。これにより、人物被写体の前後方向の動きに対して、装飾が、追従しているように見せることができる。   According to this configuration, when the human subject approaches the image pickup body, the size of the decoration and the movement path both increase. Conversely, when the distance increases, the size of the decoration and the movement path both decrease. Accordingly, it is possible to make the decoration appear to follow the movement of the person subject in the front-rear direction.

請求項7記載の画像処理方法では、身体部分領域の、入力画像の平面内での回転量を検出するステップと、検出した回転量に合わせて、装飾の座標系の回転量を定めるステップと、定めた回転量に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。   In the image processing method according to the seventh aspect, a step of detecting a rotation amount of the body part region in the plane of the input image, and a step of determining a rotation amount of the decoration coordinate system in accordance with the detected rotation amount; Outputting an image in which decorations are arranged on the input image based on the determined rotation amount.

この構成によれば、顔を横に傾けたようなときに、装飾を傾け、かつ装飾の移動パスも傾けることができるので、人物の入力画像の平面内における、回転方向の変化に対しても、装飾が追従しているように見せることができる。   According to this configuration, when the face is tilted sideways, the decoration can be tilted, and the moving path of the decoration can also be tilted. Therefore, even if the rotation direction changes in the plane of the input image of the person, , You can make it look like the decoration is following.

請求項8記載の画像処理方法では、身体部分領域の、入力画像の平面に対する回転量を検出するステップと、検出した回転量に合わせて、装飾の座標系の回転量を定めるステップと、定めた回転量に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。   In the image processing method according to the eighth aspect, a step of detecting the amount of rotation of the body part region with respect to the plane of the input image, and a step of determining the amount of rotation of the decoration coordinate system in accordance with the detected amount of rotation are determined. Outputting an image in which decoration is arranged on the input image based on the rotation amount.

この構成によれば、人物が「回れ右」をしているような場合、装飾と移動パスを、人物の回転に応じて変形させることができる。したがって、人物が、入力画像の平面に対する向きの変化に対して、装飾が追従しているように見せることができる。   According to this configuration, when the person is “turning right”, the decoration and the movement path can be deformed according to the rotation of the person. Therefore, it is possible for the person to make the decoration seem to follow the change in the orientation of the input image with respect to the plane.

請求項9記載の画像処理方法では、入力画像における身体部分領域を検出するステップと、装飾の不透明度を、検出した身体部分領域の前景側にある領域と、背景側にある領域とで、異なるように定めるステップと、定めた不透明度に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。   In the image processing method according to the ninth aspect, the step of detecting the body part region in the input image and the degree of opacity of the decoration are different between the region on the foreground side and the region on the background side of the detected body part region. And outputting an image in which decorations are arranged on the input image based on the determined opacity.

この構成によれば、装飾の移動パスが、身体部分領域の背面に来たときに装飾を消すことができるので、あたかも、装飾が、身体部分領域を取り巻き、それを中心に立体的に動いているように見せることができる。   According to this configuration, the decoration can be erased when the movement path of the decoration comes to the back of the body part area, so that the decoration surrounds the body part area and moves three-dimensionally around it. You can make it look like you are.

請求項10記載の画像処理方法では、装飾が、身体部分領域に衝突する際、装飾の移動方向を、身体部分領域から離れる向きに、変更する。   In the image processing method according to the tenth aspect, when the decoration collides with the body part region, the moving direction of the decoration is changed to a direction away from the body part region.

この構成によれば、装飾に、身体部分領域にぶつかったときに反射するような動きを、与えることができる。   According to this configuration, the decoration can be given a motion that reflects when the decoration collides with the body part region.

請求項11記載の画像処理方法では、身体部分領域は、人物被写体の顔領域である。   In the image processing method according to the eleventh aspect, the body part region is a face region of a human subject.

この構成において、顔は、人物の意思や感情を如実に示すため、顔領域を身体部分領域に選べば、遊戯性を高める効果大である。   In this configuration, since the face clearly shows the intention and emotion of the person, if the face region is selected as the body part region, the effect of enhancing the playability is great.

本発明によれば、人物画像及び装飾の双方が動いていても、装飾が人物画像に干渉しないようにすることができ、人物画像を鮮明に表示でき、しかも、装飾の動きを人物画像の動きに協調させることにより、遊戯性を高めることができる。   According to the present invention, even when both the person image and the decoration are moving, the decoration can be prevented from interfering with the person image, the person image can be clearly displayed, and the movement of the decoration is determined by the movement of the person image. By cooperating with, the playability can be enhanced.

以下図面を参照しながら、本発明の実施の形態を説明する。まず、具体的な構成の説明に先立って、重要な用語を解説する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, important terms will be described prior to the description of a specific configuration.

「人物画像」とは、人物の一部または全部の画像が含まれる画像である。従って、人物全体の画像でもよいし、人物の顔だけや後姿だけ、あるいは、上半身だけの画像であってもよい。また、複数の人物が写っている画像でもよい。勿論、背景に人物以外の風景や模様などのいかなるパターンがあっても良い。   The “person image” is an image including an image of a part or all of a person. Therefore, the image may be an image of the entire person, an image of only the person's face or back, or an image of only the upper body. Further, an image in which a plurality of persons are shown may be used. Of course, any pattern such as a landscape or pattern other than a person may be present in the background.

「身体部分」とは、人物の身体の一部という意味であり、身体部分に服や帽子や靴を装着している皮膚が見えなくても、人物の身体の一部であることが認識可能な部分であれば、身体部分に含まれる。従って、顔も身体部分であるし、頭も身体部分である。さらに、目、鼻、口、耳、眉、髪、首、服を着た上半身、手、腕、足、靴を履いた脚、帽子を被った頭、めがねを掛けた目なども身体部分である。   "Body part" means a part of a person's body, and can be recognized as a part of a person's body even if the skin wearing clothes, hats and shoes is not visible on the body part Is included in the body part. Thus, the face is also a body part, and the head is also a body part. In addition, eyes, nose, mouth, ears, eyebrows, hair, neck, dressed upper body, hands, arms, legs, legs with shoes, head with hat, eyes with glasses, etc. is there.

「身体部分領域」とは、人物画像において、身体部分が占める領域として定められる領域のことであり、身体部分領域は、その内部に身体部分でない部分を含んでいてもよいし、身体部分の内部に位置する領域であってもよい。   The "body part region" is a region defined as a region occupied by a body part in a person image, and the body part region may include a part that is not a body part therein, or may include a part inside the body part. Area.

すなわち、身体部分が顔であるとすると、身体部分領域は、顔に対応する身体部分領域が顔の周囲にある領域を含んでいてもよいし、両眼と口と鼻とを囲む最小サイズの長方形であって額や耳を含まないものであってもよい。   That is, assuming that the body part is a face, the body part region may include a region where the body part region corresponding to the face is around the face, or the minimum size surrounding the eyes, mouth, and nose. It may be a rectangle that does not include the forehead or ears.

「装飾」とは、追加される画像パターンのことであり、この画像パターンは予め保持されている画像パターンであってもよいし、コンピュータグラフイックス技術で生成される画像パターンであってもよい。また、この画像パターンは、文字や記号のパターンや図形のパターンであってもよい。   “Decoration” refers to an image pattern to be added, and this image pattern may be an image pattern stored in advance or an image pattern generated by computer graphics technology. The image pattern may be a character or symbol pattern or a graphic pattern.

図1は、本発明の一実施の形態における画像処理装置の機能ブロック図である。図1に示すように、本形態の画像処理装置は、次の構成要素を有する。   FIG. 1 is a functional block diagram of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus according to the present embodiment has the following components.

画像入力部1は、入力画像を得る。本形態では、入力画像に人物画像が含まれ、この人物画像が動くことを許容しており、入力画像は、通常、動画像の1フレーム分の画像を意味することになる。   The image input unit 1 obtains an input image. In the present embodiment, a person image is included in the input image, and this person image is allowed to move, and the input image usually means an image of one frame of the moving image.

但し、この入力画像は、カメラで撮影された直後のものでも良いし、撮影後、MPEG等の符号化方式に従って符号化されたデータ(記録媒体に記録されたものをロードしても良いし、送信装置から受信したものでも良い。)を、復号して得られるものでも良い。   However, this input image may be an image immediately after being photographed by the camera, or after photographing, data encoded according to an encoding method such as MPEG (an image recorded on a recording medium may be loaded, It may be one obtained by decoding the data received from the transmission device.).

制御部2は、図1に示す各要素を、図11のフローチャートに沿って、制御する。   The control unit 2 controls each element shown in FIG. 1 according to the flowchart in FIG.

画像出力部3は、入力画像に装飾が合成された画像を、出力画像として出力する。この出力画像は、表示デバイスに表示される他、上記符号化方式に従って符号化して記録媒体に保存することもできるし、他の通信装置で送信することもできる。   The image output unit 3 outputs, as an output image, an image in which the decoration is combined with the input image. This output image can be displayed on a display device, coded according to the above-described coding method and stored in a recording medium, or transmitted by another communication device.

入力画像記憶部4は、画像入力部1が入力した、入力画像を記憶する。   The input image storage unit 4 stores the input image input by the image input unit 1.

テンプレート記憶部5は、身体部分領域のテンプレートを記憶する。以下、本形態では、顔領域を身体部分領域として取り上げる。   The template storage unit 5 stores a template of the body part region. Hereinafter, in the present embodiment, the face area is taken as the body part area.

テンプレートは、図6(a)、(b)、(c)に示すように、顔部品(頭、目、鼻、口)のそれぞれの輪郭をモデル化したものを、各種サイズ分だけ用意して使用する。   As shown in FIGS. 6 (a), 6 (b) and 6 (c), templates are prepared by modeling contours of face parts (head, eyes, nose, mouth) in various sizes. use.

また、図7(b)、(c)に示すように、図7(a)に示す、基本姿勢によるテンプレートの他、入力画像の平面内での回転量を持つテンプレートを併用する。これにより、顔の回転による傾きを、検出できる。   Further, as shown in FIGS. 7B and 7C, a template having a rotation amount in the plane of the input image is used in addition to the template having the basic posture shown in FIG. 7A. Thereby, the inclination due to the rotation of the face can be detected.

また、図8(b)、(c)に示すように、図8(a)に示す、基本姿勢によるテンプレートの他、入力画像の平面に対する回転量を持つテンプレートを併用する。これにより、顔の向きが基本姿勢と異なる場合(顔の中心を通る法線ベクトルが入力画像の平面に対して直交しない場合)に、顔の向きを検出できる。   Further, as shown in FIGS. 8B and 8C, a template having a rotation amount with respect to the plane of the input image is used in addition to the template having the basic posture shown in FIG. 8A. Accordingly, when the face orientation is different from the basic orientation (when the normal vector passing through the center of the face is not orthogonal to the plane of the input image), the face orientation can be detected.

図1において、検出部6は、テンプレート記憶部5のテンプレートを用いて、入力画像記憶部4に記憶された入力画像から、身体部分領域を検出する。   In FIG. 1, the detection unit 6 detects a body part region from the input image stored in the input image storage unit 4 using the template in the template storage unit 5.

ここで、図9に示しているように、検出部6は、入力画像記憶部4の入力画像に微分フィルタをかけて、エッジ成分を抽出する。また、検出部6は、テンプレート記憶部5からテンプレート53を選び、選んだテンプレート53と、エッジ成分とを用いて、パターンマッチマッチングを実行する。   Here, as shown in FIG. 9, the detection unit 6 applies a differential filter to the input image of the input image storage unit 4 to extract an edge component. Further, the detecting unit 6 selects the template 53 from the template storage unit 5, and performs pattern match matching using the selected template 53 and the edge component.

このパターンマッチングは、テンプレート53(Nx*Ny画素)を、それより大きい入力画像(Mx*My画素)内の探索範囲(Mx−Nx+1)(My−Ny+1)上で動かし、次式に示す残差Rが、最小となるようなテンプレート画像の左上位置(a,b)を求める処理である。   In this pattern matching, the template 53 (Nx * Ny pixels) is moved on a search range (Mx-Nx + 1) (My-Ny + 1) in a larger input image (Mx * My pixels), and the residual This is a process for obtaining the upper left position (a, b) of the template image such that R is minimized.

Figure 2004171543
Figure 2004171543

但し、(数1)において、I(a,b)(mx,my)は入力画像の部分画像、T(mx,my)はテンプレート53の画像である。   However, in (Equation 1), I (a, b) (mx, my) is a partial image of the input image, and T (mx, my) is an image of the template 53.

また、(数1)に替えて、次式で示す相互相関係数Cを求め、相互相関係数Cが最大になる、テンプレート画像の左上位置(a,b)を求めてもよい。   Further, instead of (Equation 1), the cross-correlation coefficient C represented by the following equation may be obtained, and the upper left position (a, b) of the template image at which the cross-correlation coefficient C becomes maximum may be obtained.

Figure 2004171543
Figure 2004171543

検出部6は、図6、図7、図8に示す、各種のテンプレートを使用し、(数1)を用いるときは残差Rが最小となるテンプレート、(数2)を用いるときは、相関係数Cが最大となるテンプレートを求める。そして、検出部6は、求めたテンプレートの、位置、サイズ、傾き、向きを、入力画像における顔画像の、それぞれの値とする。   The detection unit 6 uses various templates shown in FIGS. 6, 7 and 8, and uses (Equation 1) to minimize the residual R, and (Equation 2) to use The template that maximizes the relation number C is obtained. Then, the detecting unit 6 sets the position, size, inclination, and orientation of the obtained template as the respective values of the face image in the input image.

顔画像の場合は、毎フレーム毎(あるいは数フレーム毎)に同一処理を施すことにより、顔の位置とサイズ、傾き、向きの遷移を求めることができる。   In the case of a face image, by performing the same processing for each frame (or for every several frames), it is possible to obtain the transition of the face position, size, inclination, and orientation.

なお、検出部6は、画像に複数の顔が存在している場合、既に検出された1人目の顔部分領域を除いた領域内で、残差Rが低い位置もしくは相関係数Cが高い位置を、2人目の顔部分領域として検出する。   When a plurality of faces are present in the image, the detection unit 6 determines a position where the residual R is low or a position where the correlation coefficient C is high in an area excluding the already detected first person face partial area. Is detected as the second person's face region.

さらに、3人目以降の顔についても同じく、検出部6は、既に検出された顔部分領域を除いた領域内で残差Rが低い位置、相関係数Rが高い位置を顔部分領域として設定しながら、以下、予め定められたしきい値よりも残差Rが大きくなるまで、もしくは相関係数Cが小さくなるまで繰り返し検出する。これにより、複数の人物の顔部分領域を検出できる。   Similarly, for the third and subsequent faces, the detection unit 6 sets a position where the residual R is low and a position where the correlation coefficient R is high in the region excluding the already detected face region as the face region. Hereafter, detection is repeatedly performed until the residual R becomes larger than a predetermined threshold value or the correlation coefficient C becomes smaller. As a result, it is possible to detect the face part regions of a plurality of persons.

勿論、以上の検出は、常に全て実施する必要はなく、顔領域の位置及びサイズの検出を除けば、適宜取捨選択して差し支えない。   Of course, it is not necessary to always perform all of the above detections, and may be appropriately selected except for the detection of the position and size of the face area.

図1において、装飾情報記憶部7は、装飾情報を記憶する。次に、図10を用いて、装飾情報について説明する。   In FIG. 1, the decoration information storage unit 7 stores decoration information. Next, the decoration information will be described with reference to FIG.

図10(a)に示す例(装飾情報(その2))では、装飾情報は、装飾画像データと、トランスフォームプロパティとが、関連付けて構成される。   In the example shown in FIG. 10A (decorative information (part 2)), the decorative information is configured by associating decorative image data with a transform property.

「装飾画像データ」のフィールドには、装飾画像データそのものか、または、装飾画像データそのものを指す、IDまたはポインタが格納される。なお、図10(a)に図示しているように、装飾画像データは、画像データだけで構成されていても良いし、さらに、付加的な属性(衝突時の振る舞いなど)を持つものでも良い。   The “decorative image data” field stores the decorative image data itself, or an ID or pointer indicating the decorative image data itself. As shown in FIG. 10A, the decorative image data may be composed of only image data, or may have additional attributes (such as a behavior at the time of collision). .

「トランスフォームプロパティ」のフィールドは、装飾レイヤーに対して装飾をどう動かすか、また装飾レイヤーをどう重ね合わせるかという情報である。   The field of "transform property" is information on how to move the decoration with respect to the decoration layer and how to overlap the decoration layer.

具体的には、装飾は、トランスフォームプロパティによって、入力画像とは別のローカルな座標系(アンカーポイントを原点とする)によって定義され、さらに、この座標系は、位置、スケール(拡大縮小率)、回転、不透明度という属性を持つ。   Specifically, the decoration is defined by a transform property by a local coordinate system (with the anchor point as the origin) different from the input image, and this coordinate system further includes a position, a scale (scale ratio). , Rotation, and opacity.

さらに詳しくは、アンカーポイントは、装飾に係るローカルな座標系の座標原点の位置と向きを示す。そして、「位置」、「スケール」、「回転」の各フィールドにセットされる値は、そのアンカーポイントが持つ座標系(ローカル座標系)に対する実際の画像の位置、スケール(拡大縮小率)、回転の度合いを示す。   More specifically, the anchor point indicates the position and direction of the coordinate origin of the local coordinate system relating to the decoration. The values set in the "position", "scale", and "rotation" fields are the actual image position, scale (enlargement / reduction ratio), and rotation with respect to the coordinate system (local coordinate system) of the anchor point. Indicates the degree of

また、図10(b)に示す例(装飾情報(その1))では、装飾情報は、装飾画像データと、マスクデータとが、関連付けて構成される。   In the example (decorative information (1)) shown in FIG. 10B, the decorative information is configured by associating decorative image data with mask data.

このときの、「装飾画像データ」は、地模様として表示される画像のデータであり、「マスクデータ」は、地模様のデータ部分(斜線部)と、顔領域の画像があらわれる部分(非斜線部)の、領域のサイズ及び位置関係を示す。   At this time, the “decorative image data” is data of an image displayed as a ground pattern, and the “mask data” is a data portion (a hatched portion) of the ground pattern and a portion (a non-hatched portion) where an image of a face region appears. 2) shows the size and the positional relationship of the region.

図1において、装飾配置部8は、検出部6が検出した身体部分領域の変化に同調するように、装飾の配置情報を定める。   In FIG. 1, the decoration arrangement unit 8 determines the arrangement information of the decoration so as to synchronize with the change in the body part region detected by the detection unit 6.

検出部6は、図7に示すテンプレートで最大のマッチングが得られたなら、身体部分領域の、入力画像の平面内での回転量を検出し、装飾配置部8は、検出部6が検出した回転量の変化に同調するように、装飾の配置情報を定める。   If the maximum matching is obtained with the template shown in FIG. 7, the detection unit 6 detects the rotation amount of the body part area in the plane of the input image, and the decoration arrangement unit 8 detects the rotation. The arrangement information of the decoration is determined so as to synchronize with the change in the rotation amount.

検出部6は、図8に示すテンプレートで最大のマッチングが得られたなら、身体部分領域の、入力画像の平面に対する回転量を検出し、装飾配置部8は、検出部6が検出した回転量の変化に同調するように、装飾の配置情報を定める。   If the maximum matching is obtained with the template shown in FIG. 8, the detection unit 6 detects the rotation amount of the body part region with respect to the plane of the input image, and the decoration placement unit 8 determines the rotation amount detected by the detection unit 6. The arrangement information of the decoration is determined so as to be synchronized with the change of the decoration.

なお、装飾配置部8の詳細な処理は、後に、数種の例を挙げながら、詳述する。   The detailed processing of the decoration arrangement unit 8 will be described later with reference to several examples.

図1において、合成部10は、装飾配置部8が定めた配置情報に基づいて、装飾を入力画像に配置した画像を出力する。この画像は、一旦、出力画像記憶部11に蓄積されてから、画像出力部3から出力される。   In FIG. 1, the synthesizing unit 10 outputs an image in which decorations are arranged in an input image based on the arrangement information determined by the decoration arrangement unit 8. This image is temporarily stored in the output image storage unit 11 and then output from the image output unit 3.

なお、合成部10は、表示デバイスに表示を行うために、
(データ形態1)装飾を入力画像に直接描画した画像データ
を生成するが、合成部10は、記録媒体や他の通信装置へ転送するための画像データとして、
(データ形態2)入力画像と、装飾を描画する際のパラメータとを関連付けた画像データ
を生成し、これを転送するようにしてもよい。データ形態2によると、容易に、入力画像を復元できるため有利である。なお、データ形態2については、後に説明を補足する。
In addition, the synthesizing unit 10 performs display on the display device.
(Data Type 1) Image data in which decoration is directly drawn on an input image is generated, and the synthesizing unit 10 generates image data for transfer to a recording medium or another communication device
(Data Form 2) Image data in which an input image is associated with parameters for drawing a decoration may be generated and transferred. According to the data form 2, the input image can be easily restored, which is advantageous. The data format 2 will be supplemented later.

さらに図1において、操作部12は、利用者が、制御部2に操作情報を入力するためのものである。   Further, in FIG. 1, an operation unit 12 is for a user to input operation information to the control unit 2.

次に、図2を用いて、図1に示す画像処理装置及びその周辺部分の具体的構成例を説明する。図2は、同画像処理装置のブロック図である。   Next, a specific configuration example of the image processing apparatus shown in FIG. 1 and its peripheral parts will be described with reference to FIG. FIG. 2 is a block diagram of the image processing apparatus.

図2の例では、カメラ付き携帯電話に、図1の画像処理装置を組み込んである。図2に示すように、このカメラ付き携帯電話は、次の要素を有する。   In the example of FIG. 2, the image processing device of FIG. 1 is incorporated in a camera-equipped mobile phone. As shown in FIG. 2, the camera-equipped mobile phone has the following elements.

CPU21は、バス20を介して、図2の各要素を制御し、ROM23に記録され、図3のフローチャートに従う制御プログラムを実行する。   The CPU 21 controls each element of FIG. 2 via the bus 20 and executes a control program recorded in the ROM 23 and according to the flowchart of FIG.

RAM22には、CPU21が処理上必要とする一時記憶領域が確保されている。フラッシュメモリ24は、記録媒体に相当するデバイスである。   A temporary storage area required for processing by the CPU 21 is secured in the RAM 22. The flash memory 24 is a device corresponding to a recording medium.

また、アンテナ25を経由して、通信処理部26は、外部の通信装置と、データの送受信を行う。   Further, the communication processing unit 26 transmits and receives data to and from an external communication device via the antenna 25.

画像処理部27は、MPEG等の符号化方式に関するエンコーダ/デコーダ等からなり、カメラ28が撮影した画像を処理したり、CPU21から指示された画像データに基づいて、LCD(表示デバイスの一例)29の表示状態を制御する。   The image processing unit 27 includes an encoder / decoder or the like related to an encoding method such as MPEG, processes an image captured by the camera 28, and displays an LCD (an example of a display device) 29 based on image data instructed by the CPU 21. Control the display state of.

音声処理部30は、マイク31からの入力と、スピーカ32を介しての音声出力とを、制御する。   The audio processing unit 30 controls input from the microphone 31 and audio output via the speaker 32.

また、バス20には、インターフェイス33が接続され、インターフェイス33を介して、利用者は、キーセット34による操作情報の入力を行えるようになっており、さらにポート35を介して、別のデバイスを接続できるように構成されている。   Further, an interface 33 is connected to the bus 20, and a user can input operation information by a key set 34 via the interface 33, and further, another device can be connected via a port 35. It is configured to be connectable.

ここで、図1における、画像入力部1は、フラッシュメモリ24に記録されたデータ、あるいは、カメラ28が撮影したデータを、CPU21または画像処理部27が処理することにより実現される。   Here, the image input unit 1 in FIG. 1 is realized by the CPU 21 or the image processing unit 27 processing data recorded in the flash memory 24 or data captured by the camera 28.

また、制御部2、検出部6、装飾配置部8及び合成部10は、CPU21が、RAM22、フラッシュメモリ24などと、データのやりとりを行いながら、演算を実施することにより実現される。   The control unit 2, the detection unit 6, the decoration arrangement unit 8, and the synthesis unit 10 are realized by the CPU 21 performing calculations while exchanging data with the RAM 22, the flash memory 24, and the like.

さらに、入力画像記憶部4、テンプレート記憶部5、装飾情報記憶部7、配置情報記憶部9及び出力画像記憶部11は、RAM22、ROM23あるいはフラッシュメモリ24のいずれかに確保された領域に相当する。また、図2のキーセット34は、図1の操作部12に相当する。   Further, the input image storage unit 4, the template storage unit 5, the decoration information storage unit 7, the arrangement information storage unit 9, and the output image storage unit 11 correspond to an area secured in any of the RAM 22, the ROM 23, and the flash memory 24. . 1. The key set 34 in FIG. 2 corresponds to the operation unit 12 in FIG.

なお、CPU21は、利用者がキーセット34に対して行う操作の認識、カメラ28からの画像の取得、カメラ画像の圧縮とフラッシュメモリ24への保存、保存画像の読み込みと伸張、画像合成、画像再生、LCD29ヘの表示などを行うが、これらの処理のうちいくつかを、画像処理部27で行うようにしても良い。   The CPU 21 recognizes an operation performed by the user on the key set 34, obtains an image from the camera 28, compresses and saves the camera image in the flash memory 24, reads and expands the saved image, synthesizes the image, Playback, display on the LCD 29, and the like are performed, but some of these processes may be performed by the image processing unit 27.

図3は、本形態の画像処理装置の外観を示す。上述したように、本形態の画像処理装置は、カメラ付き携帯電話に組み込まれている。図3のカメラ付き携帯電話は、上側筐体42と下側筐体41とが、結合部43により、折畳可能に結合される、二つ折りタイプのものである。勿論、画像処理装置の外形は、任意であり、本発明は、PDA等、携帯電話以外の装置にも適用できる。   FIG. 3 shows the appearance of the image processing apparatus of the present embodiment. As described above, the image processing apparatus according to the present embodiment is incorporated in a camera-equipped mobile phone. The camera-equipped mobile phone of FIG. 3 is of a two-fold type in which an upper housing 42 and a lower housing 41 are foldably coupled by a coupling portion 43. Of course, the external shape of the image processing device is arbitrary, and the present invention can be applied to devices other than a mobile phone such as a PDA.

次に、図4を参照しながら、データ形態2について、説明を補足する。ここでは、図4(b)に示す入力画像(ファイル名”face.rm”)があり、これに図4(c)に示す装飾(ファイル名”star.swf”)とを関連付けるものとする。   Next, with reference to FIG. 4, the data form 2 will be supplementally explained. Here, it is assumed that there is an input image (file name “face.rm”) shown in FIG. 4B and a decoration (file name “star.swf”) shown in FIG. 4C.

このとき、図4(a)に示すSMIL(Synchronized Multimedia Integration Language)形式のメタファイルを用いるのが、好ましい。図4(a)では、<par>と</par>とに挟まれた、<video src=”face.rm”>なる行と、<animation src=”star.swf”>なる行とが、同時に実行される。つまり、表示時に、図4(b)の入力画像と図4(c)の装飾とが、合成される。   At this time, it is preferable to use a metafile of the SMIL (Synchronized Multimedia Integration Language) format shown in FIG. In FIG. 4A, a line of <video src = "face.rm"> and a line of <animation src = "star.swf"> sandwiched between <par> and </ par> Executed at the same time. That is, at the time of display, the input image of FIG. 4B and the decoration of FIG. 4C are combined.

なお、図4に示すような関連づけを行う場合には、図4(b)の入力画像と図4(c)の装飾とを合成した画像そのものを作成する必要はない。   In the case of performing the association as shown in FIG. 4, it is not necessary to create an image itself in which the input image of FIG. 4B and the decoration of FIG. 4C are combined.

また、以上のSMIL形式のメタファイルではなく、XML(Extensible Markup Language)形式のファイルや、MP4等を使用しても差し支えない。つまり、データ形態2を使用する際には、何らかの形式で、入力画像と、装飾とが、関連付けられていればよい。   Instead of the above SMIL format metafile, an XML (Extensible Markup Language) format file, MP4, or the like may be used. That is, when the data form 2 is used, the input image may be associated with the decoration in some form.

次に、図1、図5、図12を用いて、本形態の画像処理装置による処理の流れの概要を説明する。ここでは、図10(a)に示す装飾情報(その1)が使用されるものとする。   Next, an outline of a processing flow by the image processing apparatus of the present embodiment will be described with reference to FIGS. Here, it is assumed that the decoration information (No. 1) shown in FIG.

まず、制御部2は、ステップ1にて、動画像を構成する全てのフレームについて、処理を完了したかどうかチェックする。完了していれば終了し、完了していなければ、ステップ2へ処理が移る。   First, in step 1, the control unit 2 checks whether or not the processing has been completed for all frames constituting the moving image. If completed, the process ends. If not completed, the process proceeds to step 2.

ステップ2では、画像入力部1が、図12(a)に示すような入力画像を得て、制御部2は、これを入力画像記憶部4に保存する。   In step 2, the image input unit 1 obtains an input image as shown in FIG. 12A, and the control unit 2 stores the input image in the input image storage unit 4.

次に、ステップ3にて、制御部2は、検出部6に顔領域の検出を命ずる。これにより、検出部6は、テンプレート記憶部5のテンプレート(図12(b))を用いて、顔領域の検出を行う。   Next, in step 3, the control unit 2 commands the detection unit 6 to detect a face area. Thus, the detection unit 6 detects the face area using the template (FIG. 12B) in the template storage unit 5.

次に、ステップ4にて、制御部2は、装飾配置部8に配置情報を定めるように命ずる。これにより、装飾配置部8は、装飾情報記憶部7の装飾情報を使用して、配置情報を定め、これを配置情報記憶部9に保存する。その結果、図12(c)に示すような、装飾レイヤー上の装飾画像が得られる。   Next, in step 4, the control unit 2 instructs the decoration arrangement unit 8 to determine arrangement information. Thereby, the decoration arrangement unit 8 determines the arrangement information using the decoration information in the decoration information storage unit 7 and stores the arrangement information in the arrangement information storage unit 9. As a result, a decorative image on the decorative layer as shown in FIG.

次に、ステップ5にて、制御部2は、合成部10に入力画像と装飾との合成を命ずる。これにより、合成部10は、装飾情報記憶部7に保存された装飾情報に従って、図12(d)に示すように、装飾を入力画像に合成し、結果を出力画像記憶部11に保存する。   Next, in step 5, the control unit 2 instructs the synthesizing unit 10 to synthesize the input image and the decoration. Accordingly, the combining unit 10 combines the decoration with the input image according to the decoration information stored in the decoration information storage unit 7 and stores the result in the output image storage unit 11, as shown in FIG.

次に、ステップ6にて、制御部2は、出力画像記憶部11の合成画像を、画像出力部3を経由して、外部へ出力する。   Next, in step 6, the control unit 2 outputs the composite image in the output image storage unit 11 to the outside via the image output unit 3.

制御部2は、ステップ1以下の処理を、全フレームに対する処理が完了するまで繰り返す。   The control unit 2 repeats the processing from step 1 onward until the processing for all frames is completed.

次に、図9を用いて、ユーザインターフェイスの構成例を説明する。ここでは、利用者によって選択されたアプリケーションが、画像編集ソフトであり、しかも、利用者によって撮影された人物画像と装飾とを、合成する画像合成モードであるものとする。   Next, a configuration example of the user interface will be described with reference to FIG. Here, it is assumed that the application selected by the user is image editing software, and that the application is in an image synthesis mode for synthesizing a person image captured by the user with a decoration.

まず、図11(a)に示すように、LCD29には、編集する対象の人物画像が表示される。そして、この人物画像に添えて、編集ボタン40と戻るボタン41が表示される。   First, as shown in FIG. 11A, the LCD 29 displays a person image to be edited. Then, an edit button 40 and a return button 41 are displayed along with the person image.

ここで、利用者が、キーセット34により、編集ボタン40を選択すると、図11(b)に示すように、挿入可能な装飾のリストが表示される。   Here, when the user selects the edit button 40 using the key set 34, a list of insertable decorations is displayed as shown in FIG. 11B.

そして、利用者が、「涙」というアイテムを選択し、決定ボタン43を押すと、人物画像の顔領域が検出され、それに合う装飾配置情報が求められ、装飾「涙」がこの装飾配置情報に従って、入力画像に合成されて、結果が、図11(c)に示すように、LCD29に表示される。なお、涙の装飾50、51は、入力画像に追加されたものである。ここで、涙は、静止画の他に、移動するアニメーションとして挿入される。   Then, when the user selects the item “tears” and presses the enter button 43, the face area of the person image is detected, and decoration arrangement information matching the face area is obtained. The decoration “tears” is displayed in accordance with the decoration arrangement information. Is synthesized with the input image, and the result is displayed on the LCD 29 as shown in FIG. Note that the tear decorations 50 and 51 are added to the input image. Here, the tear is inserted as a moving animation in addition to the still image.

さて、従来技術では、涙は、配置されたまま移動することはない。また、仮にアニメーションが挿入されたとしても、このアニメーションの動きは、人物画像の動きと全く無関係に動くことになる。   Now, in the prior art, the tear does not move while being arranged. Even if an animation is inserted, the movement of this animation moves completely independently of the movement of the person image.

例えば、自動的に目の下に涙が挿入されることはなく、また、涙が額の頬あたりで止まるように自動的に調整されることはなく、涙がそのまま顔より下の方向へ流れていってしまう。また、顔が傾いたり動いたりするときに、涙の動きを顔に合わせて修正することはできない。   For example, tears are not automatically inserted under the eyes, and tears are not automatically adjusted to stop around the cheeks of the forehead, and tears flow directly below the face. Would. In addition, when the face is tilted or moved, the tear movement cannot be corrected according to the face.

一方、本形態では、涙を挿入する前に、身体部分領域(例えば、本形態では、顔領域内の目)の位置及びサイズを検出することにより、身体部分領域の動きに同調して、自動的に目の下に涙が挿入されるようにしてある。しかも、顔の動きに、装飾を追従させることができる。   On the other hand, in the present embodiment, before the tear is inserted, the position and size of the body part region (for example, eyes in the face region in the present embodiment) are detected, so that the body part region is automatically synchronized with the movement of the body part region. The tears are inserted under the eyes. Moreover, the decoration can follow the movement of the face.

以下、本形態の応用例を示しながら、装飾配置情報について、さらに説明する。図13は、入力画像と装飾の座標系の位置関係説明図である。   Hereinafter, the decoration arrangement information will be further described with reference to application examples of the present embodiment. FIG. 13 is a diagram illustrating the positional relationship between the input image and the coordinate system of the decoration.

ここで、各応用例の説明に先立つ補足として、一般のアニメーションを作成する手順について簡単に説明する。基本的に、装飾が動くアニメーションは、トランスフォームプロパティと関連付けられた、装飾レイヤーを動かすことにより、作成される。   Here, as a supplement prior to the description of each application example, a procedure for creating a general animation will be briefly described. Basically, animated animation is created by moving an ornament layer associated with a transform property.

すなわち、アニメーションを作成するには、トランスフォームの属性(位置、回転など)をキーとなるフレーム(時間軸上に並ぶ存在)毎に設定し、時間の経過に合わせて、属性の各値を変化させる。   In other words, to create an animation, set the attributes of the transform (position, rotation, etc.) for each key frame (existing on the time axis), and change the values of the attributes over time. Let it.

ここで、キーフレームとは、基準となる時点のレイヤーの位置などの値を定めたものである。値の違う2つのキーフレーム(当然これらの時間軸上の位置は異なる)があれば、時間軸において、これらのキーフレーム間に位置するフレームについては、中間値を計算することにより、属性の各値を決定できる。つまり、(1)キーフレームの作成、(2)それらの補間による移動軌跡設定、という作業を繰り返せば、アニメーションを作成できる。   Here, a key frame defines a value such as a position of a layer at a reference time. If there are two keyframes having different values (of course, their positions on the time axis are different), for the frame located between these keyframes on the time axis, an intermediate value is calculated to calculate each attribute. The value can be determined. In other words, an animation can be created by repeating the operations of (1) creating a key frame and (2) setting a movement trajectory by interpolation.

次に、図14に示すアニメーションを例に、上述の要領による、アニメーション作成の手順を説明する。ここでは、図14(a)〜(d)に示すように、レイヤーの位置と回転、スケールの値を変化させて、左手前から右上奥に飛行機が飛んでいくアニメーションを作成するものとする。   Next, a procedure for creating an animation in the manner described above will be described using the animation shown in FIG. 14 as an example. Here, as shown in FIGS. 14A to 14D, it is assumed that an animation in which an airplane flies from the left front to the upper right is changed by changing the position, rotation, and scale value of the layer.

まず、装飾レイヤーを配置する座標系を定義するため、この座標系のアンカーポイントを設定する。本例では、図13に示すように、アンカーポイントを元画像の中心である(X0、Y0)に設定し、座標軸の方向も、元画像座標系と同一であるとする。   First, an anchor point of this coordinate system is set in order to define a coordinate system for arranging the decoration layer. In this example, as shown in FIG. 13, the anchor point is set to (X0, Y0) which is the center of the original image, and the direction of the coordinate axes is assumed to be the same as the original image coordinate system.

そして、このアンカーポイントは、アニメーションの最後まで固定とする。この結果、位置、回転については、全てこのアンカーポイントが持つ座標系によった値となる。   This anchor point is fixed until the end of the animation. As a result, the position and rotation are all values based on the coordinate system of the anchor point.

次に、時間軸において、キーフレームの位置と、その間を結ぶ移動軌跡を設定する。例えば、図15に示すように、飛行機は最初のフレームでA地点に、2秒後にB地点に、4秒後にC地点に移動したとし、その間は曲線で結ばれているとする。また、回転、拡大縮小率についても、同様にポイントとなるフレームに対して設定する。そして、時間軸において、これらのキーフレームの間に位置するフレームについて、隣り合うキーフレームの補間により、移動軌跡を設定する。以上の結果、図14に示すような、右上奥にロケットが飛んでいくアニメーションを作成できる。   Next, on the time axis, the position of the key frame and the movement trajectory connecting the key frame are set. For example, as shown in FIG. 15, it is assumed that the airplane has moved to the point A in the first frame, to the point B in 2 seconds, to the point C in 4 seconds, and that the plane is connected by a curve. In addition, the rotation and the enlargement / reduction ratio are similarly set for a frame as a point. Then, for a frame located between these key frames on the time axis, a movement locus is set by interpolating adjacent key frames. As a result, it is possible to create an animation in which the rocket flies to the upper right back as shown in FIG.

(応用例1)
本例では、テンプレートマッチングによって顔部分領域の位置及び範囲が設定された後、その位置に応じた場所に装飾を表現する座標系の原点(アンカーポイント)を設定する。
(Application Example 1)
In this example, after the position and range of the face partial region are set by template matching, the origin (anchor point) of the coordinate system expressing the decoration is set at a position corresponding to the position.

図16(a)には、装飾画像データを、図16(c)には、局所的には楕円軌道を描く装飾の座標系の原点であるアンカーポイントを、顔領域の頭部に設定した結果を示している。   FIG. 16 (a) shows the result of setting the decoration image data, and FIG. 16 (c) shows the result of setting the anchor point which is the origin of the decoration coordinate system that locally draws an elliptical trajectory on the head of the face area. Is shown.

次に、この人物の顔部分領域が検出されると、図16(b)に示すように、これに応じて、顔領域の頭部にアンカーポイントを移動させる。また、顔領域のサイズが変化したときは、顔領域のサイズに比例して、座標系のスケールを変化させる。   Next, when the face area of the person is detected, the anchor point is moved to the head of the face area in response to the detection, as shown in FIG. When the size of the face area changes, the scale of the coordinate system is changed in proportion to the size of the face area.

また、向きが変わったときは、座標系の軸の方向が最初に設定した方向と同一方向を向くように変化させる。   When the direction changes, the direction of the axis of the coordinate system is changed so as to be in the same direction as the initially set direction.

これによって、人間が撮影装置に対して相対的に動いたとしても、常に頭部に楕円軌道を描く装飾が、人間の動きに追従するようになる。   As a result, even when a person moves relatively to the photographing apparatus, the decoration that always draws an elliptical orbit on the head follows the movement of the person.

また、違う場面で撮影した複数枚の顔画像において、それぞれの顔位置、範囲、傾き、向きに応じて常に頭部、頭部の大きさに比例した軌道で装飾を移動させることができるため、遊戯性がより高まることになる。   In addition, in a plurality of face images taken in different scenes, the head can always be moved according to each face position, range, inclination, orientation in a trajectory proportional to the size of the head, Playability will be further enhanced.

(応用例2)
本例では、装飾情報(その2)を使用し、合成フレーム装飾の不透明度を、顔領域の移動に追随して、変化させる。
(Application 2)
In this example, the decoration information (part 2) is used to change the opacity of the composite frame decoration following the movement of the face area.

本例では、図10(b)に示す装飾情報(その2)を使用する。ここで、図5におけるステップ1〜ステップ3までの処理は、図10(a)に示す装飾情報(その1)を使用する場合と、同様である。   In this example, the decoration information (part 2) shown in FIG. 10B is used. Here, the processing from step 1 to step 3 in FIG. 5 is the same as the case where the decorative information (No. 1) shown in FIG. 10A is used.

但し、図5のステップ4〜ステップ6において、図12(e)のマスクのうち、斜線部に、図12(f)に示す静止画が、見えるように配置し、入力画像の内、顔領域として検出された部分の画像を、非斜線部にサイズあわせをして貼り付け、これを出力する。   However, in Steps 4 to 6 in FIG. 5, the still image shown in FIG. 12F is arranged so as to be seen in the hatched portion of the mask in FIG. The image of the portion detected as is pasted with the size adjusted to the non-hatched portion, and this is output.

即ち、背景となる静止画との合成マスクを、装飾配置情報として使用し、顔検出した結果に応じて合成マスクの中心が、顔の中心となるように配置し、そのマスクによって、静止画と入力画像とを合成するときに不透明度の設定を制御する。   That is, a composite mask with a still image serving as a background is used as decorative arrangement information, and the center of the composite mask is arranged so as to be the center of the face in accordance with the result of face detection. Controls the setting of opacity when combining with the input image.

以上の結果、別の画像と合成するときに、顔領域に静止画がかからないようにすることができる。   As a result, when combining with another image, a still image can be prevented from covering the face area.

(応用例3)
本例では、図17に示すように、視点に対する奥行き情報(Z軸)を、入力画像及び装飾の双方に、追加する。
(Application 3)
In this example, as shown in FIG. 17, depth information (Z-axis) for the viewpoint is added to both the input image and the decoration.

そして、装飾が、入力画像の投射面に相当する仮想面60で切断されるとき、装飾を、この仮想面60の前景側にある前景領域61と、背景側にある背景領域62とに、分ける。   When the decoration is cut at a virtual plane 60 corresponding to the projection plane of the input image, the decoration is divided into a foreground area 61 on the foreground side of the virtual plane 60 and a background area 62 on the background side. .

さらに、前景領域61と、背景領域62の不透明度を変えて、合成する。これにより、図18に示すように、顔の周囲を星が回っているようなアニメを作成することができる。   Furthermore, the opacity of the foreground area 61 and the background area 62 are changed to perform synthesis. As a result, as shown in FIG. 18, it is possible to create an animation in which stars are rotating around the face.

これには、顔を通過するような軌跡になるように、意図的にアンカーポイントを設定すればよい。そして、顔の背面を通過する、背景領域62を、透明にすれば、入力画像に、三次元ライクで動きのある装飾を、追加できる。   For this purpose, an anchor point may be set intentionally so that the trajectory passes through the face. If the background area 62 passing through the back of the face is made transparent, a three-dimensional moving decoration can be added to the input image.

(応用例4)
本例では、図19に示すように、過去数フレーム分の位置と向きの系列、現在の位置と向き、過去数フレーム分等から、次のフレームにおける装飾の属性を、推定する。例えば、装飾が、等速運動するものと仮定すれば、簡単な式で、装飾の属性を推定できる。
(Application Example 4)
In this example, as shown in FIG. 19, the attribute of the decoration in the next frame is estimated from a series of positions and directions for the past several frames, the current position and direction, the past several frames, and the like. For example, assuming that the decoration moves at a constant speed, the attributes of the decoration can be estimated by a simple formula.

さらに、身体部分領域と重なった場合、軌道の修正するようにすればよい。複数の装飾を登場させる際には、それぞれの装飾は、互いに無関係に移動するようにするとよい。   Further, when the trajectory overlaps with the body part region, the trajectory may be corrected. When displaying a plurality of decorations, it is preferable that the decorations move independently of each other.

本例では、図20に示すように、装飾が、身体部分領域あるいは入力画像の外郭線に衝突する際、装飾の移動方向を、身体部分領域から離れる向きに、変更する。このようにすると、装飾に、身体部分領域にぶつかったときに反射するような動きを、与えることができ、遊戯性を向上できる。   In this example, as shown in FIG. 20, when the decoration collides with the body part region or the outline of the input image, the moving direction of the decoration is changed to a direction away from the body part region. In this way, the decoration can be given a movement that reflects when the decoration collides with the body part region, and the playability can be improved.

本発明に係る画像処理装置は、例えば、カメラ付き携帯電話等に搭載して好適に利用できる。   The image processing apparatus according to the present invention can be suitably used, for example, mounted on a mobile phone with a camera.

本発明の一実施の形態における画像処理装置の機能ブロック図Functional block diagram of an image processing device according to an embodiment of the present invention 本発明の一実施の形態における画像処理装置のブロック図1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. 本発明の一実施の形態における画像処理装置の外観図FIG. 1 is an external view of an image processing apparatus according to an embodiment of the present invention. (a)本発明の一実施の形態におけるメタファイルの例示図 (b)本発明の一実施の形態における入力画像ファイルの例示図 (c)本発明の一実施の形態における装飾ファイルの例示図(A) Illustrative diagram of a metafile according to an embodiment of the present invention (b) Illustrative diagram of an input image file according to an embodiment of the present invention (c) Illustrative diagram of a decorative file according to an embodiment of the present invention 本発明の一実施の形態における画像処理装置のフローチャートFlowchart of image processing apparatus according to one embodiment of the present invention (a)本発明の一実施の形態におけるテンプレートの例示図 (b)本発明の一実施の形態におけるテンプレートの例示図 (c)本発明の一実施の形態におけるテンプレートの例示図(A) Illustrative diagram of a template according to an embodiment of the present invention (b) Illustrative diagram of a template according to an embodiment of the present invention (c) Illustrative diagram of a template according to an embodiment of the present invention (a)本発明の一実施の形態におけるテンプレートの例示図 (b)本発明の一実施の形態におけるテンプレートの例示図 (c)本発明の一実施の形態におけるテンプレートの例示図(A) Illustrative diagram of a template according to an embodiment of the present invention (b) Illustrative diagram of a template according to an embodiment of the present invention (c) Illustrative diagram of a template according to an embodiment of the present invention (a)本発明の一実施の形態におけるテンプレートの例示図 (b)本発明の一実施の形態におけるテンプレートの例示図 (c)本発明の一実施の形態におけるテンプレートの例示図(A) Illustrative diagram of a template according to an embodiment of the present invention (b) Illustrative diagram of a template according to an embodiment of the present invention (c) Illustrative diagram of a template according to an embodiment of the present invention 本発明の一実施の形態におけるパターンマッチングの説明図Explanatory drawing of pattern matching in one embodiment of the present invention (a)本発明の一実施の形態における装飾情報の構成図 (b)本発明の一実施の形態における装飾情報の構成図(A) Configuration diagram of decoration information in one embodiment of the present invention (b) Configuration diagram of decoration information in one embodiment of the present invention (a)本発明の一実施の形態におけるユーザインターフェイスの表示例図 (b)本発明の一実施の形態におけるユーザインターフェイスの表示例図 (c)本発明の一実施の形態におけるユーザインターフェイスの表示例図(A) Example display of a user interface according to one embodiment of the present invention (b) Example display of a user interface according to one embodiment of the present invention (c) Example display of a user interface according to one embodiment of the present invention Figure (a)本発明の一実施の形態における画像処理装置の処理過程説明図 (b)本発明の一実施の形態における画像処理装置の処理過程説明図 (c)本発明の一実施の形態における画像処理装置の処理過程説明図 (d)本発明の一実施の形態における画像処理装置の処理過程説明図 (e)本発明の一実施の形態における画像処理装置の処理過程説明図 (f)本発明の一実施の形態における画像処理装置の処理過程説明図 (g)本発明の一実施の形態における画像処理装置の処理過程説明図(A) Illustration of the processing procedure of the image processing apparatus according to one embodiment of the present invention (b) Illustration of the processing procedure of the image processing apparatus according to one embodiment of the present invention (c) Image according to one embodiment of the present invention (D) Process process explanatory diagram of an image processing device according to an embodiment of the present invention (e) Process process explanatory diagram of an image processing device according to an embodiment of the present invention (f) The present invention (G) Processing process explanatory diagram of the image processing device in one embodiment of the present invention 本発明の一実施の形態における座標系の説明図Explanatory drawing of a coordinate system in one embodiment of the present invention. (a)本発明の一実施の形態におけるアニメーションの説明図 (b)本発明の一実施の形態におけるアニメーションの説明図 (c)本発明の一実施の形態におけるアニメーションの説明図 (d)本発明の一実施の形態におけるアニメーションの説明図(A) Illustration of animation in one embodiment of the present invention (b) Illustration of animation in one embodiment of the present invention (c) Illustration of animation in one embodiment of the present invention (d) The present invention Explanatory diagram of an animation in one embodiment 本発明の一実施の形態におけるアニメーションの説明図Explanatory drawing of animation in one embodiment of the present invention (a)本発明の一実施の形態における装飾の例示図 (b)本発明の一実施の形態におけるアンカーポイントの説明図 (c)本発明の一実施の形態における合成画像の例示図(A) Illustrative diagram of decoration in one embodiment of the present invention (b) Illustrative diagram of anchor point in one embodiment of the present invention (c) Illustrative diagram of composite image in one embodiment of the present invention 本発明の一実施の形態における装飾の例示図Illustrative drawing of a decoration according to an embodiment of the present invention 本発明の一実施の形態における合成画像の例示図FIG. 2 is a view showing an example of a composite image according to an embodiment of the present invention. 本発明の一実施の形態における装飾の例示図Illustrative drawing of a decoration according to an embodiment of the present invention 本発明の一実施の形態における合成画像の例示図FIG. 2 is a view showing an example of a composite image according to an embodiment of the present invention.

符号の説明Explanation of reference numerals

1 画像入力部
2 制御部
3 画像出力部
4 入力画像記憶部
5 テンプレート記憶部
6 検出部
7 装飾情報記憶部
8 装飾配置部
9 配置情報記憶部
10 合成部
11 出力画像記憶部
12 操作部
Reference Signs List 1 image input unit 2 control unit 3 image output unit 4 input image storage unit 5 template storage unit 6 detection unit 7 decoration information storage unit 8 decoration placement unit 9 placement information storage unit 10 synthesis unit 11 output image storage unit 12 operation unit

Claims (18)

入力画像における身体部分領域の位置を検出するステップと、
検出した身体部分領域の位置に合わせて、装飾の座標系の位置を定めるステップと、
定めた位置に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。
Detecting the position of the body part region in the input image;
Determining the position of the coordinate system of the decoration according to the position of the detected body part region;
Outputting an image in which decorations are arranged on the input image based on the determined position.
前記出力するステップでは、装飾を入力画像に描画した画像データを出力する請求項1記載の画像処理方法。 The image processing method according to claim 1, wherein in the outputting, image data in which the decoration is drawn on the input image is output. 前記出力するステップでは、入力画像と装飾とを関連付けた画像データを出力する請求項1記載の画像処理方法。 2. The image processing method according to claim 1, wherein the outputting includes outputting image data in which the input image and the decoration are associated with each other. 入力画像と装飾とは、メタファイルにより関連付けられる請求項3記載の画像処理方法。 4. The image processing method according to claim 3, wherein the input image and the decoration are associated by a metafile. 前記メタファイルは、SMIL形式である請求項4記載の画像処理方法。 The image processing method according to claim 4, wherein the metafile is in a SMIL format. 入力画像における身体部分領域のサイズを検出するステップと、
検出した身体部分領域のサイズに合わせて、装飾の座標系のスケールを定めるステップと、
定めたスケールに基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。
Detecting the size of the body part region in the input image;
Determining the scale of the coordinate system of the decoration according to the size of the detected body part region;
Outputting an image in which decorations are arranged on the input image based on the determined scale.
身体部分領域の、入力画像の平面内での回転量を検出するステップと、
検出した回転量に合わせて、装飾の座標系の回転量を定めるステップと、
定めた回転量に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。
Detecting the amount of rotation of the body part region in the plane of the input image;
Determining the amount of rotation of the decoration coordinate system according to the detected amount of rotation;
Outputting an image in which decorations are arranged on the input image based on the determined amount of rotation.
身体部分領域の、入力画像の平面に対する回転量を検出するステップと、
検出した回転量に合わせて、装飾の座標系の回転量を定めるステップと、
定めた回転量に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。
Detecting the amount of rotation of the body part region with respect to the plane of the input image;
Determining the amount of rotation of the decoration coordinate system according to the detected amount of rotation;
Outputting an image in which decorations are arranged on the input image based on the determined amount of rotation.
入力画像における身体部分領域を検出するステップと、
装飾の不透明度を、検出した身体部分領域の前景側にある領域と、背景側にある領域とで、異なるように定めるステップと、
定めた不透明度に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。
Detecting a body part region in the input image;
Determining the opacity of the decoration to be different between the region on the foreground side of the detected body part region and the region on the background side;
Outputting an image in which decorations are arranged on the input image based on the determined opacity.
装飾が、身体部分領域に衝突する際、装飾の移動方向を、身体部分領域から離れる向きに、変更する、請求項1記載の画像処理方法。 The image processing method according to claim 1, wherein when the decoration collides with the body part area, the moving direction of the decoration is changed to a direction away from the body part area. 身体部分領域は、人物被写体の顔領域である、請求項1から10記載の画像処理方法。 The image processing method according to claim 1, wherein the body part region is a face region of a human subject. 入力画像を記憶する入力画像記憶部と、
身体部分領域のテンプレートを記憶するテンプレート記憶部と、
前記テンプレート記憶部のテンプレートを用いて、前記入力画像記憶部に記憶された入力画像から、身体部分領域を検出する検出部と、
装飾情報を記憶する装飾情報記憶部と、
前記検出部が検出した身体部分領域の変化に同調するように、装飾の配置情報を定める装飾配置部とを備える、画像処理装置。
An input image storage unit for storing an input image,
A template storage unit that stores a template of a body part region;
Using a template of the template storage unit, from the input image stored in the input image storage unit, a detection unit that detects a body part region,
A decoration information storage unit for storing decoration information;
An image processing apparatus, comprising: a decoration placement unit that determines placement information of a decoration so as to synchronize with a change in a body part region detected by the detection unit.
前記装飾配置部が定めた配置情報に基づいて、装飾を入力画像に配置した画像を出力する合成部を備える、請求項12記載の画像処理装置。 The image processing apparatus according to claim 12, further comprising: a combining unit configured to output an image in which the decoration is arranged on the input image based on the arrangement information determined by the decoration arrangement unit. 前記検出部は、身体部分領域の、入力画像の平面内での回転量を検出し、前記装飾配置部は、前記検出部が検出した回転量の変化に同調するように、装飾の配置情報を定める、請求項12から13記載の画像処理装置。 The detection unit detects the amount of rotation of the body part region in the plane of the input image, and the decoration arrangement unit adjusts the arrangement information of the decoration so as to synchronize with the change in the amount of rotation detected by the detection unit. 14. The image processing apparatus according to claim 12, wherein the image processing apparatus determines the image processing. 前記検出部は、身体部分領域の、入力画像の平面に対する回転量を検出し、前記装飾配置部は、前記検出部が検出した回転量の変化に同調するように、装飾の配置情報を定める、請求項12から13記載の画像処理装置。 The detection unit detects the amount of rotation of the body part region with respect to the plane of the input image, and the decoration arrangement unit determines the arrangement information of the decoration so as to synchronize with the change in the amount of rotation detected by the detection unit. The image processing device according to claim 12. 前記装飾情報は、装飾画像データと、トランスフォームプロパティとが、関連付けて構成される、請求項12から15記載の画像処理装置。 The image processing apparatus according to claim 12, wherein the decoration information is configured by associating decoration image data with a transform property. 前記装飾情報は、装飾画像データと、マスクデータとが、関連付けて構成される、請求項12から16記載の画像処理装置。 17. The image processing apparatus according to claim 12, wherein the decoration information is configured such that decoration image data and mask data are associated with each other. 入力画像を記憶する入力画像記憶部と、
身体部分領域のテンプレートを記憶するテンプレート記憶部と、
前記テンプレート記憶部のテンプレートを用いて、前記入力画像記憶部に記憶された入力画像から、身体部分領域を検出する検出部と、
装飾情報を記憶する装飾情報記憶部と、
前記検出部が検出した身体部分領域の変化に同調するように、装飾の配置情報を定める装飾配置部とを備える、携帯電話。
An input image storage unit for storing an input image,
A template storage unit that stores a template of a body part region;
Using a template of the template storage unit, from the input image stored in the input image storage unit, a detection unit that detects a body part region,
A decoration information storage unit for storing decoration information;
A mobile phone comprising: a decoration placement unit that determines the placement information of the decoration so as to synchronize with the change in the body part region detected by the detection unit.
JP2003370559A 2002-11-07 2003-10-30 Image processing method and apparatus Expired - Lifetime JP4351023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003370559A JP4351023B2 (en) 2002-11-07 2003-10-30 Image processing method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002324443 2002-11-07
JP2003370559A JP4351023B2 (en) 2002-11-07 2003-10-30 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2004171543A true JP2004171543A (en) 2004-06-17
JP4351023B2 JP4351023B2 (en) 2009-10-28

Family

ID=32716043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003370559A Expired - Lifetime JP4351023B2 (en) 2002-11-07 2003-10-30 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP4351023B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065443A (en) * 2004-08-25 2006-03-09 Vodafone Kk Data processing method and mobile communication terminal device
WO2006070680A1 (en) * 2004-12-28 2006-07-06 Oki Electric Industry Co., Ltd. Image composition device
JP2006227838A (en) * 2005-02-16 2006-08-31 Nec Corp Image processor and image processing program
JP2007148537A (en) * 2005-11-24 2007-06-14 Fujifilm Corp Image processing method, image processing program and image processor
JP2007215189A (en) * 2006-02-07 2007-08-23 Lg Electronics Inc Mobile communication terminal equipment, control method of mobile communication terminal equipment and videophone method using mobile communication terminal equipment
JP2009194644A (en) * 2008-02-14 2009-08-27 Fujifilm Corp Image processor, image processing method and image pick-up device
JP2009217328A (en) * 2008-03-07 2009-09-24 Oki Semiconductor Co Ltd Image display controller, image display control program and semiconductor device
JP2012113677A (en) * 2010-11-05 2012-06-14 Aitia Corp Information processing device and information processing program
JP2012138957A (en) * 2012-04-03 2012-07-19 Fujifilm Corp Image processing device, image processing method, and imaging apparatus
JP2016151975A (en) * 2015-02-18 2016-08-22 ネオス株式会社 Synthetic video data generation system and program
JP2016213832A (en) * 2015-04-29 2016-12-15 シールスラボ インコーポレイテッド Moving picture generation method and moving picture generation device, and program realizing for generating moving picture and recording medium
JP2017525303A (en) * 2014-05-20 2017-08-31 西安中興新軟件有限責任公司 Image processing method, image processing apparatus, and computer recording medium
JP2018159932A (en) * 2014-07-10 2018-10-11 フリュー株式会社 Photograph seal creation device, display method, and program
JP2023541125A (en) * 2020-08-26 2023-09-28 北京字節跳動網絡技術有限公司 Information display method, device and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06139318A (en) * 1992-10-26 1994-05-20 Seiko Epson Corp Glasses wear simulation device
JPH06186505A (en) * 1992-12-18 1994-07-08 Seiko Epson Corp Simulation device for frame of spectacles
JP2000022929A (en) * 1998-06-30 2000-01-21 Omron Corp Person image processor
JP2000322588A (en) * 1999-05-06 2000-11-24 Toshiba Corp Device and method for image processing
JP2000353249A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Indication display in composite real space and indication display method
JP2002111998A (en) * 2000-09-27 2002-04-12 Toshiba Corp Image composition method and information processor
JP2002112286A (en) * 2000-09-27 2002-04-12 Mixed Reality Systems Laboratory Inc Composite reality providing device and its method, and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06139318A (en) * 1992-10-26 1994-05-20 Seiko Epson Corp Glasses wear simulation device
JPH06186505A (en) * 1992-12-18 1994-07-08 Seiko Epson Corp Simulation device for frame of spectacles
JP2000022929A (en) * 1998-06-30 2000-01-21 Omron Corp Person image processor
JP2000322588A (en) * 1999-05-06 2000-11-24 Toshiba Corp Device and method for image processing
JP2000353249A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Indication display in composite real space and indication display method
JP2002111998A (en) * 2000-09-27 2002-04-12 Toshiba Corp Image composition method and information processor
JP2002112286A (en) * 2000-09-27 2002-04-12 Mixed Reality Systems Laboratory Inc Composite reality providing device and its method, and storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
仲祥平, 外2名: ""Augmented Mirror:鏡の中の拡張現実感"", 映像情報メディア学会技術報告, vol. 第25巻, 第38号, JPN6009000308, 11 June 2001 (2001-06-11), JP, pages 47 - 50, ISSN: 0001221000 *
櫻井智明: ""インターネット最新テクノロジー:第19回"", INTERNET MAGAZINE, vol. 第43号, JPN6009000310, 1 August 1998 (1998-08-01), JP, pages 358 - 361, ISSN: 0001220999 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4578180B2 (en) * 2004-08-25 2010-11-10 ソフトバンクモバイル株式会社 Data processing method and mobile communication terminal device
JP2006065443A (en) * 2004-08-25 2006-03-09 Vodafone Kk Data processing method and mobile communication terminal device
WO2006070680A1 (en) * 2004-12-28 2006-07-06 Oki Electric Industry Co., Ltd. Image composition device
JP2006227838A (en) * 2005-02-16 2006-08-31 Nec Corp Image processor and image processing program
JP2007148537A (en) * 2005-11-24 2007-06-14 Fujifilm Corp Image processing method, image processing program and image processor
US8111280B2 (en) 2006-02-07 2012-02-07 Lg Electronics Inc. Video conference system and method in a communication network
JP4499117B2 (en) * 2006-02-07 2010-07-07 エルジー エレクトロニクス インコーポレイティド Mobile communication terminal, mobile communication terminal control method, and videophone method using mobile communication terminal
KR101240261B1 (en) * 2006-02-07 2013-03-07 엘지전자 주식회사 The apparatus and method for image communication of mobile communication terminal
JP2007215189A (en) * 2006-02-07 2007-08-23 Lg Electronics Inc Mobile communication terminal equipment, control method of mobile communication terminal equipment and videophone method using mobile communication terminal equipment
JP2009194644A (en) * 2008-02-14 2009-08-27 Fujifilm Corp Image processor, image processing method and image pick-up device
US8488909B2 (en) 2008-02-14 2013-07-16 Fujifilm Corporation Image processing apparatus, image processing method and imaging apparatus
US8249389B2 (en) 2008-02-14 2012-08-21 Fujifilm Corporation Image processing apparatus, image processing method and imaging apparatus
JP2009217328A (en) * 2008-03-07 2009-09-24 Oki Semiconductor Co Ltd Image display controller, image display control program and semiconductor device
JP2012113677A (en) * 2010-11-05 2012-06-14 Aitia Corp Information processing device and information processing program
JP2012138957A (en) * 2012-04-03 2012-07-19 Fujifilm Corp Image processing device, image processing method, and imaging apparatus
JP2017525303A (en) * 2014-05-20 2017-08-31 西安中興新軟件有限責任公司 Image processing method, image processing apparatus, and computer recording medium
JP2018159932A (en) * 2014-07-10 2018-10-11 フリュー株式会社 Photograph seal creation device, display method, and program
JP2016151975A (en) * 2015-02-18 2016-08-22 ネオス株式会社 Synthetic video data generation system and program
JP2016213832A (en) * 2015-04-29 2016-12-15 シールスラボ インコーポレイテッド Moving picture generation method and moving picture generation device, and program realizing for generating moving picture and recording medium
JP2023541125A (en) * 2020-08-26 2023-09-28 北京字節跳動網絡技術有限公司 Information display method, device and storage medium
JP7421010B2 (en) 2020-08-26 2024-01-23 北京字節跳動網絡技術有限公司 Information display method, device and storage medium
US11922721B2 (en) 2020-08-26 2024-03-05 Beijing Bytedance Network Technology Co., Ltd. Information display method, device and storage medium for superimposing material on image

Also Published As

Publication number Publication date
JP4351023B2 (en) 2009-10-28

Similar Documents

Publication Publication Date Title
US7133658B2 (en) Method and apparatus for image processing
JP2004178163A (en) Image processing method and device
CN107852443B (en) Information processing apparatus, information processing method, and program
US20100079491A1 (en) Image compositing apparatus and method of controlling same
KR101190686B1 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP7200439B1 (en) Avatar display device, avatar generation device and program
KR101445263B1 (en) System and method for providing personalized content
US9135954B2 (en) Image tracking and substitution system and methodology for audio-visual presentations
Doenges et al. MPEG-4: Audio/video and synthetic graphics/audio for mixed media
JP4351023B2 (en) Image processing method and apparatus
US6919892B1 (en) Photo realistic talking head creation system and method
US8553037B2 (en) Do-It-Yourself photo realistic talking head creation system and method
CN107851299B (en) Information processing apparatus, information processing method, and program
KR100912877B1 (en) A mobile communication terminal having a function of the creating 3d avata model and the method thereof
JP5564384B2 (en) Image generation program, imaging apparatus, imaging system, and image generation method
JPH11219446A (en) Video/sound reproducing system
WO2002030171A3 (en) Facial animation of a personalized 3-d face model using a control mesh
KR101894955B1 (en) Live social media system for using virtual human awareness and real-time synthesis technology, server for augmented synthesis
JP3810943B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
KR20140065762A (en) System for providing character video and method thereof
JP2004178036A (en) Device for presenting virtual space accompanied by remote person&#39;s picture
JP5894505B2 (en) Image communication system, image generation apparatus, and program
JP2004179845A (en) Image processing method and apparatus thereof
ES2284391B1 (en) PROCEDURE FOR THE GENERATION OF SYNTHETIC ANIMATION IMAGES.
JPH11149285A (en) Image acoustic system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090701

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4351023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term