JP2004171543A - Method and device for image processing - Google Patents
Method and device for image processing Download PDFInfo
- Publication number
- JP2004171543A JP2004171543A JP2003370559A JP2003370559A JP2004171543A JP 2004171543 A JP2004171543 A JP 2004171543A JP 2003370559 A JP2003370559 A JP 2003370559A JP 2003370559 A JP2003370559 A JP 2003370559A JP 2004171543 A JP2004171543 A JP 2004171543A
- Authority
- JP
- Japan
- Prior art keywords
- decoration
- image
- input image
- body part
- part region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 48
- 238000000034 method Methods 0.000 title description 21
- 238000005034 decoration Methods 0.000 claims abstract description 161
- 238000003672 processing method Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 abstract description 23
- 238000010586 diagram Methods 0.000 description 26
- 210000003128 head Anatomy 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 239000002131 composite material Substances 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 210000000214 mouth Anatomy 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像を用いる通信装置(例えば、テレビ電話、テレビ会議、ビデオメールあるいはビデオチャットのための装置やドアフォン等)に組み込まれる画像処理装置に関し、さらに詳しくは、人物画像(例えば、利用者の顔画像や全身画像など)を編集する画像処理装置に関するものである。 The present invention relates to an image processing device incorporated in a communication device using an image (for example, a device for videophone, video conference, video mail or video chat, a door phone, and the like), and more particularly, to a person image (for example, a user). And an image processing apparatus for editing a face image, a whole body image, and the like.
利用者を撮影した画像を、各種の印刷媒体に印刷して出力する遊戯機器がある。このものは、撮影した人物画像に、装飾(例えば、絵柄や模様など)のフレームを重ね合わせて合成し、印刷媒体(例えば、シールなど)に印刷して出力するようになっている。 There are amusement machines that print an image of a user on various print media and output the image. In this type, a frame of a decoration (for example, a pattern or a pattern) is superimposed on a photographed human image, synthesized, printed on a printing medium (for example, a sticker), and output.
このような遊戯機器は、それ自体において、人物画像と装飾との位置関係を調整する機能を持たない。したがって、利用者が、人物画像を、装飾フレーム内に収まるように配置しても、装飾が人物画像に重なり、顔部分や頭部分などが隠れてしまって、人物画像が不鮮明になることがあった。 Such a game machine does not have a function of adjusting the positional relationship between a person image and a decoration by itself. Therefore, even if the user arranges the portrait image so that it fits within the decoration frame, the decoration may overlap the portrait image, and the face and head portions may be hidden, and the portrait image may be unclear. Was.
特許文献1(特開2000−22929号公報)は、この点を考慮したものであり、装飾が、人物画像の身体部分、特に、その顔や頭に対応して設定された身体部分領域に、重ならないようにした上で、装飾を付加する技術を、提案している。 Patent Document 1 (Japanese Patent Laid-Open No. 2000-22929) considers this point, and the decoration is applied to a body part of a person image, particularly, a body part area set corresponding to the face or head. We propose a technique to add decorations so that they do not overlap.
一方、最近、撮影した人物画像に、装飾フレームと重ね合わせて合成し、合成した画像を送信する機能を備えた、カメラ付き携帯電話が、実用化されている。送信者が、このようなカメラ付き携帯電話を使用すると、受信者は、送信者が編集した画像を見るという、楽しみを享受できる。
特許文献1では、装飾が、動かないことを前提とする。そして、この文献記載の技術では、人物画像の身体部分、特に、その顔や頭に対応して設定された身体部分領域に、装飾が重ならないように、装飾を付加している。
この文献では、印刷媒体への印刷を、出力としており、また、一旦印刷された画像を、印刷後に編集することは、通常あり得ないから、このような考え方は、妥当であるといえよう。 In this document, printing on a print medium is used as an output, and it is generally impossible to edit an image once printed after printing, so this concept can be said to be appropriate.
ところが、上述のようなカメラ付き携帯電話が普及してきており、ここでは、合成画像は、普通の場合、印刷媒体へ印刷されずに、ディスプレイに表示されることになる。そして、今後、利用者は、さらなる楽しさを得るために、装飾を動かしたいと思うようになるであろう。 However, camera-equipped mobile phones as described above have become widespread, and here, the composite image is usually displayed on a display without being printed on a print medium. And in the future, users will want to move the decoration to get more fun.
しかしながら、従来技術では、動かない装飾を、動かない人物画像に付加することしか考慮されておらず、動く装飾の付加ということは、全く考慮されていない。このため、単純に、従来技術を、動く人物画像に適用すると、人物画像と装飾とが干渉して、人物画像が不鮮明になったり、遊戯性を高めるような利用ができない。 However, the prior art only considers adding an immovable decoration to an immovable portrait, and does not consider adding a moving decoration. Therefore, if the conventional technique is simply applied to a moving person image, the person image and the decoration interfere with each other, and the person image becomes unclear or cannot be used to enhance playability.
そこで本発明は、人物画像を鮮明に表示でき、かつ、遊戯性を高め得る、画像処理方法及びその間連技術を提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing method and a technique for linking the image processing, which can clearly display a person image and can enhance playability.
請求項1記載の画像処理方法では、入力画像における身体部分領域の位置を検出するステップと、検出した身体部分領域の位置に合わせて、装飾の座標系の位置を定めるステップと、定めた位置に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。 In the image processing method according to the first aspect, a step of detecting the position of the body part region in the input image, a step of determining the position of the decoration coordinate system in accordance with the detected position of the body part region, Outputting an image in which decorations are arranged on the input image based on the input image.
この構成によれば、入力画像において、人物被写体が移動したときに、その移動に応じて、装飾を移動させることができる。 According to this configuration, when the human subject moves in the input image, the decoration can be moved according to the movement.
請求項2記載の画像処理方法では、出力するステップでは、装飾を入力画像に描画した画像データを出力する。 In the image processing method according to the second aspect, in the outputting step, image data in which the decoration is drawn on the input image is output.
この構成により、出力される画像の転送先では、入力画像と装飾とを合成する必要はない。 With this configuration, it is not necessary to combine the input image and the decoration at the transfer destination of the output image.
請求項3記載の画像処理方法では、出力するステップでは、入力画像と装飾とを関連付けた画像データを出力する。 In the image processing method according to the third aspect, the outputting includes outputting image data in which the input image and the decoration are associated with each other.
この構成により、出力される画像の転送先は、入力画像を復元しやすく便利である。 With this configuration, the destination of the output image is easy and convenient to restore the input image.
請求項4記載の画像処理方法では、入力画像と装飾とは、メタファイルにより関連付けられる。 In the image processing method according to the fourth aspect, the input image and the decoration are associated by a metafile.
この構成により、入力画像と装飾とを簡潔に関連付けることができる。 With this configuration, the input image and the decoration can be simply associated.
請求項5記載の画像処理方法では、メタファイルは、SMIL形式である。 In the image processing method according to the fifth aspect, the metafile is in the SMIL format.
この構成により、入力画像と装飾との関連付けを、容易に実施できる。 With this configuration, it is possible to easily associate the input image with the decoration.
請求項6記載の画像処理方法では、入力画像における身体部分領域のサイズを検出するステップと、検出した身体部分領域のサイズに合わせて、装飾の座標系のスケールを定めるステップと、定めたスケールに基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。 In the image processing method according to the sixth aspect, a step of detecting the size of the body part region in the input image, a step of determining a scale of the coordinate system of the decoration according to the size of the detected body part region, Outputting an image in which decorations are arranged on the input image based on the input image.
この構成によれば、人物被写体が撮像体に近づいたときは、装飾のサイズ及び移動パスが、共に大きくなる。逆に、遠くなったときは、装飾のサイズ及び移動パスが、共に小さくなる。これにより、人物被写体の前後方向の動きに対して、装飾が、追従しているように見せることができる。 According to this configuration, when the human subject approaches the image pickup body, the size of the decoration and the movement path both increase. Conversely, when the distance increases, the size of the decoration and the movement path both decrease. Accordingly, it is possible to make the decoration appear to follow the movement of the person subject in the front-rear direction.
請求項7記載の画像処理方法では、身体部分領域の、入力画像の平面内での回転量を検出するステップと、検出した回転量に合わせて、装飾の座標系の回転量を定めるステップと、定めた回転量に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。 In the image processing method according to the seventh aspect, a step of detecting a rotation amount of the body part region in the plane of the input image, and a step of determining a rotation amount of the decoration coordinate system in accordance with the detected rotation amount; Outputting an image in which decorations are arranged on the input image based on the determined rotation amount.
この構成によれば、顔を横に傾けたようなときに、装飾を傾け、かつ装飾の移動パスも傾けることができるので、人物の入力画像の平面内における、回転方向の変化に対しても、装飾が追従しているように見せることができる。 According to this configuration, when the face is tilted sideways, the decoration can be tilted, and the moving path of the decoration can also be tilted. Therefore, even if the rotation direction changes in the plane of the input image of the person, , You can make it look like the decoration is following.
請求項8記載の画像処理方法では、身体部分領域の、入力画像の平面に対する回転量を検出するステップと、検出した回転量に合わせて、装飾の座標系の回転量を定めるステップと、定めた回転量に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。 In the image processing method according to the eighth aspect, a step of detecting the amount of rotation of the body part region with respect to the plane of the input image, and a step of determining the amount of rotation of the decoration coordinate system in accordance with the detected amount of rotation are determined. Outputting an image in which decoration is arranged on the input image based on the rotation amount.
この構成によれば、人物が「回れ右」をしているような場合、装飾と移動パスを、人物の回転に応じて変形させることができる。したがって、人物が、入力画像の平面に対する向きの変化に対して、装飾が追従しているように見せることができる。 According to this configuration, when the person is “turning right”, the decoration and the movement path can be deformed according to the rotation of the person. Therefore, it is possible for the person to make the decoration seem to follow the change in the orientation of the input image with respect to the plane.
請求項9記載の画像処理方法では、入力画像における身体部分領域を検出するステップと、装飾の不透明度を、検出した身体部分領域の前景側にある領域と、背景側にある領域とで、異なるように定めるステップと、定めた不透明度に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む。 In the image processing method according to the ninth aspect, the step of detecting the body part region in the input image and the degree of opacity of the decoration are different between the region on the foreground side and the region on the background side of the detected body part region. And outputting an image in which decorations are arranged on the input image based on the determined opacity.
この構成によれば、装飾の移動パスが、身体部分領域の背面に来たときに装飾を消すことができるので、あたかも、装飾が、身体部分領域を取り巻き、それを中心に立体的に動いているように見せることができる。 According to this configuration, the decoration can be erased when the movement path of the decoration comes to the back of the body part area, so that the decoration surrounds the body part area and moves three-dimensionally around it. You can make it look like you are.
請求項10記載の画像処理方法では、装飾が、身体部分領域に衝突する際、装飾の移動方向を、身体部分領域から離れる向きに、変更する。 In the image processing method according to the tenth aspect, when the decoration collides with the body part region, the moving direction of the decoration is changed to a direction away from the body part region.
この構成によれば、装飾に、身体部分領域にぶつかったときに反射するような動きを、与えることができる。 According to this configuration, the decoration can be given a motion that reflects when the decoration collides with the body part region.
請求項11記載の画像処理方法では、身体部分領域は、人物被写体の顔領域である。 In the image processing method according to the eleventh aspect, the body part region is a face region of a human subject.
この構成において、顔は、人物の意思や感情を如実に示すため、顔領域を身体部分領域に選べば、遊戯性を高める効果大である。 In this configuration, since the face clearly shows the intention and emotion of the person, if the face region is selected as the body part region, the effect of enhancing the playability is great.
本発明によれば、人物画像及び装飾の双方が動いていても、装飾が人物画像に干渉しないようにすることができ、人物画像を鮮明に表示でき、しかも、装飾の動きを人物画像の動きに協調させることにより、遊戯性を高めることができる。 According to the present invention, even when both the person image and the decoration are moving, the decoration can be prevented from interfering with the person image, the person image can be clearly displayed, and the movement of the decoration is determined by the movement of the person image. By cooperating with, the playability can be enhanced.
以下図面を参照しながら、本発明の実施の形態を説明する。まず、具体的な構成の説明に先立って、重要な用語を解説する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, important terms will be described prior to the description of a specific configuration.
「人物画像」とは、人物の一部または全部の画像が含まれる画像である。従って、人物全体の画像でもよいし、人物の顔だけや後姿だけ、あるいは、上半身だけの画像であってもよい。また、複数の人物が写っている画像でもよい。勿論、背景に人物以外の風景や模様などのいかなるパターンがあっても良い。 The “person image” is an image including an image of a part or all of a person. Therefore, the image may be an image of the entire person, an image of only the person's face or back, or an image of only the upper body. Further, an image in which a plurality of persons are shown may be used. Of course, any pattern such as a landscape or pattern other than a person may be present in the background.
「身体部分」とは、人物の身体の一部という意味であり、身体部分に服や帽子や靴を装着している皮膚が見えなくても、人物の身体の一部であることが認識可能な部分であれば、身体部分に含まれる。従って、顔も身体部分であるし、頭も身体部分である。さらに、目、鼻、口、耳、眉、髪、首、服を着た上半身、手、腕、足、靴を履いた脚、帽子を被った頭、めがねを掛けた目なども身体部分である。 "Body part" means a part of a person's body, and can be recognized as a part of a person's body even if the skin wearing clothes, hats and shoes is not visible on the body part Is included in the body part. Thus, the face is also a body part, and the head is also a body part. In addition, eyes, nose, mouth, ears, eyebrows, hair, neck, dressed upper body, hands, arms, legs, legs with shoes, head with hat, eyes with glasses, etc. is there.
「身体部分領域」とは、人物画像において、身体部分が占める領域として定められる領域のことであり、身体部分領域は、その内部に身体部分でない部分を含んでいてもよいし、身体部分の内部に位置する領域であってもよい。 The "body part region" is a region defined as a region occupied by a body part in a person image, and the body part region may include a part that is not a body part therein, or may include a part inside the body part. Area.
すなわち、身体部分が顔であるとすると、身体部分領域は、顔に対応する身体部分領域が顔の周囲にある領域を含んでいてもよいし、両眼と口と鼻とを囲む最小サイズの長方形であって額や耳を含まないものであってもよい。 That is, assuming that the body part is a face, the body part region may include a region where the body part region corresponding to the face is around the face, or the minimum size surrounding the eyes, mouth, and nose. It may be a rectangle that does not include the forehead or ears.
「装飾」とは、追加される画像パターンのことであり、この画像パターンは予め保持されている画像パターンであってもよいし、コンピュータグラフイックス技術で生成される画像パターンであってもよい。また、この画像パターンは、文字や記号のパターンや図形のパターンであってもよい。 “Decoration” refers to an image pattern to be added, and this image pattern may be an image pattern stored in advance or an image pattern generated by computer graphics technology. The image pattern may be a character or symbol pattern or a graphic pattern.
図1は、本発明の一実施の形態における画像処理装置の機能ブロック図である。図1に示すように、本形態の画像処理装置は、次の構成要素を有する。 FIG. 1 is a functional block diagram of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus according to the present embodiment has the following components.
画像入力部1は、入力画像を得る。本形態では、入力画像に人物画像が含まれ、この人物画像が動くことを許容しており、入力画像は、通常、動画像の1フレーム分の画像を意味することになる。
The
但し、この入力画像は、カメラで撮影された直後のものでも良いし、撮影後、MPEG等の符号化方式に従って符号化されたデータ(記録媒体に記録されたものをロードしても良いし、送信装置から受信したものでも良い。)を、復号して得られるものでも良い。 However, this input image may be an image immediately after being photographed by the camera, or after photographing, data encoded according to an encoding method such as MPEG (an image recorded on a recording medium may be loaded, It may be one obtained by decoding the data received from the transmission device.).
制御部2は、図1に示す各要素を、図11のフローチャートに沿って、制御する。
The
画像出力部3は、入力画像に装飾が合成された画像を、出力画像として出力する。この出力画像は、表示デバイスに表示される他、上記符号化方式に従って符号化して記録媒体に保存することもできるし、他の通信装置で送信することもできる。
The
入力画像記憶部4は、画像入力部1が入力した、入力画像を記憶する。
The input image storage unit 4 stores the input image input by the
テンプレート記憶部5は、身体部分領域のテンプレートを記憶する。以下、本形態では、顔領域を身体部分領域として取り上げる。 The template storage unit 5 stores a template of the body part region. Hereinafter, in the present embodiment, the face area is taken as the body part area.
テンプレートは、図6(a)、(b)、(c)に示すように、顔部品(頭、目、鼻、口)のそれぞれの輪郭をモデル化したものを、各種サイズ分だけ用意して使用する。 As shown in FIGS. 6 (a), 6 (b) and 6 (c), templates are prepared by modeling contours of face parts (head, eyes, nose, mouth) in various sizes. use.
また、図7(b)、(c)に示すように、図7(a)に示す、基本姿勢によるテンプレートの他、入力画像の平面内での回転量を持つテンプレートを併用する。これにより、顔の回転による傾きを、検出できる。 Further, as shown in FIGS. 7B and 7C, a template having a rotation amount in the plane of the input image is used in addition to the template having the basic posture shown in FIG. 7A. Thereby, the inclination due to the rotation of the face can be detected.
また、図8(b)、(c)に示すように、図8(a)に示す、基本姿勢によるテンプレートの他、入力画像の平面に対する回転量を持つテンプレートを併用する。これにより、顔の向きが基本姿勢と異なる場合(顔の中心を通る法線ベクトルが入力画像の平面に対して直交しない場合)に、顔の向きを検出できる。 Further, as shown in FIGS. 8B and 8C, a template having a rotation amount with respect to the plane of the input image is used in addition to the template having the basic posture shown in FIG. 8A. Accordingly, when the face orientation is different from the basic orientation (when the normal vector passing through the center of the face is not orthogonal to the plane of the input image), the face orientation can be detected.
図1において、検出部6は、テンプレート記憶部5のテンプレートを用いて、入力画像記憶部4に記憶された入力画像から、身体部分領域を検出する。
In FIG. 1, the
ここで、図9に示しているように、検出部6は、入力画像記憶部4の入力画像に微分フィルタをかけて、エッジ成分を抽出する。また、検出部6は、テンプレート記憶部5からテンプレート53を選び、選んだテンプレート53と、エッジ成分とを用いて、パターンマッチマッチングを実行する。
Here, as shown in FIG. 9, the
このパターンマッチングは、テンプレート53(Nx*Ny画素)を、それより大きい入力画像(Mx*My画素)内の探索範囲(Mx−Nx+1)(My−Ny+1)上で動かし、次式に示す残差Rが、最小となるようなテンプレート画像の左上位置(a,b)を求める処理である。 In this pattern matching, the template 53 (Nx * Ny pixels) is moved on a search range (Mx-Nx + 1) (My-Ny + 1) in a larger input image (Mx * My pixels), and the residual This is a process for obtaining the upper left position (a, b) of the template image such that R is minimized.
但し、(数1)において、I(a,b)(mx,my)は入力画像の部分画像、T(mx,my)はテンプレート53の画像である。
However, in (Equation 1), I (a, b) (mx, my) is a partial image of the input image, and T (mx, my) is an image of the
また、(数1)に替えて、次式で示す相互相関係数Cを求め、相互相関係数Cが最大になる、テンプレート画像の左上位置(a,b)を求めてもよい。 Further, instead of (Equation 1), the cross-correlation coefficient C represented by the following equation may be obtained, and the upper left position (a, b) of the template image at which the cross-correlation coefficient C becomes maximum may be obtained.
検出部6は、図6、図7、図8に示す、各種のテンプレートを使用し、(数1)を用いるときは残差Rが最小となるテンプレート、(数2)を用いるときは、相関係数Cが最大となるテンプレートを求める。そして、検出部6は、求めたテンプレートの、位置、サイズ、傾き、向きを、入力画像における顔画像の、それぞれの値とする。
The
顔画像の場合は、毎フレーム毎(あるいは数フレーム毎)に同一処理を施すことにより、顔の位置とサイズ、傾き、向きの遷移を求めることができる。 In the case of a face image, by performing the same processing for each frame (or for every several frames), it is possible to obtain the transition of the face position, size, inclination, and orientation.
なお、検出部6は、画像に複数の顔が存在している場合、既に検出された1人目の顔部分領域を除いた領域内で、残差Rが低い位置もしくは相関係数Cが高い位置を、2人目の顔部分領域として検出する。
When a plurality of faces are present in the image, the
さらに、3人目以降の顔についても同じく、検出部6は、既に検出された顔部分領域を除いた領域内で残差Rが低い位置、相関係数Rが高い位置を顔部分領域として設定しながら、以下、予め定められたしきい値よりも残差Rが大きくなるまで、もしくは相関係数Cが小さくなるまで繰り返し検出する。これにより、複数の人物の顔部分領域を検出できる。
Similarly, for the third and subsequent faces, the
勿論、以上の検出は、常に全て実施する必要はなく、顔領域の位置及びサイズの検出を除けば、適宜取捨選択して差し支えない。 Of course, it is not necessary to always perform all of the above detections, and may be appropriately selected except for the detection of the position and size of the face area.
図1において、装飾情報記憶部7は、装飾情報を記憶する。次に、図10を用いて、装飾情報について説明する。
In FIG. 1, the decoration
図10(a)に示す例(装飾情報(その2))では、装飾情報は、装飾画像データと、トランスフォームプロパティとが、関連付けて構成される。 In the example shown in FIG. 10A (decorative information (part 2)), the decorative information is configured by associating decorative image data with a transform property.
「装飾画像データ」のフィールドには、装飾画像データそのものか、または、装飾画像データそのものを指す、IDまたはポインタが格納される。なお、図10(a)に図示しているように、装飾画像データは、画像データだけで構成されていても良いし、さらに、付加的な属性(衝突時の振る舞いなど)を持つものでも良い。 The “decorative image data” field stores the decorative image data itself, or an ID or pointer indicating the decorative image data itself. As shown in FIG. 10A, the decorative image data may be composed of only image data, or may have additional attributes (such as a behavior at the time of collision). .
「トランスフォームプロパティ」のフィールドは、装飾レイヤーに対して装飾をどう動かすか、また装飾レイヤーをどう重ね合わせるかという情報である。 The field of "transform property" is information on how to move the decoration with respect to the decoration layer and how to overlap the decoration layer.
具体的には、装飾は、トランスフォームプロパティによって、入力画像とは別のローカルな座標系(アンカーポイントを原点とする)によって定義され、さらに、この座標系は、位置、スケール(拡大縮小率)、回転、不透明度という属性を持つ。 Specifically, the decoration is defined by a transform property by a local coordinate system (with the anchor point as the origin) different from the input image, and this coordinate system further includes a position, a scale (scale ratio). , Rotation, and opacity.
さらに詳しくは、アンカーポイントは、装飾に係るローカルな座標系の座標原点の位置と向きを示す。そして、「位置」、「スケール」、「回転」の各フィールドにセットされる値は、そのアンカーポイントが持つ座標系(ローカル座標系)に対する実際の画像の位置、スケール(拡大縮小率)、回転の度合いを示す。 More specifically, the anchor point indicates the position and direction of the coordinate origin of the local coordinate system relating to the decoration. The values set in the "position", "scale", and "rotation" fields are the actual image position, scale (enlargement / reduction ratio), and rotation with respect to the coordinate system (local coordinate system) of the anchor point. Indicates the degree of
また、図10(b)に示す例(装飾情報(その1))では、装飾情報は、装飾画像データと、マスクデータとが、関連付けて構成される。 In the example (decorative information (1)) shown in FIG. 10B, the decorative information is configured by associating decorative image data with mask data.
このときの、「装飾画像データ」は、地模様として表示される画像のデータであり、「マスクデータ」は、地模様のデータ部分(斜線部)と、顔領域の画像があらわれる部分(非斜線部)の、領域のサイズ及び位置関係を示す。 At this time, the “decorative image data” is data of an image displayed as a ground pattern, and the “mask data” is a data portion (a hatched portion) of the ground pattern and a portion (a non-hatched portion) where an image of a face region appears. 2) shows the size and the positional relationship of the region.
図1において、装飾配置部8は、検出部6が検出した身体部分領域の変化に同調するように、装飾の配置情報を定める。
In FIG. 1, the decoration arrangement unit 8 determines the arrangement information of the decoration so as to synchronize with the change in the body part region detected by the
検出部6は、図7に示すテンプレートで最大のマッチングが得られたなら、身体部分領域の、入力画像の平面内での回転量を検出し、装飾配置部8は、検出部6が検出した回転量の変化に同調するように、装飾の配置情報を定める。
If the maximum matching is obtained with the template shown in FIG. 7, the
検出部6は、図8に示すテンプレートで最大のマッチングが得られたなら、身体部分領域の、入力画像の平面に対する回転量を検出し、装飾配置部8は、検出部6が検出した回転量の変化に同調するように、装飾の配置情報を定める。
If the maximum matching is obtained with the template shown in FIG. 8, the
なお、装飾配置部8の詳細な処理は、後に、数種の例を挙げながら、詳述する。 The detailed processing of the decoration arrangement unit 8 will be described later with reference to several examples.
図1において、合成部10は、装飾配置部8が定めた配置情報に基づいて、装飾を入力画像に配置した画像を出力する。この画像は、一旦、出力画像記憶部11に蓄積されてから、画像出力部3から出力される。
In FIG. 1, the synthesizing
なお、合成部10は、表示デバイスに表示を行うために、
(データ形態1)装飾を入力画像に直接描画した画像データ
を生成するが、合成部10は、記録媒体や他の通信装置へ転送するための画像データとして、
(データ形態2)入力画像と、装飾を描画する際のパラメータとを関連付けた画像データ
を生成し、これを転送するようにしてもよい。データ形態2によると、容易に、入力画像を復元できるため有利である。なお、データ形態2については、後に説明を補足する。
In addition, the synthesizing
(Data Type 1) Image data in which decoration is directly drawn on an input image is generated, and the synthesizing
(Data Form 2) Image data in which an input image is associated with parameters for drawing a decoration may be generated and transferred. According to the
さらに図1において、操作部12は、利用者が、制御部2に操作情報を入力するためのものである。
Further, in FIG. 1, an operation unit 12 is for a user to input operation information to the
次に、図2を用いて、図1に示す画像処理装置及びその周辺部分の具体的構成例を説明する。図2は、同画像処理装置のブロック図である。 Next, a specific configuration example of the image processing apparatus shown in FIG. 1 and its peripheral parts will be described with reference to FIG. FIG. 2 is a block diagram of the image processing apparatus.
図2の例では、カメラ付き携帯電話に、図1の画像処理装置を組み込んである。図2に示すように、このカメラ付き携帯電話は、次の要素を有する。 In the example of FIG. 2, the image processing device of FIG. 1 is incorporated in a camera-equipped mobile phone. As shown in FIG. 2, the camera-equipped mobile phone has the following elements.
CPU21は、バス20を介して、図2の各要素を制御し、ROM23に記録され、図3のフローチャートに従う制御プログラムを実行する。
The CPU 21 controls each element of FIG. 2 via the bus 20 and executes a control program recorded in the
RAM22には、CPU21が処理上必要とする一時記憶領域が確保されている。フラッシュメモリ24は、記録媒体に相当するデバイスである。
A temporary storage area required for processing by the CPU 21 is secured in the
また、アンテナ25を経由して、通信処理部26は、外部の通信装置と、データの送受信を行う。
Further, the
画像処理部27は、MPEG等の符号化方式に関するエンコーダ/デコーダ等からなり、カメラ28が撮影した画像を処理したり、CPU21から指示された画像データに基づいて、LCD(表示デバイスの一例)29の表示状態を制御する。
The
音声処理部30は、マイク31からの入力と、スピーカ32を介しての音声出力とを、制御する。
The
また、バス20には、インターフェイス33が接続され、インターフェイス33を介して、利用者は、キーセット34による操作情報の入力を行えるようになっており、さらにポート35を介して、別のデバイスを接続できるように構成されている。
Further, an interface 33 is connected to the bus 20, and a user can input operation information by a key set 34 via the interface 33, and further, another device can be connected via a
ここで、図1における、画像入力部1は、フラッシュメモリ24に記録されたデータ、あるいは、カメラ28が撮影したデータを、CPU21または画像処理部27が処理することにより実現される。
Here, the
また、制御部2、検出部6、装飾配置部8及び合成部10は、CPU21が、RAM22、フラッシュメモリ24などと、データのやりとりを行いながら、演算を実施することにより実現される。
The
さらに、入力画像記憶部4、テンプレート記憶部5、装飾情報記憶部7、配置情報記憶部9及び出力画像記憶部11は、RAM22、ROM23あるいはフラッシュメモリ24のいずれかに確保された領域に相当する。また、図2のキーセット34は、図1の操作部12に相当する。
Further, the input image storage unit 4, the template storage unit 5, the decoration
なお、CPU21は、利用者がキーセット34に対して行う操作の認識、カメラ28からの画像の取得、カメラ画像の圧縮とフラッシュメモリ24への保存、保存画像の読み込みと伸張、画像合成、画像再生、LCD29ヘの表示などを行うが、これらの処理のうちいくつかを、画像処理部27で行うようにしても良い。
The CPU 21 recognizes an operation performed by the user on the key set 34, obtains an image from the
図3は、本形態の画像処理装置の外観を示す。上述したように、本形態の画像処理装置は、カメラ付き携帯電話に組み込まれている。図3のカメラ付き携帯電話は、上側筐体42と下側筐体41とが、結合部43により、折畳可能に結合される、二つ折りタイプのものである。勿論、画像処理装置の外形は、任意であり、本発明は、PDA等、携帯電話以外の装置にも適用できる。
FIG. 3 shows the appearance of the image processing apparatus of the present embodiment. As described above, the image processing apparatus according to the present embodiment is incorporated in a camera-equipped mobile phone. The camera-equipped mobile phone of FIG. 3 is of a two-fold type in which an
次に、図4を参照しながら、データ形態2について、説明を補足する。ここでは、図4(b)に示す入力画像(ファイル名”face.rm”)があり、これに図4(c)に示す装飾(ファイル名”star.swf”)とを関連付けるものとする。
Next, with reference to FIG. 4, the
このとき、図4(a)に示すSMIL(Synchronized Multimedia Integration Language)形式のメタファイルを用いるのが、好ましい。図4(a)では、<par>と</par>とに挟まれた、<video src=”face.rm”>なる行と、<animation src=”star.swf”>なる行とが、同時に実行される。つまり、表示時に、図4(b)の入力画像と図4(c)の装飾とが、合成される。 At this time, it is preferable to use a metafile of the SMIL (Synchronized Multimedia Integration Language) format shown in FIG. In FIG. 4A, a line of <video src = "face.rm"> and a line of <animation src = "star.swf"> sandwiched between <par> and </ par> Executed at the same time. That is, at the time of display, the input image of FIG. 4B and the decoration of FIG. 4C are combined.
なお、図4に示すような関連づけを行う場合には、図4(b)の入力画像と図4(c)の装飾とを合成した画像そのものを作成する必要はない。 In the case of performing the association as shown in FIG. 4, it is not necessary to create an image itself in which the input image of FIG. 4B and the decoration of FIG. 4C are combined.
また、以上のSMIL形式のメタファイルではなく、XML(Extensible Markup Language)形式のファイルや、MP4等を使用しても差し支えない。つまり、データ形態2を使用する際には、何らかの形式で、入力画像と、装飾とが、関連付けられていればよい。
Instead of the above SMIL format metafile, an XML (Extensible Markup Language) format file, MP4, or the like may be used. That is, when the
次に、図1、図5、図12を用いて、本形態の画像処理装置による処理の流れの概要を説明する。ここでは、図10(a)に示す装飾情報(その1)が使用されるものとする。 Next, an outline of a processing flow by the image processing apparatus of the present embodiment will be described with reference to FIGS. Here, it is assumed that the decoration information (No. 1) shown in FIG.
まず、制御部2は、ステップ1にて、動画像を構成する全てのフレームについて、処理を完了したかどうかチェックする。完了していれば終了し、完了していなければ、ステップ2へ処理が移る。
First, in
ステップ2では、画像入力部1が、図12(a)に示すような入力画像を得て、制御部2は、これを入力画像記憶部4に保存する。
In
次に、ステップ3にて、制御部2は、検出部6に顔領域の検出を命ずる。これにより、検出部6は、テンプレート記憶部5のテンプレート(図12(b))を用いて、顔領域の検出を行う。
Next, in
次に、ステップ4にて、制御部2は、装飾配置部8に配置情報を定めるように命ずる。これにより、装飾配置部8は、装飾情報記憶部7の装飾情報を使用して、配置情報を定め、これを配置情報記憶部9に保存する。その結果、図12(c)に示すような、装飾レイヤー上の装飾画像が得られる。
Next, in step 4, the
次に、ステップ5にて、制御部2は、合成部10に入力画像と装飾との合成を命ずる。これにより、合成部10は、装飾情報記憶部7に保存された装飾情報に従って、図12(d)に示すように、装飾を入力画像に合成し、結果を出力画像記憶部11に保存する。
Next, in step 5, the
次に、ステップ6にて、制御部2は、出力画像記憶部11の合成画像を、画像出力部3を経由して、外部へ出力する。
Next, in
制御部2は、ステップ1以下の処理を、全フレームに対する処理が完了するまで繰り返す。
The
次に、図9を用いて、ユーザインターフェイスの構成例を説明する。ここでは、利用者によって選択されたアプリケーションが、画像編集ソフトであり、しかも、利用者によって撮影された人物画像と装飾とを、合成する画像合成モードであるものとする。 Next, a configuration example of the user interface will be described with reference to FIG. Here, it is assumed that the application selected by the user is image editing software, and that the application is in an image synthesis mode for synthesizing a person image captured by the user with a decoration.
まず、図11(a)に示すように、LCD29には、編集する対象の人物画像が表示される。そして、この人物画像に添えて、編集ボタン40と戻るボタン41が表示される。
First, as shown in FIG. 11A, the
ここで、利用者が、キーセット34により、編集ボタン40を選択すると、図11(b)に示すように、挿入可能な装飾のリストが表示される。
Here, when the user selects the
そして、利用者が、「涙」というアイテムを選択し、決定ボタン43を押すと、人物画像の顔領域が検出され、それに合う装飾配置情報が求められ、装飾「涙」がこの装飾配置情報に従って、入力画像に合成されて、結果が、図11(c)に示すように、LCD29に表示される。なお、涙の装飾50、51は、入力画像に追加されたものである。ここで、涙は、静止画の他に、移動するアニメーションとして挿入される。
Then, when the user selects the item “tears” and presses the
さて、従来技術では、涙は、配置されたまま移動することはない。また、仮にアニメーションが挿入されたとしても、このアニメーションの動きは、人物画像の動きと全く無関係に動くことになる。 Now, in the prior art, the tear does not move while being arranged. Even if an animation is inserted, the movement of this animation moves completely independently of the movement of the person image.
例えば、自動的に目の下に涙が挿入されることはなく、また、涙が額の頬あたりで止まるように自動的に調整されることはなく、涙がそのまま顔より下の方向へ流れていってしまう。また、顔が傾いたり動いたりするときに、涙の動きを顔に合わせて修正することはできない。 For example, tears are not automatically inserted under the eyes, and tears are not automatically adjusted to stop around the cheeks of the forehead, and tears flow directly below the face. Would. In addition, when the face is tilted or moved, the tear movement cannot be corrected according to the face.
一方、本形態では、涙を挿入する前に、身体部分領域(例えば、本形態では、顔領域内の目)の位置及びサイズを検出することにより、身体部分領域の動きに同調して、自動的に目の下に涙が挿入されるようにしてある。しかも、顔の動きに、装飾を追従させることができる。 On the other hand, in the present embodiment, before the tear is inserted, the position and size of the body part region (for example, eyes in the face region in the present embodiment) are detected, so that the body part region is automatically synchronized with the movement of the body part region. The tears are inserted under the eyes. Moreover, the decoration can follow the movement of the face.
以下、本形態の応用例を示しながら、装飾配置情報について、さらに説明する。図13は、入力画像と装飾の座標系の位置関係説明図である。 Hereinafter, the decoration arrangement information will be further described with reference to application examples of the present embodiment. FIG. 13 is a diagram illustrating the positional relationship between the input image and the coordinate system of the decoration.
ここで、各応用例の説明に先立つ補足として、一般のアニメーションを作成する手順について簡単に説明する。基本的に、装飾が動くアニメーションは、トランスフォームプロパティと関連付けられた、装飾レイヤーを動かすことにより、作成される。 Here, as a supplement prior to the description of each application example, a procedure for creating a general animation will be briefly described. Basically, animated animation is created by moving an ornament layer associated with a transform property.
すなわち、アニメーションを作成するには、トランスフォームの属性(位置、回転など)をキーとなるフレーム(時間軸上に並ぶ存在)毎に設定し、時間の経過に合わせて、属性の各値を変化させる。 In other words, to create an animation, set the attributes of the transform (position, rotation, etc.) for each key frame (existing on the time axis), and change the values of the attributes over time. Let it.
ここで、キーフレームとは、基準となる時点のレイヤーの位置などの値を定めたものである。値の違う2つのキーフレーム(当然これらの時間軸上の位置は異なる)があれば、時間軸において、これらのキーフレーム間に位置するフレームについては、中間値を計算することにより、属性の各値を決定できる。つまり、(1)キーフレームの作成、(2)それらの補間による移動軌跡設定、という作業を繰り返せば、アニメーションを作成できる。 Here, a key frame defines a value such as a position of a layer at a reference time. If there are two keyframes having different values (of course, their positions on the time axis are different), for the frame located between these keyframes on the time axis, an intermediate value is calculated to calculate each attribute. The value can be determined. In other words, an animation can be created by repeating the operations of (1) creating a key frame and (2) setting a movement trajectory by interpolation.
次に、図14に示すアニメーションを例に、上述の要領による、アニメーション作成の手順を説明する。ここでは、図14(a)〜(d)に示すように、レイヤーの位置と回転、スケールの値を変化させて、左手前から右上奥に飛行機が飛んでいくアニメーションを作成するものとする。 Next, a procedure for creating an animation in the manner described above will be described using the animation shown in FIG. 14 as an example. Here, as shown in FIGS. 14A to 14D, it is assumed that an animation in which an airplane flies from the left front to the upper right is changed by changing the position, rotation, and scale value of the layer.
まず、装飾レイヤーを配置する座標系を定義するため、この座標系のアンカーポイントを設定する。本例では、図13に示すように、アンカーポイントを元画像の中心である(X0、Y0)に設定し、座標軸の方向も、元画像座標系と同一であるとする。 First, an anchor point of this coordinate system is set in order to define a coordinate system for arranging the decoration layer. In this example, as shown in FIG. 13, the anchor point is set to (X0, Y0) which is the center of the original image, and the direction of the coordinate axes is assumed to be the same as the original image coordinate system.
そして、このアンカーポイントは、アニメーションの最後まで固定とする。この結果、位置、回転については、全てこのアンカーポイントが持つ座標系によった値となる。 This anchor point is fixed until the end of the animation. As a result, the position and rotation are all values based on the coordinate system of the anchor point.
次に、時間軸において、キーフレームの位置と、その間を結ぶ移動軌跡を設定する。例えば、図15に示すように、飛行機は最初のフレームでA地点に、2秒後にB地点に、4秒後にC地点に移動したとし、その間は曲線で結ばれているとする。また、回転、拡大縮小率についても、同様にポイントとなるフレームに対して設定する。そして、時間軸において、これらのキーフレームの間に位置するフレームについて、隣り合うキーフレームの補間により、移動軌跡を設定する。以上の結果、図14に示すような、右上奥にロケットが飛んでいくアニメーションを作成できる。 Next, on the time axis, the position of the key frame and the movement trajectory connecting the key frame are set. For example, as shown in FIG. 15, it is assumed that the airplane has moved to the point A in the first frame, to the point B in 2 seconds, to the point C in 4 seconds, and that the plane is connected by a curve. In addition, the rotation and the enlargement / reduction ratio are similarly set for a frame as a point. Then, for a frame located between these key frames on the time axis, a movement locus is set by interpolating adjacent key frames. As a result, it is possible to create an animation in which the rocket flies to the upper right back as shown in FIG.
(応用例1)
本例では、テンプレートマッチングによって顔部分領域の位置及び範囲が設定された後、その位置に応じた場所に装飾を表現する座標系の原点(アンカーポイント)を設定する。
(Application Example 1)
In this example, after the position and range of the face partial region are set by template matching, the origin (anchor point) of the coordinate system expressing the decoration is set at a position corresponding to the position.
図16(a)には、装飾画像データを、図16(c)には、局所的には楕円軌道を描く装飾の座標系の原点であるアンカーポイントを、顔領域の頭部に設定した結果を示している。 FIG. 16 (a) shows the result of setting the decoration image data, and FIG. 16 (c) shows the result of setting the anchor point which is the origin of the decoration coordinate system that locally draws an elliptical trajectory on the head of the face area. Is shown.
次に、この人物の顔部分領域が検出されると、図16(b)に示すように、これに応じて、顔領域の頭部にアンカーポイントを移動させる。また、顔領域のサイズが変化したときは、顔領域のサイズに比例して、座標系のスケールを変化させる。 Next, when the face area of the person is detected, the anchor point is moved to the head of the face area in response to the detection, as shown in FIG. When the size of the face area changes, the scale of the coordinate system is changed in proportion to the size of the face area.
また、向きが変わったときは、座標系の軸の方向が最初に設定した方向と同一方向を向くように変化させる。 When the direction changes, the direction of the axis of the coordinate system is changed so as to be in the same direction as the initially set direction.
これによって、人間が撮影装置に対して相対的に動いたとしても、常に頭部に楕円軌道を描く装飾が、人間の動きに追従するようになる。 As a result, even when a person moves relatively to the photographing apparatus, the decoration that always draws an elliptical orbit on the head follows the movement of the person.
また、違う場面で撮影した複数枚の顔画像において、それぞれの顔位置、範囲、傾き、向きに応じて常に頭部、頭部の大きさに比例した軌道で装飾を移動させることができるため、遊戯性がより高まることになる。 In addition, in a plurality of face images taken in different scenes, the head can always be moved according to each face position, range, inclination, orientation in a trajectory proportional to the size of the head, Playability will be further enhanced.
(応用例2)
本例では、装飾情報(その2)を使用し、合成フレーム装飾の不透明度を、顔領域の移動に追随して、変化させる。
(Application 2)
In this example, the decoration information (part 2) is used to change the opacity of the composite frame decoration following the movement of the face area.
本例では、図10(b)に示す装飾情報(その2)を使用する。ここで、図5におけるステップ1〜ステップ3までの処理は、図10(a)に示す装飾情報(その1)を使用する場合と、同様である。
In this example, the decoration information (part 2) shown in FIG. 10B is used. Here, the processing from
但し、図5のステップ4〜ステップ6において、図12(e)のマスクのうち、斜線部に、図12(f)に示す静止画が、見えるように配置し、入力画像の内、顔領域として検出された部分の画像を、非斜線部にサイズあわせをして貼り付け、これを出力する。 However, in Steps 4 to 6 in FIG. 5, the still image shown in FIG. 12F is arranged so as to be seen in the hatched portion of the mask in FIG. The image of the portion detected as is pasted with the size adjusted to the non-hatched portion, and this is output.
即ち、背景となる静止画との合成マスクを、装飾配置情報として使用し、顔検出した結果に応じて合成マスクの中心が、顔の中心となるように配置し、そのマスクによって、静止画と入力画像とを合成するときに不透明度の設定を制御する。 That is, a composite mask with a still image serving as a background is used as decorative arrangement information, and the center of the composite mask is arranged so as to be the center of the face in accordance with the result of face detection. Controls the setting of opacity when combining with the input image.
以上の結果、別の画像と合成するときに、顔領域に静止画がかからないようにすることができる。 As a result, when combining with another image, a still image can be prevented from covering the face area.
(応用例3)
本例では、図17に示すように、視点に対する奥行き情報(Z軸)を、入力画像及び装飾の双方に、追加する。
(Application 3)
In this example, as shown in FIG. 17, depth information (Z-axis) for the viewpoint is added to both the input image and the decoration.
そして、装飾が、入力画像の投射面に相当する仮想面60で切断されるとき、装飾を、この仮想面60の前景側にある前景領域61と、背景側にある背景領域62とに、分ける。
When the decoration is cut at a
さらに、前景領域61と、背景領域62の不透明度を変えて、合成する。これにより、図18に示すように、顔の周囲を星が回っているようなアニメを作成することができる。 Furthermore, the opacity of the foreground area 61 and the background area 62 are changed to perform synthesis. As a result, as shown in FIG. 18, it is possible to create an animation in which stars are rotating around the face.
これには、顔を通過するような軌跡になるように、意図的にアンカーポイントを設定すればよい。そして、顔の背面を通過する、背景領域62を、透明にすれば、入力画像に、三次元ライクで動きのある装飾を、追加できる。 For this purpose, an anchor point may be set intentionally so that the trajectory passes through the face. If the background area 62 passing through the back of the face is made transparent, a three-dimensional moving decoration can be added to the input image.
(応用例4)
本例では、図19に示すように、過去数フレーム分の位置と向きの系列、現在の位置と向き、過去数フレーム分等から、次のフレームにおける装飾の属性を、推定する。例えば、装飾が、等速運動するものと仮定すれば、簡単な式で、装飾の属性を推定できる。
(Application Example 4)
In this example, as shown in FIG. 19, the attribute of the decoration in the next frame is estimated from a series of positions and directions for the past several frames, the current position and direction, the past several frames, and the like. For example, assuming that the decoration moves at a constant speed, the attributes of the decoration can be estimated by a simple formula.
さらに、身体部分領域と重なった場合、軌道の修正するようにすればよい。複数の装飾を登場させる際には、それぞれの装飾は、互いに無関係に移動するようにするとよい。 Further, when the trajectory overlaps with the body part region, the trajectory may be corrected. When displaying a plurality of decorations, it is preferable that the decorations move independently of each other.
本例では、図20に示すように、装飾が、身体部分領域あるいは入力画像の外郭線に衝突する際、装飾の移動方向を、身体部分領域から離れる向きに、変更する。このようにすると、装飾に、身体部分領域にぶつかったときに反射するような動きを、与えることができ、遊戯性を向上できる。 In this example, as shown in FIG. 20, when the decoration collides with the body part region or the outline of the input image, the moving direction of the decoration is changed to a direction away from the body part region. In this way, the decoration can be given a movement that reflects when the decoration collides with the body part region, and the playability can be improved.
本発明に係る画像処理装置は、例えば、カメラ付き携帯電話等に搭載して好適に利用できる。 The image processing apparatus according to the present invention can be suitably used, for example, mounted on a mobile phone with a camera.
1 画像入力部
2 制御部
3 画像出力部
4 入力画像記憶部
5 テンプレート記憶部
6 検出部
7 装飾情報記憶部
8 装飾配置部
9 配置情報記憶部
10 合成部
11 出力画像記憶部
12 操作部
Claims (18)
検出した身体部分領域の位置に合わせて、装飾の座標系の位置を定めるステップと、
定めた位置に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。 Detecting the position of the body part region in the input image;
Determining the position of the coordinate system of the decoration according to the position of the detected body part region;
Outputting an image in which decorations are arranged on the input image based on the determined position.
検出した身体部分領域のサイズに合わせて、装飾の座標系のスケールを定めるステップと、
定めたスケールに基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。 Detecting the size of the body part region in the input image;
Determining the scale of the coordinate system of the decoration according to the size of the detected body part region;
Outputting an image in which decorations are arranged on the input image based on the determined scale.
検出した回転量に合わせて、装飾の座標系の回転量を定めるステップと、
定めた回転量に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。 Detecting the amount of rotation of the body part region in the plane of the input image;
Determining the amount of rotation of the decoration coordinate system according to the detected amount of rotation;
Outputting an image in which decorations are arranged on the input image based on the determined amount of rotation.
検出した回転量に合わせて、装飾の座標系の回転量を定めるステップと、
定めた回転量に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。 Detecting the amount of rotation of the body part region with respect to the plane of the input image;
Determining the amount of rotation of the decoration coordinate system according to the detected amount of rotation;
Outputting an image in which decorations are arranged on the input image based on the determined amount of rotation.
装飾の不透明度を、検出した身体部分領域の前景側にある領域と、背景側にある領域とで、異なるように定めるステップと、
定めた不透明度に基づいて、入力画像に装飾を配置した画像を出力するステップとを含む、画像処理方法。 Detecting a body part region in the input image;
Determining the opacity of the decoration to be different between the region on the foreground side of the detected body part region and the region on the background side;
Outputting an image in which decorations are arranged on the input image based on the determined opacity.
身体部分領域のテンプレートを記憶するテンプレート記憶部と、
前記テンプレート記憶部のテンプレートを用いて、前記入力画像記憶部に記憶された入力画像から、身体部分領域を検出する検出部と、
装飾情報を記憶する装飾情報記憶部と、
前記検出部が検出した身体部分領域の変化に同調するように、装飾の配置情報を定める装飾配置部とを備える、画像処理装置。 An input image storage unit for storing an input image,
A template storage unit that stores a template of a body part region;
Using a template of the template storage unit, from the input image stored in the input image storage unit, a detection unit that detects a body part region,
A decoration information storage unit for storing decoration information;
An image processing apparatus, comprising: a decoration placement unit that determines placement information of a decoration so as to synchronize with a change in a body part region detected by the detection unit.
身体部分領域のテンプレートを記憶するテンプレート記憶部と、
前記テンプレート記憶部のテンプレートを用いて、前記入力画像記憶部に記憶された入力画像から、身体部分領域を検出する検出部と、
装飾情報を記憶する装飾情報記憶部と、
前記検出部が検出した身体部分領域の変化に同調するように、装飾の配置情報を定める装飾配置部とを備える、携帯電話。 An input image storage unit for storing an input image,
A template storage unit that stores a template of a body part region;
Using a template of the template storage unit, from the input image stored in the input image storage unit, a detection unit that detects a body part region,
A decoration information storage unit for storing decoration information;
A mobile phone comprising: a decoration placement unit that determines the placement information of the decoration so as to synchronize with the change in the body part region detected by the detection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003370559A JP4351023B2 (en) | 2002-11-07 | 2003-10-30 | Image processing method and apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002324443 | 2002-11-07 | ||
JP2003370559A JP4351023B2 (en) | 2002-11-07 | 2003-10-30 | Image processing method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004171543A true JP2004171543A (en) | 2004-06-17 |
JP4351023B2 JP4351023B2 (en) | 2009-10-28 |
Family
ID=32716043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003370559A Expired - Lifetime JP4351023B2 (en) | 2002-11-07 | 2003-10-30 | Image processing method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4351023B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006065443A (en) * | 2004-08-25 | 2006-03-09 | Vodafone Kk | Data processing method and mobile communication terminal device |
WO2006070680A1 (en) * | 2004-12-28 | 2006-07-06 | Oki Electric Industry Co., Ltd. | Image composition device |
JP2006227838A (en) * | 2005-02-16 | 2006-08-31 | Nec Corp | Image processor and image processing program |
JP2007148537A (en) * | 2005-11-24 | 2007-06-14 | Fujifilm Corp | Image processing method, image processing program and image processor |
JP2007215189A (en) * | 2006-02-07 | 2007-08-23 | Lg Electronics Inc | Mobile communication terminal equipment, control method of mobile communication terminal equipment and videophone method using mobile communication terminal equipment |
JP2009194644A (en) * | 2008-02-14 | 2009-08-27 | Fujifilm Corp | Image processor, image processing method and image pick-up device |
JP2009217328A (en) * | 2008-03-07 | 2009-09-24 | Oki Semiconductor Co Ltd | Image display controller, image display control program and semiconductor device |
JP2012113677A (en) * | 2010-11-05 | 2012-06-14 | Aitia Corp | Information processing device and information processing program |
JP2012138957A (en) * | 2012-04-03 | 2012-07-19 | Fujifilm Corp | Image processing device, image processing method, and imaging apparatus |
JP2016151975A (en) * | 2015-02-18 | 2016-08-22 | ネオス株式会社 | Synthetic video data generation system and program |
JP2016213832A (en) * | 2015-04-29 | 2016-12-15 | シールスラボ インコーポレイテッド | Moving picture generation method and moving picture generation device, and program realizing for generating moving picture and recording medium |
JP2017525303A (en) * | 2014-05-20 | 2017-08-31 | 西安中興新軟件有限責任公司 | Image processing method, image processing apparatus, and computer recording medium |
JP2018159932A (en) * | 2014-07-10 | 2018-10-11 | フリュー株式会社 | Photograph seal creation device, display method, and program |
JP2023541125A (en) * | 2020-08-26 | 2023-09-28 | 北京字節跳動網絡技術有限公司 | Information display method, device and storage medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06139318A (en) * | 1992-10-26 | 1994-05-20 | Seiko Epson Corp | Glasses wear simulation device |
JPH06186505A (en) * | 1992-12-18 | 1994-07-08 | Seiko Epson Corp | Simulation device for frame of spectacles |
JP2000022929A (en) * | 1998-06-30 | 2000-01-21 | Omron Corp | Person image processor |
JP2000322588A (en) * | 1999-05-06 | 2000-11-24 | Toshiba Corp | Device and method for image processing |
JP2000353249A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Indication display in composite real space and indication display method |
JP2002111998A (en) * | 2000-09-27 | 2002-04-12 | Toshiba Corp | Image composition method and information processor |
JP2002112286A (en) * | 2000-09-27 | 2002-04-12 | Mixed Reality Systems Laboratory Inc | Composite reality providing device and its method, and storage medium |
-
2003
- 2003-10-30 JP JP2003370559A patent/JP4351023B2/en not_active Expired - Lifetime
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06139318A (en) * | 1992-10-26 | 1994-05-20 | Seiko Epson Corp | Glasses wear simulation device |
JPH06186505A (en) * | 1992-12-18 | 1994-07-08 | Seiko Epson Corp | Simulation device for frame of spectacles |
JP2000022929A (en) * | 1998-06-30 | 2000-01-21 | Omron Corp | Person image processor |
JP2000322588A (en) * | 1999-05-06 | 2000-11-24 | Toshiba Corp | Device and method for image processing |
JP2000353249A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Indication display in composite real space and indication display method |
JP2002111998A (en) * | 2000-09-27 | 2002-04-12 | Toshiba Corp | Image composition method and information processor |
JP2002112286A (en) * | 2000-09-27 | 2002-04-12 | Mixed Reality Systems Laboratory Inc | Composite reality providing device and its method, and storage medium |
Non-Patent Citations (2)
Title |
---|
仲祥平, 外2名: ""Augmented Mirror:鏡の中の拡張現実感"", 映像情報メディア学会技術報告, vol. 第25巻, 第38号, JPN6009000308, 11 June 2001 (2001-06-11), JP, pages 47 - 50, ISSN: 0001221000 * |
櫻井智明: ""インターネット最新テクノロジー:第19回"", INTERNET MAGAZINE, vol. 第43号, JPN6009000310, 1 August 1998 (1998-08-01), JP, pages 358 - 361, ISSN: 0001220999 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4578180B2 (en) * | 2004-08-25 | 2010-11-10 | ソフトバンクモバイル株式会社 | Data processing method and mobile communication terminal device |
JP2006065443A (en) * | 2004-08-25 | 2006-03-09 | Vodafone Kk | Data processing method and mobile communication terminal device |
WO2006070680A1 (en) * | 2004-12-28 | 2006-07-06 | Oki Electric Industry Co., Ltd. | Image composition device |
JP2006227838A (en) * | 2005-02-16 | 2006-08-31 | Nec Corp | Image processor and image processing program |
JP2007148537A (en) * | 2005-11-24 | 2007-06-14 | Fujifilm Corp | Image processing method, image processing program and image processor |
US8111280B2 (en) | 2006-02-07 | 2012-02-07 | Lg Electronics Inc. | Video conference system and method in a communication network |
JP4499117B2 (en) * | 2006-02-07 | 2010-07-07 | エルジー エレクトロニクス インコーポレイティド | Mobile communication terminal, mobile communication terminal control method, and videophone method using mobile communication terminal |
KR101240261B1 (en) * | 2006-02-07 | 2013-03-07 | 엘지전자 주식회사 | The apparatus and method for image communication of mobile communication terminal |
JP2007215189A (en) * | 2006-02-07 | 2007-08-23 | Lg Electronics Inc | Mobile communication terminal equipment, control method of mobile communication terminal equipment and videophone method using mobile communication terminal equipment |
JP2009194644A (en) * | 2008-02-14 | 2009-08-27 | Fujifilm Corp | Image processor, image processing method and image pick-up device |
US8488909B2 (en) | 2008-02-14 | 2013-07-16 | Fujifilm Corporation | Image processing apparatus, image processing method and imaging apparatus |
US8249389B2 (en) | 2008-02-14 | 2012-08-21 | Fujifilm Corporation | Image processing apparatus, image processing method and imaging apparatus |
JP2009217328A (en) * | 2008-03-07 | 2009-09-24 | Oki Semiconductor Co Ltd | Image display controller, image display control program and semiconductor device |
JP2012113677A (en) * | 2010-11-05 | 2012-06-14 | Aitia Corp | Information processing device and information processing program |
JP2012138957A (en) * | 2012-04-03 | 2012-07-19 | Fujifilm Corp | Image processing device, image processing method, and imaging apparatus |
JP2017525303A (en) * | 2014-05-20 | 2017-08-31 | 西安中興新軟件有限責任公司 | Image processing method, image processing apparatus, and computer recording medium |
JP2018159932A (en) * | 2014-07-10 | 2018-10-11 | フリュー株式会社 | Photograph seal creation device, display method, and program |
JP2016151975A (en) * | 2015-02-18 | 2016-08-22 | ネオス株式会社 | Synthetic video data generation system and program |
JP2016213832A (en) * | 2015-04-29 | 2016-12-15 | シールスラボ インコーポレイテッド | Moving picture generation method and moving picture generation device, and program realizing for generating moving picture and recording medium |
JP2023541125A (en) * | 2020-08-26 | 2023-09-28 | 北京字節跳動網絡技術有限公司 | Information display method, device and storage medium |
JP7421010B2 (en) | 2020-08-26 | 2024-01-23 | 北京字節跳動網絡技術有限公司 | Information display method, device and storage medium |
US11922721B2 (en) | 2020-08-26 | 2024-03-05 | Beijing Bytedance Network Technology Co., Ltd. | Information display method, device and storage medium for superimposing material on image |
Also Published As
Publication number | Publication date |
---|---|
JP4351023B2 (en) | 2009-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7133658B2 (en) | Method and apparatus for image processing | |
JP2004178163A (en) | Image processing method and device | |
CN107852443B (en) | Information processing apparatus, information processing method, and program | |
US20100079491A1 (en) | Image compositing apparatus and method of controlling same | |
KR101190686B1 (en) | Image processing apparatus, image processing method, and computer readable recording medium | |
JP7200439B1 (en) | Avatar display device, avatar generation device and program | |
KR101445263B1 (en) | System and method for providing personalized content | |
US9135954B2 (en) | Image tracking and substitution system and methodology for audio-visual presentations | |
Doenges et al. | MPEG-4: Audio/video and synthetic graphics/audio for mixed media | |
JP4351023B2 (en) | Image processing method and apparatus | |
US6919892B1 (en) | Photo realistic talking head creation system and method | |
US8553037B2 (en) | Do-It-Yourself photo realistic talking head creation system and method | |
CN107851299B (en) | Information processing apparatus, information processing method, and program | |
KR100912877B1 (en) | A mobile communication terminal having a function of the creating 3d avata model and the method thereof | |
JP5564384B2 (en) | Image generation program, imaging apparatus, imaging system, and image generation method | |
JPH11219446A (en) | Video/sound reproducing system | |
WO2002030171A3 (en) | Facial animation of a personalized 3-d face model using a control mesh | |
KR101894955B1 (en) | Live social media system for using virtual human awareness and real-time synthesis technology, server for augmented synthesis | |
JP3810943B2 (en) | Image processing apparatus, image processing method, and recording medium recording image processing program | |
KR20140065762A (en) | System for providing character video and method thereof | |
JP2004178036A (en) | Device for presenting virtual space accompanied by remote person's picture | |
JP5894505B2 (en) | Image communication system, image generation apparatus, and program | |
JP2004179845A (en) | Image processing method and apparatus thereof | |
ES2284391B1 (en) | PROCEDURE FOR THE GENERATION OF SYNTHETIC ANIMATION IMAGES. | |
JPH11149285A (en) | Image acoustic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090701 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090723 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120731 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4351023 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130731 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |