JP4351023B2 - Image processing method and apparatus - Google Patents
Image processing method and apparatus Download PDFInfo
- Publication number
- JP4351023B2 JP4351023B2 JP2003370559A JP2003370559A JP4351023B2 JP 4351023 B2 JP4351023 B2 JP 4351023B2 JP 2003370559 A JP2003370559 A JP 2003370559A JP 2003370559 A JP2003370559 A JP 2003370559A JP 4351023 B2 JP4351023 B2 JP 4351023B2
- Authority
- JP
- Japan
- Prior art keywords
- decoration
- image
- input image
- body part
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000003672 processing method Methods 0.000 title claims description 15
- 238000005034 decoration Methods 0.000 claims description 151
- 238000001514 detection method Methods 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 8
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 210000003128 head Anatomy 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 239000002131 composite material Substances 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 210000000214 mouth Anatomy 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、画像を用いる通信装置(例えば、テレビ電話、テレビ会議、ビデオメールあるいはビデオチャットのための装置やドアフォン等)に組み込まれる画像処理装置に関し、さらに詳しくは、人物画像(例えば、利用者の顔画像や全身画像など)を編集する画像処理装置に関するものである。 The present invention relates to an image processing apparatus incorporated in a communication apparatus using an image (for example, an apparatus for videophone, videoconference, video mail or video chat, a door phone, etc.), and more particularly, a person image (for example, a user) Is related to an image processing apparatus.
利用者を撮影した画像を、各種の印刷媒体に印刷して出力する遊戯機器がある。このものは、撮影した人物画像に、装飾(例えば、絵柄や模様など)のフレームを重ね合わせて合成し、印刷媒体(例えば、シールなど)に印刷して出力するようになっている。 There is an amusement machine that prints an image of a user on various print media and outputs the image. This is designed to superimpose a frame of a decoration (for example, a pattern or a pattern) on a photographed person image and print it on a print medium (for example, a sticker) for output.
このような遊戯機器は、それ自体において、人物画像と装飾との位置関係を調整する機能を持たない。したがって、利用者が、人物画像を、装飾フレーム内に収まるように配置しても、装飾が人物画像に重なり、顔部分や頭部分などが隠れてしまって、人物画像が不鮮明になることがあった。 Such a game machine itself does not have a function of adjusting the positional relationship between the person image and the decoration. Therefore, even if the user arranges the person image so that it fits within the decoration frame, the decoration overlaps with the person image and the face part, head part, etc. may be hidden and the person image may become unclear. It was.
特許文献1(特開2000−22929号公報)は、この点を考慮したものであり、装飾が、人物画像の身体部分、特に、その顔や頭に対応して設定された身体部分領域に、重ならないようにした上で、装飾を付加する技術を、提案している。 Patent Document 1 (Japanese Patent Laid-Open No. 2000-22929) considers this point, and decoration is applied to a body part of a human image, particularly a body part region set corresponding to the face and head. We have proposed a technique to add decorations while avoiding overlapping.
一方、最近、撮影した人物画像に、装飾フレームと重ね合わせて合成し、合成した画像を送信する機能を備えた、カメラ付き携帯電話が、実用化されている。送信者が、このようなカメラ付き携帯電話を使用すると、受信者は、送信者が編集した画像を見るという、楽しみを享受できる。
特許文献1では、装飾が、動かないことを前提とする。そして、この文献記載の技術では、人物画像の身体部分、特に、その顔や頭に対応して設定された身体部分領域に、装飾が重ならないように、装飾を付加している。
In
この文献では、印刷媒体への印刷を、出力としており、また、一旦印刷された画像を、印刷後に編集することは、通常あり得ないから、このような考え方は、妥当であるといえよう。 In this document, printing on a print medium is used as an output, and it is not normally possible to edit a once printed image after printing. Therefore, this idea can be said to be appropriate.
ところが、上述のようなカメラ付き携帯電話が普及してきており、ここでは、合成画像は、普通の場合、印刷媒体へ印刷されずに、ディスプレイに表示されることになる。そして、今後、利用者は、さらなる楽しさを得るために、装飾を動かしたいと思うようになるであろう。 However, the above-described camera-equipped mobile phones have become widespread, and here, in a normal case, the composite image is displayed on a display without being printed on a print medium. And in the future, users will want to move the decoration to get more fun.
しかしながら、従来技術では、動かない装飾を、動かない人物画像に付加することしか考慮されておらず、動く装飾の付加ということは、全く考慮されていない。このため、単純に、従来技術を、動く人物画像に適用すると、人物画像と装飾とが干渉して、人物画像が不鮮明になったり、遊戯性を高めるような利用ができない。 However, the prior art only considers adding a decoration that does not move to a person image that does not move, and does not consider adding a decoration that moves. For this reason, when the conventional technology is simply applied to a moving person image, the person image and the decoration interfere with each other, and the person image becomes unclear or cannot be used to enhance playability.
そこで本発明は、人物画像を鮮明に表示でき、かつ、遊戯性を高め得る、画像処理方法及びその間連技術を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing method and an inter-related technology capable of clearly displaying a person image and improving playability.
請求項1記載の画像処理方法では、入力画像を得る画像入力部と、入力画像の画像処理を制御する制御部と、画像処理が施された入力画像を出力する画像出力部と、を備える装置による画像処理方法であって、人物像を含む入力画像から身体部分領域の位置を検出し、身体部分領域の、入力画像の平面内での回転量および/または平面に対する回転量を検出するステップと、検出した身体部分領域の位置に合わせて移動軌跡を持つ装飾の座標系の原点の位置を定め、検出した回転量に合わせて装飾の座標系の回転量を定めるステップと、定めた原点の位置と定めた回転量と移動軌跡から装飾の配置情報を定めるステップと、配置情報に基づいて、装飾を配置して出力画像を生成するステップと、出力画像を出力するステップと、を含む。
The image processing method according to
この構成によれば、入力画像において、人物被写体が移動したときに、その移動に応じて、装飾を移動させることができる。この構成によれば、顔を横に傾けたようなときに、装飾を傾け、かつ装飾の移動パスも傾けることができるので、人物の入力画像の平面内における、回転方向の変化に対しても、装飾が追従しているように見せることができる。この構成によれば、人物が「回れ右」をしているような場合、装飾と移動パスを、人物の回転に応じて変形させることができる。したがって、人物が、入力画像の平面に対する向きの変化に対して、装飾が追従しているように見せることができる。 According to this configuration, when the person subject moves in the input image, the decoration can be moved according to the movement. According to this configuration, when the face is tilted to the side, the decoration can be tilted and the movement path of the decoration can be tilted. Therefore, even when the rotation direction changes in the plane of the human input image, , The decoration can appear to follow. According to this configuration, when the person is “turning right”, the decoration and the movement path can be deformed according to the rotation of the person. Accordingly, it is possible to make it appear that the decoration follows the change in the orientation of the input image with respect to the plane.
請求項2記載の画像処理方法では、出力するステップでは、装飾を入力画像に描画した画像データを出力する。 In the image processing method according to the second aspect, in the outputting step, image data in which decoration is drawn on the input image is output.
この構成により、出力される画像の転送先では、入力画像と装飾とを合成する必要はない。 With this configuration, it is not necessary to combine the input image and the decoration at the transfer destination of the output image.
請求項3記載の画像処理方法では、出力するステップでは、入力画像と装飾とを関連付けた画像データを出力する。 In the image processing method according to the third aspect, in the outputting step, image data in which the input image is associated with the decoration is output.
この構成により、出力される画像の転送先は、入力画像を復元しやすく便利である。 With this configuration, the destination of the output image is convenient to restore the input image.
請求項4記載の画像処理方法では、入力画像と装飾とは、メタファイルにより関連付けられる。 In the image processing method according to the fourth aspect, the input image and the decoration are associated by the metafile.
この構成により、入力画像と装飾とを簡潔に関連付けることができる。 With this configuration, the input image and the decoration can be simply associated with each other.
この構成により、入力画像と装飾との関連付けを、容易に実施できる。 With this configuration, the input image can be easily associated with the decoration.
請求項5記載の画像処理方法では、装飾の不透明度を、身体部分領域の入力画像の投射面に相当する仮想面の前にある領域と、入力画像の投射面に相当する仮想面の後ろにある領域と、で、異なるように定めるステップと、生成するステップでは、配置情報および定めた不透明度に基づいて、装飾を配置して出力画像を生成する。
In the image processing method according to
この構成によれば、装飾の移動パスが、身体部分領域の背面に来たときに装飾を消すことができるので、あたかも、装飾が、身体部分領域を取り巻き、それを中心に立体的に動いているように見せることができる。 According to this configuration, the decoration can be erased when the decoration movement path comes to the back of the body part area, so that the decoration surrounds the body part area and moves in three dimensions around it. You can make it look like you are.
請求項6記載の画像処理方法では、装飾が、身体部分領域に衝突する際、装飾の移動方向を、身体部分領域から離れる向きに、変更する。 In the image processing method according to the sixth aspect, when the decoration collides with the body part region, the moving direction of the decoration is changed to a direction away from the body part region.
この構成によれば、装飾に、身体部分領域にぶつかったときに反射するような動きを、与えることができる。 According to this configuration, it is possible to give the decoration a motion that reflects when it hits the body part region.
本発明によれば、人物画像及び装飾の双方が動いていても、装飾が人物画像に干渉しないようにすることができ、人物画像を鮮明に表示でき、しかも、装飾の動きを人物画像の動きに協調させることにより、遊戯性を高めることができる。 According to the present invention, even when both the person image and the decoration are moving, the decoration can be prevented from interfering with the person image, the person image can be clearly displayed, and the movement of the decoration can be changed to the movement of the person image. By making them cooperate, playability can be improved.
以下図面を参照しながら、本発明の実施の形態を説明する。まず、具体的な構成の説明に先立って、重要な用語を解説する。 Embodiments of the present invention will be described below with reference to the drawings. First, important terms are explained prior to the description of the specific configuration.
「人物画像」とは、人物の一部または全部の画像が含まれる画像である。従って、人物全体の画像でもよいし、人物の顔だけや後姿だけ、あるいは、上半身だけの画像であってもよい。また、複数の人物が写っている画像でもよい。勿論、背景に人物以外の風景や模様などのいかなるパターンがあっても良い。 A “person image” is an image that includes a part or all of an image of a person. Therefore, it may be an image of the entire person, only the face or back of the person, or only the upper body. Moreover, the image in which several persons are reflected may be sufficient. Of course, the background may have any pattern other than a person such as a landscape or a pattern.
「身体部分」とは、人物の身体の一部という意味であり、身体部分に服や帽子や靴を装着している皮膚が見えなくても、人物の身体の一部であることが認識可能な部分であれば、身体部分に含まれる。従って、顔も身体部分であるし、頭も身体部分である。さらに、目、鼻、口、耳、眉、髪、首、服を着た上半身、手、腕、足、靴を履いた脚、帽子を被った頭、めがねを掛けた目なども身体部分である。 "Body part" means a part of a person's body, and it can be recognized as a part of a person's body even if the skin wearing clothes, hats or shoes is not visible on the body part It is included in the body part. Therefore, the face is a body part, and the head is a body part. In addition, eyes, nose, mouth, ears, eyebrows, hair, neck, dressed upper body, hands, arms, legs, shoes legs, head with hat, eyes with glasses, etc. are also body parts. is there.
「身体部分領域」とは、人物画像において、身体部分が占める領域として定められる領域のことであり、身体部分領域は、その内部に身体部分でない部分を含んでいてもよいし、身体部分の内部に位置する領域であってもよい。 The “body part area” is an area defined as an area occupied by a body part in a human image, and the body part area may include a part that is not a body part inside the body part area. It may be a region located in the area.
すなわち、身体部分が顔であるとすると、身体部分領域は、顔に対応する身体部分領域が顔の周囲にある領域を含んでいてもよいし、両眼と口と鼻とを囲む最小サイズの長方形であって額や耳を含まないものであってもよい。 That is, if the body part is a face, the body part region may include a region in which the body part region corresponding to the face is around the face, or the smallest size surrounding both eyes, mouth, and nose. It may be a rectangle that does not include a forehead or ears.
「装飾」とは、追加される画像パターンのことであり、この画像パターンは予め保持されている画像パターンであってもよいし、コンピュータグラフイックス技術で生成される画像パターンであってもよい。また、この画像パターンは、文字や記号のパターンや図形のパターンであってもよい。 “Decoration” refers to an image pattern to be added. This image pattern may be an image pattern stored in advance, or may be an image pattern generated by a computer graphics technique. The image pattern may be a character or symbol pattern or a graphic pattern.
図1は、本発明の一実施の形態における画像処理装置の機能ブロック図である。図1に示すように、本形態の画像処理装置は、次の構成要素を有する。 FIG. 1 is a functional block diagram of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus according to the present embodiment includes the following components.
画像入力部1は、入力画像を得る。本形態では、入力画像に人物画像が含まれ、この人物画像が動くことを許容しており、入力画像は、通常、動画像の1フレーム分の画像を意味することになる。
The
但し、この入力画像は、カメラで撮影された直後のものでも良いし、撮影後、MPEG等の符号化方式に従って符号化されたデータ(記録媒体に記録されたものをロードしても良いし、送信装置から受信したものでも良い。)を、復号して得られるものでも良い。 However, this input image may be the one immediately after being shot by the camera, or after the shooting, the data encoded according to the encoding method such as MPEG (the one recorded on the recording medium may be loaded, It may also be obtained by decoding (received from the transmitter).
制御部2は、図1に示す各要素を、図11のフローチャートに沿って、制御する。
The
画像出力部3は、入力画像に装飾が合成された画像を、出力画像として出力する。この出力画像は、表示デバイスに表示される他、上記符号化方式に従って符号化して記録媒体に保存することもできるし、他の通信装置で送信することもできる。
The
入力画像記憶部4は、画像入力部1が入力した、入力画像を記憶する。
The input image storage unit 4 stores the input image input by the
テンプレート記憶部5は、身体部分領域のテンプレートを記憶する。以下、本形態では、顔領域を身体部分領域として取り上げる。
The template memory |
テンプレートは、図6(a)、(b)、(c)に示すように、顔部品(頭、目、鼻、口)のそれぞれの輪郭をモデル化したものを、各種サイズ分だけ用意して使用する。 As shown in FIGS. 6 (a), 6 (b), and 6 (c), templates are prepared for various sizes that model the contours of facial parts (head, eyes, nose, mouth). use.
また、図7(b)、(c)に示すように、図7(a)に示す、基本姿勢によるテンプレートの他、入力画像の平面内での回転量を持つテンプレートを併用する。これにより、顔の回転による傾きを、検出できる。 Further, as shown in FIGS. 7B and 7C, in addition to the template based on the basic posture shown in FIG. 7A, a template having a rotation amount in the plane of the input image is used in combination. Thereby, the inclination by the rotation of the face can be detected.
また、図8(b)、(c)に示すように、図8(a)に示す、基本姿勢によるテンプレートの他、入力画像の平面に対する回転量を持つテンプレートを併用する。これにより、顔の向きが基本姿勢と異なる場合(顔の中心を通る法線ベクトルが入力画像の平面に対して直交しない場合)に、顔の向きを検出できる。 Further, as shown in FIGS. 8B and 8C, in addition to the template based on the basic posture shown in FIG. 8A, a template having a rotation amount with respect to the plane of the input image is used in combination. Thereby, when the face orientation is different from the basic posture (when the normal vector passing through the center of the face is not orthogonal to the plane of the input image), the face orientation can be detected.
図1において、検出部6は、テンプレート記憶部5のテンプレートを用いて、入力画像記憶部4に記憶された入力画像から、身体部分領域を検出する。
In FIG. 1, the
ここで、図9に示しているように、検出部6は、入力画像記憶部4の入力画像に微分フィルタをかけて、エッジ成分を抽出する。また、検出部6は、テンプレート記憶部5からテンプレート53を選び、選んだテンプレート53と、エッジ成分とを用いて、パターンマッチマッチングを実行する。
Here, as illustrated in FIG. 9, the
このパターンマッチングは、テンプレート53(Nx*Ny画素)を、それより大きい入力画像(Mx*My画素)内の探索範囲(Mx−Nx+1)(My−Ny+1)上で動かし、次式に示す残差Rが、最小となるようなテンプレート画像の左上位置(a,b)を求める処理である。 In this pattern matching, the template 53 (Nx * Ny pixels) is moved on the search range (Mx−Nx + 1) (My−Ny + 1) in the larger input image (Mx * My pixels), and the residual shown in the following equation is used. This is a process for obtaining the upper left position (a, b) of the template image in which R is minimized.
但し、(数1)において、I(a,b)(mx,my)は入力画像の部分画像、T(mx,my)はテンプレート53の画像である。
However, in (Equation 1), I (a, b) (mx, my) is a partial image of the input image, and T (mx, my) is an image of the
また、(数1)に替えて、次式で示す相互相関係数Cを求め、相互相関係数Cが最大になる、テンプレート画像の左上位置(a,b)を求めてもよい。 Further, instead of (Equation 1), a cross-correlation coefficient C represented by the following equation may be obtained, and the upper left position (a, b) of the template image where the cross-correlation coefficient C is maximized may be obtained.
検出部6は、図6、図7、図8に示す、各種のテンプレートを使用し、(数1)を用いるときは残差Rが最小となるテンプレート、(数2)を用いるときは、相関係数Cが最大となるテンプレートを求める。そして、検出部6は、求めたテンプレートの、位置、サイズ、傾き、向きを、入力画像における顔画像の、それぞれの値とする。
The
顔画像の場合は、毎フレーム毎(あるいは数フレーム毎)に同一処理を施すことにより、顔の位置とサイズ、傾き、向きの遷移を求めることができる。 In the case of a face image, the same processing is performed every frame (or every several frames), whereby the transition of the position, size, inclination, and orientation of the face can be obtained.
なお、検出部6は、画像に複数の顔が存在している場合、既に検出された1人目の顔部分領域を除いた領域内で、残差Rが低い位置もしくは相関係数Cが高い位置を、2人目の顔部分領域として検出する。
In addition, when a plurality of faces are present in the image, the
さらに、3人目以降の顔についても同じく、検出部6は、既に検出された顔部分領域を除いた領域内で残差Rが低い位置、相関係数Rが高い位置を顔部分領域として設定しながら、以下、予め定められたしきい値よりも残差Rが大きくなるまで、もしくは相関係数Cが小さくなるまで繰り返し検出する。これにより、複数の人物の顔部分領域を検出できる。
Similarly, for the third and subsequent faces, the
勿論、以上の検出は、常に全て実施する必要はなく、顔領域の位置及びサイズの検出を除けば、適宜取捨選択して差し支えない。 Of course, it is not always necessary to carry out all of the above detections, and they may be appropriately selected except for detection of the position and size of the face area.
図1において、装飾情報記憶部7は、装飾情報を記憶する。次に、図10を用いて、装飾情報について説明する。
In FIG. 1, a decoration
図10(a)に示す例(装飾情報(その2))では、装飾情報は、装飾画像データと、トランスフォームプロパティとが、関連付けて構成される。 In the example (decoration information (part 2)) illustrated in FIG. 10A, the decoration information is configured by associating decoration image data and transform properties.
「装飾画像データ」のフィールドには、装飾画像データそのものか、または、装飾画像データそのものを指す、IDまたはポインタが格納される。なお、図10(a)に図示しているように、装飾画像データは、画像データだけで構成されていても良いし、さらに、付加的な属性(衝突時の振る舞いなど)を持つものでも良い。 In the “decoration image data” field, the decoration image data itself or an ID or pointer indicating the decoration image data itself is stored. As shown in FIG. 10A, the decoration image data may be composed only of image data or may have additional attributes (such as behavior at the time of collision). .
「トランスフォームプロパティ」のフィールドは、装飾レイヤーに対して装飾をどう動かすか、また装飾レイヤーをどう重ね合わせるかという情報である。 The field of “transform property” is information on how to move the decoration with respect to the decoration layer and how to overlay the decoration layer.
具体的には、装飾は、トランスフォームプロパティによって、入力画像とは別のローカルな座標系(アンカーポイントを原点とする)によって定義され、さらに、この座標系は、位置、スケール(拡大縮小率)、回転、不透明度という属性を持つ。 Specifically, the decoration is defined by a transform property and a local coordinate system different from the input image (an anchor point is the origin). Furthermore, this coordinate system is defined by position, scale (scale rate). , Rotation and opacity attributes.
さらに詳しくは、アンカーポイントは、装飾に係るローカルな座標系の座標原点の位置と向きを示す。そして、「位置」、「スケール」、「回転」の各フィールドにセットされる値は、そのアンカーポイントが持つ座標系(ローカル座標系)に対する実際の画像の位置、スケール(拡大縮小率)、回転の度合いを示す。 More specifically, the anchor point indicates the position and orientation of the coordinate origin of the local coordinate system related to the decoration. The values set in the “Position”, “Scale”, and “Rotation” fields are the actual image position, scale (enlargement / reduction ratio), and rotation with respect to the coordinate system (local coordinate system) of the anchor point. Indicates the degree.
また、図10(b)に示す例(装飾情報(その1))では、装飾情報は、装飾画像データと、マスクデータとが、関連付けて構成される。 In the example shown in FIG. 10B (decoration information (part 1)), the decoration information is configured by associating the decoration image data with the mask data.
このときの、「装飾画像データ」は、地模様として表示される画像のデータであり、「マスクデータ」は、地模様のデータ部分(斜線部)と、顔領域の画像があらわれる部分(非斜線部)の、領域のサイズ及び位置関係を示す。 At this time, the “decorative image data” is data of an image displayed as a background pattern, and the “mask data” is a data portion of the background pattern (hatched portion) and a portion where an image of the face area appears (non-hatched line). Part) shows the size and positional relationship of the area.
図1において、装飾配置部8は、検出部6が検出した身体部分領域の変化に同調するように、装飾の配置情報を定める。
In FIG. 1, the
検出部6は、図7に示すテンプレートで最大のマッチングが得られたなら、身体部分領域の、入力画像の平面内での回転量を検出し、装飾配置部8は、検出部6が検出した回転量の変化に同調するように、装飾の配置情報を定める。
If the maximum matching is obtained with the template shown in FIG. 7, the
検出部6は、図8に示すテンプレートで最大のマッチングが得られたなら、身体部分領域の、入力画像の平面に対する回転量を検出し、装飾配置部8は、検出部6が検出した回転量の変化に同調するように、装飾の配置情報を定める。
If the maximum matching is obtained with the template shown in FIG. 8, the
なお、装飾配置部8の詳細な処理は、後に、数種の例を挙げながら、詳述する。
The detailed processing of the
図1において、合成部10は、装飾配置部8が定めた配置情報に基づいて、装飾を入力画像に配置した画像を出力する。この画像は、一旦、出力画像記憶部11に蓄積されてから、画像出力部3から出力される。
In FIG. 1, the combining
なお、合成部10は、表示デバイスに表示を行うために、
(データ形態1)装飾を入力画像に直接描画した画像データ
を生成するが、合成部10は、記録媒体や他の通信装置へ転送するための画像データとして、
(データ形態2)入力画像と、装飾を描画する際のパラメータとを関連付けた画像データ
を生成し、これを転送するようにしてもよい。データ形態2によると、容易に、入力画像を復元できるため有利である。なお、データ形態2については、後に説明を補足する。
Note that the combining
(Data Form 1) Image data in which decorations are directly drawn on an input image is generated, but the combining
(Data format 2) Image data in which an input image is associated with parameters for drawing decoration may be generated and transferred. The
さらに図1において、操作部12は、利用者が、制御部2に操作情報を入力するためのものである。
Further, in FIG. 1, the operation unit 12 is for a user to input operation information to the
次に、図2を用いて、図1に示す画像処理装置及びその周辺部分の具体的構成例を説明する。図2は、同画像処理装置のブロック図である。 Next, a specific configuration example of the image processing apparatus shown in FIG. 1 and its peripheral part will be described with reference to FIG. FIG. 2 is a block diagram of the image processing apparatus.
図2の例では、カメラ付き携帯電話に、図1の画像処理装置を組み込んである。図2に示すように、このカメラ付き携帯電話は、次の要素を有する。 In the example of FIG. 2, the image processing apparatus of FIG. 1 is incorporated in a camera-equipped mobile phone. As shown in FIG. 2, the camera-equipped mobile phone has the following elements.
CPU21は、バス20を介して、図2の各要素を制御し、ROM23に記録され、図3のフローチャートに従う制御プログラムを実行する。
The CPU 21 controls each element in FIG. 2 via the bus 20, and executes a control program recorded in the
RAM22には、CPU21が処理上必要とする一時記憶領域が確保されている。フラッシュメモリ24は、記録媒体に相当するデバイスである。
In the
また、アンテナ25を経由して、通信処理部26は、外部の通信装置と、データの送受信を行う。
In addition, the
画像処理部27は、MPEG等の符号化方式に関するエンコーダ/デコーダ等からなり、カメラ28が撮影した画像を処理したり、CPU21から指示された画像データに基づいて、LCD(表示デバイスの一例)29の表示状態を制御する。
The
音声処理部30は、マイク31からの入力と、スピーカ32を介しての音声出力とを、制御する。
The
また、バス20には、インターフェイス33が接続され、インターフェイス33を介して、利用者は、キーセット34による操作情報の入力を行えるようになっており、さらにポート35を介して、別のデバイスを接続できるように構成されている。
An interface 33 is connected to the bus 20, and the user can input operation information through the key set 34 via the interface 33, and another device is connected via the
ここで、図1における、画像入力部1は、フラッシュメモリ24に記録されたデータ、あるいは、カメラ28が撮影したデータを、CPU21または画像処理部27が処理することにより実現される。
Here, the
また、制御部2、検出部6、装飾配置部8及び合成部10は、CPU21が、RAM22、フラッシュメモリ24などと、データのやりとりを行いながら、演算を実施することにより実現される。
The
さらに、入力画像記憶部4、テンプレート記憶部5、装飾情報記憶部7、配置情報記憶部9及び出力画像記憶部11は、RAM22、ROM23あるいはフラッシュメモリ24のいずれかに確保された領域に相当する。また、図2のキーセット34は、図1の操作部12に相当する。
Further, the input image storage unit 4, the
なお、CPU21は、利用者がキーセット34に対して行う操作の認識、カメラ28からの画像の取得、カメラ画像の圧縮とフラッシュメモリ24への保存、保存画像の読み込みと伸張、画像合成、画像再生、LCD29ヘの表示などを行うが、これらの処理のうちいくつかを、画像処理部27で行うようにしても良い。
The CPU 21 recognizes an operation performed by the user on the key set 34, acquires an image from the
図3は、本形態の画像処理装置の外観を示す。上述したように、本形態の画像処理装置は、カメラ付き携帯電話に組み込まれている。図3のカメラ付き携帯電話は、上側筐体42と下側筐体41とが、結合部43により、折畳可能に結合される、二つ折りタイプのものである。勿論、画像処理装置の外形は、任意であり、本発明は、PDA等、携帯電話以外の装置にも適用できる。
FIG. 3 shows the appearance of the image processing apparatus of this embodiment. As described above, the image processing apparatus of this embodiment is incorporated in a camera-equipped mobile phone. The camera-equipped mobile phone of FIG. 3 is of the double fold type in which an
次に、図4を参照しながら、データ形態2について、説明を補足する。ここでは、図4(b)に示す入力画像(ファイル名”face.rm”)があり、これに図4(c)に示す装飾(ファイル名”star.swf”)とを関連付けるものとする。
Next, a supplementary explanation will be given for the
このとき、図4(a)に示すSMIL(Synchronized Multimedia Integration Language)形式のメタファイルを用いるのが、好ましい。図4(a)では、<par>と</par>とに挟まれた、<video src=”face.rm”>なる行と、<animation src=”star.swf”>なる行とが、同時に実行される。つまり、表示時に、図4(b)の入力画像と図4(c)の装飾とが、合成される。 At this time, it is preferable to use a metafile in the SMIL (Synchronized Multimedia Integration Language) format shown in FIG. In FIG. 4A, a line <video src = “face.rm”> and a line <animation src = “star.swf”> sandwiched between <par> and </ par> It is executed at the same time. That is, at the time of display, the input image in FIG. 4B and the decoration in FIG. 4C are combined.
なお、図4に示すような関連づけを行う場合には、図4(b)の入力画像と図4(c)の装飾とを合成した画像そのものを作成する必要はない。 When the association as shown in FIG. 4 is performed, it is not necessary to create an image itself that combines the input image of FIG. 4B and the decoration of FIG. 4C.
また、以上のSMIL形式のメタファイルではなく、XML(Extensible Markup Language)形式のファイルや、MP4等を使用しても差し支えない。つまり、データ形態2を使用する際には、何らかの形式で、入力画像と、装飾とが、関連付けられていればよい。
Also, instead of the above SMIL metafile, an XML (Extensible Markup Language) format file, MP4, or the like may be used. That is, when the
次に、図1、図5、図12を用いて、本形態の画像処理装置による処理の流れの概要を説明する。ここでは、図10(a)に示す装飾情報(その1)が使用されるものとする。 Next, the outline of the flow of processing by the image processing apparatus of this embodiment will be described with reference to FIGS. 1, 5, and 12. Here, it is assumed that the decoration information (part 1) shown in FIG.
まず、制御部2は、ステップ1にて、動画像を構成する全てのフレームについて、処理を完了したかどうかチェックする。完了していれば終了し、完了していなければ、ステップ2へ処理が移る。
First, in
ステップ2では、画像入力部1が、図12(a)に示すような入力画像を得て、制御部2は、これを入力画像記憶部4に保存する。
In
次に、ステップ3にて、制御部2は、検出部6に顔領域の検出を命ずる。これにより、検出部6は、テンプレート記憶部5のテンプレート(図12(b))を用いて、顔領域の検出を行う。
Next, in
次に、ステップ4にて、制御部2は、装飾配置部8に配置情報を定めるように命ずる。これにより、装飾配置部8は、装飾情報記憶部7の装飾情報を使用して、配置情報を定め、これを配置情報記憶部9に保存する。その結果、図12(c)に示すような、装飾レイヤー上の装飾画像が得られる。
Next, in step 4, the
次に、ステップ5にて、制御部2は、合成部10に入力画像と装飾との合成を命ずる。これにより、合成部10は、装飾情報記憶部7に保存された装飾情報に従って、図12(d)に示すように、装飾を入力画像に合成し、結果を出力画像記憶部11に保存する。
Next, in
次に、ステップ6にて、制御部2は、出力画像記憶部11の合成画像を、画像出力部3を経由して、外部へ出力する。
Next, in
制御部2は、ステップ1以下の処理を、全フレームに対する処理が完了するまで繰り返す。
The
次に、図9を用いて、ユーザインターフェイスの構成例を説明する。ここでは、利用者によって選択されたアプリケーションが、画像編集ソフトであり、しかも、利用者によって撮影された人物画像と装飾とを、合成する画像合成モードであるものとする。 Next, a configuration example of the user interface will be described with reference to FIG. Here, it is assumed that the application selected by the user is image editing software and is an image composition mode in which the person image photographed by the user and the decoration are combined.
まず、図11(a)に示すように、LCD29には、編集する対象の人物画像が表示される。そして、この人物画像に添えて、編集ボタン40と戻るボタン41が表示される。
First, as shown in FIG. 11A, a person image to be edited is displayed on the
ここで、利用者が、キーセット34により、編集ボタン40を選択すると、図11(b)に示すように、挿入可能な装飾のリストが表示される。
Here, when the user selects the
そして、利用者が、「涙」というアイテムを選択し、決定ボタン43を押すと、人物画像の顔領域が検出され、それに合う装飾配置情報が求められ、装飾「涙」がこの装飾配置情報に従って、入力画像に合成されて、結果が、図11(c)に示すように、LCD29に表示される。なお、涙の装飾50、51は、入力画像に追加されたものである。ここで、涙は、静止画の他に、移動するアニメーションとして挿入される。
Then, when the user selects the item “tears” and presses the
さて、従来技術では、涙は、配置されたまま移動することはない。また、仮にアニメーションが挿入されたとしても、このアニメーションの動きは、人物画像の動きと全く無関係に動くことになる。 Now, in the prior art, tears do not move while placed. Further, even if an animation is inserted, the movement of this animation moves independently of the movement of the person image.
例えば、自動的に目の下に涙が挿入されることはなく、また、涙が額の頬あたりで止まるように自動的に調整されることはなく、涙がそのまま顔より下の方向へ流れていってしまう。また、顔が傾いたり動いたりするときに、涙の動きを顔に合わせて修正することはできない。 For example, tears are not automatically inserted under the eyes and are not automatically adjusted so that the tears stop around the cheeks of the forehead. End up. Also, when the face tilts or moves, the movement of tears cannot be corrected to match the face.
一方、本形態では、涙を挿入する前に、身体部分領域(例えば、本形態では、顔領域内の目)の位置及びサイズを検出することにより、身体部分領域の動きに同調して、自動的に目の下に涙が挿入されるようにしてある。しかも、顔の動きに、装飾を追従させることができる。 On the other hand, in this embodiment, before the tear is inserted, the position and size of the body part region (for example, eyes in the face region in this embodiment) are detected to automatically synchronize with the movement of the body part region. Tears are inserted under the eyes. Moreover, the decoration can follow the movement of the face.
以下、本形態の応用例を示しながら、装飾配置情報について、さらに説明する。図13は、入力画像と装飾の座標系の位置関係説明図である。 Hereinafter, the decoration arrangement information will be further described with reference to application examples of the present embodiment. FIG. 13 is an explanatory diagram of the positional relationship between the input image and the coordinate system of decoration.
ここで、各応用例の説明に先立つ補足として、一般のアニメーションを作成する手順について簡単に説明する。基本的に、装飾が動くアニメーションは、トランスフォームプロパティと関連付けられた、装飾レイヤーを動かすことにより、作成される。 Here, as a supplement prior to the description of each application example, a procedure for creating a general animation will be briefly described. Basically, the animation that moves the decoration is created by moving the decoration layer associated with the transform property.
すなわち、アニメーションを作成するには、トランスフォームの属性(位置、回転など)をキーとなるフレーム(時間軸上に並ぶ存在)毎に設定し、時間の経過に合わせて、属性の各値を変化させる。 In other words, to create an animation, set the transform attributes (position, rotation, etc.) for each key frame (present on the time axis), and change each attribute value as time passes. Let
ここで、キーフレームとは、基準となる時点のレイヤーの位置などの値を定めたものである。値の違う2つのキーフレーム(当然これらの時間軸上の位置は異なる)があれば、時間軸において、これらのキーフレーム間に位置するフレームについては、中間値を計算することにより、属性の各値を決定できる。つまり、(1)キーフレームの作成、(2)それらの補間による移動軌跡設定、という作業を繰り返せば、アニメーションを作成できる。 Here, the key frame defines values such as the position of the layer at the reference time point. If there are two key frames with different values (of course, their positions on the time axis are different), for each frame located between these key frames on the time axis, each value of the attribute is calculated by calculating an intermediate value. The value can be determined. In other words, an animation can be created by repeating the operations of (1) creation of key frames and (2) movement trajectory setting by their interpolation.
次に、図14に示すアニメーションを例に、上述の要領による、アニメーション作成の手順を説明する。ここでは、図14(a)〜(d)に示すように、レイヤーの位置と回転、スケールの値を変化させて、左手前から右上奥に飛行機が飛んでいくアニメーションを作成するものとする。 Next, taking the animation shown in FIG. 14 as an example, a procedure for creating an animation according to the above-described procedure will be described. Here, as shown in FIGS. 14A to 14D, it is assumed that an animation in which an airplane flies from the front left side to the back upper right side is generated by changing the position, rotation, and scale values of the layers.
まず、装飾レイヤーを配置する座標系を定義するため、この座標系のアンカーポイントを設定する。本例では、図13に示すように、アンカーポイントを元画像の中心である(X0、Y0)に設定し、座標軸の方向も、元画像座標系と同一であるとする。 First, in order to define a coordinate system for arranging the decoration layer, an anchor point of this coordinate system is set. In this example, as shown in FIG. 13, the anchor point is set to (X0, Y0) which is the center of the original image, and the direction of the coordinate axis is also the same as that of the original image coordinate system.
そして、このアンカーポイントは、アニメーションの最後まで固定とする。この結果、位置、回転については、全てこのアンカーポイントが持つ座標系によった値となる。 This anchor point is fixed until the end of the animation. As a result, the position and rotation are all values according to the coordinate system of the anchor point.
次に、時間軸において、キーフレームの位置と、その間を結ぶ移動軌跡を設定する。例えば、図15に示すように、飛行機は最初のフレームでA地点に、2秒後にB地点に、4秒後にC地点に移動したとし、その間は曲線で結ばれているとする。また、回転、拡大縮小率についても、同様にポイントとなるフレームに対して設定する。そして、時間軸において、これらのキーフレームの間に位置するフレームについて、隣り合うキーフレームの補間により、移動軌跡を設定する。以上の結果、図14に示すような、右上奥にロケットが飛んでいくアニメーションを作成できる。 Next, on the time axis, the positions of the key frames and the movement trajectory connecting them are set. For example, as shown in FIG. 15, it is assumed that the plane moves to point A in the first frame, to point B after 2 seconds, to point C after 4 seconds, and is connected by a curve between them. Similarly, the rotation and the enlargement / reduction ratio are set for the point frame. Then, on the time axis, for a frame located between these key frames, a movement locus is set by interpolation of adjacent key frames. As a result of the above, it is possible to create an animation in which the rocket flies in the upper right corner as shown in FIG.
(応用例1)
本例では、テンプレートマッチングによって顔部分領域の位置及び範囲が設定された後、その位置に応じた場所に装飾を表現する座標系の原点(アンカーポイント)を設定する。
(Application 1)
In this example, after the position and range of the face partial area are set by template matching, the origin (anchor point) of the coordinate system that expresses decoration is set at a location corresponding to the position.
図16(a)には、装飾画像データを、図16(c)には、局所的には楕円軌道を描く装飾の座標系の原点であるアンカーポイントを、顔領域の頭部に設定した結果を示している。 FIG. 16A shows the decoration image data, and FIG. 16C shows the result of setting the anchor point, which is the origin of the decoration coordinate system that locally draws an elliptical orbit, at the head of the face area. Is shown.
次に、この人物の顔部分領域が検出されると、図16(b)に示すように、これに応じて、顔領域の頭部にアンカーポイントを移動させる。また、顔領域のサイズが変化したときは、顔領域のサイズに比例して、座標系のスケールを変化させる。 Next, when the face partial area of the person is detected, as shown in FIG. 16B, the anchor point is moved to the head of the face area accordingly. Further, when the size of the face area changes, the scale of the coordinate system is changed in proportion to the size of the face area.
また、向きが変わったときは、座標系の軸の方向が最初に設定した方向と同一方向を向くように変化させる。 Further, when the orientation changes, the direction of the axis of the coordinate system is changed so as to face the same direction as the initially set direction.
これによって、人間が撮影装置に対して相対的に動いたとしても、常に頭部に楕円軌道を描く装飾が、人間の動きに追従するようになる。 As a result, even when a human moves relative to the photographing apparatus, the decoration that always draws an elliptical orbit on the head follows the human movement.
また、違う場面で撮影した複数枚の顔画像において、それぞれの顔位置、範囲、傾き、向きに応じて常に頭部、頭部の大きさに比例した軌道で装飾を移動させることができるため、遊戯性がより高まることになる。 In addition, in multiple face images taken in different scenes, the decoration can always be moved in a trajectory proportional to the head and head size according to each face position, range, tilt, orientation, Playability will be further enhanced.
(応用例2)
本例では、装飾情報(その2)を使用し、合成フレーム装飾の不透明度を、顔領域の移動に追随して、変化させる。
(Application example 2)
In this example, decoration information (part 2) is used to change the opacity of the composite frame decoration following the movement of the face area.
本例では、図10(b)に示す装飾情報(その2)を使用する。ここで、図5におけるステップ1〜ステップ3までの処理は、図10(a)に示す装飾情報(その1)を使用する場合と、同様である。
In this example, the decoration information (part 2) shown in FIG. 10B is used. Here, the processing from
但し、図5のステップ4〜ステップ6において、図12(e)のマスクのうち、斜線部に、図12(f)に示す静止画が、見えるように配置し、入力画像の内、顔領域として検出された部分の画像を、非斜線部にサイズあわせをして貼り付け、これを出力する。 However, in Step 4 to Step 6 of FIG. 5, the still image shown in FIG. 12F is arranged so as to be visible in the hatched portion of the mask of FIG. The image of the portion detected as is pasted with the size adjusted to the non-hatched portion and output.
即ち、背景となる静止画との合成マスクを、装飾配置情報として使用し、顔検出した結果に応じて合成マスクの中心が、顔の中心となるように配置し、そのマスクによって、静止画と入力画像とを合成するときに不透明度の設定を制御する。 That is, a composite mask with a still image as a background is used as decoration arrangement information, and the center of the composite mask is arranged so as to be the center of the face according to the result of face detection. Controls the opacity setting when compositing with the input image.
以上の結果、別の画像と合成するときに、顔領域に静止画がかからないようにすることができる。 As a result, it is possible to prevent a still image from being applied to the face area when combining with another image.
(応用例3)
本例では、図17に示すように、視点に対する奥行き情報(Z軸)を、入力画像及び装飾の双方に、追加する。
(Application 3)
In this example, as shown in FIG. 17, depth information (Z axis) for the viewpoint is added to both the input image and the decoration.
そして、装飾が、入力画像の投射面に相当する仮想面60で切断されるとき、装飾を、この仮想面60の前景側にある前景領域61と、背景側にある背景領域62とに、分ける。
When the decoration is cut at the
さらに、前景領域61と、背景領域62の不透明度を変えて、合成する。これにより、図18に示すように、顔の周囲を星が回っているようなアニメを作成することができる。
Further, the opacity of the
これには、顔を通過するような軌跡になるように、意図的にアンカーポイントを設定すればよい。そして、顔の背面を通過する、背景領域62を、透明にすれば、入力画像に、三次元ライクで動きのある装飾を、追加できる。
For this purpose, an anchor point may be intentionally set so that the trajectory passes through the face. Then, if the
(応用例4)
本例では、図19に示すように、過去数フレーム分の位置と向きの系列、現在の位置と向き、過去数フレーム分等から、次のフレームにおける装飾の属性を、推定する。例えば、装飾が、等速運動するものと仮定すれば、簡単な式で、装飾の属性を推定できる。
(Application 4)
In this example, as shown in FIG. 19, the attribute of the decoration in the next frame is estimated from the position and orientation series for the past several frames, the current position and orientation, the past several frames, and the like. For example, if it is assumed that the decoration moves at a constant velocity, the decoration attribute can be estimated by a simple expression.
さらに、身体部分領域と重なった場合、軌道の修正するようにすればよい。複数の装飾を登場させる際には、それぞれの装飾は、互いに無関係に移動するようにするとよい。 Furthermore, when it overlaps with the body part region, the trajectory may be corrected. When a plurality of decorations are made to appear, each decoration may be moved independently of each other.
本例では、図20に示すように、装飾が、身体部分領域あるいは入力画像の外郭線に衝突する際、装飾の移動方向を、身体部分領域から離れる向きに、変更する。このようにすると、装飾に、身体部分領域にぶつかったときに反射するような動きを、与えることができ、遊戯性を向上できる。 In this example, as shown in FIG. 20, when the decoration collides with the body part region or the outline of the input image, the moving direction of the decoration is changed to a direction away from the body part region. If it does in this way, a motion which reflects when it hits a body part field can be given to decoration, and play nature can be improved.
本発明に係る画像処理装置は、例えば、カメラ付き携帯電話等に搭載して好適に利用できる。 The image processing apparatus according to the present invention can be suitably used by being mounted on, for example, a camera-equipped mobile phone.
1 画像入力部
2 制御部
3 画像出力部
4 入力画像記憶部
5 テンプレート記憶部
6 検出部
7 装飾情報記憶部
8 装飾配置部
9 配置情報記憶部
10 合成部
11 出力画像記憶部
12 操作部
DESCRIPTION OF
Claims (10)
前記入力画像の画像処理を制御する制御部と、
画像処理が施された前記入力画像を出力する画像出力部と、を備える装置による画像処理方法であって、
人物像を含む前記入力画像から身体部分領域の位置を検出し、前記身体部分領域の、前記入力画像の平面内での回転量および/または平面に対する回転量を検出するステップと、
検出した身体部分領域の位置に合わせて移動軌跡を持つ装飾の座標系の原点の位置を定め、検出した回転量に合わせて装飾の座標系の回転量を定めるステップと、
定めた原点の位置と定めた回転量と移動軌跡から前記装飾の配置情報を定めるステップと、
前記配置情報に基づいて、前記装飾を配置して出力画像を生成するステップと、
前記出力画像を出力するステップと、を含む、画像処理方法。 An image input unit for obtaining an input image;
A control unit that controls image processing of the input image;
An image processing method by an apparatus comprising: an image output unit that outputs the input image subjected to image processing,
Detecting a position of a body part region from the input image including a person image, and detecting a rotation amount of the body part region in a plane of the input image and / or a rotation amount with respect to the plane ;
A step in accordance with the detected position of the body part area defining a position of the origin of the coordinate system of the decoration with moving trajectory, determining the amount of rotation of the coordinate system of the combined decoration detected rotation amount,
Determining the decoration arrangement information from the determined origin position , the determined rotation amount and the movement trajectory;
A step of based on said location information, and generates an output image by placing the decoration,
Outputting the output image. An image processing method comprising:
前記生成するステップでは、前記配置情報および定めた不透明度に基づいて、前記装飾を配置して出力画像を生成する請求項1記載の画像処理方法。 The opacity of the decorative, a region in front of the virtual surface corresponding to the projection surface of the input image of the body part area, and the area behind the virtual surface corresponding to the projection surface of the input image in, Differently defined steps,
The image processing method according to claim 1, wherein, in the generating step, an output image is generated by arranging the decoration based on the arrangement information and the determined opacity.
人物の身体部分領域のテンプレートを記憶するテンプレート記憶部と、
前記テンプレート記憶部のテンプレートを用いて、前記入力画像記憶部に記憶された入力画像から、人物の身体部分領域を検出し、前記身体部分領域の、前記入力画像の平面内での回転量および/または平面に対する回転量を検出する検出部と、
装飾画像情報を記憶する装飾情報記憶部と、
前記検出した身体部分領域の位置に合わせて移動軌跡を持つ装飾の座標系の原点を定め、検出した回転量に合わせて装飾の座標系の回転量を定め、定めた原点の位置と定めた回転量と移動軌跡から前記装飾の配置情報を定める装飾配置部と、
前記配置情報に基づいて前記装飾を配置して出力画像を生成する合成部とを備える、画像処理装置。 An input image storage unit for storing an input image including a person image;
A template storage unit for storing a template of a human body part region;
A body part region of a person is detected from an input image stored in the input image storage unit using a template of the template storage unit , and the amount of rotation of the body part region in the plane of the input image and / or Or a detection unit for detecting the amount of rotation with respect to the plane ;
A decoration information storage unit for storing decoration image information;
The origin of the decoration coordinate system having a movement locus is determined according to the detected position of the body part region, the amount of rotation of the decoration coordinate system is determined according to the detected amount of rotation, and the rotation determined as the position of the determined origin A decoration placement unit that determines the placement information of the decoration from the amount and the movement trajectory ;
And a synthesis unit which generates an output image by arranging the decoration on the basis of the arrangement information, the image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003370559A JP4351023B2 (en) | 2002-11-07 | 2003-10-30 | Image processing method and apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002324443 | 2002-11-07 | ||
JP2003370559A JP4351023B2 (en) | 2002-11-07 | 2003-10-30 | Image processing method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004171543A JP2004171543A (en) | 2004-06-17 |
JP4351023B2 true JP4351023B2 (en) | 2009-10-28 |
Family
ID=32716043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003370559A Expired - Lifetime JP4351023B2 (en) | 2002-11-07 | 2003-10-30 | Image processing method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4351023B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4578180B2 (en) * | 2004-08-25 | 2010-11-10 | ソフトバンクモバイル株式会社 | Data processing method and mobile communication terminal device |
JP3920889B2 (en) * | 2004-12-28 | 2007-05-30 | 沖電気工業株式会社 | Image synthesizer |
JP2006227838A (en) * | 2005-02-16 | 2006-08-31 | Nec Corp | Image processor and image processing program |
JP4880292B2 (en) * | 2005-11-24 | 2012-02-22 | 富士フイルム株式会社 | Image processing method, image processing program, and image processing apparatus |
KR101240261B1 (en) * | 2006-02-07 | 2013-03-07 | 엘지전자 주식회사 | The apparatus and method for image communication of mobile communication terminal |
JP4970302B2 (en) | 2008-02-14 | 2012-07-04 | 富士フイルム株式会社 | Image processing apparatus, image processing method, and imaging apparatus |
JP4881336B2 (en) * | 2008-03-07 | 2012-02-22 | ラピスセミコンダクタ株式会社 | Image display control device, image display control program, and semiconductor device |
JP2012113677A (en) * | 2010-11-05 | 2012-06-14 | Aitia Corp | Information processing device and information processing program |
JP5055462B2 (en) * | 2012-04-03 | 2012-10-24 | 富士フイルム株式会社 | Image processing apparatus, image processing method, and imaging apparatus |
JP6375755B2 (en) * | 2014-07-10 | 2018-08-22 | フリュー株式会社 | Photo sticker creation apparatus and display method |
CN105100671A (en) * | 2014-05-20 | 2015-11-25 | 西安中兴新软件有限责任公司 | Image processing method and device based on video call |
JP2016151975A (en) * | 2015-02-18 | 2016-08-22 | ネオス株式会社 | Synthetic video data generation system and program |
US20160321833A1 (en) * | 2015-04-29 | 2016-11-03 | Seerslab, Inc. | Method and apparatus for generating moving photograph based on moving effect |
CN112001872B (en) | 2020-08-26 | 2021-09-14 | 北京字节跳动网络技术有限公司 | Information display method, device and storage medium |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06139318A (en) * | 1992-10-26 | 1994-05-20 | Seiko Epson Corp | Glasses wear simulation device |
JPH06186505A (en) * | 1992-12-18 | 1994-07-08 | Seiko Epson Corp | Simulation device for frame of spectacles |
JP2985879B1 (en) * | 1998-06-30 | 1999-12-06 | オムロン株式会社 | People image processing device |
JP3810943B2 (en) * | 1999-05-06 | 2006-08-16 | 株式会社東芝 | Image processing apparatus, image processing method, and recording medium recording image processing program |
JP3413128B2 (en) * | 1999-06-11 | 2003-06-03 | キヤノン株式会社 | Mixed reality presentation method |
JP3517639B2 (en) * | 2000-09-27 | 2004-04-12 | キヤノン株式会社 | Mixed reality presentation apparatus and method, and storage medium |
JP2002111998A (en) * | 2000-09-27 | 2002-04-12 | Toshiba Corp | Image composition method and information processor |
-
2003
- 2003-10-30 JP JP2003370559A patent/JP4351023B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004171543A (en) | 2004-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7133658B2 (en) | Method and apparatus for image processing | |
US20240104959A1 (en) | Menu hierarchy navigation on electronic mirroring devices | |
JP2004178163A (en) | Image processing method and device | |
JP4351023B2 (en) | Image processing method and apparatus | |
US11748931B2 (en) | Body animation sharing and remixing | |
JP7504968B2 (en) | Avatar display device, avatar generation device and program | |
US20230154121A1 (en) | Side-by-side character animation from realtime 3d body motion capture | |
US20100079491A1 (en) | Image compositing apparatus and method of controlling same | |
US9135954B2 (en) | Image tracking and substitution system and methodology for audio-visual presentations | |
US7027054B1 (en) | Do-it-yourself photo realistic talking head creation system and method | |
KR101445263B1 (en) | System and method for providing personalized content | |
US12002175B2 (en) | Real-time motion transfer for prosthetic limbs | |
JP5564384B2 (en) | Image generation program, imaging apparatus, imaging system, and image generation method | |
CN114930399A (en) | Image generation using surface-based neurosynthesis | |
TWI255141B (en) | Method and system for real-time interactive video | |
US20240257484A1 (en) | 3d upper garment tracking | |
JPH11219446A (en) | Video/sound reproducing system | |
CA2654960A1 (en) | Do-it-yourself photo realistic talking head creation system and method | |
JP2006120128A (en) | Image processing device, image processing method and image processing program | |
KR20140065762A (en) | System for providing character video and method thereof | |
WO2024044138A1 (en) | Avatar call on an eyewear device | |
JP2004179845A (en) | Image processing method and apparatus thereof | |
JPH11149285A (en) | Image acoustic system | |
KR102728245B1 (en) | Avatar display device, avatar creation device and program | |
US20230316665A1 (en) | Surface normals for pixel-aligned object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090701 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090723 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120731 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4351023 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130731 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |