JP2004179845A - Image processing method and apparatus thereof - Google Patents
Image processing method and apparatus thereof Download PDFInfo
- Publication number
- JP2004179845A JP2004179845A JP2002342072A JP2002342072A JP2004179845A JP 2004179845 A JP2004179845 A JP 2004179845A JP 2002342072 A JP2002342072 A JP 2002342072A JP 2002342072 A JP2002342072 A JP 2002342072A JP 2004179845 A JP2004179845 A JP 2004179845A
- Authority
- JP
- Japan
- Prior art keywords
- arrangement
- decoration
- image
- area
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像を用いる通信装置(例えば、テレビ電話、テレビ会議、ビデオメールあるいはビデオチャットのための装置やドアフォン等)に組み込まれる画像処理装置に関し、さらに詳しくは、人物画像(例えば、利用者の顔画像や全身画像など)を編集する画像処理装置に関するものである。
【0002】
【従来の技術】
利用者を撮影した画像を、各種の印刷媒体に印刷して出力する遊戯機器がある。このものは、撮影した人物画像に、装飾(例えば、絵柄や模様など)のフレームを重ね合わせて合成し、印刷媒体(例えば、シールなど)に印刷して出力するようになっている。
【0003】
このような遊戯機器は、それ自体において、人物画像と装飾との位置関係を調整する機能を持たない。したがって、利用者が、人物画像を、装飾フレーム内に収まるように配置しても、装飾が人物画像に重なり、顔部分や頭部分などが隠れてしまって、人物画像が不鮮明になることがあった。
【0004】
特許文献1は、この点を考慮したものであり、装飾が、人物画像の身体部分、特に、その顔や頭に対応して設定された身体部分領域に、重ならないようにした上で、装飾を付加する技術を、提案している。
【0005】
一方、最近、撮影した人物画像に、装飾フレームと重ね合わせて合成し、合成した画像を送信する機能を備えた、カメラ付き携帯電話が、実用化されている。送信者が、このようなカメラ付き携帯電話を使用すると、受信者は、送信者が編集した画像を見るという、楽しみを享受できる。
【特許文献1】
特開2000−22929号公報(第3−7頁)
【0006】
【発明が解決しようとする課題】
ところで、特許文献1では、人物画像のうち、身体部分領域を除く領域を、装飾を配置すべき配置領域としている。そして、この配置領域内において、装飾の位置をランダムに定め、しかも装飾のサイズを変化させることを、提案している。
【0007】
このようにすると、装飾の有り様は、事実上無限大とおり存在することになり、いわば、万華鏡の模様のように、装飾が千変万化し、面白さを向上できる。
【0008】
しかしながら、このような取り扱いでは、ある箇所には、装飾が集中して塊が形成されるが、別の箇所では、全く装飾がないというように、しばしば装飾の偏りが発生する。こうなると、装飾全体のバランスあるいは美しさを、損なってしまう。
【0009】
そこで本発明は、装飾全体としてのまとまりを損なわず、しかも変化に富んでおもしろい、装飾を入力画像に付加できる、画像処理方法及びその間連技術を提供することを目的とする。
【0010】
【課題を解決するための手段】
請求項1記載の画像処理方法は、入力画像において、装飾の配置領域を設定するステップと、配置領域を、一定基準を満たす複数の小領域に分割するステップと、これらの小領域内における装飾の配置を設定するステップと、設定した装飾の配置に従って、入力画像に装飾を合成した合成画像を作成するステップとを含む。
【0011】
この構成において、小領域内において、装飾を配置することにより、装飾全体としてのまとまりを維持することができる。しかも、小領域内で装飾の有り様を変化させることにより、面白い合成画像が得られる。
【0012】
請求項2記載の画像処理方法では、これらの小領域は、矩形をなし、一定基準は、矩形の縦横比が1:2未満である。
【0013】
この構成において、小領域を矩形とすることにより、取り扱いを容易にでき、このような一定基準を設けることにより、各小領域の相似的な形状が、過剰にばらつかないようにすることができる。
【0014】
請求項3記載の画像処理装置では、小領域に配置される装飾の密度が、一様となるように、これらの小領域内における装飾の配置を設定する。
【0015】
この構成により、装飾全体の配置バランスを、全体として、ほぼ均一にすることができる。
【0016】
請求項4記載の画像処理方法では、小領域に配置される装飾の密度が、小領域毎に設定される重みに従うように、これらの小領域内における装飾の配置を設定する。
【0017】
この構成により、重みによって、装飾全体の配置にメリハリを付けることができる。例えば、入力画像の上側の重みを小さくし、下側の重みを大きくすることにより、安定感のある配置とすることができる。
【0018】
請求項5記載の画像処理方法は、入力画像において、装飾の配置領域を設定するステップと、装飾の配置を定める配置データを決定するステップと、決定した配置データに含まれ、かつ、配置領域内に含まれる、装飾の配置を修正するステップと、修正された配置に従って、入力画像に装飾を合成した合成画像を作成するステップとを含む。
【0019】
この構成において、配置データに基づいて、装飾の配置を決定するため、装飾全体のまとまりを維持できる。しかも、これに修正を加えることにより、装飾の有り様を変化させ、面白みを向上できる。
【0020】
請求項6記載の画像処理装置では、配置の修正量は、ランダムに定められる。
【0021】
この構成により、装飾の有り様を千変万化させ、面白みを一層向上できる。
【0022】
【発明の実施の形態】
以下図面を参照しながら、本発明の実施の形態を説明する。まず、具体的な構成の説明に先立って、重要な用語を解説する。
【0023】
「人物画像」とは、人物の一部または全部の画像が含まれる画像である。従って、人物全体の画像でもよいし、人物の顔だけや後姿だけ、あるいは、上半身だけの画像であってもよい。また、複数の人物が写っている画像でもよい。勿論、背景に人物以外の風景や模様などのいかなるパターンがあっても良い。
【0024】
「身体部分」とは、人物の身体の一部という意味であり、身体部分に服や帽子や靴を装着している皮膚が見えなくても、人物の身体の一部であることが認識可能な部分であれば、身体部分に含まれる。従って、顔も身体部分であるし、頭も身体部分である。さらに、目、鼻、口、耳、眉、髪、首、服を着た上半身、手、腕、足、靴を履いた脚、帽子を被った頭、めがねを掛けた目なども身体部分である。
【0025】
「身体部分領域」とは、人物画像において、身体部分が占める領域として定められる領域のことであり、身体部分領域は、その内部に身体部分でない部分を含んでいてもよいし、身体部分の内部に位置する領域であってもよい。
【0026】
すなわち、身体部分が顔であるとすると、身体部分領域は、顔に対応する身体部分領域が顔の周囲にある領域を含んでいてもよいし、両眼と口と鼻とを囲む最小サイズの長方形であって額や耳を含まないものであってもよい。
【0027】
「装飾」とは、追加される画像パターンのことであり、この画像パターンは予め保持されている画像パターンであってもよいし、コンピュータグラフイックス技術で生成される画像パターンであってもよい。また、この画像パターンは、文字や記号のパターンや図形のパターンであってもよい。
【0028】
(実施の形態1)
図1は、本発明の実施の形態1における画像処理装置の機能ブロック図である。図1に示すように、本形態の画像処理装置は、次の構成要素を有する。
【0029】
制御部1は、CPU等からなり、図1に示す各要素を、図2のフローチャートに沿って、制御する。
【0030】
画像入力部2は、入力画像を得る。入力画像は、静止画であってもよいし、動画像の1フレーム分の画像であってもよい。さらに、この入力画像は、カメラで撮影された直後のものでも良いし、撮影後、JPEGやMPEG等の符号化方式に従って符号化されたデータ(記録媒体に記録されたものをロードしても良いし、送信装置から受信したものでも良い。)を、復号して得られるものでも良い。
【0031】
表示部12は、表示デバイス等からなり、画像入力部2が入力し画像記憶部4に記憶された入力画像や、画像合成部11が入力画像に装飾の画像を合成したものを表示する。
【0032】
図1において、装飾情報記憶部20は、装飾情報を記憶する。装飾情報は、装飾画像データと、サイズの情報と、基準点(例えば、中心点など)の装飾画像における位置とが、関連付けて構成される。装飾画像のデータは、ラスタ画像であってもよいし、ベクトル画像でもよい。本例では、この装飾情報には、星形の装飾画像が含まれ、これが、ユーザにより、選択されるものとする。
【0033】
操作部3は、ユーザからの入力情報を、受け付けるためのものである。特に、ユーザは、操作部3を用いて、装飾情報記憶部20に記憶されている装飾の情報のうち、ユーザが、どの装飾に関するものを使用するかという情報を入力する。画像記憶部4は、画像入力部2が入力した、入力画像を記憶する。
【0034】
テンプレート記憶部5は、身体部分領域のテンプレートを記憶する。以下、本形態では、顔領域を身体部分領域として取り上げる。しかし、手等他の身体部分領域についても、同様に適用できる。
【0035】
テンプレートは、図3(a)、(b)、(c)に示すように、顔部品(頭、目、鼻、口)のそれぞれの輪郭をモデル化したものを、各種サイズ分だけ用意して使用する。
【0036】
図1において、顔検出部6は、テンプレート記憶部5のテンプレートを用いて、画像記憶部4に記憶された入力画像から、顔領域の位置及びサイズを検出する。
【0037】
ここで、図4に示しているように、顔検出部6は、画像記憶部4の入力画像に微分フィルタをかけて、エッジ成分を抽出する。また、顔検出部6は、テンプレート記憶部5からテンプレート53を選び、選んだテンプレート53と、エッジ成分とを用いて、パターンマッチマッチングを実行する。
【0038】
このパターンマッチングは、テンプレート53(Nx*Ny画素)を、それより大きい入力画像(Mx*My画素)内の探索範囲(Mx−Nx+1)(My−Ny+1)上で動かし、次式に示す残差Rが、最小となるようなテンプレート画像の左上位置(a,b)を求める処理である。
【数1】
【0039】
但し、(数1)において、I(a,b)(mx,my)は入力画像の部分画像、T(mx,my)はテンプレート53の画像である。
【0040】
また、(数1)に替えて、次式で示す相互相関係数Cを求め、相互相関係数Cが最大になる、テンプレート画像の左上位置(a,b)を求めてもよい。
【0041】
顔検出部6は、図3に示すテンプレートを使用し、(数1)を用いるときは残差Rが最小となるテンプレート、(数2)を用いるときは、相関係数Cが最大となるテンプレートを求める。そして、顔検出部6は、求めたテンプレートの、位置及びサイズを、入力画像における顔領域の、それぞれの位置及びサイズとする。
【0042】
顔検出部6は、顔領域の位置及びサイズを求めると、その結果を、図1の配置領域設定部7に出力する。図5(a)は、顔検出部6の顔領域検出結果を図示したものである。入力画像21について、顔領域22が検出されている。
【0043】
配置領域設定部7は、入力画像21のうち、顔領域22を除く領域(斜線部)を、装飾の配置領域に設定する。配置領域設定部7は、この設定結果を配置領域記憶部8に格納する。
【0044】
領域分割部9は、配置領域記憶部8に格納された配置領域を、矩形をなす小領域で、それぞれの縦横比が1:2未満であるという、一定基準を満たすものに、分割する。この分割の過程を、図5(b)、(c)を用いて説明する。
【0045】
図5(a)の状態では、配置領域は、未だ分割されておらず、門型をなしている。そこで、領域分割部9は、門型の配置領域を、小領域23〜25に分割する。このとき、全ての小領域23〜25が、一定基準を満たしていれば、領域分割部9は、その時点で分割を終了する。
【0046】
しかしながら、図5(b)の状態では、小領域23〜25は、いずれも一定基準を満たしていない。そこで、領域分割部9は、各小領域23〜25について、分割と一定基準のチェックを、繰り返し実施する。
【0047】
その結果、本例では、図5(c)に示すように、配置領域は、小領域26〜35に分割された。領域分割部9は、これらの小領域26〜35の情報を、配置領域記憶部8に格納する。
【0048】
図1において、装飾配置設定部10は、これらの小領域内における、装飾の配置を設定する。ここでは、装飾配置設定部10は、各小領域26〜35に配置される、装飾の密度(単位面積あたりの装飾の個数)が一様になるようにする。但し、各小領域26〜35内における、装飾の位置は、ランダムに決定される。その結果は、例えば、図5(d)に示すようになる。
【0049】
ここで、比較的広い小領域30、31では、2個の装飾が付加されているが、比較的狭い小領域27、28、...では、1個の装飾しか付加されていない点に注目されたい。
【0050】
また、図1において、画像合成部11は、図5(e)に示すように、装飾配置設定部10が定めた装飾の配置に従って、入力画像に装飾を追加した、合成画像を作成する。
【0051】
ところで、以上において、図6(a)に示すようにすることもできる。即ち、装飾配置設定部10は、小領域に配置される装飾の密度が、小領域26〜35毎に設定される、重みに従うようにする。図6(a)の例では、下部の小領域26、27、34、35の重みを大きくし、上部の小領域28〜33の重みを小さくしてある。その結果、小領域33と小領域34とを比較すれば明らかなように、ほぼ同じ面積を持つにもかかわらず、付加される装飾の個数が異なっている点が理解されよう。なお、図示した例では、重みが大きいほど多数の装飾を付加するようにしたが、この関係は、逆にしても差し支えない。
【0052】
次に、図2を用いて、本形態の画像処理装置における、処理の流れを説明する。まず、ステップ1にて、顔検出部6が入力画像について顔検出を行い、検出された顔領域が領域分割部9に出力される。
【0053】
そして、ステップ3にて、配置領域設定部7が顔領域を除く領域を、配置領域とし、結果が配置領域記憶部8に格納される。またステップ4にて、領域分割部9が、配置領域を、上述した要領で、複数の小領域に分割し、ステップ5にて、装飾配置設定部10が各小領域毎に、付加する装飾の個数及び位置を定める。
【0054】
以上の処理が完了したら、ステップ6にて、画像合成部11が、入力画像に、装飾を追加した合成画像を作成し、表示部12にその表示がなされる(ステップ7)。
【0055】
(実施の形態2)
次に、本発明の実施の形態2について、説明する。図7は、本発明の実施の形態2における画像処理装置の機能ブロック図である。図中、実施の形態1と同様の構成要素については、同一符号を付すことにより、説明を省略する。
【0056】
図7において、配置データ記憶部13は、入力画像における、装飾の配置を定める、配置データを記憶する。この配置データとしては、図9(b)に示す(○印は、装飾の位置を示す)ように、互いに装飾が重ならず、かといって、適当にばらけているものが望ましい。
【0057】
本形態では、配置データは、複数とおり、配置データ記憶部13に静的に保持されており、この中から、適宜選択するようにした。しかしながら、配置データを、動的に生成するようにしてもよい。
【0058】
配置データ修正部14は、配置データ記憶部13の配置データの中から、選ばれたものに対して、ランダムに修正を加える。具体的には、図9(c)に示すように、装飾の各位置について、ランダムな修正ベクトルvを加える。修正後の配置データは、例えば、図9(d)のようになる。ここで、配置データが、有限後しか存在しない場合であっても、修正量をランダムに決定することによって、修正後の配置データは、事実上無限大とおり存在することになり、装飾の位置は、千変万化する。
【0059】
領域内外判定部15は、図9(d)に示すように、配置データにおける各修飾の位置について、配置領域内(顔領域22外)にある(例:位置42)のか、あるいは、そうでない(例:位置41)のかを、判定する。
【0060】
以上のように構成された、実施の形態2における画像処理装置について、以下、図8、図9を用いて、処理の流れを説明する。
【0061】
まず、図8のステップ11〜ステップ13は、実施の形態1(図2のステップ1〜ステップ3)と同様である。
【0062】
次に、ステップ14にて、制御部1は、配置データ記憶部13にある、複数の配置データから、ランダムに1つの配置データを選び、選ばれた配置データの各位置について、配置データ修正部14が修正を加える。
【0063】
そして、ステップ16〜ステップ18において、領域内外判定部15が、修正された各位置について、配置領域外にあるものを、削除する。その結果、図9(e)に示すように、装飾の位置が決定される。
【0064】
以降、実施の形態1と同様に、画像合成部11が画像合成し(ステップ20)、図9(f)のような、表示がおこなれる(ステップ21)。
【0065】
【発明の効果】
本発明によれば、装飾全体のまとまりを維持し、しかも、変化に富んで楽しい、装飾を入力画像に付加できる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における画像処理装置の機能ブロック図
【図2】同画像処理装置のフローチャート
【図3】(a)同テンプレートの例示図
(b)同テンプレートの例示図
(c)同テンプレートの例示図
【図4】同パターンマッチングの説明図
【図5】(a)同過程説明図
(b)同過程説明図
(c)同過程説明図
(d)同過程説明図
(e)同過程説明図
【図6】(a)同過程説明図
(b)同過程説明図
【図7】本発明の実施の形態2における画像処理装置の機能ブロック図
【図8】同画像処理装置のフローチャート
【図9】(a)同過程説明図
(b)同過程説明図
(c)同過程説明図
(d)同過程説明図
(e)同過程説明図
(f)同過程説明図
【符号の説明】
1 制御部
2 画像入力部
3 操作部
4 画像記憶部
5 テンプレート記憶部
6 顔検出部
7 配置領域設定部
8 配置領域記憶部
9 領域分割部
10 装飾配置設定部
11 画像合成部
12 表示部
13 配置データ記憶部
14 配置データ修正部
15 領域内外判定部
20 装飾情報記憶部
21 入力画像
22 顔領域[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing device incorporated in a communication device using an image (for example, a device for videophone, video conference, video mail or video chat, a door phone, and the like), and more particularly, to a person image (for example, a user). And an image processing apparatus for editing a face image, a whole body image, and the like.
[0002]
[Prior art]
There are amusement machines that print an image of a user on various print media and output the image. In this type, a frame of a decoration (for example, a pattern or a pattern) is superimposed on a photographed human image, synthesized, printed on a printing medium (for example, a sticker), and output.
[0003]
Such a game machine does not have a function of adjusting the positional relationship between a person image and a decoration by itself. Therefore, even if the user arranges the portrait image so that it fits within the decoration frame, the decoration may overlap the portrait image, and the face and head portions may be hidden, and the portrait image may be unclear. Was.
[0004]
[0005]
On the other hand, recently, a camera-equipped mobile phone having a function of superimposing a decorative image on a captured human image with a decorative frame and transmitting the synthesized image has been put into practical use. When the sender uses such a camera-equipped mobile phone, the receiver can enjoy the enjoyment of viewing the image edited by the sender.
[Patent Document 1]
JP-A-2000-22929 (pages 3-7)
[0006]
[Problems to be solved by the invention]
By the way, in
[0007]
In this way, the decoration can be virtually infinite, and the decoration can be changed into various shapes like a kaleidoscope pattern, and the fun can be improved.
[0008]
However, in such handling, decoration is concentrated in one place, and a lump is formed, while in another place, decoration is often biased such that there is no decoration at all. This impairs the balance or beauty of the overall decoration.
[0009]
Therefore, an object of the present invention is to provide an image processing method and an interlinking technique thereof that can add a decoration to an input image without losing the unity of the decoration as a whole, and which can be varied and interesting to an input image.
[0010]
[Means for Solving the Problems]
The image processing method according to
[0011]
In this configuration, by arranging the decoration in the small area, it is possible to maintain the unity of the entire decoration. Moreover, by changing the state of the decoration in the small area, an interesting composite image can be obtained.
[0012]
In the image processing method according to the second aspect, these small regions form a rectangle, and the predetermined standard is that the aspect ratio of the rectangle is less than 1: 2.
[0013]
In this configuration, by making the small area rectangular, handling can be facilitated, and by providing such a fixed reference, the similar shape of each small area can be prevented from excessively varying. .
[0014]
In the image processing apparatus according to the third aspect, the arrangement of the decorations in the small areas is set such that the density of the decorations arranged in the small areas is uniform.
[0015]
With this configuration, the arrangement balance of the entire decoration can be made substantially uniform as a whole.
[0016]
In the image processing method according to the fourth aspect, the arrangement of the decorations in the small areas is set such that the density of the decorations arranged in the small areas follows the weight set for each of the small areas.
[0017]
With this configuration, the arrangement of the entire decoration can be sharpened by the weight. For example, by making the upper weight of the input image smaller and increasing the lower weight of the input image, an arrangement having a sense of stability can be obtained.
[0018]
An image processing method according to
[0019]
In this configuration, the arrangement of the decoration is determined based on the arrangement data, so that the entire decoration can be kept together. Moreover, by modifying this, the appearance of the decoration can be changed and the fun can be improved.
[0020]
In the image processing apparatus according to the sixth aspect, the correction amount of the arrangement is determined at random.
[0021]
With this configuration, the appearance of the decoration can be changed completely, and the fun can be further improved.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, important terms will be described prior to the description of a specific configuration.
[0023]
The “person image” is an image including an image of a part or all of a person. Therefore, the image may be an image of the entire person, an image of only the person's face or back, or an image of only the upper body. Further, an image in which a plurality of persons are shown may be used. Of course, any pattern such as a landscape or pattern other than a person may be present in the background.
[0024]
"Body part" means a part of a person's body, and can be recognized as a part of a person's body even if the skin wearing clothes, hats and shoes is not visible on the body part Is included in the body part. Thus, the face is also a body part, and the head is also a body part. In addition, eyes, nose, mouth, ears, eyebrows, hair, neck, dressed upper body, hands, arms, legs, legs with shoes, head with hat, eyes with glasses, etc. is there.
[0025]
The "body part region" is a region defined as a region occupied by a body part in a person image, and the body part region may include a part that is not a body part therein, or may include a part inside the body part. Area.
[0026]
That is, assuming that the body part is a face, the body part region may include a region where the body part region corresponding to the face is around the face, or the minimum size surrounding the eyes, mouth, and nose. It may be a rectangle that does not include the forehead or ears.
[0027]
“Decoration” refers to an image pattern to be added, and this image pattern may be an image pattern stored in advance or an image pattern generated by computer graphics technology. The image pattern may be a character or symbol pattern or a graphic pattern.
[0028]
(Embodiment 1)
FIG. 1 is a functional block diagram of the image processing apparatus according to
[0029]
The
[0030]
The
[0031]
The display unit 12 includes a display device or the like, and displays an input image input by the
[0032]
In FIG. 1, the decoration
[0033]
The
[0034]
The
[0035]
As shown in FIGS. 3 (a), (b) and (c), templates are prepared by modeling contours of face parts (head, eyes, nose, mouth) in various sizes. use.
[0036]
In FIG. 1, the
[0037]
Here, as shown in FIG. 4, the
[0038]
In this pattern matching, the template 53 (Nx * Ny pixels) is moved on the search range (Mx-Nx + 1) (My-Ny + 1) in the larger input image (Mx * My pixels), and the residual This is a process for obtaining the upper left position (a, b) of the template image such that R is minimized.
(Equation 1)
[0039]
However, in (Equation 1), I (a, b) (mx, my) is a partial image of the input image, and T (mx, my) is an image of the
[0040]
Further, instead of (Equation 1), the cross-correlation coefficient C represented by the following equation may be obtained, and the upper left position (a, b) of the template image at which the cross-correlation coefficient C becomes maximum may be obtained.
[0041]
The
[0042]
After obtaining the position and size of the face area, the
[0043]
The arrangement area setting unit 7 sets an area (shaded area) other than the
[0044]
The area dividing unit 9 divides the arrangement area stored in the arrangement
[0045]
In the state of FIG. 5A, the arrangement area has not been divided yet and has a gate shape. Therefore, the region dividing unit 9 divides the gate-shaped arrangement region into small regions 23 to 25. At this time, if all of the small regions 23 to 25 satisfy the predetermined criterion, the region dividing unit 9 ends the division at that time.
[0046]
However, in the state of FIG. 5B, none of the small regions 23 to 25 satisfy the certain standard. Therefore, the area dividing unit 9 repeatedly executes the division and the check based on a certain standard for each of the small areas 23 to 25.
[0047]
As a result, in this example, as shown in FIG. 5C, the arrangement area was divided into
[0048]
In FIG. 1, the decoration
[0049]
Here, in the relatively large
[0050]
In FIG. 1, the image combining unit 11 creates a combined image in which decorations are added to the input image according to the decoration arrangement determined by the decoration
[0051]
By the way, in the above, it is also possible to make it as shown in FIG. That is, the decoration
[0052]
Next, the flow of processing in the image processing apparatus according to the present embodiment will be described with reference to FIG. First, in
[0053]
Then, in
[0054]
When the above processing is completed, in
[0055]
(Embodiment 2)
Next, a second embodiment of the present invention will be described. FIG. 7 is a functional block diagram of an image processing device according to
[0056]
7, the arrangement
[0057]
In this embodiment, a plurality of arrangement data are statically held in the arrangement
[0058]
The arrangement data correction unit 14 randomly corrects selected arrangement data from the arrangement data in the arrangement
[0059]
As shown in FIG. 9D, the area inside / outside determination unit 15 determines whether each modification position in the arrangement data is inside the arrangement area (outside the face area 22) (eg, position 42) or not ( Example: It is determined whether the position is 41).
[0060]
The processing flow of the image processing apparatus according to the second embodiment configured as described above will be described below with reference to FIGS.
[0061]
First, steps 11 to 13 in FIG. 8 are the same as those in the first embodiment (
[0062]
Next, in step 14, the
[0063]
Then, in Steps 16 to 18, the area inside / outside determination unit 15 deletes the corrected positions outside the arrangement area. As a result, the position of the decoration is determined as shown in FIG.
[0064]
Thereafter, as in the first embodiment, the image synthesizing unit 11 synthesizes images (step 20), and a display as shown in FIG. 9F is performed (step 21).
[0065]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, the decoration of the whole decoration can be maintained and the decoration which is full of change and fun can be added to an input image.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of an image processing apparatus according to a first embodiment of the present invention; FIG. 2 is a flowchart of the image processing apparatus; FIG. c) Illustrative view of the template. FIG. 4 is an explanatory view of the pattern matching. FIG. 5 is an explanatory view of the same process (b) an explanatory view of the same process (c) an explanatory view of the same process (d) an explanatory view of the same process ( e) Process explanatory diagram FIG. 6 (a) Process explanatory diagram (b) Process explanatory diagram FIG. 7 is a functional block diagram of an image processing apparatus according to
Claims (14)
配置領域を、一定基準を満たす複数の小領域に分割するステップと、
これらの小領域内における装飾の配置を設定するステップと、
設定した装飾の配置に従って、入力画像に装飾を合成した合成画像を作成するステップとを含む、画像処理方法。Setting a decoration arrangement area in the input image;
Dividing the placement area into a plurality of small areas satisfying a certain criterion;
Setting the arrangement of the decorations in these small areas;
Creating a composite image in which the decoration is combined with the input image in accordance with the set arrangement of the decoration.
装飾の配置を定める配置データを決定するステップと、
決定した配置データに含まれ、かつ、配置領域内に含まれる、装飾の配置を修正するステップと、
修正された配置に従って、入力画像に装飾を合成した合成画像を作成するステップとを含む、画像処理方法。Setting a decoration arrangement area in the input image;
Determining placement data that determines the placement of the decoration;
Correcting the arrangement of the decoration included in the determined arrangement data and included in the arrangement area;
Creating a composite image in which the decoration is combined with the input image according to the corrected arrangement.
入力画像における、装飾の配置領域を設定する配置領域設定部と、
設定された配置領域を、一定基準を満たす複数の小領域に分割する領域分割部と、
これらの小領域内における装飾の配置を設定する装飾配置設定部と、
設定した装飾の配置に従って、入力画像に装飾を合成した合成画像を作成する画像合成部とを備える、画像処理装置。An image storage unit that stores the input image;
An arrangement area setting unit for setting an arrangement area of a decoration in the input image;
An area dividing unit that divides the set arrangement area into a plurality of small areas that satisfy a certain criterion,
A decoration arrangement setting unit for setting the arrangement of decorations in these small areas,
An image processing apparatus, comprising: an image combining unit that creates a combined image in which a decoration is combined with an input image according to a set decoration arrangement.
前記配置領域設定部は、入力画像のうち、顔領域でない領域を、装飾の配置領域に設定する、請求項7記載の画像処理装置。A face detection unit that detects a face area from the input image stored in the image storage unit,
The image processing device according to claim 7, wherein the arrangement area setting unit sets an area that is not a face area in the input image as a decoration arrangement area.
入力画像における、装飾の配置領域を設定する配置領域設定部と、
入力画像における、装飾の配置を定める配置データを記憶する配置データ記憶部と、
前記配置データ記憶部の配置データに含まれ、かつ、前記配置領域設定部が設定した配置領域内に含まれる、装飾の配置を修正する配置データ修正部と、
前記配置データ修正部が修正した配置に従って、入力画像に装飾を合成した合成画像を作成する画像合成部とを備える、画像処理装置。An image storage unit that stores the input image;
An arrangement area setting unit for setting an arrangement area of a decoration in the input image;
An arrangement data storage unit for storing arrangement data for determining the arrangement of decorations in the input image;
An arrangement data correction unit that corrects the arrangement of the decoration, included in the arrangement data of the arrangement data storage unit, and included in the arrangement area set by the arrangement area setting unit;
An image processing apparatus, comprising: an image combining unit that creates a combined image in which decoration is combined with an input image in accordance with the arrangement corrected by the arrangement data correcting unit.
前記配置領域設定部は、入力画像のうち、顔領域でない領域を、装飾の配置領域に設定する、請求項12から13記載の画像処理装置。A face detection unit that detects a face area from the input image stored in the image storage unit,
14. The image processing device according to claim 12, wherein the arrangement area setting unit sets an area that is not a face area in the input image as a decoration arrangement area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002342072A JP2004179845A (en) | 2002-11-26 | 2002-11-26 | Image processing method and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002342072A JP2004179845A (en) | 2002-11-26 | 2002-11-26 | Image processing method and apparatus thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004179845A true JP2004179845A (en) | 2004-06-24 |
Family
ID=32704227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002342072A Pending JP2004179845A (en) | 2002-11-26 | 2002-11-26 | Image processing method and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004179845A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008015952A (en) * | 2006-07-10 | 2008-01-24 | Dainippon Printing Co Ltd | Device and method for correcting image having linear element |
JP2009194644A (en) * | 2008-02-14 | 2009-08-27 | Fujifilm Corp | Image processor, image processing method and image pick-up device |
JP2009282901A (en) * | 2008-05-26 | 2009-12-03 | Fujifilm Corp | Image processor and processing method, and program |
JP2011186869A (en) * | 2010-03-10 | 2011-09-22 | Nintendo Co Ltd | Image processing program, image processing device, image processing method and image processing system |
JP2012138957A (en) * | 2012-04-03 | 2012-07-19 | Fujifilm Corp | Image processing device, image processing method, and imaging apparatus |
CN115336247A (en) * | 2020-06-10 | 2022-11-11 | Jvc建伍株式会社 | Image processing device and image processing system |
-
2002
- 2002-11-26 JP JP2002342072A patent/JP2004179845A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008015952A (en) * | 2006-07-10 | 2008-01-24 | Dainippon Printing Co Ltd | Device and method for correcting image having linear element |
JP2009194644A (en) * | 2008-02-14 | 2009-08-27 | Fujifilm Corp | Image processor, image processing method and image pick-up device |
US8249389B2 (en) | 2008-02-14 | 2012-08-21 | Fujifilm Corporation | Image processing apparatus, image processing method and imaging apparatus |
US8488909B2 (en) | 2008-02-14 | 2013-07-16 | Fujifilm Corporation | Image processing apparatus, image processing method and imaging apparatus |
JP2009282901A (en) * | 2008-05-26 | 2009-12-03 | Fujifilm Corp | Image processor and processing method, and program |
US9064475B2 (en) | 2008-05-26 | 2015-06-23 | Facebook, Inc. | Image processing apparatus, method, and program using depression time input |
US10540069B2 (en) | 2008-05-26 | 2020-01-21 | Facebook, Inc. | Image processing apparatus, method, and program using depression time input |
US10761701B2 (en) | 2008-05-26 | 2020-09-01 | Facebook, Inc. | Image processing apparatus, method, and program using depression time input |
JP2011186869A (en) * | 2010-03-10 | 2011-09-22 | Nintendo Co Ltd | Image processing program, image processing device, image processing method and image processing system |
JP2012138957A (en) * | 2012-04-03 | 2012-07-19 | Fujifilm Corp | Image processing device, image processing method, and imaging apparatus |
CN115336247A (en) * | 2020-06-10 | 2022-11-11 | Jvc建伍株式会社 | Image processing device and image processing system |
CN115336247B (en) * | 2020-06-10 | 2024-03-08 | Jvc建伍株式会社 | Image processing device and image processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004178163A (en) | Image processing method and device | |
KR101190686B1 (en) | Image processing apparatus, image processing method, and computer readable recording medium | |
CN106170083B (en) | Image processing for head mounted display device | |
CN108711180B (en) | Method and device for generating makeup and/or face-changing special effect program file package and method and device for generating makeup and/or face-changing special effect | |
US9135954B2 (en) | Image tracking and substitution system and methodology for audio-visual presentations | |
JP2985879B1 (en) | People image processing device | |
EP1434170A2 (en) | Method and apparatus for adding ornaments to an image of a person | |
JP5564384B2 (en) | Image generation program, imaging apparatus, imaging system, and image generation method | |
JP5632469B2 (en) | Character generation system, character generation method and program | |
JP2004145448A (en) | Terminal device, server device, and image processing method | |
JP4351023B2 (en) | Image processing method and apparatus | |
CN101290683A (en) | Mobile telephone terminal image processing process and system | |
JP2004179845A (en) | Image processing method and apparatus thereof | |
KR101111172B1 (en) | Method for producing moving picture of composite user image | |
KR100422470B1 (en) | Method and apparatus for replacing a model face of moving image | |
KR20140065762A (en) | System for providing character video and method thereof | |
JP2004355567A (en) | Image output device, image output method, image output processing program, image distribution server and image distribution processing program | |
JP2011044883A (en) | Digital camera with image synthesis function | |
Rojas | Photographing women: posing, lighting, and shooting techniques for portrait and fashion photography | |
JP2004110383A (en) | Image forming system, its program and information storage medium | |
JP2001319108A (en) | Recreation, shopping, and business model | |
JP4662238B2 (en) | Method for manufacturing stereoscopic printed matter, stereoscopic printed matter, image generation method, and program | |
JP2004304261A (en) | Image output device, image output method, image output processing program and image distribution server, image distribution processing program | |
Stephenson | Foundations of Posing | |
JP2004310342A (en) | Image generating method and image generating system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050322 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050830 |