JP3766140B2 - Image processing / synthesis method and apparatus therefor - Google Patents

Image processing / synthesis method and apparatus therefor Download PDF

Info

Publication number
JP3766140B2
JP3766140B2 JP18146096A JP18146096A JP3766140B2 JP 3766140 B2 JP3766140 B2 JP 3766140B2 JP 18146096 A JP18146096 A JP 18146096A JP 18146096 A JP18146096 A JP 18146096A JP 3766140 B2 JP3766140 B2 JP 3766140B2
Authority
JP
Japan
Prior art keywords
group
image
feature
processing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP18146096A
Other languages
Japanese (ja)
Other versions
JPH1011569A (en
Inventor
小枝子 笠尾
Original Assignee
笠尾 敦司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 笠尾 敦司 filed Critical 笠尾 敦司
Priority to JP18146096A priority Critical patent/JP3766140B2/en
Publication of JPH1011569A publication Critical patent/JPH1011569A/en
Application granted granted Critical
Publication of JP3766140B2 publication Critical patent/JP3766140B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は電子画像の加工合成技術に関する。
【0002】
【従来の技術】
写真画像などをスキャナーで読み込み電子画像にし、コンピューターを利用してそれに人間の感性を加え芸術的な作品を作りだすという画像加工の技術は長足の進歩を見せた。画素の色を変えたり画像をひずませたりする色変換、ひずみ変換なども画像処理で行えるようになった。
【0003】
しかし、色変換処理は画素の色以外の特徴を判断して適応的に変えるものではなく、あらかじめ決められた色の対応関係を用いて色を変えており、ひずみ変換では画素の位置情報以外の特徴を判断せずに、画像を歪ませている。このほか、よく使われるエッジ強調処理は、注目画素の値と注目画素の周囲の画素の値から注目画素がエッジを構成している画素かどうかを判定し、その結果に応じて画素を強調するという処理を行っている。どの処理にも共通しているのは、注目画素一つずつが変更される際の単位になっていることである。
【0004】
これらの手法は、見た目に劇的な変化を与えることはできるが、人間が作成する絵画のような感性の豊かな変換は不可能であった。ところで、絵画に代表される感性の豊かな表現は画家の一筆一筆の筆触(タッチ)で表現されていると考えられる。従って、画像を加工する際に筆触を表現できることが重要である。
【0005】
また、いろいろな表現形式の多くが筆触の表れ方に大きく左右されていることを考えると、いろいろな種類の筆触を表現することのできる画像加工方法が重要であることがわかる。電子画像にされた絵画から筆触を抽出する技術として、中島ら:「計算機による絵画画像の解析−油絵画像のタッチへの自動分割−」、電子情報通信学会春期全国大会予講集、D(1994)があったが、これらの技術は写真画像から筆触を構成する画素のグループ(以下単にグループと呼ぶ)を作る際にも応用可能である。
【0006】
また泉ら:「色情報と位置情報とを併用したセグメンテーション手法の一検討」、電子情報通信学会春期全国大会予講集、D680(1991)に示された5次元のK−平均アルゴリズムなども利用可能である。
【0007】
一方、中島ら:「周波数情報を用いた自然画像の油絵風表現の自動生成」、電子情報通信学会春期全国大会予講集、D(1994)、斎藤ら: 「FFTを用いた写真からの手書き風画像の自動生成」、情報処理学会研究報告グラフィックスとCAD、74−3、(1995)には色とテクスチャーの似た画素を集めグループを作ってはそのグループを構成する画素をそのグループの平均色に置き換えるという処理により絵画風表現を作り出す手法が示されている。
【0008】
しかし、この手法では、グループの数やグループを構成する画素の組み合わせを変更する以外にオペレーターの制御できる要素がなく、多様な表現を筆触を通じて表現することができなかった。
【0009】
また、この技術では複数枚の画像から一枚の画像を作る画像合成はできなかった。画像合成処理においては画素単位の合成、または、オペレーターによって切り出された任意の領域ごとに合成する手法しかなく、上で述べたグループを単位とした合成は行われていなかった。そのため多様な合成方法を実現できなかった。
【0010】
【発明が解決しようとする課題】
以上述べたように、従来の技術においては、筆触を制御することで、画像に様々な表現を加えることが不可能であった。また、二つの画像を一つに合成する際にも、筆触のようなグループを単位として、両者のグループを一枚の画像に合成することは不可能であった。
【0011】
本発明は上記従来例に鑑みてなされたもので、上述のグループを単位として、画像の加工や合成を統一的な処理で実現し、多様な表現の加工、多様な種類の合成を提供することを目的とする。
【0012】
【課題を解決するための手段】
図1に図示した装置の構成を示すブロック図の番号と対応づけて説明する。上記課題を解決するために、請求項1の画像加工合成装置は
一枚または数枚の電子画像とそれを領域分割した分割結果から同一領域に属す画素をグループにし、少なくともグループ毎の平均色、グループ毎の画像上の位置、グループ毎のグループに含まれる画素数、グループ毎の画素の集団が作る外形から計算される方向要素と扁平さをグループ特徴として計算するグループ特徴計算部1と計算されたグループ特徴を記憶しておくグループ特徴記憶部2とグループ特徴記憶部2に記憶されているグループごとの特徴情報を選択的に加工するグループ特徴加工部3とグループ特徴をもとに画像を構成するに際し、注目画素の位置とグループの位置との差を変数とする距離関数の値を計算し、その値がもっとも小さくなるグループをその画素が属するグループと定め、その定められたグループのグループ特徴、または加工された後のそのグループのグループ特徴を新たに注目画素の情報とする画像構成部4からなる。
【0014】
請求項の画像加工合成装置は、請求項1に記載されたグループ特徴を加工するに際し、注目グループから空間配置が近い複数のグループのもつグループ特徴を参考にしながら、注目グループのグループ特徴を加工する方法である。
【0016】
【発明の実施の形態】
請求項1の画像加工合成装置であれば、入力された画像とここには記載されていない領域分割処理部により分割された結果を用いて、分割された領域に属する画素を一つのグループと考え、少なくともグループ毎の平均色、グループ毎の画像上の位置、グループ毎のグループに含まる画素数をグループ特徴としてグループ特徴計算部1で計算し、その結果をグループ特徴記憶部2に記憶しておくことで、以下の画像加工または画像合成で必要となるグループ特徴を加工のたびに計算し直さなくてすみ、効率的な画像加工または画像合成が可能になる。
【0017】
次に、このグループ特徴記憶部2から読み出されたグループ特徴は特徴情報加工部3で加工されるが、このとき画素の特徴が画素の属するグループごとに記述されているので、グループを単位とした多種多様な画像加工を行うことがでる。さらに、加工された、グループ特徴をもとに、画像を構成する画像構成部4はグループ特徴に応じて異なる画像構成の方法を用いることで、より多様な表現を実現することができる。
【0018】
また、グループ特徴としてグループ毎の画素が作る外形情報を後段のグループ特徴を加工する際や画像を構成する際に利用可能となるため、グループ毎の画素が作る外形を加工できるようになり、一層豊富な表現が可能となる。
【0019】
請求項2の画像加工合成装置であれば、注目グループが鑑賞に堪えうる十分満足な特徴を備えていなくても、注目グループから空間配置が近い複数のグループのもつグループ特徴を参考にしながら、注目グループのグループ特徴を変更するため、周囲のグループと調和し、かつ、特徴の豊富なグループに変えることができ、結果的に、表現の豊かな画像加工合成が可能になる。
【0020】
請求項の画像加工合成装置であれば、先に述べた事項に加えグループ特徴をもとに画像を構成するに際し、注目画素の位置とグループの位置との差を変数とする距離関数の値を計算し、その値がもっとも小さくなるグループをその画素が属するグループと定め、その定まったグループのグループ特徴、または加工された後のそのグループのグループ特徴を注目画素の情報とする方法であるため、グループ特徴を完全に保存した画像の構成ができない場合でも、全ての画素がなるべくグループの特徴を残したまま、かつどのグループにも属さぬことなく、自然に配置することが可能になる。
【0021】
また、画像構成に距離計算を利用したため、この距離を表す式の定義を様々に変えることで、より豊富な表現を作り上げることが可能になる。
【0022】
【実施例】
[実施例1] 以下、本発明の実施例を図面に基づいて説明する。
図2は本発明の一実施例の全体構成を示すブロック図であり、RGB、グレースケール、L*a*b*などで表された電子画像5が図示されていないスキャナー等の入力部から入力される。本実施例では色空間としてCIE(国際照明委員会)で推賞するL*a*b*を用いることにする。
【0023】
以下それぞれl、a、bと記載する。画像サイズは縦1000画素、横700画素であり、1画素はl、a、bそれぞれ8ビットで表されるものとする。
【0024】
また、同じく図示されていない領域分割部により入力画像5は分割され、その分割結果6が得られているものとする。図示されていない領域分割処理としては、先に触れた絵画から筆触を抽出する手法(中島ら:「計算機による絵画画像の解析−油絵画像のタッチへの自動分割−」、電子情報通信学会春期全国大会予講集、D(1994))や5次元のK−平均アルゴリズム(泉ら:「色情報と位置情報とを併用したセグメンテーション手法の一検討」、電子情報通信学会春期全国大会予講集、D680(1991))などが使える。
【0025】
電子画像5と分割結果6がネットワークなどを通じてグループ特徴計算部1に渡される。分割結果6は図3に示すように、電子画像5の画素がどの領域に属すかが分かるように電子画像5の画素に対応する2次元平面xyの位置に領域番号が書き込まれている。
【0026】
この領域分割の分割結果6は1画素あたり16ビットの深さを持たせ、65536個のグループまで表現できるようにしてある。本装置においては全体の処理の制御はコンピューターなどの制御装置8で行われている。
【0027】
電子画像5と分割結果6の二つの情報からグループ特徴を計算する手法を以下に説明する。領域番号をnで表し、領域の総数を3000個とする。つまり、1≦n≦3000。領域一つずつを画素のグループと考え、全てのグループのグループ特徴を書き込めるようにハードディスクなどで構成されているグループ特徴記憶部2に3000行の特徴テーブルを用意する。
【0028】
1番目の行にはグループ1の平均色l1、a1、b1とそのグループ1の画素の分布の重心x1、y1、グループ1に属する画素数N1を設け、以下同様に3000個のグループについてグループ特徴を書き込めるようにしてあり、初期値は全て0とする。
【0029】
電子画像と分割結果を左上から順に一つずつ読み、同じ領域番号nを持つ画素のl、a、bの値とその画素のx、yの値をそれぞれに対応する特徴テーブルのn行目にあるln、an、bn、xn、ynに加えるとともに領域に属している画素数を数えるカウンターNnに1を加える。
【0030】
この操作を全ての画素に対して行い右下隅の画素まで計算した後で、ln/Nn、an/Nn、bn/Nn、xn/Nn、yn/Nnを計算し、その値を新規にln、an、bn、xn、ynに書き込み直す。このようにして、全てのグループの平均色と重心、そのグループに属す画素数が特徴テーブルに記憶されたことになる。
【0031】
次におおよその形状を直感的に捕らえやすいパラメータで表現し、それらもグループ特徴として、グループ特徴記憶部2の特徴テーブルのln、an、bn、xn、yn、Nnの後に新たなグループ特徴としてdxn、dyn、kn、Dn、Hnをつけ加えることにする。どれも初期値は0とする。
【0032】
左上から順にグループnを構成する画素位置(x、y)とグループ特徴記憶部2の特徴テーブルに既に記憶されているグループnの重心(xn、yn)との差を計算し、グループ特徴記憶部2の特徴テーブルに新たにつけ加えたdxnに(x−xn)の二乗を、dynに(y−yn)の二乗を、knに両者の積(x−xn)×(y−yn)をそれぞれ加える。この操作を全ての画素に対して行い右下隅の画素まで計算した後で、グループ毎にdxn/Nn、dyn/Nn、kn/Nnをもとめ、それを新たなdxn、dyn、knの値とし、グループ特徴記憶部2の特徴テーブルに記憶する。
【0033】
dxn、dynはそれぞれグループnを構成する画素の重心からのずれ量に関するx方向の分散、y方向の分散を計算したことになる。さらに、おおよそのグループの形状を直感的に捕らえやすいパラメータで表現するため、グループに属す画素の配置はおおよそ楕円形に広がっていると仮定し、楕円の長径が向いている方向を表した方向要素Dnと値が大きくなるほど楕円の扁平さが増すように定めた扁平要素Hnを導入する。
【0034】
すでに計算の終わった3つ値dxn、dyn、knからグループ毎に第一主成分L1と第二主成分L2を計算し、さらにそれらから外形を表す方向要素Dnと扁平要素Hnを求める過程を(1)式から(6)式に表した。
【数1】
L1=[dxn+dyn+SQRT((dxn−dyn)**2−4×kn**2)]/2
【数2】
L2=[dxn+dyn−SQRT((dxn−dyn)**2−4×kn**2)]/2
【数3】
SQRT{kn**2+(L1−dxn)**2}≠0のとき
W1=kn/SQRT(kn**2+(L1−dxn)**2)
SQRT{kn**2+(L1−dxn)**2}=0のとき
W1=0
【数4】
W2=SQRT(1−W1**2)
【数5】
Dn=atan(−W1/W2)/π+1/2
【数6】
Hn=(L1−L2)/(L1+L2)
【0035】
ただし**2は二乗を意味し、SQRT(X)はXの平方根を意味するものとする。また、 atan(x)はtan(x)の逆関数である。
【0036】
この計算を全てのグループに関して行うことで、グループnの方向要素Dnと扁平要素Hnが求まる。この2つの値をグループ特徴記憶部2の特徴テーブルに書き込む。
【0037】
Dnは0から1までの値を取り、横に長い楕円状の分布であればDnは1/2に近い値になり、縦に長い楕円状の分布であればDnが0または1に近い値になる。Hnは0から1までの値を取り、扁平した分布をもつグループほどHnは大きな値を取る。
【0038】
以上の手続きによって、グループ特徴計算部1はグループ特徴を計算し、その結果は図4に示したグループ特徴記憶部2の特徴テーブルに記憶された。
【0039】
次に、グループ特徴加工部3はグループ特徴記憶部2に記憶されている特徴テーブルをオペレーターから与えられるパラメータに従って変換する。グループの扁平要素が変化していくときの上限を決めるパラメータK1と電子画像の明度を変化させる大きさを決めるパラメータK2の2つを導入する。本実施例ではK1=0.7、K2=0.3を好ましい値として採用した。
【0040】
グループ一つ一つを絵画の筆触と考え、このグループをいろいろ変化させることで、様々な印象を与えることが可能になる。ここでは扁平要素の少ないグループの扁平要素を高くし、しかも、自然な画像にする手法に関して図5に示したフローチャートに従って説明する。
【0041】
ステップ1
グループ1に注目し、このグループの重心と他のグループの重心との距離を全て求め、その距離が短い順に10個までのグループの番号をジオグラフテーブルAに書き込む。この処理を順に繰り返しグループ3000までジオグラフテーブルAに書き込む(ST1)。ジオグラフテーブルAを図6に示した。
【0042】
ステップ2
カウンターmを1にする。(ST2)
【0043】
ステップ3
まず、カウンターnを1にする(ST31)。
グループnに注目し、グループnのHnをK1と比べ(ST32)、Hn>K1であれば、何もしないで、次の処理(ST34)に移る。Hn≦K1であれば、ジオグラフテーブルAのグループnの行に書き込まれている最近傍グループ(jで表す)10個の扁平要素をグループ特徴記憶部2から読み出す。その中でHnより大きい扁平要素のものだけを集めて平均し、その値を新たなHnとし、グループ特徴記憶部2の特徴テーブルに書き込む。
【0044】
次にHnより大きい扁平要素をもつグループjの方向要素DjのDnからのずれをθDjで表し、θDjをjについて算術平均を取ったものをDnに加え、それを新たなDnとする。ただしグループ同士のなす角は小さい方の角度で表すことにし、−π/2からπ/2の角度をθDjでは−0.5から0.5の間で表現してあるので、θDj≧0.5であればθDjを1−θDjで表し。θDj<−0.5であればθDjを1+θDjとして計算する。
【0045】
また、グループの形は半回転しても同じであるため、計算結果であるDnは0から1の間で表現されるので、Dn≧1であればDnはDn−1で表し、Dn<0であればDnは1+Dnで表す。この様にして、Dnを求めグループ特徴記憶部2の特徴テーブルに書き込む(ST33)。
【0046】
次にカウンターnに1を加え(ST34)、次のグループに処理を移し同様の手続きを続ける。この処理を続けカウンターnが3000を越えたら(ST35)、カウンターmに1を加える(ST36)。
【0047】
カウンターmを100と比較し(ST37)、カウンターmが100をこえた場合は処理を終了し次のステップ4に進み、カウンターmが100をこえない場合は、1の処理に戻り同じ処理を繰り返す。
【0048】
ステップ4
ステップ3までで形の処理を終了したので、ここでは明度lnと色度an、bnの加工に移る。カウンターnを1にする(ST41)。グループ特徴記憶部2の特徴テーブルからグループnのln、an、bnを読み出し、lnを(7)式で計算する。
【数7】
{ln/255×(1−K2)+K2}×255
an、bnは、その値に−5から+5の範囲の整数を出力する乱数を加える(ST42)。
【0049】
この処理によって値が0から255の範囲に入っているかを調べ(ST43)、入っていれば次の処理(ST45)に移り、255を越えていた場合は255を代入し、0より小さくなった場合は0を代入する(ST44)。カウンターnに1を加え、ln、an、bnを新たな値としてグループ特徴記憶部2の特徴テーブルに書き込む(ST45)。
【0050】
カウンターnが3000を越えたかどうかを調べ(ST46)、越えていなければ次のグループに処理を移し、越えていれば処理を終了する。これらの処理により、画像の明度は明るい方向にシフトし、絵画風にするとともに、一つ一つのグループの外形つまり筆触が目立つようにグループの色をばらつかせた。
【0051】
次に処理は画像構成部4に移る。ここでの処理を図7に示したフローチャートに従って説明する。
まず、ジオグラフテーブルBを作る。 グループ1に注目し、このグループの重心と他のグループの重心との距離を全て求め、その距離が短い順に50個までをジオグラフテーブルBに書き込む(ST51)。
【0052】
k=1とする(ST52)。
左上から順に画素を走査する。画素のx、y座標をxk、ykとする。k=1の場合はこの値と、ジオグラフテーブルBのグループ1の近傍グループjのグループ特徴xj、yj、Nj、Dj、Hjを用いてまず
gxj=xk−xj、gyj=yk−yj
を計算する。
【0053】
これを用いて
fj=atan(−gyj/gxj)/π+1/2
|fj−Dj|<0.5の場合
f2j=|fj−Dj|×4−1
|fj−Dj|≧0.5の場合
f2j=4−|fj−Dj|×4−1
以上のようにf2jを計算する。(8)式で画素の座標xk、ykとグループ特徴との距離を計算する。(ST53)
【数8】
Lj=[{gxj×(1.2+f2j×Hj)}**2+{gyj×(1.2+f2j×Hj)}**2]/Nj
【0054】
ジオグラフテーブルBに書き込まれている50個のグループ特徴全てとの距離計算をした後、もっとも距離の短かったグループj’にその画素は含まれるものとし、そのグループ番号をオリジナルの電子画像の画素位置に対応する図8のグループ対応表の位置(xk,yk)に書き込む(ST54)。
【0055】
グループ対応表は1画素あたり16ビットの深さを持たせ、65536個のグループまで表現できるようにした。そして、そのグループのlj’、aj’、bj’を加工画像を書き込むために用意した同じく図8の加工画像エリアの(xk,yk)に書き込む(ST55)。本実施例ではj’=2、lj’=20、aj’=14、bj’=90であったものとして、図8に示した。
【0056】
大きなグループほどそれに含まれていた画素数が多くなるので、(8)式では距離計算の式をNjで割り、Ljを小さくすることで、大きなグループには離れた画素も含まれやすくした。図9(a)に示したように、注目画素kがグループjの第一主成分の方向、つまり、グループが細ながく伸びている方向に存在するときはf2jは−1に近くなりLjも小さくなる。
【0057】
つまり、二次元平面上での距離が離れていても、見かけ上近くなるため、そのグループに含まれやすくなる。一方、図9(b)に示したように、第二主成分の方向に注目画素kがあるときはf2jは1に近くなるのでLjは大きくなり、近くにあっても見かけ上距離は大きくなる。
【0058】
よって注目画素はそのグループに含まれにくくなる。このようにして、グループの大きさだけでなく、グループの扁平した形も考慮して、画素が属するグループを決定していくので、タッチに似た加工画像を得られるようになる。
【0059】
次にkに1を加え(ST56)、kを7000と比較する(ST57)。kが7000より大きければ、処理を終了し、小さければ処理(ST53)に戻り、新たなk番目の画素について計算を行う。
【0060】
新たなk番目の画素はk−1の画素とほとんど同じ座標値なので、 k−1の画素が属したグループj’の近傍グループに属すものと考えられるので、距離計算は、ジオグラフテーブルBのグループj’の近傍グループに関してのみ計算する。
【0061】
以下同様にk番目の画素はk−1番目の画素の属したグループの近傍グループに関して計算すればよい(ST53)。このようにジオグラフテーブルBを用いることで、全てのグループとの比較をしないですむため、短時間で処理を終了することができるようになる。
【0062】
繰り返し計算を続け全ての画素について計算を終えたときには、加工画像ができあがっている。また、グループ対応表も完成していることになる。
【0063】
このようにして完成した加工画像7を、labをRGBに変換するRGB色変換部9を通し画像表示部10に出力し可視化したり、labをCMYKに変換するCMYK色変換部11を通しプリンターなどの画像出力部12を通じて出力し、美術作品を作成することができるようになる。
【0064】
図10に処理前の画像と処理後の画像をそれぞれ上下に並べて示した。ただしこの変換では、 (ST42)の処理においてlの値は変えなかった。
【0065】
本実施例ではグループ特徴加工部3において、100回の繰り返し処理を行ったが、この回数は十分な処理が得られると考えられる回数に変更することが可能である。また、繰り返し処理により変更したのは扁平要素のみであったが、そのほか色などのグループ特徴を変更することも同様に可能である。
【0066】
[実施例2]
先の実施例においては処理される画像は1枚であったが、本実施例では処理される画像は2枚とし、それをもとに合成する手法を図11に基づいて先の実施例との違いについてのみ示す。
【0067】
1枚目の電子画像5とそれを分割した分割結果6を先の実施例で示したグループ特徴計算部1で特徴テーブルを計算し、計算結果をグループ特徴合成部17に渡す。グループ特徴合成部17は1枚目のグループ特徴に関しては何も処理せずに、グループ特徴記憶部2に書き込む。
【0068】
ここで、本実施例では1枚目の電子画像5から作られた特徴テーブルには3000のグループが存在するものとする。次に第2の画像18と第2の分割結果19を入力し、同様にグループ特徴計算部1で特徴テーブルを計算し、それをグループ特徴合成部17に渡す。グループ特徴合成部17は2枚目のグループ特徴に関しては全てのグループ番号に3000を加えたあと、グループ特徴記憶部2にある既に作られている特徴テーブルに書き加えていく。
【0069】
本実施例では合成後のグループが6500個であったとする。このようにして二枚の画像からグループ数6500の一つの特徴テーブルがグループ特徴記憶部2に保持される。これ以降の処理はグループ数が6500に増えたこと以外は先の実施例と全く同様に処理することで、合成画像が得られる。
【0070】
本実施例において、グループ特徴合成部17で2枚目の画像の特徴テーブルを合成する際に、2枚目の画像の特徴テーブルのグループに含まれていたグループn画素数Nn全てに一定の定数(ここでは2とする)を掛けると、(8)式の計算から明らかなように1枚目の画像に対し、2枚目の画像のグループの方がおよそ2倍の面積を合成画像上で占めるようになる。一方1より小さな値を掛けて、合成すれば、1枚目の画像に対し、2枚目の画像のグループの方が少ない面積で合成される。
【0071】
また、1枚目の画像も2枚目の画像も700画素がx方向に並んでいるとした場合は、画素のx座標をxnとして、定数のかわりに関数F(xn)=xn/700+1/2を2枚目の画像のNnに掛ければ、合成画像は一番左側では1枚目の画像のグループが大きく、右に行くに従って2枚目の画像のグループが大きくなる。
【0072】
さらに、2つの関数をNn以外のグループ特徴ln、an、bn、xn、yn、Nn、dxn、dyn、kn、Dn、Hnを変数とする関数F1(ln、an、bn、xn、yn、Nn、dxn、dyn、kn、Dn、Hn)、F2(ln、an、bn、xn、yn、Nn、dxn、dyn、kn、Dn、Hn)と定義し(以下この二つの関数を略して、F1()、F2()と表す)、1枚目の画像のNnにF1()を2枚目の画像のNnにF2()を掛けることにより一層複雑な合成を可能にすることができるようになる。
【0073】
本実施例では、
F1()=ln/255+Hn
F2()=255−ln/255+1−Hn
【0074】
と定義する。この定義に従うと、1枚目の画像は明るく扁平要素の大きいグループの面積が大きくなり、2枚目の画像は暗く扁平要素の小さいグループの面積が大きくなるように合成される。
【0075】
またさらに、オペレーターが上記関数F1()とF2()の関数形をグループ特徴合成部17に適宜指示できるようにキーボードなど合成関数形指示部を設けてもよい。
【0076】
本実施例により画像のグループ単位の特徴を利用することで、多様な合成方法を提供することができるようになる。また、本実施例では2枚の画像を用いたが、2枚以上の画像を合成することも可能である。
【0077】
[実施例3]
第1の実施例、第2の実施例で示したグループ特徴計算部1をグループを構成する画素の空間配置からグループ内に生じている模様を表現する模様方向要素と模様強度要素も計算するように変更しそれを後段の処理で利用する例を示す。
【0078】
本実施例では実施例1で導入したグループの外形が変化していくときの扁平要素上限を決めるパラメータK1と電子画像の明度を変化させる大きさを決めるパラメータK2の2つに加えて、グループの模様が変化していくときの模様強度要素の上限を決めるパラメータK3を用いることにする。本実施例ではK3=0.7とする。
【0079】
lのみに対して模様方向要素と模様強度要素を抽出する。模様方向/強度抽出マスクとして図12に示した3×3の正方マスク2つM1、M2用いる。この二つのマスクを電子画像5の左上から順に走査し、マスクが重なった画素の組Geを抽出し、その画素の組みGeとマスクM1、M2との
CC=Ge*M1、LL=Ge*M2
を計算する。ただし、 Ge*MはGeとMとの畳み込みの計算を表す。さらに、
da=16/π×atan(LL/CC)+8
log(LL**2+CC**2+1)>1ならば
dh=1
log(LL**2+CC**2+1)>1ならば
dh=0
を計算し、daは少数以下を切り捨て、dhは0か1の整数をとることになる。
【0080】
図13にdaと方向の関係を示した。グループ毎に
(グループ毎のdhの総和)/(グループに含まれる画素数)
を計算しそれをそのグループnの模様強度要素とし、Tsnで表す。また、グループ毎にdaのヒストグラムをとり、ヒストグラム最大のdaにたいし、da/16を計算し、そのグループnの模様方向要素とし、Tdnで表す。TdnもTsnも実数。
【0081】
このようにしてTdn、Tsnをもとめ、これらをグループ特徴に加える。
つぎに、Tdn、Tsnをグループ特徴加工部で利用できるように、第一の実施例で図5に示したステップ3の代わりにステップ3のST33の部分を変更したステップ3’で計算する。以下図14に従って説明する。
【0082】
[ステップ3’の処理]
まず、カウンターnを1にする。(ST31’)
グループnに注目し、Tsn>K3を調べ(ST32’)、Tsn>K3であれば、何もしないで、次の処理(ST34’)に移る。
【0083】
Tsn≦K3であれば、ジオグラフテーブルAのグループnの行に書き込まれている最近傍グループ10個の模様強度要素をグループ特徴記憶部2から読み出す。その中でTsnより大きい模様強度要素のものだけを集めてその平均を求め、その値を新たなTsnとする。
【0084】
次にTsnより大きい模様強度要素をもつグループ(kで表す)の模様方向要素TdkのTdnからのずれをθTkで表し、選ばれたθTkを算術平均したものを新たなTdnとする。ただしθTkは−0.5から0.5の間で表現されるので、θTk>0.5であればθTkは1−θTkで置き換え、θTk≦−0.5であればθTkは1+θTkとして計算する。
【0085】
また、計算結果であるTdnは0から1の間で表現されるので、Tdn≧1であればTdnはTdn−1で表し、Tdn<0であればTdnは1+Tdnで表す。この様にして得られたTsnとTdnをグループ特徴記憶部2の特徴テーブルに書き込む(ST33’)。
【0086】
グループnのHnをK1と比べ(ST34’)、Hn>K1であれば、何もしないで、次の処理(ST36’)に移る。Hn≦K1であれば、ジオグラフテーブルAのグループnの行に書き込まれている最近傍グループ10個の扁平要素をグループ特徴記憶部2から読み出す。その中でHnより大きい扁平要素のものだけを集めてその平均を求め、その値を新たなHnとする。
【0087】
次にHnより大きい扁平要素をもつグループ(jで表す)の方向要素DjのDnからのずれをθDjで表し、θDjをjについて算術平均を取ったものをDnに加え、それを新たなDnとする。ただしθDjは−0.5から0.5の間で表現し、θDj≧0.5であればθDjを1−θDjで表し。θDj<−0.5であればθDjを1+θDjとして計算する。
【0088】
また、計算結果であるDnは0から1の間で表現されるので、Dn≧1であればDnはDn−1で表し、Dn<0であればDnは1+Dnで表す。この様にして得られたHnとDnをグループ特徴記憶部2の特徴テーブルに書き込む(ST35’)。
【0089】
次にカウンターnに1を加え(ST36’)、カウンターnを3000と比較する(ST37’)。カウンターnが3000より小さければ、初めの処理(ST32’)に戻し同様の処理を続ける。こカウンターnが3000を越えたら、カウンターmに1を加える(ST38’)。カウンターmと100を比較し(ST39’)、カウンターmが100をこえたなら処理を終了し次のステップ4に進む。カウンターmが100をこえない場合は、(ST31’)の処理に戻り同じ処理を繰り返す。
【0090】
以上のようにステップ3をステップ3’に変えることで、模様強度要素Tsnと模様方向要素Tdnも周囲グループのグループ特徴に応じて加工できるようになる。
【0091】
ST35’とST36’の間に次のステップST35’’を入れることで、模様方向要素Tdnと模様強度要素Tsnに応じて、方向要素Dnと扁平要素Hnを変えることができるようになる。
【0092】
[ステップST35’’の処理]
扁平要素Hnを1−(1−Hn)×(1−Tsn)を計算した値で置き換える。次に、TdnのDnからのずれDn− TdnをθDTnで表し、θDTn≧0.5であればθDTnは1−θDTnで表し、θDTn<−0.5であればθDTnは1+θDTnとして方向要素DnをDn−Tsn×θDTn/(Hn+Tsn)を計算した値で置き換える。ここでも、計算結果であるDnは0から1の間で表現されるので、Dn≧1であればDnはDn−1で表し、Dn<0であればDnは1+Dnで表す。
【0093】
このようにステップST35’’を入れることで、模様強度要素に応じて扁平要素を加工する事と模様方向要素に応じて方向要素を加工することができるようになる。
【0094】
このように、模様方向要素と模様強度要素に応じて、方向要素と扁平要素を変えた場合には実施例1で示した画像構成部4の処理をそのまま行うだけで模様方向要素と模様強度要素に応じた画像構成がなされることになる。しかし、画像構成部4において新たに模様方向要素と模様強度要素を直接利用できるようにすることで、より表現力を豊かにすることができるようになる。
【0095】
たとえば、(8)式の計算の結果、注目画素の属するグループj’が決まった後で、画像加工エリア14に代入するlj’、aj’、bj’をそのまま入れずに分散Vのガウス分布をもった乱数でばらつかせ、その分散VをTsj’の関数にするなどの手法がある。
【0096】
[実施例4]
次に、周囲のグループの配置によって注目グループを移動させる方法を示す。グループ特徴合成部17で行う処理として、実施例2に示したグループ特徴合成部17が行った処理に、さらに、グループ特徴テーブルにそのグループ特徴が何番目の画像から得られたものであるかを示す項目をつけ加える処理を加える。そしてこの新たなグループ特徴である画像番号をグループ特徴加工部3で利用する。以下にグループ特徴加工部3のステップ3を変更したステップ3’’の処理について述べる。ここでも、入力されるのは電子画像5と第2の電子画像18、分割結果6と第2の分割結果19とし、大きさは700画素×1000画素とする。
【0097】
ステップ3’’
まず、カウンターnを1にする。
グループnに注目し、ジオグラフテーブルAのグループnの行に書き込まれている最近傍グループ(jで表す)10個の重心座標xj、yjをグループ特徴記憶部2から読み出しそのグループがグループnと同じ画像に属すグループのものであれば−Nj/(xn−xj)**2、−Nj/(yn−yj)**2を求め、そのグループがグループnと異なる画像に属すグループのものであればNj/(xn−xj)**2、Nj/(yn−yj)**2を求め、得られた10個の値の平均をxn’、yn’する。さらに、グループ10個の画素数Njの総和をN、平均グループ間距離をQ、定数K4として、新しいグループnの重心xn+ K4×Q×(xn’/N)、yn+ K4×Q×(yn’/N)を計算し、グループ特徴記憶部2の特徴テーブルに書き込み値を更新する。ここではK4=5とする。
【0098】
次にカウンターnを一つ増やし、次のグループに処理を移し同様の処理を続ける。この処理を続けカウンターnが3000を越えたら、カウンターmに1を加える。カウンターmが100をこえたら処理を終了し次のステップ4に進む。カウンターmが100をこえない場合は、次のグループの処理に戻り同じ処理を繰り返す。
【0099】
このステップ3’’の処理は局所的に同一画素に属するグループを集める効果がある。本実施例ではカウンターmを終了させる値を100にしたが、カウンターmを終了させる値を小さくすると、二枚の画像は完全に散らばり、カウンターmを終了させる値を大きく設定するに従って同一画像のグループが集中してくる。しかし、この処理を続けると、局所的にグループの重心が集まりすぎてしまうので、適切なカウンターmの値で止める必要がある。また、x方向のみy方向のみの重心を移動させることも可能である。
【0100】
【発明の効果】
以上のように請求項1の発明は画像を加工する際に、画素から画素へダイレクトに変換するのではなく、グループごとに特徴をまとめ、そのグループを単位として特徴を加工し、加工された特徴を保存するようにグループに画素を割り付けて画像を構成しているため、グループを筆触に見立てることができ、写真画像などの原画像を様々な筆触の画像に加工することができるという特有の効果を奏する。
【0101】
また、グループ特徴としてグループ毎の画素が作る外形情報を後段のグループ特徴を加工する際や画像を構成する際に利用可能となるため、一層豊富な表現が可能になるという特有の効果を奏する。
【0102】
請求項の発明は請求項1の効果に加え、すでに領域分割されているグループの形が十分に扁平しておらず、筆触らしい形が得られないなどのようなグループ特徴が不十分な場合に、その周囲のグループの特徴を取り込む処理を行うことで、筆触の豊かな変換画像を得るなど特徴の豊富な画像の加工ができるという特有の効果を奏する。
【0103】
請求項1 の発明は先に述べた事項に加え、グループの特徴を完全に保存したまま画像を再構成することが困難な場合も、全ての画素がなるべくグループの特徴を残したまま、かつ余白を残さずに自然に配置されるという特有の効果を奏する。また、画像構成する際に距離計算を利用したため、この距離を表す式の定義を様々に変えることで、より豊富な表現を作り上げることが可能になる。
【0104】
【図面の簡単な説明】
【図1】 本発明の全体の構成を表す図
【図2】 実施例1の構成を示すブロック図
【図3】 電子画像の画素と領域分割の結果から計算されたグループの との対応関係を示す図
【図4】 特徴テーブルの例
【図5】 グループを単位とした画像加工方法を表すフローチャート
【図6】 ジオグラフテーブルAの例
【図7】 グループを単位とした画像構成方法を表すフローチャート
【図8】 電子画像の画素とグループ対応表のグループ番号と画像加工エリアの画素のl、a、bとの対応関係を示す図
【図9】 注目画素kとグループjの主成分の方向との関係を表した図
【図10】 実施例1で示した処理前の画像と処理後の画像を示した図
【図11】 実施例2の構成を示すブロック図
【図12】 グループの模様方向要素と模様強度要素を抽出するフィルターを示した図
【図13】 daの番号とその番号が示す方向の説明図
【図14】 実施例3のステップ3’での処理を表すフローチャート
【符号の説明】
1 グループ特徴計算部、2 グループ特徴記憶部、3 グループ特徴加工部、4 画像構成部、5 電子画像、 6 分割結果、7 加工画像または合成画像、8 制御装置、9 RGB色変換部、10 画像表示部、11 CMYK色変換部、12 画像出力部、13 グループ対応表、14 画像加工エリア、15グルーブjの外形、16 注目画素k、17 グループ特徴合成部、18 第2の電子画像、19 第2の分割結果
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for processing and synthesizing electronic images.
[0002]
[Prior art]
Image processing technology, which reads photographic images with a scanner, converts them into electronic images, uses a computer to add human sensibility and creates artistic works, has made great progress. Image processing can also perform color conversion and distortion conversion that change the color of pixels and distort images.
[0003]
However, color conversion processing does not change adaptively by judging characteristics other than the color of the pixel, but changes the color using a predetermined color correspondence, and distortion conversion uses information other than pixel position information. The image is distorted without judging the characteristics. In addition, frequently used edge enhancement processing determines whether a pixel of interest constitutes an edge from the value of the pixel of interest and the values of pixels around the pixel of interest, and emphasizes the pixel according to the result. The process is performed. What is common to all processes is that it is a unit for changing one pixel of interest.
[0004]
Although these methods can give dramatic changes in the appearance, it is impossible to transform the sensibility as a painting created by humans. By the way, it is thought that expression with rich sensibility represented by painting is expressed by the touch (touch) of one stroke of the painter. Therefore, it is important to be able to express the brushstroke when processing an image.
[0005]
Also, considering that many of the various expression formats are greatly affected by the way the brush appears, it is clear that an image processing method that can express various types of brush is important. Nakajima et al .: "Analysis of painting images by computer-automatic division of oil painting images into touches" as a technique for extracting brushstrokes from electronic images, D. (1994) However, these techniques can also be applied when creating a group of pixels (hereinafter simply referred to as a group) that constitutes a brushstroke from a photographic image.
[0006]
Izumi et al .: “Study on segmentation method using color information and position information”, IEICE Spring National Conference Preliminary Lecture, 5-dimensional K-average algorithm shown in D680 (1991) Is possible.
[0007]
On the other hand, Nakajima et al .: “Automatic generation of oil painting style representation of natural images using frequency information”, IEICE Spring National Convention Preliminary Lecture, D (1994), Saito et al: “Handwriting from photographs using FFT "Automatic generation of wind image", IPSJ Research Reports Graphics and CAD, 74-3, (1995) collects pixels with similar colors and textures, and creates a group of the pixels that make up the group. A technique for creating a painting-like expression by the process of replacing with an average color is shown.
[0008]
However, in this method, there is no element that can be controlled by the operator other than changing the number of groups and the combination of pixels constituting the group, and various expressions cannot be expressed through the handwriting.
[0009]
Also, with this technique, image composition that creates a single image from a plurality of images cannot be performed. In the image composition processing, there is only a method of combining in units of pixels or for each arbitrary region cut out by an operator, and the above-described composition in units of groups has not been performed. Therefore, various synthetic methods could not be realized.
[0010]
[Problems to be solved by the invention]
As described above, in the conventional technology, it is impossible to add various expressions to an image by controlling the brush stroke. Also, when two images are combined into one, it is impossible to combine both groups into one image in units of groups such as brushstrokes.
[0011]
The present invention has been made in view of the above-described conventional example, and provides processing and composition of images by unified processing in units of the above groups, and provides various expression processing and various types of composition. With the goal.
[0012]
[Means for Solving the Problems]
FIG.A description will be given in association with the numbers in the block diagram showing the configuration of the apparatus shown in FIG. In order to solve the above problems, an image processing / synthesizing apparatus according to claim 1
Group the pixels belonging to the same area from one or several electronic images and the result of dividing the electronic image into groups, and at least the average color for each group, the position on the image for each group, the number of pixels included in the group for each group ,Directional elements and flatness calculated from the outline created by the group of pixels for each groupA group feature calculation unit 1 that calculates a group feature, a group feature storage unit 2 that stores the calculated group feature, and a group that selectively processes the feature information for each group stored in the group feature storage unit 2 Feature processing part 3 and group featuresWhen constructing an image based on the above, the distance function value with the difference between the position of the pixel of interest and the position of the group as a variable is calculated, the group having the smallest value is determined as the group to which the pixel belongs, New pixel of interest for the group characteristics of the specified group or the group characteristics of the group after processingInformation andDoIt consists of an image construction unit 4.
[0014]
Claim2Image processing compositionapparatusIs a method of processing the group feature of the target group while referring to the group features of a plurality of groups having a spatial arrangement close to the target group when processing the group feature described in claim 1.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
According to the image processing / synthesizing apparatus of claim 1, the pixels belonging to the divided area are considered as one group by using the input image and the result of division by the area division processing unit not described here. The group feature calculation unit 1 calculates at least the average color for each group, the position on the image for each group, and the number of pixels included in each group as a group feature, and stores the result in the group feature storage unit 2 By doing so, it is not necessary to recalculate the group features required for the following image processing or image composition, and efficient image processing or image composition becomes possible.
[0017]
Next, the group feature read from the group feature storage unit 2 is processed by the feature information processing unit 3. At this time, the pixel features are described for each group to which the pixel belongs. A wide variety of image processing can be performed. Furthermore, based on the processed group feature, the image constructing unit 4 constituting the image can realize various expressions by using different image construction methods according to the group feature.
[0018]
AlsoAs a group feature, pixels for each group are created.OutsideFormNewsBecause it can be used when processing subsequent group features or composing imagesTheThe outer shape created by the pixels for each loop can be processed, and a richer representation is possible.
[0019]
Claim2Image processing compositionapparatusThen, even if the group of interest does not have enough features that can be appreciated, the group characteristics of the group of interest can be changed while referring to the group characteristics of multiple groups whose spatial arrangement is close to that of the group of interest. It is possible to change to a group rich in features in harmony with the surrounding groups, and as a result, richly expressive image processing and composition can be achieved.
[0020]
Claim1Image processing compositionapparatusIf,In addition to the matters mentioned aboveWhen composing an image based on group characteristics, the value of the distance function with the difference between the position of the target pixel and the group position as a variable is calculated, and the group with the smallest value is determined as the group to which the pixel belongs. This is a method in which the group feature of the fixed group or the group feature of the group after processing is used as information of the pixel of interest, so that even if an image configuration in which the group feature is completely stored cannot be configured, all pixels However, it is possible to arrange them naturally while keeping the characteristics of the group as much as possible and without belonging to any group.
[0021]
In addition, since distance calculation is used for the image configuration, it is possible to create a richer expression by changing the definition of the expression representing this distance in various ways.
[0022]
【Example】
Embodiment 1 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 2 is a block diagram showing the overall configuration of an embodiment of the present invention. An electronic image 5 represented by RGB, gray scale, L * a * b *, etc. is input from an input unit such as a scanner not shown. Is done. In this embodiment, L * a * b * recommended by the CIE (International Lighting Commission) is used as the color space.
[0023]
Hereinafter, they are referred to as l, a, and b, respectively. The image size is 1000 pixels vertically and 700 pixels horizontally, and one pixel is represented by 8 bits each of l, a, and b.
[0024]
Also, it is assumed that the input image 5 is divided by a region dividing unit (not shown) and the division result 6 is obtained. Region segmentation processing not shown in the figure includes a method of extracting the strokes from the previously touched painting (Nakajima et al .: "Analysis of painting images by computer-automatic segmentation of oil painting images-", IEICE Spring National Meeting Preliminary Lecture, D (1994) and 5-dimensional K-means algorithm (Izumi et al .: “Study of segmentation method using color information and position information”, IEICE Spring National Meeting Preliminary Lecture, D680 (1991)) can be used.
[0025]
The electronic image 5 and the division result 6 are transferred to the group feature calculation unit 1 through a network or the like. In the division result 6, as shown in FIG. 3, the region number is written at the position of the two-dimensional plane xy corresponding to the pixel of the electronic image 5 so that it can be understood which region the pixel of the electronic image 5 belongs to.
[0026]
The division result 6 of this area division has a depth of 16 bits per pixel, and can express up to 65536 groups. In this apparatus, the overall processing is controlled by a control device 8 such as a computer.
[0027]
A method for calculating the group feature from the two pieces of information of the electronic image 5 and the division result 6 will be described below. The area number is represented by n, and the total number of areas is 3000. That is, 1 ≦ n ≦ 3000. Each area is considered as a group of pixels, and a 3000-line feature table is prepared in the group feature storage unit 2 constituted by a hard disk or the like so that group features of all groups can be written.
[0028]
The first row is provided with the average colors l1, a1 and b1 of group 1 and the centroids x1 and y1 of the distribution of pixels of group 1 and the number of pixels N1 belonging to group 1, and so on. The initial value is all 0.
[0029]
The electronic image and the division result are read one by one in order from the upper left, and the values of l, a, and b of the pixel having the same area number n and the values of x and y of the pixel are read in the nth row of the corresponding feature table. In addition to certain ln, an, bn, xn, and yn, 1 is added to a counter Nn that counts the number of pixels belonging to the region.
[0030]
After performing this operation for all pixels and calculating to the pixel in the lower right corner, ln / Nn, an / Nn, bn / Nn, xn / Nn, yn / Nn are calculated, and the value is newly set to ln, Rewrite to an, bn, xn, yn. In this way, the average color and centroid of all groups and the number of pixels belonging to the group are stored in the feature table.
[0031]
Next, the approximate shape is expressed with parameters that are easy to catch intuitively, and these are also used as group features, dxn as a new group feature after ln, an, bn, xn, yn, Nn in the feature table of the group feature storage unit 2. , Dyn, kn, Dn, and Hn. In all cases, the initial value is 0.
[0032]
The difference between the pixel position (x, y) constituting the group n in order from the upper left and the centroid (xn, yn) of the group n already stored in the feature table of the group feature storage unit 2 is calculated, and the group feature storage unit Add the square of (x-xn) to dxn newly added to the feature table of 2, add the square of (y-yn) to dyn, and add the product of both (x-xn) × (y-yn) to kn . After performing this operation for all the pixels and calculating up to the pixel in the lower right corner, dxn / Nn, dyn / Nn, kn / Nn are obtained for each group, and set as new dxn, dyn, kn values, Store in the feature table of the group feature storage unit 2.
[0033]
For dxn and dyn, the variance in the x direction and the variance in the y direction are calculated with respect to the shift amount from the center of gravity of the pixels constituting the group n. Furthermore, in order to express the approximate shape of the group with parameters that are easy to capture intuitively, it is assumed that the arrangement of pixels belonging to the group is approximately elliptical, and the direction element that represents the direction in which the major axis of the ellipse is facing A flat element Hn determined so that the flatness of the ellipse increases as the value of Dn increases is introduced.
[0034]
A process of calculating the first principal component L1 and the second principal component L2 for each group from the already calculated three values dxn, dyn, kn, and further obtaining the direction element Dn and the flat element Hn representing the outer shape from them. It was expressed in the formulas (1) to (6).
[Expression 1]
L1 = [dxn + dyn + SQRT ((dxn−dyn) ** 2−4 × kn ** 2)] / 2
[Expression 2]
L2 = [dxn + dyn−SQRT ((dxn−dyn) ** 2−4 × kn ** 2)] / 2
[Equation 3]
When SQRT {kn ** 2 + 2 + (L1-dxn) ** 2} ≠ 0
W1 = kn / SQRT (kn ** 2 + (L1-dxn) ** 2)
When SQRT {kn ** 2 + 2 + (L1-dxn) ** 2} = 0
W1 = 0
[Expression 4]
W2 = SQRT (1-W1 ** 2)
[Equation 5]
Dn = atan (−W1 / W2) / π + 1/2
[Formula 6]
Hn = (L1-L2) / (L1 + L2)
[0035]
However, ** 2 means square and SQRT (X) means the square root of X. Atan (x) is an inverse function of tan (x).
[0036]
By performing this calculation for all groups, the direction element Dn and the flat element Hn of the group n are obtained. These two values are written in the feature table of the group feature storage unit 2.
[0037]
Dn takes a value from 0 to 1, Dn is a value close to ½ if the distribution is elliptical horizontally long, and Dn is a value close to 0 or 1 if the distribution is elliptical long vertically become. Hn takes a value from 0 to 1, and Hn takes a larger value in a group having a flat distribution.
[0038]
Through the above procedure, the group feature calculation unit 1 calculates the group feature, and the result is stored in the feature table of the group feature storage unit 2 shown in FIG.
[0039]
Next, the group feature processing unit 3 converts the feature table stored in the group feature storage unit 2 in accordance with parameters given by the operator. Two parameters, a parameter K1 for determining the upper limit when the flat element of the group changes and a parameter K2 for determining the magnitude of changing the brightness of the electronic image, are introduced. In this embodiment, K1 = 0.7 and K2 = 0.3 are adopted as preferable values.
[0040]
By considering each group as a painting brush and changing this group in various ways, it is possible to give various impressions. Here, a method for making the flat elements of a group having few flat elements high and making a natural image will be described with reference to the flowchart shown in FIG.
[0041]
Step 1
Focusing on group 1, all the distances between the center of gravity of this group and the center of gravity of other groups are obtained, and the numbers of up to 10 groups are written in the geograph table A in order of increasing distance. This process is repeated in order until the group 3000 is written in the geograph table A (ST1). The geograph table A is shown in FIG.
[0042]
Step 2
Set counter m to 1. (ST2)
[0043]
Step 3
First, the counter n is set to 1 (ST31).
Focusing on group n, Hn of group n is compared with K1 (ST32). If Hn> K1, nothing is done and the process proceeds to the next process (ST34). If Hn ≦ K1, 10 flat elements (represented by j) written in the row of group n of the geograph table A are read from the group feature storage unit 2. Among them, only flat elements larger than Hn are collected and averaged, and the value is set as new Hn and written in the feature table of the group feature storage unit 2.
[0044]
Next, the deviation of the direction element Dj of the group j having a flat element larger than Hn from Dn is represented by θDj, and θDj obtained by taking an arithmetic average with respect to j is added to Dn, which is set as a new Dn. However, the angle between the groups is expressed by the smaller angle, and the angle from -π / 2 to π / 2 is expressed between -0.5 and 0.5 in θDj, so θDj ≧ 0. If it is 5, θDj is represented by 1-θDj. If θDj <−0.5, θDj is calculated as 1 + θDj.
[0045]
Further, since the shape of the group is the same even after half rotation, Dn as a calculation result is expressed between 0 and 1. Therefore, if Dn ≧ 1, Dn is expressed as Dn−1 and Dn <0. Then, Dn is represented by 1 + Dn. In this way, Dn is obtained and written in the feature table of the group feature storage unit 2 (ST33).
[0046]
Next, 1 is added to the counter n (ST34), the processing is moved to the next group, and the same procedure is continued. If this process is continued and the counter n exceeds 3000 (ST35), 1 is added to the counter m (ST36).
[0047]
The counter m is compared with 100 (ST37). If the counter m exceeds 100, the process ends and the process proceeds to the next step 4. If the counter m does not exceed 100, the process returns to 1 and repeats the same process. .
[0048]
Step 4
Since the processing of the shape has been completed up to step 3, the process moves to processing of lightness ln and chromaticities an and bn. Counter n is set to 1 (ST41). Read ln, an, and bn of the group n from the feature table of the group feature storage unit 2, and calculate ln by the equation (7).
[Expression 7]
{Ln / 255 × (1-K2) + K2} × 255
For an and bn, a random number that outputs an integer in the range of −5 to +5 is added to the value (ST42).
[0049]
This process checks whether the value is in the range of 0 to 255 (ST43). If it is, the process proceeds to the next process (ST45). If it exceeds 255, 255 is substituted and becomes smaller than 0. In this case, 0 is substituted (ST44). 1 is added to the counter n, and ln, an, and bn are written as new values in the feature table of the group feature storage unit 2 (ST45).
[0050]
It is checked whether the counter n exceeds 3000 (ST46). If not, the process moves to the next group, and if it exceeds, the process ends. Through these processes, the brightness of the image is shifted to a brighter direction to make it look like a painting, and the colors of the groups are varied so that the outline of each group, that is, the brushstroke, stands out.
[0051]
Next, the processing moves to the image construction unit 4. This process will be described with reference to the flowchart shown in FIG.
First, the geograph table B is created. Focusing on group 1, all the distances between the center of gravity of this group and the centers of gravity of other groups are obtained, and up to 50 distances are written in the geograph table B in order of increasing distance (ST51).
[0052]
k = 1 is set (ST52).
The pixels are scanned in order from the upper left. Let the x and y coordinates of the pixel be xk and yk. If k = 1, using this value and the group features xj, yj, Nj, Dj, Hj of the neighborhood group j of group 1 in the geograph table B,
gxj = xk-xj, gyj = yk-yj
Calculate
[0053]
With this
fj = atan (−gyj / gxj) / π + 1/2
| Fj−Dj | <0.5
f2j = | fj−Dj | × 4-1
| Fj−Dj | ≧ 0.5
f2j = 4- | fj-Dj | × 4-1
F2j is calculated as described above. The distance between the pixel coordinates xk, yk and the group feature is calculated by the equation (8). (ST53)
[Equation 8]
Lj = [{gxj × (1.2 + f2j × Hj)} ** 2+ {gyj × (1.2 + f2j × Hj)} ** 2] / Nj
[0054]
After calculating the distance to all 50 group features written in the geograph table B, the pixel is included in the group j ′ with the shortest distance, and the group number is the pixel of the original electronic image. Write to the position (xk, yk) in the group correspondence table of FIG. 8 corresponding to the position (ST54).
[0055]
The group correspondence table has a depth of 16 bits per pixel so that up to 65536 groups can be expressed. Then, lj ′, aj ′, and bj ′ of the group are written in (xk, yk) of the processed image area of FIG. 8 prepared for writing the processed image (ST55). In this embodiment, FIG. 8 shows that j ′ = 2, lj ′ = 20, aj ′ = 14, and bj ′ = 90.
[0056]
Since the larger the group, the larger the number of pixels included in the larger group, so in Eq. (8), the distance calculation formula is divided by Nj, and Lj is made smaller to make it easier for larger groups to include distant pixels. As shown in FIG. 9A, when the target pixel k exists in the direction of the first principal component of the group j, that is, in the direction in which the group extends in a narrow pattern, f2j is close to −1 and Lj is also small. Become.
[0057]
In other words, even if the distance on the two-dimensional plane is far away, it appears to be close so that it is easily included in the group. On the other hand, as shown in FIG. 9B, when the pixel of interest k is in the direction of the second principal component, f2j is close to 1, so Lj is large, and even if it is close, the apparent distance is large. .
[0058]
Therefore, the target pixel is less likely to be included in the group. In this way, the group to which the pixel belongs is determined in consideration of not only the size of the group but also the flat shape of the group, so that a processed image similar to touch can be obtained.
[0059]
Next, 1 is added to k (ST56), and k is compared with 7000 (ST57). If k is greater than 7000, the process is terminated, and if k is smaller, the process returns to the process (ST53), and the calculation is performed for a new k-th pixel.
[0060]
Since the new k-th pixel has almost the same coordinate value as the k-1 pixel, it is considered that it belongs to the neighborhood group of the group j ′ to which the k-1 pixel belongs. Calculate only for neighboring groups of group j '.
[0061]
Similarly, the kth pixel may be calculated with respect to the neighborhood group of the group to which the k-1th pixel belongs (ST53). By using the geograph table B in this way, it is not necessary to compare with all the groups, so that the processing can be completed in a short time.
[0062]
When the calculation is repeated and the calculation is completed for all the pixels, a processed image is completed. The group correspondence table has also been completed.
[0063]
The processed image 7 completed in this way is visualized by outputting it to the image display unit 10 through the RGB color conversion unit 9 for converting lab to RGB, or through a CMYK color conversion unit 11 for converting lab to CMYK. It is possible to create an art work by outputting it through the image output unit 12.
[0064]
FIG. 10 shows the pre-processed image and the processed image arranged one above the other. However, in this conversion, the value of l was not changed in the process of (ST42).
[0065]
In the present embodiment, the group feature processing unit 3 performs 100 repetitions, but this number can be changed to a number at which sufficient processing can be obtained. Further, only the flat element has been changed by the repetitive processing, but it is also possible to change the group characteristics such as the color.
[0066]
[Example 2]
In the previous embodiment, the number of images to be processed is one, but in this embodiment, the number of images to be processed is two, and a method of combining the images based on the two images is based on FIG. Only the differences are shown.
[0067]
The feature table is calculated by the group feature calculation unit 1 shown in the previous embodiment for the first electronic image 5 and the division result 6 obtained by dividing it, and the calculation result is passed to the group feature synthesis unit 17. The group feature synthesis unit 17 writes the first group feature into the group feature storage unit 2 without performing any processing.
[0068]
In this embodiment, it is assumed that 3000 groups exist in the feature table created from the first electronic image 5. Next, the second image 18 and the second division result 19 are input, and the feature table is similarly calculated by the group feature calculation unit 1, which is passed to the group feature synthesis unit 17. The group feature synthesizer 17 adds 3000 to all the group numbers for the second group feature and then writes it to the already created feature table in the group feature storage unit 2.
[0069]
In this embodiment, it is assumed that there are 6500 groups after synthesis. In this way, one feature table having 6500 groups from the two images is held in the group feature storage unit 2. Subsequent processing is performed in exactly the same manner as in the previous embodiment except that the number of groups has increased to 6500, whereby a composite image is obtained.
[0070]
In this embodiment, when the feature table of the second image is synthesized by the group feature synthesis unit 17, a constant that is constant for all the n-group pixel numbers Nn included in the feature table group of the second image. When multiplied by 2 (here, 2), as is apparent from the calculation of equation (8), the area of the second image group is approximately twice as large on the composite image as the first image. Occupy. On the other hand, if a value smaller than 1 is multiplied and synthesized, the group of the second image is synthesized with a smaller area with respect to the first image.
[0071]
Further, when 700 pixels are arranged in the x direction in both the first image and the second image, the x coordinate of the pixel is xn, and the function F (xn) = xn / 700 + 1 / If 2 is multiplied by Nn of the second image, the first image group is larger on the leftmost side of the composite image, and the second image group is larger toward the right.
[0072]
Further, the function F1 (ln, an, bn, xn, yn, Nn) having the two functions as variables, which are group features ln, an, bn, xn, yn, Nn, dxn, dyn, kn, Dn, Hn, other than Nn. , Dxn, dyn, kn, Dn, Hn) and F2 (ln, an, bn, xn, yn, Nn, dxn, dyn, kn, Dn, Hn) (hereinafter these two functions are abbreviated as F1) By multiplying Nn of the first image by F1 () and Nn of the second image by F2 () (represented by () and F2 ()), a more complicated composition can be made possible. Become.
[0073]
In this example,
F1 () = ln / 255 + Hn
F2 () = 255-ln / 255 + 1-Hn
[0074]
It is defined as According to this definition, the first image is synthesized so that the area of the bright and large group of flat elements is large and the second image is dark and the area of the small group of flat elements is large.
[0075]
Furthermore, a composite function form instruction unit such as a keyboard may be provided so that the operator can appropriately instruct the function forms of the functions F1 () and F2 () to the group feature composition unit 17.
[0076]
According to the present embodiment, a variety of composition methods can be provided by using the group unit feature of the image. In this embodiment, two images are used, but two or more images can be combined.
[0077]
[Example 3]
The group feature calculation unit 1 shown in the first embodiment and the second embodiment also calculates a pattern direction element and a pattern strength element expressing a pattern generated in the group from the spatial arrangement of pixels constituting the group. An example of using this in the subsequent processing is shown below.
[0078]
In the present embodiment, in addition to the parameter K1 for determining the upper limit of the flat element when the outer shape of the group introduced in the first embodiment changes and the parameter K2 for determining the magnitude for changing the brightness of the electronic image, A parameter K3 that determines the upper limit of the pattern strength element when the pattern changes is used. In this embodiment, K3 = 0.7.
[0079]
A pattern direction element and a pattern intensity element are extracted only for l. As the pattern direction / intensity extraction mask, two 3 × 3 square masks M1 and M2 shown in FIG. 12 are used. The two masks are sequentially scanned from the upper left of the electronic image 5 to extract a pixel set Ge where the masks overlap, and the pixel set Ge and the masks M1 and M2
CC = Ge * M1, LL = Ge * M2
Calculate However, Ge * M represents the calculation of the convolution of Ge and M. further,
da = 16 / π × atan (LL / CC) +8
If log (LL ** 2 + CC ** 2 + 1)> 1
dh = 1
If log (LL ** 2 + CC ** 2 + 1)> 1
dh = 0
, Da is rounded down to the nearest decimal, and dh is an integer of 0 or 1.
[0080]
FIG. 13 shows the relationship between da and direction. For each group
(Sum of dh for each group) / (number of pixels included in group)
Is calculated as the pattern intensity element of the group n, and is represented by Tsn. Also, a da histogram is taken for each group, da / 16 is calculated for the maximum histogram da, and is represented by Tdn as the pattern direction element of the group n. Both Tdn and Tsn are real numbers.
[0081]
In this way, Tdn and Tsn are obtained and added to the group feature.
Next, in order to be able to use Tdn and Tsn in the group feature processing unit, calculation is performed in step 3 'in which the part of ST33 in step 3 is changed instead of step 3 shown in FIG. A description will be given below with reference to FIG.
[0082]
[Step 3 'Processing]
First, set the counter n to 1. (ST31 ')
Focusing on group n, Tsn> K3 is checked (ST32 '). If Tsn> K3, nothing is done and the process proceeds to the next process (ST34').
[0083]
If Tsn ≦ K3, the pattern intensity elements of the ten nearest groups written in the row of group n of the geograph table A are read from the group feature storage unit 2. Among them, only those having pattern intensity elements larger than Tsn are collected to obtain the average, and the value is set as a new Tsn.
[0084]
Next, a deviation from Tdn of the pattern direction element Tdk of a group (designated by k) having a pattern strength element larger than Tsn is represented by θTk, and a value obtained by arithmetically averaging the selected θTk is defined as a new Tdn. However, since θTk is expressed between −0.5 and 0.5, if θTk> 0.5, θTk is replaced with 1−θTk, and if θTk ≦ −0.5, θTk is calculated as 1 + θTk. .
[0085]
Since Tdn, which is the calculation result, is expressed between 0 and 1, Tdn is expressed as Tdn-1 if Tdn ≧ 1, and Tdn is expressed as 1 + Tdn if Tdn <0. Tsn and Tdn obtained in this way are written into the feature table of the group feature storage unit 2 (ST33 ').
[0086]
Compare Hn of group n with K1 (ST34 '), and if Hn> K1, do nothing and move to the next process (ST36'). If Hn ≦ K1, the flat elements of the 10 nearest neighbor groups written in the row of group n of the geograph table A are read from the group feature storage unit 2. Among them, only flat elements larger than Hn are collected and the average is obtained, and the value is set as new Hn.
[0087]
Next, the deviation from Dn of the direction element Dj of the group having a flat element larger than Hn (denoted by j) is represented by θDj, and θDj is obtained by taking the arithmetic average of j and adding it to Dn. To do. However, θDj is expressed between −0.5 and 0.5. If θDj ≧ 0.5, θDj is expressed as 1−θDj. If θDj <−0.5, θDj is calculated as 1 + θDj.
[0088]
Since Dn as a calculation result is expressed between 0 and 1, Dn is represented by Dn−1 if Dn ≧ 1, and Dn is represented by 1 + Dn if Dn <0. The Hn and Dn obtained in this way are written into the feature table of the group feature storage unit 2 (ST35 ').
[0089]
Next, 1 is added to the counter n (ST36 '), and the counter n is compared with 3000 (ST37'). If the counter n is smaller than 3000, the process returns to the initial process (ST32 ') and the same process is continued. When the counter n exceeds 3000, 1 is added to the counter m (ST38 '). The counter m is compared with 100 (ST39 '), and if the counter m exceeds 100, the process is terminated and the process proceeds to the next step 4. If the counter m does not exceed 100, the process returns to (ST31 ') and the same process is repeated.
[0090]
As described above, by changing Step 3 to Step 3 ', the pattern strength element Tsn and the pattern direction element Tdn can be processed according to the group characteristics of the surrounding groups.
[0091]
By inserting the next step ST35 '' between ST35 'and ST36', the direction element Dn and the flat element Hn can be changed according to the pattern direction element Tdn and the pattern strength element Tsn.
[0092]
[Processing of Step ST35 "]
The flat element Hn is replaced with a value obtained by calculating 1− (1−Hn) × (1−Tsn). Next, the deviation Dn−Tdn of Ddn from Dn is expressed by θDTn. If θDTn ≧ 0.5, θDTn is expressed by 1−θDTn, and if θDTn <−0.5, θDTn is 1 + θDTn and the direction element Dn is Dn−Tsn × θDTn / (Hn + Tsn) is replaced with the calculated value. Here, Dn, which is the calculation result, is expressed between 0 and 1. Therefore, if Dn ≧ 1, Dn is expressed as Dn−1, and if Dn <0, Dn is expressed as 1 + Dn.
[0093]
By inserting step ST35 '' in this way, it becomes possible to process the flat element according to the pattern strength element and to process the direction element according to the pattern direction element.
[0094]
As described above, when the direction element and the flat element are changed according to the pattern direction element and the pattern strength element, the pattern direction element and the pattern strength element are simply performed by performing the processing of the image configuration unit 4 shown in the first embodiment as it is. An image configuration corresponding to the above is made. However, by making it possible to directly use the pattern direction element and the pattern strength element directly in the image construction unit 4, the expressive power can be further enriched.
[0095]
For example, after the group j ′ to which the pixel of interest belongs is determined as a result of the calculation of the equation (8), a Gaussian distribution with a variance V can be obtained without including lj ′, aj ′, and bj ′ to be substituted into the image processing area 14. There is a method of varying the random number with random numbers and making the variance V a function of Tsj ′.
[0096]
[Example 4]
Next, a method for moving the group of interest by arrangement of surrounding groups will be described. In addition to the process performed by the group feature synthesis unit 17 shown in the second embodiment as the process performed by the group feature synthesis unit 17, it is further determined from what number image the group feature is obtained in the group feature table. Add processing to add the items shown. Then, the group feature processing unit 3 uses the image number that is the new group feature. Hereinafter, the process of step 3 ″ in which step 3 of the group feature processing unit 3 is changed will be described. Also here, the electronic image 5 and the second electronic image 18, the division result 6 and the second division result 19 are input, and the size is 700 pixels × 1000 pixels.
[0097]
Step 3 ''
First, set the counter n to 1.
Paying attention to the group n, the 10 barycentric coordinates xj, yj written in the row of the group n of the geograph table A are read from the group feature storage unit 2 and the group is group n. If it belongs to a group belonging to the same image, -Nj / (xn-xj) ** 2, -Nj / (yn-yj) ** 2 are obtained, and the group belongs to an image belonging to a different image from group n. If there are, Nj / (xn−xj) ** 2 and Nj / (yn−yj) ** 2 are obtained, and the average of the obtained 10 values is xn ′ and yn ′. Further, assuming that the sum of the number of pixels Nj of 10 groups is N, the average inter-group distance is Q, and a constant K4, the centroid xn + K4 × Q × (xn ′ / N), yn + K4 × Q × (yn ′) of the new group n / N) is calculated, and the write value is updated in the feature table of the group feature storage unit 2. Here, K4 = 5.
[0098]
Next, the counter n is incremented by one, the processing is moved to the next group, and the same processing is continued. If this process is continued and the counter n exceeds 3000, 1 is added to the counter m. If the counter m exceeds 100, the process is terminated and the process proceeds to the next step 4. If the counter m does not exceed 100, the process returns to the next group and the same process is repeated.
[0099]
The processing in step 3 ″ has an effect of collecting groups belonging to the same pixel locally. In this embodiment, the value for ending the counter m is set to 100. However, if the value for ending the counter m is decreased, the two images are completely scattered, and the group of the same image is increased as the value for ending the counter m is set larger. Concentrate. However, if this process is continued, the center of gravity of the group will be excessively collected locally, so it is necessary to stop at an appropriate counter m value. It is also possible to move the center of gravity only in the y direction only in the x direction.
[0100]
【The invention's effect】
As described above, according to the first aspect of the present invention, when an image is processed, the features are not converted directly from pixel to pixel, but the features are grouped together, the features are processed in units of the groups, and the processed features are processed. Since the image is configured by assigning pixels to the group so that the image is saved, the group can be regarded as a brush, and the original effect such as photographic images can be processed into various brush images Play.
[0101]
AlsoAs a group feature, pixels for each group are created.OutsideFormNewsSince it can be used when processing the group feature in the subsequent stage or when composing an image, there is a specific effect that a richer expression is possible.
[0102]
Claim2In addition to the effect of claim 1, the invention of claim 1, in the case where the group features that are already divided into regions are not sufficiently flat and the group features such as a brush-like shape cannot be obtained, By performing the process of taking in the features of the surrounding groups, there is a unique effect that an image with abundant features can be processed, such as a converted image with a rich brushstroke.
[0103]
Claim1 In addition to the matters described above,Even if it is difficult to reconstruct an image while completely preserving the group characteristics, the unique effect is that all pixels are placed naturally without leaving any white space as much as possible. Play. In addition, since distance calculation is used when composing an image, it is possible to create richer expressions by changing the definition of the expression representing this distance in various ways.
[0104]
[Brief description of the drawings]
FIG. 1 is a diagram showing the overall configuration of the present invention.
FIG. 2 is a block diagram showing the configuration of the first embodiment.
FIG. 3 is a diagram showing a correspondence relationship between pixels of an electronic image and a group calculated from a result of area division;
FIG. 4 is an example of a feature table.
FIG. 5 is a flowchart showing an image processing method in units of groups.
FIG. 6 shows an example of a geograph table A
FIG. 7 is a flowchart showing an image construction method in units of groups.
FIG. 8 is a diagram illustrating a correspondence relationship between pixels of an electronic image, a group number in a group correspondence table, and pixels l, a, and b in an image processing area.
FIG. 9 is a diagram showing the relationship between the pixel of interest k and the direction of principal components of group j.
10 is a diagram showing an image before processing and an image after processing shown in Embodiment 1. FIG.
FIG. 11 is a block diagram showing the configuration of the second embodiment.
FIG. 12 is a diagram showing a filter for extracting a pattern direction element and a pattern intensity element of a group
FIG. 13 is an explanatory diagram of the da number and the direction indicated by the number.
FIG. 14 is a flowchart illustrating processing in step 3 ′ according to the third embodiment.
[Explanation of symbols]
1 group feature calculation unit, 2 group feature storage unit, 3 group feature processing unit, 4 image composition unit, 5 electronic image, 6 segmentation result, 7 processed image or composite image, 8 control device, 9 RGB color conversion unit, 10 image Display unit, 11 CMYK color conversion unit, 12 image output unit, 13 group correspondence table, 14 image processing area, 15 groove j outline, 16 pixel of interest k, 17 group feature synthesis unit, 18 second electronic image, 19th Division result of 2

Claims (2)

一枚または数枚の電子画像とそれを領域分割した分割結果から同一領域に属す画素をグループにし、少なくともグループ毎の平均色、グループ毎の画像上の位置、グループ毎のグループに含まれる画素数、グループ毎の画素の集団が作る外形から計算される方向要素と扁平さをグループ特徴として計算するグループ特徴計算部と計算されたグループ特徴を記憶しておくグループ特徴記憶部とグループ特徴記憶部に記憶されているグループごとの特徴情報を選択的に加工するグループ特徴加工部とグループ特徴をもとに画像を構成するに際し、注目画素の位置とグループの位置との差を変数とする距離関数の値を計算し、その値がもっとも小さくなるグループをその画素が属するグループと定め、その定められたグループのグループ特徴、または加工された後のそのグループのグループ特徴を新たに注目画素の情報とする画像構成部からなる画像加工合成装置。Group the pixels belonging to the same area from one or several electronic images and the result of dividing the electronic image into groups, and at least the average color for each group, the position on the image for each group, the number of pixels included in the group for each group A group feature calculation unit that calculates a directional element and flatness calculated from an outer shape formed by a group of pixels for each group as a group feature, a group feature storage unit that stores the calculated group feature, and a group feature storage unit When constructing an image based on a group feature processing unit and group feature that selectively processes the stored feature information for each group, a distance function using a difference between the position of the target pixel and the group position as a variable The value is calculated, the group with the smallest value is defined as the group to which the pixel belongs, the group characteristics of the defined group, and Image comprising an image forming section for a new pixel of interest of the information groups characteristic of that group after being processed processed synthesizer. 請求項1に記載されたグループ特徴を加工するに際し、注目グループから空間配置が近い複数のグループのもつグループ特徴を参考にしながら、注目グループのグループ特徴を加工することを特徴とする画像加工合成装置An image processing and synthesizing apparatus for processing group features of a group of interest while processing the group features described in claim 1 while referring to group features of a plurality of groups whose spatial arrangement is close to the group of interest. .
JP18146096A 1996-06-21 1996-06-21 Image processing / synthesis method and apparatus therefor Expired - Lifetime JP3766140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18146096A JP3766140B2 (en) 1996-06-21 1996-06-21 Image processing / synthesis method and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18146096A JP3766140B2 (en) 1996-06-21 1996-06-21 Image processing / synthesis method and apparatus therefor

Publications (2)

Publication Number Publication Date
JPH1011569A JPH1011569A (en) 1998-01-16
JP3766140B2 true JP3766140B2 (en) 2006-04-12

Family

ID=16101151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18146096A Expired - Lifetime JP3766140B2 (en) 1996-06-21 1996-06-21 Image processing / synthesis method and apparatus therefor

Country Status (1)

Country Link
JP (1) JP3766140B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL141803A0 (en) * 1998-09-23 2002-03-10 Du Pont Photoresists, polymers and processes for microlithography
JP2011175309A (en) * 2010-02-23 2011-09-08 Casio Computer Co Ltd Image processing apparatus and program

Also Published As

Publication number Publication date
JPH1011569A (en) 1998-01-16

Similar Documents

Publication Publication Date Title
CN110378985B (en) Animation drawing auxiliary creation method based on GAN
US8351689B2 (en) Apparatus and method for removing ink lines and segmentation of color regions of a 2-D image for converting 2-D images into stereoscopic 3-D images
CN110414519A (en) A kind of recognition methods of picture character and its identification device
CN109712068A (en) Image Style Transfer and analogy method for cucurbit pyrography
CN110222722A (en) Interactive image stylization processing method, calculates equipment and storage medium at system
CN112700528B (en) Virtual object shadow rendering method for head-mounted augmented reality device
CN106023276A (en) Pencil drawing making method and pencil drawing making device based on image processing
Zhang et al. Inkthetics: a comprehensive computational model for aesthetic evaluation of Chinese ink paintings
JP2003242520A (en) Data structure of texture data, program and texture mapping method
Qu et al. Richness-preserving manga screening
Faustino et al. Simple adaptive mosaic effects
CN104281865A (en) Method and equipment for generating two-dimensional codes
US7133052B1 (en) Morph map based simulated real-time rendering
JP3766140B2 (en) Image processing / synthesis method and apparatus therefor
He Application of local color simulation method of landscape painting based on deep learning generative adversarial networks
JP4174133B2 (en) Image generation method
CN107563958A (en) Hologram image conversion method and system
Li et al. real-time rendering of 3D animal models in Chinese ink painting style
Zhang et al. Aesthetic photo collage with deep reinforcement learning
CN111475969B (en) Large-scale crowd behavior simulation system
Seo et al. Interactive painterly rendering with artistic error correction
KR101098830B1 (en) Surface texture mapping apparatus and its method
CN113706700A (en) Three-dimensional map implementation method based on data visualization
JP3501479B2 (en) Image processing device
CN112002019A (en) Method for simulating character shadow based on MR mixed reality

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060126

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100203

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110203

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120203

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130203

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130203

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140203

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term