JP2000200354A - 構図情報抽出装置、被写体再構成装置および画像処理システム - Google Patents

構図情報抽出装置、被写体再構成装置および画像処理システム

Info

Publication number
JP2000200354A
JP2000200354A JP11001966A JP196699A JP2000200354A JP 2000200354 A JP2000200354 A JP 2000200354A JP 11001966 A JP11001966 A JP 11001966A JP 196699 A JP196699 A JP 196699A JP 2000200354 A JP2000200354 A JP 2000200354A
Authority
JP
Japan
Prior art keywords
image
subject
composition information
unit
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11001966A
Other languages
English (en)
Other versions
JP3034244B1 (ja
Inventor
Shoji Tanaka
昭二 田中
Yuichi Iwadate
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP11001966A priority Critical patent/JP3034244B1/ja
Application granted granted Critical
Publication of JP3034244B1 publication Critical patent/JP3034244B1/ja
Publication of JP2000200354A publication Critical patent/JP2000200354A/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 画像から構図情報を抽出し、抽出された構図
情報に基づいて絵を再構成することができる被写体抽出
装置および構図情報抽出装置を提供することを目的とす
る。 【解決手段】 構図情報抽出装置1は、外部から画像を
取得する画像入力回路2と、入力された画像から被写体
を自動的に抽出する被写体抽出回路3と、抽出された被
写体の構図情報を抽出する構図情報抽出回路4と、抽出
した構図情報を画像データベース6に格納する構図情報
格納回路5とを備える。構図情報は、画像データベース
6に蓄積され、さらにこの構図情報に基づき入力した画
像における被写体を背景画像に再配置することが可能と
なる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、構図情報抽出装置
および被写体再構成装置に関し、特に入力された画像か
ら自動的に被写体を抽出し、さらに指定された構図およ
び背景画像に合わせて、被写体を再構成する構図情報抽
出装置および被写体再構成装置に関するものである。
【0002】
【従来の技術】従来、映像や画像における被写体の位置
を修正する場合、すべて手動で行なっていた。
【0003】
【発明が解決しようとする課題】しかしながら、手動で
の修正は煩雑な処理が必要とされる。特に、視覚的バラ
ンスの良い絵に修正するには構図に関する専門知識が必
要とされる。したがってs、このような修正作業を行な
うことは非常に困難であるという問題があった。
【0004】そこで、本発明はこのような問題を解決す
るためになされたものであり、画像から被写体領域を自
動的に抽出し、抽出された被写体領域から構図情報を自
動的に取得することを可能とする構図情報抽出装置を提
供することを目的とする。
【0005】また、本発明は、抽出された構図情報に基
づいて、視覚的にバランスの良い絵を再構成することを
可能とする被写体再構成装置を提供することを目的とす
る。
【0006】
【課題を解決するための手段】請求項1に係る構図情報
抽出装置は、画像を入力する画像入力手段と、画像から
被写体を抽出する第1の抽出手段と、抽出した被写体に
関する構図情報を抽出する第2の抽出手段と、抽出した
構図情報を格納するためのデータベースと、データベー
スに抽出した構図情報を格納するための構図情報格納手
段とを備える。
【0007】請求項2に係る構図情報抽出装置は、請求
項1に係る構図情報抽出装置であって、第1の抽出手段
は、画像の特徴要素に基づき、画像を複数の領域に分割
する領域分割手段と、領域分割手段により得られる複数
の領域のそれぞれに対し、コントラストパラメータを計
測する計測手段と、計測されたコントラストパラメータ
に基づき、複数の領域のそれぞれが被写体であるか否か
を判定する判定手段とを含む。
【0008】請求項3に係る構図情報抽出装置は、請求
項1に係る構図情報抽出装置であって、第2の抽出手段
は、入力された画像の縦横比から、対象矩形を決定する
決定手段と、決定された対象矩形を黄金分割することに
より、複数の相似矩形を作成する相似矩形作成手段と、
複数の相似矩形のうち、被写体が占有する占有率が所定
のしきい値以上である相似矩形を抽出し、抽出した相似
矩形を統合する手段と、統合した相似矩形に対し、構図
情報を求める手段とを含み、構図情報には、統合した相
似矩形を構成する外接矩形の情報および重心位置の情報
が含まれる。
【0009】請求項4に係る被写体再構成装置は、画像
を入力する画像入力手段と、データベースと、構図情報
と背景画像とをデータベースから取得する手段と、構図
情報に合わせて前記入力した画像の被写体を拡大縮小
し、取得した背景画像に再配置する再構成手段とを備え
る。
【0010】請求項5に係る被写体再構成装置は、請求
項4に係る被写体再構成装置であって、イメージスキャ
ナと、被写体抽出手段とをさらに備え、画像入力手段
は、イメージスキャナから画像を取込み、被写体抽出手
段は、取込んだ画像における被写体を抽出する。
【0011】請求項6に係る被写体再構成装置は、請求
項4に係る被写体再構成装置であって、ビデオカメラ
と、背景除去手段とをさらに備え、画像入力手段は、ビ
デオカメラから画像を取込み、背景除去手段は、取込ん
だ画像の背景画像を除去することにより、画像における
被写体を抽出する。
【0012】請求項7に係る被写体再構成装置は、請求
項5に係る被写体再構成装置であって、被写体抽出手段
は、取込んだ画像の特徴要素に基づき、画像を複数の領
域に分割する領域分割手段と、領域分割手段により得ら
れる複数の領域のそれぞれに対し、コントラストパラメ
ータを計測する計測手段と、計測されたコントラストパ
ラメータに基づき、複数の領域のそれぞれが被写体であ
るか否かを判定する判定手段とを含む。
【0013】
【発明の実施の形態】[実施の形態1]本発明の実施の
形態1における構図情報抽出装置について説明する。本
発明の実施の形態1における構図情報抽出装置は、領域
のコントラスト情報に基づき、画像から被写体を自動的
に抽出し、さらに抽出した被写体に関する構図情報をデ
ータベースに格納することを可能とするものである。
【0014】本発明の実施の形態1における構図情報抽
出装置1の全体構成を、図1を用いて説明する。図1
は、本発明の実施の形態1における構図情報抽出装置1
の全体構成を示す図である。図1を参照して、構図情報
抽出装置1は、画像入力回路2、被写体抽出回路3、構
図情報抽出回路4および構図情報格納回路5を備える。
【0015】画像入力回路2により、構図情報抽出装置
1に画像を入力する。入力された画像データは、被写体
抽出回路3に入力される。被写体抽出回路3は、入力さ
れた画像データから被写体領域を抽出する。構図情報抽
出回路4は、抽出された被写体領域に関する構図情報を
抽出する。構図情報格納回路5は、構図情報抽出回路4
において抽出された構図情報を画像データベース6に格
納する。
【0016】まず、被写体抽出回路3の処理過程を、図
2を用いて説明する。図2は、図1に示す被写体抽出回
路3の処理過程を説明するためのフローチャートであ
る。図2を参照して、被写体抽出回路3では、画像の領
域分割を行なうステップS1−1と、コントラストパラ
メータの測定を行なうステップS1−2と、ニューラル
ネットワークによる判定を行なうステップS1−3と、
被写体領域の抽出を行なうステップS1−4とを備え
る。
【0017】画像の領域分割を行なうステップS1−1
では、エッジフロー(Edge Flow)モデルによ
り、入力された画像の領域分割を行なう(エッジフロー
モデルについての詳細は、W. Y. Ma and B. S. Manjuna
th, “Edge Flow: A Framework of Boundary Detection
and Image Segmentation,”Proc. CVPR'97, pp.744-74
9, 1997 を参照のこと)。
【0018】本発明の実施の形態1では、画像の各場所
における色およびテクスチャの変化方向を求め、変化方
向とその強さとからなるエッジフローベクトルを定め
る。そして、反復処理により、エッジフローベクトルを
各ベクトルの方向へ伝搬し、最終的にベクトル同士がぶ
つかり合う場所を各領域の境界線とする。
【0019】ここで、エッジフローモデルを用いた領域
分割の一例について、図3および図4を用いて説明す
る。図3は、領域分割の対象の一例について説明するた
めの図であり、図示しないディスプレイに表示した状態
を表わしている。画像入力回路2により入力した原画像
21は、領域分割の対象となる。図4は、領域分割の結
果の一例について説明するための図であり、図示しない
ディスプレイに表示した状態を表わしている。図3に示
す画像21を被写体抽出回路3に入力すると、エッジフ
ローモデルによる領域分割により、図4の画像22に示
すように画像21が複数の領域に分割される。
【0020】図2を参照して、コントラストパラメータ
の測定を行なうステップS1−2では、コントラスト情
報(パラメータ)を求める。領域のコントラスト情報を
求めるには、隣接する領域との違いだけでなく、画像全
体との違いも考慮する。本発明の実施の形態1では、隣
接する間の違いをローカルコントラスト、領域と画像全
体との違いをグローバルコントラストと称す。領域のコ
ントラストを計る物理的特徴量には、色やテクスチャの
みならず、その領域に焦点(フォーカス)が当たってい
るか否か、つまり領域のぼけ具合も重要な要素として挙
げられる。したがって、領域のコントラストをはかるパ
ラメータとして、色のローカルコントラスト、テクスチ
ャのローカルコントラスト、色のグローバルコントラス
ト、テクスチャのグローバルコントラスト、フォーカス
(シャープネス)を求める。以下、これらのコントラス
トパラメータついて説明する。
【0021】1) 色のローカルコントラストFi,1
計測する。
【0022】
【数1】
【0023】
【数2】
【0024】
【数3】
【0025】
【数4】
【0026】なお、fi,1 は、領域iの色のローカルコ
ントラストを、ColorDifiは、領域iと隣接す
る領域との平均色差を、RgnColDifi,j は、領
域iと隣接領域jとの色差を、wi は、領域iのペナル
ティ係数をそれぞれ表わす。さらに、ei は、領域iの
マスク画像のオイラー数を、tli は、領域iと隣接領
域との接線の長さを、li は、領域iの外周長をそれぞ
れ表わす。さらに、Lti ,ati ,bti は、領域i
のL* * * カラー空間による平均色を、Lsi ,a
i ,bsi は、隣接領域jのL* * * カラー空間
における平均色を、ni は、領域iの隣接領域の数をそ
れぞれ表わす。
【0027】2) テクスチャのローカルコントラスト
i,2 を計測する。
【0028】
【数5】
【0029】
【数6】
【0030】
【数7】
【0031】ここで、fi,2 は、領域iのテクスチャの
ローカルコントラストを、TexDifi は、領域iと
隣接する領域とのテクスチャ特徴ベクトルの平均距離
を、RgnTexDifi,j は、領域iと隣接領域jと
のテクスチャ特徴ベクトルの距離をそれぞれ表わす。ま
た、Tti,k は、領域iのテクスチャ特徴ベクトルを、
Tsj,k は、領域jのテクスチャ特徴ベクトルを、nf
は、テクスチャ特徴ベクトルの要素数をそれぞれ表わ
す。
【0032】3) 色のグローバルコントラストfi,3
を計測する。
【0033】
【数8】
【0034】
【数9】
【0035】ここで、fi,3 は、領域iの色のグローバ
ルコントラストを、GRgnColDifi は、領域i
の平均色と画像の平均色との色差(ただし、L* *
* カラー空間における)を、Lav,aav,bav
は、画像の平均色をそれぞれ表わす。
【0036】4) テクスチャのグローバルコントラス
トfi,4 を計測する。
【0037】
【数10】
【0038】
【数11】
【0039】ここで、fi,4 は、領域iのテクスチャの
グローバルコントラストを、GRgnTexDif
i は、領域iと画像全体のテクスチャ特徴ベクトルとの
距離を、Tavは、画像全体のテクスチャ特徴ベクトル
をそれぞれ表わす。
【0040】5) フォーカス(シャープネス)fi,5
を計測する。
【0041】
【数12】
【0042】
【数13】
【0043】ここで、fi,5 は、領域iのシャープネス
を、|▽Rci,j (x,y)|は、領域iの輪郭のエッ
ジ強度を、Rcxは、エッジのx方向のグラジェント
を、Rcyは、エッジのy方向のグラジェントをそれぞ
れ表わす。
【0044】上述したテクスチャ特徴ベクトルについて
説明する。図5は、ガボールフィルタバンクのフィルタ
応答について説明するための図であり、図示しないディ
スプレイに表示した状態を表わしている。本発明の実施
の形態1においては、図5に示すように、大きさと方向
とが異なる複数のガボールフィルタにより画像をフィル
タリングしたときの応答を要素とするベクトルとしてテ
クスチャ特徴ベクトルを表現する。
【0045】ただし、複数のガボールフィルタによりフ
ィルタリングしたときの各応答には直交性がない。この
ため、フィルタリングした結果には、冗長な情報が含ま
れる可能性がある。そこで、各フィルタのパラメータを
B.s.ManjunathとW.Y.Maとにより提
案された手法を用いて決定することにより、フィルタリ
ングした結果に冗長な情報が含まれないようにする(詳
しくは、B. S. Manjunath and W. Y. Ma, “Texture Fe
atures for Browsing and Retrieval of ImageData,”I
EEE TRANSACTION ON PATTERN ANALYSIS AND MACHINE IN
TELLIGENCE, Vol.18, No.8, pp.837-842, 1996 を参照
のこと)。
【0046】この手法は、図5に示すように、隣接する
フィルタがHalf−Peakで接するようにフィルタ
のスケールおよび方向パラメータを定めるものである。
実施の形態1では、テクスチャの特徴を表現するため
に、24個のフィルタ(4スケール、6方向)を用い
る。
【0047】上述したペナルティ係数wi について説明
する。式(4)におけるペナルティ係数wi は、下記の
条件に基づいて定義した。
【0048】1) 閉じた、あるいは囲まれた領域は図
(被写体を含む)になりやすい(条件1)。
【0049】2) 図には、輪郭があるが地には輪郭が
ない(条件2)。条件1に関して、ある領域が他の領域
を囲んでいるか否かを判断するために各領域のマスクイ
メージを作成し、そのマスクイメージに対してオイラー
数ei を求める。
【0050】図6は、各領域のオイラー数を求める際に
作成するマスクイメージを概念的に説明するための図で
あり、図6(a)は、領域分割の結果を、図6(b)
は、図6(a)に示す領域R1のマスクイメージを示す
ものである。図6(a)(b)を参照して、ここでのオ
イラー数とは、画像中のオブジェクトの数から、対象と
なるオブジェクトが含んでいる孔の数を引いて得られる
値を示している。たとえば、画像を領域分割した結果が
図6(a)に示すようになった場合、領域R1のマスク
イメージは、図6(b)となる。この場合、領域R1の
オイラー数は、画像中のオブジェクトの数が1であり、
当該オブジェクトが含んでいる孔の数が2であることか
ら、−1となる。
【0051】この特徴に基づき、領域が他の領域を含ん
でいる数が大きいほどコントラストの値が小さくなるよ
うに、上記方法で求めたオイラー数から2を引き絶対値
をとった数の逆数を各コントラストパラメータにかけ
る。この定義によれば、対象となる領域が他の領域を全
く含まない場合、ペナルティ係数wi は1、対象となる
領域が他の領域を1つ含む場合、ペナルティ係数wi
1/2となる。
【0052】条件2に関して、たとえば図6(a)の領
域R4、領域R5、領域R6、領域R7のように画像の
縁に接している領域は図になりにくい(詳しくは、Char
lesWallshlaeger and Cynthia Busic-Snyder,“Basic V
isual Concepts and Principles, ”McGraw Hill, 1992
を参照のこと)。そこで、領域が他の領域にどの程度
囲まれているかを、式(14)で定義している。
【0053】
【数14】
【0054】そして、式(14)で得られた値tli
i を各コントラストパラメータにかけることにより、
画像の縁に接している領域のコントラスト値が抑制され
る。
【0055】図2を参照して、ステップS1−3では、
求めたコントラストパラメータを人間の視覚特性を学習
させたニューラルネットワークに入力し、各領域が地で
あるか被写体(図)であるかをニューラルネットワーク
に判定させる。
【0056】ここで、本発明の実施の形態1におけるニ
ューラルネットワークについて、図7を用いて説明す
る。図7は、被写体抽出回路3におけるニューラルネッ
トワークについて説明するための図である。図7を参照
して、本発明の実施の形態1におけるニューラルネット
ワークは、4層からなるフィードフォワードネットワー
クであり、入力層N1、出力層N4、ならびに隠れ層N
2およびN3から構成される。
【0057】入力層N1は、5ユニットU1、U2、U
3、U4、U5を含む。ユニットU1〜U5のそれぞれ
は、コントラストパラメータのそれぞれに対応してい
る。出力層N4は、被写体領域に対応するユニットUx
と、非被写体領域に対応するユニットUyから構成され
る。隠れ層N2、N3のそれぞれは、35ユニットから
構成される。
【0058】図7に示すニューラルネットワークは、予
め人間の視覚特性を学習させる。一例として、被験者1
0名および画像100枚を用いた評価実験の結果を用い
る。評価実験では、被験者に原画像と原画像を領域分割
した画像とを並べて表示し、分割された領域から被写体
領域と非被写体領域とをそれぞれ選択させる。実験後、
被験者が被写体領域として選択した領域と非被写体領域
として選択した領域とにおける上記コントラストパラメ
ータを計測する。
【0059】学習データとして、各コントラストパラメ
ータの計測値を用い、その入力に対する出力として各領
域ごとの図領域選択率および地領域選択率を用いる。た
とえば、ある領域に対して7人の被験者が図(被写体)
領域とした場合、被写体領域選択率は0.7となり、非
被写体領域選択率は0.3となる。
【0060】人間の視覚特性に基づき構築された(学習
完了後の)ニューラルネットワークに、各領域のコント
ラストパラメータを入力すると、被写体領域ユニットU
xおよび非被写体領域ユニットUyから応答が得られ
る。
【0061】図2を参照して、被写体領域を抽出するス
テップS1−4では、各領域毎に、被写体領域ユニット
Uxおよび非被写体領域ユニットUyから得られる応答
を比較する。非被写体領域ユニットUyの応答の方が被
写体領域ユニットUxからの応答よりも大きい領域を被
写体領域とする。図8は、被写体領域の抽出結果の一例
について説明するための図であり、図示しないディスプ
レイに表示した状態を表わしている。図8を参照して、
図3に示す原画像21に対しては、画像23に示すよう
に被写体領域(人物像)が抽出される。
【0062】図1を参照して、被写体抽出回路3により
画像から抽出した被写体領域は、構図情報抽出回路4に
入力される。構図情報抽出回路4では、ダイナミックシ
ンメトリ(Dynamic Symmetry)法を用
いて画像をブロック分割し、その結果と被写体抽出回路
3により抽出した被写体領域とを用いて被写体が描かれ
る前のラフスケッチを予想することにより、構図情報を
抽出する(ダイナミックシンメトリ法の詳細について
は、Charles Wallshlaeger and Cynthia Busic-Snyder,
“Basic Visual Concepts and Principles, ”McGraw H
ill, 1992 を参照のこと)。
【0063】ここでダイナミックシンメトリ法について
簡単に説明する。ダイナミックシンメトリ法は、ある矩
形内に元の矩形と相似な矩形をつくり出す手法である。
図9は、矩形29内に相似矩形を作成するダイナミック
シンメトリ法について説明するための図である。
【0064】図9に示すように、矩形29内にまず対角
線L1を描き、対角線L1の頂点とは別の頂点から既に
引いた対角線L1に垂直な線L2を描く。その線L2と
矩形29の辺との交点から垂線L3を下ろすことによ
り、矩形29に対する相似矩形をつくる。この処理を作
成された相似矩形に対して繰返し適用することにより、
元の矩形より小さい相似矩形を無限に作成することがで
きる。
【0065】ところで、一般に絵画に用いられるキャン
バスには、3つの規格すなわち規格Figure、規格
Pasage、および規格Marineが存在する。こ
れらは、それぞれ縦横比が黄金比をもっている。このた
め、絵画に対してダイナミックシンメトリ法を適用する
ことは、キャンバス内に黄金分割点を見つけ出すことと
等価となる。
【0066】なお、規格Figureは、2つの黄金矩
形(縦横比が1対1.618)を長い方の辺で結合した
矩形であり、規格Pasageはルート2(1対1.4
142)、規格Marineは黄金矩形となっている。
このため、規格Figureに近い縦横比を持つ画像に
対しては、まず画像を半分に分割する処理を行なう。
【0067】以上の説明に基づき、構図情報抽出回路4
における処理過程を図10および図11を用いて説明す
る。図10および図11は、構図情報抽出回路4におけ
る処理過程を説明するためのフローチャートである。図
10および図11を参照して、ステップS2−1、S2
−2では、入力された画像が規格Figureか否かを
判断する。具体的には、対象となる画像の縦横比がほぼ
1.24であるか否かを判断する。規格Figureで
あるならば、ステップS2−4に移り画像を半分に分割
し、分割された矩形を対象矩形とする。規格Figur
eでない場合には、ステップS2−3に移り、画像全体
を対象矩形とする。
【0068】次に、ステップS2−5、S2−6におい
て、対象矩形に対してダイナミックシンメトリ法を適用
し、矩形内に相似矩形を作成する。相似矩形を作成する
際には、描画された基準線により囲まれた領域に注目
し、その領域がしきい値以上の割合で被写体領域に占有
されていた場合には、矩形の分割を停止する。被写体領
域の占有率がしきい値以下であるならばステップS2−
7に移り、矩形をさらに分割する。そして、分割が不可
能な状態になった場合には、処理を停止する(ステップ
S2−9、S2−5)。
【0069】図12は、矩形分割の結果の一例について
説明するための図であり、図示しないディスプレイに表
示した状態を表わしている。図12を参照して、図8に
示す画像23に対してダイナミックシンメトリ法を用い
て相似矩形を作成すると、画像24に示すように画像2
3は複数の相似矩形によって分割される。
【0070】図11を参照して、ダイナミックシンメト
リ法により求めた基準線から、基準線で囲まれる領域の
うち被写体領域の占有率がしきい値以上である領域を抽
出し、抽出した領域を統合し、塊ごとに分割(ブロック
分割)する。被写体領域から構成されるブロックを被写
体とみなす。
【0071】図13は、被写体の抽出結果の一例につい
て説明するための図であり、図示しないディスプレイに
表示した状態を表わしている。図13を参照して、図1
2に示す画像24に対して、画像25に示すように基準
線で囲まれる領域の塊からなる被写体が得られる。
【0072】ステップS2−10、S2−11におい
て、ブロックの外接矩形および重心位置を求める。これ
らが、抽出された被写体の構図情報となる。
【0073】図1を参照して、構図情報格納回路5は、
このようにして求めた外接矩形および重心位置(構図情
報)を、絵の名前、作者名、絵の種類等とともに画像デ
ータベース6に格納する。
【0074】図14および図15は、本発明の実施の形
態1における画像データベース6の構成を説明するため
の図である。図14は、データファイル名、作者名、種
類および被写体データの関係を示している。たとえば、
データファイル名”Millet1“に対して、作者
名”ミレー“、種類”群像“、被写体データ”Mill
et1Data“を関係づけて格納する。
【0075】図15は、被写体データ、被写体サイズ、
重心位置、および被写体名の関係が示されている。たと
えば、被写体データ名”Millet1Data”に対
しては、被写体名”被写体1“、被写体サイズ”80×
120“、および重心位置”40×30“と、被写体
名”被写体2“、被写体サイズ”75×100“、およ
び重心位置”36×50“とが情報として格納される。
【0076】このように、本発明の実施の形態1におけ
る構図情報抽出装置1を用いることにより、画像中の物
体認識において複雑な画像処理を施すことなく、自動的
に画像から被写体(図)つまり重要な部分を抽出するこ
とが可能となる。
【0077】[実施の形態2]本発明の実施の形態2に
おける被写体再構成装置7について図16を用いて説明
する。図16は、本発明の実施の形態2における被写体
再構成装置7の全体構成を示すブロック図である。図1
6を参照して、被写体再構成装置7は、イメージスキャ
ナ8、ビデオカメラ9、画像入力回路10、被写体抽出
回路3、背景除去回路13、および被写体再構成回路1
4を備える。イメージスキャナ8は、再構成する被写体
を含む画像を入力するために用いる。ビデオカメラ9
は、人間やその他のオブジェクトを直接被写体として入
力するために用いる。なお、ビデオカメラ9から映像を
入力する際には、被写体は青い布の前に置かれるものと
する。
【0078】画像入力回路10は、スキャナ画像取込回
路11およびビデオ映像取込回路12を含む。スキャナ
画像取込回路11は、イメージスキャナ8から画像を取
得する。ビデオ映像取込回路12は、ビデオカメラ9か
ら画像を取得する。
【0079】被写体抽出回路3は、スキャナ画像取込回
路11で取込んだ画像から被写体を抽出する。背景除去
回路13は、ビデオ映像取込回路12により取得した画
像から背景部分を除去し、被写体を抽出する。
【0080】被写体再構成回路14は、構図情報/背景
画像取得回路15、拡大縮小回路16、被写体配置回路
17および合成画像出力回路18を含む。被写体再構成
回路14は、画像データベース6から取得した構図情報
に従い、被写体抽出回路3または背景除去回路13から
出力される被写体を画像データベース6から取得した背
景画像に再配置する。これにより、合成画像を作成す
る。
【0081】ここで、本発明の実施の形態2における被
写体再構成装置7の処理過程を図17を用いて説明す
る。図17は、本発明の実施の形態2における被写体再
構成装置7の処理過程を説明するためのフローチャート
である。
【0082】図17を参照して、ステップS3−1にお
いて、ユーザはまずどちらの入力装置(イメージスキャ
ナ8またはビデオカメラ9)を用いて被写体を入力する
かを選択する。イメージスキャナ8を選択した場合(ス
テップS3−2)、ステップS3−4に移り、スキャナ
画像取込回路11により画像をイメージスキャナ8から
取得する。そして、上述した被写体抽出回路3により被
写体を抽出する。
【0083】ビデオカメラ9を選択した場合(ステップ
S3−3)、ステップS3−5に移り、ビデオ映像取込
回路12によりビデオ映像を取得する。そして、背景除
去回路13により、クロマッキー処理を行ない被写体を
抽出する。
【0084】続いてステップS3−6に移り、ユーザ
は、構図情報/背景画像取得回路15により、被写体を
再構成する際の構図情報ならびに被写体を合成する背景
画像を画像データベース6から取得する。
【0085】ステップS3−7では、ユーザが選択した
構図情報をもとに入力された被写体を拡大縮小回路16
において拡大縮小する。さらに、ステップS3−8で
は、被写体配置回路17において被写体の重心を構図情
報に記述された重心位置に移動し、背景画像と合成す
る。ステップS3−9では、合成結果を外部に出力す
る。
【0086】上述した処理の結果の一例を、図18〜図
22を用いて説明する。図18は、被写体抽出の対象の
一例について説明するための図であり、図19は、被写
体の抽出結果の一例について説明するための図である。
図18および図19はともに、図示しないディスプレイ
に表示した状態を表わしている。イメージスキャナ8か
ら取込んだ原画像30(図18)に対して上述した被写
体抽出処理を実行することにより、図19に示す被写体
31が抽出される。
【0087】図20は、背景画像の一例について説明す
るための図であり、図21は、構図情報の一例について
説明するための図であり、図22は、合成結果について
説明するための図である。図20、図21および図22
は、図示しないディスプレイに表示した状態を表わして
いる。図19に示す被写体31を、画像33(図21)
に示す被写体の構図にしたがって、背景画像32(図2
0)に再配置する。これにより、図22に示す合成画像
34が得られる。
【0088】このように構成することにより、同じ被写
体に対して、いろいろな構図を適用し、選択した背景画
像に再配置することで、それぞれ異なる印象を与える絵
(画像)を作成することが可能となる。
【0089】
【発明の効果】以上のように、本発明によれば画像の各
領域の色およびテクスチャのコントラストを計測し、人
間の視覚特性を学習させたニューラルネットワークを用
いて被写体領域と非被写体領域とを分割する被写体領域
抽出手段を設けることにより、画像から被写体つまり重
要な部分を自動的に抽出することが可能となる。
【0090】また、被写体領域抽出手段により抽出した
被写体に対して、黄金分割法の1つであるダイナミック
シンメトリ法を用いて絵の構図情報を抽出する構図情報
抽出手段を設けることにより、自動的に構図情報を取得
することが可能となる。
【0091】これにより、本願発明で説明した被写体再
構成装置、構図情報抽出装置のみならず、画像中の物体
認識などの複雑な画像処理の計算量を軽減することへの
適用が可能となる。
【0092】さらに、指定された構図情報に基づいて絵
を再構成する被写体再構成装置によれば、同じ被写体に
対していろいろな構図を適用しそれぞれ異なる印象を与
える絵を作成することが可能となる。特に、抽出された
構図情報に基づいて、視覚的にバランスの良い絵を再構
成することが可能となる。
【0093】さらに、構図情報に基づいて絵の分類など
も可能となることから、構図情報をキーワードとして絵
を検索するなどの画像データベースの構築も可能とな
る。
【図面の簡単な説明】
【図1】本発明の実施の形態1における構図情報抽出回
路1の全体構成を説明するための図である。
【図2】本発明の実施の形態1における被写体抽出回路
3の処理過程を説明するためのフローチャートである。
【図3】領域分割の対象の一例について説明するための
図である。
【図4】領域分割の結果の一例について説明するための
図である。
【図5】ガボールフィルタバンクのフィルタ応答につい
て説明するための図である。
【図6】各領域のオイラー数を求める際に作成するマス
クイメージを概念的に説明するための図である。
【図7】被写体抽出回路3におけるニューラルネットワ
ークについて説明するための図である。
【図8】被写体領域の抽出結果の一例について説明する
ための図である。
【図9】矩形29内に相似矩形を作成するダイナミック
シンメトリ法について説明するための図である。
【図10】構図情報抽出回路4における処理過程を説明
するためのフローチャートである。
【図11】構図情報抽出回路4における処理過程を説明
するためのフローチャートである。
【図12】矩形分割の結果の一例について説明するため
の図である。
【図13】被写体の抽出結果の一例について説明するた
めの図である。
【図14】本発明の実施の形態1における画像データベ
ース6の構成を説明するための図である。
【図15】本発明の実施の形態1における画像データベ
ース6の構成を説明するための図である。
【図16】本発明の実施の形態2における被写体再構成
装置7の全体構成を説明するための図である。
【図17】本発明の実施の形態2における被写体再構成
装置7の処理過程を説明するためのフローチャートであ
る。
【図18】被写体抽出の対象の一例について説明するた
めの図である。
【図19】被写体の抽出結果の一例について説明するた
めの図である。
【図20】背景画像の一例について説明するための図で
ある。
【図21】構図情報の一例について説明するための図で
ある。
【図22】合成結果について説明するための図である。
【符号の説明】
1 構図情報抽出装置 2 画像入力回路 3 被写体領域抽出回路 4 構図情報抽出回路 5 構図情報格納回路 6 画像データベース 7 被写体再構成装置 8 イメージスキャナ 9 ビデオカメラ 10 画像入力回路 11 スキャナ画像取込回路 12 ビデオ映像取込回路 13 背景除去回路 14 被写体再構成回路 15 構図情報/背景画像取得回路 16 拡大縮小回路 17 被写体配置回路 18 合成画像出力回路
【手続補正書】
【提出日】平成11年12月3日(1999.12.
3)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】発明の名称
【補正方法】変更
【補正内容】
【発明の名称】 構図情報抽出装置被写体再構成装置
および画像処理システム
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0005
【補正方法】変更
【補正内容】
【0005】また、本発明は、抽出された構図情報に基
づいて、視覚的にバランスの良い絵を再構成することを
可能とする被写体再構成装置を提供することを目的とす
る。また、本発明は、画像から被写体領域を自動的に抽
出し、抽出された被写体領域から構図情報を自動的に取
得することを可能とする構図情報抽出装置と、抽出され
た構図情報に基づいて、視覚的にバランスの良い絵を再
構成することを可能とする被写体再構成装置とを備える
画像処理システムを提供することを目的とする。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0006
【補正方法】変更
【補正内容】
【0006】
【課題を解決するための手段】この発明の一の局面に係
構図情報抽出装置は、画像を入力する画像入力手段
と、画像から被写体を抽出する第1の抽出手段と、抽出
した被写体に関する構図情報を抽出する第2の抽出手段
と、抽出した構図情報を格納するためのデータベース
と、データベースに抽出した構図情報を格納するための
構図情報格納手段とを備え、第1の抽出手段は、画像の
特徴要素に基づき、画像を複数の領域に分割する領域分
割手段と、領域分割手段により得られる複数の領域のそ
れぞれに対し、コントラストパラメータを計測する計測
手段と、計測されたコントラストパラメータに基づき、
複数の領域のそれぞれが被写体であるか否かを判定する
判定手段とを含む。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0007
【補正方法】変更
【補正内容】
【0007】この発明のさらなる局面による構図情報抽
出装置は、画像を入力する画像入力手段と、画像から被
写体を抽出する第1の抽出手段と、抽出した被写体に関
する構図情報を抽出する第2の抽出手段と、抽出した構
図情報を格納するためのデータベースと、データベース
に抽出した構図情報を格納するための構図情報格納手段
とを備え、第2の抽出手段は、画像の縦横比から、対象
矩形を決定する決定手段と、決定された対象矩形を黄金
分割することにより、複数の相似矩形を作成する相似矩
形作成手段と、複数の相似矩形のうち、被写体が占有す
る占有率が所定のしきい値以上である相似矩形を抽出
し、抽出した相似矩形を統合する手段と、統合した相似
矩形に対し、構図情報を求める手段とを含み、構図情報
には、統合した相似矩形を構成する外接矩形の情報およ
び重心位置の情報が含まれる。
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0008
【補正方法】変更
【補正内容】
【0008】この発明のさらなる局面による被写体再構
成装置は、画像を入力する画像入力手段と、データベー
スと、構図情報と背景画像とをデータベースから取得す
る手段と、画像から被写体を抽出する被写体抽出手段
と、取得した構図情報に合わせて抽出した被写体を拡大
縮小し、取得した背景画像に再配置する再構成手段とを
備える。
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0009
【補正方法】変更
【補正内容】
【0009】好ましくは、被写体抽出手段は、画像の特
徴要素に基づき、画像を複数の領域に分割する領域分割
手段と、領域分割手段により得られる複数の領域のそれ
ぞれに対し、コントラストパラメータを計測する計測手
段と、計測されたコントラストパラメータに基づき、複
数の領域のそれぞれが被写体であるか否かを判定する判
定手段とを含む。特に、イメージスキャナをさらに備
え、画像入力手段は、イメージスキャナから画像を取込
む。好ましくは、被写体抽出手段は、画像の背景画像を
除去することにより、画像における被写体を抽出する。
特に、ビデオカメラをさらに備え、画像入力手段は、ビ
デオカメラから画像を取込む。
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0010
【補正方法】変更
【補正内容】
【0010】この発明のさらなる局面による画像処理シ
ステムは、画像に含まれる被写体に関する構図情報を抽
出する構図情報抽出装置と、抽出した構図情報と背景画
像とを格納するデータベースと、画像に含まれる被写体
を抽出し、データベースに格納される構図情報に従っ
て、被写体をデータベースから取出した背景画像上で再
構成する被写体再構成装置とを備え、構図情報抽出装置
は、画像を取込む第1の画像入力手段と、第1の画像入
力手段で取込んだ画像に含まれる被写体を抽出する第1
の抽出手段と、第1の抽出手段で抽出した被写体に関す
る構図情報を抽出する第2の抽出手段と、データベース
に抽出した構図情報を格納するための構図情報格納手段
とを含み、被写体再構成装置は、画像を取込む第2の画
像入力手段と、第2の画像入力手段で取込んだ画像に含
まれる被写体を抽出する第3の抽出手段と、データベー
スに格納される構図情報と背景画像とを取出す取得手段
と、取出した構図情報に従い、第3の抽出手段で得られ
る被写体を拡大縮小し、取出した背景画像に再配置する
再構成手段とを含む。
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0011
【補正方法】変更
【補正内容】
【0011】好ましくは、第1の抽出手段は、画像の特
徴要素に基づき、画像を複数の領域に分割する領域分割
手段と、領域分割手段により得られる複数の領域のそれ
ぞれに対し、コントラストパラメータを計測する計測手
段と、計測されたコントラストパラメータに基づき、複
数の領域のそれぞれが前記被写体であるか否かを判定す
る判定手段とを含む。好ましくは、第2の抽出手段は、
画像の縦横比から、対象矩形を決定する決定手段と、決
定された対象矩形を黄金分割することにより、複数の相
似矩形を作成する相似矩形作成手段と、複数の相似矩形
のうち、被写体が占有する占有率が所定のしきい値以上
である相似矩形を抽出し、抽出した相似矩形を統合する
手段と、統合した相似矩形に対し、構図情報を求める手
段とを含み、構図情報には、統合した相似矩形を構成す
る外接矩形の情報および重心位置の情報が含まれる。
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0012
【補正方法】変更
【補正内容】
【0012】好ましくは、第3の抽出手段は、画像の特
徴要素に基づき、画像を複数の領域に分割する領域分割
手段と、領域分割手段により得られる複数の領域のそれ
ぞれに対し、コントラストパラメータを計測する計測手
段と、計測されたコントラストパラメータに基づき、複
数の領域のそれぞれが前記被写体であるか否かを判定す
る判定手段とを含む。特に、被写体再構成装置は、イメ
ージスキャナをさらに含み、第2の画像入力手段は、イ
メージスキャナから画像を取込む。好ましくは、第3の
抽出手段は、画像の背景画像を除去することにより、画
像における被写体を抽出する。特に、被写体再構成装置
は、ビデオカメラをさらに含み、第2の画像入力手段
は、ビデオカメラから画像を取込む。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 岩舘 祐一 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 5B050 AA09 BA06 BA11 BA12 BA13 BA15 DA04 DA06 EA06 EA07 EA12 EA13 EA19 FA02 FA19 5B057 AA20 CA01 CA12 CA16 CB01 CB12 CB16 CC01 CE08 CE09 CE20 DA08 DB02 DC06 DC16 DC36 5L096 AA02 CA02 CA14 CA22 EA37 FA06 FA32 FA39 FA41 FA60 GA19 GA51 MA03

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 画像を入力する画像入力手段と、 前記画像から被写体を抽出する第1の抽出手段と、 前記抽出した被写体に関する構図情報を抽出する第2の
    抽出手段と、 前記抽出した構図情報を格納するためのデータベース
    と、 前記データベースに前記抽出した構図情報を格納するた
    めの構図情報格納手段とを備える、構図情報抽出装置。
  2. 【請求項2】 前記第1の抽出手段は、 前記画像の特徴要素に基づき、前記画像を複数の領域に
    分割する領域分割手段と、 前記領域分割手段により得られる前記複数の領域のそれ
    ぞれに対し、コントラストパラメータを計測する計測手
    段と、 前記計測されたコントラストパラメータに基づき、前記
    複数の領域のそれぞれが前記被写体であるか否かを判定
    する判定手段とを含む、請求項1記載の構図情報抽出装
    置。
  3. 【請求項3】 前記第2の抽出手段は、 前記入力された画像の縦横比から、対象矩形を決定する
    決定手段と、 前記決定された対象矩形を黄金分割することにより、複
    数の相似矩形を作成する相似矩形作成手段と、 前記複数の相似矩形のうち、前記被写体が占有する占有
    率が所定のしきい値以上である相似矩形を抽出し、前記
    抽出した相似矩形を統合する手段と、 前記統合した相似矩形に対し、前記構図情報を求める手
    段とを含み、 前記構図情報には、 前記統合した相似矩形を構成する外接矩形の情報および
    重心位置の情報が含まれる、請求項1記載の構図情報抽
    出装置。
  4. 【請求項4】 画像を入力する画像入力手段と、 データベースと、 構図情報と背景画像とを前記データベースから取得する
    手段と、 前記構図情報に合わせて前記入力した画像の被写体を拡
    大縮小し、前記取得した背景画像に再配置する再構成手
    段とを備える、被写体再構成装置。
  5. 【請求項5】 イメージスキャナと、 被写体抽出手段とをさらに備え、 前記画像入力手段は、 前記イメージスキャナから前記画像を取込み、 前記被写体抽出手段は、 前記取込んだ画像における被写体を抽出する、請求項4
    記載の被写体再構成装置。
  6. 【請求項6】 ビデオカメラと、 背景除去手段とをさらに備え、 前記画像入力手段は、 前記ビデオカメラから前記画像を取込み、 前記背景除去手段は、 前記取込んだ画像の背景画像を除去することにより、前
    記画像における被写体を抽出する、請求項4記載の被写
    体再構成装置。
  7. 【請求項7】 前記被写体抽出手段は、 前記取込んだ画像の特徴要素に基づき、前記画像を複数
    の領域に分割する領域分割手段と、 前記領域分割手段により得られる前記複数の領域のそれ
    ぞれに対し、コントラストパラメータを計測する計測手
    段と、 前記計測されたコントラストパラメータに基づき、前記
    複数の領域のそれぞれが前記被写体であるか否かを判定
    する判定手段とを含む、請求項5記載の被写体再構成装
    置。
JP11001966A 1999-01-07 1999-01-07 構図情報抽出装置、被写体再構成装置および画像処理システム Expired - Fee Related JP3034244B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11001966A JP3034244B1 (ja) 1999-01-07 1999-01-07 構図情報抽出装置、被写体再構成装置および画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11001966A JP3034244B1 (ja) 1999-01-07 1999-01-07 構図情報抽出装置、被写体再構成装置および画像処理システム

Publications (2)

Publication Number Publication Date
JP3034244B1 JP3034244B1 (ja) 2000-04-17
JP2000200354A true JP2000200354A (ja) 2000-07-18

Family

ID=11516336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11001966A Expired - Fee Related JP3034244B1 (ja) 1999-01-07 1999-01-07 構図情報抽出装置、被写体再構成装置および画像処理システム

Country Status (1)

Country Link
JP (1) JP3034244B1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006012147A (ja) * 2004-06-08 2006-01-12 Microsoft Corp スペクトル分析を用いたメッシュパラメータ化による伸縮について
JP2008033892A (ja) * 2006-07-05 2008-02-14 Seiko Epson Corp 文書編集装置、プログラムおよび記憶媒体
EP1962489A2 (en) 2007-02-20 2008-08-27 Seiko Epson Corporation Document edit device
JP2009110544A (ja) * 2008-12-25 2009-05-21 Seiko Epson Corp 文書編集装置、プログラムおよび記憶媒体
JP2010262326A (ja) * 2009-04-30 2010-11-18 Casio Computer Co Ltd 撮影画像処理装置、撮影画像処理プログラム及び撮影画像処理方法
US8122347B2 (en) 2006-07-04 2012-02-21 Seiko Epson Corporation Document editing support device, program, and storage medium
US9264620B2 (en) 2008-10-31 2016-02-16 Samsung Electronics Co., Ltd. Image photography apparatus and method for proposing composition based person

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006012147A (ja) * 2004-06-08 2006-01-12 Microsoft Corp スペクトル分析を用いたメッシュパラメータ化による伸縮について
US8122347B2 (en) 2006-07-04 2012-02-21 Seiko Epson Corporation Document editing support device, program, and storage medium
JP2008033892A (ja) * 2006-07-05 2008-02-14 Seiko Epson Corp 文書編集装置、プログラムおよび記憶媒体
JP4743154B2 (ja) * 2006-07-05 2011-08-10 セイコーエプソン株式会社 文書編集装置、プログラムおよび記憶媒体
EP1962489A2 (en) 2007-02-20 2008-08-27 Seiko Epson Corporation Document edit device
US8122351B2 (en) 2007-02-20 2012-02-21 Seiko Epson Corporation Document edit device and storage medium
US9264620B2 (en) 2008-10-31 2016-02-16 Samsung Electronics Co., Ltd. Image photography apparatus and method for proposing composition based person
JP2009110544A (ja) * 2008-12-25 2009-05-21 Seiko Epson Corp 文書編集装置、プログラムおよび記憶媒体
JP4666071B2 (ja) * 2008-12-25 2011-04-06 セイコーエプソン株式会社 文書編集装置、プログラムおよび記憶媒体
JP2010262326A (ja) * 2009-04-30 2010-11-18 Casio Computer Co Ltd 撮影画像処理装置、撮影画像処理プログラム及び撮影画像処理方法

Also Published As

Publication number Publication date
JP3034244B1 (ja) 2000-04-17

Similar Documents

Publication Publication Date Title
KR100820510B1 (ko) 물체를 화상으로 표현하고 검색하는 방법 및 장치
US20030091227A1 (en) 3-D reconstruction engine
EP1026631A2 (en) Method for inferring scenes from test images and training data using probability propagation in a markov network
EP1815361A1 (en) Variance-based event clustering
CN108694705A (zh) 一种多帧图像配准与融合去噪的方法
JP2000207564A (ja) 画像の被写体の検出方法
JP2004361987A (ja) 画像検索システム、画像分類システム、画像検索プログラム及び画像分類プログラム、並びに画像検索方法及び画像分類方法
CN113034528B (zh) 基于影像组学的靶区及危及器官勾画轮廓准确性检验方法
JP2010244398A (ja) 画像処理装置および画像処理プログラム
Johnson Let's Get Virtual: An Examination of Best Practices to Provide Public Access to Digital Versions of Three-Dimensional Objects
CN106296574A (zh) 三维照片生成方法和装置
JP3034244B1 (ja) 構図情報抽出装置、被写体再構成装置および画像処理システム
JP3661287B2 (ja) 画像登録装置および方法
Nguyen et al. High-definition texture reconstruction for 3D image-based modeling
Enesi et al. Analyzing parameters in 3D reconstruction photogrammetry in Meshroom, a case study
JP4348956B2 (ja) 画像レイアウト装置、画像レイアウト方法、画像レイアウト装置におけるプログラム
CN113221971B (zh) 一种基于前后特征融合的多尺度人群计数方法及系统
US20220101578A1 (en) Generating composite images with objects from different times
JP2004192121A (ja) 画像検索装置、画像分類方法、画像検索方法、及びプログラム
JP3719247B2 (ja) 画像編集装置、画像のトリミング方法、及びプログラム
Hu Novel methods for image processing, image analysis, machine learning and deep learning with applications to on-line fashion retailing, print quality assessment, and image enhancement
Verghese et al. Image processing algorithms for the pipelined image-processing engine
JP2016103807A (ja) 画像処理装置、画像処理方法、およびプログラム
CN114494940A (zh) 一种基于深度集成网络的标识内容检测方法及系统
JP2002216114A (ja) 3次元モデル生成方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000201

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees