JP3804088B2 - 文字認識装置 - Google Patents

文字認識装置 Download PDF

Info

Publication number
JP3804088B2
JP3804088B2 JP28172195A JP28172195A JP3804088B2 JP 3804088 B2 JP3804088 B2 JP 3804088B2 JP 28172195 A JP28172195 A JP 28172195A JP 28172195 A JP28172195 A JP 28172195A JP 3804088 B2 JP3804088 B2 JP 3804088B2
Authority
JP
Japan
Prior art keywords
neuron
difference
neural network
data
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28172195A
Other languages
English (en)
Other versions
JPH09128489A (ja
Inventor
仁保 美藤
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP28172195A priority Critical patent/JP3804088B2/ja
Publication of JPH09128489A publication Critical patent/JPH09128489A/ja
Application granted granted Critical
Publication of JP3804088B2 publication Critical patent/JP3804088B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ニューラルネットを用いた文字認識装置に関するものである。
【0002】
【従来の技術】
従来、文字認識装置としてニューラルネットのBP学習を用いたものが知られているが、このうち1つのニューラルネットを用いたシステムでは、認識文字数が少なかったり、認識率が低いなどの理由から実用にいたっていない。
【0003】
これに対して、最近になって、荒分類用の教師無し学習を行うステム・ネットと、細分類用の教師信号ありBP学習を行うブランチ・ネットによる3層型ニューラルネットにより構成したシステムが考えられており、多種の字種を一括して認識できるようになっている。
【0004】
【発明が解決しようとする課題】
ところが、このようなシステムにおける荒分類用のステム・ネットでは、1つのニューロン(グループ)内のカテゴリー(字種)数が一定以上になると、多次元(入力パラメータ数の次元)超平面で2分割されるようになっているが、この時、カテゴリー数が半減するとともに、各ニューロン内のカテゴリー数にも偏りを生じるなどして認識率の低下を招くことがあった。
【0005】
そこで、この分割の際、乱数により参照ベクトルを含む超平面を発生させ、それによりニューロン内のカテゴリー数がその超平面により同数に分割されたかをチェックし、同数でなかった場合は、さらに乱数を発生させて新たな超平面を発生させてカテゴリー数が同数に分割できたかをチェックするような作業を繰り返して、ニューロン内のカテゴリー数の偏りをなくす試みがなされているが、このような作業には、非常に多くの演算量を必要としていた。
【0006】
また、このようなシステムの入力パラメータとしてメッシュ特徴のみを用いているため、文字の変形、汚れ、移動など対して誤認識し易くなるという問題点もあった。
【0007】
さらに、細分類のブランチ・ネットによる三層型ニューラルネットについても、部分結合はしているものの完全に中間層まで分ける程の部分結合になっておらず、このため学習時間や認識時間が多くかかっていた。
【0008】
さらにまた、かかる3層型ニューラルネットの学習収束条件でも、1位の発火が一定値以上(>0.8 )で、その他の発火が一定値以下(<0.2 )に設定されたり、2乗誤差和が一定値以下に設定されるようになるため、学習時間が必要以上に長くかかり、さらに過学習により汎用性が低下してしまうという問題点もあった。
【0009】
本発明は、上記事情に鑑みてなされたもので、安定した文字認識を短時間に実現できる文字認識装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明に係る文字認識装置は、前段の荒分類を行うベクトル量子化型ニューラルネットと、後段の細分類を行う3層型ニューラルネットからなるニューラルネットを有する文字認識装置であって、前記前段の荒分類を行うベクトル量子化型ニューラルネットは、1番目の学習データが入力されることにより新たなニューロンを生成する第1の生成手段と、2番目以降の学習データが入力されることにより、各ニューロンの代表ベクトルとの相違度を計算する計算手段と、前記計算手段により計算された各ニューロンとの相違度が閾値よりも大きい場合は新たなニューロンを生成する第2の生成手段と、前記計算手段により計算された各ニューロンとの相違度が閾値よりも小さい場合は最も相違度の小さいニューロンに当該データを取り込む取込手段と、前記取込手段によりデータを取り込んだニューロン内のメンバ数が一定値を超えた場合、ニューロン内の代表ベクトルから最も遠距離にある相違度の大きいメンバーを放出する放出手段とを有することを特徴とする。
【0023】
【発明の実施の形態】
以下、本発明の実施の形態を図面に従い説明する。
【0024】
図1は本発明が適用される文字認識装置の概略構成を示している。図において、1はDSPなどの高速演算を可能にしたマイクロコンピュータで、このコンピュータ1は、IR0M11やRAM12を有している。ここで、IR0M11には、図2に示すようなニューラルネットを実現するためのプログラムが格納されている。
【0025】
また、このマイクロコンピュータ1には、バス2を接続し、このバス2に、認識文字パターンを取り込むためのスキャナ部3、各種の操作キーを有する入力キー4、表示用LED5、各ニューラルネットの結合ウエイトを記憶したROM6、フレームバッファとして用いられるVRAM71を有するRAM7およびインターフェース8を接続している。
【0026】
図2は、このような文字認識装置に用いられるニューラルネットの概略構成を示している。
【0027】
この場合、前段の荒分類を行う複数個のベクトル量子化型ニューラルネット(荒分類ニューラルネット)211 〜21n 、後段の細分類を行う複数個の3層型ニューラルネット(細分類ニューラルネット)221 〜22n から構成している。
【0028】
ここで、荒分類ニューラルネット211 〜21n は、入力パラメータとして、認識対象文字について切り出しなどの前処理を行った後に抽出されるメッシュ特徴とペリフェラル特徴が与えられ、各代表ベクトルとの相違度を下式に従って求め、このうち、相違度の小さなものから3つのニューロンとその相違度を決定するようにしている。
【0029】
【数1】
Figure 0003804088
【0030】
ただし、xi は入力データのパラメータ、mjiは代表ベクトル成分、hjiは代表ベクトルの平均距離、cは定数
なお、上述したメッシュ特徴およびペリフェラル特徴の抽出については、周知の技術なので、ここでの説明は省略する。
【0031】
また、細分類ニューラルネット221 〜22n は、荒分類ニューラルネット211 〜21n で決定された3つのニューロンに対応するものについて、上述した認識対象文字について前処理を行った後に抽出される局所4方向成分特徴が入力パラメータとして与えられ、これを演算して出力の発火値を得るとともに、さらに、これら3組について下式により類似度を計算し、類似度の最大のものを認識結果とするようにしている。
【0032】
類似度=C/(荒分類ニューラルネットの相違度)α・(細分類ニューラルネットの発火値)β …(2)
ただし、C、α、βは定数
しかして、まず、荒分類ニューラルネット211 〜21n は、入力パラメータのメッシュ特徴およびペリフェラル特徴として、メッシュ特徴64個、ペリフェラル特徴64個の合計128個を用い、上述した(2)式により各ニューロン(ベクトル)内の各データとその代表ベクトルとの平均距離で正規化することにより類似度を求める。
【0033】
この場合、荒分類ニューラルネット211 〜21n での学習は、4段階に分かれており、その過程を図3に示すフローにより説明する。
【0034】
まず、第1段階において、初期状態では、ニューロンは、0であるので、ステップ301で、学習データとして1番目のデータが入力されると、無条件でニューロンを1つ生成してその入力されたデータをそのまま代表ベクトルとするとともに、平均距離は全て1、最大相違度も0とする。
【0035】
次に、ステップ302で、2番目のデータが入力されると、ステップ303で、1つ目のデータが有るので、NOとなってステップ304に進む。ステップ304では、2番目のデータと1つ目のニューロンの代表ベクトルとの相違度を計算する。なお、ここでの相違度は、入力データの各パラメータとそれに対応する各代表ベクトルとの差をそのベクトルの各平均距離で正規化したものの2乗和のことで、J番目の代表ベクトルとの相違度は、計算式(1)により求められる。
【0036】
そして、ステップ305で、この相違度が生成しきい値(このしきい値は、無条件でニューロンを生成して割り当てるかどうかを決めるもので、第1段目では、この値を小さく設定している。)より大きいかを判定する。
【0037】
この場合、相違度がしきい値より大きい場合は、ステップ306で、2番目のデータについても1番目のデータと同様、2つ目のニューロンとして生成し、ステップ307で、2番目のデータから代表ベクトル、平均距離、最大相違度を計算する。ここでの計算は、図4に示すフローに示すように、まず、ステップ401で、2番目のデータから代表ベクトルを計算し、次いで、ステップ402で、各成分の平均距離を計算し、最後に相違度を計算するとともに最大相違度を決定する。
【0038】
一方、図3に戻って、ステップ305で、しきい値より小さいと判断した場合は、ステップ308で、相違度最小のグループ(ここでは1つ目のニューロン)が一杯かを判断し、一杯で無ければ、ステップ309で、1つ目のグループ(ニューロン)に取り込み、ステップ310で、1番目のデータと2番目のデータから図4に示すフローにより代表ベクトル、平均距離、最大相違度を計算する。
【0039】
以下、3番目のデータについても、上述したと同様な動作を繰り返す。但し、ステップ309でのグループへの取り込みは、ニューロンが複数個ある場合は、相違度の小さい方のニューロンに取り込まれるようになる。
【0040】
また、ステップ308で、相違度最小のグループ(ニューロン)が満杯の場合は、ステップ311に進む。ここで、相違度最小グループ(ニューロン)の満杯を確認するのは、1つのニューロン内に収容できる文字種の数が規定されているからで、この文字種の数が後段の細分類NNの出力層のニューロン数になり、この数が一定でないと細分類NNの学習の出力値(発火値)に影響を及ぼし、式(1)による比較判断の精度が低下し、誤認識の原因になるためである。
【0041】
ステップ311では、相違度最小グループ(ニューロン)と自分自身の相違度を比較し、仮に自分自身の相違度が大きければ、2番目に相違度の小さいニューロンに目標を移すが、ステップ312で、次のグループ(ニューロン)が存在しない場合は、ステップ306に戻って、新たなグループ(ニューロン)を生成するようになる。
【0042】
一方、ステップ312で、次のグループ(ニューロン)として2番目に相違度の小さいグループ(ニューロン)が存在すれば、ステップ313で、この2番目に相違度の小さいグループ(ニューロン)が満杯かを判断する。そして、この2番目に相違度の小さいグループ(ニューロン)が満杯でなければ、ステップ309で、そのグループ(ニューロン)に取り込むようになる。また、満杯ならば、ステップ311に戻って、2番目に相違度の小さいグループ(ニューロン)と自分自身の相違度を比較し、さらに自分自身の相違度が大きければ、3番目に相違度の小さいニューロンに目標を移して、上述したと同様な動作を繰り返す。
【0043】
また、ステップ311で、自分自身の相違度が小さければ、ステップ314で、2番目に相違度の小さいグループ(ニューロン)内で相違度最大のものを放出しこれと入れ替えを行い、ステップ315で、このグループ(ニューロン)について図4に示すフローにより代表ベクトル、平均距離、最大相違度を計算する。また、このグループ(ニューロン)から放出された相違度最大のデータについては、ステップ304に戻って、各ニューロンの代表ベクトルとの相違度を計算し、ステップ305以降の動作を実行する。
【0044】
その後、このような操作を全学習データについて実行する。
【0045】
次に、第2段階に進む。この場合、ニューロン生成のためのしきい値を大きくしてニューロンを新たに発生しにくい状態にし、代表ベクトルはそまままにしてもう一度上述の操作を行い全データを再配置する。つまり、普通ではニューロンを生成しないが、相違度が異常に大きいような場合にのみ新たなニューロンを生成するようにする。
【0046】
次に、第3段階に進む。この場合、ニューロン数がINT(全文字種/ニューロンの収容文字種数+1)になるまでニューロン内のメンバー数の少ないニューロンを潰してそのメンバーを上述した操作により他のニューロンに配置する。
【0047】
そして、最後に第4段階に進み、ニューロン数はそのままで第2段階と同様にして全学習データを再配置する。
【0048】
ここで、正規化距離による荒分類(ベクトル量子化)の具体例を図5により説明する。
【0049】
この場合、A、Bは、2つのニューロンで、このうちニューロンAは、6個で満杯の割合近接したメンバー(○印)を有し、ここでの代表ベクトルが(4.7 ,5 )、平均距離のX方向が0.786 、Y方向が0.57であり、また、ニューロンBは、5個の離れたメンバー(×印)を有し、ここでの代表ベクトルが(11.4,7.2 )、平均距離のX方向が1.52、Y方向が1.76であるとし、この状態から、入力データとして△印(4 ,8 )が入力されたとすると、従来では、
KA =(4-4.7)2 +(8-5)2 1/2 =3.080
KB =(4- 11.4)2 +(8-7.2)2 1/2 =7.443
となり、ニューロンA側に分類されるが、学習時は、ニューロンA側が満杯のため、ニューロンB側に分類されることになるため、矛盾を生じてしまう。
【0050】
しかし、上述したように平均距離で正規化した距離を求めると、
KhA =(((4-4.7)/0.786) 2 +(8-5)/0.53)2 1/2 =5.337
KhB =(((4- 11.4)/1.52)2 +(8-7.2)/1.76)2 1/2 =4.889
となって、ニューロンB側に正しく分類されることになる。
【0051】
こうして、メンバーの平均距離で正規化した値で評価するベクトル量子化を行うと、似寄ったものが集まれば集まるほど平均距離が小さくなって排他的となり、逆に似ていないものが集まると平均距離が大きくなって許容的となることで(最終的にはその他のベクトルとなる)、合理的なベクトル量子化が可能になる。
【0052】
なお、ここでは全メンバーの距離の平均値で正規化を行ったが、全メンバーのメディアなどや標準偏差、または代表ベクトルに近い方から半分または一定数のメンバーを用いたり、各成分(方向、次元)別に近い方から取ったものなども考えられ、その基となる母集合の特質により適宜使い分ければ、良好なベクトル量子化が可能になる。
【0053】
このようにして、相違度の小さなものから3つのニューロンとその相違度が決定される。
【0054】
次に、後段の細分類を行う細分類ニューラルネット221 〜22n について説明する。
【0055】
この場合、細分類ニューラルネット221 〜22n は、図6に示すように入力層22a、中間層22bおよび出力層22cからなる全結合の3層型ニューラルネットにより構成し、入力パラメータとしては、認識対象文字について切り出しなどの前処理を行った後、図7(a)に示す縦成分抽出フィルタ、同図(b)に示す横成分抽出フィルタ、同図(c)に示す斜(右上)成分抽出フィルタ、同図(d)に示す斜(左上)成分抽出フィルタにより局所4方向の成分特徴を抽出し、さらに図8に示すようにハーフピッチづつずらしながら縦横各9個のブロックに分割し且つそのブロック内を2次元のハミング窓を掛け加算して得るようにしている。つまり、この場合のパラメータの数は、9(縦)×9(横)×4(方向)=324である。
【0056】
そして、全学習データについて、上述の局所4方向成分のパラメータを求めた後、上述した荒分類ニューラルネット211 〜21n で決定された3組のニューロン内の文字種の分類にしたがって学習データを分類し、各細分類ニューラルネット221 〜22n に割り振り、個々に学習を行い、出力の発火値を得るとともに、さらに、これら3組について(2)式により類似度を計算し、類似度の最大のものを認識結果とするようになる。
【0057】
この場合の学習収束条件を、「全ての学習データに対して1位と2位との差が>0.5で且つエラーの無いこと」とすることで、学習回数と学習時間を短縮することにより焼き付きを防止するようにもしている。また、学習終了時にその発火状況から補正係数(例えば0.9)を計算しておき、各細分類ニューラルネット221 〜22n の出力差を補正することにより、文字認識率を改善することも可能になる。
【0058】
従って、このような実施の形態によれば、各荒分類ニューラルネット211 〜21n 内の文字種の数を一定とし、これを越えたときは、一番相違度の大きな文字種を放出して、ニューロン内の文字種数を一定とすることにより、後段の細分類ニューラルネット221 〜22n の層数を一定に保つことで出力差を小さくできることから、正確な認識を可能にしている。
【0059】
また、前段の荒分類ニューラルネット211 〜21n では、各文字種間の平均距離を正規化して評価しているので、認識時に正確な分類が可能になる。
【0060】
また、前段の荒分類ニューラルネット211 〜21n には、メッシュ特徴とペリフェラル特徴を用い、後段の細分類ニューラルネット221 〜22n には、局所4方向成分特徴が用いられるため、相補的で良好な認識が可能で、高認識率の文字認識を実現できる。
【0061】
また、細分類ニューラルネット221 〜22n の学習収束条件として「1位と2位の差が一定値以上でエラーがないこと」としているため、学習回数と学習時間を短縮できるとともに、焼き付けもなくなり、汎化性能の高い学習が可能になる。
【0062】
また、細分類ニューラルネット221 〜22n の学習終了時にその発火状況から所定の補正係数を計算し付加して、各細分類ニューラルネット間の出力差を補正しているので、文字認識率をさらに改善することができる。
【0063】
なお、上述した実施の形態では、荒分類ニューラルネットの入力パラメータをメッシュ特徴とペリフェラル特徴としたが、メッシュ特徴またはペリフェラル特徴のいずれか一方のみ、または局所4方向成分特徴または局所4方向成分特徴の一部でも可能である。
【0064】
次に、細分類ニューラルネットの他の実施の形態を図9により説明する。この実施の形態での細分類ニューラルネットは、上述した一実施の形態での細分類ニューラルネットを小型、簡略化したものであり、入力層22aと中間層22bの結合を縦横方向成分と斜め方向成分に分けて部分結合することで、結合数を減らしている。また、局所4方向成分の抽出エリアも図10に示すように重複部分を少なくして千鳥状にすることで、全体のパラメータ数も(5×5+4×4)×4(方向)=164となり、上述した一実施の形態の場合と比べ、約半分に減らすようにしている。
【0065】
このようにすれば、細分類ニューラルネットの入力層22aと中間層22bの結合を部分結合とし、さらに局所4方向成分抽出エリアを千鳥状にしてパラメータを減らすことにより、演算量を始め、メモリー量も少なくなり、高速の文字認識を可能にするとともに、小型機器への応用も可能になる。
【0066】
なお、入力層22aと中間層22bの結合をさらに図11に示すように縦方向成分、横方向成分、右上方向成分および左上方向成分の4方向に部分結合するようにすれば、全体の結合数をさらに減らすことができる。
【0067】
【発明の効果】
以上述べたように本発明によれば、学習回数と学習時間を短縮できるとともに、高認識率の文字認識を実現することができる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態の概略構成を示す図。
【図2】 一実施の形態に用いられるニューラルネットの概略構成を示す図。
【図3】 一実施の形態のニューラルネットを説明するためのフローチャート。
【図4】 一実施の形態のニューラルネットを説明するためのフローチャート。
【図5】 一実施の形態の正規化距離による荒分類ニューラルネットの具体例を示す図。
【図6】 一実施の形態の細分類ニューラルネットの概略構成を示す図。
【図7】 一実施の形態の各成分抽出フィルタを示す図。
【図8】 一実施の形態の局所4方向成分の抽出エリアを説明する図。
【図9】 本発明の他の実施の形態の細分類ニューラルネットの概略構成を示す図。
【図10】 他の実施の形態の局所4方向成分の抽出エリアを説明する図。
【図11】 本発明のさらに他の実施の形態の細分類ニューラルネットの概略構成を示す図。
【符号の説明】
1…マイクロコンピュータ、
11…IR0M、
12…RAM、
2…バス、
3…スキャナ部、
4…入力キー、
5…表示用LED、
6…ROM、
7…RAM、
8…インターフェース、
211 〜21n …ベクトル量子化型ニューラルネット(荒分類ニューラルネット)、
221 〜22n …3層型ニューラルネット(細分類ニューラルネット)。

Claims (1)

  1. 前段の荒分類を行うベクトル量子化型ニューラルネットと後段の細分類を行う3層型ニューラルネットからなるニューラルネットを有する文字認識装置において、
    前記前段の荒分類を行うベクトル量子化型ニューラルネットは、
    1番目の学習データが入力されることにより新たなニューロンを生成する第1の生成手段と、
    2番目以降の学習データが入力されることにより、各ニューロンの代表ベクトルとの相違度を計算する計算手段と、
    前記計算手段により計算された各ニューロンとの相違度が閾値よりも大きい場合は新たなニューロンを生成する第2の生成手段と、
    前記計算手段により計算された各ニューロンとの相違度が閾値よりも小さい場合は最も相違度の小さいニューロンに当該データを取り込む取込手段と、
    前記取込手段によりデータを取り込んだニューロン内のメンバ数が一定値を超えた場合、ニューロン内の代表ベクトルから最も遠距離にある相違度の大きいメンバーを放出する放出手段と
    を有することを特徴とする文字認識装置。
JP28172195A 1995-10-30 1995-10-30 文字認識装置 Expired - Fee Related JP3804088B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28172195A JP3804088B2 (ja) 1995-10-30 1995-10-30 文字認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28172195A JP3804088B2 (ja) 1995-10-30 1995-10-30 文字認識装置

Publications (2)

Publication Number Publication Date
JPH09128489A JPH09128489A (ja) 1997-05-16
JP3804088B2 true JP3804088B2 (ja) 2006-08-02

Family

ID=17643063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28172195A Expired - Fee Related JP3804088B2 (ja) 1995-10-30 1995-10-30 文字認識装置

Country Status (1)

Country Link
JP (1) JP3804088B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867210B2 (en) * 2018-12-21 2020-12-15 Waymo Llc Neural networks for coarse- and fine-object classifications

Also Published As

Publication number Publication date
JPH09128489A (ja) 1997-05-16

Similar Documents

Publication Publication Date Title
CN108665005B (zh) 一种利用dcgan提高基于cnn图像识别性能的方法
CN109377452B (zh) 基于vae和生成式对抗网络的人脸图像修复方法
CN107463920A (zh) 一种消除局部遮挡物影响的人脸识别方法
US20150134578A1 (en) Discriminator, discrimination program, and discrimination method
CN109146000B (zh) 一种基于冰冻权值改进卷积神经网络的方法及装置
CN112597980B (zh) 一种面向动态视觉传感器的类脑手势序列识别方法
JPH0695192A (ja) 画像認識装置及び画像入力方法
Tsang et al. Refinement of generated fuzzy production rules by using a fuzzy neural network
Cheung et al. Hybrid evolution of convolutional networks
EP0459276A2 (en) Data processing system
JP3804088B2 (ja) 文字認識装置
JP2020204909A (ja) 機械学習装置
US6944329B2 (en) Information processing method and apparatus
Sekeroglu et al. Review and analysis of hidden neuron number effect of shallow backpropagation neural networks
CN114387524B (zh) 基于多层级二阶表征的小样本学习的图像识别方法和系统
CN116089801A (zh) 一种基于多重置信度的医疗数据缺失值修复的方法
DE69120854T2 (de) Lernverfahren fÜr Datenverarbeitungssystem
CN110232954B (zh) 基于迁移学习的分子对接方法和系统
JPH05197821A (ja) 階層型ニューラルネットの最適化方法及び装置
Alonso-Weber et al. Handwritten digit recognition with pattern transformations and neural network averaging
JP2020091813A (ja) ニューラルネットワークの学習方法、コンピュータプログラム及びコンピュータ装置
EP0450521A2 (en) A learning method for a data processing system
JP3303253B2 (ja) パターンマッチング方法および装置
CN113989818B (zh) 一种基于类脑计算平台的字符分类方法及系统
JP7367857B2 (ja) モデル生成装置、モデル生成方法、画像処理装置、画像処理方法、及び、プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060501

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees