JPH09231321A - 情報処理方法および装置 - Google Patents
情報処理方法および装置Info
- Publication number
- JPH09231321A JPH09231321A JP8037816A JP3781696A JPH09231321A JP H09231321 A JPH09231321 A JP H09231321A JP 8037816 A JP8037816 A JP 8037816A JP 3781696 A JP3781696 A JP 3781696A JP H09231321 A JPH09231321 A JP H09231321A
- Authority
- JP
- Japan
- Prior art keywords
- character
- stroke
- generating
- classification tree
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Character Discrimination (AREA)
Abstract
(57)【要約】
【課題】 文字パターンから効率よく階層化文字パター
ンを生成する情報処理方法を提供する。 【解決手段】 階層化文字パターンを生成する情報処理
方法であって、文字パターンの複数の部分領域の互いに
近傍の部分領域の文字データの論理和を計算して、縮退
された文字パターンを生成する。そして、生成された縮
退された文字パターンの複数の領域の互いに近傍の部分
領域のデータの論理和を計算して、第2の縮退された文
字パターンを生成する。さらに、生成された縮退された
文字パターンに基づいて、第2の縮退された文字パター
ン生成処理を所定のn回繰り返すことによって、n−1
層の階層化文字パターンを生成する(S102)。
ンを生成する情報処理方法を提供する。 【解決手段】 階層化文字パターンを生成する情報処理
方法であって、文字パターンの複数の部分領域の互いに
近傍の部分領域の文字データの論理和を計算して、縮退
された文字パターンを生成する。そして、生成された縮
退された文字パターンの複数の領域の互いに近傍の部分
領域のデータの論理和を計算して、第2の縮退された文
字パターンを生成する。さらに、生成された縮退された
文字パターンに基づいて、第2の縮退された文字パター
ン生成処理を所定のn回繰り返すことによって、n−1
層の階層化文字パターンを生成する(S102)。
Description
【0001】
【発明の属する技術分野】本発明は情報処理方法とその
装置、特に、文字認識、音声認識等の文章を認識する情
報処理方法および装置に関する。
装置、特に、文字認識、音声認識等の文章を認識する情
報処理方法および装置に関する。
【0002】
【従来の技術】従来、文章認識を行う1方法として、N
−gramテーブルを使用した方法が存在した。この方
法は、例えば、文献「確率モデルによる音声認識」(電
子情報通信学会編、中川聖一著)にあるように、文章の
帰属する言語モデルとして有限状態オートマトンを採用
し、このモデルに基づいて文字列の事前確率を求める方
法である。
−gramテーブルを使用した方法が存在した。この方
法は、例えば、文献「確率モデルによる音声認識」(電
子情報通信学会編、中川聖一著)にあるように、文章の
帰属する言語モデルとして有限状態オートマトンを採用
し、このモデルに基づいて文字列の事前確率を求める方
法である。
【0003】つまり、この方法においては、文章を構成
する要素列の連なりに関する確率を大規模文章データベ
ースから求められるステップが必要不可欠になる。
する要素列の連なりに関する確率を大規模文章データベ
ースから求められるステップが必要不可欠になる。
【0004】
【発明が解決しようとする課題】しかしながら、日本語
や中国語のように、文字の種類が数千種類になる言語に
おいては、trigram(N=3)程度のテーブルを
作成するにも非常に大量の文章データが必要になる。ま
た、少ない文章データを用いてテーブルを作成しようと
すると、信頼性のある遷移確率と信頼性のない遷移確率
がテーブル内に共存することになり、不具合が生じると
いう問題があった。
や中国語のように、文字の種類が数千種類になる言語に
おいては、trigram(N=3)程度のテーブルを
作成するにも非常に大量の文章データが必要になる。ま
た、少ない文章データを用いてテーブルを作成しようと
すると、信頼性のある遷移確率と信頼性のない遷移確率
がテーブル内に共存することになり、不具合が生じると
いう問題があった。
【0005】本発明は、上記従来例に鑑みてなされたも
ので、文字パターンから効率よく階層化文字パターンを
生成する情報処理方法および装置を提供することを目的
とする。また、生成された階層化文字パターンに基づい
て、上の階層でカテゴリーの競合が最も激しく、かつ、
すぐ下の階層でカテゴリーが良く分離される構造の分類
木を生成する情報処理方法および装置を提供することを
目的とする。
ので、文字パターンから効率よく階層化文字パターンを
生成する情報処理方法および装置を提供することを目的
とする。また、生成された階層化文字パターンに基づい
て、上の階層でカテゴリーの競合が最も激しく、かつ、
すぐ下の階層でカテゴリーが良く分離される構造の分類
木を生成する情報処理方法および装置を提供することを
目的とする。
【0006】また、生成された分類木からメモリ効率の
よいN−gramテーブルを生成する情報処理方法およ
び装置を提供することを目的とする。さらに、生成され
たN−gramテーブルを検索して、高認識率かつ高速
な認識が可能な情報処理方法および装置を提供すること
を目的とする。
よいN−gramテーブルを生成する情報処理方法およ
び装置を提供することを目的とする。さらに、生成され
たN−gramテーブルを検索して、高認識率かつ高速
な認識が可能な情報処理方法および装置を提供すること
を目的とする。
【0007】
【課題を解決するための手段】上記目的を達成するた
め、本発明の情報処理方法および装置は以下の構成を備
える。即ち、階層化文字パターンを生成する情報処理方
法であって、複数の領域に分割された文字パターンにお
いて、前記複数の領域の互いに近傍の部分領域の文字デ
ータの論理和を計算して、縮退された文字パターンを生
成する縮退パターン生成工程と、前記生成された縮退さ
れた文字パターンの複数の領域の互いに近傍の部分領域
のデータの論理和を計算して、第2の縮退された文字パ
ターンを生成する第2縮退パターン生成工程と、前記第
2縮退パターン生成工程で生成された縮退された文字パ
ターンに基づいて、前記第2縮退パターン生成工程の処
理を所定のn回繰り返すことによって、n−1層の階層
化文字パターンを生成する繰り返し工程とを備える。
め、本発明の情報処理方法および装置は以下の構成を備
える。即ち、階層化文字パターンを生成する情報処理方
法であって、複数の領域に分割された文字パターンにお
いて、前記複数の領域の互いに近傍の部分領域の文字デ
ータの論理和を計算して、縮退された文字パターンを生
成する縮退パターン生成工程と、前記生成された縮退さ
れた文字パターンの複数の領域の互いに近傍の部分領域
のデータの論理和を計算して、第2の縮退された文字パ
ターンを生成する第2縮退パターン生成工程と、前記第
2縮退パターン生成工程で生成された縮退された文字パ
ターンに基づいて、前記第2縮退パターン生成工程の処
理を所定のn回繰り返すことによって、n−1層の階層
化文字パターンを生成する繰り返し工程とを備える。
【0008】また、別の発明は、文字認識のための認識
辞書である分類木を生成する方法であって、所定の学習
用ストロークを、複数の区間に分割する分割工程と、前
記分割工程で分割された各区間のストロークをベクトル
量子化するベクトル量子化工程と、前記ベクトル量子化
工程で量子化された各区間のストロークの近傍ストロー
クの組を合成して、より上位のストロークベクトルを生
成してゆき、階層化ストロークベクトル系列を生成する
階層化ストロークベクトル生成工程と、前記階層化スト
ロークベクトル生成工程で生成された階層化ストローク
ベクトル系列のより上位のストロークベクトルから所定
のエントロピー関数が最大となるストロークベクトルを
選択して、より下位のストロークベクトルの組に展開し
て分類木を生成してゆく分類木生成工程と、前記分類木
生成工程で生成された分類木に、所定の階層化された文
字ストロークを適用して、N−gramテーブルを生成
するN−gramテーブル生成工程とを備える。
辞書である分類木を生成する方法であって、所定の学習
用ストロークを、複数の区間に分割する分割工程と、前
記分割工程で分割された各区間のストロークをベクトル
量子化するベクトル量子化工程と、前記ベクトル量子化
工程で量子化された各区間のストロークの近傍ストロー
クの組を合成して、より上位のストロークベクトルを生
成してゆき、階層化ストロークベクトル系列を生成する
階層化ストロークベクトル生成工程と、前記階層化スト
ロークベクトル生成工程で生成された階層化ストローク
ベクトル系列のより上位のストロークベクトルから所定
のエントロピー関数が最大となるストロークベクトルを
選択して、より下位のストロークベクトルの組に展開し
て分類木を生成してゆく分類木生成工程と、前記分類木
生成工程で生成された分類木に、所定の階層化された文
字ストロークを適用して、N−gramテーブルを生成
するN−gramテーブル生成工程とを備える。
【0009】また、別の発明は、階層化文字パターンを
生成する情報処理装置であって、複数の領域に分割され
た文字パターンにおいて、前記複数の領域の互いに近傍
の部分領域の文字データの論理和を計算して、縮退され
た文字パターンを生成する縮退パターン生成手段と、前
記生成された縮退された文字パターンの複数の領域の互
いに近傍の部分領域のデータの論理和を計算して、第2
の縮退された文字パターンを生成する第2縮退パターン
生成手段と、前記第2縮退パターン生成手段で生成され
た縮退された文字パターンに基づいて、前記第2縮退パ
ターン生成手段の処理を所定のn回繰り返すことによっ
て、n−1層の階層化文字パターンを生成する繰り返し
手段とを備えることを特徴する情報処理装置。
生成する情報処理装置であって、複数の領域に分割され
た文字パターンにおいて、前記複数の領域の互いに近傍
の部分領域の文字データの論理和を計算して、縮退され
た文字パターンを生成する縮退パターン生成手段と、前
記生成された縮退された文字パターンの複数の領域の互
いに近傍の部分領域のデータの論理和を計算して、第2
の縮退された文字パターンを生成する第2縮退パターン
生成手段と、前記第2縮退パターン生成手段で生成され
た縮退された文字パターンに基づいて、前記第2縮退パ
ターン生成手段の処理を所定のn回繰り返すことによっ
て、n−1層の階層化文字パターンを生成する繰り返し
手段とを備えることを特徴する情報処理装置。
【0010】また、別の発明は、文字認識のための認識
辞書である分類木を生成する装置であって、所定の学習
用ストロークを、複数の区間に分割する分割手段と、前
記分割手段で分割された各区間のストロークをベクトル
量子化するベクトル量子化手段と、前記ベクトル量子化
手段で量子化された各区間のストロークの近傍ストロー
クの組を合成して、より上位のストロークベクトルを生
成してゆき、階層化ストロークベクトル系列を生成する
階層化ストロークベクトル生成手段と、前記階層化スト
ロークベクトル生成手段で生成された階層化ストローク
ベクトル系列のより上位のストロークベクトルから所定
のエントロピー関数が最大となるストロークベクトルを
選択して、より下位のストロークベクトルの組に展開し
て分類木を生成してゆく分類木生成手段と、前記分類木
生成手段で生成された分類木に、所定の階層化された文
字ストロークを適用して、N−gramテーブルを生成
するN−gramテーブル生成手段とを備える。
辞書である分類木を生成する装置であって、所定の学習
用ストロークを、複数の区間に分割する分割手段と、前
記分割手段で分割された各区間のストロークをベクトル
量子化するベクトル量子化手段と、前記ベクトル量子化
手段で量子化された各区間のストロークの近傍ストロー
クの組を合成して、より上位のストロークベクトルを生
成してゆき、階層化ストロークベクトル系列を生成する
階層化ストロークベクトル生成手段と、前記階層化スト
ロークベクトル生成手段で生成された階層化ストローク
ベクトル系列のより上位のストロークベクトルから所定
のエントロピー関数が最大となるストロークベクトルを
選択して、より下位のストロークベクトルの組に展開し
て分類木を生成してゆく分類木生成手段と、前記分類木
生成手段で生成された分類木に、所定の階層化された文
字ストロークを適用して、N−gramテーブルを生成
するN−gramテーブル生成手段とを備える。
【0011】また、別の発明は、コンピュータプログラ
ム製品であって、階層化文字パターンを生成する、コン
ピュータ読み取り可能なプログラムコード手段を有する
コンピュータ使用可能な媒体を備え、前記コンピュータ
プログラム製品は、複数の領域に分割された文字パター
ンにおいて、前記複数の領域の互いに近傍の部分領域の
文字データの論理和を計算して、縮退された文字パター
ンを生成する、コンピュータ読み取り可能な第1プログ
ラムコード手段と、前記生成された縮退された文字パタ
ーンの複数の領域の互いに近傍の部分領域のデータの論
理和を計算して、第2の縮退された文字パターンを生成
する、コンピュータ読み取り可能な第2プログラムコー
ド手段と、前記生成された縮退された文字パターンに基
づいて、前記第2プログラムコード手段の処理を所定の
n回繰り返すことによって、n−1層の階層化文字パタ
ーンを生成する、コンピュータ読み取り可能なプログラ
ムコード手段とを備える。
ム製品であって、階層化文字パターンを生成する、コン
ピュータ読み取り可能なプログラムコード手段を有する
コンピュータ使用可能な媒体を備え、前記コンピュータ
プログラム製品は、複数の領域に分割された文字パター
ンにおいて、前記複数の領域の互いに近傍の部分領域の
文字データの論理和を計算して、縮退された文字パター
ンを生成する、コンピュータ読み取り可能な第1プログ
ラムコード手段と、前記生成された縮退された文字パタ
ーンの複数の領域の互いに近傍の部分領域のデータの論
理和を計算して、第2の縮退された文字パターンを生成
する、コンピュータ読み取り可能な第2プログラムコー
ド手段と、前記生成された縮退された文字パターンに基
づいて、前記第2プログラムコード手段の処理を所定の
n回繰り返すことによって、n−1層の階層化文字パタ
ーンを生成する、コンピュータ読み取り可能なプログラ
ムコード手段とを備える。
【0012】また、別の発明は、コンピュータプログラ
ム製品であって、文字認識のための認識辞書である分類
木を生成する、コンピュータ読み取り可能なプログラム
コード手段を有するコンピュータ使用可能な媒体を備
え、前記コンピュータプログラム製品は、所定の学習用
ストロークを、複数の区間に分割する、コンピュータ読
み取り可能なプログラムコード手段と、前記分割された
各区間のストロークをベクトル量子化する、コンピュー
タ読み取り可能なプログラムコード手段と、前記量子化
された各区間のストロークの近傍ストロークの組を合成
して、より上位のストロークベクトルを生成してゆき、
階層化ストロークベクトル系列を生成する、コンピュー
タ読み取り可能なプログラムコード手段と、前記生成さ
れた階層化ストロークベクトル系列のより上位のストロ
ークベクトルから所定のエントロピー関数が最大となる
ストロークベクトルを選択して、より下位のストローク
ベクトルの組に展開して分類木を生成してゆく、コンピ
ュータ読み取り可能なプログラムコード手段と、前記生
成された分類木に、所定の階層化された文字ストローク
を適用して、N−gramテーブルを生成する、コンピ
ュータ読み取り可能なプログラムコード手段とを備え
る。
ム製品であって、文字認識のための認識辞書である分類
木を生成する、コンピュータ読み取り可能なプログラム
コード手段を有するコンピュータ使用可能な媒体を備
え、前記コンピュータプログラム製品は、所定の学習用
ストロークを、複数の区間に分割する、コンピュータ読
み取り可能なプログラムコード手段と、前記分割された
各区間のストロークをベクトル量子化する、コンピュー
タ読み取り可能なプログラムコード手段と、前記量子化
された各区間のストロークの近傍ストロークの組を合成
して、より上位のストロークベクトルを生成してゆき、
階層化ストロークベクトル系列を生成する、コンピュー
タ読み取り可能なプログラムコード手段と、前記生成さ
れた階層化ストロークベクトル系列のより上位のストロ
ークベクトルから所定のエントロピー関数が最大となる
ストロークベクトルを選択して、より下位のストローク
ベクトルの組に展開して分類木を生成してゆく、コンピ
ュータ読み取り可能なプログラムコード手段と、前記生
成された分類木に、所定の階層化された文字ストローク
を適用して、N−gramテーブルを生成する、コンピ
ュータ読み取り可能なプログラムコード手段とを備え
る。
【0013】
【発明の実施の形態】はじめに、本発明の実施の形態の
情報処理方法のポイントを要約した後に、その詳細な説
明に入るものとする。本発明の実施の形態の情報処理方
法では、学習用パターンを階層的に処理し分類木を作成
する。そして、その分類木を元にN−gramテーブル
を作成する。
情報処理方法のポイントを要約した後に、その詳細な説
明に入るものとする。本発明の実施の形態の情報処理方
法では、学習用パターンを階層的に処理し分類木を作成
する。そして、その分類木を元にN−gramテーブル
を作成する。
【0014】また、学習用パターンの階層的処理では、
学習用パターンの特徴を段階的に縮退させる。また、分
類木作成では、上の階層でカテゴリーの競合が最も激し
く、かつ、すぐ下の階層でカテゴリーが良く分離される
変数を選び、前記縮退された変数を下の階層に向かって
展開する。
学習用パターンの特徴を段階的に縮退させる。また、分
類木作成では、上の階層でカテゴリーの競合が最も激し
く、かつ、すぐ下の階層でカテゴリーが良く分離される
変数を選び、前記縮退された変数を下の階層に向かって
展開する。
【0015】また、学習用ストロークを分割し、分割さ
れたストローク切片をベクトル量子化し、その結果得ら
れたベクトル系列を階層的に処理してベクトル系列を階
層化し、その階層化されたベクトル系列を元に、分類木
を作成し、その分類木を元にN−gramテーブルを作
成する。また、前記階層化前処理では、学習用ストロー
クを構成するベクトル系列情報を段階的に縮退させる。
れたストローク切片をベクトル量子化し、その結果得ら
れたベクトル系列を階層的に処理してベクトル系列を階
層化し、その階層化されたベクトル系列を元に、分類木
を作成し、その分類木を元にN−gramテーブルを作
成する。また、前記階層化前処理では、学習用ストロー
クを構成するベクトル系列情報を段階的に縮退させる。
【0016】また、前記分類木作成処理では、上の階層
でカテゴリーの競合が最も激しく、かつ、すぐ下の階層
でカテゴリーが良く分離されるベクトルを選び、その結
果に基づき縮退されたベクトルを下の階層に向かって展
開する。また、生成されたN−gramテーブルを元に
ユーザが入力した文章を認識する。
でカテゴリーの競合が最も激しく、かつ、すぐ下の階層
でカテゴリーが良く分離されるベクトルを選び、その結
果に基づき縮退されたベクトルを下の階層に向かって展
開する。また、生成されたN−gramテーブルを元に
ユーザが入力した文章を認識する。
【0017】以下、図面に基づいて、本発明の実施の形
態の情報処理装置の詳細な説明を行う。 <実施の形態1>図1は、本発明の以下の実施の形態す
べてにかかわるパターン認識方式が適用される情報処理
装置の構成を示すブロック図である。
態の情報処理装置の詳細な説明を行う。 <実施の形態1>図1は、本発明の以下の実施の形態す
べてにかかわるパターン認識方式が適用される情報処理
装置の構成を示すブロック図である。
【0018】パターン認識装置は、パターン入力装置2
01、表示装置202、中央処理装置(CPU)20
3、メモリ204から構成される。パターン入力装置2
01は、例えば、オンライン文字認識ならば、デジタイ
ザとペンを有し、デジタイザの上にペンによって入力さ
れた文字や図形の座標データをCPU203に渡す。こ
のパターン入力装置は、これから認識しようとするパタ
ーンが入力できるものならば、スキャナーでもマイクで
も何でもよい。
01、表示装置202、中央処理装置(CPU)20
3、メモリ204から構成される。パターン入力装置2
01は、例えば、オンライン文字認識ならば、デジタイ
ザとペンを有し、デジタイザの上にペンによって入力さ
れた文字や図形の座標データをCPU203に渡す。こ
のパターン入力装置は、これから認識しようとするパタ
ーンが入力できるものならば、スキャナーでもマイクで
も何でもよい。
【0019】表示装置202は、パターン入力手段20
1に入力された生のパターンデータやCPU203が認
識した結果を表示する。CPU203は、入力されたパ
ターン認識を行ったり、すべての装置の制御を行う。メ
モリ204は、CPU203が使用する認識プログラム
や辞書を記録したり、入力されたパターンデータ、認識
プログラムの使用する変数等を一時的に記録する。
1に入力された生のパターンデータやCPU203が認
識した結果を表示する。CPU203は、入力されたパ
ターン認識を行ったり、すべての装置の制御を行う。メ
モリ204は、CPU203が使用する認識プログラム
や辞書を記録したり、入力されたパターンデータ、認識
プログラムの使用する変数等を一時的に記録する。
【0020】図2は、本発明に係る実施の形態の情報処
理方法の処理概念を表す図である。101は生の学習用
パターンであり、S102は、生の学習用パターン(1
01)をニューラルネットに適用する前処理を行う階層
化前処理ステップである。103は、ニューラルネット
で処理後の階層化された学習用パターンである。S10
4は、階層化された学習用パターン(103)を元に分
類木を作成する分類木作成ステップである。
理方法の処理概念を表す図である。101は生の学習用
パターンであり、S102は、生の学習用パターン(1
01)をニューラルネットに適用する前処理を行う階層
化前処理ステップである。103は、ニューラルネット
で処理後の階層化された学習用パターンである。S10
4は、階層化された学習用パターン(103)を元に分
類木を作成する分類木作成ステップである。
【0021】S105は、分類木作成ステップ(S10
4)が分類木を作成する過程で使用する展開変数判別ス
テップである。106は、ステップS104の処理で生
成された分類木である。107は、文章データベースで
ある。この文章データベースには、一般に使われている
様々な文章のパターンが格納されている。この文章デー
タベースは、後述するN-gram作成ステップで、事
前に生成された分類木での事前確率を求めるためにアク
セスされる。
4)が分類木を作成する過程で使用する展開変数判別ス
テップである。106は、ステップS104の処理で生
成された分類木である。107は、文章データベースで
ある。この文章データベースには、一般に使われている
様々な文章のパターンが格納されている。この文章デー
タベースは、後述するN-gram作成ステップで、事
前に生成された分類木での事前確率を求めるためにアク
セスされる。
【0022】S108は、文章データベース(107)
と分類木(106)を元に、N−gramテーブル(1
09)を作成するN−gramテーブル作成ステップで
ある。 本実施の形態における入力は、生の学習用パタ
ーン(101)、および、文章データベース(107)
であり、その出力はN−gramテーブル(109)と
なる。
と分類木(106)を元に、N−gramテーブル(1
09)を作成するN−gramテーブル作成ステップで
ある。 本実施の形態における入力は、生の学習用パタ
ーン(101)、および、文章データベース(107)
であり、その出力はN−gramテーブル(109)と
なる。
【0023】以下、図3から図7に基づいて、本実施の
形態の処理手順を詳細に述べる。まず、入力パターンと
しては、16×16のメッシュ上に書かれた「0」から
「9」までの10個の数字パターンがあるとする。
「0」の入力パターン例を図5に示す。辞書作成用の学
習パターンは、「0」から「9」までそれぞれ100個
存在するとする。なお、これらを、 LTi,j(Learning Template i,j) と名前付ける。ここで、iはカテゴリーを表すサフィッ
クスで、 0 <= i <= 9 の範囲の値をとる。jは、学習パターンナンバーを示す
サフィックスで、 1 <= j <= 100 の範囲の値をとる。
形態の処理手順を詳細に述べる。まず、入力パターンと
しては、16×16のメッシュ上に書かれた「0」から
「9」までの10個の数字パターンがあるとする。
「0」の入力パターン例を図5に示す。辞書作成用の学
習パターンは、「0」から「9」までそれぞれ100個
存在するとする。なお、これらを、 LTi,j(Learning Template i,j) と名前付ける。ここで、iはカテゴリーを表すサフィッ
クスで、 0 <= i <= 9 の範囲の値をとる。jは、学習パターンナンバーを示す
サフィックスで、 1 <= j <= 100 の範囲の値をとる。
【0024】そして、図3に示すような4階層のニュー
ラルネットワークを構成する。図3の4階層は、それぞ
れ上から2×2、4×4、8×8、16×16個のニュ
ーロン群から構成される。本パターン認識用辞書作成方
法は、ニューラルネット展開フェーズ、分類木作成フェ
ーズ、N−gramテーブル作成フェーズの3段階のス
テップをへて実施される。以下、順に説明する(図4参
照)。
ラルネットワークを構成する。図3の4階層は、それぞ
れ上から2×2、4×4、8×8、16×16個のニュ
ーロン群から構成される。本パターン認識用辞書作成方
法は、ニューラルネット展開フェーズ、分類木作成フェ
ーズ、N−gramテーブル作成フェーズの3段階のス
テップをへて実施される。以下、順に説明する(図4参
照)。
【0025】(1)ニューラルネット展開フェーズ まず、学習用テンプレートは、図3の最下層の16×1
6個のニューロンに入力される。この時、入力パターン
(LTi,j)の白の部分はニューロンがオフ(OFF)
で、黒の部分はニューロンがオン(ON)になるとす
る。以下の説明においては、「黒」と「ニューロンのO
N」/「白」と「ニューロンのOFF」はそれぞれ同一
の意味を持つものとする。
6個のニューロンに入力される。この時、入力パターン
(LTi,j)の白の部分はニューロンがオフ(OFF)
で、黒の部分はニューロンがオン(ON)になるとす
る。以下の説明においては、「黒」と「ニューロンのO
N」/「白」と「ニューロンのOFF」はそれぞれ同一
の意味を持つものとする。
【0026】ニューラルネットの構成は極めて単純であ
る。つまり、下の層の2×2のニューロンの中で、ON
となっているものが1つでもあれば、真上の層の1つの
ニューロンはONとなる。というルールで入力パターン
を上に向かって処理していく。図5の学習用テンプレー
トを処理した結果を、図6に示す。
る。つまり、下の層の2×2のニューロンの中で、ON
となっているものが1つでもあれば、真上の層の1つの
ニューロンはONとなる。というルールで入力パターン
を上に向かって処理していく。図5の学習用テンプレー
トを処理した結果を、図6に示す。
【0027】結局、入力パターンの特徴空間は256次
元の超立方格子(2256通りのデータ組み合わせを有す
る)をなす。これが、第1層では24、第2層では
216、第3層では264となる。なお、このニューラルネ
ットの構造はこれに限ったものではない。 (2)分類木作成フェーズ (1)のニューラルネット展開フェーズによって、学習
用テンプレート(LTi,j)の全てが、図3のニューラ
ルネットに展開される。分類木の作成はこのニューラル
ネットの展開とは逆に、上から下へ行われる。
元の超立方格子(2256通りのデータ組み合わせを有す
る)をなす。これが、第1層では24、第2層では
216、第3層では264となる。なお、このニューラルネ
ットの構造はこれに限ったものではない。 (2)分類木作成フェーズ (1)のニューラルネット展開フェーズによって、学習
用テンプレート(LTi,j)の全てが、図3のニューラ
ルネットに展開される。分類木の作成はこのニューラル
ネットの展開とは逆に、上から下へ行われる。
【0028】ルールのノードは、図3の最上位の層(2
×2)のさらに上に仮想的に存在するニューロンから始
まる。学習用テンプレート(LTi,j)を展開した結
果、図3の最上位の層(2×2)はどれかはONとなっ
ている。言い換えれば、真っ白い学習用テンプレートが
存在しない限り最上位の層(2×2)は、すべてOFF
にはならない。
×2)のさらに上に仮想的に存在するニューロンから始
まる。学習用テンプレート(LTi,j)を展開した結
果、図3の最上位の層(2×2)はどれかはONとなっ
ている。言い換えれば、真っ白い学習用テンプレートが
存在しない限り最上位の層(2×2)は、すべてOFF
にはならない。
【0029】よって、全ての学習用テンプレート(LT
i,j)に対して、仮想的に存在する最上位ニューロンの
活動はONとなっている。最上位の層(2×2)の状態
は、24=16個存在するので(正確には、上記説明の
ように、すべてOFFの状態ではないので、15個であ
る)、ルートノードから16本の枝が伸びることとな
る。(図7参照) この時、枝に存在する学習用テンプレート(LTi,j)
の数を数える。この結果によって、以後の処理が3つに
わかれる。
i,j)に対して、仮想的に存在する最上位ニューロンの
活動はONとなっている。最上位の層(2×2)の状態
は、24=16個存在するので(正確には、上記説明の
ように、すべてOFFの状態ではないので、15個であ
る)、ルートノードから16本の枝が伸びることとな
る。(図7参照) この時、枝に存在する学習用テンプレート(LTi,j)
の数を数える。この結果によって、以後の処理が3つに
わかれる。
【0030】学習用テンプレート(LTi,j)が1つ
も存在しない場合 この場合は、その枝を削除する。 学習用テンプレート(LTi,j)の中で、あるカテゴ
リー(例えば「1」のテンプレートのみ存在する場合 この場合は、この枝を葉とし、カテゴリーの番号(例え
ば「1」)を割り振る。
も存在しない場合 この場合は、その枝を削除する。 学習用テンプレート(LTi,j)の中で、あるカテゴ
リー(例えば「1」のテンプレートのみ存在する場合 この場合は、この枝を葉とし、カテゴリーの番号(例え
ば「1」)を割り振る。
【0031】上記1、2以外の場合、即ち、複数カテ
ゴリーのテンプレートが混合して存在する場合 この場合、この枝をノードとして、更に分類木作成を続
ける。図7が、この処理の結果を示すものである。枝の
状態は、図3の最上位の層(第1層)のニューロンの発
火状況を図示することによって、示してある(黒はON
で、白はOFFを表す)。
ゴリーのテンプレートが混合して存在する場合 この場合、この枝をノードとして、更に分類木作成を続
ける。図7が、この処理の結果を示すものである。枝の
状態は、図3の最上位の層(第1層)のニューロンの発
火状況を図示することによって、示してある(黒はON
で、白はOFFを表す)。
【0032】存在するカテゴリーの種類の欄が「×」と
なっている枝は、上記学習用テンプレート(LTi,
j)が1つも存在しない場合に相当し、削除される。な
お、厳密には、一番左の枝はルートからは、出ていな
い。左から8番目の枝は、「1」のカテゴリーの学習用
テンプレートしか存在しない。これは、上記学習用テ
ンプレート(LTi,j)の中で、あるカテゴリー(例え
ば「1」)のテンプレートのみ存在する場合に相当し、
葉となる。
なっている枝は、上記学習用テンプレート(LTi,
j)が1つも存在しない場合に相当し、削除される。な
お、厳密には、一番左の枝はルートからは、出ていな
い。左から8番目の枝は、「1」のカテゴリーの学習用
テンプレートしか存在しない。これは、上記学習用テ
ンプレート(LTi,j)の中で、あるカテゴリー(例え
ば「1」)のテンプレートのみ存在する場合に相当し、
葉となる。
【0033】例えば、左から12番目の枝には「2」
「4」「5」「6」のカテゴリーの学習用テンプレート
が存在し、上記上記1、2以外の場合=複数カテゴリ
ーのテンプレートが混合して存在する場合に相当し、ノ
ードとなる。次に、このノードから枝を作成する方法に
ついて述べる。このノードから枝を作成する際に、最も
効率の良い枝の作成を行いたい。最も効率が良いとは、
結局、枝を展開したときに、最も多くカテゴリーに関す
る情報が得られるということである。
「4」「5」「6」のカテゴリーの学習用テンプレート
が存在し、上記上記1、2以外の場合=複数カテゴリ
ーのテンプレートが混合して存在する場合に相当し、ノ
ードとなる。次に、このノードから枝を作成する方法に
ついて述べる。このノードから枝を作成する際に、最も
効率の良い枝の作成を行いたい。最も効率が良いとは、
結局、枝を展開したときに、最も多くカテゴリーに関す
る情報が得られるということである。
【0034】このような要請のもとで枝を展開する方法
は、一般に非常に多く存在し、そのどれを採用してよい
かは、なかなか決定できない。従来、この問題が原因
で、認識用の分類木がうまく作成できないでいた。しか
し、仮に、このノードから展開する枝を、このノードに
おいて、ONとなっているニューロンを下の層に展開し
た枝に限ってみる。
は、一般に非常に多く存在し、そのどれを採用してよい
かは、なかなか決定できない。従来、この問題が原因
で、認識用の分類木がうまく作成できないでいた。しか
し、仮に、このノードから展開する枝を、このノードに
おいて、ONとなっているニューロンを下の層に展開し
た枝に限ってみる。
【0035】例えば、図7の左から12番目の枝の場
合、図3の第1層における左上、左下、右下の3つのニ
ューロンの中から1つ選び、そのニューロンの下、つま
り図3の第2層の下4つのニューロンの状態に関する枝
の展開を行う。こうすることによって、枝の展開に要す
る計算時間を大幅に削減できるし、このような制限をし
ても、本質的に分類木の分類性能に大きなダメージは与
えない。
合、図3の第1層における左上、左下、右下の3つのニ
ューロンの中から1つ選び、そのニューロンの下、つま
り図3の第2層の下4つのニューロンの状態に関する枝
の展開を行う。こうすることによって、枝の展開に要す
る計算時間を大幅に削減できるし、このような制限をし
ても、本質的に分類木の分類性能に大きなダメージは与
えない。
【0036】次に、このノードにおいて、ONとなって
いるニューロンの内で、展開したときに最も効率良くな
るニューロンを選ぶ方法を説明する。あるノードに存在
する学習用テンプレート(LTi,j)の中で、カテゴリ
ー番号iの数をNiで表す。このノードに存在する学習
用テンプレートの総数をNとすると、このノードにおけ
るそれぞれのカテゴリーの存在確率piは pi=Ni/N で表される。なお、
いるニューロンの内で、展開したときに最も効率良くな
るニューロンを選ぶ方法を説明する。あるノードに存在
する学習用テンプレート(LTi,j)の中で、カテゴリ
ー番号iの数をNiで表す。このノードに存在する学習
用テンプレートの総数をNとすると、このノードにおけ
るそれぞれのカテゴリーの存在確率piは pi=Ni/N で表される。なお、
【0037】
【数1】
【0038】よって、このノードの情報が得られたとき
のエントロピーは、以下の式で表される。
のエントロピーは、以下の式で表される。
【0039】
【数2】 (式1)
【0040】次に、このノードにおいて、ONとなって
いるニューロンの1つを選択して、そこから枝を展開し
たときのエントロピーの減少量を計算する。
いるニューロンの1つを選択して、そこから枝を展開し
たときのエントロピーの減少量を計算する。
【0041】上述の通り、1つのニューロンを下の層に
向かって展開したときの枝の数は16本である。この1
6本の枝に学習用テンプレート(LTi,j)がどのよう
に分布するかを、展開したときの枝に存在する学習用テ
ンプレート(LTi,j)の数を Ni,b で表す。Ni,bのiはカテゴリー番号を示し、bは枝(b
ranch)の番号を示す。
向かって展開したときの枝の数は16本である。この1
6本の枝に学習用テンプレート(LTi,j)がどのよう
に分布するかを、展開したときの枝に存在する学習用テ
ンプレート(LTi,j)の数を Ni,b で表す。Ni,bのiはカテゴリー番号を示し、bは枝(b
ranch)の番号を示す。
【0042】この時、それぞれの枝の情報が得られたと
きのエントロピーは、上の議論と同じく、
きのエントロピーは、上の議論と同じく、
【0043】
【数3】 (式2)
【0044】この式で、
【0045】
【数4】
【0046】は枝に存在する学習用テンプレート(LT
i,j)の総数を表す。それぞれの枝にいく確率は、
i,j)の総数を表す。それぞれの枝にいく確率は、
【0047】
【数5】
【0048】(ここで、Nは(1)式のNと同じ)なの
で、結局、枝を展開したときの平均エントロピーは
で、結局、枝を展開したときの平均エントロピーは
【0049】
【数6】 (式3) となる。
【0051】結局、エントロピーの平均減少値は、
【0052】
【数7】 (式4)
【0053】となる。
【0054】そして、この値を枝の数で割った値
【0055】
【数8】 (式5)
【0056】が枝を展開したときの分類効率を表すこと
になる。
になる。
【0057】この値が最高となるニューロンを選び、枝
を展開していく。なお、1つのニューロンのみを展開す
るのではなく、複数のニューロンのグループに関して枝
を展開してもよい。この場合、(式5)のBranch
Numberは、ニューロンの数×16となる。ここ
で、厳密には展開する下の層のニューロンがすべてOF
Fということは有り得ないので、BranchNumb
erは、ニューロンの数×15となる。
を展開していく。なお、1つのニューロンのみを展開す
るのではなく、複数のニューロンのグループに関して枝
を展開してもよい。この場合、(式5)のBranch
Numberは、ニューロンの数×16となる。ここ
で、厳密には展開する下の層のニューロンがすべてOF
Fということは有り得ないので、BranchNumb
erは、ニューロンの数×15となる。
【0058】また、本実施の形態においては、(式5)
で表される値を枝を展開したときの分類効率を表す値と
して採用したが、例えば、文献「Classficat
ion and Regression Trees」
に記載されている“Ginicriterion”等の
枝の展開効率を表す関数ならば、(式5)に限らず何で
もよい。
で表される値を枝を展開したときの分類効率を表す値と
して採用したが、例えば、文献「Classficat
ion and Regression Trees」
に記載されている“Ginicriterion”等の
枝の展開効率を表す関数ならば、(式5)に限らず何で
もよい。
【0059】以上、展開するニューロン、またはニュー
ロンの組みが決定されれば、それに従って、枝を展開
し、葉及びノードを作成していく。そして、最後に、全
部が葉になったところで、分類木作成を完了する。図8
に、実際作成された分類木の内容を示す。図8は、図7
を詳しくしたもので、削除された枝は省いてある。図8
の○で囲ってある枝は葉であることを示す。
ロンの組みが決定されれば、それに従って、枝を展開
し、葉及びノードを作成していく。そして、最後に、全
部が葉になったところで、分類木作成を完了する。図8
に、実際作成された分類木の内容を示す。図8は、図7
を詳しくしたもので、削除された枝は省いてある。図8
の○で囲ってある枝は葉であることを示す。
【0060】葉以外の全ての枝はノードとなるので、更
に深く枝の展開が行われるわけであるが、図8において
は、右から3番目のノードのみ、更なる枝の展開結果を
図示した。右から3番目のノードは。「1」「7」
「9」の3種類のカテゴリーが共存しており、枝の展開
が必要となっている。ここで、第1層のどのニューロン
を展開すべきかについて、展開変数判別ステップS10
5(図2)が、第1層の右上のニューロンという答えを
出したとする。
に深く枝の展開が行われるわけであるが、図8において
は、右から3番目のノードのみ、更なる枝の展開結果を
図示した。右から3番目のノードは。「1」「7」
「9」の3種類のカテゴリーが共存しており、枝の展開
が必要となっている。ここで、第1層のどのニューロン
を展開すべきかについて、展開変数判別ステップS10
5(図2)が、第1層の右上のニューロンという答えを
出したとする。
【0061】すると、右上のニューロンの状態に関し
て、図7と同様に 24=16本の枝が展開され、ある
枝は削除され、ある枝は葉となり、ある枝はノードとな
る。ノードとなった枝は、更に枝を展開しなければなら
なく、最終的に全ての枝の末端は葉となる。図8では、
右から3番目のノードの展開結果を、簡単のため、第1
層と第2層を重ね書きすることによって示してある。実
際は、図3に示したニューラルネットの第1層の4つの
ニューロンと第2層の右上4つのニューロンに、これら
の状態が表現されている。
て、図7と同様に 24=16本の枝が展開され、ある
枝は削除され、ある枝は葉となり、ある枝はノードとな
る。ノードとなった枝は、更に枝を展開しなければなら
なく、最終的に全ての枝の末端は葉となる。図8では、
右から3番目のノードの展開結果を、簡単のため、第1
層と第2層を重ね書きすることによって示してある。実
際は、図3に示したニューラルネットの第1層の4つの
ニューロンと第2層の右上4つのニューロンに、これら
の状態が表現されている。
【0062】(3)N−gramテーブル作成フェーズ (2)分類木作成フェーズの結果得られる分類木の第1
層は、図8に見られるように認識すべき全カテゴリーを
その形状に基づいて大分類したことと等価になる。 よって、この大分類カテゴリーグループに基づいて(大
分類カテゴリーグループを仮想的なカテゴリーとみなし
て)N−gramを作成すれば、より少ないデータベー
スで信頼性の高い状態遷移確率が求まることになる。
層は、図8に見られるように認識すべき全カテゴリーを
その形状に基づいて大分類したことと等価になる。 よって、この大分類カテゴリーグループに基づいて(大
分類カテゴリーグループを仮想的なカテゴリーとみなし
て)N−gramを作成すれば、より少ないデータベー
スで信頼性の高い状態遷移確率が求まることになる。
【0063】但し、ここで注意しなければいけないこと
は、分類木作成フェーズの結果得られる分類木の第1層
は必ずしも排他的ではないということである。例えば、
図8において、「1」のカテゴリーは4つの枝(または
ノード)に存在する。この現象は、文献“A Survery of
Decision Tree Classifier Methodology"(IEEE Transa
ctions on Systems, Man, Cybernetics vol.21, No.3,
May/June 1991)にもあるように、“overlap classes"と
呼ばれる一般的な現象である。
は、分類木作成フェーズの結果得られる分類木の第1層
は必ずしも排他的ではないということである。例えば、
図8において、「1」のカテゴリーは4つの枝(または
ノード)に存在する。この現象は、文献“A Survery of
Decision Tree Classifier Methodology"(IEEE Transa
ctions on Systems, Man, Cybernetics vol.21, No.3,
May/June 1991)にもあるように、“overlap classes"と
呼ばれる一般的な現象である。
【0064】この“overlap classes"を排他的なものに
するために、例えば、あるカテゴリーが存在する確率が
一番高い枝をそのカテゴリーの専属枝とする方法があ
る。図8において、「1」のカテゴリーが左から2番目
の枝に存在する確率が一番高いとすれば、左から1番
目、3番目、6番目に存在する「1」のカテゴリーを無
視する。
するために、例えば、あるカテゴリーが存在する確率が
一番高い枝をそのカテゴリーの専属枝とする方法があ
る。図8において、「1」のカテゴリーが左から2番目
の枝に存在する確率が一番高いとすれば、左から1番
目、3番目、6番目に存在する「1」のカテゴリーを無
視する。
【0065】このようにして作成された大分類カテゴリ
ーグループの例を図9に示す。この図9において、○を
つけた数字のカテゴリーは存在確率が一番高かったもの
である。例えば、この図によれば、左から「1」が第1
カテゴリーグループ、「4」「6」が第2カテゴリーグ
ループ、「7」「9」が第3カテゴリーグループ、
「0」「2」「3」「5」「8」が第4カテゴリーグル
ープを形成し、結果的に当初10個あったカテゴリーが
4つにグループ化されたことになる。この4つのグルー
プを新たに仮想的カテゴリーとしてN−gramを作成
するわけである。
ーグループの例を図9に示す。この図9において、○を
つけた数字のカテゴリーは存在確率が一番高かったもの
である。例えば、この図によれば、左から「1」が第1
カテゴリーグループ、「4」「6」が第2カテゴリーグ
ループ、「7」「9」が第3カテゴリーグループ、
「0」「2」「3」「5」「8」が第4カテゴリーグル
ープを形成し、結果的に当初10個あったカテゴリーが
4つにグループ化されたことになる。この4つのグルー
プを新たに仮想的カテゴリーとしてN−gramを作成
するわけである。
【0066】このようにして作成されたN−gramテ
ーブルは、分類木作成フェーズの結果得られた分類木の
情報を使用して作成されてはいるが、一般的な文章認識
アルゴリズムに組み込んで使用することができるもので
ある。つまり、文章の事前確率を求める際にこのN−g
ramテーブルを使用し、事後確率を求める際に前記分
類木を使用せず、全く異なった認識アルゴリズムを使用
しても良い。
ーブルは、分類木作成フェーズの結果得られた分類木の
情報を使用して作成されてはいるが、一般的な文章認識
アルゴリズムに組み込んで使用することができるもので
ある。つまり、文章の事前確率を求める際にこのN−g
ramテーブルを使用し、事後確率を求める際に前記分
類木を使用せず、全く異なった認識アルゴリズムを使用
しても良い。
【0067】言うまでもないが、N−gramテーブル
で文章の事前確率を求めながら文章認識を行うアルゴリ
ズムとしては、DPマッチングや全探索アルゴリズム等
の公知のアルゴリズムに組み込んで、文章を形成する個
々のパターン形状の組み合わせを全て含めた全パターン
の事前確率を求めてもよい。また、上記の説明では、分
類木の第1層を大分類カテゴリーと見なしたが、任意の
n層までをもって大分類カテゴリーグループと見なして
もよい。
で文章の事前確率を求めながら文章認識を行うアルゴリ
ズムとしては、DPマッチングや全探索アルゴリズム等
の公知のアルゴリズムに組み込んで、文章を形成する個
々のパターン形状の組み合わせを全て含めた全パターン
の事前確率を求めてもよい。また、上記の説明では、分
類木の第1層を大分類カテゴリーと見なしたが、任意の
n層までをもって大分類カテゴリーグループと見なして
もよい。
【0068】<実施の形態2>図10は、実施の形態2
での処理方法を表す図面である。1001は学習用スト
ロークであり、ストローク分割ステップS1002で
は、この学習用ストロークを複数のストローク切片分割
する。ベクトル化ステップS1003では、ストローク
分割ステップS1002において分割されたストローク
切片をベクトル量子化する。
での処理方法を表す図面である。1001は学習用スト
ロークであり、ストローク分割ステップS1002で
は、この学習用ストロークを複数のストローク切片分割
する。ベクトル化ステップS1003では、ストローク
分割ステップS1002において分割されたストローク
切片をベクトル量子化する。
【0069】階層化前処理ステップS1004では、ベ
クトル化ステップS1003の結果得られたベクトル系
列を階層的に処理し、階層化されたベクトル系列100
5を生成する。尚、この処理の詳細は後述する。分類木
作成ステップS1006では、階層化されたベクトル系
列1005を元に分類木1008を作成する。
クトル化ステップS1003の結果得られたベクトル系
列を階層的に処理し、階層化されたベクトル系列100
5を生成する。尚、この処理の詳細は後述する。分類木
作成ステップS1006では、階層化されたベクトル系
列1005を元に分類木1008を作成する。
【0070】展開ベクトル判別ステップS1007は、
分類木作成ステップS1006が分類木を作成する過程
で使用される処理工程である。N−gramテーブル作
成ステップS1010では、文章データベース1009
と分類木1008を元にN−gramテーブル1011
を作成する。図10の処理フローでの入力は、生の学習
用パターン(学習用ストローク1001)および、文章
データベース1009であり、出力はN−gram(N
−gram1011)となる。
分類木作成ステップS1006が分類木を作成する過程
で使用される処理工程である。N−gramテーブル作
成ステップS1010では、文章データベース1009
と分類木1008を元にN−gramテーブル1011
を作成する。図10の処理フローでの入力は、生の学習
用パターン(学習用ストローク1001)および、文章
データベース1009であり、出力はN−gram(N
−gram1011)となる。
【0071】以下、図11から図15に基づいて、N−
gram生成方法について詳細に述べる。読者の理解を
容易にするために、認識対象とするカテゴリーとして、
1画で書かれた「く」「し」「つ」の3種類の文字での
処理を一例として説明する。また、辞書作成用の学習パ
ターンは、「く」「し」「つ」それぞれ100個存在す
るとする。
gram生成方法について詳細に述べる。読者の理解を
容易にするために、認識対象とするカテゴリーとして、
1画で書かれた「く」「し」「つ」の3種類の文字での
処理を一例として説明する。また、辞書作成用の学習パ
ターンは、「く」「し」「つ」それぞれ100個存在す
るとする。
【0072】なお、これらを、 TPi,j(Traning Pattern i,j) と名前付ける。ここで、iはカテゴリーを表すサフィッ
クスで、 0 <= i <= 2 の範囲の値をとる。また、jは学習パターンナンバーを
示すサフィックスで、 1 <= j <= 100 の範囲の値をとる。
クスで、 0 <= i <= 2 の範囲の値をとる。また、jは学習パターンナンバーを
示すサフィックスで、 1 <= j <= 100 の範囲の値をとる。
【0073】本実施の形態のオンライン手書き文字認識
用辞書作成方法は、図11のフローチャートに示すよう
に、ベクトル生成フェーズ、階層化前処理フェーズ、分
類木作成フェーズ、N−gramテーブル作成フェーズ
の4段階のステップをへて実行される。 (1)ベクトル生成フェーズ 図12に基づいて、ベクトル生成フェーズの様子を詳し
く述べる。
用辞書作成方法は、図11のフローチャートに示すよう
に、ベクトル生成フェーズ、階層化前処理フェーズ、分
類木作成フェーズ、N−gramテーブル作成フェーズ
の4段階のステップをへて実行される。 (1)ベクトル生成フェーズ 図12に基づいて、ベクトル生成フェーズの様子を詳し
く述べる。
【0074】まず、学習用ストロークはn分割(図12
ではn=8となっている)される。図12では、このn
分割は、ストローク距離に関するn等分となっている
が、本実施の形態はこれに制限されるものではない。例
えば、始点終点付近のストロークの状態が不安定なスト
ローク入力装置であれば、始点終点付近のストロークを
いくら詳しくベクトル化してもあまり意味がない。この
ような場合は、n分割における最初と最後の分割は、そ
の他の分割に比べて長くとってもよい。
ではn=8となっている)される。図12では、このn
分割は、ストローク距離に関するn等分となっている
が、本実施の形態はこれに制限されるものではない。例
えば、始点終点付近のストロークの状態が不安定なスト
ローク入力装置であれば、始点終点付近のストロークを
いくら詳しくベクトル化してもあまり意味がない。この
ような場合は、n分割における最初と最後の分割は、そ
の他の分割に比べて長くとってもよい。
【0075】次に、n分割されたそれぞれのバクトル切
片をベクトル量子化する。図12においては、番号0か
ら番号11までの12方向の基本ベクトルにベクトル量
子化している。尚、この基本ベクトルの方向は、360
度の中で等間隔に並んでいるが、本実施の形態は、これ
に制限されるものではない。
片をベクトル量子化する。図12においては、番号0か
ら番号11までの12方向の基本ベクトルにベクトル量
子化している。尚、この基本ベクトルの方向は、360
度の中で等間隔に並んでいるが、本実施の形態は、これ
に制限されるものではない。
【0076】例えば、図12の12方向の基本ベクトル
の中で、実際左上方向の(例えば番号10や番号11)
基本ベクトルは、筆記ストロークの中にあまり出てこな
い。この場合は、これらの部分はもっと角度の間隔の開
いた基本ベクトルのセットを用いてもよい。以上、ベク
トル生成フェーズにおいて、図10のストローク分割ス
テップS1002とベクトル化ステップS1003が学
習用ストローク全てに対して施される。
の中で、実際左上方向の(例えば番号10や番号11)
基本ベクトルは、筆記ストロークの中にあまり出てこな
い。この場合は、これらの部分はもっと角度の間隔の開
いた基本ベクトルのセットを用いてもよい。以上、ベク
トル生成フェーズにおいて、図10のストローク分割ス
テップS1002とベクトル化ステップS1003が学
習用ストローク全てに対して施される。
【0077】図12の例では、「〜」形のストローク
が、基本ベクトル系列 12455421 に変換される。 (2)階層化前処理フェーズ 次に、ベクトル化された学習用ストロークは、ピラミッ
ド状に階層化する前処理が施される。
が、基本ベクトル系列 12455421 に変換される。 (2)階層化前処理フェーズ 次に、ベクトル化された学習用ストロークは、ピラミッ
ド状に階層化する前処理が施される。
【0078】図13にその1例を示す。図13において
は、ベクトル化ステップS1003の結果得られたベク
トル系列の隣り合う2個のベクトルの平均ベクトルを上
の階層に出力することによって、ベクトル情報が順次半
分になっている(縮退している)。結局、図13におい
て、8個の基本ベクトル系列で表されたストロークを、
順次4個、2個、1個のベクトルにそれぞれ変換してい
ることになる。
は、ベクトル化ステップS1003の結果得られたベク
トル系列の隣り合う2個のベクトルの平均ベクトルを上
の階層に出力することによって、ベクトル情報が順次半
分になっている(縮退している)。結局、図13におい
て、8個の基本ベクトル系列で表されたストロークを、
順次4個、2個、1個のベクトルにそれぞれ変換してい
ることになる。
【0079】この隣り合う2個のベクトルを平均する一
方法を、図14に基づいて詳しく述べる。なお、図12
においては、基本ベクトルを12方向としたが、図14
では、説明を簡単にするために便宜上、8方向とする。
このように、基本ベクトルの総数や個々の基本ベクトル
の方向を変化させても本発明の本質は変わらない。
方法を、図14に基づいて詳しく述べる。なお、図12
においては、基本ベクトルを12方向としたが、図14
では、説明を簡単にするために便宜上、8方向とする。
このように、基本ベクトルの総数や個々の基本ベクトル
の方向を変化させても本発明の本質は変わらない。
【0080】また基本ベクトルは8方向であるという前
提で、以下、実施の形態を記述する。いま、隣り合う2
個のベクトルの最初の番号をpre、後の番号をpos
tで示すことにする。この時、2個のベクトルの平均は
単純には (pre+post)/2 となるが、これが基本ベクトルにならない場合が存在す
る。
提で、以下、実施の形態を記述する。いま、隣り合う2
個のベクトルの最初の番号をpre、後の番号をpos
tで示すことにする。この時、2個のベクトルの平均は
単純には (pre+post)/2 となるが、これが基本ベクトルにならない場合が存在す
る。
【0081】一般的に、8方向の等分割ベクトルの平均
ベクトルは16方向存在するので、これを8方向にしな
くてはいけない。図14は、この方法を示している。図
14の大きな→は上の階層で右向き(番号2)のベクト
ルが存在することを意味し、その下に書かれた8組のベ
クトルは、下の階層で存在しうるベクトルを意味する。
ベクトルは16方向存在するので、これを8方向にしな
くてはいけない。図14は、この方法を示している。図
14の大きな→は上の階層で右向き(番号2)のベクト
ルが存在することを意味し、その下に書かれた8組のベ
クトルは、下の階層で存在しうるベクトルを意味する。
【0082】つまり、上の階層で番号2のベクトルにな
る(pre,post)の組みを (2,2)(1,3)(3,1)(0,4)(2,3)(3,2)(3,4)(4,3) の8組にしていることになる。これは、preとpos
tの値の平均 (pre+post)/2 が1.5より大、かつ2.5以下という条件である。
る(pre,post)の組みを (2,2)(1,3)(3,1)(0,4)(2,3)(3,2)(3,4)(4,3) の8組にしていることになる。これは、preとpos
tの値の平均 (pre+post)/2 が1.5より大、かつ2.5以下という条件である。
【0083】上の階層のベクトルの番号が番号2以外の
場合は、図14のベクトル組み合わせを全て45度ずつ
回転して得られるベクトル組み合わせを用いる。なお、
この上の階層のベクトルと下の階層の2個のベクトルの
組み合わせは図14に限ったものではなく、上の階層の
ベクトルが下の階層の2個の平均ベクトルと見なせうる
組み合わせであれば、何でもよい。
場合は、図14のベクトル組み合わせを全て45度ずつ
回転して得られるベクトル組み合わせを用いる。なお、
この上の階層のベクトルと下の階層の2個のベクトルの
組み合わせは図14に限ったものではなく、上の階層の
ベクトルが下の階層の2個の平均ベクトルと見なせうる
組み合わせであれば、何でもよい。
【0084】(3)分類木作成フェーズ (2)の階層化前処理フェーズをへて、学習用ストロー
ク(TPi,j)の全てが、図13に示すようなベクトル
のピラミッドに下から上へ展開される。分類木の作成で
は、このベクトルのピラミッド化とは逆に、上から下へ
行われる。なお、以下説明において、基本ベクトルは図
14にある番号0から番号7までの8方向(個)である
と仮定する。よって、ベクトルのピラミッド上にあるベ
クトルも全てこの基本ベクトルのどれかである。
ク(TPi,j)の全てが、図13に示すようなベクトル
のピラミッドに下から上へ展開される。分類木の作成で
は、このベクトルのピラミッド化とは逆に、上から下へ
行われる。なお、以下説明において、基本ベクトルは図
14にある番号0から番号7までの8方向(個)である
と仮定する。よって、ベクトルのピラミッド上にあるベ
クトルも全てこの基本ベクトルのどれかである。
【0085】最上位の層のベクトルの状態は8個存在す
るので、ルートノードから8本の枝が伸びることとな
る。この時、枝に存在する学習用ストローク(TPi,
j)の数を数える。この結果によって、以後の処理が3
つにわかれる。 学習用ストローク(TPi,j)が1つも存在しない場
合 この場合は、その枝を削除する。
るので、ルートノードから8本の枝が伸びることとな
る。この時、枝に存在する学習用ストローク(TPi,
j)の数を数える。この結果によって、以後の処理が3
つにわかれる。 学習用ストローク(TPi,j)が1つも存在しない場
合 この場合は、その枝を削除する。
【0086】学習用ストローク(TPi,j)の中で、
あるカテゴリー(例えば「つ」のストロークのみ存在す
る場合 この場合は、この枝を葉とし、カテゴリーの番号(例え
ば「つ」を割り振る。 上記1、2以外の場合、即ち、複数カテゴリーのスト
ロークが混合して存在する場合 この場合、この枝をノードとして、更に分類木の作成を
続ける。
あるカテゴリー(例えば「つ」のストロークのみ存在す
る場合 この場合は、この枝を葉とし、カテゴリーの番号(例え
ば「つ」を割り振る。 上記1、2以外の場合、即ち、複数カテゴリーのスト
ロークが混合して存在する場合 この場合、この枝をノードとして、更に分類木の作成を
続ける。
【0087】図15にこの処理の結果を示す。枝の状態
は、図13の最上位の層、即ち、第1層のベクトルの状
況を図示することによって示してある。存在するカテゴ
リーの種類の欄が「×」となっている枝は、上記学習
用ストローク(TPi,j)が1つも存在しない場合に
相当し、削除される。左から3番目の枝は「つ」のカテ
ゴリーの学習用ストロークしか存在しない。これは、上
記学習用ストローク(TPi,j)の中で、あるカテゴ
リー(例えば「つ」)のストロークのみ存在する場合に
相当し、葉となる。
は、図13の最上位の層、即ち、第1層のベクトルの状
況を図示することによって示してある。存在するカテゴ
リーの種類の欄が「×」となっている枝は、上記学習
用ストローク(TPi,j)が1つも存在しない場合に
相当し、削除される。左から3番目の枝は「つ」のカテ
ゴリーの学習用ストロークしか存在しない。これは、上
記学習用ストローク(TPi,j)の中で、あるカテゴ
リー(例えば「つ」)のストロークのみ存在する場合に
相当し、葉となる。
【0088】例えば、左から4番目と5番目の枝には
「く」「し」「つ」のカテゴリーの学習用ストロークが
存在し、上記上記1、2以外の場合、即ち、複数カテ
ゴリーのストロークが混合して存在する場合に相当し、
ノードとなる。次に、このノードから枝を作成する方法
について述べる。このノードから枝を作成する際に、最
も効率の良い枝の作成を行いたい。最も効率が良いと
は、結局、枝を展開したときに、最も多くカテゴリーに
関する情報が得られるということである。
「く」「し」「つ」のカテゴリーの学習用ストロークが
存在し、上記上記1、2以外の場合、即ち、複数カテ
ゴリーのストロークが混合して存在する場合に相当し、
ノードとなる。次に、このノードから枝を作成する方法
について述べる。このノードから枝を作成する際に、最
も効率の良い枝の作成を行いたい。最も効率が良いと
は、結局、枝を展開したときに、最も多くカテゴリーに
関する情報が得られるということである。
【0089】以下、展開したときに最も効率の良くなる
ベクトルを選ぶ方法を説明する。あるノードに存在する
学習用ストローク(TPi,j)の中で、カテゴリー番号
iの数をNiで表す。このノードに存在する学習用スト
ロークの総数をNとすると、このノードにおけるそれぞ
れのカテゴリーの存在確率piは、 pi=Ni/N で表される。なお、
ベクトルを選ぶ方法を説明する。あるノードに存在する
学習用ストローク(TPi,j)の中で、カテゴリー番号
iの数をNiで表す。このノードに存在する学習用スト
ロークの総数をNとすると、このノードにおけるそれぞ
れのカテゴリーの存在確率piは、 pi=Ni/N で表される。なお、
【0090】
【数9】
【0091】よって、このノードの情報が得られたとき
のエントロピーは、以下の式で表される。
のエントロピーは、以下の式で表される。
【0092】
【数10】 (式6)
【0093】次に、このノードにおいて、あるベクトル
を選択して、そこから枝を展開したときのエントロピー
の減少量を計算する。
を選択して、そこから枝を展開したときのエントロピー
の減少量を計算する。
【0094】上述の通り、1つのベクトルを下の層に向
かって展開したときの枝の数は8本である。この8本の
枝に学習用ストローク(TPi,j)がどのように分布す
るかを、展開したときの枝に存在する学習用ストローク
(TPi,j)の数Ni,bで表す。Ni,bのiはカテゴリー
番号を示し、bは枝(branch)の番号を示す。
かって展開したときの枝の数は8本である。この8本の
枝に学習用ストローク(TPi,j)がどのように分布す
るかを、展開したときの枝に存在する学習用ストローク
(TPi,j)の数Ni,bで表す。Ni,bのiはカテゴリー
番号を示し、bは枝(branch)の番号を示す。
【0095】この時、それぞれの枝の情報が得られたと
きのエントロピーは、上の議論と同じく、
きのエントロピーは、上の議論と同じく、
【0096】
【数11】 (式7)
【0097】この式で、
【0098】
【数12】
【0099】は枝に存在する学習用ストローク(TPi,
j)の総数を表す。それぞれの枝にいく確率は、
j)の総数を表す。それぞれの枝にいく確率は、
【0100】
【数13】
【0101】ここで、Nは(式6)のNと同じなので、
結局、枝を展開したときの平均エントロピーは
結局、枝を展開したときの平均エントロピーは
【0102】
【数14】 (式8)
【0103】となる。結局、エントロピーの平均減少値
は、
は、
【0104】
【数15】 (式9)
【0105】となる。そして、この値を枝の数の対数で
割った値
割った値
【0106】
【数16】 (式10)
【0107】が、枝を展開したときの分類効率を表すこ
とになる。この値が最高となるベクトルを選び、枝を展
開していく。
とになる。この値が最高となるベクトルを選び、枝を展
開していく。
【0108】なお、1つのベクトルのみを展開するので
はなく、複数のベクトルのグループに関して枝を展開し
てもよい。この場合、(式10)のBranchNum
berは、 (選択されたベクトルの数)×8 となる。
はなく、複数のベクトルのグループに関して枝を展開し
てもよい。この場合、(式10)のBranchNum
berは、 (選択されたベクトルの数)×8 となる。
【0109】また、本実施の形態においては、(式1
0)で表される値を枝を展開したときの分類効率を表す
値として採用したが、例えば、文献「Classfication an
dRegression Trees」に記載されている“Gini criterio
n”等の枝の展開効率を表す関数ならば、(式10)に
限らず何でもよい。以上、展開するベクトル、またはベ
クトルの組みが決定されれば、それに従って、枝を展開
し、葉及びノードを作成していく。
0)で表される値を枝を展開したときの分類効率を表す
値として採用したが、例えば、文献「Classfication an
dRegression Trees」に記載されている“Gini criterio
n”等の枝の展開効率を表す関数ならば、(式10)に
限らず何でもよい。以上、展開するベクトル、またはベ
クトルの組みが決定されれば、それに従って、枝を展開
し、葉及びノードを作成していく。
【0110】そして、最後、全部、葉になったところ
で、分類木作成を完了する。以上、本実施の形態では、
学習ストロークが1本という前提で、本実施の形態に係
わるオンライン手書き文字認識用の辞書作成方法を述べ
てきたが、実際には複数本のストロークが入力文字とし
て切り出されるシステムであっても、それぞれのストロ
ークを本実施の形態と同様に処理することによって対応
できることはいうまでもない。
で、分類木作成を完了する。以上、本実施の形態では、
学習ストロークが1本という前提で、本実施の形態に係
わるオンライン手書き文字認識用の辞書作成方法を述べ
てきたが、実際には複数本のストロークが入力文字とし
て切り出されるシステムであっても、それぞれのストロ
ークを本実施の形態と同様に処理することによって対応
できることはいうまでもない。
【0111】(4)N−gramテーブル作成フェーズ この処理は、実施の形態1と同様に、(3)分類木作成
フェーズまでの説明で得られた分類木を元にN−gra
mテーブルを作成する。以上説明したN−gramの各
要素の単位は“1文字の語”としたが、これは単語等の
文節でもよいことは言うまでもないなお、本発明は、複
数の機器から構成されるシステムに適用しても、一つの
機器からなる装置に適用してもよい。
フェーズまでの説明で得られた分類木を元にN−gra
mテーブルを作成する。以上説明したN−gramの各
要素の単位は“1文字の語”としたが、これは単語等の
文節でもよいことは言うまでもないなお、本発明は、複
数の機器から構成されるシステムに適用しても、一つの
機器からなる装置に適用してもよい。
【0112】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
【0113】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。プログラムコードを供給
するための記憶媒体としては、例えば、フロッピディス
ク,ハードディスク,光ディスク,光磁気ディスク,C
D−ROM,CD−R,磁気テープ,不揮発性のメモリ
カード,ROMなどを用いることができる。
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。プログラムコードを供給
するための記憶媒体としては、例えば、フロッピディス
ク,ハードディスク,光ディスク,光磁気ディスク,C
D−ROM,CD−R,磁気テープ,不揮発性のメモリ
カード,ROMなどを用いることができる。
【0114】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
【0115】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
【0116】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャートに対応す
るプログラムコードを格納することになるが、簡単に説
明すると、図16のメモリマップ例に示す各モジュール
を記憶媒体に格納することになる。すなわち、少なくと
も、ステップS102、ステップS1004「階層化前
処理モジュール」、ステップS104、ステップS10
06での処理に対応する「分類木作成モジュール」、ス
テップS105、ステップS1007での処理に対応す
る「展開変数判別モジュール」、ステップS108、ス
テップS1010での処理に対応する「N−gramテ
ーブル作成モジュール」、ステップS1002での処理
に対応する「ストローク分割処理モジュール」、ステッ
プS1003での処理に対応する「ベクトル化処理モジ
ュール」の各モジュールのプログラムコードを記憶媒体
に格納すればよい。
の記憶媒体には、先に説明したフローチャートに対応す
るプログラムコードを格納することになるが、簡単に説
明すると、図16のメモリマップ例に示す各モジュール
を記憶媒体に格納することになる。すなわち、少なくと
も、ステップS102、ステップS1004「階層化前
処理モジュール」、ステップS104、ステップS10
06での処理に対応する「分類木作成モジュール」、ス
テップS105、ステップS1007での処理に対応す
る「展開変数判別モジュール」、ステップS108、ス
テップS1010での処理に対応する「N−gramテ
ーブル作成モジュール」、ステップS1002での処理
に対応する「ストローク分割処理モジュール」、ステッ
プS1003での処理に対応する「ベクトル化処理モジ
ュール」の各モジュールのプログラムコードを記憶媒体
に格納すればよい。
【0117】以上説明したように、本発明によれば、文
章を構成するパターンの所属するカテゴリーを大分類し
たグループに関してN−gramテーブルを作成できる
ことによって、少ない量の文章データベースでも信頼性
の高いN−gramテーブルが作成できるという効果が
ある。また、パターンの形状の似かより方をうまく反映
させたカテゴリーのグループかを行っているので、高い
文章認識率が実現できるという効果がある。
章を構成するパターンの所属するカテゴリーを大分類し
たグループに関してN−gramテーブルを作成できる
ことによって、少ない量の文章データベースでも信頼性
の高いN−gramテーブルが作成できるという効果が
ある。また、パターンの形状の似かより方をうまく反映
させたカテゴリーのグループかを行っているので、高い
文章認識率が実現できるという効果がある。
【0118】
【発明の効果】以上説明したように本発明によれば、文
字パターンから効率よく階層化文字パターンを生成する
ことができる。また、生成された階層化文字パターンに
基づいて、上の階層でカテゴリーの競合が最も激しく、
かつ、すぐ下の階層でカテゴリーが良く分離される構造
の分類木を生成することができる。
字パターンから効率よく階層化文字パターンを生成する
ことができる。また、生成された階層化文字パターンに
基づいて、上の階層でカテゴリーの競合が最も激しく、
かつ、すぐ下の階層でカテゴリーが良く分離される構造
の分類木を生成することができる。
【0119】また、生成された分類木からメモリ効率の
よいN−gramテーブルを生成することができる。さ
らに、生成されたN−gramテーブルを検索して、高
認識率かつ高速な認識が可能となる。
よいN−gramテーブルを生成することができる。さ
らに、生成されたN−gramテーブルを検索して、高
認識率かつ高速な認識が可能となる。
【図1】本実施の形態の情報処理装置の構成を示すブロ
ック図である。
ック図である。
【図2】本発明の情報処理手順の概念を示す図である。
【図3】実施の形態1の情報処理方法における処理手順
の一部を示すピラミッド型ニューラルネットの構造図で
ある。
の一部を示すピラミッド型ニューラルネットの構造図で
ある。
【図4】実施の形態1の情報処理の流れを示すフローチ
ャートである。
ャートである。
【図5】実施の形態1の学習用パターンの例を示す図で
ある。
ある。
【図6】実施の形態1の階層化された学習用パターンの
例を示す図である。
例を示す図である。
【図7】実施の形態の情報処理方法における分類木作成
過程を示す図である。
過程を示す図である。
【図8】実施の形態1の情報処理方法で生成された分類
木の様子を示す図である。
木の様子を示す図である。
【図9】実施の形態1の情報処理方法における大分類カ
テゴリーグループ分けの例を示す図である。
テゴリーグループ分けの例を示す図である。
【図10】実施の形態2の情報処理手順の概念を示す図
である。
である。
【図11】実施の形態2の情報処理の流れを示すフロー
チャートである。
チャートである。
【図12】実施の形態2のストローク生成フェーズの処
理を説明するための図である。
理を説明するための図である。
【図13】実施の形態2の階層化されたベクトル系列を
示す図である。
示す図である。
【図14】実施の形態2でのベクトル平均化処理を説明
するための図である。
するための図である。
【図15】実施の形態2の分類木の様子を示す図であ
る。
る。
【図16】本実施の形態のプログラムモジュールのメモ
リレイアウト例を示す図である。
リレイアウト例を示す図である。
201 パターン入力装置 202 表示装置 203 中央処理装置 204 メモリ
Claims (35)
- 【請求項1】 階層化文字パターンを生成する情報処理
方法であって、 複数の領域に分割された文字パターンにおいて、前記複
数の領域の互いに近傍の部分領域の文字データの論理和
を計算して、縮退された文字パターンを生成する縮退パ
ターン生成工程と、 前記生成された縮退された文字パターンの複数の領域の
互いに近傍の部分領域のデータの論理和を計算して、第
2の縮退された文字パターンを生成する第2縮退パター
ン生成工程と、 前記第2縮退パターン生成工程で生成された縮退された
文字パターンに基づいて、前記第2縮退パターン生成工
程の処理を所定のn回繰り返すことによって、n−1層
の階層化文字パターンを生成する繰り返し工程とを備え
ることを特徴する情報処理方法。 - 【請求項2】 前記複数の領域に分割された文字パター
ンは、文字認識辞書のための学習用文字パターンである
ことを特徴する請求項1に記載の情報処理方法。 - 【請求項3】 前記複数の領域は、等サイズの矩形であ
ることを特徴する請求項1に記載の情報処理方法。 - 【請求項4】 前記近傍の部分領域の範囲は、連接する
2x2の4個の部分領域であることを特徴する請求項1
に記載の情報処理方法。 - 【請求項5】 前記繰り返し工程で生成された複数の階
層化文字パターンのに基づいて、分類木を生成する分類
木生成工程をさらに備え、前記分類木生成工程は、 前記階層化文字パターンの各層で、縮退された文字部分
パターンを含む部分領域から、より下位の層での対応す
る文字部分パターンを含む部分領域にリンクを生成する
リンク生成工程と、 前記リンク生成工程での処理を、より下位の層に対応す
る文字部分パターンを含む部分領域がなくなるまで繰り
返して、分類木を生成する繰り返し工程とを備えること
を特徴とする請求項1に記載の情報処理方法。 - 【請求項6】 前記リンク生成工程は、前記階層化文字
パターンの各層で、縮退された文字部分パターンを含む
部分領域から所定のエントロピー関数が最大となる部分
領域を選択して、選択された部分領域に対応するより下
位層での文字部分パターンを含む部分領域にリンクを生
成することを特徴とする請求項1に記載の情報処理方
法。 - 【請求項7】 前記エントロピー関数は、前記階層化文
字パターンの各層で、縮退された文字部分パターンを含
む部分領域うちの1つの部分領域に対応する下位層の部
分領域の情報が得られた時のエントロピーの減少値を出
力する関数であることを特徴とする請求項6に記載の情
報処理方法。 - 【請求項8】 所定の階層化された文字パターンを、前
記分類木生成工程で生成された分類木に適用してN−g
ramテーブルを生成するN−gramテーブル生成工
程をさらに備えることを特徴とする請求項1に記載の情
報処理方法。 - 【請求項9】 前記N−gramテーブル生成工程は、 所定の階層化された文字パターンを、前記分類木生成工
程で生成された分類木に適用して、前記分類木の各ノー
ドの発生確率を生成する発生確率生成工程と、 同じカテゴリに所属する複数の文字パターンが別のリン
クに所属している場合、最も発生確率の高い文字パター
ンが所属するリンクを選択して、前記リンク以外に所属
する同じカテゴリに所属する文字パターンを棄却してN
−gramテーブルを生成する工程とを備えることを特
徴とする請求項8に記載の情報処理方法。 - 【請求項10】 前記N−gramテーブル生成工程で
生成されたN−gramテーブルを検索して、入力した
文字パターンに対応するカテゴリを認識することを特徴
とする請求項8に記載の情報処理方法。 - 【請求項11】 文字認識のための認識辞書である分類
木を生成する方法であって、 所定の学習用ストロークを、複数の区間に分割する分割
工程と、 前記分割工程で分割された各区間のストロークをベクト
ル量子化するベクトル量子化工程と、 前記ベクトル量子化工程で量子化された各区間のストロ
ークの近傍ストロークの組を合成して、より上位のスト
ロークベクトルを生成してゆき、階層化ストロークベク
トル系列を生成する階層化ストロークベクトル生成工程
と、 前記階層化ストロークベクトル生成工程で生成された階
層化ストロークベクトル系列のより上位のストロークベ
クトルから所定のエントロピー関数が最大となるストロ
ークベクトルを選択して、より下位のストロークベクト
ルの組に展開して分類木を生成してゆく分類木生成工程
と、 前記分類木生成工程で生成された分類木に、所定の階層
化された文字ストロークを適用して、N−gramテー
ブルを生成するN−gramテーブル生成工程とを備え
ることを特徴とする情報処理方法。 - 【請求項12】 前記ベクトル量子化工程は、前記分割
工程で分割された各区間のストロークを、近傍ベクトル
の交差角が互いに等しい8つの方向ベクトルに量子化す
ることを特徴とする請求項11に記載の情報処理方法。 - 【請求項13】 前記ベクトル量子化工程は、前記分割
工程で分割された各区間のストロークを、近傍ベクトル
の交差角が互いに等しい16の方向ベクトルに量子化す
ることを特徴とする請求項11に記載の情報処理方法。 - 【請求項14】 前記エントロピー関数は、前記階層化
ストロークベクトル生成工程で生成された階層化ストロ
ークベクトル系列のより上位のストロークベクトルのう
ちの1つのストロークベクトルの下位のベクトル組の情
報が得られた時のエントロピーの減少値を出力する関数
であることを特徴とする請求項11に記載の情報処理方
法。 - 【請求項15】 分類木生成工程はさらに、前記より下
位のストロークベクトルの組に対応する学習用ストロー
クが存在しなければ、前記分類木から前記より下位のス
トロークベクトルの組を無効とすることを特徴とする請
求項11に記載の情報処理方法。 - 【請求項16】 分類木生成工程はさらに、前記より下
位のストロークベクトルの組に対応する単一カテゴリー
の学習用ストロークが存在すれば、前記より下位のスト
ロークベクトルの組に前記カテゴリーの番号を添付する
ことを特徴とする請求項15に記載の情報処理方法。 - 【請求項17】 分類木生成工程はさらに、前記より下
位のストロークベクトルの組に対応する複数カテゴリー
の学習用ストロークが存在すれば、前記より下位のスト
ロークベクトルの組の上位のストロークベクトルから所
定のエントロピー関数が最大となるストロークベクトル
を選択して、より下位のストロークベクトルの組に展開
して分類木を生成することを特徴とする請求項16に記
載の情報処理方法。 - 【請求項18】 前記N−gramテーブル生成工程
は、 所定の階層化された文字ストロークを、前記分類木生成
工程で生成された分類木に適用して、前記分類木の各ノ
ードの発生確率を生成する発生確率生成工程と、 同じカテゴリに所属する複数の文字ストロークが別のリ
ンクに所属している場合、最も発生確率の高い文字スト
ロークが所属するリンクを選択して、前記リンク以外に
所属する同じカテゴリに所属する文字ストロークを棄却
してN−gramテーブルを生成する工程とを備えるこ
とを特徴とする請求項11に記載の情報処理方法。 - 【請求項19】 前記N−gramテーブル生成工程で
生成されたN−gramテーブルを検索して、入力した
文字ストロークに対応するカテゴリを認識することを特
徴とする請求項11に記載の情報処理方法。 - 【請求項20】 階層化文字パターンを生成する情報処
理装置であって、 複数の領域に分割された文字パターンにおいて、前記複
数の領域の互いに近傍の部分領域の文字データの論理和
を計算して、縮退された文字パターンを生成する縮退パ
ターン生成手段と、 前記生成された縮退された文字パターンの複数の領域の
互いに近傍の部分領域のデータの論理和を計算して、第
2の縮退された文字パターンを生成する第2縮退パター
ン生成手段と、 前記第2縮退パターン生成手段で生成された縮退された
文字パターンに基づいて、前記第2縮退パターン生成手
段の処理を所定のn回繰り返すことによって、n−1層
の階層化文字パターンを生成する繰り返し手段とを備え
ることを特徴する情報処理装置。 - 【請求項21】 前記繰り返し手段で生成された複数の
階層化文字パターンのに基づいて、分類木を生成する分
類木生成手段をさらに備え、前記分類木生成手段は、 前記階層化文字パターンの各層で、縮退された文字部分
パターンを含む部分領域から、より下位の層での対応す
る文字部分パターンを含む部分領域にリンクを生成する
リンク生成手段と、 前記リンク生成手段での処理を、より下位の層に対応す
る文字部分パターンを含む部分領域がなくなるまで繰り
返して、分類木を生成する繰り返し手段とを備えること
を特徴とする請求項20に記載の情報処理装置。 - 【請求項22】 前記リンク生成手段は、前記階層化文
字パターンの各層で、縮退された文字部分パターンを含
む部分領域から所定のエントロピー関数が最大となる部
分領域を選択して、選択された部分領域に対応するより
下位層での文字部分パターンを含む部分領域にリンクを
生成することを特徴とする請求項20に記載の情報処理
装置。 - 【請求項23】 前記エントロピー関数は、前記階層化
文字パターンの各層で、縮退された文字部分パターンを
含む部分領域うちの1つの部分領域に対応する下位層の
部分領域の情報が得られた時のエントロピーの減少値を
出力する関数であることを特徴とする請求項20に記載
の情報処理装置。 - 【請求項24】 所定の階層化された文字パターンを、
前記分類木生成手段で生成された分類木に適用してN−
gramテーブルを生成するN−gramテーブル生成
手段をさらに備えることを特徴とする請求項20に記載
の情報処理装置。 - 【請求項25】 前記N−gramテーブル生成手段
は、 所定の階層化された文字パターンを、前記分類木生成手
段で生成された分類木に適用して、前記分類木の各ノー
ドの発生確率を生成する発生確率生成手段と、 同じカテゴリに所属する複数の文字パターンが別のリン
クに所属している場合、最も発生確率の高い文字パター
ンが所属するリンクを選択して、前記リンク以外に所属
する同じカテゴリに所属する文字パターンを棄却してN
−gramテーブルを生成する手段とを備えることを特
徴とする請求項24に記載の情報処理装置。 - 【請求項26】 前記N−gramテーブル生成手段で
生成されたN−gramテーブルを検索して、入力した
文字パターンに対応するカテゴリを認識することを特徴
とする請求項24に記載の情報処理装置。 - 【請求項27】 文字認識のための認識辞書である分類
木を生成する装置であって、 所定の学習用ストロークを、複数の区間に分割する分割
手段と、 前記分割手段で分割された各区間のストロークをベクト
ル量子化するベクトル量子化手段と、 前記ベクトル量子化手段で量子化された各区間のストロ
ークの近傍ストロークの組を合成して、より上位のスト
ロークベクトルを生成してゆき、階層化ストロークベク
トル系列を生成する階層化ストロークベクトル生成手段
と、 前記階層化ストロークベクトル生成手段で生成された階
層化ストロークベクトル系列のより上位のストロークベ
クトルから所定のエントロピー関数が最大となるストロ
ークベクトルを選択して、より下位のストロークベクト
ルの組に展開して分類木を生成してゆく分類木生成手段
と、 前記分類木生成手段で生成された分類木に、所定の階層
化された文字ストロークを適用して、N−gramテー
ブルを生成するN−gramテーブル生成手段とを備え
ることを特徴とする情報処理装置。 - 【請求項28】 前記エントロピー関数は、前記階層化
ストロークベクトル生成手段で生成された階層化ストロ
ークベクトル系列のより上位のストロークベクトルのう
ちの1つのストロークベクトルの下位のベクトル組の情
報が得られた時のエントロピーの減少値を出力する関数
であることを特徴とする請求項27に記載の情報処理装
置。 - 【請求項29】 分類木生成手段はさらに、前記より下
位のストロークベクトルの組に対応する学習用ストロー
クが存在しなければ、前記分類木から前記より下位のス
トロークベクトルの組を無効とすることを特徴とする請
求項27に記載の情報処理装置。 - 【請求項30】 分類木生成手段はさらに、前記より下
位のストロークベクトルの組に対応する単一カテゴリー
の学習用ストロークが存在すれば、前記より下位のスト
ロークベクトルの組に前記カテゴリーの番号を添付する
ことを特徴とする請求項29に記載の情報処理装置。 - 【請求項31】 分類木生成手段はさらに、前記より下
位のストロークベクトルの組に対応する複数カテゴリー
の学習用ストロークが存在すれば、前記より下位のスト
ロークベクトルの組の上位のストロークベクトルから所
定のエントロピー関数が最大となるストロークベクトル
を選択して、より下位のストロークベクトルの組に展開
して分類木を生成することを特徴とする請求項30に記
載の情報処理装置。 - 【請求項32】 前記N−gramテーブル生成手段
は、 所定の階層化された文字ストロークを、前記分類木生成
手段で生成された分類木に適用して、前記分類木の各ノ
ードの発生確率を生成する発生確率生成手段と、 同じカテゴリに所属する複数の文字ストロークが別のリ
ンクに所属している場合、最も発生確率の高い文字スト
ロークが所属するリンクを選択して、前記リンク以外に
所属する同じカテゴリに所属する文字ストロークを棄却
してN−gramテーブルを生成する手段とを備えるこ
とを特徴とする請求項27に記載の情報処理装置。 - 【請求項33】 前記N−gramテーブル生成手段で
生成されたN−gramテーブルを検索して、入力した
文字ストロークに対応するカテゴリを認識することを特
徴とする請求項27に記載の情報処理装置。 - 【請求項34】 コンピュータプログラム製品であっ
て、 階層化文字パターンを生成する、コンピュータ読み取り
可能なプログラムコード手段を有するコンピュータ使用
可能な媒体を備え、前記コンピュータプログラム製品
は、 複数の領域に分割された文字パターンにおいて、前記複
数の領域の互いに近傍の部分領域の文字データの論理和
を計算して、縮退された文字パターンを生成する、コン
ピュータ読み取り可能な第1プログラムコード手段と、 前記生成された縮退された文字パターンの複数の領域の
互いに近傍の部分領域のデータの論理和を計算して、第
2の縮退された文字パターンを生成する、コンピュータ
読み取り可能な第2プログラムコード手段と、 前記生成された縮退された文字パターンに基づいて、前
記第2プログラムコード手段の処理を所定のn回繰り返
すことによって、n−1層の階層化文字パターンを生成
する、コンピュータ読み取り可能なプログラムコード手
段とを備えることを特徴する。 - 【請求項35】 コンピュータプログラム製品であっ
て、 文字認識のための認識辞書である分類木を生成する、コ
ンピュータ読み取り可能なプログラムコード手段を有す
るコンピュータ使用可能な媒体を備え、前記コンピュー
タプログラム製品は、 所定の学習用ストロークを、複数の区間に分割する、コ
ンピュータ読み取り可能なプログラムコード手段と、 前記分割された各区間のストロークをベクトル量子化す
る、コンピュータ読み取り可能なプログラムコード手段
と、 前記量子化された各区間のストロークの近傍ストローク
の組を合成して、より上位のストロークベクトルを生成
してゆき、階層化ストロークベクトル系列を生成する、
コンピュータ読み取り可能なプログラムコード手段と、 前記生成された階層化ストロークベクトル系列のより上
位のストロークベクトルから所定のエントロピー関数が
最大となるストロークベクトルを選択して、より下位の
ストロークベクトルの組に展開して分類木を生成してゆ
く、コンピュータ読み取り可能なプログラムコード手段
と、 前記生成された分類木に、所定の階層化された文字スト
ロークを適用して、N−gramテーブルを生成する、
コンピュータ読み取り可能なプログラムコード手段とを
備えることを特徴とする。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03781696A JP3647127B2 (ja) | 1996-02-26 | 1996-02-26 | 情報処理方法及び装置 |
US08/777,249 US5982933A (en) | 1996-01-12 | 1996-12-31 | Information processing method, information processing apparatus, and storage medium |
EP97100342A EP0784285B1 (en) | 1996-01-12 | 1997-01-10 | Method, apparatus and computer program product for generating a classification tree |
CN97102205A CN1102270C (zh) | 1996-01-12 | 1997-01-10 | 信息处理方法和信息处理设备 |
DE69720564T DE69720564T2 (de) | 1996-01-12 | 1997-01-10 | Verfahren, Gerät und Computerprogrammprodukt zur Erzeugung von einem Klassifikationsbaum |
KR1019970000595A KR100251068B1 (ko) | 1996-01-12 | 1997-01-11 | 정보 처리 방법,정보 처리 장치 및 저장 매체 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03781696A JP3647127B2 (ja) | 1996-02-26 | 1996-02-26 | 情報処理方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09231321A true JPH09231321A (ja) | 1997-09-05 |
JP3647127B2 JP3647127B2 (ja) | 2005-05-11 |
Family
ID=12508058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03781696A Expired - Fee Related JP3647127B2 (ja) | 1996-01-12 | 1996-02-26 | 情報処理方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3647127B2 (ja) |
-
1996
- 1996-02-26 JP JP03781696A patent/JP3647127B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP3647127B2 (ja) | 2005-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100251068B1 (ko) | 정보 처리 방법,정보 처리 장치 및 저장 매체 | |
Daelemans et al. | IGTree: using trees for compression and classification in lazy learning algorithms | |
US6128606A (en) | Module for constructing trainable modular network in which each module inputs and outputs data structured as a graph | |
CN109948149B (zh) | 一种文本分类方法及装置 | |
Le et al. | A system for recognizing online handwritten mathematical expressions by using improved structural analysis | |
US5459809A (en) | Character recognition system and method therefor accommodating on-line discrete and cursive handwritten | |
Singh et al. | Online handwriting recognition systems for Indic and non-Indic scripts: a review | |
Blagojevic et al. | Using data mining for digital ink recognition: Dividing text and shapes in sketched diagrams | |
Abuzaraida et al. | Recognition techniques for online arabic handwriting recognition systems | |
JP3630734B2 (ja) | 情報処理方法 | |
CN115329075A (zh) | 基于分布式机器学习的文本分类方法 | |
CN115687609A (zh) | 一种基于Prompt多模板融合的零样本关系抽取方法 | |
Cheekati et al. | Telugu handwritten character recognition using deep residual learning | |
JP3634574B2 (ja) | 情報処理方法及び装置 | |
Fu | Introduction to syntactic pattern recognition | |
US5757964A (en) | System and method for automatic subcharacter unit and lexicon generation for handwriting recognition | |
Fu | Syntactic approach to pattern recognition | |
JPH0944518A (ja) | 画像データベースの構築方法と、画像データベースの検索方法及び検索装置 | |
CN113673325B (zh) | 一种多特征人物情绪识别方法 | |
JPH09231321A (ja) | 情報処理方法および装置 | |
JP3240303B2 (ja) | シンボル認識システム | |
JP3636525B2 (ja) | 文字認識方法とその装置 | |
Naik et al. | A comparative study of complexity of handwritten Bharati characters with that of major Indian scripts | |
JP3630837B2 (ja) | 情報処理方法及び装置 | |
CN114826921B (zh) | 基于抽样子图的网络资源动态分配方法、系统及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050208 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |