JPH05266227A - ニューロ利用サービス - Google Patents

ニューロ利用サービス

Info

Publication number
JPH05266227A
JPH05266227A JP4064017A JP6401792A JPH05266227A JP H05266227 A JPH05266227 A JP H05266227A JP 4064017 A JP4064017 A JP 4064017A JP 6401792 A JP6401792 A JP 6401792A JP H05266227 A JPH05266227 A JP H05266227A
Authority
JP
Japan
Prior art keywords
neuro
neural network
learning
processing
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4064017A
Other languages
English (en)
Inventor
Takehiko Tanaka
健彦 田中
Masayuki Yokono
雅之 横野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4064017A priority Critical patent/JPH05266227A/ja
Priority to KR93004319A priority patent/KR0131754B1/ko
Publication of JPH05266227A publication Critical patent/JPH05266227A/ja
Priority to US08/351,557 priority patent/US5708727A/en
Priority to US08/451,772 priority patent/US5999922A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 ニューロコンピュータを個人的に有しなくと
もニューロ処理を行えるようにする。 【構成】 利用者端末に対してニューロ処理センターを
備え、利用者からの要求で前記ニューロ処理センターが
ニューロコンピュータによる音声認識や文字フォント作
成などのニューロ処理を行い、その処理結果を利用者に
返すことで、利用者はニューロコンピュータを有しなく
ともニューロ処理結果を利用できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はニューロ処理センターに
おける、ニューロ処理の提供方式に関するものである。
【0002】
【従来の技術】最近ニューラルネットワークを利用して
各種処理、制御を行う例が提案されている。
【0003】ニューラルネットワークとして、例えば階
層型のニューラルネットワーク(NN)は、入力層、隠
れ層、出力層を有し、各層はそれぞれ1つ以上のノード
(ユニット)を有している。なお隠れ層は0層以上であ
る。そして、各層を構成するユニットは互いにある重み
で結合されている。このネットワークに入力パタンと望
ましい出力パタン(教師パタン)の組を与えることによ
りネットワークの重みを学習させることができる。
【0004】この学習結果を基に、次回からは未学習の
入力に対し望ましい出力を自動的に生成して出力する。
【0005】
【発明が解決しようとする課題】このようなニューラル
ネットワークを利用して、種々の処理や制御を自動的に
行うことが考えられる。
【0006】例えば以下のような要請がある。人間社会
で使用する図形として、複数の図形それぞれに一定の法
則に則って装飾を施した図形がある。古代ギリシャでは
唐草模様が様々な図形の装飾として用いられている。こ
のような一定法則に従った装飾が典型的に現れるのが活
字の分野である。花文字、イタリック、ゴシック、パイ
カ、エリート、プロポーショナル、明朝体、教科書体等
が存在する。
【0007】現在の様に電子的に文章を作成、編集する
ようになると、それらを表示したり、印字するときのた
めに、活字はフォントという、電子的な形式で記憶され
るようになっている。これらは、それぞれのワープロ、
パソコン、DTPなどのメーカごとに、あるいは、1つ
のメーカであっても、場合によっては1機種ごとに、作
成される。したがって、世の中には非常に多くのフォン
トのセットが存在する。
【0008】フォントの作成というのは、従来は手作業
で行われており、日本語の場合は、特に漢字が数千個も
あるため、1セットのフォントを作成すれのには、多大
な労力を必要としている。明朝体、教科書体などのフォ
ントは、書家が書いた字をドットや関数で表現するため
に、ベテランの人間が1文字ずつ作成していかなければ
ならなかった。したがって、1セットの文字を作るのに
は莫大なコストがかかり、大きな問題になっていた。
【0009】このような問題は、アルファベットの分野
でも同様である。アルファベットの分野ではいわゆるタ
イプフェイスが保護されており、他人の作成したタイプ
フェイスを勝手に使用することは著作権法上の問題を生
じさせる。従って、他人のタイプフェイスと異なるタイ
プフェイスを容易に作成する必要性、及び、要望は大き
い。
【0010】また、ワープロ等には例えばイタリックな
ら一種類のイタリック、明朝体なら1種類の明朝体しか
備えていないのが通常である。従って、ワープロで作成
した文章は、同じワープロで作成するかぎり、誰が作成
しても同じ文字となる。
【0011】従って、非常に読みやすくて、能率が良い
反面では、手書きの手紙などに現れる、書き手の個性が
失われてしまう。最近、日本では、ワープロを個人的な
手紙等に使用する人が多く、個人向けに販売されたワー
プロの殆どは、お正月の年賀状などの作成に使用されて
いるというデータがある。しかし、年に1回の個人レタ
ーが、決まり切った活字で書かれると、非常に味気がな
く、もらってもうれしくない。かと言って、手書きの字
を使用するのでは、清書機であるワープロを使用した意
味がない。この点は、クリスマスカード等のグリーティ
ングカードを送る習慣のある欧米でも同様であろう。
【0012】そこで、理想的には、活字に近いが、個人
の癖や味を加味した、個人用のフォントをその人の個人
用ワープロの専用文字として使用できるようにしたい。
しかし、上記のように、フォントというものは手作業で
作成されるので、非常に高価であり、数千万円から数億
円もする。従って、とても個人で自分のワープロ専用の
フォントを持つことは無理である。そこで、本発明者
は、個人ごとのフォントを安価に提供するために、ニュ
ーラルネットワークによる文字フォントの作成を考え
た。この他にも、ニューラルネットワークで処理したい
ことは多々存在する。
【0013】ところで、前記したようなニューラルネッ
トワークは、既存のハードウェア上で、ソフト的に実現
可能であるが、処理の高速化を図り、結果の確からしさ
を保証するためには、ニューロンチップと呼ばれる専用
のMPUを備えたニューロコンピュータによるのが好適
である。ニューロチップについては、特開平2−647
88,特開平2−226382,特開平2−22878
等に開示されている。
【0014】しかし、このようなハードウェアは高価で
個人的な消費者レベルでは購入することは不可能に等し
い。そこで、ニューロコンピュータの普及のためにも、
ニューロコンピュータの公衆的利用が望まれる。
【0015】本発明は、ニューロコンピュータを安価に
利用することを目的とする。
【0016】
【課題を解決するための手段】本発明は前記課題を解決
するため、以下の手段を採用した。本発明では、図1に
示したように、利用者端末に対してニューロ処理センタ
ーを備え、利用者からの要求で前記ニューロ処理センタ
ーがニューロコンピュータによるニューロ処理を行い、
その処理結果を利用者に返すようにした。
【0017】ここで、利用者端末とニューロ処理センタ
ーとの間でのデータの授受は、フレキシブルディスク等
の磁気記憶媒体、光ディスク、その他の記憶媒体を介し
て行ってもよいが、有線あるいは無線の通信回線を使用
して、利用者端末からニューロ処理センターへのアクセ
スで、ニューロ処理センターのニューロコンピュータを
利用するのがより好適である。
【0018】
【作用】本発明では、ニューロコンピュータを利用した
サービスとして、文字フォントなどの図形作成サービ
ス、文字認識サービス、音声合成サービス等の各種サー
ビス処理をニューラルネットワークにより行い、その処
理結果を利用者側で利用する。
【0019】このため、利用者側では、原則としてニュ
ーラルネットワークを必要としない。よって、ニューラ
ルネットワークを有しない場合でもニューロ処理の利益
を享受できる。
【0020】また、利用者端末にたとえニューラルネッ
トワークを備えたとしても、小規模なものでよい。利用
者端末にニューラルネットワークを備える場合、ニュー
ロ処理センターのニューラルネットワークに学習をさ
せ、その学習結果を利用者端末側のニューラルネットワ
ークで利用する、といったように、ニューロ処理センタ
ーと利用者端末とでニューロ処理の役割分担をする。 <利用者端末およびその入力装置等>本発明で使用する
利用者端末としては、パーソナルコンピュータ、ワード
プロセッサなど、ニューロ処理結果を使用する情報処理
装置を使用する。通信回線を使用する場合、通信機能を
備える必要がある。
【0021】また、利用者端末には、図2のように、入
力装置として、例えばキーボード、タッチパネルなどの
キー入力装置、タブレット、マウスなどベクトルデータ
を直接入力可能なオンライン入力装置、イメージスキャ
ナなどベクトルデータを直接入力できないオフライン入
力装置、ファクシミリ等を使用できる。これらは、ニュ
ーロコンピュータ用の入力パタンや教師パタンの入力に
使用する。
【0022】イメージスキャナでは、取り込んだイメー
ジ情報をそのままイメージデータ(ドットデータ)とし
て使用し、あるいは、ベクトルデータに変換して使用す
る。マウス、トラックボール、キーボードは画面のカー
ソルを制御して直接ベクトルデータを入力する。ライト
ペンは文字を画面に直接描くことができる。
【0023】手書き入力装置は、描画用のパッドあるい
はスクリーンを有し、パッドあるいはスクリーン上に描
いた手書き図形をドットイメージデータとして取り込
む。取り込まれたドットイメージデータはそのまま使用
してもよいし、ベクトルデータに変換して使用してもよ
い。
【0024】手書き入力方式として好適なのは、スタイ
ラス画面のペンタッチ方式で入力する方法である。撮像
装置を有する画像処理装置を使用する場合、原型図形あ
るいは装飾・変形した図形をTVカメラなどの撮像装置
で撮し、これを画像処理することで、描画をドットイメ
ージデータとして、さらにはベクトルデータとして得
る。
【0025】利用者端末には、通信を行う場合、図2の
ように、発信装置、受信装置を備える。これらの例とし
て、電話、モデム、ファクシミリアダプタを例示でき
る。さらに、利用者端末には、出力装置を備えることが
好適である。例えば、ディスプレイなどの表示装置、プ
リンタ、プロッタなどの印刷装置、ファクシミリなどで
ある。 <通信回線を利用したニューロ利用サービス例>通信回
線を使用する場合の構成例を、図3から図7に示す。
【0026】図3で、利用者端末は、計算機、イメージ
スキャナなどのオフライン入力装置、出力装置、キーボ
ード、有線/無線通信装置を備えており、有線/無線通
信装置を介してニューロ処理センターに接続される。
【0027】図4で、利用者端末は、発信装置としてま
た入力装置としてファクシミリを備え、受信側の端末と
して有線/無線通信装置、計算機、出力装置、キーボー
ドを備えている。
【0028】図5で、利用者端末は、計算機、デジタイ
ザなどのオンライン入力装置、出力装置、キーボード、
有線/無線通信装置を備えており、有線/無線通信装置
を介してニューロ処理センターに接続される。
【0029】図6で、利用者端末は、ペン入力の計算
機、出力装置、有線/無線通信装置を備えており、有線
/無線通信装置を介してニューロ処理センターに接続さ
れる。図7で、利用者端末はファクシミリである。 <通信回線を利用しないニューロ利用サービス例>通信
回線を使用しないでフレキシブルディスク等の磁気記憶
媒体、光ディスク、その他の記憶媒体を介してデータの
授受を行う場合は、それら記録媒体を郵送、あるいは宅
配便でニューロ処理センターへ送付する。
【0030】通信回線を使用せず、記録媒体でデータの
授受を場合の構成例を図8に示す。図8で、利用者端末
は、計算機、文字データ入力装置、出力装置、キーボー
ド、外部記憶入出力装置を備えており、記録媒体のデー
タはこの外部記憶入出力装置で出入される。
【0031】図9は利用者端末としてもニューロコンピ
ュータを備えた場合の例である。ニューロ処理は、学習
機能と認識機能とに大別されるが、認識機能に対して、
学習機能の計算量はかなり大きい。
【0032】計算量の大きい処理を高速に行いために
は、専用のハードウエアを搭載したニューロコンピュー
タが必要であり、ニューロ処理センタでは、大量のデー
タを高速に処理する必要があるので、大型の高速なニュ
ーロコンピュータが必須となる。逆に、計算量が少ない
処理をする場合、処理するデータ量が少ない場合、ある
いは処理の高速性がそれほど求められない場合は、利用
者端末側に簡易なニューロ処理部を実装して、ニューロ
処理センタ側の処理負荷を軽減することが可能になる。
この場合、負荷の大きい処理はニューロ処理センターで
行い、その処理結果を利用し、負荷の小さい処理は利用
者端末で行うという使いわけができる。
【0033】つまり、図9のような構成になる。図9で
は、中央処理部にニューロ処理部を併設し、中央処理部
に記憶装置、入力制御部、出力制御部を接続し、入力制
御部に文字データ入力装置、キー入力装置を接続し、出
力制御部に表示装置、印刷装置を接続してある。 <ニューロ処理分担>ニューロ処理は、図10のよう
に、種々の比率でニューロ処理センターと利用者端末と
で分担することが可能である。図10は後記するニュー
ロコンピュータによる文字フォント作成サービスの場合
の処理の分担形態を示す。図10下部の処理フローと図
10のグループ0から3におけるタイムチャートとは対
応しており、処理フローのどの部分をニューロ処理セン
ターが担当するのかタイムチャートに網掛け部分で示さ
れている。 <ニューラルネットワーク>本発明はあらゆる階層型ニ
ューラルネットワークの他、種々の形式のニューラルネ
ットワークを使用できる。ニューラルネットワークの例
は図11から図14に示した。ニューラルネットワーク
については、特開平2−64788,特開平2−226
382,特開平2−22878に開示されているものを
用いることが出来る。但し、これらに限定されるもので
はない。
【0034】階層型ニューラルネットワーク(NN)と
しては、明確に区別された入力層と出力層の2つの層を
少なくとも備えている。元来、この2つの層だけでもあ
る程度の処理は可能であるが、これらの層の間に隠れ層
という1層以上の中間層を入れたものがより有効的であ
る。
【0035】ニューラルネットワーク(NN)では、入
力パタンに対して望ましい出力がでるようにネットワー
クを調整する、すなわち学習する必要があり、その方法
の代表的なものがバックプロバケーション法である。
【0036】本発明では、ニューラルネットワーク(N
N)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを評価するものが好適に使用される。
【0037】ここで、前記学習部(A)は、前記ニュー
ラルネットワーク(NN)への入力とそれに対する望ま
しい出力である教師パタンを保持する入出力パタン保持
部10と、この入出力パタン保持部10の入力パタンを
ニューラルネットワーク(NN)に入力し出力値を計算
する学習実行部11と、所定の学習規則と学習パラメー
タを保持する学習パラメータ保持部12と、前記学習規
則及び学習パラメータに基づいて、前記学習実行部11
でのネットワークの出力と入出力パタン保持部10の教
師パタンとを比較し、ネットワークの重みを更新する重
み更新部13と、更新されたネットワークの重みを任意
の学習段階で記憶する結合の重み記憶部14とを備えて
た構成を例示できる。
【0038】また、階層型ニューラルネットワーク(N
N)の一つの形態として、Elman型リカレントネッ
トワークを用いることができる。Elman型リカレン
トネットワークとは、図示しないが、入力層、隠れ層、
出力層を有し、かつ、隠れ層の出力データを複写して保
持するとともに保持した出力データを再度隠れ層に入力
するコンテキスト層を備えたニューラルネットワーク
(NN)である。入力層、隠れ層、出力層の各層はそれ
ぞれ1つのノードを有している。
【0039】そして、時刻tにおける隠れ層の出力値w
をコンテキスト層にコピーし、このコンテキスト層と入
力層の値が時刻t+1における隠れ層の出力となる。従
って、このコンテキスト層が過去の入力データの履歴を
保持することになる。 <ニューラルネットワークによる図形作成サービス>或
る一定のスタイルをもった文字などの図形を、サンプル
として幾つかニューラルネットワークに学習させること
により、提示していない大部分の図形を自動的に作成す
るサービスを本発明で提供できる。
【0040】図15に示したように、ニューラルネット
ワークにおいて、原型の図形群に対する希望の装飾等を
施した変形図形群を用意して、その両者間の変形規則を
学習させ、学習した変形規則に従って変形図形を得る。
【0041】例えば、図形として文字を扱う場合につい
てみると、文字のフォントというものは、原型文字に対
して、1つのスタイルに沿って変形したものである。例
えば明朝体というのは、一の横の棒の、右の端に兜とよ
ばれる盛り上がりをつける、という変形を加えている。
各社のワープロでは、この変形が僅かずつ異なるが、そ
れも一定のルールに沿って、全ての字について変形して
作成される。
【0042】従って、原型の文字に、一定の変形規則に
従って、変形を加えれば、1セットのフォントができあ
がる。よって、原型の文字群に対する希望の装飾文字群
を用意して、その両者間の変形規則をニューラルネット
ワークで学習させる。そして、学習していない文字を入
力すると、学習した変形規則に従って新たな装飾文字を
自動的に行える。 <図形作成サービスにおける入力パタン、教師パタンの
作成>本発明において、原型となる図形(入力パタン)
及びそれを装飾・変形した図形(教師パタン)は一定の
電子的な方法、図形の線図を表現するイメージデータや
ベクトルデータでニューラルネットワークに入力され
る。従って、入力装置としては前記したものを利用す
る。
【0043】(パタン作成方式1)(図16から図18
に示す) n個の連続した線分情報として与えられた文字などの図
形のストロークに関するベクトルデータを、連続した線
分の集合である一つのストローク毎に処理の最小単位で
あるセグメントとしてとらえ、ニューラルネットワーク
の入力パタンと教師パタンに対応させて、学習させるこ
とにより、文字のストロークを変換するニューラルネッ
トワークを構成する。
【0044】方式1では、一つのストロークを一つのセ
グメントとして扱うので、ストロークを折れ線近似法で
複数の線分で近似する場合、その複数の線分を、その起
点座標、長さ、角度で特定し、その後、前の線分に続く
線分を角度と長さ情報で特定する。従って、図18のよ
うに、ニューラルネットワークの入出力ノード数は、n
個の線分それぞれの長さと角度の数+最初の線分の起点
座標に対応する数となる。
【0045】そして、方式1ではその複数の一つのスト
ロークが固定セグメント数に対応するので、ストローク
を複数の直線で近似する場合、図16で示したように、
ベクトルの長短に係わらず同じ次数(直線の数)で近似
しなければならない。この場合、対応するストロークを
探してストロークの長さに応じ、線形にマッピングする
ことができる。
【0046】この方式1では、一つのストロークすべて
のデータをニューラルネットワークの入力と出力に対応
させているため、1回の処理で目的とするストローク情
報が得られる。
【0047】(パタン作成方式2)(図19から図22
に示す) n個の連続した線分情報として与えられた文字などの図
形のストロークに関するベクトルデータを、ストローク
を構成する各線分毎に処理の最小単位であるセグメント
としてとらえてn個線分を表すのパタンデータの系列と
見なして、各線分のベクトルデータ毎それぞれニューラ
ルネットワークに学習させることで、n個のストローク
の集合である全体の文字ストロークを変換するニューラ
ルネットワークを構成する。
【0048】方式2では、一つのストロークを構成する
各線分のそれぞれを一つのセグメントとして扱うので、
ストロークを折れ線近似法で複数の線分で近似する場
合、その複数の線分を、その起点座標、長さ、角度でそ
れぞれ特定する。
【0049】この方式2では、一回に処理する入力と出
力ベクトルデータを一つのストロークを構成する各線分
のベクトルデータに絞るため、ニューラルネットワーク
の入出力ノード数をそれぞれ起点座標、長さ、角度の数
に絞ることができ、ネットワークを簡素化し、1回当り
の処理時間を小さくできる。しかし、目的とするストロ
ーク情報を得るためにネットワークを線分の数だけn回
動作させる必要がある。
【0050】方式2において、2つのストロークを処理
する場合、2番目のストロークの起点は、1番目のスト
ロークを示す出力から求めるのが好ましい。例えば、図
22に示したように、1番目のストロークをX0,Y0
0,A0の入力に対する出力がX1,Y1,L1,A1であ
るとき、2番目のストロークの入力X2,Y2,L2
2,のうち、起点座標を示すX2,Y2は以下の式で求
めるのがよい。
【0051】 X2=X1+L1×cos(A1) ・・・・(1) Y2=Y1+L1×sin(A1) ・・・・(2) 以上、パタン作成方式として、2つ方式をを説明した
が、この2つを比較すると図23のようになる。ストロ
ークの認識出力においてどちらが有利になるかは、幾つ
のセグメントで近似するか、また実行マシンの性能に依
存するので、方式1と方式2とでどちらが優れているか
を論じることはできない。
【0052】なお、入力パタン、教師パタンの特徴点抽
出の技術として、特開昭62−216092、特開昭6
2−164183、特開昭62−208191、特開昭
62−92089、特開昭62−92084等に記載さ
れた技術を使用できる。 <ニューラルネットワークにおける教師パタンの設定方
法>本発明では、ニューラルネットワークで図形の変形
規則を学習するが、その場合の教師パタンの選定の仕方
により、学習方法は以下の2種に分けられる。 原型の図形群を入力パタンとし、この図形群に対し
て希望の装飾等を施した図形群を教師パタンとした場合
(図24から図40)。
【0053】この学習方法をより具体的に説明すると、
まず、原型の図形群(A1,A2,..An)を用意す
る。原型となる図形は一定の電子的な方法で表現され
る。例えば、図形の線図を表現するイメージデータやベ
クトルデータである。
【0054】つぎに、その原型図形を装飾・変形した図
形サンプル群(B1,B2,・・Bn)を用意する。こ
れも、イメージデータやベクトルデータなどの一定の電
子的な方法で表現される。
【0055】そして、ニューラルネットワークの入力
に、サンプルのB1,B2,・・Bnに対応する原型図
形群の部分集合A1,A2,..Anを与える。教師パ
タンには、B1,B2,..Bnを与える。このように
して、学習を行えば、AからBへの変形規則が、ネット
ワークデータとして生成される。
【0056】つぎに、学習していない、Aの集合の残り
全てを、学習済みのニューラルネットに次々に与える。
すると、学習させた変形規則に従った図形群Bが得られ
る。 原型の図形群を入力パタンとし、この図形群とこの図
形群に対して希望の装飾等を施した図形群との差分を教
師パタンとした場合(図41から図45)。
【0057】この学習方法をより具体的に説明すると、
まず、原型の図形群(A1,A2,..An)を用意す
る。原型となる図形は一定の電子的な方法で表現され
る。例えば、図形の線図を表現するイメージデータやベ
クトルデータである。
【0058】つぎに、その原型図形を装飾・変形した図
形サンプル群(B1,B2,・・Bn)を用意する。こ
れも、イメージデータやベクトルデータなどの一定の電
子的な方法で表現される。
【0059】そして、ニューラルネットワークの入力
に、サンプルのB1,B2,・・Bnに対応する原型図
形群の部分集合A1,A2,..Anを与える。原型図
形Aと変形図形Bの差分の情報を与える場合には、 T=B−A ・・・(3) の項を基本にした多項式として変換すればよい。つま
り、最も単純な変換式は(3)式である。
【0060】しかし、一般にはTがニューラルネットワ
ークの出力層ユニットの値域を越えてしまう場合が生じ
るため、(3)式は、すべての学習パタンの生成に適応
できない。
【0061】そこで、通常はどのようなデータでも適応
が可能な(4)式を用いるのがよい。 ただし、 入力パタンに対する教師パタンとして、(4)式を与え
ることにより、入力に対して何も変化を起こさせない場
合には、C:(シグモイドの上限−下限)/2が出力と
して得られる。
【0062】シグモイド関数の例を(5)式に示す。 gi(X)=1/{1+exp(−X/λ)} ・・・・(5) i(i=1,2,・・・,n):ニューロン間の結合 θ:しきい値 この式は、図14のように表される。この図のようにシ
グモイド関数は、0から1を値域とすることが多いた
め、このC:(シグモイドの上限−下限)/2の値は
0.5となることが多い。本発明では、原型パタンに対
するズレを学習させたいので、極端な場合を除いて、教
師パタンは0.5+αとなる。ニューラルネットワーク
の重みの初期値は通常0を中心とした一様分布の乱数で
与えるために、初期出力は0.5付近であることが多
い。このことは、収束する地点が初期値から近いことを
示し、すなわち収束が速いことを示している。
【0063】教師パタンを上記のような差分で与えな
い場合、すなわち上記のように希望出力値をそのまま
与える場合には、希望の動作を得るためには、かなり多
くの学習パタンを用意しなければならない。差分を教師
パタンとするの方式は用意する学習パタンの面でも実
行時の動作の安定性という面でもよい。ニューラルネッ
トワークによる出力を希望出力に変換する場合に、上記
のような与えかたをすることにより、計算処理が最も単
純となる。 <制御パラメータの入力>図26で示したように、ニュ
ーラルネットワークには前記入力パタンを入力する入力
ノードの他に、制御パラメータを入力するノードを備え
るのが好ましい。
【0064】制御パラメータは通常0から1の範囲で与
えられる。シグモイドの閾値が通常0から1までなので
例では0から1で与えている。よって、値そのものには
意味がない。
【0065】そして、制御パラメータに設定する値が1
に近いほど、出力は教師パタンに近くなり、制御パラメ
ータに設定する値が0に近づくほど、出力は入力パタン
に近くなる。すなわち、制御パタンの値の大小で入力パ
タンと教師パタンとの間の中間的な出力を得ることがで
きる。
【0066】制御パラメータを入力するノードはニュー
ラルネットワークに1つあるいは2以上設けてもよい。
より具体的には、制御パラメータを入力する制御パラメ
ータ入力用ノードを少なくとも1つ設ける一方、入力パ
タンと教師パタンの組を2以上用意し、しかも、各入力
パタンと教師パタンの組は、入力パタン同士が同一で、
教師パタン同士が異なるものとし、その組の内、第1の
組の学習時には制御パラメータを任意のXとし、第2の
組の学習時には制御パラメータを任意のYとし、未学習
の入力パタンを与えるとき、制御パラメータにXとYの
間の中間値を与えることで、学習させたパタンセットの
中間的な値を出力させる。 <学習収束の高速化>原型図形の集合Aから変形図形の
集合Bに未知の変換規則があると考えられるとき、原型
図形の集合Aの部分集合A0 に対し、個々の要素につい
て1対1の対応関係がある変形図形の集合B0 を選びだ
し、集合Aの部分集合A0 を入力パタンとし、集合B0
を教師パタンとして、ニューラルネットワークに学習さ
せ、A 0 の母集合AからB0 の母集合Bへの未知の変換
規則を推定させ、推定した変換規則を用いて、変形図形
の集合Bを得る場合、以下のようにするとニューラルネ
ットワークのよる学習の高速化が図れる。
【0067】まず、原型図形の集合Aの部分集合A0
入力パタンとし、これに対して入力パタンと同一の部分
集合A0 を教師パタンとしてニューラルネットワークに
与え学習させる。このような教師パタンは入力パタンと
矛盾しない。従って必ず収束する。また、実際の学習回
数も少なくてすむ。この学習による重みを初期値とし
て、今度は、前記集合A0 を入力パタンとし、前記集合
0 を教師パタンとしってニューラルネットワークに与
え、前記A0 からB0 への未知の変形規則を学習させ
る。
【0068】このように、学習の段階を2段階に分け、
1段目の学習後のネットワーク構造を保存し、2段目の
学習の初期値とすることで、2段目の学習回数を減らす
ことがおおむねできる。
【0069】その結果、原型図形の集合Aの部分集合A
0 を入力パタンとし、最初から前記集合B0 を教師パタ
ンとして、前記A0 からB0 への未知の変形規則を学習
させる場合に比較して、学習のための収束時間が少なく
てすむことが多い。
【0070】図46に、学習高速化の原理を示す。1段
目の学習では図の点線のようなエナルギー空間を持って
おり、収束した時点では重みは点1の位置にある。2段
目の学習の開始点は点2となり、2段目の学習段階の収
束点は点3となり、一般的に与えられるランダムな重み
(例えば、点4のような場所)から学習を開始する場合
より収束が速い。
【0071】また、1段目の学習は学習パタン数が少な
いのでエネルギー空間が単純で、収束しやすいという利
点もある。この結果、図47,図48のように、前記の
ように学習を2段にしない図47(a)、図48(a)
の場合は、学習収束までの学習回数が10007回で長
時間かかるのに対し、1段目で初期値を設定する本方式
では学習収束までの回数が752回で短時間となってい
る。
【0072】なお、この学習方式では制御パラメータを
入力パタンと同時に入力する場合に限定される。これ
は、この方法を適用する場合には、以下の2つの条件が
必要であることによる。 第1学習グループの学習が容易に収束する保証があ
る。 第1学習グループと第2学習グループのデータ構造
が似ている。(つまり、学習1段階と学習2段階のエネ
ルギー空間が似ている。) 本方式では、この2つの条件が明らかに満たされている
ので、有効に利用することが可能である。 <一部共通データの学習>標準的なデータでは、データ
の規格化が行われているためにデータの一部が共通とな
っている場合があり、学習パタンの作成方法によっては
入力パタンが全く同じとなる場合がある。
【0073】例えば、図形データとして、文字を学習さ
せる場合などである。具体的に説明すると、人の個人文
字を学習させ、文字フォント作成のシステムを構築しよ
うとするとき、例えば図50のように、「銀」と「銅」
を学習パタンとして選択したとする。この場合、それぞ
れの文字について個人文字を登録して学習することにな
るが「金」の部分が同一であるため入力パタンは全く同
じになる。
【0074】これに対して、個人の入力は同じ「金」で
も全く同じパタンで入力されることはない。従って、同
じ入力パタンに対して異なる教師パタンが対応する現象
が生じる。
【0075】これでは、入力に対し教師が2つあること
となりどちらかを真の教師としてよいかわからずいくら
学習回数を増やしても学習は収束しない。従って、学習
をどの時点で終了してよいか判断できない。
【0076】そこで、標準の図形データ群に対して、多
様性のある図形データ群を学習させるニューラルネット
ワーク学習装置においては、複数の入力図形パタン同士
で図形パタンの一部が共通する場合、その共通部を有す
る入力図形パタン群の内、1つの図形パタンのみを学習
パタンとして選択し、前記ニューラルネットワーク学習
装置に学習させるようにするとよい。
【0077】この場合、前記入力図形パタン同士を比較
し、一方の図形パタンに対する他方の図形パタンの距離
を算出し、距離が一定値以下の図形パタンを一つのグル
ープとし、そのグループ中の1つを選択する方式を例示
できる。
【0078】図49に同じ入力パタンに対して複数の教
師パタンが存在する場合の処理を示す。この図49で、
縦軸、横軸はパタンの空間であることを示す以外の意味
はない。から(10)までは各入力パタンを示す。/
/及び/(10)の各パタン群は、互いに近い距離にあ
るので一つのグループとみなす。この場合、//
のなかから一つ、/(10)の中から一つ選んで学習に使
用する。
【0079】以上のことは、ニューラルネットワークに
おける音声合成システムでも同様で、例えば「ア」
([A])の音声を学習する場合、同じ「ア」
([A])でも、人によりを発音が異なるので、上記と
同様のことが生じる。そこで、同じ「ア」([A])に
対する異なる発音の「ア」([A])の群から教師パタ
ンを選択して学習させる。
【0080】
【実施例】以下、本発明の好適実施例を説明するが、個
々の実施例を説明する前に、まず、実施例において使用
したニューラルネットワークを説明する。
【0081】本実施例で使用した階層型ニューラルネッ
トワーク(NN)は、図11のように、学習部(A)を
有し、この学習部(A)での学習が終了した後、重み更
新部13の重みを使って未学習のデータを評価する。
【0082】まず、ニューラルネットワーク(NN)
は、入力層、隠れ層、出力層を有し、各層はそれぞれ複
数のノード(ユニット)を有している。各層を構成する
複数のユニットは互いにある重みで結合されている。こ
のネットワークに入力パタンと望ましい出力パタン(教
師パタン)の組を与えることによりネットワークの重み
を学習させることができる。
【0083】学習は以下のように進められる。まず、ネ
ットワークにある入力パタンを与え出力を得る。実際の
出力と正しい出力の差の情報をとりだす。するとネット
ワークは正しい出力値と実際の出力値の差が減少するよ
うにネットワークの内部構造(結合の強さ=重み)を調
整する。これを何度も繰り返すことにより、ネットワー
クはある入出力関係を満たすような重みを自動的に探索
していく。この学習アルゴリズムがバックプロパゲーシ
ョン法である。
【0084】このようにして学習したネットワークを用
いると、学習させた入力パタンについては表示した正し
い出力を返すが更に学習させていない入力パタンについ
ても学習した入出力パタンに準じた出力パタンを返す。
これがニューラルネットワーク(NN)の大きな特徴と
なっている。
【0085】このように、ニューラルネットワーク(N
N)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを処理する。
【0086】ここで、学習部(A)は、前記ニューラル
ネットワーク(NN)への入力とそれに対する望ましい
出力である教師パタンを保持する入出力パタン保持部1
0と、この入出力パタン保持部10の入力パタンをニュ
ーラルネットワーク(NN)に入力し出力値を計算する
学習実行部11と、所定の学習規則と学習パラメータを
保持する学習パラメータ保持部12と、前記学習規則及
び学習パラメータに基づいて、前記学習実行部11での
ネットワークの出力と入出力パタン保持部10の教師パ
タンとを比較し、ネットワークの重みを更新する重み更
新部13と、更新されたネットワークの重みを任意の学
習段階で記憶する結合の重み記憶部14を備えている。
【0087】学習実行部11をさらに詳細に説明する。
前記したようにニューラルネットワーク(NN)は多層
のネットワーク構造となっていて、各層は多くのユニッ
トから構成され、各ユニット間にはそれぞれ結合の重み
Wが定義される。
【0088】各ユニットは以下に示すようにしてネット
ワークの出力値を計算する。あるユニットが複数のユニ
ットから入力を受けた場合、その重みづけ総和に各ユニ
ットの閾値θを加えたものが入力値 netとなる(図12
参照)。
【0089】net = Σwijj+θ wij:ユニットUjからユニットUiへの結合の重み Oj :ユニットUjの出力 ユニットの出力値はこの入力の総和net に、活性化関数
を適用して計算される。活性化関数には微分可能な非線
形関数であるシグモイド関数を使用する。すると、ユニ
ットUi の出力値Oi は Oi = 1/{1+exp(−neti)} となる。
【0090】バックプロパゲーション法で用いるネット
ワークは、前記したような多層のネットワークである
が、ここでは図13のような入力層、隠れ層、出力層の
3層からなる場合について述べる。
【0091】隠れ層の各ユニットは入力層のすべてのユ
ニットと結合している。出力層の各ユニットは入力層と
隠れ層の各ユニットとすべて結合している。そして各層
内でのユニット同士の結合はない。
【0092】入力層の各ユニットにはネットワークへの
入力データが与えられる。従って、隠れ層の各ユニット
の出力値hは、 j = 1/{1+exp(−neti)} dK :k番目の入力ユニットの出力値 hj :j番目の隠れユニットの出力値 wjk:k番目の入力ユニットとj番目の隠れユニット間
の結合の重み θj :j番目の隠れユニットの閾値 となる。
【0093】また、出力層の各ユニットの出力値oは、 j :j番目の隠れユニットの出力値 oi :i番目の出力ユニットの出力値 wij:j番目の隠れユニットとi番目の出力ユニット間
の結合の重み θi :i番目の出力ユニットの閾値 となる。
【0094】次に、重み更新部13を更に詳細に説明す
る。
【0095】この重み更新部13ではネットワークの出
力が望ましい出力となるようにネットワークの重みを変
える。あるパタンpを与えた時の実際の出力値(opi
と、望ましい出力値(tpi)の平均2乗誤差Epをと
る。
【0096】Ep = (1/2)(tpi−opi2 学習させるためには、この誤差を減らすように、ネット
ワーク中の全ての重みを変える。
【0097】出力層についての学習規則は i) 隠れ層のユニット− 出力層の各ユニットの間
の重みの変化 ii) 入力層のユニット− 出力層のユニット間の重
みの変化 n:学習回数 α:モーメンタム δpi = (tpi−opi){opi(1−opi)} 隠れ層についての学習規則は 入力層のユニット − 隠れ層のユニットの間の重みの
変化 である。
【0098】次に結合の重み記憶部14はネットワーク
の重みを任意の学習段階で保存する。出力装置は、重み
記憶部14に保存してあるネットワークの重みをロード
し、入力パタンを与えると、ネットワークの出力を計算
する。以上のように学習したネットワークを用いると、
学習させた入力パタンについては正しい出力を返すが、
更に学習させていない入力パタンについても学習した入
出力パタンを基にしたような出力パタンを返す。 <実施例1>以上のニューラルネットワーク備えたニュ
ーロ処理センターで、文字フォントを作成サービスを行
う場合の例を説明する。
【0099】個人フォントをニューロコンピュータで作
成する場合、サービスを受けようとする利用者に、所定
の方法で、サンプルの文字を書いてもらい、その文字を
ニューロコンピュータで特徴抽出し、標準の原型文字か
らどのような変形を加えれば特徴を与えられるかという
変形規則を、ニューロのネットワークの重みとして記憶
する。その後、全ての文字について、この特徴に沿って
変形を加えて、1セットの文字フォントを生成する。
【0100】以下、この基本技術を使用して、実際に個
人フォントをユーザに提供する方法を述べる。通常は、
ワープロ専用機というのは、コストを少しでも下げるた
めに、情報処理の回路部分は必要最小限のものしか備え
ていない。しかし、もし、ニューロにより、文字を認識
し、かつ、日本語であれば、6000文字以上の漢字を
生成するとなると、そのコストは非常に大きなものとな
る。本実施例はこのコストをいかに抑えるかを目的とす
る。
【0101】図52に示したように、ワープロ自体にニ
ューロコンピュータ機能を持たせる代わりに、外部にニ
ューロコンピュータ(ニューロ処理センター)を置き、
ワープロでは個人の文字そのものを読み取るためのスキ
ャナ61を持つ。スキャナ61は個人の手書き文字をよ
みとり、これを通信回路等の通信ネットワークにより、
センタコンピュータに届ける。センタでは (I)手書き文字から、線分を抽出し、線分だけによる
文字(骨文字)に変換。 (II)ニューロコンピュータで、特徴抽出。 (III)ニューロコンピュータで希望の文字セットの全
文字を特徴をいれて変形(変換)し、さらに骨文字から
幅のある文字に変換し、文字セットを完成 (IV)センタから、完成した文字セットを回線などで遠
隔地のワープロに送り返す。 (V)ワープロでは、これを内部の文字用のメモリ75
に登録し、通常のフォントと全く同じように使用できる
ようにする。
【0102】センタから返送された個人フォントを、ユ
ーザが評価し、もし不満があれば、所定の方法で、パラ
メータを変えて再処理をセンタに依頼することもあり得
る。そのようなパラメータとしては、例えば、個人の癖
をもっと強調したい、とか逆にもっと、標準の文字に近
づけたいとかの程度を、たとえば100%表示の方法で
示すことが考えられる。最初は標準文字の程度を20%
(個人の癖を80%)に指定したが、出来上がりの文字
を見て、この程度を40%に直して再処理することも考
えられる。
【0103】さらに、標準文字を明朝体、教科書体、ゴ
シックのように自由に選択させたり、ゴシックと明朝体
と個人の文字を2:4:4にするというように、混ぜる
ことも技術的にはニューロ技術で可能なので、サービス
の中に入れることができる。
【0104】ニューロ処理センターでの文字フォント作
成の具体例は実施例5,6,7,8に示した。 <実施例2>図53のように、ここでは、個人のサンプ
ル文字をセンタに送る方式として、FAXを用いる。こ
の方法では、実施例1に比較してワープロの中にスキャ
ナ61からの文字を読み取ったり、ユーザに入力の方法
を指示したりする手段を持たなくても済むので、更に装
置が簡便になるメリットがある。ワープロ側には、方式
1と同様、センタからの文字パタンを受け取り、登録メ
モリ75に格納し、通常のフォントと同様に使用できる
ようにする手段が必要である。
【0105】ニューロ処理センターでの文字フォント作
成の具体例は実施例5,6,7,8に示した通りであ
る。 <実施例3>個人文字をワープロに入力する手段とし
て、実施例1のスキャナ61でなく、図54のように直
接マウスのような、画面のカーソルを制御する入力装置
を使用し、画面に直接にユーザが文字を書く方法であ
る。入力装置としては、マウスのほかに、トラックボー
ル、キー、等も考えられる。カーソル制御装置ではない
が、ライトペンを使用して、文字を画面に書くことも、
自然な入力方法である。
【0106】ニューロ処理センターでの文字フォント作
成の具体例は実施例5,6,7,8に示した通りであ
る。 <実施例4>実施例3の、画面に文字を書く方法とし
て、もっとも自然な方法は、今後普及すると期待される
スタイラスコンピュータを用いて入力する方法である。
今後のワープロやパソコンは、キーボードに代わって、
もしくは加えて、ペンタッチで入力することが基本にな
ってくるため、このサービスのために付加する手段が少
なくなり、またユーザから見ても文字を登録することが
極めて自然にできるため、受入れ易い。
【0107】ニューロ処理センターでの文字フォント作
成の具体例は実施例5,6,7,8に示した通りであ
る。 <実施例5>実施例5以降説明する実施例はニューロ処
理センターにおけるニューラルネットワークで、文字フ
ォントを作成する場合の例である。
【0108】実施例5は、前記した原型の図形群(入
力パタン)に対する希望の装飾等を施した変形図形群
(希望出力パタン)を教師パタンとしてそのまま学習す
る場合の一例である。ここでは、パタン作成方式として
前記方式2を使用し、制御パラメータの入力を併用し、
さらに、前記した学習の高速化処理も行っている。、 (実施の手順)この実施例の手順を図25のフローチャ
ートで説明する。
【0109】(a)まず、取得したい文字のセット(た
とえば教育漢字、JIS第一水準など)の、原型となる
フォントを一定の電子的な方法、ここでは文字を表す曲
線を複数の連続した直線からなる折れ線に近似させ、近
似した折れ線の各線分(セグメント)を座標画面の上の
ベクトル(起点の座標データ、線分の長さデータ、及
び、線分の向きを示す角度データ)で表現する。
【0110】原型となるフォントは、文字の飾りを取り
払った、エッセンス的なものである。なお、既存のフォ
ント例えばゴシック体などを原型とすべきフォントとし
て使用してもい。このように表現された文字を、原型文
字群Aと呼ぶことにする。
【0111】(b)つぎに、変換したいスタイルを持っ
た文字のサンプルを用意する。その全集合こそが今求め
たい文字セットである。これをスタイル文字群Bと呼
ぶ。スタイル文字群のサンプルはB1,B2,..Bn
と表現し、これも、前記(a)と同じくベクトルデータ
として保持しておく。
【0112】(c)ニューラルネットワークの入力に、
サンプルのB1・・・Bnに対応する原型文字群Aの内
の部分集合A1,A2,..Anを与える(ステップ1
01)。
【0113】(d)教師パタンには、B1,B2,..
Bnを与える(ステップ102)。ニューラルネットワ
ークの学習部は、これら入力データを元に、AからBへ
の変形規則を学習する(ステップ103)。学習が収束
しなくとも、学習を終了させることは可能である(ステ
ップ106) (e)学習が終了したら、学習していないAの集合の残
り全てを、学習済みのニューラルネットに次々に入力す
る(ステップ107)。すると、学習していないAの集
合の残り全てに対して前記変形規則に従った変形が加え
られ(ステップ108)、所望のすべてのスタイル文字
セットBが得られる(ステップ109)。
【0114】このようにして、文字データを適当なデー
タ表現にして、ニューラルネットワークに学習させるこ
とで、個人の文字の特徴を反映させた文字を生成するこ
とができる。
【0115】以上の手順に従い、以下のような学習条件
でシミュレーション実験を行った。ここでは、同一の原
型文字に対し、T氏とY氏がそれぞれ所望の手書き文字
を希望する変形文字として教師パタンとして入力した。
学習終了後、未学習の原型文字を入力し、ニューラルネ
ットワークの出力としてその原型文字に対する変形文字
を得た。そのシミュレーション結果を、図26から図3
3に示す。 教師パタン、入力パタンの作成方式 ここでは、前記したパタン作成方式2を使用し、図2
9,図30のように「国」、「田」、「固」、「亜」、
「弟」、「自」の漢字について入力パタンを作成した。
【0116】作成に当たっては、図20のように、ま
ず、原型となる文字を表す曲線を複数の連続した直線か
らなる折れ線に近似させる。そして、近似した折れ線の
内、第1の線分の起点座標(XI0、YI0)、第1の線分
の長さ(LI0)、第1の線分が前記起点座標を含む水平
線に対してなす角度(AI0)を得る。次いで、この第1
の線分に続く第2の線分についても、その起点座標(X
I1、YI1)、長さ(LI1)、角度(AI1)を得る。そし
て、第n番目の線分についても、その起点座標(XIn
In)、長さ(LIn)、角度(AIn)を求めておく。
【0117】次いで、図29,図30のように、T氏と
Y氏の2名に、「国」、「田」、「固」、「亜」、
「弟」、「自」の漢字を手書きで書いてもらい、希望の
変形文字とした。
【0118】この変形文字についても、文字を構成する
一つのストロークからなる曲線を複数の連続した直線か
らなる折れ線に近似させ、ベクトルデータを得た。すな
わち、近似した折れ線の内、第1の線分の起点座標(X
O0、YO0)、第1の線分の長さ(LO0)、第1の線分が
前記起点座標を含む水平線に対してなす角度(AO0)を
得る。次いで、この第1の線分に続く第2の線分につい
ても、その起点座標(XO1、YO1)、長さ(LO1)、角
度(AO1)、第n番目の線分についても、その起点座標
(XOn、YOn)、長さ(LOn)、角度(AOn)を求めて
おく。 ニューラルネットワーク 使用したニューラルネットワークは図26のように4つ
の入力ノード、1つの制御パラメータ入力ノード、4つ
の出力ノードを有する。
【0119】・構造 units =(5 5 4) ・学習係数 epsilon =(5 1) alpha =(0.8 0.3) ・学習許容誤差 allowance =0.01 ・最大学習回数 iteration =10000 ・ランダムシート random_seed=5 ・初期値 weight =random(0.5 -0.01 0.
01) threshold =random(0.5 -0.01 0.01) 学習 学習に際し、変換図形群そのものを教師パタンとした。
【0120】この構成のニューラルネットワークに(X
I0、YI0、LI0、AI0)を入力パタンとし、(XO0、Y
O0、LO0、AO0)を教師パタンとして与え、続いて、
(XI1、YI1、LI1、AI1)を入力パタンとし、
(XO1、YO1、LO1、AO1)を教師パタンとして与え、
これを最後のn番目の線分の入力パタン(XIn、YIn
In、AIn)、及び出力パタン(教師パタン)(XOn
On、LOn、AOn)についてまで繰返し行い、一つのス
トローク情報についての学習を行う。
【0121】このように、方式2では、入力と出力ベク
トルデータを4つのパラメータに絞り、ニューラルネッ
トワークの入力ノード及び出力ノードをそれぞれ4つに
して、ネットワークを簡素化し、1回当りの処理時間を
小さくしたが、目的とするストローク情報を得るために
ネットワークをn回(n:文字を折れ線近似で近似させ
た線分の数)何度か動作させる必要がある。
【0122】学習にあたっては、「国」、「田」、
「固」、「亜」、「弟」、「自」それぞれの文字につい
て、下の2つの変換を学習させた。 原型文字→原型文字(制御ハ゜ラメータ=0) 原型文字→変形文字(制御ハ゜ラメータ=1) ここで、原型文字→原型文字(制御ハ゜ラメータ=0)を学習す
る理由は前記したように中間的な文字を出力させるため
である。
【0123】なお、前記ニューラルネットワークにおい
て、学習は収束しなかったので最大学習回数の10000回
で打ち切った。このとき、T氏のネットワークの最大2
乗誤差 は、0.005320で、誤差平均は0.000419であっ
た。
【0124】また、Y氏のネットワークの最大2乗誤差
は、0.007625、誤差平均は0.000623であった。なお、学
習に際し、一つのストローク情報の学習が終了したら、
次のストローク情報を学習するとき、そのストロークの
最初の基準位置となる起点座標として前回の第1の線分
のデータ(XO0、YO0、LO0、AO0)から、前記式
(1)(2)に従って第2の線分の起点座標を得るよう
にした。これにより、文字ストロークの起点が一致する
ので、得られる文字が不自然とならない(図40(b)
参照)。もし、前回の第1の線分の起点座標(XO0、Y
O0)を受け継がない場合、図40(c)のように、本来
交わるべき線分が交わらない結果となる場合がある。 フォントの生成 前記学習パタンの学習後、未学習の「回」、「中」、
「首」の3文字について入力し、学習した変形規則に基
づいて変形した後の文字を得た。結果を図31,図3
2,図33に示す。ただし、それぞれの文字について、
制御パラメータを0から1まで、0.2ごとに、6通り
変化させている。
【0125】前記制御パラメータの値は、図中では、c_
para=??????で示している。T氏、Y氏の学習させた個
人文字により近い出力を得たい場合は、制御パラメータ
を1に近い値とし、原型文字により近い出力を得たい場
合は、0に近い値を入力すればよいことが図31,図3
2,図33からわかる。 <実施例6>以下の条件以外は実施例5と同一の条件で
文字フォントを自動的に生成した。 ニューラルネットワーク 以下のネットワークを使用してアルファベットを学習し
た。
【0126】・構造 units =(5 2 4) ・学習係数 epsilon =(5.00000 1.00000) alpha =(0.80000 0.30000) ・学習許容誤差 allowance =0.1 ・最大学習回数 iteration =5000 ・ランダムシート random_seed=5 ・重み weight =random(0.2 -0.1 0.
1) ・しきい値 threshold =random(0.2 -0.1 0.
1) random(a b c)は重みを割合aだけbからcまでの乱
数で設定するということを示す(それ以外は0にす
る)。 学習パタン 学習パタンとして、図34,図35のようにアルファベ
ット「A」、「T」、「H」、「M」の文字について、
下の2つの変換を学習させた。
【0127】 原型文字→個人文字(変形文字)(制御ハ゜ラメータ=1) 原型文字→原型文字(制御ハ゜ラメータ=0) フォントの作成 前記学習パタンの学習後、未学習の「K」、「E」、
「I」、「L」の4文字について入力し、図36,図3
7,図38,図39のように、学習した変形規則に基づ
いて変形した後の文字を得た。ただし、それぞれの文字
について、制御パラメータを0から1まで、0.2ごと
に、6通り変化させている。制御パラメータを変化させ
ることで、前記したように入力パタンと教師パタンとの
中間に位置する変形文字が得られる。 <実施例7>以下の条件以外は実施例5と同一の条件で
文字フォントを自動的に生成した。 学習パタンの作成方式 前記した学習パタン作成方式1を使用した。図17のよ
うに、まず、原型となる文字を表す曲線を複数の連続し
た直線からなる折れ線に近似させる。そして、近似した
折れ線の内、第1の線分の起点座標(XI0、YI0)、第
1の線分の長さ(LI0)、第1の線分が前記起点座標を
含む水平線に対してなす角度(AI0)を得る。次いで、
この第1の線分に続く第2の線分についても、、長さ
(LI1)、第2の線分がその起点を含む水平線に対して
なす角度(AI1)を求める。これを第n番目の線分につ
いてまで続け、長さ(LIn)、角度(AIn)を求めてお
く。
【0128】これと同様に希望する変形文字について
も、文字を構成する一つのストロークからなる曲線を複
数の連続した直線からなる折れ線に近似させ、そして、
近似した折れ線の内、第1の線分の起点座標(XO0、Y
O0)、第1の線分の長さ(LO0)、第1の線分が前記起
点座標を含む水平線に対してなす角度(AO0)を得る。
次いで、この第1の線分に続く第2の線分についても、
長さ(LO1)、角度(A O1)を求め、第n番目の線分に
ついても、長さ(LOn)、角度(AOn)を求めておく。
【0129】そして、(XI0、YI0、LI0、AI0
I1、AI1、・・・・LIn、AIn)を入力パタンとし、
(XO0、YO0、LO0、AO0、LO1、AO1、・・・・
On、AOn)を出力パタン(教師パタン)として与え、
文字のストローク情報を学習する。
【0130】方式1では、入力と出力の全てのベクトル
データをニューラルネットワークの入力と出力に対応さ
せているため、1回の処理で目的とするストローク情報
が得られる。
【0131】従って、図18のように、ニューラルネッ
トワークの入力ノード及び出力ノードの数は、それぞれ
2n+2となる。実施例5と同じようにして、「国」、
「田」、「固」、「亜」、「弟」、「自」ついて、下の
2つの変換を学習させた。
【0132】原型文字→個人文字(制御ハ゜ラメータ=1) 原型文字→原型文字(制御ハ゜ラメータ=0) そして、前記学習パタンの学習後、未学習の「回」につ
いて入力し、学習した変形規則に基づいて変形した後の
文字を得た。得られた文字を図40(a)に示す。 <実施例8>この実施例は、原型の図形群(入力パタ
ン)と希望の装飾等を施した変形図形群(希望出力パタ
ン)との間の差分を教師パタンとして学習する場合の一
例である。
【0133】この実施例では、図41,図42で示した
ように、教師パタンTとして、 T={(B−A)/2}+C ・・・(4) B:変形図形(教師パタン) A:原型図形(入力パタン) C:(シグモイド関数の上限−下限)/2 を使用した場合である。
【0134】この場合のニューラルネットワークの構成
図を図43に示す。このニューラルネットワークは後処
理部50を有するとともに、入力からニューラルネット
ワークをバイパスして入力ベクトルデータを後処理部へ
と送るバイパス路51を有する。
【0135】この後処理部50での処理を図43(b)
(c)(d)により説明する。まず、変換式 T=(O
−I)/R+C を考える。 T:ニューラルネットワークの出力 O:本来の希望出力 I:ニューラルネットワークの入力 R:変換レート C:定数(const.) ここでOを求めるためには、 T=O/R−I/R+C O/R=T+I/R−C O=I+(T−C)×R としなければならない。
【0136】従って、図43(a)の各ノードの各入出
力関係は図43(b)のようになる。図43(b)にお
いて、R=1のとき最も単純な図43(c)の形とな
り、よく使われるR=2のとき、図43(d)のように
なる。
【0137】本実施例で使用した教師パタンの例を図4
4に示す。学習後、未学習の「首」の文字について入力
したところ、図45のような出力が得られた。教師パタ
ンをそのまま教師パタンとした場合の図28と対比され
る。 <実施例9>この実施例は、本発明を利用して文字認識
システムを構成した場合の実施例である。
【0138】光学式文字読取り装置(OCR)が最近文
字入力装置として利用されているが、必ずしも良好な認
識率を有しない。従来の文字認識システムは、既存の文
字フォントを内蔵し、その文字フォントと同一あるいは
近似の文字であれば、読み取った文字を認識できるが、
個人文字などでは認識できない場合が多い。
【0139】そこで、読取りができない場合、通信回線
を介してニューロ処理センターへ、認識すべき文字を送
り以下の処理を行う。すなわち、上記した本発明の方式
で、個人文字等認識不可能な文字群を認識可能な文字フ
ォントとして作成し、それを利用者側に送ってもらいシ
ステムに取り入れるようにして、それ以後利用者側端末
で個人文字などを認識できるようになる。
【0140】構成としては、図51に示したように、イ
メージスキャナ61と、このイメージスキャナ61で入
力した文字を認識する文字認識システム63と、この文
字認識システムによる文字認識が不可能であるとされた
とき、イメージスキャナ61から入力された認識対象の
文字を教師パタンとし、認識可能な既存の文字フォント
を入力パタンとして、認識可能な文字フォント群を作成
するニューラルネットワークNWとを備えている。
【0141】イメージスキャナ61と、このイメージス
キャナ61で入力した文字を認識する文字認識システム
63は利用者端末に含まれ、ニューラルネットワークは
ニューロ処理センターに含まれる。
【0142】ここで、前記文字認識システムは、文字認
識の為のリファレンスとする基準文字フォント群を格納
する文字フォント格納部65と、イメージスキャナ61
で入力した文字データを文字フォント格納部65の基準
文字フォントと比較して文字を認識する認識部67とを
有する。
【0143】前記ニューラルネットワークは、上記した
構成を利用したものである。すなわち、原型図形の集合
Aから変形図形の集合Bに未知の変換規則があると考え
られるとき、原型図形の集合Aの部分集合A0 に対し、
個々の要素について1対1の対応関係がある変形図形の
集合B0 を選びだし、集合Aの部分集合A0 を入力パタ
ンとし、集合B0 を教師パタンとして、ニューラルネッ
トワークに学習させ、A0 の母集合AからB0 の母集合
Bへの未知の変換規則を推定させ、推定した変換規則を
用いて、変形図形の集合Bを得るものである。
【0144】そして、前記文字認識システムによる認識
が不可能な文字群が入力されたとき、これを前記集合B
0 である教師パタンとし、この教師パタン毎に対応し
て、前記認識システムで認識可能な文字フォントを前記
部分集合A0 からなる入力パタンとしてニューラルネッ
トワークに与え、前記A0 からB0 への未知の変形規則
を推定させ、最終的に認識可能な原型文字の集合Aに対
応する文字フォント群Bを得る。
【0145】その手順は、先の各実施例で具体的に述べ
た通りである。最終的に得た文字フォント群は、認識可
能な新たな文字フォント群として文字認識システムの文
字フォント格納部65に格納する。
【0146】なお、文字認識システム自体もニューラル
ネットワークで構成することまお可能である。このよう
な構成の文字認識システムとすることで、認識率を大幅
に向上させることができる。 <実施例10>この実施例は音声合成サービスを行う場
合の例である。音声合成をニューラルネットワークで行
う場合、「一部共通データの学習」の項で説明したよう
に、例えば、「ア」([A])の音声を学習する場合、
同じ「ア」([A])でも、人により発音が異なること
から、同じ入力パタンに対して異なる教師パタンが対応
する現象が生じる。そこで、同じ「ア」([A])に対
する異なる発音の「ア」([A])の群から教師パタン
を選択して学習させる方式をとるのがよい。
【0147】
【発明の効果】本発明によれば、個人的には利用しにく
いニューラルネットワークを簡単に利用でき、ニューロ
処理結果を利用者端末で利用できるというメリットがあ
る。
【0148】具体的には、実施例で説明したように、個
人文字フォントを利用者に安価に提供でき、また文字読
取りなどの文字認識サービス、音声合成サービス、その
他ニューロ処理により得られるデータの提供サービスを
受けることができる。
【図面の簡単な説明】
【図1】本発明の原理図
【図2】本発明の具体的装置構成図
【図3】本発明の原理図
【図4】本発明の原理図
【図5】本発明の原理図
【図6】本発明の原理図
【図7】本発明の原理図
【図8】本発明の原理図
【図9】本発明の原理図
【図10】本発明の原理図
【図11】ニューラルネットワークの一例を示したブロ
ック図
【図12】ネットワークの入出力特性を示す図
【図13】ネットワークの構造を示す図
【図14】シグモイド関数を示すグラフ図
【図15】ニューラルネットワークによる図形作成シス
テムの原理図
【図16】入力パタン、教師パタンの作成方式1を示す
【図17】入力パタン、教師パタンの作成方式1を示す
【図18】パタン作成方式1に対応するニューラルネッ
トワークの構成図
【図19】入力パタン、教師パタンの作成方式2を示す
【図20】入力パタン、教師パタンの作成方式2を示す
【図21】パタン作成方式2に対応するニューラルネッ
トワークの構成図
【図22】パタン作成方式2における次のストロークの
始点を求める方法を示す図
【図23】パタン作成方式1,2の対比図
【図24】希望出力パタンをそのまま教師パタンとする
場合の構成図
【図25】本発明による文字フォント作成のフローチャ
ート図
【図26】実施例5のニューラルネットワークの構成図
【図27】希望出力パタンをそのまま教師パタンとする
場合の学習パタン
【図28】実施例5の場合の首の出力結果
【図29】実施例5における学習パタン1を示し、図1
9(a)は原型文字、図19(b)は教師パタンである
個人文字(T氏)、図19(c)は教師パタンである個
人文字(Y氏)
【図30】実施例5における学習パタン2を示し、図1
9(a)は原型文字、図19(b)は教師パタンである
個人文字(T氏)、図19(c)は教師パタンである個
人文字(Y氏)
【図31】実施例5の未学習パタンの実行結果1
【図32】実施例5の未学習パタンの実行結果2
【図33】実施例5の未学習パタンの実行結果3
【図34】実施例6における入力パタンと教師パタン1
【図35】実施例6における入力パタンと教師パタン2
【図36】実施例6の未学習パタンの実行結果1
【図37】実施例6の未学習パタンの実行結果2
【図38】実施例6の未学習パタンの実行結果3
【図39】実施例6の未学習パタンの実行結果4
【図40】入力パタン、教師パタンの作成方式1,2に
よる結果の比較図
【図41】入力パタンと希望出力パタンの差分を教師パ
タンとするニューラルネットワークの原理図
【図42】人篇についての入力パタンと希望出力パタン
の差分データを示す図
【図43】実施例8において差分を教師パタンとするニ
ューラルネットワークの具体的構成図
【図44】入力パタンと希望出力パタンの差分から構成
される教師パタンの例
【図45】入力パタンと希望出力パタンの差分を教師パ
タンとした場合の実行例
【図46】ネットワークの重み空間を示す図
【図47】同一パタンを教師パタンとしない場合(a)
と、した場合(b)との学習過程の比較図
【図48】同一パタンを教師パタンとしない場合(a)
と、した場合(b)との学習時間の比較図
【図49】同じ入力パタンに対して複数の教師パタンが
存在する場合の処理を示す概念図
【図50】同じ入力パタンに対して複数の教師パタンが
存在する場合の具体例
【図51】ニューロ処理を文字認識システムに利用した
例を示す図
【図52】本発明の実施例1の構成図
【図53】本発明の実施例2の構成図
【図54】本発明の実施例3の構成図
【符号の説明】
10・・・入出力パタン保持部 11・・・学習実行部 12・・・学習パラメータ保持部 13・・・重み更新部 14・・・重み記憶部 50・・・後処理部 51・・・バイパス路 61・・・イメージスキャナ 63・・・文字認識システム 65・・・文字フォント格納部 67・・・認識部 7・・・ニューロ処理センター 73・・・利用者端末としてのワードプロセッサ 75・・・ニューロ処理結果を格納するメモリ NN・・・ニューラルネットワーク

Claims (21)

    【特許請求の範囲】
  1. 【請求項1】 利用者端末に対してニューロ処理センタ
    ーを備え、利用者からの要求で前記ニューロ処理センタ
    ーがニューロコンピュータによるニューロ処理を行い、
    その処理結果を利用者に返すことを特徴とするニューロ
    利用サービス。
  2. 【請求項2】 前記利用者端末と前記ニューロ処理セン
    ターとを通信回線で接続して通信網を形成し、前記利用
    者端末からの要求を通信回線でニューロ処理センターの
    ニューロコンピュータに送り、このニューロコンピュー
    タでニューロ処理をし、その処理結果をニューロ処理セ
    ンターから通信回線を介して利用者端末に送信し、利用
    者端末で前記処理結果を受けて利用することを特徴とす
    る請求項1記載のニューロ利用サービス。
  3. 【請求項3】 前記利用者端末もニューロコンピュータ
    を備え、前記ニューロ処理センターのニューロコンピュ
    ータと利用者端末のニューロコンピュータとでサービス
    の処理を分担することを特徴とする請求項1または2記
    載のニューロ利用サービス。
  4. 【請求項4】 前記ニューロ処理センターのニューロコ
    ンピュータは、ニューラルネットワークによる学習部を
    有する一方、前記利用者端末は学習部を有しないニュー
    ロコンピュータを備え、利用者端末からの要求によりニ
    ューロ処理センターのニューロコンピュータの学習部で
    学習規則を学習して、その学習結果をニューロ処理セン
    ターから利用者端末に送信し、利用者端末のニューロコ
    ンピュータでは、その学習結果を利用してニューロ処理
    することを特徴とする請求項3記載のニューロ利用サー
    ビス。
  5. 【請求項5】 利用者側端末は、ニューラルネットワー
    クを有し、 センタ側は、ニューラルネットワークと前記ニューラル
    ネットワークの結合の重みを学習する手段を有し、 利用者端末から、センタに学習データを送り、 前記センタは学習データによって、ニューラルネットワ
    ークの結合の重みを学習し、前記学習された重みを、利
    用者端末に送出することを特徴とする請求項4の記載の
    ニューロ利用サービス。
  6. 【請求項6】 前記端末は、センタから送られた重みを
    自己のニューラルネットワークに適用して自己のニュー
    ラルネットワークで、ニューロ処理を行うことを特徴と
    する請求項5記載のニューロ利用サービス。
  7. 【請求項7】 前記ニューロ処理センターのニューロコ
    ンピュータは、図形作成サービスを行うものであり、こ
    の図形作成サービスとは、原型図形の集合Aから変形図
    形の集合Bに未知の変換規則があると考えられるとき、
    原型図形の集合Aの部分集合A0 に対し、個々の要素に
    ついて1対1の対応関係がある変形図形の集合B0 を選
    びだし、集合Aの部分集合A0 を入力パタンとし、集合
    0 を教師パタンとして、ニューラルネットワークに学
    習させ、A0の母集合AからB0の母集合Bへの未知の変
    換規則を推定させ、推定した変換規則を用いて、変形図
    形の集合Bを得るサービスであることを特徴とする請求
    項1または2記載のニューロ利用サービス。
  8. 【請求項8】 前記ニューロ処理センターのニューロコ
    ンピュータは、図形作成サービスを行うものであり、こ
    の図形作成サービスとは、原型図形の集合Aの部分集合
    0 に対し、個々の要素について1対1の対応関係があ
    る図形の集合B0 が存在し、A0 からB0 への未知の変
    形規則が成り立つとき、 前記、集合Aの部分集合A0 を入力パタンとし、前記集
    合B0 を教師パタンとして前記ニューラルネットワーク
    に与えて、前記A0 からB0 への未知の変形規則を学習
    させるサービスであり、この学習処理を前記ニューロ処
    理センターのニューロコンピュータで行い、 前記利用者端末のニューロコンピュータでは、集合Aに
    属しかつ部分集合A0以外の未学習の原型図形群A1
    ニューラルネットワークに入力し、前記学習した変形規
    則に従って原型図形群A1 に対する変形図形群B1 を得
    ることを特徴とする請求項4記載のニューロ利用サービ
    ス。
  9. 【請求項9】 前記ニューロコンピュータで行うニュー
    ロ処理が、文字認識サービスであることを特徴とする請
    求項1または2記載のニューロ利用サービス。
  10. 【請求項10】 前記利用者端末にイメージ入力手段を
    有するとともに、前記ニューロ処理センターと利用者端
    末のいずれかにこのイメージ入力手段で入力した文字を
    認識する文字認識システムを備え、この文字認識システ
    ムによる文字認識が不可能であるとされたとき、請求項
    7記載の図形作成サービスで前記イメージスキャナから
    入力された認識対象の文字を教師パタンとして、認識可
    能な文字フォントを作成し、前記文字認識システムで認
    識することを特徴とする請求項1または2記載のニュー
    ロ利用サービス。
  11. 【請求項11】 前記ニューロコンピュータで行うニュ
    ーロ処理が、音声合成サービスであることを特徴とする
    請求項1または2記載のニューロ利用サービス。
  12. 【請求項12】 利用者端末に対して、ニューロ処理セ
    ンタを備え、利用者は前記端末から文字データを前記ニ
    ューロ処理センタに送出し、 前記ニューロ処理センタは、前記送られた文字データを
    学習データとして、学習処理を行うことを特徴とするニ
    ューロ利用サービス。
  13. 【請求項13】 前記文字データにより、ニューラルネ
    ットワークの重み値を更新した後、 前記重み値が更新されたニューラルネットワークによっ
    て、複数の文字のフオントを作成することを特徴とする
    請求項12記載のニューロ利用サービス。
  14. 【請求項14】 前記利用者端末は、イメージ入力手段
    を含み、前記イメージ入力手段で入力された文字データ
    を前記ニューロ処理センタに送ることを特徴とする請求
    項12又は13記載のニューロ利用サービス。
  15. 【請求項15】 前記文字データは手書き文字のデータ
    であることを特徴とする請求項12乃至14記載のニュ
    ーロ利用サービス。
  16. 【請求項16】 利用者端末に対して、ニューロ処理セ
    ンタを備え、 前記利用者端末は、ニューラルネットワークを有し、 前記処理センタは、ニューラルネットワークと、前記ニ
    ューラルネットワークの重みの値を学習する手段を有
    し、 前記利用者端末から、学習データをニューロ処理センタ
    に送信し、 前記ニューロ処理センタは、前記送信された学習データ
    を用いて前記学習手段によって、ニューラルネットワー
    クを学習し、重み値を更新し、 前記ニューロ処理センタはその後に、前記重み値を利用
    者端末に送信し、 前記利用者端末は前記送信された重み値を自己のニュー
    ラルネットワークに適用して、ニューロ処理を行うこと
    を特徴とするニューロ処理システム
  17. 【請求項17】 前記利用者端末がニューロ処理センタ
    に送出する学習データは文字データであることを特徴と
    する請求項16記載のニューロ利用サービス。
  18. 【請求項18】 前記利用者端末のニューラルネットワ
    ークは、更新された重み値を用いて、文字フォントの変
    形を行うことを特徴とする請求項17記載のニューロ利
    用サービス。
  19. 【請求項19】 前記文字データは、手書き文字のデー
    タであることを特徴とする請求項17記載のニューロ利
    用サービス。
  20. 【請求項20】 利用者端末と、センタ側処理装置を備
    え、 センタ側処理装置は、ニューラルネットワークと、前記
    ニューラルネットワークを学習する学習手段を有してお
    り、 前記ニューラルネットワークの学習データを利用者端末
    からセンタ処理装置に与え、 前記センタ側処理装置は自己のニューラルネットワーク
    を前記学習データと、学習手段によって、ニューラルネ
    ットの重み値を更新し、 センタ側処理装置は、重みが更新されたニューラルネッ
    トワークを用いて、何らかのニューロ処理を行い、 前記利用者端末は、そのニューラルネットワークの出力
    結果を利用することを特徴とするニューロ処理システム
  21. 【請求項21】 利用者端末と、センタ側処理装置を備
    え、 センタ側処理装置は、ニューラルネットワークと、前記
    ニューラルネットワークを学習する学習手段を有してお
    り、 前記ニューラルネットワークの学習データを利用者端末
    からセンタ処理装置に与え、 前記センタ側処理装置は自己のニューラルネットワーク
    を前記学習データと、学習手段によって、ニューラルネ
    ットの重み値を更新し、 センタ側処理装置は、重みが更新されたニューラルネッ
    トワークを用いて、何らかのニューロ処理を行い、 前記利用者端末は、前記センタ側処理装置からそのニュ
    ーラルネットワークの出力結果を受取ることを特徴とす
    るニューロ処理システム
JP4064017A 1992-03-19 1992-03-19 ニューロ利用サービス Pending JPH05266227A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP4064017A JPH05266227A (ja) 1992-03-19 1992-03-19 ニューロ利用サービス
KR93004319A KR0131754B1 (en) 1992-03-19 1993-03-19 Neuro processing service system
US08/351,557 US5708727A (en) 1992-03-19 1994-12-07 Neuroprocessing service
US08/451,772 US5999922A (en) 1992-03-19 1995-05-26 Neuroprocessing service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4064017A JPH05266227A (ja) 1992-03-19 1992-03-19 ニューロ利用サービス

Publications (1)

Publication Number Publication Date
JPH05266227A true JPH05266227A (ja) 1993-10-15

Family

ID=13245976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4064017A Pending JPH05266227A (ja) 1992-03-19 1992-03-19 ニューロ利用サービス

Country Status (1)

Country Link
JP (1) JPH05266227A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096305A (ja) * 2006-10-12 2008-04-24 Matsushita Electric Works Ltd 異常監視装置
JP2009516246A (ja) * 2005-11-15 2009-04-16 ベルナデット ガーナー ニューラルネットワークのトレーニング方法
JP2014206499A (ja) * 2013-04-15 2014-10-30 新電元工業株式会社 二次電池寿命予測システム、二次電池特性評価装置、二次電池搭載装置、および二次電池寿命予測方法
JP2016536676A (ja) * 2013-10-09 2016-11-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューラルモデル実行をリモートで制御および監視するための方法および装置
JPWO2018062398A1 (ja) * 2016-09-30 2019-07-25 株式会社Uacj アルミニウム製品の特性予測装置、アルミニウム製品の特性予測方法、制御プログラム、および記録媒体
JP2021033571A (ja) * 2019-08-22 2021-03-01 キヤノン株式会社 情報処理装置、制御方法およびプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009516246A (ja) * 2005-11-15 2009-04-16 ベルナデット ガーナー ニューラルネットワークのトレーニング方法
JP2013020638A (ja) * 2005-11-15 2013-01-31 Garner Bernadette 入力ベクトルがニューロンによって既知であるか未知であるかを決定する方法
US11263528B2 (en) 2005-11-15 2022-03-01 Bernadette Garner Neural network, computer readable medium, and methods including a method for training a neural network
JP2008096305A (ja) * 2006-10-12 2008-04-24 Matsushita Electric Works Ltd 異常監視装置
JP4513796B2 (ja) * 2006-10-12 2010-07-28 パナソニック電工株式会社 異常監視装置
JP2014206499A (ja) * 2013-04-15 2014-10-30 新電元工業株式会社 二次電池寿命予測システム、二次電池特性評価装置、二次電池搭載装置、および二次電池寿命予測方法
JP2016536676A (ja) * 2013-10-09 2016-11-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューラルモデル実行をリモートで制御および監視するための方法および装置
JPWO2018062398A1 (ja) * 2016-09-30 2019-07-25 株式会社Uacj アルミニウム製品の特性予測装置、アルミニウム製品の特性予測方法、制御プログラム、および記録媒体
JP2021033571A (ja) * 2019-08-22 2021-03-01 キヤノン株式会社 情報処理装置、制御方法およびプログラム

Similar Documents

Publication Publication Date Title
US11899927B2 (en) Simulated handwriting image generator
CN106649542A (zh) 用于视觉问答的系统和方法
CN111090981B (zh) 基于双向长短时记忆网络的中文文本自动断句与标点生成模型构建方法及系统
CN109086653A (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
CN110968697B (zh) 文本分类方法、装置、设备及可读存储介质
CN111553350A (zh) 一种基于深度学习的注意力机制文本识别方法
CN109308316B (zh) 一种基于主题聚类的自适应对话生成系统
CN111079374A (zh) 字体生成方法、装置和存储介质
Inunganbi et al. Handwritten Meitei Mayek recognition using three‐channel convolution neural network of gradients and gray
US5708727A (en) Neuroprocessing service
JPH05266227A (ja) ニューロ利用サービス
CN111275780A (zh) 人物图像的生成方法及装置
Li et al. Style transfer for QR code
Ko et al. Korean font synthesis with GANs
CN109034279A (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
US11869130B2 (en) Generating visual feedback
CN113723111B (zh) 一种小样本意图识别方法、装置、设备及存储介质
JP3162154B2 (ja) ニューラルネットによる図形変換方式
CN110909161B (zh) 基于密度聚类和视觉相似度的英文单词分类方法
CN114387431A (zh) 基于语义分析的多行文字纸质表格ocr方法
EP0713190B1 (en) Method of objects recognition
JPH05265429A (ja) 文字フォント作成処理方式
WO2023084759A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6968353B2 (ja) 特徴抽出方法、コンピュータプログラム及び情報処理装置
JPH0546147A (ja) 変形書体生成システム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010403