JP3633642B2 - 情報の処理装置 - Google Patents

情報の処理装置 Download PDF

Info

Publication number
JP3633642B2
JP3633642B2 JP02943594A JP2943594A JP3633642B2 JP 3633642 B2 JP3633642 B2 JP 3633642B2 JP 02943594 A JP02943594 A JP 02943594A JP 2943594 A JP2943594 A JP 2943594A JP 3633642 B2 JP3633642 B2 JP 3633642B2
Authority
JP
Japan
Prior art keywords
information
knowledge
intermediate representation
state
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02943594A
Other languages
English (en)
Other versions
JPH07239785A (ja
Inventor
実 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP02943594A priority Critical patent/JP3633642B2/ja
Priority to US08/371,430 priority patent/US5845050A/en
Priority to DE19502554A priority patent/DE19502554C2/de
Publication of JPH07239785A publication Critical patent/JPH07239785A/ja
Application granted granted Critical
Publication of JP3633642B2 publication Critical patent/JP3633642B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、曖昧な、あるいは、膨大な情報から構成される知識情報もしくは状態情報を中間表現に変換し、この変換された中間表現を用いて推論、判断を行う情報の処理装置に関する。
【0002】
【従来の技術】
ある概念や知識を表すのには膨大な情報が必要である。この膨大な情報をそのまま使って処理していたのでは、処理に時間がかかり実用的でない。
そこで、この膨大な情報の中から必要な情報だけを取捨選択して、必要な情報だけを取り出して、圧縮して利用する方法をとる必要がある。また、取得した情報を用いてある概念や知識を特定する際には、情報が曖昧であったり、情報の欠落があったりする場合が殆どである。
【0003】
【発明が解決しようとする課題】
従来の知識処理方法においては、このような曖昧な情報を使うと人間が意図的に作成した情報表現との正確なマッチングをとることができず、それを使った推論や判断などの処理をうまく続行することができなかった。
本発明は上記した従来技術の問題点を考慮してなされたものであって、知識情報もしくは状態情報を中間表現に変換して処理することにより、曖昧な情報、もしくは、膨大な情報をうまく推論、判断することができる情報の処理装置を提供することを目的とする。
【0004】
【課題を解決するための手段】
図1は本発明の原理図であり、同図において、Sは入力された情報、S1はセンサ等の状態検出手段により観測された状態情報、Kは人間の知識情報、f,f1,f2 は、それぞれ、情報を中間表現に変換する例えばニューラルネット等から構成される情報変換関数、状態変換関数および知識変換関数、gは例えばニューラルネット等から構成される情報復元関数、R,R1 ,R2 ,R3 は中間表現である。
中間表現とは、複数の類似した情報をある一つのカテゴリに分類したものである。例えば、「りんご」というカテゴリを考えると、色、形は多少異なっても一つの「りんご」というカテゴリに分類できる情報は、一つのカテゴリに対応する中間表現とする。また、情報変換関数はこの分類を行う関数である。
【0005】
上記課題を解決するため、本発明の請求項1の発明は、図2(b)に示すように、センサにより入力された入力された状態情報を変換してその状態情報S1に対応した第1の中間表現を生成する状態変換手段(図2(b)の状態変換関数f1)と、物体の形状もしくは物体の状態に関する人間が理解可能な知識情報Kを変換して、その知識情報Kに対応し、上記状態変換手段により変換された中間表現とマッチング可能である上記知識情報の属性情報を表す第2の中間表現を生成する知識変換手段(図2(b)の知識変換関数f2)と、上記第1の中間表現と上記第2の中間表現を比較する手段と、上記比較の結果、上記第1の中間表現と上記第2の中間表現の一致した場合に、上記入力された状態情報と上記知識情報の一致を推定し、該推定の結果に基づきロボットを制御する手段とを備えたものである。
本発明の請求項2の発明は、請求項の発明において、上記変換手段としてニューラルネットを用いたものである。
【0006】
【作用】
まず、ある作業命令Cが与えられたとする。この命令は、たとえば、「肉と野菜を買ってきて」といった命令である。ここには、肉とは何か、野菜とは何かといった、従来の手法では非常に定義しにくい情報処理問題を含んでいる。
これを解釈する機構および情報の表現方法について説明する。与えられた作業命令Cが遂行されたかどうかは、その作業命令Cが達成された状態を表すゴールに到達したかどうかで判断する。ロボットがゴールに到達したかどうかの判断は、ロボットが持つセンサを使って状態S(n) を測定することによって決定する。
状態S(n) にはセンサ等から得られる環境情報やロボットの内部状態などが含まれる。したがって、ある作業命令Cが与えられたときには、それに対応する状態S(n) が得られれば、命令を解釈できたことになる。
【0007】
ところが、状態S(n) はたとえば、センサの生データなどからなるので、このままでは処理データ数がすぐに膨大になって扱いにくい。そこで、これを何らかの方法で変換統合することを考える。つまり、式(1)に示すように状態S(n) をある関数fによって変換し、中間表現Rとする。
中間表現R= 情報変換関数f(状態S(n) ) (1)
式(1)に与えられた命令が達成された状態SGを入力すると、ゴールを表す中間表現RGが得られる。
ゴールの中間表現RG = 情報変換関数f(状態SG) (2)
すなわち、図2(c)に示すように、前記作業命令C1 が与えられたとき、これを詳細命令群C2 に展開したのち、詳細命令群C2 を満足する状態情報SGに変換し、さらに、状態情報SGを状態変換関数f1 (状態情報を変換する情報変換関数fを状態変換関数f1 という)により中間表現RGを得て、これを満足するように個々の命令を実行することにより、作業命令Cを達成することができる。
【0008】
中間表現は、たとえば、数ビットの01の組み合せが考えられる。例えば、8ビットならば、00000000から11111111まで256通りの中間表現が扱える。状態S(n) が無限にある場合には、状態変換関数f1 は無限情報を256通りに分類したことに相当し、情報の変換が図られたことになる。
すなわち、図1(a)(b)に示すように、センサ等の状態情報検出手段により検出された情報Sを情報変換関数fにより変換し、中間表現Rを得ることにより、状態Sを何通りかに分類し、情報の変換を図ることができる。
なお、情報変換関数fは、図1(d)に示すように、たとえばニューラルネットを用いて実現することができる。
状態Sと中間表現R1 との対応を決めるときには、256通りのデータのなかから、適当に一つを選択し、それと明らかに異なる状態では異なるデータを割り当てる。その際、明らかに、ある状態を特定できるときは、これを中間表現のなかのある特定のビットに割り当てれば、あとで中間表現を見るだけで、状態が推定できる。
【0009】
一方、人間の知識についても、図1(c)に示すように、知識変換関数f2 (知識を変換する情報変換関数fを知識変換関数f2 という)を用い、中間表現R2 に変換することができ、知識変換関数f2 も図1(d)に示すように、ニューラルネットを用いて実現することができる。
さらに、情報変換関数fの逆関数gを作ると、これは情報復元関数となる。
状態S(n) = 情報復元関数g (中間表現R1 ) (1’)
上記情報復元関数gを用いて、図2(a)に示すように、中間表現を知識、または状態情報に逆変換することにより、中間表現を人間が理解可能な表現に復元することができる。
上記したような中間表現を使うと、センサレベルの信号と知識との融合が可能となる。つまり、図2(b)に示すように、ある一つの知識Kを中間表現に変換し、あるビット表現で表わしておく。これと、センサから観測される情報Sを中間表現に変換してあるビット表現で表わしたものが一致すれば、観測されたものSは、知識Kだと推定できる。
【0010】
例として、「りんご」という知識または記号とセンサから観測されたもののマッチングをとる場合を考える。ここでは、複数のセンサをもつロボットがある物体をセンスし、それが人間の言葉で何というものかを特定する場合を考える。つまり、ロボットが測定したものと人間が見たものがどちらも「りんご」だと認識することが目標である。
まず、「もの」にはいろんな属性、たとえば、色、形、重さ、材質、用途などがあるので、これらにいくつかのビットを割り当てることを考える。一つの属性に16ビットのビット列を割り付けておく。もちろん、このビット数は増減してよいし、知識の増減にしたがって自動的に増減させてもよい。
【0011】
あるとき、何らかのセンサによって取得された情報を情報変換関数に入力し、出力として、下記▲1▼のような中間表現が得られたものとする。
▲1▼<センサから得られた中間表現>
色 :0001 0000 1000 0100
形 :0000 0100 0000 0100
重さ :0000 0010 0000 0100
材質 :0010 0000 0100 0010
用途 :0010 0010 0010 0100
ここでは、もっと多くのセンサからこれら16ビット表現に変換してもよいし、16ビット以下のセンサから16ビット表現に拡張してもよいが、センサ信号から、何らかの方法によって、16ビットの中間表現に対応する信号を得ているものとする。もちろん、上表で表わされた表現が、センサを使って見た「りんご」(まだこれが「りんご」かどうかはこのロボットは知らないが)の中間表現である。
【0012】
一方、人間が「りんご」と言うとき、これを上記のパターン化した知識として表わしておき、このパターン化された知識とセンサから得られた知識のマッチングがとれれば、人間とロボットで共通の概念が生成できたことになり、ロボットには「りんご」というだけでそれが何か理解させることができる。
次に、人間が「りんご」に対するイメージをビット表現に変換することを考える。まず、色は赤または緑であるが、ここでは簡単のため赤という知識だけを色ビットに適当に割り付ける。形は球、丸。重さは100gくらい、材質はよくわからないが、柔らかい、用途は、果物、などの属性が挙げられる。これらは、人間がロボットに直接入力してもいいし、ロボットからの質問形式で答えてもよい。そして、下記▲2▼のような中間表現が得られたものとする。
この際、ロボットにはまだ何の知識もないので、赤や緑といった概念すら存在せず、色に対して緑とか赤とかを表す適当な表現がまだ構築されていない。他の属性に関しても同様である。
【0013】
▲2▼<人間の知識から得られた中間表現>
色 :0100 0000 1010 0110
形 :0010 1100 0100 0000
重さ :0000 1010 0100 0100
材質 :0110 0100 0100 0000
用途 :1000 1010 0010 0100
人間から、今センスしたものと人間が与えた知識は同じものだから、これを同じ表現にせよという命令が与えられ、▲1▼と▲2▼の中間表現の共通化を試みる。これには両者のANDをとったりORをとったりする方法や確率的にどちらかのビットを選択するなどの方法が考えられる。いづれにしても、何らかの操作によって、両者の共通した表現、下記の▲3▼が得られる。
【0014】
▲3▼<人間の知識とセンサ情報を融合して得られた中間表現>
色 :0101 0000 1010 0100
形 :0010 0100 0100 0100
重さ :0000 1010 0000 0100
材質 :0010 0100 0100 0010
用途 :0010 0010 0010 0100
以上の過程を図に表わすと図1(e)に示すようになる。
上の方法では、初期知識がなかったため、センサ信号や人間の知識を直接共通の中間表現にはできなかった。そこで、すでに獲得した中間表現を参考に、信号変換や知識変換部を学習させて、直接、共通の中間表現に変換させることを考える。たとえば、色表現を例に取ると、赤は、初めはそれぞれ下記▲4▼のように表現されたので、これを信号変換や知識変換の過程で、両者を融合して得られた色表現を直接出力できるように学習させる。この学習にはたとえば、階層型ネットワークが利用できる。
【0015】
▲4▼<色表現の中間表現>
センサ信号から得られた色表現:0001 0000 1000 0100
人間の知識から得られた色表現:0100 0000 1010 0110
両者を融合して得られた色表現:0101 0000 1010 0100
さて、この表現を利用すると、りんごを学習したことによって、同時に色の学習ができたことになる。つまり、学習によって、りんごの赤という色の共通の中間表現が得られたので、たとえば、赤い花といったとき、赤の表現が先に学習した赤の色表現を参考にして、生成できる。同様に他の色についても学習させることによって、色の知識獲得が可能となる。また、赤と緑の中間の色なども両者の混合として表わすことができる。
以上の過程において、あらかじめ、赤なら赤に対応するビット表現を決めておき、それに合致するようセンサ信号変換則を学習してもよい。このときは、ビット表現を見るだけで簡単にその意味が理解できるようにすることが可能である。
【0016】
本発明は上記原理に基づき、前記課題を解決するようにしたものであり、本発明の請求項1の発明においては、センサにより入力された物体の形状もしくは物体の状態に関する状態情報を変換してその状態情報に対応した第1の中間表現を生成する状態変換手段と、物体の形状もしくは物体の状態に関する人間が理解可能な知識情報を変換して、その知識情報に対応し、上記状態変換手段により変換された中間表現とマッチング可能である上記知識情報の属性情報を表す第2の中間表現を生成する知識変換手段と、上記第1の中間表現と上記第2の中間表現を比較する手段と、上記比較の結果、上記第1の中間表現と上記第2の中間表現の一致した場合に、上記入力された状態情報と上記知識情報の一致を推定し、該推定の結果に基づきロボットを制御する手段とを設けたので、センサ等により観測された状態情報Sと人間の知識Kとが同じものであるか否かを推定し、ロボットを制御することができる。
本発明の請求項2の発明は、請求項1の発明において、上記変換手段としてニューラルネットを用いたので、中間表現を容易に生成することができる。
【0017】
【実施例】
図3は状態変換関数としてニューラルネットを用い、センサにより検出された物体の状態情報を中間情報に変換する実施例を示す図である。同図において、11は物体、12a〜12dは物体の状態を検出する各種センサであり、例えば、色センサ12aは、分光反射率等を観測する光センサと、A/D変換器から構成されており、上記光センサにより物体の反射波の波長を取得し、A/D変換器により4ビットのディジタル信号からなる色情報に変換する。
形状センサ12bは、例えば、カメラ等の画像取得手段と、画像処理手段とから構成されており、物体の形状を画像取得手段により取得し、取得した形状を画像処理手段により、4ビットの形状パターンに分類する。同様に、質量センサ12cは質量を計測する手段と、A/D変換器から構成されており、取得した物体の質量を4ビットの質量情報に変換する。
また、13は4ビットの情報からなる状態情報を8ビットの中間表現に変換するニューラルネット、131a〜131dはニューラルネットの入力ユニット、132、133はそれぞれニューラルネットの中間ユニット、出力ユニットである。
【0018】
同図において、色センサ12a、形状センサ12b、質量センサ12c、…、その他のセンサ12dにより、物体11の状態を検出し、それぞれ4ビットの状態情報に変換する。
一方、中間表現として、異なる種類の物体、例えば、「りんご」と「みかん」等が同一表現にならないように物体毎に適当に定めておく。最も簡単には、「りんご」を「00000001」、「みかん」を「00000002」のように定める。
そして、各種の物体について、上記各種センサ12a〜12dにより得た4ビットの状態情報をニューラルネット13の入力ユニット131a〜131dに与えるとともに、上記中間表現を教師信号としてニューラルネット13の出力ユニットに与え、ニユーラルネット13をバックプロパゲーション法等で学習させる。
これにより、物体についての状態情報をニューラルネット13に与えると、ニューラルネット13は物体の特徴をこれに対応した8ビットの中間表現を出力するようになる。すなわち、ニューラルネット13は情報の変換を学習して、状態変換関数として機能するようになる。
【0019】
図4は知識変換関数としてニューラルネットを用い、ある物体の知識を中間情報に変換する実施例を示す図である。同図において、21はある物体の知識、22a〜22dはある物体についての色、形状、属性等を4ビットの情報で表した知識情報である。
また、23は4ビットの情報からなる知識情報を8ビットの中間表現に変換するニューラルネット、231a〜231dはニューラルネットの入力ユニット、232、233はそれぞれニューラルネットの中間ユニット、出力ユニットである。
同図において、知識情報は知識の分類が可能なように、適当な知識の特徴量を選んで決める。例えば、色情報を4ビットで表す場合には、図5に示すように定めることができる。すなわち、0000を黒、0001を赤(暗い)、…、1111を白のように定めたり、これらの色を組み合わせた、例えば、マゼンタを0011とし、0101を黄色(暗い)と定めるなど、各色を適当な4ビットの情報に対応させる。
【0020】
また、形状に関する知識情報としては、例えば、丸を0001、三角を0010、四角を0100などと決めることができる。その他の特徴に関しても、適当な知識の特徴量を選んで決める。
一方、中間表現として、前記と同様に適当に定めておき、各種の知識について、ニユーラルネット13をバックプロパゲーション法等で学習させる。
これにより、知識についての知識情報をニューラルネット13に与えると、ニューラルネット13はこれに対応した8ビットの中間表現を出力するようになる。すなわち、ニューラルネット13は情報の変換を学習して、知識変換関数として機能するようになる。
【0021】
図6、図7は本発明をロボットの物体認識に適用した実施例を示す図であり、図6において、31は人間がロボットに与える、例えば、「りんごをつかめ」という作業命令、32は作業命令を分解(解釈)する命令解釈部、33は命令解釈部32により得られた、例えば「りんご」というの知識、34a,34bを「りんご」という知識より得た「赤い(暗い)」、「丸い」等をビット表現で表した知識情報、35は上記知識情報を中間表現に変換するニューラルネット、36はニューラルネット35により得られた得られた中間表現、37は上記中間表現36と後述する図7に示すロボットから得られた中間表現を比較し、一致するか否かを判定する比較手段である。
また、図7において41はロボット、41aは色情報、形状情報等を取得する色センサ、カメラ等のセンサ、42a,42bはセンサ41aにより取得した色情報、形状情報等の状態情報、43は上記状態情報を中間表現に変換するニューラルネット、44はニューラルネット43により得られた得られた中間表現であり、中間表現44は図6に示す比較手段37において、中間表現36と比較される。
【0022】
図6、図7において、まず、人間が「りんごをつかめ」という作業命令を与えるものとする。
この命令は命令解釈部32において、「りんご」と「つかむ」という2種類の情報に分類解釈される。そして、「りんご」という知識33とそれに付随して記憶されているそのビット表現である「赤(暗い)」、「丸い」という知識情報34a,34bがニューラルネット35に入力され、ニューラルネット35はそれに対応した中間表現を出力する。
一方、ロボット41のセンサ41aは「りんご」を特定すべく、色情報、形状情報などを取得する。これらの状態情報は、ニューラルネット43により中間表現に変換される。
比較手段37はニューラルネット35と43により変換された中間表現36と44とを比較し、それらが一致すると一致信号を出力する。
そこで、比較手段37が一致信号を出力するまで、ロボット41側で一連の操作を行えば、「りんご」の探索を行うことができる。
【0023】
以上のように、本実施例によれば、人間が「りんごをつかめ」というロボットにとって曖昧な作業命令を与えるだけで、ロボットに「りんご」を探索させることができる。
なお、上記実施例では、物体と知識との情報変換を別々のニューラルネットを用いて実現しているが、センサ情報から取得したビット表現をそのまま知識のビット表現として用いれば、同一のニューラルネットを用いてもかまわない。但し、この場合には、人間がビット表現を見ただけでは、それが何の情報に対応するのかは、おそらく理解できなくなる。
ところで、知識情報として、ニューラルネットへの入力データを全部覚えておくのは膨大な記憶装置を必要とするし、また、冗長でもある。
そこで、入力データそのものではなく、中間表現だけを覚えておけば、少ない記憶領域ですみ、都合がよい。すなわち、「りんご」という知識に対して、中間表現である8ビットの情報だけを記憶するようにしておく。
このとき、個々の属性情報がほしい場合に、中間表現から個々の属性情報へと逆変換できるようにしておけば、必要に応じて、中間表現を人間が理解できる表現にすることができる。この逆変換は順変換と同様にニューラルネットを用いて実現することができる。
【0024】
図8は上記のように中間表現を逆変換して人間が理解できる知識情報に変換する実施例を示す図である。同図において、51は既に学習された既学習知識、52はその中間表現、53はニューラルネットから構成される知識逆変換関数、54は逆変換された知識情報である。
また、55は未学習知識、56は未学習な知識情報を中間表現に変換するニューラルネットから構成される知識変換関数、57は知識変換関数56により得られた中間表現である。
同図において、例えば、「りんご」という知識に対して中間表現である8ビットだけを記憶するようにしておく。そして、「りんご」という知識の個々の属性情報がほしいときには、知識逆変換関数53により、中間表現から個々の属性情報への逆変換を行う。
一方、まだ学習していない未学習知識55に関しては、人間がその属性を決めるなり、センサ情報を使うなりして、知識変換関数56により中間表現を生成し、これを記憶する。そして、逆変換が可能なように、知識逆変換関数53にもこの関係を覚えさせておく。これにより、中間表現だけを記憶しておくことで、知識情報の処理が可能となる。
【0025】
【発明の効果】
以上説明したように本発明においては、次の効果を得ることができる。
(1) 請求項1の発明においては、センサにより入力された物体の形状もしくは物体の状態に関する状態情報を変換してその状態情報に対応した第1の中間表現を生成する状態変換手段と、物体の形状もしくは物体の状態に関する人間が理解可能な知識情報を変換して、その知識情報に対応し、上記状態変換手段により変換された中間表現とマッチング可能である上記知識情報の属性情報を表す第2の中間表現を生成する知識変換手段と、上記第1の中間表現と上記第2の中間表現を比較する手段と、上記比較の結果、上記第1の中間表現と上記第2の中間表現の一致した場合に、上記入力された状態情報と上記知識情報の一致を推定し、該推定の結果に基づきロボットを制御する手段を設けたので、センサ等により観測された状態情報と人間の知識とが同じものであるか否かを推定し、ロボットを制御することができる。
(2) 請求項2の発明においては、上記変換手段としてニューラルネットを用いたので、中間表現を容易に生成することができる。
【図面の簡単な説明】
【図1】本発明の原理図である。
【図2】本発明の原理図(続き)である。
【図3】ニューラルネットにより状態変換関数を実現した実施例を示す図である。
【図4】ニューラルネットにより知識変換関数を実現した実施例を示す図である。
【図5】色情報を4ビットで表す一例を示す図である。
【図6】本発明をロボットに適用した実施例を示す図である。
【図7】本発明をロボットに適用した実施例(続き)を示す図である。
【図8】中間表現を逆変換して知識情報に変換する実施例を示す図である。
【符号の説明】
S 情報
f 情報変換関数
S1,42a,42b 状態情報
K,54 知識情報
f1, 状態変換関数
f2 ,56 知識変換関数
R,R1 ,R2 ,R3 ,36,44,52,52,57中間表現
11 物体
12a,12b,12c,12d 各種センサ
13,23,35,43 ニューラルネット
21,33 知識
22a,22b,22c,22d 知識情報
C1 ,C2 ,31 作業命令
32 命令解釈部
37 比較手段
41 ロボット
41a センサ
51 既学習知識
53 知識逆変換関数
55 未学習知識

Claims (2)

  1. センサにより入力された物体の形状もしくは物体の状態に関する状態情報を変換してその状態情報に対応した第1の中間表現を生成する状態変換手段と、
    物体の形状もしくは物体の状態に関する人間が理解可能な知識情報を変換して、その知識情報に対応し、上記状態変換手段により変換された中間表現とマッチング可能である上記知識情報の属性情報を表す第2の中間表現を生成する知識変換手段と、
    上記第1の中間表現と上記第2の中間表現を比較する手段と
    上記比較の結果、上記第1の中間表現と上記第2の中間表現の一致した場合に、上記入力された状態情報と上記知識情報の一致を推定し、該推定の結果に基づきロボットを制御する手段とを備えた
    ことを特徴とする情報の処理装置。
  2. 上記変換手段としてニューラルネットを用いた
    ことを特徴とする請求項1の情報の処理装置。
JP02943594A 1994-02-28 1994-02-28 情報の処理装置 Expired - Fee Related JP3633642B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP02943594A JP3633642B2 (ja) 1994-02-28 1994-02-28 情報の処理装置
US08/371,430 US5845050A (en) 1994-02-28 1995-01-11 Method and apparatus for processing information and a method and apparatus for executing a work instruction
DE19502554A DE19502554C2 (de) 1994-02-28 1995-01-27 Lernverfahren für ein Objekterkennungsgerät, Objekterkennungsverfahren und -gerät, sowie Verfahren und Vorrichtung zur maschinellen Ausführung einer Arbeitsanweisung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02943594A JP3633642B2 (ja) 1994-02-28 1994-02-28 情報の処理装置

Publications (2)

Publication Number Publication Date
JPH07239785A JPH07239785A (ja) 1995-09-12
JP3633642B2 true JP3633642B2 (ja) 2005-03-30

Family

ID=12276067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02943594A Expired - Fee Related JP3633642B2 (ja) 1994-02-28 1994-02-28 情報の処理装置

Country Status (3)

Country Link
US (1) US5845050A (ja)
JP (1) JP3633642B2 (ja)
DE (1) DE19502554C2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038567A (en) * 1998-02-19 2000-03-14 Microsoft Corporation Method and system for propagating object properties in a desktop publishing program
US6272396B1 (en) * 1998-02-20 2001-08-07 Tairob Industrial Technology Ltd. Method for applying knowledge from a skilled worker via a master expert machine to a slave expert machine for repetitive tasks
WO2006005669A2 (de) * 2004-07-09 2006-01-19 Siemens Aktiengesellschaft System zur informationsextraktion und/oder informationsbewertung
US8156147B1 (en) 2007-02-06 2012-04-10 The Mathworks, Inc. Sharing of instructions across model boundaries
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
KR20120027253A (ko) * 2009-04-23 2012-03-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 물체-학습 로봇 및 방법
JP5516610B2 (ja) * 2012-01-19 2014-06-11 株式会社安川電機 ロボット、ロボットハンドおよびロボットハンドの保持位置調整方法
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
US11420325B2 (en) * 2018-03-05 2022-08-23 Omron Corporation Method, apparatus and system for controlling a robot, and storage medium

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62270712A (ja) * 1986-05-20 1987-11-25 Nippon Kokan Kk <Nkk> 高炉状況検出方法
JPH087789B2 (ja) * 1988-08-15 1996-01-29 工業技術院長 パターン連想記憶方法および装置
US5093899A (en) * 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
US5099436A (en) * 1988-11-03 1992-03-24 Allied-Signal Inc. Methods and apparatus for performing system fault diagnosis
US5005147A (en) * 1988-12-30 1991-04-02 The United States Of America As Represented By The Administrator, The National Aeronautics And Space Administration Method and apparatus for sensor fusion
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
JPH03189856A (ja) * 1989-12-20 1991-08-19 Fujitsu Ltd 外部評価基準の学習方式
US5299284A (en) * 1990-04-09 1994-03-29 Arizona Board Of Regents, Acting On Behalf Of Arizona State University Pattern classification using linear programming
FR2661265B1 (fr) * 1990-04-24 1994-07-29 Thomson Csf Systeme neuronal de classification et procede de classification utilisant un tel systeme.
JPH04227507A (ja) * 1990-07-02 1992-08-17 Nec Corp 移動ロボット用のマップを作成し保持する方法
DE4100500A1 (de) * 1991-01-10 1992-07-16 Bodenseewerk Geraetetech Signalverarbeitungsanordnung zur klassifizierung von objekten aufgrund der signale von sensoren
US5276772A (en) * 1991-01-31 1994-01-04 Ail Systems, Inc. Real time adaptive probabilistic neural network system and method for data sorting
US5239594A (en) * 1991-02-12 1993-08-24 Mitsubishi Denki Kabushiki Kaisha Self-organizing pattern classification neural network system
JP2635836B2 (ja) * 1991-02-28 1997-07-30 株式会社東芝 全自動洗濯機
US5303330A (en) * 1991-06-03 1994-04-12 Bell Communications Research, Inc. Hybrid multi-layer neural networks
US5586215A (en) * 1992-05-26 1996-12-17 Ricoh Corporation Neural network acoustic and visual speech recognition system

Also Published As

Publication number Publication date
US5845050A (en) 1998-12-01
JPH07239785A (ja) 1995-09-12
DE19502554C2 (de) 1999-07-01
DE19502554A1 (de) 1995-08-31

Similar Documents

Publication Publication Date Title
CN111737458B (zh) 基于注意力机制的意图识别方法、装置、设备及存储介质
Wang et al. Protein sequence classification using extreme learning machine
JP3633642B2 (ja) 情報の処理装置
KR950004881A (ko) 칼라화상처리방법 및 장치
Osakada et al. Neural networks for process planning of cold forging
Mouha Deep learning for robotics
CN115631365A (zh) 一种融合知识图谱的跨模态对比零样本学习方法
CN114731341A (zh) 信息获取方法、设备和系统
WO2022030506A1 (ja) 情報処理装置及び情報処理方法
Heywood et al. A framework for improved training of Sigma-Pi networks
Tatiya et al. Haptic knowledge transfer between heterogeneous robots using kernel manifold alignment
Pau et al. Neural network signal understanding for instrumentation
US5506936A (en) Fuzzy inference system and a pattern input type membership value generator
Kimura et al. New perspective of interpretability of deep neural networks
Hampson et al. Representing and learning boolean functions of multivalued features
Takagi et al. A trial for data retrieval using conceptual fuzzy sets
Di Felice et al. One-shot imitation learning with Graph Neural Networks for Pick-and-Place manipulation tasks
JP2701311B2 (ja) 認識辞書作成機能を備えた文字認識装置
EP0567983B1 (en) Learning type waveform recognizer
Yamamoto et al. An improved expand-and-truncate learning
CN111079928A (zh) 基于对抗学习的循环神经网络用于人体运动预测方法
Benoit et al. A fuzzy colour sensor
Balado et al. Chatgpt for Point Cloud 3d Object Processing
Omlin et al. Representation of fuzzy finite state automata in continuous recurrent, neural networks
Moussa et al. A connectionist model of human grasps and its application to robot grasping

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041221

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees