JPH0926948A - ニューラルネットワークによる情報処理装置 - Google Patents

ニューラルネットワークによる情報処理装置

Info

Publication number
JPH0926948A
JPH0926948A JP7174867A JP17486795A JPH0926948A JP H0926948 A JPH0926948 A JP H0926948A JP 7174867 A JP7174867 A JP 7174867A JP 17486795 A JP17486795 A JP 17486795A JP H0926948 A JPH0926948 A JP H0926948A
Authority
JP
Japan
Prior art keywords
information
layer
neural network
input
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7174867A
Other languages
English (en)
Inventor
Takashi Kimoto
隆 木本
Yoshinori Yaginuma
義典 柳沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP7174867A priority Critical patent/JPH0926948A/ja
Publication of JPH0926948A publication Critical patent/JPH0926948A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 ニューラルネットワークによる情報処理装置
に関し,多数の情報の表す内容を少ない情報数で効率良
く表現することを目的とする。 【解決手段】 複数のニューラルネットワークを階層的
に接続し,学習により得られた各ニューラルネットワー
クの内部表現をそれぞれのニューラルネットワークが入
力した情報数より少ない情報数でそれぞれの上位の階層
のニューラルネットワークに入力することにより入力情
報を統合し,入力情報数より少ない情報数で入力情報の
表す内容を表現して出力する情報統合部を備える構成を
もつ。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は,ニューラルネットワー
クによる情報処理装置に関するものである。人間は,異
種複数のセンサによって得られた視覚,触覚,聴覚など
の多種多様な感覚情報と自分自身の知識や運動系などか
ら得られるさまざまな情報を段階的に統合して,処理す
ることで外界の環境を認識して行動している。人間のこ
のような多種多様なセンサ情報を統合した情報処理機構
を工学的に実現するためには,異種センサ情報の同種の
情報への段階的な統合,情報を統合するために必要な変
換ルールである内部表現の自動獲得,センサ情報のあい
まい性を許容できる柔軟性,外界の認識と認識結果に対
応する運動の相互関係の記述を可能とする等の機能を持
たせる必要がある。
【0002】これまで,本発明者等は,システムの内部
表現とセンシング対象のセンサ情報の対応関係を学習し
た順方向の階層型ネットワークにおいて,誤差逆伝搬に
より入力ネットワークの値を修正する手法(イテラティ
ブインバージョン(Iterative inversion )法)を用い
て,認識系と運動系の情報交換やトップダウン情報を利
用した認識問題の不良設定性の回避などが可能な認識モ
デルを提案してきた。
【0003】さらに,システムが外界に対して高度で受
難な適応能力を持つためには,内部表現の自動獲得能力
を備えることが必要である。複数センサから得られる多
種多様で曖昧な不完全情報を統合して適切な形で必要と
される情報を自動的に抽出して,少ない情報数で適切な
形に表現し,システム内部表現として蓄えるしくみが重
要である。
【0004】本発明は,情報統合の枠組みとして,学習
により内部表現を獲得する能力を有する砂時計型ニュー
ラルネットワークに着目し,内部表現の自動獲得と異種
情報の階層的情報統合により情報処理をすることにより
上記の要件を満たす情報処理装置を提供する。そして,
本発明の情報処理装置により,情報を多段的にデータ圧
縮し,環境認識,パターン認識,知能ロボット,統計情
報の情報処理等で必要とされる大量の情報の情報処理を
能率的に行うことができるようにしたものである。
【0005】
【従来の技術】3次元物体の認識をデータ圧縮して行う
場合を例として,図12により従来の技術を説明する。
【0006】図12において,201は左カメラであ
る。202は左データ保持部である。
【0007】203は左データ圧縮部である。204は
左データ復元部である。211は右カメラである。
【0008】212は右データ保持部である。213は
右データ圧縮部である。214は右データ復元部であ
る。
【0009】220は3次元データ生成部である。図7
の構成の動作を説明する。左カメラ201,右カメラ2
11により3次元物体(図示せず)を撮影し,左カメラ
201で作成した画像データは左データ保持部202に
保持し,右カメラ211により撮影した画像データは右
データ保持部212に保持する。
【0010】左データ,右データはそれぞれ左データ圧
縮部203,右データ圧縮部213でデータ圧縮され
る。そして,左データ復元部204により左画像のデー
タを復元し,右データ復元部214で右画像のデータを
復元する。
【0011】3次元データ生成部220は左画像の復元
データと右画像の復元データに基づいて3次元画像を生
成する。
【0012】
【発明が解決しようとする課題】上記のように,従来の
3次元物体の認識は,左右の2次元データ毎にデータ圧
縮と復元を行い,左右の情報を統合して圧縮/復元をす
ることはしていなかった。そのため,データ処理数が多
いと処理に長時間を必要とし,また多数のモジュールも
必要とした。また,このような装置をニューラルネット
ワークのような学習をしながらデータ処理をするシステ
ムで行う場合には大規模な情報で学習しなければならな
いため学習が不可能になる場合もあった。
【0013】本発明は,多数の情報の表す内容を少ない
情報数で効率良く表現する情報処理装置を提供すること
を目的とする。
【0014】
【課題を解決するための手段】砂時計型のニューラルネ
ットワークは,獲得した内部表現を階層的に積み上げる
ことにより獲得済みの内部表現を流用し,学習コストの
低減をはかることができる。例えば,すでに「カップ」
と「グラス」を区別できる形状に関する内部表現と色を
区別することのできるシステムが「赤いカップ」と「青
いグラス」を区別する内部表現を生成するケースでは,
新たなセンサ情報から内部表現を直接生成するよりも,
前記二つの内部表現を統合した表現を学習する方が容易
である。さらに,階層化により,同じような処理系統を
複数作ることを避けられるので効率的である。本発明
は,異種情報を統合することにより多数の情報を少ない
情報数で情報処理できるようにし,ネットワーク数で多
数の情報処理をすることができようにした。
【0015】本発明は,複数のニューラルネットワーク
を階層的に接続し,学習により得られた各ニューラルネ
ットワークの内部表現をそれぞれのニューラルネットワ
ークが入力した情報数より少ない情報数でそれぞれの上
位の階層のニューラルネットワークに入力することによ
り入力情報を統合し,入力情報数より少ない情報数で入
力情報の表す内容を表現して出力する情報統合部を備え
る構成を持つ。
【0016】図1は本発明の基本構成を示す図である。
図1において,図1 (a)は本発明で使用する砂時計型の
ニューラルネットワーク(単に,ネットワークと略称す
る場合がある)の説明図である。
【0017】1は砂時計型のニューラルネットワークで
ある。砂時計型ニューラルネットワークは,入力層と出
力層のユニット数が同じであって,最もユニット数の少
ない中間層(圧縮層)のユニット数が入力層もしくは出
力層よりも小さい3層以上のニューラルネットワークで
ある。
【0018】2は入力層である。3は中間層(圧縮層)
である。4は出力層である。
【0019】5−1,5−2,5−3,5−4は入力層
のユニットであって,図1は入力層のユニット数が4の
場合を例示したものである。6−1,6−2は中間層の
ユニットであって,図1は中間層のユニット数が2の場
合を例示したものである。
【0020】7−1,7−2,7−3,7−4は出力層
のユニットであって,図1は出力層のユニット数が4の
場合を例示したものである。8は評価部であって,入力
信号と出力層4の出力の差に基づいて中間層3の内部表
現を学習しながら変更するものである(内部の信号伝搬
の重み係数を変更する等)。学習は,例えば,入力層の
ユニット(5−1,5−2,5−3,5−4)への入力
と出力層のユニット(7−1,7−2,7−3,7−
4)からの出力が同じになるようにする等の方法(恒等
写像)で行う。
【0021】入力層2から中間層3への信号の流れは逆
モデルであって,情報圧縮をするものである。中間層3
から出力層4への信号の流れは順モデルであって,情報
復元である。
【0022】図1 (b)は本発明の情報処理装置の基本構
成である。図1 (b)において,9は情報処理装置であ
る。
【0023】10は情報統合部であって,複数の情報を
統合的に処理して入力情報より少ない情報数で入力情報
の内容を表す情報を出力するものである。11,12,
13はネットワークであって,最下位の階層の砂時計型
ニューラルネットワークである。ネットワーク11,1
2,13はセンサ信号等の情報入力を行うものである。
【0024】14,15はネットワークであって,中間
階層であり,砂時計型ニューラルネットワークである。
16はネットワークであって,最上位の階層であり,砂
時計型ニューラルネットワークである。
【0025】21は入力部であって,情報入力をするも
のである。22は統合情報出力部であって,情報統合部
10で統合した情報を出力するものである。
【0026】23は情報処理部であって,統合情報出力
部22の出力する情報を処理するものである。24は出
力部であって,情報処理部23の処理した情報を出力す
るものである。
【0027】25は制御部であって,情報処理装置の各
部を制御するものである。図1 (b)の情報統合部10は
階層数を3とし,最上位の階層のネットワーク数を1,
中間階層のネットワーク数を2,最上位のネットワーク
数を3とした場合を例示したものである。
【0028】
【作用】図1 (b)の本発明の情報処理装置の基本構成を
説明する前に図1 (a)の砂時計型ニューラルネットワー
クについて説明する。
【0029】図1 (a)において,入力情報が入力層の各
ユニット(5−1,5−2,5−3,5−4)に入力さ
れる。入力層の各ユニット(5−1,5−2,5−3,
5−4)から中間層の各ユニット(6−1,6−2)に
情報が圧縮されて伝えられる。この中間層における出力
が内部表現である。中間層の各ユニット(6−1,6−
2)から出力層の各ユニット(7−1,7−2,7−
3,7−4)に情報が伝えられ,情報が復元される。
【0030】学習処理は,出力層の各ユニット(7−
1,7−2,7−3,7−4)の出力と入力層2への入
力情報とが評価部8に入力されて評価される。そして,
例えば,入力情報と出力層の情報が同じになるように
(出力層4から出力される情報が入力層2への入力情報
の恒等写像となるように)入力層2から中間層3への信
号伝搬の重みの係数を変更する等の処理を行う。
【0031】図1 (b)の本発明の情報処理装置の動作を
説明する。情報処理装置の全体の動作を説明する前に情
報統合部10について説明する。情報統合部10は,ま
ず学習を行う。学習は,画像を最下位の各ネットワーク
(11,12,13)に情報を与えて,例えば,前述の
恒等写像法により行う。次に中間階層の各ネットワーク
(14,15)に最下位の階層の各ネットワーク(1
1,12,13)の中間層の出力を入力して,恒等写像
法により学習を行う。さらに,最上位の階層のネットワ
ーク16に中間階層のネットワーク(14,15)の中
間層の出力を入力して恒等写像法により学習を行う。
【0032】このように学習した情報統合部10を備え
る情報処理装置9の全体の動作を説明する。例えば,ロ
ボットがパターン認識をして動作するものとする。最下
位の階層の各ネットワーク(11,12,13)に入力
部21よりセンサ信号を入力する。そして,各ネットワ
ーク(11,12,13)において入力層から中間層に
信号が伝搬され,中間層から信号を出力して上位の階層
のネットワーク(14,15)に入力する。図1 (b)の
場合,最下位の階層のネットワーク(11,12,1
3)の各中間層の二つのユニットの出力信号のそれぞれ
を中間階層のネットワーク(14,15)の入力層に入
力する。中間階層の各ネットワーク(14,15)に入
力された信号はそれぞれの中間層に伝搬されるので,そ
れぞれの中間層の二つのユニットから信号を出力して最
上位の階層のネットワーク16の入力層に入力する。最
上位の階層のネットワーク16の入力層に入力された信
号はその中間層に伝搬される。最上位の階層は,パター
ン認識のための3次元情報を中間層から出力する。
【0033】このようにして情報統合部10で複数情報
を統合することにより,入力情報のもつ内容を少ない情
報に圧縮して出力できる。そして,情報処理部23は少
ない情報数に圧縮された情報を入力して情報処理をす
る。情報処理部23の情報処理の結果は出力部24より
出力される。
【0034】本発明によれば,各ネットワークが自律的
に学習可能なので,情報を統合する過程において下位の
ネットワークから段階的に上位のネットワークを学習で
きるので,システム自身により次第に高次の内部表現を
得ることができる。例えば,上記の場合,入力は3次元
情報を含む2次元情報であり情報数は12あるが,それ
ぞれのネットワークにおいて,2次元情報が伝搬される
過程に内部表現により3次元情報を含む形で圧縮され,
最上位の階層から情報数が3つの3次元情報として出力
される。
【0035】このように,高次の内部表現をもつシステ
ムとして情報を統合できる。そのため,情報を機能的に
データ圧縮することができ,少ないネットワークで有効
なデータ圧縮をすることができ,ロボット等の情報処
理,あるいは膨大な量のセンサ情報,統計情報等の大量
の情報を少ない情報数で有効に情報処理できるようにな
る。
【0036】なお,上記の説明において,ニューラルネ
ットワークの階層数,入力層,中間層,出力層の各ユニ
ット数は例示的なものであって,図示の内容に限定され
るものではない。
【0037】
【実施例】図2は本発明の実施例であって,本発明をシ
ミュレーションする場合の概念図である。
【0038】図2は直方体の出現エリア31の中を移動
する対象物体32を左右の2台のカメラで撮影し,左右
のカメラのそれぞれの2次元の画像データに基づいて対
象物体32の3次元の位置を復元するものである。
【0039】31は出現エリアであって,空間の位置を
3次元座標X軸,Y軸,Z軸で表す。32は対象物体で
あって,出現エリアを移動する小さい物体である。
【0040】33はカメラ1である。34はカメラ2で
ある。41はシステム1であって,カメラ1(33)の
画像を処理するものである。
【0041】42はシステム2であって,カメラ2(3
4)の画像を処理するものである。43は画像1であっ
て,カメラ1の画像である。44は画像2であって,カ
メラ2の画像である。
【0042】50はネットワークの階層構造である。5
1は下位ネットワーク1であって,下位の階層の砂時計
型ニューラルネットワークであって,画像1のデータを
処理するものである。
【0043】52は下位ネットワーク2であって,下位
の階層の砂時計型ニューラルネットワークであって,画
像2のデータを処理するものである。53は上位ネット
ワークであって,砂時計型ニューラルネットワークであ
って,下位ネットワーク1(51)と下位ネットワーク
2(52)の出力する情報を統合して圧縮された3次元
画像データを生成するものである。
【0044】図3は本発明の実施例であって,カメラと
出現エリアの関係を説明するものである。図3 (a),
(b)は左カメラ33(カメラ1)と右カメラ34(カメ
ラ2)の位置座標と物体の出現エリアの座標の関係を示
すものである(図2のカメラの配置は便宜的に表したも
のであって,図3のカメラの配置に対応していない)。
【0045】図3 (a)はXZ平面である。31は出現エ
リアであって,+2.2<X<−2.2,3.9<Z<
8.1である。
【0046】対象物体はこの範囲において,0.4ずつ
の間隔で位置するものとする。33は左カメラ(カメラ
1)であって,(X,Z)=(−6,0)の位置にある
ものである。
【0047】34は右カメラ(カメラ2)であって,
(X,Z)=(−6,0)の位置にあるものである。図
3 (b)はYZ平面である。
【0048】31は出現エリアであって,−1.4<Y
<+1.4,3.9<Z<8.1である。対象物体はこ
の範囲において,0.4ずつの間隔で位置するものとす
る。
【0049】33’は左カメラ,右カメラの位置(Y,
Z)=(0,0)である。図4はカメラの受光部であ
る。図4において,61は受光部であって,大きさが1
×1のものである。受光部61の座標はその中心を原点
にとり,横軸をCx,縦軸をCyとする。
【0050】62,63,64等は受光部61のエレメ
ントであって,受光素子である。各エレメントは0.5
ずつの間隔で配置される。65はエレメント64の撮像
範囲である。
【0051】66は対象物体の像である。71はエレメ
ントの入出力特性である。エレメントから対象物体の像
の距離uに対して, u(r)=0.9−0.8r (r<1.0) u(r)=0.1 r>0.1 である。
【0052】図5は本発明の実施例であって,階層構造
の構成である。2階層で構成したものである。図5にお
いて,81は下位ネットワーク1であって,左カメラ8
5の画像データを処理するものであり,砂時計型ニュー
ラルネットワークである。ユニットの構成は5階層であ
り,5−10−2−10−25(第1層(入力層)が5
ユニット,第2層目が10ユニット,第3層目(中間
層)が2ユニット,第4層目が10ユニット,第5層
(出力層)が25ユニットである(図5参照)。A1,
B1は中間層のユニットである。
【0053】82は下位ネットワーク2であって,右カ
メラ86の画像データを処理するものであり,砂時計型
ニューラルネットワークである。ユニットの構成は下位
ネットワーク81と同様である。即ち,5階層であり,
各階層のユニット数が5−10−2−10−25である
(図5参照)。A2,B2は中間層のユニットである。
【0054】83は上位のネットワークであって,ユニ
ットは5階層で構成され,各階層のユニット数は4(入
力層)−6−3(中間層)−6−4(出力層)である
(図5参照)。A3,B3,C3は中間層のユニットで
ある。
【0055】83は左カメラ85の受光部である。84
は右カメラ86の受光部である。下位ネットワーク1
(81)の中間層のユニットA1,B1の出力(内部表
現)を上位ネットワーク(83)の入力ユニットに入力
する。また,下位ネットワーク2(82)の中間層のユ
ニットA2,B2の出力(内部表現)を上位ネットワー
ク(83)の入力ユニットに入力する。
【0056】上位ネットワーク83の中間層(A3,B
3,C3)からデータ数を圧縮した統合情報を出力す
る。図6は本発明の砂時計型ニューラルネットワークの
実施例である。
【0057】図6において,91は下位ネットワークで
ある。下位ネットワーク91は5層により構成され,入
力層は25ユニットである。入力層の下の層は10ユニ
ットである。中間層は2ユニットである。中間層の次の
層は10ユニットである。出力層は25ユニットであ
る。本発明では,ユニット数が2の中間層より内部表現
を出力し,上位階層のユニットに入力する。
【0058】92は上位ネットワークである。上位ネッ
トワーク92は5層により構成され,入力層は4ユニッ
トである。入力層の下の層は6ユニットである。中間層
は3ユニットである。中間層の次の層は6ユニットであ
る。出力層は4ユニットである。本発明では,ユニット
数が3の中間層の内部表現を出力として取り出す。
【0059】図7は本発明のシミュレーションの構成の
実施例である。図7において,110はCPUである。
【0060】111はメモリである。121は上位ネッ
トワークであって,砂時計型ニューラルネットワークの
プログラムである。
【0061】122は下位ネットワーク1であって,砂
時計型ニューラルネットワークのプログラムである。1
23は上位ネットワーク2であって,砂時計型ニューラ
ルネットワークのプログラムである。
【0062】124はネットワーク結合プログラムであ
って,上位ネットワーク(121)と下位ネットワーク
1(122)および下位ネットワーク2(123)を接
続関係を定めるプログラムである。
【0063】125はテストデータ発生プログラムであ
って,テストデータを発生するものである。126は学
習プログラムであって,テストデータにより各ネットワ
ーク(121,122,123)を学習させるためのプ
ログラムである。
【0064】127は作業領域である。128は入出力
制御プログラムである。129はセンサプログラムであ
って,センサの動作を定めるプログラムである。
【0065】130は入出力制御装置とのインタフェー
スである。131は磁気ディスク装置である。132は
ディスプレイである。
【0066】133は入力装置であって,キーボード等
である。134はプリンタである。学習回数は下位ネッ
トワーク(81,82)は20000回,上位ネットワ
ーク83は80000回である。
【0067】実験に使用したデータセットは次の通りで
ある。 (a) 学習データセット 対象物体を出現エリア内のランダムな位置にセットした
1000個のデータである。
【0068】(b) テストデータセット (b−1)下位ネットワーク用(2次元) カメラの視野内をスキャン,つまり,Cx−Cyの各軸
に対して0.25刻みで対象物体を移動した81個のデ
ータである。
【0069】(b−2)上位ネットワーク用(3次元) 対象物体を出現エリア内でX,Y,Z各方向に0.4刻
みでスキャンした1152個(12×9×12)のデー
タである。
【0070】図8は本発明のシミュレーションのフロー
チャートである。 S1 テストデータ生成部はテストデータを生成し,左
カメラ,右カメラによりセンサ情報を収集する。
【0071】S2 最下層ネットワーク用の学習データ
を生成する。 S3 layer=0(最下層)とする。 S4 現在処理対象のlayer層のネットワークの学
習をする。
【0072】S5 現在処理中の中間層のユニットの出
力値から上位層ネットワークの学習データを生成する。 S6 layer=layer+1として,次の層の選
択をする。
【0073】S7 最上位層が終了したか判定し,最上
位層が終了していなければS4以降の処理を繰り返し,
最上位層が終了していれば処理を終了する。 図9,10,11は本発明の実施例の結果を示す。
【0074】図9,図10は下位ネットワークの内部表
現の結果であり,砂時計型ニューラルネットワークの中
間層のユニット1とユニット2の出力をそれぞれ横軸,
縦軸に表したものである。図9は左カメラのものであ
り,図10は右カメラのものである。
【0075】下位ネットワークは学習データセット (a)
に対して誤差逆伝播法で恒等写像を20000回イテレ
ーション(iteration)学習し,その後に同じ学習データ
セットに対する下位ネットワークの中間層の出力を利用
して同様に上位ネットワークの学習を80000回イテ
レーションを行った。
【0076】図9,図10は学習したテストデータセッ
ト(b−1)に対する左右のカメラの撮像データを下位
ネットワークに与えた時の中間層の出力を示す。その結
果,図9に示されるように,左カメラのシステムではユ
ニット1の出力がCyに,ユニット2の出力がCxに対
応している。一方,図10に示されるように右カメラの
システムでは,逆にユニット1の出力がCxに,ユニッ
ト2の出力がCyに対応している。よって,何れの下位
ネットワークとも期待通りに入力情報の変動部分が内部
表現で抽出された。
【0077】引き続く上位ネットワークの学習では,同
じ学習データセット (a)に対する二つの下位ネットワー
クの圧縮層の出力を利用して80000イテレーション
の誤差逆伝搬出法を行った。学習させたネットワークに
テストデータセット(b−2)を与えた時の上位ネット
ワークの圧縮層の出力を図11に示す。ここでユニット
1,ユニット2,ユニット3は上位の砂時計型ニューラ
ルネットワークの中間層のユニットである。図11に示
されるように上位ネットワークと対象物体の3次元位置
に対応する内部表現を獲得している。
【0078】上記の説明はシミュレーションによるもの
であるが,各説明におけるネットワークのユニットをニ
ューロ特性のソフトウェアもしくはハードウェアで構成
し,ロボットのパターン認識,センサ情報の処理,統計
データの処理等に適用できるものである。
【0079】例えば,実施例の左右のカメラをロボット
に備えたカメラとし,本発明の情報処理装置により外界
の対象物の位置を測定し,ロボットの移動を行う等の応
用ができるものである。あるいは学習結果に基づいて多
数の統計データ等の情報から統合的に情報を圧縮し,少
ない情報に基づいて有効な情報統計処理を高速に行う
等,本発明は多方面に応用できるものである。
【0080】
【発明の効果】本発明によれば,各ネットワークが自律
的に学習可能であり,情報を統合する過程において下位
のネットワークから段階的に上位のネットワークを学習
できるので,システム自身により次第に高次の内部表現
を得る情報処理装置を実現することができる。
【0081】そのため,少ないネットワーク数で多数の
情報を統合的にデータ圧縮することができ,統合により
得られる少ない情報数で有効な情報処理を行うことがで
きるようになる。
【図面の簡単な説明】
【図1】本発明の基本構成を示す図である。
【図2】本発明の実施例を示す図である(シミュレーシ
ョン概念図)。
【図3】本発明の実施例を示す図である(カメラと出現
エリアの関係)。
【図4】本発明の実施例を示す図である(受光部)。
【図5】本発明の実施例を示す図である(階層構造)。
【図6】本発明の砂時計型ニューラルネットワークの実
施例を示す図である。
【図7】本発明のシミュレーションの構成の実施例を示
す図である。
【図8】本発明のシミュレーションのフローチャートを
示す図である。
【図9】本発明の実施例の結果を示す図である(左カメ
ラ)。
【図10】本発明の実施例の結果を示す図である(右カ
メラ)。
【図11】本発明の実施例の結果を示す図である(3次
元)。
【図12】従来の技術を示す図である。
【符号の説明】
1:ネットワーク(砂時計型ニューラルネットワーク) 2:入力層 3:中間層(圧縮層) 4:出力層 5−1:ユニット 5−2:ユニット 5−3:ユニット 5−4:ユニット 6−1:ユニット 6−2:ユニット 7−1:ユニット 7−2:ユニット 7−3:ユニット 7−4:ユニット 8:評価部 9:情報処理装置 10:情報統合部 11:ニューラルネットワーク 12:ニューラルネットワーク 13:ニューラルネットワーク 14:ニューラルネットワーク 15:ニューラルネットワーク 16:ニューラルネットワーク(砂時計型) 21:入力部 22:統合情報出力部 23:情報処理部 24:出力部 25:制御部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 複数のニューラルネットワークを階層的
    に接続し,学習により得られた各ニューラルネットワー
    クの内部表現をそれぞれのニューラルネットワークが入
    力した情報数より少ない情報数でそれぞれの上位の階層
    のニューラルネットワークに入力することにより入力情
    報を統合し,最上位の階層のニューラルネットワークに
    入力された入力情報数より少ない情報数で入力情報の表
    す内容を表現して該出力する情報統合部を備えたことを
    特徴とするニューラルネットワークによる情報処理装
    置。
  2. 【請求項2】 該ニューラルネットワークを砂時計型ニ
    ューラルネットワークにより構成し,下位の階層のニュ
    ーラルネットワークは中間層の出力を上位階層に出力す
    ることを特徴とする請求項1に記載のニューラルネット
    ワークによる情報処理装置。
  3. 【請求項3】 最下位の階層の入力情報は複数のセンサ
    情報であり,最上位の階層のニューラルネットワークは
    下位の階層の出力するセンサ情報を統合して少ない数の
    センサ情報として出力することを特徴とする請求項1も
    しくは2に記載のニューラルネットワークによる情報処
    理装置。
  4. 【請求項4】 左カメラ,右カメラの撮影した3次元物
    体の像を左右の2次元情報とし,最下位の階層のネット
    ワークに入力し,各階層のニューラルネットワークは左
    右のカメラの2次元情報を統合して最上位の階層のネッ
    トワークより3次元情報を出力することを特徴とする請
    求項1,2もしくは3に記載のニューラルネットワーク
    による情報処理装置。
JP7174867A 1995-07-11 1995-07-11 ニューラルネットワークによる情報処理装置 Withdrawn JPH0926948A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7174867A JPH0926948A (ja) 1995-07-11 1995-07-11 ニューラルネットワークによる情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7174867A JPH0926948A (ja) 1995-07-11 1995-07-11 ニューラルネットワークによる情報処理装置

Publications (1)

Publication Number Publication Date
JPH0926948A true JPH0926948A (ja) 1997-01-28

Family

ID=15986049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7174867A Withdrawn JPH0926948A (ja) 1995-07-11 1995-07-11 ニューラルネットワークによる情報処理装置

Country Status (1)

Country Link
JP (1) JPH0926948A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003044498A1 (fr) * 2001-11-22 2003-05-30 Japan Science And Technology Corporation Procede de mesure de concentrations de substances chimiques, procede de mesure de concentrations d'especes ioniques, et capteur utilise a cet effet
JP2017125809A (ja) * 2016-01-15 2017-07-20 株式会社リコー 情報処理装置、情報処理システムおよびプログラム
JPWO2017187516A1 (ja) * 2016-04-26 2018-07-19 株式会社日立製作所 情報処理システムおよびその運用方法
WO2019021369A1 (ja) * 2017-07-25 2019-01-31 三菱電機株式会社 データ解析装置
WO2019073647A1 (ja) * 2017-10-12 2019-04-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
JP2020074211A (ja) * 2016-04-26 2020-05-14 株式会社日立製作所 情報処理システムおよびその運用方法
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003044498A1 (fr) * 2001-11-22 2003-05-30 Japan Science And Technology Corporation Procede de mesure de concentrations de substances chimiques, procede de mesure de concentrations d'especes ioniques, et capteur utilise a cet effet
JP2017125809A (ja) * 2016-01-15 2017-07-20 株式会社リコー 情報処理装置、情報処理システムおよびプログラム
JP2020074211A (ja) * 2016-04-26 2020-05-14 株式会社日立製作所 情報処理システムおよびその運用方法
JPWO2017187516A1 (ja) * 2016-04-26 2018-07-19 株式会社日立製作所 情報処理システムおよびその運用方法
US11514291B2 (en) 2017-04-04 2022-11-29 Hailo Technologies Ltd. Neural network processing element incorporating compute and local memory elements
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11461615B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. System and method of memory access of multi-dimensional data
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
WO2019021369A1 (ja) * 2017-07-25 2019-01-31 三菱電機株式会社 データ解析装置
JPWO2019021369A1 (ja) * 2017-07-25 2020-05-28 三菱電機株式会社 データ解析装置
CN111183336A (zh) * 2017-10-12 2020-05-19 索尼公司 信息处理装置、信息处理方法和程序
WO2019073647A1 (ja) * 2017-10-12 2019-04-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11614461B2 (en) 2017-10-12 2023-03-28 Sony Corporation Information processing device and information processing method
CN111183336B (zh) * 2017-10-12 2023-11-07 索尼公司 信息处理装置、信息处理方法和计算机可读存储介质
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
US11775835B2 (en) Room layout estimation methods and techniques
JPH0926948A (ja) ニューラルネットワークによる情報処理装置
Davison et al. FutureMapping 2: Gaussian belief propagation for spatial AI
Sim et al. Internet-based teleoperation of an intelligent robot with optimal two-layer fuzzy controller
Cagnoni Genetic and evolutionary computation for image processing and analysis
Farhat Optoelectronic neural networks and learning machines
CN114120045A (zh) 一种基于多门控混合专家模型的目标检测方法和装置
CN114283347A (zh) 目标检测方法、系统、智能终端及计算机可读存储介质
Namasivayam et al. Learning neuro-symbolic programs for language guided robot manipulation
CN113534678A (zh) 一种操作问答任务的仿真到物理系统的迁移方法
CN116079727A (zh) 基于3d人体姿态估计的人形机器人动作模仿方法及装置
CN113516676B (zh) 角点检测方法、脉冲神经网络处理器、芯片及电子产品
Nagchaudhuri et al. Camera-robot transform for vision-guided tracking in a manufacturing work cell
Han et al. Pose determination using tree annealing
JP2588499B2 (ja) ニューラルネットワークトレーニング方法及びその装置
Wu et al. Controlling a robot's position using neural networks
Ioannidis et al. A cellular automaton collision-free path planner suitable for cooperative robots
Kalithasan et al. Learning neuro-symbolic programs for language guided robot manipulation
WO2023241372A1 (zh) 相机内参标定方法及相关设备
JPH0755469A (ja) 多視点ステレオ画像計測法
Khotanzad et al. Stereopsis by a neural network which learns the constraints
Mathur et al. Analog neural networks for focal-plane image processing
CN115359556A (zh) 一种基于树莓派的轻量化的人体姿态评估方法及控制方法
Yan et al. Touch Detection in Augmented Omni-Surface for Human-Robot Teaming
CN117099019A (zh) 信息处理装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20021001