JPH07160665A - 物体識別装置 - Google Patents

物体識別装置

Info

Publication number
JPH07160665A
JPH07160665A JP5312067A JP31206793A JPH07160665A JP H07160665 A JPH07160665 A JP H07160665A JP 5312067 A JP5312067 A JP 5312067A JP 31206793 A JP31206793 A JP 31206793A JP H07160665 A JPH07160665 A JP H07160665A
Authority
JP
Japan
Prior art keywords
unit
neural network
finger
network unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5312067A
Other languages
English (en)
Inventor
Takashi Kubota
孝 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5312067A priority Critical patent/JPH07160665A/ja
Publication of JPH07160665A publication Critical patent/JPH07160665A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】高速に物体の識別を行う物体識別装置を提供す
る。 【構成】動き検出部6は把持対象物を掴むべき1つ以上
の指の動きを検出する。特徴抽出部13は動き検出部6
で検出された指の動きデータから特徴量を抽出する。ニ
ューラルネットワーク部15は予め定めた教師データを
用いて前記特徴抽出部13で抽出された特徴量を学習す
る。判別部16は前記ニューラルネットワーク部15に
よる結果に基いて前記把持対象物の識別を行うよう構成
した。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、把持対象物の識別を高
速に行うことのできる物体識別装置に関し、特にニュー
ラルネットワークを用いて把持対象物の識別を行う物体
識別装置に関する。
【0002】
【従来の技術】近年、産業用ロボットをはじめとして、
宇宙、海底、原子炉内のロボットが作業を行う場合に
は、物体の認識、識別が必要である。例えば、FA(フ
ァクトリオートメーション)等の物体のマニピュレーシ
ョン分野では、把持対象物の識別が特に必要となる。こ
のような物体の識別を行うものとして、従来より図10
に示すような物体識別装置がある。
【0003】図10に示す物体識別装置は、TVカメラ
から得られる画像データをデジタル処理して、予め与え
られている画像データとパターンマッチング法により比
較して物体の識別を行っている。
【0004】すなわち、画像入力部21が対象物の画像
を取り込むと、画像処理部22は画像入力部21で取り
込んだ画像データからノイズなどを除去するためにフィ
ルンタリング処理を行う。特徴抽出部23は画像処理部
22でフィルタリング処理された画像データから輪郭な
どのエッジ情報や色情報を抽出する。
【0005】そして、モデルマッチング部24は、特徴
抽出部23により抽出された特徴量とモデルデータベー
ス部25に格納された対象物に関する特徴量とを比較す
る。さらに、判別部26はモデルマッチング部24から
出力される比較データに基づきどの物体であるかの判別
を行う。
【0006】
【発明が解決しようとする課題】しかしながら、従来の
物体識別装置にあっては、TVカメラから得られた画像
データを用いていた。この画像データは周囲の照明環境
に大きく影響されるため、画像データに含まれるノイズ
等により物体の識別を誤ることがあった。
【0007】また、画像データを処理するため、処理に
時間がかかり、リアルタイムで物体を識別することが困
難であった。さらに、三次元の物体情報を取り込むため
に複数のカメラを用いていたが、複数のカメラによる同
一点の対応付けが困難であるという問題もあった。
【0008】本発明は、このような点に鑑みてなされた
もので、その目的とするところは、画像データを用いず
に、高速にしかも正確に物体を識別することのできる物
体識別装置を提供することにある。
【0009】
【課題を解決するための手段】本発明は、上記課題を解
決し目的を達成するために下記の構成とした。図1は本
発明の原理図である。図1を参照して本発明を説明す
る。
【0010】本発明の物体識別装置は画像データを用い
ることなく、物体を掴もうと手を動かしたときの指の動
きに基いて物体の識別を行うものである。本発明は動き
検出部6、特徴抽出部13、ニューラルネットワーク部
15、判別部16とを備える。
【0011】動き検出部6は把持対象物を掴むべき1つ
以上の指の動きを検出する。特徴抽出部13は前記動き
検出部6で検出された指の動きデータから特徴量を抽出
する。
【0012】ニューラルネットワーク部15は予め定め
た教師データを用いて前記特徴抽出部13で抽出された
特徴量を学習する。判別部16は前記ニューラルネット
ワーク部15による結果に基いて前記把持対象物の識別
を行うよう構成した。
【0013】ここで、動き検出部6は指に取り付けるよ
うにしてもよい。指の動きデータとしては、例えば指の
関節角度データであってもよい。なお、前記ニューラル
ネットワーク部15は、少なくとも入力層151、中間
層152、出力層153からなり、特徴量の学習を行う
ことにより各層間の重み付けを変える。
【0014】前記特徴抽出部13は、各々の指の各々の
動き角度を時系列に抽出して前記ニューラルネットワー
ク部15に供給するようにしてもよい。さらに、前記特
徴抽出部13は、各々の指の動き角度の総和を時系列に
抽出して前記ニューラルネットワーク部15に供給する
ようにしてもよい。
【0015】前記特徴抽出部13は、指定された指に対
する他のいずれか1つの指の相対的な位置情報を時系列
に抽出して前記ニューラルネットワーク部15に供給す
るようにしてもよい。
【0016】例えば、親指に対する人指し指、中指、薬
指、小指のいずれか1つの指の相対的な三次元位置情報
を時系列データとしてニューラルネットワーク部に入力
するようにしてもよい。あるいは親指に対する人指し
指、中指、薬指、小指の組み合せの相対的な三次元位置
情報を時系列データとしてニューラルネットワーク部に
入力するようにしてもよい。
【0017】
【作用】本発明によれば、把持対象物を掴むべき1つ以
上の指の動きが動き検出部6により検出され、動き検出
部6で検出された指の動きデータに基づき特徴抽出部1
3により特徴量が抽出される。
【0018】そして、予め定めた教師データを用いて前
記特徴抽出部13で抽出された特徴量がニューラルネッ
トワーク部15により学習され、前記ニューラルネット
ワーク部15による結果に基いて判別部16により前記
把持対象物の識別が行なわれる。
【0019】すなわち、指の動きに基いて把持対象物の
識別を行う。指の動きはリアルタイムで検出でき、さら
に並列処理機能を有するニューラルネットワーク部を識
別処理に用いているため、物体を高速に識別できる。
【0020】また、汎化能力を有するニューラルネット
ワーク部を用いて物体の識別を行うため、個人差やデー
タ誤差を吸収でき、物体の識別率を高くすることができ
る。
【0021】
【実施例】以下、本発明の具体的な実施例を説明する。
図2は本発明物体識別装置の一実施例の構成ブロック図
である。この物体識別装置は、例えば、大小2つのボー
ルを識別する。図2に示す物体識別装置において、動き
検出部としてのセンサグローブ6は図4に示す人の一方
の手の親指2a、人指し指2b、中指2c、薬指2d、
子指2eの5本の指の各関節に取り付けられている。各
センサグローブ6は図示しない把持対象物を掴もうとし
て動く各々の指の各関節における角度を検出する。
【0022】人はある物体を手の指で掴もうとする場合
には、手を伸ばす間に把持対象物の形状に応じて手の形
状を準備する‘Preshaping’と呼ばれる動作を行う。こ
の‘Preshaping’動作は対象物を掴む前にその対象物の
三次元形状の情報を脳内に獲得し、それをもとに手の運
動計画を行うことを示す。
【0023】従って、対象物の形状に関する情報は脳内
で視覚情報から体性感覚情報に変換され、さらに指の動
きとして現れる。前記センサグローブ6にはデータ格納
部8が接続される。データ格納部8はメミリなどであ
り、センサグローブ6で検出された各々の指2a〜2e
における各々の関節角度データを格納する。
【0024】このデータ格納部8にはメモリなどからな
る関節角度格納部12が接続される。関節角度格納部1
1はデータ格納部8に格納された全ての関節角度データ
を格納する。
【0025】この関節角度格納部11には信号処理部1
2が接続される。信号処理部12は関節角度格納部11
に格納された関節角度データに対して順次フィルタリン
グ処理を行うことによりノイズを除去する。
【0026】この信号処理部12には特徴抽出部13が
接続される。特徴抽出部13は信号処理部12で処理さ
れた関節角度データθi(t)を以下の(1)式を用い
て特徴量Θ(t)としての各々の指の総和の動きデータ
に変換する。
【0027】 Θ(t)=Σ(θi(t))2 ・・・・(1) この特徴抽出部13には時系列データ格納部14が接続
される。時系列データ格納部14は順次入力されてくる
特徴量Θ(t)を、例えば、10個のサンプリングΘ1
(t)〜Θ10(t)分のデータとして保持し、それらの
特徴量をニューラルネットワーク部15に出力する。
【0028】この時系列データ格納部14にはニューラ
ルネットワーク部15が接続される。ニューラルネット
ワーク部15は入力層151、中間層152、出力層1
53の3層構造のパラレルディストリュビューティドプ
ロセッシング(PDP)ニューラルネットワークからな
る。
【0029】図3にニューラルネットワーク部及びその
周辺部の構成を示す。前記ニューラルネットワーク部1
5は、複数の層からなる階層ネットワーク部17と、階
層ネットワーク部17の入出力に接続される学習部18
とを有する。
【0030】階層ネットワーク部17は入力層151、
この入力層151に結合する中間層152とこの中間層
152に結合する出力層153とから構成される。各層
は図中での丸印で示す複数のニューロンから構成されて
いる。
【0031】例えば、入力層151は、10個のニュー
ロン20−1〜20−10から構成される。中間層15
2は、20個のニューロン20−11〜20−30から
構成される。各ニューロン20−11〜20−30は前
記入力層151内の各ニューロン20−1〜20−10
と相互に接続される。
【0032】出力層153は2個のニューロン20−3
1,20−32から構成される。前記中間層152内の
各ニューロン20−11〜20−30と相互に接続され
る。なお、各層内におけるセル間の結合はない。
【0033】ニューラルネットワーク部15はこれらの
入力層151、中間層152、出力層153とにより、
既に学習されている重み係数に基いて積和演算を並列的
に繰り返し行い、出力層153までデータを伝送する。
【0034】前記学習部18は、入力を与えたときの出
力と望ましい出力との差を減らすように階層ネットワー
ク部17内の結合の重みを変える。学習部18は、前記
差がある設定値以下になるまで処理を繰り返し行う。
【0035】この方法としては例えばバックプロパゲー
ション(誤差逆伝播法)がある。判断が入力層151か
ら出力層153への信号伝播とすると、バックプロパゲ
ーションによる学習は、出力層153での誤差を入力層
151へ向かって伝播させることで達成される。
【0036】図5は前記階層ネットワーク部内の各ニュ
ーロンの入出力構成を示す図である。図5では、入力層
151から出力層153への信号伝播を第n層のm番目
のニューロンに着目することによりニューロンを模式的
に表現した。
【0037】ここで、第n層のm番目のニューロンの出
力値をX(n,m)とし、第n−1層のj番目のニューロン
から第n層のm番目のニューロンへの結合の重みをW(n
-1,j,m)とする。
【0038】図5に示すように、例えば、ニューロン2
0−1は、1つ前の層内のニューロンの出力値X(n-1,
j)に結合の重み値W(n-1,j,m)を乗算した値とニューロ
ンに固有のオフセット(しきい)値h(n,m)の総和値S
n,mとを入力する。
【0039】また、出力値X(n-1,j)は伝達関数fで表
される。伝達関数fは図6に示すようにXに対して、S
字形状をなしており、シグモイド(Sigmoid;S
字型)関数と呼ばれる。
【0040】X(n,m)の計算は、前の層n−1のニュー
ロンjからの出力値とそれがたどるであろう結合路固有
の重みの積を、層n−1のすべてのニューロンに対して
合計する。その値u(n,m)が注目すべきニューロンの内
部状態となる。これから、しきい値h(n,m)を引いた値
を、伝達関数に作用させて出力値X(n,m)を得る。な
お、その他のニューロン20−2〜20−32もニュー
ロン20−1の構成と同一構成である。
【0041】次に、学習部18による階層ネットワーク
部17の学習は以下のように行なわれる。学習段階で
は、ある入力パターンに対してネットワークを動かして
得られる出力パターンをまず計算する。その出力パター
ンと望ましい出力パターンとの誤差を計算し、それを学
習データとして入力層151のほうへ伝播させながら、
結合の重みを改善していく。望ましい出力パターンを教
師データといい、教師データが存在する学習法を教師付
き学習と呼ぶ。
【0042】このニューラルネットワーク部15には判
別部16が接続される。この判別部16はニューラルネ
ットワーク部15の出力層153の2つのニューロンの
発火状態によって、物体の識別を行い、掴もうとする物
体が大きいボールであるか、あるいは小さいボールであ
るかの識別を行う。 <実施例の動作>次にこのように構成された実施例の動
作を説明する。図7は実施例の処理を示すフローチャー
トである。図8は指の動きデータの獲得手順を示す図で
ある。図9はニューラルネットワークの学習手順を示す
図である。
【0043】図7において、まず、指の関節角度データ
を獲得する(ステップ100)。この処理は図8に従っ
て、行われる。まず、操作者が図示しない把持対象物を
見る(ステップ101)。すると、この把持対象物を把
持するための動作を開始し(ステップ102)、手を伸
ばす(ステップ103)。
【0044】次に、図4に示した各々の指2a〜2eに
取り付けられたセンサグローブ6により指2a〜2eの
関節角度を計測し(ステップ104)、データ格納部8
に計測された指の関節角度を格納する(ステップ10
5)。
【0045】さらに、その物体を指2a〜2eで掴まな
い場合には、ステップ103の処理に戻る。一方、その
物体を指2a〜2eで掴む場合には、データ格納部8に
格納された全ての関節角度データを関節角度格納部11
に格納する(ステップ107)。
【0046】以上で指の関節角度データの獲得処理が終
了する。次に、関節角度格納部11から読み出された指
2a〜2eの関節角度データは、信号処理部12により
フィルタリング処理されてノイズが除去される(ステッ
プ111)。
【0047】そして、特徴抽出部13では、フィルタリ
ング処理された関節角度データを指先の三次元位置デー
タに変換するとともに、処理された関節角度データに基
いて特徴量となる全ての指の動きデータを生成する(ス
テップ112)。ここでは、前記(1)式により関節角
度データθi(t)を特徴量Θ(t)としての各々の指
の総和の動きデータに変換する。
【0048】さらに、時系列データ格納部14では、特
徴抽出部13から順次入力されてくる特徴量Θ(t)を
バッファに格納する(ステップ113)。ニューラルネ
ットワーク部15に特徴量を供給する。
【0049】ここでは、次のニューラルネットワーク部
15の入力層151にニューロン20−1〜20−10
が用意されているので、10個分つづの特徴量Θ
1(t)〜Θ10(t)を時系列データ格納部14に格納
する。
【0050】そして、時系列データ格納部14に格納さ
れた10個分つづの特徴量は、ニューラルネットワーク
部15に供給される。次に、ニューラルネットワーク部
15は時系列で入力される特徴量を学習する(ステップ
120)。
【0051】このニューラルネットワーク部15による
処理は以下の手順で行なわれる。まず、予めニューラル
ネットワーク部15の構築を行う(ステップ121)。
学習すべき把持対象物に関する情報に基いて入力層15
1、中間層152、出力層153におけるニューロンの
個数を決定する。ここでは、例えば、図3に示したよう
に、入力層151に10個のニューロン、中間層152
に20個のニューロン、出力層153に2個のニューロ
ンを設定した。
【0052】次に、ニューラルネットワーク部15の初
期化を行う(ステップ122)。具体的には、図5に示
した結合の重み値W(n-1,j,m)、しきい値h(n,m)等の初
期値をランダムに設定する。
【0053】さらに、学習パターン(教師データ)の提
示を行う(ステップ123)。具体的には、時系列デー
タ格納部14から10個分の時系列で入力されてくる特
徴量をニューラルネットワーク部15の入力層151の
ニューロン20−1〜20−10に入力する。そして、
中間層20−11〜20−30を通して把持対象物の識
別、すなわち、学習パターンをニューラルネットワーク
部15の出力層153に提示する。
【0054】次に、ニューラルネットワーク部15の学
習部18による学習が行なわれる(ステップ124)。
すなわち、ニューラルネットワーク部15の入力層15
1に入力されたデータを中間層152、出力層153に
伝搬する。そして、出力層153に伝搬されたデータと
学習パターンとの誤差を計算する。さらに、その誤差が
減少するように前記結合の重み値を修正していく。
【0055】最後に、学習の判定を行う(ステップ12
5)。ここでは、誤差関数の値があるしきい値よりも小
さくなった場合には、学習を終了する。誤差関数の値が
しきい値よりも大きい場合には、学習を繰り返し行う。
【0056】以上の処理でニューラルネットワーク部1
5による特徴量の学習が終了したことになる。このよう
にして、ニューラルネットワーク部15により得られた
学習結果に基づいて判別部16では、物体の判別を行う
(ステップ130)。すなわち、判別部16は、ニュー
ラルネットワーク部15の出力層153の2つのニュー
ロン20−31,20−32の発火状態により、物体の
識別を行い、掴もうとする物体が大きいボールである
か、あるいは小さいボールであるかの識別を行うことが
できる。
【0057】このように実施例によれば、把持対象物を
掴むべき1つ以上の指の動きがセンサグローブ6により
検出され、検出された指の動きデータに基づき特徴抽出
部13により特徴量が抽出される。
【0058】そして、予め定めた教師データを用いて前
記特徴抽出部13で抽出された特徴量がニューラルネッ
トワーク部15により学習され、前記ニューラルネット
ワーク部15による結果に基いて判別部16により前記
把持対象物の識別が行なわれる。
【0059】すなわち、指の動きに基いて把持対象物の
識別を行う。指の動きはリアルタイムで検出でき、さら
に並列処理機能を有するニューラルネットワーク部15
を識別処理に用いているため、物体を高速に識別でき
る。
【0060】また、汎化能力を有するニューラルネット
ワーク部15を用いて物体の識別を行うため、個人差や
データ誤差を吸収でき、物体の識別率を高くすることが
できる。
【0061】なお、実施例では、特徴抽出部13で指の
全動き量を用いていたが、親指2aに対する各指2b〜
2eの三次元位置情報を特徴量として用いてもよい。例
えば、親指2aに対する人指し指2b、中指2c、薬指
2d、小指2eのいずれか1つの指の相対的な三次元位
置情報を時系列データとしてニューラルネットワーク部
15に入力するようにしてもよい。
【0062】あるいは親指2aに対する人指し指2b、
中指2c、薬指2d、小指2eの組み合せの相対的な三
次元位置情報を時系列データとしてニューラルネットワ
ーク15部に入力するようにしてもよい。
【0063】また、前記特徴抽出部13は、各々の指の
各々の動き角度を時系列に抽出して前記ニューラルネッ
トワーク部15に供給するようにしてもよい。このよう
な処理によっても、実施例の効果と同様の効果が得られ
る。
【0064】
【発明の効果】本発明によれば、指の動きに基いて把持
対象物の識別を行う。指の動きはリアルタイムで検出で
き、さらに並列処理機能を有するニューラルネットワー
ク部を識別処理に用いているため、物体を高速に識別で
きる。
【0065】また、汎化能力を有するニューラルネット
ワーク部を用いて物体の識別を行うため、個人差やデー
タ誤差を吸収でき、物体の識別率を高くすることができ
る。
【図面の簡単な説明】
【図1】本発明の原理図である。
【図2】本発明の一実施例の構成ブロック図である。
【図3】ニューラルネットワーク部とその周辺部を示す
図である。
【図4】センサグローブを取り付けた指を示す図であ
る。
【図5】ニューロンの入出力構成を示す図である。
【図6】シグモイド関数を示す図である。
【図7】実施例の処理を示すフローチャートである。
【図8】指の動きデータの獲得手順を示す図である。
【図9】ニューラルネットワークの学習手順を示す図で
ある。
【図10】従来の物体識別装置の一例を示す構成ブロッ
ク図である。
【符号の説明】
2・・指 2a・・親指 2b・・人指し指 2c・・中指 2d・・薬指 2e・・子指 6・・センサグローブ 11・・関節角度格納部 12・・信号処理部 13・・特徴抽出部 14・・時系列データ格納部 15・・ニューラルネットワーク部 16・・判別部 17・・階層ネットワーク部 18・・学習部 20・・ニューロン 21・・画像入力部 22・・画像処理部 23・・特徴抽出部 24・・モデルマッチング部 25・・モデルデータベース部 26・・判別部 151・・入力層 152・・中間層 153・・出力層
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06G 7/60 9061−5L G06F 15/70 465 A

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 把持対象物を掴むべき1つ以上の指の動
    きを検出する動き検出部(6)と、 前記動き検出部(6)で検出された指の動きデータから
    特徴量を抽出する特徴抽出部(13)と、 予め定めた教師データを用いて前記特徴抽出部(13)
    で抽出された特徴量を学習するニューラルネットワーク
    部(15)と、 前記ニューラルネットワーク部(15)による結果に基
    いて前記把持対象物の識別を行う判別部(16)とを備
    えたことを特徴とする物体識別装置。
  2. 【請求項2】 請求項1において、前記ニューラルネッ
    トワーク部(15)は、少なくとも入力層、中間層、出
    力層からなり、特徴量の学習を行うことにより各層間の
    重み付けを変えることを特徴とする物体識別装置。
  3. 【請求項3】 請求項1において、前記特徴抽出部(1
    3)は、各々の指の各々の動き角度を時系列に抽出して
    前記ニューラルネットワーク部(15)に供給すること
    を特徴とする物体識別装置。
  4. 【請求項4】 請求項1において、前記特徴抽出部(1
    3)は、各々の指の動き角度の総和を時系列に抽出して
    前記ニューラルネットワーク部(15)に供給すること
    を特徴とする物体識別装置。
  5. 【請求項5】 請求項1において、前記特徴抽出部(1
    3)は、指定された指に対する他のいずれか1つの指の
    相対的な位置情報を時系列に抽出して前記ニューラルネ
    ットワーク部(15)に供給することを特徴とする物体
    識別装置。
JP5312067A 1993-12-13 1993-12-13 物体識別装置 Withdrawn JPH07160665A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5312067A JPH07160665A (ja) 1993-12-13 1993-12-13 物体識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5312067A JPH07160665A (ja) 1993-12-13 1993-12-13 物体識別装置

Publications (1)

Publication Number Publication Date
JPH07160665A true JPH07160665A (ja) 1995-06-23

Family

ID=18024835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5312067A Withdrawn JPH07160665A (ja) 1993-12-13 1993-12-13 物体識別装置

Country Status (1)

Country Link
JP (1) JPH07160665A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004719A1 (ja) * 2008-07-08 2010-01-14 パナソニック株式会社 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム
JP2020534508A (ja) * 2017-09-18 2020-11-26 同方威視技術股▲分▼有限公司 検査方法、検査設備及びコンピューター読み取り可能な媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004719A1 (ja) * 2008-07-08 2010-01-14 パナソニック株式会社 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム
US8436897B2 (en) 2008-07-08 2013-05-07 Panasonic Corporation Article estimating apparatus and article position estimating apparatus, article estimating method as well as article estimating program
JP2020534508A (ja) * 2017-09-18 2020-11-26 同方威視技術股▲分▼有限公司 検査方法、検査設備及びコンピューター読み取り可能な媒体

Similar Documents

Publication Publication Date Title
CN111055279B (zh) 基于触觉与视觉结合的多模态物体抓取方法与系统
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
Murakami et al. Gesture recognition using recurrent neural networks
Ghosh et al. A static hand gesture recognition algorithm using k-mean based radial basis function neural network
CN105787478B (zh) 基于神经网络和灵敏度参数的人脸转向识别方法
Simão et al. Unsupervised gesture segmentation by motion detection of a real-time data stream
Kim et al. System design and implementation of UCF-MANUS—An intelligent assistive robotic manipulator
Simão et al. Natural control of an industrial robot using hand gesture recognition with neural networks
Wang et al. Joining force of human muscular task planning with robot robust and delicate manipulation for programming by demonstration
Yang et al. Leap motion hand gesture recognition based on deep neural network
Iscimen et al. Smart robot arm motion using computer vision
Pfitscher et al. Article users activity gesture recognition on kinect sensor using convolutional neural networks and FastDTW for controlling movements of a mobile robot
Adhikari et al. A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform.
Funabashi et al. Tactile transfer learning and object recognition with a multifingered hand using morphology specific convolutional neural networks
Kajan et al. Comparison of algorithms for dynamic hand gesture recognition
D'Orazio et al. A Neural Network Approach for Human Gesture Recognition with a Kinect Sensor.
JPH07160665A (ja) 物体識別装置
Coppola et al. Master of puppets: multi-modal robot activity segmentation from teleoperated demonstrations
Rogalla et al. A sensor fusion approach for PbD
Kerzel et al. Neurocognitive shared visuomotor network for end-to-end learning of object identification, localization and grasping on a humanoid
Pradeep et al. Advancement Of Sign Language Recognition Through Technology Using Python And OpenCV
Lim et al. Pattern recognition-based real-time end point detection specialized for accelerometer signal
Eppner Robot grasping by exploiting compliance and environmental constraints
Varshney et al. Real-Time Sign Language Recognition
Tsagaris et al. Mobile gesture recognition

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010306