JP2558943B2 - ニューラルネットワークを用いた人間の動作自動認識装置 - Google Patents
ニューラルネットワークを用いた人間の動作自動認識装置Info
- Publication number
- JP2558943B2 JP2558943B2 JP2282760A JP28276090A JP2558943B2 JP 2558943 B2 JP2558943 B2 JP 2558943B2 JP 2282760 A JP2282760 A JP 2282760A JP 28276090 A JP28276090 A JP 28276090A JP 2558943 B2 JP2558943 B2 JP 2558943B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- unit
- gesture
- posture
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Input From Keyboards Or The Like (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】 〔概 要〕 人間の姿勢(ポスチャー)及び人間の動作(ジェスチ
ャー)を自動認識してコンピュータへのデータ入力を行
う人間の動作自動認識装置に関し、 従来は、人間の動作の始点と終点の区切りをコンピュ
ータ自身に判断させることが困難であり、人間が何等か
の方法により指示する必要があり、非常に煩わしかった
問題の解決を目的とし、 人間の形態データを収集する動作測定部(1)と、人
間のポスチャーの内容と、ジェスチャーの開始点を識別
するポスチャーニュートラルネットワーク部(2)と、
ジェスチャーの開始点が識別された場合に、動作測定部
(1)からの形態データを得て、ジェスチャーの内容を
認識するジェスチャーニューラルネットワーク部(5)
と、ジェスチャーニューラルネットワーク部(5)への
形態データの導入制御及び、ポスチャーニューラルネッ
トワーク(2)とジェスチャーニューラルネットワーク
部(5)の出力結果を比較して最終的な認識結果を選択
決定する動作判断部(8)を設けて構成する。
ャー)を自動認識してコンピュータへのデータ入力を行
う人間の動作自動認識装置に関し、 従来は、人間の動作の始点と終点の区切りをコンピュ
ータ自身に判断させることが困難であり、人間が何等か
の方法により指示する必要があり、非常に煩わしかった
問題の解決を目的とし、 人間の形態データを収集する動作測定部(1)と、人
間のポスチャーの内容と、ジェスチャーの開始点を識別
するポスチャーニュートラルネットワーク部(2)と、
ジェスチャーの開始点が識別された場合に、動作測定部
(1)からの形態データを得て、ジェスチャーの内容を
認識するジェスチャーニューラルネットワーク部(5)
と、ジェスチャーニューラルネットワーク部(5)への
形態データの導入制御及び、ポスチャーニューラルネッ
トワーク(2)とジェスチャーニューラルネットワーク
部(5)の出力結果を比較して最終的な認識結果を選択
決定する動作判断部(8)を設けて構成する。
本発明は、人間とコンピュータとの間のマン・マシン
インタフェースにおける、人間の動作(姿勢を含めて)
をコンピュータに自動認識させる装置に関し、特にニュ
ーラルネットワークを用いて、人間の動作の認識及び動
作の区切りの判断を自動的に行なわせ、人間の身振りに
よりコンピュータとの対話を実現するニューラルネット
ワークを用いた人間の動作自動認識装置に関する。
インタフェースにおける、人間の動作(姿勢を含めて)
をコンピュータに自動認識させる装置に関し、特にニュ
ーラルネットワークを用いて、人間の動作の認識及び動
作の区切りの判断を自動的に行なわせ、人間の身振りに
よりコンピュータとの対話を実現するニューラルネット
ワークを用いた人間の動作自動認識装置に関する。
なお、本発明の具体的な応用例としては、手話の通訳
マシンがあり、また従来のキーボード等を用いる方法と
比較して著しく簡単なコンピュータへのデータ入力手段
として利用し得るものである。
マシンがあり、また従来のキーボード等を用いる方法と
比較して著しく簡単なコンピュータへのデータ入力手段
として利用し得るものである。
人間とコンピュータとのマン・マシンインタフェース
における、コンピュータへのデータ入力方法としては、
キーボード、マウス、タブレット等の何らかの入力媒体
を使用するのが通常である。
における、コンピュータへのデータ入力方法としては、
キーボード、マウス、タブレット等の何らかの入力媒体
を使用するのが通常である。
しかしながら、これらの入力装置を用いて、データ入
力を行なう場合には、いずれもその取扱いの習熟にはあ
る程度の訓練と時間を要し、より簡単なデータ入力方法
が望まれている。
力を行なう場合には、いずれもその取扱いの習熟にはあ
る程度の訓練と時間を要し、より簡単なデータ入力方法
が望まれている。
その一つの解決方法として、人間の身振り等の姿勢
(ポスチャー)及び動作(ジェスチャー)を認識してコ
ンピュータへデータ入力する方法が有力視されている。
(ポスチャー)及び動作(ジェスチャー)を認識してコ
ンピュータへデータ入力する方法が有力視されている。
ところが、該人間の動作を認識する方法においては、
人間の動作中の有効な意志表示の部分がどこで始まりど
こで終りかという、区切りの判断が非常に難しくなる。
人間の動作中の有効な意志表示の部分がどこで始まりど
こで終りかという、区切りの判断が非常に難しくなる。
従って、従来は、例えば人間がキーボード上のリター
ンキーを押下した時点が始点で、デリートキーを押下し
た時点が終点とするなどして、人間自身が区切りの判断
をコンピュータに指示するなどの必要があった。
ンキーを押下した時点が始点で、デリートキーを押下し
た時点が終点とするなどして、人間自身が区切りの判断
をコンピュータに指示するなどの必要があった。
以上説明したごとく、従来の人間の動作を認識させ
て、コンピュータへのデータ入力を行なう装置において
は、人間の動作の有効な部分の始点と終点をコンピュー
タ自身に判断させることが難しく、人間によって該始点
と数点とを、何等かの方法によりコンピュータに指示す
る必要があり、非常にわずらわしく、人間自身への負担
を大きくしていた。
て、コンピュータへのデータ入力を行なう装置において
は、人間の動作の有効な部分の始点と終点をコンピュー
タ自身に判断させることが難しく、人間によって該始点
と数点とを、何等かの方法によりコンピュータに指示す
る必要があり、非常にわずらわしく、人間自身への負担
を大きくしていた。
本発明は上記問題点に鑑みなされたものであり、人間
が動作の区切りをコンピュータに教えることなく、人間
の動作によりコンピュータに自分の意志を告げ得るニュ
ーラルネットワークを用いた人間の動作自動認識装置を
提供することを目的とする。
が動作の区切りをコンピュータに教えることなく、人間
の動作によりコンピュータに自分の意志を告げ得るニュ
ーラルネットワークを用いた人間の動作自動認識装置を
提供することを目的とする。
本発明によれば、上述の目的は前記特許請求の範囲に
記載した手段により達成される。
記載した手段により達成される。
すなわち、本発明は、請求項1記載の発明について
は、 人間の姿勢及び動作の形態を測定し、該形態データの
認識結果によりコンピュータへのデータ入力を行う人間
の動作自動認識装置において、 人間の形態データを収集する動作測定部(1)と、該
動作測定部(1)からのデータにより、人間の姿勢なる
ポスチャーの内容と、さらに人間の動作なるジェスチャ
ーの開始点を識別判断するポスチャーニューラルネット
ワーク部(2)と、該ポスチャーニューラルネットワー
ク部(2)でジェスチャーの開始点が識別された場合
に、上記動作測定部(1)からの形態データを得て、ジ
ェスチャーの内容を認識判断するジェスチャーニューラ
ルネットワーク部(5)と、上記ポスチャーニューラル
ネットワーク部(2)でジェスチャーの開始点が識別さ
れた場合に、ジェスチャーニューラルネットワーク部
(5)への形態データの導入を制御すると共に、ポスチ
ャーニューラルネットワーク部(2)とジェスチャーニ
ューラルネットワーク部(5)の出力結果を比較して最
終的な認識結果を選択決定する動作判断部(8)を設け
たニューラルネットワークを用いた人間の動作自動認識
装置である。
は、 人間の姿勢及び動作の形態を測定し、該形態データの
認識結果によりコンピュータへのデータ入力を行う人間
の動作自動認識装置において、 人間の形態データを収集する動作測定部(1)と、該
動作測定部(1)からのデータにより、人間の姿勢なる
ポスチャーの内容と、さらに人間の動作なるジェスチャ
ーの開始点を識別判断するポスチャーニューラルネット
ワーク部(2)と、該ポスチャーニューラルネットワー
ク部(2)でジェスチャーの開始点が識別された場合
に、上記動作測定部(1)からの形態データを得て、ジ
ェスチャーの内容を認識判断するジェスチャーニューラ
ルネットワーク部(5)と、上記ポスチャーニューラル
ネットワーク部(2)でジェスチャーの開始点が識別さ
れた場合に、ジェスチャーニューラルネットワーク部
(5)への形態データの導入を制御すると共に、ポスチ
ャーニューラルネットワーク部(2)とジェスチャーニ
ューラルネットワーク部(5)の出力結果を比較して最
終的な認識結果を選択決定する動作判断部(8)を設け
たニューラルネットワークを用いた人間の動作自動認識
装置である。
また、請求項2記載の発明については、 請求1記載の発明において、ジェスチャーニューラル
ネットワーク部(5)を、内部にコンテキスト層を有す
るリカレントニューラルネットワークとした人間の自動
認識装置である。
ネットワーク部(5)を、内部にコンテキスト層を有す
るリカレントニューラルネットワークとした人間の自動
認識装置である。
さらに、請求項3記載の発明については、 請求1または2記載の発明において、人間の形態デー
タを収集する動作測定部(1)として、データグローブ
またはボデースーツを用いたニューラルネットワークを
用いた人間の動作自動認識装置である。
タを収集する動作測定部(1)として、データグローブ
またはボデースーツを用いたニューラルネットワークを
用いた人間の動作自動認識装置である。
本発明では、人間とコンピュータとのマン・マシンイ
ンターフェイスにおける、人間からコンピュータへのデ
ータ入力方法として、キーボード等の入力媒体を使用せ
ず、人間の身振りにより直接コンピュータへデータ入力
を行なうことを目的としている。
ンターフェイスにおける、人間からコンピュータへのデ
ータ入力方法として、キーボード等の入力媒体を使用せ
ず、人間の身振りにより直接コンピュータへデータ入力
を行なうことを目的としている。
そのために、本発明の人間の動作自動認識装置では、
まず人間の動作測定のための動作測定部1に、例えばデ
ータグローブ又はボディースーツ等を使用し、該データ
グローブ等から得られる時系列データを処理して人間の
動作の認識を行なうことになる。
まず人間の動作測定のための動作測定部1に、例えばデ
ータグローブ又はボディースーツ等を使用し、該データ
グローブ等から得られる時系列データを処理して人間の
動作の認識を行なうことになる。
所で、人間の動作を認識するに際しては、該動作がポ
スチャーであるのか、ジェスチャーであるのか、あるい
は無意味な動作であるのかを識別すると共に、有効な動
作の始点と終点を正確に特定する必要がある。
スチャーであるのか、ジェスチャーであるのか、あるい
は無意味な動作であるのかを識別すると共に、有効な動
作の始点と終点を正確に特定する必要がある。
そこで、本発明の装置では、二つのニューラルネット
ワーク部、すなわちポスチャーニューラルネットワーク
部2と、ジェスチャーニューラルネットワーク部5を用
いて、それぞれに役割分担を与え効果的に認識処理を行
なわせている。
ワーク部、すなわちポスチャーニューラルネットワーク
部2と、ジェスチャーニューラルネットワーク部5を用
いて、それぞれに役割分担を与え効果的に認識処理を行
なわせている。
すなわち、ポスチャーニューラルネットワーク部2に
は、ポスチャー内容の認識と、ジェスチャーであった場
合のジェスチャー開始点の認識を行ない得るように予め
学習させておき、またジェスチャーニューラルネットワ
ーク部5には種々のジェスチャー内容の認識を行ない得
るよう予め学習させておく。
は、ポスチャー内容の認識と、ジェスチャーであった場
合のジェスチャー開始点の認識を行ない得るように予め
学習させておき、またジェスチャーニューラルネットワ
ーク部5には種々のジェスチャー内容の認識を行ない得
るよう予め学習させておく。
そして、ポスチャーニューラルネットワーク部2でジ
ェスチャー開始点が検知された場合には、ジェスチャー
ニューラルネットワーク部5に動作測定部1からの時系
列データを導き、ジェスチャーの認識を行なう。
ェスチャー開始点が検知された場合には、ジェスチャー
ニューラルネットワーク部5に動作測定部1からの時系
列データを導き、ジェスチャーの認識を行なう。
また、動作判断部8は、ポスチャーニューラルネット
ワーク部2でジェスチャー開始点が検知された場合の、
ジェスチャーニューラルネットワーク5への時系列デー
タの導入制御を行なう他、 ポスチャーニューラルネットワーク部2からの出力
と、ジェスチャーニューラルネットワーク部5からの出
力を比較監視し、対象となる人間の動作がポスチャー
か、ジェスチャーか、あるいは無意味な動作であるかを
最終決定して出力する。
ワーク部2でジェスチャー開始点が検知された場合の、
ジェスチャーニューラルネットワーク5への時系列デー
タの導入制御を行なう他、 ポスチャーニューラルネットワーク部2からの出力
と、ジェスチャーニューラルネットワーク部5からの出
力を比較監視し、対象となる人間の動作がポスチャー
か、ジェスチャーか、あるいは無意味な動作であるかを
最終決定して出力する。
また、上記ジェスチャーニューラルネットワーク部5
は、人間の一連の動作をジェスチャーとして判断するも
のであり、一連の時系列データを全体として認識する必
要が生じるため、コンテキスト層を有するリカレントニ
ューラルネットワークを用いる方法が有効となる。
は、人間の一連の動作をジェスチャーとして判断するも
のであり、一連の時系列データを全体として認識する必
要が生じるため、コンテキスト層を有するリカレントニ
ューラルネットワークを用いる方法が有効となる。
以下、本発明の一実施例について説明する。
第1図は本発明の一実施例の構成を示す図であり、特
許請求の範囲の各請求項の発明に共通に対応する実施例
である。
許請求の範囲の各請求項の発明に共通に対応する実施例
である。
第1図において、1は動作測定部、2はポスチャーニ
ューラルネットワーク部、3はポスチャーニューラルネ
ットワーク学習部、4はポスチャーニューラルネットワ
ーク認識部、5はジェスチャーニューラルネットワーク
部、6はジェスチャーニューラルネットワーク学習部、
7はジェスチャーニューラルネットワーク認識部、8は
動作判断部、9はスイッチ、10はポスチャー・ジェスチ
ャー判断部、11はジェスチャー開始点処理部、12は結果
判断部、13は認識結果を表わしている。
ューラルネットワーク部、3はポスチャーニューラルネ
ットワーク学習部、4はポスチャーニューラルネットワ
ーク認識部、5はジェスチャーニューラルネットワーク
部、6はジェスチャーニューラルネットワーク学習部、
7はジェスチャーニューラルネットワーク認識部、8は
動作判断部、9はスイッチ、10はポスチャー・ジェスチ
ャー判断部、11はジェスチャー開始点処理部、12は結果
判断部、13は認識結果を表わしている。
以下、本実施例の各部の動作について説明する。
(1) 動作測定部 第2図は実施例中の動作測定部について説明するため
の図であり、本例では、人間がデータグローブ及びボデ
ィスーツ1aを着用し、該データグローブ及びボディスー
ツ1aに付設された動作監視用のセンサーにより、人間の
動作形態データを測定する。なお、該データは時系列デ
ータである。
の図であり、本例では、人間がデータグローブ及びボデ
ィスーツ1aを着用し、該データグローブ及びボディスー
ツ1aに付設された動作監視用のセンサーにより、人間の
動作形態データを測定する。なお、該データは時系列デ
ータである。
(2) ポスチャー及びジェスチャーニューラルネット
ワーク学習部 ポスチャーニューラルネットワーク部2及びジェスチ
ャーニューラルネットワーク部5中には、それぞれポス
チャーニューラルネットワーク学習部3及びジェスチャ
ーニューラルネットワーク学習部6なるネットワーク学
習部を有し、該二つの学習部の構成は基本的には共通で
ある。
ワーク学習部 ポスチャーニューラルネットワーク部2及びジェスチ
ャーニューラルネットワーク部5中には、それぞれポス
チャーニューラルネットワーク学習部3及びジェスチャ
ーニューラルネットワーク学習部6なるネットワーク学
習部を有し、該二つの学習部の構成は基本的には共通で
ある。
すなわち、第3図はネットワーク学習部の構成を示す
図であり、14は学習パターン保持部、15は重み更新部、
16は学習実行部を表わしており、以下各部について説明
する。
図であり、14は学習パターン保持部、15は重み更新部、
16は学習実行部を表わしており、以下各部について説明
する。
(a) 学習パターン保持部 学習実行部16中のニューラルネットワーク16aに学習
を行なわせるための、入力とそれに対応する望ましい出
力(教師信号)を保持する部分である。
を行なわせるための、入力とそれに対応する望ましい出
力(教師信号)を保持する部分である。
(b) 学習実行部 学習パターン保持部14の入力パターンとそれに対する
教師信号をニューラルネットワーク16aに入力し、ネッ
トワークの出力と、結合の重みを計算する部分である。
教師信号をニューラルネットワーク16aに入力し、ネッ
トワークの出力と、結合の重みを計算する部分である。
なお、該学習実行部16中のニューラルネットワーク16
aは、ジェスチャーニューラルネットワーク部5の場合
にはコンテキスト層を内部に有するリカレントニューラ
ルネットワークで構成され、時系列データの認識に有効
に作用し、ポスチャーニューラルネットワーク部2の場
合には通常のニューラルネットワークで構成される。
aは、ジェスチャーニューラルネットワーク部5の場合
にはコンテキスト層を内部に有するリカレントニューラ
ルネットワークで構成され、時系列データの認識に有効
に作用し、ポスチャーニューラルネットワーク部2の場
合には通常のニューラルネットワークで構成される。
(c) 重み更新部 学習規則に基づき、ネットワークの重みを計算する部
分であり、学習の終了後に、該計算値がニューラルネッ
トワーク認識部の結合の重みの値に入力される。
分であり、学習の終了後に、該計算値がニューラルネッ
トワーク認識部の結合の重みの値に入力される。
(3) ポスチャー及びジェスチャーニューラルネット
ワーク認識部 ポスチャーニューラルネットワーク部2中のポスチャ
ーニューラルネットワーク認識部4と、ジェスチャーニ
ューラルネットワーク部5中のジェスチャーニューラル
ネットワーク認識部7の基本的な動作は同じであり、 第4図のニューラルネットワーク認識部について説明
するための図に示されるごとく、ポスチャーニューラル
ネットワーク学習部3及びジェスチャーニューラルネッ
トワーク学習部6で計算された学習後の結合の重みの値
をネットワーク16aに入力し、入力データに対して認識
を行なう。
ワーク認識部 ポスチャーニューラルネットワーク部2中のポスチャ
ーニューラルネットワーク認識部4と、ジェスチャーニ
ューラルネットワーク部5中のジェスチャーニューラル
ネットワーク認識部7の基本的な動作は同じであり、 第4図のニューラルネットワーク認識部について説明
するための図に示されるごとく、ポスチャーニューラル
ネットワーク学習部3及びジェスチャーニューラルネッ
トワーク学習部6で計算された学習後の結合の重みの値
をネットワーク16aに入力し、入力データに対して認識
を行なう。
(4) スイッチ部 第5図は実施例中のスイッチ動作について説明するた
めの図であり、該スイッチ9の内部には入力データをポ
スチャーニューラルネットワーク部2に導くポスチャー
ニューラルネットワーク・スイッチチャネル9aと、ジェ
スチャーニューラルネットワーク部5に導くジェスチャ
ーニューラルネットワーク・スイッチチャネル9bを有し
ており、通常は動作測定装置1からのデータをポスチャ
ーニューラルネットワーク部2に送り、ジェスチャー開
始点処理部11からの命令が来た時はジェスチャーニュー
ラルネットワーク部5にデータを送る。
めの図であり、該スイッチ9の内部には入力データをポ
スチャーニューラルネットワーク部2に導くポスチャー
ニューラルネットワーク・スイッチチャネル9aと、ジェ
スチャーニューラルネットワーク部5に導くジェスチャ
ーニューラルネットワーク・スイッチチャネル9bを有し
ており、通常は動作測定装置1からのデータをポスチャ
ーニューラルネットワーク部2に送り、ジェスチャー開
始点処理部11からの命令が来た時はジェスチャーニュー
ラルネットワーク部5にデータを送る。
但し、動作モードによっては、両方のネットワーク部
2,5にデータが送られる場合もある。
2,5にデータが送られる場合もある。
(5) ポスチャー・ジェスチャー判断部 ポスチャーニューラルネットワーク部2からの出力結
果を見て、今の人間の動作がポスチャーなのか、あるい
は、ジェスチャーの開始点動作なのかを判断する。
果を見て、今の人間の動作がポスチャーなのか、あるい
は、ジェスチャーの開始点動作なのかを判断する。
もし、ジェスチャーの開始点動作であると判断した場
合は、ジェスチャー開始点処理部11にその情報を送る。
合は、ジェスチャー開始点処理部11にその情報を送る。
また、ポスチャーであると判断した場合は、結果判断
部12にその情報を送る。ただし、ポスチャー、ジェスチ
ャーの開始動作の両方に当てはまらない時は、人間の無
意味な動作であると判断し、何も反応しない。これは、
ポスチャーニューラルネットワーク部2からの出力が非
常に低い時に、そうであると判断する。
部12にその情報を送る。ただし、ポスチャー、ジェスチ
ャーの開始動作の両方に当てはまらない時は、人間の無
意味な動作であると判断し、何も反応しない。これは、
ポスチャーニューラルネットワーク部2からの出力が非
常に低い時に、そうであると判断する。
つまり、ここで人間の意味のある動作を抽出し、それ
に反応するようにする。
に反応するようにする。
(6) ジェスチャー開始点処理部 スイッチ9に対して、動作測定部1のデータをジェス
チャーニューラルネットワーク部5に送るよう指示す
る。
チャーニューラルネットワーク部5に送るよう指示す
る。
(7) 結果判断部 第6図は本発明の実施例の結果判断部について説明す
るための図であり、該結果判断部12は比較部12aと履歴
保存部12bから構成される。
るための図であり、該結果判断部12は比較部12aと履歴
保存部12bから構成される。
すなわち、本結果判断部12では、ポスチャーニューラ
ルネットワーク認識部4からのみ結果が送られてきたと
きはその出力結果を認識結果とする。
ルネットワーク認識部4からのみ結果が送られてきたと
きはその出力結果を認識結果とする。
またジェスチャーニューラルネットワーク認識部7か
らのみ結果が送られてきたときは、履歴保存部12bの過
去の履歴を見ながら、結果が確かなものになったら認識
結果を出す。
らのみ結果が送られてきたときは、履歴保存部12bの過
去の履歴を見ながら、結果が確かなものになったら認識
結果を出す。
すなわち、ジェスチャーは時間分割データの集まりで
あり、その全体で意味を持つ動作となる。そのため、ジ
ェスチャーニューラルネットワーク認識部7からの時間
ごとの結果をまとめ動作を認識する必要があり、少々時
間がかかる。
あり、その全体で意味を持つ動作となる。そのため、ジ
ェスチャーニューラルネットワーク認識部7からの時間
ごとの結果をまとめ動作を認識する必要があり、少々時
間がかかる。
さらに、両方から結果が送られてきた時は、どちらか
を判断するために少し様子を見て判断する。
を判断するために少し様子を見て判断する。
それがポスチャーであれば、様子を見てもポスチャー
ニューラルネットワーク認識部4の出力値に変化はない
が、ジェスチャーニューラルネットワーク認識部7から
の出力は落ちるので、それはポスチャーであると認識で
きる。その逆も同様である。
ニューラルネットワーク認識部4の出力値に変化はない
が、ジェスチャーニューラルネットワーク認識部7から
の出力は落ちるので、それはポスチャーであると認識で
きる。その逆も同様である。
次に、本発明の実施例での具体的動作例について説明
する。
する。
すなわち、第7図はポスチャーニューラルネットワー
ク学習部に与えるデータ例を示す図であり、入力データ
として、指の曲げ角度のデータを10点、指のひねり角度
のデータを3点、そのポジション(位置)を3点与え、
該入力データに対する10ビットの教師信号を与えた場合
の例である。
ク学習部に与えるデータ例を示す図であり、入力データ
として、指の曲げ角度のデータを10点、指のひねり角度
のデータを3点、そのポジション(位置)を3点与え、
該入力データに対する10ビットの教師信号を与えた場合
の例である。
また、第8図はジェスチャーニューラルネットワーク
学習部に与えるデータ例を示す図であり、第7図の場合
と同様の入力データ点数に対して、3ビットの教師信号
を与えて学習を行なわせる。
学習部に与えるデータ例を示す図であり、第7図の場合
と同様の入力データ点数に対して、3ビットの教師信号
を与えて学習を行なわせる。
第8図の例では、第8図(a)のパターン(1)、第
8図(b)のパターン(2)、第8図(c)のパターン
(3)の3種類のジェスチャーについて学習を行なわせ
た場合の例である。
8図(b)のパターン(2)、第8図(c)のパターン
(3)の3種類のジェスチャーについて学習を行なわせ
た場合の例である。
以上のような学習を行なわせた後に、実際の認識に際
して、入ってきたデータが第7図のデータ番号〜の
どれかに近い値であればポスチャー・ジェスチャー判断
部10にデータが行きそこで、認識結果を結果判断部12が
出力する。
して、入ってきたデータが第7図のデータ番号〜の
どれかに近い値であればポスチャー・ジェスチャー判断
部10にデータが行きそこで、認識結果を結果判断部12が
出力する。
入ってきたデータがデータ番号〜のどれかに近い
値であればポスチャー・ジェスチャー判断部10にデータ
が行き、ジェスチャー開始点処理部11がスイッチ9に命
令を送りジェスチャーニューラルネットワーク部5にデ
ータが送られる。
値であればポスチャー・ジェスチャー判断部10にデータ
が行き、ジェスチャー開始点処理部11がスイッチ9に命
令を送りジェスチャーニューラルネットワーク部5にデ
ータが送られる。
その結果、結果判断部12において、逐次履歴保存部12
bにデータを送りながら、また参照しながら認識結果を
出す。
bにデータを送りながら、また参照しながら認識結果を
出す。
入ってきたデータがデータ番号または(同じ)で
あれば、ポスチャー・ジェスチャー判断部10にデータが
行き、ジェスチャー開始点処理部11がスイッチ9に命令
を送りジェスチャーニューラルネットワーク部5にもデ
ータが送られる。その結果、結果判断部12において、逐
次履歴保存部12bにデータを送りながら、かつ参照しな
がら認識結果を出力する。
あれば、ポスチャー・ジェスチャー判断部10にデータが
行き、ジェスチャー開始点処理部11がスイッチ9に命令
を送りジェスチャーニューラルネットワーク部5にもデ
ータが送られる。その結果、結果判断部12において、逐
次履歴保存部12bにデータを送りながら、かつ参照しな
がら認識結果を出力する。
以上説明したごとく、本発明の動作自動認識装置によ
れば、人間が動作の区切りをコンピュータに教える手間
が省け、人間がそのことを認識しないで、普段通りにふ
るまうことで、コンピュータに自分の意志を告げること
ができるようになり、高度なマン・マシンインターフェ
ースが達成できる。
れば、人間が動作の区切りをコンピュータに教える手間
が省け、人間がそのことを認識しないで、普段通りにふ
るまうことで、コンピュータに自分の意志を告げること
ができるようになり、高度なマン・マシンインターフェ
ースが達成できる。
また、人間の動作を理解するという難しい問題点も本
発明によって解決できる。
発明によって解決できる。
第1図は本発明の一実施例を示す図、第2図は実施例中
の動作測定部について説明するための図、第3図はニュ
ーラルネットワーク学習部の構成を示す図、第4図はニ
ューラルネットワーク認識部について説明するための
図、第5図はスイッチ動作について説明するための図、
第6図は結果判断部について説明するための図、第7図
はポスチャーニューラルネットワーク学習部に与えるデ
ータ例を示す図、第8図はジェスチャーニューラルネッ
トワーク学習部に与えるデータ例を示す図である。 1……動作測定部、1a……データグローブ及びボデース
ーツ、2……ポスチャーニューラルネットワーク部、3
……ポスチャーニューラルネットワーク学習部、4……
ポスチャーニューラルネットワーク認識部、5……ジェ
スチャーニューラルネットワーク部、6……ジェスチャ
ーニューラルネットワーク学習部、7……ジェスチャー
ニューラルネットワーク認識部、8……動作判断部、9
……スイッチ、9a……ポスチャーニューラルネットワー
ク・スイッチチャネル、9b……ジェスチャーニューラル
ネットワーク・スイッチチャネル、10……ポスチャー・
ジェスチャー判断部、11……ジェスチャー開始点処理
部、12……結果判断部、12a……比較部、12b……履歴保
存部、13……認識結果、14……学習パターン保持部、15
……重み更新部、16……学習実行部、16a……ニューラ
ルネットワーク。
の動作測定部について説明するための図、第3図はニュ
ーラルネットワーク学習部の構成を示す図、第4図はニ
ューラルネットワーク認識部について説明するための
図、第5図はスイッチ動作について説明するための図、
第6図は結果判断部について説明するための図、第7図
はポスチャーニューラルネットワーク学習部に与えるデ
ータ例を示す図、第8図はジェスチャーニューラルネッ
トワーク学習部に与えるデータ例を示す図である。 1……動作測定部、1a……データグローブ及びボデース
ーツ、2……ポスチャーニューラルネットワーク部、3
……ポスチャーニューラルネットワーク学習部、4……
ポスチャーニューラルネットワーク認識部、5……ジェ
スチャーニューラルネットワーク部、6……ジェスチャ
ーニューラルネットワーク学習部、7……ジェスチャー
ニューラルネットワーク認識部、8……動作判断部、9
……スイッチ、9a……ポスチャーニューラルネットワー
ク・スイッチチャネル、9b……ジェスチャーニューラル
ネットワーク・スイッチチャネル、10……ポスチャー・
ジェスチャー判断部、11……ジェスチャー開始点処理
部、12……結果判断部、12a……比較部、12b……履歴保
存部、13……認識結果、14……学習パターン保持部、15
……重み更新部、16……学習実行部、16a……ニューラ
ルネットワーク。
フロントページの続き (56)参考文献 ヒューマン・インタフェース・シンポ ジウム論文集 Vol.6 P.187− 190(1990)
Claims (3)
- 【請求項1】人間の姿勢及び動作の形態を測定し、該形
態データの認識結果によりコンピュータへのデータ入力
を行う人間の動作自動認識装置において、 人間の形態データを収集する動作測定部(1)と、 上記動作測定部(1)からのデータにより、人間の姿勢
なるポスチャーの内容と、さらに人間の動作なるジェス
チャーの開始点を識別判断するポスチャーニューラルネ
ットワーク部(2)と、 上記ポスチャーニューラルネットワーク部(2)でジェ
スチャーの開始点が識別された場合に、上記動作測定部
(1)からの形態データを得て、ジェスチャーの内容を
認識判断するジェスチャーニューラルネットワーク
(5)と、 上記ポスチャーニューラルネットワーク部(2)でジェ
スチャーの開始点が識別された場合に、ジェスチャーニ
ューラルネットワーク部(5)への形態データの導入を
制御すると共に、ポスチャーニューラルネットワーク部
(2)とジェスチャーニューラルネットワーク部(5)
の出力結果を比較して最終的な認識結果を選択決定する
動作判断部(8)を、 設けたことを特徴とするニューラルネットワークを用い
た人間の動作自動認識装置。 - 【請求項2】請求1記載の発明において、ジェスチャー
ニューラルネットワーク(5)を、内部にコンテキスト
層を有するリカレントニューラルネットワークとしたこ
とを特徴とするニューラルネットワークを用いた人間の
動作自動認識装置。 - 【請求項3】請求1または2記載の発明において、人間
の形態データを収集する動作測定部(1)として、デー
タグローブまたはボデースーツを用いたことを特徴とす
るニューラルネットワークを用いた人間の動作自動認識
装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2282760A JP2558943B2 (ja) | 1990-10-19 | 1990-10-19 | ニューラルネットワークを用いた人間の動作自動認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2282760A JP2558943B2 (ja) | 1990-10-19 | 1990-10-19 | ニューラルネットワークを用いた人間の動作自動認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04156610A JPH04156610A (ja) | 1992-05-29 |
JP2558943B2 true JP2558943B2 (ja) | 1996-11-27 |
Family
ID=17656712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2282760A Expired - Fee Related JP2558943B2 (ja) | 1990-10-19 | 1990-10-19 | ニューラルネットワークを用いた人間の動作自動認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2558943B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5887069A (en) * | 1992-03-10 | 1999-03-23 | Hitachi, Ltd. | Sign recognition apparatus and method and sign translation system using same |
DE69328147T2 (de) * | 1992-08-24 | 2000-12-14 | Hitachi Ltd | Gebärdenspracherkennungsgerät und Verfahren und Gebärdensprachübersetzungssystem, das dieses verwendet |
US5659764A (en) * | 1993-02-25 | 1997-08-19 | Hitachi, Ltd. | Sign language generation apparatus and sign language translation apparatus |
JP3554571B2 (ja) * | 1993-05-31 | 2004-08-18 | 株式会社日立製作所 | 手話認識装置 |
JP3630712B2 (ja) * | 1994-02-03 | 2005-03-23 | キヤノン株式会社 | ジェスチャー入力方法及びその装置 |
JP3669515B2 (ja) * | 1994-05-16 | 2005-07-06 | 株式会社日立製作所 | 手話通訳装置 |
JP2006146479A (ja) * | 2004-11-18 | 2006-06-08 | Yasuhiro Fukui | 入力装置 |
JP4639784B2 (ja) | 2004-12-06 | 2011-02-23 | ソニー株式会社 | 学習装置および学習方法、並びにプログラム |
JP5649535B2 (ja) * | 2011-08-05 | 2015-01-07 | 株式会社東芝 | コマンド発行装置、コマンド発行方法およびプログラム |
CN106155298B (zh) * | 2015-04-21 | 2019-11-08 | 阿里巴巴集团控股有限公司 | 人机识别方法及装置、行为特征数据的采集方法及装置 |
CN107483813B (zh) * | 2017-08-08 | 2020-11-17 | 深圳市明日实业有限责任公司 | 一种根据手势进行跟踪录播的方法、装置及存储装置 |
CN107526438B (zh) * | 2017-08-08 | 2020-11-13 | 深圳市明日实业有限责任公司 | 根据举手动作进行跟踪录播的方法、装置及存储装置 |
WO2019142329A1 (ja) * | 2018-01-19 | 2019-07-25 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
-
1990
- 1990-10-19 JP JP2282760A patent/JP2558943B2/ja not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
ヒューマン・インタフェース・シンポジウム論文集 Vol.6 P.187−190(1990) |
Also Published As
Publication number | Publication date |
---|---|
JPH04156610A (ja) | 1992-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2558943B2 (ja) | ニューラルネットワークを用いた人間の動作自動認識装置 | |
Rogalla et al. | Using gesture and speech control for commanding a robot assistant | |
CN105739688A (zh) | 一种基于情感体系的人机交互方法、装置和交互系统 | |
JPH07219703A (ja) | ジェスチャー入力方法及びその装置 | |
CN106909216A (zh) | 一种基于Kinect传感器的仿人机械手控制方法 | |
CN113829357B (zh) | 机器人手臂遥操作方法、装置、系统及介质 | |
CN111414837A (zh) | 手势识别方法、装置、计算机设备及存储介质 | |
CN113849068A (zh) | 一种手势多模态信息融合的理解与交互方法及其系统 | |
Villagomez et al. | Hand gesture recognition for deaf-mute using fuzzy-neural network | |
CN114721509A (zh) | 基于人体动作识别的人机交互方法及系统 | |
Avadut et al. | A deep learning based iot framework for assistive healthcare using gesture based interface | |
Dhamanskar et al. | Human computer interaction using hand gestures and voice | |
Bien et al. | Blend of soft computing techniques for effective human–machine interaction in service robotic systems | |
Khan et al. | Gesture recognition using Open-CV | |
Kim et al. | Soft computing based intention reading techniques as a means of human-robot interaction for human centered system | |
JPH02287775A (ja) | パターン認識システム | |
Elwahsh et al. | A New Intelligent Approach for Deaf/Dumb People based on Deep Learning | |
KR102578469B1 (ko) | 전문가의 자세 및 동작 분석 정보를 이용한 사용자의 자세 및 동작 교정 정보 제공 시스템 | |
KR102586144B1 (ko) | 딥러닝을 이용한 손 움직임 추적방법 및 장치 | |
CN113552945B (zh) | 一种人机交互的手套系统 | |
Pribluda et al. | Development and Design of the Intellectual Bionic Robotic Arm Control System | |
Allevard et al. | Hand posture recognition with the fuzzy glove | |
JPH08263699A (ja) | 把持目標物体推測装置およびそれを具備する人工現実感装置 | |
Varalatchoumy et al. | Wheelchair and PC Volume Control Using Hand Gesture | |
Wang et al. | An Automatic Hand Rehabilitation Assessment System: Implementation and Experiments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080905 Year of fee payment: 12 |
|
LAPS | Cancellation because of no payment of annual fees |