JPH04222014A - Automatic finger talking translating device using neural network and its translating method - Google Patents

Automatic finger talking translating device using neural network and its translating method

Info

Publication number
JPH04222014A
JPH04222014A JP2406051A JP40605190A JPH04222014A JP H04222014 A JPH04222014 A JP H04222014A JP 2406051 A JP2406051 A JP 2406051A JP 40605190 A JP40605190 A JP 40605190A JP H04222014 A JPH04222014 A JP H04222014A
Authority
JP
Japan
Prior art keywords
neural network
layer
output
sign language
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2406051A
Other languages
Japanese (ja)
Inventor
Shinichi Aoshima
伸一 青島
Koichi Yoshida
耕一 吉田
Nobuyuki Yoshizawa
信幸 吉澤
Tetsuo Yabuta
藪田 哲郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2406051A priority Critical patent/JPH04222014A/en
Publication of JPH04222014A publication Critical patent/JPH04222014A/en
Pending legal-status Critical Current

Links

Landscapes

  • Input From Keyboards Or The Like (AREA)

Abstract

PURPOSE:To automatically translate words, meaning, sentences, etc., expressed by the fingers of a finger talking person by using a neural network. CONSTITUTION:The angles of respective joints of respective fingers of the hands and the positions and directions of the hands are detected by data globes and positional direction sensors, each of an input layer, an intermediate layer and an output layer consists of plural units and the units of respective adjacent layers are completely mutually connected with an inherent weight coefficient. In the neural network, a value obtained by multiplying the output value of the unit in the preceding layer by said weight coefficient is inputted to the units in the succeeding layer and each unit in the succeeding layer calculates the sum of values inputted from all the units in the preceding layer, applies non-linear conversion defined as an output function to the sum and then outputs the converted data to the succeeding layer. In said constitution, detection signals outputted from respective sensors are supplied to the neural network and finger talking translated results outputted from the neural network are outputted as language levels through a display and a speaker.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、ニューラルネットワー
クを使用して、手話者が手話によって表現する単語、意
味、文章等を自動的に翻訳するニューラルネットワーク
を用いた手話自動翻訳装置およびその翻訳方法に関する
[Industrial Application Field] The present invention relates to an automatic sign language translation device and its translation method using a neural network to automatically translate words, meanings, sentences, etc. expressed by a sign language person in sign language. Regarding.

【0002】0002

【従来の技術】従来、手話の動作を行うロボットは研究
段階として考えられているが、逆に手話者が手話によっ
て表現する単語、意味、文章等を自動的に日常語または
会話言葉に翻訳する装置はない。このような装置は、手
話を知らない一般の人と手話者との間のコミュニケーシ
ョンのためにも必要なものである。
[Prior Art] Conventionally, robots that perform sign language movements have been considered at the research stage, but on the other hand, robots that perform sign language movements automatically translate words, meanings, sentences, etc. expressed by sign language users into everyday or conversational language. There is no equipment. Such devices are also necessary for communication between ordinary people who do not know sign language and sign language users.

【0003】0003

【発明が解決しようとする課題】手話者が手話によって
表現する単語、意味、文章等を自動的に日常語または会
話言葉に翻訳する装置はなく、手話を知らない一般の人
と手話者との間のコミュニケーションのためにもこのよ
うな装置は必要なものである。
[Problem to be solved by the invention] There is no device that automatically translates the words, meanings, sentences, etc. expressed by a sign language person into everyday or conversational language, and it is difficult for the sign language person to communicate with ordinary people who do not know sign language. Such devices are also necessary for communication between people.

【0004】本発明は、上記に鑑みてなされたもので、
その目的とするところは、手話者が手話によって表現す
る単語、意味、文章等を手話を知らない人にわかるよう
に日常語に自動的に翻訳するニューラルネットワークを
用いた手話自動翻訳装置およびその翻訳方法を提供する
ことにある。
The present invention has been made in view of the above, and
The aim is to create an automatic sign language translation device using a neural network that automatically translates the words, meanings, sentences, etc. expressed by sign language speakers into everyday language so that people who do not know sign language can understand them. The purpose is to provide a method.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
、本発明のニューラルネットワークを用いた手話自動翻
訳装置は、手の各指の各関節角度を検知する第1の検知
手段と、手の位置および方向を検知する第2の検知手段
と、前記第1および第2の検知手段からの検知信号を供
給される複数のユニットからなる入力層、該入力層から
の出力信号を供給されるように結合される複数のユニッ
トからなる少なくとも1層以上の中間層および該中間層
からの出力信号を供給されるように結合される複数のユ
ニットからなり、各ユニットから手話翻訳結果が出力さ
れる出力層を有し、各隣合う層のユニット同志が固有の
重み係数をもってもれなく結合されており、前の層のユ
ニットの出力値に前記重みを乗じた値が後の層のユニッ
トに入力され、後の層のユニットは前の層のすべてのユ
ニットからの値の総和を計算し、出力関数として定義さ
れる非線形変換を施した後、次の層に出力するニューラ
ルネットワークと、該ニューラルネットワークから出力
される手話翻訳結果を言語レベルに変換する変換手段と
を有することを要旨とする。
[Means for Solving the Problems] In order to achieve the above object, an automatic sign language translation device using a neural network according to the present invention includes a first detection means for detecting the angle of each joint of each finger of the hand; a second detection means for detecting position and direction; an input layer comprising a plurality of units supplied with detection signals from the first and second detection means; and an input layer configured to be supplied with output signals from the input layer. an output consisting of at least one or more intermediate layers consisting of a plurality of units coupled to each other, and a plurality of units coupled so as to be supplied with output signals from the intermediate layer, each unit outputting a sign language translation result; The units in each adjacent layer are connected with each other with a unique weighting coefficient, and the value obtained by multiplying the output value of the unit in the previous layer by the weight is input to the unit in the next layer, and the unit in the next layer is The unit of the layer calculates the sum of the values from all the units of the previous layer, and after applying a nonlinear transformation defined as an output function, the neural network outputs to the next layer, and the output from the neural network. The gist of the present invention is to have a conversion means for converting a sign language translation result into a language level.

【0006】また、本発明のニューラルネットワークを
用いた手話自動翻訳方法は、計測済みの各手話翻訳結果
に対応する手の各指の各関節角度および手の位置および
方向情報の時系列データを教師信号としてニューラルネ
ットワークの入力層に供給して得られる出力層の出力信
号と理想的な出力信号との誤差を使用してニューラルネ
ットワークの各ユニット間の重みの値を変更し、手の各
指の各関節角度および手の位置および方向の入力情報に
対応する正しい手話翻訳結果を出力するようにニューラ
ルネットワークを学習させ、この学習したニューラルネ
ットワークの入力層に未知の手の各指の各関節角度およ
び手の位置および方向情報の時系列データを入力して、
該入力情報に対応する手話翻訳結果をニューラルネット
ワークの出力層から出力することを要旨とする。
[0006] Furthermore, the automatic sign language translation method using a neural network of the present invention uses time-series data of each joint angle of each finger of the hand and hand position and direction information corresponding to each measured sign language translation result as a teacher. The error between the output signal of the output layer obtained by feeding the input layer of the neural network as a signal and the ideal output signal is used to change the weight value between each unit of the neural network, and calculate the weight value of each finger of the hand. A neural network is trained to output correct sign language translation results corresponding to the input information of each joint angle and hand position and direction, and the input layer of this trained neural network is Input time series data of hand position and direction information,
The gist is to output a sign language translation result corresponding to the input information from the output layer of the neural network.

【0007】[0007]

【作用】本発明のニューラルネットワークを用いた手話
自動翻訳装置では、手の各指の各関節角度と手の位置お
よび方向を検知するとともに、それぞれ複数のユニット
からなる入力層、中間層および出力層を有し、各隣合う
層のユニット同志が固有の重み係数をもってもれなく結
合されており、前の層のユニットの出力値に前記重みを
乗じた値が後の層のユニットに入力され、後の層のユニ
ットは前の層のすべてのユニットからの値の総和を計算
し、出力関数として定義される非線形変換を施した後、
次の層に出力するニューラルネットワークに前記検知信
号を供給し、該ニューラルネットワークから出力される
手話翻訳結果を言語レベルに変換する。
[Operation] The automatic sign language translation device using the neural network of the present invention detects the angle of each joint of each finger of the hand and the position and direction of the hand. The units in each adjacent layer are connected with each other using a unique weighting coefficient, and the value obtained by multiplying the output value of the unit in the previous layer by the weight is input to the unit in the next layer, and the unit in the next layer is A unit of a layer calculates the sum of values from all units of the previous layer, and after applying a nonlinear transformation defined as an output function,
The detection signal is supplied to a neural network that outputs to the next layer, and the sign language translation result output from the neural network is converted to a linguistic level.

【0008】また、本発明のニューラルネットワークを
用いた手話自動翻訳方法では、計測済みの各手話翻訳結
果に対応する手の各指の各関節角度および手の位置およ
び方向情報の時系列データを教師信号としてニューラル
ネットワークの入力層に供給して得られる出力層の出力
信号と理想的な出力信号との誤差を使用してニューラル
ネットワークの各ユニット間の重みの値を変更し、手の
各指の各関節角度および手の位置および方向の入力情報
に対応する正しい手話翻訳結果を出力するようにニュー
ラルネットワークを学習させ、この学習したニューラル
ネットワークの入力層に未知の手の各指の各関節角度お
よび手の位置および方向情報の時系列データを入力して
、該入力情報に対応する手話翻訳結果をニューラルネッ
トワークの出力層から出力する。
In addition, in the automatic sign language translation method using a neural network of the present invention, time series data of each joint angle of each finger of the hand and hand position and direction information corresponding to each measured sign language translation result is used as a teacher. The error between the output signal of the output layer obtained by feeding the input layer of the neural network as a signal and the ideal output signal is used to change the weight value between each unit of the neural network, and calculate the weight value of each finger of the hand. A neural network is trained to output correct sign language translation results corresponding to the input information of each joint angle and hand position and direction, and the input layer of this trained neural network is Time series data of hand position and direction information is input, and a sign language translation result corresponding to the input information is output from the output layer of the neural network.

【0009】[0009]

【実施例】以下、図面を用いて本発明の実施例を説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Examples of the present invention will be described below with reference to the drawings.

【0010】図1は、本発明の一実施例に係わるニュー
ラルネットワークを用いた手話自動翻訳装置の全体構成
図である。この手話自動翻訳装置は、手話者の手の各指
の各関節角度を検知するセンサであるデータグローブ1
および手の位置および方向を検知する位置方向センサ3
を有する。
FIG. 1 is an overall configuration diagram of an automatic sign language translation device using a neural network according to an embodiment of the present invention. This automatic sign language translation device uses a data glove 1 that is a sensor that detects the angle of each joint of each finger of a signer's hand.
and a position/direction sensor 3 that detects the position and direction of the hand.
has.

【0011】データグローブ1は、伸縮する布で形成さ
れた手袋に図のように光ファイバを各指に沿って取り付
けたものであり、ファイバが曲げられると、このファイ
バを通過する光の量が変化する原理を利用して、各指の
各関節角度を検知するものである。また、位置方向セン
サ3は、ある基準位置からの距離、基準方向に対する方
向を検知するものである。
The data glove 1 is a glove made of stretchable cloth with optical fibers attached along each finger as shown in the figure. When the fibers are bent, the amount of light passing through the fibers increases. It uses the principle of change to detect the angle of each joint of each finger. Further, the position/direction sensor 3 detects the distance from a certain reference position and the direction with respect to the reference direction.

【0012】前記データグローブ1で検知された各指の
各関節角度信号および位置方向センサ3で検知された手
の位置および方向信号は、時系列データとして入力側変
換装置5を介してニューラルネットワーク10に供給さ
れる。
The joint angle signals of each finger detected by the data glove 1 and the hand position and direction signals detected by the position and direction sensor 3 are transmitted as time series data to a neural network 10 via an input side conversion device 5. is supplied to

【0013】ニューラルネットワーク10は、丸印で示
すニューロンである複数のユニットからなり、各指の各
関節角度、手の位置および方向信号が供給される入力層
7、該入力層7からの出力信号を供給されるように結合
される複数のユニットからなる少なくとも1層以上の中
間層9および該中間層9からの出力信号を供給されるよ
うに結合される複数のユニットからなり、各ユニットか
ら例えば図示のように単語1、単語2、・・・単語7の
ような手話翻訳結果が出力される出力層11の3層から
構成され、各隣合う層のユニット同志が固有の重み係数
をもってもれなく結合されている。また、このニューラ
ルネットワーク10において、前の層のユニットの出力
値に前記重みを乗じた値が後の層のユニットに入力され
、後の層のユニットは前の層のすべてのユニットからの
値の総和を計算し、出力関数として定義される非線形変
換を施した後、次の層に出力するようになっている。
The neural network 10 is composed of a plurality of units, which are neurons indicated by circles, and includes an input layer 7 to which each joint angle of each finger, hand position and direction signals are supplied, and an output signal from the input layer 7. The intermediate layer 9 consists of at least one intermediate layer 9 consisting of a plurality of units coupled to be supplied with a As shown in the figure, it is composed of three layers: an output layer 11 that outputs sign language translation results such as word 1, word 2, ... word 7, and the units in each adjacent layer are connected with each other using unique weighting coefficients. has been done. In addition, in this neural network 10, the value obtained by multiplying the output value of the unit in the previous layer by the weight is input to the unit in the subsequent layer, and the unit in the subsequent layer receives the values from all the units in the previous layer. After calculating the sum and applying a nonlinear transformation defined as an output function, it is output to the next layer.

【0014】ニューラルネットワーク10からの出力信
号は、出力側変換装置13によって言語レベルまたは聴
覚レベル情報に変換されて、ディスプレイ15およびス
ピーカ17に供給され、ディスプレイ15から文字とし
て表示されるとともに、スピーカ17から音声として出
力される。
The output signal from the neural network 10 is converted into language level or auditory level information by the output side conversion device 13, and is supplied to the display 15 and the speaker 17. is output as audio.

【0015】図1に示すニューラルネットワーク10の
出力層11は、7つのユニットを有し、それぞれ7つの
単語または意味を出力するようになっている。この単語
または意味の数は出力層11のユニットの数を変えるこ
とによって自由に設定できる。手話者が手話を行った場
合に、出力層11のあるユニットから近似的に「1」の
値が出力され、その他のユニットから近似的に「0」の
値が出力された場合、手話者がデータグローブ1によっ
て表現した単語または意味はその近似的に「1」の値が
出力されたユニットが代表する単語または意味であるこ
とを意味する。
The output layer 11 of the neural network 10 shown in FIG. 1 has seven units, each of which outputs seven words or meanings. The number of words or meanings can be freely set by changing the number of units in the output layer 11. When a sign language person performs sign language, if a certain unit of the output layer 11 outputs a value of approximately "1" and other units approximately output a value of "0", the sign language person The word or meaning expressed by the data globe 1 means that the word or meaning represented by the unit whose approximate value is "1" is output.

【0016】以上のように構成されるニューラルネット
ワーク10による手話自動翻訳は大別して2つのプロセ
スからなる。
Automatic sign language translation by the neural network 10 configured as described above is roughly divided into two processes.

【0017】第1のプロセスは学習プロセスである。こ
の学習プロセスでは、サンプルとして手話者が手話を行
った場合のデータグローブ1および位置方向センサ3の
出力信号を教師信号としてニューラルネットワーク10
の入力層7に入力して得られる出力層の出力と理想的な
出力(手話者が手話によって表現した単語、意味を代表
するユニットの出力のみ「1」であり、その他のユニッ
トの出力は「0」であるような出力)との誤差を使用し
てニューラルネットワーク10を改善し、正しいニュー
ラルネットワーク10を構成する。このニューラルネッ
トワークの構成は、逆伝搬学習則(バックプロパゲーシ
ョン)という手法によってユニット間の重みの値を変え
ていき、最終的に手話者が手話を行った場合のデータグ
ローブ1および位置方向センサ3の出力値を入力すると
、手話者が表現しようとした正しい単語または意味のユ
ニットのみ「1」を出力するようなニューラルネットワ
ークを構成するものである。
The first process is a learning process. In this learning process, the neural network 10 uses the output signals of the data glove 1 and the position/direction sensor 3 as teacher signals when a sign language person performs sign language as a sample.
The output of the output layer obtained by inputting the input to the input layer 7 of 0'') is used to improve the neural network 10 and construct a correct neural network 10. The configuration of this neural network is to change the weight values between units using a method called back propagation learning rule, and finally the data glove 1 and the position/direction sensor 3 when a sign language person signs. When inputting the output value of , a neural network is constructed that outputs "1" only for the correct word or unit of meaning that the sign language person was trying to express.

【0018】第2プロセスは上述した学習によって完成
されたニューラルネットワークを使用して、未知の手話
者が手話を行った場合のデータグローブ1および位置方
向センサ3の出力信号をニューラルネットワーク10の
入力層7に入力し、出力層11からの出力によって手話
者が表現しようとした単語または意味を判別するもので
ある。
The second process uses the neural network completed by the learning described above to input the output signals of the data glove 1 and the position/direction sensor 3 when an unknown sign language person signs to the input layer of the neural network 10. 7 and the output from the output layer 11 is used to determine the word or meaning that the sign language person is trying to express.

【0019】従って、手話者が手話をした場合のデータ
グローブ1および位置方向センサ3からの出力信号をニ
ューラルネットワーク10の入力層7に入力し、逆伝搬
学習則によって学習すれば、対象とする手話を判別する
ニューラルネットワークが形成される。そして、学習が
終わった後に未知の手話者が手話をした場合のデータグ
ローブ1および位置方向センサ3からの出力信号をニュ
ーラルネットワーク10に入力すれば、その手話の単語
または意味が何であるかを即座に判別することができる
Therefore, if the output signals from the data glove 1 and the position/direction sensor 3 when a sign language person signs are input to the input layer 7 of the neural network 10 and learned by the back propagation learning rule, the target sign language can be learned. A neural network is formed to determine the After the learning is completed, if the output signals from the data glove 1 and position/direction sensor 3 when an unknown sign language person signs are input to the neural network 10, the words or meanings of the sign language can be instantly determined. can be determined.

【0020】次に、実際の手話について説明し、本手話
自動翻訳装置をどのように適用するかを説明する。手話
はいくつかの身体や手の動きの動作単位を組み合わせて
行う映像的な表現様式である。動作単位の簡単なものに
は指文字がある。これは助詞や助動詞、活用語尾等を表
現するために使用され、手話で音声語を表現することが
できるものである。
Next, actual sign language will be explained, and how this automatic sign language translation device is applied will be explained. Sign language is a visual form of expression that combines several units of body and hand movements. A simple action unit is a finger letter. This is used to express particles, auxiliary verbs, conjugated endings, etc., and can express spoken words in sign language.

【0021】50音の指文字の一例を図2に示し、アル
ファベットの指文字を図3に示す。このような指文字の
場合は片方の手で表現することができる。従って、この
指文字の翻訳を本手話自動翻訳装置で実現するためには
、データグローブ1をはめて、各々の指文字の形を作り
、各指文字に対応する教師信号を与え、ニューラルネッ
トワーク10で学習させればよい。
FIG. 2 shows an example of the 50-sound finger letters, and FIG. 3 shows the alphabet letters. This kind of finger writing can be expressed with one hand. Therefore, in order to translate these finger letters with the automatic sign language translation device, the data glove 1 is put on, the shape of each finger letter is created, a teacher signal corresponding to each finger letter is given, and the neural network 10 You can learn it using .

【0022】但し、指文字の「の」や「り」等は他の指
文字と異なり、動作が静的でなく、動的なものであるの
で、この場合には図1に示すように例えばフットスイッ
チ等からなるデータ区分スイッチ19および動作分割ス
イッチ21を使用して、動作時の検知出力信号を区切り
、時系列データにしてニューラルネットワーク10に入
力させて学習させればよい。しかしながら、人によって
動作の速度等が異なるため、区切り方を工夫する必要が
ある。指文字の場合は、単純な動的動作のため動作の始
めと終わりのデータを動作分割スイッチ21で切り出し
て入力すればよい。
However, unlike other finger characters, the movements of finger characters such as "no" and "ri" are not static but dynamic, so in this case, for example, as shown in FIG. The data division switch 19 and the operation division switch 21, which are comprised of a foot switch or the like, may be used to divide the detection output signal during the operation, convert it into time series data, and input it into the neural network 10 for learning. However, since the speed of movement etc. differs depending on the person, it is necessary to devise a method of division. In the case of finger characters, since it is a simple dynamic motion, the data at the beginning and end of the motion can be cut out using the motion division switch 21 and input.

【0023】また、実際の手話は図4に示すように行わ
れる。図4は、「私の友達、林さんです」という手話を
行っている状態を示している。この場合は、まず手話に
使用する動作単位毎の単語、意味をニューラルネットワ
ーク10に学習させておき、翻訳時には手話者に動作単
位毎に動作分割スイッチ21で区切りを入れてもらって
、動作単位毎のデータグローブ1および位置方向センサ
3の検知出力信号を学習済みのニューラルネットワーク
10に入力すれば、動作単位毎の単語、意味がニューラ
ルネットワーク10から出力信号として出力されるので
、この出力信号を前記出力側変換装置13を介してディ
スプレイ15およびスピーカ17に供給することにより
、手話の翻訳結果がディスプレイ15に表示されるとと
もに、スピーカ17から音声として出力される。なお、
この場合には、2つの手を使用するので、データグロー
ブ1および位置方向センサ3をそれぞれ2つ使用するこ
とが必要である。また、図4の3コマ目にあるように動
的な動作もかなり入ってくるので、指文字で説明した方
法によって学習させる。
[0023]Actual sign language is performed as shown in FIG. FIG. 4 shows a state in which a person is using sign language to say, "This is my friend, Mr. Hayashi." In this case, first, the neural network 10 is trained to learn the words and meanings for each action unit used in sign language, and when translating, the sign language person is asked to separate each action unit using the action division switch 21. If the detection output signals of the data glove 1 and the position/direction sensor 3 are input to the trained neural network 10, the words and meanings of each action unit are outputted from the neural network 10 as an output signal, so this output signal is used as the output signal. By supplying the sign language translation result to the display 15 and speaker 17 via the side conversion device 13, the sign language translation result is displayed on the display 15 and outputted as audio from the speaker 17. In addition,
In this case, since two hands are used, it is necessary to use two data gloves 1 and two position/direction sensors 3. In addition, as shown in the third frame of FIG. 4, there is a considerable amount of dynamic movement involved, so the method explained using finger letters is used for learning.

【0024】[0024]

【発明の効果】以上説明したように、本発明によれば、
手話者が手話によって表現する単語、意味、文章等を自
動的に日常語に翻訳することができるので、手話者と手
話を知らない一般の人とのコミュニケーションを円滑に
行うことができる。
[Effects of the Invention] As explained above, according to the present invention,
Since words, meanings, sentences, etc. expressed by a sign language person in sign language can be automatically translated into everyday language, communication between the sign language person and ordinary people who do not know sign language can be carried out smoothly.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例に係わるニューラルネットワ
ークを用いた手話自動翻訳装置の全体構成図である。
FIG. 1 is an overall configuration diagram of an automatic sign language translation device using a neural network according to an embodiment of the present invention.

【図2】50音の指文字の一例を示す図である。FIG. 2 is a diagram showing an example of a 50-sound finger alphabet.

【図3】アルファベットの指文字を示す図である。FIG. 3 is a diagram showing finger letters of the alphabet.

【図4】実際の手話の例を示す図である。FIG. 4 is a diagram showing an example of actual sign language.

【符号の説明】[Explanation of symbols]

1  データグローブ 3  位置方向センサ 7  入力層 9  中間層 10  ニューラルネットワーク 11  出力層 15  ディスプレイ 17  スピーカ 1. Data glove 3 Position direction sensor 7 Input layer 9. Middle class 10 Neural network 11 Output layer 15 Display 17 Speaker

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】  手の各指の各関節角度を検知する第1
の検知手段と、手の位置および方向を検知する第2の検
知手段と、前記第1および第2の検知手段からの検知信
号を供給される複数のユニットからなる入力層、該入力
層からの出力信号を供給されるように結合される複数の
ユニットからなる少なくとも1層以上の中間層および該
中間層からの出力信号を供給されるように結合される複
数のユニットからなり、各ユニットから手話翻訳結果が
出力される出力層を有し、各隣合う層のユニット同志が
固有の重み係数をもってもれなく結合されており、前の
層のユニットの出力値に前記重みを乗じた値が後の層の
ユニットに入力され、後の層のユニットは前の層のすべ
てのユニットからの値の総和を計算し、出力関数として
定義される非線形変換を施した後、次の層に出力するニ
ューラルネットワークと、該ニューラルネットワークか
ら出力される手話翻訳結果を言語レベルに変換する変換
手段とを有することを特徴とするニューラルネットワー
クを用いた手話自動翻訳装置。
[Claim 1] A first sensor that detects the angle of each joint of each finger of the hand.
an input layer comprising a detection means, a second detection means for detecting the position and direction of the hand, and a plurality of units supplied with detection signals from the first and second detection means; At least one intermediate layer consisting of a plurality of units coupled to each other so as to be supplied with an output signal, and a plurality of units coupled to each other so as to be supplied with an output signal from the intermediate layer, from each unit a sign language It has an output layer in which the translation result is output, and the units in each adjacent layer are all connected with a unique weighting coefficient, and the value obtained by multiplying the output value of the unit in the previous layer by the weight is the output value in the next layer. A neural network in which the unit in the next layer calculates the sum of the values from all the units in the previous layer, performs a nonlinear transformation defined as an output function, and then outputs it to the next layer. 1. A sign language automatic translation device using a neural network, comprising: a conversion means for converting a sign language translation result outputted from the neural network into a language level.
【請求項2】  前記第1の検知手段で検知される手の
各指の各関節角度情報および前記第2の検知手段で検知
される手の位置および方向情報の時系列データ値を作成
するデータ区分スイッチおよび前記各情報を動作単位毎
に分割する動作分割スイッチを有することを特徴とする
請求項1記載のニューラルネットワークを用いた手話自
動翻訳装置。
2. Data for creating time series data values of each joint angle information of each finger of the hand detected by the first detection means and the position and direction information of the hand detected by the second detection means. 2. The automatic sign language translation device using a neural network according to claim 1, further comprising a classification switch and an action division switch that divides the information into action units.
【請求項3】  計測済みの各手話翻訳結果に対応する
手の各指の各関節角度および手の位置および方向情報の
時系列データを教師信号としてニューラルネットワーク
の入力層に供給して得られる出力層の出力信号と理想的
な出力信号との誤差を使用してニューラルネットワーク
の各ユニット間の重みの値を変更し、手の各指の各関節
角度および手の位置および方向の入力情報に対応する正
しい手話翻訳結果を出力するようにニューラルネットワ
ークを学習させ、この学習したニューラルネットワーク
の入力層に未知の手の各指の各関節角度および手の位置
および方向情報の時系列データを入力して、該入力情報
に対応する手話翻訳結果をニューラルネットワークの出
力層から出力することを特徴とするニューラルネットワ
ークを用いた手話自動翻訳方法。
[Claim 3] Output obtained by supplying time-series data of each joint angle of each finger of the hand and position and direction information of the hand corresponding to each measured sign language translation result to the input layer of the neural network as a teacher signal. The error between the output signal of the layer and the ideal output signal is used to change the weight value between each unit of the neural network, corresponding to the input information of each joint angle of each finger of the hand and the position and direction of the hand. A neural network is trained to output the correct sign language translation result, and time series data of each joint angle of each finger of an unknown hand and hand position and direction information is input to the input layer of this trained neural network. An automatic sign language translation method using a neural network, characterized in that a sign language translation result corresponding to the input information is output from an output layer of a neural network.
JP2406051A 1990-12-25 1990-12-25 Automatic finger talking translating device using neural network and its translating method Pending JPH04222014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2406051A JPH04222014A (en) 1990-12-25 1990-12-25 Automatic finger talking translating device using neural network and its translating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2406051A JPH04222014A (en) 1990-12-25 1990-12-25 Automatic finger talking translating device using neural network and its translating method

Publications (1)

Publication Number Publication Date
JPH04222014A true JPH04222014A (en) 1992-08-12

Family

ID=18515677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2406051A Pending JPH04222014A (en) 1990-12-25 1990-12-25 Automatic finger talking translating device using neural network and its translating method

Country Status (1)

Country Link
JP (1) JPH04222014A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219703A (en) * 1994-02-03 1995-08-18 Canon Inc Gesture input method and its device
JPH07311545A (en) * 1994-05-16 1995-11-28 Hitachi Ltd Finger language interpretation device
US5481454A (en) * 1992-10-29 1996-01-02 Hitachi, Ltd. Sign language/word translation system
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
KR100617976B1 (en) * 2004-11-15 2006-08-31 한국과학기술원 Hand-posture database construction, hand-posture recognition, and recording medium
JP2016130940A (en) * 2015-01-14 2016-07-21 東洋紡株式会社 Glove type input device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
US5481454A (en) * 1992-10-29 1996-01-02 Hitachi, Ltd. Sign language/word translation system
EP0600605A3 (en) * 1992-10-29 1996-04-10 Hitachi Ltd Sign language/word translation system.
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US5953693A (en) * 1993-02-25 1999-09-14 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
JPH07219703A (en) * 1994-02-03 1995-08-18 Canon Inc Gesture input method and its device
JPH07311545A (en) * 1994-05-16 1995-11-28 Hitachi Ltd Finger language interpretation device
KR100617976B1 (en) * 2004-11-15 2006-08-31 한국과학기술원 Hand-posture database construction, hand-posture recognition, and recording medium
JP2016130940A (en) * 2015-01-14 2016-07-21 東洋紡株式会社 Glove type input device

Similar Documents

Publication Publication Date Title
Mehdi et al. Sign language recognition using sensor gloves
US10446059B2 (en) Hand motion interpretation and communication apparatus
Waldron et al. Isolated ASL sign recognition system for deaf persons
Harish et al. Design and development of hand gesture recognition system for speech impaired people
Arsan et al. Sign language converter
Phi et al. A glove-based gesture recognition system for Vietnamese sign language
KR20180126353A (en) Sensor transformation attention network(stan) model
JPH04222014A (en) Automatic finger talking translating device using neural network and its translating method
Bhat et al. Advanced glove for deaf and dumb with speech and text message on android cell phone
Haq et al. Indonesian sign language recognition application for two-way communication deaf-mute people
Sarawate et al. A real-time American Sign Language word recognition system based on neural networks and a probabilistic model.
Poornima et al. Review on text and speech conversion techniques based on hand gesture
Sarker et al. An intelligent system for conversion of bangla sign language into speech
Altaf et al. Deep learning approach for sign language recognition using densenet201 with transfer learning
Vamplew Recognition of sign language using neural networks
Alfonse et al. Arabic sign language benchmark database for different heterogeneous sensors
Khambaty et al. Cost effective portable system for sign language gesture recognition
Choudhury et al. Automatic recognition of Bangla sign language
Hassan et al. Designing a verbal deaf talker system using mouth gestures
Wolf et al. Linking Speech and Gesture in Multimodal Instruction Systems
JPH02232783A (en) Syllable recognizing device by brain wave topography
Hossain et al. SIGN LANGUAGE TO SPEECH CONVERSION USING ARDUINO
Truong et al. A Vision-based Hand-sign Language Teaching System using Deep Neural Network: Methodology and Experiments
Patil et al. SIGN SCHOOL-An interactive website to promote Indian Sign Language
Seviappan et al. Sign Language to Text Conversion using RNN-LSTM